728x90

오늘은 바깥에 오래 돌아다니다보니

 

많은 내용을 하지는 못했습니다.

 

공업 수학에서

 

벡터 함수 정도 까지만 보면 충분 할것 같아

 

벡터 함수, 포텐셜, 보존장, 법선 벡터까지만 진행하고,

 

선적분 등의 내용은 생략하고 마무리하였습니다.

 

 

 

 

 

 

그리고 도서관에 들러

 

네트워크, 개발자 학습 방향 에세이, 알고리즘 등의

 

서적들을 조금 훑어보았습니다.

 

 

 

 

 

추가적인 학습 내용은

 

베이즈 통계학과 기존 통계학의 차이를 살펴보고

 

앞으로 최적화에 대해서 공부해나가야 하는데

 

최적화 공부 방향과 선형대수 일부분을 학습하였습니다.

 

 

 

 

 

그러다 마침 kmooc에서

 

데이터 분석을 목표로 선형 대수, 확률, 최적화 이론을 통합한 강의가 있었는데

 

우선 간단히 최적화에 대해 전반을 다루어 본다음에

 

관련 학문들과 통합하여 한번에 보고자 합니다.

 

오늘은 여기까지.

 

 

2020-07-15

 

  • 지난 시간에는 벡터 기초와 행렬 그리고 행렬을 이용해 선형 시스템을 표현하고 이를 가우스 소거법, 가우스-조던 소거법등의 방법으로 해를 구하는 방법을 알아 본 뒤, 벡터의 미적분을 다루기 위한 다변수 함수와 편도함수에 대해서 살펴보았습니다. 이번 시간에는 공업 수학에서 필요한 부분을 간단히 살펴보면서 마무리하고, 앞으로 공부할 영역들을 고민해 보는 시간을 가진뒤 베이즈 통계학과 최적화에 대해서 잠시 정리해보았습니다.
  • 우선 다변수 함수를 살펴본 다음에 벡터 함수에 대해서 살펴보았습니다. 우리가 그 동안 알고 있던 함수는 스칼라 값에 대한 사상인 스칼라 함수이고, 벡터들을 다루는 벡터 함수에 대해서 살펴보았습니다. 벡터 함수를 통해 결과가 벡터가 나오며 이런 벡터 함수들의 값들을 크기와 방향을 함께 그린 벡터 장이라는 개념에 대해서 살펴 볼수 있었습니다. 벡터 장은 그래프 상에 화살표들의 흐름으로 원점에서 멀어질수록 길이를 길게 함으로서 벡터의 크기를 크게 표현을 하였는데, 영상 처리를 공부하거나 로봇 공학에서 이러한 장 표현들을 몇번 본적이 있지만 도저희 그런 응용 분야 서적에서는 수학적인 이론에 대해서 알고있다고 가정하고 서술해서인지 배경지식 없는 상태로 정말 힘들게 보곤 했습니다. 하지만 이렇게 벡터 장이라는 개념을 살펴보면서 그 때 그 의미가 무엇인지 조금이나마 이해하는데 도움될것 같습니다.
  • 특히 그 다음에는 기울기 벡터 그라디언트와 방향 도함수 등에 대해서 살펴보았는데, 그라디언트는 로봇 공학에서 자코비안을 다룰때 잠깐 공식으로만 찾아보고 자세한 의미를 알수는 없었습니다. 이번 기회에 그라디언트에 대한 간단한 설명을 같이 보고, 추가적으로 기울기 벡터의 크기 변화율이 아닌 방향 변화율을 의미하는 방향 도함수라는 개념을 살펴보았습니다.
  • 그 다음으로 간단하게 포텐셜과 보존 장에 대해서 살펴보았는데, 이전에 로봇 경로 계획 알고리즘 중에 포텐셜을 이용하는 방법이 있었지만 도저히 엄두가 나지 않아서 제대로 찾아본적이 없었습니다. 하지만 포텐셜과 보존장에 대한 공식을 통해 그라디언트를 적용하는 스칼라 함수를 포텐셜, 기울기 벡터를 보존장인 것을 이해할수 있었습니다. 이와 별개로 이변수 함수에 곡면 함수를 적용하여 얻은 등위 곡선 level curve과 등위 곡선 상에서 가장 큰 기울기를 가지는 법선 벡터에 대해서도 잠시 살펴보았습니다.
  • 인공지능과 로봇 공학에 있어서 베이즈라는 개념이 많이 사용되는걸로 알고 있습니다. 그런데 저는 베이즈가 사후확률을 구하기 위한 조건부확률? 정도로만 이해 했지 그 이상은 잘 모르고 있었습니다. 그러던 중 좋은 자료를 찾게 되어 통계학에는 일반 통계학과 베이즈 통계학이 있는 것을 알게 되었고, 일반 통계학이 실제 샘플 데이터로 추정을 수행한다면 베이즈 통계학은 현상에 대한 주관적인 확률 가설을 세우고 이를 베이즈 정리를 이용해서 추론해내는 과정 즉 정확한 데이터의 수치가 아닌 주관적인 가정 확률을 이용한다는 점에서 다른것을 알수 있었고 그러한 이유에서 믿음, 신뢰도라는 용어를 사용하는 것을 이해할수 잇었습니다.
  • 그 동안 공업 수학에서 필요하거나 할수 있는 부분들로 전반적인 내용과 베이즈 통계학에 대해서 간단히 살펴보았습니다. 이런 과정들이 결국에는 인공지능과 영상 처리등을 다루기 위한 최적화를 공부하기 위함이었고, 필요한 부분들을 다룬 만큼 이번에 최적화 이론에 대한 개괄적인 내용들을 살펴보았습니다. 그래서 잠시 살펴보니 최적화를 배우는데 선형대수를 기본적으로 알고 있어야 하고, 이후 1변수 함수와 다변수 함수, 컨벡스 함수 그리고 유명한 경사 하강법, 뉴턴 방법 등이 있는것을 알게 되었습니다. 그래서 차후에는 선형대수 전반에 대해서 살펴본 후 최적화를 차근차근 학습해 나가고자 합니다. 최적화에 대해서 마무리하면 당장은 영상 처리를 제대로 정리해보고자 합니다.

 

 

 

300x250

'미분류' 카테고리의 다른 글

2020-07-17  (0) 2020.07.19
2020-07-16  (0) 2020.07.18
2020-07-14  (0) 2020.07.15
2020-07-13  (0) 2020.07.13
2020-07-12  (0) 2020.07.13

+ Recent posts