시험 과제를 정리하면서
6과목중 마지막 1과목만 남았다.
대학 수학, 확률, 통계, 파이썬R, 인공지능 등
이전에 공부 정리한다고,
정신없이 하다보니
내가 이전에 뭘했나 가끔 검색해서 볼때는 도움되지만
머리에는 하나도 남아있지 않더라
그래서 이번 과제를 하면서
공부했던 내용들을 많이 복습 할수 있었다.
(오래 걸리기도 했고 ..)
특히 파이썬R이 문제가 4개인데
한문제에 문제가 문항이 2~4개있고,
한 문항이 그룹별 시각화를 하라고하니
과제하면 할수록 하기싫어져 더 오래 걸리긴 했다.
이번에 인공지능 과제물을 하는 중에
예~ 전에 공부했던 밑바닥에서 시작하는 딥러닝 책을 참고하는데
기억이 새록새록 나면서도,
필터를 시각화 했을때 나오는 이상한 문양들이 이게 무슨소리인지
잘 이해하지 못하곤 했었다.
한동안 딥러닝을 공부하지 않으면서 서서히 잊어가다
이제서야 합성곱 연산의 결과가 특징이고
학습된 필터 결과가 특징 분류기인걸 이해했다 ..
한가지만 깊이 해야하는데 ㅋㅋㅋㅋㅋ
그걸 보고나서
뒤에 나오는
LeNet 부터 vgg16, googlenet 등등 보면서
지금은 신경망 모델을 이해할수 있을것 같은 자신감이 생기더라
한번 딥러닝에 대해서 쭉 정리해보고는 싶었는데
마침 저자가 합성곱 계층별 필터 시각화에 대해 다음 논문을 참고 했더라.
오늘 과제 마무리하고 저 논문을 정리해볼까 싶다.
Visualizing and Understanding Convolutional Networks
합성곱 신경망의 시각화와 이해
ref : arxiv.org/abs/1311.2901
많은 합성곱 신경망 모델들이 이미지넷 밴치마크에서 좋은 성능을 보이고 있는데, 왜 이렇게 성능이 좋고, 어떻게 개선되는지는 명확하지 않았습니다. 본 논문에서는 이 문제들을 다루었으며, 중간 특징 계층과 분류기 동작을 시각화하여 보여주고자 합니다.
이 과정에서 이미지넷 분류 밴치마크에서 krizhesky의 것보다 더 좋은 성능의 모델을 만들었으며, 여러 모델 계층에서 하나를 제거시 어떻게 성능 변화가 생기는지 실험해보았습니다. 추가적으로, 이 모델을 다른 데이터 셋에 훈련하고 실험해 본 결과 잘 동작하는것을 볼수 있었습니다.