728x90

C4W1L07 One Layer of a Convolutional Net

- 6 x 6 x 3의 입력과 3 x 3 x 3 크기의 필터가 2개가 주어짐

- 입력과 각 필터를 합성곱 연산을 한 후에 실수 값인 편향을 더해주고  비선형 함수인 relu를 적용

- 위 과정이 합성곱 계층에서의 연산. 이 예시의 경우 4 x 4 x 2의 출력이 나옴.

* 3 x 3 x 3 크기의 필터가 10개라면 => 4 x 4 x 10의 출력이 나온다.

 

- 한 레이어의 파라미터 개수가 몇개일까?

 * 3 x 3 x 3 크기의 필터가 10개가 존재하는 신경망의 한 계층에서

- 3 x 3 x 3(하나의 필터 파라미터) + 1(편향) = 28

- 필터가 10개이므로 10 x 28 = 280개의 파라미터가 한 레이어에 필요하다.

 * 입력 이미지의 크기는 상관없음.

 

 

- 아래의 내용은 합성곱 레이어 입출력에 대한 표기 예시

 

 

 

C4W1L08 Simple Convolutional Network Example

- 39 x 39 x 3 크기의 입력이 들어올때

- 필터크기 : 3, 스트라이드 :1, 패딩 0, 필터 개수 10

 => 특징맵 : 37 x 37 x 10 의 출력이 나옴

* 점점 특징맵 공간적 크기는 줄어드나 채널이 늘어남

- 최종 출력은 7 x 7 x 40

- 최종 출력을 펼친 후 1960개의 특징으로 로지스틱회귀나 소프트맥스 함수로 분류 수행

 

 

합성곱 신경망 레이어 타입들

- 합성곱 레이어

- 풀링 레이어

- 완전 연결 계층

 

 

 

 

 

 

 

 

 

 

300x250

+ Recent posts