활성화 함수가 아닌것은?
- tan(x)
- max(0, x)
- tanh(x)
- max(0.1x, x)
정답 : 1번, 나머지 ReLU, tanh, Leaky ReLU는 활성화 함수비용 함수 loss function에 관해 틀린 설명은?
- 비용 함수는 현재 모델이 올바른지를 평가하기 위한 함수이다.
- 분류 문제의 비용함수로 multiclass svm loss, ross entropy loss가 있다.
- 회귀 문제의 비용함수로 MSE와 RMSE가 있다.
- 최적화 과정은 비용 함수를 최대화하기 위하여 수행한다.
정답 : 4번, 비용 함수를 최소화 시키는 방향으로 최적화를 수행한다.특징 변환 feature transform에 관한 틀린 설명은 것은?
- 신경 망에서는 특징 변환을 위해 활성화 함수가 사용된다.
- 특징 변환을 통해 기존에 선형 분리가 불가능한 데이터가 선형 분리가 가능해진다.
- ReLU 함수로 변환 후 선형 분리가 가능해진 데이터를 다시 역변환시켜도 선형 분리가 가능하다.
- 특징 변환은 기존 좌표계의 데이터를 다른 좌표계 상에서 나타내는것을 말한다.
정답 : 3번, ReLU 함수로 특징 변환 후 선형 분리가 가능해진 데이터는, 원래 공간으로 역 변환시 선형 분리가 불가능하다.
Q)정규화 기법이 아닌것은?
- 배치 정규화 Batch Normalization
- 레이어 정규화 Layer Normalization
- 인스턴스 정규화 Group Normalization
- 활성 정규화 Activation Normalization
정답 : 4번, 정규화의 종류로 배치/레이어/인스턴스/그룹 정규화가 있다.Q)풀링 계층의 하이퍼 파라미터가 아닌것은?
- 커널 사이즈
- 스트라이드
- 패딩
- 풀링 함수
정답 : 3번. 풀링 계층은 패딩을 지정할 필요가 없다.Q) 역전파 과정에서 계산되는 그라디언트의 종류가 아닌것은?
- 다운 스트림 그라디언트
- 패러랠 그라디언트
- 로컬 그라디언트
- 업스트림 그라디언트
정답 : 2번. 역전파 과정에서 로컬 그라디언트와 업스트림 그라디언트를 곱해 다운스트림 그라디언트를 구한다.Q. 최적화 기법이 아닌것은?
- 확률적 경사 하강법
- Adaptive Gradient
- RMSProp
- RMSE
정답 : 4번. RMSE는 회귀 문제에서 사용되는 비용 함수, 척도이다.
Q ) Internal Covariate Shift에 관한 설명으로 틀린것은?
- 이 현상을 제거시킴으로서 그라디언트가 사라지는 문제를 개선하였고, 깊은 신경망을 만들 수 있게 되었다.
- 이전 파라미터의 변화로 인해 현재 입력의 분포가 바뀌는 현상을 말한다.
- 이 현상을 제거시키는 방법으로 드롭 아웃이 있다.
- 이 현상을 제거시키는 방법으로 배치 정규화와 화이트닝(백색잡음화. 평균 0, 분산 1)이 있다.
정답 : 3번, 드롭 아웃은 과적합을 제거시키기 위해 사용한다.
출처 : https://m.blog.naver.com/laonple/220808903260
Q ) 드롭 아웃에 관한 설명으로 틀린것은?
- 과적합 문제를 해결하기 위해 사용되었다.
- 학습 과정에 무작위로 신경망의 일부를 생략하면서 다양한 모델들을 투표한 것 같은 효과를 낸다.
- 각 뉴런들이 서로 동조화, 비슷해지는 현상을 막아 더 뚜렷한 특징들을 얻는다.
- 모든 데이터를 평균이 0, 분산이 1이 되도록 정규화 시킨다.
정답 : 4번, 화이트닝에 관한 설명이다.
출처 : https://m.blog.naver.com/laonple/220818841217
Q ) 활성화 함수에 관한 설명으로 틀린것은?
- sigmoid : 입력 값이 일정 이상 올라가면 기울기가 0에 가까워져 그라디언트 소멸 현상이 생긴다.
- tanh : sigmoid와는 다르게 그라디언트 소멸 현상이 생기지 않는다.
- ReLU : sigmoid나 tanh보다 구현이 매우 간단하고, 연산 비용도 가벼우며 학습 속도도 빠르나. 0보다 작은 경우 출력이 없어진다.
- Leakly ReLU : ReLU의 단점을 보완하기 위해 x < 0인 경우, 입력에 0.01를 곱하여 ReLU의 단점을 보완했다.
정답 : 2번 , tanh도 시그모이드와 마찬가지로 그라디언트 소멸 현상이 생긴다.
출처 : https://newly0513.tistory.com/20
Q) 신경망 아키텍처에 관한 설명으로 틀린것은?
- AlexNet과 ZFNet은 좋은 이미지 분류 성능을 내는 하이퍼 파라미터들을 시행착오를 통해 찾았다.
- VGG는 특정한 설계 규칙으로 만든 신경망이며 합성곱층의 커널크기를 직접 탐색하지 않고, 커널이 작은 합성곱 층을 쌓음으로서 더 좋은 성능을 내었다.
- GoogLeNet은 aggressive stem, inception module, average pooling으로 더 효율적인 모델을 만들었다.
- 신경망 아키텍처 설계에서 메모리 공간 크기, 학습 가능한 파라미터 개수, 소수점 연산횟수 FLOP은 중요한 척도가 아니다.
정답 : 4번, 신경망 아키텍처 설계에서 다음 요소들은 매우 중요한 척도이다.
출처 : 저스틴 존슨 교수님의 컴퓨터 비전 강의, 신경망 아키텍처
Q) 다양한 신경망 아키텍처에 관해 옳은 설명이 아닌것은?
- Network Architecture Search : 컨트롤러 신경망이 자식 신경망을 만들어내. 가장 좋은 성능의 자식 신경망을 찾는다.
- mobileNet, ShuffleNet : 저성능 환경에서도 사용가능하다.
- 신경망 아키텍처를 설계할 때 베이스라인 모델을 사용하지 않고, 처음부터 설계해 나가는것이 좋다.
- ResNeXt : Residual Block을 여러 그룹으로 병렬화를 하여 더 좋은 성능을 내었다.
정답 : 3번, 신경망 아키텍처 설계시 목적에 맞는 베이스라인 모델을 선정하여 개선해 나가는게 좋다.
출처 : 저스틴 존슨 교수님의 컴퓨터 비전 강의, 신경망 아키텍처
'번역 > 컴퓨터비전딥러닝' 카테고리의 다른 글
딥러닝비전 10. 신경망 학습하기 파트 1 - 1. 활성화 함수 (0) | 2021.02.21 |
---|---|
딥러닝비전 8. 합성곱 신경망 아키텍처 5 - Others (0) | 2021.02.19 |
딥러닝비전 8. 합성곱 신경망 아키텍처 4 - ResNet (0) | 2021.02.14 |
딥러닝비전 8. 합성곱 신경망 아키텍처 3 - GoogLeNet (0) | 2021.02.14 |
딥러닝비전 8. 합성곱 신경망 아키텍처 2 - ZFNet, VGG - 16 (0) | 2021.02.14 |