728x90

 

활성화 함수가 아닌것은?

  1. tan(x)
  2. max(0, x)
  3. tanh(x)
  4. max(0.1x, x)

정답 : 1번, 나머지 ReLU, tanh, Leaky ReLU는 활성화 함수비용 함수 loss function에 관해 틀린 설명은?

  1. 비용 함수는 현재 모델이 올바른지를 평가하기 위한 함수이다.
  2. 분류 문제의 비용함수로 multiclass svm loss, ross entropy loss가 있다.
  3. 회귀 문제의 비용함수로 MSE와 RMSE가 있다.
  4. 최적화 과정은 비용 함수를 최대화하기 위하여 수행한다.

정답 : 4번, 비용 함수를 최소화 시키는 방향으로 최적화를 수행한다.특징 변환 feature transform에 관한 틀린 설명은 것은?

  1. 신경 망에서는 특징 변환을 위해 활성화 함수가 사용된다.
  2. 특징 변환을 통해 기존에 선형 분리가 불가능한 데이터가 선형 분리가 가능해진다.
  3. ReLU 함수로 변환 후 선형 분리가 가능해진 데이터를 다시 역변환시켜도 선형 분리가 가능하다.
  4. 특징 변환은 기존 좌표계의 데이터를 다른 좌표계 상에서 나타내는것을 말한다.

정답 : 3번, ReLU 함수로 특징 변환 후 선형 분리가 가능해진 데이터는, 원래 공간으로 역 변환시 선형 분리가 불가능하다. 

 

 

 

 

 

 

 

 

 

Q)정규화 기법이 아닌것은?

  1. 배치 정규화 Batch Normalization
  2. 레이어 정규화 Layer Normalization
  3. 인스턴스 정규화 Group Normalization
  4. 활성 정규화 Activation Normalization

정답 : 4번, 정규화의 종류로 배치/레이어/인스턴스/그룹 정규화가 있다.Q)풀링 계층의 하이퍼 파라미터가 아닌것은?

  1. 커널 사이즈
  2. 스트라이드
  3. 패딩
  4. 풀링 함수

정답 :  3번. 풀링 계층은 패딩을 지정할 필요가 없다.Q) 역전파 과정에서 계산되는 그라디언트의 종류가 아닌것은?

  1. 다운 스트림 그라디언트
  2. 패러랠 그라디언트
  3. 로컬 그라디언트
  4. 업스트림 그라디언트

정답 : 2번. 역전파 과정에서 로컬 그라디언트와 업스트림 그라디언트를 곱해 다운스트림 그라디언트를 구한다.Q. 최적화 기법이 아닌것은?

  1. 확률적 경사 하강법
  2. Adaptive Gradient
  3. RMSProp
  4. RMSE

정답 : 4번. RMSE는 회귀 문제에서 사용되는 비용 함수, 척도이다.

 

 

 

 

 

 

 

 

 

 

 

Q ) Internal Covariate Shift에 관한 설명으로 틀린것은?

  1. 이 현상을 제거시킴으로서 그라디언트가 사라지는 문제를 개선하였고, 깊은 신경망을 만들 수 있게 되었다.
  2. 이전 파라미터의 변화로 인해 현재 입력의 분포가 바뀌는 현상을 말한다.
  3. 이 현상을 제거시키는 방법으로 드롭 아웃이 있다.
  4. 이 현상을 제거시키는 방법으로 배치 정규화와 화이트닝(백색잡음화. 평균 0, 분산 1)이 있다.

정답 : 3번, 드롭 아웃은 과적합을 제거시키기 위해 사용한다.
출처 : https://m.blog.naver.com/laonple/220808903260

 

 

 

Q ) 드롭 아웃에 관한 설명으로 틀린것은?

  1. 과적합 문제를 해결하기 위해 사용되었다.
  2. 학습 과정에 무작위로 신경망의 일부를 생략하면서 다양한 모델들을 투표한 것 같은 효과를 낸다.
  3. 각 뉴런들이 서로 동조화, 비슷해지는 현상을 막아 더 뚜렷한 특징들을 얻는다.
  4. 모든 데이터를 평균이 0, 분산이 1이 되도록 정규화 시킨다.

정답 : 4번, 화이트닝에 관한 설명이다.
출처 : https://m.blog.naver.com/laonple/220818841217

 

 

 

Q ) 활성화 함수에 관한 설명으로 틀린것은?

  1. sigmoid : 입력 값이 일정 이상 올라가면 기울기가 0에 가까워져 그라디언트 소멸 현상이 생긴다.
  2. tanh : sigmoid와는 다르게 그라디언트 소멸 현상이 생기지 않는다.
  3. ReLU : sigmoid나 tanh보다 구현이 매우 간단하고, 연산 비용도 가벼우며 학습 속도도 빠르나. 0보다 작은 경우 출력이 없어진다.
  4. Leakly ReLU : ReLU의 단점을 보완하기 위해 x < 0인 경우, 입력에 0.01를 곱하여 ReLU의 단점을 보완했다.

정답 : 2번 , tanh도 시그모이드와 마찬가지로 그라디언트 소멸 현상이 생긴다.
출처 : https://newly0513.tistory.com/20

 

 

Q) 신경망 아키텍처에 관한 설명으로 틀린것은?

  1. AlexNet과 ZFNet은 좋은 이미지 분류 성능을 내는 하이퍼 파라미터들을 시행착오를 통해 찾았다.
  2. VGG는 특정한 설계 규칙으로 만든 신경망이며 합성곱층의 커널크기를 직접 탐색하지 않고, 커널이 작은 합성곱 층을 쌓음으로서 더 좋은 성능을 내었다.
  3. GoogLeNet은 aggressive stem, inception module, average pooling으로 더 효율적인 모델을 만들었다.
  4. 신경망 아키텍처 설계에서 메모리 공간 크기, 학습 가능한 파라미터 개수, 소수점 연산횟수 FLOP은 중요한 척도가 아니다.

정답 : 4번, 신경망 아키텍처 설계에서 다음 요소들은 매우 중요한 척도이다.
출처 : 저스틴 존슨 교수님의 컴퓨터 비전 강의, 신경망 아키텍처

 

 

 

Q) 다양한 신경망 아키텍처에 관해 옳은 설명이 아닌것은?

  1. Network Architecture Search : 컨트롤러 신경망이 자식 신경망을 만들어내. 가장 좋은 성능의 자식 신경망을 찾는다.
  2. mobileNet, ShuffleNet : 저성능 환경에서도 사용가능하다.
  3. 신경망 아키텍처를 설계할 때 베이스라인 모델을 사용하지 않고, 처음부터 설계해 나가는것이 좋다.
  4. ResNeXt : Residual Block을 여러 그룹으로 병렬화를 하여 더 좋은 성능을 내었다.

정답 : 3번, 신경망 아키텍처 설계시 목적에 맞는 베이스라인 모델을 선정하여 개선해 나가는게 좋다.
출처 : 저스틴 존슨 교수님의 컴퓨터 비전 강의, 신경망 아키텍처

 

300x250

+ Recent posts