728x90

기본적인  kaggle-api 내용들은 다음 링크 참고

 

teddylee777.github.io/kaggle/Kaggle-API-%EC%82%AC%EC%9A%A9%EB%B2%95

 

 

 

 

우선 코랩에서 구글드라이브  연동

 

 

 

 

 

캐글 설치 및 kaggle api 클론

 

 

현재 디랙토리, 버전 확인

 

 

api 만들기

 

 

google 드라이브에 저장

 

 

캐글 위치

/content/mnt/"My Drive"/kaggle.json 조기에 있다.

 

kaggle competetitions list 명령을 줫더니 /root/,kaggle에 없다고 안된다.

 

kaggle.json 옮기기고 명령어 주기

- 옮겻더니 잘 된다.

 

 

outdated api version 에러 발생

 

- 원인 : 오래된 대회걸 가져오려고 해서 그렇다.

다음 링크 참고하면, late submission 버튼을 눌러서 진행해주면 된다고한다.

 

https://github.com/Kaggle/kaggle-api/issues/87

 

 

 

 

오래된 캐글 대회 다운 확인

- late submission을 해줫더니 오래된것도 다운된다.

 

 

 

 

 

 

 

 

300x250
728x90

할일

- train/test 분리

- voting, bagging, boosting, stacking 차이

- xgboost, lightbgm 이해

 

 

과제

- seaborn의 anagrams, attention, car_crashes, diamonds_dots 분석

- train/test 분리, 앙상블

- 하이퍼파라미터 변경하며 train, test loss 비교

 

실습

- kaggle 자전거 공유 수요 데이터셋, train/validation 분할, 모델로 데이터 예측 후 submission format에 맞춰 csv 저장

- kaggle 샌프란시스코 범죄 데이터셋. train/validation 분할, 모델 예측 후 위와 동일

 

 

 

 

train_test_split

- 훈련, 테스트 데이터셋 분리

 

 

metric, score

- 모델 평가에 대한 측도

scikit-learn.org/stable/modules/model_evaluation.html

- classification : accuracy, f1, aoc, roc 등 사용

- clustering :  mutual info score, v measure score 등 사용

- regression : mean sqare error, r2 등 사용

 

 

 

 

 

앙상블 개요

- 회귀, 분류, 클러스터링에 다양한 모델들이 존재

- 여러 모델들을 사용하여 더 좋은 모델을 구하는 방법

- voting, bagging, boosting, stacking 등

 

앙상블 기법들

- voting : 여러 모델 중 최적의 모델을 보팅 해서 선정

- bagging (boostraping and aggregation) : 데이터 분할하여 각각의 모델에 학습하여 수렴.(수평)

- boosting : 약분류기들을 가중치 주면서, 수직으로 배치.

 -> adaboost, xgboost, lightdm 등

- stacking : 이전 분류기의 출력을 다음 분류기의 입력으로 사용. boosting과 유사

 

 

 

 

 

 

seaborn car crash (voting, vagging, xgboost)

1. 데이터 로드

- total, speeding, acholog, ...

- speeding, alcohol같이 이해되는 변수도 있지만 의미를 알기 힘든 변수들도 존재

 

 

 

3.3. Metrics and scoring: quantifying the quality of predictions — scikit-learn 0.23.2 documentation

3.3. Metrics and scoring: quantifying the quality of predictions There are 3 different APIs for evaluating the quality of a model’s predictions: Finally, Dummy estimators are useful to get a baseline value of those metrics for random predictions. 3.3.1.

scikit-learn.org

 

 

 

2. 시각화

- 데이터 프레임 플롯

- 지역별 알코올

 

- 지역별 속도

 

 

 

 

3. 데이터 분할과 결정트리 회귀 분석

 

- 라벨 인코딩

 

 

 

 

 

 

4. voting

- 분류기들 설정 및 학습

- train, test 데이터 별 스코어

 

- train 데이터, 예측 정도 plot

 

 

- 하이퍼 파라미터 n_estimator 별 score plot

 

 

 

5. bagging  - estimaotrs 갯수별 score

 

 

 

6.xgboost regression 

- estimator 갯수별 score

- 변수 중요도 plot : f0가 가장 중요한 변수

- speeding이 x0이므로 total 회귀에 가장 중요한 변수

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

santander product recommendation

- 이 고객이 향후 어떤 상품을 사용할까?

www.kaggle.com/c/santander-product-recommendation/overview

 

 

데이터 설명

www.kaggle.com/c/santander-product-recommendation/data

 

 

 

 

 

 

300x250
728x90

선형 회귀 모형

- 입력이 주어질때 결과를 예측하는 모형

- i번쨰 목표 변수의 값을 Y_i, 입력 변수들의 값 X_1i, ... X_pi라 할때 아래와 같이 정의

- 입력 변수와 회귀 계수의 선형 결합의 형태로 된 모델

- beta_0, ..., beta_p는 회귀 모수 regression parameter or regression coefficient로 아직모르는상수

- eta_i는 Y_i의 근사오차. 오차는 서로 독립이고 평균이 0, 일정한 분산을 가짐

 

 

회귀 계수를 추정하기

- 최소제곱법 least sequare method을 사용

- 각 관측치와 회귀 선까지 거리(오차) 제곱의 합을 최소화하는 계수들을 구함.

- 각 회귀 계수 beta_i에 대해 편미분하여 각각의 추정 회귀계수 hat_beta_i를 구함

- 추정해낸 회귀 모델은 아래와 같음.

 

회귀 계수의 의미

- beta_j는 타 변수가 일정할댸 j번째 변수가 변동시 Y의 변동량

- beta_j = Y에 대한 X_j의 기여도

- beta가 양수이면 X가 증가시 Y도 증가

 

 

입력 변수의 중요도

- 선형 회귀 모형에서 변수 중요도는 t value로 측정

- j번째 입력 X_j에 대한 t는 아래와 같이 정의 (SE는 표준 오차)

- SE(hat_beta_j)는 j번째 회귀계수 추정치 hat_beta_i의 표준오차

 ->t의 절대값이 클수록 영향력이 크다고 할 수 있다.

 

 

모형의 적합도 1 - F value

- F value :  모형 상수항 beta_를 제외한 모든 회귀계수가 0인지 아닌지 검정하는 측도

 -> F value는 회귀 직선으로 평균적으로 설명가능한 부분(mean squared regression:MSR)을

     설명할수없는 부분(mean sqared error; MSE)로 나눈값.

=> 에러에 비해서 직선이 얼마나 설명력이 큰가.

 ex. MSE가 매우크다 -> F는 작다 -> p value가 더크다

 -> 귀무 가설(모든 회귀 계수가 0)이다 채택 -> 유용하지 않은 회귀직선

 

- F value가 크면 입력변수들 중에서 하나는 유의(회귀 계수가 0이 아님).

- F value가 작아서 p value가 크다면 모든 입력가 유의하지 않으므로, 회귀 직선이 유용하지 않음.

 

 

모형의 적합도 2 - R-sqaured 결정계수

- 모형의 적합도 goodness of fit를 결정계수 (coefficient of determination) Rsquared로 측정  

- 결정계수 R2 : 직선이 설명하는 부분의 총합/ 변동의 총합으로 0~1값

- R squared는 변수 갯수가 많아질수록 증가함

=> adjusted R square 사용

 

 

 

회귀 모형으로 예측

- 새로운 입력 x_1i*, x_2i*, ..., x_pi*을 회귀식에 대입하여 hat_y_i*를 얻음.

 

예측력

- 회귀 모형이 얼마나 좋은지는 MSE를 주로 사용

 

로지스틱 회귀모형

- 목표 변수가 0, 1인 경우 아래와 같은 선형 회귀모형으로 설명할수가 없음.

- y_i = 0 또는 1은 힘드니 P(y=1) or P(y = 0)으로 다루자.

- 목표변수가 1이 될 확률을 pi_i = P(y_i = 1)이라 할때 아래와 같이 로지스틱 회귀모형 정의

  *성공확률 pi_i는 확률이므로 0~1사이 값

- pi_i의 오즈비는 양수값의 범위를 가짐.

- 로짓의 범위는 실수 영역이 됨. 우리가 구하고자하는 선형 회귀모형이 나옴.

- 성공 확률 pi와 입력변수는 로지스틱 반응함수 형태(S 형태의 곡선으로 나타남)로 표현

- 입력 변수와 로짓의 관계는 직선이 됨.

 

 

로지스틱 회귀모형의 모수 추정

- 로지스틱 회귀모형의 모수는 최대가능도 추정법 maximum likelihood estimation method MLE로 추정

- 가능도 함수를 최대화하는 모수 추정값은 뉴턴 랩슨이나 피셔 스코어링 방법으로 구함.

모형을 이용한 예측

- hat pi_i*이 크면 hat_y_i* = 1, 작은경우 hat_y_i* = 0

- pi_0는 0.5를 사용하나 적용 분야에 따라 달리 결정가능.

분류성능 평가지표  Confusion Matrix

- 볼떄마다 맨날 햇갈린다. 

- TP True Positive : 실제로 참이고 참으로 판단.

- TN True Negative : 실제로 거짓이고 거짓으로 판단.

- FP False Positive : 실제로 거짓이나 참이라 판단.

- FN False Negative : 실제로 참이나 거짓이라 판단.

- 정밀도 precision = TP/(TP+FP) : Positive 정답률. 모델 예측이 실제로 맞은 비율

- 재현율 recall = TP/(TP+FN) : 민감도라고도 하며, 실제 참 중에서 모델이 참이라고 맞춘 비율

- 정확도 accuracy : 옳게 판단한 비율

Fall-OUT

- FPR(False Positive Rate) = FP/(TN + FP)

- 실제 거짓중에 모델이 True라한 비율

-> 낮을수록 좋음.

 

TPR(=Recall 재현율)

- TPR = TP/(TP + FN)

- 실제 참중에 모델이 참이라 한 비율

-> 높을 수록 좋음

 

ROC(Receiver Operating Characterisitc) Curve

- FPR이 작고, 재현률(TPR)이 클수록 좋음

- 곡선이; 왼쪽에 가까울수록 좋은 모델

 

https://www.jtcvs.org/article/S0022-5223(18)32875-7/fulltext

 

 

300x250
728x90

빅데이터

- 정형 + 비정형 데이터. 기존의 방식으로 처리하기 방대한 데이터

- 3V : velocity, volume, variate

 

데이터 분석의 역사

- 로널드 피셔 ronald fisher : 곡물 관련 실험결과를 연구하며 실험 계획법 토대 마련

- 조지 갤럽 george gallup : 사람의 생각을 문항으로 데이터 수집

- 윌리엄 페어 william fair : 고객 행동을 예측하여 의사결정 개념 소개

 

 

다양한 통계적 기법들

- 실험 계획법 : 일원요인 분산분석, 이원요인 분산분석, 공분산분석, 요인배치법 등 

- 다변량 분석법 : 주성분 분석, 인자 분석 , 군집 분석, 판별분석, 로지스틱 회귀분석

- 데이터 마이닝 : 회귀 모델, 나무 모델, 군집 모델, 신경망 모델, 연관성 모델 등

 

 

데이터 마이닝의 등장 배경

- 데이터 웨어하수의 보급과 도입

 -> 복잡한 데이터를 다룰수 있는 새로운 데이터 분석법 필요.

 

 

데이터 웨어하우스 data warehouse

- 중앙 축적 데이터베이스

 

데이터 마트 data mart

- 데이터 웨어하우스와 사용자 사이에 존재.

- 데이터 웨어하우스의 한 주제나 복제

 

 

 

 

데이터 과학자

- 윌리엄 클리블랜드 교수 : 데이터 과학은 향상된 데이터 분석을 위해 통계학이 전산과 융합하여 영역을 확장하는과정

-> 데이터 과학자가 되기 위해 데이터 마이닝같은 통계학이나 전산 지식 뿐만아니라 많은 경험과 스토리 텔링,

   문제해결의지, 시각적 전달 시 사용할 디자인 감각 등 종합적 능력 요구.

 

 

 

데이터 마이닝

- 대용량의 데이터로부터 관계, 패턴을 탐색, 모형화하여 지식을 추출하는 과정

 -> 모수적 모형과 알고리즘 접근 방법을 알아야함.

- 다양한 업무분야에 활용되어 의사결정에 도움줌

 

 

관련 분야

1. KDD knowledge Discovery in Database

- 데이터베이스 안에서 지식 발견 과정

2. 기계 학습 Machine Learning

- 인공지능 한분야, 데이터로부터 판단

 

 

 

데이터마이닝 기법

- 지도 학습 : 목표 값이 존재

  -> 분류 : 판별, 로지스틱 회귀, 최근접이웃, 의사결정나무, 나이브 베이즈

  -> 회귀 : 회귀 분석, 최근접 이웃, 신경망

- 비지도 학습 : 목표 값 없음

 -> 군집 : k-means, 계층적 군집분석, 이중 군집법, 유한혼합모형

 -> 연관 :  장바구니분석, 서열분석, 트랜잭션 데이터분석

 -> 가중치 : 신경망

 

 

데이터 마이닝 활용 분야

1. 고객 관계 관리 CRM

2. 신용 평가

3. 품질 개선

4. 부정행위적발

5. 영상 분석

6. 생명정보학

7. 인터넷 비즈니스

 

 

 

 

 

 

300x250
728x90

빅데이터 실무자

- 빅데이터 분석 기획, 수집, 저장, 처리, 시각화 수행 실무자

- 분석 기획 : 분석 과제 정리, 데이터 이해, 분석 계획

- 수집과 전처리 : 수집, 추출, 정제

- 탐색과 초기분석 : 탐색, 적재

- 빅데이터 모형 설계 : 연관성과 군집 분석, 확률 모형 검토, 모형과 관련 자료 선정

- 모형 적합 : 자료 전처리, 분석 알고리즘 구축, 적합 결과 도출

- 모형 평가 : 자료 타당성 검토, 모형 타당성 검토, 적합 타당성 검토

- 결과 활용 : 분석 결과 해석, 표현, 적용 및 검증

 

관련 직무

- 데이터 엔지니어 : 데이터 공급, 처리, 분석, 시각화

- 데이터 과학자 : 통계, 데이터 모델링, 분석, 알고리즘 개발

- 비즈니스 분석가 : 데이터 중심 의사결정 지원

 

 

 

빅데이터

- 기존 데이터베이스로 처리할수 없는 방대한 데이터(정형, 비정형)로부터 가치를 추출하고, 분석하는 기술

- 3V velocity, volume, variate

- 5V value, veracity

 

빅데이터의 크기

- 단위 데이터 집합 크기가 테라에서 페타바이트에 이름

byte -> kb -> mb -> gb -> tb -> pb -> eb -> zb -> yb

 

 

데이터 유형

- 정형 데이터 structuerd data : 업무, 인사 정보와 같이 구조화된 데이터

- 비정형 데이터 unstrucuted data : 그림, 음성 처럼 형태나 구조가 정형되지 않은 데이터

- 반정형 데이터 semi structured data : 데이터 구조에 대한 메타 정보를 가진 데이터

- 빅데이터 : 정형 + 비정형 + 반정형, 형태나 구조에 얽히지 않은 데이터 형식

 

 

 

 

빅데이터 분석기획

1. 도메인 이슈 도출

2. 분석 목표 수립 - 분석 목표 정의서 수립

3. 프로젝트 계획 - WBS 설계

4. 보유데이터 확인

 

 

 

ETL Extract/Transform/Load

- 도메인 검증, 데이터 요약

- 논리적 데이터/DBMS 데이터 변환

 

작업 분할 구조도 Work Breakdown Strucure 설계 절차

- 데이터 분석 과제 정의

- 데이터 준비, 탐색

- 데이터 분석 모델링, 검증

- 산출물

 

 

 

데이터 마이닝

- 데이터로부터 의미있는 패턴, 규칙을 찾는 방법

 ex. 분류, 군집화(k-means clustering), 연관성, 연속성, 예측(의사 결정 나무)

 

 

 

빅데이터 분석과정

1. 문제인식

2. 조사

3. 모형화(변수 선정)

4. 자료수집(변수 측정)

5. 자료분석(통계적 데이터 분석 기법, 데이터 마이닝)

 

 

데이터 분석 과정

1. 이슈 도출

2. 분석 목표 설정

3. 프로젝트 계획 수립

4. 보유 데이터 확인

5. 빅데이터 결과 시각화

 

 

개인정보 비식별화 조치 절차

- 사전 검토 -> 비식별조치 ->적정성평가 ->사후관리

300x250
728x90

Selective Search for Object Recognition 물체 인식을 위한 선택적 탐색

J. R. R. Uijings et al, IJCV13

 

 

요약

- 이 논문은 물체 인식에서 사용하기 위한 물체 위치를 찾기 위한 방법을 다룸.

- exhaustive search(완전 탐색)과 세그먼테이션의 강점을 합친 선택적 탐색 방법을 소개

- 세그먼테이션처럼 샘플링 과정에서 이미지 구조를 사용함.

- 완전 탐색 방법과 같이 모든 가능한 물체 위치들을 캡처함.

- 가능한 물체 위치를 만드는데 하나의 기술만 사용하기 보다는, 가능한 많은 이미지 분할 경으로 다각화해서 탐색함.

- 선택적 탐색 방법은 적은 수의 데이터에, 클래스 독립적이며.. 아무튼 좋은 성능을 보임.

- 완전 탐색 방법과 비교해서 이 방법으로 더좋은 머신 러닝 기법이나 물체인식 모델을 사용할수 있게 되었다.

- 선택적 탐색 방법 덕분에 단어 가방도 사용할수 있게 되었음.

* 단어 가방 bag of words : 정보 검색에서의 경우 문서를 단어 벡터로 만들어 표현하는 방식


 

소개

- 오랜 시간동안, 물체 인식보다 어디있는지 찾는게 오래 다루어짐. 

- 유전 알고리즘으로 이미지 영역 분할하고자 하는 세그먼테이션이 뜨게됨.

* 유전 알고리즘 : 적응적으로 최적해를 찾아내는 알고리즘

- 하지만 이미지는 본질적으로 계층적임. 그림 1a 샐러드와 스푼은 샐러드볼 안에 있음. 샐러드볼은 테이블위에있고

- 그래서 자연 이미지나 다른 용도의 물체들은 계층적으로 있음. 

- 이 문제 때문에 특정 목적용을 제외하고 모든 물체가 고유의 영역을 갖도록 분할하기가 힘듬.

- 세그먼테이션에서 여러개의 척도가 필요함.

- Arbelaez가 이에 대해서 계층적 분할을 다루는 연구를 함.

 

그림 1. 물체를 이루는 다양한 이미지 영역들

b) 고양이는 색으로 구분할 수 있지만 질감으론 힘듬.

c) 카멜래온은 질감으로 구분할수 있으나 색상으로 힘듬.

d) 바퀴는 차에 붙어있는 일부분이지만, 색상이나 질감은 다름.

그러므로 물체를 찾기 위해서는 다양한 전략들을 사용해야함. 그러므로 이미지는 본질적으로 계층적이라 할수 있음.

a)에서 테이블, 샐러드볼, 샐러드 스푼은 한가지 척도만으로 다 찾아낼수는 없음.

 

 

 

- 세그먼테이션은 계층적이기 때문에, 단일 전략으로 세그먼테이션을 위한 유전적 해결법은 존재하지 않음.

- 이러한 이유로 영역들을 하나의 그룹으로 묶여야만함. 

- 그림 1b서 고양이들은 색상으로 분리할수 있지만, 질감은 같음

- 반대로 그림 1c 카멜레온은 주변의 잎과 색상이 비슷하지만 질감이 다름.

- 그림 1d의 휠은 차와 색상, 질감 둘다 다름.

- 개별적인 시각적 특징으로 세그먼테이션의 애매함을 풀기는 힘들다.

 

 

 

각 물체가 하나의 물체로 인식하는 경우

- 여기에다 더 구조적인 문제가 존재하는데, 서로 다른 특성을 가진 영역들(물체가 사람으로 인식된 후에 스웨터 위에 얼굴은)은 하나의 물체로 묶일수도 있음. 

- 그래서 사전 인식 없이 얼굴과 스웨터가 한 물체의 일부인지 결정하기가 힘듬.

Z. Tu, X. Image parsing: Unifying segmentation, detection and recognition. IJCV, Marr Prize Issue, 2005. 1

 

 

- 이 문제 때문에, 다른 방법으로 물체 인식을 통한 위치를 찾아보게 되었음.

- 이 방법 덕분에 물체 인식 분야가 최근에 크게 진보함.

N. Dalal. Histograms of oriented gradients for human detection. In CVPR, 2005

P. F. Felzenszwalb, Object detection with discriminatively trained part based models. TPAMI, 2010. 1,

H. Harzallah. Combining efficient object localization and image classification. In ICCV, 2009. 1,

P. Viola. Rapid object detection using a boosted cascade of simple features. In CVPR,  2001.

 

 

완전 탐색 방법의 한계

 - 완전 탐색 방법은 이미지내 존재하는 모든 위치를 잠재적인 물체 위치를 놓치지 않도록 검사함. 

- 하지만 완전 탐색 방법은 많은 결점을 가짐.

- 가능한 모든 위치를 탐색한다는것은 계산하기 불가능함.

- 탐색 공간은 격자와 고정 크기, 고정 종횡비에 따라 줄일수 있어야함.

- 많은 경우 탐색할 공간이 크므로 제약 조건들이 필요함.

- 분류기는 간편하며, 외형 모델 appearance은 빨라야만함.

- 균일 샘플들이 너무많은 박스들을 찾아내서 객체를 찾는대 도움되지 않음.(?)

Furthermore, a uniform sampling yields many boxes for which it is immediately clear that they are not supportive of an object.

- 탐색적 방법을 사용한 위치 샘플링 보다는 데이터 기반 분석으로 샘플링을 할수 있지는 않을까?

 

 

 

선택적 탐색적 방법의 목표 

- 이 논문은 세그먼테이션과, 완전 탐색을 합하여 데이터 기반인 선택적 탐색을 제안함.

- 바텀업 세그먼테이션을 참고하여 이미지 구조를 활용하여 물체 위치들을 생성하고,

- 완전 탐색을 참고하여, 가능한 모든 객체 위치를 찾아내고자함.

- 단일 위치 샘플링 기술쓰기 대신에 가능한 많은 이미지에 사용할수 있도록 샘플링 기술들을 다각화하고자함.

- 특히, 데이터 주도 그루핑 전략를 사용.

 ->  다양한 상호보완적인 그룹 기준과 불변성을 가진 다양한 색상 공간을 사용하여 다양성을 높여냄.

- 파티션들의 위치를 합쳐 위치들을 얻음.

- 목표 클래스 독립이며, 데이터 주도, 선택적 탐색 방법으로 적은 종류의 고퀄리티 물체 위치들을 만들어내는것임.

 

 

 

- 선택적 탐색 방법의 주요 활용 분야는 물체 인식임. 그래서 평가에는 파스칼 VOC 대회 데이터를 사용함.

- 데이터셋의 크기는 선택적 탐색을 사용하기에는 비용적으로 제약이 되나.

- 이 데이터셋을 사용하여 바운딩 박스의 위치 퀄리티를 주로 평가했엇음.

- 우리 방법은 잘 영역들을 분할함.

 

- 물체 인식을 위한 선택적 탐색 방법을 제안.

- 주요 연구에 대한 질문으로 다음의 3가지가 있음

- 1) 적응적 분할을 위해 좋은 다양화 전략이 무엇이 있을까?

- 2) 어떻게 선택적 탐색이 이미지 안에 존재하는 작은 고퀄리티의 위치를 찾아낼까.

- 3) 물체 인식을 위해 선택적 탐색 방법을 좋은 분류기와 외형 모델에 사용할수 있을까?

 

 

 

 

 

관련연구

- 물체 인식 분야에 대해 3가지 카테고리로 보고자 함.

- 완전 탐색 방법, 분할, 다른 샘플링 전략

 

 

완전 탐색 방법 exhaustive search 관련 연구

- 물체는 이미지의 어느 위치나 척도상에 존재.

H. Harzallah Combining efficient object localization and image classification. In ICCV, 2009. 1 

- 하지만 시각적인 탐색 공간은 너무 큼, 완전 탐색 방법을 하기에는 계산 비용이너무 큼

- 그래서 위치나 고려해야하는 위치의 개수에 따라서 평가 비용을 제한을 함.

- 대부분 경우 슬라이딩 윈도우 방식은 격자형, 고정비의 그리드를 사용함. 

- 약 분류기와 HOG 같은 이미지 특징 추출기 사용함.

- 이 방법은 폭포수 분류기의 선 선택 단계에서 자주 사용.

P. Viola and M. J. Jones. Robust real-time face detection. IJCV, 57:137–154, 2004.

 

 

- 슬라이딩 윈도우 관련 기술은 성공적인 파트 기반 물체 위치찾기 방법이었음.

P. F. Felzenszwalb. Object detection with discriminatively trained part based models. TPAMI, 2010. 1

- 이 연구에선 선형 SVM, HOG 피처를 사용한 완전 탐색을 사용함.

- 하지만 물체와 물체의 파트들을 찾아냄. 이들의 조합은 좋은 물체인식 성능을 보임.

 

 

Lampert의 외형 모델

- Lampert는 탐색을 위한 외형 모델을 사용하는 방법을 제안.

- 이 방법에서 고정 규격 그리드, 스케일, 종횡비제약을 완화함.

- 동시에 찾아야할 위치 수를 줄여냄

- 분기 한정 기술로 이미지내에 최적의 윈도우로 탐색을 수행했음.

- 선형 분류기로 좋은 결과를 얻었고, alexe는 비선형 분류기를 사용했는데 100,000개 윈도우를 찾음.

B. Alexe, T. Deselaers, and V. Ferrari. What is an object? In CVPR, 2010. 2, 6

 

 

 

- 맹목적 완전 탐색 방법이나 분기 한정법(branch and boung)탐색 대신 우리는 선택적 탐색 제안

- 이미지 구조로 물체 위치들을 생성.

- 앞의 방법들과는 달리 이 방법은 클래스에 독립 적으로 생성.

- 고정된 종횡비를 사용하지 않으므로  우리 방법은 물체에 한정하지 않고, "잔디"나 "모래" 같은 것들도 찾아낼수 있음.

- 마지막으로 적은 위치들을 찾기를 원하므로, 샘플을 다양성을 낮춤으로서 할수 있다. 

- 더 중요한건 계산량을 크게 줄여 강한 머신러닝 기술이나 외양 모델을 사용할 수 있음.

 

 

 

세그먼테이션

- Carreira나 Endres는 세그먼테이션을 이용한 클래스에 독립적인 물체 가설들을 생성하는 방법들을 제안

J. Carreira. Constrained parametric mincuts for automatic object segmentation. In CVPR, 2010.

I. Endres and D. Hoiem. Category independent object proposals. In ECCV, 2010. 2

- 이 방법 둘다 다중으로 전경/배경 세그먼테이션들을 만듦.

- 전경의 세그먼트가 완전한 객체일 가능성을 예측하는 방법을 배우고, 이로 세그먼트의 순위를 매김

- 두 알고리즘다 이미지에 있는 물체들이 얼마나 정확한지에 대한 정도를 보여줌. 

- 세그먼테이션에서 공통적으로, 두가지 방법다 좋은 영역들을 식별하는데 한가지 강한 알고리즘에 의존함.

- 이 방법들은 임의로 초기화된 전경과 배경으로 다양한 위치를 찾아냄.

 

- 반대로 우리의 방법은 다른 그룹 기준과 다른 표현들을 사용하여 다양한 이미지 상태에서 대처할수 있음.

- 비싼 윤곽선 검출기 같은 단일한 최적의 분할 방법을 하는것이 아니라 적은 계산 비용을 가짐.

- 우리건 이미지 상태를 분할해서 다룰수 있고, 일관성 있는 위치를 구할 수 있게됨.

 

 

중간 생략

 

 

- 정리하자면, 우리의 새로운 방법은 완전 탐색을 사용하는 대신, 세그먼테이션으로 클래스 독립인 물체 위치들을 구함.

- 세그먼테이션과는 달리. 하나의 강한 세그먼테이션 알고리즘(윤곽선을 이용한 이미지 분할같은)을 사용하기 보다는

P. Arbelae. Contour ´ detection and hierarchical image segmentation. TPAMI, 2011.

- 많은 이미지조건을 다룰수 있는 다양한 방법들을 사용

- 계산 비용은 줄이고, 더 많은 잠재적인 물체들을 찾아낼수 있었음.

- 임의로 샘플링된 박스에 객관성 측정을 학습하는 대신, 좋은 물체 위치를 구하기 위해 바텀업 그룹방식을 사용.

 

 

--------------------------------------

한 2시간 동안 보면서

 

겨우 2페이지 밖에 보지 못했다.

 

하지만 컴퓨터 비전 분야에서

 

한창 뜨고 있는 다중 물체 인식 기술의 바탕이라 할수 있는

 

물체 분할에서

 

물체 분할의 한 방법인 selective search 방법에 대해 보니

 

 

 

기존 교재나 영상 강의로는 부족했던 깊은 내용들을 배울수 있었다.

 

이전에 오일석 교수님의 교재를 보고나서

 

이미지 분할 방법으로 물체 분할시 색상으로 분할할수 있는건 알았지만

 

질감으로도 분할 할수 있다는 방법은 잊고 있었다.

 

 

 

이미지 분할에 있어서

 

이미지가 계층적인지도 몰랐고,

 

색상 기준으로만, 질감 기준으로만 할수도 없이 다양한 방법들을 혼합해야되는걸 알았다.

 

 

계속 이 내용들을 번역해 가면서

 

 

 

선택적 탐색 방법의 기반이 되는

 

완전 탐색과 세그먼테이션에 대해서 살짝 살펴볼수 있어서 좋았다.

 

 

 

이미지 분할 연구에 대한 10년간의 역사를

 

간단하게 훑어봤다고 생각하면 

 

2시간 동안 2페이지를 본 거지만 위안삼아도 될까..?

 

 

 

 

 

이런 내용들을 훨신 간결하게 정리해 놓은 사람들은 많다.

 

개인적으로는 나도 시간없어서 대충 적으면서 넘어가지만 좋아하지는 않는다.

 

 

 

이미 아는 사람들이야 생략하고 넘어가도 되지만

 

모르는 사람에게 한 기술에 대해 간결하게 설명하고 넘어가면

 

대강 어떻게 동작하는구나는 이해시키고 넘어갈 수는 있어도

 

어떻게 활용을 할수 있는지, 구현을 할지, 좀더 큰 범위에서 활용하기는 힘들 것이다.

 

 

 

 기술에서 만들어진 배경과 맥락들을 파악하지 않고서는 답답한게 너무 많다.

 

그래서 정리하면 다 하거나 너무 대충대충할떄가 많다.

 

아무튼 오늘은 개요와 관련 기술에 대해 정리하였으니

 

내일  선택적 탐색 방법 위주로 하고자 한다.

 

 

 

 

 

300x250
728x90

드디여 기말 과제 마무리했다.

 

마음먹고 하면 금방 끝낼일을

 

과제물 하나하나 너무 하기너무 싫어서

 

하루에 한두문제씩 하다보니 이제서야 끝냈다...

 

 

그래도 끝낸게 어딘가 싶다.

 

이제 빅데이터 기사 시험을 준비하긴 해야하는데,

 

 

매번 해야하는 일보다 다른일이 눈에 들어온다.

 

그래서 어제 논문 정리한다고 했지만 엉망으로 해버리고 말했다.

 

다른 사람들의 논문 리뷰를 많이 안봐서 그런것 같기도 하고 ㅋㅋ...

 

 

 

 

아무튼 빅데이터 분석 기사와는 별개로

 

나는 시각 관련 쪽에 관심이 있다보니 

 

오랜만에 RCNN에 대해서 잠깐 살펴봤다.

 

RCNN 몇년 전에도 봤지만 너무어려워서 보는 둥 마는둥 했었는데 ㅋㅋㅋ

 

요즘에는 다른 사람들이 정리한 글이 많아 졌더라

 

개개인 블로그 상에서도 올라온 것도 그렇고

 

r cnn tutorial : blog.lunit.io/2017/06/01/r-cnns-tutorial/

 

라온 피플에서도 잘 정리되어있다.

 

m.blog.naver.com/laonple/220918802749

 

 

 

 

이런걸 보면 나도 1일 1논문 정리하기 해야하는데

 

한 논문조차 제대로 보질 못하니 쉽지는 않다.

 

대강 살펴보니 rcnn에서는 region proposal 추천 리전을 구하기위해 selective search 방법을 사용한다고한다.

 

selective search 예전에 오일석 교수님의 책에서 본것 같기도하고 ㅋㅋㅋ 잘생각은 안난ㄷ.

 

오늘 보려는 논문은

 

selective search for objection recognition 

 

이미 잘 정리한 사람들이 많아서 

 

정리하다 말아도 괜찬겟지..

 

 

 

 

 

 

300x250

'그외 > 로그' 카테고리의 다른 글

컴퓨터 비전 알고리즘 구현 - 1. 시작  (0) 2020.11.26
논문 읽기와 구현  (0) 2020.11.23
시험 과제를 하면서  (0) 2020.11.17
인공지능에 대해 공부하면서  (0) 2020.11.11
시험 준비와 근황  (0) 2020.11.09
728x90

빅데이터의 생성 위치에 따른 구분

- 내부 데이터 : 업무 과정에 생성되어 db에 저장된 데이터

- 외부 데이터 ; 인터넷에서 구할수 있는 데이터

 

 

외부 데이터 수집 방법

- 정부 : 통계청의 KOSIS 등 통계 DB, 공개 API나 파일로 공개

- 네이버, 다음, 페이스북, 구글 : 보유 데이터 중 일부를 공개 API로 접근

- 검색 허용 홈페이지 : 데이터 수집 기술을 이용하여 정보 수집

 

 

데이터 수집

- 내부/외부 데이터를 검색 수집하여 이를 변환 통합

 -> 반(비)정형 데이터를 분석가능한 정형 데이터로 변환과 통합까지

 

 

내부 데이터 수집

- 로그 데이터 : 스크라이브, 플룸 등의 로그 수집기

 

외부 데이터 수집

- 외부 데이터베이스 : 통계 KOSIS, 세계은행, Yahoo finance 등

- 포털 : 네이버, 다음, 구글, 줌 등

 

 

 

외부 데이터 수집 하기

- 웹 크롤링 : 웹 로봇으로 HTML 데이터 읽고 수집

- 공개 API : 데이터 공개하는 쪽에서 JSON이나 XML 형식에 맞게 가공해서 공개

 

 

 

트위터

-  짧은 문장 공유하는 블로그 서비스

 

트위터 API

- 외부에서 트위터 기능으로 3자 어플리케이션 개발하거나 트위터 데이터 수집할수있도록 공개 API 제공

 

트위터 API 이용

- 트위터 API 사용시 트위터 개발자로 등록하여, 제작 어플리케이션 정보 등록

- 해당 어플리케이션이 트위터 서비스에 접속할 수 있도록 인증키를 받아야함

- REST API : 기본 제공 API

- STREAMING API : 트윗들을 실시간으로 스트리밍 해줌.

  * public stream api: 전체 트윗 데이터중 1%를 무작위로 실시간 전송 -> 트렌드 분석에 사용

  * user stream api : 지정한 트위터 계정의 모든정보를 실시간으로 전송 -> 특정 계정 활동을 모니터링

  * site streaming api : 특정 키워드나 특정 인물의 트윗을 지속적으로 받는 경우 사용하는 api

 

 

 

트위터를 이용한 분석

- 트윗 글들을 API로 수집하여 분석 -> 사람들의 관심사 파악

- 미국 대선 관련 트윗으로 정치 지수, 여론 흐름 파악

- 유엔 글로벌 펄스는 2010~2011년 그로벌 경제위기에 어떻게 사람들이 대처하는지 인도네시아와 미국 공개 트윗 분석

 -> 트윗 텍스트 데이터 수집, 텍스트 카테고리 분류하여 통계적 패턴 분류

  => 미국 주택 구입 가능성, 인도네시아의 식량, 정전 및 연료 부족상황을 언급한 트윗 수 분석

 

 

 

 

페이스북

- 친밀한 그룹 간 메시지, 사진, 영상 등 정보 공유

 

페이스북 API

- 개발자 등록을 마친후, 사용할 어플리케이션 생성후 이용

- Graph API를 제공. 다양한 메소드를 테스트, 데이터 종류, 구조 쉽게 파악

 

 

 

 

공공 데이터

- 정부, 공공기관이 통계, 행정 목적으로 수집한 데이터

 

공공 데이터 활용 사례

- 서울 버스 앱 : 폰으로 버스 정류장에 버스가 몇 분후에 오는지 알 수 있음.

- 심야 버스 노선 : 교통카드 이용량과 통화 데이터 이용으로 심야 교통 수요를 측정하고, 관련된 심야버스 노선 찾음.

 

 

 

 

 

300x250
728x90

패턴 찾기의 역사

- 데이터에서 패턴을 찾는 것은 역사적으로 오래됨

- 캐플러의 행성 운동의 법칙

 

패턴 인식이란 ?

- 데이터에서 일관성을 찾아내는 일.

- 찾아낸 일관성을 활용. 예시 : 분류

 

 

손글씨 인식의 예시

- 28 x 28 의 크기 이미지로 이에 대한 벡터 x는 784개의 수

- 목표 : 벡터 x로 숫자 인식하기.

- 훈련 집합 = {x1, ..., xn}  -> 모델의 파라미터들을 조정하는데 사용.

- 타겟 벡터 t : 결과 집합으로 x에 대한 정답.

- y(x), 모델 : 손글씨 이미지 x로 결과 y를 얻는 함수이자 모델. 훈련 과정을 통해 정의됨.

- 테스트 집합 : 훈련된 모델의 성능을 평가하기 위한 데이터

- 전처리 과정 : 입력 변수들을 패턴 인식 문제를 더 풀기 쉽게 처리하는 과정

   -> 손글씨 인식의 경우 : 구석에 있거나/회전 되었거나/작은경우 -> 이동, 회전, 스케일 변환

   * 전처리 과정을 특징 추출이라고도 함.

 

 

 

관련 용어

- 특징 feature : 데이터를 설명하는 서로 구분할수 있는 

- 분류 classification : 입력 데이터를 다양한 카테고리중 한가지로 분류

- 회귀 regression : 입력 데이터로 특정한 값을 추론

- 클러스터링 clustering : 구분 되어있지 않은 데이터들을 각각의 군집으로 분할하는 과정

 

300x250

'인공지능' 카테고리의 다른 글

파이썬머신러닝 - 2. 붓꽃 문제 다루기  (0) 2020.11.23
파이썬머신러닝 - 1. 기초  (0) 2020.11.23
인공지능 - 7. 게임 트리  (0) 2020.11.11
인공지능 - 6. 탐색 과정  (0) 2020.11.11
인공지능 - 5. 퍼지이론  (0) 2020.11.11
728x90

Adaptive deconvolutional networks for mid and high level feature learning

 

Matthew D. Zeiler, Published 2011

 

 

 

요약

- 합성곱 계층과 맥스 풀링을 수정하여 이미지 분해를 학습하는 계층적 모델 소개

- 일반 이미지 학습시 우리 모델의 레이어는 이미지 정보를 캡처함

      ex. 저 층 : 에지, 중층 : 에지 교차, 고층 : 물체 일부 혹은 완전한 물체

- 계층 출력을 아래로 내리는게 아닌, 각 레이어들이 입력을 복원시키는 모델을 개발.

- 이렇게 하여 여러 층을 표현들을 배울수 있음. 

- 그리고 4계층의 모델을 보여주고자함. 이미지는 칼텍 101, 256 데이터셋으로 학습.

- 이 모델로 추출된 특징들은 SIFT이나 다른 특징 학습 방법들보다 더 좋은 결과를 보였음.

 

 

 

 

소개

- 비전 분야에 좋은 이미지 표현법을 찾는것이 중요한 문제임.

- SIFT와 HOG같은 영상기술자들이 매칭과 물체인식에서 급격한 진보를 가져왔지만, 여전히 성공적인 영상 표현은 적음.

- 저 수준 이미지 구조를 캡처하는 것보다 코너와 물체 일부같은 이미지를 이해하는데 중요한 중, 고레벨 구조적 표현을 찾는게 중요해짐.

- 이 문서는 저수준 에지서부터 고수준 물체 일부까지 구조 정보를 갖는 이미지 표현법들을 소개할 것이고,

- 이미지 계층화와 관련된 두 구조적 문제를 해결한 새로운 방법을 소개하고자 함.

 

- 첫 번째 문제는 불변성에 대한것으로 에지가 방향과 스케일따라 다양한 반면에,  큰 스케일의 구조들은 더 다양한 형태라는점.

- 모든 교차, 코너에 대해서 기록한다고 하면 이 모델은 지수적으로 커지게 될것임. 중, 고레벨 구조까지 모델링시에 불변성을 다루기는 힘듬.

- 두 번째 문제는 계층적 모델에서 사용하는 계층 별 학습 정책이라 할수 있는데, 각 입력에 대해 모든 레이어를 효율적으로 학습 시키는 방법의 부족함. 보통 모델들은 바텀업 방식으로 훈련됩니다.

- 여기서 주요 문제는 이미지 빅셀들이 다음 레이어로 가면 사라져, 모델의 고층으로 갈수록 입력과의 연결성이 희박해 집니다. 이는 층을 깊게 만들지 못하게 만듭니다.

 

 

- 이 두 이슈에 대한 해결방법으로 스위치 변수 소개.

- 스위치 변수는 각 이미지들을 계산해서 모델의 필터를 적응 시킴.

- 간단한 모델은 다양한 이미지 구조를 캡처할 수 있음.

- 스위치 변수들은 이전 층의 입력을 받는게 아니라 입력 통로로서 각 계층이 이미지에 대해 학습할수 있게됨.

- 이를 통해 학습이 더 강건해지고, 효율적인 모델을 만들수 있게 됨.

 

 

 

 

 

 

 

관련 연구

1. 컨브넷

- 컨브넷은 학습된 필터들로 특징맵들의 계층을 만듬.

- 바텀업으로 이미지가 처리되면서, 판별하며, 순수 지도적으로 훈련하게 됨.

- 우리의 방식은 탑다운 방식이고, 비지도적

 

2. 예측적 희소 분해 Predictive Sparse Decomposition

- PSD는 희소 코딩 요소 sparse coding component를 컨브넷에 추가한 것으로 비지도 학습을 할수있게함.

- 우리 방식은 각 레이어의 바로 아래만 수정한 것임.

 

3. DBN Deep Belief Networks 

- 제한 볼츠만 머신 RBM과 비교되는 DBNs 모델도 이 한계를 가지고 있음.

- 각 RBM레이어는 입력에 의존적이며, 직접적으로 설명할수 없는 인자화된 표현을 가짐.

- 학습 과정도 느림.

 

- 우리 모델은 이미지 분해를 수행.

- 전체 픽셀 보다 이미지 일부 구조만을 구하는 다른 계층적 모델과는 다름.

 

 

 

 

 

 

 

 

2. 연구 방법

 

- 우리 모델은 일반 물체 분류기에 입력으로 쓸수 있는 이미지 표현을 만듦

- 이미지로 학습하고, 새 이미지가 주어지고, 추론을 수행합니다.

- 우리 모델은 이미지를 컨벌루션 희소 코딩(디컨벌루션)과 맥스풀링으로 계층적 형태로 분해시킵니다.

- 각 디컨볼루션 레이어들은 입력 이미지의 복원 오차를 최소화 시킵니다.

 

디컨볼루션

- 모델의 첫번째 레이어는 fig.2(a)에서 볼 수 있음.

- 복원 hat_y_1은 특징 맵 z_k_1과 필터 f_k,1^2를 컨볼루션 연산을 하여 구할수 있음.

 

 

그림 2.a 모델의 2 레이어 층

- 각 레이어는 디컨벌루션과 맥스 풀링으로 구성.

- 디컨벌루션 레이어는 희소 코딩이 컨벌루션 형태로 입력 이미지 y를 피처맵 z1과 학습된 필터 f1으로 분해함.

 * 이 둘을 컨볼루션하면 y로 복원됨.

- 이 필터는 c 개의 평면들을 가지는데, 각각은 입력 이미지의 채널을 복원하는데 사용됨.

 

 

 

 

 

 

 

풀링

- 각 컨볼루션 레이어의 위에서 특징 맵 z에 대해 3차원 맥스 풀링 연산이 수행됨 

- 레이어의 특징맵이 현재 레이어보다 큰 스케일에서의 구조를 캡처 할수 있도록 함.

- 풀링은 3차원이므로 공간적으로 수행되며, Fig.3에서 보여주고 있음.

그림 3. 3차원 맥스풀링의 예시.

- 풀링연산 P가 특징 지도 z에 수행하여 풀된 지도 p와 스위치 변수 s를 생성.

- 스위치 변수는 풀링 영역의 최대점 위치를 가짐.

- 주어진 풀된 지도와 스위치로 언풀링 연산 U_s를 수행할 수 있음. 

 

 

 

 

 

 

 

 

 

다중 레이어

- 이 아키택처는 고층에서도 동일하지만, 특징 지도의 개수 K_l은 다를수 있습니다.

- 각 레이어에서 우리는 필터와 레이어의 스위치 변수로 입력을 복원시키고 아래로 보냅니다. 

- 복원 연산자 R_l를 사용하는 레이어 l의 특징 맵 z_l을 정의. 컨벌루션 F, 언풀 연산 U_s를 입력으로함.

- l 레이어의 복원 hat_y_l은 특징 맵 z_l에 의존.

- 복원 연산자 R_l은 풀링 스위치 변수에 의존. 

- 사영 연산자 R_l^T는 신호를입력으로 받아, 주어진 스위치 변수 들에 대해 특징맵들을 사영합니다.

- 우리 모델에서 중요한 점은 스위치 변수 s가 주어질때,

   복원 연산자 R_l과 사영 연산자 R_l^T가 선형이며, 그라디언트를 쉽게 구할수 있음.

- 그림 2(a)에서 두 레이어에서의 디컨벌루션과 풀링을 보여주고있고,

- 그림 2(b)에서 어떻게 복원과 연산이 필터링, 풀링, 언풀링 연산을 통해 수행되는지 알수있다.

 

 

 

 

그림 2.(b) 2레이어 2에서 추론 연산에 대한 블록 다이어그램

 

 

 

 

3. 물체 인식에서의 응용

 우리 모델은 완전이 비지도적이므로, 물체 인식을 수행하는 분류기가 추가되어야 함.

- 단순하고, 성능 좋은 Spatial Pyramid Matching SPM을 사용함.-

- 새 이미지를 주면, 우리 모델로 다층 레이어의 특징 맵과 스위치 컨피그로 분해했다.

- 이제 SPM 분류기와 분해를 사용한 방법을 설명함.

 

 

 

- 필터들은 이미지들끼리 공유되지만, 스위치 설정들은 그렇지 않음.

- 그래서 두 이미지의 특징 맵은 다른 R_l을 사용하여 바로 비교할수는 없습니다.

 

그림 1. 적응정 디컨벌루션 신경망을 이용한 이미지 분해 기반 탑다운 파츠.

- 각 컬럼은 서로 다른 입력 신호로

- 첫번째 행은 4번쨰 레이어의 특징 지도 활성을 이미지 공간으로 사영한 것

- 레이어의 활성 정도에 따라 5, 25, 125개 활성 특징들을 찾음(3, 2, 1 레이어)

- 행 2-4에서 이미지 공간상으로 보여줌.

- 활성을 보면서 우리의 모델로 중, 고수준의 특징들을 찾아낼 수 있었음.

 

 

 

 

- 그림 1의 예시. 4층 레이어에서 탑다운 분해를 시작하였으나 상당히 다른 복원 결과를 얻었습니다.

- 이것으로 2가지 중요한 점을 보여주는데

- 비슷한 클래스사이 분해시 비슷한 부분들을 공유하고, 특정 영역을 위주로 하고 있습니다.

- 스위치 설정의 적응성에 따라 이 모델은 다른 클래스와도 복잡성을 배울수 있었습니다.

 

 

 

 

 

 

 

4.1 모델 시각화

- 탑다운으로 보면 이해하기 쉬운데, 그림 5에서 모델의 필터들을 시각화 하였습니다. 

 

그림 5.

a-d) 각 레이어마다 학습된 필터의 시각화 (해당 특징의 변화를 보기위해 줌인)

e)  필드 사이즈 비교

f) 각 레이어의 이미지 복원 

 

- 레이어 1(그림 5a)에선 DC필터와 서로다른 주파수의 방향들을 볼수 있음.

- 레이어 2는 교차 에지와 커브를 볼수 있음. 1레이어 필터 내용물들의 조합.

- 레이어3 그림 5c. 조금더 큰 범위를 보여주고 있음.

- 레이어 4 그림 5d는 해당 그룹에 속하는 물체에 대해 거의 완전히 복원한 결과를 보여줌.

- 레이어별 상대적인 사영 크기를 이해하려면 그림 5e참고

- 4개의 입력 이미지의 이 모델에서 각 레이어로부터 복원은 그림 5.f

 

 

 

 

 

정리

- 많은 레이어를 갖는 모델을 살펴볼수 있는 방법을 소개.

- 스위치 변수로 필터가 입력의 패턴에 더 적응적으로 됨.

- 우리 모델은 중, 고 수준 특징들을 캡처할 수 있음.

- 이 렇게 구한 특징들로 일반 분류기를 사용한 결과 칼텍-101, 칼텍-256에서 좋은 성능을 보임.

- 다른 데이터셋에서도 성능을 보일만큼 일반화할만한 모델임.

 

 

 

 

 

 

 

 

 

------------------

 

내가 2시간 동안 이 논문을 정리하면서 얼마나 이해햇느냐 하면 

 

2~30프로 될가 모르겟다.

 

여전히 이해하려고 해도 문맥을 다 파악하지를 못하내 의역이 아닌 직역을 하면서

 

이해하기엔 어색한 부분들이 너무 많다.

 

일단 내가 이 논문을 본게 합성곱 신경망의 시각화와 이해에서

 

디컨볼루션에 대한 이야기가 나와서 보기는 했는데,

 

 

 

 

 

 

디컨볼루션에 대한 개념은 조금 더 이해는 가긴 했다.

 

 

기존의 컨볼루션 연산이

 

입력 이미지와 가중치의 콘볼루션 연산으로   특징 맵들을 만들어 냈다면,

 

 

특징맵(언풀링 과정을 거친)과 가중치들의 컨볼루션으로 영상을 복원시키는게 초점이 아닌가 싶다.

 

1층이 기존 영상을 복원한다면

 

 

층을 내려갈수록

 

입력으로 사용한 특징맵을 복원하는 개념인것 같다.

 

 

 

 

 

 

 

 

이 내용들을

 

그냥 특징맵을 시각화 해주면 되지 왜 이런 디컨브넷을 쓰는지

 

그리고 그림 1에서 왜 레이어 4층에서 탑다운을 시킨건지 등

 

여전히 이해되지 않는 부분들이 너무 많다.

 

디컨브넷의 원리는 이해햇으니

 

다시 아까보던 논문으로 돌아가야되나 싶다.

 

 

빅데이터 공부해야되는데 ㅠㅠ 

 

 

이분 처럼 잘 정리할 수 있어야되는데 참 힘들다.

ref : dambaekday.tistory.com/3

 

 

 

300x250

'그외 > 논문' 카테고리의 다른 글

Backpropagation applied to handwritten zip code recognition  (0) 2021.01.23
물체 인식을 위한 선택적 탐색  (0) 2020.11.19
합성곱 신경망의 시각화와 이해  (0) 2020.11.17
ORB-SLAM 대강  (0) 2020.08.16
ORB SLAM 개요  (0) 2020.08.16

+ Recent posts