본문 바로가기

데이터/딥러닝

CS231n_Lecture1, 2:Image Classification pipeline

<CNN(Convolutional Neural Networks)>

  • 7-Layer Convolutional neural network → AlexNet → GoogleNet → Residual Network
  • 2012년 CNN의 시대가 펼쳐진 이후 이를 튜닝한 많은 시도들이 있었다.

 

<Image Classification's Challenges>

  • Viewpoint variation
  • Illumination
  • Deformation
  • Occlusion
  • Background Clustter
  • Intraclass variation

 


KNN : data-driven approach

<KNN-Distance Metric>

  • L1 Manhattan) distance
  • L2(Euclidean) distance

 

<KNN-Hyperparameters>

  • 알고리즘에서 직접 선택할 수 있는 요소
  • 고정적이지 않다

<KNN의 단점>

  • test time에서 느리다.
  • 픽셀의 거리 metrics가 가진 정보가 거의 없다.
  • 차원의 저주가 발생한다.

<KNN-Summary>

  • 이미지와 레이블의 훈련 세트로 학습을 시작하고, 테스트 세트의 레이블을 예측한다.

 


Parametrical approach

<Linear classifier란>

  • 이미지 내의 모든 픽셀 값들에 대해 가중치를 곱해 처리한 합
  • 각각 다른 공간적 위치에 있는 색을 count한 것

 

<Parametric Approach>

  • f(x,W) → W=parameters or weights

 

<Loss function>

  • score를 loss로 만듦

'데이터 > 딥러닝' 카테고리의 다른 글

CS231n_Lecture4:Introduction to Neural Networks  (0) 2022.11.01
CS231n_Lecture3:Loss Functions and Optimization  (0) 2022.09.20
Chapter 07-1 인공신경망  (0) 2022.07.25
2.1 신경망 표현  (0) 2021.07.29
1.1 인공 신경망이란?  (0) 2021.07.28