본문 바로가기

부스트캠프 AI Tech/[Week4] Image classification

(2)
[Week4] Image classification - Class imbalance *Class imbalance Class imbalance : 어떤 데이터에서 각 클래스(주로 범주형 변수)가 갖고 있는 데이터의 양에 차이가 큰 경우 class imbalance는 어떤 문제를 발생시킬까? 데이터가 적은 소수의 클래스의 의견에 귀를 기울이지 못하면 일반적인 경우를 예측하는데에 한계가 있음 따라서 overfitting을 막고, generalization gap을 줄이기 위해서는 Class imbalance 문제를 해결 해야함 ex) class imbalance - 4번 클래스는 4000개의 데이터가 있는 반면 8, 11, 14, 17번 클래스는 약 100개에도 못미친다. 따라서 small data에 대한 bias를 가질 수 밖에없고, 일반적인 경우를 예측해내기 힘듦 *여러가지 Soluti..
[Week4] Image classification - Ensemble *Ensemble 여러 실험을 통해 여러 모델로 여러 결과를 만들게 된다 이 모델을 효율적으로 어떻게 성능을 더 끌어올릴 수 있을지? *Ensemble of Deep NN *Ensemble 싱글 모델보다 더 나은 성능을 위해 서로 다른 여러 학습 모델을 사용하는 것 Model Averaging (Voting) Hard voting vs Soft voting Hard voting은 모델마다 하나의 예측 결과를 나타내지만 Soft voting은 모든 클래스의 확률을 보여주기 때문에 결과가 달라질 수 있음 Cross Validation 훈련 셋과 검증 셋을 분리는 하되, 검증 셋을 학습에 활용하는 방법 Stratified K-Fold Cross Validation 적당한 K를 정해서 각각의 모델이 bias를 ..