Adaboost
<Stump>
Tree와 다르게, decision 과정에 오직 하나의 variable만 사용한다. (Weak Learner)
<Adaboost>
이전 stump에서 틀렸던 data sample의 sample weight는 키워주고,
맞았던 data sample의 sample weight는 줄여준다.
다음 stump를 진행하기 위한 data samples 복원추출 과정에서,
sample weight가 높을수록 해당 data sample이 뽑힐 확률이 높아진다.
이렇게 새롭게 추출된 data samples를 바탕으로,
다음 stump 단계를 진행한다.
그리고 new data sample이 들어왔을 때,
전에 생성했던 weak learners의 amount of say의 합이 가장 큰 class로 decision making을 한다.
<References>
'Data Science' 카테고리의 다른 글
Conditional Entropy (0) | 2023.04.27 |
---|---|
Entropy & Surprise (0) | 2023.04.26 |
Regularization - L1 norm & L2 norm (0) | 2023.04.24 |
Batch Normalization (배치 정규화) (0) | 2023.04.24 |
L1 & L2 Norm / Batch Normalization / Adaboost (0) | 2023.04.23 |