개인적으로 공부한 내용들을 정리하고 있습니다.
새롭게 알게 되는 내용들은 지속적으로 업데이트 할 생각입니다.
틀린 내용에 대해선 언제나 지적 환영합니다 :)
Maximum Likelihood = Likelihood의 최대값
Deep Learning에서 Maximum Likelihood
-> Gradient Descent를 통해 Parameter를 업데이트하며, Likelihood가 최대가 되는 확률 분포를 찾는다.
어떤 Dataset이 확률 분포 b를 따른다고 가정한다.
그리고 3 개의 데이터로 실험을 해 봤더니, (0.1, 0.2, 0.3)의 결과가 나왔다.
이번에는 확률 분포 a로 가정하고, 동일한 3 개의 데이터로 실험한다.
(0.4, 0.5, 0.4)의 결과가 나왔다.
확률 분포 a가 데이터를 더 잘 설명하는 것을 눈으로 확인할 수 있다.
이것을 수치적으로 확인하기 위해 Likelihood를 계산하면,
a의 Likelihood : 0.4 * 0.5 * 0.4 = 8e-2
b의 Likelihood : 0.1 * 0.2 * 0.3 = 6e-3
a의 Likelihood가 10배 이상 큰 걸 알 수 있다.
Maximum Likelihood Estimation (MLE, 최대 가능도 추정)
Deep Learning에서는
Parameter를 업데이트 하면서, Maximum Likelihood Estimator (최대 가능도 추정량) 를 찾는 것이 핵심이다.
즉, 모델 F(x; theta)에서
Likelihood를 최대로 만드는 theta 값을 찾는 과정이라고 할 수 있다.
그리고 그 과정에서 활용되는 수식은, Cross Entropy와 매우 유사하다.
▷ Cross Entropy를 통한 최적화 ↔ Maximum Likelihood Estimator를 찾는 과정
◎ References
< Probability and Likelihood >
< HYEONGMIN LEE'S WEBSITE, Maximum Likelihood Estimation(MLE) & Maximum A Posterior(MAP) >
'Data Science' 카테고리의 다른 글
Entropy & Surprise (0) | 2023.04.26 |
---|---|
Adaboost (0) | 2023.04.25 |
Regularization - L1 norm & L2 norm (0) | 2023.04.24 |
Batch Normalization (배치 정규화) (0) | 2023.04.24 |
L1 & L2 Norm / Batch Normalization / Adaboost (0) | 2023.04.23 |