로지스틱 회귀 (Logistic Regression) 는 어떤 입력을 0~1 사이의 값으로 출력한다.
그래서 이진 분류 (Binary Classification) 문제에 적용되는 경우가 많다.
0~1 사이의 어떤 값 (보통 0.5) 을 기준으로
그 값 (threshold) 보다 크면 1 (True) 로, 작으면 0 (False) 으로 분류한다.
Logistic Regression의 식은
Y = sigmoid( W*X + B )
로 표현된다.
여기서 오즈 (Odds) / 확률 (Likelihood) / 시그모이드 (Sigmoid) 간의 관계를 살펴보면
아래 그림과 같다.
따라서 Logistic Regression의 식은 아래와 같이 표현할 수 있다.
Y = p(=Likelihood) = sigmoid( W*X + B ) = sigmoid( log(odds) )
위 식에서 sigmoid를 제외하고,
y = log(odds) 라고 보면,
y = log(odds) = W*X + B
로 Linear Regression의 식과 동일한 형태가 되는 것을 볼 수 있다.
Softmax (소프트맥스) 는 Sigmoid의 좀 더 일반화된 형태라고 할 수 있다.
◎ References
< StatQuest, Logistic Regression Details Pt1: Coefficients >
'Data Science' 카테고리의 다른 글
Softmax (0) | 2023.06.04 |
---|---|
Permutation Importance (0) | 2023.06.03 |
Backpropagation (0) | 2023.05.23 |
Pearson's Correlation (0) | 2023.05.19 |
Covariance (0) | 2023.05.18 |