Mutual Information (상호 정보)
Mutual Information 정의 (Definition)
Mutual Information은,
결합 확률 분포 (Joint probability) P(x, y)와 주변 확률 분포 (Marginal probability) P(x) * P(y) 간의
쿨백-라이블러 발산 (Kullback-Leibler Divergence) 값으로 정의된다.
Entropy와의 관계
Mutual Information 값은 위와 같이,
[ Entropy - Conditional Entropy ] 의 형태로 표현된다.
유도식은 아래와 같다.
의미
두 확률변수 X, Y 간에 상관관계가 클수록
조건부 엔트로피 H(X | Y) 값이 작아진다.
MI[X, Y] = H(X) - H(X | Y) 에서 H(X)는 일정하므로
MI[X, Y] 값은 커지게 된다.
즉, ( X, Y ) 간에 상관관계가 클수록, MI[X, Y] 값도 커진다.
이를 정보량 관점에서 해석하면,
X와 Y의 상관관계가 클수록
X와 Y가 서로에게 제공하는 정보량의 크기가 크다고 할 수 있다.
또는 X와 Y가 공유하는 Entropy가 많다고 볼 수도 있다.
X, Y가 독립(Independent)일 때
두 확률변수 X, Y가 서로 독립이면,
위 그림과 같이 Mutual Information 값은 0이 된다.
서로 독립이기 때문에, 상호정보량 또한 0이 된다고 할 수 있다.
활용
피어슨 상관계수 (Pearson's Correlation) 등으로 찾아내기 어려운
두 확률변수 간 비선형(non-linear) 관계 같은 것들을
수치화 하는 데에 활용할 수 있다.
◎ References
< bskyvision.com, [정보이론] 상호정보량(mutual information)이란 >
< 모끼의 딥러닝 공부, [논문 읽기] MINE : Mutual Information Neural Estimation(ICML 2018) >
< WakaraNai, Mutual Information >
'Data Science' 카테고리의 다른 글
Central Limit Theorem (중심극한정리) (0) | 2023.07.16 |
---|---|
Mean Squared Error (MSE) (0) | 2023.06.16 |
Kullback-Leibler Divergence (0) | 2023.06.10 |
Cross Entropy (0) | 2023.06.07 |
Softmax (0) | 2023.06.04 |