Machine Learning - Thoery
KL divergence 설명 (Relative entropy 설명, KL divergence와 MLE)
KL divergence는 어떤 분포 p, q가 있을 때, 우리는 이들이 얼마나 비슷한 분포인지를 표현하는 measure로, 분포의 entropy와 비교하는 분포 간의 cross entropy 값을 반영한다. 이번 포스팅에서는 확률 분포 사이의 divergence measure 중 하나인 KL divergence(Relative entropy)에 대해 알아보겠다. 정의 분포가 discrete할 때, KL divergence는 아래와 같이 정의할 수 있다. 분포가 연속일 때는 KL divergence를 아래와 같이 정의한다. 해석 위의 식이 가지는 의미는 무엇일까? 위 식의 log를 풀어서 써 보면 아래와 같은 식으로 표현할 수 있다. 이 식에서 우리는 앞에 있는 plog(p) 값이 p의 entropy를,..
2021. 10. 27. 19:26
최근댓글