Differential Entropy는 연속 확률 분포의 불확실성을 측정하는 지표

이산 엔트로피의 확장이다.

지난 Entropy는 Discrete한 확률 변수에대한 Entropy였다.

****엔트로피(Entropy)****는 정보 이론에서 불확실성, 혼란 또는 무질서를 측정하는 중요한 개념이다.

엔트로피의 성질

  1. 최소 엔트로피: 확률이 하나의 값에만 집중된 경우, 즉 P(xi)=1P(x_i) = 1P(xi)=1인 경우엔 엔트로피가 0이 돼. 이는 결과를 예측할 수 있기 때문에 불확실성이 없다는 의미이다.
  2. 최대 엔트로피: 확률이 균등하게 분포된 경우엔 엔트로피가 최대가 돼. 예를 들어, 동전 던지기처럼 각 면이 나올 확률이 동일한 경우엔 불확실성이 최대이다.

Cross Entropy

Differential Entropy

우리는 이러한 Entropy를 Discrete한 것이 아닌 Continuous random variable에 대해서도 정의할 수 있다.

Example) Gaussian Distribution: $p(x)$ = $\frac{1}{(2\pi\sigma^2)^{\frac{1}{2}}}\cdot exp(-\frac{(x-\mu)^2}{2\sigma^2})$