Unbiased Estimator

Let $\hat{\theta}$ be a point estimator for a parameter $\theta$ (어떤 파라미터를 추정하는 점 추정치 $\hat{\theta}$), $\hat{\theta}$는 $E[{\hat{\theta}}]= \theta$일때, 불편 추정치라고 하고 아니라면 편향추정치라고 한다.

예시로 베르누이 분포를 살펴보면, 동전 앞이 나올 확률 $p:\theta$일 때,

이것의 불편 추정치인 $\hat{\theta}= \frac{1}{n}\sum X_i$ (동전을 n번 던져서 앞이 나온 비율을 구할 수 있게된다.

이러한 $\hat{\theta}$가 불편 추정치인지 확인하는 방법은 $E[\hat{\theta}] = E[\frac{1}{n}\sum X_i]= \frac{1}{n}\sum E(X_i) = \frac{1}{n}\sum p = p$

이때, $\hat{\theta} = \frac{1}{n}\sum X_i$ 은 $\theta$의 최대우추정량(maximum likelihood estimator)이다.

최대우추정량이란 주어진 데이터가 관측될 확률을 최대화하는 모수(parameter)를 찾는 방법

즉, 어떤 확률 모델이 있고, 이 모델의 모수를 추정할 때, “이 데이터가 가장 잘 나올 확률이 높은 모수는 무엇인가?"를 찾는 게 MLE의 목표

Bias & Variance

The Bias of a point estimator $\hat{\theta}$ is given by $B(\hat{\theta})$ = $E(\hat{\theta})-\theta$

= 우리가 추정하는 것의 기대값과 실제값의 차이를 Bias라고 부른다.

$MSE(\hat{\theta}) = E[(\hat{\theta}-\theta)^2] = V(\hat{\theta}) +B(\hat{\theta})^2$

$MSE(\hat{\theta}) = V(\hat{\theta}) +B(\hat{\theta})^2$일 때, 분산과 편향은 둘다 Trade Off관계이다.

하나가 상승하면 남은 하나는 무조건 떨어져야하는 구조