수학적인 이론들을 컴퓨터 세계에서 어떻게 처리할 것인지 다루는 학문입니다.
$softmax(x_i) = \frac{exp(x_i)}{\sum_{i=1}^n exp(x_i)}$
$exp(x)$
우리가 Softmax 함수 $x$에 40과 같은 큰 숫자가 들어가면 Softmax 함수는 망가지게 된다.
그 이유는 무한히 큰 숫자가 나오므로 inf와 같은 수가 발생할 것이다.
따라서 softmax에 overflow를 방지하는 기법이 필요하다. ($x_i$는 우리가 Logit이라고 부른다.)
Trick 1
→위와 같은 Trick이 가능한 이유는 $exp(x+c) = e^x \cdot e^c = exp(x) \cdot exp(c)$ 로 표현할 수 있기 때문에 이러한 성질을 이용하여 Softmax$softmax$$\frac {exp(x) \cdot exp(c)}{exp(c) \sum exp(x)}$ 같이 수식이 전개가 되고, $softmax(x) =softmax(x+c)$가 성립이 된다.
Vector Norm의 대표적인 Norm
Matrix Norm 중에 지난 시간 언급한 Norm은 Frobenius Norm $||A||_{F}$이 존재했다.
⇒ 그럼 우리가 Matrix의 어떤 특징을 고려한 Norm을 한번 고려해보자.
Matrix의 $L_p Norm$