비용함수: cross_entropy loss
한개의 특성(feture)과 3개의 클래스를 가진 라벨에 매핑시키는 모델을 생성합니다. 즉, 데이터는 다음의 구조를 가집니다.
x | y |
---|---|
1.5 | 0 |
클래스 0, 1, 2를 각각 A, B, C로 나타내면 각각에 부여되는 가중치를
간단한 예로 다음의 경우에 대해서만 예측치를 계산해 봅니다.
x=1.5, y=0
import numpy as np np.random.seed(3) W=np.random.rand(3) W
array([0.5507979 , 0.70814782, 0.29090474])
x=1.5 y=0 haty=W*x haty
array([0.82619685, 1.06222173, 0.43635711])
위 haty는 x가 label의 각 클래스 A, B, C로 대응하기 위한 선형변환의 결과입니다. 위 값들이 [0, 1] 구간내에 포함하도록 정규화 할 수 있습니다. 이것은 특성이 A, B, C에 매핑될 확률로 간주할 수 있습니다.
위 계산결과의 총합은 1이 됩니다.
haty2=np.exp(haty) s1=haty2/np.sum(haty2) s1
s1.sum().round(3)
위 결과 중 독립변수인 1.5는 2 번째 클래스에 포함될 확률이 가장 큽니다. 그러므로 위 결과의 예측은 1이며 실제값은 0입니다. 위 결과와 실제값과의 차이를 최소로 하는 모델을 구현해야 합니다. 차이가 최소임을 나타낼 지표 즉, 비용함수(cost function)가 필요합니다. 선형회귀와 같이 MSE를 적용하면 4((2-0)2)로 계산됩니다.
위 과정을 다른 가중치에 의해 다시 실시해 봅니다.
np.random.seed(10) W2=np.random.rand(3) haty12=W2*x haty13=np.exp(haty12) s2=haty13/np.sum(haty13) s2
위 결과로 클래스 1에 포함됩니다. 이 경우 비용은 1((1-0)2)이 됩니다.
위의 두 비용 4와 1은 클래스 선택의 오류에 기인합니다. 이 결과는 클래스 2와 클래스 1의 선택에 대한 그 차이를 나타냅니다. 즉, 실제값 0은 2보다 1에 더 가깝다라는 의미를 나타냅니다. 그러나 클래스 0, 1, 2는 분류를 위한 것으로 순위를 나타내는 것이 아닙니다. 그러므로 비용 4와 1의 크기는 의미를 가질수 없습니다. 이러한 문제를 해결하기 위해 라벨(label)을 즉, 클래스를 원-핫 인코딩(one-hot encoding)으로 전환합니다. 즉, 각 데이터 점이 해당하는 클래스에 1, 다른 클래스에 0의 값을 부여합니다. 즉 클래스 3개는 다음과 같이 나타낼 수 있습니다.
샘플(값)\클래스 | 0 | 1 | 2 |
---|---|---|---|
a(y=1) | 0 | 1 | 0 |
b(y=0) | 1 | 0 | 0 |
c(y=2) | 0 | 0 | 1 |
위 표의 샘플 b의 값은 0이므로 원-핫 인코딩의 결과는 [1, 0, 0] 으로 전환합니다. 이 값과 예측결과인 확률의 곱의 크기로 비용을 계산합니다. 이 계산의 결과는 [0, 1]의 범위내에 존재해야 하므로 -1을 고려합니다. 이 범위를 확장하고 계산상의 편의를 위해 식 3과 같이 로그확률을 적용합니다.
결과적으로 식 3은 관측치에 해당하는 클래스에 예측되는 확률만을 고려하는 것입니다. 이 비용함수를 크로스 엔트로피(cross-entropy)함수라고 합니다.
위 코드에서 사용한 x=1.5, y=0에 대한 결과인 s1에 식 3을 적용하여 비용을 계산하면 다음과 같습니다.
x=1.5 b=0 b_oh=np.array([1,0,0]) cost1=-np.sum(b_oh@np.log(s1)) cost1
식 3을 근거로 Cross-entropy 비용함수의 적합성을 알아봅니다.
예를들어 L(=y)이 다음일 때 예측치
그러므로 실측치와 일치하지 않은 경우 cross-entropy 함수값은 매우 증가하므로 이 함수를 포함하는 비용함수 역시 매우 증가합니다.
댓글
댓글 쓰기