오차제곱평균(Mean of Square Error, MSE)
관련된 내용
회귀계수의 추정에서 언급한 것과 같이 모든 잔차의 합은 0 또는 0에 근접할 것이므로 모형에서 잔차의 정도를 판단하기 위해 잔차 제곱합(식 1)을 사용합니다.
\begin{align}\text{SSE}& = \sum^n_{i=1}e^2\\& = \sum^n_{i=1}(y-\hat{y})^2 \\&= \sum^n_{i=1}\left(y-(b_0+b_1x)^2\right)^2\\n, \hat{y}:\;&\text{표본의 크기, 추정치}\end{align} | (식 1) |
식 2에서 나타낸 것과 같이 잔차제곱합을 자유도로 나눈값이 오차제곱평균 (Mean of Square Error, MSE)이 됩니다.
\begin{align}\text{MSE}&=\frac{\text{SSE}}{\text{df}}\\ &= \frac{\sum^n_{i=1}(y_i-\hat{y_i})^2}{\text{df}}\\ \text{df, n}:&\; \text{자유도, 표본의 크기}\\\hat{y}:&\; \text{추정치}\end{align} | (식 2) |
식 2의 분모(자유도)는 전체 자료의 수(n)에서 설명변수의 수(p) 그리고 상수항의 수를 뺀 것으로 n - (p + 1)이 됩니다.
모형에 사용되는 설명변수와 반응변수 모두 확률변수이고 중심극한정리에 의해 정규분포를 가정할 수 있습니다. 그러므로 모형에 따라 생성되는 오차 역시 정규분포를 따른다고 가정할 수 있으며 오차의 평균(기대값)은 0이 됩니다. 또한 오차 분포의 분산 추정량으로 MSE를 적용할 수 있으므로 오차분포는 식 3과 같이 나타낼 수 있습니다.
e ~ N(0, mse) | (식 3) |
예 1)
kospi 지수의 일일 주가 자료중 시가(Open)을 설명변수로 하여 종가(Close)를 추정하는 회귀모델을 작성하고 MSE를 계산합니다.
Open | Close | |
---|---|---|
0 | 2874.50 | 2944.45 |
1 | 2943.67 | 2990.57 |
2 | 2993.34 | 2968.21 |
⋮ | ⋮ | ⋮ |
다음 코드는 분석을 위한 자료를 호출하기 위한 것입니다.
st=pd.Timestamp(2021,1, 1) et=pd.Timestamp(2024, 5, 10) kos=fdr.DataReader('KS11',st, et)[["Open","Close"]] kos.index=range(len(kos)) kos.head(3).round(2)
Open | Close | ||
---|---|---|---|
0 | 2201.21 | 2175.17 | |
1 | 2192.58 | 2176.46 | |
2 | 2154.97 | 2155.07 |
위 자료를 표준화합니다.
X=kos.values[:,0].reshape(-1,1) y=kos.values[:,1].reshape(-1,1) from sklearn.preprocessing import StandardScaler #독립변수 정규화(표준화) xScaler=StandardScaler().fit(X) X_n=xScaler.transform(X) #반응변수 정규화(표준화) yScaler=StandardScaler().fit(y) y_n=yScaler.transform(y)
자료의 회귀모델을 구현하기 위해 sklearn.liniear_model.linearRegression(fit_intercept=True) 클래스 적용합니다.
from sklearn.linear_model import LinearRegression mod = LinearRegression() mod.fit(X_n, y_n) pre=mod.predict(X_n) pre[:3].round(3)
array([[0.559], [0.788], [0.953]])
다음은 식 2를 적용하여 계산한 MSE입니다.
sse=np.sum((y_n-pre)**2) mse=sse/(len(y_n)-2) print(f'mse: {round(mse, 5)}')
mse: 0.00582
MSE는 skleran 패키지의 함수 sklearn.metrics.mean_squared_error(y_true, y_pred, squared=True)에 의해 계산할 수 있지만 이 함수는 자유도 대신 샘플 크기를 적용합니다. 이 함수의 인수 squared를 False로 전달하면 RMSE 즉, (mse)0.5가 됩니다.
from sklearn.metrics import mean_squared_error mse1=mean_squared_error(pre, y_n) print(f'mse: {round(mse1, 5)}')
mse: 0.00581
rmse=mean_squared_error(pre, y_n, squared=False) print(f'rmse: {round(rmse, 5)}')
rmse: 0.0762
댓글
댓글 쓰기