기본 콘텐츠로 건너뛰기

pandas_ta를 적용한 통계적 인덱스 지표

[data analysis] 오차제곱평균(Mean of Square Error)

오차제곱평균(Mean of Square Error, MSE)

관련된 내용

회귀계수의 추정에서 언급한 것과 같이 모든 잔차의 합은 0 또는 0에 근접할 것이므로 모형에서 잔차의 정도를 판단하기 위해 잔차 제곱합(식 1)을 사용합니다.

\begin{align}\text{SSE}& = \sum^n_{i=1}e^2\\& = \sum^n_{i=1}(y-\hat{y})^2 \\&= \sum^n_{i=1}\left(y-(b_0+b_1x)^2\right)^2\\n, \hat{y}:\;&\text{표본의 크기, 추정치}\end{align} (식 1)

식 2에서 나타낸 것과 같이 잔차제곱합을 자유도로 나눈값이 오차제곱평균 (Mean of Square Error, MSE)이 됩니다.

\begin{align}\text{MSE}&=\frac{\text{SSE}}{\text{df}}\\ &= \frac{\sum^n_{i=1}(y_i-\hat{y_i})^2}{\text{df}}\\ \text{df, n}:&\; \text{자유도, 표본의 크기}\\\hat{y}:&\; \text{추정치}\end{align} (식 2)

식 2의 분모(자유도)는 전체 자료의 수(n)에서 설명변수의 수(p) 그리고 상수항의 수를 뺀 것으로 n - (p + 1)이 됩니다.

모형에 사용되는 설명변수와 반응변수 모두 확률변수이고 중심극한정리에 의해 정규분포를 가정할 수 있습니다. 그러므로 모형에 따라 생성되는 오차 역시 정규분포를 따른다고 가정할 수 있으며 오차의 평균(기대값)은 0이 됩니다. 또한 오차 분포의 분산 추정량으로 MSE를 적용할 수 있으므로 오차분포는 식 3과 같이 나타낼 수 있습니다.

e ~ N(0, mse)(식 3)

예 1)

kospi 지수의 일일 주가 자료중 시가(Open)을 설명변수로 하여 종가(Close)를 추정하는 회귀모델을 작성하고 MSE를 계산합니다.

Open Close
0 2874.50 2944.45
1 2943.67 2990.57
2 2993.34 2968.21

다음 코드는 분석을 위한 자료를 호출하기 위한 것입니다.

st=pd.Timestamp(2021,1, 1)
et=pd.Timestamp(2024, 5, 10)
kos=fdr.DataReader('KS11',st, et)[["Open","Close"]]
kos.index=range(len(kos))
kos.head(3).round(2) 
Open Close
02201.212175.17
12192.582176.46
22154.972155.07

위 자료를 표준화합니다.

X=kos.values[:,0].reshape(-1,1)
y=kos.values[:,1].reshape(-1,1)
from sklearn.preprocessing import StandardScaler 
#독립변수 정규화(표준화)
xScaler=StandardScaler().fit(X)
X_n=xScaler.transform(X)
#반응변수 정규화(표준화)
yScaler=StandardScaler().fit(y)
y_n=yScaler.transform(y)

자료의 회귀모델을 구현하기 위해 sklearn.liniear_model.linearRegression(fit_intercept=True) 클래스 적용합니다.

from sklearn.linear_model import LinearRegression
mod = LinearRegression()
mod.fit(X_n, y_n)
pre=mod.predict(X_n)
pre[:3].round(3)
array([[0.559],
       [0.788],
       [0.953]])

다음은 식 2를 적용하여 계산한 MSE입니다.

sse=np.sum((y_n-pre)**2)
mse=sse/(len(y_n)-2)
print(f'mse: {round(mse, 5)}')
mse: 0.00582

MSE는 skleran 패키지의 함수 sklearn.metrics.mean_squared_error(y_true, y_pred, squared=True)에 의해 계산할 수 있지만 이 함수는 자유도 대신 샘플 크기를 적용합니다. 이 함수의 인수 squared를 False로 전달하면 RMSE 즉, (mse)0.5가 됩니다.

from sklearn.metrics import mean_squared_error
mse1=mean_squared_error(pre, y_n)
print(f'mse: {round(mse1, 5)}')
mse: 0.00581
rmse=mean_squared_error(pre, y_n, squared=False)
print(f'rmse: {round(rmse, 5)}')
rmse: 0.0762

댓글

이 블로그의 인기 게시물

[Linear Algebra] 유사변환(Similarity transformation)

유사변환(Similarity transformation) n×n 차원의 정방 행렬 A, B 그리고 가역 행렬 P 사이에 식 1의 관계가 성립하면 행렬 A와 B는 유사행렬(similarity matrix)이 되며 행렬 A를 가역행렬 P와 B로 분해하는 것을 유사 변환(similarity transformation) 이라고 합니다. $$\tag{1} A = PBP^{-1} \Leftrightarrow P^{-1}AP = B $$ 식 2는 식 1의 양변에 B의 고유값을 고려한 것입니다. \begin{align}\tag{식 2} B - \lambda I &= P^{-1}AP – \lambda P^{-1}P\\ &= P^{-1}(AP – \lambda P)\\ &= P^{-1}(A - \lambda I)P \end{align} 식 2의 행렬식은 식 3과 같이 정리됩니다. \begin{align} &\begin{aligned}\textsf{det}(B - \lambda I ) & = \textsf{det}(P^{-1}(AP – \lambda P))\\ &= \textsf{det}(P^{-1}) \textsf{det}((A – \lambda I)) \textsf{det}(P)\\ &= \textsf{det}(P^{-1}) \textsf{det}(P) \textsf{det}((A – \lambda I))\\ &= \textsf{det}(A – \lambda I)\end{aligned}\\ &\begin{aligned}\because \; \textsf{det}(P^{-1}) \textsf{det}(P) &= \textsf{det}(P^{-1}P)\\ &= \textsf{det}(I)\end{aligned}\end{align} 유사행렬의 특성 유사행렬인 두 정방행렬 A와 B는 'A ~ B' 와 같...

[sympy] Sympy객체의 표현을 위한 함수들

Sympy객체의 표현을 위한 함수들 General simplify(x): 식 x(sympy 객체)를 간단히 정리 합니다. import numpy as np from sympy import * x=symbols("x") a=sin(x)**2+cos(x)**2 a $\sin^{2}{\left(x \right)} + \cos^{2}{\left(x \right)}$ simplify(a) 1 simplify(b) $\frac{x^{3} + x^{2} - x - 1}{x^{2} + 2 x + 1}$ simplify(b) x - 1 c=gamma(x)/gamma(x-2) c $\frac{\Gamma\left(x\right)}{\Gamma\left(x - 2\right)}$ simplify(c) $\displaystyle \left(x - 2\right) \left(x - 1\right)$ 위의 예들 중 객체 c의 감마함수(gamma(x))는 확률분포 등 여러 부분에서 사용되는 표현식으로 다음과 같이 정의 됩니다. 감마함수는 음이 아닌 정수를 제외한 모든 수에서 정의됩니다. 식 1과 같이 자연수에서 감마함수는 factorial(!), 부동소수(양의 실수)인 경우 적분을 적용하여 계산합니다. $$\tag{식 1}\Gamma(n) =\begin{cases}(n-1)!& n:\text{자연수}\\\int^\infty_0x^{n-1}e^{-x}\,dx& n:\text{부동소수}\end{cases}$$ x=symbols('x') gamma(x).subs(x,4) $\displaystyle 6$ factorial 계산은 math.factorial() 함수를 사용할 수 있습니다. import math math.factorial(3) 6 a=gamma(x).subs(x,4.5) a.evalf(3) 11.6 simpilfy() 함수의 알고리즘은 식에서 공통사항을 찾아 정리하...

유리함수 그래프와 점근선 그리기

내용 유리함수(Rational Function) 점근선(asymptote) 유리함수 그래프와 점근선 그리기 유리함수(Rational Function) 유리함수는 분수형태의 함수를 의미합니다. 예를들어 다음 함수는 분수형태의 유리함수입니다. $$f(x)=\frac{x^{2} - 1}{x^{2} + x - 6}$$ 분수의 경우 분모가 0인 경우 정의할 수 없습니다. 이와 마찬가지로 유리함수 f(x)의 정의역은 분모가 0이 아닌 부분이어야 합니다. 그러므로 위함수의 정의역은 분모가 0인 부분을 제외한 부분들로 구성됩니다. sympt=solve(denom(f), a); asympt [-3, 2] $$-\infty \lt x \lt -3, \quad -3 \lt x \lt 2, \quad 2 \lt x \lt \infty$$ 이 정의역을 고려해 그래프를 작성을 위한 사용자 정의함수는 다음과 같습니다. def validX(x, f, symbol): ① a=[] b=[] for i in x: try: b.append(float(f.subs(symbol, i))) a.append(i) except: pass return(a, b) #x는 임의로 지정한 정의역으로 불연속선점을 기준으로 구분된 몇개의 구간으로 전달할 수 있습니다. #그러므로 인수 x는 2차원이어야 합니다. def RationalPlot(x, f, sym, dp=100): fig, ax=plt.subplots(dpi=dp) # ② for k in x: #③ x4, y4=validX(k, f, sym) ax.plot(x4, y4) ax.spines['left'].set_position(('data', 0)) ax.spines['right...