다항식 회귀(Polynomial Regression)
내용
다항식회귀?
데이터가 비선형인 경우 선형 모델에 적합시킬 수 있습니다. 가장 간단한 형태로 데이터를 이차형식으로 변형하여 선형모델에 적용할 수 있습니다. 이러한 기법을 다항식 회귀(polynomial regression)이라고 합니다.
예를 들어 독립변수와 반응변수의 형태가 이차형태를 가지는 인공데이터에 대해 다항식 회귀를 적용하여 봅니다.
import numpy as np import pandas as pd import matplotlib.pyplot as plt
font1={'family':'nanumgothic', 'size':12, 'weight':'bold'}
n=100 X=np.linspace(-2, 2, n).reshape(-1,1) y=X**2+X+2+np.random.rand(n, 1)
plt.figure(dpi=100) plt.scatter(X,y, s=1) plt.xlabel("X", weight="bold") plt.ylabel("y", weight="bold") plt.show()
변수의 변환
위의 독립변수의 이차항을 생성하기 위해 sklearn.preprocessing.PloynomialFeatures(degree=2, interaction_only=False, include_bias=True)
클래스를 적용합니다. 이 클래스는 변수의 2차항과 1차항 그리고 교차항을 생성합니다. 예를 들어 2개(a, b)의 독립변수가 존재한다면 이 클래스에서 다음의 변수들이 생성됩니다.
즉, 이 클래스에 의해 생성되는 변수의 수는 원래의 변수의 수(n)과 차수(d)의 조합(combination)으로 계산할 수 있습니다.
$$\begin{align}\text{# of Features}=&\frac{(n+d)!}{n!d!}\\&=\frac{(2+2)!}{2!2!}\\&=6\end{align}$$위 결과는 편차항을 포함한 것입니다.
from sklearn.preprocessing import PolynomialFeatures
polyFeature=PolynomialFeatures(2, include_bias=False) X_poly=polyFeature.fit_transform(X)
X[0], X[0]**2
(array([-2.]), array([4.]))
X_poly[0] #=[x[0], x[0]**2]
array([-2., 4.])
새롭게 생성한 변수들을 선형모델에 적용할 수 있습니다.
from sklearn.linear_model import LinearRegression
linReg=LinearRegression() linReg.fit(X_poly, y) linReg.coef_, linReg.intercept_
(array([[0.98257322, 1.04157373]]), array([2.43426145]))
linReg.score(X_poly,y)
0.9709298386739502
pre=linReg.predict(X_poly)
plt.figure(dpi=100) plt.scatter(X,y, s=3, label="data") plt.plot(X_poly[:,0], pre, color="red", label="prediction") plt.legend(loc="best") plt.xlabel("X", weight="bold") plt.ylabel("y", weight="bold") plt.show()
변수의 차수에 따른 변화
다항식 회귀는 PolynomialFeature() 클래스에서 변수간의 교차항을 생성하므로 여러 독립변수가 존재할 경우 변수들 사이의 교차항의 영향을 포함합니다.
다항식 회귀에서 차수의 영향을 알아봅니다.
score={} for i in range(1, 100): polyHigh=PolynomialFeatures(i, include_bias=False) XHigh=polyHigh.fit_transform(X) linReg_High=LinearRegression().fit(XHigh, y) preHigh=linReg_High.predict(XHigh) score1=linReg_High.score(XHigh,y) if score1>=0: score[i]=score1
plt.figure(figsize=(12,4)) plt.subplot(1,2,1) plt.scatter(score.keys(), score.values()) plt.xlabel("degree", weight="bold") plt.ylabel("score", weight="bold") plt.grid(True) plt.subplot(1,2,2) plt.scatter(list(score.keys())[1:43], list(score.values())[1:43]) plt.xlabel("degree", weight="bold") plt.grid(True) plt.show()
list(score.keys())[np.argmax(list(score.values()))]
32
위 결과와 같이 다항식 차수의 증가와 점수(R2)의 증가후 감소를 나타내며 32차에서 가장 높은 값을 보입니다. 일반적으로 훈련데이터에서 높은 점수를 보이는 모델의 경우 과적합(overfitting)이 나타나는 경우가 많습니다. 이를 확인하기 위해 교차검증(cross validation)을 실시합니다. 또는 간단하게 훈련과 검정 세트를 분리하여 각각의 점수를 비교하는 것으로 판단할 수 있습니다.
from sklearn.model_selection import KFold, train_test_split
scoreTr={} scoreTe={} for i in range(2, 32): polyHigh=PolynomialFeatures(i, include_bias=False) x=polyHigh.fit_transform(X) xtr, xte, ytr, yte=train_test_split(x, y, test_size=0.2, random_state=2) mod=LinearRegression().fit(xtr, ytr) scoreTr1=mod.score(xtr,ytr) scoreTe1=mod.score(xte,yte) if (scoreTr1>=0) and (scoreTe1>=0): scoreTr[i]=scoreTr1 scoreTe[i]=scoreTe1
plt.figure(dpi=100) plt.plot(scoreTr.keys(), scoreTr.values(), label="train") plt.plot(scoreTe.keys(), scoreTe.values(), label="test") plt.legend(loc="best",prop=font1) plt.xlabel("degree", fontdict=font1) plt.ylabel("score", fontdict=font1) plt.grid(True) plt.show()
변수의 차수가 증가한다는 것은 모델의 복잡도가 증가하는 것으로 과적합 문제의 발생이 증가합니다. 위 결과 역시 차수의 증가로 인해 과적합이 증가함을 알 수 있습니다. 위는 점수에 의한 결과는 각 모델의 MSE의 변화와 유사합니다.
from sklearn.metrics import mean_squared_error
mseTr={} mseTe={} for i in range(2, 32): polyHigh=PolynomialFeatures(i, include_bias=False) x=polyHigh.fit_transform(X) xtr, xte, ytr, yte=train_test_split(x, y, test_size=0.2, random_state=2) mod=LinearRegression().fit(xtr, ytr) mseTr1=mean_squared_error(ytr, mod.predict(xtr), squared=False) mseTe1=mean_squared_error(yte, mod.predict(xte), squared=False) mseTr[i]=mseTr1 mseTe[i]=mseTe1
plt.figure(dpi=100) plt.subplot(1,2,1) plt.plot(mseTr.keys(), mseTr.values(), label="train") plt.plot(mseTe.keys(), mseTe.values(), label="test") plt.legend(loc="best",prop=font1) plt.xlabel("degree", fontdict=font1) plt.ylabel("mse", fontdict=font1) plt.grid(True) plt.subplot(1,2,2) plt.plot(mseTr.keys(), mseTr.values(), label="train") plt.plot(mseTe.keys(), mseTe.values(), label="test") plt.legend(loc="best",prop=font1) plt.xlabel("degree", fontdict=font1) plt.ylim(0, 5) plt.grid(True) plt.show()
10차로 변형한 독립변수에 대해 trainnig size에 대한 변화를 알아봅니다. pipeline을 적용합니다.
from sklearn.pipeline import Pipeline
scoreTr={} scoreTe={} for i in np.linspace(0.05, 0.95, 10): xtr, xte, ytr, yte=train_test_split(X, y, test_size=i, random_state=3) poly_reg=Pipeline([('polyFeature', PolynomialFeatures(degree=10, include_bias=False)), ('lin_reg', LinearRegression()),]) poly_reg.fit(xtr, ytr) scoreTr[i]=poly_reg.score(xtr, ytr) scoreTe[i]=poly_reg.score(xte, yte)
plt.figure(dpi=100) plt.plot(list(scoreTr.keys()), list(scoreTr.values()), label="Train") plt.plot(list(scoreTe.keys()), list(scoreTe.values()), label="Test") plt.legend(loc="best", prop=font1) plt.xlabel("test set ratio", fontdict=font1) plt.ylabel(r"Score($R^2$)", fontdict=font1) plt.ylim(0.7, 1) plt.show()
위 결과는 모델 구축에 대한 훈련세트의 크기의 영향에 대한 것입니다. 훈련세트와 검정세트의 비율이 균형을 유지할 경우 과적합이 최소화 됩니다. 특히 훈련세트가 작을수록 모델의 정확성 뿐만 아니라 일반화에도 적절하지 않습니다.
편향/분산 트레이드오프(Bias/Variance Tradeoff)
통계 및 기계 학습의 중요한 이론적 결과는 모델의 일반화 오류가 세 가지 매우 다른 오류의 합으로 표현될 수 있다는 사실입니다.
- Bias(편향)
- 비선형인 데이터를 선형이라고 가정하는 등에 대해 발생합니다. 고편향 모델은 훈련 데이터에 과소적합될 가능성이 가장 높습니다.
- Variation(분산)
- 훈련 데이터의 작은 변화에 대한 모델의 과도한 감도 때문입니다. 자유도가 높은 모델(예: 고차 다항식 모델)은 분산이 높기 때문에 훈련 데이터에 과적합될 가능성이 높습니다.
- Random error(원인을 알 수 없는 오차)
- 데이터 자체의 노이즈 때문입니다. 이러한 오류를 줄이는 유일한 방법은 데이터를 정리하는 것입니다(예: 깨진 센서와 같은 데이터 소스 수정, 이상값 감지 및 제거).
모델의 복잡성을 높이면 일반적으로 분산이 증가하고 편향이 줄어듭니다. 반대로 모델의 복잡성을 줄이면 편향이 증가하고 분산이 줄어듭니다.
댓글
댓글 쓰기