기본 콘텐츠로 건너뛰기

pandas_ta를 적용한 통계적 인덱스 지표

[data analysis] 다항식 회귀(Polynomial Regression)

다항식 회귀(Polynomial Regression)

내용

다항식회귀?

데이터가 비선형인 경우 선형 모델에 적합시킬 수 있습니다. 가장 간단한 형태로 데이터를 이차형식으로 변형하여 선형모델에 적용할 수 있습니다. 이러한 기법을 다항식 회귀(polynomial regression)이라고 합니다.

예를 들어 독립변수와 반응변수의 형태가 이차형태를 가지는 인공데이터에 대해 다항식 회귀를 적용하여 봅니다.

import numpy as np
import pandas as pd
import matplotlib.pyplot as plt
font1={'family':'nanumgothic', 'size':12, 'weight':'bold'}
n=100
X=np.linspace(-2, 2, n).reshape(-1,1)
y=X**2+X+2+np.random.rand(n, 1)
plt.figure(dpi=100)
plt.scatter(X,y, s=1)
plt.xlabel("X", weight="bold")
plt.ylabel("y", weight="bold")
plt.show()

변수의 변환

위의 독립변수의 이차항을 생성하기 위해 sklearn.preprocessing.PloynomialFeatures(degree=2, interaction_only=False, include_bias=True)클래스를 적용합니다. 이 클래스는 변수의 2차항과 1차항 그리고 교차항을 생성합니다. 예를 들어 2개(a, b)의 독립변수가 존재한다면 이 클래스에서 다음의 변수들이 생성됩니다.

a, b → 편차항, a2, a, ab, b, b2

즉, 이 클래스에 의해 생성되는 변수의 수는 원래의 변수의 수(n)과 차수(d)의 조합(combination)으로 계산할 수 있습니다.

$$\begin{align}\text{# of Features}=&\frac{(n+d)!}{n!d!}\\&=\frac{(2+2)!}{2!2!}\\&=6\end{align}$$

위 결과는 편차항을 포함한 것입니다.

from sklearn.preprocessing import PolynomialFeatures
polyFeature=PolynomialFeatures(2, include_bias=False)
X_poly=polyFeature.fit_transform(X)
X[0], X[0]**2
(array([-2.]), array([4.]))
X_poly[0] #=[x[0], x[0]**2] 
array([-2.,  4.])

새롭게 생성한 변수들을 선형모델에 적용할 수 있습니다.

from sklearn.linear_model import LinearRegression
linReg=LinearRegression()
linReg.fit(X_poly, y)
linReg.coef_, linReg.intercept_
(array([[0.98257322, 1.04157373]]), array([2.43426145]))
linReg.score(X_poly,y) 
0.9709298386739502
pre=linReg.predict(X_poly)
plt.figure(dpi=100)
plt.scatter(X,y, s=3, label="data")
plt.plot(X_poly[:,0], pre, color="red", label="prediction")
plt.legend(loc="best")
plt.xlabel("X", weight="bold")
plt.ylabel("y", weight="bold")
plt.show()

변수의 차수에 따른 변화

다항식 회귀는 PolynomialFeature() 클래스에서 변수간의 교차항을 생성하므로 여러 독립변수가 존재할 경우 변수들 사이의 교차항의 영향을 포함합니다.

다항식 회귀에서 차수의 영향을 알아봅니다.

score={}
for i in range(1, 100):
    polyHigh=PolynomialFeatures(i, include_bias=False)
    XHigh=polyHigh.fit_transform(X)
    linReg_High=LinearRegression().fit(XHigh, y)
    preHigh=linReg_High.predict(XHigh)
    score1=linReg_High.score(XHigh,y)
    if score1>=0:
        score[i]=score1
plt.figure(figsize=(12,4))
plt.subplot(1,2,1)
plt.scatter(score.keys(), score.values())
plt.xlabel("degree", weight="bold")
plt.ylabel("score", weight="bold")
plt.grid(True)
plt.subplot(1,2,2)
plt.scatter(list(score.keys())[1:43], list(score.values())[1:43])
plt.xlabel("degree", weight="bold")
plt.grid(True)
plt.show()
list(score.keys())[np.argmax(list(score.values()))]
32

위 결과와 같이 다항식 차수의 증가와 점수(R2)의 증가후 감소를 나타내며 32차에서 가장 높은 값을 보입니다. 일반적으로 훈련데이터에서 높은 점수를 보이는 모델의 경우 과적합(overfitting)이 나타나는 경우가 많습니다. 이를 확인하기 위해 교차검증(cross validation)을 실시합니다. 또는 간단하게 훈련과 검정 세트를 분리하여 각각의 점수를 비교하는 것으로 판단할 수 있습니다.

from sklearn.model_selection import KFold, train_test_split
scoreTr={}
scoreTe={}
for i in range(2, 32):
    polyHigh=PolynomialFeatures(i, include_bias=False)
    x=polyHigh.fit_transform(X)
    xtr, xte, ytr, yte=train_test_split(x, y, test_size=0.2, random_state=2)
    mod=LinearRegression().fit(xtr, ytr)
    scoreTr1=mod.score(xtr,ytr)
    scoreTe1=mod.score(xte,yte)
    if (scoreTr1>=0) and (scoreTe1>=0):
        scoreTr[i]=scoreTr1
        scoreTe[i]=scoreTe1
plt.figure(dpi=100)
plt.plot(scoreTr.keys(), scoreTr.values(), label="train")
plt.plot(scoreTe.keys(), scoreTe.values(), label="test")
plt.legend(loc="best",prop=font1)
plt.xlabel("degree", fontdict=font1)
plt.ylabel("score", fontdict=font1)
plt.grid(True)
plt.show()

변수의 차수가 증가한다는 것은 모델의 복잡도가 증가하는 것으로 과적합 문제의 발생이 증가합니다. 위 결과 역시 차수의 증가로 인해 과적합이 증가함을 알 수 있습니다. 위는 점수에 의한 결과는 각 모델의 MSE의 변화와 유사합니다.

from sklearn.metrics import mean_squared_error
mseTr={}
mseTe={}
for i in range(2, 32):
    polyHigh=PolynomialFeatures(i, include_bias=False)
    x=polyHigh.fit_transform(X)
    xtr, xte, ytr, yte=train_test_split(x, y, test_size=0.2, random_state=2)
    mod=LinearRegression().fit(xtr, ytr)
    mseTr1=mean_squared_error(ytr, mod.predict(xtr), squared=False)
    mseTe1=mean_squared_error(yte, mod.predict(xte), squared=False)
    mseTr[i]=mseTr1
    mseTe[i]=mseTe1
plt.figure(dpi=100)
plt.subplot(1,2,1)
plt.plot(mseTr.keys(), mseTr.values(), label="train")
plt.plot(mseTe.keys(), mseTe.values(), label="test")
plt.legend(loc="best",prop=font1)
plt.xlabel("degree", fontdict=font1)
plt.ylabel("mse", fontdict=font1)
plt.grid(True)
plt.subplot(1,2,2)
plt.plot(mseTr.keys(), mseTr.values(), label="train")
plt.plot(mseTe.keys(), mseTe.values(), label="test")
plt.legend(loc="best",prop=font1)
plt.xlabel("degree", fontdict=font1)
plt.ylim(0, 5)
plt.grid(True)
plt.show()

10차로 변형한 독립변수에 대해 trainnig size에 대한 변화를 알아봅니다. pipeline을 적용합니다.

from sklearn.pipeline import Pipeline
scoreTr={}
scoreTe={}
for i in np.linspace(0.05, 0.95, 10):
    xtr, xte, ytr, yte=train_test_split(X, y, test_size=i, random_state=3)
    poly_reg=Pipeline([('polyFeature', PolynomialFeatures(degree=10, include_bias=False)), 
                         ('lin_reg', LinearRegression()),])
    poly_reg.fit(xtr, ytr)
    scoreTr[i]=poly_reg.score(xtr, ytr)
    scoreTe[i]=poly_reg.score(xte, yte)
plt.figure(dpi=100)
plt.plot(list(scoreTr.keys()), list(scoreTr.values()), label="Train")
plt.plot(list(scoreTe.keys()), list(scoreTe.values()), label="Test")
plt.legend(loc="best", prop=font1)
plt.xlabel("test set ratio", fontdict=font1)
plt.ylabel(r"Score($R^2$)", fontdict=font1)
plt.ylim(0.7, 1)
plt.show()

위 결과는 모델 구축에 대한 훈련세트의 크기의 영향에 대한 것입니다. 훈련세트와 검정세트의 비율이 균형을 유지할 경우 과적합이 최소화 됩니다. 특히 훈련세트가 작을수록 모델의 정확성 뿐만 아니라 일반화에도 적절하지 않습니다.

편향/분산 트레이드오프(Bias/Variance Tradeoff)

통계 및 기계 학습의 중요한 이론적 결과는 모델의 일반화 오류가 세 가지 매우 다른 오류의 합으로 표현될 수 있다는 사실입니다.

  • Bias(편향)
    • 비선형인 데이터를 선형이라고 가정하는 등에 대해 발생합니다. 고편향 모델은 훈련 데이터에 과소적합될 가능성이 가장 높습니다.
  • Variation(분산)
    • 훈련 데이터의 작은 변화에 대한 모델의 과도한 감도 때문입니다. 자유도가 높은 모델(예: 고차 다항식 모델)은 분산이 높기 때문에 훈련 데이터에 과적합될 가능성이 높습니다.
  • Random error(원인을 알 수 없는 오차)
    • 데이터 자체의 노이즈 때문입니다. 이러한 오류를 줄이는 유일한 방법은 데이터를 정리하는 것입니다(예: 깨진 센서와 같은 데이터 소스 수정, 이상값 감지 및 제거).

모델의 복잡성을 높이면 일반적으로 분산이 증가하고 편향이 줄어듭니다. 반대로 모델의 복잡성을 줄이면 편향이 증가하고 분산이 줄어듭니다.

댓글

이 블로그의 인기 게시물

[Linear Algebra] 유사변환(Similarity transformation)

유사변환(Similarity transformation) n×n 차원의 정방 행렬 A, B 그리고 가역 행렬 P 사이에 식 1의 관계가 성립하면 행렬 A와 B는 유사행렬(similarity matrix)이 되며 행렬 A를 가역행렬 P와 B로 분해하는 것을 유사 변환(similarity transformation) 이라고 합니다. $$\tag{1} A = PBP^{-1} \Leftrightarrow P^{-1}AP = B $$ 식 2는 식 1의 양변에 B의 고유값을 고려한 것입니다. \begin{align}\tag{식 2} B - \lambda I &= P^{-1}AP – \lambda P^{-1}P\\ &= P^{-1}(AP – \lambda P)\\ &= P^{-1}(A - \lambda I)P \end{align} 식 2의 행렬식은 식 3과 같이 정리됩니다. \begin{align} &\begin{aligned}\textsf{det}(B - \lambda I ) & = \textsf{det}(P^{-1}(AP – \lambda P))\\ &= \textsf{det}(P^{-1}) \textsf{det}((A – \lambda I)) \textsf{det}(P)\\ &= \textsf{det}(P^{-1}) \textsf{det}(P) \textsf{det}((A – \lambda I))\\ &= \textsf{det}(A – \lambda I)\end{aligned}\\ &\begin{aligned}\because \; \textsf{det}(P^{-1}) \textsf{det}(P) &= \textsf{det}(P^{-1}P)\\ &= \textsf{det}(I)\end{aligned}\end{align} 유사행렬의 특성 유사행렬인 두 정방행렬 A와 B는 'A ~ B' 와 같...

유리함수 그래프와 점근선 그리기

내용 유리함수(Rational Function) 점근선(asymptote) 유리함수 그래프와 점근선 그리기 유리함수(Rational Function) 유리함수는 분수형태의 함수를 의미합니다. 예를들어 다음 함수는 분수형태의 유리함수입니다. $$f(x)=\frac{x^{2} - 1}{x^{2} + x - 6}$$ 분수의 경우 분모가 0인 경우 정의할 수 없습니다. 이와 마찬가지로 유리함수 f(x)의 정의역은 분모가 0이 아닌 부분이어야 합니다. 그러므로 위함수의 정의역은 분모가 0인 부분을 제외한 부분들로 구성됩니다. sympt=solve(denom(f), a); asympt [-3, 2] $$-\infty \lt x \lt -3, \quad -3 \lt x \lt 2, \quad 2 \lt x \lt \infty$$ 이 정의역을 고려해 그래프를 작성을 위한 사용자 정의함수는 다음과 같습니다. def validX(x, f, symbol): ① a=[] b=[] for i in x: try: b.append(float(f.subs(symbol, i))) a.append(i) except: pass return(a, b) #x는 임의로 지정한 정의역으로 불연속선점을 기준으로 구분된 몇개의 구간으로 전달할 수 있습니다. #그러므로 인수 x는 2차원이어야 합니다. def RationalPlot(x, f, sym, dp=100): fig, ax=plt.subplots(dpi=dp) # ② for k in x: #③ x4, y4=validX(k, f, sym) ax.plot(x4, y4) ax.spines['left'].set_position(('data', 0)) ax.spines['right...

부분분수의 미분

내용 방법 1 방법 2 방법 3 부분분수의 미분 분수의 미분은 일정한 공식 을 적용하여 계산할 수 있습니다. 그러나 분수 자체가 단순한 표현으로 이루어지지 않았다면 미분 과정이나 결과는 매우 복잡할 수 있습니다. 만약 복잡한 분수 함수를 간단한 분수들로 분해할 수 있다면 계산이 보다 간편해질 것입니다. 이와 같이 분해된 간단한 분수들을 부분분수 라고 합니다. 예를 들어 다음 두 분수의 합을 계산해 봅니다. $$\begin{align} \frac{1}{x+1}+\frac{2}{x-1}&=\frac{x-1+2(x+1)}{(x+1)(x-1)}\\ &=\frac{3x+1}{x^2-1} \end{align}$$ 위 과정은 3개 이상의 여러 분수에서도 이루어질 수 있습니다. 또한 역으로 진행될 수 있습니다. 즉, 분수를 부분 분수로 분할할 수 있습니다. 그러나 이러한 과정은 대수분수 (분자의 가장 큰 차수가 분모의 최고의 차수보다 작은 분수)에서만 이루어질 수 있습니다. 예를 들어 $\displaystyle \frac {x^2+2}{x^2-1}$의 경우는 분자와 분모의 차수는 2차로 같습니다. 이러한 경우 다음과 같이 분리할 수 있습니다. $$\frac{x^2+2}{x^2-1}=1+\frac{3}{x^2-1}$$ 위의 식 중 $\displaystyle \frac{3}{x^2-1}$은 분자의 차수가 분모의 차수 보다 낮은 대수 분수이므로 부분 분수로 분리할 수 있습니다. 이와같이 부분 분수로 분해하는 방법은 다음과 같이 몇 가지로 구분할 수 있습니다. 방법 1 위 예의 결과 $\displaystyle \frac{3x+1}{x^2-1}$의 경우를 역으로 생각해 봅니다. 분모의 인수분해가 가능하면 그 분모의 인수에 의해 다음과 같이 분해할 수 있습니다. $$\begin{align} \frac{3x+1}{x^2-1}&=\frac{3x+1}{(x+1)(x-1)}\\ &=\frac{A}{x+1...