기본 콘텐츠로 건너뛰기

[ML] 결정트리(Decision Tree) 모델

[data analysis] 다항식 회귀(Polynomial Regression)

다항식 회귀(Polynomial Regression)

내용

다항식회귀?

데이터가 비선형인 경우 선형 모델에 적합시킬 수 있습니다. 가장 간단한 형태로 데이터를 이차형식으로 변형하여 선형모델에 적용할 수 있습니다. 이러한 기법을 다항식 회귀(polynomial regression)이라고 합니다.

예를 들어 독립변수와 반응변수의 형태가 이차형태를 가지는 인공데이터에 대해 다항식 회귀를 적용하여 봅니다.

import numpy as np
import pandas as pd
import matplotlib.pyplot as plt
font1={'family':'nanumgothic', 'size':12, 'weight':'bold'}
n=100
X=np.linspace(-2, 2, n).reshape(-1,1)
y=X**2+X+2+np.random.rand(n, 1)
plt.figure(dpi=100)
plt.scatter(X,y, s=1)
plt.xlabel("X", weight="bold")
plt.ylabel("y", weight="bold")
plt.show()

변수의 변환

위의 독립변수의 이차항을 생성하기 위해 sklearn.preprocessing.PloynomialFeatures(degree=2, interaction_only=False, include_bias=True)클래스를 적용합니다. 이 클래스는 변수의 2차항과 1차항 그리고 교차항을 생성합니다. 예를 들어 2개(a, b)의 독립변수가 존재한다면 이 클래스에서 다음의 변수들이 생성됩니다.

a, b → 편차항, a2, a, ab, b, b2

즉, 이 클래스에 의해 생성되는 변수의 수는 원래의 변수의 수(n)과 차수(d)의 조합(combination)으로 계산할 수 있습니다.

$$\begin{align}\text{# of Features}=&\frac{(n+d)!}{n!d!}\\&=\frac{(2+2)!}{2!2!}\\&=6\end{align}$$

위 결과는 편차항을 포함한 것입니다.

from sklearn.preprocessing import PolynomialFeatures
polyFeature=PolynomialFeatures(2, include_bias=False)
X_poly=polyFeature.fit_transform(X)
X[0], X[0]**2
(array([-2.]), array([4.]))
X_poly[0] #=[x[0], x[0]**2] 
array([-2.,  4.])

새롭게 생성한 변수들을 선형모델에 적용할 수 있습니다.

from sklearn.linear_model import LinearRegression
linReg=LinearRegression()
linReg.fit(X_poly, y)
linReg.coef_, linReg.intercept_
(array([[0.98257322, 1.04157373]]), array([2.43426145]))
linReg.score(X_poly,y) 
0.9709298386739502
pre=linReg.predict(X_poly)
plt.figure(dpi=100)
plt.scatter(X,y, s=3, label="data")
plt.plot(X_poly[:,0], pre, color="red", label="prediction")
plt.legend(loc="best")
plt.xlabel("X", weight="bold")
plt.ylabel("y", weight="bold")
plt.show()

변수의 차수에 따른 변화

다항식 회귀는 PolynomialFeature() 클래스에서 변수간의 교차항을 생성하므로 여러 독립변수가 존재할 경우 변수들 사이의 교차항의 영향을 포함합니다.

다항식 회귀에서 차수의 영향을 알아봅니다.

score={}
for i in range(1, 100):
    polyHigh=PolynomialFeatures(i, include_bias=False)
    XHigh=polyHigh.fit_transform(X)
    linReg_High=LinearRegression().fit(XHigh, y)
    preHigh=linReg_High.predict(XHigh)
    score1=linReg_High.score(XHigh,y)
    if score1>=0:
        score[i]=score1
plt.figure(figsize=(12,4))
plt.subplot(1,2,1)
plt.scatter(score.keys(), score.values())
plt.xlabel("degree", weight="bold")
plt.ylabel("score", weight="bold")
plt.grid(True)
plt.subplot(1,2,2)
plt.scatter(list(score.keys())[1:43], list(score.values())[1:43])
plt.xlabel("degree", weight="bold")
plt.grid(True)
plt.show()
list(score.keys())[np.argmax(list(score.values()))]
32

위 결과와 같이 다항식 차수의 증가와 점수(R2)의 증가후 감소를 나타내며 32차에서 가장 높은 값을 보입니다. 일반적으로 훈련데이터에서 높은 점수를 보이는 모델의 경우 과적합(overfitting)이 나타나는 경우가 많습니다. 이를 확인하기 위해 교차검증(cross validation)을 실시합니다. 또는 간단하게 훈련과 검정 세트를 분리하여 각각의 점수를 비교하는 것으로 판단할 수 있습니다.

from sklearn.model_selection import KFold, train_test_split
scoreTr={}
scoreTe={}
for i in range(2, 32):
    polyHigh=PolynomialFeatures(i, include_bias=False)
    x=polyHigh.fit_transform(X)
    xtr, xte, ytr, yte=train_test_split(x, y, test_size=0.2, random_state=2)
    mod=LinearRegression().fit(xtr, ytr)
    scoreTr1=mod.score(xtr,ytr)
    scoreTe1=mod.score(xte,yte)
    if (scoreTr1>=0) and (scoreTe1>=0):
        scoreTr[i]=scoreTr1
        scoreTe[i]=scoreTe1
plt.figure(dpi=100)
plt.plot(scoreTr.keys(), scoreTr.values(), label="train")
plt.plot(scoreTe.keys(), scoreTe.values(), label="test")
plt.legend(loc="best",prop=font1)
plt.xlabel("degree", fontdict=font1)
plt.ylabel("score", fontdict=font1)
plt.grid(True)
plt.show()

변수의 차수가 증가한다는 것은 모델의 복잡도가 증가하는 것으로 과적합 문제의 발생이 증가합니다. 위 결과 역시 차수의 증가로 인해 과적합이 증가함을 알 수 있습니다. 위는 점수에 의한 결과는 각 모델의 MSE의 변화와 유사합니다.

from sklearn.metrics import mean_squared_error
mseTr={}
mseTe={}
for i in range(2, 32):
    polyHigh=PolynomialFeatures(i, include_bias=False)
    x=polyHigh.fit_transform(X)
    xtr, xte, ytr, yte=train_test_split(x, y, test_size=0.2, random_state=2)
    mod=LinearRegression().fit(xtr, ytr)
    mseTr1=mean_squared_error(ytr, mod.predict(xtr), squared=False)
    mseTe1=mean_squared_error(yte, mod.predict(xte), squared=False)
    mseTr[i]=mseTr1
    mseTe[i]=mseTe1
plt.figure(dpi=100)
plt.subplot(1,2,1)
plt.plot(mseTr.keys(), mseTr.values(), label="train")
plt.plot(mseTe.keys(), mseTe.values(), label="test")
plt.legend(loc="best",prop=font1)
plt.xlabel("degree", fontdict=font1)
plt.ylabel("mse", fontdict=font1)
plt.grid(True)
plt.subplot(1,2,2)
plt.plot(mseTr.keys(), mseTr.values(), label="train")
plt.plot(mseTe.keys(), mseTe.values(), label="test")
plt.legend(loc="best",prop=font1)
plt.xlabel("degree", fontdict=font1)
plt.ylim(0, 5)
plt.grid(True)
plt.show()

10차로 변형한 독립변수에 대해 trainnig size에 대한 변화를 알아봅니다. pipeline을 적용합니다.

from sklearn.pipeline import Pipeline
scoreTr={}
scoreTe={}
for i in np.linspace(0.05, 0.95, 10):
    xtr, xte, ytr, yte=train_test_split(X, y, test_size=i, random_state=3)
    poly_reg=Pipeline([('polyFeature', PolynomialFeatures(degree=10, include_bias=False)), 
                         ('lin_reg', LinearRegression()),])
    poly_reg.fit(xtr, ytr)
    scoreTr[i]=poly_reg.score(xtr, ytr)
    scoreTe[i]=poly_reg.score(xte, yte)
plt.figure(dpi=100)
plt.plot(list(scoreTr.keys()), list(scoreTr.values()), label="Train")
plt.plot(list(scoreTe.keys()), list(scoreTe.values()), label="Test")
plt.legend(loc="best", prop=font1)
plt.xlabel("test set ratio", fontdict=font1)
plt.ylabel(r"Score($R^2$)", fontdict=font1)
plt.ylim(0.7, 1)
plt.show()

위 결과는 모델 구축에 대한 훈련세트의 크기의 영향에 대한 것입니다. 훈련세트와 검정세트의 비율이 균형을 유지할 경우 과적합이 최소화 됩니다. 특히 훈련세트가 작을수록 모델의 정확성 뿐만 아니라 일반화에도 적절하지 않습니다.

편향/분산 트레이드오프(Bias/Variance Tradeoff)

통계 및 기계 학습의 중요한 이론적 결과는 모델의 일반화 오류가 세 가지 매우 다른 오류의 합으로 표현될 수 있다는 사실입니다.

  • Bias(편향)
    • 비선형인 데이터를 선형이라고 가정하는 등에 대해 발생합니다. 고편향 모델은 훈련 데이터에 과소적합될 가능성이 가장 높습니다.
  • Variation(분산)
    • 훈련 데이터의 작은 변화에 대한 모델의 과도한 감도 때문입니다. 자유도가 높은 모델(예: 고차 다항식 모델)은 분산이 높기 때문에 훈련 데이터에 과적합될 가능성이 높습니다.
  • Random error(원인을 알 수 없는 오차)
    • 데이터 자체의 노이즈 때문입니다. 이러한 오류를 줄이는 유일한 방법은 데이터를 정리하는 것입니다(예: 깨진 센서와 같은 데이터 소스 수정, 이상값 감지 및 제거).

모델의 복잡성을 높이면 일반적으로 분산이 증가하고 편향이 줄어듭니다. 반대로 모델의 복잡성을 줄이면 편향이 증가하고 분산이 줄어듭니다.

댓글

이 블로그의 인기 게시물

[Linear Algebra] 유사변환(Similarity transformation)

유사변환(Similarity transformation) n×n 차원의 정방 행렬 A, B 그리고 가역 행렬 P 사이에 식 1의 관계가 성립하면 행렬 A와 B는 유사행렬(similarity matrix)이 되며 행렬 A를 가역행렬 P와 B로 분해하는 것을 유사 변환(similarity transformation) 이라고 합니다. $$\tag{1} A = PBP^{-1} \Leftrightarrow P^{-1}AP = B $$ 식 2는 식 1의 양변에 B의 고유값을 고려한 것입니다. \begin{align}\tag{식 2} B - \lambda I &= P^{-1}AP – \lambda P^{-1}P\\ &= P^{-1}(AP – \lambda P)\\ &= P^{-1}(A - \lambda I)P \end{align} 식 2의 행렬식은 식 3과 같이 정리됩니다. \begin{align} &\begin{aligned}\textsf{det}(B - \lambda I ) & = \textsf{det}(P^{-1}(AP – \lambda P))\\ &= \textsf{det}(P^{-1}) \textsf{det}((A – \lambda I)) \textsf{det}(P)\\ &= \textsf{det}(P^{-1}) \textsf{det}(P) \textsf{det}((A – \lambda I))\\ &= \textsf{det}(A – \lambda I)\end{aligned}\\ &\begin{aligned}\because \; \textsf{det}(P^{-1}) \textsf{det}(P) &= \textsf{det}(P^{-1}P)\\ &= \textsf{det}(I)\end{aligned}\end{align} 유사행렬의 특성 유사행렬인 두 정방행렬 A와 B는 'A ~ B' 와 같

[matplotlib] 히스토그램(Histogram)

히스토그램(Histogram) 히스토그램은 확률분포의 그래픽적인 표현이며 막대그래프의 종류입니다. 이 그래프가 확률분포와 관계가 있으므로 통계적 요소를 나타내기 위해 많이 사용됩니다. plt.hist(X, bins=10)함수를 사용합니다. x=np.random.randn(1000) plt.hist(x, 10) plt.show() 위 그래프의 y축은 각 구간에 해당하는 갯수이다. 빈도수 대신 확률밀도를 나타내기 위해서는 위 함수의 매개변수 normed=True로 조정하여 나타낼 수 있다. 또한 매개변수 bins의 인수를 숫자로 전달할 수 있지만 리스트 객체로 지정할 수 있다. 막대그래프의 경우와 마찬가지로 각 막대의 폭은 매개변수 width에 의해 조정된다. y=np.linspace(min(x)-1, max(x)+1, 10) y array([-4.48810153, -3.54351935, -2.59893717, -1.65435499, -0.70977282, 0.23480936, 1.17939154, 2.12397372, 3.0685559 , 4.01313807]) plt.hist(x, y, normed=True) plt.show()

R 미분과 적분

내용 expression 미분 2차 미분 mosaic를 사용한 미분 적분 미분과 적분 R에서의 미분과 적분 함수는 expression()함수에 의해 생성된 표현식을 대상으로 합니다. expression expression(문자, 또는 식) 이 표현식의 평가는 eval() 함수에 의해 실행됩니다. > ex1<-expression(1+0:9) > ex1 expression(1 + 0:9) > eval(ex1) [1] 1 2 3 4 5 6 7 8 9 10 > ex2<-expression(u, 2, u+0:9) > ex2 expression(u, 2, u + 0:9) > ex2[1] expression(u) > ex2[2] expression(2) > ex2[3] expression(u + 0:9) > u<-0.9 > eval(ex2[3]) [1] 0.9 1.9 2.9 3.9 4.9 5.9 6.9 7.9 8.9 9.9 미분 D(표현식, 미분 변수) 함수로 미분을 실행합니다. 이 함수의 표현식은 expression() 함수로 생성된 객체이며 미분 변수는 다음 식의 분모의 변수를 의미합니다. $$\frac{d}{d \text{변수}}\text{표현식}$$ 이 함수는 어떤 함수의 미분의 결과를 표현식으로 반환합니다. > D(expression(2*x^3), "x") 2 * (3 * x^2) > eq<-expression(log(x)) > eq expression(log(x)) > D(eq, "x") 1/x > eq2<-expression(a/(1+b*exp(-d*x))); eq2 expression(a/(1 + b * exp(-d * x))) > D(eq2, "x") a * (b * (exp(-d * x) * d))/(1 + b