기본 콘텐츠로 건너뛰기

[matplotlib] 등고선(Contour)

[data analysis] Lasso 회귀모델

8.4.2 Lasso 모델

Ridge 모델은 L2 norm(계수의 제곱합)의 패널티 항에 음이 아닌 실수의 소멸계수를 가지므로 회귀계수가 0에 도달할 수 없으므로 변수의 수를 감소시킬 수 없습니다. 대신에 Lasso 모델은 식 1과 같이 패널티항으로 L1 Norm을 사용하여 일부 회귀계수를 0로 만들 수 있습니다. 그러므로 모델의 복잡성을 약화시킴으로서 다중공선성 문제를 개선시킬 수 있습니다.

(식 1)MSE=(yXβ)T(yXβ)+αβX,y:설명, 반응변수α,β:소멸계수, 회귀계수

식 1에서 패널티항이 1차이므로 β = 0인 경우는 미분할 수 없습니다. 이 경우 미분 가능하지 않은 볼록함수에 적용할 수 있는 subdifferential(하방미분)을 적용하여 식 2와 같이 미분을 계산합니다.

(식 2)ββ={1β>0[1,1]β=01β<0

식 2를 적용하여 MSE의 최소점을 찾기 위한 미분결과는 식 3과 같습니다.

(식 3)MSEβ={2XTy+2XTXβ+α=0β>02XTy+2XTXβ+α[1,1]=0β=02XTy+2XTXβα=0β<0

식 3을 정리하면 Lasso 모델의 회귀계수(β)는 식 4와 같이 계산됩니다.

(식 4)β={βols12(XTX)αβ>0βols12(XTX)α[1,1]β=0βols+12(XTX)αβ<0

OLS 회귀계수를 기준으로 α의 조건에 따라 계수를 0으로 만들수 있습니다. 결과적으로 변수를 제거하여 모델의 복잡도는 감소시킬 수 있습니다.

sklearn.linear_model.Lasso() 클래스를 사용하여 모델을 구축할 수 있습니다. 임의의 가상데이터를 사용하여 α에 따른 설명변수의 변화는 다음과 같습니다.

import numpy as np
import pandas as pd
from sklearn.linear_model import Lasso, LassoCV
from sklearn.datasets import make_regression
import yfinance as yf
import matplotlib.pyplot as plt
X,y=make_regression(noise=0.5, random_state=7)
alphas=np.linspace(0.001, 50, 100)
coefs=[]
for a in alphas:
    m=Lasso(alpha=a).fit(X,y)
    cf=m.coef_
    coefs.append(cf)
그림1. α에 따른 lasso 모델 회귀계수의 변화.
plt.figure(figsize=(5, 3))
plt.plot(alphas, coefs)
plt.xlabel("alpha")
plt.ylabel("coeficients")
plt.title("Trend of coefficient by alpha")
plt.show()

그림 1에서 나타낸 것과 같이 α가 증가할수록 각 변수에 대응하는 회귀계수의 값은 감소하며 그 결과로 수 역시 감소합니다. ridge 모델과 같이 lasso 모델 역시 α의 선정이 중요하며 sklean.linear_models.LassoCV() 클래스를 적용할 수 있습니다.

예 1)

코스피지수(kos), 코스탁지수(kq), kodex 레버리지(kl), kodex 인버스(ki), 그리고 원달러환율(WonDol)의 일일 시가, 고가, 저가, 종가(o,h,p,c)들을 설명변수로 사용하여 삼성전자(sam)의 일일 종가를 추정하는 Lasso 회귀모델을 생성합니다.

st=pd.Timestamp(2023,1, 10)
et=pd.Timestamp(2024, 5, 31)
code=["^KS11", "^KQ11", "122630.KS", "114800.KS","KRW=X","005930.KS"]
nme=["kos","kq","kl", "ki", "WonDol","sam" ]
da=pd.DataFrame()
for i, j in zip(nme,code):
    d=yf.download(j,st, et)[["Open","High","Low","Close"]]
    d.columns=[i+"_"+k for k in ["o","h","l","c"]]
    da=pd.concat([da, d], axis=1)
da=da.ffill()
da.columns
Index(['kos_o', 'kos_h', 'kos_l', 'kos_c', 'kq_o', 'kq_h', 'kq_l', 'kq_c',
       'kl_o', 'kl_h', 'kl_l', 'kl_c', 'ki_o', 'ki_h', 'ki_l', 'ki_c',
       'WonDol_o', 'WonDol_h', 'WonDol_l', 'WonDol_c', 'sam_o', 'sam_h',
       'sam_l', 'sam_c'],
      dtype='object')

설명변수(ind)와 반응변수(de)로 분리하고 설명변수를 표준화합니다. 모델 생성을 위한 훈련(train)세트와 검증(test)세트로 구분합니다.

ind=da.values[:-1,:-1]
de=da.values[1:,-1].reshape(-1,1)
final=da.values[-1, :-1].reshape(1,-1)
indScaler=StandardScaler().fit(ind)
indNor=indScaler.transform(ind)
finalNor=indScaler.transform(final)
Xtr, Xte, ytr, yte=train_test_split(indNor, de, test_size=0.3, random_state=3)
print(finalNor.round(2))
[[ 1.13  1.03  0.97  0.85 -0.19 -0.21 -0.15 -0.26  1.26  1.15  1.14  1.05
  -1.32 -1.23 -1.24 -1.15  1.63  1.78  1.75  1.63  0.75  0.72  0.65]]

LassoCV() 클래스를 적용하여 적정한 α를 발견합니다.

ytr1=np.ravel(ytr)
yte1=np.ravel(yte)
las=LassoCV(cv=5, random_state=3).fit(Xtr, ytr1)
a_find=las.alpha_; a_find.round(4)
5.4274

위 모델에서 사용된 변수는 다음과 같습니다. 즉, 총 23개의 설명변수 중 9개만이 사용되었습니다.

coefIdx=np.where(las.coef_ !=0)[0]
usingFeature=da.columns[coefIdx];usingFeature
Index(['kos_h', 'kq_o', 'WonDol_o', 'WonDol_h', 'WonDol_l', 'WonDol_c',
       'sam_o', 'sam_h', 'sam_l'],
      dtype='object')
len(usingFeature)
9
pre=las.predict(finalNor)
print(pre)
[73963.82167589]

위의 α의 범위 alphas에서의 각 모델의 MSE의 변화를 살펴봅니다.

alphas=np.linspace(0.01, 10, 100)
rmse_tr=[]
rmse_te=[]
for a in alphas:
    m=Lasso(alpha=a).fit(Xtr, ytr1)
    pre_tr=m.predict(Xtr)
    rmse_tr1=mean_squared_error(ytr1, pre_tr, squared=False)
    rmse_tr.append(rmse_tr1)
    pre_te=m.predict(Xte)
    rmse_te1=mean_squared_error(yte1, pre_te, squared=False)
    rmse_te.append(rmse_te1)
그림 2. α에 대응하는 lasso 모델의 MSE의 변화.
plt.figure(figsize=(5,3))
plt.plot(alphas, rmse_tr, color="blue", label="train set")
plt.plot(alphas, rmse_te, color="red", label="test set")
plt.axvline(a_find, linestyle="dotted", color="green", label=f"alpha={round(a_find, 3)}")
plt.xlabel("alpha")
plt.ylabel("RMSE")
plt.legend(loc="best")
plt.grid()
plt.show()

그림 2에 의하면 α의 증가에 의해 훈련데이터의 MSE는 감소하지만 검정데이터에서 계속 증가를 보이지만 두 그룹의 차이가 감소합니다. 이러한 경향에서 LassoCV()에 의한 모델은 두 그룹의 MSE의 변화와 그 차이를 고려한 것입니다.

댓글

이 블로그의 인기 게시물

[Linear Algebra] 유사변환(Similarity transformation)

유사변환(Similarity transformation) n×n 차원의 정방 행렬 A, B 그리고 가역 행렬 P 사이에 식 1의 관계가 성립하면 행렬 A와 B는 유사행렬(similarity matrix)이 되며 행렬 A를 가역행렬 P와 B로 분해하는 것을 유사 변환(similarity transformation) 이라고 합니다. (1)A=PBP1P1AP=B 식 2는 식 1의 양변에 B의 고유값을 고려한 것입니다. (식 2)BλI=P1APλP1P=P1(APλP)=P1(AλI)P 식 2의 행렬식은 식 3과 같이 정리됩니다. det(BλI)=det(P1(APλP))=det(P1)det((AλI))det(P)=det(P1)det(P)det((AλI))=det(AλI)det(P1)det(P)=det(P1P)=det(I) 유사행렬의 특성 유사행렬인 두 정방행렬 A와 B는 'A ~ B' 와 같...

[sympy] Sympy객체의 표현을 위한 함수들

Sympy객체의 표현을 위한 함수들 General simplify(x): 식 x(sympy 객체)를 간단히 정리 합니다. import numpy as np from sympy import * x=symbols("x") a=sin(x)**2+cos(x)**2 a sin2(x)+cos2(x) simplify(a) 1 simplify(b) x3+x2x1x2+2x+1 simplify(b) x - 1 c=gamma(x)/gamma(x-2) c Γ(x)Γ(x2) simplify(c) (x2)(x1) 위의 예들 중 객체 c의 감마함수(gamma(x))는 확률분포 등 여러 부분에서 사용되는 표현식으로 다음과 같이 정의 됩니다. 감마함수는 음이 아닌 정수를 제외한 모든 수에서 정의됩니다. 식 1과 같이 자연수에서 감마함수는 factorial(!), 부동소수(양의 실수)인 경우 적분을 적용하여 계산합니다. (식 1)Γ(n)={(n1)!n:자연수0xn1exdxn:부동소수 x=symbols('x') gamma(x).subs(x,4) 6 factorial 계산은 math.factorial() 함수를 사용할 수 있습니다. import math math.factorial(3) 6 a=gamma(x).subs(x,4.5) a.evalf(3) 11.6 simpilfy() 함수의 알고리즘은 식에서 공통사항을 찾아 정리하...

sympy.solvers로 방정식해 구하기

sympy.solvers로 방정식해 구하기 대수 방정식을 해를 계산하기 위해 다음 함수를 사용합니다. sympy.solvers.solve(f, *symbols, **flags) f=0, 즉 동차방정식에 대해 지정한 변수의 해를 계산 f : 식 또는 함수 symbols: 식의 해를 계산하기 위한 변수, 변수가 하나인 경우는 생략가능(자동으로 인식) flags: 계산 또는 결과의 방식을 지정하기 위한 인수들 dict=True: {x:3, y:1}같이 사전형식, 기본값 = False set=True :{(x,3),(y,1)}같이 집합형식, 기본값 = False ratioal=True : 실수를 유리수로 반환, 기본값 = False positive=True: 해들 중에 양수만을 반환, 기본값 = False 예 x2=1의 해를 결정합니다. solve() 함수에 적용하기 위해서는 다음과 같이 식의 한쪽이 0이 되는 형태인 동차식으로 구성되어야 합니다. x21=0 import numpy as np from sympy import * x = symbols('x') solve(x**2-1, x) [-1, 1] 위 식은 계산 과정은 다음과 같습니다. x21=0(x+1)(x1)=0x=1or1x4=1의 해를 결정합니다. solve() 함수의 인수 set=True를 지정하였으므로 결과는 집합(set)형으로 반환됩니다. eq=x**4-1 solve(eq, set=True) ([x], {(-1,), (-I,), (1,), (I,)}) 위의 경우 I는 복소수입니다.즉 위 결과의 과정은 다음과 같습니다. x41=(x2+1)(x+1)(x1)=0x=±1,±1=±i,±1 실수...