기본 콘텐츠로 건너뛰기

벡터와 행렬에 관련된 그림들

[data analysis] 분산에 의한 설명변수 선택

분산에 의한 설명변수 선택

회귀모델 등의 모델에서 중요한 특징(feature) 즉, 설명변수는 반응변수(라벨, label)와의 강한 상관관계로 예측에 영향이 큰 변수를 의미합니다. 그러나 반응변수와의 상관성에 관계없이 특징 자체의 변동성이 크지 않다면 예측에 큰 도움이 되지 않을 가능성을 배제할 수 없습니다. 그러므로 분산 기준치보다 작은 분산을 가진 특징은 모델에서 제외할 수 있습니다. 다시말하자면 분산에 의해 특징(feature)을 선택할 수 있습니다.

sklearn.feature_selection.VarianceThreshold() 클래스를 적용합니다. 이 방법은 특징의 분산을 기준으로 하기 때문에 반응변수와의 상관성 정도는 고려되지 않는다는 점을 주의해야 합니다.

예 1)

코스피지수(kos), 코스탁지수(kq), kodex 레버리지(kl), kodex 인버스(ki), 그리고 원달러환율(WonDol)의 일일 시가, 고가, 저가, 종가(o,h,p,c)들을 설명변수로 사용하여 삼성전자(sam)의 일일 종가를 추정하는 회귀모델을 위해 설명변수를 선택합니다.

이 모델에 적합한 설명변수들을 선택하기 위해 sklearn.feature_selection 모듈의 여러 클래스를 적용하여봅니다.

import numpy as np
import numpy.linalg as la
import pandas as pd
import matplotlib.pyplot as plt
from sklearn.preprocessing import StandardScaler, MinMaxScaler
from sklearn.linear_model import LinearRegression
from sklearn.metrics import mean_squared_error
from sklearn.model_selection import train_test_split
from sklearn.model_selection import KFold
import yfinance as yf
st=pd.Timestamp(2023,1, 10)
et=pd.Timestamp(2024, 9, 13)
code=["^KS11", "^KQ11", "122630.KS", "114800.KS","KRW=X","005930.KS"]
nme=["kos","kq","kl", "ki", "WonDol","sam" ]
da=pd.DataFrame()
for i, j in zip(nme,code):
    d=yf.download(j,st, et)[["Open","High","Low","Close"]]
    d.columns=[i+"_"+k for k in ["o","h","l","c"]]
    da=pd.concat([da, d], axis=1)
da=da.ffill()
da.columns
Index(['kos_o', 'kos_h', 'kos_l', 'kos_c', 'kq_o', 'kq_h', 'kq_l', 'kq_c',
       'kl_o', 'kl_h', 'kl_l', 'kl_c', 'ki_o', 'ki_h', 'ki_l', 'ki_c',
       'WonDol_o', 'WonDol_h', 'WonDol_l', 'WonDol_c', 'sam_o', 'sam_h',
       'sam_l', 'sam_c'],
      dtype='object')
resNme="sam_c"
X=da.drop(columns=resNme).iloc[:-1,:]
y=pd.DataFrame(da[resNme][1:])
new=pd.DataFrame(da.drop(columns=resNme).iloc[-1,:]).T
# 설명변수 scaling
XScaler=MinMaxScaler().fit(X)
X_n=XScaler.transform(X)
new_n=XScaler.transform(new)
#훈련, 검증셋의 분리 
Xtr, Xte, ytr, yte=train_test_split(X_n,y, test_size=0.2, random_state=0)
Xtr.shape, Xte.shape
((349, 23), (349, 1))

모든 설명변수를 사용하는 Full model을 생성합니다. 이 모델의 $R^2$와 mse를 계산합니다.

mFull=LinearRegression().fit(Xtr, ytr)
R2_tr, mse_tr=mFull.score(Xtr, ytr), mean_squared_error(ytr, mFull.predict(Xtr))
R2_te, mse_te=mFull.score(Xte, yte), mean_squared_error(yte, mFull.predict(Xte))

설명변수 각각의 분산을 계산하고 모든 분산 자료에서 25%에 해당하는 값을 계산합니다.

varAll=Xtr.var(axis=0)
s=np.quantile(varAll, 0.25)
s.round(4)s
0.0413

위 결과를 VarianceThreshold(threshold) 클래스의 threshold 값으로 지정합니다. 이 값의 특별한 기준이 존재하지 않으며 기본값은 0입니다. 이러한 객체의 실행을 위해 선행적으로 지정하는 하이퍼 매개변수(hyper-parameter)는 모델 구축의 목적과 배경등을 고려하여 반복 실행에 의해 적절한 값을 도출해야 합니다.

from sklearn.feature_selection import VarianceThreshold
selector=VarianceThreshold(threshold = s)
seltr=selector.fit_transform(Xtr)
selte=selector.transform(Xte)
seltr.shape, selte.shape
((349, 17), (88, 17))
print(selector.get_support())
[False  True False False  True False False  True  True  True  True  True
  True  True  True  True  True False  True  True  True  True  True]

위 결과를 기준으로 선택된 설명변수에 의한 모델을 작성하고 그 모델에의한 $R^2$와 mse를 계산합니다.

m=LinearRegression().fit(seltr, ytr)
R2_tr1, mse_tr1=m.score(seltr, ytr), mean_squared_error(ytr, m.predict(seltr))
R2_te1, mse_te1=m.score(selte, yte), mean_squared_error(yte, m.predict(selte))

다음은 위 결과들을 표로 작성하기 위해 dictionary 형식등을 적용한 것입니다.

re={"Full ": pd.DataFrame([[R2_tr, mse_tr],[R2_te, mse_te]], columns=["R2", "MSE"]), "Select ": pd.DataFrame([[R2_tr1, mse_tr1],[R2_te1, mse_te1]], columns=["R2", "MSE"])}; re
{'Full ':          R2           MSE
 0  0.968250  1.287398e+06
 1  0.973961  1.239222e+06,
 'Select ':          R2           MSE
 0  0.967796  1.305811e+06
 1  0.972942  1.287699e+06}
k=list(re.keys())
total=pd.concat([re[k[0]], re[k[1]]])
total.index=["full-tr","full-te", 'sel-tr','sel-te']
total
R2 MSE
full-tr 0.968250 1.287398e+06
full-te 0.973961 1.239222e+06
sel-tr 0.967796 1.305811e+06
sel-te 0.972942 1.287699e+06

full 모델에서 훈련세트와 검정세트 간의 $R^2$, mse의 변화비율, 선택 모델에서 같은 변화비율을 계산합니다. 먼저 $R^2$의 변화비율입니다.

round((total.iloc[1,0]-total.iloc[0,0])/total.iloc[0,0]*100, 3), round((total.iloc[3,0]-total.iloc[2,0])/total.iloc[2,0]*100, 3)
(0.59, 0.532)
round((total.iloc[1,1]-total.iloc[0,1])/total.iloc[0,1]*100,3), round((total.iloc[3,1]-total.iloc[2,1])/total.iloc[2,1]*100,3)
(-3.742, -1.387)

분산에 의해 6개의 설명변수가 제거된 모델에서 $R^2$, mse의 차이가 감소된 결과를 나타냅니다. 그러나 위 변화는 매우 작으며 변수 제거에 효과가 있다고 하기는 어렵지만 설명변수의 수가 감소된 것으로 과적합이나 다중상관성을 감소시킬수 있습니다.

댓글

이 블로그의 인기 게시물

[Linear Algebra] 유사변환(Similarity transformation)

유사변환(Similarity transformation) n×n 차원의 정방 행렬 A, B 그리고 가역 행렬 P 사이에 식 1의 관계가 성립하면 행렬 A와 B는 유사행렬(similarity matrix)이 되며 행렬 A를 가역행렬 P와 B로 분해하는 것을 유사 변환(similarity transformation) 이라고 합니다. $$\tag{1} A = PBP^{-1} \Leftrightarrow P^{-1}AP = B $$ 식 2는 식 1의 양변에 B의 고유값을 고려한 것입니다. \begin{align}\tag{식 2} B - \lambda I &= P^{-1}AP – \lambda P^{-1}P\\ &= P^{-1}(AP – \lambda P)\\ &= P^{-1}(A - \lambda I)P \end{align} 식 2의 행렬식은 식 3과 같이 정리됩니다. \begin{align} &\begin{aligned}\textsf{det}(B - \lambda I ) & = \textsf{det}(P^{-1}(AP – \lambda P))\\ &= \textsf{det}(P^{-1}) \textsf{det}((A – \lambda I)) \textsf{det}(P)\\ &= \textsf{det}(P^{-1}) \textsf{det}(P) \textsf{det}((A – \lambda I))\\ &= \textsf{det}(A – \lambda I)\end{aligned}\\ &\begin{aligned}\because \; \textsf{det}(P^{-1}) \textsf{det}(P) &= \textsf{det}(P^{-1}P)\\ &= \textsf{det}(I)\end{aligned}\end{align} 유사행렬의 특성 유사행렬인 두 정방행렬 A와 B는 'A ~ B' 와 같...

[sympy] Sympy객체의 표현을 위한 함수들

Sympy객체의 표현을 위한 함수들 General simplify(x): 식 x(sympy 객체)를 간단히 정리 합니다. import numpy as np from sympy import * x=symbols("x") a=sin(x)**2+cos(x)**2 a $\sin^{2}{\left(x \right)} + \cos^{2}{\left(x \right)}$ simplify(a) 1 simplify(b) $\frac{x^{3} + x^{2} - x - 1}{x^{2} + 2 x + 1}$ simplify(b) x - 1 c=gamma(x)/gamma(x-2) c $\frac{\Gamma\left(x\right)}{\Gamma\left(x - 2\right)}$ simplify(c) $\displaystyle \left(x - 2\right) \left(x - 1\right)$ 위의 예들 중 객체 c의 감마함수(gamma(x))는 확률분포 등 여러 부분에서 사용되는 표현식으로 다음과 같이 정의 됩니다. 감마함수는 음이 아닌 정수를 제외한 모든 수에서 정의됩니다. 식 1과 같이 자연수에서 감마함수는 factorial(!), 부동소수(양의 실수)인 경우 적분을 적용하여 계산합니다. $$\tag{식 1}\Gamma(n) =\begin{cases}(n-1)!& n:\text{자연수}\\\int^\infty_0x^{n-1}e^{-x}\,dx& n:\text{부동소수}\end{cases}$$ x=symbols('x') gamma(x).subs(x,4) $\displaystyle 6$ factorial 계산은 math.factorial() 함수를 사용할 수 있습니다. import math math.factorial(3) 6 a=gamma(x).subs(x,4.5) a.evalf(3) 11.6 simpilfy() 함수의 알고리즘은 식에서 공통사항을 찾아 정리하...

sympy.solvers로 방정식해 구하기

sympy.solvers로 방정식해 구하기 대수 방정식을 해를 계산하기 위해 다음 함수를 사용합니다. sympy.solvers.solve(f, *symbols, **flags) f=0, 즉 동차방정식에 대해 지정한 변수의 해를 계산 f : 식 또는 함수 symbols: 식의 해를 계산하기 위한 변수, 변수가 하나인 경우는 생략가능(자동으로 인식) flags: 계산 또는 결과의 방식을 지정하기 위한 인수들 dict=True: {x:3, y:1}같이 사전형식, 기본값 = False set=True :{(x,3),(y,1)}같이 집합형식, 기본값 = False ratioal=True : 실수를 유리수로 반환, 기본값 = False positive=True: 해들 중에 양수만을 반환, 기본값 = False 예 $x^2=1$의 해를 결정합니다. solve() 함수에 적용하기 위해서는 다음과 같이 식의 한쪽이 0이 되는 형태인 동차식으로 구성되어야 합니다. $$x^2-1=0$$ import numpy as np from sympy import * x = symbols('x') solve(x**2-1, x) [-1, 1] 위 식은 계산 과정은 다음과 같습니다. $$\begin{aligned}x^2-1=0 \rightarrow (x+1)(x-1)=0 \\ x=1 \; \text{or}\; -1\end{aligned}$$ 예 $x^4=1$의 해를 결정합니다. solve() 함수의 인수 set=True를 지정하였으므로 결과는 집합(set)형으로 반환됩니다. eq=x**4-1 solve(eq, set=True) ([x], {(-1,), (-I,), (1,), (I,)}) 위의 경우 I는 복소수입니다.즉 위 결과의 과정은 다음과 같습니다. $$x^4-1=(x^2+1)(x+1)(x-1)=0 \rightarrow x=\pm \sqrt{-1}, \; \pm 1=\pm i,\; \pm1$$ 실수...