기본 콘텐츠로 건너뛰기

벡터와 행렬에 관련된 그림들

의사결정트리(Dicisions Tree)

의사결정트리(Dicisions Tree)

의사 결정 트리는 이진 규칙 집합을 사용하여 대상 값을 계산하는 예측 모델이며 각 개별 트리는 분기, 노드 및 잎이 있는 상당히 단순한 모델입니다.

용어(terminlogy)

  • root node: 전체 모집단 또는 샘플을 나타내며 두 개 이상의 동종 세트로 더 나뉩니다.
  • splitting: 노드를 두 개 이상의 하위 노드로 나누는 프로세스입니다.
  • Decicion Node: 하위 노드가 추가 하위 노드로 분할되면 결정 노드라고 합니다.
  • Leaf/terminal node: 분할되지 않는 노드를 리프 또는 터미널 노드라고 합니다.
  • prunning(가지치기): 의사결정 노드의 하위 노드를 제거할 때 이 프로세스를 가지치기라고 합니다. 분열의 반대 과정이라고 할 수 있습니다.
  • Branch/Sub-tree(분기 / 하위 트리): 전체 트리의 하위 섹션을 분기 또는 하위 트리라고 합니다.
  • Parent and Child Node(상위 및 하위 노드): 하위 노드로 분할된 노드를 하위 노드의 상위 노드라고 하는 반면 하위 노드는 상위 노드의 하위 노드입니다.
그림 1. 의사결정트리

root node에서 질문에 의해 True/False로 구분합니다. 이 과정을 계속하면 결과적으로 leaf node에 도달하게 되며 단일예측이 가능하게 됩니다.

의사 결정 트리는 분류 및 회귀 문제에 사용할 수 있는 지도 머신 러닝 알고리즘 중 하나로서 모델은 훈련 데이터에서 추출한 결정 규칙을 기반으로 합니다. 회귀 문제에서 모델은 클래스 대신 값을 사용하고 평균 제곱 오차(MSE)는 결정 정확도를 위해 사용됩니다. 그러나 의사 결정 트리 모델은 일반화에 좋지 않고 훈련 데이터의 변화에 민감합니다. 훈련 데이터 세트의 작은 변화는 모델 예측 정확도에 영향을 미칠 수 있습니다.

Scikit-learn DecisionTreeRegressor 클래스를 적용할 수 있습니다. 예로서 무작위로 생성된 회귀 데이터와 Boston 주택 데이터 세트에 대한 모델을 적용합니다.

import numpy as np
import pandas as pd
from sklearn import tree 
from sklearn.datasets import load_boston
from sklearn.metrics import mean_squared_error
from sklearn.model_selection import train_test_split
from sklearn.preprocessing import StandardScaler
import matplotlib.pyplot as plt
boston=load_boston()
x, y=boston.data, boston.target
x
array([[6.3200e-03, 1.8000e+01, 2.3100e+00, ..., 1.5300e+01, 3.9690e+02,
            4.9800e+00],
             ...,
           [4.7410e-02, 0.0000e+00, 1.1930e+01, ..., 2.1000e+01, 3.9690e+02,
            7.8800e+00]])
y[:3]
array([24. , 21.6, 34.7])

자료의 표준화는 sklearn.StandardScaler() 클래스를 적용합니다.

xScaler=StandardScaler().fit(x)
x1=xScaler.transform(x)
xtr, xte, ytr, yte=train_test_split(x1, y, test_size=0.1)
xtr.shape, ytr.shape
((455, 13), (455,))

훈련 데이터 셋트로부터 결정트리 모델을 구축합니다. 이 모델에 대한 검정 셋트를 적용하여 결정계수(score)를 확인합니다.

dT=tree.DecisionTreeRegressor(random_state=0)
dT.fit(xtr, ytr)
dT.score(xte, yte)
0.8100460637322556

검정 셋트 일부의 추정치와 실측치를 확인해봅니다.

dT.predict(xte)[:3], yte[:3]
(array([20.2, 23.1, 20.7]), array([20.5, 23.8, 22.2]))

검정 데이터에 대한 mse와 rmse(root mse)를 산출해 봅니다. 이 계산은 sklearn.metrics.mean_squared_error() 함수를 사용합니다.

사실 이 모델은 변수(feature, 특성)의 선택을 위한 측정자(estimator)로 더 많이 적용됩니다. 이 과정에서 특성 선택의 rmse는 기준이 될 수 있습니다.

mseTr=mean_squared_error(yte, dTree.predict(xte))
rmseTr=mean_squared_error(yte, dTree.predict(xte), squared=False)
mseTr, rmseTr
(11.222352941176469, 3.349978050849956)

훈련셋트에서 구축한 결정트리를 검정 셋트에 적용한 결과를 그림으로 나타내봅니다.

plt.figure(dpi=100)
plt.scatter(range(len(yte)), yte, s=20, edgecolor="black", c="darkorange", label="data") 
plt.plot(range(len(yte)), dT.predict(xte), color="skyblue", linewidth=2)
plt.show()

DecisionTreeClassifier는 DecisionTreeRegressor와 같은 알고리즘이지만 라벨이 클래스화된 정수형태입니다.

다음은 모든 데이터가 정수형이고 목록변수 즉, 클래스화된 iris에 대해 적용해 봅니다.

from sklearn.datasets import load_iris
iris = load_iris()
X, y = iris.data, iris.target
xtr, xte, ytr, yte=train_test_split(X, y, test_size=0.2)
clf1 = tree.DecisionTreeClassifier()
clf1 = clf.fit(xtr, ytr)
pre=clf1.predict(xte);pre
array([0, 0, 2, 1, 0, 1, 2, 0, 2, 1, 2, 2, 0, 0, 2, 2, 0, 2, 1, 0, 1, 1,
       0, 2, 0, 2, 0, 0, 1, 0])
yte
array([0, 0, 1, 2, 0, 1, 2, 0, 2, 1, 2, 2, 0, 0, 2, 2, 0, 2, 1, 0, 1, 1,
       0, 1, 0, 2, 0, 0, 1, 0])
print(f'모델의 정확도: {np.sum(pre==yte)/len(yte)}')
모델의 정확도: 0.9

위 모델의 구축과정을 다음과 같이 시각화 할 수 있습니다.

plt.figure(dpi=150)
treefig=tree.plot_tree(clf)

일일 코스피 지수에 대한 결정트리 모델을 적용합니다. 이 데이터는 Open, High, Low, Close, Volume, Change의 특성으로 구성되어 있습니다. 분석을 위한 데이터 전처리는 다음과 같이 이루어 집니다.

  • 모든 변수를 10구간으로 구분하여 목록화 합니다.
  • 특성(feature): Open, High, Low, Volume, Change
  • 반응변수: Close
  • 전날의 특성에 대응하는 반응변수는 현재의 값, 즉, 특성과 반응변수는 1일 차이를 가집니다.
import FinanceDataReader as fdr
st=pd.Timestamp(2010,8, 26)
et=pd.Timestamp(2022, 5, 12)
da=fdr.DataReader('KS11', st, et)
cateDa={}
cateDaRef={}
for i in da1.columns:
    re=pd.cut(da[i], bins=10, labels=range(1, 11), retbins=True)
    cateDa[i]=re[0]
    cateDaRef[i]=re[1]
da3=pd.DataFrame(cateDa.values()).T
da3.head(3)
Close Open High Low Volume Change
Date
2010-08-26 2 2 2 2 1 5
2010-08-27 2 2 2 2 1 5
2010-08-30 2 2 2 2 1 6

위에서 생성한 cateDaRef는 각 변수를 목록변수로 변환하기 위해 적용한 구간 값들입니다.

cateDaRef['Close']
array([1455.79243, 1642.397  , 1827.154  , 2011.911  , 2196.668  ,
       2381.425  , 2566.182  , 2750.939  , 2935.696  , 3120.453  ,
       3305.21   ])

데이터 d3에서 특성, 반응변수와 마지막 행은 최총 추정에 적용하기 위해 분리합니다.

trgNme="Close"
X=da3.drop(columns=trgNme).iloc[:-1,:]
new=da3.drop(columns=trgNme).iloc[-1,:]
y=da3[trgNme][1:]
new
Open 6
High 6
Low 6
Volume 3
Change 4
Name: 2022-05-12 00:00:00, dtype: int64
X.shape, y.shape
((2887, 5), (2887,))
xtr, xte, ytr, yte=train_test_split(X, y, test_size=0.2, random_state=1)
xtr.shape, ytr.shape
((2309, 5), (2309,))
xte.shape, yte.shape
((578, 5), (578,))
clf2=tree.DecisionTreeClassifier()
clf2=clf2.fit(xtr, ytr)
pre=clf2.predict(xte)
pre[:3]
array([4, 3, 4])
print(f'모델의 정확도: {np.sum(pre==yte)/len(yte)}')
모델의 정확도: 0.8961937716262975

new변수에 대한 추정은 다음과 같습니다. 이 변수는 1차원 벡터 형태로서 모델 clf2에 적용하기 위해서는 2차원 행렬 형태로 전환해 주어야 합니다.

clf2.predict(new.values.reshape(1,-1))
array([6])

위 추정결과 6은 위 결과객체 cateDaRe에 적용하면 2381.425 ~ 2566.182에 포함됩니다.

댓글

이 블로그의 인기 게시물

[Linear Algebra] 유사변환(Similarity transformation)

유사변환(Similarity transformation) n×n 차원의 정방 행렬 A, B 그리고 가역 행렬 P 사이에 식 1의 관계가 성립하면 행렬 A와 B는 유사행렬(similarity matrix)이 되며 행렬 A를 가역행렬 P와 B로 분해하는 것을 유사 변환(similarity transformation) 이라고 합니다. $$\tag{1} A = PBP^{-1} \Leftrightarrow P^{-1}AP = B $$ 식 2는 식 1의 양변에 B의 고유값을 고려한 것입니다. \begin{align}\tag{식 2} B - \lambda I &= P^{-1}AP – \lambda P^{-1}P\\ &= P^{-1}(AP – \lambda P)\\ &= P^{-1}(A - \lambda I)P \end{align} 식 2의 행렬식은 식 3과 같이 정리됩니다. \begin{align} &\begin{aligned}\textsf{det}(B - \lambda I ) & = \textsf{det}(P^{-1}(AP – \lambda P))\\ &= \textsf{det}(P^{-1}) \textsf{det}((A – \lambda I)) \textsf{det}(P)\\ &= \textsf{det}(P^{-1}) \textsf{det}(P) \textsf{det}((A – \lambda I))\\ &= \textsf{det}(A – \lambda I)\end{aligned}\\ &\begin{aligned}\because \; \textsf{det}(P^{-1}) \textsf{det}(P) &= \textsf{det}(P^{-1}P)\\ &= \textsf{det}(I)\end{aligned}\end{align} 유사행렬의 특성 유사행렬인 두 정방행렬 A와 B는 'A ~ B' 와 같...

[sympy] Sympy객체의 표현을 위한 함수들

Sympy객체의 표현을 위한 함수들 General simplify(x): 식 x(sympy 객체)를 간단히 정리 합니다. import numpy as np from sympy import * x=symbols("x") a=sin(x)**2+cos(x)**2 a $\sin^{2}{\left(x \right)} + \cos^{2}{\left(x \right)}$ simplify(a) 1 simplify(b) $\frac{x^{3} + x^{2} - x - 1}{x^{2} + 2 x + 1}$ simplify(b) x - 1 c=gamma(x)/gamma(x-2) c $\frac{\Gamma\left(x\right)}{\Gamma\left(x - 2\right)}$ simplify(c) $\displaystyle \left(x - 2\right) \left(x - 1\right)$ 위의 예들 중 객체 c의 감마함수(gamma(x))는 확률분포 등 여러 부분에서 사용되는 표현식으로 다음과 같이 정의 됩니다. 감마함수는 음이 아닌 정수를 제외한 모든 수에서 정의됩니다. 식 1과 같이 자연수에서 감마함수는 factorial(!), 부동소수(양의 실수)인 경우 적분을 적용하여 계산합니다. $$\tag{식 1}\Gamma(n) =\begin{cases}(n-1)!& n:\text{자연수}\\\int^\infty_0x^{n-1}e^{-x}\,dx& n:\text{부동소수}\end{cases}$$ x=symbols('x') gamma(x).subs(x,4) $\displaystyle 6$ factorial 계산은 math.factorial() 함수를 사용할 수 있습니다. import math math.factorial(3) 6 a=gamma(x).subs(x,4.5) a.evalf(3) 11.6 simpilfy() 함수의 알고리즘은 식에서 공통사항을 찾아 정리하...

sympy.solvers로 방정식해 구하기

sympy.solvers로 방정식해 구하기 대수 방정식을 해를 계산하기 위해 다음 함수를 사용합니다. sympy.solvers.solve(f, *symbols, **flags) f=0, 즉 동차방정식에 대해 지정한 변수의 해를 계산 f : 식 또는 함수 symbols: 식의 해를 계산하기 위한 변수, 변수가 하나인 경우는 생략가능(자동으로 인식) flags: 계산 또는 결과의 방식을 지정하기 위한 인수들 dict=True: {x:3, y:1}같이 사전형식, 기본값 = False set=True :{(x,3),(y,1)}같이 집합형식, 기본값 = False ratioal=True : 실수를 유리수로 반환, 기본값 = False positive=True: 해들 중에 양수만을 반환, 기본값 = False 예 $x^2=1$의 해를 결정합니다. solve() 함수에 적용하기 위해서는 다음과 같이 식의 한쪽이 0이 되는 형태인 동차식으로 구성되어야 합니다. $$x^2-1=0$$ import numpy as np from sympy import * x = symbols('x') solve(x**2-1, x) [-1, 1] 위 식은 계산 과정은 다음과 같습니다. $$\begin{aligned}x^2-1=0 \rightarrow (x+1)(x-1)=0 \\ x=1 \; \text{or}\; -1\end{aligned}$$ 예 $x^4=1$의 해를 결정합니다. solve() 함수의 인수 set=True를 지정하였으므로 결과는 집합(set)형으로 반환됩니다. eq=x**4-1 solve(eq, set=True) ([x], {(-1,), (-I,), (1,), (I,)}) 위의 경우 I는 복소수입니다.즉 위 결과의 과정은 다음과 같습니다. $$x^4-1=(x^2+1)(x+1)(x-1)=0 \rightarrow x=\pm \sqrt{-1}, \; \pm 1=\pm i,\; \pm1$$ 실수...