기본 콘텐츠로 건너뛰기

벡터와 행렬에 관련된 그림들

[ML] 다중 클래스의 분류: SGDClassifier와 RandomForest

다중 클래스의 분류: SGDClassifier와 RandomForest

다중 클래스를 가진 인공 데이터셋에 대한 분류모델은 SGDClassifier()를 적용합니다. 다중 클래스에 대한 분류 모델을 생성하는 알고리즘은 세가지로 구분할 수 있습니다. 다중 클래스를 직접적으로 조정하는 것으로 Random Forest Classifier 또는 naive Bayesn Classifier를 적용합니다. 다른 두 가지는 Support vector machine classifier 또는 linear classifier와 같이 이진 분류 알고리즘을 적용합니다. 이진분류를 적용하기 위한 전략으로 one-versus-all(OvA, one-versus-the-rest)one-versus-one(OvO)를 사용합니다.

  • OvA: [0, 1, 2, ..., 9] 에서, 0 검출기, 1 검출기 등을 생성하고 각 샘플에서 생성되는 결정함수로부터 클래스를 결정합니다.
  • OvO: 0-1 구분하는 검출기, 0-2구분하는 검출기 등을 생성하므로 N개의 클래스가 존재한다면 $\frac{N(N-1)}{2}$의 검출기를 생성합니다.

대부분의 이진 분류 알고리즘의 경우 OvA가 선호됩니다. sklearn에서는 다중 클래스의 데이터에 이진분류 알고리즘을 이용할 경우 자동적으로 OvA가 실행됩니다. 그러나 support vector machine은 OvO가 실행됩니다.

import numpy as np
import pandas as pd
import matplotlib.pyplot as plt
from sklearn.datasets import make_classification
from sklearn.model_selection import train_test_split
import matplotlib.pyplot as plt
import seaborn as sns
sns.set_style("darkgrid")

make_classification() 함수를 사용하여 2개의 특징과 1개의 라벨을 포함한 데이터셋을 생성합니다.

X, y =make_classification(n_samples=10000, n_classes=10, n_clusters_per_class=1, n_informative=5, random_state=41)
X.shape, y.shape
((10000, 20), (10000,))
Xtr, Xte, ytr, yte=train_test_split(X, y, test_size=0.3)
some=X[0].reshape(1,-1)
some.shape
(1, 20)
y[0]
7

sgdclassifier() 클래스를 적용한 모델 sgdClf를 생성합니다. 다중 클래스이므로 기본적으로 OvA 전략을 사용합니다.

from sklearn.linear_model import SGDClassifier
sgdClf=SGDClassifier().fit(Xtr, ytr)
sgdClf.predict(some)
array([7])

대상 변수에 대응하는 각 클래스의 확률은 결정함수를 반환하는 메소드decision_function()에 의해 확인할 수 있습니다. 이 결과에 가장 높은 확률에 해당하는 클래스가 예측 결과가 됩니다.

someScores=sgdClf.decision_function(some)
someScores
array([[ -3.90528187,  -2.05220084,  -2.51904986,  -3.25329106,
         -2.33818175, -11.66979818,  -2.47294902,  -0.19979868,
         -2.37303898,  -1.14767078]])
maxIdx=np.argmax(someScores); maxIdx
7

모델 sgdClf의 속성 classes_는 이 모델에 참여하는 라벨에 포함된 모든 클래스를 나타냅니다.

sgdClf.classes_[maxIdx]
7

ScikitLearn에서 일대일 또는 일대전(OvA, one-versus-All) 클래스를 사용하도록 강제하려면 OneVsOneClassifier 또는 OneVsRestClassifier 클래스를 사용할 수 있습니다. 간단히 인스턴스를 만들고 이진 분류기를 생성자에 전달합니다. 예를 들어, 이 코드는 SGDClassifier를 기반으로 OvO(one-versus-one) 전략을 사용하여 다중 클래스 분류기를 만듭니다.

from sklearn.multiclass import OneVsOneClassifier
ovoClf=OneVsOneClassifier(SGDClassifier(random_state=3))
ovoClf.fit(Xtr, ytr)
ovoClf.predict(some)
array([9])

RandomForest는 다중 클래스를 직접적으로 분류할 수 있습니다. 그러므로 OvA 또는 OvO를 별도로 실행하지 않습니다.

from sklearn.ensemble import RandomForestClassifier
forestClf=RandomForestClassifier().fit(Xtr, ytr)
forestClf.predict(some)
array([7])
forestClf.predict_proba(some)
array([[0.03, 0.15, 0.  , 0.  , 0.02, 0.  , 0.  , 0.67, 0.  , 0.13]]

위 결과의 7번째 인덱스에서 가장 높은 확률이 확인됩니다. 그러므로 그 확률에 대응되는 클래스인 7이 예측됩니다. 두 모델의 정확성을 확인하기 위해 cross_val_score() 함수를 사용합니다.

ovoEval=cross_val_score(ovoClf, Xtr, ytr, cv=3, scoring="accuracy")
forestEval=cross_val_score(forestClf, Xtr, ytr, cv=3, scoring="accuracy")
ovoEval
array([0.59811482, 0.57693956, 0.58808401])
forestEval
array([0.73179092, 0.71924561, 0.71753108])

두 모델에 대한 평가를 위해 혼동행렬을 작성합니다.

from sklearn.model_selection import cross_val_predict
from sklearn import metrics
predTr=cross_val_predict(sgdClf, Xtr, ytr)
confM=metrics.confusion_matrix(ytr, predTr)
confM
array([[464,  35,  51,  18,   4,  12,  14,  50,  21,  29],
       [136, 401,   2,   4,  36,  49,  14,  23,  11,  29],
       [187,  25, 159,  85,  22,   1,  81, 104,  29,  15],
       [ 58,  38,  60, 256, 114,   6,  41,  49,  24,  36],
       [ 21,  72,   1, 129, 295,  74,   2,  69,   7,  30],
       [ 10,  32,   0,   3,   8, 591,   4,   0,  42,   3],
       [ 72,  85,  58, 134,  39,  12, 273,  12,  21,   5],
       [ 43,  87,  47,  12,  91,  52,  60, 225,  24,  64],
       [ 36,  85,  23,  60,  12,  51,  33,  42, 320,  44],
       [160, 108,   5,  12,  26,  20,  33, 121,  71, 136]], dtype=int64)

위 결과는 실제클래스(행)과 예측클래스(열)에 대응하는 빈도를 나타낸 것입니다. 다음과 같이 시각화합니다. 다음 그림의 각 축의 값들은 실제와 예측 클래스의 인덱스이므로 0~9까지를 나타냅니다.

다음 결과에 의하면 (5,5)에서 가장 높은 빈도수, (10, 10)에서 가장 낮은 빈도수를 나타냅니다.

np.diag(confM)
array([464, 401, 159, 256, 295, 591, 273, 225, 320, 136], dtype=int64)
plt.matshow(confM)
plt.colorbar()
plt.xlabel("Index of actual class")
plt.xticks(range(0, 10))
plt.ylabel("Index of predict class")
plt.yticks(range(0, 10))
plt.show()

반면에 randomforest에 의한 모델은 sgdClf보다 모든 클래스에 높은 정확성을 보입니다.

predTrRf=cross_val_predict(forestClf, Xtr, ytr, cv=3)
confMrf=metrics.confusion_matrix(ytr, predTrRf)
plt.matshow(confMrf)
plt.colorbar()
plt.xlabel("Index of actual class")
plt.xticks(range(0, 10))
plt.ylabel("Index of predict class")
plt.yticks(range(0, 10))
plt.show()
np.diag(confMrf)
array([552, 508, 432, 435, 558, 648, 483, 399, 560, 467], dtype=int64)

댓글

이 블로그의 인기 게시물

[Linear Algebra] 유사변환(Similarity transformation)

유사변환(Similarity transformation) n×n 차원의 정방 행렬 A, B 그리고 가역 행렬 P 사이에 식 1의 관계가 성립하면 행렬 A와 B는 유사행렬(similarity matrix)이 되며 행렬 A를 가역행렬 P와 B로 분해하는 것을 유사 변환(similarity transformation) 이라고 합니다. $$\tag{1} A = PBP^{-1} \Leftrightarrow P^{-1}AP = B $$ 식 2는 식 1의 양변에 B의 고유값을 고려한 것입니다. \begin{align}\tag{식 2} B - \lambda I &= P^{-1}AP – \lambda P^{-1}P\\ &= P^{-1}(AP – \lambda P)\\ &= P^{-1}(A - \lambda I)P \end{align} 식 2의 행렬식은 식 3과 같이 정리됩니다. \begin{align} &\begin{aligned}\textsf{det}(B - \lambda I ) & = \textsf{det}(P^{-1}(AP – \lambda P))\\ &= \textsf{det}(P^{-1}) \textsf{det}((A – \lambda I)) \textsf{det}(P)\\ &= \textsf{det}(P^{-1}) \textsf{det}(P) \textsf{det}((A – \lambda I))\\ &= \textsf{det}(A – \lambda I)\end{aligned}\\ &\begin{aligned}\because \; \textsf{det}(P^{-1}) \textsf{det}(P) &= \textsf{det}(P^{-1}P)\\ &= \textsf{det}(I)\end{aligned}\end{align} 유사행렬의 특성 유사행렬인 두 정방행렬 A와 B는 'A ~ B' 와 같...

[sympy] Sympy객체의 표현을 위한 함수들

Sympy객체의 표현을 위한 함수들 General simplify(x): 식 x(sympy 객체)를 간단히 정리 합니다. import numpy as np from sympy import * x=symbols("x") a=sin(x)**2+cos(x)**2 a $\sin^{2}{\left(x \right)} + \cos^{2}{\left(x \right)}$ simplify(a) 1 simplify(b) $\frac{x^{3} + x^{2} - x - 1}{x^{2} + 2 x + 1}$ simplify(b) x - 1 c=gamma(x)/gamma(x-2) c $\frac{\Gamma\left(x\right)}{\Gamma\left(x - 2\right)}$ simplify(c) $\displaystyle \left(x - 2\right) \left(x - 1\right)$ 위의 예들 중 객체 c의 감마함수(gamma(x))는 확률분포 등 여러 부분에서 사용되는 표현식으로 다음과 같이 정의 됩니다. 감마함수는 음이 아닌 정수를 제외한 모든 수에서 정의됩니다. 식 1과 같이 자연수에서 감마함수는 factorial(!), 부동소수(양의 실수)인 경우 적분을 적용하여 계산합니다. $$\tag{식 1}\Gamma(n) =\begin{cases}(n-1)!& n:\text{자연수}\\\int^\infty_0x^{n-1}e^{-x}\,dx& n:\text{부동소수}\end{cases}$$ x=symbols('x') gamma(x).subs(x,4) $\displaystyle 6$ factorial 계산은 math.factorial() 함수를 사용할 수 있습니다. import math math.factorial(3) 6 a=gamma(x).subs(x,4.5) a.evalf(3) 11.6 simpilfy() 함수의 알고리즘은 식에서 공통사항을 찾아 정리하...

sympy.solvers로 방정식해 구하기

sympy.solvers로 방정식해 구하기 대수 방정식을 해를 계산하기 위해 다음 함수를 사용합니다. sympy.solvers.solve(f, *symbols, **flags) f=0, 즉 동차방정식에 대해 지정한 변수의 해를 계산 f : 식 또는 함수 symbols: 식의 해를 계산하기 위한 변수, 변수가 하나인 경우는 생략가능(자동으로 인식) flags: 계산 또는 결과의 방식을 지정하기 위한 인수들 dict=True: {x:3, y:1}같이 사전형식, 기본값 = False set=True :{(x,3),(y,1)}같이 집합형식, 기본값 = False ratioal=True : 실수를 유리수로 반환, 기본값 = False positive=True: 해들 중에 양수만을 반환, 기본값 = False 예 $x^2=1$의 해를 결정합니다. solve() 함수에 적용하기 위해서는 다음과 같이 식의 한쪽이 0이 되는 형태인 동차식으로 구성되어야 합니다. $$x^2-1=0$$ import numpy as np from sympy import * x = symbols('x') solve(x**2-1, x) [-1, 1] 위 식은 계산 과정은 다음과 같습니다. $$\begin{aligned}x^2-1=0 \rightarrow (x+1)(x-1)=0 \\ x=1 \; \text{or}\; -1\end{aligned}$$ 예 $x^4=1$의 해를 결정합니다. solve() 함수의 인수 set=True를 지정하였으므로 결과는 집합(set)형으로 반환됩니다. eq=x**4-1 solve(eq, set=True) ([x], {(-1,), (-I,), (1,), (I,)}) 위의 경우 I는 복소수입니다.즉 위 결과의 과정은 다음과 같습니다. $$x^4-1=(x^2+1)(x+1)(x-1)=0 \rightarrow x=\pm \sqrt{-1}, \; \pm 1=\pm i,\; \pm1$$ 실수...