기본 콘텐츠로 건너뛰기

[math] 정적분의 특성

[ML]이진 분류(Binary Classification): SGDClassifier

이진분류(Binary Classification): SGDClassifier

내용

import numpy as np
import pandas as pd
import matplotlib.pyplot as plt
import seaborn as sns
sns.set_style("darkgrid")

SGDClassifier

다음은 make_classification() 함수를 사용하여 2개의 특징과 2개의 클래스로 구성된 라벨인 데이터를 생성한것입니다.

from sklearn.datasets import make_classification
X,y=make_classification(n_samples=1000, n_features=2,n_informative=1,n_redundant=0,  n_clusters_per_class=1, random_state=1)
X.shape, y.shape
((1000, 2), (1000,))
ytr[:10]
array([0, 0, 0, 0, 1, 0, 1, 0, 0, 0])

위 데이터를 모델 생성을 위한 훈련데이터와 모델 검정을 위한 검정데이터로 구분하였습니다.

from sklearn.model_selection import train_test_split
Xtr, Xte, ytr, yte=train_test_split(X, y, test_size=0.3, random_state=2)

이진 분류기를 생성하기 위해 SGDClassifier() 클래스를 사용합니다.

  • 확률적 경사하강법(Stochastic Gradient Descent)을 적용한 정규화된 선형 분류모델(경사하강법참조)
  • 계산값 < 0 &rightarr; 0(Negative)
  • 계산값 > 0 &rightarr; 1(Positive)
from sklearn.linear_model import SGDClassifier
sgd_clf=SGDClassifier(random_state=2)
sgd_clf.fit(Xtr, ytr)
sgd_clf
  SGDClassifier
SGDClassifier(random_state=2)

이 분류기는 식 1과 같은 선형 모델을 생성합니다. .codf_, .intercept_ 속성으로 계수(가중치, W)와 편차(b)를 확인할 수 있습니다.

$$\tag{식 1}\hat{y}=WX^T+b$$

cf, inter=sgd_clf.coef_, sgd_clf.intercept_
cf, inter
(array([[ 2.5322399, -0.0756492]]), array([-0.86262289]))

식 1과 같은 선형모델에 의한 예측값은 메소드 .decision_function()에 의해 계산됩니다. 예를 들어 특징 X[0, :]에 대한 결정함수를 식 1과 이 메소드를 사용하여 계산해보면 다음과 같습니다.

decision-function: SGDClassifier는 선형모형이므로 이 함수는 분리된 초평면(hyperplane)에 대한 부호 거리를 반환합니다. 단순히 선형모형에서의 예측지를 나타냅니다. 예를 들어 Xtr의 첫번째 데이터에 대해 다음 식과 같이 모델을 적용한 결과가 결정함수의 결과가 됩니다.

cf@Xtr[0,:].reshape(1,-1).T+inter
array([[-3.50941501]])
sgd_clf.decision_function(Xtr[0,:].reshape(1,-1))
array([-3.50941501])

라벨과 같은 0 또는 1과 같은 최종 예측값은 .predict() 메소드로 확인 할 수 있습니다. 이 결과와

pre_tr=sgd_clf.predict(Xtr)
pre_tr[:10]
array([0, 0, 0, 0, 1, 0, 1, 0, 0, 0])

모델의 정확도는 라벨과 위의 예측치와의 일치정도로 파악할 수 있습니다. 훈련데이터와 검정데이터의 정확도는 다음과 같이 계산됩니다.

np.mean(pre_tr == ytr)
0.9914285714285714
pre_te=sgd_clf.predict(Xte)
np.mean(pre_te == yte)
1.0

.score(X, y) 메소드를 사용하여 정확도를 계산할 수 있습니다.

sgd_clf.score(Xtr, ytr)
0.9914285714285714
sgd_clf.score(Xte, yte)
1.0

모형평가:교차검증(Cross-Validation)

SGDClassifier 모델의 평가하기 위해 3개의 폴드를 사용하여 교차검증을 실시하는 sklearn.model_selection.cross_val_score(estimator, X, y, cv, scoring, …) 함수를 사용합니다. 이 함수의 주요 인수들의 내용은 다음과 같습니다.

  • cv: 는 교차평가의 분류 mechanism을 지정
    • 정수: starified KFold 교차평가를 사용하여 분류하는 그룹수
    • None: 5-Fold cross validation을 지정한 것과 같음
  • scoring: 평가방식으로 지정하는 것으로 score(estimator, X, y) 또는 "accuracy"와 같이 단일한 metric이 될 수도 있습니다.
from sklearn.model_selection import cross_val_score, cross_val_predict
cross_val_score(sgd_clf, Xtr, ytr, cv=3, scoring="accuracy")
array([0.98717949, 0.99141631, 0.99570815])

위 결과는 교차검증을 위해 구분된 각 데이터들의 정확도를 나타냅니다.

다음 어떤 기능도 없는 추정기에 의한 결과를 평가해 봅니다. 이러한 추정기는 다음과 같이 BaseEstimator()를 상속한 클래스를 적용합니다.

BaseEstimator는 sklearn의 모든 추정기가 상속하는 기본적인 추정기입니다. 다음에서 작성한 추정기는 fit() 메소드에 어떤 기능도 부여하지 않았습니다. 이 데이터의 라벨(반응변수)은 0과 1 두개의 클래스로 구성되므로 예측치와 관측치의 일치율이 50%가 될 것으로 예상되며 이와 유사한 결과가 반환됩니다. 이에 비해 위의 평가결과는 높은 것이라 할 수 있습니다.

from sklearn.base import BaseEstimator
class NeverClassifier(BaseEstimator):
    def fit(self, X, y=None):
        pass
    def predict(self, X):
        return np.zeros((len(X), 1))
nofit=NeverClassifier()
nofitEst=cross_val_score(nofit, Xtr, ytr, cv=3, scoring="accuracy")
nofitEst
array([0.43589744, 0.53648069, 0.51072961])

혼동 행렬(Confusion Matrix)

분류기의 성능을 평가하는 훨씬 더 나은 방법은 혼동 행렬을 보는 것입니다. 일반적인 아이디어는 클래스 A의 인스턴스가 클래스 B로 분류되는 횟수를 세는 것입니다.

혼동 행렬을 계산하려면 먼저 예측 세트가 있어야 실제 대상과 비교할 수 있습니다. 이 비교에 대한 교차검증을 위해 cross_val_predict() 함수를 사용할 수 있습니다.

다음 코드에 사용하는 cross_val_predict() 함수는 cross_val_score()와 같이 k-flod 검증을 수행하지만 평가점수 대신 예측을 반환합니다. 혼동행렬은 sklearn.metrics.confusion_matrix(y_ture, y_predict) 함수를 적용할 수 있습니다.

ytrpred=cross_val_predict(sgd_clf, Xtr, ytr, cv=3)
ytrpred[:10]
array([0, 0, 0, 0, 1, 0, 1, 0, 0, 0])
from sklearn.metrics import confusion_matrix, classification_report
confusion_matrix(ytr,ytrpred)
array([[343,   3],
       [  3, 351]], dtype=int64)

위 결과는 다음과 같습니다.

predicted class
0(P)1(N)
actual class0(P)343(TP)3(FP)
1(N)3(FN)351(TN)

클래스 0, 1을 각각 P, N으로 간주하고 actual과 predicted가 같은 경우 T, 다른 경우 F로 표현하면 위표는 다음과 같이 나타낼 수 있습니다.

  • TP=343
  • TN=351
  • FP=3
  • FN=3

위 항목으로부터 이 결과의 평가를 위해 정확도(Accuracy), 정밀도(Precision), 재현율(Recall), 그리고 F1-score를 식 2와 같이 계산할 수 있습니다.

  • 정확도(Accuracy): 전체 중에 올바른 분류의 정도
  • 정밀도(Precision): 긍정값(목표값)을 올바르게 분류하는 정도(실제 목표값 중에 예측한 목표값) 직관적으로 분류자가 음성(목표가 아닌 값)인 샘플을 양성(목표값)으로 분류하지 않는 성능을 나타냄
  • 재현율(Recall): 긍정값(목표값)을 올바르게 분류하는 정도(예측한 목표값 중에 실제 목표값) 직관적으로 양성(목표값)을 찾는 성능을 나타냄
  • F1-score: 재현율과 정밀도의 조화평균입니다.

\begin{align}\text{Accuracy}&=\frac{\text{TP + TN}}{\text{TP + FP +TN + FN}}\\&=\frac{343+351}{700}\\&=0.99\\ \tag{식 2}\text{Precision}&=\frac{\text{TP}}{\text{TP + FP}}\\&=\frac{343}{346}\\&=0.99\\ \text{Recall}&=\frac{\text{TP}}{\text{TP + FN}}\\&=\frac{343}{346}\\&=0.99\\ \text{F1-score}&=\frac{2\cdot\text{Precsion}\cdot\text{Recall}}{\text{Precsion}+\text{Recall}}\\&=\frac{2\cdot 0.99 \cdot 0.99}{0.99+0.99}\\&=0.99\end{align}

조화평균(harmonic mean)은 각 값의 역수에 대한 산술평균입니다. 예를 들어 두 수 a,b의 조화평균은 식 3과 같이 계산됩니다.

$$\tag{식 3}\text{조화평균}=\frac{2}{\frac{1}{a} + \frac{1}{b}}=\frac{2ab}{a+b}$$

위 결과는 sklearn.metrics.classificaion_report(y_true, y_predict) 함수에 의해 확인할 수 있습니다. sklearn.metrics 클래스에서 각각의 값을 계산하는 함수들을 사용할 수 있습니다.

cm_re=classification_report(ytr, ytrpred)
print(cm_re)
              precision    recall  f1-score   support

           0       0.99      0.99      0.99       346
           1       0.99      0.99      0.99       354

    accuracy                           0.99       700
   macro avg       0.99      0.99      0.99       700
weighted avg       0.99      0.99      0.99       700
from sklearn.metrics import accuracy_score, precision_score, recall_score, f1_score
acc=accuracy_score(ytr, ytrpred)
prec=precision_score(ytr, ytrpred)
rec=recall_score(ytr, ytrpred)
f1sc=f1_score(ytr, ytrpred)
print(f"accuracy:%.2f\nprecision:%.2f\nrecall:%.2f\nf1-score:%.2f" %(acc, prec, rec, f1sc))
accuracy:0.99
precision:0.99
recall:0.99
f1-score:0.99

교차검증의 함수 cross_val_predict(method="decision_function")의 mehod 인수를 결정함수로 지정함으로서 그 결과를 확인할 수 있습니다. 이 결과에 대한 kde 그래프는 다음과 같습니다.

y_score=cross_val_predict(sgd_clf, Xtr, ytr, cv=3, method="decision_function")
plt.figure(figsize=(4,3))
sns.kdeplot(x=y_score)
plt.xlabel("decision function of y")
plt.ylabel("KDE")
plt.show()

위 결과에 의하면 결정함수 0을 기준으로 명확히 분리된 형태를 보입니다.

실제 양성(목표값)에서 양성의 비율인 정밀도와 예측 양성중 실제 양성의 비율인 재현율은 분류의 기준에 따라 중요도가 달라질 수 있습니다. 그 기준을 생성된 선형모델에서의 예측치 즉, 결정함수(decision function)를 한 지점으로 지정할 수 있습니다. sklarn.metrics.precision_recall_curve(y_true, y_score) 함수를 사용하여 모델에 적용된 특성들로부터 예측된 각 값에 따라 정밀도와 재현율의 변화 경향을 파악할 수 있습니다. 이 함수의 인수 y_score는 모델에 의한 결정함수값입니다.

from sklearn.metrics import precision_recall_curve
precisions, recalls, thresholds=precision_recall_curve(ytr, y_score)
f, (ax1, ax2)=plt.subplots(1, 2, figsize=(7, 3))
ax1.plot(thresholds,precisions[1:], color="b", label="precision")
ax1.plot(thresholds,recalls[1:], color="r", label="recall")
ax1.set_xlabel("threshold")
ax1.set_ylabel("ratio")
ax1.legend(loc="best")
ax2.plot(recalls, precisions)
ax2.set_xlabel("recall")
ax2.set_ylabel("precision")
plt.show()

위의 왼쪽 그래프는 threshold가 0 부근을 기준으로 정밀도와 재현율의 경향이 전환됨을 보입니다. 즉, 이 지점에서 정밀도와 재현율의 최대를 나타냅니다. 이것은 위의 결정함수에 대한 kde 그래프와 같은 결과를 나타냅니다.

댓글

이 블로그의 인기 게시물

[Linear Algebra] 유사변환(Similarity transformation)

유사변환(Similarity transformation) n×n 차원의 정방 행렬 A, B 그리고 가역 행렬 P 사이에 식 1의 관계가 성립하면 행렬 A와 B는 유사행렬(similarity matrix)이 되며 행렬 A를 가역행렬 P와 B로 분해하는 것을 유사 변환(similarity transformation) 이라고 합니다. $$\tag{1} A = PBP^{-1} \Leftrightarrow P^{-1}AP = B $$ 식 2는 식 1의 양변에 B의 고유값을 고려한 것입니다. \begin{align}\tag{식 2} B - \lambda I &= P^{-1}AP – \lambda P^{-1}P\\ &= P^{-1}(AP – \lambda P)\\ &= P^{-1}(A - \lambda I)P \end{align} 식 2의 행렬식은 식 3과 같이 정리됩니다. \begin{align} &\begin{aligned}\textsf{det}(B - \lambda I ) & = \textsf{det}(P^{-1}(AP – \lambda P))\\ &= \textsf{det}(P^{-1}) \textsf{det}((A – \lambda I)) \textsf{det}(P)\\ &= \textsf{det}(P^{-1}) \textsf{det}(P) \textsf{det}((A – \lambda I))\\ &= \textsf{det}(A – \lambda I)\end{aligned}\\ &\begin{aligned}\because \; \textsf{det}(P^{-1}) \textsf{det}(P) &= \textsf{det}(P^{-1}P)\\ &= \textsf{det}(I)\end{aligned}\end{align} 유사행렬의 특성 유사행렬인 두 정방행렬 A와 B는 'A ~ B' 와 같

[matplotlib] 히스토그램(Histogram)

히스토그램(Histogram) 히스토그램은 확률분포의 그래픽적인 표현이며 막대그래프의 종류입니다. 이 그래프가 확률분포와 관계가 있으므로 통계적 요소를 나타내기 위해 많이 사용됩니다. plt.hist(X, bins=10)함수를 사용합니다. x=np.random.randn(1000) plt.hist(x, 10) plt.show() 위 그래프의 y축은 각 구간에 해당하는 갯수이다. 빈도수 대신 확률밀도를 나타내기 위해서는 위 함수의 매개변수 normed=True로 조정하여 나타낼 수 있다. 또한 매개변수 bins의 인수를 숫자로 전달할 수 있지만 리스트 객체로 지정할 수 있다. 막대그래프의 경우와 마찬가지로 각 막대의 폭은 매개변수 width에 의해 조정된다. y=np.linspace(min(x)-1, max(x)+1, 10) y array([-4.48810153, -3.54351935, -2.59893717, -1.65435499, -0.70977282, 0.23480936, 1.17939154, 2.12397372, 3.0685559 , 4.01313807]) plt.hist(x, y, normed=True) plt.show()

R 미분과 적분

내용 expression 미분 2차 미분 mosaic를 사용한 미분 적분 미분과 적분 R에서의 미분과 적분 함수는 expression()함수에 의해 생성된 표현식을 대상으로 합니다. expression expression(문자, 또는 식) 이 표현식의 평가는 eval() 함수에 의해 실행됩니다. > ex1<-expression(1+0:9) > ex1 expression(1 + 0:9) > eval(ex1) [1] 1 2 3 4 5 6 7 8 9 10 > ex2<-expression(u, 2, u+0:9) > ex2 expression(u, 2, u + 0:9) > ex2[1] expression(u) > ex2[2] expression(2) > ex2[3] expression(u + 0:9) > u<-0.9 > eval(ex2[3]) [1] 0.9 1.9 2.9 3.9 4.9 5.9 6.9 7.9 8.9 9.9 미분 D(표현식, 미분 변수) 함수로 미분을 실행합니다. 이 함수의 표현식은 expression() 함수로 생성된 객체이며 미분 변수는 다음 식의 분모의 변수를 의미합니다. $$\frac{d}{d \text{변수}}\text{표현식}$$ 이 함수는 어떤 함수의 미분의 결과를 표현식으로 반환합니다. > D(expression(2*x^3), "x") 2 * (3 * x^2) > eq<-expression(log(x)) > eq expression(log(x)) > D(eq, "x") 1/x > eq2<-expression(a/(1+b*exp(-d*x))); eq2 expression(a/(1 + b * exp(-d * x))) > D(eq2, "x") a * (b * (exp(-d * x) * d))/(1 + b