기본 콘텐츠로 건너뛰기

pandas_ta를 적용한 통계적 인덱스 지표

[data analysis]교차검증(Cross-validation)

내용

교차검증(Cross-validation)

k-fold 교차검증(Cross-validation)

데이터 샘플이 제한된 경우 학습 모델을 평가하기 위해 사용되는 리샘플링(resampling) 기법으로 데이터셋트를 소그룹으로 분류하여 각 그룹을 평가하는 것으로 분류의 그룹 수인 k라는 매개변수(hyperparameter)를 가집니다.

  1. 데이터를 무작위로 혼합(shuffle)
  2. 데이터를 k 그룹으로 분리
  3. 각 그룹에서
    1. 훈련(train)과 검정(test) 세트로 분리
    2. 훈련 세트에 모델을 생성하고 테스트 세트에서 평가
    3. 평가 점수를 생성
  4. 모델 평가 점수 비교

k-겹 교차 검증 실행의 결과는 종종 모델 기술 점수의 평균으로 요약됩니다. 표준 편차 또는 표준 오차와 같은 기술 점수의 분산 측정을 포함하는 것도 좋은 방법입니다. 그 분산이 크다면 모델의 과적합, 대표성의 결핍 등의 문제를 고려할 수 있습니다.

k 값을 선택하기 위한 세 가지 일반적인 전술은 다음과 같습니다.

  • represtative: 샘플의 훈련/검정 데이터의 크기는 통계적으로 더 큰 데이터 셋트를 대표할 정도로 충분한 크기로 k를 설정합니다.
  • k=10: 이 값은 실험적으로 적당한 분산과 낮은 편향을 가진 모델의 추정치를 갖는 수준으로 알려진 값입니다.
  • n=n: k 값은 n으로 고정됩니다. 여기서 n은 각 테스트 샘플에 홀드아웃 데이터셋에 사용할 기회를 주기 위한 데이터셋의 크기입니다. 이 접근 방식을 Leave-One-Out 교차 검증이라고 합니다.
import numpy as np
import pandas as pd
from sklearn.model_selection import KFold, StratifiedKFold, train_test_split
from sklearn.datasets import make_classification
np.random.seed(1)
x=np.random.randint(100, size=6)
x
array([37, 12, 72,  9, 75,  5])
#k=3
np.random.shuffle(x)
fold={}
j=1
for i in range(2, len(x)+1, 2):
    fold[f'fold{j}']=x[(i-2):i]
    j +=1
fold
{'fold1': array([75, 37]), 'fold2': array([12,  5]), 'fold3': array([72,  9])}

위의 결과에서 각 모델은 다음과 같이 분류할 수 있습니다.

Modeltrain settest set
Model1 fold1+fold2fold3
Model2 fold2+fold3fold1
Model3 fold3+fold1fold2

위 과정은 sklearn.model_selection.KFold(n_splits=5, shuffle=False, random_state=None) 클래스를 적용할 수 있습니다. 이 클래스에 의한 train, test 분리는 split()메서드에 의해 실행됩니다.

.split(X, y=None)
kf=KFold(n_splits=3, shuffle=True, random_state=1)
for tr, te in kf.split(x):
    print(f'Train: {x[tr]}, Test:{x[te]}')
Train: [75  5 72  9], Test:[37 12]
Train: [37 12  5  9], Test:[75 72]
Train: [75 37 12 72], Test:[5 9]

계층화 Kfold

위의 k-fold 교차검증은 학습/검증 분할(train/test split)과 함께 일반적으로 적용할 수 있는 모델 평가 수단입니다. 그러나 데이터의 클래스의 불균형이 심각할 경우 이러한 분할에 의해 특정한 클래스의 데이터가 몰릴 수 있는 가능성이 존재합니다. 이 경우 모델 선택의 실패 가능성이 증가합니다. 대신, 계층화된 훈련-테스트 분할 또는 계층화된 k-겹 교차 검증이라고 하는 클래스 레이블로 샘플링을 계층화하도록 기술을 수정하여 이러한 문제를 개선할 수 있습니다.

정리하면 데이터 세트가 k-fold 교차검증으로 분리되는 경우 균일 확률 분포를 따릅니다. 이는 데이터 전체에 클래스의 분포가 불균일 한 경우 각 그룹에 모든 클래스가 균일하게 포함된다고 가정할 수 없습니다.

X,y=make_classification(n_samples=1000, n_classes=2, weights=[0.99, 0.01], flip_y=0, random_state=1)
np.unique(y, return_counts=True)
(array([0, 1]), array([990,  10]))
kf=KFold(n_splits=5, shuffle=True, random_state=1)
mod=[]
re=pd.DataFrame()
n=1
for tr_r, te_r in kf.split(X):
    xtr, xte=X[tr_r], X[te_r]
    ytr, yte=y[tr_r], y[te_r]
    re1=pd.DataFrame([(len(ytr)-ytr.sum())/len(ytr), ytr.sum()/len(ytr), (len(yte)-yte.sum())/len(yte), yte.sum()/len(yte)]).T
    re=pd.concat([re, re1])
    mod.append('group'+str(n))
    n +=1
re.index=mod
re.columns=['ytr=0','ytr=1','yte=0','yte=1']
re
ytr=0 ytr=1 yte=0 yte=1
group1 0.98875 0.01125 0.995 0.005
group2 0.99125 0.00875 0.985 0.015
group3 0.99250 0.00750 0.980 0.020
group4 0.98750 0.01250 1.000 0.000
group5 0.99000 0.01000 0.990 0.010

위 결과는 각 그룹의 0, 1에 대한 비율의 변동이 관찰됩니다. 이것은 동일한 조건에서 모델을 평가할 수 없다는 것을 나타냅니다. 반면 계층화 Kfold의 경우 각 그룹의 라벨의 비율을 균등하게 분배합니다.

이 계층화KFold는 sklearn.model_selection.StratifiedGroupKFold(n_splits=5, shuffle=False, random_state=None) 클래스를 적용할 수 있습니다. 이 클래스에 의한 train, test 분리는 .split()메서드에 의해 실행됩니다.

Skf=StratifiedKFold(n_splits=5, shuffle=True, random_state=1)
mod=[]
reS=pd.DataFrame()
n=1
for tr_r, te_r in Skf.split(X, y):
    xtr, xte=X[tr_r], X[te_r]
    ytr, yte=y[tr_r], y[te_r]
    reS1=pd.DataFrame([(len(ytr)-ytr.sum())/len(ytr), ytr.sum()/len(ytr), (len(yte)-yte.sum())/len(yte), yte.sum()/len(yte)]).T
    reS=pd.concat([reS, reS1])
    mod.append('group'+str(n))
    n +=1
reS.index=mod
reS.columns=['ytr=0','ytr=1','yte=0','yte=1']
reS
ytr=0 ytr=1 yte=0 yte=1
group1 0.99 0.01 0.99 0.01
group2 0.99 0.01 0.99 0.01
group3 0.99 0.01 0.99 0.01
group4 0.99 0.01 0.99 0.01
group5 0.99 0.01 0.99 0.01

훈련, 검증세트 분리에 계층화 적용

훈련과 검증 세트의 분리시 계층화(stratify)는 train_test_split() 함수의 인수 stratify에 의해 실행할 수 있습니다. 이 인수의 기본값은 None 입니다. None이 아니면 계층화가 실행됩니다.

xtr, xte, ytr, yte=train_test_split(X, y, test_size=0.3, random_state=2)
ytrN=np.unique(ytr, return_counts=True)[0]
yteN=np.unique(yte, return_counts=True)[0]
print(f'train 0: {len(ytr[ytr==0])/len(ytr)}, 1: {len(ytr[ytr==1])/len(ytr)}')
print(f'test 0: {len(yte[yte==0])/len(yte)}, 1: {len(yte[yte==1])/len(yte)}')
train 0: 0.9914285714285714, 1: 0.008571428571428572
test 0: 0.9866666666666667, 1: 0.013333333333333334
xtr, xte, ytr, yte=train_test_split(X, y, test_size=0.3, random_state=2, stratify=y)
ytrN=np.unique(ytr, return_counts=True)[0]
yteN=np.unique(yte, return_counts=True)[0]
print(f'train 0: {len(ytr[ytr==0])/len(ytr)}, 1: {len(ytr[ytr==1])/len(ytr)}')
print(f'test 0: {len(yte[yte==0])/len(yte)}, 1: {len(yte[yte==1])/len(yte)}')
train 0: 0.99, 1: 0.01
test 0: 0.99, 1: 0.01

댓글

이 블로그의 인기 게시물

[Linear Algebra] 유사변환(Similarity transformation)

유사변환(Similarity transformation) n×n 차원의 정방 행렬 A, B 그리고 가역 행렬 P 사이에 식 1의 관계가 성립하면 행렬 A와 B는 유사행렬(similarity matrix)이 되며 행렬 A를 가역행렬 P와 B로 분해하는 것을 유사 변환(similarity transformation) 이라고 합니다. $$\tag{1} A = PBP^{-1} \Leftrightarrow P^{-1}AP = B $$ 식 2는 식 1의 양변에 B의 고유값을 고려한 것입니다. \begin{align}\tag{식 2} B - \lambda I &= P^{-1}AP – \lambda P^{-1}P\\ &= P^{-1}(AP – \lambda P)\\ &= P^{-1}(A - \lambda I)P \end{align} 식 2의 행렬식은 식 3과 같이 정리됩니다. \begin{align} &\begin{aligned}\textsf{det}(B - \lambda I ) & = \textsf{det}(P^{-1}(AP – \lambda P))\\ &= \textsf{det}(P^{-1}) \textsf{det}((A – \lambda I)) \textsf{det}(P)\\ &= \textsf{det}(P^{-1}) \textsf{det}(P) \textsf{det}((A – \lambda I))\\ &= \textsf{det}(A – \lambda I)\end{aligned}\\ &\begin{aligned}\because \; \textsf{det}(P^{-1}) \textsf{det}(P) &= \textsf{det}(P^{-1}P)\\ &= \textsf{det}(I)\end{aligned}\end{align} 유사행렬의 특성 유사행렬인 두 정방행렬 A와 B는 'A ~ B' 와 같...

유리함수 그래프와 점근선 그리기

내용 유리함수(Rational Function) 점근선(asymptote) 유리함수 그래프와 점근선 그리기 유리함수(Rational Function) 유리함수는 분수형태의 함수를 의미합니다. 예를들어 다음 함수는 분수형태의 유리함수입니다. $$f(x)=\frac{x^{2} - 1}{x^{2} + x - 6}$$ 분수의 경우 분모가 0인 경우 정의할 수 없습니다. 이와 마찬가지로 유리함수 f(x)의 정의역은 분모가 0이 아닌 부분이어야 합니다. 그러므로 위함수의 정의역은 분모가 0인 부분을 제외한 부분들로 구성됩니다. sympt=solve(denom(f), a); asympt [-3, 2] $$-\infty \lt x \lt -3, \quad -3 \lt x \lt 2, \quad 2 \lt x \lt \infty$$ 이 정의역을 고려해 그래프를 작성을 위한 사용자 정의함수는 다음과 같습니다. def validX(x, f, symbol): ① a=[] b=[] for i in x: try: b.append(float(f.subs(symbol, i))) a.append(i) except: pass return(a, b) #x는 임의로 지정한 정의역으로 불연속선점을 기준으로 구분된 몇개의 구간으로 전달할 수 있습니다. #그러므로 인수 x는 2차원이어야 합니다. def RationalPlot(x, f, sym, dp=100): fig, ax=plt.subplots(dpi=dp) # ② for k in x: #③ x4, y4=validX(k, f, sym) ax.plot(x4, y4) ax.spines['left'].set_position(('data', 0)) ax.spines['right...

부분분수의 미분

내용 방법 1 방법 2 방법 3 부분분수의 미분 분수의 미분은 일정한 공식 을 적용하여 계산할 수 있습니다. 그러나 분수 자체가 단순한 표현으로 이루어지지 않았다면 미분 과정이나 결과는 매우 복잡할 수 있습니다. 만약 복잡한 분수 함수를 간단한 분수들로 분해할 수 있다면 계산이 보다 간편해질 것입니다. 이와 같이 분해된 간단한 분수들을 부분분수 라고 합니다. 예를 들어 다음 두 분수의 합을 계산해 봅니다. $$\begin{align} \frac{1}{x+1}+\frac{2}{x-1}&=\frac{x-1+2(x+1)}{(x+1)(x-1)}\\ &=\frac{3x+1}{x^2-1} \end{align}$$ 위 과정은 3개 이상의 여러 분수에서도 이루어질 수 있습니다. 또한 역으로 진행될 수 있습니다. 즉, 분수를 부분 분수로 분할할 수 있습니다. 그러나 이러한 과정은 대수분수 (분자의 가장 큰 차수가 분모의 최고의 차수보다 작은 분수)에서만 이루어질 수 있습니다. 예를 들어 $\displaystyle \frac {x^2+2}{x^2-1}$의 경우는 분자와 분모의 차수는 2차로 같습니다. 이러한 경우 다음과 같이 분리할 수 있습니다. $$\frac{x^2+2}{x^2-1}=1+\frac{3}{x^2-1}$$ 위의 식 중 $\displaystyle \frac{3}{x^2-1}$은 분자의 차수가 분모의 차수 보다 낮은 대수 분수이므로 부분 분수로 분리할 수 있습니다. 이와같이 부분 분수로 분해하는 방법은 다음과 같이 몇 가지로 구분할 수 있습니다. 방법 1 위 예의 결과 $\displaystyle \frac{3x+1}{x^2-1}$의 경우를 역으로 생각해 봅니다. 분모의 인수분해가 가능하면 그 분모의 인수에 의해 다음과 같이 분해할 수 있습니다. $$\begin{align} \frac{3x+1}{x^2-1}&=\frac{3x+1}{(x+1)(x-1)}\\ &=\frac{A}{x+1...