기본 콘텐츠로 건너뛰기

[ML] 결정트리(Decision Tree) 모델

[data analysis] Scaling

Scaling

데이터의 각 변수의 스케일은 다양할 수 있기 때문에 전체 데이터의 스케일을 통일시킬 필요가 있습니다. 이러한 과정을 스케일링(scaling) 이라고 합니다.

일반적으로 모든 변수를 [0, 1]사이로 스케일을 조정 합니다. 이러한 과정은 sklearn 라이브러리의 MinMaxScaler() 또는 MaxAbsScaler()을 적용하여 달성할 수 있습니다. 각각의 변환은 식 1과 같습니다.

MinMaxScaler: $x_\text{scaled}=\frac{x-x_\text{min}}{x_\text{max}-x_\text{min}}$(식 1)
MaxAbsScaler: $x_\text{scaled}=\frac{x}{\vert x_\text{max} \vert}$
sklearn.preprocessing.MinMaxScaler(feature_range=(0, 1))
  • 데이터를 행 단위로 다음과 같이 스케일 합니다. 다음의 첫번째 식은 데이터의 표준화를 위한 것으로 분모에 분산 대신 데이터의 범위를 사용한 것입니다.
    • $\begin{align}x_\text{std}&=\frac{x-\mu}{x_\text{max}-x_\text{min}}\\x_\text{scaled}&=x_\text{std}\left(x_\text{max}-x_\text{min}\right)+x_\text{min}\end{align}$
  • .fit() 메소드로 데이터에 적합시키고 .transform() 메소드로 데이터를 변형
  • .inverse_transform() 메소드를 사용하여 원 데이터로 환원
  • 다양한 속성이 있음
sklearn.preprocessing.MaxAbsScaler()
  • 변수의 최대값의 절대값을 기준으로 각 데이터의 비를 계산
  • .fit() 메소드로 데이터에 적합시키고 .transform() 메소드로 데이터를 변형
  • .inverse_transform() 메소드를 사용하여 원 데이터로 환원
  • 다양한 속성이 있음
import numpy as np
import pandas as pd 
from sklearn import preprocessing
np.random.seed(0)
x=np.random.randint(0, 100, size=(5,3))
print(x)
[[44 47 64]
 [67 67  9]
 [83 21 36]
 [87 70 88]
 [88 12 58]]

패키지 sklearn에 포함된 클래스는 대부분 .fit() 메소드를 사용하여 변수에 적합된 추정기(estimator)를 생성하며 데이터는 메소드 .transform()으로 변환시킬 수 있습니다. 또한 변환된 값들의 원시값은 .inverse_transform() 메소드를 적용하여 확인할 수 있습니다.

mnxScaler=preprocessing.MinMaxScaler().fit(x)
xScale1=mnxScaler.transform(x)
print(np.around(xScale1, 3))
[[0.    0.603 0.696]
 [0.523 0.948 0.   ]
 [0.886 0.155 0.342]
 [0.977 1.    1.   ]
 [1.    0.    0.62 ]]
maxAbsScaler=preprocessing.MaxAbsScaler().fit(x)
xScale2=maxAbsScaler.transform(x)
print(np.around(xScale2,3))
[[0.5   0.671 0.727]
 [0.761 0.957 0.102]
 [0.943 0.3   0.409]
 [0.989 1.    1.   ]
 [1.    0.171 0.659]]
print(maxAbsScaler.inverse_transform(xScale2))
[[44. 47. 64.]
 [67. 67.  9.]
 [83. 21. 36.]
 [87. 70. 88.]
 [88. 12. 58.]]

실제 주가 자료에 대해 스케일링을 적용해 봅니다.

import FinanceDataReader as fdr
st=pd.Timestamp(2024,7, 25)
et=pd.Timestamp(2024, 7, 30)
sam=fdr.DataReader('005930', st, et).iloc[:,:4]
sam
Open High Low Close
Date
2024-07-25 80400 81000 80100 80400
2024-07-26 80700 81300 80400 80900
2024-07-29 81600 82000 81100 81200
2024-07-30 80400 81000 80000 81000
scaler1=preprocessing.MinMaxScaler().fit(sam)
samScal=scaler1.transform(sam)
print(np.around(samScal, 4))
[[0.     0.     0.0909 0.    ]
 [0.25   0.3    0.3636 0.625 ]
 [1.     1.     1.     1.    ]
 [0.     0.     0.     0.75  ]]
print(np.around(scaler1.inverse_transform(samScal), 0))
[[80400. 81000. 80100. 80400.]
 [80700. 81300. 80400. 80900.]
 [81600. 82000. 81100. 81200.]
 [80400. 81000. 80000. 81000.]]

위 예들에서 나타낸 것과 같이 scaling은 각 특성(feature)단위로 이루어집니다. 다음은 일반적인 데이터 셋의 구조입니다. 즉, 하나의 열은 하나의 특성을 나타내며 각 특성에 해당하는 데이터는 각행에 위치합니다. 이러한 구조를 기반으로 각행은 인스턴스 또는 샘플이라고 합니다. scaling은 열 단위 즉, 특성단위로 계산됩니다.

샘플\특성feature1 feature2
샘플1data11data12
샘플ndatan1datan2

댓글

이 블로그의 인기 게시물

[Linear Algebra] 유사변환(Similarity transformation)

유사변환(Similarity transformation) n×n 차원의 정방 행렬 A, B 그리고 가역 행렬 P 사이에 식 1의 관계가 성립하면 행렬 A와 B는 유사행렬(similarity matrix)이 되며 행렬 A를 가역행렬 P와 B로 분해하는 것을 유사 변환(similarity transformation) 이라고 합니다. $$\tag{1} A = PBP^{-1} \Leftrightarrow P^{-1}AP = B $$ 식 2는 식 1의 양변에 B의 고유값을 고려한 것입니다. \begin{align}\tag{식 2} B - \lambda I &= P^{-1}AP – \lambda P^{-1}P\\ &= P^{-1}(AP – \lambda P)\\ &= P^{-1}(A - \lambda I)P \end{align} 식 2의 행렬식은 식 3과 같이 정리됩니다. \begin{align} &\begin{aligned}\textsf{det}(B - \lambda I ) & = \textsf{det}(P^{-1}(AP – \lambda P))\\ &= \textsf{det}(P^{-1}) \textsf{det}((A – \lambda I)) \textsf{det}(P)\\ &= \textsf{det}(P^{-1}) \textsf{det}(P) \textsf{det}((A – \lambda I))\\ &= \textsf{det}(A – \lambda I)\end{aligned}\\ &\begin{aligned}\because \; \textsf{det}(P^{-1}) \textsf{det}(P) &= \textsf{det}(P^{-1}P)\\ &= \textsf{det}(I)\end{aligned}\end{align} 유사행렬의 특성 유사행렬인 두 정방행렬 A와 B는 'A ~ B' 와 같

[matplotlib] 히스토그램(Histogram)

히스토그램(Histogram) 히스토그램은 확률분포의 그래픽적인 표현이며 막대그래프의 종류입니다. 이 그래프가 확률분포와 관계가 있으므로 통계적 요소를 나타내기 위해 많이 사용됩니다. plt.hist(X, bins=10)함수를 사용합니다. x=np.random.randn(1000) plt.hist(x, 10) plt.show() 위 그래프의 y축은 각 구간에 해당하는 갯수이다. 빈도수 대신 확률밀도를 나타내기 위해서는 위 함수의 매개변수 normed=True로 조정하여 나타낼 수 있다. 또한 매개변수 bins의 인수를 숫자로 전달할 수 있지만 리스트 객체로 지정할 수 있다. 막대그래프의 경우와 마찬가지로 각 막대의 폭은 매개변수 width에 의해 조정된다. y=np.linspace(min(x)-1, max(x)+1, 10) y array([-4.48810153, -3.54351935, -2.59893717, -1.65435499, -0.70977282, 0.23480936, 1.17939154, 2.12397372, 3.0685559 , 4.01313807]) plt.hist(x, y, normed=True) plt.show()

R 미분과 적분

내용 expression 미분 2차 미분 mosaic를 사용한 미분 적분 미분과 적분 R에서의 미분과 적분 함수는 expression()함수에 의해 생성된 표현식을 대상으로 합니다. expression expression(문자, 또는 식) 이 표현식의 평가는 eval() 함수에 의해 실행됩니다. > ex1<-expression(1+0:9) > ex1 expression(1 + 0:9) > eval(ex1) [1] 1 2 3 4 5 6 7 8 9 10 > ex2<-expression(u, 2, u+0:9) > ex2 expression(u, 2, u + 0:9) > ex2[1] expression(u) > ex2[2] expression(2) > ex2[3] expression(u + 0:9) > u<-0.9 > eval(ex2[3]) [1] 0.9 1.9 2.9 3.9 4.9 5.9 6.9 7.9 8.9 9.9 미분 D(표현식, 미분 변수) 함수로 미분을 실행합니다. 이 함수의 표현식은 expression() 함수로 생성된 객체이며 미분 변수는 다음 식의 분모의 변수를 의미합니다. $$\frac{d}{d \text{변수}}\text{표현식}$$ 이 함수는 어떤 함수의 미분의 결과를 표현식으로 반환합니다. > D(expression(2*x^3), "x") 2 * (3 * x^2) > eq<-expression(log(x)) > eq expression(log(x)) > D(eq, "x") 1/x > eq2<-expression(a/(1+b*exp(-d*x))); eq2 expression(a/(1 + b * exp(-d * x))) > D(eq2, "x") a * (b * (exp(-d * x) * d))/(1 + b