기본 콘텐츠로 건너뛰기

pandas_ta를 적용한 통계적 인덱스 지표

[data analysis] 정규화(Normalization)

Data의 정규화(Normalization)

개요

각 샘플들이 단위 벡터가 되도록 하는 스케일 과정입니다. 즉, 행과 열로 이루어진 데이터 구조에서 표준화가 각 열 단위로 스케일을 조정(각 변수별 조정)한다면 정규화는 동일한 행에 위치한 데이터들의 스케일을 조정합니다(샘플별 조정).

sklearn.preprocessing.normalizer(x, norm='l2') 함수를 사용합니다. 이 함수의 매개변수 norm의 인자로 'l2'이면 L2정규화, 'l1'이면 L1정규화를 실행합니다.

sklearn.preprocession.Normalizer(norm="l2")
  • 데이터의 각 샘플이 단위벡터가 되도록 변환
  • 인수 norm에 l1, l2 또는 max
    • norm = "l1" → L1 정규화, x/(∑|x|)
    • norm = "l2" → L2 정규화, x/(∑x2)0.5
    • norm = "max" → x/(max|x|)
    • 기본값은 l2

L1 Normalization

각 행에서 절대 값의 합이 항상 1이되는 방식으로 데이터 세트 값을 수정하는 방법으로 최소 절대 편차라고도합니다(식 1).

$$\begin{align} \text{벡터}\qquad \qquad& \qquad \qquad \text{L}_1\; \text{정규화에 의한 벡터}\\ \begin{matrix} x_{11}&x_{12}& \cdots &x_{1p}\\ x_{21}&x_{22}& \cdots &x_{2p}\\ \vdots&\vdots& \ddots &\vdots\\ x_{n1}&x_{n2}& \cdots &x_{np}\\ \end{matrix} &\Rightarrow \begin{matrix} \frac{x_{11}}{\sum^p_{i=1}x_{1i}}&\frac{x_{12}}{\sum^p_{i=1}x_{1i} }& \cdots &\frac{x_{1p}}{ \sum^p_{i=1}x_{1i}}\\ \frac{x_{21}}{\sum^p_{i=1}x_{2i} }&\frac{x_{22}}{ \sum^p_{i=1}x_{2i}}& \cdots &\frac{x_{2p}}{\sum^p_{i=1}x_{2i} }\\ \vdots&\vdots& \ddots &\vdots\\ \frac{x_{n1}}{\sum^p_{i=1}x_{ni} }&\frac{x_{n2}}{\sum^p_{i=1}x_{ni} }& \cdots &\frac{x_{np}}{\sum^p_{i=1}x_{ni} }\\ \end{matrix} \end{align}$$ (식 1)
import numpy as np 
from sklearn import preprocessing
np.random.seed(1)
x=np.random.randint(-100, 100, size=(5,3))
print(x)
[[-63  40 -28]
 [ 37  33 -21]
 [ 92  44  29]
 [-29  34 -75]
 [ 78 -80   1]]
xNorm1=preprocessing.normalize(x, norm='l1')
print(np.around(xNorm1, 3))
[[-0.481  0.305 -0.214]
 [ 0.407  0.363 -0.231]
 [ 0.558  0.267  0.176]
 [-0.21   0.246 -0.543]
 [ 0.491 -0.503  0.006]]
print(np.sum(np.abs(xNorm1), axis=1))
[1. 1. 1. 1. 1.]
xNorm12=x/np.sum(np.abs(x), axis=1).reshape(-1,1) #By 식 1
print(np.around(xNorm12, 3))
[[-0.481  0.305 -0.214]
 [ 0.407  0.363 -0.231]
 [ 0.558  0.267  0.176]
 [-0.21   0.246 -0.543]
 [ 0.491 -0.503  0.006]]

L2 Normalization

식 2와 같이 각 행의 제곱합의 제곱근이 항상 1이 되는 방식으로 데이터를 수정합니다.

\begin{align} \text{벡터}\qquad \qquad& \qquad \qquad \text{L}_2\; \text{정규화에 의한 벡터}\\ \begin{matrix} x_{11}&x_{12}& \cdots &x_{1p}\\ x_{21}&x_{22}& \cdots &x_{2p}\\ \vdots&\vdots& \ddots &\vdots\\ x_{n1}&x_{n2}& \cdots &x_{np}\\ \end{matrix} &\Rightarrow \begin{matrix} \frac{x_{11}}{\sqrt{\sum^p_{i=1}x^2_{1i}}}&\frac{x_{12}}{\sqrt{\sum^p_{i=1}x^2_{1i}} }& \cdots &\frac{x_{1p}}{ \sqrt{\sum^p_{i=1}x^2_{1i}}}\\ \frac{x_{21}}{\sqrt{\sum^p_{i=1}x^2_{2i}} }&\frac{x_{22}}{ \sqrt{\sum^p_{i=1}x^2_{2i}}}& \cdots &\frac{x_{2p}}{\sqrt{\sum^p_{i=1}x^2_{2i}} }\\ \vdots&\vdots& \ddots &\vdots\\ \frac{x_{n1}}{\sqrt{\sum^p_{i=1}x^2_{ni}} }&\frac{x_{n2}}{\sqrt{\sum^p_{i=1}x^2_{ni}} }& \cdots &\frac{x_{np}}{\sqrt{\sum^p_{i=1}x^2_{ni}} }\\ \end{matrix} \end{align} (식 2)
xNorm2=preprocessing.normalize(x, norm='l2')
print(np.around(xNorm2, 3))
[[-0.79   0.502 -0.351]
 [ 0.687  0.613 -0.39 ]
 [ 0.868  0.415  0.274]
 [-0.332  0.389 -0.859]
 [ 0.698 -0.716  0.009]]
xNorm22=x/np.sqrt(np.sum(x**2, axis=1)).reshape(-1,1)
print(np.around(xNorm22, 3))
[[-0.79   0.502 -0.351]
 [ 0.687  0.613 -0.39 ]
 [ 0.868  0.415  0.274]
 [-0.332  0.389 -0.859]
 [ 0.698 -0.716  0.009]]

댓글

이 블로그의 인기 게시물

[Linear Algebra] 유사변환(Similarity transformation)

유사변환(Similarity transformation) n×n 차원의 정방 행렬 A, B 그리고 가역 행렬 P 사이에 식 1의 관계가 성립하면 행렬 A와 B는 유사행렬(similarity matrix)이 되며 행렬 A를 가역행렬 P와 B로 분해하는 것을 유사 변환(similarity transformation) 이라고 합니다. $$\tag{1} A = PBP^{-1} \Leftrightarrow P^{-1}AP = B $$ 식 2는 식 1의 양변에 B의 고유값을 고려한 것입니다. \begin{align}\tag{식 2} B - \lambda I &= P^{-1}AP – \lambda P^{-1}P\\ &= P^{-1}(AP – \lambda P)\\ &= P^{-1}(A - \lambda I)P \end{align} 식 2의 행렬식은 식 3과 같이 정리됩니다. \begin{align} &\begin{aligned}\textsf{det}(B - \lambda I ) & = \textsf{det}(P^{-1}(AP – \lambda P))\\ &= \textsf{det}(P^{-1}) \textsf{det}((A – \lambda I)) \textsf{det}(P)\\ &= \textsf{det}(P^{-1}) \textsf{det}(P) \textsf{det}((A – \lambda I))\\ &= \textsf{det}(A – \lambda I)\end{aligned}\\ &\begin{aligned}\because \; \textsf{det}(P^{-1}) \textsf{det}(P) &= \textsf{det}(P^{-1}P)\\ &= \textsf{det}(I)\end{aligned}\end{align} 유사행렬의 특성 유사행렬인 두 정방행렬 A와 B는 'A ~ B' 와 같...

유리함수 그래프와 점근선 그리기

내용 유리함수(Rational Function) 점근선(asymptote) 유리함수 그래프와 점근선 그리기 유리함수(Rational Function) 유리함수는 분수형태의 함수를 의미합니다. 예를들어 다음 함수는 분수형태의 유리함수입니다. $$f(x)=\frac{x^{2} - 1}{x^{2} + x - 6}$$ 분수의 경우 분모가 0인 경우 정의할 수 없습니다. 이와 마찬가지로 유리함수 f(x)의 정의역은 분모가 0이 아닌 부분이어야 합니다. 그러므로 위함수의 정의역은 분모가 0인 부분을 제외한 부분들로 구성됩니다. sympt=solve(denom(f), a); asympt [-3, 2] $$-\infty \lt x \lt -3, \quad -3 \lt x \lt 2, \quad 2 \lt x \lt \infty$$ 이 정의역을 고려해 그래프를 작성을 위한 사용자 정의함수는 다음과 같습니다. def validX(x, f, symbol): ① a=[] b=[] for i in x: try: b.append(float(f.subs(symbol, i))) a.append(i) except: pass return(a, b) #x는 임의로 지정한 정의역으로 불연속선점을 기준으로 구분된 몇개의 구간으로 전달할 수 있습니다. #그러므로 인수 x는 2차원이어야 합니다. def RationalPlot(x, f, sym, dp=100): fig, ax=plt.subplots(dpi=dp) # ② for k in x: #③ x4, y4=validX(k, f, sym) ax.plot(x4, y4) ax.spines['left'].set_position(('data', 0)) ax.spines['right...

부분분수의 미분

내용 방법 1 방법 2 방법 3 부분분수의 미분 분수의 미분은 일정한 공식 을 적용하여 계산할 수 있습니다. 그러나 분수 자체가 단순한 표현으로 이루어지지 않았다면 미분 과정이나 결과는 매우 복잡할 수 있습니다. 만약 복잡한 분수 함수를 간단한 분수들로 분해할 수 있다면 계산이 보다 간편해질 것입니다. 이와 같이 분해된 간단한 분수들을 부분분수 라고 합니다. 예를 들어 다음 두 분수의 합을 계산해 봅니다. $$\begin{align} \frac{1}{x+1}+\frac{2}{x-1}&=\frac{x-1+2(x+1)}{(x+1)(x-1)}\\ &=\frac{3x+1}{x^2-1} \end{align}$$ 위 과정은 3개 이상의 여러 분수에서도 이루어질 수 있습니다. 또한 역으로 진행될 수 있습니다. 즉, 분수를 부분 분수로 분할할 수 있습니다. 그러나 이러한 과정은 대수분수 (분자의 가장 큰 차수가 분모의 최고의 차수보다 작은 분수)에서만 이루어질 수 있습니다. 예를 들어 $\displaystyle \frac {x^2+2}{x^2-1}$의 경우는 분자와 분모의 차수는 2차로 같습니다. 이러한 경우 다음과 같이 분리할 수 있습니다. $$\frac{x^2+2}{x^2-1}=1+\frac{3}{x^2-1}$$ 위의 식 중 $\displaystyle \frac{3}{x^2-1}$은 분자의 차수가 분모의 차수 보다 낮은 대수 분수이므로 부분 분수로 분리할 수 있습니다. 이와같이 부분 분수로 분해하는 방법은 다음과 같이 몇 가지로 구분할 수 있습니다. 방법 1 위 예의 결과 $\displaystyle \frac{3x+1}{x^2-1}$의 경우를 역으로 생각해 봅니다. 분모의 인수분해가 가능하면 그 분모의 인수에 의해 다음과 같이 분해할 수 있습니다. $$\begin{align} \frac{3x+1}{x^2-1}&=\frac{3x+1}{(x+1)(x-1)}\\ &=\frac{A}{x+1...