데이터 행렬의 차원 축소
관련된 내용
주성분 분석(Principal component analysis, PCA)은 데이터 행렬의 차원을 축소시키는 기법으로 그 행렬의 고유값과 고유벡터를 기준으로 새로운 변수 행렬을 생성합니다. 행렬 A에 대해 식 1을 만족하는 벡터 x와 스칼라 λ를 각각 고유벡터와 고유값이라고 합니다.
\begin{align}\tag{식 1}Ax &= λx\\ A,\, x,\, \lambda:&\;\text{행렬, 고유벡터, 고유값(스칼라)}\end{align}
식 1의 행렬 A와 벡터 x의 행렬곱은 행렬 A의 선형변환입니다. 즉, x는 행렬 A를 선형적으로 확대, 축소, 또는 회전하기 위한 벡터가 됩니다. 식의 우항인 벡터와 스칼라 곱은 벡터의 크기만 변환하며 방향은 유지 됩니다. 그러므로 식이 만족한다는 것은 행렬 A의 방향을 나타낼 수 있으며 그 방향을 유지하면서 행렬의 변환을 일으킬 수 있는 스칼라가 존재함을 나타냅니다. 이러한 벡터와 스칼라를 고유벡터(eigenvector), 고유값(eigenvalue)이라고 합니다.
- 고유벡터(eigenvector) : 벡터의 선형변환시 변하지 않는 방향을 나타내는 벡터로 그 변하지 않는 방향을 주축(principal axis)라고 합니다.
- 고유값(eigenvalue): 고유벡터의 크기를 결정하는 값
행렬의 고유값과 고유벡터는 numpy.linalg.eig() 함수로 확인할 수 있습니다.
import numpy as np
A=np.array([[3,2],[2,4]]) print(A)
[[3 2] [2 4]]
eval,evec=la.eig(A) print(evec.round(3))
[[-0.788 -0.615] [ 0.615 -0.788]]
print(eval.round(3))
[1.438 5.562]
두 객체의 값들을 비교하기 위해 numpy.allclose() 함수를 적용합니다.
np.allclose(A@evec[:,0], eval[0]*evec[:,0])
True
np.allclose(A@evec[:,1], eval[1]*evec[:,1])
True
그림 1은 위 행렬 A의 방향을 나타내는 고유벡터(x1, x2)와 고유값과의 연산에 의해 확장된 결과를 나타냅니다.
f=plt.figure(figsize=(3,2)) a1=plt.arrow(0, 0, evec[0,0], evec[1,0], color="b", head_width=0.1, lw=1) a2=plt.arrow(0, 0, eval[0]*evec[0,0], eval[0]*evec[1,0], color="g", alpha=0.6, ls="-.", lw=1, head_width=0.1) a3=plt.arrow(0, 0, evec[0,1], evec[1,1], color="r", head_width=0.1, lw=1) a4=plt.arrow(0, 0, eval[1]*evec[0,1], eval[1]*evec[1,1], color="brown", alpha=0.6, ls="-.",head_width=0.1, lw=1) cod=[(-0.5, 0.5), (-1.3, 0), (-0.5, -1),(-2, -3)] nme=[r"$x_1$", r"$\lambda_1x_1$", r"$x_2$", r"$\lambda_2x_2$"] col=["b", "g", "r","brown"] for i in range(4): plt.text(cod[i][0], cod[i][1], nme[i], color=col[i]) plt.show()
차원 n×n의 정방행렬 A는 식 1과 같이 그 행렬의 고유값과 고유벡터를 사용하여 n×1 차원의 벡터로 차원을 축소할 수 있습니다. 이 관계를 기반으로 데이터 행렬 X에 단위행렬 e의 내적을 고려해봅시다. 식 2는 표준화된 n×p 차원의 데이터 행렬(X)을 p×1 차원의 임의의 단위벡터(e)와의 내적(행렬곱)으로 변환된 객체의 공분산을 나타낸 것입니다(분산과 공분산 참조).
\begin{align}\text{Cov}(x)&=\frac{1}{n}(Xe)^2\\&=\frac{1}{n}(Xe)^T(Xe)\\&=\frac{1}{n}e^TX^TXe\\\tag{식 2}&=e^T\frac{X^TX}{n}e\\&=e^T\Sigma e\\ X:&\,\text{데이터 행렬}\\e:&\,\text{단위벡터}\\Σ:&\,\text{X의 공분산 행렬}\end{align}
식 2에서 e는 미지(unknown)의 단위 벡터입니다. 단위벡터이므로 이 객체의 크기는 1이 되는 조건을 가집니다. 이러한 제한된 조건에 객체의 최적화는 식 3과 같이 라그랑쥬 승수법을 사용합니다.
\begin{align}\vert{e}\vert^2 &=1\\ \tag{식 3} L&=e^T\Sigma e\lambda_l(\vert{e}\vert^2 -1)\\L:&\,\text{라그랑주 함수(새로운 함수)}\\ \lambda_l:&\,\text{라그랑수 승수}\end{align}
식 3은 단위행렬 e에 대해 2차식이므로 최적 조건 즉, e에 대한 극점은 "미분 = 0"인 지점이 됩니다. e에 대한 편미분이 0이 되는 조건은 식 4와 같습니다.
\begin{align}\frac{\partial L}{\partial e}&=2\Sigma e - 2\lambda_l e\\\tag{식 4} &=0\\\Leftrightarrow&\; \Sigma e = \lambda_l e \end{align}
식 4는 식 1과 같은 형태입니다. 즉, Σ는 데이터 X의 공분산 행렬이므로 e와 λ는 각각 Σ의 고유벡터와 고유값이 되므로 그 고유벡터에 의해 데이터 행렬을의 차원을 축소할 수 있습니다. 그 축소된 차원의 공분산 행렬은 식 5와 같이 변환된 데이터의 분산이 됩니다.
\begin{align}\text{Cov}(x)&=e^T\Sigma e\\\tag{식 5}&=e^T\lambda e\\&=\lambda e^Te \\ &=\text{Var}(Xe)\end{align}
댓글
댓글 쓰기