기본 콘텐츠로 건너뛰기

[ML] 결정트리(Decision Tree) 모델

[Linear Algebra] 노름(Norm)

노름(Norm)

벡터 노름 (Vector Norm)

식 1의 벡터 x는 원점에서 n개의 좌표로 지정된 지점($x_1, x_2, \cdots, x_n$)까지 같이 벡터들 사이에서 계산된 거리(D)를 계산한 것으로 norm(노름) 또는 유클리드 거리(Euclidean distance)라 하고 $\Vert{x}\Vert$로 나타냅니다.

\begin{align}x&=\begin{bmatrix}x_1\\x_2\\\vdots\\v_n \end{bmatrix}\\ \text{D}&=\sqrt{(x_1-0)^2+(x_2-0)^2+\cdots+(x_n-0)^2}\\ &=\sqrt{x^Tx} = \Vert {x} \Vert\\ \Leftarrow x^Tx&=\begin{bmatrix}x_1& x_2& \vdots& v_n \end{bmatrix}\begin{bmatrix}x_1\\x_2\\\vdots\\v_n \end{bmatrix}\\&= x_1^2+x_2^2+\cdots+x_n^2\end{align}(식 1)

식 1의 xTx는 벡터 x의 전치벡터와의 곱으로 벡터의 내적(inner product)입니다.

유클리드 놈은 때때로 $\Vert{x}\Vert_2$와 같이 아래첨자 2로 작성됩니다. 아래 첨자 2는 x의 요소들의 제곱의 합임을 의미합니다. 벡터의 유클리드 놈은 벡터의 크기(magnitude)를 의미하며 numpy.linalg 모듈의 norm() 함수로 계산할 수 있습니다.

import numpy as np
import numpy.linalg as la
x=np.array([2,-1,2])
x_norm=np.sqrt(sum(x**2));x_norm
3.0
la.norm(x)
3.0

유클리드 놈은 크기입니다. 이것은 스칼라의 크기 역시 식 1의 식으로 계산될 수 있으며 결과는 스칼라의 절대값과 같습니다. 벡터와 같은 배열의 노름을 표시하기 위해 이중 막대를 사용하는 것은 스칼라의 크기와 구분하기 위한 것입니다.

크기를 계산하기 위해 기준이 존재해야 하며 식 1은 제로벡터(zero vector)를 기준으로 한 것으로 시점과 종점이 명시된 경우 식 2와 같이 계산됩니다.

\begin{align}a&=\begin{bmatrix}a_1\\a_2\\a_3 \end{bmatrix},\; b= \begin{bmatrix}b_1\\b_2\\b_3 \end{bmatrix} \\ \Vert{\overrightarrow{ba}}\Vert &= \sqrt{(a_1-b-1)^2+(a_2-b_2)^2+(a_3-b_3)^2}\end{align}(식 2)

다음은 벡터 a의 놈을 계산한 것입니다. 이 벡터의 시점은 명시되지 않은 경우로 0 벡터([0, 0, 0])가 됩니다.

a=np.array([5, 3, 7])
print(a)
[5 3 7]
la.norm(a).round(2)
9.11

위 코드에서 사용한 .round() 메소드는 지정한 자릿수까지 반올림을 실행합니다.

np.sqrt((5-0)**2+(3-0)**2+(7-0)**2).round(2)
9.11
[노름(Norm)의 특성]

x, y는 벡터, β는 스칼라입니다.

  1. 스칼라 곱에의한 벡터의 놈: ‖βx‖ = |β|‖x‖
  2. 두 벡터의 합에 대한 유클리드 놈(Euclidean norm)
    • ‖x + y‖ ≤ ‖x‖+‖y‖(삼각부등식)
  3. ‖x‖ ≥ 0
  4. x = 0인 경우에만 ‖x‖ = 0

위 특성 1, 3, 그리고 4번은 쉽게 이해 될 수 있는 정의입니다. 특히 3과 4번의 특성은 양의 명확성(positive definitness)이라고 합니다. 2번째 특성의 경우는 삼각부등식이라고 합니다.

Norm of sum

두 벡터 x와 y 합의 노름은 식 3와 같습니다.

$$\Vert{x+y}\Vert=\sqrt{\Vert{x}\Vert^2+2x^Ty+\Vert{y}\Vert}^2$$(식 3)

식 3은 식 4와 같이 유도할 수 있습니다.

‖x + y‖2 = (x + y)T(x + y)(식 4)
= xTx + xTy + yTx +yTy
= ‖x‖2 + 2xTy + ‖y‖2

벡터는 1차원 객체이므로 두 벡터의 내적은 식 5와 같이 동일한 인덱스의 요소들의 곱의 합으로 xTy = yTx가 성립합니다.

\begin{align}x&=\begin{bmatrix} x_1\\x_2\end{bmatrix},\; y= \begin{bmatrix}y_1\\y_2 \end{bmatrix}\\ x^Ty&=\begin{bmatrix} x_1& x_2\end{bmatrix}\begin{bmatrix}y_1\\y_2 \end{bmatrix}=x_1y_1+x_2y_2 \\ yTx&=\begin{bmatrix}y_1& y_2 \end{bmatrix}\begin{bmatrix} x_1\\x_2\end{bmatrix}=x_1y_1+x_2y_2\end{align}(식 5)

Distance

두 벡터 a와 b의 유클리드 거리는 식 6와 같이 두 벡터 차이에 대한 유클리드 놈으로 정의할 수 있습니다.

dist(a, b) = ‖a - b‖(식 6)

다음 코드들은 벡터 u, v, 그리고 w의 사이의 거리를 numpy.linalg.norm() 함수를 사용하여 계산한 것입니다.

u=np.array([1.8, 2.0, -3.7, 4.7]).reshape(-1,1)
v=np.array([0.6, 2.1, 1.9, -1.4]).reshape(-1,1)
w=np.array([2.0, 1.9, -4.0, 4.6]).reshape(-1,1)
u_v=la.norm(u-v)
round(u_v, 3)
8.368
u_w=la.norm(u-w)
round(u_w, 3)
0.387
v_w=la.norm(v-w)
round(v_w, 3)
8.533

행렬노름(Matrix Norm)

행렬은 1개 이상의 행과 열로 구성된 배열이므로 두 벡터간의 거리를 사용하여 계산되는 벡터노름을 직접적으로 적용할 수 없습니다. 대신에 Ax=b가 성립되는 벡터 x와 그 행렬과의 행렬곱에 의한 결과로 행렬노름을 식 7과 같이 정의합니다.

$$\|A\|=\underset{x \neq 0}{\text{max}}\frac{\|Ax\|}{\|x\|} \Rightarrow \|Ax\| \leq \|A\|\|x\|$$(식 7)

식 Matrix Norm은 1차 노름이며 이를 일반화하기 위해 식 8과 같이 p-norm으로 나타냅니다.

$$\|A\|_p=\underset{x \neq 0}{\text{max}}\frac{\|Ax\|_p}{\|x\|_p} \Rightarrow \|Ax\|_p \leq \|A\|_p\|x\|_p$$(식 7)

행렬 노름 역시 la.norm(객체, ord, axis=None)로 계산할 수 있습니다. 인수 ord는 위 식 Matrix pNorm의 p를 나타내는 것으로서 다양한 옵션이 존재합니다.

a = np.array([[1, 0, -1], [0, 1, 0], [1, 0, 1]]);a
array([[ 1,  0, -1],
       [ 0,  1,  0],
       [ 1,  0,  1]])
la.norm(a, 'fro')
2.23606797749979
la.norm(a, axis=0)#축을 지정하면 각 벡터 노름이 계산
array([1.41421356, 1.        , 1.41421356])

댓글

이 블로그의 인기 게시물

[Linear Algebra] 유사변환(Similarity transformation)

유사변환(Similarity transformation) n×n 차원의 정방 행렬 A, B 그리고 가역 행렬 P 사이에 식 1의 관계가 성립하면 행렬 A와 B는 유사행렬(similarity matrix)이 되며 행렬 A를 가역행렬 P와 B로 분해하는 것을 유사 변환(similarity transformation) 이라고 합니다. $$\tag{1} A = PBP^{-1} \Leftrightarrow P^{-1}AP = B $$ 식 2는 식 1의 양변에 B의 고유값을 고려한 것입니다. \begin{align}\tag{식 2} B - \lambda I &= P^{-1}AP – \lambda P^{-1}P\\ &= P^{-1}(AP – \lambda P)\\ &= P^{-1}(A - \lambda I)P \end{align} 식 2의 행렬식은 식 3과 같이 정리됩니다. \begin{align} &\begin{aligned}\textsf{det}(B - \lambda I ) & = \textsf{det}(P^{-1}(AP – \lambda P))\\ &= \textsf{det}(P^{-1}) \textsf{det}((A – \lambda I)) \textsf{det}(P)\\ &= \textsf{det}(P^{-1}) \textsf{det}(P) \textsf{det}((A – \lambda I))\\ &= \textsf{det}(A – \lambda I)\end{aligned}\\ &\begin{aligned}\because \; \textsf{det}(P^{-1}) \textsf{det}(P) &= \textsf{det}(P^{-1}P)\\ &= \textsf{det}(I)\end{aligned}\end{align} 유사행렬의 특성 유사행렬인 두 정방행렬 A와 B는 'A ~ B' 와 같

[matplotlib] 히스토그램(Histogram)

히스토그램(Histogram) 히스토그램은 확률분포의 그래픽적인 표현이며 막대그래프의 종류입니다. 이 그래프가 확률분포와 관계가 있으므로 통계적 요소를 나타내기 위해 많이 사용됩니다. plt.hist(X, bins=10)함수를 사용합니다. x=np.random.randn(1000) plt.hist(x, 10) plt.show() 위 그래프의 y축은 각 구간에 해당하는 갯수이다. 빈도수 대신 확률밀도를 나타내기 위해서는 위 함수의 매개변수 normed=True로 조정하여 나타낼 수 있다. 또한 매개변수 bins의 인수를 숫자로 전달할 수 있지만 리스트 객체로 지정할 수 있다. 막대그래프의 경우와 마찬가지로 각 막대의 폭은 매개변수 width에 의해 조정된다. y=np.linspace(min(x)-1, max(x)+1, 10) y array([-4.48810153, -3.54351935, -2.59893717, -1.65435499, -0.70977282, 0.23480936, 1.17939154, 2.12397372, 3.0685559 , 4.01313807]) plt.hist(x, y, normed=True) plt.show()

R 미분과 적분

내용 expression 미분 2차 미분 mosaic를 사용한 미분 적분 미분과 적분 R에서의 미분과 적분 함수는 expression()함수에 의해 생성된 표현식을 대상으로 합니다. expression expression(문자, 또는 식) 이 표현식의 평가는 eval() 함수에 의해 실행됩니다. > ex1<-expression(1+0:9) > ex1 expression(1 + 0:9) > eval(ex1) [1] 1 2 3 4 5 6 7 8 9 10 > ex2<-expression(u, 2, u+0:9) > ex2 expression(u, 2, u + 0:9) > ex2[1] expression(u) > ex2[2] expression(2) > ex2[3] expression(u + 0:9) > u<-0.9 > eval(ex2[3]) [1] 0.9 1.9 2.9 3.9 4.9 5.9 6.9 7.9 8.9 9.9 미분 D(표현식, 미분 변수) 함수로 미분을 실행합니다. 이 함수의 표현식은 expression() 함수로 생성된 객체이며 미분 변수는 다음 식의 분모의 변수를 의미합니다. $$\frac{d}{d \text{변수}}\text{표현식}$$ 이 함수는 어떤 함수의 미분의 결과를 표현식으로 반환합니다. > D(expression(2*x^3), "x") 2 * (3 * x^2) > eq<-expression(log(x)) > eq expression(log(x)) > D(eq, "x") 1/x > eq2<-expression(a/(1+b*exp(-d*x))); eq2 expression(a/(1 + b * exp(-d * x))) > D(eq2, "x") a * (b * (exp(-d * x) * d))/(1 + b