기본 콘텐츠로 건너뛰기

[ML] 결정트리(Decision Tree) 모델

텐서연산: dot operation

내용

텐서 연산(Tensor Operation)

텐서 연산

모든 컴퓨터 프로그램이 입력된 데이터를 이진수로 변환시켜 AND , OR , NOR 등의 이진 연산 과정을 거치는 것과 같이 신경망에서 학습한 모든 변환은 텐서에 적용된 소수의 텐서 연산이 실행 될 수 있습니다. 숫자 데이터의 예를 들어 텐서를 추가하거나 텐서를 곱하는 등의 작업이 가능합니다.

모델을 생성하기 위해 먼저 층(layer)을 구축합니다. tensorflow.keras의 모듈을 적용하여 층을 구축하는 대표적 방법은 다음과 같습니다.

tf.keras.layers.Ddense(512, activation="relu")

이 층은 2D 텐서를 입력받아 2D를 반환합니다. 이 층에서 수행되는 함수는 다음과 같습니다.

output=relu(dot(W, input)+b)

요소별 연산

입력 데이터 input과 가중치 W의 내적에 다른 벡터 b 사이의 덧셈 연산이 이루어지며 최종적으로 relu 연산 즉, 최대값을 반환하는 max(x, 0) 연산을 수행합니다.

위 연산에서 덧셈과 relu() 연산은 요소별 연산(Element-wise operation) 입니다. 즉, 고려 중인 텐서의 각 요소에 독립적으로 적용되는 연산입니다. 그러므로 대규모 병렬 구현에 매우 적합합니다.

임의의 두 배열 객체의 덧셈과 relu()함수의 연산은 다음과 같이 요소별로 이루어집니다.

import tensorflow as tf
from tensorflow import keras
import numpy as np
import pandas as pd
from scipy import stats
from sklearn import preprocessing
import matplotlib.pyplot as plt
x=np.array([[2, -6, 3],[6, 8, 7]])
y=np.array([[5, 1, 5],[8, -9, -9]])
z=np.zeros((2,3))
for i in range(z.shape[0]):
    for j in range(z.shape[1]):
        z[i, j]=x[i, j]+y[i, j]
z
array([[ 7., -5.,  8.],
           [14., -1., -2.]])
x+y
array([[ 7, -5,  8],
           [14, -1, -2]])

최대값을 반환하는 relu()연산 역시 작동 형태는 다음과 같이 요소별 연산입니다.

k=np.zeros((2,3))
for i in range(z.shape[0]):
    for j in range(z.shape[1]):
        k[i, j]=max(z[i, j], 0)
k
array([[ 7.,  0.,  8.],
           [14.,  0.,  0.]])

같은 원리로 요소별 곱셈, 뺄셈 등을 수행할 수 있습니다. 실제로 Numpy 배열을 처리할 때 이러한 작업은 잘 최적화된 내장 Numpy 함수로 사용할 수 있습니다.

x=np.array([[2, -6, 3],[6, 8, 7]])
y=np.array([[5, 1, 5],[8, -9, -9]])
z=x+y
z
array([[ 7, -5,  8],
           [14, -1, -2]])
np.zeros_like(z)
array([[0, 0, 0],
           [0, 0, 0]])
zero=np.zeros_like(z)
z1=np.fmax(z, zero)
z1
array([[ 7,  0,  8],
           [14,  0,  0]])

Tensor dot

텐서 곱이라고도 하는 dot operation(요소별 곱과 혼동하지 말 것)은 두 1D 텐서(벡터)들 사이의 내적(inner product)를 나타냅니다. 즉, 두 벡터가 겹쳐질 경우의 크기를 나타내는 것으로 식 1과 같이 계산됩니다.

$$\begin{align}\tag{1}&a=\begin{bmatrix}a_1&a_2\end{bmatrix}\\&b=\begin{bmatrix}b_1\\b_2\end{bmatrix}\\ & a\cdot b=a_1b_1+a_2b_2 \end{align}$$

요소별 연산과 달리 입력 텐서의 항목을 결합합니다. 요소별 곱은 Numpy, Keras, Theano 및 TensorFlow에서 * 연산자로 수행됩니다. dot operation은 TensorFlow의 tf.matmul() 함수를 사용하여 계산할 수 있습니다.

내적 계산은 위와 같이 앞 벡터의 행방향과 뒤 벡터의 열방향으로 벡터간의 곱으로 나타낼 수 있습니다. 이와 같은 방식을 2D 텐서(행렬)에 적용할 수 있습니다. 앞 객체의 행과 뒤 객체의 열의 사이에서 연산이 이루어집니다. 그러므로 앞 객체 열의 수와 뒤 객체 행의 수가 같아야 합니다. 행렬곱 연산의 각 객체 차원은 다음과 같습니다.

(r1 × c1) · (r2 × c2) = (r1× c2)
  • c1 = r2 이 조건은 충족되어야 합니다.
  • r1, r2 : 행렬 1과 2의 행의 수
  • c1, c2 : 행렬 1과 2의 열의 수
x=np.array([[2, -6, 3],[6, 8, 7]])
y=np.array([[5, 1, 5],[8, -9, -9]])
np.dot(x, y.T)
array([[ 19,  43],
           [ 73, -87]])
xten=tf.constant(x)
yten=tf.constant(y)
tf.matmul(xten, tf.transpose(yten))
<tf.Tensor: shape=(2, 2), dtype=int64, numpy=
    array([[ 19,  43],
           [ 73, -87]])>

위 코드에서 x, y는 동일한 형태를 가진 2차원 텐서(행렬)입니다. 이들의 내적 연산(dot operation)을 위해서는 한 객체의 전치가 필요합니다. tensorflow에서는 tf.transpose() 함수를 사용하여 전치 시킬 수 있습니다.

텐서 연산의 기하학적 해석

텐서 연산으로 조작된 텐서의 내용은 일부 기하학적 공간에서 점의 좌표로 해석될 수 있기 때문에 모든 텐서 연산에는 기하학적 해석이 가능합니다. 예를 들어 덧셈을 생각해 봅시다. A는 2D 공간의 한 점입니다. 다음 그림과 같이 원점과 점을 연결하는 화살표로 그리는 것이 일반적입니다.

A=[0.5, 1]
plt.figure(dpi=100)
plt.scatter(A[0], A[1], color='red',label="(0.5, 1)")
plt.arrow(0, 0, A[0], A[1], width=0.003, label=r"$\vec{A}$")
plt.legend(loc="best")
plt.show()

점 A에 추가할 새 점 B = [1, 0.25] 를 고려하여 각 대응하는 화살표를 연결하면 다음과 같이 기하학적 도형이 되며 그 정점은 두 벡터의 합을 나타내는 벡터가 됩니다.

A=np.array([0.5, 1])
B=np.array([1, 0.25])
C=np.array(A+B)
x=np.c_[A, B, C].T
x
array([[0.5 , 1.  ],
           [1.  , 0.25],
           [1.5 , 1.25]])
plt.figure(dpi=100)
col=["red","blue","green"]
for i,j in zip(x, col):
    plt.scatter(i[0], i[1], s=100, color=j, label=f"({i[0]},{i[1]})")
    plt.arrow(0, 0, i[0], i[1], width=0.007)
plt.arrow(x[0,0], x[0,1], 1, 0.25, width=0.007, alpha=0.5)
plt.arrow(x[1,0], x[1,1], 0.5, 1, width=0.007, alpha=0.5)
plt.legend(loc="upper left")
plt.show()

일반적으로 아핀 변환, 회전, 스케일링 등과 같은 기본 기하학적 연산은 텐서 연산으로 표현할 수 있습니다. 예를 들어, 각도 θ 만큼 2D 벡터의 회전은 평면의 벡터인 u = [cos(θ), sin(θ)] 및 v = [-sin(θ), cos(θ)]로 구성된 2 × 2 행렬 R = [u, v]의 내적을 통해 달성할 수 있습니다.

댓글

이 블로그의 인기 게시물

[Linear Algebra] 유사변환(Similarity transformation)

유사변환(Similarity transformation) n×n 차원의 정방 행렬 A, B 그리고 가역 행렬 P 사이에 식 1의 관계가 성립하면 행렬 A와 B는 유사행렬(similarity matrix)이 되며 행렬 A를 가역행렬 P와 B로 분해하는 것을 유사 변환(similarity transformation) 이라고 합니다. $$\tag{1} A = PBP^{-1} \Leftrightarrow P^{-1}AP = B $$ 식 2는 식 1의 양변에 B의 고유값을 고려한 것입니다. \begin{align}\tag{식 2} B - \lambda I &= P^{-1}AP – \lambda P^{-1}P\\ &= P^{-1}(AP – \lambda P)\\ &= P^{-1}(A - \lambda I)P \end{align} 식 2의 행렬식은 식 3과 같이 정리됩니다. \begin{align} &\begin{aligned}\textsf{det}(B - \lambda I ) & = \textsf{det}(P^{-1}(AP – \lambda P))\\ &= \textsf{det}(P^{-1}) \textsf{det}((A – \lambda I)) \textsf{det}(P)\\ &= \textsf{det}(P^{-1}) \textsf{det}(P) \textsf{det}((A – \lambda I))\\ &= \textsf{det}(A – \lambda I)\end{aligned}\\ &\begin{aligned}\because \; \textsf{det}(P^{-1}) \textsf{det}(P) &= \textsf{det}(P^{-1}P)\\ &= \textsf{det}(I)\end{aligned}\end{align} 유사행렬의 특성 유사행렬인 두 정방행렬 A와 B는 'A ~ B' 와 같

[matplotlib] 히스토그램(Histogram)

히스토그램(Histogram) 히스토그램은 확률분포의 그래픽적인 표현이며 막대그래프의 종류입니다. 이 그래프가 확률분포와 관계가 있으므로 통계적 요소를 나타내기 위해 많이 사용됩니다. plt.hist(X, bins=10)함수를 사용합니다. x=np.random.randn(1000) plt.hist(x, 10) plt.show() 위 그래프의 y축은 각 구간에 해당하는 갯수이다. 빈도수 대신 확률밀도를 나타내기 위해서는 위 함수의 매개변수 normed=True로 조정하여 나타낼 수 있다. 또한 매개변수 bins의 인수를 숫자로 전달할 수 있지만 리스트 객체로 지정할 수 있다. 막대그래프의 경우와 마찬가지로 각 막대의 폭은 매개변수 width에 의해 조정된다. y=np.linspace(min(x)-1, max(x)+1, 10) y array([-4.48810153, -3.54351935, -2.59893717, -1.65435499, -0.70977282, 0.23480936, 1.17939154, 2.12397372, 3.0685559 , 4.01313807]) plt.hist(x, y, normed=True) plt.show()

R 미분과 적분

내용 expression 미분 2차 미분 mosaic를 사용한 미분 적분 미분과 적분 R에서의 미분과 적분 함수는 expression()함수에 의해 생성된 표현식을 대상으로 합니다. expression expression(문자, 또는 식) 이 표현식의 평가는 eval() 함수에 의해 실행됩니다. > ex1<-expression(1+0:9) > ex1 expression(1 + 0:9) > eval(ex1) [1] 1 2 3 4 5 6 7 8 9 10 > ex2<-expression(u, 2, u+0:9) > ex2 expression(u, 2, u + 0:9) > ex2[1] expression(u) > ex2[2] expression(2) > ex2[3] expression(u + 0:9) > u<-0.9 > eval(ex2[3]) [1] 0.9 1.9 2.9 3.9 4.9 5.9 6.9 7.9 8.9 9.9 미분 D(표현식, 미분 변수) 함수로 미분을 실행합니다. 이 함수의 표현식은 expression() 함수로 생성된 객체이며 미분 변수는 다음 식의 분모의 변수를 의미합니다. $$\frac{d}{d \text{변수}}\text{표현식}$$ 이 함수는 어떤 함수의 미분의 결과를 표현식으로 반환합니다. > D(expression(2*x^3), "x") 2 * (3 * x^2) > eq<-expression(log(x)) > eq expression(log(x)) > D(eq, "x") 1/x > eq2<-expression(a/(1+b*exp(-d*x))); eq2 expression(a/(1 + b * exp(-d * x))) > D(eq2, "x") a * (b * (exp(-d * x) * d))/(1 + b