기본 콘텐츠로 건너뛰기

벡터와 행렬에 관련된 그림들

support vector machine_intro

SVM

hyperplane(초평면) : 유한차원 공간에서 원 차원으로 부터 한 차원 낮은 부분공간을 의미합니다. 예를들면 3차원 공간 속 평면 공간을 의미합니다.
부분 벡터 공간 $N \subset V$ 에서 N을 V의 벡터 초평면(hyperplane)이라고 합니다.

서포트벡터머신(svm)은 기계학습 분야의 하나로 대표적인 지도학습의 분야 중 하나 입니다. 주로 분류(classification)과 회귀분석에 사용됩니다.

장점;
 - 고차원 공간에서 효율적
 - 샘플 수보다 큰 차원에서 효율적
 - 결정함수(decision function, support vector)내에서 훈련  데이터들의 부분들을 이용(memory effect)
 - 결정함수를 특정하기 위해 다른 커널 함수(kernel functions)들을 사용할 수 있습니다. 일반적인 커널 함수가 제공하되지만 사용자가 생성할 수 있습니다.

단점;
 - 샘플의 수 > 변수의 수 --> 특정한 커널 함수를 선택하는 것으로 과적합을 피하여야 합니다. 그리고 데이터들의 정규화가 중요합니다.
 - SVMs은 직접적으로 확률적 추정을 제공하지 않기 때문에 expensive five-fold cross-validation을 이용하여 계산합니다.

scikit-learn내에 svm은 입력 데이터로 dense와 sparse sample vectors 형식을 지원합니다.
dense : numpy.ndarray 와 numpy.asarray에 의해 이 형식으로 변환할 수 있습니다.
sparse : scipy.sparse

분류

선형적으로 분리할 수 있는 데이터는 데이터의 원소들을 구별할 수 있는 무한히 많은 결정경계를 만들수 있습니다. 그러나 직관적의 어떠한 경계는 다른 것들보다 좀 더 명확한 경계선을 보일 것입니다.


위 그림은 원과 사각형의 점들을 구별하기 위해 3개의 선을 보인 것으로 선 1, 2, 3 중에 어떤 선을 선택해야 하는가를 찾는 것이 svm의 목적입니다.

이 질문의 답은 maximum margin hyperplane을 찾는 것과 관련있습니다. 즉, 두 클래스 간으 가장 명확한 분리선을 찾는 것입니다. 비록 위의 3선이 사각형과 원을 명확히 구별하지만  새로운 점들이 첨가된다면 가장 명확한 구분선을 보일 가능성을 가진 선 즉, 위의 구분을 일반화 할수 있는 선을 찾아야 합니다.

support vector는 각 클래스에서  MMH에 가장 가까운  점들 입니다. 각 클래스에서 최소 하나 이상의 서포트 벡터를 가져야 합니다. 이 서포트 벡터들을 사용하여 MMH를 정의하는 것은 가능합니다. 이것이 SVM의 핵심입니다. 이 서포트 벡터는 변수(feature)의 수가 매우 많을 경우라 할 지라도 분류 모형을 저장하기위한 매우 압축적인 방법을 제공합니다.


서포트 벡터를 인지하기 위한 알고리즘은 벡터들의 기하학에 의존하며 꽤 복잡한 수학과 관련됩니다.

클래스들이 선형적으로 분리될 수 있다는 가정하에 최대 마진을 발견하기 위한 방법을 이해하는 것은 어렵지 않습니다.

초평면의 인식 

다음 그림에서 초평면 a, b, c가 있다고 하면 빨간부분과 파란 부분을 나누는 올바른 초평면을 결정 하여야 합니다. 아래의 그림에서는 초평면  a 와 b가 적절해 보입니다.

다음의 경우는 어떨까요? 초평면 a, b, c 모두 붉은부분과 파란 부분을 완벽하게 구분합니다. 이 세 초평면 중에 올바른 부분을 선택하기 위해 각 부분에서 초평면으로 부터 가장 가까운 원소(support vector)와 초평면 까지의 거리를 margin(마진)이라고 하며 아래 그림에서 검은색, 주황색 선으로 표시하였습니다. 


위 그림으로 부터 초평면 b를 기준으로 support vector와의 가장 긴 마진을 가집니다. 즉, 각 support vector로 부터 긴 거리의 평면으로 결정하는 것이 두 부분의 잘못된 분류를 최소시킬 수 있습니다. 
다음 그림은 초평면 A와 비교하여 초평면 B에서 긴 마진을 가집니다. 그러나 이 경우는 파란색 부분이 붉은 색 부분으로 분류되는 에러를 발생합니다. 그러므로 초평면 A를 선택합니다.  
다음은 파란 부분 하나가 빨간 부분 내에 포함되어 있기 때문에 직선으로 이 두 부분을 완벽하게 구분할 수 없습니다. 이런 경우 빨간 부분내에 있는 파란것은 이상치(outlier)로 고려됩니다.

다음의 경우 역시 직선으로 두 부분을 구분할 수 없습니다. 이 부분을 선형으로 구별하기 위해서는 좌표에 조정 즉, 대수적 변환에 의해 이루어 질 수도 있습니다. 예를들어 z=x^2+y^2와 같이 변환하여 분류가 가능한지를 확인해야 합니다. 

이러한 변환을 수동으로 찾는 것은 어렵습니다. SVM에서는 kernel function(커널 함수)의 도움으로 이러한 작업을 실행합니다. 이 함수들은 각 그룹의 분류를 위해 저차원의 입력공간을 보다 높은 차원으로 변형시킵니다. 

댓글

이 블로그의 인기 게시물

[Linear Algebra] 유사변환(Similarity transformation)

유사변환(Similarity transformation) n×n 차원의 정방 행렬 A, B 그리고 가역 행렬 P 사이에 식 1의 관계가 성립하면 행렬 A와 B는 유사행렬(similarity matrix)이 되며 행렬 A를 가역행렬 P와 B로 분해하는 것을 유사 변환(similarity transformation) 이라고 합니다. $$\tag{1} A = PBP^{-1} \Leftrightarrow P^{-1}AP = B $$ 식 2는 식 1의 양변에 B의 고유값을 고려한 것입니다. \begin{align}\tag{식 2} B - \lambda I &= P^{-1}AP – \lambda P^{-1}P\\ &= P^{-1}(AP – \lambda P)\\ &= P^{-1}(A - \lambda I)P \end{align} 식 2의 행렬식은 식 3과 같이 정리됩니다. \begin{align} &\begin{aligned}\textsf{det}(B - \lambda I ) & = \textsf{det}(P^{-1}(AP – \lambda P))\\ &= \textsf{det}(P^{-1}) \textsf{det}((A – \lambda I)) \textsf{det}(P)\\ &= \textsf{det}(P^{-1}) \textsf{det}(P) \textsf{det}((A – \lambda I))\\ &= \textsf{det}(A – \lambda I)\end{aligned}\\ &\begin{aligned}\because \; \textsf{det}(P^{-1}) \textsf{det}(P) &= \textsf{det}(P^{-1}P)\\ &= \textsf{det}(I)\end{aligned}\end{align} 유사행렬의 특성 유사행렬인 두 정방행렬 A와 B는 'A ~ B' 와 같...

[sympy] Sympy객체의 표현을 위한 함수들

Sympy객체의 표현을 위한 함수들 General simplify(x): 식 x(sympy 객체)를 간단히 정리 합니다. import numpy as np from sympy import * x=symbols("x") a=sin(x)**2+cos(x)**2 a $\sin^{2}{\left(x \right)} + \cos^{2}{\left(x \right)}$ simplify(a) 1 simplify(b) $\frac{x^{3} + x^{2} - x - 1}{x^{2} + 2 x + 1}$ simplify(b) x - 1 c=gamma(x)/gamma(x-2) c $\frac{\Gamma\left(x\right)}{\Gamma\left(x - 2\right)}$ simplify(c) $\displaystyle \left(x - 2\right) \left(x - 1\right)$ 위의 예들 중 객체 c의 감마함수(gamma(x))는 확률분포 등 여러 부분에서 사용되는 표현식으로 다음과 같이 정의 됩니다. 감마함수는 음이 아닌 정수를 제외한 모든 수에서 정의됩니다. 식 1과 같이 자연수에서 감마함수는 factorial(!), 부동소수(양의 실수)인 경우 적분을 적용하여 계산합니다. $$\tag{식 1}\Gamma(n) =\begin{cases}(n-1)!& n:\text{자연수}\\\int^\infty_0x^{n-1}e^{-x}\,dx& n:\text{부동소수}\end{cases}$$ x=symbols('x') gamma(x).subs(x,4) $\displaystyle 6$ factorial 계산은 math.factorial() 함수를 사용할 수 있습니다. import math math.factorial(3) 6 a=gamma(x).subs(x,4.5) a.evalf(3) 11.6 simpilfy() 함수의 알고리즘은 식에서 공통사항을 찾아 정리하...

sympy.solvers로 방정식해 구하기

sympy.solvers로 방정식해 구하기 대수 방정식을 해를 계산하기 위해 다음 함수를 사용합니다. sympy.solvers.solve(f, *symbols, **flags) f=0, 즉 동차방정식에 대해 지정한 변수의 해를 계산 f : 식 또는 함수 symbols: 식의 해를 계산하기 위한 변수, 변수가 하나인 경우는 생략가능(자동으로 인식) flags: 계산 또는 결과의 방식을 지정하기 위한 인수들 dict=True: {x:3, y:1}같이 사전형식, 기본값 = False set=True :{(x,3),(y,1)}같이 집합형식, 기본값 = False ratioal=True : 실수를 유리수로 반환, 기본값 = False positive=True: 해들 중에 양수만을 반환, 기본값 = False 예 $x^2=1$의 해를 결정합니다. solve() 함수에 적용하기 위해서는 다음과 같이 식의 한쪽이 0이 되는 형태인 동차식으로 구성되어야 합니다. $$x^2-1=0$$ import numpy as np from sympy import * x = symbols('x') solve(x**2-1, x) [-1, 1] 위 식은 계산 과정은 다음과 같습니다. $$\begin{aligned}x^2-1=0 \rightarrow (x+1)(x-1)=0 \\ x=1 \; \text{or}\; -1\end{aligned}$$ 예 $x^4=1$의 해를 결정합니다. solve() 함수의 인수 set=True를 지정하였으므로 결과는 집합(set)형으로 반환됩니다. eq=x**4-1 solve(eq, set=True) ([x], {(-1,), (-I,), (1,), (I,)}) 위의 경우 I는 복소수입니다.즉 위 결과의 과정은 다음과 같습니다. $$x^4-1=(x^2+1)(x+1)(x-1)=0 \rightarrow x=\pm \sqrt{-1}, \; \pm 1=\pm i,\; \pm1$$ 실수...