기본 콘텐츠로 건너뛰기

[matplotlib] 등고선(Contour)

[ML] 마할로비스(Mahalnobis) 거리와 이상치 감지

마할로비스(Mahalnobis) 거리

마할로비스(Mahalnobis) 거리

벡터인 한점과 분포 사이의 거리를 측정하는 효과적인 다변량 거리 메트릭스

이 지표는 다변량의 이상 탐지, 높은 불균형한 데이터 세트의 분류, 단일 클래스 분류, 새로운 데이터들의 예측에 효과적입니다.2차원의 두 점사이의 거리를 나타낼 경우 일반적으로 유클리드거리가 사용됩니다. 그 두점 (p1, p2), (q1, q2)라고 하면 유클리드 거리는 다음과 같이 계산됩니다.

$$\tag{식 1}d(p, q) =\sqrt{(p_1-q_1)^2+(p_1-q_2)^2}$$

식 1을 다차원으로 확장하면 즉, $(p_1, p_2, \cdots, p_n), \;(q_1, q_2, \cdots, q_n)$ 유클리드 거리는 식 2와 같이 계산됩니다.

$$\tag{식 2}d(p, q) =\sqrt{(p_1-q_1)^2+(p_1-q_2)^2+ \cdots +(p_n-q_n)^2}$$

식 2와 같이 다차원의 경우 모든 차원에 대한 가중치는 전혀 고려되지 않습니다. 즉, 차원들 사이에 영향이 없다는 가정이 성립되어야 합니다(모든 차원은 독립적).

import numpy as np
import numpy.linalg as la
import pandas as pd
from sklearn.preprocessing import StandardScaler
import matplotlib.pyplot as plt
import seaborn as sns

sns.set_style("darkgrid")
np.random.seed(3)
X=np.random.normal(0, 1, 100)
X1=np.linspace(-2,2, 100)
y1=X1+np.random.randn(100)

p1=(-1, 1)
p2=(1, 1)
fig, ax=plt.subplots(1, 2, figsize=(7, 3), sharey=True)
ax[0].scatter(X1, X, s=5)
ax[0].scatter(p1[0], p1[1])
ax[0].scatter(p2[0], p2[1])
ax[0].plot([0,p1[0]], [0, p1[1]], color="orange")
ax[0].plot([0,p2[0]], [0, p2[1]], color="g")
ax[0].set_xlabel("x")
ax[0].set_ylabel("y")
ax[0].set_title("(a)")
ax[1].scatter(X1, y1, s=5)
ax[1].scatter(p1[0], p1[1])
ax[1].scatter(p2[0], p2[1])
ax[1].plot([0,p1[0]], [0, p1[1]], color="orange")
ax[1].plot([0,p2[0]], [0, p2[1]], color="g")
ax[1].set_xlabel("x")
ax[1].set_title("(b)")
plt.show()

위 그림의 (a)는 x와 y의 데이터 사이에 상관성이 없다고 할 수 있지만 (b)의 경우는 상당한 상관성을 추정할 수 있습니다. 이 관계에서 각 그래프의 중점에서 주황색과 녹색의 점까지의 유클리드 거리 같습니다. 그러나 (b)의 경우는 녹색점이 데이터들에 근접해 있음을 나타냅니다. 즉, 유클리드 거리는 분포에 대한 고려없이 산술적인 거리를 계산하므로 분류등에 적용에 적합하지 않습니다. 이 경우 유클리드 거리를 대신해 점과 분포의 거리인 마할로비스 거리를 사용할 수 있습니다. 마할로비스 거리는 다음 단계로 계산됩니다.

  1. 열들을 상관성이 없는 변수로 변환합니다.
  2. 각 열을 분산 1로 조정합니다.
  3. 유클리드 거리를 계산합니다.

마할로비스 거리를 위한 공식은 식 3과 같습니다.

\begin{align} D^2&=(x-m)^T\Sigma^{-1}(x-m)\\ \tag{식 3}D: &\;\text{마힐로비스 거리}\\ x: &\;\text{관찰치의 벡터(데이터 셋의 행)}\\ m: &\;\text{설명변수의 평균벡터(각 열의 평균)}\\ \sigma: &\;\text{공분산 행렬}\end{align}

식 3의 (x-m)은 각 변수의 관찰치와 평균의 거리입니다. 이 결과는 공분산 행렬로 나누어지므로 본질적으로 다변량에 대한 표준화(식 4)와 같습니다.

\begin{align}\tag{식 4}z=\frac{x-\mu}{\sigma}&\quad \text{for univariate}\\ z=\frac{\vec{u}-\overrightarrow{\text{mean}}}{\overrightarrow{\text{covariance}}}&\quad \text{for multivariate}\end{align}

  • 변수들 사이의 강한 상관성 ⇒ 높은공분산 ⇒ 거리는 감소됨
  • 변수들 사이의 약한 상관성 ⇒ 낮은공분산 ⇒ 거리는 감소효과는 작음

다음 자료에 대해 마할로비스 거리를 계산해 봅니다.

filepath = 'https://raw.githubusercontent.com/selva86/datasets/master/diamonds.csv'
df = pd.read_csv(filepath).iloc[:, [0,4,6]]
df.head()
carat depth price
0 0.23 61.5 326
1 0.21 59.8 326
2 0.23 56.9 327
3 0.29 62.4 334
4 0.31 63.3 335

데이터를 표준화합니다.

scal=StandardScaler().fit(df)
data=scal.transform(df)
data[:10]
array([[-1.19816781, -0.17409151, -0.90409516],
       [-1.24036129, -1.36073849, -0.90409516],
       [-1.19816781, -3.38501862, -0.9038445 ],
       [-1.07158736,  0.45413336, -0.90208985],
       [-1.02939387,  1.08235823, -0.90183918],
       [-1.17707106,  0.73334442, -0.90158852],
       [-1.17707106,  0.3843306 , -0.90158852],
       [-1.13487758,  0.10511955, -0.90133785],
       [-1.21926455,  2.33880797, -0.90133785],
       [-1.19816781, -1.63994954, -0.90108719]])

각 샘플과 평균과의 거리, 공분산의 역행렬을 계산합니다.

xm=data-data.mean(axis=0)
cov=np.cov(data, rowvar=False)
covi=la.inv(cov)

공분산행렬에서 각 변수에 관게된 분산은 주대각요소들입니다. 그러므로 최종 결과에서 주 대각요소들의 제곱근이 마할로비스 거리가 됩니다.

d1=xm@covi
d2=d1@xm.T
D=np.sqrt(np.diagonal(d2))
D[:10]
array([1.30761617, 1.88151452, 3.56581283, 1.20601365, 1.53207029,
       1.50750889, 1.3504983 , 1.20689511, 2.78642814, 2.03875282])

위 과정을 함수로 작성합니다.

def mahalDist(x):
    #x는 array(각 변수는 열로 이루어짐)
    m=x.mean(axis=0)
    x_m=x-m
    cov=np.cov(x, rowvar=False)
    covi=np.linalg.inv(cov)
    left=np.dot(x_m, covi)
    tot=np.dot(left, x_m.T)
    return np.sqrt(np.diagonal(tot))
d=mahalDist(data)
d[:10]
array([1.30761617, 1.88151452, 3.56581283, 1.20601365, 1.53207029,
       1.50750889, 1.3504983 , 1.20689511, 2.78642814, 2.03875282])

마할로비스 거리를 적용하여 이상치(outlier)의 감지합니다.

데이터가 n 자유도를 가진 카이제곱분포를 따른다고 가정할 수 있습니다. 이 가정에서 유도수준 0.01, 자유도 2에서의 임계값을 계산하면 다음과 같습니다. 이 계산은 scipy.ch2.ppf() 메서드를 적용합니다. ppf(percent point function)는 cdf의 역수로 전달한 면적값(누적확률)에 대응하는 x축의 값을 반환합니다.

from scipy.stats import chi2
criticalPoint=chi2.ppf((1-0.01), df=2)
criticalPoint
9.21034037197618

일반적으로 자유도 2인 Χ2 분포는 다음과 같으며 유의수준 0.01인 점선을 기준으로 오른쪽에 위치한 값들은 극단적인 값으로 간주할 수 있습니다.

x=np.sort(np.linspace(0, 20))
y=chi2.pdf(x, df=2)
plt.figure(figsize=(4,3))
plt.plot(x, y)
plt.vlines(criticalPoint, 0, 0.5, ls="dashed", color="orange")
plt.xlabel("mahalnobis's distance")
plt.ylabel("probability")
plt.show()

각 거리에 대한 p-value를 계산합니다.

df1=df.copy()
pval=1-chi2.cdf(d, df=2)
df1["mahalD"]=d 
df1["p-value"]=pval
df1.head(3)
carat depth price mahalD p-value
0 0.23 61.5 326 1.307616 0.520062
1 0.21 59.8 326 1.881515 0.390332
2 0.23 56.9 327 3.565813 0.168149

데이터의 각 샘플에서 계산한 p-value가 0.01보다 작은 경우 유의미한 차이를 보인다고 할 수 있습니다. 즉, 자유도 2인 Χ2 분포에 부합하지 않는다고 할 수 있습니다. 결과적으로 이상치로 간주할 수 있습니다.

np.where(pval<0.01)
(array([ 4518,  6341, 10377, 16283, 17196, 19339, 19346, 21758, 22741,
        23644, 24328, 25998, 25999, 26444, 27130, 27415, 27630, 41918,
        52860, 52861], dtype=int64),)

댓글

이 블로그의 인기 게시물

[Linear Algebra] 유사변환(Similarity transformation)

유사변환(Similarity transformation) n×n 차원의 정방 행렬 A, B 그리고 가역 행렬 P 사이에 식 1의 관계가 성립하면 행렬 A와 B는 유사행렬(similarity matrix)이 되며 행렬 A를 가역행렬 P와 B로 분해하는 것을 유사 변환(similarity transformation) 이라고 합니다. $$\tag{1} A = PBP^{-1} \Leftrightarrow P^{-1}AP = B $$ 식 2는 식 1의 양변에 B의 고유값을 고려한 것입니다. \begin{align}\tag{식 2} B - \lambda I &= P^{-1}AP – \lambda P^{-1}P\\ &= P^{-1}(AP – \lambda P)\\ &= P^{-1}(A - \lambda I)P \end{align} 식 2의 행렬식은 식 3과 같이 정리됩니다. \begin{align} &\begin{aligned}\textsf{det}(B - \lambda I ) & = \textsf{det}(P^{-1}(AP – \lambda P))\\ &= \textsf{det}(P^{-1}) \textsf{det}((A – \lambda I)) \textsf{det}(P)\\ &= \textsf{det}(P^{-1}) \textsf{det}(P) \textsf{det}((A – \lambda I))\\ &= \textsf{det}(A – \lambda I)\end{aligned}\\ &\begin{aligned}\because \; \textsf{det}(P^{-1}) \textsf{det}(P) &= \textsf{det}(P^{-1}P)\\ &= \textsf{det}(I)\end{aligned}\end{align} 유사행렬의 특성 유사행렬인 두 정방행렬 A와 B는 'A ~ B' 와 같...

[sympy] Sympy객체의 표현을 위한 함수들

Sympy객체의 표현을 위한 함수들 General simplify(x): 식 x(sympy 객체)를 간단히 정리 합니다. import numpy as np from sympy import * x=symbols("x") a=sin(x)**2+cos(x)**2 a $\sin^{2}{\left(x \right)} + \cos^{2}{\left(x \right)}$ simplify(a) 1 simplify(b) $\frac{x^{3} + x^{2} - x - 1}{x^{2} + 2 x + 1}$ simplify(b) x - 1 c=gamma(x)/gamma(x-2) c $\frac{\Gamma\left(x\right)}{\Gamma\left(x - 2\right)}$ simplify(c) $\displaystyle \left(x - 2\right) \left(x - 1\right)$ 위의 예들 중 객체 c의 감마함수(gamma(x))는 확률분포 등 여러 부분에서 사용되는 표현식으로 다음과 같이 정의 됩니다. 감마함수는 음이 아닌 정수를 제외한 모든 수에서 정의됩니다. 식 1과 같이 자연수에서 감마함수는 factorial(!), 부동소수(양의 실수)인 경우 적분을 적용하여 계산합니다. $$\tag{식 1}\Gamma(n) =\begin{cases}(n-1)!& n:\text{자연수}\\\int^\infty_0x^{n-1}e^{-x}\,dx& n:\text{부동소수}\end{cases}$$ x=symbols('x') gamma(x).subs(x,4) $\displaystyle 6$ factorial 계산은 math.factorial() 함수를 사용할 수 있습니다. import math math.factorial(3) 6 a=gamma(x).subs(x,4.5) a.evalf(3) 11.6 simpilfy() 함수의 알고리즘은 식에서 공통사항을 찾아 정리하...

sympy.solvers로 방정식해 구하기

sympy.solvers로 방정식해 구하기 대수 방정식을 해를 계산하기 위해 다음 함수를 사용합니다. sympy.solvers.solve(f, *symbols, **flags) f=0, 즉 동차방정식에 대해 지정한 변수의 해를 계산 f : 식 또는 함수 symbols: 식의 해를 계산하기 위한 변수, 변수가 하나인 경우는 생략가능(자동으로 인식) flags: 계산 또는 결과의 방식을 지정하기 위한 인수들 dict=True: {x:3, y:1}같이 사전형식, 기본값 = False set=True :{(x,3),(y,1)}같이 집합형식, 기본값 = False ratioal=True : 실수를 유리수로 반환, 기본값 = False positive=True: 해들 중에 양수만을 반환, 기본값 = False 예 $x^2=1$의 해를 결정합니다. solve() 함수에 적용하기 위해서는 다음과 같이 식의 한쪽이 0이 되는 형태인 동차식으로 구성되어야 합니다. $$x^2-1=0$$ import numpy as np from sympy import * x = symbols('x') solve(x**2-1, x) [-1, 1] 위 식은 계산 과정은 다음과 같습니다. $$\begin{aligned}x^2-1=0 \rightarrow (x+1)(x-1)=0 \\ x=1 \; \text{or}\; -1\end{aligned}$$ 예 $x^4=1$의 해를 결정합니다. solve() 함수의 인수 set=True를 지정하였으므로 결과는 집합(set)형으로 반환됩니다. eq=x**4-1 solve(eq, set=True) ([x], {(-1,), (-I,), (1,), (I,)}) 위의 경우 I는 복소수입니다.즉 위 결과의 과정은 다음과 같습니다. $$x^4-1=(x^2+1)(x+1)(x-1)=0 \rightarrow x=\pm \sqrt{-1}, \; \pm 1=\pm i,\; \pm1$$ 실수...