기본 콘텐츠로 건너뛰기

[math] 정적분의 특성

[ML] 마할로비스(Mahalnobis) 거리와 이상치 감지

마할로비스(Mahalnobis) 거리

마할로비스(Mahalnobis) 거리

벡터인 한점과 분포 사이의 거리를 측정하는 효과적인 다변량 거리 메트릭스

이 지표는 다변량의 이상 탐지, 높은 불균형한 데이터 세트의 분류, 단일 클래스 분류, 새로운 데이터들의 예측에 효과적입니다.2차원의 두 점사이의 거리를 나타낼 경우 일반적으로 유클리드거리가 사용됩니다. 그 두점 (p1, p2), (q1, q2)라고 하면 유클리드 거리는 다음과 같이 계산됩니다.

$$\tag{식 1}d(p, q) =\sqrt{(p_1-q_1)^2+(p_1-q_2)^2}$$

식 1을 다차원으로 확장하면 즉, $(p_1, p_2, \cdots, p_n), \;(q_1, q_2, \cdots, q_n)$ 유클리드 거리는 식 2와 같이 계산됩니다.

$$\tag{식 2}d(p, q) =\sqrt{(p_1-q_1)^2+(p_1-q_2)^2+ \cdots +(p_n-q_n)^2}$$

식 2와 같이 다차원의 경우 모든 차원에 대한 가중치는 전혀 고려되지 않습니다. 즉, 차원들 사이에 영향이 없다는 가정이 성립되어야 합니다(모든 차원은 독립적).

import numpy as np
import numpy.linalg as la
import pandas as pd
from sklearn.preprocessing import StandardScaler
import matplotlib.pyplot as plt
import seaborn as sns

sns.set_style("darkgrid")
np.random.seed(3)
X=np.random.normal(0, 1, 100)
X1=np.linspace(-2,2, 100)
y1=X1+np.random.randn(100)

p1=(-1, 1)
p2=(1, 1)
fig, ax=plt.subplots(1, 2, figsize=(7, 3), sharey=True)
ax[0].scatter(X1, X, s=5)
ax[0].scatter(p1[0], p1[1])
ax[0].scatter(p2[0], p2[1])
ax[0].plot([0,p1[0]], [0, p1[1]], color="orange")
ax[0].plot([0,p2[0]], [0, p2[1]], color="g")
ax[0].set_xlabel("x")
ax[0].set_ylabel("y")
ax[0].set_title("(a)")
ax[1].scatter(X1, y1, s=5)
ax[1].scatter(p1[0], p1[1])
ax[1].scatter(p2[0], p2[1])
ax[1].plot([0,p1[0]], [0, p1[1]], color="orange")
ax[1].plot([0,p2[0]], [0, p2[1]], color="g")
ax[1].set_xlabel("x")
ax[1].set_title("(b)")
plt.show()

위 그림의 (a)는 x와 y의 데이터 사이에 상관성이 없다고 할 수 있지만 (b)의 경우는 상당한 상관성을 추정할 수 있습니다. 이 관계에서 각 그래프의 중점에서 주황색과 녹색의 점까지의 유클리드 거리 같습니다. 그러나 (b)의 경우는 녹색점이 데이터들에 근접해 있음을 나타냅니다. 즉, 유클리드 거리는 분포에 대한 고려없이 산술적인 거리를 계산하므로 분류등에 적용에 적합하지 않습니다. 이 경우 유클리드 거리를 대신해 점과 분포의 거리인 마할로비스 거리를 사용할 수 있습니다. 마할로비스 거리는 다음 단계로 계산됩니다.

  1. 열들을 상관성이 없는 변수로 변환합니다.
  2. 각 열을 분산 1로 조정합니다.
  3. 유클리드 거리를 계산합니다.

마할로비스 거리를 위한 공식은 식 3과 같습니다.

\begin{align} D^2&=(x-m)^T\Sigma^{-1}(x-m)\\ \tag{식 3}D: &\;\text{마힐로비스 거리}\\ x: &\;\text{관찰치의 벡터(데이터 셋의 행)}\\ m: &\;\text{설명변수의 평균벡터(각 열의 평균)}\\ \sigma: &\;\text{공분산 행렬}\end{align}

식 3의 (x-m)은 각 변수의 관찰치와 평균의 거리입니다. 이 결과는 공분산 행렬로 나누어지므로 본질적으로 다변량에 대한 표준화(식 4)와 같습니다.

\begin{align}\tag{식 4}z=\frac{x-\mu}{\sigma}&\quad \text{for univariate}\\ z=\frac{\vec{u}-\overrightarrow{\text{mean}}}{\overrightarrow{\text{covariance}}}&\quad \text{for multivariate}\end{align}

  • 변수들 사이의 강한 상관성 ⇒ 높은공분산 ⇒ 거리는 감소됨
  • 변수들 사이의 약한 상관성 ⇒ 낮은공분산 ⇒ 거리는 감소효과는 작음

다음 자료에 대해 마할로비스 거리를 계산해 봅니다.

filepath = 'https://raw.githubusercontent.com/selva86/datasets/master/diamonds.csv'
df = pd.read_csv(filepath).iloc[:, [0,4,6]]
df.head()
carat depth price
0 0.23 61.5 326
1 0.21 59.8 326
2 0.23 56.9 327
3 0.29 62.4 334
4 0.31 63.3 335

데이터를 표준화합니다.

scal=StandardScaler().fit(df)
data=scal.transform(df)
data[:10]
array([[-1.19816781, -0.17409151, -0.90409516],
       [-1.24036129, -1.36073849, -0.90409516],
       [-1.19816781, -3.38501862, -0.9038445 ],
       [-1.07158736,  0.45413336, -0.90208985],
       [-1.02939387,  1.08235823, -0.90183918],
       [-1.17707106,  0.73334442, -0.90158852],
       [-1.17707106,  0.3843306 , -0.90158852],
       [-1.13487758,  0.10511955, -0.90133785],
       [-1.21926455,  2.33880797, -0.90133785],
       [-1.19816781, -1.63994954, -0.90108719]])

각 샘플과 평균과의 거리, 공분산의 역행렬을 계산합니다.

xm=data-data.mean(axis=0)
cov=np.cov(data, rowvar=False)
covi=la.inv(cov)

공분산행렬에서 각 변수에 관게된 분산은 주대각요소들입니다. 그러므로 최종 결과에서 주 대각요소들의 제곱근이 마할로비스 거리가 됩니다.

d1=xm@covi
d2=d1@xm.T
D=np.sqrt(np.diagonal(d2))
D[:10]
array([1.30761617, 1.88151452, 3.56581283, 1.20601365, 1.53207029,
       1.50750889, 1.3504983 , 1.20689511, 2.78642814, 2.03875282])

위 과정을 함수로 작성합니다.

def mahalDist(x):
    #x는 array(각 변수는 열로 이루어짐)
    m=x.mean(axis=0)
    x_m=x-m
    cov=np.cov(x, rowvar=False)
    covi=np.linalg.inv(cov)
    left=np.dot(x_m, covi)
    tot=np.dot(left, x_m.T)
    return np.sqrt(np.diagonal(tot))
d=mahalDist(data)
d[:10]
array([1.30761617, 1.88151452, 3.56581283, 1.20601365, 1.53207029,
       1.50750889, 1.3504983 , 1.20689511, 2.78642814, 2.03875282])

마할로비스 거리를 적용하여 이상치(outlier)의 감지합니다.

데이터가 n 자유도를 가진 카이제곱분포를 따른다고 가정할 수 있습니다. 이 가정에서 유도수준 0.01, 자유도 2에서의 임계값을 계산하면 다음과 같습니다. 이 계산은 scipy.ch2.ppf() 메서드를 적용합니다. ppf(percent point function)는 cdf의 역수로 전달한 면적값(누적확률)에 대응하는 x축의 값을 반환합니다.

from scipy.stats import chi2
criticalPoint=chi2.ppf((1-0.01), df=2)
criticalPoint
9.21034037197618

일반적으로 자유도 2인 Χ2 분포는 다음과 같으며 유의수준 0.01인 점선을 기준으로 오른쪽에 위치한 값들은 극단적인 값으로 간주할 수 있습니다.

x=np.sort(np.linspace(0, 20))
y=chi2.pdf(x, df=2)
plt.figure(figsize=(4,3))
plt.plot(x, y)
plt.vlines(criticalPoint, 0, 0.5, ls="dashed", color="orange")
plt.xlabel("mahalnobis's distance")
plt.ylabel("probability")
plt.show()

각 거리에 대한 p-value를 계산합니다.

df1=df.copy()
pval=1-chi2.cdf(d, df=2)
df1["mahalD"]=d 
df1["p-value"]=pval
df1.head(3)
carat depth price mahalD p-value
0 0.23 61.5 326 1.307616 0.520062
1 0.21 59.8 326 1.881515 0.390332
2 0.23 56.9 327 3.565813 0.168149

데이터의 각 샘플에서 계산한 p-value가 0.01보다 작은 경우 유의미한 차이를 보인다고 할 수 있습니다. 즉, 자유도 2인 Χ2 분포에 부합하지 않는다고 할 수 있습니다. 결과적으로 이상치로 간주할 수 있습니다.

np.where(pval<0.01)
(array([ 4518,  6341, 10377, 16283, 17196, 19339, 19346, 21758, 22741,
        23644, 24328, 25998, 25999, 26444, 27130, 27415, 27630, 41918,
        52860, 52861], dtype=int64),)

댓글

이 블로그의 인기 게시물

[Linear Algebra] 유사변환(Similarity transformation)

유사변환(Similarity transformation) n×n 차원의 정방 행렬 A, B 그리고 가역 행렬 P 사이에 식 1의 관계가 성립하면 행렬 A와 B는 유사행렬(similarity matrix)이 되며 행렬 A를 가역행렬 P와 B로 분해하는 것을 유사 변환(similarity transformation) 이라고 합니다. $$\tag{1} A = PBP^{-1} \Leftrightarrow P^{-1}AP = B $$ 식 2는 식 1의 양변에 B의 고유값을 고려한 것입니다. \begin{align}\tag{식 2} B - \lambda I &= P^{-1}AP – \lambda P^{-1}P\\ &= P^{-1}(AP – \lambda P)\\ &= P^{-1}(A - \lambda I)P \end{align} 식 2의 행렬식은 식 3과 같이 정리됩니다. \begin{align} &\begin{aligned}\textsf{det}(B - \lambda I ) & = \textsf{det}(P^{-1}(AP – \lambda P))\\ &= \textsf{det}(P^{-1}) \textsf{det}((A – \lambda I)) \textsf{det}(P)\\ &= \textsf{det}(P^{-1}) \textsf{det}(P) \textsf{det}((A – \lambda I))\\ &= \textsf{det}(A – \lambda I)\end{aligned}\\ &\begin{aligned}\because \; \textsf{det}(P^{-1}) \textsf{det}(P) &= \textsf{det}(P^{-1}P)\\ &= \textsf{det}(I)\end{aligned}\end{align} 유사행렬의 특성 유사행렬인 두 정방행렬 A와 B는 'A ~ B' 와 같

[matplotlib] 히스토그램(Histogram)

히스토그램(Histogram) 히스토그램은 확률분포의 그래픽적인 표현이며 막대그래프의 종류입니다. 이 그래프가 확률분포와 관계가 있으므로 통계적 요소를 나타내기 위해 많이 사용됩니다. plt.hist(X, bins=10)함수를 사용합니다. x=np.random.randn(1000) plt.hist(x, 10) plt.show() 위 그래프의 y축은 각 구간에 해당하는 갯수이다. 빈도수 대신 확률밀도를 나타내기 위해서는 위 함수의 매개변수 normed=True로 조정하여 나타낼 수 있다. 또한 매개변수 bins의 인수를 숫자로 전달할 수 있지만 리스트 객체로 지정할 수 있다. 막대그래프의 경우와 마찬가지로 각 막대의 폭은 매개변수 width에 의해 조정된다. y=np.linspace(min(x)-1, max(x)+1, 10) y array([-4.48810153, -3.54351935, -2.59893717, -1.65435499, -0.70977282, 0.23480936, 1.17939154, 2.12397372, 3.0685559 , 4.01313807]) plt.hist(x, y, normed=True) plt.show()

R 미분과 적분

내용 expression 미분 2차 미분 mosaic를 사용한 미분 적분 미분과 적분 R에서의 미분과 적분 함수는 expression()함수에 의해 생성된 표현식을 대상으로 합니다. expression expression(문자, 또는 식) 이 표현식의 평가는 eval() 함수에 의해 실행됩니다. > ex1<-expression(1+0:9) > ex1 expression(1 + 0:9) > eval(ex1) [1] 1 2 3 4 5 6 7 8 9 10 > ex2<-expression(u, 2, u+0:9) > ex2 expression(u, 2, u + 0:9) > ex2[1] expression(u) > ex2[2] expression(2) > ex2[3] expression(u + 0:9) > u<-0.9 > eval(ex2[3]) [1] 0.9 1.9 2.9 3.9 4.9 5.9 6.9 7.9 8.9 9.9 미분 D(표현식, 미분 변수) 함수로 미분을 실행합니다. 이 함수의 표현식은 expression() 함수로 생성된 객체이며 미분 변수는 다음 식의 분모의 변수를 의미합니다. $$\frac{d}{d \text{변수}}\text{표현식}$$ 이 함수는 어떤 함수의 미분의 결과를 표현식으로 반환합니다. > D(expression(2*x^3), "x") 2 * (3 * x^2) > eq<-expression(log(x)) > eq expression(log(x)) > D(eq, "x") 1/x > eq2<-expression(a/(1+b*exp(-d*x))); eq2 expression(a/(1 + b * exp(-d * x))) > D(eq2, "x") a * (b * (exp(-d * x) * d))/(1 + b