기본 콘텐츠로 건너뛰기

[ML] 결정트리(Decision Tree) 모델

확률과 주요통계량: 분산

확률과 주요통계량: 분산

관련 내용

분산 (Variance)

분산(variance)은 데이터 변동성을 나타내는 것으로 식 1과 같이 계산되며 분산의 제곱근이 표준편차(standard deviation, $\sigma$)가 됩니다.

\begin{align}\sigma^2&=E(X-\mu)^2\\&=(x_1-\mu)^2P(X=x_1)+ \cdots+(x_k-\mu)^2P(X=x_k)\\&=\sum^k_{i=1} (x_k-\mu)^2P(X=x_k)\end{align}(식 1)

자료 분포에 대한 퍼짐의 척도인 분산은 각 데이터와 평균사이의 편차 제곱에 대한 가중 평균입니다. 식 1은 식 2와 같이 간략하게 정리됩니다.

\begin{align}\sigma^2&=\sum^k_{i=1} (x_i-\mu)^2P(X=x_i)\\&=\sum^k_{i=1}(x_i^2-2x_i\mu+\mu^2)f(x_i)\\&=\sum^k_{i=1} x_i^2f(x_i) -2\mu \sum^k_{i=1} x_if(x_i)+ \mu^2\\&=\sum^k_{i=1} x_i^2f(x_i)-2\mu^2+\mu^2\\&=\sum^k_{i=1} x_i^2f(x_i)-\mu^2\\&=E(X^2)-(E(X))^2\\ \because& \sum^k_{i=1} x_if(x_i)=\mu, \quad \sum^k_{i=1} f(x_i)=1 \end{align}(식 2)

분산은 확률변수의 분포를 나타내는 지표이며 식 2에서 나타낸 것과 같이 2차 모멘트와 1차 모멘트의 차로 계산됩니다. 즉, 분산은 기대값으로부터 파생되므로 분산 역시 기대값의 특성인 선형결합이 가능합니다. 그러나 식 3과 같이 분산의 선형결합은 기대값의 그것과는 다른 형태를 보입니다.

\begin{align}\text{var}(ax+b)&=\sigma_{ax+b}^2\\&=E[(ax+b-\mu_{ax+b})^2]\\&=E[(ax+b-E(ax+b))^2] \\ &=E[(ax+b-aE(x)-b)^2]\\&=E[(ax-aE(x))^2]\\&=a^2E[(x-\mu)^2]\\&=a^2\sigma_x^2\end{align}(식 3)

식 3과 같이 변수에 첨가한 상수는 변수의 모든 요소에 같은 값을 주는 것으로 변수의 분산에 영향을 주지 않습니다.

예 1)

확률변수 X의 확률질량함수는 다음과 같습니다.

$$f(x)=\frac{x}{8}, \quad x=1,\, 2,\, 5$$

E(X)와 Var(X)를 결정합니다.

x=np.array([1,2,5])
f=x/8
print(f)
[0.125 0.25 0.625]
E=np.sum(f*x); E
3.75
var=np.sum((x**2*f))-E**2; var
2.6875

예 2)

연속확률변수 X의 확률밀도함수는 다음과 같습니다.

$$f(x)=\frac{x+1}{8}, \quad 2 \lt x \lt 4$$

E(X)와 Var(X)를 결정합니다.

평균과 분산은 PDF 함수의 적분을 사용하여 계산됩니다. 적분 연산은 sympy모듈의 itegrate() 함수를 적용합니다.

x=symbols("x")
f=(x+1)/8
E=integrate(x*f, (x, 2, 4))
print(E)
37/12
Var=integrate(x**2*f,(x, 2, 4))-E**2
print(Var)
47/144

예 3)

표 1과 같이 주사위 1개를 시행하여 나오는 눈에 따라 점수를 지정하는 규칙을 기준으로 두 종류의 게임을 합니다.

표 1 주사위 게임
눈의 수(z) 1 2 3 4 5 6
게임1(x) 1 2 3 4 5 6
게임2(y) 3 0 6 0 0 12
P(z) 1/6 1/6 1/6 1/6 1/6 1/6
  1. 각 게임의 기대값과 분산을 결정합니다.
  2. 두 게임들을 결합하여 생성된 랜덤변수 게임3의 기대값과 분산을 결정 합니다.

a)

z=np.arange(1, 7) #눈의 수
g1=np.arange(1, 7) #게임1
g2=np.array([3,0,6,0,0,12]) #게임 2
p=np.repeat(1/6, 6) # 확률함수
E_g1=np.sum(g1*p); E_g1
3.5
var_g1=np.sum(g1**2*p)-E_g1**2
round(var_g1, 3)
2.917
E_g2=np.sum(g2*p)
E_g2
3.5
var_g2=np.sum(g2**2*p)-E_g2**2
round(var_g2, 3)
19.25

b) 게임 3=g3

g3=g1+g2
print(g3)
[ 4  2  9  4  5 18]
E_g3=np.sum(g3*p); E_g3
7
var_g3=np.sum(g3**2*p)-E_g3**2
round(var_g3, 3)
28.667

위 결과의 g3의 기대값은 g1, g2의 각 기대값의 합과 같습니다. 그러나 분산은 각 분산의 합에 일치하지 않습니다.

E_g3 ==E_g1+E_g2
True
var_g3 ==var_g1+var_g2
False

위의 결과와 같이 결합 변수의 분산과 각 변수의 분산의 합은 일치하지 않습니다. 이 차이는 식 4와 같이 결합변수의 분산 유도 과정으로 설명할 수 있습니다.

\begin{align} \text{var}(aX+bY)&=E[(aX+bY-(a\mu_x+b\mu_y))^2]\\0 &=E[(a(X-\mu_x)+b(Y-\mu_y))^2]\\&=E[a^2(X-\mu_x)^2+2ab(X-\mu_x)(Y-\mu_y)+b^2(Y-\mu_y)^2]\\&=a^2E(X-\mu_x)^2+2abE[(X-\mu_x)(Y-\mu_y)]+b^2E(Y-\mu_y)^2\\&=a^2E(X-\mu_x)^2+b^2E(Y-\mu_y)^2\\ &=a^2\text{var}(X)+b^2\text{var}(Y)\\\because \text{if}\;& X\,\cap\,Y=\varnothing \Rightarrow E[(X-\mu_x)(Y-\mu_y)]=0\end{align}(식 4)

식 4에서 E[(X −µx)(Y −µY )]는 두 변수의 교호작용을 나타내는 것으로 두 변수가 독립인 경우 그 교호작용의 값은 0이 됩니다. 그러므로 예제 3의 변수 g1, g2와 결합변수 g3와 분산의 차이는 두 변수가 독립이 아니라는 정보를 제공합니다.

댓글

이 블로그의 인기 게시물

[Linear Algebra] 유사변환(Similarity transformation)

유사변환(Similarity transformation) n×n 차원의 정방 행렬 A, B 그리고 가역 행렬 P 사이에 식 1의 관계가 성립하면 행렬 A와 B는 유사행렬(similarity matrix)이 되며 행렬 A를 가역행렬 P와 B로 분해하는 것을 유사 변환(similarity transformation) 이라고 합니다. $$\tag{1} A = PBP^{-1} \Leftrightarrow P^{-1}AP = B $$ 식 2는 식 1의 양변에 B의 고유값을 고려한 것입니다. \begin{align}\tag{식 2} B - \lambda I &= P^{-1}AP – \lambda P^{-1}P\\ &= P^{-1}(AP – \lambda P)\\ &= P^{-1}(A - \lambda I)P \end{align} 식 2의 행렬식은 식 3과 같이 정리됩니다. \begin{align} &\begin{aligned}\textsf{det}(B - \lambda I ) & = \textsf{det}(P^{-1}(AP – \lambda P))\\ &= \textsf{det}(P^{-1}) \textsf{det}((A – \lambda I)) \textsf{det}(P)\\ &= \textsf{det}(P^{-1}) \textsf{det}(P) \textsf{det}((A – \lambda I))\\ &= \textsf{det}(A – \lambda I)\end{aligned}\\ &\begin{aligned}\because \; \textsf{det}(P^{-1}) \textsf{det}(P) &= \textsf{det}(P^{-1}P)\\ &= \textsf{det}(I)\end{aligned}\end{align} 유사행렬의 특성 유사행렬인 두 정방행렬 A와 B는 'A ~ B' 와 같

[matplotlib] 히스토그램(Histogram)

히스토그램(Histogram) 히스토그램은 확률분포의 그래픽적인 표현이며 막대그래프의 종류입니다. 이 그래프가 확률분포와 관계가 있으므로 통계적 요소를 나타내기 위해 많이 사용됩니다. plt.hist(X, bins=10)함수를 사용합니다. x=np.random.randn(1000) plt.hist(x, 10) plt.show() 위 그래프의 y축은 각 구간에 해당하는 갯수이다. 빈도수 대신 확률밀도를 나타내기 위해서는 위 함수의 매개변수 normed=True로 조정하여 나타낼 수 있다. 또한 매개변수 bins의 인수를 숫자로 전달할 수 있지만 리스트 객체로 지정할 수 있다. 막대그래프의 경우와 마찬가지로 각 막대의 폭은 매개변수 width에 의해 조정된다. y=np.linspace(min(x)-1, max(x)+1, 10) y array([-4.48810153, -3.54351935, -2.59893717, -1.65435499, -0.70977282, 0.23480936, 1.17939154, 2.12397372, 3.0685559 , 4.01313807]) plt.hist(x, y, normed=True) plt.show()

R 미분과 적분

내용 expression 미분 2차 미분 mosaic를 사용한 미분 적분 미분과 적분 R에서의 미분과 적분 함수는 expression()함수에 의해 생성된 표현식을 대상으로 합니다. expression expression(문자, 또는 식) 이 표현식의 평가는 eval() 함수에 의해 실행됩니다. > ex1<-expression(1+0:9) > ex1 expression(1 + 0:9) > eval(ex1) [1] 1 2 3 4 5 6 7 8 9 10 > ex2<-expression(u, 2, u+0:9) > ex2 expression(u, 2, u + 0:9) > ex2[1] expression(u) > ex2[2] expression(2) > ex2[3] expression(u + 0:9) > u<-0.9 > eval(ex2[3]) [1] 0.9 1.9 2.9 3.9 4.9 5.9 6.9 7.9 8.9 9.9 미분 D(표현식, 미분 변수) 함수로 미분을 실행합니다. 이 함수의 표현식은 expression() 함수로 생성된 객체이며 미분 변수는 다음 식의 분모의 변수를 의미합니다. $$\frac{d}{d \text{변수}}\text{표현식}$$ 이 함수는 어떤 함수의 미분의 결과를 표현식으로 반환합니다. > D(expression(2*x^3), "x") 2 * (3 * x^2) > eq<-expression(log(x)) > eq expression(log(x)) > D(eq, "x") 1/x > eq2<-expression(a/(1+b*exp(-d*x))); eq2 expression(a/(1 + b * exp(-d * x))) > D(eq2, "x") a * (b * (exp(-d * x) * d))/(1 + b