기본 콘텐츠로 건너뛰기

통계관련 함수와 메서드 사전

A B C d E F G H I K L M N O P Q R S T U V W Z A statsmodels.ap.stats.anova_lm(x) statsmodels.formula.api.ols 에 의해 생성되는 모형 즉, 클래스 인스턴스(x)를 인수로 받아 anova를 실행합니다. np.argsort(x, axis=-1, kind=None) 객체 x를 정렬할 경우 각 값에 대응하는 인덱스를 반환합니다. Axis는 기준 축을 지정하기 위한 매개변수로서 정렬의 방향을 조정할 수 있음(-1은 기본값으로 마지막 축) pandas.Series.autocorr(lag=1) lag에 전달한 지연수에 따른 값들 사이의 자기상관을 계산 B scipy.stats.bernoulli(x, p) 베르누이분포에 관련된 통계량을 계산하기 위한 클래스를 생성합니다. x: 랜덤변수 p: 단일 시행에서의 확률 scipy.stats.binom(x, n, p) 이항분포에 관련된 통계량을 계산하기 위한 클래스를 생성합니다. x: 랜덤변수 n: 총 시행횟수 p: 단일 시행에서의 확률 C scipy.stats.chi2.pdf(x, df, loc=0, scale=1) 카이제곱분포의 확률밀도함수를 계산 $$f(x, k) =\frac{1}{2^{\frac{k}{2}−1}Γ(\frac{k}{2})}x^{k−1}\exp\left(−\frac{x^2}{2}\right)$$ x: 확률변수 df: 자유도 pd.concat(objs, axis=0, join=’outer’, …) 두 개이상의 객체를 결합한 새로운 객체를 반환. objs: Series, DataFrame 객체. Axis=0은 행단위 즉, 열 방향으로 결합, Axis=1은 열단위 즉, 행 방향으

Multi-linear regression

Multi-linear regression

Linear models with one or more independent variables and one response can also be built by applying the sklean.linear_model class. The construction process and evaluation method of this model are the same as the simple linear model in the previous section.

Example 1)
  Let's build a regression model that estimates the close price of Google (go) using the colse values of Dow Jones (dj), nasdaq (na), S&P500 (snp), VIX (vix), and the dollar index (dol) as independent variables.

The data for creating a regression model is prepared as follows:

  • Use the FinanceDataReader package to invoke data from the target event.
  • Combine closing data from all stocks into one object.
  • Manage missing values such as inf, Na, etc. in the data.
    Apply numpy.where() function, DataFrame.replace() and DataFrame.dropna() methods.
  • The independent variables relocate to a structure that is one day ahead of the response.
    The last row of independent variables is kept as a separate variable (new) for prediction from the generated model.
  • Standardize independent variables and response variables.
import numpy as np
import pandas as pd 
import matplotlib.pyplot as plt
from scipy import stats
from sklearn.linear_model import LinearRegression
from sklearn import preprocessing
import FinanceDataReader as fdr
st=pd.Timestamp(2020,5, 1)
et=pd.Timestamp(2021, 12, 24)
code=["DJI", 'IXIC','INX', 'VIX', 'DX',"GOOGL"]
nme=["dj", 'na','snp', 'vix', 'dol',"go"]
da=pd.DataFrame()
for i in code:
    da=pd.concat([da,fdr.DataReader(i,st, et)["Close"]], axis=1)
da.columns=nme
da.head(2)
dj na snp vix dol go
2020-05-01 00:00:00 23723.69 8605.0 NaN 37.19 99.100 1317.32
2020-05-04 00:00:00 23749.76 8710.7 NaN 35.97 99.567 1322.90
np.where(da.isna()==True)
(array([  0,   1,   2,   4,   5,  16,  16,  16,  16,  16,  45,  45,  45,
         …,
        429, 429, 429]),
 array([2, 2, 2, 2, 2, 0, 1, 2, 3, 5, 0, 1, 5, 2, 2, 2, 2, 2, 2, 2, 0, 1,
        …,
        2, 2, 0, 1, 4, 5]))

The called data contains missing values. Apply the replace method to replace this missing value with the immediate value.

da1=da.replace(np.nan, method='ffill')
np.where(da1.isna())
(array([0, 1, 2]), array([2, 2, 2]))

Missing values are replaced with the previous value. However, as in the above result, the missing values in the first row still exist as missing values because there is no replacement value. In this case, use the pandas object method of dropna() to drop it.

da1=da1.dropna()
np.where(da1.isna())
(array([], dtype=int64), array([], dtype=int64))

Separate the data into descriptive variables (ind), response variables (de), and final estimates (new).

ind=da1.values[:-1,:-1]
de=(da1.values[1:,-1]).reshape(-1,1)
new=(da1.values[-1, :-1]).reshape(1,-1)
new
array([[3.595063e+04, 1.565340e+04, 5.500000e+00, 1.796000e+01,
        9.598500e+01]])
ind.shape, de.shape, new.shape
((426, 5), (426, 1), (1, 5))

Each variable varies in scale. In such cases, standardization or Regularization with the mean and standard deviation of each variable is required. Normalization is the conversion of data to [0,1] or [1,1] for the same purpose as standardization, but is mainly used in machine learning with slight differences in the process. Regression applies standardization rather than normalization. This course applies the StandardScaler() class of sklearn.preprocessing.

#for independent 
indScaler=preprocessing.StandardScaler().fit(da1.values[:,:-1])
#for response
deScaler=preprocessing.StandardScaler().fit(da1.values[:,-1].reshape(-1,1)
indNor=indScaler.transform(ind)
indNor[-1, :]
array([ 1.26786583,  1.40270917, -0.28910167, -0.87460412,  1.15241682])
indScaler.inverse_transform(indNor[-1,:])
array([3.595063e+04, 1.565340e+04, 5.500000e+00, 1.796000e+01,
       9.598500e+01])
newNor=indScaler.transform(new)
newNor
array([[ 1.26786583,  1.40270917, -0.28910167, -0.87460412,  1.15241682]])
deNor=deScaler.transform(de)
deNor[-1,:]
array([1.55000732])
deScaler.inverse_transform(deNor[-1,:])
array([2938.33])

Apply the sklearn.linear_model.linearRegression class to create a linear regression model.

model=LinearRegression().fit(indNor, deNor)
R2=model.score(indNor, deNor)
print(f'R2: {round(R2, 3)}')
R2: 0.972
a=model.coef_
print(f'reg.coeff.: {np.around(a, 3)}')
reg.coeff.: [[0.514 0.558 0.053 0.024 0.284]]
a0=model.intercept_ 
print(f'bias: {np.around(a0, 3)}')
bias: [0.007]

The above results show a high coefficient of determination, so the model is appropriate. This result can also be seen as the result of the F test between each of the following independent variables and the response variable:

from sklearn.feature_selection import f_regression
Ftest=f_regression(indNor, deNor.ravel())
re=pd.DataFrame([Ftest[0], Ftest[1]], index=['statistics','p-value'], columns=nme[:-1]).T
np.around(re, 3)

Each independent variable for a response exhibits statistically significant differences. The estimated and actual values by the built model can be visualized as shown in Figure 1.

statistics p-value
dj 3721.670 0.000
na 3699.516 0.000
snp 61.258 0.000
vix 459.769 0.000
dol 11.403 0.001
plt.figure(figsize=(6, 4))
pre=model.predict(indNor)
plt.plot(deNor, color="blue", label="observed")
plt.plot(pre, color="red", label="estimated")
plt.xlabel('Day', size="13")
plt.ylabel('Value(Standardized)', size="13")
plt.legend(loc='best')
plt.show()
Table 1. Obervations and estimates.

Estimates for variable New are as follows:

pre=model.predict(newNor)
print(f'estimates for New(standardized): {np.round(pre, 3)}')
estimates for New(standardized): [[1.733]]
preV=deScaler.inverse_transform([pre])
print(f'estimates for New: {np.round(preV, 3)}')
estimates for New: [[[3036.656]]]

If the normality of the error is consistent, the above estimates can represent lower and upper bounds of the estimate depending on the confidence interval of the error. The normality of the error can be determined by the function scipy.stats.probplot().

error=de-deScaler.inverse_transform(model.predict(indNor))
errorRe=stats.probplot(error.ravel(),plot=plt)
print("slope: {:.04}, bias: {:.04}, correl.coeff.: {:.04}".format(errorRe[1][0], errorRe[1][1], errorRe[1][2]))
slope: 90.16, bias: 2.911e-14, correl.coeff.: 0.9974

From the results above, the error can be assumed to be a probability variable that follows a normal distribution. Therefore, based on this assumption, the confidence interval can be calculated at a significance level of 0.95. Because it is a sample, apply the standard error.

se=pd.DataFrame(error).sem()
se
0    4.359057
dtype: float64
ci=stats.norm.interval(0.95, error.mean(), se)
print(f'Lower : {np.around(ci[0], 3)}, Upper: {np.around(ci[1], 3)}')
Lower : [-8.544], Upper: [8.544]

Applying this range to the estimate is as follows:

preCI=[float(preV+i) for i in [ci[0], ci[1]]]
print(f'Lower: {round(preCI[0], 0)}, Upper: {round(preCI[1], 0)}')
Lower: 3028.0, Upper: 3045.0

댓글

이 블로그의 인기 게시물

matplotlib의 그래프 종류

1. 산포도(scatter plot) plt.scatter(x, y) >>> import matplotlib.pyplot as plt >>> import numpy as np >>> data=np.random.rand(1024, 2) >>> data[:3, :] >>> plt.scatter(data[:,0], data[:,1]) >>> plt.show() 2. 막대그래프(bar chart) plt.bar(x, hight, width, align='center') 매개변수중 width에 인수를 전달하여 막대의 두께를 조절할 수 있다. 또한 align의 인수는 'center'와 'edge' 이다. 기본값은 'center'이다. 이 값은 x축의 레이블이 막대의 중간에 위치(center) 또는 왼쪽 가장자리에 위치(edge)시킨다. 코드에서 np.random.randint 는 특정한 범위내에서 지정한 갯수의 랜덤수를 생성 np.unique(배열, retrun_counts=False, axis=None) : 객체 내의 중복되지 않은 수들을 반환한다. return_counts=True이면 각 수에 대한 빈도수를 반환한다. axis를 통해 행(1), 열(0)을 선택한다. >>> x=np.random.randint(1, 6, size=100) >>> uni,count=np.unique(x, return_counts=True) >>> uni array([1, 2, 3, 4, 5]) >>> count array([25, 17, 23, 16, 19], dtype=int64) >>> plt.bar(uni, count) >>> plt.show() 위의 막대그래프의 막대의

유사변환과 대각화

내용 유사변환 유사행렬의 특성 대각화(Diagonalization) 유사변환(Similarity transformation) 유사변환 n×n 차원의 정방 행렬 A, B 그리고 가역 행렬 P 사이에 식 1의 관계가 성립하면 행렬 A와 B는 유사하다고 하며 이 변환을 유사 변환 (similarity transformation)이라고 합니다. $$\begin{equation}\tag{1} A = PBP^{-1} \Leftrightarrow P^{-1}AP = B \end{equation}$$ 식 1의 유사 변환은 다음과 같이 고유값을 적용하여 특성 방정식 형태로 정리할 수 있습니다. $$\begin{align} B - \lambda I &= P^{-1}AP – \lambda P^{-1}P\\ &= P^{-1}(AP – \lambda P)\\ &= P^{-1}(A - \lambda I)P \end{align}$$ 위 식의 행렬식은 다음과 같이 정리됩니다. $$\begin{align} &\begin{aligned}\textsf{det}(B - \lambda I ) & = \textsf{det}(P^{-1}(AP – \lambda P))\\ &= \textsf{det}(P^{-1}) \textsf{det}((A – \lambda I)) \textsf{det}(P)\\ &= \textsf{det}(P^{-1}) \textsf{det}(P) \textsf{det}((A – \lambda I))\\ &= \textsf{det}(A – \lambda I)\end{aligned}\\ &\begin{aligned}\because \; \textsf{det}(P^{-1}) \textsf{det}(P) &= \textsf{det}(P^{-1}P)\\ &= \t

sympy.solvers로 방정식해 구하기

sympy.solvers로 방정식해 구하기 대수 방정식을 해를 계산하기 위해 다음 함수를 사용합니다. sympy.solvers.solve(f, *symbols, **flags) f=0, 즉 동차방정식에 대해 지정한 변수의 해를 계산 f : 식 또는 함수 symbols: 식의 해를 계산하기 위한 변수, 변수가 하나인 경우는 생략가능(자동으로 인식) flags: 계산 또는 결과의 방식을 지정하기 위한 인수들 dict=True: {x:3, y:1}같이 사전형식, 기본값 = False set=True :{(x,3),(y,1)}같이 집합형식, 기본값 = False ratioal=True : 실수를 유리수로 반환, 기본값 = False positive=True: 해들 중에 양수만을 반환, 기본값 = False 예 $x^2=1$의 해를 결정합니다. solve() 함수에 적용하기 위해서는 다음과 같이 식의 한쪽이 0이 되는 형태인 동차식으로 구성되어야 합니다. $$x^2-1=0$$ import numpy as np from sympy import * x = symbols('x') solve(x**2-1, x) [-1, 1] 위 식은 계산 과정은 다음과 같습니다. $$\begin{aligned}x^2-1=0 \rightarrow (x+1)(x-1)=0 \\ x=1 \; \text{or}\; -1\end{aligned}$$ 예 $x^4=1$의 해를 결정합니다. solve() 함수의 인수 set=True를 지정하였으므로 결과는 집합(set)형으로 반환됩니다. eq=x**4-1 solve(eq, set=True) ([x], {(-1,), (-I,), (1,), (I,)}) 위의 경우 I는 복소수입니다.즉 위 결과의 과정은 다음과 같습니다. $$x^4-1=(x^2+1)(x+1)(x-1)=0 \rightarrow x=\pm \sqrt{-1}, \; \pm 1=\pm i,\; \pm1$$ 실수