데이터 간의 상관성(correlation) 찾기
데이터 간의 상관성을 분석합니다. 이 분석은 두개 이상 데이터들 사이의 상관성을 나타내는 것으로 인관관계를 나타내는 것은 아님을 주의해야 합니다.
다음은 yfinance 패키지를 적용하여 kospi 지수(kos), 원화-미달러(krw), 그리고 나스닥 지수(nsq)의 일일 종가자료를 호출하여 사용합니다.
import numpy as np import pandas as pd from sklearn.preprocessing import StandardScaler import yfinance as yf import matplotlib as mpl import matplotlib.pyplot as plt plt.rcParams['font.family'] ='NanumGothic' plt.rcParams['axes.unicode_minus'] =False import seaborn as sns %matplotlib inline fontdict={"fontsize":12, 'fontweight': "bold"}
호출한 자료들의 kos-kre, kos-nsq, 그리고 krw-nsq를 비교할 것으로 각 데이터간의 scale의 차이를 고려하여 모두 표준화하여 사용합니다.
st=pd.Timestamp(2023, 10, 17) et=pd.Timestamp(2024, 10, 26) kos=yf.download("^KS11",st, et)["Close"] krw=yf.download("KRW=X", st, et)["Close"] nsq=yf.download("^IXIC", st, et)["Close"] data=pd.concat([kos, krw, nsq], axis=1, join="outer").dropna() data.index=pd.DatetimeIndex(data.index.date) data.columns=["kos", "krw", "nsq"] scaler=StandardScaler().fit(data) dataN=pd.DataFrame(scaler.transform(data)) dataN.columns=data.columns dataN.index=data.index dataN.head(3)
kos | krw | nsq | |
---|---|---|---|
2023-10-17 | -1.336281 | 0.129015 | -1.755223 |
2023-10-18 | -1.316419 | 0.313696 | -1.899802 |
2023-10-19 | -1.698920 | 0.369139 | -1.984211 |
다음 그림은 각 데이터의 시계열 추세를 나타내고 있습니다.
sns.set_style("darkgrid") dataN.plot(xlabel="날짜", ylabel="표준화된 가격") plt.show()
위 그림들을은 각 데이터의 추세를 나타내며 서로의 연관성을 추정할 수 있습니다. kos와 krw의 경우는 반대되는 흐름, kos와 nsq는 같은 흐름이 관찰됩니다.
일반적으로 금융자료 분석에서 원자료와 함계 수익률, 특히 로그수익률에 대한 분석이 함께 이루어집니다. 1일의 시간차이에 대한 로그수익률을 계산하기 위해 pd.shift(period)
함수를 적용합니다. 인수 period는 정수로서 양의 정수이면 원자료보다 후의 시간으로 음수일 경우 전시간으로 이동합니다.
dataN.head(3)
kos | krw | nsq | |
---|---|---|---|
2023-10-17 | -1.336281 | 0.129015 | -1.755223 |
2023-10-18 | -1.316419 | 0.313696 | -1.899802 |
2023-10-19 | -1.698920 | 0.369139 | -1.984211 |
dataN.shift(1).head(3)
kos | krw | nsq | |
---|---|---|---|
2023-10-17 | NaN | NaN | NaN |
2023-10-18 | -1.336281 | 0.129015 | -1.755223 |
2023-10-19 | -1.316419 | 0.313696 | -1.899802 |
위 결과에서 2023-10-18의 로그 수익률은 다음과 같이 계산됩니다.
$$\log\left(\frac{\text{2023-10-18의 가격}}{\text{2023-10-17의 가격}}\right)$$
그러므로 로그수익률은 다음과 같이 계산할 수 있습니다.
logRet=np.log(data/data.shift(1)).dropna() logRet.head(3)
kos | krw | nsq | |
---|---|---|---|
2023-10-18 | 0.000987 | 0.003873 | -0.016348 |
2023-10-19 | -0.019187 | 0.001160 | -0.009669 |
2023-10-20 | -0.017033 | 0.001232 | -0.015466 |
logRet.plot(subplots=True, sharex=True, xlabel="day", ylabel="return") plt.show()
데이터 간의 상관성 정도는 seaborn.pairplot()
함수를 사용하여 나타낼 수 있습니다. 이 함수는 각 데이터의 히스토 그램이나 kde와 같이 지정된 플롯, 데이터 간에는 산점도를 나타냅니다. 상관성이 높은 경우일 수록 산점도는 일정한 방향으로 모이는 경향을 보입니다. 즉, 포인트들이 원의 형태로 퍼지는 경향을 보이면 상관성이 작음으로 추정할 수 있습니다.
sns.pairplot(logRet, diag_kind="hist") plt.show()
위 그림들로 kos-krw, krw-nsq, kos-nsq를 비교할 수 있습니다. kos-nsq의 경우가 다른 경우에 비해 높은 상관성을 갖음을 추정할 수 있으며 이것은 데이터 간의 상관계수로 정량화할 수 있습니다.pandas의 .corr()
메서드를 적용하여 각 데이터 간의 상관계수를 계산할 수 있습니다.
cor_mat=data.corr() cor_mat
kos | krw | nsq | |
---|---|---|---|
kos | 1.000000 | 0.499914 | 0.745503 |
krw | 0.499914 | 1.000000 | 0.549344 |
nsq | 0.745503 | 0.549344 | 1.000000 |
다음은 data1.rolling(window).corr(data2)
메서드를 적용하여 이동 상관성(rolling correlation)을 계산한 것입니다. 즉, 지정한 window 만큼의 자료들 사이에 상관성을 나타냅니다.
rollCor1=dataN.kos.rolling(10).corr(dataN.krw) rollCor2=dataN.kos.rolling(10).corr(dataN.nsq) rollCor3=dataN.krw.rolling(10).corr(dataN.nsq)
fg, ax=plt.subplots(3, 1, figsize=(10, 9), sharex=True) ax[0].stem(rollCor1[150:], label="kos-krw") ax[0].set_ylabel("이동 상관계수") ax[0].legend(loc="best") ax[1].stem(rollCor2[150:], label="kos-nsq") ax[1].set_ylabel("이동 상관계수") ax[1].legend(loc="best") ax[2].stem(rollCor3[150:], label="krw-nsq") ax[2].set_ylabel("이동 상관계수") ax[2].legend(loc="best") plt.show()
위 결과에 의하면 kos-nsq의 경우 다른 관계보다 높은 상관계수를 보입니다.
댓글
댓글 쓰기