기본 콘텐츠로 건너뛰기

[matplotlib]quiver()함수

[stock]SGDRegressor를 사용한 주가예측

SGDRegressor를 사용한 주가예측

Stochastic Gradient Descent(SGD) 알고리즘을 사용하여 선형모델을 학습시키는 클래스입니다.

sklearn.linear_mode.SGDRegressor() 클래스를 사용하며 선형모델을 생성합니다.

  • loss: 손실함수 지정, 'squaredd_error'(최소제곱오차, 기본값), 'huber', 'epsilon_insensitive', 'squared_epsilon_insensitive'를 지정할 수 있음.
  • penalty : 과적합 방지를 위한 적용할 규제 지정 . ('l1', 'l2', 'elasticnet'). 기본값은 None (규제 없음)입니다.
  • alpha: 규제 강도를 조절하는 상수이며 클수록 규제가 강해집니다. 기본값은 0.0001입니다.
  • l1_ratio: Elastic Net 규제 사용 시 L1 규제와 L2 규제의 혼합 비율을 결정합니다 (0 ≤ l1_ratio ≤ 1). penalty='elasticnet'일 때만 사용됩니다.
  • fit_intercept: 모델에 절편 (bias) 항을 추가할지 여부를 결정. 기본값은 True.
  • max_iter: 학습 데이터에 대한 최대 반복 횟수 (epoch)를 지정. 기본값은 1000.
  • tol: 학습 종료 조건으로, 손실 함수의 감소량이 이 값보다 작으면 학습을 중단. 기본값은 1e-3.
  • learning_rate: 학습률 스케줄링 방법을 지정('constant', 'optimal', 'invscaling', 'adaptive'). 기본값은 'invscaling'.
  • eta0: 초기 학습률을 지정 (learning_rate='constant' 또는 learning_rate='invscaling'일 때 사용). 기본값은 0.01.
  • random_state
  • shuffle: 각 epoch마다 데이터를 섞을지 여부를 결정. 기본값은 True.
import numpy as np
import pandas as pd
import pandas_ta as ta
import matplotlib.pyplot as plt
import FinanceDataReader as fdr
import matplotlib.pyplot as plt

from sklearn.model_selection import GridSearchCV
from sklearn.linear_model import SGDRegressor
from sklearn.preprocessing import StandardScaler, MinMaxScaler
from sklearn.model_selection import train_test_split
from sklearn.metrics import accuracy_score, mean_squared_error, r2_score
st=pd.Timestamp(2023, 1,1)
et=pd.Timestamp(2025, 5,20)
trgnme="000660"
trg=fdr.DataReader(trgnme,  st, et)
df=trg[["Open", "High", "Low", "Close", "Volume"]]
#위 데이터를 기준으로 기술적 지표를 첨가한 새로운 자료 생성 
data=df.copy()
data["ema5"]=df.ta.ema(5)
data["ema20"]=df.ta.ema(20)
data[['bbl', 'bbm','bbu']]=df.ta.bbands().iloc[:,:3]
data.dropna(inplace=True)
data.head(1).round(0)
Open High Low Close Volume ema5 ema20 bbl bbm bbu
Date
2023-01-31 90800 90800 86800 88500 5185088 89697.0 85675.0 88293.0 90880.0 93467.0

자료 Close 예측을 위한 sgd 모델을 구축합니다. 모델 구축을 위해 데이터를 정규화하고 학습과 검증 데이터로 분리합니다. 또한 SGDRegressor()클래스의 다양한 하이퍼파라메터의 적정값으로 구성된 모델을 생성하기 위해 GridSearch() 클래스를 적용합니다.

d=df.copy()
ind=d.values
de=d["Close"].values
scalerX=StandardScaler().fit(ind[:-1, :])
X=scalerX.transform(ind[:-1,:])
Xfinal=scalerX.transform(ind[-1,:].reshape(-1, ind.shape[1]))
scalery=StandardScaler()
y=scalery.fit_transform(de[1:].reshape(-1,1)).flatten()
Xtr, Xte, ytr, yte=train_test_split(X, y, test_size=0.3, random_state=7)

param={"alpha":[0.0001, 0.001, 0.01, 0.1, 1], "l1_ratio":[0.0, 0.25, 0.5, 0.75, 1.0]}
sgd_reg=SGDRegressor(penalty="elasticnet", random_state=7)
sgd_search=GridSearchCV(sgd_reg, param, cv=5, scoring='neg_mean_squared_error',  n_jobs=-1)
sgd_search.fit(Xtr, ytr)
sgd_search.best_estimator_
SGDRegressor(alpha=0.001, l1_ratio=1.0, penalty='elasticnet', random_state=7)

sgd_search의 메소드 .score()는 음의 MSE값을 반환합니다.

sgd_search.score(Xtr, ytr), sgd_search.score(Xte, yte)
(-0.013411371990480763, -0.012495508936140981)

위 결과는 학습과 검증 세트 간의 큰 차이는 없습니다. 그러나 이 값들만으로 의미를 찾기는 어렵습니다. 대신에 결정계수(R2)로 비교해 봅니다. 이것은 sklearn.metrics.2_score(y, pre) 함수로 계산할 수 있습니다.

preTr=sgd_search.predict(Xtr)
preTe=sgd_search.predict(Xte)
r2tr=r2_score(ytr, preTr)
r2te=r2_score(yte, preTe)
print("r2_tr: {%.3f}, r2_te: {%.3f}" %(r2tr, r2te))
r2_tr: {0.987}, r2_te: {0.986}

최종예측을 위한 예측변수인 Xfinal에 대한 예측은 다음과 같습니다.

pre=sgd_search.predict(Xfinal)
scalery.inverse_transform(pre.reshape(-1,1))
array([[203426.69373404]])

위 과정을 하나의 함수로 작성하여 Open, High, Low, Close을 예측합니다.

#sgdregressor()에 의한 예측 함수 
def sgdPredict(data, deCol="Close", testSize=0.3, randomState=7):
    ind=data.values
    de=data[deCol].values
    scalerX=StandardScaler().fit(ind[:-1, :])
    X=scalerX.transform(ind[:-1,:])
    Xfinal=scalerX.transform(ind[-1,:].reshape(-1, ind.shape[1]))
    scalery=StandardScaler()
    y=scalery.fit_transform(de[1:].reshape(-1,1)).flatten()
    Xtr, Xte, ytr, yte=train_test_split(X, y, test_size=testSize, random_state=randomState)
    param={"alpha":[0.0001, 0.001, 0.01, 0.1, 1], "l1_ratio":[0.0, 0.25, 0.5, 0.75, 1.0]}
    sgd_reg=SGDRegressor(penalty="elasticnet", random_state=7)
    sgd_search=GridSearchCV(sgd_reg, param, cv=5, scoring='neg_mean_squared_error',  n_jobs=-1)
    sgd_search.fit(Xtr, ytr)
    pre=sgd_search.predict(Xfinal)
    return scalery.inverse_transform(pre.reshape(-1,1)).flatten()

#위 결과에 당일 Open을 고려한 결과를 반환 
#result: 위 홤수들의 결과, op: 당일  Open
def consider_Op(result, op):
    open_op=result["Open"]-op
    r=pd.DataFrame()
    for i, j in enumerate(result.index):
        r=pd.concat([r, result.iloc[i,:]-open_op.iloc[i]], axis=1)
    return r.T
result_sgd1={}
result_sgd2={}
for i in ["Open","High","Low", "Close"]:
    result_sgd1[i]=sgdPredict(df, deCol=i)
    result_sgd2[i]=sgdPredict(data, deCol=i)
result_sgd1=pd.DataFrame(result_sgd1)
result_sgd2=pd.DataFrame(result_sgd2)
result_sgd=pd.concat([result_sgd1, result_sgd2])
result_sgd.index=["OHLC", "addIdx"]
result_sgd.round(0)
Open High Low Close
OHLC 203432.0 206961.0 200091.0 203427.0
addIdx 202584.0 205584.0 199389.0 203113.0

위 결과에 알려진 시가를 고려합니다(consider_Op() 사용).

consider_Op(result_sgd, 204500).round(0)
Open High Low Close
OHLC 204500.0 208029.0 201159.0 204495.0
addIdx 204500.0 207500.0 201305.0 205028.0

댓글

이 블로그의 인기 게시물

[Linear Algebra] 유사변환(Similarity transformation)

유사변환(Similarity transformation) n×n 차원의 정방 행렬 A, B 그리고 가역 행렬 P 사이에 식 1의 관계가 성립하면 행렬 A와 B는 유사행렬(similarity matrix)이 되며 행렬 A를 가역행렬 P와 B로 분해하는 것을 유사 변환(similarity transformation) 이라고 합니다. $$\tag{1} A = PBP^{-1} \Leftrightarrow P^{-1}AP = B $$ 식 2는 식 1의 양변에 B의 고유값을 고려한 것입니다. \begin{align}\tag{식 2} B - \lambda I &= P^{-1}AP – \lambda P^{-1}P\\ &= P^{-1}(AP – \lambda P)\\ &= P^{-1}(A - \lambda I)P \end{align} 식 2의 행렬식은 식 3과 같이 정리됩니다. \begin{align} &\begin{aligned}\textsf{det}(B - \lambda I ) & = \textsf{det}(P^{-1}(AP – \lambda P))\\ &= \textsf{det}(P^{-1}) \textsf{det}((A – \lambda I)) \textsf{det}(P)\\ &= \textsf{det}(P^{-1}) \textsf{det}(P) \textsf{det}((A – \lambda I))\\ &= \textsf{det}(A – \lambda I)\end{aligned}\\ &\begin{aligned}\because \; \textsf{det}(P^{-1}) \textsf{det}(P) &= \textsf{det}(P^{-1}P)\\ &= \textsf{det}(I)\end{aligned}\end{align} 유사행렬의 특성 유사행렬인 두 정방행렬 A와 B는 'A ~ B' 와 같...

[sympy] Sympy객체의 표현을 위한 함수들

Sympy객체의 표현을 위한 함수들 General simplify(x): 식 x(sympy 객체)를 간단히 정리 합니다. import numpy as np from sympy import * x=symbols("x") a=sin(x)**2+cos(x)**2 a $\sin^{2}{\left(x \right)} + \cos^{2}{\left(x \right)}$ simplify(a) 1 simplify(b) $\frac{x^{3} + x^{2} - x - 1}{x^{2} + 2 x + 1}$ simplify(b) x - 1 c=gamma(x)/gamma(x-2) c $\frac{\Gamma\left(x\right)}{\Gamma\left(x - 2\right)}$ simplify(c) $\displaystyle \left(x - 2\right) \left(x - 1\right)$ 위의 예들 중 객체 c의 감마함수(gamma(x))는 확률분포 등 여러 부분에서 사용되는 표현식으로 다음과 같이 정의 됩니다. 감마함수는 음이 아닌 정수를 제외한 모든 수에서 정의됩니다. 식 1과 같이 자연수에서 감마함수는 factorial(!), 부동소수(양의 실수)인 경우 적분을 적용하여 계산합니다. $$\tag{식 1}\Gamma(n) =\begin{cases}(n-1)!& n:\text{자연수}\\\int^\infty_0x^{n-1}e^{-x}\,dx& n:\text{부동소수}\end{cases}$$ x=symbols('x') gamma(x).subs(x,4) $\displaystyle 6$ factorial 계산은 math.factorial() 함수를 사용할 수 있습니다. import math math.factorial(3) 6 a=gamma(x).subs(x,4.5) a.evalf(3) 11.6 simpilfy() 함수의 알고리즘은 식에서 공통사항을 찾아 정리하...

sympy.solvers로 방정식해 구하기

sympy.solvers로 방정식해 구하기 대수 방정식을 해를 계산하기 위해 다음 함수를 사용합니다. sympy.solvers.solve(f, *symbols, **flags) f=0, 즉 동차방정식에 대해 지정한 변수의 해를 계산 f : 식 또는 함수 symbols: 식의 해를 계산하기 위한 변수, 변수가 하나인 경우는 생략가능(자동으로 인식) flags: 계산 또는 결과의 방식을 지정하기 위한 인수들 dict=True: {x:3, y:1}같이 사전형식, 기본값 = False set=True :{(x,3),(y,1)}같이 집합형식, 기본값 = False ratioal=True : 실수를 유리수로 반환, 기본값 = False positive=True: 해들 중에 양수만을 반환, 기본값 = False 예 $x^2=1$의 해를 결정합니다. solve() 함수에 적용하기 위해서는 다음과 같이 식의 한쪽이 0이 되는 형태인 동차식으로 구성되어야 합니다. $$x^2-1=0$$ import numpy as np from sympy import * x = symbols('x') solve(x**2-1, x) [-1, 1] 위 식은 계산 과정은 다음과 같습니다. $$\begin{aligned}x^2-1=0 \rightarrow (x+1)(x-1)=0 \\ x=1 \; \text{or}\; -1\end{aligned}$$ 예 $x^4=1$의 해를 결정합니다. solve() 함수의 인수 set=True를 지정하였으므로 결과는 집합(set)형으로 반환됩니다. eq=x**4-1 solve(eq, set=True) ([x], {(-1,), (-I,), (1,), (I,)}) 위의 경우 I는 복소수입니다.즉 위 결과의 과정은 다음과 같습니다. $$x^4-1=(x^2+1)(x+1)(x-1)=0 \rightarrow x=\pm \sqrt{-1}, \; \pm 1=\pm i,\; \pm1$$ 실수...