기본 콘텐츠로 건너뛰기

라벨이 neural-network-model인 게시물 표시

통계관련 함수와 메서드 사전

A B C d E F G H I K L M N O P Q R S T U V W Z A statsmodels.ap.stats.anova_lm(x) statsmodels.formula.api.ols 에 의해 생성되는 모형 즉, 클래스 인스턴스(x)를 인수로 받아 anova를 실행합니다. np.argsort(x, axis=-1, kind=None) 객체 x를 정렬할 경우 각 값에 대응하는 인덱스를 반환합니다. Axis는 기준 축을 지정하기 위한 매개변수로서 정렬의 방향을 조정할 수 있음(-1은 기본값으로 마지막 축) pandas.Series.autocorr(lag=1) lag에 전달한 지연수에 따른 값들 사이의 자기상관을 계산 B scipy.stats.bernoulli(x, p) 베르누이분포에 관련된 통계량을 계산하기 위한 클래스를 생성합니다. x: 랜덤변수 p: 단일 시행에서의 확률 scipy.stats.binom(x, n, p) 이항분포에 관련된 통계량을 계산하기 위한 클래스를 생성합니다. x: 랜덤변수 n: 총 시행횟수 p: 단일 시행에서의 확률 C scipy.stats.chi2.pdf(x, df, loc=0, scale=1) 카이제곱분포의 확률밀도함수를 계산 $$f(x, k) =\frac{1}{2^{\frac{k}{2}−1}Γ(\frac{k}{2})}x^{k−1}\exp\left(−\frac{x^2}{2}\right)$$ x: 확률변수 df: 자유도 pd.concat(objs, axis=0, join=’outer’, …) 두 개이상의 객체를 결합한 새로운 객체를 반환. objs: Series, DataFrame 객체. Axis=0은 행단위 즉, 열 방향으로 결합, Axis=1은 열단위 즉, 행 방향으

신경모형망의 구성과 다층퍼셉트론(MLP)

내용 신경모형망의 기본 과정 대표적인 신경망의 종류 다층 퍼셉트론(MLP) MLP 분류기 모델 MPL과 Keras를 사용하여 모델 구축 비선형 함수 정규화(Regulariztion) 출력활성화와 비용함수 신경모형망의 구성 신경모형망의 기본 과정 네트워크(또는 모델)로 결합되는 계층 입력 데이터 및 해당 대상 학습에 사용되는 피드백 신호를 정의하는 손실 함수 학습이 어떻게 진행되는지를 결정하는 옵티마이저 신경망의 전체적인 과정은 그림 1과 같습니다. 그림 1. 신경망 모형의 기본 과정. 그림 1에 나타낸 것과 같은 신경망의 작동은 6단계로 구분할 수 있습니다. 입력을 위한 층(layer)을 구성하며 초기 가중치(W)와 편차(b)를 부여합니다. 층내에서 변수와 가중치의 연산에 의한 예측값을 산출합니다. 예측값과 실측치인 y를 손실함수(loss function)에 입력됩니다. 비용(cost)을 계산됩니다. 최적화 과정에 의해 가중치는 업데이트 됩니다. 업데이트 된 가중치는 다시 2)~5) 과정을 반복하여 최소비용에 수렴되는 가중치를 생성합니다. 대표적인 신경망의 종류 MLP: Multilayer Perceptron CNN: Convolutional Neural Network RNN: Recurrent Neural Network 다층 퍼셉트론(MLP) 완전연결(fully connected, FC) 네트워크입니다. MLP는 단순 로지스틱 및 선형 회귀 문제에서 일반적으로 적용됩니다. 그러나 MLP는 순차 및 다차원 데이터 패턴을 처리하는 데 최적이 아닙니다. 설계상 MLP는 순차적 데이터의 패턴을 기억하는 데 어려움을 겪고 다차원 데이터를 처리하기 위해 상당한 수의 매개변수가 필요합니다. 순차적 데이터 입력의 경우 RNN이 널리 사용되는 이유는 내부 설계를 통해 네트워크가 데이터 기록에서 종속성을 발견할 수 있고 이는 예측에