기본 콘텐츠로 건너뛰기

라벨이 Dicisions Tree인 게시물 표시

통계관련 함수와 메서드 사전

A B C d E F G H I K L M N O P Q R S T U V W Z A statsmodels.ap.stats.anova_lm(x) statsmodels.formula.api.ols 에 의해 생성되는 모형 즉, 클래스 인스턴스(x)를 인수로 받아 anova를 실행합니다. np.argsort(x, axis=-1, kind=None) 객체 x를 정렬할 경우 각 값에 대응하는 인덱스를 반환합니다. Axis는 기준 축을 지정하기 위한 매개변수로서 정렬의 방향을 조정할 수 있음(-1은 기본값으로 마지막 축) pandas.Series.autocorr(lag=1) lag에 전달한 지연수에 따른 값들 사이의 자기상관을 계산 B scipy.stats.bernoulli(x, p) 베르누이분포에 관련된 통계량을 계산하기 위한 클래스를 생성합니다. x: 랜덤변수 p: 단일 시행에서의 확률 scipy.stats.binom(x, n, p) 이항분포에 관련된 통계량을 계산하기 위한 클래스를 생성합니다. x: 랜덤변수 n: 총 시행횟수 p: 단일 시행에서의 확률 C scipy.stats.chi2.pdf(x, df, loc=0, scale=1) 카이제곱분포의 확률밀도함수를 계산 $$f(x, k) =\frac{1}{2^{\frac{k}{2}−1}Γ(\frac{k}{2})}x^{k−1}\exp\left(−\frac{x^2}{2}\right)$$ x: 확률변수 df: 자유도 pd.concat(objs, axis=0, join=’outer’, …) 두 개이상의 객체를 결합한 새로운 객체를 반환. objs: Series, DataFrame 객체. Axis=0은 행단위 즉, 열 방향으로 결합, Axis=1은 열단위 즉, 행 방향으

의사결정트리(Dicisions Tree)

의사결정트리(Dicisions Tree) 의사 결정 트리는 이진 규칙 집합을 사용하여 대상 값을 계산하는 예측 모델이며 각 개별 트리는 분기, 노드 및 잎이 있는 상당히 단순한 모델입니다. 용어(terminlogy) root node: 전체 모집단 또는 샘플을 나타내며 두 개 이상의 동종 세트로 더 나뉩니다. splitting: 노드를 두 개 이상의 하위 노드로 나누는 프로세스입니다. Decicion Node: 하위 노드가 추가 하위 노드로 분할되면 결정 노드라고 합니다. Leaf/terminal node: 분할되지 않는 노드를 리프 또는 터미널 노드라고 합니다. prunning(가지치기): 의사결정 노드의 하위 노드를 제거할 때 이 프로세스를 가지치기라고 합니다. 분열의 반대 과정이라고 할 수 있습니다. Branch/Sub-tree(분기 / 하위 트리): 전체 트리의 하위 섹션을 분기 또는 하위 트리라고 합니다. Parent and Child Node(상위 및 하위 노드): 하위 노드로 분할된 노드를 하위 노드의 상위 노드라고 하는 반면 하위 노드는 상위 노드의 하위 노드입니다. 그림 1. 의사결정트리 root node에서 질문에 의해 True/False로 구분합니다. 이 과정을 계속하면 결과적으로 leaf node에 도달하게 되며 단일예측이 가능하게 됩니다. 의사 결정 트리는 분류 및 회귀 문제에 사용할 수 있는 지도 머신 러닝 알고리즘 중 하나로서 모델은 훈련 데이터에서 추출한 결정 규칙을 기반으로 합니다. 회귀 문제에서 모델은 클래스 대신 값을 사용하고 평균 제곱 오차(MSE)는 결정 정확도를 위해 사용됩니다. 그러나 의사 결정 트리 모델은 일반화에 좋지 않고 훈련 데이터의 변화에 민감합니다. 훈련 데이터 세트의 작은 변화는 모델 예측 정확도에 영향을 미칠 수 있습니다. Scikit-lea