기본 콘텐츠로 건너뛰기

[ML] 결정트리(Decision Tree) 모델

torchvision: 데이터 준비

내용

torchvision: 데이터 준비

dataset

CIFAR-10은 torchvision에 포함된 데이터 셋으로 이 패키지의 서브모듈인 datasets을 사용하여 호출합니다.

CIFAR-10 dataset: 10개 클래스 중 1개에 해당하는 정수로 레이블이 지정된 60,000개의 작은 32 × 32 컬러(RGB) 이미지로 구성

비행기(0), 자동차(1), 새(2), 고양이(3), 사슴(4), 개(5), 개구리(6), 말(7), 배(8), 트럭(9)
import numpy as np
import matplotlib.pyplot as plt
from torchvision import datasets 
from torchvision import transforms
data_path='/~/pytorch/'
cifar=datasets.CIFAR10(data_path, train=True, download=True)
cifar_val=datasets.CIFAR10(data_path, train=False, download=True)

datastes.CIFAR10() 함수에 제공하는 첫 번째 인수는 데이터를 다운로드할 위치입니다. 두 번째는 훈련 세트 또는 검증 세트에 관심이 있는지 여부를 지정합니다. 세 번째는 첫 번째 인수에 지정된 위치에서 데이터를 찾을 수 없는 경우 PyTorch가 데이터를 다운로드하도록 허용할지 여부를 나타냅니다. CIFAR10과 마찬가지로 데이터 세트 하위 모듈은 MNIST, Fashion-MNIST, CIFAR-100, SVHN, Coco 및 Omniglot과 같은 가장 인기 있는 컴퓨터 비전 데이터 세트에 대한 사전 준비된 액세스를 제공합니다. 각 경우에 데이터세트는 torch.utils.data.Dataset의 하위 클래스로 반환됩니다. cifar 인스턴스의 메소드 해결 순서에 기본 클래스로 포함되어 있음을 알 수 있습니다.

type(cifar).__mro__
(torchvision.datasets.cifar.CIFAR10,
     torchvision.datasets.vision.VisionDataset,
     torch.utils.data.dataset.Dataset,
     typing.Generic,
     object)

실제로 torch.utils.data.Dataset의 하위 클래스로 생성된 PyTorch Dataset은 __len____getitem__의 두 가지 메소드를 구현할 수 있습니다. 전자는 데이터세트의 항목 수를 반환 합니다. 후자는 전달한 샘플과 해당 레이블(정수 인덱스)에 대응하는 항목을 반환 합니다. 실제로 Python 객체에 __len__ 메서드가 장착되어 있으면 len Python 내장 함수에 인수로 전달할 수 있습니다.

len(cifar)
50000
img, label=cifar[99]
label
1
plt.imshow(img)
plt.show()

transforms.Totensor

PIL 이미지를 PyTorch 텐서로 변환하는 방법이 필요할 수 있습니다. 바로 그 부분에서 torchvision.transforms가 사용됩니다. 이 모듈은 다양한 함수들을 포함하며 그 목록은 다음과 같이 확인할 수 있습니다.

dir(transforms)
['AutoAugment',
	  ⋮,
     'Compose',
      ⋮,
     'functional_tensor',
     'transforms']

이러한 변환 중 NumPy 배열과 PIL 이미지를 텐서로 바꾸는 ToTensor를 볼 수 있습니다. 또한 출력 텐서의 차원을 C × H × W(채널, 높이, 너비)로 배치하는 데 주의를 기울입니다. 다음 코드와 같이 이미지 파일을 배열 구조로 변환합니다.

toTensor=transforms.ToTensor()
imgT=toTensor(img)
imgT.shape
torch.Size([3, 32, 32])

위와 같은 변환은 모든 데이터에 일괄적으로 적용할 수 있습니다.

tensor_cifar=datasets.CIFAR10(data_path, train=True, download=False, transform=transforms.ToTensor())
img_t, _=tensor_cifar[99] #tensor_cjfar은 feature와 label을 포함. img_t=feature, _=label(_는 in-place를 의미)
type(img_t)
torch.Tensor
img_t.shape, img_t.dtype
(torch.Size([3, 32, 32]), torch.float32)

원래 PIL 이미지의 값 범위가 0에서 255(채널당 8비트)인 반면 ToTensor 변환은 데이터를 채널당 32비트 부동 소수점으로 변환하여 값을 0.0에서 1.0으로 축소합니다. 다음을 확인하겠습니다.

img_t[0]
tensor([[0.2431, 0.1961, 0.1804,  ..., 0.6549, 0.7176, 0.5373],
            [0.2471, 0.2157, 0.2039,  ..., 0.6392, 0.6706, 0.5686],
            [0.2275, 0.2510, 0.2196,  ..., 0.6000, 0.5882, 0.4824],
            ...,
            [0.6745, 0.5608, 0.5098,  ..., 0.3686, 0.5529, 0.5451],
            [0.7176, 0.5882, 0.3137,  ..., 0.3176, 0.5294, 0.5608],
            [0.8196, 0.7137, 0.5451,  ..., 0.2314, 0.5098, 0.6627]])

변환된 이미지 1개를 출력해봅니다. 출력을 위해서는 자료의 차원(axes)을 (H, W, C)로 전치해 주어야 합니다. 이는 .permute() 메소드를 사용합니다.

plt.imshow(img_t.permute(1, 2, 0))
plt.show()

주가자료의 변환

다음은 주식자료를 호출한 것으로 pandas.DataFrame 형식입니다. 이 자료는 .value 속성에 의해 numpy.array 형식으로 전환할 수 있으며 tansforms.ToTensor() 클래스에 의해 torch.tensor로 전환할 수 있습니다.

import FinanceDataReader as fdr
import pandas as pd
st=pd.Timestamp(2022, 3,1)
et=pd.Timestamp(2022, 3,18)
kos=fdr.DataReader("KS11", st, et)
kosT=transforms.ToTensor()(kos.values)
kosT=kosT.type(torch.float32)
kosT.shape, kosT.dtype
(torch.Size([1, 12, 6]), torch.float32)
kosT[0, 0, :]
tensor([2.7035e+03, 2.6983e+03, 2.7165e+03, 2.6922e+03, 5.2795e+08, 1.6000e-03])

transforms.Compose와 transforms.Normalize

변환은 transforms.Compose를 사용하여 연결할 수 있고 데이터 로더에서 직접 정규화 및 데이터 증대를 투명하게 처리할 수 있기 때문에 정말 편리합니다. 예를 들어 각 채널의 평균과 표준 편차가 0, 1이 되도록 데이터 세트를 정규화하는 것이 좋습니다. 자료의 스케일을 축소할수록 학습 속도가 빨라집니다. 또한 동일한 분포를 갖도록 각 채널을 정규화하면 동일한 학습률을 사용하여 경사하강법을 통해 채널 정보를 혼합하고 업데이트할 수 있습니다.

각 채널이 0의 평균과 표준편차 1을 가지도록 하기 위해 데이터세트에서 각 채널의 평균값과 표준편차를 계산하고 다음 변환을 적용할 수 있습니다.

$$\text{v}_n\text{[column]}=\frac{\text{v[column]} - \text{mean[column]}}{\text{std[column]}}$$

위 계산은 transforms.Normalize(mean, stdev) 함수에 의해 이루어집니다. mean 및 stdev 값은 별도로으로 계산해야 합니다(변환에 의해 계산되지 않음). CIFAR-10 훈련 세트에 대해 계산해 보겠습니다. 이 계산을 위해 feature를 추출하여 결합합니다. 여기서는 각 sample을 쌓는 식으로 .stack()메소드를 적용합니다. 즉 차원 (C,H,W,b)에서 b축을 기준으로 합니다.

imgs=torch.stack([img for img,_ in tensor_cifar], dim=3)
imgs.shape
torch.Size([3, 32, 32, 50000])

정규화 또는 표준화를 위해 자료를 벡터화하여야 합니다. 그러므로 각 채널 별로 높이와 너비 차원을 한 차원으로 병합합니다. 이는 .view() 메소드를 사용합니다. 결과는 (3, 32, 32, 50000) → (3, 32×32×50000)로 변환됩니다.

결과적으로 채널 당 평균과 표준편차를 계산합니다.

imgVector=imgs.view(3, -1)
imgVector.shape
torch.Size([3, 51200000])
mu=imgVector.mean(dim=1)
sd=imgVector.std(dim=1)
mu, sd
(tensor([0.4914, 0.4822, 0.4465]), tensor([0.2470, 0.2435, 0.2616]))
transforms.Normalize(mu, sd)
Normalize(mean=tensor([0.4914, 0.4822, 0.4465]), std=tensor([0.2470, 0.2435, 0.2616]))
trans_cifar=datasets.CIFAR10(data_path, train=True, download=False, transform=transforms.Compose([transforms.ToTensor(), transforms.Normalize(mu, sd)]))
img_tran,_=trans_cifar[99]
img_tran.shape
torch.Size([3, 32, 32])
img_tran[0]
tensor([[-1.0050, -1.1955, -1.2590,  ...,  0.6619,  0.9159,  0.1856],
            [-0.9891, -1.1161, -1.1637,  ...,  0.5984,  0.7254,  0.3126],
            [-1.0685, -0.9732, -1.1002,  ...,  0.4396,  0.3920, -0.0366],
            ...,
            [ 0.7412,  0.2809,  0.0745,  ..., -0.4970,  0.2491,  0.2174],
            [ 0.9159,  0.3920, -0.7192,  ..., -0.7034,  0.1539,  0.2809],
            [ 1.3286,  0.9000,  0.2174,  ..., -1.0526,  0.0745,  0.6936]])
plt.imshow(img_tran.permute(1,2,0))
plt.show()

위 그림에 의하면 빨간색외의 다른 색은 검은색으로 변환되었습니다. 이것은 자료의 정규화에 의해 재조정된 영향입니다.

댓글

이 블로그의 인기 게시물

[Linear Algebra] 유사변환(Similarity transformation)

유사변환(Similarity transformation) n×n 차원의 정방 행렬 A, B 그리고 가역 행렬 P 사이에 식 1의 관계가 성립하면 행렬 A와 B는 유사행렬(similarity matrix)이 되며 행렬 A를 가역행렬 P와 B로 분해하는 것을 유사 변환(similarity transformation) 이라고 합니다. $$\tag{1} A = PBP^{-1} \Leftrightarrow P^{-1}AP = B $$ 식 2는 식 1의 양변에 B의 고유값을 고려한 것입니다. \begin{align}\tag{식 2} B - \lambda I &= P^{-1}AP – \lambda P^{-1}P\\ &= P^{-1}(AP – \lambda P)\\ &= P^{-1}(A - \lambda I)P \end{align} 식 2의 행렬식은 식 3과 같이 정리됩니다. \begin{align} &\begin{aligned}\textsf{det}(B - \lambda I ) & = \textsf{det}(P^{-1}(AP – \lambda P))\\ &= \textsf{det}(P^{-1}) \textsf{det}((A – \lambda I)) \textsf{det}(P)\\ &= \textsf{det}(P^{-1}) \textsf{det}(P) \textsf{det}((A – \lambda I))\\ &= \textsf{det}(A – \lambda I)\end{aligned}\\ &\begin{aligned}\because \; \textsf{det}(P^{-1}) \textsf{det}(P) &= \textsf{det}(P^{-1}P)\\ &= \textsf{det}(I)\end{aligned}\end{align} 유사행렬의 특성 유사행렬인 두 정방행렬 A와 B는 'A ~ B' 와 같

[matplotlib] 히스토그램(Histogram)

히스토그램(Histogram) 히스토그램은 확률분포의 그래픽적인 표현이며 막대그래프의 종류입니다. 이 그래프가 확률분포와 관계가 있으므로 통계적 요소를 나타내기 위해 많이 사용됩니다. plt.hist(X, bins=10)함수를 사용합니다. x=np.random.randn(1000) plt.hist(x, 10) plt.show() 위 그래프의 y축은 각 구간에 해당하는 갯수이다. 빈도수 대신 확률밀도를 나타내기 위해서는 위 함수의 매개변수 normed=True로 조정하여 나타낼 수 있다. 또한 매개변수 bins의 인수를 숫자로 전달할 수 있지만 리스트 객체로 지정할 수 있다. 막대그래프의 경우와 마찬가지로 각 막대의 폭은 매개변수 width에 의해 조정된다. y=np.linspace(min(x)-1, max(x)+1, 10) y array([-4.48810153, -3.54351935, -2.59893717, -1.65435499, -0.70977282, 0.23480936, 1.17939154, 2.12397372, 3.0685559 , 4.01313807]) plt.hist(x, y, normed=True) plt.show()

R 미분과 적분

내용 expression 미분 2차 미분 mosaic를 사용한 미분 적분 미분과 적분 R에서의 미분과 적분 함수는 expression()함수에 의해 생성된 표현식을 대상으로 합니다. expression expression(문자, 또는 식) 이 표현식의 평가는 eval() 함수에 의해 실행됩니다. > ex1<-expression(1+0:9) > ex1 expression(1 + 0:9) > eval(ex1) [1] 1 2 3 4 5 6 7 8 9 10 > ex2<-expression(u, 2, u+0:9) > ex2 expression(u, 2, u + 0:9) > ex2[1] expression(u) > ex2[2] expression(2) > ex2[3] expression(u + 0:9) > u<-0.9 > eval(ex2[3]) [1] 0.9 1.9 2.9 3.9 4.9 5.9 6.9 7.9 8.9 9.9 미분 D(표현식, 미분 변수) 함수로 미분을 실행합니다. 이 함수의 표현식은 expression() 함수로 생성된 객체이며 미분 변수는 다음 식의 분모의 변수를 의미합니다. $$\frac{d}{d \text{변수}}\text{표현식}$$ 이 함수는 어떤 함수의 미분의 결과를 표현식으로 반환합니다. > D(expression(2*x^3), "x") 2 * (3 * x^2) > eq<-expression(log(x)) > eq expression(log(x)) > D(eq, "x") 1/x > eq2<-expression(a/(1+b*exp(-d*x))); eq2 expression(a/(1 + b * exp(-d * x))) > D(eq2, "x") a * (b * (exp(-d * x) * d))/(1 + b