티스토리 뷰
지도학습은 정답 데이터(타깃 데이터)를 모두 알려주고 학습을 시킨 뒤에 예측을 하는 모델이었다면, 비지도 학습은 타깃이 없을 때 사용하는 머신러닝 알고리즘이다.
사람이 가르쳐 주지 않아도 데이터 내에 있는 무언가를 학습하는 것이다.
이번 포스팅에서 알아볼 군집은 비슷한 샘플끼리 그룹으로 모으는 작업을 말한다.
우선 흑백 사진을 분류하는 예제로 군집 알고리즘이 뭔지 한번 알아보자.
데이터 확인
우선, 터미널에
wget https://bitly.com/fruits_300_data -OutFile fruits_300.npy
를 입력하여 캐글에 있는 데이터셋을 로컬로 받아온다.
이 데이터는 사과, 바나나, 파인애플의 흑백 이미지 데이터를 각각 100장씩 300장 가지고 있는 데이터이다.
import numpy as np
import matplotlib.pyplot as plt
import pandas as pd
fruits = np.load('fruits_300.npy')
print(fruits.shape)
# (300, 100, 100)
# (샘플의 수, 이미지의 높이, 이미지의 너비)
# 첫번째 샘플에 들어있는 픽셀 100개의 들어 있는 값을 출력하자.
print(fruits[0, 0, :])
# [ 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 2 1
# 2 2 2 2 2 2 1 1 1 1 1 1 1 1 2 3 2 1
# 2 1 1 1 1 2 1 3 2 1 3 1 4 1 2 5 5 5
# 19 148 192 117 28 1 1 2 1 4 1 1 3 1 1 1 1 1
# 2 2 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1
# 1 1 1 1 1 1 1 1 1 1]
아래와 같이 넘파이의 imshow를 사용하여 배열로 저장된 이미지를 그릴 수 있다.
# imshow() -> 넘파이 배열로 저장된 이미지를 쉽게 그릴 수 있다.
plt.imshow(fruits[0], cmap='gray')
plt.show()
# 이미지가 넘파이에 저장될 때 색반전이 되었기 때문에, 다시 반전시키자.
plt.imshow(fruits[0], cmap='gray_r')
plt.show()
# 배열에 100개씩 사과와 바나나, 파인애플 이미지를 100개씩 가지고 있다.
# 각 이미지도 확인해보자.
# subplots를 이용하여 2개의 서브 그래프를 한번에 표출
fig, axs = plt.subplots(1, 2)
axs[0].imshow(fruits[100], cmap='gray_r')
axs[1].imshow(fruits[200], cmap='gray_r')
plt.show()
픽셀값 분석
이제, 배열을 계산하기 편하게 하기 위해 100 x 100의 배열을 길이가 10000인 1차원 배열로 만들고, 각 사진 데이터의 평균 값을 출력해보자.
# 픽셀값 분석을 위해 각 100x100 이미지 데이터를 길이가 10000인 1차원 배열로 만른다.
apple = fruits[0:100].reshape(-1, 100*100)
pineapple = fruits[100:200].reshape(-1, 100*100)
banana = fruits[200:300].reshape(-1, 100*100)
print(apple.shape)
# (100, 10000)
# 각 샘플의 평균값을 구해보자.
# 가로로 길이가 10000이므로, 열방향 계산(axis = 1)로 놓는다.
print(apple.mean(axis=1))
# [ 88.3346 97.9249 87.3709 98.3703 92.8705 82.6439 94.4244 95.5999
# 90.681 81.6226 87.0578 95.0745 93.8416 87.017 97.5078 87.2019
# 88.9827 100.9158 92.7823 100.9184 104.9854 88.674 99.5643 97.2495
# 94.1179 92.1935 95.1671 93.3322 102.8967 94.6695 90.5285 89.0744
# 97.7641 97.2938 100.7564 90.5236 100.2542 85.8452 96.4615 97.1492
# 90.711 102.3193 87.1629 89.8751 86.7327 86.3991 95.2865 89.1709
# 96.8163 91.6604 96.1065 99.6829 94.9718 87.4812 89.2596 89.5268
# 93.799 97.3983 87.151 97.825 103.22 94.4239 83.6657 83.5159
# 102.8453 87.0379 91.2742 100.4848 93.8388 90.8568 97.4616 97.5022
# 82.446 87.1789 96.9206 90.3135 90.565 97.6538 98.0919 93.6252
# 87.3867 84.7073 89.1135 86.7646 88.7301 86.643 96.7323 97.2604
# 81.9424 87.1687 97.2066 83.4712 95.9781 91.8096 98.4086 100.7823
# 101.556 100.7027 91.6098 88.8976]
이 평균값의 히스토그램을 한번 확인해보면,
# 평균값의 히스토그램을 확인해보자.
plt.hist(np.mean(apple, axis=1), alpha=0.8)
plt.hist(np.mean(pineapple, axis=1), alpha=0.8)
plt.hist(np.mean(banana, axis=1), alpha=0.8)
# legend 함수로 범례 추가
plt.legend(['apple', 'pineapple', 'banana'])
plt.show()
이런 형태이다.
바나나의 경우는 한쪽에 몰려있어서 분석이 가능할 지 몰라도, 파인애플과 사과는 둘 다 동그란 모양이라 그런지 그래프가 겹쳐있는 것을 확인할 수 있다.
이대로는 올바른 예측값을 얻어낼 수 없다.
다른 방법을 구상해보자.
그럼 각 샘플 배열의 평균값이 아닌, 픽섹의 평균값을 구해보면 어떨까?
전체 샘플에 대하여 각 픽셀의 평균을 계산하면, 세 과일은 모양이 다르므로 픽셀 값이 높은 위치가 조금씩 다를 것이다.
한번 계산하여, 막대 그래프로 표시해보자.
# 사진의 평균값으로는 파인애플과 사과가 겹쳐있는 부분이 많아서 구분이 힘들 거 같다.
# 각 픽셀의 평균값으로 구하는 건 어떨까? 막대 그래프로 확인해보자.
fig, axs = plt.subplots(1, 3, figsize=(20, 5))
axs[0].bar(range(10000), np.mean(apple, axis=0))
axs[1].bar(range(10000), np.mean(pineapple, axis=0))
axs[2].bar(range(10000), np.mean(banana, axis=0))
plt.show()
확실히, 과일마다 값이 높은 구간이 다르다! 바나나는 중앙의 픽셀값이 높고, 파인애플은 골고루 높으며, 사과는 아래쪽으로 갈수록 값이 높아진다!
좀 더 자세하게 보기 위해 픽셀의 평균값을 100 x 100 크기로 다시 바꿔서 이미지로 출려해보자.
평균값과 가까운 사진 고르기
이제 사과 사진의 평균값인 apple_mean과 가장 가까운 사진들을 골라보자.
절댓값 오차를 사용하여 평균값과 가장 오차가 적은 샘플 100개를 꺼내어 고르는 것이다.
# 평균값과 가까운 사진 고르기
# apple_mean과 절대값 오차가 가장 적은 샘플 100개를 뽑아보자.
abs_diff = np.abs(fruits - apple_mean)
abs_mean = np.mean(abs_diff, axis=(1,2))
print(abs_mean.shape)
# (300,)
# abs_mean 값이 가장 작은 순서대로 100개를 골라보자.
# argsort() -> 작은 것에서 큰 순서대로 나열
apple_index = np.argsort(abs_mean)[:100]
fig, axs = plt.subplots(10, 10, figsize = (10, 10))
for i in range(10):
for j in range(10):
axs[i, j].imshow(fruits[apple_index[i*10 + j]], cmap='gray_r')
# 좌표 삭제
axs[i, j].axis('off')
plt.show()
성공적으로 100개의 사진 모두 사과를 골랐다!
이렇게 비슷한 샘플끼리 그룹으로 모으는 작업 자체를 군집이라고 하며, 군집은 대표적인 비지도 학습 작업 중 하나이다.
군집 알고리즘에서 만든 그룹을 클러스터라고 부른다.
하지만 위 예제는 애초부터 사과, 파인애플, 바나나가 있다는 것을 아고 있었다.
즉, 타깃값을 이미 알고 있었기 때문에 사과, 파인애플, 바나나의 사진 평균값을 계산하여 가장 가까운 과일을 찾을 수 있었다.
하지만 실제 비지도 학습에서는 이 타깃값을 아예 모르기 때문에 이처럼 샘플의 평균값을 미리 구할 수 없다!
이를 보완한 알고리즘이 k-평균 알고리즘이며, 다음 포스팅에서 다뤄보려고 한다.
끝!
'[Python] > Machine learning' 카테고리의 다른 글
[ML] 비지도 학습 3: 주성분 분석 (0) | 2023.03.02 |
---|---|
[ML] 비지도 학습 2: k-평균 알고리즘 (0) | 2023.03.01 |
[ML] 지도 학습 8: 트리의 앙상블 (1) | 2023.02.27 |
[ML] 지도 학습 7: 교차 검증과 그리스 서치 (0) | 2023.02.26 |
[ML] 지도 학습 6: 결정 트리 (0) | 2023.02.26 |
- AsyncStorage
- 맛집
- 이탈리안 레스토랑
- 인천 구월동 맛집
- javascript
- 파니노구스토
- react-native
- await
- react
- 인천 구월동 이탈리안 맛집
- redux
- Async
- redux-thunk
- 정보보안기사 #실기 #정리
- Promise
- Total
- Today
- Yesterday