티스토리 뷰

지도학습은 정답 데이터(타깃 데이터)를 모두 알려주고 학습을 시킨 뒤에 예측을 하는 모델이었다면, 비지도 학습은 타깃이 없을 때 사용하는 머신러닝 알고리즘이다. 

 

사람이 가르쳐 주지 않아도 데이터 내에 있는 무언가를 학습하는 것이다. 

 

이번 포스팅에서 알아볼 군집은 비슷한 샘플끼리 그룹으로 모으는 작업을 말한다. 

 

우선 흑백 사진을 분류하는 예제로 군집 알고리즘이 뭔지 한번 알아보자.


데이터 확인

우선, 터미널에 

 wget https://bitly.com/fruits_300_data -OutFile fruits_300.npy

를 입력하여 캐글에 있는 데이터셋을 로컬로 받아온다. 

 

이 데이터는 사과, 바나나, 파인애플의 흑백 이미지 데이터를 각각 100장씩 300장 가지고 있는 데이터이다.

import numpy as np
import matplotlib.pyplot as plt
import pandas as pd

fruits = np.load('fruits_300.npy')

print(fruits.shape)
# (300, 100, 100)
# (샘플의 수, 이미지의 높이, 이미지의 너비)

# 첫번째 샘플에 들어있는 픽셀 100개의 들어 있는 값을 출력하자.
print(fruits[0, 0, :])
# [  1   1   1   1   1   1   1   1   1   1   1   1   1   1   1   1   2   1
#    2   2   2   2   2   2   1   1   1   1   1   1   1   1   2   3   2   1
#    2   1   1   1   1   2   1   3   2   1   3   1   4   1   2   5   5   5
#   19 148 192 117  28   1   1   2   1   4   1   1   3   1   1   1   1   1
#    2   2   1   1   1   1   1   1   1   1   1   1   1   1   1   1   1   1
#    1   1   1   1   1   1   1   1   1   1]

아래와 같이 넘파이의 imshow를 사용하여 배열로 저장된 이미지를 그릴 수 있다.

# imshow() -> 넘파이 배열로 저장된 이미지를 쉽게 그릴 수 있다.
plt.imshow(fruits[0], cmap='gray')
plt.show()

# 이미지가 넘파이에 저장될 때 색반전이 되었기 때문에, 다시 반전시키자.
plt.imshow(fruits[0], cmap='gray_r')
plt.show()

# 배열에 100개씩 사과와 바나나, 파인애플 이미지를 100개씩 가지고 있다.
# 각 이미지도 확인해보자.
# subplots를 이용하여 2개의 서브 그래프를 한번에 표출
fig, axs = plt.subplots(1, 2)
axs[0].imshow(fruits[100], cmap='gray_r')
axs[1].imshow(fruits[200], cmap='gray_r')
plt.show()


픽셀값 분석

이제, 배열을 계산하기 편하게 하기 위해 100 x 100의 배열을 길이가 10000인 1차원 배열로 만들고, 각 사진 데이터의 평균 값을 출력해보자.

# 픽셀값 분석을 위해 각 100x100 이미지 데이터를 길이가 10000인 1차원 배열로 만른다.
apple = fruits[0:100].reshape(-1, 100*100)
pineapple = fruits[100:200].reshape(-1, 100*100)
banana = fruits[200:300].reshape(-1, 100*100)

print(apple.shape)
# (100, 10000)

# 각 샘플의 평균값을 구해보자.
# 가로로 길이가 10000이므로, 열방향 계산(axis = 1)로 놓는다.
print(apple.mean(axis=1))
# [ 88.3346  97.9249  87.3709  98.3703  92.8705  82.6439  94.4244  95.5999
#   90.681   81.6226  87.0578  95.0745  93.8416  87.017   97.5078  87.2019
#   88.9827 100.9158  92.7823 100.9184 104.9854  88.674   99.5643  97.2495
#   94.1179  92.1935  95.1671  93.3322 102.8967  94.6695  90.5285  89.0744
#   97.7641  97.2938 100.7564  90.5236 100.2542  85.8452  96.4615  97.1492
#   90.711  102.3193  87.1629  89.8751  86.7327  86.3991  95.2865  89.1709
#   96.8163  91.6604  96.1065  99.6829  94.9718  87.4812  89.2596  89.5268
#   93.799   97.3983  87.151   97.825  103.22    94.4239  83.6657  83.5159
#  102.8453  87.0379  91.2742 100.4848  93.8388  90.8568  97.4616  97.5022
#   82.446   87.1789  96.9206  90.3135  90.565   97.6538  98.0919  93.6252
#   87.3867  84.7073  89.1135  86.7646  88.7301  86.643   96.7323  97.2604
#   81.9424  87.1687  97.2066  83.4712  95.9781  91.8096  98.4086 100.7823
#  101.556  100.7027  91.6098  88.8976]

 

이 평균값의 히스토그램을 한번 확인해보면, 

# 평균값의 히스토그램을 확인해보자.
plt.hist(np.mean(apple, axis=1), alpha=0.8)
plt.hist(np.mean(pineapple, axis=1), alpha=0.8)
plt.hist(np.mean(banana, axis=1), alpha=0.8)

# legend 함수로 범례 추가
plt.legend(['apple', 'pineapple', 'banana'])
plt.show()

이런 형태이다. 

 

바나나의 경우는 한쪽에 몰려있어서 분석이 가능할 지 몰라도, 파인애플과 사과는 둘 다 동그란 모양이라 그런지 그래프가 겹쳐있는 것을 확인할 수 있다.

 

이대로는 올바른 예측값을 얻어낼 수 없다. 

 

다른 방법을 구상해보자.

 

그럼 각 샘플 배열의 평균값이 아닌, 픽섹의 평균값을 구해보면 어떨까?

 

전체 샘플에 대하여 각 픽셀의 평균을 계산하면, 세 과일은 모양이 다르므로 픽셀 값이 높은 위치가 조금씩 다를 것이다.

 

한번 계산하여, 막대 그래프로 표시해보자.

# 사진의 평균값으로는 파인애플과 사과가 겹쳐있는 부분이 많아서 구분이 힘들 거 같다.
# 각 픽셀의 평균값으로 구하는 건 어떨까? 막대 그래프로 확인해보자.
fig, axs = plt.subplots(1, 3, figsize=(20, 5))
axs[0].bar(range(10000), np.mean(apple, axis=0))
axs[1].bar(range(10000), np.mean(pineapple, axis=0))
axs[2].bar(range(10000), np.mean(banana, axis=0))
plt.show()

확실히, 과일마다 값이 높은 구간이 다르다! 바나나는 중앙의 픽셀값이 높고, 파인애플은 골고루 높으며, 사과는 아래쪽으로 갈수록 값이 높아진다!

 

좀 더 자세하게 보기 위해 픽셀의 평균값을 100 x 100 크기로 다시 바꿔서 이미지로 출려해보자.


평균값과 가까운 사진 고르기

이제 사과 사진의 평균값인 apple_mean과 가장 가까운 사진들을 골라보자. 

 

절댓값 오차를 사용하여 평균값과 가장 오차가 적은 샘플 100개를 꺼내어 고르는 것이다.

# 평균값과 가까운 사진 고르기

# apple_mean과 절대값 오차가 가장 적은 샘플 100개를 뽑아보자.

abs_diff = np.abs(fruits - apple_mean)
abs_mean = np.mean(abs_diff, axis=(1,2))

print(abs_mean.shape)
# (300,)

# abs_mean 값이 가장 작은 순서대로 100개를 골라보자.
# argsort() -> 작은 것에서 큰 순서대로 나열
apple_index = np.argsort(abs_mean)[:100]

fig, axs = plt.subplots(10, 10, figsize = (10, 10))
for i in range(10):
    for j in range(10):
        axs[i, j].imshow(fruits[apple_index[i*10 + j]], cmap='gray_r')
        
        # 좌표 삭제
        axs[i, j].axis('off')

plt.show()

성공적으로 100개의 사진 모두 사과를 골랐다!

 

이렇게 비슷한 샘플끼리 그룹으로 모으는 작업 자체를 군집이라고 하며, 군집은 대표적인 비지도 학습 작업 중 하나이다. 

군집 알고리즘에서 만든 그룹을 클러스터라고 부른다.

 

하지만 위 예제는 애초부터 사과, 파인애플, 바나나가 있다는 것을 아고 있었다. 

 

즉, 타깃값을 이미 알고 있었기 때문에 사과, 파인애플, 바나나의 사진 평균값을 계산하여 가장 가까운 과일을 찾을 수 있었다. 

 

하지만 실제 비지도 학습에서는 이 타깃값을 아예 모르기 때문에 이처럼 샘플의 평균값을 미리 구할 수 없다!

 

이를 보완한 알고리즘이 k-평균 알고리즘이며, 다음 포스팅에서 다뤄보려고 한다.

 

 

 

끝!

반응형
Comments