오늘의 주제는 Neural Network 최적화입니다. Sigmoid보다 좀 더 효율적이라고 알려져 있는 ReLU, 초기 Weight를 좀 더 효율적으로 초기화시키는 Xavier Initializer, Dropout을 다뤄볼 것입니다.


먼저 Neural Network가 최적화되었음을 확인할 수 있게 간단히 Train & Test가 가능한 MNIST(Mixed National Institute of Standards and Technology database) 데이터셋을 사용합니다. MNIST는 숫자 손글씨를 28x28의 흑백 이미지와 그 숫자 손글씨가 어떤 숫자를 나타내는지 label이 붙어있는 데이터셋입니다. TensorFlow에서 제공하는 MNIST는 55,000개의 train set, 5,000개의 validation set, 10,000개의 test set으로 구성되어 있습니다. train set 이미지를 모아서 보면 아래 이미지와 같습니다.


네 뭐.... 엄청 많습니다. ㅋㅋㅋ


이제 본론으로 돌아와서, 이 MNIST에서 주어지는 train set을 학습시켜서 Neural Network가 test set의 이미지 숫자를 정상적으로 인식해내게 하면 됩니다. 먼저 가장 먼저 했던 Softmax로 위를 분류해보겠습니다. 모델의 종류만 다르고 실제로 학습 & 테스트 시에 dropout_rate 유무를 제외하고는 모든 코드가 같기 때문에 간결한 설명을 위해서 각 모델에 대한 설명만 하겠습니다. 코드는 첨부된 Jupyter Notebook 파일 또는 Python 파일을 참조해주시기 바랍니다.


기본적으로 image는 28x28(=768)의 데이터(1과 0으로 음영 구분), label은 10개의 배열(image에 맞는 숫자 index에 표기)이므로 아래와 같이 input placeholder를 짭니다.

X = tf.placeholder(tf.float32, [None, 28*28], name="x")
Y = tf.placeholder(tf.float32, [None, 10], name="y")

Xavier Initializer를 제외한 모든 Weight 초기화는 tf.random_normal로 했고, 최적화 모델은 기존에 쓰던 GradientDescentOptimizer보다 더 좋은 AdamOptimizer를 사용하였습니다. learning_rate는 0.001입니다.


1. Softmax

DNN Optimization(Softmax).ipynb

DNN Optimization(Softmax).py

간단히 28*28 행렬에서 곱을 하여 10 행렬을 만들어야 하기 때문에 아래와 같이 모델을 만듭니다.

w = tf.Variable(tf.zeros([28*28, 10]), name="Weight")
b = tf.Variable(tf.zeros([10]), name="Bias")

H = tf.nn.softmax(tf.matmul(X, w) + b)

이후 이 모델을 학습시키고 test set을 돌리면 다음과 같은 결과가 나옵니다. Epoch는 55,000개의 train set의 반복한 횟수입니다. (최적화 기술에 대한 비교를 위해 모든 기타 옵션을 똑같이 고정했기 때문에, Softmax의 경우 random_normal 대신 0으로, 최적화 모델도 rate랑 모델도 바꿔보면 92% 정도까지 나옵니다.)

Epoch: 1
Test Accuracy: 0.4371
Epoch: 2
Test Accuracy: 0.5924
Epoch: 3
Test Accuracy: 0.7421
Epoch: 4
Test Accuracy: 0.7831
Epoch: 5
Test Accuracy: 0.8081
Epoch: 6
Test Accuracy: 0.8268
Epoch: 7
Test Accuracy: 0.8429
Epoch: 8
Test Accuracy: 0.858
Epoch: 9
Test Accuracy: 0.8761
Epoch: 10
Test Accuracy: 0.8849
Epoch: 11
Test Accuracy: 0.892
Epoch: 12
Test Accuracy: 0.8962
Epoch: 13
Test Accuracy: 0.9006
Epoch: 14
Test Accuracy: 0.9036
Epoch: 15
Test Accuracy: 0.905


2. 4-Layer DNN, ReLU

DNN Optimization(4-Layer DNN, ReLU).ipynb

DNN Optimization(4-Layer DNN, ReLU).py DNN Optimization(4-Layer DNN, ReLU).ipynb

이번엔 지난 번에 배운 NN을 적용하고, activation function으로 sigmoid 대신 더 효율적이라고 알려져 있는 ReLU를 사용합니다. ReLU는 sigmoid와는 다르게 치역의 범위가 [0, ∞] 이며 간단하게 max(0, x)으로 나타낼 수 있습니다. 어떻게 보면 sigmoid의 1보다 좀 더 가중치를 두게 하여 더 효율적인 학습을 하게 했다고 볼 수 있을 거 같습니다. 모델은 다음과 같습니다.

def nn_layer(input_data, output_size):
    W = tf.Variable(tf.random_normal([input_data.get_shape().as_list()[1], output_size]))
    B = tf.Variable(tf.random_normal([output_size]))
    return tf.matmul(input_data, W) + B

with tf.name_scope("Layer2"):
    L2 = tf.nn.relu(nn_layer(X, 14*14))
    
with tf.name_scope("Layer3"):
    L3 = tf.nn.relu(nn_layer(L2, 14*14))
    
with tf.name_scope("Layer4"):
    H = nn_layer(L3, 10)


실행 결과는 다음과 같습니다. 위의 Softmax보다 좀 더 개선된 모습을 볼 수 있습니다.

Epoch: 1
Test Accuracy: 0.8417
Epoch: 2
Test Accuracy: 0.8828
Epoch: 3
Test Accuracy: 0.8995
Epoch: 4
Test Accuracy: 0.9103
Epoch: 5
Test Accuracy: 0.9194
Epoch: 6
Test Accuracy: 0.9253
Epoch: 7
Test Accuracy: 0.9283
Epoch: 8
Test Accuracy: 0.9276
Epoch: 9
Test Accuracy: 0.935
Epoch: 10
Test Accuracy: 0.9351
Epoch: 11
Test Accuracy: 0.9375
Epoch: 12
Test Accuracy: 0.9401
Epoch: 13
Test Accuracy: 0.9404
Epoch: 14
Test Accuracy: 0.9389
Epoch: 15
Test Accuracy: 0.9427


3. 4-Layer DNN, ReLU, Xavier Initializer

DNN Optimization(4-Layer DNN, ReLU, Xavier Init).ipynb

DNN Optimization(4-Layer DNN, ReLU, Xavier Init).py

과거의 Deep Learning에서는 Weight의 초기값을 단순히 random으로 초기화하거나 학습이 진행만 된다면 0으로 초기화하기도 하였습니다. 그러나 이 초기값 초기화의 중요성이 대두되면서 Xavier Initializer와 같은 새로운 초기화 알고리즘이 등장하게 되었습니다. 꽤 효과적인 Xavier Initializer는 다음과 같은 알고리즘으로 초기화를 합니다.

def xavier_init(n_inputs, n_outputs, uniform=True):
  """Set the parameter initialization using the method described.
  This method is designed to keep the scale of the gradients roughly the same
  in all layers.
  Xavier Glorot and Yoshua Bengio (2010):
           Understanding the difficulty of training deep feedforward neural
           networks. International conference on artificial intelligence and
           statistics.
  Args:
    n_inputs: The number of input nodes into each output.
    n_outputs: The number of output nodes for each input.
    uniform: If true use a uniform distribution, otherwise use a normal.
  Returns:
    An initializer.
  """
  if uniform:
    # 6 was used in the paper.
    init_range = math.sqrt(6.0 / (n_inputs + n_outputs))
    return tf.random_uniform_initializer(-init_range, init_range)
  else:
    # 3 gives us approximately the same limits as above since this repicks
    # values greater than 2 standard deviations from the mean.
    stddev = math.sqrt(3.0 / (n_inputs + n_outputs))
    return tf.truncated_normal_initializer(stddev=stddev)

실제로는 TensorFlow에 구현되어 있기 때문에 아래와 같이 간단하게 사용하여 모델을 작성할 수 있습니다. (본 강의에서는 w만 Xavier Initializer 쓴 거 같던데, 전 그냥 bias까지 썻습니다. 어차피 큰 차이는 없는 거 같기에...)

def nn_layer(name, input_data, output_size):
    W = tf.get_variable(name=name + "_W",
                        shape=[input_data.get_shape().as_list()[1], output_size],
                        initializer=tf.contrib.layers.xavier_initializer())
    B = tf.get_variable(name=name + "_B",
                        shape=[output_size],
                        initializer=tf.contrib.layers.xavier_initializer())
    return tf.matmul(input_data, W) + B

with tf.name_scope("Layer2"):
    L2 = tf.nn.relu(nn_layer("L2", X, 14*14))
    
with tf.name_scope("Layer3"):
    L3 = tf.nn.relu(nn_layer("L3", L2, 14*14))
    
with tf.name_scope("Layer4"):
    H = nn_layer("L4", L3, 10)

실행 결과는 다음과 같습니다. 이전과는 달리, 엄청나게 개선된 모습을 볼 수 있습니다.

Epoch: 1
Test Accuracy: 0.9509
Epoch: 2
Test Accuracy: 0.972
Epoch: 3
Test Accuracy: 0.9754
Epoch: 4
Test Accuracy: 0.9773
Epoch: 5
Test Accuracy: 0.9724
Epoch: 6
Test Accuracy: 0.9776
Epoch: 7
Test Accuracy: 0.9772
Epoch: 8
Test Accuracy: 0.977
Epoch: 9
Test Accuracy: 0.9791
Epoch: 10
Test Accuracy: 0.9791
Epoch: 11
Test Accuracy: 0.9773
Epoch: 12
Test Accuracy: 0.9807
Epoch: 13
Test Accuracy: 0.9811
Epoch: 14
Test Accuracy: 0.9757
Epoch: 15
Test Accuracy: 0.9787


4. 4-Layer DNN, ReLU, Xavier Initializer, Dropout

DNN Optimization(4-Layer DNN, ReLU, Xavier Init, Dropout).ipynb

DNN Optimization(4-Layer DNN, ReLU, Xavier Init, Dropout).py

이번에는 Dropout이라는 기술을 써볼 겁니다. 아주 간단합니다. Neural Network에서 일정 비율의 node들을 비활성화 시킨 채로 학습을 진행하고, 이후에 test 할 때 모두 활성화시키는 기술입니다. 실제로 효과가 꽤 있다고는 하는 거 같다만, 여기서는 그렇게 눈에 띄게 효과가 나타나진 않습니다. 모델과 결과는 다음과 같습니다.

def nn_layer(name, input_data, output_size):
    W = tf.get_variable(name=name + "_W",
                        shape=[input_data.get_shape().as_list()[1], output_size],
                        initializer=tf.contrib.layers.xavier_initializer())
    B = tf.get_variable(name=name + "_B",
                        shape=[output_size],
                        initializer=tf.contrib.layers.xavier_initializer())
    return tf.matmul(input_data, W) + B

dropout_rate = tf.placeholder(tf.float32)

with tf.name_scope("Layer2"):
    _L2 = tf.nn.relu(nn_layer("L2", X, 14*14))
    L2 = tf.nn.dropout(_L2, dropout_rate)
    
with tf.name_scope("Layer3"):
    _L3 = tf.nn.relu(nn_layer("L3", L2, 14*14))
    L3 = tf.nn.dropout(_L3, dropout_rate)
    
with tf.name_scope("Layer4"):
    _H = nn_layer("L4", L3, 10)
    H = tf.nn.dropout(_H, dropout_rate)
Epoch: 1
Test Accuracy: 0.9436
Epoch: 2
Test Accuracy: 0.9665
Epoch: 3
Test Accuracy: 0.9705
Epoch: 4
Test Accuracy: 0.9711
Epoch: 5
Test Accuracy: 0.9767
Epoch:  DNN Optimization(6-Layer DNN, ReLU, Xavier Init, Dropout, Ensemb6
Test Accuracy: 0.9754
Epoch: 7
Test Accuracy: 0.9774
Epoch: 8
Test Accuracy: 0.9802
Epoch: 9
Test Accuracy: 0.9807
Epoch: 10
Test Accuracy: 0.9781
Epoch: 11
Test Accuracy: 0.9798
Epoch: 12
Test Accuracy: 0.9795
Epoch: 13
Test Accuracy: 0.9805
Epoch: 14
Test Accuracy: 0.9804
Epoch: 15
Test Accuracy: 0.979


5. 6-Layer DNN, ReLU, Xavier Initializer, Dropout

DNN Optimization(6-Layer DNN, ReLU, Xavier Init, Dropout).ipynb

DNN Optimization(6-Layer DNN, ReLU, Xavier Init, Dropout).py

모델은 4번과 같으며 여기서 14*14 행렬로 레이어를 2개 더 늘렸습니다. 미미한 정확도 상승을 확인할 수 있습니다.

Epoch: 1
Test Accuracy: 0.9351
Epoch: 2
Test Accuracy: 0.9634
Epoch: 3
Test Accuracy: 0.9696
Epoch: 4
Test Accuracy: 0.9729
Epoch: 5
Test Accuracy: 0.9743
Epoch: 6
Test Accuracy: 0.9754
Epoch: 7
Test Accuracy: 0.975
Epoch: 8
Test Accuracy: 0.9782
Epoch: 9
Test Accuracy: 0.9776
Epoch: 10
Test Accuracy: 0.9776
Epoch: 11
Test Accuracy: 0.9772
Epoch: 12
Test Accuracy: 0.9787
Epoch: 13
Test Accuracy: 0.9795
Epoch: 14
Test Accuracy: 0.9794
Epoch: 15
Test Accuracy: 0.9793


6. 6-Layer DNN, ReLU, Xavier Initializer, Dropout, Ensemble(5 NNs)

DNN Optimization(6-Layer DNN, ReLU, Xavier Init, Dropout, Ensemb

DNN Optimization(6-Layer DNN, ReLU, Xavier Init, Dropout, Ensemb

이번엔 Ensemble(앙상블)을 해보겠습니다. Dropout보다 간단한 기술인데(기술이라고 해야하나..), 여러 개의 NN을 학습시켜서 여러 개의 NN에 test data를 넣고 predicted label을 평균 내는 등의 방법으로 정확도를 좀 더 개선하는 방법입니다. 강의에서는 3% 정도까지 정확도가 상승된다고 하셨는데, 실제로 제가 돌려봤을 때에는 0.5% 정도? 정확도가 상승하는 것을 확인할 수 있었습니다.

NN: 0 Epoch: 1 Test Accuracy: 0.9483 NN: 0 Epoch: 2 Test Accuracy: 0.9664 NN: 0 Epoch: 3 Test Accuracy: 0.9707 NN: 0 Epoch: 4 Test Accuracy: 0.9713 NN: 0 Epoch: 5 Test Accuracy: 0.9752 NN: 0 Epoch: 6 Test Accuracy: 0.9779 NN: 0 Epoch: 7 Test Accuracy: 0.9764 NN: 0 Epoch: 8 Test Accuracy: 0.9766 NN: 0 Epoch: 9 Test Accuracy: 0.9776 NN: 0 Epoch: 10 Test Accuracy: 0.9744 NN: 0 Epoch: 11 Test Accuracy: 0.9775 NN: 0 Epoch: 12 Test Accuracy: 0.9772 NN: 0 Epoch: 13 Test Accuracy: 0.9796 NN: 0 Epoch: 14 Test Accuracy: 0.9798 NN: 0 Epoch: 15 Test Accuracy: 0.9786 NN: 1 Epoch: 1 Test Accuracy: 0.9525 NN: 1 Epoch: 2 Test Accuracy: 0.959 NN: 1 Epoch: 3 Test Accuracy: 0.9666 NN: 1 Epoch: 4 Test Accuracy: 0.972 NN: 1 Epoch: 5 Test Accuracy: 0.9736 NN: 1 Epoch: 6 Test Accuracy: 0.9736 NN: 1 Epoch: 7 Test Accuracy: 0.9746 NN: 1 Epoch: 8 Test Accuracy: 0.9771 NN: 1 Epoch: 9 Test Accuracy: 0.9771 NN: 1 Epoch: 10 Test Accuracy: 0.9766 NN: 1 Epoch: 11 Test Accuracy: 0.978 NN: 1 Epoch: 12 Test Accuracy: 0.9788 NN: 1 Epoch: 13 Test Accuracy: 0.9787 NN: 1 Epoch: 14 Test Accuracy: 0.98 NN: 1 Epoch: 15 Test Accuracy: 0.9787 NN: 2 Epoch: 1 Test Accuracy: 0.9537 NN: 2 Epoch: 2 Test Accuracy: 0.966 NN: 2 Epoch: 3 Test Accuracy: 0.9742 NN: 2 Epoch: 4 Test Accuracy: 0.9731 NN: 2 Epoch: 5 Test Accuracy: 0.976 NN: 2 Epoch: 6 Test Accuracy: 0.9777 NN: 2 Epoch: 7 Test Accuracy: 0.9748 NN: 2 Epoch: 8 Test Accuracy: 0.978 NN: 2 Epoch: 9 Test Accuracy: 0.9766 NN: 2 Epoch: 10 Test Accuracy: 0.9784 NN: 2 Epoch: 11 Test Accuracy: 0.9787 NN: 2 Epoch: 12 Test Accuracy: 0.9767 NN: 2 Epoch: 13 Test Accuracy: 0.9813 NN: 2 Epoch: 14 Test Accuracy: 0.9804 NN: 2 Epoch: 15 Test Accuracy: 0.9815 NN: 3 Epoch: 1 Test Accuracy: 0.9547 NN: 3 Epoch: 2 Test Accuracy: 0.9677 NN: 3 Epoch: 3 Test Accuracy: 0.9722 NN: 3 Epoch: 4 Test Accuracy: 0.9708 NN: 3 Epoch: 5 Test Accuracy: 0.9728 NN: 3 Epoch: 6 Test Accuracy: 0.9753 NN: 3 Epoch: 7 Test Accuracy: 0.9773 NN: 3 Epoch: 8 Test Accuracy: 0.9783 NN: 3 Epoch: 9 Test Accuracy: 0.977 NN: 3 Epoch: 10 Test Accuracy: 0.9775 NN: 3 Epoch: 11 Test Accuracy: 0.9795 NN: 3 Epoch: 12 Test Accuracy: 0.9794 NN: 3 Epoch: 13 Test Accuracy: 0.9792 NN: 3 Epoch: 14 Test Accuracy: 0.9809 NN: 3 Epoch: 15 Test Accuracy: 0.9802 NN: 4 Epoch: 1 Test Accuracy: 0.9469 NN: 4 Epoch: 2 Test Accuracy: 0.9663 NN: 4 Epoch: 3 Test Accuracy: 0.9673 NN: 4 Epoch: 4 Test Accuracy: 0.9742 NN: 4 Epoch: 5 Test Accuracy: 0.9723 NN: 4 Epoch: 6 Test Accuracy: 0.9739 NN: 4 Epoch: 7 Test Accuracy: 0.9763 NN: 4 Epoch: 8 Test Accuracy: 0.9772 NN: 4 Epoch: 9 Test Accuracy: 0.9758 NN: 4 Epoch: 10 Test Accuracy: 0.9797 NN: 4 Epoch: 11 Test Accuracy: 0.9783 NN: 4 Epoch: 12 Test Accuracy: 0.9798 NN: 4 Epoch: 13 Test Accuracy: 0.9805 NN: 4 Epoch: 14 Test Accuracy: 0.9808 NN: 4 Epoch: 15 Test Accuracy: 0.9804


Ensemble Accuracy: 0.9846

이렇게 간단히 MNIST를 사용하여 딥러닝에서 사용되는 여러 기술을 적용해보고 테스트를 해봤습니다. 다음 번에는 CNN, RNN 등을 나갈 예정입니다.


*Ensemble은 생각보다 TensorFlow에서 구현하는 방법이 잘 나오지 않아서 아래 링크를 참조했습니다.

https://github.com/Hvass-Labs/TensorFlow-Tutorials/blob/master/05_Ensemble_Learning.ipynb

  1. Study 2017.10.17 11:39

    DNN 구현할 때 Output Data로 14×14를 넣으신 이유는 Layer를 2번 돌리기 때문일까요?

    • makeapp 2017.10.28 00:10 신고

      네, 중간 레이어 크기를 적당하게 잡아주기 위해서 적당히 14x14를 넣었습니다.

아주 간단한 Deep Learning에 대한 기초를 이전 글들을 통해 쌓아봤습니다. 이제 본격적으로 NN(Neural Network)를 시작할 겁니다. (기대되네요 >_<)


먼저 간단한 NN으로 다층 퍼셉트론을 이용한 XOR 문제를 해결해볼 것입니다. XOR(eXclusive OR: 베타적 논리합)은 논리 연산 중 하나입니다. 컴퓨터 프로그래밍에서는 A^B로 나타낼 수 있습니다. 두 변수가 있고, 이를 XOR 했을 때 결과는 다음 표와 같습니다.


B

A^B

 False

False

False

True

False

True

False

True

True

True

True

False


OR 연산과 다른 점은 A와 B를 연산했을 때 True가 아니라 False가 나온다는 점입니다. True를 1, False를 0이라고 두고 결과값 True를 파란색 점, False를 빨간색 점이라고 두면 다음과 같은 그래프로 나타낼 수 있습니다.

보시다시피, 이렇게 나와있는 형태의 경우 직선으로는 두 종류를 정확도 100%로 분할할 수 없습니다. 따라서 선형 분류가 불가능하다는 소리인데, 이런 경우가 XOR 말고도 꽤 있습니다. 따라서 이런 문제에서는 sigmoid 함수(뉴런)를 한 번만 사용하는 것이 아닌 여러 번을 겹쳐 사용하여 문제를 해결합니다. 간단히 아래와 같이 NN을 설계해보겠습니다.

(그래프 표기는 http://www.asimovinstitute.org/neural-network-zoo/를 따랐습니다. 넘나 이뻐서... 앞으로도 그래프는 이것을 따를 예정입니다)

노란색 노드: 입력, 초록색 노드: 은닉층, 주황색 노드: 출력

노란색 노드를 제외하고는 모두 sigmoid를 가지고 있는 연산노드입니다. 각 노드를 왼쪽부터 순서대로 Layer 1(노란색), Layer 2(초록색), Layer 3(주황색)이라고 하고 각 층마다 행렬로 묶어서 연산을 하면 좀 더 간단하게 연산을 나타낼 수 있습니다. 아래가 그 모습입니다.


이 상태에서 Layer 2, Layer 3에 sigmoid를 적용하면 끝인거죠. 참 쉽죠?


다음으로 이 네트워크를 어떻게 최적화시킬지 알아보겠습니다. 물론 TensorFlow 상에선 cross-entropy를 적용하고 GradientDescentOptimizer를 적용하면 바로 해결됩니다. 그래도 간단히 최적화시키는 기법인 Backpropagation을 알아가면 좋을 거 같아서 한 번 알아보겠습니다.


Backpropagation(역전파법)은 다음과 같은 과정으로 이뤄집니다.

1. Forward Propagation: 임의의 작은 수로 Network의 Weight를 초기화합니다. 그리고 학습 데이터를 입력하여 출력을 만들어냅니다.

2. label과 출력의 에러를 계산해냅니다. 그리고 이를 기반으로 Weight에 대한 미분값을 구합니다.


3. 계산된 에러의 미분값을 이용해 학습률(Learning rate)를 정하고 학습률만큼 수정된 Weight를 구해 업데이트합니다. 그리고 네트워크가 일정한 정확도

     에 도달할 때까지 이 과정을 반복합니다.


수식으로 나타내보고 싶지만, 이게 여간 쉬워보이진 않아서(...) 나중에 기회가 되면 수식으로 정리해보겠습니다.


이렇게 기초적인 NN에 대해 정리를 해봤습니다. 아래 코드를 통해서 이를 직접 테스트할 수 있습니다. Jupyter Notebook 파일도 첨부합니다.

Hello, NN!.ipynb

import tensorflow as tf
import numpy as np

x = [[0, 0], [0, 1], [1, 0], [1 ,1]]
y = [[0], [1], [1], [0]]

X = tf.placeholder(tf.float32, [None, 2], name="X-Input")
Y = tf.placeholder(tf.float32, [None, 1], name="Y-Input")

W1 = tf.Variable(tf.random_uniform([2, 2], -1., 1.), name="W1")
W2 = tf.Variable(tf.random_uniform([2, 1], -1., 1.), name="W2")
B1 = tf.Variable(tf.zeros([2]), name="B1")
B2 = tf.Variable(tf.zeros([1]), name="B2")

with tf.name_scope("Layer2") as scope:
    L2 = tf.sigmoid(tf.matmul(X, W1) + B1)
with tf.name_scope("Layer3") as scope:
    L3 = tf.sigmoid(tf.matmul(L2, W2) + B2)

with tf.name_scope("Cost") as scope:
    cost = -tf.reduce_mean(Y * tf.log(L3) + (1 - Y) * tf.log(1 - L3))
    cost_summ = tf.summary.scalar("Cost", cost)    

with tf.name_scope("Train") as scope:
    train = tf.train.GradientDescentOptimizer(0.5).minimize(cost)

with tf.name_scope("Accuracy") as scope:
    accuracy = tf.reduce_mean(tf.cast(tf.equal(tf.floor(L3 + 0.5), Y), tf.float32))
    accuracy_summ = tf.summary.scalar("Accuracy", accuracy)

init = tf.global_variables_initializer()
sess = tf.Session()
sess.run(init)

merged = tf.summary.merge_all()
writer = tf.summary.FileWriter("./logs/", sess.graph)

for step in xrange(2001):
    summary, _ = sess.run([merged, train], feed_dict={X: x, Y: y})
    writer.add_summary(summary, step)
    if step % 500 == 0:
        print sess.run(cost, feed_dict={X: x, Y: y})

print sess.run(accuracy, feed_dict={X: x, Y: y})


추가적으로 설명하자면, Deep Learning에서 Accuracy 등의 변화를 좀 더 편하게 살피고, 네트워크의 구조를 살피기 좋게 TensorFlow에서는 TensorBoard라는 것을 제공합니다. 따라서 앞으로 다루는 NN에 대해서는 TensorBoard를 적용해서 편리하게 네트워크를 보려고 합니다. 그래서 이번 기회에 이 TensorBoard를 소개하고자 합니다. TensorBoard 사용방법은 다음과 같습니다.


1. 그래프에 표기하고 싶은 변수들의 이름을 정한다

X = tf.placeholder(tf.float32, [None, 2], name="X-Input")


2. 기록하고 싶은 부분(Accuracy, Cost, Layer 등)을 scop를 통해 묶는다.

with tf.name_scope("Train") as scope:


3. Scalar 그래프 또는 Histogram 그래프로 보고 싶은 변수는 아래와 같이 이름과 함께 등록해둔다.

cost_summ = tf.summary.scalar("Cost", cost)


4. 모든 Summaries를 Merge하고, 이 Summaries를 기록할 Writer를 만든다. 이때 저장될 log의 경로를 정합니다.

merged = tf.summary.merge_all()

writer = tf.summary.FileWriter("./logs/", sess.graph)


5. merged된 것을 돌리고 매 step마다 writer에 추가합니다.

summary, _ = sess.run([merged, train], feed_dict={X: x, Y: y})

writer.add_summary(summary, step)


6. TensorBoard를 이용해 기록된 log, 네트워크의 graph를 확인합니다. 이때 경로 상에 ','가 있는 경우 그걸 기점으로 경로가 나눠져버리니 이 점 고려하셔야 합니다. (의도는 여러 개의 log를 볼 수 있게 ','를 통해 여러 경로를 받으려는 거 같은데, ""로 경로를 하나 감싸도 이러는 거 보니 버그 맞는 듯) 만약 로그가 정상적으로 로딩이 안 되면, --debug를 붙여서 TensorBoard의 상태를 확인해보시면 됩니다.

tensorboard --logdir=./logs/


아래는 위 코드를 실행시키고 TensorBoard로 Cost, Accuracy, NN의 Graph를 확인한 내용입니다.



이렇게 간단한 NN을 끝내봤습니다. 다음엔 ReLU를 할 거 같습니다.


오늘은 머신러닝 데이터셋 중에서 유명한 붓꽃(iris) 데이터셋을 이용하여 여러 개의 sigmoid 함수를 써서 다변수의 classification을 해보겠습니다.
데이터셋은 다음의 링크(http://ai-times.tistory.com/418)에서 다운받으실 수 있습니다.


일단 먼저 붓꽃 데이터셋은 4개의 항목(SepalLength, SepalWidth, PetalLength, PetalWidth)과 그에 맞는 붓꽃의 종류(Species)가 있습니다. 이때 각 항목에 맞는 데이터를 집어 넣고 그 항목에 맞는 붓꽃은 무슨 종류인지 알아 내려면 이 항목들이 어떤 특성을 가지고 있는지 확인해야 합니다. 따라서 각 항목별로 그래프를 그려서 분포를 확인해봅니다.

Sepal Width, Sepal Length 그래프에서 versicolor 종과 virginica 종이 섞여서 분포하는 것을 제외하고는 대부분 각 종마다 특정 좌표에 많이 모여있다는 게 보입니다. 이런 경우에는 Softmax Classification을 적용하여 종을 알고 싶은 붓꽃의 항목 데이터를 입력하여 붓꽃의 종을 알아내는 인공지능을 만들어 낼 수 있는 것이죠.


자, 그러면 이제 프로그래밍을 해볼 차례입니다. 우리의 목표는 붓꽃의 항목 데이터를 받아서 붓꽃의 종(3가지)을 알아내는 겁니다. 이때 Logistic Regression은 어떤 특정 항목에 대한 확률을 보여주는 방법이기 때문에 3가지 종에 각각 Logistic Regression을 적용해주면 됩니다. 즉, setosa인지 아닌지 확률을 판단하는 Logistic Regression, versicolor인지 아닌지 확률을 판단하는 Logistic Regression, virginica인지 아닌지 확률을 판단하는 Logistic Regression을 각각 만들어서 각 함수에 항목 데이터를 입력해서 각 종에 대한 확률을 구하고, 그 확률이 가장 높은 게 그 종이 되는 겁니다.


그러나 이렇게 각 종마다 Logistic Regression을 적용하면 output이 모두 같게 (예: (0.9, 0.9, 0.9)) 나올 수도 있고, 성능도 조금 떨어지기 때문에 각 종에 맞을 확률의 합이 1(예: (0.7, 0.2, 0.1))로 나오도록 sigmoid를 확장시켜 Softmax라는 새로운 식이 등장하게 되었습니다. Softmax는 다음과 같습니다.

이때 K=2라면 원래 sigmoid 형태의 함수가 나오게 되죠.



자, 그러면 이제 프로그래밍을 해볼까요? 일단 총 3개의 종이 있고, 4개의 항목이 있으니 이에 대한 3행 4열의 weight 행렬을 만들어야 합니다. 그리고 3행의 bias 행렬도 필요하겠죠.


이때 input은 ?행(데이터 개수) 4열이기 때문에 편의상 W를 Tranpose 해주고 곱한 다음에 b도 Tranpose 하고 더하면 됩니다. 즉, 간단하게 4행 3열의 weight, 3열의 bias 행렬을 생성해서 사용하면 됩니다.


다음으로는 이 W, b를 최적화시켜서 최대한 올바른 Softmax 함수가 나오도록 해 줄 cost값을 도출할 함수가 필요합니다. 이 함수를 Cross Entropy 함수라고 합니다. 이 함수는 다음과 같습니다.


sigmoid에서 Softmax가 나온 것처럼 이것도 sigmoid에서 쓰인 cost함수랑 비슷하게 생겼습니다. TensorFlow에서 위 식을 직접 구현해서 써도 되긴 하지만, TensorFlow Tutorial에서 MNIST for ML Beginners 문서를 보면 불안정하다고 나와있으니 tf.nn.softmax_cross_entropy_with_logits 함수를 사용할 것입니다. (Note that in the source code, we don't use this formulation, because it is numerically unstable. Instead, we apply tf.nn.softmax_cross_entropy_with_logits on the unnormalized logits (e.g., we call softmax_cross_entropy_with_logits on tf.matmul(x, W) + b), because this more numerically stable function internally computes the softmax activation. In your code, consider using tf.nn.(sparse_)softmax_cross_entropy_with_logits instead)


이제 Softmax 알고리즘은 다 준비되었습니다. 위 내용을 기반으로 프로그래밍을 해보면 아래와 같은 코드가 나옵니다. (이번에는 Jupyter Notebook을 이용하여 코딩을 해서 따로 이 파일도 첨부하겠습니다.)


softmax_classification.ipynb

import tensorflow as tf
import pandas as pd
import numpy as np

keys = ['SepalLength', 'SepalWidth', 'PetalLength', 'PetalWidth']
data = pd.read_csv("iris.csv")
data = data.drop('caseno', axis=1)

species = list(data['Species'].unique())
data['class'] = data['Species'].map(lambda x: np.eye(len(species))[species.index(x)])

testset = data.sample(50)
trainset = data.drop(testset.index)

X = tf.placeholder(tf.float32, [None, 4])
Y = tf.placeholder(tf.float32, [None, 3])

W = tf.Variable(tf.zeros([4, 3]), name="Weight")
b = tf.Variable(tf.zeros([3]), name="Bias")

H = tf.nn.softmax(tf.matmul(X, W) + b)

cross_entropy = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(H, Y, name="Cross_Entropy"))
optimizer = tf.train.GradientDescentOptimizer(0.5).minimize(cross_entropy)

accuracy = tf.reduce_mean(tf.cast(tf.equal(tf.argmax(H, 1), tf.argmax(Y, 1)), tf.float32))

init = tf.initialize_all_variables()

sess = tf.Session()
sess.run(init)

trainset_class = [y for y in trainset['class'].values]

for step in xrange(1001):
    sess.run(optimizer, feed_dict={X: trainset[keys].values,
                                   Y: trainset_class})
    if step % 100 == 0:
        print step, sess.run(accuracy, feed_dict={X: trainset[keys].values,
                                                  Y: trainset_class})
        print sess.run(cross_entropy, feed_dict={X: trainset[keys].values,
                                                 Y: trainset_class})
# Check which data is error
# trainset_result = sess.run(H, feed_dict={X: trainset[keys].values})

# error_data = []

# for x in xrange(trainset.shape[0]):
#     if np.argmax(trainset_result[x], 0) != np.argmax(trainset_class[x], 0):
#         error_data.append(trainset.values[x])
        
# print error_data

# Check testdata's accuracy
print sess.run(accuracy, feed_dict={X: testset[keys].values,
                                    Y: [y for y in testset['class'].values]})

# Test which species accords this data
species = ["setosa", "versicolor", "virginica"]

sample = data.sample(1)
result = species[np.argmax(sess.run(H, feed_dict={X: sample[keys].values}))]
print "The flower which has", sample[keys].values, "may be", result
if result == sample['Species'].values:
    print "Correct!"
else:
    print "Incorrect!"

실행시켜보면 거의 평균적으로 정확도가 98% 정도 나옵니다.


이렇게 Softmax Classification을 끝내봤습니다. 다음에는 TensorBoard를 소개하면서 NN을 시작하지 않을까 싶네요.


+ Recent posts