• 追加された行はこの色です。
  • 削除された行はこの色です。
*はじめに [#k8d83fec]
[[Keras>https://keras.io/ja/]]はディープ・ラーニング・ライブラリーの[[TensorFlow>https://www.tensorflow.org]]を使用するためのライブラリーです。

*インストール [#g811f7e5]
ここでは、Anacondaに追加する形でインストールします。

まず、Anaconda Navigatorを起動し、Environmentsを表示します。
#ref(./anaconda.png,25%,nolink)

次に、base (root)の横の三角形をクリックし、メニューを表示します。
#ref(./environments.png,25%,nolink)

メニューから、Open Terminalを選び、ターミナルを開きます。
#ref(./open_terminal.png,25%,nolink)

ターミナルを開いたら、念の為、CondaとMatplotlibをアップデートします。
#geshi(sh){{
conda update conda
conda update matplotlib
}}

CondaとMatplotlibをアップデートしたら、Kerasをインストールします。
TensorFlowはKerasと一緒にインストールされます。
#geshi(sh){{
conda install keras
}}


*使い方 [#t08ea9ce]
**ライブラリーの読み込み [#ka508f48]

ライブラリー名は ''keras'' です。
#geshi(python){{
import keras
}}

ライブラリーを読み込んで、次のようなメッセージが出てきたら、準備はできています。
#geshi(sh){{
Using TensorFlow backend.
}}


**予測モデル学習器の生成 [#k5247b2d]

Kerasを使うことで、ディープ・ラーニング・ライブラリーのTensorFlowをScikit-learnと同じように使えます。

ディープ・ラーニングというのは、ニューラル・ネットワークの中間層が2つ以上のものです。
ここでは、基本的な全結合の4層モデル(入力層、中間層2つ、出力層)を作成する例を示します。

ここで、Scikit-learnに付属しているIrisデータセットを例題として使います。
説明変数は花びらの長さ、幅、萼(がく)片の長さ、幅の4つ、目的変数はSetosaを表す0、Versicolorを表す1、Virginicaを表す2の3種類です。

まず、シーケンシャル・モデルの入れ物を作成します。
#geshi(python){{
from keras.models import Sequential
model = Sequential()
}}

次に、入力層と1つ目の中間層を追加します。
#geshi(python){{
from keras.layers import Dense
model.add(Dense(units=16, activation='relu', input_dim=4))
}}
''Dense'' は全結合のレイヤーです。
''units'' はこのレイヤーのユニット数、''activation'' は活性化関数(ここではランプ関数 ReLU)を表します。
''input_dim'' オプションは、最初の中間層だけに指定し、入力層のユニット数を表します。
説明変数が4つなので、入力層のユニット数は4です。

続いて、2つ目の中間層を追加します。
#geshi(python){{
model.add(Dense(units=8, activation='relu'))
}}

最後に、出力層を追加します。
#geshi(python){{
model.add(Dense(units=3, activation='softmax'))
}}
分類用なので、出力層の活性化関数をソフトマックス Softmax にしています。
出力が3種類なので、出力層のユニット数は3です。

全てのレイヤーを追加したら、モデルをコンパイルします。
#geshi(python){{
model.compile(loss='categorical_crossentropy', optimizer='sgd', metrics=['accuracy'])
}}
''loss'' は損失関数、''optimizer'' は最適化手法、''metrics'' は評価尺度を表します。
ここでは、分類用なので、損失関数はカテゴリカル・クロスエントロピー categorical_crossentropy、評価尺度は精度 accuracy にしています。
最適化手法は、最もシンプルな確率的勾配法 SGD にしています。


**ニューラル・ネットワークの学習 [#zbb3432f]

まず、データを準備します。

Scikit-learnに付属しているIrisデータセットの目的変数は、[0, ..., 1, ..., 2, ...] という1次元ベクトルになっていますが、Kerasに付属している np_utils を用いて、これを [[1, 0, 0], ..., [0, 1, 0], ..., [0, 0, 1], ...] というOne hotベクトルに変換します。
#geshi(python){{
from sklearn import datasets
from keras.utils import np_utils
iris = datasets.load_iris()
X = iris.data
y = np_utils.to_categorical(iris.target)
}}

Scikit-learnと同じように、fitメソッドで学習します。
#geshi(python){{
model.fit(X, y, epochs=10, batch_size=150)
}}
''epochs'' は繰り返し数、''batch_size'' は重みの更新を事例いくつごとに行うかを表します。
Irisデータセットには事例が150個含まれているので、ここでは全部まとめて重みを更新しています。
''epochs'' は事例全体に対して何回繰り返し学習するか、''batch_size'' は重みの更新をいくつの事例ごとに行うかを表します。
Irisデータセットには事例が150個含まれているので、ここでは150事例ごとに10回重みを更新しています。
(batch_size=1 にすると、1事例ごとに、1,500回重みを更新します。)
#geshi(sh){{
Epoch 1/10
150/150 [==============================] - 0s 35us/step - loss: 0.0539 - acc: 0.9733
Epoch 2/10
150/150 [==============================] - 0s 39us/step - loss: 0.0539 - acc: 0.9733
Epoch 3/10
150/150 [==============================] - 0s 38us/step - loss: 0.0539 - acc: 0.9733
Epoch 4/10
150/150 [==============================] - 0s 74us/step - loss: 0.0538 - acc: 0.9733
Epoch 5/10
150/150 [==============================] - 0s 23us/step - loss: 0.0538 - acc: 0.9733
Epoch 6/10
150/150 [==============================] - 0s 82us/step - loss: 0.0537 - acc: 0.9733
Epoch 7/10
150/150 [==============================] - 0s 39us/step - loss: 0.0537 - acc: 0.9733
Epoch 8/10
150/150 [==============================] - 0s 57us/step - loss: 0.0536 - acc: 0.9733
Epoch 9/10
150/150 [==============================] - 0s 46us/step - loss: 0.0536 - acc: 0.9733
Epoch 10/10
150/150 [==============================] - 0s 121us/step - loss: 0.0536 - acc: 0.9733
}}


**学習した予測モデルの評価 [#i083e7c6]

Scikit-learnと同じように、evaluateメソッドで評価します。
#geshi(python){{
score = model.evaluate(X, y, batch_size=150)
print(model.metrics_names)
print(score)
}}
ここでは、訓練データを用いて予測モデルを評価していますが、本来は、訓練データとは別に検証データを用意して評価します。

#geshi(sh){{
150/150 [==============================] - 0s 14us/step
['loss', 'acc']
[0.053536947816610336, 0.9733333587646484]
}}
損失が0.053、精度が0.973でした。


**学習した予測モデルによる予測 [#y5a30f2b]

Scikit-learnと同じように、predictメソッドで予測します。
#geshi(python){{
import numpy as np
p = np.argmax(model.predict(X), axis=1)
print(p)
}}
出力ユニットごとの値が出てくるので、行ごとにargmaxメソッドで最大値を持つ引数を求めます。
#geshi(sh){{
[0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
 0 0 0 0 0 0 0 0 0 0 0 0 0 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 2 1 2 1
 1 1 1 1 1 1 1 1 1 2 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 2 2 2 2 2 2 2 2 2 2 2
 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 1 2 2 2 2 2 2 2 2 2 2 2 2 2 2
 2 2]
}}


*畳み込みディープ・ニューラル・ネットワーク (CDNN) による画像分類 [#fba6b065]

手書き文字認識のMNISTデータセットを用いて、畳み込みディープ・ニューラル・ネットワークを使って画像分類をやってみます。

まずはデータセットをダウンロドします。
#geshi(python){{
from keras.datasets import mnist
(X_train, y_train), (X_test, y_test) = mnist.load_data()
}}
#geshi(sh){{
Downloading data from https://s3.amazonaws.com/img-datasets/mnist.npz
11493376/11490434 [==============================] - 136s 12us/step
}}

訓練データには縦横28ピクセルのモノクロ画像が6万枚入っています。
#geshi(python){{
print(X_train.shape)
print(y_train)
}}
#geshi(sh){{
(60000, 28, 28)
[5 0 4 ... 5 6 8]
}}




この記事はまだ書きかけです。

トップ   新規 一覧 単語検索 最終更新   ヘルプ   最終更新のRSS