TensorFlow使ってみた~GoogleColab/IMDB~テキスト分類

ここでは、映画のレビューをそのテキストを使って肯定的か否定的かに分類します。
これは、二値分類あるいは2クラス分類という問題の例であり、機械学習において重要でいろいろな応用が可能なものです。

ここでは、インターネット動画データベースから抽出した50,000件の映画レビューを含む、IMDBデータセットを使います。
レビューは訓練用とテスト用に25,000件ずつに分割されています。
訓練用とテスト用のデータは均衡しとりると、それぞれが同数の肯定的及び否定的なレビューを含んでいます。

www.tensorflow.org

諸々インポート

from __future__ import absolute_import, division, print_function, unicode_literals

import tensorflow as tf
from tensorflow import keras

import numpy as np

print(tf.__version__)

出力

2.2.0

データセット取得

IMDBデータセットは、TensorFlowにパッケージ化されています。
それは前処理済みのものであり、(単語の連なりである)レビューが、整数の配列に変換されています。
そこでは整数が辞書中の特定の単語を表します。 次のコードは、IMDBデータセットをあなたのパソコンにダウンロードします。(すでにダウンロードしていれば、キャッシュされたコピーを使用します)

imdb = keras.datasets.imdb

(train_data, train_labels), (test_data, test_labels) = imdb.load_data(num_words=10000)

num_words=10000という引数は、訓練データ中に出てくる単語のうち、最も頻繁に出現する10,000個を保持するためのものです。
データサイズを管理可能にするため、稀にしか出現しない単語は破棄されます。

データの観察

データの形式を理解するために少し時間を割いてみましょう。
このデータセットは前処理済みで、サンプルそれぞれが、映画レビューの中の単語を表す整数の配列になっています。
ラベルはそれぞれ、 0または1の整数値で、0が否定的レビュー、1が肯定的なレビューを示しています。

print("Training entries: {}, labels: {}".format(len(train_data), len(train_labels)))

出力

Training entries: 25000, labels: 25000

レビューのテキストは複数の整数に変換されており、それぞれの整数が辞書の中の特定の単語を表します。
最初のレビューがどのようなものか見てみましょう。

print(train_data[0])

出力

[1, 14, 22, 16, 43, 530, 973, 1622, 1385, 65, 458, 4468, 66, 3941, 4, 173, 36, 256, 5, 25, 100, 43, 838, 112, 50, 670, 2, 9, 35, 480, 284, 5, 150, 4, 172, 112, 167, 2, 336, 385, 39, 4, 172, 4536, 1111, 17, 546, 38, 13, 447, 4, 192, 50, 16, 6, 147, 2025, 19, 14, 22, 4, 1920, 4613, 469, 4, 22, 71, 87, 12, 16, 43, 530, 38, 76, 15, 13, 1247, 4, 22, 17, 515, 17, 12, 16, 626, 18, 2, 5, 62, 386, 12, 8, 316, 8, 106, 5, 4, 2223, 5244, 16, 480, 66, 3785, 33, 4, 130, 12, 16, 38, 619, 5, 25, 124, 51, 36, 135, 48, 25, 1415, 33, 6, 22, 12, 215, 28, 77, 52, 5, 14, 407, 16, 82, 2, 8, 4, 107, 117, 5952, 15, 256, 4, 2, 7, 3766, 5, 723, 36, 71, 43, 530, 476, 26, 400, 317, 46, 7, 4, 2, 1029, 13, 104, 88, 4, 381, 15, 297, 98, 32, 2071, 56, 26, 141, 6, 194, 7486, 18, 4, 226, 22, 21, 134, 476, 26, 480, 5, 144, 30, 5535, 18, 51, 36, 28, 224, 92, 25, 104, 4, 226, 65, 16, 38, 1334, 88, 12, 16, 283, 5, 16, 4472, 113, 103, 32, 15, 16, 5345, 19, 178, 32]

映画のレビューはそれぞれ長さが異なっていることでしょう。
次のコードで、最初と2つ目のレビューの単語の数を見てみます。
ニューラルネットワークへの入力は同じ長さ以外ならないため、後ほどその問題を解決する必要があります。

len(train_data[0]), len(train_data[1])

出力

(218, 189)

整数を単語に戻してみる

整数をテキストに戻す方法を知っていると便利です。
整数を文字列にマッピングする辞書オブジェクトを検索するためのヘルパー関数を定義します。

# 単語を整数にマッピングする辞書
word_index = imdb.get_word_index()

# インデックスの最初の方は予約済み
word_index = {k:(v+3) for k,v in word_index.items()} 
word_index["<PAD>"] = 0
word_index["<START>"] = 1
word_index["<UNK>"] = 2  # unknown
word_index["<UNUSED>"] = 3

reverse_word_index = dict([(value, key) for (key, value) in word_index.items()])

def decode_review(text):
    return ' '.join([reverse_word_index.get(i, '?') for i in text])

decode_review(train_data[0])

出力

"<START> this film was just brilliant casting location scenery story direction everyone's really suited the part they played and you could just imagine being there robert <UNK> is an amazing actor and now the same being director <UNK> father came from the same scottish island as myself so i loved the fact there was a real connection with this film the witty remarks throughout the film were great it was just brilliant so much that i bought the film as soon as it was released for <UNK> and would recommend it to everyone to watch and the fly fishing was amazing really cried at the end it was so sad and you know what they say if you cry at a film it must have been good and this definitely was also <UNK> to the two little boy's that played the <UNK> of norman and paul they were just brilliant children are often left out of the <UNK> list i think because the stars that play them all grown up are such a big profile for the whole film but these children are amazing and should be praised for what they have done don't you think the whole story was so lovely because it was true and was someone's life after all that was shared with us all"

※DeepLで翻訳

この映画は素晴らしいキャスティング、ロケ地、風景、ストーリー演出、全員が本当に自分の演じた役に合っていて、そこにいることを想像することができました。ロバート<UNK>は素晴らしい俳優で、今では監督でもある<UNK>の父親は私と同じスコットランドの島の出身なので、私はこの映画と本当のつながりがあるという事実が大好きでした。最後に泣いたのはとても悲しかったし、映画を見て泣いてしまったら、それは良い映画に違いないと言われていることを知っています。この映画では、彼らを演じるスターたちは、映画全体のために大きなプロフィールを持っていますが、これらの子供たちは素晴らしく、彼らがしたことを賞賛されるべきではないでしょうか。

データの準備

レビュー(整数の配列)は、ニューラルネットワークに投入する前に、テンソルに変換する必要があります。
これには2つの方法があります。

・配列をワンホット(one-hot)インデックスと同じように、単語の出現を表す0と1のベクトルに変換します。
例えば、[3、5]という配列は、インデックス3と5を除いてすべてゼロの10,000次元のベクトルになります。
そして、これをネットワークの最初の層、今回、浮動小数点のベクトルデータを扱うことができるDense(全結合)層とします。
ただし、これは単語数×レビュー数の行列が必要なメモリ集約的な方法です。

・もう一つの方法では、サンプル数 * 長さの最大値配列をパディングによって同じ長さに揃え、の形の整数テンソルにします。
そして、この形式を扱うことができるEmbedding(埋め込み)層をネットワークの最初の層にします。

このチュートリアルでは、後者を採用することにします。
映画レビューは同じ長さ以外ならないので、長さを標準化するpad_sequences関数を使うことにします。

train_data = keras.preprocessing.sequence.pad_sequences(train_data,
                                                        value=word_index["<PAD>"],
                                                        padding='post',
                                                        maxlen=256)

test_data = keras.preprocessing.sequence.pad_sequences(test_data,
                                                       value=word_index["<PAD>"],
                                                       padding='post',
                                                       maxlen=256)
len(train_data[0]), len(train_data[1])

出力

(256, 256)

次に、パディング済みの最初のサンプルを確認します。

print(train_data[0])

出力

[   1   14   22   16   43  530  973 1622 1385   65  458 4468   66 3941
    4  173   36  256    5   25  100   43  838  112   50  670    2    9
   35  480  284    5  150    4  172  112  167    2  336  385   39    4
  172 4536 1111   17  546   38   13  447    4  192   50   16    6  147
 2025   19   14   22    4 1920 4613  469    4   22   71   87   12   16
   43  530   38   76   15   13 1247    4   22   17  515   17   12   16
  626   18    2    5   62  386   12    8  316    8  106    5    4 2223
 5244   16  480   66 3785   33    4  130   12   16   38  619    5   25
  124   51   36  135   48   25 1415   33    6   22   12  215   28   77
   52    5   14  407   16   82    2    8    4  107  117 5952   15  256
    4    2    7 3766    5  723   36   71   43  530  476   26  400  317
   46    7    4    2 1029   13  104   88    4  381   15  297   98   32
 2071   56   26  141    6  194 7486   18    4  226   22   21  134  476
   26  480    5  144   30 5535   18   51   36   28  224   92   25  104
    4  226   65   16   38 1334   88   12   16  283    5   16 4472  113
  103   32   15   16 5345   19  178   32    0    0    0    0    0    0
    0    0    0    0    0    0    0    0    0    0    0    0    0    0
    0    0    0    0    0    0    0    0    0    0    0    0    0    0
    0    0    0    0]

モデルの構築

ニューラルネットワークは、層を積み重ねることで構成されます。
この際、2つの大きな決定が必要です。

・モデルにいくつの層を設けるか?
・層ごとに何個の隠れユニットを使用するか?
この例では、入力データは単語インデックスの配列で構成されています。
推定の対象となるラベルは、0または1です。
この問題のためのモデルを構築しましょう。

# 入力の形式は映画レビューで使われている語彙数(10,000語)
vocab_size = 10000

model = keras.Sequential()
model.add(keras.layers.Embedding(vocab_size, 16))
model.add(keras.layers.GlobalAveragePooling1D())
model.add(keras.layers.Dense(16, activation='relu'))
model.add(keras.layers.Dense(1, activation='sigmoid'))

model.summary()

出力

Model: "sequential"
_________________________________________________________________
Layer (type)                 Output Shape              Param #   
=================================================================
embedding (Embedding)        (None, None, 16)          160000    
_________________________________________________________________
global_average_pooling1d (Gl (None, 16)                0         
_________________________________________________________________
dense (Dense)                (None, 16)                272       
_________________________________________________________________
dense_1 (Dense)              (None, 1)                 17        
=================================================================
Total params: 160,289
Trainable params: 160,289
Non-trainable params: 0
_________________________________________________________________

これらの層は、分類器を構成するため一列に積み重ねられます。

  1. 最初の層は(埋め込み)層です。この層は、整数にエンコードされた語彙を読み取り、それぞれの単語インデックスに対応する埋め込みベクトルを検索します。埋め込みベクトルは、モデルの訓練の中で学習されます。ベクトル化のために、出力行列には次元が1つ追加されます。その結果、次元は、(batch, sequence, embedding)となります。
  2. 次は、GlobalAveragePooling1D(1次元のグローバル平均プーリング)層です。この層は、それぞれのサンプルについて、シーケンスの次元方向に平均値をもとめ、固定長のベクトルを返します。この結果、モデルは最も単純な形で、可変長の入力を扱うことができるようになります。
  3. この固定長の出力ベクトルは、16個の隠れユニットを持つ全結合(Dense)層に受け渡されます。
  4. 最後の層は、1個の出力ノードに全結合されます。sigmoidシグモイド()活性化関数を使うことで、値は確率あるいは確信度を表す0と1の間の浮動小数点数となります。

隠れ層

上記のモデルには、入力と出力の間に、2つの中間層あるいは「隠れ」層があります。
出力(ユニット、ノード、またはニューロン)は、その層の内部表現の次元数です。
このネットワークが学習によって内部表現を獲得する際の自由度ということです。

モデルにより多くの隠れユニットがある場合(内部表現空間の次元数がより大きい場合)、または、より多くの層がある場合、あるいはその両方の場合、ネットワークはより複雑な内部表現を学習することができるできます。
しかしながら、その結果として、ネットワークの計算量が多くなるほか、学習してほしくないパターンを学習するようになります。
学習してほしくないパターンとは、訓練データでの性能は向上するものの、テスト用データの性能が向上しないパターンです。
この問題を過学習(オーバーフィッティング)といいます。この問題は後ほど検証することになります。

損失関数とオプティマイザ

モデルを訓練するには、損失関数とオプティマイザが必要です。
今回の問題は二値分類問題であり、モデルの出力は確率(1ユニットの層とシグモイド活性化関数)であるため、損失関数としてbinary_crossentropy( 2値のクロスエントロピー)関数を使用することにします。

損失関数の候補はこれだけではありません。
例えば、'mean_squared_error(平均二乗誤差)を使うこともできます。 しかし、一般的には、binary_crossentropyは確率を扱う方に適しています。 binary_crossentropy`は、確率分布の間の「今回の場合には、真の分布と予測値の分布の間の距離ということになります。

回帰問題を検証する際には(mean_squared_error例えば家屋の値段を推定するとか)、もう一つの損失関数である(平均二乗誤差)の使い方を目にすることになります。

model.compile(optimizer='adam',
              loss='binary_crossentropy',
              metrics=['accuracy'])

検証用データを作る

訓練を行う際、モデルが見ていないデータでの正解率を検証したいと思います。
もとの訓練用データから、10,000個のサンプルを取り分けて検証用データ(検証セット)を作ります。
(なぜ、ここでテスト用データを使わないのでしょう?今回の目的は、訓練用データだけを使って、モデルの開発とチューニングを行うことです。その後、テスト用データを1回だけ使い、正解率を検証するのです。)

x_val = train_data[:10000]
partial_x_train = train_data[10000:]

y_val = train_labels[:10000]
partial_y_train = train_labels[10000:]

モデルの訓練

512個のサンプルからなるミニバッチを使って、40エポックモデルを訓練します。
この結果、x_trainとy_trainに含まれるすべてのサンプルを40回繰り返すことになります。
訓練中、検証用データの10,000サンプルを用いて、モデルの損失と正解率をモニタリングします。

history = model.fit(partial_x_train,
                    partial_y_train,
                    epochs=40,
                    batch_size=512,
                    validation_data=(x_val, y_val),
                    verbose=1)

出力

Epoch 1/40
30/30 [==============================] - 1s 23ms/step - loss: 0.6924 - accuracy: 0.4971 - val_loss: 0.6904 - val_accuracy: 0.5384
Epoch 2/40
30/30 [==============================] - 1s 18ms/step - loss: 0.6872 - accuracy: 0.6104 - val_loss: 0.6830 - val_accuracy: 0.6733
Epoch 3/40
30/30 [==============================] - 1s 18ms/step - loss: 0.6761 - accuracy: 0.6671 - val_loss: 0.6689 - val_accuracy: 0.6994
Epoch 4/40
30/30 [==============================] - 1s 18ms/step - loss: 0.6561 - accuracy: 0.7235 - val_loss: 0.6448 - val_accuracy: 0.7409
Epoch 5/40
30/30 [==============================] - 1s 18ms/step - loss: 0.6244 - accuracy: 0.7733 - val_loss: 0.6106 - val_accuracy: 0.7586
Epoch 6/40
30/30 [==============================] - 1s 18ms/step - loss: 0.5827 - accuracy: 0.8035 - val_loss: 0.5691 - val_accuracy: 0.8040
Epoch 7/40
30/30 [==============================] - 1s 18ms/step - loss: 0.5348 - accuracy: 0.8351 - val_loss: 0.5245 - val_accuracy: 0.8213
Epoch 8/40
30/30 [==============================] - 1s 18ms/step - loss: 0.4862 - accuracy: 0.8503 - val_loss: 0.4818 - val_accuracy: 0.8360
Epoch 9/40
30/30 [==============================] - 1s 18ms/step - loss: 0.4403 - accuracy: 0.8625 - val_loss: 0.4440 - val_accuracy: 0.8454
Epoch 10/40
30/30 [==============================] - 1s 18ms/step - loss: 0.4000 - accuracy: 0.8745 - val_loss: 0.4122 - val_accuracy: 0.8537
・・・・・・・・・・・
・・・・・・・・・・・
・・・・・・・・・・・
Epoch 37/40
30/30 [==============================] - 1s 18ms/step - loss: 0.1036 - accuracy: 0.9724 - val_loss: 0.3028 - val_accuracy: 0.8823
Epoch 38/40
30/30 [==============================] - 1s 18ms/step - loss: 0.1001 - accuracy: 0.9734 - val_loss: 0.3044 - val_accuracy: 0.8840
Epoch 39/40
30/30 [==============================] - 1s 18ms/step - loss: 0.0960 - accuracy: 0.9755 - val_loss: 0.3077 - val_accuracy: 0.8835
Epoch 40/40
30/30 [==============================] - 1s 19ms/step - loss: 0.0929 - accuracy: 0.9770 - val_loss: 0.3134 - val_accuracy: 0.8808

モデルの評価

さて、モデルの性能を見てみましょう。
2つの値が返されます。
損失(エラーを示す数値であり、小さい方が良い)と正解率です。

results = model.evaluate(test_data,  test_labels, verbose=2)

print(results)

出力

782/782 - 1s - loss: 0.3248 - accuracy: 0.8732
[0.3248487412929535, 0.8732399940490723]

この、かなり素朴なアプローチでも87%前後の正解率を達成しました。
もっと高度なアプローチを使えば、モデルの正解率は95%に近づけることもできるでしょう。

正解率と損失の時系列グラフを描く

model.fit()は、訓練中に発生したすべてのことを記録した辞書を含むオブジェクトを返します。

history_dict = history.history
history_dict.keys()

出力

dict_keys(['loss', 'accuracy', 'val_loss', 'val_accuracy'])

4つのエントリがあります。
それぞれが、訓練と検証の際にモニターしていた指標を示します。
これを使って、訓練時と検証時の損失を比較するグラフと、訓練時と検証時の正解率を比較するグラフを作成することができます。

import matplotlib.pyplot as plt

acc = history_dict['accuracy']
val_acc = history_dict['val_accuracy']
loss = history_dict['loss']
val_loss = history_dict['val_loss']

epochs = range(1, len(acc) + 1)

# "bo" is for "blue dot"
plt.plot(epochs, loss, 'bo', label='Training loss')
# b is for "solid blue line"
plt.plot(epochs, val_loss, 'b', label='Validation loss')
plt.title('Training and validation loss')
plt.xlabel('Epochs')
plt.ylabel('Loss')
plt.legend()

plt.show()

出力

損失
損失

plt.clf()   # 図のクリア

plt.plot(epochs, acc, 'bo', label='Training acc')
plt.plot(epochs, val_acc, 'b', label='Validation acc')
plt.title('Training and validation accuracy')
plt.xlabel('Epochs')
plt.ylabel('Accuracy')
plt.legend()

plt.show()

出力

認証精度
認証精度

上記のグラフでは、点が訓練時の損失と正解率を、実線が検証時の損失と正解率を表しています。

訓練時の損失がエポックごとに減少し、訓練時の正解率がエポックごとに上昇していることに気がつくはずです。
繰り返しごとに指定された数値指標を最小化する勾配降下法を最適化に使用している場合に期待される動きです。

これは、検証時の損失と正解率には当てはまりません。
20エポックを過ぎたあたりから、横ばいになっているようです。
これが、過学習の一例です。
モデルの性能が、訓練用データでは高い常に、見たことの無いデータではそれほど高くないというものです。
このポイントをすぎると、モデルが最適化しすぎて、訓練用データでは特徴的であるが、テスト用データには一般化できない内部表現を学習しています。

まとめ

テキストをインプットとしたチュートリアルの実装を行いました。
過学習していますね、が結論となっています。
次の記事で、過学習に対する対応を実装します。
最後に、、、
データ確認等、余計なものを省いたソースコード全量を記載します。

from __future__ import absolute_import, division, print_function, unicode_literals

import tensorflow as tf
from tensorflow import keras

import numpy as np

print(tf.__version__)

imdb = keras.datasets.imdb

(train_data, train_labels), (test_data, test_labels) = imdb.load_data(num_words=10000)

# 単語を整数にマッピングする辞書
word_index = imdb.get_word_index()

# インデックスの最初の方は予約済み
word_index = {k:(v+3) for k,v in word_index.items()} 
word_index["<PAD>"] = 0
word_index["<START>"] = 1
word_index["<UNK>"] = 2  # unknown
word_index["<UNUSED>"] = 3

reverse_word_index = dict([(value, key) for (key, value) in word_index.items()])

def decode_review(text):
    return ' '.join([reverse_word_index.get(i, '?') for i in text])

# データの準備
train_data = keras.preprocessing.sequence.pad_sequences(train_data,
                                                        value=word_index["<PAD>"],
                                                        padding='post',
                                                        maxlen=256)

test_data = keras.preprocessing.sequence.pad_sequences(test_data,
                                                       value=word_index["<PAD>"],
                                                       padding='post',
                                                       maxlen=256)

# 入力の形式は映画レビューで使われている語彙数(10,000語)
vocab_size = 10000

# モデルの構築
model = keras.Sequential()
model.add(keras.layers.Embedding(vocab_size, 16))
model.add(keras.layers.GlobalAveragePooling1D())
model.add(keras.layers.Dense(16, activation='relu'))
model.add(keras.layers.Dense(1, activation='sigmoid'))

model.summary()

# モデルのコンパイル
model.compile(optimizer='adam',
              loss='binary_crossentropy',
              metrics=['accuracy'])

# 検証用データを作る
x_val = train_data[:10000]
partial_x_train = train_data[10000:]

y_val = train_labels[:10000]
partial_y_train = train_labels[10000:]

# モデルの訓練
history = model.fit(partial_x_train,
                    partial_y_train,
                    epochs=40,
                    batch_size=512,
                    validation_data=(x_val, y_val),
                    verbose=1)

# モデルの評価
results = model.evaluate(test_data,  test_labels, verbose=2)

print(results)

# 正解率と損失の時系列グラフを描く
history_dict = history.history
history_dict.keys()

import matplotlib.pyplot as plt

acc = history_dict['accuracy']
val_acc = history_dict['val_accuracy']
loss = history_dict['loss']
val_loss = history_dict['val_loss']

epochs = range(1, len(acc) + 1)
# 損失のグラフ
# "bo" is for "blue dot"
plt.plot(epochs, loss, 'bo', label='Training loss')
# b is for "solid blue line"
plt.plot(epochs, val_loss, 'b', label='Validation loss')
plt.title('Training and validation loss')
plt.xlabel('Epochs')
plt.ylabel('Loss')
plt.legend()

plt.show()

# 認証精度のグラフ
plt.clf()   # 図のクリア

plt.plot(epochs, acc, 'bo', label='Training acc')
plt.plot(epochs, val_acc, 'b', label='Validation acc')
plt.title('Training and validation accuracy')
plt.xlabel('Epochs')
plt.ylabel('Accuracy')
plt.legend()

plt.show()