TensorFlow使ってみた~GoogleColab/IMDB~テキスト分類
ここでは、映画のレビューをそのテキストを使って肯定的か否定的かに分類します。
これは、二値分類あるいは2クラス分類という問題の例であり、機械学習において重要でいろいろな応用が可能なものです。ここでは、インターネット動画データベースから抽出した50,000件の映画レビューを含む、IMDBデータセットを使います。
レビューは訓練用とテスト用に25,000件ずつに分割されています。
訓練用とテスト用のデータは均衡しとりると、それぞれが同数の肯定的及び否定的なレビューを含んでいます。
諸々インポート
from __future__ import absolute_import, division, print_function, unicode_literals import tensorflow as tf from tensorflow import keras import numpy as np print(tf.__version__)
出力
2.2.0
データセット取得
IMDBデータセットは、TensorFlowにパッケージ化されています。
それは前処理済みのものであり、(単語の連なりである)レビューが、整数の配列に変換されています。
そこでは整数が辞書中の特定の単語を表します。 次のコードは、IMDBデータセットをあなたのパソコンにダウンロードします。(すでにダウンロードしていれば、キャッシュされたコピーを使用します)
imdb = keras.datasets.imdb
(train_data, train_labels), (test_data, test_labels) = imdb.load_data(num_words=10000)
num_words=10000
という引数は、訓練データ中に出てくる単語のうち、最も頻繁に出現する10,000個を保持するためのものです。
データサイズを管理可能にするため、稀にしか出現しない単語は破棄されます。
データの観察
データの形式を理解するために少し時間を割いてみましょう。
このデータセットは前処理済みで、サンプルそれぞれが、映画レビューの中の単語を表す整数の配列になっています。
ラベルはそれぞれ、 0または1の整数値で、0が否定的レビュー、1が肯定的なレビューを示しています。
print("Training entries: {}, labels: {}".format(len(train_data), len(train_labels)))
出力
Training entries: 25000, labels: 25000
レビューのテキストは複数の整数に変換されており、それぞれの整数が辞書の中の特定の単語を表します。
最初のレビューがどのようなものか見てみましょう。
print(train_data[0])
出力
[1, 14, 22, 16, 43, 530, 973, 1622, 1385, 65, 458, 4468, 66, 3941, 4, 173, 36, 256, 5, 25, 100, 43, 838, 112, 50, 670, 2, 9, 35, 480, 284, 5, 150, 4, 172, 112, 167, 2, 336, 385, 39, 4, 172, 4536, 1111, 17, 546, 38, 13, 447, 4, 192, 50, 16, 6, 147, 2025, 19, 14, 22, 4, 1920, 4613, 469, 4, 22, 71, 87, 12, 16, 43, 530, 38, 76, 15, 13, 1247, 4, 22, 17, 515, 17, 12, 16, 626, 18, 2, 5, 62, 386, 12, 8, 316, 8, 106, 5, 4, 2223, 5244, 16, 480, 66, 3785, 33, 4, 130, 12, 16, 38, 619, 5, 25, 124, 51, 36, 135, 48, 25, 1415, 33, 6, 22, 12, 215, 28, 77, 52, 5, 14, 407, 16, 82, 2, 8, 4, 107, 117, 5952, 15, 256, 4, 2, 7, 3766, 5, 723, 36, 71, 43, 530, 476, 26, 400, 317, 46, 7, 4, 2, 1029, 13, 104, 88, 4, 381, 15, 297, 98, 32, 2071, 56, 26, 141, 6, 194, 7486, 18, 4, 226, 22, 21, 134, 476, 26, 480, 5, 144, 30, 5535, 18, 51, 36, 28, 224, 92, 25, 104, 4, 226, 65, 16, 38, 1334, 88, 12, 16, 283, 5, 16, 4472, 113, 103, 32, 15, 16, 5345, 19, 178, 32]
映画のレビューはそれぞれ長さが異なっていることでしょう。
次のコードで、最初と2つ目のレビューの単語の数を見てみます。
ニューラルネットワークへの入力は同じ長さ以外ならないため、後ほどその問題を解決する必要があります。
len(train_data[0]), len(train_data[1])
出力
(218, 189)
整数を単語に戻してみる
整数をテキストに戻す方法を知っていると便利です。
整数を文字列にマッピングする辞書オブジェクトを検索するためのヘルパー関数を定義します。
# 単語を整数にマッピングする辞書 word_index = imdb.get_word_index() # インデックスの最初の方は予約済み word_index = {k:(v+3) for k,v in word_index.items()} word_index["<PAD>"] = 0 word_index["<START>"] = 1 word_index["<UNK>"] = 2 # unknown word_index["<UNUSED>"] = 3 reverse_word_index = dict([(value, key) for (key, value) in word_index.items()]) def decode_review(text): return ' '.join([reverse_word_index.get(i, '?') for i in text]) decode_review(train_data[0])
出力
"<START> this film was just brilliant casting location scenery story direction everyone's really suited the part they played and you could just imagine being there robert <UNK> is an amazing actor and now the same being director <UNK> father came from the same scottish island as myself so i loved the fact there was a real connection with this film the witty remarks throughout the film were great it was just brilliant so much that i bought the film as soon as it was released for <UNK> and would recommend it to everyone to watch and the fly fishing was amazing really cried at the end it was so sad and you know what they say if you cry at a film it must have been good and this definitely was also <UNK> to the two little boy's that played the <UNK> of norman and paul they were just brilliant children are often left out of the <UNK> list i think because the stars that play them all grown up are such a big profile for the whole film but these children are amazing and should be praised for what they have done don't you think the whole story was so lovely because it was true and was someone's life after all that was shared with us all"
※DeepLで翻訳
この映画は素晴らしいキャスティング、ロケ地、風景、ストーリー演出、全員が本当に自分の演じた役に合っていて、そこにいることを想像することができました。ロバート<UNK>は素晴らしい俳優で、今では監督でもある<UNK>の父親は私と同じスコットランドの島の出身なので、私はこの映画と本当のつながりがあるという事実が大好きでした。最後に泣いたのはとても悲しかったし、映画を見て泣いてしまったら、それは良い映画に違いないと言われていることを知っています。この映画では、彼らを演じるスターたちは、映画全体のために大きなプロフィールを持っていますが、これらの子供たちは素晴らしく、彼らがしたことを賞賛されるべきではないでしょうか。
データの準備
レビュー(整数の配列)は、ニューラルネットワークに投入する前に、テンソルに変換する必要があります。
これには2つの方法があります。・配列をワンホット(one-hot)インデックスと同じように、単語の出現を表す0と1のベクトルに変換します。
例えば、[3、5]という配列は、インデックス3と5を除いてすべてゼロの10,000次元のベクトルになります。
そして、これをネットワークの最初の層、今回、浮動小数点のベクトルデータを扱うことができるDense(全結合)層とします。
ただし、これは単語数×レビュー数の行列が必要なメモリ集約的な方法です。・もう一つの方法では、サンプル数 * 長さの最大値配列をパディングによって同じ長さに揃え、の形の整数テンソルにします。
そして、この形式を扱うことができるEmbedding(埋め込み)層をネットワークの最初の層にします。このチュートリアルでは、後者を採用することにします。
映画レビューは同じ長さ以外ならないので、長さを標準化するpad_sequences関数を使うことにします。
train_data = keras.preprocessing.sequence.pad_sequences(train_data, value=word_index["<PAD>"], padding='post', maxlen=256) test_data = keras.preprocessing.sequence.pad_sequences(test_data, value=word_index["<PAD>"], padding='post', maxlen=256) len(train_data[0]), len(train_data[1])
出力
(256, 256)
次に、パディング済みの最初のサンプルを確認します。
print(train_data[0])
出力
[ 1 14 22 16 43 530 973 1622 1385 65 458 4468 66 3941 4 173 36 256 5 25 100 43 838 112 50 670 2 9 35 480 284 5 150 4 172 112 167 2 336 385 39 4 172 4536 1111 17 546 38 13 447 4 192 50 16 6 147 2025 19 14 22 4 1920 4613 469 4 22 71 87 12 16 43 530 38 76 15 13 1247 4 22 17 515 17 12 16 626 18 2 5 62 386 12 8 316 8 106 5 4 2223 5244 16 480 66 3785 33 4 130 12 16 38 619 5 25 124 51 36 135 48 25 1415 33 6 22 12 215 28 77 52 5 14 407 16 82 2 8 4 107 117 5952 15 256 4 2 7 3766 5 723 36 71 43 530 476 26 400 317 46 7 4 2 1029 13 104 88 4 381 15 297 98 32 2071 56 26 141 6 194 7486 18 4 226 22 21 134 476 26 480 5 144 30 5535 18 51 36 28 224 92 25 104 4 226 65 16 38 1334 88 12 16 283 5 16 4472 113 103 32 15 16 5345 19 178 32 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0]
モデルの構築
ニューラルネットワークは、層を積み重ねることで構成されます。
この際、2つの大きな決定が必要です。・モデルにいくつの層を設けるか?
・層ごとに何個の隠れユニットを使用するか?
この例では、入力データは単語インデックスの配列で構成されています。
推定の対象となるラベルは、0または1です。
この問題のためのモデルを構築しましょう。
# 入力の形式は映画レビューで使われている語彙数(10,000語) vocab_size = 10000 model = keras.Sequential() model.add(keras.layers.Embedding(vocab_size, 16)) model.add(keras.layers.GlobalAveragePooling1D()) model.add(keras.layers.Dense(16, activation='relu')) model.add(keras.layers.Dense(1, activation='sigmoid')) model.summary()
出力
Model: "sequential" _________________________________________________________________ Layer (type) Output Shape Param # ================================================================= embedding (Embedding) (None, None, 16) 160000 _________________________________________________________________ global_average_pooling1d (Gl (None, 16) 0 _________________________________________________________________ dense (Dense) (None, 16) 272 _________________________________________________________________ dense_1 (Dense) (None, 1) 17 ================================================================= Total params: 160,289 Trainable params: 160,289 Non-trainable params: 0 _________________________________________________________________
これらの層は、分類器を構成するため一列に積み重ねられます。
- 最初の層は(埋め込み)層です。この層は、整数にエンコードされた語彙を読み取り、それぞれの単語インデックスに対応する埋め込みベクトルを検索します。埋め込みベクトルは、モデルの訓練の中で学習されます。ベクトル化のために、出力行列には次元が1つ追加されます。その結果、次元は、(batch, sequence, embedding)となります。
- 次は、GlobalAveragePooling1D(1次元のグローバル平均プーリング)層です。この層は、それぞれのサンプルについて、シーケンスの次元方向に平均値をもとめ、固定長のベクトルを返します。この結果、モデルは最も単純な形で、可変長の入力を扱うことができるようになります。
- この固定長の出力ベクトルは、16個の隠れユニットを持つ全結合(Dense)層に受け渡されます。
- 最後の層は、1個の出力ノードに全結合されます。sigmoidシグモイド()活性化関数を使うことで、値は確率あるいは確信度を表す0と1の間の浮動小数点数となります。
隠れ層
上記のモデルには、入力と出力の間に、2つの中間層あるいは「隠れ」層があります。
出力(ユニット、ノード、またはニューロン)は、その層の内部表現の次元数です。
このネットワークが学習によって内部表現を獲得する際の自由度ということです。モデルにより多くの隠れユニットがある場合(内部表現空間の次元数がより大きい場合)、または、より多くの層がある場合、あるいはその両方の場合、ネットワークはより複雑な内部表現を学習することができるできます。
しかしながら、その結果として、ネットワークの計算量が多くなるほか、学習してほしくないパターンを学習するようになります。
学習してほしくないパターンとは、訓練データでの性能は向上するものの、テスト用データの性能が向上しないパターンです。
この問題を過学習(オーバーフィッティング)といいます。この問題は後ほど検証することになります。
損失関数とオプティマイザ
モデルを訓練するには、損失関数とオプティマイザが必要です。
今回の問題は二値分類問題であり、モデルの出力は確率(1ユニットの層とシグモイド活性化関数)であるため、損失関数としてbinary_crossentropy
( 2値のクロスエントロピー)関数を使用することにします。損失関数の候補はこれだけではありません。
例えば、'mean_squared_error(平均二乗誤差)を使うこともできます。 しかし、一般的には、
binary_crossentropyは確率を扱う方に適しています。
binary_crossentropy`は、確率分布の間の「今回の場合には、真の分布と予測値の分布の間の距離ということになります。回帰問題を検証する際には(mean_squared_error例えば家屋の値段を推定するとか)、もう一つの損失関数である(平均二乗誤差)の使い方を目にすることになります。
model.compile(optimizer='adam', loss='binary_crossentropy', metrics=['accuracy'])
検証用データを作る
訓練を行う際、モデルが見ていないデータでの正解率を検証したいと思います。
もとの訓練用データから、10,000個のサンプルを取り分けて検証用データ(検証セット)を作ります。
(なぜ、ここでテスト用データを使わないのでしょう?今回の目的は、訓練用データだけを使って、モデルの開発とチューニングを行うことです。その後、テスト用データを1回だけ使い、正解率を検証するのです。)
x_val = train_data[:10000] partial_x_train = train_data[10000:] y_val = train_labels[:10000] partial_y_train = train_labels[10000:]
モデルの訓練
512個のサンプルからなるミニバッチを使って、40エポックモデルを訓練します。
この結果、x_trainとy_trainに含まれるすべてのサンプルを40回繰り返すことになります。
訓練中、検証用データの10,000サンプルを用いて、モデルの損失と正解率をモニタリングします。
history = model.fit(partial_x_train, partial_y_train, epochs=40, batch_size=512, validation_data=(x_val, y_val), verbose=1)
出力
Epoch 1/40 30/30 [==============================] - 1s 23ms/step - loss: 0.6924 - accuracy: 0.4971 - val_loss: 0.6904 - val_accuracy: 0.5384 Epoch 2/40 30/30 [==============================] - 1s 18ms/step - loss: 0.6872 - accuracy: 0.6104 - val_loss: 0.6830 - val_accuracy: 0.6733 Epoch 3/40 30/30 [==============================] - 1s 18ms/step - loss: 0.6761 - accuracy: 0.6671 - val_loss: 0.6689 - val_accuracy: 0.6994 Epoch 4/40 30/30 [==============================] - 1s 18ms/step - loss: 0.6561 - accuracy: 0.7235 - val_loss: 0.6448 - val_accuracy: 0.7409 Epoch 5/40 30/30 [==============================] - 1s 18ms/step - loss: 0.6244 - accuracy: 0.7733 - val_loss: 0.6106 - val_accuracy: 0.7586 Epoch 6/40 30/30 [==============================] - 1s 18ms/step - loss: 0.5827 - accuracy: 0.8035 - val_loss: 0.5691 - val_accuracy: 0.8040 Epoch 7/40 30/30 [==============================] - 1s 18ms/step - loss: 0.5348 - accuracy: 0.8351 - val_loss: 0.5245 - val_accuracy: 0.8213 Epoch 8/40 30/30 [==============================] - 1s 18ms/step - loss: 0.4862 - accuracy: 0.8503 - val_loss: 0.4818 - val_accuracy: 0.8360 Epoch 9/40 30/30 [==============================] - 1s 18ms/step - loss: 0.4403 - accuracy: 0.8625 - val_loss: 0.4440 - val_accuracy: 0.8454 Epoch 10/40 30/30 [==============================] - 1s 18ms/step - loss: 0.4000 - accuracy: 0.8745 - val_loss: 0.4122 - val_accuracy: 0.8537 ・・・・・・・・・・・ ・・・・・・・・・・・ ・・・・・・・・・・・ Epoch 37/40 30/30 [==============================] - 1s 18ms/step - loss: 0.1036 - accuracy: 0.9724 - val_loss: 0.3028 - val_accuracy: 0.8823 Epoch 38/40 30/30 [==============================] - 1s 18ms/step - loss: 0.1001 - accuracy: 0.9734 - val_loss: 0.3044 - val_accuracy: 0.8840 Epoch 39/40 30/30 [==============================] - 1s 18ms/step - loss: 0.0960 - accuracy: 0.9755 - val_loss: 0.3077 - val_accuracy: 0.8835 Epoch 40/40 30/30 [==============================] - 1s 19ms/step - loss: 0.0929 - accuracy: 0.9770 - val_loss: 0.3134 - val_accuracy: 0.8808
モデルの評価
さて、モデルの性能を見てみましょう。
2つの値が返されます。
損失(エラーを示す数値であり、小さい方が良い)と正解率です。
results = model.evaluate(test_data, test_labels, verbose=2) print(results)
出力
782/782 - 1s - loss: 0.3248 - accuracy: 0.8732 [0.3248487412929535, 0.8732399940490723]
この、かなり素朴なアプローチでも87%前後の正解率を達成しました。
もっと高度なアプローチを使えば、モデルの正解率は95%に近づけることもできるでしょう。
正解率と損失の時系列グラフを描く
model.fit()
は、訓練中に発生したすべてのことを記録した辞書を含むオブジェクトを返します。
history_dict = history.history history_dict.keys()
出力
dict_keys(['loss', 'accuracy', 'val_loss', 'val_accuracy'])
4つのエントリがあります。
それぞれが、訓練と検証の際にモニターしていた指標を示します。
これを使って、訓練時と検証時の損失を比較するグラフと、訓練時と検証時の正解率を比較するグラフを作成することができます。
import matplotlib.pyplot as plt acc = history_dict['accuracy'] val_acc = history_dict['val_accuracy'] loss = history_dict['loss'] val_loss = history_dict['val_loss'] epochs = range(1, len(acc) + 1) # "bo" is for "blue dot" plt.plot(epochs, loss, 'bo', label='Training loss') # b is for "solid blue line" plt.plot(epochs, val_loss, 'b', label='Validation loss') plt.title('Training and validation loss') plt.xlabel('Epochs') plt.ylabel('Loss') plt.legend() plt.show()
出力
plt.clf() # 図のクリア plt.plot(epochs, acc, 'bo', label='Training acc') plt.plot(epochs, val_acc, 'b', label='Validation acc') plt.title('Training and validation accuracy') plt.xlabel('Epochs') plt.ylabel('Accuracy') plt.legend() plt.show()
出力
上記のグラフでは、点が訓練時の損失と正解率を、実線が検証時の損失と正解率を表しています。
訓練時の損失がエポックごとに減少し、訓練時の正解率がエポックごとに上昇していることに気がつくはずです。
繰り返しごとに指定された数値指標を最小化する勾配降下法を最適化に使用している場合に期待される動きです。これは、検証時の損失と正解率には当てはまりません。
20エポックを過ぎたあたりから、横ばいになっているようです。
これが、過学習の一例です。
モデルの性能が、訓練用データでは高い常に、見たことの無いデータではそれほど高くないというものです。
このポイントをすぎると、モデルが最適化しすぎて、訓練用データでは特徴的であるが、テスト用データには一般化できない内部表現を学習しています。
まとめ
テキストをインプットとしたチュートリアルの実装を行いました。
過学習していますね、が結論となっています。
次の記事で、過学習に対する対応を実装します。
最後に、、、
データ確認等、余計なものを省いたソースコード全量を記載します。
from __future__ import absolute_import, division, print_function, unicode_literals import tensorflow as tf from tensorflow import keras import numpy as np print(tf.__version__) imdb = keras.datasets.imdb (train_data, train_labels), (test_data, test_labels) = imdb.load_data(num_words=10000) # 単語を整数にマッピングする辞書 word_index = imdb.get_word_index() # インデックスの最初の方は予約済み word_index = {k:(v+3) for k,v in word_index.items()} word_index["<PAD>"] = 0 word_index["<START>"] = 1 word_index["<UNK>"] = 2 # unknown word_index["<UNUSED>"] = 3 reverse_word_index = dict([(value, key) for (key, value) in word_index.items()]) def decode_review(text): return ' '.join([reverse_word_index.get(i, '?') for i in text]) # データの準備 train_data = keras.preprocessing.sequence.pad_sequences(train_data, value=word_index["<PAD>"], padding='post', maxlen=256) test_data = keras.preprocessing.sequence.pad_sequences(test_data, value=word_index["<PAD>"], padding='post', maxlen=256) # 入力の形式は映画レビューで使われている語彙数(10,000語) vocab_size = 10000 # モデルの構築 model = keras.Sequential() model.add(keras.layers.Embedding(vocab_size, 16)) model.add(keras.layers.GlobalAveragePooling1D()) model.add(keras.layers.Dense(16, activation='relu')) model.add(keras.layers.Dense(1, activation='sigmoid')) model.summary() # モデルのコンパイル model.compile(optimizer='adam', loss='binary_crossentropy', metrics=['accuracy']) # 検証用データを作る x_val = train_data[:10000] partial_x_train = train_data[10000:] y_val = train_labels[:10000] partial_y_train = train_labels[10000:] # モデルの訓練 history = model.fit(partial_x_train, partial_y_train, epochs=40, batch_size=512, validation_data=(x_val, y_val), verbose=1) # モデルの評価 results = model.evaluate(test_data, test_labels, verbose=2) print(results) # 正解率と損失の時系列グラフを描く history_dict = history.history history_dict.keys() import matplotlib.pyplot as plt acc = history_dict['accuracy'] val_acc = history_dict['val_accuracy'] loss = history_dict['loss'] val_loss = history_dict['val_loss'] epochs = range(1, len(acc) + 1) # 損失のグラフ # "bo" is for "blue dot" plt.plot(epochs, loss, 'bo', label='Training loss') # b is for "solid blue line" plt.plot(epochs, val_loss, 'b', label='Validation loss') plt.title('Training and validation loss') plt.xlabel('Epochs') plt.ylabel('Loss') plt.legend() plt.show() # 認証精度のグラフ plt.clf() # 図のクリア plt.plot(epochs, acc, 'bo', label='Training acc') plt.plot(epochs, val_acc, 'b', label='Validation acc') plt.title('Training and validation accuracy') plt.xlabel('Epochs') plt.ylabel('Accuracy') plt.legend() plt.show()