TensorFlow 2.0でTPUを利用する

投稿者: | 2020年6月9日

こんにちは、GMOアドマーケティングのS.Rです。

TPUとはディープラーニングを高速化するために、Googleが開発したプロセッサーです。TPUの利用により、ディープラーニングのモデルのトレーニング時間を20倍以上改良する事が可能です。

TensorFlow 1.xでTPUを利用するAPIを提供していますが、TensorFlow 2.0ではこのAPIの利用方法が変更されました。

今回はTensorFlow 2.0でTPUを利用する方法を皆さんへご紹介します。

利用する環境

Googleが無料で提供している機械学習目的の研究用ツール【Colab】を利用します。

1 Colabのインスタンスを作る

Colabを利用するために必要な最初のStepは、Colabのファイルを作る事です。

Google Driveの管理画面へ遷移し、新しいColabのファイルを作ります。

 

2 TPUを設定する

作成されたファイルのメニューにあるRuntimeをクリックし、ポップアップメニューからchange runtime typeを選択します。

【Notebook settings】画面で、【Hardware accelerator】を “TPU” に設定します。

TPUの実行例

今回もまた手書き数字を認識するデータセット、Ministを例として説明します。

1TensorFlow 2.0 を有効にする。

2 TPUと連携して初期化する。

3 MINISTデータセットをロードする。

4 学習モデルを作成する。

今回は1層 CNNを利用します。

コードは下記です。

5 モデルを学習する。

学習の結果は下記です。

まとめ

今回はTensorFlow 2.0でTPUのAPIモデルをトレーニングするための一例をご紹介しました。いかがでしたでしょうか。

高い計算力を使うと、モデルの精度、作成速度が改善できます。

今回のブログが、皆さんのディープラーニング モデルの実装にお役に立てば幸いです。

 

 

The following two tabs change content below.