TFXを使った機械学習パイプラインの構築(実装編その2)

2022年1月28日(金)
張替 清音(はりがえ きよなり)
連載の5回目となる今回は、前回に引き続きTFXを使ってKubeflow上で動かす機械学習パイプラインを構築していきます。

チューニング

ここまで、本連載の第3回で解説したモデルをベースにモデル学習のステップまで実装しました。しかし、性能の高いモデルを作成する上ではハイパーパラメータのチューニングが重要になります。ハイパーパラメータはモデルの種類により異なりますが、ディープラーニングモデルの場合は、主にオプティマイザーとネットワークアーキテクチャを制御するタイプのパラメータとなります。これらのパラメータを調整するプロセスは各パラメータの取り得る値の組み合わせを試行する必要があり、手動では骨が折れる作業です。TFXコンポーネントのTunerを使用しパイプラインに組み込むことで、このプロセスを自動化することができます。また、Tunerによって得られた結果を可視化し、最良のハイパーパラメータを特定するためのプロセスを支援するツールも提供されています。

  • Tunerとは

Tunerはハイパーパラメータチューニングを行うTFXコンポーネントです。執筆時点(2022年1月)ではKeras Tunerをライブラリとして利用することができます。※CloudTunerというGoogle Cloud Platform上で利用できるライブラリもありますが、こちらもバックエンドにKerasTunerを利用しています。TunerではTrainerと同様に主に次の入力を必要とします。

  • 前回「データ変換」のステップで実装したデータ変換処理のグラフ
  • 前回「データ検証」のステップで生成したデータスキーマ
  • 前回「データ分割」のステップで説明した学習用データと評価用データ
  • 学習パラメータ(学習ステップ、エポック数など)
  • ハイパーパラメータチューニングのプロセスを定義するtuner_fn関数を含むモジュールファイル

Tunerコンポーネントは与えられたデータおよびモデルを使用して、ハイパーパラメータを調整し最良の結果を出力します。

それでは、Tunerコンポーネントのエントリポイントである「tuner_fn関数」を実装します。なお、TunerもTrainerと同様にノートブック上で実行するとともにモジュールファイルとして書き出しを行います。

1tuner_module_file_name = 'adult_income_tuner_module.py'
2tuner_module_file_path = os.path.join(os.getcwd(), tuner_module_file_name)

次に「tuner_fn関数」を実装します。この関数では以下の処理を実装します。

  • 学習用と評価用のデータの読み込み
  • 利用するTunerの定義
  • チューニングの過程を記録するログの設定
  • 結果の返却

クリックして表示

Tunerは以下の3種類の探索アルゴリズムを選択可能です。上記の例では、RandomSearchを選択しています。

  • RandomSearch: 候補の値をランダムに組み合わせて探索します
  • BayesianOptimization: ベイズ最適化アルゴリズムを使い探索します
  • Hyperband: Hyperbandアルゴリズムを使い探索します

なお、目的とする評価指標は「val_accuracy」を指定しています。つまり、「評価用データに対する正解率」を最大化するハイパーパラメータを探索します。

次に「tuner_fn関数」に記述したヘルパー関数の「get_hyperparameters関数」を定義します。「get_hyperparameters関数」は探索するハイパーパラメータの値の種類、範囲を設定します。Keras TunerのHyperParametersクラスでは主に次のような設定ができます。

  • HyperParameters.Boolean: True or Falseを設定します
  • HyperParameters.Choice: 値の種類を設定します
  • HyperParameters.Int: 整数型の値の範囲を設定します。Stepを指定することで均等分割できます
  • HyperParameters.Float: 浮動小数点型の値の範囲を設定します。Stepを指定することで均等分割できます

ここでは、オプティマイザーとして「rmsprop」または「adam」、中間層のユニット数を100~250の範囲で50ずつ可変させながら探索します。

1%%writefile -a {tuner_module_file_path}
2 
3def get_hyperparameters() -> kerastuner.HyperParameters:
4    hp = kerastuner.HyperParameters()
5    hp.Choice('optimizer', ['rmsprop', 'adam'], default='adam')
6    hp.Int('units', min_value=100, max_value=250, step=50)
7    return hp

ハイパーパラメータチューニングを実行します。

01import tempfile
02 
03tuner_tensorboard_log_dir = tempfile.mkdtemp()
04param_tuner_custom_config_args = {"tuner_log_dir": tuner_tensorboard_log_dir}
05 
06param_tuner_train_args = {"num_steps": 100}
07param_tuner_eval_args = {"num_steps": 50}
08 
09tuner = tfx.components.Tuner(
10    examples = transform.outputs['transformed_examples'],
11    transform_graph = transform.outputs['transform_graph'],
12    schema = import_schema.outputs['result'],
13    module_file = tuner_module_file_path,
14    train_args = param_tuner_train_args,
15    eval_args = param_tuner_eval_args,
16    custom_config = param_tuner_custom_config_args
17)
18context.run(tuner)
図2-2:Tunerの実行結果

図2-2:Tunerの実行結果

8回の試行を行い、最良のパラメータは次の通りになりました。

  • オプティマイザー: adam
  • 中間層のユニット数: 150

次にTunerの結果を可視化して、詳細に解析してみます。可視化することにより、ハイパーパラメータが結果に与える影響を直感的に把握できるようになります。可視化にはTensorBoardというTensorFlowエコシステムの可視化ツールを利用します。

注釈

TensorBoardを利用するには、クライアント端末上で次のコマンドの実行および、設定が必要です。

  • クライアント端末で次のコマンドを実行
    $ kubectl port-forward --address 0.0.0.0 example-notebook-0 6016:6016 -n anonymous
  • SSH クライアントのポートフォワーディングの設定に次を追加
    ローカルのポート: 6016、リモート側ホスト:localhost、リモート側ポート: 6016

先ほど実施したTunerのログを読み込ませ、TensorBoardを起動します。

1%load_ext tensorboard
2%tensorboard --logdir {tuner_tensorboard_log_dir} --host 0.0.0.0 --port 6016

起動すると次のような画面がノートブックのセル内に表示されます。この画面では、各試行における損失曲線とメトリック曲線が表示されています。左ペインの操作パネルで可視化設定を切り替えることができます。

図2-3:TensorBoard-SCALARS画面

図2-3:TensorBoard-SCALARS画面

また、「GRAPHS」タブを選択すると、モデルグラフが表示されます。

図2-4:TensorBoard-GRAPHS画面

図2-4:TensorBoard-GRAPHS画面

モデルの構造の概念グラフを可視化してくれるため、意図した設計と一致しているかどうかを確認できます。左ペインの「Run」の設定で各試行におけるモデルグラフを切り替えることができます。

ここまでは、TensorBoardの一般的な機能となります。これら機能に加えてハイパーパラメータチューニング時は、その試行を可視化する「HParams」が追加されます。画面上部の「HPARAMS」タブを選択します。

この画面では次のような項目を確認できます。

・TABLE VIEW

試行ごとに設定したハイパーパラメータ値と評価指標を確認できます。

図2-5:TABLE VIEW画面

図2-5:TABLE VIEW画面

左ペインのパネルで特定のハイパーパラメータのフィルタを指定できます。例えば、オプティマイザーが「rmsprop」、ユニット数が150以上の試行のみを表示できます。

図2-6:TABLE VIEWフィルタ結果画面

図2-6:TABLE VIEWフィルタ結果画面

・PARALLEL COORDINATES VIEW

平行座標ビューでは、色付きの各線は試行を示しています。軸はハイパーパラメータと評価指標です。

図2-7:PARALLEL COORDINATES VIEW画面

図2-7:PARALLEL COORDINATES VIEW画面

TABLE VIEWと同様に左ペインのパネルでフィルタが可能です。指標値を見やすくするために、左ペインの「Metrics」の表示項目を「validation.epoch_accuracy」のみ表示するよう選択します。例えば、今回の結果を考察してみると、オプティマイザーが「adam」かつユニット数が150の試行が最も指標の値が高いことがわかります。また、オプティマイザーが「adam」の時の試行が指標の結果が良いことも視覚的にわかります。

図2-8:PARALLEL COORDINATES VIEWフィルタ結果画面

図2-8:PARALLEL COORDINATES VIEWフィルタ結果画面

・SCATTER PLOT MATRIX VIEW

散布図マトリックスビューでは、各ドットは試行を表します。プロットは、軸としてさまざまなハイパーパラメータとメトリクスを使用した平面での試行の投影となっています。ハイパーパラメータごとに試行結果の分布を把握できます。

図2-9:SCATTER PLOT MATRIX VIEW画面

図2-9:SCATTER PLOT MATRIX VIEW画面

これら可視化した結果を確認して、ここではTunerコンポーネントを用いた試行で最良となった、オプティマイザー「adam」、中間層のユニット数「150」というハイパーパラメータを選定することにします。

・ハイパーパラメータを固定化して再度Trainerを実行

先ほど実施したTunerの結果で得られた最良のハイパーパラメータをモデル学習時に読み込めるようにImportTunerコンポーネントを使い、Trainerの入力として設定します。まず、固定化するパラメータ(Tunerの結果)をMinIOにアップロードします。

1bucket.upload_file(os.path.join(tuner.outputs['best_hyperparameters'].get()[0].uri, 'best_hyperparameters.txt'),
2                   'tuner/best_hyperparameters.txt')

ImportTunerコンポーネントを定義し、実行します。

1import_tuner = tfx.dsl.Importer(
2    source_uri = '%s/tuner/' % bucket_name_s3_prefix,
3    artifact_type = tfx.types.standard_artifacts.HyperParameters).with_id('tuner_importer')
4context.run(import_tuner)
図2-10:Import Tuner実行結果

図2-10:Import Tuner実行結果

TrainerコンポーネントでImportTunerを読み込むようにTrainerを再定義します。まずモジュールファイルを定義します。

1trainer_module_file_name = 'adult_income_trainer_module.py'
2trainer_module_file_path = os.path.join(os.getcwd(), trainer_module_file_name)

次に、チューニングして決定した最良のハイパーパラメータを受け取ってトレーニングをするために、Trainerコンポーネントで使用するモジュールファイルを更新します。

クリックして表示

モジュールファイルをMinIOにアップロードします。

1bucket.upload_file(trainer_module_file_path, 'module/%s' % trainer_module_file_name)

Trainerの入力としてhyperparametersを追加し、先ほど作成したモジュールファイルを使用してモデル学習を再実行します。

01param_trainer_module_file = '%s/module/%s' % (bucket_name_s3_prefix, trainer_module_file_name)
02 
03trainer = tfx.components.Trainer(
04    module_file = param_trainer_module_file,
05    custom_executor_spec = executor_spec.ExecutorClassSpec(GenericExecutor),
06    examples = transform.outputs['transformed_examples'],
07    transform_graph = transform.outputs['transform_graph'],
08    schema = import_schema.outputs['result'],
09    hyperparameters = import_tuner.outputs['result'],
10    train_args = param_trainer_train_args,
11    eval_args = param_trainer_eval_args,
12    custom_config = param_trainer_custom_config_args)
13context.run(trainer)
図2-11:チューニング後のTrainer実行結果

図2-11:チューニング後のTrainer実行結果

ハイパーパラメータチューニングを実施した結果、評価用データセットに対しての正解率(val_accuracy)が約86%に改善しました。

おわりに

今回はTFXの概要と機械学習パイプラインのうち「モデル作成」における、「モデル学習」と「チューニング」のステップについてTFXコンポーネントの解説と実装を行いました。次回は、実装編の最終回として、作成したモデルを評価しデプロイ可能なモデルとして出力するステップをパイプラインに組み込みます。

著者
張替 清音(はりがえ きよなり)
NTTデータ先端技術株式会社

ソフトウェアソリューション事業本部 AIソリューション事業部 ビッグデータ基盤担当

2017年入社。HadoopやSparkといったOSSのビッグデータ基盤の導入支援や技術開発を経て、現在はサイバーセキュリティ対策のためのデータ分析基盤の構築や、 OSSをベースとしたクラウドネイティブなデータ分析・活用基盤に関する技術検証やソリューション開発に従事。

連載バックナンバー

AI・人工知能技術解説
第9回

機械学習モデルの継続的な改善に向けて

2022/6/13
連載の最終回となる今回は、機械学習モデルの開発と運用におけるパイプライン全体を協調動作させモデルを継続的に改善する仕組みについて解説します。
AI・人工知能技術解説
第8回

KFServingで機械学習モデルをサービング

2022/4/27
連載の8回目となる今回は、学習済みモデルのデプロイの手順とその運用で利用するKubeflowの機能やコンポーネントについて解説します。
AI・人工知能技術解説
第7回

TFXを使った機械学習パイプラインの構築(デプロイ編)

2022/3/30
連載の7回目となる今回は、実装編で構築した機械学習パイプラインをKubeflow Pipelinesにデプロイし実行します。

Think ITメルマガ会員登録受付中

Think ITでは、技術情報が詰まったメールマガジン「Think IT Weekly」の配信サービスを提供しています。メルマガ会員登録を済ませれば、メルマガだけでなく、さまざまな限定特典を入手できるようになります。

Think ITメルマガ会員のサービス内容を見る

他にもこの記事が読まれています