TFXを使った機械学習パイプラインの構築(実装編その2)

2022年1月28日(金)
張替 清音(はりがえ きよなり)
連載の5回目となる今回は、前回に引き続きTFXを使ってKubeflow上で動かす機械学習パイプラインを構築していきます。

はじめに

前回は、TFXを使った機械学習パイプラインの構築のうち「実装編その1」として、その前半部分となる「データ準備」で利用するTFXコンポーネント解説や実装を行いました。今回は、「実装編その2」として、後半部分の「モデル作成」の各ステップで利用するTFXコンポーネントの解説や実装に入っていきます。

機械学習パイプラインの構築(ハンズオン)

本稿では、機械学習パイプラインのうち「モデル作成」に含まれる「モデル学習」と「チューニング」のステップについて解説します。

図1:機械学習パイプラインの各ステップとコンポーネント

図1:機械学習パイプラインの各ステップとコンポーネント

赤枠の部分が本稿の範囲となり、黒枠の部分は実装済みであることが前提となります。前回の「データ準備」で用意した学習用と評価用のデータを利用し、今回は「モデル学習」と「チューニング」を行うステップをパイプラインに組み込んでいきます。

解説の流れ

「モデル学習」、「チューニング」の各ステップで利用するTFXコンポーネントについて、実装例を交えて解説します。

  • モデル学習:Trainerコンポーネントを使ってモデル学習ステップの解説と実装を行います。ここでは、本連載の第3回で解説したモデルをベースにモデル学習をパイプラインに組み込みます
  • チューニング:Tunerコンポーネントを使って、チューニングステップの解説と実装を行います。ここでは、モデル学習プロセスの一つである「ハイパーパラメータチューニング」をパイプラインに組み込みます

機械学習パイプライン構築の進め方

前回と同様に、TFXの「インタラクティブパイプライン」という機能を利用し、TFXコンポーネントの実行結果を確認しながら段階的に実装を進めていきます。以降、解説で用いるコード例を上から順番にJupyter notebookのセルに入力し実行していくことで、機械学習パイプラインの構築が進んでいきます。

事前準備

前回利用したノートブックサーバーおよびPython3のノートブック(.ipynb)ファイルを引き続き利用します。また、「チューニング」のステップでKerasTunerの追加が必要なため、次のコマンドをノートブックのセルに入力しライブラリをインストールします。

1!pip install keras-tuner==1.0.2

モデル学習

TrainerというTFXコンポーネントを使って、モデル学習のステップを機械学習パイプラインに組み込む方法について解説します。

  • Trainerとは

Trainerはモデル学習を行うTFXコンポーネントです。Trainerでは主に次の入力を必要とします。

  • 前回「データ変換」のステップで実装したデータ変換処理のグラフ
  • 前回「データ検証」のステップで生成したデータスキーマ
  • 前回「データ分割」のステップで説明した学習用データと評価用データ
  • 学習パラメータ(学習ステップ、エポック数など)
  • 学習プロセスを定義する「run_fn関数」を含むモジュールファイル

ここで重要なポイントの一つとして、データ変換処理のグラフを入力するところが挙げられます。データ変換処理のグラフとは、前回Transformコンポーネントで実装したデータ変換処理を保存したものを示します。つまり、Trainerコンポーネントで作成するモデルは、データ変換処理を含めた形で出力でき、このモデルをデプロイすると推論処理の一部としてデータ変換処理をモデルサーバー上で実行します。これによって、前回解説した「学習・推論間でのスキュー」を回避できるのです。

それでは、まずモデル定義を行います。なお、Trainerで実装した処理をパイプラインとして組み込む際は、モジュールファイル化(.pyファイル化)する必要があるため、ノートブック上で実行するとともにモジュールファイルとして書き出しを行います。

1trainer_module_without_tuning_file_name = 'adult_income_trainer_module_without_tuning.py'
2trainer_module_without_tuning_file_path = os.path.join(os.getcwd(), trainer_module_without_tuning_file_name)

次にモデル定義を記述します。

クリックして表示

次に「run_fn関数」を実装します。Trainerコンポーネントはモジュールファイル内に定義された「run_fn関数」を検索し、学習プロセスを実行するためのエントリポイントとして使用します。この関数では次の処理を実装します。

  • 学習用と評価用のデータの読み込み
  • モデルのコンパイル
  • モデルの学習
  • モデルの保存

では、「run_fn関数」実装します。

01%%writefile -a {trainer_module_without_tuning_file_path}
02 
03def run_fn(fn_args: TrainerFnArgs):
04    tf_transform_output = tft.TFTransformOutput(fn_args.transform_output)
05    train_dataset = input_fn(fn_args.train_files, fn_args.data_accessor,
06                                tf_transform_output, 40)
07    eval_dataset = input_fn(fn_args.eval_files, fn_args.data_accessor,
08                               tf_transform_output, 40)
09 
10    tensorboard_callback = tf.keras.callbacks.TensorBoard(
11        log_dir = fn_args.model_run_dir, update_freq='batch'
12    )
13 
14    model = create_model()
15    model.fit(
16        train_dataset,
17        epochs = fn_args.custom_config["epoch"],
18        steps_per_epoch = fn_args.train_steps,
19        validation_data = eval_dataset,
20        validation_steps = fn_args.eval_steps,
21        callbacks = [tensorboard_callback]
22    )
23 
24    signatures = {
25        'serving_default':
26            get_tf_examples_serving_signature(model, tf_transform_output),
27        'transform_features':
28            get_transform_features_signature(model, tf_transform_output),
29    }
30    model.save(fn_args.serving_model_dir, save_format='tf', signatures=signatures)

次に「run_fn関数」に記述した以下のヘルパー関数を定義します。

  • input_fn関数
  • get_tf_examples_serving_signature関数
  • get_transform_features_signature関数

「input_fn関数」は、変換処理済みの学習用および評価用のデータセットを読み込みます。TFRecordからデータセットを読み込むために、変換処理済みのスキーマを引数として渡します。また、学習時にモデルに与えるデータのバッチサイズを指定します。

01%%writefile -a {trainer_module_without_tuning_file_path}
02 
03def input_fn(file_pattern: List[Text],
04             data_accessor: DataAccessor,
05             tf_transform_output: tft.TFTransformOutput,
06             batch_size: int = 200) -> tf.data.Dataset:
07    return data_accessor.tf_dataset_factory(
08        file_pattern,
09        dataset_options.TensorFlowDatasetOptions(
10            batch_size=batch_size, label_key=transformed_name(LABEL_KEY)),
11        tf_transform_output.transformed_metadata.schema)

「get_tf_examples_serving_signature関数」は、モデルの入力にデータ変換グラフを適用します。これにより、モデルをデプロイした際に予測リクエストはデータ変換処理され、実行されます。

01%%writefile -a {trainer_module_without_tuning_file_path}
02 
03def get_tf_examples_serving_signature(model, tf_transform_output):
04    model.tft_layer_inference = tf_transform_output.transform_features_layer()
05 
06    @tf.function(input_signature=[
07        tf.TensorSpec(shape=[None], dtype=tf.string, name='examples')
08    ])
09    def serve_tf_examples_fn(serialized_tf_example):
10        raw_feature_spec = tf_transform_output.raw_feature_spec()
11        raw_feature_spec.pop(LABEL_KEY)
12        raw_features = tf.io.parse_example(serialized_tf_example, raw_feature_spec)
13        transformed_features = model.tft_layer_inference(raw_features)
14 
15        outputs = model(transformed_features)
16        return {'outputs': outputs}
17 
18    return serve_tf_examples_fn

「get_transform_features_signature関数」は、後続のモデル評価のステップでモデルの入力にデータ変換グラフを適用するために定義します。

01%%writefile -a {trainer_module_without_tuning_file_path}
02 
03def get_transform_features_signature(model, tf_transform_output):
04    model.tft_layer_eval = tf_transform_output.transform_features_layer()
05 
06    @tf.function(input_signature=[
07        tf.TensorSpec(shape=[None], dtype=tf.string, name='examples')
08    ])
09    def transform_features_fn(serialized_tf_example):
10        raw_feature_spec = tf_transform_output.raw_feature_spec()
11        raw_features = tf.io.parse_example(serialized_tf_example, raw_feature_spec)
12        transformed_features = model.tft_layer_eval(raw_features)
13        return transformed_features
14 
15    return transform_features_fn

次に、パイプラインの実行時に利用するために、モジュールファイルをMinIOにアップロードします。

1bucket.upload_file(trainer_module_without_tuning_file_path, 'module/%s' % trainer_module_without_tuning_file_name)

モデル学習を実行します。

01param_trainer_module_file = '%s/module/%s' % (bucket_name_s3_prefix, trainer_module_without_tuning_file_name)
02param_trainer_train_args = {"num_steps": 100}
03param_trainer_eval_args = {"num_steps": 50}
04param_trainer_custom_config_args = {"epoch": 25}
05 
06trainer_without_tuner = tfx.components.Trainer(
07    module_file = param_trainer_module_file,
08    custom_executor_spec = executor_spec.ExecutorClassSpec(GenericExecutor),
09    examples = transform.outputs['transformed_examples'],
10    transform_graph = transform.outputs['transform_graph'],
11    schema = import_schema.outputs['result'],
12    train_args = param_trainer_train_args,
13    eval_args = param_trainer_eval_args,
14    custom_config = param_trainer_custom_config_args)
15context.run(trainer_without_tuner)
図2-1:Trainerの実行結果

図2-1:Trainerの実行結果

学習用データを25回(エポック数で指定した回数)繰り返し学習し、最終的に評価用データセットに対しての正解率(val_accuracy)は、約85%となりました。

著者
張替 清音(はりがえ きよなり)
NTTデータ先端技術株式会社

ソフトウェアソリューション事業本部 AIソリューション事業部 ビッグデータ基盤担当

2017年入社。HadoopやSparkといったOSSのビッグデータ基盤の導入支援や技術開発を経て、現在はサイバーセキュリティ対策のためのデータ分析基盤の構築や、 OSSをベースとしたクラウドネイティブなデータ分析・活用基盤に関する技術検証やソリューション開発に従事。

連載バックナンバー

AI・人工知能技術解説
第9回

機械学習モデルの継続的な改善に向けて

2022/6/13
連載の最終回となる今回は、機械学習モデルの開発と運用におけるパイプライン全体を協調動作させモデルを継続的に改善する仕組みについて解説します。
AI・人工知能技術解説
第8回

KFServingで機械学習モデルをサービング

2022/4/27
連載の8回目となる今回は、学習済みモデルのデプロイの手順とその運用で利用するKubeflowの機能やコンポーネントについて解説します。
AI・人工知能技術解説
第7回

TFXを使った機械学習パイプラインの構築(デプロイ編)

2022/3/30
連載の7回目となる今回は、実装編で構築した機械学習パイプラインをKubeflow Pipelinesにデプロイし実行します。

Think ITメルマガ会員登録受付中

Think ITでは、技術情報が詰まったメールマガジン「Think IT Weekly」の配信サービスを提供しています。メルマガ会員登録を済ませれば、メルマガだけでなく、さまざまな限定特典を入手できるようになります。

Think ITメルマガ会員のサービス内容を見る

他にもこの記事が読まれています