実験管理

W&B で機械学習実験を追跡する。

数行のコードで機械学習実験を追跡します。その後、インタラクティブなダッシュボードで結果をレビューしたり、Public APIを使用してプログラムからアクセスできるようにPythonにデータをエクスポートすることができます。

人気のあるフレームワークを使用している場合は、W&Bのインテグレーションを活用してください。PyTorchKeras、またはScikitのようなフレームワークがあります。インテグレーションの完全なリストや、W&Bをコードに追加する方法については、インテグレーションガイドをご覧ください。

上の画像は、複数のRunsでメトリクスを確認および比較できるダッシュボードの例を示しています。

仕組み

数行のコードで機械学習実験を追跡します:

  1. W&B Runを作成します。
  2. 学習率やモデルタイプなどのハイパーパラメーターを辞書として設定(run.config)に保存します。
  3. トレーニングループ中に正確性や損失などのメトリクスをログ(run.log())します。
  4. モデルの重みや予測のテーブルのようなRunの出力を保存します。

以下のコードは、一般的なW&B実験管理ワークフローを示しています:

# Run を開始します。
#
# このブロックから出ると、ログデータのアップロードが完了するのを待ちます。
# 例外が発生した場合、Run は失敗としてマークされます。
with wandb.init(entity="", project="my-project-name") as run:
  # モード入力とハイパーパラメーターを保存します。
  run.config.learning_rate = 0.01

  # 実験コードを実行します。
  for epoch in range(num_epochs):
    # トレーニングをします...

    # モデルのパフォーマンスを可視化するためのメトリクスを時間と共にログします。
    run.log({"loss": loss})

  # モデルの出力をアーティファクトとしてアップロードします。
  run.log_artifact(model)

始めましょう

あなたのユースケースに応じて、W&B Experimentsの開始に役立つ次のリソースを探索してください:

  • W&Bクイックスタートを読んで、W&B Python SDKコマンドを使用してデータセットアーティファクトを作成、追跡、および利用するためのステップバイステップの概要を確認してください。
  • このチャプターを探索して、以下を学びましょう:
    • 実験を作成する
    • 実験を設定する
    • 実験からデータをログする
    • 実験から結果を確認する
  • W&B APIリファレンスガイド内のW&B Pythonライブラリを探索してください。

ベストプラクティスとヒント

実験とログのベストプラクティスとヒントについては、ベストプラクティス: 実験とログをご覧ください。


実験を作成する

W&B 実験を作成します。

実験を設定する

実験の設定を保存するために辞書のようなオブジェクトを使用します。

プロジェクト

モデルのバージョンを比較し、スクラッチワークスペースで結果を探索し、ノートや可視化を保存するために学びをレポートにエクスポートする

実験管理の結果を見る

ランデータを対話的な可視化で探求するためのプレイグラウンド

runs とは何ですか?

W&B の基本的な構成要素である Run について学びましょう。

Jupyter ノートブックをトラッキングする

Jupyter を使用して W&B と連携し、ノートブックから離れることなくインタラクティブな可視化を得ましょう。

ログ オブジェクト と メディア

メトリクス、ビデオ、カスタムプロットなどを追跡する

実験を再現する

実験管理の制限とパフォーマンス

W&B のページを、これらの推奨範囲内でログを記録することにより、より速く反応がよい状態に保ちましょう。

データのインポートとエクスポート

MLFlow から データ をインポートし、保存した データ を W&B にエクスポートまたは更新します。

環境変数

W&B 環境変数を設定します。