メインコンテンツへスキップ
数行のコードで機械学習実験を追跡します。その後、インタラクティブなダッシュボードで結果をレビューしたり、Public APIを使用してプログラムからアクセスできるようにPythonにデータをエクスポートすることができます。 人気のあるフレームワークを使用している場合は、W&Bのインテグレーションを活用してください。PyTorchKeras、またはScikitのようなフレームワークがあります。インテグレーションの完全なリストや、W&Bをコードに追加する方法については、インテグレーションガイドをご覧ください。
上の画像は、複数のRunsでメトリクスを確認および比較できるダッシュボードの例を示しています。

仕組み

数行のコードで機械学習実験を追跡します:
  1. W&B Runを作成します。
  2. 学習率やモデルタイプなどのハイパーパラメーターを辞書として設定(run.config)に保存します。
  3. トレーニングループ中に正確性や損失などのメトリクスをログ(run.log())します。
  4. モデルの重みや予測のテーブルのようなRunの出力を保存します。
以下のコードは、一般的なW&B実験管理ワークフローを示しています:
# Run を開始します。
#
# このブロックから出ると、ログデータのアップロードが完了するのを待ちます。
# 例外が発生した場合、Run は失敗としてマークされます。
with wandb.init(entity="", project="my-project-name") as run:
  # モード入力とハイパーパラメーターを保存します。
  run.config.learning_rate = 0.01

  # 実験コードを実行します。
  for epoch in range(num_epochs):
    # トレーニングをします...

    # モデルのパフォーマンスを可視化するためのメトリクスを時間と共にログします。
    run.log({"loss": loss})

  # モデルの出力をアーティファクトとしてアップロードします。
  run.log_artifact(model)

始めましょう

あなたのユースケースに応じて、W&B Experimentsの開始に役立つ次のリソースを探索してください:
  • W&Bクイックスタートを読んで、W&B Python SDKコマンドを使用してデータセットアーティファクトを作成、追跡、および利用するためのステップバイステップの概要を確認してください。
  • このチャプターを探索して、以下を学びましょう:
    • 実験を作成する
    • 実験を設定する
    • 実験からデータをログする
    • 実験から結果を確認する
  • W&B APIリファレンスガイド内のW&B Pythonライブラリを探索してください。

ベストプラクティスとヒント

実験とログのベストプラクティスとヒントについては、ベストプラクティス: 実験とログをご覧ください。
I