メインコンテンツへスキップ
Model Context Protocol (MCP) を使用すると、LLM エージェントはデータを効率的にクエリして分析でき、トークンコストを最小限に抑えられます。このページでは、W&B MCP サーバーを使用して IDE または MCP クライアントから W&B データをクエリおよび分析し、さらにクライアントに W&B のドキュメントへのプログラムによるアクセスを付与することで、W&B 関連のクエリに対してより正確な応答を生成できるようにする方法を説明します。 これは、以下を含むほとんどの IDE、コーディングクライアント、チャットエージェントとネイティブに統合されます。
  • Cursor
  • Visual Studio Code (VS Code)
  • Claude Code
  • Codex
  • Gemini CLI
  • Mistral LeChat
  • Claude Desktop
W&B MCP サーバーは、ホスト型ローカル のバリアントをサポートしています。ホスト型バージョンは W&B 専用クラウドのデプロイ のみをサポートします。ローカルバージョンは、専用クラウドと セルフマネージドのデプロイ の両方をサポートします。

W&B MCP サーバー でできること

MCP サーバー を使用すると、Experiments の分析、トレースのデバッグ、Reports の作成、アプリケーションへの W&B 機能の統合に関するサポートを受けることができます。 次のプロンプト例は、MCP サーバー に接続した agent が実行できるタスクの例を示しています。
  • your-team-name/your-project-name で、eval/accuracy が高い run 上位 5 件を表示してください。
  • 私の hiring agent predict トレースのレイテンシは、この数か月でどのように変化しましたか?
  • 先月 hiring agent が行った判断を比較する wandb レポートを生成してください。
  • Weave でリーダーボードを作成するにはどうすればよいですか?SupportBot に聞いてください。

利用可能なツール

W&B MCP サーバー を使用すると、エージェントは次のツールにアクセスできます。
ToolDescriptionExample Query
query_wandb_toolW&B の run、メトリクス、Experiments をクエリする”損失 < 0.1 の run を表示して”
query_weave_traces_toolLLM のトレースと評価を分析する”平均レイテンシは?“
count_weave_traces_toolトレースをカウントし、ストレージのメトリクスを取得する”失敗したトレースはいくつ?“
create_wandb_report_toolW&B Reports をプログラムから作成する”パフォーマンスレポートを作成して”
query_wandb_entity_projectsentity のプロジェクトを一覧表示する”どのプロジェクトがありますか?“
query_wandb_support_botW&B ドキュメントのサポートを利用する”Sweeps はどうすれば使用できますか?“

W&B のリモート MCP サーバーを使用する

W&B では、インストール不要のホスト型 MCP サーバー https://mcp.withwandb.com を提供しています。以下では、このホスト型サーバーを各種 AI アシスタントや IDE で設定する方法を説明します。

前提条件

  • W&B 専用クラウドのデプロイ。
  • W&B APIキー。wandb.ai/authorize で新しく作成できます。
  • キーを WANDB_API_KEY という環境変数に設定します。

MCP クライアントを設定する

MCP クライアントの手順が記載されているタブを選択してください。
Cursor では、ワンクリック インストール リンクを使用して W&B サーバーを自動でインストールできます (Authorization フィールドに Bearer <your-wandb-api-key> を追加する必要があります) 。または、以下の手順で手動でインストールすることもできます。
  1. macOS では、Cursor メニューを開き、Settings を選択してから Cursor Settings を選択します。Windows または Linux では、Preferences メニューを開き、Settings を選択してから Cursor Settings を選択します。
  2. Cursor Settings メニューで、Tools and MCP を選択します。Tools メニューが開きます。
  3. Installed MCP Servers セクションで、Add Custom MCP を選択します。mcp.json 設定ファイルが開きます。
  4. 設定ファイルの mcpServers JSON オブジェクトに、次の wandb オブジェクトを追加します。
{
  "mcpServers": {
    "wandb": {
      "transport": "http",
      "url": "https://mcp.withwandb.com/mcp",
      "headers": {
        "Authorization": "Bearer <your-wandb-api-key>",
        "Accept": "application/json, text/event-stream"
      }
    }
  }
}
  1. 変更を反映するために、Cursor を再起動します。
  2. 「W&B アカウント内の Projects を一覧表示して。」というプロンプトを入力し、チャットエージェントが W&B MCP サーバーにアクセスできることを確認します。
詳細については、Cursor のドキュメント を参照してください。

W&B MCP サーバーのローカル版を設定する

W&B セルフマネージド のデプロイ、開発、テスト、または air-gapped 環境で MCP サーバー をローカルに実行する必要がある場合は、お使いのマシンにインストールして実行できます。

前提条件

  • W&B APIキー。wandb.ai/authorize で新しく作成できます。
  • APIキーを、WANDB_API_KEY という名前の環境変数として設定します。
  • W&B セルフマネージド を使用している場合は、WANDB_BASE_URL 環境変数を設定します。
  • Python 3.10 以上
  • uv (推奨) または pip
インストール手順については、uv のドキュメント を参照してください。

MCP サーバーをインストールして設定する

MCP サーバーをローカルにインストールするには: ローカルマシンに W&B MCP サーバーをインストールするには、次のインストールコマンドのいずれかを使用します。
bash uv pip install wandb-mcp-server
MCP サーバーをローカルにインストールしたら、それを使用するように MCP クライアントを設定します。続行するには、MCP クライアントを選択します。
次の内容を mcp.json 設定に追加します。
{
  "mcpServers": {
    "wandb": {
      "command": "uvx",
      "args": ["--from", "git+https://github.com/wandb/wandb-mcp-server", "wandb_mcp_server"],
      "env": {
        "WANDB_API_KEY": "<your-wandb-api-key>",
        "WANDB_BASE_URL": "https://your-wandb-instance.example.com"
      }
    }
  }
}
Web ベースのクライアントやテストでは、HTTP トランスポートでサーバーを実行します:
uvx wandb_mcp_server --transport http --host 0.0.0.0 --port 8080
OpenAI のような外部クライアントにローカルサーバーを公開するには、ngrok を使用します:
uvx wandb_mcp_server --transport http --port 8080

# 別のターミナルで、ngrok を使って公開する
ngrok http 8080
    ```

If you expose the server using `ngrok`, update your MCP client configuration to use the `ngrok` URL.

使用のヒント

  • W&B のプロジェクト名と entity 名を指定する: 正確な結果を得るため、クエリには W&B の entity とプロジェクトを指定してください。
  • 広すぎる質問は避ける: 「what is my best evaluation?」ではなく、「what eval had the highest f1 score?」のように質問してください。
  • データ取得を確認する: 「what are my best performing runs?」のような広い質問をする場合は、利用可能なすべての run を取得できているか、アシスタントに確認させてください。