メインコンテンツへスキップ
W&B Weave は、主要な LLM プロバイダーやオーケストレーションフレームワーク向けの logging インテグレーションを提供します。これらのインテグレーションを使用すると、さまざまなライブラリ経由で行われる calls をシームレスにトレースでき、AI application の監視や分析をより効果的に行えます。 application で LLM プロバイダーのライブラリ (OpenAI、Anthropic、Cohere、Mistral など) を使用している場合、それらの API calls を、inputs、outputs、レイテンシ、token usage、コストを含むトレース済みの Calls として W&B Weave に表示したいはずです。こうした支援がなければ、すべての client.chat.completions.create() (または同等のもの) を @weave.op または手動インストルメンテーションでラップする必要があり、手間がかかるうえに見落としも起きがちです。 Weave は、サポートされる LLM クライアントライブラリを自動的にインターセプト (パッチ適用) します。application のコードはそのままで、通常どおりプロバイダー SDK を使用するだけで、各 request が Weave Call として記録されます。最小限の setup で完全なトレースを実現できます。

LLM プロバイダー

LLM プロバイダーとは、予測を生成するための大規模言語モデルへのアクセスを提供するベンダーです。Weave はこれらのプロバイダーと統合し、それぞれの API とのやり取りをログし、トレースします。 ローカルモデル: 独自のインフラストラクチャー上でモデルを実行している場合はこちらを使用します。

フレームワーク

フレームワークは、AI アプリケーションで実際の実行パイプラインをオーケストレーションするために役立ちます。複雑なワークフローを構築するためのツールや抽象化を提供します。Weave はこれらのフレームワークと統合し、パイプライン全体をトレースします。

RLフレームワーク

プロトコル

Weave は、AI アプリケーションとそれを支えるサービス間の通信を可能にする標準化プロトコルと統合できます。 詳しくは、上記のリストからインテグレーションを選択し、好みの LLM プロバイダー、フレームワーク、またはプロトコルで Weave を使用する方法を確認してください。LLM API に直接アクセスする場合でも、複雑なパイプラインを構築する場合でも、標準化されたプロトコルを使用する場合でも、Weave には AI アプリケーションを効果的にトレースして分析するためのツールが用意されています。