client.chat.completions.create() (または同等のもの) を @weave.op または手動インストルメンテーションでラップする必要があり、手間がかかるうえに見落としも起きがちです。
Weave は、サポートされる LLM クライアントライブラリを自動的にインターセプト (パッチ適用) します。application のコードはそのままで、通常どおりプロバイダー SDK を使用するだけで、各 request が Weave Call として記録されます。最小限の setup で完全なトレースを実現できます。
LLM プロバイダー
- W&B Inference Service
- Amazon Bedrock
- Anthropic
- Cerebras
- Cohere
- Groq
- Hugging Face Hub
- LiteLLM
- Microsoft Azure
- MistralAI
- NVIDIA NIM
- OpenAI
- OpenRouter
- Together AI
フレームワーク
- OpenAI Agents SDK
- LangChain
- LlamaIndex
- DSPy
- Instructor
- CrewAI
- Smolagents
- PydanticAI
- Google Agent Development Kit (ADK)
- AutoGen
- Verdict
- TypeScript SDK
- Vercel AI SDK
- Agno
- Koog