LLM Playground を使用すると、設定不要で Weave 上の Google AI モデルを試せます。
- Google GenAI SDK:Python SDK、Node.js SDK、Go SDK、REST からアクセスできます。
- Google Vertex AI API:Google の Gemini モデルと各種パートナーモデルにアクセスできます。
非推奨の Google AI Python SDK for the Gemini API もサポートしています。なお、このサポート自体も非推奨であり、今後のバージョンで削除される予定です。
はじめに
weave.init(project_name="<YOUR-WANDB-PROJECT-NAME>") を呼び出してから、通常どおりライブラリを使用します。
Weave は、Vertex APIs のトレースも自動的にキャプチャします。トラッキングを開始するには、weave.init(project_name="<YOUR-WANDB-PROJECT-NAME>") を呼び出してから、通常どおりライブラリを使用します。
独自のopをトラッキングする
@weave.opでラップすると、入力、出力、アプリのロジックのキャプチャが始まり、データがアプリ内をどのように流れるかをデバッグできるようになります。opは深くネストできるため、トラッキングしたい関数のツリーを構築できます。また、実験を進める中でコードのバージョン管理も自動的に開始され、まだgitにコミットしていないアドホックな変更内容も記録されます。
@weave.opでデコレートした関数を作成するだけです。
以下の例では、recommend_places_to_visitという関数を使っています。これは@weave.opでラップされた関数で、ある都市で訪れる場所をおすすめします。
実験しやすくするための Model を作成する
Model クラスを使用すると、system prompt や使用しているモデルなど、アプリの実験に関する詳細を記録して整理できます。これにより、アプリのさまざまなバージョンを整理し、比較しやすくなります。
Model は、コードのバージョン管理や入力/出力の記録に加えて、アプリケーションの挙動を制御する構造化されたパラメーターも記録するため、どのパラメーターが最も効果的だったかを簡単に見つけられます。また、Weave Models は serve や Evaluation と組み合わせて使用することもできます。
以下の例では、CityVisitRecommender を使って実験できます。これらのいずれかを変更するたびに、CityVisitRecommender の新しい バージョン が作成されます。