OpenAI API
Weights & BiasesのOpenAI APIインテグレーションを使用すると、すべてのOpenAIモデル(ファインチューンされたモデルを含む)に対して、リクエスト、レスポンス、トークン数、モデルメタデータを1行のコードでログすることができます。
W&Bの自動ログインテグレーションは、openai <= 0.28.1
で動作します。適切なバージョンのopenai
をインストールするには、pip install openai==0.28.1
を使用してください。
たった1行のコードで、OpenAI Python SDKからWeights & Biasesへの入力と出力を自動でログできます!
APIの入力と出力をログし始めると、さまざまなプロンプトの性能を迅速に評価したり、異なるモデル設定(例えば温度)を比較したり、トークン使用量などのその他の使用メトリクスを追跡することができます。
始めるには、wandb
ライブラリをpipでインストールし、以下の手順に従ってください:
1. autologをインポートして初期化する
まず、wandb.integration.openai
からautolog
をインポートし、初期化します。
import os
import openai
from wandb.integration.openai import autolog
autolog({"project": "gpt5"})
wandb.init()
が受け入れる引数を持つ辞書をautolog
に渡すこともできます。これには、プロジェクト名、チーム名、エンティティなどが含まれます。wandb.init
の詳細については、APIリファレンスガイドを参照してください。
2. OpenAI APIを呼び出す
OpenAI APIへのすべての呼び出しが、Weights & Biasesに自動的にログされるようになります。
os.environ["OPENAI_API_KEY"] = "XXX"
chat_request_kwargs = dict(
model="gpt-3.5-turbo",
messages=[
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": "Who won the world series in 2020?"},
{"role": "assistant", "content": "The Los Angeles Dodgers"},
{"role": "user", "content": "Where was it played?"},
],
)
response = openai.ChatCompletion.create(**chat_request_kwargs)
3. OpenAI APIの入力とレスポンスを見る
ステップ1でautolog
によって生成されたWeights & Biasesのrunリンクをクリックします。これにより、W&Bアプリのプロジェクトワークスペースにリダイレクトされます。
作成したrunを選択して、トレーステーブル、トレースタイムライン、および使用されたOpenAI LLMのモデルアーキテクチャを表示します。
4. autologを無効にする
OpenAI APIの使用を終了したら、すべてのW&Bプロセスを閉じるためにdisable()
を呼び出すことをお勧めします。
autolog.disable()
これで、入力と補完がWeights & Biasesにログされ、分析や同僚と共有する準備が整います。