メインコンテンツまでスキップ

OpenAI API

Weights & BiasesのOpenAI APIインテグレーションを使用すると、すべてのOpenAIモデル(ファインチューンされたモデルを含む)に対して、リクエスト、レスポンス、トークン数、モデルメタデータを1行のコードでログすることができます。

備考

W&Bの自動ログインテグレーションは、openai <= 0.28.1で動作します。適切なバージョンのopenaiをインストールするには、pip install openai==0.28.1を使用してください。

Colabノートブックでお試しください →

たった1行のコードで、OpenAI Python SDKからWeights & Biasesへの入力と出力を自動でログできます!

APIの入力と出力をログし始めると、さまざまなプロンプトの性能を迅速に評価したり、異なるモデル設定(例えば温度)を比較したり、トークン使用量などのその他の使用メトリクスを追跡することができます。

始めるには、wandbライブラリをpipでインストールし、以下の手順に従ってください:

1. autologをインポートして初期化する

まず、wandb.integration.openaiからautologをインポートし、初期化します。

import os
import openai
from wandb.integration.openai import autolog

autolog({"project": "gpt5"})

wandb.init()が受け入れる引数を持つ辞書をautologに渡すこともできます。これには、プロジェクト名、チーム名、エンティティなどが含まれます。wandb.initの詳細については、APIリファレンスガイドを参照してください。

2. OpenAI APIを呼び出す

OpenAI APIへのすべての呼び出しが、Weights & Biasesに自動的にログされるようになります。

os.environ["OPENAI_API_KEY"] = "XXX"

chat_request_kwargs = dict(
model="gpt-3.5-turbo",
messages=[
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": "Who won the world series in 2020?"},
{"role": "assistant", "content": "The Los Angeles Dodgers"},
{"role": "user", "content": "Where was it played?"},
],
)
response = openai.ChatCompletion.create(**chat_request_kwargs)

3. OpenAI APIの入力とレスポンスを見る

ステップ1autologによって生成されたWeights & Biasesのrunリンクをクリックします。これにより、W&Bアプリのプロジェクトワークスペースにリダイレクトされます。

作成したrunを選択して、トレーステーブル、トレースタイムライン、および使用されたOpenAI LLMのモデルアーキテクチャを表示します。

4. autologを無効にする

OpenAI APIの使用を終了したら、すべてのW&Bプロセスを閉じるためにdisable()を呼び出すことをお勧めします。

autolog.disable()

これで、入力と補完がWeights & Biasesにログされ、分析や同僚と共有する準備が整います。

Was this page helpful?👍👎