OpenAI API
Weights & Biases OpenAI API 인테그레이션을 사용하여 OpenAI 모델에 대해 요청, 응답, 토큰 수 및 모델 메타데이터를 코드 한 줄로 기록하세요. 파인튜닝된 모델도 포함됩니다.
W&B autolog 인테그레이션은 openai <= 0.28.1
과 함께 작동합니다. pip install openai==0.28.1
로 올바른 버전의 openai
를 설치하세요.
이제 코드 한 줄로 OpenAI Python SDK에서의 입력과 출력을 Weights & Biases에 자동으로 기록할 수 있습니다!
API 입력과 출력을 기록하기 시작하면 다른 프롬프트의 성능을 빠르게 평가하고, 다른 모델 설정(예: 온도)을 비교하며, 토큰 사용과 같은 다른 사용 메트릭을 추적할 수 있습니다.
시작하려면, wandb
라이브러리를 pip로 설치한 다음 아래 단계를 따르세요:
1. autolog를 가져오고 초기화하세요
먼저, wandb.integration.openai
에서 autolog
를 가져와 초기화하세요.
import os
import openai
from wandb.integration.openai import autolog
autolog({"project": "gpt5"})
autolog
에 wandb.init()
이 받아들이는 인수와 함께 사전을 선택적으로 전달할 수 있습니다. 여기에는 프로젝트 이름, 팀 이름, 엔티티 등이 포함됩니다. wandb.init
에 대한 자세한 정보는 API 참조 가이드를 참조하세요.
2. OpenAI API를 호출하세요
이제 OpenAI API에 대한 모든 호출이 자동으로 Weights & Biases에 기록됩니다.
os.environ["OPENAI_API_KEY"] = "XXX"
chat_request_kwargs = dict(
model="gpt-3.5-turbo",
messages=[
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": "Who won the world series in 2020?"},
{"role": "assistant", "content": "The Los Angeles Dodgers"},
{"role": "user", "content": "Where was it played?"},
],
)
response = openai.ChatCompletion.create(**chat_request_kwargs)
3. OpenAI API 입력과 응답을 확인하세요
1단계에서 autolog
에 의해 생성된 Weights & Biases run 링크를 클릭하세요. 이것은 당신을 W&B 앱의 프로젝트 워크스페이스로 리다이렉트할 것입니다.
생성한 run을 선택하여 OpenAI LLM이 사용한 추적 테이블, 추적 타임라인 및 모델 아키텍처를 확인하세요.
4. autolog를 비활성화하세요
OpenAI API 사용을 마친 후 모든 W&B 프로세스를 닫으려면 disable()
을 호출하는 것이 좋습니다.
autolog.disable()
이제 입력과 완성이 Weights & Biases에 기록되어 분석하거나 동료와 공유할 준비가 되었습니다.