본문으로 건너뛰기

OpenAI API

Weights & Biases OpenAI API 인테그레이션을 사용하여 OpenAI 모델에 대해 요청, 응답, 토큰 수 및 모델 메타데이터를 코드 한 줄로 기록하세요. 파인튜닝된 모델도 포함됩니다.

정보

W&B autolog 인테그레이션은 openai <= 0.28.1과 함께 작동합니다. pip install openai==0.28.1로 올바른 버전의 openai를 설치하세요.

여기서 Colab 노트북으로 시도해보세요 →

이제 코드 한 줄로 OpenAI Python SDK에서의 입력과 출력을 Weights & Biases에 자동으로 기록할 수 있습니다!

API 입력과 출력을 기록하기 시작하면 다른 프롬프트의 성능을 빠르게 평가하고, 다른 모델 설정(예: 온도)을 비교하며, 토큰 사용과 같은 다른 사용 메트릭을 추적할 수 있습니다.

시작하려면, wandb 라이브러리를 pip로 설치한 다음 아래 단계를 따르세요:

1. autolog를 가져오고 초기화하세요

먼저, wandb.integration.openai에서 autolog를 가져와 초기화하세요.

import os
import openai
from wandb.integration.openai import autolog

autolog({"project": "gpt5"})

autologwandb.init()이 받아들이는 인수와 함께 사전을 선택적으로 전달할 수 있습니다. 여기에는 프로젝트 이름, 팀 이름, 엔티티 등이 포함됩니다. wandb.init에 대한 자세한 정보는 API 참조 가이드를 참조하세요.

2. OpenAI API를 호출하세요

이제 OpenAI API에 대한 모든 호출이 자동으로 Weights & Biases에 기록됩니다.

os.environ["OPENAI_API_KEY"] = "XXX"

chat_request_kwargs = dict(
model="gpt-3.5-turbo",
messages=[
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": "Who won the world series in 2020?"},
{"role": "assistant", "content": "The Los Angeles Dodgers"},
{"role": "user", "content": "Where was it played?"},
],
)
response = openai.ChatCompletion.create(**chat_request_kwargs)

3. OpenAI API 입력과 응답을 확인하세요

1단계에서 autolog에 의해 생성된 Weights & Biases run 링크를 클릭하세요. 이것은 당신을 W&B 앱의 프로젝트 워크스페이스로 리다이렉트할 것입니다.

생성한 run을 선택하여 OpenAI LLM이 사용한 추적 테이블, 추적 타임라인 및 모델 아키텍처를 확인하세요.

4. autolog를 비활성화하세요

OpenAI API 사용을 마친 후 모든 W&B 프로세스를 닫으려면 disable()을 호출하는 것이 좋습니다.

autolog.disable()

이제 입력과 완성이 Weights & Biases에 기록되어 분석하거나 동료와 공유할 준비가 되었습니다.

Was this page helpful?👍👎