- 호스팅 제공업체에 가입하거나 모델을 직접 호스팅하지 않고도 AI 애플리케이션 및 에이전트 구축
- W&B Weave Playground에서 지원되는 모델 사용해 보기
퀵스타트
다음은 Python을 사용한 간단한 예시입니다:다음 단계
사용 세부 정보
가격, 사용 제한 및 크레딧에 대한 정보는 사용 정보 및 제한 사항을 참조하세요.
W&B Weave 및 OpenAI 호환 API를 통해 오픈 소스 파운데이션 모델 에 엑세스하세요
import openai
client = openai.OpenAI(
# 커스텀 base URL은 W&B Inference를 가리킵니다.
base_url='https://api.inference.wandb.ai/v1',
# https://wandb.ai/settings 에서 API 키를 생성하세요.
api_key="<your-api-key>",
# 선택 사항: 사용량 추적을 위한 Team 및 프로젝트
project="<your-team>/<your-project>",
)
response = client.chat.completions.create(
model="meta-llama/Llama-3.1-8B-Instruct",
messages=[
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": "Tell me a joke."}
],
)
print(response.choices[0].message.content)