Local Models
많은 개발자들이 Llama-3, Mixtral, Gemma, Phi 등과 같은 오픈 소스 모델을 로컬 환경에서 다운로드하고 실행합니다. 이러한 모델을 로컬에서 실행하는 방법은 매우 다양하며, Weave는 OpenAI SDK 호환성을 지원하는 한 몇 가지 방식을 기본적으로 지원합니다.로컬 모델 함수를 @weave.op()로 래핑하기
weave.init('<your-project-name>')으로 Weave를 초기화한 다음, LLM 호출 부분을 weave.op()로 래핑하면 어떤 LLM이든 Weave와 쉽게 통합할 수 있습니다. 자세한 내용은 tracing 가이드를 참조하세요.
로컬 모델을 사용하도록 OpenAI SDK 코드 업데이트하기
OpenAI SDK 호환성을 지원하는 모든 프레임워크나 서비스는 몇 가지 사소한 변경 사항이 필요합니다. 가장 먼저 그리고 중요하게,openai.OpenAI() 초기화 중에 base_url을 변경해야 합니다.
api_key는 어떤 문자열이든 상관없지만 반드시 재정의(override)해야 합니다. 그렇지 않으면 OpenAI가 환경 변수에서 키를 가져오려고 시도하여 오류가 발생할 수 있습니다.