새로운 Mistral v1.0 SDK를 지원합니다. 마이그레이션 가이드는 여기에서 확인하세요.
Traces
개발 단계와 production 단계 모두에서 LLM 애플리케이션의 trace를 중앙 데이터베이스에 저장하는 것은 매우 중요합니다. 이러한 trace는 디버깅에 사용될 뿐만 아니라, 애플리케이션을 개선하는 데 도움이 되는 데이터셋으로 활용됩니다. Weave 는 mistralai의 trace를 자동으로 캡처합니다. 평소처럼 라이브러리를 사용하되, 시작할 때weave.init()을 호출하기만 하면 됩니다:
자체 op로 래핑하기
Weave ops는 실험 시 코드를 자동으로 버전 관리하여 결과를 재현 가능하게 만들고, 입력과 출력을 캡처합니다.mistralai.client.MistralClient.chat()을 호출하는 함수를 작성하고 @weave.op() 데코레이터를 추가하기만 하면 Weave 가 입력과 출력을 추적해 줍니다. 치즈 추천기(cheese recommender) 예제에 이를 적용해 보겠습니다:
더 쉬운 실험을 위해 Model 만들기
많은 요소가 복잡하게 얽혀 있는 실험을 정리하는 것은 어렵습니다. Model 클래스를 사용하면 시스템 프롬프트나 사용 중인 모델과 같은 앱의 실험적 세부 사항을 캡처하고 체계화할 수 있습니다. 이를 통해 앱의 다양한 반복(iteration)을 정리하고 비교할 수 있습니다.
코드를 버전 관리하고 입출력을 캡처하는 것 외에도, Model은 애플리케이션의 행동을 제어하는 구조화된 파라미터를 캡처하여 어떤 파라미터가 가장 효과적이었는지 쉽게 찾을 수 있게 해줍니다. 또한 Weave Models를 serve 및 Evaluation과 함께 사용할 수도 있습니다.
아래 예시에서는 model과 country를 바꿔가며 실험할 수 있습니다. 이 중 하나를 변경할 때마다 CheeseRecommender의 새로운 _버전_이 생성됩니다.
