ローカルモデル
ローカルモデルの関数を @weave.op() でラップする
weave.init('<your-project-name>') で Weave を初期化し、LLM への呼び出しを weave.op() でラップするだけで、任意の LLM を簡単に Weave と統合できます。詳しくは、トレース ガイドを参照してください。
ローカルモデルを使用するための OpenAI SDK コードの更新
openai.OpenAI() の初期化時に base_url を変更することです。
api_key には任意の文字列を指定できますが、必ず上書きしてください。そうしないと、OpenAI が環境変数からそれを使用しようとしてエラーになります。
OpenAI SDK をサポートするローカルモデルランナー
- Nomic GPT4All - Settings の Local Server 経由でサポート (FAQ)
- LMStudio - Local Server による OpenAI SDK サポート docs
- Ollama - OpenAI SDK 向けの OpenAI compatibility
- llama-cpp-python Python パッケージ経由の llama.cpp
- llamafile -
http://localhost:8080/v1は Llamafile の実行時に自動的に OpenAI SDK をサポートします