メインコンテンツへスキップ
W&B Inference では、複数のオープンソース基盤モデルを利用できます。各モデルには、それぞれ異なる強みとユースケースがあります。

モデルカタログ

モデルモデル ID (API 使用時)タイプコンテキストウィンドウパラメーター説明
DeepSeek V3.1deepseek-ai/DeepSeek-V3.1テキスト161k37B-671B (アクティブ-合計)プロンプトテンプレートを通じて、思考モードと思考なしモードの両方をサポートする大規模なハイブリッドモデル。
Google Gemma 4 31Bgoogle/gemma-4-31B-itテキスト、画像262k31B (合計)Gemma 4 31B Dense は、高度な推論、エージェント型ワークフロー、長いコンテキストに対応するよう設計されており、140 以上の言語でネイティブにトレーニングされています。
Meta Llama 3.3 70Bmeta-llama/Llama-3.3-70B-Instructテキスト128k70B (合計)会話タスク、詳細な指示への追従、コーディングに優れた多言語モデル。
Meta Llama 3.1 70Bmeta-llama/Llama-3.1-70B-Instructテキスト128k700億 (合計)応答性の高い多言語チャットボットとのやり取り向けに最適化された、効率的な会話モデル。
Meta Llama 3.1 8Bmeta-llama/Llama-3.1-8B-Instructテキスト128k8B (合計)応答性の高い多言語チャットボット向けに最適化された、効率的な会話モデル。
Microsoft Phi 4 Mini 3.8Bmicrosoft/Phi-4-mini-instructテキスト128k3.8B (合計)リソースが限られた環境での高速応答に適した、コンパクトで効率的なモデル。
MiniMax M2.5MiniMaxAI/MiniMax-M2.5テキスト197k10B-230B (アクティブ-合計)高スループットかつ低レイテンシ向けに設計された、高度にスパースなアーキテクチャと優れたコーディング性能を備えたMoEモデル。
Moonshot AI Kimi K2.5moonshotai/Kimi-K2.5テキスト、画像262k32B-1T (アクティブ-合計)Kimi K2.5 は、320億のアクティブパラメーターと合計1兆のパラメーターを備えた、マルチモーダルのMixture-of-Experts言語モデルです。
NVIDIA Nemotron 3 Super 120Bnvidia/NVIDIA-Nemotron-3-Super-120B-A12B-FP8テキスト262k12B-120B (アクティブ-合計)Nemotron 3 は、優れたエージェント型、自律的推論、対話の各機能を実現するよう設計された LatentMoE モデルです。
OpenAI GPT OSS 120Bopenai/gpt-oss-120bテキスト131k5.1B-117B (アクティブ-合計)高度な推論、エージェント型、および汎用のユースケース向けに設計された、効率的なMixture-of-Expertsモデル。
OpenAI GPT OSS 20Bopenai/gpt-oss-20bテキスト131k36億~200億 (アクティブ~総計)OpenAIのHarmonyレスポンス形式でトレーニングされた、推論能力を備える低レイテンシのMixture-of-Expertsモデル。
OpenPipe Qwen3 14B InstructOpenPipe/Qwen3-14B-Instructテキスト32.8k14.8B (合計)OpenPipeがファインチューニングによるエージェント構築向けに最適化した、効率的な多言語対応の高密度な指示チューニング済みモデル。
Qwen3.5 35B A3BQwen/Qwen3.5-35B-A3Bテキスト、ビジョン262k3B-35B (アクティブ-総計)Qwen3.5-35B-A3Bは、チャット、推論、エージェント型タスクにわたって、効率的かつ高スループットな推論を実現するよう設計された、オープンウェイトのマルチモーダルMoEモデルです。
Qwen3 235B A22B Thinking-2507Qwen/Qwen3-235B-A22B-Thinking-2507テキスト262k22B-235B (アクティブ/合計)構造化推論、数学、長文生成向けに最適化された高パフォーマンスのMixture-of-Expertsモデル。
Qwen3 235B A22B-2507Qwen/Qwen3-235B-A22B-Instruct-2507テキスト262k22B-235B (アクティブ-合計)論理推論向けに最適化された、効率的な多言語対応の Mixture-of-Experts 型指示チューニング済みモデル。
Qwen3 30B A3BQwen/Qwen3-30B-A3B-Instruct-2507テキスト262k3.3B-30.5B (アクティブ-総計)Qwen3-30B-A3B-Instruct-2507 は、推論、コーディング、長文コンテキストの理解を強化した、30.5B の MoE 命令チューニング済みモデルです。
Qwen3 Coder 480B A35BQwen/Qwen3-Coder-480B-A35B-Instructテキスト262k35B-480B (アクティブ-総計)関数呼び出し、ツール使用、長いコンテキストでの推論などのエージェント型コーディングタスク向けに最適化されたMixture-of-Expertsモデル。
Z.AI GLM 5.1zai-org/GLM-5.1テキスト203k40B-744B (アクティブ-合計)長期的なエージェント型エンジニアリングと高度な推論向けの高性能なMoEモデル。
Z.AI GLM 5zai-org/GLM-5-FP8テキスト200k40B-744B (アクティブ-合計)推論とコーディングで高いパフォーマンスを発揮する、長期的なエージェント型タスク向けのMixture-of-Expertsモデル。
Meta Llama 4 Scout (非推奨)meta-llama/Llama-4-Scout-17B-16E-Instructテキスト、ビジョン64k17B-109B (アクティブ-合計)テキストと画像の理解を統合したマルチモーダルモデルで、視覚タスクや統合的な分析に適しています。

モデル ID の使用

APIを使用する場合は、上の表にある Model ID を使ってモデルを指定します。たとえば:
response = client.chat.completions.create(
    model="meta-llama/Llama-3.1-8B-Instruct",
    messages=[...]
)

次のステップ