| DeepSeek V3.1 | deepseek-ai/DeepSeek-V3.1 | テキスト | 161k | 37B-671B (アクティブ-合計) | プロンプトテンプレートを通じて、思考モードと思考なしモードの両方をサポートする大規模なハイブリッドモデル。 |
| Google Gemma 4 31B | google/gemma-4-31B-it | テキスト、画像 | 262k | 31B (合計) | Gemma 4 31B Dense は、高度な推論、エージェント型ワークフロー、長いコンテキストに対応するよう設計されており、140 以上の言語でネイティブにトレーニングされています。 |
| Meta Llama 3.3 70B | meta-llama/Llama-3.3-70B-Instruct | テキスト | 128k | 70B (合計) | 会話タスク、詳細な指示への追従、コーディングに優れた多言語モデル。 |
| Meta Llama 3.1 70B | meta-llama/Llama-3.1-70B-Instruct | テキスト | 128k | 700億 (合計) | 応答性の高い多言語チャットボットとのやり取り向けに最適化された、効率的な会話モデル。 |
| Meta Llama 3.1 8B | meta-llama/Llama-3.1-8B-Instruct | テキスト | 128k | 8B (合計) | 応答性の高い多言語チャットボット向けに最適化された、効率的な会話モデル。 |
| Microsoft Phi 4 Mini 3.8B | microsoft/Phi-4-mini-instruct | テキスト | 128k | 3.8B (合計) | リソースが限られた環境での高速応答に適した、コンパクトで効率的なモデル。 |
| MiniMax M2.5 | MiniMaxAI/MiniMax-M2.5 | テキスト | 197k | 10B-230B (アクティブ-合計) | 高スループットかつ低レイテンシ向けに設計された、高度にスパースなアーキテクチャと優れたコーディング性能を備えたMoEモデル。 |
| Moonshot AI Kimi K2.5 | moonshotai/Kimi-K2.5 | テキスト、画像 | 262k | 32B-1T (アクティブ-合計) | Kimi K2.5 は、320億のアクティブパラメーターと合計1兆のパラメーターを備えた、マルチモーダルのMixture-of-Experts言語モデルです。 |
| NVIDIA Nemotron 3 Super 120B | nvidia/NVIDIA-Nemotron-3-Super-120B-A12B-FP8 | テキスト | 262k | 12B-120B (アクティブ-合計) | Nemotron 3 は、優れたエージェント型、自律的推論、対話の各機能を実現するよう設計された LatentMoE モデルです。 |
| OpenAI GPT OSS 120B | openai/gpt-oss-120b | テキスト | 131k | 5.1B-117B (アクティブ-合計) | 高度な推論、エージェント型、および汎用のユースケース向けに設計された、効率的なMixture-of-Expertsモデル。 |
| OpenAI GPT OSS 20B | openai/gpt-oss-20b | テキスト | 131k | 36億~200億 (アクティブ~総計) | OpenAIのHarmonyレスポンス形式でトレーニングされた、推論能力を備える低レイテンシのMixture-of-Expertsモデル。 |
| OpenPipe Qwen3 14B Instruct | OpenPipe/Qwen3-14B-Instruct | テキスト | 32.8k | 14.8B (合計) | OpenPipeがファインチューニングによるエージェント構築向けに最適化した、効率的な多言語対応の高密度な指示チューニング済みモデル。 |
| Qwen3.5 35B A3B | Qwen/Qwen3.5-35B-A3B | テキスト、ビジョン | 262k | 3B-35B (アクティブ-総計) | Qwen3.5-35B-A3Bは、チャット、推論、エージェント型タスクにわたって、効率的かつ高スループットな推論を実現するよう設計された、オープンウェイトのマルチモーダルMoEモデルです。 |
| Qwen3 235B A22B Thinking-2507 | Qwen/Qwen3-235B-A22B-Thinking-2507 | テキスト | 262k | 22B-235B (アクティブ/合計) | 構造化推論、数学、長文生成向けに最適化された高パフォーマンスのMixture-of-Expertsモデル。 |
| Qwen3 235B A22B-2507 | Qwen/Qwen3-235B-A22B-Instruct-2507 | テキスト | 262k | 22B-235B (アクティブ-合計) | 論理推論向けに最適化された、効率的な多言語対応の Mixture-of-Experts 型指示チューニング済みモデル。 |
| Qwen3 30B A3B | Qwen/Qwen3-30B-A3B-Instruct-2507 | テキスト | 262k | 3.3B-30.5B (アクティブ-総計) | Qwen3-30B-A3B-Instruct-2507 は、推論、コーディング、長文コンテキストの理解を強化した、30.5B の MoE 命令チューニング済みモデルです。 |
| Qwen3 Coder 480B A35B | Qwen/Qwen3-Coder-480B-A35B-Instruct | テキスト | 262k | 35B-480B (アクティブ-総計) | 関数呼び出し、ツール使用、長いコンテキストでの推論などのエージェント型コーディングタスク向けに最適化されたMixture-of-Expertsモデル。 |
| Z.AI GLM 5.1 | zai-org/GLM-5.1 | テキスト | 203k | 40B-744B (アクティブ-合計) | 長期的なエージェント型エンジニアリングと高度な推論向けの高性能なMoEモデル。 |
| Z.AI GLM 5 | zai-org/GLM-5-FP8 | テキスト | 200k | 40B-744B (アクティブ-合計) | 推論とコーディングで高いパフォーマンスを発揮する、長期的なエージェント型タスク向けのMixture-of-Expertsモデル。 |
| Meta Llama 4 Scout (非推奨) | meta-llama/Llama-4-Scout-17B-16E-Instruct | テキスト、ビジョン | 64k | 17B-109B (アクティブ-合計) | テキストと画像の理解を統合したマルチモーダルモデルで、視覚タスクや統合的な分析に適しています。 |