stream オプションを true に設定すると、応答をチャンクのストリームとして受け取れるため、
応答全体の生成を待たずに、結果を段階的に表示できます。
ストリーミング出力は、すべての hosted モデルでサポートされます。特に
reasoning models での使用を推奨します。ストリーミングでないリクエストでは、モデルが出力を開始する前に
長時間考え込むとタイムアウトする可能性があるためです。
- Python
- Bash
W&B Inference でストリーミング出力を有効にすると、生成中のモデル応答を段階的に受け取れます。
stream オプションを true に設定すると、応答をチャンクのストリームとして受け取れるため、
応答全体の生成を待たずに、結果を段階的に表示できます。
ストリーミング出力は、すべての hosted モデルでサポートされます。特に
reasoning models での使用を推奨します。ストリーミングでないリクエストでは、モデルが出力を開始する前に
長時間考え込むとタイムアウトする可能性があるためです。