Utilisez Serverless RL pour post-entraîner des LLM capables d’adopter de nouveaux comportements et d’améliorer la fiabilité, la rapidité et les coûts lors de l’exécution de tâches agentiques multi-tours. Serverless RL est désormais en préversion publique. W&B met à votre disposition l’infrastructure d’entraînement (sur CoreWeave) tout en vous laissant une flexibilité totale dans la configuration de votre environnement. Vous bénéficiez d’un accès instantané à un cluster d’entraînement géré, avec mise à l’échelle automatique élastique jusqu’à plusieurs dizaines de GPU. Serverless RL sépare les flux de travail RL en phases d’inférence et d’entraînement, puis les multiplexe entre les jobs afin d’augmenter l’utilisation des GPU et de réduire votre temps d’entraînement ainsi que vos coûts. Serverless RL est idéal pour des tâches telles que :Documentation Index
Fetch the complete documentation index at: https://docs.wandb.ai/llms.txt
Use this file to discover all available pages before exploring further.
- Agents vocaux
- Assistants de recherche avancée
- Modèles sur site
- Agents d’analyse du marketing de contenu
Pourquoi Serverless RL ?
- Coûts d’entraînement réduits : en mutualisant une infrastructure partagée entre de nombreux utilisateurs, en évitant le processus de configuration pour chaque tâche et en ramenant vos coûts GPU à zéro lorsque vous n’êtes pas activement en entraînement, Serverless RL réduit considérablement les coûts d’entraînement.
- Entraînement plus rapide : en répartissant les requêtes d’inférence sur de nombreux GPU et en provisionnant immédiatement l’infrastructure d’entraînement lorsque vous en avez besoin, Serverless RL accélère vos tâches d’entraînement et vous permet d’itérer plus rapidement.
- Déploiement automatique : Serverless RL déploie automatiquement chaque point de contrôle généré pendant l’entraînement. Vous n’avez donc pas besoin de configurer manuellement une infrastructure d’hébergement. Vous pouvez accéder immédiatement aux modèles entraînés et les tester dans des environnements locaux, de préproduction ou de production.
Comment Serverless RL utilise les services W&B
- Inference : pour exécuter vos modèles
- Models : pour suivre les métriques de performance pendant l’entraînement de l’adaptateur LoRA
- Artifacts : pour stocker et versionner les adaptateurs LoRA
- Weave (facultatif) : pour bénéficier d’une visibilité sur la façon dont le modèle répond à chaque étape de la boucle d’entraînement