Documentation Index
Fetch the complete documentation index at: https://docs.wandb.ai/llms.txt
Use this file to discover all available pages before exploring further.
Comparaison des produits
| Produit | Idéal pour | Fonctionnalités clés |
|---|---|---|
| W&B Models | Entraîner des modèles de ML à partir de zéro | suivi des expériences, optimisation des hyperparamètres, registre de modèles, visualisations |
| W&B Weave | Créer des applications LLM | Tracing, gestion des prompts, évaluation, suivi des coûts pour les applications d’IA en production |
| Serverless Inference | Utiliser des modèles préentraînés | modèles open source hébergés, accès à l’API, playground de modèles pour les tests |
| Serverless RL | Fine-tuning de modèles | Créer et déployer des LoRAs et des adaptations de modèles personnalisées à l’aide de l’apprentissage par renforcement |
| Serverless Sandboxes | Exécuter des environnements de calcul isolés | sandboxes à la demande et éphémères pour les tâches d’entraînement, l’utilisation d’outils par des agents et des expériences reproductibles |
W&B Models
Démarrage rapide de Models
Le « hello world » de W&B, qui vous guide pour enregistrer vos premières données.
Premiers pas avec Models
Un tutoriel complet qui vous fait découvrir l’ensemble du produit Models à l’aide d’une véritable expérience de ML.
Cours W&B 101
Un cours vidéo axé sur le suivi des expériences, avec des quiz pour valider votre compréhension.
Tutoriel YouTube
Découvrez comment les modèles sont entraînés, évalués, développés et déployés, et comment utiliser wandb à chaque étape de ce cycle de vie pour créer plus rapidement des modèles plus performants.
W&B Weave
Démarrage rapide de Weave
Découvrez comment décorer votre code afin que les appels à un LLM journalisent des traces Weave et vous mettent sur la voie d’un flux de travail LLM optimal.
Découvrir Weave avec Serverless Inference
Un tutoriel complet qui montre comment Weave effectue, en conditions réelles, l’évaluation des performances de différents modèles hébergés par Serverless Inference
Cours W&B Weave 101
Un cours en vidéo qui vous apprend à journaliser, déboguer et évaluer des flux de travail de modèles de langage, avec des quiz pour vérifier votre compréhension.
Démo YouTube
Découvrez comment évaluer, surveiller et faire évoluer en continu vos applications d’IA afin d’améliorer la qualité, la latence, le coût et la sécurité.
Serverless Inference
Introduction à Serverless Inference
Comprend un démarrage rapide qui montre comment utiliser l’API REST OpenAI standard pour appeler n’importe quel modèle hébergé sur Serverless Inference.
Découvrir Weave avec Serverless Inference
Un tutoriel complet qui montre comment Weave effectue une évaluation en conditions réelles des performances de différents modèles hébergés sur Serverless Inference
Essayez l’Inference Playground
Serverless Inference est très simple à utiliser. Cliquez sur n’importe quel modèle que nous hébergeons, commencez à tester des prompts et voyez notre couche d’observabilité entrer en action.
Exemples
Parcourez quelques exemples rapides montrant comment Serverless Inference assure le Tracing des appels à des LLM populaires et évalue les résultats.
Serverless RL
Démarrage rapide
Utilisez Serverless RL avec la bibliothèque ART d’OpenPipe pour entraîner un modèle afin qu’il joue au 2048.
Utiliser vos modèles entraînés
Une fois votre modèle entraîné, découvrez comment l’utiliser dans votre code.
Serverless Sandboxes
Introduction aux Sandboxes
Découvrez ce que sont les Serverless Sandboxes et quand les utiliser pour disposer d’un environnement de calcul isolé et éphémère.
Créer un sandbox
Créez votre premier sandbox en Python et commencez à exécuter du code en quelques secondes.
Entraîner un modèle PyTorch dans un sandbox
Un tutoriel complet qui vous guide tout au long de l’entraînement d’un modèle PyTorch dans un sandbox.
Invoquer un agent dans un sandbox
Donnez à un agent OpenAI accès à un sandbox pour utiliser des outils de manière sûre et isolée.