Cette bibliothèque s’appuie sur la bibliothèque Transformers de Hugging Face. Simple Transformers vous permet d’entraîner et d’évaluer rapidement des modèles Transformer. Seules 3 lignes de code suffisent pour initialiser un modèle, l’entraîner et l’évaluer. Elle prend en charge la Classification de séquences, la Classification de tokens (NER), les Questions-réponses, le Fine-tuning de modèles de langage, l’entraînement de modèles de langage, la génération de langage, le modèle T5, les tâches Seq2Seq, la Classification multimodale et l’IA conversationnelle. Pour utiliser W&B afin de visualiser l’entraînement du modèle, définissez un nom de projet W&B dans l’attributDocumentation Index
Fetch the complete documentation index at: https://docs.wandb.ai/llms.txt
Use this file to discover all available pages before exploring further.
wandb_project du dictionnaire args. Cela consigne toutes les valeurs d’hyperparamètres, les pertes d’entraînement et les métriques d’évaluation dans le projet indiqué.
wandb.init() peut être passé via wandb_kwargs.
Structure
simpletransformers.classification- Comprend tous les modèles de Classification.ClassificationModelMultiLabelClassificationModel
simpletransformers.ner- Comprend tous les modèles de reconnaissance d’entités nommées.NERModel
simpletransformers.question_answering- Comprend tous les modèles de Questions-réponses.QuestionAnsweringModel