Hugging Face
A Weights & Biases integration for Hugging Face's Transformers library for experiment tracking and model and data versioning
抱抱脸的Transformers(HuggingFace Transformers)项目提供了用于自然语言理解(NLU)和自然语言生成(NLG)的通用架构,拥有100多种语言的预训练模型,并在TensorFlow 2.0与PyTorch之间能够进行深度互操作。抱抱脸的Transformers(HuggingFace Transformers)项目提供了用于自然语言理解(NLU)和自然语言生成(NLG)的通用架构,拥 有100多种语言的预训练模型,并在TensorFlow 2.0与PyTorch之间能够进行深度互操作。
要想自动记录训练,只需安装库并登录:
pip install wandb
wandb login
Trainer
或TFTrainer
会自动记录损失、评估指标、模型拓扑和梯度。还有一些变量可与Transformers一起使用:
环境变量 | 选项 |
WANDB_WATCH | l gradients(默认值):记录梯度直方图。 l all:记录梯度和参数的直方图。 l false:不记录梯度和参数。 |
WANDB_DISABLED | boolean: 设为True以完全禁用记录 |
示例
我们已经为你创建了一些示例,以了解集成的工作原理:
反馈
可视化结果
你可在W&B仪表盘中动态探究你的结果。 你可以轻松查看数十项实验,放大感兴趣的发现,并可视化高维数据。
最近更新 1yr ago