Documentation
搜索文档…
Hugging Face
A Weights & Biases integration for Hugging Face's Transformers library for experiment tracking and model and data versioning
抱抱脸的Transformers(HuggingFace Transformers)项目提供了用于自然语言理解(NLU)和自然语言生成(NLG)的通用架构,拥有100多种语言的预训练模型,并在TensorFlow 2.0与PyTorch之间能够进行深度互操作。抱抱脸的Transformers(HuggingFace Transformers)项目提供了用于自然语言理解(NLU)和自然语言生成(NLG)的通用架构,拥有100多种语言的预训练模型,并在TensorFlow 2.0与PyTorch之间能够进行深度互操作。
要想自动记录训练,只需安装库并登录:
pip install wandb
wandb login
TrainerTFTrainer会自动记录损失、评估指标、模型拓扑和梯度。
通过wandb环境变量可以进行高级配置。
还有一些变量可与Transformers一起使用:
环境变量
选项
WANDB_WATCH
l gradients(默认值):记录梯度直方图。
l all:记录梯度和参数的直方图。
l false:不记录梯度和参数。
WANDB_DISABLED
boolean: 设为True以完全禁用记录
示例
我们已经为你创建了一些示例,以了解集成的工作原理:
在Colab中运行:一个简单的笔记本示例,让你入门。
一步步教你:跟踪你的抱抱脸(HuggingFace)模型的性能
模型大小重要吗?BERT与DistilBERT的比较
反馈
我们很乐意收到大家的反馈意见,我们很高兴能改善这个集成。如果有任何问题或建议,请联系我们
可视化结果
你可在W&B仪表盘中动态探究你的结果。 你可以轻松查看数十项实验,放大感兴趣的发现,并可视化高维数据。
下面是一个比较BERT与DistilBERT的例子——通过自动线图可视化,很容易看清不同架构对整个训练过程中评估精确率的影响。
最近更新 8mo ago
复制链接