Pytorch
W&B为PyTorch提供了一流的支持。要自动记录梯度(Gradient)并存储网络拓扑,你可以调用
watch
并传入你的PyTorch 模型。import wandb
wandb.init(config=args)
# Magic
wandb.watch(model)
model.train()
for batch_idx, (data, target) in enumerate(train_loader):
output = model(data)
loss = F.nll_loss(output, target)
loss.backward()
optimizer.step()
if batch_idx % args.log_interval == 0:
wandb.log({"loss": loss})
梯度、指标和图(Graph)不会被记录,直到wandb.log
在forward和bacward通过后被调用。
默认,钩子只记录梯度。
参数 | 选项 |
log |
|
log_freq | 整数(默认1000): 记录梯度之间的步(step)数 |
你可将带有图像数据的PyTorch tensors传入
wandb.Image
和torchvision utils,将用于自动记录它们。要记录图像并在媒体(Media)面板中查看它们,你可以使用如下语法:
wandb.log({"examples" : [wandb.Image(i) for i in images]})
如果你需要在同一个脚本中跟踪多个模型,你可以分别在每个模型上调用wandb.watch() 。
我们已经为你创建了一些示例,以了解集成的工作原理:
最近更新 1yr ago