PyTorch保存Tensor日志会持续占用显存

- 用列表存放在GPU的Tensor,会一直占用显存,如果只是为了记录日志,可以用
loss.item()
- 例如,
losses_logs.append([loss1, loss2])
会持续占用显存。 - 而
losses_logs.append([loss1.item(), loss2.item()])
可以保留数值,但不会占用显存。
- 例如,
loss.item()
losses_logs.append([loss1, loss2])
会持续占用显存。losses_logs.append([loss1.item(), loss2.item()])
可以保留数值,但不会占用显存。
共有 0 条评论