PyTorch保存Tensor日志会持续占用显存
- 用列表存放在GPU的Tensor,会一直占用显存,如果只是为了记录日志,可以用
loss.item()- 例如,
losses_logs.append([loss1, loss2])会持续占用显存。 - 而
losses_logs.append([loss1.item(), loss2.item()])可以保留数值,但不会占用显存。
- 例如,
loss.item()losses_logs.append([loss1, loss2])会持续占用显存。losses_logs.append([loss1.item(), loss2.item()])可以保留数值,但不会占用显存。
共有 0 条评论