译(五十三)-Pytorch的stack()与cat()有何区别

stackoverflow热门问题目录

如有翻译问题欢迎评论指出,谢谢。

今天这篇第三个回答只有一个投票,而且老长老长,我就不翻了,有需要的话进链接看吧。
注:今天这篇第二个回答有两张图片,但我现在加载不出来,之后加载出来了我再用图床补上。

2022/4/7更新:图片已补。

Pytorch的torch.stack()和torch.cat()有什么区别?

  • Gulzar asked:

    • OpenAI 用于增强学习的 REINFORCE 和 actor-critic 示例代码有下面两句:

    • REINFORCE:

    • policy_loss = torch.cat(policy_loss).sum()
    • actor-critic:

    • loss = torch.stack(policy_losses).sum() + torch.stack(value_losses).sum()
    • 一个用 torch.cat,另一个用 torch.stack

    • 就我的理解来说, 这篇文档没有清楚给出它们的区别。

    • 希望有人能解答这两个函数的区别。

  • Answers:

    新维度连接张量。

    • cat

    给定维度连接张量。

    • 所以当形状为 (3, 4) 的 AB,进行 torch.cat([A, B], dim=0) 的结果形状为 (6, 4),进行 torch.stack([A, B], dim=0) 的结果形状为 (2, 3, 4)。

    • Jatentaki - vote: 20

    • t1 = torch.tensor([[1, 2],
                       [3, 4]])
      t2 = torch.tensor([[5, 6],
                       [7, 8]])
    • torch.stacktorch.cat
      'Stacks' 在新维度连接张量:
      53-1.png
      'Concatenates' 在已存在的维度连接张量:
      53-3.png
    • 这些函数类似 numpy.stacknumpy.concatenate.


What\'s the difference between torch.stack() and torch.cat() functions?

  • Gulzar asked:

    • OpenAI\'s REINFORCE and actor-critic example for reinforcement learning has the following code:
      OpenAI 用于增强学习的 REINFORCE 和 actor-critic 示例代码有下面两句:

    • REINFORCE:

    • policy_loss = torch.cat(policy_loss).sum()
    • actor-critic:

    • loss = torch.stack(policy_losses).sum() + torch.stack(value_losses).sum()
    • One is using torch.cat, the other uses torch.stack.
      一个用 torch.cat,另一个用 torch.stack

    • As far as my understanding goes, the doc doesn\'t give any clear distinction between them.
      就我的理解来说, 这篇文档没有清楚给出它们的区别。

    • I would be happy to know the differences between the functions.
      希望有人能解答这两个函数的区别。

  • Answers:

    Concatenates sequence of tensors along a new dimension.
    新维度连接张量。

    • cat

    Concatenates the given sequence of seq tensors in the given dimension.
    给定维度连接张量。

    • So if A and B are of shape (3, 4), torch.cat([A, B], dim=0) will be of shape (6, 4) and torch.stack([A, B], dim=0) will be of shape (2, 3, 4).
      所以当形状为 (3, 4) 的 AB,进行 torch.cat([A, B], dim=0) 的结果形状为 (6, 4),进行 torch.stack([A, B], dim=0) 的结果形状为 (2, 3, 4)。

    • Jatentaki - vote: 20

    • t1 = torch.tensor([[1, 2],
                       [3, 4]])
      t2 = torch.tensor([[5, 6],
                       [7, 8]])
    • torch.stacktorch.cat
      'Stacks' a sequence of tensors along a new dimension:
      'Stacks' 在新维度连接张量:
      53-1.png
      'Concatenates' a sequence of tensors along an existing dimension:
      'Concatenates' 在已存在的维度连接张量:
      53-3.png
    • These functions are analogous to numpy.stack and numpy.concatenate.
      这些函数类似 numpy.stacknumpy.concatenate.

版权声明:
作者:MWHLS
链接:https://mwhls.top/3727.html
来源:无镣之涯
文章版权归作者所有,未经允许请勿转载。

THE END
分享
二维码
打赏
< <上一篇
下一篇>>