在for循环中将数据传输到GPU

我们定义一个张量如下:

t = torch.Tensor(10, 10, 3, 200, 200)

然后我们为t赋值,并在循环中调用t:cuda()。在第一次迭代中,它大约需要10秒钟,但在下一次迭代中仅需要0.01秒。如果有人能解释一下为什么会发生这种情况以及我们如何解决这个问题,我将不胜感激。

点赞