这个警告信息是提示在构造新的张量时,推荐使用sourceTensor.clone().detach()sourceTensor.clone().detach().requires_grad_(True),而不是使用torch.tensor(sourceTensor)的方式。

警告信息提到了这个建议,是因为在 PyTorch 中,torch.tensor()函数都会创建新的张量,并且不与原先的张量共享内存,即使输入的是一个已有的 PyTorch 张量。如果原先的张量是一个反向传播计算图的一部分,使用torch.tensor()函数会破坏计算图中张量的历史信息,使原来的张量和新创建的张量不再共享梯度和计算历史。因此,如果想要创建一个新的张量,最好使用tensor.clone().detach()或者tensor.detach().clone(),这样可以安全地复制一个共享计算历史的张量。

具体来说,如果想要从a中创建一个新的张量b,并以这个新张量作为当前计算图的一部分,应该使用如下方式:

b = a.clone().detach() # 或者 b = a.detach().clone()

代替

b = torch.tensor(a)

这样生成的张量b具有相同的形状和值,但是它不再共享梯度和计算历史,可以安全地用于其他操作。