Tensor.grad属性介绍

PyTorch的Tensor有个grad属性,默认情况下,该属性为None,当第一次调用backward()计算梯度时,此属性变为张量,其值为计算的梯度。并且,将来对backward的多次调用之后,将会累积梯度。

Tensor.grad应用举例

x = torch.tensor([[1., -1.], [1., 1.]], requires_grad=True)
out = x.pow(2).sum()
out.backward()
print(x.grad)

运行结果为:

tensor([[ 2.0000, -2.0000],
        [ 2.0000,  2.0000]])

参考

https://pytorch.org/docs/stable/generated/torch.Tensor.grad.html#torch.Tensor.grad