Tensor.grad属性介绍
PyTorch的Tensor有个grad属性,默认情况下,该属性为None,当第一次调用backward()计算梯度时,此属性变为张量,其值为计算的梯度。并且,将来对backward的多次调用之后,将会累积梯度。
Tensor.grad应用举例
x = torch.tensor([[1., -1.], [1., 1.]], requires_grad=True)
out = x.pow(2).sum()
out.backward()
print(x.grad)
运行结果为:
tensor([[ 2.0000, -2.0000],
[ 2.0000, 2.0000]])
参考
https://pytorch.org/docs/stable/generated/torch.Tensor.grad.html#torch.Tensor.grad