主页 > 知识库 > pytorch损失反向传播后梯度为none的问题

pytorch损失反向传播后梯度为none的问题

热门标签:唐山智能外呼系统一般多少钱 哈尔滨ai外呼系统定制 激战2地图标注 公司电话机器人 广告地图标注app 海南400电话如何申请 腾讯外呼线路 白银外呼系统 陕西金融外呼系统

错误代码:输出grad为none

a = torch.ones((2, 2), requires_grad=True).to(device)
b = a.sum()
b.backward()
print(a.grad)

由于.to(device)是一次操作,此时的a已经不是叶子节点了

修改后的代码为:

a = torch.ones((2, 2), requires_grad=True)
c = a.to(device)

b = c.sum()
b.backward()
print(a.grad)

类似错误:

self.miu = torch.nn.Parameter(torch.ones(self.dimensional)) * 0.01

应该为

self.miu = torch.nn.Parameter(torch.ones(self.dimensional) * 0.01)

补充:pytorch梯度返回none的bug

pytorch1.4.0如果使用了view方法,reshape方法

tensor即使设置了requires_grad,反向传播之后, x返回没有grad梯度,为none

不知道其他版本有无此bug

补充:PyTorch中梯度反向传播的注意点

在一个迭代循环中

optimizer.zero_grad()语句的位置比较随意,只要放在loss.backward()前面即可,它的作用是将梯度归零,否则会在每一个迭代中进行累加,

loss.backward()的作用是反向传播,计算梯度,optimizer.step()的功能是优化器自动完成参数的更新。

optimizer.zero_grad()
loss.backward()
optimizer.step()

以上为个人经验,希望能给大家一个参考,也希望大家多多支持脚本之家。

您可能感兴趣的文章:
  • 浅谈pytorch中为什么要用 zero_grad() 将梯度清零
  • PyTorch梯度裁剪避免训练loss nan的操作
  • PyTorch 如何自动计算梯度
  • Pytorch获取无梯度TorchTensor中的值
  • pytorch 如何打印网络回传梯度
  • PyTorch 如何检查模型梯度是否可导

标签:黑龙江 鹰潭 惠州 上海 黔西 四川 益阳 常德

巨人网络通讯声明:本文标题《pytorch损失反向传播后梯度为none的问题》,本文关键词  pytorch,损失,反向,传播,后,;如发现本文内容存在版权问题,烦请提供相关信息告之我们,我们将及时沟通与处理。本站内容系统采集于网络,涉及言论、版权与本站无关。
  • 相关文章
  • 下面列出与本文章《pytorch损失反向传播后梯度为none的问题》相关的同类信息!
  • 本页收集关于pytorch损失反向传播后梯度为none的问题的相关信息资讯供网民参考!
  • 推荐文章