当前位置:主页 > python教程 > pytorch中backward的要点

pytorch中关于backward的几个要点说明

发布:2023-04-02 16:20:01 59


本站收集了一篇相关的编程文章,网友戈以柳根据主题投稿了本篇教程内容,涉及到pytorch中backward、关于backward要点、pytorch、backward要点、pytorch中backward的要点相关内容,已被145网友关注,下面的电子资料对本篇知识点有更加详尽的解释。

pytorch中backward的要点

pytorch中backward的2个要点

1. requires_grad

用pytorch定义一个网络层,如果数据中加入requires_grad=True,那么对于这个变量而言,就有了属于自己的导数(grad),如果这个数据是矩阵,那么他的grad是同样大小的一个矩阵。

我们将requires_grad视为该变量的一个属性,我们知道,我们在现实生活中,或者说在神经网络中,大部分的函数都是一阶连续可微的,也就是说,他的梯度具有唯一性。requires_grad的存在非常合理。

2. scale才能有backward

scale是标量的意思。

首先我们可用用如下语句查看等式中某个自变量的梯度。

print(x.grad, y.grad)

但是有个前提,我们必须要先对他的结果使用.backward()才能去查看,不然的话,他的梯度会显示为none。

非常需要注意的一点是,能够使用.backward()的必须是标量(scale),不然程序会报错。

结合实际的情况,我们看任何一个网络,使用backward的地方几乎只有一个,那就是loss.backward()。

首先loss肯定是一个标量,无论是MSE还是交叉熵,也无论是否加上了正则项,那都是求和之后的结果,也就是一个数值。这一点非常重要。

以下是我随意写的一个网络层,可以感受一下

import torch
import torch.nn as nn
class Linear(nn.Module):
    def __init__(self, inc, mult):
        super(Linear, self).__init__()
        self.intc = inc
        self.mult = mult
    def forward(self, input0):
        return torch.sum(torch.abs(input0*self.mult+self.intc))
def main():
    x = torch.tensor(1.0, requires_grad=True)
    y = torch.tensor(2.0,requires_grad=True)
    z = x**2+y
    p = z*2+x
    p.backward()
    print(z, x.grad, y.grad)
    A = torch.ones([3,3],requires_grad=True)
    print(A.requires_grad)
    f = Linear(1, -2)
    b = f(A)
    print(b)
    b.backward()
    print(A.grad)
if __name__ == '__main__':
    main()

pytorch中backward参数含义

1.标量与矢量问题

backward参数是否必须取决于因变量的个数,从数据中表现为标量和矢量;

  • 例如标量时
  • y=一个明确的值
  • 矢量时
  • y=[y1,y2]

2.backward 参数计算公式

当因变量公式不是一个标量时,需要显式添加一个参数进行计算,以pytorch文档示例说明:

import torch

a = torch.tensor([2., 3.], requires_grad=True)
b = torch.tensor([6., 4.], requires_grad=True)
Q = 3*a**3 - b**2

例如求解公式

external_grad = torch.tensor([1., 1.])
Q.backward(gradient=external_grad)

可以看到backward参数为[1,1],具体计算的含义,我们把Q公式拆分为标量形式即:

backward参数为[1,1],计算公式为

3.autograd

torch.autograd是计算向量和雅可比公式的乘积的引擎:

其中J就是因变量与自变量的雅可比公式,v即backward中的参数;类比于第二节的例子可对应;

前向传播得到数值后,利用此形式计算直接后向传播计算出损失函数对应各权值的梯度下降值

总结

以上为个人经验,希望能给大家一个参考,也希望大家多多支持码农之家。


参考资料

相关文章

  • pytorch中backward()方法如何自动求梯度

    发布:2023-04-02

    这篇文章主要介绍了pytorch中backward()方法如何自动求梯度问题,具有很好的参考价值,希望对大家有所帮助。如有错误或未考虑完全的地方,望不吝赐教


  • Pytorch Mac GPU 训练与测评实例

    发布:2023-03-03

    这篇文章主要为大家介绍了Pytorch Mac GPU 训练与测评实例详解,有需要的朋友可以借鉴参考下,希望能够有所帮助,祝大家多多进步,早日升职加薪


  • GPU版本安装Pytorch的最新方法步骤

    发布:2023-04-11

    最近深度学习需要用GPU版本的pytorch来加速运算,所以下面这篇文章主要给大家介绍了关于GPU版本安装Pytorch的最新方法步骤,文中通过实例代码介绍的非常详细,需要的朋友可以参考下


  • 教你掌握分布式训练PyTorch DDP到Accelerate到Trainer

    发布:2023-04-06

    这篇文章主要为大家介绍了教你掌握分布式训练PyTorch DDP到Accelerate到Trainer


  • pytorch cuda安装报错的解决方法

    发布:2023-03-02

    这篇文章主要给大家介绍了关于pytorch cuda安装报错的解决方法,文中通过图文介绍的非常详细,对大家学习或者使用Pytorch具有一定的参考学习价值,需要的朋友可以参考下


  • PyTorch基础之torch.nn.Conv2d中自定义权重问题

    发布:2023-04-22

    这篇文章主要介绍了PyTorch基础之torch.nn.Conv2d中自定义权重问题,具有很好的参考价值,希望对大家有所帮助。如有错误或未考虑完全的地方,望不吝赐教


  • pytorch实现模型剪枝的操作方法

    发布:2023-03-25

    PyTorch 提供了内置剪枝 API ,也支持了一些非结构化和结构化剪枝方法,但是 API 比较混乱,对应文档描述也不清晰,所以后面我还会结合微软的开源 nni 工具来实现模型剪枝功能,这篇文章主要介绍了pytorch实现模型剪枝, 需要的朋友可以参考下


  • Pytorch实现将label变成one hot编码的两种方式

    发布:2023-04-25

    这篇文章主要介绍了Pytorch实现将label变成one hot编码的两种方式,具有很好的参考价值,希望对大家有所帮助。如有错误或未考虑完全的地方,望不吝赐教


网友讨论