Python-torch.optim优化算法理解之optim.Adam()

佚名 次浏览

摘要:目录简介分析使用Adam算法参数论文理解torch.optim.adam源码理解Adam的特点转载torch.optim优化算法理解之optim.Adam()官方手册:torch.optim—PyTorch1.11.0documentation其他参考pytorch中优化器与学习率衰减方法总结Adam和学习率衰减1(learningrate

目录

简介

分析

使用

Adam算法

参数

论文理解

torch.optim.adam源码理解

Adam的特点


转载torch.optim优化算法理解之optim.Adam()

官方手册:torch.optim — PyTorch 1.11.0 documentation

其他参考

模型参数优化用的就是adam等优化器,但是一直不太理解怎么优化的,以及怎么保存最佳参数的,于是开始搜索学习

torch.optim是一个实现了多种优化算法的包,大多数通用的方法都已支持,提供了丰富的接口调用,未来更多精炼的优化算法也将整合进来。
为了使用torch.optim,需先构造一个优化器对象Optimizer,用来保存当前的状态,并能够根据计算得到的梯度来更新参数。
要构建一个优化器optimizer,你必须给它一个可进行迭代优化的包含了所有参数(所有的参数必须是变量s)的列表。 然后,您可以指定程序优化特定的选项,例如学习速率,权重衰减等。

 

Optimizer还支持指定每个参数选项。 只需传递一个可迭代的dict来替换先前可迭代的Variable。dict中的每一项都可以定义为一个单独的参数组,参数组用一个params键来包含属于它的参数列表。其他键应该与优化器接受的关键字参数相匹配,才能用作此组的优化选项。

 

如上,model.base.parameters()将使用1e-2的学习率,model.classifier.parameters()将使用1e-3的学习率。0.9的momentum作用于所有的parameters。
?

所有的优化器Optimizer都实现了step()方法来对所有的参数进行更新,它有两种调用方法:

 

这是大多数优化器都支持的简化版本,使用如下的backward()方法来计算梯度的时候会调用它。

 
 

一些优化算法,如共轭梯度和LBFGS需要重新评估目标函数多次,所以你必须传递一个closure以重新计算模型。 closure必须清除梯度,计算并返回损失

 
 

adam算法来源:Adam: A Method for Stochastic Optimization

Adam(Adaptive Moment Estimation)本质上是带有动量项的RMSprop,它利用梯度的一阶矩估计和二阶矩估计动态调整每个参数的学习率。它的优点主要在于经过偏置校正后,每一次迭代学习率都有个确定范围,使得参数比较平稳。其公式如下:

这里写图片描述

其中,前两个公式分别是对梯度的一阶矩估计和二阶矩估计,可以看作是对期望E|gt|,E|gt^2|的估计;
公式3,4是对一阶二阶矩估计的校正,这样可以近似为对期望的无偏估计。可以看出,直接对梯度的矩估计对内存没有额外的要求,而且可以根据梯度进行动态调整。最后一项前面部分是对学习率n形成的一个动态约束,而且有明确的范围

 
 
  • params(iterable):可用于迭代优化的参数或者定义参数组的dicts。
  • lr (float, optional) :学习率(默认: 1e-3),更新梯度的时候使用
  • betas (Tuple[float, float], optional):用于计算梯度的平均和平方的系数(默认: (0.9, 0.999))
  • eps (float, optional):为了提高数值稳定性而添加到分母的一个项(默认: 1e-8)
  • weight_decay (float, optional):权重衰减(如L2惩罚)(默认: 0),针对最后更新参数的时候,给损失函数中的加的一个惩罚参数,更新参数使用

?个人理解:

  • lr:同样也称为学习率或步长因子,它控制了权重的更新比率(如 0.001)。较大的值(如 0.3)在学习率更新前会有更快的初始学习,而较小的值(如 1.0E-5)会令训练收敛到更好的性能。
  • betas = (beta1,beta2)
    • beta1:一阶矩估计的指数衰减率(如 0.9)。
    • beta2:二阶矩估计的指数衰减率(如 0.999)。该超参数在稀疏梯度(如在 NLP 或计算机视觉任务中)中应该设置为接近 1 的数。
  • eps:epsilon:该参数是非常小的数,其为了防止在实现中除以零(如 10E-8)。
 

论文理解

https://arxiv.org/pdf/1412.6980.pdf

?可以看到,beta参数是用来更新m、v这两个动量向量和梯度的,梯度经过动量估计之后代替了SDG中的直接用梯度来更新参数。

α也就是lr学习率,用来更新参数,作为一个步长吧。

weight_decay 是针对最后更新参数的时候,给参数加的一个惩罚参数,

?总结:lr是在更新梯度的时候用到的,weight_decay权重衰减是在损失函数中的模型参数的权重,更新参数时用到的。

?总的loss中加入了一个对权重的限制,防止过大产生过拟合现象,

?在参数更新时反映出来,正则化参数λ决定了你如何权衡原始损失E和较大的权重惩罚。

torch.optim.adam源码理解

 
 

1、结合了Adagrad善于处理稀疏梯度和RMSprop善于处理非平稳目标的优点;
2、对内存需求较小;
3、为不同的参数计算不同的自适应学习率;
4、也适用于大多非凸优化-适用于大数据集和高维空间。

随机内容

平台注册入口