“学习”的结果

常用优化器(Adam SGD)算法

文章目录概览SGD(Stochasticgradientdescent)MomentumNAG(Nesterovacceleratedgradient)AdaGradRMSProAdadeltaAda...

佚名 2024-05-20 104次浏览

深度学习—优化算法对比

1、优化算法SGD:随机梯度下降SGD+Momentum:基于动量的SGD(在SGD基础上做过优化)SGD+Nesterov+Momentum:基于动量,两步更新的SGD(在SGD+Momentum基...

佚名 2024-04-22 126次浏览



平台注册入口