指数加权平均;动量梯度下降算法;RMSprop;适应性矩估计算法优化Adam

指数加权平均:

一般形式:

Gradient descent with momentum 动量梯度下降算法

而如果对梯度进行指数加权平均,这样使当前梯度不仅与当前方向有关,还与之前的方向有关,这样处理让梯度前进方向更加平滑,减少振荡,能够更快地到达最小值处。

权重W和常数项b的指数加权平均表达式如下:

 

RMSprop——优化梯度下降速度算法

每次迭代训练过程中,其权重W和常数项b的更新表达式为:

还有一点需要注意的是为了避免RMSprop算法中分母为零,通常可以在分母增加一个极小的常数ε:

适应性矩估计算法优化Adam optimization algorithm

Adam(Adaptive Moment Estimation)算法结合了动量梯度下降算法和RMSprop算法。其算法流程为:

Adam算法包含了几个超参数,分别是:α,β1,β2,ε。其中,β1通常设置为0.9,β2通常设置为0.999,ε通常设置为10?8。一般只需要对β1和β2

进行调试。

实际应用中,Adam算法结合了动量梯度下降和RMSprop各自的优点,使得神经网络训练速度大大提高。