在神经网络的优化算法中,Adam优化算法是结合了哪两种优化技术的优点?
A.动量 (Momentum) 和 Adagrad
B.Nesterov 动量和 RMSprop
C.RMSprop 和 动量 (Momentum)
D.SGD 和 Nesterov 动量
参考答案:A
解析:Adam 算法结合了 Momentum 和 Adagrad 两种优化技术的优点,从而实现了更稳定的梯度下降。
工作时间:9:00-19:00
陈老师微信:aiu_cda1