在神经网络的优化算法中,Adam优化算法是结合了哪两种优化技术的优点?
A.动量 (Momentum) 和 Adagrad
B.Nesterov 动量和 RMSprop
C.RMSprop 和 动量 (Momentum)
D.SGD 和 Nesterov 动量
参考答案:A
解析:Adam 算法结合了 Momentum 和 Adagrad 两种优化技术的优点,从而实现了更稳定的梯度下降。
CDA人工智能社区
工作时间:9:00-19:00
陈老师:13077998983
邮箱: edu_cda_cn@foxmail.com