题目
A.批量梯度下降算法中,每次迭代都使用所有样本来计算偏导数
B.随机梯度下降算法计算速度快,可以使模型快速收敛
C.小批量梯度下降算法每次迭代的训练样本数固定不变
D.Adam是小批量梯度下降算法的改进算法
第1题
第2题
第3题
第4题
A.Adam算法常用于批量梯度下降,而不是随机梯度下降(小批量)
B.Adam结合了Rmsprop和动量的优点
C.Adam中的学习率超参数通常需要调整
D.我们通常使用超参数的默认值
为了保护您的账号安全,请在“赏学吧”公众号进行验证,点击“官网服务”-“账号验证”后输入验证码“”完成验证,验证成功后方可继续查看答案!