题目
A.Adam中的学习率超参数α通常需要调整
B.Adam优化算法常用于批量梯度下降法中,而不是用于随机(小批量)梯度下降法
C.我们经常使用超参数的默认值β1=0.9,β=0.999,∈10-8
D.Adam结合了Rmsprop和动量的优点
第1题
第2题
第3题
A.Adam算法常用于批量梯度下降,而不是随机梯度下降(小批量)
B.Adam结合了Rmsprop和动量的优点
C.Adam中的学习率超参数通常需要调整
D.我们通常使用超参数的默认值
第4题
A.Adam算法常用于批量梯度下降,而不是随机梯度下降(小批量)
B.Adam结合了Rmsprop和动量的优点
C.Adam中的学习率超参数通常需要调整
D.我们通常使用超参数的默认值
第5题
A.γ和β的值确定了给定的批量归一化层的输出变量的均值和方差
B.最佳值是γ=√δ2+∈,β=μ
C.γ和β是算法的超参数,我们通过随机采样进行调整
D.它们的值可以通过Adam、AdaGrad或RMSprop优化算法来学习
第6题
A.批量梯度下降算法中,每次迭代都使用所有样本来计算偏导数
B.随机梯度下降算法计算速度快,可以使模型快速收敛
C.小批量梯度下降算法每次迭代的训练样本数固定不变
D.Adam是小批量梯度下降算法的改进算法
第7题
A.Adam算法的学习率需要调整
B.Adam算法综合了RMSProp和Momentum的优点
C.Adam算法应该用于Batch Gradient Descent,不能用于mini-batch Gradient Descent
D.Adam算法的计算量比RMSProp和Momentum大
第9题
A.A.过度的控制既浪费时间又浪费金钱。
B.B.过时的信息是不恰当的。
C.C.控制应该针对所有领域的工作情况。
D.D.控制应该尽量简单。
为了保护您的账号安全,请在“赏学吧”公众号进行验证,点击“官网服务”-“账号验证”后输入验证码“”完成验证,验证成功后方可继续查看答案!