题目
A.学习率控制每次更新参数的幅度,学习率越大模型准确率越高
B.固定学习率比Adam自动调整学习率更快训练完成
C.过高的学习值会使损失值不降反升
D.学习率对模型训练时长有影响,对模型性能没有影响
第1题
A.对激活函数的输出结果进行范围限定,有助于梯度平稳下降,而ReLU输出范围无限的函数会导致梯度消失问题
B.ReLU函数中所有负值均被截断为结果0,从而导致特征丢失,可适当调高学习率避免此类情况
C.RMSProp学习率调整策略引入累积梯度的概念,从而解决学习率过早趋向于0而结束训练
D.随机梯度下降(SGD)每次更新只随机取一个样本,按照固定学习率计算梯度,所以速度较快
第2题
A.如果学习率很小,则优化成本函数将花费大量时间
B.如果学习率非常高,则梯度下降可能永远不会收敛
C.学习率是使用损失函数导数和步长来计算的
D.学习率是梯度下降算法中的超参数
第3题
A.学习率过大更容易导致训练陷入局部极小值
B.学习率可以与其他网络参数一起训练,对降低代价函数是有利的
C.学习率可以随着训练误差动态调整效果更好
D.网络训练时刚开始学习率可以大一些,以便提高学习速度,随后应减少学习率,以免引起学习震荡
第4题
A.随机梯度下降算法
B.Adagrad优化器
C.动量优化器
D.小批量梯度下降算法
为了保护您的账号安全,请在“赏学吧”公众号进行验证,点击“官网服务”-“账号验证”后输入验证码“”完成验证,验证成功后方可继续查看答案!