题目
A.初始点
B.步长
C.梯度
D.都不是
第1题
A.梯度方向是函数值下降最快方向
B.梯度下降算法是一种使得损失函数最小化的方法
C.梯度下降算法用来优化深度学习模型的参数
D.梯度反方向是函数值下降最快方向
第2题
A.批量梯度下降法(BGD)每一次对模型参数的调整,都朝向代价函数值减小的方向
B.批量梯度下降法(BGD)每一次对模型参数的调整,都朝向代价函数值增加的方向
C.批量梯度下降法(BGD)每一次对模型参数的调整,都朝向代价函数值不变的方向
D.批量梯度下降法(BGD)每一次对模型参数的调整,都朝向代价函数值发生变化的方向
第3题
A.交叉熵也可以作为分类预测问题的损失函数
B.在使用梯度下降时,加上冲量项会减少训练的速度,但可能会增加陷入局部极小值的可能
C.与批量梯度下降法相比,使用小批量梯度下降法可以降低训练速度,但达到全局最优解可能需要更多的迭代次数
D.神经元的激活函数选择不影响神经网络的训练过程和最终性能
第4题
A.A.随机梯度下降法(Stochastic Gradient Descent)
B.B.不知道
C.C.整批梯度下降法(FulIBatch Gradient Descent)
D.D.都不是
为了保护您的账号安全,请在“赏学吧”公众号进行验证,点击“官网服务”-“账号验证”后输入验证码“”完成验证,验证成功后方可继续查看答案!