题目
A.梯度方向是函数值下降最快方向
B.梯度下降算法是一种使得损失函数最小化的方法
C.梯度下降算法用来优化深度学习模型的参数
D.梯度反方向是函数值下降最快方向
第2题
A.批量梯度下降法(BGD)每一次对模型参数的调整,都朝向代价函数值减小的方向
B.批量梯度下降法(BGD)每一次对模型参数的调整,都朝向代价函数值增加的方向
C.批量梯度下降法(BGD)每一次对模型参数的调整,都朝向代价函数值不变的方向
D.批量梯度下降法(BGD)每一次对模型参数的调整,都朝向代价函数值发生变化的方向
第4题
A.交叉熵也可以作为分类预测问题的损失函数
B.在使用梯度下降时,加上冲量项会减少训练的速度,但可能会增加陷入局部极小值的可能
C.与批量梯度下降法相比,使用小批量梯度下降法可以降低训练速度,但达到全局最优解可能需要更多的迭代次数
D.神经元的激活函数选择不影响神经网络的训练过程和最终性能
第5题
A.A.随机梯度下降法(Stochastic Gradient Descent)
B.B.不知道
C.C.整批梯度下降法(FulIBatch Gradient Descent)
D.D.都不是
第8题
A.如果训练样本量较大,可选用随机梯度下降(SGD),它考虑历史梯度信息,更容易跳出局部极小值点
B.在高度非凸的深度网络优化过程,主要难点是鞍点
C.用无监督数据作分层预训练(Layer-wisePre-train)有助于解决梯度饱和问题
D.Sigmoid交叉熵损失函数适合于多标签学习,每一维彼此独立
第10题
A.结构风险最小化在最小化经验风险与降低模型复杂度之间寻找一种平衡
B.为了更好保证结构风险最小化,可适当减少标注数据
C.结构风险最小化与经验风险最小化的目标是不同的
D.在结构风险最小化中,优化求解目标为使得经验风险与模型复杂度之和最小
为了保护您的账号安全,请在“赏学吧”公众号进行验证,点击“官网服务”-“账号验证”后输入验证码“”完成验证,验证成功后方可继续查看答案!