题目
A.如果训练样本量较大,可选用随机梯度下降(SGD),它考虑历史梯度信息,更容易跳出局部极小值点
B.在高度非凸的深度网络优化过程,主要难点是鞍点
C.用无监督数据作分层预训练(Layer-wisePre-train)有助于解决梯度饱和问题
D.Sigmoid交叉熵损失函数适合于多标签学习,每一维彼此独立
第2题
A.LSTM在一定程度上解决了传统RNN梯度消失或梯度爆炸的问题
B.CNN相比于全连接的优势之一是模型复杂度低,缓解过拟合
C.只要参数设置合理,深度学习的效果至少应优于随机算法
D.随机梯度下降法可以缓解网络训练过程中陷入鞍点的问题
第4题
A.没有任何问题,神经网络模型将正常训练
B.神经网络模型可以训练,但所有的神经元最终将识别同样的事情
C.神经网络模型不会进行训练,因为没有净梯度变化
D.这些均不会发生
第8题
A.预先训练的模型输入模型优化器后会简化
B.把预训练的模型转化为中间文件
C.预训练的模型可以不经过模型优化器直接由推理引擎高效执行
D.模型优化器会修改预训练模型的结构、权重和偏置
第9题
A.梯度方向是函数值下降最快方向
B.梯度下降算法是一种使得损失函数最小化的方法
C.梯度下降算法用来优化深度学习模型的参数
D.梯度反方向是函数值下降最快方向
第10题
A.经验风险指模型关于联合分布期望损失,期望风险指模型关于训练样本集平均损失
B.在有监督学习的训练过程中,经验风险大和期望风险大被称为过学习
C.在有监督学习的训练过程中,经验风险小和期望风险大被称为欠学习
D.期望风险指模型关于联合分布期望损失,经验风险指模型关于训练样本集平均损失
为了保护您的账号安全,请在“赏学吧”公众号进行验证,点击“官网服务”-“账号验证”后输入验证码“”完成验证,验证成功后方可继续查看答案!