题目
A.交叉熵也可以作为分类预测问题的损失函数
B.在使用梯度下降时,加上冲量项会减少训练的速度,但可能会增加陷入局部极小值的可能
C.与批量梯度下降法相比,使用小批量梯度下降法可以降低训练速度,但达到全局最优解可能需要更多的迭代次数
D.神经元的激活函数选择不影响神经网络的训练过程和最终性能
第1题
A.如果训练样本量较大,可选用随机梯度下降(SGD),它考虑历史梯度信息,更容易跳出局部极小值点
B.在高度非凸的深度网络优化过程,主要难点是鞍点
C.用无监督数据作分层预训练(Layer-wisePre-train)有助于解决梯度饱和问题
D.Sigmoid交叉熵损失函数适合于多标签学习,每一维彼此独立
第4题
A.梯度方向是函数值下降最快方向
B.梯度下降算法是一种使得损失函数最小化的方法
C.梯度下降算法用来优化深度学习模型的参数
D.梯度反方向是函数值下降最快方向
第5题
A.构造函数的名字必须与类名一致。
B.定义构造函数时,需要使用void关键字。
C.构造函数可有返回值,也可以没有返回值。
D.构造函数内部声明的变量,在外部也可以被使用。
第7题
A.候选框的生成使用区域提名网络(RPN),比选择性搜索方法速度大大提升
B.目标分类与边框精修的输入来自于区域提名网络
C.非极大值抑制(NMS)可以减少候选框的数量,一般放在候选区域分类前完成
D.候选区域的生成与目标分类、边框精修的工作是一个网络完成的
第9题
A.它们常常作为网络的终端设备使用
B.可以作为终端设备也可以作为布线中心设备使用
C.它们不可以作为集线中心设备使用
D.它们常常作为以太网的集线中心设备使用
为了保护您的账号安全,请在“赏学吧”公众号进行验证,点击“官网服务”-“账号验证”后输入验证码“”完成验证,验证成功后方可继续查看答案!