题目
A.tanh
B.Softmax
C.Sigmoid
D.ReLU
第2题
A.神经网络不同层次的神经元可以使用不同的激活函数。
B.均方差损失函数是神经网络常用的一种代价函数(损失函数)。
C.神经网络神经元的输出都是传给其他神经元,不能再反馈回来。
D.神经网络的训练主要是针对神经元之间的权重和神经元的偏置进行一定的调整,使得代价函数极小化。
第3题
A.神经网络中每一个神经元的输出都是传给其他神经元,不能再反馈回来
B.神经网络的训练,主要是针对神经元之间边的权重和神经元的偏置进行调整,使得代价函数极小化。
C.神经网络不同层次的神经元,可以使用不同的激活函数
D.均方差损失函数是一种常用的代价函数
第8题
A.解决线性问题最有优势;
B.由其激活函数定义网络结构;
C.在外界刺激(训练)无法改变内部参数;
D.中的卷积神经网络在图像任务中可以被视为训练得来的隐空间中稀疏的边缘探测器;
第9题
A.ReLU非线性激活函数的收敛速度比Sigmoid快一些
B.在限制神经元总数的情况下,增加网络的宽度要比增加网络的深度能带来更强的网络表示能力
C.激活函数为Tanh的深层神经网络可以看成一个复合的非线性多元函数
D.输入一个300*300的彩色图,经过10个5*5的卷积核,隐层的参数量为750(包括偏置)
第10题
为了保护您的账号安全,请在“赏学吧”公众号进行验证,点击“官网服务”-“账号验证”后输入验证码“”完成验证,验证成功后方可继续查看答案!