题目
A.(z)
B.(1-z)
C.(1+z)(1-z)
D.(z)(1-f(z))
第2题
A.激活函数需要具有线性可微的特点
B.Sigmoid函数的导数是非零的,很容易计算
C.Sigmoid函数的输出值域是对称的
D.ReLU函数主要缺点是相比于Sigmoid、Tanh函数其计算低效
第3题
A.1-f(x)
B.f(x)[1-f(x)]
C.1/f(x)-1
D.f(x)[1+f(x)]
第4题
A.1-f(x)
B.f(x)[1-f(x)]
C.1/f(x)-1
D.f(x)[1+f(x)]
第5题
A.使用Sigmod函数容易出现梯度消失
B.Sigmod的导数形式较为复杂
C.双曲正切更简单
D.Sigmoid函数实现较为复杂
第6题
A.使用sigmod函数容易出现梯度消失
B.sigmod的导数形式较为复杂
C.双曲正切更简单
D.sigmoid函数实现较为复杂
第7题
A.隐藏层太多时,可能导致靠近输入层的权重的偏导数太小而得不到更新
B.神经元处于Sigmoid等激活函数的饱和区工作
C.隐藏层神经元的个数太多导致
D.隐层的权重取值太小不容易导致梯度消失
第8题
方程式z3-3xyz=1确定变量z为x,y的二元函数,则一阶偏导数z'x=______.
第10题
A.激活函数会影响神经网络的训练过程,因此会影响神经网络模型的质量。
B.当神经元的输入比较大时,Sigmoid函数的偏导数比较小,因此容易产生梯度消失。
C.在修正权重的过程中,靠近多层神经网络输出层的神经元的权重修改一般比较小,容易出现梯度消失。
D.激活函数是神经元的输入和输出映射函数。
为了保护您的账号安全,请在“赏学吧”公众号进行验证,点击“官网服务”-“账号验证”后输入验证码“”完成验证,验证成功后方可继续查看答案!