题目
A.sigmoid函数
B.tanh函数
C.ReLU函数
D.softplus函数
第2题
A.使用ReLU做为激活函数,可有效地防止梯度爆炸
B..使用Sigmoid做为激活函数,较容易出现梯度消失
C.使用Batch Normalization层,可有效的防止梯度爆炸
D.使用参数weight decay,在一程度上可防止模型过拟合
第7题
A.神经元节点先计算激活函数,再计算线性函数(z = Wx + b)
B.神经元节点先计算线性函数(z = Wx + b),再计算激活
C.神经元节点计算函数g,函数g计算(Wx + b)
D.在将输出应用于激活函数之前,神经元节点计算所有特征的平均值
为了保护您的账号安全,请在“赏学吧”公众号进行验证,点击“官网服务”-“账号验证”后输入验证码“”完成验证,验证成功后方可继续查看答案!