题目
A.sigmoid函数
B.ReLU函数
C.tanh函数
D.softplus函数
第1题
B.tanh函数
C.ReLU函数
第2题
第3题
第4题
第5题
第6题
A.使用ReLU做为激活函数,可有效地防止梯度爆炸
B..使用Sigmoid做为激活函数,较容易出现梯度消失
C.使用Batch Normalization层,可有效的防止梯度爆炸
D.使用参数weight decay,在一程度上可防止模型过拟合
第7题
第8题
A.S函数
B.分段线性函数
C.符号函数
D.线性函数
第9题
第10题
A.sign函数
B.Sigmoid函数
D.Sin函数
1. 搜题次数扣减规则:
备注:网站、APP、小程序均支持文字搜题、查看答案;语音搜题、单题拍照识别、整页拍照识别仅APP、小程序支持。
2. 使用语音搜索、拍照搜索等AI功能需安装APP(或打开微信小程序)。
3. 搜题卡过期将作废,不支持退款,请在有效期内使用完毕。
为了保护您的账号安全,请在“赏学吧”公众号进行验证,点击“官网服务”-“账号验证”后输入验证码“”完成验证,验证成功后方可继续查看答案!