题目
A.Adam算法常用于批量梯度下降,而不是随机梯度下降(小批量)
B.Adam结合了Rmsprop和动量的优点
C.Adam中的学习率超参数通常需要调整
D.我们通常使用超参数的默认值
第1题
第2题
第3题
A.梯度下降方法迭代时将沿着负梯度方向进行更新
B.梯度的负方向是使得函数值下降最快的方向
C.梯度方向是使得函数值上升降最快的方向
D.梯度下降方法迭代时将沿着梯度方向进行更新
第4题
A.sim
B.train
C.newff
D.newcf
第5题
A.Logistic 回归仅能解决二分类问题
B.Logistic 回归训练问题能采用梯度下降策略求解
C.Logistic 回归是一种有监督学习方法
D.Logistic 回归训练问题是凸优化问题
第6题
A.梯度锐化
B.直方图均衡化
C.傅里叶变换
第7题
第8题
A.随机梯度下降
B.修正线性单元(ReLU)
C.卷积函数
D.以上都不正确
第9题
第10题
1. 搜题次数扣减规则:
备注:网站、APP、小程序均支持文字搜题、查看答案;语音搜题、单题拍照识别、整页拍照识别仅APP、小程序支持。
2. 使用语音搜索、拍照搜索等AI功能需安装APP(或打开微信小程序)。
3. 搜题卡过期将作废,不支持退款,请在有效期内使用完毕。
为了保护您的账号安全,请在“赏学吧”公众号进行验证,点击“官网服务”-“账号验证”后输入验证码“”完成验证,验证成功后方可继续查看答案!