题目
第5题
A.使用ReLU做为激活函数,可有效地防止梯度爆炸
B..使用Sigmoid做为激活函数,较容易出现梯度消失
C.使用Batch Normalization层,可有效的防止梯度爆炸
D.使用参数weight decay,在一程度上可防止模型过拟合
第8题
A.这不会对训练产生影响。只要随机初始化权重,梯度下降不受权重大小的影响。
B.这会导致tanh的输入也非常大,从而使梯度也变大。因此,你必须将学习率α设置得非常小以防止发散。这会减慢网络参数学习速度。
C.这会导致tanh的输入也非常大,导致神经元被“高度激活”,从而加快了学习速度。
D.这会导致tanh的输入也非常大,从而使梯度接近于零, 优化算法将因此变得缓慢。
第9题
A.生成器的任务重,减少计算量。
B.增加生成样本的多样性。
C.防止判别器在训练过程中发生梯度消失。
D.判别器的任务是分类,而不是生成假样本。
第10题
A.防止判别器在训练过程中发生梯度消失,降低鉴别器的能力
B.生成器的任务重,减少计算量
C.判别器的任务是分类,而不是生成假样本
D.增加生成样本的多样性
为了保护您的账号安全,请在“赏学吧”公众号进行验证,点击“官网服务”-“账号验证”后输入验证码“”完成验证,验证成功后方可继续查看答案!