题目
A.220x220x10
B.220x220x5
C.224x224x10
D.224x224x5
第1题
A.220×220×10
B.220×220×5
C.224×224×10
D.224×224×5
第2题
A.217x217x3
B.217x217x8
C.218x218x5
D.220x220x7
第3题
第4题
第5题
A.ReLU非线性激活函数的收敛速度比Sigmoid快一些
B.在限制神经元总数的情况下,增加网络的宽度要比增加网络的深度能带来更强的网络表示能力
C.激活函数为Tanh的深层神经网络可以看成一个复合的非线性多元函数
D.输入一个300*300的彩色图,经过10个5*5的卷积核,隐层的参数量为750(包括偏置)
第6题
A.ReLU非线性激活函数的收敛速度比Sigmoid快一些
B.在限制神经元总数的情况下,增加网络的宽度要比增加网络的深度能带来更强的网络表示能力
C.激活函数为Tanh的深层神经网络可以看成一个复合的非线性多元函数
D.输入一个300*300的彩色图,经过10个5*5的卷积核,隐层的参数量为750(包括偏置)
第8题
A.ReLU非线性激活函数的收敛速度比Sigmoid快一些
B.在限制神经元总数的情况下,增加网络的宽度要比增加网络的深度能带来更强的网络表示能力
C.激活函数为Tanh的深层神经网络可以看成一个复合的非线性多元函数
D.输入一个300*300的彩色图,经过10个5*5的卷积核,隐层的参数量为750(包括偏置)
第9题
A.使用激活函数Relu的收敛速度比Sigmoid要快一些
B.在网络规模相同的情况下,增加网络深度比增加宽度能带来更强的网络特征获取能力
C.输入一个300*300的彩色图,经过10个5*5的卷积核,隐层的参数量是260(含偏置)
D.隐层的神经元输入输出可以看成一个相关权重和偏置的复合非线性多元函数。
为了保护您的账号安全,请在“赏学吧”公众号进行验证,点击“官网服务”-“账号验证”后输入验证码“”完成验证,验证成功后方可继续查看答案!