题目内容
(请给出正确答案)
[单选题]
对于卷积神经网络而言,减少梯度消失不适合采用以下哪些方法()?
A.增大学习率
B.减少网络深度(隐层个数)
C.skipconnection
D.减少通道数
查看答案
如果结果不匹配,请 联系老师 获取答案
A.增大学习率
B.减少网络深度(隐层个数)
C.skipconnection
D.减少通道数
A.tanh函数
B.Relu函数
C.Softleen函数
D.Sigmoid函数
A.反向传播计算结果
B.反向传播更新参数
C.正向传播更新参数
D.正向传播计算结果
A.对激活函数的输出结果进行范围限定,有助于梯度平稳下降,而ReLU输出范围无限的函数会导致梯度消失问题
B.ReLU函数中所有负值均被截断为结果0,从而导致特征丢失,可适当调高学习率避免此类情况
C.RMSProp学习率调整策略引入累积梯度的概念,从而解决学习率过早趋向于0而结束训练
D.随机梯度下降(SGD)每次更新只随机取一个样本,按照固定学习率计算梯度,所以速度较快