首页 > 外语类考试> 在职攻硕英语
题目内容 (请给出正确答案)
[单选题]

对于卷积神经网络而言,减少梯度消失不适合采用以下哪些方法()?

A.增大学习率

B.减少网络深度(隐层个数)

C.skipconnection

D.减少通道数

查看答案
答案
收藏
如果结果不匹配,请 联系老师 获取答案
您可能会需要:
您的账号:,可能还需要:
您的账号:
发送账号密码至手机
发送
安装优题宝APP,拍照搜题省时又省心!
更多“对于卷积神经网络而言,减少梯度消失不适合采用以下哪些方法()…”相关的问题
第1题
下列哪一项在神经网络中引入了非线性()

A.随机梯度下降

B.修正线性单元(ReLU)

C.卷积函数

D.以上都不正确

点击查看答案
第2题
神经网络训练时,常会遇到很多问题,对于梯度消失问题,我们可以通过选择使用以下哪种函数减轻该问题?()

A.tanh函数

B.Relu函数

C.Softleen函数

D.Sigmoid函数

点击查看答案
第3题
以下哪一项在神经网络中引入了非线性操作?()

A.随机梯度下降

B.ReLU函数

C.卷积函数

D.损失函数

点击查看答案
第4题
对于图像分类问题,以下哪个神经网络更适合解决这个问题()

A.感知器

B.卷积神经网络

C.循环神经网络

D.全连接神经网络

点击查看答案
第5题
关于循环神经网络以下说法错误的是?()

A.循环神经网络可以根据时间轴展开

B.LSTH也是种循环神经网络

C.LSTM无法解决梯度消失的问题

D.循环神经网络可以简写为RNN

点击查看答案
第6题
如果深度学习神经网络出现了梯度消失或梯度爆炸问题我们常用的解决方法为:()

A.随机欠采样

B.梯度剪切

C.正则化

D.使用Relu激活函数

点击查看答案
第7题
如果深度学习神经网络出现了梯度消失或梯度爆炸问题我们常用的解决方法为()。

A.正则化

B.梯度剪切

C.随机欠采样

D.使用Relu激活函数

点击查看答案
第8题
对于图像识别问题(比如识别照片中的猫),神经网络模型结构更适合解决哪类问题?()

A.多层感知器

B.卷积神经网络

C.循环神经网络

D.感知器

点击查看答案
第9题
深度学习中如果神经网络的层数较多比较容易出现梯度消失问题,严格意义上来讲是在以下哪个环节出现梯度消失问题?()

A.反向传播计算结果

B.反向传播更新参数

C.正向传播更新参数

D.正向传播计算结果

点击查看答案
第10题
在训练神经网络过程中我们目的是让损失函数不断减少,我们常用以下哪种方法最小化损失函数?()

A.梯度下降

B.正则化

C.Dropout

D.交叉验证

点击查看答案
第11题
关于神经网络的相关概念,哪个说法是正确的()?

A.对激活函数的输出结果进行范围限定,有助于梯度平稳下降,而ReLU输出范围无限的函数会导致梯度消失问题

B.ReLU函数中所有负值均被截断为结果0,从而导致特征丢失,可适当调高学习率避免此类情况

C.RMSProp学习率调整策略引入累积梯度的概念,从而解决学习率过早趋向于0而结束训练

D.随机梯度下降(SGD)每次更新只随机取一个样本,按照固定学习率计算梯度,所以速度较快

点击查看答案
退出 登录/注册
发送账号至手机
获取验证码
发送
温馨提示
该问题答案仅针对搜题卡用户开放,请点击购买搜题卡。
马上购买搜题卡
我已购买搜题卡, 登录账号 继续查看答案
重置密码
确认修改