首页 > 外贸类考试> 货运代理
题目内容 (请给出正确答案)
[单选题]

减少神经网络过拟合的说法,以下哪些是错误的()?

A.通过正则化可以减少网络参数的个数,一定程度可能增加过拟合

B.利用L1或L2正则化可以使权重衰减,从而一定程度上减少过拟合

C.在神经网络训练过程中类似dropout减少神经元或相关链接权的数量

D.通过增加数据扰动的数据增强减少了神经网络的过拟合

查看答案
答案
收藏
如果结果不匹配,请 联系老师 获取答案
您可能会需要:
您的账号:,可能还需要:
您的账号:
发送账号密码至手机
发送
安装优题宝APP,拍照搜题省时又省心!
更多“减少神经网络过拟合的说法,以下哪些是错误的()?”相关的问题
第1题
下面有关批归一化BN(batchnormalization)的说法,错误的是哪个()?

A.BN主要解决深度神经网络各层输入的分布一致,增加训练过程的平衡

B.BN可以减少每个隐层神经元梯度的变化幅度

C.BN起到了减少过拟合的作用

D.BN一般位于隐层神经元的激活函数输出之后

点击查看答案
第2题
有关VGG网络的说法,以下哪个说法是错误的()?

A.卷积层与池化层是一一配对的

B.多个3X3小卷积的级联效果与5X5和7X7的大卷积核功能相仿

C.使用了dropout减少过拟合

D.使用不同数量的卷积核拼成模块,同一模块特征图的尺寸不变

点击查看答案
第3题
下面关于过拟合的描述中,错误的说法是哪个()?

A.为了防止过拟合可以使用L1或L2正则化

B.为了防止过拟合可以使用提前终止训练的方法

C.为了防止过拟合可以使用Dropout

D.训练过程中的损失值越小,其在存过拟合的风险越低

点击查看答案
第4题
GBDT算法相比于随机森林算法,以下哪种表述是错误的()

A.GBDT算法比随机森林容易过拟合

B.随机森林是并行计算的,而GBDT不能

C.GBDT算法比随机森林容易欠拟合

D.GBDT与随机森林都是建立在CART树的基础之上的

点击查看答案
第5题
过拟合问题是模型在训练集表现较好,但在测试集表现较差,为了避免过拟合问题,我们可以采取以下哪些方法?()

A.数据集合扩充

B.L1和L3正则化

C.提前停止训练

D.使用Dropout方法

点击查看答案
第6题
关于模型参数(权重值)的描述,正确的说法是哪些()?

A.每一次Epoch都会对之前的参数进行调整,迭代次数越多,损失函数一般越小

B.训练好的神经网络模型存储于一定结构的神经元之间的权重和神经元的偏置中

C.在训练神经网络过程中,参数不断调整,其调整的依据是基于损失函数不断减少

D.模型参数量越多越好,但没有固定的对应规则

点击查看答案
第7题
关于循环神经网络以下说法错误的是?()

A.循环神经网络可以根据时间轴展开

B.LSTH也是种循环神经网络

C.LSTM无法解决梯度消失的问题

D.循环神经网络可以简写为RNN

点击查看答案
第8题
以下关于神经网络的说法错误的是?()

A.单层感知器的局限在于不能解决异或问题

B.前馈神经网络可用有向无环图表示

C.随着神经网络隐藏层数的增加,模型的分类能力逐步减弱

D.前馈神经网络同一层的神经元之间不存在联系

点击查看答案
第9题
特征选择的必要性体现在?()

A.减少训练的时间

B.提升模型泛化能力,避免过拟合

C.简化模型,使之容易被解释

D.避免维度爆炸问题

点击查看答案
第10题
有关神经网络训练时使用的学习率参数说法错误的是()?

A.学习率过大更容易导致训练陷入局部极小值

B.学习率可以与其他网络参数一起训练,对降低代价函数是有利的

C.学习率可以随着训练误差动态调整效果更好

D.网络训练时刚开始学习率可以大一些,以便提高学习速度,随后应减少学习率,以免引起学习震荡

点击查看答案
第11题
以下有关OpenVINO的说法,正确的是哪些()?

A.它主要应用于计算机视觉,实现深度神经网络模型优化和推理计算加速

B.拥有预置的计算机视觉功能库和预优化的内核

C.支持来自流行的框架Caffe、TensorFlow和MXNet的模型

D.只能在Linux平台运行的机器视觉软件工具包

点击查看答案
退出 登录/注册
发送账号至手机
密码将被重置
获取验证码
发送
温馨提示
该问题答案仅针对搜题卡用户开放,请点击购买搜题卡。
马上购买搜题卡
我已购买搜题卡, 登录账号 继续查看答案
重置密码
确认修改