![](https://static.youtibao.com/asksite/comm/h5/images/m_q_title.png)
下列关于决策树算法的论述错误的是()。
A.条件熵H(Y|X)表示在已知特征X的条件下,类别Y的不确定性的度量
B.决策树基本思想是贪心算法,它以自顶(根节点)向下递推生成的方式构造决策树
C.熵可用于描述信息的不确定性或混乱程度,信息的不确定性越大则熵越大,反之越小
D.ID3算法的属性选择度量就是使用信息增益,选择最小信息增益的属性作为当前节点的测试属性
![](https://static.youtibao.com/asksite/comm/h5/images/solist_ts.png)
A.条件熵H(Y|X)表示在已知特征X的条件下,类别Y的不确定性的度量
B.决策树基本思想是贪心算法,它以自顶(根节点)向下递推生成的方式构造决策树
C.熵可用于描述信息的不确定性或混乱程度,信息的不确定性越大则熵越大,反之越小
D.ID3算法的属性选择度量就是使用信息增益,选择最小信息增益的属性作为当前节点的测试属性
下列关于CaChe中主存块的替换算法论述中,错误的是()。
A.FIFO算法、LRu算法和Random算法实际都应用于CaChe中主存块的替换
B.LRU算法中,每个CaChe行设置一个计数器,选择计数值最高的CaChe行替换
C.FIFO算法和LRU算法都属于堆栈(型)算法
D.Random算法的实现成本低,而且性能接近LRU算法
A.企业对新型产品缺乏足够信息,难以用决策树法进行决策
B.决策树法是对确定性投资项目进行分析的方法
C.决策树法适用于各期现金流量相互独立的投资项目
D.进行决策树分析只需少量信息便可
A.决策树是一种监督式学习
B.监督式学习不需要标签就可以训练
C.监督式学习不可以使用交叉验证进行训练
D.监督式学习是一种基于规则的算法
A.Logistic回归(LogisticRegression,LR)
B.决策树(DecisionTree,DT)
C.朴素贝叶斯(NaiveBayes,NB)
D.支持向量机(SupportVectorMachine,SVM)
A.朴素贝叶斯(NaiveBayes,NB)
B.Logistic回归(LogisticRegression,LR)
C.支持向量机(SupportVectorMachine,SVM)
D.决策树(DecisionTree,DT)
A.样本集中分类的比例越平均,信息熵越小
B.信息熵与信息增益成正比
C.信息增益越大,则特征能够为分类系统带来信息量越大
D.信息熵与信息增益成反比