1. 首页
  2. 人工智能

决策树的结构/优缺点/生成

决策树(DecisionTree)是机器学习中一种常见的算法,它的思想非常朴素,就像我们平时利用选择做决策的过程。决策树是一种基本的分类与回归方法,当被用于分类时叫做分类树,被用于回归时叫做回归树。

决策树(DecisionTree)是机器学习中一种常见的算法,它的思想非常朴素,就像我们平时利用选择做决策的过程。决策树是一种基本的分类与回归方法,当被用于分类时叫做分类树,被用于回归时叫做回归树。

一、决策树结构:

顾名思义,决策树在逻辑上表现为树的形式,包含有节点和向边。

一般情况下,一棵决策树包含一个根节点、若干个内部节点和若干个叶结点。

根节点:包含样本全集,从根节点到每个叶结点的路径对应了一个判定测试序列。

内部节点:表示一个特征和属性。每个内部节点都是一个判断条件,并且包含数据集中,满足从根节点到该节点所有条件的数据的集合。根据内部节点的属性测试结果,内部节点对应的数据的集合别分到两个或多个子节点中。

叶节点:表示一个类,对应于决策结果。叶节点为最终的类别,如果该数据被包含在该叶节点,则属于该类别。

如下图中,其中圆和方框分别表示内部节点和叶结点。

决策树的结构/优缺点/生成

简而言之,决策树是一个利用树的模型进行决策的预测模型,表现出的是对象属性与对象值之间的一种映射关系,简单明了,非常容易理解。

我们决策树学习的目的是为了产生一棵泛化能力强,也就是能够高效、有效处理未见示例的决策树。

二、决策树的优缺点:

1.决策树的最大优点是,对背景知识要求不高,计算复杂度也不是很高,可以自学习。

2.属于有监督学习

3.对中间缺失值不敏感

4.解释性强,甚至超过线性回归

5.相比传统的回归和分类方法,决策树是更接近人的决策模式

6.能够用图形来表示,即使不是专业人士也可以轻松理解

7.可以在不创建哑变量的情况下,直接处理定性的预测变量,

8.决策树的预测准确性相比一般比回归和分类方法比较弱,但能够通过用集成学习方法组合大量决策树,这样可以显著提升树的预测效果

三、决策树的生成

决策树的生成是一个自顶向下的递归过程,其基本思想是以信息熵为度量构造一棵熵值下降最快的树,到叶子结点处的熵值为零。

在决策树算法中有三种情形导致递归返回:

1)当前节点包含的样本属于同一类,不需要划分;

2)当前属性集为空,无法进行划分。这种情况下,需要将当前节点标记成叶节点,并将其类别设定为所含样本最多的类别;利用当前节点的后验分布;(就是:有样本无属性进行划分)

3)当前结点包含的样本集合为空,不能进项划分。此时,要将当前节点标记为叶节点,将其类别设定为其父结点所含样本最多的类别;利用父结点的先验分布(就是:无样本有属性)
责任编辑人:CC

免责声明:本站旨在传递信息,不代表有传资讯的观点和立场。本站遵循行业规范,如转载您的文章未标注版权,请联系我们(QQ:78799268)改正。本站的原创文章,如若转载,请注明出处:http://www.ainoline.cn/rengongzhineng/16914.html

发表评论

邮箱地址不会被公开。 必填项已用*标注

联系我们

在线咨询:点击这里给我发消息

邮件:78799268@qq.com

工作时间:周一至周五,9:30-18:30,节假日休息

QR code