机器学习导论(11)-决策树剪枝处理

6,735次阅读
没有评论

共计 1127 个字符,预计需要花费 3 分钟才能阅读完成。

在上一篇文章讲到了决策树的基本概念和决策树属性划分方法,传送门决策树基本概念

考虑到决策树容易产生过拟合的情况,也就是说当前的决策树有很多的节点,整个决策树很大,此时会把样本中一些并不需要拿来作为

分类的属性学习到,因此学习的决策树模型并不是最优的模型,这就是机器学习中的过拟合现象,与此相关的概念就是欠拟合,欠拟合主要是因为当前的样本不够,导致实际在学习的时候可以用来学习的信息很少,因此也会出现学习不好的现象,好吧,打住开始重点了


决策树剪枝有两种方法:预剪枝和后剪枝

二者的区别在于预剪枝在参与决策树的构造,后剪枝是在构造完决策树之后在自底向上进行剪枝,下面以周志华–机器学习中的西瓜数据来说明预剪枝和后剪枝算法的操作过程,先给出相应的西瓜数据

机器学习导论(11)-决策树剪枝处理

 

预剪枝

基于ID3信息增益方法划分属性的方式构造决策树,首先对上述的数据集使用脐部属性划分,会有三个分支,稍凹、凹陷和平坦,那么现在有一个问题是否需要这样进行划分呢?预剪枝会对当前进行划分前后进行相应的性能评估

机器学习导论(11)-决策树剪枝处理

从上图可以看出对脐部进行划分之后识别的准确为71%,大于不划分的情况41%,因此需要保存相应的分支。

计算的过程如下:

首先未划分之前,使用脐部特征去验证测试样本集,只有4、5、8被正确的分类,分类正确率为3/7=41%

ps:脐部特征不划分就是说不需要考虑测试样本的脐部属性,所有的西瓜都被认定为好瓜,因此只有三个瓜被正确的分类,其余都被错误的分离

划分之后训练样本根据脐部属性分为三个子训练集(1、2、3、14)和(6,7,15,17)和(10,16),分别标记为好瓜、好瓜和坏瓜,此时测试样本集中4、5、8、11、12均被正确的分类,因此计算得到的准确率为5/7=71%

同理后续其他属性是否需要相应的预剪枝则根据当前描述的方法一个一个判定。

预剪枝会避免决策树的过拟合现象,由于避免了不必要的节点展开,一定程度上减少决策树训练的时间和测试的时间,但是也存在欠拟合的风险。

后剪枝

后剪枝是在决策树已经生成之后再去自底向上进行相应的剪枝判定。

在上一幅图中给出了初步训练得到的决策树,现在我们根据当前的决策树进行相应的剪枝处理

首先将节点6的分支全部剪掉,则当前节点包含的样本只有7和15,不考虑纹理此时二者都是好瓜

剪之前测试集中只有4、11、12被准确的识别,相应的准确率为41%

剪枝后测试集中4、9、11、12被准确识别,相应的准确率为57%

从上述结果可以看出此时需要剪枝,节点6剪枝处理,其他节点也是这样

剪枝后决策树如下

机器学习导论(11)-决策树剪枝处理

预剪枝后剪枝对比

对比后剪枝可以发现,后剪枝可以保留了更多的分支,相比于预剪枝欠拟合风险更小,但是后剪枝是根据已经训练好的决策树自底向上逐层扫面判定,因此会导致训练的时间和开销比预剪枝较大。

正文完
请博主喝杯咖啡吧!
post-qrcode
 
admin
版权声明:本站原创文章,由 admin 2016-11-20发表,共计1127字。
转载说明:除特殊说明外本站文章皆由CC-4.0协议发布,转载请注明出处。
评论(没有评论)
验证码