CN112270352A - 一种基于并行剪枝优化的决策树生成方法及装置 - Google Patents

一种基于并行剪枝优化的决策树生成方法及装置 Download PDF

Info

Publication number
CN112270352A
CN112270352A CN202011156573.5A CN202011156573A CN112270352A CN 112270352 A CN112270352 A CN 112270352A CN 202011156573 A CN202011156573 A CN 202011156573A CN 112270352 A CN112270352 A CN 112270352A
Authority
CN
China
Prior art keywords
decision tree
pruning
node
error
sub
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202011156573.5A
Other languages
English (en)
Inventor
卢宇彤
彭一
陈志广
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sun Yat Sen University
Original Assignee
Sun Yat Sen University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sun Yat Sen University filed Critical Sun Yat Sen University
Priority to CN202011156573.5A priority Critical patent/CN112270352A/zh
Publication of CN112270352A publication Critical patent/CN112270352A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Medical Informatics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明公开了一种基于并行剪枝优化的决策树生成方法及装置,该方法包括:获取训练集并根据训练集和C4.5算法生成决策树,得到待剪枝决策树;基于最小错误剪枝算法对待剪枝决策树进行初步剪枝,得到预处理决策树;根据训练集和并行的k‑折交叉验证方法选择最优置信度;根据最优置信度再评估预处理决策树的结点,并根据评估结果对预处理决策树再剪枝,得到剪枝完成的决策树。该装置包括存储器以及用于执行上述基于并行剪枝优化的决策树生成方法的处理器。通过使用本发明,能够克服当前最小错误剪枝算法剪枝不足的缺点。本发明作为一种基于并行剪枝优化的决策树生成方法及装置,可广泛应用于数据挖掘领域中的决策树算法领域。

Description

一种基于并行剪枝优化的决策树生成方法及装置
技术领域
本发明涉及数据挖掘领域中的决策树算法领域,尤其涉及一种基于并行剪枝优化的决策树生成方法及装置。
背景技术
分类决策树是一种对实例进行分类的树形结构,决策树由结点和有向边组成,是数据挖掘算法分类算法中的一种经典算法。为了避免决策树对数据的过度拟合、简化决策树并提高决策树的泛化能力,剪枝是构建决策树分类器中必不可少的一步,目前的最小错误剪枝方法存在预测精度降低的问题,预估的剪枝后产生的误差不准确。当数据集较大时,使用最小错误剪枝算法剪枝后,输出的决策树仍存在规模较大的问题,即剪枝不足,并且存在过拟合的问题,泛化性能提升不显著。
发明内容
为了解决上述技术问题,本发明的目的是提供一种基于并行剪枝优化的决策树生成方法及装置,克服了数据集较大的情况下,目前的最小错误剪枝算法剪枝不足的缺点。
本发明所采用的第一技术方案是:一种基于并行剪枝优化的决策树生成方法,包括以下步骤:
获取训练集并根据训练集和C4.5算法生成决策树,得到待剪枝决策树;
基于最小错误剪枝算法对待剪枝决策树进行初步剪枝,得到预处理决策树;
根据训练集和并行的k-折交叉验证方法选择最优置信度;
根据最优置信度再评估预处理决策树的结点,并根据评估结果对预处理决策树再剪枝,得到剪枝完成的决策树。
进一步,所述基于最小错误剪枝算法对待剪枝决策树进行初步剪枝,得到预处理决策树这一步骤,其具体包括:
基于最小错误剪枝算法自下而上计算待剪枝决策树中非叶子结点误差和对应结点的分枝误差和;
将非叶子结点误差与对应结点的分枝误差和进行比较,得到结点比较结果;
根据结点比较结果对待剪枝决策树进行剪枝,得到预处理决策树。
进一步,所述根据结点比较结果对待剪枝决策树进行剪枝,得到预处理决策树这一步骤,其具体包括:
判断到非叶子结点误差不大于对应结点的分枝误差和,对该结点进行剪枝;
判断到非叶子结点误差大于对应结点的分枝误差和,不对该结点剪枝并自下而上进行下一个非叶子结点的计算;
完成所有非叶子结点的剪枝,得到预处理决策树。
进一步,所述根据训练集和并行的k-折交叉验证方法选择最优置信度这一步骤,其具体包括:
将训练集划分为多个子集,得到子验证集和子训练集;
根据训练集和处理核生成多棵子决策树,一个处理核负责一棵子决策树的生成;
对多棵子决策树使用最小错误剪枝算法进行剪枝,得到多棵预处理后的子决策树;
遍历预设的置信度集合并选择其中一个置信度作为临时置信度;
根据临时置信度对预处理后的多棵子决策树进行剪枝,得到多棵剪枝后子决策树;
通过子验证集分别计算多棵剪枝后子决策树的正确率,并将正确率的平均值作为性能评价指标;
性能评价指标达到预设值,将其对应的临时置信度确定为最优置信度;
所述处理核和子决策树的数量相等。
进一步,所述根据最优置信度再评估预处理决策树的结点,并根据评估结果对预处理决策树再剪枝,得到剪枝完成的决策树这一步骤,其具体包括这一步骤,其具体包括:
获取最优置信度并自下而上评估预处理决策树中非叶子结点;
获取非叶子结点的孩子结点并判断孩子结点是否为叶子结点,若是则遍历判断下一个孩子结点,若不是,则计算误差增量并将误差增量与最优置信度比较,得到比较结果;
根据比较结果对预处理决策树进行剪枝,得到剪枝完成的决策树。
进一步,误差增量的计算公式如下:
Figure BDA0002742979650000021
上式中,Er(Tt)after表示假定对该结点的非叶子孩子结点剪枝后,该结点的分枝误差,Er(Tt)表示该结点的分枝误差,N表示父结点的训练样本数,ni表示孩子结点中的训练样本数量。Er(ti)是该孩子结点的结点误差,Er(Ti)是该孩子结点的分枝误差。
进一步,所述根据比较结果对预处理决策树进行剪枝,得到剪枝完成的决策树这一步骤,其具体包括:
判断到误差增量不大于最优置信度,对该孩子结点进行剪枝;
判断到误差增量大于最优置信度,不对该孩子结点进行剪枝并进行下一个孩子结点的计算;
完成所有非叶子结点的评估和剪枝,得到剪枝完成的决策树。
本发明所采用的第二技术方案是:一种基于并行剪枝优化的决策树生成装置,包括:
至少一个处理器;
至少一个存储器,用于存储至少一个程序;
当所述至少一个程序被所述至少一个处理器执行,使得所述至少一个处理器实现如上所述一种基于并行剪枝优化的决策树生成方法。
本发明方法及装置的有益效果是:先通过最小错误剪枝算法进行初步剪枝,再选定最优置信度对决策树进行再剪枝,采用并行化的方式可以在节省剪枝时间的同时,克服当前剪枝算法剪枝不足的缺点,提高泛化性能。
附图说明
图1是本发明一种基于并行剪枝优化的决策树生成方法。
具体实施方式
下面结合附图和具体实施例对本发明做进一步的详细说明。对于以下实施例中的步骤编号,其仅为了便于阐述说明而设置,对步骤之间的顺序不做任何限定,实施例中的各步骤的执行顺序均可根据本领域技术人员的理解来进行适应性调整。
如图1所示,本发明提供了一种基于并行剪枝优化的决策树生成方法,该方法包括以下步骤:
S101、获取训练集并根据训练集和C4.5算法生成决策树,得到待剪枝决策树;
具体地,输入训练数据集D,使用C4.5生成算法构建决策树Ti
S102、基于最小错误剪枝算法对待剪枝决策树进行初步剪枝,得到预处理决策树;
具体地,计算Ti树中每个非叶子结点误差Er(t)和分枝的误差和Er(Tt)并进行比较,根据比较结果进行初步剪枝。
S103、根据训练集和并行的k-折交叉验证方法选择最优置信度。
具体地,将训练集划分为多个子集,得到子验证集和子训练集;基于子训练集和C4.5算法生成决策树,得到多棵子决策树;选定置信度为临时最优置信度,使用S104中算法,对多棵子训练决策树进行剪枝,得到剪枝决策树;通过子验证集分别计算剪枝训练决策树的正确率并得到性能评价指标,循环选定置信度对多棵子训练决策树进行剪枝步骤直至性能评价指标达到预设值,确定当前置信度为最优置信度。
S104、根据最优置信度再评估预处理决策树的结点,并根据评估结果对预处理决策树再剪枝,得到剪枝完成的决策树。
具体地,输入最优置信度α,遍历预处理决策树非叶子结点的孩子结点,计算非叶子结点的误差增量β,当β≤α时,对该孩子结点进行剪枝。
进一步作为本方法的优选实施例,所述基于最小错误剪枝算法对待剪枝决策树进行初步剪枝,得到预处理决策树这一步骤,其具体包括:
基于最小错误剪枝算法自下而上计算待剪枝决策树中非叶子结点误差和对应结点的分枝误差和;
将非叶子结点误差与对应结点的分枝误差和进行比较,得到结点比较结果;
根据结点比较结果对待剪枝决策树进行剪枝,得到预处理决策树。
进一步作为本方法的优选实施例,所述根据结点比较结果对待剪枝决策树进行剪枝,得到预处理决策树这一步骤,其具体包括:
判断到非叶子结点误差不大于对应结点的分枝误差和,对该结点进行剪枝;
判断到非叶子结点误差大于对应结点的分枝误差和,不对该结点剪枝并自下而上进行下一个非叶子结点的计算;
完成所有非叶子结点的剪枝,得到预处理决策树。
具体地,若Er(t)≤Er(Tt),则进行裁减,否则,自下而上判定下一个非叶子结点。
进一步作为本方法优选实施例,所述根据训练集和并行的k-折交叉验证方法选择最优置信度这一步骤,其具体包括:
将训练集划分为多个子集,得到子验证集和子训练集;
具体地,将训练集划分为多个子集,每个子集的训练样本数量相等,将每个子集轮流作为子验证集,其余子集作为子训练集,可得到多个子训练集和其对应的子验证集的集合。
根据训练集和处理核生成多棵子决策树,一个处理核负责一棵子决策树的生成;
具体地,根据多个子训练集,使用多个处理核生成多棵子决策树,其中一个处理核使用C4.5决策树生成算法,负责一棵子决策树的生成。
对多棵子决策树使用最小错误剪枝算法进行剪枝,得到多棵预处理后的子决策树;
遍历预设的置信度集合并选择其中一个置信度作为临时置信度;
根据临时置信度对预处理后的多棵子决策树进行剪枝,得到多棵剪枝后子决策树;
通过子验证集分别计算多棵剪枝后子决策树的正确率,并将正确率的平均值作为性能评价指标;
性能评价指标达到预设值,将其对应的临时置信度确定为最优置信度;
所述处理核和子决策树的数量相等。
具体地,所述处理核即处理器,所述非叶子结点为有后续结点的结点;所述孩子结点为度为0的结点,也叫终端结点;所述叶子结点为没有后续结点的结点。
上述在k-折交叉验证求最优置信度α的基础上采用多核并行技术对改进的最小错误剪枝算法进行加速,有助于缩短剪枝时间。
本发明的改进优点在于可变的置信度α,α的选择决定了进一步裁剪的程度,选择合适的α值,就可以得到更小且更准确的树。当α取值很大时,决策树倾向于被裁减为单个叶结点,当α取值过小时,再次评估公式倾向于不进行剪枝,即值保留最小错误剪枝法的特性。
进一步作为本方法优选实施例,所述根据最优置信度再评估预处理决策树的结点,并根据评估结果对预处理决策树再剪枝,得到剪枝完成的决策树这一步骤,其具体包括:
获取最优置信度并自下而上评估预处理决策树中非叶子结点;
获取非叶子结点的孩子结点并判断孩子结点是否为叶子结点,若是则遍历判断下一个孩子结点,若不是,则计算误差增量并将误差增量与最优置信度比较,得到比较结果;
根据比较结果对预处理决策树进行剪枝,得到剪枝完成的决策树。
具体地,判断孩子结点是否均为叶子结点,若是,则评估下一个非叶子结点;否则假定对该非叶子孩子结点剪枝,计算父结点的误差增量β,并与最优置信度α比较,得到比较结果;计算误差增量β,当β≤α时,对该孩子结点进行剪枝,直到不能继续为止,得到剪枝完成的决策树。
对于决策树树中每个非叶子结点,计算该结点的分枝误差Er(Tt):
Figure BDA0002742979650000051
其中,n(t)为结点t的样本总数。假设有K个孩子结点,训练样本落入孩子结点k的数量为nk(t),Er(Ttk)为结点k作为根结点的分枝误差,当结点k为叶子结点时,Er(Ttk)为结点误差。
假定对该结点的非叶子结点的孩子结点i进行剪枝,则预测的分枝误差Er(Tt)after计算公式如下:
Figure BDA0002742979650000052
其中,N为结点的训练样本数,假定有K个孩子结点,训练样本落入孩子结点k的数量为nk(t),Er(Ttk)为结点k作为根结点的分枝误差,ni为孩子结点i的训练样本数量,Er(ti为结点i的结点误差。
进一步作为本方法优选实施例,假定对孩子结点i剪枝后,该结点产生的误差增量的计算公式如下:
Figure BDA0002742979650000061
进一步作为本方法优选实施例,所述根据比较结果对预处理决策树进行剪枝,得到剪枝完成的决策树这一步骤,其具体包括:
判断到误差增量不大于最优置信度,对该孩子结点进行剪枝;
判断到误差增量大于最优置信度,不对该孩子结点进行剪枝并进行下一个孩子结点的计算;
完成所有非叶子结点的评估和剪枝,得到剪枝完成的决策树。
一种基于并行剪枝优化的决策树生成装置:
至少一个处理器;
至少一个存储器,用于存储至少一个程序;
当所述至少一个程序被所述至少一个处理器执行,使得所述至少一个处理器实现如上所述一种基于并行剪枝优化的决策树生成方法。
上述方法实施例中的内容均适用于本装置实施例中,本装置实施例所具体实现的功能与上述方法实施例相同,并且达到的有益效果与上述方法实施例所达到的有益效果也相同。
以上是对本发明的较佳实施进行了具体说明,但本发明创造并不限于所述实施例,熟悉本领域的技术人员在不违背本发明精神的前提下还可做作出种种的等同变形或替换,这些等同的变形或替换均包含在本申请权利要求所限定的范围内。

Claims (8)

1.一种基于并行剪枝优化的决策树生成方法,其特征在于,包括以下步骤:
获取训练集并根据训练集和C4.5算法生成决策树,得到待剪枝决策树;
基于最小错误剪枝算法对待剪枝决策树进行初步剪枝,得到预处理决策树;
根据训练集和并行的k-折交叉验证方法选择最优置信度;
根据最优置信度再评估预处理决策树的结点,并根据评估结果对预处理决策树再剪枝,得到剪枝完成的决策树。
2.根据权利要求1所述一种基于并行剪枝优化的决策树生成方法,其特征在于,所述基于最小错误剪枝算法对待剪枝决策树进行初步剪枝,得到预处理决策树这一步骤,其具体包括:
基于最小错误剪枝算法自下而上计算待剪枝决策树中非叶子结点误差和对应结点的分枝误差和;
将非叶子结点误差与对应结点的分枝误差和进行比较,得到结点比较结果;
根据结点比较结果对待剪枝决策树进行剪枝,得到预处理决策树。
3.根据权利要求2所述一种基于并行剪枝优化的决策树生成方法,其特征在于,所述根据结点比较结果对待剪枝决策树进行剪枝,得到预处理决策树这一步骤,其具体包括:
判断到非叶子结点误差不大于对应结点的分枝误差和,对该结点进行剪枝;
判断到非叶子结点误差大于对应结点的分枝误差和,不对该结点剪枝并自下而上进行下一个非叶子结点的计算;
完成所有非叶子结点的剪枝,得到预处理决策树。
4.根据权利要求3所述一种基于并行剪枝优化的决策树生成方法,其特征在于,所述根据训练集和并行的k-折交叉验证方法选择最优置信度这一步骤,其具体包括:
将训练集划分为多个子集,得到子验证集和子训练集;
根据训练集和处理核生成多棵子决策树,一个处理核负责一棵子决策树的生成;
对多棵子决策树使用最小错误剪枝算法进行剪枝,得到多棵预处理后的子决策树;
遍历预设的置信度集合并选择其中一个置信度作为临时置信度;
根据临时置信度对预处理后的多棵子决策树进行剪枝,得到多棵剪枝后子决策树;
通过子验证集分别计算多棵剪枝后子决策树的正确率,并将正确率的平均值作为性能评价指标;
性能评价指标达到预设值,将其对应的临时置信度确定为最优置信度;
所述处理核和子决策树的数量相等。
5.根据权利要求4所述一种基于并行剪枝优化的决策树生成方法,其特征在于,所述根据最优置信度再评估预处理决策树的结点,并根据评估结果对预处理决策树再剪枝,得到剪枝完成的决策树这一步骤,其具体包括:
获取最优置信度并自下而上评估预处理决策树中非叶子结点;
获取非叶子结点的孩子结点并判断孩子结点是否为叶子结点,若是则遍历判断下一个孩子结点,若不是,则计算误差增量并将误差增量与最优置信度比较,得到比较结果;
根据比较结果对预处理决策树进行剪枝,得到剪枝完成的决策树。
6.根据权利要求5所述一种基于并行剪枝优化的决策树生成方法,其特征在于,误差增量的计算公式如下:
Figure FDA0002742979640000021
上式中,Er(Tt)after表示假定对该结点的非叶子孩子结点剪枝后,该结点的分枝误差,Er(Tt)表示该结点的分枝误差,N表示父结点的训练样本数,ni表示孩子结点中的训练样本数量。Er(ti)是该孩子结点的结点误差,Er(Ti)是该孩子结点的分枝误差。
7.根据权利要求6所述一种基于并行剪枝优化的决策树生成方法,其特征在于,所述根据比较结果对预处理决策树进行剪枝,得到剪枝完成的决策树这一步骤,其具体包括:
判断到误差增量不大于最优置信度,对该孩子结点进行剪枝;
判断到误差增量大于最优置信度,不对该孩子结点进行剪枝并进行下一个孩子结点的计算;
完成所有非叶子结点的评估和剪枝,得到剪枝完成的决策树。
8.一种基于并行剪枝优化的决策树生成装置,其特征在于,包括:
至少一个处理器;
至少一个存储器,用于存储至少一个程序;
当所述至少一个程序被所述至少一个处理器执行,使得所述至少一个处理器实现如权利要求1-7任一项所述一种基于并行剪枝优化的决策树生成方法。
CN202011156573.5A 2020-10-26 2020-10-26 一种基于并行剪枝优化的决策树生成方法及装置 Pending CN112270352A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011156573.5A CN112270352A (zh) 2020-10-26 2020-10-26 一种基于并行剪枝优化的决策树生成方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011156573.5A CN112270352A (zh) 2020-10-26 2020-10-26 一种基于并行剪枝优化的决策树生成方法及装置

Publications (1)

Publication Number Publication Date
CN112270352A true CN112270352A (zh) 2021-01-26

Family

ID=74341656

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011156573.5A Pending CN112270352A (zh) 2020-10-26 2020-10-26 一种基于并行剪枝优化的决策树生成方法及装置

Country Status (1)

Country Link
CN (1) CN112270352A (zh)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100169025A1 (en) * 2008-10-10 2010-07-01 Arthur William T Methods and gene expression signature for wnt/b-catenin signaling pathway
WO2017004448A1 (en) * 2015-07-02 2017-01-05 Indevr, Inc. Methods of processing and classifying microarray data for the detection and characterization of pathogens
CN107368891A (zh) * 2017-05-27 2017-11-21 深圳市深网视界科技有限公司 一种深度学习模型的压缩方法和装置
CN107689224A (zh) * 2016-08-22 2018-02-13 北京深鉴科技有限公司 合理使用掩码的深度神经网络压缩方法
CN108205707A (zh) * 2017-09-27 2018-06-26 深圳市商汤科技有限公司 生成深度神经网络的方法、装置和计算机可读存储介质
CN110070941A (zh) * 2019-03-20 2019-07-30 杭州电子科技大学 一种基于wasp-bas的肾小球滤过率估计方法
CN111310599A (zh) * 2020-01-20 2020-06-19 重庆大学 一种可快速适应各种变化因素的睡眠动作识别系统
CN111553389A (zh) * 2020-04-08 2020-08-18 哈尔滨工程大学 一种用于理解深度学习模型决策机制的决策树生成方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100169025A1 (en) * 2008-10-10 2010-07-01 Arthur William T Methods and gene expression signature for wnt/b-catenin signaling pathway
WO2017004448A1 (en) * 2015-07-02 2017-01-05 Indevr, Inc. Methods of processing and classifying microarray data for the detection and characterization of pathogens
CN107689224A (zh) * 2016-08-22 2018-02-13 北京深鉴科技有限公司 合理使用掩码的深度神经网络压缩方法
CN107368891A (zh) * 2017-05-27 2017-11-21 深圳市深网视界科技有限公司 一种深度学习模型的压缩方法和装置
CN108205707A (zh) * 2017-09-27 2018-06-26 深圳市商汤科技有限公司 生成深度神经网络的方法、装置和计算机可读存储介质
CN110070941A (zh) * 2019-03-20 2019-07-30 杭州电子科技大学 一种基于wasp-bas的肾小球滤过率估计方法
CN111310599A (zh) * 2020-01-20 2020-06-19 重庆大学 一种可快速适应各种变化因素的睡眠动作识别系统
CN111553389A (zh) * 2020-04-08 2020-08-18 哈尔滨工程大学 一种用于理解深度学习模型决策机制的决策树生成方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
SALVATORE RUGGIERI 等: "Subtree Replacement in Decision Tree Simplication", 《PROCEEDINGS OF THE 2012 SIAM INTERNATIONAL CONFERENCE ON DATA MINING》 *
刘传泽 等: "基于剪枝决策树的人造板表面缺陷识别", 《计算机系统应用》 *
焦亚男 等: ""一种改进的MEP 决策树剪枝算法"", 《河北工业大学学报》 *

Similar Documents

Publication Publication Date Title
WO2020143321A1 (zh) 一种基于变分自编码器的训练样本数据扩充方法、存储介质及计算机设备
CN109344921B (zh) 一种基于深度神经网络模型的图像识别方法、装置及设备
CN110826618A (zh) 一种基于随机森林的个人信用风险评估方法
CN111382906B (zh) 一种电力负荷预测方法、系统、设备和计算机可读存储介质
CN109947940B (zh) 文本分类方法、装置、终端及存储介质
JPH07261784A (ja) パターン認識方法、音声認識方法および音声認識装置
CN110033089B (zh) 基于分布式估计算法的手写体数字图像识别深度神经网络参数优化方法及系统
CN108681751B (zh) 确定事件影响因素的方法及终端设备
CN110796485A (zh) 一种提高预测模型的预测精度的方法及装置
CN117725437A (zh) 一种基于机器学习的数据精准匹配分析方法
CN112270352A (zh) 一种基于并行剪枝优化的决策树生成方法及装置
CN116468102A (zh) 刀具图像分类模型剪枝方法、装置、计算机设备
CN110413750A (zh) 根据用户问句召回标准问句的方法和装置
CN115712836A (zh) 一种交互式迭代建模方法
CN115437960A (zh) 回归测试用例排序的方法、装置、设备和存储介质
CN111654853B (zh) 一种基于用户信息的数据分析方法
CN114429172A (zh) 基于变电站用户构成的负荷聚类方法、装置、设备及介质
CN114626485A (zh) 一种基于改进knn算法的数据标签分类方法及装置
CN111026661B (zh) 一种软件易用性全面测试方法及系统
CN111259806B (zh) 一种人脸区域识别方法、装置及存储介质
Kenneweg et al. Improving Line Search Methods for Large Scale Neural Network Training
CN113743593A (zh) 神经网络量化方法、系统、存储介质及终端
CN114626527B (zh) 基于稀疏约束再训练的神经网络剪枝方法及装置
CN110968690A (zh) 词语的聚类划分方法和装置、设备以及存储介质
CN112668702B (zh) 定点化参数优化方法、系统、及终端、存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20210126