CN107516104A - 一种基于二分法的优化cart决策树生成方法及其装置 - Google Patents

一种基于二分法的优化cart决策树生成方法及其装置 Download PDF

Info

Publication number
CN107516104A
CN107516104A CN201710560646.9A CN201710560646A CN107516104A CN 107516104 A CN107516104 A CN 107516104A CN 201710560646 A CN201710560646 A CN 201710560646A CN 107516104 A CN107516104 A CN 107516104A
Authority
CN
China
Prior art keywords
mrow
data
decision tree
splitting
dichotomy
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201710560646.9A
Other languages
English (en)
Inventor
邓华夏
刁逸帆
张进
马孟超
钟翔
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hefei University of Technology
Original Assignee
Hefei University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hefei University of Technology filed Critical Hefei University of Technology
Priority to CN201710560646.9A priority Critical patent/CN107516104A/zh
Publication of CN107516104A publication Critical patent/CN107516104A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/24323Tree-organised classifiers

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明提供一种基于二分法的优化CART决策树生成方法,包括:预处理步骤;属性分裂步骤:对所述数据集中某一属性的数据进行分裂,分裂的属性选择度量为使用二分法优化的基尼指数;将满足条件的数据分裂给左子树,否则分裂给右子树;决策树建树步骤:重复所述属性分裂步骤,直到最终分裂数据点的基尼指数小于预设的基尼指数阈值,停止分裂,形成决策树;以及剪枝步骤。本发明具有以下有益效果:既能处理标称数据又能处理连续数据;使用二元分支,充分运用全部数据,尽可能发现全部的数据;能处理空缺值和孤立点;能降低计算量,加快分类速度进而提高分类效率。

Description

一种基于二分法的优化CART决策树生成方法及其装置
技术领域
本发明属于故障诊断和数据挖掘技术领域,具体涉及基于二分法的优化CART决策树生成方法及其装置。
背景技术
随着工业设备自动化水平的不断提高,设备故障诊断技术在各个工业领域都受到了普遍重视。目前,以转子为核心工作部件的回转设备(如压缩机,透平机等)的故障诊断技术已基本成熟,而对于一些复杂设备(如发动机,复式压缩机等)的故障诊断技术仍然是一个难题。由于传统的故障诊断方法的复杂性,自上世纪90年代数据挖掘这一概念提出之后,就开始被广泛应用在故障诊断技术中。分类就是一种典型的用来进行数据挖掘的方法。
CART(Classification And Regression Tree)算法,即分类回归树算法,是数据挖掘十大经典算法之一,由Leo Breiman,Jerome Friedman,Richard Olshen和CharlesStone于1984年提出,被称为数据挖掘领域内里程碑式的算法。
CART决策树是一种有效的非参数分类和回归方法,通过构建树、修剪树、评估树来构建一个二叉树当终节点是连续变量时,该树为回归树;当终节点是分类变量时,该树为分类树。通常决策树实现有三种,ID3算法、C4.5算法和CART算法。三者的主要区别在于属性选择度量的不同,ID3算法使用信息增益只能处理标称型数据集,C4.5在ID3的基础上采用了信息增益率进行分类,能够处理连续型数据,但在构造树的过程中,需要对数据集进行多次的顺序扫描和排序,因而导致算法的低效。CART算法则使用基尼指数作为属性选择度量,同样也能处理连续数据,同时既能处理分类问题,又能处理回归问题,也提高了分类的效率。树剪枝使用统计度量,减去最不可靠的分支,这将导致较快的分类,提高树独立于训练数据正确分类的能力。目前,CART算法的应用最为广泛,在常用的随机森林集成算法中使用的也是CART算法。
CART算法使用基尼指数作为属性选择度量,之所以选择基尼指数,是因为较于熵而言其计算速度更快一些。在对连续属性进行分类时,CART算法计算所有两个相邻数据点的中点处的基尼指数,比较这些基尼指数,取基尼指数最小的点作为分裂点。也就是说,假设数据集中有n个点,一个分裂过程需要计算(n-1)次基尼指数,当数据集比较大,即当n比较大时,该过程需要相当长的时间,分类速度非常缓慢。因此,需要一种能够优化CART算法并有效提高其分类效率的方法。
发明内容
为了提高CART决策树算法的分类速度,使其在应用于故障诊断时能有效提高诊断效率,本发明采用二分法,只需要计算(log2n+1)个基尼指数,大大减少了计算时间,且当n越大时效果越明显,能有效的提高分类效率。
本发明是通过以下技术方案实现的:
一种基于二分法的优化CART决策树生成方法,包括如下步骤:
预处理步骤:对数据进行预处理,输入二维数据集;
属性分裂步骤:对所述数据集中某一属性的数据进行分裂,分裂的属性选择度量为使用二分法优化的基尼指数;将满足条件的数据分裂给左子树,否则分裂给右子树;
决策树建树步骤:重复所述属性分裂步骤,直到最终分裂数据点的基尼指数小于预设的基尼指数阈值,停止分裂,形成决策树;
剪枝步骤:以极小化整体损失函数采用递归的方法进行剪枝,生成最终的决策树。
一种基于二分法的优化CART决策树生成装置,包括:
预处理单元:用于对数据进行预处理,输入二维数据集;
属性分裂单元:用于对所述数据集中某一属性的数据进行分裂,分裂的属性选择度量为使用二分法优化的基尼指数;将满足条件的数据分裂给左子树,否则分裂给右子树;
决策树建树单元:用于控制所述属性分裂单元重复进行分裂,直到最终分裂数据点的基尼指数小于预设的基尼指数阈值,停止分裂,形成决策树;
剪枝单元:用于以极小化整体损失函数采用递归的方法进行剪枝,生成最终的决策树。本发明具有以下有益效果:
1.本发明采用基尼指数,在作为分类树时可将连续数据离散化,既能处理标称数据又能处理连续数据。
2.使用二元分支,充分运用全部数据,尽可能发现全部的数据;
3.利用基尼指数选择分支特征,能处理空缺值和孤立点;
4.本发明使用二分法,只需计算([log2n]+1)次基尼指数,与计算(n-1)次相比能降低计算量,加快分类速度进而提高分类效率。
附图说明
图1为本发明基于二分法的优化CART决策树生成方法的总流程图。
图2为传统CART算法分裂示意图。
图3为本发明采用的二分法优化CART算法的分裂示意图。
图4为转子台故障模拟实验数据图。
图5为使用本发明基于二分法的优化CART决策树生成方法对转子台故障数据进行处理形成的决策树示意图。
图6为本发明基于二分法的优化CART决策树生成装置的结构框图。
在所有附图中,相同的附图标记用来表示相同的元件或结构,包括:
预处理单元1,属性分裂单元2,决策树建树单元3,剪枝单元4。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施方式仅仅用以解释本发明,并不用于限定本发明。
实施例1:
如图1所示,本实施例提供一种基于二分法的优化CART决策树生成方法,包括如下步骤:
步骤S1,预处理步骤:对数据进行预处理,先进行数据清理(填写缺失值,光滑噪声数据,识别或删除离群点),再将数据简化集成在一个数据集里,避免出现冗余数据。最后输入二维数据集。
步骤S2,属性分裂步骤:对数据集中某一属性的数据进行分裂,分裂的属性选择度量为使用二分法优化的基尼指数;将满足条件的数据分裂给左子树,否则分裂给右子树。
在本实施例中,属性分裂步骤具体是将某一属性的数据按照升序或降序排列,对排列后的数据进行二分,并计算二分后的数据点的基尼指数;将小于等于二分点的数据分裂给左子树,大于二分点的数据分裂给右子树。
传统的CART算法在处理连续数据时,计算每相邻两个数据的平均值处的基尼指数,假设数据集中有n个数据,即要计算(n-1)次基尼指数,如图2所示,当n比较大时,算法的计算效率势必很低。在本实施例中,作为最佳的技术方案,采用二分法来减少计算量,计算n个数据的中点作为第一次二分,之后重复二分的步骤进行迭代,迭代次数为([log2n]+1)。图3是采用的二分法优化CART算法的分裂示意图,将图3和图2对比可知,对数据集中的10个数据,传统的CART算法需计算9个基尼指数,而本实施例只需计算4次,效率上有很大提升。在准确度上,如图3所示,第一次二分点在值为92处,第二次二分在值为120处第三次二分在值为100处,第四次二分在值为97处,与传统CART算法的基尼指数值最小点为同意点,在本实施例中有相同的精度。
基尼指数的计算公式如公式(1)所示:
其中,Pi是数据集中属于第i个类的概率,对m个类计算和;
假设分裂前数据集为D,分裂后的左右两个子树对应集合DL和DR,分裂后的基尼指数定义如公式(2)所示:
其中,|*|表示数据的数量。
步骤S3,决策树建树步骤:重复属性分裂步骤,直到最终分裂数据点的基尼指数小于预设的基尼指数阈值,停止分裂,形成决策树。
基尼指数度量数据分区或训练元组集的不纯度基尼指数越大,样本集合的不确定性程度越高,因此,在本实施例中,决策树建树步骤中,选择基尼指数小的数据继续进行二分,重复属性分裂步骤若干次,直到最终分裂数据点的基尼指数小于预设的基尼指数阈值。重复属性分裂步骤的次数可以根据初始数据集中的数据量进行确定,具体可以根据根据公式(3)确定:
K=[log2n]+1 (3)
其中,K表示重复属性分裂步骤的次数,[]表示对log2n取整,n是初始数据集的数量。
步骤S4,剪枝步骤:以极小化整体损失函数采用递归的方法进行剪枝,生成最终的决策树。
在本实施例总,剪枝步骤具体为:输入决策树T0,自上而下计算其内部结点t剪枝后整体损失函数减少程度g(t)并选择最小值作为调节参数α1,剪枝得决策树T1,即为区间[α12]对应的最优子树;重复上述步骤,递归得到最优子树序列,交叉验证选取最优子树;其中:
定义以t为单节点的损失函数,如公式(4)所示:
Lα(t)=C(t)+α (4)
以t为根节点的子树Tt的损失函数,如公式(5)所示:
Lα(Tt)=C(Tt)+α|Tt| (5)
其中,C(t)表示决策树的训练误差,α为调节参数,|Tt|为模型的复杂度;
令(4)式与(5)式相等,即得到调节参数α的计算公式:
由此,定义对节点t的剪枝后整体损失函数减少程度为:
在本实施例中,基于二分法的优化CART决策树生成方法,还包括:
步骤S5,输出步骤:利用weka平台中自带的决策树可视化输出功能将剪枝后的决策树输出。用转子台模拟故障实验采集并预处理后的数据如图4所示,使用本实施例的优化方法进行分类之后输出的决策树如图5所示。
实施例2:
如图6所示,本实施例提供一种基于二分法的优化CART决策树生成装置,包括:
预处理单元1:用于对数据进行预处理,输入二维数据集;
属性分裂单元2:用于对数据集中某一属性的数据进行分裂,分裂的属性选择度量为使用二分法优化的基尼指数;将满足条件的数据分裂给左子树,否则分裂给右子树;
决策树建树单元3:用于控制属性分裂单元重复进行分裂,直到最终分裂数据点的基尼指数小于预设的基尼指数阈值,停止分裂,形成决策树;
剪枝单元4:用于以极小化整体损失函数采用递归的方法进行剪枝,生成最终的决策树。在本实施例中,属性分裂单元2具体用于将某一属性的数据按照升序或降序排列,对排列后的数据进行二分,并计算二分后的数据点的基尼指数;将小于等于二分点的数据分裂给左子树,大于二分点的数据分裂给右子树。
决策树建树单元3具体用于选择基尼指数小的数据继续进行二分,控制属性分裂单元2重复进行分裂若干次,直到最终分裂数据点的基尼指数小于预设的基尼指数阈值。
本实施例是与实施例1提供的基于二分法的优化CART决策树生成方法相对应的装置,其工作原理及有益效果与实施例1基本相同,在此不再赘述。
本领域的技术人员容易理解,以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。

Claims (10)

1.一种基于二分法的优化CART决策树生成方法,其特征在于,包括如下步骤:
预处理步骤:对数据进行预处理,输入二维数据集;
属性分裂步骤:对所述数据集中某一属性的数据进行分裂,分裂的属性选择度量为使用二分法优化的基尼指数;将满足条件的数据分裂给左子树,否则分裂给右子树;
决策树建树步骤:重复所述属性分裂步骤,直到最终分裂数据点的基尼指数小于预设的基尼指数阈值,停止分裂,形成决策树;
剪枝步骤:以极小化整体损失函数采用递归的方法进行剪枝,生成最终的决策树。
2.根据权利要求1所述的基于二分法的优化CART决策树生成方法,其特征在于:
在所述属性分裂步骤中,将某一属性的数据按照升序或降序排列,对所述排列后的数据进行二分,并计算所述二分后的数据点的基尼指数;将小于等于二分点的数据分裂给左子树,大于二分点的数据分裂给右子树。
3.根据权利要求1或2所述的基于二分法的优化CART决策树生成方法,其特征在于:在所述决策树建树步骤中,选择基尼指数小的数据继续进行二分,重复所述属性分裂步骤若干次,直到最终分裂数据点的基尼指数小于预设的基尼指数阈值。
4.根据权利要求1或2所述的基于二分法的优化CART决策树生成方法,其特征在于:所述基尼指数的计算公式如公式(1)所示:
<mrow> <mi>G</mi> <mi>i</mi> <mi>n</mi> <mi>i</mi> <mo>=</mo> <mn>1</mn> <mo>-</mo> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>m</mi> </munderover> <msubsup> <mi>P</mi> <mi>i</mi> <mn>2</mn> </msubsup> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>1</mn> <mo>)</mo> </mrow> </mrow>
其中,Pi是数据集中属于第i个类的概率,对m个类计算和;
假设分裂前数据集为D,分裂后的左右两个子树对应集合DL和DR,分裂后的基尼指数定义如公式(2)所示:
<mrow> <mi>G</mi> <mo>=</mo> <mfrac> <mrow> <mo>|</mo> <msub> <mi>D</mi> <mi>L</mi> </msub> <mo>|</mo> </mrow> <mrow> <mo>|</mo> <mi>D</mi> <mo>|</mo> </mrow> </mfrac> <mi>G</mi> <mi>i</mi> <mi>n</mi> <mi>i</mi> <mrow> <mo>(</mo> <msub> <mi>D</mi> <mi>L</mi> </msub> <mo>)</mo> </mrow> <mo>+</mo> <mfrac> <mrow> <mo>|</mo> <msub> <mi>D</mi> <mi>R</mi> </msub> <mo>|</mo> </mrow> <mrow> <mo>|</mo> <mi>D</mi> <mo>|</mo> </mrow> </mfrac> <mi>G</mi> <mi>i</mi> <mi>n</mi> <mi>i</mi> <mrow> <mo>(</mo> <msub> <mi>D</mi> <mi>R</mi> </msub> <mo>)</mo> </mrow> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>2</mn> <mo>)</mo> </mrow> </mrow>
其中,|*|表示数据的数量。
5.根据权利要求3所述的基于二分法的优化CART决策树生成方法,其特征在于:
重复所述属性分裂步骤的次数根据公式(3)确定:
K=[log2n]+1 (3)
其中,K表示重复所述属性分裂步骤的次数,[]表示对log2 n取整,n是初始数据集的数量。
6.根据权利要求1或2所述的基于二分法的优化CART决策树生成方法,其特征在于:在所述剪枝步骤中:输入决策树T0,自上而下计算其内部结点t剪枝后整体损失函数减少程度g(t)并选择最小值作为调节参数α1,剪枝得决策树T1,即为区间[α12]对应的最优子树;重复上述步骤,递归得到最优子树序列,交叉验证选取最优子树;其中:定义以t为单节点的损失函数,如公式(4)所示:
Lα(t)=C(t)+α (4)
以t为根节点的子树Tt的损失函数,如公式(5)所示:
Lα(Tt)=C(Tt)+α|Tt| (5)
其中,C(t)表示决策树的训练误差,α为调节参数,|Tt|为模型的复杂度;
令所述(4)式与(5)式相等,即得到调节参数α的计算公式:
<mrow> <mi>&amp;alpha;</mi> <mo>=</mo> <mfrac> <mrow> <mi>C</mi> <mrow> <mo>(</mo> <mi>t</mi> <mo>)</mo> </mrow> <mo>-</mo> <mi>C</mi> <mrow> <mo>(</mo> <msub> <mi>T</mi> <mi>t</mi> </msub> <mo>)</mo> </mrow> </mrow> <mrow> <mo>|</mo> <msub> <mi>T</mi> <mi>t</mi> </msub> <mo>|</mo> <mo>-</mo> <mn>1</mn> </mrow> </mfrac> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>6</mn> <mo>)</mo> </mrow> </mrow>
由此,定义对节点t的剪枝后整体损失函数减少程度为:
<mrow> <mi>g</mi> <mrow> <mo>(</mo> <mi>t</mi> <mo>)</mo> </mrow> <mo>=</mo> <mfrac> <mrow> <mi>C</mi> <mrow> <mo>(</mo> <mi>t</mi> <mo>)</mo> </mrow> <mo>-</mo> <mi>C</mi> <mrow> <mo>(</mo> <msub> <mi>T</mi> <mi>t</mi> </msub> <mo>)</mo> </mrow> </mrow> <mrow> <mo>|</mo> <msub> <mi>T</mi> <mi>t</mi> </msub> <mo>|</mo> <mo>-</mo> <mn>1</mn> </mrow> </mfrac> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>7</mn> <mo>)</mo> </mrow> <mo>.</mo> </mrow>
7.根据权利要求1或2所述的基于二分法的优化CART决策树生成方法,其特征在于:还包括输出步骤:利用weka平台中自带的决策树可视化输出功能将剪枝后的决策树输出。
8.一种基于二分法的优化CART决策树生成装置,其特征在于,包括:
预处理单元:用于对数据进行预处理,输入二维数据集;
属性分裂单元:用于对所述数据集中某一属性的数据进行分裂,分裂的属性选择度量为使用二分法优化的基尼指数;将满足条件的数据分裂给左子树,否则分裂给右子树;
决策树建树单元:用于控制所述属性分裂单元重复进行分裂,直到最终分裂数据点的基尼指数小于预设的基尼指数阈值,停止分裂,形成决策树;
剪枝单元:用于以极小化整体损失函数采用递归的方法进行剪枝,生成最终的决策树。
9.根据权利要求8所述的基于二分法的优化CART决策树生成装置,其特征在于:
所述属性分裂单元具体用于将某一属性的数据按照升序或降序排列,对所述排列后的数据进行二分,并计算所述二分后的数据点的基尼指数;将小于等于二分点的数据分裂给左子树,大于二分点的数据分裂给右子树。
10.根据权利要求8或9所述的基于二分法的优化CART决策树生成装置,其特征在于:所述决策树建树单元具体用于选择基尼指数小的数据继续进行二分,控制所述属性分裂单元重复进行分裂若干次,直到最终分裂数据点的基尼指数小于预设的基尼指数阈值。
CN201710560646.9A 2017-07-11 2017-07-11 一种基于二分法的优化cart决策树生成方法及其装置 Pending CN107516104A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710560646.9A CN107516104A (zh) 2017-07-11 2017-07-11 一种基于二分法的优化cart决策树生成方法及其装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710560646.9A CN107516104A (zh) 2017-07-11 2017-07-11 一种基于二分法的优化cart决策树生成方法及其装置

Publications (1)

Publication Number Publication Date
CN107516104A true CN107516104A (zh) 2017-12-26

Family

ID=60722487

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710560646.9A Pending CN107516104A (zh) 2017-07-11 2017-07-11 一种基于二分法的优化cart决策树生成方法及其装置

Country Status (1)

Country Link
CN (1) CN107516104A (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109587000A (zh) * 2018-11-14 2019-04-05 上海交通大学 基于群智网络测量数据的高延迟异常检测方法及系统
CN110516750A (zh) * 2019-08-30 2019-11-29 东北大学 一种基于cart决策树的钢板板形质量异常检测方法
CN110837525A (zh) * 2019-11-08 2020-02-25 京东数字城市(成都)科技有限公司 数据处理方法及其装置、电子设备以及计算机可读介质
CN112487033A (zh) * 2020-11-30 2021-03-12 国网山东省电力公司电力科学研究院 一种面向数据流及构建网络拓扑的业务可视化方法及系统
CN112487582A (zh) * 2020-12-10 2021-03-12 西南石油大学 一种基于cart算法的油气钻井机械钻速预测与优化方法
CN113256409A (zh) * 2021-07-12 2021-08-13 广州思迈特软件有限公司 基于机器学习的银行零售客户流失预测方法
CN113468821A (zh) * 2021-07-22 2021-10-01 郑州大学 一种基于决策回归算法的坡面产流产沙阈值确定方法

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109587000A (zh) * 2018-11-14 2019-04-05 上海交通大学 基于群智网络测量数据的高延迟异常检测方法及系统
CN109587000B (zh) * 2018-11-14 2020-09-15 上海交通大学 基于群智网络测量数据的高延迟异常检测方法及系统
CN110516750A (zh) * 2019-08-30 2019-11-29 东北大学 一种基于cart决策树的钢板板形质量异常检测方法
CN110516750B (zh) * 2019-08-30 2022-11-15 东北大学 一种基于cart决策树的钢板板形质量异常检测方法
CN110837525A (zh) * 2019-11-08 2020-02-25 京东数字城市(成都)科技有限公司 数据处理方法及其装置、电子设备以及计算机可读介质
CN112487033A (zh) * 2020-11-30 2021-03-12 国网山东省电力公司电力科学研究院 一种面向数据流及构建网络拓扑的业务可视化方法及系统
CN112487582A (zh) * 2020-12-10 2021-03-12 西南石油大学 一种基于cart算法的油气钻井机械钻速预测与优化方法
CN113256409A (zh) * 2021-07-12 2021-08-13 广州思迈特软件有限公司 基于机器学习的银行零售客户流失预测方法
CN113468821A (zh) * 2021-07-22 2021-10-01 郑州大学 一种基于决策回归算法的坡面产流产沙阈值确定方法
CN113468821B (zh) * 2021-07-22 2024-03-19 郑州大学 一种基于决策回归算法的坡面产流产沙阈值确定方法

Similar Documents

Publication Publication Date Title
CN107516104A (zh) 一种基于二分法的优化cart决策树生成方法及其装置
CN111722046B (zh) 一种基于深度森林模型的变压器故障诊断方法
CN106897821B (zh) 一种暂态评估特征选择方法及装置
Mohamed et al. A comparative study of reduced error pruning method in decision tree algorithms
CN106067066A (zh) 基于遗传算法优化装袋算法的电力变压器故障诊断方法
CN109214527A (zh) 一种变压器故障早期诊断预警方法和系统
CN102750286B (zh) 一种处理缺失数据的新型决策树分类器方法
CN106991212A (zh) 一种基于ga_pso优化grnn网络算法的叶根强度安全特性预测方法
CN112181706A (zh) 一种基于对数区间隔离的电力调度数据异常检测方法
CN106951927A (zh) 基于材力形心法选取中心点的K‑means聚类优化方法和装置
CN105024645A (zh) 一种基于矩阵进化的光伏阵列故障定位方法
CN117473424A (zh) 基于随机森林的变压器故障诊断方法、系统、设备及介质
CN106919504B (zh) 一种基于ga算法的测试数据进化生成方法
CN110489852A (zh) 提高风电系统数据质量的方法及装置
CN103149840A (zh) 一种基于动态规划的语义服务组合方法
CN111126560A (zh) 一种基于云遗传算法优化bp神经网络的方法
CN108537581B (zh) 基于gmdh选择性组合的能源消费量时间序列预测方法及装置
CN116662412B (zh) 一种电网配用电大数据的数据挖掘方法
CN103198359A (zh) 基于nsga-ⅱ优化改进的模糊回归模型构造方法
CN106292289B (zh) 流程工业控制回路对象的混合精英随机搜索优化方法
CN112085335A (zh) 一种用于配电网故障预测的改进随机森林算法
CN103020864A (zh) 玉米良种选育方法
CN107273970B (zh) 支持在线学习的卷积神经网络的可重构平台及其构建方法
CN112396113B (zh) 一种电力系统运行方式数据特征两阶段选择方法
CN114004081B (zh) 一种基于仿射算法的配电网负荷供应能力计算方法

Legal Events

Date Code Title Description
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20171226