CN107516104A - 一种基于二分法的优化cart决策树生成方法及其装置 - Google Patents
一种基于二分法的优化cart决策树生成方法及其装置 Download PDFInfo
- Publication number
- CN107516104A CN107516104A CN201710560646.9A CN201710560646A CN107516104A CN 107516104 A CN107516104 A CN 107516104A CN 201710560646 A CN201710560646 A CN 201710560646A CN 107516104 A CN107516104 A CN 107516104A
- Authority
- CN
- China
- Prior art keywords
- mrow
- data
- decision tree
- splitting
- dichotomy
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/243—Classification techniques relating to the number of classes
- G06F18/24323—Tree-organised classifiers
Landscapes
- Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明提供一种基于二分法的优化CART决策树生成方法,包括:预处理步骤;属性分裂步骤:对所述数据集中某一属性的数据进行分裂,分裂的属性选择度量为使用二分法优化的基尼指数;将满足条件的数据分裂给左子树,否则分裂给右子树;决策树建树步骤:重复所述属性分裂步骤,直到最终分裂数据点的基尼指数小于预设的基尼指数阈值,停止分裂,形成决策树;以及剪枝步骤。本发明具有以下有益效果:既能处理标称数据又能处理连续数据;使用二元分支,充分运用全部数据,尽可能发现全部的数据;能处理空缺值和孤立点;能降低计算量,加快分类速度进而提高分类效率。
Description
技术领域
本发明属于故障诊断和数据挖掘技术领域,具体涉及基于二分法的优化CART决策树生成方法及其装置。
背景技术
随着工业设备自动化水平的不断提高,设备故障诊断技术在各个工业领域都受到了普遍重视。目前,以转子为核心工作部件的回转设备(如压缩机,透平机等)的故障诊断技术已基本成熟,而对于一些复杂设备(如发动机,复式压缩机等)的故障诊断技术仍然是一个难题。由于传统的故障诊断方法的复杂性,自上世纪90年代数据挖掘这一概念提出之后,就开始被广泛应用在故障诊断技术中。分类就是一种典型的用来进行数据挖掘的方法。
CART(Classification And Regression Tree)算法,即分类回归树算法,是数据挖掘十大经典算法之一,由Leo Breiman,Jerome Friedman,Richard Olshen和CharlesStone于1984年提出,被称为数据挖掘领域内里程碑式的算法。
CART决策树是一种有效的非参数分类和回归方法,通过构建树、修剪树、评估树来构建一个二叉树当终节点是连续变量时,该树为回归树;当终节点是分类变量时,该树为分类树。通常决策树实现有三种,ID3算法、C4.5算法和CART算法。三者的主要区别在于属性选择度量的不同,ID3算法使用信息增益只能处理标称型数据集,C4.5在ID3的基础上采用了信息增益率进行分类,能够处理连续型数据,但在构造树的过程中,需要对数据集进行多次的顺序扫描和排序,因而导致算法的低效。CART算法则使用基尼指数作为属性选择度量,同样也能处理连续数据,同时既能处理分类问题,又能处理回归问题,也提高了分类的效率。树剪枝使用统计度量,减去最不可靠的分支,这将导致较快的分类,提高树独立于训练数据正确分类的能力。目前,CART算法的应用最为广泛,在常用的随机森林集成算法中使用的也是CART算法。
CART算法使用基尼指数作为属性选择度量,之所以选择基尼指数,是因为较于熵而言其计算速度更快一些。在对连续属性进行分类时,CART算法计算所有两个相邻数据点的中点处的基尼指数,比较这些基尼指数,取基尼指数最小的点作为分裂点。也就是说,假设数据集中有n个点,一个分裂过程需要计算(n-1)次基尼指数,当数据集比较大,即当n比较大时,该过程需要相当长的时间,分类速度非常缓慢。因此,需要一种能够优化CART算法并有效提高其分类效率的方法。
发明内容
为了提高CART决策树算法的分类速度,使其在应用于故障诊断时能有效提高诊断效率,本发明采用二分法,只需要计算(log2n+1)个基尼指数,大大减少了计算时间,且当n越大时效果越明显,能有效的提高分类效率。
本发明是通过以下技术方案实现的:
一种基于二分法的优化CART决策树生成方法,包括如下步骤:
预处理步骤:对数据进行预处理,输入二维数据集;
属性分裂步骤:对所述数据集中某一属性的数据进行分裂,分裂的属性选择度量为使用二分法优化的基尼指数;将满足条件的数据分裂给左子树,否则分裂给右子树;
决策树建树步骤:重复所述属性分裂步骤,直到最终分裂数据点的基尼指数小于预设的基尼指数阈值,停止分裂,形成决策树;
剪枝步骤:以极小化整体损失函数采用递归的方法进行剪枝,生成最终的决策树。
一种基于二分法的优化CART决策树生成装置,包括:
预处理单元:用于对数据进行预处理,输入二维数据集;
属性分裂单元:用于对所述数据集中某一属性的数据进行分裂,分裂的属性选择度量为使用二分法优化的基尼指数;将满足条件的数据分裂给左子树,否则分裂给右子树;
决策树建树单元:用于控制所述属性分裂单元重复进行分裂,直到最终分裂数据点的基尼指数小于预设的基尼指数阈值,停止分裂,形成决策树;
剪枝单元:用于以极小化整体损失函数采用递归的方法进行剪枝,生成最终的决策树。本发明具有以下有益效果:
1.本发明采用基尼指数,在作为分类树时可将连续数据离散化,既能处理标称数据又能处理连续数据。
2.使用二元分支,充分运用全部数据,尽可能发现全部的数据;
3.利用基尼指数选择分支特征,能处理空缺值和孤立点;
4.本发明使用二分法,只需计算([log2n]+1)次基尼指数,与计算(n-1)次相比能降低计算量,加快分类速度进而提高分类效率。
附图说明
图1为本发明基于二分法的优化CART决策树生成方法的总流程图。
图2为传统CART算法分裂示意图。
图3为本发明采用的二分法优化CART算法的分裂示意图。
图4为转子台故障模拟实验数据图。
图5为使用本发明基于二分法的优化CART决策树生成方法对转子台故障数据进行处理形成的决策树示意图。
图6为本发明基于二分法的优化CART决策树生成装置的结构框图。
在所有附图中,相同的附图标记用来表示相同的元件或结构,包括:
预处理单元1,属性分裂单元2,决策树建树单元3,剪枝单元4。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施方式仅仅用以解释本发明,并不用于限定本发明。
实施例1:
如图1所示,本实施例提供一种基于二分法的优化CART决策树生成方法,包括如下步骤:
步骤S1,预处理步骤:对数据进行预处理,先进行数据清理(填写缺失值,光滑噪声数据,识别或删除离群点),再将数据简化集成在一个数据集里,避免出现冗余数据。最后输入二维数据集。
步骤S2,属性分裂步骤:对数据集中某一属性的数据进行分裂,分裂的属性选择度量为使用二分法优化的基尼指数;将满足条件的数据分裂给左子树,否则分裂给右子树。
在本实施例中,属性分裂步骤具体是将某一属性的数据按照升序或降序排列,对排列后的数据进行二分,并计算二分后的数据点的基尼指数;将小于等于二分点的数据分裂给左子树,大于二分点的数据分裂给右子树。
传统的CART算法在处理连续数据时,计算每相邻两个数据的平均值处的基尼指数,假设数据集中有n个数据,即要计算(n-1)次基尼指数,如图2所示,当n比较大时,算法的计算效率势必很低。在本实施例中,作为最佳的技术方案,采用二分法来减少计算量,计算n个数据的中点作为第一次二分,之后重复二分的步骤进行迭代,迭代次数为([log2n]+1)。图3是采用的二分法优化CART算法的分裂示意图,将图3和图2对比可知,对数据集中的10个数据,传统的CART算法需计算9个基尼指数,而本实施例只需计算4次,效率上有很大提升。在准确度上,如图3所示,第一次二分点在值为92处,第二次二分在值为120处第三次二分在值为100处,第四次二分在值为97处,与传统CART算法的基尼指数值最小点为同意点,在本实施例中有相同的精度。
基尼指数的计算公式如公式(1)所示:
其中,Pi是数据集中属于第i个类的概率,对m个类计算和;
假设分裂前数据集为D,分裂后的左右两个子树对应集合DL和DR,分裂后的基尼指数定义如公式(2)所示:
其中,|*|表示数据的数量。
步骤S3,决策树建树步骤:重复属性分裂步骤,直到最终分裂数据点的基尼指数小于预设的基尼指数阈值,停止分裂,形成决策树。
基尼指数度量数据分区或训练元组集的不纯度基尼指数越大,样本集合的不确定性程度越高,因此,在本实施例中,决策树建树步骤中,选择基尼指数小的数据继续进行二分,重复属性分裂步骤若干次,直到最终分裂数据点的基尼指数小于预设的基尼指数阈值。重复属性分裂步骤的次数可以根据初始数据集中的数据量进行确定,具体可以根据根据公式(3)确定:
K=[log2n]+1 (3)
其中,K表示重复属性分裂步骤的次数,[]表示对log2n取整,n是初始数据集的数量。
步骤S4,剪枝步骤:以极小化整体损失函数采用递归的方法进行剪枝,生成最终的决策树。
在本实施例总,剪枝步骤具体为:输入决策树T0,自上而下计算其内部结点t剪枝后整体损失函数减少程度g(t)并选择最小值作为调节参数α1,剪枝得决策树T1,即为区间[α1,α2]对应的最优子树;重复上述步骤,递归得到最优子树序列,交叉验证选取最优子树;其中:
定义以t为单节点的损失函数,如公式(4)所示:
Lα(t)=C(t)+α (4)
以t为根节点的子树Tt的损失函数,如公式(5)所示:
Lα(Tt)=C(Tt)+α|Tt| (5)
其中,C(t)表示决策树的训练误差,α为调节参数,|Tt|为模型的复杂度;
令(4)式与(5)式相等,即得到调节参数α的计算公式:
由此,定义对节点t的剪枝后整体损失函数减少程度为:
在本实施例中,基于二分法的优化CART决策树生成方法,还包括:
步骤S5,输出步骤:利用weka平台中自带的决策树可视化输出功能将剪枝后的决策树输出。用转子台模拟故障实验采集并预处理后的数据如图4所示,使用本实施例的优化方法进行分类之后输出的决策树如图5所示。
实施例2:
如图6所示,本实施例提供一种基于二分法的优化CART决策树生成装置,包括:
预处理单元1:用于对数据进行预处理,输入二维数据集;
属性分裂单元2:用于对数据集中某一属性的数据进行分裂,分裂的属性选择度量为使用二分法优化的基尼指数;将满足条件的数据分裂给左子树,否则分裂给右子树;
决策树建树单元3:用于控制属性分裂单元重复进行分裂,直到最终分裂数据点的基尼指数小于预设的基尼指数阈值,停止分裂,形成决策树;
剪枝单元4:用于以极小化整体损失函数采用递归的方法进行剪枝,生成最终的决策树。在本实施例中,属性分裂单元2具体用于将某一属性的数据按照升序或降序排列,对排列后的数据进行二分,并计算二分后的数据点的基尼指数;将小于等于二分点的数据分裂给左子树,大于二分点的数据分裂给右子树。
决策树建树单元3具体用于选择基尼指数小的数据继续进行二分,控制属性分裂单元2重复进行分裂若干次,直到最终分裂数据点的基尼指数小于预设的基尼指数阈值。
本实施例是与实施例1提供的基于二分法的优化CART决策树生成方法相对应的装置,其工作原理及有益效果与实施例1基本相同,在此不再赘述。
本领域的技术人员容易理解,以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种基于二分法的优化CART决策树生成方法,其特征在于,包括如下步骤:
预处理步骤:对数据进行预处理,输入二维数据集;
属性分裂步骤:对所述数据集中某一属性的数据进行分裂,分裂的属性选择度量为使用二分法优化的基尼指数;将满足条件的数据分裂给左子树,否则分裂给右子树;
决策树建树步骤:重复所述属性分裂步骤,直到最终分裂数据点的基尼指数小于预设的基尼指数阈值,停止分裂,形成决策树;
剪枝步骤:以极小化整体损失函数采用递归的方法进行剪枝,生成最终的决策树。
2.根据权利要求1所述的基于二分法的优化CART决策树生成方法,其特征在于:
在所述属性分裂步骤中,将某一属性的数据按照升序或降序排列,对所述排列后的数据进行二分,并计算所述二分后的数据点的基尼指数;将小于等于二分点的数据分裂给左子树,大于二分点的数据分裂给右子树。
3.根据权利要求1或2所述的基于二分法的优化CART决策树生成方法,其特征在于:在所述决策树建树步骤中,选择基尼指数小的数据继续进行二分,重复所述属性分裂步骤若干次,直到最终分裂数据点的基尼指数小于预设的基尼指数阈值。
4.根据权利要求1或2所述的基于二分法的优化CART决策树生成方法,其特征在于:所述基尼指数的计算公式如公式(1)所示:
<mrow>
<mi>G</mi>
<mi>i</mi>
<mi>n</mi>
<mi>i</mi>
<mo>=</mo>
<mn>1</mn>
<mo>-</mo>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>m</mi>
</munderover>
<msubsup>
<mi>P</mi>
<mi>i</mi>
<mn>2</mn>
</msubsup>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>1</mn>
<mo>)</mo>
</mrow>
</mrow>
其中,Pi是数据集中属于第i个类的概率,对m个类计算和;
假设分裂前数据集为D,分裂后的左右两个子树对应集合DL和DR,分裂后的基尼指数定义如公式(2)所示:
<mrow>
<mi>G</mi>
<mo>=</mo>
<mfrac>
<mrow>
<mo>|</mo>
<msub>
<mi>D</mi>
<mi>L</mi>
</msub>
<mo>|</mo>
</mrow>
<mrow>
<mo>|</mo>
<mi>D</mi>
<mo>|</mo>
</mrow>
</mfrac>
<mi>G</mi>
<mi>i</mi>
<mi>n</mi>
<mi>i</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>D</mi>
<mi>L</mi>
</msub>
<mo>)</mo>
</mrow>
<mo>+</mo>
<mfrac>
<mrow>
<mo>|</mo>
<msub>
<mi>D</mi>
<mi>R</mi>
</msub>
<mo>|</mo>
</mrow>
<mrow>
<mo>|</mo>
<mi>D</mi>
<mo>|</mo>
</mrow>
</mfrac>
<mi>G</mi>
<mi>i</mi>
<mi>n</mi>
<mi>i</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>D</mi>
<mi>R</mi>
</msub>
<mo>)</mo>
</mrow>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>2</mn>
<mo>)</mo>
</mrow>
</mrow>
其中,|*|表示数据的数量。
5.根据权利要求3所述的基于二分法的优化CART决策树生成方法,其特征在于:
重复所述属性分裂步骤的次数根据公式(3)确定:
K=[log2n]+1 (3)
其中,K表示重复所述属性分裂步骤的次数,[]表示对log2 n取整,n是初始数据集的数量。
6.根据权利要求1或2所述的基于二分法的优化CART决策树生成方法,其特征在于:在所述剪枝步骤中:输入决策树T0,自上而下计算其内部结点t剪枝后整体损失函数减少程度g(t)并选择最小值作为调节参数α1,剪枝得决策树T1,即为区间[α1,α2]对应的最优子树;重复上述步骤,递归得到最优子树序列,交叉验证选取最优子树;其中:定义以t为单节点的损失函数,如公式(4)所示:
Lα(t)=C(t)+α (4)
以t为根节点的子树Tt的损失函数,如公式(5)所示:
Lα(Tt)=C(Tt)+α|Tt| (5)
其中,C(t)表示决策树的训练误差,α为调节参数,|Tt|为模型的复杂度;
令所述(4)式与(5)式相等,即得到调节参数α的计算公式:
<mrow>
<mi>&alpha;</mi>
<mo>=</mo>
<mfrac>
<mrow>
<mi>C</mi>
<mrow>
<mo>(</mo>
<mi>t</mi>
<mo>)</mo>
</mrow>
<mo>-</mo>
<mi>C</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>T</mi>
<mi>t</mi>
</msub>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<mo>|</mo>
<msub>
<mi>T</mi>
<mi>t</mi>
</msub>
<mo>|</mo>
<mo>-</mo>
<mn>1</mn>
</mrow>
</mfrac>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>6</mn>
<mo>)</mo>
</mrow>
</mrow>
由此,定义对节点t的剪枝后整体损失函数减少程度为:
<mrow>
<mi>g</mi>
<mrow>
<mo>(</mo>
<mi>t</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mfrac>
<mrow>
<mi>C</mi>
<mrow>
<mo>(</mo>
<mi>t</mi>
<mo>)</mo>
</mrow>
<mo>-</mo>
<mi>C</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>T</mi>
<mi>t</mi>
</msub>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<mo>|</mo>
<msub>
<mi>T</mi>
<mi>t</mi>
</msub>
<mo>|</mo>
<mo>-</mo>
<mn>1</mn>
</mrow>
</mfrac>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>7</mn>
<mo>)</mo>
</mrow>
<mo>.</mo>
</mrow>
7.根据权利要求1或2所述的基于二分法的优化CART决策树生成方法,其特征在于:还包括输出步骤:利用weka平台中自带的决策树可视化输出功能将剪枝后的决策树输出。
8.一种基于二分法的优化CART决策树生成装置,其特征在于,包括:
预处理单元:用于对数据进行预处理,输入二维数据集;
属性分裂单元:用于对所述数据集中某一属性的数据进行分裂,分裂的属性选择度量为使用二分法优化的基尼指数;将满足条件的数据分裂给左子树,否则分裂给右子树;
决策树建树单元:用于控制所述属性分裂单元重复进行分裂,直到最终分裂数据点的基尼指数小于预设的基尼指数阈值,停止分裂,形成决策树;
剪枝单元:用于以极小化整体损失函数采用递归的方法进行剪枝,生成最终的决策树。
9.根据权利要求8所述的基于二分法的优化CART决策树生成装置,其特征在于:
所述属性分裂单元具体用于将某一属性的数据按照升序或降序排列,对所述排列后的数据进行二分,并计算所述二分后的数据点的基尼指数;将小于等于二分点的数据分裂给左子树,大于二分点的数据分裂给右子树。
10.根据权利要求8或9所述的基于二分法的优化CART决策树生成装置,其特征在于:所述决策树建树单元具体用于选择基尼指数小的数据继续进行二分,控制所述属性分裂单元重复进行分裂若干次,直到最终分裂数据点的基尼指数小于预设的基尼指数阈值。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710560646.9A CN107516104A (zh) | 2017-07-11 | 2017-07-11 | 一种基于二分法的优化cart决策树生成方法及其装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710560646.9A CN107516104A (zh) | 2017-07-11 | 2017-07-11 | 一种基于二分法的优化cart决策树生成方法及其装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN107516104A true CN107516104A (zh) | 2017-12-26 |
Family
ID=60722487
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710560646.9A Pending CN107516104A (zh) | 2017-07-11 | 2017-07-11 | 一种基于二分法的优化cart决策树生成方法及其装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107516104A (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109587000A (zh) * | 2018-11-14 | 2019-04-05 | 上海交通大学 | 基于群智网络测量数据的高延迟异常检测方法及系统 |
CN110516750A (zh) * | 2019-08-30 | 2019-11-29 | 东北大学 | 一种基于cart决策树的钢板板形质量异常检测方法 |
CN110837525A (zh) * | 2019-11-08 | 2020-02-25 | 京东数字城市(成都)科技有限公司 | 数据处理方法及其装置、电子设备以及计算机可读介质 |
CN112487033A (zh) * | 2020-11-30 | 2021-03-12 | 国网山东省电力公司电力科学研究院 | 一种面向数据流及构建网络拓扑的业务可视化方法及系统 |
CN112487582A (zh) * | 2020-12-10 | 2021-03-12 | 西南石油大学 | 一种基于cart算法的油气钻井机械钻速预测与优化方法 |
CN113256409A (zh) * | 2021-07-12 | 2021-08-13 | 广州思迈特软件有限公司 | 基于机器学习的银行零售客户流失预测方法 |
CN113468821A (zh) * | 2021-07-22 | 2021-10-01 | 郑州大学 | 一种基于决策回归算法的坡面产流产沙阈值确定方法 |
-
2017
- 2017-07-11 CN CN201710560646.9A patent/CN107516104A/zh active Pending
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109587000A (zh) * | 2018-11-14 | 2019-04-05 | 上海交通大学 | 基于群智网络测量数据的高延迟异常检测方法及系统 |
CN109587000B (zh) * | 2018-11-14 | 2020-09-15 | 上海交通大学 | 基于群智网络测量数据的高延迟异常检测方法及系统 |
CN110516750A (zh) * | 2019-08-30 | 2019-11-29 | 东北大学 | 一种基于cart决策树的钢板板形质量异常检测方法 |
CN110516750B (zh) * | 2019-08-30 | 2022-11-15 | 东北大学 | 一种基于cart决策树的钢板板形质量异常检测方法 |
CN110837525A (zh) * | 2019-11-08 | 2020-02-25 | 京东数字城市(成都)科技有限公司 | 数据处理方法及其装置、电子设备以及计算机可读介质 |
CN112487033A (zh) * | 2020-11-30 | 2021-03-12 | 国网山东省电力公司电力科学研究院 | 一种面向数据流及构建网络拓扑的业务可视化方法及系统 |
CN112487582A (zh) * | 2020-12-10 | 2021-03-12 | 西南石油大学 | 一种基于cart算法的油气钻井机械钻速预测与优化方法 |
CN113256409A (zh) * | 2021-07-12 | 2021-08-13 | 广州思迈特软件有限公司 | 基于机器学习的银行零售客户流失预测方法 |
CN113468821A (zh) * | 2021-07-22 | 2021-10-01 | 郑州大学 | 一种基于决策回归算法的坡面产流产沙阈值确定方法 |
CN113468821B (zh) * | 2021-07-22 | 2024-03-19 | 郑州大学 | 一种基于决策回归算法的坡面产流产沙阈值确定方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107516104A (zh) | 一种基于二分法的优化cart决策树生成方法及其装置 | |
CN111722046B (zh) | 一种基于深度森林模型的变压器故障诊断方法 | |
CN106897821B (zh) | 一种暂态评估特征选择方法及装置 | |
Mohamed et al. | A comparative study of reduced error pruning method in decision tree algorithms | |
CN106067066A (zh) | 基于遗传算法优化装袋算法的电力变压器故障诊断方法 | |
CN109214527A (zh) | 一种变压器故障早期诊断预警方法和系统 | |
CN102750286B (zh) | 一种处理缺失数据的新型决策树分类器方法 | |
CN106991212A (zh) | 一种基于ga_pso优化grnn网络算法的叶根强度安全特性预测方法 | |
CN112181706A (zh) | 一种基于对数区间隔离的电力调度数据异常检测方法 | |
CN106951927A (zh) | 基于材力形心法选取中心点的K‑means聚类优化方法和装置 | |
CN105024645A (zh) | 一种基于矩阵进化的光伏阵列故障定位方法 | |
CN117473424A (zh) | 基于随机森林的变压器故障诊断方法、系统、设备及介质 | |
CN106919504B (zh) | 一种基于ga算法的测试数据进化生成方法 | |
CN110489852A (zh) | 提高风电系统数据质量的方法及装置 | |
CN103149840A (zh) | 一种基于动态规划的语义服务组合方法 | |
CN111126560A (zh) | 一种基于云遗传算法优化bp神经网络的方法 | |
CN108537581B (zh) | 基于gmdh选择性组合的能源消费量时间序列预测方法及装置 | |
CN116662412B (zh) | 一种电网配用电大数据的数据挖掘方法 | |
CN103198359A (zh) | 基于nsga-ⅱ优化改进的模糊回归模型构造方法 | |
CN106292289B (zh) | 流程工业控制回路对象的混合精英随机搜索优化方法 | |
CN112085335A (zh) | 一种用于配电网故障预测的改进随机森林算法 | |
CN103020864A (zh) | 玉米良种选育方法 | |
CN107273970B (zh) | 支持在线学习的卷积神经网络的可重构平台及其构建方法 | |
CN112396113B (zh) | 一种电力系统运行方式数据特征两阶段选择方法 | |
CN114004081B (zh) | 一种基于仿射算法的配电网负荷供应能力计算方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20171226 |