CN109871894A - 一种结合森林优化和粗糙集的数据离散化方法 - Google Patents

一种结合森林优化和粗糙集的数据离散化方法 Download PDF

Info

Publication number
CN109871894A
CN109871894A CN201910126440.4A CN201910126440A CN109871894A CN 109871894 A CN109871894 A CN 109871894A CN 201910126440 A CN201910126440 A CN 201910126440A CN 109871894 A CN109871894 A CN 109871894A
Authority
CN
China
Prior art keywords
forest
attribute
data
tree
discretization
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910126440.4A
Other languages
English (en)
Inventor
徐东
王鑫
孟宇龙
张子迎
任龙
关智允
颜丙辉
王敏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Harbin Engineering University
Original Assignee
Harbin Engineering University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Harbin Engineering University filed Critical Harbin Engineering University
Priority to CN201910126440.4A priority Critical patent/CN109871894A/zh
Publication of CN109871894A publication Critical patent/CN109871894A/zh
Pending legal-status Critical Current

Links

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明属于机器学习数据处理领域,具体涉及一种结合森林优化和粗糙集的数据离散化方法。本发明的目的在于克服传统连续属性离散化算法割裂属性之间关联的缺点,使用森林优化算法对基于粗糙集的离散化方法进行改进,提出一种搜索效率高、避免局部最优的结合森林优化和粗糙集的数据离散化方法,并将该方法应用在机器学习的数据预处理过程,本发明最大程度保留了数据集不同属性间的关联性,增强机器学习模型的记忆能力,克服传统离散化方法易陷入局部最优、割裂属性之间关联以及优化效率低等问题,是一种多维属性离散化方法,并应用其建立数据预处理模型,可在机器学习算法中使用,如C4.5分类器,可提高其分类、预测精度。

Description

一种结合森林优化和粗糙集的数据离散化方法
技术领域
本发明属于机器学习数据处理领域,具体涉及一种结合森林优化和粗糙集的数据离散化方法。
背景技术
机器学习已成为当今人工智能领域研究的热点。多数机器学习算法仅适用于离散型数据,如决策树和贝叶斯网络。实际使用中,所获取数据集的属性多为连续型,需要对数据属性进行一定的离散化处理。利用离散化后的数据集进行算法学习时,结果精度会得到明显改善,算法的分类、预测性能显著提升。
离散化方法分为监督离散化算法和无监督离散化算法。无监督离散化不考虑属性对应的类别信息,直接对属性离散化。例如等频率和等间距算法,效率高但精度差,使用较少。监督离散化算法主要有基于布尔逻辑和粗糙集理论的离散化算法、Chi2算法以及基于CAIM统计量的离散化算法等。该类算法利用属性的类别信息,计算复杂度高,但会获得较优离散化效果。其中基于布尔逻辑和粗糙集理论的离散化算法,复杂度呈指数级,无法实用。CAIM离散化算法利用CAIM统计量评价类别信息与属性间的依赖程度,选择CAIM值最大的断点为最优断点,但其只考虑了具有最多实例数的类别,忽略了其他类别信息。且常用的监督离散化算法多是单属性离散化算法,割裂了属性之间的关联性。而在机器学习算法中,数据的最优断点集是多维属性上的合集,通常其数目少且离散性能优。因此多属性离散化成为离散化新的研究热点,近年来有学者提出了一种基于信息熵的两阶段离散化(TSD)算法等。
发明内容
本发明的目的在于克服传统连续属性离散化算法割裂属性之间关联的缺点,使用森林优化算法对基于粗糙集的离散化方法进行改进,提出一种搜索效率高、避免局部最优的结合森林优化和粗糙集的数据离散化方法FORSD,并将该方法应用在机器学习的数据预处理过程,与传统离散化方法相比,本发明可以提高模型的预测及分类精度。
一种结合森林优化和粗糙集的数据离散化方法,该方法包括以下步骤:
步骤1:计算候选断点集;
步骤1.1:对数据集进行数据清洗,包括处理数据不平衡问题、缺失值问题;
步骤1.2:利用粗糙集理论,对清洗过的数据进行属性约简;
步骤1.3:筛选出约简后属性中的连续属性,利用变精度粗糙集理论,对其进行初步的属性值候选断点集划分;
步骤2:适宜度函数评价断点;
步骤2.1:利用变精度粗糙集近似依赖度和断点数目两个指标,设计适宜度评价函数;
步骤2.2:计算当前断点集的β近似依赖度;
步骤2.3:计算森林初始候选断点集的适宜度评价函数;
步骤3:森林优化算法迭代;
步骤3.1:将候选断点集映射成森林中每棵树,进行森林优化算法编码;
步骤3.2:初始化森林,预设算法参数;
步骤3.3:森林就地传播,进行局部森林寻优;
步骤3.4:近似依赖度指导,更新森林每棵树的适宜度,对其进行评价,同时更新树的年龄等其他参数;
步骤3.5:形成或更新备选森林;
步骤3.6:远处播种,进行全局森林寻优;
步骤3.7:更新森林中每棵树的适宜度,并更新其他森林参数;
步骤3.8:森林迭代次数G进行加1操作,若G≤Gmax,则执行步骤3.3;若反之,则执行步骤3.9;
步骤3.9:计算森林中各树的适宜度,选取最大适宜度的树,即为最优树,将其反映射为最优断点集Eopt,最优断点集,即为本方法对连续属性离散化的最优结果。
步骤1.1所述的处理数据不平衡问题包括:首先分析正负样本比例,其次根据数据集的大小采用不同的采样方法处理,如果数据量较充足,采取欠采样的方法,通过减少样本数据较多的类的数量来平衡数据集;如果数据量较少,采取过采样的方法,通过增加数量较少的类的数量来平衡数据集;
步骤1.1所述的处理数据缺失值问题包括:采用K最近距离邻法,先根据欧式距离或相关分析来确定距离具有缺失数据样本最近的K个样本,将这K个值加权平均来估计该样本的缺失数据,加快后期模型的建立。
步骤1.3所述的变精度粗糙集中,一个信息系统可表示为S=(U,A,V,f),其中,U是有限非空集合,称为论域;A是属性集合;Va表示属性a的值域;f:U×A→V是一个信息函数,即对a∈A,有f(x,a)∈Va;若属性集A被分为条件属性集B和决策属性集D,且满足A=B∪D,则称S=(U,A,V,f)为决策信息系统或决策表;
步骤1.3包括以下步骤:
步骤1.3.1:对所有的连续条件属性,每个属性其值按照属性大小排序,依次计算每个属性断点集
步骤1.3.2:计算全部连续属性的候选断点集Pcandidate
步骤1.3.1所述每个属性断点集表示为下式:
其中,
步骤1.3.2所述全部连续属性的候选断点集Pcandidate表示为下式:
其中,k最大取值为连续条件属性的个数。
步骤2.1所述当前断点集的β近似依赖度表示为下式:
其中,F=U/D={D1,D2,…,Dk}是由决策属性集D导出的论域U的划分,是一个条件属性子集;β近似依赖度解释了条件属性子集C对当前论域U中对象的分类能力指标。越接近于1,属性子集C对论域分类精度越高。
步骤2.2所述适宜度评价函数表示为下式:
其中,E设为多维连续属性集C的断点集,其中,F为决策属性D导出的论域U的划分,为决策属性D对断点集C离散化后的属性集E的β近似依赖度,Eend为离散化后的最优断点集,近似依赖度越大,属性子集对论域分类精度越高;断点数目尽越少,离散化效果越好。
步骤3.1包括以下步骤:
步骤3.1.1:一棵树代表一个断点集集合,编码方式采用实数编码,即为一个一维实数数组Tree=[Age,v1,v2,…,vn],其中除去年龄Age,v1到vn对应多维连续属性候选断点集的断点取值,n为候选断点集的断点数目;
步骤3.1.2:断点值处理过程,i∈(1,n),当vi取值不变,表示某个候选断点被选为最优断点集中的一个断点,当vi取值是“0”表示不选择该断点;由于数据集中连续属性值为0的情况极少,故vi取值不为“0”,即对于断点值为0的值,不作处理。
步骤3.2所述初始化森林,预设算法参数为:森林播种代数Gmax=500、树的最大年龄Life time=6、森林中树数量Tnum=30、候选断点集个数n、就地播种参数LSC=2和Δx、远处播种参数GSC=1和transfer rate=10%的值以及变精度粗糙集多数包含关系β=0.15,树的编码维度为n+1。
步骤3.3包括以下步骤:
步骤3.3.1:对数量Tnum的树,每一棵0-Age树先通过复制产生出一颗与其相同的新树;
步骤3.3.2:在该新树所有维中随机的选择1维,但不包括AGE维,随机产生微量dx∈[-Δx,Δx],将dx加到被选中的维变量值上,以变更该维参数值;其中,一棵0-Age树产生的新树的数量记为LSC,Δx较小。
步骤3.5包括以下步骤:
步骤3.5.1:筛选适宜度较小的树,进入备选森林;
步骤3.5.2:筛选AGE超过Life Time限制的树,进入备选森林;
步骤6包括以下步骤:
步骤3.6.1:在备选森林中随机选择转移率为“transfer rate”的树,在树的维度中,随机选取GSC个维,不包含Age维;按每维参数的取值范围,随机产生一个数值,并将该数值赋给该维上的参数;
步骤3.6.2:设置该部分新树Age为0,并将该树添加到森林中。
本发明的有益效果在于:本发明所述的一种结合森林优化和粗糙集的数据离散化方法,最大程度保留了数据集不同属性间的关联性,增强机器学习模型的记忆能力,克服传统离散化方法易陷入局部最优、割裂属性之间关联以及优化效率低等问题,是一种多维属性离散化方法,并应用其建立数据预处理模型,可在机器学习算法中使用,如C4.5分类器,可提高其分类、预测精度。
附图说明
图1为FORSD基本步骤示意图。
图2为FORSD迭代处理流程示意图图。
图3为森林优化算法局部播种示意图。
具体实施方式
下面结合附图对本发明做进一步描述,应指出的是,所描述的实施例仅旨在便于解释本发明,并不构成对本发明的限制。
本发明提出一种结合森林优化和粗糙集的数据离散化方法,如图1所示,该算法包括计算候选断点集、适宜度函数评价断点集以及森林优化算法迭代。具体方法流程如下。
计算候选断点集阶段:
步骤A1:对数据集进行数据清洗,包括处理数据不平衡问题、缺失值等问题。
步骤A11:数据不平衡问题的处理,首先分析正负样本比例,其次根据数据集的大小采用不同的采样方法处理,如果数据量较充足,可采取欠采样的方法,通过减少样本数据较多的类的数量来平衡数据集;如果数据量较少,可采取过采样的方法,通过增加数量较少的类的数量来平衡数据集;
步骤A12:数据缺失值处理,采用K最近距离邻法(K-means clustering),先根据欧式距离或相关分析来确定距离具有缺失数据样本最近的K个样本,将这K个值加权平均来估计该样本的缺失数据,加快后期模型的建立。
步骤A2:利用粗糙集理论,对清洗过的数据进行属性约简,减轻训练负担。
步骤A3:筛选出约简后属性中的连续属性,利用变精度粗糙集理论,对其进行初步的属性值候选断点集划分。
变精度粗糙集中,一个信息系统可表示为S=(U,A,V,f)。其中:U是有限非空集合,称为论域;A是属性集合;Va表示属性a的值域;f:U×A→V是一个信息函数,即对a∈A,有f(x,a)∈Va。若属性集A被分为条件属性集B和决策属性集D,且满足A=B∪D,则称S=(U,A,V,f)为决策信息系统或决策表。下面给出变精度粗糙集的主要定义概念:
定义1:对两个任意的集合X和Y,集合X关于集合Y的相对错误率为:
其中,|X|代表集合X包含元素的个数,即|X|的基数。
定义2:多数包含意味着超过50%的集合X中的元素包含在集合Y中,故对论域U中的任意两个非空子集X和Y,令0≤β≤0.5,多数包含关系定义为:
其中β为错误分类率。
定义3:对任意集合和属性集合X关于A的变精度β的下近似。
其中,[x]B表示由条件属性集C导出的包含对象x的等价类。C β(X)为下近似,表示将U中的对象以不大于β的分类误差分于X的集合。
定义4:设F=U/D={D1,D2,…,Dk}是由决策属性集D导出的论域U的划分,是一个条件属性子集,决策属性集D对属性集C的β近似依赖度为:
β近似依赖度解释了条件属性子集C对当前论域U中对象的分类能力指标。越接近于1,属性子集C对论域分类精度越高。
定义5设决策表S=(U,A,V,f)如前所述,对某个连续型条件属性ak∈C,论域中其有限个属性值经过排序后为:
则该属性候选断点可取为其中k最大取值为连续条件属性的个数,所有属性候选断点集为:
步骤A31:对所有的连续条件属性,每个属性其值按照属性大小排序,依据公式(5),依次计算每个属性断点集
步骤A32:依据公式(6),计算全部连续属性的候选断点集Pcandidate
适宜度函数评价断点阶段:
步骤B1:利用变精度粗糙集近似依赖度和断点数目两个指标,设计适宜度评价函数。近似依赖度越大,属性子集对论域分类精度越高;断点数目尽越少,离散化效果越好。
设E设为多维连续属性集C的断点集,则适宜度评价函数定义为:
其中,F为决策属性D导出的论域U的划分,为决策属性D对断点集C离散化后的属性集E的β近似依赖度,Eend为离散化后的最优断点集。
步骤B11:依据公式(4),计算当前断点集的β近似依赖度;
步骤B12:依据公式(7),计算森林初始候选断点集的适宜度评价函数。
森林优化算法迭代阶段,本阶段具体流程如图2所示,步骤如下:
森林优化算法(Forest Optimization Algorithm,FOA)是由Manizheh Ghaemi在2014年提出的一种仿生类优化算法,相比于遗传算法、粒子群算法,该算法具有搜索效率高、更易获得全局最优解等优点。是模拟树木播种过程的启发式全局随机搜索算法,可用森林优化算法指导、搜索全局最优的离散化断点集。
在森林当中,一棵树代表一组解,本发明将断点集映射成森林中每棵树,利用森林优化算法进行全局寻优。种子传播分为就地播种和远处播种。就地播种即树的种子随机散落在树的附近区域;远处播种种子被散播到距离树较远的地方。森林优化算法模拟并利用种子传播,不断迭代传播并寻优,从而得到最佳树,即断点最优解。与多数优化算法不同,森林优化算法中每棵树都拥有年龄,设有年龄参数。初始的年龄为0,随着播种进行,树的年龄逐步增加。当其年龄达到一定岁数Life Time,从森林中剔除。对于被剔除的树,还有一定几率形成备选森林。由于种子播种,森林中树的数量不断增加,竞争激烈,因此要通过自然选择对森林规模进行限制。此阶段,淘汰年龄过大和适宜值较小的树,并将其组成备选森林。
步骤C1:将候选断点集映射成森林中每棵树,进行森林优化算法编码。
步骤C11:一棵树代表一个断点集集合,编码方式采用实数编码,即为一个一维实数数组Tree=[Age,v1,v2,…,vn]。其中除去年龄Age,v1到vn对应多维连续属性候选断点集的断点取值,n为候选断点集的断点数目;
步骤C12:断点值处理过程,i∈(1,n),当vi取值不变,表示某个候选断点被选为最优断点集中的一个断点,当vi取值是“0”表示不选择该断点。由于数据集中连续属性值为0的情况极少,故vi取值不为“0”,即对于断点值为0的值,不作处理。
步骤C2:初始化森林,预设算法参数。森林播种代数Gmax=500、树的最大年龄Lifetime=6、森林中树数量Tnum=30、候选断点集个数n、就地播种参数LSC=2和Δx、远处播种参数GSC=1和transfer rate=10%的值以及变精度粗糙集多数包含关系β=0.15,树的编码维度为n+1。
步骤C3:森林就地传播,进行局部森林寻优。
步骤C31:对数量Tnum的树,每一棵0-Age树先通过复制产生出一颗与其相同的新树;
步骤C32:在该新树所有维中随机的选择1(不包括AGE维)维,随机产生微量dx∈[-Δx,Δx],将dx加到被选中的维变量值上,以变更该维参数值;其中,一棵0-Age树产生的新树的数量记为LSC(LocalSeeding Changes),Δx较小。LSC取2时,一次就地传播的过程,如图3所示。
步骤C4:近似依赖度指导,依据公式(7)更新森林每棵树的适宜度,对其进行评价,同时更新树的年龄等其他参数。
步骤C5:形成或更新备选森林。
步骤C51:筛选适宜度较小的树,进入备选森林;
步骤C52:筛选AGE超过Life Time限制的树,进入备选森林。
步骤C6:远处播种,进行全局森林寻优。
步骤C61:在备选森林中随机选择转移率为“transfer rate”的树,在树的维度中,随机选取GSC(Global Seeding Changes)个维,不包含Age维;按每维参数的取值范围,随机产生一个数值,并将该数值赋给该维上的参数;
步骤C62:设置该部分新树Age为0,并将该树添加到森林中。
步骤C7:依据公式(7)更新森林中每棵树的适宜度,并更新其他森林参数。
步骤C8:森林迭代次数G进行加1操作,若G≤Gmax,则执行步骤C3;若反之,则执行步骤C9。
步骤C9:计算森林中各树的适宜度,选取最大适宜度的树,即为最优树。将其反映射为最优断点集Eopt
步骤C9得出的最优断点集,即为本方法对连续属性离散化的最优结果。
最后应说明的是:以上所述仅为本发明的优选实施例而已,并不用于限制本发明,尽管参照前述实施例对本发明进行了详细的说明,对于本领域的技术人员来说,其依然可以对前述各实施例记载的技术方案进行修改,或者对其中部分技术特征进行等同替换。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (10)

1.一种结合森林优化和粗糙集的数据离散化方法,其特征在于,该方法包括以下步骤:
步骤1:计算候选断点集;
步骤1.1:对数据集进行数据清洗,包括处理数据不平衡问题、缺失值问题;
步骤1.2:利用粗糙集理论,对清洗过的数据进行属性化简;
步骤1.3:筛选出化简后属性中的连续属性,利用变精度粗糙集理论,对其进行初步的属性值候选断点集划分;
步骤2:适宜度函数评价断点;
步骤2.1:利用变精度粗糙集得到依赖度和断点数目两个指标,设计适宜度评价函数;
步骤2.2:计算当前断点集的β得到依赖度;
步骤2.3:计算森林初始候选断点集的适宜度评价函数;
步骤3:森林优化迭代;
步骤3.1:将候选断点集映射成森林中每棵树,进行森林优化编码;
步骤3.2:初始化森林,预设参数;
步骤3.3:森林就地传播,进行局部森林寻优
步骤3.4:得到依赖度指导,更新森林每棵树的适宜度,对其进行评价,同时更新树的年龄参数;
步骤3.5:形成、更新备选森林;
步骤3.6:远处播种,进行全局森林寻优;
步骤3.7:更新森林中每棵树的适宜度,并更新森林参数;
步骤3.8:森林迭代次数G进行加1操作,若G≤Gmax,则执行步骤3.3;若反之,则执行步骤3.9;
步骤3.9:计算森林中各树的适宜度,选取最大适宜度的树,即为最优树,将其反映射为最优断点集Eopt,最优断点集,即为本方法对连续属性离散化的最优结果。
2.根据权利要求1所述的一种结合森林优化和粗糙集的数据离散化方法,其特征在于,步骤1.1所述的处理数据不平衡问题包括:首先分析正负样本比例,其次根据数据集的大小采用不同的采样方法处理,若数据量较充足,采取欠采样的方法,通过减少样本数据多的类的数量来平衡数据集;若数据量少,采取过采样的方法,通过增加数量少的类的数量来平衡数据集;
步骤1.1所述的处理数据缺失值问题包括:采用K最近距离邻法,先根据欧式距离、相关分析来确定距离具有缺失数据样本最近的K个样本,将这K个值加权平均来估计该样本的缺失数据,加快后期模型的建立。
3.根据权利要求1所述的一种结合森林优化和粗糙集的数据离散化方法,其特征在于,步骤1.3所述的变精度粗糙集中,一个信息系统表示为S=(U,A,V,f),其中,U是有限非空集合,称为论域;A是属性集合;Va表示属性a的值域;f:U×A→V是一个信息函数,即对a∈A,有f(x,a)∈Va;若属性集A被分为条件属性集B和决策属性集D,且满足A=B∪D,则称S=(U,A,V,f)为决策信息系统,即决策表;
步骤1.3包括以下步骤:
步骤1.3.1:对所有的连续条件属性,每个属性其值按照属性大小排序,依次计算每个属性断点集
步骤1.3.2:计算全部连续属性的候选断点集Pcandidate
4.根据权利要求3所述的一种结合森林优化和粗糙集的数据离散化方法,其特征在于,步骤1.3.1所述每个属性断点集表示为下式:
其中,
步骤1.3.2所述全部连续属性的候选断点集Pcandidate表示为下式:
其中,k最大取值为连续条件属性的个数。
5.根据权利要求1所述的一种结合森林优化和粗糙集的数据离散化方法,其特征在于,步骤2.1所述当前断点集的β得到依赖度表示为下式:
其中,F=U/D={D1,D2,…,Dk}是由决策属性集D导出的论域U的划分,是一个条件属性子集;β得到依赖度解释了条件属性子集C对当前论域U中对象的分类能力指标;越趋于1,属性子集C对论域分类精度越高。
6.根据权利要求1所述的一种结合森林优化和粗糙集的数据离散化方法,其特征在于,步骤2.2所述适宜度评价函数表示为下式:
其中,E设为多维连续属性集C的断点集,F为决策属性D导出的论域U的划分,为决策属性D对断点集C离散化后的属性集E的β得到依赖度,Eend为离散化后的最优断点集,得到依赖度越大,属性子集对论域分类精度越高;断点数目尽越少,离散化效果越好。
7.根据权利要求1所述的一种结合森林优化和粗糙集的数据离散化方法,其特征在于,步骤3.1包括以下步骤:
步骤3.1.1:一棵树代表一个断点集集合,编码方式采用实数编码,即为一个一维实数数组Tree=[Age,v1,v2,…,vn],其中除去年龄Age,v1到vn对应多维连续属性候选断点集的断点取值,n为候选断点集的断点数目;
步骤3.1.2:断点值处理过程,i∈(1,n),当vi取值不变,表示某个候选断点被选为最优断点集中的一个断点,当vi取值是“0”表示不选择该断点;由于数据集中连续属性值为0的情况极少,故vi取值不为“0”,即对于断点值为0的值,不作处理。
8.根据权利要求1所述的一种结合森林优化和粗糙集的数据离散化方法,其特征在于,步骤3.2所述初始化森林,预设参数为:森林播种代数Gmax=500、树的最大年龄Life time=6、森林中树数量Tnum=30、候选断点集个数n、就地播种参数LSC=2和Δx、远处播种参数GSC=1和transfer rate=10%的值以及变精度粗糙集多数包含关系β=0.15,树的编码维度为n+1。
9.根据权利要求1所述的一种结合森林优化和粗糙集的数据离散化方法,其特征在于,步骤3.3包括以下步骤:
步骤3.3.1:对数量Tnum的树,每一棵0-Age树先通过复制产生出一颗与其相同的新树;
步骤3.3.2:在该新树所有维中随机的选择1维,但不包括AGE维,随机产生微量dx∈[-Δx,Δx],将dx加到被选中的维变量值上,以变更被选中的维变量的参数值;其中,一棵0-Age树产生的新树的数量记为LSC。
10.根据权利要求1所述的一种结合森林优化和粗糙集的数据离散化方法,其特征在于,步骤3.5包括以下步骤:
步骤3.5.1:筛选适宜度小的树,进入备选森林;
步骤3.5.2:筛选AGE超过Life Time限制的树,进入备选森林;
步骤6包括以下步骤:
步骤3.6.1:在备选森林中随机选择转移率为“transfer rate”的树,在树的维度中,随机选取GSC个维,不包含Age维;按每维参数的取值范围,随机产生一个数值,并将该数值赋给此维上的参数;
步骤3.6.2:设置步骤3.6.1选取的部分的新树Age为0,并将这个新树添加到森林中。
CN201910126440.4A 2019-02-20 2019-02-20 一种结合森林优化和粗糙集的数据离散化方法 Pending CN109871894A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910126440.4A CN109871894A (zh) 2019-02-20 2019-02-20 一种结合森林优化和粗糙集的数据离散化方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910126440.4A CN109871894A (zh) 2019-02-20 2019-02-20 一种结合森林优化和粗糙集的数据离散化方法

Publications (1)

Publication Number Publication Date
CN109871894A true CN109871894A (zh) 2019-06-11

Family

ID=66918935

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910126440.4A Pending CN109871894A (zh) 2019-02-20 2019-02-20 一种结合森林优化和粗糙集的数据离散化方法

Country Status (1)

Country Link
CN (1) CN109871894A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110967974A (zh) * 2019-12-03 2020-04-07 西安科技大学 基于粗糙集的煤流平衡自适应控制方法
CN111652425A (zh) * 2020-05-29 2020-09-11 重庆工商大学 一种基于粗糙集和长短期记忆网络的河流水质预测方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108038123A (zh) * 2017-11-06 2018-05-15 重庆大学 一种基于频数分布的数据离散化方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108038123A (zh) * 2017-11-06 2018-05-15 重庆大学 一种基于频数分布的数据离散化方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110967974A (zh) * 2019-12-03 2020-04-07 西安科技大学 基于粗糙集的煤流平衡自适应控制方法
CN110967974B (zh) * 2019-12-03 2022-05-17 西安科技大学 基于粗糙集的煤流平衡自适应控制方法
CN111652425A (zh) * 2020-05-29 2020-09-11 重庆工商大学 一种基于粗糙集和长短期记忆网络的河流水质预测方法
CN111652425B (zh) * 2020-05-29 2024-03-22 重庆工商大学 一种基于粗糙集和长短期记忆网络的河流水质预测方法

Similar Documents

Publication Publication Date Title
CN103136355B (zh) 一种基于自动阈值鱼群算法的文本聚类方法
CN102831440B (zh) 一种广域遥感影像决策树分类方法及装置
CN108763237A (zh) 一种基于注意力机制的知识图谱嵌入方法
CN106648654A (zh) 一种数据感知的Spark配置参数自动优化方法
CN108509425A (zh) 一种基于新颖度的中文新词发现方法
CN107895028B (zh) 采用深度学习的草图检索方法
CN107832456B (zh) 一种基于临界值数据划分的并行knn文本分类方法
CN109726228A (zh) 一种大数据背景下的切削数据综合应用方法
CN109948668A (zh) 一种多模型融合方法
CN110826618A (zh) 一种基于随机森林的个人信用风险评估方法
CN107291895B (zh) 一种快速的层次化文档查询方法
CN109598296A (zh) 一种基于改进飞蛾扑火k均值聚类方法
CN108280236A (zh) 一种基于LargeVis的随机森林可视化数据分析方法
CN106557777A (zh) 一种基于SimHash改进的Kmeans聚类方法
CN109816087B (zh) 基于人工鱼群与蛙群混合算法的粗糙集属性约简的强对流天气判别方法
CN108664653A (zh) 一种基于K-means的医疗消费客户自动分类方法
CN109871894A (zh) 一种结合森林优化和粗糙集的数据离散化方法
CN103559174A (zh) 语义情感分类特征值提取方法及系统
Wang et al. Active constraint spectral clustering based on Hessian matrix
CN105938561A (zh) 一种基于典型相关性分析的计算机数据属性约简方法
CN108416395A (zh) 一种基于属性简约的交互式决策树构建方法
Hao et al. The research and analysis in decision tree algorithm based on C4. 5 algorithm
Xu Analysis and comparison of forecasting algorithms for telecom customer churn
Zhang et al. A post-pruning decision tree algorithm based on Bayesian
Zhou et al. Bank Customer Classification Algorithm Based on Improved Decision Tree

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20190611

RJ01 Rejection of invention patent application after publication