CN107273909A - 高维数据的分类算法 - Google Patents

高维数据的分类算法 Download PDF

Info

Publication number
CN107273909A
CN107273909A CN201610218204.1A CN201610218204A CN107273909A CN 107273909 A CN107273909 A CN 107273909A CN 201610218204 A CN201610218204 A CN 201610218204A CN 107273909 A CN107273909 A CN 107273909A
Authority
CN
China
Prior art keywords
mrow
attribute
msub
subspace
classification
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201610218204.1A
Other languages
English (en)
Inventor
李臻
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai wind newspaper Mdt InfoTech Ltd
Original Assignee
Shanghai Boson Data Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Boson Data Technology Co Ltd filed Critical Shanghai Boson Data Technology Co Ltd
Priority to CN201610218204.1A priority Critical patent/CN107273909A/zh
Publication of CN107273909A publication Critical patent/CN107273909A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/24323Tree-organised classifiers

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明提出高维数据的分类算法:本发明提供了高维数据的分类算法:包含有随机森林算法、Fores Texter算法、GW‑SRF算法,层次树中每个节点都能进行学习和多类标预测,父节点学习的预测类标可以传递和继承给子节点,节点间的类标传递模式能够有效地对多类标数据进行分类,并且自动发现类标之间的关系。在多类标数据上的实验结果表明ML‑Tree算法的分类结果明显优于传统算法,设计新颖,是一项很好的设计方案,很有市场推广前景,而且感观性能优。

Description

高维数据的分类算法
技术领域
本发明涉及数据处理领域,尤其高维数据的分类算法。
背景技术
随着互联网和物联网等科学技术的飞速发展,许多实际应用产生的数据规模越来越大,维度越来越高,由于高维数据的普遍性和重要性,研究高维数据挖掘具有非常重要的意义,因而在学术界引起了高维数据挖掘研究热潮的兴起,目前研究的热点主要集中在高维数据分类上,由于受维度效应的影响,许多在低维数据上表现良好的分类方法运用在高维数据上时无法获得好的分类效果,因此,高维数据分类对传统的分类技术而言是新的挑战,高维数据分类具有重要的意义,其能帮助人们自动分类数据所属的类别,譬如,新闻文本的自动分类,基因表达的所属功能的自动判别,网络营销中不同兴趣用户的区分,舆情分析中有用信息的过滤等,然而对于高维数据的分类问题,目前的研究结果和技术还很少,高维数据分类存在许多研究问题需要解决,因此,针对高维数据分类展开研究,主要考虑多噪音属性的高维数据分类问题、多领域转移学习问题、多类标学习问题、多实例多类标学习问题,提出系列算法来解决这四个研究问题,
随机森林是一种高效的分类方法,但是基于随机采样的随机森林方法不能有效处理高维数据的子空间选择问题,因此,本章提出了一种新的分层抽样子空间选择方法,该方法结合了强属性集和弱属性集进行随机森林子空间采样,实验结果证明,分层随机森林方法能够比其他随机森林算法获得更好的分类性能,为高维数据分类提供了一种有效的方法,针对多噪音属性的高维数据分类问题提出了基于分层抽样的随机森林算法,通过总结多噪音属性的高维数据分类研究问题,以及分析随机采样子空间选择方法不足的基础上,提出了研究的分层抽样子空间选择方法,文中针对具体不同的高维数据分类问题,提出了相应的分层抽样随机森林算法,针对多噪音属性的高维数据分类,提出了SRF算法,该方法能够有效处理基因、图像等高维数据分类;针对不平衡文本数据分类,提出了Fores Texter算法,该方法有效提高不平衡数据中小类类别的分类精度;针对全基因组数据分析,提出了GWA-SRF算法,该方法避免了穷举搜素最优子空间大小的计算代价,同时能够自动计算属性重要性和发现与研究疾病相关的重要属性,
随机森林(Random Forest)是一个基于子空间选择构建多个决策树分类器的集成学习方法,大量实验研究已经证明,与传统的决策树等分类算法相比,随机森林具有更强的泛化能力和更好的分类效果,随机森林在生物信息学]和计算机视觉等领域有着广泛的应用,随机森林算法的优化理论研究[80–82]和应用研究已经成为当前数据挖掘的研究热点,随机森林的一个核心步骤是对于每个节点选择不同的属性子空间来构建决策树,目前,研究学者已经提出了不同的子空间选择方法,其中随机选择子空间的策略是最常用的方法,随机森林的分类性能取决于每个决策树的分类准确度,以及多个决策树之间的分类多样性,Breiman分析了随机森林的分类误差,证明了其分类性能
取决于多个决策树的平均强度和平均相关度,Breiman指出随机森林的泛化误差等于决策树平均强度除以平均相关度的平方,高维数据大部分的属性可能与待分类的类别不相关,随机的方法所选择的许多子空间可能并不包含有信息的属性,因此,基于这些子空间中生成的决策树可能会导致其平均强度的减少,从而增加了随机森林的泛化误差界,本章的目的是提出一种分层采样的方法来选择属性子空间,该方法主要是针对高维数据的,其基本思想是引入一个分层变量对数据集的特征属性划分为两组:一组包含强信息的属性,另一组包含弱信息的属性,然后,从每组属性集中各自随机选择一部分属性,以确保能够包含每个属性组有代表性的属性,这种方法可以保证对高维数据选择子空间时,每个子空间能够包含足够的有信息属性,从而提高随机森林对于高维数据的分类性能,
综上所述,特别需要高维数据的分类算法,以满足社会发展的需求。
发明内容
本发明的目的是提供高维数据的分类算法,节点间的类标传递模式能够有效地对多类标数据进行分类,并且自动发现类标之间的关系,在多类标数据上的实验结果表明ML-Tree算法的分类结果明显优于传统算法。
本发明为解决其技术问题所采用的技术方案是:
本发明提供了高维数据的分类算法:包含有随机森林算法、Fores Texter算法、GW-SRF算法;
随机森林是一种决策树集成学习模型,随机森林的算法流程可以描述如下:
1).首先用Bagging抽样方法对训练数据集X进行可放回的采样(Samplewithreplacement),得到K个数据子集{X1,X2,...,XK};
2).对于每一个训练数据子集Xk,使用CART[91]方法构建一个决策树,对于决策树的每个节点,随机从属性空间S中选择p个属性(p≤N)作为一组属性子集(属性子空间),然后根据这p个属性,计算其所有的分裂点的Gini值,其中,最好的分裂点(即最大的Gini准则)将选取作为决策树节点的分裂点,该分裂过程一直迭代直到能够满足停止条件:即所有训练样本都属于同一个类别,或者所有属性都是相同的值,或者训练数据集包含的样本数已经少于设定的阀值nmin;
3).随机森林中的K个决策树h1(X1),h1(X1),h1(X1),h1(X1)都按不剪枝的方式构建,随机森林的分类输出类别由K个决策树集成在一起输出的类别的众数而定;
在理论分析方面,Breiman提出了随机森林的误差界,该误差界是由多样性Correlation(ρ)和强度Strength(s)两个因素决定的,假设X代表训练数据集Y代表学习类标,随机森林的树的数目为K,基于从训练集X抽样得到的Xk构建的第k个决策树为hx(Xk),给定xi∈X,xi关于类别j的out-of-bag值为
其中I(·)是指示函数,Q(xi,j)代表的是没有包含样本xi的决策树中将xi划分为类标
j的比例,根据Q(xi,j),随机森林的强度可以定义如下:
其中n代表样本数,yi代表xi的真实类标,随机森林的相关性可以定义如下:
其中
以及
这里,代表除了正确的类别外得到最多票数的类别,根据随机森林的强度s以及相关度ρ,可以估计其out-of-bag误差界c/s2,计算公式为c/s2=ρ/s2。
优选的,Fores Texter算法文本数据通常用bag of words模型来表示,每一个文本样本表示为一个特征词向量,每一个属性是一个特征词,一个文本样本中只包含一部分少量的特征词,因此,文本数据是高维稀疏的,在处理高维稀疏的文本数据时,大部分特征词是不出现不相关的,因此需要使用特征选择的方法选择与样本相关的特征词,现有研究表明,特征选择方法能够有效提高k NN,LLSF和NaiveBayes算法对高维文本数据的分类精度,Yang和Pedersen实验分析了Information Gain(IG),Mutual Information(MI),和χ2statistics等多种基于文本数据的特征选择方法;
假设T是一个包含N个属性(特征词){t1,t2,...,tN}的属性集,c是一个两类分类问题的正类,A1代表特征词ti和类别c共同出现的次数,A4代表两者ti和c没有共现的次数,A2代表ti出现时候c没有出现的次数,A3代表类别c出现时候ti没有出现的次数,
根据上述(A1,A2,A3,A4)的值,可以将特征词分成两组(一组包含正例属性,另一组包含负例属性),给定一个特征词ti,(A1,A2,A3,A4)代表ti和类标属性Y的关系,可以定义如下指示函数sign(ti,c)来判定特征词ti是正例属性还是负例属性:
当A1A4-A2A3≥0时候,该指示函数的值为正,否则为负,在文献[109]中,Zheng等人结合正例属性和负例属性对不平衡文本数据进行分类,得到了较好的分类效果,进一步提出了基于正例属性和负例属性分布进行分层抽样的方法,该方法使用χ2
统计的方法计算正例属性和负例属性的分布,具体地,特征词ti相对于类别c的χ2统计可以形式化地定义如下:
其中N是所有文本样本数量,基于正例属性和负例属性的χ2分布,可以将属性集T划分为两个子集:Tp和Tn(针对类别c),使得T=Tp∪Tn以及满足:
Tp={ti∈T|sign(ti,c)is positive}
以及
Tn={ti∈T|sign(ti,c)is negative}
假设Np代表Tp的属性数量,Nn代表Tn的属性数量,则所有属性的数量N=Np+Nn,假设Tp中属性为{t1,t2,...,tNp},Tn中属性为{tNp+1,...,tNp+Nn};
定义一个非负φ函数作为评价特征词ti相对于类别c的信息量,φ可以用χ2公式计算,根据φ的计算值,我们可以对正例属性ti∈Tp的φi值进行归一化;
另一方面,负例属性的φ的归一化如下:
归一化后θi的值范围在0到1之间,基于归一化后所得到的权重值,可以对不同特征值根据不同权重值分别对待,其中,权重越大代表该属性与分类任务的相关性越强,在使用分层抽样方法选择一个大小为mtry(>1)的属性子空间是,我们根据属性的权重值分别从正属性集Tp和负属性集Tn中进行加权选择,其中,从Tp和Tn中选择的属性数量与它们的大小成正比,即从Tp中选择mtrys=mtry×NpN个属性,并且从Tn中选择mtryn=mtry-mtrys个属性,然后将选择的属性合并作为随机森林节点中的属性子空间,
基于分层抽样的属性子空间选择方法能够保证子空间中包含来自正属性集合负属性集合的重要属性,基于分层抽样属性子空间选择的过程如下:
(i)将属性集T划分为正属性集Tp和负属性集Tn;
(ii)使用χ2统计作为φ函数计算各个特征词的权重值,对Tp和Tn中属性根据其φ值分别进行归一化;
(iii)从Tp加权抽样mtrys=mtry×NpN个属性,从Tn加权抽样mtryn=mtry-mtrys个属性,然后合并所选择的属性作为随机森林节点上的属性子空间,其中子空间大小为mtry=mtryp+mtryn。
优选的,基于分层抽样的子空间选择方法首先把属性集分成多个属性子集,假设属性子集的数量为:
gtry,在每个属性子集中选择的属性数量为vtry,其中vtry=log2N+1,假设属性集包含N个特征属性{X1,X2,...,XN},属性集用A表示,Y是类别属性,考虑一个非负函数φi,该函数度量属性Xi相对于类别Y的信息值,使用χ2统计或信息增益计算φ,χ2统计和信息增益可以形式化地定义如下:
其中,O(x,y)和E(x,y)是X=x和Y=y共现的观察值和期望值;
其中p(x)和p(y)是先验概率值,p(y|x)是Y=y和A=x的条件概率,然后根据φi的值归一化并计算θi,使其取值范围在0到1之间;
归一化后的θi值作为属性Xi在属性集A中的相对信息值;
我们通过设计一种等宽信息量的离散散化方法将属性集A划分为多个属性子集A1∪A2∪...∪Agtry=A,其中属性子集的数量为gtry,每个子集中包含的属性信息和是等量的,每个属性Xi划分到一个分组中,使得假设分层抽样方法选择属性子空间时,可以从每个属性子集选择vtry个属性,然后合并所选择的属性组成一个大小为mtry=gtry×vtry的属性子空间,其中,设置vtry为默认值log2N+1,从而保证从每个属性子集中都抽取一定数量的属性。
优选的,分层抽样的子空间选择与子空间多样性假设A是一组包含N个属性的属性集{A1,A2,···,AN},用属性空间S来描述,设Y是类别属性,可以用一个非负函数φ来衡量类别属性Y与输入属性Ai之间信息值:
其中,θi是属性Ai在整个属性集A中的相对信息值,它的值在0和1之间,如果θi的值大(小),代表Ai是强(弱)信息的属性,基于θi的值,将属性集A划分为两个分组As和Aw,划分步骤如下:(i)根据{θi}值对属性集A进行降序排列;(ii)设定一个α阀值将属性集A划分为两个分组,A=As∪Aw,其中以及As={Ai∈A|θi<α}and Aw={Ai∈A|θi≥α},将属性集A划分为As和Aw后,使用分层抽样的方法分别从两个分组中随机选择属性构成一个属性子空间,子空间所包含属性数量为p(>1),从As和Aw中分别选择的属性的数量与As与Aw所包含的属性数量成正比,也就是说,随机从强属性集As中选择ps=p×NsN个属性,其中Ns是强属性集Aw的属性数量而N是所有属性的数量,同时,从弱属性集Aw中选择pw=p-ps个属性,然后,合并所选择的p个属性作为决策树节点中所用的属性子空间集,对于包含大量无信息噪音属性的高维数据来说,分层抽样的方法子空间选
择能够比完全随机的子空间选择方法获得更加准确的建树效果,接下来对分层抽样选择的子空间多样性进行分析研究,假设As和Aw中包含的属性数量分别为Ns和Nw,并且Ns+Nw=N,其中N是整个属性集A中的属性数量,从As中选择ps个属性,不同的选择组合数为
而从Aw中选择pw个属性,不同的选择组合数为:
通过从As和Aw中随机选择属性构建属性子空间,子空间的多样性C代表不同子空间组合数,可以用通过以下公式计算:
如果Ns<<N,子空间的多样性可以表示为
上述公式表明,子空间的多样性随着p和ps增加而增加,分层抽样的方法能够保证足够的子空间多样性,例如假设所有的属性数量是N=100,强信息属性的数量为Ns=50,如果选择的子空间属性数量为10,其中强信息属性的数量为5,那么不同的子空间的数量会有40亿,如果选择的子空间属性数量为p=int(log2(N)+1)=7(如文献[75]中的建议值),其中int(x)是大于x的第一个整数值,那么不同的子空间的数量也将达到有3亿。
优选的,多变量决策树由于CART决策树所使用的单变量Gini分裂准则不能有效的处理不平衡文本数据,采用多变量分裂准则的多变量决策树作为构建随机森林的基础分类器,传统随机森林使用的单变量决策树分类器产生的是于数据空间垂直的决策平面,而多变量决策树能够产生的是于数据空间倾斜的(任意方向)决策平面;
选择SVM的主要原因是现有研究已经表明SVM方法能够有效地处理文本数据,在文本数据上有较好的分类效果,采用SVMs作为多变量分裂准则构建多变量分类器主要有两方面的优点,一方面是SVM能够处理高维数据,SVM能够不受数据维度的影响,结合SVM的随机森林算法能够在处理高维数据上有更好的泛化能力,另一方面,大部分文本分类问题是线性可分的[113],而SVM是处理线性可分的文本数据上有很好的性能;
在多变量决策树的每个节点中,通过构建一个SVM分类器来学习一个将数据划分到子节点的决策平面,每个数据样本根据SVM分类器的结果划分到相关性最大的子节点上,对未知类别的测试样本进行分类时,每个多变量决策树输出该样本与类别的相关概率结果,该相关概率值由从根节点到叶子节点的决策路径上每个SVM分类器的分类概率输出结果联合计算产生,具体而言,假设N该决策路径上的节点集合,Probn(xific)是节点n上样本xi对学习类别c的分类概率输出结果,则多变量决策树对测试样本xi的概率输出结果为
Fores Texter方法是集成多个多变量决策树的随机森林方法,假设训练数据集为D,属性集T={t1,t2,...,tN}包含N个特征词,Fores Texter的算法流程如下所示:
1.将属性集T划分为正属性集Tp和负属性集Tn;
2.用Bagging抽样方法生成K个数据子集{D1,D2,...,DK};
3.每一个子集Di,构建一个多变量决策树hi(Di),在每个节点中,首先忽略样本中没有出现的特征词,从出现的特征词中加权抽样mtry(>1)个特征词,其中mtryp个正属性,mtryn个负属性;在每个节点上学习一个SVM分类器将样本划分到子节点,递归上述过程直到满足以下停止条件:所有数据的类标都相同或者所有数据的SVM分类结果都相同;
4.将K个未剪枝多变量决策树h1(D1),h2(D2),...,hK(DK)合并集成为随机森林,使用集成投票方法做分类决策;
假设数据集大小为M,属性数量为N,计算代价为O(MN),构建多变量决策树分类器需要在每个节点上学习一个SVM分类器,SVM分类的计算复杂度为O(m3),基于SVM实现计算代价接近O(m2),其中m是节点中训练样本数量m<<M,假设多变量决策树的高度为h,则决策树的节点数量为O(2h)(假设决策树为二叉树),因此,构建多变量决策树的计算代价为O(m22h)≈O(M22h),通常情况下,h大约等于O(√M),因此,构建一个SVM多变量决策树的代价为O(M22√M),构建包含K个决策树的随机森林的代价为O(KM22√M)。
本发明的优点在于,层次树中每个节点都能进行学习和多类标预测,父节点学习的预测类标可以传递和继承给子节点,节点间的类标传递模式能够有效地对多类标数据进行分类,并且自动发现类标之间的关系。在多类标数据上的实验结果表明ML-Tree算法的分类结果明显优于传统算法,设计新颖,是一项很好的设计方案,很有市场推广前景,而且感观性能优。
附图说明
下面结合附图和具体实施方式来详细说明本发明:
图1是本发明的模块图;
具体实施方式
为了使本发明实现的技术手段、创作特征、达成目的与功效易于明白了解,下面结合图示与具体实施例,进一步阐述本发明,
参见图1,本发明本发明提供了高维数据的分类算法:包含有随机森林算法、ForesTexter算法、GW-SRF算法;
随机森林是一种决策树集成学习模型,随机森林的算法流程可以描述如下:
1).首先用Bagging抽样方法对训练数据集X进行可放回的采样(Samplewithreplacement),得到K个数据子集{X1,X2,...,XK};
2).对于每一个训练数据子集Xk,使用CART[91]方法构建一个决策树,对于决策树的每个节点,随机从属性空间S中选择p个属性(p≤N)作为一组属性子集(属性子空间),然后根据这p个属性,计算其所有的分裂点的Gini值,其中,最好的分裂点(即最大的Gini准则)将选取作为决策树节点的分裂点,该分裂过程一直迭代直到能够满足停止条件:即所有训练样本都属于同一个类别,或者所有属性都是相同的值,或者训练数据集包含的样本数已经少于设定的阀值nmin;
3).随机森林中的K个决策树h1(X1),h1(X1),h1(X1),h1(X1)都按不剪枝的方式构建,随机森林的分类输出类别由K个决策树集成在一起输出的类别的众数而定;
在理论分析方面,Breiman提出了随机森林的误差界,该误差界是由多样性Correlation(ρ)和强度Strength(s)两个因素决定的,假设X代表训练数据集Y代表学习类标,随机森林的树的数目为K,基于从训练集X抽样得到的Xk构建的第k个决策树为hx(Xk),给定xi∈X,xi关于类别j的out-of-bag值为
其中I(·)是指示函数,Q(xi,j)代表的是没有包含样本xi的决策树中将xi划分为类标
j的比例,根据Q(xi,j),随机森林的强度可以定义如下:
其中n代表样本数,yi代表xi的真实类标,随机森林的相关性可以定义如下:
其中
以及
这里,代表除了正确的类别外得到最多票数的类别,根据随机森林的强度s以及相关度ρ,可以估计其out-of-bag误差界c/s2,计算公式为c/s2=ρ/s2。
优选的,Fores Texter算法文本数据通常用bag of words模型来表示,每一个文本样本表示为一个特征词向量,每一个属性是一个特征词,一个文本样本中只包含一部分少量的特征词,因此,文本数据是高维稀疏的,在处理高维稀疏的文本数据时,大部分特征词是不出现不相关的,因此需要使用特征选择的方法选择与样本相关的特征词,现有研究表明,特征选择方法能够有效提高k NN,LLSF和NaiveBayes算法对高维文本数据的分类精度,Yang和Pedersen实验分析了Information Gain(IG),Mutual Information(MI),和χ2statistics等多种基于文本数据的特征选择方法;
假设T是一个包含N个属性(特征词){t1,t2,...,tN}的属性集,c是一个两类分类问题的正类,A1代表特征词ti和类别c共同出现的次数,A4代表两者ti和c没有共现的次数,A2代表ti出现时候c没有出现的次数,A3代表类别c出现时候ti没有出现的次数,
根据上述(A1,A2,A3,A4)的值,可以将特征词分成两组(一组包含正例属性,另一组包含负例属性),给定一个特征词ti,(A1,A2,A3,A4)代表ti和类标属性Y的关系,可以定义如下指示函数sign(ti,c)来判定特征词ti是正例属性还是负例属性:
当A1A4-A2A3≥0时候,该指示函数的值为正,否则为负,在文献[109]中,Zheng等人结合正例属性和负例属性对不平衡文本数据进行分类,得到了较好的分类效果,进一步提出了基于正例属性和负例属性分布进行分层抽样的方法,该方法使用χ2
统计的方法计算正例属性和负例属性的分布,具体地,特征词ti相对于类别c的χ2统计可以形式化地定义如下:
其中N是所有文本样本数量,基于正例属性和负例属性的χ2分布,可以将属性集T划分为两个子集:Tp和Tn(针对类别c),使得T=Tp∪Tn以及满足:
Tp={ti∈T|sign(ti,c)is positive}
以及
Tn={ti∈T|sign(ti,c)is negative}
假设Np代表Tp的属性数量,Nn代表Tn的属性数量,则所有属性的数量N=Np+Nn,假设Tp中属性为{t1,t2,...,tNp},Tn中属性为{tNp+1,...,tNp+Nn};
定义一个非负φ函数作为评价特征词ti相对于类别c的信息量,φ可以用χ2公式计算,根据φ的计算值,我们可以对正例属性ti∈Tp的φi值进行归一化;
另一方面,负例属性的φ的归一化如下:
归一化后θi的值范围在0到1之间,基于归一化后所得到的权重值,可以对不同特征值根据不同权重值分别对待,其中,权重越大代表该属性与分类任务的相关性越强,在使用分层抽样方法选择一个大小为mtry(>1)的属性子空间是,我们根据属性的权重值分别从正属性集Tp和负属性集Tn中进行加权选择,其中,从Tp和Tn中选择的属性数量与它们的大小成正比,即从Tp中选择mtrys=mtry×NpN个属性,并且从Tn中选择mtryn=mtry-mtrys个属性,然后将选择的属性合并作为随机森林节点中的属性子空间,
基于分层抽样的属性子空间选择方法能够保证子空间中包含来自正属性集合负属性集合的重要属性,基于分层抽样属性子空间选择的过程如下:
(i)将属性集T划分为正属性集Tp和负属性集Tn;
(ii)使用χ2统计作为φ函数计算各个特征词的权重值,对Tp和Tn中属性根据其φ值分别进行归一化;
(iii)从Tp加权抽样mtrys=mtry×NpN个属性,从Tn加权抽样mtryn=mtry-mtrys个属性,然后合并所选择的属性作为随机森林节点上的属性子空间,其中子空间大小为mtry=mtryp+mtryn。
优选的,基于分层抽样的子空间选择方法首先把属性集分成多个属性子集,假设属性子集的数量为:
gtry,在每个属性子集中选择的属性数量为vtry,其中vtry=log2N+1,假设属性集包含N个特征属性{X1,X2,...,XN},属性集用A表示,Y是类别属性,考虑一个非负函数φi,该函数度量属性Xi相对于类别Y的信息值,使用χ2统计或信息增益计算φ,χ2统计和信息增益可以形式化地定义如下:
其中,O(x,y)和E(x,y)是X=x和Y=y共现的观察值和期望值;
其中p(x)和p(y)是先验概率值,p(y|x)是Y=y和A=x的条件概率,然后根据φi的值归一化并计算θi,使其取值范围在0到1之间;
归一化后的θi值作为属性Xi在属性集A中的相对信息值;
我们通过设计一种等宽信息量的离散散化方法将属性集A划分为多个属性子集A1∪A2∪...∪Agtry=A,其中属性子集的数量为gtry,每个子集中包含的属性信息和是等量的,每个属性Xi划分到一个分组中,使得假设分层抽样方法选择属性子空间时,可以从每个属性子集选择vtry个属性,然后合并所选择的属性组成一个大小为mtry=gtry×vtry的属性子空间,其中,设置vtry为默认值log2N+1,从而保证从每个属性子集中都抽取一定数量的属性。
优选的,分层抽样的子空间选择与子空间多样性假设A是一组包含N个属性的属性集{A1,A2,···,AN},用属性空间S来描述,设Y是类别属性,可以用一个非负函数φ来衡量类别属性Y与输入属性Ai之间信息值:
其中,θi是属性Ai在整个属性集A中的相对信息值,它的值在0和1之间,如果θi的值大(小),代表Ai是强(弱)信息的属性,基于θi的值,将属性集A划分为两个分组As和Aw,划分步骤如下:(i)根据{θi}值对属性集A进行降序排列;(ii)设定一个α阀值将属性集A划分为两个分组,A=As∪Aw,其中以及As={Ai∈A|θi<α}and Aw={Ai∈A|θi≥α},将属性集A划分为As和Aw后,使用分层抽样的方法分别从两个分组中随机选择属性构成一个属性子空间,子空间所包含属性数量为p(>1),从As和Aw中分别选择的属性的数量与As与Aw所包含的属性数量成正比,也就是说,随机从强属性集As中选择ps=p×NsN个属性,其中Ns是强属性集Aw的属性数量而N是所有属性的数量,同时,从弱属性集Aw中选择pw=p-ps个属性,然后,合并所选择的p个属性作为决策树节点中所用的属性子空间集,对于包含大量无信息噪音属性的高维数据来说,分层抽样的方法子空间选
择能够比完全随机的子空间选择方法获得更加准确的建树效果,接下来对分层抽样选择的子空间多样性进行分析研究,假设As和Aw中包含的属性数量分别为Ns和Nw,并且Ns+Nw=N,其中N是整个属性集A中的属性数量,从As中选择ps个属性,不同的选择组合数为
而从Aw中选择pw个属性,不同的选择组合数为:
通过从As和Aw中随机选择属性构建属性子空间,子空间的多样性C代表不同子空间组合数,可以用通过以下公式计算:
如果Ns<<N,子空间的多样性可以表示为
上述公式表明,子空间的多样性随着p和ps增加而增加,分层抽样的方法能够保证足够的子空间多样性,例如假设所有的属性数量是N=100,强信息属性的数量为Ns=50,如果选择的子空间属性数量为10,其中强信息属性的数量为5,那么不同的子空间的数量会有40亿,如果选择的子空间属性数量为p=int(log2(N)+1)=7(如文献[75]中的建议值),其中int(x)是大于x的第一个整数值,那么不同的子空间的数量也将达到有3亿。
基于分层抽样方法所提出的分层随机森林算法(Stratified Random Forest或者SRF)可以总结如下:
1.对于每一个属性Ai,用一个非负计算函数φ计算Ai的信息值φi,然后将所得的值根据公式2-1归一化得到θi;
2.指定一个分层划分阀值α将属性集A划分为两个分组As和Aw;
3.使用Bagging方法[91]产生K个训练数据子集{X1,X2,...,XK};
4.根据每个训练数据子集Xi构建一个决策树分类器hi(Xi)。在每个节点中,根据比例分别从As和Aw中随机抽取属性构成一个大小为p(>1)的属性子空间。基于子空间的属性值得到一个布尔测试函数τ将训练数据划分为左孩子节点与右孩子节点。迭代该过程直到满足以下停止条件:所有的数据都是属于同一个类别,或者每个属性都有相同的值,或训练数据数量小于一个最小值nmin;
5.集成K个未剪枝的决策树分类器h1(X1),h2(X2),...,hK(XK)成为一个随机森林,使用多个决策树集成投票策略作为随机森林的分类决策方法。
在SRF算法中,用一个信息函数φ来评价一个属性的信息值。一个属性Ai的信息量φi可以使用Fisher判别方法来计算,将训练数据往特征空间上最佳方向进行投影,即基于类别属性y和输入属性x=(x1,...,xN)计算s=wTx,其中w=(w1,...,wN)代表投影的权重。当一个属性对于分类重要(不重要)的时候,对应会得到大(小)的权重值。因此使用wi的绝对值作为特征Ai的信息值φi[94]。
根据φi和归一化后得到的θi值,可以通过使随机森林泛化误差最小化的策略PE*≤-ρ(1-s2)/s2[75]来计算分层划分的参数阀值α。为了提高计算效率,SRF采用了{θi}的平均值作为分层划分的阀值。
在随机森林中,每个决策树分类器都是自顶而下的方式构建。在每一个节点,通过分层采样方法选择子空间,然后基于子空间属性的值得到一个布尔测试值w Tx≤τ或wTx>τ将训练数据集分裂到孩子节点上,其中τ是不同类别的训练样本在投影后的平均值,也就是τ=1CC∑i=1~mi,其中C是类别数量,~mi是类别为ci的样本投影后的均值。
综上所述,SRF算法中共有三个参数:属性子空间大小p,决策树数量K,节点最少训练样本数(nmin)。在文献[75]中,K通常设为100,nmin设为1。对于高维数据,需要构建更多决策树分类器来获得更优分类结果,因此使用K=500,nmin=1作为SRF算法默认参数设置。子空间大小p是一个调整随机森林模型所构建的决策树强度和随机性的控制参数,如果p=N,子空间包含数据集所有属性,每个决策树等价于传统CART决策树分类器,产生的决策树之间的多样性最小。如果p=1,得到的是完全随机的决策树分类器。在文献[75]中,Breiman建议使用p=int(log2N+1),其中int(x)指第一个大于x的整数。在本章实验中,将分析研究不同p参数值设置对于算法性能的影响。
假设有M个训练样本,N个特征属性,以及子空间大小为p(p<<N)。在最坏的情况下,使用多变量LDA作为分裂策略构建一个决策树分类器的计算复杂度为O(p M2)。如文献[75]中设置子空间大小p=int(log2N+1),则所需计算复杂度为O(log(N)M2)。更确切地说,需要在每个节点上计算一个训练数据集为M′×p的最小二乘结果,使用文献[95]中介绍的线性计算方法的复杂度为O(p M′),其中M′是在节点中的训练样本的数量。粗略地说,构建决策树中同一层的所有树节点的计算复杂度为O(log(N)M)。假设树的高度为h,构建整个决策树的复杂度为O(log(N)Mh)。在所构建的决策树结构极度不平衡的特殊情况下,树的高度h≈O(M),对应构建树的复杂度为O(log(N)M2)。对于一个平衡的决策树h≈O(log n),则构建树的复杂度为O(log(n N)M)。
在SRF算法中,构建决策树分类器前需要先对属性进行分层划分,也可以在每一个节点中重新计算强/弱属性的值。该过程代表每个节点上属性的强/弱特质,通过学习每个节点上的训练数据的新分布特征得到新的分层属性划分。值得注意的是,每个节点上重新计算分层划分需要增加额外的计算复杂度O(M′N),其中M′是节点中训练样本数量。
对于高维数据,在随机森林构建决策树分类器前对特征属性集预先进行分层划分能够保证算法高效性。但这种预先计算方法并不能有效处理属性之间的相互作用,每一个节点上进行数据分裂后,属性的信息值会因为相互作用而发生变化。预计算分层划分的方法忽视了这种相互作用和信息值更新的要素。由于每个属性的信息值在建树过程的不同节点上是不断更新变化的,而每个节点上的分层抽样还是使用预先计算的信息值来选择子空间。因此,这种方法导致随机森林的性能下降。一种非常直观而且有用的解决方法来解决这个问题就是在每个节点的数据分裂后重新计算属性的信息值,然后将属性划分强/弱信息分组。在本章实验中,对预先计算属性分组和重复计算属性分组这两种不同的策略对SRF算法的影响进行实验对比,实验的结果说明了这两种方法的优缺点。
为验证本章提出的分层抽样随机森林SRF算法的性能,选取了9个人工数据集、12个基因数据集和4个图像数据集进行实验。这些数据集都是高维数据。最近Garuana等[1]在多个标准数据上对不同的分类算法(SVM,ANN,LR,NB,KNN,RF,Bagging,Boosted Trees,PRC)进行了对比实验。实验结果表明支持向量机SVM和随机森林RF是性能最好、泛化能力最强的两个算法。因此,实验使用的对比方法包括SVM、最近邻(NN)、朴素贝叶斯(NB)以及不同的随机森林方法Random Forest(RF)、Extremely Randomize Tree(ERT)、EnrichRandomForest(Enrich-RF)和Oblique Random Forest(Oblique-RF)。
下面介绍实验中不同算法的参数设置:SVM使用Lib SVM1的线性核实现作为核函数,其中线性核的正则参数C的选择范围从2-5到215,实验中通过交叉验证选择C的最优值。对于不同的随机森林算法,在构建决策树集成时,使用CART作为决策树方法,构建的树数目为500,选择的子空间的属性数目为log2N+1。另外,对于不同的子空间属性数目、树深度、建树数目选择的影响也都进行了实验分析。对于最近邻方法,使用余弦距离作为距离公式。朴素贝叶斯方法的实现使用的是ICCV图像分类的开源代码2。
实验使用错误率ERR(Test Error)和ROC曲线下面积AUC(Area Under theROCCurve)作为算法的性能验证指标。AUC的定义是针对两类分类问题的,Hand和Till[96]提出AUC的在多类问题的计算方法。多类AUC由多个两类AUC的来计算,其计算公式定义如下:
其中|C|表示的是类别的数目,AUC(ci,cj)是ci和cj两类AUC的结果。
实验中所用的人工高维数据集由有信息属性和大量噪音属性构成。我们基于UCI标准数据集构建人工数据集。所构建的人工数据集包含A和B两部分属性。A表示UCI标准数据集的原有属性集,B代表人工生成的噪音属性集。在实验中,通过改变B所包含的噪音属性数量从而考虑不同的噪音属性的影响。具体的,噪音属性集B通过参数k来控制:|B|=k|A|,噪音属性B随着k增大而增加。
本实验所用人工数据,随机抽取90%作为训练集,剩下的10%作为测试集。基于训练集可以估计随机森林的out-of-bag强度、相关度、误差界,基于测试集可以计算不同算法的错误率ERR和ROC下面积AUC。
在本实验中,通过分层抽样随机森林(Stratified-RF或SRF),传统随机森林(Random Forest或RF),完全随机森林(Extremely-RT或ERT)三种方法的比较来验证SRF算法在人工数据集上的性能。三种算法的out-of-bag强度(Strength)与不同噪音属性数量,x-轴代表生成噪音属性数量的乘积因子k,y-轴代表随机森林的分类强度。当数据集所包含的噪音属性较少时,三种不同随机森林方法的强度值非常接近。但是随着噪音属性的增加,RF方法与ERT方法的强度值迅速地降低。而提出的分层抽样随机森林方法能够保持稳定的分类强度。分层随机森林方法能够有效地提高随机森林的强度并且保持较好的相关度。不同随机森林算法在四个人工数据集上3的误差界。看出几乎所有的SRF方法的误差界都比RF和ERT方法的误差界要低。随着噪音数据的增加,SRF的误差界并没有显著变化。图中结果表明了SRF方法能够有效降低高维数据的随机森林的误差界。不同随机森林算法的错误率的结果。结果可以看到SRF方法能够在高维数据上获得比传统随机森林更优的分类性能,而且分类性能的提高随着噪音数据的增加而逐渐增大。
基因数据是常见的高维数据,并且基因数据往往包含大量噪音属性却只有非常少量的训练样本。本实验所采用的12个标准基因数据集所示。表中数据集分为两部分,第一部分包括四个两类分类问题,第二部分包含八个多类分类问题。这12个数据集有2至26个不同类别,60至308个样本以及2000至16,063个特征属性。这些基因数据的特征数目是样本数目的数倍。
在本实验中,随机森林子空间的属性数目p是通过乘积因子k来控制的。实验中子空间的属性数目设定为p=k(log2N+1),其中k取值范围从5到50以5为单位不断增加。实验中比较了三种不同随机森林算法在不同子空间大小p的取值,可以看出SRF方法的比RF方法和ERT方法有更好的AUC结果。由此可见,SRF方法能够在高维基因数据上有较好的分类性能,并且在不同的子空间大小条件下都能获得比RF方法和ERT方法更优的结果。
优选的,多变量决策树由于CART决策树所使用的单变量Gini分裂准则不能有效的处理不平衡文本数据,采用多变量分裂准则的多变量决策树作为构建随机森林的基础分类器,传统随机森林使用的单变量决策树分类器产生的是于数据空间垂直的决策平面,而多变量决策树能够产生的是于数据空间倾斜的(任意方向)决策平面;
选择SVM的主要原因是现有研究已经表明SVM方法能够有效地处理文本数据,在文本数据上有较好的分类效果,采用SVMs作为多变量分裂准则构建多变量分类器主要有两方面的优点,一方面是SVM能够处理高维数据,SVM能够不受数据维度的影响,结合SVM的随机森林算法能够在处理高维数据上有更好的泛化能力,另一方面,大部分文本分类问题是线性可分的[113],而SVM是处理线性可分的文本数据上有很好的性能;
在多变量决策树的每个节点中,通过构建一个SVM分类器来学习一个将数据划分到子节点的决策平面,每个数据样本根据SVM分类器的结果划分到相关性最大的子节点上,对未知类别的测试样本进行分类时,每个多变量决策树输出该样本与类别的相关概率结果,该相关概率值由从根节点到叶子节点的决策路径上每个SVM分类器的分类概率输出结果联合计算产生,具体而言,假设N该决策路径上的节点集合,Probn(xific)是节点n上样本xi对学习类别c的分类概率输出结果,则多变量决策树对测试样本xi的概率输出结果为
Fores Texter方法是集成多个多变量决策树的随机森林方法,假设训练数据集为D,属性集T={t1,t2,...,tN}包含N个特征词,Fores Texter的算法流程如下所示:
1.将属性集T划分为正属性集Tp和负属性集Tn;
2.用Bagging抽样方法生成K个数据子集{D1,D2,...,DK};
3.每一个子集Di,构建一个多变量决策树hi(Di),在每个节点中,首先忽略样本中没有出现的特征词,从出现的特征词中加权抽样mtry(>1)个特征词,其中mtryp个正属性,mtryn个负属性;在每个节点上学习一个SVM分类器将样本划分到子节点,递归上述过程直到满足以下停止条件:所有数据的类标都相同或者所有数据的SVM分类结果都相同;
4.将K个未剪枝多变量决策树h1(D1),h2(D2),...,hK(DK)合并集成为随机森林,使用集成投票方法做分类决策;
假设数据集大小为M,属性数量为N,计算代价为O(MN),构建多变量决策树分类器需要在每个节点上学习一个SVM分类器,SVM分类的计算复杂度为O(m3),基于SVM实现计算代价接近O(m2),其中m是节点中训练样本数量m<<M,假设多变量决策树的高度为h,则决策树的节点数量为O(2h)(假设决策树为二叉树),因此,构建多变量决策树的计算代价为O(m22h)≈O(M22h),通常情况下,h大约等于O(√M),因此,构建一个SVM多变量决策树的代价为O(M22√M),构建包含K个决策树的随机森林的代价为O(KM22√M)。
在实验中对比了Fores Texter与传统的随机森林算法(RF)和SVM算法在三个不平衡文本数据集上的分类性能,其中,SVM算法在文本分类中已经被广泛使用[8,113]。另外,还与基于采样方法的RF和SVM方法进行了比较实验,包括使用下采样的随机森林(Undersampling RF)和过采样的SVM(Oversampling SVM)。Undersampling方法是通过删除大类类别的样本使得大类和小类的样本数量保持平衡,而Oversampling方法是通过复制小类类别的样本使得大类和小类的样本数量保持平衡。
在实验中使用Lib SVM10的线性核SVM算法实现。其中惩罚项C的取值范围从2-5到215,通过3-折交叉验证来选择最优的C值。在Fores Texter算法中,使用χ2统计作为分层抽样随机森林子空间的加权函数,每个节点中的线性核SVM使用默认参数设置C=1.0。RF和Fores Texter中的其它参数采用文献[2]中的推荐参数设置,即决策树的数量为K=100,子空间的大小为mtry=N/10。
在不平衡数据分类中,分类正确率并不适合作为评价的指标。现有研究表
明,AUC是不平衡数据和代价敏感问题的可靠评价指标[118],因此,实验中采用Area Under the Receiver Operating Characteristic Curve(AUC)[119]作为不平衡数据的实验评价指标。
假设对于类别c的两类分类问题的输出为B(tp,f p)。其中tp(true positive)代表了文档正确分类为c的比率
另一方面,f p(false positive)代表属于-c的文档被错误分类为c的比率
ROC曲线是基于t p和f p的二维图。其中f p为x轴,t p为y轴。通过设置不同的分类决策阀值得到不同的B(tp,f p)结果,该结果对应图中的一个数据点。通过设置分类决策阀值的范围从-∞到+∞可以得到ROC空间的ROC曲线。The areaunder the ROC curve(AUC)可以用于评价学习算法的分类性能,AUC作为一种可靠的评价指标,已经广泛地使用在不平衡分类问题上。
在简单随机抽样(RS)方法中,假设N代表所有属性数量,随机抽样的子空间大小为gtry
×vtry(与分层抽样的子空间大小相同)。随机采样的属性信息方差为:
其中
是总体信息的方法,θi是属性信息值,-θ是所有属性的信息均值。在分层抽样(SS)方法中,假设N1,N2,···,Ngtry代表分层抽样中每个属性子集。分层抽样均值其中θh是第h个属性分组的信息均值。由于每个分组都是独立采样,采样的信息方差
其中在第h个分组中的信息方差,θh,i是第h个分组中第i个
属性信息值,第h个分组的信息均值,代表最大属性子集大小,可以得到:
以及
因此,两种采样方法(随机采样和分层采样)所得到的方差的差值为
由于每个属性子集选择属性数量一定比所有选择的属性数量少,所以公式中第二项总是正数。根据以上公式可得,gtry参数设定不能太大,否则公式中第一项可能为负数。另一方面,当gtry增大时,S 2h和(-θh--θ)2的值变小。随机森林构建的时间也会增加。因此,设log2N+1为gtry的默认值。
针对多噪音属性的高维数据分类问题,提出了基于分层抽样的随机森林子空间选择方法。针对不同高维数据类型上的分类问题。通过随机森林为载体提出一系列的分层抽样随机森林算法。针对高噪音属性数据分类,提出了SRF算法。该方法能够有效提高包含大量噪音属性的高维数据的分类精度。针对不平衡文本数据分类,提出了Fores Texter算法。该方法能够有效提高不平衡数据中小样本类别的分类精度。针对全基因组数据分析,提出了GWA-SRF算法。该方法能够有效避免穷举搜素最优子空间大小的计算代价,并且自动计算属性重要性,发现与研究疾病相关的重要属性。这些方法的提出为高维数据分类带来更多更好的选择。
针对高维数据的多领域转移学习,提出了基于联合马尔可夫链的MT-Learn算法。该算法通过构建相同样本空间内的样本相似性关系,以及不同样本空间之间的样本相似性关系,将所有样本关联在一个联合马尔可夫链的转移概率图中进行随机游走,最后得到一个稳态概率集合,该集合代表不同样本空间中各个学习任务的分类结果。从理论上分析证明了MT-Learn算法解的存在性、唯一性以及求解算法收敛性。在图像和文本数据上的实验结果表明MT-Learn算法能够在多领域转移学习问题上获得较好的分类精度。
针对多类标学习问题,提出了基于层次树模型的ML-Tree算法。该算法的特点包括以下三方面:
1)层次树中每个节点都能进行学习和多类标预测;
2)父节点学习的预测类标可以传递和继承给子节点;
3)节点间的类标传递模式能够有效地对多类标数据进行分类,并且自动发现类标之间的关系。在多类标数据上的实验结果表明ML-Tree算法的分类结果明显优于传统算法。
针对多实例多类标学习问题,提出了基于马尔可夫链模型的Markov-MIML算法。该算法通过实例与实例之间相似性关系,以及对象与实例之间从属关系进行学习,推衍出对象与对象之间相似性关系。算法中通过构建马尔可夫链模型将所有对象关联在一个马尔科夫链的转移概率图中进行随机游走,最后得到一个稳态概率分布。该分布代表多实例多类标对象的类标排序结果。从理论上分析了Markov-MIML算法解的存在性、唯一性以及求解算法收敛性。在图像和文本数据集上的实验结果表明Markov-MIML算法能够优于传统MIML算法。总体而言,围绕多噪音属性的高维数据分类、多领域转移学习、多类标学习、多实例多类标学习这四个研究问题,提出了SRF算法,MT-Learn算法,ML-Tree算法和Markov-MIML算法。的研究将推动高维数据分类研究的进一步发展,并且有望为高维数据研究带来新方向。以高维数据为研究对象,具体针对高维数据的分类问题展开研究。在多噪音属性的高维数据分类方面,考虑分层抽样的随机森林方法,提出SRF算法;在多领域转移学习分类方面、提出MT-Learn算法;在多类标分类方面,提出ML-Tree算法;在多实例多类标分类方面,提出Markov-MIML算法。对于每个算法,结合相应的理论基础,从高维数据分类实际问题出发,提出相应的分类算法,研究算法的理论基础,结合两者给出解决方法。
以上显示和描述了本发明的基本原理、主要特征和本发明的优点,本行业的技术人员应该了解,本发明不受上述实施例的限制,上述实施例和说明书中描述的只是说明本发明的原理,在不脱离本发明精神和范围的前提下本发明还会有各种变化和改进,这些变化和改进都落入要求保护的本发明范围内,本发明要求保护范围由所附的权利要求书及其等同物界定。

Claims (5)

1.高维数据的分类算法:其特征在于:本发明提供了高维数据的分类算法:包含有随机森林算法、Fores Texter算法、GW-SRF算法;
随机森林是一种决策树集成学习模型,随机森林的算法流程可以描述如下:
1).首先用Bagging抽样方法对训练数据集X进行可放回的采样(Samplewithreplacement),得到K个数据子集{X1,X2,...,XK};
2).对于每一个训练数据子集Xk,使用CART[91]方法构建一个决策树,对于决策树的每个节点,随机从属性空间S中选择p个属性(p≤N)作为一组属性子集(属性子空间),然后根据这p个属性,计算其所有的分裂点的Gini值,其中,最好的分裂点(即最大的Gini准则)将选取作为决策树节点的分裂点,该分裂过程一直迭代直到能够满足停止条件:即所有训练样本都属于同一个类别,或者所有属性都是相同的值,或者训练数据集包含的样本数已经少于设定的阀值nmin;
3).随机森林中的K个决策树h1(X1),h1(X1),h1(X1),h1(X1)都按不剪枝的方式构建,随机森林的分类输出类别由K个决策树集成在一起输出的类别的众数而定;
在理论分析方面,Breiman提出了随机森林的误差界,该误差界是由多样性Correlation(ρ)和强度Strength(s)两个因素决定的,假设X代表训练数据集Y代表学习类标,随机森林的树的数目为K,基于从训练集X抽样得到的Xk构建的第k个决策树为hx(Xk),给定xi∈X,xi关于类别j的out-of-bag值为
<mrow> <mi>Q</mi> <mrow> <mo>(</mo> <msub> <mi>x</mi> <mi>i</mi> </msub> <mo>,</mo> <mi>j</mi> <mo>)</mo> </mrow> <mo>=</mo> <mfrac> <mrow> <msubsup> <mi>&amp;Sigma;</mi> <mrow> <mi>k</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>K</mi> </msubsup> <mi>I</mi> <mrow> <mo>(</mo> <msub> <mi>h</mi> <mi>x</mi> </msub> <mo>(</mo> <msub> <mi>x</mi> <mi>i</mi> </msub> <mo>)</mo> <mo>=</mo> <mi>j</mi> <mo>;</mo> <mi>x</mi> <mo>&amp;NotElement;</mo> <msub> <mi>X</mi> <mi>k</mi> </msub> <mo>)</mo> </mrow> </mrow> <mrow> <msubsup> <mi>&amp;Sigma;</mi> <mrow> <mi>k</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>K</mi> </msubsup> <mi>I</mi> <mrow> <mo>(</mo> <mi>x</mi> <mo>&amp;NotElement;</mo> <msub> <mi>X</mi> <mi>k</mi> </msub> <mo>)</mo> </mrow> </mrow> </mfrac> </mrow>
其中I(·)是指示函数,Q(xi,j)代表的是没有包含样本xi的决策树中将xi划分为类标j的比例,根据Q(xi,j),随机森林的强度可以定义如下:
<mrow> <mi>s</mi> <mo>=</mo> <mfrac> <mn>1</mn> <mi>n</mi> </mfrac> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>n</mi> </munderover> <mrow> <mo>(</mo> <mi>Q</mi> <mo>(</mo> <mrow> <msub> <mi>x</mi> <mi>i</mi> </msub> <mo>,</mo> <msub> <mi>y</mi> <mi>i</mi> </msub> </mrow> <mo>)</mo> <mo>-</mo> <munder> <mi>max</mi> <mrow> <mi>j</mi> <mo>&amp;NotEqual;</mo> <msub> <mi>y</mi> <mi>i</mi> </msub> </mrow> </munder> <mi>Q</mi> <mo>(</mo> <mrow> <msub> <mi>x</mi> <mi>i</mi> </msub> <mo>,</mo> <mi>j</mi> </mrow> <mo>)</mo> <mo>)</mo> </mrow> </mrow>
其中n代表样本数,yi代表xi的真实类标,随机森林的相关性可以定义如下:
其中
以及
这里,代表除了正确的类别外得到最多票数的类别,根据随机森林的强度s以及相关度ρ,可以估计其out-of-bag误差界c/s2,计算公式为c/s2=ρ/s2。
2.根据权利要求1所述的高维数据的分类算法,其特征在于:Fores Texter算法文本数据通常用bag of words模型来表示,每一个文本样本表示为一个特征词向量,每一个属性是一个特征词,一个文本样本中只包含一部分少量的特征词,因此,文本数据是高维稀疏的,在处理高维稀疏的文本数据时,大部分特征词是不出现不相关的,因此需要使用特征选择的方法选择与样本相关的特征词,现有研究表明,特征选择方法能够有效提高k NN,LLSF和NaiveBayes算法对高维文本数据的分类精度,Yang和Pedersen实验分析了InformationGain(IG),Mutual Information(MI),和χ2statistics等多种基于文本数据的特征选择方法;
假设T是一个包含N个属性(特征词){t1,t2,...,tN}的属性集,c是一个两类分类问题的正类,A1代表特征词ti和类别c共同出现的次数,A4代表两者ti和c没有共现的次数,A2代表ti出现时候c没有出现的次数,A3代表类别c出现时候ti没有出现的次数,
根据上述(A1,A2,A3,A4)的值,可以将特征词分成两组(一组包含正例属性,另一组包含负例属性),给定一个特征词ti,(A1,A2,A3,A4)代表ti和类标属性Y的关系,可以定义如下指示函数sign(ti,c)来判定特征词ti是正例属性还是负例属性:
<mfenced open='{' close=''> <mtable> <mtr> <mtd> <mi>sign</mi> <mrow> <mo>(</mo> <msub> <mi>t</mi> <mi>i</mi> </msub> <mo>,</mo> <mi>c</mi> <mo>)</mo> </mrow> <mo>=</mo> <mi>pos</mi> <mo>,</mo> </mtd> <mtd> <mi>if</mi> <msub> <mi>A</mi> <mn>1</mn> </msub> <msub> <mi>A</mi> <mn>4</mn> </msub> <mo>-</mo> <msub> <mi>A</mi> <mn>2</mn> </msub> <msub> <mi>A</mi> <mn>3</mn> </msub> <mo>&amp;GreaterEqual;</mo> <mn>0</mn> </mtd> </mtr> <mtr> <mtd> <mi>sign</mi> <mrow> <mo>(</mo> <msub> <mi>t</mi> <mi>i</mi> </msub> <mo>,</mo> <mi>c</mi> <mo>)</mo> </mrow> <mo>=</mo> <mi>neg</mi> <mo>,</mo> </mtd> <mtd> <mi>otherwise</mi> </mtd> </mtr> </mtable> </mfenced>
当A1A4-A2A3≥0时候,该指示函数的值为正,否则为负,在文献中,Zheng等人结合正例属性和负例属性对不平衡文本数据进行分类,得到了较好的分类效果,进一步提出了基于正例属性和负例属性分布进行分层抽样的方法,该方法使用χ2
统计的方法计算正例属性和负例属性的分布,具体地,特征词ti相对于类别c的χ2统计可以形式化地定义如下:
<mrow> <msup> <mi>&amp;chi;</mi> <mn>2</mn> </msup> <mrow> <mo>(</mo> <msub> <mi>t</mi> <mi>i</mi> </msub> <mo>,</mo> <mi>c</mi> <mo>)</mo> </mrow> <mo>=</mo> <mfrac> <mrow> <mi>N</mi> <mo>&amp;times;</mo> <msup> <mrow> <mo>(</mo> <msub> <mi>A</mi> <mn>1</mn> </msub> <msub> <mi>A</mi> <mn>4</mn> </msub> <mo>-</mo> <msub> <mi>A</mi> <mn>2</mn> </msub> <msub> <mi>A</mi> <mn>3</mn> </msub> <mo>)</mo> </mrow> <mn>2</mn> </msup> </mrow> <mrow> <mo>(</mo> <msub> <mi>A</mi> <mn>1</mn> </msub> <mo>+</mo> <msub> <mi>A</mi> <mn>3</mn> </msub> <mo>)</mo> <mo>(</mo> <msub> <mi>A</mi> <mn>2</mn> </msub> <mo>+</mo> <msub> <mi>A</mi> <mn>4</mn> </msub> <mo>)</mo> <mo>{</mo> <msub> <mi>A</mi> <mn>1</mn> </msub> <mo>+</mo> <msub> <mi>A</mi> <mn>2</mn> </msub> <mo>)</mo> <mo>(</mo> <msub> <mi>A</mi> <mn>3</mn> </msub> <mo>+</mo> <msub> <mi>A</mi> <mn>4</mn> </msub> <mo>)</mo> </mrow> </mfrac> </mrow>
其中N是所有文本样本数量,基于正例属性和负例属性的χ2分布,可以将属性集T划分为两个子集:Tp和Tn(针对类别c),使得T=Tp∪Tn以及Tp∩满足:
Tp={ti∈T|sign(ti,c)is positive}
以及
Tn={ti∈T|sign(ti,c)is negative}
假设Np代表Tp的属性数量,Nn代表Tn的属性数量,则所有属性的数量N=Np+Nn,假设Tp中属性为{t1,t2,...,tNp},Tn中属性为{tNp+1,...,tNp+Nn};
定义一个非负φ函数作为评价特征词ti相对于类别c的信息量,φ可以用χ2公式计算,根据φ的计算值,我们可以对正例属性ti∈Tp的φi值进行归一化;
另一方面,负例属性的φ的归一化如下:
归一化后θi的值范围在0到1之间,基于归一化后所得到的权重值,可以对不同特征值根据不同权重值分别对待,其中,权重越大代表该属性与分类任务的相关性越强,在使用分层抽样方法选择一个大小为mtry(>1)的属性子空间是,我们根据属性的权重值分别从正属性集Tp和负属性集Tn中进行加权选择,其中,从Tp和Tn中选择的属性数量与它们的大小成正比,即从Tp中选择mtrys=mtry×NpN个属性,并且从Tn中选择mtryn=mtry-mtrys个属性,然后将选择的属性合并作为随机森林节点中的属性子空间,
基于分层抽样的属性子空间选择方法能够保证子空间中包含来自正属性集合负属性集合的重要属性,基于分层抽样属性子空间选择的过程如下:
(i)将属性集T划分为正属性集Tp和负属性集Tn;
(ii)使用χ2统计作为φ函数计算各个特征词的权重值,对Tp和Tn中属性根据其φ值分别进行归一化;
(iii)从Tp加权抽样mtrys=mtry×NpN个属性,从Tn加权抽样mtryn=mtry-mtrys个属性,然后合并所选择的属性作为随机森林节点上的属性子空间,其中子空间大小为mtry=mtryp+mtryn。
3.根据权利要求1所述的高维数据的分类算法,其特征在于:基于分层抽样的子空间选择方法首先把属性集分成多个属性子集,假设属性子集的数量为:
gtry,在每个属性子集中选择的属性数量为vtry,其中vtry=log2N+1,假设属性集包含N个特征属性{X1,X2,...,XN},属性集用A表示,Y是类别属性,考虑一个非负函数φi,该函数度量属性Xi相对于类别Y的信息值,使用χ2统计或信息增益计算φ,χ2统计和信息增益可以形式化地定义如下:
<mrow> <msup> <mi>&amp;chi;</mi> <mn>2</mn> </msup> <mrow> <mo>(</mo> <mi>X</mi> <mo>,</mo> <mi>Y</mi> <mo>)</mo> </mrow> <mo>=</mo> <munder> <mo>&amp;Sigma;</mo> <mrow> <mi>x</mi> <mo>&amp;Element;</mo> <mi>X</mi> <mo>,</mo> <mi>y</mi> <mo>&amp;Element;</mo> <mi>Y</mi> </mrow> </munder> <mfrac> <msup> <mrow> <mo>(</mo> <mi>O</mi> <mo>(</mo> <mrow> <mi>x</mi> <mo>,</mo> <mi>y</mi> </mrow> <mo>)</mo> <mo>-</mo> <mi>E</mi> <mo>(</mo> <mrow> <mi>x</mi> <mo>,</mo> <mi>y</mi> </mrow> <mo>)</mo> <mo>)</mo> </mrow> <mn>2</mn> </msup> <mrow> <mi>E</mi> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> </mrow> </mfrac> </mrow>
其中,O(x,y)和E(x,y)是X=x和Y=y共现的观察值和期望值;
<mfenced open = "" close = ""> <mtable> <mtr> <mtd> <mrow> <mi>G</mi> <mrow> <mo>(</mo> <mi>X</mi> <mo>,</mo> <mi>Y</mi> <mo>)</mo> </mrow> <mo>=</mo> <mo>-</mo> <munder> <mo>&amp;Sigma;</mo> <mrow> <mi>y</mi> <mo>&amp;Element;</mo> <mi>Y</mi> </mrow> </munder> <mi>p</mi> <mrow> <mo>(</mo> <mi>y</mi> <mo>)</mo> </mrow> <msub> <mi>log</mi> <mn>2</mn> </msub> <mrow> <mo>(</mo> <mi>p</mi> <mo>(</mo> <mi>y</mi> <mo>)</mo> <mo>)</mo> </mrow> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mo>+</mo> <munder> <mo>&amp;Sigma;</mo> <mrow> <mi>x</mi> <mo>&amp;Element;</mo> <mi>X</mi> </mrow> </munder> <mi>p</mi> <mrow> <mo>(</mo> <mi>x</mi> <mo>)</mo> </mrow> <mo>&amp;times;</mo> <munder> <mo>&amp;Sigma;</mo> <mrow> <mi>y</mi> <mo>&amp;Element;</mo> <mi>Y</mi> </mrow> </munder> <mi>p</mi> <mrow> <mo>(</mo> <mi>y</mi> <mo>|</mo> <mi>x</mi> <mo>)</mo> </mrow> <msub> <mi>log</mi> <mn>2</mn> </msub> <mrow> <mo>(</mo> <mi>p</mi> <mo>(</mo> <mrow> <mi>y</mi> <mo>|</mo> <mi>x</mi> </mrow> <mo>)</mo> <mo>)</mo> </mrow> </mrow> </mtd> </mtr> </mtable> </mfenced>
其中p(x)和p(y)是先验概率值,p(y|x)是Y=y和A=x的条件概率,然后根据φi的值归一化并计算θi,使其取值范围在0到1之间;
归一化后的θi值作为属性Xi在属性集A中的相对信息值;
我们通过设计一种等宽信息量的离散散化方法将属性集A划分为多个属性子集A1∪A2∪...∪Agtry=A,其中属性子集的数量为gtry,每个子集中包含的属性信息和是等量的,每个属性Xi划分到一个分组中,使得假设分层抽样方法选择属性子空间时,可以从每个属性子集选择vtry个属性,然后合并所选择的属性组成一个大小为mtry=gtry×vtry的属性子空间,其中,设置vtry为默认值log2N+1,从而保证从每个属性子集中都抽取一定数量的属性。
4.根据权利要求1所述的高维数据的分类算法,其特征在于:分层抽样的子空间选择与子空间多样性假设A是一组包含N个属性的属性集{A1,A2,…,AN},用属性空间S来描述,设Y是类别属性,可以用一个非负函数φ来衡量类别属性Y与输入属性Ai之间信息值:
其中,θi是属性Ai在整个属性集A中的相对信息值,它的值在0和1之间,如果θi的值大(小),代表Ai是强(弱)信息的属性,基于θi的值,将属性集A划分为两个分组As和Aw,划分步骤如下:(i)根据{θi}值对属性集A进行降序排列;(ii)设定一个α阀值将属性集A划分为两个分组,A=As∪Aw,其中As∩以及As={Ai∈A|θi<α}and Aw={Ai∈A|θi≥α},将属性集A划分为As和Aw后,使用分层抽样的方法分别从两个分组中随机选择属性构成一个属性子空间,子空间所包含属性数量为p(>1),从As和Aw中分别选择的属性的数量与As与Aw所包含的属性数量成正比,也就是说,随机从强属性集As中选择ps=p×NsN个属性,其中Ns是强属性集Aw的属性数量而N是所有属性的数量,同时,从弱属性集Aw中选择pw=p-ps个属性,然后,合并所选择的p个属性作为决策树节点中所用的属性子空间集,对于包含大量无信息噪音属性的高维数据来说,分层抽样的方法子空间选
择能够比完全随机的子空间选择方法获得更加准确的建树效果,接下来对分层抽样选择的子空间多样性进行分析研究,假设As和Aw中包含的属性数量分别为Ns和Nw,并且Ns+Nw=N,其中N是整个属性集A中的属性数量,从As中选择ps个属性,不同的选择组合数为
<mrow> <msub> <mi>C</mi> <mi>x</mi> </msub> <mo>=</mo> <mfenced open = '(' close = ')'> <mtable> <mtr> <mtd> <msub> <mi>N</mi> <mi>s</mi> </msub> </mtd> </mtr> <mtr> <mtd> <msub> <mi>p</mi> <mi>s</mi> </msub> </mtd> </mtr> </mtable> </mfenced> <mo>=</mo> <mfrac> <mrow> <msub> <mi>N</mi> <mi>s</mi> </msub> <mo>!</mo> </mrow> <mrow> <mo>(</mo> <msub> <mi>N</mi> <mi>s</mi> </msub> <mo>-</mo> <msub> <mi>p</mi> <mi>s</mi> </msub> <mo>)</mo> <mo>!</mo> <msub> <mi>p</mi> <mi>s</mi> </msub> <mo>!</mo> </mrow> </mfrac> </mrow>
而从Aw中选择pw个属性,不同的选择组合数为:
通过从As和Aw中随机选择属性构建属性子空间,子空间的多样性C代表不同子空间组合数,可以用通过以下公式计算:
如果Ns<<N,子空间的多样性可以表示为
<mrow> <mi>C</mi> <mo>&amp;ap;</mo> <mfrac> <mrow> <msup> <mrow> <mo>(</mo> <msub> <mi>N</mi> <mi>s</mi> </msub> <mo>)</mo> </mrow> <msub> <mi>p</mi> <mi>r</mi> </msub> </msup> <msup> <mrow> <mo>(</mo> <mi>N</mi> <mo>)</mo> </mrow> <mrow> <mo>(</mo> <mi>p</mi> <mo>-</mo> <msub> <mi>p</mi> <mi>r</mi> </msub> <mo>)</mo> </mrow> </msup> </mrow> <mrow> <msub> <mi>p</mi> <mi>s</mi> </msub> <mo>!</mo> <mrow> <mo>(</mo> <mi>p</mi> <mo>-</mo> <msub> <mi>p</mi> <mi>s</mi> </msub> <mo>)</mo> </mrow> <mo>!</mo> </mrow> </mfrac> <msup> <mrow> <mo>(</mo> <mn>1</mn> <mo>-</mo> <mfrac> <msub> <mi>p</mi> <mi>s</mi> </msub> <msub> <mi>N</mi> <mi>s</mi> </msub> </mfrac> <mo>)</mo> </mrow> <mrow> <mo>(</mo> <msub> <mi>p</mi> <mi>r</mi> </msub> <mo>-</mo> <mn>1</mn> <mo>)</mo> </mrow> </msup> </mrow>
上述公式表明,子空间的多样性随着p和ps增加而增加,分层抽样的方法能够保证足够的子空间多样性,例如假设所有的属性数量是N=100,强信息属性的数量为Ns=50,如果选择的子空间属性数量为10,其中强信息属性的数量为5,那么不同的子空间的数量会有40亿,如果选择的子空间属性数量为p=int(log2(N)+1)=7(如文献[75]中的建议值),其中int(x)是大于x的第一个整数值,那么不同的子空间的数量也将达到有3亿。
5.根据权利要求1所述的高维数据的分类算法,其特征在于:多变量决策树由于CART决策树所使用的单变量Gini分裂准则不能有效的处理不平衡文本数据,采用多变量分裂准则的多变量决策树作为构建随机森林的基础分类器,传统随机森林使用的单变量决策树分类器产生的是于数据空间垂直的决策平面,而多变量决策树能够产生的是于数据空间倾斜的(任意方向)决策平面;
选择SVM的主要原因是现有研究已经表明SVM方法能够有效地处理文本数据,在文本数据上有较好的分类效果,采用SVMs作为多变量分裂准则构建多变量分类器主要有两方面的优点,一方面是SVM能够处理高维数据,SVM能够不受数据维度的影响,结合SVM的随机森林算法能够在处理高维数据上有更好的泛化能力,另一方面,大部分文本分类问题是线性可分的[113],而SVM是处理线性可分的文本数据上有很好的性能;
在多变量决策树的每个节点中,通过构建一个SVM分类器来学习一个将数据划分到子节点的决策平面,每个数据样本根据SVM分类器的结果划分到相关性最大的子节点上,对未知类别的测试样本进行分类时,每个多变量决策树输出该样本与类别的相关概率结果,该相关概率值由从根节点到叶子节点的决策路径上每个SVM分类器的分类概率输出结果联合计算产生,具体而言,假设N该决策路径上的节点集合,Probn(xific)是节点n上样本xi对学习类别c的分类概率输出结果,则多变量决策树对测试样本xi的概率输出结果为
<mrow> <mi>Prob</mi> <mrow> <mo>(</mo> <msub> <mi>x</mi> <mi>i</mi> </msub> <mo>,</mo> <mi>c</mi> <mo>)</mo> </mrow> <mo>=</mo> <munder> <mi>&amp;Sigma;</mi> <mrow> <mi>n</mi> <mo>&amp;Element;</mo> <mi>N</mi> </mrow> </munder> <msub> <mi>Prob</mi> <mi>n</mi> </msub> <mrow> <mo>(</mo> <msub> <mi>x</mi> <mi>i</mi> </msub> <mo>,</mo> <mi>c</mi> <mo>)</mo> </mrow> </mrow>
Fores Texter方法是集成多个多变量决策树的随机森林方法,假设训练数据集为D,属性集T={t1,t2,...,tN}包含N个特征词,Fores Texter的算法流程如下所示:
1).将属性集T划分为正属性集Tp和负属性集Tn;
2).用Bagging抽样方法生成K个数据子集{D1,D2,...,DK};
3).每一个子集Di,构建一个多变量决策树hi(Di),在每个节点中,首先忽略样本中没有出现的特征词,从出现的特征词中加权抽样mtry(>1)个特征词,其中mtryp个正属性,mtryn个负属性;在每个节点上学习一个SVM分类器将样本划分到子节点,递归上述过程直到满足以下停止条件:所有数据的类标都相同或者所有数据的SVM分类结果都相同;
4).将K个未剪枝多变量决策树h1(D1),h2(D2),...,hK(DK)合并集成为随机森林,使用集成投票方法做分类决策;
假设数据集大小为M,属性数量为N,计算代价为O(MN),构建多变量决策树分类器需要在每个节点上学习一个SVM分类器,SVM分类的计算复杂度为O(m3),基于SVM实现计算代价接近O(m2),其中m是节点中训练样本数量m<<M,假设多变量决策树的高度为h,则决策树的节点数量为O(2h)(假设决策树为二叉树),因此,构建多变量决策树的计算代价为O(m22h)≈O(M22h),通常情况下,h大约等于O(√M),因此,构建一个SVM多变量决策树的代价为O(M22√M),构建包含K个决策树的随机森林的代价为O(KM22√M)。
CN201610218204.1A 2016-04-08 2016-04-08 高维数据的分类算法 Pending CN107273909A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610218204.1A CN107273909A (zh) 2016-04-08 2016-04-08 高维数据的分类算法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610218204.1A CN107273909A (zh) 2016-04-08 2016-04-08 高维数据的分类算法

Publications (1)

Publication Number Publication Date
CN107273909A true CN107273909A (zh) 2017-10-20

Family

ID=60052659

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610218204.1A Pending CN107273909A (zh) 2016-04-08 2016-04-08 高维数据的分类算法

Country Status (1)

Country Link
CN (1) CN107273909A (zh)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108629675A (zh) * 2018-04-27 2018-10-09 信阳师范学院 一种多决策树财务预警方法
CN108681715A (zh) * 2018-05-18 2018-10-19 三亚中科遥感研究所 海南热带天然林植被型组分类方法
CN108831556A (zh) * 2018-06-24 2018-11-16 大连理工大学 一种连续性肾脏替代治疗过程中肝素剂量的预测方法
CN108897763A (zh) * 2018-05-23 2018-11-27 闫俊杰 一种区块链数据转化系统
CN109101626A (zh) * 2018-08-13 2018-12-28 武汉科技大学 基于改进最小生成树的高维数据关键特征提取方法
CN109145959A (zh) * 2018-07-27 2019-01-04 东软集团股份有限公司 一种特征选择方法、装置及设备
CN109151073A (zh) * 2018-10-29 2019-01-04 恒安嘉新(北京)科技股份公司 手机应用软件推荐方法及系统
CN109636482A (zh) * 2018-12-21 2019-04-16 苏宁易购集团股份有限公司 基于相似度模型的数据处理方法及系统
CN109801146A (zh) * 2019-01-18 2019-05-24 北京工业大学 一种基于需求偏好的资源服务推荐方法及系统
CN110188196A (zh) * 2019-04-29 2019-08-30 同济大学 一种基于随机森林的文本增量降维方法
CN110245265A (zh) * 2019-06-24 2019-09-17 北京奇艺世纪科技有限公司 一种对象分类方法、装置、存储介质及计算机设备
CN110362996A (zh) * 2019-06-03 2019-10-22 中国科学院信息工程研究所 一种离线检测PowerShell恶意软件的方法与系统
CN110782949A (zh) * 2019-10-22 2020-02-11 王文婷 一种基于最大最小化序列搜索的多层基因加权分组方法
CN111564223A (zh) * 2020-07-20 2020-08-21 医渡云(北京)技术有限公司 传染病生存概率的预测方法、预测模型的训练方法及装置
CN112464732A (zh) * 2020-11-04 2021-03-09 北京理工大学重庆创新中心 基于双路径稀疏分层网络的光学遥感图像地物分类方法
CN114550697A (zh) * 2022-01-17 2022-05-27 苏州大学 一种联合混合采样和随机森林的语音样本均衡方法
CN114625873A (zh) * 2022-03-02 2022-06-14 四川大学 一种安全合规驱动的数据分类方法

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108629675A (zh) * 2018-04-27 2018-10-09 信阳师范学院 一种多决策树财务预警方法
CN108681715A (zh) * 2018-05-18 2018-10-19 三亚中科遥感研究所 海南热带天然林植被型组分类方法
CN108897763A (zh) * 2018-05-23 2018-11-27 闫俊杰 一种区块链数据转化系统
CN108831556B (zh) * 2018-06-24 2021-06-18 大连理工大学 一种连续性肾脏替代治疗过程中肝素剂量的预测方法
CN108831556A (zh) * 2018-06-24 2018-11-16 大连理工大学 一种连续性肾脏替代治疗过程中肝素剂量的预测方法
CN109145959A (zh) * 2018-07-27 2019-01-04 东软集团股份有限公司 一种特征选择方法、装置及设备
CN109101626A (zh) * 2018-08-13 2018-12-28 武汉科技大学 基于改进最小生成树的高维数据关键特征提取方法
CN109151073B (zh) * 2018-10-29 2021-07-16 恒安嘉新(北京)科技股份公司 手机应用软件推荐方法及系统
CN109151073A (zh) * 2018-10-29 2019-01-04 恒安嘉新(北京)科技股份公司 手机应用软件推荐方法及系统
CN109636482A (zh) * 2018-12-21 2019-04-16 苏宁易购集团股份有限公司 基于相似度模型的数据处理方法及系统
CN109636482B (zh) * 2018-12-21 2021-07-27 南京星云数字技术有限公司 基于相似度模型的数据处理方法及系统
CN109801146A (zh) * 2019-01-18 2019-05-24 北京工业大学 一种基于需求偏好的资源服务推荐方法及系统
CN109801146B (zh) * 2019-01-18 2020-12-29 北京工业大学 一种基于需求偏好的资源服务推荐方法及系统
CN110188196A (zh) * 2019-04-29 2019-08-30 同济大学 一种基于随机森林的文本增量降维方法
CN110188196B (zh) * 2019-04-29 2021-10-08 同济大学 一种基于随机森林的文本增量降维方法
CN110362996A (zh) * 2019-06-03 2019-10-22 中国科学院信息工程研究所 一种离线检测PowerShell恶意软件的方法与系统
CN110245265A (zh) * 2019-06-24 2019-09-17 北京奇艺世纪科技有限公司 一种对象分类方法、装置、存储介质及计算机设备
CN110782949A (zh) * 2019-10-22 2020-02-11 王文婷 一种基于最大最小化序列搜索的多层基因加权分组方法
CN111564223B (zh) * 2020-07-20 2021-01-12 医渡云(北京)技术有限公司 传染病生存概率的预测方法、预测模型的训练方法及装置
CN111564223A (zh) * 2020-07-20 2020-08-21 医渡云(北京)技术有限公司 传染病生存概率的预测方法、预测模型的训练方法及装置
CN112464732A (zh) * 2020-11-04 2021-03-09 北京理工大学重庆创新中心 基于双路径稀疏分层网络的光学遥感图像地物分类方法
CN114550697A (zh) * 2022-01-17 2022-05-27 苏州大学 一种联合混合采样和随机森林的语音样本均衡方法
CN114550697B (zh) * 2022-01-17 2022-11-18 苏州大学 一种联合混合采样和随机森林的语音样本均衡方法
CN114625873A (zh) * 2022-03-02 2022-06-14 四川大学 一种安全合规驱动的数据分类方法

Similar Documents

Publication Publication Date Title
CN107273909A (zh) 高维数据的分类算法
Shi et al. Multi-label ensemble learning
Ishibuchi et al. Comparison of heuristic criteria for fuzzy rule selection in classification problems
Milgram et al. Estimating accurate multi-class probabilities with support vector machines
Hernández et al. A practical tutorial for decision tree induction: Evaluation measures for candidate splits and opportunities
Geng et al. EARC: Evidential association rule-based classification
CN106897667A (zh) 一种人脸检索方法和系统
Luengo et al. Domains of competence of fuzzy rule based classification systems with data complexity measures: A case of study using a fuzzy hybrid genetic based machine learning method
Lyu et al. A refined margin distribution analysis for forest representation learning
Bruzzese et al. DESPOTA: DEndrogram slicing through a pemutation test approach
Degirmenci et al. iMCOD: Incremental multi-class outlier detection model in data streams
CN114549897A (zh) 一种分类模型的训练方法、装置及存储介质
Addis et al. Assessing progressive filtering to perform hierarchical text categorization in presence of input imbalance
Jurek et al. Classification by cluster analysis: A new meta-learning based approach
KR102025280B1 (ko) 다중 레이블 패턴 분류를 위한 특징 선택 방법 및 그 장치
CN115688097A (zh) 一种基于改进遗传算法特征选择的工控系统入侵检测方法
Chen et al. Fusing multi-scale fuzzy information to detect outliers
Krendzelak et al. Hierarchical text classification using CNNS with local approaches
Trawinski et al. On the combination of accuracy and diversity measures for genetic selection of bagging fuzzy rule-based multiclassification systems
Clémençon et al. Bagging ranking trees
Liu et al. Microcluster-based incremental ensemble learning for noisy, nonstationary data streams
Del Castillo et al. Instance selection for multi-label learning based on a scalable evolutionary algorithm
Ma et al. Tree-augmented naive Bayes ensembles
Goessling et al. Directional decision lists
Nachev et al. Predictive models for post-operative life expectancy after thoracic surgery

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
TA01 Transfer of patent application right

Effective date of registration: 20180420

Address after: 200000 Pudong New Area, Shanghai, China (Shanghai) free trade pilot area, 707 Zhang Yang road two West.

Applicant after: Shanghai wind newspaper Mdt InfoTech Ltd

Address before: Room 310 F East 2-G365, F, Baoshan District, Yue Luo Road, Shanghai

Applicant before: SHANGHAI BOSON DATA TECHNOLOGY CO., LTD.

TA01 Transfer of patent application right
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20171020

WD01 Invention patent application deemed withdrawn after publication