CN108537279A - 基于改进Adaboost算法的数据源分类器构建方法 - Google Patents

基于改进Adaboost算法的数据源分类器构建方法 Download PDF

Info

Publication number
CN108537279A
CN108537279A CN201810318399.6A CN201810318399A CN108537279A CN 108537279 A CN108537279 A CN 108537279A CN 201810318399 A CN201810318399 A CN 201810318399A CN 108537279 A CN108537279 A CN 108537279A
Authority
CN
China
Prior art keywords
grader
sample data
training
mistake
classifier
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201810318399.6A
Other languages
English (en)
Inventor
裘嵘
何文婷
张祖平
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Central South University
Original Assignee
Central South University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Central South University filed Critical Central South University
Priority to CN201810318399.6A priority Critical patent/CN108537279A/zh
Publication of CN108537279A publication Critical patent/CN108537279A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • G06F18/24155Bayesian classification

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Probability & Statistics with Applications (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明公开了一种基于改进Adaboost算法的数据源分类器构建方法,通过弱分类器和强分类器并行训练的方式来改进现有的Adaboost算法,利用强弱分类器互补来解决传统Adaboost算法中单个弱分类器错误叠加的问题,将强弱分类器的优势互补,从而使得改进后的算法对于数据源分类更加准确,效率更高。

Description

基于改进Adaboost算法的数据源分类器构建方法
技术领域
本发明涉及数据源分类技术领域,尤其涉及一种基于改进Adaboost算法的数据源分类器构建方法。
背景技术
Deep Web即“深网”,指互联网上那些不能被标准搜索引擎索引的非表面网络内容。在2000年7月,Bright Planet公司就指出,整个互联网上大约有43000~96000个Web数据库,并且将Deep Web与Surface Web进行对比:1、Deep Web蕴含的信息量是Surface Web的400~500倍;2、对Deep Web数据的访问量比Surface Web要高出15%;3、Deep Web蕴含的信息量比Surface Web的质量更高;4、Deep Web的增长速度要远大于Surface Web;5、超过半数的Deep Web的内容是局限于某个特定领域的,即面向某个特定领域。在2004年4月,伊利诺伊大学厄巴纳-香槟分校对整个Deep Web做了一次较为准确的估算,推测Web上有307000个提供Web数据库的网站、450000个Web数据库,比Bright planet在2000年估计的50000个数据库网站的数目增长了6倍多。可见Deep Web包含丰富的、高质量的信息资源,其价值(数量和质量)远超仅由静态网页构成的Surface Web,且增长速度相对较快。Deep Web的信息一般存储在服务端Web数据库中,与静态页面相比信息量更大,主题更专一,信息质量更好,信息结构化更好。尽管Deep Web是非常有用的信息源,但准确的查找到他们是一件非常困难的事情。
为了准确查找Deep Web上的数据,首先必须对Deep Web数据源的内容进行准确分类,即准确的判断每一个Deep Web数据源的内容属于什么类别,例如,某一Deep Web数据源的内容属于旅游类别、还是属于新闻类别等。针对Deep Web数据源分类问题,国内外已经进行了大量的研究。有文献提出了一种基于K-邻近算法的Deep Web数据源的自动分类方法,运用K-邻近算法对Deep Web数据源进行自动分类,但是该方法比较适用于样本容量比较大的类域的自动分类,而对于样本容量较小的类域采用该方法进行自动分类时,比较容易产生误分。还有文献提出了一种基于查询接口特征的Deep Web数据源的自动分类方法,在方案中首先要提取查询接口的特征,并将之标准化,随后使用C4.5决策树分类算法来对数据源进行分类,取得了较高的查全率和查准率,但是在构造树的过程中,需要对数据集进行多次的顺序扫描和排序,因而导致算法的效率较低。
但是,上述文献公开的方案都是采用现有的分类算法对数据源进行分类,而没有针对数据源数据的结构特性对分类算法进行改进从而达到更高的准确率。同时,传统Adaboost算法仅采用弱分类器进行迭代训练,而弱分类器多次迭代训练后会导致错误的叠加,从而影响分类的准确性。
发明内容
为了解决现有技术中所存在的问题,本发明针对Deep Web数据源是一种半结构化的数据类型,具有特征空间高维性、文本特征表示向量稀疏和文本主体特征表现明显等特点,提出了一种采用强弱分类器并行的方法对现有的Adaboost算法进行改进来构建分类器,从而达到提高数据源分类效率的效果。
本发明提供了一种基于改进Adaboost算法的数据源分类器构建方法,包括:
步骤S1:根据历史分类数据构建样本数据集,并设置样本数据集中每一组训练样本数据的初始样本权重值;
步骤S2:根据样本数据集抽取训练集;
步骤S3:采用所述训练集分别训练弱分类器和强分类器,并获取两个分类器各自的错误度;
步骤S4:当步骤S3得到的两个分类器各自的错误度均大于预设阈值时,返回步骤S3;
步骤S5:根据两个分类器各自的错误度分别设置两个分类器各自的分类器权重值;
步骤S6:当本轮迭代训练得到的两个分类器各自的错误度均大于上一轮迭代训练得到的两个分类器各自的错误度时,根据本轮迭代训练之前的各轮迭代训练得到的分类器及其分类器权重值整合获得最终分类器;否则,重新设置每一组训练样本数据的样本权重值,并返回步骤S3。
现有的Adaboost算法是仅利用多个弱分类器级联来构造出一个强分类器的训练方式,其优点在于这样构造出来的分类器拥有很好的精度,对缺失样本不敏感,可用于二分类和多分类的分类场景;其缺点在于通过对单一弱分类器的不断迭代,使得其错误也不断的叠加,使得分类器整体的准确率下降。本发明通过在现有Adaboost算法的每一轮迭代训练中,采用弱分类器和强分类器并行的训练方式,来替代原有仅用弱分类器进行训练的方式,利用强分类器所拥有的在使用较少样本情况下可以具有较好分类能力和泛化能力的特点,通过相互补偿的概念将强弱分类器的优点结合起来,构造出一个准确率和鲁棒性更好的分类器,从而弥补单一弱分类器错误叠加使得现有Adaboost算法准确率受到影响的缺陷。
同时,本方案发明人通过研究和实验发现,大数据会延长分类器的训练时间和迭代次数,若采用强分类器与强分类器并行的训练方式,则因为强分类器较为复杂,虽然准确性可以得到保证,但是其需要牺牲大量的时间与空间作为代价,因而发明人并未采用强分类器与强分类器并行的方式来改进现有的Adaboost算法,而是采用弱分类器与强分类器并行的方式来改进现有的Adaboost算法,使得在保证时间和空间优势的情况下,尽可能地提高分类的准确性。
进一步的,所述步骤S1中的样本数据集为D={(X1,y1),(X2,y2),...,(Xi,yi),...,(Xm,ym)},将其中每一组训练样本数据的初始样本权重值设置为
其中,t表示第t轮迭代训练,i为训练样本数据组序号,m为样本数据集中的训练样本数据组总数,t、i和m均为正整数,Xi表示每一组样本数据中包含的待分类的数据源类别,yi表示每一组样本数据中分类正确的数据源类别。
首先,通过历史分类数据,构建样本数据集,并在训练开始前,给每一组训练样本数据设置相同的初始样本权重值,即根据样本数据组总数确定的由此,每一组样本数据均将平等的用于分类器训练。
进一步的,所述步骤S2为:
从所述样本数据集D中按照预设抽样比例随机抽取训练样本数据组构建训练集S;
其中,所述预设抽样比例的取值范围为20%到80%。
在本方案中,在第一轮迭代训练开始时,需要从样本数据集中有放回地随机抽取一定比例的样本数据组来构建训练集。本方案发明人通过研究发现,该抽样比例需保持在20%到80%之间较为合适,最佳的抽样比例为60%,在此比例下构建的训练集的训练效果最佳。
进一步的,所述步骤S3中错误度的获取方法为:
弱分类器hp错误度为强分类器hs错误度为
其中,hp(Xi)≠yi表示弱分类器hp对第i个训练样本数据组分类错误,P(hp(Xi)≠yi)表示本轮迭代训练中弱分类器hp分类错误样本数据组的样本权重值总和,hs(Xi)≠yi表示弱分类器hs对第i个训练样本数据组分类错误,P(hs(Xi)≠yi)表示本轮迭代训练中强分类器分类错误样本数据组的样本权重值总和。
在第一轮迭代训练中,通过分类器分类错误的样本数据组数和训练集中的样本数据组总数来确定分类器在本轮迭代训练中的错误度,该错误度反映了分类器对训练集中样本数据组的分类错误情况,为后续设置分类器权重值提供基础;在之后的各轮训练中,分类器的错误度由分类错误的样本数据组的样本权重值总和来决定,例如,将一轮训练中弱分类器分类错误的样本数据组的样本权重值相加,即得到本轮训练中弱分类器的错误度。
进一步的,所述步骤S4中的预设阈值为0.5。
为了避免错误率较高的分类器继续参与后续训练,影响分类的准确率,同时也为了尽可能缩短迭代训练次数,节省运行的时间和空间,当强分类器和弱分类器各自的错误率均高于0.5时,便停止本轮训练。
进一步的,所述步骤S5为:
根据所述弱分类器错误度εp设置弱分类器hp的分类器权重值αp
根据所述强分类器错误度εs设置强分类器hs的分类器权重值αs
此处获得的分类器权重值用于最终分类器的构建,是每一轮迭代训练得到的分类器可以更加准确的整合到最终分类器中。
进一步的,所述步骤S6为:
当本轮迭代训练得到的弱分类器错误度大于上一轮迭代训练得到的弱分类器错误度且本轮迭代训练得到的强分类器错误度大于上一轮迭代训练得到的强分类器错误度时,根据本轮训练之前的各轮迭代训练得到的分类器及其分类器权重值整合获得最终分类器H(Xi):
否则,重新设置所述样本数据集D中每一个训练样本数据组的样本权重值Wt+1(i),并返回步骤S3:
其中,hp(Xi)=yi表示弱分类器hp对第i个训练样本数据组分类正确,hp(Xi)≠yi表示弱分类器hp对第i个训练样本数据组分类错误,hs(Xi)=yi表示强分类器hs对第i个训练样本数据组分类正确,hs(Xi)≠yi表示弱分类器hs对第i个训练样本数据组分类错误,Zt为归一化因子且Zt=sum(D)即样本数据集中的样本总数,y为标签向量,Hp(Xi)=sign(αphp(Xi)),Hs(Xi)=sign(αshs(Xi)),sign为符号函数。
发明人通过研究和实验发现,分类器的错误度与迭代训练次数存在一种随着迭代训练次数的增加,分类器错误度逐渐降低,但是达到一定训练次数后,随着训练次数的增加,分类器错误度又逐渐升高的相关关系。故当本轮训练得到的分类器错误度大于上一轮训练得到的分类器错误度时,说明上一轮训练得到的分类器是错误度最小的分类器,即分类效果最佳的分类器,所以停止迭代训练,并根据本轮训练之前的各轮迭代训练得到的分类器及其分类器权重值整合获得最终分类器。
在下一轮迭代训练开始时,重新给每一组样本数据设置样本权重值,是为了加大训练中错误样本的权重,从而提高分类器对于难分类样本的重视程度。同时,通过调整样本数据组的样本权重值,也可以使分类器更加有针对性的对训练样本数据进行训练。
进一步的,所述弱分类器为采用朴素贝叶斯算法构建的分类器,所述强分类器为采用SMO算法构建的分类器。
本发明使用的弱分类器采用朴素贝叶斯算法构造,强分类器采用支持向量机(SVM)下的一个核心函数:序列最小优化算法(SMO,Sequential Minimal Optimization)构造。朴素贝叶斯算法的优点在于:对于大数量训练和查询时有较高的速度,并且支持增量运算,即可以实时对新增的样本进行训练。而SMO能对训练集之外的数据做很好的预测、泛化错误率低、计算开销小,并且能够解决小样本下的机器学习问题,处理高维数据集。
有益效果
本发明提供了一种基于改进Adaboost算法的数据源分类器构建方法,通过弱分类器和强分类器并行训练的方式来改进现有的Adaboost算法,通过一种强弱分类器互补的概念来解决传统Adaboost算法中单个弱分类器错误叠加的问题,将强弱分类器的优势互补,从而使得改进后的算法对于数据源分类更加准确,效率更高。并且通过在每一轮训练开始时,根据上一轮训练情况重置样本数据集中各个样本数据组的样本权重值,使分类器对不同样本数据进行针对性学习,进一步提高分类器的分类准确度。同时,最后根据不同分类器权重值整合最终分类器,使得最终分类器能够针对性的对各种待分类数据进行分类,再一次提高了本发明公开的分类器的分类准确度。
附图说明
图1是本发明提供的一种基于改进Adaboost算法的数据源分类器构建方法的流程示意图;
图2是本发明实施例中改进Adaboost算法与其他三种常规算法的分类结果比较示意图;
图3是本发明实施例中改进Adaboost算法与传统Adaboost算法的迭代训练次数的比较示意图。
具体实施方式
为了方便更好地理解本发明方案的内容,下面结合具体实施例进行进一步阐述。
如图1所示,本发明提供了一种基于改进Adaboost算法的数据源分类器构建方法,包括:
步骤S1:根据历史分类数据构建样本数据集,并设置样本数据集中每一组训练样本数据的初始样本权重值。
所述步骤S1中的样本数据集为D={(X1,y1),(X2,y2),...,(Xi,yi),...,(Xm,ym)},将其中每一组训练样本数据的初始样本权重值设置为其中,t表示第t轮迭代训练,i为训练样本数据组序号,m为样本数据集中的训练样本数据组总数,t、i和m均为正整数,Xi表示每一组样本数据中包含的待分类的数据源类别,yi表示每一组样本数据中分类正确的数据源类别。
首先,通过历史分类数据,构建样本数据集,并在训练开始前,给每一组训练样本数据设置相同的初始样本权重值,即根据样本数据组总数确定的由此,每一组样本数据均将平等的用于分类器训练。
步骤S2:根据样本数据集抽取训练集。
即从所述样本数据集D中按照预设抽样比例随机抽取训练样本数据组构建训练集S;其中,所述预设抽样比例的取值范围为20%到80%。
在本方案中,第一轮迭代训练开始时,需要从样本数据集中有放回地随机抽取一定比例的样本数据组来构建训练集。本方案发明人通过研究发现,该抽样比例需保持在20%到80%之间较为合适,最佳的抽样比例为60%,在此比例下构建的训练集的训练效果最佳。
步骤S3:采用所述训练集分别训练弱分类器和强分类器,并获取两个分类器各自的错误度。
所述步骤S3中错误度的获取方法为:弱分类器hp错误度为强分类器hs错误度为其中,hp(Xi)≠yi表示弱分类器hp对第i个训练样本数据组分类错误,P(hp(Xi)≠yi)表示本轮迭代训练中弱分类器hp分类错误样本数据组的样本权重值总和,hs(Xi)≠yi表示弱分类器hs对第i个训练样本数据组分类错误,P(hs(Xi)≠yi)表示本轮迭代训练中强分类器分类错误样本数据组的样本权重值总和。
在第一轮迭代训练中,通过分类器分类错误的样本数据组数和训练集中的样本数据组总数来确定分类器在本轮迭代训练中的错误度,该错误度反映了分类器对训练集中样本数据组的分类错误情况,为后续设置分类器权重值提供基础;在之后的各轮训练中,分类器的错误度由分类错误的样本数据组的样本权重值总和来决定,例如,将一轮训练中弱分类器分类错误的样本数据组的样本权重值相加,即得到本轮训练中弱分类器的错误度。
步骤S4:当步骤S3得到的两个分类器各自的错误度均大于预设阈值时,返回步骤S3。
其中,所述步骤S4中的预设阈值为0.5。为了避免错误率较高的分类器继续参与后续训练,影响分类的准确率,同时也为了尽可能缩短迭代训练次数,节省运行的时间和空间,当强分类器和弱分类器各自的错误率均高于0.5时,便停止本轮训练。
步骤S5:根据两个分类器各自的错误度分别设置两个分类器各自的分类器权重值。
即根据所述弱分类器错误度εp设置弱分类器hp的分类器权重值αp根据所述强分类器错误度εs设置强分类器hs的分类器权重值αs此处获得的分类器权重值用于最终分类器的构建,是每一轮迭代训练得到的分类器可以更加准确的整合到最终分类器中。
步骤S6:当本轮迭代训练得到的两个分类器各自的错误度均大于上一轮迭代训练得到的两个分类器各自的错误度时,根据本轮迭代训练之前的各轮迭代训练得到的分类器及其分类器权重值整合获得最终分类器;否则,重新设置每一组训练样本数据的样本权重值,并返回步骤S3。
即当本轮迭代训练得到的弱分类器错误度大于上一轮迭代训练得到的弱分类器错误度且本轮迭代训练得到的强分类器错误度大于上一轮迭代训练得到的强分类器错误度时,根据本轮训练之前的各轮迭代训练得到的分类器及其分类器权重值整合获得最终分类器H(Xi):
否则,重新设置所述样本数据集D中每一个训练样本数据组的样本权重值Wt+1(i),并返回步骤S3:
其中,hp(Xi)=yi表示弱分类器hp对第i个训练样本数据组分类正确,hp(Xi)≠yi表示弱分类器hp对第i个训练样本数据组分类错误,hs(Xi)=yi表示强分类器hs对第i个训练样本数据组分类正确,hs(Xi)≠yi表示弱分类器hs对第i个训练样本数据组分类错误,Zt为归一化因子且Zt=sum(D),y为标签向量,Hp(Xi)=sign(αphp(Xi)),Hs(Xi)=sign(αshs(Xi)),sign为符号函数。
发明人通过研究和实验发现,分类器的错误度与迭代训练次数存在一种随着迭代训练次数的增加,分类器错误度逐渐降低,但是达到一定训练次数后,随着训练次数的增加,分类器错误度又逐渐升高的相关关系。故当本轮训练得到的分类器错误度大于上一轮训练得到的分类器错误度时,说明上一轮训练得到的分类器是错误度最小的分类器,即分类效果最佳的分类器,所以停止迭代训练,并根据本轮训练之前的各轮迭代训练得到的分类器及其分类器权重值整合获得最终分类器。
在下一轮迭代训练开始时,重新给每一组样本数据设置样本权重值,是为了加大训练中错误样本的权重,从而提高分类器对于难分类样本的重视程度。同时,通过调整样本数据组的样本权重值,也可以使分类器更加有针对性的对训练样本数据进行训练。
在本实施例中,为了比较本发明提供的改进型Adaboost算法与传统的Adaboost算法、朴素贝叶斯算法和SMO算法,利用weka软件结合eclipse对上述改进型Adaboost算法进行编译,再将编译的代码导入weka中,在weka的平台上进行运行,采用UIUC的BAMMExtracted Query Schemas数据来进行算法测试,其中包括Automobiles、Books、Movies和MusicRecords四个领域的212条表单数据。在本实施例中,改进型算法采用朴素贝叶斯算法构建弱分类器,采用SMO算法(即Sequential Minimal Optimization,序列最小优化算法)构建强分类器。
如图2和图3所示,SMO算法对训练集的大小比较敏感,且波动较大;而传统Adaboost算法在训练时需要较高的迭代次数才能达到最优的查询率;本发明提供的改进型Adaboost算法在抽取20%~80%数据集作为训练集的时候都能保持较高的查准率且迭代次数小于传统AdaBoost算法的一半,能够缩短因为运行两种分类算法所增加的时间,且能结合强分类器和弱分类器的优点,使得在利用不同百分比训练集的时候均具有较高的稳定性,使得本发明提供的改进型Adaboost算法在对数据源分类时能够优于其他单分类器算法。
本发明提供了一种基于改进Adaboost算法的数据源分类器构建方法,通过弱分类器和强分类器并行训练的方式来改进现有的Adaboost算法,通过一种强弱分类器互补的概念来解决传统Adaboost算法中单个弱分类器错误叠加的问题,将强弱分类器的优势互补,从而使得改进后的算法对于数据源分类更加准确,效率更高。并且通过在每一轮训练开始时,根据上一轮训练情况重置样本数据集中各个样本数据组的样本权重值,使分类器对不同样本数据进行针对性学习,进一步提高分类器的分类准确度。同时,最后根据不同分类器权重值整合最终分类器,使得最终分类器能够针对性的对各种待分类数据进行分类,再一次提高了本发明公开的分类器的分类准确度。
以上所述仅为本发明的实施例而已,并不用以限制本发明,凡在本发明精神和原则之内,所作任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (8)

1.一种基于改进Adaboost算法的数据源分类器构建方法,其特征在于,包括:
步骤S1:根据历史分类数据构建样本数据集,并设置样本数据集中每一组训练样本数据的初始样本权重值;
步骤S2:根据样本数据集抽取训练集;
步骤S3:采用所述训练集分别训练弱分类器和强分类器,并获取两个分类器各自的错误度;
步骤S4:当步骤S3得到的两个分类器各自的错误度均大于预设阈值时,返回步骤S3;
步骤S5:根据两个分类器各自的错误度分别设置两个分类器各自的分类器权重值;
步骤S6:当本轮迭代训练得到的两个分类器各自的错误度均大于上一轮迭代训练得到的两个分类器各自的错误度时,根据本轮迭代训练之前的各轮迭代训练得到的分类器及其分类器权重值整合获得最终分类器;否则,重新设置每一组训练样本数据的样本权重值,并返回步骤S3。
2.根据权利要求1所述的方法,其特征在于,所述步骤S1中的样本数据集为D={(X1,y1),(X2,y2),...,(Xi,yi),...,(Xm,ym)},将其中每一组训练样本数据的初始样本权重值设置为
其中,t表示第t轮迭代训练,i为训练样本数据组序号,m为样本数据集中的训练样本数据组总数,t、i和m均为正整数,Xi表示每一组样本数据中包含的待分类的数据源类别,yi表示每一组样本数据中分类正确的数据源类别。
3.根据权利要求2所述的方法,其特征在于,所述步骤S2为:
从所述样本数据集D中按照预设抽样比例随机抽取训练样本数据组构建训练集S;
其中,所述预设抽样比例的取值范围为20%到80%。
4.根据权利要求3所述的方法,其特征在于,所述步骤S3中错误度的获取方法为:
弱分类器hp错误度为强分类器hs错误度为
其中,hp(Xi)≠yi表示弱分类器hp对第i个训练样本数据组分类错误,P(hp(Xi)≠yi)表示本轮迭代训练中弱分类器hp分类错误样本数据组的样本权重值总和,hs(Xi)≠yi表示弱分类器hs对第i个训练样本数据组分类错误,P(hs(Xi)≠yi)表示本轮迭代训练中强分类器分类错误样本数据组的样本权重值总和。
5.根据权利要求4所述的方法,其特征在于,所述步骤S4中的预设阈值为0.5。
6.根据权利要求5所述的方法,其特征在于,所述步骤S5为:
根据所述弱分类器错误度εp设置弱分类器hp的分类器权重值αp
根据所述强分类器错误度εs设置强分类器hs的分类器权重值αs
7.根据权利要求6所述的方法,其特征在于,所述步骤S6为:
当本轮迭代训练得到的弱分类器错误度大于上一轮迭代训练得到的弱分类器错误度且本轮迭代训练得到的强分类器错误度大于上一轮迭代训练得到的强分类器错误度时,根据本轮训练之前的各轮迭代训练得到的分类器及其分类器权重值整合获得最终分类器H(Xi):
否则,重新设置所述样本数据集D中每一个训练样本数据组的样本权重值Wt+1(i),并返回步骤S3:
其中,hp(Xi)=yi表示弱分类器hp对第i个训练样本数据组分类正确,hp(Xi)≠yi表示弱分类器hp对第i个训练样本数据组分类错误,hs(Xi)=yi表示强分类器hs对第i个训练样本数据组分类正确,hs(Xi)≠yi表示弱分类器hs对第i个训练样本数据组分类错误,Zt为归一化因子且Zt=sum(D),y为标签向量,Hp(Xi)=sign(αphp(Xi)),Hs(Xi)=sign(αshs(Xi)),sign为符号函数。
8.根据权利要求7所述的方法,其特征在于,所述弱分类器为采用朴素贝叶斯算法构建的分类器,所述强分类器为采用SMO算法构建的分类器。
CN201810318399.6A 2018-04-11 2018-04-11 基于改进Adaboost算法的数据源分类器构建方法 Pending CN108537279A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810318399.6A CN108537279A (zh) 2018-04-11 2018-04-11 基于改进Adaboost算法的数据源分类器构建方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810318399.6A CN108537279A (zh) 2018-04-11 2018-04-11 基于改进Adaboost算法的数据源分类器构建方法

Publications (1)

Publication Number Publication Date
CN108537279A true CN108537279A (zh) 2018-09-14

Family

ID=63479915

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810318399.6A Pending CN108537279A (zh) 2018-04-11 2018-04-11 基于改进Adaboost算法的数据源分类器构建方法

Country Status (1)

Country Link
CN (1) CN108537279A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110378389A (zh) * 2019-06-24 2019-10-25 苏州浪潮智能科技有限公司 一种Adaboost分类器计算机创建装置
CN111553388A (zh) * 2020-04-07 2020-08-18 哈尔滨工程大学 一种基于在线AdaBoost的垃圾邮件检测方法
CN113610148A (zh) * 2021-08-04 2021-11-05 北京化工大学 一种基于偏置加权AdaBoost的故障诊断方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110378389A (zh) * 2019-06-24 2019-10-25 苏州浪潮智能科技有限公司 一种Adaboost分类器计算机创建装置
CN111553388A (zh) * 2020-04-07 2020-08-18 哈尔滨工程大学 一种基于在线AdaBoost的垃圾邮件检测方法
CN113610148A (zh) * 2021-08-04 2021-11-05 北京化工大学 一种基于偏置加权AdaBoost的故障诊断方法
CN113610148B (zh) * 2021-08-04 2024-02-02 北京化工大学 一种基于偏置加权AdaBoost的故障诊断方法

Similar Documents

Publication Publication Date Title
Lee et al. Patentbert: Patent classification with fine-tuning a pre-trained bert model
Li et al. A review of adversarial attack and defense for classification methods
CN104750844B (zh) 基于tf-igm的文本特征向量生成方法和装置及文本分类方法和装置
CN102346829B (zh) 基于集成分类的病毒检测方法
CN100583101C (zh) 基于领域知识的文本分类特征选择及权重计算方法
Cohen et al. End to end long short term memory networks for non-factoid question answering
Revsbech et al. STACCATO: a novel solution to supernova photometric classification with biased training sets
CN106096066A (zh) 基于随机近邻嵌入的文本聚类方法
CN109492075B (zh) 一种基于循环生成对抗网络的迁移学习排序方法
CN108537279A (zh) 基于改进Adaboost算法的数据源分类器构建方法
CN105426529A (zh) 基于用户搜索意图定位的图像检索方法及系统
CN104462301A (zh) 一种网络数据的处理方法和装置
CN103886108A (zh) 一种不均衡文本集的特征选择和权重计算方法
CN106971000A (zh) 一种搜索方法及装置
Chen et al. Clustering and ranking in heterogeneous information networks via gamma-poisson model
Ren et al. Autotransformer: Automatic transformer architecture design for time series classification
CN103218419B (zh) 网络标签聚类方法和系统
Zhang et al. Reinforced adaptive knowledge learning for multimodal fake news detection
CN106971005A (zh) 一种云计算环境下基于MapReduce的分布式并行文本聚类方法
Tian et al. Learning to judge image search results
Campbell et al. Content+ context networks for user classification in twitter
Chen et al. Incorporating ranking context for end-to-end BERT re-ranking
Zhao et al. Open-world person re-identification with deep hash feature embedding
Efimov et al. Kdd cup 2013-author-paper identification challenge: second place team
Siklósi et al. Content-based trust and bias classification via biclustering

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20180914

RJ01 Rejection of invention patent application after publication