CN110377732A - 一种基于样本缩放的文本分类的方法 - Google Patents

一种基于样本缩放的文本分类的方法 Download PDF

Info

Publication number
CN110377732A
CN110377732A CN201910567013.XA CN201910567013A CN110377732A CN 110377732 A CN110377732 A CN 110377732A CN 201910567013 A CN201910567013 A CN 201910567013A CN 110377732 A CN110377732 A CN 110377732A
Authority
CN
China
Prior art keywords
sample
distance
training
text classification
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910567013.XA
Other languages
English (en)
Inventor
潘雨青
翟文鹏
李搏
薛惠丹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jiangsu University
Original Assignee
Jiangsu University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jiangsu University filed Critical Jiangsu University
Priority to CN201910567013.XA priority Critical patent/CN110377732A/zh
Publication of CN110377732A publication Critical patent/CN110377732A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明公开了一种基于样本缩放的文本分类的方法,通过计算数据样本到分类超平面的距离,找到离支持向量机的分类面较远的样本并予以删除,并根据这个距离来对剩余的样本赋予相应的权值,然后用这些加权后的数据样本进行支持向量机的训练。本发明所提出的分类方法首先对样本数据进行约减,然后再对数据进行相应的加权,以此来用于在支持向量机进行文本分类。不仅可以降低噪声数据对支持向量机分类的影响,提高模型的噪声抗扰度,而且还减少了支持向量的数量,获得了更好的文本分类准确率。

Description

一种基于样本缩放的文本分类的方法
技术领域
本发明属于人工智能技术领域,尤其涉及一种基于样本缩放的文本分类的方法。
背景技术
支持向量机是一种基于统计学习理论的机器学习算法。近年来,它因具有较好的泛化性能而备受关注。在实际应用中,支持向量机已经显示出比传统学习机更高的性能。因此,支持向量机已广泛应用于模式识别和函数回归。但是,传统的支持向量机及其改进版本都假设给定训练集中的样本对构造最优分离超平面具有相等的贡献。然而,在许多实际工程应用中,所获得的训练数据往往受到噪声的污染。因此,处理大规模训练数据中的噪声成为了主要问题,如何提高支持向量机处理大规模数据的效率也变成了近年来研究的热点。
目前已经提出了一些方法来解决上述问题,主要分为两类:1.将利用标准二次型优化技术解决对偶问题的方法来解決。例如由Cortes和Vapnik提出的分块算法(Chunking),Osuna提出的分解算法,以及Platt提出了“序列最小化”(SequentialMinimalOptimization,SM0)算法和由Keerthi等人提出的改进之后的SMO算法等。2.从原大样本的训练数据集中选择小部分具有代表性的样本数据进行训练学习,以此来减少训练样本点数量。典型的有Lee等提出了RSVM,利用随机采样技术在训练数据集中进行随机采样选取训练子集,用子集来训练分类超平面;Zheng等在RSVM的基础上进行了一些改进,在训练子集的选取上采用了聚类方法;但上述方法在缩减数据规模的同时,因其选择的具有代表性的子样本集并不能准确代表原始样本集的分布情况,导致所选择的样本分类信息含量减少,进而影响分类精度。有了上面的结论,一个自然的想法便是,找出那些对于降低验证集loss没有帮助的样本,把他们从训练集中排除,从而提升模型的性能。Wang等通过初始模型上计算每个样本的影响,去掉那些对降低验证集loss的样本后,使用新的训练集再次训练得到最终的模型。这个方法有效地提高了精度,但却受到计算费用和简化转换形式的限制,影响了分类的速度
虽然现有的方法在传统支持向量机方法上做了很大的改进,在处理大样本数据集上体现了各自的优势,但他们忽视了训练数据集中只有处于最终的分离超平面附近的训练样本点才可能成为支持向量,而其余的训练样本点大多在训练支持向量机的时候起到的作用很微小或者没有。因为在进行支持向量机学习时,只有支持向量对构建分类超平面起作用,所以在支持向量机模型学习时,不必让所有训练样本参与训练,而可以选取其中最有可能成为支持向量的边界样本来参与训练。
发明内容
本发明根据现有技术中存在的问题,提出了一种基于样本缩放的文本分类的方法,能够降低非临界样本和噪声数据对支持向量机进行文本分类的影响,提高噪声抗扰度,并能获得更好的分类准确率。
本发明所采用的技术方案如下:
一种基于样本缩放的文本分类的方法,包括以下步骤:
S1,获取部分文本数据作为训练样本集T={(xi,yi)},其中,xi为第i个特征向量,yi是xi的类别标签;
S2,利用训练样本集T训练SVM模型,从而得到相应的决策面F(x)=(wTx+b),根据样本集T中所有样本距离决策面的距离di,其中,x是决策面上的支持向量,w是根据训练得到的决策面上支持向量的权重,b是偏移量;
S3,设定样本的距离判断条件,将不满足距离判断条件的样本删除,对满足样本距离判断条件的样本进行加权处理,得到新的样本数据集R1;基于新的样本数据集R1进行支持向量机训练,从而得到新的决策面F(x)=(wTxvi+b),其中,vi为样本权重;
S4,根据新决策面F(x)=(wTxvi+b)的权值w,计算并更新损失lossold←lossnew且代次数加1;
S5,当设定循环的判断条件,若满足则继续循环到S2再次循环求解,否则退出循环找出最优解w和b,并得到最终的决策面;
S6,将测试集输入最终的分类模型,得到测试文本数据的标签值输出结果,实现对文本的分类;
进一步,所述距离判断条件为:样本距离di是否大于1;
进一步,所述距离di=|wTxi+b|/||w2||;
进一步,对样本进行加权处理的方法为:vi=max(0,1-di);
进一步,所述判断条件为损失loss大于1e-6或者迭代次数小于50次;
进一步,所述损失loss的计算方法为:
本发明的有益效果:
本发明提出了一种基于样本缩放的文本分类的方法,这与现有的工作技术不同。本发明通过计算数据样本到分类超平面的距离,找到离支持向量机的分类面较远的样本并予以删除,然后再进行相应的加权,以此来用于支持向量机的训练学习。我们在该发明中充分考虑了样本的因素,避免了噪声数据对决策面的影响。
在UCI数据集和文本数据集上的大量实验表明,我们的发明可以降低非临界样本和噪声数据对支持向量机学习的影响,提高噪声抗扰度,而且还减少了支持向量的数量,获得了更好的分类准确率。
附图说明
图1是本发明方法的主流程图;
图2是在训练中迭代10次时支持向量个数变化图;
图3是使用本发明与与其他方法得到的分类精度对比图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用于解释本发明,并不用于限定本发明。
如图1所示,一种基于样本缩放的文本分类的方法,具体步骤如下:
S1,获取文本数据作为样本集,对于空间R,设给定一个训练样本集T={(xi,yi)},其中xi∈X=Rn,yi∈Y={+1,-1,...,s},i=1,2,…,N,xi为第i个特征向量,也称为实例,yi是xi的类别标签,(xi,yi)称为样本点,训练样本集共有N个样本数据对象,这些样本对象分属于S个类别。
S2,利用训练样本集T训练SVM模型,从而得到相应的决策面F(x)=(wTx+b),x是决策面上的支持向量,w是根据训练得到的决策面上支持向量的权重,b是偏移量。计算样本数据集中N个样本距离决策面的距离di,单个样本的距离di计算公式如下:
di=|wTxi+b|/||w2||
其中,di表示第i个原始待测样本到决策面的距离,wTxi+b是xi和w的夹角余弦wTxi平移b个截距的结果,这样di越小,特别是它小于1,说明这个样本点离超平面越近。
S3,依据S2计算出的样本数据集T中各个数据对象到决策面的距离di,设定距离判断条件,即找到di大于1的的样本,因为这些样本的标签值yi(wTxidi+b)远大于1,删除di大于1的样本以减少样本数据集T中所包含的对训练作用不大的样本数据。同时对样本数据集中剩下的di小于1的样本数据对象;
由于一个数据点的距离di越大,这个点作为离群值或噪声数据点的概率越高,因此需要忽略这个训练样本点。相反,当一个数据点的距离di越小,表示这个数据点是一个非常重要的样本,因此将给予这个训练样本点更多的权重;根据到决策面的远近对他们分配相应的权值。通过样本加权公式:
vi=max(0,1-di)依据新训练样本数据集R1进行支持向量机训练,从而得到新的决策面F(x)=(wTxvi+b)。
S4,根据新决策面F(x)=(wTxvi+b)的权值w,计算出设开始时lossold=0,从而得到loss=|lossold-lossnew|。更新lossold←lossnew,迭代次数加1。
S5,循环判断条件为:loss大于1e-6或者迭代次数小于50次。S4中计算出loss或者迭代次数与循环判断条件相比,符合条件,则继续循环到S2,再次求解;若不符合循环判断条件,则退出循环,当循环退出,则代表已经找出最优解w和b,并得到最终的决策面;
S6,将测试集输入最终的分类模型,得到测试文本数据的标签值输出结果,实现对文本的分类。
为了更清楚的说明本发明的效果,以下结合本发明在部分数据集上的实验效果进一步说明:
表1原始数据
实验中所用的数据集详细情况如表1所示,这些不同的数据集样本个数,数据维数都各不相同,可以客观的反映本发明所提出算法的有效性。
图2是表1数据经本发明处理时迭代10次过程中支持向量个数变化的过程。从图2可以看出,本发明在所有数据集上都可以降低支持向量个数,随着迭代次数的增加,支持向量个数也会逐渐收敛。
图3所得的实验数据是对表1的数据经过本发明优化后然后进行SVM的训练得出的分类准确度与libsvm、基于径向距离的SVM(R-SVMu+)、基于距离度量学习的SVM(R-SVM+)、相关距离(RMM)方法进行对比,本发明的方法在分类准确率上优于其他方法。
以上实施例仅用于说明本发明的设计思想和特点,其目的在于使本领域内的技术人员能够了解本发明的内容并据以实施,本发明的保护范围不限于上述实施例。所以,凡依据本发明所揭示的原理、设计思路所作的等同变化或修饰,均在本发明的保护范围之内。

Claims (6)

1.一种基于样本缩放的文本分类的方法,其特征在于,S1,获取部分文本数据作为训练样本集T={(xi,yi)},其中,xi为第i个特征向量,yi是xi的类别标签;
S2,利用训练样本集T训练SVM模型,从而得到相应的决策面F(x)=(wTx+b),根据样本集T中所有样本距离决策面的距离di,其中,x是决策面上的支持向量,w是根据训练得到的决策面上支持向量的权重,b是偏移量;
S3,设定样本的距离判断条件,将不满足距离判断条件的样本删除,对满足样本距离判断条件的样本进行加权处理,得到新的样本数据集R1;基于新的样本数据集R1进行支持向量机训练,从而得到新的决策面F(x)=(wTxvi+b),其中,vi为样本权重;
S4,根据新决策面F(x)=(wTxvi+b)的权值w,计算并更新损失lossold←lossnew且代次数加1;
S5,当设定循环的判断条件,若满足则继续循环到S2再次循环求解,否则退出循环找出最优解w和b,并得到最终的决策面;
S6,将测试集输入最终的决策面,得到测试文本数据的标签值输出结果,实现对文本的分类。
2.根据权利要求1所述的一种基于样本缩放的文本分类的方法,其特征在于,所述距离判断条件为:样本距离di是否大于1。
3.根据权利要求1所述的一种基于样本缩放的文本分类的方法,其特征在于,所述距离di=|wTxi+b|/||w2||。
4.根据权利要求1所述的一种基于样本缩放的文本分类的方法,其特征在于,对样本进行加权处理的方法为:vi=max(0,1-di)。
5.根据权利要求1所述的一种基于样本缩放的文本分类的方法,其特征在于,所述判断条件为损失loss大于1e-6或者迭代次数小于50次。
6.根据权利要求5所述的一种基于样本缩放的文本分类的方法,其特征在于,所述损失loss的计算方法为:
CN201910567013.XA 2019-06-27 2019-06-27 一种基于样本缩放的文本分类的方法 Pending CN110377732A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910567013.XA CN110377732A (zh) 2019-06-27 2019-06-27 一种基于样本缩放的文本分类的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910567013.XA CN110377732A (zh) 2019-06-27 2019-06-27 一种基于样本缩放的文本分类的方法

Publications (1)

Publication Number Publication Date
CN110377732A true CN110377732A (zh) 2019-10-25

Family

ID=68250923

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910567013.XA Pending CN110377732A (zh) 2019-06-27 2019-06-27 一种基于样本缩放的文本分类的方法

Country Status (1)

Country Link
CN (1) CN110377732A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111553170A (zh) * 2020-07-10 2020-08-18 腾讯科技(深圳)有限公司 文本处理方法、文本特征关系抽取方法及装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104463221A (zh) * 2014-12-22 2015-03-25 江苏科海智能系统有限公司 适用于支持向量机训练的不平衡样本加权方法
CN106557785A (zh) * 2016-11-23 2017-04-05 山东浪潮云服务信息科技有限公司 一种优化数据分类的支持向量机方法
CN109816016A (zh) * 2019-01-23 2019-05-28 淮海工学院 基于大规模训练集支持向量机的故障诊断方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104463221A (zh) * 2014-12-22 2015-03-25 江苏科海智能系统有限公司 适用于支持向量机训练的不平衡样本加权方法
CN106557785A (zh) * 2016-11-23 2017-04-05 山东浪潮云服务信息科技有限公司 一种优化数据分类的支持向量机方法
CN109816016A (zh) * 2019-01-23 2019-05-28 淮海工学院 基于大规模训练集支持向量机的故障诊断方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111553170A (zh) * 2020-07-10 2020-08-18 腾讯科技(深圳)有限公司 文本处理方法、文本特征关系抽取方法及装置
CN111553170B (zh) * 2020-07-10 2020-10-20 腾讯科技(深圳)有限公司 文本处理方法、文本特征关系抽取方法及装置

Similar Documents

Publication Publication Date Title
Deng et al. Variational prototype learning for deep face recognition
Ru et al. Interpretable neural architecture search via bayesian optimisation with weisfeiler-lehman kernels
Cantú-Paz et al. Inducing oblique decision trees with evolutionary algorithms
CN112395393B (zh) 一种基于多任务多示例的远程监督关系抽取方法
CN105930862A (zh) 一种基于密度自适应距离的密度峰聚类算法
CN114021799A (zh) 风电场日前风电功率预测方法及系统
Zhao et al. Phrase table as recommendation memory for neural machine translation
CN107145514B (zh) 基于决策树和svm混合模型的中文句型分类方法
Zhu et al. Collaborative decision-reinforced self-supervision for attributed graph clustering
CN109299263A (zh) 文本分类方法、电子设备及计算机程序产品
Zhou et al. Congestion-aware global routing using deep convolutional generative adversarial networks
Wu et al. Learning token-based representation for image retrieval
CN116821715A (zh) 一种基于半监督约束的人工蜂群优化聚类方法
CN110377732A (zh) 一种基于样本缩放的文本分类的方法
Zhong et al. An Improved Differential Evolution Algorithm Based on Dual‐Strategy
Dong et al. Scaling distributed training of flood-filling networks on hpc infrastructure for brain mapping
CN105069474B (zh) 用于音频事件分类的半监督学习高置信度样本挖掘方法
Zhang et al. Semantic hierarchy preserving deep hashing for large-scale image retrieval
CN117349311A (zh) 一种基于改进RetNet的数据库自然语言查询方法
CN112085335A (zh) 一种用于配电网故障预测的改进随机森林算法
CN109344972A (zh) 一种基于特征可信度的高效特征选择方法
CN112926340B (zh) 一种用于知识点定位的语义匹配模型
CN109359671A (zh) 一种水电站水库调度规则的分类智能提取方法
Park Data proxy generation for fast and efficient neural architecture search
CN114220086A (zh) 一种成本高效的场景文字检测方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination