CN113157912A - 一种基于机器学习的文本分类方法 - Google Patents
一种基于机器学习的文本分类方法 Download PDFInfo
- Publication number
- CN113157912A CN113157912A CN202011544023.0A CN202011544023A CN113157912A CN 113157912 A CN113157912 A CN 113157912A CN 202011544023 A CN202011544023 A CN 202011544023A CN 113157912 A CN113157912 A CN 113157912A
- Authority
- CN
- China
- Prior art keywords
- text
- classification
- term
- frequency
- word
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 41
- 238000010801 machine learning Methods 0.000 title claims abstract description 24
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 33
- 238000012545 processing Methods 0.000 claims abstract description 19
- 230000011218 segmentation Effects 0.000 claims abstract description 19
- 238000012896 Statistical algorithm Methods 0.000 claims abstract description 17
- 238000012549 training Methods 0.000 claims abstract description 16
- 238000007781 pre-processing Methods 0.000 claims abstract description 13
- 238000013145 classification model Methods 0.000 claims abstract description 8
- 230000000694 effects Effects 0.000 claims abstract description 8
- 230000009467 reduction Effects 0.000 claims abstract description 8
- 239000013598 vector Substances 0.000 claims description 29
- 238000004364 calculation method Methods 0.000 claims description 15
- 230000001105 regulatory effect Effects 0.000 claims description 6
- 238000012217 deletion Methods 0.000 claims description 4
- 230000037430 deletion Effects 0.000 claims description 4
- 230000000717 retained effect Effects 0.000 claims description 3
- 238000007619 statistical method Methods 0.000 claims description 3
- AQOSPGCCTHGZFL-UHFFFAOYSA-N 1-(3a-hydroxy-7-methoxy-1,2,4,8b-tetrahydropyrrolo[2,3-b]indol-3-yl)ethanone Chemical compound COC1=CC=C2NC3(O)N(C(C)=O)CCC3C2=C1 AQOSPGCCTHGZFL-UHFFFAOYSA-N 0.000 abstract description 4
- 101000985278 Escherichia coli 5-carboxymethyl-2-hydroxymuconate Delta-isomerase Proteins 0.000 abstract description 4
- 102100040448 Leukocyte cell-derived chemotaxin 1 Human genes 0.000 abstract description 4
- 238000005516 engineering process Methods 0.000 description 7
- 241000282414 Homo sapiens Species 0.000 description 5
- 230000008569 process Effects 0.000 description 4
- 238000011161 development Methods 0.000 description 3
- 230000018109 developmental process Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000006872 improvement Effects 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000002411 adverse Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000007635 classification algorithm Methods 0.000 description 1
- 238000007596 consolidation process Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000013508 migration Methods 0.000 description 1
- 230000005012 migration Effects 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 239000009891 weiqi Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
- G06F40/216—Parsing using statistical methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/10—Machine learning using kernel methods, e.g. support vector machines [SVM]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Probability & Statistics with Applications (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Databases & Information Systems (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明涉及一种基于机器学习的文本分类方法,其中,包括:文本数据预处理、文本表示、特征降维、分类模型训练以及分类性能评估;文本数据预处理具体包括:按照顺序需要对文本数据进行操作:文本标记、文本分词处理以及去除停用词处理;文本表示包括:经过文本预处理之后,将文本表示成一种形式化数学描述,使之成为计算机能够识别的语言;卡方统计算法以及互信息算法,进行特征降维。本发明在CHI中引入词频因子,MI中引入调节因子,形成新的特征选取算法CHMI,理论效果优于卡方统计和互信息算法,实现了快速、准确获取到目标数据。
Description
技术领域
本发明涉及文本分类技术,特别涉及一种基于机器学习的文本分类方法。
背景技术
随着互联网和社交媒体的发展,目前网络上已经有海里的文本信息,包括维基百科词条、学术文章、新闻报道、以及各种售后服务评论,而这些文本信息中蕴含了大量有价值的信息,
在海量的电子文本数据之中想要实现快速、准确获取到目标数据,对文本文档实现合理分类就变成了这个过程当中一个非常直接和现实的迫切问题。
20世纪80年代以前,受限于技术的发展,处理文本分类这类问题时,通行的做法是通过专家制定规则、人为地选择、制定分类准则从而完成分类器的指导和搭建工作。比较著名的例子是Carnegine Group为路透社开发的CONSTRUE系统,该系统首先由专业人员设计编写分类规则并指导系统完成分类巩固走,主要用于对新闻稿件实现自动分类;同时期还有美国白宫采用的一种邮件分类系统,主要用于对电子邮件的自动分拣和处理工作。这种分类方法在当时取得了比较好的效果,并对文本分类技术起到了积极作用和产生了深远影响。
通过知识工程构建起来的分类器有诸多缺陷:首先需要人类专家根据对待分类文档进行特征分析、总结得到对象特点的基础上,再人为设计提出并选定适当规则,并且针对一个领域所建立的文本分类器在应对其他知识领域的分类情况时,往往回出现分类效果不佳等问题,主要原因在于通过知识工程构建文本分类方法的过程中存在对专家能力过度依赖。由于人类专家研究领域有限,所建立的文本分类器的有效领域也是有限的,在其他领域使用会出现可复现性差或迁移能力差等相关问题。此外,在涉及到数据集规模较大较复杂的文本分类情况时,为应对比较大的工作量又需要大量的专家参与其中,故又显示出方法不够聪明并且费时费力的缺陷。
发明内容
本发明通过引入一种基于机器学习的文本分类方法,以此进行更高效的文本分类。
本发明一种基于机器学习的文本分类方法,其中,包括:文本数据预处理、文本表示、特征降维、分类模型训练以及分类性能评估;文本数据预处理具体包括:按照顺序需要对文本数据进行操作:文本标记、文本分词处理以及去除停用词处理;文本表示包括:经过文本预处理之后,将文本表示成一种形式化数学描述,使之成为计算机能够识别的语言;卡方统计算法以及互信息算法,进行特征降维;分类模型训练包括:采用SVM来进行分类,定义训练数据集中的两个类别中几何距离最近的两组数据为支持向量,超平面H就是与这两组分属于不同类别的数据连线的垂直平分线,而分类线H1与H2分别是指经过这两个类别中支持向量,首先寻找支持向量,通过训练集中不同类数据的几何距离来剔除大量冗余数据,根据保留的少量数据即支持向量,找到超平面H进行类别划分。
根据本发明所述的基于机器学习的文本分类方法的一实施例,其中,文本标记的处理包括:文本中的表情符、图片或者链接非中文字符无法对文本分类提高直接且有用的帮助,进行删除。
根据本发明所述的基于机器学习的文本分类方法的一实施例,其中,去除停用词包括:经过分词处理之后的文本数据仍然还存在许多功能词和停用词,对停用词和功能词进行额外删除。
根据本发明所述的基于机器学习的文本分类方法的一实施例,其中,文本分词的处理包括:首先识别出中文语句中存在的标点符号或是某些汉语文字,并在这些出现位置上通过添加空格符实现切分效果并得到切分后的词条内容,相邻字通过统计学方法得到分布信息,如果得到统计值很高达到一定阈值时,就判定这组相邻的字就可能是一个词语。
根据本发明所述的基于机器学习的文本分类方法的一实施例,其中,文本表示通过VSM模型表示成一种形式化数学描述,通过将文本中带有文本主题特征的那些词项表示成特征向量,每一个具有独立属性的词项所对应的一个特征向量就构成了这篇文本特征向量的一个维度,将文本转化成了空间中的一个高维特征向量。
根据本发明所述的基于机器学习的文本分类方法的一实施例,其中,利用VSM模型对文本进行文本表示时,词项以及词项的权重将成为文本表示这个模型的组成部分,文本D就能被n个词项以及他们的权重值所组成的特征向量代表,表示形式如下:D={(t1,w1),(t2,w2),...,(ti,wj),...(tn,wn)},其中ti,wj分别是指对应的第i个特征词以及第i个特征词的权重值。
根据本发明所述的基于机器学习的文本分类方法的一实施例,其中,卡方统计算法包括:
卡方统计算法公式基于词项的词频因子,其大小等于这个词项在该类别文档中出现的词频数与在全体文本数据集文档中存在该词项的文本频数大小的比值。其计算公式:
n(ti,cj)是指词项ti在类别结果为cj的文档中出现的次数,n(ti)是指在全体文本数据集文档中,文本中存在词项ti的文本频数;
词频因子α(ti)的大小由词项ti在某类别文档中出现的频数以及这个词项在全体文本数据集文档中出现的频数大小所决定。词频因子α(ti)数值越大,代表该词项ti只在这一个类别文档中出现的频率越高;词频因子α(ti)数值越小,代表该词项ti只在这一个类别文档中出现的频率越小,引入词频因子α(ti),利用卡方统计算法更容易找到对分类更有帮助的特征词。
根据本发明所述的基于机器学习的文本分类方法的一实施例,其中,互信息算法包括:提出基于词项的调节因子,大小等于该类别文档中存在这个词频的文本书与该类别文档中总文本数大小的比值,其计算公式如下:
D(ti,cj)是指在类别结果为cj的文档中存在词项ti的文本频数,d(cj)是指类别结果为cj的文档中的总文本频数;
调节因子D(ti,cj)的大小由在类别文档中存在词项ti的文本频数以及在这个类别文档中不存在词项ti的文本频数所决定,调节因子D(ti,cj)数值越大,代表在类别结果为cj的文档中出现存在词项ti的文本比例越高,反之越小,这样的词项在该类别文档中更可能是低频词。
本发明提出了一种基于机器学习的文本分类方法,在CHI中引入词频因子,MI中引入调节因子,形成新的特征选取算法CHMI,理论效果优于卡方统计和互信息算法。实现快速、准确获取到目标数据。
附图说明
图1为基于机器学习的文本分类方法示意图;
图2为训练数据集中存在所属类别不相同的两种数据分别用不同的图形表示。
具体实施方式
为使本发明的目的、内容、和优点更加清楚,下面结合附图和实施例,对本发明的具体实施方式作进一步详细描述。
本发明一种基于机器学习的文本分类方法包括:
如图1所示,在文本分类技术的历史发展进程中,最初是由人工为主导定义分类规则,后来逐渐发展成为由计算机主导通过计算机识别、分类模型训练,最终得到分类结果。文本分类方法一般包含以下几个关键处理环节,分别是:文本数据预处理、文本表示、特征降维、分类模型训练、分类性能评估等步骤。
文本数据预处理具体包括:
为实现文本自动分类,在拿到数据集后的第一个处理步骤是对文本数据首先进行预处理操作,在这一过程中,按照顺序需要对文本数据进行如下操作:文本标记、分词、以及去除停用词处理
文本标记的处理包括:
文本中的表情符、图片或者链接等非中文字符无法对文本分类提高直接且有用的帮助,需要删除。
文本分词的处理包括:
中文文本分词技术的基本原理是利用分词算法,首先识别出中文语句中存在的标点符号或是某些汉语文字,并在这些出现位置上通过添加空格符实现切分效果并得到切分后的词条内容。本方法采用基于统计的分词技术,该技术的主要思想是:在数据集中利用N-gram、最大熵等模型实现对一些相邻字通过统计学方法得到他们的分布信息,如果得到统计值很高达到一定阈值时,就判定这组相邻的字就可能是一个词语。按照这种方法进行中文分词,具有方法简单、容易实行等优点
去除停用词包括:
经过分词处理之后的文本数据仍然还存在许多功能词和停用词,如“并且、而且,还”,“是、在、有”,“的”等,这些词的使用频率虽高,却不能为文本分类提高任何判别信息,为方便后续分类,需要在本阶段对停用词和功能词进行额外删除。
文本表示包括:
经过文本预处理环节之后,得到的文本数据大概是这样的:“我/热爱/围棋”。这些数据都是字符数据,并且没有呈现出文本的结构化信息,即使将这些数据输入计算机,计算机也无法直接利用和进行后续的文本分类,因此需要对文本数据进行进一步处理,本方法通过VSM模型将文本表示成一种形式化数学描述,使之成为计算机能够识别的语言。
VSM的思想是通过将文本中带有文本主题特征的那些词项表示成特征向量,那么每一个具有独立属性的词项所对应的一个特征向量就构成了这篇文本特征向量的一个维度,最后将该文本转化成了空间中的一个高维特征向量。
利用VSM模型对文本进行文本表示时,词项以及词项的权重将成为文本表示这个模型的组成部分,文本D就能被n个词项以及他们的权重值所组成的特征向量代表,表示形式如下:D={(t1,w1),(t2,w2),...,(ti,wj),...(tn,wn)},其中ti,wj分别是指对应的第i个特征词以及第i个特征词的权重值。
特征降维包括:
特征降维的目的是通过数据降维仍然能够完整保存原始文本特征,不仅能够减少分类计算量,还能提供分类精度、提升效率,同时还可以避免分类器过拟合等现象。特征选取是对文本数据进行的一种常用特征降维方式,一般流程是:根据文本数据集特点,通过选定流程选取适合的特征计算函数,对数据集中的每一条文本中的每个词项分别进行特征计算得到量化结果,将结果按照由大到小进行顺序排列,根据提前设定的阈值情况,从中选出一定数量的特征项作为原始文本数据的代表,期间不涉及特征空间的转化问题。本方法基于CHI、MI,提出一种改进型的特征降维算法。
卡方统计算法(CHI)包括:
CHI算法对文本特征由于具备较好的量化能力,因此经常用于文本分类问题并作为其中一种重要的算法进行使用。但也存在对低频词的高估问题,因此需进行改进。接下来进行举例说明,下附某文本数据集的一段节选的三条语句:
“小郎是一名钢琴家同时也爱好围棋,小郎最崇拜的围棋明星是柯洁,他是一位伟大的围棋运动员,在围棋领域里取得了令人瞩目的成绩”
“据统计,钢琴家中最常见的是男性”
“如何才能成为一名优秀的钢琴家,答案往往是:源于兴趣”
上述节选内容中,一共有三条语句,“围棋”出现了4次,“钢琴家”出现了3次。其中,“围棋”只在语句一中出现,而“钢琴家”在三条语句中各出现1次。现在假设该文本数据集中一共存有20篇文本,分为两个类别。类别一有10篇文本:其中有3篇文本都出现了语句一,剩下的7篇文本中都出现了后两条语句。类别二也有十篇文本:其中没有文本出现语句一,但10篇文本中有2篇出现了后两条语句。利用卡方统计算法公式计算词项“围棋”与“钢琴家”的卡方统计值,此时可以得到“围棋”的卡方统计值CHI=60/17≈3.5,这个值远小于“钢琴家”的卡方统计值CHI=40/3≈13.3。所以按照卡方统计算法的思想,根据计算结果此时进行特征选取需优先选择“钢琴家”作为特征词。但从本文涉及的文本数据集中可以观察得到,词项“围棋”仅在类别一中出现,并且出现频度很高,而词项“钢琴家”在所有类别文档中均有出现,在此时若选择“围棋”作为特征词,可以带来更好的类别分类信息。所以,这里应该选择“围棋”作为特征词。上述内容中提到了卡方统计算法中存在的问题,分析后可知,这是由于算法只统计了存在某词项的文本数量而忽略了该词项在文本中具有词频信息这一重要因素所导致的。当计算某词项的卡方信息值时,如果该词项仅在某一类别文档的少量文本中频繁出现,即使出现频度很高,按照卡方统计算法,得到的结果值也不会太大,就可能导致该词项无法被优先选取为特征词,但往往该词项具备很好的类别分类信息,可以更好的代表文本内容。所以,针对以上情况的发生,为选取得到更好的特征词,需要对该算法做出改进。
针对卡方统计算法公式中,未考虑词项在文本中出现的频度关系,这里提出基于词项的词频因子,其大小等于这个词项在该类别文档中出现的词频数与在全体文本数据集文档中存在该词项的文本频数大小的比值。其计算公式所示:
在上式中,n(ti,cj)是指词项ti在类别结果为cj的文档中出现的次数,n(ti)是指在全体文本数据集文档中,文本中存在词项ti的文本频数。
词频因子α(ti)的大小由词项ti在某类别文档中出现的频数以及这个词项在全体文本数据集文档中出现的频数大小所决定。词频因子α(ti)数值越大,代表该词项ti只在这一个类别文档中出现的频率越高;词频因子α(ti)数值越小,代表该词项ti只在这一个类别文档中出现的频率越小,也就是说,更容易在其他类别文档中找到。引入词频因子α(ti),可以利用卡方统计算法更容易找到对分类更有帮助的特征词。
例如:我们可以算出“围棋”的词频因子α(t1)=4,“钢琴家”的词频因子α(t2)=5/6≈0.83。所以根据词频因子的计算结果,需要特别注意“围棋”的词频因子。再结合词频“围棋”与“钢琴家”的卡方统计值,可得:“围棋”CHI*α(t1)=14,“钢琴家”CHI*α(t2)=100/9≈11.1,所以引入词频因子后的结果应优先选取“围棋”而不是“钢琴家”作为特征词,这与真实案例中的选取结果相一致。
互信息算法(MI)包括:
MI算法的基本思想较直接,可以考虑词项与词项的类内分布之间的相关关系,同时它还考虑了词项的类间关系。但它也存在对低频词具备的类别特征信息量的高估问题。接下来进行举例说明,现假定又一文本数据集中共存有2000篇文本,分为两个类别,类别一(即c1)中有1000篇文本,类别二(即c2)中有1000篇文本,现对其中四个词项(t1,t2,t3,t4)进行互信息值计算。文本中这四个词项在各类别文档中的分布情况如下表:
t<sub>1</sub> | t<sub>2</sub> | t<sub>3</sub> | t<sub>4</sub> | |
c<sub>1</sub> | 900 | 500 | 200 | 100 |
c<sub>2</sub> | 100 | 500 | 800 | 10 |
根据上表中的数据,利用互信息算法公式得到的互信息值分别为MI(t1)=log(9/5),MI(t2)=log(1),MI(t3)=log(8/5),MI(t4)=log(20/11)。所以按照互信息算法的思想,根据以上计算结果若进行特征选取需优先选择词t4,t1,t3作为特征词。但从上表中词项在各类别文档中的分布情况可以观察得到,词项t1,t3具有比较好的分类信息,而词项t4在文本数据集中出现较少,属于低频词,并不具备比较好的分类信息,在此时若选择词项t4作为特征词,并不能带来很好的类别分类信息,而且还容易造成分类误差。所以,这里应该舍弃词项t4作为特征词。由于词项t4的出现频数太少,若按照MI算法选取为特征词,在实际中会对分类精度造成不良影响,所以需对MI算法进行改进。
上述针对互信息统计算法的公式中,该算法未考虑词项可能在文本中出现频度很少的情况,这里提出基于词项的调节因子,其大小等于该类别文档中存在这个词频的文本书与该类别文档中总文本数大小的比值。其计算公式如下:
在上式中,D(ti,cj)是指在类别结果为cj的文档中存在词项ti的文本频数,d(cj)是指类别结果为cj的文档中的总文本频数。
调节因子D(ti,cj)的大小由在类别文档中存在词项ti的文本频数以及在这个类别文档中不存在词项ti的文本频数所决定。调节因子D(ti,cj)数值越大,代表在类别结果为cj的文档中出现存在词项ti的文本比例越高。反之,越小,也就是说,这样的词项在该类别文档中更可能是低频词。引入调节因子D(ti,cj),可以利用互信息算法可以更好的排除可能对分类造成误差的特征词。
例如:在前文中,利用本节所述公式及文本数据集情况可以算出词项t4的调节因子D(t4,c1)=1/17,词项t1的调节因子D(t1,c1)=9/17,词项t2的调节因子D(t2,c1)=5/17,词项t3的调节因子D(t3,c2)=80/141。所以根据词频因子的计算结果,需要特别注意词项t4的调节因子。再结合各词频的互信息值,可得,改进后各词项t1,t2,t3,t4)的互信息值分别为
MI(t1)*D(t1,c1)=log(9/5)*(9/17),MI(t2)*D(t2,c1)=log(1)*(5/17),MI(t3)*D(t3,c2)=log(8/5)*(80/114),MI(t4)*D(t4,c1)=log(20/11)*(1/17)。所以引入调节因子后的结果应优先选取t1、t3而不是t2、t4作为特征词,这与真实案例中的选取结果相一致。
改进的卡方-互信息统计算法包括:
上述两节分别对CHI算法、MI算法进行了仔细分析,利用算法函数针对实际应用中的文本数据集案例展开理论计算。并结合文本数据集本身存在的特征,对上述算法的计算结果中存在的问题和不足,展开了关于理论原因的详细讨论,最后提出了改进方法。这里,综合所提出的改进方法,形成了一种新的特征选
取算法函数,计算公式如下:
CHMI(ti,cj)=
ρ*[CHI(ti,cj)*α(ti,cj)]+(1-ρ)*[MI(ti,cj)*D(ti,cj)]
上式中,ρ∈(0,1)。同理,处理多分类问题时,上述公司可以改进为如下公式:
CHMIMax(ti,cj)=
ρ*[CHIMax(ti,cj)*α(ti,cj)]+(1-ρ)*[MIMax(ti,cj)*D(ti,cj)]
分类模型包括:
采用SVM来进行分类。SVM是一种基于统计学理论的线性二分类算法,在多分类的问题和非线性问题中也可以使用,该算法的基本思想是通过在训练集中找到两个支撑向量和一个超平面,超平面可以是线性也可以是非线性,利用这个超平面可以实现将数据集中两个不同类别的数据进行完整区分,并且使得此时的分类错误率是最低的,以获得最佳的分类性能。下面举例说明
如图2所示,训练数据集中存在所属类别不相同的两种数据,分别用不同的图形表示,首先定义训练数据集中的两个类别中几何距离最近的两组数据为支持向量,超平面H就是与这两组分属于不同类别的数据连线的垂直平分线。而分类线H1、H2分别是指经过这两个类别中支持向量,且与超平面H的平行的两条分类学。分类线H1、H2之间存在的距离即为分类的几何间隔。
SVM算法思想简单直观,首先寻找支持向量,通过训练集中不同类数据的几何距离来剔除大量“冗余数据”,根据保留的少量数据即支持向量找到超平面H进行类别划分。由于超平面H主要是基于支持向量产生的,所以它在处理少量数据的分类问题时具有较大优势和分类精度,在面对大量数据分类问题时可以避免发生“维度灾难”等问题。
本发明提出了一种基于机器学习的文本分类方法,在CHI中引入词频因子,MI中引入调节因子,形成新的特征选取算法CHMI,理论效果优于卡方统计和互信息算法。实现快速、准确获取到目标数据。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明技术原理的前提下,还可以做出若干改进和变形,这些改进和变形也应视为本发明的保护范围。
Claims (8)
1.一种基于机器学习的文本分类方法,其特征在于,包括:
文本数据预处理、文本表示、特征降维、分类模型训练以及分类性能评估;
文本数据预处理具体包括:按照顺序需要对文本数据进行操作:文本标记、文本分词处理以及去除停用词处理;
文本表示包括:经过文本预处理之后,将文本表示成一种形式化数学描述,使之成为计算机能够识别的语言;
卡方统计算法引入词频因子,以及互信息算法引入调节因子,进行特征降维;
分类模型训练包括:采用SVM来进行分类,定义训练数据集中的两个类别中几何距离最近的两组数据为支持向量,超平面H就是与这两组分属于不同类别的数据连线的垂直平分线,而分类线H1与H2分别是指经过这两个类别中支持向量,首先寻找支持向量,通过训练集中不同类数据的几何距离来剔除大量冗余数据,根据保留的少量数据即支持向量,找到超平面H进行类别划分。
2.如权利要求1所述的基于机器学习的文本分类方法,其特征在于,文本标记的处理包括:文本中的表情符、图片或者链接非中文字符无法对文本分类提高直接且有用的帮助,进行删除。
3.如权利要求2所述的基于机器学习的文本分类方法,其特征在于,去除停用词包括:经过分词处理之后的文本数据仍然还存在许多功能词和停用词,对停用词和功能词进行额外删除。
4.如权利要求2所述的基于机器学习的文本分类方法,其特征在于,文本分词的处理包括:首先识别出中文语句中存在的标点符号或是某些汉语文字,并在这些出现位置上通过添加空格符实现切分效果并得到切分后的词条内容,相邻字通过统计学方法得到分布信息,如果得到统计值很高达到一定阈值时,就判定这组相邻的字就可能是一个词语。
5.如权利要求1所述的基于机器学习的文本分类方法,其特征在于,文本表示通过VSM模型表示成一种形式化数学描述,通过将文本中带有文本主题特征的那些词项表示成特征向量,每一个具有独立属性的词项所对应的一个特征向量就构成了这篇文本特征向量的一个维度,将文本转化成了空间中的一个高维特征向量。
6.如权利要求5所述的基于机器学习的文本分类方法,其特征在于,利用VSM模型对文本进行文本表示时,词项以及词项的权重将成为文本表示这个模型的组成部分,文本D就能被n个词项以及他们的权重值所组成的特征向量代表,表示形式如下:D={(t1,w1),(t2,w2),...,(ti,wj),...(tn,wn)},其中ti,wj分别是指对应的第i个特征词以及第i个特征词的权重值。
7.如权利要求1所述的基于机器学习的文本分类方法,其特征在于,卡方统计算法包括:
卡方统计算法公式基于词项的词频因子,其大小等于这个词项在该类别文档中出现的词频数与在全体文本数据集文档中存在该词项的文本频数大小的比值。其计算公式:
n(ti,cj)是指词项ti在类别结果为cj的文档中出现的次数,n(ti)是指在全体文本数据集文档中,文本中存在词项ti的文本频数;
词频因子α(ti)的大小由词项ti在某类别文档中出现的频数以及这个词项在全体文本数据集文档中出现的频数大小所决定。词频因子α(ti)数值越大,代表该词项ti只在这一个类别文档中出现的频率越高;词频因子α(ti)数值越小,代表该词项ti只在这一个类别文档中出现的频率越小,引入词频因子α(ti),利用卡方统计算法更容易找到对分类更有帮助的特征词。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011544023.0A CN113157912A (zh) | 2020-12-24 | 2020-12-24 | 一种基于机器学习的文本分类方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011544023.0A CN113157912A (zh) | 2020-12-24 | 2020-12-24 | 一种基于机器学习的文本分类方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113157912A true CN113157912A (zh) | 2021-07-23 |
Family
ID=76878045
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011544023.0A Pending CN113157912A (zh) | 2020-12-24 | 2020-12-24 | 一种基于机器学习的文本分类方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113157912A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113673889A (zh) * | 2021-08-26 | 2021-11-19 | 上海罗盘信息科技有限公司 | 一种智能化数据资产识别的方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105701084A (zh) * | 2015-12-28 | 2016-06-22 | 广东顺德中山大学卡内基梅隆大学国际联合研究院 | 一种基于互信息的文本分类的特征提取方法 |
CN108491429A (zh) * | 2018-02-09 | 2018-09-04 | 湖北工业大学 | 一种基于类内类间文档频和词频统计的特征选择方法 |
-
2020
- 2020-12-24 CN CN202011544023.0A patent/CN113157912A/zh active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105701084A (zh) * | 2015-12-28 | 2016-06-22 | 广东顺德中山大学卡内基梅隆大学国际联合研究院 | 一种基于互信息的文本分类的特征提取方法 |
CN108491429A (zh) * | 2018-02-09 | 2018-09-04 | 湖北工业大学 | 一种基于类内类间文档频和词频统计的特征选择方法 |
Non-Patent Citations (2)
Title |
---|
王振: ""基于机器学习的文本分类研究与实现"", 《全国优秀硕士学位论文全文数据库》 * |
王爽: ""基于机器学习的自动文本分类方法研究"", 《全国优秀硕士学位论文全文数据库》, pages 2 - 4 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113673889A (zh) * | 2021-08-26 | 2021-11-19 | 上海罗盘信息科技有限公司 | 一种智能化数据资产识别的方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107609121B (zh) | 基于LDA和word2vec算法的新闻文本分类方法 | |
CN107992633B (zh) | 基于关键词特征的电子文档自动分类方法及系统 | |
CN109543178B (zh) | 一种司法文本标签体系构建方法及系统 | |
CN108446271B (zh) | 基于汉字部件特征的卷积神经网络的文本情感分析方法 | |
CN106599054B (zh) | 一种题目分类及推送的方法及系统 | |
CN108920482B (zh) | 基于词汇链特征扩展和lda模型的微博短文本分类方法 | |
CN110134799B (zh) | 一种基于bm25算法的文本语料库的搭建和优化方法 | |
CN109446423B (zh) | 一种新闻以及文本的情感判断系统及方法 | |
WO2020063071A1 (zh) | 基于卡方检验的句向量计算方法、文本分类方法及系统 | |
CN109993216B (zh) | 一种基于k最近邻knn的文本分类方法及其设备 | |
CN110705247A (zh) | 基于χ2-C的文本相似度计算方法 | |
CN110633367A (zh) | 一种基于情感词典与微博文本数据的七情感分类方法 | |
CN107818173B (zh) | 一种基于向量空间模型的中文虚假评论过滤方法 | |
CN112667806A (zh) | 一种使用lda的文本分类筛选方法 | |
CN111754208A (zh) | 一种招聘简历自动筛选方法 | |
CN113220964B (zh) | 一种基于网信领域短文本的观点挖掘方法 | |
JP2019200784A (ja) | 分析方法、分析装置及び分析プログラム | |
CN114491034A (zh) | 一种文本分类方法及智能设备 | |
CN113157912A (zh) | 一种基于机器学习的文本分类方法 | |
CN107729509B (zh) | 基于隐性高维分布式特征表示的篇章相似度判定方法 | |
CN107491424B (zh) | 一种基于多权重体系的中文文档基因匹配方法 | |
CN112784040B (zh) | 基于语料库的垂直行业文本分类方法 | |
Rubtsova | Automatic term extraction for sentiment classification of dynamically updated text collections into three classes | |
CN114511027A (zh) | 通过大数据网络进行英语远程数据提取方法 | |
JP2005115628A (ja) | 定型表現を用いた文書分類装置・方法・プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |