CN109241530A - 一种基于N-gram向量和卷积神经网络的中文文本多分类方法 - Google Patents
一种基于N-gram向量和卷积神经网络的中文文本多分类方法 Download PDFInfo
- Publication number
- CN109241530A CN109241530A CN201810996666.5A CN201810996666A CN109241530A CN 109241530 A CN109241530 A CN 109241530A CN 201810996666 A CN201810996666 A CN 201810996666A CN 109241530 A CN109241530 A CN 109241530A
- Authority
- CN
- China
- Prior art keywords
- text
- gram
- word
- term vector
- vector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 239000013598 vector Substances 0.000 title claims abstract description 87
- 238000000034 method Methods 0.000 title claims abstract description 46
- 238000013527 convolutional neural network Methods 0.000 title claims abstract description 42
- 238000011156 evaluation Methods 0.000 claims abstract description 11
- 238000012549 training Methods 0.000 claims abstract description 10
- 239000011159 matrix material Substances 0.000 claims description 14
- 238000012360 testing method Methods 0.000 claims description 13
- 238000013507 mapping Methods 0.000 claims description 9
- 230000011218 segmentation Effects 0.000 claims description 7
- 238000002790 cross-validation Methods 0.000 claims description 6
- 230000005484 gravity Effects 0.000 claims description 6
- 230000006870 function Effects 0.000 claims description 4
- 238000012545 processing Methods 0.000 claims description 4
- 238000001914 filtration Methods 0.000 claims description 3
- 238000009499 grossing Methods 0.000 claims description 3
- 210000002569 neuron Anatomy 0.000 claims description 3
- 241000208340 Araliaceae Species 0.000 claims description 2
- 235000005035 Panax pseudoginseng ssp. pseudoginseng Nutrition 0.000 claims description 2
- 235000003140 Panax quinquefolius Nutrition 0.000 claims description 2
- 235000008434 ginseng Nutrition 0.000 claims description 2
- 238000005070 sampling Methods 0.000 claims description 2
- 239000000463 material Substances 0.000 claims 1
- 238000012216 screening Methods 0.000 claims 1
- 230000000694 effects Effects 0.000 abstract description 9
- 238000013480 data collection Methods 0.000 abstract description 6
- 230000008901 benefit Effects 0.000 abstract description 3
- 238000002474 experimental method Methods 0.000 abstract description 2
- 230000036541 health Effects 0.000 description 5
- 239000000284 extract Substances 0.000 description 3
- 238000003780 insertion Methods 0.000 description 3
- 230000037431 insertion Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000001228 spectrum Methods 0.000 description 2
- 241001269238 Data Species 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 238000011157 data evaluation Methods 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 239000010931 gold Substances 0.000 description 1
- 229910052737 gold Inorganic materials 0.000 description 1
- 235000019580 granularity Nutrition 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明涉及一种基于N‑gram向量和卷积神经网络的中文文本多分类方法,属于文本多分类的技术领域。针对文本多分类的效果并不十分理想的问题,本发明基于CNN框架,提出了一种初始化CNN滤波器系数的方法,在一定程度上取得较好的文本分类效果。首先对待分类语料进行词向量训练;然后挑选出对特定类别最为重要的n‑gram,并将聚类后的n‑gram质心向量作为初始的滤波器系数;使用uni‑gram、bi‑gram和tri‑gram的质心分别嵌入到宽度为3、4和5的滤波器中心。初始化系数能更有效的抽取出代表不同类别的n‑gram,最终改善文本分类效果。实验在两个公共的中文数据集上进行,包括搜狗新闻数据集和复旦大学中文语料,本专利方法同比一些文本分类技术,在评价指标上表现了优势。
Description
技术领域
本发明涉及一种基于N-gram向量和卷积神经网络的中文文本多分类方法,特别涉及一种用于计算n-gram权重的方法和嵌入n-gram向量的初始化CNN卷积核参数的方法,属于文本多分类的技术领域。
背景技术
传统机器学习的方法中,支持向量机,决策树等方法已经较为成熟并且可以用来解决文本分类问题,由这些方法构建的文本二分类的分类器性能大多也有较好的表现。近年来,神经网络的模型受到了广泛的关注,基于卷积神经网络的模型用于不同的NLP任务也取得了良好的效果。但是,缺乏数据或不恰当的参数设置可能会大大限制泛化。为了提高性能,已经提出了许多改进的方法。金在2014年的Emnlp会议上提出一种基于CNN的句子分类模型。本文使用不同尺寸的过滤器对文本矩阵进行卷积,然后使用MAX-池对每一滤光器提取的向量进行操作,最后每一个过滤器对应一个数字,把这些filter的结果拼接起来,就得到了一个表格中的句子的向量。最后的预测都是基于该句子的向量.Kalchbrenner等人(Convolutional Neural Network for Modeling Sentences)则提出了一个基于CNN的句子建模框架,相比yoon kim的模型较为复杂,网络中的卷积层使用了一种称之为宽卷积(Wide Convolution)的方式,紧接着是动态的k-max池化层。中间卷积层的输出即特征映射的大小会根据输入句子的长度而变化.Hu等人提出一种基于CNN的句子建模,作者认为卷积的作用是从句子中提取出局部的语义组合信息,而多个Feature Map则是从多种角度进行提取,也就是保证提取的语义组合的多样性.Yin提出了一种叫双CNN-MI的架构,其中的Bi-CNN表示两个使用连体框架的CNN模型,MI表示多粒度的交互特征。他提出的模型使用了多种类型的卷积,池化方法,以及针对得到的句子表征的局部进行相应的相似度计算,从而提升性能,但模型较复杂,耗时。提出了一种基于语义聚类和卷积神经网络的短文本建模方法。多尺度语义单元被检测并合并到卷积层,然后进行最大池操作。在这些模型当中,Kim的模型虽然简单,但是却有着很好的性能.Ye Zhang等人对这个模型进行了大量的实验,并给出了调参的建议,包括过滤区域大小,正则化参数等等。2017年Li等在kim Yoon模型的基础上,提出了一种新的权重初始化方法,改善CNN模型。但上述均是针对文本分类(大多都是二分类问题)所提出的,针对文本多分类包括中文文本的多分类的研究很少,目前闻彬,何婷婷,罗乐,等.提出了一种基于语义理解的文本情感分类方法。机器学习的方法针对特征抓取,不如卷积神经网络在这方面具有优势,有些语义特征被分析出来后但在后续利用这些特征的过程中造成特征的“流失”。
发明内容
本发明要解决的技术问题是提供一种基于N-gram向量和卷积神经网络的中文文本多分类方法,根据有效词对文本特征的重要作用,提取有效的n-gram,提高文本分类准确率。
本发明采用的技术方案是:一种基于N-gram向量和卷积神经网络的中文文本多分类方法,包括以下步骤:
步骤1:文本分词:对待分类语料库中的所有中文文本分词,使用现有的中文分词工具,针对中文分词表现效果较好的中科院汉语分词系统。
步骤2:文本去噪:去除文本内容中停用词如:“了”“的”等。建立一个中文停用词词表stopwords.txt,对语料文本中的每个词进行遍历,出现在停用词词表中的词语将其删除,否则保留词语。中文文本去停用词的前提是已经完成了文本分词。
步骤3:对文本词语进行N元标注:经过N元标注后的文本,就变成了规则的词组,N的取值为:N=1,N=2,N=3。文本中的词语形成unigram、bigram、trigram三种形式的语义特征。
步骤4:计算n-gram权重r:计算每个词在文中的比重r,公式如下公式(1)词条t在该类别中的频率与词条t在其他几个类别中频率之和的比率。
上述公式中,i是指第i类文本,tn是指某类文本集合中的词项,是第i类文本集合中词项(n-gram)的频率,j是指第j类文本,是第j类文本集合中项目的频率(j≠i),||fi||是第i类文本集中的总频率(n-gram),并且||fj||是第j类文本集中的词的总频率,M是类别的数量,Ni是第i类文本的词的总数集合。表示与其他类别相比,该词条对该类别的重要性。将计算出来的r进行降序排序,通过log函数平滑权重r,通过观察每个类别r的分布趋势,选取合适的n-gram。例如:对于搜狗数据集的IT、财经、文化、健康和运动这五个类别,我们分别计算出每个词条的r值,并按照值从大到小的顺序排列如附图图3所示。可以看出对于某一个特定类别来说,不同的词条的r值是不一样的。r(ratio)值较大的词,说明该词在该类别中出现得更多而在其他类别中出现得少,即对于该类别更重要,更能与其他类别区分开来。这些最重要的词只占该类别的全部词的一部分。
步骤5:n-gram词向量表达:将步骤4选择得到的n-grams表示为glove词向量。文本中的unigram表示为300维的词向量,bigrams表示为600维的词向量,trigrams表示为900维的词向量;
步骤6:n-gram聚类:把步骤5得到的unigram(300维的词向量),bigrams(600维的词向量),trigrams(900维的词向量)分别进行kmeans聚类。例如:对于搜狗数据集的IT、财经、文化、健康和运动这五个类别,设置K=50,那么每个类别的语料进行n-gram聚类后将会得到50个300维的中心词向量,50个600维的词向量和50个900维的词向量。
步骤7:初始化滤波器参数:使用中心词向量初始化CNN参数,训练模型:将步骤6得到的中心词向量作为初始化卷积滤波器的参数。卷积层使用不同尺寸的滤波器,每种尺寸又可以设置多个滤波器,每个滤波器对句子矩阵做卷积运算,得到不同的特征图谱。使用上述得到的n-gram中心词向量嵌入到大小不同的滤波器的不同位置上,初始化滤波器的参数Ws。unigram的向量嵌入到长度为3的滤波器的中间位置,bigrams的向量嵌入到长度为4的滤波器的中间位置,trigrams分别嵌入到长度为5的滤波器的中间位置,更新滤波器参数,达到语义嵌入滤波器的目的;
步骤8:卷积层:卷积层的滤波器尺寸为3,4,5三种滤波器,卷积层滤波器参数矩阵维度分别为[(100,1,3,300),(100,1,4,600),(100,1,5,900)],在卷积层获取待分类语料文本中每一个词的向量化表示并组成映射矩阵,卷积层参数矩阵与载入的映射矩阵作二维卷积运算。卷积运算后得到特征feature maps,设置隐层神经元个数100个,就会得到100个feature maps。
步骤9:池化层:对步骤8得到的feature maps(特征图谱)做最大值池化,只记录特征的最大值。
步骤10:全连层:步骤9得到feature maps的最大值,在全连层形成一维特征向量。
步骤11:输出层:将步骤10输出的一维特征向量输入softmax分类器进行多分类,预测文本的类别标签。
步骤12:性能评估:为了测试本专利提出的模型性能,采用十折交叉验证的方法,每次随机抽取9份作为训练集,1份作为测试集,经过十次epoch和十次交叉,取其十次运算平均的准确率。
本发明的有益效果是:
1、采用本发明提供的一种方法能够得到一系列最能表达文本语义特征的词语,从而能够判断文本的主题,是描述体育类还是描述科技类,在搜狗数据集上测试获得准确率为91.63%,在复旦大学公开分享的中文语料上获得的准确率为92.51%。
2、实现自动文本多分类,达到较好的文本分类效果。
附图说明
图1是本发明专利进行主题文本多分类的总体流程图;
图2是举例说明在某个数据集上根据n-gram r值选取合适n-gram的示意图;
图3和图4是有效n-gram向量初始化卷积滤波器参数的过程;
图5是本专利提出的方法在搜狗数据集和复旦大学中文语料上的实验结果的折线图,基于unigram标注下的多分类方法,评价方法十折交叉验证,评价标准是测试集准确率。更多标注模型下的结果请参考表格1。
具体实施方式
为了使本发明的目的、技术方案和特定更加清晰明白,以下结合实施例子和附图,对本发明进一步详细说明。
实施例1:如图1-5所示,本发明采用了计算加权选择重要特征的方法,并在卷积神经网络的卷积层进行卷积滤波的时候使用有效词特征的中心词向量代替滤波器随机初始化的参数。本发明具体改进归纳为以下几个方面:1)研究了重要的ngrams对于后续语义特征嵌入的影响;2)结合了unigarm、bigram和trigram分别聚类后的聚类中心向量,嵌入到不同宽度的滤波器中。实验证明,本发明提出的方法在两个公开的中文数据集上的实验结果,与其它方法相比基于N-gram向量和卷积神经网络的中文文本多分类方法在评价指标上有较大优势。
本发明的实施过程可以分为三个大步骤:
步骤1:文本预处理:首先对待分类语料的所有中文进行文本分词、文本去噪;然后进行文本的一元、二元、三元标注,分别得到unigram,bigram,trigram,即Ngram;
步骤2:特征选择:计算文本语料中每个ngram在本类别中所占的比重r,对r降序排序,接着对按照特定的挑选规则选择出来的n-gram进行glove词向量的表达;最后对按照特定的挑选规则选择出来的n-gram(已被glove词向量表达)进行kmeans聚类,得到每一类n-gram的中心词向量。
步骤3:将步骤2得到的n-gram的中心词向量载入卷积神经网络层,初始化卷积核参数,训练文本分类模型,最后得出多分类结果,采用十折交叉验证的方法对模型评估。
进一步地,所述的步骤1的具体步骤如下:
步骤1.1:文本分词:对待分类语料的所有中文文本分词,分词工具是中科院汉语分词系统ICTCLAS2014;
步骤1.2:文本去噪:对语料库分好词的文本删除原始文本中标点、符号、“的、这”等这些停用词;
步骤1.3:文本N元标注:遍历经过步骤1.1和步骤1.2处理过的语料库中的所有词,设置N=1,2,3,例如:我是一名研究生。经过分词后的这句话通过N元标注后的就得到:我我是我是一名我研究生我是研究生是是一名是一名研究生一名一名研究生。这样的标注文本。
进一步地,所述的步骤2的具体步骤如下:
步骤2.1:计算n-gram权重r:根据计算权重的公式(1),公式如下所示:
例如:在搜狗新闻数据集中,“比赛”“足球”这样的词语在运动类别的语料中所占的比重大于在IT、财经、健康、文化类别的语料中所占的比重。“比赛”、“足球”等属于运动类别的语料中的重要特征。权重数值r通过log函数平滑处理,并根据数值大小对权重降序排序,图2所示的是搜狗新闻数据集5个类别所有n-gram的r值曲线图,选取能够代表此类别文本特征的一些n-gram,通过观察每个类别中n-gram的r曲线图,选择前20%的n-gram作为最能表达文本特征的词语;
步骤2.2:n-gram词向量表达:通过步骤2.1选择出来的n-gram训练出对应的glove词向量,unigram向量维度300维,bigrams是两个词向量的拼接,600维;trigrams,3个词向量的拼接,900维。例如:对于搜狗数据集的IT、财经、文化、健康和运动这五个类别,分别得到unigram,bigrams,trigrams三种语义特征。
步骤2.3:ngram kmeans聚类:经过步骤2.2得到有效ngram特征都作为CNN初始化参数的话,计算复杂度提高,那么使用一簇特征向量的中心向量来表示一簇的特征同样能够有效初始化CNN滤波器参数。例如:对于搜狗数据集的IT、财经、文化、健康和运动这五个类别,设置K=50,那么每个类别的语料进行n-gram聚类后将会得到50个300维的中心词向量,50个600维的词向量和50个900维的词向量。
进一步地,所述的步骤3的具体步骤如下:
步骤3.1:初始化CNN滤波器参数:将步骤2.3得到的n-gram中心向量去更新卷积核参数w,卷积核参数原本是随机初始化的,现在我们通过将n-gram词向量根据图3和图4的方法嵌入到滤波器的相应位置,其余位置上的参数仍然是随机初始化的即卷积核大小设为3,4,5,嵌入过程中,unigram的中心词向量只嵌入到卷积核为3的CNN模板中对其初始化,bigrams的中心词向量只嵌入到卷积核为4的CNN模板中对其初始化,trigrams词向量嵌入到卷积核5的CNN模板中对其初始化;
步骤3.2:卷积层:卷积层的滤波器尺寸可以设置为多个,例如3,4,5三种尺寸的滤波器,卷积层滤波器参数矩阵维度分别为[(100,1,3,300),(100,1,4,600),(100,1,5,900)],在卷积层获取待分类语料文本中每一个词的向量化表示并组成映射矩阵,映射矩阵为一个三维的张量(文本句子,整个语料库文本数,词向量维度),卷积层参数矩阵与载入的映射矩阵作二维卷积运算。卷积运算后得到特征feature maps,设置隐层神经元个数100个,就会得到100个feature maps。
步骤3.3:池化层:只记录特征的最大值。卷积操作以后对卷积层特征进行池化操作,一般使用K-max pooling算法对Step3.2得到的feature maps进行下采样。
步骤3.4:全连层,对步骤3.3得到的最大值特征进行特征向量连接,形成一维特征向量。
步骤3.5:输出层:把步骤3.4的全连接层特征接入softmax分类器,对文本类别进行预测。
步骤3.6:性能评估:最后使用十折交叉验证法验证模型的性能。基于2个中文数据集,其评估结果如图5所示,表示本专利提出的模型在2个数据集上的效果,评价标准是测试集准确率;图5指本专利提出的方法基于基础数据集实验,评价标准为测试集准确率。与其他模型的结果对比请参考表格1。表格1是基于基础数据集的本专利方法和其他方法对比汇总表,评价标准是测试集准确率。
表格1各个模型在中文语料上的测试集准确率
本发明首先进行文本预处理:包括中文分词、去除停用词,对文本特征进行一元标注、二元标注、三元标注等;然后选择Ngrams:计算语料中每个Ngram的权重r,挑选每个类别中有效的n-gram,如:跑步、打篮球、利率、存折、坦克、战利品等主题表达明显的词语;接着对选择的Ngram进行glove向量表达,将ngram特征进行词向量化后,并将词向量化后的ngram进行kmeans聚类,每一类别(汽车/运动/财经等)语料分别得到K个ngram(unigram、bigram、trigram)词向量的中心词向量;最后初始化滤波器参数:把所有ngram词向量的中心词向量作为卷积神经网络的初始值初始化滤波器参数,卷积模板能很好地捕捉特征,对主题文本进行准确地分类。
本发明一种基于加权N-gram向量模型和卷积神经网络结合的方法,在保证提取重要ngram后能够使用卷积神经网络的模板充分提取文本语义特征的方法,该方法改变传统的机器学习方法,采用卷积神经网络结构充分提取特征,并在文本处理过程中找出能够高效识别能够表达文本特征的词语,并使用词性列表进一步提高词语的精度。
上面结合附图对本发明的具体实施方式作了详细说明,但是本发明并不限于上述实施方式,在本领域普通技术人员所具备的知识范围内,还可以再不脱离本发明宗旨前提下做出各种措施进行改变。
Claims (4)
1.一种基于N-gram向量和卷积神经网络的中文文本多分类方法,其特征在于:包括以下步骤:
Step1:文本预处理:首先针对中文文本,进行中文分词及文本去噪;然后对文本分别进行一元、二元、三元标注,分别得到unigram,bigram,trigram,即n-gram;
Step2:特征选择:计算文本语料中每个n-gram在本类别中所占的比重r,对r降序排序,接着对按照特定的挑选规则选择出来的n-gram进行glove词向量的表达;最后把glove词向量表达后的n-gram进行kmeans聚类,得到每一类n-gram的中心词向量;
Step3:初始化卷积核参数:用Step2得到的n-gram的中心词向量进行初始化卷积核参数,训练文本分类模型,最后得出多分类结果,采用十折交叉验证的方法对模型评估。
2.根据权利要求1所述的基于N-gram向量和卷积神经网络的中文文本多分类方法,其特征在于:所述的Step1具体步骤如下:
Step1.1:文本分词:使用现有的中文分词工具ICTCLAS2014,通过分词算法计算机自动切分词或词组;
Step1.2:文本去噪:去除原始语料无关的文本内容,如:符号、标点、停用词;
Step1.3:对词语进行N元标注:文本信息对应于以概率生成语句,在给定前n-1个词的基础上,预测下一个词出现的概率,从而计算出训练语料中不同词序列的概率,通过n元标注的处理,分好词的文本数据集转换成n元标注的文本,1元标注得到的词语是由单字组成的,对中文而言,分词后的单个词组标注为unigram,两个分词后的词组标注为bigrams,同理,三个分词后的词组标注为trigrams。
3.根据权利要求2所述的基于N-gram向量和卷积神经网络的中文文本多分类方法,其特征在于:所述的Step2具体步骤如下:
Step2.1:计算n-gram权重:标注好的词语不一定都能够体现文本主题内容,那么判断词语是否为该类别中重要的词语,是通过计算词语在此类别中所占的一个比重r来筛选的,r通过log函数平滑处理,并根据数值大小对权重降序排序,n-gram所有的r值曲线图,选取能够代表此类别文本特征的一些n-gram,通过观察每个类别中n-gram的r曲线图,选择合适的一部分n-gram作为最能表达文本特征的词语;
Step2.2:n-gram词向量表达:经过Step2.1的筛选得到最能表达文本特征的词语,词向量来自预先训练好的中文glove词向量,glove词向量通过开源工具包glove和源文件glove.c进行训练得到,词向量训练语料来自网上共享的新闻语料;通过glove词向量表达,unigram得到300维的词向量,bigrams得到600维的词向量,trigrams得到900维的词向量;
Step2.3:n-gram聚类:把Step2.2得到的unigram300维的词向量,bigrams600维的词向量,trigrams900维的词向量分别进行kmeans聚类,用一类n-gram的中心词向量特征代表此类中每一个ngram的词向量特征,聚类簇数的选择需要考虑unigram,bigrams和trigrams的个数,通过计算发现不同语料中n-gram的比例关系也有一定的差异。
4.根据权利要求3所述的基于N-gram向量和卷积神经网络的中文文本多分类方法,其特征在于:所述的Step3具体步骤如下:
Step3.1:初始化CNN滤波器参数:将Step2.3得到的中心词向量初始化CNN滤波器即卷积核模板参数,并训练模型:卷积神经网络结构包括:卷积层、池化层、全连接层、输出层,
载入选取的Step2.3得到的n-gram中心词向量对卷积核模板参数和池化层参数进行更新,卷积核大小设为3,4,5,嵌入过程中,unigram中心词向量只嵌入到卷积核为3的CNN模板中对其初始化,bigrams中心词向量只嵌入到卷积核为4的CNN模板中对其初始化,trigrams词向量嵌入到卷积核5的CNN模板中对其初始化;
Step3.2:卷积层:卷积层的滤波器尺寸可以设置为多个,例如3,4,5三种尺寸的滤波器,卷积层滤波器参数矩阵维度分别为[(100,1,3,300),(100,1,4,600),(100,1,5,900)],在卷积层获取待分类语料文本中每一个词的向量化表示并组成映射矩阵,映射矩阵为一个三维的张量:文本句子,整个语料库文本数,词向量维度,卷积层与载入的映射矩阵作二维卷积运算,卷积运算后得到更多有用的特征feature maps,设置隐层神经元个数100个,就会得到100个feature maps;
Step3.3:池化层:卷积操作以后对卷积层特征进行池化操作,使用K-maxpooling算法对Step3.2得到的feature maps进行下采样;
Step3.4:全连接层:对Step3.3得到的最大值特征进行特征向量连接,形成一维特征向量;
Step3.5:输出层:把Step3.4的全连接层特征接入softmax分类器,对文本类别进行预测;
Step3.6:性能评估:原始数据集不分训练集、测试集和验证集,通过十折交叉验证的方法对模型进行评价,每次随机抽取数据集的9/10作为训练集,1/10作为测试集,进行十次随机划分后,计算十次测试集分类准确率,最后取十次准确率的平均值作为此次实验测试集分类的最终准确率。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810996666.5A CN109241530B (zh) | 2018-08-29 | 2018-08-29 | 一种基于N-gram向量和卷积神经网络的中文文本多分类方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810996666.5A CN109241530B (zh) | 2018-08-29 | 2018-08-29 | 一种基于N-gram向量和卷积神经网络的中文文本多分类方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109241530A true CN109241530A (zh) | 2019-01-18 |
CN109241530B CN109241530B (zh) | 2021-08-20 |
Family
ID=65068042
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810996666.5A Active CN109241530B (zh) | 2018-08-29 | 2018-08-29 | 一种基于N-gram向量和卷积神经网络的中文文本多分类方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109241530B (zh) |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109948152A (zh) * | 2019-03-06 | 2019-06-28 | 北京工商大学 | 一种基于lstm的中文文本语法纠错模型方法 |
CN110046250A (zh) * | 2019-03-17 | 2019-07-23 | 华南师范大学 | 三嵌入卷积神经网络模型及其文本多分类方法 |
CN110110846A (zh) * | 2019-04-24 | 2019-08-09 | 重庆邮电大学 | 基于卷积神经网络的辅助驾驶人车交互方法 |
CN110232188A (zh) * | 2019-06-04 | 2019-09-13 | 上海电力学院 | 电网用户故障报修工单的文本自动分类方法 |
CN110245348A (zh) * | 2019-05-17 | 2019-09-17 | 北京百度网讯科技有限公司 | 一种意图识别方法及系统 |
CN110377748A (zh) * | 2019-06-13 | 2019-10-25 | 北京百度网讯科技有限公司 | 实体关注点挖掘方法、装置、计算机设备及存储介质 |
CN110609898A (zh) * | 2019-08-19 | 2019-12-24 | 中国科学院重庆绿色智能技术研究院 | 一种面向不平衡文本数据的自分类方法 |
CN110717047A (zh) * | 2019-10-22 | 2020-01-21 | 湖南科技大学 | 一种基于图卷积神经网络的Web服务分类方法 |
CN110990569A (zh) * | 2019-11-29 | 2020-04-10 | 百度在线网络技术(北京)有限公司 | 文本聚类方法、装置及相关设备 |
CN111292119A (zh) * | 2020-01-15 | 2020-06-16 | 杭州数澜科技有限公司 | 一种筛选疑似非法组织的方法和系统 |
CN111753081A (zh) * | 2019-03-28 | 2020-10-09 | 百度(美国)有限责任公司 | 基于深度skip-gram网络的文本分类的系统和方法 |
CN111767397A (zh) * | 2020-06-30 | 2020-10-13 | 国网新疆电力有限公司电力科学研究院 | 一种电力系统二次设备故障短文本数据分类方法 |
CN111861046A (zh) * | 2019-04-02 | 2020-10-30 | 南京大学 | 基于大数据和深度学习的专利价值智能评估系统 |
CN112287664A (zh) * | 2020-12-28 | 2021-01-29 | 望海康信(北京)科技股份公司 | 文本指标数据解析方法、系统及相应设备和存储介质 |
CN113051367A (zh) * | 2021-03-22 | 2021-06-29 | 北京智慧星光信息技术有限公司 | 基于语义特征强化的深度学习预警方法、系统及电子设备 |
CN113094501A (zh) * | 2021-03-09 | 2021-07-09 | 山西三友和智慧信息技术股份有限公司 | 一种基于混合平铺卷积神经网络的文本情感分类系统 |
CN114461760A (zh) * | 2022-02-10 | 2022-05-10 | 北京华宇元典信息服务有限公司 | 案件事实与法条匹配的方法及装置 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108304468A (zh) * | 2017-12-27 | 2018-07-20 | 中国银联股份有限公司 | 一种文本分类方法以及文本分类装置 |
CN108399230A (zh) * | 2018-02-13 | 2018-08-14 | 上海大学 | 一种基于卷积神经网络的中文财经新闻文本分类方法 |
-
2018
- 2018-08-29 CN CN201810996666.5A patent/CN109241530B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108304468A (zh) * | 2017-12-27 | 2018-07-20 | 中国银联股份有限公司 | 一种文本分类方法以及文本分类装置 |
CN108399230A (zh) * | 2018-02-13 | 2018-08-14 | 上海大学 | 一种基于卷积神经网络的中文财经新闻文本分类方法 |
Non-Patent Citations (3)
Title |
---|
SHEN LI等: "Initializing Convolutional Filters with Semantic Features for Text Classification", 《PROCEEDINGS OF THE 2017 CONFERENCE ON EMPIRICAL METHODS IN NATURAL LANGUAGE PROCESSING》 * |
SIDA WANG,CHRISTOPHER D. MANNING: "Baselines and Bigrams: Simple, Good Sentiment and Topic Classification", 《PROCEEDINGS OF THE 50TH ANNUAL MEETING OF THE ASSOCIATION FOR COMPUTATIONAL LINGUISTICS》 * |
YOON KIM: "Convolutional Neural Networks for Sentence Classification", 《EPRINT ARXIV》 * |
Cited By (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109948152B (zh) * | 2019-03-06 | 2020-07-17 | 北京工商大学 | 一种基于lstm的中文文本语法纠错模型方法 |
CN109948152A (zh) * | 2019-03-06 | 2019-06-28 | 北京工商大学 | 一种基于lstm的中文文本语法纠错模型方法 |
CN110046250A (zh) * | 2019-03-17 | 2019-07-23 | 华南师范大学 | 三嵌入卷积神经网络模型及其文本多分类方法 |
CN111753081B (zh) * | 2019-03-28 | 2023-06-09 | 百度(美国)有限责任公司 | 基于深度skip-gram网络的文本分类的系统和方法 |
CN111753081A (zh) * | 2019-03-28 | 2020-10-09 | 百度(美国)有限责任公司 | 基于深度skip-gram网络的文本分类的系统和方法 |
CN111861046B (zh) * | 2019-04-02 | 2023-12-29 | 南京大学 | 基于大数据和深度学习的专利价值智能评估系统 |
CN111861046A (zh) * | 2019-04-02 | 2020-10-30 | 南京大学 | 基于大数据和深度学习的专利价值智能评估系统 |
CN110110846A (zh) * | 2019-04-24 | 2019-08-09 | 重庆邮电大学 | 基于卷积神经网络的辅助驾驶人车交互方法 |
CN110245348A (zh) * | 2019-05-17 | 2019-09-17 | 北京百度网讯科技有限公司 | 一种意图识别方法及系统 |
CN110245348B (zh) * | 2019-05-17 | 2023-11-24 | 北京百度网讯科技有限公司 | 一种意图识别方法及系统 |
CN110232188A (zh) * | 2019-06-04 | 2019-09-13 | 上海电力学院 | 电网用户故障报修工单的文本自动分类方法 |
CN110377748A (zh) * | 2019-06-13 | 2019-10-25 | 北京百度网讯科技有限公司 | 实体关注点挖掘方法、装置、计算机设备及存储介质 |
CN110609898A (zh) * | 2019-08-19 | 2019-12-24 | 中国科学院重庆绿色智能技术研究院 | 一种面向不平衡文本数据的自分类方法 |
CN110609898B (zh) * | 2019-08-19 | 2023-05-05 | 中国科学院重庆绿色智能技术研究院 | 一种面向不平衡文本数据的自分类方法 |
CN110717047A (zh) * | 2019-10-22 | 2020-01-21 | 湖南科技大学 | 一种基于图卷积神经网络的Web服务分类方法 |
CN110717047B (zh) * | 2019-10-22 | 2022-06-28 | 湖南科技大学 | 一种基于图卷积神经网络的Web服务分类方法 |
CN110990569A (zh) * | 2019-11-29 | 2020-04-10 | 百度在线网络技术(北京)有限公司 | 文本聚类方法、装置及相关设备 |
CN110990569B (zh) * | 2019-11-29 | 2023-11-07 | 百度在线网络技术(北京)有限公司 | 文本聚类方法、装置及相关设备 |
CN111292119A (zh) * | 2020-01-15 | 2020-06-16 | 杭州数澜科技有限公司 | 一种筛选疑似非法组织的方法和系统 |
CN111767397A (zh) * | 2020-06-30 | 2020-10-13 | 国网新疆电力有限公司电力科学研究院 | 一种电力系统二次设备故障短文本数据分类方法 |
CN112287664B (zh) * | 2020-12-28 | 2021-04-06 | 望海康信(北京)科技股份公司 | 文本指标数据解析方法、系统及相应设备和存储介质 |
CN112287664A (zh) * | 2020-12-28 | 2021-01-29 | 望海康信(北京)科技股份公司 | 文本指标数据解析方法、系统及相应设备和存储介质 |
CN113094501A (zh) * | 2021-03-09 | 2021-07-09 | 山西三友和智慧信息技术股份有限公司 | 一种基于混合平铺卷积神经网络的文本情感分类系统 |
CN113051367A (zh) * | 2021-03-22 | 2021-06-29 | 北京智慧星光信息技术有限公司 | 基于语义特征强化的深度学习预警方法、系统及电子设备 |
CN113051367B (zh) * | 2021-03-22 | 2023-11-21 | 北京智慧星光信息技术有限公司 | 基于语义特征强化的深度学习预警方法、系统及电子设备 |
CN114461760A (zh) * | 2022-02-10 | 2022-05-10 | 北京华宇元典信息服务有限公司 | 案件事实与法条匹配的方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN109241530B (zh) | 2021-08-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109241530A (zh) | 一种基于N-gram向量和卷积神经网络的中文文本多分类方法 | |
Tsaptsinos | Lyrics-based music genre classification using a hierarchical attention network | |
Chen et al. | A long-text classification method of Chinese news based on BERT and CNN | |
CN110825877A (zh) | 一种基于文本聚类的语义相似度分析方法 | |
CN108197109A (zh) | 一种基于自然语言处理的多语言分析方法和装置 | |
CN109492105B (zh) | 一种基于多特征集成学习的文本情感分类方法 | |
CN106294344A (zh) | 视频检索方法和装置 | |
CN108846047A (zh) | 一种基于卷积特征的图片检索方法及系统 | |
CN110413791A (zh) | 基于cnn-svm-knn组合模型的文本分类方法 | |
CN111078833A (zh) | 一种基于神经网络的文本分类方法 | |
CN110046943B (zh) | 一种网络消费者细分的优化方法及优化系统 | |
CN110717330A (zh) | 基于深度学习的词句级短文本分类方法 | |
CN114860930A (zh) | 一种文本分类方法、装置以及存储介质 | |
CN110097096A (zh) | 一种基于tf-idf矩阵和胶囊网络的文本分类方法 | |
Ranjan et al. | Document classification using lstm neural network | |
Ghafoor et al. | Kurdish dialect recognition using 1D CNN | |
Ouassil et al. | A fake news detection system based on combination of word embedded techniques and hybrid deep learning model | |
CN110532568A (zh) | 基于树特征选择和迁移学习的汉语词义消歧方法 | |
Al Munzir et al. | Text analysis for bengali text summarization using deep learning | |
CN113806543A (zh) | 一种基于残差跳跃连接的门控循环单元的文本分类方法 | |
CN113626604A (zh) | 基于最大间隔准则的网页文本分类系统 | |
CN106991171A (zh) | 基于智慧校园信息服务平台的话题发现方法 | |
CN110348497A (zh) | 一种基于WT-GloVe词向量构建的文本表示方法 | |
CN110781675A (zh) | 文本分类方法和装置 | |
CN112182213B (zh) | 一种基于异常流泪特征认知的建模方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |