CN108509520A - 基于词性和多重cnn的多通道文本分类模型的构建方法 - Google Patents
基于词性和多重cnn的多通道文本分类模型的构建方法 Download PDFInfo
- Publication number
- CN108509520A CN108509520A CN201810196534.4A CN201810196534A CN108509520A CN 108509520 A CN108509520 A CN 108509520A CN 201810196534 A CN201810196534 A CN 201810196534A CN 108509520 A CN108509520 A CN 108509520A
- Authority
- CN
- China
- Prior art keywords
- word
- speech
- model
- convolution
- matrix
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000010276 construction Methods 0.000 title claims abstract description 14
- 238000013145 classification model Methods 0.000 title claims abstract description 12
- 238000000034 method Methods 0.000 claims abstract description 46
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 33
- 230000008569 process Effects 0.000 claims abstract description 24
- 238000012549 training Methods 0.000 claims abstract description 24
- 238000011478 gradient descent method Methods 0.000 claims abstract description 15
- 230000000694 effects Effects 0.000 claims abstract description 13
- 238000012804 iterative process Methods 0.000 claims abstract description 5
- 239000011159 matrix material Substances 0.000 claims description 25
- 238000002474 experimental method Methods 0.000 claims description 10
- 230000006870 function Effects 0.000 claims description 10
- 230000004913 activation Effects 0.000 claims description 9
- 238000012360 testing method Methods 0.000 claims description 8
- 230000002996 emotional effect Effects 0.000 claims description 6
- 238000011156 evaluation Methods 0.000 claims description 5
- 239000000203 mixture Substances 0.000 claims description 5
- 238000012545 processing Methods 0.000 claims description 4
- 238000013528 artificial neural network Methods 0.000 claims description 3
- 230000008859 change Effects 0.000 claims description 3
- 238000002790 cross-validation Methods 0.000 claims description 3
- 238000013461 design Methods 0.000 claims description 3
- 238000013507 mapping Methods 0.000 claims description 3
- 230000011218 segmentation Effects 0.000 claims description 3
- 230000008901 benefit Effects 0.000 abstract description 2
- 238000005516 engineering process Methods 0.000 description 4
- 238000010801 machine learning Methods 0.000 description 4
- 238000007637 random forest analysis Methods 0.000 description 4
- 244000097202 Rathbunia alamosensis Species 0.000 description 3
- 235000009776 Rathbunia alamosensis Nutrition 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 238000003058 natural language processing Methods 0.000 description 3
- 238000005457 optimization Methods 0.000 description 3
- 241000208340 Araliaceae Species 0.000 description 2
- 241001269238 Data Species 0.000 description 2
- 235000005035 Panax pseudoginseng ssp. pseudoginseng Nutrition 0.000 description 2
- 235000003140 Panax quinquefolius Nutrition 0.000 description 2
- 230000009471 action Effects 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 235000008434 ginseng Nutrition 0.000 description 2
- 238000007477 logistic regression Methods 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 238000003786 synthesis reaction Methods 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 235000013399 edible fruits Nutrition 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 239000004744 fabric Substances 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Machine Translation (AREA)
Abstract
本发明提供一种基于词性和多重CNN的多通道文本分类模型的构建方法,该方法对卷积神经网络进行训练时,所采用的方法依然是传统的梯度下降法。其中,若采用批量梯度下降法,虽然能够获得最好的收敛效果,但由于每次迭代过程都需要所有训练样本参与运算,严重制约训练过程的收敛速度;若采用随机梯度下降法,则每次迭代只需要一个样本,因此在训练速度方面具有明显的优势。
Description
技术领域
本发明涉及计算机技术人工智能领域,更具体地,涉及一种基于词性和多重CNN的多通道文本分类模型的构建方法。
背景技术
目前文本分类使用的方法主要包括传统的机器学习和近几年比较流行的深度学习方法两大类。然而传统的机器学习技术,如支持向量机,或者随机森林等分类算法,主要存在的问题是需要自己动手去构建特征,这样分类结果的好坏很大程度上取决去构建的特征的质量与模型参数的调优,整个过程非常耗时耗力,而且最终的分类效果并不稳定,而近几年随着深度学习技术在图像识别、语音识别等领域中的成功应用,越来越多人尝试将深度学习引入自然语言处理领域中,从而克服传统机器学习方法的不足。
本分类方法主要使用了Word Embedding以及卷积神经网络等相关技术,WordEmbedding即词的分布式表达方式,作为深度学习在自然语言处理领域的基本应用,成为了研究的热点。Word Embedding被广泛应用到很多自然语言处理任务中,并且取得很好的效果。。
发明内容
本发明提供一种有效解决文文本分类问题的基于词性和多重CNN的多通道文本分类模型的构建方法。
为了达到上述技术效果,本发明的技术方案如下:
一种基于词性和多重CNN的多通道文本分类模型的构建方法,包括以下步骤:
S1:对输入文本进行预处理;
S2:对模型的输入进行处理;
S3:构建模型;
S4:对模型进行训练。
进一步地,所述步骤S1的过程是:
1)、中文分词;
2)、去停止词;
3)、词性标注;
4)、提取偏旁。
进一步地,所述步骤S2的过程是:
使用word embedding的方式将文本数据组合成二维向量的方式,输入的文本中的每个词从训练好的词向量矩阵中找到自己的word embedding,再通过“纵向拼接”的方式组合成适合CNN处理的二维特征矩阵。
进一步地,所述步骤S3的过程是:
首先每次输入128篇文章,将每篇文章输入单词的个数设为200、将WordEmbedding的维度设为300,那么文章输入矩阵可以表示成一条128×200×300的矩阵,卷积层放弃使用TextCNN中使用的三个平行二维卷积而是使用一维卷积,由1X1的卷积核来提取出局部特征图,从而降低了运算量,节约了时间成本;而后在提取特征的基础上增加POS词性特征,随后使用Attention层对单词赋予不同的权重,使重要的单词对于最终的分类结构更具有影响力;最后通过全连接层softmax函数来完成对分类标签的映射;
卷积核w∈R1×1在长度为1的窗口的1个词进行卷积操作,则输出特征为
si=f(w×ai+b) (1)
其中:b为偏置项,f为激活函数,神经网络中常用的激活函数有多种,如sigmod函数,tanh函数等,为加快训练收敛速度采用relu函数作为激活函数:
f(x)=max(0,x) (2)
使用的1×1大小的卷积核结构,在卷积过程中输出通道数降为100,经过卷积操作对每篇文章得到的特征图尺寸为200*100,因此对整个输入的128篇文章说经过卷积操作得到的输出矩阵形状为128×200×300;
而后利用词性信息,在卷积层的输出矩阵中每个词之后添加其词性信息,其维度为50,词性的表示方式同Word embedding采取向量的形式,用高斯分布的-1到1之间的随机数进行初始化。拼接之后矩阵的形状为128×200×300;对于词性信息通常的做法是在卷积层之前将词性信息拼接到word embedding之后,在卷积层之后拼接,选择了在卷积之后加入词性信息;
在一句话中,每个词对于判别文章的分类的作用是不一样大的,而且往往一个重要的词的附近也是重要的词,设计Attention层来实现我们的想法,在上一步的基础上,将拼接之后的矩阵放入Attention层,首先计算词的权重,然后对重要的词进行正态化的“弥散”,最后用词对应的权重去与代表每个词的词向量进行相乘,得到加权后的词向量表示;
最后,再经过Attention操作之后,最终提取出了对情感分类影响最大的特征,最后再通过全连接的方式连接到最后一层的两个节点,即组成一个Softmax Regression分类器,从而能够综合考虑提取出来的所有局部特征,完成短文本情感分类任务。
进一步地,所述步骤S4的过程是:
对卷积神经网络进行训练时,所采用的方法依然是传统的梯度下降法,其中,若采用批量梯度下降法,虽然能够获得最好的收敛效果,但由于每次迭代过程都需要所有训练样本参与运算,严重制约训练过程的收敛速度;若采用随机梯度下降法,则每次迭代只需要一个样本;
为了防止模型的训练中出现过拟合现象,采用了L2正则化来对卷积神经网络的参数进行约束;对于最后的全连接层参数进行训练时引入了dropout策略,即在每次更新时都会随机选择一部分训练好的参数进行舍弃;在训练过程中设置dropout值为化0.5,即随机放弃一半参数;
为了评估所得到的卷积神经网络模型的可靠性,采用了十折交叉验证来对模型在测试集上的准确率进行评估,具体为:首先将所有120000条样本平均分为10等份,每份中需要包含十二类样本各10000条;全部模型评估工作总共需要进行10次实验,每次实验中取出9份组成训练集,剩余1份组成测试集;最后得到的卷积神经网络模型的分类准确率应当是运10次实验结果的均值。
与现有技术相比,本发明技术方案的有益效果是:
本发明对卷积神经网络进行训练时,所采用的方法依然是传统的梯度下降法。其中,若采用批量梯度下降法,虽然能够获得最好的收敛效果,但由于每次迭代过程都需要所有训练样本参与运算,严重制约训练过程的收敛速度;若采用随机梯度下降法,则每次迭代只需要一个样本,因此在训练速度方面具有明显的优势。
附图说明
图1为本方法构建模型结构图;
图2为Word Embedding组合方式示意图;
图3为混淆矩阵。
具体实施方式
附图仅用于示例性说明,不能理解为对本专利的限制;
为了更好说明本实施例,附图某些部件会有省略、放大或缩小,并不代表实际产品的尺寸;
对于本领域技术人员来说,附图中某些公知结构及其说明可能省略是可以理解的。
下面结合附图和实施例对本发明的技术方案做进一步的说明。
实施例1
如图1所示,一种基于词性和多重CNN的多通道文本分类模型的构建方法,包括以下步骤:
S1:对输入文本进行预处理;
S2:对模型的输入进行处理;
S3:构建模型;
S4:对模型进行训练。
2.根据权利要求1所述的基于词性和多重CNN的多通道文本分类模型的构建方法,其特征在于,所述步骤S1的过程是:
1)、中文分词;
2)、去停止词;
3)、词性标注;
4)、提取偏旁。
所述步骤S2的过程是:
使用word embedding的方式将文本数据组合成二维向量的方式,输入的文本中的每个词从训练好的词向量矩阵中找到自己的word embedding,再通过“纵向拼接”的方式组合成适合CNN处理的二维特征矩阵。
所述步骤S3的过程是:
首先每次输入128篇文章,将每篇文章输入单词的个数设为200、将WordEmbedding(如图2所示)的维度设为300,那么文章输入矩阵可以表示成一条128×200×300的矩阵,卷积层放弃使用TextCNN中使用的三个平行二维卷积而是使用一维卷积,由1X1的卷积核来提取出局部特征图,从而降低了运算量,节约了时间成本;而后在提取特征的基础上增加POS词性特征,随后使用Attention层对单词赋予不同的权重,使重要的单词对于最终的分类结构更具有影响力;最后通过全连接层softmax函数来完成对分类标签的映射;
卷积核w∈R1×1在长度为1的窗口的1个词进行卷积操作,则输出特征为
si=f(w×ai+b) (1)
其中:b为偏置项,f为激活函数,神经网络中常用的激活函数有多种,如sigmod函数,tanh函数等,为加快训练收敛速度采用relu函数作为激活函数:
f(x)=max(0,x) (2)
使用的1×1大小的卷积核结构,在卷积过程中输出通道数降为100,经过卷积操作对每篇文章得到的特征图尺寸为200*100,因此对整个输入的128篇文章说经过卷积操作得到的输出矩阵形状为128×200×300;
而后利用词性信息,在卷积层的输出矩阵中每个词之后添加其词性信息,其维度为50,词性的表示方式同Word embedding采取向量的形式,用高斯分布的-1到1之间的随机数进行初始化。拼接之后矩阵的形状为128×200×300;对于词性信息通常的做法是在卷积层之前将词性信息拼接到word embedding之后,在卷积层之后拼接,选择了在卷积之后加入词性信息;
在一句话中,每个词对于判别文章的分类的作用是不一样大的,而且往往一个重要的词的附近也是重要的词,设计Attention层来实现我们的想法,在上一步的基础上,将拼接之后的矩阵放入Attention层,首先计算词的权重,然后对重要的词进行正态化的“弥散”,最后用词对应的权重去与代表每个词的词向量进行相乘,得到加权后的词向量表示;
最后,再经过Attention操作之后,最终提取出了对情感分类影响最大的特征,最后再通过全连接的方式连接到最后一层的两个节点,即组成一个Softmax Regression分类器,从而能够综合考虑提取出来的所有局部特征,完成短文本情感分类任务。
所述步骤S4的过程是:
对卷积神经网络进行训练时,所采用的方法依然是传统的梯度下降法,其中,若采用批量梯度下降法,虽然能够获得最好的收敛效果,但由于每次迭代过程都需要所有训练样本参与运算,严重制约训练过程的收敛速度;若采用随机梯度下降法,则每次迭代只需要一个样本;
为了防止模型的训练中出现过拟合现象,采用了L2正则化来对卷积神经网络的参数进行约束;对于最后的全连接层参数进行训练时引入了dropout策略,即在每次更新时都会随机选择一部分训练好的参数进行舍弃;在训练过程中设置dropout值为化0.5,即随机放弃一半参数;
为了评估所得到的卷积神经网络模型的可靠性,采用了十折交叉验证来对模型在测试集上的准确率进行评估,具体为:首先将所有120000条样本平均分为10等份,每份中需要包含十二类样本各10000条;全部模型评估工作总共需要进行10次实验,每次实验中取出9份组成训练集,剩余1份组成测试集;最后得到的卷积神经网络模型的分类准确率应当是运10次实验结果的均值。
具体实验结果:
实验数据集:新浪新闻数据集(共14个分类,超过74万条新闻数据)。
实验环境:Windows10,Pycharm平台,Python3.5.2。
实验工具集:TensorFlow1.4、numpy工具包、Jieba分词、偏旁部首工具、传统分类方法工具的源码包。
实验方法:由于在新浪新闻中有两个分类样本不足,所以我们取了其余的十二个分类,每个分类取一万条数据分成十份,按8:1:1的比例生成训练集、测试集和验证集,采用各种不同的分类方法测试其效果。
评价标准如图3:
(1)正确率:正确率是我们最常见的评价指标,accuracy=(TP+TN)/(P+N),这个很容易理解,就是被分对的样本数除以所有的样本数,通常来说,正确率越高,分类器越好;
(2)准确率:精度是精确性的度量,表示被分为正例的示例中实际为正例的比例,precision=TP/(TP+FP);
(3)召回率:召回率是覆盖面的度量,度量有多个正例被分为正例,recall=TP/(TP+FN)=TP/P=sensitive,可以看到召回率与灵敏度是一样的。
(4)F1值:准确率和召回率的调和平均:F1=(2*P*R)/(P+R)
实验结果:本专利采用24000篇中文新浪的文献,采用传统的方法和本专利采取的方法做了下效果对比:
表1
模型 | 准确率/% |
SVM(RBF) | 60.98 |
Linear SVM | 86.30 |
Random forest | 83.25 |
Logistic regression | 86.15 |
TextCNN+Skip-gram | 89.41 |
CNN+Attention | 92.25 |
从表1中可以得到,用我们设计的CNN+Attention的方法得到了最好的分类效果。
结果分析:
(1)本发明与传统模型
本文中所选择的传统机器学习模型主要包括3类:基于最优化理论的支持向量机模型(SVM)、基于集成学习理论的随机森林模型(Random forest)、以及线性模型中应用最广泛的逻辑回归模型(Logistic regression),基本覆盖了传统机器学习理论中分类算法思路中的绝大部分。因此,该组对比实验具有较强的针对性和说服力。传统的机器学习模型中,Linear SVM获得了最优的性能,准确率达到了86.30%。这与支持向量机模型追求结构化风险最小化的训练目标有关,降低了对数据规模和数据分布的要求,因此在本文中的样本条件下获得了表现最优。在相同的数据集和特征表示方法的条件下,相比于多种传统机器学习方法,本文所提出的卷积神经网络模型在短文本分类任务上获得了更加出色的性能,远远超过了表现最好的Linear SVM。
(2)本发明与TextCNN+Skip-gram
由该组实验结果可知,与TextCNN+Skip-gram相比,我们的方法通过引入小的卷积核以及Attention机制来对词向量进行更加精确的表示,进而得到整条短文本的分布式表示,使得分类正确率由89.41%上升至92.25%。
(3)Linear SVM与SVM(RBF)
本实验中,基于RBF核的支持向量机模型虽然经过了参数调优,但依然表现出了较差的性能,而Linear SVM则表现出了较好的性能。在传统的机器学习方法中,特征的构建方法会对模型在具体任务中的表现产生直接影响,为了能够使得模型的性能最大化,往往需要采用与其特点相匹配的特征处理方式。而在本文中,采用了word embedding这种分布式的特征表示方法,并不是传统的人工构建特征的方式,这使得数据本身已经具备较好的分布特点。而采用RBF核的支持向量机模型会引入更多参数,加重了参数调优的工作量,因而大大增加了过拟合的风险。如果能够获得覆盖面更广的训练集,并且加大参数寻优的力度,或许实验结果会有所不同
相同或相似的标号对应相同或相似的部件;
附图中描述位置关系的用于仅用于示例性说明,不能理解为对本专利的限制;
显然,本发明的上述实施例仅仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明权利要求的保护范围之内。
Claims (5)
1.一种基于词性和多重CNN的多通道文本分类模型的构建方法,其特征在于,包括以下步骤:
S1:对输入文本进行预处理;
S2:对模型的输入进行处理;
S3:构建模型;
S4:对模型进行训练。
2.根据权利要求1所述的基于词性和多重CNN的多通道文本分类模型的构建方法,其特征在于,所述步骤S1的过程是:
1)、中文分词;
2)、去停止词;
3)、词性标注;
4)、提取偏旁。
3.根据权利要求2所述的基于词性和多重CNN的多通道文本分类模型的构建方法,其特征在于,所述步骤S2的过程是:
使用word embedding的方式将文本数据组合成二维向量的方式,输入的文本中的每个词从训练好的词向量矩阵中找到自己的word embedding,再通过“纵向拼接”的方式组合成适合CNN处理的二维特征矩阵。
4.根据权利要求3所述的基于词性和多重CNN的多通道文本分类模型的构建方法,其特征在于,所述步骤S3的过程是:
首先每次输入128篇文章,将每篇文章输入单词的个数设为200、将Word Embedding的维度设为300,那么文章输入矩阵可以表示成一条128×200×300的矩阵,卷积层放弃使用TextCNN中使用的三个平行二维卷积而是使用一维卷积,由1X1的卷积核来提取出局部特征图,从而降低了运算量,节约了时间成本;而后在提取特征的基础上增加POS词性特征,随后使用Attention层对单词赋予不同的权重,使重要的单词对于最终的分类结构更具有影响力;最后通过全连接层softmax函数来完成对分类标签的映射;
卷积核w∈R1×1在长度为1的窗口的1个词进行卷积操作,则输出特征为
si=f(w×ai+b) (1)
其中:b为偏置项,f为激活函数,神经网络中常用的激活函数有多种,如sigmod函数,tanh函数等,为加快训练收敛速度采用relu函数作为激活函数:
f(x)=max(0,x) (2)
使用的1×1大小的卷积核结构,在卷积过程中输出通道数降为100,经过卷积操作对每篇文章得到的特征图尺寸为200*100,因此对整个输入的128篇文章说经过卷积操作得到的输出矩阵形状为128×200×300;
而后利用词性信息,在卷积层的输出矩阵中每个词之后添加其词性信息,其维度为50,词性的表示方式同Word embedding采取向量的形式,用高斯分布的-1到1之间的随机数进行初始化。拼接之后矩阵的形状为128×200×300;对于词性信息通常的做法是在卷积层之前将词性信息拼接到word embedding之后,在卷积层之后拼接,选择了在卷积之后加入词性信息;
在一句话中,每个词对于判别文章的分类的作用是不一样大的,而且往往一个重要的词的附近也是重要的词,设计Attention层来实现我们的想法,在上一步的基础上,将拼接之后的矩阵放入Attention层,首先计算词的权重,然后对重要的词进行正态化的“弥散”,最后用词对应的权重去与代表每个词的词向量进行相乘,得到加权后的词向量表示;
最后,再经过Attention操作之后,最终提取出了对情感分类影响最大的特征,最后再通过全连接的方式连接到最后一层的两个节点,即组成一个Softmax Regression分类器,从而能够综合考虑提取出来的所有局部特征,完成短文本情感分类任务。
5.根据权利要求4所述的基于词性和多重CNN的多通道文本分类模型的构建方法,其特征在于,所述步骤S4的过程是:
对卷积神经网络进行训练时,所采用的方法依然是传统的梯度下降法,其中,若采用批量梯度下降法,虽然能够获得最好的收敛效果,但由于每次迭代过程都需要所有训练样本参与运算,严重制约训练过程的收敛速度;若采用随机梯度下降法,则每次迭代只需要一个样本;
为了防止模型的训练中出现过拟合现象,采用了L2正则化来对卷积神经网络的参数进行约束;对于最后的全连接层参数进行训练时引入了dropout策略,即在每次更新时都会随机选择一部分训练好的参数进行舍弃;在训练过程中设置dropout值为化0.5,即随机放弃一半参数;
为了评估所得到的卷积神经网络模型的可靠性,采用了十折交叉验证来对模型在测试集上的准确率进行评估,具体为:首先将所有120000条样本平均分为10等份,每份中需要包含十二类样本各10000条;全部模型评估工作总共需要进行10次实验,每次实验中取出9份组成训练集,剩余1份组成测试集;最后得到的卷积神经网络模型的分类准确率应当是运10次实验结果的均值。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810196534.4A CN108509520B (zh) | 2018-03-09 | 2018-03-09 | 基于词性和多重cnn的多通道文本分类模型的构建方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810196534.4A CN108509520B (zh) | 2018-03-09 | 2018-03-09 | 基于词性和多重cnn的多通道文本分类模型的构建方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108509520A true CN108509520A (zh) | 2018-09-07 |
CN108509520B CN108509520B (zh) | 2021-10-29 |
Family
ID=63377304
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810196534.4A Active CN108509520B (zh) | 2018-03-09 | 2018-03-09 | 基于词性和多重cnn的多通道文本分类模型的构建方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108509520B (zh) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109284388A (zh) * | 2018-10-29 | 2019-01-29 | 深兰科技(上海)有限公司 | 字符数字唯一可译深度模型的文本分类方法及存储介质 |
CN109670439A (zh) * | 2018-12-14 | 2019-04-23 | 中国石油大学(华东) | 一种端到端的行人及其部位检测方法 |
CN109670182A (zh) * | 2018-12-21 | 2019-04-23 | 合肥工业大学 | 一种基于文本哈希向量化表示的海量极短文本分类方法 |
CN109815339A (zh) * | 2019-01-02 | 2019-05-28 | 平安科技(深圳)有限公司 | 基于TextCNN知识抽取方法、装置、计算机设备及存储介质 |
CN111079377A (zh) * | 2019-12-03 | 2020-04-28 | 哈尔滨工程大学 | 一种面向中文医疗文本命名实体识别的方法 |
CN111090749A (zh) * | 2019-12-23 | 2020-05-01 | 福州大学 | 一种基于TextCNN的报刊出版物分类方法及系统 |
CN111210815A (zh) * | 2019-11-28 | 2020-05-29 | 赵铭 | 一种用于语音命令词识别的深度神经网络构建方法和识别方法及装置 |
CN112115264A (zh) * | 2020-09-14 | 2020-12-22 | 中国科学院计算技术研究所苏州智能计算产业技术研究院 | 面向数据分布变化的文本分类模型调整方法 |
CN112948924A (zh) * | 2021-02-06 | 2021-06-11 | 合肥工业大学 | 基于覆岩结构的近松散层开采导水裂隙带高度确定方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106776572A (zh) * | 2016-12-27 | 2017-05-31 | 竹间智能科技(上海)有限公司 | 一种人称识别方法 |
CN106951438A (zh) * | 2017-02-13 | 2017-07-14 | 北京航空航天大学 | 一种面向开放域的事件抽取系统及方法 |
US20170308790A1 (en) * | 2016-04-21 | 2017-10-26 | International Business Machines Corporation | Text classification by ranking with convolutional neural networks |
WO2018009490A1 (en) * | 2016-07-08 | 2018-01-11 | Microsoft Technology Licensing, Llc | Conversational relevance modeling using convolutional neural network |
-
2018
- 2018-03-09 CN CN201810196534.4A patent/CN108509520B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170308790A1 (en) * | 2016-04-21 | 2017-10-26 | International Business Machines Corporation | Text classification by ranking with convolutional neural networks |
WO2018009490A1 (en) * | 2016-07-08 | 2018-01-11 | Microsoft Technology Licensing, Llc | Conversational relevance modeling using convolutional neural network |
CN106776572A (zh) * | 2016-12-27 | 2017-05-31 | 竹间智能科技(上海)有限公司 | 一种人称识别方法 |
CN106951438A (zh) * | 2017-02-13 | 2017-07-14 | 北京航空航天大学 | 一种面向开放域的事件抽取系统及方法 |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109284388A (zh) * | 2018-10-29 | 2019-01-29 | 深兰科技(上海)有限公司 | 字符数字唯一可译深度模型的文本分类方法及存储介质 |
CN109670439A (zh) * | 2018-12-14 | 2019-04-23 | 中国石油大学(华东) | 一种端到端的行人及其部位检测方法 |
CN109670182A (zh) * | 2018-12-21 | 2019-04-23 | 合肥工业大学 | 一种基于文本哈希向量化表示的海量极短文本分类方法 |
CN109670182B (zh) * | 2018-12-21 | 2023-03-24 | 合肥工业大学 | 一种基于文本哈希向量化表示的海量极短文本分类方法 |
CN109815339B (zh) * | 2019-01-02 | 2022-02-08 | 平安科技(深圳)有限公司 | 基于TextCNN知识抽取方法、装置、计算机设备及存储介质 |
CN109815339A (zh) * | 2019-01-02 | 2019-05-28 | 平安科技(深圳)有限公司 | 基于TextCNN知识抽取方法、装置、计算机设备及存储介质 |
CN111210815A (zh) * | 2019-11-28 | 2020-05-29 | 赵铭 | 一种用于语音命令词识别的深度神经网络构建方法和识别方法及装置 |
CN111210815B (zh) * | 2019-11-28 | 2023-01-06 | 赵铭 | 一种用于语音命令词识别的深度神经网络构建方法和识别方法及装置 |
CN111079377A (zh) * | 2019-12-03 | 2020-04-28 | 哈尔滨工程大学 | 一种面向中文医疗文本命名实体识别的方法 |
CN111079377B (zh) * | 2019-12-03 | 2022-12-13 | 哈尔滨工程大学 | 一种面向中文医疗文本命名实体识别的方法 |
CN111090749A (zh) * | 2019-12-23 | 2020-05-01 | 福州大学 | 一种基于TextCNN的报刊出版物分类方法及系统 |
CN112115264A (zh) * | 2020-09-14 | 2020-12-22 | 中国科学院计算技术研究所苏州智能计算产业技术研究院 | 面向数据分布变化的文本分类模型调整方法 |
CN112115264B (zh) * | 2020-09-14 | 2024-03-22 | 中科苏州智能计算技术研究院 | 面向数据分布变化的文本分类模型调整方法 |
CN112948924A (zh) * | 2021-02-06 | 2021-06-11 | 合肥工业大学 | 基于覆岩结构的近松散层开采导水裂隙带高度确定方法 |
Also Published As
Publication number | Publication date |
---|---|
CN108509520B (zh) | 2021-10-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108509520A (zh) | 基于词性和多重cnn的多通道文本分类模型的构建方法 | |
Nikolentzos et al. | Message passing attention networks for document understanding | |
CN108446271B (zh) | 基于汉字部件特征的卷积神经网络的文本情感分析方法 | |
CN110222178B (zh) | 文本情感分类方法、装置、电子设备及可读存储介质 | |
CN112001185A (zh) | 一种结合中文句法和图卷积神经网络的情感分类方法 | |
CN109408823B (zh) | 一种基于多通道模型的特定目标情感分析方法 | |
CN112364638B (zh) | 一种基于社交文本的人格识别方法 | |
CN108460089A (zh) | 基于Attention神经网络的多元特征融合中文文本分类方法 | |
Prusa et al. | Designing a better data representation for deep neural networks and text classification | |
CN109902177A (zh) | 基于双通道卷积记忆神经网络的文本情感分析方法 | |
CN108536801A (zh) | 一种基于深度学习的民航微博安保舆情情感分析方法 | |
CN113704416A (zh) | 词义消歧方法、装置、电子设备及计算机可读存储介质 | |
Katić et al. | Comparing sentiment analysis and document representation methods of amazon reviews | |
CN113095087B (zh) | 一种基于图卷积神经网络的中文词义消歧方法 | |
Gangadharan et al. | Paraphrase detection using deep neural network based word embedding techniques | |
CN113420145A (zh) | 一种基于半监督学习的招标文本分类方法与系统 | |
CN112667806B (zh) | 一种使用lda的文本分类筛选方法 | |
Lenc et al. | Word embeddings for multi-label document classification. | |
Omara et al. | Emotion analysis in arabic language applying transfer learning | |
Saumya et al. | IIIT_DWD@ LT-EDI-EACL2021: hope speech detection in YouTube multilingual comments | |
Yeasmin et al. | Multi-category bangla news classification using machine learning classifiers and multi-layer dense neural network | |
CN111090749A (zh) | 一种基于TextCNN的报刊出版物分类方法及系统 | |
Soni et al. | Feature based sentiment analysis of product reviews using deep learning methods | |
Basri et al. | A deep learning based sentiment analysis on bang-lish disclosure | |
Tian et al. | Chinese short text multi-classification based on word and part-of-speech tagging embedding |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |