CN111858939A - 一种基于上下文信息和卷积神经网络的文本情感分类方法 - Google Patents

一种基于上下文信息和卷积神经网络的文本情感分类方法 Download PDF

Info

Publication number
CN111858939A
CN111858939A CN202010731311.0A CN202010731311A CN111858939A CN 111858939 A CN111858939 A CN 111858939A CN 202010731311 A CN202010731311 A CN 202010731311A CN 111858939 A CN111858939 A CN 111858939A
Authority
CN
China
Prior art keywords
text
vector
word
equal
emotion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010731311.0A
Other languages
English (en)
Inventor
陈福
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Wujie Data Technology Co Ltd
Original Assignee
Shanghai Wujie Data Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Wujie Data Technology Co Ltd filed Critical Shanghai Wujie Data Technology Co Ltd
Priority to CN202010731311.0A priority Critical patent/CN111858939A/zh
Publication of CN111858939A publication Critical patent/CN111858939A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/953Querying, e.g. by the use of web search engines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明公开了一种基于上下文信息和卷积神经网络的文本情感分类方法,步骤包括:1)文本预处理;2)文本的词向量表示;3)文本的上下文信息生成;4)神经网络模型训练和分类。本发明在词向量基础上,抽取文本的上下文信息,并将多种不同尺度的卷积核融入卷积神经网络中,既能利用文本中更丰富的语义信息,又能捕获词语之间在不同尺度的关系,实现更准确的文本情感分类。

Description

一种基于上下文信息和卷积神经网络的文本情感分类方法
技术领域
本发明属于自然语言处理技术与模式识别领域,具体地说是一种基于上下文信息和卷积神经网络的文本情感分类方法。
背景技术
文本是互联网上信息传递的一种主要形式。与图像、声音等信息传递形式相比,文本数据量较小,但可以包含大量信息,而且可以更容易表达用户观点。互联网上存在大量带有情感倾向性的文本,这些情感倾向性文本往往以商品评论、论坛评论和博客等各种形式存在。文本情感分类是根据文本内容所体现的用户意见的情感极性将其分为正面、中性和负面三类。由于巨大的商业价值,近年来,文本情感分类在自然语言处理研究领域得到了很大的关注。传统情感分类包括支持向量机(SvM)、决策树、朴素贝叶斯分类器等。然而这些方法都存在一定缺陷,如SvM在建模复杂非线性问题时表达能力不足,决策树在噪声情况下容易出现过拟合,朴素贝叶斯分类器需要属性的独立性假设。相比传统分类方法,近年来兴起的深度学习模型则表现出了良好的自适应性和容错性。
大多数基于深度学习的文本情感分类方法直接将文本表达为词向量矩阵,并利用卷积神经网络分类。词向量是采样神经网络语言模型和N-gram语言模型将每个词语都表示成一个实数向量。然而,这种方法没有充分挖掘文本的上下文语义信息,难以表达文本中复杂的情感,使得文本情感分类的准确率仍存在提高的空间。
发明内容
本发明为克服现有技术存在的不足之处,提出一种基于上下文信息和卷积神经网络的文本情感分类方法,以期能进一步提高文本情感分类的准确性。
本发明为解决技术问题采用如下技术方案:
一种基于上下文信息和卷积神经网络的文本情感分类方法,按如下步骤进行:
步骤1:获取文本集合D={D1,D2,…,DN{及对应的情感标签集合Y={y1,y2,…,yN{,Dt表示第t个文本,yt表示第t个文本的情感极性:如果Dt的情感为正面,则yt=1,如果Dt的情感为负面,则yt=2,如果Dt的情感为中性,则yt=3,1≤t≤N,N为文本集合D中的文本总数;
步骤2:对文本集合D中的每个文本Dt进行分词,并对分词结果进行去除停用词,从而获得第t个文本Dt所包含的词语序列
Figure BDA0002603424550000026
di表示Dt中的第i个词语;1≤i≤mt,mt为去除停用词后Dt中包含的词语总数,也就是文本Dt的长度;
步骤3:取文本集合D中的最长文本长度为H,将每个文本的词语序列
Figure BDA0002603424550000027
转换成固定长度{d1,d2,…,dH},如果mt<H,则在词语序列
Figure BDA0002603424550000028
后面补H-mt个字符NULL;
步骤4:通过查表的方式得到文本Dt的词向量矩阵Vt=[v1,v2,…,vH]∈RH×p,其中vi∈Rp为词语di的词向量表示,NULL对应的词向量为全0的p维向量;
步骤5:根据文本Dt的词向量矩阵Vt,计算文本Dt的上下文矩阵Ft
步骤5.1:计算文本Dt中任意两个词语di与dj的相关系数:
sij=wTtanh(Wcoij+bc)
其中,tanh()代表双曲正切函数,oij=[vi,vj]为将di对应的词向量vi与dj对应的词向量vj连接得到的向量,w和WC为需要通过模型训练得到的权重,bc为需要通过模型训练得到的偏置, T表示向量转置,1≤i≤H,1≤j≤H;
步骤5.2:将相关系数归一化到0和1之间:
Figure BDA0002603424550000021
归一化后有
Figure BDA0002603424550000022
步骤5.3:对文本Dt的词向量矩阵Vt=[v1,v2,…,vH]和归一化相关系数
Figure BDA0002603424550000023
计算词语di的上下文向量
Figure BDA0002603424550000024
Figure BDA0002603424550000025
步骤5.4:依次令i=1,2,…,H,重复步骤5.3,得到文本Dt的上下文矩阵
Figure BDA0002603424550000031
步骤6:将文本Dt的词向量矩阵Vt和上下文矩阵Ft组合成3阶张量Bt∈RH×p×2
步骤7:应用同一尺度的卷积核集合{w1,w2,…,wQ}和极大池化操作从文本Dt的3阶张量 Bt中抽取Q维特征向量
Figure BDA0002603424550000032
其中卷积核wi的大小为l×p×2,i=1,2,…,Q,l为卷积核窗口中词的数量;
步骤7.1:取出文本Dt中由第1到第l个词语对应的词向量和上下文向量构成的子张量 Bt,1∈Rl×p×2,取出文本Dt中由第2到第l+1个词语对应的词向量和上下文向量构成的子张量
Bt,2∈Rl×p×2,依次类推,获得子张量Bt,3,…,BtH+1-l
步骤7.2:将卷积核wq与{Bt,1,Bt,2,…,Bt,H+1-l}进行卷积操作后生成特征向量cq∈RH+1-l, cq的第i个元素为f1(wq*Bt,i+b),i=1,2,…,H+1-l,b为偏置项,f1为非线性激活函数;
步骤7.3:依次令q=1,2,…,Q,重复步骤7.2,产生卷积层的特征矩阵
C=[c1,c2,…,cQ]∈R(H+1-l)×Q
步骤7.4:对特征矩阵C的每一列应用极大池化(max pooling),保留最重要的特征,得到特征向量
Figure BDA0002603424550000033
Figure BDA0002603424550000034
步骤8:若有不同尺度大小的卷积核r种,每种尺度下卷积核有Q个,对每种尺度下的所有卷积核,应用步骤7都能抽取Q维的特征向量,将所有不同尺度的卷积核抽取的特征向量连接为特征向量s∈RQ·r
步骤9:在特征向量s上应用全连接网络进一步抽取特征:
Figure BDA0002603424550000035
其中,Wfc与bfc为需要根据数据训练的权重参数,f为非线性变换函数;
步骤10:在特征向量
Figure BDA0002603424550000041
上应用softmax分类器,得到文本Dt属于类别yi的概率:
Figure BDA0002603424550000042
其中,α1,α2,α3,β1,β2,β3为softmax分类器的系数,yi=1表示正面情感,yi=2表示负面情感,yi=3表示中性情感;
步骤11:在模型训练阶段,采用随机梯度下降算法优化模型的参数。
本发明通过从原始文本中挖掘上下文信息,将文本的词向量矩阵和上下文信息一起作为卷积神经网络的输入,同时,为表达不同距离的词语间的关系,将多尺度卷积核引入卷积神经网络,提高了文本情感分类的准确度。与已有技术相比,本发明有益效果体现在:
1、本发明通过引入学习机制,能显式抽取文本中词语的上下文语义信息和关系,克服了词向量无法表达特定文本词语间关系的缺陷;
2、本发明通过多种尺度的卷积核,能有效表达不同距离的词语之间的多重依赖性,有助于从文本中抽取更多有利于分类的信息;
3、本发明可以应用于对互联网上采集的新闻、产品评论等文本进行情感分析,还可应用于舆情监控和信息预测等领域,本发明应用广泛。
具体实施方式
本发明为了克服现有技术存在的不足之处,提出一种基于上下文信息和卷积神经网络的文本情感分类方法,以期能解决词向量蕴含的鉴别信息不足和单一尺度卷积核的缺陷,从而进一步提高文本情感分类的准确性。
为更为具体地描述本发明,下面对本发明的技术方案进行详细说明。
本实施例一种基于多特征融合集成学习的文本情感分类方法,具体过程为:
步骤1:数据获取。获取文本集合D={D1,D2,…,DN}及对应的情感标签集合 Y={y1,y2,…,yN},Dt表示第t个文本,yt表示第t个文本的情感极性:如果Dt的情感为正面,则yt=1,如果Dt的情感为负面,则yt=2,如果Dt的情感为中性,则yt=3,1≤t≤N,N 为文本集合D中的文本总数;
步骤2:对文本集合D中的每个文本Dt进行分词,并对分词结果进行去除停用词,从而获得第t个文本Dt所包含的词语序列
Figure BDA0002603424550000043
di表示Dt中的第i个词语;1≤i≤mt,mt为去除停用词后Dt中包含的词语总数,也就是文本Dt的长度。
中文分词操作主要基于字符串匹配原理,现有的开源中文分词软件包括结巴(Jieba)分词、中科院汉语分词系统(ICTCLAS)。此步骤采用结巴(Jieba)分词进行分词操作。
去停用词即去掉分词词语中与文本情感判断不太相关的词语,如空格、特殊字符、人名、时间日期、不含语义信息的词等。
步骤3:取文本集合D中的最长文本长度为H,将每个文本的词语序列
Figure BDA0002603424550000051
转换成固定长度{d1,d2,…,dH{,如果mt<H,则在词语序列
Figure BDA0002603424550000052
后面补H-mt个字符NULL;
步骤4:通过查表的方式得到文本Dt的词向量矩阵Vt=[v1,v2,…,vH]∈RH×p,其中vi∈Rp为词语di的词向量表示,NULL对应的词向量为全0的p维向量;词向量是将词语转换成向量表示,使得可以应用神经网络对文本进行分析和计算。词向量既可以通过gensim工具在采集的文本上训练得到,也可以直接采用开源模型。此步骤采用Google的word2vec模型。
步骤5:根据文本Dt的词向量矩阵Vt,计算文本Dt的上下文矩阵Ft
步骤5.1:计算文本Dt中任意两个词语di与dj的相关系数:
sij=wTtanh(Wcoij+bc)
其中,oij=[vi,vj]为将di对应的词向量vi与dj对应的词向量vj连接得到的向量,w和WC为需要通过模型训练得到的权重,bc为需要通过模型训练得到的偏置,T表示向量转置,1≤i≤H,1≤j≤H;
步骤5.2:将相关系数归一化到0和1之间:
Figure BDA0002603424550000053
归一化后有
Figure BDA0002603424550000055
步骤5.3:对文本Dt的词向量矩阵Vt=[v1,v2,…,vH]和归一化相关系数
Figure BDA0002603424550000054
计算词语di的上下文向量
Figure BDA0002603424550000061
Figure BDA0002603424550000062
步骤5.4:依次令i=1,2,…,H,重复步骤5.3,得到文本Dt的上下文矩阵
Figure BDA0002603424550000063
步骤6:将文本Dt的词向量矩阵Vt和上下文矩阵Ft组合成3阶张量Bt∈RH×p×2
步骤7:应用同一尺度的卷积核集合{w1,w2,…,wQ}和极大池化操作从文本Dt的3阶张量 Bt中抽取Q维特征向量
Figure BDA0002603424550000064
其中卷积核wi的大小为l×p×2,i=1,2,…,Q,l为卷积核窗口中词的数量;
步骤7.1:取出文本Dt中由第1到第l个词语对应的词向量和上下文向量构成的子张量 Bt,1∈Rl×p×2,取出文本Dt中由第2到第l+1个词语对应的词向量和上下文向量构成的子张量 Bt,2∈Rl×p×2,依次类推,获得子张量Bt,3,…,Bt,H+1-l
步骤7.2:将卷积核wq与{Bt,1,Bt,2,…,Bt,H+1-l}进行卷积操作后生成特征向量cq∈RH+1-l, cq的第i个元素为f1(wq*Bt,i+b),i=1,2,…,H+1-l,b为偏置项,f1为非线性激活函数;
在本实施例中,非线性激活函数f1取为RELU函数;
步骤7.3:依次令q=1,2,…,Q,重复步骤7.2,产生卷积层的特征矩阵
C=[c1,c2,…,cQ]∈R(H+1-l)×Q
步骤7.4:对特征矩阵C的每一列应用极大池化(max pooling),保留最重要的特征,得到特征向量
Figure BDA0002603424550000065
Figure BDA0002603424550000066
步骤8:若有不同尺度大小的卷积核r种,每种尺度下卷积核有Q个,对每种尺度下的所有卷积核,应用步骤7都能抽取Q维的特征向量,将所有不同尺度的卷积核抽取的特征向量连接为特征向量s∈RQ·r
在本实施例中,设计5种不同尺度的卷积核,5种尺度卷积核窗口中词的数量分别为3、 4、5、6、7,每种尺度下卷积核数量Q取为256;
步骤9:在特征向量s上应用全连接网络进一步抽取特征:
Figure BDA0002603424550000071
其中,Wfc与bfc为需要根据数据训练的权重参数,f为非线性变换函数;
在本实施例中,全连接网络包含1024个神经元,非线性变换函数f取为RELU函数;
步骤10:在特征向量
Figure BDA0002603424550000072
上应用softmax分类器,得到文本Dt属于类别yi的概率:
Figure BDA0002603424550000073
其中,α1,α2,α3,β1,β2,β3为softmax分类器的系数,同样需要通过模型训练得到,yi=1表示正面情感,yi=2表示负面情感,yi=3表示中性情感;
步骤11:在模型训练阶段,采用随机梯度下降算法优化模型的参数,其中模型的参数包括卷积核、Wfc、bfc、α1、α2、α3、β1、β2、β3、w、wc、bc。采用随机梯度下降算法不仅具有较快的训练速度、适合于处理海量数据,而且可以有效跳出局部最优解,找到更优的模型参数。

Claims (4)

1.一种基于上下文信息和卷积神经网络的文本情感分类方法,其特征在于,包括如下步骤:
步骤1:获取文本集合
D={D1,D2,…,DN}
及对应的情感标签集合Y={y1,y2,…,yN},Dt表示第t个文本,yt表示第t个文本的情感极性:如果Dt的情感为正面,则yt=1,如果Dt的情感为负面,则yt=2,如果Dt的情感为中性,则yt=3,1≤t≤N,N为文本集合D中的文本总数;
步骤2:对文本集合D中的每个文本Dt进行分词,并对分词结果进行去除停用词,从而获得第t个文本Dt所包含的词语序列
Figure FDA0002603424540000011
di表示Dt中的第i个词语;1≤i≤mt,mt为去除停用词后Dt中包含的词语总数,也就是文本Dt的长度;
步骤3:取文本集合D中的最长文本长度为H,将每个文本的词语序列
Figure FDA0002603424540000012
转换成固定长度{d1,d2,…,dH},如果mt<H,则在词语序列
Figure FDA0002603424540000013
后面补H-mt个字符NULL;
步骤4:通过查表的方式得到文本Dt的词向量矩阵Vt=[v1,v2,…,vH]∈RH×p,其中vi∈Rp为词语di的词向量表示,其中p为词向量的维度,NULL对应的词向量为全0的p维向量;
步骤5:根据文本Dt的词向量矩阵Vt,计算文本Dt的上下文矩阵Ft
步骤6:将文本Dt的词向量矩阵Vt和上下文矩阵Ft组合成3阶张量Bt∈RH×p×2
步骤7:应用同一尺度的卷积核集合{w1,w2,…,wQ}和极大池化操作从文本Dt的3阶张量Bt中抽取Q维特征向量
Figure FDA0002603424540000014
其中卷积核wi的大小为l×p×2,i=1,2,…,Q,l为卷积核窗口中词的数量;
步骤8:若有不同尺度大小的卷积核r种,每种尺度下卷积核有Q个,对每种尺度下的所有卷积核,应用步骤7都能抽取Q维的特征向量,将所有不同尺度的卷积核抽取的特征向量连接为特征向量s∈RQr
步骤9:在特征向量s上应用全连接网络进一步抽取特征:
Figure FDA0002603424540000021
其中,Wfc与bfc为需要根据数据训练的权重参数,f为非线性变换函数,如sigmoid、tanh、RELU;
步骤10:在特征向量
Figure FDA0002603424540000027
上应用softmax分类器,得到文本Dt属于类别yi的概率:
Figure FDA0002603424540000022
其中,α1,α2,α3,β1,β2,β3为softmax分类器的系数,需要通过模型训练得到,yi=1表示正面情感,yi=2表示负面情感,yi=3表示中性情感。
2.根据权利要求1所述的一种基于上下文信息和卷积神经网络的文本情感分类方法,其特征在于,步骤5包括:
步骤5.1:计算文本Dt中任意两个词语di与dj的相关系数:
sij=wTtanh(Wcoij+bc)
其中,tanh()为双曲正切函数,oij=[vi,vj]为将di对应的词向量vi与dj对应的词向量vj连接得到的向量,w和WC为需要通过模型训练得到的权重,bc为需要通过模型训练得到的偏置,T表示向量转置,1≤i≤H,1≤j≤H;
步骤5.2:将相关系数归一化到0和1之间:
Figure FDA0002603424540000023
归一化后有
Figure FDA0002603424540000024
步骤5.3:对文本Dt的词向量矩阵Vt=[v1,v2,…,vH]和归一化相关系数
Figure FDA0002603424540000025
计算词语di的上下文向量
Figure FDA0002603424540000026
Figure FDA0002603424540000031
步骤5.4:依次令i=1,2,…,H,重复步骤5.3,得到文本Dt的上下文矩阵
Figure FDA0002603424540000032
3.根据权利要求1所述的一种基于上下文信息和卷积神经网络的文本情感分类方法,其特征在于,步骤7包括:
步骤7.1:取出文本Dt中由第1到第l个词语对应的词向量和上下文向量构成的子张量Bt,1∈Rl×p×2,取出文本Dt中由第2到第l+1个词语对应的词向量和上下文向量构成的子张量Bt,2∈Rl×p×2,依次类推,获得子张量Bt,3,…,Bt,H+1-l
步骤7.2:将卷积核wq与{Bt,1,Bt,2,…,Bt,H+1-l}进行卷积操作后生成特征向量cq∈RH+1-l,cq的第i个元素为f1(wq*Bt,i+b),i=1,2,…,H+1-l,b为偏置项,f1为非线性激活函数;
步骤7.3:依次令q=1,2,…,Q,重复步骤7.2,产生卷积层的特征矩阵c=[c1,c2,…,cQ]∈R(H+1-l)×Q
步骤7.4:对特征矩阵C的每一列应用极大池化,保留重要的特征,得到特征向量
Figure FDA0002603424540000033
Figure FDA0002603424540000034
4.根据权利要求1所述的一种基于上下文信息和卷积神经网络的文本情感分析方法,其特征在于,还包括步骤11:
在模型训练阶段,采用随机梯度下降算法优化模型的参数,其中模型的参数包括卷积核、Wfc、bfc、α1、α2、α3、β1、β2、β3、w、wc、bc
CN202010731311.0A 2020-07-27 2020-07-27 一种基于上下文信息和卷积神经网络的文本情感分类方法 Pending CN111858939A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010731311.0A CN111858939A (zh) 2020-07-27 2020-07-27 一种基于上下文信息和卷积神经网络的文本情感分类方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010731311.0A CN111858939A (zh) 2020-07-27 2020-07-27 一种基于上下文信息和卷积神经网络的文本情感分类方法

Publications (1)

Publication Number Publication Date
CN111858939A true CN111858939A (zh) 2020-10-30

Family

ID=72947664

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010731311.0A Pending CN111858939A (zh) 2020-07-27 2020-07-27 一种基于上下文信息和卷积神经网络的文本情感分类方法

Country Status (1)

Country Link
CN (1) CN111858939A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112948541A (zh) * 2021-02-01 2021-06-11 华南理工大学 基于图卷积网络的金融新闻文本情感倾向分析方法
CN113434686A (zh) * 2021-07-07 2021-09-24 中国银行股份有限公司 一种基于多重语义信息的资讯分类方法及系统
CN116306673A (zh) * 2023-03-16 2023-06-23 之江实验室 一种文本特征提取方法与系统、电子设备、介质
CN116562251A (zh) * 2023-05-19 2023-08-08 中国矿业大学(北京) 一种面向证券信息披露长文档的表格分类方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106547735A (zh) * 2016-10-25 2017-03-29 复旦大学 基于深度学习的上下文感知的动态词或字向量的构建及使用方法
CN108009148A (zh) * 2017-11-16 2018-05-08 天津大学 基于深度学习的文本情感分类表示方法
CN108984523A (zh) * 2018-06-29 2018-12-11 重庆邮电大学 一种基于深度学习模型的商品评论情感分析方法
CN109740154A (zh) * 2018-12-26 2019-05-10 西安电子科技大学 一种基于多任务学习的在线评论细粒度情感分析方法
CN109902177A (zh) * 2019-02-28 2019-06-18 上海理工大学 基于双通道卷积记忆神经网络的文本情感分析方法
CN110502757A (zh) * 2019-08-29 2019-11-26 西安邮电大学 一种自然语言情感分析方法
CN111382565A (zh) * 2020-03-09 2020-07-07 南京理工大学 基于多标签的情绪-原因对抽取方法及系统

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106547735A (zh) * 2016-10-25 2017-03-29 复旦大学 基于深度学习的上下文感知的动态词或字向量的构建及使用方法
CN108009148A (zh) * 2017-11-16 2018-05-08 天津大学 基于深度学习的文本情感分类表示方法
CN108984523A (zh) * 2018-06-29 2018-12-11 重庆邮电大学 一种基于深度学习模型的商品评论情感分析方法
CN109740154A (zh) * 2018-12-26 2019-05-10 西安电子科技大学 一种基于多任务学习的在线评论细粒度情感分析方法
CN109902177A (zh) * 2019-02-28 2019-06-18 上海理工大学 基于双通道卷积记忆神经网络的文本情感分析方法
CN110502757A (zh) * 2019-08-29 2019-11-26 西安邮电大学 一种自然语言情感分析方法
CN111382565A (zh) * 2020-03-09 2020-07-07 南京理工大学 基于多标签的情绪-原因对抽取方法及系统

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112948541A (zh) * 2021-02-01 2021-06-11 华南理工大学 基于图卷积网络的金融新闻文本情感倾向分析方法
CN112948541B (zh) * 2021-02-01 2022-09-20 华南理工大学 基于图卷积网络的金融新闻文本情感倾向分析方法
CN113434686A (zh) * 2021-07-07 2021-09-24 中国银行股份有限公司 一种基于多重语义信息的资讯分类方法及系统
CN116306673A (zh) * 2023-03-16 2023-06-23 之江实验室 一种文本特征提取方法与系统、电子设备、介质
CN116306673B (zh) * 2023-03-16 2023-10-24 之江实验室 一种文本特征提取方法与系统、电子设备、介质
CN116562251A (zh) * 2023-05-19 2023-08-08 中国矿业大学(北京) 一种面向证券信息披露长文档的表格分类方法

Similar Documents

Publication Publication Date Title
Huang et al. Facial expression recognition with grid-wise attention and visual transformer
Al-Ayyoub et al. Deep learning for Arabic NLP: A survey
CN110287320B (zh) 一种结合注意力机制的深度学习多分类情感分析模型
CN108399158B (zh) 基于依存树和注意力机制的属性情感分类方法
CN109766277B (zh) 一种基于迁移学习与dnn的软件故障诊断方法
CN109753660B (zh) 一种基于lstm的中标网页命名实体抽取方法
CN108763216A (zh) 一种基于中文数据集的文本情感分析方法
Zhang et al. Sentiment Classification Based on Piecewise Pooling Convolutional Neural Network.
CN111858939A (zh) 一种基于上下文信息和卷积神经网络的文本情感分类方法
CN111984791B (zh) 一种基于注意力机制的长文分类方法
CN109492105B (zh) 一种基于多特征集成学习的文本情感分类方法
CN111881671B (zh) 一种属性词提取方法
CN108898138A (zh) 基于深度学习的场景文本识别方法
CN105205449A (zh) 基于深度学习的手语识别方法
CN107742095A (zh) 基于卷积神经网络的汉语手语识别方法
CN112434686B (zh) 针对ocr图片的端到端含错文本分类识别仪
Rao et al. Exploring deep learning techniques for kannada handwritten character recognition: A boon for digitization
WO2021128704A1 (zh) 一种基于分类效用的开集分类方法
Khudeyer et al. Combination of machine learning algorithms and Resnet50 for Arabic Handwritten Classification
Hegadi et al. Recognition of Marathi handwritten numerals using multi-layer feed-forward neural network
CN115062727A (zh) 一种基于多阶超图卷积网络的图节点分类方法及系统
Jiang et al. MTFFNet: a multi-task feature fusion framework for Chinese painting classification
CN113312907B (zh) 基于混合神经网络的远程监督关系抽取方法及装置
Sadeghzadeh et al. Triplet loss-based convolutional neural network for static sign language recognition
CN113779966A (zh) 一种基于注意力的双向cnn-rnn深度模型的蒙文情感分析方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination