CN112347248A - 一种方面级文本情感分类方法及系统 - Google Patents
一种方面级文本情感分类方法及系统 Download PDFInfo
- Publication number
- CN112347248A CN112347248A CN202011195074.7A CN202011195074A CN112347248A CN 112347248 A CN112347248 A CN 112347248A CN 202011195074 A CN202011195074 A CN 202011195074A CN 112347248 A CN112347248 A CN 112347248A
- Authority
- CN
- China
- Prior art keywords
- text
- sentence
- level
- sentence text
- feature representation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000008451 emotion Effects 0.000 title claims abstract description 58
- 238000000034 method Methods 0.000 title claims abstract description 39
- 239000013598 vector Substances 0.000 claims abstract description 37
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 22
- 238000013528 artificial neural network Methods 0.000 claims abstract description 13
- 238000011176 pooling Methods 0.000 claims description 8
- 238000003860 storage Methods 0.000 claims description 5
- 238000000605 extraction Methods 0.000 claims description 3
- 238000007781 pre-processing Methods 0.000 claims description 2
- 238000004458 analytical method Methods 0.000 description 13
- 239000011159 matrix material Substances 0.000 description 11
- 230000002996 emotional effect Effects 0.000 description 8
- 230000002457 bidirectional effect Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000007246 mechanism Effects 0.000 description 4
- 238000003058 natural language processing Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 238000013136 deep learning model Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 238000005065 mining Methods 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 230000007935 neutral effect Effects 0.000 description 2
- 238000000547 structure data Methods 0.000 description 2
- 239000000126 substance Substances 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 235000008694 Humulus lupulus Nutrition 0.000 description 1
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000009849 deactivation Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000004880 explosion Methods 0.000 description 1
- 238000011478 gradient descent method Methods 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000002156 mixing Methods 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000006641 stabilisation Effects 0.000 description 1
- 238000011105 stabilization Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
- G06F16/353—Clustering; Classification into predefined classes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/284—Lexical analysis, e.g. tokenisation or collocates
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Databases & Information Systems (AREA)
- Machine Translation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明公开了一种方面级文本情感分类方法及系统,包括:根据获取的句子文本的局部特征向量提取句子文本的长距离依赖特征,得到句子文本的上下文特征表示;根据句子文本的上下文特征表示构建句子文本中单词间的句法依赖关系,得到句子文本的方面级特征表示;构建基于依存树的图注意力神经网络,根据句子文本的方面级特征表示得到文本的方面级情感类别。采用卷积神经网络提取句子中的局部特征信息,利用双向长短时记忆网络学习卷积神经网络池化后的特征,获取句子的上下文信息,构建基于依存树的图注意力网络模型,利用依存树的句法信息对句子依赖关系进行建模,提高情感分类的性能。
Description
技术领域
本发明涉及自然语言处理和深度学习技术领域,特别是涉及一种方面级文本情感分类方法及系统。
背景技术
本部分的陈述仅仅是提供了与本发明相关的背景技术信息,不必然构成在先技术。
情感分析是自然语言处理中最活跃的研究领域之一,是文本挖掘中的一项重要任务,又称为意见挖掘。大多数情感分析工作是篇章级和句子级的,由于一个单词在不同的环境中表达的情感可能相反,因此采用方面级的情感分析。
方面级的情感分析是情感分类领域的细粒度任务,其目标是在给定意见句子和评价方面的基础上,结合句子的上下文,预测给定文本中出现的方面的情感极性,在自然语言处理领域,方面级的情感分析可以进一步用于推荐系统和自动问答;传统的方法主要是基于特征的支持向量机(SVM),但是这些方法需要人工设计特征,神经网络具有学习连续文本特征的能力,能够通过多个隐藏层生成新的表示。
随着深度学习的普及和计算机硬件设备的完善,标记数据逐渐庞大,深度学习模型已经取代很多解决自然语言处理的经典技术,基于深度学习模型已经在各种任务中获得最先进的性能,包括情感分析、机器翻译和命名实体识别,以及在图像计算机视觉中的分类、图像生成、图像分割和无监督特征学习等。
近年来,在方面级情感分析的任务中,深度学习方法比基于特征的方法具有更好的可扩展性。基于递归神经网络的框架采用语义组合函数,能够处理情感分析中的复杂组合性;注意力机制的结合让神经网络模型高度关注特定目标的特征信息,辨别句子中单词对特定方面的重要性,该方法已经广泛运用到方面级的情感分析中,如Song等人提出一种注意力编码网络,采用基于注意力的编码器建立上下文和目标之间的模型;Chen等人提出用于识别评论中观点目标情感的神经网络模型,采用多注意力机制捕获间隔很远的情感特征,对无关信息具有更强的鲁棒性。
但是,发明人发现,虽然基于注意力的模型在很多任务中已经取得了良好的实验效果,但是它们不足以捕捉上下文单词和句子中的方面之间的句法依赖性,注意力模块可能会因为语法的缺失而突出一些无关的词,会丢失掉一些有价值的重要信息,因此在解决方面级的情感分析中多个单词之间的依存关系问题上存在明显的局限性。
发明内容
为了解决上述问题,本发明提出了一种方面级文本情感分类方法及系统,采用卷积神经网络提取句子中的局部特征信息,利用双向长短时记忆网络学习卷积神经网络池化后的特征,获取句子的上下文信息,构建基于依存树的图注意力网络模型,利用依存树的句法信息对句子依赖关系进行建模,提高情感分类的性能。
为了实现上述目的,本发明采用如下技术方案:
第一方面,本发明提供一种方面级文本情感分类方法,包括:
根据获取的句子文本的局部特征向量提取句子文本的长距离依赖特征,得到句子文本的上下文特征表示;
根据句子文本的上下文特征表示构建句子文本中单词间的句法依赖关系,得到句子文本的方面级特征表示;
构建基于依存树的图注意力神经网络,根据句子文本的方面级特征表示得到文本的方面级情感类别。
第二方面,本发明提供一种方面级文本情感分类系统,包括:
上下文特征表示模块,用于根据获取的句子文本的局部特征向量提取句子文本的长距离依赖特征,得到句子文本的上下文特征表示;
方面级特征表示模块,用于根据句子文本的上下文特征表示构建句子文本中单词间的句法依赖关系,得到句子文本的方面级特征表示;
情感分类模块,用于构建基于依存树的图注意力神经网络,根据句子文本的方面级特征表示得到文本的方面级情感类别。
第三方面,本发明提供一种电子设备,包括存储器和处理器以及存储在存储器上并在处理器上运行的计算机指令,所述计算机指令被处理器运行时,完成第一方面所述的方法。
第四方面,本发明提供一种计算机可读存储介质,用于存储计算机指令,所述计算机指令被处理器执行时,完成第一方面所述的方法。
与现有技术相比,本发明的有益效果为:
本发明采用卷积神经网络CNN提取句子中的局部特征信息,利用双向长短时记忆网络BiLSTM学习卷积神经网络CNN池化后的特征,获取句子的上下文信息,构建基于依存树的图注意力网络模型,利用依存树的句法信息对句子依赖关系进行建模;捕获方面词和意见词之间的长距离,更好地联系目标词和情感词之间的关系,有效地建模情感依赖关系。
本发明通过BiLSTM学习CNN池化后连接而成的特征,解决CNN缺乏利用文本上下文信息的问题,同时避免了简单的RNN带来的梯度爆炸或者梯度消失的问题。
本发明最后引入图注意力神经网络,GAT利用依存树提取句子中的句法依存结构,提高情感分类的性能,本发明方法不仅兼备CNN模型的局部特征提取能力,也融合双向RNN的信息记忆能力,并且利用句子的句法依赖结构,解决了现有方法中被忽略的多个单词之间的依赖关系。
本发明附加方面的优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
构成本发明的一部分的说明书附图用来提供对本发明的进一步理解,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。
图1为本发明实施例1提供的方面级别情感分析方法流程图;
图2为本发明实施例1提供的方面级别情感分析方法的模型框架图;
图3是本发明实施例1提供的在两个数据集下GAT层数的影响。
具体实施方式:
下面结合附图与实施例对本发明做进一步说明。
应该指出,以下详细说明都是示例性的,旨在对本发明提供进一步的说明。除非另有指明,本文使用的所有技术和科学术语具有与本发明所属技术领域的普通技术人员通常理解的相同含义。
需要注意的是,这里所使用的术语仅是为了描述具体实施方式,而非意图限制根据本发明的示例性实施方式。如在这里所使用的,除非上下文另外明确指出,否则单数形式也意图包括复数形式,此外,还应当理解的是,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
在不冲突的情况下,本发明中的实施例及实施例中的特征可以相互组合。
实施例1
如图1所示,本实施例提供一种方面级文本情感分类方法,包括:
S1:根据获取的句子文本的局部特征向量提取句子文本的长距离依赖特征,得到句子文本的上下文特征表示;
S2:根据句子文本的上下文特征表示构建句子文本中单词间的句法依赖关系,得到句子文本的方面级特征表示;
S3:构建基于依存树的图注意力神经网络,根据句子文本的方面级特征表示得到文本的方面级情感类别。
所述步骤S1中,获取待处理的句子文本,利用GloVE词嵌入对待处理的句子文本进行预处理操作,将每个单词进行序列化表示,得到文本的词嵌入表示;具体为:
给定一个长度为n的上下文句子S={w1,w2,…,wn},上下文句子中包含方面的上下文输入序列,方面a={wi,wi+1,…,wi+m-1}包含m个单词,任务是推测句子S中方面a的情感极性;
将每个单词的嵌入向量组合得到文本的词嵌入向量,即将每个单词的嵌入向量组合成矩阵,每一行代表一个单词;
在本实施例中,词嵌入过程就是把一个维数为所有词数量的高维空间嵌入到一个维数低得多的连续向量空间中。
所述步骤S1中,通过卷积神经网络CNN层充分提取句子的局部特征向量;具体为:
卷积神经网络CNN是一种带有卷积结构的前馈神经网络,采用梯度下降法的最小化损失函数逐层反馈调节网络中的权重参数,通过迭代训练提高网络的精度,卷积神经网络CNN结构主要包括输入层、卷积层、池化层、全连接层和输出层几部分;
卷积层通过滤波器对数据进行卷积计算,获得若干个特征面(Feature Map),实现对输入数据提取特征的过程,本实施例采用网络局部连接和卷积参数共享的方式与前一层相连。
卷积层中将通过嵌入层输出的每个句子矩阵进行卷积操作,通过设置好大小的滤波器完成对输入文本句子特征的提取:
ci=f(ω·xi:i+r-1+b)
其中:ω是卷积核;r是卷积核的尺寸;xi:i+h-1是i到i+r-1个词组成的句子向量;b是偏置项;通过卷积层后,得到特征矩阵c=[c1,c2,...,cn-r+1]。
池化层通过卷积层输出的句子局部特征矩阵c进行下采样,求解局部的最优解M:
M=max(c1,c2,...,cn-r+1)=max(c)
由于本实施例采用双向长短时记忆网络BiLSTM学习CNN层池化后的向量,BiLSTM的输入必须是序列化结构,而池化会中断序列结构词c,故本实施例在全连接层中将池化后的Mi向量连接成向量Q:
Q={M1,M2,...,Mn}
所述步骤S1中,利用BiLSTM学习CNN层池化后的向量,提取句子的长距离依赖特征,获取句子的上下文特征表示;具体为:
BiLSTM将前向隐藏层与后向隐藏层相结合,能够系统地、有选择地使用之前和之后的信息,能够从前后两个方向提取序列的特征,很好地捕获序列的上下文顺序信息;
所述步骤S2中,构造基于依存树的图注意力神经网络,利用依存树的句法依存信息对句子中单词间的依赖关系进行建模;
依存树可以捕获方面词和意见词之间的长距离,更好地联系目标词和情感词之间的关系,有效地建模情感依赖关系,从而为信息在树上的传播提供一个有区别的语法路径。
近年来,图卷积神经网络GCN能够学习节点的表示,捕捉节点在图中的局部位置,把依存树看作邻接矩阵,依存树为有n个节点的图G,其中节点表示句子中的单词,边表示图中单词之间的句法依赖路径,依存树的节点由BiLSTM建模的实值向量给出。
图注意力网络GAT在图神经网络中引入注意机制,对图结构数据进行节点分类,通过关注其相邻节点计算每个节点的隐藏表示,对单个图注意力层的输入特征向量集是输出的节点特征向量集是中心节点与邻居节点之间的注意力系数为:
eij=a([Wei‖Wej])
self-attention会将注意力分配到图中所有的节点,这会丢失结构信息。为了解决这一问题,本实施例利用masked self-attention将注意力分配到节点i的邻节点集上,并且对注意力系数进行softmax归一化,重新计算权重系数,更新后的系数为:
通过多头注意力机制(multi-head attention)捕获邻居节点在不同的方面对中心节点影响力的强弱,本实施例将K个head分别提取的节点特征表示进行拼接作为最终的节点表示:
最后,使用平均替代拼接得到最终的嵌入:
所述步骤S3中,得到句子文本的方面级特征表示后,利用平均池化聚合方面级特征表示的信息:
其中,f(·)是增强方面向量的平均函数。
将池化后的特征经过全连接层后输入到softmax分类器中,从而得到最终的情感极性类别;
如图2所示,隐藏状态表示通过一个完全连通的softmax层,输出不同情感极性的概率分布:
p(a)=softmax(Wpx+bp)
其中,Wp为权重系数矩阵,bp为偏置矩阵。
本实施例使用反向传播算法训练网络模型,通过最小化交叉熵优化模型,目标函数定义为:
为了验证本实施例的实验模型有效性,实验在SemEval2014 Task4数据集上进行,SemEval2014数据集包括Laptop和Restaurant两个领域的领域的用户评论,第三个数据集是Dong等人收集的ACL2014 Twitter数据集。数据样本的情感极性包含积极的、中立的、消极的和冲突的四种,由于最后一类数据在数据集中所占比例比较小,所以实验数据只保留积极、中立和消极三种。
通过对实验模型不断进行优化,选取比较适宜的各项超参数,具体而言,文本向量采用Glove进行初始化,词向量的维度为300维,batch size大小为50,epoch num设置为10,dropout的选取对模型的性能有着较大的影响,dropout值过小常常导致模型过拟合,使分类准确率下降。
本实施例使用斯坦福神经解析器获得依存树,将隐藏状态向量的维数设置为300,使用学习率为10e-3的Adam优化器训练模型,切换到随机梯度下降微调和稳定模型,其中L2正则化值为1,随机失活率设置为0.7%。在本实施例中,将dropout比率与L2正则化结合起来防止过度拟合。
本实施例使用公共的度量标准,也就是准确率和宏F1值,TP代表文本情感分类为正类,模型实际预测的文本情感为正类的数量;FN代表文本情感分类为负类,模型实际预测的文本情感为负类的数量;FP代表文本情感分类为负类,模型实际预测的文本情感为正类的数量;TN代表文本情感分类为正类,模型实际预测的文本情感为负类的数量。
准确率为预测的正确结果占总样本的百分比,计算如下:
宏F1值与精确率和召回率有关,精确率含义是在被所有预测为正的样本中实际样本为正样本的概率;召回率含义是在实际为正的样本中被预测为正样本的概率,计算如下:
本实施例提出的模型的性能取决于GAT的层数,在Restaurant和Laptop数据集上进行操作,如图3所示,随着层数的增加,准确度随之升高,从图3很明显的看到,原始的准确度很低,但是随着深度的增加,准确度逐渐提高,到第四层的时候,达到了最高的准确率,与目标相关的情感词可能离方面目标多跳,所以从上下文向方面词传送信息需要多层节点通信。,层数太少时,依存信息不能完全被广播,当层数增加到一定的阈值之后,就会产生过度拟合的问题。因此在本实施例中采用第四层提高模型精度性能。
实施例2
本实施例提供一种方面级文本情感分类系统,包括:
上下文特征表示模块,用于根据获取的句子文本的局部特征向量提取句子文本的长距离依赖特征,得到句子文本的上下文特征表示;
方面级特征表示模块,用于根据句子文本的上下文特征表示构建句子文本中单词间的句法依赖关系,得到句子文本的方面级特征表示;
情感分类模块,用于构建基于依存树的图注意力神经网络,根据句子文本的方面级特征表示得到文本的方面级情感类别。
此处需要说明的是,上述模块对应于实施例1中的步骤S1至S3,上述模块与对应的步骤所实现的示例和应用场景相同,但不限于上述实施例1所公开的内容。需要说明的是,上述模块作为系统的一部分可以在诸如一组计算机可执行指令的计算机系统中执行。
在更多实施例中,还提供:
一种电子设备,包括存储器和处理器以及存储在存储器上并在处理器上运行的计算机指令,所述计算机指令被处理器运行时,完成实施例1中所述的方法。为了简洁,在此不再赘述。
应理解,本实施例中,处理器可以是中央处理单元CPU,处理器还可以是其他通用处理器、数字信号处理器DSP、专用集成电路ASIC,现成可编程门阵列FPGA或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
存储器可以包括只读存储器和随机存取存储器,并向处理器提供指令和数据、存储器的一部分还可以包括非易失性随机存储器。例如,存储器还可以存储设备类型的信息。
一种计算机可读存储介质,用于存储计算机指令,所述计算机指令被处理器执行时,完成实施例1中所述的方法。
实施例1中的方法可以直接体现为硬件处理器执行完成,或者用处理器中的硬件及软件模块组合执行完成。软件模块可以位于随机存储器、闪存、只读存储器、可编程只读存储器或者电可擦写可编程存储器、寄存器等本领域成熟的存储介质中。该存储介质位于存储器,处理器读取存储器中的信息,结合其硬件完成上述方法的步骤。为避免重复,这里不再详细描述。
本领域普通技术人员可以意识到,结合本实施例描述的各示例的单元即算法步骤,能够以电子硬件或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
以上仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
上述虽然结合附图对本发明的具体实施方式进行了描述,但并非对本发明保护范围的限制,所属领域技术人员应该明白,在本发明的技术方案的基础上,本领域技术人员不需要付出创造性劳动即可做出的各种修改或变形仍在本发明的保护范围以内。
Claims (10)
1.一种方面级文本情感分类方法,其特征在于,包括:
根据获取的句子文本的局部特征向量提取句子文本的长距离依赖特征,得到句子文本的上下文特征表示;
根据句子文本的上下文特征表示构建句子文本中单词间的句法依赖关系,得到句子文本的方面级特征表示;
构建基于依存树的图注意力神经网络,根据句子文本的方面级特征表示得到文本的方面级情感类别。
2.如权利要求1所述的一种方面级文本情感分类方法,其特征在于,对获取的句子文本采用GloVE词嵌入进行预处理操作,将句子文本中每个单词进行序列化表示,得到句子文本的词嵌入向量。
3.如权利要求2所述的一种方面级文本情感分类方法,其特征在于,所述序列化表示为将每个单词映射为低维的单词嵌入向量;将每个单词的嵌入向量组合得到句子文本的词嵌入向量。
4.如权利要求1所述的一种方面级文本情感分类方法,其特征在于,采用卷积神经网络提取句子文本的局部特征向量,将预处理后的句子文本输入至卷积神经网络,由卷积层对句子文本的句子矩阵进行卷积操作,通过滤波器完成局部特征向量的提取。
5.如权利要求4所述的一种方面级文本情感分类方法,其特征在于,对局部特征向量通过卷积神经网络的池化层进行下采样,求解局部最优解,在全连接层中将池化后的局部最优向量进行连接。
6.如权利要求5所述的一种方面级文本情感分类方法,其特征在于,采用双向长短时记忆网络BiLSTM学习全连接层输出的局部特征向量,提取句子文本的长距离依赖特征,得到句子文本的上下文特征表示。
7.如权利要求1所述的一种方面级文本情感分类方法,其特征在于,采用平均池化聚合句子文本的方面级特征表示,将池化后的方面级特征表示经过全连接层输入到softmax分类器中,从而得到文本的方面级情感类别。
8.一种方面级文本情感分类系统,其特征在于,包括:
上下文特征表示模块,用于根据获取的句子文本的局部特征向量提取句子文本的长距离依赖特征,得到句子文本的上下文特征表示;
方面级特征表示模块,用于根据句子文本的上下文特征表示构建句子文本中单词间的句法依赖关系,得到句子文本的方面级特征表示;
情感分类模块,用于构建基于依存树的图注意力神经网络,根据句子文本的方面级特征表示得到文本的方面级情感类别。
9.一种电子设备,其特征在于,包括存储器和处理器以及存储在存储器上并在处理器上运行的计算机指令,所述计算机指令被处理器运行时,完成权利要求1-7任一项所述的方法。
10.一种计算机可读存储介质,其特征在于,用于存储计算机指令,所述计算机指令被处理器执行时,完成权利要求1-7任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011195074.7A CN112347248A (zh) | 2020-10-30 | 2020-10-30 | 一种方面级文本情感分类方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011195074.7A CN112347248A (zh) | 2020-10-30 | 2020-10-30 | 一种方面级文本情感分类方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112347248A true CN112347248A (zh) | 2021-02-09 |
Family
ID=74357002
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011195074.7A Pending CN112347248A (zh) | 2020-10-30 | 2020-10-30 | 一种方面级文本情感分类方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112347248A (zh) |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113158684A (zh) * | 2021-04-21 | 2021-07-23 | 清华大学深圳国际研究生院 | 一种情绪分析方法、情绪提醒方法及情绪提醒控制装置 |
CN113157919A (zh) * | 2021-04-07 | 2021-07-23 | 山东师范大学 | 语句文本方面级情感分类方法及系统 |
CN113220884A (zh) * | 2021-05-19 | 2021-08-06 | 西北工业大学 | 基于双滑动窗口的图神经网络文本情感分类方法 |
CN113254637A (zh) * | 2021-05-07 | 2021-08-13 | 山东师范大学 | 一种融合语法的方面级文本情感分类方法及系统 |
CN113361252A (zh) * | 2021-05-27 | 2021-09-07 | 山东师范大学 | 基于多模态特征和情感词典的文本抑郁倾向检测系统 |
CN113378047A (zh) * | 2021-06-10 | 2021-09-10 | 武汉大学 | 一种基于多方面增强的图神经网络推荐方法 |
CN113535904A (zh) * | 2021-07-23 | 2021-10-22 | 重庆邮电大学 | 一种基于图神经网络的方面级情感分析方法 |
CN113641820A (zh) * | 2021-08-10 | 2021-11-12 | 福州大学 | 基于图卷积神经网络的视角级文本情感分类方法及系统 |
CN113704460A (zh) * | 2021-03-25 | 2021-11-26 | 腾讯科技(深圳)有限公司 | 一种文本分类方法、装置、电子设备和存储介质 |
WO2022063057A1 (en) * | 2020-09-23 | 2022-03-31 | Jingdong Technology Holding Co., Ltd. | Method and system for aspect-level sentiment classification by graph diffusion transformer |
CN115905518A (zh) * | 2022-10-17 | 2023-04-04 | 华南师范大学 | 基于知识图谱的情感分类方法、装置、设备以及存储介质 |
WO2023050470A1 (zh) * | 2021-09-30 | 2023-04-06 | 深圳市检验检疫科学研究院 | 一种基于多层图注意力网络的事件检测方法及装置 |
CN116108187A (zh) * | 2023-04-14 | 2023-05-12 | 华东交通大学 | 一种集成多粒度信息的方面级情感分类方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110472003A (zh) * | 2019-08-08 | 2019-11-19 | 东北大学 | 基于图卷积网络的社交网络文本情感细粒度分类方法 |
CN111144130A (zh) * | 2019-12-26 | 2020-05-12 | 辽宁工程技术大学 | 一种基于上下文感知的混合神经网络的细粒度情感分类方法 |
CN111368086A (zh) * | 2020-03-17 | 2020-07-03 | 昆明理工大学 | 一种基于CNN-BiLSTM+attention模型的涉案新闻观点句情感分类方法 |
CN111783474A (zh) * | 2020-07-16 | 2020-10-16 | 厦门市美亚柏科信息股份有限公司 | 一种评论文本观点信息处理方法、装置及存储介质 |
-
2020
- 2020-10-30 CN CN202011195074.7A patent/CN112347248A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110472003A (zh) * | 2019-08-08 | 2019-11-19 | 东北大学 | 基于图卷积网络的社交网络文本情感细粒度分类方法 |
CN111144130A (zh) * | 2019-12-26 | 2020-05-12 | 辽宁工程技术大学 | 一种基于上下文感知的混合神经网络的细粒度情感分类方法 |
CN111368086A (zh) * | 2020-03-17 | 2020-07-03 | 昆明理工大学 | 一种基于CNN-BiLSTM+attention模型的涉案新闻观点句情感分类方法 |
CN111783474A (zh) * | 2020-07-16 | 2020-10-16 | 厦门市美亚柏科信息股份有限公司 | 一种评论文本观点信息处理方法、装置及存储介质 |
Cited By (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11868730B2 (en) | 2020-09-23 | 2024-01-09 | Jingdong Digits Technology Holding Co., Ltd. | Method and system for aspect-level sentiment classification by graph diffusion transformer |
WO2022063057A1 (en) * | 2020-09-23 | 2022-03-31 | Jingdong Technology Holding Co., Ltd. | Method and system for aspect-level sentiment classification by graph diffusion transformer |
CN113704460B (zh) * | 2021-03-25 | 2024-05-17 | 腾讯科技(深圳)有限公司 | 一种文本分类方法、装置、电子设备和存储介质 |
CN113704460A (zh) * | 2021-03-25 | 2021-11-26 | 腾讯科技(深圳)有限公司 | 一种文本分类方法、装置、电子设备和存储介质 |
CN113157919A (zh) * | 2021-04-07 | 2021-07-23 | 山东师范大学 | 语句文本方面级情感分类方法及系统 |
CN113158684A (zh) * | 2021-04-21 | 2021-07-23 | 清华大学深圳国际研究生院 | 一种情绪分析方法、情绪提醒方法及情绪提醒控制装置 |
CN113254637A (zh) * | 2021-05-07 | 2021-08-13 | 山东师范大学 | 一种融合语法的方面级文本情感分类方法及系统 |
CN113220884B (zh) * | 2021-05-19 | 2023-01-31 | 西北工业大学 | 基于双滑动窗口的图神经网络文本情感分类方法 |
CN113220884A (zh) * | 2021-05-19 | 2021-08-06 | 西北工业大学 | 基于双滑动窗口的图神经网络文本情感分类方法 |
CN113361252A (zh) * | 2021-05-27 | 2021-09-07 | 山东师范大学 | 基于多模态特征和情感词典的文本抑郁倾向检测系统 |
CN113378047A (zh) * | 2021-06-10 | 2021-09-10 | 武汉大学 | 一种基于多方面增强的图神经网络推荐方法 |
CN113535904B (zh) * | 2021-07-23 | 2022-08-09 | 重庆邮电大学 | 一种基于图神经网络的方面级情感分析方法 |
CN113535904A (zh) * | 2021-07-23 | 2021-10-22 | 重庆邮电大学 | 一种基于图神经网络的方面级情感分析方法 |
CN113641820B (zh) * | 2021-08-10 | 2023-11-17 | 福州大学 | 基于图卷积神经网络的视角级文本情感分类方法及系统 |
CN113641820A (zh) * | 2021-08-10 | 2021-11-12 | 福州大学 | 基于图卷积神经网络的视角级文本情感分类方法及系统 |
WO2023050470A1 (zh) * | 2021-09-30 | 2023-04-06 | 深圳市检验检疫科学研究院 | 一种基于多层图注意力网络的事件检测方法及装置 |
CN115905518A (zh) * | 2022-10-17 | 2023-04-04 | 华南师范大学 | 基于知识图谱的情感分类方法、装置、设备以及存储介质 |
CN115905518B (zh) * | 2022-10-17 | 2023-10-20 | 华南师范大学 | 基于知识图谱的情感分类方法、装置、设备以及存储介质 |
CN116108187A (zh) * | 2023-04-14 | 2023-05-12 | 华东交通大学 | 一种集成多粒度信息的方面级情感分类方法 |
CN116108187B (zh) * | 2023-04-14 | 2023-06-16 | 华东交通大学 | 一种集成多粒度信息的方面级情感分类方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112347248A (zh) | 一种方面级文本情感分类方法及系统 | |
CN110263324B (zh) | 文本处理方法、模型训练方法和装置 | |
Gu et al. | Stack-captioning: Coarse-to-fine learning for image captioning | |
CN108733792B (zh) | 一种实体关系抽取方法 | |
Xu et al. | Investigation on the Chinese text sentiment analysis based on convolutional neural networks in deep learning. | |
CN111126386B (zh) | 场景文本识别中基于对抗学习的序列领域适应方法 | |
WO2021057056A1 (zh) | 神经网络架构搜索方法、图像处理方法、装置和存储介质 | |
CN109190126B (zh) | 词嵌入模型的训练方法及装置 | |
CN110457718B (zh) | 一种文本生成方法、装置、计算机设备及存储介质 | |
CN110321805B (zh) | 一种基于时序关系推理的动态表情识别方法 | |
CN112749274B (zh) | 基于注意力机制和干扰词删除的中文文本分类方法 | |
CN111598183A (zh) | 一种多特征融合图像描述方法 | |
CN112861524A (zh) | 一种基于深度学习的多层次中文细粒度情感分析方法 | |
CN112529146A (zh) | 神经网络模型训练的方法和装置 | |
CN111428513A (zh) | 一种基于卷积神经网络的虚假评论分析方法 | |
CN114547299A (zh) | 一种基于复合网络模型的短文本情感分类方法及装置 | |
CN113255366A (zh) | 一种基于异构图神经网络的方面级文本情感分析方法 | |
CN113656563A (zh) | 一种神经网络搜索方法及相关设备 | |
CN113127604B (zh) | 基于评论文本的细粒度物品推荐方法及系统 | |
CN114817596A (zh) | 融合语义相似性嵌入和度量学习的跨模态图文检索方法 | |
CN114694255A (zh) | 基于通道注意力与时间卷积网络的句子级唇语识别方法 | |
CN117370736A (zh) | 一种细粒度情感识别方法、电子设备及存储介质 | |
CN112364652A (zh) | 基于多通道卷积的文本实体关系抽取方法及系统 | |
CN117033961A (zh) | 一种上下文语境感知的多模态图文分类方法 | |
CN109033413B (zh) | 一种基于神经网络的需求文档和服务文档匹配方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20210209 |