CN114417823A - 一种基于句法和图卷积网络的方面级情感分析方法及装置 - Google Patents
一种基于句法和图卷积网络的方面级情感分析方法及装置 Download PDFInfo
- Publication number
- CN114417823A CN114417823A CN202210023639.6A CN202210023639A CN114417823A CN 114417823 A CN114417823 A CN 114417823A CN 202210023639 A CN202210023639 A CN 202210023639A CN 114417823 A CN114417823 A CN 114417823A
- Authority
- CN
- China
- Prior art keywords
- dependency
- graph
- convolution
- weight
- representation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000008451 emotion Effects 0.000 title claims abstract description 64
- 238000004458 analytical method Methods 0.000 title claims abstract description 55
- 239000013598 vector Substances 0.000 claims abstract description 53
- 230000000873 masking effect Effects 0.000 claims abstract description 29
- 238000000034 method Methods 0.000 claims abstract description 27
- 230000007246 mechanism Effects 0.000 claims abstract description 14
- 230000002452 interceptive effect Effects 0.000 claims abstract description 10
- 238000012549 training Methods 0.000 claims abstract description 10
- 230000002996 emotional effect Effects 0.000 claims abstract description 8
- 230000001419 dependent effect Effects 0.000 claims description 33
- 239000011159 matrix material Substances 0.000 claims description 18
- 230000009977 dual effect Effects 0.000 claims description 16
- 238000009826 distribution Methods 0.000 claims description 8
- 230000015654 memory Effects 0.000 claims description 7
- 238000007781 pre-processing Methods 0.000 claims description 7
- 238000004364 calculation method Methods 0.000 claims description 6
- 230000006870 function Effects 0.000 claims description 6
- 238000010606 normalization Methods 0.000 claims description 6
- 230000008569 process Effects 0.000 claims description 6
- 230000002457 bidirectional effect Effects 0.000 claims description 5
- 238000003058 natural language processing Methods 0.000 abstract description 5
- 230000000694 effects Effects 0.000 abstract description 2
- 238000010586 diagram Methods 0.000 description 5
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000007774 longterm Effects 0.000 description 2
- 239000003550 marker Substances 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000006403 short-term memory Effects 0.000 description 2
- 102000002274 Matrix Metalloproteinases Human genes 0.000 description 1
- 108010000684 Matrix Metalloproteinases Proteins 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000004880 explosion Methods 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
- G06F40/211—Syntactic parsing, e.g. based on context-free grammar [CFG] or unification grammars
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Data Mining & Analysis (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Probability & Statistics with Applications (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Machine Translation (AREA)
Abstract
本发明公开了一种基于句法依赖和图卷积网络的方面级情感分析方法及装置,涉及自然语言处理技术领域。本发明使用的方面融合图卷积网络模型能融入更多的语义信息,更好的利用句子中的句法信息和单词依赖性,从而提高模型的训练质量。首先,通过引入依赖树和依赖位置图来增强每个句子实例的句法依赖。然后,使用两个图卷积网络融合依赖树和依赖位置图以生成方面的交互情感特征。最后,通过注意力机制充分整合卷积层和掩蔽层的状态向量中与方面语义相关的重要特征。本发明解决了情感分析领域容易忽略的依赖树拓扑结构与依赖距离之间存在密切关系的问题,不仅增强了情感分类的效果,对于其他涉及到图卷积的分类任务也有较好的帮助。
Description
技术领域
本发明属于自然语言处理的技术领域,涉及一种基于句法依赖和图卷积网络的方面级情感分析方法及装置。
背景技术
为了进行更完整的情感分析,系统需要发现文本评论的各个方面对象,并确定文本针对每个方面(一条评论语句中可能包含多个方面词)所表达的情感信息,这就是方面级情感分析(Aspect-level Sentiment Analysis,ABSA)技术,ABSA是细粒度的情感分析任务,近年来受到了越来越多的关注和研究。随着社交媒体的迅猛发展,网络评论的数量呈爆炸式增长,越来越多的人愿意在网络上表达自己的态度和情感;同时,用户在浏览评论时也更加关注一些细粒度的信息,对评论进行方面级情感分析能够帮助用户更好的做出决策。
一些早期的ABSA工作集中在使用机器学习算法来捕捉基于内容和句法结构的丰富特征的情感极性,随着深度学习理论和方法的逐步成熟,研究人员开始使用深度学习神经网络模型进行ABSA。不考虑句法模型的神经模型可分为几种类型:基于LSTM(LongShort-Term Memory,长短期记忆网络)的模型,基于CNN(Convolutional NeuralNetworks,卷积神经网络)的模型,基于记忆的方法等。但这些模型将一个句子表示为一个单词序列,忽略了单词之间的句法关系,使得它们很难找到远离预期单词的单词。
语法信息允许依赖信息保存在长句子中,并有助于融合方面和意见词之间的信息。近年来,一些研究使用基于图的模型来组合句子句法结构,如使用GCN(GraphConvolutional Network,图卷积网络)结合句法依赖树来捕获语法信息和单词依赖性的特定方面,其性能优于不考虑句法关系的模型。但是,这类模型也存在不容忽视的缺点:这类模型只考虑了依赖树的拓扑结构,或者说词与词之间的实际距离,没有充分发挥依赖树的优势,且忽略了上下文之间的依赖距离关系。
发明内容
为了解决以往方面级情感分析方法过度依赖于方面与上下文之间的语法关系,从而导致无法通过句法更准确的识别方面词情感的问题,本发明提出了一种基于句法依赖和图卷积网络的方面级情感分析方法及装置,充分整合了依赖树的拓扑结构和依赖距离,从而充分发挥了依赖树的优势,且有效利用了上下文之间的依赖距离关系。
本发明的技术方案:
一方面,本发明提供了一种基于句法依赖和图卷积网络的方面级情感分析方法,具体步骤如下:
获取情感分析数据集,将所述情感分析数据集中的句子构造成依赖树和依赖位置图;
针对所述情感分析数据集中的句子,使用GloVe预训练模型初始化词向量,并将得到的词向量输入双向长短时记忆网络,得到所述句子的上下文表示;
将所述上下文表示分别输入至邻近权重卷积层和双重图卷积层;
所述邻近权重卷积层中,通过所述依赖树计算上下文词的依赖距离,计算出不同词的依赖邻近权重,基于邻近权重卷积得到隐藏状态向量;所述邻近权重卷积在卷积计算之前分配所述依赖邻近权重;
所述双重图卷积层中,使用两个图卷积网络分别融合所述依赖树和所述依赖位置图,用带有归一化因子的图卷积计算每个节点的表示,并根据其邻域的隐藏表示来更新每个节点的表示,将这两个整合了不同依赖关系的矩阵分别作为两组图卷积网络,从不同的输入中捕获图卷积网络层的最终表示;结合所述双重图卷积层输出的两种最终表示,提取依赖位置特征和依赖特征之间的交互关系;再使用方面掩蔽层来掩蔽非方面词表示,输出隐藏状态向量;
使用注意力机制,融合所述邻近权重卷积层和所述掩蔽层输出的隐藏状态向量,得到基于方面的表示,将所述基于方面的表示传递到全连接的softmax层,得到不同情绪极性上的概率分布。
进一步地,将所述情感分析数据集中的句子构造成依赖树和依赖位置图,包括:
使用句法依赖解析器将情感分析数据集中的句子构造成有向依赖树;
基于所述有向依赖树构造邻接矩阵,将所述邻接矩阵的所有对角元素设置为1,如果两个词之间存在依赖关系,则将所述邻接矩阵中的相应位置记为1;
根据方面词计算所述邻接矩阵的每个元素的相对位置权重:
将所述有向依赖树的邻接矩阵沿对角线对称得到的依赖图与相对位置权重相结合,得到依赖位置图的邻接矩阵:
进一步地,所述依赖邻近权重为:
其中pi为依赖邻近权重,di是句子中从单词到方面的依赖距离,i是句子中任一字的位置下标,τ是方面词的起始位值,m是方面词的数量,n是句子的总字数;
相应地,所述邻近权重卷积的依赖邻近权重分配为:
其中,ri=pihi和 表示句子中第i个字的邻近加权表示,hi代表第第i个字的隐藏向量表示,t是核长的一半,l是核长,dh是单向LSTM中隐藏状态向量的维数,表示从卷积层得到的特征表示,和分别为卷积核的权重和偏差。
进一步地,通过所述依赖树计算上下文词的依赖距离,包括:
当方面包含多个单词时,最小化上下文和所有方面单词之间的依赖距离。
进一步地,结合所述双重图卷积层输出的两种最终表示,提取依赖位置特征和依赖特征之间的交互关系,按照下式执行:
其中γ为依赖系数特征,hG、hT分别为所述双重图卷积层输出的两种最终表示。
进一步地,注意力机制中注意权重分配过程如下:
又一方面,本发明还提供了一种基于句法依赖和图卷积网络的方面级情感分析装置,所述装置包括:
预处理单元,用于获取情感分析数据集,将所述情感分析数据集中的句子构造成依赖树和依赖位置图;
上下文表示获取单元,用于针对所述情感分析数据集中的句子,使用GloVe预训练模型初始化词向量,并将得到的词向量输入双向长短时记忆网络,得到所述句子的上下文表示;并将所述上下文表示分别输入至邻近权重卷积层和双重图卷积层;
邻近权重卷积单元,用于在所述邻近权重卷积层中,通过所述依赖树计算上下文词的依赖距离,计算出不同词的依赖邻近权重,基于邻近权重卷积得到隐藏状态向量;所述邻近权重卷积在卷积计算之前分配所述依赖邻近权重;
双重图卷积单元,用于在所述双重图卷积层中,使用两个图卷积网络分别融合所述依赖树和所述依赖位置图,用带有归一化因子的图卷积计算每个节点的表示,并根据其邻域的隐藏表示来更新每个节点的表示,将这两个整合了不同依赖关系的矩阵分别作为两组图卷积网络,从不同的输入中捕获图卷积网络层的最终表示;
掩蔽单元,用于结合所述双重图卷积单元输出的两种最终表示,提取依赖位置特征和依赖特征之间的交互关系;再使用方面掩蔽层来掩蔽非方面词表示,输出隐藏状态向量;
注意力单元,用于使用注意力机制,融合所述邻近权重卷积单元和所述掩蔽单元输出的隐藏状态向量,得到基于方面的表示;
情感分析单元,用于将所述注意力单元得到的基于方面的表示传递到全连接的softmax层,得到不同情绪极性上的概率分布。
又一方面,本发明还提供了一种计算机可读存储介质,该计算机可读存储介质内存储有计算机指令集,计算机指令集被处理器执行时实现如上述基于句法依赖和图卷积网络的方面级情感分析方法。
与现有技术相比,本发明的有益效果是:
本发明中构建了依赖树以及依赖位置图来增强每个实例的语法依赖关系,提出了一种方面融合图卷积网络模型(AFGCN),该模型将注意机制相结合,充分整合卷积层和掩蔽层的隐藏状态向量中与方面语义相关的显著特征,充分结合了依赖树的拓扑结构和依赖距离。同时,本发明中的注意力机制模块,在卷积层和掩蔽层的隐藏状态向量中充分整合与方面语义相关的显著特征。
本发明不仅可以更好地捕捉观点特征,充分结合依赖树的拓扑结构和依赖距离,还能更好的捕捉句子内部方面词和上下文的相关性,有利于方面词所对应情感更准确的分类。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图做以简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例中AFGCN模型的框架示意图;
图2为本发明实施例中一种基于句法依赖和图卷积网络的方面级情感分析方法的流程示意图;
图3为图1中依赖树(左)和依赖位置图(右)的局部放大图;
图4为本发明实施例中Bi-LSTM原理图;
图5为本发明实施例中句法依赖关系图;
图6为本发明实施例中图卷积网络的原理图。
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分的实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
需要说明的是,本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本发明的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
本发明公开了一种基于句法依赖和图卷积网络的方面级情感分析方法,利用AFGCN模型进行方面级情感分析。
如图1所示,本发明提出的AFGCN模型充分融合了依赖树的拓扑结构和依赖距离,能够更好地捕捉观点特征。受位置机制的启发,该AFGCN模型在基于Bi-LSTM(Bi-directional Long Short-Term Memory,全称双向长短时记忆网络)的架构中可以聚合有效特征,并使用上下文词与方面的句法邻近度(句子中不同词之间依赖距离相近的程度)来确定不同单词在句子中的重要性。同时,本发明分别在依赖树和依赖位置图上应用了GCN(Graph Convolutional Network,图卷积网络),通过GCN使用远程多词关系(指GCN可以为距离较远的词建立拓扑关联)和句法信息,将句法相关的词与方面词建立关联。GCN网络的输出经过方面掩蔽层,该方面掩蔽层能够过滤掉非方面词以获得聚焦的方面词特征,之后,特定于方面的特征被输入注意力机制,从而更好的捕捉句子内部方面词和上下文的相关性。在所有上述操作之后,上下文和方面的表示集中通过线性层以获得最终输出,从而更好地完成方面级情感分析的任务。
在利用该AFGCN模型进行方面级情感分析时,首先,预处理数据集,引入依赖树和依赖位置图来增强每个实例的语法依赖,在嵌入层使用GloVe预训练模型来生成词向量,GloVe预训练模型是2014年斯坦福NLP研究组提出的一种新的生成词向量的方法;将生成的词向量输入到Bi-LSTM,学习评论语句的上下文信息;然后,将Bi-LSTM的输出(句子的上下文表示)分别馈入邻近权重卷积层和双重图卷积层(使用两个图卷积网络融合依赖树和依赖位置图来生成方面的交互情感特征);再将GCN层的最终表示输入方面掩蔽层,以突出方面词的关键特征;最后,使用一种新的注意机制来充分整合邻近权重卷积层和方面掩蔽层的隐藏状态向量中与方面语义相关的重要特征;再通过一层提取关键特征的全连接层,最后输出不同情感极性上的概率分布。
具体地,如图2所示,其示出了本发明实施例中一种基于句法依赖和图卷积网络的方面级情感分析方法的流程图,该方法包括:
S1、预处理情感分析数据集,得到情感分析数据集中句子的依赖树和依赖位置图:
在具体实施中,本发明实施例使用了表1所示的数据集。
表1
使用句法依赖解析器spacy(spacy是世界上最快的工业级自然语言处理工具,支持多种自然语言处理基本功能。)将给定数据集中的句子构造成有向依赖树(如图3所示)。然后基于有向依赖树构造邻接矩阵,并将矩阵的所有对角元素设置为1,如果两个词之间存在依赖关系,则将矩阵中的相应位置记为1,进而得到邻接矩阵为了突出上下文和方面之间的关系,本发明根据方面词计算邻接矩阵中每个元素的相对位置权重:
S2、使用预训练的GloVe模型对情感分析数据集中的句子进行初始化词向量,将得到的词向量用于Bi-LSTM以生成句子隐藏状态向量(即,句子的上下文表示):
首先假设SemEval-2014数据集中有一个包含n个单词和m个方面的句子,即s={w0,w1,...,wa,wa+1,...,wa+m-1,...,wn-1},其中wi表示第i个上下文单词,wa表示方面单词的起始标记。每个单词都被嵌入到一个带有矩阵向量的低维实值向量中,其中|N|是字典的大小,而di是一个单词向量的维度。
本发明使用预先训练好的GloVe模型来初始化单词向量,并将得到的单词嵌入应用到Bi-LSTM来生成句子隐藏状态向量ht。图4所示,Bi-LSTM是在LSTM的基础上,结合了输入序列在前向和后向两个方向上的信息,通过Bi-LSTM可以更好的捕捉双向的语义依赖。采用Bi-LSTM是因为Bi-LSTM相较于RNN和LSTM来说功能更加强大,能够学习到上下文信息并解决梯度爆炸和梯度消失等问题。由于输入表示已经包含方面信息,因此特定于方面的上下文表示可以通过从两个方向链接隐藏状态来获得:其中是正向LSTM的隐藏状态,是反向LSTM的隐藏状态。最终生成的新向量能在更高级别更好更深入的反应句子的语义含义。
S3、引入权重卷积模块,在卷积计算之前分配邻近权重:
以往的基于依赖树的模型主要关注依赖树的拓扑结构或依赖树的距离。然而很少有模型将它们一起应用,这限制了这些模型在识别关键上下文词方面的有效性。在本发明提出的AFGCN模型中,句法依赖信息被形式化为一个相邻的权重,它描述了上下文和方面之间的接近性。如图5所示:“But the staff was so horrible to us.”在方面词“staff”与情感词“horrible”之间的实际距离为3,但依赖距离为1。直观上看,依赖距离比普通距离更有利于基于方面的情绪分类。
通过S1得到的依赖树计算上下文词的依赖距离:方面和情感词之间的最短依赖路径的长度。如果该方面包含多个单词,则将最小化上下文和所有方面单词之间的依赖距离。句子的依赖邻近权重由如下公式计算:
其中邻近权重pi∈R,di是句子中从单词到方面的依赖距离,i是句子中任一字的位置下标,τ是方面词的起始位值,m是方面词的数量,n是句子的总字数。
本发明还引入了邻近权重卷积。与最初的卷积定义不同,邻近权重卷积在卷积计算之前分配邻近度权值,它本质上是一个核长为l的一维卷积,邻近权重卷积过程分配为:
其中ri=pihi和hi代表第第i个字的隐藏向量表示,表示句子中第i个字的邻近加权表示,t是核长的一半,dh是单向LSTM中隐藏状态向量的维数,表示从卷积层得到的特征表示, 和分别为卷积核的权重和偏差。
S4、使用两个图卷积网络分别融合依赖树和依赖位置图:
为了利用句法依赖性,本发明使用两个图卷积网络分别融合依赖树和依赖位置图,生成不同方面的交互式情绪特征。图6所示的是一个图卷积网络的原理图,即通过线性变换以及非线性变换让图中的节点在空间域中相连、达成层级结构,进而进行卷积。用带有归一化因子的图卷积计算每个节点的表示,并根据其邻域的隐藏表示对每个节点的表示进行更新:
其中,是从前一个GCN层演化而来的第j个令牌的表示。P(·)是一个集成了位置感知转换的PairNorm函数。Mij包括MG和MT,将这两个整合不同依赖关系的矩阵分别作为两组GCN的输入。Di是依赖树中第i个标记的度。Wl和bl分别为可训练参数。
S5、构建方面掩蔽层,掩蔽非方面词表示:
结合S4中两种最终表示,使用同时考虑了句法依赖性和长期的多词关系的组合方法,来提取依赖位置特征和依赖特征之间的交互关系。从不同的输入中捕获GCN层依赖位置图和依赖树的最终表示,分别为hG和hT,其中hG是MG的表示,hT是MT的表示。因此,本发明实施例中结合这两种表示提取依赖位置特征和依赖特征之间的交互关系:
其中γ为依赖系数特征。该组合方法同时考虑了句法依赖性和长期的多词关系,使用方面掩蔽来掩盖非方面词的表示,以突出方面词的关键特征。换句话说,保留GCN层输出的方面词的最终表示,并将非方面词的最终表示设置为0。
S6、使用注意力机制,融合卷积层和掩蔽层的隐藏状态向量,表示被传递到全连接的softmax层,输出不同情感极性上的概率分布:
本发明实施例中通过一种新的注意力机制来融合卷积层和掩蔽层隐藏状态向量中与方面语义相关的显著特征,并相应地为每个上下文词设置准确的注意权重。注意权重分配过程表述如下:
最后,基于方面的表示r被传递到一个完全连接的Softmax层,其输出是不同情绪极性上的概率分布:
p=softmaxWpr+bp) (10)
其中Wp和bp是情绪分类器层的可学习参数。
采用标准梯度下降算法训练模型,最小化所有训练样本的交叉熵损失:
表2为本发明实施例中方法(AFGCN)与基线模型的精确率和F1值(%)比较结果。每个数据集上的最佳结果都用粗体表示。
表2
本发明实施例与目前九种高性能的预测模型(SVM,ATAE-LSTM,Mem-Net,RAM,TNet-LF,TD-GAT,ASGCN,kumaGCN,BiGCN)进行了多轮实验比较,分类结果如表2所示。表2展示了本发明的模型和基线模型的结果对比,从表2可以看出,本发明方法在精确率(accuracy)和F1值(由准确率(precision)和召回率(recall)计算所得)等指标上的效果更好,且更稳定,标准差更小。计算公式如下:
其中TP(True Positive)代表真阳性:预测为正,实际也为正;FP(FalsePositive)代表假阳性:预测为正,实际为负;FN(False Negative)代表假阴性:预测与负、实际为正;TN(True Negative)代表真阴性:预测为负、实际也为负。
在5个基准数据集上的实验结果表明,本发明提出的模型在方面级情感分析中的有效性。
对应本发明中的一种基于句法依赖和图卷积网络的方面级情感分析方法,本发明还提供了一种基于句法依赖和图卷积网络的方面级情感分析装置,该装置包括:
预处理单元,用于获取情感分析数据集,将所述情感分析数据集中的句子构造成依赖树和依赖位置图;
上下文表示获取单元,用于针对所述情感分析数据集中的句子,使用GloVe预训练模型初始化词向量,并将得到的词向量输入双向长短时记忆网络,得到所述句子的上下文表示;并将所述上下文表示分别输入至邻近权重卷积层和双重图卷积层;
邻近权重卷积单元,用于在所述邻近权重卷积层中,通过所述依赖树计算上下文词的依赖距离,计算出不同词的依赖邻近权重,基于邻近权重卷积得到隐藏状态向量;所述邻近权重卷积在卷积计算之前分配所述依赖邻近权重;
双重图卷积单元,用于在所述双重图卷积层中,使用两个图卷积网络分别融合所述依赖树和所述依赖位置图,用带有归一化因子的图卷积计算每个节点的表示,并根据其邻域的隐藏表示来更新每个节点的表示,将这两个整合了不同依赖关系的矩阵分别作为两组图卷积网络,从不同的输入中捕获图卷积网络层的最终表示;
掩蔽单元,用于结合所述双重图卷积单元输出的两种最终表示,提取依赖位置特征和依赖特征之间的交互关系;再使用方面掩蔽层来掩蔽非方面词表示,输出隐藏状态向量;
注意力单元,用于使用注意力机制,融合所述邻近权重卷积单元和所述掩蔽单元输出的隐藏状态向量,得到基于方面的表示;
情感分析单元,用于将所述注意力单元得到的基于方面的表示传递到全连接的softmax层,得到不同情绪极性上的概率分布。
对于本发明实施例的一种基于句法依赖和图卷积网络的方面级情感分析装置而言,由于其与上面实施例中的一种基于句法依赖和图卷积网络的方面级情感分析方法相对应,所以描述的比较简单,相关相似之处请参见上面实施例中一种基于句法依赖和图卷积网络的方面级情感分析方法部分的说明即可,此处不再详述。
本发明实施例还公开了一种计算机可读存储介质,该计算机可读存储介质内存储有计算机指令集,计算机指令集被处理器执行时实现如上文任一实施例所提供的基于句法依赖和图卷积网络的方面级情感分析方法。
在本发明所提供的几个实施例中,应该理解到,所揭露的技术内容,可通过其它的方式实现。其中,以上所描述的装置实施例仅仅是示意性的,例如所述单元的划分,可以为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,单元或模块的间接耦合或通信连接,可以是电性或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可为个人计算机、服务器或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、移动硬盘、磁碟或者光盘等各种可以存储程序代码的介质。
最后应说明的是:以上各实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述各实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围。
Claims (8)
1.一种基于句法依赖和图卷积网络的方面级情感分析方法,其特征在于,所述方法包括:
获取情感分析数据集,将所述情感分析数据集中的句子构造成依赖树和依赖位置图;
针对所述情感分析数据集中的句子,使用GloVe预训练模型初始化词向量,并将得到的词向量输入双向长短时记忆网络,得到所述句子的上下文表示;
将所述上下文表示分别输入至邻近权重卷积层和双重图卷积层;
所述邻近权重卷积层中,通过所述依赖树计算上下文词的依赖距离,计算出不同词的依赖邻近权重,基于邻近权重卷积得到隐藏状态向量;所述邻近权重卷积在卷积计算之前分配所述依赖邻近权重;
所述双重图卷积层中,使用两个图卷积网络分别融合所述依赖树和所述依赖位置图,用带有归一化因子的图卷积计算每个节点的表示,并根据其邻域的隐藏表示来更新每个节点的表示,将这两个整合了不同依赖关系的矩阵分别作为两组图卷积网络,从不同的输入中捕获图卷积网络层的最终表示;结合所述双重图卷积层输出的两种最终表示,提取依赖位置特征和依赖特征之间的交互关系;再使用方面掩蔽层来掩蔽非方面词表示,输出隐藏状态向量;
使用注意力机制,融合所述邻近权重卷积层和所述掩蔽层输出的隐藏状态向量,得到基于方面的表示,将所述基于方面的表示传递到全连接的softmax层,得到不同情绪极性上的概率分布。
2.根据权利要求1所述的一种基于句法依赖和图卷积网络的方面级情感分析方法,其特征在于,将所述情感分析数据集中的句子构造成依赖树和依赖位置图,包括:
使用句法依赖解析器将情感分析数据集中的句子构造成有向依赖树;
基于所述有向依赖树构造邻接矩阵,将所述邻接矩阵的所有对角元素设置为1,如果两个词之间存在依赖关系,则将所述邻接矩阵中的相应位置记为1;
根据方面词计算所述邻接矩阵的每个元素的相对位置权重:
将所述有向依赖树的邻接矩阵沿对角线对称得到的依赖图与相对位置权重相结合,得到依赖位置图的邻接矩阵:
4.根据权利要求1所述的一种基于句法依赖和图卷积网络的方面级情感分析方法,其特征在于,通过所述依赖树计算上下文词的依赖距离,包括:
当方面包含多个单词时,最小化上下文和所有方面单词之间的依赖距离。
7.一种基于句法依赖和图卷积网络的方面级情感分析装置,其特征在于,所述装置包括:
预处理单元,用于获取情感分析数据集,将所述情感分析数据集中的句子构造成依赖树和依赖位置图;
上下文表示获取单元,用于针对所述情感分析数据集中的句子,使用GloVe预训练模型初始化词向量,并将得到的词向量输入双向长短时记忆网络,得到所述句子的上下文表示;并将所述上下文表示分别输入至邻近权重卷积层和双重图卷积层;
邻近权重卷积单元,用于在所述邻近权重卷积层中,通过所述依赖树计算上下文词的依赖距离,计算出不同词的依赖邻近权重,基于邻近权重卷积得到隐藏状态向量;所述邻近权重卷积在卷积计算之前分配所述依赖邻近权重;
双重图卷积单元,用于在所述双重图卷积层中,使用两个图卷积网络分别融合所述依赖树和所述依赖位置图,用带有归一化因子的图卷积计算每个节点的表示,并根据其邻域的隐藏表示来更新每个节点的表示,将这两个整合了不同依赖关系的矩阵分别作为两组图卷积网络,从不同的输入中捕获图卷积网络层的最终表示;
掩蔽单元,用于结合所述双重图卷积单元输出的两种最终表示,提取依赖位置特征和依赖特征之间的交互关系;再使用方面掩蔽层来掩蔽非方面词表示,输出隐藏状态向量;
注意力单元,用于使用注意力机制,融合所述邻近权重卷积单元和所述掩蔽单元输出的隐藏状态向量,得到基于方面的表示;
情感分析单元,用于将所述注意力单元得到的基于方面的表示传递到全连接的softmax层,得到不同情绪极性上的概率分布。
8.一种计算机可读存储介质,该计算机可读存储介质内存储有计算机指令集,计算机指令集被处理器执行时实现如权利要求1~7任一项所述的基于句法依赖和图卷积网络的方面级情感分析方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210023639.6A CN114417823B (zh) | 2022-01-10 | 2022-01-10 | 一种基于句法和图卷积网络的方面级情感分析方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210023639.6A CN114417823B (zh) | 2022-01-10 | 2022-01-10 | 一种基于句法和图卷积网络的方面级情感分析方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114417823A true CN114417823A (zh) | 2022-04-29 |
CN114417823B CN114417823B (zh) | 2024-09-06 |
Family
ID=81271983
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210023639.6A Active CN114417823B (zh) | 2022-01-10 | 2022-01-10 | 一种基于句法和图卷积网络的方面级情感分析方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114417823B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115659951A (zh) * | 2022-12-26 | 2023-01-31 | 华南师范大学 | 基于标签嵌入的语句情感分析方法、装置以及设备 |
CN115936077A (zh) * | 2022-12-30 | 2023-04-07 | 湖北工业大学 | 基于依赖树的方面级情感分析交互卷积网络 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112528672A (zh) * | 2020-12-14 | 2021-03-19 | 北京邮电大学 | 一种基于图卷积神经网络的方面级情感分析方法及装置 |
CN113641820A (zh) * | 2021-08-10 | 2021-11-12 | 福州大学 | 基于图卷积神经网络的视角级文本情感分类方法及系统 |
US11194972B1 (en) * | 2021-02-19 | 2021-12-07 | Institute Of Automation, Chinese Academy Of Sciences | Semantic sentiment analysis method fusing in-depth features and time sequence models |
-
2022
- 2022-01-10 CN CN202210023639.6A patent/CN114417823B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112528672A (zh) * | 2020-12-14 | 2021-03-19 | 北京邮电大学 | 一种基于图卷积神经网络的方面级情感分析方法及装置 |
US11194972B1 (en) * | 2021-02-19 | 2021-12-07 | Institute Of Automation, Chinese Academy Of Sciences | Semantic sentiment analysis method fusing in-depth features and time sequence models |
CN113641820A (zh) * | 2021-08-10 | 2021-11-12 | 福州大学 | 基于图卷积神经网络的视角级文本情感分类方法及系统 |
Non-Patent Citations (1)
Title |
---|
赵鹏飞;李艳玲;林民;: "面向迁移学习的意图识别研究进展", 计算机科学与探索, no. 08, 6 May 2020 (2020-05-06) * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115659951A (zh) * | 2022-12-26 | 2023-01-31 | 华南师范大学 | 基于标签嵌入的语句情感分析方法、装置以及设备 |
CN115936077A (zh) * | 2022-12-30 | 2023-04-07 | 湖北工业大学 | 基于依赖树的方面级情感分析交互卷积网络 |
CN115936077B (zh) * | 2022-12-30 | 2023-09-15 | 湖北工业大学 | 基于依赖树的方面级情感分析交互卷积网络 |
Also Published As
Publication number | Publication date |
---|---|
CN114417823B (zh) | 2024-09-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Zhou et al. | A comprehensive survey on pretrained foundation models: A history from bert to chatgpt | |
Gong et al. | Natural language inference over interaction space | |
CN108920622B (zh) | 一种意图识别的训练方法、训练装置和识别装置 | |
Bahdanau et al. | Learning to compute word embeddings on the fly | |
Tang et al. | Sentiment embeddings with applications to sentiment analysis | |
CN112131350B (zh) | 文本标签确定方法、装置、终端及可读存储介质 | |
Wen et al. | Dynamic interactive multiview memory network for emotion recognition in conversation | |
CN110162749A (zh) | 信息提取方法、装置、计算机设备及计算机可读存储介质 | |
CN113704460B (zh) | 一种文本分类方法、装置、电子设备和存储介质 | |
Tan et al. | phi-LSTM: a phrase-based hierarchical LSTM model for image captioning | |
CN110781306A (zh) | 一种英文文本的方面层情感分类方法及系统 | |
CN114417823B (zh) | 一种基于句法和图卷积网络的方面级情感分析方法及装置 | |
Dai et al. | One model, multiple modalities: A sparsely activated approach for text, sound, image, video and code | |
Liu et al. | AMFF: A new attention-based multi-feature fusion method for intention recognition | |
Zhang et al. | Facial affect recognition based on transformer encoder and audiovisual fusion for the abaw5 challenge | |
Jin et al. | Multi-label sentiment analysis base on BERT with modified TF-IDF | |
Mai et al. | A unimodal representation learning and recurrent decomposition fusion structure for utterance-level multimodal embedding learning | |
CN114218922A (zh) | 一种基于双通道图卷积网络的方面情感分析方法 | |
Zhang et al. | Transformer-encoder-gru (te-gru) for Chinese sentiment analysis on Chinese comment text | |
CN110659392B (zh) | 检索方法及装置、存储介质 | |
Steur et al. | Next-generation neural networks: Capsule networks with routing-by-agreement for text classification | |
Chaudhuri | Visual and text sentiment analysis through hierarchical deep learning networks | |
CN114841353A (zh) | 一种融合句法信息的量子语言模型建模系统及其应用 | |
CN116414988A (zh) | 基于依赖关系增强的图卷积方面级情感分类方法及系统 | |
CN111414755A (zh) | 一种基于细粒度情感字典的网络情绪分析方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |