CN113535904B - 一种基于图神经网络的方面级情感分析方法 - Google Patents

一种基于图神经网络的方面级情感分析方法 Download PDF

Info

Publication number
CN113535904B
CN113535904B CN202110838343.5A CN202110838343A CN113535904B CN 113535904 B CN113535904 B CN 113535904B CN 202110838343 A CN202110838343 A CN 202110838343A CN 113535904 B CN113535904 B CN 113535904B
Authority
CN
China
Prior art keywords
attention
layer
features
semantic
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110838343.5A
Other languages
English (en)
Other versions
CN113535904A (zh
Inventor
甘玲
唐桥
何鹏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chongqing University of Post and Telecommunications
Original Assignee
Chongqing University of Post and Telecommunications
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chongqing University of Post and Telecommunications filed Critical Chongqing University of Post and Telecommunications
Priority to CN202110838343.5A priority Critical patent/CN113535904B/zh
Publication of CN113535904A publication Critical patent/CN113535904A/zh
Application granted granted Critical
Publication of CN113535904B publication Critical patent/CN113535904B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3344Query execution using natural language analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Databases & Information Systems (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Machine Translation (AREA)

Abstract

本发明涉及一种基于图神经网络的方面级情感分析方法,属于数据自然语言处理领域。该方法包括:S1:特征输入:使用Bert预训练语言模型进行词向量映射,再进行一次BiLSTM层的计算,得到含有上下文语义信息表示的隐藏特征;S2:语义特征提取:采用多层的多跳注意力图神经网络MAGNA进行语义特征提取;S3:方面目标词和上下文语义交互阶段:将S2提取到的特征进行一个遮蔽操作,然后与经过BiLSTM层的隐藏特征进行一个点积注意力操作;S4:标签预测阶段:对S3中得到的特征进行一个最大池化操作,接着进行一个线性变换降维后再softmax操作得到最后的预测结果表示。本发明提升了模型识别长距离句法关系的能力。

Description

一种基于图神经网络的方面级情感分析方法
技术领域
本发明属于数据自然语言处理领域,涉及一种基于图神经网络的方面级情感分析方法。
背景技术
方面级情感分析也叫基于方面的情感分析(ABSA),是一种细粒度的文本情感分析任务,它的目标是预测给定方面在其所在文本中表达的情感极性,其中“方面”可以是实体或实体的属性,文本可以是评论、推文等,情感极性一般分为积极(正向)、消极(负向)和中立3种。早期的工作主要集中在提取一组特征来训练情感分类器,这些方法包括基于规则的方法和基于统计的方法,它们依赖于劳动强度大的特征工程。近年来,深度神经网络方法可以生成没有手工特征的句子密集向量,向量是低维的词表示形式,保留了丰富的语义信息,因此受到越来越多的关注。
目前在处理方面级情感分析任务时通常都是使用深度学习的方法,比如:2014年,Kim等人首次将CNN应用于情感分析任务,利用预训练后的词向量与CNN结合,得到文本表示进行分类。2015年,Tang等人提出利用长短期记忆网络(LSTM)对句子之间的情感关系进行建模,解决了梯度消失和梯度爆炸缺陷。2016年,Tang等人提出TD-LSTM模型,首先建模了上下文词和方面目标词之间的语义相关系;同年,提出的MemNet模型,把记忆网络引入了方面级情感分析任务中,将上下文视为外部记忆,并从多跳架构中受益。2017年,Ma等人提出了一种交互式注意网络(IAN),使用两个注意力网络来交互式地检测目标描述的重要单词和整个上下文的重要单词。2018年,Xue等人提出一种基于Tanh-ReLU门控制机制的CNN模型(GCAE),摆脱了RNN和Attention等耗时耗内存的网络结构,同时门机制又很好的利用了方面词的信息,使得模型的精度不减反增。2019年,Zhang等人将图卷积网络(GCN)应用到了ABSA中,GCN能解决Attention和CNN不能关注长距离范围信息的缺点。2020年,Zhang等人提出的了目标导向的结构化注意力网络(TG-SAN),通过多层的注意力机制最终提取出文本的深层语意信息,取得了不错的效果。但是,上述及现有方法在处理ABSA任务时会存在以下缺陷:
(1)大部分的方法都是基于注意力机制和卷积神经网络的模型。由于这两类模型只能处理规则的欧几里得式的数据,不能处理网状结构,不擅长捕获长距离的句法依赖信息,所以不能充分的考虑句法依存关系对于情感极性判断的影响。
(2)少部分基于图神经网络的方法的设计合理性不足,无法充分利用文本的句法关系,且方面目标词和上下文的语义交互不足,取得的效果不佳。
(3)当前的方法效果较好的模型设计较复杂,模型设计简单的效果不佳。
因此,亟需一种能同时解决上述各种缺陷的方面级情感分析方法。
发明内容
有鉴于此,本发明的目的在于提供一种基于图神经网络的方面级情感分析方法,改进基于注意力机制的模型无法捕获长距离句法依赖关系的缺点,提升模型识别长距离句法关系的能力;改进基于图神经网络模型的方面目标词和上下文的语义交互不足的缺点,增强句子的语义表达。
为达到上述目的,本发明提供如下技术方案:
一种基于图神经网络的方面级情感分析方法,具体包括以下步骤:
S1:特征输入阶段:使用Bert预训练语言模型进行词向量映射,再进行一次BiLSTM层的计算,得到含有上下文语义信息表示的隐藏特征;
S2:语义特征提取阶段:采用多层的多跳注意力图神经网络MAGNA进行语义特征提取;
S3:方面目标词和上下文语义交互阶段:将步骤S2提取到的特征进行一个遮蔽操作,然后与经过BiLSTM层的隐藏特征进行一个点积注意力操作,关注那些对目标重要的信息而忽略对于目标不重要的信息,充分进行语义提取,以到达提取出关键信息的作用;
S4:标签预测阶段:首先对步骤S3中得到的特征进行一个最大池化操作以提取出最突出的语义特征,接着进行一个线性变换降维后再softmax操作得到最后的预测结果表示。
进一步,步骤S1中,参与计算的词向量是以高维的数字向量来代表一句话中的每一个标记(token)。
进一步,步骤S2中,采用多层的多跳注意力图神经网络MAGNA进行语义特征提取,具体包括:使用Spacy进行依存句法分析得到依存句法分析树,把单跳连接的节点和连接关系得到的邻接矩阵AM保存为本地文件;同时引入局部位置信息,对于方面目标词前后三个单词范围内的词使用1表示,超过这个范围的词使用0表示,得到局部位置权重矩阵LM,将邻接矩阵AM和局部权重矩阵LM相加,得到带有局部位置权重信息的邻接矩阵M,用于语义特征计算,MAGNA能够利用单跳连接信息生成为2跳连接信息;通过多层的MAGNA操作后,可以得到丰富的基于依存句法结构的多跳连接信息,丰富的上下文语义的表达;同时在每层MAGNA之间都通过一个线性变换操作来降维度,进行一个dropout操作防止过拟合,最后再进行一个残差连接。
进一步,所述MAGNA包括注意力计算模块、多头注意力扩散模块,两个归一化层、前馈层和两个残差连接模块。
进一步,所述注意力计算模块的计算过程包括:给点图
Figure GDA0003677149730000031
v表示节点的集合,ε表示边的集合,计算一条边(vi,rk,vj)的注意力得分
Figure GDA0003677149730000032
表达式为:
Figure GDA0003677149730000033
其中,
Figure GDA0003677149730000034
是第l层可训练的参数,d(l)和dr分别表示编码维度,vi和vj表示节点i和节点j,rk表示边,l=1,…,L;根据图
Figure GDA0003677149730000035
中边的信息,可以得到一个注意力得分矩阵S(l),表达式为:
Figure GDA0003677149730000036
然后,运用逐行的softmax计算在l层融合了节点i和j的注意力值
Figure GDA0003677149730000037
进一步,利用所述多头注意力扩散模块计算多跳邻居的多头注意力扩散,具体包括:利用注意力矩阵A的幂,通过图扩散来计算多跳邻居的注意分数如下:
Figure GDA0003677149730000038
其中,
Figure GDA0003677149730000039
Θu表示是第u个头的注意力参数,Wo表示权重矩阵,U表示多头数,H(l)
Figure GDA00036771497300000310
分别表示中间计算的状态;
然后进行层规范化和残差连接
Figure GDA00036771497300000311
和层规范化
Figure GDA00036771497300000312
其中,
Figure GDA00036771497300000313
表示权重矩阵。
进一步,每层MAGNA的计算表达式为:
Figure GDA00036771497300000314
其中,
Figure GDA00036771497300000315
为可训练的权重矩阵,就是线性变换降维,
Figure GDA00036771497300000316
表示偏差,dh表示隐藏状态维度,σ表示非线性激活函数,
Figure GDA00036771497300000317
其中
Figure GDA00036771497300000318
表示与节点i相邻的节点j的度数Mij之和。
进一步,步骤S4中,在训练阶段使用交叉熵计算真实标签和预测标签之间的损失值,在测试阶段根据预测结果表示来做模型方法的效果评价。
本发明的有益效果在于:
(1)本发明通过语言的依存句法关系,将图神经网络应用于方面目标和上下文语境的交互计算;结合图神经网络来处理不规则的句法结构信息,比单纯使用注意力机制和卷积神经网络的模型,更能捕获长距离范围的句法信息。
(2)本发明将局部位置信息加入给邻接矩阵用于语义计算,一定程度上规避了依存句法分析器潜在的句法分析错误,同时丰富了方面目标的语义表达。
(3)本发明设计的模型在双向长短期记忆模型编码的基础上,引入多跳注意力图神经网络(MAGNA)对文本进行建模,提取出了含有深层语义的特征信息表示,使用点乘注意力机制进行语义交互,以找出对方面极性判断有影响的上下文信息。
(4)本发明引入了残差连接和最大池化操作,进一步提升了模型的效果。
本发明的其他优点、目标和特征在某种程度上将在随后的说明书中进行阐述,并且在某种程度上,基于对下文的考察研究对本领域技术人员而言将是显而易见的,或者可以从本发明的实践中得到教导。本发明的目标和其他优点可以通过下面的说明书来实现和获得。
附图说明
为了使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明作优选的详细描述,其中:
图1为基于图神经网络的方面级情感分析方法的流程框图。
具体实施方式
以下通过特定的具体实例说明本发明的实施方式,本领域技术人员可由本说明书所揭露的内容轻易地了解本发明的其他优点与功效。本发明还可以通过另外不同的具体实施方式加以实施或应用,本说明书中的各项细节也可以基于不同观点与应用,在没有背离本发明的精神下进行各种修饰或改变。需要说明的是,以下实施例中所提供的图示仅以示意方式说明本发明的基本构想,在不冲突的情况下,以下实施例及实施例中的特征可以相互组合。
其中,附图仅用于示例性说明,表示的仅是示意图,而非实物图,不能理解为对本发明的限制;为了更好地说明本发明的实施例,附图某些部件会有省略、放大或缩小,并不代表实际产品的尺寸;对本领域技术人员来说,附图中某些公知结构及其说明可能省略是可以理解的。
本发明实施例的附图中相同或相似的标号对应相同或相似的部件;在本发明的描述中,需要理解的是,若有术语“上”、“下”、“左”、“右”、“前”、“后”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此附图中描述位置关系的用语仅用于示例性说明,不能理解为对本发明的限制,对于本领域的普通技术人员而言,可以根据具体情况理解上述术语的具体含义。
请参阅图1,为一种基于图神经网络的方面级情感分析方法,主要分为四个部分,分别是特征输入部分,语义特征提取部分,方面目标词和上下文语义交互部分,以及标签预测部分,详细信息如下:
(1)在特征输入部分,主要是以高维的数字向量,代表一句话中的每一个标记(token),而最终参与计算的是这些高维向量,这里并没有使用常规的Glove词嵌入进行词向量映射,而是使用Bert预训练语言模型进行词向量映射,Bert相对Glove进行词向量表示的维度更大,所含语义信息更加丰富,这里再进行一次BiLSTM层的计算,得到含有上下文语义信息表示的隐藏特征。
(2)语义特征提取部分,首次将多跳注意力图神经网络(MAGNA)引入ABSA任务中,该部分采用的是多层的MAGNA进行语义特征提取,我们使用Spacy进行依存句法分析得到依存句法分析树,把单跳连接的节点和连接关系得到的邻接矩阵AM保存为本地文件,同时引入局部位置信息,对于方面目标词前后三个单词范围内的词使用1表示,超过这个范围的词使用0表示,得到局部位置权重矩阵LM,将邻接矩阵AM和局部权重矩阵LM相加,得到带有局部位置权重信息的邻接矩阵M,用于语义特征计算,MAGNA能够利用单跳连接信息生成为2跳连接信息,通过多层的MAGNA操作后,可以得到丰富的基于依存句法结构的多跳连接信息,丰富的上下文语义的表达。同时在每层MAGNA之间都通过一个线性变换操作来降维度,进行一个dropout操作防止过拟合,最后再进行一个残差连接。
(3)方面目标词和上下文语义交互部分,将(2)得到的特征进行一个遮蔽操作后,与经过BiLSTM层的隐藏特征进行一个点积注意力操作,关注那些对目标重要的信息而忽略对于目标不重要的信息,充分进行语义提取,已到达提取出关键信息的作用。
(4)标签预测部分,先对(3)中得到的特征进行一个最大池化操作以提取出最突出的语义特征,接着进行一个线性变换降维后再softmax操作得到最后的预测结果表示,在训练阶段会使用交叉熵计算真实标签和预测标签之间的损失值,在测试阶段就会根据预测结果表示来做模型方法的效果评价。
如图1所示,本发明方法的实施过程包括如下具体步骤:
步骤1:对于原始文本进行依存句法分析得到依存句法树,根据依存句法树的连接关系,这里使用了单跳连接,生成邻接矩阵信息AM,同时引入局部位置信息,对于方面目标词前后三个单词范围内的词使用1表示,超过这个范围的词使用0表示,得到局部位置权重矩阵LM,分别对AM和LM保存文件;同时使用Bert预训练语言模型对原始文本进行词向量映射,所以词
Figure GDA0003677149730000051
对应的词嵌入
Figure GDA0003677149730000052
其中demb表示词向量维度,值为768。
步骤2:为了捕捉句子中的方面级的情感特征,同时反映出词在句子中的位置信息,采用BiLSTM来保留句子中每个单词的上下文信息,分别计算出前后向的隐藏状态向量为
Figure GDA0003677149730000061
Figure GDA0003677149730000062
其中n为句子的长度,τ1表示方面目标中第一个词在句中的位置,τm表示方面目标中最后一个词在句中的位置,然后拼接前后向的隐藏状态为
Figure GDA0003677149730000063
dh表示隐藏状态维度,值为768,“;”表示拼接。由于demb的维度过高,因此dh的维度也是比较大,计算量过大,所以需要对得到的隐藏状态做一个线性变换,
Figure GDA0003677149730000064
以方便计算,此时dh值为300。
步骤3:将邻接矩阵AM和局部权重矩阵LM相加,得到带有局部位置权重信息的邻接矩阵M,将M中的边的信息和Hc特征进行点积得到
Figure GDA0003677149730000065
送入L层MAGNA进行语义特征提取。MAGNA由注意力计算组件,多头注意力扩散组件,两个层归一化组件,前馈层组件和2个残差连接组件组成。
首先,进行注意力计算模块,给点图
Figure GDA0003677149730000066
ν表示节点的集合,ε表示边的集合,计算一条边(vi,rk,vj)的注意力得分由以下公式计算:
Figure GDA0003677149730000067
其中
Figure GDA0003677149730000068
是第l层的可训练的参数,根据图
Figure GDA0003677149730000069
中的边的信息,可以得到一个注意力得分矩阵S(l),计算如如下面的公式:
Figure GDA00036771497300000610
接着运用逐行的softmax计算在l层融合了节点i和j的注意力值
Figure GDA00036771497300000611
其次,计算多跳邻居的多头注意力扩散,这一过程局域单挑注意力矩阵A的幂,通过图扩散来计算多跳邻居的注意分数如下:
Figure GDA00036771497300000612
其中
Figure GDA00036771497300000613
接下来会进行一个层规范化和残差连接
Figure GDA00036771497300000614
和层规范化
Figure GDA00036771497300000615
Figure GDA00036771497300000616
最后,我们每层MAGNA的计算可以表示为如下公式:
Figure GDA00036771497300000617
其中,
Figure GDA00036771497300000618
为可训练的权重矩阵,可用于降维,
Figure GDA00036771497300000619
表示偏差,σ表示非线性激活函数,
Figure GDA0003677149730000071
其中
Figure GDA0003677149730000072
表示和i节点相邻的j节点的度数之和,这样得到的每一层的输出维度都是2dh,维度的值为600。
步骤4:对于上一层得到的输出
Figure GDA0003677149730000073
Figure GDA0003677149730000074
进行遮蔽操作,只保留方面目标词位置的值,其他位置的值全部置为0,此时的
Figure GDA0003677149730000075
Figure GDA0003677149730000076
步骤5:将HM和Hc进行点积注意力计算,从隐藏状态向量Hc中检索与方面目标词在语义上相关的重要特征,并因此为每个上下文词设置基于检索的注意力权重,用于最后的方面情感极性判断,令K=V=HC,Q=HM,所以计算的表示如下公式所示:
HA=Attention(Q,K,V)=SoftMax(QKT)V
其中
Figure GDA0003677149730000077
步骤6:基于上一层的输出HA,对其特征维度进行最大池化操作得到最终的特征
Figure GDA0003677149730000078
表示,F=MaxPool(HA),把最终的特征传入softmax层得到用于情感极性分类,分类特征表示如下公式:
P=softmax(WPF+bP)
其中,
Figure GDA0003677149730000079
Figure GDA00036771497300000710
分别是可学习的权重和偏差。
最后说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或者等同替换,而不脱离本技术方案的宗旨和范围,其均应涵盖在本发明的权利要求范围当中。

Claims (3)

1.一种基于图神经网络的方面级情感分析方法,其特征在于,该方法具体包括以下步骤:
S1:特征输入阶段:使用Bert预训练语言模型进行词向量映射,再进行一次BiLSTM层的计算,得到含有上下文语义信息表示的隐藏特征;
S2:语义特征提取阶段:采用多层的多跳注意力图神经网络MAGNA进行语义特征提取,具体包括:使用Spacy进行依存句法分析得到依存句法分析树,把单跳连接的节点和连接关系得到的邻接矩阵AM保存为本地文件;同时引入局部位置信息,对于方面目标词前后三个单词范围内的词使用1表示,超过这个范围的词使用0表示,得到局部位置权重矩阵LM,将邻接矩阵AM和局部权重矩阵LM相加,得到带有局部位置权重信息的邻接矩阵M,通过多层的MAGNA操作后,得到丰富的基于依存句法结构的多跳连接信息;同时在每层MAGNA之间都通过一个线性变换操作来降维度,进行一个dropout操作防止过拟合,最后再进行一个残差连接;
所述MAGNA包括注意力计算模块、多头注意力扩散模块,两个归一化层、前馈层和两个残差连接模块;
所述注意力计算模块的计算过程包括:给点图
Figure FDA0003677149720000011
ν表示节点的集合,ε表示边的集合,计算一条边(vi,rk,vj)的注意力得分
Figure FDA0003677149720000012
表达式为:
Figure FDA0003677149720000013
其中,
Figure FDA0003677149720000014
是第l层可训练的参数,d(l)和dr分别表示编码维度,vi和vj表示节点i和节点j,l=1,…,L;根据图
Figure FDA0003677149720000015
中边的信息,得到一个注意力得分矩阵S(l),表达式为:
Figure FDA0003677149720000016
然后,运用逐行的softmax计算在l层融合了节点i和j的注意力值
Figure FDA0003677149720000017
利用所述多头注意力扩散模块计算多跳邻居的多头注意力扩散,具体包括:利用注意力矩阵A的幂,通过图扩散来计算多跳邻居的注意分数如下:
Figure FDA0003677149720000018
其中,
Figure FDA0003677149720000019
Θu表示是第u个头的注意力参数,Wo表示权重矩阵,U表示多头数,H(l)
Figure FDA00036771497200000110
分别表示中间计算的状态;
然后进行层规范化和残差连接
Figure FDA00036771497200000111
和层规范化
Figure FDA00036771497200000112
其中,W2 (l)和W1 (l)表示权重矩阵;
每层MAGNA的计算表达式为:
Figure FDA0003677149720000021
其中,
Figure FDA0003677149720000022
为可训练的权重矩阵,就是线性变换降维,
Figure FDA0003677149720000023
表示偏差,dh表示隐藏状态维度,σ表示非线性激活函数,
Figure FDA0003677149720000024
其中
Figure FDA0003677149720000025
表示与节点i相邻的节点j的度数Mij之和;
S3:方面目标词和上下文语义交互阶段:将步骤S2提取到的特征进行一个遮蔽操作,然后与经过BiLSTM层的隐藏特征进行一个点积注意力操作,充分进行语义提取;
S4:标签预测阶段:首先对步骤S3中得到的特征进行一个最大池化操作,接着进行一个线性变换降维后再softmax操作得到最后的预测结果表示。
2.根据权利要求1所述的方面级情感分析方法,其特征在于,步骤S1中,参与计算的词向量是以高维的数字向量来代表一句话中的每一个标记。
3.根据权利要求1所述的方面级情感分析方法,其特征在于,步骤S4中,在训练阶段使用交叉熵计算真实标签和预测标签之间的损失值,在测试阶段根据预测结果表示来做模型方法的效果评价。
CN202110838343.5A 2021-07-23 2021-07-23 一种基于图神经网络的方面级情感分析方法 Active CN113535904B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110838343.5A CN113535904B (zh) 2021-07-23 2021-07-23 一种基于图神经网络的方面级情感分析方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110838343.5A CN113535904B (zh) 2021-07-23 2021-07-23 一种基于图神经网络的方面级情感分析方法

Publications (2)

Publication Number Publication Date
CN113535904A CN113535904A (zh) 2021-10-22
CN113535904B true CN113535904B (zh) 2022-08-09

Family

ID=78120981

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110838343.5A Active CN113535904B (zh) 2021-07-23 2021-07-23 一种基于图神经网络的方面级情感分析方法

Country Status (1)

Country Link
CN (1) CN113535904B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113761941B (zh) * 2021-11-09 2022-02-08 华南师范大学 一种文本情感分析方法
CN115168592B (zh) * 2022-08-30 2022-12-27 华南师范大学 基于方面类别的语句情感分析方法、装置以及设备
CN115906861B (zh) * 2022-10-21 2023-09-26 华南师范大学 基于交互方面信息融合的语句情感分析方法以及装置
CN115860006B (zh) * 2023-02-13 2023-04-25 广东工业大学 一种基于语义句法的方面级情感预测方法及装置
DE202023102803U1 (de) 2023-05-22 2023-07-17 Pradeep Bedi System zur Erkennung von Emotionen und zur Stimmungsanalyse durch maschinelles Lernen

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110674301A (zh) * 2019-09-30 2020-01-10 出门问问信息科技有限公司 一种情感倾向预测方法、装置、系统及存储介质
CN111259142A (zh) * 2020-01-14 2020-06-09 华南师范大学 基于注意力编码和图卷积网络的特定目标情感分类方法
CN112347248A (zh) * 2020-10-30 2021-02-09 山东师范大学 一种方面级文本情感分类方法及系统
CN112417104A (zh) * 2020-12-04 2021-02-26 山西大学 一种句法关系增强的机器阅读理解多跳推理模型及方法
CN112667818A (zh) * 2021-01-04 2021-04-16 福州大学 融合gcn与多粒度注意力的用户评论情感分析方法及系统

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11636347B2 (en) * 2019-01-23 2023-04-25 Deepmind Technologies Limited Action selection using interaction history graphs
CN110569508A (zh) * 2019-09-10 2019-12-13 重庆邮电大学 融合词性和自注意力机制的情感倾向性分类方法及系统
CN111339255B (zh) * 2020-02-26 2023-04-18 腾讯科技(深圳)有限公司 目标情感分析的方法、模型训练方法、介质和设备
CN111814982B (zh) * 2020-07-15 2021-03-16 四川大学 面向多跳问答的动态推理网络系统及方法
CN111985245B (zh) * 2020-08-21 2024-03-12 江南大学 基于注意力循环门控图卷积网络的关系提取方法及系统
CN112232087B (zh) * 2020-10-20 2022-09-02 中国民航大学 一种基于Transformer的多粒度注意力模型的特定方面情感分析方法
CN112528672B (zh) * 2020-12-14 2021-07-30 北京邮电大学 一种基于图卷积神经网络的方面级情感分析方法及装置
CN112633010B (zh) * 2020-12-29 2023-08-04 山东师范大学 基于多头注意力和图卷积网络的方面级情感分析方法及系统
CN112633481B (zh) * 2020-12-30 2023-11-28 广州大学华软软件学院 一种多跳图卷积神经网络模型系统及训练方法
CN113095074A (zh) * 2021-03-22 2021-07-09 北京工业大学 中文电子病历的分词方法及系统

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110674301A (zh) * 2019-09-30 2020-01-10 出门问问信息科技有限公司 一种情感倾向预测方法、装置、系统及存储介质
CN111259142A (zh) * 2020-01-14 2020-06-09 华南师范大学 基于注意力编码和图卷积网络的特定目标情感分类方法
CN112347248A (zh) * 2020-10-30 2021-02-09 山东师范大学 一种方面级文本情感分类方法及系统
CN112417104A (zh) * 2020-12-04 2021-02-26 山西大学 一种句法关系增强的机器阅读理解多跳推理模型及方法
CN112667818A (zh) * 2021-01-04 2021-04-16 福州大学 融合gcn与多粒度注意力的用户评论情感分析方法及系统

Also Published As

Publication number Publication date
CN113535904A (zh) 2021-10-22

Similar Documents

Publication Publication Date Title
CN113535904B (zh) 一种基于图神经网络的方面级情感分析方法
CN108984724B (zh) 利用高维表示提高特定属性情感分类准确率方法
CN110083705B (zh) 一种用于目标情感分类的多跳注意力深度模型、方法、存储介质和终端
CN107992597B (zh) 一种面向电网故障案例的文本结构化方法
CN110633409B (zh) 一种融合规则与深度学习的汽车新闻事件抽取方法
CN111488734A (zh) 基于全局交互和句法依赖的情感特征表示学习系统及方法
Yu et al. Heterogeneous graph learning for visual commonsense reasoning
CN109214006B (zh) 图像增强的层次化语义表示的自然语言推理方法
CN111008293A (zh) 基于结构化语义表示的视觉问答方法
Sharma et al. A survey of methods, datasets and evaluation metrics for visual question answering
CN110866542A (zh) 一种基于特征可控融合的深度表示学习方法
CN111985205A (zh) 一种方面级情感分类模型
CN111966812A (zh) 一种基于动态词向量的自动问答方法和存储介质
CN112199504B (zh) 一种融合外部知识与交互注意力机制的视角级文本情感分类方法及系统
CN113641822B (zh) 一种基于图神经网络的细粒度情感分类方法
CN111914553B (zh) 一种基于机器学习的金融信息负面主体判定的方法
CN114548099A (zh) 基于多任务框架的方面词和方面类别联合抽取和检测方法
CN113705238A (zh) 基于bert和方面特征定位模型的方面级情感分析方法及模型
CN115964459B (zh) 基于食品安全认知图谱的多跳推理问答方法及系统
CN115631504B (zh) 一种基于双模态图网络信息瓶颈的情感识别方法
Ermatita et al. Sentiment Analysis of COVID-19 using Multimodal Fusion Neural Networks.
Kassawat et al. Incorporating joint embeddings into goal-oriented dialogues with multi-task learning
CN116579347A (zh) 一种基于动态语义特征融合的评论文本情感分析方法、系统、设备及介质
Tran et al. ViCLEVR: A Visual Reasoning Dataset and Hybrid Multimodal Fusion Model for Visual Question Answering in Vietnamese
CN114168769B (zh) 基于gat关系推理的视觉问答方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant