CN115099219A - 一种基于增强图卷积神经网络的方面级情感分析方法 - Google Patents

一种基于增强图卷积神经网络的方面级情感分析方法 Download PDF

Info

Publication number
CN115099219A
CN115099219A CN202210799260.4A CN202210799260A CN115099219A CN 115099219 A CN115099219 A CN 115099219A CN 202210799260 A CN202210799260 A CN 202210799260A CN 115099219 A CN115099219 A CN 115099219A
Authority
CN
China
Prior art keywords
attention
state vector
neural network
hidden state
matrix
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210799260.4A
Other languages
English (en)
Inventor
王艳娜
周子力
张政
周淑霄
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qufu Normal University
Original Assignee
Qufu Normal University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qufu Normal University filed Critical Qufu Normal University
Priority to CN202210799260.4A priority Critical patent/CN115099219A/zh
Publication of CN115099219A publication Critical patent/CN115099219A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • G06F40/211Syntactic parsing, e.g. based on context-free grammar [CFG] or unification grammars
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Machine Translation (AREA)

Abstract

本发明公开了一种基于增强图卷积神经网络的方面级情感分析方法,该方法将方面感知注意力机制与自注意力机制相结合,方面感知注意力机制学习与方面词相关的语义信息,而自注意力机制学习句子的全局语义,并构造根据句法依赖树中词之间的不同距离计算的句法掩码矩阵以学习从局部到全局的结构信息,然后用以增强传统图卷积神经网络,最后通过多层图卷积操作获得用于方面词情感分类的特征,能更高效准确地进行方面级情感分析。

Description

一种基于增强图卷积神经网络的方面级情感分析方法
技术领域
本发明属于自然语言处理技术领域,具体涉及一种基于增强图卷积神经网络的方面级情感分析方法。
背景技术
文本情感分析按分析粒度可分为:篇章级情感分析、句子级情感分析和方面级情感分析。方面级情感分析(Aspect-based Sentiment Analysis,ABSA)是一个面向实体级的细粒度情感分析任务,旨在判断句子中给定的方面词的情感极性。与篇章级情感分析和句子级情感分析相比,方面级情感分析能进行更完整的情感分析。
由于待分析文本中方面的形式和数量都不确定,一方面,方面级情感分析不仅要对显式的语义表达进行分析,还要对隐式的语义表达进行深层理解;另一方面,方面级情感分析需要为每个评价对象确定对其表达情感的上下文范围。由于自然语言表达连贯,用语灵活,指代词等表达方式非常普遍,因此方面级情感分析常常会受到句中不相关词噪音的影响,导致最终分析结果不够准确。
例如,“The food is not as good as the service.”一句,对于方面词“food”,其情感极性是负面的,但对于方面词“service”来说,其情感极性是正面的。当句子当中有多个不同情感极性的方面词,会产生噪声问题,比如对于方面词“food”来说,形容它的词是“not”,但由于“good”的存在,会对其情感分析产生错误的判断。
有鉴于此,如何高效准确地进行方面级情感分析,成为本行业中较为迫切的技术课题。
发明内容
为此,本发明意在提供一种基于增强图卷积神经网络的方面级情感分析方法,该方法将句子的语义信息和句法结构融合在一起,能更准确地理解方面级和句子级的语义信息,正确界定对各方面进行情感表达的上下文范围,从而获得更为理想的情感分析结果。
为实现上述目的,本发明所提供的该种基于增强图卷积神经网络的方面级情感分析方法,其具体包括以下步骤:
步骤一、构建输入层,具体包括以下步骤:
11、基于待分析文本构建方面词句子对(a,s);其中,s={w1,w2,......,wn},其为待分析的句子,包含n个词;a={a1,a2,......,am},其为待分析句子中的方面词的集合。
本质上来讲,这里所获得的a={a1,a2,......,am}可以看作是s={w1,w2,......,wn}的子序列。
12、基于s={w1,w2,......,wn}生成对应的词嵌入序列x={x1,x2,......,xn};13、将词嵌入序列x={x1,x2,......,xn}输入到双向长短期记忆网络中生成隐藏状态向量序列H={h1,h2,......,hn};其中,h∈R2d是在时间步t时的隐藏状态向量,d是单向长短期记忆网络输出的隐藏状态向量的维度。
14、基于隐藏状态向量序列H={h1,h2,......,hn}获得对应于a={a1,a2,......,am}的隐藏状态向量序列ha={ha1,ha2,......,ham}。
本质上来讲,这里所获得的隐藏状态向量ha即是方面词的表示,其也是隐藏状态向量序列H的子序列。
步骤二、构建注意力层,具体包括以下步骤:
21、基于p头方面感知注意力机制,使用下述公式(1)计算方面感知注意力分数矩阵:
Figure BDA0003733390820000021
其中,i∈[1,p],p为超参数,超参数就是人为定义的参数,方面感知注意力分数矩阵
Figure BDA0003733390820000022
表示它是通过第i个注意力头获得的;tanh为激活函数,Ha∈R(n×d)为将隐藏状态向量序列ha={ha1,ha2,......,ham}均值池化后复制n次获得的结果,Wa∈R(d×d)和Wk∈R(d×d)均是可学习参数权重矩阵,其中的d为输入节点特征的维度,K为图卷积神经网络前一层的隐藏状态向量序列,T为转置,b为偏置项。
需要说明的是,与句子级别的情感分类任务不同,基于方面的情感分类旨在判断其上下文句子中一个特定方面的情感,因此需要根据不同的方面词对特定的语义相关性进行建模,故在这里,我们提出了方面感知注意力机制(aspect-aware attention),将方面词的表示作为query计算方面感知注意力分数来学习方面词相关的特征。
本质上来讲,这里我们使用了p头方面感知注意力机制(aspect-awareattention)来获得一个句子的注意力分数矩阵,方面感知注意力分数矩阵
Figure BDA0003733390820000035
则表示它是通过第i个注意力头获得的,其中,p为一个人为定义的参数,即超参数。
22、基于p头自注意力机制,使用下述公式(2)计算自注意力分数矩阵:
Figure BDA0003733390820000031
其中,i∈[1,p],p为上述超参数,自注意力分数矩阵
Figure BDA0003733390820000032
表示它是通过第i个注意力头获得的;Q和K均为图卷积神经网络前一层的隐藏状态向量序列,WQ∈R(d×d)和Wk∈R(d×d)均是可学习参数权重矩阵,d为输入节点特征的维度,T为转置;
本质上来讲,这里我们使用了p头自注意力机制来获得一个句子的注意力分数矩阵,自注意力分数矩阵
Figure BDA0003733390820000033
则表示它是通过第i个注意力头获得的,这里的自注意力分数矩阵Aself可以通过利用p头的自注意力机制(self-attention)来构建,它捕获单个句子的两个任意单词之间的语义关系。
23、基于方面感知注意力分数矩阵和自注意力分数矩阵,使用下述公式(3)计算注意力分数矩阵:
Figure BDA0003733390820000034
其中,Ai为注意力分数矩阵;
本质上来讲,在这里,我们将方面感知注意力机制与自注意力机制结合起来,Ai∈R(n×n)用于后面句法掩码层计算的输入,对于每个Ai,它对应着一个全连接图。
步骤三、构建句法掩码层,具体包括以下步骤:
31、对于句法依赖树中的词节点vi和vj之间的路径距离d(vi,vj),使用下述公式(4)计算vi和vj之间的最短路径距离:
D(i,j)=mind(vi,vj) (4)
32、基于最短路径距离D(i,j),使用下述公式(5)计算掩码矩阵:
Figure BDA0003733390820000041
其中,k∈[1,p],p为上述超参数,M={M1,......,Mp}。
需要说明的是,在句法掩码层,我们首先引入掩码矩阵Mk,然后针对不同的句法距离对每个全连接图进行掩码,我们将每个句法依赖树视为一个无向图,每个词都是一个节点。
在注意力层,p头注意力机制将获得p个注意力分数矩阵,因此我们将基于不同句法距离的句法掩码矩阵的数量设置为与注意力头的数量相同。当句法距离比较小时,可以学习局部信息,如果句法距离比较大,则考虑全局结构信息。
33、基于注意力分数矩阵和掩码矩阵,使用下述公式(6)计算句法掩码矩阵:
Figure BDA0003733390820000042
其中,softmax为归一化指数函数。
步骤四、计算方面词的最终隐藏状态向量,具体为使用下述公式(7)基于句法掩码矩阵对图卷积神经网络进行增强并进而获得方面词的最终隐藏状态向量:
Figure BDA0003733390820000043
其中,图卷积神经网络包含l层,l∈[1,L];hl为该图卷积神经网络第l层的输出,也即方面词的最终隐藏状态向量;hl-1为该图卷积神经网络第l层的输入;σ为非线性函数,Aij为句法掩码矩阵Amask中第i行第j列那个元素,Wl为线性变换权重矩阵,bl为偏置项,n等于上述步骤11中的n。
本质上来讲,在图卷积神经网络层,由于我们有p个不同的句法掩码矩阵,因此我们对句法掩码矩阵Amask∈R(p×n×n)进行了p次图卷积操作,p为上述超参数。
本质上来讲,基于上述公式(7)获得了最终隐藏状态向量hl,这意味着第l层图卷积神经网络中的每个节点都根据其邻居节点的特征表示进行了更新,对于a={a1,a2,......,am},则对应有更新后的隐藏状态向量序列hl a={hl a1,hl a2,......,hl am}。
步骤五、使用下述公式(8)对最终隐藏状态向量进行均值池化:
Figure BDA0003733390820000051
其中,f为均值池化函数,用于在图卷积神经网络层增强方面词的表示;
本质上来讲,在聚合来自每一层的节点表示后,我们得到最终的特征表示,通过掩码图卷积神经网络层的输出表示的非方面词,获得最终方面词的表示,然后通过均值池化操作以保留方面词表示haspect中的大部分信息。
步骤六、基于均值池化结果haspect使用下述公式(9)计算情感极性的概率分布:
p(a)=softmax(Wphaspect+bp) (9)
其中,softmax为归一化指数函数,Wp为可学习的权重矩阵,bp为偏置项,不同值的概率分布p(a)对应于一方面词的不同情感极性,如正面、负面、中性。
本质上来讲,在这里,我们获得了方面词表示(即均值池化结果haspect)后,将它输入到一个全连接层,产生了一个关于不同情感极性的概率分布p(a)。
本发明所提供的该种基于增强图卷积神经网络的方面级情感分析方法,将句子的语义信息和句法结构融合在一起,为对不同方面词的特定语义相关性进行处理,将方面感知注意力机制(aspect-aware attention)与自注意力机制(self-attention)相结合,方面感知注意力机制学习与方面词相关的语义信息,而自注意力机制学习句子的全局语义,然后将获得的注意力分数矩阵作为图卷积神经网络(GCN)的初始邻接矩阵,为充分利用句法结构来补充语义信息,而不仅仅是学习一阶邻居节点信息,该方法继而构造根据句法依赖树中词之间的不同距离计算的句法掩码矩阵以学习从局部到全局的结构信息,然后结合邻接矩阵(注意力分数矩阵)和句法掩码矩阵来增强传统的图卷积神经网络,最后通过多层图卷积操作获得用于方面词情感分类的特征。
进一步地,本发明还提供了一种电子设备,该电子设备包括处理器和存储器;存储器,用于存放计算机程序;处理器,用于执行存储器上所存放的程序时,实现上述方面级情感分析方法的步骤。
进一步地,本发明还提供了一种计算机可读存储介质,该计算机可读存储介质内存储有计算机程序,计算机程序被处理器执行时实现上述方面级情感分析方法的步骤。
与现有技术相比,本发明所提供的该种分析方法能更高效准确地进行方面级情感分析。
附图说明
本发明上述的和/或附加的方面和优点从下面结合附图对实施例的描述中将变得明显和容易理解。在附图中,除非另外规定,否则贯穿多个附图相同的附图标记表示相同或相似的部件或元素。这些附图不一定是按照比例绘制的。应该理解,这些附图仅描绘了根据本发明公开的一些实施方式,用来提供对本发明的进一步理解,构成本申请的一部分,而不应将其视为是对本发明范围的限制。其中:
图1为本发明所提供的分析方法的原理框图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及具体实施例,对本发明做进一步详细说明。应当理解,此处所描述的具体实施例仅用于解释本发明,而不能理解为对本发明的限制。
本发明所提供的一种基于增强图卷积神经网络的方面级情感分析方法,如图1所示,其具体包括以下步骤:
步骤一、构建输入层,具体包括以下步骤:
11、基于待分析文本构建方面词句子对(a,s);其中,s={w1,w2,......,wn},其为待分析的句子,包含n个词;a={a1,a2,......,am},其为待分析句子中的方面词的集合。
本质上来讲,这里所获得的a={a1,a2,......,am}可以看作是s={w1,w2,......,wn}的子序列。
12、基于s={w1,w2,......,wn}生成对应的词嵌入序列x={x1,x2,......,xn};13、将词嵌入序列x={x1,x2,......,xn}输入到双向长短期记忆网络中生成隐藏状态向量序列H={h1,h2,......,hn};其中,h∈R2d是在时间步t时的隐藏状态向量,d是单向长短期记忆网络输出的隐藏状态向量的维度。
14、基于隐藏状态向量序列H={h1,h2,......,hn}获得对应于a={a1,a2,......,am}的隐藏状态向量序列ha={ha1,ha2,......,ham}。
本质上来讲,这里所获得的隐藏状态向量ha即是方面词的表示,其也是隐藏状态向量序列H的子序列。
步骤二、构建注意力层,具体包括以下步骤:
21、基于p头方面感知注意力机制,使用下述公式(1)计算方面感知注意力分数矩阵:
Figure BDA0003733390820000071
其中,i∈[1,p],p为超参数,超参数就是人为定义的参数,方面感知注意力分数矩阵
Figure BDA0003733390820000072
表示它是通过第i个注意力头获得的;tanh为激活函数,Ha∈R(n×d)为将隐藏状态向量序列ha={ha1,ha2,......,ham}均值池化后复制n次获得的结果,Wa∈R(d×d)和Wk∈R(d×d)均是可学习参数权重矩阵,其中的d为输入节点特征的维度,K为图卷积神经网络前一层的隐藏状态向量序列,T为转置,b为偏置项。
需要说明的是,与句子级别的情感分类任务不同,基于方面的情感分类旨在判断其上下文句子中一个特定方面的情感,因此需要根据不同的方面词对特定的语义相关性进行建模,故在这里,我们提出了方面感知注意力机制(aspect-aware attention),将方面词的表示作为query计算方面感知注意力分数来学习方面词相关的特征。
本质上来讲,这里我们使用了p头方面感知注意力机制(aspect-awareattention)来获得一个句子的注意力分数矩阵,方面感知注意力分数矩阵
Figure BDA0003733390820000076
则表示它是通过第i个注意力头获得的,其中,p为一个人为定义的参数,即超参数。
22、基于p头自注意力机制,使用下述公式(2)计算自注意力分数矩阵:
Figure BDA0003733390820000073
其中,i∈[1,p],p为上述超参数,自注意力分数矩阵
Figure BDA0003733390820000074
表示它是通过第i个注意力头获得的;Q和K均为图卷积神经网络前一层的隐藏状态向量序列,WQ∈R(d×d)和Wk∈R(d×d)均是可学习参数权重矩阵,d为输入节点特征的维度,T为转置;
本质上来讲,这里我们使用了p头自注意力机制来获得一个句子的注意力分数矩阵,自注意力分数矩阵
Figure BDA0003733390820000075
则表示它是通过第i个注意力头获得的,这里的自注意力分数矩阵Aself可以通过利用p头的自注意力机制(self-attention)来构建,它捕获单个句子的两个任意单词之间的语义关系。
23、基于方面感知注意力分数矩阵和自注意力分数矩阵,使用下述公式(3)计算注意力分数矩阵:
Figure BDA0003733390820000081
其中,Ai为注意力分数矩阵;
本质上来讲,在这里,我们将方面感知注意力机制与自注意力机制结合起来,Ai∈R(n×n)用于后面句法掩码层计算的输入,对于每个Ai,它对应着一个全连接图。
步骤三、构建句法掩码层,具体包括以下步骤:
31、对于句法依赖树中的词节点vi和vj之间的路径距离d(vi,vj),使用下述公式(4)计算vi和vj之间的最短路径距离:
D(i,j)=mind(vi,vj)(4)
32、基于最短路径距离D(i,j),使用下述公式(5)计算掩码矩阵:
Figure BDA0003733390820000082
其中,k∈[1,p],p为上述超参数,M={M1,......,Mp}。
需要说明的是,在句法掩码层,我们首先引入掩码矩阵Mk,然后针对不同的句法距离对每个全连接图进行掩码,我们将每个句法依赖树视为一个无向图,每个词都是一个节点。
在注意力层,p头注意力机制将获得p个注意力分数矩阵,因此我们将基于不同句法距离的句法掩码矩阵的数量设置为与注意力头的数量相同。当句法距离比较小时,可以学习局部信息,如果句法距离比较大,则考虑全局结构信息。
33、基于注意力分数矩阵和掩码矩阵,使用下述公式(6)计算句法掩码矩阵:
Figure BDA0003733390820000083
其中,softmax为归一化指数函数。
步骤四、计算方面词的最终隐藏状态向量,具体为使用下述公式(7)基于句法掩码矩阵对图卷积神经网络进行增强并进而获得方面词的最终隐藏状态向量:
Figure BDA0003733390820000091
其中,图卷积神经网络包含l层,l∈[1,L];hl为该图卷积神经网络第l层的输出,也即方面词的最终隐藏状态向量;hl-1为该图卷积神经网络第l层的输入;σ为非线性函数,Aij为句法掩码矩阵Amask中第i行第j列那个元素,Wl为线性变换权重矩阵,bl为偏置项,n等于上述步骤11中的n。
本质上来讲,在图卷积神经网络层,由于我们有p个不同的句法掩码矩阵,因此我们对句法掩码矩阵Amask∈R(p×n×n)进行了p次图卷积操作,p为上述超参数。
本质上来讲,基于上述公式(7)获得了最终隐藏状态向量hl,这意味着第l层图卷积神经网络中的每个节点都根据其邻居节点的特征表示进行了更新,对于a={a1,a2,......,am},则对应有更新后的隐藏状态向量序列hl a={hl a1,hl a2,......,hl am}。
步骤五、使用下述公式(8)对最终隐藏状态向量进行均值池化:
Figure BDA0003733390820000092
其中,f为均值池化函数,用于在图卷积神经网络层增强方面词的表示;
本质上来讲,在聚合来自每一层的节点表示后,我们得到最终的特征表示,通过掩码图卷积神经网络层的输出表示的非方面词,获得最终方面词的表示,然后通过均值池化操作以保留方面词表示haspect中的大部分信息。
步骤六、基于均值池化结果haspect使用下述公式(9)计算情感极性的概率分布:
p(a)=softmax(Wphaspect+bp) (9)
其中,softmax为归一化指数函数,Wp为可学习的权重矩阵,bp为偏置项,不同值的概率分布p(a)对应于一方面词的不同情感极性,如正面、负面、中性。
本质上来讲,在这里,我们获得了方面词表示(即均值池化结果haspect)后,将它输入到一个全连接层,产生了一个关于不同情感极性的概率分布p(a)。
在又一实施例中,本发明还提供了本发明还提供了一种电子设备,该电子设备包括处理器和存储器;存储器,用于存放计算机程序;处理器,用于执行存储器上所存放的程序时,实现上述方面级情感分析方法的步骤。
在又一实施例中,本发明还提供了一种计算机可读存储介质,该计算机可读存储介质内存储有计算机程序,计算机程序被处理器执行时实现上述方面级情感分析方法的步骤。
尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在不脱离本发明的原理和宗旨的情况下在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。

Claims (3)

1.一种基于增强图卷积神经网络的方面级情感分析方法,其特征在于,该方法具体包括以下步骤:
步骤一、构建输入层,具体包括以下步骤:
11、基于待分析文本构建方面词句子对(a,s);其中,s={w1,w2,......,wn},其为待分析的句子,包含n个词;a={a1,a2,......,am},其为待分析句子中的方面词的集合;
12、基于s={w1,w2,......,wn}生成对应的词嵌入序列x={x1,x2,......,xn};
13、将词嵌入序列x={x1,x2,......,xn}输入到双向长短期记忆网络中生成隐藏状态向量序列H={h1,h2,......,hn};其中,h∈R2d是在时间步t时的隐藏状态向量,d是单向长短期记忆网络输出的隐藏状态向量的维度;
14、基于隐藏状态向量序列H={h1,h2,......,hn}获得对应于a={a1,a2,......,am}的隐藏状态向量序列ha={ha1,ha2,......,ham};
步骤二、构建注意力层,具体包括以下步骤:
21、基于p头方面感知注意力机制,使用下述公式(1)计算方面感知注意力分数矩阵:
Figure FDA0003733390810000011
其中,i∈[1,p],p为超参数,方面感知注意力分数矩阵
Figure FDA0003733390810000012
表示它是通过第i个注意力头获得的;tanh为激活函数,Ha∈R(n×d)为将隐藏状态向量序列ha={ha1,ha2,......,ham}均值池化后复制n次获得的结果,Wa∈R(d×d)和Wk∈R(d×d)均是可学习参数权重矩阵,其中的d为输入节点特征的维度,K为图卷积神经网络前一层的隐藏状态向量序列,T为转置,b为偏置项;
22、基于p头自注意力机制,使用下述公式(2)计算自注意力分数矩阵:
Figure FDA0003733390810000013
其中,i∈[1,p],p为上述超参数,自注意力分数矩阵
Figure FDA0003733390810000014
表示它是通过第i个注意力头获得的;Q和K均为图卷积神经网络前一层的隐藏状态向量序列,WQ∈R(d×d)和Wk∈R(d×d)均是可学习参数权重矩阵,d为输入节点特征的维度,T为转置;
23、基于方面感知注意力分数矩阵和自注意力分数矩阵,使用下述公式(3)计算注意力分数矩阵:
Figure FDA0003733390810000021
其中,Ai为注意力分数矩阵;
步骤三、构建句法掩码层,具体包括以下步骤:
31、对于句法依赖树中词节点vi和vj之间的路径距离d(vi,vj),使用下述公式(4)计算词节点vi和vj之间的最短路径距离:
D(i,j)=mind(vi,vj) (4)
32、基于最短路径距离D(i,j),使用下述公式(5)计算掩码矩阵:
Figure FDA0003733390810000022
其中,k∈[1,p],p为上述超参数,M={M1,......,Mp};
33、基于注意力分数矩阵和掩码矩阵,使用下述公式(6)计算句法掩码矩阵:
Figure FDA0003733390810000023
其中,softmax为归一化指数函数;
步骤四、计算方面词的最终隐藏状态向量,具体为使用下述公式(7)基于句法掩码矩阵对图卷积神经网络进行增强并进而获得方面词的最终隐藏状态向量:
Figure FDA0003733390810000024
其中,图卷积神经网络包含l层,l∈[1,L];hl为该图卷积神经网络第l层的输出,也即方面词的最终隐藏状态向量;hl-1为该图卷积神经网络第l层的输入;σ为非线性函数,Aij为句法掩码矩阵Amask中第i行第j列那个元素,Wl为线性变换权重矩阵,bl为偏置项,n等于上述步骤11中的n;
对于a={a1,a2,......,am},则对应有更新后的隐藏状态向量序列
Figure FDA0003733390810000025
Figure FDA0003733390810000026
步骤五、使用下述公式(8)对最终隐藏状态向量进行均值池化:
Figure FDA0003733390810000027
其中,f为均值池化函数,用于在图卷积神经网络层增强方面词的表示;
步骤六、基于均值池化结果haspect使用下述公式(9)计算情感极性的概率分布:
p(a)=softmax(Wphaspect+bp) (9)
其中,softmax为归一化指数函数,Wp为可学习参数权重矩阵,bp为偏置项,不同值的概率分布p(a)对应于方面词的不同情感极性。
2.一种电子设备,其特征在于,该电子设备包括处理器和存储器;所述存储器,用于存放计算机程序;所述处理器,用于执行存储器上所存放的程序时,实现权利要求1所述的方面级情感分析方法的步骤。
3.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质内存储有计算机程序,所述计算机程序被处理器执行时实现权利要求1所述的方面级情感分析方法的步骤。
CN202210799260.4A 2022-07-06 2022-07-06 一种基于增强图卷积神经网络的方面级情感分析方法 Pending CN115099219A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210799260.4A CN115099219A (zh) 2022-07-06 2022-07-06 一种基于增强图卷积神经网络的方面级情感分析方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210799260.4A CN115099219A (zh) 2022-07-06 2022-07-06 一种基于增强图卷积神经网络的方面级情感分析方法

Publications (1)

Publication Number Publication Date
CN115099219A true CN115099219A (zh) 2022-09-23

Family

ID=83296265

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210799260.4A Pending CN115099219A (zh) 2022-07-06 2022-07-06 一种基于增强图卷积神经网络的方面级情感分析方法

Country Status (1)

Country Link
CN (1) CN115099219A (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115860006A (zh) * 2023-02-13 2023-03-28 广东工业大学 一种基于语义句法的方面级情感预测方法及装置
CN115936077A (zh) * 2022-12-30 2023-04-07 湖北工业大学 基于依赖树的方面级情感分析交互卷积网络
CN116595975A (zh) * 2023-07-17 2023-08-15 四川大学 一种基于句信息进行词信息增强的方面级情感分析方法
CN116662554A (zh) * 2023-07-26 2023-08-29 之江实验室 基于异构图卷积神经网络的传染病方面级情感分类方法
CN117171610A (zh) * 2023-08-03 2023-12-05 江南大学 一种基于知识增强的方面情感三元组提取方法及系统
CN117473083A (zh) * 2023-09-30 2024-01-30 齐齐哈尔大学 一种基于提示知识和混合神经网络的方面级情感分类模型

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115936077A (zh) * 2022-12-30 2023-04-07 湖北工业大学 基于依赖树的方面级情感分析交互卷积网络
CN115936077B (zh) * 2022-12-30 2023-09-15 湖北工业大学 基于依赖树的方面级情感分析交互卷积网络
CN115860006A (zh) * 2023-02-13 2023-03-28 广东工业大学 一种基于语义句法的方面级情感预测方法及装置
CN115860006B (zh) * 2023-02-13 2023-04-25 广东工业大学 一种基于语义句法的方面级情感预测方法及装置
CN116595975A (zh) * 2023-07-17 2023-08-15 四川大学 一种基于句信息进行词信息增强的方面级情感分析方法
CN116662554A (zh) * 2023-07-26 2023-08-29 之江实验室 基于异构图卷积神经网络的传染病方面级情感分类方法
CN116662554B (zh) * 2023-07-26 2023-11-14 之江实验室 基于异构图卷积神经网络的传染病方面级情感分类方法
CN117171610A (zh) * 2023-08-03 2023-12-05 江南大学 一种基于知识增强的方面情感三元组提取方法及系统
CN117171610B (zh) * 2023-08-03 2024-05-03 江南大学 一种基于知识增强的方面情感三元组提取方法及系统
CN117473083A (zh) * 2023-09-30 2024-01-30 齐齐哈尔大学 一种基于提示知识和混合神经网络的方面级情感分类模型
CN117473083B (zh) * 2023-09-30 2024-05-28 齐齐哈尔大学 一种基于提示知识和混合神经网络的方面级情感分类模型

Similar Documents

Publication Publication Date Title
CN115099219A (zh) 一种基于增强图卷积神经网络的方面级情感分析方法
CN112966074B (zh) 一种情感分析方法、装置、电子设备以及存储介质
CN109214006B (zh) 图像增强的层次化语义表示的自然语言推理方法
CN112232087B (zh) 一种基于Transformer的多粒度注意力模型的特定方面情感分析方法
US11836438B2 (en) ML using n-gram induced input representation
JP6291443B2 (ja) 接続関係推定装置、方法、及びプログラム
Nguyen et al. Quaternion graph neural networks
Haff et al. Structure learning in Bayesian Networks using regular vines
CN111274790A (zh) 基于句法依存图的篇章级事件嵌入方法及装置
CN108549703B (zh) 一种基于循环神经网络的蒙古语语言模型的训练方法
CN115510226B (zh) 一种基于图神经网络的情感分类方法
CN116304061B (zh) 基于层次文本图结构学习的文本分类方法、装置及介质
CN114692602A (zh) 一种句法信息注意力引导的图卷积网络关系抽取方法
CN111507093A (zh) 一种基于相似字典的文本攻击方法、装置及存储介质
CN114996423A (zh) 一种基于子问题剪枝的水利知识图谱复杂问答方法
CN112699222A (zh) 基于量子启发式神经网络的文本分类方法及邮件分类方法
Sharma et al. The truth is in there: Improving reasoning in language models with layer-selective rank reduction
CN115374270A (zh) 一种基于图神经网络的法律文本摘要生成方法
CN113157919A (zh) 语句文本方面级情感分类方法及系统
KR20230141683A (ko) Qa 모델을 이용하여 지식 그래프를 구축하는 방법, 장치 및 컴퓨터 프로그램
JP2017010249A (ja) パラメタ学習装置、文類似度算出装置、方法、及びプログラム
CN112100342A (zh) 一种基于知识表示学习技术的知识图谱问答方法
CN117034916A (zh) 构建词向量表示模型和词向量表示的方法、装置及设备
CN116501864A (zh) 交叉嵌入式注意力BiLSTM多标签文本分类模型、方法及设备
CN115423076A (zh) 基于两步式框架的有向超图链式预测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination