CN115510226A - 一种基于图神经网络的情感分类方法 - Google Patents

一种基于图神经网络的情感分类方法 Download PDF

Info

Publication number
CN115510226A
CN115510226A CN202211070367.1A CN202211070367A CN115510226A CN 115510226 A CN115510226 A CN 115510226A CN 202211070367 A CN202211070367 A CN 202211070367A CN 115510226 A CN115510226 A CN 115510226A
Authority
CN
China
Prior art keywords
graph
representation
text sentence
potential
emotion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202211070367.1A
Other languages
English (en)
Other versions
CN115510226B (zh
Inventor
廖清
汤思雨
柴合言
王晔
高翠芸
方滨兴
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Graduate School Harbin Institute of Technology
Original Assignee
Shenzhen Graduate School Harbin Institute of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Graduate School Harbin Institute of Technology filed Critical Shenzhen Graduate School Harbin Institute of Technology
Priority to CN202211070367.1A priority Critical patent/CN115510226B/zh
Publication of CN115510226A publication Critical patent/CN115510226A/zh
Application granted granted Critical
Publication of CN115510226B publication Critical patent/CN115510226B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • G06F16/353Clustering; Classification into predefined classes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/36Creation of semantic tools, e.g. ontology or thesauri
    • G06F16/374Thesaurus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/16Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • G06F40/211Syntactic parsing, e.g. based on context-free grammar [CFG] or unification grammars
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/237Lexical tools
    • G06F40/242Dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Pure & Applied Mathematics (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Analysis (AREA)
  • Computational Mathematics (AREA)
  • Computing Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Algebra (AREA)
  • Machine Translation (AREA)

Abstract

本申请属于自然语言处理技术领域,公开了一种基于图神经网络的情感分类方法。通过利用BERT编码器得到文本句的上下文表示;基于句法依赖树,构建初始邻接矩阵;使用Glove词向量模型将初始邻接矩阵映射成初始化邻接矩阵表示;构建根选择分数向量和初始化邻接矩阵表示输入到结构归纳器中,获取潜在图以及语义图;将潜在图和语义图输入到图卷积神经网络中得到潜在图表示和语义图表示,将其结合交互得到经过语义信息增强的潜在图表示和与潜在图交互后的语义图表示;进一步获取用于情感分析的特征表示,经过平均池化操作得到最终特征表示,输入到图卷积网络的线性层,得到文本句的情感极性。实现更好的关联方面词与意见词,提高情感分类的准确性。

Description

一种基于图神经网络的情感分类方法
技术领域
本申请涉及自然语言处理技术领域,尤其涉及一种基于图神经网络的情感分类方法。
背景技术
情感分类是自然语言处理技术领域中热门的文本分类问题,而方面级情感分析则是更加细粒度的情感分类,其主要目标是确定文本中给定具体方面词所对应的情感极性,例如积极、消极或中立。通过分析社交媒体中这些用户产生的数据,可以自动监控舆论并协助作出决策。为了将方面词和对应表达情感的意见词联系,目前的深度学习方法通常使用图卷积网络利用文本的句法依赖树对文本进行情感分析。现有的方面级情感分析方法主要分为基于各种注意力机制的深度学习方法和基于图神经网络的深度学习方法。其中基于各种注意力机制的深度学习方法将注意力机制和长短期记忆网络(LSTM)、循环神经网络(RNN)等结合,来生成特定于方面词的句子表示。但是由于社交媒体文本的句法复杂性和文本中多方面词问题,具有缺陷的注意力机制很容易受句子噪音的影响,无法成功注意到对应意见词。
更多研究者专注于探索基于图神经网络的深度学习方法,主要是可以利用输入的句子通过归纳方法自动地生成动态的为任务量身定做的潜在图。然而现有的方法使用动态生成潜在图,潜在图缺失句法依赖树的远距离句法连接关系和句法关系标签信息;其次由于归纳得到潜在图的过程中缺乏约束,导致图无法正确地关联方面词和对应的意见词,从而降低了情感分类模型的性能。
发明内容
为此,本申请的实施例提供了一种基于图神经网络的情感分类方法,实现了更好的关联方面词与意见词,提高情感分类的准确率。
第一方面,本申请提供一种基于图神经网络的情感分类方法。
本申请是通过以下技术方案得以实现的:
一种基于图神经网络的情感分类方法,所述方法包括:
将获取的文本句输入BERT编码器中,得到所述文本句的上下文表示;
基于文本句的句法依赖树,构建所述文本句的初始邻接矩阵;
使用Glove词向量模型将所述初始邻接矩阵映射成非负的初始化邻接矩阵表示;
构建根选择分数向量,将所述根选择分数向量和所述初始化邻接矩阵表示输入到结构归纳器中,基于拉普拉斯变体矩阵来计算边际概率,基于所述边际概率得到所述文本句的归纳后的潜在图Glat以及基于多头注意力机制得到所述文本句的语义图Gsem
将所述潜在图Glat和所述语义图Gsem输入到图神经网络中分别得到潜在图表示
Figure BDA0003829825780000021
和语义图表示
Figure BDA0003829825780000022
结合所述潜在图表示
Figure BDA0003829825780000023
和所述语义图表示
Figure BDA0003829825780000024
得到经过语义信息增强的潜在图表示Hg-lat和与潜在图交互后的语义图表示;
基于所述语义信息增强的潜在图表示Hg-lat和所述与潜在图交互后的语义图表示Hg-sem,通过设计掩码矩阵得到用于情感分析的特征表示,将所述特征表示进行平均池化操作得到最终特征表示,将所述最终特征表示输入到图神经网络的线性层,得到所述文本句的方面词的情感极性。
在本申请一较佳的示例中可以进一步设置为,所述将获取的文本句输入BERT编码器中的步骤还包括:
将所述文本句与所述文本句的方面词结合,并在其中加入第一预设符号和第二预设符号,得到所述文本句的方面对。
在本申请一较佳的示例中可以进一步设置为,
将单词作为节点和句法依赖树中单词之间的依赖关系类型作为边,构建所述文本句的初始邻接矩阵Aij
Figure BDA0003829825780000025
其中,rij表示文本句中第i个单词wi和第j个单词wj之间的依赖关系类型,i,j=1…n,W1 a表示线性映射层的权重,
Figure BDA0003829825780000026
表示softmax层的权重,
Figure BDA0003829825780000027
表示线性映射层的偏置,
Figure BDA0003829825780000028
表示softmax层的偏置。
在本申请一较佳的示例中可以进一步设置为,所述构建根选择分数向量表示为:
ri=exp(Wrhi+br),i=1…n
其中,Wr表示计算潜在结构根的神经网络层的权重,br表示计算潜在结构根的神经网络的偏置,hi表示输入文本句中第i个词的上下文特征。
在本申请一较佳的示例中可以进一步设置为,所述基于拉普拉斯变体矩阵来计算边际概率的步骤中拉普拉斯变体矩阵表示为:
Figure BDA0003829825780000031
边际概率表示为:
Figure BDA0003829825780000032
其中,ri表示文本句中的第i个单词被选择为潜在结构根的概率分数,Pij表示第i个单词与第j个单词之间的潜在依赖连接的边际概率,
Figure BDA0003829825780000033
表示拉普拉斯变体矩阵的对角线,
Figure BDA0003829825780000034
表示拉普拉斯变体矩阵的第j行第i列。
在本申请一较佳的示例中可以进一步设置为,在所述构建根选择分数向量,将所述根选择分数向量和所述初始化邻接矩阵表示输入到结构归纳器中,基于拉普拉斯变体矩阵来计算边际概率的步骤中引入根细化策略,具体公式为:
Figure BDA0003829825780000035
Figure BDA0003829825780000036
其中,
Figure BDA0003829825780000037
为第i个单词为结构根的概率,pi∈{0,1}表示第i个单词是否是方面词。在本申请一较佳的示例中可以进一步设置为,所述基于多头注意力机制得到所述文本句的语义图Gsem的过程表示为:
Figure BDA0003829825780000038
Figure BDA0003829825780000041
其中,K为多头自注意力机制的注意头数量,对于自注意力Q=K,
Figure BDA0003829825780000042
分别为模型的可训练参数,DH为BERT编码器输出的向量维度,Gsem即为语义图。
在本申请一较佳的示例中可以进一步设置为,所述基于所述语义信息增强的潜在图表示Hg-lat和所述与潜在图交互后的语义图表示Hg-sem,通过设计掩码矩阵得到用于情感分析的特征表示,将所述特征表示进行平均池化操作得到最终特征表示的步骤包括:
通过注意力机制获取与语义相关的潜在表征表示z:
Figure BDA0003829825780000043
z=αHg-sem
采用掩码机制将潜在表征表示z中的方面词对应位置设置为1,非方面词位置设置为0,再通过平均池化操作聚合多词词组的表征得到最终特征表示:
zABSA=aver(mask⊙z);
其中,α表示标准化后的注意力分数,aver(·)表示平均池化函数,zABSA为方面级情感分析任务的最终特征表示。
在本申请一较佳的示例中可以进一步设置为,将所述潜在图Glat和所述语义图Gscm输入到图神经网络中分别得到潜在图表示
Figure BDA0003829825780000044
和语义图表示
Figure BDA0003829825780000045
的步骤包括:
使用情感字典细化策略对潜在图表示进行约束,
获取文本句对应的情感词典向量:
Figure BDA0003829825780000046
将潜在图表示Hg-latRn×d映射为Γg-lat∈Rn×1
Figure BDA0003829825780000051
得到情感细化策略的损失函数:
Ls=(Γg-lat-lexsenti)2
其中,lexsenti为情感词典向量,分量
Figure BDA0003829825780000052
为文本句中第i个单词的情感分数,
Figure BDA0003829825780000053
为潜在图表示Hg-latRn×d的第i个单词的分量,Ls为情感细化策略的损失函数,Γg-lat表示潜在图表示映射而成的中间向量。
在本申请一较佳的示例中可以进一步设置为,所述文本句的方面词的情感极性表示为:
Figure BDA0003829825780000054
其中,
Figure BDA0003829825780000055
表示情感极性,wp和bp分别为线性层的可训练权重和偏置,zABSA为方面级情感分析任务的最终特征表示,soft max(·)表示归一化指数函数。
综上所述,与现有技术相比,本申请实施例提供的技术方案带来的有益效果至少包括:
本申请基于文本句的句法依赖树,为潜在图的结构归纳器提供文本句的初始邻接矩阵,解决了潜在图缺少句法树中依赖类型信息的问题,使得归纳后的潜在图可以感知到更多的句法关系信息;在图卷积神经网络的LatentGCN模块中使用情感字典细化策略对潜在图表示进行约束,经过指导后的潜在图表示可以融合丰富的情感信息和语义信息,潜在图得到更好的约束,使得方面词能够正确的关联意见词;经过多头注意力的语义图在图卷积过程中为潜在图补充语义信息,可以提高情感分类的准确率。
附图说明
图1为本申请一示例性实施例提供的一种基于图神经网络的情感分类方法的流程示意图。
具体实施方式
本具体实施例仅仅是对本申请的解释,其并不是对本申请的限制,本领域技术人员在阅读完本说明书后可以根据需要对本实施例做出没有创造性贡献的修改,但只要在本申请的权利要求范围内都受到专利法的保护。
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
另外,本申请中术语“和/或”,仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,本申请中字符“/”,如无特殊说明,一般表示前后关联对象是一种“或”的关系。
本申请中术语“第一”“第二”等字样用于对作用和功能基本相同的相同项或相似项进行区分,应理解,“第一”、“第二”、“第n”之间不具有逻辑或时序上的依赖关系,也不对数量和执行顺序进行限定。
下面结合说明书附图对本申请实施例作进一步详细描述。
在本申请的一个实施例中,提供一种基于图神经网络的情感分类方法,如图1所示,主要步骤描述如下:
S10:将获取的文本句输入BERT编码器中,得到所述文本句的上下文表示。
进一步的,将文本句与文本句的方面词结合,并在其中加入第一预设符号和第二预设符号,得到所述文本句的方面对。
本实施例中使用BERT编码器得到输入的文本句的上下文表示。上下文表示即为上下文的单词表示。将待分类的文本句S={w1,w2,…,wn}与该文本句的方面词A={wi,…,wj}结合,将方面词嵌入到文本句中,同时在其中加入BERT编码器需要的第一预设符号和第二预设符号,具体的第一预设符号为[CLS]符号和第二预设符号为[SEP]符号,得到文本句的方面对X=([CLS]w1,w2…,wn[SEP]wi,...,wj[SEP]),其中文本句中有n个单词,方面词中包含i-j个单词。在文本句中加入[CLS]符号和[SEP]符号,可以更好的融合文本句中各个词之间的语义信息,有利于后续的分类任务。将待分类的文本句的方面对输入到BERT编码器中,通过BERT编码器的预训练语言模型捕获文本的上下文特征,输出编码成d维的上下文表示H,其过程可以用以下公式进行形式化定义:
H=BERT(X),
其中,H表示BERT编码器的输出的上下文表示,
Figure BDA0003829825780000061
H中的每一个元素表示输入文本句中一个词的上下文特征。
S20:基于文本句的句法依赖树,构建所述文本句的初始邻接矩阵。
优选的,本实施例中通过将单词作为节点和句法依赖树中单词之间的依赖关系类型作为边,构建所述文本句的初始关系邻接矩阵Aij
Figure BDA0003829825780000071
其中,Aij为可感知句法依赖类型的初始化邻接矩阵表示,i,j=1…n,rij表示文本句中第i个单词wi和第j个单词wj之间的依赖关系类型,W1 a表示线性映射层的权重,
Figure BDA0003829825780000072
表示softmax层的权重,
Figure BDA0003829825780000073
表示线性映射层的偏置,
Figure BDA0003829825780000074
表示softmax层的偏置。
具体的,基于句子的句法依赖树,将文本句中的单词表示为节点,将句法依赖树中单词之间的依赖关系类型表示为边,构建待分类的文本句的初始关系邻接矩阵,表示所有节点的之间的依赖关系。所有节点的之间的依赖关系为R={rij},其中rij表示文本句中第i个单词wi和第j个单词wj之间的依赖关系类型,例如:nsubj,adjmod。
S30:使用Glove词向量模型将所述初始关系邻接矩阵映射成非负的初始化邻接矩阵表示。
具体的,对依赖关系R进行编码,使用Glove词向量模型将初始关系邻接矩阵中每一对rij转化为一个d维的依赖关系嵌入,接着映射成能够输入到潜在图归纳器的非负的初始化邻接矩阵表示A,A∈Rn×n
S40:构建根选择分数向量,将所述根选择分数向量和所述初始化邻接矩阵表示输入到结构归纳器中,基于拉普拉斯变体矩阵来计算边际概率,基于所述边际概率得到所述文本句的归纳后的潜在图Glat以及基于多头注意力机制得到所述文本句的语义图Gsem
具体的,本实施例中构建的根选择分数向量r,r∈R1×n,具体过程如以下公式所示:
ri=exp(Wrhi+br),i=1…n
其中,ri表示文本句中的第i个单词被选择为潜在结构根的概率分数,ri组合构成根选择分数向量,用来在归纳过程中保持以方面词为根,hi表示第i个单词的上下文特征,Wr表示计算潜在结构根的神经网络层的权重,br表示计算潜在结构根的神经网络的偏置。使用句法树的依赖关系邻接矩阵对结构归纳器进行初始化操作,可以增加潜在图缺失的句法依赖标签信息。
进一步,将根选择分数向量r和初始化邻接矩阵表示A输入到结构归纳器中。为了得到归纳后的潜在图,本实施例中使用矩阵树定理的变体来加权计算潜在图中的全部依赖结构的总和。具体的,矩阵树定理的变体为拉普拉斯变体矩阵
Figure BDA0003829825780000081
Figure BDA0003829825780000082
具体公式如下:
Figure BDA0003829825780000083
其中,ri表示文本句中的第i个单词被选择为潜在结构根的概率分数,Aij表示上述所求的可感知句法依赖类型的初始化邻接矩阵表示,Ai′j表示矩阵的第i′行,if i=j表示矩阵的对角线。
然后使用用于生成依赖结构的树归纳器解析依赖,该算法基于初始化邻接矩阵表示A和拉普拉斯变体矩阵
Figure BDA0003829825780000084
来计算边际概率以求得文本句的解析树。边际概率的计算公式具体如下:
Figure BDA0003829825780000085
其中,Pij表示第i个单词和第j个单词之间的潜在依赖连接的边际概率,即节点i,j之间是否具有潜在依赖连接的概率,
Figure BDA0003829825780000086
表示拉普拉斯变体矩阵的对角线,
Figure BDA0003829825780000087
表示拉普拉斯变体矩阵的第j行第i列。由边际概率Pij组成的加权邻接矩阵P,P∈Rn×n即为潜在图Glat
优选的,在上述过程中的结构归纳器中引入根细化策略,具体的公式如下所示:
Figure BDA0003829825780000088
其中,
Figure BDA0003829825780000089
为第i个单词为结构根的概率。
根细化策略的Lr是通过交叉熵损失函数得到的,在训练过程中通过最小化Lr可以调整潜在依赖结构以方面词为根,具体为:
Figure BDA0003829825780000091
其中,pi∈{0,1}表示第i个单词是否是方面词,Lr表示根细化策略的损失函数,Ls为情感细化策略的损失函数。引入根细化策略,可以减少无关噪音,尽量保证依赖结构为方面词为根,更好的建立方面词与意见词之间的连接。
自注意力机制可以得到文本句中任意两个单词之间的语义相似度分数,以单词作为节点,将任意两个单词之间的注意力分数作为边,可以得到文本句的语义图。具体过程如下所示的公式表示:
Figure BDA0003829825780000092
Figure BDA0003829825780000093
其中,K为多头注意力机制的注意力头数量,本发明中取K=2,对于自注意力Q=K,WK∈Rn×n,WQ∈Rn×n分别为模型的可训练参数,DH为BERT编码器输出的向量维度,Gsem表示语义图,Gsem,k表示第k个注意力头的注意力矩阵。使用多头注意力机制得到注意力分数可以避免偶然性,得到的结果具有准确性和更高的通用性。
S50:将所述潜在图Glat和所述语义图Gsem输入到图卷积神经网络中分别得到潜在图表示
Figure BDA0003829825780000094
和语义图表示
Figure BDA0003829825780000095
结合所述潜在图表示
Figure BDA0003829825780000096
和所述语义图表示
Figure BDA0003829825780000097
得到经过语义信息增强的潜在图表示Hg-lat和与潜在图交互后的语义图表示Hg-sem
需要进行说明的是,本实施例中训练一个细粒度迭代交互的图卷积网络combineGCN,包括LatentGCN模块和SematicGCN模块两部分,两个GCN模块共享网络参数,可以用来利用语义图为潜在图补充语义信息。具体的,将BERT编码器编码后的文本句的上下文表示H作为图卷积神经网络GCN初始化节点输入,将上下文表示H和潜在图Glat输入LatentGCN模块得到潜在图表示
Figure BDA0003829825780000098
将上下文表示H和语义图Gsem输入SematicGCN模块得到语义图表示
Figure BDA0003829825780000099
接着结合LatentGCN模块输出的潜在图表示
Figure BDA00038298257800000910
和SematicGCN模块输出的语义图表示
Figure BDA0003829825780000101
得到图卷积网络combineGCN的输出
Figure BDA0003829825780000102
并通过sigmoid激活后的潜在图表示
Figure BDA0003829825780000103
来控制潜在图表示
Figure BDA0003829825780000104
和语义图表示
Figure BDA0003829825780000105
的交互程度。另外,在combineGCN迭代到下一层前,本实施例中使用当前层输入hl-1得到控制因子w1,具体的当前层输入hl-1是BERT编码器输出的文本句的上下文表示H。可以避免图卷积网络combineGCN随着迭代变得平滑并且由于深度增加而损失信息。经过控制因子w1控制,combineGCN的输出
Figure BDA0003829825780000106
和当前层输入hl-1共同得到经过细粒度调整后的combineGCN的第l层的输出hl,具体公式可以通过以下公式进行表示:
Figure BDA0003829825780000107
Figure BDA0003829825780000108
Figure BDA0003829825780000109
Figure BDA00038298257800001010
ωl=σ(hl-1)
Figure BDA00038298257800001011
Figure BDA00038298257800001012
其中,hl-1为当前层输入,初始化为h0为BERT编码器输出的上下文表示H,hl为combineGCN的第l层的输出,1∈[1,L]。
Figure BDA00038298257800001013
Figure BDA00038298257800001014
为线性层的可训练权重和偏置,ρ∈[0,1]是包含先验知识的超参数,用来控制语义图和潜在图的交互程度。Wl是combineGCN第l层的可训练参数,被潜在图Glat和语义图Gsem所共享,这样可以使得潜在图Glat在迭代过程中逐渐融合语义图Gsem的信息,并最终输出有语义信息增强的潜在图表示HL,记为Hg-lat,同时输出最后一层的与潜在图交互的语义图表示
Figure BDA00038298257800001015
记为Hg-sem
为解决这个问题,本实施例中使用情感词典细化策略在LatentGCN模块中,对潜在图表示进行约束,重新制定损失函数,使得方面词能更好地关联意见词,潜在图可以更好的工作。具体的,本实施例中,使用SenticNet 6情感词典,给定一个文本句,在SenticNet 6情感词典中的单词会被标记对应的情感分数,若不存在与情感词典中的单词标记则标记为0,以此获得文本句对应的情感词典向量lexsenti,lexsenti∈Rn×n,同时将潜在图表示Hg-latRn×d映射为
Γg-lat∈Rn×1。具体以下公式所示:
Figure BDA0003829825780000111
Figure BDA0003829825780000112
Ls=(Γg-lat-lexsenti)2
其中,lexsenti为情感词典向量,分量
Figure BDA0003829825780000113
为文本句中第i个单词的情感分数,
Figure BDA0003829825780000114
为潜在图表示Hg-latRn×d的第i个单词的分量,Ls为情感细化策略的损失函数。Γg-lat表示潜在图表示映射而成的中间向量。
将情感细化策略的损失函数Ls加入到原先只有情感分类任务的交叉熵损失之后,通过最小化损失,使得理想情况下lexsenti更接近Γg-lat,使得模型更多注意到文本句中表达情感的意见词,进一步提高方面级情感分析的准确度。
最终图卷积神经网络最终损失函数为:
Figure BDA0003829825780000115
其中,
Figure BDA0003829825780000116
是为方面级情感分析任务定义的交叉熵损失:
Figure BDA0003829825780000117
Θ代表模型全部可训练的参数,λ、μ1、μ2是对应损失项的系数,Lr为根细化策略的损失函数,D包含了所有的句子方面对,y(s,a)为其中一个句子方面对中方面词的实际情感极性。使用带情感词典细化策略的约束图卷积神经网络,使用从情感词典中得到的文本句的额外情感信息,来辅助图卷积神经网络更好的使文本句中方面词联系到意见词。
S60:基于所述语义信息增强的潜在图表示Hg-lat和所述与潜在图交互后的语义图表示Hg-sem,通过设计掩码矩阵得到用于情感分析的特征表示,将所述特征表示进行平均池化操作得到最终特征表示,将所述最终特征表示输入到图卷积网络的线性层,得到所述文本句的方面词的情感极性。
具体的,经过上述图卷积神经网络的迭代之后,得到了富含更多有用信息的有语义信息增强的潜在图表示Hg-lat和潜在图交互的语义图表示Hg-sem。接下来使用注意力机制来获取与语义相关的更丰富的潜在表征表示z,具体公式如下所示:
Figure BDA0003829825780000121
z=αHg-sem
其中,α表示标准化后的注意力分数。
进一步地,为了获得与方面词相关的表示,采用掩码机制得到用于方面级情感分析的特征表示,具体的通过设计掩码矩阵,将潜在表征表示z中的表示方面词的单词对应的位置设置为1,非表示方面词的单词对应的位置设置为0。同时因为表示当面的单词中存在多词词组,本实施例中采用平均池化操作对多词词组的表征进行聚合,得到最终特征表示:
zABSA=aver(mask⊙z)
其中,aver(·)表示平均池化函数,zABSA为方面级情感分析任务的最终特征表示。
然后将最终特征表示zABSA输入到图卷积神经网络的线性层,经过soft max(·)归一化指数函数预测对文本句中的方面词的情感极性
Figure BDA0003829825780000122
情感极性
Figure BDA0003829825780000123
表示为:
Figure BDA0003829825780000124
其中,wp和bp分别为线性层的可训练权重和偏置。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将本申请所述系统的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。

Claims (10)

1.一种基于图神经网络的情感分类方法,其特征在于,所述方法包括:
将获取的文本句输入BERT编码器中,得到所述文本句的上下文表示;
基于文本句的句法依赖树,构建所述文本句的初始邻接矩阵;
使用Glove词向量模型将所述初始邻接矩阵映射成非负的初始化邻接矩阵表示;
构建根选择分数向量,将所述根选择分数向量和所述初始化邻接矩阵表示输入到结构归纳器中,基于拉普拉斯变体矩阵来计算边际概率,基于所述边际概率得到所述文本句的归纳后的潜在图Glat以及基于多头注意力机制得到所述文本句的语义图Gsem
将所述潜在图Glat和所述语义图Gsem输入到图神经网络中分别得到潜在图表示
Figure FDA0003829825770000011
和语义图表示
Figure FDA0003829825770000012
结合所述潜在图表示
Figure FDA0003829825770000013
和所述语义图表示
Figure FDA0003829825770000014
得到经过语义信息增强的潜在图表示Hg-lat和与潜在图交互后的语义图表示Hg-sem
基于所述语义信息增强的潜在图表示Hg-lat和所述与潜在图交互后的语义图表示Hg-sem,通过设计掩码矩阵得到用于情感分析的特征表示,将所述特征表示进行平均池化操作得到最终特征表示,将所述最终特征表示输入到图神经网络的线性层,得到所述文本句的方面词的情感极性。
2.根据权利要求1所述的基于图神经网络的情感分类方法,其特征在于,所述将获取的文本句输入BERT编码器中的步骤还包括:
将所述文本句与所述文本句的方面词结合,并在其中加入第一预设符号和第二预设符号,得到所述文本句的方面对。
3.根据权利要求1所述的基于图神经网络的情感分类方法,其特征在于,所述基于文本句的句法依赖树,构建所述文本句的初始邻接矩阵的步骤包括:
将单词作为节点和句法依赖树中单词之间的依赖关系类型作为边,构建所述文本句的初始邻接矩阵Aij
Figure FDA0003829825770000015
其中,rij表示文本句中第i个单词wi和第j个单词wj之间的依赖关系类型,i,j=1...n,W1 a表示线性映射层的权重,
Figure FDA0003829825770000021
表示softmax层的权重,
Figure FDA0003829825770000022
表示线性映射层的偏置,
Figure FDA0003829825770000023
表示softmax层的偏置。
4.根据权利要求1所述的基于图神经网络的情感分类方法,其特征在于,所述构建根选择分数向量表示为:
ri=exp(Wrhi+br),i=1...n,
其中,Wr表示计算潜在结构根的神经网络层的权重,br表示计算潜在结构根的神经网络的偏置,hi表示输入文本句中第i个词的上下文特征。
5.根据权利要求1所述的基于图神经网络的情感分类方法,其特征在于,所述拉普拉斯变体矩阵表示为:
Figure FDA0003829825770000024
边际概率表示为:
Figure FDA0003829825770000025
其中,ri表示文本句中的第i个单词被选择为潜在结构根的概率分数,Pij表示第i个单词与第j个单词之间的潜在依赖连接的边际概率,
Figure FDA0003829825770000026
表示拉普拉斯变体矩阵的对角线,
Figure FDA0003829825770000027
表示拉普拉斯变体矩阵的第j行第i列。
6.根据权利要求1所述的基于图神经网络的情感分类方法,其特征在于,在所述构建根选择分数向量,将所述根选择分数向量和所述初始化邻接矩阵表示输入到结构归纳器中,基于拉普拉斯变体矩阵来计算边际概率的步骤中引入根细化策略,具体公式为:
Figure FDA0003829825770000031
Figure FDA0003829825770000032
其中,
Figure FDA0003829825770000033
为第i个单词为结构根的概率,pi∈{0,1}表示第i个单词是否是方面词。
7.根据权利要求1所述的基于图神经网络的情感分类方法,其特征在于,所述基于多头注意力机制得到所述文本句的语义图Gsem的过程表示为:
Figure FDA0003829825770000034
Figure FDA0003829825770000035
其中,K为多头自注意力机制的注意头数量,对于自注意力Q=K,
Figure FDA0003829825770000036
分别为模型的可训练参数,Du为BERT编码器输出的向量维度,Gsem即为语义图。
8.根据权利要求1所述的基于图神经网络的情感分类方法,其特征在于,所述基于所述语义信息增强的潜在图表示Hg-lat和所述与潜在图交互后的语义图表示Hg-sem,通过设计掩码矩阵得到用于情感分析的特征表示,将所述特征表示进行平均池化操作得到最终特征表示的步骤包括:
通过注意力机制获取与语义相关的潜在表征表示z:
Figure FDA0003829825770000037
采用掩码机制将潜在表征表示z中的方面词对应位置设置为1,非方面词位置设置为0,
再通过平均池化操作聚合多词词组的表征得到最终特征表示:
ZABSA=aver(mask⊙z);
其中,α表示标准化后的注意力分数,aver(·)表示平均池化函数,zABSA为方面级情感分析任务的最终特征表示。
9.根据权利要求1所述的基于图神经网络的情感分类方法,其特征在于,将所述潜在图Glat和所述语义图Gsem输入到图神经网络中分别得到潜在图表示
Figure FDA0003829825770000041
和语义图表示
Figure FDA0003829825770000042
的步骤包括:
使用情感字典细化策略对潜在图表示
Figure FDA0003829825770000043
进行约束,
获取文本句对应的情感词典向量:
Figure FDA0003829825770000044
将潜在图表示Hg-latRn×d映射为Γg-lat∈Rn×1
Figure FDA0003829825770000045
得到情感细化策略的损失函数Ls:
Ls=(Γg-lat-lexsenti)2
其中,lexsenti为情感词典向量,分量
Figure FDA0003829825770000046
为文本句中第i个单词的情感分数,
Figure FDA0003829825770000047
为潜在图表示Hg-latRn×d的第i个单词的分量,Ls为情感细化策略的损失函数,Γg-lat表示潜在图表示映射而成的中间向量。
10.根据权利要求1所述的基于图神经网络的情感分类方法,其特征在于,所述文本句的方面词的情感极性表示为:
Figure FDA0003829825770000048
其中,
Figure FDA0003829825770000051
表示情感极性,wp和bp分别为线性层的可训练权重和偏置,zABSA为方面级情感分析任务的最终特征表示,softmax(·)表示归一化指数函数。
CN202211070367.1A 2022-09-02 2022-09-02 一种基于图神经网络的情感分类方法 Active CN115510226B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211070367.1A CN115510226B (zh) 2022-09-02 2022-09-02 一种基于图神经网络的情感分类方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211070367.1A CN115510226B (zh) 2022-09-02 2022-09-02 一种基于图神经网络的情感分类方法

Publications (2)

Publication Number Publication Date
CN115510226A true CN115510226A (zh) 2022-12-23
CN115510226B CN115510226B (zh) 2023-11-10

Family

ID=84502816

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211070367.1A Active CN115510226B (zh) 2022-09-02 2022-09-02 一种基于图神经网络的情感分类方法

Country Status (1)

Country Link
CN (1) CN115510226B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115858792A (zh) * 2023-02-20 2023-03-28 山东省计算中心(国家超级计算济南中心) 基于图神经网络的招标项目名称短文本分类方法及系统
CN116304748A (zh) * 2023-05-17 2023-06-23 成都工业学院 一种文本相似度计算方法、系统、设备及介质
CN117171610A (zh) * 2023-08-03 2023-12-05 江南大学 一种基于知识增强的方面情感三元组提取方法及系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112966074A (zh) * 2021-05-17 2021-06-15 华南师范大学 一种情感分析方法、装置、电子设备以及存储介质
CN113449110A (zh) * 2021-08-30 2021-09-28 华南师范大学 情感分类方法、装置、存储介质及计算机设备
CN113987167A (zh) * 2021-10-11 2022-01-28 山东师范大学 基于依赖感知图卷积网络的方面级情感分类方法及系统
US20220092267A1 (en) * 2020-09-23 2022-03-24 Jingdong Digits Technology Holding Co., Ltd. Method and system for aspect-level sentiment classification by graph diffusion transformer

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220092267A1 (en) * 2020-09-23 2022-03-24 Jingdong Digits Technology Holding Co., Ltd. Method and system for aspect-level sentiment classification by graph diffusion transformer
CN112966074A (zh) * 2021-05-17 2021-06-15 华南师范大学 一种情感分析方法、装置、电子设备以及存储介质
CN113449110A (zh) * 2021-08-30 2021-09-28 华南师范大学 情感分类方法、装置、存储介质及计算机设备
CN113987167A (zh) * 2021-10-11 2022-01-28 山东师范大学 基于依赖感知图卷积网络的方面级情感分类方法及系统

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
SIYU TANG 等: "Affective Knowledge Enhanced Multiple-Graph Fusion Networks for Aspect-based Sentiment Analysis", PROCEEDINGS OF THE 2022 CONFERENCE ON EMPIRICAL METHODS IN NATURAL LANGUAGE PROCESSING, pages 5352 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115858792A (zh) * 2023-02-20 2023-03-28 山东省计算中心(国家超级计算济南中心) 基于图神经网络的招标项目名称短文本分类方法及系统
CN115858792B (zh) * 2023-02-20 2023-06-09 山东省计算中心(国家超级计算济南中心) 基于图神经网络的招标项目名称短文本分类方法及系统
CN116304748A (zh) * 2023-05-17 2023-06-23 成都工业学院 一种文本相似度计算方法、系统、设备及介质
CN117171610A (zh) * 2023-08-03 2023-12-05 江南大学 一种基于知识增强的方面情感三元组提取方法及系统
CN117171610B (zh) * 2023-08-03 2024-05-03 江南大学 一种基于知识增强的方面情感三元组提取方法及系统

Also Published As

Publication number Publication date
CN115510226B (zh) 2023-11-10

Similar Documents

Publication Publication Date Title
CN108319686B (zh) 基于受限文本空间的对抗性跨媒体检索方法
CN108549658B (zh) 一种基于语法分析树上注意力机制的深度学习视频问答方法及系统
CN110321563B (zh) 基于混合监督模型的文本情感分析方法
CN109344404B (zh) 情境感知的双重注意力自然语言推理方法
CN115510226A (zh) 一种基于图神经网络的情感分类方法
CN110674850A (zh) 一种基于注意力机制的图像描述生成方法
WO2023225858A1 (zh) 一种基于常识推理的阅读型考题生成系统及方法
CN111666409B (zh) 一种基于综合深度胶囊网络的复杂评论文本的整体情感智能分类方法
WO2022161470A1 (zh) 内容的评价方法、装置、设备及介质
CN112905795A (zh) 文本意图分类的方法、装置和可读介质
CN112749274B (zh) 基于注意力机制和干扰词删除的中文文本分类方法
Tang et al. Modelling student behavior using granular large scale action data from a MOOC
CN113326374B (zh) 基于特征增强的短文本情感分类方法及系统
CN112256866A (zh) 一种基于深度学习的文本细粒度情感分析方法
CN112948558B (zh) 面向开放域对话系统的上下文增强的问题生成方法及装置
CN113987167A (zh) 基于依赖感知图卷积网络的方面级情感分类方法及系统
CN110866113A (zh) 基于稀疏自注意力机制微调伯特模型的文本分类方法
CN111651973A (zh) 一种基于句法感知的文本匹配方法
CN114429143A (zh) 一种基于强化蒸馏的跨语言属性级情感分类方法
CN111507093A (zh) 一种基于相似字典的文本攻击方法、装置及存储介质
CN116028604A (zh) 一种基于知识增强图卷积网络的答案选择方法及系统
CN111538838A (zh) 基于文章的问题生成方法
CN113268565B (zh) 一种基于概念文本的词向量快速生成方法和装置
CN113486143A (zh) 一种基于多层级文本表示及模型融合的用户画像生成方法
CN113705207A (zh) 语法错误识别方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant