CN115510226A - 一种基于图神经网络的情感分类方法 - Google Patents
一种基于图神经网络的情感分类方法 Download PDFInfo
- Publication number
- CN115510226A CN115510226A CN202211070367.1A CN202211070367A CN115510226A CN 115510226 A CN115510226 A CN 115510226A CN 202211070367 A CN202211070367 A CN 202211070367A CN 115510226 A CN115510226 A CN 115510226A
- Authority
- CN
- China
- Prior art keywords
- graph
- representation
- text sentence
- potential
- emotion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000008451 emotion Effects 0.000 title claims abstract description 75
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 39
- 238000000034 method Methods 0.000 title claims abstract description 36
- 239000011159 matrix material Substances 0.000 claims abstract description 59
- 238000004458 analytical method Methods 0.000 claims abstract description 16
- 238000011176 pooling Methods 0.000 claims abstract description 14
- 230000003993 interaction Effects 0.000 claims abstract description 12
- 238000013507 mapping Methods 0.000 claims abstract description 11
- 230000006698 induction Effects 0.000 claims abstract description 9
- 230000007246 mechanism Effects 0.000 claims description 18
- 230000008569 process Effects 0.000 claims description 8
- 238000007670 refining Methods 0.000 claims description 8
- 238000012512 characterization method Methods 0.000 claims description 7
- 230000001419 dependent effect Effects 0.000 claims description 7
- 238000010586 diagram Methods 0.000 claims description 4
- 230000002996 emotional effect Effects 0.000 claims description 3
- 230000000873 masking effect Effects 0.000 claims 1
- 230000000379 polymerizing effect Effects 0.000 claims 1
- 238000003058 natural language processing Methods 0.000 abstract description 3
- 230000006870 function Effects 0.000 description 16
- 238000013135 deep learning Methods 0.000 description 5
- 238000012549 training Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 239000013589 supplement Substances 0.000 description 2
- 241001235534 Graphis <ascomycete fungus> Species 0.000 description 1
- 230000004931 aggregating effect Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000013145 classification model Methods 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000012804 iterative process Methods 0.000 description 1
- 230000007935 neutral effect Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
- G06F16/353—Clustering; Classification into predefined classes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/36—Creation of semantic tools, e.g. ontology or thesauri
- G06F16/374—Thesaurus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/16—Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
- G06F40/211—Syntactic parsing, e.g. based on context-free grammar [CFG] or unification grammars
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/237—Lexical tools
- G06F40/242—Dictionaries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Mathematical Physics (AREA)
- Databases & Information Systems (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Software Systems (AREA)
- Mathematical Analysis (AREA)
- Computing Systems (AREA)
- Computational Mathematics (AREA)
- Machine Translation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Algebra (AREA)
Abstract
本申请属于自然语言处理技术领域,公开了一种基于图神经网络的情感分类方法。通过利用BERT编码器得到文本句的上下文表示;基于句法依赖树,构建初始邻接矩阵;使用Glove词向量模型将初始邻接矩阵映射成初始化邻接矩阵表示;构建根选择分数向量和初始化邻接矩阵表示输入到结构归纳器中,获取潜在图以及语义图;将潜在图和语义图输入到图卷积神经网络中得到潜在图表示和语义图表示,将其结合交互得到经过语义信息增强的潜在图表示和与潜在图交互后的语义图表示;进一步获取用于情感分析的特征表示,经过平均池化操作得到最终特征表示,输入到图卷积网络的线性层,得到文本句的情感极性。实现更好的关联方面词与意见词,提高情感分类的准确性。
Description
技术领域
本申请涉及自然语言处理技术领域,尤其涉及一种基于图神经网络的情感分类方法。
背景技术
情感分类是自然语言处理技术领域中热门的文本分类问题,而方面级情感分析则是更加细粒度的情感分类,其主要目标是确定文本中给定具体方面词所对应的情感极性,例如积极、消极或中立。通过分析社交媒体中这些用户产生的数据,可以自动监控舆论并协助作出决策。为了将方面词和对应表达情感的意见词联系,目前的深度学习方法通常使用图卷积网络利用文本的句法依赖树对文本进行情感分析。现有的方面级情感分析方法主要分为基于各种注意力机制的深度学习方法和基于图神经网络的深度学习方法。其中基于各种注意力机制的深度学习方法将注意力机制和长短期记忆网络(LSTM)、循环神经网络(RNN)等结合,来生成特定于方面词的句子表示。但是由于社交媒体文本的句法复杂性和文本中多方面词问题,具有缺陷的注意力机制很容易受句子噪音的影响,无法成功注意到对应意见词。
更多研究者专注于探索基于图神经网络的深度学习方法,主要是可以利用输入的句子通过归纳方法自动地生成动态的为任务量身定做的潜在图。然而现有的方法使用动态生成潜在图,潜在图缺失句法依赖树的远距离句法连接关系和句法关系标签信息;其次由于归纳得到潜在图的过程中缺乏约束,导致图无法正确地关联方面词和对应的意见词,从而降低了情感分类模型的性能。
发明内容
为此,本申请的实施例提供了一种基于图神经网络的情感分类方法,实现了更好的关联方面词与意见词,提高情感分类的准确率。
第一方面,本申请提供一种基于图神经网络的情感分类方法。
本申请是通过以下技术方案得以实现的:
一种基于图神经网络的情感分类方法,所述方法包括:
将获取的文本句输入BERT编码器中,得到所述文本句的上下文表示;
基于文本句的句法依赖树,构建所述文本句的初始邻接矩阵;
使用Glove词向量模型将所述初始邻接矩阵映射成非负的初始化邻接矩阵表示;
构建根选择分数向量,将所述根选择分数向量和所述初始化邻接矩阵表示输入到结构归纳器中,基于拉普拉斯变体矩阵来计算边际概率,基于所述边际概率得到所述文本句的归纳后的潜在图Glat以及基于多头注意力机制得到所述文本句的语义图Gsem;
基于所述语义信息增强的潜在图表示Hg-lat和所述与潜在图交互后的语义图表示Hg-sem,通过设计掩码矩阵得到用于情感分析的特征表示,将所述特征表示进行平均池化操作得到最终特征表示,将所述最终特征表示输入到图神经网络的线性层,得到所述文本句的方面词的情感极性。
在本申请一较佳的示例中可以进一步设置为,所述将获取的文本句输入BERT编码器中的步骤还包括:
将所述文本句与所述文本句的方面词结合,并在其中加入第一预设符号和第二预设符号,得到所述文本句的方面对。
在本申请一较佳的示例中可以进一步设置为,
将单词作为节点和句法依赖树中单词之间的依赖关系类型作为边,构建所述文本句的初始邻接矩阵Aij:
在本申请一较佳的示例中可以进一步设置为,所述构建根选择分数向量表示为:
ri=exp(Wrhi+br),i=1…n
其中,Wr表示计算潜在结构根的神经网络层的权重,br表示计算潜在结构根的神经网络的偏置,hi表示输入文本句中第i个词的上下文特征。
在本申请一较佳的示例中可以进一步设置为,所述基于拉普拉斯变体矩阵来计算边际概率的步骤中拉普拉斯变体矩阵表示为:
边际概率表示为:
在本申请一较佳的示例中可以进一步设置为,在所述构建根选择分数向量,将所述根选择分数向量和所述初始化邻接矩阵表示输入到结构归纳器中,基于拉普拉斯变体矩阵来计算边际概率的步骤中引入根细化策略,具体公式为:
在本申请一较佳的示例中可以进一步设置为,所述基于所述语义信息增强的潜在图表示Hg-lat和所述与潜在图交互后的语义图表示Hg-sem,通过设计掩码矩阵得到用于情感分析的特征表示,将所述特征表示进行平均池化操作得到最终特征表示的步骤包括:
通过注意力机制获取与语义相关的潜在表征表示z:
z=αHg-sem
采用掩码机制将潜在表征表示z中的方面词对应位置设置为1,非方面词位置设置为0,再通过平均池化操作聚合多词词组的表征得到最终特征表示:
zABSA=aver(mask⊙z);
其中,α表示标准化后的注意力分数,aver(·)表示平均池化函数,zABSA为方面级情感分析任务的最终特征表示。
使用情感字典细化策略对潜在图表示进行约束,
获取文本句对应的情感词典向量:
将潜在图表示Hg-latRn×d映射为Γg-lat∈Rn×1:
得到情感细化策略的损失函数:
Ls=(Γg-lat-lexsenti)2
其中,lexsenti为情感词典向量,分量为文本句中第i个单词的情感分数,为潜在图表示Hg-latRn×d的第i个单词的分量,Ls为情感细化策略的损失函数,Γg-lat表示潜在图表示映射而成的中间向量。
在本申请一较佳的示例中可以进一步设置为,所述文本句的方面词的情感极性表示为:
综上所述,与现有技术相比,本申请实施例提供的技术方案带来的有益效果至少包括:
本申请基于文本句的句法依赖树,为潜在图的结构归纳器提供文本句的初始邻接矩阵,解决了潜在图缺少句法树中依赖类型信息的问题,使得归纳后的潜在图可以感知到更多的句法关系信息;在图卷积神经网络的LatentGCN模块中使用情感字典细化策略对潜在图表示进行约束,经过指导后的潜在图表示可以融合丰富的情感信息和语义信息,潜在图得到更好的约束,使得方面词能够正确的关联意见词;经过多头注意力的语义图在图卷积过程中为潜在图补充语义信息,可以提高情感分类的准确率。
附图说明
图1为本申请一示例性实施例提供的一种基于图神经网络的情感分类方法的流程示意图。
具体实施方式
本具体实施例仅仅是对本申请的解释,其并不是对本申请的限制,本领域技术人员在阅读完本说明书后可以根据需要对本实施例做出没有创造性贡献的修改,但只要在本申请的权利要求范围内都受到专利法的保护。
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
另外,本申请中术语“和/或”,仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,本申请中字符“/”,如无特殊说明,一般表示前后关联对象是一种“或”的关系。
本申请中术语“第一”“第二”等字样用于对作用和功能基本相同的相同项或相似项进行区分,应理解,“第一”、“第二”、“第n”之间不具有逻辑或时序上的依赖关系,也不对数量和执行顺序进行限定。
下面结合说明书附图对本申请实施例作进一步详细描述。
在本申请的一个实施例中,提供一种基于图神经网络的情感分类方法,如图1所示,主要步骤描述如下:
S10:将获取的文本句输入BERT编码器中,得到所述文本句的上下文表示。
进一步的,将文本句与文本句的方面词结合,并在其中加入第一预设符号和第二预设符号,得到所述文本句的方面对。
本实施例中使用BERT编码器得到输入的文本句的上下文表示。上下文表示即为上下文的单词表示。将待分类的文本句S={w1,w2,…,wn}与该文本句的方面词A={wi,…,wj}结合,将方面词嵌入到文本句中,同时在其中加入BERT编码器需要的第一预设符号和第二预设符号,具体的第一预设符号为[CLS]符号和第二预设符号为[SEP]符号,得到文本句的方面对X=([CLS]w1,w2…,wn[SEP]wi,...,wj[SEP]),其中文本句中有n个单词,方面词中包含i-j个单词。在文本句中加入[CLS]符号和[SEP]符号,可以更好的融合文本句中各个词之间的语义信息,有利于后续的分类任务。将待分类的文本句的方面对输入到BERT编码器中,通过BERT编码器的预训练语言模型捕获文本的上下文特征,输出编码成d维的上下文表示H,其过程可以用以下公式进行形式化定义:
H=BERT(X),
S20:基于文本句的句法依赖树,构建所述文本句的初始邻接矩阵。
优选的,本实施例中通过将单词作为节点和句法依赖树中单词之间的依赖关系类型作为边,构建所述文本句的初始关系邻接矩阵Aij:
其中,Aij为可感知句法依赖类型的初始化邻接矩阵表示,i,j=1…n,rij表示文本句中第i个单词wi和第j个单词wj之间的依赖关系类型,W1 a表示线性映射层的权重,表示softmax层的权重,表示线性映射层的偏置,表示softmax层的偏置。
具体的,基于句子的句法依赖树,将文本句中的单词表示为节点,将句法依赖树中单词之间的依赖关系类型表示为边,构建待分类的文本句的初始关系邻接矩阵,表示所有节点的之间的依赖关系。所有节点的之间的依赖关系为R={rij},其中rij表示文本句中第i个单词wi和第j个单词wj之间的依赖关系类型,例如:nsubj,adjmod。
S30:使用Glove词向量模型将所述初始关系邻接矩阵映射成非负的初始化邻接矩阵表示。
具体的,对依赖关系R进行编码,使用Glove词向量模型将初始关系邻接矩阵中每一对rij转化为一个d维的依赖关系嵌入,接着映射成能够输入到潜在图归纳器的非负的初始化邻接矩阵表示A,A∈Rn×n。
S40:构建根选择分数向量,将所述根选择分数向量和所述初始化邻接矩阵表示输入到结构归纳器中,基于拉普拉斯变体矩阵来计算边际概率,基于所述边际概率得到所述文本句的归纳后的潜在图Glat以及基于多头注意力机制得到所述文本句的语义图Gsem;
具体的,本实施例中构建的根选择分数向量r,r∈R1×n,具体过程如以下公式所示:
ri=exp(Wrhi+br),i=1…n
其中,ri表示文本句中的第i个单词被选择为潜在结构根的概率分数,ri组合构成根选择分数向量,用来在归纳过程中保持以方面词为根,hi表示第i个单词的上下文特征,Wr表示计算潜在结构根的神经网络层的权重,br表示计算潜在结构根的神经网络的偏置。使用句法树的依赖关系邻接矩阵对结构归纳器进行初始化操作,可以增加潜在图缺失的句法依赖标签信息。
进一步,将根选择分数向量r和初始化邻接矩阵表示A输入到结构归纳器中。为了得到归纳后的潜在图,本实施例中使用矩阵树定理的变体来加权计算潜在图中的全部依赖结构的总和。具体的,矩阵树定理的变体为拉普拉斯变体矩阵 具体公式如下:
其中,ri表示文本句中的第i个单词被选择为潜在结构根的概率分数,Aij表示上述所求的可感知句法依赖类型的初始化邻接矩阵表示,Ai′j表示矩阵的第i′行,if i=j表示矩阵的对角线。
其中,Pij表示第i个单词和第j个单词之间的潜在依赖连接的边际概率,即节点i,j之间是否具有潜在依赖连接的概率,表示拉普拉斯变体矩阵的对角线,表示拉普拉斯变体矩阵的第j行第i列。由边际概率Pij组成的加权邻接矩阵P,P∈Rn×n即为潜在图Glat。
优选的,在上述过程中的结构归纳器中引入根细化策略,具体的公式如下所示:
根细化策略的Lr是通过交叉熵损失函数得到的,在训练过程中通过最小化Lr可以调整潜在依赖结构以方面词为根,具体为:
其中,pi∈{0,1}表示第i个单词是否是方面词,Lr表示根细化策略的损失函数,Ls为情感细化策略的损失函数。引入根细化策略,可以减少无关噪音,尽量保证依赖结构为方面词为根,更好的建立方面词与意见词之间的连接。
自注意力机制可以得到文本句中任意两个单词之间的语义相似度分数,以单词作为节点,将任意两个单词之间的注意力分数作为边,可以得到文本句的语义图。具体过程如下所示的公式表示:
其中,K为多头注意力机制的注意力头数量,本发明中取K=2,对于自注意力Q=K,WK∈Rn×n,WQ∈Rn×n分别为模型的可训练参数,DH为BERT编码器输出的向量维度,Gsem表示语义图,Gsem,k表示第k个注意力头的注意力矩阵。使用多头注意力机制得到注意力分数可以避免偶然性,得到的结果具有准确性和更高的通用性。
S50:将所述潜在图Glat和所述语义图Gsem输入到图卷积神经网络中分别得到潜在图表示和语义图表示结合所述潜在图表示和所述语义图表示得到经过语义信息增强的潜在图表示Hg-lat和与潜在图交互后的语义图表示Hg-sem;
需要进行说明的是,本实施例中训练一个细粒度迭代交互的图卷积网络combineGCN,包括LatentGCN模块和SematicGCN模块两部分,两个GCN模块共享网络参数,可以用来利用语义图为潜在图补充语义信息。具体的,将BERT编码器编码后的文本句的上下文表示H作为图卷积神经网络GCN初始化节点输入,将上下文表示H和潜在图Glat输入LatentGCN模块得到潜在图表示将上下文表示H和语义图Gsem输入SematicGCN模块得到语义图表示接着结合LatentGCN模块输出的潜在图表示和SematicGCN模块输出的语义图表示得到图卷积网络combineGCN的输出并通过sigmoid激活后的潜在图表示来控制潜在图表示和语义图表示的交互程度。另外,在combineGCN迭代到下一层前,本实施例中使用当前层输入hl-1得到控制因子w1,具体的当前层输入hl-1是BERT编码器输出的文本句的上下文表示H。可以避免图卷积网络combineGCN随着迭代变得平滑并且由于深度增加而损失信息。经过控制因子w1控制,combineGCN的输出和当前层输入hl-1共同得到经过细粒度调整后的combineGCN的第l层的输出hl,具体公式可以通过以下公式进行表示:
ωl=σ(hl-1)
其中,hl-1为当前层输入,初始化为h0为BERT编码器输出的上下文表示H,hl为combineGCN的第l层的输出,1∈[1,L]。和为线性层的可训练权重和偏置,ρ∈[0,1]是包含先验知识的超参数,用来控制语义图和潜在图的交互程度。Wl是combineGCN第l层的可训练参数,被潜在图Glat和语义图Gsem所共享,这样可以使得潜在图Glat在迭代过程中逐渐融合语义图Gsem的信息,并最终输出有语义信息增强的潜在图表示HL,记为Hg-lat,同时输出最后一层的与潜在图交互的语义图表示记为Hg-sem。
为解决这个问题,本实施例中使用情感词典细化策略在LatentGCN模块中,对潜在图表示进行约束,重新制定损失函数,使得方面词能更好地关联意见词,潜在图可以更好的工作。具体的,本实施例中,使用SenticNet 6情感词典,给定一个文本句,在SenticNet 6情感词典中的单词会被标记对应的情感分数,若不存在与情感词典中的单词标记则标记为0,以此获得文本句对应的情感词典向量lexsenti,lexsenti∈Rn×n,同时将潜在图表示Hg-latRn×d映射为
Γg-lat∈Rn×1。具体以下公式所示:
Ls=(Γg-lat-lexsenti)2
其中,lexsenti为情感词典向量,分量为文本句中第i个单词的情感分数,为潜在图表示Hg-latRn×d的第i个单词的分量,Ls为情感细化策略的损失函数。Γg-lat表示潜在图表示映射而成的中间向量。
将情感细化策略的损失函数Ls加入到原先只有情感分类任务的交叉熵损失之后,通过最小化损失,使得理想情况下lexsenti更接近Γg-lat,使得模型更多注意到文本句中表达情感的意见词,进一步提高方面级情感分析的准确度。
最终图卷积神经网络最终损失函数为:
Θ代表模型全部可训练的参数,λ、μ1、μ2是对应损失项的系数,Lr为根细化策略的损失函数,D包含了所有的句子方面对,y(s,a)为其中一个句子方面对中方面词的实际情感极性。使用带情感词典细化策略的约束图卷积神经网络,使用从情感词典中得到的文本句的额外情感信息,来辅助图卷积神经网络更好的使文本句中方面词联系到意见词。
S60:基于所述语义信息增强的潜在图表示Hg-lat和所述与潜在图交互后的语义图表示Hg-sem,通过设计掩码矩阵得到用于情感分析的特征表示,将所述特征表示进行平均池化操作得到最终特征表示,将所述最终特征表示输入到图卷积网络的线性层,得到所述文本句的方面词的情感极性。
具体的,经过上述图卷积神经网络的迭代之后,得到了富含更多有用信息的有语义信息增强的潜在图表示Hg-lat和潜在图交互的语义图表示Hg-sem。接下来使用注意力机制来获取与语义相关的更丰富的潜在表征表示z,具体公式如下所示:
z=αHg-sem,
其中,α表示标准化后的注意力分数。
进一步地,为了获得与方面词相关的表示,采用掩码机制得到用于方面级情感分析的特征表示,具体的通过设计掩码矩阵,将潜在表征表示z中的表示方面词的单词对应的位置设置为1,非表示方面词的单词对应的位置设置为0。同时因为表示当面的单词中存在多词词组,本实施例中采用平均池化操作对多词词组的表征进行聚合,得到最终特征表示:
zABSA=aver(mask⊙z)
其中,aver(·)表示平均池化函数,zABSA为方面级情感分析任务的最终特征表示。
其中,wp和bp分别为线性层的可训练权重和偏置。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将本申请所述系统的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。
Claims (10)
1.一种基于图神经网络的情感分类方法,其特征在于,所述方法包括:
将获取的文本句输入BERT编码器中,得到所述文本句的上下文表示;
基于文本句的句法依赖树,构建所述文本句的初始邻接矩阵;
使用Glove词向量模型将所述初始邻接矩阵映射成非负的初始化邻接矩阵表示;
构建根选择分数向量,将所述根选择分数向量和所述初始化邻接矩阵表示输入到结构归纳器中,基于拉普拉斯变体矩阵来计算边际概率,基于所述边际概率得到所述文本句的归纳后的潜在图Glat以及基于多头注意力机制得到所述文本句的语义图Gsem;
将所述潜在图Glat和所述语义图Gsem输入到图神经网络中分别得到潜在图表示和语义图表示结合所述潜在图表示和所述语义图表示得到经过语义信息增强的潜在图表示Hg-lat和与潜在图交互后的语义图表示Hg-sem;
基于所述语义信息增强的潜在图表示Hg-lat和所述与潜在图交互后的语义图表示Hg-sem,通过设计掩码矩阵得到用于情感分析的特征表示,将所述特征表示进行平均池化操作得到最终特征表示,将所述最终特征表示输入到图神经网络的线性层,得到所述文本句的方面词的情感极性。
2.根据权利要求1所述的基于图神经网络的情感分类方法,其特征在于,所述将获取的文本句输入BERT编码器中的步骤还包括:
将所述文本句与所述文本句的方面词结合,并在其中加入第一预设符号和第二预设符号,得到所述文本句的方面对。
4.根据权利要求1所述的基于图神经网络的情感分类方法,其特征在于,所述构建根选择分数向量表示为:
ri=exp(Wrhi+br),i=1...n,
其中,Wr表示计算潜在结构根的神经网络层的权重,br表示计算潜在结构根的神经网络的偏置,hi表示输入文本句中第i个词的上下文特征。
8.根据权利要求1所述的基于图神经网络的情感分类方法,其特征在于,所述基于所述语义信息增强的潜在图表示Hg-lat和所述与潜在图交互后的语义图表示Hg-sem,通过设计掩码矩阵得到用于情感分析的特征表示,将所述特征表示进行平均池化操作得到最终特征表示的步骤包括:
通过注意力机制获取与语义相关的潜在表征表示z:
采用掩码机制将潜在表征表示z中的方面词对应位置设置为1,非方面词位置设置为0,
再通过平均池化操作聚合多词词组的表征得到最终特征表示:
ZABSA=aver(mask⊙z);
其中,α表示标准化后的注意力分数,aver(·)表示平均池化函数,zABSA为方面级情感分析任务的最终特征表示。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211070367.1A CN115510226B (zh) | 2022-09-02 | 2022-09-02 | 一种基于图神经网络的情感分类方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211070367.1A CN115510226B (zh) | 2022-09-02 | 2022-09-02 | 一种基于图神经网络的情感分类方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115510226A true CN115510226A (zh) | 2022-12-23 |
CN115510226B CN115510226B (zh) | 2023-11-10 |
Family
ID=84502816
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211070367.1A Active CN115510226B (zh) | 2022-09-02 | 2022-09-02 | 一种基于图神经网络的情感分类方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115510226B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115858792A (zh) * | 2023-02-20 | 2023-03-28 | 山东省计算中心(国家超级计算济南中心) | 基于图神经网络的招标项目名称短文本分类方法及系统 |
CN116304748A (zh) * | 2023-05-17 | 2023-06-23 | 成都工业学院 | 一种文本相似度计算方法、系统、设备及介质 |
CN117171610A (zh) * | 2023-08-03 | 2023-12-05 | 江南大学 | 一种基于知识增强的方面情感三元组提取方法及系统 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112966074A (zh) * | 2021-05-17 | 2021-06-15 | 华南师范大学 | 一种情感分析方法、装置、电子设备以及存储介质 |
CN113449110A (zh) * | 2021-08-30 | 2021-09-28 | 华南师范大学 | 情感分类方法、装置、存储介质及计算机设备 |
CN113987167A (zh) * | 2021-10-11 | 2022-01-28 | 山东师范大学 | 基于依赖感知图卷积网络的方面级情感分类方法及系统 |
US20220092267A1 (en) * | 2020-09-23 | 2022-03-24 | Jingdong Digits Technology Holding Co., Ltd. | Method and system for aspect-level sentiment classification by graph diffusion transformer |
-
2022
- 2022-09-02 CN CN202211070367.1A patent/CN115510226B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20220092267A1 (en) * | 2020-09-23 | 2022-03-24 | Jingdong Digits Technology Holding Co., Ltd. | Method and system for aspect-level sentiment classification by graph diffusion transformer |
CN112966074A (zh) * | 2021-05-17 | 2021-06-15 | 华南师范大学 | 一种情感分析方法、装置、电子设备以及存储介质 |
CN113449110A (zh) * | 2021-08-30 | 2021-09-28 | 华南师范大学 | 情感分类方法、装置、存储介质及计算机设备 |
CN113987167A (zh) * | 2021-10-11 | 2022-01-28 | 山东师范大学 | 基于依赖感知图卷积网络的方面级情感分类方法及系统 |
Non-Patent Citations (1)
Title |
---|
SIYU TANG 等: "Affective Knowledge Enhanced Multiple-Graph Fusion Networks for Aspect-based Sentiment Analysis", PROCEEDINGS OF THE 2022 CONFERENCE ON EMPIRICAL METHODS IN NATURAL LANGUAGE PROCESSING, pages 5352 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115858792A (zh) * | 2023-02-20 | 2023-03-28 | 山东省计算中心(国家超级计算济南中心) | 基于图神经网络的招标项目名称短文本分类方法及系统 |
CN115858792B (zh) * | 2023-02-20 | 2023-06-09 | 山东省计算中心(国家超级计算济南中心) | 基于图神经网络的招标项目名称短文本分类方法及系统 |
CN116304748A (zh) * | 2023-05-17 | 2023-06-23 | 成都工业学院 | 一种文本相似度计算方法、系统、设备及介质 |
CN117171610A (zh) * | 2023-08-03 | 2023-12-05 | 江南大学 | 一种基于知识增强的方面情感三元组提取方法及系统 |
CN117171610B (zh) * | 2023-08-03 | 2024-05-03 | 江南大学 | 一种基于知识增强的方面情感三元组提取方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN115510226B (zh) | 2023-11-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108319686B (zh) | 基于受限文本空间的对抗性跨媒体检索方法 | |
CN108549658B (zh) | 一种基于语法分析树上注意力机制的深度学习视频问答方法及系统 | |
CN110321563B (zh) | 基于混合监督模型的文本情感分析方法 | |
CN109344404B (zh) | 情境感知的双重注意力自然语言推理方法 | |
CN115510226A (zh) | 一种基于图神经网络的情感分类方法 | |
CN110674850A (zh) | 一种基于注意力机制的图像描述生成方法 | |
WO2022161470A1 (zh) | 内容的评价方法、装置、设备及介质 | |
WO2023225858A1 (zh) | 一种基于常识推理的阅读型考题生成系统及方法 | |
CN109447242A (zh) | 基于迭代学习的图像描述重生成系统及方法 | |
CN110866113B (zh) | 基于稀疏自注意力机制微调伯特模型的文本分类方法 | |
CN112749274B (zh) | 基于注意力机制和干扰词删除的中文文本分类方法 | |
CN111666409B (zh) | 一种基于综合深度胶囊网络的复杂评论文本的整体情感智能分类方法 | |
CN114565104A (zh) | 语言模型的预训练方法、结果推荐方法及相关装置 | |
CN109214006A (zh) | 图像增强的层次化语义表示的自然语言推理方法 | |
CN110532555B (zh) | 一种基于强化学习的语言评价生成方法 | |
CN117494727B (zh) | 用于大语言模型的去偏倚方法 | |
CN113326374A (zh) | 基于特征增强的短文本情感分类方法及系统 | |
CN114429143A (zh) | 一种基于强化蒸馏的跨语言属性级情感分类方法 | |
CN113987167A (zh) | 基于依赖感知图卷积网络的方面级情感分类方法及系统 | |
CN114817508A (zh) | 融合稀疏图和多跳注意力的会话推荐系统 | |
CN111507093A (zh) | 一种基于相似字典的文本攻击方法、装置及存储介质 | |
CN111651973A (zh) | 一种基于句法感知的文本匹配方法 | |
WO2023173554A1 (zh) | 坐席违规话术识别方法、装置、电子设备、存储介质 | |
CN116737956A (zh) | 一种面向多模态知识图谱的实体对齐方法及装置 | |
CN109189882A (zh) | 序列内容的回答类型识别方法、装置、服务器和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |