CN114492458A - 一种基于多头注意力和词共现的方面级情感分析方法 - Google Patents

一种基于多头注意力和词共现的方面级情感分析方法 Download PDF

Info

Publication number
CN114492458A
CN114492458A CN202210179715.2A CN202210179715A CN114492458A CN 114492458 A CN114492458 A CN 114492458A CN 202210179715 A CN202210179715 A CN 202210179715A CN 114492458 A CN114492458 A CN 114492458A
Authority
CN
China
Prior art keywords
word
text
representation
occurrence
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210179715.2A
Other languages
English (en)
Inventor
蔡国永
兰天
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guilin University of Electronic Technology
Original Assignee
Guilin University of Electronic Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guilin University of Electronic Technology filed Critical Guilin University of Electronic Technology
Priority to CN202210179715.2A priority Critical patent/CN114492458A/zh
Publication of CN114492458A publication Critical patent/CN114492458A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • G06F40/211Syntactic parsing, e.g. based on context-free grammar [CFG] or unification grammars
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/253Grammatical analysis; Style critique
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/284Lexical analysis, e.g. tokenisation or collocates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Data Mining & Analysis (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Machine Translation (AREA)

Abstract

本发明公开了一种基于多头注意力和词共现的方面级情感分析方法,包括如下步骤:1)获得文本嵌入表示和目标词嵌入表示;2)生成目标词表示;3)构建词共现矩阵;4)获得最终的文本表示;5)得到目标词的情感极性预测结果。这种方法提升了模型在方面级情感分析任务中的性能,捕捉能力强。

Description

一种基于多头注意力和词共现的方面级情感分析方法
技术领域
本发明涉及自然语言处理技术领域,具体是一种基于多头注意力和词共现的方面级情感分析方法。
背景技术
基于方面的情感分析(Aspect-based Sentiment Analysis,简称ABSA)的基本任务是提取细粒度的评论方面,识别所提取方面表达的情感。例如:“The goods isexcellent,but the customer service is so terrible.”,该条评论中涉及到两个方面,“goods”和“customer service”,而对这两个方面表达的情感极性分别为“积极的”和“消极的”。长短时记忆网络(LSTM)是RNN的一种变体,避免了RNN梯度消失和梯度爆炸的问题;注意力机制被广泛应用于深度学习的各个领域,大幅提升了深度学习的性能。在ABSA中,许多最近提出的模型都将LSTM与注意力机制结合在一起,即先利用LSTM对词向量进行序列信息的建模,并从中挖掘情感信息,然后通过注意力机制让模型聚焦于句子中给定方面的具体范围,取得了不错的效果。为了整合句子中的句法结构信息,一些研究提出了基于图的方法,即利用文本的依赖树来构建图,然后通过图卷积网络(GCN)或图注意力网络(GAT)将依赖信息从邻接词传播到目标词。研究结果表明,考虑了句法关系的模型在性能上要优于没有考虑句法关系的模型。
虽然LSTM与注意力机制相结合的方法能减轻RNN由于自身结构带来的限制,并通过给上下文词分配重要性权重的方式改善文本表示。但是不同上下文词对于文本情感表达的贡献度是不一样的,而且同一个上下文词对于文本中不同的目标词,其重要程度也应该不同,距离目标词较近的上下文词重要程度应该大于距离目标词较远的上下文词。此外,在利用句子之外的辅助知识方面,已有的方法大多只利用了词与词之间的依赖关系,而忽略了语料库级别的词共现信息。我们认为频繁共现的两个词或多个词意味着它们在语法上是一种搭配。比如在“This dress is okay,nothing special.”这句评论中,“nothingspecial”这两个词在语料库的训练集中共现了6次,且代表着消极的情绪。如果没有词共现这种辅助信息的帮助,模型可能会将“okay”或者“special”当作对“dress”的情感表达词,从而做出错误的预测。
发明内容
本发明的目的是针对现有技术的不足,而提供一种基于多头注意力和词共现的方面级情感分析方法。这种方法提升了模型在方面级情感分析任务中的性能,捕捉能力强。
实现本发明目的的技术方案是:
一种基于多头注意力和词共现的方面级情感分析方法,包括如下步骤:
1)采用预训练的BERT模型对文本和目标词进行编码,分别得到文本嵌入表示和目标词嵌入表示;
2)利用两种注意力编码器来分别建模文本的隐藏状态和句法结构,生成文本表示,以及建模目标词和文本之间的语义交互和依赖信息,生成目标词表示;
3)构建词共现矩阵,并通过多层图卷积神经网络将词共现矩阵分别与步骤2)得到的文本特征表示和目标词特征表示融合,生成文本特征表示和目标词特征表示;
4)通过自注意力机制对步骤3)得到的文本特征表示和目标词特征表示进行全局特征捕捉,获得最终的文本表示;
5)对步骤3)得到的文本特征表示和目标词特征以及步骤4)得到的最终文本表示进行平均池化和归一化操作,得到目标词的情感极性预测结果。
步骤1)中所述的预训练的BERT模型把文本序列和目标词序列作为输入,并将序列中的每个单词都映射为一个词向量,最终得到融合左右上下文信息的文本嵌入表示和目标词嵌入表示。
步骤2)中所述的两种注意力编码器为内联多头注意力编码器和互联多头注意力编码器,通过内联多头注意力编码器计算文本中单词之间的相互影响,捕捉文本的内部相关信息,得到构建了内部依赖信息的本文特征表示;通过互联多头注意力编码器对目标词进行上下文感知建模,重点捕捉目标词与上下文词之间的依赖信息,得到包含上下文信息的目标词特征表示。
步骤3)中所述的构建词共现矩阵的具体步骤如下:
3.1)根据现有的公开数据集,构建一个全局词共现图;
3.2)根据数据集中的每一条评论句子,构建一个局部词共现图;
3.3)根据文本中的单词为每条评论得到一个词共现矩阵。
步骤3)中所述的多层图卷积神经网络将步骤2)得到的文本特征表示和目标词特征表示作为输入,在每层的卷积之前都对特征表示进行位置关系处理,而后将处理过的特征表示与词共现矩阵进行卷积,得到融合词共现信息的文本特征表示和目标词特征表示。
步骤4)中所述的通过多头自注意力机制将目标词特征表示作为查询矩阵,将文本特征表示作为键矩阵和值矩阵,获得最终的文本表示。
步骤5)中所述的对文本特征表示和目标词特征以及最终文本表示进行平均池化和归一化操作,得到目标词的情感极性预测结果的具体步骤如下:
5.1)将步骤4)得到的最终文本表示与步骤3)得到的文本特征表示和目标词特征表示一同施加平均池化操作,并将平均池化的结果拼接起来得到最后的综合文本表示;
5.2)将综合文本表示映射到分类空间中;
5.3)通过softmax函数归一化后得到情感极性分布,将概率最高的标签作为最终的预测结果。
与现有技术相比,本技术方案的有益效果是:
1.本技术方案设计了两种注意力编码器,来构建目标词与上下文词的隐藏状态和两者之间语义交互,使得模型能从不同角度捕捉方面词与上下文词之间的语义和语法信息;
2.本技术方案根据文本中的词在语料库中的共现信息构建了一个词共现矩阵,并通过图卷积网络将共现信息整合进文本的特征表示里。词共现信息的引入,增强了特征向量的表示能力,有助于提升模型在方面级情感分析任务中的性能;
3.本技术方案设计了一个针对特定目标的目标依赖自注意力机制,对文本和目标词进行进一步的全局特征捕捉,提高模型对文本中重要特征的捕捉能力。
这种方法提升了模型在方面级情感分析任务中的性能,捕捉能力强。
附图说明
图1为实施例的流程示意图。
具体实施方式
下面结合附图及具体实施例对本发明作进一步的详细描述,但不是对本发明的限定。
实施例:
参照图1,一种基于多头注意力和词共现的方面级情感分析方法,包括如下步骤:
1)采用预训练的BERT模型对文本和目标词进行编码,分别得到文本嵌入表示和目标词嵌入表示,即步骤1)中所述的预训练的BERT模型把文本序列
Figure BDA0003520011650000041
和目标词序列
Figure BDA0003520011650000042
作为输入,并将序列中的每个单词都映射为一个词向量,得到融合左右上下文信息的文本嵌入表示
Figure BDA0003520011650000043
和目标词嵌入表示
Figure BDA0003520011650000044
其中n为句子长度,m为目标词长度,
Figure BDA0003520011650000045
表示文本中的单词,
Figure BDA0003520011650000046
表示文本中包含的目标词,且wa是wt的子集,
Figure BDA0003520011650000047
emb_dim表示词嵌入的维度;
本例为使BERT模型能够更好地训练和微调,在文本序列和目标词序列的头部加上分类标识符“[CLS]”,在尾部加上分隔标识符“[SEP]”,如:“[CLS]+text+[SEP]”,“[CLS]+aspect+[SEP]”;
2)利用两种注意力编码器来分别建模文本的隐藏状态和句法结构,生成文本表示,以及建模目标词和文本之间的语义交互和依赖信息,生成目标词表示,两中注意力编码器均采用多头注意力机制,在学习文本结构特征和序列信息的同时刻画文本的隐藏状态和全局依赖信息,多头注意力机制的输入有三个,分别为查询矩阵
Figure BDA0003520011650000048
键矩阵
Figure BDA0003520011650000049
值矩阵
Figure BDA00035200116500000410
其中dq,dk,dv分别为Q,K,V中向量的维度,nq,nk,nv分别为Q,K,V中向量的个数,为了简便,设置dk=dv且记为dmodel,多头注意力机制的具体计算过程如下:
第一步是使用点积函数计算Q和K之间的相似性分值Sim,具体公式如下:
Figure BDA00035200116500000411
其中,Ki表示键矩阵K中的第i个向量,Qj表示查询矩阵Q中的第j个向量,nq表示Q中向量个数,Simi表示查询矩阵Q中每个向量与Ki之间的相似性分值;
第二步是对相似性分值进行归一化处理来得到对应的权重系数,一般使用的是softmax函数,具体公式如下:
Figure BDA0003520011650000051
其中,ai即为值矩阵V中第i个向量Vi对应的权重系数,
Figure BDA0003520011650000052
表示Simi中第i个向量;第三步是将权重系数矩阵a与V进行加权求和,得出最后的注意力分数,具体公式如下:
Figure BDA0003520011650000053
其中,Vi表示值矩阵V中第i个向量;
第四步是将多个注意力头拼接在一起,得到最终的注意力分数,具体公式如下:
MHA(Q,K,V)=concat(head1,head2,...,headn)W0
headi=Attention(QWi Q,KWi K,VWi K),
其中,
Figure BDA0003520011650000054
是一个可学习的参数矩阵,h是多头注意力的头数,
Figure BDA0003520011650000055
concat(·)表示将所有头拼接起来的拼接操作,headi表示第i个头所得到的注意力分数,
Figure BDA0003520011650000056
是第i个头的映射矩阵;
其中两种注意力编码器为内联多头注意力编码器和互联多头注意力编码器,内联多头注意力编码器将文本嵌入表示et作为输入,得到本文特征表示
Figure BDA0003520011650000057
其中,
Figure BDA0003520011650000058
表示上下文中第i个单词的特征表示,具体计算公式如下:
tintra=MHA(et,et,et),
其中MHA()表示多头注意力;
互联多头注意力编码器将文本嵌入表示et和目标词嵌入表示ea作为输入,得到目标词特征表示
Figure BDA0003520011650000059
Figure BDA00035200116500000510
表示目标词中第i个单词的特征表示,具体计算公式如下:
ainter=MHA(et,ea,ea),
3)构建词共现矩阵,并通过多层图卷积神经网络将词共现矩阵分别与步骤2)得到的文本特征表示和目标词特征表示融合,生成文本特征表示和目标词特征表示,构建词共现矩阵的具体步骤如下:
3.1)根据现有的公开数据集,构建一个全局词共现图,
全局词共现图CGg是一个无向带权图,由一个结点集Vg和一个边集Eg构成,其中Vg中的每个结点都代表语料库中的一个单词,Eg中的每条边都代表这两个词具有共现关系,边的权重表示这两个词总共在多少条样本评论中共现过;
3.2)根据数据集中的每一条评论句子,构建一个局部词共现图,
局部词共现图CGl是一个无向带权图,由结点集Vl和边集El构成,其中Vl中的每个结点都代表该条评论文本中的一个单词,El中的每条边都代表两个词在该条评论中的共现关系,边的权重和全局词共现图中这两个词的边权重一致,表示这两个词在语料库中共现的次数;
3.3)根据文本中的单词为每条评论得到一个词共现矩阵A∈Rn×n,n为句子的长度;
本例中,将文本特征表示tintra和目标词特征表示ainter分别输入两个多层图卷积神经网络,并把它们作为各自多层网络中第0层的输入h0,之后每层的输入都为上一层的输出,在每层的卷积之前都先对特征表进行位置关系处理,具体公式如下:
Figure BDA0003520011650000061
Figure BDA0003520011650000062
其中,
Figure BDA0003520011650000063
是当前GCN层的输入中的第i个单词,qi是单词i的位置权重,然后将处理过的特征表示gl和词共现矩阵A进行卷积,得到文本特征表示
Figure BDA0003520011650000064
和目标词特征表示
Figure BDA0003520011650000065
具体公式如下:
Figure BDA0003520011650000066
Figure BDA0003520011650000071
其中
Figure BDA0003520011650000072
是上一层GCN输出的文本表示的第i个单词,hid_dim表示的是特征维度,
Figure BDA0003520011650000073
是当前GCN层输出的第i个单词,
Figure BDA0003520011650000074
表示的是词共现矩阵中第i个单词的度,权重矩阵Wl和偏置bl都是可学习的参数;
4)通过自注意力机制对步骤3)得到的目标词特征表示作为查询矩阵,文本特征表示作为键矩阵和值矩阵,获得最终的文本表示,
本例中,多头自注意力机制将目标词特征表示ha作为查询矩阵,将文本特征表示ht作为键矩阵和值矩阵,获得最终的文本表示
Figure BDA0003520011650000075
具体公式如下:
hta=MHSA(ha,ht,ht),
其中,MHSA表示多头自注意力;
5)对步骤3)得到的文本特征表示和目标词特征以及步骤4)得到的最终文本表示进行平均池化和归一化操作,得到目标词的情感极性预测结果,具体步骤如下:
5.1)将步骤4)得到的最终文本表示hta与步骤3)得到的两个特征表示ht和ha一同施加平均池化操作,并将平均池化的结果拼接起来得到最后的综合文本表示
Figure BDA0003520011650000076
具体公式如下:
Figure BDA0003520011650000077
其中avg(·)表示平均池化操作;
5.2)将综合文本表示映射到分类空间中,具体公式如下,
Figure BDA0003520011650000078
其中,project(·)表示映射函数,x表示映射后的结果,
Figure BDA0003520011650000079
Figure BDA00035200116500000710
都是可学习的参数;
5.3)通过softmax函数归一化后得到情感极性分布,将概率最高的标签作为最终的预测结果,具体公式如下,
Figure BDA00035200116500000711
Figure BDA0003520011650000081
其中,y∈Rc是预测的情感极性分布,
Figure BDA0003520011650000082
是最后的预测标签,y1、y2、y3分别表示积极情感、中性情感、消极情感的概率。
为了更好地对本例加以理解,本实施例选用五组情感分类公开数据集,情感极性分为积极,消极,中性。5个数据集的情感极性分布如表1所示:
表1.数据集的统计信息
Figure BDA0003520011650000083
为了验证本实施例方法的有效性,以下选择与任务相关且具有代表性的模型作为baseline对比,并采用F1分数和准确度ACC来评价模型性能,对比结果如表2所示:
表2.对比实验结果
Figure BDA0003520011650000084
Figure BDA0003520011650000091
从表2所示的结果中可以看出,本例提出的TD-MHSA模型在四个数据集上的F1值均达到了最佳。特别是在Lap14、Rest15和Twitter数据集上,相对于第二好的实验结果,本例模型的F1值分别有2.2%、1.26%和1.55%的提升。在准确率方面本例模型也基本上达到了最佳。只在Rest14数据集上低于MNHMA模型0.9%,可能的原因是MNHMA模型在任务中给定了句中的方面词,因此在情感分类准确率上会略高于本例模型。在Rest16数据集上本例模型在准确率和F1值上均低于KumaGCN模型,认为KumaGCN通过潜在语法图和词依赖图来构建句子中的语法和语义信息,并通过门控机制将二者融合,使得模型能够捕捉到更加完整的语义和语法信息,加强模型的表征能力,从而提高模型的性能。捕捉更完整的语义个语法信息也是本文模型未来改善的方向。
在基于RNN的所有模型中,TD-LSTM模型的性能处于中下游水平,而RAM、AEN和本例模型TD-MHSA在多数数据集上都稳超TD-LSTM。分析其中的原因应该是TD-LSTM是基于LSTM的模型,它只对目标词进行比较粗略的处理,没有利用好目标词与上下文词之间的依赖关系和语义交互信息。而RAM、AEN和TD-MHSA都是基于注意力机制的模型,都对目标词进行不同的处理,以达到充分利用目标词信息的目的。TD-MHSA所达到的最佳结果证明了本文对于目标词与文本间依赖信息的利用是最有效的。
在Twitter数据集上,TD-LSTM、ATAE-LSTM、RAM模型的性能都不是非常好,原因可能是Twitter数据集中的数据来自于用户日常分享,文本长度通常较短,且不具备语法结构。因此基于LSTM和基于注意力机制的模型学习到的语法特征非常有限,无法做出很准确的预测。而ASGCN、KumaGCN和TD-MHSA的良好性能则说明引入外部信息,如文本的依赖解析树,词共现信息,是能提升模型性能的。
为了检验提出方法中的各个模块对于模型性能的影响,在所有数据集上都进行了消融实验,实验结果如表3所示:
表3.消融实验结果
Figure BDA0003520011650000101
表3中的model_in模型是针对两种注意力编码器的消融实验,用一个前馈神经网络来代替注意力编码器。从表3中可以看出,模型的性能有所下降,这表明注意力编码器确实能够提升模型的性能。Model_gcn模型是针对多层GCN的消融实验,删除了多层GCN,不使用额外的词共现信息。模型在所有数据集上的F1值都不如原模型,特别是在Twitter数据集上,模型性能下降了。这表明词共现信息对于模型准确判断目标词情感极性还是有很大帮助的。Model_td模型则是针对目标依赖的多头自注意力机制的消融实验,这里只使用普通的自注意力机制,将文本的特征表示作为自注意力的查询值和键值。实验结果表明,去除了目标词和文本之间的全局依赖信息,模型的性能有所下降。
综上所述,本例在方面级情感分析任务上有较好的性能。本例设计的两种注意力编码器,使得模型能从不同角度捕捉方面词与上下文词之间的语义和语法信息;其次,本例将共现信息整合进文本的特征表示里增强了特征向量的表示能力,有助于提升模型在方面级情感分析任务中的性能;最后本例设计的针对特定目标的目标依赖自注意力机制,对文本和目标词进行进一步的全局特征捕捉,提高模型对文本中重要特征的捕捉能力。

Claims (7)

1.一种基于多头注意力和词共现的方面级情感分析方法,其特征在于,包括如下步骤:
1)获得文本嵌入表示和目标词嵌入表示:采用预训练的BERT模型对文本和目标词进行编码,分别得到文本嵌入表示和目标词嵌入表示;
2)生成目标词表示:利用两种注意力编码器来分别建模文本的隐藏状态和句法结构,生成文本表示,以及建模目标词和文本之间的语义交互和依赖信息,生成目标词表示;
3)构建词共现矩阵,并通过多层图卷积神经网络将词共现矩阵分别与步骤2)得到的文本特征表示和目标词特征表示融合,生成文本特征表示和目标词特征表示;
4)获得最终的文本表示:通过自注意力机制对步骤3)得到的文本特征表示和目标词特征表示进行全局特征捕捉,获得最终的文本表示;
5)得到目标词的情感极性预测结果:对步骤3)得到的文本特征表示和目标词特征以及步骤4)得到的最终文本表示进行平均池化和归一化操作,得到目标词的情感极性预测结果。
2.根据权利要求1所述的基于多头注意力和词共现的方面级情感分析方法,其特征在于,步骤1)中所述的预训练的BERT模型把文本序列和目标词序列作为输入,并将序列中的每个单词都映射为一个词向量,最终得到融合左右上下文信息的文本嵌入表示和目标词嵌入表示。
3.根据权利要求1所述的基于多头注意力和词共现的方面级情感分析方法,其特征在于,步骤2)中所述的两种注意力编码器为内联多头注意力编码器和互联多头注意力编码器,通过内联多头注意力编码器计算文本中单词之间的相互影响,捕捉文本的内部相关信息,得到构建了内部依赖信息的本文特征表示;通过互联多头注意力编码器对目标词进行上下文感知建模,重点捕捉目标词与上下文词之间的依赖信息,得到包含上下文信息的目标词特征表示。
4.根据权利要求1所述的基于多头注意力和词共现的方面级情感分析方法,其特征在于,步骤3)中所述的构建词共现矩阵的具体步骤如下:
3.1)根据现有的公开数据集,构建一个全局词共现图;
3.2)根据数据集中的每一条评论句子,构建一个局部词共现图;
3.3)根据文本中的单词为每条评论得到一个词共现矩阵。
5.根据权利要求1所述的基于多头注意力和词共现的方面级情感分析方法,其特征在于,步骤3)中所述的多层图卷积神经网络将步骤2)得到的文本特征表示和目标词特征表示作为输入,在每层的卷积之前都对特征表示进行位置关系处理,而后将处理过的特征表示与词共现矩阵进行卷积,得到融合词共现信息的文本特征表示和目标词特征表示。
6.根据权利要求1所述的基于多头注意力和词共现的方面级情感分析方法,其特征在于,步骤4)中所述的通过多头自注意力机制将目标词特征表示作为查询矩阵,将文本特征表示作为键矩阵和值矩阵,获得最终的文本表示。
7.根据权利要求1所述的基于多头注意力和词共现的方面级情感分析方法,其特征在于,步骤5)中所述的对文本特征表示和目标词特征以及最终文本表示进行平均池化和归一化操作,得到目标词的情感极性预测结果的具体步骤如下:
5.1)将步骤4)得到的最终文本表示与步骤3)得到的两个特征表示一同施加平均池化操作,并将平均池化的结果拼接起来得到最后的综合文本表示;
5.2)将综合文本表示映射到分类空间中;
5.3)通过softmax函数归一化后得到情感极性分布,将概率最高的标签作为最终的预测结果。
CN202210179715.2A 2022-02-25 2022-02-25 一种基于多头注意力和词共现的方面级情感分析方法 Pending CN114492458A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210179715.2A CN114492458A (zh) 2022-02-25 2022-02-25 一种基于多头注意力和词共现的方面级情感分析方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210179715.2A CN114492458A (zh) 2022-02-25 2022-02-25 一种基于多头注意力和词共现的方面级情感分析方法

Publications (1)

Publication Number Publication Date
CN114492458A true CN114492458A (zh) 2022-05-13

Family

ID=81485396

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210179715.2A Pending CN114492458A (zh) 2022-02-25 2022-02-25 一种基于多头注意力和词共现的方面级情感分析方法

Country Status (1)

Country Link
CN (1) CN114492458A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114881042A (zh) * 2022-06-02 2022-08-09 电子科技大学 基于图卷积网络融合句法依存与词性的中文情感分析方法
CN115017916A (zh) * 2022-06-28 2022-09-06 华南师范大学 方面级情感分析方法、装置、电子设备及存储介质

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114881042A (zh) * 2022-06-02 2022-08-09 电子科技大学 基于图卷积网络融合句法依存与词性的中文情感分析方法
CN114881042B (zh) * 2022-06-02 2023-05-02 电子科技大学 基于图卷积网络融合句法依存与词性的中文情感分析方法
CN115017916A (zh) * 2022-06-28 2022-09-06 华南师范大学 方面级情感分析方法、装置、电子设备及存储介质

Similar Documents

Publication Publication Date Title
CN111488734B (zh) 基于全局交互和句法依赖的情感特征表示学习系统及方法
CN110083705B (zh) 一种用于目标情感分类的多跳注意力深度模型、方法、存储介质和终端
CN110826336B (zh) 一种情感分类方法、系统、存储介质及设备
US11631007B2 (en) Method and device for text-enhanced knowledge graph joint representation learning
CN108984724B (zh) 利用高维表示提高特定属性情感分类准确率方法
CN113641820A (zh) 基于图卷积神经网络的视角级文本情感分类方法及系统
CN111291556B (zh) 基于实体义项的字和词特征融合的中文实体关系抽取方法
CN114547298B (zh) 基于多头注意力和图卷积网络结合R-Drop机制的生物医学关系抽取方法、装置和介质
CN108536735B (zh) 基于多通道自编码器的多模态词汇表示方法与系统
CN112651940B (zh) 基于双编码器生成式对抗网络的协同视觉显著性检测方法
Zhang et al. A multi-feature fusion model for Chinese relation extraction with entity sense
CN114492458A (zh) 一种基于多头注意力和词共现的方面级情感分析方法
CN112395417A (zh) 基于深度学习的网络舆情演化仿真方法及系统
CN113705238A (zh) 基于bert和方面特征定位模型的方面级情感分析方法及模型
CN113378573A (zh) 面向内容大数据的小样本关系抽取方法和装置
CN113255366A (zh) 一种基于异构图神经网络的方面级文本情感分析方法
CN114881042A (zh) 基于图卷积网络融合句法依存与词性的中文情感分析方法
CN114528398A (zh) 一种基于交互双重图卷积网络的情感预测方法及系统
CN115730232A (zh) 基于主题相关的异构图神经网络跨语言文本分类方法
CN114048314B (zh) 一种自然语言隐写分析方法
CN114169408A (zh) 一种基于多模态注意力机制的情感分类方法
CN111382333B (zh) 基于案件相关性联合学习与图卷积的新闻文本句中案件要素抽取方法
CN113486143A (zh) 一种基于多层级文本表示及模型融合的用户画像生成方法
Biswas et al. Design and Implementation for Research Paper Classification Based on CNN and RNN Models
Basu et al. Guest editors' introduction to the special section on syntactic and structural pattern recognition

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination