CN114492458A - 一种基于多头注意力和词共现的方面级情感分析方法 - Google Patents
一种基于多头注意力和词共现的方面级情感分析方法 Download PDFInfo
- Publication number
- CN114492458A CN114492458A CN202210179715.2A CN202210179715A CN114492458A CN 114492458 A CN114492458 A CN 114492458A CN 202210179715 A CN202210179715 A CN 202210179715A CN 114492458 A CN114492458 A CN 114492458A
- Authority
- CN
- China
- Prior art keywords
- word
- text
- representation
- occurrence
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000008451 emotion Effects 0.000 title claims abstract description 38
- 238000004458 analytical method Methods 0.000 title claims abstract description 22
- 239000011159 matrix material Substances 0.000 claims abstract description 43
- 230000007246 mechanism Effects 0.000 claims description 20
- 239000013598 vector Substances 0.000 claims description 16
- 238000011176 pooling Methods 0.000 claims description 12
- 238000010606 normalization Methods 0.000 claims description 8
- 238000013528 artificial neural network Methods 0.000 claims description 6
- 230000003993 interaction Effects 0.000 claims description 5
- 238000013507 mapping Methods 0.000 claims description 5
- 238000012545 processing Methods 0.000 claims description 4
- 238000013527 convolutional neural network Methods 0.000 claims description 2
- 238000000034 method Methods 0.000 abstract description 10
- 238000002679 ablation Methods 0.000 description 5
- 230000002996 emotional effect Effects 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 238000002474 experimental method Methods 0.000 description 4
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000012512 characterization method Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 230000001419 dependent effect Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000007935 neutral effect Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 238000004880 explosion Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
- G06F40/211—Syntactic parsing, e.g. based on context-free grammar [CFG] or unification grammars
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/253—Grammatical analysis; Style critique
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/284—Lexical analysis, e.g. tokenisation or collocates
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Data Mining & Analysis (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- Evolutionary Computation (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Databases & Information Systems (AREA)
- Machine Translation (AREA)
Abstract
本发明公开了一种基于多头注意力和词共现的方面级情感分析方法,包括如下步骤:1)获得文本嵌入表示和目标词嵌入表示;2)生成目标词表示;3)构建词共现矩阵;4)获得最终的文本表示;5)得到目标词的情感极性预测结果。这种方法提升了模型在方面级情感分析任务中的性能,捕捉能力强。
Description
技术领域
本发明涉及自然语言处理技术领域,具体是一种基于多头注意力和词共现的方面级情感分析方法。
背景技术
基于方面的情感分析(Aspect-based Sentiment Analysis,简称ABSA)的基本任务是提取细粒度的评论方面,识别所提取方面表达的情感。例如:“The goods isexcellent,but the customer service is so terrible.”,该条评论中涉及到两个方面,“goods”和“customer service”,而对这两个方面表达的情感极性分别为“积极的”和“消极的”。长短时记忆网络(LSTM)是RNN的一种变体,避免了RNN梯度消失和梯度爆炸的问题;注意力机制被广泛应用于深度学习的各个领域,大幅提升了深度学习的性能。在ABSA中,许多最近提出的模型都将LSTM与注意力机制结合在一起,即先利用LSTM对词向量进行序列信息的建模,并从中挖掘情感信息,然后通过注意力机制让模型聚焦于句子中给定方面的具体范围,取得了不错的效果。为了整合句子中的句法结构信息,一些研究提出了基于图的方法,即利用文本的依赖树来构建图,然后通过图卷积网络(GCN)或图注意力网络(GAT)将依赖信息从邻接词传播到目标词。研究结果表明,考虑了句法关系的模型在性能上要优于没有考虑句法关系的模型。
虽然LSTM与注意力机制相结合的方法能减轻RNN由于自身结构带来的限制,并通过给上下文词分配重要性权重的方式改善文本表示。但是不同上下文词对于文本情感表达的贡献度是不一样的,而且同一个上下文词对于文本中不同的目标词,其重要程度也应该不同,距离目标词较近的上下文词重要程度应该大于距离目标词较远的上下文词。此外,在利用句子之外的辅助知识方面,已有的方法大多只利用了词与词之间的依赖关系,而忽略了语料库级别的词共现信息。我们认为频繁共现的两个词或多个词意味着它们在语法上是一种搭配。比如在“This dress is okay,nothing special.”这句评论中,“nothingspecial”这两个词在语料库的训练集中共现了6次,且代表着消极的情绪。如果没有词共现这种辅助信息的帮助,模型可能会将“okay”或者“special”当作对“dress”的情感表达词,从而做出错误的预测。
发明内容
本发明的目的是针对现有技术的不足,而提供一种基于多头注意力和词共现的方面级情感分析方法。这种方法提升了模型在方面级情感分析任务中的性能,捕捉能力强。
实现本发明目的的技术方案是:
一种基于多头注意力和词共现的方面级情感分析方法,包括如下步骤:
1)采用预训练的BERT模型对文本和目标词进行编码,分别得到文本嵌入表示和目标词嵌入表示;
2)利用两种注意力编码器来分别建模文本的隐藏状态和句法结构,生成文本表示,以及建模目标词和文本之间的语义交互和依赖信息,生成目标词表示;
3)构建词共现矩阵,并通过多层图卷积神经网络将词共现矩阵分别与步骤2)得到的文本特征表示和目标词特征表示融合,生成文本特征表示和目标词特征表示;
4)通过自注意力机制对步骤3)得到的文本特征表示和目标词特征表示进行全局特征捕捉,获得最终的文本表示;
5)对步骤3)得到的文本特征表示和目标词特征以及步骤4)得到的最终文本表示进行平均池化和归一化操作,得到目标词的情感极性预测结果。
步骤1)中所述的预训练的BERT模型把文本序列和目标词序列作为输入,并将序列中的每个单词都映射为一个词向量,最终得到融合左右上下文信息的文本嵌入表示和目标词嵌入表示。
步骤2)中所述的两种注意力编码器为内联多头注意力编码器和互联多头注意力编码器,通过内联多头注意力编码器计算文本中单词之间的相互影响,捕捉文本的内部相关信息,得到构建了内部依赖信息的本文特征表示;通过互联多头注意力编码器对目标词进行上下文感知建模,重点捕捉目标词与上下文词之间的依赖信息,得到包含上下文信息的目标词特征表示。
步骤3)中所述的构建词共现矩阵的具体步骤如下:
3.1)根据现有的公开数据集,构建一个全局词共现图;
3.2)根据数据集中的每一条评论句子,构建一个局部词共现图;
3.3)根据文本中的单词为每条评论得到一个词共现矩阵。
步骤3)中所述的多层图卷积神经网络将步骤2)得到的文本特征表示和目标词特征表示作为输入,在每层的卷积之前都对特征表示进行位置关系处理,而后将处理过的特征表示与词共现矩阵进行卷积,得到融合词共现信息的文本特征表示和目标词特征表示。
步骤4)中所述的通过多头自注意力机制将目标词特征表示作为查询矩阵,将文本特征表示作为键矩阵和值矩阵,获得最终的文本表示。
步骤5)中所述的对文本特征表示和目标词特征以及最终文本表示进行平均池化和归一化操作,得到目标词的情感极性预测结果的具体步骤如下:
5.1)将步骤4)得到的最终文本表示与步骤3)得到的文本特征表示和目标词特征表示一同施加平均池化操作,并将平均池化的结果拼接起来得到最后的综合文本表示;
5.2)将综合文本表示映射到分类空间中;
5.3)通过softmax函数归一化后得到情感极性分布,将概率最高的标签作为最终的预测结果。
与现有技术相比,本技术方案的有益效果是:
1.本技术方案设计了两种注意力编码器,来构建目标词与上下文词的隐藏状态和两者之间语义交互,使得模型能从不同角度捕捉方面词与上下文词之间的语义和语法信息;
2.本技术方案根据文本中的词在语料库中的共现信息构建了一个词共现矩阵,并通过图卷积网络将共现信息整合进文本的特征表示里。词共现信息的引入,增强了特征向量的表示能力,有助于提升模型在方面级情感分析任务中的性能;
3.本技术方案设计了一个针对特定目标的目标依赖自注意力机制,对文本和目标词进行进一步的全局特征捕捉,提高模型对文本中重要特征的捕捉能力。
这种方法提升了模型在方面级情感分析任务中的性能,捕捉能力强。
附图说明
图1为实施例的流程示意图。
具体实施方式
下面结合附图及具体实施例对本发明作进一步的详细描述,但不是对本发明的限定。
实施例:
参照图1,一种基于多头注意力和词共现的方面级情感分析方法,包括如下步骤:
1)采用预训练的BERT模型对文本和目标词进行编码,分别得到文本嵌入表示和目标词嵌入表示,即步骤1)中所述的预训练的BERT模型把文本序列和目标词序列作为输入,并将序列中的每个单词都映射为一个词向量,得到融合左右上下文信息的文本嵌入表示和目标词嵌入表示其中n为句子长度,m为目标词长度,表示文本中的单词,表示文本中包含的目标词,且wa是wt的子集,emb_dim表示词嵌入的维度;
本例为使BERT模型能够更好地训练和微调,在文本序列和目标词序列的头部加上分类标识符“[CLS]”,在尾部加上分隔标识符“[SEP]”,如:“[CLS]+text+[SEP]”,“[CLS]+aspect+[SEP]”;
2)利用两种注意力编码器来分别建模文本的隐藏状态和句法结构,生成文本表示,以及建模目标词和文本之间的语义交互和依赖信息,生成目标词表示,两中注意力编码器均采用多头注意力机制,在学习文本结构特征和序列信息的同时刻画文本的隐藏状态和全局依赖信息,多头注意力机制的输入有三个,分别为查询矩阵键矩阵值矩阵其中dq,dk,dv分别为Q,K,V中向量的维度,nq,nk,nv分别为Q,K,V中向量的个数,为了简便,设置dk=dv且记为dmodel,多头注意力机制的具体计算过程如下:
第一步是使用点积函数计算Q和K之间的相似性分值Sim,具体公式如下:
其中,Ki表示键矩阵K中的第i个向量,Qj表示查询矩阵Q中的第j个向量,nq表示Q中向量个数,Simi表示查询矩阵Q中每个向量与Ki之间的相似性分值;
第二步是对相似性分值进行归一化处理来得到对应的权重系数,一般使用的是softmax函数,具体公式如下:
其中,Vi表示值矩阵V中第i个向量;
第四步是将多个注意力头拼接在一起,得到最终的注意力分数,具体公式如下:
MHA(Q,K,V)=concat(head1,head2,...,headn)W0,
headi=Attention(QWi Q,KWi K,VWi K),
tintra=MHA(et,et,et),
其中MHA()表示多头注意力;
ainter=MHA(et,ea,ea),
3)构建词共现矩阵,并通过多层图卷积神经网络将词共现矩阵分别与步骤2)得到的文本特征表示和目标词特征表示融合,生成文本特征表示和目标词特征表示,构建词共现矩阵的具体步骤如下:
3.1)根据现有的公开数据集,构建一个全局词共现图,
全局词共现图CGg是一个无向带权图,由一个结点集Vg和一个边集Eg构成,其中Vg中的每个结点都代表语料库中的一个单词,Eg中的每条边都代表这两个词具有共现关系,边的权重表示这两个词总共在多少条样本评论中共现过;
3.2)根据数据集中的每一条评论句子,构建一个局部词共现图,
局部词共现图CGl是一个无向带权图,由结点集Vl和边集El构成,其中Vl中的每个结点都代表该条评论文本中的一个单词,El中的每条边都代表两个词在该条评论中的共现关系,边的权重和全局词共现图中这两个词的边权重一致,表示这两个词在语料库中共现的次数;
3.3)根据文本中的单词为每条评论得到一个词共现矩阵A∈Rn×n,n为句子的长度;
本例中,将文本特征表示tintra和目标词特征表示ainter分别输入两个多层图卷积神经网络,并把它们作为各自多层网络中第0层的输入h0,之后每层的输入都为上一层的输出,在每层的卷积之前都先对特征表进行位置关系处理,具体公式如下:
4)通过自注意力机制对步骤3)得到的目标词特征表示作为查询矩阵,文本特征表示作为键矩阵和值矩阵,获得最终的文本表示,
hta=MHSA(ha,ht,ht),
其中,MHSA表示多头自注意力;
5)对步骤3)得到的文本特征表示和目标词特征以及步骤4)得到的最终文本表示进行平均池化和归一化操作,得到目标词的情感极性预测结果,具体步骤如下:
其中avg(·)表示平均池化操作;
5.2)将综合文本表示映射到分类空间中,具体公式如下,
5.3)通过softmax函数归一化后得到情感极性分布,将概率最高的标签作为最终的预测结果,具体公式如下,
为了更好地对本例加以理解,本实施例选用五组情感分类公开数据集,情感极性分为积极,消极,中性。5个数据集的情感极性分布如表1所示:
表1.数据集的统计信息
为了验证本实施例方法的有效性,以下选择与任务相关且具有代表性的模型作为baseline对比,并采用F1分数和准确度ACC来评价模型性能,对比结果如表2所示:
表2.对比实验结果
从表2所示的结果中可以看出,本例提出的TD-MHSA模型在四个数据集上的F1值均达到了最佳。特别是在Lap14、Rest15和Twitter数据集上,相对于第二好的实验结果,本例模型的F1值分别有2.2%、1.26%和1.55%的提升。在准确率方面本例模型也基本上达到了最佳。只在Rest14数据集上低于MNHMA模型0.9%,可能的原因是MNHMA模型在任务中给定了句中的方面词,因此在情感分类准确率上会略高于本例模型。在Rest16数据集上本例模型在准确率和F1值上均低于KumaGCN模型,认为KumaGCN通过潜在语法图和词依赖图来构建句子中的语法和语义信息,并通过门控机制将二者融合,使得模型能够捕捉到更加完整的语义和语法信息,加强模型的表征能力,从而提高模型的性能。捕捉更完整的语义个语法信息也是本文模型未来改善的方向。
在基于RNN的所有模型中,TD-LSTM模型的性能处于中下游水平,而RAM、AEN和本例模型TD-MHSA在多数数据集上都稳超TD-LSTM。分析其中的原因应该是TD-LSTM是基于LSTM的模型,它只对目标词进行比较粗略的处理,没有利用好目标词与上下文词之间的依赖关系和语义交互信息。而RAM、AEN和TD-MHSA都是基于注意力机制的模型,都对目标词进行不同的处理,以达到充分利用目标词信息的目的。TD-MHSA所达到的最佳结果证明了本文对于目标词与文本间依赖信息的利用是最有效的。
在Twitter数据集上,TD-LSTM、ATAE-LSTM、RAM模型的性能都不是非常好,原因可能是Twitter数据集中的数据来自于用户日常分享,文本长度通常较短,且不具备语法结构。因此基于LSTM和基于注意力机制的模型学习到的语法特征非常有限,无法做出很准确的预测。而ASGCN、KumaGCN和TD-MHSA的良好性能则说明引入外部信息,如文本的依赖解析树,词共现信息,是能提升模型性能的。
为了检验提出方法中的各个模块对于模型性能的影响,在所有数据集上都进行了消融实验,实验结果如表3所示:
表3.消融实验结果
表3中的model_in模型是针对两种注意力编码器的消融实验,用一个前馈神经网络来代替注意力编码器。从表3中可以看出,模型的性能有所下降,这表明注意力编码器确实能够提升模型的性能。Model_gcn模型是针对多层GCN的消融实验,删除了多层GCN,不使用额外的词共现信息。模型在所有数据集上的F1值都不如原模型,特别是在Twitter数据集上,模型性能下降了。这表明词共现信息对于模型准确判断目标词情感极性还是有很大帮助的。Model_td模型则是针对目标依赖的多头自注意力机制的消融实验,这里只使用普通的自注意力机制,将文本的特征表示作为自注意力的查询值和键值。实验结果表明,去除了目标词和文本之间的全局依赖信息,模型的性能有所下降。
综上所述,本例在方面级情感分析任务上有较好的性能。本例设计的两种注意力编码器,使得模型能从不同角度捕捉方面词与上下文词之间的语义和语法信息;其次,本例将共现信息整合进文本的特征表示里增强了特征向量的表示能力,有助于提升模型在方面级情感分析任务中的性能;最后本例设计的针对特定目标的目标依赖自注意力机制,对文本和目标词进行进一步的全局特征捕捉,提高模型对文本中重要特征的捕捉能力。
Claims (7)
1.一种基于多头注意力和词共现的方面级情感分析方法,其特征在于,包括如下步骤:
1)获得文本嵌入表示和目标词嵌入表示:采用预训练的BERT模型对文本和目标词进行编码,分别得到文本嵌入表示和目标词嵌入表示;
2)生成目标词表示:利用两种注意力编码器来分别建模文本的隐藏状态和句法结构,生成文本表示,以及建模目标词和文本之间的语义交互和依赖信息,生成目标词表示;
3)构建词共现矩阵,并通过多层图卷积神经网络将词共现矩阵分别与步骤2)得到的文本特征表示和目标词特征表示融合,生成文本特征表示和目标词特征表示;
4)获得最终的文本表示:通过自注意力机制对步骤3)得到的文本特征表示和目标词特征表示进行全局特征捕捉,获得最终的文本表示;
5)得到目标词的情感极性预测结果:对步骤3)得到的文本特征表示和目标词特征以及步骤4)得到的最终文本表示进行平均池化和归一化操作,得到目标词的情感极性预测结果。
2.根据权利要求1所述的基于多头注意力和词共现的方面级情感分析方法,其特征在于,步骤1)中所述的预训练的BERT模型把文本序列和目标词序列作为输入,并将序列中的每个单词都映射为一个词向量,最终得到融合左右上下文信息的文本嵌入表示和目标词嵌入表示。
3.根据权利要求1所述的基于多头注意力和词共现的方面级情感分析方法,其特征在于,步骤2)中所述的两种注意力编码器为内联多头注意力编码器和互联多头注意力编码器,通过内联多头注意力编码器计算文本中单词之间的相互影响,捕捉文本的内部相关信息,得到构建了内部依赖信息的本文特征表示;通过互联多头注意力编码器对目标词进行上下文感知建模,重点捕捉目标词与上下文词之间的依赖信息,得到包含上下文信息的目标词特征表示。
4.根据权利要求1所述的基于多头注意力和词共现的方面级情感分析方法,其特征在于,步骤3)中所述的构建词共现矩阵的具体步骤如下:
3.1)根据现有的公开数据集,构建一个全局词共现图;
3.2)根据数据集中的每一条评论句子,构建一个局部词共现图;
3.3)根据文本中的单词为每条评论得到一个词共现矩阵。
5.根据权利要求1所述的基于多头注意力和词共现的方面级情感分析方法,其特征在于,步骤3)中所述的多层图卷积神经网络将步骤2)得到的文本特征表示和目标词特征表示作为输入,在每层的卷积之前都对特征表示进行位置关系处理,而后将处理过的特征表示与词共现矩阵进行卷积,得到融合词共现信息的文本特征表示和目标词特征表示。
6.根据权利要求1所述的基于多头注意力和词共现的方面级情感分析方法,其特征在于,步骤4)中所述的通过多头自注意力机制将目标词特征表示作为查询矩阵,将文本特征表示作为键矩阵和值矩阵,获得最终的文本表示。
7.根据权利要求1所述的基于多头注意力和词共现的方面级情感分析方法,其特征在于,步骤5)中所述的对文本特征表示和目标词特征以及最终文本表示进行平均池化和归一化操作,得到目标词的情感极性预测结果的具体步骤如下:
5.1)将步骤4)得到的最终文本表示与步骤3)得到的两个特征表示一同施加平均池化操作,并将平均池化的结果拼接起来得到最后的综合文本表示;
5.2)将综合文本表示映射到分类空间中;
5.3)通过softmax函数归一化后得到情感极性分布,将概率最高的标签作为最终的预测结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210179715.2A CN114492458A (zh) | 2022-02-25 | 2022-02-25 | 一种基于多头注意力和词共现的方面级情感分析方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210179715.2A CN114492458A (zh) | 2022-02-25 | 2022-02-25 | 一种基于多头注意力和词共现的方面级情感分析方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114492458A true CN114492458A (zh) | 2022-05-13 |
Family
ID=81485396
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210179715.2A Pending CN114492458A (zh) | 2022-02-25 | 2022-02-25 | 一种基于多头注意力和词共现的方面级情感分析方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114492458A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114881042A (zh) * | 2022-06-02 | 2022-08-09 | 电子科技大学 | 基于图卷积网络融合句法依存与词性的中文情感分析方法 |
CN115017916A (zh) * | 2022-06-28 | 2022-09-06 | 华南师范大学 | 方面级情感分析方法、装置、电子设备及存储介质 |
-
2022
- 2022-02-25 CN CN202210179715.2A patent/CN114492458A/zh active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114881042A (zh) * | 2022-06-02 | 2022-08-09 | 电子科技大学 | 基于图卷积网络融合句法依存与词性的中文情感分析方法 |
CN114881042B (zh) * | 2022-06-02 | 2023-05-02 | 电子科技大学 | 基于图卷积网络融合句法依存与词性的中文情感分析方法 |
CN115017916A (zh) * | 2022-06-28 | 2022-09-06 | 华南师范大学 | 方面级情感分析方法、装置、电子设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111488734B (zh) | 基于全局交互和句法依赖的情感特征表示学习系统及方法 | |
CN110083705B (zh) | 一种用于目标情感分类的多跳注意力深度模型、方法、存储介质和终端 | |
CN110826336B (zh) | 一种情感分类方法、系统、存储介质及设备 | |
US11631007B2 (en) | Method and device for text-enhanced knowledge graph joint representation learning | |
CN108984724B (zh) | 利用高维表示提高特定属性情感分类准确率方法 | |
CN113641820A (zh) | 基于图卷积神经网络的视角级文本情感分类方法及系统 | |
CN111291556B (zh) | 基于实体义项的字和词特征融合的中文实体关系抽取方法 | |
CN114547298B (zh) | 基于多头注意力和图卷积网络结合R-Drop机制的生物医学关系抽取方法、装置和介质 | |
CN108536735B (zh) | 基于多通道自编码器的多模态词汇表示方法与系统 | |
CN112651940B (zh) | 基于双编码器生成式对抗网络的协同视觉显著性检测方法 | |
Zhang et al. | A multi-feature fusion model for Chinese relation extraction with entity sense | |
CN114492458A (zh) | 一种基于多头注意力和词共现的方面级情感分析方法 | |
CN112395417A (zh) | 基于深度学习的网络舆情演化仿真方法及系统 | |
CN113705238A (zh) | 基于bert和方面特征定位模型的方面级情感分析方法及模型 | |
CN113378573A (zh) | 面向内容大数据的小样本关系抽取方法和装置 | |
CN113255366A (zh) | 一种基于异构图神经网络的方面级文本情感分析方法 | |
CN114881042A (zh) | 基于图卷积网络融合句法依存与词性的中文情感分析方法 | |
CN114528398A (zh) | 一种基于交互双重图卷积网络的情感预测方法及系统 | |
CN115730232A (zh) | 基于主题相关的异构图神经网络跨语言文本分类方法 | |
CN114048314B (zh) | 一种自然语言隐写分析方法 | |
CN114169408A (zh) | 一种基于多模态注意力机制的情感分类方法 | |
CN111382333B (zh) | 基于案件相关性联合学习与图卷积的新闻文本句中案件要素抽取方法 | |
CN113486143A (zh) | 一种基于多层级文本表示及模型融合的用户画像生成方法 | |
Biswas et al. | Design and Implementation for Research Paper Classification Based on CNN and RNN Models | |
Basu et al. | Guest editors' introduction to the special section on syntactic and structural pattern recognition |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |