CN111985205A - 一种方面级情感分类模型 - Google Patents

一种方面级情感分类模型 Download PDF

Info

Publication number
CN111985205A
CN111985205A CN202010778078.1A CN202010778078A CN111985205A CN 111985205 A CN111985205 A CN 111985205A CN 202010778078 A CN202010778078 A CN 202010778078A CN 111985205 A CN111985205 A CN 111985205A
Authority
CN
China
Prior art keywords
sentence
layer
attention
given
word
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010778078.1A
Other languages
English (en)
Inventor
刘博�
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chongqing University
Original Assignee
Chongqing University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chongqing University filed Critical Chongqing University
Priority to CN202010778078.1A priority Critical patent/CN111985205A/zh
Publication of CN111985205A publication Critical patent/CN111985205A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/049Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Machine Translation (AREA)

Abstract

本发明公开了一种方面级情感分类模型,应用在方面级情感分类领域中的深度学习模型,多是选择卷积神经网络CNN或者循环神经网络RNN来提取句子中的特征,尤其是RNN与注意力机制的结合应用较为广泛且取得的效果不错。但RNN顺序处理数据的方式限制了模型的运行效率且计算代价较大,因此本申请提出采用多头注意力机制来提取特征;另外为了加强句子与给定方面的联系,将句子与给定方面交互建模,互相监督其注意力的生成。

Description

一种方面级情感分类模型
技术领域
本发明涉及人工智能技术领域,更具体地说,它涉及一种方面级情感分类模型。
背景技术
方面级情感分类是细粒度的情感分析任务,也是NLP的基本任务。先前是通过基于情感词典或手工特征的方法来解决该任务。基于情感词典的方法是利用情感词典的先验信息识别文本所表达的情感,因情感词典大小有限且忽略语义信息,从而模型的分类往往不准确。基于手工特征的方法是通过研究者设计的特征,利用支持向量机等机器学习方法作为分类器,对文本情感极性进行分类。在一个数据集上设计的特征因泛化能力不强,往往不能直接应用到另一个数据集上,需要重新设计新的特征,这就需要大量的人工。面对日益增长的文本数据分析需求,先前的方法难以高效的应对。于是研究者开始提出自动化的方法来解决方面级情感分类问题。
近年来,基于神经网络的方面级情感分类已成为主流。例如,Dong等人提出的AdaRNN根据上下文和它们之间的句法关系将词的情感自适应地传递到给定方面。这类依赖句法解析的模型对有噪声的数据(例如,Twitter),容易受到句法解析错误的影响。相比之下,因序列处理能力突出的循环神经网络在情感分析也被广泛应用,并证明了其有效性。例如,Tang等人提出TC-LSTM模型利用两个长短时记忆网络LSTM分别对给定方面与其左侧上下文和右侧上下文进行建模。基于神经网络的方法能够自动学习特征进行情感极性分类,对文本中的每个词做同样的处理,但文本中只有一部分词与给定方面的情感表达有关,无法区分词之间的重要性。例如SemEval2014 Restaurant数据集的数据:
“From the beginning,we were met by friendly staff members,and theconvenient parking at Chelsea Piers made it easy for us to get to the boat.”
上下文中“met”与给定方面“staff members”的情感极性毫无关系,而“friendly”与给定方面的情感极性紧密相关。上述基于神经网络的模型无法区分上下文中词对给定方面的重要性,于是注意力机制被引入了神经网络模型。
在神经网络模型中引入注意力机制取得了较好的分类效果,并得到了广泛应用。神经网络中的注意力机制能够自动识别源句子中给定方面的相关信息,直接提高神经网络模型提取特征的质量。例如,Zeng等人提出基于注意力的LSTM模型,利用注意力机制进一步获得文本特征,分析不同上下文词的权重。Wang等人提出将方面表示与词嵌入拼接,并在计算注意力时加入方面表示进行建模。以及Li等人利用双向LSTM和多注意力层进行方面级情感分类。因此,注意力机制对于方面级情感分类任务甚至实际应用是必不可少的。
基于注意力的神经网络模型在方面级情感分类任务中基本令人满意,但还有进一步提高的可能。这些模型通常是将注意力机制与循环神经网络相结合(例如,LSTM),但它不能并行处理数据。于是Vaswani等人提出多头注意力模型能够并行处理数据且效果很好。上述方法通过生成给定方面的表示来提高模型的准确率,可见给定方面对于情感分类是相当重要的。只有通过给定方面与上下文相互协调才能提高模型分类的准确率。
发明内容
本发明目的在于针对上述现有技术的不足,提出一种方面级情感分类模型。
本发明的上述技术目的是通过以下技术方案得以实现的:
一种方面级情感分类模型,包括嵌入层、神经网络层、注意力层和输出层;
嵌入层用于将句子转化为对应的词向量表示;
神经网络层用于将句子的词向量表示转化为相应的隐藏状态序列;
注意力层用于从句子的隐藏状态中捕获对于识别给定方面的情感极性来说重要的信息;
输出层用于对注意力层的输出进行变化,输出句子对于给定方面表达的情感分类。
其中,包括以下分类方法:
S1:给定一个句子对(S,A),其中m个词组成的方面词A={t1,t2,…,tm}是n个词组成的句子S={c1,c2,…,cn}的子序列;
S2:对于给定的句子对(S,A),将整个句子的每个词在预训练词向量矩阵中找到对应的词向量,然后将这些词向量按照句子中词的顺序组合起来形成对应的词向量矩阵
Figure BDA0002619214700000041
Figure BDA0002619214700000042
S3:将S2得到的词向量矩阵输入到神经网络层,神经网络层将词向量读入,接着编码词向量,获得相应的隐藏状态:
Figure BDA0002619214700000043
其中,词向量Wc i读入神经网络层后,输出隐藏状态
Figure BDA0002619214700000044
第i个时间步用i表示,在神经网络层产生的用下标x表示;
S4:经S3处理后,获得隐藏状态序列
Figure BDA0002619214700000045
然后将整个隐藏状态序列输入至注意力层,注意力层对句子中不同的词分配不同的注意力权重,得到注意力层句子的加权表示
Figure BDA0002619214700000046
其中,S3过程中,神经网络层选择门控循环单元GRU,其详细的计算过程详细如下:
GRU由重置门和更新门两部分构成,更新门用于决定删除和添加的内容,重置门用于决定遗忘以前信息的程度,计算过程如下:
Figure BDA0002619214700000047
Figure BDA0002619214700000048
Figure BDA0002619214700000049
Figure BDA00026192147000000410
其中,
Figure BDA00026192147000000411
Figure BDA00026192147000000412
Figure BDA00026192147000000413
表示权重矩阵,
Figure BDA00026192147000000414
Figure BDA00026192147000000415
Figure BDA00026192147000000416
表示偏置,权重矩阵和偏置都是模型训练过程中需要学习的参数,不同时间步之间共享参数。
其中,S4过程中,计算过程如下:
Figure BDA0002619214700000051
Figure BDA0002619214700000052
Figure BDA0002619214700000053
其中,在注意力层
Figure BDA0002619214700000054
为目标句子,
Figure BDA0002619214700000055
为源句子,et,i是目标句子中第t个位置和源句子的第i个位置之间匹配程度的评分,αt,i表示生成第t个目标词St时,分配给源句子第i个位置的注意力权重;
注意力层的输出传入输出层,通过分类器识别句子对于给定方面标的情感极性是积极、中性或消极,计算过程如下:
Figure BDA0002619214700000056
(15)将句子的加权表示r进行线性变换,将其长度转换为类别数|C|,softmax函数将其归一化为0-1的条件概率分布
Figure BDA0002619214700000057
其中,包括以下分类方法:
T1:给定一个句子对(S,A),其中m个词组成的方面词A={t1,t2,…,tm}是n个词组成的句子S={c1,c2,…,cn}的子序列;
T2:对于给定的句子对(S,A),嵌入层将给定方面与句子分别在预训练词向量矩阵中找到对应的词向量,形成句子的词向量矩阵
Figure BDA0002619214700000058
和给定方面的词向量矩阵
Figure BDA0002619214700000059
T3:将T2得到的给定方面词向量矩阵与句子词向量矩阵进行编码,提取给定方面与句子的特征;计算过程如下:
Figure BDA0002619214700000061
Figure BDA0002619214700000062
其中,
Figure BDA0002619214700000063
是句子词向量编码后第i个时间步隐藏状态,
Figure BDA0002619214700000064
是给定方面向量编码后的第i个时间步隐藏状态;
生成句子隐藏状态序列
Figure BDA0002619214700000065
和给定方面隐藏状态序列
Figure BDA0002619214700000066
同时将HC和Ht通过池化技术获得对应隐藏状态序列平均值,计算过程如下:
Figure BDA0002619214700000067
Figure BDA0002619214700000068
T4:将神经网络层的输出HC,Ht
Figure BDA0002619214700000069
Figure BDA00026192147000000610
传入注意力层,利用HC
Figure BDA00026192147000000611
生成句子隐藏状态的加权表示rc,利用Ht
Figure BDA00026192147000000612
生成给定方面隐藏状态的加权表示rt,计算过程如下:
Figure BDA00026192147000000613
其中,αi表示句子中第i个隐藏状态的注意力权重,α为评分函数,计算过程如下:
Figure BDA00026192147000000614
给定方面的注意力权重计算过程如下:
Figure BDA00026192147000000615
最终得到句子与给定方面隐藏状态的加权表示
Figure BDA0002619214700000071
Figure BDA0002619214700000072
计算过程如下:
Figure BDA0002619214700000073
Figure BDA0002619214700000074
其中,将注意力层的rc与rt输入注意力层拼接为r,通过softmax分类器进行分类,计算过程如下:
r=[rc;rt] (25)
Figure BDA0002619214700000075
将句子的加权表示r进行线性变换,将其长度转换为类别数|C|,softmax函数将其归一化为0-1的条件概率分布
Figure BDA0002619214700000076
其中,包括以下分类方法:
U1:给定一个句子对(S,A),其中m个词组成的方面词A={t1,t2,…,tm}是n个词组成的句子S={c1,c2,…,cn}的子序列;
U2:对于给定的句子对(S,A),嵌入层将给定方面与句子分别在预训练词向量矩阵中找到对应的词向量,形成句子的词向量矩阵
Figure BDA0002619214700000077
和给定方面的词向量矩阵
Figure BDA0002619214700000078
U3:对给定方面词向量矩阵与句子词向量矩阵进行编码,提取给定方面与句子的特征;将句子词向量矩阵X输入多头自注意力MHSA中,同时将句子词向量矩阵和给定方面句词向量矩阵输入MHA中,然后对MHSA和MHA中的输出分别进行卷积运算;
U4:经U3处理后,利用方面词隐藏状态和上下文隐藏状态的平均池化来监督方面词的注意力权重生成,上下文隐藏状态和方面词隐藏状态的平均池化来监督上下文的注意力权重生成。
其中,U3过程中,注意力机制的计算可以分为两个部分:第一部分,根据Query和Key来计算注意权重系数,首先根据Query和Key计算它们之间的相似性或者相关性,再对其原始分值进行归一化处理;第二部分,根据权重系数对Value进行加权求和;注意力分布为:
Attention(k,q)=softmax(α(k,q)) (27)
其中,α表示计算两者相似性或相关度的评分函数,具体计算如下:
α=ktanh([ki;qj]·Wa) (28)
特定的参数设置中,head为8,head之间参数不共享,将获得的不同表示连接在一起,通过线性变换获得MHA的最终结果,计算过程如下:
headi=Attention(k,q) (29)
Figure BDA0002619214700000081
其中,WO是需要学习的权重矩阵;
句子词嵌入矩阵对应q和k的值计算过程如下:
Figure BDA0002619214700000082
Figure BDA0002619214700000083
为加强上下文与方面词之间的交互,将上下文与方面词输入MHA中处理,这时,q与k的值不同,上下文为k,方面词为q,计算过程如下:
Figure BDA0002619214700000091
Figure BDA0002619214700000092
多头注意力机制输出后进行卷积运算,保证每个位置的隐藏维度最终都保持相同大小;卷积部分的完整连接层有两层密集层,第一层是Relu激活函数,第二层是线性激活函数,通过卷积核大小为1的卷积运算生成相应的权重;使用卷积运算对其进行转换,计算过程如下:
conv(h)=Relu(h*W1+b1)*W2+b2 (35)
其中,*表示卷积运算,卷积运算中的权重
Figure BDA0002619214700000093
Figure BDA0002619214700000094
偏置
Figure BDA0002619214700000095
上下文cs与方面词tm进行卷积运算获取对应的隐藏向量表示,公式如下:
Figure BDA0002619214700000096
Figure BDA0002619214700000097
Figure BDA0002619214700000098
Figure BDA0002619214700000099
通过隐藏层的处理,获得了有利于该任务的隐藏状态。
其中,U4过程中,计算过程如下:
Figure BDA00026192147000000910
Figure BDA00026192147000000911
Figure BDA00026192147000000912
Figure BDA00026192147000000913
将注意力层的rc与rt输入注意力层拼接为r,通过softmax分类器进行分类,计算过程如下:
r=[rc;rt] (44)
Figure BDA0002619214700000101
上式将句子的加权表示r进行线性变换,将其长度转换为类别数|C|,softmax函数将其归一化为0-1的条件概率分布
Figure BDA0002619214700000102
一种基于多头注意力的方面级情感分类模型,基于上述的方面级情感分类模型,包括嵌入层、隐藏层、交互层和输出层;
隐藏层与神经网络层作用相同;交互层与注意力层作用相同;
嵌入层是利用Glove词嵌入将句子和给定方面转化为词向量表示形式;
隐藏层是将句子的词向量利用多头自注意力捕获上下文内部联系,对给定方面的词向量利用多头注意力捕获句子与给定方面间联系,再分别利用卷积运算保证每个位置的隐藏维度最终都保持相同大小,获得隐藏层最终的隐藏状态;
交互层是句子与给定方面交互建模,分析不同词对于给定方面的情感极性的重要性,利用方面词隐藏状态和上下文隐藏状态的平均池化来监督方面词的注意力权重生成,上下文隐藏状态和方面词隐藏状态的平均池化来监督上下文的注意力权重生成;
输出层是将交互层的输出进行拼接后输入到函数中,得到情感极性的概率分布,最大概率为最终结果。
综上所述,本发明具有以下有益效果:
(1)本发明提出的方面级情感分类模型利用多头注意力机制与卷积运算获取隐藏状态,利用多头注意机制对上下文和方面词进行建模,增强了方面信息与句子的关联度,提高了模型对给定方面的情感极性分类;
(2)本发明提出的方面级情感分类模型在不同领域数据集上的分类准确率和macro-F1值均有不同程度的提高,且达到了较高的水平。
附图说明
图1是本发明实施例的SCBMA模型框架图;
图2是本发明实施例的基于注意力的方面级情感分类模型框架图;
图3是本发明图LSTM(左)与GRU(右)模型结构对比图;
图4是本发明实施例的基于交互注意力的方面级情感分类模型框架的结构示意图;
图5是本发明实施例的多头注意力机制结构示意图。
具体实施方式
本说明书及权利要求并不以名称的差异来作为区分组件的方式,而是以组件在功能上的差异来作为区分的准则。如在通篇说明书及权利要求当中所提及的“包括”为一开放式用语,故应解释成“包括但不限定于”。“大致”是指在可接收的误差范围内,本领域技术人员能够在一定误差范围内解决所述技术问题,基本达到所述技术效果。
假设给定一个句子对(S,A),其中方面词是由n个词组成的句子的序列,模型的目的是预测句子S关于给定方面A的情感极性是积极、消极或中性。基于多头注意力的方面级情感分类模型(SCBMA)主要分为四层:嵌入层、隐藏层、交互层和输出层,其模型结构如图1所示。嵌入层是利用Glove词嵌入将句子和给定方面转化为词向量表示形式。隐藏层是将句子的词向量利用多头自注意力捕获上下文内部联系,对给定方面的词向量利用多头注意力捕获句子与给定方面间联系,再分别利用卷积运算保证每个位置的隐藏维度最终都保持相同大小,获得隐藏层最终的隐藏状态。交互层是句子与给定方面交互建模,分析不同词对于给定方面的情感极性的重要性。利用方面词隐藏状态和上下文隐藏状态的平均池化来监督方面词的注意力权重生成,上下文隐藏状态和方面词隐藏状态的平均池化来监督上下文的注意力权重生成。输出层是将交互层的输出进行拼接后输入到softmax函数中,模型得到情感极性的概率分布,最大概率为最终结果。
基于注意力的方面级情感分类模型SCBA(Sentiment Classifier Based onAttention)是本申请提出的第一个基线模型,该模型是基于注意力的神经网络模型的基础版本,通过该模型进而了解交互注意力的方面级情感分类模型以及多注意力头的方面级情感分类模型。SCBA模型与交互注意力和多注意力模型不同的是,它是直接将整个句子输入模型进行编码,但未对给定方面进行处理。严格来说,SCBA模型可以看做句子级的情感分类模型。SCBA模型如图2所示。
从图2可以看出SCBA模型结构由嵌入层、神经网络层、注意力层、输出层四部分构成。假设输入为一个句子和给定方面,嵌入层的作用是将句子转化为对应的词向量表示;神经网络层的作用是将句子的词向量表示转化为相应的隐藏状态序列;注意力层的作用是从句子的隐藏状态中捕获对于识别给定方面的情感极性来说重要的信息。输出层的作用是对注意力层的输出进行变换,通过softmax函数输出句子对于给定方面表达的情感极性是积极、消极还是中性。下面对SCBA模型按照嵌入层、神经网络层、注意力层、输出层的顺序进行详细描述。
首先给定一个句子对(S,A),其中m个词组成的方面词A={t1,t2,…,tm}是n个词组成的句子S={c1,c2,…,cn}的子序列。SCBA模型首先将整个句子的每个词在预训练词向量矩阵中找到对应的词向量,接着将这些词向量按照句子中词的顺序组合起来形成对应的词向量矩阵
Figure BDA0002619214700000131
Figure BDA0002619214700000132
然后将这个词向量矩阵输入神经网络层,这里的神经网络层选择的是LSTM的变体门控循环单元GRU(Gate Recurrent Unit),GRU的模型结构比LSTM简单,计算量更少,效率更高,因而在NLP领域被广泛应用。GRU根据句子中词的顺序依次将词向量读入,接着编码词向量,获得对应的隐藏状态,如公式1所示。
Figure BDA0002619214700000133
其中,词向量Wc i读入神经网络层后,输出隐藏状态
Figure BDA0002619214700000134
第i个时间步用i表示,在神经网络层产生的用下标x表示。下面描述GRU详细的计算过程。前面提到GRU是在LSTM的基础上进行简化,使计算效率更高,其原因是GRU去掉了LSTM中的细胞状态,使用隐藏状态进行信息传递。
LSTM和GRU的核心是“门”结构,其中LSTM还包括细胞状态。在LSTM中“门”控制信息添加以及删除,细胞状态是信息传输的路径,保证信息在序列中传递。LSTM中的“门”是由遗忘门、输入门和输出门三部分构成,“门”里Sigmoid函数的值在0~1范围,利于更新和遗忘信息。在这里,任何数乘以0为0,表示该部分信息将会被遗忘;任何数乘以1为1,表示该部分信息将会被保留。遗忘门是将当前输入信息和前一个隐藏状态信息传递到Sigmoid函数,决定遗忘或保留哪些信息。输入门是将当前输入信息和前一个隐藏状态信息传递到Sigmoid函数,决定更新哪些信息;其次还将前一个隐藏状态信息和当前输入信息传递到tanh函数,创造新的候选值向量;最后将tanh函数和Sigmoid函数的输出值相乘,tanh函数的输出值被Sigmoid函数的输出值决定哪些信息重要需要保留下来。细胞状态是将前一个细胞状态与遗忘门输出的向量相乘,然后再与输入门输出的向量相加,最终获得新的细胞状态。输出门是将前一个隐藏状态信息和当前输入信息传递到Sigmoid函数;另外,新获得的细胞状态传递给tanh函数;最后将Sigmoid和tanh函数的输出值相乘,获得新的隐藏状态。LSTM模型的计算公式如2~7所示。
Figure BDA0002619214700000141
Figure BDA0002619214700000142
Figure BDA0002619214700000143
Figure BDA0002619214700000144
Figure BDA0002619214700000145
Figure BDA0002619214700000151
其中,
Figure BDA0002619214700000152
Figure BDA0002619214700000153
Figure BDA0002619214700000154
Figure BDA0002619214700000155
表示权重矩阵,
Figure BDA0002619214700000156
Figure BDA0002619214700000157
Figure BDA0002619214700000158
Figure BDA0002619214700000159
表示偏置,权重矩阵和偏置都是模型训练过程中需要学习的参数。
GRU由重置门、更新门两部分构成,更新门与LSTM中遗忘门和输入门的作用类似,决定删除哪些和添加哪些,重置门决定遗忘以前信息的程度。LSTM与GRU模型结构的对比如图3所示。
GRU模型的计算公式如8~11所示。
Figure BDA00026192147000001510
Figure BDA00026192147000001511
Figure BDA00026192147000001512
Figure BDA00026192147000001513
其中,
Figure BDA00026192147000001514
Figure BDA00026192147000001515
Figure BDA00026192147000001516
表示权重矩阵,
Figure BDA00026192147000001517
Figure BDA00026192147000001518
Figure BDA00026192147000001519
表示偏置,权重矩阵和偏置都是模型训练过程中需要学习的参数,不同时间步之间共享参数。
GRU模型将整个句子读取后,获得隐藏状态序列
Figure BDA00026192147000001520
将整个隐藏状态序列输入注意力层,注意力层对句子中不同的词分配不同的注意力权重,得到注意力层句子的加权表示
Figure BDA00026192147000001521
计算过程如公式12~14。
Figure BDA00026192147000001522
Figure BDA00026192147000001523
Figure BDA00026192147000001524
其中,在注意力层
Figure BDA00026192147000001525
为目标句子,
Figure BDA00026192147000001526
为源句子,et,i是目标句子中第t个位置和源句子的第i个位置之间匹配程度的评分,αt,i表示生成第t个目标词St时,分配给源句子第i个位置的注意力权重。当输入是不同的方面时,模型的注意力机制捕获句子与不同方面的重要部分。
注意力层的输出传入输出层,通过softmax分类器来识别句子对于给定方面标的的情感极性是积极、中性或消极。计算过程如公式15:
Figure BDA0002619214700000161
上式将句子的加权表示r进行线性变换,将其长度转换为类别数|C|,softmax函数将其归一化为0-1的条件概率分布
Figure BDA0002619214700000162
模型的情感极性取决于情感极性概率最高的类别。
上述算法中涉及循环神经网络GRU和注意力机制,假设句子的长度为n,词嵌入维度为d(n<d)。注意力机制的时间复杂度为Ο(n2·d),GRU的时间复杂度为Ο(n·d2)。因此,算法的时间复杂度为Ο(n·d2)。
SCBA是一个简单的句子级情感分类模型,没有将给定方面信息纳入模型中。因此,SCBA模型无法解决句子中包含多个方面,但每个方面的情感极性不同的情况。例如,“Thefalafel was rather over cooked and dried but the chicken was fine.”句子,给定方面为“falafel”和“chicken”。句子对于给定方面“falafel”的情感极性是消极的,但对于给定方面“chicken”的情感极性是积极的。SCBA模型识别给定方面“falafel”和“chicken”的情感极性是一致的。Jiang等人指出情感分类任务中40%的错误是因为在情感分类中没有考虑给定方面造成的,近期研究往往加强给定方面在上下文模型中的作用。
上下文与给定方面相互作用,才能提高情感分类模型的性能。例如,“It's fast,light,and simple to use.”句子,“fast”与电脑反应搭配时,表达的情感是积极的。但与使用时间搭配时,表达的情感是消极的。如果将给定方面与上下文联系起来,交互学习,共同建模,就能够清晰了解上下文中的词指的是哪方面,给定方面所处的上下文是什么。因此,提出一种上下文与给定方面相互协调的基于交互注意力的方面级情感分类模型SCBIA(Sentiment Classification Based on Interactive Attention)。SCBIA模型为了更好的模拟给定方面的意义,使用GRU对给定方面建模。为了将给定方面和上下文更好地获取重要信息,给定方面与上下文分别计算注意力权重。为了识别给定方面在上下文的情感极性,结合给定方面表示和上下文表示。SCBIA模型如图4所示。
首先给定一个句子对(S,A),其中m个词组成的方面词A={t1,t2,…,tm}是n个词组成的句子S={c1,c2,…,cn}的子序列。嵌入层将给定方面与句子分别在预训练的词向量词典中找到对应的词向量,形成句子的词向量矩阵
Figure BDA0002619214700000171
和给定方面的词向量矩阵
Figure BDA0002619214700000172
神经网络层将给定方面词向量矩阵与句子词向量矩阵进行编码,提取给定方面与句子的特征。计算公式16~17所示。
Figure BDA0002619214700000173
Figure BDA0002619214700000174
其中,
Figure BDA0002619214700000175
是句子词向量编码后第i个时间步隐藏状态,
Figure BDA0002619214700000176
是给定方面向量编码后的第i个时间步隐藏状态。最终生成句子隐藏状态序列
Figure BDA0002619214700000181
和给定方面隐藏状态序列
Figure BDA0002619214700000182
同时将HC和Ht通过池化技术获得对应隐藏状态序列平均值。计算方式如公式18~19。
Figure BDA0002619214700000183
Figure BDA0002619214700000184
将神经网络层的输出HC,Ht
Figure BDA0002619214700000185
Figure BDA0002619214700000186
传入注意力层,利用HC
Figure BDA0002619214700000187
生成句子隐藏状态的加权表示rc,利用Ht
Figure BDA0002619214700000188
生成给定方面隐藏状态的加权表示rt。计算过程如公式20所示。
Figure BDA0002619214700000189
上式中αi表示句子中第i个隐藏状态的注意力权重,α为评分函数,其计算过程如公式21所示。
Figure BDA00026192147000001810
同理,给定方面的注意力权重计算如公式22所示。
Figure BDA00026192147000001811
最终得到句子与给定方面隐藏状态的加权表示
Figure BDA00026192147000001812
Figure BDA00026192147000001813
计算过程如公式23~24所示。
Figure BDA00026192147000001814
Figure BDA00026192147000001815
将注意力层的rc与rt输入注意力层拼接为r,通过softmax分类器进行分类,计算过程如公式25~26所示。
r=[rc;rt] (25)
Figure BDA0002619214700000191
上式将句子的加权表示r进行线性变换,将其长度转换为类别数|C|,softmax函数将其归一化为0-1的条件概率分布
Figure BDA0002619214700000192
模型的情感极性取决于情感极性概率最高的类别。
上述算法中涉及循环神经网络GRU和注意力机制,假设句子的长度为n,词嵌入维度为d(n<d)。注意力机制的时间复杂度为Ο(n2·d),GRU的时间复杂度为Ο(n·d2)。因此,算法的时间复杂度为Ο(n·d2)。
SCBIA模型利用了方面信息,上下文与方面相互协调交互学习,相比于SCBA模型更加适合方面级情感分类任务。但是传统的神经网络注意力不能并行处理数据,模型的效率得不到提升。为了提升模型的效率,提出基于多头注意力的方面级情感分类模型SCBMA(Sentiment Classification Based on Multi-head Attention)。与SCBIA模型相比,SCBMA模型多次采用多头注意力MHA(Multi-head Attention),传统的神经网络由多头注意力和卷积运算来代替捕获上下文与方面的特征,注意力层也采用多头注意力实现上下文与方面的交互。图1给出了SCBMA的模型框架示意图,这里不再重复给出。下面对SCBMA模型的具体实现方法进行详细的解释。
首先给定一个句子对(S,A),其中m个词组成的方面词A={t1,t2,…,tm}是n个词组成的句子S={c1,c2,…,cn}的子序列。嵌入层与SCBIA模型相同,将给定方面与句子分别在预训练的词向量词典中找到对应的词向量,形成句子的词向量矩阵
Figure BDA0002619214700000193
和给定方面的词向量矩阵
Figure BDA0002619214700000201
SCBMA模型的隐藏层与SCBIA模型的神经网络层作用一致,是对给定方面词向量矩阵与句子词向量矩阵进行编码,提取给定方面与句子的特征。将句子词向量矩阵X输入多头自注意力MHSA(Multi-head Self Attention)中,同时将句子词向量矩阵和给定方面句词向量矩阵输入MHA中,然后对MHSA和MHA中的输出分别进行卷积运算。由于这里采用了MHSA和MHA注意力机制,多头注意力机制的架构如图所示,下面描述多头注意力机制的实现。
注意力机制的计算可以分为两个部分:第一部分,根据Query和Key来计算注意权重系数,首先根据Query和Key计算它们之间的相似性或者相关性,再对其原始分值进行归一化处理;第二部分,根据权重系数对Value进行加权求和。相应的注意力分布可用公式27表示。
Attention(k,q)=softmax(α(k,q)) (27)
其中,α表示计算两者相似性或相关度的评分函数,其具体计算如公式28所示。
α=ktanh([ki;qj]·Wa) (28)
与传统注意力机制不同的是,MHA能够并行计算数据,因为MHA允许模型在不同位置共同关注不同表示子空间的信息,如果只有一个注意力头,平均值就会受到抑制。特定的参数设置中,head为8,head之间参数不共享,将获得的不同表示连接在一起,通过线性变换获得MHA的最终结果。计算过程如公式29~30所示。
headi=Attention(k,q) (29)
Figure BDA0002619214700000211
其中,WO是需要学习的权重矩阵。
根据不同的情况,注意力机制可以分为MHA和MHSA,它们的区别在于q与k的值是否相同,MHSA是在特殊情况q=k的典型注意力机制,模型中上下文是通过MHSA处理的,句子词嵌入矩阵对应q和k的值,计算过程如31~32所示。
Figure BDA0002619214700000212
Figure BDA0002619214700000213
为了加强上下文与方面词之间的交互,将上下文与方面词输入MHA中处理,这时,q与k的值不同,上下文为k,方面词为q。计算过程如公式33~34所示。
Figure BDA0002619214700000214
Figure BDA0002619214700000215
多头注意力机制输出后进行卷积运算,保证每个位置的隐藏维度最终都保持相同大小。卷积部分的完整连接层有两层密集层,第一层是Relu激活函数,第二层是线性激活函数,通过卷积核大小为1的卷积运算生成相应的权重。为了进一步分析上下文与方面词的信息,使用卷积运算对其进行转换。计算过程如公式35所示。
conv(h)=Relu(h*W1+b1)*W2+b2 (35)
其中,*表示卷积运算,卷积运算中的权重
Figure BDA0002619214700000216
偏置
Figure BDA0002619214700000217
上下文cs与方面词tm进行卷积运算获取对应的隐藏向量表示。公式如36~39所示。
Figure BDA0002619214700000218
Figure BDA0002619214700000221
Figure BDA0002619214700000222
Figure BDA0002619214700000223
通过隐藏层的处理,获得了有利于该任务的隐藏状态。实验证明,该方法的效果远优于仅使用神经网络最终结果。
为了加强上下文与方面词之间的联系,隐藏层输出后进入交互层。交互层目的是分析不同词对于给定方面的情感极性的重要性。利用方面词隐藏状态和上下文隐藏状态的平均池化来监督方面词的注意力权重生成,上下文隐藏状态和方面词隐藏状态的平均池化来监督上下文的注意力权重生成。计算过程如40~43所示。
Figure BDA0002619214700000224
Figure BDA0002619214700000225
Figure BDA0002619214700000226
Figure BDA0002619214700000227
将注意力层的rc与rt输入注意力层拼接为r,通过softmax分类器进行分类,计算过程如公式44~45。
r=[rc;rt] (44)
Figure BDA0002619214700000228
上式将句子的加权表示r进行线性变换,将其长度转换为类别数|C|,softmax函数将其归一化为0-1的条件概率分布
Figure BDA0002619214700000229
模型的情感极性取决于情感极性概率最高的类别。
上述算法中涉及多头注意力和卷积运算,假设句子的长度为n,词嵌入维度为d(n<d),卷积运算的内核大小为1。多头注意力的时间复杂度为Ο(n2·d),卷积运算的时间复杂度为Ο(n·d2)。因此,算法的时间复杂度为Ο(n·d2)。
本具体实施例仅仅是对本发明的解释,其并不是对本发明的限制,本领域技术人员在阅读完本说明书后可以根据需要对本实施例做出没有创造性贡献的修改,但只要在本发明的权利要求范围内都受到专利法的保护。

Claims (9)

1.一种方面级情感分类模型,其特征在于,包括嵌入层、神经网络层、注意力层和输出层;
嵌入层用于将句子转化为对应的词向量表示;
神经网络层用于将句子的词向量表示转化为相应的隐藏状态序列;
注意力层用于从句子的隐藏状态中捕获对于识别给定方面的情感极性来说重要的信息;
输出层用于对注意力层的输出进行变化,输出句子对于给定方面表达的情感分类。
2.根据权利要求1所述的方面级情感分类模型,其特征在于,包括以下分类方法:
S1:给定一个句子对(S,A),其中m个词组成的方面词A={t1,t2,…,tm}是n个词组成的句子S={c1,c2,…,cn}的子序列;
S2:对于给定的句子对(S,A),将整个句子的每个词在预训练词向量矩阵中找到对应的词向量,然后将这些词向量按照句子中词的顺序组合起来形成对应的词向量矩阵
Figure FDA0002619214690000011
S3:将S2得到的词向量矩阵输入到神经网络层,神经网络层将词向量读入,接着编码词向量,获得相应的隐藏状态:
Figure FDA0002619214690000012
其中,词向量Wc i读入神经网络层后,输出隐藏状态
Figure FDA0002619214690000013
第i个时间步用i表示,在神经网络层产生的用下标x表示;
S4:经S3处理后,获得隐藏状态序列
Figure FDA0002619214690000021
然后将整个隐藏状态序列输入至注意力层,注意力层对句子中不同的词分配不同的注意力权重,得到注意力层句子的加权表示
Figure FDA0002619214690000022
3.根据权利要求2所述的方面级情感分类模型,其特征在于,所述S3过程中,神经网络层选择门控循环单元GRU,其详细的计算过程详细如下:
GRU由重置门和更新门两部分构成,更新门用于决定删除和添加的内容,重置门用于决定遗忘以前信息的程度,计算过程如下:
Figure FDA0002619214690000023
Figure FDA0002619214690000024
Figure FDA0002619214690000025
Figure FDA0002619214690000026
其中,
Figure FDA0002619214690000027
表示权重矩阵,
Figure FDA0002619214690000028
Figure FDA0002619214690000029
表示偏置,权重矩阵和偏置都是模型训练过程中需要学习的参数,不同时间步之间共享参数。
4.根据权利要求2所述的方面级情感分类模型,其特征在于,所述S4过程中,计算过程如下:
Figure FDA00026192146900000210
Figure FDA00026192146900000211
Figure FDA0002619214690000031
其中,在注意力层
Figure FDA0002619214690000032
为目标句子,
Figure FDA0002619214690000033
为源句子,et,i是目标句子中第t个位置和源句子的第i个位置之间匹配程度的评分,αt,i表示生成第t个目标词St时,分配给源句子第i个位置的注意力权重;
注意力层的输出传入输出层,通过分类器识别句子对于给定方面标的情感极性是积极、中性或消极,计算过程如下:
Figure FDA0002619214690000034
(15)将句子的加权表示r进行线性变换,将其长度转换为类别数|C|,softmax函数将其归一化为0-1的条件概率分布
Figure FDA0002619214690000035
5.根据权利要求1所述的方面级情感分类模型,其特征在于,包括以下分类方法:
T1:给定一个句子对(S,A),其中m个词组成的方面词A={t1,t2,…,tm}是n个词组成的句子S={c1,c2,…,cn}的子序列;
T2:对于给定的句子对(S,A),嵌入层将给定方面与句子分别在预训练词向量矩阵中找到对应的词向量,形成句子的词向量矩阵
Figure FDA0002619214690000036
和给定方面的词向量矩阵V={Wt 1,Wt 2,…,Wt m};
T3:将T2得到的给定方面词向量矩阵与句子词向量矩阵进行编码,提取给定方面与句子的特征;计算过程如下:
Figure FDA0002619214690000037
Figure FDA0002619214690000038
其中,
Figure FDA0002619214690000041
是句子词向量编码后第i个时间步隐藏状态,
Figure FDA0002619214690000042
是给定方面向量编码后的第i个时间步隐藏状态;
生成句子隐藏状态序列
Figure FDA0002619214690000043
和给定方面隐藏状态序列
Figure FDA0002619214690000044
同时将HC和Ht通过池化技术获得对应隐藏状态序列平均值,计算过程如下:
Figure FDA0002619214690000045
Figure FDA0002619214690000046
T4:将神经网络层的输出HC,Ht
Figure FDA0002619214690000047
传入注意力层,利用HC
Figure FDA0002619214690000048
生成句子隐藏状态的加权表示rc,利用Ht
Figure FDA0002619214690000049
生成给定方面隐藏状态的加权表示rt,计算过程如下:
Figure FDA00026192146900000410
其中,αi表示句子中第i个隐藏状态的注意力权重,α为评分函数,计算过程如下:
Figure FDA00026192146900000411
给定方面的注意力权重计算过程如下:
Figure FDA00026192146900000412
最终得到句子与给定方面隐藏状态的加权表示
Figure FDA00026192146900000413
Figure FDA00026192146900000414
计算过程如下:
Figure FDA0002619214690000051
Figure FDA0002619214690000052
其中,将注意力层的rc与rt输入注意力层拼接为r,通过softmax分类器进行分类,计算过程如下:
r=[rc;rt] (25)
Figure FDA0002619214690000053
将句子的加权表示r进行线性变换,将其长度转换为类别数|C|,softmax函数将其归一化为0-1的条件概率分布
Figure FDA0002619214690000054
6.根据权利要求1所述的方面级情感分类模型,其特征在于,包括以下分类方法:
U1:给定一个句子对(S,A),其中m个词组成的方面词A={t1,t2,…,tm}是n个词组成的句子S={c1,c2,…,cn}的子序列;
U2:对于给定的句子对(S,A),嵌入层将给定方面与句子分别在预训练词向量矩阵中找到对应的词向量,形成句子的词向量矩阵
Figure FDA0002619214690000055
和给定方面的词向量矩阵V={Wt 1,Wt 2,…,Wt m};
U3:对给定方面词向量矩阵与句子词向量矩阵进行编码,提取给定方面与句子的特征;将句子词向量矩阵X输入多头自注意力MHSA中,同时将句子词向量矩阵和给定方面句词向量矩阵输入MHA中,然后对MHSA和MHA中的输出分别进行卷积运算;
U4:经U3处理后,利用方面词隐藏状态和上下文隐藏状态的平均池化来监督方面词的注意力权重生成,上下文隐藏状态和方面词隐藏状态的平均池化来监督上下文的注意力权重生成。
7.根据权利要求6所述的方面级情感分类模型,其特征在于,所述U3过程中,注意力机制的计算可以分为两个部分:第一部分,根据Query和Key来计算注意权重系数,首先根据Query和Key计算它们之间的相似性或者相关性,再对其原始分值进行归一化处理;第二部分,根据权重系数对Value进行加权求和;注意力分布为:
Attention(k,q)=softmax(α(k,q)) (27)
其中,α表示计算两者相似性或相关度的评分函数,具体计算如下:
α=ktanh([ki;qj]·Wa) (28)
特定的参数设置中,head为8,head之间参数不共享,将获得的不同表示连接在一起,通过线性变换获得MHA的最终结果,计算过程如下:
headi=Attention(k,q) (29)
Figure FDA0002619214690000061
其中,WO是需要学习的权重矩阵;
句子词嵌入矩阵对应q和k的值计算过程如下:
Figure FDA0002619214690000062
Figure FDA0002619214690000063
为加强上下文与方面词之间的交互,将上下文与方面词输入MHA中处理,这时,q与k的值不同,上下文为k,方面词为q,计算过程如下:
Figure FDA0002619214690000064
tm={Wt 1,Wt 2,...,Wt n} (34)
多头注意力机制输出后进行卷积运算,保证每个位置的隐藏维度最终都保持相同大小;卷积部分的完整连接层有两层密集层,第一层是Relu激活函数,第二层是线性激活函数,通过卷积核大小为1的卷积运算生成相应的权重;使用卷积运算对其进行转换,计算过程如下:
conv(h)=Relu(h*W1+b1)*W2+b2 (35)
其中,*表示卷积运算,卷积运算中的权重
Figure FDA0002619214690000071
Figure FDA0002619214690000072
偏置
Figure FDA0002619214690000073
上下文cs与方面词tm进行卷积运算获取对应的隐藏向量表示,公式如下:
Figure FDA0002619214690000074
Figure FDA0002619214690000075
Figure FDA0002619214690000076
Figure FDA0002619214690000077
通过隐藏层的处理,获得了有利于该任务的隐藏状态。
8.根据权利要求6所述的方面级情感分类模型,其特征在于,所述U4过程中,计算过程如下:
Figure FDA0002619214690000078
Figure FDA0002619214690000079
Figure FDA00026192146900000710
Figure FDA00026192146900000711
将注意力层的rc与rt输入注意力层拼接为r,通过softmax分类器进行分类,计算过程如下:
r=[rc;rt] (44)
Figure FDA0002619214690000081
上式将句子的加权表示r进行线性变换,将其长度转换为类别数|C|,softmax函数将其归一化为0-1的条件概率分布
Figure FDA0002619214690000082
9.一种基于多头注意力的方面级情感分类模型,基于权利要求1至8任一所述的方面级情感分类模型,其特征在于,包括嵌入层、隐藏层、交互层和输出层;
隐藏层与神经网络层作用相同;交互层与注意力层作用相同;
嵌入层是利用Glove词嵌入将句子和给定方面转化为词向量表示形式;
隐藏层是将句子的词向量利用多头自注意力捕获上下文内部联系,对给定方面的词向量利用多头注意力捕获句子与给定方面间联系,再分别利用卷积运算保证每个位置的隐藏维度最终都保持相同大小,获得隐藏层最终的隐藏状态;
交互层是句子与给定方面交互建模,分析不同词对于给定方面的情感极性的重要性,利用方面词隐藏状态和上下文隐藏状态的平均池化来监督方面词的注意力权重生成,上下文隐藏状态和方面词隐藏状态的平均池化来监督上下文的注意力权重生成;
输出层是将交互层的输出进行拼接后输入到函数中,得到情感极性的概率分布,最大概率为最终结果。
CN202010778078.1A 2020-08-05 2020-08-05 一种方面级情感分类模型 Pending CN111985205A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010778078.1A CN111985205A (zh) 2020-08-05 2020-08-05 一种方面级情感分类模型

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010778078.1A CN111985205A (zh) 2020-08-05 2020-08-05 一种方面级情感分类模型

Publications (1)

Publication Number Publication Date
CN111985205A true CN111985205A (zh) 2020-11-24

Family

ID=73445124

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010778078.1A Pending CN111985205A (zh) 2020-08-05 2020-08-05 一种方面级情感分类模型

Country Status (1)

Country Link
CN (1) CN111985205A (zh)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112527966A (zh) * 2020-12-18 2021-03-19 重庆邮电大学 基于Bi-GRU神经网络和自注意力机制的网络文本情感分析方法
CN112784909A (zh) * 2021-01-28 2021-05-11 哈尔滨工业大学 基于自注意力机制和自适应子网络的图像分类识别方法
CN112905796A (zh) * 2021-03-16 2021-06-04 山东亿云信息技术有限公司 基于再注意力机制的文本情绪分类方法及系统
CN113254592A (zh) * 2021-06-17 2021-08-13 成都晓多科技有限公司 基于门机制的多级注意力模型的评论方面检测方法及系统
CN113378545A (zh) * 2021-06-08 2021-09-10 北京邮电大学 一种方面级情感分析方法、装置、电子设备及存储介质
CN113468292A (zh) * 2021-06-29 2021-10-01 中国银联股份有限公司 方面级情感分析方法、装置及计算机可读存储介质
CN114781352A (zh) * 2022-04-07 2022-07-22 重庆邮电大学 一种基于语法依赖类型和方面间关联的情感分析方法
CN115392260A (zh) * 2022-10-31 2022-11-25 暨南大学 一种面向特定目标的社交媒体推文情感分析方法
CN117131182A (zh) * 2023-10-26 2023-11-28 江西拓世智能科技股份有限公司 一种基于ai的对话回复生成方法及系统
CN113468292B (zh) * 2021-06-29 2024-06-25 中国银联股份有限公司 方面级情感分析方法、装置及计算机可读存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109472031A (zh) * 2018-11-09 2019-03-15 电子科技大学 一种基于双记忆注意力的方面级别情感分类模型及方法
CN109902174A (zh) * 2019-02-18 2019-06-18 山东科技大学 一种基于方面依赖的记忆网络的情感极性检测方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109472031A (zh) * 2018-11-09 2019-03-15 电子科技大学 一种基于双记忆注意力的方面级别情感分类模型及方法
CN109902174A (zh) * 2019-02-18 2019-06-18 山东科技大学 一种基于方面依赖的记忆网络的情感极性检测方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
ZHANG QIUYUE 等: "Interactive multi-head attention networks for aspect-level sentiment classification", 《IEEE ACCESS》, vol. 7, pages 160017 - 160028, XP011754275, DOI: 10.1109/ACCESS.2019.2951283 *
刘博: "基于深度学习的方面级情感分析研究", 《中国优秀硕士学位论文全文数据库信息科技辑》, no. 01, pages 138 - 3250 *

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112527966B (zh) * 2020-12-18 2022-09-20 重庆邮电大学 基于Bi-GRU神经网络和自注意力机制的网络文本情感分析方法
CN112527966A (zh) * 2020-12-18 2021-03-19 重庆邮电大学 基于Bi-GRU神经网络和自注意力机制的网络文本情感分析方法
CN112784909A (zh) * 2021-01-28 2021-05-11 哈尔滨工业大学 基于自注意力机制和自适应子网络的图像分类识别方法
CN112905796A (zh) * 2021-03-16 2021-06-04 山东亿云信息技术有限公司 基于再注意力机制的文本情绪分类方法及系统
CN112905796B (zh) * 2021-03-16 2023-04-18 山东亿云信息技术有限公司 基于再注意力机制的文本情绪分类方法及系统
CN113378545A (zh) * 2021-06-08 2021-09-10 北京邮电大学 一种方面级情感分析方法、装置、电子设备及存储介质
CN113378545B (zh) * 2021-06-08 2022-02-11 北京邮电大学 一种方面级情感分析方法、装置、电子设备及存储介质
CN113254592A (zh) * 2021-06-17 2021-08-13 成都晓多科技有限公司 基于门机制的多级注意力模型的评论方面检测方法及系统
CN113468292A (zh) * 2021-06-29 2021-10-01 中国银联股份有限公司 方面级情感分析方法、装置及计算机可读存储介质
CN113468292B (zh) * 2021-06-29 2024-06-25 中国银联股份有限公司 方面级情感分析方法、装置及计算机可读存储介质
CN114781352A (zh) * 2022-04-07 2022-07-22 重庆邮电大学 一种基于语法依赖类型和方面间关联的情感分析方法
CN115392260A (zh) * 2022-10-31 2022-11-25 暨南大学 一种面向特定目标的社交媒体推文情感分析方法
CN117131182A (zh) * 2023-10-26 2023-11-28 江西拓世智能科技股份有限公司 一种基于ai的对话回复生成方法及系统

Similar Documents

Publication Publication Date Title
Zhou et al. A comprehensive survey on pretrained foundation models: A history from bert to chatgpt
CN109472024B (zh) 一种基于双向循环注意力神经网络的文本分类方法
CN111985205A (zh) 一种方面级情感分类模型
CN109214006B (zh) 图像增强的层次化语义表示的自然语言推理方法
CN114330338A (zh) 融合关联信息的程式语识别系统及方法
CN115796182A (zh) 一种基于实体级跨模态交互的多模态命名实体识别方法
Guo et al. Implicit discourse relation recognition via a BiLSTM-CNN architecture with dynamic chunk-based max pooling
Gao et al. Generating natural adversarial examples with universal perturbations for text classification
CN114881042A (zh) 基于图卷积网络融合句法依存与词性的中文情感分析方法
CN115510236A (zh) 基于信息融合和数据增强的篇章级事件检测方法
Li et al. Combining local and global features into a Siamese network for sentence similarity
CN116579347A (zh) 一种基于动态语义特征融合的评论文本情感分析方法、系统、设备及介质
Yong et al. A new emotion analysis fusion and complementary model based on online food reviews
Nam et al. A survey on multimodal bidirectional machine learning translation of image and natural language processing
CN116956228A (zh) 一种技术交易平台的文本挖掘方法
CN116662924A (zh) 基于双通道与注意力机制的方面级多模态情感分析方法
Yuan et al. FFGS: Feature fusion with gating structure for image caption generation
CN116629361A (zh) 基于本体学习和注意力机制的知识推理方法
CN116258147A (zh) 一种基于异构图卷积的多模态评论情感分析方法及系统
CN115510230A (zh) 一种基于多维特征融合与比较增强学习机制的蒙古语情感分析方法
CN115422945A (zh) 一种融合情感挖掘的谣言检测方法及系统
Xin et al. Automatic annotation of text classification data set in specific field using named entity recognition
CN113255360A (zh) 基于层次化自注意力网络的文档评级方法和装置
Saini et al. Time Efficient Video Captioning Using GRU, Attention Mechanism and LSTM
CN117094291B (zh) 基于智能写作的自动新闻生成系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination