CN109472031B - 一种基于双记忆注意力的方面级别情感分类模型及方法 - Google Patents

一种基于双记忆注意力的方面级别情感分类模型及方法 Download PDF

Info

Publication number
CN109472031B
CN109472031B CN201811337352.0A CN201811337352A CN109472031B CN 109472031 B CN109472031 B CN 109472031B CN 201811337352 A CN201811337352 A CN 201811337352A CN 109472031 B CN109472031 B CN 109472031B
Authority
CN
China
Prior art keywords
memory
equal
attention
neural network
gru
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201811337352.0A
Other languages
English (en)
Other versions
CN109472031A (zh
Inventor
刘峤
吴培辛
曾义夫
曾唯智
蓝天
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Electronic Science and Technology of China
Original Assignee
University of Electronic Science and Technology of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Electronic Science and Technology of China filed Critical University of Electronic Science and Technology of China
Priority to CN201811337352.0A priority Critical patent/CN109472031B/zh
Publication of CN109472031A publication Critical patent/CN109472031A/zh
Application granted granted Critical
Publication of CN109472031B publication Critical patent/CN109472031B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Machine Translation (AREA)

Abstract

本发明公开了一种基于双记忆注意力的方面级别情感分类模型及方法,属于文本情感分类技术领域。本发明所述模型主要包括三个模块:一个由标准的GRU循环神经网络构成的编码器、一个引入前馈神经网络注意力层的GRU循环神经网络解码器和一个Softmax分类器。模型将输入语句看作一个序列,基于句子中方面级别词语位置的注意力,从原始文本序列和编码器的隐藏层状态中分别构建两个记忆模块,通过前馈神经网络注意力层对随机初始化的注意力分布进行微调以捕获语句中的重要情感特征,并基于GRU循环神经网络对序列的学习能力建立编码器‑解码器分类模型,以实现方面级别情感分类能力。本发明可以显著改善文本情感分类的鲁棒性,提高分类正确率。

Description

一种基于双记忆注意力的方面级别情感分类模型及方法
技术领域
本发明属于文本情感分类技术领域,具体属于自然语言处理技术领域,具体涉及一种基于双记忆注意力机制和编码器-解码器结构的方面级别情感分类模型及方法。
背景技术
情感分析,又称为意见挖掘,是分析人们对于产品、服务、组织、个人、事件、主题及其属性等实体对象所怀有的意见、情感、评价、看法和态度等主观感受的研究领域。方面级别情感分析是针对给定语句所描述对象的特定方面(如顾客对餐馆的评价中可能涉及服务,环境,菜品等多个方面),分析该语句所表达出的情感倾向(积极、消极或中性),它是情感分析的一个细分任务,也是该领域关注的基本问题之一。
传统的特征表示方法包括One-hot、N-Gram以及领域专家通过文本或者额外的情感词典设计的一些有效特征。然而,特征工程是一个劳动密集型的任务,且需要较多的领域知识。因此,特征的自动学习渐渐成为人们研究的重点。基于神经网络的深度学习方法就是自动学习特征的一种方法。并且随着深度学习在计算机视觉,语音识别和自然语言处理等领域的成功应用,越来越多的基于深度学习的文本情感分类模型产生,这些模型普遍地利用词嵌入(Word Embedding,WE)的方法进行特征表示,这种低维度词向量表示方法不仅能很好地解决传统语言模型中词表示中存在的维度过大的问题,而且能很好的保留词的语义信息,使得语义相似的词距离更近。另外,在词嵌入的基础上,通过卷积神经网络(Convolutional Neural Network,CNN)、递归神经网络(Recursive Neural Network,RNN)和循环神经网络(Recurrent Neural Network,RNN)等神经网络模型,能很好地表示句子或者文本级别的语义信息。
现有的解决方案中,基于注意力机制的循环神经网络模型和基于注意力机制的多层模型性能表现较好,前者性能较好的原因是借助深度学习模型的特征抽象机制,可以获得更加准确的注意力分布,而后者是利用上一层捕获的注意力来帮助下一层计算得到更精确的注意力分布,然而,这两种学习模型忽视了蕴含在句子中不明显但同样对情感分类很重要的词级别或短语级别情感特征。
发明内容
本发明的目的是克服上述现有技术的缺陷,提供一种基于双记忆注意力的方面级别情感分类模型及方法。
本发明所提出的技术问题是这样解决的:
一种基于双记忆注意力的方面级别情感分类模型,包括编码器、解码器和softmax分类器;
编码器:利用标准GRU循环神经网络依次对输入语句中的方面级别信息和输入语句进行编码,并从原始输入语句及其在编码器中的隐藏层状态中分别构成两个记忆,根据方面级别词语的位置对其进行加权,分别称为原始记忆(original memory,om)和编码记忆(encoded memory,em);
解码器:由前馈神经网络注意力层和多层GRU循环神经网络组成,前者从方面级别记忆的语义关联中捕捉重要的情感信息,后者则将这些信息在不同计算层中选择性组合,构成对编码记忆em和原始记忆om的两个解码阶段;
Softmax分类器:将解码器学习到的特征用于情感分类。
一种基于双记忆注意力的方面级别情感分类方法,包括以下步骤:
步骤1.设定输入语句为s={w1,w2,...,wN},对输入语句中的每个单词做词嵌入得到向量表示x={x1,x2,...,xN},其中N代表句子长度,1≤i≤N,
Figure BDA0001860332100000021
d表示词向量维度,
Figure BDA0001860332100000022
表示d维空间;设定输入语句中的方面级别信息为sa={wa1,wa2,...,waL},做词嵌入得到a={a1,a2,...,aL},其中
Figure BDA0001860332100000023
L是输入语句中方面级别词语的数量;
步骤2.从输入语句中构建第一个记忆——原始记忆om,并根据方面级别词语的位置对其进行加权;将方面级别词语和上下文词语的绝对距离定义为词语的位置,将方面词语的位置看作0,则输入语句中的词语wi的位置权重向量
Figure BDA0001860332100000024
的第j个元素为:
Figure BDA0001860332100000025
其中,1≤j≤d,qi是词wi的位置,向量vi是由
Figure BDA0001860332100000026
堆叠起来的与xi相同维度的向量;
计算原始记忆
Figure BDA0001860332100000027
om中的第i片记忆
Figure BDA0001860332100000028
为:
Figure BDA0001860332100000029
⊙表示矩阵按元素相乘;
步骤3.用编码器对输入语句的方面级别词语进行编码,方面级别表示bL为:
bL=GRU(bL-1,aL)
其中,
Figure BDA00018603321000000210
是GRU在L-1时刻的隐藏层状态,bl=GRU(bl-1,al),2≤l≤L-1,b1=GRU(0,a1);
对输入语句进行编码,i=1时,第一次计算的隐藏层状态为:
Figure BDA00018603321000000211
i≥2时,第i次计算的隐藏层状态为:
Figure BDA0001860332100000031
步骤4.从编码后的输入语句
Figure BDA0001860332100000032
中构成第二个记忆——编码记忆em,同样根据方面级别词语的位置对其进行加权,所加权重向量与步骤2中构建原始记忆om所用位置权重向量vi相同,最终得到编码记忆
Figure BDA0001860332100000033
em中的第i片记忆
Figure BDA0001860332100000034
的计算方法为:
Figure BDA0001860332100000035
步骤5.在解码器上先对编码记忆em解码,利用解码器的前馈神经网络注意力层,以方面表示bL、GRU之前的隐藏层状态
Figure BDA0001860332100000036
和编码记忆em为输入,1≤t≤p,p为预设的编码记忆em解码阶段计算层数;
当2≤t≤p时,注意力权重的评分函数为:
Figure BDA0001860332100000037
其中,
Figure BDA0001860332100000038
是编码记忆em中的第i个向量,矩阵
Figure BDA0001860332100000039
Figure BDA00018603321000000310
是模型参数,在训练开始前对参数矩阵随机初始化,在整个解码阶段共享;
当t=1时,
Figure BDA00018603321000000311
采用一个Soffmax函数来计算注意力权重βt=(βt,1,βt,2,...,βt,N):
Figure BDA00018603321000000312
最后得到输出向量:
Figure BDA00018603321000000313
当2≤t≤p时,由
Figure BDA00018603321000000314
和上一个计算层的隐藏层状态
Figure BDA00018603321000000315
得到t时刻的隐藏层状态为:
Figure BDA00018603321000000316
当t=1时,
Figure BDA00018603321000000317
步骤6.在解码器上对原始记忆om解码,利用解码器的前馈神经网络注意力层,以方面表示bL、GRU之前的隐藏层状态
Figure BDA00018603321000000318
和原始记忆om为输入,1≤u≤k,k为预设的原始记忆om解码阶段计算层数;
当2≤u≤k时,注意力权重的评分函数为:
Figure BDA0001860332100000041
其中,
Figure BDA0001860332100000042
是记忆om中的第i个向量;
当u=1时,
Figure BDA0001860332100000043
采用一个Softmax函数来计算注意力权重αu=(αu,1,αu,2,...,αu,N):
Figure BDA0001860332100000044
最后得到输出向量
Figure BDA0001860332100000045
Figure BDA0001860332100000046
当2≤u≤k时,由
Figure BDA0001860332100000047
和上一个计算层的隐藏层状态
Figure BDA0001860332100000048
得到t时刻的隐藏层状态为:
Figure BDA0001860332100000049
当u=1时,
Figure BDA00018603321000000410
步骤7.将解码器的最后输出
Figure BDA00018603321000000411
作为Softmax分类器的输入:
Figure BDA00018603321000000412
其中,
Figure BDA00018603321000000413
是条件概率分布,
Figure BDA00018603321000000414
是模型需要学习的参数,C是情感类别的集合,|C|是集合中情感类别的个数;
步骤8.采用有监督学习方式使交叉熵损失函数的最小化,其中损失函数如下所示:
Figure BDA00018603321000000415
其中,αm是模型对训练集中第m个样本类别标签的正确预测概率,1≤m≤训练样本数;
编码器和解码器中,标准GRU循环神经网络为:
rt=σ(wrxt+urht-1)
zt=σ(wzxt+uzht-1)
Figure BDA00018603321000000416
Figure BDA00018603321000000417
其中,rt为重置门,zt为更新门,ht为隐藏层状态,xt、ht-1代表t时刻的输入和t-1时刻隐藏层输出,
Figure BDA0001860332100000051
为状态权重矩阵,随机初始化并学习得到,σ为激活函数。
步骤3中,也可以先对输入语句进行编码,再对方面级别词语进行编码。
本发明的有益效果是:
本发明基于编码器-解码器模型和注意力机制,提出了一种带有双记忆注意力的文本方面级别情感分类模型及方法,引入位置注意力层构建原始记忆om和编码记忆em,应用一个特殊的前馈神经网络注意力层对随机初始化的注意力分布微调,以此来持续捕获语句中的重要情感特征,通过有监督学习的方式训练出文本方面级别情感分类模型。
本发明不同于已有专利或文献中提到的双重注意力模型中将注意力分别作用于BLSTM(Bidirectional Long Short-Term Memory,双向长短记忆)编码后的输入文本和情感符号的集合,本发明从原始文本序列和GRU循环神经网络编码后的隐藏层状态中分别构建两个记忆模块,将两个注意力机制分别作用于这两个记忆中。
与现有技术相比,能够显著增强文本方面级别情感分类的鲁棒性,提高方面级别情感分类的正确率。
附图说明
图1为本发明所述模型总体结构示意图;
图2为本发明所使用的前馈神经网络注意力层计算模型。
具体实施方式
下面结合附图和实施例对本发明进行进一步的说明。
本实施例提供一种具有双记忆注意力的RNN编码器-解码器情感分类模型,该模型由编码器、两个记忆模块、解码器和分类器组成。首先,编码器对输入语句对应的词向量进行编码,获得GRU循环神经网络中的隐藏层状态
Figure BDA0001860332100000052
和中间向量
Figure BDA0001860332100000053
并构成om、em两个记忆模块,其中分别储存了潜在的词级别和短语级别特征;其次,解码器首先在em上执行第一个解码阶段,之后在om上执行第二个解码阶段,其目的是分别从两个记忆中捕获短语级别和词级别特征。特别地,本发明采用了一个特殊的前馈神经网络注意力层,通过对随机初始化的注意力分布微调来持续捕获语句中的重要情感特征,并采用GRU循环神经网络选择性结合各个计算层所捕获的重要情感特征。最后,将解码器的最终输出作为分类器的输入,通过有监督学习的方式实现文本的方面级别情感分类。
一种基于双记忆注意力的方面级别情感分类模型,包括编码器、解码器和softmax分类器;
编码器:利用标准GRU循环神经网络依次对输入语句中的方面级别信息和输入语句进行编码,并从原始输入语句及其在编码器中的隐藏层状态中分别构成两个记忆,根据方面级别词语的位置对其进行加权,分别称为原始记忆(original memory,om)和编码记忆(encoded memory,em);
解码器:由前馈神经网络注意力层和多层GRU循环神经网络组成,前者从方面级别记忆的语义关联中捕捉重要的情感信息,后者则将这些信息在不同计算层中选择性组合,构成对编码记忆em和原始记忆om的两个解码阶段;
Softmax分类器:将解码器学习到的特征用于情感分类。
一种基于双记忆注意力的方面级别情感分类方法,包括以下步骤:
步骤1.设定输入语句为s={w1,w2,...,wN},对输入语句中的每个单词做词嵌入得到向量表示x={x1,x2,...,xN},其中N代表句子长度,1≤i≤N,
Figure BDA0001860332100000061
d表示词向量维度,
Figure BDA0001860332100000062
表示d维空间;设定输入语句中的方面级别信息为sa={wa1,wa2,...,waL},做词嵌入得到a={a1,a2,...,aL},其中
Figure BDA0001860332100000063
L是输入语句中方面级别词语的数量;
步骤2.从输入语句中构建第一个记忆——原始记忆om,并根据方面级别词语的位置对其进行加权;将方面级别词语和上下文词语的绝对距离定义为词语的位置,将方面词语的位置看作0,则输入语句中的词语wi的位置权重向量
Figure BDA0001860332100000064
的第j个元素为:
Figure BDA0001860332100000065
其中,1≤j≤d,qi是词wi的位置,向量vi是由
Figure BDA0001860332100000066
堆叠起来的与xi相同维度的向量;
计算原始记忆
Figure BDA0001860332100000067
om中的第i片记忆
Figure BDA0001860332100000068
为:
Figure BDA0001860332100000069
⊙表示矩阵按元素相乘;
步骤3.用编码器对输入语句的方面级别词语进行编码,方面级别表示bL为:
bL=GRU(bL-1,aL)
其中,
Figure BDA00018603321000000610
是GRU在L-1时刻的隐藏层状态,bl=GRU(bl-1,al),2≤l≤L-1,b1=GRU(0,a1);
对输入语句进行编码,i=1时,第一次计算的隐藏层状态为:
Figure BDA00018603321000000611
i≥2时,第i次计算的隐藏层状态为:
Figure BDA00018603321000000612
步骤4.从编码后的输入语句
Figure BDA0001860332100000071
中构成第二个记忆——编码记忆em,同样根据方面级别词语的位置对其进行加权,所加权重向量与步骤2中构建原始记忆om所用位置权重向量vi相同,最终得到编码记忆
Figure BDA0001860332100000072
em中的第i片记忆
Figure BDA0001860332100000073
的计算方法为:
Figure BDA0001860332100000074
步骤5.在解码器上先对编码记忆em解码,利用解码器的前馈神经网络注意力层,以方面表示bL、GRU之前的隐藏层状态
Figure BDA0001860332100000075
和编码记忆em为输入,1≤t≤p,p为预设的编码记忆em解码阶段计算层数;
当2≤t≤p时,注意力权重的评分函数为:
Figure BDA0001860332100000076
其中,
Figure BDA0001860332100000077
是编码记忆em中的第i个向量,矩阵
Figure BDA0001860332100000078
Figure BDA0001860332100000079
是模型参数,在训练开始前对参数矩阵随机初始化,在整个解码阶段共享;
当t=1时,
Figure BDA00018603321000000710
采用一个Softmax函数来计算注意力权重βt=(βt,1,βt,2,...,βt,N):
Figure BDA00018603321000000711
最后得到输出向量:
Figure BDA00018603321000000712
当2≤t≤p时,由
Figure BDA00018603321000000713
和上一个计算层的隐藏层状态
Figure BDA00018603321000000714
得到t时刻的隐藏层状态为:
Figure BDA00018603321000000715
当t=1时,
Figure BDA00018603321000000716
步骤6.在解码器上对原始记忆om解码,利用解码器的前馈神经网络注意力层,以方面表示bL、GRU之前的隐藏层状态
Figure BDA00018603321000000717
和原始记忆om为输入,1≤u≤k,k为预设的原始记忆om解码阶段计算层数;
当2≤u≤k时,注意力权重的评分函数为:
Figure BDA00018603321000000718
其中,
Figure BDA0001860332100000081
是记忆om中的第i个向量;
当u=1时,
Figure BDA0001860332100000082
采用一个Softmax函数来计算注意力权重αu=(αu,1,αu,2,...,αu,N):
Figure BDA0001860332100000083
最后得到输出向量
Figure BDA0001860332100000084
Figure BDA0001860332100000085
当2≤u≤k时,由
Figure BDA0001860332100000086
和上一个计算层的隐藏层状态
Figure BDA0001860332100000087
得到t时刻的隐藏层状态为:
Figure BDA0001860332100000088
当u=1时,
Figure BDA0001860332100000089
步骤7.将解码器的最后输出
Figure BDA00018603321000000810
作为Softmax分类器的输入:
Figure BDA00018603321000000811
其中,
Figure BDA00018603321000000812
是条件概率分布,
Figure BDA00018603321000000813
是模型需要学习的参数,C是情感类别的集合,|C|是集合中情感类别的个数;
步骤8.采用有监督学习方式使交叉熵损失函数的最小化,其中损失函数如下所示:
Figure BDA00018603321000000814
其中,αm是模型对训练集中第m个样本类别标签的正确预测概率,1≤m≤训练样本数;
编码器和解码器中,标准GRU循环神经网络为:
rt=σ(wrxt+urht-1)
zt=σ(wzxt+uzht-1)
Figure BDA00018603321000000815
Figure BDA00018603321000000816
其中,rt为重置门,zt为更新门,ht为隐藏层状态,xt、ht-1代表t时刻的输入和t-1时刻隐藏层输出,
Figure BDA00018603321000000817
为状态权重矩阵,随机初始化并学习得到,σ为激活函数。
步骤3中,也可以先对输入语句进行编码,再对方面级别词语进行编码。
本发明采用随机梯度下降(Stochastic Gradient Descent,SGD)方法优化目标函数且使用dropout技巧来缓和过拟合问题。

Claims (3)

1.一种基于双记忆注意力的方面级别情感分类方法,其特征在于,利用基于双记忆注意力的方面级别情感分类模型,包括编码器、解码器和softmax分类器;
编码器:利用标准GRU循环神经网络依次对输入语句中的方面级别信息和输入语句进行编码,并从原始输入语句及其在编码器中的隐藏层状态中分别构成两个记忆,根据方面级别词语的位置对其进行加权,分别称为原始记忆和编码记忆;
解码器:由前馈神经网络注意力层和多层GRU循环神经网络组成,前者从方面级别记忆的语义关联中捕捉重要的情感信息,后者则将这些信息在不同计算层中选择性组合,构成对编码记忆和原始记忆的两个解码阶段;
Softmax分类器:将解码器学习到的特征用于情感分类;
包括以下步骤:
步骤1.设定输入语句为s={w1,w2,…,wN},对输入语句中的每个单词做词嵌入得到向量表示x={x1,x2,…,xN},其中N代表句子长度,1≤i≤N,
Figure FDA0002958054130000011
d表示词向量维度,
Figure FDA0002958054130000012
表示d维空间;设定输入语句中的方面级别信息为sa={wa1,wa2,…,waL},做词嵌入得到a={a1,a2,…,aL},其中
Figure FDA0002958054130000013
L是输入语句中方面级别词语的数量;
步骤2.从输入语句中构建第一个记忆——原始记忆om,并根据方面级别词语的位置对其进行加权;将方面级别词语和上下文词语的绝对距离定义为词语的位置,将方面词语的位置看作0,则输入语句中的词语wi的位置权重向量
Figure FDA0002958054130000014
的第j个元素为:
Figure FDA0002958054130000015
其中,1≤j≤d,qi是词wi的位置,向量vi是由
Figure FDA0002958054130000016
堆叠起来的与xi相同维度的向量;
计算原始记忆
Figure FDA0002958054130000017
om中的第i片记忆
Figure FDA0002958054130000018
为:
Figure FDA0002958054130000019
⊙表示矩阵按元素相乘;
步骤3.用编码器对输入语句的方面级别词语进行编码,方面级别表示bL为:
bL=GRU(bL-1,aL)
其中,
Figure FDA00029580541300000110
是GRU在L-1时刻的隐藏层状态,bl=GRU(bl-1,al),2≤l≤L-1,b1=GRU(0,a1);
对输入语句进行编码,i=1时,第一次计算的隐藏层状态为:
Figure FDA00029580541300000111
i≥2时,第i次计算的隐藏层状态为:
Figure FDA0002958054130000021
步骤4.从编码后的输入语句
Figure FDA0002958054130000022
中构成第二个记忆——编码记忆em,权重向量与步骤2中构建原始记忆om所用位置权重向量vi相同,最终得到编码记忆
Figure FDA0002958054130000023
em中的第i片记忆
Figure FDA0002958054130000024
为:
Figure FDA0002958054130000025
步骤5.在解码器上先对编码记忆em解码,利用解码器的前馈神经网络注意力层,以方面表示bL、GRU之前的隐藏层状态
Figure FDA0002958054130000026
和编码记忆em为输入,1≤t≤p,p为预设的编码记忆em解码阶段计算层数;
当2≤t≤p时,注意力权重的评分函数为:
Figure FDA0002958054130000027
其中,
Figure FDA0002958054130000028
是编码记忆em中的第i个向量,矩阵
Figure FDA0002958054130000029
Figure FDA00029580541300000210
是模型参数,在训练开始前对参数矩阵随机初始化,在整个解码阶段共享;
当t=1时,
Figure FDA00029580541300000211
采用一个Softmax函数来计算注意力权重βt=(βt,1t,2,…,βt,N):
Figure FDA00029580541300000212
最后得到输出向量:
Figure FDA00029580541300000213
当2≤t≤p时,由rt e和上一个计算层的隐藏层状态
Figure FDA00029580541300000214
得到t时刻的隐藏层状态为:
Figure FDA00029580541300000215
当t=1时,
Figure FDA00029580541300000216
步骤6.在解码器上对原始记忆om解码,利用解码器的前馈神经网络注意力层,以方面表示bL、GRU之前的隐藏层状态
Figure FDA00029580541300000217
和原始记忆om为输入,1≤u≤k,k为预设的原始记忆om解码阶段计算层数;
当2≤u≤k时,注意力权重的评分函数为:
Figure FDA0002958054130000031
其中,
Figure FDA0002958054130000032
是记忆om中的第i个向量;
当u=1时,
Figure FDA0002958054130000033
采用一个Softmax函数来计算注意力权重αu=(αu,1u,2,…,αu,N):
Figure FDA0002958054130000034
最后得到输出向量
Figure FDA0002958054130000035
Figure FDA0002958054130000036
当2≤u≤k时,由
Figure FDA0002958054130000037
和上一个计算层的隐藏层状态
Figure FDA0002958054130000038
得到t时刻的隐藏层状态为:
Figure FDA0002958054130000039
当u=1时,
Figure FDA00029580541300000310
步骤7.将解码器的最后输出
Figure FDA00029580541300000311
作为Softmax分类器的输入:
Figure FDA00029580541300000312
其中,
Figure FDA00029580541300000313
是条件概率分布,
Figure FDA00029580541300000314
是模型需要学习的参数,C是情感类别的集合,|C|是集合中情感类别的个数;
步骤8.采用有监督学习方式使交叉熵损失函数的最小化,其中损失函数如下所示:
Figure FDA00029580541300000315
其中,αm是模型对训练集中第m个样本类别标签的正确预测概率,1≤m≤训练样本数。
2.根据权利要求1所述的情感分类方法,其特征在于,编码器和解码器中,标准GRU循环神经网络为:
rt=σ(wrxt+urht-1)
zt=σ(wzxt+uzht-1)
Figure FDA00029580541300000316
Figure FDA0002958054130000041
其中,rt为重置门,zt为更新门,ht为隐藏层状态,xt、ht-1代表t时刻的输入和t-1时刻隐藏层输出,
Figure FDA0002958054130000042
为状态权重矩阵,随机初始化并学习得到,σ为激活函数。
3.根据权利要求1所述的情感分类方法,其特征在于,步骤3中,先对输入语句进行编码,再对方面级别词语进行编码。
CN201811337352.0A 2018-11-09 2018-11-09 一种基于双记忆注意力的方面级别情感分类模型及方法 Active CN109472031B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811337352.0A CN109472031B (zh) 2018-11-09 2018-11-09 一种基于双记忆注意力的方面级别情感分类模型及方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811337352.0A CN109472031B (zh) 2018-11-09 2018-11-09 一种基于双记忆注意力的方面级别情感分类模型及方法

Publications (2)

Publication Number Publication Date
CN109472031A CN109472031A (zh) 2019-03-15
CN109472031B true CN109472031B (zh) 2021-05-04

Family

ID=65671679

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811337352.0A Active CN109472031B (zh) 2018-11-09 2018-11-09 一种基于双记忆注意力的方面级别情感分类模型及方法

Country Status (1)

Country Link
CN (1) CN109472031B (zh)

Families Citing this family (46)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110083702B (zh) * 2019-04-15 2021-04-09 中国科学院深圳先进技术研究院 一种基于多任务学习的方面级别文本情感转换方法
CN110162783A (zh) * 2019-04-17 2019-08-23 腾讯科技(深圳)有限公司 用于语言处理的循环神经网络中隐状态的生成方法和装置
CN110069778B (zh) * 2019-04-18 2023-06-02 东华大学 中文融入嵌入词位置感知的商品情感分析方法
CN109948165B (zh) * 2019-04-24 2023-04-25 吉林大学 基于混合注意力网络的细粒度情感极性预测方法
CN110046356B (zh) * 2019-04-26 2020-08-21 中森云链(成都)科技有限责任公司 标签嵌入的微博文本情绪多标签分类方法
CN110134765B (zh) * 2019-05-05 2021-06-29 杭州师范大学 一种基于情感分析的餐厅用户评论分析系统及方法
CN110162789B (zh) * 2019-05-13 2023-07-21 北京一览群智数据科技有限责任公司 一种基于汉语拼音的词表征方法及装置
CN110134789B (zh) * 2019-05-17 2021-05-25 电子科技大学 一种引入多路选择融合机制的多标签长文本分类方法
CN110222342B (zh) * 2019-06-13 2023-05-02 哈尔滨工业大学(深圳) 结合情感原因发现的文本情感预测学习系统
CN110717338B (zh) * 2019-07-29 2020-07-14 北京车慧科技有限公司 一种基于用户评论的典型意见生成装置
CN110502626B (zh) * 2019-08-27 2023-04-07 重庆大学 一种基于卷积神经网络的方面级情感分析方法
CN110543567A (zh) * 2019-09-06 2019-12-06 上海海事大学 一种基于a-gcnn网络和acelm算法的中文文本情感分类方法
CN110717334B (zh) * 2019-09-10 2023-10-10 上海理工大学 基于bert模型和双通道注意力的文本情感分析方法
CN110866405A (zh) * 2019-11-14 2020-03-06 电子科技大学 一种基于语句信息的方面级情感分类方法
CN111160037B (zh) * 2019-12-02 2021-10-26 广州大学 一种支持跨语言迁移的细粒度情感分析方法
CN111079409B (zh) * 2019-12-16 2023-04-25 东北大学秦皇岛分校 一种利用上下文和方面记忆信息的情感分类方法
CN111274396B (zh) * 2020-01-20 2022-06-07 福州大学 一种基于外部知识的视角级文本情感分类方法及系统
CN111275118B (zh) * 2020-01-22 2022-09-16 复旦大学 基于自我修正式标签生成网络的胸片多标签分类方法
CN111291189B (zh) * 2020-03-10 2020-12-04 北京芯盾时代科技有限公司 一种文本处理方法、设备及计算机可读存储介质
CN111414505B (zh) * 2020-03-11 2023-10-20 上海爱数信息技术股份有限公司 一种基于序列生成模型的快速图像摘要生成方法
CN111859978B (zh) * 2020-06-11 2023-06-20 南京邮电大学 一种基于深度学习的情感文本生成方法
CN111784303B (zh) * 2020-07-06 2023-08-22 泰康保险集团股份有限公司 核保信息处理方法、装置、计算机存储介质及电子设备
CN111814450B (zh) * 2020-07-10 2023-08-11 重庆大学 一种基于残差注意力的方面级情感分析方法
CN111985205A (zh) * 2020-08-05 2020-11-24 重庆大学 一种方面级情感分类模型
CN112131888B (zh) * 2020-09-23 2023-11-14 平安科技(深圳)有限公司 分析语义情感的方法、装置、设备及存储介质
CN112182162B (zh) * 2020-09-30 2023-10-31 中国人民大学 一种基于记忆神经网络的个性化对话方法和系统
CN112256876A (zh) * 2020-10-26 2021-01-22 南京工业大学 基于多记忆注意力网络的方面级情感分类模型
CN112416956B (zh) * 2020-11-19 2023-04-07 重庆邮电大学 一种基于bert和独立循环神经网络的问句分类方法
CN112434143B (zh) * 2020-11-20 2022-12-09 西安交通大学 基于gru单元隐藏状态约束的对话方法、存储介质及系统
CN112434161B (zh) * 2020-11-24 2023-01-03 哈尔滨工程大学 一种采用双向长短期记忆网络的方面级情感分析方法
CN112463956B (zh) * 2020-11-26 2022-08-23 重庆邮电大学 基于对抗学习和分层神经网络的文本摘要生成系统和方法
CN112464281B (zh) * 2020-11-29 2022-11-18 深圳市索迪统计科技有限公司 基于隐私分组和情感识别的网络信息分析方法
CN112559683A (zh) * 2020-12-11 2021-03-26 苏州元启创人工智能科技有限公司 基于多模态数据及多交互记忆网络的方面级情感分析方法
CN112528672B (zh) * 2020-12-14 2021-07-30 北京邮电大学 一种基于图卷积神经网络的方面级情感分析方法及装置
CN112527966B (zh) * 2020-12-18 2022-09-20 重庆邮电大学 基于Bi-GRU神经网络和自注意力机制的网络文本情感分析方法
CN112700796B (zh) * 2020-12-21 2022-09-23 北京工业大学 一种基于交互式注意力模型的语音情感识别方法
CN112926311B (zh) * 2021-02-03 2022-08-02 昆明理工大学 一种结合序列和主题信息的无监督方面词提取方法
CN112836520A (zh) * 2021-02-19 2021-05-25 支付宝(杭州)信息技术有限公司 基于用户特征生成用户描述文本的方法和装置
CN113032559B (zh) * 2021-03-15 2023-04-28 新疆大学 一种用于低资源黏着性语言文本分类的语言模型微调方法
CN112800339B (zh) * 2021-04-06 2021-06-22 腾讯科技(深圳)有限公司 信息流搜索方法、装置及设备
CN113241128B (zh) * 2021-04-29 2022-05-13 天津大学 基于分子空间位置编码注意力神经网络模型的分子性质预测方法
CN113257280A (zh) * 2021-06-07 2021-08-13 苏州大学 基于wav2vec的语音情感识别方法
CN113505208B (zh) * 2021-07-09 2024-02-02 福州大学 一种融合多路注意力机制的智能对话系统
CN113609840B (zh) * 2021-08-25 2023-06-16 西华大学 一种汉语法律判决摘要生成方法及系统
CN113761204B (zh) * 2021-09-06 2023-07-28 南京大学 一种基于深度学习的emoji文本情感分析方法及系统
CN115758211B (zh) * 2022-11-10 2024-03-01 中国电信股份有限公司 文本信息分类方法、装置、电子设备和存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105868829A (zh) * 2015-02-06 2016-08-17 谷歌公司 用于数据项生成的循环神经网络
CN108133038A (zh) * 2018-01-10 2018-06-08 重庆邮电大学 一种基于动态记忆网络的实体级别情感分类系统及方法
CN108153913A (zh) * 2018-01-24 2018-06-12 北京神州泰岳软件股份有限公司 回复信息生成模型的训练方法、回复信息生成方法及装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106529669A (zh) * 2016-11-10 2017-03-22 北京百度网讯科技有限公司 用于处理数据序列的方法和装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105868829A (zh) * 2015-02-06 2016-08-17 谷歌公司 用于数据项生成的循环神经网络
CN108133038A (zh) * 2018-01-10 2018-06-08 重庆邮电大学 一种基于动态记忆网络的实体级别情感分类系统及方法
CN108153913A (zh) * 2018-01-24 2018-06-12 北京神州泰岳软件股份有限公司 回复信息生成模型的训练方法、回复信息生成方法及装置

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Aspect level sentiment classification with memory;Xing-Fu Wang 等;《IEEE》;20180628;全文 *
在线中文评论情感分类问题研究;张紫琼;《中国博士学位论文全文数据库》;20131215;全文 *
基于多特征融合的微博主题情感挖掘;黄发良 等;《计算机学报》;20170518;全文 *

Also Published As

Publication number Publication date
CN109472031A (zh) 2019-03-15

Similar Documents

Publication Publication Date Title
CN109472031B (zh) 一种基于双记忆注意力的方面级别情感分类模型及方法
CN109284506B (zh) 一种基于注意力卷积神经网络的用户评论情感分析系统及方法
CN109902293B (zh) 一种基于局部与全局互注意力机制的文本分类方法
Oord et al. Representation learning with contrastive predictive coding
CN108681610B (zh) 生成式多轮闲聊对话方法、系统及计算机可读存储介质
CN109524006B (zh) 一种基于深度学习的汉语普通话唇语识别方法
CN111026869B (zh) 一种利用基于多层注意力的序列生成网络进行多罪名预测的方法
CN111401061A (zh) 基于BERT及BiLSTM-Attention的涉案新闻观点句识别方法
CN109522411A (zh) 一种基于神经网络的写作辅助方法
CN114169330A (zh) 融合时序卷积与Transformer编码器的中文命名实体识别方法
CN111506732B (zh) 一种文本多层次标签分类方法
CN112232087B (zh) 一种基于Transformer的多粒度注意力模型的特定方面情感分析方法
CN112527966B (zh) 基于Bi-GRU神经网络和自注意力机制的网络文本情感分析方法
CN112749274B (zh) 基于注意力机制和干扰词删除的中文文本分类方法
CN113255366B (zh) 一种基于异构图神经网络的方面级文本情感分析方法
CN111538841B (zh) 基于知识互蒸馏的评论情感分析方法、装置及系统
CN115935975A (zh) 一种情感可控的新闻评论生成方法
CN111145914B (zh) 一种确定肺癌临床病种库文本实体的方法及装置
CN113887836B (zh) 一种融合事件环境信息的叙述性事件预测方法
CN110175330B (zh) 一种基于注意力机制的命名实体识别方法
CN115238693A (zh) 一种基于多分词和多层双向长短期记忆的中文命名实体识别方法
CN114694255A (zh) 基于通道注意力与时间卷积网络的句子级唇语识别方法
CN114582448A (zh) 基于预训练语言模型的疫情病例信息抽取框架构建方法
CN114036298A (zh) 一种基于图卷积神经网络与词向量的节点分类方法
CN116644759B (zh) 语句中方面类别及其语义极性的提取方法和系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant