CN109726745B - 一种融入描述知识的基于目标的情感分类方法 - Google Patents

一种融入描述知识的基于目标的情感分类方法 Download PDF

Info

Publication number
CN109726745B
CN109726745B CN201811551884.4A CN201811551884A CN109726745B CN 109726745 B CN109726745 B CN 109726745B CN 201811551884 A CN201811551884 A CN 201811551884A CN 109726745 B CN109726745 B CN 109726745B
Authority
CN
China
Prior art keywords
target
vector
description
emotion
hidden layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201811551884.4A
Other languages
English (en)
Other versions
CN109726745A (zh
Inventor
宋丹丹
邢博文
廖乐健
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Institute of Technology BIT
Original Assignee
Beijing Institute of Technology BIT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Institute of Technology BIT filed Critical Beijing Institute of Technology BIT
Priority to CN201811551884.4A priority Critical patent/CN109726745B/zh
Publication of CN109726745A publication Critical patent/CN109726745A/zh
Application granted granted Critical
Publication of CN109726745B publication Critical patent/CN109726745B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Machine Translation (AREA)

Abstract

本发明提出了一种融入描述知识的基于目标的情感分类方法,属于深度学习及知识库技术领域。在基于目标的情感分析任务中,本发明利用目标的描述知识并将描述信息融入到目标表示中,目标的描述来自含有关于实体的海量知识且易访问的知识库。针对基于目标的情感分析,本发明提出了一种新的模型‑DEGN,该模型利用一个门控机制紧密有效地将所给目标的描述知识结合到端到端的神经网络中,并且利用监督注意力机制从目标、目标上下文以及目标的描述句中抽取重要信息来生成它们更有效的表示。本发明在F1‑score和strict accuracy两个指标上均超过所有已有模型,达到最高水平。

Description

一种融入描述知识的基于目标的情感分类方法
技术领域
本发明属于深度学习及知识库技术领域,涉及一种融入描述知识的基于目标的情感分类方法。
背景技术
随着信息技术和社会媒体的迅猛发展和大数据时代的到来,互联网渗透到到大众日常生活的方方面面,越来越多的人在网上发表自己针对服务、商品、政治、新闻等的观点和评论,互联网中积累了含有观点的海量文本。当某一个体试图去做决定、并转换为行为时,通常会斟酌、考虑他人的意见、建议、观点及看法。或者说,他人的意见和观点对一个人的决定和行为将产生显著影响。一个企业或机构若能对大众针对产品或服务的观点进行有效分析,就可以及时做出决策调整,在竞争中占领优势地位。
在学术界,基于目标的观点挖掘,也可称为基于目标的情感分析或基于目标的情感分类。其研究目标是,从文本中分析展示人们对于实体及其属性所表达的观点、情感、评价、态度和情绪,这里的实体可以是各种产品、个人、机构、事情和服务等。这是一类旨在利用可计算的方法从自然语言文本中提取观点和情感信息的研究。从自然语言处理角度看,基于目标的情感分析任务就是识别出人们谈论的主题以及针对主题所表达出来的观点倾向。
目前,基于目标的情感分析方法分为传统方法和基于神经网络方法。传统方法需要大量的人工标注特征,而神经网络模型能够自动有效地学习得到特征表示,可以用少量的人工代价在情感分析任务中取得良好效果。虽然已有的神经网络模型已经取得了很好的效果,但是它们都忽略了目标的描述信息,仅仅利用目标以及上下文进行问题建模。当前,大部分深度学习模型都利用LSTM网络进行建模,但是目标词或短语可以视作极短序列,而LSTM处理长序列更有优势,这就导致已有的深度神经网络模型所得到的目标向量表示并不十分有效。而目标的文本形式描述信息通常是长序列,这就能发挥LSTM处理长序列的优点。将描述信息的向量表示融入目标的向量表示后可以得到更加有效的目标表示,从而提高最终情感分析的准确性。近年来,融入外部知识的方法在其他自然语言处理任务中取得了良好效果,但是在基于目标的情感分析中还未见被采用。
发明内容
本发明的目的是为了解决当前基于深度神经网络模型基于目标的情感分类算法存在的问题,包括:(1)未考虑目标描述信息,生成的目标表示向量所含语义信息匮乏,不能充分表示目标具体内容。(2)当前大部分模型基于LSTM长短期记忆网络,LSTM主要优势在于建模长序列,而情感句中的目标往往为一个词或长度较短的短语,不能充分发挥LSTM的优势来生成有效的目标表示。(3)现有方法不能很好处理对目标敏感的情感分析问题,例如两个句子:“The waitress is so hot!”,“The meal is so hot!”,一个句子对于‘waitress’的情感极性是积极的,第二个句子对于‘meal’的情感极性是消极的,若不知‘waitress’和‘meal’具体是什么的情况下将无法正确作出情感分类。人类之所以容易判断上述两个例子的情感极性,是因为利用到了这两个目标的背景描述知识。针对以上问题,本发明提出一种融入描述知识的基于目标的情感分类方法。
本发明方法包括以下步骤:
步骤1、将数据集分为训练集和测试集,所述训练集用于优化模型参数,所述测试集用于测试模型效果。按批次输入训练数据,输入数据样本为目标、情感句以及正确的目标情感极性标签。
步骤2、从在线知识库中,抽取数据集中目标词或短语文本形式的描述信息(目标描述句)。
步骤3、进行数据预处理,将文本形式的数据转化为含有语义信息的向量。
步骤4、采用长短期记忆网络,分别对目标、目标的描述以及目标上下文进行建模,并利用注意力机制生成三者的向量表示。具体方法如下:
步骤4.1、将目标、目标的描述以及目标上下文的词典ID序列,通过词典-词向量矩阵转化为向量序列。将三者的向量序列作为各自LSTM神经网络的输入,得到各自LSTM神经网络输出的隐藏层序列,并得到目标隐藏层均值向量tavg和上下文隐藏层均值向量cavg
该步骤的具体实现方法如下:
步骤4.1.1、神经网络模型的实际输入为两个句子(上下文和目标的描述句)和目标(一个词或一个短语),假设三者长度分别为m、l、n,将所有词转化为词向量后,输入为三者的实值词向量序列[wc 1,wc 2,...,wc k,...,wc m],[wd 1,wd 2,...,wd i,...,wd l]和[wt 1,wt 2,...,wt j,...,wt n]。
步骤4.1.2、三者的实值词向量序列作为LSTM神经网络的输入,得到上下文、目标描述句、目标的隐藏层向量序列
Figure GDA0002556401200000031
Figure GDA0002556401200000032
计算公式为:
Ii=σ(WI[xi,hi-1])+bI (1)
fi=σ(Wf[xi,hi-1])+bf (2)
Figure GDA0002556401200000033
Figure GDA0002556401200000034
oi=σ(Wo[xi,hi-1])+bo (5)
hi=oi*tanh(Ci) (6)
其中,xi、Ii、fi和oi分别为输入的词向量、输入门、遗忘门和输出门,W和b分别为LSTM网络的权值矩阵和偏置,σ代表sigmoid激活函数,tanh为双曲正切激活函数,Ci代表神经元状态,
Figure GDA0002556401200000035
代表候选值向量,hi代表隐藏层向量,隐藏层向量序列中的每一维对应一个词的隐藏层向量。
步骤4.1.3、计算得到目标和上下文的隐藏层向量平均值tavg、cavg
Figure GDA0002556401200000036
Figure GDA0002556401200000037
其中,
Figure GDA0002556401200000038
表示目标的隐藏层向量,
Figure GDA0002556401200000039
表示上下文的隐藏层向量。
步骤4.2、在注意力机制中,为了更有效地抽取描述句以及目标上下文中的信息,用tavg监督生成描述句以及目标上下文的注意力向量,用二者的注意力向量分别与二者的隐藏层向量相乘,得到描述信息和目标上下文的最终向量表示drep和crep,用cavg监督生成目标的注意力向量,将目标的隐藏层向量与其相乘得到目标的向量表示trep。具体包括以下步骤:
步骤4.2.1、用tavg监督生成目标上下文以及描述句各词的隐藏层向量分数,用cavg监督生成目标各词的隐藏层向量分数,隐藏层向量分数体现
Figure GDA0002556401200000041
Figure GDA0002556401200000042
在目标上下文、描述句和目标(词序列)中的重要性,隐藏层向量分数计算公式如下:
Figure GDA0002556401200000043
Figure GDA0002556401200000044
Figure GDA0002556401200000045
其中,W和b分别为权重矩阵和偏置,tanh为双曲正切激活函数。
Figure GDA0002556401200000046
Figure GDA0002556401200000047
分别为tavg和cavg的转置,γ()表示隐藏层的向量分数。
步骤4.2.2、得到隐藏层分数后归一化得到注意力权值向量,三者的注意力权值向量各维和为1,计算公式如下:
Figure GDA0002556401200000048
Figure GDA0002556401200000049
Figure GDA00025564012000000410
其中,exp为指数函数,αk、βi、λj分别表示上下文、描述句、目标的注意力权值向量。
步骤4.2.3、利用得到的注意力权值向量αk、βi、λj,分别与目标、描述句、目标上下文的隐藏层向量相乘得到三者的向量表示,计算公式如下:
Figure GDA00025564012000000411
Figure GDA00025564012000000412
Figure GDA00025564012000000413
由此得到了目标、目标上下文以及描述句的有效向量表示。
但是,目标的向量表示如同传统的目标表示一样,只包含了目标中词的信息,并不能充分地表达目标的内容(具体是什么)。而将描述句的向量表示有效地融入到目标的向量表示中,可以丰富目标的向量表示所含的语义信息。
步骤5、采用门控机制,将向量形式的描述信息融入目标的向量表示中,得到新的目标的向量表示。具体方法如下:
步骤5.1、为了在使来自目标的信息和来自目标描述的信息达到一个平衡,利用一个描述嵌入门控机制,控制向目标的表示向量中融入描述向量的程度,具体实现如下:
通过描述和目标的向量表示,计算得到一个标量g控制融入描述知识的程度,计算公式为:
g=Wg*[trep,drep] (18)
其中,[,]表示向量拼接运算,Wg是权重矩阵,Wg将目标的表示向量和描述向量拼接而成的向量映射到实数空间,得到g为实数。g能够控制描述融入到目标中的程度,并且g对于不同的目标-描述对都是不同的。因为不同的目标-描述对,描述知识融入的最佳程度是不同的,由此能得到更加有效的最终目标表示。
步骤5.2、得到g之后,在g的控制下,将描述知识的向量表示融入目标的向量表示中,生成新的目标向量表示,计算公式为:
trep=trep+g*drep (19)
得到的trep为更新后的目标向量表示。
步骤6、将新的目标向量与目标上下文向量进行拼接并送入分类器,最终输出情感分类结果。
步骤7、根据定义好的损失函数计算损失,更新参数。训练数据处理完毕后输入测试数据用来测试模型效果。若模型效果指标不再提高或达到要求,停止迭代,保存模型结果。用该模型对基于目标的情感分类数据进行预测,输出情感分类结果。
有益效果
在基于目标的情感分析任务中,本发明第一次利用目标的描述知识并将描述信息融入到目标表示中。目标的描述来自含有关于实体的海量知识且易访问的知识库(维基百科,DBpedia)。
针对基于目标的情感分析,本发明提出了一种新的模型-DEGN(DescriptionEmbedding Gated Network)。该模型利用一个门控机制紧密有效地将所给目标的描述知识结合到端到端的神经网络中,并且利用监督注意力机制从目标、目标上下文以及目标的描述句中抽取重要信息来生成它们更有效地表示。
在通用数据集SemEval 2014上的实验结果表明,本发明所提出的的方法在F1-score和strict accuracy两个指标上均超过所有已有模型,达到最高水平。
附图说明
图1为本发明方法的流程图;
图2为目标、目标上下文以及目标描述句的注意力向量可视化结果;
图3为本发明提出的DEGN模型与当前主流模型的效果在准确度指标上的对比;
图4为本发明提出的DEGN模型与当前主流模型的效果在F1-score指标上的对比。
具体实施方法
下面结合附图和实施例,对本发明方法做进一步详细说明书。
实施例
一种融入描述知识的基于目标的情感分类方法,如图1所示,包括以下步骤:
步骤1、在基准数据集SemEval 2014Task4数据集上实施验证试验。数据集包括餐馆评论数据集(restaurant)和笔记本电脑评论数据集(laptop),各自分为训练集和测试集,样本包含三种情感极性(positive,negative以及neural)之一。训练集用于优化模型参数,测试集用于测试模型效果。
步骤2、从在线知识库中,抽取目标词或短语文本形式的描述信息(目标描述句)。
进一步地,步骤2中抽取目标的描述信息的方法为:
步骤2.1、用SPARQL语句在DBpedia中查询目标的描述,若存在,则返回查询结果作为目标的描述信息,若不存在,进行步骤2.2。
步骤2.2、在维基百科检索目标词或短语:如果存在对应词条,抓取前120个词或前两个句子,进行格式清洗返回纯文本格式的描述信息;如果不存在对应词条,返回空序列作为目标的描述信息。
步骤3、进行数据预处理,按批次输入训练数据样本,输入数据样本为目标、情感句、目标的描述句以及正确的目标情感极性标签。将文本形式的数据转化为含有语义信息的向量。
进一步地,步骤3中数据预处理的方法为:
步骤3.1、统计训练集、测试集以及抽取的文本形式的描述信息中的词,建立词典,词典中每个词对应一个ID,ID按词出现的次序排序。将原始数据中的词用对应词典ID替换,则原始数据转化为词ID的序列。
步骤3.2、在Glove词向量文件中查找词典中所有词的词向量,建立词典-词向量矩阵,矩阵中列数为词典所含词量,行数为词向量维度。
步骤4、采用长短期记忆网络,分别对目标、目标的描述以及目标上下文进行建模,并利用注意力机制生成三者的向量表示。
进一步地,步骤4中生成三者向量表示的方法为:
步骤4.1、将目标、目标的描述以及目标上下文的词典ID序列通过词典-词向量矩阵转化为向量序列,将三者的向量序列作为各自LSTM神经网络的输入,得到各自LSTM神经网络输出的隐藏层序列,并得到目标隐藏层均值向量tavg和上下文隐藏层均值向量cavg。包括以下步骤:
步骤4.1.1、神经网络模型的实际输入为两个句子(上下文和目标的描述句)和目标(一个词或一个短语),假设三者长度分别为m,l,n。将所有词转化为词向量后,输入为三者的实值词向量序列[wc 1,wc 2,...,wc k,...,wc m],[wd 1,wd 2,...,wd i,...,wd l]和[wt 1,wt 2,...,wt j,...,wt n]。
步骤4.1.2、三者的实值向量序列作为LSTM神经网络的输入,得到隐藏层向量序列。计算公式为:
Ii=σ(WI[xi,hi-1])+bI
fi=σ(Wf[xi,hi-1])+bf
Figure GDA0002556401200000071
Figure GDA0002556401200000072
oi=σ(Wo[xi,hi-1])+bo
hi=oi*tanh(Ci)
其中,xi、Ii、fi和oi分别为输入的词向量、输入门、遗忘门和输出门,W和b分别为LSTM的权值矩阵和偏置,σ代表sigmoid激活函数,Ci代表神经元状态,
Figure GDA0002556401200000081
代表候选值向量,hi代表隐藏层向量。
现在得到了三者的隐藏层向量序列
Figure GDA0002556401200000082
Figure GDA0002556401200000083
隐藏层向量序列中的每一维对应一个词的隐藏层向量。
步骤4.1.3、计算得到目标和上下文的隐藏层向量平均值tavg、cavg
Figure GDA0002556401200000084
Figure GDA0002556401200000085
步骤4.2、在注意力机制中,为了更有效地抽取描述句以及目标上下文中的信息,用tavg监督生成描述句以及目标上下文的注意力向量,用二者的注意力向量分别与二者的隐藏层向量相乘得到描述信息和目标上下文的最终向量表示drep和crep,用cavg监督生成目标的注意力向量,将目标的隐藏层向量与其相乘得到目标的向量表示trep。包括以下步骤:
步骤4.2.1、用tavg监督生成目标上下文以及描述句各词的隐藏层向量分数,用cavg监督生成目标各词的隐藏层向量分数,隐藏层向量分数可以体现
Figure GDA0002556401200000086
Figure GDA0002556401200000087
在目标上下文,描述句和目标(词序列)中的重要性,隐藏层向量分数计算公式如下:
Figure GDA0002556401200000088
Figure GDA0002556401200000089
Figure GDA00025564012000000810
其中,W和b分别为权重矩阵和偏置,tanh为双曲正切激活函数。
Figure GDA00025564012000000811
Figure GDA00025564012000000812
分别为tavg和cavg的转置。
步骤4.2.2、得到隐藏层分数后归一化得到注意力权值向量,三者的注意力权值向量各维和为1,公式如下:
Figure GDA0002556401200000091
Figure GDA0002556401200000092
Figure GDA0002556401200000093
其中exp为指数函数,αk、βi、λj分别表示上下文、描述句、目标的注意力权值向量。
步骤4.2.3、经过上述步骤的计算,可以利用得到的注意力权值向量αk、βi、λj分别与目标、描述句、目标上下文的隐藏层向量相乘得到三者的向量表示,计算公式如下:
Figure GDA0002556401200000094
Figure GDA0002556401200000095
Figure GDA0002556401200000096
如此得到了目标、目标上下文以及描述句的有效向量表示,但目标的向量表示如同传统的目标表示一样只包含了目标中词的信息,并不能充分地表达目标的内容(具体是什么)。而将描述句的向量表示有效地融入到目标的向量表示中可以丰富目标的向量表示所含的语义信息。
步骤5、采用门控机制,将向量形式的描述信息融入目标的向量表示中,得到新的目标的向量表示。
进一步地,步骤5中得到新的向量表示的方法为:
步骤5.1、为了在使来自目标的信息和来自目标描述的信息达到一个平衡,利用一个描述嵌入门控制来控制向目标的表示向量中融入描述向量的程度,具体实现如下:
通过描述和目标的向量表示计算得到一个标量g控制融入描述知识的程度,计算公式为:
g=Wg*[trep,drep]
其中,[,]表示向量拼接,Wg是权重矩阵,Wg将目标的表示向量和描述向量拼接而成的向量映射到实数空间,得到g为实数。g可以控制描述融入到目标中的程度,并且g对于不同的目标-描述对都是不同的。因为不同的目标-描述对,描述知识融入的最佳程度是不同的,这样就能得到更加有效的最终目标表示。
步骤5.2、得到g之后,在g的控制下将描述知识的向量表示融入目标的向量表示中,生成新的目标向量表示,计算公式为:
trep=trep+g*drep
步骤6、将新的目标向量与目标上下文向量进行拼接并送入分类器,最终输出情感分类结果。
进一步地,步骤6中得到分类结果方法为:
步骤6.1、将trep和crep拼接在一起作为情感特征向量V,用非线性函数将高维情感特征向量映射到C维分类向量中(C为情感类别数)。公式如下:
δ=tanh(WδV+bδ)
其中,Wδ为权重矩阵,bδ为偏置。得到的C维向量δ中的每一维对应的数值大小反映出将情感极性判断为该类的可能性大小。
步骤6.2、将分类向量输入softmax分类器,输出C个情感类别的概率,取最大概率的类别作为情感分类的最终结果。公式如下:
Figure GDA0002556401200000101
其中,
Figure GDA0002556401200000102
表示某对目标和目标上下文(s,t)的情感极性被判别为C个类别中的第k类的概率,δk和δi分别表示δ向量中的第k维和第i维的数值,C中概率最大的类别即为最终的情感分类结果。
步骤7、根据定义好的损失函数计算损失,更新参数。训练数据处理完毕后输入测试数据用来测试模型效果。若模型效果指标不再提高或达到要求,停止迭代,保存模型结果。用该模型对基于目标的情感分类数据进行预测,输出情感分类结果。
进一步地,步骤7中更新模型参数的方法为:
用Adam优化算法最小化损失函数来优化模型参数,损失函数为每个训练样例的交叉熵损失之和:
Figure GDA0002556401200000111
其中,S、T和C为目标上下文、目标以及情感类别的集合,
Figure GDA0002556401200000112
表示样例被判别为第k个情感类别的概率,
Figure GDA0002556401200000113
表示真实情感类别。若样例情感极性为第k类,则其他类别对应值为0。

Claims (8)

1.一种融入描述知识的基于目标的情感分类方法,其特征在于包括以下步骤:
步骤1、将数据集分为训练集和测试集,所述训练集用于优化模型参数,所述测试集用于测试模型效果;
按批次输入训练数据,输入数据样本为目标、情感句以及正确的目标情感极性标签;
步骤2、从在线知识库中,抽取数据集中目标词或短语文本形式的描述信息;
步骤3、进行数据预处理,将文本形式的数据转化为含有语义信息的向量;
步骤4、采用长短期记忆网络,分别对目标、目标的描述以及目标上下文进行建模,并利用注意力机制生成三者的向量表示;
步骤5、采用门控机制,将向量形式的描述信息融入目标的向量表示中,得到新的目标的向量表示,具体方法如下:
步骤5.1、利用一个描述嵌入门控机制,控制向目标的表示向量中融入描述向量的程度,方式如下:
通过描述和目标的向量表示,计算得到一个标量g控制融入描述知识的程度,计算公式为:
g=Wg*[trep,drep]
其中,[,]表示向量拼接运算,Wg是权重矩阵,Wg将目标的表示向量和描述向量拼接而成的向量映射到实数空间,得到g为实数,g能够控制描述融入到目标中的程度,并且g对于不同的目标-描述对都是不同的;trep为目标的向量表示;drep为描述信息的最终向量表示;
步骤5.2、在g的控制下,将描述知识的向量表示融入目标的向量表示中,生成新的目标向量表示,计算公式为:
trep=trep+g*drep
得到的trep为更新后的目标向量表示;
步骤6、将新的目标向量与目标上下文向量进行拼接并送入分类器,最终输出情感分类结果;
步骤7、根据定义好的损失函数计算损失,更新参数;训练数据处理完毕后输入测试数据用来测试模型效果,若模型效果指标不再提高或达到要求,停止迭代,保存模型结果;用该模型对基于目标的情感分类数据进行预测,输出情感分类结果。
2.如权利要求1所述的一种融入描述知识的基于目标的情感分类方法,其特征在于,所述步骤2中抽取目标的描述信息的方法为:
步骤2.1、用SPARQL语句在DBpedia中查询目标的描述,若存在,则返回查询结果作为目标的描述信息,若不存在,进行步骤2.2;
步骤2.2、在维基百科检索目标词或短语:如果存在对应词条,抓取前120个词或前两个句子,进行格式清洗返回纯文本格式的描述信息;如果不存在对应词条,返回空序列作为目标的描述信息;
步骤3、进行数据预处理,按批次输入训练数据样本,输入数据样本为目标、情感句、目标的描述句以及正确的目标情感极性标签;将文本形式的数据转化为含有语义信息的向量。
3.如权利要求1所述的一种融入描述知识的基于目标的情感分类方法,其特征在于,所述步骤3中数据预处理的方法为:
步骤3.1、统计训练集、测试集以及抽取的文本形式的描述信息中的词,建立词典,词典中每个词对应一个ID,ID按词出现的次序排序;
将原始数据中的词用对应词典ID替换,则原始数据转化为词ID的序列;
步骤3.2、在Glove词向量文件中查找词典中所有词的词向量,建立词典-词向量矩阵,矩阵中列数为词典所含词量,行数为词向量维度。
4.如权利要求1所述的一种融入描述知识的基于目标的情感分类方法,其特征在于,所述步骤4的具体实现方法如下:
步骤4.1、将目标、目标的描述以及目标上下文的词典ID序列,通过词典-词向量矩阵转化为向量序列;
将三者的向量序列作为各自LSTM神经网络的输入,得到各自LSTM神经网络输出的隐藏层序列,并得到目标隐藏层均值向量tavg和上下文隐藏层均值向量cavg
步骤4.2、在注意力机制中,为了更有效地抽取描述句以及目标上下文中的信息,用tavg监督生成描述句以及目标上下文的注意力向量,用二者的注意力向量分别与二者的隐藏层向量相乘,得到描述信息和目标上下文的最终向量表示drep和crep,用cavg监督生成目标的注意力向量,将目标的隐藏层向量与其相乘得到目标的向量表示trep
5.如权利要求4所述的一种融入描述知识的基于目标的情感分类方法,其特征在于,所述步骤4.1包括以下步骤:
步骤4.1.1、神经网络模型的实际输入为两个句子和目标,假设三者长度分别为m、l、n,将所有词转化为词向量后,输入为三者的实值词向量序列[wc 1,wc 2,...,wc k,...,wc m],[wd 1,wd 2,...,wd i,...,wd l]和[wt 1,wt 2,...,wt j,...,wt n];
步骤4.1.2、三者的实值词向量序列作为LSTM神经网络的输入,得到上下文、目标描述句、目标的隐藏层向量序列
Figure FDA0002556401190000031
Figure FDA0002556401190000032
计算公式为:
Ii=σ(WI[xi,hi-1])+bI (1)
fi=σ(Wf[xi,hi-1])+bf (2)
Figure FDA0002556401190000033
Figure FDA0002556401190000034
oi=σ(Wo[xi,hi-1])+bo (5)
hi=oi*tanh(Ci) (6)
其中,xi、Ii、fi和oi分别为输入的词向量、输入门、遗忘门和输出门,W和b分别为LSTM网络的权值矩阵和偏置,σ代表sigmoid激活函数,tanh为双曲正切激活函数,
Figure FDA0002556401190000035
代表候选值向量,hi代表隐藏层向量,隐藏层向量序列中的每一维对应一个词的隐藏层向量;
步骤4.1.3、计算得到目标和上下文的隐藏层向量平均值tavg、cavg
Figure FDA0002556401190000036
Figure FDA0002556401190000037
其中,
Figure FDA0002556401190000038
表示目标的隐藏层向量,
Figure FDA0002556401190000039
表示上下文的隐藏层向量。
6.如权利要求4所述的一种融入描述知识的基于目标的情感分类方法,其特征在于,所述步骤4.2包括以下步骤:
步骤4.2.1、用tavg监督生成目标上下文以及描述句各词的隐藏层向量分数,用cavg监督生成目标各词的隐藏层向量分数,隐藏层向量分数体现
Figure FDA0002556401190000041
Figure FDA0002556401190000042
在目标上下文、描述句和目标中的重要性,隐藏层向量分数计算公式如下:
Figure FDA0002556401190000043
Figure FDA0002556401190000044
Figure FDA0002556401190000045
其中,W和b分别为权重矩阵和偏置,tanh为双曲正切激活函数;
Figure FDA0002556401190000046
Figure FDA0002556401190000047
分别为tavg和cavg的转置,γ()表示隐藏层的向量分数;
步骤4.2.2、得到隐藏层分数后归一化得到注意力权值向量,三者的注意力权值向量各维和为1,计算公式如下:
Figure FDA0002556401190000048
Figure FDA0002556401190000049
Figure FDA00025564011900000410
其中,exp为指数函数,αk、βi、λj分别表示上下文、描述句、目标的注意力权值向量;
步骤4.2.3、利用得到的注意力权值向量αk、βi、λj,分别与目标、描述句、目标上下文的隐藏层向量相乘得到三者的向量表示,计算公式如下:
Figure FDA00025564011900000411
Figure FDA00025564011900000412
Figure FDA00025564011900000413
由此得到了目标、目标上下文以及描述句的有效向量表示。
7.如权利要求1所述的一种融入描述知识的基于目标的情感分类方法,其特征在于,所述步骤6中得到分类结果方法为:
步骤6.1、将trep和crep拼接在一起作为情感特征向量V,用非线性函数将高维情感特征向量映射到C维分类向量中,C为情感类别数,公式如下:
δ=tanh(WδV+bδ)
其中,Wδ为权重矩阵,bδ为偏置;得到的C维向量δ中的每一维对应的数值大小反映出将情感极性判断为该类的可能性大小;
步骤6.2、将分类向量输入softmax分类器,输出C个情感类别的概率,取最大概率的类别作为情感分类的最终结果,公式如下:
Figure FDA0002556401190000051
其中,
Figure FDA0002556401190000052
表示某对目标和目标上下文(s,t)的情感极性被判别为C个类别中的第k类的概率,δk和δi分别表示δ向量中的第k维和第i维的数值,C中概率最大的类别即为最终的情感分类结果。
8.如权利要求1所述的一种融入描述知识的基于目标的情感分类方法,其特征在于,所述步骤7中更新模型参数的方法为:
用Adam优化算法最小化损失函数优化模型参数,损失函数为每个训练样例的交叉熵损失之和:
Figure FDA0002556401190000053
其中,S、T和C为目标上下文、目标以及情感类别的集合,
Figure FDA0002556401190000054
表示样例被判别为第k个情感类别的概率,
Figure FDA0002556401190000055
表示真实情感类别;若样例情感极性为第k类,则其他类别对应值为0。
CN201811551884.4A 2018-12-19 2018-12-19 一种融入描述知识的基于目标的情感分类方法 Active CN109726745B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811551884.4A CN109726745B (zh) 2018-12-19 2018-12-19 一种融入描述知识的基于目标的情感分类方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811551884.4A CN109726745B (zh) 2018-12-19 2018-12-19 一种融入描述知识的基于目标的情感分类方法

Publications (2)

Publication Number Publication Date
CN109726745A CN109726745A (zh) 2019-05-07
CN109726745B true CN109726745B (zh) 2020-10-09

Family

ID=66296927

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811551884.4A Active CN109726745B (zh) 2018-12-19 2018-12-19 一种融入描述知识的基于目标的情感分类方法

Country Status (1)

Country Link
CN (1) CN109726745B (zh)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110222349B (zh) * 2019-06-13 2020-05-19 成都信息工程大学 一种深度动态上下文词语表示的方法及计算机
CN110427454B (zh) * 2019-06-21 2024-03-15 平安科技(深圳)有限公司 文本情绪分析方法及装置、电子设备和非暂态存储介质
CN110598207B (zh) * 2019-08-14 2020-09-01 华南师范大学 一种词向量获取方法、装置及存储介质
CN110619044B (zh) * 2019-08-16 2020-12-08 华南师范大学 一种情感分析方法、系统、存储介质及设备
CN110705292B (zh) * 2019-08-22 2022-11-29 成都信息工程大学 一种基于知识库和深度学习的实体名称提取方法
CN111274396B (zh) * 2020-01-20 2022-06-07 福州大学 一种基于外部知识的视角级文本情感分类方法及系统
CN111324739B (zh) * 2020-05-15 2020-08-28 支付宝(杭州)信息技术有限公司 一种文本情感分析方法及系统
CN114676704B (zh) * 2022-05-30 2022-08-16 华南师范大学 句子情感分析方法、装置、设备以及存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104239554A (zh) * 2014-09-24 2014-12-24 南开大学 跨领域跨类别的新闻评论情绪预测方法
GB2532307A (en) * 2014-11-14 2016-05-18 Adobe Systems Inc Monitoring and responding to social media posts with socially relevant comparisons
CN107066446A (zh) * 2017-04-13 2017-08-18 广东工业大学 一种嵌入逻辑规则的循环神经网络文本情感分析方法
CN107526798A (zh) * 2017-08-18 2017-12-29 武汉红茶数据技术有限公司 一种基于神经网络的实体识别和规范化联合方法及模型
CN108108433A (zh) * 2017-12-19 2018-06-01 杭州电子科技大学 一种基于规则和数据网络融合的情感分析方法
CN108595601A (zh) * 2018-04-20 2018-09-28 福州大学 一种融入Attention机制的长文本情感分析方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101894550A (zh) * 2010-07-19 2010-11-24 东南大学 基于情感对特征优化的语音情感分类方法
US10007720B2 (en) * 2015-11-10 2018-06-26 Hipmunk, Inc. Automatic conversation analysis and participation
US20170193397A1 (en) * 2015-12-30 2017-07-06 Accenture Global Solutions Limited Real time organization pulse gathering and analysis using machine learning and artificial intelligence

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104239554A (zh) * 2014-09-24 2014-12-24 南开大学 跨领域跨类别的新闻评论情绪预测方法
GB2532307A (en) * 2014-11-14 2016-05-18 Adobe Systems Inc Monitoring and responding to social media posts with socially relevant comparisons
CN107066446A (zh) * 2017-04-13 2017-08-18 广东工业大学 一种嵌入逻辑规则的循环神经网络文本情感分析方法
CN107526798A (zh) * 2017-08-18 2017-12-29 武汉红茶数据技术有限公司 一种基于神经网络的实体识别和规范化联合方法及模型
CN108108433A (zh) * 2017-12-19 2018-06-01 杭州电子科技大学 一种基于规则和数据网络融合的情感分析方法
CN108595601A (zh) * 2018-04-20 2018-09-28 福州大学 一种融入Attention机制的长文本情感分析方法

Also Published As

Publication number Publication date
CN109726745A (zh) 2019-05-07

Similar Documents

Publication Publication Date Title
CN109726745B (zh) 一种融入描述知识的基于目标的情感分类方法
CN107992597B (zh) 一种面向电网故障案例的文本结构化方法
CN107609132B (zh) 一种基于语义本体库中文文本情感分析方法
CN111325029B (zh) 一种基于深度学习集成模型的文本相似度计算方法
Cerón-Guzmán et al. A sentiment analysis system of Spanish tweets and its application in Colombia 2014 presidential election
Kaur Incorporating sentimental analysis into development of a hybrid classification model: A comprehensive study
CN113742733B (zh) 阅读理解漏洞事件触发词抽取和漏洞类型识别方法及装置
CN110750648A (zh) 一种基于深度学习和特征融合的文本情感分类方法
CN110851593B (zh) 一种基于位置与语义的复值词向量构建方法
CN113449204B (zh) 基于局部聚合图注意力网络的社会事件分类方法、装置
CN111368082A (zh) 一种基于层次网络的领域自适应词嵌入的情感分析方法
CN110297986A (zh) 一种微博热点话题的情感倾向分析方法
Zhang et al. Exploring deep recurrent convolution neural networks for subjectivity classification
CN114417851A (zh) 一种基于关键词加权信息的情感分析方法
Gupta et al. SLANGZY: A fuzzy logic-based algorithm for English slang meaning Selection
Wang et al. Word vector modeling for sentiment analysis of product reviews
CN111815426B (zh) 一种涉及金融投研的数据处理方法及终端
Du et al. Sentiment analysis method based on piecewise convolutional neural network and generative adversarial network
CN111159405B (zh) 基于背景知识的讽刺检测方法
Zhu et al. Attention based BiLSTM-MCNN for sentiment analysis
Jiang et al. Sentiment classification based on clause polarity and fusion via convolutional neural network
Wang et al. Event extraction via dmcnn in open domain public sentiment information
Ren Machine automatic translation quality evaluation model based on recurrent neural network algorithm
Huang Recent deep learning techniques for sentiment analysis
Hu et al. Research on the application of LSTM neural network model in text sentiment analysis and sentiment word extraction.

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant