CN109726745B - 一种融入描述知识的基于目标的情感分类方法 - Google Patents
一种融入描述知识的基于目标的情感分类方法 Download PDFInfo
- Publication number
- CN109726745B CN109726745B CN201811551884.4A CN201811551884A CN109726745B CN 109726745 B CN109726745 B CN 109726745B CN 201811551884 A CN201811551884 A CN 201811551884A CN 109726745 B CN109726745 B CN 109726745B
- Authority
- CN
- China
- Prior art keywords
- target
- vector
- description
- emotion
- hidden layer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Machine Translation (AREA)
Abstract
本发明提出了一种融入描述知识的基于目标的情感分类方法,属于深度学习及知识库技术领域。在基于目标的情感分析任务中,本发明利用目标的描述知识并将描述信息融入到目标表示中,目标的描述来自含有关于实体的海量知识且易访问的知识库。针对基于目标的情感分析,本发明提出了一种新的模型‑DEGN,该模型利用一个门控机制紧密有效地将所给目标的描述知识结合到端到端的神经网络中,并且利用监督注意力机制从目标、目标上下文以及目标的描述句中抽取重要信息来生成它们更有效的表示。本发明在F1‑score和strict accuracy两个指标上均超过所有已有模型,达到最高水平。
Description
技术领域
本发明属于深度学习及知识库技术领域,涉及一种融入描述知识的基于目标的情感分类方法。
背景技术
随着信息技术和社会媒体的迅猛发展和大数据时代的到来,互联网渗透到到大众日常生活的方方面面,越来越多的人在网上发表自己针对服务、商品、政治、新闻等的观点和评论,互联网中积累了含有观点的海量文本。当某一个体试图去做决定、并转换为行为时,通常会斟酌、考虑他人的意见、建议、观点及看法。或者说,他人的意见和观点对一个人的决定和行为将产生显著影响。一个企业或机构若能对大众针对产品或服务的观点进行有效分析,就可以及时做出决策调整,在竞争中占领优势地位。
在学术界,基于目标的观点挖掘,也可称为基于目标的情感分析或基于目标的情感分类。其研究目标是,从文本中分析展示人们对于实体及其属性所表达的观点、情感、评价、态度和情绪,这里的实体可以是各种产品、个人、机构、事情和服务等。这是一类旨在利用可计算的方法从自然语言文本中提取观点和情感信息的研究。从自然语言处理角度看,基于目标的情感分析任务就是识别出人们谈论的主题以及针对主题所表达出来的观点倾向。
目前,基于目标的情感分析方法分为传统方法和基于神经网络方法。传统方法需要大量的人工标注特征,而神经网络模型能够自动有效地学习得到特征表示,可以用少量的人工代价在情感分析任务中取得良好效果。虽然已有的神经网络模型已经取得了很好的效果,但是它们都忽略了目标的描述信息,仅仅利用目标以及上下文进行问题建模。当前,大部分深度学习模型都利用LSTM网络进行建模,但是目标词或短语可以视作极短序列,而LSTM处理长序列更有优势,这就导致已有的深度神经网络模型所得到的目标向量表示并不十分有效。而目标的文本形式描述信息通常是长序列,这就能发挥LSTM处理长序列的优点。将描述信息的向量表示融入目标的向量表示后可以得到更加有效的目标表示,从而提高最终情感分析的准确性。近年来,融入外部知识的方法在其他自然语言处理任务中取得了良好效果,但是在基于目标的情感分析中还未见被采用。
发明内容
本发明的目的是为了解决当前基于深度神经网络模型基于目标的情感分类算法存在的问题,包括:(1)未考虑目标描述信息,生成的目标表示向量所含语义信息匮乏,不能充分表示目标具体内容。(2)当前大部分模型基于LSTM长短期记忆网络,LSTM主要优势在于建模长序列,而情感句中的目标往往为一个词或长度较短的短语,不能充分发挥LSTM的优势来生成有效的目标表示。(3)现有方法不能很好处理对目标敏感的情感分析问题,例如两个句子:“The waitress is so hot!”,“The meal is so hot!”,一个句子对于‘waitress’的情感极性是积极的,第二个句子对于‘meal’的情感极性是消极的,若不知‘waitress’和‘meal’具体是什么的情况下将无法正确作出情感分类。人类之所以容易判断上述两个例子的情感极性,是因为利用到了这两个目标的背景描述知识。针对以上问题,本发明提出一种融入描述知识的基于目标的情感分类方法。
本发明方法包括以下步骤:
步骤1、将数据集分为训练集和测试集,所述训练集用于优化模型参数,所述测试集用于测试模型效果。按批次输入训练数据,输入数据样本为目标、情感句以及正确的目标情感极性标签。
步骤2、从在线知识库中,抽取数据集中目标词或短语文本形式的描述信息(目标描述句)。
步骤3、进行数据预处理,将文本形式的数据转化为含有语义信息的向量。
步骤4、采用长短期记忆网络,分别对目标、目标的描述以及目标上下文进行建模,并利用注意力机制生成三者的向量表示。具体方法如下:
步骤4.1、将目标、目标的描述以及目标上下文的词典ID序列,通过词典-词向量矩阵转化为向量序列。将三者的向量序列作为各自LSTM神经网络的输入,得到各自LSTM神经网络输出的隐藏层序列,并得到目标隐藏层均值向量tavg和上下文隐藏层均值向量cavg。
该步骤的具体实现方法如下:
步骤4.1.1、神经网络模型的实际输入为两个句子(上下文和目标的描述句)和目标(一个词或一个短语),假设三者长度分别为m、l、n,将所有词转化为词向量后,输入为三者的实值词向量序列[wc 1,wc 2,...,wc k,...,wc m],[wd 1,wd 2,...,wd i,...,wd l]和[wt 1,wt 2,...,wt j,...,wt n]。
Ii=σ(WI[xi,hi-1])+bI (1)
fi=σ(Wf[xi,hi-1])+bf (2)
oi=σ(Wo[xi,hi-1])+bo (5)
hi=oi*tanh(Ci) (6)
其中,xi、Ii、fi和oi分别为输入的词向量、输入门、遗忘门和输出门,W和b分别为LSTM网络的权值矩阵和偏置,σ代表sigmoid激活函数,tanh为双曲正切激活函数,Ci代表神经元状态,代表候选值向量,hi代表隐藏层向量,隐藏层向量序列中的每一维对应一个词的隐藏层向量。
步骤4.1.3、计算得到目标和上下文的隐藏层向量平均值tavg、cavg:
步骤4.2、在注意力机制中,为了更有效地抽取描述句以及目标上下文中的信息,用tavg监督生成描述句以及目标上下文的注意力向量,用二者的注意力向量分别与二者的隐藏层向量相乘,得到描述信息和目标上下文的最终向量表示drep和crep,用cavg监督生成目标的注意力向量,将目标的隐藏层向量与其相乘得到目标的向量表示trep。具体包括以下步骤:
步骤4.2.1、用tavg监督生成目标上下文以及描述句各词的隐藏层向量分数,用cavg监督生成目标各词的隐藏层向量分数,隐藏层向量分数体现和在目标上下文、描述句和目标(词序列)中的重要性,隐藏层向量分数计算公式如下:
步骤4.2.2、得到隐藏层分数后归一化得到注意力权值向量,三者的注意力权值向量各维和为1,计算公式如下:
其中,exp为指数函数,αk、βi、λj分别表示上下文、描述句、目标的注意力权值向量。
步骤4.2.3、利用得到的注意力权值向量αk、βi、λj,分别与目标、描述句、目标上下文的隐藏层向量相乘得到三者的向量表示,计算公式如下:
由此得到了目标、目标上下文以及描述句的有效向量表示。
但是,目标的向量表示如同传统的目标表示一样,只包含了目标中词的信息,并不能充分地表达目标的内容(具体是什么)。而将描述句的向量表示有效地融入到目标的向量表示中,可以丰富目标的向量表示所含的语义信息。
步骤5、采用门控机制,将向量形式的描述信息融入目标的向量表示中,得到新的目标的向量表示。具体方法如下:
步骤5.1、为了在使来自目标的信息和来自目标描述的信息达到一个平衡,利用一个描述嵌入门控机制,控制向目标的表示向量中融入描述向量的程度,具体实现如下:
通过描述和目标的向量表示,计算得到一个标量g控制融入描述知识的程度,计算公式为:
g=Wg*[trep,drep] (18)
其中,[,]表示向量拼接运算,Wg是权重矩阵,Wg将目标的表示向量和描述向量拼接而成的向量映射到实数空间,得到g为实数。g能够控制描述融入到目标中的程度,并且g对于不同的目标-描述对都是不同的。因为不同的目标-描述对,描述知识融入的最佳程度是不同的,由此能得到更加有效的最终目标表示。
步骤5.2、得到g之后,在g的控制下,将描述知识的向量表示融入目标的向量表示中,生成新的目标向量表示,计算公式为:
trep=trep+g*drep (19)
得到的trep为更新后的目标向量表示。
步骤6、将新的目标向量与目标上下文向量进行拼接并送入分类器,最终输出情感分类结果。
步骤7、根据定义好的损失函数计算损失,更新参数。训练数据处理完毕后输入测试数据用来测试模型效果。若模型效果指标不再提高或达到要求,停止迭代,保存模型结果。用该模型对基于目标的情感分类数据进行预测,输出情感分类结果。
有益效果
在基于目标的情感分析任务中,本发明第一次利用目标的描述知识并将描述信息融入到目标表示中。目标的描述来自含有关于实体的海量知识且易访问的知识库(维基百科,DBpedia)。
针对基于目标的情感分析,本发明提出了一种新的模型-DEGN(DescriptionEmbedding Gated Network)。该模型利用一个门控机制紧密有效地将所给目标的描述知识结合到端到端的神经网络中,并且利用监督注意力机制从目标、目标上下文以及目标的描述句中抽取重要信息来生成它们更有效地表示。
在通用数据集SemEval 2014上的实验结果表明,本发明所提出的的方法在F1-score和strict accuracy两个指标上均超过所有已有模型,达到最高水平。
附图说明
图1为本发明方法的流程图;
图2为目标、目标上下文以及目标描述句的注意力向量可视化结果;
图3为本发明提出的DEGN模型与当前主流模型的效果在准确度指标上的对比;
图4为本发明提出的DEGN模型与当前主流模型的效果在F1-score指标上的对比。
具体实施方法
下面结合附图和实施例,对本发明方法做进一步详细说明书。
实施例
一种融入描述知识的基于目标的情感分类方法,如图1所示,包括以下步骤:
步骤1、在基准数据集SemEval 2014Task4数据集上实施验证试验。数据集包括餐馆评论数据集(restaurant)和笔记本电脑评论数据集(laptop),各自分为训练集和测试集,样本包含三种情感极性(positive,negative以及neural)之一。训练集用于优化模型参数,测试集用于测试模型效果。
步骤2、从在线知识库中,抽取目标词或短语文本形式的描述信息(目标描述句)。
进一步地,步骤2中抽取目标的描述信息的方法为:
步骤2.1、用SPARQL语句在DBpedia中查询目标的描述,若存在,则返回查询结果作为目标的描述信息,若不存在,进行步骤2.2。
步骤2.2、在维基百科检索目标词或短语:如果存在对应词条,抓取前120个词或前两个句子,进行格式清洗返回纯文本格式的描述信息;如果不存在对应词条,返回空序列作为目标的描述信息。
步骤3、进行数据预处理,按批次输入训练数据样本,输入数据样本为目标、情感句、目标的描述句以及正确的目标情感极性标签。将文本形式的数据转化为含有语义信息的向量。
进一步地,步骤3中数据预处理的方法为:
步骤3.1、统计训练集、测试集以及抽取的文本形式的描述信息中的词,建立词典,词典中每个词对应一个ID,ID按词出现的次序排序。将原始数据中的词用对应词典ID替换,则原始数据转化为词ID的序列。
步骤3.2、在Glove词向量文件中查找词典中所有词的词向量,建立词典-词向量矩阵,矩阵中列数为词典所含词量,行数为词向量维度。
步骤4、采用长短期记忆网络,分别对目标、目标的描述以及目标上下文进行建模,并利用注意力机制生成三者的向量表示。
进一步地,步骤4中生成三者向量表示的方法为:
步骤4.1、将目标、目标的描述以及目标上下文的词典ID序列通过词典-词向量矩阵转化为向量序列,将三者的向量序列作为各自LSTM神经网络的输入,得到各自LSTM神经网络输出的隐藏层序列,并得到目标隐藏层均值向量tavg和上下文隐藏层均值向量cavg。包括以下步骤:
步骤4.1.1、神经网络模型的实际输入为两个句子(上下文和目标的描述句)和目标(一个词或一个短语),假设三者长度分别为m,l,n。将所有词转化为词向量后,输入为三者的实值词向量序列[wc 1,wc 2,...,wc k,...,wc m],[wd 1,wd 2,...,wd i,...,wd l]和[wt 1,wt 2,...,wt j,...,wt n]。
步骤4.1.2、三者的实值向量序列作为LSTM神经网络的输入,得到隐藏层向量序列。计算公式为:
Ii=σ(WI[xi,hi-1])+bI
fi=σ(Wf[xi,hi-1])+bf
oi=σ(Wo[xi,hi-1])+bo
hi=oi*tanh(Ci)
步骤4.1.3、计算得到目标和上下文的隐藏层向量平均值tavg、cavg:
步骤4.2、在注意力机制中,为了更有效地抽取描述句以及目标上下文中的信息,用tavg监督生成描述句以及目标上下文的注意力向量,用二者的注意力向量分别与二者的隐藏层向量相乘得到描述信息和目标上下文的最终向量表示drep和crep,用cavg监督生成目标的注意力向量,将目标的隐藏层向量与其相乘得到目标的向量表示trep。包括以下步骤:
步骤4.2.1、用tavg监督生成目标上下文以及描述句各词的隐藏层向量分数,用cavg监督生成目标各词的隐藏层向量分数,隐藏层向量分数可以体现和在目标上下文,描述句和目标(词序列)中的重要性,隐藏层向量分数计算公式如下:
步骤4.2.2、得到隐藏层分数后归一化得到注意力权值向量,三者的注意力权值向量各维和为1,公式如下:
其中exp为指数函数,αk、βi、λj分别表示上下文、描述句、目标的注意力权值向量。
步骤4.2.3、经过上述步骤的计算,可以利用得到的注意力权值向量αk、βi、λj分别与目标、描述句、目标上下文的隐藏层向量相乘得到三者的向量表示,计算公式如下:
如此得到了目标、目标上下文以及描述句的有效向量表示,但目标的向量表示如同传统的目标表示一样只包含了目标中词的信息,并不能充分地表达目标的内容(具体是什么)。而将描述句的向量表示有效地融入到目标的向量表示中可以丰富目标的向量表示所含的语义信息。
步骤5、采用门控机制,将向量形式的描述信息融入目标的向量表示中,得到新的目标的向量表示。
进一步地,步骤5中得到新的向量表示的方法为:
步骤5.1、为了在使来自目标的信息和来自目标描述的信息达到一个平衡,利用一个描述嵌入门控制来控制向目标的表示向量中融入描述向量的程度,具体实现如下:
通过描述和目标的向量表示计算得到一个标量g控制融入描述知识的程度,计算公式为:
g=Wg*[trep,drep]
其中,[,]表示向量拼接,Wg是权重矩阵,Wg将目标的表示向量和描述向量拼接而成的向量映射到实数空间,得到g为实数。g可以控制描述融入到目标中的程度,并且g对于不同的目标-描述对都是不同的。因为不同的目标-描述对,描述知识融入的最佳程度是不同的,这样就能得到更加有效的最终目标表示。
步骤5.2、得到g之后,在g的控制下将描述知识的向量表示融入目标的向量表示中,生成新的目标向量表示,计算公式为:
trep=trep+g*drep
步骤6、将新的目标向量与目标上下文向量进行拼接并送入分类器,最终输出情感分类结果。
进一步地,步骤6中得到分类结果方法为:
步骤6.1、将trep和crep拼接在一起作为情感特征向量V,用非线性函数将高维情感特征向量映射到C维分类向量中(C为情感类别数)。公式如下:
δ=tanh(WδV+bδ)
其中,Wδ为权重矩阵,bδ为偏置。得到的C维向量δ中的每一维对应的数值大小反映出将情感极性判断为该类的可能性大小。
步骤6.2、将分类向量输入softmax分类器,输出C个情感类别的概率,取最大概率的类别作为情感分类的最终结果。公式如下:
步骤7、根据定义好的损失函数计算损失,更新参数。训练数据处理完毕后输入测试数据用来测试模型效果。若模型效果指标不再提高或达到要求,停止迭代,保存模型结果。用该模型对基于目标的情感分类数据进行预测,输出情感分类结果。
进一步地,步骤7中更新模型参数的方法为:
用Adam优化算法最小化损失函数来优化模型参数,损失函数为每个训练样例的交叉熵损失之和:
Claims (8)
1.一种融入描述知识的基于目标的情感分类方法,其特征在于包括以下步骤:
步骤1、将数据集分为训练集和测试集,所述训练集用于优化模型参数,所述测试集用于测试模型效果;
按批次输入训练数据,输入数据样本为目标、情感句以及正确的目标情感极性标签;
步骤2、从在线知识库中,抽取数据集中目标词或短语文本形式的描述信息;
步骤3、进行数据预处理,将文本形式的数据转化为含有语义信息的向量;
步骤4、采用长短期记忆网络,分别对目标、目标的描述以及目标上下文进行建模,并利用注意力机制生成三者的向量表示;
步骤5、采用门控机制,将向量形式的描述信息融入目标的向量表示中,得到新的目标的向量表示,具体方法如下:
步骤5.1、利用一个描述嵌入门控机制,控制向目标的表示向量中融入描述向量的程度,方式如下:
通过描述和目标的向量表示,计算得到一个标量g控制融入描述知识的程度,计算公式为:
g=Wg*[trep,drep]
其中,[,]表示向量拼接运算,Wg是权重矩阵,Wg将目标的表示向量和描述向量拼接而成的向量映射到实数空间,得到g为实数,g能够控制描述融入到目标中的程度,并且g对于不同的目标-描述对都是不同的;trep为目标的向量表示;drep为描述信息的最终向量表示;
步骤5.2、在g的控制下,将描述知识的向量表示融入目标的向量表示中,生成新的目标向量表示,计算公式为:
trep=trep+g*drep
得到的trep为更新后的目标向量表示;
步骤6、将新的目标向量与目标上下文向量进行拼接并送入分类器,最终输出情感分类结果;
步骤7、根据定义好的损失函数计算损失,更新参数;训练数据处理完毕后输入测试数据用来测试模型效果,若模型效果指标不再提高或达到要求,停止迭代,保存模型结果;用该模型对基于目标的情感分类数据进行预测,输出情感分类结果。
2.如权利要求1所述的一种融入描述知识的基于目标的情感分类方法,其特征在于,所述步骤2中抽取目标的描述信息的方法为:
步骤2.1、用SPARQL语句在DBpedia中查询目标的描述,若存在,则返回查询结果作为目标的描述信息,若不存在,进行步骤2.2;
步骤2.2、在维基百科检索目标词或短语:如果存在对应词条,抓取前120个词或前两个句子,进行格式清洗返回纯文本格式的描述信息;如果不存在对应词条,返回空序列作为目标的描述信息;
步骤3、进行数据预处理,按批次输入训练数据样本,输入数据样本为目标、情感句、目标的描述句以及正确的目标情感极性标签;将文本形式的数据转化为含有语义信息的向量。
3.如权利要求1所述的一种融入描述知识的基于目标的情感分类方法,其特征在于,所述步骤3中数据预处理的方法为:
步骤3.1、统计训练集、测试集以及抽取的文本形式的描述信息中的词,建立词典,词典中每个词对应一个ID,ID按词出现的次序排序;
将原始数据中的词用对应词典ID替换,则原始数据转化为词ID的序列;
步骤3.2、在Glove词向量文件中查找词典中所有词的词向量,建立词典-词向量矩阵,矩阵中列数为词典所含词量,行数为词向量维度。
4.如权利要求1所述的一种融入描述知识的基于目标的情感分类方法,其特征在于,所述步骤4的具体实现方法如下:
步骤4.1、将目标、目标的描述以及目标上下文的词典ID序列,通过词典-词向量矩阵转化为向量序列;
将三者的向量序列作为各自LSTM神经网络的输入,得到各自LSTM神经网络输出的隐藏层序列,并得到目标隐藏层均值向量tavg和上下文隐藏层均值向量cavg;
步骤4.2、在注意力机制中,为了更有效地抽取描述句以及目标上下文中的信息,用tavg监督生成描述句以及目标上下文的注意力向量,用二者的注意力向量分别与二者的隐藏层向量相乘,得到描述信息和目标上下文的最终向量表示drep和crep,用cavg监督生成目标的注意力向量,将目标的隐藏层向量与其相乘得到目标的向量表示trep。
5.如权利要求4所述的一种融入描述知识的基于目标的情感分类方法,其特征在于,所述步骤4.1包括以下步骤:
步骤4.1.1、神经网络模型的实际输入为两个句子和目标,假设三者长度分别为m、l、n,将所有词转化为词向量后,输入为三者的实值词向量序列[wc 1,wc 2,...,wc k,...,wc m],[wd 1,wd 2,...,wd i,...,wd l]和[wt 1,wt 2,...,wt j,...,wt n];
Ii=σ(WI[xi,hi-1])+bI (1)
fi=σ(Wf[xi,hi-1])+bf (2)
oi=σ(Wo[xi,hi-1])+bo (5)
hi=oi*tanh(Ci) (6)
其中,xi、Ii、fi和oi分别为输入的词向量、输入门、遗忘门和输出门,W和b分别为LSTM网络的权值矩阵和偏置,σ代表sigmoid激活函数,tanh为双曲正切激活函数,代表候选值向量,hi代表隐藏层向量,隐藏层向量序列中的每一维对应一个词的隐藏层向量;
步骤4.1.3、计算得到目标和上下文的隐藏层向量平均值tavg、cavg:
6.如权利要求4所述的一种融入描述知识的基于目标的情感分类方法,其特征在于,所述步骤4.2包括以下步骤:
步骤4.2.1、用tavg监督生成目标上下文以及描述句各词的隐藏层向量分数,用cavg监督生成目标各词的隐藏层向量分数,隐藏层向量分数体现和在目标上下文、描述句和目标中的重要性,隐藏层向量分数计算公式如下:
步骤4.2.2、得到隐藏层分数后归一化得到注意力权值向量,三者的注意力权值向量各维和为1,计算公式如下:
其中,exp为指数函数,αk、βi、λj分别表示上下文、描述句、目标的注意力权值向量;
步骤4.2.3、利用得到的注意力权值向量αk、βi、λj,分别与目标、描述句、目标上下文的隐藏层向量相乘得到三者的向量表示,计算公式如下:
由此得到了目标、目标上下文以及描述句的有效向量表示。
7.如权利要求1所述的一种融入描述知识的基于目标的情感分类方法,其特征在于,所述步骤6中得到分类结果方法为:
步骤6.1、将trep和crep拼接在一起作为情感特征向量V,用非线性函数将高维情感特征向量映射到C维分类向量中,C为情感类别数,公式如下:
δ=tanh(WδV+bδ)
其中,Wδ为权重矩阵,bδ为偏置;得到的C维向量δ中的每一维对应的数值大小反映出将情感极性判断为该类的可能性大小;
步骤6.2、将分类向量输入softmax分类器,输出C个情感类别的概率,取最大概率的类别作为情感分类的最终结果,公式如下:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811551884.4A CN109726745B (zh) | 2018-12-19 | 2018-12-19 | 一种融入描述知识的基于目标的情感分类方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811551884.4A CN109726745B (zh) | 2018-12-19 | 2018-12-19 | 一种融入描述知识的基于目标的情感分类方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109726745A CN109726745A (zh) | 2019-05-07 |
CN109726745B true CN109726745B (zh) | 2020-10-09 |
Family
ID=66296927
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811551884.4A Active CN109726745B (zh) | 2018-12-19 | 2018-12-19 | 一种融入描述知识的基于目标的情感分类方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109726745B (zh) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110222349B (zh) * | 2019-06-13 | 2020-05-19 | 成都信息工程大学 | 一种深度动态上下文词语表示的方法及计算机 |
CN110427454B (zh) * | 2019-06-21 | 2024-03-15 | 平安科技(深圳)有限公司 | 文本情绪分析方法及装置、电子设备和非暂态存储介质 |
CN110598207B (zh) * | 2019-08-14 | 2020-09-01 | 华南师范大学 | 一种词向量获取方法、装置及存储介质 |
CN110619044B (zh) * | 2019-08-16 | 2020-12-08 | 华南师范大学 | 一种情感分析方法、系统、存储介质及设备 |
CN110705292B (zh) * | 2019-08-22 | 2022-11-29 | 成都信息工程大学 | 一种基于知识库和深度学习的实体名称提取方法 |
CN111274396B (zh) * | 2020-01-20 | 2022-06-07 | 福州大学 | 一种基于外部知识的视角级文本情感分类方法及系统 |
CN111324739B (zh) * | 2020-05-15 | 2020-08-28 | 支付宝(杭州)信息技术有限公司 | 一种文本情感分析方法及系统 |
CN114676704B (zh) * | 2022-05-30 | 2022-08-16 | 华南师范大学 | 句子情感分析方法、装置、设备以及存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104239554A (zh) * | 2014-09-24 | 2014-12-24 | 南开大学 | 跨领域跨类别的新闻评论情绪预测方法 |
GB2532307A (en) * | 2014-11-14 | 2016-05-18 | Adobe Systems Inc | Monitoring and responding to social media posts with socially relevant comparisons |
CN107066446A (zh) * | 2017-04-13 | 2017-08-18 | 广东工业大学 | 一种嵌入逻辑规则的循环神经网络文本情感分析方法 |
CN107526798A (zh) * | 2017-08-18 | 2017-12-29 | 武汉红茶数据技术有限公司 | 一种基于神经网络的实体识别和规范化联合方法及模型 |
CN108108433A (zh) * | 2017-12-19 | 2018-06-01 | 杭州电子科技大学 | 一种基于规则和数据网络融合的情感分析方法 |
CN108595601A (zh) * | 2018-04-20 | 2018-09-28 | 福州大学 | 一种融入Attention机制的长文本情感分析方法 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101894550A (zh) * | 2010-07-19 | 2010-11-24 | 东南大学 | 基于情感对特征优化的语音情感分类方法 |
US10007720B2 (en) * | 2015-11-10 | 2018-06-26 | Hipmunk, Inc. | Automatic conversation analysis and participation |
US20170193397A1 (en) * | 2015-12-30 | 2017-07-06 | Accenture Global Solutions Limited | Real time organization pulse gathering and analysis using machine learning and artificial intelligence |
-
2018
- 2018-12-19 CN CN201811551884.4A patent/CN109726745B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104239554A (zh) * | 2014-09-24 | 2014-12-24 | 南开大学 | 跨领域跨类别的新闻评论情绪预测方法 |
GB2532307A (en) * | 2014-11-14 | 2016-05-18 | Adobe Systems Inc | Monitoring and responding to social media posts with socially relevant comparisons |
CN107066446A (zh) * | 2017-04-13 | 2017-08-18 | 广东工业大学 | 一种嵌入逻辑规则的循环神经网络文本情感分析方法 |
CN107526798A (zh) * | 2017-08-18 | 2017-12-29 | 武汉红茶数据技术有限公司 | 一种基于神经网络的实体识别和规范化联合方法及模型 |
CN108108433A (zh) * | 2017-12-19 | 2018-06-01 | 杭州电子科技大学 | 一种基于规则和数据网络融合的情感分析方法 |
CN108595601A (zh) * | 2018-04-20 | 2018-09-28 | 福州大学 | 一种融入Attention机制的长文本情感分析方法 |
Also Published As
Publication number | Publication date |
---|---|
CN109726745A (zh) | 2019-05-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109726745B (zh) | 一种融入描述知识的基于目标的情感分类方法 | |
Mukhtar et al. | Urdu sentiment analysis using supervised machine learning approach | |
CN107609132B (zh) | 一种基于语义本体库中文文本情感分析方法 | |
Cerón-Guzmán et al. | A sentiment analysis system of Spanish tweets and its application in Colombia 2014 presidential election | |
Kaur | Incorporating sentimental analysis into development of a hybrid classification model: A comprehensive study | |
CN113742733B (zh) | 阅读理解漏洞事件触发词抽取和漏洞类型识别方法及装置 | |
CN110750648A (zh) | 一种基于深度学习和特征融合的文本情感分类方法 | |
CN110851593B (zh) | 一种基于位置与语义的复值词向量构建方法 | |
CN113449204B (zh) | 基于局部聚合图注意力网络的社会事件分类方法、装置 | |
CN111368082A (zh) | 一种基于层次网络的领域自适应词嵌入的情感分析方法 | |
CN110297986A (zh) | 一种微博热点话题的情感倾向分析方法 | |
CN111159405B (zh) | 基于背景知识的讽刺检测方法 | |
Zhang et al. | Exploring deep recurrent convolution neural networks for subjectivity classification | |
CN114417851A (zh) | 一种基于关键词加权信息的情感分析方法 | |
Gupta et al. | SLANGZY: A fuzzy logic-based algorithm for English slang meaning Selection | |
Wang et al. | Word vector modeling for sentiment analysis of product reviews | |
CN111815426B (zh) | 一种涉及金融投研的数据处理方法及终端 | |
Du et al. | Sentiment analysis method based on piecewise convolutional neural network and generative adversarial network | |
Mehendale et al. | Cyber bullying detection for hindi-english language using machine learning | |
Regina et al. | Clickbait headline detection using supervised learning method | |
CN113342964B (zh) | 一种基于移动业务的推荐类型确定方法及系统 | |
Shah et al. | Cyber-bullying detection in hinglish languages using machine learning | |
Zhu et al. | Attention based BiLSTM-MCNN for sentiment analysis | |
Jiang et al. | Sentiment classification based on clause polarity and fusion via convolutional neural network | |
Wang et al. | Event extraction via dmcnn in open domain public sentiment information |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |