CN110472042B - 一种细粒度情感分类方法 - Google Patents

一种细粒度情感分类方法 Download PDF

Info

Publication number
CN110472042B
CN110472042B CN201910588500.4A CN201910588500A CN110472042B CN 110472042 B CN110472042 B CN 110472042B CN 201910588500 A CN201910588500 A CN 201910588500A CN 110472042 B CN110472042 B CN 110472042B
Authority
CN
China
Prior art keywords
information
vector
target attribute
network
emotion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910588500.4A
Other languages
English (en)
Other versions
CN110472042A (zh
Inventor
蔡晓东
彭军
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guilin University of Electronic Technology
Original Assignee
Guilin University of Electronic Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guilin University of Electronic Technology filed Critical Guilin University of Electronic Technology
Priority to CN201910588500.4A priority Critical patent/CN110472042B/zh
Publication of CN110472042A publication Critical patent/CN110472042A/zh
Application granted granted Critical
Publication of CN110472042B publication Critical patent/CN110472042B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Databases & Information Systems (AREA)
  • Machine Translation (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明涉及一种细粒度情感分类系统及方法,其方法包括以下步骤:对输入的句子进行预处理,以查表的方式,映射为低维稠密的词向量;双向LSTM网络对句子的词向量进行特征提取获取句子的语义特征信息
Figure DDA0002115265180000011
利用句子的语义特征信息
Figure DDA0002115265180000012
和注意力机制提取目标属性的特征信息
Figure DDA0002115265180000013
将特征信息
Figure DDA0002115265180000014
与语义特征信息
Figure DDA0002115265180000015
进行信息融合得到特征信息
Figure DDA0002115265180000016
对特征信息
Figure DDA0002115265180000017
进行位置编码得到记忆信息
Figure DDA0002115265180000018
使用位置信息Lo扩展记忆信息
Figure DDA0002115265180000019
得网络记忆信息Mk;利用多轮的注意力机制对目标属性的网络记忆信息Mk进行提取网络记忆信息的情感信息;将情感信息映射为概率向量,得到情感预测向量,依据情感预测向量判别出细粒度情感分类结果。相对现有技术,本发明能够改善网络性能,提高细粒度情感分类的准确率。

Description

一种细粒度情感分类方法
技术领域
本发明涉及自然语言处理技术领域,具体而言,特别涉及一种基于目标信息融合记忆网络的细粒度情感分类方法。
背景技术
近年来,随着互联网技术的高速发展,社交媒体和电商平台随之兴起。越来越多的用户针对网络上的特定商品、事件等进行评价,这使得网络评论性文本规模迅速增长。情感分析、又称作观点挖掘,是分析人们对于产品、服务、组织、个人、事件、主题及其属性等实体对象所持有的意见、情感、评价、看法、态度等主观感受的研究领域。文本情感分析具有极大的实用价值和研究价值,例如,从商品评论数据中识别出特定商品属性的情感信息,可以为商家、其他用户、生产企业等提供决策和参考。
传统的情感分析多是针对句子或者文本进行整体的情感判别,而现实中的评论数据往往是一个句子蕴含着事物的不同属性,而这些属性的情感倾向有时并不相同。基于属性词的情感分类是细粒度的情感分析任务,他的目的是判别上下文中特定目标的情感极性。和普通的情感分析任务不同,基于属性词的情感极性判别不仅依赖于文本的特定上下文信息,同时还取决于目标词的特征信息。
在过去的研究中,文本情感分析技术主要分为基于规则的方法和基于统计机器学习的方法。基于规则的方法利用人工构建规则和情感词典,对文本进行分析;而基于统计机器学习的方法使用人工标注的语料库,提取出文本特征并建立统计模型,实现情感分类。这些传统的技术方法依赖于手工特征的提取,需要领域专家设计特征及大量的人力物力投入,效率低下,难以适应网络大量文本数据处理的需求。
随着深度学习技术的发展,基于神经网络的文本情感分析得到了很大发展。在细粒度情感分类方面,研究者提出了一系列的神经网络模型,取得了一定的成果。然而,已存的大多数网络基本上是通过注意力模型实现基于目标的情感分类任务。在使用注意力机制的过程中,往往采用目标词的均值或者是句子的均值来计算注意力权重。这使得在含有多个不同目标的细粒度情感分类任务中表现不佳,因为不同情感词或者属性词的特征会相互抵消,这弱化了网络的特征表达能力。
发明内容
本发明旨在至少在一定程度上解决现有技术中的上述技术问题之一。为此,本发明的一个目的在于提出一种基于目标信息融合记忆网络的细粒度情感分类方法,能够改善网络性能,提高细粒度情感分类的准确率。
本发明解决上述技术问题的技术方案如下:一种细粒度情感分类方法,包括以下步骤:
步骤1:对输入的句子进行预处理,将预处理后的句子以查表的方式,映射为低维稠密的词向量;
步骤2:输入句子的词向量,双向LSTM网络对句子的词向量进行特征提取,获取句子的语义特征信息
Figure BDA0002115265160000021
步骤3:利用句子的语义特征信息
Figure BDA0002115265160000022
和注意力机制提取目标属性的特征信息
Figure BDA0002115265160000023
利用残差连接的方式,将目标属性的特征信息
Figure BDA0002115265160000024
与句子的语义特征信息
Figure BDA0002115265160000025
进行信息融合,得到特征信息
Figure BDA0002115265160000026
对特征信息
Figure BDA0002115265160000027
进行位置编码得到记忆信息
Figure BDA0002115265160000028
使用位置信息Lo扩展记忆信息
Figure BDA0002115265160000029
形成目标属性的网络记忆信息Mk
步骤4:利用多轮的注意力机制对目标属性的网络记忆信息Mk进行处理,提取网络记忆信息的情感信息;
步骤5:将情感信息映射为一个三维的概率向量,得到情感预测向量,依据情感预测向量判别出细粒度情感分类结果。
本发明的有益效果是:可以有效的改善只使用注意力机制时,采用取均值计算注意力权重造成的不同情感词或者目标属性的特征相互抵消问题,能够利用外部的目标属性信息、位置信息等扩展LSTM网络的特征提取能力,能够改善网络性能,提高细粒度情感分类的准确率,判别准确率相比传统方法也有显著提高。
在上述技术方案的基础上,本发明还可以做如下改进。
进一步,所述步骤1中,词向量是词的分布式表达,定义词表L∈R|V|×d,其中,|V|为词表的大小,d为词向量的维度;通过将句子的每一个单词映射为词向量,得到词向量表达式X=[x1,x2,…,xi,…,xn-1,xn],其中,n代表句子中单词的个数。
采用上述进一步方案的有益效果是:对句子进行词向量化,便于进行数据处理。
进一步,所述双向LSTM网络包括前向LSTM网络和后向LSTM网络,所述前向LSTM网络和后向LSTM网络的输入顺序相反;通过前向LSTM网络和后向LSTM网络捕捉词向量的前后位置关系,获取句子的语义特征信息
Figure BDA0002115265160000031
采用上述进一步方案的有益效果是:通过双向LSTM网络获取句子的特征信息,提高目标属性情感分类的准确率。
进一步,所述前向LSTM网络的表达式如下:
Figure BDA0002115265160000032
Figure BDA0002115265160000033
Figure BDA0002115265160000034
Figure BDA0002115265160000035
Figure BDA0002115265160000041
Figure BDA0002115265160000042
其中,
Figure BDA0002115265160000043
为前向LSTM网络在k时刻遗忘门的输出,
Figure BDA0002115265160000044
为时刻k输入门的输入,
Figure BDA0002115265160000045
为输出门的输出;
Figure BDA0002115265160000046
为遗忘门的权重矩阵、Wi f为输入门的权重矩阵、
Figure BDA00021152651600000430
为输出门的权重矩阵、
Figure BDA0002115265160000047
为记忆信息的权重矩阵;
Figure BDA0002115265160000048
Figure BDA0002115265160000049
均为权重矩阵,
Figure BDA00021152651600000410
为遗忘门的偏置向量、
Figure BDA00021152651600000411
为输入门的偏置向量、
Figure BDA00021152651600000412
为输出门的偏置向量,
Figure BDA00021152651600000413
为记忆信息的偏置向量;
Figure BDA00021152651600000414
表示新的上下文记忆信息,
Figure BDA00021152651600000415
代表更新的LSTM网络单元的记忆内容;σ表示sigmoid函数,⊙表示元素乘积,
Figure BDA00021152651600000416
为k-1时刻的前向隐藏层输出,
Figure BDA00021152651600000417
为k时刻的输入信息。
采用上述进一步方案的有益效果是:通过双向LSTM网络获取句子的特征信息,能够改善网络性能,提高细粒度情感分类的准确率。
进一步,所述步骤3中利用句子的语义特征信息
Figure BDA00021152651600000418
和注意力机制提取目标属性的特征信息
Figure BDA00021152651600000419
具体为:输入句子的语义特征信息
Figure BDA00021152651600000420
利用目标属性的词向量和双向LSTM对目标属性进行建模,得到目标属性的隐向量
Figure BDA00021152651600000421
其中j=1,2,...,m,m表示目标属性的单词数量;利用注意力机制对目标属性的隐向量
Figure BDA00021152651600000422
和句子的语义向量
Figure BDA00021152651600000423
进行建模,得到目标属性的特征信息
Figure BDA00021152651600000424
采用上述进一步方案的有益效果是:通过双向LSTM网络和注意力机制建模得到目标属性的特征信息,能够改善网络性能,提高细粒度情感分类的准确率。
进一步,所述步骤3中获取特征信息
Figure BDA00021152651600000425
具体为:使用双向LSTM网络处理目标属性的词向量得到目标属性的隐向量表达式
Figure BDA00021152651600000426
利用目标属性的隐向量和句子的语义特征信息
Figure BDA00021152651600000427
构建目标属性融合的模型,目标属性融合的模型如下:
Figure BDA00021152651600000428
12,...,χj,...,χm]=softmax([γ12,...,γj,...,γm]);
其中,W1为目标属性的权重向量,b1为相应的偏置项,
Figure BDA00021152651600000429
为句子的语义特征信息,γj为注意力权值,χj为归一化的注意力权重;
利用目标属性的隐向量
Figure BDA0002115265160000051
进行建模,得到目标属性的特征信息
Figure BDA0002115265160000052
具体为:
Figure BDA0002115265160000053
其中,χj为归一化的注意力权重系数;
利用残差连接方式,将目标属性的特征信息
Figure BDA0002115265160000054
与句子的语义特征信息
Figure BDA0002115265160000055
进行信息融合,具体为:
Figure BDA0002115265160000056
其中,W3、W4表示权重矩阵,ReLU表示修正线性单元,
Figure BDA0002115265160000057
表示融合的语义特征。
进一步,所述步骤3中利用位置编码得到记忆信息
Figure BDA0002115265160000058
使用位置信息Lo扩展记忆信息
Figure BDA0002115265160000059
形成特定目标属性的网络记忆信息Mk具体为:使用位置加权处理融合的特征信息
Figure BDA00021152651600000510
句子中单词的位置权重函数W(i)具体为:
Figure BDA00021152651600000511
其中:i表示单词的位置标号,k表示目标属性的起始位置,m表示目标属性的长度,n表示句子的长度;L(i)表示一个与位置相关的加权系数;
利用特征信息
Figure BDA00021152651600000512
和位置函数W(i)得到的位置权重wloc做乘积,得到初始的记忆信息
Figure BDA00021152651600000513
具体为:
Figure BDA00021152651600000514
利用绝对值距离衡量文本中单词和目标属性的位置关系,具体表达式为
Lo=|k-i|/lmax
其中,lmax表示句子的长度,Lo表示与位置有关的权重;
利用
Figure BDA00021152651600000515
和Lo在向量维度上进行扩展,得到网络的记忆信息Mk,具体为:
Figure BDA00021152651600000516
采用上述进一步方案的有益效果是:融合目标属性、单词位置等外部的信息扩展LSTM网络的特征提取能力,提高目标属性情感分类的准确率。
进一步,所述步骤4中利用多轮的注意力机制对特定目标属性的网络记忆信息进行处理,提取网络记忆信息的情感特征具体为:利用GRU网络更新情感特征et,具体更新过程如下:
r=σ(Writ L+Uret-1)
Figure BDA0002115265160000061
Figure BDA0002115265160000062
Figure BDA0002115265160000063
其中,Wr、Wz、Wx、Wg、Ur、Uz为权重矩阵,et-1表示前一时刻从网络记忆信息中抽取的情感特征,
Figure BDA0002115265160000064
表示当前时刻的输入信息,et表示当前时刻的情感特征信息;
当前时刻t的输入信息
Figure BDA0002115265160000065
的获取过程如下:
Figure BDA0002115265160000066
Figure BDA0002115265160000067
Figure BDA0002115265160000068
其中,(mj,et-1,hT)表示向量维度上的结合,WL表示权重矩阵,
Figure BDA0002115265160000069
表示偏移项,
Figure BDA00021152651600000610
表示注意力权重,
Figure BDA00021152651600000611
代表注意力权重的归一化值,
Figure BDA00021152651600000612
表示GRU网络在t时刻的输入向量,hT表示目标属性特征,通过求解
Figure BDA00021152651600000613
的均值得到,k=1,2,...,n;
经过m轮的注意力机制求解,得到的情感信息em
采用上述进一步方案的有益效果是:利用多轮的注意力机制,抽取情感特征信息,提高目标属性情感分类的准确率。
进一步,所述步骤5中,将情感信息em映射为一个三维的概率向量,得到情感预测向量;当该情感预测向量第一维的概率值最大,则将目标词判别为正向;当情感预测向量第二维的概率值最大,则将目标词判别为中性;否则,则将目标词判别为反向。
采用上述进一步方案的有益效果是:实现快速判别细粒度情感分类。
本发明解决上述技术问题的另一技术方案如下:一种细粒度情感分类系统,包括:
预处理层,用于对输入的句子进行预处理;
词向量层,用于将预处理后的句子以查表的方式,映射为低维稠密的词向量;
双向LSTM网络层,用于对句子的词向量进行特征提取,获取句子的语义特征信息
Figure BDA0002115265160000071
记忆网络层,用于利用句子的语义特征信息
Figure BDA0002115265160000072
和注意力机制提取目标属性的特征信息
Figure BDA0002115265160000073
利用残差连接的方式,将目标属性的特征信息
Figure BDA0002115265160000074
与句子的语义特征信息
Figure BDA0002115265160000075
进行信息融合,得到特征信息
Figure BDA0002115265160000076
对特征信息
Figure BDA0002115265160000077
进行位置编码得到记忆信息
Figure BDA0002115265160000078
使用位置信息Lo扩展记忆信息
Figure BDA0002115265160000079
形成目标属性的网络记忆信息Mk
循环注意力层,用于利用多轮的注意力机制对目标属性的网络记忆信息Mk进行处理,提取网络记忆信息的情感信息;
softmax层,用于将情感信息映射为一个三维的概率向量,得到情感预测向量,依据情感预测向量判别出细粒度情感分类结果。
本发明的有益效果是:可以有效的改善只使用注意力机制时,采用取均值计算注意力权重造成的不同情感词或者目标属性的特征相互抵消问题,能够利用外部的目标属性信息、位置信息等扩展LSTM网络的特征提取能力,能够改善网络性能,提高细粒度情感分类的准确率,判别准确率相比传统方法也有显著提高。
附图说明
图1为本发明一种细粒度情感分类方法的流程图;
图2为本发明一种细粒度情感分类方法的示意图;
图3为本发明网络记忆信息的流程图;
图4为本发明一种细粒度情感分类系统的模块框图。
附图中,各标号所代表的部件列表如下:
1、预处理层,2、词向量层,3、双向LSTM网络层,4、记忆网络层,5、循环注意力层,6、softmax层。
具体实施方式
以下结合附图对本发明的原理和特征进行描述,所举实例只用于解释本发明,并非用于限定本发明的范围。
实施例1:
如图1至图3所示,一种细粒度情感分类方法,包括以下步骤:
步骤1:对输入的句子进行预处理,将预处理后的句子以查表的方式,映射为低维稠密的词向量;
步骤2:输入句子的词向量,双向LSTM网络对句子的词向量进行特征提取,获取句子的语义特征信息
Figure BDA0002115265160000081
步骤3:利用句子的语义特征信息
Figure BDA0002115265160000082
和注意力机制提取目标属性的特征信息
Figure BDA0002115265160000083
利用残差连接的方式,将目标属性的特征信息
Figure BDA0002115265160000084
与句子的语义特征信息
Figure BDA0002115265160000085
进行信息融合,得到特征信息
Figure BDA0002115265160000086
对特征信息
Figure BDA0002115265160000087
进行位置编码得到记忆信息
Figure BDA0002115265160000088
使用位置信息Lo扩展记忆信息
Figure BDA0002115265160000089
形成目标属性的网络记忆信息Mk
步骤4:利用多轮的注意力机制对目标属性的网络记忆信息Mk进行处理,提取网络记忆信息的情感信息;
步骤5:将情感信息映射为一个三维的概率向量,得到情感预测向量,依据情感预测向量判别出细粒度情感分类结果。
上述实施例中,所述步骤1中,词向量是词的分布式表达,定义词表L∈R|V|×d,其中,|V|为词表的大小,d为词向量的维度;所述步骤1中,通过将句子的每一个单词映射为词向量,得到词向量表达式X=[x1,x2,…,xi,…,xn-1,xn],其中,n代表句子中单词的个数。
上述实施例中,所述双向LSTM网络包括前向LSTM网络和后向LSTM网络,所述前向LSTM网络和后向LSTM网络的输入顺序相反;通过前向LSTM网络和后向LSTM网络捕捉词向量的前后位置关系,获取句子的语义特征信息
Figure BDA0002115265160000091
上述实施例中,所述前向LSTM网络的表达式如下:
Figure BDA00021152651600000929
Figure BDA0002115265160000092
Figure BDA0002115265160000093
Figure BDA00021152651600000930
Figure BDA0002115265160000094
Figure BDA0002115265160000095
其中,
Figure BDA0002115265160000096
为前向LSTM网络在k时刻遗忘门的输出,
Figure BDA0002115265160000097
为时刻k输入门的输入,
Figure BDA0002115265160000098
为输出门的输出;
Figure BDA0002115265160000099
为遗忘门的权重矩阵、Wi f为输入门的权重矩阵、
Figure BDA00021152651600000931
为输出门的权重矩阵、
Figure BDA00021152651600000910
为记忆信息的权重矩阵;
Figure BDA00021152651600000911
Figure BDA00021152651600000912
均为权重矩阵,
Figure BDA00021152651600000913
为遗忘门的偏置向量、
Figure BDA00021152651600000914
为输入门的偏置向量、
Figure BDA00021152651600000915
为输出门的偏置向量,
Figure BDA00021152651600000916
为记忆信息的偏置向量;
Figure BDA00021152651600000917
表示新的上下文记忆信息,
Figure BDA00021152651600000918
代表更新的LSTM网络单元的记忆内容;σ表示sigmoid函数,⊙表示元素乘积,
Figure BDA00021152651600000919
为k-1时刻的前向隐藏层输出,
Figure BDA00021152651600000920
为k时刻的输入信息。
上述实施例中,所述步骤3中利用句子的语义特征信息
Figure BDA00021152651600000921
和注意力机制提取目标属性的特征信息
Figure BDA00021152651600000922
具体为:输入句子的语义特征信息
Figure BDA00021152651600000923
利用目标属性的词向量和双向LSTM对目标属性进行建模,得到目标属性的隐向量
Figure BDA00021152651600000924
其中j=1,2,...,m,m表示目标属性的单词数量;利用注意力机制对目标属性的隐向量
Figure BDA00021152651600000925
和句子的语义向量
Figure BDA00021152651600000926
进行建模,得到目标属性的特征信息
Figure BDA00021152651600000927
上述实施例中,所述步骤3中获取特征信息
Figure BDA00021152651600000928
具体为:使用双向LSTM网络处理目标属性的词向量得到目标属性的隐向量表达式
Figure BDA0002115265160000101
利用目标属性的隐向量和句子的语义特征信息
Figure BDA0002115265160000102
构建目标属性融合的模型,目标属性融合的模型如下:
Figure BDA0002115265160000103
12,...,χj,...,χm]=softmax([γ12,...,γj,...,γm]);
其中,W1为目标属性的权重向量,b1为相应的偏置项,
Figure BDA0002115265160000104
为句子的语义特征信息,γj为注意力权值,χj为归一化的注意力权重;
利用目标属性的隐向量
Figure BDA0002115265160000105
进行建模,得到目标属性的特征信息
Figure BDA0002115265160000106
具体为:
Figure BDA0002115265160000107
其中,χj为归一化的注意力权重系数;
利用残差连接方式,将目标属性的特征信息
Figure BDA0002115265160000108
与句子的语义特征信息
Figure BDA0002115265160000109
进行信息融合,具体为:
Figure BDA00021152651600001010
其中,W3、W4表示权重矩阵,ReLU表示修正线性单元,
Figure BDA00021152651600001011
表示融合的语义特征。
上述实施例中,所述步骤3中利用位置编码得到记忆信息
Figure BDA00021152651600001012
使用位置信息Lo扩展记忆信息
Figure BDA00021152651600001013
形成特定目标属性的网络记忆信息Mk具体为:使用位置加权处理融合的特征信息
Figure BDA00021152651600001014
句子中单词的位置权重函数W(i)具体为:
Figure BDA00021152651600001015
其中:i表示单词的位置标号,k表示目标属性的起始位置,m表示目标属性的长度,n表示句子的长度;L(i)表示一个与位置相关的加权系数;
利用特征信息
Figure BDA00021152651600001016
和位置函数W(i)得到的位置权重wloc做乘积,得到初始的记忆信息
Figure BDA00021152651600001017
具体为:
Figure BDA00021152651600001018
利用绝对值距离衡量文本中单词和目标属性的位置关系,具体表达式为
Lo=|k-i|/lmax
其中,lmax表示句子的长度,Lo表示与位置有关的权重;
利用
Figure BDA0002115265160000111
和Lo在向量维度上进行扩展,得到网络的记忆信息Mk,具体为:
Figure BDA0002115265160000112
上述实施例中,所述步骤4中利用多轮的注意力机制对特定目标属性的网络记忆信息进行处理,提取网络记忆信息的情感特征具体为:利用GRU网络更新情感特征et,具体更新过程如下:
r=σ(Writ L+Uret-1)
Figure BDA0002115265160000113
Figure BDA0002115265160000114
Figure BDA0002115265160000115
其中,Wr、Wz、Wx、Wg、Ur、Uz为权重矩阵,et-1表示前一时刻从网络记忆信息中抽取的情感特征,
Figure BDA0002115265160000116
表示当前时刻的输入信息,et表示当前时刻的情感特征信息;
当前时刻t的输入信息
Figure BDA0002115265160000117
的获取过程如下:
Figure BDA0002115265160000118
Figure BDA0002115265160000119
Figure BDA00021152651600001110
其中,(mj,et-1,hT)表示向量维度上的结合,WL表示权重矩阵,
Figure BDA00021152651600001111
表示偏移项,
Figure BDA00021152651600001112
表示注意力权重,
Figure BDA00021152651600001113
代表注意力权重的归一化值,
Figure BDA00021152651600001114
表示GRU网络在t时刻的输入向量,hT表示目标属性特征,通过求解
Figure BDA00021152651600001115
的均值得到,k=1,2,...,n;
经过m轮的注意力机制求解,得到的情感信息em
上述实施例中,所述步骤5中,将情感信息em映射为一个三维的概率向量,得到情感预测向量;当该情感预测向量第一维的概率值最大,则将目标词判别为正向;当情感预测向量第二维的概率值最大,则将目标词判别为中性;否则,则将目标词判别为反向。
本实施例对技术方案可以有效的改善只使用注意力机制时,采用取均值计算注意力权重造成的不同情感词或者属性词的特征相互抵消问题,能够改善网络性能,提高细粒度情感分类的准确率,判别准确率相比传统方法也有显著提高。
实施例2:
如图2至图4所示,一种细粒度情感分类系统,包括:
预处理层1,用于对输入的句子进行预处理;
词向量层2,用于将预处理后的句子以查表的方式,映射为低维稠密的词向量;
双向LSTM网络层3,用于对句子的词向量进行特征提取,获取句子的语义特征信息
Figure BDA0002115265160000121
记忆网络层4,用于利用句子的语义特征信息
Figure BDA0002115265160000122
和注意力机制提取目标属性的特征信息
Figure BDA0002115265160000123
利用残差连接的方式,将目标属性的特征信息
Figure BDA0002115265160000124
与句子的语义特征信息
Figure BDA0002115265160000125
进行信息融合,得到特征信息
Figure BDA0002115265160000126
对特征信息
Figure BDA0002115265160000127
进行位置编码得到记忆信息
Figure BDA0002115265160000128
使用位置信息Lo扩展记忆信息
Figure BDA0002115265160000129
形成目标属性的网络记忆信息Mk
循环注意力层5,用于利用多轮的注意力机制对目标属性的网络记忆信息Mk进行处理,提取网络记忆信息的情感信息;
softmax层6,用于将情感信息映射为一个三维的概率向量,得到情感预测向量,依据情感预测向量判别出细粒度情感分类结果。
上述实施例中,所述步骤1中,词向量是词的分布式表达,定义词表L∈R|V|×d,其中,|V|为词表的大小,d为词向量的维度;所述步骤1中,通过将句子的每一个单词映射为词向量,得到词向量表达式X=[x1,x2,…,xi,…,xn-1,xn],其中,n代表句子中单词的个数。
上述实施例中,所述双向LSTM网络包括前向LSTM网络和后向LSTM网络,所述前向LSTM网络和后向LSTM网络的输入顺序相反;通过前向LSTM网络和后向LSTM网络捕捉词向量的前后位置关系,获取句子的语义特征信息
Figure BDA0002115265160000131
上述实施例中,所述前向LSTM网络的表达式如下:
Figure BDA0002115265160000132
Figure BDA0002115265160000133
Figure BDA0002115265160000134
Figure BDA0002115265160000135
Figure BDA0002115265160000136
Figure BDA0002115265160000137
其中,
Figure BDA0002115265160000138
为前向LSTM网络在k时刻遗忘门的输出,
Figure BDA0002115265160000139
为时刻k输入门的输入,
Figure BDA00021152651600001310
为输出门的输出;
Figure BDA00021152651600001311
为遗忘门的权重矩阵、Wi f为输入门的权重矩阵、
Figure BDA00021152651600001333
为输出门的权重矩阵、
Figure BDA00021152651600001312
为记忆信息的权重矩阵;
Figure BDA00021152651600001313
Figure BDA00021152651600001314
均为权重矩阵,
Figure BDA00021152651600001315
为遗忘门的偏置向量、
Figure BDA00021152651600001316
为输入门的偏置向量、
Figure BDA00021152651600001317
为输出门的偏置向量,
Figure BDA00021152651600001318
为记忆信息的偏置向量;
Figure BDA00021152651600001319
表示新的上下文记忆信息,
Figure BDA00021152651600001320
代表更新的LSTM网络单元的记忆内容;σ表示sigmoid函数,⊙表示元素乘积,
Figure BDA00021152651600001321
为k-1时刻的前向隐藏层输出,
Figure BDA00021152651600001322
为k时刻的输入信息。
上述实施例中,所述步骤3中利用句子的语义特征信息
Figure BDA00021152651600001323
和注意力机制提取目标属性的特征信息
Figure BDA00021152651600001324
具体为:输入句子的语义特征信息
Figure BDA00021152651600001325
利用目标属性的词向量和双向LSTM对目标属性进行建模,得到目标属性的隐向量
Figure BDA00021152651600001326
其中j=1,2,...,m,m表示目标属性的单词数量;利用注意力机制对目标属性的隐向量
Figure BDA00021152651600001327
和句子的语义向量
Figure BDA00021152651600001328
进行建模,得到目标属性的特征信息
Figure BDA00021152651600001329
上述实施例中,所述步骤3中获取特征信息
Figure BDA00021152651600001330
具体为:使用双向LSTM网络处理目标属性的词向量得到目标属性的隐向量表达式
Figure BDA00021152651600001331
利用目标属性的隐向量和句子的语义特征信息
Figure BDA00021152651600001332
构建目标属性融合的模型,目标属性融合的模型如下:
Figure BDA0002115265160000141
12,...,χj,...,χm]=softmax([γ12,...,γj,...,γm]);
其中,W1为目标属性的权重向量,b1为相应的偏置项,
Figure BDA0002115265160000142
为句子的语义特征信息,γj为注意力权值,χj为归一化的注意力权重;
利用目标属性的隐向量
Figure BDA0002115265160000143
进行建模,得到目标属性的特征信息
Figure BDA0002115265160000144
具体为:
Figure BDA0002115265160000145
其中,χj为归一化的注意力权重系数;
利用残差连接方式,将目标属性的特征信息
Figure BDA0002115265160000146
与句子的语义特征信息
Figure BDA0002115265160000147
进行信息融合,具体为:
Figure BDA0002115265160000148
其中,W3、W4表示权重矩阵,ReLU表示修正线性单元,
Figure BDA0002115265160000149
表示融合的语义特征。
上述实施例中,所述步骤3中利用位置编码得到记忆信息
Figure BDA00021152651600001410
使用位置信息Lo扩展记忆信息
Figure BDA00021152651600001411
形成特定目标属性的网络记忆信息Mk具体为:使用位置加权处理融合的特征信息
Figure BDA00021152651600001412
句子中单词的位置权重函数W(i)具体为:
Figure BDA00021152651600001413
其中:i表示单词的位置标号,k表示目标属性的起始位置,m表示目标属性的长度,n表示句子的长度;L(i)表示一个与位置相关的加权系数;
利用特征信息
Figure BDA00021152651600001414
和位置函数W(i)得到的位置权重wloc做乘积,得到初始的记忆信息
Figure BDA00021152651600001415
具体为:
Figure BDA00021152651600001416
利用绝对值距离衡量文本中单词和目标属性的位置关系,具体表达式为
Lo=|k-i|/lmax
其中,lmax表示句子的长度,Lo表示与位置有关的权重;
利用
Figure BDA0002115265160000151
和Lo在向量维度上进行扩展,得到网络的记忆信息Mk,具体为:
Figure BDA0002115265160000152
上述实施例中,所述步骤4中利用多轮的注意力机制对特定目标属性的网络记忆信息进行处理,提取网络记忆信息的情感特征具体为:利用GRU网络更新情感特征et,具体更新过程如下:
r=σ(Writ L+Uret-1)
Figure BDA0002115265160000153
Figure BDA0002115265160000154
Figure BDA0002115265160000155
其中,Wr、Wz、Wx、Wg、Ur、Uz为权重矩阵,et-1表示前一时刻从网络记忆信息中抽取的情感特征,
Figure BDA0002115265160000156
表示当前时刻的输入信息,et表示当前时刻的情感特征信息;
当前时刻t的输入信息
Figure BDA0002115265160000157
的获取过程如下:
Figure BDA0002115265160000158
Figure BDA0002115265160000159
Figure BDA00021152651600001510
其中,(mj,et-1,hT)表示向量维度上的结合,WL表示权重矩阵,
Figure BDA00021152651600001511
表示偏移项,
Figure BDA00021152651600001512
表示注意力权重,
Figure BDA00021152651600001513
代表注意力权重的归一化值,
Figure BDA00021152651600001514
表示GRU网络在t时刻的输入向量,hT表示目标属性特征,通过求解
Figure BDA00021152651600001515
的均值得到,k=1,2,...,n;
经过m轮的注意力机制求解,得到的情感信息em
上述实施例中,所述步骤5中,将情感信息em映射为一个三维的概率向量,得到情感预测向量;当该情感预测向量第一维的概率值最大,则将目标词判别为正向;当情感预测向量第二维的概率值最大,则将目标词判别为中性;否则,则将目标词判别为反向。
本实施例对技术方案可以有效的改善只使用注意力机制时,采用取均值计算注意力权重造成的不同情感词或者属性词的特征相互抵消问题,能够改善网络性能,提高细粒度情感分类的准确率,判别准确率相比传统方法也有显著提高。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (9)

1.一种细粒度情感分类方法,其特征在于,包括以下步骤:
步骤1:对输入的句子进行预处理,将预处理后的句子以查表的方式,映射为低维稠密的词向量;
步骤2:输入句子的词向量,双向LSTM网络对句子的词向量进行特征提取,获取句子的语义特征信息
Figure FDA0003265550770000011
步骤3:利用句子的语义特征信息
Figure FDA0003265550770000012
和注意力机制提取目标属性的特征信息
Figure FDA0003265550770000013
利用残差连接的方式,将目标属性的特征信息
Figure FDA0003265550770000014
与句子的语义特征信息
Figure FDA0003265550770000015
进行信息融合,得到特征信息
Figure FDA0003265550770000016
对特征信息
Figure FDA0003265550770000017
进行位置编码得到记忆信息
Figure FDA0003265550770000018
使用位置信息Lo扩展记忆信息
Figure FDA0003265550770000019
形成目标属性的网络记忆信息Mk
步骤4:利用多轮的注意力机制对目标属性的网络记忆信息Mk进行处理,提取网络记忆信息的情感信息;
步骤5:将情感信息映射为一个三维的概率向量,得到情感预测向量,依据情感预测向量判别出细粒度情感分类结果;
所述步骤3中利用句子的语义特征信息
Figure FDA00032655507700000110
和注意力机制提取目标属性的特征信息
Figure FDA00032655507700000111
具体为:输入句子的语义特征信息
Figure FDA00032655507700000112
利用目标属性的词向量和双向LSTM对目标属性进行建模,得到目标属性的隐向量
Figure FDA00032655507700000113
其中j=1,2,...,m,m表示目标属性的单词数量;利用注意力机制对目标属性的隐向量
Figure FDA00032655507700000114
和句子的语义特征信息
Figure FDA00032655507700000115
进行建模,得到目标属性的特征信息
Figure FDA00032655507700000116
2.根据权利要求1所述一种细粒度情感分类方法,其特征在于,所述步骤1中,通过将句子的每一个单词映射为词向量,得到词向量表达式X=[x1,x2,…,xi,…,xn-1,xn],其中,n代表句子中单词的个数。
3.根据权利要求2所述一种细粒度情感分类方法,其特征在于,所述步骤2中:所述双向LSTM网络包括前向LSTM网络和后向LSTM网络,所述前向LSTM网络和后向LSTM网络的输入顺序相反;通过前向LSTM网络和后向LSTM网络捕捉词向量的前后位置关系,获取句子的语义特征信息
Figure FDA0003265550770000021
4.根据权利要求3所述一种细粒度情感分类方法,其特征在于,所述前向LSTM网络的表达式如下:
Figure FDA0003265550770000022
Figure FDA0003265550770000023
Figure FDA0003265550770000024
Figure FDA0003265550770000025
Figure FDA0003265550770000026
Figure FDA0003265550770000027
其中,
Figure FDA0003265550770000028
为前向LSTM网络在k时刻遗忘门的输出,
Figure FDA0003265550770000029
为时刻k输入门的输入,
Figure FDA00032655507700000210
为输出门的输出;
Figure FDA00032655507700000211
为遗忘门的权重矩阵、Wi f为输入门的权重矩阵、
Figure FDA00032655507700000212
为输出门的权重矩阵、
Figure FDA00032655507700000213
为记忆信息的权重矩阵;
Figure FDA00032655507700000214
Figure FDA00032655507700000215
均为权重矩阵,
Figure FDA00032655507700000216
为遗忘门的偏置向量、
Figure FDA00032655507700000217
为输入门的偏置向量、
Figure FDA00032655507700000218
为输出门的偏置向量,
Figure FDA00032655507700000219
为记忆信息的偏置向量;
Figure FDA00032655507700000220
表示新的上下文记忆信息,
Figure FDA00032655507700000221
代表更新的LSTM网络单元的记忆内容;σ表示sigmoid函数,⊙表示元素乘积,
Figure FDA00032655507700000222
为k-1时刻的前向隐藏层输出,
Figure FDA00032655507700000223
为k时刻的输入信息。
5.根据权利要求1所述一种细粒度情感分类方法,其特征在于,所述步骤3中获取特征信息
Figure FDA00032655507700000224
具体为:使用双向LSTM网络处理目标属性的词向量得到目标属性的隐向量表达式
Figure FDA00032655507700000225
利用目标属性的隐向量和句子的语义特征信息
Figure FDA00032655507700000226
构建目标属性融合的模型,目标属性融合的模型如下:
Figure FDA00032655507700000227
12,...,χj,...,χm]=softmax([γ12,...,γj,...,γm]);
其中,W1为目标属性的权重向量,b1为相应的偏置项,
Figure FDA00032655507700000228
为句子的语义特征信息,γj为注意力权值,χj为归一化的注意力权重;
利用目标属性的隐向量
Figure FDA00032655507700000229
进行建模,得到目标属性的特征信息
Figure FDA00032655507700000230
具体为:
Figure FDA0003265550770000031
其中,χj为归一化的注意力权重系数;
利用残差连接方式,将目标属性的特征信息
Figure FDA0003265550770000032
与句子的语义特征信息
Figure FDA0003265550770000033
进行信息融合,具体为:
Figure FDA0003265550770000034
其中,W3、W4表示权重矩阵,ReLU表示修正线性单元,
Figure FDA0003265550770000035
表示融合的语义特征。
6.根据权利要求5所述一种细粒度情感分类方法,其特征在于,所述步骤3中利用位置编码得到记忆信息
Figure FDA0003265550770000036
使用位置信息Lo扩展记忆信息
Figure FDA0003265550770000037
形成特定目标属性的网络记忆信息Mk具体为:使用位置加权处理融合的特征信息
Figure FDA0003265550770000038
句子中单词的位置权重函数W(i)具体为:
Figure FDA0003265550770000039
其中:i表示单词的位置标号,k表示目标属性的起始位置,m表示目标属性的长度,n表示句子的长度;L(i)表示一个与位置相关的加权系数;
利用特征信息
Figure FDA00032655507700000310
和位置函数W(i)得到的位置权重wloc做乘积,得到初始的记忆信息
Figure FDA00032655507700000311
具体为:
Figure FDA00032655507700000312
利用绝对值距离衡量文本中单词和目标属性的位置关系,具体表达式为
Lo=|k-i|/lmax
其中,lmax表示句子的长度,Lo表示与位置有关的权重;
利用
Figure FDA00032655507700000313
和Lo在向量维度上进行扩展,得到网络的记忆信息Mk,具体为:
Figure FDA00032655507700000314
7.根据权利要求6所述一种细粒度情感分类方法,其特征在于,所述步骤4中利用多轮的注意力机制对特定目标属性的网络记忆信息进行处理,提取网络记忆信息的情感特征具体为:利用GRU网络更新情感特征et,具体更新过程如下:
Figure FDA0003265550770000041
Figure FDA0003265550770000042
Figure FDA0003265550770000043
Figure FDA0003265550770000044
其中,Wr、Wz、Wx、Wg、Ur、Uz为权重矩阵,et-1表示前一时刻从网络记忆信息中抽取的情感特征,
Figure FDA0003265550770000045
表示当前时刻的输入向量,et表示当前时刻的情感特征信息;
当前时刻t的输入信息
Figure FDA0003265550770000046
的获取过程如下:
Figure FDA0003265550770000047
Figure FDA0003265550770000048
Figure FDA0003265550770000049
其中,(mj,et-1,hT)表示向量维度上的结合,WL表示权重矩阵,
Figure FDA00032655507700000410
表示偏移项,
Figure FDA00032655507700000411
表示注意力权重,
Figure FDA00032655507700000412
代表注意力权重的归一化值,
Figure FDA00032655507700000413
表示GRU网络在t时刻的输入向量,hT表示目标属性特征,通过求解
Figure FDA00032655507700000414
的均值得到,k=1,2,...,n;
经过m轮的注意力机制求解,得到的情感信息em
8.根据权利要求7所述一种细粒度情感分类方法,其特征在于,所述步骤5中,将情感信息em映射为一个三维的概率向量,得到情感预测向量;当该情感预测向量第一维的概率值最大,则将目标词判别为正向;当情感预测向量第二维的概率值最大,则将目标词判别为中性;否则,则将目标词判别为反向。
9.一种细粒度情感分类系统,其特征在于,包括:
预处理层(1),用于对输入的句子进行预处理;
词向量层(2),用于将预处理后的句子以查表的方式,映射为低维稠密的词向量;
双向LSTM网络层(3),用于对句子的词向量进行特征提取,获取句子的语义特征信息
Figure FDA0003265550770000051
记忆网络层(4),用于利用句子的语义特征信息
Figure FDA0003265550770000052
和注意力机制提取目标属性的特征信息
Figure FDA0003265550770000053
利用残差连接的方式,将目标属性的特征信息
Figure FDA0003265550770000054
与句子的语义特征信息
Figure FDA0003265550770000055
进行信息融合,得到特征信息
Figure FDA0003265550770000056
对特征信息
Figure FDA0003265550770000057
进行位置编码得到记忆信息
Figure FDA0003265550770000058
使用位置信息Lo扩展记忆信息
Figure FDA0003265550770000059
形成目标属性的网络记忆信息Mk
循环注意力层(5),用于利用多轮的注意力机制对目标属性的网络记忆信息Mk进行处理,提取网络记忆信息的情感信息;
softmax层(6),用于将情感信息映射为一个三维的概率向量,得到情感预测向量,依据情感预测向量判别出细粒度情感分类结果;
所述记忆网络层(4)中,利用句子的语义特征信息
Figure FDA00032655507700000510
和注意力机制提取目标属性的特征信息
Figure FDA00032655507700000511
具体为:
输入句子的语义特征信息
Figure FDA00032655507700000512
利用目标属性的词向量和双向LSTM对目标属性进行建模,得到目标属性的隐向量
Figure FDA00032655507700000513
其中j=1,2,...,m,m表示目标属性的单词数量;利用注意力机制对目标属性的隐向量
Figure FDA00032655507700000514
和句子的语义特征信息
Figure FDA00032655507700000515
进行建模,得到目标属性的特征信息
Figure FDA00032655507700000516
CN201910588500.4A 2019-07-02 2019-07-02 一种细粒度情感分类方法 Active CN110472042B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910588500.4A CN110472042B (zh) 2019-07-02 2019-07-02 一种细粒度情感分类方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910588500.4A CN110472042B (zh) 2019-07-02 2019-07-02 一种细粒度情感分类方法

Publications (2)

Publication Number Publication Date
CN110472042A CN110472042A (zh) 2019-11-19
CN110472042B true CN110472042B (zh) 2021-11-26

Family

ID=68507552

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910588500.4A Active CN110472042B (zh) 2019-07-02 2019-07-02 一种细粒度情感分类方法

Country Status (1)

Country Link
CN (1) CN110472042B (zh)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110929034A (zh) * 2019-11-26 2020-03-27 北京工商大学 一种基于改进lstm的商品评论细粒度情感分类方法
CN111144130A (zh) * 2019-12-26 2020-05-12 辽宁工程技术大学 一种基于上下文感知的混合神经网络的细粒度情感分类方法
CN111259147B (zh) * 2020-01-19 2024-02-20 山东大学 基于自适应注意力机制的句子级情感预测方法及系统
CN112241453B (zh) * 2020-10-20 2023-10-13 虎博网络技术(上海)有限公司 情感属性确定方法、装置及电子设备
CN112732915A (zh) * 2020-12-31 2021-04-30 平安科技(深圳)有限公司 情感分类方法、装置、电子设备及存储介质
CN112926311B (zh) * 2021-02-03 2022-08-02 昆明理工大学 一种结合序列和主题信息的无监督方面词提取方法
CN113190681B (zh) * 2021-03-02 2023-07-25 东北大学 一种基于胶囊网络遮罩记忆注意力的细粒度文本分类方法
CN113705197B (zh) * 2021-08-30 2024-04-02 北京工业大学 一种基于位置增强的细粒度情感分析方法
CN113761204B (zh) * 2021-09-06 2023-07-28 南京大学 一种基于深度学习的emoji文本情感分析方法及系统
CN113849651B (zh) * 2021-09-28 2024-04-09 平安科技(深圳)有限公司 基于文档级情感倾向的情感分类方法、装置、设备及介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108133038A (zh) * 2018-01-10 2018-06-08 重庆邮电大学 一种基于动态记忆网络的实体级别情感分类系统及方法
CN108446275A (zh) * 2018-03-21 2018-08-24 北京理工大学 基于注意力双层lstm的长文本情感倾向性分析方法
CN108491680A (zh) * 2018-03-07 2018-09-04 安庆师范大学 基于残差网络和注意力机制的药物关系抽取方法
CN109522548A (zh) * 2018-10-26 2019-03-26 天津大学 一种基于双向交互神经网络的文本情感分析方法
CN109582764A (zh) * 2018-11-09 2019-04-05 华南师范大学 基于依存句法的交互注意力情感分析方法
CN109710761A (zh) * 2018-12-21 2019-05-03 中国标准化研究院 基于注意力增强的双向lstm模型的情感分析方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108133038A (zh) * 2018-01-10 2018-06-08 重庆邮电大学 一种基于动态记忆网络的实体级别情感分类系统及方法
CN108491680A (zh) * 2018-03-07 2018-09-04 安庆师范大学 基于残差网络和注意力机制的药物关系抽取方法
CN108446275A (zh) * 2018-03-21 2018-08-24 北京理工大学 基于注意力双层lstm的长文本情感倾向性分析方法
CN109522548A (zh) * 2018-10-26 2019-03-26 天津大学 一种基于双向交互神经网络的文本情感分析方法
CN109582764A (zh) * 2018-11-09 2019-04-05 华南师范大学 基于依存句法的交互注意力情感分析方法
CN109710761A (zh) * 2018-12-21 2019-05-03 中国标准化研究院 基于注意力增强的双向lstm模型的情感分析方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于深层注意力的LSTM的特定主题情感分析;胡朝举,梁宁;《计算机应用研究》;20190430;第36卷(第4期);第1075-1079页 *

Also Published As

Publication number Publication date
CN110472042A (zh) 2019-11-19

Similar Documents

Publication Publication Date Title
CN110472042B (zh) 一种细粒度情感分类方法
CN108399158B (zh) 基于依存树和注意力机制的属性情感分类方法
CN111160037B (zh) 一种支持跨语言迁移的细粒度情感分析方法
CN111222332B (zh) 一种结合注意力网络和用户情感的商品推荐方法
CN109492229B (zh) 一种跨领域情感分类方法和相关装置
CN110929034A (zh) 一种基于改进lstm的商品评论细粒度情感分类方法
CN110457480B (zh) 基于交互式注意力机制的细粒度情感分类模型的构建方法
CN108182295A (zh) 一种企业知识图谱属性抽取方法及系统
CN109522548A (zh) 一种基于双向交互神经网络的文本情感分析方法
CN110096575B (zh) 面向微博用户的心理画像方法
Kulkarni et al. Deep learning for NLP
CN110765769B (zh) 一种基于子句特征的实体属性依赖情感分析方法
CN110750648A (zh) 一种基于深度学习和特征融合的文本情感分类方法
CN105809186A (zh) 情感分类的方法及系统
CN112699222B (zh) 基于量子启发式神经网络的文本分类方法及邮件分类方法
CN110472245B (zh) 一种基于层次化卷积神经网络的多标记情绪强度预测方法
CN109766553A (zh) 一种基于多正则化结合的胶囊模型的中文分词方法
CN110851601A (zh) 基于分层注意力机制的跨领域情感分类系统及方法
CN111538841B (zh) 基于知识互蒸馏的评论情感分析方法、装置及系统
CN112287197B (zh) 动态记忆案件描述的涉案微博评论讽刺句检测方法
Bikku et al. Deep learning approaches for classifying data: a review
CN112347245A (zh) 面向投融资领域机构的观点挖掘方法、装置和电子设备
CN114942974A (zh) 电商平台商品用户评价情感倾向分类方法
CN106445914B (zh) 微博情感分类器的构建方法及构建装置
CN114547303A (zh) 基于Bert-LSTM的文本多特征分类方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant