CN110096587A - 基于注意力机制的lstm-cnn词嵌入的细粒度情感分类模型 - Google Patents

基于注意力机制的lstm-cnn词嵌入的细粒度情感分类模型 Download PDF

Info

Publication number
CN110096587A
CN110096587A CN201910026957.6A CN201910026957A CN110096587A CN 110096587 A CN110096587 A CN 110096587A CN 201910026957 A CN201910026957 A CN 201910026957A CN 110096587 A CN110096587 A CN 110096587A
Authority
CN
China
Prior art keywords
lstm
sentence
feature
cnn
word
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910026957.6A
Other languages
English (en)
Other versions
CN110096587B (zh
Inventor
姜明
张雯
张旻
汤景凡
戚铖杰
腾海滨
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Dianzi University
Original Assignee
Hangzhou Dianzi University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Dianzi University filed Critical Hangzhou Dianzi University
Priority to CN201910026957.6A priority Critical patent/CN110096587B/zh
Publication of CN110096587A publication Critical patent/CN110096587A/zh
Application granted granted Critical
Publication of CN110096587B publication Critical patent/CN110096587B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking

Abstract

本发明公开了基于注意力机制的LSTM‑CNN词嵌入的细粒度情感分类模型。本发明用一般的LSTM提取到的特征与指定角度的相关性不大导致情感分类准确率降低的问题。本发明采用的技术方案是,将CNN与LSTM进行结合,同时利用CNN识别局部特征的能力和LSTM利用文本序列的能力,用LSTM获取句子表示,将LSTM的输出馈送给CNN作为输入。通过CNN的卷积池化操作对LSTM提取到的特征进行选择,再引入注意力机制去重点关注句中与指定方面关联程度较高的信息,最后得到句子的预测极性。同时,为了提升分类的效率,本发明在模型中输入了指定角度的词嵌入向量,提高了分类准确率。

Description

基于注意力机制的LSTM-CNN词嵌入的细粒度情感分类模型
技术领域
本发明涉及情感分类领域,具体涉及一种基于注意力机制的LSTM-CNN词嵌入的细粒度情感分类模型。
背景技术
情感分析已经被广泛应用在电商网站。对消费者评论等信息进行情感分类,不仅可以挖掘用户对商品的喜好程度,给潜在用户提供购买建议,同时有利于商家及时改善产品及服务,从而提高商业价值。为了得到一条评论对商品的不同方面的评价,由此提出了细粒度情感分类。例如对句子“菜品不错但是服务一般”的情感分析结果为“菜品:积极;服务:消极”。
细粒度情感分析过程的关键通常都始于从文本中检测与指定角度相关的信息。突出于指定角度相关性大的信息,弱化不相关或者相关性较小的信息。
现有方案利用LSTM提取句子的特征,再结合注意力机制对特征打分来表现它们对指定方面情感极性的重要程度。现有方法通常采用LSTM提取句子特征,但是每个特征对句子在给定方面的情感极性的影响程度相差不大,没有凸显出与指定角度相关性较强的特征。
发明内容
本发明的目的是针对现有技术的不足,提供一种对评论文本进行细粒度情感分类的方法。提出基于注意力机制的LSTM-CNN词嵌入的细粒度情感分类模型,以解决对句子在给定角度下进行情感分析时准确率低的问题。
基于注意力机制的LSTM-CNN词嵌入的细粒度情感分类模型,其特征在于包括如下步骤:
步骤1、对需要进行情感分类的评论文本进行预分类处理;
步骤2、用LSTM模型对评论进行句子表示,获得句子的特征矩阵;
步骤3、用CNN模型对步骤2得到的特征矩阵执行卷积核池化操作,筛选出特征矩阵中较为突出的句子特征;
步骤4、指定一个角度词并输入相应的词嵌入向量va,让模型获取指定角度词的信息;
步骤5、利用注意力机制,针对给定的角度词的信息,从已经得到的句子特征中学习与该角度相关性较大的特征,弱化不相关的特征,突出相关联的特征;
步骤6、计算得到最终的句子表示,不同数值范围对应不同的情感极性,得到评论在指定方面的细粒度情感极性。
步骤1具体实现如下:
1.1将爬取自网络的评论信息整合成数据集;
1.2对数据集进行清洗:去掉标点符号、表情符、英文字符,然后引用停用词典去掉停用词;
1.3用现有的分词工具LTP对清洗后的数据集中的每一条评论进行分词;
1.4用W2V词向量模型将分词后的每一条评论表示为词向量形式s=[w1,w2,...,wN],N是句子长度,wi是词向量。
步骤2具体实现如下:
2.1用一个初始的LSTM模型对固定长度的句子输入进行编码,如果句子编码后的向量长度不够,则末尾用数字0进行补齐;
2.2 LSTM隐藏层的输出是隐藏层特征矩阵[h1,h2,...,hN],表示句子级别特征;隐藏层特征hi,i∈[1,N]与词向量wi是一一对应的关系。
步骤3具体实现如下:
CNN层的输入是LSTM的隐藏层输出;设置3种长度的滤波器,长度分别是1、2和3;每种长度的滤波器数量都是200个;滤波器将滑过输入的特征矩阵,滑动窗口的长度就是滤波器的长度;每种长度的滤波器都会得到200个特征矩阵,称为特征映射;运用激活函数Rule使得600个特征映射都被表示成单列的向量;然后应用最大池化操作从每个特征映射中选择值最大的特征;每个特征映射都会被表示成一个单独的值;最后将对应相同长度滤波器的特征映射被连接到一起,由此得到一个新的特征映射c=[c1,c2,...cN]。
步骤5具体实现如下:
步骤5.利用注意力机制,针对步骤4中给定的角度词的信息,从已经得到的句子特征c=[c1,c2,...cN]中学习与角度词的信息相关性较大的特征,弱化不相关的特征,突出相关联的特征,具体实现如下:
5.1步骤3中获得的每个特征映射c1都与角度词的词向量va进行拼接获得M;
其中,圆圈中带叉号的运算符表示把向量v重复链接N次,eN是单位向量;表示进行线性转换,执行次数是句子的长度;M是结合指定角度词后的CNN隐藏层表示;
5.2通过计算α=softmax(ωTM),得到注意力权重向量α=[α1,α2,...,αN],ω是模型在训练过程中需要学习的参数;紧接着,得到加权隐藏表示r;通过给定方面的最终句子表示根据如下得到:r=CαT
步骤6具体实现如下:
步骤6.添加一个线性层,将步骤5.2中的句子表示转换成长度等于情感类别数的向量;计算得到最终的句子表示,构成向量的数值分别对应不同的情感极性,不同数值范围对应不同的情感极性,其中最大的值所对应的情感极性就是这条评论在指定角度的细粒度情感极性。
本发明的优点及有益效果如下:
本发明主要为了解决对文本评论进行细粒度的情感分析时,用一般的LSTM提取到的特征与指定角度的相关性不大导致情感分类准确率降低的问题。本发明采用的技术方案是,用LSTM获取句子表示,将LSTM的输出馈送给CNN作为输入。通过CNN的卷积池化操作对LSTM提取到的特征进行选择,再引入注意力机制去重点关注句中与指定方面关联程度较高的信息,最后得到句子的预测极性。同时,为了提升分类的效率,基于注意力机制的LSTM-CNN词嵌入的细粒度情感分类模型在模型中输入了指定角度的词嵌入向量,提高了分类准确率。
附图说明
图1是本发明所述方法的流程框图。
图2是本发明所述模型方法的架构图。
具体实施方式
下面结合附图对本发明作进一步描述。
参照图1和图2,基于注意力机制的LSTM-CNN词嵌入的细粒度情感分类模型,包括以下步骤:
步骤1.对待分类的文本进行预分类处理:
1.1将爬取自网络的评论信息整合成数据集;
1.2对数据集进行清洗:去掉标点符号、表情符、英文字符,然后引用停用词典去掉停用词;
1.3用现有的分词工具LTP对清洗后的数据集中的每一条评论进行分词;
1.4用W2V词向量模型将分词后的每一条评论表示为词向量形式s=[w1,w2,...,wN],N是句子长度,wi是词向量。
步骤2.用LSTM模型对评论进行句子表示,获得句子特征;
2.1用一个初始的LSTM模型对固定长度的句子输入进行编码,如果句子编码后的向量长度不够,则末尾用数字0进行补齐;
2.2 LSTM隐藏层的输出是隐藏层特征矩阵[h1,h2,...,hN],表示句子级别特征;隐藏层特征hi,i∈[1,N]与词向量wi是一一对应的关系;
步骤3.用CNN模型对步骤2得到的隐藏层特征执行卷积核池化操作,筛选出较为突出的句子特征;
CNN层的输入是LSTM的隐藏层输出。设置3种长度的滤波器,长度分别是1、2和3。每种长度的滤波器数量都是200个。滤波器将滑过输入的特征矩阵,滑动窗口的长度就是滤波器的长度。每种长度的滤波器都会得到200个特征矩阵,称为特征映射。运用激活函数Rule使得600个特征映射都被表示成单列的向量。然后应用最大池化操作从每个特征映射中选择值最大的特征。每个特征映射都会被表示成一个单独的值,大大地降低了特征的维度。最后将对应相同长度滤波器的特征映射被连接到一起,由此得到一个新的特征映射c=[c1,c2,...cN]。
步骤4.指定一个角度词如“卫生”,并输入该词的词嵌入向量va,让模型获取指定角度词的信息;
步骤5.利用注意力机制,针对步骤4中给定的角度词的信息,从已经得到的句子特征c=[c1,c2,...cN]中学习与角度词的信息相关性较大的特征,弱化不相关的特征,突出相关联的特征;
5.1步骤3中获得的每个特征映射c1都与角度词的词向量va进行拼接获得M;
其中,圆圈中带叉号的运算符表示把向量v重复链接N次,eN是单位向量。表示进行线性转换,执行次数是句子的长度。M是结合指定角度词后的CNN隐藏层表示。
5.2通过计算α=softmax(ωTM),得到注意力权重向量α=[α1,α2,...,αN],ω是模型在训练过程中需要学习的参数。紧接着,得到加权隐藏表示r。通过给定方面的最终句子表示根据如下得到:r=CαT
步骤6.添加一个线性层,将步骤5.2中的句子表示转换成长度等于情感类别数(积极、消极和中性)的向量。计算得到最终的句子表示,构成向量的数值分别对应不同的情感极性,不同数值范围对应不同的情感极性,其中最大的值所对应的情感极性就是这条评论在指定角度的细粒度情感极性。

Claims (6)

1.基于注意力机制的LSTM-CNN词嵌入的细粒度情感分类模型,其特征在于包括如下步骤:
步骤1、对需要进行情感分类的评论文本进行预分类处理;
步骤2、用LSTM模型对评论进行句子表示,获得句子的特征矩阵;
步骤3、用CNN模型对步骤2得到的特征矩阵执行卷积核池化操作,筛选出特征矩阵中较为突出的句子特征;
步骤4、指定一个角度词并输入相应的词嵌入向量va,让模型获取指定角度词的信息;
步骤5、利用注意力机制,针对给定的角度词的信息,从已经得到的句子特征中学习与该角度相关性较大的特征,弱化不相关的特征,突出相关联的特征;
步骤6、计算得到最终的句子表示,不同数值范围对应不同的情感极性,得到评论在指定方面的细粒度情感极性。
2.根据权利要求1所述的基于注意力机制的LSTM-CNN词嵌入的细粒度情感分类模型,其特征在于步骤1具体实现如下:
1.1将爬取自网络的评论信息整合成数据集;
1.2对数据集进行清洗:去掉标点符号、表情符、英文字符,然后引用停用词典去掉停用词;
1.3用现有的分词工具LTP对清洗后的数据集中的每一条评论进行分词;
1.4用W2V词向量模型将分词后的每一条评论表示为词向量形式s=[w1,w2,…,wN],N是句子长度,wi是词向量。
3.根据权利要求2所述的基于注意力机制的LSTM-CNN词嵌入的细粒度情感分类模型,其特征在于步骤2具体实现如下:
2.1用一个初始的LSTM模型对固定长度的句子输入进行编码,如果句子编码后的向量长度不够,则末尾用数字0进行补齐;
2.2LSTM隐藏层的输出是隐藏层特征矩阵[h1,h2,…,hN],表示句子级别特征;隐藏层特征hi,i∈[1,N]与词向量wi是一一对应的关系。
4.根据权利要求3所述的基于注意力机制的LSTM-CNN词嵌入的细粒度情感分类模型,其特征在于步骤3具体实现如下:
CNN层的输入是LSTM的隐藏层输出;设置3种长度的滤波器,长度分别是1、2和3;每种长度的滤波器数量都是200个;滤波器将滑过输入的特征矩阵,滑动窗口的长度就是滤波器的长度;每种长度的滤波器都会得到200个特征矩阵,称为特征映射;运用激活函数Rule使得600个特征映射都被表示成单列的向量;然后应用最大池化操作从每个特征映射中选择值最大的特征;每个特征映射都会被表示成一个单独的值;最后将对应相同长度滤波器的特征映射被连接到一起,由此得到一个新的特征映射c=[c1,c2,…cN]。
5.根据权利要求4所述的基于注意力机制的LSTM-CNN词嵌入的细粒度情感分类模型,其特征在于步骤5具体实现如下:
步骤5.利用注意力机制,针对步骤4中给定的角度词的信息,从已经得到的句子特征c=[c1,c2,…cN]中学习与角度词的信息相关性较大的特征,弱化不相关的特征,突出相关联的特征,具体实现如下:
5.1步骤3中获得的每个特征映射c1都与角度词的词向量va进行拼接获得M;
其中,圆圈中带叉号的运算符表示把向量v重复链接N次,eN是单位向量;表示进行线性转换,执行次数是句子的长度;M是结合指定角度词后的CNN隐藏层表示;
5.2通过计算α=softmax(ωTM),得到注意力权重向量α=[α1,α2,…,αN],ω是模型在训练过程中需要学习的参数;紧接着,得到加权隐藏表示r;通过给定方面的最终句子表示根据如下得到:r=CαT
6.根据权利要求5所述的基于注意力机制的LSTM-CNN词嵌入的细粒度情感分类模型,其特征在于步骤6具体实现如下:
步骤6.添加一个线性层,将步骤5.2中的句子表示转换成长度等于情感类别数的向量;计算得到最终的句子表示,构成向量的数值分别对应不同的情感极性,不同数值范围对应不同的情感极性,其中最大的值所对应的情感极性就是这条评论在指定角度的细粒度情感极性。
CN201910026957.6A 2019-01-11 2019-01-11 基于注意力机制的lstm-cnn词嵌入的细粒度情感分类模型 Active CN110096587B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910026957.6A CN110096587B (zh) 2019-01-11 2019-01-11 基于注意力机制的lstm-cnn词嵌入的细粒度情感分类模型

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910026957.6A CN110096587B (zh) 2019-01-11 2019-01-11 基于注意力机制的lstm-cnn词嵌入的细粒度情感分类模型

Publications (2)

Publication Number Publication Date
CN110096587A true CN110096587A (zh) 2019-08-06
CN110096587B CN110096587B (zh) 2020-07-07

Family

ID=67443690

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910026957.6A Active CN110096587B (zh) 2019-01-11 2019-01-11 基于注意力机制的lstm-cnn词嵌入的细粒度情感分类模型

Country Status (1)

Country Link
CN (1) CN110096587B (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110704622A (zh) * 2019-09-27 2020-01-17 北京明略软件系统有限公司 文本情感分类方法、装置及电子设备
CN110795537A (zh) * 2019-10-30 2020-02-14 秒针信息技术有限公司 一种确定目标商品的改进策略的方法、装置、设备和介质
CN111125420A (zh) * 2019-12-25 2020-05-08 腾讯科技(深圳)有限公司 基于人工智能的对象推荐方法、装置及电子设备
CN111147396A (zh) * 2019-12-26 2020-05-12 哈尔滨工程大学 一种基于序列特征的加密流量分类方法
CN112256866A (zh) * 2020-09-25 2021-01-22 东北大学 一种基于深度学习的文本细粒度情感分析方法
CN115329775A (zh) * 2022-10-14 2022-11-11 成都晓多科技有限公司 一种语句中方面类别及情感极性联合识别的方法及系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106782602A (zh) * 2016-12-01 2017-05-31 南京邮电大学 基于长短时间记忆网络和卷积神经网络的语音情感识别方法
US20180144248A1 (en) * 2016-11-18 2018-05-24 Salesforce.Com, Inc. SENTINEL LONG SHORT-TERM MEMORY (Sn-LSTM)
CN108170681A (zh) * 2018-01-15 2018-06-15 中南大学 文本情感分析方法、系统及计算机可读存储介质
CN108763216A (zh) * 2018-06-01 2018-11-06 河南理工大学 一种基于中文数据集的文本情感分析方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180144248A1 (en) * 2016-11-18 2018-05-24 Salesforce.Com, Inc. SENTINEL LONG SHORT-TERM MEMORY (Sn-LSTM)
CN106782602A (zh) * 2016-12-01 2017-05-31 南京邮电大学 基于长短时间记忆网络和卷积神经网络的语音情感识别方法
CN108170681A (zh) * 2018-01-15 2018-06-15 中南大学 文本情感分析方法、系统及计算机可读存储介质
CN108763216A (zh) * 2018-06-01 2018-11-06 河南理工大学 一种基于中文数据集的文本情感分析方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
YEQUAN WANG等: "Attention-based LSTM for Aspect-level Sentiment Classification", <PROCEEDINGS OF THE 2016 CONFERENCE ON EMPIRICAL METHODS IN NATURAL LANGUAGE PROCESSING> *
无: "TWITTER SENTIMENT ANALYSIS USING COMBINE LSTM-CNN MODELS", 《HTTP://KONUKOII.COM/BLOG/2018/02/19/TWITTER-SENTIMENT-ANALYSIS-USING-COMBINED-LSTM-CNN-MODELS/》 *

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110704622A (zh) * 2019-09-27 2020-01-17 北京明略软件系统有限公司 文本情感分类方法、装置及电子设备
CN110795537A (zh) * 2019-10-30 2020-02-14 秒针信息技术有限公司 一种确定目标商品的改进策略的方法、装置、设备和介质
CN110795537B (zh) * 2019-10-30 2022-10-25 秒针信息技术有限公司 一种确定目标商品的改进策略的方法、装置、设备和介质
CN111125420A (zh) * 2019-12-25 2020-05-08 腾讯科技(深圳)有限公司 基于人工智能的对象推荐方法、装置及电子设备
CN111147396A (zh) * 2019-12-26 2020-05-12 哈尔滨工程大学 一种基于序列特征的加密流量分类方法
CN111147396B (zh) * 2019-12-26 2023-03-21 哈尔滨工程大学 一种基于序列特征的加密流量分类方法
CN112256866A (zh) * 2020-09-25 2021-01-22 东北大学 一种基于深度学习的文本细粒度情感分析方法
CN115329775A (zh) * 2022-10-14 2022-11-11 成都晓多科技有限公司 一种语句中方面类别及情感极性联合识别的方法及系统
CN115329775B (zh) * 2022-10-14 2023-03-24 成都晓多科技有限公司 一种语句中方面类别及情感极性联合识别的方法及系统

Also Published As

Publication number Publication date
CN110096587B (zh) 2020-07-07

Similar Documents

Publication Publication Date Title
CN110096587A (zh) 基于注意力机制的lstm-cnn词嵌入的细粒度情感分类模型
CN107133224B (zh) 一种基于主题词的语言生成方法
CN109933664B (zh) 一种基于情感词嵌入的细粒度情绪分析改进方法
CN108363695B (zh) 一种基于双向依赖语法树表征的用户评论属性抽取方法
CN108984530A (zh) 一种网络敏感内容的检测方法及检测系统
CN104268160B (zh) 一种基于领域词典和语义角色的评价对象抽取方法
CN109740148A (zh) 一种BiLSTM结合Attention机制的文本情感分析方法
CN109284506A (zh) 一种基于注意力卷积神经网络的用户评论情感分析系统及方法
CN108763216A (zh) 一种基于中文数据集的文本情感分析方法
CN107153642A (zh) 一种基于神经网络识别文本评论情感倾向的分析方法
CN109460737A (zh) 一种基于增强式残差神经网络的多模态语音情感识别方法
CN105512687A (zh) 训练情感分类模型和文本情感极性分析的方法及系统
CN105740236B (zh) 结合写作特征和序列特征的中文情感新词识别方法和系统
CN109885670A (zh) 一种面向话题文本的交互注意力编码情感分析方法
CN105740382A (zh) 一种对短评论文本进行方面分类方法
CN107862087A (zh) 基于大数据和深度学习的情感分析方法、装置和存储介质
CN110457480A (zh) 基于交互式注意力机制的细粒度情感分类模型的构建方法
CN107122349A (zh) 一种基于word2vec‑LDA模型的文本主题词提取方法
CN110765769B (zh) 一种基于子句特征的实体属性依赖情感分析方法
CN108256968B (zh) 一种电商平台商品专家评论生成方法
CN110929034A (zh) 一种基于改进lstm的商品评论细粒度情感分类方法
CN107657056A (zh) 基于人工智能展示评论信息的方法和装置
CN107944911A (zh) 一种基于文本分析的推荐系统的推荐方法
CN112905739B (zh) 虚假评论检测模型训练方法、检测方法及电子设备
CN107357785A (zh) 主题特征词抽取方法及系统、情感极性判断方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant