CN110532380A - 一种基于记忆网络的文本情感分类方法 - Google Patents

一种基于记忆网络的文本情感分类方法 Download PDF

Info

Publication number
CN110532380A
CN110532380A CN201910629740.4A CN201910629740A CN110532380A CN 110532380 A CN110532380 A CN 110532380A CN 201910629740 A CN201910629740 A CN 201910629740A CN 110532380 A CN110532380 A CN 110532380A
Authority
CN
China
Prior art keywords
text
memory network
term vector
vector
memory
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910629740.4A
Other languages
English (en)
Other versions
CN110532380B (zh
Inventor
姜明
吴俊磊
张旻
汤景凡
黄涛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Dianzi University
Original Assignee
Hangzhou Dianzi University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Dianzi University filed Critical Hangzhou Dianzi University
Priority to CN201910629740.4A priority Critical patent/CN110532380B/zh
Publication of CN110532380A publication Critical patent/CN110532380A/zh
Application granted granted Critical
Publication of CN110532380B publication Critical patent/CN110532380B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3347Query execution using vector based model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/36Creation of semantic tools, e.g. ontology or thesauri
    • G06F16/374Thesaurus

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Machine Translation (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明公开了一种基于记忆网络的文本情感分类方法。本发明具体实现步骤如下:步骤(1)对文本进行分词;步骤(2)对分词后的文本,进行词向量嵌入,得到文本词向量;步骤(3)把文本词向量输入到自注意力模型中,得到文本特征;步骤(4)使用记忆网络模型多次对文本特征进行情感特征的提取,输出最后的分类结果。本发明利用Transformer记忆网络模型对文本进行情感分析,通过非人工干预的手段先用Transformer模型把文本转化为向量的形式,再根据文本的某方面识别不同文本的情感极性,这种方法节省人力成本且模型分类的效果好。

Description

一种基于记忆网络的文本情感分类方法
技术领域
本发明涉及自然语言处理的情感分析领域,具体涉及一种基于记忆网络的文本情感分类方法。
背景技术
传统的情感分析方法主要根据一些规则性的特征来进行情感分类,比如情感词汇和词袋模型。然而这些特征过度依赖于人为的控制。不同于以前的方法现在主要使用神经网络模型来对文本进行文本情感分类。神经网络模型在短文本上面已经取得了很好的效果,但是在长文本上面的表现不是很好。这是因为目前的主流的序列转导模型为了防止梯度的爆炸,都加入了遗忘门机制,导致关键情感信息的缺失。因此我们使用Transformer模型对文本进行特征转换,解决了长文本问题。
发明内容
本发明的目的是针对现有技术的不足,提供一种基于记忆网络的文本情感分类方法,以解决文本情感信息出现缺失,分类效果不佳的问题。
本发明解决其技术问题所采用的技术方案包括如下步骤:
步骤(1)对文本进行分词;
步骤(2)对分词后的文本,进行词向量嵌入,得到文本词向量;
步骤(3)把文本词向量输入到自注意力模型中,得到文本特征;
步骤(4)使用记忆网络模型多次对文本特征进行情感特征的提取,输出最后的分类结果。
步骤(1)所述对文本分词的过程如下:
1-1.确定文本的所属领域,人工搜集所属领域的相关词汇;
1-2.将步骤1-1中搜集的词汇和对应领域的公共词汇数据库进行合并,获得自定义领域词典;
1-3.根据当下通用的停用词,并结合对应领域,构建领域词典的停用词词典;
1-4.使用专业的中文分词工具,对文本进行分词,得到的文本的分词结果。
步骤(2)所述的对分词后的文本,进行词向量嵌入,得到文本词向量的详细过程如下:
2-1.使用word2vec工具训练分词后的文本来获得文本词向量,得到一个embedding的文件;embedding用于存放文本词向量;
2-2.根据步骤1中得到的文本的分词结果,使用embedding进行文本词向量的训练,获得新的文本词向量I。
步骤(3)所述的把文本词向量输入到自注意力模型中,得到文本特征的过程如下:
3-1.将文本词向量I输入到自注意力模型中获得上下文相关的文本特征。
步骤(4)所述的使用记忆网络模型多次对文本特征进行情感特征的提取,输出最后的分类结果,过程如下:
4-1.进行关键情感信息的抽取:
μ=[F*q*;|F-q*|;F*mt-1;|F-mt-1|] (1)
其中,F表示文本,q*表示描述文本的某一个方面情感问句,“;”表示向量连接,“*、-、||”分别表示向量点乘、减法和绝对值;Hc表示文本的长度,F词向量的形状为[1,Hc],Hq表示情感问句的长度,Hm表示记忆网络的记忆向量,q*和mt-1的形状分别为[1,Hq]和[1,Hm];
4-2.将记忆网络模型的输出mt输入到softmax函数,输出最终的分类结果。
步骤4-2的详细过程:记忆网络模型具有三个组件:注意门、特征转换部分和存储器更新门,记忆网络模型用于将F与q*结合,提取出与文本情感相关的文本特征;
将α中的第i个元素作为的注意权重,通过使用双层感知器变换μ获得α:
其中,是双层感知器的参数;
特征转换部分将F和α作为输入,然后获得更新后的F′:
F=F·α
记忆更新门使用情感问句q*,先前的记忆向量mt-1和更新后的F‘输出更新的记忆向量mt
mt=relu([q*;mt-1;F]·Wu)
其中,Wu是线性层的参数;
每次迭代记忆网络模型都使用α来过滤无关的情感信息,记忆网络模型在最后一次迭代时产生mt作为记忆网络模型的最终输出。
与现有技术相比,本发明的有益效果是:
本发明利用基于Transformer的记忆网络模型对文本进行情感分析,通过多次调用局部注意力机制,实现全局的关键情感信息的抽取,这种方法不需要人工进行干预,解决文本情感信息缺失的问题,且适应能力很好。
附图说明
图1是本发明工艺实施方案的具体流程图;
图2是本发明的模型流程示意图;
图3是本发明的整体实施方案流程图;
具体实施方式
以下结合附图对本发明的原理及具体执行方法作进一步描述。
步骤(1)对文本进行分词;
步骤(2)对分词后的文本,进行词向量嵌入,得到文本词向量;
步骤(3)把文本词向量输入到自注意力模型中,得到文本特征;
步骤(4)使用记忆网络模型多次对文本特征进行情感特征的提取,输出最后的分类结果。
步骤(1)所述对文本分词的过程如下:
1-1.确定文本的所属领域,人工搜集所属领域的相关词汇;
1-2.将步骤1-1中搜集的词汇和对应领域的公共词汇数据库进行合并,获得自定义领域词典;
1-3.根据当下通用的停用词,并结合对应领域,构建领域词典的停用词词典;
1-4.使用专业的中文分词工具,如jieba加载自定义词典对文本进行分词,得到的文本的分词结果。
步骤(2)所述的对分词后的文本,进行词向量嵌入,得到文本词向量的详细过程如下:
2-1.使用word2vec工具训练分词后的文本来获得文本词向量,得到一个embedding的文件;词向量维度设置为200,embedding用于存放文本词向量;
2-2.根据步骤1中得到的文本的分词结果,使用embedding进行文本词向量的训练,获得新的文本词向量I。
步骤(3)所述的把文本词向量输入到自注意力模型中,得到文本特征的过程如下:
3-1.将文本词向量I输入到自注意力模型中获得上下文相关的文本特征。多头自注意力机制的数量设置为12。自注意力模型输出的文本特征是上下文相关的。
步骤(4)所述的使用记忆网络模型多次对文本特征进行情感特征的提取,输出最后的分类结果,过程如下:
4-1.进行关键情感信息的抽取:
μ=[F*q*;|F-q*|;F*mt-1;|F-mt-1|] (1)
其中,F表示文本,q*表示描述文本的某一个方面情感问句,“;”表示向量连接,“*、-、||”分别表示向量点乘、减法和绝对值;Hc表示文本的长度,F词向量的形状为[1,Hc],Hq表示情感问句的长度,Hm表示记忆网络的记忆向量,q*和mt-1的形状分别为[1,Hq]和[1,Hm];
4-2.将记忆网络模型的输出mt输入到softmax函数,输出最终的分类结果。
步骤4-2的详细过程:记忆网络模型具有三个组件:注意门、特征转换部分和存储器更新门,记忆网络模型用于将F与q*结合,提取出与文本情感相关的文本特征;
将α中的第i个元素作为的注意权重,通过使用双层感知器变换μ获得α:
其中,是双层感知器的参数;
特征转换部分将F和α作为输入,然后获得更新后的F′:
F=F·α
记忆更新门使用情感问句q*,先前的记忆向量mt-1和更新后的F‘输出更新的记忆向量mt
mt=relu([q*;mt-1;F]·Wu)
其中,Wu是线性层的参数;
每次迭代记忆网络模型都使用α来过滤无关的情感信息,记忆网络模型在最后一次迭代时产生mt作为记忆网络模型的最终输出。
进一步的,文本特征输入到记忆网络模型中,对文本特征进行反复的局部注意力机制。图2的memory module部分是记忆网络对上下文的向量特征多次提取的示意图。通过多次测试,将迭代的次数设置为5,可以获得最好的实验效果。
进一步的,通过softmax层把记忆网络模块输出的情感特征进行最后的分类。完成目标,并不需要人工进行干预,解决文本情感信息缺失的问题,且适应能力很好。

Claims (6)

1.一种基于记忆网络的文本情感分类方法,其特征在于包括如下步骤:
步骤(1)对文本进行分词;
步骤(2)对分词后的文本,进行词向量嵌入,得到文本词向量;
步骤(3)把文本词向量输入到自注意力模型中,得到文本特征;
步骤(4)使用记忆网络模型多次对文本特征进行情感特征的提取,输出最后的分类结果。
2.根据权利要求1所述的一种基于记忆网络的文本情感分类方法,其特征在于步骤(1)所述对文本分词的过程如下:
1-1.确定文本的所属领域,人工搜集所属领域的相关词汇;
1-2.将步骤1-1中搜集的词汇和对应领域的公共词汇数据库进行合并,获得自定义领域词典;
1-3.根据当下通用的停用词,并结合对应领域,构建领域词典的停用词词典;
1-4.使用专业的中文分词工具,对文本进行分词,得到的文本的分词结果。
3.根据权利要求1或2所述的一种基于记忆网络的文本情感分类方法,其特征在于步骤(2)所述的对分词后的文本,进行词向量嵌入,得到文本词向量的详细过程如下:
2-1.使用word2vec工具训练分词后的文本来获得文本词向量,得到一个embedding的文件;embedding用于存放文本词向量;
2-2.根据步骤1中得到的文本的分词结果,使用embedding进行文本词向量的训练,获得新的文本词向量Ⅰ。
4.根据权利要求1所述的一种基于记忆网络的文本情感分类方法,其特征在于步骤(3)所述的把文本词向量输入到自注意力模型中,得到文本特征的过程如下:
3-1.将文本词向量Ⅰ输入到自注意力模型中获得上下文相关的文本特征。
5.根据权利要求4所述的一种基于记忆网络的文本情感分类方法,其特征在于步骤(4)所述的使用记忆网络模型多次对文本特征进行情感特征的提取,输出最后的分类结果,过程如下:
4-1.进行关键情感信息的抽取:
μ=[F*q*;|F-q*|;F*mt-1;|F-mt-1|] (1)
其中,F表示文本,q*表示描述文本的某一个方面情感问句,“;”表示向量连接,“*、-、||”分别表示向量点乘、减法和绝对值;Hc表示文本的长度,F词向量的形状为[1,Hc],Hq表示情感问句的长度,Hm表示记忆网络的记忆向量,q*和mt-1的形状分别为[1,Hq]和[1,Hm];
4-2.将记忆网络模型的输出mt输入到softmax函数,输出最终的分类结果。
6.根据权利要求5所述的一种基于记忆网络的文本情感分类方法,其特征在于步骤4-2的详细过程:记忆网络模型具有三个组件:注意门、特征转换部分和存储器更新门,记忆网络模型用于将F与q*结合,提取出与文本情感相关的文本特征;
将α中的第i个元素作为的注意权重,通过使用双层感知器变换μ获得α:
其中,是双层感知器的参数;
特征转换部分将F和α作为输入,然后获得更新后的F′:
F=F·α
记忆更新门使用情感问句q*,先前的记忆向量mt-1和更新后的F‘输出更新的记忆向量mt
mt=relu([q*;mt-1;F′]·Wu)
其中,Wu是线性层的参数;
每次迭代记忆网络模型都使用α来过滤无关的情感信息,记忆网络模型在最后一次迭代时产生mt作为记忆网络模型的最终输出。
CN201910629740.4A 2019-07-12 2019-07-12 一种基于记忆网络的文本情感分类方法 Active CN110532380B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910629740.4A CN110532380B (zh) 2019-07-12 2019-07-12 一种基于记忆网络的文本情感分类方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910629740.4A CN110532380B (zh) 2019-07-12 2019-07-12 一种基于记忆网络的文本情感分类方法

Publications (2)

Publication Number Publication Date
CN110532380A true CN110532380A (zh) 2019-12-03
CN110532380B CN110532380B (zh) 2020-06-23

Family

ID=68659693

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910629740.4A Active CN110532380B (zh) 2019-07-12 2019-07-12 一种基于记忆网络的文本情感分类方法

Country Status (1)

Country Link
CN (1) CN110532380B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111680154A (zh) * 2020-04-13 2020-09-18 华东师范大学 一种基于深度学习的评论文本属性级情感分析方法
CN112329449A (zh) * 2020-11-16 2021-02-05 电子科技大学 基于情感词典和Transformer的情感分析方法
CN113704472A (zh) * 2021-08-30 2021-11-26 济南大学 基于主题记忆网络的仇恨和攻击性言论识别方法及系统

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105824922A (zh) * 2016-03-16 2016-08-03 重庆邮电大学 一种融合深层特征和浅层特征的情感分类方法
CN109710770A (zh) * 2019-01-31 2019-05-03 北京牡丹电子集团有限责任公司数字电视技术中心 一种基于迁移学习的文本分类方法及装置
CN109817246A (zh) * 2019-02-27 2019-05-28 平安科技(深圳)有限公司 情感识别模型的训练方法、情感识别方法、装置、设备及存储介质
CN110334210A (zh) * 2019-05-30 2019-10-15 哈尔滨理工大学 一种基于bert与lstm、cnn融合的中文情感分析方法
CN110347836A (zh) * 2019-07-15 2019-10-18 昆明理工大学 融入观点句特征的汉越双语新闻情感分类方法
CN110427458A (zh) * 2019-07-03 2019-11-08 南京理工大学 基于双门lstm的社交网络双语的五分类情感分析方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105824922A (zh) * 2016-03-16 2016-08-03 重庆邮电大学 一种融合深层特征和浅层特征的情感分类方法
CN109710770A (zh) * 2019-01-31 2019-05-03 北京牡丹电子集团有限责任公司数字电视技术中心 一种基于迁移学习的文本分类方法及装置
CN109817246A (zh) * 2019-02-27 2019-05-28 平安科技(深圳)有限公司 情感识别模型的训练方法、情感识别方法、装置、设备及存储介质
CN110334210A (zh) * 2019-05-30 2019-10-15 哈尔滨理工大学 一种基于bert与lstm、cnn融合的中文情感分析方法
CN110427458A (zh) * 2019-07-03 2019-11-08 南京理工大学 基于双门lstm的社交网络双语的五分类情感分析方法
CN110347836A (zh) * 2019-07-15 2019-10-18 昆明理工大学 融入观点句特征的汉越双语新闻情感分类方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
苏锦钿: ""一种结合词性及注意力的句子情感分类方法"", 《华南理工大学学报(自然科学版)》 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111680154A (zh) * 2020-04-13 2020-09-18 华东师范大学 一种基于深度学习的评论文本属性级情感分析方法
CN111680154B (zh) * 2020-04-13 2023-06-27 华东师范大学 一种基于深度学习的评论文本属性级情感分析方法
CN112329449A (zh) * 2020-11-16 2021-02-05 电子科技大学 基于情感词典和Transformer的情感分析方法
CN112329449B (zh) * 2020-11-16 2023-03-21 电子科技大学 基于情感词典和Transformer的情感分析方法
CN113704472A (zh) * 2021-08-30 2021-11-26 济南大学 基于主题记忆网络的仇恨和攻击性言论识别方法及系统
CN113704472B (zh) * 2021-08-30 2024-04-09 济南大学 基于主题记忆网络的仇恨和攻击性言论识别方法及系统

Also Published As

Publication number Publication date
CN110532380B (zh) 2020-06-23

Similar Documents

Publication Publication Date Title
CN108614875B (zh) 基于全局平均池化卷积神经网络的中文情感倾向性分类方法
CN109359293B (zh) 基于神经网络的蒙古文命名实体识别方法及其识别系统
CN108597541B (zh) 一种增强愤怒与开心识别的语音情感识别方法及系统
CN104298651B (zh) 一种基于深度学习的生物医学命名实体识别和蛋白质交互关系抽取在线方法
CN109783657A (zh) 基于受限文本空间的多步自注意力跨媒体检索方法及系统
CN109523994A (zh) 一种基于胶囊神经网络的多任务语音分类方法
CN111310474A (zh) 基于激活-池化增强bert模型的在线课程评论情感分析方法
CN106227721B (zh) 汉语韵律层级结构预测系统
CN108733653A (zh) 一种基于融合词性和语义信息的Skip-gram模型的情感分析方法
CN106980608A (zh) 一种中文电子病历分词和命名实体识别方法及系统
CN110532380A (zh) 一种基于记忆网络的文本情感分类方法
CN107943784A (zh) 基于生成对抗网络的关系抽取方法
CN106782501A (zh) 基于人工智能的语音特征提取方法和装置
CN110991190B (zh) 一种文档主题增强系统、文本情绪预测系统和方法
CN106897559A (zh) 一种面向多数据源的症状体征类实体识别方法及装置
CN105096933B (zh) 分词词典的生成方法和装置及语音合成方法和装置
CN107480122A (zh) 一种人工智能交互方法及人工智能交互装置
CN106778882A (zh) 一种基于前馈神经网络的智能合约自动分类方法
CN107180084A (zh) 词库更新方法及装置
CN107895000A (zh) 一种基于卷积神经网络的跨领域语义信息检索方法
CN107039036A (zh) 一种基于自动编码深度置信网络的高质量说话人识别方法
Liu et al. Mongolian text-to-speech system based on deep neural network
CN110427486A (zh) 身体病况文本的分类方法、装置及设备
CN110298036A (zh) 一种基于词性增量迭代的在线医疗文本症状识别方法
CN108733675A (zh) 基于大量样本数据的情感评价方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant