CN112434161A - 一种采用双向长短期记忆网络的方面级情感分析方法 - Google Patents

一种采用双向长短期记忆网络的方面级情感分析方法 Download PDF

Info

Publication number
CN112434161A
CN112434161A CN202011325337.1A CN202011325337A CN112434161A CN 112434161 A CN112434161 A CN 112434161A CN 202011325337 A CN202011325337 A CN 202011325337A CN 112434161 A CN112434161 A CN 112434161A
Authority
CN
China
Prior art keywords
attention
short term
term memory
memory network
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202011325337.1A
Other languages
English (en)
Other versions
CN112434161B (zh
Inventor
张泽宝
刘东旭
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Harbin Engineering University
Original Assignee
Harbin Engineering University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Harbin Engineering University filed Critical Harbin Engineering University
Priority to CN202011325337.1A priority Critical patent/CN112434161B/zh
Publication of CN112434161A publication Critical patent/CN112434161A/zh
Application granted granted Critical
Publication of CN112434161B publication Critical patent/CN112434161B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Abstract

本发明公开了一种采用双向长短期记忆网络的方面级情感分析方法,包括:步骤1,数据预处理,进行数据清洗并将其词向量化;步骤2,建立带有方面感知的双向长短期记忆网络;步骤3,建立基于多重注意力模型的Encoder‑Decoder模型;步骤4,情感极性分析,输出结果。本发明可以有效的改善传统的情感分析算法中对不同方面情感分析的单一性及笼统型问题,更加准确的对用户评论中不同方面的情感极性进行判断。

Description

一种采用双向长短期记忆网络的方面级情感分析方法
技术领域
本发明涉及一种方面级情感分析方法,特别是一种采用双向长短期记忆网络的方面级情感分析方法,属于计算机技术领域中的情感分析领域。
背景技术
随着互联网的迅猛发展,社交媒体已深入到人们日常生活和工作中的方方面面。越来越多的人愿意在网络上表达自己的态度和情感,而非单纯地浏览与接受。人们希望通过相应的技术对这些评论文本进行自动化处理、分析,提取有价值的知识。在这样的应用需求背景下,出现了针对文本的情感分析技术,即通过计算机手段,帮助用户快速获取、整理和分析相关评论信息的过程。
方面级情感分析是情感分析领域中一种更为细化的模型。目前,常见的方面级情感分析方法主要分为以下三个方面:1.基于情感词典和语言规则的方法,其更接近于传统情感分析方法利用情感词典的解决思路,需要使用标注好的情感词典或语言规则来判别情感极性;2.基于机器学习的方法,此方法较为广泛地应用于方面级情感分析领域,其主要思想是将方面级情感分析任务建模成为分类问题;3.基于其他建模问题的方法,常用的建模方案包括序列标注和阅读理解等。然而上述方法大多是用单一的方法去解决方面级情感分析问题,无论是算法模型的可解释性、有效性还是应用性,都还有改进的空间。
发明内容
针对上述现有技术,本发明要解决的技术问题是提供一种解决了传统情感分析算法中的单一性和笼统性问题的采用双向长短期记忆网络的方面级情感分析方法,利用双向长短期记忆网络分析用户的评论信息,并在双向长短期记忆网络模型中引入注意力机制,更加准确的对用户评论中不同方面的情感极性进行判断。
为解决上述技术问题,本发明的一种采用双向长短期记忆网络的方面级情感分析方法,包括以下步骤:
步骤1:数据预处理,具体为:进行数据清洗并将其词向量化,采用word2vec模型来将数据转换成向量形式,该矩阵维度为n×d,其中n是数据所包含的单词数,d为单个词向量的维度;
步骤2:建立带有方面感知的双向长短期记忆网络,具体为:将步骤1得到的词向量作为双向长短期记忆网络的序列化输入,使模型分别从两个方向上提取文本的语义特征,同时把方面向量合并到双向长短期记忆网络单元中,设计三个方面门来控制分别被导入到输入门、遗忘门和输出门中的方面向量数量,最终获得每个时间步上的隐藏层状态和带有方面感知的句子整体表示;
步骤3:建立基于多重注意力模型的Encoder-Decoder模型,具体为:在Encoder-Decoder模型中引入注意力机制,将双向长短期记忆网络输出的隐藏层状态与方面信息相结合,并进行注意力操作,最终提取特征表示;
步骤4:情感极性分析,具体为:所用数据集经过步骤3的模型的训练建立不同方面与其相应情感词之间的联系,针对不同方面的文本经过全连接层和softmax函数后,输出待分类样本在每个情感分类上的概率,即可得到与不同方面相对应的情感极性。
本发明还包括:
1.步骤2中的双向长短期记忆网络具体为:
ai=σ(Wai[A,ht-1]+bai)
It=σ(WI[xt,ht-1]+ai⊙A+bI)
af=σ(Waf[A,ht-1]+baf)
ft=σ(Wf[xt,ht-1]+af⊙A+bf)
Figure BDA0002794097400000021
Figure BDA0002794097400000022
ao=σ(Wao[A,ht-1]+bao)
ot=σ(Wo[xt,ht-1]+ao⊙A+bo)
ht=ot*tanh(Ct)
其中,xt为时间步长t对应的上下文词的输入嵌入向量,A为方面向量,ht-1为前一隐藏状态,ht为该时间步长隐藏状态,σ和tanh为sigmoid和正切函数,⊙表示元素的乘法,Wai,Waf,Wao∈Rda×(dc+da),WI,Wf,WC,Wo∈Rdc×2dc为加权矩阵,bai,baf,bao∈Rda,bI,bf,bC,bo∈Rdc为偏置,da,dc为方面向量维数和隐藏单元数,it,ft,ot∈Rdc分别代表输入门、遗忘门和输出门,ai,af,ao∈Rda分别代表方面输入门、方面遗忘门和方面输出门。
2.步骤3中Encoder-Decoder模型包括编码模型和解码模型,编码部分对于长度为n的句子,隐藏层输出矩阵为H=[h1,h2,…,hn],生成句子的整体表示vs,满足:
Figure BDA0002794097400000031
解码部分由方面注意力模块组成,其中模块数量N与数据集的方面总个数相同,即一个方面注意力模块对应一个特定的方面;当输入句子包含有多个方面时,编码得到的输出H将被分别送入对应的方面注意力模块中,在每个方面注意力模块中,各有一个对应的方面信息,即方面向量vai,首先,方面向量vai与输入矩阵H中的每个隐状态进行拼接,再进行注意力计算,最后通过加权平均,获得有关特定方面的文本表示,具体为:
eti=tanh(Wai[ht,vai]+bai)
Figure BDA0002794097400000032
Figure BDA0002794097400000033
其中,i为第i个方面注意力模块,Wai∈Rd+m为注意力的权重矩阵,bai为注意力的偏置项,eti是ti时刻注意力分数,eji是ji时刻注意力分数,αti是注意力权重值。
本发明的有益效果:本发明提出的基于双向长短期记忆网络的方面及情感分析方法可以有效的改善传统的情感分析算法中对不同方面情感分析的单一性及笼统型问题,提高了方面级别情感分析的准确性,对相关企业、用户及研究者均有重大意义。实验数据表明,该算法所判断出的结果比传统的情感分析算法具有更高的精度。
附图说明
图1是基于基于双向长短期记忆网络的方面级情感分析方法的基本流程图。
图2是word2vec中Skip-Gram模型的基本原理。
图3是带有方面感知的双向长短期记忆网络模型。
图4是基于注意力模型的Encoder-decoder模型。
具体实施方式
下面结合附图对本发明具体实施方式做进一步说明。
本发明技术方案实施方式具体为:
(1)数据预处理:进行数据清洗并将其词向量化。词向量化是文本表示的一部分,主要是将数据转换为计算机可以识别的形式。此处采用word2vec模型来将数据转换成向量形式,该矩阵维度为n×d,其中n是数据所包含的单词数,d为单个词向量的维度。
(2)建立带有方面感知的双向长短期记忆网络:将预处理后的词向量作为双向长短期记忆网络网络的序列化输入,使模型分别从两个方向上提取文本的语义特征。同时把方面向量合并到经典的双向长短期记忆网络单元中,设计三个方面门来控制有多少方面向量分别被导入到输入门、遗忘门和输出门中。最终获得每个时间步上的隐藏层状态和带有方面感知的句子整体表示。
(3)建立基于多重注意力模型的Encoder-Decoder(编码-解码)模型:Encoder-Decoder模型是自然语言处理中的一种成熟的序列化模型,但其将整个序列的信息压缩到一个固定长度的向量的特点会使一些信息会被稀释掉,输入的序列越长,这种现象越严重,降低了解码的准确度。因此,本发明在Encoder-Decoder模型中引入注意力机制。引入注意力机制后的Encoder-Decoder(编码-解码)模型可以将双向长短期记忆网络输出的隐藏层状态与方面信息相结合,并进行注意力操作,最终提取重要词语的特征表示。
(4)情感极性分析:所用数据集经过上述模型的训练最终可以建立不同方面与其相应情感词之间的联系,针对不同方面的文本经过全连接层和softmax函数后,得到最终分析结果。同时为证明本发明方法的准确性,选用F1值指标分别与其他经典方法进行对比试验。
结合图1,本发明具体包括以下步骤:
1.数据预处理:首先进行数据清洗,其主要任务是完成分词、去除停用词等工作,其中英文的数据集还会涉及到大小写转换等任务。然后进行进行数据词向量化。词向量化是文本表示的一部分,主要是将数据转换为计算机可以识别的形式。此处采用word2vec模型来将数据转换成向量形式,该模型生成的词向量是一种分布式的词向量表示,其中的Skip-Gram模型利用深度学习方法,训练出有维度的词向量,这些词向量的相似度就代表了词语的相似度。该模型利用上下文预测的方法,即通过一个大小为n的窗口计算窗口中心词出现的概率。其基本原理如图2所示。将词向量作为模型的输入层(Input),中心词作为映射层(Projection),最终得到周围词,即输出层(Output)。
2.建立带有方面感知的双向长短期记忆网络:传统的双向长短期记忆网络包含三个门(输入门,忘记门和输出门)以控制信息流。对于方面级情感分析问题来说,“方面”是至关重要的一个因素,因此本发明将方面向量合并到传统的双向长短期记忆网络单元中,并设计了三个方面的门,以控制将方面向量分别输入到输入门,忘记门和输出门的数量。这样就可以利用先前的隐藏状态和方面本身来控制方面在传统双向长短期记忆网络的三个门中的导入量。带有方面感知的双向长短期记忆网络网络结构如附图3所示,可以将其形式化如下:
ai=σ(Wai[A,ht-1]+bai) (1)
It=σ(WI[xt,ht-1]+ai⊙A+bI) (2)
af=σ(Waf[A,ht-1]+baf) (3)
ft=σ(Wf[xt,ht-1]+af⊙A+bf) (4)
Figure BDA0002794097400000051
Figure BDA0002794097400000052
ao=σ(Wao[A,ht-1]+bao) (7)
ot=σ(Wo[xt,ht-1]+ao⊙A+bo) (8)
ht=ot*tanh(Ct) (9)
其中xt为时间步长t对应的上下文词的输入嵌入向量,A为方面向量,ht-1为前一隐藏状态,ht为该时间步长隐藏状态,σ和tan h为sigmoid和正切函数,⊙表示元素的乘法,Wai,Waf,Wao∈Rda×(dc+da),WI,Wf,WC,Wo∈Rdc×2dc为加权矩阵,bai,baf,bao∈Rda,bI,bf,bC,bo∈Rdc为偏置,da,dc为方面向量维数和隐藏单元数。it,ft,ot∈Rdc分别代表输入门、遗忘门和输出门。类似地,ai,af,ao∈Rda分别代表方面输入门、方面遗忘门和方面输出门。
3.建立基于注意力模型的Encoder-Decoder(编码-解码)模型:Encoder-Decoder模型主要是由Encoder(编码)模型和Decoder(解码)模型两部分组成,其中编码部分为带有方面感知的双向长短期记忆网络网络所述过程。对于长度为n的句子,隐藏层输出矩阵为H=[h1,h2,…,hn],即编码部分的输出结果为H,分别送入多个方面注意力模块中。同时生成句子的整体表示vs,如式(10)所示:
Figure BDA0002794097400000053
解码部分由多个方面注意力模块组成,其中模块数量N与数据集的方面总个数相同,即一个方面注意力模块对应一个特定的方面。当输入句子包含有多个方面时,编码得到的输出H将被分别送入对应的方面注意力模块中。在每个方面注意力模块中,各有一个对应的方面信息,即方面向量vai。首先,方面向量vai与输入矩阵H中的每个隐状态进行拼接,再进行注意力计算,最后通过加权平均,获得有关特定方面的文本表示。计算方法如下:
eti=tanh(Wai[ht,vai]+bai) (11)
Figure BDA0002794097400000061
Figure BDA0002794097400000062
其中i为第i个方面注意力模块,Wai∈Rd+m为注意力的权重矩阵,bai为注意力的偏置项。基于注意力模型的Encoder-Decoder(编码-解码)模型如图4所示。
4.情感极性分析:将有关特定方面的文本表示vci送入全连接层,通过softmax函数输出待分类样本在每个情感分类上的概率,即可得到与不同方面相对应的情感极性,如式(14)所示:
Pi=softmax(wptvci+bpi) (14)
其中Pi=(pi1,pi2,…,piC),wpi∈RC×d为全连接层的权重矩阵,bpi为全连接层的偏置项,C为类别数。
为证明本发明方法的准确性,选用F1值指标进行对比试验。F1值是查准率和查全率的调和平均,其计算公式如下:
Figure BDA0002794097400000063
本发明选用5个经典模型进行三分类对比试验,实验结果如表1所示。从对比结果可以看出,Bi-LSTM模型在消极分类和中性分类F1值上,比LSTM模型分别提升了3.39%和5.21%。对比Bi-LSTM、AE-LSTM和ATAE-LSTM这三个模型可以得出,在消极分类效果差不多的情况下加入方面信息或使用注意力机制,能使中性分类效果得到明显改善,分别提升了5.04%和5.93%。最后,本发明提出的方法在三分类F1值上,比ATAE-LSTM模型分别提升了0.83%、2.28%和4.93%,同样在中性分类效果上改善明显。这表明本发明提出的方法能有效地处理情感极性模糊、表达不清晰等情况下的句子。
表1对比试验结果
Figure BDA0002794097400000064
Figure BDA0002794097400000071

Claims (3)

1.一种采用双向长短期记忆网络的方面级情感分析方法,其特征在于,包括以下步骤:
步骤1:数据预处理,具体为:进行数据清洗并将其词向量化,采用word2vec模型来将数据转换成向量形式,该矩阵维度为n×d,其中n是数据所包含的单词数,d为单个词向量的维度;
步骤2:建立带有方面感知的双向长短期记忆网络,具体为:将步骤1得到的词向量作为双向长短期记忆网络的序列化输入,使模型分别从两个方向上提取文本的语义特征,同时把方面向量合并到双向长短期记忆网络单元中,设计三个方面门来控制分别被导入到输入门、遗忘门和输出门中的方面向量数量,最终获得每个时间步上的隐藏层状态和带有方面感知的句子整体表示;
步骤3:建立基于多重注意力模型的Encoder-Decoder模型,具体为:在Encoder-Decoder模型中引入注意力机制,将双向长短期记忆网络输出的隐藏层状态与方面信息相结合,并进行注意力操作,最终提取特征表示;
步骤4:情感极性分析,具体为:所用数据集经过步骤3的模型的训练建立不同方面与其相应情感词之间的联系,针对不同方面的文本经过全连接层和softmax函数后,输出待分类样本在每个情感分类上的概率,即可得到与不同方面相对应的情感极性。
2.根据权利要求1所述的一种采用双向长短期记忆网络的方面级情感分析方法,其特征在于:步骤2所述的双向长短期记忆网络具体为:
ai=σ(Wai[A,ht-1]+bai)
It=σ(WI[xt,ht-1]+ai⊙A+bI)
af=σ(Waf[A,ht-1]+baf)
ft=σ(Wf[xt,ht-1]+af⊙A+bf)
Figure FDA0002794097390000011
Figure FDA0002794097390000012
ao=σ(Wao[A,ht-1]+bao)
ot=σ(Wo[xt,ht-1]+ao⊙A+bo)
ht=ot*tanh(Ct)
其中,xt为时间步长t对应的上下文词的输入嵌入向量,A为方面向量,ht-1为前一隐藏状态,ht为该时间步长隐藏状态,σ和tanh为sigmoid和正切函数,⊙表示元素的乘法,Wai,Waf,Wao∈Rda×(dc+da),WI,Wf,WC,Wo∈Rdc×2dc为加权矩阵,bai,baf,bao∈Rda,bI,bf,bC,bo∈Rdc为偏置,da,dc为方面向量维数和隐藏单元数,it,ft,ot∈Rdc分别代表输入门、遗忘门和输出门,ai,af,ao∈Rda分别代表方面输入门、方面遗忘门和方面输出门。
3.根据权利要求1或2所述的一种采用双向长短期记忆网络的方面级情感分析方法,其特征在于:步骤3所述Encoder-Decoder模型包括编码模型和解码模型,编码部分对于长度为n的句子,隐藏层输出矩阵为H=[h1,h2,…,hn],生成句子的整体表示vs,满足:
Figure FDA0002794097390000021
解码部分由方面注意力模块组成,其中模块数量N与数据集的方面总个数相同,即一个方面注意力模块对应一个特定的方面;当输入句子包含有多个方面时,编码得到的输出H将被分别送入对应的方面注意力模块中,在每个方面注意力模块中,各有一个对应的方面信息,即方面向量vai,首先,方面向量vai与输入矩阵H中的每个隐状态进行拼接,再进行注意力计算,最后通过加权平均,获得有关特定方面的文本表示,具体为:
eti=tanh(Wai[ht,vai]+bai)
Figure FDA0002794097390000022
Figure FDA0002794097390000023
其中,i为第i个方面注意力模块,Wai∈Rd+m为注意力的权重矩阵,bai为注意力的偏置项,eti是ti时刻注意力分数,eji是ji时刻注意力分数,αti是注意力权重值。
CN202011325337.1A 2020-11-24 2020-11-24 一种采用双向长短期记忆网络的方面级情感分析方法 Active CN112434161B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011325337.1A CN112434161B (zh) 2020-11-24 2020-11-24 一种采用双向长短期记忆网络的方面级情感分析方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011325337.1A CN112434161B (zh) 2020-11-24 2020-11-24 一种采用双向长短期记忆网络的方面级情感分析方法

Publications (2)

Publication Number Publication Date
CN112434161A true CN112434161A (zh) 2021-03-02
CN112434161B CN112434161B (zh) 2023-01-03

Family

ID=74693737

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011325337.1A Active CN112434161B (zh) 2020-11-24 2020-11-24 一种采用双向长短期记忆网络的方面级情感分析方法

Country Status (1)

Country Link
CN (1) CN112434161B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113191155A (zh) * 2021-04-27 2021-07-30 西安热工研究院有限公司 基于门控深度记忆网络的电厂运行日志情感分析处理方法
CN113361617A (zh) * 2021-06-15 2021-09-07 西南交通大学 基于多元注意力修正的方面级情感分析建模方法
CN114138942A (zh) * 2021-12-09 2022-03-04 南京审计大学 基于文本情感倾向的违规检测方法

Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108920448A (zh) * 2018-05-17 2018-11-30 南京大学 一种基于长短期记忆网络的比较关系抽取的方法
CN109285562A (zh) * 2018-09-28 2019-01-29 东南大学 基于注意力机制的语音情感识别方法
CN109472031A (zh) * 2018-11-09 2019-03-15 电子科技大学 一种基于双记忆注意力的方面级别情感分类模型及方法
CN109597891A (zh) * 2018-11-26 2019-04-09 重庆邮电大学 基于双向长短时记忆神经网络的文本情感分析方法
CN109710761A (zh) * 2018-12-21 2019-05-03 中国标准化研究院 基于注意力增强的双向lstm模型的情感分析方法
CN109992780A (zh) * 2019-03-29 2019-07-09 哈尔滨理工大学 一种基于深度神经网络特定目标情感分类方法
CN110134765A (zh) * 2019-05-05 2019-08-16 杭州师范大学 一种基于情感分析的餐厅用户评论分析系统及方法
US20200073937A1 (en) * 2018-08-30 2020-03-05 International Business Machines Corporation Multi-aspect sentiment analysis by collaborative attention allocation
CN111079409A (zh) * 2019-12-16 2020-04-28 东北大学秦皇岛分校 一种利用上下文和方面记忆信息的情感分类方法
CN111222344A (zh) * 2020-01-03 2020-06-02 支付宝(杭州)信息技术有限公司 训练神经网络的方法、装置及电子设备
CN111274398A (zh) * 2020-01-20 2020-06-12 福州大学 一种方面级用户产品评论情感分析方法及系统
CN111368082A (zh) * 2020-03-03 2020-07-03 南京信息工程大学 一种基于层次网络的领域自适应词嵌入的情感分析方法
CN111563706A (zh) * 2020-03-05 2020-08-21 河海大学 一种基于lstm网络的多变量物流货运量预测方法
CN111897954A (zh) * 2020-07-10 2020-11-06 西北大学 一种用户评论方面挖掘系统、方法、及存储介质

Patent Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108920448A (zh) * 2018-05-17 2018-11-30 南京大学 一种基于长短期记忆网络的比较关系抽取的方法
US20200073937A1 (en) * 2018-08-30 2020-03-05 International Business Machines Corporation Multi-aspect sentiment analysis by collaborative attention allocation
CN109285562A (zh) * 2018-09-28 2019-01-29 东南大学 基于注意力机制的语音情感识别方法
CN109472031A (zh) * 2018-11-09 2019-03-15 电子科技大学 一种基于双记忆注意力的方面级别情感分类模型及方法
CN109597891A (zh) * 2018-11-26 2019-04-09 重庆邮电大学 基于双向长短时记忆神经网络的文本情感分析方法
CN109710761A (zh) * 2018-12-21 2019-05-03 中国标准化研究院 基于注意力增强的双向lstm模型的情感分析方法
CN109992780A (zh) * 2019-03-29 2019-07-09 哈尔滨理工大学 一种基于深度神经网络特定目标情感分类方法
CN110134765A (zh) * 2019-05-05 2019-08-16 杭州师范大学 一种基于情感分析的餐厅用户评论分析系统及方法
CN111079409A (zh) * 2019-12-16 2020-04-28 东北大学秦皇岛分校 一种利用上下文和方面记忆信息的情感分类方法
CN111222344A (zh) * 2020-01-03 2020-06-02 支付宝(杭州)信息技术有限公司 训练神经网络的方法、装置及电子设备
CN111274398A (zh) * 2020-01-20 2020-06-12 福州大学 一种方面级用户产品评论情感分析方法及系统
CN111368082A (zh) * 2020-03-03 2020-07-03 南京信息工程大学 一种基于层次网络的领域自适应词嵌入的情感分析方法
CN111563706A (zh) * 2020-03-05 2020-08-21 河海大学 一种基于lstm网络的多变量物流货运量预测方法
CN111897954A (zh) * 2020-07-10 2020-11-06 西北大学 一种用户评论方面挖掘系统、方法、及存储介质

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
NAN JIANG等: "MAN: Mutual Attention Neural Networks Model for Aspect-Level Sentiment Classification in SIoT", 《IEEE INTERNET OF THINGS JOURNAL》 *
刘全等: "一种用于基于方面情感分析的深度分层网络模型", 《计算机学报》 *
鲍豪: "融合Bi-LSTM和文本信息的对象级情感分析", 《中国优秀博硕士学位论文全文数据库(硕士)信息科技辑(月刊)》 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113191155A (zh) * 2021-04-27 2021-07-30 西安热工研究院有限公司 基于门控深度记忆网络的电厂运行日志情感分析处理方法
CN113191155B (zh) * 2021-04-27 2023-10-31 西安热工研究院有限公司 基于门控深度记忆网络的电厂运行日志情感分析处理方法
CN113361617A (zh) * 2021-06-15 2021-09-07 西南交通大学 基于多元注意力修正的方面级情感分析建模方法
CN114138942A (zh) * 2021-12-09 2022-03-04 南京审计大学 基于文本情感倾向的违规检测方法

Also Published As

Publication number Publication date
CN112434161B (zh) 2023-01-03

Similar Documents

Publication Publication Date Title
CN112434161B (zh) 一种采用双向长短期记忆网络的方面级情感分析方法
Saha et al. Towards emotion-aided multi-modal dialogue act classification
Collobert et al. A unified architecture for natural language processing: Deep neural networks with multitask learning
Al-Omari et al. Emodet2: Emotion detection in english textual dialogue using bert and bilstm models
CN111414476A (zh) 一种基于多任务学习的属性级情感分析方法
CN111368086A (zh) 一种基于CNN-BiLSTM+attention模型的涉案新闻观点句情感分类方法
CN112732916B (zh) 一种基于bert的多特征融合模糊文本分类系统
CN111382565A (zh) 基于多标签的情绪-原因对抽取方法及系统
Kaur Incorporating sentimental analysis into development of a hybrid classification model: A comprehensive study
Yan et al. Sentiment analysis of student texts using the CNN-BiGRU-AT model
CN113361617A (zh) 基于多元注意力修正的方面级情感分析建模方法
CN112561718A (zh) 基于BiLSTM权重共享的案件微博评价对象情感倾向性分析方法
CN115357719A (zh) 基于改进bert模型的电力审计文本分类方法及装置
Suyanto Synonyms-based augmentation to improve fake news detection using bidirectional LSTM
CN114881042A (zh) 基于图卷积网络融合句法依存与词性的中文情感分析方法
Nerabie et al. The impact of Arabic part of speech tagging on sentiment analysis: A new corpus and deep learning approach
Fu et al. RepSum: Unsupervised dialogue summarization based on replacement strategy
CN112818698B (zh) 一种基于双通道模型的细粒度的用户评论情感分析方法
Suleiman et al. Arabic sentiment analysis using Naïve Bayes and CNN-LSTM
Behzadi Natural language processing and machine learning: A review
CN113486657B (zh) 一种基于知识辅助的情感-原因对抽取系统
CN115659981A (zh) 一种基于神经网络模型的命名实体识别方法
CN113342964B (zh) 一种基于移动业务的推荐类型确定方法及系统
CN115510230A (zh) 一种基于多维特征融合与比较增强学习机制的蒙古语情感分析方法
CN114595324A (zh) 电网业务数据分域的方法、装置、终端和非暂时性存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant