CN113361617A - 基于多元注意力修正的方面级情感分析建模方法 - Google Patents

基于多元注意力修正的方面级情感分析建模方法 Download PDF

Info

Publication number
CN113361617A
CN113361617A CN202110672328.8A CN202110672328A CN113361617A CN 113361617 A CN113361617 A CN 113361617A CN 202110672328 A CN202110672328 A CN 202110672328A CN 113361617 A CN113361617 A CN 113361617A
Authority
CN
China
Prior art keywords
sequence
words
sentence
word
vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110672328.8A
Other languages
English (en)
Inventor
李天瑞
张严
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Southwest Jiaotong University
Original Assignee
Southwest Jiaotong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Southwest Jiaotong University filed Critical Southwest Jiaotong University
Priority to CN202110672328.8A priority Critical patent/CN113361617A/zh
Publication of CN113361617A publication Critical patent/CN113361617A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • G06F40/216Parsing using statistical methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/284Lexical analysis, e.g. tokenisation or collocates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Biophysics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Biomedical Technology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Machine Translation (AREA)

Abstract

本发明公开了一种基于多元注意力修正的方面级情感分析建模方法。本发明添加了方面词嵌入机制,将方面词与序列中每一个词表示拼接后再输入LSTM中,建立句子中单个词语与方面词之间的依赖关系;同时,在两个方向上的LSTM分别输出隐藏状态后,将其输出的隐藏状态与方面词嵌入拼接,对词语和方面之间的关系进行建模,从而加强方面词和上下文之间的依赖关系。本发明还使用多元注意力机制对结果进行修正,在计算出BLSTM的注意力权重后,分别生成句子在给定方面的加权向量,将其拼接起来对句子的加权向量进行修正,从而计算出当前句子序列的表示,提高对于上下文向量特征的捕获能力。

Description

基于多元注意力修正的方面级情感分析建模方法
技术领域
本发明属于自然语言处理技术领域,特别是一种基于多元注意力修正的方面级情感分析建模方法。
背景技术
随着互联网的飞速发展,数字城市的概念走向台前,人们的生活方式发生了天翻地覆的变化,同时网络评论的数量也呈爆炸式增长,越来越多的人愿意在网络上表达自己的态度和情感,而非单纯地浏览与接受,大量的网络评论数据往往隐含着评论者的情感信息,如“开心”、“愤怒”、“沮丧”等。文本情感分析是指利用自然语言处理和文本挖掘技术,对带有情感色彩的主观性文本进行分析、处理和抽取的过程,通过对评论文本中的情感信息的分析,可以提取出用户在一段评价文本中所表达的情感态度。
传统的情感分析将整段文本作为分析主体,可能导致评价词与主体之间的偏差,当文本中出现不同情感极性的评价时,传统的情感分析算法往往不能很好地捕获其情感倾向,于是需要引入方面级情感分析的概念,方面级情感分析是情感分析领域的一项根本任务。给定一段文本和这段文本中若干个方面,方面级情感分析任务的目的是推断这段文本中各个方面的情感极性,情感极性一般分为积极、消极、中性三种。对于一段店铺的评论文本,可以从中抽取出口味、环境、服务三个特征标签作为对店铺评价的三个方面,同一段评论文本,对于不同方面的情感极性可能是完全不同的两个极性。比如“这家店味道棒极了,就是服务态度太差了”这段评价文本中,对于口味的情感极性是积极的,对于服务的情感极性则是消极的,对于环境的情感极性是中性的。
方面级情感分析常用的方法包括基于情感词典和语言规则的方法、基于机器学习的方法、基于建模转换的方法。基于情感词典和语言规则的方法更接近于传统情感分析方法利用情感词典的解决思路,需要使用标注好的情感词典或语言规则来判别情感极性。基于机器学习的方法较为广泛地应用于方面级情感分析领域,其主要思想是将方面级情感分析任务建模成为分类问题,使用各类网络对文本与方面词的特征进行提取,最后通过Softmax输出其分类结果。基于建模转换的方法通过将方面级情感分析任务建模成其他问题来弥补将任务建模为分类问题的缺陷,常用的建模方案包括序列标注和阅读理解等。其中,基于情感词典和语言规则的方法泛用性较差,其分析结果的好坏大多取决于情感词典和语言规则的质量,常用的方法是基于机器学习的方法。
基于机器学习的方法常用的模型是使用LSTM或BLSTM捕获文本的上下文信息,然后使用注意力机制获取其注意力权重,最后通过Softmax完成对其的分类。然而传统模型中缺少对方面词和上下文关系的建模,当前文本对于方面词的依赖性较差,可能导致当前文本分析主体的偏移,从而导致分类精确度降低;同时,BLSTM在分别输出其上下文隐藏状态后将其拼接为完整的隐藏状态,计算句子在当前方面的加权向量,对于上下文向量特征的捕获力度较差。
发明内容
为了解决方面级情感分析存在上下文对方面词依赖性较差、上下文向量特征未充分捕获的问题,本发明提出了一种基于多元注意力修正的方面级情感分析建模方法。本发明添加了方面词嵌入机制,将方面词与序列中每一个词表示拼接后再输入LSTM中,建立句子中单个词语与方面词之间的依赖关系;同时,在两个方向上的LSTM分别输出隐藏状态后,将其输出的隐藏状态与方面词嵌入拼接,对词语和方面之间的关系进行建模,从而加强方面词和上下文之间的依赖关系;该模型还使用多元注意力机制对结果进行修正,在计算出BLSTM的注意力权重后,分别生成句子在给定方面的加权向量,将其拼接起来对句子的加权向量进行修正,从而计算出当前句子序列的表示,提高对于上下文向量特征的捕获能力。
基于多元注意力修正的方面级情感分析建模方法,包括:
步骤1:将方面词分别与语句序列W的上文序列和下文序列拼接,得到嵌入后的上文序列WL和下文序列WR,具体为:
1.1将语句序列W=(w1,…,wl,wl+1,…,wr-1,wr,…,wm)中的词wi转换成低维的稠密实值向量
Figure BDA0003115565870000021
由词嵌入矩阵Wvec中的一个向量编码表示,i∈[1,…,m];所述语句序列W中,(w1,…,wl)为上文序列,(wr,…,wm)为下文序列,(wl+1,…,wr-1)为方面词序列,1≤l<r≤m;
1.2将方面词序列分别嵌入到上文序列和下文序列中,得到
WL=(w1,…,wl,wl+1,…,wr-1),WR=(wl+1,…,wr-1,wr,…,wm);
步骤2:利用双向长短期记忆网络BLSTM的前向LSTM和后向LSTM分别捕获WL和WR的语意信息,得到其隐藏状态HL和HR
Figure BDA0003115565870000022
其中,
Figure BDA0003115565870000023
Figure BDA0003115565870000024
为隐藏层状态在t时刻的输出,t∈[1,…,n];
步骤3:将方面词向量矩阵va分别与隐藏状态HL和HR拼接,得到新的隐藏状态ML和MR
Figure BDA0003115565870000025
其中,Wh与Wv为待学习的投影系数,en为n列的元向量;所述方面词向量矩阵va由方面词序列中所有词的稠密实值向量依序构成;
步骤4:多元注意力修正:
4.1计算上文和下文的注意力权重系数:
Figure BDA0003115565870000031
其中,wL是由上文序列中所有词的稠密实值向量依序构成的矩阵,
Figure BDA0003115565870000032
为其转置矩阵;wR是由下文序列中所有词的稠密实值向量依序构成的矩阵,
Figure BDA0003115565870000033
为其转置矩阵;
4.2使用隐藏状态和注意力权重系数进行修正,得到加权向量r:
Figure BDA0003115565870000034
4.3获取语句序列在方面词序列的表示h*
h*=tanh(Wpr+WxhN);
其中,Wp、Wx为待学习的投影系数,hN由HL和HR的最后一个输出向量组合得到;
4.4使用Softmax分类,得到情感极性分类结果y:
y=softmax(Wsh*+bs);
其中,Ws为待学习的投影系数,bs为偏置项。
与现有技术相比,本发明的有益效果为:
一是使用方面词嵌入方法将方面词嵌入到上下文序列与LSTM的隐藏状态中,加强方面词与上下文之间的依赖关系,从而确保情感分析是以当前方面词为中心的;二是将上下文独立拆分计算其在当前方面词的加权向量,拆分的两部分都包含了方面词,使两部分分别学习到方面词上下文的特征,然后再拼接起来修正句子序列的表示,从而提高分类的准确性。
附图说明
图1为本发明中方面级情感分析模型结构示意图。
具体实施方式
具体实施步骤如下所示:
步骤1:利用向量表示技术将上下文文本和方面词文本向量化,得到输入特征向量。
对于含有方面词语的文本语句,使用jieba分词器对其进行分词,依据哈工大停用词表去除停用词,使用word2vec词向量训练模型训练中文Wiki语料库得到中文Wiki词嵌入向量表,依据该词向量表使用向量化技术将每个词的词语特征和位置特征映射为低维的稠密实值向量,然后将方面词分别与上下文序列拼接,得到其输入特征向量。
(1)词向量:将长度为n的语句序列W=(w1,w2,…,wm)中的词wi转换成一个低维的稠密实值向量
Figure BDA0003115565870000035
词的词向量由词嵌入矩阵Wvec中一个向量编码表示,其中i∈[1,2,…,m]。
(2)方面词向量:对于语句序列W,其上下文序列与方面词之间的位置关系如下:
W=(w1,…,wl,wl+1,…,wr-1,wr,…,wm);
其中,(w1,…,wl)表示语句序列W中的上文序列,(wr,…,wm)表示语句序列W中的下文序列,(wl+1,…,wr-1)表示语句序列W中的方面词序列,其中1≤l<r≤m;然后将方面词分别嵌入到上下文序列中,其嵌入表示为:
WL=(w1,…,wl,wl+1,…,wr-1),
WR=(wl+1,…,wr-1,wr,…,wm)。
步骤2:利用双向长短期记忆网络分别捕获其上文语意信息与下文语意信息,得到其隐藏状态。
文本数据可以被视为具有前后依赖关系的序列数据,LSTM作为循环神经网络的一个变种,可以捕获数据的上下文依赖特征,适合处理序列数据。
BLSTM通过将一个前向LSTM网络和一个后向LSTM网络组合来学习文本语句的上下文信息;前向LSTM网络和后向LSTM网络均通过设置输入门i、遗忘门f和输出门o来控制信息流,并结合细胞状态c实现对历史信息的更新、取舍和存储;其中,前向LSTM网络的信息流包括当前时刻t的输入信息wt、前一时刻LSTM的隐藏层状态ht-1和前一时刻细胞状态ct-1
t时刻输入门it和遗忘门ft的计算方式为:
Figure BDA0003115565870000041
Figure BDA0003115565870000042
其中σ(·)表示sigmoid函数,
Figure BDA0003115565870000043
表示哈达玛(Hadamard)乘积,Wwi、Whi、Wci为输入门中需要学习的权重矩阵,bi为输入门的偏置向量,Wwf、Whf、Wcf为遗忘门中需要学习的权重矩阵,bf为遗忘门的偏置向量。
之后,获得当前时刻t的细胞状态ct,其计算方式为:
Figure BDA0003115565870000044
其中,tanh(·)表示双曲正切函数,Wwc、Whc为当前细胞状态中需要学习的权重矩阵,bc为当前细胞状态中的偏置向量。
接着,得到t时刻的输出门ot
Figure BDA0003115565870000045
其中,Wwo、Who、Wco为输出门中需要学习的权重矩阵,bo为输出门的偏置向量。
最后,通过将非线性变换后的当前时刻细胞状态ct与输出门ot进行哈达玛乘积操作,得到当前时刻LSTM的隐藏层状态输出
Figure BDA0003115565870000051
Figure BDA0003115565870000052
前向LSTM网络用方面词的上文信息。
后向LSTM网络的信息流包括当前时刻t的输入信息wt、后一时刻LSTM的隐藏层状态ht+1和后一时刻细胞状态ct+1,计算方式与前向LSTM网络相同,用于学习方面词的下文信息。
本发明的BLSTM分别将前向LSTM网络和后向LSTM网络的隐藏层状态输出独立进行拼接,得到前向LSTM的隐藏状态
Figure BDA0003115565870000053
和后向LSTM的隐藏状态
Figure BDA0003115565870000054
Figure BDA0003115565870000055
其中在t时刻的隐藏层状态输出分别为
Figure BDA0003115565870000056
Figure BDA0003115565870000057
具体为:
Figure BDA0003115565870000058
Figure BDA0003115565870000059
步骤3:将方面词与LSTM的隐藏状态拼接,得到新的隐藏状态M,具体为:
Figure BDA00031155658700000510
Figure BDA00031155658700000511
其中,M表示LSTM隐藏层输出和方面向量拼接后,通过一层神经网络得到的新的隐藏层输出,
Figure BDA00031155658700000512
表示将va连接n次,va表示方面词向量,en表示n列的元向量,
Figure BDA00031155658700000513
重复线性变换的va的次数和句子中单词的次数一样多,Wh与Wv表示待学习的投影系数。
步骤4:利用注意力机制,使用方面向量和隐藏状态拼接后生成的新的隐藏状态与上下文向量来计算注意力机制的权重,并根据注意力权重和LSTM隐藏状态向量得到当前句子在给定方面的加权向量,通过多元注意力修正进而得到句子在给定方面的表示,输入Softmax层得到分类结果。
传统的BLSTM使用正向LSTM和反向LSTM分别捕获其上下文特征后,分别输出LSTM的正向隐藏状态和反向隐藏状态,然后拼接其隐藏状态得到BLSTM最终的隐藏状态输出。但这种方法仅仅使用LSTM捕获了其上下文信息,其注意力权重的计算及句子的向量表示过程并未充分利用起来。本发明将句子依据方面词拆分为两部分,每部分都包含方面词,输入BLSTM得到正向隐藏状态和反向隐藏状态后,并未将其直接拼接,而是先将其与方面词进行拼接,对其依赖关系进行建模后,使用注意力机制分别计算生成的新的隐藏状态和上下文向量之间的注意力权重,使用注意力权重得到正向和逆向的句子向量表示,将其拼接起来修正当前句子在给定方面的向量表示,进而得到句子在给定方面的表示,在最大程度上捕获其上下文的特点,同时添加方面词建模确保任务是以当前方面词为中心进行的。
对步骤3中使用方面向量和隐藏状态拼接后生成的新的隐藏状态ML和MR,计算其与上下文向量w的注意力权重αL和αR
Figure BDA0003115565870000061
Figure BDA0003115565870000062
然后根据LSTM输出的隐藏状态H和注意力权重系数α计算并修正得到当前句子在给定方面的加权向量r:
Figure BDA0003115565870000063
Figure BDA0003115565870000064
Figure BDA0003115565870000065
最后得到句子在给定方面的表示h*
h*=tanh(Wpr+WxhN);
将其输入Softmax层得到分类结果输出y:
y=softmax(Wsh*+bs);
其中,hN由HL和HR的最后一个输出向量组合得到;Wp、Wx、Ws表示待学习的投影系数,bs表示偏置项。
为了验证本发明的有效性,本发明在SemEval 2014的Restaurant数据集、Laptop数据集以及中文评论数据集上与5个方面级情感分析基线模型进行了对比实验,5个对比模型如下:
(1)TD-LSTM模型:将上下文拆分为独立两部分使用BLSTM单独捕获其上下文特征。
(2)ATAE-LSTM模型:在LSTM-ATT模型的基础上添加了方面词嵌入,在上下文和LSTM的隐藏向量处添加了方面词嵌入。
(3)IAN模型:将上下文拆分为独立两部分使用BLSTM输出其隐藏状态,然后交叉计算其注意力权重来增强上下文与方面词之间的联系。
(4)MEMNET模型:使用BLSTM和局部权重记忆模块实现方面级情感分析,具有长期记忆、深层网络、多任务处理等特点,可以加快模型的训练速度。
(5)AOA模型:将上下文和方面词拆分为两部分,分别输入BLSTM得到其隐藏状态后再进行拼接,从而增强上下文与方面词之间的联系。
评价指标采用准确率(Accuracy)和F1值(F1-Score),设rm为预设关系集合R=(r1,r2,…,rk)中的一个关系类型,其中m∈[1,2,…,k],将给定的标注结果作为真实关系标签,计算公式如下:
Figure BDA0003115565870000071
Figure BDA0003115565870000072
Figure BDA0003115565870000073
Figure BDA0003115565870000074
其中TPm表示模型预测的关系类型为rm且真实类型也为rm的样本数量,FPm表示预测类型为rm但真实类型不为rm的样本数量,FNm表示预测类型不为rm但真实类型为rm的样本数量,TPm+FPm表示预测类型为rm的样本数量,TPm+FNm表示真实类型为rm的样本数量,TPm+TNm表示正确预测的样本数量,TPm+FNm+TNm+FPm表示样本总数。
然后,采用加权平均的方式计算模型整体的准确率和F1值,以此作为模型整体的评价指标。加权平均的计算方式为:将各关系类型的准确率、F1值与对应的关系标签在样本中的比例相乘,然后将所有关系类型相加,具体的计算公式如下:
Figure BDA0003115565870000075
Figure BDA0003115565870000076
其中Wm为第m类关系类型在样本中所占的比例。实验结果如表1所示:
表1实验结果
Figure BDA0003115565870000077
实验结果表明,本发明提出的基于多元注意力修正的方面级情感分析模型(Multiple Attention Correction Model,MACM)在上述数据集上均取得了优于基线模型的效果,为最优效果。

Claims (1)

1.基于多元注意力修正的方面级情感分析建模方法,其特征在于,包括:
步骤1:将方面词分别与语句序列W的上文序列和下文序列拼接,得到嵌入后的上文序列WL和下文序列WR,具体为:
1.1将语句序列W=(w1,...,wl,wl+1,...,wr-1,wr,...,wm)中的词wi转换成低维的稠密实值向量
Figure FDA0003115565860000011
由词嵌入矩阵Wvec中的一个向量编码表示,i∈[1,...,m];所述语句序列W中,(w1,...,wl)为上文序列,(wr,...,wm)为下文序列,(wl+1,...,wr-1)为方面词序列,1≤l<r≤m;
1.2将方面词序列分别嵌入到上文序列和下文序列中,得到
WL=(w1,...,wl,wl+1,...,wr-1),WR=(wl+1,...,wr-1,wr,...,wm);
步骤2:利用双向长短期记忆网络BLSTM的前向LSTM和后向LSTM分别捕获WL和WR的语意信息,得到其隐藏状态HL和HR
Figure FDA0003115565860000012
其中,
Figure FDA0003115565860000013
Figure FDA0003115565860000014
为隐藏层状态在t时刻的输出,t∈[1,...,n];
步骤3:将方面词向量矩阵va分别与隐藏状态HL和HR拼接,得到新的隐藏状态ML和MR
Figure FDA0003115565860000015
其中,Wh与Wv为待学习的投影系数,en为n列的元向量;所述方面词向量矩阵va由方面词序列中所有词的稠密实值向量依序构成;
步骤4:多元注意力修正:
4.1计算上文和下文的注意力权重系数:
Figure FDA0003115565860000016
其中,wL是由上文序列中所有词的稠密实值向量依序构成的矩阵,
Figure FDA0003115565860000017
为其转置矩阵;wR是由下文序列中所有词的稠密实值向量依序构成的矩阵,
Figure FDA0003115565860000018
为其转置矩阵;
4.2使用隐藏状态和注意力权重系数进行修正,得到加权向量r:
Figure FDA0003115565860000019
4.3获取语句序列在方面词序列的表示h*
h*=tanh(Wpr+WxhN);
其中,Wp、Wx为待学习的投影系数,hN由HL和HR的最后一个输出向量组合得到;
4.4使用Softmax分类,得到情感极性分类结果y:
y=softmax(Wsh*+bs);
其中,Ws为待学习的投影系数,bs为偏置项。
CN202110672328.8A 2021-06-15 2021-06-15 基于多元注意力修正的方面级情感分析建模方法 Pending CN113361617A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110672328.8A CN113361617A (zh) 2021-06-15 2021-06-15 基于多元注意力修正的方面级情感分析建模方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110672328.8A CN113361617A (zh) 2021-06-15 2021-06-15 基于多元注意力修正的方面级情感分析建模方法

Publications (1)

Publication Number Publication Date
CN113361617A true CN113361617A (zh) 2021-09-07

Family

ID=77534555

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110672328.8A Pending CN113361617A (zh) 2021-06-15 2021-06-15 基于多元注意力修正的方面级情感分析建模方法

Country Status (1)

Country Link
CN (1) CN113361617A (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113792148A (zh) * 2021-11-15 2021-12-14 成都晓多科技有限公司 一种基于序列到序列的评论方面类别检测方法及系统
CN114579710A (zh) * 2022-03-15 2022-06-03 西南交通大学 一种高速列车问题查询模板生成方法
CN114936623A (zh) * 2022-04-20 2022-08-23 西北工业大学 一种融合多模态数据的方面级情感分析方法
WO2023103914A1 (zh) * 2021-12-07 2023-06-15 中兴通讯股份有限公司 文本情感分析方法、装置及计算机可读存储介质
CN116955210A (zh) * 2023-09-19 2023-10-27 北京普太科技有限公司 一种测试用例的生成方法、装置、电子设备及存储介质

Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108363753A (zh) * 2018-01-30 2018-08-03 南京邮电大学 评论文本情感分类模型训练与情感分类方法、装置及设备
CN109710761A (zh) * 2018-12-21 2019-05-03 中国标准化研究院 基于注意力增强的双向lstm模型的情感分析方法
CN110517121A (zh) * 2019-09-23 2019-11-29 重庆邮电大学 基于评论文本情感分析的商品推荐方法及商品推荐装置
CN110619044A (zh) * 2019-08-16 2019-12-27 华南师范大学 一种情感分析方法、系统、存储介质及设备
CN110781273A (zh) * 2019-09-17 2020-02-11 华东交通大学 文本数据处理方法、装置、电子设备及存储介质
US20200073937A1 (en) * 2018-08-30 2020-03-05 International Business Machines Corporation Multi-aspect sentiment analysis by collaborative attention allocation
CN111259147A (zh) * 2020-01-19 2020-06-09 山东大学 基于自适应注意力机制的句子级情感预测方法及系统
CN111539376A (zh) * 2020-05-11 2020-08-14 南京林业大学 一种基于视频图像的多模态情感识别系统及方法
CN111858944A (zh) * 2020-07-31 2020-10-30 电子科技大学 一种基于注意力机制的实体方面级情感分析方法
CN112256876A (zh) * 2020-10-26 2021-01-22 南京工业大学 基于多记忆注意力网络的方面级情感分类模型
CN112347251A (zh) * 2020-11-03 2021-02-09 青岛理工大学 一种基于注意力机制和双向lstm方面情感分析系统
CN112434161A (zh) * 2020-11-24 2021-03-02 哈尔滨工程大学 一种采用双向长短期记忆网络的方面级情感分析方法
CN112667816A (zh) * 2020-12-31 2021-04-16 华中师范大学 一种基于深度学习的方面级情感分析方法及系统
CN112861522A (zh) * 2021-02-01 2021-05-28 合肥工业大学 基于双重注意力机制的方面级情感分析方法、系统及模型

Patent Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108363753A (zh) * 2018-01-30 2018-08-03 南京邮电大学 评论文本情感分类模型训练与情感分类方法、装置及设备
US20200073937A1 (en) * 2018-08-30 2020-03-05 International Business Machines Corporation Multi-aspect sentiment analysis by collaborative attention allocation
CN109710761A (zh) * 2018-12-21 2019-05-03 中国标准化研究院 基于注意力增强的双向lstm模型的情感分析方法
CN110619044A (zh) * 2019-08-16 2019-12-27 华南师范大学 一种情感分析方法、系统、存储介质及设备
CN110781273A (zh) * 2019-09-17 2020-02-11 华东交通大学 文本数据处理方法、装置、电子设备及存储介质
CN110517121A (zh) * 2019-09-23 2019-11-29 重庆邮电大学 基于评论文本情感分析的商品推荐方法及商品推荐装置
CN111259147A (zh) * 2020-01-19 2020-06-09 山东大学 基于自适应注意力机制的句子级情感预测方法及系统
CN111539376A (zh) * 2020-05-11 2020-08-14 南京林业大学 一种基于视频图像的多模态情感识别系统及方法
CN111858944A (zh) * 2020-07-31 2020-10-30 电子科技大学 一种基于注意力机制的实体方面级情感分析方法
CN112256876A (zh) * 2020-10-26 2021-01-22 南京工业大学 基于多记忆注意力网络的方面级情感分类模型
CN112347251A (zh) * 2020-11-03 2021-02-09 青岛理工大学 一种基于注意力机制和双向lstm方面情感分析系统
CN112434161A (zh) * 2020-11-24 2021-03-02 哈尔滨工程大学 一种采用双向长短期记忆网络的方面级情感分析方法
CN112667816A (zh) * 2020-12-31 2021-04-16 华中师范大学 一种基于深度学习的方面级情感分析方法及系统
CN112861522A (zh) * 2021-02-01 2021-05-28 合肥工业大学 基于双重注意力机制的方面级情感分析方法、系统及模型

Non-Patent Citations (7)

* Cited by examiner, † Cited by third party
Title
DUYU TANG 等: "Effective LSTMs for Target-Dependent Sentiment Classification", 《ARXIV》 *
HUAISHAO LUO 等: "Improving Aspect Term Extraction With Bidirectional Dependency Tree Representation", 《IEEE/ACM TRANSACTIONS ON AUDIO, SPEECH, AND LANGUAGE PROCESSING》 *
XINBO WANG 等: "Dependency-Attention-Based LSTM for Target-Dependent Sentiment Analysis", 《SMP 2017》 *
YEQUAN WANG 等: "Attention-based LSTM for Aspect-level Sentiment Classification", 《PROCEEDINGS OF THE 2016 CONFERENCE ON EMPIRICAL METHODS IN NATURAL LANGUAGE PROCESSING》 *
张严 等: "面向评论的方面级情感分析综述", 《计算机科学》 *
支淑婷 等: "基于多注意力长短时记忆的实体属性情感分析", 《计算机应用》 *
费文曲: "基于位置感知交叉注意力网络的方面情感分析", 《信息通信》 *

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113792148A (zh) * 2021-11-15 2021-12-14 成都晓多科技有限公司 一种基于序列到序列的评论方面类别检测方法及系统
CN113792148B (zh) * 2021-11-15 2022-02-11 成都晓多科技有限公司 一种基于序列到序列的评论方面类别检测方法及系统
WO2023103914A1 (zh) * 2021-12-07 2023-06-15 中兴通讯股份有限公司 文本情感分析方法、装置及计算机可读存储介质
CN114579710A (zh) * 2022-03-15 2022-06-03 西南交通大学 一种高速列车问题查询模板生成方法
CN114579710B (zh) * 2022-03-15 2023-04-25 西南交通大学 一种高速列车问题查询模板生成方法
CN114936623A (zh) * 2022-04-20 2022-08-23 西北工业大学 一种融合多模态数据的方面级情感分析方法
CN114936623B (zh) * 2022-04-20 2024-02-27 西北工业大学 一种融合多模态数据的方面级情感分析方法
CN116955210A (zh) * 2023-09-19 2023-10-27 北京普太科技有限公司 一种测试用例的生成方法、装置、电子设备及存储介质
CN116955210B (zh) * 2023-09-19 2024-01-19 北京普太科技有限公司 一种测试用例的生成方法、装置、电子设备及存储介质

Similar Documents

Publication Publication Date Title
CN109284506B (zh) 一种基于注意力卷积神经网络的用户评论情感分析系统及方法
CN109753566B (zh) 基于卷积神经网络的跨领域情感分析的模型训练方法
CN113361617A (zh) 基于多元注意力修正的方面级情感分析建模方法
CN112579778B (zh) 基于多层次的特征注意力的方面级情感分类方法
Saha et al. Towards emotion-aided multi-modal dialogue act classification
WO2023024412A1 (zh) 基于深度学习模型的视觉问答方法及装置、介质、设备
CN112733541A (zh) 基于注意力机制的BERT-BiGRU-IDCNN-CRF的命名实体识别方法
CN110647612A (zh) 一种基于双视觉注意力网络的视觉对话生成方法
CN113051916B (zh) 一种社交网络中基于情感偏移感知的交互式微博文本情感挖掘方法
CN111382565A (zh) 基于多标签的情绪-原因对抽取方法及系统
CN111460132B (zh) 一种基于图卷积神经网络的生成式会议摘要方法
CN111274398A (zh) 一种方面级用户产品评论情感分析方法及系统
CN112667818A (zh) 融合gcn与多粒度注意力的用户评论情感分析方法及系统
CN111897954B (zh) 一种用户评论方面挖掘系统、方法、及存储介质
CN112256876A (zh) 基于多记忆注意力网络的方面级情感分类模型
CN115392259B (zh) 一种基于对抗训练融合bert的微博文本情感分析方法及系统
CN112434161B (zh) 一种采用双向长短期记忆网络的方面级情感分析方法
CN113065344A (zh) 一种基于迁移学习和注意力机制的跨语料库情感识别方法
CN110851601A (zh) 基于分层注意力机制的跨领域情感分类系统及方法
Zhang et al. A BERT fine-tuning model for targeted sentiment analysis of Chinese online course reviews
CN112287106A (zh) 一种基于双通道混合神经网络的在线评论情感分类方法
Cabada et al. Mining of educational opinions with deep learning
CN115630156A (zh) 一种融合Prompt和SRU的蒙古语情感分析方法与系统
CN114648031A (zh) 基于双向lstm和多头注意力机制的文本方面级情感识别方法
CN115906816A (zh) 一种基于Bert的双通道Attention模型的文本情感分析方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20210907

WD01 Invention patent application deemed withdrawn after publication