CN112231478B - 基于bert和多层注意力机制的方面级情感分类方法 - Google Patents

基于bert和多层注意力机制的方面级情感分类方法 Download PDF

Info

Publication number
CN112231478B
CN112231478B CN202011142297.7A CN202011142297A CN112231478B CN 112231478 B CN112231478 B CN 112231478B CN 202011142297 A CN202011142297 A CN 202011142297A CN 112231478 B CN112231478 B CN 112231478B
Authority
CN
China
Prior art keywords
word
datacontext
layer
matrix
dataaspect
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011142297.7A
Other languages
English (en)
Other versions
CN112231478A (zh
Inventor
廖伟智
黄鹏伟
阴艳超
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Electronic Science and Technology of China
Original Assignee
University of Electronic Science and Technology of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Electronic Science and Technology of China filed Critical University of Electronic Science and Technology of China
Priority to CN202011142297.7A priority Critical patent/CN112231478B/zh
Publication of CN112231478A publication Critical patent/CN112231478A/zh
Application granted granted Critical
Publication of CN112231478B publication Critical patent/CN112231478B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • G06F16/355Class or cluster creation or modification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/12Use of codes for handling textual entities
    • G06F40/126Character encoding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • G06F40/216Parsing using statistical methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/284Lexical analysis, e.g. tokenisation or collocates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Abstract

本发明公开了一种基于BERT和多层注意力机制的方面级情感分类方法,包括以下步骤:S1、对训练语料进行预处理;S2、建立基于多层attention的方面级别情感分类模型;S3、使用训练好的分类模型对待预测的数据进行情感分类。本发明使用多层Attention机制,充分挖掘aspcet词与DataContext词的相关性,能够有效提高方面级情感分类的精度。

Description

基于BERT和多层注意力机制的方面级情感分类方法
技术领域
本发明涉及一种基于BERT和多层注意力机制的方面级情感分类方法。
背景技术
随着社交网络和电商平台的兴起与发展,人们更喜欢在网上发表自己的评论,例如在京东、淘宝上对商品的评价,美团、饿了吗上对食品的评价,这些评价信息对于商家具有宝贵的价值。一条评论中可能包含对多个方面的评价,如何快速得到方面词的情感极性,成为目前自然语言处理领域的一个重要研究方向。
目前主要有以下两种处理方法:
1、基于传统机器学习的方法,例如支持向量机(SVM)、logistic回归,是通过提取依赖于语料库实现方面的特征提取,需要人工针对数据设计特征,模型的质量取决于特征设计的质量。而且这类方法并没有考虑单词的语义信息及上下文信息,还会造成数据维度灾难,准确性也不高。
2、基于深度学习的方法,这类方法将深度学习,例如全连接神经网络、卷积神经网络(CNN)、循环神经网络(RNN)、长短时记忆网络(LSTM)等应用到方面级情感分类中。使用深度学习的方法弥补了传统机器学习方法的缺点,比如:不需要人工设计特征。但这些方法未能充分提取语义信息。另外注意力机制(Attention)在方面级情感分析中也得到了广泛应用,取得了不错的效果,但对于具有多个单词组成的方面(Aspect)词,Aspect词中的不同单词对于结果的贡献也是不一样的,而这类方法却忽略了这一点。
现有技术主要存在以下缺点:
(1)基于传统机器学习的方法需要人工设计复杂的特征,非常耗费时间。
(2)现有的基于深度学习的方法大多采用RNN来提取语义信息,例如:LSTN、CNN,虽然取得了不错的效果,但相比BERT来提取语义信息,还是具有一定的差距。
(3)目前采用Attention机制的模型是计算Aspect整体对于Context词的attention,没有考虑Aspect中单个词对Context词的attention,容易导致信息丢失。
发明内容
本发明的目的在于克服现有技术的不足,提供一种使用多层Attention机制,充分挖掘aspcet词与DataContext词的相关性,能够有效提高方面级情感分类的精度的基于BERT和多层注意力机制的方面级情感分类方法。
本发明的目的是通过以下技术方案来实现的:基于BERT和多层注意力机制的方面级情感分类方法,包括以下步骤:
S1、对训练语料进行预处理;
S2、建立基于多层attention的方面级别情感分类模型;
S3、使用训练好的分类模型对待预测的数据进行情感分类。
进一步地,所述步骤S1包括以下子步骤:
S11、从训练语料数据中提取每一条评论中的Aspect词,得到Aspect词集合DataAspect;
S12、从训练语料数据中提取每一个Aspect词对应的一条评论,得到集合DataContext;
S13、统计Aspect词与对应语料的情感极性,1代表积极,0代表中性,-1代表消极,得到标签集合LableSet;
S14、对DataContext进行位置符号处理,在每一条语料的Aspect词左边加入位置符号<a>,右边加入位置符号</a>,然后作为训练数据并保存。
进一步地,所述多层attention的方面级别情感分类模型包括依次连接的词向量层、语义编码层、多层注意力层和输出层;
词向量层:使用预训练的词向量Gensim,将语料转化为神经网络能够处理的词向量;
语义编码层:本层使用Google预训练好的BERT-Base,Cased模型,得到语义编码向量,再将向量按从左到右的顺序拼接成一个语义编码矩阵;
多层注意力层:使用两层注意力机制:
第一层注意力机制用于捕捉DataAspect中单词与DataContext中每个单词的相关性,以及DataContext中单词与DataAspect中每个单词的相关性;
具体实现方法为:通过语义编码层输出的语义编码向量Hc和语义编码矩阵Ht,计算交互矩阵U:U=HcHtT,其中HtT表示对Ht的转置;U矩阵中的一个元素Uij表示DataContext中第i个单词和DataAspect中的第j个单词的相关度;
给U矩阵乘以一个矩阵Wac∈Rm×m,Wac是一个随机初始化的权重矩阵,参数待训练矩阵,Rm×m表示Wac矩阵的维度大小,表示Wac矩阵有m行m列;然后再用激活函数relu进行处理,具体操作方法为:由于采用固定长度的DataContext和DataAspect词序列,当序列不够时用0进行补位,为了消除补0操作对计算注意力权重带来的影响,进行mask操作,将矩阵中补0位置的值全部赋值为负无穷大,消除softmax函数操作带来的误差;mask操作计算方式如下:
Aac=mask(relu(UWac));
为了关注DataAspect词中对DataContext中第i个单词的重要程度,按Aac矩阵的第二维来做softmax操作,计算如下:
Figure BDA0002737343590000031
然后将相关性权重
Figure BDA0002737343590000032
和对应位置的Uij相乘并相加,得到
Figure BDA0002737343590000033
表示DataAspect词和DataContext中第i个单词的相关性,最终得到DataAspect关于DataContext中每个单词的相关性得分向量Mac∈Rn,计算如下:
Figure BDA0002737343590000034
Figure BDA0002737343590000035
DataContext关于DataAspect中每个单词的相关性分量为
Figure BDA0002737343590000036
第二次层注意力机制用于根据DataAspect关于DataContext中每个单词的相关性得分向量Mac,找出DataContext中对于情感极性预测更重要的词;根据DataContext关于DataAspect中每个单词的相关性得分向量Mca,找出DataAspect中对于情感极性预测更重要的词;
首先对Mca进行mask处理,消除补0对结果的影响,再对mask处理过的Mac进行softmax操作,得到DataContext中各个单词的注意力权重
Figure BDA0002737343590000037
再将
Figure BDA0002737343590000038
和Hc的第i个向量
Figure BDA0002737343590000039
相乘再叠加,得到DataContext对于情感极性预测的最终向量表示
Figure BDA00027373435900000310
计算如下:
mask(Mac)
Figure BDA00027373435900000311
Figure BDA00027373435900000312
同样地,得到DataAspect对于情感极性预测的最终向量表示
Figure BDA00027373435900000313
计算如下:
mask(Mca)
Figure BDA00027373435900000314
Figure BDA00027373435900000315
输出层:将mc和ma拼接起来,得到最终情感极性预测的向量表示
Figure BDA00027373435900000316
再将m经过全连接层处理得到最终标签的预测分布p,具体计算如下:
m=[mc,ma]
p=soft max(W*m+b)
其中,
Figure BDA00027373435900000317
为一个可训练的参数矩阵,b∈Rc为偏置,C为方面级情感分类的类别数。
本发明的有益效果是:本发明使用多层Attention机制,充分挖掘aspcet词与DataContext词的相关性,能够有效提高方面级情感分类的精度;无需人工设计特征,能够提高分类结果的准确性。
附图说明
图1为本发明的方面级情感分类方法的流程图;
图2为本发明的多层attention的方面级别情感分类模型的结构示意图。
具体实施方式
下面结合附图进一步说明本发明的技术方案。
如图1所示,本发明的基于BERT和多层注意力机制的方面级情感分类方法,包括以下步骤:
S1、对训练语料进行预处理;包括以下子步骤:
S11、从训练语料数据中提取每一条评论中的Aspect词(一条语料中可能含有多个Aspect词),得到Aspect词集合DataAspect;
S12、从训练语料数据中提取每一个Aspect词对应的一条评论,得到集合DataContext;
S13、统计Aspect词与对应语料的情感极性,1代表积极(positive),0代表中性(neutral),-1代表消极(negative),得到标签集合LableSet;
S14、对DataContext进行位置符号处理,在每一条语料的Aspect词左边加入位置符号<a>,右边加入位置符号</a>,然后作为训练数据并保存。
S2、建立基于多层attention的方面级别情感分类模型;
如图2所示,本发明的多层attention的方面级别情感分类模型包括依次连接的词向量层、语义编码层、多层注意力层和输出层;
词向量层:使用预训练的词向量Gensim,将语料转化为神经网络能够处理的词向量;例如训练数据中的某一条评论的DataContext表示为
Figure BDA0002737343590000041
与之对应的DataAspect表示为
Figure BDA0002737343590000042
经过Input Embedding Layer分别将两个向量转化为
Figure BDA0002737343590000043
其中n为DataContext的长度,m为DataAspect的长度,dv为词向量维度。
语义编码层(即图中Bert层):本层使用Google预训练好的BERT-Base,Cased模型,得到语义编码向量,再将向量按从左到右的顺序拼接成一个语义编码矩阵;将
Figure BDA0002737343590000044
Figure BDA0002737343590000045
输入到语义编码层中,得到n个单词的语义编码向量,再将向量按从左到右的顺序拼接成一个语义编码矩阵
Figure BDA0002737343590000046
其中dh为语义编码层的隐单元个数,本层中dh=768。同样的,我们可以得到
Figure BDA0002737343590000047
的语义编码矩阵
Figure BDA0002737343590000048
多层注意力层:使用两层注意力机制:
第一层注意力机制用于捕捉DataAspect中单词与DataContext中每个单词的相关性,以及DataContext中单词与DataAspect中每个单词的相关性;
具体实现方法为:通过语义编码层输出的语义编码向量Hc和语义编码矩阵Ht,计算交互矩阵U:U=HcHtT,其中HtT表示对Ht的转置;U矩阵中的一个元素Uij表示DataContext中第i个单词和DataAspect中的第j个单词的相关度;
给U矩阵乘以一个矩阵Wac∈Rm×m,Wac是一个随机初始化的权重矩阵,参数待训练矩阵,Rm×m表示Wac矩阵的维度大小,表示Wac矩阵有m行m列;然后再用激活函数relu进行处理,具体操作方法为:由于采用固定长度的DataContext和DataAspect词序列,当序列不够时用0进行补位,为了消除补0操作对计算注意力权重带来的影响,进行mask操作,将矩阵中补0位置的值全部赋值为负无穷大,消除softmax函数操作带来的误差;mask操作计算方式如下:
Aac=mask(relu(UWac));
为了关注DataAspect词中对DataContext中第i个单词的重要程度,按Aac矩阵的第二维来做softmax操作,计算如下:
Figure BDA0002737343590000051
然后将相关性权重
Figure BDA0002737343590000052
和对应位置的Uij相乘并相加,得到
Figure BDA0002737343590000053
表示DataAspect词和DataContext中第i个单词的相关性,最终得到DataAspect关于DataContext中每个单词的相关性得分向量Mac∈Rn,计算如下:
Figure BDA0002737343590000054
Figure BDA0002737343590000055
DataContext关于DataAspect中每个单词的相关性分量为
Figure BDA0002737343590000056
Figure BDA0002737343590000057
第二次层注意力机制用于根据DataAspect关于DataContext中每个单词的相关性得分向量Mac,找出DataContext中对于情感极性预测更重要的词;根据DataContext关于DataAspect中每个单词的相关性得分向量Mca,找出DataAspect中对于情感极性预测更重要的词;
首先对Mca进行mask处理,消除补0对结果的影响,再对mask处理过的Mac进行softmax操作,得到DataContext中各个单词的注意力权重
Figure BDA0002737343590000058
再将
Figure BDA0002737343590000059
和Hc的第i个向量
Figure BDA00027373435900000510
相乘再叠加,得到DataContext对于情感极性预测的最终向量表示
Figure BDA0002737343590000061
计算如下:
mask(Mac)
Figure BDA0002737343590000062
Figure BDA0002737343590000063
同样地,得到DataAspect对于情感极性预测的最终向量表示
Figure BDA0002737343590000064
计算如下:
mask(Mca)
Figure BDA0002737343590000065
Figure BDA0002737343590000066
输出层:将mc和ma拼接起来,得到最终情感极性预测的向量表示
Figure BDA0002737343590000067
再将m经过全连接层处理得到最终标签的预测分布p,具体计算如下:
m=[mc,ma]
p=soft max(W*m+b)
其中,
Figure BDA0002737343590000068
为一个可训练的参数矩阵,b∈Rc为偏置,C为方面级情感分类的类别数。
训练模型参数:
将步骤S1中得到的数据训练数据作为模型的输入,并使用交叉熵函数作为损失函数,采用Adam算法训练模型参数,当模型产生的损失值满足设定要求或者达最大迭代次数时,终止模型训练。
S3、使用训练好的分类模型对待预测的数据进行情感分类,将预测数据中的context和aspect输入到训练好的模型中,进行情感分类。
本领域的普通技术人员将会意识到,这里所述的实施例是为了帮助读者理解本发明的原理,应被理解为本发明的保护范围并不局限于这样的特别陈述和实施例。本领域的普通技术人员可以根据本发明公开的这些技术启示做出各种不脱离本发明实质的其它各种具体变形和组合,这些变形和组合仍然在本发明的保护范围内。

Claims (1)

1.基于BERT和多层注意力机制的方面级情感分类方法,其特征在于,包括以下步骤:
S1、对训练语料进行预处理;包括以下子步骤:
S11、从训练语料数据中提取每一条评论中的Aspect词,得到Aspect词集合DataAspect;
S12、从训练语料数据中提取每一个Aspect词对应的一条评论,得到集合DataContext;
S13、统计Aspect词与对应语料的情感极性,1代表积极,0代表中性,-1代表消极,得到标签集合LableSet;
S14、对DataContext进行位置符号处理,在每一条语料的Aspect词左边加入位置符号<a>,右边加入位置符号</a>,然后作为训练数据并保存;
S2、建立基于多层attention的方面级别情感分类模型;所述多层attention的方面级别情感分类模型包括依次连接的词向量层、语义编码层、多层注意力层和输出层;
词向量层:使用预训练的词向量Gensim,将语料转化为神经网络能够处理的词向量;
语义编码层:本层使用Google预训练好的BERT-Base,Cased模型,得到语义编码向量,再将向量按从左到右的顺序拼接成一个语义编码矩阵;
多层注意力层:使用两层注意力机制:
第一层注意力机制用于捕捉DataAspect中单词与DataContext中每个单词的相关性,以及DataContext中单词与DataAspect中每个单词的相关性;
具体实现方法为:通过语义编码层输出的语义编码向量Hc和语义编码矩阵Ht,计算交互矩阵U:U=HcHtT,其中HtT表示对Ht的转置;U矩阵中的一个元素Uij表示DataContext中第i个单词和DataAspect中的第j个单词的相关度;
给U矩阵乘以一个矩阵Wac∈Rm×m,Wac是一个随机初始化的权重矩阵,参数待训练矩阵,Rm ×m表示Wac矩阵的维度大小,表示Wac矩阵有m行m列;然后再用激活函数relu进行处理,具体操作方法为:由于采用固定长度的DataContext和DataAspect词序列,当序列不够时用0进行补位,为了消除补0操作对计算注意力权重带来的影响,进行mask操作,将矩阵中补0位置的值全部赋值为负无穷大,消除softmax函数操作带来的误差;mask操作计算方式如下:
Aac=mask(relu(UWac));
为了关注DataAspect词中对DataContext中第i个单词的重要程度,按Aac矩阵的第二维来做softmax操作,计算如下:
Figure FDA0003623285350000011
然后将相关性权重
Figure FDA0003623285350000021
和对应位置的Uij相乘并相加,得到
Figure FDA0003623285350000022
Figure FDA0003623285350000023
表示DataAspect词和DataContext中第i个单词的相关性,最终得到DataAspect关于DataContext中每个单词的相关性得分向量Mac∈Rn,计算如下:
Figure FDA0003623285350000024
Figure FDA0003623285350000025
DataContext关于DataAspect中每个单词的相关性分量为
Figure FDA0003623285350000026
Figure FDA0003623285350000027
第二次层注意力机制用于根据DataAspect关于DataContext中每个单词的相关性得分向量Mac,找出DataContext中对于情感极性预测更重要的词;根据DataContext关于DataAspect中每个单词的相关性得分向量Mca,找出DataAspect中对于情感极性预测更重要的词;
首先对Mca进行mask处理,消除补0对结果的影响,再对mask处理过的Mac进行softmax操作,得到DataContext中各个单词的注意力权重
Figure FDA0003623285350000028
再将
Figure FDA0003623285350000029
和Hc的第i个向量
Figure FDA00036232853500000210
相乘再叠加,得到DataContext对于情感极性预测的最终向量表示
Figure FDA00036232853500000211
计算如下:
mask(Mac)
Figure FDA00036232853500000212
Figure FDA00036232853500000213
同样地,得到DataAspect对于情感极性预测的最终向量表示
Figure FDA00036232853500000214
计算如下:
mask(Mca)
Figure FDA00036232853500000215
Figure FDA00036232853500000216
输出层:将mc和ma拼接起来,得到最终情感极性预测的向量表示
Figure FDA00036232853500000217
再将m经过全连接层处理得到最终标签的预测分布p,具体计算如下:
Tn=[mc,ma]
p=soft max(W*m+b)
其中,
Figure FDA00036232853500000218
为一个可训练的参数矩阵,b∈Rc为偏置,C为方面级情感分类的类别数;
S3、使用训练好的分类模型对待预测的数据进行情感分类。
CN202011142297.7A 2020-10-22 2020-10-22 基于bert和多层注意力机制的方面级情感分类方法 Active CN112231478B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011142297.7A CN112231478B (zh) 2020-10-22 2020-10-22 基于bert和多层注意力机制的方面级情感分类方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011142297.7A CN112231478B (zh) 2020-10-22 2020-10-22 基于bert和多层注意力机制的方面级情感分类方法

Publications (2)

Publication Number Publication Date
CN112231478A CN112231478A (zh) 2021-01-15
CN112231478B true CN112231478B (zh) 2022-06-24

Family

ID=74110732

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011142297.7A Active CN112231478B (zh) 2020-10-22 2020-10-22 基于bert和多层注意力机制的方面级情感分类方法

Country Status (1)

Country Link
CN (1) CN112231478B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112507628B (zh) * 2021-02-03 2021-07-02 北京淇瑀信息科技有限公司 基于深度双向语言模型的风险预测方法、装置和电子设备
CN113032570A (zh) * 2021-04-12 2021-06-25 武汉工程大学 一种基于ATAE-BiGRU的文本方面情感分类方法及系统
CN113705238B (zh) * 2021-06-17 2022-11-08 梧州学院 基于bert和方面特征定位模型的方面级情感分析方法及系统
CN113468292A (zh) * 2021-06-29 2021-10-01 中国银联股份有限公司 方面级情感分析方法、装置及计算机可读存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109597997A (zh) * 2018-12-07 2019-04-09 上海宏原信息科技有限公司 基于评论实体、方面级情感分类方法和装置及其模型训练
CN110147452A (zh) * 2019-05-17 2019-08-20 北京理工大学 一种基于层级bert神经网络的粗粒度情感分析方法
CN111310474A (zh) * 2020-01-20 2020-06-19 桂林电子科技大学 基于激活-池化增强bert模型的在线课程评论情感分析方法
CN111428039A (zh) * 2020-03-31 2020-07-17 中国科学技术大学 一种方面级别的跨领域情感分类方法及系统

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8655939B2 (en) * 2007-01-05 2014-02-18 Digital Doors, Inc. Electromagnetic pulse (EMP) hardened information infrastructure with extractor, cloud dispersal, secure storage, content analysis and classification and method therefor

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109597997A (zh) * 2018-12-07 2019-04-09 上海宏原信息科技有限公司 基于评论实体、方面级情感分类方法和装置及其模型训练
CN110147452A (zh) * 2019-05-17 2019-08-20 北京理工大学 一种基于层级bert神经网络的粗粒度情感分析方法
CN111310474A (zh) * 2020-01-20 2020-06-19 桂林电子科技大学 基于激活-池化增强bert模型的在线课程评论情感分析方法
CN111428039A (zh) * 2020-03-31 2020-07-17 中国科学技术大学 一种方面级别的跨领域情感分类方法及系统

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Multi-Layer Content Interaction Through Quaternion Product for Visual Question Answering;Lei Shi 等;《ICASSP 2020 - 2020 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP)》;20200514;第4412-4413页 *
基于文本筛选和改进BERT的长文本方面级情感分析;王昆 等;《计算机应用》;20200608;第40卷(第10期);第2836-2837页 *

Also Published As

Publication number Publication date
CN112231478A (zh) 2021-01-15

Similar Documents

Publication Publication Date Title
CN112231478B (zh) 基于bert和多层注意力机制的方面级情感分类方法
CN109284506B (zh) 一种基于注意力卷积神经网络的用户评论情感分析系统及方法
CN109933664B (zh) 一种基于情感词嵌入的细粒度情绪分析改进方法
Zhang et al. Sentiment Classification Based on Piecewise Pooling Convolutional Neural Network.
Yu et al. Attention-based LSTM, GRU and CNN for short text classification
CN112667818B (zh) 融合gcn与多粒度注意力的用户评论情感分析方法及系统
CN111274398A (zh) 一种方面级用户产品评论情感分析方法及系统
CN108170848B (zh) 一种面向中国移动智能客服的对话场景分类方法
CN112131469A (zh) 一种基于评论文本的深度学习推荐方法
CN112131886A (zh) 一种文本的方面级别情感分析方法
CN113361617A (zh) 基于多元注意力修正的方面级情感分析建模方法
Chen et al. Deep neural networks for multi-class sentiment classification
CN113987167A (zh) 基于依赖感知图卷积网络的方面级情感分类方法及系统
Rauf et al. Using bert for checking the polarity of movie reviews
CN115730606A (zh) 一种基于bert模型以及注意力集中网络的细粒度情感分析方法
CN114036298A (zh) 一种基于图卷积神经网络与词向量的节点分类方法
Joshi et al. Res-cnn-bilstm network for overcoming mental health disturbances caused due to cyberbullying through social media
CN112231476A (zh) 一种改进的图神经网络科技文献大数据分类方法
CN112560440A (zh) 一种基于深度学习的面向方面级情感分析的句法依赖方法
CN116775880A (zh) 一种基于标签语义和迁移学习的多标签文本分类方法及系统
CN116204644A (zh) 一种基于VAE和Attention的主题增强文本情感分类方法
Li et al. Dual-channel attention model for text sentiment analysis
Purba et al. Document level emotion detection from bangla text using machine learning techniques
CN114020901A (zh) 一种结合主题挖掘和情感分析的金融舆情分析方法
CN114443846A (zh) 一种基于多层级文本异构图的分类方法、装置及电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant