CN115730606A - 一种基于bert模型以及注意力集中网络的细粒度情感分析方法 - Google Patents

一种基于bert模型以及注意力集中网络的细粒度情感分析方法 Download PDF

Info

Publication number
CN115730606A
CN115730606A CN202211565870.4A CN202211565870A CN115730606A CN 115730606 A CN115730606 A CN 115730606A CN 202211565870 A CN202211565870 A CN 202211565870A CN 115730606 A CN115730606 A CN 115730606A
Authority
CN
China
Prior art keywords
attention
fine
model
bert model
emotion analysis
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202211565870.4A
Other languages
English (en)
Inventor
王青松
杨念殷
张超越
金梦莹
林鑫
孙文成
李嘉恩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Liaoning University
Original Assignee
Liaoning University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Liaoning University filed Critical Liaoning University
Priority to CN202211565870.4A priority Critical patent/CN115730606A/zh
Publication of CN115730606A publication Critical patent/CN115730606A/zh
Pending legal-status Critical Current

Links

Images

Landscapes

  • Machine Translation (AREA)

Abstract

一种基于BERT模型和注意力集中网络的细粒度情感分析方法,通过结合BERT模型与注意力机制,构造了一种进行细粒度情感分析任务的模型。首先将待分析的句子及其方面词拼接为输入文本,使用BERT模型对输入文本进行语义信息整合,然后通过注意力机制构造一个注意力集中网络层,进行更深层次的信息提取,最后使用一个全连接层获取最终的情感分析预测结果。本方法实现了一种注意力集中网络,将句子与方面词的文本信息交互,然后使得注意力集中于句中对应方面的语义信息,并通过将其与BERT结合,使得模型有能力提取出细粒度情感分析任务文本中较深层次的语义,相较于各基线模型,成功地提高了细粒度情感分析结果的准确度和F1值指标。

Description

一种基于BERT模型以及注意力集中网络的细粒度情感分析 方法
技术领域
本发明涉及自然语言处理、深度学习、方面级情感分析领域,特别涉及一种基于BERT 模型和注意力集中网络的细粒度情感分析方法。
背景技术
随着互联网技术的高速发展,网民数量也日益增多,社交媒体、电子商务等新兴产业在此带动下得以迅猛发展,越来越多的人会在网络分享、发表对于各种产品、服务、事件、新闻等的评论分析,而通过情感分析的手段,这些评论信息可以反映出许多有价值的信息。比如,对于商家而言,可以获取消费者对于某种产品的反馈,进而分析出这种产品的市场价值以及改进空间大小,从而创造出更好的收益;对于消费者而言,可以据此判断一种产品的口碑、质量,从而对于是否购买这种产品做出更理性的判断;对于新闻所涉及的相关单位来说,可以据此获取网民对于一个事件的态度、情感倾向,从而做出更好的后续应对。
传统的商品评论粗粒度情感分析,识别的是整条评论所表达出来的情感倾向,然而在有些情况下,一条评论信息中有可能会涵盖多个角度,而对于不同角度的情感倾向有可能是不一致的。比如,一条评论中可能会表达出一家店铺的产品质量很好,但是店铺环境一般,位置不好的观点,从而对于这条评论的粗粒度情感分析并不能涵盖它所表达的完整情感倾向,得出不准确的结论。细粒度情感分析可以识别一条评论中各个给定的方面词的情感倾向,并由此得出更加准确、全面的情感分析结论,避免信息丢失。
目前,已存在很多细粒度情感分析领域的研究,研究中涉及了各种神经网络,包括长短期记忆人工神经网络、卷积神经网络、循环神经网络、BERT模型,等等,取得了较好的效果。然而,在进行细粒度情感分析时,有可能存在其他多个角度的情感倾向文本信息,以及隐式的情感表达,这就会导致训练过程中的信息缺失,对情感分析结果的准确性造成较大的干扰。
发明内容
本发明提供一种基于BERT模型和注意力集中网络的细粒度情感分析方法,缓解了现有技术中存在的训练过程中信息缺失的现象,更有效地解决了方面级情感分析问题。
本发明是通过以下技术方案实现的:一种基于BERT模型和注意力集中网络的细粒度情感分析方法,步骤如下:
S1:获取待进行细粒度情感分析的句子及其对应的方面词,经过预处理,获得文本中的每个单词的词向量表达;
将待进行细粒度情感分析的句子及其对应的方面词拼接为“[CLS]+待分析的句子+[SEP]+ 方面词+[SEP]”形式的输入文本序列,其中[CLS]作为文本开始符号,[SEP]作为文本分隔及结束符号;然后采用BERT模型对长度为x的输入文本序列进行向量转化,得到文本的词向量表达s。
S2:将S1获取的词向量表达序列输入到BERT神经网络模型进行处理,获得每个词向量与上下文信息整合后的语义信息;
所述步骤S2具体包括:将文本的词向量表达s输入到BERT模型进行处理,得到BERT模型最后一层的隐藏状态作为每个词向量与上下文信息整合后的语义信息Hx*h,其中h为BERT模型的隐藏层数量。
S3:对S2获得的语义信息,采用根据注意力机制所构建的注意力集中网络层进行分析处理,提取关键信息;
所述步骤S3具体包括:将BERT模型提取到的语义信息Hx*h输入到根据注意力机制构建的注意力集中网络层进行信息提取,注意力集中网络层具体结构如下:
在注意力集中网络层的第一层,Hx*h经过无偏置项的全连接层进行线性变换,再使用 Sigmoid激活函数,得到
Figure BDA0003986587870000021
Figure BDA0003986587870000022
在注意力集中网络层的第二层,
Figure BDA0003986587870000023
经过无偏置项的全连接层进行线性变换,再使用Softmax激活函数,得到
Figure BDA0003986587870000024
Figure BDA0003986587870000025
在注意力集中网络层的第三层,将
Figure BDA0003986587870000026
与BERT模型提取到的语义信息Hx*h经过矩阵乘法得到的矩阵输入无偏置项的全连接层进行线性变换,再使用Tanh激活函数,得到
Figure BDA0003986587870000027
Figure BDA0003986587870000028
其中,
Figure BDA0003986587870000029
为可训练的参数;
去除
Figure BDA00039865878700000210
中维数为1的维度,得到关键信息
Figure BDA00039865878700000211
S4:将S3提取出的关键信息输入全连接层进行细粒度情感预测,得到本基于BERT模型和注意力集中网络的细粒度情感分析方法的分析结果;
将S3步骤得到的关键信息
Figure BDA0003986587870000031
输入一个全连接层,获得维度为p的输出向量,其中p代表情感分析任务中包含的不同的情感极性数量,如:任务包含了积极、中性、消极三种情感极性,则p的取值为3;具体表达式如下:
Figure BDA0003986587870000032
其中,
Figure BDA0003986587870000033
为可训练的参数,
Figure BDA0003986587870000034
为偏置项;y为模型预测的情感极性结果。
对本基于BERT模型和注意力集中网络的细粒度情感分析方法模型训练优化的策略为,采用Adam优化器对本模型进行训练,优化过程中使用交叉熵作为损失函数,并引入L2正则化来防止模型出现过拟合。
本发明的一种基于BERT模型和注意力集中网络的细粒度情感分析方法具有以下优点:本模型通过采用BERT模型以及注意力机制,可以提取出较深层次的语义信息,并且相较于细粒度情感分析的基线模型,准确率和F1值均有所提升,证明了本模型的有效性。
附图说明
图1是本发明步骤图。
图2是本发明流程图。
图3是本发明架构图。
具体实施方式
下面结合附图和具体实施例对本发明作出进一步说明,以使本领域的技术人员可以更好的理解本发明并能够予以实施,但所举实施例并不作为对本发明的限定。
本发明实例提供一种基于BERT模型和注意力集中网络的细粒度情感分析方法,用于进行细粒度情感分析任务。
对于评论S及其方面词A,按照图1所示流程图,通过以下步骤来分析评论S在方面A上的情感倾向为消极0,中性1,积极2中的一类。
S1:获取评论S及其方面词A,经过预处理,获得文本中的每个单词的词向量表达s;将待进行细粒度情感分析的评论S及其方面词A经过截取或填充,拼接为长度为x的“[CLS]S[SEP]A[SEP]”形式的输入文本序列,其中[CLS]作为文本开始符号,[SEP]作为文本分隔及结束符号;然后采用BERT模型对输入文本序列进行向量转化,得到文本的词向量表达s。
S2:将s输入到BERT神经网络模型进行处理,获得每个词向量与上下文信息整合后的语义信息Hx*h
将文本的词向量表达s输入到BERT模型进行处理,得到BERT模型最后一层的隐藏状态作为每个词向量与上下文信息整合后的语义信息Hx*h,其中h为BERT模型的隐藏层数量。
S3:对于Hx*h,采用根据注意力机制所构建的注意力集中网络层进行分析处理,提取关键信息
Figure BDA0003986587870000041
所述步骤S3具体包括:将BERT模型提取到的语义信息Hx*h输入到根据注意力机制构建的注意力集中网络层进行信息提取,注意力集中网络层具体结构如下:
在注意力集中网络层的第一层,Hx*h经过无偏置项的全连接层进行线性变换,再使用 Sigmoid激活函数,得到
Figure BDA0003986587870000042
Figure BDA0003986587870000043
在注意力集中网络层的第二层,
Figure BDA0003986587870000044
经过无偏置项的全连接层进行线性变换,再使用Softmax激活函数,得到
Figure BDA0003986587870000045
Figure BDA0003986587870000046
在注意力集中网络层的第三层,将
Figure BDA0003986587870000047
与BERT模型提取到的语义信息Hx*h经过矩阵乘法得到的矩阵输入无偏置项的全连接层进行线性变换,再使用Tanh激活函数,得到
Figure BDA0003986587870000048
Figure BDA0003986587870000049
其中,
Figure BDA00039865878700000410
为可训练的参数;
去除
Figure BDA00039865878700000411
中维数为1的维度,得到关键信息
Figure BDA00039865878700000412
S4:将
Figure BDA00039865878700000413
输入全连接层进行细粒度情感预测,得到本基于BERT模型和注意力集中网络的细粒度情感分析方法的情感分析结果y:
所述步骤S4具体包括:将S3步骤得到的关键信息
Figure BDA00039865878700000414
输入一个全连接层,获得维度为p 的输出向量,其中p代表情感分析任务中包含的不同的情感极性数量,本例中p的取值为3;具体表达式如下:
Figure BDA00039865878700000415
其中,
Figure BDA00039865878700000416
为可训练的参数,
Figure BDA00039865878700000417
为偏置项;y为模型预测的情感极性结果。
对本基于BERT模型和注意力集中网络的细粒度情感分析方法模型训练优化的策略为,采用Adam优化器对本模型进行训练,优化过程中使用交叉熵作为损失函数,并引入L2正则化来防止模型出现过拟合。
实施例1:
为了评价本发明所述的一种基于BERT模型和注意力集中网络的细粒度情感分析方法及其模型合理性、有效性,通过以下评测实验进行了分析。
本实例在公开数据集SemEval-2014task4中的restaurant数据集上进行了本发明的评估工作,该数据集共包含3608条评论及方面词数据,其中包括了积极Positive、消极Negative和中立Neural共3种情感极性。
本实例以Feature-based SVM、MGAN、RAM、BERT-PT、AEN-BERT、BERT-SPC等模型作为评估的基线,以acc和F1值作为评估指标。本评估实验结果如下表1所示。
表1:不同模型实验结果对比表
Figure BDA0003986587870000051
在restaurant数据集中,本发明所述的一种基于BERT模型和注意力集中网络的细粒度情感分析方法BERT-ATT-GA的指标相比评估基线均有一定程度的提升,其中准确率达到了 85.80%,而F1值达到了80.95%,相比于评估基线中的最高值,分别提升了0.85%和3.97%,证明了本方法的合理性、有效性,在兼顾了模型效率的同时,提取出了较深层次的语义信息,取得了较好的细粒度情感分析预测结果。

Claims (6)

1.一种基于BERT模型和注意力集中网络的细粒度情感分析方法,其特征在于,包含以下步骤:
S1:获取待进行细粒度情感分析的句子及其对应的方面词,经过预处理,获得文本中的每个单词的词向量表达;
S2:将S1获取的词向量表达序列输入到BERT神经网络模型进行处理,获得每个词向量与上下文信息整合后的语义信息;
S3:对S2获得的语义信息,采用根据注意力机制所构建的注意力集中网络层进行分析处理,提取关键信息;
S4:将S3提取出的关键信息输入全连接层进行细粒度情感预测,得到本基于BERT模型和注意力集中网络的细粒度情感分析方法的分析结果。
2.根据权利要求1所述的基于BERT模型和注意力集中网络的细粒度情感分析方法,其特征在于,所述的步骤1中,获得文本中的每个单词的词向量表达的过程为:将待进行细粒度情感分析的句子及其对应的方面词拼接为“[CLS]+待分析的句子+[SEP]+方面词+[SEP]”形式的输入文本序列,其中[CLS]作为文本开始符号,[SEP]作为文本分隔及结束符号;然后采用BERT模型对长度为x的输入文本序列进行向量转化,得到文本的词向量表达s。
3.根据权利要求1所述的基于BERT模型和注意力集中网络的细粒度情感分析方法,其特征在于,所述的步骤2)中,具体方法为:将文本的词向量表达s输入到BERT模型进行处理,得到BERT模型最后一层的隐藏状态作为每个词向量与上下文信息整合后的语义信息Hx*h,其中h为BERT模型的隐藏层数量。
4.根据权利要求1所述的基于BERT模型和注意力集中网络的细粒度情感分析方法,其特征在于,所述的步骤3)中,具体方法为:将BERT模型提取到的语义信息Hx*h输入到根据注意力机制构建的注意力集中网络层进行信息提取,注意力集中网络层具体结构如下:
在注意力集中网络层的第一层,Hx*h经过无偏置项的全连接层进行线性变换,再使用Sigmoid激活函数,得到
Figure FDA0003986587860000011
Figure FDA0003986587860000012
在注意力集中网络层的第二层,
Figure FDA0003986587860000013
经过无偏置项的全连接层进行线性变换,再使用Softmax激活函数,得到
Figure FDA0003986587860000014
Figure FDA0003986587860000015
在注意力集中网络层的第三层,将
Figure FDA0003986587860000021
与BERT模型提取到的语义信息Hx*h经过矩阵乘法得到的矩阵输入无偏置项的全连接层进行线性变换,再使用Tanh激活函数,得到
Figure FDA0003986587860000022
Figure FDA0003986587860000023
其中,
Figure FDA0003986587860000024
为可训练的参数;
去除
Figure FDA0003986587860000025
中维数为1的维度,得到关键信息
Figure FDA0003986587860000026
5.根据权利要求1所述的一种基于BERT模型和注意力集中网络的细粒度情感分析方法,其特征在于,所述的步骤4中,具体方法为:将S3步骤得到的关键信息
Figure FDA0003986587860000027
输入一个全连接层,获得维度为p的输出向量,其中p代表情感分析任务中包含的不同的情感极性数量,如:任务包含了积极、中性、消极三种情感极性,则p的取值为3;具体表达式如下:
Figure FDA0003986587860000028
其中,
Figure FDA0003986587860000029
为可训练的参数,
Figure FDA00039865878600000210
为偏置项;y为模型预测的情感极性结果。
6.根据权利要求1所述的基于BERT模型和注意力集中网络的细粒度情感分析方法,其特征在于,对本基于BERT模型和注意力集中网络的细粒度情感分析方法模型训练优化的策略为,采用Adam优化器对本模型进行训练,优化过程中使用交叉熵作为损失函数,并引入L2正则化防止模型出现过拟合。
CN202211565870.4A 2022-12-07 2022-12-07 一种基于bert模型以及注意力集中网络的细粒度情感分析方法 Pending CN115730606A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211565870.4A CN115730606A (zh) 2022-12-07 2022-12-07 一种基于bert模型以及注意力集中网络的细粒度情感分析方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211565870.4A CN115730606A (zh) 2022-12-07 2022-12-07 一种基于bert模型以及注意力集中网络的细粒度情感分析方法

Publications (1)

Publication Number Publication Date
CN115730606A true CN115730606A (zh) 2023-03-03

Family

ID=85300512

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211565870.4A Pending CN115730606A (zh) 2022-12-07 2022-12-07 一种基于bert模型以及注意力集中网络的细粒度情感分析方法

Country Status (1)

Country Link
CN (1) CN115730606A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116432107A (zh) * 2023-05-30 2023-07-14 江苏大学 一种细粒度情感分类方法
CN117497140A (zh) * 2023-10-09 2024-02-02 合肥工业大学 一种基于细粒度提示学习的多层次抑郁状态检测方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116432107A (zh) * 2023-05-30 2023-07-14 江苏大学 一种细粒度情感分类方法
CN117497140A (zh) * 2023-10-09 2024-02-02 合肥工业大学 一种基于细粒度提示学习的多层次抑郁状态检测方法
CN117497140B (zh) * 2023-10-09 2024-05-31 合肥工业大学 一种基于细粒度提示学习的多层次抑郁状态检测方法

Similar Documents

Publication Publication Date Title
Ishaq et al. Aspect-based sentiment analysis using a hybridized approach based on CNN and GA
CN107066446B (zh) 一种嵌入逻辑规则的循环神经网络文本情感分析方法
TWI754033B (zh) 關注點文案的生成
CN111914885B (zh) 基于深度学习的多任务人格预测方法和系统
CN115730606A (zh) 一种基于bert模型以及注意力集中网络的细粒度情感分析方法
CN117033571A (zh) 知识问答系统构建方法及系统
CN115952291B (zh) 基于多头自注意力及lstm的金融舆情分类方法及系统
Yeole et al. Opinion mining for emotions determination
Aung et al. Personality prediction based on content of Facebook users: A literature review
CN115129807A (zh) 基于自注意的社交媒体主题评论的细粒度分类方法及系统
Zhang et al. Business chatbots with deep learning technologies: State-of-the-art, taxonomies, and future research directions
Ajmeera et al. Hamiltonian deep neural network fostered sentiment analysis approach on product reviews
CN115906824A (zh) 一种文本细粒度情感分析方法、系统、介质和计算设备
Jahromi et al. Crl+: A novel semi-supervised deep active contrastive representation learning-based text classification model for insurance data
Jain et al. Sentiment analysis using few short learning
Bharathi et al. Twitter Text Sentiment Analysis of Amazon Unlocked Mobile Reviews Using Supervised Learning Techniques
Tran et al. Improving Hotel Customer Sentiment Prediction by Fusing Review Titles and Contents
Arsarinia et al. Public Sentiment Analysis of Online Transportation in Indonesia through Social Media Using Google Machine Learning
Song et al. Neural ideal point estimation network
Deelip et al. Analysis of Twitter Data for Prediction of Iphone X Reviews
Le et al. Investigating the effect of linguistic features on personality and job performance predictions
Chauhan et al. Fine Grained Sentiment Analysis using Machine Learning and Deep Learning
Li et al. A Text Sentiment Classification Method Enhanced by Bi-GRU and Attention Mechanism
McLevey et al. Machine Learning and Neural Network Language Models for Sentiment Analysis
Kim A Study on Brand Image Analysis of Gaming Business Corporation using KoBERT and Twitter Data

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination