CN112579778B - 基于多层次的特征注意力的方面级情感分类方法 - Google Patents

基于多层次的特征注意力的方面级情感分类方法 Download PDF

Info

Publication number
CN112579778B
CN112579778B CN202011540950.5A CN202011540950A CN112579778B CN 112579778 B CN112579778 B CN 112579778B CN 202011540950 A CN202011540950 A CN 202011540950A CN 112579778 B CN112579778 B CN 112579778B
Authority
CN
China
Prior art keywords
information
text
word
attention
level
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011540950.5A
Other languages
English (en)
Other versions
CN112579778A (zh
Inventor
唐宏
周磊
向俊玲
刘双
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chongqing University of Post and Telecommunications
Original Assignee
Chongqing University of Post and Telecommunications
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chongqing University of Post and Telecommunications filed Critical Chongqing University of Post and Telecommunications
Priority to CN202011540950.5A priority Critical patent/CN112579778B/zh
Publication of CN112579778A publication Critical patent/CN112579778A/zh
Application granted granted Critical
Publication of CN112579778B publication Critical patent/CN112579778B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • G06F40/211Syntactic parsing, e.g. based on context-free grammar [CFG] or unification grammars
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/284Lexical analysis, e.g. tokenisation or collocates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Databases & Information Systems (AREA)
  • Machine Translation (AREA)

Abstract

本发明属于自然语言处理领域,具体涉及一种基于多层次的特征注意力的方面级情感分类方法,该方法包括:对输入的文本和文本方面词进行编码;对待预测情感极性的方面词进行相对位置编码,并与文本编码进行信息融合;采用双向LSTM对编码信息进行预处理;将预处理后的编码信息分别进行交互和注意力机制处理,得到的交互信息和文本全局的注意力信息;采用CNN提取注意力信息的局部特征信息;将文本全局特征注意力信息、文本局部特征注意力信息和句子级特征注意力信息进行交互,采用归一化指数函数进行情感极性的预测。本发明融合文本的局部特征以及全局特征,有效挖掘文本中所表达的情感信息,能够显著的提高文本方面级别情感分析的准确率。

Description

基于多层次的特征注意力的方面级情感分类方法
技术领域
本发明属于自然语言处理、深度学习、方面级情感分析领域,具体涉及一种基于多层次的特征注意力的方面级情感分类方法。
背景技术
随着互联网的广泛普及,近年来,信息传播渠道迅猛发展,日新月异。同时手机网民规模不断扩大,越来越多的人通过互联网进行沟通交流,因此互联网上产生了大量的用户对于诸如人物、事件、产品等有价值的评论信息,这些评论信息充分的表达了人们的情感色彩和情感倾向,将这些文本数据进行情感分析并统计,对于社会和商业等领域都具有重要意义。目前文本情感分析分为多个粒度级别,其中细粒度的方面级文本情感分析是研究的重中之重。
在早期的研究中,方面级情感分析被当作一般的情感分析任务,采用传统的机器学习的方法以及基于词典和规则的方法类建立分类模型,但该方法需要对输入文本进行大量的预处理以及复杂的特征提取,这会花费大量的时间和精力,且模型的推广能力较差。随着深度学习技术的发展,其在各类自然语言处理任务中都取得了重大的突破,根据深度学习技术设计了一系列的神经网络自动生成对象和内容的低维度表示方法,在方面级情感分析任务中取得了比传统方法更好的效果。但深度学习的方法在自然语言处理领域中仍然存在一些问题,特别是在方面级的情感分析任务中。
对于方面级的文本情感分析,如何建立文本词信息和方面词信息之间的语义关系,目前的建模方法只是对文本词信息和方面词信息进行单独建模,忽略了文本词信息与方面词信息之间的语义相关性。方面级的文本情感分析中如果确定建模方面词在文本中的位置信息,相较于传统的方法,是将位置信息作为最后分类时考虑的信息,在建模文本词信息时就联合建模位置信息,但是该方法不能突出方面词与情感词之间的关系,使得最终的分类结果不精确。
发明内容
为解决以上现有技术存在的问题,本发明提出了一种基于多层次的特征注意力的方面级情感分类方法,该方法包括:
S1:获取文本数据的文本信息和方面次信息,对文本信息和方法词信息分别进行词嵌入编码,得到文本词向量和方面词向量;
S2:将待预测情感极性的方面词进行相对位置编码,将位置编码与文本词向量进行融合,得到融合位置信息的文本词向量;
S3:采用双向门控循环单元网络LSTM分别对融合位置信息的文本词向量和方面词向量进行预处理,得到融合位置信息的文本词序列和方面词序列;
S4:将融合位置信息的文本词序列和方面词序列进行交互处理,得到文本词序列和方面词序列的交互信息;
S5:提取交互信息的句子级别的注意力信息;
S6:对方面词序列进行平均池化处理,采用注意力机制将池化后的方面词序列和融合位置信息的文本词序列进行处理,得到全局注意力的文本特征信息;
S7:采用卷积神经网络CNN提取全局注意力的文本特征信息的局部特征,得到文本局部的特征注意力信息;
S8:将句子级别的注意力信息、全局注意力的文本特征信息和文本局部的特征注意力信息进行融合,得到融合信息;
S9:采用全连接层和softmax归一化指数函数对融合信息进行编码处理,得到最终的分类结果。
优选的,得到文本词向量和方面词向量的具体过程包括:
步骤1:获取输入文本数据的集合信息s={s1,s2,s3,…,sn},提取输入文本数据的集合信息中待预测极性的方面词,对方面词进行集合,得到待预测极性的方面词集合信息t={t1,t2,t3,…,tm};
步骤2:采用预训练的word2vec模型对待预测极性的方面词集合信息进行处理,生成文本词向量编码
Figure BDA0002854560170000021
和方面词向量编码
Figure BDA0002854560170000022
优选的,得到融合位置信息的文本词向量的过程包括:采用相对位置编码函数对文本词向量编码和方面词向量编码进行相对位置编码,得到位置嵌入矩阵;在模型的训练过程中对位置嵌入矩阵进行初始化和更新,得到文本位置向量;将文本向量与文本位置向量连接,得到融入位置信息的文本向量。
优选的,得到融合位置信息的文本词序列和方面词序列的过程包括:将融入位置信息的文本词向量xi与方面词向量vt分别输入各自的双向LSTM网络中,得到融入位置信息的文本词序列Hx和方面词序列Ht;所述双向LSTM网络由遗忘门ft和输入门it以及输出门ot组成,遗忘门ft决定隐藏状态需要丢弃哪些信息,输入门it决定要将哪些隐藏状态更新为新的状态,输出门ot决定要输出哪些更新后的隐藏状态。
进一步的,双向LSTM网络的计算公式为:
Figure BDA0002854560170000031
词向量xi经过双向LSTM后的矩阵为:
Figure BDA0002854560170000032
优选的,提取交互信息的句子级别的注意力信息的过程包括:
S51:将交互信息I通过列softmax得到方面词-句子的注意力信息αij;将交互信息I通过行softmax得到得到句子-方面词级别的注意力信息βij
S52:将句子-方面词级别的注意力信息βij按列求平均,得到方面词级别的注意力信息
Figure BDA0002854560170000033
S53:根据方面词级别的注意力信息
Figure BDA0002854560170000034
和方面词-句子的注意力信息αij计算句子级别注意力信息。
优选的,得到全局注意力的文本特征信息的过程包括:
S61:将方面词序列信息Ht通过平均池化操作得到池化后的方面词信息Htav
S62:根据池化后的方面词信息Htavg计算方面词信息在上下文中的重要程度;
S63:根据方面词信息在上下文中的重要程度,采用注意力机制对池化后的方面词信息Htavg和融入位置信息的文本词序列Hx进行处理,得到上下文对方面词的全局注意力信息δi
S64:根据上下文对方面词的全局注意力信息δi计算单词的注意力权值,得到全局注意力的文本特征信息Hr
进一步的,计算全局注意力信息δi和全局注意力的文本特征信息Hr的公式为:
Figure BDA0002854560170000041
Figure BDA0002854560170000042
优选的,得到文本局部的特征注意力信息的公式为:
Cx=CNN(Hr)
ci=g(w×si:i+k-1+b)
Figure BDA0002854560170000043
优选的,融合信息的公式:
Figure BDA0002854560170000044
分类结果公式:
p=softmax(Wr+b)
本发明将位置信息融入的文本特征,充分考虑了各词之间位置距离的关系对分类精度的影响;本发明采用双向LSTM网络,充分考虑了文本之间的相互依赖关系的影响,提高了情感分类性能;本发明采用CNN网络,来获取文本的局部特征以提高情感分类的性能;本发明采用了注意力机制来提升各个情感词的贡献程度,得到基于多层次的特征注意力的方面级情感分析模型,能够较好的提升文本方面级情感识别效果。
附图说明
图1为本发明的基于多层次特征注意力的方面级情感分析的模型;
图2为本发明采用的LSTM机制图;
图3为本发明的双向LSTM模型结构图。
具体实施方式
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将结合附图,对本发明实施例中的技术方案进行清楚、完整地描述,所描述的实施例仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在不付出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
一种基于多层次的特征注意力的方面级情感分类方法,如图1所示,该方法包括:
S1:获取文本数据的文本信息和方面次信息,对文本信息和方法词信息分别进行词嵌入编码,得到文本词向量和方面词向量;
S2:将待预测情感极性的方面词进行相对位置编码,将位置编码与文本词向量进行融合,得到融合位置信息的文本词向量;
S3:采用双向门控循环单元网络LSTM分别对融合位置信息的文本词向量和方面词向量进行预处理,得到融合位置信息的文本词序列和方面词序列;
S4:将融合位置信息的文本词序列和方面词序列进行交互处理,得到文本词序列和方面词序列的交互信息;
S5:提取交互信息的句子级别的注意力信息;
S6:对方面词序列进行平均池化处理,采用注意力机制将池化后的方面词序列和融合位置信息的文本词序列进行处理,得到全局注意力的文本特征信息;
S7:采用卷积神经网络CNN提取全局注意力的文本特征信息的局部特征,得到文本局部的特征注意力信息;
S8:将句子级别的注意力信息、全局注意力的文本特征信息和文本局部的特征注意力信息进行融合,得到融合信息;
S9:采用全连接层和softmax归一化指数函数对融合信息进行编码处理,得到最终的分类结果。
提取融合位置信息的词向量编码、方面词向量编码过程包括:
步骤1:获取输入文本数据的集合信息s={s1,s2,s3,…,sn},提取输入文本数据的集合信息中待预测极性的方面词,对方面词进行集合,得到待预测极性的方面词集合信息t={t1,t2,t3,…,tm};
步骤2:采用预训练的word2vec模型对待预测极性的方面词集合信息进行处理,生成文本词向量编码
Figure BDA0002854560170000061
和方面词向量编码
Figure BDA0002854560170000062
其中n表示文本包含的单词数,m表示方面词包含的单词数,dw表示词向量的维度。
得到融合位置信息的文本词向量的过程包括:
S21:采用相对位置编码函数对文本词向量编码和方面词向量编码进行相对位置编码,得到位置嵌入矩阵。相对位置编码函数为:
Figure BDA0002854560170000063
其中,js表示方面词的第一个词的索引,js表示方面词最后一个词的索引;posi表示文本中第i个词与当前方面词的相对偏移量。
S22:文本的位置嵌入向量是通过查找位置嵌入矩阵
Figure BDA0002854560170000064
来获得的,并在模型的训练过程中对位置嵌入矩阵进行初始化和更新,文本的位置嵌入向量表示为
Figure BDA0002854560170000065
S23:将文本向量与文本位置向量连接起来得到融入位置信息的文本向量,表示为xi=[vi;pi],其中dp为位置嵌入的维数,N为句子的长度,vi是文本第i个词的向量表示,分号表示连接符号。
word2vec为预训练的词向量模型,该模型是一个将单词转换成向量形式的工具,本实例中使用的是300维的word2vec模型进行文本词向量的训练,最后会表示为一个维度为[maxlen,300]的文本词向量矩阵,maxlen表示句子的最大长度。
采用双向LSTM确定文本中上下文的相互依赖关系并得到融合位置信息的文本词序列和方面词序列,其步骤包括:
S41:将融合位置信息的词向量编码xi输入到双向LSTM中,融合位置信息的文本词序列Hx
S42:将方面词向量编vt输入到双向LSTM中,得到方面词序列Ht
其中,LSTM网络由遗忘门ft和输入门it以及输出门ot构成,其机制图如图2所示。遗忘门ft决定隐藏状态需要丢弃哪些信息,输入门it决定了要将哪些隐藏状态更新为新的状态,输出门ot决定了要输出哪些更新后的隐藏状态;双向LSTM解决了传统循环神经网络梯度消失以及梯度爆炸的问题,而且能够记住句子中上下文的长期依赖关系,在进行情感分类的时候可以通过双向LSTM来考虑上下文的信息。
采用双向LSTM捕捉文本中上下文的相互依赖关系,如图3,包括:
将词向量xi作为双向LSTM的输入,假设LSTM的输出大小为dm维,每个文本的特征向量都使用以下公式通过LSTM单元:
ft=σ(Wfxi+Ufht-1+bf)
it=σ(Wixi+Uiht-1+bi)
ot=σ(Woxi+Uoht-1+bo)
Figure BDA0002854560170000071
Figure BDA0002854560170000072
ht=ottanh(ct)
其中,ft为LSTM单元t时刻遗忘门的输出,it为输入门的输出,ot为输出门的输出。Wf、Wi、Wo、bf、bi、bo分别为遗忘门、输入门和输出门的权重矩阵和偏置项。ht-1为t-1时刻的隐藏层输出,
Figure BDA0002854560170000073
是通过LSTM单元得到的新的上下文记忆信息,ct表示更新的LSTM网络单元的记忆内容,ht表示当前时刻的隐藏层的输出。
分别将融入位置信息的词向量xi,方面词向量vt输入双向LSTM计算公式为:
Figure BDA0002854560170000081
Figure BDA0002854560170000082
其中,
Figure BDA0002854560170000083
表示向量拼接操作,融入位置信息的词向量xi,方面词向量vt经过双向LSTM后的矩阵为:
Figure BDA0002854560170000084
Figure BDA0002854560170000085
其中,
Figure BDA0002854560170000086
表示前向LSTM计算,
Figure BDA0002854560170000087
表示后向LSTM计算,
Figure BDA0002854560170000088
表示矩阵Hx的维度是n×2dh
Figure BDA0002854560170000089
表示矩阵Ht的维度m×2dh,Hx为融入位置信息的词向量序列,Ht方面词向量序列。
提取交互信息的句子级别的注意力信息的过程包括:
S51:将融入位置信息的文本词序列Hx和方面词序列Ht进行交互,得到文本与方面词的交互信息,表示为
Figure BDA00028545601700000810
其中T表示向量的转置。
S52:将交互信息I通过列softmax得到方面词-句子的注意力信息αij;将交互信息I通过行softmax得到得到句子-方面词级别的注意力信息βij。其表达式分别为:
Figure BDA00028545601700000811
Figure BDA00028545601700000812
其中,Σi表示对列进行求和,Σj表示对行进行求和。
S53:将句子-方面词级别的注意力信息βij按列求平均,得到方面词级别的注意力信息
Figure BDA00028545601700000813
其表达式为:
Figure BDA00028545601700000814
其中,N表示句子-方面词级别的注意力信息的数量,βij表示句子-方面词级别的注意力信息。
S53:根据方面词级别的注意力信息
Figure BDA0002854560170000091
和方面词-句子的注意力信息αij计算句子级别注意力信息。句子级别注意力信息的表达式为:
Figure BDA0002854560170000092
其中,T表示向量的转置。
得到全局注意力的文本特征信息的过程包括:
S61:将方面词序列信息Ht通过平均池化操作得到池化后的方面词信息Htavg。池化后的方面词信息的表达式为:
Figure BDA0002854560170000093
其中,
Figure BDA0002854560170000094
表示第i个词序列,
Figure BDA0002854560170000095
表示对第i个词序列中的每个向量进行累加,m表示每个词序列的长度。
S62:根据池化后的方面词信息Htavg计算方面词信息在上下文中的重要程度。其表达式为:
Figure BDA0002854560170000096
其中,Wa和ba分别表示权值矩阵和偏置,tanh表示双曲正切函数函数,
Figure BDA0002854560170000097
是Htavg的转置。
63:根据方面词信息在上下文中的重要程度,采用注意力机制对池化后的方面词信息Htavg和融入位置信息的文本词序列Hx进行处理,得到上下文对方面词的全局注意力信息δi
Figure BDA0002854560170000098
其中,score表示得分函数,它是用来计算方面词信息在上下文中的重要程度的。
S64:根据上下文对方面词的全局注意力信息δi计算单词的注意力权值,得到全局注意力的文本特征信息Hr。得到全局注意力的文本特征信息Hr的公式为:
Figure BDA0002854560170000101
其中,
Figure BDA0002854560170000102
表示融入位置信息的文本词序列,Htavg表示池化后的方面词信息。
得到文本局部的特征注意力信息的过程包括:
步骤1:将全局注意力的文本特征信息Hr输入到一个CNN网络,得到文本局部注意力特征信息Cx,其计算公式为:
Cx=CNN(Hr)
ci=g(w×si:i+k-1+b)
步骤2:将全局注意力信息δi经过CNN网络后的矩阵表示为:
Figure BDA0002854560170000103
其中,ci表示特征映射中第i个特征值;g表示非线性激活函数,这里采用的是双曲正切函数tanh;b表示偏置量;W为CNN网络中的权重矩阵;si:i+k-1表示文本序列中第i个词到第i+k-1个词的长度;
Figure BDA0002854560170000104
表示矩阵Cx的维度为2dn×(n-k+1)维。
在本实例中采用的是一层的CNN网络,其卷积层中有100个大小分别为4,5,6,7的卷积核,该卷积有100个文本特征;最后使用非线性整流单元ReLU作为激活函数,将激活值做为文本特征表示。
人们在使用文字进行情感表达的时候,每个词所占的情感比重都不一样,并非所有文本词对情感分类都同样重要,我门要关注的是文本中的情感词,提取这部分情感词的特征对最后的情感分类会产生直接影响。注意力机制(Attention Mechanism)能将注意力集中在与分类对象相关的最重要部分。通过注意力机制可以给每情感词输出一个注意力分数,比较重要的情感词对最后情感分类的结果影响较大,所以分配的注意力权重大,这样就能体现不同情感词特征对最后情感分类结果的影响程度。
得到最终的分类结果的过程包括:
步骤1:将文本全局的特征注意力信息Hr和句子级别的注意力信息γ以及文本局部的特征注意力信息Cx进行融合,得到融合后的信息r,表示为:
Figure BDA0002854560170000111
其中,
Figure BDA0002854560170000112
表示拼接操作,·表示向量间的点积。
步骤2:将得到的融合信息r作为最终的分类特征,通过一个全连接层,分类特征会转换为与情感类别向量维度相同的向量,将其输入到softmax函数中,得到最终的分类结果p,其表达式为:
p=Wpr+bp
Figure BDA0002854560170000113
其中,Wp为全连接层的权重矩阵,bp为全连接层的偏置项,C表示情感分类的类别数,yi表示预测第i个情感类别的概率。
本发明采用最小化交叉熵函数与Adma优化器对基于多层次特征注意力的方面级情感分析模型进行训练优化。在训练过程中,将最小化交叉熵函数与L2正则化项作为训练的损失函数Loss,其损失函数的表达式为:
Figure BDA0002854560170000114
其中,D为训练数据的数量,
Figure BDA0002854560170000115
表示第j个样本属于第i个情绪类别的预测概率,
Figure BDA0002854560170000116
表示第j个样本属于第i个情绪类别的真实概率,λ‖θ‖2表示最小化交叉熵的正则项,其中λ为L2正则化项的系数并在模型的训练中迭代跟新,同时使用Adam优化器来优化网络学习参数,采用Dropout来防止过拟合;其中,Adam表示适应性矩估计,Dropout表示深度神经网络层的一种选择层。在完成模型的训练之后,将所需要识别的文本输入模型之中,即可对文本中各方面词目标表达的情感进行识别。
本领域普通技术人员可以理解上述实施例的各种方法中的全部或部分步骤是可以通过程序来指令相关的硬件来完成,该程序可以存储于计算机可读存储介质中,存储介质可以包括:ROM、RAM、磁盘或光盘等。
以上所举实施例,对本发明的目的、技术方案和优点进行了进一步的详细说明,所应理解的是,以上所举实施例仅为本发明的优选实施方式而已,并不用以限制本发明,凡在本发明的精神和原则之内对本发明所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (8)

1.一种基于多层次的特征注意力的方面级情感分类方法,其特征在于,包括:
S1:获取文本数据的文本信息和方面词信息,对文本信息和方面词信息分别进行词嵌入编码,得到文本词向量和方面词向量;
S2:将待预测情感极性的方面词进行相对位置编码,将位置编码与文本词向量进行融合,得到融合位置信息的文本词向量;
S3:采用双向门控循环单元网络LSTM分别对融合位置信息的文本词向量和方面词向量进行预处理,得到融合位置信息的文本词序列和方面词序列;
S4:将融合位置信息的文本词序列和方面词序列进行交互处理,得到文本词序列和方面词序列的交互信息;
S5:提取交互信息的句子级别的注意力信息;
S51:将交互信息I通过列softmax得到方面词-句子的注意力信息αij;将交互信息I通过行softmax得到句子-方面词级别的注意力信息βij
S52:将句子-方面词级别的注意力信息βij按列求平均,得到方面词级别的注意力信息
Figure FDA0003736800520000011
S53:根据方面词级别的注意力信息
Figure FDA0003736800520000012
和方面词-句子的注意力信息αij计算句子级别注意力信息;
S6:对方面词序列进行平均池化处理,采用注意力机制将池化后的方面词序列和融合位置信息的文本词序列进行处理,得到全局注意力的文本特征信息;
S61:将方面词序列信息Ht通过平均池化操作得到池化后的方面词信息Htavg
S62:根据池化后的方面词信息Htavg计算方面词信息在上下文中的重要程度;
S63:根据方面词信息在上下文中的重要程度,采用注意力机制对池化后的方面词信息Htavg和融入位置信息的文本词序列Hx进行处理,得到上下文对方面词的全局注意力信息δi
S64:根据上下文对方面词的全局注意力信息δi计算单词的注意力权值,得到全局注意力的文本特征信息Hr
S7:采用卷积神经网络CNN提取全局注意力的文本特征信息的局部特征,得到文本局部的特征注意力信息;
S8:将句子级别的注意力信息、全局注意力的文本特征信息和文本局部的特征注意力信息进行融合,得到融合信息;
S9:采用全连接层和softmax归一化指数函数对融合信息进行编码处理,得到最终的分类结果。
2.根据权利要求1所述的一种基于多层次的特征注意力的方面级情感分类方法,其特征在于,得到文本词向量和方面词向量的具体过程包括:
步骤1:获取输入文本数据的集合信息s={s1,s2,s3,…,sn},提取输入文本数据的集合信息中待预测极性的方面词,对方面词进行集合,得到待预测极性的方面词集合信息t={t1,t2,t3,…,tm};
步骤2:采用预训练的word2vec模型对待预测极性的方面词集合信息进行处理,生成文本词向量编码
Figure FDA0003736800520000021
和方面词向量编码
Figure FDA0003736800520000022
其中,sn表示输入文本数据集合中的文本信息,n表示文本包含的单词数,tm表示待预测极性的方面词集合的文本信息,m表示方面词包含的单词数,dw表示词向量的维度。
3.根据权利要求1所述的一种基于多层次的特征注意力的方面级情感分类方法,其特征在于,得到融合位置信息的文本词向量的过程包括:采用相对位置编码函数对文本词向量编码和方面词向量编码进行相对位置编码,得到位置嵌入矩阵;在模型的训练过程中对位置嵌入矩阵进行初始化和更新,得到文本位置向量;将文本向量与文本位置向量连接,得到融入位置信息的文本向量。
4.根据权利要求1所述的一种基于多层次的特征注意力的方面级情感分类方法,其特征在于,得到融合位置信息的文本词序列和方面词序列的过程包括:将融入位置信息的文本词向量xi与方面词向量vt分别输入各自的双向LSTM网络中,得到融入位置信息的文本词序列Hx和方面词序列Ht;所述双向LSTM网络由遗忘门ft和输入门it以及输出门ot组成,遗忘门ft决定隐藏状态需要丢弃哪些信息,输入门it决定要将哪些隐藏状态更新为新的状态,输出门ot决定要输出哪些更新后的隐藏状态。
5.根据权利要求4所述的一种基于多层次的特征注意力的方面级情感分类方法,其特征在于,双向LSTM网络的计算公式为:
Figure FDA0003736800520000031
词向量xi经过双向LSTM后的矩阵为:
Figure FDA0003736800520000032
其中,
Figure FDA0003736800520000033
表示向量拼接操作,xi表示词向量,
Figure FDA0003736800520000034
表示前向LSTM计算,
Figure FDA0003736800520000035
表示后向LSTM计算,
Figure FDA0003736800520000036
表示矩阵Hx的维度是n×2dh,Hx表示融入位置信息的词向量序列。
6.根据权利要求1所述的一种基于多层次的特征注意力的方面级情感分类方法,其特征在于,计算全局注意力信息δi和全局注意力的文本特征信息Hr的公式为:
Figure FDA0003736800520000037
Figure FDA0003736800520000038
其中,score表示得分函数,
Figure FDA0003736800520000039
表示融入位置信息的文本词序列,Htavg表示池化后的方面词信息。
7.根据权利要求1所述的一种基于多层次的特征注意力的方面级情感分类方法,其特征在于,得到文本局部的特征注意力信息的公式为:
Cx=CNN(Hr)
ci=g(w×si:i+k-1+b)
Figure FDA0003736800520000041
其中,ci表示特征映射中第i个特征值,g表示非线性激活函数,b表示偏置量,w表示CNN网络中的权重矩阵,si:i+k-1表示文本序列中第i个词到第i+k-1个词的长度,
Figure FDA0003736800520000042
表示矩阵Cx的维度为2dn×(n-k+1)维。
8.根据权利要求1所述的一种基于多层次的特征注意力的方面级情感分类方法,其特征在于,融合信息的公式和分类结果公式为:
融合信息的公式:
Figure FDA0003736800520000043
分类结果公式:
p=softmax(Wr+b)
其中,Hr表示文本全局的特征注意力信息,Cx表示文本局部的特征注意力信息,γ表示句子级别的注意力信息,
Figure FDA0003736800520000044
表示向量拼接操作,W为softmax层的权重矩阵,b为softmax层的偏置项。
CN202011540950.5A 2020-12-23 2020-12-23 基于多层次的特征注意力的方面级情感分类方法 Active CN112579778B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011540950.5A CN112579778B (zh) 2020-12-23 2020-12-23 基于多层次的特征注意力的方面级情感分类方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011540950.5A CN112579778B (zh) 2020-12-23 2020-12-23 基于多层次的特征注意力的方面级情感分类方法

Publications (2)

Publication Number Publication Date
CN112579778A CN112579778A (zh) 2021-03-30
CN112579778B true CN112579778B (zh) 2022-08-26

Family

ID=75139119

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011540950.5A Active CN112579778B (zh) 2020-12-23 2020-12-23 基于多层次的特征注意力的方面级情感分类方法

Country Status (1)

Country Link
CN (1) CN112579778B (zh)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113204616B (zh) * 2021-04-30 2023-11-24 北京百度网讯科技有限公司 文本抽取模型的训练与文本抽取的方法、装置
CN113268592B (zh) * 2021-05-06 2022-08-05 天津科技大学 基于多层次交互注意力机制的短文本对象情感分类方法
CN113673222B (zh) * 2021-07-12 2022-09-20 华南理工大学 基于双向协同网络的社交媒体文本细粒度情感分析方法
CN113486673B (zh) * 2021-07-29 2022-10-25 刘德喜 基于目标语义与位置融合的方面意见词抽取方法
CN113688234A (zh) * 2021-07-31 2021-11-23 广州永链信息技术有限责任公司 文本分类管理方法、装置、终端及可读存储介质
CN113836923B (zh) * 2021-08-27 2023-06-27 山西清众科技股份有限公司 一种基于多级上下文特征提取的命名实体识别方法
CN113867633A (zh) * 2021-09-24 2021-12-31 中科院成都信息技术股份有限公司 基于dram与nvm的异构混合内存数据处理方法、系统及存储介质
CN116089602B (zh) * 2021-11-04 2024-05-03 腾讯科技(深圳)有限公司 信息处理方法、装置、电子设备、存储介质和程序产品
CN114528944B (zh) * 2022-02-24 2023-08-01 西南交通大学 一种医疗文本编码方法、装置、设备及可读存储介质
CN116975301A (zh) * 2023-09-22 2023-10-31 腾讯科技(深圳)有限公司 文本聚类方法、装置、电子设备和计算机可读存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109522548A (zh) * 2018-10-26 2019-03-26 天津大学 一种基于双向交互神经网络的文本情感分析方法
CN109582956A (zh) * 2018-11-15 2019-04-05 中国人民解放军国防科技大学 应用于句子嵌入的文本表示方法和装置
AU2019100273A4 (en) * 2019-03-15 2019-05-02 Data One Technologies Pty Ltd BinWin is a modern-day waste collection technology enabling councils and waste management authorities to manage waste effectively. The framework consists of IoT, AI, mobile & web applications integrated to monitor, track, and plan. The bins ensure eco-friendliness by keeping a constant check on fill levels enabling waste collection on a needs basis preventing over-flow, maintaining a hygienic environment using solar self-charging capability. BinWin promises to increase operational efficiencies in the waste collection chain, reducing cost and labour associated with rubbish collection & removal.
CN109948165A (zh) * 2019-04-24 2019-06-28 吉林大学 基于混合注意力网络的细粒度情感极性预测方法
CN110781306A (zh) * 2019-10-31 2020-02-11 山东师范大学 一种英文文本的方面层情感分类方法及系统
CN111914085A (zh) * 2020-06-18 2020-11-10 华南理工大学 文本细粒度情感分类方法、系统、装置及存储介质

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8326775B2 (en) * 2005-10-26 2012-12-04 Cortica Ltd. Signature generation for multimedia deep-content-classification by a large-scale matching system and method thereof
CN108427670A (zh) * 2018-04-08 2018-08-21 重庆邮电大学 一种基于语境词向量和深度学习的情感分析方法
CN110502626B (zh) * 2019-08-27 2023-04-07 重庆大学 一种基于卷积神经网络的方面级情感分析方法
CN110826336B (zh) * 2019-09-18 2020-11-06 华南师范大学 一种情感分类方法、系统、存储介质及设备
CN111144130A (zh) * 2019-12-26 2020-05-12 辽宁工程技术大学 一种基于上下文感知的混合神经网络的细粒度情感分类方法
CN111259142B (zh) * 2020-01-14 2020-12-25 华南师范大学 基于注意力编码和图卷积网络的特定目标情感分类方法
CN111581966B (zh) * 2020-04-30 2023-04-21 华南师范大学 一种融合上下文特征方面级情感分类方法和装置
CN111881291A (zh) * 2020-06-19 2020-11-03 山东师范大学 一种文本情感分类方法及系统
CN111814450B (zh) * 2020-07-10 2023-08-11 重庆大学 一种基于残差注意力的方面级情感分析方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109522548A (zh) * 2018-10-26 2019-03-26 天津大学 一种基于双向交互神经网络的文本情感分析方法
CN109582956A (zh) * 2018-11-15 2019-04-05 中国人民解放军国防科技大学 应用于句子嵌入的文本表示方法和装置
AU2019100273A4 (en) * 2019-03-15 2019-05-02 Data One Technologies Pty Ltd BinWin is a modern-day waste collection technology enabling councils and waste management authorities to manage waste effectively. The framework consists of IoT, AI, mobile & web applications integrated to monitor, track, and plan. The bins ensure eco-friendliness by keeping a constant check on fill levels enabling waste collection on a needs basis preventing over-flow, maintaining a hygienic environment using solar self-charging capability. BinWin promises to increase operational efficiencies in the waste collection chain, reducing cost and labour associated with rubbish collection & removal.
CN109948165A (zh) * 2019-04-24 2019-06-28 吉林大学 基于混合注意力网络的细粒度情感极性预测方法
CN110781306A (zh) * 2019-10-31 2020-02-11 山东师范大学 一种英文文本的方面层情感分类方法及系统
CN111914085A (zh) * 2020-06-18 2020-11-10 华南理工大学 文本细粒度情感分类方法、系统、装置及存储介质

Also Published As

Publication number Publication date
CN112579778A (zh) 2021-03-30

Similar Documents

Publication Publication Date Title
CN112579778B (zh) 基于多层次的特征注意力的方面级情感分类方法
CN109284506B (zh) 一种基于注意力卷积神经网络的用户评论情感分析系统及方法
CN112163426B (zh) 一种基于注意力机制与图长短时记忆神经网络结合的关系抽取方法
CN110598005B (zh) 一种面向公共安全事件的多源异构数据知识图谱构建方法
CN110532557B (zh) 一种无监督的文本相似度计算方法
CN110647612A (zh) 一种基于双视觉注意力网络的视觉对话生成方法
CN111027595B (zh) 双阶段语义词向量生成方法
CN112487143A (zh) 一种基于舆情大数据分析的多标签文本分类方法
CN111078833B (zh) 一种基于神经网络的文本分类方法
CN112667818B (zh) 融合gcn与多粒度注意力的用户评论情感分析方法及系统
CN114936623B (zh) 一种融合多模态数据的方面级情感分析方法
CN110096575B (zh) 面向微博用户的心理画像方法
CN112256866B (zh) 一种基于深度学习的文本细粒度情感分析算法
CN111026869A (zh) 一种利用基于多层注意力的序列生成网络进行多罪名预测的方法
CN110321563A (zh) 基于混合监督模型的文本情感分析方法
CN110263343B (zh) 基于短语向量的关键词抽取方法及系统
CN113704546A (zh) 基于空间时序特征的视频自然语言文本检索方法
CN114492441A (zh) 基于机器阅读理解的BiLSTM-BiDAF命名实体识别方法
CN112115687A (zh) 一种结合知识库中的三元组和实体类型的生成问题方法
CN111309909A (zh) 一种基于混合模型的文本情感分类方法
CN112561718A (zh) 基于BiLSTM权重共享的案件微博评价对象情感倾向性分析方法
CN114091460A (zh) 一种多任务中文实体命名识别方法
CN111914556A (zh) 基于情感语义转移图谱的情感引导方法及系统
CN114648031A (zh) 基于双向lstm和多头注意力机制的文本方面级情感识别方法
CN114417851A (zh) 一种基于关键词加权信息的情感分析方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant