CN108399158B - 基于依存树和注意力机制的属性情感分类方法 - Google Patents
基于依存树和注意力机制的属性情感分类方法 Download PDFInfo
- Publication number
- CN108399158B CN108399158B CN201810112653.7A CN201810112653A CN108399158B CN 108399158 B CN108399158 B CN 108399158B CN 201810112653 A CN201810112653 A CN 201810112653A CN 108399158 B CN108399158 B CN 108399158B
- Authority
- CN
- China
- Prior art keywords
- attribute
- sentence
- vector
- matrix
- word
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 230000008451 emotion Effects 0.000 title claims abstract description 50
- 238000000034 method Methods 0.000 title claims abstract description 47
- 230000007246 mechanism Effects 0.000 title claims abstract description 23
- 238000004458 analytical method Methods 0.000 claims abstract description 38
- 230000002457 bidirectional effect Effects 0.000 claims abstract description 15
- 239000013598 vector Substances 0.000 claims description 73
- 239000011159 matrix material Substances 0.000 claims description 60
- 230000006870 function Effects 0.000 claims description 26
- 230000002996 emotional effect Effects 0.000 claims description 17
- 230000008859 change Effects 0.000 claims description 12
- 238000004364 calculation method Methods 0.000 claims description 11
- 230000009466 transformation Effects 0.000 claims description 11
- 238000012549 training Methods 0.000 claims description 7
- 230000004913 activation Effects 0.000 claims description 6
- 230000011218 segmentation Effects 0.000 claims description 6
- 241000288105 Grus Species 0.000 claims description 5
- 238000009825 accumulation Methods 0.000 claims description 5
- 230000008569 process Effects 0.000 claims description 5
- 238000013507 mapping Methods 0.000 claims description 4
- 238000007781 pre-processing Methods 0.000 claims description 4
- 238000012545 processing Methods 0.000 claims description 4
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 claims description 3
- 238000005457 optimization Methods 0.000 claims description 3
- 239000004576 sand Substances 0.000 claims description 3
- 238000000844 transformation Methods 0.000 claims description 3
- 238000003062 neural network model Methods 0.000 claims 1
- 239000000126 substance Substances 0.000 claims 1
- 238000005516 engineering process Methods 0.000 description 6
- 238000013528 artificial neural network Methods 0.000 description 4
- 238000011156 evaluation Methods 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000003058 natural language processing Methods 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 238000005065 mining Methods 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013145 classification model Methods 0.000 description 1
- 238000004883 computer application Methods 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
Abstract
本发明公开了一种基于依存树和注意力机制的属性情感分类方法,基于整个文本的依存树分析结果,选择包含给定属性的最小子树部分,把这部分子句作为该属性的上下文信息的表示;然后利用两个双向门限循环单元来对句子的上下文和属性的上下文进行建模,得到两个固定大小的特征表示矩阵,接下来则利用注意力机制来获取文本和特定属性的特征表示,最后利用多层感知机进行特定属性的情感极性分类。本发明提出的分类方法能够针对同一文本中的不同属性抽取不同的属性特征信息,分类准确率高。
Description
技术领域
本发明涉及计算机应用技术、自然语言处理、情感分析技术等领域,特别涉及一种基于依存树和注意力机制的属性情感分类方法。
背景技术
情感分析又称作观点挖掘,是自然语言处理中的一个热点领域,旨在于从文本中通过自动化的方式来分析人们针对某些事物的情感和观点。随着互联网的快速发展,网络已经成为人们交流和获取信息的主要途径,在这个过程中,互联网上积累了大量的文本数据,而情感分析技术则是旨在于从这些文本中挖掘用户针对某个事物表达的情感倾向和观点,为下一步的具体应用比如说市场决策等提供基础支持。
文本情感分析技术无论是对学术界还是工业界都表现出了极大的吸引力。一方面情感分析涉及多项非常具有挑战性的任务,例如说从文本中识别观点的持有人,以及观点的目标对象,并对观点进行情感倾向判定,这些涉及多个自然语言处理领域中的多个研究方向,对处理算法提出了极大的挑战。另一方面,无论是政府、公司、个人都存在从文本挖掘用户观点的迫切性需求。针对文本数据的情感分析可以帮助政府监控舆论的演变,分析民众的观点表达,政府从而可以正确引导舆论,检测突发事件,针对群体性事件制定针对性的解决方案。商家可以从文本数据中获取用户的反馈,帮助他们改善产品,并制定下一步的市场策略。个人用户在购买商品时可以从以往购买过该产品的用户评论中获取产品的优缺点,帮助自己制定购买决策。
以往的文本情感分析技术主要针对文档和句子级别的情感分析,这两种级别的情感分析目标是在给定一篇文档或者几条句子的情况下,分析文本中所表达的情感倾向性。文档或者句子级别的情感分析都是基于整个文档或者句子中只存在一个评价属性的假设,忽略了文档或者句子会同时对多个属性进行观点表达的情况,属于粗粒度的情感分析技术。这种分析技术无法充分挖掘文本中的价值,并且由于不同用户之间关注点的不同,从而有可能对用户进行误导。
不同于文档或者句子的情感分析,属性级别的情感分析则需要从文本中抽取观点的评价属性,然后针对该属性进行情感分类,得到观点持有人对该属性的情感倾向。属性级别的情感分析属于细粒度情感分析的一部分,需要对文本提及到的不同的属性进行抽取和区别,并判断出观点持有人针对每个属性的情感倾向性。
目前的属性级别的情感分类方法是在给定文本中出现的每个属性的情况下,得出每个属性各自的情感倾向性,具体来说可以分成两个方法:基于词典的和基于语料的。
基于词典的方法主要依赖于情感词典中对情感词的极性数值强度,通过判断情感词和属性之间的联系,结合否定词和程度副词的修饰作用等规则,来累加文本中出现的情感词的数值强度,来对文本中不同属性进行倾向性判断。
基于语料的方法则是把情感分类当成一个特殊的文本分类问题,通过一个人工标注好的训练语料库,使用监督学习的方式获得一个情感分类器。目前基于语料的方法又可以分为两种,一种是从语料中人工提取文本的特征和属性相关的特征,利用统计学习方法来进行分类,如最近邻KNN、贝叶斯、支持向量机SVM等。或者使用深度学习方法将单词映射成为低维、稠密的向量表示,直接从文本学习出特征,避免了耗时耗力的人工特征提取过程,例如卷积神经网络CNN,循环神经网络RNN等。
目前基于词典的属性情感分类方法,极大依赖于情感词典,情感词典的好坏决定了分类结果的正确性,同时基于词典和规则的方法,还表现出强烈的领域依赖性,针对不同的领域需要设计不同的规则,很难进行实际应用。基于统计学习的方法也存在着需要人工针对不同领域的数据设计特定的特征问题,需要人工花费大量的时间去进行特征提取工作,并且对领域知识要求高。基于深度学习的方法能够自动从文本中提取特征,但是这些特征都缺少与属性的相关性,分类器无法准确分析出同一文本中不同属性的不同情感倾向性。
发明内容
本发明的目的在于克服现有技术的缺点与不足,提供一种基于依存树和注意力机制的属性情感分类方法,能够针对同一文本中的不同属性抽取不同的属性特征信息,分类准确率高。
本发明的目的通过以下的技术方案实现:一种基于依存树和注意力机制的属性情感分类方法,步骤如下:
基于整个文本的依存树分析结果,选择包含给定属性的最小子树部分,把这部分子句作为该属性的上下文信息的表示,针对文本中的不同属性,能够得到不同属性的上下文信息表示;随后利用两个双向门限循环单元来对句子的上下文和属性的上下文进行建模,得到两个固定大小的特征表示矩阵,接下来则利用注意力机制来获取文本和特定属性的特征表示,最后利用多层感知机进行特定属性的情感极性分类。
优选的,该方法具体包括如下步骤:
步骤1:数据预处理,对句子进行分词和依存树分析,然后在依存树中找到包含给定属性的最小子树,获取分词后的句子S和子句SUB_S;并对该句子中所有的单词,寻找每个单词和该属性单词在依存树中的最近公共祖节点,以这个祖节点到两者的路径之和作为两者在依存树中的最短路径长度,该路径长度被编码成为位置信息的输入lweight=[l1,...,li,...,ln],编码计算方式为公式(1):
其中,li代表编码后的结果,disti表示句子S分词后第i个单词wi到属性词的最短距离,n为提前确定好的句子长度;
通过公式(1),可以得到一个和句子长度一致的位置向量,该向量中的每一维代表了句子中对应下标的单词的位置权重;然后利用在大规模无标注语料上训练好的词向量和词典,将整个句子S表示成向量矩阵以及将子句SUB_S表示为向量矩阵
步骤2:对句子上下文和属性上下文分别进行编码,将向量矩阵X1,通过一个双向GRU单元学习句子的上下文表示,并输出每个时间步的隐藏状态,此时称该双向GRU为GRU1,得到的隐藏状态矩阵HS=[hs1,...,hst,...,hsn],其中t∈[1,n],n为句子长度,d1是该列向量hst的维度;对向量矩阵X2通过另外一个双向GRU单元,记为GRU2,得到隐藏状态矩阵HSUB_S=[hsub1,...,hsubt,...,hsubsub_n],其中subt∈[1,sub_n],sub_n为子句长度,d2是该列向量hsubt的维度;
步骤3:将步骤1中的位置向量lweight中的每个元素分别和步骤2中的隐藏状态矩阵HS中的每一列进行相乘,得到位置信息加权后的记忆矩阵M=[m1,...,mt,...,mn],其中mt=lt·hst。接下来进行特定属性的特征表示计算,计算公式为公式(2):
Attention(Q,K,V)=V·softmax(column_sum(KTQ)) (2)
其中K=W1M,Q=W2HSUB_S,V=(W3X1+W4HS), W1、W2、W3、W4代表线性变换的参数,d、d0、dv代表这些参数的维度大小;column_sum函数是对矩阵KTQ进行按列求和操作,softmax函数则是对求和后的结果进行归一化,softmax函数的输出结果则是注意力分数,该注意力分数和V相乘的结果就是代表根据不同的属性上下文对句子分配注意力后的特征表示,记为ar;
步骤4:将HS中的最后一列作为整个句子的上下文代表,提取出来,记为hsn;为了结合属性的特征表示ar和句子的上下文特征表示hsn,将两者分别经过一个线性变化后,进行逐元素的相加,得到最后的特征表示,并将该特征表示经过一个全连接层,激活函数为双曲正切tanh,输出激活激活函数作用后的结果;
步骤5:对上一层的输出经过一个线性变化后,通过softmax函数输出该特定属性的情感极性预测结果。
优选的,步骤1中:利用文本处理工具对给定的文本进行分词和依存树分析,在依存树分析结果中找到包含属性的最小子句,同时计算出位置信息向量;利用使用Glove工具训练好的词向量,将句子S和子句SUB_S映射为词向量矩阵,词向量的维度为300维。
优选的,步骤2中:对输入的句子向量矩阵和子句向量矩阵,分别使用一个双向的GRU进行上下文建模,称为GRU1和GRU2,GRU1单元的隐藏状态大小设置为100,即GRU1的输出维度为200,GRU2单元的隐藏状态大小设置为75,即GRU2的输出维度为150,GRU1和GRU2分别设置0.5的dropout。
优选的,步骤3中:计算包含特定属性信息的特征表示,设置W1的维度大小为100×200,W2的维度大小为100×150,W3的维度大小为200×300,W4的维度大小为200×200,最后得到一个包含属性信息的200维列向量特征ar。
优选的,步骤4中:设置ar的线性变换后的大小为100维,hsn线性变换后的维度大小为100维,经过逐元素的累加后,输入到全连接层中,全连接层的维度大小为100维。
优选的,步骤5中:步骤4中的特征中经过一个100×3的线性变化后,是一个3维大小的列向量,经过softmax函数,输出后的结果是对应情感倾向类别的概率值,代表该特定属性的情感倾向概率,取概率值最大的类别为该属性的情感倾向类别。
优选的,模型训练过程使用了多元交叉熵为损失函数和ADAM方法进行优化,并且使用提早停止的训练方法来防止过拟合。
本发明与现有技术相比,具有如下优点和有益效果:
本发明通过结合文本的依存树分析结果和深度学习方法以及注意力机制,提出了在文本依存树中选择包含该属性的最小子树,作为代表该属性上下文方式,并利用对文本的依存树分析结果,通过计算属性单词和文本中的每个单词在依存树中的最近公共祖节点的方式,来得到两者的最短路径,基于此计算出每个单词相对于属性单词的位置权重信息。此外还结合了循环神经网络和注意力机制来对包含属性信息的特征进行建模。实验结果表明,本发明提出的分类模型能够针对同一文本中的不同属性抽取不同的属性特征信息,分类准确率高。将注意力分数可视化后能够明显发现针对同一文本中不同的属性能够分配不同的注意力分数,体现出了文本中各个单词在针对不同目标属性进行情感倾向性分类时有着不同的重要性。实验证明,在国际语义评测Semeval2014任务4中两个不同领域的语料库中效果表现很好。
附图说明
图1是给定例句“手机的屏幕比电脑的屏幕看起来舒服多了”的依存树分析结果图。
图2是给定两个属性屏幕和屏幕,从依存树中选择后的子句SUB_S。
图3是实施例模型结构图。
具体实施方式
下面结合实施例及附图对本发明作进一步详细的描述,但本发明的实施方式不限于此。
实施例1
一种依赖于文本的依存树分析,同时利用注意力机制来对属性进行刻画的属性级别情感分类方法。其主要思路是基于整个文本的依存树分析结果,选择包含给定属性的最小子树部分,把这部分子句作为该属性的上下文信息的表示,所以针对文本中的不同属性,能够得到不同属性的上下文信息表示。给定例句:“手机的屏幕比电脑的屏幕看起来舒服多了”,和指定属性为屏幕,在例句中属性同时出现了两次,一个是手机的屏幕,一个是电脑的屏幕,如果单纯使用属性词作为属性的描述,那么对于模型来说无法区别例句中屏幕属性指向的是手机还是电脑的屏幕。在对例句进行依存树分析后,如图1,可以在依存树中找到对两个屏幕属性的修饰部分是处于该属性词在依存树中的子树部分,因此对两个属性词分别抽取它们的最小子树部分后,就可以得到如图2所示的两个子句,这样子就获得了更加精确的属性上下文信息。
随后利用两个双向门限循环单元(Gated Recurrent Unit,GRU)来对句子的上下文和属性的上下文进行建模,得到两个固定大小的特征表示矩阵,接下来则利用注意力机制来获取文本和特定属性的特征表示,最后利用多层感知机进行特定属性的情感极性分类。
具体来说,一种基于文本的依存树分析结果和注意力机制的情感极性分类方法,该方法是一个端到端的深度神经网络,如图3:第一层是词向量层,将预处理后的句子S和包含属性的子句SUB_S两部分文本中的每个单词表示成为一个低维、稠密的实数向量,此时句子S和子句SUB_S分别表示为一个词向量矩阵;第二层是两个双向GRU,GRU1学习整个句子S中的上下文信息,GRU2学习该属性子句SUB_S的上下文信息,两者都将每个时间步隐藏状态进行输出,以此得到两个GRU建模后的隐藏状态矩阵HS和HSUB_S;第三层是注意力层,将GRU1输出的隐藏状态矩阵HS和GRU2输出的隐藏状态矩阵HSUB_S分别经过一个线性变化后进行两者矩阵乘法操作,得到一个注意力分配矩阵A,此时对矩阵A中的每一列进行累计,得到一个关于句子S中每个单词的注意力分配分数,并将该分数通过一个softmax函数进行归一化;第四层是特定属性的特征计算层,对句子S的词向量矩阵经过一个线性变化后得到一个和隐藏矩阵HS相同维度大小的矩阵E,并对E和HS进行逐元素的累加,然后利用上一层的注意力分数对将累计后的结果进行加权求和,得到代表该属性的特征表示ra;第五层,将GRU1中的最后一个时间步的隐藏状态作为句子的上下文特征表示,经过一个线性变化后与第四层中该属性的信息特征ra表示同样经过一个线性变换后相加,作为同时代表句子上下文和属性信息的特征表示;第六层为输出层,将上一层的特征经过一个隐藏层和一个softmax层后,以softmax层的输出结果作为该属性的情感倾向性分类结果。
本方法提出的模型包括以下步骤:
步骤1:数据预处理,对句子进行分词和依存树分析,然后在依存树中找到包含给定属性的最小子树,获取分词后的句子S和子句SUB_S。并对该句子中所有的单词,寻找每个单词和该属性单词在依存树中的最近公共祖节点,以这个祖节点到两者的路径之和作为两者在依存树中的最短路径长度,该路径长度被编码成为位置信息的输入lweight=[l1,...,li,...,ln],编码计算方式为公式(1):
其中,li代表编码后的结果,disti表示句子S分词后第i个单词wi到属性词的最短距离,n为提前确定好的句子长度。
通过公式(1),可以得到一个和句子长度一致的位置向量,该向量中的每一维代表了句子中对应下标的单词的位置权重。随后利用在大规模无标注语料上训练好的词向量和词典,将整个句子S表示成向量矩阵以及将子句SUB_S表示为向量矩阵
步骤2:对句子上下文和属性上下文分别进行编码,将向量矩阵X1,通过一个双向GRU单元学习句子的上下文表示,并输出每个时间步的隐藏状态,此时称该双向GRU为GRU1,得到的隐藏状态矩阵HS=[hs1,...,hst,...,hsn],其中n为句子长度,d1是该列向量hst的维度。对向量矩阵X2通过另外一个双向GRU单元(记为GRU2),得到隐藏状态矩阵HSUB_S=[hsub1,...,hsubt,...,hsubsub_n],其中sub_n为子句长度,d2是该列向量hsubt的维度。
步骤3:将步骤1中的位置向量lweight中的每个元素分别和步骤2中的隐藏状态矩阵HS中的每一列进行相乘,得到位置信息加权后的记忆矩阵M=[m1,...,mt,...,mn],其中mt=lt·hst。接下来进行特定属性的特征表示计算,计算公式为公式(2):
Attention(Q,K,V)=V·softmax(column_sum(KTQ)) (2)
其中K=W1M,Q=W2HSUB_S,V=(W3X1+W4HS), W1、W2、W3、W4代表线性变换的参数,d、d0、dv代表这些参数的维度大小;column_sum函数是对矩阵KTQ进行按列求和操作,softmax函数则是对求和后的结果进行归一化,softmax函数的输出结果则是注意力分数,该注意力分数和V相乘的结果就是代表根据不同的属性上下文对句子分配注意力后的特征表示,记为ar。
步骤4:为了加强句子上下文信息,将HS中的最后一列作为整个句子的上下文代表,提取出来,记为hsn。为了结合属性的特征表示ar和句子的上下文特征表示hsn,将两者分别经过一个线性变化后,进行逐元素的相加,得到最后的特征表示,并将该特征表示经过一个全连接层,激活函数为双曲正切tanh,输出激活激活函数作用后的结果。
步骤5:对上一层的输出经过一个线性变化后,通过softmax函数输出该特定属性的情感极性预测结果。
实施方法中每个步骤的具体参数设置如下:
步骤1:利用文本处理工具对给定的文本进行分词和依存树分析,在依存树分析结果中找到包含属性的最小子句,同时计算出位置信息向量。利用使用Glove工具训练好的词向量,将句子S和子句SUB_S映射为词向量矩阵,词向量的维度为300维。维度大小和下面每个步骤的参数属于神经网络的超参数,通过对实验数据的预估和实验中的参数调试过程来确定的。
步骤2:对输入的句子向量矩阵和子句向量矩阵,分别使用一个双向的GRU进行上下文建模,称为GRU1和GRU2,GRU1单元的隐藏状态大小设置为100,即GRU1的输出维度为200,GRU2单元的隐藏状态大小设置为75,即GRU2的输出维度为150,GRU1和GRU2分别设置0.5的dropout。
步骤3:计算包含特定属性信息的特征表示,设置W1的维度大小为100×200,W2的维度大小为100×150,W3的维度大小为200×300,W4的维度大小为200×200,最后得到一个包含属性信息的200维列向量特征ar。
步骤4:设置ar的线性变换后的大小为100维,hsn线性变换后的维度大小为100维,经过逐元素的累加后,输入到全连接层中,全连接层的维度大小为100维。
步骤5:步骤4中的特征中经过一个100×3的线性变化后,是一个3维大小的列向量,经过softmax函数,输出后的结果是对应情感倾向类别的概率值,代表该特定属性的情感倾向概率,取概率值最大的类别为该属性的情感倾向类别。
模型训练过程使用了多元交叉熵为损失函数和ADAM方法进行优化,并且使用提早停止的训练方法来防止过拟合。
通过在Semeval2014任务4中laptop和restaurant两个语料集中验证,结果评估标准为准确率(accuracy),准确率定义为模型正确预测的样本数目占整个测试数据集样本总数的百分比。实验结果如下:
Accuracy | |
Laptop | 73.67 |
Restaurant | 80.54 |
上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。
Claims (9)
1.基于依存树和注意力机制的属性情感分类方法,其特征在于,包括步骤如下:
基于整个文本的依存树分析结果,选择包含给定属性的最小子树部分,把这部分子句作为该属性的上下文信息的表示,针对文本中的不同属性,能够得到不同属性的上下文信息表示;随后利用两个双向门限循环单元来对句子的上下文和属性的上下文进行建模,得到两个固定大小的特征表示矩阵,基于整个文本的依存树分析结果,计算句子中单词和属性词在依存树中的最短路径长度来构建含有每个单词相对于属性单词的位置权重信息的位置向量,接下来则根据位置向量、句子上下文的特征表示矩阵和属性上下文的特征表示矩阵,利用注意力机制来获取文本和特定属性的特征表示,最后利用多层感知机进行特定属性的情感极性分类。
2.根据权利要求1所述的基于依存树和注意力机制的属性情感分类方法,其特征在于,实现该方法的深度神经网络模型:
第一层是词向量层,对句子进行分词和依存树分析,然后在依存树中找到包含给定属性的最小子树,将分词预处理后的句子S和包含属性的子句SUB_S两部分文本中的每个单词表示成为一个低维、稠密的实数向量,此时句子S和子句SUB_S分别表示为一个词向量矩阵;基于整个文本的依存树分析结果,计算句子中单词和属性词在依存树中的最短路径长度来构建含有每个单词相对于属性单词的位置权重信息的位置向量;
第二层是两个双向GRU,GRU1学习整个句子S中的上下文信息,GRU2学习该属性子句SUB_S的上下文信息,两者都将每个时间步隐藏状态进行输出,以此得到两个GRU建模后的隐藏状态矩阵HS和HSUB_S;
第三层是注意力层,将GRU1输出的隐藏状态矩阵HS和位置向量相乘得到记忆矩阵M,然后记忆矩阵M和GRU2输出的隐藏状态矩阵HSUB_S分别经过一个线性变化后进行两者矩阵乘法操作,得到一个注意力分配矩阵A,此时对矩阵A中的每一列进行累计,得到一个关于句子S中每个单词的注意力分配分数,并将该分数通过一个softmax函数进行归一化;
第四层是特定属性的特征计算层,对句子S的词向量矩阵经过一个线性变化后得到一个和隐藏矩阵HS相同维度大小的矩阵E,并对E和HS进行逐元素的累加,然后利用上一层的注意力分数对将累计后的结果进行加权求和,得到代表该属性的特征表示ra;
第五层,将GRU1中的最后一个时间步的隐藏状态作为句子的上下文特征表示,经过一个线性变化后与第四层中该属性的信息特征ra表示同样经过一个线性变换后相加,作为同时代表句子上下文和属性信息的特征表示;
第六层为输出层,将上一层的特征经过一个隐藏层和一个softmax层后,以softmax层的输出结果作为该属性的情感倾向性分类结果。
3.根据权利要求2所述的基于依存树和注意力机制的属性情感分类方法,其特征在于,模型训练过程使用了多元交叉熵为损失函数和ADAM方法进行优化,并且使用提早停止的训练方法来防止过拟合。
4.根据权利要求1所述的基于依存树和注意力机制的属性情感分类方法,其特征在于,该方法具体包括如下步骤:
步骤1:数据预处理,对句子进行分词和依存树分析,然后在依存树中找到包含给定属性的最小子树,获取分词后的句子S和子句SUB_S;并对该句子中所有的单词,寻找每个单词和该属性单词在依存树中的最近公共祖节点,以这个祖节点到两者的路径之和作为两者在依存树中的最短路径长度,该路径长度被编码成为位置信息的输入lweight=[l1,...,li,...,ln],编码计算方式为公式(1):
其中,li代表编码后的结果,disti表示句子S分词后第i个单词wi到属性词的最短距离,n为提前确定好的句子长度;
通过公式(1),可以得到一个和句子长度一致的位置向量,该向量中的每一维代表了句子中对应下标的单词的位置权重;然后利用在大规模无标注语料上训练好的词向量和词典,将整个句子S表示成向量矩阵以及将子句SUB_S表示为向量矩阵其中,表示维度为d0的一维实数向量;
步骤2:对句子上下文和属性上下文分别进行编码,将向量矩阵X1,通过一个双向GRU单元学习句子的上下文表示,并输出每个时间步的隐藏状态,此时称该双向GRU为GRU1,得到的隐藏状态矩阵HS=[hs1,...,hst,...,hsn],其中n为句子长度,d1是该列向量hst的维度,表示维度为d1的一维实数向量;对向量矩阵X2通过另外一个双向GRU单元,记为GRU2,得到隐藏状态矩阵HsuB_s=[hsub1,...,hsubt,...,hsubsub_n],其中subt∈[1,sub_n],sub_n为子句长度,d2是该列向量hsubt的维度,表示维度为d2的一维实数向量;
步骤3:将步骤1中的位置向量1weight中的每个元素分别和步骤2中的隐藏状态矩阵HS中的每一列进行相乘,得到位置信息加权后的记忆矩阵M=[m1,...,mt,...,mn],其中mt=lt·hst;接下来进行特定属性的特征表示计算,计算公式为公式(2):
Attention(Q,K,V)=V·softmax(column_sum(KTQ)) (2)
其中KT为K的转置,Q=W2HSUB_s,V=(W3X1+W4HS),W1、W2、W3、W4代表线性变换的参数,d、d0、dv代表这些参数的维度大小,表示高度为d、宽度为d1的二维实数向量,表示高度d、宽度d2的二维实数向量,表示高度dv、宽度d0的二维实数向量,表示高度dv、宽度d1的二维实数向量;column_sum函数是对矩阵KTQ进行按列求和操作,softmax函数则是对求和后的结果进行归一化,softmax函数的输出结果则是注意力分数,该注意力分数和V相乘的结果就是代表根据不同的属性上下文对句子分配注意力后的特征表示,记为ar;
步骤4:将HS中的最后一列作为整个句子的上下文代表,提取出来,记为hsn;为了结合属性的特征表示ar和句子的上下文特征表示hsn,将两者分别经过一个线性变化后,进行逐元素的相加,得到最后的特征表示,并将该特征表示经过一个全连接层,激活函数为双曲正切tanh,输出激活激活函数作用后的结果;
步骤5:对上一层的输出经过一个线性变化后,通过softmax函数输出该特定属性的情感极性预测结果。
5.根据权利要求4所述的基于依存树和注意力机制的属性情感分类方法,其特征在于,步骤1中:利用文本处理工具对给定的文本进行分词和依存树分析,在依存树分析结果中找到包含属性的最小子句,同时计算出位置信息向量;利用使用Glove工具训练好的词向量,将句子S和子句SUB_S映射为词向量矩阵,词向量的维度为300维。
6.根据权利要求4所述的基于依存树和注意力机制的属性情感分类方法,其特征在于,步骤2中:对输入的句子向量矩阵和子句向量矩阵,分别使用一个双向的GRU进行上下文建模,称为GRU1和GRU2,GRU1单元的隐藏状态大小设置为100,即GRU1的输出维度为200,GRU2单元的隐藏状态大小设置为75,即GRU2的输出维度为150,GRU1和GRU2分别设置0.5的dropout。
7.根据权利要求4所述的基于依存树和注意力机制的属性情感分类方法,其特征在于,步骤3中:计算包含特定属性信息的特征表示,设置W1的维度大小为100×200,W2的维度大小为100×150,W3的维度大小为200×300,W4的维度大小为200×200,最后得到一个包含属性信息的200维列向量特征ar。
8.根据权利要求4所述的基于依存树和注意力机制的属性情感分类方法,其特征在于,步骤4中:设置ar的线性变换后的大小为100维,hsn线性变换后的维度大小为100维,经过逐元素的累加后,输入到全连接层中,全连接层的维度大小为100维。
9.根据权利要求4所述的基于依存树和注意力机制的属性情感分类方法,其特征在于,步骤5中:步骤4中的特征中经过一个100×3的线性变化后,是一个3维大小的列向量,经过softmax函数,输出后的结果是对应情感倾向类别的概率值,代表该特定属性的情感倾向概率,取概率值最大的类别为该属性的情感倾向类别。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810112653.7A CN108399158B (zh) | 2018-02-05 | 2018-02-05 | 基于依存树和注意力机制的属性情感分类方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810112653.7A CN108399158B (zh) | 2018-02-05 | 2018-02-05 | 基于依存树和注意力机制的属性情感分类方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108399158A CN108399158A (zh) | 2018-08-14 |
CN108399158B true CN108399158B (zh) | 2021-05-14 |
Family
ID=63096262
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810112653.7A Expired - Fee Related CN108399158B (zh) | 2018-02-05 | 2018-02-05 | 基于依存树和注意力机制的属性情感分类方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108399158B (zh) |
Families Citing this family (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109408614B (zh) * | 2018-09-11 | 2021-10-29 | 全球能源互联网研究院有限公司 | 一种句法依存树动态可视化方法及系统 |
CN109447115A (zh) * | 2018-09-25 | 2019-03-08 | 天津大学 | 基于多层语义监督式注意力模型的细粒度零样本分类方法 |
CN109508642B (zh) * | 2018-10-17 | 2021-08-17 | 杭州电子科技大学 | 基于双向gru和注意力机制的船舶监控视频关键帧提取方法 |
CN109408823B (zh) * | 2018-10-31 | 2019-08-06 | 华南师范大学 | 一种基于多通道模型的特定目标情感分析方法 |
CN109582764A (zh) * | 2018-11-09 | 2019-04-05 | 华南师范大学 | 基于依存句法的交互注意力情感分析方法 |
CN109543039B (zh) * | 2018-11-23 | 2022-04-08 | 中山大学 | 一种基于深度网络的自然语言情感分析方法 |
CN109597995A (zh) * | 2018-12-04 | 2019-04-09 | 国网江西省电力有限公司信息通信分公司 | 一种基于bm25加权结合词向量的文本表示方法 |
CN109446331B (zh) * | 2018-12-07 | 2021-03-26 | 华中科技大学 | 一种文本情绪分类模型建立方法及文本情绪分类方法 |
CN109783641A (zh) * | 2019-01-08 | 2019-05-21 | 中山大学 | 一种基于双向-gru和改进的注意力机制的实体关系分类方法 |
CN112148879B (zh) * | 2019-04-16 | 2023-06-23 | 中森云链(成都)科技有限责任公司 | 一种自动给代码打数据结构标签的计算机可读存储介质 |
CN110134947B (zh) * | 2019-04-17 | 2021-03-26 | 中国科学院计算技术研究所 | 一种基于不平衡多源数据的情感分类方法及系统 |
CN110263333B (zh) * | 2019-06-06 | 2022-11-15 | 北京融汇金信信息技术有限公司 | 一种基于树模型的情感分析处理方法及装置 |
CN110765769B (zh) * | 2019-08-27 | 2023-05-02 | 电子科技大学 | 一种基于子句特征的实体属性依赖情感分析方法 |
CN111046179B (zh) * | 2019-12-03 | 2022-07-15 | 哈尔滨工程大学 | 一种面向特定领域开放网络问句的文本分类方法 |
CN111222332B (zh) * | 2020-01-06 | 2021-09-21 | 华南理工大学 | 一种结合注意力网络和用户情感的商品推荐方法 |
CN111259142B (zh) * | 2020-01-14 | 2020-12-25 | 华南师范大学 | 基于注意力编码和图卷积网络的特定目标情感分类方法 |
CN111259651A (zh) * | 2020-01-21 | 2020-06-09 | 北京工业大学 | 一种基于多模型融合的用户情感分析方法 |
CN111368524A (zh) * | 2020-03-05 | 2020-07-03 | 昆明理工大学 | 一种基于自注意力双向gru和svm的微博观点句识别方法 |
CN111813895B (zh) * | 2020-08-07 | 2022-06-03 | 深圳职业技术学院 | 一种基于层次注意力机制和门机制的属性级别情感分析方法 |
CN112015902B (zh) * | 2020-09-14 | 2022-03-01 | 中国人民解放军国防科技大学 | 基于度量的元学习框架下的少次文本分类方法 |
CN112131888B (zh) * | 2020-09-23 | 2023-11-14 | 平安科技(深圳)有限公司 | 分析语义情感的方法、装置、设备及存储介质 |
CN112487145B (zh) * | 2020-12-01 | 2022-07-29 | 重庆邮电大学 | 一种o2o商铺食品安全监测方法 |
CN113220872A (zh) * | 2021-02-08 | 2021-08-06 | 民生科技有限责任公司 | 一种文档标签生成方法、系统及可读存储介质 |
CN113033215B (zh) * | 2021-05-18 | 2021-08-13 | 华南师范大学 | 情感检测方法、装置、设备以及存储介质 |
CN113408636B (zh) * | 2021-06-30 | 2023-06-06 | 北京百度网讯科技有限公司 | 预训练模型获取方法、装置、电子设备及存储介质 |
CN116090450A (zh) * | 2022-11-28 | 2023-05-09 | 荣耀终端有限公司 | 一种文本处理方法及计算设备 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102637202A (zh) * | 2012-03-15 | 2012-08-15 | 中国科学院计算技术研究所 | 一种迭代式概念属性名称自动获取方法和系统 |
CN103150331A (zh) * | 2013-01-24 | 2013-06-12 | 北京京东世纪贸易有限公司 | 一种提供搜索引擎标签的方法和装置 |
CN105069021A (zh) * | 2015-07-15 | 2015-11-18 | 广东石油化工学院 | 基于领域的中文短文本情感分类方法 |
CN106776868A (zh) * | 2016-11-29 | 2017-05-31 | 浙江工业大学 | 一种基于多元线性回归模型的餐馆评分预测方法 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102663046A (zh) * | 2012-03-29 | 2012-09-12 | 中国科学院自动化研究所 | 一种面向微博短文本的情感分析方法 |
US9767789B2 (en) * | 2012-08-29 | 2017-09-19 | Nuance Communications, Inc. | Using emoticons for contextual text-to-speech expressivity |
CN102866989B (zh) * | 2012-08-30 | 2016-09-07 | 北京航空航天大学 | 基于词语依存关系的观点抽取方法 |
US20160267377A1 (en) * | 2015-03-12 | 2016-09-15 | Staples, Inc. | Review Sentiment Analysis |
CN105512687A (zh) * | 2015-12-15 | 2016-04-20 | 北京锐安科技有限公司 | 训练情感分类模型和文本情感极性分析的方法及系统 |
CN107220231A (zh) * | 2016-03-22 | 2017-09-29 | 索尼公司 | 用于自然语言处理的电子设备和方法以及训练方法 |
CN107168945B (zh) * | 2017-04-13 | 2020-07-14 | 广东工业大学 | 一种融合多特征的双向循环神经网络细粒度意见挖掘方法 |
-
2018
- 2018-02-05 CN CN201810112653.7A patent/CN108399158B/zh not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102637202A (zh) * | 2012-03-15 | 2012-08-15 | 中国科学院计算技术研究所 | 一种迭代式概念属性名称自动获取方法和系统 |
CN103150331A (zh) * | 2013-01-24 | 2013-06-12 | 北京京东世纪贸易有限公司 | 一种提供搜索引擎标签的方法和装置 |
CN105069021A (zh) * | 2015-07-15 | 2015-11-18 | 广东石油化工学院 | 基于领域的中文短文本情感分类方法 |
CN106776868A (zh) * | 2016-11-29 | 2017-05-31 | 浙江工业大学 | 一种基于多元线性回归模型的餐馆评分预测方法 |
Non-Patent Citations (2)
Title |
---|
Recurrent Attention Network on Memory for Aspect Sentiment Analysis;Peng Chen等;《Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing》;20171211;425-461 * |
基于多注意力卷积神经网络的特定目标情感分析;梁斌等;《计算机研究与发展》;20170815;第54卷(第8期);1724-1735 * |
Also Published As
Publication number | Publication date |
---|---|
CN108399158A (zh) | 2018-08-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108399158B (zh) | 基于依存树和注意力机制的属性情感分类方法 | |
Swathi et al. | An optimal deep learning-based LSTM for stock price prediction using twitter sentiment analysis | |
CN110245229B (zh) | 一种基于数据增强的深度学习主题情感分类方法 | |
CN109753566A (zh) | 基于卷积神经网络的跨领域情感分析的模型训练方法 | |
CN109376242A (zh) | 基于循环神经网络变体和卷积神经网络的文本分类算法 | |
CN107688870B (zh) | 一种基于文本流输入的深度神经网络的分层因素可视化分析方法及装置 | |
CN112256866B (zh) | 一种基于深度学习的文本细粒度情感分析算法 | |
CN110929034A (zh) | 一种基于改进lstm的商品评论细粒度情感分类方法 | |
CN109446423B (zh) | 一种新闻以及文本的情感判断系统及方法 | |
CN110472245B (zh) | 一种基于层次化卷积神经网络的多标记情绪强度预测方法 | |
CN112069320B (zh) | 一种基于跨度的细粒度情感分析方法 | |
CN113704546A (zh) | 基于空间时序特征的视频自然语言文本检索方法 | |
Kandhro et al. | Sentiment analysis of students’ comment using long-short term model | |
CN115952292B (zh) | 多标签分类方法、装置及计算机可读介质 | |
CN113987187A (zh) | 基于多标签嵌入的舆情文本分类方法、系统、终端及介质 | |
CN114417851A (zh) | 一种基于关键词加权信息的情感分析方法 | |
CN115544252A (zh) | 一种基于注意力静态路由胶囊网络的文本情感分类方法 | |
CN111507093A (zh) | 一种基于相似字典的文本攻击方法、装置及存储介质 | |
Dhar et al. | Bengali news headline categorization using optimized machine learning pipeline | |
CN110569355A (zh) | 一种基于词块的观点目标抽取和目标情感分类联合方法及系统 | |
CN111708865B (zh) | 一种基于改进XGBoost算法的技术预见及专利预警分析方法 | |
CN117235253A (zh) | 一种基于自然语言处理技术的卡车用户隐性需求挖掘方法 | |
CN115906824A (zh) | 一种文本细粒度情感分析方法、系统、介质和计算设备 | |
CN111767402B (zh) | 一种基于对抗学习的限定域事件检测方法 | |
Selvi et al. | Topic categorization of Tamil news articles |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20210514 |
|
CF01 | Termination of patent right due to non-payment of annual fee |