CN111144130A - 一种基于上下文感知的混合神经网络的细粒度情感分类方法 - Google Patents

一种基于上下文感知的混合神经网络的细粒度情感分类方法 Download PDF

Info

Publication number
CN111144130A
CN111144130A CN201911372752.XA CN201911372752A CN111144130A CN 111144130 A CN111144130 A CN 111144130A CN 201911372752 A CN201911372752 A CN 201911372752A CN 111144130 A CN111144130 A CN 111144130A
Authority
CN
China
Prior art keywords
clause
sentence
context
word
vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201911372752.XA
Other languages
English (en)
Inventor
任建华
李静
汪赫瑜
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Liaoning Technical University
Original Assignee
Liaoning Technical University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Liaoning Technical University filed Critical Liaoning Technical University
Priority to CN201911372752.XA priority Critical patent/CN111144130A/zh
Publication of CN111144130A publication Critical patent/CN111144130A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明公开了一种基于上下文感知的混合神经网络的细粒度情感分类方法,步骤为:在对每个子句中的单词编码时,采用一个双向的Bi‑LSTM,在单词级注意机制中引入上下文向量;子句级使用卷积层从子句上提取局部特征,通过最大池操作聚集所有局部特征,得到一个固定大小的句子向量;将句子向量输入到softmax分类器进行分类,获得最高概率的标签代表预测的方面情感极性。本发明的基于上下文感知的混合神经网络的细粒度情感分类方法在单词级注意机制中引入上下文向量,这样所得到的每条子句向量的表示都充分考虑了上下文信息。本发明在子句级使用卷积神经网络来达到相同的功能,但计算成本将大大降低。

Description

一种基于上下文感知的混合神经网络的细粒度情感分类方法
技术领域
本发明属于语言处理的技术领域,尤其涉及一种基于上下文感知的混合神经网络的细粒度情感分类方法。
背景技术
近年来,由于情感分类固有的挑战和广泛的应用在自然语言处理和数据挖掘领域受到了越来越多研究者的关注。方面情感分类是一种更细粒度的情感分类任务,给定一条句子和句子中出现的某几个方面,它的目的是分析出该句子在给定方面上的情感极性(积极、中立、消极)。例如,句子:“衣服是漂亮的,但价格实在是太高了”,在“衣服”方面,情感极性为“积极”,而在“价格”方面,情感极性为“消极”。可以看出,从不同的方面对同一条句子进行分析,可能有不同的情感极性。
方面情感分类是情感分析的一个分支,其研究方法可分为传统的机器学习方法和神经网络方法。早期基于方面情感分类的方法主要集中于设计一组特征(例如,词包、情感词汇)训练分类器(例如,Support Vector Machine,SVM)的监督学习方法。然而,这些模型的性能高度依赖于特征的质量,特征工程是劳动密集型的,几乎达到了性能瓶颈。
随着深度学习技术的发展,一些研究人员设计了有效的基于对应词向量的神经网络方法用来更好地表示文本。考虑到文本是一个序列模型,提出了一种基于递归单元的递归神经网络(Recursive Neural Network,RNN)模型。该模型关注每个单词,并存储前面文本中显示的每个单词的语义。例如,Tang等人(Duyu Tang,Bing Qin,Xiaocheng Feng,andTing Liu.Effective lstms for target-dependent sentiment classification.arXivpreprint arXiv:1512.01100,2015.)使用两个依赖于方面的LSTM(Long Short-TermMemory)网络分别表示文本和方面,并采用前馈网络对期望方面的情感进行分类。但是,由于该RNN模型对后一个词的重视程度要高于前一个词,因此不能很好地区分每个词之间的重要性。之后,卷积神经网络(Convolutional Neural Networks,CNNs)被用于方面情感分类任务。例如,Xue(Wei Xue and Tao Li.Aspect based sentiment analysis with gatedconvolutional networks.arXiv preprint arXiv:1805.07043,2018.)提出了一种基于CNNs和门控机制的简单、易于并行化的模型;Li等人(Xin Li,Lidong Bing,Wai Lam,andBei Shi.Transformation networks for target-oriented sentimentclassification.arXiv print arXiv:1805.01086,2018.)应用了一种转换网络(TNet),该网络利用CNNs提取显著特征,并使用一个组件来生成特定方面的表示。结果表明,CNNs的模型取得了很好的结果,但是它们只提取局部特征,不能发现每个单词之间的顺序相关性。
最近,神经网络方法在情感分类方面显示出了良好的效果,如Socher等人的递归神经网络(Richard Socher,Jeffrey Pennington,Eric H.Huang,Andrew Y.Ng,andChristopher D.Manning.Semi-supervised recursive autoencoders for predictingsentiment distributions.In Proceedings of EMNLP2011,pages 151–161,2011.)、递归NTN(R.Socher,A.Perelygin,J.Y.Wu,J.Chuang,C.D.Manning,A.Y.Ng,andC.Potts.Recursive deep models for semantic compositionality over a sentimenttreebank.2013.)和Tai等人(Kai Sheng Tai,Richard Socher,and ChristopherD.Manning.Improved semantic representations from tree-structured long short-term memory networks.In Proceedings of ACL-2015,pages 1556–1566,2015.)的Tree-LSTM。虽然,以上基于神经网络的方法只考虑了上下文而没有考虑方面信息,但这也为研究方面情感极性分类做出了贡献。
之后,为了将方面信息合并到模型中,Tang等人(Duyu Tang,Bing Qin,XiaochengFeng,and Ting Liu.Effective lstms for target-dependent sentimentclassification.In Proceedings of COLING-2016,pages 3298–3307,2016a.)提出了用两个长短时记忆网络(LSTM)建模具有方面的左右上下文。Wang等人(Yequan Wang,MinlieHuang,Xiaoyan Zhu,and LiZhao.Attention-based LSTM for aspect-level sentimentclassification.In Proceedings of EMNLP-2016,pages 606–615,2016.)提出了一种基于注意力的LSTM,以探索方面情感分类中方面和情感极性的潜在相关性。Tang等人(DuyuTang,Bing Qin,and Ting Liu.Aspect level sentiment classification with deepmemory network.In Proceedings of EMNLP-2016,pages 214–224,2016b.)设计了由多个计算层组成的深度记忆网络来整合方面信息。Chen等人(Peng Chen,Zhongqian Sun,Lidong Bing,and Wei Yang.Recurrent attention network on memory for aspectsentiment analysis.In Proceedings of EMNLP-2017,pages 452–461,2017.)也提出了一种深度记忆网络来整合方面信息,但多重注意的结果与递归神经网络的联合是非线性结合的。Ma等人(Dehong Ma,Sujian Li,Xiaodong Zhang,and Houfeng Wang.Interactiveattention networks for aspect-level sentiment classification.In Proceedingsof IJCAI-2017,pages 4068–4074,2017.)提出了一种交互式学习方法,在上下文和方面中交互式地学习注意力。
现有技术在单词级特定方面的注意机制中,使用多个Bi-LSTM同时对所有子句进行编码时,每条子句被独立编码,没有考虑上下文信息。另外,子句级特定方面的注意机制使用的是和单词级特定方面的注意机制相同的方法,都是使用的Bi-LSTM分别对单词和子句进行编码,由于Bi-LSTM的参数多,结构复杂,所以计算成本高。
发明内容
基于以上现有技术的不足,本发明所解决的技术问题在于提供一种基于上下文感知的混合神经网络的细粒度情感分类方法,在单词级注意机制中引入上下文向量,所得到的每条子句向量都充分考虑了上下文信息,在子句级使用卷积神经网络来达到相同的功能,计算成本大大降低。
为了解决上述技术问题,本发明通过以下技术方案来实现:
本发明的基于上下文感知的混合神经网络的细粒度情感分类方法,包括以下步骤:
步骤S1:在对每个子句中的单词编码时,采用一个双向的Bi-LSTM,在单词级注意机制中引入上下文向量;
步骤S2:子句级使用卷积层从子句上提取局部特征,通过最大池操作聚集所有局部特征,得到一个固定大小的句子向量;
步骤S3:将句子向量输入到softmax分类器进行分类,获得最高概率的标签代表预测的方面情感极性。
优选的,在所述步骤S1中,Bi-LSTM包含从单词Ii,1
Figure BDA0002338762020000041
读子句ci的前向LSTM
Figure BDA0002338762020000042
和从单词
Figure BDA0002338762020000043
到Ii,1读子句ci的后向LSTM
Figure BDA0002338762020000044
Figure BDA0002338762020000045
i∈[1,C],j∈[1,Ni]
Figure BDA0002338762020000046
i∈[1,C],j∈[Ni,1]
通过连接前向隐藏状态
Figure BDA0002338762020000047
和后向隐藏状态
Figure BDA0002338762020000048
获得给定单词Iij的表示hij,它概括了以单词Iij为中心的整个子句的信息,即:
Figure BDA0002338762020000049
在单词级注意机制中引入上下文向量ti
uij=tanh(Ww·[hij;easpect]+wtti+bw)
Figure BDA0002338762020000051
Figure BDA0002338762020000052
其中,[hij;easpect]表示hij与easpect垂直连接,Ww和bw分别表示中间矩阵和偏移值,上下文向量ti表示在求解第i条子句的权重时,以求和的形式将前面的i-1条(c1,c2,...,ci-1)句子的信息考虑进来,
Figure BDA0002338762020000053
表示子句i中所有单词的权重向量;
子句向量ci表示为基于权重的所有单词的加权和:
Figure BDA0002338762020000054
可选的,在所述步骤S2中,采用不同大小的卷积核来处理句子中的所有子句,长度为C的句子表示如下:
Figure BDA0002338762020000055
其中,
Figure BDA0002338762020000056
表示连接操作,ci:i+j指的是子句ci,ci+1,...,ci+j的连接,对h个子句的窗口进行卷积运算将产生一个新的特征,特征mi是由一个子句si:i+h-1的窗口生成:
mi=f(w·mi:i+h-1+b)
其中,b表示一个偏置项,f为一个非线性函数,此滤波器应用于句子中每个可能的子句窗口,以生成一个特征图:
m=[m1,m2,...,mn-h+1]
在特征图上使用一个最大池操作,并以最大值
Figure BDA0002338762020000057
作为对应于特定滤波器的特征;通过将所有的
Figure BDA0002338762020000058
连接起来得到整个句子的高级向量化表示s,它可以被视为整个句子特征提取的表示。
可选的,在所述步骤S3中,将句子表示s输入给一个softmax分类器:
o=Wl·s+bl
其中,o表示输出,Wl表示权重矩阵,bl表示偏置,具有情感极性k∈[1,K]的标签句子的概率为:
Figure BDA0002338762020000061
其中,θ表示所有的参数,最后,获得最高概率的标签代表预测的方面情感极性。
由上,本发明的基于上下文感知的混合神经网络的细粒度情感分类方法至少具有如下有益效果:
(1)为了避免每条子句被独立编码,在细粒度情感分类问题的单词级特定方面的注意机制中引入上下文向量ti,使得到的每条子句向量的表示ci都充分考虑了上下文信息,这具有一定的可解释性。
(2)针对在单词级和子句级都使用Bi-LSTM对单词和子句进行编码所带来的计算成本和误码率高的情况,本发明在子句级使用卷积层从子句上提取局部特征,然后通过最大池操作聚集所有局部特征,从而得到一个固定大小的句子向量,最后将该句子向量输入到softmax分类器进行分类。使用卷积神经网络可以达到与子句级特定方面注意机制相同的功能,但计算成本将大大降低。
(3)通过采用句子级语篇分割技术将一条句子分割为几个子句,利用单词嵌入、位置嵌入和方面嵌入的信息分别对每个子句进行处理,得到每个子句中单词的向量表示;利用多个Bi-LSTM层对所有的子句进行编码,并使用注意机制强调每个子句中单词的重要程度,与此同时,为了加强对上下文的理解,全面获取整条句子的上下文信息,还在单词级注意层中引入上下文向量;使用多个不同大小的卷积核从多个子句中获得整条句子的上下文信息。在SemEval-2014的笔记本和餐馆数据集上的实验结果表明,本发明所提出的方法能够获得了更好的分类结果。
上述说明仅是本发明技术方案的概述,为了能够更清楚了解本发明的技术手段,而可依照说明书的内容予以实施,并且为了让本发明的上述和其他目的、特征和优点能够更明显易懂,以下结合优选实施例,并配合附图,详细说明如下。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例的附图作简单地介绍。
图1为单词级特定方面的注意力机制的整体体系结构图;
图2为子句级特定方面的注意力机制的整体体系结构图;
图3为本发明的基于上下文感知的混合神经网络的细粒度情感分类方法的整体概述图;
图4为本发明的基于上下文感知的混合神经网络的细粒度情感分类方法的整体体系结构图,其中(a)为单字级特定方面注意模块;(b)为CNN卷积模块和softmax分类模块。
具体实施方式
下面结合附图详细说明本发明的具体实施方式,其作为本说明书的一部分,通过实施例来说明本发明的原理,本发明的其他方面、特征及其优点通过该详细说明将会变得一目了然。在所参照的附图中,不同的图中相同或相似的部件使用相同的附图标号来表示。
在本发明中,首先介绍一种子句识别方法,它可以将一个句子分割成几个子句。在此基础上,本发明的基于上下文感知的混合神经网络的细粒度情感分类方法(CAHNN),该模型将CNN和RNN的优点结合在一起,实现了全局特征与局部特征的有效融合,为了能够加强对上下文的理解,还在注意机制中引入了上下文向量,从而使得模型能够全面地捕获整条句子的信息。图3显示了所提出CAHNN模型的整体概述图。
子句识别在自然语言处理领域中是一项非常重要的问题,它可以被看作是语篇分割的一个子问题,在自然语言处理领域中得到了广泛的研究。语篇分割是将给定的文本分割成称为基本语篇单元(elementary discourse units,EDUs)的非重叠片段,每个EDU都可以看作一个子句。本发明使用句子级的语篇分割,将一个句子分割成EDUs(Radu Soricutand Daniel Marcu.Sentence level discourse parsing using syntactic and lexicalinformation.In Proceedings of NAACL-2003,2003.)。现存的语篇理论有多种,每种理论在语篇切分准则和语篇单位大小上都有其特殊性。本发明采用修辞结构理论(RhetoricalStructure Theory,RST)(W.MANN.Rhetorical structure theory:Toward a functionaltheory of text organization.Text,8(3):243–281,1988.),因为它定义了良好的EDUs,并进行句子级的语篇分割来检测EDUs作为子句。例如,经过句子级的语篇分割之后,[Theroom is very beautiful][and the platform is especially top notch,][but thespace is too small][and I don’t like the ambience.]被分割成了四个互不重叠的子句。
本发明的基于上下文感知的混合神经网络的细粒度情感分类方法(CAHNN),该模型能够提取与特定方面相对应的信息词,并全面地捕获了整条句子的信息。图4显示了该方法的总体架构,主要由三个部分组成:单字级特定方面注意模块、CNN卷积模块和softmax分类模块。
单字级特定方面注意模块
单词嵌入层
假设一条句子被分割为C个子句ci,每个子句包含Ni个单词。Iij表示第i个子句中的第j个单词。给定一个含有单词Iij的子句ci,单词Iij的向量表示
Figure BDA0002338762020000091
由单词嵌入和位置嵌入组成,即:
Figure BDA0002338762020000092
其中,
Figure BDA0002338762020000093
表示单词嵌入矩阵,
Figure BDA0002338762020000094
表示位置嵌入矩阵。
方面类别由实体和属性组成。具体地说,长度为L1的实体串eentity表示为{x1,x2,...,xL1},其中xn∈Rd'表示实体串中第n个单词的d'维向量。长度为L2的属性串eattribute表示为{z1,z2,...,zL2}。由于常用的词嵌入表示呈现出线性结构,使得通过向量表示的元素加法来有意义地组合单词成为可能,因此使用实体和属性嵌入的和来获得更紧凑的方面表示,即:
Figure BDA0002338762020000095
然后,受Tang等人研究的启发,将方面表示添加到每个单词的嵌入中,形成针对每个单词j的方面增强嵌入,即:
Figure BDA0002338762020000096
i∈[1,C],j∈[1,Ni]
其中,
Figure BDA0002338762020000097
表示连接操作,C表示子句的数目,Ni表示子句ci中单词的数目。
Bi-LSTM与单词注意层
在对每个子句中的单词编码时,采用一个双向的Bi-LSTM。在一个特定的时间范围内,Bi-LSTM能够有效地利用过去的特征(通过前向状态)和未来的特征(通过后向状态)汇总来自词语两个方向的信息来获得单词的表示。Bi-LSTM包含从单词Ii,1
Figure BDA0002338762020000098
读子句ci的前向LSTM
Figure BDA0002338762020000099
和从单词
Figure BDA00023387620200000910
到Ii,1读子句ci的后向LSTM
Figure BDA00023387620200000911
Figure BDA0002338762020000101
i∈[1,C],j∈[1,Ni]
Figure BDA0002338762020000102
i∈[1,C],j∈[Ni,1]
通过连接前向隐藏状态
Figure BDA0002338762020000103
和后向隐藏状态
Figure BDA0002338762020000104
获得给定单词Iij的表示hij,它概括了以单词Iij为中心的整个子句的信息,即:
Figure BDA0002338762020000105
传统的LSTM模型无法体现子句中不同单词的重要程度。为了解决这个问题,本发明设计了一种注意机制,使该模型针对某一特定方面将注意力集中在子句中的这类词上。而且,由于Bi-LSTM是独立地对每条子句进行编码,忽略了不同子句之间的联系,为了实现对一个子句进行编码时能整合其它子句的信息,还在单词级注意机制中引入上下文向量ti
uij=tanh(Ww·[hij;easpect]+wtti+bw)
Figure BDA0002338762020000106
Figure BDA0002338762020000107
其中,[hij;easpect]表示hij与easpect垂直连接,Ww和bw分别表示中间矩阵和偏移值,上下文向量ti表示在求解第i条子句的权重时,以求和的形式将前面的i-1条(c1,c2,...,ci-1)句子的信息考虑进来,
Figure BDA0002338762020000108
表示子句i中所有单词的权重向量。
然后,子句向量ci表示为基于权重的所有单词的加权和:
Figure BDA0002338762020000109
CNN卷积模块
通过上式得到一条句子中所有子句的向量表示ci,然后,采用不同大小的卷积核来处理句子中的所有子句,长度为C的句子表示如下:
Figure BDA0002338762020000111
其中,
Figure BDA0002338762020000112
表示连接操作,ci:i+j指的是子句ci,ci+1,...,ci+j的连接,对h个子句的窗口进行卷积运算将产生一个新的特征。例如,特征mi是由一个子句si:i+h-1的窗口生成:
mi=f(w·mi:i+h-1+b)
其中,b表示一个偏置项,f为一个非线性函数,此滤波器应用于句子中每个可能的子句窗口,以生成一个特征图:
m=[m1,m2,...,mn-h+1]
然后,在特征图上使用一个最大池操作,并以最大值
Figure BDA0002338762020000113
作为对应于特定滤波器的特征。该方法不仅使用最高的值来捕获每个特征图的最重要的特征,而且,该池方案自然处理了句子的长度。最后,通过将所有的
Figure BDA0002338762020000114
连接起来得到整个句子的高级向量化表示s,它可以被视为整个句子特征提取的表示。
softmax分类模块
为了进行方面情感分类,将句子表示s输入给一个softmax分类器:
o=Wl·s+bl
由单词级特定方面的注意力机制得到子句向量ci,类似于单词编码层使用Bi-LSTM对子句进行编码,以便在表示中整合上下文信息,即有:
Figure BDA0002338762020000115
i∈[1,C]
Figure BDA0002338762020000116
i∈[1,C]
同理,通过整合
Figure BDA0002338762020000117
Figure BDA0002338762020000118
得到子句ci的表示如下:
Figure BDA0002338762020000119
其中,hi总结了以子句ci为中心的整条句子的信息。
子句注意层:图2显示了子句级注意模块的详细信息,图中的[h1,h2,…,hC]代表子句向量的表示,用每一个子句表示hi和方面表示easpect可以计算得到注意权重αi
mi=tanh(Wc·[hi;easpect]+bc)
Figure BDA0002338762020000121
其中,1≤i≤C,Wc是一个中间矩阵,bc是一个偏移值。
通过计算子句表示的权值,可以得到基于注意向量αi的句子表示s,
Figure BDA0002338762020000122
其中,o表示输出,Wl表示权重矩阵,bl表示偏置,具有情感极性k∈[1,K]的标签句子的概率为:
Figure BDA0002338762020000123
其中,θ表示所有的参数。最后,获得最高概率的标签代表预测的方面情感极性。
模型训练
本发明使用交叉熵损失函数对所提出的模型进行训练,端到端的给定一组训练数据xt,et,yt,其中,xt表示要被预测的第t个文本,et表示相对应的方面,yt表示对于方面et和文本xt真实情感极性的one-hot表示。用黑盒φ(x,e)表示所提出的模型,它的输出为情感极性的概率。模型训练的目标是最小化损失函数:
Figure BDA0002338762020000124
其中,M表示训练样本数目,K表示类别数目,l是L2正则化的偏置参数。公式中的模型参数使用Adam优化器(Diederik P Kingma and Jimmy Ba.Adam:A method forstochastic optimization.arXiv preprint arXiv:1412.6980,2014.)进行优化,所有的矩阵和向量参数使用均匀分布
Figure BDA0002338762020000131
随机初始化。其中,r和c'分别表示矩阵中的行和列的数量。此外,为了防止训练过程中出现过拟合,在双向的LSTM中使用丢弃规则。
实验
本发明实验环境为Ubuntu 16.04 LTS操作系统,Inter(R)Corei7-6800K@3.40GHZCPU,16G内存,实验基于深度学习框架Tensorflow1.12.0实现,实验所用开发语言为Python3.6。为了验证本发明所提出模型的分类性能,实验中使用SemEval-2014的笔记本和餐馆数据集进行了测试。
数据集
为了验证所提出模型CAHNN的有效性,在SemEval-2014 Task 4(Maria Pontiki,Dimitris Galanis,John Pavlopoulos,Harris Papageorgiou,Ion Androutsopoulos,andSuresh Manandhar.Semeval-2014task 4:Aspect based sentiment analysis.SemEval,pages 27–35,2014.)上进行了实验。SemEval-2014数据集由两种类别的评论组成:笔记本和餐馆。评论标签有三种情感极性:积极、中立和消极。实验过程中将训练集中的10%用作开发数据集,以实现对算法参数进行微调。数据集的统计信息如表1所示:
表1数据集的统计信息
Figure BDA0002338762020000132
参数设置
实验中,使用的嵌入表是由Glove(Jeffrey Pennington,Richard Socher,andChristopher Manning.Glove:Global vectors for word representation.In EMNLP,pages 1532–1543,2014.)预先训练得到,词嵌入和位置嵌入在训练过程中优化。词汇表外的单词通过从均匀分布U(-0.25,0.25)中采样来初始化。词向量的维度为300。实验中使用Adam优化器训练模型。初始学习率设置为0.01,L2正则化项的权重设置为10-4,丢弃率设置为0.5。LSTM隐藏状态的维度和输出表示为50。
评价指标
为了评估方面情感分类的性能,用Accuracy作为评估指标,其计算式如下:
Figure BDA0002338762020000141
其中,T表示正确预测的样本数目,N表示总的样本数目。Accuracy衡量了正确预测的样本数目在总的样本数目中所占的比例。Accuracy的值越高,表明系统的性能越好。
在本发明中,Bi-LSTM独立地对每个子句进行编码,忽略了不同子句之间的联系,为了实现对一个子句进行编码时能整合其它子句的信息,在单词级注意机制中引入上下文向量ti,即:
uij=tanh(Ww·[hij;easpect]+wtti+bw)
Figure BDA0002338762020000142
为了解决在单词级特定方面注意机制和子句级特定方面注意机制中同时使用参数多、结构复杂的Bi-LSTM所带来的计算成本高问题,在子句级用卷积神经网络来代替,达到相同的功能。
以上所述是本发明的优选实施方式而已,当然不能以此来限定本发明之权利范围,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和变动,这些改进和变动也视为本发明的保护范围。

Claims (4)

1.一种基于上下文感知的混合神经网络的细粒度情感分类方法,其特征在于,包括以下步骤:
步骤S1:在对每个子句中的单词编码时,采用一个双向的Bi-LSTM,在单词级注意机制中引入上下文向量;
步骤S2:子句级使用卷积层从子句上提取局部特征,通过最大池操作聚集所有局部特征,得到一个固定大小的句子向量;
步骤S3:将句子向量输入到softmax分类器进行分类,获得最高概率的标签代表预测的方面情感极性。
2.如权利要求1所述的基于上下文感知的混合神经网络的细粒度情感分类方法,其特征在于,在所述步骤S1中,Bi-LSTM包含从单词Ii,1
Figure FDA00023387620100000111
读子句ci的前向
Figure FDA0002338762010000011
和从单词
Figure FDA0002338762010000012
到Ii,1读子句ci的后向
Figure FDA0002338762010000013
Figure FDA0002338762010000014
Figure FDA0002338762010000015
通过连接前向隐藏状态
Figure FDA0002338762010000016
和后向隐藏状态
Figure FDA0002338762010000017
获得给定单词Iij的表示hij,它概括了以单词Iij为中心的整个子句的信息,即:
Figure FDA0002338762010000018
在单词级注意机制中引入上下文向量ti
uij=tanh(Ww·[hij;easpect]+wtti+bw)
Figure FDA0002338762010000019
Figure FDA00023387620100000110
其中,[hij;easpect]表示hij与easpect垂直连接,Ww和bw分别表示中间矩阵和偏移值,上下文向量ti表示在求解第i条子句的权重时,以求和的形式将前面的i-1条(c1,c2,...,ci-1)句子的信息考虑进来,
Figure FDA0002338762010000021
表示子句i中所有单词的权重向量;
子句向量ci表示为基于权重的所有单词的加权和:
Figure FDA0002338762010000022
3.如权利要求2所述的基于上下文感知的混合神经网络的细粒度情感分类方法,其特征在于,在所述步骤S2中,采用不同大小的卷积核来处理句子中的所有子句,长度为C的句子表示如下:
Figure FDA0002338762010000023
其中,
Figure FDA0002338762010000024
表示连接操作,ci:i+j指的是子句ci,ci+1,...,ci+j的连接,对h个子句的窗口进行卷积运算将产生一个新的特征,特征mi是由一个子句si:i+h-1的窗口生成:
mi=f(w·mi:i+h-1+b)
其中,b表示一个偏置项,f为一个非线性函数,此滤波器应用于句子中每个可能的子句窗口,以生成一个特征图:
m=[m1,m2,...,mn-h+1]
在特征图上使用一个最大池操作,并以最大值
Figure FDA0002338762010000025
作为对应于特定滤波器的特征;通过将所有的
Figure FDA0002338762010000026
连接起来得到整个句子的高级向量化表示s,它可以被视为整个句子特征提取的表示。
4.如权利要求3所述的基于上下文感知的混合神经网络的细粒度情感分类方法,其特征在于,在所述步骤S3中,将句子表示s输入给一个softmax分类器:
o=Wl·s+bl
其中,o表示输出,Wl表示权重矩阵,bl表示偏置,具有情感极性k∈[1,K]的标签句子的概率为:
Figure FDA0002338762010000031
获得最高概率的标签代表预测的方面情感极性。
CN201911372752.XA 2019-12-26 2019-12-26 一种基于上下文感知的混合神经网络的细粒度情感分类方法 Pending CN111144130A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911372752.XA CN111144130A (zh) 2019-12-26 2019-12-26 一种基于上下文感知的混合神经网络的细粒度情感分类方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911372752.XA CN111144130A (zh) 2019-12-26 2019-12-26 一种基于上下文感知的混合神经网络的细粒度情感分类方法

Publications (1)

Publication Number Publication Date
CN111144130A true CN111144130A (zh) 2020-05-12

Family

ID=70521147

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911372752.XA Pending CN111144130A (zh) 2019-12-26 2019-12-26 一种基于上下文感知的混合神经网络的细粒度情感分类方法

Country Status (1)

Country Link
CN (1) CN111144130A (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112199550A (zh) * 2020-09-08 2021-01-08 浙江大学山东工业技术研究院 一种基于情感胶囊网络的短视频点击率预测方法
CN112347248A (zh) * 2020-10-30 2021-02-09 山东师范大学 一种方面级文本情感分类方法及系统
CN112579778A (zh) * 2020-12-23 2021-03-30 重庆邮电大学 基于多层次的特征注意力的方面级情感分类方法
WO2021169364A1 (zh) * 2020-09-23 2021-09-02 平安科技(深圳)有限公司 分析语义情感的方法、装置、设备及存储介质
CN113571177A (zh) * 2021-06-25 2021-10-29 天津大学 基于门控卷积网络的在线论坛用户抑郁检测模型

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180329883A1 (en) * 2017-05-15 2018-11-15 Thomson Reuters Global Resources Unlimited Company Neural paraphrase generator
CN108984724A (zh) * 2018-07-10 2018-12-11 凯尔博特信息科技(昆山)有限公司 利用高维表示提高特定属性情感分类准确率方法
CN110069778A (zh) * 2019-04-18 2019-07-30 东华大学 中文融入嵌入词位置感知的商品情感分析方法
CN110162636A (zh) * 2019-05-30 2019-08-23 中森云链(成都)科技有限责任公司 基于d-lstm的文本情绪原因识别方法
US20190266245A1 (en) * 2017-12-21 2019-08-29 International Business Machines Corporation Unsupervised neural based hybrid model for sentiment analysis of web/mobile application using public data sources
CN110472042A (zh) * 2019-07-02 2019-11-19 桂林电子科技大学 一种细粒度情感分类方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180329883A1 (en) * 2017-05-15 2018-11-15 Thomson Reuters Global Resources Unlimited Company Neural paraphrase generator
US20190266245A1 (en) * 2017-12-21 2019-08-29 International Business Machines Corporation Unsupervised neural based hybrid model for sentiment analysis of web/mobile application using public data sources
CN108984724A (zh) * 2018-07-10 2018-12-11 凯尔博特信息科技(昆山)有限公司 利用高维表示提高特定属性情感分类准确率方法
CN110069778A (zh) * 2019-04-18 2019-07-30 东华大学 中文融入嵌入词位置感知的商品情感分析方法
CN110162636A (zh) * 2019-05-30 2019-08-23 中森云链(成都)科技有限责任公司 基于d-lstm的文本情绪原因识别方法
CN110472042A (zh) * 2019-07-02 2019-11-19 桂林电子科技大学 一种细粒度情感分类方法

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112199550A (zh) * 2020-09-08 2021-01-08 浙江大学山东工业技术研究院 一种基于情感胶囊网络的短视频点击率预测方法
CN112199550B (zh) * 2020-09-08 2023-05-19 浙江大学山东工业技术研究院 一种基于情感胶囊网络的短视频点击率预测方法
WO2021169364A1 (zh) * 2020-09-23 2021-09-02 平安科技(深圳)有限公司 分析语义情感的方法、装置、设备及存储介质
CN112347248A (zh) * 2020-10-30 2021-02-09 山东师范大学 一种方面级文本情感分类方法及系统
CN112579778A (zh) * 2020-12-23 2021-03-30 重庆邮电大学 基于多层次的特征注意力的方面级情感分类方法
CN113571177A (zh) * 2021-06-25 2021-10-29 天津大学 基于门控卷积网络的在线论坛用户抑郁检测模型

Similar Documents

Publication Publication Date Title
Han et al. A survey on visual transformer
Wang et al. Deepvid: Deep visual interpretation and diagnosis for image classifiers via knowledge distillation
Zhang et al. Sequence-to-sequence domain adaptation network for robust text image recognition
Cho et al. Describing multimedia content using attention-based encoder-decoder networks
CN111144130A (zh) 一种基于上下文感知的混合神经网络的细粒度情感分类方法
Lin et al. Moment retrieval via cross-modal interaction networks with query reconstruction
Li et al. Improving convolutional neural network for text classification by recursive data pruning
CN112307995B (zh) 一种基于特征解耦学习的半监督行人重识别方法
Wang et al. Attention augmentation with multi-residual in bidirectional LSTM
Liu et al. Co-attention network with label embedding for text classification
CN111553350B (zh) 一种基于深度学习的注意力机制文本识别方法
Rasheed et al. Handwritten Urdu characters and digits recognition using transfer learning and augmentation with AlexNet
CN110347831A (zh) 基于自注意力机制的情感分类方法
CN113344206A (zh) 融合通道与关系特征学习的知识蒸馏方法、装置及设备
CN111582506A (zh) 基于全局和局部标记关系的偏多标记学习方法
Hrúz et al. One model is not enough: Ensembles for isolated sign language recognition
CN116432019A (zh) 一种数据处理方法及相关设备
Hu et al. MAENet: A novel multi-head association attention enhancement network for completing intra-modal interaction in image captioning
CN111597816A (zh) 一种自注意力命名实体识别方法、装置、设备及存储介质
Gu et al. Towards facial expression recognition in the wild via noise-tolerant network
Xie et al. Sequential gesture learning for continuous labanotation generation based on the fusion of graph neural networks
Boukdir et al. Character-level arabic text generation from sign language video using encoder–decoder model
Xu et al. An adaptive wordpiece language model for learning chinese word embeddings
Zhao et al. Domain adaptation with feature and label adversarial networks
Lan et al. Visual question answering model for fruit tree disease decision-making based on multimodal deep learning

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
AD01 Patent right deemed abandoned
AD01 Patent right deemed abandoned

Effective date of abandoning: 20231201