CN112115700A - 一种基于依存句法树和深度学习的方面级情感分析方法 - Google Patents
一种基于依存句法树和深度学习的方面级情感分析方法 Download PDFInfo
- Publication number
- CN112115700A CN112115700A CN202010836950.3A CN202010836950A CN112115700A CN 112115700 A CN112115700 A CN 112115700A CN 202010836950 A CN202010836950 A CN 202010836950A CN 112115700 A CN112115700 A CN 112115700A
- Authority
- CN
- China
- Prior art keywords
- text
- word
- syntax tree
- dependency syntax
- evaluation object
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000008451 emotion Effects 0.000 title claims abstract description 47
- 238000004458 analytical method Methods 0.000 title claims abstract description 38
- 238000013135 deep learning Methods 0.000 title claims abstract description 20
- 238000011156 evaluation Methods 0.000 claims abstract description 72
- 230000014509 gene expression Effects 0.000 claims abstract description 27
- 238000012545 processing Methods 0.000 claims abstract description 20
- 238000000034 method Methods 0.000 claims abstract description 19
- 238000012549 training Methods 0.000 claims abstract description 19
- 238000013528 artificial neural network Methods 0.000 claims abstract description 15
- 230000002457 bidirectional effect Effects 0.000 claims abstract description 11
- 230000010354 integration Effects 0.000 claims abstract description 10
- 230000011218 segmentation Effects 0.000 claims abstract description 5
- 239000011159 matrix material Substances 0.000 claims description 9
- 230000006870 function Effects 0.000 claims description 7
- 230000000694 effects Effects 0.000 claims description 4
- 230000004913 activation Effects 0.000 claims description 3
- 230000008569 process Effects 0.000 claims description 3
- 238000013527 convolutional neural network Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 4
- 238000003058 natural language processing Methods 0.000 description 4
- 235000008694 Humulus lupulus Nutrition 0.000 description 2
- 230000002996 emotional effect Effects 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 230000015654 memory Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
- G06F40/211—Syntactic parsing, e.g. based on context-free grammar [CFG] or unification grammars
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/284—Lexical analysis, e.g. tokenisation or collocates
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/049—Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Data Mining & Analysis (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Machine Translation (AREA)
Abstract
本发明提供了一种基于依存句法树和深度学习的方面级情感分析方法。该方法包括:对待分析的文本进行分词和嵌入训练处理,得到文本中的每个单词的词向量表达,输入到双向长短时神经网络中得到每个单词和文本的整合信息;利用文本中的所有单词构造依存句法树,利用依存句法树构造GCN图,将文本的整合信息与GCN图进行迭代处理,得到文本中的评价对象的依存句法树表示;对文本的整合信息和评价对象的依存句法树表示进行结合,对结合的结果使用CNN进行分析处理,得到文本对评价对象的情感预测结果。本发明的方法有效的利用了文本的语义信息,同时强调了评价对象在方面级情感分析的重要性,提高了对于已知评价对象的方面级情感分析任务的准确率。
Description
技术领域
本发明涉及自然语言技术领域,尤其涉及一种基于依存句法树和深度学习的方面级情感分析方法。
背景技术
LSTM(Long short-term memory,长短期记忆)是一种特殊的循环神经网络,主要是为了解决普通的递归神经网络在长序列训练过程中出现的梯度消失问题。LSTM只能依据之前时刻的时序信息来预测下一时刻的输出,但是对于有些问题,当前时刻的输出不仅和之前的状态有关,还可能和未来的状态有关,所以出现了双向长短期记忆网络,即Bi-LSTM。Bi-LSTM保存的是两个LSTM的输出值,一个是正向的LSTM的隐藏层输出,一个是反向的LSTM的隐藏层的输出,通过跟踪单词链上的词序关系,在词嵌入中集成上下文信息。
依存句法树是依存句法分析的产物,是句法分析的一部分。依存句法分析主要任务是将句子分析成一棵可以描述各个词语之间依存关系的依存句法树,词语之间的关系是和语义相结合的。所以通过使用依存句法树,为整个模型添加了词语之间的语义关系。
GCN(Graph Convolutional Network,图卷积网络)主要是将一个用顶点和边建立相关关系的拓扑图作为输入,经过中间隐藏层的操作,得到结合输入图信息的输出。
CNN(Convolutional Neural Networks,卷积神经网络)是一类包含卷积计算且具有深度结构的前馈神经网络(Feedforward Neural Networks),是深度学习的代表算法之一。卷积神经网络具有表征学习能力,能够按其阶层结构对输入信息进行平移不变分类。
当前研究者关于情感分析主要关注于句子级的情感,即识别语句的整体情感倾向,而不考虑文本表达该情感的对象。对于方面级的情感分析任务,基于深度学习方法的工作已可以取得不错的效果,但却很大程度上忽略了文本的语义信息。方面级情感分析从根本上来说,主要还是一个自然语言处理任务,而深度学习只是一种工具,当前研究过多的专注于改进深度学习算法,而忽略了自然语言处理的基本信息。
因此,开发一种基于依存句法树和深度学习的方面级情感分析方法有重要现实意义。
发明内容
本发明的实施例提供了一种基于依存句法树和深度学习的方面级情感分析方法,以实现对评论文本所涉及到的评价对象的情感倾向性分析。
为了实现上述目的,本发明采取了如下技术方案。
一种基于依存句法树和深度学习的方面级情感分析方法,包括:
对待分析的文本进行分词和嵌入训练处理,得到文本中的每个单词的词向量表达,对每个单词的词向量进行合并表示后,输入到双向长短时神经网络中得到每个单词和文本的整合信息;
利用所述待分析的文本中的所有单词构造依存句法树,利用所述依存句法树构造GCN图,将所述文本的整合信息与GCN图进行多次迭代处理,得到文本中的评价对象的依存句法树表示;
对所述文本的整合信息和所述评价对象的依存句法树表示进行结合,对结合的结果使用CNN进行分析处理,得到文本对评价对象的情感预测结果。
优选地,所述的对待分析的文本进行分词和嵌入训练处理,得到文本中的每个单词的词向量表达,对每个单词的词向量进行合并表示后,输入到双向长短时神经网络中得到每个单词和文本的整合信息,包括:
对于数据集中的待分析的文本,该文本中包括一个或者多个评价对象,每个评价对象由一个或者多个单词组成,对文本中的评价对象的位置进行标记,采用StanfordNLP工具对待分析的文本进行分词,并且对每个单词进行词性以及语法依存关系标注,采用gensim对单词在文本中的显示位置、词性以及语法依存关系进行词嵌入训练,根据嵌入训练结果采用Glove预训练词向量来表示每个单词;
将文本中的每个单词的词向量表达进行合并表示后,输入到双向长短时神经网络中,双向长短时神经网络输出每个单词的整合信息,基于每个单词的整合信息,得到每个评价对象和整个文本的整合信息。
优选地,所述的利用所述待分析的文本中的所有单词构造依存句法树,利用所述依存句法树构造GCN图,包括:
利用所述待分析的文本中的所有单词构造依存句法树,在每个单词的整合信息的基础上添加单词的依存句法关系的词嵌入表达,设依存句法树一共有n个单词,通过单词之间是否有句法依存关系生成一个n*n的邻接矩阵A,如果节点i和节点j在依存句法树中直接相连,则定义Aij=1,否则Aij=0;
利用所述依存句法树构造GCN图,GCN图中的每个节点表示为文本中的单词,节点之间的边表示对应单词之间的依存句法关系,将依存句法关系进行嵌入添加到节点信息,同时对每个节点添加了一条自连接的边,即Aii=1。
优选地,所述的将所述文本的整合信息与GCN图进行多次迭代处理,得到文本中的评价对象的依存句法树表示,包括:
将文本的整合信息与GCN图进行多次迭代处理,每次迭代之后采用ReLU函数作为激活函数,迭代一次得到每个词语与通过句法依存直接关联的词语的整合信息,迭代k次得到每个词语与通过句法依存经过k跳可达的词语的整合信息,使得每个词语的结果信息包含了依存句法关联词语的信息,通过控制变量法,保证其他条件不变,修改k的值,选取效果最优情况下的k值作为最终迭代次数,得到迭代结果;
根据原始信息中评价对象的位置信息,从所述迭代结果中选出评价对象的对应输出,作为评价对象的依存句法树表示。
优选地,所述的对所述文本的整合信息和所述评价对象的依存句法树表示进行结合,对结合的结果使用CNN进行分析处理,得到文本对评价对象的情感预测结果,包括:
使用CNN对待分析的文本的最后一层隐藏层进行卷积操作,得到文本对评价对象的情感预测结果。
由上述本发明的实施例提供的技术方案可以看出,本发明实施例的基于依存句法树和深度学习的方面级情感倾向分析方法通过使用依存句法树构造评价对象的表达,有效的利用了文本的语义信息,同时强调了评价对象在方面级情感分析的重要性,提高了对于已知评价对象的方面级情感分析任务的准确率,更加有效地完成方面级的情感分析任务。
本发明附加的方面和优点将在下面的描述中部分给出,这些将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的一种基于依存句法树和深度学习的方面级情感分析方法的实现原理图;
图2为本发明实施例提供的一种基于依存句法树和深度学习的方面级情感分析方法的处理流程图。
具体实施方式
下面详细描述本发明的实施方式,所述实施方式的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施方式是示例性的,仅用于解释本发明,而不能解释为对本发明的限制。
本技术领域技术人员可以理解,除非特意声明,这里使用的单数形式“一”、“一个”、“所述”和“该”也可包括复数形式。应该进一步理解的是,本发明的说明书中使用的措辞“包括”是指存在所述特征、整数、步骤、操作、元件和/或组件,但是并不排除存在或添加一个或多个其他特征、整数、步骤、操作、元件、组件和/或它们的组。应该理解,当我们称元件被“连接”或“耦接”到另一元件时,它可以直接连接或耦接到其他元件,或者也可以存在中间元件。此外,这里使用的“连接”或“耦接”可以包括无线连接或耦接。这里使用的措辞“和/或”包括一个或更多个相关联的列出项的任一单元和全部组合。
本技术领域技术人员可以理解,除非另外定义,这里使用的所有术语(包括技术术语和科学术语)具有与本发明所属领域中的普通技术人员的一般理解相同的意义。还应该理解的是,诸如通用字典中定义的那些术语应该被理解为具有与现有技术的上下文中的意义一致的意义,并且除非像这里一样定义,不会用理想化或过于正式的含义来解释。
为便于对本发明实施例的理解,下面将结合附图以几个具体实施例为例做进一步的解释说明,且各个实施例并不构成对本发明实施例的限定。
情感分析的研究可以分为三个层次:文档级、句子级、实体或方面级。文档级或者句子级的情感分析都假定只包含一种情感,然而一条语句可能针对不同实体有不同的情感,如:“这家餐厅的口味还不错,就是服务态度有些差”。该句子包含两种情感,一种为对“口味”的正面情感,一种为对于“服务”的负面情感。所以对于实际使用而言,方面级情感倾向分析更有意义。
本发明实施例设计了一种基于依存句法树和深度学习的方面级情感分析方法,通过使用依存句法树构造评价对象的表达,有效地利用了文本的语义信息,同时强调了评价对象在方面级情感分析的重要性,提高了对于已知评价对象的方面级情感分析任务的准确率,更加有效地完成方面级的情感分析任务。
本发明实施例提供的一种基于依存句法树和深度学习的方面级情感分析方法的实现原理图如图1所示,具体处理流程如图2所示,包括如下的具体步骤:
步骤S210、对数据集进行处理,获取原始信息以及对原始信息处理获取整合信息。
采用多个不同领域的公开文本数据级作为训练数据进行训练,主要包括Restaurant14、Laptop、Restaurant16以及Twitter。每个数据集的数据量以及标签分布如表1所示。
表1基准数据集的标签分布
对于数据集中的待分析的文本,该文本中包括一个或者多个评价对象,每个评价对象由一个或者多个单词组成。对文本中的评价对象的位置进行标记。采用StanfordNLP工具对待分析的文本进行分词,并且对每个单词进行词性以及语法依存关系标注,然后采用gensim对单词在文本中的显示位置、词性以及语法依存关系进行词嵌入训练,根据嵌入训练结果采用Glove预训练词向量来表示每个单词。
步骤S220、将文本中的每个单词的词向量表达进行合并表示后,输入到双向长短时神经网络中,双向长短时神经网络输出每个单词的整合信息。基于每个单词的整合信息,可以得到每个评价对象和整个文本的整合信息。
将文本中的每个单词的词向量表达进行合并表示后,每一个合并后的词向量表达代表一个训练样本的输入数据,对于一条文本含有多个评价对象的文本,则每个评价对象以及其文本组成一条训练数据的输入。
步骤S230、对文本的整合信息利用GCN迭代,得到评价对象的依存句法树表示。
利用依存句法树构造上述待分析的文本中的单词之间的连接关系,根据依存句法树以及文本的整合信息,构造出评价对象结合文本信息以及语义信息的表达。
利用上述待分析的文本中的所有单词构造依存句法树,在每个单词的整合信息的基础上添加单词的依存句法关系的词嵌入表达,设依存句法树一共有n个单词,通过单词之间是否有句法依存关系可以生成一个n*n的邻接矩阵A。如果节点i和节点j在依存句法树中直接相连,则定义Aij=1,否则Aij=0。
还利用上述依存句法树构造GCN图,GCN图中的每个节点表示为文本中的单词,节点之间的边表示对应单词之间的依存句法关系。将依存句法关系进行嵌入添加到节点信息,同时对每个节点添加了一条自连接的边,即Aii=1。
将文本的整合信息与GCN图进行多次迭代处理,从而在整合信息的基础上,添加文本的语义特征。每次迭代之后采用ReLU函数作为激活函数,可缩小多次迭代造成的值的过度变化。迭代k次,可理解为句法依存树中最多经过k跳可以连接的节点的信息的结合。
迭代一次可得到每个词语与通过句法依存直接关联的词语的整合信息,迭代k次即得到每个词语与通过句法依存经过k跳可达的词语的整合信息。从而使得每个词语的结果信息包含了依存句法关联词语的信息。通过控制变量法,保证其他条件不变,修改k的值,选取效果最优情况下的k值作为最终迭代次数,得到迭代结果。k的取值范围一般为从2到5,k取值太大则句法依存信息过多,可能整个语句都在考虑范围内,导致最终结果和不考虑句法依存相差不大。
根据原始信息中评价对象的位置信息,从迭代结果中选出评价对象的对应输出,作为评价对象的依存句法树表示。
步骤S240、对所述文本的整合信息和所述评价对象的依存句法树表示进行结合,对结合的结果使用CNN进行分析处理,得到文本对评价对象的情感预测结果。
类比于Transformer模型,得到的评价对象的依存句法树表示结果虽然充分考虑了依存句法关系,但是迭代之后,丢失了部分原始信息,所以此步骤将评价对象的依存句法树表示与整合信息进行结合。采用公式1直接将评价对象的表示和原始语句表示进行合并,得到待分析的文本的最后一层隐藏层
对于普通的CNN而言,可能会将评价对象与不相关的情感词联系在一起,但是本发明实施例中的评价对象经过了依存句法分析,评价对象与情感单词有了一定的联系,所以本发明实施例中直接使用CNN来计算最终结果。
使用CNN对待分析的文本的最后一层隐藏层进行卷积操作,得到文本对评价对象的情感预测结果,如针对文本“这家餐厅的口味还不错,就是服务态度有些差”进行分析,可得到针对“口味”的正向情感和针对“服务”的负向情感,从而得到一条文本中对不同方面的不同情感,得到最终的分析结果。
在文本每个单词的整合信息基础上,结合通过评价对象的表示,多次合并迭代,更好的将评价对象信息与语句信息进行结合,最后采用卷积网络得到预测的输出,与对应标签进行对比,根据对比结果,优化整个过程。
综上所述,本发明实施例的一种基于依存句法树和深度学习的方面级情感分析方法通过使用依存句法树构造评价对象的表达,有效的利用了文本的语义信息,同时强调了评价对象在方面级情感分析的重要性,提高了对于已知评价对象的方面级情感分析任务的准确率,更加有效地完成方面级的情感分析任务。
本发明实施例的一种基于依存句法树和深度学习的方面级情感分析方法,丰富了原有的深度模型的输入信息,添加了单词的词性信息、显式位置信息以及句法依存关系信息等自然语言处理相关信息,在使用深度学习技术的基础上,更加考虑到自然语言处理的有关信息;利用依存句法分析以及图卷积网络对评价对象进行表示,使评价对象的表达结合了句法信息,可以更好的表示评价对象在语句中的含义。
本领域普通技术人员可以理解:附图只是一个实施例的示意图,附图中的模块或流程并不一定是实施本发明所必须的。
通过以上的实施方式的描述可知,本领域的技术人员可以清楚地了解到本发明可借助软件加必需的通用硬件平台的方式来实现。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例或者实施例的某些部分所述的方法。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于装置或系统实施例而言,由于其基本相似于方法实施例,所以描述得比较简单,相关之处参见方法实施例的部分说明即可。以上所描述的装置及系统实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。
以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应该以权利要求的保护范围为准。
Claims (5)
1.一种基于依存句法树和深度学习的方面级情感分析方法,其特征在于,包括:
对待分析的文本进行分词和嵌入训练处理,得到文本中的每个单词的词向量表达,对每个单词的词向量进行合并表示后,输入到双向长短时神经网络中得到每个单词和文本的整合信息;
利用所述待分析的文本中的所有单词构造依存句法树,利用所述依存句法树构造GCN图,将所述文本的整合信息与GCN图进行多次迭代处理,得到文本中的评价对象的依存句法树表示;
对所述文本的整合信息和所述评价对象的依存句法树表示进行结合,对结合的结果使用CNN进行分析处理,得到文本对评价对象的情感预测结果。
2.根据权利要求1所述的方法,其特征在于,所述的对待分析的文本进行分词和嵌入训练处理,得到文本中的每个单词的词向量表达,对每个单词的词向量进行合并表示后,输入到双向长短时神经网络中得到每个单词和文本的整合信息,包括:
对于数据集中的待分析的文本,该文本中包括一个或者多个评价对象,每个评价对象由一个或者多个单词组成,对文本中的评价对象的位置进行标记,采用StanfordNLP工具对待分析的文本进行分词,并且对每个单词进行词性以及语法依存关系标注,采用gensim对单词在文本中的显示位置、词性以及语法依存关系进行词嵌入训练,根据嵌入训练结果采用Glove预训练词向量来表示每个单词;
将文本中的每个单词的词向量表达进行合并表示后,输入到双向长短时神经网络中,双向长短时神经网络输出每个单词的整合信息,基于每个单词的整合信息,得到每个评价对象和整个文本的整合信息。
3.根据权利要求1所述的方法,其特征在于,所述的利用所述待分析的文本中的所有单词构造依存句法树,利用所述依存句法树构造GCN图,包括:
利用所述待分析的文本中的所有单词构造依存句法树,在每个单词的整合信息的基础上添加单词的依存句法关系的词嵌入表达,设依存句法树一共有n个单词,通过单词之间是否有句法依存关系生成一个n*n的邻接矩阵A,如果节点i和节点j在依存句法树中直接相连,则定义Aij=1,否则Aij=0;
利用所述依存句法树构造GCN图,GCN图中的每个节点表示为文本中的单词,节点之间的边表示对应单词之间的依存句法关系,将依存句法关系进行嵌入添加到节点信息,同时对每个节点添加了一条自连接的边,即Aii=1。
4.根据权利要求1或2或3所述的方法,其特征在于,所述的将所述文本的整合信息与GCN图进行多次迭代处理,得到文本中的评价对象的依存句法树表示,包括:
将文本的整合信息与GCN图进行多次迭代处理,每次迭代之后采用ReLU函数作为激活函数,迭代一次得到每个词语与通过句法依存直接关联的词语的整合信息,迭代k次得到每个词语与通过句法依存经过k跳可达的词语的整合信息,使得每个词语的结果信息包含了依存句法关联词语的信息,通过控制变量法,保证其他条件不变,修改k的值,选取效果最优情况下的k值作为最终迭代次数,得到迭代结果;
根据原始信息中评价对象的位置信息,从所述迭代结果中选出评价对象的对应输出,作为评价对象的依存句法树表示。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010836950.3A CN112115700B (zh) | 2020-08-19 | 2020-08-19 | 一种基于依存句法树和深度学习的方面级情感分析方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010836950.3A CN112115700B (zh) | 2020-08-19 | 2020-08-19 | 一种基于依存句法树和深度学习的方面级情感分析方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112115700A true CN112115700A (zh) | 2020-12-22 |
CN112115700B CN112115700B (zh) | 2024-03-12 |
Family
ID=73804319
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010836950.3A Active CN112115700B (zh) | 2020-08-19 | 2020-08-19 | 一种基于依存句法树和深度学习的方面级情感分析方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112115700B (zh) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112860843A (zh) * | 2021-03-31 | 2021-05-28 | 中国工商银行股份有限公司 | 一种新闻长文本情感分析方法及装置 |
CN112883714A (zh) * | 2021-03-17 | 2021-06-01 | 广西师范大学 | 基于依赖图卷积和迁移学习的absc任务句法约束方法 |
CN112926337A (zh) * | 2021-02-05 | 2021-06-08 | 昆明理工大学 | 一种结合重构句法信息的端到端方面级情感分析方法 |
CN113254637A (zh) * | 2021-05-07 | 2021-08-13 | 山东师范大学 | 一种融合语法的方面级文本情感分类方法及系统 |
CN113641822A (zh) * | 2021-08-11 | 2021-11-12 | 哈尔滨工业大学 | 一种基于图神经网络的细粒度情感分类方法 |
CN113869034A (zh) * | 2021-09-29 | 2021-12-31 | 重庆理工大学 | 基于强化依赖图的方面情感分类方法 |
CN114611463A (zh) * | 2022-05-10 | 2022-06-10 | 天津大学 | 一种面向依存分析的众包标注方法及装置 |
CN114662503A (zh) * | 2022-04-07 | 2022-06-24 | 重庆邮电大学 | 一种基于lstm和语法距离的方面级情感分析方法 |
CN114791950A (zh) * | 2022-04-29 | 2022-07-26 | 西安邮电大学 | 基于词性位置与图卷积网络的方面级情感分类方法及装置 |
CN115017276A (zh) * | 2022-03-28 | 2022-09-06 | 连芷萱 | 结合模糊逻辑与r-gcn的政务咨询多轮对话方法及系统 |
CN115860006A (zh) * | 2023-02-13 | 2023-03-28 | 广东工业大学 | 一种基于语义句法的方面级情感预测方法及装置 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106294324A (zh) * | 2016-08-11 | 2017-01-04 | 上海交通大学 | 一种基于自然语言句法分析树的机器学习情感分析器 |
CN107247702A (zh) * | 2017-05-05 | 2017-10-13 | 桂林电子科技大学 | 一种文本情感分析处理方法和系统 |
CN109062902A (zh) * | 2018-08-17 | 2018-12-21 | 科大讯飞股份有限公司 | 一种文本语义表达方法及装置 |
AU2019100371A4 (en) * | 2019-04-05 | 2019-05-16 | Ba, He Mr | A Sentiment Analysis System Based on Deep Learning |
CN110175325A (zh) * | 2019-04-26 | 2019-08-27 | 南京邮电大学 | 基于词向量和句法特征的评论分析方法及可视化交互界面 |
CN110362833A (zh) * | 2019-07-22 | 2019-10-22 | 腾讯科技(深圳)有限公司 | 一种基于文本的情感分析方法及相关装置 |
CN111488734A (zh) * | 2020-04-14 | 2020-08-04 | 西安交通大学 | 基于全局交互和句法依赖的情感特征表示学习系统及方法 |
-
2020
- 2020-08-19 CN CN202010836950.3A patent/CN112115700B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106294324A (zh) * | 2016-08-11 | 2017-01-04 | 上海交通大学 | 一种基于自然语言句法分析树的机器学习情感分析器 |
CN107247702A (zh) * | 2017-05-05 | 2017-10-13 | 桂林电子科技大学 | 一种文本情感分析处理方法和系统 |
CN109062902A (zh) * | 2018-08-17 | 2018-12-21 | 科大讯飞股份有限公司 | 一种文本语义表达方法及装置 |
AU2019100371A4 (en) * | 2019-04-05 | 2019-05-16 | Ba, He Mr | A Sentiment Analysis System Based on Deep Learning |
CN110175325A (zh) * | 2019-04-26 | 2019-08-27 | 南京邮电大学 | 基于词向量和句法特征的评论分析方法及可视化交互界面 |
CN110362833A (zh) * | 2019-07-22 | 2019-10-22 | 腾讯科技(深圳)有限公司 | 一种基于文本的情感分析方法及相关装置 |
CN111488734A (zh) * | 2020-04-14 | 2020-08-04 | 西安交通大学 | 基于全局交互和句法依赖的情感特征表示学习系统及方法 |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112926337A (zh) * | 2021-02-05 | 2021-06-08 | 昆明理工大学 | 一种结合重构句法信息的端到端方面级情感分析方法 |
CN112926337B (zh) * | 2021-02-05 | 2022-05-17 | 昆明理工大学 | 一种结合重构句法信息的端到端方面级情感分析方法 |
CN112883714A (zh) * | 2021-03-17 | 2021-06-01 | 广西师范大学 | 基于依赖图卷积和迁移学习的absc任务句法约束方法 |
CN112883714B (zh) * | 2021-03-17 | 2022-05-10 | 广西师范大学 | 基于依赖图卷积和迁移学习的absc任务句法约束方法 |
CN112860843A (zh) * | 2021-03-31 | 2021-05-28 | 中国工商银行股份有限公司 | 一种新闻长文本情感分析方法及装置 |
CN113254637A (zh) * | 2021-05-07 | 2021-08-13 | 山东师范大学 | 一种融合语法的方面级文本情感分类方法及系统 |
CN113641822A (zh) * | 2021-08-11 | 2021-11-12 | 哈尔滨工业大学 | 一种基于图神经网络的细粒度情感分类方法 |
CN113869034A (zh) * | 2021-09-29 | 2021-12-31 | 重庆理工大学 | 基于强化依赖图的方面情感分类方法 |
CN115017276B (zh) * | 2022-03-28 | 2022-11-29 | 连芷萱 | 政务咨询多轮对话方法、系统、政务机器人和存储介质 |
CN115017276A (zh) * | 2022-03-28 | 2022-09-06 | 连芷萱 | 结合模糊逻辑与r-gcn的政务咨询多轮对话方法及系统 |
CN114662503A (zh) * | 2022-04-07 | 2022-06-24 | 重庆邮电大学 | 一种基于lstm和语法距离的方面级情感分析方法 |
CN114662503B (zh) * | 2022-04-07 | 2024-06-07 | 重庆邮电大学 | 一种基于lstm和语法距离的方面级情感分析方法 |
CN114791950A (zh) * | 2022-04-29 | 2022-07-26 | 西安邮电大学 | 基于词性位置与图卷积网络的方面级情感分类方法及装置 |
CN114611463A (zh) * | 2022-05-10 | 2022-06-10 | 天津大学 | 一种面向依存分析的众包标注方法及装置 |
CN115860006A (zh) * | 2023-02-13 | 2023-03-28 | 广东工业大学 | 一种基于语义句法的方面级情感预测方法及装置 |
CN115860006B (zh) * | 2023-02-13 | 2023-04-25 | 广东工业大学 | 一种基于语义句法的方面级情感预测方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN112115700B (zh) | 2024-03-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112115700A (zh) | 一种基于依存句法树和深度学习的方面级情感分析方法 | |
Zhang et al. | Textual sentiment analysis via three different attention convolutional neural networks and cross-modality consistent regression | |
CN110245229B (zh) | 一种基于数据增强的深度学习主题情感分类方法 | |
US10504010B2 (en) | Systems and methods for fast novel visual concept learning from sentence descriptions of images | |
US20220050967A1 (en) | Extracting definitions from documents utilizing definition-labeling-dependent machine learning background | |
CN108363790B (zh) | 用于对评论进行评估的方法、装置、设备和存储介质 | |
Neubig | Neural machine translation and sequence-to-sequence models: A tutorial | |
Yao et al. | Bi-directional LSTM recurrent neural network for Chinese word segmentation | |
Ganegedara | Natural Language Processing with TensorFlow: Teach language to machines using Python's deep learning library | |
Lin et al. | Enhanced sequence labeling based on latent variable conditional random fields | |
CN111680159A (zh) | 数据处理方法、装置及电子设备 | |
CN111368086A (zh) | 一种基于CNN-BiLSTM+attention模型的涉案新闻观点句情感分类方法 | |
Onan | SRL-ACO: A text augmentation framework based on semantic role labeling and ant colony optimization | |
Arumugam et al. | Hands-On Natural Language Processing with Python: A practical guide to applying deep learning architectures to your NLP applications | |
JP6720764B2 (ja) | テキスト解析装置及びプログラム | |
Paaß et al. | Foundation models for natural language processing: Pre-trained language models integrating media | |
CN112818698A (zh) | 一种基于双通道模型的细粒度的用户评论情感分析方法 | |
CN115860006A (zh) | 一种基于语义句法的方面级情感预测方法及装置 | |
Wang et al. | Data augmentation for internet of things dialog system | |
Wang et al. | Application of an emotional classification model in e-commerce text based on an improved transformer model | |
CN116757195B (zh) | 一种基于提示学习的隐性情感识别方法 | |
Al-Absi et al. | Sentiment Analysis and Classification Using Deep Semantic Information and Contextual Knowledge. | |
Kocmi et al. | SubGram: extending skip-gram word representation with substrings | |
Bhargava et al. | Deep paraphrase detection in indian languages | |
Ma et al. | Global and local interaction matching model for knowledge-grounded response selection in retrieval-based chatbots |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |