CN114528374A - 一种基于图神经网络的电影评论情感分类方法及装置 - Google Patents

一种基于图神经网络的电影评论情感分类方法及装置 Download PDF

Info

Publication number
CN114528374A
CN114528374A CN202210060250.9A CN202210060250A CN114528374A CN 114528374 A CN114528374 A CN 114528374A CN 202210060250 A CN202210060250 A CN 202210060250A CN 114528374 A CN114528374 A CN 114528374A
Authority
CN
China
Prior art keywords
text
graph
matrix
occurrence
syntactic dependency
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210060250.9A
Other languages
English (en)
Inventor
杨旭华
陶进
张宇辰
徐新黎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University of Technology ZJUT
Original Assignee
Zhejiang University of Technology ZJUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University of Technology ZJUT filed Critical Zhejiang University of Technology ZJUT
Priority to CN202210060250.9A priority Critical patent/CN114528374A/zh
Publication of CN114528374A publication Critical patent/CN114528374A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3344Query execution using natural language analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • G06F40/211Syntactic parsing, e.g. based on context-free grammar [CFG] or unification grammars
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Databases & Information Systems (AREA)
  • Machine Translation (AREA)

Abstract

本发明公开了一种基于图神经网络的电影评论情感分类方法及装置,基于文本句子自身特有的语法信息和文本单词的窗口共现关系,将其构建成图数据结构,分别获取文本共现图和句法依存图的邻接矩阵,进一步将单词嵌入向量矩阵和邻接矩阵输入到图卷积网络模块得到加权加权特征矩阵,采用混合池化模块对文本共现图的加权特征矩阵和句法依存图的加权特征矩阵进行池化操作,得到文本共现图的特征向量和句法依存图的特征向量,对特征向量进行融合后输入到分类器得到分类结果。本发明使得学习得到的网络表示不仅仅包含邻近单词的信息,也包含因为语法关系相关的比较远的单词的信息,从而提高情感分类的准确性。

Description

一种基于图神经网络的电影评论情感分类方法及装置
技术领域
本申请属于自然语言处理技术领域,尤其涉及一种基于图神经网络的电影评论情感分类方法及装置。
背景技术
当前是一个互联网和大数据的时代,每天都有各种形式的海量数据产生,比如文本、语音、视频等等,文本数据在其中占了很大的一部分。随着文化产业的快速发展,每年上映的电影数量在不断攀升,随之带来的是各种各样的电影评论,比如在豆瓣、猫眼等知名电影网站包含大量的电影评论,如何从这些电影评论挖掘出有用的信息,就成为一个关键问题,其中重要的一步就是对这些电影评论进行情感分类。
情感分类是自然语言处理中一个基本且重要的任务。早期情感分类主要用的是传统的机器学习方法,先进行特征工程,最后通过分类器方法对特征向量进行分类,比如支持向量机模型、k最近邻方法、朴素贝叶斯等等。但是这样的方法过分依赖于人工手动进行特征提取,效率比较低下。随着深度学习研究的进展,word2vec和Glove词向量模型的提出,深度学习开始应用于自然语言处理领域,这省去了手动提取文本特征的繁琐的步骤,并且将卷积神经网络和循环神经网络应用于情感分类任务上,进而研究者提出了TextCNN,CharCNN等模型,取得了很好的结果。但是,无论是卷积神经网络还是循环神经网络都只是聚焦于文本的序列模型,忽略了情感文本之间的结构性,而图卷积神经网络GCN正好能够在学习文本嵌入的过程保留结构信息,从而进一步提升电影评论的情感分类效果。
发明内容
本申请的目的是提供一种基于图神经网络的电影评论情感分类方法及装置,用以克服现有情感分类方法忽略文本语法特性以及文本的拓扑结构,丰富文本的嵌入信息,进一步优化文本中情感的嵌入表示,提升电影评论分类准确度。
为了实现上述目的,本申请技术方案如下:
一种基于图神经网络的电影评论情感分类方法,所述基于图神经网络的电影评论情感分类方法,包括:
收集电影评论文本数据集,对每个电影评论文本进行预处理,得到文本词汇表,将文本词汇表中的单词用嵌入向量表示,得到电影评论文本的单词嵌入向量矩阵;
将文本词汇表中的单词作为节点,单词之间的共现关系作为连边构建文本共现图,得到文本共现图的邻接矩阵;
将文本词汇表中的单词作为节点,句法关系作为连边构建成文本的句法依存图,得到句法依存图的邻接矩阵;
将单词嵌入向量矩阵和文本共现图的邻接矩阵输入到文本共现图卷积网络模块,得到文本共现图的加权特征矩阵;
将单词嵌入向量矩阵和句法依存图的邻接矩阵输入到句法依存图卷积网络模块,得到句法依存图的加权特征矩阵;
采用混合池化模块对文本共现图的加权特征矩阵和句法依存图的加权特征矩阵进行池化操作,得到文本共现图的特征向量和句法依存图的特征向量;
采用自适应特征融合模块对文本共现图的特征向量和句法依存图的特征向量进行自适应融合;
将自适应融合后的融合特征输入到文本分类器模块,预测出电影评论文本的情感分类结果。
进一步的,所述将单词嵌入向量矩阵和文本共现图的邻接矩阵输入到文本共现图卷积网络模块,得到文本共现图的加权特征矩阵,包括:
先将单词嵌入向量矩阵和文本共现图的邻接矩阵输入到文本共现图卷积网络模块,得到文本共现图的特征矩阵:
H=[h1,…,hi,…,hs]=GCN1(A,X);
其中,A表示文本共现图的邻接矩阵,X表示单词嵌入向量矩阵,hi表示文本共现图中第i个单词对应的特征向量,S为词汇表中单词的个数,GCN1表示文本共现图卷积网络模块;
然后使用注意力机制对文本共现图的特征矩阵H的每一个节点的嵌入向量进行加权,获得文本共现图的加权特征矩阵:
H′=[h′1,…,h′i,…,h′S],
其中h′i=tanh(MLP1(hi))*sigmoid(MLP2(hi)),MLP1、MLP2表示多层感知机。
进一步的,所述将单词嵌入向量矩阵和句法依存图的邻接矩阵输入到句法依存图卷积网络模块,得到句法依存图的加权特征矩阵,包括:
先将单词嵌入向量矩阵和和句法依存图的邻接矩阵输入句法依存图卷积网络,获得句法依存图的特征矩阵:
M=[m1,…,mi,…,ms]=GCN2(C,X);
其中,C表示句法依存图的邻接矩阵,X表示单词嵌入向量矩阵,mi表示句法依存图中第i个单词对应的特征向量,S为词汇表中单词的个数,GCN2表示句法依存图卷积网络模块;
然后使用注意力机制对句法依存图的特征矩阵M的每一个节点的嵌入向量进行加权,获得句法依存图的加权特征矩阵:
M′=[m′1,…,m′i,…,m′S],
其中m′i=tanh(MLP3(mi))*sigmoid(MLP4(mi)),MLP3、MLP4表示多层感知机。
进一步的,所述采用混合池化模块对文本共现图的加权特征矩阵和句法依存图的加权特征矩阵进行池化操作,得到文本共现图的特征向量和句法依存图的特征向量,其中:
文本共现图的特征向量fG1=(Maxpooling(H′)+Avgpooling(H′))/2;句法依存图的特征向量fG2=(Maxpooling(M′)+Avgpooling(M′))/2,H′表示文本共现图的加权特征矩阵,M′表示句法依存图的加权特征矩阵,Maxpooling表示最大池化操作,Avgpooling表示平均池化操作。
进一步的,所述采用自适应特征融合模块对文本共现图的特征向量和句法依存图的特征向量进行自适应融合,包括:
fG=afG1+(1-a)fG2
其中,a表示可训练参数,fG1表示文本共现图的特征向量,fG2表示句法依存图的特征向量,fG表示融合特征。
进一步的,所述文本共现图卷积网络模块、句法依存图卷积网络模块、混合池化模块、自适应特征融合模块和文本分类器模块构成图卷积网络模型,所述图卷积网络模型的损失函数为:
Figure BDA0003477967060000041
其中,
Figure BDA0003477967060000042
表示电影评论文本i的真实标签,Yi表示电影评论文本i的预测标签,B表示文本数量。
本申请还提出了一种基于图神经网络的电影评论情感分类装置,包括处理器以及存储有若干计算机指令的存储器,所述计算机指令被处理器执行时实现所述基于图神经网络的电影评论情感分类方法的步骤。
本申请提出的一种基于图神经网络的电影评论情感分类方法及装置,基于文本句子自身特有的语法信息和文本单词的窗口共现关系,将其构建成图数据结构,使得学习得到的网络表示不仅仅包含邻近单词的信息,也包含因为语法关系相关的比较远的单词的信息,从而提高情感分类的准确性。
附图说明
图1为本申请基于图神经网络的电影评论情感分类方法流程图;
图2为本申请图卷积网络模型结构示意图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅用以解释本申请,并不用于限定本申请。
在一个实施例中,如图1所示,提供了一种基于图神经网络的电影评论情感分类方法,包括:
步骤S1、收集电影评论文本数据集,对每个电影评论文本进行预处理,得到文本词汇表,将文本词汇表中的单词用嵌入向量表示,得到电影评论文本的单词嵌入向量矩阵。
搜集电影评论文本数据集,文本数量为B,数据集包括电影评论的文本内容,以及文本对应的情感标签。对每个电影评论原始文本进行包括分词、去除停用词、去除标点符号等预处理,得到预处理文本。
对于任意一个电影评论文本i,得到文本的词汇表Wi,Wi中单词个数为S,Wi表示为
Figure BDA0003477967060000051
用开源的Chinese Word Vector中文预训练单词嵌入向量表示词汇表中的每一个单词,进一步得到文本i的单词嵌入向量矩阵
Figure BDA0003477967060000052
其中,
Figure BDA0003477967060000053
表示文本i的词汇表中第j个单词,D表示单词嵌入向量维度,xik表示文本i的词汇表中第k个单词的嵌入向量。
遍历整个电影评论文本数据集,得到每一个文本的单词嵌入向量矩阵,则B个文本的嵌入向量矩阵可表示为X=[X1,X2,…,XB],B个电影评论文本的词汇表可表示为W=[W1,W2,…,WB]。
步骤S2、将文本词汇表中的单词作为节点,单词之间的共现关系作为连边构建文本共现图,得到文本共现图的邻接矩阵。
本步骤对任意电影评论文本i,把词汇表Wi中的单词作为节点,单词之间的共现关系作为连边构建文本共现图
Figure BDA0003477967060000054
具体的,设定滑动窗口大小为m,窗口沿着文本序列从左向右滑动,窗口中心单词是
Figure BDA0003477967060000055
如果
Figure BDA0003477967060000056
Figure BDA0003477967060000057
在一个窗口内,就构建
Figure BDA0003477967060000058
Figure BDA0003477967060000059
单词节点之间的连边,用
Figure BDA00034779670600000510
表示两个节点在滑动窗口内共现的次数,计算两个节点连边的权重
Figure BDA00034779670600000511
得到文本i共现图的邻接矩阵
Figure BDA00034779670600000512
遍历整个电影评论文本数据集,对每一个电影评论文本构建文本共现图,则B个文本共现图的邻接矩阵
Figure BDA00034779670600000513
步骤S3、将文本词汇表中的单词作为节点,句法关系作为连边构建成文本的句法依存图,得到句法依存图的邻接矩阵。
本步骤对任意电影评论文本进行句法分析,词汇表Wi中的单词作为节点,根据句法关系作为连边构建成文本i的句法依存图
Figure BDA00034779670600000514
得到邻接矩阵Ci,其中:
Figure BDA00034779670600000515
Figure BDA00034779670600000516
或0分别表示电影评论文本i中节点j和节点k有或没有连边;遍历整个电影评论文本数据集,对每一个电影评论文本构建句法依存图,则得到B个文本句法依存图的邻接矩阵
Figure BDA0003477967060000061
步骤S4、将单词嵌入向量矩阵和文本共现图的邻接矩阵输入到文本共现图卷积网络模块,得到文本共现图的加权特征矩阵。
构建图卷积网络模型,如图2所示,该模型分成5个模块,文本共现图卷积网络模块、句法依存图卷积网络模块、混合池化模块、自适应特征融合模块、文本分类器模块。
本步骤利用文本共现图卷积网络模块学习文本单词的嵌入表示,将电影评论文本共现图邻接矩阵A和特征矩阵X输入文本共现图卷积网络模块GCN1:
H=[h1,…,hi,…,hs]=GCN1(A,X),
其中,
Figure BDA0003477967060000062
其中,A表示文本共现图的邻接矩阵,X表示单词嵌入向量矩阵,hi表示文本共现图中第i个单词对应的特征向量,S为词汇表中单词的个数,GCN1表示文本共现图卷积网络模块;
然后使用注意力机制对电影评论文本共现图的特征矩阵H的每一个节点的嵌入向量进行加权,获得文本共现图的加权特征矩阵:
H′=[h′1,…,h′i,…,h′S],
其中h′i=tanh(MLP1(hi))*sigmoid(MLP2(hi)),MLP1、MLP2表示多层感知机。tanh表示双曲正切激活函数,sigmoid表示Sigmoid激活函数。多层感知机(MLP,MultilayerPerceptron)为本领域比较成熟的技术,这里不再赘述。
步骤S5、将单词嵌入向量矩阵和句法依存图的邻接矩阵输入到句法依存图卷积网络模块,得到句法依存图的加权特征矩阵。
本步骤利用句法依存图卷积网络模块学习文本单词嵌入,将电影评论句法依存图邻接矩阵C和特征矩阵X输入句法依存图卷积网络GCN2:
M=[m1,…,mi,…,ms]=GCN2(C,X),
其中,
Figure BDA0003477967060000063
其中,C表示句法依存图的邻接矩阵,X表示单词嵌入向量矩阵,mi表示句法依存图中第i个单词对应的特征向量,S为词汇表中单词的个数,GCN2表示句法依存图卷积网络模块;
使用注意力机制对电影评论文本句法依存图的特征矩阵M每一个节点的嵌入向量进行加权,获得文本句法依存图的加权特征矩阵
M′=[m′1,…,m′i,…,m′S],
其中m′i=tanh(MLP3(mi))*sigomid(MLP4(mi)),MLP3、MLP4表示多层感知机。
步骤S6、采用混合池化模块对文本共现图的加权特征矩阵和句法依存图的加权特征矩阵进行池化操作,得到文本共现图的特征向量和句法依存图的特征向量。
本步骤利用混合池化模块对文本共现图的加权特征矩阵和句法依存图的加权特征矩阵进行池化操作,得到文本共现图的特征向量:
fG1=(Maxpooling(H′)+Avgpooling(H′))/2,
和文本句法依存图的特征向量:
fG2=(Maxpooling(M′)+Avgpooling(M′))/2,
H′表示文本共现图的加权特征矩阵,M′表示句法依存图的加权特征矩阵,Maxpooling表示最大池化操作,Avgpooling表示平均池化操作。
步骤S7、采用自适应特征融合模块对文本共现图的特征向量和句法依存图的特征向量进行自适应融合。
本步骤利用自适应特征融合模块对电影评论文本共现图和句法依存图特征向量进行自适应融合:
fG=afG1+(1-a)fG2
其中,a表示可训练参数。fG1表示文本共现图的特征向量,fG2表示句法依存图的特征向量,fG表示融合特征。
步骤S8、将自适应融合后的融合特征输入到文本分类器模块,预测出电影评论文本的情感分类结果。
本步骤利用文本分类器模块预测电影评论文本的情感分类结果:
Y=softmax(W5fG),
其中,W5表示可训练权重参数。
在一个具体的实施例中,训练本申请图卷积网络模型,所述图卷积网络模型损失函数如下:
Figure BDA0003477967060000071
其中,
Figure BDA0003477967060000081
表示电影评论文本i的真实标签,Yi表示电影评论文本i的预测标签,,B表示文本数量。
在训练时,将训练样本输入到图卷积网络模型,使用Adam优化器和反向传播算法,直到损失值不再下降或者小于指定的值,结束训练,得到最终的图卷积网络模型。将需要预测标签的电影评论文本执行步骤S1到步骤S3,输入图卷积网络模型,模型输出的Y就是情感分类结果。
在一个实施例中,本申请还提供了一种基于图神经网络的电影评论情感分类装置,包括处理器以及存储有若干计算机指令的存储器,所述计算机指令被处理器执行时实现所述基于图神经网络的电影评论情感分类方法的步骤。
关于基于图神经网络的电影评论情感分类装置的具体限定可以参见上文中对于基于图神经网络的电影评论情感分类方法的限定,在此不再赘述。上述基于图神经网络的电影评论情感分类装置可全部或部分通过软件、硬件及其组合来实现。可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上对应的操作。
存储器和处理器之间直接或间接地电性连接,以实现数据的传输或交互。例如,这些元件互相之间可以通过一条或多条通讯总线或信号线实现电性连接。存储器中存储有可在处理器上运行的计算机程序,所述处理器通过运行存储在存储器内的计算机程序,从而实现本发明实施例中的网络拓扑布局方法。
其中,所述存储器可以是,但不限于,随机存取存储器(Random Access Memory,RAM),只读存储器(Read Only Memory,ROM),可编程只读存储器(Programmable Read-OnlyMemory,PROM),可擦除只读存储器(Erasable Programmable Read-Only Memory,EPROM),电可擦除只读存储器(Electric Erasable Programmable Read-Only Memory,EEPROM)等。其中,存储器用于存储程序,所述处理器在接收到执行指令后,执行所述程序。
所述处理器可能是一种集成电路芯片,具有数据的处理能力。上述的处理器可以是通用处理器,包括中央处理器(Central Processing Unit,CPU)、网络处理器(NetworkProcessor,NP)等。可以实现或者执行本发明实施例中公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。

Claims (7)

1.一种基于图神经网络的电影评论情感分类方法,其特征在于,所述基于图神经网络的电影评论情感分类方法,包括:
收集电影评论文本数据集,对每个电影评论文本进行预处理,得到文本词汇表,将文本词汇表中的单词用嵌入向量表示,得到电影评论文本的单词嵌入向量矩阵;
将文本词汇表中的单词作为节点,单词之间的共现关系作为连边构建文本共现图,得到文本共现图的邻接矩阵;
将文本词汇表中的单词作为节点,句法关系作为连边构建成文本的句法依存图,得到句法依存图的邻接矩阵;
将单词嵌入向量矩阵和文本共现图的邻接矩阵输入到文本共现图卷积网络模块,得到文本共现图的加权特征矩阵;
将单词嵌入向量矩阵和句法依存图的邻接矩阵输入到句法依存图卷积网络模块,得到句法依存图的加权特征矩阵;
采用混合池化模块对文本共现图的加权特征矩阵和句法依存图的加权特征矩阵进行池化操作,得到文本共现图的特征向量和句法依存图的特征向量;
采用自适应特征融合模块对文本共现图的特征向量和句法依存图的特征向量进行自适应融合;
将自适应融合后的融合特征输入到文本分类器模块,预测出电影评论文本的情感分类结果。
2.根据权利要求1所述的基于图神经网络的电影评论情感分类方法,其特征在于,所述将单词嵌入向量矩阵和文本共现图的邻接矩阵输入到文本共现图卷积网络模块,得到文本共现图的加权特征矩阵,包括:
先将单词嵌入向量矩阵和文本共现图的邻接矩阵输入到文本共现图卷积网络模块,得到文本共现图的特征矩阵:
H=[h1,...,hi,...,hs]=GCN1(A,X);
其中,A表示文本共现图的邻接矩阵,X表示单词嵌入向量矩阵,hi表示文本共现图中第i个单词对应的特征向量,S为词汇表中单词的个数,GCN1表示文本共现图卷积网络模块;
然后使用注意力机制对文本共现图的特征矩阵H的每一个节点的嵌入向量进行加权,获得文本共现图的加权特征矩阵:
H′=[h′1,...,h′i,...,h′S],
其中h′i=tanh(MLP1(hi))*sigmoid(MLP2(hi)),MLP1、MLP2表示多层感知机。
3.根据权利要求1所述的基于图神经网络的电影评论情感分类方法,其特征在于,所述将单词嵌入向量矩阵和句法依存图的邻接矩阵输入到句法依存图卷积网络模块,得到句法依存图的加权特征矩阵,包括:
先将单词嵌入向量矩阵和和句法依存图的邻接矩阵输入句法依存图卷积网络,获得句法依存图的特征矩阵:
M=[m1,...,mi,...,ms]=GCN2(C,X);
其中,C表示句法依存图的邻接矩阵,X表示单词嵌入向量矩阵,mi表示句法依存图中第i个单词对应的特征向量,S为词汇表中单词的个数,GCN2表示句法依存图卷积网络模块;
然后使用注意力机制对句法依存图的特征矩阵M的每一个节点的嵌入向量进行加权,获得句法依存图的加权特征矩阵:
M′=[m′1,...,m′i,...,m′S],
其中m′i=tanh(MLP3(mi))*sigmoid(MLP4(mi)),MLP3、MLP4表示多层感知机。
4.根据权利要求1所述的基于图神经网络的电影评论情感分类方法,其特征在于,所述采用混合池化模块对文本共现图的加权特征矩阵和句法依存图的加权特征矩阵进行池化操作,得到文本共现图的特征向量和句法依存图的特征向量,其中:
文本共现图的特征向量fG1=(Maxpooling(H′)+Avgpooling(H′))/2;句法依存图的特征向量fG2=(Maxpooling(M′)+Avgpooling(M′))/2,H′表示文本共现图的加权特征矩阵,M′表示句法依存图的加权特征矩阵,Maxpooling表示最大池化操作,Avgpooling表示平均池化操作。
5.根据权利要求1所述的基于图神经网络的电影评论情感分类方法,其特征在于,所述采用自适应特征融合模块对文本共现图的特征向量和句法依存图的特征向量进行自适应融合,包括:
fG=afG1+(1-a)fG2
其中,a表示可训练参数,fG1表示文本共现图的特征向量,fG2表示句法依存图的特征向量,fG表示融合特征。
6.根据权利要求1所述的基于图神经网络的电影评论情感分类方法,其特征在于,所述文本共现图卷积网络模块、句法依存图卷积网络模块、混合池化模块、自适应特征融合模块和文本分类器模块构成图卷积网络模型,所述图卷积网络模型的损失函数为:
Figure FDA0003477967050000031
其中,
Figure FDA0003477967050000032
表示电影评论文本i的真实标签,Yi表示电影评论文本i的预测标签,B表示文本数量。
7.一种基于图神经网络的电影评论情感分类装置,包括处理器以及存储有若干计算机指令的存储器,其特征在于,所述计算机指令被处理器执行时实现权利要求1至权利要求6中任意一项所述方法的步骤。
CN202210060250.9A 2022-01-19 2022-01-19 一种基于图神经网络的电影评论情感分类方法及装置 Pending CN114528374A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210060250.9A CN114528374A (zh) 2022-01-19 2022-01-19 一种基于图神经网络的电影评论情感分类方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210060250.9A CN114528374A (zh) 2022-01-19 2022-01-19 一种基于图神经网络的电影评论情感分类方法及装置

Publications (1)

Publication Number Publication Date
CN114528374A true CN114528374A (zh) 2022-05-24

Family

ID=81620360

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210060250.9A Pending CN114528374A (zh) 2022-01-19 2022-01-19 一种基于图神经网络的电影评论情感分类方法及装置

Country Status (1)

Country Link
CN (1) CN114528374A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115169293A (zh) * 2022-09-02 2022-10-11 南京信息工程大学 一种文本隐写分析方法、系统、装置及存储介质
CN116304061A (zh) * 2023-05-17 2023-06-23 中南大学 基于层次文本图结构学习的文本分类方法、装置及介质
CN116610828A (zh) * 2023-04-23 2023-08-18 苏州大学 一种基于多模态数据的电影类型预测方法和系统
CN116805059A (zh) * 2023-06-26 2023-09-26 重庆邮电大学 一种基于大数据的专利分类方法

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115169293A (zh) * 2022-09-02 2022-10-11 南京信息工程大学 一种文本隐写分析方法、系统、装置及存储介质
CN116610828A (zh) * 2023-04-23 2023-08-18 苏州大学 一种基于多模态数据的电影类型预测方法和系统
CN116304061A (zh) * 2023-05-17 2023-06-23 中南大学 基于层次文本图结构学习的文本分类方法、装置及介质
CN116304061B (zh) * 2023-05-17 2023-07-21 中南大学 基于层次文本图结构学习的文本分类方法、装置及介质
CN116805059A (zh) * 2023-06-26 2023-09-26 重庆邮电大学 一种基于大数据的专利分类方法
CN116805059B (zh) * 2023-06-26 2024-04-09 重庆邮电大学 一种基于大数据的专利分类方法

Similar Documents

Publication Publication Date Title
CN111488734B (zh) 基于全局交互和句法依赖的情感特征表示学习系统及方法
WO2023024412A1 (zh) 基于深度学习模型的视觉问答方法及装置、介质、设备
CN114528374A (zh) 一种基于图神经网络的电影评论情感分类方法及装置
CN111881291A (zh) 一种文本情感分类方法及系统
CN110019770A (zh) 训练分类模型的方法与装置
CN109214006B (zh) 图像增强的层次化语义表示的自然语言推理方法
CN112001186A (zh) 一种利用图卷积神经网络和中文句法的情感分类方法
CN112395393B (zh) 一种基于多任务多示例的远程监督关系抽取方法
CN109783666A (zh) 一种基于迭代精细化的图像场景图谱生成方法
CN113220886A (zh) 文本分类方法、文本分类模型训练方法及相关设备
CN114238577B (zh) 融合多头注意力机制的多任务学习情感分类方法
CN111598183A (zh) 一种多特征融合图像描述方法
CN111666409A (zh) 一种基于综合深度胶囊网络的复杂评论文本的整体情感智能分类方法
CN113254637B (zh) 一种融合语法的方面级文本情感分类方法及系统
CN111538841B (zh) 基于知识互蒸馏的评论情感分析方法、装置及系统
CN112101042A (zh) 文本情绪识别方法、装置、终端设备和存储介质
CN114756681A (zh) 一种基于多注意力融合的评教文本细粒度建议挖掘方法
CN113326374A (zh) 基于特征增强的短文本情感分类方法及系统
CN112183106A (zh) 一种基于音素联想及深度学习的语义理解方法及装置
Af'idah et al. Long short term memory convolutional neural network for Indonesian sentiment analysis towards touristic destination reviews
CN112860907B (zh) 一种情感分类方法及设备
CN111858919A (zh) 一种文本分类方法及装置、计算机可读存储介质
CN111737467B (zh) 一种基于分段卷积神经网络的对象级情感分类方法
Xu et al. CNN-based skip-gram method for improving classification accuracy of chinese text
CN115631504B (zh) 一种基于双模态图网络信息瓶颈的情感识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination