CN113641820A - 基于图卷积神经网络的视角级文本情感分类方法及系统 - Google Patents

基于图卷积神经网络的视角级文本情感分类方法及系统 Download PDF

Info

Publication number
CN113641820A
CN113641820A CN202110913656.2A CN202110913656A CN113641820A CN 113641820 A CN113641820 A CN 113641820A CN 202110913656 A CN202110913656 A CN 202110913656A CN 113641820 A CN113641820 A CN 113641820A
Authority
CN
China
Prior art keywords
text
vector
word
emotion
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110913656.2A
Other languages
English (en)
Other versions
CN113641820B (zh
Inventor
廖祥文
曾梦美
郭星宇
朱雨航
张纬峰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fuzhou University
Original Assignee
Fuzhou University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuzhou University filed Critical Fuzhou University
Priority to CN202110913656.2A priority Critical patent/CN113641820B/zh
Publication of CN113641820A publication Critical patent/CN113641820A/zh
Application granted granted Critical
Publication of CN113641820B publication Critical patent/CN113641820B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • G06F40/211Syntactic parsing, e.g. based on context-free grammar [CFG] or unification grammars
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Abstract

本发明涉及一种基于图卷积神经网络的视角级文本情感分类系统及方法,包括:文本预处理模块,用于对视角级文本进行特征化处理;文本语义信息获取模块,用于捕获文本的双向语义依赖关系;注意力编码模块,用于捕获文本单词序列的全局内部相关性,并进行进一步信息整合;图卷积神经网络模块,将GCN直接作用于句子依存关系树来建模句子结构,可将上下文和依赖信息从观点词传播到视角词;情感类别输出模块,用分类函数得到文本最终的情感分类结果。本发明可以有效发挥图卷积网络的作用,能够利用图卷积神经网络通过语义依赖树来建模句子结构,得到更好的文本情感特征表示。

Description

基于图卷积神经网络的视角级文本情感分类方法及系统
技术领域
本发明涉及文本分析领域,具体涉及一种基于图卷积神经网络的视角级文本情感分类方法及系统。
背景技术
以往的情感分析对象以句子或文档为主,并取得了很好的成果,但是在真实的应用场景中一段文本的情感简单使用(积极、消极和中立)无法准确表达文本的真实情感。以评论“这个手机价格很便宜,但是像素不高”为例,该评论是对一个手机进行了整体描述,但是从文档级或句子级做情感分析,无法判别评论的情感极性。视角级文本情感分析是情感分析中的一项细粒度任务,旨在研究每个视角词在文本中所表达的情感极性。上述评论对于两个不同的视角词“价格”和“像素”,所表现出来的情感极性分别是积极和消极。视角级文本情感分析可以准确把握用户针对不同方面的情感信息,能够提供比文档级或句子级更全面、更深入的分析。于是视角级文本情感分析逐渐受到了广泛关注,成为研究热点之一。
发明内容
有鉴于此,本发明的目的在于提供一种基于图卷积神经网络的视角级文本情感分类方法及系统,能够对视角级文本进行特征化处理,并从文本中提取语义特征,然后通过多层图卷积神经网络,得到最终的分类结果。
为实现上述目的,本发明采用如下技术方案:
一种基于图卷积神经网络的视角级文本情感分类方法,包括以下步骤:
步骤S1:获取待分类文本数据,并进行预处理;
步骤S2:采用BiLSTM捕获预处理后文本数据的双向语义依赖关系;
步骤S3:采用多头自注意力机制来捕获文本单词序列的全局内部相关性,并通过逐点卷积变换,进一步进行信息整合;
步骤S4:将GCN直接作用于句子依存关系树来建模句子结构,将视角词附近的知识信息聚合到视角词,再屏蔽掉非视角词的隐藏状态向量,通过平均池化操作来保留视角词向量中的信息,得到最终的文本情感特征向量表示;
步骤S5:采用softmax函数对得到的最终的文本情感特征向量表示进行处理,将概率最大的类别作为该文本表示的情感类别预测值。
进一步的,所述步骤S1具体为:
步骤S11:对待分类文本数据进行分词处理,接着通过Glove将文本数据从文本形式映射成低维稠密向量;
步骤S12:采用斯坦福的句法分析器对文档中的句子进行依存句法分析并进行词性标注;
步骤S13:将通过Glove得到的词嵌入向量与词性标签嵌入向量以及位置嵌入向量拼接起来作为初始文本向量。
进一步的,所述步骤S3具体为:通过以下公式计算多头自注意力机制的输出Hintra
Hintra=MHA(H*,H*);
Figure BDA0003204831760000031
Figure BDA0003204831760000032
式中,H*表示BiLSTM的输出,;表示向量连接,
Figure BDA0003204831760000033
表示第i个注意力头的输出,Wmh表示待学习的权重参数矩阵;
通过以下公式计算注意力头的输出:
Attention(k,q)=softmax(fs(k,q))k;
fs(ki,qj)=tanh([ki;qj]·Watt);
式中,fs表示学习ki和qj之间语义相关性的得分函数,Watt表示待学习的权重参数矩阵;
逐点卷积变换(PCT)可以变换多头自注意力收集到的上下文信息;逐点卷积变换的计算公式如下:
Figure BDA0003204831760000034
式中,σ(·)表示ELU激活函数,*表示卷积运算,
Figure BDA0003204831760000035
表示两个卷积核待学习的权重参数矩阵,
Figure BDA0003204831760000036
表示两个卷积核待学习的权重参数向量;
将逐点卷积变换应用于多头自注意力的输出Hintra,得到向量表示Hc
Hc=PCT(Hintra);
Figure BDA0003204831760000041
进一步的,所述步骤S4具体为:将GCN直接作用于句子依存关系树来建模句子结构,可将上下文和依赖信息从观点词传播到视角词;
设任意句子的依存关系树G都表示为n*n的邻接矩阵A,若节点i到节点j有边,则Aij=1,否则Aij=0;再者将每个单词都设置为与其自身相邻,即Aii=1;如图3所示为句子的邻接矩阵示例,邻接矩阵为二维对称矩阵,行和列的长度为句子的长度;
单个节点嵌入更新计算公式如下所示:
Figure BDA0003204831760000042
其中,
ci=1/di
Figure BDA0003204831760000043
式中,Aij表示句子的邻接矩阵,di表示节点i的度数,ci表示归一化常数,
Figure BDA0003204831760000044
表示ReLU激活函数,
Figure BDA0003204831760000045
表示节点j在第k层GCN的隐藏向量表示,W(k)表示第k层GCN待学习的权重参数矩阵,b(k)表示第k层GCN待学习的权重参数向量。注意,GCN的初始输入
Figure BDA0003204831760000046
为注意力编码模块的输出向量,
Figure BDA0003204831760000047
表示节点i在第k层的最终输出;
进一步屏蔽掉非视角词的隐藏状态向量,
计算公式如下所示:
Figure BDA0003204831760000048
Figure BDA0003204831760000051
式中,t表示视角词的位置,m表示视角词的长度,n表示句子长度。
再通过平均池化操作来保留视角词向量中大部分信息,得到最终的文本情感特征向量表示ha,计算公式如下所示:
Figure BDA0003204831760000052
式中,f(·)表示平均池化函数。
进一步的,所述步骤S5具体为:采用softmax函数对最终的文本情感特征向量表示ha进行处理,将概率最大的类别作为对应文本表示的情感类别预测值,计算公式如下:
y=softmax(Woha+bo);
式中,y表示情感类别预测值,Wo表示需要学习的权重参数矩阵,bo表示需要学习的权重参数向量。
一种基于图卷积神经网络的视角级文本情感分类系统,包括:
文本预处理模块,用于对视角级文本进行特征化处理;
文本语义信息获取模块,用于捕获文本的双向语义依赖关系;
注意力编码模块,用于捕获文本单词序列的全局内部相关性,并进行进一步信息整合;
图卷积神经网络模块,将GCN直接作用于句子依存关系树来建模句子结构,可将上下文和依赖信息从观点词传播到视角词;
情感类别输出模块,用分类函数得到文本最终的情感分类结果。
本发明与现有技术相比具有以下有益效果:
本发明基于依赖树,可以有效发挥图卷积网络的作用,能够利用图卷积神经网络通过语义依赖树来建模句子结构,得到更好的文本情感特征表示。
附图说明
图1是本发明一实施例中系统框架示意图;
图2是本发明一实施例中依存句法分析示例图
图3是本发明一实施例中句子的邻接矩阵示例表。
具体实施方式
下面结合附图及实施例对本发明做进一步说明。
请参照图1,本发明提供一种基于图卷积神经网络的视角级文本情感分类系统,包括:
文本预处理模块,用于对视角级文本进行特征化处理;
文本语义信息获取模块,用于捕获文本的双向语义依赖关系;
注意力编码模块,用于捕获文本单词序列的全局内部相关性,并进行进一步信息整合;
图卷积神经网络模块,将GCN直接作用于句子依存关系树来建模句子结构,可将上下文和依赖信息从观点词传播到视角词;
情感类别输出模块,用分类函数得到文本最终的情感分类结果。
优选的,在本实施例中,文本预处理模块得到初始文本向量具体如下:
首先对源文本进行分词处理,接着通过Glove将文本数据从文本形式映射成低维稠密向量。
再采用斯坦福的句法分析器对文档中的句子进行依存句法分析并进行词性标注。
依存句法分析是按照依存关系对句子中的词语进行分析,句子中的任意两个词之间都存在着某种支配(head)和被支配关系。这种词语之间的关系按照依赖关系按层递进,直到根节点。由于词语之间的关系是有向的,因此句法分析的结果是有向的依存关系图。词性标注是为分词结果中的每个单词标注一个正确的词性,即确定每个词是名词、动词、形容词或其他词性的过程。因为不同词性的单词对文本语义含义的贡献是不同的。如图2所示为依存句法分析得到的结果,句子下方的标注为词性标签,如形容词horrible就比限定词the对文本语义的贡献更大。连线则表示词语之间存在着依存关系。通常认为一个更靠近视角词的上下文词应该比一个更远的上下文词更重要,对视角级情感分类起到的作用更大。传统的方法通常根据上下文词到视角的相对距离来生成位置信息,而本发明根据依存关系树得到词之间的位置信息,可以看到视角词staff与观点词horrible之间的距离大大缩短,有利于视角级文本情感分类。
最后将通过Glove得到的词嵌入向量与词性标签嵌入向量以及位置嵌入向量拼接起来作为初始文本向量。
优选的,在本实施例中,文本语义信息获取模块利用BiLSTM从文本提取语义特征,解决长短时记忆网络(LSTM)无法编码从后到前的信息的问题,从而更好的捕捉双向的语义依赖。BiLSTM模型通过输入门、遗忘门和输出门进行参数化,控制递归操作中的信息流。为了简洁起见,下面省略了BiLSTM的技术细节,这些细节可以在许多相关的工作中找到,简洁操作描述如下:
Figure BDA0003204831760000071
Figure BDA0003204831760000072
其中
Figure BDA0003204831760000073
Figure BDA0003204831760000074
分别为单词向量wi的前向隐藏状态和后向隐藏状态。H*为隐藏向量序列,其中n表示句子长度。
优选的,在本实施例中,注意力编码模块采用多头自注意力机制来捕获文本单词序列的全局内部相关性,再通过PCT逐点卷积变换,进行进一步信息整合。
具体而言,通过以下公式计算多头自注意力机制的输出Hintra
Hintra=MHA(H*,H*);
Figure BDA0003204831760000081
Figure BDA0003204831760000082
式中,H*表示BiLSTM的输出,;表示向量连接,
Figure BDA0003204831760000083
表示第i个注意力头的输出,Wmh表示待学习的权重参数矩阵;
通过以下公式计算注意力头的输出:
Attention(k,q)=softmax(fs(k,q))k;
fs(ki,qj)=tanh([ki;qj]·Watt);
式中,fs表示学习ki和qj之间语义相关性的得分函数,Watt表示待学习的权重参数矩阵;
逐点卷积变换(PCT)可以变换多头自注意力收集到的上下文信息。逐点意味着卷积核大小为1,并且相同的转换应用于输入的每个向量。逐点卷积变换的计算公式如下:
Figure BDA0003204831760000084
式中,σ(·)表示ELU激活函数,*表示卷积运算,
Figure BDA0003204831760000085
表示两个卷积核待学习的权重参数矩阵,
Figure BDA0003204831760000086
表示两个卷积核待学习的权重参数向量。
将逐点卷积变换应用于多头自注意力的输出Hintra,得到最终的向量表示Hc
Hc=PCT(Hintra);
Figure BDA0003204831760000087
优选的,在本实施例中,图卷积神经网络模块将GCN直接作用于句子依存关系树来建模句子结构,可将上下文和依赖信息从观点词传播到视角词。依存关系树可以解释为一个有着n个节点的图G,其中节点代表句子中的单词,边代表图中单词之间的依存路径。依存关系树是有向图,但本发明研究无向图,因此不考虑词语之间支配关系的方向。此模块依存关系树的节点为上一模块注意力编码模块的输出向量。这种结构使得GCN可以直接在图上操作,以模拟单词之间存在的依赖关系。
任意句子的依存关系树G都可以表示为n*n的邻接矩阵A。若节点i到节点j有边,则Aij=1,否则Aij=0。再者将每个单词都设置为与其自身相邻,即Aii=1。如图3所示为句子的邻接矩阵示例,邻接矩阵为二维对称矩阵,行和列的长度为句子的长度。
GCN能够有效地利用依赖路径来转换和传播路径上的信息,并通过聚合传播的信息来更新节点嵌入。在这样的操作中,GCN在建模其嵌入时只考虑节点的一阶邻域。然而,k个连续的GCN运算导致信息在k阶邻域内传播。单个节点嵌入更新计算公式如下所示:
Figure BDA0003204831760000091
其中,
ci=1/du
Figure BDA0003204831760000092
式中,Aij表示句子的邻接矩阵,di表示节点i的度数,Ci表示归一化常数,
Figure BDA0003204831760000093
表示ReLU激活函数,
Figure BDA0003204831760000094
表示节点j在第k层GCN的隐藏向量表示,W(k)表示第k层GCN待学习的权重参数矩阵,b(k)表示第k层GCN待学习的权重参数向量。注意,GCN的初始输入
Figure BDA0003204831760000095
为注意力编码模块的输出向量,
Figure BDA0003204831760000096
表示节点i在第k层的最终输出。
在提取分类任务的最终文本情感特征表示时,我们选择屏蔽掉非视角词的隐藏状态向量,因为通过多层GCN已经将视角词附近的知识信息聚合到了视角词,若再选取其他部分可能会增加不必要的噪声。计算公式如下所示:
Figure BDA0003204831760000097
Figure BDA0003204831760000098
式中,t表示视角词的位置,m表示视角词的长度,n表示句子长度。
再通过平均池化操作来保留视角词向量中大部分信息,得到最终的向量表示ha,计算公式如下所示:
Figure BDA0003204831760000101
式中,f(·)表示平均池化函数。
优选的,在本实施例中,情感类别输出模块采用softmax函数对得到的视角级文本情感特征表示ha进行处理,将概率最大的类别作为对应文本表示的情感类别预测值,计算公式如下:
y=softmax(Woha+bo);
式中,y表示情感类别预测值,Wo表示需要学习的权重参数矩阵,bo表示需要学习的权重参数向量。
优选的,在本实施例中,在整个模型的训练阶段,利用训练集文本表示进行情感类别的预测并计算预测结果与实际情感标签的误差,利用随机梯度下降法和反向传播对整个系统的参数进行更新与优化;模型训练完成后,对测试集文本表示进行情感类别的预测,并输出预测值。
优选的,在本实施例中,还提供一种基于图卷积神经网络的视角级文本情感分类方法,包括以下步骤:
步骤S1:获取待分类文本数据,并进行预处理;
步骤S2:采用BiLSTM捕获预处理后文本数据的双向语义依赖关系;
步骤S3:采用多头自注意力机制来捕获文本单词序列的全局内部相关性,并通过逐点卷积变换,进一步进行信息整合;
步骤S4:将GCN直接作用于句子依存关系树来建模句子结构,将视角词附近的知识信息聚合到视角词,再屏蔽掉非视角词的隐藏状态向量,通过平均池化操作来保留视角词向量中的信息,得到最终的文本情感特征向量表示;
步骤S5:采用softmax函数对得到的最终的文本情感特征向量表示进行处理,将概率最大的类别作为该文本表示的情感类别预测值。
以上所述仅为本发明的较佳实施例,凡依本发明申请专利范围所做的均等变化与修饰,皆应属本发明的涵盖范围。

Claims (6)

1.一种基于图卷积神经网络的视角级文本情感分类方法,其特征在于,包括以下步骤:
步骤S1:获取待分类文本数据,并进行预处理;
步骤S2:采用BiLSTM捕获预处理后文本数据的双向语义依赖关系;
步骤S3:采用多头自注意力机制来捕获文本单词序列的全局内部相关性,并通过逐点卷积变换,进一步进行信息整合;
步骤S4:将GCN直接作用于句子依存关系树来建模句子结构,将视角词附近的知识信息聚合到视角词,再屏蔽掉非视角词的隐藏状态向量,通过平均池化操作来保留视角词向量中的信息,得到最终的文本情感特征向量表示;
步骤S5:采用softmax函数对得到的最终的文本情感特征向量表示进行处理,将概率最大的类别作为该文本表示的情感类别预测值。
2.根据权利要求1所述的基于图卷积神经网络的视角级文本情感分类方法,其特征在于,所述步骤S1具体为:
步骤S11:对待分类文本数据进行分词处理,接着通过Glove将文本数据从文本形式映射成低维稠密向量;
步骤S12:采用斯坦福的句法分析器对文档中的句子进行依存句法分析并进行词性标注;
步骤S13:将通过Glove得到的词嵌入向量与词性标签嵌入向量以及位置嵌入向量拼接起来作为初始文本向量。
3.根据权利要求1所述的基于图卷积神经网络的视角级文本情感分类方法,其特征在于,所述步骤S3具体为:通过以下公式计算多头自注意力机制的输出Hintra
Hintra=MHA(H*,H*);
Figure FDA0003204831750000021
Figure FDA0003204831750000022
式中,H*表示BiLSTM的输出,;表示向量连接,
Figure FDA0003204831750000023
表示第i个注意力头的输出,Wmh表示待学习的权重参数矩阵;
通过以下公式计算注意力头的输出:
Attention(k,q)=softmax(fs(k,q))k;
fs(ki,qj)=tanh([ki;qj]·Watt);
式中,fs表示学习ki和qj之间语义相关性的得分函数,Watt表示待学习的权重参数矩阵;
逐点卷积变换(PCT)可以变换多头自注意力收集到的上下文信息;逐点卷积变换的计算公式如下:
Figure FDA0003204831750000024
式中,σ(·)表示ELU激活函数,*表示卷积运算,
Figure FDA0003204831750000025
表示两个卷积核待学习的权重参数矩阵,
Figure FDA0003204831750000026
表示两个卷积核待学习的权重参数向量;
将逐点卷积变换应用于多头自注意力的输出Hintra,得到向量表示Hc
Hc=PCT(Hintra);
Figure FDA0003204831750000031
4.根据权利要求1所述的基于图卷积神经网络的视角级文本情感分类方法,其特征在于,所述步骤S4具体为:将GCN直接作用于句子依存关系树来建模句子结构,可将上下文和依赖信息从观点词传播到视角词;
设任意句子的依存关系树G都表示为n*n的邻接矩阵A,若节点i到节点j有边,则Aij=1,否则Aij=0;再者将每个单词都设置为与其自身相邻,即Aii=1;邻接矩阵为二维对称矩阵,行和列的长度为句子的长度;
单个节点嵌入更新计算公式如下所示:
Figure FDA0003204831750000032
其中,
ci=1/di
Figure FDA0003204831750000033
式中,Aij表示句子的邻接矩阵,di表示节点i的度数,ci表示归一化常数,
Figure FDA0003204831750000034
表示ReLU激活函数,
Figure FDA0003204831750000035
表示节点j在第k层GCN的隐藏向量表示,W(k)表示第k层GCN待学习的权重参数矩阵,b(k)表示第k层GCN待学习的权重参数向量。注意,GCN的初始输入
Figure FDA0003204831750000036
为注意力编码模块的输出向量,
Figure FDA0003204831750000041
表示节点i在第k层的最终输出;
进一步屏蔽掉非视角词的隐藏状态向量,
计算公式如下所示:
Figure FDA0003204831750000042
Figure FDA0003204831750000043
式中,t表示视角词的位置,m表示视角词的长度,n表示句子长度。
再通过平均池化操作来保留视角词向量中大部分信息,得到最终的文本情感特征向量表示ha,计算公式如下所示:
Figure FDA0003204831750000044
式中,f(·)表示平均池化函数。
5.根据权利要求1所述的基于图卷积神经网络的视角级文本情感分类方法,其特征在于,所述步骤S5具体为:采用softmax函数对最终的文本情感特征向量表示ha进行处理,将概率最大的类别作为对应文本表示的情感类别预测值,计算公式如下:
y=softmax(Woha+bo);
式中,y表示情感类别预测值,Wo表示需要学习的权重参数矩阵,bo表示需要学习的权重参数向量。
6.一种基于图卷积神经网络的视角级文本情感分类系统,其特征在于,包括:
文本预处理模块,用于对视角级文本进行特征化处理;
文本语义信息获取模块,用于捕获文本的双向语义依赖关系;
注意力编码模块,用于捕获文本单词序列的全局内部相关性,并进行进一步信息整合;
图卷积神经网络模块,将GCN直接作用于句子依存关系树来建模句子结构,可将上下文和依赖信息从观点词传播到视角词;
情感类别输出模块,用分类函数得到文本最终的情感分类结果。
CN202110913656.2A 2021-08-10 2021-08-10 基于图卷积神经网络的视角级文本情感分类方法及系统 Active CN113641820B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110913656.2A CN113641820B (zh) 2021-08-10 2021-08-10 基于图卷积神经网络的视角级文本情感分类方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110913656.2A CN113641820B (zh) 2021-08-10 2021-08-10 基于图卷积神经网络的视角级文本情感分类方法及系统

Publications (2)

Publication Number Publication Date
CN113641820A true CN113641820A (zh) 2021-11-12
CN113641820B CN113641820B (zh) 2023-11-17

Family

ID=78420516

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110913656.2A Active CN113641820B (zh) 2021-08-10 2021-08-10 基于图卷积神经网络的视角级文本情感分类方法及系统

Country Status (1)

Country Link
CN (1) CN113641820B (zh)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114091450A (zh) * 2021-11-19 2022-02-25 南京通达海科技股份有限公司 一种基于图卷积网络的司法领域关系抽取方法和系统
CN114564967A (zh) * 2022-04-29 2022-05-31 天津大学 一种面向情感语义的语义标注及语义依存分析方法及装置
CN114638195A (zh) * 2022-01-21 2022-06-17 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院) 一种基于多任务学习的立场检测方法
CN114676704A (zh) * 2022-05-30 2022-06-28 华南师范大学 句子情感分析方法、装置、设备以及存储介质
CN114707518A (zh) * 2022-06-08 2022-07-05 四川大学 面向语义片段的目标情感分析方法、装置、设备及介质
CN115936077A (zh) * 2022-12-30 2023-04-07 湖北工业大学 基于依赖树的方面级情感分析交互卷积网络
CN116108186A (zh) * 2023-04-13 2023-05-12 南开大学 一种多模态方面级情感分析方法
CN116246288A (zh) * 2023-05-10 2023-06-09 浪潮电子信息产业股份有限公司 一种文本编码方法、模型训练方法、模型匹配方法及装置
CN116629237A (zh) * 2023-07-25 2023-08-22 江西财经大学 基于逐步集成多层注意力的事件表示学习方法及系统
CN117171343A (zh) * 2023-08-10 2023-12-05 大连交通大学 一种文本分类方法
CN117473083A (zh) * 2023-09-30 2024-01-30 齐齐哈尔大学 一种基于提示知识和混合神经网络的方面级情感分类模型

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112001186A (zh) * 2020-08-26 2020-11-27 重庆理工大学 一种利用图卷积神经网络和中文句法的情感分类方法
CN112001187A (zh) * 2020-08-26 2020-11-27 重庆理工大学 一种基于中文句法和图卷积神经网络的情感分类系统
CN112001185A (zh) * 2020-08-26 2020-11-27 重庆理工大学 一种结合中文句法和图卷积神经网络的情感分类方法
CN112347248A (zh) * 2020-10-30 2021-02-09 山东师范大学 一种方面级文本情感分类方法及系统
CN112528672A (zh) * 2020-12-14 2021-03-19 北京邮电大学 一种基于图卷积神经网络的方面级情感分析方法及装置
CN112633010A (zh) * 2020-12-29 2021-04-09 山东师范大学 基于多头注意力和图卷积网络的方面级情感分析方法及系统

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112001186A (zh) * 2020-08-26 2020-11-27 重庆理工大学 一种利用图卷积神经网络和中文句法的情感分类方法
CN112001187A (zh) * 2020-08-26 2020-11-27 重庆理工大学 一种基于中文句法和图卷积神经网络的情感分类系统
CN112001185A (zh) * 2020-08-26 2020-11-27 重庆理工大学 一种结合中文句法和图卷积神经网络的情感分类方法
CN112347248A (zh) * 2020-10-30 2021-02-09 山东师范大学 一种方面级文本情感分类方法及系统
CN112528672A (zh) * 2020-12-14 2021-03-19 北京邮电大学 一种基于图卷积神经网络的方面级情感分析方法及装置
CN112633010A (zh) * 2020-12-29 2021-04-09 山东师范大学 基于多头注意力和图卷积网络的方面级情感分析方法及系统

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
刘发升;徐民霖;邓小鸿;: "结合注意力机制和句子排序的情感分析研究", 计算机工程与应用, no. 13 *
廖祥文;谢媛媛;魏晶晶;桂林;程学旗;陈国龙;: "基于卷积记忆网络的视角级微博情感分类", 模式识别与人工智能, no. 03 *

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114091450B (zh) * 2021-11-19 2022-11-18 南京通达海科技股份有限公司 一种基于图卷积网络的司法领域关系抽取方法和系统
CN114091450A (zh) * 2021-11-19 2022-02-25 南京通达海科技股份有限公司 一种基于图卷积网络的司法领域关系抽取方法和系统
CN114638195A (zh) * 2022-01-21 2022-06-17 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院) 一种基于多任务学习的立场检测方法
CN114564967A (zh) * 2022-04-29 2022-05-31 天津大学 一种面向情感语义的语义标注及语义依存分析方法及装置
CN114676704A (zh) * 2022-05-30 2022-06-28 华南师范大学 句子情感分析方法、装置、设备以及存储介质
CN114707518A (zh) * 2022-06-08 2022-07-05 四川大学 面向语义片段的目标情感分析方法、装置、设备及介质
CN114707518B (zh) * 2022-06-08 2022-08-16 四川大学 面向语义片段的目标情感分析方法、装置、设备及介质
CN115936077B (zh) * 2022-12-30 2023-09-15 湖北工业大学 基于依赖树的方面级情感分析交互卷积网络
CN115936077A (zh) * 2022-12-30 2023-04-07 湖北工业大学 基于依赖树的方面级情感分析交互卷积网络
CN116108186A (zh) * 2023-04-13 2023-05-12 南开大学 一种多模态方面级情感分析方法
CN116108186B (zh) * 2023-04-13 2023-06-20 南开大学 一种多模态方面级情感分析方法
CN116246288B (zh) * 2023-05-10 2023-08-04 浪潮电子信息产业股份有限公司 一种文本编码方法、模型训练方法、模型匹配方法及装置
CN116246288A (zh) * 2023-05-10 2023-06-09 浪潮电子信息产业股份有限公司 一种文本编码方法、模型训练方法、模型匹配方法及装置
CN116629237A (zh) * 2023-07-25 2023-08-22 江西财经大学 基于逐步集成多层注意力的事件表示学习方法及系统
CN116629237B (zh) * 2023-07-25 2023-10-10 江西财经大学 基于逐步集成多层注意力的事件表示学习方法及系统
CN117171343A (zh) * 2023-08-10 2023-12-05 大连交通大学 一种文本分类方法
CN117171343B (zh) * 2023-08-10 2024-03-19 大连交通大学 一种文本分类方法
CN117473083A (zh) * 2023-09-30 2024-01-30 齐齐哈尔大学 一种基于提示知识和混合神经网络的方面级情感分类模型

Also Published As

Publication number Publication date
CN113641820B (zh) 2023-11-17

Similar Documents

Publication Publication Date Title
CN113641820A (zh) 基于图卷积神经网络的视角级文本情感分类方法及系统
CN111143576A (zh) 一种面向事件的动态知识图谱构建方法和装置
CN111897908A (zh) 融合依存信息和预训练语言模型的事件抽取方法及系统
CN110321563B (zh) 基于混合监督模型的文本情感分析方法
CN108363753A (zh) 评论文本情感分类模型训练与情感分类方法、装置及设备
CN110851641B (zh) 跨模态检索方法、装置和可读存储介质
CN112667818B (zh) 融合gcn与多粒度注意力的用户评论情感分析方法及系统
CN111680159A (zh) 数据处理方法、装置及电子设备
CN115858788A (zh) 基于双重图卷积神经网络的视角级文本情感分类系统
CN111598183A (zh) 一种多特征融合图像描述方法
WO2022253074A1 (zh) 一种数据处理方法及相关设备
CN113704546A (zh) 基于空间时序特征的视频自然语言文本检索方法
CN112580328A (zh) 事件信息的抽取方法及装置、存储介质、电子设备
CN113378573A (zh) 面向内容大数据的小样本关系抽取方法和装置
WO2023159756A1 (zh) 价格数据的处理方法和装置、电子设备、存储介质
CN110659392B (zh) 检索方法及装置、存储介质
CN117033609B (zh) 文本视觉问答方法、装置、计算机设备和存储介质
CN116245102B (zh) 一种基于多头注意力和图神经网络的多模态情感识别方法
CN111445545B (zh) 一种文本转贴图方法、装置、存储介质及电子设备
Song et al. Exploring explicit and implicit visual relationships for image captioning
CN115659987B (zh) 基于双通道的多模态命名实体识别方法、装置以及设备
CN110888944A (zh) 基于多卷积窗尺寸注意力卷积神经网络实体关系抽取方法
CN112380874B (zh) 一种基于图卷积网络的多人对话语篇分析方法
CN115906861A (zh) 基于交互方面信息融合的语句情感分析方法以及装置
CN114492458A (zh) 一种基于多头注意力和词共现的方面级情感分析方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant