CN113505226A - 融合图卷积神经网络的文本情感分类系统 - Google Patents

融合图卷积神经网络的文本情感分类系统 Download PDF

Info

Publication number
CN113505226A
CN113505226A CN202110777058.7A CN202110777058A CN113505226A CN 113505226 A CN113505226 A CN 113505226A CN 202110777058 A CN202110777058 A CN 202110777058A CN 113505226 A CN113505226 A CN 113505226A
Authority
CN
China
Prior art keywords
user
product
module
neural network
text
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110777058.7A
Other languages
English (en)
Other versions
CN113505226B (zh
Inventor
廖祥文
林建洲
陈甘霖
林树凯
王灿杰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fuzhou University
Original Assignee
Fuzhou University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuzhou University filed Critical Fuzhou University
Priority to CN202110777058.7A priority Critical patent/CN113505226B/zh
Publication of CN113505226A publication Critical patent/CN113505226A/zh
Application granted granted Critical
Publication of CN113505226B publication Critical patent/CN113505226B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Biophysics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Databases & Information Systems (AREA)
  • Probability & Statistics with Applications (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Machine Translation (AREA)

Abstract

本发明涉及一种融合图卷积神经网络的文本情感分类系统。包括:数据预处理模块,用于构造用户与用户关系图和用户与产品关系图;评论文本预处理模块,用于对文档文本进行特征化处理;基于循环神经网络的编码模块,获取单词级别和句子级别的编码;基于图卷积神经网络的用户和产品特征提取模块,获取用户和产品的向量表示;用户产品记忆模块,获取具有代表性的用户和产品信息的向量表示;注意力机制模块,分别获取用户和产品的句子和文档表示向量;预测情感极性模块,利用分类函数得到最终的情感分类结果。本发明能够有效的学习用户与用户之间和产品与产品之间的内联关系,并通过用户层次和产品层次的分层注意力网络,最终识别出文本的情感类别。

Description

融合图卷积神经网络的文本情感分类系统
技术领域
本发明涉及情感分析和观点挖掘领域,更具体地,涉及一种融合图卷积神经网络的文本情感分类系统。
背景技术
文本情感分类通常指对在线评论的文本进行挖掘,分析用户对产品的情感态度,包括观点、看法、情绪、好恶、立场等主观信息,并对上述信息做出情感倾向类别的判断。近年来,随着网络普及以及社交网站、在线评论网站等迅速发展,文本情感分类成为研究者广泛关注的研究方向。
文本情感分类研究的主要分为基于情感词典的方法、基于传统机器学习的方法和基于神经网络的方法。
基于情感词典的文本情感分类,是指由不同情感词典提供的情感词的情感极性,来实现情感极性的划分。首先是文本输入,通过数据的预处理,接着进行分词操作,然后将情感词典中的不同类型和程度的词语放入模型最后根据情感判断规则将情感类型输出。基于情感词典的方法可以准确反映文本的非结构化特征。但这种方法,当情感词覆盖率和准确率高时,效果比较准确。随着信息的技术的高速发展,出现了越来越多的网络新词,原有的情感词典不能很好的解决。
基于传统机器学习的情感分析方法,是通过大量有标注或无标注语料,使用机器学习算法,抽取特征,最后进行情感分析输出结果。基于传统机器学习的情感分类主要在于情感特征的提取以及分类器的组合选择,不同分类器的组合选择对情感分析的结果有存在一定的影响,但这类方法不能充分利用上下文文本的语境信息,因此其分类准确性有一定的影响。
基于神经网络的情感分类方法,最近的研究表明,利用用户和产品信息能够有效地提升情感分类性能,所以现有的研究将用户和产品信息融入神经网络中。有研究人员在CNN情感分类器中引入了单词级别偏好矩阵和每个用户和产品的表示向量。该模型取得了一些改进,但是模型复杂度高,仅仅考虑了单次级别的用户和产品信息,而没有考虑语义级别。有研究人员将用户和产品的信息一起考虑,并通过注意力机制将它们融入到一个评论表示中。然而,在评论中,我们可以观察到一些词是用户的情感表示,一些词是表明产品的特征。所以评论中是具有来自用户和产品不同视角的不同潜在语义,因此,将用户和产品信息一起编码为一种评论表示是不合理的。有研究人员使用对用户和产品的单独关注来捕捉用户的喜好和产品的特征。但是如果限制了针对某个用户或者产品的评论数量,则模型就无法提取准确的信息,甚至会影响模型的精度。有研究人员考虑到了具有相似偏好的用户可以提供其他有用的信息,使用了一种存储有代表性的用户和产品的信息来补充自身信息,当用户或者产品的评论数量较少时,可以借助代表性用户的信息来进行情感分类。但是,仅仅考虑有代表性的用户和产品信息是不完整的。并且不是所有的用户和产品借助有代表性的用户和产品信息都是有效的。
发明内容
本发明的目的在于提供一种融合图卷积神经网络的文本情感分类系统,能够有效的学习用户与用户之间和产品与产品之间的内联关系,并通过用户层次和产品层次的分层注意力网络,最终识别出文本的情感类别。
为实现上述目的,本发明的技术方案是:一种融合图卷积神经网络的文本情感分类系统,包括:
一数据预处理模块,用于构造用户与用户关系图和用户与产品关系图;
一评论文本预处理模块,用于对文档文本进行特征化处理;
一基于循环神经网络的编码模块,获取单词级别和句子级别的编码;
一基于图卷积神经网络的用户和产品特征提取模块,获取用户和产品的向量表示;
一用户产品记忆模块,获取具有代表性的用户和产品信息的向量表示;
一注意力机制模块,分别获取用户和产品的句子和文档表示向量;
一预测情感极性模块,利用分类函数得到最终的情感分类结果。
在本发明一实施例中,所述数据预处理模块,根据文档中的用户信息、产品信息、标签信息,构造用户与用户关系图和用户与产品关系图。
在本发明一实施例中,所述评论文本预处理模块,利用SkipGram模型提取文本的语义向量。
在本发明一实施例中,所述基于循环神经网络的编码模块,利用双向LSTM对单词和句子进行编码,捕捉单词和句子的上下文信息,获取单词级别和句子级别的编码。
在本发明一实施例中,所述基于图卷积神经网络的用户和产品特征提取模块,利用图卷积神经网络对用户与用户关系图和用户与产品关系图建模,学习用户与用户、产品与产品间的内在联系,并作为用户、产品的向量表示。
在本发明一实施例中,所述用户产品记忆模块,使用两个k维矩阵分别用来存储具有代表性的用户和产品信息,并使用一种门机制更新矩阵。
在本发明一实施例中,所述注意力机制模块,利用用户层次和产品层次注意力机制提取句子中重要单词和文档中的重要句子,从而得到句子和文档表示。
在本发明一实施例中,所述预测情感极性模块,采用SoftMax函数对所得到的文档表示向量进行处理,预测各文本的情感类别。
在本发明一实施例中,在模型的训练阶段,根据信息的前向传播和误差的后向传播将不断地进行调整,逐步优化目标函数。
相较于现有技术,本发明具有以下有益效果:本发明能够有效的学习用户与用户之间和产品与产品之间的内联关系,并通过用户层次和产品层次的分层注意力网络,最终识别出文本的情感类别。
附图说明
图1为本发明融合图卷积神经网络的文本情感分类系统的示意配置图。
具体实施方式
下面结合附图,对本发明的技术方案进行具体说明。
图1示出了根据本发明的实施例,在融合图卷积神经网络的文本情感分类系统的示意配置图。如图1所示,根据本发明实施在融合图卷积神经网络的文本情感分类系统包括:
数据预处理模块1,用于构造用户与用户关系图、用户与产品关系图;文本预处理模块2,用于视角级文本进行特征化处理;基于循环神经网络编码模块3,用于获取单词级别和句子级别的编码;基于图卷积神经网络的用户和产品特征提取模块4,通过图卷积神经网络能够很好的将自身节点特征与邻居节点的特征结合在一起,学习用户与用户之间的内联关系,产品与产品之间的内联关系,得到更好的用户和产品的向量表示;用户产品记忆模块5,通过高维矩阵对有代表性的用户和产品信息进行存储,并使用一种门机制更新矩阵;注意力机制模块6,分别使用用户层次和产品层次的注意力机制,获取句子向量表示和文档向量表示;情感类别输出模块7,利用分类函数得到最终的情感分类结果。下面分别详细描述各模块配置。
1)数据预处理模块1
首先,数据预处理模块1是描述如何构建用户与用户关系图,用户与产品关系图。
用户与用户关系图:Guu=(U,Euu),其中U表示用户,Euu表示用户与用户间的边集,
Figure BDA0003156169850000031
Figure BDA0003156169850000032
对于用户与用户间的边定义为:若存在若两个用户评论相同产品,且评分相同个数大于等于4个,则认为两个用户之间有一条无向边。
用户产品关系图:Gup=(U,P,Eup),其中U表示用户,P表示产品,Eup表示用户与产品间的边集,
Figure BDA0003156169850000033
如果用户评论过某产品,则认为用户与产品间有一条由用户指向产品的有向边。
2)文本预处理模块2
描述文本预处理模块2如何得到初始文本向量。
由于神经网络的输入数据一般为向量,以便模型的端到端训练,因此需要对文本数据进行向量化表示。为了便于数据的处理和分析,在本发明的数据预处理模块,我们首先对源文本进行分词;接着,通过预训练好的SkipGram来将文本数据从文本形式转换成向量形式。
3)基于循环神经网络编码模块3
下面描述基于循环神经网络编码模块3是如何将上一模块得到的数据进行处理的。基于循环神经网络编码包括词汇层和句子层编码,利用BiLSTM[16]对单词和句子进行编码,获取隐层向量。词汇层编码计算公式如下:
Figure BDA0003156169850000041
Figure BDA0003156169850000042
Figure BDA0003156169850000043
其中,
Figure BDA0003156169850000044
Figure BDA0003156169850000045
分别代表前向LSTM和后向LSTM,Wij表示每个单词wij的词向量,
Figure BDA0003156169850000046
是连接符号,将两个向量拼接在一起。由于句子层编码与词汇层编码相类似,这里不再重复阐述。
4)基于图卷积神经网络的用户和产品特征提取模块4
下面描述图卷积神经网络的用户和产品特征提取模块4是如何将提取用户和产品的特征,获取用户和产品的向量表示
鉴于图卷积神经网络(GCN)在处理非欧式空间所呈现出优势,本文通过构建用户和用户、用户和产品关系图,并将两种图进行融合构成异质图,然后利用GCN对异质图进行学习,以便获取用户与用户、产品与产品间的内在联系,具体如图1中虚线框内所示。使用GCN对节点进行数据建模,具体节点更新计算公式如下:
Figure BDA0003156169850000047
其中,
Figure BDA0003156169850000048
表示节点i在第l层的特征,Ni表示节点i的所有邻居节点,包含节点i自身,cij是一个可学习或者可提前设定的正则化常量,w(l),b(l)为可训练参数,σ是激活函数。模型将产生N个节点的表示矩阵{X1,X2,…,XM,XM+1,…,XN},
Figure BDA0003156169850000049
其中{X1,X2,…,XM}为用户节点,{XM+1,…,XN}为产品节点,Xi即为用户或产品的表示向量。
5)用户产品记忆模块5
记忆存储模块是利用高维矩阵存储具有代表性用户和产品的信息,借助有代表性的信息,丰富用户和产品语义表示。以用户存储模块为例,使用k维矩阵来存储有代表性的信息,其中,k维可理解为用户空间中k个有代表性的用户。首先计算当前用户u'和用户矩阵Mu中的
Figure BDA0003156169850000051
Figure BDA0003156169850000052
之间相似度,然后通过SoftMax函数将相似度系数转化为概率分布,最后,为用户构造一个推断向量
Figure BDA0003156169850000053
具体公式如下:
Figure BDA0003156169850000054
Figure BDA0003156169850000055
最终用户u是由GCN生成的用户向量u'和推断向量
Figure BDA0003156169850000056
拼接在一起,计算公式如下:
Figure BDA0003156169850000057
为了能更有效地学习有代表性用户的信息,本文通过使用一种门机制来更新记忆模块,计算公式如下:
Figure BDA0003156169850000058
Figure BDA0003156169850000059
其中,t表示第t个计算步骤,σ(·)是sigmoid函数,u'为当前用户,du用户层面的文档表示,
Figure BDA00031561698500000510
上一时刻的用户记忆模块,
Figure BDA00031561698500000511
Figure BDA00031561698500000512
表示权重,
Figure BDA00031561698500000513
为偏置参数。
6)注意力机制模块6
注意力机制是为了在模型训练中能有效捕捉重点关注的信息,本文模型中包含词汇层注意力机制和句子层注意力机制。
词汇层注意力机制是为了捕捉重要单词在句子中的作用。从不同用户角度来看,并非所有单词都能反映用户同样的偏好或情感,而对于不同产品,每个单词在句子中作用重要程度也有所不同,因而,本文分别使用用户和产品层面的注意力机制,来关注用户和产品的重要信息,最终生成句子表示。用户u的最终句子表示
Figure BDA00031561698500000514
计算公式如下:
Figure BDA00031561698500000515
Figure BDA00031561698500000516
Figure BDA0003156169850000061
其中,e(·)是用于评测单词对当前用户句子表示重要程度,u表示当前用户,
Figure BDA0003156169850000062
表示用户词汇层编码,
Figure BDA0003156169850000063
表示权重,
Figure BDA0003156169850000064
表示偏置参数。同样,对于产品p的最终句子表示
Figure BDA0003156169850000065
计算公式如下:
Figure BDA0003156169850000066
上述的
Figure BDA0003156169850000067
计算方式与
Figure BDA0003156169850000068
相同。
同样地,不同句子在文档中的重要程度也不同,因此,在句子层面也使用用户层面和产品层面的注意力机制来生成文档表示。具体计算方式如下:
Figure BDA0003156169850000069
Figure BDA00031561698500000610
Figure BDA00031561698500000611
同样产品层面的文档dp表示与其计算方式相同。
7)情感类别输出模块7
产品层文档表示与用户层文档表示计算方式相同,在此不再重复描述。最后,将du和dp连接起来得到用于情感分类的最终文档表示d。
d=[du;dp]
将通过注意力机制的文档表示输入到softmax层中进行文本情感分类预测。
p=softmax(Wd+b)
模块3学习了文本的双向语义依赖信息,获取单次级别编码和句子级别编码,通过模块4引入图卷积神经网络对用户和产品进行学习,获取更好的用户和产品的向量表示,利用模块5获取有代表性的用户和产品信息,丰富自己的用户产品信息,利用模块6利用用户层次和产品层次的注意力机制,获得最终的句子表示和文档表示。最后,模块7利用Softmax分类函数对所得向量逐一计算,根据设定的阈值得到该文本表示的情感类别预测值。在训练阶段,利用训练集文本表示进行情感类别的预测并计算其与实际情感标签的误差,利用随机梯度下降法和后向传播对整个系统的参数进行迭代更新;测试阶段,对测试集文本表示进行情感类别的预测,并输出预测值。
以上是本发明的较佳实施例,凡依本发明技术方案所作的改变,所产生的功能作用未超出本发明技术方案的范围时,均属于本发明的保护范围。

Claims (9)

1.一种融合图卷积神经网络的文本情感分类系统,其特征在于,包括:
一数据预处理模块,用于构造用户与用户关系图和用户与产品关系图;
一评论文本预处理模块,用于对文档文本进行特征化处理;
一基于循环神经网络的编码模块,获取单词级别和句子级别的编码;
一基于图卷积神经网络的用户和产品特征提取模块,获取用户和产品的向量表示;
一用户产品记忆模块,获取具有代表性的用户和产品信息的向量表示;
一注意力机制模块,分别获取用户和产品的句子和文档表示向量;
一预测情感极性模块,利用分类函数得到最终的情感分类结果。
2.根据权利要求1所述的融合图卷积神经网络的文本情感分类系统,其特征在于,所述数据预处理模块,根据文档中的用户信息、产品信息、标签信息,构造用户与用户关系图和用户与产品关系图。
3.根据权利要求1所述的融合图卷积神经网络的文本情感分类系统,其特征在于,所述评论文本预处理模块,利用SkipGram模型提取文本的语义向量。
4.根据权利要求1所述的融合图卷积神经网络的文本情感分类系统,其特征在于,所述基于循环神经网络的编码模块,利用双向LSTM对单词和句子进行编码,捕捉单词和句子的上下文信息,获取单词级别和句子级别的编码。
5.根据权利要求1所述的融合图卷积神经网络的文本情感分类系统,其特征在于,所述基于图卷积神经网络的用户和产品特征提取模块,利用图卷积神经网络对用户与用户关系图和用户与产品关系图建模,学习用户与用户、产品与产品间的内在联系,并作为用户、产品的向量表示。
6.根据权利要求1所述的融合图卷积神经网络的文本情感分类系统,其特征在于,所述用户产品记忆模块,使用两个k维矩阵分别用来存储具有代表性的用户和产品信息,并使用一种门机制更新矩阵。
7.根据权利要求1所述的融合图卷积神经网络的文本情感分类系统,其特征在于,所述注意力机制模块,利用用户层次和产品层次注意力机制提取句子中重要单词和文档中的重要句子,从而得到句子和文档表示。
8.根据权利要求1所述的融合图卷积神经网络的文本情感分类系统,其特征在于,所述预测情感极性模块,采用SoftMax函数对所得到的文档表示向量进行处理,预测各文本的情感类别。
9.根据权利要求1所述的融合图卷积神经网络的文本情感分类系统,其特征在于,在模型的训练阶段,根据信息的前向传播和误差的后向传播将不断地进行调整,逐步优化目标函数。
CN202110777058.7A 2021-07-09 2021-07-09 融合图卷积神经网络的文本情感分类系统 Active CN113505226B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110777058.7A CN113505226B (zh) 2021-07-09 2021-07-09 融合图卷积神经网络的文本情感分类系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110777058.7A CN113505226B (zh) 2021-07-09 2021-07-09 融合图卷积神经网络的文本情感分类系统

Publications (2)

Publication Number Publication Date
CN113505226A true CN113505226A (zh) 2021-10-15
CN113505226B CN113505226B (zh) 2023-08-04

Family

ID=78011982

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110777058.7A Active CN113505226B (zh) 2021-07-09 2021-07-09 融合图卷积神经网络的文本情感分类系统

Country Status (1)

Country Link
CN (1) CN113505226B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115169426A (zh) * 2022-02-22 2022-10-11 国网山东省电力公司信息通信公司 一种基于相似性学习融合模型的异常检测方法及系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110874411A (zh) * 2019-11-20 2020-03-10 福州大学 一种基于注意力机制融合的跨领域情感分类系统
CN112182227A (zh) * 2020-10-22 2021-01-05 福州大学 基于transD知识图嵌入的文本情感分类系统及方法
CN112329474A (zh) * 2020-11-02 2021-02-05 山东师范大学 融合注意力的方面级用户评论文本情感分析方法及系统

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110874411A (zh) * 2019-11-20 2020-03-10 福州大学 一种基于注意力机制融合的跨领域情感分类系统
CN112182227A (zh) * 2020-10-22 2021-01-05 福州大学 基于transD知识图嵌入的文本情感分类系统及方法
CN112329474A (zh) * 2020-11-02 2021-02-05 山东师范大学 融合注意力的方面级用户评论文本情感分析方法及系统

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
原福永;常艳鹏;刘宏阳;雷瑜;黄国言;: "联合BiLSTM和CNN的评论文本情感分类模型", 燕山大学学报, no. 05, pages 82 - 87 *
胡玉琦;李婧;常艳鹏;梁顺攀;原福永;: "引入注意力机制的BiGRU-CNN情感分类模型", 小型微型计算机系统, no. 08, pages 36 - 41 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115169426A (zh) * 2022-02-22 2022-10-11 国网山东省电力公司信息通信公司 一种基于相似性学习融合模型的异常检测方法及系统
CN115169426B (zh) * 2022-02-22 2023-10-13 国网山东省电力公司信息通信公司 一种基于相似性学习融合模型的异常检测方法及系统

Also Published As

Publication number Publication date
CN113505226B (zh) 2023-08-04

Similar Documents

Publication Publication Date Title
CN112001185B (zh) 一种结合中文句法和图卷积神经网络的情感分类方法
CN110609897B (zh) 一种融合全局和局部特征的多类别中文文本分类方法
CN110929030B (zh) 一种文本摘要和情感分类联合训练方法
CN112001187B (zh) 一种基于中文句法和图卷积神经网络的情感分类系统
CN107992597B (zh) 一种面向电网故障案例的文本结构化方法
CN110287320B (zh) 一种结合注意力机制的深度学习多分类情感分析模型
CN112001186A (zh) 一种利用图卷积神经网络和中文句法的情感分类方法
CN111985247B (zh) 一种基于多粒度文本特征表示的微博用户兴趣识别方法和系统
CN111368086A (zh) 一种基于CNN-BiLSTM+attention模型的涉案新闻观点句情感分类方法
CN110427616B (zh) 一种基于深度学习的文本情感分析方法
CN107818084B (zh) 一种融合点评配图的情感分析方法
CN112667818A (zh) 融合gcn与多粒度注意力的用户评论情感分析方法及系统
CN110580287A (zh) 基于迁移学习和on-lstm的情感分类方法
Lopes et al. An AutoML-based approach to multimodal image sentiment analysis
CN111914556A (zh) 基于情感语义转移图谱的情感引导方法及系统
CN113705238B (zh) 基于bert和方面特征定位模型的方面级情感分析方法及系统
CN109614611B (zh) 一种融合生成非对抗网络与卷积神经网络的情感分析方法
CN113435211A (zh) 一种结合外部知识的文本隐式情感分析方法
CN111538841B (zh) 基于知识互蒸馏的评论情感分析方法、装置及系统
CN115630156A (zh) 一种融合Prompt和SRU的蒙古语情感分析方法与系统
CN115935975A (zh) 一种情感可控的新闻评论生成方法
CN115906816A (zh) 一种基于Bert的双通道Attention模型的文本情感分析方法
CN115129807A (zh) 基于自注意的社交媒体主题评论的细粒度分类方法及系统
CN113505226B (zh) 融合图卷积神经网络的文本情感分类系统
Nazarizadeh et al. Using Group Deep Learning and Data Augmentation in Persian Sentiment Analysis

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant