CN113505226A - 融合图卷积神经网络的文本情感分类系统 - Google Patents
融合图卷积神经网络的文本情感分类系统 Download PDFInfo
- Publication number
- CN113505226A CN113505226A CN202110777058.7A CN202110777058A CN113505226A CN 113505226 A CN113505226 A CN 113505226A CN 202110777058 A CN202110777058 A CN 202110777058A CN 113505226 A CN113505226 A CN 113505226A
- Authority
- CN
- China
- Prior art keywords
- user
- product
- module
- neural network
- text
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000008451 emotion Effects 0.000 title claims abstract description 52
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 27
- 239000013598 vector Substances 0.000 claims abstract description 28
- 230000007246 mechanism Effects 0.000 claims abstract description 23
- 238000007781 pre-processing Methods 0.000 claims abstract description 18
- 230000006870 function Effects 0.000 claims abstract description 12
- 238000000605 extraction Methods 0.000 claims abstract description 8
- 238000012545 processing Methods 0.000 claims abstract description 7
- 230000000306 recurrent effect Effects 0.000 claims abstract description 6
- 238000012512 characterization method Methods 0.000 claims abstract description 4
- 239000013604 expression vector Substances 0.000 claims abstract description 4
- 238000013527 convolutional neural network Methods 0.000 claims description 9
- 238000010586 diagram Methods 0.000 claims description 9
- 239000000284 extract Substances 0.000 claims description 6
- 238000012549 training Methods 0.000 claims description 6
- 230000004927 fusion Effects 0.000 claims description 3
- 238000000034 method Methods 0.000 abstract description 11
- 239000000047 product Substances 0.000 description 75
- 238000004364 calculation method Methods 0.000 description 9
- 239000011159 matrix material Substances 0.000 description 7
- 238000004458 analytical method Methods 0.000 description 5
- 238000010801 machine learning Methods 0.000 description 4
- 238000011160 research Methods 0.000 description 4
- 125000004122 cyclic group Chemical group 0.000 description 3
- 238000012552 review Methods 0.000 description 3
- 230000002457 bidirectional effect Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005065 mining Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000002996 emotional effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000011478 gradient descent method Methods 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Biophysics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Databases & Information Systems (AREA)
- Probability & Statistics with Applications (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Machine Translation (AREA)
Abstract
本发明涉及一种融合图卷积神经网络的文本情感分类系统。包括:数据预处理模块,用于构造用户与用户关系图和用户与产品关系图;评论文本预处理模块,用于对文档文本进行特征化处理;基于循环神经网络的编码模块,获取单词级别和句子级别的编码;基于图卷积神经网络的用户和产品特征提取模块,获取用户和产品的向量表示;用户产品记忆模块,获取具有代表性的用户和产品信息的向量表示;注意力机制模块,分别获取用户和产品的句子和文档表示向量;预测情感极性模块,利用分类函数得到最终的情感分类结果。本发明能够有效的学习用户与用户之间和产品与产品之间的内联关系,并通过用户层次和产品层次的分层注意力网络,最终识别出文本的情感类别。
Description
技术领域
本发明涉及情感分析和观点挖掘领域,更具体地,涉及一种融合图卷积神经网络的文本情感分类系统。
背景技术
文本情感分类通常指对在线评论的文本进行挖掘,分析用户对产品的情感态度,包括观点、看法、情绪、好恶、立场等主观信息,并对上述信息做出情感倾向类别的判断。近年来,随着网络普及以及社交网站、在线评论网站等迅速发展,文本情感分类成为研究者广泛关注的研究方向。
文本情感分类研究的主要分为基于情感词典的方法、基于传统机器学习的方法和基于神经网络的方法。
基于情感词典的文本情感分类,是指由不同情感词典提供的情感词的情感极性,来实现情感极性的划分。首先是文本输入,通过数据的预处理,接着进行分词操作,然后将情感词典中的不同类型和程度的词语放入模型最后根据情感判断规则将情感类型输出。基于情感词典的方法可以准确反映文本的非结构化特征。但这种方法,当情感词覆盖率和准确率高时,效果比较准确。随着信息的技术的高速发展,出现了越来越多的网络新词,原有的情感词典不能很好的解决。
基于传统机器学习的情感分析方法,是通过大量有标注或无标注语料,使用机器学习算法,抽取特征,最后进行情感分析输出结果。基于传统机器学习的情感分类主要在于情感特征的提取以及分类器的组合选择,不同分类器的组合选择对情感分析的结果有存在一定的影响,但这类方法不能充分利用上下文文本的语境信息,因此其分类准确性有一定的影响。
基于神经网络的情感分类方法,最近的研究表明,利用用户和产品信息能够有效地提升情感分类性能,所以现有的研究将用户和产品信息融入神经网络中。有研究人员在CNN情感分类器中引入了单词级别偏好矩阵和每个用户和产品的表示向量。该模型取得了一些改进,但是模型复杂度高,仅仅考虑了单次级别的用户和产品信息,而没有考虑语义级别。有研究人员将用户和产品的信息一起考虑,并通过注意力机制将它们融入到一个评论表示中。然而,在评论中,我们可以观察到一些词是用户的情感表示,一些词是表明产品的特征。所以评论中是具有来自用户和产品不同视角的不同潜在语义,因此,将用户和产品信息一起编码为一种评论表示是不合理的。有研究人员使用对用户和产品的单独关注来捕捉用户的喜好和产品的特征。但是如果限制了针对某个用户或者产品的评论数量,则模型就无法提取准确的信息,甚至会影响模型的精度。有研究人员考虑到了具有相似偏好的用户可以提供其他有用的信息,使用了一种存储有代表性的用户和产品的信息来补充自身信息,当用户或者产品的评论数量较少时,可以借助代表性用户的信息来进行情感分类。但是,仅仅考虑有代表性的用户和产品信息是不完整的。并且不是所有的用户和产品借助有代表性的用户和产品信息都是有效的。
发明内容
本发明的目的在于提供一种融合图卷积神经网络的文本情感分类系统,能够有效的学习用户与用户之间和产品与产品之间的内联关系,并通过用户层次和产品层次的分层注意力网络,最终识别出文本的情感类别。
为实现上述目的,本发明的技术方案是:一种融合图卷积神经网络的文本情感分类系统,包括:
一数据预处理模块,用于构造用户与用户关系图和用户与产品关系图;
一评论文本预处理模块,用于对文档文本进行特征化处理;
一基于循环神经网络的编码模块,获取单词级别和句子级别的编码;
一基于图卷积神经网络的用户和产品特征提取模块,获取用户和产品的向量表示;
一用户产品记忆模块,获取具有代表性的用户和产品信息的向量表示;
一注意力机制模块,分别获取用户和产品的句子和文档表示向量;
一预测情感极性模块,利用分类函数得到最终的情感分类结果。
在本发明一实施例中,所述数据预处理模块,根据文档中的用户信息、产品信息、标签信息,构造用户与用户关系图和用户与产品关系图。
在本发明一实施例中,所述评论文本预处理模块,利用SkipGram模型提取文本的语义向量。
在本发明一实施例中,所述基于循环神经网络的编码模块,利用双向LSTM对单词和句子进行编码,捕捉单词和句子的上下文信息,获取单词级别和句子级别的编码。
在本发明一实施例中,所述基于图卷积神经网络的用户和产品特征提取模块,利用图卷积神经网络对用户与用户关系图和用户与产品关系图建模,学习用户与用户、产品与产品间的内在联系,并作为用户、产品的向量表示。
在本发明一实施例中,所述用户产品记忆模块,使用两个k维矩阵分别用来存储具有代表性的用户和产品信息,并使用一种门机制更新矩阵。
在本发明一实施例中,所述注意力机制模块,利用用户层次和产品层次注意力机制提取句子中重要单词和文档中的重要句子,从而得到句子和文档表示。
在本发明一实施例中,所述预测情感极性模块,采用SoftMax函数对所得到的文档表示向量进行处理,预测各文本的情感类别。
在本发明一实施例中,在模型的训练阶段,根据信息的前向传播和误差的后向传播将不断地进行调整,逐步优化目标函数。
相较于现有技术,本发明具有以下有益效果:本发明能够有效的学习用户与用户之间和产品与产品之间的内联关系,并通过用户层次和产品层次的分层注意力网络,最终识别出文本的情感类别。
附图说明
图1为本发明融合图卷积神经网络的文本情感分类系统的示意配置图。
具体实施方式
下面结合附图,对本发明的技术方案进行具体说明。
图1示出了根据本发明的实施例,在融合图卷积神经网络的文本情感分类系统的示意配置图。如图1所示,根据本发明实施在融合图卷积神经网络的文本情感分类系统包括:
数据预处理模块1,用于构造用户与用户关系图、用户与产品关系图;文本预处理模块2,用于视角级文本进行特征化处理;基于循环神经网络编码模块3,用于获取单词级别和句子级别的编码;基于图卷积神经网络的用户和产品特征提取模块4,通过图卷积神经网络能够很好的将自身节点特征与邻居节点的特征结合在一起,学习用户与用户之间的内联关系,产品与产品之间的内联关系,得到更好的用户和产品的向量表示;用户产品记忆模块5,通过高维矩阵对有代表性的用户和产品信息进行存储,并使用一种门机制更新矩阵;注意力机制模块6,分别使用用户层次和产品层次的注意力机制,获取句子向量表示和文档向量表示;情感类别输出模块7,利用分类函数得到最终的情感分类结果。下面分别详细描述各模块配置。
1)数据预处理模块1
首先,数据预处理模块1是描述如何构建用户与用户关系图,用户与产品关系图。
用户与用户关系图:Guu=(U,Euu),其中U表示用户,Euu表示用户与用户间的边集, 对于用户与用户间的边定义为:若存在若两个用户评论相同产品,且评分相同个数大于等于4个,则认为两个用户之间有一条无向边。
2)文本预处理模块2
描述文本预处理模块2如何得到初始文本向量。
由于神经网络的输入数据一般为向量,以便模型的端到端训练,因此需要对文本数据进行向量化表示。为了便于数据的处理和分析,在本发明的数据预处理模块,我们首先对源文本进行分词;接着,通过预训练好的SkipGram来将文本数据从文本形式转换成向量形式。
3)基于循环神经网络编码模块3
下面描述基于循环神经网络编码模块3是如何将上一模块得到的数据进行处理的。基于循环神经网络编码包括词汇层和句子层编码,利用BiLSTM[16]对单词和句子进行编码,获取隐层向量。词汇层编码计算公式如下:
4)基于图卷积神经网络的用户和产品特征提取模块4
下面描述图卷积神经网络的用户和产品特征提取模块4是如何将提取用户和产品的特征,获取用户和产品的向量表示
鉴于图卷积神经网络(GCN)在处理非欧式空间所呈现出优势,本文通过构建用户和用户、用户和产品关系图,并将两种图进行融合构成异质图,然后利用GCN对异质图进行学习,以便获取用户与用户、产品与产品间的内在联系,具体如图1中虚线框内所示。使用GCN对节点进行数据建模,具体节点更新计算公式如下:
其中,表示节点i在第l层的特征,Ni表示节点i的所有邻居节点,包含节点i自身,cij是一个可学习或者可提前设定的正则化常量,w(l),b(l)为可训练参数,σ是激活函数。模型将产生N个节点的表示矩阵{X1,X2,…,XM,XM+1,…,XN},其中{X1,X2,…,XM}为用户节点,{XM+1,…,XN}为产品节点,Xi即为用户或产品的表示向量。
5)用户产品记忆模块5
记忆存储模块是利用高维矩阵存储具有代表性用户和产品的信息,借助有代表性的信息,丰富用户和产品语义表示。以用户存储模块为例,使用k维矩阵来存储有代表性的信息,其中,k维可理解为用户空间中k个有代表性的用户。首先计算当前用户u'和用户矩阵Mu中的 之间相似度,然后通过SoftMax函数将相似度系数转化为概率分布,最后,为用户构造一个推断向量具体公式如下:
为了能更有效地学习有代表性用户的信息,本文通过使用一种门机制来更新记忆模块,计算公式如下:
6)注意力机制模块6
注意力机制是为了在模型训练中能有效捕捉重点关注的信息,本文模型中包含词汇层注意力机制和句子层注意力机制。
词汇层注意力机制是为了捕捉重要单词在句子中的作用。从不同用户角度来看,并非所有单词都能反映用户同样的偏好或情感,而对于不同产品,每个单词在句子中作用重要程度也有所不同,因而,本文分别使用用户和产品层面的注意力机制,来关注用户和产品的重要信息,最终生成句子表示。用户u的最终句子表示计算公式如下:
同样地,不同句子在文档中的重要程度也不同,因此,在句子层面也使用用户层面和产品层面的注意力机制来生成文档表示。具体计算方式如下:
同样产品层面的文档dp表示与其计算方式相同。
7)情感类别输出模块7
产品层文档表示与用户层文档表示计算方式相同,在此不再重复描述。最后,将du和dp连接起来得到用于情感分类的最终文档表示d。
d=[du;dp]
将通过注意力机制的文档表示输入到softmax层中进行文本情感分类预测。
p=softmax(Wd+b)
模块3学习了文本的双向语义依赖信息,获取单次级别编码和句子级别编码,通过模块4引入图卷积神经网络对用户和产品进行学习,获取更好的用户和产品的向量表示,利用模块5获取有代表性的用户和产品信息,丰富自己的用户产品信息,利用模块6利用用户层次和产品层次的注意力机制,获得最终的句子表示和文档表示。最后,模块7利用Softmax分类函数对所得向量逐一计算,根据设定的阈值得到该文本表示的情感类别预测值。在训练阶段,利用训练集文本表示进行情感类别的预测并计算其与实际情感标签的误差,利用随机梯度下降法和后向传播对整个系统的参数进行迭代更新;测试阶段,对测试集文本表示进行情感类别的预测,并输出预测值。
以上是本发明的较佳实施例,凡依本发明技术方案所作的改变,所产生的功能作用未超出本发明技术方案的范围时,均属于本发明的保护范围。
Claims (9)
1.一种融合图卷积神经网络的文本情感分类系统,其特征在于,包括:
一数据预处理模块,用于构造用户与用户关系图和用户与产品关系图;
一评论文本预处理模块,用于对文档文本进行特征化处理;
一基于循环神经网络的编码模块,获取单词级别和句子级别的编码;
一基于图卷积神经网络的用户和产品特征提取模块,获取用户和产品的向量表示;
一用户产品记忆模块,获取具有代表性的用户和产品信息的向量表示;
一注意力机制模块,分别获取用户和产品的句子和文档表示向量;
一预测情感极性模块,利用分类函数得到最终的情感分类结果。
2.根据权利要求1所述的融合图卷积神经网络的文本情感分类系统,其特征在于,所述数据预处理模块,根据文档中的用户信息、产品信息、标签信息,构造用户与用户关系图和用户与产品关系图。
3.根据权利要求1所述的融合图卷积神经网络的文本情感分类系统,其特征在于,所述评论文本预处理模块,利用SkipGram模型提取文本的语义向量。
4.根据权利要求1所述的融合图卷积神经网络的文本情感分类系统,其特征在于,所述基于循环神经网络的编码模块,利用双向LSTM对单词和句子进行编码,捕捉单词和句子的上下文信息,获取单词级别和句子级别的编码。
5.根据权利要求1所述的融合图卷积神经网络的文本情感分类系统,其特征在于,所述基于图卷积神经网络的用户和产品特征提取模块,利用图卷积神经网络对用户与用户关系图和用户与产品关系图建模,学习用户与用户、产品与产品间的内在联系,并作为用户、产品的向量表示。
6.根据权利要求1所述的融合图卷积神经网络的文本情感分类系统,其特征在于,所述用户产品记忆模块,使用两个k维矩阵分别用来存储具有代表性的用户和产品信息,并使用一种门机制更新矩阵。
7.根据权利要求1所述的融合图卷积神经网络的文本情感分类系统,其特征在于,所述注意力机制模块,利用用户层次和产品层次注意力机制提取句子中重要单词和文档中的重要句子,从而得到句子和文档表示。
8.根据权利要求1所述的融合图卷积神经网络的文本情感分类系统,其特征在于,所述预测情感极性模块,采用SoftMax函数对所得到的文档表示向量进行处理,预测各文本的情感类别。
9.根据权利要求1所述的融合图卷积神经网络的文本情感分类系统,其特征在于,在模型的训练阶段,根据信息的前向传播和误差的后向传播将不断地进行调整,逐步优化目标函数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110777058.7A CN113505226B (zh) | 2021-07-09 | 2021-07-09 | 融合图卷积神经网络的文本情感分类系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110777058.7A CN113505226B (zh) | 2021-07-09 | 2021-07-09 | 融合图卷积神经网络的文本情感分类系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113505226A true CN113505226A (zh) | 2021-10-15 |
CN113505226B CN113505226B (zh) | 2023-08-04 |
Family
ID=78011982
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110777058.7A Active CN113505226B (zh) | 2021-07-09 | 2021-07-09 | 融合图卷积神经网络的文本情感分类系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113505226B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115169426A (zh) * | 2022-02-22 | 2022-10-11 | 国网山东省电力公司信息通信公司 | 一种基于相似性学习融合模型的异常检测方法及系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110874411A (zh) * | 2019-11-20 | 2020-03-10 | 福州大学 | 一种基于注意力机制融合的跨领域情感分类系统 |
CN112182227A (zh) * | 2020-10-22 | 2021-01-05 | 福州大学 | 基于transD知识图嵌入的文本情感分类系统及方法 |
CN112329474A (zh) * | 2020-11-02 | 2021-02-05 | 山东师范大学 | 融合注意力的方面级用户评论文本情感分析方法及系统 |
-
2021
- 2021-07-09 CN CN202110777058.7A patent/CN113505226B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110874411A (zh) * | 2019-11-20 | 2020-03-10 | 福州大学 | 一种基于注意力机制融合的跨领域情感分类系统 |
CN112182227A (zh) * | 2020-10-22 | 2021-01-05 | 福州大学 | 基于transD知识图嵌入的文本情感分类系统及方法 |
CN112329474A (zh) * | 2020-11-02 | 2021-02-05 | 山东师范大学 | 融合注意力的方面级用户评论文本情感分析方法及系统 |
Non-Patent Citations (2)
Title |
---|
原福永;常艳鹏;刘宏阳;雷瑜;黄国言;: "联合BiLSTM和CNN的评论文本情感分类模型", 燕山大学学报, no. 05, pages 82 - 87 * |
胡玉琦;李婧;常艳鹏;梁顺攀;原福永;: "引入注意力机制的BiGRU-CNN情感分类模型", 小型微型计算机系统, no. 08, pages 36 - 41 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115169426A (zh) * | 2022-02-22 | 2022-10-11 | 国网山东省电力公司信息通信公司 | 一种基于相似性学习融合模型的异常检测方法及系统 |
CN115169426B (zh) * | 2022-02-22 | 2023-10-13 | 国网山东省电力公司信息通信公司 | 一种基于相似性学习融合模型的异常检测方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN113505226B (zh) | 2023-08-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112001185B (zh) | 一种结合中文句法和图卷积神经网络的情感分类方法 | |
CN110609897B (zh) | 一种融合全局和局部特征的多类别中文文本分类方法 | |
CN110929030B (zh) | 一种文本摘要和情感分类联合训练方法 | |
CN112001187B (zh) | 一种基于中文句法和图卷积神经网络的情感分类系统 | |
CN107992597B (zh) | 一种面向电网故障案例的文本结构化方法 | |
CN110287320B (zh) | 一种结合注意力机制的深度学习多分类情感分析模型 | |
CN112001186A (zh) | 一种利用图卷积神经网络和中文句法的情感分类方法 | |
CN111985247B (zh) | 一种基于多粒度文本特征表示的微博用户兴趣识别方法和系统 | |
CN111368086A (zh) | 一种基于CNN-BiLSTM+attention模型的涉案新闻观点句情感分类方法 | |
CN110427616B (zh) | 一种基于深度学习的文本情感分析方法 | |
CN107818084B (zh) | 一种融合点评配图的情感分析方法 | |
CN112667818A (zh) | 融合gcn与多粒度注意力的用户评论情感分析方法及系统 | |
CN110580287A (zh) | 基于迁移学习和on-lstm的情感分类方法 | |
Lopes et al. | An AutoML-based approach to multimodal image sentiment analysis | |
CN111914556A (zh) | 基于情感语义转移图谱的情感引导方法及系统 | |
CN113705238B (zh) | 基于bert和方面特征定位模型的方面级情感分析方法及系统 | |
CN109614611B (zh) | 一种融合生成非对抗网络与卷积神经网络的情感分析方法 | |
CN113435211A (zh) | 一种结合外部知识的文本隐式情感分析方法 | |
CN111538841B (zh) | 基于知识互蒸馏的评论情感分析方法、装置及系统 | |
CN115630156A (zh) | 一种融合Prompt和SRU的蒙古语情感分析方法与系统 | |
CN115935975A (zh) | 一种情感可控的新闻评论生成方法 | |
CN115906816A (zh) | 一种基于Bert的双通道Attention模型的文本情感分析方法 | |
CN115129807A (zh) | 基于自注意的社交媒体主题评论的细粒度分类方法及系统 | |
CN113505226B (zh) | 融合图卷积神经网络的文本情感分类系统 | |
Nazarizadeh et al. | Using Group Deep Learning and Data Augmentation in Persian Sentiment Analysis |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |