CN113792144B - 基于半监督的图卷积神经网络的文本分类方法 - Google Patents
基于半监督的图卷积神经网络的文本分类方法 Download PDFInfo
- Publication number
- CN113792144B CN113792144B CN202111087880.7A CN202111087880A CN113792144B CN 113792144 B CN113792144 B CN 113792144B CN 202111087880 A CN202111087880 A CN 202111087880A CN 113792144 B CN113792144 B CN 113792144B
- Authority
- CN
- China
- Prior art keywords
- document
- layer
- nodes
- node
- graph
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 25
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 16
- 239000013598 vector Substances 0.000 claims abstract description 30
- 238000009826 distribution Methods 0.000 claims description 31
- 239000011159 matrix material Substances 0.000 claims description 15
- 238000012549 training Methods 0.000 claims description 14
- 230000004913 activation Effects 0.000 claims description 10
- 230000006870 function Effects 0.000 claims description 10
- 230000009466 transformation Effects 0.000 claims description 7
- 238000013145 classification model Methods 0.000 claims description 6
- 238000010586 diagram Methods 0.000 claims description 5
- 230000004931 aggregating effect Effects 0.000 claims description 4
- 238000005096 rolling process Methods 0.000 claims description 4
- 238000006243 chemical reaction Methods 0.000 claims description 2
- 102100039956 Geminin Human genes 0.000 abstract 1
- 101000886596 Homo sapiens Geminin Proteins 0.000 abstract 1
- 230000005540 biological transmission Effects 0.000 abstract 1
- 238000002474 experimental method Methods 0.000 description 10
- 238000012360 testing method Methods 0.000 description 9
- 230000000694 effects Effects 0.000 description 8
- 230000008451 emotion Effects 0.000 description 7
- 238000004458 analytical method Methods 0.000 description 4
- 101100136092 Drosophila melanogaster peng gene Proteins 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 230000000052 comparative effect Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- 239000000523 sample Substances 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 238000007792 addition Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 239000002775 capsule Substances 0.000 description 1
- 230000002860 competitive effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/10—Text processing
- G06F40/12—Use of codes for handling textual entities
- G06F40/126—Character encoding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Databases & Information Systems (AREA)
- Probability & Statistics with Applications (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Machine Translation (AREA)
Abstract
本发明公开了一种基于半监督的图卷积神经网络的文本分类方法,为构建文本与文本之间的语义关系,采用BERT模型将文本进行编码成固定的向量,进而分析了文本与文本之间的相似关系,构建了文档‑文档之间的边关系。文本的特征表示可以依赖于相近的文档特征,利用图卷积神经网络聚合文档节点的邻居节点特征进行特征学习,增强目标文档节点的特征表示。采用GMNN模型,其不仅可以进行促进节点的特征学习还可以进行标签信息传播,有效的解决了标记数据稀疏的问题。
Description
技术领域
本发明涉及人工智能领域,具体是一种基于半监督的图卷积神经网络的文本分类方法。
背景技术
自然语义文档也包含了内部图结构,例如句法和语义分析树,它们定义了句子中单词之间的句法/语义关系,已有研究者借助图结构试图阐明其中的作用关系,因此,有研究者开始考虑文档中的图结构对文档特征表示的影响,另一面,文档与文档之间也存在相互作用关系,所熟知的具有相同语义的文档具有相似的分布,而非相似的文档具有不同的分布,即可以推测:文本的特征表示可以依赖于相近的文档特征。而文档于文档之间的作用关系,可以转化为图结构表示。同时受限于标记数据稀疏的影响,无法有效的进行监督学习。因此将利用图的可传播的优点,结合图节点的特征表示学习,设计依托于文本与文本之间的交互关系半监督学习文本分类框架。已有研究展开了基于图结构的文本分类,
如TextRank最早探究图结构应用于文本分类的模型,图结构中的节点可以是文档或单词等,而边的关系可以是语义关系或词汇关系等。
在此概念下,Peng等人提出了一种基于图卷积神经网络的模型,将文本分类任务转化为图分类任务,为此,他首先通过滑动窗口在单词序列上滑动,通过在该滑动窗口内单词与单词的共现情形,构建基于单词的文本图结构,使得其能够捕获非连续和长远距离单词的语义特征,另一方面使用图卷积,对不同层次的语义特征进行提取,取得了良好的实验效果。
Yao等人采用图卷积在构建的文本-单词图中,与Peng等人不同的是,将图构建在语料库中,他们不仅依据单词与单词的共现概率构建单词与单词之间的边,还将文本依据该文本是否包含该单词将其嵌入到图中。该方法不仅能够捕获单词与本文档内的语境义,还能学习到其他文档中的语境义,这种单词能够跨文档学习的语境义使得单词具备了丰富的语境义,同时其也无距离限制,能够学习到长远距离中单词的语境义,为此使得其获得了文档较好的特征表示能力,同时也取得了比较好的实验效果。
Peng等人提出一种基于层次分类和基于图胶囊注意力机制的方法,该模型利用了类标签之间的关系。
故现有采用基于图的方法去研究如何构建好的文本表示,大多数是基于单词与文本的图结构关系,具有局限性。
发明内容
本申请针对背景技术中存在的问题,将研究重点聚焦于文本与文本之间的关系,提出了一种基于半监督的图卷积神经网络的文本分类方法。
技术方案:
一种基于半监督的图卷积神经网络的文本分类方法,通过文本分类模型实现文本分类,所述文本分类模型的构建包括以下步骤:
S1、构建句子或者文档的特征编码:将输入的句子或者文档输入到BERT模型中,并采用谷歌开源的训练好的模型参数,对句子进行编码,抽取BERT最后一层输出序列中的第一个向量作为句子或者段落的特征编码向量;
S2、构建文档-文档的关系图:考虑文档与文档之间的关系,基于以下两条规则:
(1)图中的每一个节点表示文档;
(2)依据文档之间的相似度建议文档与文档之间的关系,即如果文档与文档之间的语义相似度超过阈值,则两文档之间建立边的联系,否则,没有边关系;
S3、文档节点的特征表示学习:将构建的句子或者段落的特征编码向量作为文档节点的特征,该特征为该节点的初始化向量,然后通过两层的图卷积操作,聚合其自身特征和邻居节点的特征,最后通过一层全连接层并经过激活函数softmax输出其标签分布;
S4、文档节点的标签类别推断:对于已知真实标签的节点采用其原始标签,对于未知标签的节点通过S3的方式对其进行计算,将通过S3预测输出的标签分布,然后采用基于图的传播的方式,根据邻居节点的标签预测该未知节点的标签。
S1中给定文档DOC={w1,w2,w3…wL},其中wi代表文档DOC中第i个位置上的单词,L代表文档中单词的个数,采用预训练模型Bert将文档固定成特定维度的向量作为文档的语义特征表示,即:
X=BERT(DOC)
式中,x∈Rm表示文档DOC的特征向量,其维度为m维。
S2中采用如下公式构建文档与文档之间的关系:
Sim=consine(xi,xj)
式中,Sim表示图中节点xi和xj之间的相似度,即两文档之间的语义相似度,α是超参数;e(i,j)表示图中节点i和节点j之间的边关系。
S3中采用A表示图的连接矩阵,然后采用X(1)表示节点的特征向量,X(2)表示带标记数据的标签分布;标签分布预测模型定义为:
将BERT输出的特征向量X(0)作为文档节点的初始特征向量H(0):
H(0)=X(0)
然后,通过聚合邻居节点的特征和自身的特征,进而更新上一层的特征:
这里H(1)代表经过第一层信息转化矩阵W(1)得到的文本特征向量,H(2)代表经过第二层信息转化矩阵W(2)得到的文本特征向量,其中I表示单位矩阵且与A的维度一样,/>是矩阵/>的度,σ代表的是激活函数Relu;
最终将文档节点最后一层特征,通过全连接神经网络和激活函数softmax,得到标签分布y:
y=softmax(W(3)H(2)+b(3))
其中w(3)是全连接层的信息转化参数,而b(3)是全连接层的偏置参数,y是预测出的标签分布。
S4中推断未知标签的节点,采用A表示图的连接矩阵,其中对于已经真实标签节点的标签分布采用one-hot编码,对于未知标签分布的邻居节点,通过S3得到标签分布,采用y(0)表示未知节点的邻居节点的标签分布,并且采用y(1)表示经过第一层图卷积模型更新过后的标签分布,y(2)表示经过第二层图卷积模型更新过后的标签分布;
首先将得到未知节点的邻居节点的标签分布y(0)作为初始化特征,输入到以下模型中:
接着再经过一层的全连接层和激活函数softmax,得到未知节点的标签分布:
y(l)=softmax(W(6)H(2)+b(6))
其中W(4),W(5),W(6)是每一层模型对应的信息转化矩阵,而b(6)代表全连接层的偏置参数,其中I表示单位矩阵且与A的维度一样,/>是矩阵/>的度,σ代表的是激活函数Relu。
本发明的有益效果
(1)为构建文本与文本之间的语义关系,采用BERT模型将文本进行编码成固定的向量,进而分析了文本与文本之间的相似关系,构建了文档-文档之间的边关系。
(2)基于假设:文本的特征表示可以依赖于相近的文档特征,利用图卷积神经网络聚合文档节点的邻居节点特征进行特征学习,增强目标文档节点的特征表示。
(3)为了解决带标签数据稀疏的问题,利用两种GCN模型分别进行节点的特征学习和节点的标签传播,其不仅可以进行促进节点的特征学习还可以进行标签信息传播,有效的解决了标记数据稀疏的问题。
具体实施方式
下面结合实施例对本发明作进一步说明,但本发明的保护范围不限于此:
实验数据集
我们对四个广泛使用的公共数据进行了实验,包括Subj、SST-2、AGnews和CR,对于所有数据集,我们也仅仅是从原始数据集中删除一些低频词,接下来我们将要详细的介绍相关数据集,相关统计信息显示在表1中。
表1 50%划分数据集统计
Subj:情感分类数据集,其任务是确定句子的情绪是否是肯定的或者否定的,它有9,000个训练样本和1,000测试样本,在本实验中,将这训练集与测试机合成,依据类别数目相同,将其划分为5,000的训练集和5,000的测试集。
AGnews:该数据集是关于互联网新闻的,它包含四个类别,娱乐,体育,世界和商业,共有12,000个训练样本和7,600个测试样本,在本实验中,只使用测试集的7,600个样本,将其划分为3,800的训练集和3,800的测试集。
SST-2:该数据集是斯坦福大学公开的情感分析的数据集,与SST-1相似,与之不同的是SST-2是一个情感二分类数据集,将情感分为积极类和消极类,真实实验中,将数据集划分为4,370个训练样本和4,370个测试集样本。
CR:该数据是关于电影评论的一个情感数据集。与SST-2相似的是,该数据集也是一个情感分析数据集,这实验中将会使用1,760个样本用于训练,1,760个样本用于测试。
基准模型
在对比试验中,将本申请提出的方法(TGLN:Time Graph Long node,简称TGLN模型)与同几个很有竞争力的基准模型进行对比,包括:CNN、LSTM、Bi-LSTM、FastText、SWEM、DR-AGG、GCN。这些模型的具体描述如下:
CNN:用于文本分类的经典模型,将n-gram集成到CNN模型中,使用不同尺寸的卷积对文本进行局部特征提取,然后使用一层最大的池化层,最后使用一层全连接层输出标签分布。
LSTM:将文本视作单词序列,并利用LSTM对文本进行建模,将其最后一步的输出作为整个文本的特征表征,此后将文本特征输入到全连接网络中得出标签分布。
Bi-LSTM:虽然LSTM模型在文本分类领域中不常使用,但是双向的LSTM模型常常应用于自然语义处理领域中,其将每一步的前向传播隐藏向量和后向传播隐藏向量进行拼接,并将每一步得出的向量进行平均,然后通过全连接神经网络进行分类。
FastText:是简单高效的文本分类模型,其将单词采用n-grams方式组合,然后直接将组合成的向量输入到全连接神经网络中进行分类。
SWEM:简单单词嵌入模型,采用简单的池化策略对词向量进行过滤,得出文本的特征表示,进而输入全连接分类网络中。
GCN:一种基于图卷积的文本分类方法,在本文实验中,主要利用了两层的图卷积神经网络进行实验。
评价指标
由于数据集中都是均衡数据,为此采用准确率作为平均模型性能的指标,采用T表示预测正确的样本数目,采用F表示预测错误的样本数目,则准确率的公式可以定义为:
实验结果分析
在本节中,我们将所提出的模型与相关的基准模型就准确率指标上进行了对比。第一点,从表2中,我们可以发现我们的模型在四个数据集上正确率性能都比其他的模型要好,同时也发现图卷积模型(GCN)也取得了比较好的实验效果,为此可能是基于图的方法在基于半监督的方法上会优于基于深度的方法,相比较深度的方法,基于图神经网络的方法比较“浅显”,故而参数量比较小,即所需要训练的数据就相比较而言较少,从而基于图的方法与深度的方法相比在带标记较少的文本分类任务上取得了比较好的实验。另一方面TGLN模型与GCN模型相比,除了利用邻居节点特征进行特征学习,还同时利用了标签信息,利用已知节点的标签信息去推断未被标记的节点。进一步的证明了特征学习加图推理的方法的可行性和潜能性。
表2实验对比模型准确率平均指标
第二点,在实验阶段我们对文本相似度勾边所设立的阈值进行了分析,对此我们分别探究了0.5、0.75、0.85、0.9这四个阈值对模型效果的影响,通过表3我们发现随着所设立的阈值越高则边数越少,即文档与文档之间的连接就越稀疏,同时从表4中,我们发现随着设立阈值的慢慢变高,模型的性能指标也会随着升高。此现象一方面表明了通过低相似度的语义所构建的关系,会对节点的原始语义特征造成一定的干扰,从而扰乱分类器的性能。而另一方面通过高相似的语义所构建的节点关系,会对节点的原始语义表征进行增强,从而提高了模型分类的性能。
表3不同阈值中各数据勾边统计
表4训练集占50%条件下不同阈值各数据集准确率统计
第三点,我们也探究了TGLN模型能否适应小数据集的训练,是否能够取得比较不错的效果,因此,如表5所示,我们分别探究了20%,30%,40%,50%的训练量在不同阈值下的各种数据集上实验,首先肯定是,随着训练集的数目增多,测试的效果越来越好。同时也发现即使训练量为20%依然能够取得比较好的实验效果,证明了TGLN模型在半监督学习下的文本分类的潜能性。
表5不同训练集所取得的准确率统计
本文中所描述的具体实施例仅仅是对本发明精神做举例说明。本发明所属技术领域的技术人员可以对所描述的具体实施例做各种各样的修改或补充或采用类似的方式替代,但并不会偏离本发明的精神或者超越所附权利要求书所定义的范围。
Claims (5)
1.一种基于半监督的图卷积神经网络的文本分类方法,其特征在于通过文本分类模型实现文本分类,所述文本分类模型的构建包括以下步骤:
S1、构建句子或者文档的特征编码:将输入的句子或者文档输入到BERT模型中,并采用谷歌开源的训练好的模型参数,对句子进行编码,抽取BERT最后一层输出序列中的第一个向量作为句子或者段落的特征编码向量;
S2、构建文档-文档的关系图:考虑文档与文档之间的关系,基于以下两条规则:
(1)图中的每一个节点表示文档;
(2)依据文档之间的相似度建议文档与文档之间的关系,即如果文档与文档之间的语义相似度超过阈值,则两文档之间建立边的联系,否则,没有边关系;
S3、文档节点的特征表示学习:将构建的句子或者段落的特征编码向量作为文档节点的特征,该特征为该节点的初始化向量,然后通过两层的图卷积操作,聚合其自身特征和邻居节点的特征,最后通过一层全连接层并经过激活函数softmax输出其标签分布;
S4、文档节点的标签类别推断:对于已知真实标签的节点采用其原始标签,对于未知标签的节点通过S3的方式对其进行计算,将通过S3预测输出的标签分布,然后采用基于图的传播的方式,根据邻居节点的标签预测未知节点的标签。
2.根据权利要求1所述的方法,其特征在于S1中给定文档DOC={w1,w2,w3…wL},其中wi代表文档DOC中第i个位置上的单词,L代表文档中单词的个数,采用预训练模型Bert将文档固定成特定维度的向量作为文档的语义特征表示,即:
X=BERT(DOC)
式中,x∈Rm表示文档DOC的特征向量,其维度为m维。
3.根据权利要求1所述的方法,其特征在于S2中采用如下公式构建文档与文档之间的关系:
Sim=consine(xi,xj)
式中,Sim表示图中节点xi和xj之间的相似度,即两文档之间的语义相似度,α是超参数;e(i,j)表示图中节点i和节点j之间的边关系。
4.根据权利要求1所述的方法,其特征在于S3中采用A表示图的连接矩阵,然后采用X(1)表示节点的特征向量,X(2)表示带标记数据的标签分布;标签分布预测模型定义为:
将BERT输出的特征向量X(0)作为文档节点的初始特征向量H(0):
H(0)=X(0)
然后,通过聚合邻居节点的特征和自身的特征,进而更新上一层的特征:
这里H(1)代表经过第一层信息转化矩阵W(1)得到的文本特征向量,H(2)代表经过第二层信息转化矩阵W(2)得到的文本特征向量,其中I表示单位矩阵且与A的维度一样,/>是矩阵/>的度,σ代表的是激活函数Relu;
最终将文档节点最后一层特征,通过全连接神经网络和激活函数softmax,得到标签分布y:
y=softmax(W(3)H(2)+b(3))
其中w(3)是全连接层的信息转化参数,而b(3)是全连接层的偏置参数,y是预测出的标签分布。
5.根据权利要求1所述的方法,其特征在于S4中推断未知标签的节点,采用A表示图的连接矩阵,其中对于已经真实标签节点的标签分布采用one-hot编码,对于未知标签分布的邻居节点,通过S3得到标签分布,采用y(0)表示未知节点的邻居节点的标签分布,并且采用y(1)表示经过第一层图卷积模型更新过后的标签分布,y(2)表示经过第二层图卷积模型更新过后的标签分布;
首先将得到未知节点的邻居节点的标签分布y(0)作为初始化特征,输入到以下模型中:
接着再经过一层的全连接层和激活函数softmax,得到未知节点的标签分布:
其中W(4),W(5),W(6)是每一层模型对应的信息转化矩阵,H(2)代表经过第二层信息转化矩阵W(2)得到的文本特征向量,而b(6)代表全连接层的偏置参数,其中I表示单位矩阵且与A的维度一样,/>是矩阵/>的度,σ代表的是激活函数Relu。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111087880.7A CN113792144B (zh) | 2021-09-16 | 2021-09-16 | 基于半监督的图卷积神经网络的文本分类方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111087880.7A CN113792144B (zh) | 2021-09-16 | 2021-09-16 | 基于半监督的图卷积神经网络的文本分类方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113792144A CN113792144A (zh) | 2021-12-14 |
CN113792144B true CN113792144B (zh) | 2024-03-12 |
Family
ID=78878717
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111087880.7A Active CN113792144B (zh) | 2021-09-16 | 2021-09-16 | 基于半监督的图卷积神经网络的文本分类方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113792144B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114817639B (zh) * | 2022-05-18 | 2024-05-10 | 山东大学 | 基于对比学习的网页图卷积文档排序方法及系统 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110717047A (zh) * | 2019-10-22 | 2020-01-21 | 湖南科技大学 | 一种基于图卷积神经网络的Web服务分类方法 |
CN110929029A (zh) * | 2019-11-04 | 2020-03-27 | 中国科学院信息工程研究所 | 一种基于图卷积神经网络的文本分类方法及系统 |
CN111274800A (zh) * | 2020-01-19 | 2020-06-12 | 浙江大学 | 基于关系图卷积网络的推理型阅读理解方法 |
CN112487143A (zh) * | 2020-11-30 | 2021-03-12 | 重庆邮电大学 | 一种基于舆情大数据分析的多标签文本分类方法 |
JP2021043849A (ja) * | 2019-09-13 | 2021-03-18 | 株式会社日立製作所 | 計算機システム及び文書の分類方法 |
CN112529071A (zh) * | 2020-12-08 | 2021-03-19 | 广州大学华软软件学院 | 一种文本分类方法、系统、计算机设备和存储介质 |
CN112612898A (zh) * | 2021-03-05 | 2021-04-06 | 蚂蚁智信(杭州)信息技术有限公司 | 文本分类的方法和装置 |
-
2021
- 2021-09-16 CN CN202111087880.7A patent/CN113792144B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021043849A (ja) * | 2019-09-13 | 2021-03-18 | 株式会社日立製作所 | 計算機システム及び文書の分類方法 |
CN110717047A (zh) * | 2019-10-22 | 2020-01-21 | 湖南科技大学 | 一种基于图卷积神经网络的Web服务分类方法 |
CN110929029A (zh) * | 2019-11-04 | 2020-03-27 | 中国科学院信息工程研究所 | 一种基于图卷积神经网络的文本分类方法及系统 |
CN111274800A (zh) * | 2020-01-19 | 2020-06-12 | 浙江大学 | 基于关系图卷积网络的推理型阅读理解方法 |
CN112487143A (zh) * | 2020-11-30 | 2021-03-12 | 重庆邮电大学 | 一种基于舆情大数据分析的多标签文本分类方法 |
CN112529071A (zh) * | 2020-12-08 | 2021-03-19 | 广州大学华软软件学院 | 一种文本分类方法、系统、计算机设备和存储介质 |
CN112612898A (zh) * | 2021-03-05 | 2021-04-06 | 蚂蚁智信(杭州)信息技术有限公司 | 文本分类的方法和装置 |
Non-Patent Citations (1)
Title |
---|
文本分类研究综述;汪岿 等;《数据通信》;第37-47页 * |
Also Published As
Publication number | Publication date |
---|---|
CN113792144A (zh) | 2021-12-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113011533B (zh) | 文本分类方法、装置、计算机设备和存储介质 | |
CN112800776B (zh) | 双向gru关系抽取数据处理方法、系统、终端、介质 | |
CN111737496A (zh) | 一种电力设备故障知识图谱构建方法 | |
Yan et al. | Named entity recognition by using XLNet-BiLSTM-CRF | |
CN117151220B (zh) | 一种基于实体链接与关系抽取的行业知识库系统及方法 | |
CN110263325B (zh) | 中文分词系统 | |
CN112818676A (zh) | 一种医学实体关系联合抽取方法 | |
CN113392209B (zh) | 一种基于人工智能的文本聚类方法、相关设备及存储介质 | |
CN114218389A (zh) | 一种基于图神经网络的化工制备领域长文本分类方法 | |
CN113515632A (zh) | 基于图路径知识萃取的文本分类方法 | |
CN115952292B (zh) | 多标签分类方法、装置及计算机可读介质 | |
CN115329088B (zh) | 图神经网络事件检测模型的鲁棒性分析方法 | |
CN113378573A (zh) | 面向内容大数据的小样本关系抽取方法和装置 | |
CN110852089A (zh) | 基于智能分词与深度学习的运维项目管理方法 | |
CN113934835B (zh) | 结合关键词和语义理解表征的检索式回复对话方法及系统 | |
CN115292490A (zh) | 一种用于政策解读语义的分析算法 | |
CN114048314B (zh) | 一种自然语言隐写分析方法 | |
CN115344668A (zh) | 一种多领域与多学科科技政策资源检索方法及装置 | |
CN118227790A (zh) | 基于多标签关联的文本分类方法、系统、设备及介质 | |
Wu et al. | A novel topic clustering algorithm based on graph neural network for question topic diversity | |
CN113792144B (zh) | 基于半监督的图卷积神经网络的文本分类方法 | |
CN114238636A (zh) | 一种基于翻译匹配的跨语言属性级情感分类方法 | |
Fu et al. | CGSPN: cascading gated self-attention and phrase-attention network for sentence modeling | |
Hua et al. | A character-level method for text classification | |
CN113051886A (zh) | 一种试题查重方法、装置、存储介质及设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |