CN113705215A - 一种基于元学习的大规模多标签文本分类方法 - Google Patents
一种基于元学习的大规模多标签文本分类方法 Download PDFInfo
- Publication number
- CN113705215A CN113705215A CN202110996966.5A CN202110996966A CN113705215A CN 113705215 A CN113705215 A CN 113705215A CN 202110996966 A CN202110996966 A CN 202110996966A CN 113705215 A CN113705215 A CN 113705215A
- Authority
- CN
- China
- Prior art keywords
- model
- label
- learning
- sampling
- meta
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 35
- 238000005070 sampling Methods 0.000 claims abstract description 55
- 238000012549 training Methods 0.000 claims abstract description 26
- 230000006870 function Effects 0.000 claims description 30
- 238000012360 testing method Methods 0.000 claims description 15
- 238000004422 calculation algorithm Methods 0.000 claims description 12
- 238000012795 verification Methods 0.000 claims description 11
- 238000011156 evaluation Methods 0.000 claims description 7
- 239000013598 vector Substances 0.000 description 4
- 238000013145 classification model Methods 0.000 description 3
- 239000013604 expression vector Substances 0.000 description 3
- 230000006872 improvement Effects 0.000 description 3
- 238000002372 labelling Methods 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000007635 classification algorithm Methods 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/243—Classification techniques relating to the number of classes
- G06F18/2431—Multiple classes
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Computation (AREA)
- Evolutionary Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Probability & Statistics with Applications (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明公开了一种基于元学习的大规模多标签文本分类方法,主要包括:使用采样策略从训练集中采样获得若干样本,形成若干子任务,基于采样获得的若干子任务让模型进行元学习,元学习后的模型在原始数据集上使用监督学习方法进行微调,使得模型的性能进一步提升。本方法将大规模多标签文本分类问题转化为一个元学习问题,通过构造大量含有少样本和零样本标签的多标签文本分类子任务并优化模型在这些任务上的泛化误差,让模型能够显式的学习如何更好的预测那些少样本和零样本标签。
Description
技术领域
本发明属于人工智能的多标签文本分类领域,涉及一种基于元学习的大规模多标签文本分类方法。
背景技术
大规模多标签文本分类(Large-scale Multi-label Text Classification)是人工智能领域中一个重要且实用的技术。它被广泛应用于多个场景,例如对于大量的文章进行归集,根据病人的医疗记录自动诊断疾病,为法案赋予相关的法律概念标签等等。在这些任务中,由于标签集合庞大且人力标注资源有限,大规模多标签文本分类任务通常面临着标签长尾分布的挑战,即许多的标签只有很少量甚至没有标注的样本。
目前主流的多标签文本分类技术方案是先通过深度神经网络将每个文本编码为一个稠密的表示向量,再为每个标签分配一个二分类器进行预测。然而,这类方法需要由大量的文本和对应相关标签组成的标注数据进行训练,并且只能在事先确定的标签体系下才能保证准确识别。在真实的多标签文本分类任务场景中,标签往往呈现严重的长尾分布,即集合中许多的标签只有非常少量(少样本)甚至没有样本(零样本),并且随着标签体系的不断演化,会有新的标签加入进来,如何更好的应对这些标签也成为一个重要的挑战。
专利CN113076426A公开了一种多标签文本分类及模型训练方法、装置、设备及存储介质,该发明在训练多标签文本分类模型的过程中,会基于该模型输出的各标签的预测特征,来训练能够捕获标签间相关性的分类器,通过同步训练该分类器和多标签文本分类模型,使得训练出的多标签文本分类模型也能够更为精准的捕获标签间的相关性。但是由于没有利用到标签的先验信息,从而不能很好地预测那些少样本和零样本的标签。
Rios A在论文中提出了一个基于文本匹配机制的多标签文本分类模型(Rios A,Kavuluru R.Few-shot and zero-shot multi-label learning for structured labelspaces.Proceedings of the Conference on Empirical Methods in Natural LanguageProcessing.2020.),使用标签的描述信息与文本进行匹配来完成预测,并在标签的层次结构图上使用了图卷积神经网络挖掘了标签之间的相关性,从而能够应对那些少样本和零样本标签。Lu J在论文中提出(Lu J,Du L,Liu M,et al.Multi-label Few/Zero-shotLearning with Knowledge Aggregated from Multiple Label Graphs.Proceedings ofthe 2020Conference on Empirical Methods inNatural Language Processing.2020.),除了使用先验的标签层次图以外,还手动构建了标签间的描述相似度图以及共现矩阵图并使用了图神经网络挖掘了多个方面的标签关联信息。上述两篇论文中均使用了文本匹配模型来解决多标签文本分类问题,并结合了标签的描述信息和标签之间的关系图,能够应对少样本和零样本的标签。但是这些方法都只使用了普通的监督学习方法进行模型的训练,导致模型更倾向于预测正确那些样本数量巨大的常见标签,从而导致模型对于少样本和零样本标签的预测准确率较低。
发明内容
发明目的:本发明所要解决的技术问题是针对现有技术中模型对于少样本和零样本标签的预测准确率较低的问题,提供一种基于元学习的大规模多标签文本分类方法。
为了解决上述技术问题,本发明公开了一种基于元学习的大规模多标签文本分类方法,包括:
步骤S1:获取数据集,并将数据集按比例划分为训练集、验证集和测试集;所述数据集为样本的集合,所述样本由一段自然语言文本及其相关的标签组成;
步骤S2:随机初始化模型参数;
步骤S3:使用采样策略从训练集中采样获得若干样本,作为子任务的样本集合;基于采样获得的若干子任务由模型进行元学习;
步骤S4:元学习后的模型在原始数据集上使用监督学习方法进行微调;
步骤S5:对测试集中的测试样本进行测试,选取模型预测概率最高的若干标签作为预测结果。
优选地,所述步骤S1中,将数据集按照15:2:2的比例划分为训练集、验证集和测试集。
进一步地,所述步骤S2中,模型的参数一般为许多不同的张量,如果全部初始化为0则模型一般不会收敛,需要使用一些特定的随机策略进行初始化,所述随机策略包括均匀初始化和正态初始化。
进一步地,所述步骤S3中,采样策略包括基于样本的采样策略和基于标签的采样策略。
进一步地,所述步骤S3中,使用基于样本的采样策略,即从样本集合中无放回的均匀采样出若干样本作为子任务的样本集合。
进一步地,所述步骤S3中,使用基于标签的采样策略,即从样本集合中均匀采样出若干标签,从标注每个标签的样本集合中均随机选取一个样本,作为子任务的样本集合。
进一步地,所述均匀采样即采集到每一样本或者标签的概率相同。
进一步地,所述步骤S3中,将使用基于样本的采样策略采样获得的样本集合以及使用基于标签的采样策略采样获得的样本集合,分别按比例划分为支撑集和查询集。
优选地,基于样本的采样策略采样获得的样本集合按2:1的比例划分为支撑集和查询集;基于标签的采样策略采样获得的样本集合按2:1的比例划分为支撑集和查询集。
进一步地,所述步骤S3中,将基于样本采样获得的若干子任务以及基于标签采样获得的若干子任务按照一定比例混合,使模型基于若干子任务进行元学习。
进一步地,模型基于若干子任务进行元学习,包括:
步骤S31:使用二元交叉熵损失函数计算模型在支撑集上的损失函数值;
步骤S32:根据步骤S31计算的损失函数值,使用梯度下降算法更新模型参数若干步;
步骤S33:使用二元交叉熵损失函数计算经步骤S32更新后的模型在查询集上的损失函数值;
步骤S34:初始的模型根据步骤S32中查询集上的损失函数值选择使用特定的优化器进行学习。
优选地,考虑时间效率,更新模型参数的步数设置为1。
进一步地,所述步骤S4包括:
步骤S41:输入训练集、验证集以及元学习后得到的模型参数;
步骤S42:利用前向算法计算训练集中的样本,即根据自然语言文本预测出每个标签为正的概率;
步骤S43:使用二元交叉熵损失函数计算预测标签概率与真实标签的损失函数值;
步骤S44:计算损失函数值对于每个模型参数的梯度,使用反向传播算法更新模型参数;
步骤S45:使用特定的评估指标计算模型在验证集上的预测性能,对模型进行评估;
步骤S46:判断模型性能是否提升,如有提升则返回步骤S42继续迭代训练,否则执行步骤S47;
步骤S47:结束训练模型。
进一步地,所述步骤S45中,采用的评估指标为召回率。
优选地,选取排名前5的标签的召回率作为评估指标。
本发明提出了一种基于元学习的大规模多标签文本分类方法,将大规模多标签文本分类问题转化为一个元学习问题,通过构造大量含有少样本和零样本的多标签文本分类子任务并优化模型在这些任务上的泛化误差,让模型能够显式的学习如何更好的预测那些少样本和零样本标签。
有益效果:相对现有技术而言,本发明所具有的优点和效果有:
从技术层面来说,(1)首次提出将大规模多标签文本分类问题转化为元学习问题;(2)提出了一种新型的适合于大规模多标签文本分类场景的元学习算法,让模型显式的学习如何预测少样本和零样本标签。
从应用层面来说,(1)对于一段文本可以自动的预测出与其相关的多个标签,而不需要人工进行分类;(2)随着标签体系的不断演化,本发明对于新的标签只需要少量标注甚至不需要标注,就能够自动的对于这些标签进行精准预测,进一步减少了标注样本所需的人工成本。
附图说明
图1为本发明元学习大规模多标签文本分类算法流程图;
图2为本发明模型元学习算法流程图;
图3为本发明模型微调算法流程图。
具体实施方式
下面结合附图和具体实施方式对本发明做更进一步的具体说明。
如图1所示,一种基于元学习的大规模多标签文本分类方法,包括:
步骤S1:获取数据集,并将数据集按比例划分为训练集、验证集和测试集;所述数据集为样本的集合,所述样本由一段自然语言文本及其相关的标签组成;
本发明采用数据集EURLEX57K进行实验,EURLEX57K数据集是法律领域的大规模多标签文本分类数据集,其包含57,000条法律文档以及4271个法律概念作为标签,平均每个文档会被标注约5个标签;其中,4271个标签被分为746个常见标签Frequent(例如“国际事务”、“税收统一”)、3362个少样本标签Few-shot(例如“移民”、“营业执照”)和163个零样本标签Zero-shot(例如,“刑事责任”、“军事研究”),这取决于它们分别被分配到50个以上、50个以下但至少有一个,或者没有文档;将数据集按15:2:2的比例划分为训练集、验证集和测试集;
对于数据集中的文本和标签需要做相应的预处理,即将文本和标签描述中所有的词语提取出来,并使用一个Embedding矩阵将所有的词语转化为一个向量;然后再分别将文档的词语向量和标签描述的词语向量输入文本Encoder模块和标签Encoder模块从而获得文本表示向量和标签表示向量,继而进行后续步骤;
步骤S2:随机初始化模型参数;模型的参数一般为许多不同的张量,如果全部初始化为0则模型一般不会收敛,需要使用一些特定的随机策略进行初始化,所述随机策略有均匀初始化和正态初始化;本发明使用了目前性能最优的AGRU-KAMG模型,该模型有约30,000,000个可训练参数;
步骤S3:如图2所示,使用采样策略从训练集中采样获得若干样本,形成若干子任务,基于采样获得的若干子任务由模型进行元学习;
所述采样策略包括基于样本的采样策略和基于标签的采样策略;其中,使用基于样本的采样策略,即从样本集合中无放回的均匀采样出若干样本作为子任务的样本集合;本发明均匀地采样出192个样本;
使用基于标签的采样策略,即从标注文本集合中均匀采样出若干标签,从标注每个标签的样本集合中均随机选取一个样本,作为子任务的样本集合;本发明均匀地采样出192个标签;
其中,均匀采样即采集到每一样本或者标签的概率相同;
将使用基于样本的采样策略采样获得的样本集合以及使用基于标签的采样策略采样获得的样本集合,均按2:1的比例划分为支撑集和查询集;
将基于样本采样获得的若干子任务以及基于标签采样获得的若干子任务按照1:1的比例混合,使模型基于若干子任务进行元学习;具体实现中采样了300个子任务进行元学习。
模型在基于采样获得的300个子任务上进行元学习,包括:
步骤S31:使用二元交叉熵损失函数计算模型在支撑集上的损失函数值;元学习收敛后模型在支持集上损失函数值大约为2.0;
步骤S32:根据步骤S31计算的损失函数值,使用梯度下降算法更新模型参数若干步;此过程中考虑时间效率,更新模型参数的步数为1;
步骤S33:使用二元交叉熵损失函数计算经步骤S32更新后的模型在查询集上的损失函数值;元学习收敛后模型在查询集上损失函数值大约为0.8;
步骤S34:初始的模型根据步骤S32中查询集上的损失函数值选择使用特定的优化器进行学习;本发明使用了Adam优化器进行元学习。
步骤S4:如图3所示,元学习后的模型在原始数据集上使用监督学习方法进行微调,包括;
步骤S41:输入训练集、验证集以及元学习后得到的模型参数;
步骤S42:利用前向算法计算训练集中的样本,即根据自然语言文本预测出每个标签为正的概率;
步骤S43:使用二元交叉熵损失函数计算预测标签概率与真实标签的损失函数值;模型收敛后在验证集上的损失函数值大约为15;
步骤S44:计算损失函数值对于每个模型参数的梯度,使用反向传播算法更新模型参数;
步骤S45:使用特定的评估指标计算模型在验证集上的预测性能,对模型进行评估;本发明采用了前5召回率对模型进行评估;其中,前5召回率表示排名前5的标签的召回率;
步骤S46:判断模型性能是否提升,如有提升则返回步骤S42继续迭代训练,否则执行步骤S47;
步骤S47:结束训练模型。
步骤S5:对测试集中的测试样本进行测试,选取模型预测概率最高的若干标签作为预测结果;文本和每个标签向量之间的相似度用来对标签进行预测,即将多标签分类任务转化为了文本匹配任务,这样可以有效的应对少样本和零样本标签。
经过实验,本发明在测试集上的实验结果如下表所示:
Overall | Frequent | Few-shot | Zero-shot | |
AGRU-KAMG | 66.0 | 72.4 | 59.1 | 54.5 |
AGRU-KAMG+ours | 67.7 | 74.2 | 64.3 | 59.0 |
其中,AGRU-KAMG+ours是指在AGRU-KAMG模型的基础上使用基于特殊采样策略的元学习方法;表格中的四列数据分别为模型在全部标签(Overall)、常见标签(Frequent)、少样本标签(Few-shot)和零样本标签(Zero-shot)上的前5召回率(%),从实验结果中可以看出,在AGRU-KAMG模型的基础上使用基于特殊采样策略的元学习方法能对AGRU-KAMG模型带来显著的性能提升,特别是在少样本(Few-shot)和零样本(Zero-shot)标签上。
本发明提供了一种基于元学习的大规模多标签文本分类方法的思路及方法,具体实现该技术方案的方法和途径很多,以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。本实施例中未明确的各组成部分均可用现有技术加以实现。
Claims (10)
1.一种基于元学习的大规模多标签文本分类方法,其特征在于,包括:
步骤S1:获取数据集,并将数据集按比例划分为训练集、验证集和测试集;所述数据集为样本的集合,所述样本由一段自然语言文本及其相关的标签组成;
步骤S2:随机初始化模型参数;
步骤S3:使用采样策略从训练集中采样获得若干样本,作为子任务的样本集合;基于采样获得的若干子任务由模型进行元学习;
步骤S4:元学习后的模型在原始数据集上使用监督学习方法进行微调;
步骤S5:对测试集中的测试样本进行测试,选取模型预测概率最高的若干标签作为预测结果。
2.根据权利要求1所述的一种基于元学习的大规模多标签文本分类方法,其特征在于,所述步骤S3中,采样策略包括基于样本的采样策略和基于标签的采样策略。
3.根据权利要求2所述的一种基于元学习的大规模多标签文本分类方法,其特征在于,所述步骤S3中,使用基于样本的采样策略,即从样本集合中无放回的均匀采样出若干样本作为子任务的样本集合。
4.根据权利要求2所述的一种基于元学习的大规模多标签文本分类方法,其特征在于,所述步骤S3中,使用基于标签的采样策略,即从样本集合中均匀采样出若干标签,从标注每个标签的样本集合中均随机选取一个样本,作为子任务的样本集合。
5.根据权利要求3和4所述的一种基于元学习的大规模多标签文本分类方法,其特征在于,所述均匀采样即采集到每一样本或者标签的概率相同。
6.根据权利要求2所述的一种基于元学习的大规模多标签文本分类方法,其特征在于,所述步骤S3中,将使用基于样本的采样策略采样获得的样本集合以及使用基于标签的采样策略采样获得的样本集合,分别按比例划分为支撑集和查询集。
7.根据权利要求2所述的一种基于元学习的大规模多标签文本分类方法,其特征在于,所述步骤S3中,将基于样本采样获得的若干子任务以及基于标签采样获得的若干子任务按照一定比例混合,使模型基于若干子任务进行元学习。
8.根据权利要求7所述的一种基于元学习的大规模多标签文本分类方法,其特征在于,模型基于若干子任务进行元学习,包括:
步骤S31:使用二元交叉熵损失函数计算模型在支撑集上的损失函数值;
步骤S32:根据步骤S31计算的损失函数值,使用梯度下降算法更新模型参数若干步;
步骤S33:使用二元交叉熵损失函数计算经步骤S32更新后的模型在查询集上的损失函数值;
步骤S34:初始的模型根据步骤S32中查询集上的损失函数值选择使用特定的优化器进行学习。
9.根据权利要求1所述的一种基于元学习的大规模多标签文本分类方法,其特征在于,所述步骤S4包括:
步骤S41:输入训练集、验证集以及元学习后得到的模型参数;
步骤S42:利用前向算法计算训练集中的样本,即根据自然语言文本预测出每个标签为正的概率;
步骤S43:使用二元交叉熵损失函数计算预测标签概率与真实标签的损失函数值;
步骤S44:计算损失函数值对于每个模型参数的梯度,使用反向传播算法更新模型参数;
步骤S45:使用特定的评估指标计算模型在验证集上的预测性能,对模型进行评估;
步骤S46:判断模型性能是否提升,如有提升则返回步骤S42继续迭代训练,否则执行步骤S47;
步骤S47:结束训练模型。
10.根据权利要求9所述的一种基于元学习的大规模多标签文本分类方法,其特征在于,所述步骤S45中,采用的评估指标为前5召回率,即选取排名前5的标签的召回率作为评估指标。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110996966.5A CN113705215A (zh) | 2021-08-27 | 2021-08-27 | 一种基于元学习的大规模多标签文本分类方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110996966.5A CN113705215A (zh) | 2021-08-27 | 2021-08-27 | 一种基于元学习的大规模多标签文本分类方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113705215A true CN113705215A (zh) | 2021-11-26 |
Family
ID=78656136
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110996966.5A Pending CN113705215A (zh) | 2021-08-27 | 2021-08-27 | 一种基于元学习的大规模多标签文本分类方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113705215A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114385805A (zh) * | 2021-12-15 | 2022-04-22 | 北京理工大学 | 一种提高深度文本匹配模型适应性的小样本学习方法 |
CN116737939A (zh) * | 2023-08-09 | 2023-09-12 | 恒生电子股份有限公司 | 元学习方法、文本分类方法、装置、电子设备及存储介质 |
CN114385805B (zh) * | 2021-12-15 | 2024-05-10 | 北京理工大学 | 一种提高深度文本匹配模型适应性的小样本学习方法 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110347839A (zh) * | 2019-07-18 | 2019-10-18 | 湖南数定智能科技有限公司 | 一种基于生成式多任务学习模型的文本分类方法 |
CN110968693A (zh) * | 2019-11-08 | 2020-04-07 | 华北电力大学 | 基于集成学习的多标签文本分类计算方法 |
CN111506732A (zh) * | 2020-04-20 | 2020-08-07 | 北京中科凡语科技有限公司 | 一种文本多层次标签分类方法 |
CN111782805A (zh) * | 2020-06-16 | 2020-10-16 | 北京邮电大学 | 一种文本标签分类方法及系统 |
CN112084974A (zh) * | 2020-09-14 | 2020-12-15 | 北京工商大学 | 一种基于元学习的多标签滚动轴承故障诊断方法 |
CN112115265A (zh) * | 2020-09-25 | 2020-12-22 | 中国科学院计算技术研究所苏州智能计算产业技术研究院 | 文本分类中的小样本学习方法 |
CN112381116A (zh) * | 2020-10-21 | 2021-02-19 | 福州大学 | 基于对比学习的自监督图像分类方法 |
CN112613556A (zh) * | 2020-09-01 | 2021-04-06 | 电子科技大学 | 基于元学习的少样本图像情感分类方法 |
-
2021
- 2021-08-27 CN CN202110996966.5A patent/CN113705215A/zh active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110347839A (zh) * | 2019-07-18 | 2019-10-18 | 湖南数定智能科技有限公司 | 一种基于生成式多任务学习模型的文本分类方法 |
CN110968693A (zh) * | 2019-11-08 | 2020-04-07 | 华北电力大学 | 基于集成学习的多标签文本分类计算方法 |
CN111506732A (zh) * | 2020-04-20 | 2020-08-07 | 北京中科凡语科技有限公司 | 一种文本多层次标签分类方法 |
CN111782805A (zh) * | 2020-06-16 | 2020-10-16 | 北京邮电大学 | 一种文本标签分类方法及系统 |
CN112613556A (zh) * | 2020-09-01 | 2021-04-06 | 电子科技大学 | 基于元学习的少样本图像情感分类方法 |
CN112084974A (zh) * | 2020-09-14 | 2020-12-15 | 北京工商大学 | 一种基于元学习的多标签滚动轴承故障诊断方法 |
CN112115265A (zh) * | 2020-09-25 | 2020-12-22 | 中国科学院计算技术研究所苏州智能计算产业技术研究院 | 文本分类中的小样本学习方法 |
CN112381116A (zh) * | 2020-10-21 | 2021-02-19 | 福州大学 | 基于对比学习的自监督图像分类方法 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114385805A (zh) * | 2021-12-15 | 2022-04-22 | 北京理工大学 | 一种提高深度文本匹配模型适应性的小样本学习方法 |
CN114385805B (zh) * | 2021-12-15 | 2024-05-10 | 北京理工大学 | 一种提高深度文本匹配模型适应性的小样本学习方法 |
CN116737939A (zh) * | 2023-08-09 | 2023-09-12 | 恒生电子股份有限公司 | 元学习方法、文本分类方法、装置、电子设备及存储介质 |
CN116737939B (zh) * | 2023-08-09 | 2023-11-03 | 恒生电子股份有限公司 | 元学习方法、文本分类方法、装置、电子设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Cai et al. | Efficient architecture search by network transformation | |
CN109766277B (zh) | 一种基于迁移学习与dnn的软件故障诊断方法 | |
CN111126386B (zh) | 场景文本识别中基于对抗学习的序列领域适应方法 | |
CN112308158A (zh) | 一种基于部分特征对齐的多源领域自适应模型及方法 | |
CN113128478B (zh) | 模型训练方法、行人分析方法、装置、设备及存储介质 | |
CN112819023A (zh) | 样本集的获取方法、装置、计算机设备和存储介质 | |
CN110347791B (zh) | 一种基于多标签分类卷积神经网络的题目推荐方法 | |
CN107679501B (zh) | 一种基于标签自提纯的深度学习方法 | |
CN109948735A (zh) | 一种多标签分类方法、系统、装置及存储介质 | |
CN113673482B (zh) | 基于动态标签分配的细胞抗核抗体荧光识别方法及系统 | |
CN111582506A (zh) | 基于全局和局部标记关系的偏多标记学习方法 | |
CN112308129A (zh) | 一种基于深度学习的植物线虫数据自动标注和分类识别方法 | |
CN112786160A (zh) | 基于图神经网络的多图片输入的多标签胃镜图片分类方法 | |
Belouadah et al. | Active class incremental learning for imbalanced datasets | |
CN109558898B (zh) | 一种基于深度神经网络的高置信度的多选择学习方法 | |
CN112668633B (zh) | 一种基于细粒度领域自适应的图迁移学习方法 | |
CN113705215A (zh) | 一种基于元学习的大规模多标签文本分类方法 | |
CN114492581A (zh) | 基于迁移学习和注意力机制元学习应用在小样本图片分类的方法 | |
CN113657473A (zh) | 一种基于迁移学习的Web服务分类方法 | |
CN110991247B (zh) | 一种基于深度学习与nca融合的电子元器件识别方法 | |
CN113704534A (zh) | 图像处理方法、装置及计算机设备 | |
CN108830302B (zh) | 一种图像分类方法、训练方法、分类预测方法及相关装置 | |
CN111191033A (zh) | 一种基于分类效用的开集分类方法 | |
CN116521863A (zh) | 一种基于半监督学习的标签抗噪文本分类方法 | |
CN116108127A (zh) | 一种基于异构图交互和掩码多头注意力机制的文档级事件抽取方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |