CN114491039A - 基于梯度改进的元学习少样本文本分类方法 - Google Patents

基于梯度改进的元学习少样本文本分类方法 Download PDF

Info

Publication number
CN114491039A
CN114491039A CN202210101017.0A CN202210101017A CN114491039A CN 114491039 A CN114491039 A CN 114491039A CN 202210101017 A CN202210101017 A CN 202210101017A CN 114491039 A CN114491039 A CN 114491039A
Authority
CN
China
Prior art keywords
meta
learning
model
gradient
layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202210101017.0A
Other languages
English (en)
Other versions
CN114491039B (zh
Inventor
彭德中
胡洪辉
吕建成
彭玺
桑永胜
胡鹏
孙亚楠
王旭
陈杰
王骞
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sichuan University
Original Assignee
Sichuan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sichuan University filed Critical Sichuan University
Priority to CN202210101017.0A priority Critical patent/CN114491039B/zh
Publication of CN114491039A publication Critical patent/CN114491039A/zh
Application granted granted Critical
Publication of CN114491039B publication Critical patent/CN114491039B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Databases & Information Systems (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明公开了一种基于梯度改进的元学习少样本文本分类方法,包括以下具体步骤:元学习训练数据划分,构建基于少样本文本框架下的元数据集,并将元数据集划分为训练任务集、验证任务集和测试任务集;构建元学习模型;训练元学习模型,通过构建训练任务集,每次将一批次的元任务送入到内层基础学习器,元任务对应的训练将外层元学习器的参数作为内层基础学习器的初始化参数,内层基础学习器在元任务的支持集上进行训练,得到在支持集上的误差和梯度,再在查询集上检验内层基础学习器训练的效果,得到查询集上的误差和梯度;将学习到的元学习模型应用于少样本文本分类。

Description

基于梯度改进的元学习少样本文本分类方法
技术领域
本发明涉及一种计算机自然语言处理方法,特别涉及一种基于梯度改进的元学习少样本文本分类方法。
背景技术
近年来随着互联网的普及和发展,大量文本数据的积累为深度学习提供了有力的训练支撑,从而促进了深度学习技术的快速发展。然而在许多少样本文本分类任务场景中,可供训练的数据样本量不足以支撑复杂的深度神经网络,更重要的是,特定任务下学习到的深度神经网络模型难以泛化到新的文本分类任务之中,即传统的深度学习网络学习新类别的能力有限。而元学习是解决这个问题的一种方法,它使网络能够学习如何学习。其关键思想是随着模型学习过任务的增多,模型能够从不同任务之间学到一些可以泛化的通用知识,从而在遇到新的分类任务时,能够利用模型的学习能力,在仅有少量样本的场景下,出色地完成模型从未见过的分类任务。元学习的训练过程涉及内部层面和外部层面;在内部层面,模型每次都会遇到新的分类任务,其类别是之前未学习过的类别,模型试图通过从前学习到的通用知识,在该新的分类任务中快速完成学习和适应,内层的学习误差将会传递给外部层面,外部层面根据误差来修改模型的通用知识,从而具备越来越完善的学习能力。尽管元学习很大程度上提升了少样本文本分类任务的表现,但它也存在着若干待解决的问题,其中一个显著的问题是网络容易在训练集上过拟合,导致模型在新任务上的泛化表现不好。
发明内容
本发明要解决的技术问题在于提供一种基于梯度改进的元学习少样本文本分类方法,该方法针对元学习内部和外部层次的梯度算法进行改进,改善了元学习存在的过拟合问题。
为了解决上述技术问题,本发明通过以下方式来实现:
基于梯度改进的元学习少样本文本分类方法,包括以下具体步骤:
1)元学习训练数据划分,构建基于少样本文本框架下的元数据集,并将元数据集划分为训练任务集、验证任务集和测试任务集;
2)构建元学习模型;
3)训练元学习模型,通过构建训练任务集,每次将一批次的元任务送入到内层基础学习器,元任务对应的训练将外层元学习器的参数作为内层基础学习器的初始化参数,内层基础学习器在元任务的支持集上进行训练,得到在支持集上的误差和梯度,再在查询集上检验内层基础学习器训练的效果,得到查询集上的误差和梯度;
4)将学习到的元学习模型应用于少样本文本分类。
进一步的,所述步骤1)中元数据集的划分过程包括:元学习根据分类任务包括元学习的外部层次和元学习的内部层次,其中元学习的外部层次划分为训练任务集、验证任务集和测试任务集,元学习的内部层次划分为支持集和查询集,并保证各个集合类别互斥;构建对应的N-way K-shot任务,从元数据集抽取N个不同类别,每类别中抽取出K+Q个样本,其中K个样本划分到支持集,Q个样本划分到查询集。
进一步的,所述步骤3)中训练元学习模型的具体步骤如下:
31)通过对元学习的内层梯度改进模块,计算出内层基础学习器传递给外层元学习器的梯度;
首先元学习模型在支持集上利用元知识学习,得到适用于解决新任务的模型参数,其公式如下:
Figure BDA0003492436030000021
式中:fθ表示外层元学习器的元模型,模型的参数为θ,
Figure BDA0003492436030000022
表示模型随机从训练任务集中抽取的任务Ti支持集上的损失,
Figure BDA0003492436030000023
代表反向传播得到的梯度,α表示内层基础学习器的学习率,θ表示经过更新后内层模型的参数;
然后在查询集上检验参数θ的效果,通过模型在查询集上的预测结果和查询集数据的真实标签,得到模型的损失和梯度,内层基础学习器将梯度传递给外层元学习器,并加上内层模型在支持集上最后一步更新的损失和反向传播梯度,外层元学习器根据此梯度来更新元知识,其公式如下:
Figure BDA0003492436030000024
式中:
Figure BDA0003492436030000025
表示内层基础学习器经过在支持集上的学习后得到的模型,
Figure BDA0003492436030000026
表示模型在支持集上最后一次更新的参数,
Figure BDA0003492436030000027
表示模型在支持集上最后一次更新时的损失,wsprt表示模型赋予损失的权重,fθ′表示内层模型经过在支持集上进行学习得到的适用于解决新任务的模型,模型的参数为θ′,
Figure BDA0003492436030000031
表示新参数在查询集上的损失的梯度,β表示外层元学习器的学习率,θ*表示经过更新后的参数;
32)外层元学习器的梯度改进模型根据各个元任务回传出的梯度特征,动态地分配不同的权重,计算出总的梯度回传给元学习器,元学习器根据此梯度和外层学习率来更新一次参数,其公式如下:
Figure BDA0003492436030000032
式中
Figure BDA0003492436030000035
表示各任务回传梯度的权重,对于每一批内层任务Ti,其权重的计算公式如下:
Figure BDA0003492436030000033
式中
Figure BDA0003492436030000036
表示元学习模型内部层次学习任务时回传的梯度,
Figure BDA0003492436030000034
表示所有内层学习任务回传梯度之和。
与现有技术相比,本发明具有的有益效果:
本发明针对元学习存在的过拟合问题,分别对元学习的内部层次和外部层次的梯度计算算法进行改进,显著地改善了元学习存在的过拟合问题;通过将预测结果和查询集文本数据的真实标签进行比对,采用交叉熵损失,反向传播得到梯度,外层根据内层传出来的梯度,对元知识进行更新完善。经过在训练任务集中的学习之后,模型能够学习到通用的元知识,能够在验证任务集和测试任务集中,仅通过少量的样本学习,就能对模型之前未见过的分类任务做出较好的预测。
附图说明
图1为本发明的基于梯度改进的元学习少样本文本分类方法的模型图。
图2为本发明中梯度计算改进算法模块的模型图。
具体实施方式
下面结合附图和具体实施例对本发明的具体实施方式作进一步详细的说明。应当理解,本文所使用的诸如“具有”、“包含”以及“包括”术语并不排除一个或多个其它网络或其组合的存在或添加。
如图1~2所示,基于梯度改进的元学习少样本文本分类方法,包括以下具体步骤:
1)元学习训练数据划分,构建基于少样本文本框架下的元数据集,并将元数据集划分为训练任务集、验证任务集和测试任务集;
2)构建元学习模型;基于MAML(Model-Agnostic Meta-Learning)框架,在元学习的内层基础学习器的构建上,选择包括但不限于基于Bert预训练模型的文本分类网络、基于词嵌入和LSTM的文本分类网络,而随机初始化外层网络的参数。
3)训练元学习模型,通过构建训练任务集,每次将一批次的元任务送入到内层基础学习器,元任务对应的训练将外层元学习器的参数作为内层基础学习器的初始化参数,内层基础学习器在元任务的支持集上进行训练,得到在支持集上的误差和梯度,再在查询集上检验内层基础学习器训练的效果,得到查询集上的误差和梯度;
4)将学习到的元学习模型应用于少样本文本分类。将元学习模型的参数初始化给解决各个未见过的文本少样本分类任务的基础学习器,基础学习器在分类任务的支持集上进行很少步骤的训练,即可在该任务上完成文本分类。
进一步的,所述步骤1)中元数据集的划分过程包括:元学习根据分类任务包括元学习的外部层次和元学习的内部层次,其中元学习的外部层次划分为训练任务集、验证任务集和测试任务集,元学习的内部层次划分为支持集和查询集,并保证各个集合类别互斥;构建对应的N-way K-shot任务,从元数据集抽取N个不同类别,每类别中抽取出K+Q个样本,其中K个样本划分到支持集,Q个样本划分到查询集。
元学习的训练和测试数据是各不相同且有一定相似度的分类任务,即元学习中的每一个训练或测试数据的形式是一个分类任务,通常称作元学习的外部层次,外部层次根据不同的分类任务,划分为训练任务集、验证任务集和测试任务集,训练任务集支撑元学习模型学习跨任务的元知识,验证任务集和测试任务集中均为模型从未见过的分类任务,供元学习模型验证学习到的元知识在未见过的分类任务上的表现效果;元学习的内层是去学习一个具体的分类任务,包含了带标签的多类训练数据支持集(support set)和测试数据查询集(query set)。
在少样本文本分类任务中,对于训练任务集的构建,从一集合中随机取样N个不同类别,每类中抽取取K个样本作为支持集(support set),Q个样本作为查询集(query set);对于测试任务集的构建,从一集合中随机取样N个不同类别,每类别取K个样本作为支持集,Q个样本作为查询集。模型利用外层已经从训练过程中学习到的元知识,在内层的N way Kshot任务的支持集中有限的N*K个样本中进行学习,并在查询集上进行一轮预测,通过将预测结果和查询集文本数据的真实标签进行比对,采用交叉熵损失,反向传播得到梯度,外层根据内层传出来的梯度,对元知识进行更新完善。经过在训练任务集中的学习之后,模型能够学习到通用的元知识,能够在验证任务集和测试任务集中,仅通过少量的样本学习,就能对模型之前未见过的分类任务做出较好的预测。
所述步骤3)中训练元学习模型的具体步骤如下:
31)通过对元学习的内层梯度改进模块,计算出内层基础学习器传递给外层元学习器的梯度;
传统的元学习模型存在着比较严重的过拟合问题,即模型在训练任务集上表现的很好,但是在测试任务集中,模型在内层利用元知识,经过在支持集上的学习,在查询集上表现得并没有达到预期效果。这是由于元模型在训练过程中,对训练任务集中有限的分类任务反复多轮地学习,得到了并不完全通用的元知识,模型很容易在训练过程中,错误地学习到具体任务的具体知识。究其原因,是因为原模型定义的损失函数或者梯度的计算算法,导致模型在有限的训练任务集中,学习到有利于这些具体任务集的针对性知识的时候,损失函数反而下降,造成模型学到的元知识不能够很好的运用到未见过的文本分类任务之中。
首先元学习模型在支持集上利用元知识学习,得到适用于解决新任务的模型参数,其公式如下:
Figure BDA0003492436030000051
式中:fθ表示外层元学习器的元模型,模型的参数为θ,
Figure BDA0003492436030000052
表示模型随机从训练任务集中抽取的任务Ti支持集上的损失,
Figure BDA0003492436030000053
代表反向传播得到的梯度,α表示内层基础学习器的学习率,θ′表示经过更新后内层模型的参数;
然后在查询集上检验参数θ′的效果,通过模型在查询集上的预测结果和查询集数据的真实标签,得到模型的损失和梯度,内层基础学习器将梯度传递给外层元学习器,并加上内层模型在支持集上最后一步更新的损失和反向传播梯度,外层元学习器根据此梯度来更新元知识,其公式如下:
Figure BDA0003492436030000054
式中:
Figure BDA0003492436030000055
表示内层基础学习器经过在支持集上的学习后得到的模型,
Figure BDA0003492436030000056
表示模型在支持集上最后一次更新的参数,
Figure BDA0003492436030000057
表示模型在支持集上最后一次更新时的损失,wsprt表示模型赋予损失的权重,fθ′表示内层模型经过在支持集上进行学习得到的适用于解决新任务的模型,模型的参数为θ′,
Figure BDA0003492436030000061
表示新参数在查询集上的损失的梯度,β表示外层元学习器的学习率,θ*表示经过更新后的参数;
其中权重在各个内层模型之间共享,wsprt的初始值设置为0,开始训练元学习器,在训练收敛后测试元学习模型在测试任务集上的平均准确率;然后将wsprt的数值增加一个步长,再次重复上一步的训练和测试,得到新的平均准确率为一次循环,经过指定次数的循环之后,准确率指标不再上升后,此时模型最终设置整个过程中平均准确率最高时对应的wsprt作为元学习内层梯度改进时的支持集梯度权重。
32)在元学习的内部层次给外部层次传递梯度时,不同的内部层次的文本分类任务难度和分布特征存在着差异,因此梯度的特征和重要程度应是不同的,而传统的元学习算法并未考虑到这一点,在训练过程中,往往个别较难或较特殊的任务偏离了其他任务,往往会使得模型错误的倾向于该个体任务。本发明对此做出了改进,在内部层次给外部层次传递梯度的时候,赋予各个内层任务回传的梯度以不同的权重
Figure BDA0003492436030000066
计算出总的梯度回传给元学习器,元学习器根据此梯度和外层学习率来更新一次参数,循环此训练步骤,直至模型收敛,其公式如下:
Figure BDA0003492436030000062
式中
Figure BDA0003492436030000067
表示各任务回传梯度的权重,对于每一批内层任务Ti,其权重的计算公式如下:
Figure BDA0003492436030000063
式中
Figure BDA0003492436030000064
表示元学习模型内部层次学习任务时回传的梯度,
Figure BDA0003492436030000065
表示所有内层学习任务回传梯度之和,利用该式那些偏离适用元知识任务的特殊任务梯度的权重将会被减小,而靠近通用元知识的任务梯度将会被放大。
以上所述仅是本发明的实施方式,再次声明,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以对本发明进行若干改进,这些改进也列入本发明权利要求的保护范围内。

Claims (3)

1.基于梯度改进的元学习少样本文本分类方法,其特征在于:包括以下具体步骤:
1)元学习训练数据划分,构建基于少样本文本框架下的元数据集,并将元数据集划分为训练任务集、验证任务集和测试任务集;
2)构建元学习模型;
3)训练元学习模型,通过构建训练任务集,每次将一批次的元任务送入到内层基础学习器,元任务对应的训练将外层元学习器的参数作为内层基础学习器的初始化参数,内层基础学习器在元任务的支持集上进行训练,得到在支持集上的误差和梯度,再在查询集上检验内层基础学习器训练的效果,得到查询集上的误差和梯度;
4)将学习到的元学习模型应用于少样本文本分类。
2.根据权利要求1所述的基于梯度改进的元学习少样本文本分类方法,其特征在于:
所述步骤1)中元数据集的划分过程包括:元学习根据分类任务包括元学习的外部层次和元学习的内部层次,其中元学习的外部层次划分为训练任务集、验证任务集和测试任务集,元学习的内部层次划分为支持集和查询集,并保证各个集合类别互斥;构建对应的N-way K-shot任务,从元数据集抽取N个不同类别,每类别中抽取出K+Q个样本,其中K个样本划分到支持集,Q个样本划分到查询集。
3.根据权利要求1所述的基于梯度改进的元学习少样本文本分类方法,其特征在于:
所述步骤3)中训练元学习模型的具体步骤如下:
31)通过对元学习的内层梯度改进模块,计算出内层基础学习器传递给外层元学习器的梯度;
首先元学习模型在支持集上利用元知识学习,得到适用于解决新任务的模型参数,其公式如下:
Figure FDA0003492436020000011
式中:fθ表示外层元学习器的元模型,模型的参数为θ,
Figure FDA0003492436020000014
表示模型随机从训练任务集中抽取的任务Ti支持集上的损失,
Figure FDA0003492436020000015
代表反向传播得到的梯度,α表示内层基础学习器的学习率,θ′表示经过更新后内层模型的参数;
然后在查询集上检验参数θ′的效果,通过模型在查询集上的预测结果和查询集数据的真实标签,得到模型的损失和梯度,内层基础学习器将梯度传递给外层元学习器,并加上内层模型在支持集上最后一步更新的损失和反向传播梯度,外层元学习器根据此梯度来更新元知识,其公式如下:
Figure FDA0003492436020000021
式中:
Figure FDA0003492436020000022
表示内层基础学习器经过在支持集上的学习后得到的模型,
Figure FDA0003492436020000023
表示模型在支持集上最后一次更新的参数,
Figure FDA0003492436020000024
表示模型在支持集上最后一次更新时的损失,wsprt表示模型赋予损失的权重,fθ′表示内层模型经过在支持集上进行学习得到的适用于解决新任务的模型,模型的参数为θ′,
Figure FDA0003492436020000025
表示新参数在查询集上的损失的梯度,β表示外层元学习器的学习率,θ*表示经过更新后的参数;
32)外层元学习器的梯度改进模型根据各个元任务回传出的梯度特征,动态地分配不同的权重,计算出总的梯度回传给元学习器,元学习器根据此梯度和外层学习率来更新一次参数,其公式如下:
Figure FDA0003492436020000026
式中
Figure FDA0003492436020000027
表示各任务回传梯度的权重,对于每一批内层任务Ti,其权重的计算公式如下:
Figure FDA0003492436020000028
式中
Figure FDA0003492436020000029
表示元学习模型内部层次学习任务时回传的梯度,
Figure FDA00034924360200000210
表示所有内层学习任务回传梯度之和。
CN202210101017.0A 2022-01-27 2022-01-27 基于梯度改进的元学习少样本文本分类方法 Active CN114491039B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210101017.0A CN114491039B (zh) 2022-01-27 2022-01-27 基于梯度改进的元学习少样本文本分类方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210101017.0A CN114491039B (zh) 2022-01-27 2022-01-27 基于梯度改进的元学习少样本文本分类方法

Publications (2)

Publication Number Publication Date
CN114491039A true CN114491039A (zh) 2022-05-13
CN114491039B CN114491039B (zh) 2023-10-03

Family

ID=81476423

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210101017.0A Active CN114491039B (zh) 2022-01-27 2022-01-27 基于梯度改进的元学习少样本文本分类方法

Country Status (1)

Country Link
CN (1) CN114491039B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115146843A (zh) * 2022-06-27 2022-10-04 北京交通大学 一种基于元学习的地铁新开车站短期客流预测方法
CN116737939A (zh) * 2023-08-09 2023-09-12 恒生电子股份有限公司 元学习方法、文本分类方法、装置、电子设备及存储介质
CN117095187A (zh) * 2023-10-16 2023-11-21 四川大学 元学习视觉语言理解与定位方法

Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109032591A (zh) * 2018-06-21 2018-12-18 北京航空航天大学 一种基于神经网络的众包软件开发者推荐方法
CN110852447A (zh) * 2019-11-15 2020-02-28 腾讯云计算(北京)有限责任公司 元学习方法和装置、初始化方法、计算设备和存储介质
CN111191791A (zh) * 2019-12-02 2020-05-22 腾讯云计算(北京)有限责任公司 机器学习模型的应用方法、训练方法、装置、设备及介质
CN111476292A (zh) * 2020-04-03 2020-07-31 北京全景德康医学影像诊断中心有限公司 医学图像分类处理人工智能的小样本元学习训练方法
CN112001171A (zh) * 2020-08-17 2020-11-27 四川大学 一种基于集成学习的涉案财物知识库实体识别方法
CN112115265A (zh) * 2020-09-25 2020-12-22 中国科学院计算技术研究所苏州智能计算产业技术研究院 文本分类中的小样本学习方法
CN112270367A (zh) * 2020-11-05 2021-01-26 四川大学 一种基于语义信息的深度学习模型对抗鲁棒性增强方法
CN112509392A (zh) * 2020-12-16 2021-03-16 复旦大学 一种基于元学习的机器人行为示教方法
WO2021068180A1 (en) * 2019-10-11 2021-04-15 Beijing Didi Infinity Technology And Development Co., Ltd. Method and system for continual meta-learning
CN113408606A (zh) * 2021-06-16 2021-09-17 中国石油大学(华东) 基于图协同训练的半监督小样本图像分类方法
US20210365788A1 (en) * 2020-05-19 2021-11-25 Samsung Sds Co., Ltd. Method for few-shot learning and apparatus for executing the method
US20210398004A1 (en) * 2020-06-19 2021-12-23 Electronics And Telecommunications Research Institute Method and apparatus for online bayesian few-shot learning
WO2021253226A1 (en) * 2020-06-16 2021-12-23 Huawei Technologies Co., Ltd. Learning proxy mixtures for few-shot classification
CN113837000A (zh) * 2021-08-16 2021-12-24 天津大学 一种基于任务排序元学习的小样本故障诊断方法
CN113947133A (zh) * 2021-09-17 2022-01-18 哈尔滨工业大学 小样本图像识别的任务重要性感知元学习方法

Patent Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109032591A (zh) * 2018-06-21 2018-12-18 北京航空航天大学 一种基于神经网络的众包软件开发者推荐方法
WO2021068180A1 (en) * 2019-10-11 2021-04-15 Beijing Didi Infinity Technology And Development Co., Ltd. Method and system for continual meta-learning
CN110852447A (zh) * 2019-11-15 2020-02-28 腾讯云计算(北京)有限责任公司 元学习方法和装置、初始化方法、计算设备和存储介质
CN111191791A (zh) * 2019-12-02 2020-05-22 腾讯云计算(北京)有限责任公司 机器学习模型的应用方法、训练方法、装置、设备及介质
CN111476292A (zh) * 2020-04-03 2020-07-31 北京全景德康医学影像诊断中心有限公司 医学图像分类处理人工智能的小样本元学习训练方法
US20210365788A1 (en) * 2020-05-19 2021-11-25 Samsung Sds Co., Ltd. Method for few-shot learning and apparatus for executing the method
WO2021253226A1 (en) * 2020-06-16 2021-12-23 Huawei Technologies Co., Ltd. Learning proxy mixtures for few-shot classification
US20210398004A1 (en) * 2020-06-19 2021-12-23 Electronics And Telecommunications Research Institute Method and apparatus for online bayesian few-shot learning
CN112001171A (zh) * 2020-08-17 2020-11-27 四川大学 一种基于集成学习的涉案财物知识库实体识别方法
CN112115265A (zh) * 2020-09-25 2020-12-22 中国科学院计算技术研究所苏州智能计算产业技术研究院 文本分类中的小样本学习方法
CN112270367A (zh) * 2020-11-05 2021-01-26 四川大学 一种基于语义信息的深度学习模型对抗鲁棒性增强方法
CN112509392A (zh) * 2020-12-16 2021-03-16 复旦大学 一种基于元学习的机器人行为示教方法
CN113408606A (zh) * 2021-06-16 2021-09-17 中国石油大学(华东) 基于图协同训练的半监督小样本图像分类方法
CN113837000A (zh) * 2021-08-16 2021-12-24 天津大学 一种基于任务排序元学习的小样本故障诊断方法
CN113947133A (zh) * 2021-09-17 2022-01-18 哈尔滨工业大学 小样本图像识别的任务重要性感知元学习方法

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
A RAJESWARAN 等: "Meta-learning with implicit gradients", 《ADVANCES IN NEURAL INFORMATION PROCESSING SYSTEMS 32 (NEURIPS 2019)》, pages 1 - 12 *
ALEX NICHOL 等: "On first-order meta-learning algorithms", 《HTTPS://ARXIV.ORG/PDF/1803.0 2999.PDF》, pages 1 - 15 *
刘兵 等: "结合记忆与迁移学习的小样本学习", pages 0 *
张婧;袁细国;: "基于小样本学习的高光谱遥感图像分类算法", no. 06, pages 4 - 14 *
陈晨;王亚立;乔宇;: "任务相关的图像小样本深度学习分类方法研究", no. 03, pages 17 - 27 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115146843A (zh) * 2022-06-27 2022-10-04 北京交通大学 一种基于元学习的地铁新开车站短期客流预测方法
CN115146843B (zh) * 2022-06-27 2023-08-15 北京交通大学 一种基于元学习的地铁新开车站短期客流预测方法
CN116737939A (zh) * 2023-08-09 2023-09-12 恒生电子股份有限公司 元学习方法、文本分类方法、装置、电子设备及存储介质
CN116737939B (zh) * 2023-08-09 2023-11-03 恒生电子股份有限公司 元学习方法、文本分类方法、装置、电子设备及存储介质
CN117095187A (zh) * 2023-10-16 2023-11-21 四川大学 元学习视觉语言理解与定位方法
CN117095187B (zh) * 2023-10-16 2023-12-19 四川大学 元学习视觉语言理解与定位方法

Also Published As

Publication number Publication date
CN114491039B (zh) 2023-10-03

Similar Documents

Publication Publication Date Title
US11030523B2 (en) Neural architecture search
CN111967266B (zh) 中文命名实体识别系统、模型构建方法和应用及相关设备
US11669744B2 (en) Regularized neural network architecture search
CN114491039B (zh) 基于梯度改进的元学习少样本文本分类方法
CN112487807B (zh) 一种基于膨胀门卷积神经网络的文本关系抽取方法
CN111353545B (zh) 一种基于稀疏网络迁移的植株病虫害识别方法
CN112115267A (zh) 文本分类模型的训练方法、装置、设备及存储介质
CN106997474A (zh) 一种基于深度学习的图节点多标签分类方法
CN113628059B (zh) 一种基于多层图注意力网络的关联用户识别方法及装置
CN110598869B (zh) 基于序列模型的分类方法、装置、电子设备
CN113128622B (zh) 基于语义-标签多粒度注意力的多标签分类方法及系统
Gong et al. Continual pre-training of language models for math problem understanding with syntax-aware memory network
CN113987236B (zh) 基于图卷积网络的视觉检索模型的无监督训练方法和装置
CN115269861A (zh) 基于生成式对抗模仿学习的强化学习知识图谱推理方法
CN111145914A (zh) 一种确定肺癌临床病种库文本实体的方法及装置
KR20210064817A (ko) 상이한 딥러닝 모델 간의 전이 학습방법
CN113919508A (zh) 一种基于移动式服务器的联邦学习系统及方法
JPH0934863A (ja) ニューラルネットワークによる情報統合処理方法
CN116561314B (zh) 基于自适应阈值选择自注意力的文本分类方法
CN117009539A (zh) 知识图谱的实体对齐方法、装置、设备及存储介质
KR20240034804A (ko) 자동 회귀 언어 모델 신경망을 사용하여 출력 시퀀스 평가
US20230168989A1 (en) BUSINESS LANGUAGE PROCESSING USING LoQoS AND rb-LSTM
CN115131600A (zh) 检测模型训练方法、检测方法、装置、设备及存储介质
CN116090538A (zh) 一种模型权重获取方法以及相关系统
CN114582518A (zh) 医疗数据集优化方法及设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant