CN114882337A - 一种基于校正新旧任务类别混淆的类增量学习方法 - Google Patents

一种基于校正新旧任务类别混淆的类增量学习方法 Download PDF

Info

Publication number
CN114882337A
CN114882337A CN202210560371.XA CN202210560371A CN114882337A CN 114882337 A CN114882337 A CN 114882337A CN 202210560371 A CN202210560371 A CN 202210560371A CN 114882337 A CN114882337 A CN 114882337A
Authority
CN
China
Prior art keywords
task
old
new
model
knowledge
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210560371.XA
Other languages
English (en)
Inventor
李焜炽
万军
陈阳
余山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Institute of Automation of Chinese Academy of Science
Zhejiang Lab
Original Assignee
Institute of Automation of Chinese Academy of Science
Zhejiang Lab
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Institute of Automation of Chinese Academy of Science, Zhejiang Lab filed Critical Institute of Automation of Chinese Academy of Science
Priority to CN202210560371.XA priority Critical patent/CN114882337A/zh
Publication of CN114882337A publication Critical patent/CN114882337A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects

Abstract

本发明属于图像识别的动态类增量学习领域,公开了一种基于校正新旧任务类别混淆的类增量学习方法,包括了一个级联的知识蒸馏框架和一种特征回放的方法。级联的知识蒸馏框架首先校正旧模型的特征表示,生成一个校正后的教师网络,然后在学习新任务的同时将旧任务的知识从校正后的教师网络迁移到新模型。特征回放的方法主要是为缓解新旧任务类别数据的不平衡问题,通过保存旧任务类别更多的特征向量用于训练特征校正网络。本发明旨在校正新旧任务类别之间的混淆,缓解旧模型所代表的知识与新任务知识之间的冲突,以便在学习新任务的同时提升知识迁移的效率。

Description

一种基于校正新旧任务类别混淆的类增量学习方法
技术领域
本发明属于图像识别的动态类增量学习领域,尤其涉及一种基于校正新旧任务类别混淆的类增量学习方法。
背景技术
当前,基于人工神经网络的图像识别技术已经取得了巨大的成功,并在很多现实场景得到了应用,比如人脸识别,牌号识别、无人驾驶、交通标志识别,医学图像分析诊断、病例图像分析等等。但是目前的图像识别模型普遍存在“灾难性遗忘”问题,即在学习新任务的同时必须将已学习过的旧任务的数据和新任务的数据联合起来一起训练,否则会忘掉旧任务知识。所以,目前的图像识别模型只适用于封闭静态的应用场景,不能像人脑一样能够动态的学习新的类别。对开放的动态环境的低泛化性和低鲁棒性已经成为基于人工神经网络的图像识别技术进一步发展和应用的阻碍。因此,研究克服人工神经网络普遍存在的“灾难性遗忘”问题,以便使得图像识别模型能够动态地学习新知识,这不仅能够大大节省训练时间也能够成倍地节约能源,而且在某些涉及到数据隐私的场景,也必须运用连续学习或类增量学习的方法来训练图像识别模型。
目前,基于经验回放与知识蒸馏的类增量学习算法已经取得了一些重要进展,但是这些算法大多忽视了旧模型对于新旧任务类别的混淆问题,在学习新任务的同时,直接将旧任务的知识通过知识蒸馏的方法迁移到新模型中,而旧模型对于新旧任务类别的混淆问题会影响旧任务知识的迁移效果。
发明内容
本发明目的在于提供一种基于校正新旧任务类别混淆的类增量学习方法,以解决上述的技术问题。
为解决上述技术问题,本发明的一种基于校正新旧任务类别混淆的类增量学习方法的具体技术方案如下:
一种基于校正新旧任务类别混淆的类增量学习方法,包括如下步骤:
步骤1:训练特征校正网络FCN:使用新任务的图片和保存的旧任务图片通过旧模型提取特征向量;然后将提取的特征向量输入FCN通过特征校正损失函数和知识蒸馏损失函数进行训练;
步骤2:训练好FCN后,将旧模型的特征提取网络与FCN组合成一个新模型称为特征校正后的教师网络FCTM;在训练新模型时候采用不同的基于知识蒸馏的类增量学习方法在学习新任务同时将旧任务的知识从FCTM迁移到新模型;
步骤3:在训练好新模型后,需根据基于知识蒸馏的类增量学习方法中原有的样本选取方法去掉超出存储限制的旧任务图片样本和选取当前任务需要保存的图片样本进行保存。
进一步地,所述步骤1使用特征校正损失函数LFC校正旧模型的知识,LFC表示为
Figure BDA0003656350060000021
上式是使用图片数据计算的损失,
Figure BDA0003656350060000022
表示在第t个任务,所有的图片数据及其标签;包括存储的旧任务的图片数据以及新任务的图片数据,δ为示性函数,σ为softmax函数,m和n分别表示已学过的类别总数和新任务的类别数,
Figure BDA0003656350060000023
表示第t个任务要训练的FCN,
Figure BDA0003656350060000024
表示第t-1个任务训练好的旧模型的特征提取网络,其中θ表示其网络参数;通过将旧模型的输出作为锚点,利用知识蒸馏损失LAD作为校正的约束,LAD表示为
Figure BDA0003656350060000031
其中,
Figure BDA0003656350060000032
qi(x)分别计算如下:
Figure BDA0003656350060000033
Figure BDA0003656350060000034
T1、T2是知识蒸馏的温度参数,
Figure BDA0003656350060000035
表示第t-1个任务训练好的旧模型的线性分类层,w表示其参数,训练FCN的整体损失函数表示为:
L=LFC+LAD。 (3)
进一步地,所述步骤2包括传统的基于知识蒸馏的类增量学习方法使用两个损失函数分别为分类交叉熵LCE和知识蒸馏损失LKD,iCaRL方法使用二分类交叉熵方法计算这两个损失函数,计算如下:
Figure BDA0003656350060000036
Figure BDA0003656350060000037
其中,π表示sigmoid函数,
Figure BDA0003656350060000038
表示在第t任务时已训练好的FCTM,iCaRL方法训练新模型的过程表示为:
Loverall=LCE+LKD。 (6)
进一步地,所述步骤2包括按照基于知识蒸馏的类增量学习方法原有训练步骤训练。
进一步地,所述步骤1包括特征回放方法,具体包括如下步骤:
使用特征校正损失函数LFC校正旧模型的知识,LFC表示为
Figure BDA0003656350060000041
第一项是使用图片数据计算的损失,
Figure BDA0003656350060000042
表示在第t个任务,所有的图片数据及其标签,包括存储的旧任务的图片数据以及新任务的图片数据;第二项是使用旧任务类别的特征向量计算的损失,
Figure BDA0003656350060000043
表示在第t个任务,保存的所有旧任务类别的特征向量数据及其标签,δ为示性函数,σ为softmax函数,m和n分别表示已学过的类别总数和新任务的类别数,
Figure BDA0003656350060000044
表示第t个任务要训练的FCN,
Figure BDA0003656350060000045
表示第t-1个任务训练好的旧模型的特征提取网络,其中θ表示其网络参数,通过将旧模型的输出作为锚点,利用知识蒸馏损失LAD作为校正的约束,LAD表示为
Figure BDA0003656350060000046
同样,第一项是使用图片数据计算的损失,第二项是使用旧任务类别的特征向量计算的损失,其中,
Figure BDA0003656350060000047
qi(x),
Figure BDA0003656350060000048
pj(v)分别计算如下
Figure BDA0003656350060000049
Figure BDA00036563500600000410
Figure BDA00036563500600000411
Figure BDA00036563500600000412
T1、T2是知识蒸馏的温度参数,
Figure BDA00036563500600000413
表示第t-1个任务训练好的旧模型的线性分类层,w表示其参数,训练FCN的整体损失函数表示为:
L=LFC+LAD。 (3)
进一步地,所述步骤3根据基于知识蒸馏的类增量学习方法中原有的样本选取方法去掉超出存储限制的旧任务的特征向量数据和选取当前任务需要保存的特征向量数据进行保存,并且在每一次学习完新任务后,把保存的旧任务类别的特征向量通过FeatureAdaptation方法映射到新模型所对应的特征空间。
本发明的一种基于校正新旧任务类别混淆的类增量学习方法具有以下优点:本发明通过级联的知识蒸馏框架首先校正旧模型的特征表示,生成一个校正后的教师网络,然后在学习新任务的同时将旧任务的知识从校正后的教师网络迁移到新模型,利用特征回放的方法缓解了新旧任务类别数据的不平衡问题,通过保存旧任务类别更多的特征向量用于训练特征校正网络。本发明能够校正新旧任务类别之间的混淆,缓解旧模型所代表的知识与新任务知识之间的冲突,在学习新任务的同时提升了知识迁移的效率。
附图说明
图1为本发明的级联的知识蒸馏框架与特征回放方法示意图。
具体实施方式
为了更好地了解本发明的目的、结构及功能,下面结合附图,对本发明一种基于校正新旧任务类别混淆的类增量学习方法做进一步详细的描述。
我们发现只学习旧任务的模型会混淆新旧任务类别,所以,传统的基于知识蒸馏的类增量学习方法所使用的知识蒸馏损失和分类交叉熵损失是异构的,这会影响知识迁移的效果。我们通过把联合训练的模型作为基于知识蒸馏的类增量学习方法的教师模型进行实验,验证了使用不会混淆新旧任务类别的教师模型能够有效提高知识迁移的效果。因此,我们提出了特征校正网络和级联的知识蒸馏框架。该框架是一个适用于基于知识蒸馏的类增量学习方法的通用框架。该框架采用经验回放和知识蒸馏的方法校正旧模型的特征表示,生成一个校正后的教师网络,缓解旧模型知识对已学过的类别和新任务的类别之间的混淆,然后使用不同的基于知识蒸馏的类增量学习方法在学习新任务的同时将校正后的旧任务知识迁移到新模型。
级联的知识蒸馏框架,这是一个适用于基于知识蒸馏的类增量学习的通用框架。首先使用新任务的数据以及保存的少量旧任务数据来通过经验回放和知识蒸馏方法训练一个特征校正网络(Feature Calibration Network,FCN),以生成一个校正后的教师网络(Feature Calibrated Teacher Model,FCTM)。在该框架运用到一般的基于知识蒸馏的类增量学习方法时,只需要在训练新模型时将原用于进行知识迁移的旧模型换成FCTM即可,其他训练步骤、图片或特征向量的样本选取和保存方法以及测试推断阶段的步骤则完全不变。
特征回放的方法。该方法主要是用在级联的知识蒸馏框架中,出于缓解新旧任务数据的不平衡的目的,通过保存旧任务类别的特征向量用于训练特征校正网络。并且在训练好新模型后,通过Feature Adaptation方法将旧任务类别的特征向量映射到新模型所对应的特征空间。
实施例1:
本发明的一种基于校正新旧任务类别混淆的类增量学习方法,包括如下步骤:
步骤(1):训练特征校正网络(FCN):使用新任务的图片和保存的旧任务图片通过旧模型提取特征向量。然后将提取的特征向量输入FCN通过特征校正损失函数和知识蒸馏损失函数进行训练。
使用特征校正损失函数LFC校正旧模型的知识,LFC表示为
Figure BDA0003656350060000061
上式是使用图片数据计算的损失,
Figure BDA0003656350060000079
表示在第t个任务,所有的图片数据(包括存储的旧任务的图片数据以及新任务的图片数据)及其标签;δ为示性函数,σ为softmax函数,m和n分别表示已学过的类别总数和新任务的类别数,
Figure BDA0003656350060000071
表示第t个任务要训练的FCN,
Figure BDA0003656350060000072
表示第t-1个任务训练好的旧模型的特征提取网络,其中θ表示其网络参数。通过将旧模型的输出作为锚点,利用知识蒸馏损失LAD作为校正的约束,LAD表示为
Figure BDA0003656350060000073
其中,
Figure BDA0003656350060000074
qi(x)分别计算如下
Figure BDA0003656350060000075
Figure BDA0003656350060000076
T1、T2是知识蒸馏的温度参数,
Figure BDA0003656350060000077
表示第t-1个任务训练好的旧模型的线性分类层,w表示其参数,训练FCN的整体损失函数表示为:
L=LFC+LAD (3)
步骤(2):训练好FCN后,将旧模型的特征提取网络与FCN组合成一个新模型称为特征校正后的教师网络(FCTM)。相比于旧模型,FCTM对于新旧任务类别的混淆已经得到有效改善。在训练新模型时候采用不同的基于知识蒸馏的类增量学习方法在学习新任务同时将旧任务的知识从FCTM迁移到新模型。传统的基于知识蒸馏的类增量学习方法使用两个损失函数分别为分类交叉熵LCE和知识蒸馏损失LKD,比如iCaRL方法使用二分类交叉熵方法计算这两个损失函数,计算如下:
Figure BDA0003656350060000078
Figure BDA0003656350060000081
其中,π表示sigmoid函数,
Figure BDA0003656350060000082
表示在第t任务时已训练好的FCTM。iCaRL方法训练新模型的过程可以表示为:
Loverall=LCE+LKD (6)
对于其他基于知识蒸馏的类增量学习方法如果还有其他的训练步骤,则按照其原有训练步骤训练。比如BiC在训练好新模型后,又训练了一个偏差校正网络,则我们在步骤(2)中按照BiC的训练流程进行训练。
步骤(3):在训练好新模型后,需根据基于知识蒸馏的类增量学习方法中原有的样本选取方法去掉超出存储限制的旧任务图片样本和选取当前任务需要保存的图片样本进行保存。
实施例2:
实施例2是在实施例1的基础上加入了特征回放方法。具体包括如下步骤:
步骤(1):使用新任务的数据以及保存的少量旧任务数据来训练一个特征校正网络(Feature Calibration Network,FCN),以生成一个校正后的教师网络(FeatureCalibrated Teacher Model,FCTM)。如图1所示,使用特征校正损失函数LFC校正旧模型的知识,LFC表示为
Figure BDA0003656350060000083
第一项是使用图片数据计算的损失,
Figure BDA0003656350060000084
表示在第t个任务,所有的图片数据(包括存储的旧任务的图片数据以及新任务的图片数据)及其标签;第二项是使用旧任务类别的特征向量计算的损失,
Figure BDA0003656350060000085
表示在第t个任务,保存的所有旧任务类别的特征向量数据及其标签,δ为示性函数,σ为sofftmax函数,m和n分别表示已学过的类别总数和新任务的类别数,
Figure BDA0003656350060000091
表示第t个任务要训练的FCN,
Figure BDA0003656350060000092
表示第t-1个任务训练好的旧模型的特征提取网络,其中θ表示其网络参数。通过将旧模型的输出作为锚点,利用知识蒸馏损失LAD作为校正的约束,LAD表示为
Figure BDA0003656350060000093
同样,第一项是使用图片数据计算的损失,第二项是使用旧任务类别的特征向量计算的损失,其中,
Figure BDA0003656350060000094
qi(x),
Figure BDA0003656350060000095
pj(v)分别计算如下
Figure BDA0003656350060000096
Figure BDA0003656350060000097
Figure BDA0003656350060000098
Figure BDA0003656350060000099
T1、T2是知识蒸馏的温度参数,
Figure BDA00036563500600000910
表示第t-1个任务训练好的旧模型的线性分类层,w表示其参数,训练FCN的整体损失函数表示为:
L=LFC+LAD (3)
步骤(2):训练好FCN后,将旧模型的特征提取网络与FCN组合成一个新模型称为特征校正后的教师网络(FCTM)。相比于旧模型,FCTM对于新旧任务类别的混淆已经得到有效改善。在训练新模型时候采用不同的基于知识蒸馏的类增量学习方法在学习新任务同时将旧任务的知识从FCTM迁移到新模型。传统的基于知识蒸馏的类增量学习方法使用两个损失函数分别为分类交叉熵LCE和知识蒸馏损失LKD,比如iCaRL方法使用二分类交叉熵方法计算这两个损失函数,计算如下:
Figure BDA0003656350060000101
Figure BDA0003656350060000102
其中,π表示sigmoid函数,
Figure BDA0003656350060000103
表示在第t任务时已训练好的FCTM。iCaRL方法训练新模型的过程可以表示为:
Loverall=LCE+LKD (6)
对于其他基于知识蒸馏的类增量学习方法如果还有其他的训练步骤,则按照其原有训练步骤训练。比如BiC在训练好新模型后,又训练了一个偏差校正网络,则我们在步骤(2)中按照BiC的训练流程进行训练。
步骤(3):根据基于知识蒸馏的类增量学习方法中原有的样本选取方法去掉超出存储限制的旧任务的特征向量数据和选取当前任务需要保存的特征向量数据进行保存,并且在每一次学习完新任务后,把保存的旧任务类别的特征向量通过Feature Adaptation方法映射到新模型所对应的特征空间。
综上,相比于一般的基于知识蒸馏的类增量学习方法,级联的知识蒸馏框架多了步骤(1)训练特征校正网络与步骤(3)选取类别特征向量以及特征映射过程。在该框架运用到一般的基于知识蒸馏的类增量学习方法时,只需要在步骤(2)中将原用于进行知识迁移的旧模型换成FCTM即可。其他训练步骤、图片或特征向量的样本选取和保存方法以及测试推断阶段的步骤则完全不变。
可以理解,本发明是通过一些实施例进行描述的,本领域技术人员知悉的,在不脱离本发明的精神和范围的情况下,可以对这些特征和实施例进行各种改变或等效替换。另外,在本发明的教导下,可以对这些特征和实施例进行修改以适应具体的情况及材料而不会脱离本发明的精神和范围。因此,本发明不受此处所公开的具体实施例的限制,所有落入本申请的权利要求范围内的实施例都属于本发明所保护的范围内。

Claims (6)

1.一种基于校正新旧任务类别混淆的类增量学习方法,其特征在于,包括如下步骤:
步骤1:训练特征校正网络FCN:使用新任务的图片和保存的旧任务图片通过旧模型提取特征向量;然后将提取的特征向量输入FCN通过特征校正损失函数和知识蒸馏损失函数进行训练;
步骤2:训练好FCN后,将旧模型的特征提取网络与FCN组合成一个新模型称为特征校正后的教师网络FCTM;在训练新模型时候采用不同的基于知识蒸馏的类增量学习方法在学习新任务同时将旧任务的知识从FCTM迁移到新模型;
步骤3:在训练好新模型后,需根据基于知识蒸馏的类增量学习方法中原有的样本选取方法去掉超出存储限制的旧任务图片样本和选取当前任务需要保存的图片样本进行保存。
2.根据权利要求1所述的基于校正新旧任务类别混淆的类增量学习方法,其特征在于,所述步骤1使用特征校正损失函数LFC校正旧模型的知识,LFC表示为
Figure FDA0003656350050000011
上式是使用图片数据计算的损失,
Figure FDA0003656350050000012
表示在第t个任务,所有的图片数据及其标签;包括存储的旧任务的图片数据以及新任务的图片数据,δ为示性函数,σ为softmax函数,m和n分别表示已学过的类别总数和新任务的类别数,
Figure FDA0003656350050000013
表示第t个任务要训练的FCN,
Figure FDA0003656350050000014
表示第t-1个任务训练好的旧模型的特征提取网络,其中θ表示其网络参数;通过将旧模型的输出作为锚点,利用知识蒸馏损失LAD作为校正的约束,LAD表示为
Figure FDA0003656350050000015
其中,
Figure FDA0003656350050000021
qi(x)分别计算如下:
Figure FDA0003656350050000022
Figure FDA0003656350050000023
T1、T2是知识蒸馏的温度参数,
Figure FDA0003656350050000024
表示第t-1个任务训练好的旧模型的线性分类层,w表示其参数,训练FCN的整体损失函数表示为:
L=LFC+LAD。 (3)
3.根据权利要求1所述的基于校正新旧任务类别混淆的类增量学习方法,其特征在于,所述步骤2包括传统的基于知识蒸馏的类增量学习方法使用两个损失函数分别为分类交叉熵LCE和知识蒸馏损失LKD,iCaRL方法使用二分类交叉熵方法计算这两个损失函数,计算如下:
Figure FDA0003656350050000025
Figure FDA0003656350050000026
其中,π表示sigmoid函数,
Figure FDA0003656350050000027
表示在第t任务时已训练好的FCTM,iCaRL方法训练新模型的过程表示为:
Loverall=LCE+LKD。 (6)
4.根据权利要求1所述的基于校正新旧任务类别混淆的类增量学习方法,其特征在于,所述步骤2包括按照基于知识蒸馏的类增量学习方法原有训练步骤训练。
5.根据权利要求1所述的基于校正新旧任务类别混淆的类增量学习方法,其特征在于,所述步骤1包括特征回放方法,具体包括如下步骤:
使用特征校正损失函数LFC校正旧模型的知识,LFC表示为
Figure FDA0003656350050000031
第一项是使用图片数据计算的损失,
Figure FDA0003656350050000032
表示在第t个任务,所有的图片数据及其标签,包括存储的旧任务的图片数据以及新任务的图片数据;第二项是使用旧任务类别的特征向量计算的损失,
Figure FDA0003656350050000033
表示在第t个任务,保存的所有旧任务类别的特征向量数据及其标签,δ为示性函数,σ为softmax函数,m和n分别表示已学过的类别总数和新任务的类别数,
Figure FDA0003656350050000034
表示第t个任务要训练的FCN,
Figure FDA0003656350050000035
表示第t-1个任务训练好的旧模型的特征提取网络,其中θ表示其网络参数,通过将旧模型的输出作为锚点,利用知识蒸馏损失LAD作为校正的约束,LAD表示为
Figure FDA0003656350050000036
同样,第一项是使用图片数据计算的损失,第二项是使用旧任务类别的特征向量计算的损失,其中,
Figure FDA0003656350050000037
qi(x),
Figure FDA0003656350050000038
pj(v)分别计算如下
Figure FDA0003656350050000039
Figure FDA00036563500500000310
Figure FDA00036563500500000311
Figure FDA0003656350050000041
T1、T2是知识蒸馏的温度参数,
Figure FDA0003656350050000042
表示第t-1个任务训练好的旧模型的线性分类层,w表示其参数,训练FCN的整体损失函数表示为:
L=LFC+LAD。 (3)
6.根据权利要求5所述的基于校正新旧任务类别混淆的类增量学习方法,其特征在于,所述步骤3根据基于知识蒸馏的类增量学习方法中原有的样本选取方法去掉超出存储限制的旧任务的特征向量数据和选取当前任务需要保存的特征向量数据进行保存,并且在每一次学习完新任务后,把保存的旧任务类别的特征向量通过Feature Adaptation方法映射到新模型所对应的特征空间。
CN202210560371.XA 2022-05-23 2022-05-23 一种基于校正新旧任务类别混淆的类增量学习方法 Pending CN114882337A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210560371.XA CN114882337A (zh) 2022-05-23 2022-05-23 一种基于校正新旧任务类别混淆的类增量学习方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210560371.XA CN114882337A (zh) 2022-05-23 2022-05-23 一种基于校正新旧任务类别混淆的类增量学习方法

Publications (1)

Publication Number Publication Date
CN114882337A true CN114882337A (zh) 2022-08-09

Family

ID=82677350

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210560371.XA Pending CN114882337A (zh) 2022-05-23 2022-05-23 一种基于校正新旧任务类别混淆的类增量学习方法

Country Status (1)

Country Link
CN (1) CN114882337A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116089883A (zh) * 2023-01-30 2023-05-09 北京邮电大学 用于提高已有类别增量学习新旧类别区分度的训练方法
CN116110022A (zh) * 2022-12-10 2023-05-12 河南工业大学 基于响应知识蒸馏的轻量化交通标志检测方法及系统

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116110022A (zh) * 2022-12-10 2023-05-12 河南工业大学 基于响应知识蒸馏的轻量化交通标志检测方法及系统
CN116110022B (zh) * 2022-12-10 2023-09-05 河南工业大学 基于响应知识蒸馏的轻量化交通标志检测方法及系统
CN116089883A (zh) * 2023-01-30 2023-05-09 北京邮电大学 用于提高已有类别增量学习新旧类别区分度的训练方法
CN116089883B (zh) * 2023-01-30 2023-12-19 北京邮电大学 用于提高已有类别增量学习新旧类别区分度的训练方法

Similar Documents

Publication Publication Date Title
US9619749B2 (en) Neural network and method of neural network training
CN114882337A (zh) 一种基于校正新旧任务类别混淆的类增量学习方法
CN109816032B (zh) 基于生成式对抗网络的无偏映射零样本分类方法和装置
CN112036276B (zh) 一种人工智能视频问答方法
CN112115967B (zh) 一种基于数据保护的图像增量学习方法
CN112949929B (zh) 一种基于协同嵌入增强题目表示的知识追踪方法及系统
CN113486665B (zh) 隐私保护文本命名实体识别方法、装置、设备及存储介质
CN111931807A (zh) 一种基于特征空间组合的小样本类增量学习方法
CN114387486A (zh) 基于持续学习的图像分类方法以及装置
CN115546196A (zh) 一种基于知识蒸馏的轻量级遥感影像变化检测方法
CN115439715A (zh) 基于反标签学习的半监督少样本图像分类学习方法及系统
CN116229170A (zh) 基于任务迁移的联邦无监督图像分类模型训练方法、分类方法及设备
CN114386482A (zh) 一种基于半监督增量学习的图片分类系统及分类方法
CN111640087A (zh) 一种基于sar深度全卷积神经网络的影像变化检测方法
Yu et al. Foundation model drives weakly incremental learning for semantic segmentation
CN114330554A (zh) 一种面向智能安防的视觉深度模型知识重组方法
CN116611517A (zh) 融合图嵌入和注意力的知识追踪方法
CN115661450A (zh) 一种基于对比知识蒸馏的类别增量语义分割方法
CN116681128A (zh) 一种带噪多标签数据的神经网络模型训练方法和装置
Guo et al. Semantic image segmentation based on SegNetWithCRFs
CN114120447A (zh) 一种基于原型对比学习的行为识别方法及系统、存储介质
CN114882595A (zh) 一种武装人员行为识别方法和系统
CN112711667B (zh) 一种基于多向语义的知识图谱复杂关系推理方法
CN114911879A (zh) 一种基于图注意力网络的刑事案件知识图谱关系推理方法
CN114971066A (zh) 融合遗忘因素和学习能力的知识追踪方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination