CN114298197A - 增量学习方法、装置、电子设备及机器可读存储介质 - Google Patents

增量学习方法、装置、电子设备及机器可读存储介质 Download PDF

Info

Publication number
CN114298197A
CN114298197A CN202111580305.0A CN202111580305A CN114298197A CN 114298197 A CN114298197 A CN 114298197A CN 202111580305 A CN202111580305 A CN 202111580305A CN 114298197 A CN114298197 A CN 114298197A
Authority
CN
China
Prior art keywords
incremental
model
regular
initial
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111580305.0A
Other languages
English (en)
Inventor
吴长虹
程战战
钮毅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Goldway Intelligent Transportation System Co Ltd
Original Assignee
Shanghai Goldway Intelligent Transportation System Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Goldway Intelligent Transportation System Co Ltd filed Critical Shanghai Goldway Intelligent Transportation System Co Ltd
Priority to CN202111580305.0A priority Critical patent/CN114298197A/zh
Publication of CN114298197A publication Critical patent/CN114298197A/zh
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

本申请提供一种增量学习方法、装置、电子设备及机器可读存储介质,该方法包括:在增量训练的过程中,依据所述初始模型初始化增量模型,得到初始化后的增量模型;依据增量训练数据以及所述初始训练数据,对所述初始化后的增量模型进行训练,得到训练后的增量模型;其中,在增量训练过程中,依据正则策略对所述初始模型和所述增量模型进行正则约束;所述正则约束包括特征层面的正则约束和/或参数层面的正则约束。该方法可以缓解增量学习过程中旧知识的遗忘。

Description

增量学习方法、装置、电子设备及机器可读存储介质
技术领域
本申请涉及计算机视觉技术领域,尤其涉及一种增量学习方法、装置、电子设备及机器可读存储介质。
背景技术
深度学习增量应用中,通常需要模型能够在学习新知识的同时保持旧场景上的表现。
现有技术中,一般会使用之前的全部旧数据和新数据一起联合训练,这会带来较大的存储空间需求且不利于数据隐私保护。
发明内容
有鉴于此,本申请提供一种增量学习方法、装置、电子设备及机器可读存储介质,以降低增量训练对存储空间的需求,并提高数据安全性。
具体地,本申请是通过如下技术方案实现的:
根据本申请实施例的第一方面,提供一种增量学习方法,包括:
在增量训练的过程中,依据所述初始模型初始化增量模型,得到初始化后的增量模型;其中,所述初始模型依据初始训练数据进行模型训练得到;
依据增量训练数据以及所述初始训练数据,对所述初始化后的增量模型进行训练,得到训练后的增量模型;其中,在增量训练过程中,依据正则策略对所述初始模型和所述增量模型进行正则约束;所述正则约束包括特征层面的正则约束和/或参数层面的正则约束。
根据本申请实施例的第二方面,提供一种增量学习装置,包括:
初始化单元,用于在增量训练的过程中,依据所述初始模型初始化增量模型,得到初始化后的增量模型;其中,所述初始模型依据初始训练数据进行模型训练得到;
增量训练单元,用于依据增量训练数据以及所述初始训练数据,对所述初始化后的增量模型进行训练,得到训练后的增量模型;其中,在增量训练过程中,依据正则策略对所述初始模型和所述增量模型进行正则约束;所述正则约束包括特征层面的正则约束和/或参数层面的正则约束。
根据本申请实施例的第三方面,提供一种电子设备,包括处理器和存储器,所述存储器存储有能够被所述处理器执行的机器可执行指令,所述处理器用于执行机器可执行指令,以实现第一方面提供的方法。
根据本申请实施例的第四方面,提供一种机器可读存储介质,所述机器可读存储介质内存储有机器可执行指令,所述机器可执行指令被处理器执行时实现第一方面提供的方法。
本申请提供的技术方案至少可以带来以下有益效果:
通过利用依据初始训练数据进行模型训练得到的初始模型对增量模型进行初始化,并依据增量训练数据以及初始训练数据对初始化后的增量模型进行训练,在增量训练过程中,对初始模型和增量模型进行特征层面的正则约束和/或参数层面的正则约束,有效缓解了增量学习过程中的旧知识遗忘。
附图说明
图1是本申请示例性实施例示出的一种增量学习方法的流程示意图;
图2是本申请示例性实施例示出的一种增量学习系统的功能模块示意图;
图3A是本申请示例性实施例示出的一种特征压缩过程的示意图;
图3B是本申请示例性实施例示出的一种增量训练框架的示意图;
图3C是本申请示例性实施例示出的一种利用正则策略对增量训练过程中旧数据的特征和/或者参数进行正则约束的示意图;
图3D是本申请示例性实施例示出的一种分别从均衡采样、均衡训练以及均衡损失三个角度保证新旧知识的均衡训练的示意图;
图4是本申请示例性实施例示出的一种增量学习装置的结构示意图;
图5是本申请示例性实施例示出的另一种增量学习装置的结构示意图;
图6是本申请示例性实施例示出的一种电子设备的硬件结构示意图。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本申请相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本申请的一些方面相一致的装置和方法的例子。
在本申请使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本申请。在本申请和所附权利要求书中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义。
为了使本领域技术人员更好地理解本申请实施例提供的技术方案,并使本申请实施例的上述目的、特征和优点能够更加明显易懂,下面结合附图对本申请实施例中技术方案作进一步详细的说明。
请参见图1,为本申请实施例提供的一种增量学习方法的流程示意图,如图1所示,该增量学习方法可以包括以下步骤:
需要说明的是,本申请实施例中各步骤的序号大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本申请实施例的实施过程构成任何限定。
步骤S100、在增量训练过程中,依据初始模型初始化增量模型,得到初始化后的增量模型;其中,初始模型依据初始训练数据进行模型训练得到。步骤S110、依据增量训练数据以及初始训练数据,对初始化后的增量模型进行训练;其中,在增量训练过程中,依据正则策略对初始模型和增量模型进行正则约束;正则约束包括特征层面的正则约束和/或参数层面的正则约束。
示例性的,初始模型是指在进行增量训练之前已经训练好的网络模型,该网络模型可以进行过一次或多次的增量训练。
例如,假设需要对网络模型进行第4次增量训练,则该初始模型可以为完成第3次增量训练后的网络模型。
相应地,初始训练数据可以包括已经完成的增量训练过程中使用的增量训练数据。
示例性的,初始模型的训练过程中包括增量训练时,增量训练的实现方式可以参见下文中的相关说明。
本申请实施例中,当需要对网络模型进行增量训练时,可以依据初始模型对增量模型进行初始化,得到初始化的增量模型,并依据增量训练数据以及初始训练数据,对初始化后的增量模型进行训练。
本申请实施例中,为了防止旧知识遗忘,对增量模型进行增量训练的过程中,可以依据正则策略对初始模型和所述增量模型进行正则约束。
示例性的,正则约束可以包括特征层面的正则约束和/或参数层面的正则约束。
示例性的,特征层面的正则约束可以从特征层面约束旧数据在旧模型和增量模型上的输出概率分布保持不变,参数层面的正则约束可以从参数层面约束增量训练过程中对旧知识重要的网络参数保持不变。
可见,在图1所示方法流程中,通过利用依据初始训练数据进行模型训练得到的初始模型对增量模型进行初始化,并依据增量训练数据以及初始训练数据对初始化后的增量模型进行训练,在增量训练过程中,对初始模型和增量模型进行特征层面的正则约束和/或参数层面的正则约束,有效避免了增量学习过程中的旧知识遗忘。
在一些实施例中,当正则约束包括特征层面的正则约束时,上述依据正则策略对初始模型和增量模型进行正则约束,可以包括:
依据初始训练数据经过初始模型的输出与初始训练数据经过增量模型的输出之间的差异,对增量模型的深层网络和预测层进行参数优化。
示例性的,为了避免旧知识遗忘,保证增量模型对初始训练数据的处理效果,在增量训练过程中,可以保证初始训练数据经过初始模型处理后的输出与初始训练数据经过增量模型处理后的输出之间的差异尽量小。
相应地,在增量训练过程中,可以依据初始训练数据经过初始模型的输出与初始训练数据经过增量模型的输出之间的差异,对增量模型进行参数优化,其具体实现可以在下文中结合具体实例进行说明。
在一个示例中,当正则约束包括参数层面的正则约束时,依据正则策略对初始模型和增量模型进行正则约束,可以包括:
依据初始模型以及增量模型中,各层的参数之间的差异,对增量模型进行参数优化。
示例性的,为了避免旧知识遗忘,保证增量模型对初始训练数据的处理效果,在增量训练过程中,可以保证初始模型的以及所述增量模型中,各层的参数之间的差异尽量小。
相应地,可以在增量训练过程中,可以依据初始模型以及增量模型中,各层的参数之间的差异,对增量模型进行参数优化,其具体实现可以在下文中结合具体实例进行说明。
在一些实施例中,上述依据增量训练数据以及初始训练数据,对初始化后的增量模型进行训练,可以包括:
对初始训练数据以及增量训练数据进行均衡采样,得到采样初始训练数据以及采样增量训练数据;
依据采样初始训练数据以及采样增量训练数据,对初始化后的增量模型进行训练。
示例性的,为了实现新旧数据的均衡学习,在增量训练过程中,可以尽量保证初始训练数据与增量训练数据的均衡。
相应地,可以通过对初始训练数据以及增量训练数据进行均衡采样,得到采样初始训练数据和采样增量训练数据,保证增量训练过程中初始训练数据与增量训练数据的均衡。
在进行增量训练时,可以依据采样初始训练数据以及采样增量训练数据,对初始化后的增量模型进行训练。
在一些实施例中,本申请实施例提供的增量学习方法还可以包括:
依据增量训练数据进行模型训练,得到新增模型;
依据正则策略对新增模型和增量模型进行正则约束;
依据初始模型和增量模型对应的第一正则损失、新增模型和增量模型对应的第二正则损失,以及增量模型的任务损失,确定增量模型的最终损失;
依据增量模型的最终损失,对增量模型的训练进行反馈。
示例性的,为了在避免旧知识遗忘的同时,保证增量模型对新知识(增量训练数据)的处理效果,增量训练过程中,需要均衡训练的方式对增量模型进行训练,并依据均衡损失对模型进行反馈优化。
示例性的,为了保证增量模型对新知识的处理效果,可以依据增量训练数据进行模型训练,得到新增模型,并依据正则策略对新增模型和所述增量模型进行正则约束。
同时,为了避免旧知识遗忘,还可以依据正则策略对初始模型和增量模型进行正则约束。
示例性的,在确定增量模型的损失时,不仅需要考虑增量模型的任务损失,还需要考虑初始模型和增量模型之间的正则损失(本文中称为第一正则损失),以及增量模型与新增模型之间的正则损失(本文中称为第二正则损失),依据该第一正则损失、第二正则损失以及任务损失,确定增量模型的最终损失。
在一个示例中,上述依据初始模型和增量模型对应的第一正则损失、新增模型和增量模型对应的第二正则损失,以及增量模型的任务损失,确定增量模型的最终损失,可以包括:
依据第一正则损失、第二正则损失,以及任务损失,以及第一正则损失权重、第二正则损失权重、任务损失权重,确定增量模型的最终损失;
其中,第一正则损失权重依据初始模型针对第一验证集的性能与增量模型针对第一验证集的性能确定;第二正则损失权重依据新增模型针对第二验证集的性能与增量模型针对第二验证集的性能确定。
示例性的,为了保证在不同的新旧数据分布下达到新旧知识的均衡训练,在确定增量模型的最终损失时,可以依据初始模型、新增模型与增量模型在验证集上的性能差异动态调节第一正则损失的权重(本文中称为第一正则损失权重)和第二正则损失的权重(本文中称为第二正则损失权重)。
在一些实施例中,上述依据增量训练数据以及初始训练数据,对初始化后的增量模型进行训练之前,还可以包括:
对第一输出特征进行特征压缩,并对得到的压缩特征进行存储;其中,第一输出特征为初始训练数据经过初始模型的浅层网络处理后的输出特征。
上述依据增量训练数据以及初始训练数据,对初始化后的增量模型进行训练,可以包括:
依据初始化后的增量模型的浅层网络对增量训练数据进行处理,得到第二输出特征;
以及,对压缩特征进行解压缩,得到第三输出特征;
依据第二输出特征以及第三输出特征,对初始化后的增量模型的深层网络和预测层进行训练。
示例性的,为了减少增量学习对初始训练数据的存储空间需求和初始训练数据的安全性,可以利用初始模型的浅层网络对初始训练数据进行处理,将初始训练数据经过浅层网络处理后的输出特征(本文中称为第一输出特征)进行特征压缩,得到压缩特征,并对压缩特征进行存储。
示例性的,网络模型可以包括浅层网络、深层网络以及预测层。浅层网络和深层网络的划分可以根据实际需求进行划分。预测层可以依据网络模型的任务要求确定,例如,用于分类、检测或分割的网络模型的预测层均可以不同,即不同的任务可以对应不同的预测层。
当需要对网络模型进行增量训练时,一方面,可以依据步骤S100中得到的初始化后的增量模型的浅层网络对增量训练数据进行处理,得到处理后的输出特征(本文中称为第二输出特征)。
需要说明的是,增量模型对浅层网络、深层网络以及预测层的划分与初始模型对浅层网络、深层网络以及预测层的划分一致。
另一方面,可以对初始训练数据对应的压缩特征进行解压缩,得到解压缩后的输出特征(本文中称为第三输出特征)。
需要说明的是,由于压缩过程中均会存在一定的信息损耗,因此,第一输出特征进行压缩和解压缩之后得到的输出特征(即第三输出特征),与第一输出特征之间会存在一定的差异。
当按照上述方式得到第二输出特征和第三输出特征时,可以依据第二输出特征以及第三输出特征,对初始化后的增量模型的深层网络和预测层进行训练。
例如,可以对第二输出特征以及第三输出特征进行拼接,并将拼接后的特征输入到增量模型,依据初始化后的增量模型的深层网络和预测层处理后的输出结果与预设标签信息确定损失,并进行反馈优化,实现对增量模型的训练。
示例性的,增量训练过程中,增量模型的浅层网络的参数固定,其与初始模型的浅层网络的参数一致,即依据第二输出特征以及第三输出特征,在固定初始化增量模型的浅层网络参数的情况下,对初始化后的增量模型的深层网络和预测层进行训练。
需要说明的是,由于第二输出特征以及第三输出特征分别为初始模型的浅层网络以及增量模型的浅层网络处理后的输出特征,且初始模型的浅层网络与增量模型的浅层网络的结构和参数均一致,因此,第二输出特征以及第三输出特征输入到增量模型时,增量模型的浅层网络不会再对第二输出特征以及第三输出特征进行处理。
可见,通过利用初始模型的浅层网络对初始训练数据进行处理,得到第一输出特征,并对第一输出特征进行压缩,得到压缩特征,对压缩特征进行保存,提高了增量学习对初始训练数据(旧数据)的存储空间需求,由于增量训练过程中,不需要使用初始训练数据,而是通过对压缩特征进行解压缩,得到浅层网络处理后的初始训练数据,提高了初始训练数据的安全性。
在一些实施例中,上述对第一输出特征进行特征压缩,可以包括:
依据第一输出特征对自编码器进行训练,该自编码器包括编码网络和解码网络;
依据训练后的自编码器中的编码网络对所述第一输出特征进行编码处理。
上述对压缩特征进行解压缩,可以包括:
依据训练后的自编码器中的解码网络对压缩特征进行解码处理。
示例性的,为了实现第一输出特征的压缩和解压缩,可以依据第一输出特征训练自编码器。
示例性的,该自编码器可以包括编码网络和解码网络,该编码网络可以用于对第一输出特征进行编码,实现特征压缩;该解码网络可以用于对编码后的特征进行解码,实现特征解压缩。
示例性的,当完成自编码器的训练时,可以依据训练后的自编码器中的编码网络对第一输出特征进行编码,实现特征压缩。
在一个示例中,自编码器的训练过程中,依据第一输出特征与第三输出特征之间的差异,以及,初始模型的深层网络和预测层对第三输出特征的处理结果与预设标签信息之间的差异,对自编码器进行参数优化。
示例性的,在自编码器的训练过程中,一方面,需要保证同一输出特征在经过编码和解码后得到的特征与编码前的输出特征的差异尽量小,另一方面,需要保证第一输出特征经过编码和解码后得到的第三输出特征,利用初始模型进行处理时的任务损失尽量小。
相应地,自编码器的训练过程中,可以依据第一输出特征与第三输出特征之间的差异,以及,初始模型的深层网络和预测层对第三输出特征的处理结果与预设标签信息之间的差异,对自编码器进行参数优化,其具体实现可以在下文中结合具体实例进行说明。
为了使本领域技术人员更好地理解本申请实施例提供的技术方案,下面结合具体实例对本申请实施例提供的技术方案进行说明。
在该实施例中,通过基于特征压缩的均衡增量学习,利用特征编解码技术对旧数据(即初始训练数据)的特征(如上述第一输出特征)进行压缩并存储,降低数据存储的同时且保护了数据的安全;增量训练过程中,解码压缩的旧数据特征与增量训练数据一起训练,利用正则策略避免旧数据压缩带来的遗忘问题;通过新旧样本的采样均衡,新旧任务损失均衡策略动态调整新旧训练权重,达到新旧数据均衡训练的目标。其具体的操作流程如下:
1、特征压缩:对旧数据的网络特征(如上述第一输出特征)进行编解码训练,并存储编码后的压缩特征;
2、增量训练:将步骤1中的压缩特征通过解码网络复原为网络特征(如上述第三输出特征),与新数据一起增量训练。
3、防止遗忘:增量训练过程中采用正则策略(知识蒸馏、参数正则等)对基础知识(如初始训练数据经过初始模型处理后的输出、初始模型的各层的参数等)进行正则约束,减少特征压缩带来的旧知识遗忘。
4、均衡优化:利用均衡策略动态调节新旧数据的采样比重以及损失权重,达到新旧知识均衡训练。
基于上述流程,本申请实施例的增量学习系统按功能模块划分的示意图可以参见图2,如图2所示,其可以包括:特征压缩模块、增量训练模块、防止遗忘模块、均衡优化模块。
下面分别对各模块的功能进行说明。
一、特征压缩模块
特征压缩模块的功能是将旧数据(即上述初始训练数据)以压缩特征的形式进行存储,减少数据存储空间的同时提高数据安全性,保证在线增量训练过程中不涉及到旧数据原图像。
示例性的,对于压缩特征,可以利用预设加密方式进行加密后存储。相应地,在需要对压缩特征进行解压缩时,可以先进行解密处理。
特征压缩过程可以参见图3A。如图3A所示,可以将深度卷积网络划分成三个部分:浅层网络、深层网络、预测层,浅层网络和深层网络分别对应任务浅层特征提取器和深层特征提取器,预测层与任务本身相关,如分类的全连接层,检测的head层等。
1.1、固定旧模型(即上述初始模型)的所有网络参数,旧数据经过旧模型的浅层网络提取浅层特征(即上述第一输出特征),浅层特征x进入自编码器进行重构训练。
示例性的,自编码器(AutoEncoder)是一种通过学习输入数据的高效表示的神经网络。AutoEncoder框架包含两大模块:编码网络和解码网络。通过编码网络(g)将输入样本x映射到特征空间z,即编码过程;然后再通过解码网络(f)将抽象特征z映射回原始空间得到重构样本x',即解码过程。优化目标则是通过最小化重构误差来同时优化编码网络和解码网络,从而学习得到针对样本输入x的抽象特征表示z。优化目标函数如下:
f,g=argminf,gLmse(x,x′(f,g))
即使输入样本x经过编码网络g编码以及解码网络f解码后,得到的重构样本x',与x的差异最小。
1.2、解码后的复原浅层特征x'需要保证在旧模型上的任务损失最小,由此,约束压缩后的特征经过旧模型仍然具有对旧数据y(浅层特征x对应的初始训练数据的标签信息)的识别能力。故最终整体的优化目标如下:
f,g=argminf,g(Lmse(x,x′(f,g))+Lo(x′(f,g),y))
即使x'与x的差异,以及,x'经过旧模型处理后的输出结果与y的差异,二者之和最小。
二、增量训练模块
增量训练框架即将复原的压缩特征和新数据(即增量训练数据)一起联合训练,其示意图可以参见图3B,如图3B所示,可以包括:
2.1、以旧模型初始化增量模型;
示例性的,增量模型的结构与旧模型结构一致。
2.2、采用1.1训练获得的解码网络解码旧数据压缩特征,得到解压缩的浅层特征(即上述第三输出特征);
2.3、固定浅层网络参数,通过浅层网络提取新数据的浅层特征(即上述第二输出特征);
2.4:将新数据的浅层特征与解压缩的浅层特征拼接后,经过深度卷积网络对应的深层网络提取深层特征,最后经过任务预测层输出预测结果。新旧数据标签cj与网络预测结果
Figure BDA0003426818950000121
构成任务损失Ln训练网络。
举例来说,以分类任务为例,损失如下:
Figure BDA0003426818950000122
其中,N为样本中的标签数量,cj为第j个标签,
Figure BDA0003426818950000123
为对第j个标签的预测结果。
三、防止遗忘模块
增量训练过程中,由于旧数据经过特征压缩后存在信息损失,直接采用解压缩后的特征进行增量训练易造成旧知识的遗忘。
示例性的,在上述训练基础上利用正则策略对增量训练过程中旧数据的特征和/或者参数进行正则约束,减少因为信息损失带来的旧知识遗忘,其示意图可以如图3C所示。
下面分别以知识蒸馏正则约束和参数正则约束为例。
示例性的,知识蒸馏正则约束从特征层面约束旧数据在旧模型和增量模型上的输出概率分布保持不变;参数正则约束从参数层面约束增量训练过程中对旧知识重要的网络参数保持不变,具体实现如下:
3.1、知识蒸馏正则约束:引入教师网络,利用其输出概率分布指导学生网络的训练,实现知识迁移。
以分类任务为例,旧数据压缩特征经过旧模型(可以称为旧教师模型)在softmax第i类输出
Figure BDA0003426818950000124
旧数据经过增量模型(可以称为学生模型)在softmax第i类输出
Figure BDA0003426818950000125
则对应的正则损失为:
Figure BDA0003426818950000131
参数正则约束:通过在学习新任务的同时对参数进行正则化,以此来约束模型优化方向,促使模型搜索到可以兼顾旧知识O(旧模型的深层网络和任务层的参数)和新知识N(增量模型的深层网络和任务层的参数)的参数空间,从而解决对旧知识的灾难性遗忘问题,损失函数如下式所示:
Figure BDA0003426818950000132
其中,Ωi为Fisher信息矩阵的对角线元素(该元素的数量与深层网络和预测层的参数数量一致),用于衡量模型各参数重要程度,θi为增量模型第i层(未包括浅层网络,浅层网络的参数固定)的参数,
Figure BDA0003426818950000133
为旧模型第i层的参数。
示例性的,图3C中的Lr可以为Lr1与Lr2二者之和。
四、均衡优化模块
增量学习场景中,新旧数据在数量和分布上往往存在不均衡问题,均衡优化模块可以分别从均衡采样、均衡训练以及均衡损失三个角度保证新旧知识的均衡训练,其示意图可以如图3D所示。其中:
4.1、均衡采样:对旧数据压缩特征和新数据进行均衡采样,保证深度学习训练过程一个批次样本中新旧数据均衡分布;
4.2、均衡训练:引入Finetune模型构成新增教师(即上述新增模型),通过知识蒸馏正则约束提升新知识学习能力,与旧知识教师模型的正则约束构成均衡训练。
其中,Finetune模型预先采用单独的新数据训练获得。
4.3、均衡损失:整个增量训练损失(即上述最终损失)由任务损失Ln、旧知识正则损失Lr以及新知识正则损失Lf构成:
Lall=λnLnrLrfLf
其中,λn为任务损失权重,λr为旧知识正则损失权重(即上述第一正则损失权重),λf为新知识正则损失权重(即上述第二正则损失权重)。
示例性的,为了保证在不同的新旧数据分布下达到新旧知识的均衡训练,我们根据新旧教师模型与学生模型在验证集上的性能差异动态调节权重系数λr和λf
示例性的,定义旧模型教师在旧数据验证集的性能为:Accold_teacher,定义增量学生模型在旧数据验证集的性能为:Accold_student
若学生模型性能小于教师模型性能β(取值可以根据实际需求设定,其取值小于1)倍的阈值范围内,则λr=1;否则,根据如下规则减小λr
Figure BDA0003426818950000141
类似的,定义Finetune模型新教师在新数据验证集的性能为:Accnew_teacher,定义增量学生模型在新数据验证集的性能为:Accnew_student,如果学生模型性能小于教师模型性能β倍的阈值范围内,则λf=1,否则根据上述类似规则减小λf
基于上述整体损失Lall训练增量学习模型。
需要说明的是,上述基于特征压缩的均衡增量学习方法适用于检测、分类、识别以及分割等多种图像识别任务。
以上对本申请提供的方法进行了描述。下面对本申请提供的装置进行描述:
请参见图4,为本申请实施例提供的一种增量学习装置的结构示意图,如图4所示,该增量学习装置可以包括:
初始化单元410,用于在增量训练的过程中,依据所述初始模型初始化增量模型,得到初始化后的增量模型;
增量训练单元420,用于依据增量训练数据以及所述初始训练数据,对所述初始化后的增量模型进行训练,得到训练后的增量模型;其中,在增量训练过程中,依据正则策略对所述初始模型和所述增量模型进行正则约束;所述正则约束包括特征层面的正则约束和/或参数层面的正则约束。
在一些实施例中,当所述正则约束包括特征层面的正则约束时,所述增量训练单元依据正则策略对所述初始模型和所述增量模型进行正则约束,包括:
依据所述初始训练数据经过所述初始模型的输出与所述初始训练数据经过所述增量模型的输出的差异,对所述增量模型进行参数优化。
在一些实施例中,当所述正则约束包括参数层面的正则约束时,所述增量训练单元420依据正则策略对所述初始模型和所述增量模型进行正则约束,包括:
依据所述初始模型以及所述增量模型中,各层的参数之间的差异,对所述增量模型的深层网络和预测层进行参数优化。
在一些实施例中,所述增量训练单元420依据增量训练数据以及所述初始训练数据,对所述初始化后的增量模型进行训练,包括:
对所述初始训练数据以及所述增量训练数据进行均衡采样,得到采样初始训练数据以及采样增量训练数据;
依据所述采样初始训练数据以及采样增量训练数据,对所述初始化后的增量模型进行训练。
在一些实施例中,所述增量训练单元420,还用于依据所述增量训练数据进行模型训练,得到新增模型;
依据正则策略对所述新增模型和所述增量模型进行正则约束;依据所述初始模型和所述增量模型对应的第一正则损失、所述新增模型和所述增量模型对应的第二正则损失,以及所述增量模型的任务损失,确定所述增量模型的最终损失;依据所述增量模型的最终损失,对所述增量模型的训练进行反馈。
在一些实施例中,所述增量训练单元420依据所述初始模型和所述增量模型对应的第一正则损失、所述新增模型和所述增量模型对应的第二正则损失,以及所述增量模型的任务损失,确定所述增量模型的最终损失,包括:
依据所述第一正则损失、所述第二正则损失,以及所述任务损失,以及第一正则损失权重、第二正则损失权重、任务损失权重,确定所述增量模型的最终损失;
其中,所述第一正则损失权重依据所述初始模型针对第一验证集的性能与所述增量模型针对所述第一验证集的性能确定;所述第二正则损失权重依据所述新增模型针对第二验证集的性能与所述增量模型针对所述第二验证集的性能确定。
在一些实施例中,如图5所示,所述装置还包括:
特征压缩单元430,对第一输出特征进行特征压缩,并对得到的压缩特征进行存储;其中,所述第一输出特征为所述初始训练数据经过所述初始模型的浅层网络处理后的输出特征;
数据处理单元440,用于依据初始化后的增量模型的浅层网络对增量训练数据进行处理,得到第二输出特征;
特征解压缩单元450,用于对所述压缩特征进行解压缩,得到第三输出特征;
所述增量训练单元420,具体用于依据所述第二输出特征以及所述第三输出特征,对所述初始化后的增量模型的深层网络和预测层进行训练。
在一些实施例中,所述特征压缩单元430对第一输出特征进行特征压缩,包括:
依据所述第一输出特征对自编码器进行训练,所述自编码器包括编码网络和解码网络;
依据训练后的自编码器中的编码网络对所述第一输出特征进行编码处理;
所述特征解压缩单元450对所述压缩特征进行解压缩,包括:
依据所述训练后的自编码器中的解码网络对所述压缩特征进行解码处理。
在一些实施例中,所述自编码器的训练过程中,依据第一输出特征与第三输出特征之间的差异,以及,所述初始模型的深层网络和预测层对所述第三输出特征的处理结果与预设标签信息之间的差异,对所述自编码器进行参数优化。
本申请实施例提供一种电子设备,包括处理器和存储器,其中,存储器存储有能够被所述处理器执行的机器可执行指令,处理器用于执行机器可执行指令,以实现上文描述的增量学习方法。
请参见图6,为本申请实施例提供的一种电子设备的硬件结构示意图。该电子设备可包括处理器601、存储有机器可执行指令的存储器602。处理器601与存储器602可经由系统总线603通信。并且,通过读取并执行存储器602中与增量学习逻辑对应的机器可执行指令,处理器601可执行上文描述的增量学习方法。
本文中提到的存储器602可以是任何电子、磁性、光学或其它物理存储装置,可以包含或存储信息,如可执行指令、数据,等等。例如,机器可读存储介质可以是:RAM(RadomAccess Memory,随机存取存储器)、易失存储器、非易失性存储器、闪存、存储驱动器(如硬盘驱动器)、固态硬盘、任何类型的存储盘(如光盘、dvd等),或者类似的存储介质,或者它们的组合。
在一些实施例中,还提供了一种机器可读存储介质,如图6中的存储器602,该机器可读存储介质内存储有机器可执行指令,所述机器可执行指令被处理器执行时实现上文描述的增量学习方法。例如,所述存储介质可以是ROM、RAM、CD-ROM、磁带、软盘和光数据存储设备等。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
以上所述仅为本申请的较佳实施例而已,并不用以限制本申请,凡在本申请的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本申请保护的范围之内。

Claims (12)

1.一种增量学习方法,其特征在于,包括:
在增量训练的过程中,依据初始模型初始化增量模型,得到初始化后的增量模型;其中,所述初始模型依据初始训练数据进行模型训练得到;
依据增量训练数据以及所述初始训练数据,对所述初始化后的增量模型进行训练,得到训练后的增量模型;其中,在增量训练过程中,依据正则策略对所述初始模型和所述增量模型进行正则约束;所述正则约束包括特征层面的正则约束和/或参数层面的正则约束。
2.根据权利要求1所述的方法,其特征在于,当所述正则约束包括特征层面的正则约束时,所述依据正则策略对所述初始模型和所述增量模型进行正则约束,包括:
依据所述初始训练数据经过所述初始模型的输出与所述初始训练数据经过所述增量模型的输出的差异,对所述增量模型进行参数优化;
和/或,
当所述正则约束包括参数层面的正则约束时,所述依据正则策略对所述初始模型和所述增量模型进行正则约束,包括:
依据所述初始模型以及所述增量模型中,各层的参数之间的差异,对所述增量模型的深层网络和预测层进行参数优化。
3.根据权利要求1所述的方法,其特征在于,所述依据增量训练数据以及所述初始训练数据,对所述初始化后的增量模型进行训练,包括:
对所述初始训练数据以及所述增量训练数据进行均衡采样,得到采样初始训练数据以及采样增量训练数据;
依据所述采样初始训练数据以及采样增量训练数据,对所述初始化后的增量模型进行训练。
4.根据权利要求1所述的方法,其特征在于,所述方法还包括:
依据所述增量训练数据进行模型训练,得到新增模型;
依据正则策略对所述新增模型和所述增量模型进行正则约束;
依据所述初始模型和所述增量模型对应的第一正则损失、所述新增模型和所述增量模型对应的第二正则损失,以及所述增量模型的任务损失,确定所述增量模型的最终损失;
依据所述增量模型的最终损失,对所述增量模型的训练进行反馈。
5.根据权利要求4所述的方法,其特征在于,所述依据所述初始模型和所述增量模型对应的第一正则损失、所述新增模型和所述增量模型对应的第二正则损失,以及所述增量模型的任务损失,确定所述增量模型的最终损失,包括:
依据所述第一正则损失、所述第二正则损失,以及所述任务损失,以及第一正则损失权重、第二正则损失权重、任务损失权重,确定所述增量模型的最终损失;
其中,所述第一正则损失权重依据所述初始模型针对第一验证集的性能与所述增量模型针对所述第一验证集的性能确定;所述第二正则损失权重依据所述新增模型针对第二验证集的性能与所述增量模型针对所述第二验证集的性能确定。
6.根据权利要求1所述的方法,其特征在于,所述依据增量训练数据以及所述初始训练数据,对所述初始化后的增量模型进行训练之前,还包括:
对第一输出特征进行特征压缩,并对得到的压缩特征进行存储;其中,所述第一输出特征为所述初始训练数据经过所述初始模型的浅层网络处理后的输出特征;
所述依据增量训练数据以及所述初始训练数据,对所述初始化后的增量模型进行训练,包括:
依据初始化后的增量模型的浅层网络对增量训练数据进行处理,得到第二输出特征;
以及,对所述压缩特征进行解压缩,得到第三输出特征;
依据所述第二输出特征以及所述第三输出特征,对所述初始化后的增量模型的深层网络和预测层进行训练。
7.根据权利要求6所述的方法,其特征在于,所述对第一输出特征进行特征压缩,包括:
依据所述第一输出特征对自编码器进行训练,所述自编码器包括编码网络和解码网络;
依据训练后的自编码器中的编码网络对所述第一输出特征进行编码处理;
所述对所述压缩特征进行解压缩,包括:
依据所述训练后的自编码器中的解码网络对所述压缩特征进行解码处理。
8.根据权利要求7所述的方法,其特征在于,所述自编码器的训练过程中,依据第一输出特征与第三输出特征之间的差异,以及,所述初始模型的深层网络和预测层对所述第三输出特征的处理结果与预设标签信息之间的差异,对所述自编码器进行参数优化。
9.一种增量学习装置,其特征在于,包括:
初始化单元,用于在增量训练的过程中,依据所述初始模型初始化增量模型,得到初始化后的增量模型;其中,所述初始模型依据初始训练数据进行模型训练得到;
增量训练单元,用于依据增量训练数据以及所述初始训练数据,对所述初始化后的增量模型进行训练,得到训练后的增量模型;其中,在增量训练过程中,依据正则策略对所述初始模型和所述增量模型进行正则约束;所述正则约束包括特征层面的正则约束和/或参数层面的正则约束。
10.根据权利要求9所述的装置,其特征在于,当所述正则约束包括特征层面的正则约束时,所述增量训练单元依据正则策略对所述初始模型和所述增量模型进行正则约束,包括:
依据所述初始训练数据经过所述初始模型的输出与所述初始训练数据经过所述增量模型的输出的差异,对所述增量模型进行参数优化;
和/或,
当所述正则约束包括参数层面的正则约束时,所述增量训练单元依据正则策略对所述初始模型和所述增量模型进行正则约束,包括:
依据所述初始模型以及所述增量模型中,各层的参数之间的差异,对所述增量模型的深层网络和预测层进行参数优化;
和/或,
所述增量训练单元依据增量训练数据以及所述初始训练数据,对所述初始化后的增量模型进行训练,包括:
对所述初始训练数据以及所述增量训练数据进行均衡采样,得到采样初始训练数据以及采样增量训练数据;
依据所述采样初始训练数据以及采样增量训练数据,对所述初始化后的增量模型进行训练;
和/或,
所述增量训练单元,还用于依据所述增量训练数据进行模型训练,得到新增模型;
依据正则策略对所述新增模型和所述增量模型进行正则约束;依据所述初始模型和所述增量模型对应的第一正则损失、所述新增模型和所述增量模型对应的第二正则损失,以及所述增量模型的任务损失,确定所述增量模型的最终损失;依据所述增量模型的最终损失,对所述增量模型的训练进行反馈;
其中,所述增量训练单元依据所述初始模型和所述增量模型对应的第一正则损失、所述新增模型和所述增量模型对应的第二正则损失,以及所述增量模型的任务损失,确定所述增量模型的最终损失,包括:
依据所述第一正则损失、所述第二正则损失,以及所述任务损失,以及第一正则损失权重、第二正则损失权重、任务损失权重,确定所述增量模型的最终损失;
其中,所述第一正则损失权重依据所述初始模型针对第一验证集的性能与所述增量模型针对所述第一验证集的性能确定;所述第二正则损失权重依据所述新增模型针对第二验证集的性能与所述增量模型针对所述第二验证集的性能确定;
和/或,
所述装置还包括:
特征压缩单元,对第一输出特征进行特征压缩,并对得到的压缩特征进行存储;其中,所述第一输出特征为所述初始训练数据经过所述初始模型的浅层网络处理后的输出特征;
数据处理单元,用于依据初始化后的增量模型的浅层网络对增量训练数据进行处理,得到第二输出特征;
特征解压缩单元,用于对所述压缩特征进行解压缩,得到第三输出特征;
所述增量训练单元,具体用于依据所述第二输出特征以及所述第三输出特征,对所述初始化后的增量模型的深层网络和预测层进行训练;
其中,所述特征压缩单元对第一输出特征进行特征压缩,包括:
依据所述第一输出特征对自编码器进行训练,所述自编码器包括编码网络和解码网络;
依据训练后的自编码器中的编码网络对所述第一输出特征进行编码处理;
所述特征解压缩单元对所述压缩特征进行解压缩,包括:
依据所述训练后的自编码器中的解码网络对所述压缩特征进行解码处理;
其中,所述自编码器的训练过程中,依据第一输出特征与第三输出特征之间的差异,以及,所述初始模型的深层网络和预测层对所述第三输出特征的处理结果与预设标签信息之间的差异,对所述自编码器进行参数优化。
11.一种电子设备,其特征在于,包括处理器和存储器,所述存储器存储有能够被所述处理器执行的机器可执行指令,所述处理器用于执行机器可执行指令,以实现如权利要求1-8任一项所述的方法。
12.一种机器可读存储介质,其特征在于,所述机器可读存储介质内存储有机器可执行指令,所述机器可执行指令被处理器执行时实现如权利要求1-8任一项所述的方法。
CN202111580305.0A 2021-12-22 2021-12-22 增量学习方法、装置、电子设备及机器可读存储介质 Pending CN114298197A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111580305.0A CN114298197A (zh) 2021-12-22 2021-12-22 增量学习方法、装置、电子设备及机器可读存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111580305.0A CN114298197A (zh) 2021-12-22 2021-12-22 增量学习方法、装置、电子设备及机器可读存储介质

Publications (1)

Publication Number Publication Date
CN114298197A true CN114298197A (zh) 2022-04-08

Family

ID=80969462

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111580305.0A Pending CN114298197A (zh) 2021-12-22 2021-12-22 增量学习方法、装置、电子设备及机器可读存储介质

Country Status (1)

Country Link
CN (1) CN114298197A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115841335A (zh) * 2023-02-07 2023-03-24 支付宝(杭州)信息技术有限公司 数据处理方法、装置及设备

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115841335A (zh) * 2023-02-07 2023-03-24 支付宝(杭州)信息技术有限公司 数据处理方法、装置及设备

Similar Documents

Publication Publication Date Title
Heaton et al. Deep learning for finance: deep portfolios
Goodfellow et al. Regularization for deep learning
JP2019200551A (ja) データから潜在因子を発見するニューラルネットワーク
CN107122327B (zh) 一种利用训练数据训练模型的方法和训练系统
CN111402257B (zh) 一种基于多任务协同跨域迁移的医学图像自动分割方法
CN113837370B (zh) 用于训练基于对比学习的模型的方法和装置
KR20200144398A (ko) 클래스 증가 학습을 수행하는 장치 및 그의 동작 방법
US9536206B2 (en) Method and apparatus for improving resilience in customized program learning network computational environments
CN114911958B (zh) 一种基于语义偏好的快速图像检索方法
CN113723070B (zh) 文本相似度模型训练方法、文本相似度检测方法及装置
TW202134958A (zh) 神經網路表示型態格式
Shekhovtsov et al. Stochastic normalizations as bayesian learning
KR102366302B1 (ko) 준 지도 학습을 위한 오토인코더 기반 그래프 설계
CN114298197A (zh) 增量学习方法、装置、电子设备及机器可读存储介质
CN112084301A (zh) 文本修正模型的训练方法及装置、文本修正方法及装置
CN113807371B (zh) 一种类条件下的有益特征对齐的无监督域自适应方法
CN113159072B (zh) 基于一致正则化的在线超限学习机目标识别方法及系统
KR102305981B1 (ko) 신경망 압축 훈련 방법 및 압축된 신경망을 이용하는 방법
CN117523295A (zh) 基于类引导元学习的无源域适应的图像分类方法
Geiping et al. Parametric majorization for data-driven energy minimization methods
WO2022074840A1 (ja) ドメイン特徴抽出器学習装置、ドメイン予測装置、学習方法、学習装置、クラス識別装置及びプログラム
Hao et al. A unified factors analysis framework for discriminative feature extraction and object recognition
Chen et al. Adaptive joint attention with reinforcement training for convolutional image caption
WO2024089770A1 (ja) 情報処理プログラム、装置、及び方法
US20230281964A1 (en) Deep metric learning model training with multi-target adversarial examples

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination