CN112115967A - 一种基于数据保护的图像增量学习方法 - Google Patents

一种基于数据保护的图像增量学习方法 Download PDF

Info

Publication number
CN112115967A
CN112115967A CN202010781900.XA CN202010781900A CN112115967A CN 112115967 A CN112115967 A CN 112115967A CN 202010781900 A CN202010781900 A CN 202010781900A CN 112115967 A CN112115967 A CN 112115967A
Authority
CN
China
Prior art keywords
model
data
image
task
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010781900.XA
Other languages
English (en)
Other versions
CN112115967B (zh
Inventor
王文宇
赖韩江
潘炎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Sun Yat Sen University
Original Assignee
National Sun Yat Sen University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National Sun Yat Sen University filed Critical National Sun Yat Sen University
Priority to CN202010781900.XA priority Critical patent/CN112115967B/zh
Publication of CN112115967A publication Critical patent/CN112115967A/zh
Application granted granted Critical
Publication of CN112115967B publication Critical patent/CN112115967B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Abstract

本发明提供一种基于数据保护的图像增量学习方法,该方法以深度卷积神经网络ResNet为基础,充分利用外部海量图像的信息,对其进行采样并加入训练过程,来缓解新旧样本不均衡所带来的偏差和灾难性遗忘,外部数据即采即用,训练后直接丢弃,不占用存储空间。同时加入针对于各个任务阶段的输出,提取关于任务的特征,提高模型的性能表现。本发明所提出的增量学习方法突破了传统方法的限制,能够灵活广泛地适应多种实际场景的需求,在计算机视觉领域具有重要的研究和应用价值。

Description

一种基于数据保护的图像增量学习方法
技术领域
本发明涉及计算机视觉技术和增量学习方法领域,更具体地,涉及一种基于数据保护的图像增量学习方法。
背景技术
近年来,随着深度学习和神经网络的不断发展,深度卷积神经网络已经广泛应用于解决图像识别任务。其中包括目前非常流行的AlexNet,VGGNet,ResNet等,在各类大规模的图像识别比赛中取得了出色表现,并成为许多计算机视觉相关研究和应用的基础网络架构。
训练这些包含大量参数的深度模型,通常需要大量且均衡的真实图像数据进行联合训练,从而使得复杂模型能够很好的拟合数据。在现实场景中,任务的规模通常随时间增长,而过去的训练数据由于存储有限或涉及隐私的原因,在后续的训练中不可重用。若仅使用新任务的数据训练已有的模型,将导致灾难性遗忘,即模型在过去任务上的性能会急剧下降。
而增量学习正是为了解决这一问题,从而达到在一系列的学习任务中,模型能有更为均衡的表现。近年来,相关算法的研究也取得了较大的进展,典型的包括EWC(ElasticWeight Consolidation),LwF(Learning without Forgetting),iCaRL(IncrementalClassifier and Representation Learning),EEIL(End-to-End Incremental Learning)等。其中EWC通过统计信息来衡量模型参数的重要性,通过对较为重要的参数的改变加以限制,来缓解灾难性遗忘;LwF在微调模型的基础上,首先使用了知识蒸馏来提取过去模型中的信息;iCaRL作为近期较为先进的增量学习算法,则引入了有限的内存对过去的训练数据进行选择性存储,并使用NEM(nearest-exemplars-mean)分类器进行图像识别;EEIL在iCaRL的基础上加入了数据均衡的微调训练阶段,同时改为使用全连接层的预测输出进行图像分类。
然而,基于有限内存的方法虽然表现更为出色,其适用性却受到一定的限制。在许多场景中,训练数据经过首次的模型训练后便不可重用,因此产生了一些基于生成类似过去数据来缓解灾难性遗忘的算法,但是这些生成模型本身也存在着遗忘问题。
而当前互联网上存在着大量可用的、与训练任务本身无关的数据,若对这些数据进行采样利用,在训练完毕模型后丢弃这些外部数据,便可以解决以上的问题,即不占用额外内存,同时缓解了数据的不均衡。目前国内外的相关研究还处于较为初步的阶段,本专利通过调研和实践,充分利用外部数据和模型融合进行图像的增量学习识别。
申请号为201911308607.5的专利说明书中公开了一种基于动态修正向量的图像增量学习方法,本申请鉴于实际生活中数据集都是动态变化的,为了解决深度模型对动态变化的数据集进行训练的问题,减小对分布式计算系统的依赖,并且节省大量的计算开销和系统内存,本发明提出以32层残差网络ResNet-32为基础,通过引入知识蒸馏技术和代表性记忆方法,利用动态修正向量的技巧,缓解了灾难性遗忘问题,提高了增量学习的性能。这种增量学习方法适应了实际应用场景的需求,在人工智能领域具有重要的研究和应用价值。然而,该专利无法实现充分利用外部海量图像的信息,对其进行采样并加入训练过程,来缓解新旧样本不均衡所带来的偏差和灾难性遗忘,外部数据即采即用,训练后直接丢弃,不占用存储空间。
发明内容
本发明提供一种基于数据保护的图像增量学习方法,该方法深度卷积神经网络ResNet为基础,充分利用外部海量图像的信息,对其进行采样并加入训练过程,来缓解新旧样本不均衡所带来的偏差和灾难性遗忘,外部数据即采即用,训练后直接丢弃,不占用存储空间。
为了达到上述技术效果,本发明的技术方案如下:
一种基于数据保护的图像增量学习方法,包括以下步骤:
S1:构造以ResNet网络为原型的图像特征提取器,然后添加全连接的任务预测层和图像分类层作为整体的网络架构;
S2:为每个阶段的增量数据训练单独的图像分类模型,其中图像分类损失使用交叉熵函数,任务预测损失使用均方误差函数,使用SGD优化器训练网络;
S3:对于不存储任何先前类别数据的场景,为避免灾难性遗忘和模型对于当前类别的预测偏向,使用先前模型对大量可用的外部数据进行采样;
S4:使用采样数据以及当前类别的训练数据,对新旧两个模型进行融合,使用知识蒸馏引入KL相对熵函数,训练可识别当前所有类别的模型;
S5:对于每一增量阶段,重复S2至S4步骤,评估模型时采用任务预测层和图像分类层输出结合的方式预测最终分类。
进一步地,所述步骤S1的具体过程是:
S11:根据数据集中图像的复杂程度,包括尺寸和种类等,选择不同深度的ResNet网络进行特征提取;
S12:图像通过深度的卷积层后进行平均池化,得到一个低维的实数特征向量,在其后分别添加全连接的任务预测层和图像分类层,用于预测任务阶段以及具体的图像类别。
进一步地,所述步骤S2的具体过程是:
S21:将训练集中的数据D1关于图像分类层的输出通过softmax层,即根据原始的网络输出logits之间的相对大小关系,映射为关于各类别的预测概率,使用交叉熵函数作为图像分类损失,公式如下:
Figure BDA0002620567080000031
其中x表示当前类别的输入图像,y表示对应类别0/1标签,θ为模型参数;将训练集数据及外部数据D2关于任务预测层的输出通过sigmoid函数,映射为是否为当前任务的判断概率,使用均方误差函数作为任务预测损失,公式如下:
Figure BDA0002620567080000032
其中yt表示对应任务的0/1标签,即内部的训练数据标签为1,外部采样数据标签为0;
S22:在此步骤中的外部数据随机选取OOD图像;若可选的增加置信度校准损失来训练模型,即外部数据在图像分类层的输出值越平均则损失越小,可使得模型在当前任务中的表现有小幅度提升;
S23:使用SGD优化器训练关于当前任务的图像分类模型,学习率随训练epoch的增大而逐渐降低,同时加入关于模型参数的正则化项来防止过拟合,增强模型的泛化能力。
进一步地,所述步骤S3的具体过程是:
S31:由于不存储任何过去的训练数据,为了提取已学习到的旧类别的相关知识,使用训练好的关于过去任务的模型对外部数据进行采样,在海量的外部图像中获取与每个旧类别输出相似的部分样本;
S32:在此步骤中仍随机选取一定比例的OOD图像,与S31中选取的样本共同组成外部数据训练集。
进一步地,所述步骤S4的具体过程是:
S41:将步骤S3中的外部数据与当前类别的训练数据充分混合,组成当前完整的训练数据集D3,其中外部数据集的采样数据量应与当前类别的训练数据量成一定比例,当数据量过大时,模型表现反而会下降,同时会增大训练的时间成本;
S42:将步骤S2中关于当前任务的单独模型,与关于过去任务的模型融合,使得融合后的模型能够识别已有的全部图像类型;
S43:由于训练集中只包含了关于新类的训练数据,将导致模型很容易将输入图像预测为新类别,为了缓解数据不均衡造成的预测偏差,为数据分配不同的权重,减小新类数据计算得到的梯度;
S44:使用SGD优化器训练关于当前所有任务的融合模型,学习率随训练epoch的增大而逐渐降低,其中,此步骤中模型的初始化参数继承旧模型的参数。
进一步地,所述步骤S42的过程是:
将步骤S2中关于当前任务的单独模型,与关于过去任务的模型融合,使得融合后的模型能够识别已有的全部图像类型;
首先,对新类的训练数据使用交叉熵函数得到分类损失;其次,将所有数据D3关于新/旧模型的分类层输出logits分别通过softmax层,得到关于旧类别和新类别的预测概率,作为融合后模型的“软标签”,对混合模型对应的新/旧类别输出分别通过softmax层,两个部分均使用KL散度函数进行知识蒸馏,来提取模型中过去的知识,公式如下:
Figure BDA0002620567080000041
其中
Figure BDA0002620567080000042
表示已训练好的新/旧模型的输出概率,即“软标签”;对所有数据关于新/旧模型的任务预测层输出直接合并后作为标签,对混合模型的任务预测层输出使用均方误差函数计算损失,提取关于输入图像所在任务阶段的信息。
进一步地,所述步骤S5的具体过程是:
S51:对于每个新的任务,重复S2至S4步骤,而S4中得到的融合模型在新的增量学习阶段变成旧模型;
S52:在测试阶段,输入图像通过特征提取后,将模型任务预测层的输出通过sigmoid函数,与对应任务下的分类层输出相结合,最终得到关于各类别的预测概率。
进一步地,所述步骤S23中,每个单独模型的参数均随机初始化,而非继承之前模型的参数,数据增强选择边缘填充+随机crop+随机水平翻转的方式。
其中,所述步骤S32中选取OOD图像的比例是30%;所述步骤S41中,外部数据集的采样数据量应与当前类别的训练数据量所成比例是1:1。
与现有技术相比,本发明技术方案的有益效果是:
本发明无需任何内存来存储图像,同时充分利用了与训练数据无直接关联且容易获取的海量外部数据来提取过去的知识,解决灾难性遗忘,在图像增量学习的问题中有较好的性能和表现。
附图说明
图1为本发明方法流程图。
具体实施方式
附图仅用于示例性说明,不能理解为对本专利的限制;
为了更好说明本实施例,附图某些部件会有省略、放大或缩小,并不代表实际产品的尺寸;
对于本领域技术人员来说,附图中某些公知结构及其说明可能省略是可以理解的。
下面结合附图和实施例对本发明的技术方案做进一步的说明。
如图1所示,一种基于数据保护的图像增量学习方法,包括以下步骤:
S1:构造以ResNet网络为原型的图像特征提取器,然后添加全连接的任务预测层和图像分类层作为整体的网络架构;
S2:为每个阶段的增量数据训练单独的图像分类模型,其中图像分类损失使用交叉熵函数,任务预测损失使用均方误差函数,使用SGD优化器训练网络;
S3:对于不存储任何先前类别数据的场景,为避免灾难性遗忘和模型对于当前类别的预测偏向,使用先前模型对大量可用的外部数据进行采样;
S4:使用采样数据以及当前类别的训练数据,对新旧两个模型进行融合,使用知识蒸馏引入KL相对熵函数,训练可识别当前所有类别的模型;
S5:对于每一增量阶段,重复S2至S4步骤,评估模型时采用任务预测层和图像分类层输出结合的方式预测最终分类。
步骤S1的具体过程是:
S11:根据数据集中图像的复杂程度,包括尺寸和种类等,选择不同深度的ResNet网络进行特征提取;
S12:图像通过深度的卷积层后进行平均池化,得到一个低维的实数特征向量,在其后分别添加全连接的任务预测层和图像分类层,用于预测任务阶段以及具体的图像类别。
步骤S2的具体过程是:
S21:将训练集中的数据D1关于图像分类层的输出通过softmax层,即根据原始的网络输出logits之间的相对大小关系,映射为关于各类别的预测概率,使用交叉熵函数作为图像分类损失,公式如下:
Figure BDA0002620567080000061
其中x表示当前类别的输入图像,y表示对应类别0/1标签,θ为模型参数;将训练集数据及外部数据D2关于任务预测层的输出通过sigmoid函数,映射为是否为当前任务的判断概率,使用均方误差函数作为任务预测损失,公式如下:
Figure BDA0002620567080000062
其中yt表示对应任务的0/1标签,即内部的训练数据标签为1,外部采样数据标签为0;
S22:在此步骤中的外部数据随机选取OOD图像;若可选的增加置信度校准损失来训练模型,即外部数据在图像分类层的输出值越平均则损失越小,可使得模型在当前任务中的表现有小幅度提升;
S23:使用SGD优化器训练关于当前任务的图像分类模型,学习率随训练epoch的增大而逐渐降低,同时加入关于模型参数的正则化项来防止过拟合,增强模型的泛化能力。
步骤S3的具体过程是:
S31:由于不存储任何过去的训练数据,为了提取已学习到的旧类别的相关知识,使用训练好的关于过去任务的模型对外部数据进行采样,在海量的外部图像中获取与每个旧类别输出相似的部分样本;
S32:在此步骤中仍随机选取一定比例的OOD图像,与S31中选取的样本共同组成外部数据训练集。
步骤S4的具体过程是:
S41:将步骤S3中的外部数据与当前类别的训练数据充分混合,组成当前完整的训练数据集D3,其中外部数据集的采样数据量应与当前类别的训练数据量成一定比例,当数据量过大时,模型表现反而会下降,同时会增大训练的时间成本;
S42:将步骤S2中关于当前任务的单独模型,与关于过去任务的模型融合,使得融合后的模型能够识别已有的全部图像类型;
S43:由于训练集中只包含了关于新类的训练数据,将导致模型很容易将输入图像预测为新类别,为了缓解数据不均衡造成的预测偏差,为数据分配不同的权重,减小新类数据计算得到的梯度;
S44:使用SGD优化器训练关于当前所有任务的融合模型,学习率随训练epoch的增大而逐渐降低,其中,此步骤中模型的初始化参数继承旧模型的参数。
步骤S42的过程是:
将步骤S2中关于当前任务的单独模型,与关于过去任务的模型融合,使得融合后的模型能够识别已有的全部图像类型;
首先,对新类的训练数据使用交叉熵函数得到分类损失;其次,将所有数据D3关于新/旧模型的分类层输出logits分别通过softmax层,得到关于旧类别和新类别的预测概率,作为融合后模型的“软标签”,对混合模型对应的新/旧类别输出分别通过softmax层,两个部分均使用KL散度函数进行知识蒸馏,来提取模型中过去的知识,公式如下:
Figure BDA0002620567080000071
其中
Figure BDA0002620567080000072
表示已训练好的新/旧模型的输出概率,即“软标签”;对所有数据关于新/旧模型的任务预测层输出直接合并后作为标签,对混合模型的任务预测层输出使用均方误差函数计算损失,提取关于输入图像所在任务阶段的信息。
步骤S5的具体过程是:
S51:对于每个新的任务,重复S2至S4步骤,而S4中得到的融合模型在新的增量学习阶段变成旧模型;
S52:在测试阶段,输入图像通过特征提取后,将模型任务预测层的输出通过sigmoid函数,与对应任务下的分类层输出相结合,最终得到关于各类别的预测概率。
步骤S23中,每个单独模型的参数均随机初始化,而非继承之前模型的参数,数据增强选择边缘填充+随机crop+随机水平翻转的方式。
步骤S32中选取OOD图像的比例是30%;步骤S41中,外部数据集的采样数据量应与当前类别的训练数据量所成比例是1:1。
相同或相似的标号对应相同或相似的部件;
附图中描述位置关系的用于仅用于示例性说明,不能理解为对本专利的限制;
显然,本发明的上述实施例仅仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明权利要求的保护范围之内。

Claims (10)

1.一种基于数据保护的图像增量学习方法,其特征在于,包括以下步骤:
S1:构造以ResNet网络为原型的图像特征提取器,然后添加全连接的任务预测层和图像分类层作为整体的网络架构;
S2:为每个阶段的增量数据训练单独的图像分类模型,其中图像分类损失使用交叉熵函数,任务预测损失使用均方误差函数,使用SGD优化器训练网络;
S3:对于不存储任何先前类别数据的场景,为避免灾难性遗忘和模型对于当前类别的预测偏向,使用先前模型对大量可用的外部数据进行采样;
S4:使用采样数据以及当前类别的训练数据,对新旧两个模型进行融合,使用知识蒸馏引入KL相对熵函数,训练可识别当前所有类别的模型;
S5:对于每一增量阶段,重复S2至S4步骤,评估模型时采用任务预测层和图像分类层输出结合的方式预测最终分类。
2.根据权利要求1所述的基于数据保护的图像增量学习方法,其特征在于,所述步骤S1的具体过程是:
S11:根据数据集中图像的复杂程度,包括尺寸和种类等,选择不同深度的ResNet网络进行特征提取;
S12:图像通过深度的卷积层后进行平均池化,得到一个低维的实数特征向量,在其后分别添加全连接的任务预测层和图像分类层,用于预测任务阶段以及具体的图像类别。
3.根据权利要求2所述的基于数据保护的图像增量学习方法,其特征在于,所述步骤S2的具体过程是:
S21:将训练集中的数据D1关于图像分类层的输出通过softmax层,即根据原始的网络输出logits之间的相对大小关系,映射为关于各类别的预测概率,使用交叉熵函数作为图像分类损失,公式如下:
Figure FDA0002620567070000011
其中x表示当前类别的输入图像,y表示对应类别0/1标签,θ为模型参数;将训练集数据及外部数据D2关于任务预测层的输出通过sigmoid函数,映射为是否为当前任务的判断概率,使用均方误差函数作为任务预测损失,公式如下:
Figure FDA0002620567070000021
其中yt表示对应任务的0/1标签,即内部的训练数据标签为1,外部采样数据标签为0;
S22:在此步骤中的外部数据随机选取OOD图像;若可选的增加置信度校准损失来训练模型,即外部数据在图像分类层的输出值越平均则损失越小,可使得模型在当前任务中的表现有小幅度提升;
S23:使用SGD优化器训练关于当前任务的图像分类模型,学习率随训练epoch的增大而逐渐降低,同时加入关于模型参数的正则化项来防止过拟合,增强模型的泛化能力。
4.根据权利要求3所述的基于数据保护的图像增量学习方法,其特征在于,所述步骤S3的具体过程是:
S31:由于不存储任何过去的训练数据,为了提取已学习到的旧类别的相关知识,使用训练好的关于过去任务的模型对外部数据进行采样,在海量的外部图像中获取与每个旧类别输出相似的部分样本;
S32:在此步骤中仍随机选取一定比例的OOD图像,与S31中选取的样本共同组成外部数据训练集。
5.根据权利要求4所述的基于数据保护的图像增量学习方法,其特征在于,所述步骤S4的具体过程是:
S41:将步骤S3中的外部数据与当前类别的训练数据充分混合,组成当前完整的训练数据集D3,其中外部数据集的采样数据量应与当前类别的训练数据量成一定比例,当数据量过大时,模型表现反而会下降,同时会增大训练的时间成本;
S42:将步骤S2中关于当前任务的单独模型,与关于过去任务的模型融合,使得融合后的模型能够识别已有的全部图像类型;
S43:由于训练集中只包含了关于新类的训练数据,将导致模型很容易将输入图像预测为新类别,为了缓解数据不均衡造成的预测偏差,为数据分配不同的权重,减小新类数据计算得到的梯度;
S44:使用SGD优化器训练关于当前所有任务的融合模型,学习率随训练epoch的增大而逐渐降低,其中,此步骤中模型的初始化参数继承旧模型的参数。
6.根据权利要求5所述的基于数据保护的图像增量学习方法,其特征在于,所述步骤S42的过程是:
将步骤S2中关于当前任务的单独模型,与关于过去任务的模型融合,使得融合后的模型能够识别已有的全部图像类型;
首先,对新类的训练数据使用交叉熵函数得到分类损失;其次,将所有数据D3关于新/旧模型的分类层输出logits分别通过softmax层,得到关于旧类别和新类别的预测概率,作为融合后模型的“软标签”,对混合模型对应的新/旧类别输出分别通过softmax层,两个部分均使用KL散度函数进行知识蒸馏,来提取模型中过去的知识,公式如下:
Figure FDA0002620567070000031
其中
Figure FDA0002620567070000032
表示已训练好的新/旧模型的输出概率,即“软标签”;对所有数据关于新/旧模型的任务预测层输出直接合并后作为标签,对混合模型的任务预测层输出使用均方误差函数计算损失,提取关于输入图像所在任务阶段的信息。
7.根据权利要求6所述的基于数据保护的图像增量学习方法,其特征在于,所述步骤S5的具体过程是:
S51:对于每个新的任务,重复S2至S4步骤,而S4中得到的融合模型在新的增量学习阶段变成旧模型;
S52:在测试阶段,输入图像通过特征提取后,将模型任务预测层的输出通过sigmoid函数,与对应任务下的分类层输出相结合,最终得到关于各类别的预测概率。
8.根据权利要求7所述的基于数据保护的图像增量学习方法,其特征在于,所述步骤S23中,每个单独模型的参数均随机初始化,而非继承之前模型的参数,数据增强选择边缘填充+随机crop+随机水平翻转的方式。
9.根据权利要求8所述的基于数据保护的图像增量学习方法,其特征在于,所述步骤S32中选取OOD图像的比例是30%。
10.根据权利要求9所述的基于数据保护的图像增量学习方法,其特征在于,所述步骤S41中,外部数据集的采样数据量应与当前类别的训练数据量所成比例是1:1。
CN202010781900.XA 2020-08-06 2020-08-06 一种基于数据保护的图像增量学习方法 Active CN112115967B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010781900.XA CN112115967B (zh) 2020-08-06 2020-08-06 一种基于数据保护的图像增量学习方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010781900.XA CN112115967B (zh) 2020-08-06 2020-08-06 一种基于数据保护的图像增量学习方法

Publications (2)

Publication Number Publication Date
CN112115967A true CN112115967A (zh) 2020-12-22
CN112115967B CN112115967B (zh) 2023-08-01

Family

ID=73799460

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010781900.XA Active CN112115967B (zh) 2020-08-06 2020-08-06 一种基于数据保护的图像增量学习方法

Country Status (1)

Country Link
CN (1) CN112115967B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113139487A (zh) * 2021-04-29 2021-07-20 中国地质大学(武汉) 一种面向遥感影像增量数据的建筑物特征学习方法
CN113139536A (zh) * 2021-05-12 2021-07-20 哈尔滨工业大学(威海) 一种基于跨域元学习的文本验证码识别方法、设备及存储介质
CN113222014A (zh) * 2021-05-12 2021-08-06 深圳思谋信息科技有限公司 图像分类模型训练方法、装置、计算机设备和存储介质
CN116306875A (zh) * 2023-05-18 2023-06-23 成都理工大学 基于空间预学习与拟合的排水管网样本增量学习方法
CN117493889A (zh) * 2023-12-27 2024-02-02 中国科学院自动化研究所 增量式持续学习方法、装置、存储介质和电子设备

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102789593A (zh) * 2012-06-18 2012-11-21 北京大学 基于增量式ghsom神经网络的入侵检测方法
CN103984955A (zh) * 2014-04-23 2014-08-13 浙江工商大学 基于显著性特征和迁移增量学习的多摄像机目标识别方法
CN105718355A (zh) * 2016-01-21 2016-06-29 中国人民解放军国防科学技术大学 基于在线学习的超级计算机结点故障主动容错方法
CN109492765A (zh) * 2018-11-01 2019-03-19 浙江工业大学 一种基于迁移模型的图像增量学习方法
CN109543838A (zh) * 2018-11-01 2019-03-29 浙江工业大学 一种基于变分自编码器的图像增量学习方法
CN111199242A (zh) * 2019-12-18 2020-05-26 浙江工业大学 一种基于动态修正向量的图像增量学习方法
CN111210000A (zh) * 2019-12-18 2020-05-29 浙江工业大学 一种基于固定特征的调制信号增量学习方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102789593A (zh) * 2012-06-18 2012-11-21 北京大学 基于增量式ghsom神经网络的入侵检测方法
CN103984955A (zh) * 2014-04-23 2014-08-13 浙江工商大学 基于显著性特征和迁移增量学习的多摄像机目标识别方法
CN105718355A (zh) * 2016-01-21 2016-06-29 中国人民解放军国防科学技术大学 基于在线学习的超级计算机结点故障主动容错方法
CN109492765A (zh) * 2018-11-01 2019-03-19 浙江工业大学 一种基于迁移模型的图像增量学习方法
CN109543838A (zh) * 2018-11-01 2019-03-29 浙江工业大学 一种基于变分自编码器的图像增量学习方法
CN111199242A (zh) * 2019-12-18 2020-05-26 浙江工业大学 一种基于动态修正向量的图像增量学习方法
CN111210000A (zh) * 2019-12-18 2020-05-29 浙江工业大学 一种基于固定特征的调制信号增量学习方法

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113139487A (zh) * 2021-04-29 2021-07-20 中国地质大学(武汉) 一种面向遥感影像增量数据的建筑物特征学习方法
CN113139536A (zh) * 2021-05-12 2021-07-20 哈尔滨工业大学(威海) 一种基于跨域元学习的文本验证码识别方法、设备及存储介质
CN113222014A (zh) * 2021-05-12 2021-08-06 深圳思谋信息科技有限公司 图像分类模型训练方法、装置、计算机设备和存储介质
CN116306875A (zh) * 2023-05-18 2023-06-23 成都理工大学 基于空间预学习与拟合的排水管网样本增量学习方法
CN117493889A (zh) * 2023-12-27 2024-02-02 中国科学院自动化研究所 增量式持续学习方法、装置、存储介质和电子设备

Also Published As

Publication number Publication date
CN112115967B (zh) 2023-08-01

Similar Documents

Publication Publication Date Title
CN109949317B (zh) 基于逐步对抗学习的半监督图像实例分割方法
CN112115967B (zh) 一种基于数据保护的图像增量学习方法
CN109523463B (zh) 一种基于条件生成对抗网络的人脸老化方法
CN112446423B (zh) 一种基于迁移学习的快速混合高阶注意力域对抗网络的方法
CN112347970B (zh) 一种基于图卷积神经网络的遥感影像地物识别方法
CN111126488A (zh) 一种基于双重注意力的图像识别方法
CN114332578A (zh) 图像异常检测模型训练方法、图像异常检测方法和装置
CN112464004A (zh) 一种多视角深度生成图像聚类方法
CN116311483B (zh) 基于局部面部区域重构和记忆对比学习的微表情识别方法
CN113128600A (zh) 一种结构化深度非完整多视角聚类方法
CN111178543B (zh) 一种基于元学习的概率域泛化学习方法
CN114299362A (zh) 一种基于k-means聚类的小样本图像分类方法
CN114998602A (zh) 基于低置信度样本对比损失的域适应学习方法及系统
CN116229170A (zh) 基于任务迁移的联邦无监督图像分类模型训练方法、分类方法及设备
CN114723011A (zh) 一种面向动态图链接预测的高阶时序超图卷积网络运行方法
CN114723037A (zh) 一种聚合高阶邻居节点的异构图神经网络计算方法
CN112528077B (zh) 基于视频嵌入的视频人脸检索方法及系统
CN116523877A (zh) 一种基于卷积神经网络的脑mri图像肿瘤块分割方法
CN114495114B (zh) 基于ctc解码器的文本序列识别模型校准方法
CN111160124A (zh) 一种基于知识重组的深度模型定制方法
CN115063374A (zh) 模型训练、人脸图像质量评分方法、电子设备及存储介质
CN114202694A (zh) 基于流形混合插值和对比学习的小样本遥感场景图像分类方法
CN117093733A (zh) 媒体分类模型的训练方法、媒体数据分类方法和装置
CN114218850A (zh) 一种异构多关系图表示学习方法
CN113360772A (zh) 一种可解释性推荐模型训练方法与装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant