CN114677547A - 一种基于自保持表征扩展的类增量学习的图像分类方法 - Google Patents
一种基于自保持表征扩展的类增量学习的图像分类方法 Download PDFInfo
- Publication number
- CN114677547A CN114677547A CN202210363652.6A CN202210363652A CN114677547A CN 114677547 A CN114677547 A CN 114677547A CN 202210363652 A CN202210363652 A CN 202210363652A CN 114677547 A CN114677547 A CN 114677547A
- Authority
- CN
- China
- Prior art keywords
- stage
- network
- image
- class
- classification
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 38
- 238000000605 extraction Methods 0.000 claims abstract description 42
- 238000004821 distillation Methods 0.000 claims abstract description 20
- 230000003321 amplification Effects 0.000 claims abstract description 19
- 238000003199 nucleic acid amplification method Methods 0.000 claims abstract description 19
- 230000006870 function Effects 0.000 claims abstract description 15
- 238000012512 characterization method Methods 0.000 claims abstract description 11
- 238000005457 optimization Methods 0.000 claims description 33
- 238000012549 training Methods 0.000 claims description 25
- 238000005259 measurement Methods 0.000 claims description 17
- 238000010606 normalization Methods 0.000 claims description 13
- 238000012545 processing Methods 0.000 claims description 13
- 238000012360 testing method Methods 0.000 claims description 10
- 238000013135 deep learning Methods 0.000 claims description 9
- 230000004913 activation Effects 0.000 claims description 6
- 238000004321 preservation Methods 0.000 claims description 6
- 239000011541 reaction mixture Substances 0.000 claims description 6
- 239000000126 substance Substances 0.000 claims description 6
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 claims description 4
- 238000005070 sampling Methods 0.000 claims description 4
- 238000012935 Averaging Methods 0.000 claims description 3
- 238000012952 Resampling Methods 0.000 claims description 3
- 238000004364 calculation method Methods 0.000 claims description 3
- 230000004044 response Effects 0.000 claims description 3
- 230000009286 beneficial effect Effects 0.000 description 4
- 230000003416 augmentation Effects 0.000 description 3
- 238000011160 research Methods 0.000 description 2
- 238000011524 similarity measure Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000013145 classification model Methods 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于自保持表征扩展的类增量学习的图像分类方法,包括:1、利用初始图片集优化得到基本的图像分类网络;2、基于残差适应器,对初始特征提取部分进行结构扩展;3、输入重采样的初始类原型和增量类样本,计算扩展后网络的分类损失函数;4、将增量类样本输入扩展前的特征提取部分,利用欧式距离计算蒸馏损失函数。5、根据损失函数更新网络,并引入结构重参数化技术恢复网络结构,获得增量后的分类网络。本发明能解决图像分类网络基于用户数据进行结构扩增过程中参数量增长过快,以及依赖额外记忆内存的问题,从而在提升图像增量分类能力的同时,降低了对网络存储的需求,避免了训练图像增量分类网络时泄露用户隐私的可能。
Description
技术领域
本发明属于类增量学习领域,具体来说是一种基于自保持表征扩展的类增量学习的图像分类方法。
背景技术
近年来,由于深度神经网络在完全监督的条件下取得了巨大的进步,研究的注意力越来越多地转向学习的其他方面。一个重要的研究方面是随着输入流的更新而不断学习新任务的能力,其在实际应用中经常发生。类增量学习是持续学习中十分具有挑战性的任务,已吸引了诸多学者的关注。该任务旨在不遗忘已学习过的旧类知识条件下,准确识别新的类别。
针对该场景,在每个阶段重新联合训练新、旧两类样本特别费时、费力。此外,旧类样本存在不可完全获取的状况,进一步阻碍了该方法的使用。一个简单的替代方法是使用新类对网络进行微调,然而,这将导致灾难性的遗忘问题。即在优化过程中,整个表征和分类器会偏向于新的类别,导致旧有类别性能的急剧下降。为了处理上述问题,一些工作开始尝试通过保留一些有代表性的样本和引入各种蒸馏损失以维持过去的知识,并通过校准分类器纠正由数量不平衡引起的偏差问题。
最近的类增量方法大致可以划分为两类:基于记忆保存和结构动态扩增的方法。前者假定内存中能够存储一定数量(比如2,000个)的旧类样本,通过对齐所有样本在新旧网络中的特征或输出分布,以及修正新旧类数据的数目的不平衡来共同维持旧类的分类性能。然而在图像分类网络的实际场景中,由于用户隐私或设备限制,通常很难存在保存旧类图片样本的机会。该事实给基于记忆保存的方法带来了巨大的挑战,新类别图像样本是可以参与特征对齐和新旧类不平衡修正过程的唯一数据源。因此,如果在无记忆存储环境下合理的保证增量图像分类性能是类增量方法泛化到实际场景的一个核心问题。
后者基于动态结构扩增的方法旨在保留旧的图像分类模型用于推理,而在每个增量阶段根据扩增类别的需求,扩展一个新的特征提取部分训练。虽然该策略能完全保持旧类的性能,表现出不错的性能,但在训练过程中,网络整体参数随阶段性训练而急剧线性增加。而在图像分类网络的实际应用场景中,用户的新增图片数据随时间爆发式增长,这将导致现有基于动态结构扩增的模型容量完全崩溃。因此,如何保证增量模型的参数扩增满足日益增长的用户需求是类增量方法泛化到实际场景的另一个核心问题。
发明内容
本发明是为了解决上述现有技术存在的不足之处,提出一种基于自保持表征扩展的类增量学习的图像分类方法,以期能将图像分类网络的结构扩增建模为无记忆存储过程,保持网络参数不扩增,从而能在提升增量模型在无记忆存储情况下的图像分类性能的同时,降低对网络存储的需求,避免训练图像增量分类网络时泄露用户隐私的可能。
本发明为达到上述发明目的,采用如下技术方案:
本发明一种基于自保持表征扩展的类增量学习的图像分类方法的特点在于,包括如下步骤:
步骤一、初始分类网络的构建和优化:
步骤1.1、获取初始阶段已知类别的图像样本并进行归一化处理,获得第一阶段的图像集其中,表示初始阶段第k个类别中的第i个图像样本,表示初始阶段第k个类别中的第i个图像样本的类别标签,K代表图像集包含的类别数目,Nk代表第k个类别的样本数目;
步骤1.2、构建以ResNet-18深度学习网络为基础的初始分类网络F:
所述ResNet-18深度学习网络包括5个阶段,其中,第1个阶段Stage 0由一个卷积核为n1×n1的卷积层,一个批量归一化处理层,一个ReLU激活函数层组成,其余4个阶段均由2个Basicblock模块组成,每个Basicblock模块依次由一个卷积核为n2×n2的卷积层,一个ReLU激活函数层,一个卷积核为n2×n2的卷积层组成;
将所述ResNet-18深度学习网络直接作为初始分类网络F的特征提取部分f;并用一个全连接层作为初始分类网络F的分类器部分g;
步骤1.3、训练优化所述初始分类网络F:
将第一阶段的图像集D1按批次送入初始分类网络F,并依次经过特征提取部分f和分类器部分g的处理后,输出预测类别标签,从而按照式(1)计算交叉熵损失Lcross,并使用梯度下降算法优化所述初始分类网络F中所有的参数,从而得到训练好的初始分类网络F′:
步骤1.4、原型保存:
对于训练好的初始分类网络F′,将第一阶段的图像集D1逐类别送入训练后的特征提取部分f′,并对各个类别的输出取平均后,将平均结果作为各类原型{p1,…,pk,…,pK}保存到增量阶段;pk表示第k类原型;
步骤二、增量阶段的特征提取器结构扩展:
步骤2.1、获取增量阶段中第h阶段的图像样本并进行归一化处理,得到第h阶段的图像集其中,表示第h阶段第k个类别中的第i个图像样本,表示第h阶段第k个类别中的第i个图像样本的类别标签,Kh为第h阶段新增的图像类别数目,且Dh和其余h-1阶段的图像集中所有类别均不相同;
步骤2.2、网络的增量结构扩展:
在所述训练后的特征提取部分f′中的每个卷积层上均并联一个残差适应器,所述残差适应器包括一个n3×n3卷积层,构成第h阶段的增量扩增的特征提取部分fh;
在训练后的分类器部分g′的全连接层中添加Kh个输出结点,构成第h阶段的增量扩增的分类器部分gh,从而与fh一起构成第h阶段的增量扩增网络Fh;
步骤三、基于原型选择策略的表征优化:
步骤3.1、原型度量:
将第h阶段的图像集Dh中的图像依次送入到第h阶段的增量扩增的特征提取部分fh中,并利用式(2)得到每个图像样本的特征表达;再利用式(3)计算每个图像样本的特征表达分别与保存的各个原型之间的相似性得分,并取一个图像样本中所有相似性得分的最大值作为相应图像样本的相似性度量:
式(2)和式(3)中,代表第h阶段图像集Dh中的第j个图像样本在增量扩增的特征提取部分fh中的特征表示,pk代表保存的第k个类别的原型,Sj,k,h代表第h阶段图像集Dh中的第j个图像样本与第k个类别的原型pk之间相似性得分,Cosine代表夹角余弦操作子,Nor代表归一化操作子;
步骤3.2、选择性分类优化;
设定阈值δ,并将各个图像样本的相似性度量与阈值δ比较,若低于阈值δ,则将相应图像样本的分类权值参数置为1,反之,则置为0;
步骤3.3、选择性蒸馏优化;
将各个图像样本的相似性度量与所述阈值δ比较,若高于阈值δ,则将相应图像样本的蒸馏权值参数置为1,反之,则置为0;
步骤四、基于原型重采样的分类器平衡:
步骤4.1、原型上采样:
步骤4.2、分类器损失增强:
式(6)中,pk代表保存的第k个类别的原型;
步骤五、基于重参数化的特征提取器结构融合:
步骤5.1、联合优化:
步骤5.2、结构重参数化:
将所述最优的增量分类网络中的残差适应器的n3×n3卷积核按照特征提取部分的卷积核n1×n1或者n2×n2尺度进行补“0”后加到特征提取部分的相应卷积核上,作为新的特征提取部分的卷积参数;最后,将残差适应器删除后,得到第h阶段最终融合后的增量分类网络F′h;
步骤六、增量阶段分类过程:
将任意的测试图像xtest输入到最终融合后的增量分类网络中,并利用式(7)得到第一到第h阶段所有类别的响应得分Score,再利用argmax函数计算各个类别的相应得分数值最大的分量的索引值并作为最终的分类结果:
Score=g′h(f′h(xtest)) (7)
式(7)中,f′h和g′h为最终融合后的第h阶段的增量分类网络F′h中的特征提取网络和分类器网络。
与现有技术相比,本发明的有益效果在于:
1、本发明将动态扩增和重参数化策略相结合,设计成图像分类网络的特征提取部分增量扩展的解决方案,形成了结构参数不变的增量模型,同时在增量阶段采用基于原型选择的表征优化策略,更充分的提取增量图像样本的分类辨别特征和蒸馏不变特征,从而提升了模型的整体增量分类水平。
2、本发明在网络动态扩增过程中采用残差适应器结构,在保证初始特征不变的前提下完成增量阶段图像集的分类优化,同时在优化后采用结构重参数化技术将残差适应器融入初始网络,解决了优化前后的网络结构不一致问题,从而降低对增量模型参数量的需求。
3、本发明在增量阶段的训练过程中采用基于原型选择的表征优化策略,结合原型度量和原型上采样判断增量阶段图像的相似性得分,这样可以解决无记忆存储的情况下增量训练过程不稳定的问题,从降低了对于增量模型储存容量的需求。
附图说明
图1为本发明总体流程图。
具体实施方式
本实施例中,一种基于自保持表征扩展的类增量学习的图像分类方法的流程如图1所示,具体来说,是按如下步骤进行:
步骤一、初始分类网络的构建和优化:
步骤1.1、获取初始阶段已知类别的图像样本并进行归一化处理,获得第一阶段的图像集其中,表示初始阶段第k个类别中的第i个图像样本,表示初始阶段第k个类别中的第i个图像样本的类别标签,K代表图像集包含的类别数目,Nk代表第k个类别的样本数目;在本实施中,K=50,Nk=500。
步骤1.2、构建以ResNet-18深度学习网络为基础的初始分类网络F:
ResNet-18深度学习网络包括5个阶段,其中,第1个阶段Stage 0由一个卷积核为n1×n1的卷积层,一个批量归一化处理层,一个ReLU激活函数层组成,其余4个阶段均由2个Basicblock模块组成,每个Basicblock模块依次由一个卷积核为n2×n2的卷积层,一个ReLU激活函数层,一个卷积核为n2×n2的卷积层组成;
将ResNet-18深度学习网络直接作为初始分类网络F的特征提取部分f;并用一个全连接层作为初始分类网络F的分类器部分g;
步骤1.3、训练优化初始分类网络F:
将第一阶段的图像集D1按批次送入初始分类网络F,并依次经过特征提取部分f和分类器部分g的处理后,输出预测类别标签,从而按照式(1)计算交叉熵损失Lcross,并使用梯度下降算法优化初始分类网络F中所有的参数,从而得到训练好的初始分类网络F′:
式(1)中,xj表示第一阶段的图像集中的第j个样本,表示第j个图像样本的指示函数,若xj的类别标签yj与k相等,则令值为1,否则令为0,N代表K个类别所有样本的数目;在本实施中,采用基于Adam优化器,学习率为0.001的梯度下降优化策略,训练周期为100,网络初始化方式采用恺明初始化。
步骤1.4、原型保存:
对于训练好的初始分类网络F′,将第一阶段的图像集D1逐类别送入训练后的特征提取部分f′,并对各个类别的输出取平均后,将平均结果作为各类原型{p1,…,pk,…,pK}保存到增量阶段;pk表示第k类原型;原型作为样本在深度表征空间的平均,并不会泄露有关样本的隐私,且每个类别仅保存一个原型,存储量增加忽略不计。
步骤二、增量阶段的特征提取器结构扩展:
步骤2.1、获取增量阶段中第h阶段的图像样本并进行归一化处理,得到第h阶段的图像集其中,表示第h阶段第k个类别中的第i个图像样本,表示第h阶段第k个类别中的第i个图像样本的类别标签,Kh为第h阶段新增的图像类别数目,且Dh和其余h-1阶段的图像集{D1,…Dh-1}中所有类别均不相同;;在本实施中,Kh=5,Nk=500。
步骤2.2、网络的增量结构扩展:
在训练后的特征提取部分f′中的每个卷积层上均并联一个残差适应器,残差适应器包括一个n3×n3卷积层,构成第h阶段的增量扩增的特征提取部分fh;
在训练后的分类器部分g′的全连接层中添加Kh个输出结点,构成第h阶段的增量扩增的分类器部分gh,从而与fh一起构成第h阶段的增量扩增网络Fh;在本实施中,n3=1。残差适应器以Residual网络形式连接,即其输出将加到并联的卷积层输出中,不会增加网络各个节点的特征维度。
步骤三、基于原型选择策略的表征优化:
由于增量阶段的训练集均为新类别的样本,交叉熵损失将只关注有利于识别新类别的特征,蒸馏方法仅关注与新类相关特征的保持,两者都会加速遗忘旧类别的代表性特征。而基于原型的选择策略则细化训练样本对于各个优化目标的作用,显著提升有限条件训练过程中的样本利用率。
步骤3.1、原型度量:
将第h阶段的图像集Dh中的图像依次送入到第h阶段的增量扩增的特征提取部分fh中,并利用式(2)得到每个图像样本的特征表达;再利用式(3)计算每个图像样本的特征表达分别与保存的各个原型之间的相似性得分,并取一个图像样本中所有相似性得分的最大值作为相应图像样本的相似性度量:
式(2)和式(3)中,弋表第h阶段图像集Dh中的第j个图像样本在增量扩增的特征提取部分fh中的特征表示,pk代表保存的第k个类别的原型,Sj,k,h代表第h阶段图像集Dh中的第j个图像样本与第k个类别的原型之间相似性得分,Cosine代表夹角余弦操作子,Nor代表归一化操作子;
步骤3.2、选择性分类优化:
设定阈值δ,并将各个图像样本的相似性度量与阈值δ比较,若低于阈值δ,则证明该样本与旧类特征差异较大,有利于新类特征的辨别性优化训练。将相应图像样本的分类权值参数置为1,反之,则置为0;
步骤3.3、选择性蒸馏优化:
蒸馏过程由模型压缩领域引入,试图通过最小化新旧模型在特征提取层的输出,以实现模型在不同训练阶段保持其重要可学习参数不变。
将各个图像样本的相似性度量与阈值δ比较,若高于阈值δ,则证明该样本与旧类特征的差异较小,有利于旧类特征的保持。将相应图像样本的蒸馏权值参数置为1,反之,则置为0;
步骤四、基于原型重采样的分类器平衡:
步骤4.1、原型上采样:
步骤4.2、分类器损失增强:
式(6)中,pk代表保存的第k个类别的原型;
步骤五、基于重参数化的特征提取器结构融合:
步骤5.1、联合优化:
基于第h阶段的图像集Dh,利用Adam优化策略对增量扩增网络Fh进行训练优化,并计算损失函数和从而更新网络参数,直到迭代次数达到设定的次数或损失误差达小于所设定的阈值时,停止训练;优化过程中该方法会固定特征提取网络中主支网络的参数,优化梯度只通过残差适应器传播,以更新最具辨识度的位置,同时保持旧的特征。新的分类器会全程参与优化更新过程,但其参数值使用上一阶段旧的分类器的参数值作为初始值,以提升优化效率和泛化性。
步骤5.2、结构重参数化:
结构重参数化前、后网络任意模块的输入、输出都不会改变,即在测试阶段不会影响模型的性能。在训练过程中通过拆分卷积为小卷积核,使用批量归一化处理层等多种操作算子进行串并联,能够改变优化流的走向和梯度更新的难易程度,从而极大地提升优化效率和性能。
将最优的增量分类网络中的残差适应器的n3×n3卷积核按照特征提取部分的卷积核n1×n1或者n2×n2尺度进行补“0”后加到特征提取部分的相应卷积核上,作为新的特征提取部分的卷积参数;最后,将残差适应器删除后,得到第h阶段最终融合后的增量分类网络F′h;在本实施中,n1=7,n2=3,n3=1。
步骤六、增量阶段分类过程:
将任意的测试图像xtest输入到最终融合后的增量分类网络中,并利用式(7)得到第一到第h阶段所有类别的响应得分Score,再利用argmax函数计算各个类别的相应得分数值最大的分量的索引值并作为最终的分类结果:
Score=g′h(f′h(xtest)) (7)
式(7)中,f′h和g′h为最终融合后的增量分类网络F′h中的特征提取网络和分类器网络。
Claims (1)
1.一种基于自保持表征扩展的类增量学习的图像分类方法,其特征在于,包括如下步骤:
步骤一、初始分类网络的构建和优化:
步骤1.1、获取初始阶段已知类别的图像样本并进行归一化处理,获得第一阶段的图像集其中,表示初始阶段第k个类别中的第i个图像样本,表示初始阶段第k个类别中的第i个图像样本的类别标签,K代表图像集包含的类别数目,Nk代表第k个类别的样本数目;
步骤1.2、构建以ResNet-18深度学习网络为基础的初始分类网络F:
所述ResNet-18深度学习网络包括5个阶段,其中,第1个阶段Stage 0由一个卷积核为n1×n1的卷积层,一个批量归一化处理层,一个ReLU激活函数层组成,其余4个阶段均由2个Basicblock模块组成,每个Basicblock模块依次由一个卷积核为n2×n2的卷积层,一个ReLU激活函数层,一个卷积核为n2×n2的卷积层组成;
将所述ResNet-18深度学习网络直接作为初始分类网络F的特征提取部分f;并用一个全连接层作为初始分类网络F的分类器部分g;
步骤1.3、训练优化所述初始分类网络F:
将第一阶段的图像集D1按批次送入初始分类网络F,并依次经过特征提取部分f和分类器部分g的处理后,输出预测类别标签,从而按照式(1)计算交叉熵损失Lcross,并使用梯度下降算法优化所述初始分类网络F中所有的参数,从而得到训练好的初始分类网络F':
步骤1.4、原型保存:
对于训练好的初始分类网络F',将第一阶段的图像集D1逐类别送入训练后的特征提取部分f',并对各个类别的输出取平均后,将平均结果作为各类原型{p1,…,pk,…,pk}保存到增量阶段;pk表示第k类原型;
步骤二、增量阶段的特征提取器结构扩展:
步骤2.1、获取增量阶段中第h阶段的图像样本并进行归一化处理,得到第h阶段的图像集其中,表示第h阶段第k个类别中的第i个图像样本,表示第h阶段第k个类别中的第i个图像样本的类别标签,Kh为第h阶段新增的图像类别数目,且Dh和其余h-1阶段的图像集中所有类别均不相同;
步骤2.2、网络的增量结构扩展:
在所述训练后的特征提取部分f'中的每个卷积层上均并联一个残差适应器,所述残差适应器包括一个n3×n3卷积层,构成第h阶段的增量扩增的特征提取部分fh;
在训练后的分类器部分g'的全连接层中添加Kh个输出结点,构成第h阶段的增量扩增的分类器部分gh,从而与fh一起构成第h阶段的增量扩增网络Fh;
步骤三、基于原型选择策略的表征优化:
步骤3.1、原型度量:
将第h阶段的图像集Dh中的图像依次送入到第h阶段的增量扩增的特征提取部分fh中,并利用式(2)得到每个图像样本的特征表达;再利用式(3)计算每个图像样本的特征表达分别与保存的各个原型之间的相似性得分,并取一个图像样本中所有相似性得分的最大值作为相应图像样本的相似性度量:
式(2)和式(3)中,代表第h阶段图像集Dh中的第j个图像样本在增量扩增的特征提取部分fh中的特征表示,pk代表保存的第k个类别的原型,Sj,k,h代表第h阶段图像集Dh中的第j个图像样本与第k个类别的原型pk之间相似性得分,Cosine代表夹角余弦操作子,Nor代表归一化操作子;
步骤3.2、选择性分类优化;
设定阈值δ,并将各个图像样本的相似性度量与阈值δ比较,若低于阈值δ,则将相应图像样本的分类权值参数置为1,反之,则置为0;
步骤3.3、选择性蒸馏优化;
将各个图像样本的相似性度量与所述阈值δ比较,若高于阈值δ,则将相应图像样本的蒸馏权值参数置为1,反之,则置为0;
步骤四、基于原型重采样的分类器平衡:
步骤4.1、原型上采样:
步骤4.2、分类器损失增强:
式(6)中,pk代表保存的第k个类别的原型;
步骤五、基于重参数化的特征提取器结构融合:
步骤5.1、联合优化:
步骤5.2、结构重参数化:
将所述最优的增量分类网络中的残差适应器的n3×n3卷积核按照特征提取部分的卷积核n1×n1或者n2×n2尺度进行补“0”后加到特征提取部分的相应卷积核上,作为新的特征提取部分的卷积参数;最后,将残差适应器删除后,得到第h阶段最终融合后的增量分类网络F'h;
步骤六、增量阶段分类过程:
将任意的测试图像xtest输入到最终融合后的增量分类网络中,并利用式(7)得到第一到第h阶段所有类别的响应得分Score,再利用argmax函数计算各个类别的相应得分数值最大的分量的索引值并作为最终的分类结果:
Score=g'h(f'h(xtest)) (7)
式(7)中,f'h和g'h为最终融合后的第h阶段的增量分类网络F'h中的特征提取网络和分类器网络。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210363652.6A CN114677547B (zh) | 2022-04-07 | 2022-04-07 | 一种基于自保持表征扩展的类增量学习的图像分类方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210363652.6A CN114677547B (zh) | 2022-04-07 | 2022-04-07 | 一种基于自保持表征扩展的类增量学习的图像分类方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114677547A true CN114677547A (zh) | 2022-06-28 |
CN114677547B CN114677547B (zh) | 2024-03-29 |
Family
ID=82078179
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210363652.6A Active CN114677547B (zh) | 2022-04-07 | 2022-04-07 | 一种基于自保持表征扩展的类增量学习的图像分类方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114677547B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116089883A (zh) * | 2023-01-30 | 2023-05-09 | 北京邮电大学 | 用于提高已有类别增量学习新旧类别区分度的训练方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20200175384A1 (en) * | 2018-11-30 | 2020-06-04 | Samsung Electronics Co., Ltd. | System and method for incremental learning |
CN111368874A (zh) * | 2020-01-23 | 2020-07-03 | 天津大学 | 一种基于单分类技术的图像类别增量学习方法 |
CN112990280A (zh) * | 2021-03-01 | 2021-06-18 | 华南理工大学 | 面向图像大数据的类增量分类方法、系统、装置及介质 |
-
2022
- 2022-04-07 CN CN202210363652.6A patent/CN114677547B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20200175384A1 (en) * | 2018-11-30 | 2020-06-04 | Samsung Electronics Co., Ltd. | System and method for incremental learning |
CN111368874A (zh) * | 2020-01-23 | 2020-07-03 | 天津大学 | 一种基于单分类技术的图像类别增量学习方法 |
CN112990280A (zh) * | 2021-03-01 | 2021-06-18 | 华南理工大学 | 面向图像大数据的类增量分类方法、系统、装置及介质 |
Non-Patent Citations (3)
Title |
---|
HANBIN ZHAO COLLEGE OF COMPUTER SCIENCE AND TECHNOLOGY, ZHEJIANG UNIVERSITY, HANGZHOU, CHINA等: "Memory-Efficient Class-Incremental Learning for Image Classification", IEEE TRANSACTIONS ON NEURAL NETWORKS AND LEARNING SYSTEMS, 3 May 2021 (2021-05-03) * |
KAI ZHU等: "Self-Promoted Prototype Refinement for Few-Shot Class-Incremental Learning", 2021 IEEE/CVF CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION (CVPR), 2 November 2021 (2021-11-02) * |
吴刚;朱勇;苏守宝;莫晓晖;: "嵌入DCNN深度特征与半监督学习的梯度提升决策算法", 金陵科技学院学报, no. 03, 30 September 2020 (2020-09-30) * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116089883A (zh) * | 2023-01-30 | 2023-05-09 | 北京邮电大学 | 用于提高已有类别增量学习新旧类别区分度的训练方法 |
CN116089883B (zh) * | 2023-01-30 | 2023-12-19 | 北京邮电大学 | 用于提高已有类别增量学习新旧类别区分度的训练方法 |
Also Published As
Publication number | Publication date |
---|---|
CN114677547B (zh) | 2024-03-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110807154B (zh) | 一种基于混合深度学习模型的推荐方法与系统 | |
US8239336B2 (en) | Data processing using restricted boltzmann machines | |
CN105975573B (zh) | 一种基于knn的文本分类方法 | |
TWI689871B (zh) | 梯度提升決策樹(gbdt)模型的特徵解釋方法和裝置 | |
CN103838836B (zh) | 基于判别式多模态深度置信网多模态数据融合方法和系统 | |
CN112765312B (zh) | 一种基于图神经网络嵌入匹配的知识图谱问答方法和系统 | |
WO2023197613A1 (zh) | 一种小样本微调方法、系统及相关装置 | |
WO2024011814A1 (zh) | 一种图文互检方法、系统、设备及非易失性可读存储介质 | |
CN108399268B (zh) | 一种基于博弈论的增量式异构图聚类方法 | |
WO2020125404A1 (zh) | 构建神经网络的方法、装置和计算机可读介质 | |
CN111200141B (zh) | 基于深度信念网络的质子交换膜燃料电池性能预测及寻优方法 | |
CN108154156B (zh) | 基于神经主题模型的图像集成分类方法及装置 | |
Robbes et al. | Leveraging small software engineering data sets with pre-trained neural networks | |
CN114610900A (zh) | 知识图谱补全方法及系统 | |
CN106339718A (zh) | 一种基于神经网络的分类方法及装置 | |
CN115809340A (zh) | 一种知识图谱的实体更新方法及系统 | |
CN114064627A (zh) | 一种针对多重关系的知识图谱链接补全方法及系统 | |
CN114677547A (zh) | 一种基于自保持表征扩展的类增量学习的图像分类方法 | |
CN108536844B (zh) | 一种文本增强的网络表示学习方法 | |
CN113157919A (zh) | 语句文本方面级情感分类方法及系统 | |
CN115879547A (zh) | 基于lstm和注意力机制的开放世界知识图谱补全方法及系统 | |
CN116883545A (zh) | 基于扩散模型的图片数据集扩充方法、介质及设备 | |
CN114780723A (zh) | 基于向导网络文本分类的画像生成方法、系统和介质 | |
CN111563180A (zh) | 一种基于深度哈希方法的商标图像检索方法 | |
CN114757175A (zh) | 一种基于融合列空洞卷积的《标准》内容关键词识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |