CN117456267A - 一种基于相似原型回放的类增量学习方法 - Google Patents
一种基于相似原型回放的类增量学习方法 Download PDFInfo
- Publication number
- CN117456267A CN117456267A CN202311536838.8A CN202311536838A CN117456267A CN 117456267 A CN117456267 A CN 117456267A CN 202311536838 A CN202311536838 A CN 202311536838A CN 117456267 A CN117456267 A CN 117456267A
- Authority
- CN
- China
- Prior art keywords
- class
- prototype
- similarity
- playback
- new
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 51
- 238000012549 training Methods 0.000 claims abstract description 15
- 238000010606 normalization Methods 0.000 claims abstract description 5
- 230000009286 beneficial effect Effects 0.000 claims abstract description 4
- 239000013598 vector Substances 0.000 claims description 37
- 230000006870 function Effects 0.000 claims description 25
- 238000009826 distribution Methods 0.000 claims description 15
- 239000011159 matrix material Substances 0.000 claims description 6
- 238000013528 artificial neural network Methods 0.000 claims description 5
- 230000006399 behavior Effects 0.000 claims description 5
- 238000004321 preservation Methods 0.000 claims description 5
- 238000013507 mapping Methods 0.000 claims description 4
- 238000013140 knowledge distillation Methods 0.000 claims description 3
- 239000000284 extract Substances 0.000 claims 1
- 230000000694 effects Effects 0.000 abstract 1
- 241000282472 Canis lupus familiaris Species 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000002708 enhancing effect Effects 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 241000282326 Felis catus Species 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 206010027175 memory impairment Diseases 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
Abstract
本发明提出了一种基于相似原型回放的类增量学习方法,在解决增量学习中的灾难性遗忘问题的同时用旧知识来辅助学习新任务。该方法包括S1.模型训练、S2.原型保存、S3.进行目标识别。本发明的有益效果是:综合了相似类原型回放、相似度约束正则化和特征提取器规范化,有效应对灾难性遗忘,提高模型分类效果,辅助新类别学习,并在实际目标分类任务中表现卓越。这对处理实际多类别图像分类问题非常有价值。
Description
技术领域
本发明属于计算机视觉、深度学习领域,具体涉及一种基于相似原型回放的类增量学习方法。
背景技术
图像分类是计算机视觉领域的一个重要任务,它旨在将输入的图像分为不同的类别或标签。类增量图像分类方法的应用背景常常涉及实际的目标分类任务,如智能手机上的图像分类应用。这种应用背景中,初始模型可以对一些常见类别进行分类,如猫、狗、汽车等。然而,随着用户的需求和数据的不断增长,这些应用需要不断适应新的类别,例如各种不同品种的狗或车型。类增量图像分类方法能够使这些应用持续学习和适应新类别,从而提供更准确和广泛的目标分类服务,符合现实生活中的多样化需求。
然而,目前绝大多数类增量方法在图像分类中面临以下两个方面的难题:
(1)灾难性遗忘问题
灾难性遗忘是持续学习中固有的遗忘旧类知识的问题,也是反向传播中不可避免的问题。这是因为模型在学习新类时一定会改变网络权重,使网络忘记之前学过的东西。
(2)前向转移
以往的增量学习方法通常只关注如何在学习新类别时防止遗忘旧类别,而很少考虑如何有效地利用以前学到的旧类别知识来学习新类别。在实际应用中,新类别和旧类别的知识通常是相关的,因此向前转移反映了真实知识的结构,使模型更适合处理现实世界的任务。好的增量学习方法应该能够在解决遗忘问题的同时,允许模型保持和积累对旧任务的知识,这些旧任务的知识可以帮助更好地学习新任务,从而提高整体性能。
综上所述,针对以上难题,提出了一种基于相似原型回放的类增量学习方法。
发明内容
鉴于上述问题,本发明的目的在于提供一种基于相似原型回放的类增量学习方法。
一种基于相似原型回放的类增量学习方法,包括以下步骤:
S1.模型训练:获取t时刻的数据集,包括新类图像及新类图像标签,在标准图像分类ResNet-18神经网络上进行训练,训练方法包括相似类原型回放、相似度约束的正则化方法和特征提取器规范化;
上述相似类原型回放,即在学习新类时,通过回放与新类相似的旧类的原型来使模型从旧类中学习到有利于新类的知识;
上述相似度约束的正则化方法,即通过将正则化约束引入到模型的训练中,以确保模型在学习新类时不会影响旧类的性能;相似度即新类与旧类之间的相似性度量;
上述特征提取器规范化,即通过将当前模型提取的新数据特征与之前模型的特征进行匹配,来强制调整特征提取器的行为;
S2.原型保存:将完成任务t时刻数据集训练的模型保存,并保存t时刻的数据集中不同类别的原型,将t时刻保存的原型和t时刻之前保存的原型合并,所述原型是关于类别的抽象表示,是在高维特征空间中的向量,代表了该类别的共同特征,所述共同特征是类别中的图像具有相似的特征,这些特征是这一类别的代表性特点;
S3.进行目标识别:将目标图像输入训练后的模型,模型生成最终的预测结果。
上述ResNet-18神经网络由特征提取器和分类器组成,特征提取器将输入的图像转换成高维的特征向量,其中包含了图像的抽象特征,分类器从特征提取器中提取的高维特征向量,并将其映射到不同类别的概率分布并得到最终的预测结果。
上述相似类原型回放包括相似度比较和选择原型回放:
相似度比较:提取新类样本的高维特征向量,比较新类样本的特征向量和旧类原型来判断相似,相似程度表示为:
其中,x代表新类图像,Sim(·,·)表示两者的相似度,cos(·,·)表示余弦函数,Kc表示类别c的原型,φ(x)表示图像的高维特征向量,‖·‖表示向量的模;
选择原型回放:选择相似度大于相似度阈值ε的原型回放,在t时刻回放的原型被增强为:
其中,θ~N(0,1)表示高斯噪声,和保存的原型有相同的维度。表示类别c在t时刻增强后的特征。参数δ用于动态调整权重。
当t=1时,参数δ满足:
当t>1时,参数δ满足:
其中,N1表示t=1时模型学习的类别数量,Nold,Nnew分别表示t时刻的旧类和新类数量,∑t,k是第t时刻k类特征的协方差矩阵,Tr表示矩阵的迹,D是特征空间的维度,sqrt(·)表示平方函数,之后将得到的增强后的类知识选择性送到分类器中,按照以下损失函数公式进行反向传播
其中,LprotoAug表示回放损失函数的值,w表示选择回放的原型数量,L(·,·)为交叉熵损失,G(·)为分类器使用Softmax归一化函数将特征映射到不同的类别概率分布的结果,Yi为旧类原型对应的标签。
上述相似度约束的正则化方法依据新类图像的特征向量和旧类原型的相似度来约束正则化方法,将新类图像的高维特征向量和旧类原型归一化并用作概率分布,按照以下损失函数公式进行反向传播:
其中,Lkl表示正则化损失函数的值,P(xi)是新类的概率分布,Q(xj)是旧类的概率分布,m和n分别表示新类和旧类的数量,λ表示相似度约束权重,公式如下所示:
其中,arccos(·,·)表示反余弦函数。
在学习新类别的过程中,特征提取器会持续不断地更新,这会导致保存的旧知识与特征提取器之间的不匹配,为了解决这个问题,采用知识蒸馏法来对特征提取器进行规范化,通过将t时刻的模型提取的新类图像特征与t-1时刻的模型提取的新类图像特征进行匹配,来强制调整特征提取器的行为,匹配公式如下:
Lkd=‖Ft(x)-Ft-1(x)‖,
其中Ft(·)表示当前模型的特征提取器,Ft-1(·)表示上一阶段模型的特征提取器。
上述原型保存将每个已知的类别的图像进行特征提取,每个类别的高维特征向量的均值代表类别原型,将计算出的原型存储到原型容器中,以便在后续的增量学习中使用,原型计算的具体操作为:
其中,Kd为类别d的原型,h表示类别d的图像数量,φ(x)i表示每个样本的高维特征向量。
与现有技术相比,本发明具有以下有益效果:
1.从知识重用的角度出发,提出了相似类别特征感知类知识回放方法。在解决遗忘问题的同时,还能够从旧任务中学到的知识能够帮助学习新任务。
2.从解决灾难性遗忘的角度出发,提出了相似度调节正则化方法。相似度调节正则化方法允许模型在持续学习中根据新类别样本与旧类别知识之间的相似程度来动态调整权重,同时通过正则化来平衡新旧类别的学习,以解决灾难性遗忘问题。
3.将回放方法和正则化方法结合起来,使模型最大限度地向前转移的同时并最大限度地减少灾难性遗忘。在基准数据集上进行的大量实验表明,我们的方法在类增量场景中具有明显的性能提升。
附图说明
图1是整体流程图。
图2是输入分类图像。
图3是基于相似原型回放的类增量学习方法框架。
图4是实验结果对比图。
具体实施方式
下面结合附图对本发明的技术方案进行详细说明。
一种基于相似原型回放的类增量学习方法。整体流程图如附图1所示。具体包括以下步骤:
S1.模型训练:获取t时刻的数据集,包括新类图像及新类图像标签,在标准图像分类ResNet-18神经网络上进行训练,训练方法包括相似类原型回放、相似度约束的正则化方法和特征提取器规范化;
特征提取器将输入的图像数据转换成高维的特征向量,其中包含了图像的抽象特征,分类器从特征提取器中提取的高维特征向量,并将其映射到不同类别的概率分布并得到最终的预测结果。如附图2所示为输入图像,图像分辨率为32×32像素,图像标签为apple。
类增量学习包括相似类原型回放、相似度约束的正则化方法和特征提取器规范化,整体框架如图3所示。
相似度比较:提取新类样本的高维特征向量,比较新类样本的特征向量和旧类原型来判断相似,相似程度表示为:
其中,x代表新类图像,Sim(·,·)表示两者的相似度,cos(·,·)表示余弦函数,Kc表示类别c的原型,φ(x)表示图像的高维特征向量,‖·‖表示向量的模;
选择原型回放:选择相似度大于相似度阈值ε的原型回放,在t时刻回放的原型被增强为:
其中,θ~N(0,1)表示高斯噪声,和保存的原型有相同的维度。表示类别c在t时刻增强后的特征。参数δ用于动态调整权重,当t=1时参数δ满足:
当t>1时参数δ满足:
其中,N1表示t=1时模型学习的类别数量,Nold,Nnew分别表示t时刻的旧类和新类数量,∑t,k是第t时刻k类特征的协方差矩阵,Tr表示矩阵的迹,D是特征空间的维度,sqrt(·)表示平方函数,之后将得到的增强后的类知识选择性送到分类器中,按照以下损失函数公式进行反向传播:
其中,LprotoAug表示回放损失函数的值,w表示选择回放的原型数量,L(·,·)为交叉熵损失,G(·)为分类器使用Softmax归一化函数将特征映射到不同的类别概率分布的结果,Yi为旧类原型对应的标签。
相似度约束的正则化方法依据新类图像的特征向量和旧类原型的相似度来约束正则化方法,将新类图像的高维特征向量和旧类原型归一化并用作概率分布,按照以下损失函数公式进行反向传播:
其中,Lkl表示正则化损失函数的值,P(xi)是新类的概率分布,Q(xj)是旧类的概率分布,m和n分别表示新类和旧类的数量,λ表示相似度约束权重,公式如下所示:
其中,arccos(·,·)表示反余弦函数。
在学习新类别的过程中,特征提取器会持续不断地更新,这会导致保存的旧知识与特征提取器之间的不匹配,为了解决这个问题,采用知识蒸馏法来对特征提取器进行规范化,通过将当前模型提取的新数据特征与之前模型的特征进行匹配,来强制调整特征提取器的行为:
Lkd=‖Ft(x)-Ft-1(x)‖,
其中Ft(·)表示当前模型的特征提取器,Ft-1(·)表示上一阶段模型的特征提取器。
S2.原型保存:将任务t时的数据类别的原型保存下来并和t时刻之前保存的原型合并以供后续使用所述原型是关于类别的抽象表示,是在高维特征空间中的点,代表了该类别的共同特征,所述共同特征是类别中的样本具有相似的特征,这些特征是这一类别的代表性特点。
原型保存将每个已知的类别的图像进行特征提取,每个类别的高维特征向量的均值代表类别原型,将计算出的原型存储到原型容器中,以便在后续的增量学习中使用,原型计算的具体操作为:
其中,Kd为类别d的原型,h表示类别d的图像数量,φ(x)i表示每个样本的高维特征向量。
S3.进行目标识别:将目标图像输入训练后的模型,模型生成最终的预测结果。
以下用一个简单的应用例来说明本发明提出方法对图像分类的应用:
选用多类别图像分类数据集Tiny ImageNet,该数据集包括各种不同的动物、植物、交通工具、日常物品等,图像类别丰富多样,可以更好地模拟现实世界的复杂多类别分类任务,每个类别有500张训练图像和50张验证图像。实验设置为:第一个学习任务包含100个类别,随后到来的20个任务中,每个任务包含5个类别,要求模型逐步学习这些多分类任务。在实验中将本发明与EWC[1]、LwF[2]、LwF-MC[2]、MUC[3]、IL2A[4]、PASS[5]、iCaRL[6]、EEIL[7]和LUCIR[8]进行比较。实验结果如附图4所示。从图4可以观察到,随着任务数量的不断增加,当类别数量达到135时,实施例方法相对于其他方法表现出明显的优势。这一优势不仅在逐渐增加,还持续延续至实验任务的结束,进一步证明了本方法在类增量图像分类问题上的卓越性能。
本应用例说明,本发明提供的算法可以应对现实生活中的大规模多类别图像分类问题,它在解决现实生活中的大规模多类别图像分类问题方面具有重要意义。
参考文献:
[1]J.Kirkpatrick,Razvan Pascanu,Neil C.Rabinowitz,J.Veness,G.Desjardins,Andrei A.Rusu,K.Milan,John Quan,Tiago Ramalho,Agnieszka Grabska-Barwinska,Demis Hassabis,C.Clopath,D.Kumaran,and Raia Hadsell.Overcomingcatastrophic forgetting in neural networks.
Proceedings of the National Academy of Sciences,pages 3521–3526,2017.
[2]Zhizhong Li and Derek Hoiem.Learning without forgetting.IEEETrans.Pattern Anal.Mach.Intell.,pages 2935–2947,2018.
[3]Yu Liu,Sarah Parisot,Gregory G.Slabaugh,Xu Jia,Ales Leonardis,andTinne Tuytelaars.More classifiers,less forgetting:Ageneric multi-classifierparadigm for incremental learning.In ECCV,pages 699–716,2020.
[4]Zhu,Fei,et al."Class-incremental learning via dual augmentation."Advances in Neural Information Processing Systems 34(2021):14306-14318.
[5]Zhu,Fei,et al."Prototype augmentation and self-supervision forincremental learning."Proceedings of the IEEE/CVF Conference on ComputerVision and Pattern Recognition.2021.
[6]Sylvestre-Alvise Rebuffi,A.Kolesnikov,Georg Sperl,and ChristophH.Lampert.icarl:Incremental classifier and representation learning.In CVPR,pages 5533–5542,2017
[7]Francisco M Castro,Manuel J Marín-Jiménez,Nicolás Guil,CordeliaSchmid,and Karteek Alahari.End-to-end incremental learning.In ECCV,pages 233–248,2018.
[8]Saihui Hou,Xinyu Pan,Chen Change Loy,Zilei Wang,and D.Lin.Learninga unified classifier incrementally via rebalancing.In CVPR,pages 831–839,2019.
Claims (6)
1.一种基于相似原型回放的类增量学习方法,其特征在于,包括如下步骤:
S1.模型训练:获取t时刻的数据集,包括新类图像及新类图像标签,在标准图像分类ResNet-18神经网络上进行训练,训练方法包括相似类原型回放、相似度约束的正则化方法和特征提取器规范化;
所述相似类原型回放,即在学习新类时,通过回放与新类相似的旧类的原型来使模型从旧类中学习到有利于新类的知识;
所述相似度约束的正则化方法,即通过将正则化约束引入到模型的训练中,以确保模型在学习新类时不会影响旧类的性能;相似度即新类与旧类之间的相似性度量;
所述特征提取器规范化,即通过将当前模型提取的新数据特征与之前模型的特征进行匹配,来强制调整特征提取器的行为;
S2.原型保存:将完成任务t时刻数据集训练的模型保存,并保存t时刻的数据集中不同类别的原型,将t时刻保存的原型和t时刻之前保存的原型合并,所述原型是关于类别的抽象表示,是在高维特征空间中的向量,代表了该类别的共同特征,所述共同特征是类别中的图像具有相似的特征,这些特征是这一类别的代表性特点;
S3.进行目标识别:将目标图像输入训练后的模型,模型生成最终的预测结果。
2.根据权利要求1所述的基于相似原型回放的类增量学习方法,其特征在于,所述ResNet-18神经网络由特征提取器和分类器组成,特征提取器将输入的图像转换成高维的特征向量,其中包含了图像的抽象特征,分类器从特征提取器中提取的高维特征向量,并将其映射到不同类别的概率分布并得到最终的预测结果。
3.根据权利要求1所述的基于相似原型回放的类增量学习方法,其特征在于,所述相似类原型回放包括相似度比较和选择原型回放:
相似度比较:提取新类图像的高维特征向量,通过比较新类图像的特征向量和旧类原型来判断相似,相似程度表示为:
其中,x代表新类图像,Sim(·,·)表示两者的相似度,cos(·,·)表示余弦函数,Kc表示类别c的原型,φ(x)表示图像的高维特征向量,‖·‖表示向量的模;
选择原型回放:选择相似度大于相似度阈值的原型回放,在t时刻回放的原型被增强为:
其中,θ~N(0,1)表示高斯噪声,和保存的原型有相同的维度,表示类别c在t时刻增强后的特征,参数δ用于动态调整权重。
当t=1时,参数δ满足:
当t>1时,参数δ满足:
其中,N1表示t=1时模型学习的类别数量,Nold,Nnew分别表示t时刻的旧类和新类数量,∑t,k是第t时刻k类特征的协方差矩阵,Tr表示矩阵的迹,D是特征空间的维度,sqrt(·)表示平方函数,之后将得到的增强后的类知识选择性送到分类器中,按照以下损失函数公式进行反向传播:
其中,LprotoAug表示回放损失函数的值,w表示选择回放的原型数量,L(·,·)为交叉熵损失,G(·)为分类器使用Softmax归一化函数将特征映射到不同的类别概率分布的结果,Yi为旧类原型对应的标签。
4.根据权利要求1所述的基于相似原型回放的类增量学习方法,其特征在于,所述相似度约束的正则化方法依据新类图像的特征向量和旧类原型的相似度来约束正则化方法,将新类图像的高维特征向量和旧类原型归一化并用作概率分布,按照以下损失函数公式进行反向传播:
其中,Lkl表示正则化损失函数的值,P(xi)是新类的概率分布,Q(xj)是旧类的概率分布,m和n分别表示新类和旧类的数量,λ表示相似度约束权重,公式如下所示:
其中,arccos(·,·)表示反余弦函数。
5.根据权利要求1所述的基于相似原型回放的类增量学习方法,其特征在于,所述特征提取器规范化采用知识蒸馏法来对特征提取器进行规范化,通过将t时刻的模型提取的新类图像特征与t-1时刻的模型提取的新类图像特征进行匹配,来强制调整特征提取器的行为,匹配公式如下:
Lkd=‖Ft(x)-Ft-1(x)‖,
其中,Lkd表示特征匹配的损失函数的值,Ft(·)表示t时刻的模型的特征提取器,Ft-1(·)表示t-1时刻的模型的特征提取器。
6.根据权利要求1所述的基于相似原型回放的类增量学习方法,其特征在于,所述原型保存将每个已知的类别的图像进行特征提取,每个类别的高维特征向量的均值代表类别原型,将计算出的原型存储到原型容器中,以便在后续的增量学习中使用,原型计算的具体操作为:
其中,Kd表示类别d的原型,h表示类别d的图像数量,φ(x)i表示每个图像的高维特征向量。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311536838.8A CN117456267A (zh) | 2023-11-17 | 2023-11-17 | 一种基于相似原型回放的类增量学习方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311536838.8A CN117456267A (zh) | 2023-11-17 | 2023-11-17 | 一种基于相似原型回放的类增量学习方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117456267A true CN117456267A (zh) | 2024-01-26 |
Family
ID=89587338
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311536838.8A Pending CN117456267A (zh) | 2023-11-17 | 2023-11-17 | 一种基于相似原型回放的类增量学习方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117456267A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117975203A (zh) * | 2024-04-02 | 2024-05-03 | 山东大学 | 基于数据增强的小样本图像类增量学习方法及系统 |
-
2023
- 2023-11-17 CN CN202311536838.8A patent/CN117456267A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117975203A (zh) * | 2024-04-02 | 2024-05-03 | 山东大学 | 基于数据增强的小样本图像类增量学习方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111814584B (zh) | 基于多中心度量损失的多视角环境下车辆重识别方法 | |
Hoffer et al. | Fix your classifier: the marginal value of training the last weight layer | |
CN112446423B (zh) | 一种基于迁移学习的快速混合高阶注意力域对抗网络的方法 | |
Goldberger et al. | Hierarchical clustering of a mixture model | |
CN112800876B (zh) | 一种用于重识别的超球面特征嵌入方法及系统 | |
CN111079847B (zh) | 一种基于深度学习的遥感影像自动标注方法 | |
CN110909820A (zh) | 基于自监督学习的图像分类方法及系统 | |
CN113435509B (zh) | 基于元学习的小样本场景分类识别方法及系统 | |
CN111539444B (zh) | 一种修正式模式识别及统计建模的高斯混合模型方法 | |
CN117456267A (zh) | 一种基于相似原型回放的类增量学习方法 | |
CN113449011A (zh) | 基于大数据预测的信息推送更新方法及大数据预测系统 | |
CN113449012A (zh) | 基于大数据预测的互联网服务挖掘方法及大数据预测系统 | |
Wu et al. | Deep clustering and visualization for end-to-end high-dimensional data analysis | |
Alalyan et al. | Model-based hierarchical clustering for categorical data | |
CN114299304A (zh) | 一种图像处理方法及相关设备 | |
CN118037423A (zh) | 农业贷款后农户还款意愿评价方法及系统 | |
Hu et al. | An integrated classification model for incremental learning | |
Xu et al. | Semi-supervised self-growing generative adversarial networks for image recognition | |
CN111091198A (zh) | 一种数据处理方法及装置 | |
CN114821184B (zh) | 一种基于均衡互补熵的长尾图像分类方法及系统 | |
Fan et al. | A Few-shot Learning algorithm based on attention adaptive mechanism | |
CN115170843A (zh) | 基于嵌入特征提取的多视图一致性图像聚类方法及系统 | |
CN109344279B (zh) | 基于哈希检索的手写英文单词智能识别方法 | |
Ghosh et al. | A deep learning‐based SAR image change detection using spatial intuitionistic fuzzy C‐means clustering | |
CN114419382A (zh) | 一种无监督的多视图图像的图嵌入方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |