CN109492765A - 一种基于迁移模型的图像增量学习方法 - Google Patents

一种基于迁移模型的图像增量学习方法 Download PDF

Info

Publication number
CN109492765A
CN109492765A CN201811294198.3A CN201811294198A CN109492765A CN 109492765 A CN109492765 A CN 109492765A CN 201811294198 A CN201811294198 A CN 201811294198A CN 109492765 A CN109492765 A CN 109492765A
Authority
CN
China
Prior art keywords
training
old
resnet50
learning
new
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201811294198.3A
Other languages
English (en)
Inventor
宣琦
缪永彪
陈晋音
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University of Technology ZJUT
Original Assignee
Zhejiang University of Technology ZJUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University of Technology ZJUT filed Critical Zhejiang University of Technology ZJUT
Priority to CN201811294198.3A priority Critical patent/CN109492765A/zh
Publication of CN109492765A publication Critical patent/CN109492765A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

一种基于变分自编码器的图像增量学习方法,包括以下步骤:1)构造以ResNet50网络层结构为原型的主网络,引入MMD距离度量;2)设定优化器和学习率,采用知识蒸馏和权重惩罚策略;3)训练方式采用限制性的样本增量方法训练ResNet50模型;4)重载最近一次训练的最佳模型,重复使用限制性的样本增量方法训练,直到训练完所有增量数据。本发明使得对抗扰动的生成不再受限于实际中众多环境因素的影响,具有较高的实用价值。

Description

一种基于迁移模型的图像增量学习方法
技术领域
本发明涉及增量学习方法和知识蒸馏技术,借鉴了迁移学习(TransferLearning)的思想,利用权重惩罚(Weight Punish)的技巧,结合限制性的样本增量学习方法,控制每次学习过程中的训练样本数目,在保持旧类别分类识别精度的前提下,同时提高对新增类别数据的分类精度,从而达到在原有模型上的增量学习。
背景技术
近年来,深度卷积神经网络(Deep Convolutional Neural network,DCNNs)已成为大规模图像分类的主要结构。2012年,AlexNet通过实施Deep-CNN并将DCNNs推入大众视野下,赢得了ImageNet大规模视觉识别挑战(ISLVRC)。从那时起,它们就主导了ISLVRC,并在MNIST、Cifar 10/100和ImageNet等流行的图像数据集上表现出色。
随着对大量标记数据(例如ImageNet包含120万幅图像和1000个类别)的出现,在图像识别领域中,监督学习得到快速发展。通常情况下,DCNN是在包含大量标签的图像数据集中进行训练的。网络学习提取相关特征并对这些图像进行分类。这个训练过的模型被用于对无标签图像进行分类。在训练过程中,所有的训练数据都会提供给网络进行重复训练。然而,在现实世界中,我们很难同时拥有所有数据的数据分布。相反,数据是逐步收集而汇总得到的。因此,我们需要一个方法可以学习新的数据,并且不会遗忘旧的知识。增量学习可以很好地解决这个问题,同时增量学习在图像识别领域很大程度上依赖于DCNN的发展。
DCNN能够在同一个模型中实现特征提取和分类识别,但是对模型的参数空间稍作修改会对模型输出产生巨大影响。DCNN增量训练的另一个难题是灾难性遗忘问题,可参考文献1(I.J.Goodfellow,M.Mirza,D.Xiao,A.Courville,and Y.Bengio.“An empiricalinvestigation of catastrophic forgetting in gradient-based neural networks.”arXiv preprint arXiv:1312.6211,2013,即I.J.Goodfellow,M.Mirza,D.Xiao,A.Courville,and Y.Bengio.基于梯度的神经网络中灾难性遗忘的证实研究.arXivpreprint arXiv:1312.6211,2013)。当新的数据被输入DCNN时,它会破坏从先前数据中学习到的特性。这要求在对新数据进行再次训练时使用先前的数据。
近年来在增量学习方面取得了较大进展,例如iCaRL,它是目前增量学习领域较为有效的方法,它将深度学习与k近邻(KNN)方法相结合,利用深度学习提取数据的高阶特征,并使用KNN作为最终的分类器。在分类过程中,它使用属于该类的所有训练数据(或保留的范例)计算某个类别的平均高阶特征,为测试数据找到最近的平均类别表征,并相应地分配类别标签。为了减少类数量急剧增加时的内存占用,该方法为每个类别存储一个范例集,可参考文献2(Rebuffi,S.,Kolesnikov,A.,and Lampert,C.H.(2016).“iCaRL:Incrementalclassifier and representation learning.”CoRR,abs/1611.07725,即Rebuffi,S.,Kolesnikov,A.,and Lampert,C.H.(2016).iCaRL:Incremental classifier andrepresentation learning.CoRR,abs/1611.07725)。尽管该方法在一部分数据集上的性能令人印象深刻,但它在生物信息学数据集上的效果却急剧下降。同时,迁移学习在增量学习中也起着重要的作用。它允许我们利用过去的知识,而且CNN的初始层可以学习到通用的低阶特性。利用DCNN卷积层之间共享权重的特性来构建分类器。这些特性可以按照语义进行分组,或者按照特征驱动,比如FALCON,可参考文献3(P.Panda,A.Ankit,P.Wijesinghe,andK.Roy.“Falcon:Feature driven selective classification for energy-efficientimage recognition.”IEEE Transactions on Computer-Aided Design ofIntegratedCircuits and Systems,36(12),2017,即P.Panda,A.Ankit,P.Wijesinghe,and K.Roy.“Falcon:高效图像识别的特征驱动选择性分类”IEEE Transactions on Computer-AidedDesign ofIntegrated Circuits and Systems,36(12),2017)。
目前国内外对增量学习技术的研究还处于起步阶段。增量学习作为一种减少对时间和空间依赖的有效手段,在经济社会的发展中起着重要的作用,需要对增量学习方法进行更深入和更广泛的研究。
发明内容
为了解决实际应用场景下数据库中的数据动态变化的问题,避免在海量数据下进行重复学习,满足只需修改因数据分布变化所引起的部分模型参数变动的特点,本发明提出以深度适配网络(Deep Adaptation Network,DAN)为基础,通过引入样本增量的方法,严格控制每次增量学习中样本的使用量,减小在先前所有样本上的重复学习所带来的训练时间代价。DAN中的最大均值差异(Maximum Mean Discrepancy,MMD)损失函数能够减小因训练样本不平衡所带来的分类性能差异,引入权重惩罚进一步缓解样本不平衡的问题,同时利用知识蒸馏引入KL相对熵损失函数缓解灾难性遗忘问题。这种增量学习方法适应了实际应用场景的需求,在人工智能领域具有重要的研究和应用价值。
本发明实现上述发明目的所采用的技术方案为:
一种基于迁移模型的图像增量学习方法,包括以下步骤:
S1:构造以ResNet50网络层结构为原型的主网络,在ResNet50最后输出层后添加MMD,MMD是迁移学习,用来度量两个相关但不同分布之间的距离;
S2:ResNet50模型采用Adam训练优化器,学习率为自适应下降的策略,同时,基础分类损失函数是交叉熵函数,权重惩罚策略为加大对先前样本错分的损失值,利用知识蒸馏引入KL相对熵损失函数缓解遗忘已训练的类别;
S3:训练方式采用限制性的样本增量方法训练ResNet50模型:每次增量训练时,随机选取50%新增类别数据,并结合相同数量的先前类别数据进行联合训练,严格控制了单次训练样本和训练时间,训练结束后,评估在测试集上精度,并且保存性能最高的模型参数;
S4:重载最近一次训练的最佳模型,重复S2~S3步骤,评估在所有测试集上的性能,直到训练完所有增量数据。
进一步,所述步骤S1中,ResNet50是一个残差结构的卷积神经网络,在2015年ImageNet比赛classification任务上获得第一名,在图像识别领域起着至关重要的作用,借鉴DAN中MMD的思想,在ResNet50最后输出层后添加MMD,MMD是迁移学习,其是Domainadaptation中使用最为广泛的一种损失函数,用来度量两个相关但不同分布之间的距离。具体定义为:
其中x表示Source domain的输入数据,y表示Target domain的输入数据,φ表示网络对于输入的映射,H表示将数据映射到再生希尔伯特空间中进行度量。
再进一步,所述步骤S2中,ResNet50模型采用Adam训练优化器,其中beta参数设定为0.5~0.999,epsilon参数设定为10e-8,学习率为自适应下降的策略,定义如下:
上式中l0表示初始学习率,n表示当前训练的epoch数,N表示所有训练的epoch数,α表示控制学习率下降幅度的超参数,α越大,学习率的大小随着epoch的增大而迅速减小;
模型的基础分类损失函数采用传统的交叉熵函数,并结合权重惩罚策略,权重惩罚策略定义如下:
wold=Cold/Ctotal
wnew=Cnew/Ctotal
在这里,wold和wnew分别表示旧类别和新类别惩罚权重,Cold,Cnew和Ctotal分别表示旧类别的数目,新类别的数目和新旧总的类别数目;
同时,知识蒸馏引入KL散度损失函数缓解遗忘已训练的类别。KL散度损失函数具体定义如下:
上式中x表示旧类别数据,φ表示网络对于输入的映射。
本发明的技术构思为:鉴于实际场景中数据库的数据是动态变化的,并且在所有数据上进行重复训练需要耗费大量的时间,本发明结合知识蒸馏和增量学习的方法,提出用限制性的样本增量学习方法,控制每次学习过程中的训练样本数目,在保持旧类别分类识别精度的前提下,同时提高对新增类别数据的分类精度,从而达到在原有模型上的增量学习。
与现有的技术相比,本发明的有益效果是:与传统的增量学习方法相比,本发明控制每次学习过程中的训练样本数目,并结合知识蒸馏和迁移模型,成功缓解了增量学习中的灾难性遗忘问题。
附图说明
图1为构建ResNet50的迁移模型的流程图。
图2为采用限制性的样本增量学习的流程图。
图3为基于迁移模型的图像增量学习方法的流程图。
具体实施方式
下面结合说明书附图对本发明做进一步说明。
参照图1~图3,一种基于迁移模型的图像增量学习方法,克服了传统学习方式的不足,从动态更新的数据中有效地训练一个分类器,并且在不影响旧类别的识别精度的前提下,大幅减小了训练时间,本发明结合知识蒸馏和增量学习的方法,提出用限制性的样本增量学习方法,控制每次学习过程中的训练样本数目,在保持旧类别分类识别精度的前提下,同时提高对新增类别数据的分类精度,从而达到在原有模型上的增量学习。
本发明包括以下步骤:
S1:构造以ResNet50网络层结构为原型的主网络,在ResNet50最后输出层后添加MMD,MMD是迁移学习,其是Domain adaptation中使用最为广泛的一种损失函数,用来度量两个相关但不同分布之间的距离;
S2:ResNet50模型采用Adam训练优化器,学习率为自适应下降的策略,同时,基础分类损失函数是交叉熵函数,权重惩罚策略为加大对先前样本错分的损失值,利用知识蒸馏引入KL相对熵损失函数缓解遗忘已训练的类别;
S3:训练方式采用限制性的样本增量方法训练ResNet50模型:每次增量训练时,随机选取50%新增类别数据,并结合相同数量的先前类别数据(无需在各个类别中取等量的数据)进行联合训练,严格控制了单次训练样本和训练时间。训练结束后,评估在测试集上精度,并且保存性能最高的模型参数;
S4:重载最近一次训练的最佳模型,重复S2~S3步骤,评估在所有测试集上的性能,直到训练完所有增量数据。
进一步,所述步骤S1中,ResNet50是一个残差结构的卷积神经网络,在2015年ImageNet比赛classification任务上获得第一名,在图像识别领域起着至关重要的作用;借鉴DAN中MMD的思想,在ResNet50最后输出层后添加MMD,MMD是迁移学习,其是Domainadaptation中使用最为广泛的一种损失函数,主要用来度量两个相关但不同分布之间的距离,定义为:
其中x表示Source domain的输入数据,y表示Target domain的输入数据,φ表示网络对于输入的映射,H表示将数据映射到再生希尔伯特空间中进行度量。
再进一步,所述步骤S2中,ResNet50模型采用Adam训练优化器,其中beta参数设定为0.5~0.999,epsilon参数设定为10e-8,学习率为自适应下降的策略,定义如下:
上式中l0表示初始学习率,n表示当前训练的epoch数,N表示所有训练的epoch数,α表示控制学习率下降幅度的超参数,α越大,学习率的大小随着epoch的增大而迅速减小;
模型的基础分类损失函数采用传统的交叉熵函数,并结合权重惩罚策略。权重惩罚策略具体定义如下:
wold=Cold/Ctotal
wnew=Cnew/Ctotal
在这里,wold和wnew分别表示旧类别和新类别惩罚权重,Cold,Cnew和Ctotal分别表示旧类别的数目,新类别的数目和新旧总的类别数目;
同时,知识蒸馏引入KL散度损失函数缓解遗忘已训练的类别,KL散度损失函数定义如下:
上式中x表示旧类别数据,φ表示网络对于输入的映射。
综上所述,克服了传统学习方式的不足,从动态更新的数据中有效地训练一个分类器,并且在不影响旧类别的识别精度的前提下,大幅减小了训练时间,有效地提高了实际应用价值,扩大了应用领域。对发明而言仅仅是说明性的,而非限制性的。本专业技术人员理解,在发明权利要求所限定的精神和范围内可对其进行许多改变,修改,甚至等效,但都将落入本发明的保护范围内。

Claims (3)

1.一种基于迁移模型的图像增量学习方法,其特征在于,所述方法包括如下步骤:
S1:构造以ResNet50网络层结构为原型的主网络,在ResNet50最后输出层后添加MMD,MMD是迁移学习,用来度量两个相关但不同分布之间的距离;
S2:ResNet50模型采用Adam训练优化器,学习率为自适应下降的策略,同时,基础分类损失函数是交叉熵函数,权重惩罚策略为加大对先前样本错分的损失值,利用知识蒸馏引入KL相对熵损失函数缓解遗忘已训练的类别;
S3:训练方式采用限制性的样本增量方法训练ResNet50模型:每次增量训练时,随机选取50%新增类别数据,并结合相同数量的先前类别数据进行联合训练,严格控制了单次训练样本和训练时间;训练结束后,评估在测试集上精度,并且保存性能最高的模型参数;
S4:重载最近一次训练的最佳模型,重复S2~S3步骤,评估在所有测试集上的性能,直到训练完所有增量数据。
2.如权利要求1所述的一种基于迁移模型的图像增量学习方法,其特征在于:所述步骤S1中,ResNet50是一个残差结构的卷积神经网络,在ResNet50最后输出层后添加MMD,MMD是迁移学习,用来度量两个相关但不同分布之间的距离,定义为:
其中x表示Source domain的输入数据,y表示Target domain的输入数据,φ表示网络对于输入的映射,H表示将数据映射到再生希尔伯特空间中进行度量。
3.如权利要求1或2所述的一种基于迁移模型的图像增量学习方法,其特征在于:所述步骤S2中,ResNet50模型采用Adam训练优化器,其中beta参数设定为0.5~0.999,epsilon参数设定为10e-8。学习率为自适应下降的策略,定义如下:
上式中l0表示初始学习率,n表示当前训练的epoch数,N表示所有训练的epoch数,α表示控制学习率下降幅度的超参数,α越大,学习率的大小随着epoch的增大而迅速减小;
模型的基础分类损失函数采用传统的交叉熵函数,并结合权重惩罚策略,权重惩罚策略定义如下:
wold=Cold/Ctotal
wnew=Cnew/Ctotal
在这里,wold和wnew分别表示旧类别和新类别惩罚权重,Cold,Cnew和Ctotal分别表示旧类别的数目,新类别的数目和新旧总的类别数目;
同时,知识蒸馏引入KL散度损失函数缓解遗忘已训练的类别,KL散度损失函数具体定义如下:
上式中x表示旧类别数据,φ表示网络对于输入的映射。
CN201811294198.3A 2018-11-01 2018-11-01 一种基于迁移模型的图像增量学习方法 Pending CN109492765A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811294198.3A CN109492765A (zh) 2018-11-01 2018-11-01 一种基于迁移模型的图像增量学习方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811294198.3A CN109492765A (zh) 2018-11-01 2018-11-01 一种基于迁移模型的图像增量学习方法

Publications (1)

Publication Number Publication Date
CN109492765A true CN109492765A (zh) 2019-03-19

Family

ID=65693649

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811294198.3A Pending CN109492765A (zh) 2018-11-01 2018-11-01 一种基于迁移模型的图像增量学习方法

Country Status (1)

Country Link
CN (1) CN109492765A (zh)

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110119448A (zh) * 2019-05-08 2019-08-13 合肥工业大学 基于双重自动编码器的半监督跨领域文本分类方法
CN110135510A (zh) * 2019-05-22 2019-08-16 电子科技大学中山学院 一种动态领域自适应方法、设备及计算机可读存储介质
CN110210560A (zh) * 2019-05-31 2019-09-06 北京市商汤科技开发有限公司 分类网络的增量训练方法、分类方法及装置、设备及介质
CN110443372A (zh) * 2019-07-11 2019-11-12 南京邮电大学 一种基于熵最小化的迁移学习方法及系统
CN110796619A (zh) * 2019-10-28 2020-02-14 腾讯科技(深圳)有限公司 一种图像处理模型训练方法、装置、电子设备及存储介质
CN110808036A (zh) * 2019-11-07 2020-02-18 南京大学 一种增量式语音命令词识别方法
CN110991373A (zh) * 2019-12-09 2020-04-10 北京字节跳动网络技术有限公司 图像处理方法、装置、电子设备及介质
CN111199242A (zh) * 2019-12-18 2020-05-26 浙江工业大学 一种基于动态修正向量的图像增量学习方法
CN111210000A (zh) * 2019-12-18 2020-05-29 浙江工业大学 一种基于固定特征的调制信号增量学习方法
CN111222545A (zh) * 2019-12-24 2020-06-02 西安电子科技大学 基于线性规划增量学习的图像分类方法
CN111368874A (zh) * 2020-01-23 2020-07-03 天津大学 一种基于单分类技术的图像类别增量学习方法
CN111488917A (zh) * 2020-03-19 2020-08-04 天津大学 一种基于增量学习的垃圾图像细粒度分类方法
CN112115967A (zh) * 2020-08-06 2020-12-22 中山大学 一种基于数据保护的图像增量学习方法
CN112257864A (zh) * 2020-10-22 2021-01-22 福州大学 一种用于解决灾难性遗忘问题的终生学习方法
CN112668498A (zh) * 2020-12-30 2021-04-16 西安电子科技大学 空中辐射源个体智能增量识别方法、系统、终端及应用
CN112990280A (zh) * 2021-03-01 2021-06-18 华南理工大学 面向图像大数据的类增量分类方法、系统、装置及介质
WO2022027987A1 (zh) * 2020-08-04 2022-02-10 杰创智能科技股份有限公司 一种图像识别模型的训练方法及图像识别方法
CN114429153A (zh) * 2021-12-31 2022-05-03 苏州大学 基于终身学习的齿轮箱增量故障诊断方法及系统
WO2023086196A1 (en) * 2021-11-12 2023-05-19 Nec Laboratories America, Inc. Domain generalizable continual learning using covariances

Cited By (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110119448A (zh) * 2019-05-08 2019-08-13 合肥工业大学 基于双重自动编码器的半监督跨领域文本分类方法
CN110135510A (zh) * 2019-05-22 2019-08-16 电子科技大学中山学院 一种动态领域自适应方法、设备及计算机可读存储介质
CN110210560A (zh) * 2019-05-31 2019-09-06 北京市商汤科技开发有限公司 分类网络的增量训练方法、分类方法及装置、设备及介质
CN110443372A (zh) * 2019-07-11 2019-11-12 南京邮电大学 一种基于熵最小化的迁移学习方法及系统
CN110796619A (zh) * 2019-10-28 2020-02-14 腾讯科技(深圳)有限公司 一种图像处理模型训练方法、装置、电子设备及存储介质
CN110796619B (zh) * 2019-10-28 2022-08-30 腾讯科技(深圳)有限公司 一种图像处理模型训练方法、装置、电子设备及存储介质
CN110808036A (zh) * 2019-11-07 2020-02-18 南京大学 一种增量式语音命令词识别方法
CN110991373A (zh) * 2019-12-09 2020-04-10 北京字节跳动网络技术有限公司 图像处理方法、装置、电子设备及介质
CN111210000A (zh) * 2019-12-18 2020-05-29 浙江工业大学 一种基于固定特征的调制信号增量学习方法
CN111199242B (zh) * 2019-12-18 2024-03-22 浙江工业大学 一种基于动态修正向量的图像增量学习方法
CN111199242A (zh) * 2019-12-18 2020-05-26 浙江工业大学 一种基于动态修正向量的图像增量学习方法
CN111210000B (zh) * 2019-12-18 2021-11-23 浙江工业大学 一种基于固定特征的调制信号增量学习方法
CN111222545A (zh) * 2019-12-24 2020-06-02 西安电子科技大学 基于线性规划增量学习的图像分类方法
CN111222545B (zh) * 2019-12-24 2022-04-19 西安电子科技大学 基于线性规划增量学习的图像分类方法
CN111368874B (zh) * 2020-01-23 2022-11-15 天津大学 一种基于单分类技术的图像类别增量学习方法
CN111368874A (zh) * 2020-01-23 2020-07-03 天津大学 一种基于单分类技术的图像类别增量学习方法
CN111488917A (zh) * 2020-03-19 2020-08-04 天津大学 一种基于增量学习的垃圾图像细粒度分类方法
WO2022027987A1 (zh) * 2020-08-04 2022-02-10 杰创智能科技股份有限公司 一种图像识别模型的训练方法及图像识别方法
CN112115967B (zh) * 2020-08-06 2023-08-01 中山大学 一种基于数据保护的图像增量学习方法
CN112115967A (zh) * 2020-08-06 2020-12-22 中山大学 一种基于数据保护的图像增量学习方法
CN112257864A (zh) * 2020-10-22 2021-01-22 福州大学 一种用于解决灾难性遗忘问题的终生学习方法
CN112668498B (zh) * 2020-12-30 2024-02-06 西安电子科技大学 空中辐射源个体智能增量识别方法、系统、终端及应用
CN112668498A (zh) * 2020-12-30 2021-04-16 西安电子科技大学 空中辐射源个体智能增量识别方法、系统、终端及应用
CN112990280A (zh) * 2021-03-01 2021-06-18 华南理工大学 面向图像大数据的类增量分类方法、系统、装置及介质
CN112990280B (zh) * 2021-03-01 2023-08-25 华南理工大学 面向图像大数据的类增量分类方法、系统、装置及介质
WO2023086196A1 (en) * 2021-11-12 2023-05-19 Nec Laboratories America, Inc. Domain generalizable continual learning using covariances
CN114429153A (zh) * 2021-12-31 2022-05-03 苏州大学 基于终身学习的齿轮箱增量故障诊断方法及系统
CN114429153B (zh) * 2021-12-31 2023-04-28 苏州大学 基于终身学习的齿轮箱增量故障诊断方法及系统

Similar Documents

Publication Publication Date Title
CN109492765A (zh) 一种基于迁移模型的图像增量学习方法
Santosa et al. Cat swarm optimization for clustering
CN108564129A (zh) 一种基于生成对抗网络的轨迹数据分类方法
CN106446942A (zh) 基于增量学习的农作物病害识别方法
CN108197643B (zh) 一种基于无监督聚类和度量学习的迁移学习方法
CN105931116A (zh) 基于深度学习机制的自动化信用评分系统及方法
CN106777402B (zh) 一种基于稀疏神经网络的图像检索文本方法
CN108985342A (zh) 一种基于深度增强学习的不平衡分类方法
CN106650933A (zh) 基于协同进化和反向传播的深度神经网络优化方法
CN106980831A (zh) 基于自编码器的自亲缘关系识别方法
CN107944460A (zh) 一种应用于生物信息学中类别不平衡分类方法
CN106373057A (zh) 一种面向网络教育的成绩不良学习者识别方法
CN108510050A (zh) 一种基于混洗蛙跳的特征选择方法
Chang et al. Simultaneously construct IRT-based parallel tests based on an adapted CLONALG algorithm
CN109902371A (zh) 一种基于深度强化学习的智能排课方法
CN113239211A (zh) 一种基于课程学习的强化学习知识图谱推理方法
Sebastian Performance evaluation by artificial neural network using WEKA
CN112163620A (zh) 一种stacking模型融合方法
CN109146055A (zh) 基于正交化实验和人工神经网络的改进粒子群优化方法
CN104537108A (zh) 一种高维数据特征选择方法
CN108073978A (zh) 一种人工智能超深度学习模型的构成方法
CN109635869A (zh) 在线学习干预系统
Xiao et al. Cusps enable line attractors for neural computation
Yang Application of multidirectional mutation genetic algorithm and its optimization neural network in intelligent optimization of English teaching courses
CN106203634A (zh) 一种基于因果图启发式的并行概率规划方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20190319

RJ01 Rejection of invention patent application after publication