CN109492765A - 一种基于迁移模型的图像增量学习方法 - Google Patents
一种基于迁移模型的图像增量学习方法 Download PDFInfo
- Publication number
- CN109492765A CN109492765A CN201811294198.3A CN201811294198A CN109492765A CN 109492765 A CN109492765 A CN 109492765A CN 201811294198 A CN201811294198 A CN 201811294198A CN 109492765 A CN109492765 A CN 109492765A
- Authority
- CN
- China
- Prior art keywords
- training
- old
- resnet50
- learning
- new
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
一种基于变分自编码器的图像增量学习方法,包括以下步骤:1)构造以ResNet50网络层结构为原型的主网络,引入MMD距离度量;2)设定优化器和学习率,采用知识蒸馏和权重惩罚策略;3)训练方式采用限制性的样本增量方法训练ResNet50模型;4)重载最近一次训练的最佳模型,重复使用限制性的样本增量方法训练,直到训练完所有增量数据。本发明使得对抗扰动的生成不再受限于实际中众多环境因素的影响,具有较高的实用价值。
Description
技术领域
本发明涉及增量学习方法和知识蒸馏技术,借鉴了迁移学习(TransferLearning)的思想,利用权重惩罚(Weight Punish)的技巧,结合限制性的样本增量学习方法,控制每次学习过程中的训练样本数目,在保持旧类别分类识别精度的前提下,同时提高对新增类别数据的分类精度,从而达到在原有模型上的增量学习。
背景技术
近年来,深度卷积神经网络(Deep Convolutional Neural network,DCNNs)已成为大规模图像分类的主要结构。2012年,AlexNet通过实施Deep-CNN并将DCNNs推入大众视野下,赢得了ImageNet大规模视觉识别挑战(ISLVRC)。从那时起,它们就主导了ISLVRC,并在MNIST、Cifar 10/100和ImageNet等流行的图像数据集上表现出色。
随着对大量标记数据(例如ImageNet包含120万幅图像和1000个类别)的出现,在图像识别领域中,监督学习得到快速发展。通常情况下,DCNN是在包含大量标签的图像数据集中进行训练的。网络学习提取相关特征并对这些图像进行分类。这个训练过的模型被用于对无标签图像进行分类。在训练过程中,所有的训练数据都会提供给网络进行重复训练。然而,在现实世界中,我们很难同时拥有所有数据的数据分布。相反,数据是逐步收集而汇总得到的。因此,我们需要一个方法可以学习新的数据,并且不会遗忘旧的知识。增量学习可以很好地解决这个问题,同时增量学习在图像识别领域很大程度上依赖于DCNN的发展。
DCNN能够在同一个模型中实现特征提取和分类识别,但是对模型的参数空间稍作修改会对模型输出产生巨大影响。DCNN增量训练的另一个难题是灾难性遗忘问题,可参考文献1(I.J.Goodfellow,M.Mirza,D.Xiao,A.Courville,and Y.Bengio.“An empiricalinvestigation of catastrophic forgetting in gradient-based neural networks.”arXiv preprint arXiv:1312.6211,2013,即I.J.Goodfellow,M.Mirza,D.Xiao,A.Courville,and Y.Bengio.基于梯度的神经网络中灾难性遗忘的证实研究.arXivpreprint arXiv:1312.6211,2013)。当新的数据被输入DCNN时,它会破坏从先前数据中学习到的特性。这要求在对新数据进行再次训练时使用先前的数据。
近年来在增量学习方面取得了较大进展,例如iCaRL,它是目前增量学习领域较为有效的方法,它将深度学习与k近邻(KNN)方法相结合,利用深度学习提取数据的高阶特征,并使用KNN作为最终的分类器。在分类过程中,它使用属于该类的所有训练数据(或保留的范例)计算某个类别的平均高阶特征,为测试数据找到最近的平均类别表征,并相应地分配类别标签。为了减少类数量急剧增加时的内存占用,该方法为每个类别存储一个范例集,可参考文献2(Rebuffi,S.,Kolesnikov,A.,and Lampert,C.H.(2016).“iCaRL:Incrementalclassifier and representation learning.”CoRR,abs/1611.07725,即Rebuffi,S.,Kolesnikov,A.,and Lampert,C.H.(2016).iCaRL:Incremental classifier andrepresentation learning.CoRR,abs/1611.07725)。尽管该方法在一部分数据集上的性能令人印象深刻,但它在生物信息学数据集上的效果却急剧下降。同时,迁移学习在增量学习中也起着重要的作用。它允许我们利用过去的知识,而且CNN的初始层可以学习到通用的低阶特性。利用DCNN卷积层之间共享权重的特性来构建分类器。这些特性可以按照语义进行分组,或者按照特征驱动,比如FALCON,可参考文献3(P.Panda,A.Ankit,P.Wijesinghe,andK.Roy.“Falcon:Feature driven selective classification for energy-efficientimage recognition.”IEEE Transactions on Computer-Aided Design ofIntegratedCircuits and Systems,36(12),2017,即P.Panda,A.Ankit,P.Wijesinghe,and K.Roy.“Falcon:高效图像识别的特征驱动选择性分类”IEEE Transactions on Computer-AidedDesign ofIntegrated Circuits and Systems,36(12),2017)。
目前国内外对增量学习技术的研究还处于起步阶段。增量学习作为一种减少对时间和空间依赖的有效手段,在经济社会的发展中起着重要的作用,需要对增量学习方法进行更深入和更广泛的研究。
发明内容
为了解决实际应用场景下数据库中的数据动态变化的问题,避免在海量数据下进行重复学习,满足只需修改因数据分布变化所引起的部分模型参数变动的特点,本发明提出以深度适配网络(Deep Adaptation Network,DAN)为基础,通过引入样本增量的方法,严格控制每次增量学习中样本的使用量,减小在先前所有样本上的重复学习所带来的训练时间代价。DAN中的最大均值差异(Maximum Mean Discrepancy,MMD)损失函数能够减小因训练样本不平衡所带来的分类性能差异,引入权重惩罚进一步缓解样本不平衡的问题,同时利用知识蒸馏引入KL相对熵损失函数缓解灾难性遗忘问题。这种增量学习方法适应了实际应用场景的需求,在人工智能领域具有重要的研究和应用价值。
本发明实现上述发明目的所采用的技术方案为:
一种基于迁移模型的图像增量学习方法,包括以下步骤:
S1:构造以ResNet50网络层结构为原型的主网络,在ResNet50最后输出层后添加MMD,MMD是迁移学习,用来度量两个相关但不同分布之间的距离;
S2:ResNet50模型采用Adam训练优化器,学习率为自适应下降的策略,同时,基础分类损失函数是交叉熵函数,权重惩罚策略为加大对先前样本错分的损失值,利用知识蒸馏引入KL相对熵损失函数缓解遗忘已训练的类别;
S3:训练方式采用限制性的样本增量方法训练ResNet50模型:每次增量训练时,随机选取50%新增类别数据,并结合相同数量的先前类别数据进行联合训练,严格控制了单次训练样本和训练时间,训练结束后,评估在测试集上精度,并且保存性能最高的模型参数;
S4:重载最近一次训练的最佳模型,重复S2~S3步骤,评估在所有测试集上的性能,直到训练完所有增量数据。
进一步,所述步骤S1中,ResNet50是一个残差结构的卷积神经网络,在2015年ImageNet比赛classification任务上获得第一名,在图像识别领域起着至关重要的作用,借鉴DAN中MMD的思想,在ResNet50最后输出层后添加MMD,MMD是迁移学习,其是Domainadaptation中使用最为广泛的一种损失函数,用来度量两个相关但不同分布之间的距离。具体定义为:
其中x表示Source domain的输入数据,y表示Target domain的输入数据,φ表示网络对于输入的映射,H表示将数据映射到再生希尔伯特空间中进行度量。
再进一步,所述步骤S2中,ResNet50模型采用Adam训练优化器,其中beta参数设定为0.5~0.999,epsilon参数设定为10e-8,学习率为自适应下降的策略,定义如下:
上式中l0表示初始学习率,n表示当前训练的epoch数,N表示所有训练的epoch数,α表示控制学习率下降幅度的超参数,α越大,学习率的大小随着epoch的增大而迅速减小;
模型的基础分类损失函数采用传统的交叉熵函数,并结合权重惩罚策略,权重惩罚策略定义如下:
wold=Cold/Ctotal
wnew=Cnew/Ctotal
在这里,wold和wnew分别表示旧类别和新类别惩罚权重,Cold,Cnew和Ctotal分别表示旧类别的数目,新类别的数目和新旧总的类别数目;
同时,知识蒸馏引入KL散度损失函数缓解遗忘已训练的类别。KL散度损失函数具体定义如下:
上式中x表示旧类别数据,φ表示网络对于输入的映射。
本发明的技术构思为:鉴于实际场景中数据库的数据是动态变化的,并且在所有数据上进行重复训练需要耗费大量的时间,本发明结合知识蒸馏和增量学习的方法,提出用限制性的样本增量学习方法,控制每次学习过程中的训练样本数目,在保持旧类别分类识别精度的前提下,同时提高对新增类别数据的分类精度,从而达到在原有模型上的增量学习。
与现有的技术相比,本发明的有益效果是:与传统的增量学习方法相比,本发明控制每次学习过程中的训练样本数目,并结合知识蒸馏和迁移模型,成功缓解了增量学习中的灾难性遗忘问题。
附图说明
图1为构建ResNet50的迁移模型的流程图。
图2为采用限制性的样本增量学习的流程图。
图3为基于迁移模型的图像增量学习方法的流程图。
具体实施方式
下面结合说明书附图对本发明做进一步说明。
参照图1~图3,一种基于迁移模型的图像增量学习方法,克服了传统学习方式的不足,从动态更新的数据中有效地训练一个分类器,并且在不影响旧类别的识别精度的前提下,大幅减小了训练时间,本发明结合知识蒸馏和增量学习的方法,提出用限制性的样本增量学习方法,控制每次学习过程中的训练样本数目,在保持旧类别分类识别精度的前提下,同时提高对新增类别数据的分类精度,从而达到在原有模型上的增量学习。
本发明包括以下步骤:
S1:构造以ResNet50网络层结构为原型的主网络,在ResNet50最后输出层后添加MMD,MMD是迁移学习,其是Domain adaptation中使用最为广泛的一种损失函数,用来度量两个相关但不同分布之间的距离;
S2:ResNet50模型采用Adam训练优化器,学习率为自适应下降的策略,同时,基础分类损失函数是交叉熵函数,权重惩罚策略为加大对先前样本错分的损失值,利用知识蒸馏引入KL相对熵损失函数缓解遗忘已训练的类别;
S3:训练方式采用限制性的样本增量方法训练ResNet50模型:每次增量训练时,随机选取50%新增类别数据,并结合相同数量的先前类别数据(无需在各个类别中取等量的数据)进行联合训练,严格控制了单次训练样本和训练时间。训练结束后,评估在测试集上精度,并且保存性能最高的模型参数;
S4:重载最近一次训练的最佳模型,重复S2~S3步骤,评估在所有测试集上的性能,直到训练完所有增量数据。
进一步,所述步骤S1中,ResNet50是一个残差结构的卷积神经网络,在2015年ImageNet比赛classification任务上获得第一名,在图像识别领域起着至关重要的作用;借鉴DAN中MMD的思想,在ResNet50最后输出层后添加MMD,MMD是迁移学习,其是Domainadaptation中使用最为广泛的一种损失函数,主要用来度量两个相关但不同分布之间的距离,定义为:
其中x表示Source domain的输入数据,y表示Target domain的输入数据,φ表示网络对于输入的映射,H表示将数据映射到再生希尔伯特空间中进行度量。
再进一步,所述步骤S2中,ResNet50模型采用Adam训练优化器,其中beta参数设定为0.5~0.999,epsilon参数设定为10e-8,学习率为自适应下降的策略,定义如下:
上式中l0表示初始学习率,n表示当前训练的epoch数,N表示所有训练的epoch数,α表示控制学习率下降幅度的超参数,α越大,学习率的大小随着epoch的增大而迅速减小;
模型的基础分类损失函数采用传统的交叉熵函数,并结合权重惩罚策略。权重惩罚策略具体定义如下:
wold=Cold/Ctotal
wnew=Cnew/Ctotal
在这里,wold和wnew分别表示旧类别和新类别惩罚权重,Cold,Cnew和Ctotal分别表示旧类别的数目,新类别的数目和新旧总的类别数目;
同时,知识蒸馏引入KL散度损失函数缓解遗忘已训练的类别,KL散度损失函数定义如下:
上式中x表示旧类别数据,φ表示网络对于输入的映射。
综上所述,克服了传统学习方式的不足,从动态更新的数据中有效地训练一个分类器,并且在不影响旧类别的识别精度的前提下,大幅减小了训练时间,有效地提高了实际应用价值,扩大了应用领域。对发明而言仅仅是说明性的,而非限制性的。本专业技术人员理解,在发明权利要求所限定的精神和范围内可对其进行许多改变,修改,甚至等效,但都将落入本发明的保护范围内。
Claims (3)
1.一种基于迁移模型的图像增量学习方法,其特征在于,所述方法包括如下步骤:
S1:构造以ResNet50网络层结构为原型的主网络,在ResNet50最后输出层后添加MMD,MMD是迁移学习,用来度量两个相关但不同分布之间的距离;
S2:ResNet50模型采用Adam训练优化器,学习率为自适应下降的策略,同时,基础分类损失函数是交叉熵函数,权重惩罚策略为加大对先前样本错分的损失值,利用知识蒸馏引入KL相对熵损失函数缓解遗忘已训练的类别;
S3:训练方式采用限制性的样本增量方法训练ResNet50模型:每次增量训练时,随机选取50%新增类别数据,并结合相同数量的先前类别数据进行联合训练,严格控制了单次训练样本和训练时间;训练结束后,评估在测试集上精度,并且保存性能最高的模型参数;
S4:重载最近一次训练的最佳模型,重复S2~S3步骤,评估在所有测试集上的性能,直到训练完所有增量数据。
2.如权利要求1所述的一种基于迁移模型的图像增量学习方法,其特征在于:所述步骤S1中,ResNet50是一个残差结构的卷积神经网络,在ResNet50最后输出层后添加MMD,MMD是迁移学习,用来度量两个相关但不同分布之间的距离,定义为:
其中x表示Source domain的输入数据,y表示Target domain的输入数据,φ表示网络对于输入的映射,H表示将数据映射到再生希尔伯特空间中进行度量。
3.如权利要求1或2所述的一种基于迁移模型的图像增量学习方法,其特征在于:所述步骤S2中,ResNet50模型采用Adam训练优化器,其中beta参数设定为0.5~0.999,epsilon参数设定为10e-8。学习率为自适应下降的策略,定义如下:
上式中l0表示初始学习率,n表示当前训练的epoch数,N表示所有训练的epoch数,α表示控制学习率下降幅度的超参数,α越大,学习率的大小随着epoch的增大而迅速减小;
模型的基础分类损失函数采用传统的交叉熵函数,并结合权重惩罚策略,权重惩罚策略定义如下:
wold=Cold/Ctotal
wnew=Cnew/Ctotal
在这里,wold和wnew分别表示旧类别和新类别惩罚权重,Cold,Cnew和Ctotal分别表示旧类别的数目,新类别的数目和新旧总的类别数目;
同时,知识蒸馏引入KL散度损失函数缓解遗忘已训练的类别,KL散度损失函数具体定义如下:
上式中x表示旧类别数据,φ表示网络对于输入的映射。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811294198.3A CN109492765A (zh) | 2018-11-01 | 2018-11-01 | 一种基于迁移模型的图像增量学习方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811294198.3A CN109492765A (zh) | 2018-11-01 | 2018-11-01 | 一种基于迁移模型的图像增量学习方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109492765A true CN109492765A (zh) | 2019-03-19 |
Family
ID=65693649
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811294198.3A Pending CN109492765A (zh) | 2018-11-01 | 2018-11-01 | 一种基于迁移模型的图像增量学习方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109492765A (zh) |
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110119448A (zh) * | 2019-05-08 | 2019-08-13 | 合肥工业大学 | 基于双重自动编码器的半监督跨领域文本分类方法 |
CN110135510A (zh) * | 2019-05-22 | 2019-08-16 | 电子科技大学中山学院 | 一种动态领域自适应方法、设备及计算机可读存储介质 |
CN110210560A (zh) * | 2019-05-31 | 2019-09-06 | 北京市商汤科技开发有限公司 | 分类网络的增量训练方法、分类方法及装置、设备及介质 |
CN110443372A (zh) * | 2019-07-11 | 2019-11-12 | 南京邮电大学 | 一种基于熵最小化的迁移学习方法及系统 |
CN110796619A (zh) * | 2019-10-28 | 2020-02-14 | 腾讯科技(深圳)有限公司 | 一种图像处理模型训练方法、装置、电子设备及存储介质 |
CN110808036A (zh) * | 2019-11-07 | 2020-02-18 | 南京大学 | 一种增量式语音命令词识别方法 |
CN110991373A (zh) * | 2019-12-09 | 2020-04-10 | 北京字节跳动网络技术有限公司 | 图像处理方法、装置、电子设备及介质 |
CN111199242A (zh) * | 2019-12-18 | 2020-05-26 | 浙江工业大学 | 一种基于动态修正向量的图像增量学习方法 |
CN111210000A (zh) * | 2019-12-18 | 2020-05-29 | 浙江工业大学 | 一种基于固定特征的调制信号增量学习方法 |
CN111222545A (zh) * | 2019-12-24 | 2020-06-02 | 西安电子科技大学 | 基于线性规划增量学习的图像分类方法 |
CN111368874A (zh) * | 2020-01-23 | 2020-07-03 | 天津大学 | 一种基于单分类技术的图像类别增量学习方法 |
CN111488917A (zh) * | 2020-03-19 | 2020-08-04 | 天津大学 | 一种基于增量学习的垃圾图像细粒度分类方法 |
CN112115967A (zh) * | 2020-08-06 | 2020-12-22 | 中山大学 | 一种基于数据保护的图像增量学习方法 |
CN112257864A (zh) * | 2020-10-22 | 2021-01-22 | 福州大学 | 一种用于解决灾难性遗忘问题的终生学习方法 |
CN112668498A (zh) * | 2020-12-30 | 2021-04-16 | 西安电子科技大学 | 空中辐射源个体智能增量识别方法、系统、终端及应用 |
CN112990280A (zh) * | 2021-03-01 | 2021-06-18 | 华南理工大学 | 面向图像大数据的类增量分类方法、系统、装置及介质 |
WO2022027987A1 (zh) * | 2020-08-04 | 2022-02-10 | 杰创智能科技股份有限公司 | 一种图像识别模型的训练方法及图像识别方法 |
CN114429153A (zh) * | 2021-12-31 | 2022-05-03 | 苏州大学 | 基于终身学习的齿轮箱增量故障诊断方法及系统 |
WO2023086196A1 (en) * | 2021-11-12 | 2023-05-19 | Nec Laboratories America, Inc. | Domain generalizable continual learning using covariances |
-
2018
- 2018-11-01 CN CN201811294198.3A patent/CN109492765A/zh active Pending
Cited By (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110119448A (zh) * | 2019-05-08 | 2019-08-13 | 合肥工业大学 | 基于双重自动编码器的半监督跨领域文本分类方法 |
CN110135510A (zh) * | 2019-05-22 | 2019-08-16 | 电子科技大学中山学院 | 一种动态领域自适应方法、设备及计算机可读存储介质 |
CN110210560A (zh) * | 2019-05-31 | 2019-09-06 | 北京市商汤科技开发有限公司 | 分类网络的增量训练方法、分类方法及装置、设备及介质 |
CN110443372A (zh) * | 2019-07-11 | 2019-11-12 | 南京邮电大学 | 一种基于熵最小化的迁移学习方法及系统 |
CN110796619A (zh) * | 2019-10-28 | 2020-02-14 | 腾讯科技(深圳)有限公司 | 一种图像处理模型训练方法、装置、电子设备及存储介质 |
CN110796619B (zh) * | 2019-10-28 | 2022-08-30 | 腾讯科技(深圳)有限公司 | 一种图像处理模型训练方法、装置、电子设备及存储介质 |
CN110808036A (zh) * | 2019-11-07 | 2020-02-18 | 南京大学 | 一种增量式语音命令词识别方法 |
CN110991373A (zh) * | 2019-12-09 | 2020-04-10 | 北京字节跳动网络技术有限公司 | 图像处理方法、装置、电子设备及介质 |
CN111210000A (zh) * | 2019-12-18 | 2020-05-29 | 浙江工业大学 | 一种基于固定特征的调制信号增量学习方法 |
CN111199242B (zh) * | 2019-12-18 | 2024-03-22 | 浙江工业大学 | 一种基于动态修正向量的图像增量学习方法 |
CN111199242A (zh) * | 2019-12-18 | 2020-05-26 | 浙江工业大学 | 一种基于动态修正向量的图像增量学习方法 |
CN111210000B (zh) * | 2019-12-18 | 2021-11-23 | 浙江工业大学 | 一种基于固定特征的调制信号增量学习方法 |
CN111222545A (zh) * | 2019-12-24 | 2020-06-02 | 西安电子科技大学 | 基于线性规划增量学习的图像分类方法 |
CN111222545B (zh) * | 2019-12-24 | 2022-04-19 | 西安电子科技大学 | 基于线性规划增量学习的图像分类方法 |
CN111368874B (zh) * | 2020-01-23 | 2022-11-15 | 天津大学 | 一种基于单分类技术的图像类别增量学习方法 |
CN111368874A (zh) * | 2020-01-23 | 2020-07-03 | 天津大学 | 一种基于单分类技术的图像类别增量学习方法 |
CN111488917A (zh) * | 2020-03-19 | 2020-08-04 | 天津大学 | 一种基于增量学习的垃圾图像细粒度分类方法 |
WO2022027987A1 (zh) * | 2020-08-04 | 2022-02-10 | 杰创智能科技股份有限公司 | 一种图像识别模型的训练方法及图像识别方法 |
CN112115967B (zh) * | 2020-08-06 | 2023-08-01 | 中山大学 | 一种基于数据保护的图像增量学习方法 |
CN112115967A (zh) * | 2020-08-06 | 2020-12-22 | 中山大学 | 一种基于数据保护的图像增量学习方法 |
CN112257864A (zh) * | 2020-10-22 | 2021-01-22 | 福州大学 | 一种用于解决灾难性遗忘问题的终生学习方法 |
CN112668498B (zh) * | 2020-12-30 | 2024-02-06 | 西安电子科技大学 | 空中辐射源个体智能增量识别方法、系统、终端及应用 |
CN112668498A (zh) * | 2020-12-30 | 2021-04-16 | 西安电子科技大学 | 空中辐射源个体智能增量识别方法、系统、终端及应用 |
CN112990280A (zh) * | 2021-03-01 | 2021-06-18 | 华南理工大学 | 面向图像大数据的类增量分类方法、系统、装置及介质 |
CN112990280B (zh) * | 2021-03-01 | 2023-08-25 | 华南理工大学 | 面向图像大数据的类增量分类方法、系统、装置及介质 |
WO2023086196A1 (en) * | 2021-11-12 | 2023-05-19 | Nec Laboratories America, Inc. | Domain generalizable continual learning using covariances |
CN114429153A (zh) * | 2021-12-31 | 2022-05-03 | 苏州大学 | 基于终身学习的齿轮箱增量故障诊断方法及系统 |
CN114429153B (zh) * | 2021-12-31 | 2023-04-28 | 苏州大学 | 基于终身学习的齿轮箱增量故障诊断方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109492765A (zh) | 一种基于迁移模型的图像增量学习方法 | |
Santosa et al. | Cat swarm optimization for clustering | |
CN108564129A (zh) | 一种基于生成对抗网络的轨迹数据分类方法 | |
CN106446942A (zh) | 基于增量学习的农作物病害识别方法 | |
CN108197643B (zh) | 一种基于无监督聚类和度量学习的迁移学习方法 | |
CN105931116A (zh) | 基于深度学习机制的自动化信用评分系统及方法 | |
CN106777402B (zh) | 一种基于稀疏神经网络的图像检索文本方法 | |
CN108985342A (zh) | 一种基于深度增强学习的不平衡分类方法 | |
CN106650933A (zh) | 基于协同进化和反向传播的深度神经网络优化方法 | |
CN106980831A (zh) | 基于自编码器的自亲缘关系识别方法 | |
CN107944460A (zh) | 一种应用于生物信息学中类别不平衡分类方法 | |
CN106373057A (zh) | 一种面向网络教育的成绩不良学习者识别方法 | |
CN108510050A (zh) | 一种基于混洗蛙跳的特征选择方法 | |
Chang et al. | Simultaneously construct IRT-based parallel tests based on an adapted CLONALG algorithm | |
CN109902371A (zh) | 一种基于深度强化学习的智能排课方法 | |
CN113239211A (zh) | 一种基于课程学习的强化学习知识图谱推理方法 | |
Sebastian | Performance evaluation by artificial neural network using WEKA | |
CN112163620A (zh) | 一种stacking模型融合方法 | |
CN109146055A (zh) | 基于正交化实验和人工神经网络的改进粒子群优化方法 | |
CN104537108A (zh) | 一种高维数据特征选择方法 | |
CN108073978A (zh) | 一种人工智能超深度学习模型的构成方法 | |
CN109635869A (zh) | 在线学习干预系统 | |
Xiao et al. | Cusps enable line attractors for neural computation | |
Yang | Application of multidirectional mutation genetic algorithm and its optimization neural network in intelligent optimization of English teaching courses | |
CN106203634A (zh) | 一种基于因果图启发式的并行概率规划方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190319 |
|
RJ01 | Rejection of invention patent application after publication |