CN112257864B - 一种用于解决灾难性遗忘问题的终生学习方法 - Google Patents

一种用于解决灾难性遗忘问题的终生学习方法 Download PDF

Info

Publication number
CN112257864B
CN112257864B CN202011141948.0A CN202011141948A CN112257864B CN 112257864 B CN112257864 B CN 112257864B CN 202011141948 A CN202011141948 A CN 202011141948A CN 112257864 B CN112257864 B CN 112257864B
Authority
CN
China
Prior art keywords
orthogonal
model
solver
task
style
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011141948.0A
Other languages
English (en)
Other versions
CN112257864A (zh
Inventor
于元隆
刘子夜
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fuzhou University
Original Assignee
Fuzhou University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuzhou University filed Critical Fuzhou University
Priority to CN202011141948.0A priority Critical patent/CN112257864B/zh
Publication of CN112257864A publication Critical patent/CN112257864A/zh
Application granted granted Critical
Publication of CN112257864B publication Critical patent/CN112257864B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明涉及一种用于解决灾难性遗忘问题的的终生学习方法。该方法包括:(1)借助旧求解器的编码网络,获得生成模型更新前后的特征信息;(2)对更新前的特征进行白化,并通过新旧特征的线性组合来获得鲁棒特征,用于构造变换矩阵对新特征白化,从而获得更新前后的正交特征信息;(3)依据风格迁移算法,利用Gram矩阵得到生成模型更新前后的正交风格信息,并通过融合正交风格一致性的损失项来更新生成模型;(4)基于知识蒸馏算法训练求解器与生成的伪数据配对来代表旧任务,与新数据混洗用于求解器的更新。本发明能够减轻生成模型中随着任务增加造成的生成模型的遗忘以及由于求解器独立训练造成的分类信息丢失的问题,从而达到解决神经网络以及人工智能(AI)系统开发存在的终生学习中的灾难性遗忘问题。

Description

一种用于解决灾难性遗忘问题的终生学习方法
技术领域
本发明涉及人工智能技术领域,具体为一种用于解决灾难性遗忘问题的的终生学习方法。
背景技术
现实世界中运行的计算系统往往会遇到连续的信息流,或者由于存储限制或隐私问题而只能临时使用数据的情景,此时需要从动态数据分布中学习和记住多个任务,不断更新模型来适应新任务。但是,机器学习所建立的是无法随时间适应或扩展其行为的静态模型,当处理新任务时,需要对整个模型进行重新训练,此时更新后的模型不再适用于旧任务的处理。终生学习(lifelong learning)试图去模拟人类的行为,使得针对序列任务,模型不仅可以很好的处理当前任务,也要保留处理旧任务的能力,有记忆的保留之前学到的知识,并逐渐扩展用于未来任务的学习。但是通过随机梯度下降训练的深度神经网络模型从非平稳数据分布中获取增量可用信息通常会导致灾难性的遗忘或干扰,即:随着新任务或领域的增加,先前学习的任务或领域的性能不应(显著)随时间降低。终生学习中的灾难性遗忘问题对神经网络以及人工智能(AI) 系统的开发提出了长期的挑战。
现今试图去解决灾难性遗忘的方法中,具有最理想效果的主流方法是基于数据重现的方法。主要是通过储存少部分样本或压缩样本到生成模型中,与新任务数据混洗用于新模型的训练。最值得注意的是Rebuffi等人的工作,该方法依据类别存储旧任务中每个类的样例子集,计算新旧任务各自特征向量,通过最近均值分类算法取其类别标签。但是这个方法受到联合训练的限制。D.Lopez-Paz等人提出用约束优化来解决这个问题,为后向/向前传输留出了更多空间,该方法提出限制新任务的更新,使其不干扰先前的任务。R.Aljundi等人将此方法扩展到了没有任务界限的在线的连续学习环境。然而,这些方法需要存储样本,随着任务的增加而造成存储容量的爆炸。
近年来,生成模型已经显示出生成高质量图像的能力,为建模数据生成分布和对生成的示例进行再训练提供了可能性。因此,Hanul Shin等人为了解决以上问题,提出generative replay(GR)的方法,在生成对抗网络(GAN)框架中训练了一个深度生成模型,以模仿过去的数据。然后将生成的数据与过去任务求解器的配对来表示旧任务。生成器-求解器对可以根据需要生成大量伪数据对,与新数据混洗来更新模型。该框架可用于涉及隐私问题的各种实际情况。但是基于生成模型的重现算法,需要生成模型的不断更新,性能极大的依赖于生成模型的质量。其存在的主要难点有:
(1)生成模型的遗忘
通过使用随机梯度下降技术训练的生成模型,随着任务序列的增加,在生成模型中压缩旧任务的数据,将慢慢忘记以前记住的分布。即遗忘发生在生成模型中,导致生成的数据不能表示先前任务的数据分布,这使得试图模拟联合训练的重现的方法不能很好的解决终生学习中的灾难性遗忘问题。
(2)求解器的误差传递
不同任务的求解器是独立训练的,因此新求解器无法保留先前学习的分类知识。另外,由生成器-求解器对产生的伪标签是one-hot形式,丢失了类别之间的分布信息。
发明内容
本发明的目的在于提供一种用于解决灾难性遗忘问题的的终生学习方法,该方法能够减轻生成模型中随着任务增加造成的生成模型的遗忘以及由于求解器独立训练造成的分类信息丢失的问题,从而达到解决神经网络以及人工智能(AI)系统开发存在的终生学习中的灾难性遗忘问题。
为实现上述目的,本发明的技术方案是:一种基于风格迁移和知识蒸馏的终生学习方法,包括如下步骤:
步骤S1:将生成器更新前后的生成数据输入求解器编码部分,得到模型更新前后的新旧特征,并计算对应特征均值向量;
步骤S2;对特征均值向量进行重组,并依据重组特征均值向量构造白化的变换矩阵,得到模型更新前后的正交特征;
步骤S3:基于正交特征获得生成器模型更新前后的正交风格信息;
步骤S4:融合正交风格一致性的损失项来更新生成模型,生成可以代表旧任务的伪数据;
步骤S5:基于知识蒸馏算法训练求解器与生成的伪数据配对来代表旧任务,与新数据混洗用于求解器的更新。
在本发明一实施例中,所述步骤S2具体包括:
步骤S21:利用生成模型更新前的特征均值向量μt-1,构造对应变换矩阵进行白化,获得模型更新前的正交特征;
步骤S22:将新旧特征均值向量μt、μt-1进行线性组合,可得t时刻稳定的特征均值向量:μt=k1μt-1+k2μt
步骤S23:基于步骤S22获得的特征均值向量,构造对应转换矩阵进行白化,获得模型更新后的正交特征。
相较于现有技术,本发明具有以下有益效果:本发明能够减轻生成模型中随着任务增加造成的生成模型的遗忘以及由于求解器独立训练造成的分类信息丢失的问题,从而达到解决神经网络以及人工智能(AI)系统开发存在的终生学习中的灾难性遗忘问题;
本发明具体优点如下:
1、本发明通过融合代表正交样式一致性的损失项的生成方法。在生成对抗网络中训练基于正交风格的生成模型(GAN)框架来模仿过去的数据。通过生成前后特征的线性组合而获得的鲁棒特征,构造了白化变换矩阵。在训练新任务时使正交样式的差异最小,以使更新的生成器具有先前任务的风格信息,从而减轻生成器的遗忘;
2、本发明在新旧求解器之间采用了知识蒸馏,通过鼓励先前和新的求解器具有相似的输出值来传递先前学习的分类知识。将代表先前任务的伪数据与具有高熵的软目标配对,在每个训练时期,软目标提供比硬目标更多的信息。
附图说明
图1为本发明一种用于解决灾难性遗忘问题的的终生学习方法的总体框图。
具体实施方式
下面结合附图,对本发明的技术方案进行具体说明。
本发明提供了一种用于解决灾难性遗忘问题的的终生学习方法,包括如下步骤:
步骤S1:将生成器更新前后的生成数据输入求解器编码部分,得到模型更新前后的新旧特征,并计算对应特征均值向量;
步骤S2;对特征均值向量进行重组,并依据重组特征均值向量构造白化的变换矩阵,得到模型更新前后的正交特征;
步骤S3:基于正交特征获得生成器模型更新前后的正交风格信息;
步骤S4:融合正交风格一致性的损失项来更新生成模型,生成可以代表旧任务的伪数据;
步骤S5:基于知识蒸馏算法训练求解器与生成的伪数据配对来代表旧任务,与新数据混洗用于求解器的更新。
以下为本发明一具体实施实例。
如图1所示,本发明的一种用于解决灾难性遗忘问题的的终生学习方法,包括如下步骤:
在训练第一个任务的时候,因为不存在旧任务,直接基于输入数据单独训练生成器和求解器。如图1(a)所示,在训练第t(t>1)个任务时生成模型(generator)的训练步骤如下:
步骤S1:令x′t-1和x′t是生成模型更新前后生成的伪数据,本发明利用t-1时刻的用于图像分类的求解器作为编码器,得到该训练好的卷积神经网络中第l个卷积层下,生成模型更新前后的特征Ft l,
Figure BDA0002737497390000031
以及对应特征均值向量μt,μt-1
步骤S2:为了获取图像的正交风格,本发明基于ZCA白化来降低特征的冗余性。利用生成模型更新前的特征均值向量μt-1,构造对应转换矩阵,获得模型t-1时刻的正交特征;
步骤S3:将新旧特征均值向量进行线性组合,可以提高在模型更新过程特征信息的鲁棒性,得到t时刻稳定特征均值向量:μt=k1μt-1+k2μt
步骤S4:基于该特征均值,构造对应转换矩阵,获得模型更新后(t时刻)的正交特征;
步骤S5:在得到更新前后图像的正交特征后,依据风格迁移算法,利用Gram矩阵得到在卷积层l下,其各自的正交风格表示形式Gl(x′t-1)和Gl(x′t),同时可得卷积层l对总正交风格损失的贡献为:
Figure BDA0002737497390000041
并且总的正交风格损失为:
Figure BDA0002737497390000042
其中
Figure BDA0002737497390000043
是每个层对第t个任务中总损失的贡献的加权因子,L为求解器中卷积层的总数。
进一步地,所述步骤S2中正交风格表示形式的计算为:
为了获得任务的正交风格的表示,本发明使用旨在捕获风格信息的特征空间,在网络的任何层中的过滤器响应之上构建特征空间。具有Nl个不同过滤器的网络层l具有Nl个特征图,每个特征图的大小为Ml,其中Ml是特征图的高度乘以宽度。因此,网络层l中的风格信息可以存储在矩阵
Figure BDA0002737497390000044
中,其中
Figure BDA0002737497390000045
是第l层中的第i个过滤器的位置j的激活值。
在特征图中,每个数字都来自在特定位置处卷积的特定过滤器。这些特征相关性由
Figure BDA0002737497390000046
中的Gram矩阵Gl给出,其中
Figure BDA0002737497390000047
是矢量化特征图i和j之间的内积。因此,Gram矩阵的非对角元素表示两个滤波输出特征之间的相关性,对角元素反映每个出现在图像中的滤波输出特征的值。通过利用构建在网络不同层上的这些风格特征空间捕获正交样式信息,可以获得图像的多尺度风格表示。
步骤S6:因此,第t个任务下生成器的损失
Figure BDA0002737497390000048
为生成模型的损失与正交风格损失的和,使得模型在更新的过程中保留图像稳定的正交风格信息。
Figure BDA0002737497390000049
其中,
Figure BDA00027374973900000410
为生成对抗模型(本发明中使用WGAN-GP)的损失,γ是正交风格损失的权重。
其次训练其配对的求解器(solver),如图1(b)所示:
步骤S7:在任务t时刻中,让在任务增量步骤t-1中的求解器St-1作为教师模型。以教师模型St-1来指导St学生模型的学习,使得其在学习新任务同时维持已知任务的性能。任务t时刻的知识蒸馏损失:
Figure BDA0002737497390000051
其中y和
Figure BDA0002737497390000052
是任务增量步骤t时刻,St-1和St的预测矢量(由概率分数组成),N为St-1中类别数。y′i
Figure BDA0002737497390000053
是记录的概率和当前概率的修改版本:
Figure BDA0002737497390000054
其中T是温度,本文使用T=1来确保St-1网络中正确的预测贡献。
本质上,一方面,Lt DL使得St-1和St之间的知识转移在给定相同输入的情况下输出近似,这有助于新模型学习先前任务的结构分布特征,从而保留先前任务的知识。另一方面,通过知识提炼,本发明可以获得与伪数据相对应的软标签,该伪标签比硬标签具有更多不同类别之间关系的信息。因此,本发明通过在训练新任务时增加蒸馏损失来减轻先前任务的遗忘,在t时刻处求解器更新的损失为:
Figure BDA0002737497390000056
其中
Figure BDA0002737497390000057
是当前任务的分类损失。β是蒸馏损失的权重,在大多数实验中都设为1。随着β的增大使得以前的任务性能得重要性胜于新任务的,因此可以通过β更改新旧任务性能的重要性。
以上是本发明的较佳实施例,凡依本发明技术方案所作的改变,所产生的功能作用未超出本发明技术方案的范围时,均属于本发明的保护范围。

Claims (1)

1.一种用于解决灾难性遗忘问题的终生学习方法,其特征在于,包括如下步骤:
步骤S1:将生成器更新前后的生成数据输入求解器编码部分,得到模型更新前后的新旧特征,并计算对应特征均值向量;
步骤S2;对特征均值向量进行重组,并依据重组特征均值向量构造白化的变换矩阵,得到模型更新前后的正交特征;所述步骤S2具体包括:
步骤S21:利用生成模型更新前的特征均值向量μt-1,构造对应变换矩阵进行白化,获得模型更新前的正交特征;
步骤S22:将新旧特征均值向量μt、μt-1进行线性组合,可得t时刻稳定的特征均值向量:μt=k1μt-1+k2μt
步骤S23:基于步骤S22获得的特征均值向量,构造对应转换矩阵进行白化,获得生成模型更新后的正交特征;
步骤S3:基于正交特征获得生成模型更新前后的正交风格信息;
步骤S4:融合正交风格一致性的损失项来更新生成模型,生成可以代表旧任务的伪数据;
所述步骤S3中基于正交特征获得生成模型更新前后的正交风格信息以及步骤S4中融合正交风格一致性的损失项来更新生成模型的具体实现方式如下:
在得到更新前后图像的正交特征后,依据风格迁移算法,利用Gram矩阵得到在卷积层l下,更新前后图像的正交特征各自的正交风格表示形式Gl(x′t-1)和Gl(x′t),同时可得卷积层l对总正交风格损失的贡献为:
Figure FDA0003665602690000011
并且总的正交风格损失为:
Figure FDA0003665602690000012
其中
Figure FDA0003665602690000013
是每个层对第t个任务中总损失的贡献的加权因子,L为求解器中卷积层的总数;
具有Nl个不同过滤器的网络层l具有Nl个特征图,每个特征图的大小为Ml,其中Ml是特征图的高度乘以宽度;网络层l中的正交风格信息存储在矩阵
Figure FDA0003665602690000014
中,其中
Figure FDA0003665602690000015
是第l层中的第i个过滤器的位置j的激活值;
在特征图中,每个数字都来自在相应位置处卷积的相应过滤器;特征相关性由
Figure FDA0003665602690000016
中的Gram矩阵Gl给出,其中
Figure FDA0003665602690000017
是矢量化特征图i和j之间的内积;Gram矩阵的非对角元素表示两个滤波输出特征之间的相关性,对角元素反映每个出现在图像中的滤波输出特征的值;通过利用构建在网络不同层上的正交风格特征空间捕获正交样式信息,获得图像的多尺度风格表示;
第t个任务下生成器的损失
Figure FDA0003665602690000021
为生成模型的损失与正交风格损失的和,使得生成模型在更新的过程中保留图像稳定的正交风格信息;
Figure FDA0003665602690000022
其中,
Figure FDA0003665602690000023
为生成对抗模型的损失,γ是正交风格损失的权重;
步骤S5:基于知识蒸馏算法训练求解器与生成的伪数据配对来代表旧任务,与新数据混洗用于求解器的更新;所述步骤S5具体包括:
训练求解器solver:
在任务t时刻中,让在任务增量步骤t-1中的求解器St-1作为教师模型;以教师模型St-1来指导学生模型St的学习,使得学生模型St在学习新任务同时维持已知任务的性能;任务t时刻的知识蒸馏损失:
Figure FDA0003665602690000024
其中y和
Figure FDA0003665602690000025
是任务增量步骤t时刻St-1和St的预测矢量,N为St-1中类别数,
Figure FDA0003665602690000026
是记录的概率和当前概率的修改版本:
Figure FDA0003665602690000027
T是温度;
通过在训练新任务时增加蒸馏损失来减轻先前任务的遗忘,在t时刻处求解器更新的损失为:
Figure FDA0003665602690000028
其中
Figure FDA0003665602690000029
是当前任务的分类损失,β是蒸馏损失的权重。
CN202011141948.0A 2020-10-22 2020-10-22 一种用于解决灾难性遗忘问题的终生学习方法 Active CN112257864B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011141948.0A CN112257864B (zh) 2020-10-22 2020-10-22 一种用于解决灾难性遗忘问题的终生学习方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011141948.0A CN112257864B (zh) 2020-10-22 2020-10-22 一种用于解决灾难性遗忘问题的终生学习方法

Publications (2)

Publication Number Publication Date
CN112257864A CN112257864A (zh) 2021-01-22
CN112257864B true CN112257864B (zh) 2022-08-16

Family

ID=74264160

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011141948.0A Active CN112257864B (zh) 2020-10-22 2020-10-22 一种用于解决灾难性遗忘问题的终生学习方法

Country Status (1)

Country Link
CN (1) CN112257864B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113657607B (zh) * 2021-08-05 2024-03-22 浙江大学 一种面向联邦学习的连续学习方法
CN115204389B (zh) * 2022-07-28 2024-06-14 上海人工智能创新中心 一种风格对抗生成网络的知识蒸馏方法
CN117743858A (zh) * 2024-02-19 2024-03-22 中国科学院自动化研究所 一种基于知识增强的连续学习软标签构建方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10325223B1 (en) * 2018-02-06 2019-06-18 Apprente, Inc. Recurrent machine learning system for lifelong learning
CN110059672A (zh) * 2019-04-30 2019-07-26 福州大学 一种利用增量学习对显微镜细胞图像检测模型进行增类学习的方法
CN111767992A (zh) * 2020-06-29 2020-10-13 西安宏规电子科技有限公司 一种基于卷积神经网络的双目标增量学习方法

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3622438A4 (en) * 2017-05-09 2021-03-10 Neurala, Inc. SYSTEMS AND METHODS FOR CONTINUOUS LEARNING LIMITED IN MEMORY IN CONTINUING APPLICATIONS OF ARTIFICIAL INTELLIGENCE AND DEEP LEARNING THROUGH NETWORKED COMPUTING EDGES
US20190205761A1 (en) * 2017-12-28 2019-07-04 Adeptmind Inc. System and method for dynamic online search result generation
US10162794B1 (en) * 2018-03-07 2018-12-25 Apprente, Inc. Hierarchical machine learning system for lifelong learning
CN109492765A (zh) * 2018-11-01 2019-03-19 浙江工业大学 一种基于迁移模型的图像增量学习方法
US11775812B2 (en) * 2018-11-30 2023-10-03 Samsung Electronics Co., Ltd. Multi-task based lifelong learning
CN111210000B (zh) * 2019-12-18 2021-11-23 浙江工业大学 一种基于固定特征的调制信号增量学习方法
CN111199242B (zh) * 2019-12-18 2024-03-22 浙江工业大学 一种基于动态修正向量的图像增量学习方法
CN111191709B (zh) * 2019-12-25 2023-10-31 清华大学 深度神经网络的持续学习框架及持续学习方法
CN111275646B (zh) * 2020-01-20 2022-04-26 南开大学 一种基于深度学习知识蒸馏技术的保边图像平滑方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10325223B1 (en) * 2018-02-06 2019-06-18 Apprente, Inc. Recurrent machine learning system for lifelong learning
CN110059672A (zh) * 2019-04-30 2019-07-26 福州大学 一种利用增量学习对显微镜细胞图像检测模型进行增类学习的方法
CN111767992A (zh) * 2020-06-29 2020-10-13 西安宏规电子科技有限公司 一种基于卷积神经网络的双目标增量学习方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
双分支迭代的深度增量图像分类方法;何丽等;《模式识别与人工智能》;20200215(第02期);全文 *

Also Published As

Publication number Publication date
CN112257864A (zh) 2021-01-22

Similar Documents

Publication Publication Date Title
CN112257864B (zh) 一种用于解决灾难性遗忘问题的终生学习方法
CN113469356B (zh) 一种基于迁移学习的改进vgg16网络猪的身份识别方法
US9619749B2 (en) Neural network and method of neural network training
US9390373B2 (en) Neural network and method of neural network training
Jain et al. Autoencoders for level generation, repair, and recognition
CN110706303A (zh) 基于GANs的人脸图像生成方法
CN114290339B (zh) 基于强化学习和残差建模的机器人现实迁移方法
CN108009635A (zh) 一种支持增量更新的深度卷积计算模型
CN112017255A (zh) 一种根据食谱生成食物图像的方法
CN112580728A (zh) 一种基于强化学习的动态链路预测模型鲁棒性增强方法
CN115972211A (zh) 基于模型不确定性与行为先验的控制策略离线训练方法
CN116363308A (zh) 人体三维重建模型训练方法、人体三维重建方法和设备
CN115795406A (zh) 一种可逆的人脸匿名化处理系统
CN117435715A (zh) 一种基于辅助监督信号改进时序知识图谱的问答方法
CN114513337A (zh) 一种基于邮件数据的隐私保护链接预测方法及系统
Cioffi-Revilla et al. Agent-based modeling simulation of social adaptation and long-term change in inner Asia
Azad et al. Clutr: Curriculum learning via unsupervised task representation learning
JP2017059193A (ja) 時系列画像補完装置、時系列画像生成方法、時系列画像補完装置用プログラム
CN112528077A (zh) 基于视频嵌入的视频人脸检索方法及系统
CN115212549A (zh) 一种对抗场景下的对手模型构建方法及存储介质
CN115908600A (zh) 基于先验正则化的大批量图像重建方法
CN115134114A (zh) 基于离散混淆自编码器的纵向联邦学习攻击防御方法
Mu et al. Using digital twin to enhance Sim2real transfer for reinforcement learning in 3C assembly
Zhang Generative Adversarial Networks for Image Synthesis
Mousavi et al. Researching advanced deep learning methodologies in combination with reinforcement learning techniques

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant