CN112990318A - 持续学习方法、装置、终端及存储介质 - Google Patents

持续学习方法、装置、终端及存储介质 Download PDF

Info

Publication number
CN112990318A
CN112990318A CN202110290300.8A CN202110290300A CN112990318A CN 112990318 A CN112990318 A CN 112990318A CN 202110290300 A CN202110290300 A CN 202110290300A CN 112990318 A CN112990318 A CN 112990318A
Authority
CN
China
Prior art keywords
data
sub
continuous learning
feature
similarity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110290300.8A
Other languages
English (en)
Inventor
杨赵南
李慧云
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Institute of Advanced Technology of CAS
Original Assignee
Shenzhen Institute of Advanced Technology of CAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Institute of Advanced Technology of CAS filed Critical Shenzhen Institute of Advanced Technology of CAS
Priority to CN202110290300.8A priority Critical patent/CN112990318A/zh
Publication of CN112990318A publication Critical patent/CN112990318A/zh
Priority to PCT/CN2021/138064 priority patent/WO2022193753A1/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Abstract

本申请适用于人工智能技术领域,提供一种持续学习方法、装置、终端及存储介质,其中方法包括:获取包含N类数据样本的数据集;基于持续学习任务对所述数据集包含的所述N类数据样本进行组别划分,得到M个子数据集,N大于M,N、M均为正整数;计算所述M个子数据集间的特征相似度,并基于所述特征相似度对所述M个子数据集进行排序,得到目标集合排列顺序;按照所述集合排列顺序,依次将所述M个子数据集输入至持续学习模型执行所述持续学习任务。该方案能够有效缓解持续学习复杂样本时的灾难性遗忘,提升持续学习过程的学习效果。

Description

持续学习方法、装置、终端及存储介质
技术领域
本申请属于人工智能技术领域,尤其涉及一种持续学习方法、装置、终端及存储介质。
背景技术
人类在学习的过程中能够将已学习到的知识用到新的学习任务上,并且在学习新任务时也不会忘记已经学习过的旧任务,在机器学习中这个过程被称为持续学习。当前神经网络在持续学习新知识尤其是学习新的复杂样本时,如果不重复学习已经学习过的旧知识,就会出现对旧知识的急剧遗忘现象,这种现象被称为神经网络的灾难性遗忘。
灾难性遗忘现象使得神经网络需要学习连续的多个复杂样本任务时,在学习后续任务时会使先前学到的模型的性能急剧下降,严重影响深度神经网络的持续学习效果。
发明内容
本申请实施例提供了一种持续学习方法、装置、终端及存储介质,以解决现有技术中灾难性遗忘现象使得神经网络需要学习连续的多个任务时,在学习后续任务时会使先前学到的模型的性能急剧下降,严重影响深度神经网络的持续学习效果的问题。
本申请实施例的第一方面提供了一种持续学习方法,包括:
获取包含N类数据样本的数据集;
基于持续学习任务对所述数据集包含的所述N类数据样本进行组别划分,得到M个子数据集,N大于M,N、M均为正整数;
计算所述M个子数据集间的特征相似度,并基于所述特征相似度对所述M个子数据集进行排序,得到目标集合排列顺序;
按照所述集合排列顺序,依次将所述M个子数据集输入至持续学习模型执行所述持续学习任务。
本申请实施例的第二方面提供了一种持续学习装置,包括:
获取模块,用于获取包含N类数据样本的数据集;
划分模块,用于基于持续学习任务对所述数据集包含的所述N类数据样本进行组别划分,得到M个子数据集,N大于M,N、M均为正整数;
排序模块,用于计算所述M个子数据集间的特征相似度,并基于所述特征相似度对所述M个子数据集进行排序,得到目标集合排列顺序;
持续学习模块,用于按照所述集合排列顺序,依次将所述M个子数据集输入至持续学习模型执行所述持续学习任务。
本申请实施例的第三方面提供了一种终端,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如第一方面所述方法的步骤。
本申请实施例的第四方面提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现如第一方面所述方法的步骤。
本申请的第五方面提供了一种计算机程序产品,当所述计算机程序产品在终端上运行时,使得所述终端执行上述第一方面所述方法的步骤。
由上可见,本申请实施例中,通过获取包含N类数据样本的数据集,基于持续学习任务对数据集包含的N类数据样本进行组别划分,得到M个子数据集,计算M个子数据集间的特征相似度,并基于特征相似度对M个子数据集进行排序,得到目标集合排列顺序;按照集合排列顺序,依次将M个子数据集输入至持续学习模型执行持续学习任务。该过程将任务持续学习中学习任务的顺序对学习结果的影响作为考量因素,通过衡量学习任务所对应子数据集间的特征相似性对各子数据集进行排序,依照排序后的次序依次执行学习任务,有效缓解持续学习复杂样本时的灾难性遗忘,提升持续学习过程的学习效果。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例提供的一种持续学习方法的流程图一;
图2是本申请实施例提供的一种持续学习方法的流程图二;
图3是本申请实施例中100类样本的特征间的夹角余弦相似度的混淆矩阵;
图4是本申请实施例中100类样本的特征相似度数值呈线性分布的混淆矩阵;
图5是本申请实施例提供的一种持续学习装置的结构图;
图6是本申请实施例提供的一种终端的结构图。
具体实施方式
以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、技术之类的具体细节,以便透彻理解本申请实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本申请。在其它情况中,省略对众所周知的系统、装置、电路以及方法的详细说明,以免不必要的细节妨碍本申请的描述。
应当理解,当在本说明书和所附权利要求书中使用时,术语“包括”指示所描述特征、整体、步骤、操作、元素和/或组件的存在,但并不排除一个或多个其它特征、整体、步骤、操作、元素、组件和/或其集合的存在或添加。
还应当理解,在此本申请说明书中所使用的术语仅仅是出于描述特定实施例的目的而并不意在限制本申请。如在本申请说明书和所附权利要求书中所使用的那样,除非上下文清楚地指明其它情况,否则单数形式的“一”、“一个”及“该”意在包括复数形式。
还应当进一步理解,在本申请说明书和所附权利要求书中使用的术语“和/或”是指相关联列出的项中的一个或多个的任何组合以及所有可能组合,并且包括这些组合。
如在本说明书和所附权利要求书中所使用的那样,术语“如果”可以依据上下文被解释为“当...时”或“一旦”或“响应于确定”或“响应于检测到”。类似地,短语“如果确定”或“如果检测到[所描述条件或事件]”可以依据上下文被解释为意指“一旦确定”或“响应于确定”或“一旦检测到[所描述条件或事件]”或“响应于检测到[所描述条件或事件]”。
具体实现中,本申请实施例中描述的终端包括但不限于诸如具有触摸敏感表面(例如,触摸屏显示器和/或触摸板)的移动电话、膝上型计算机或平板计算机之类的其它便携式设备。还应当理解的是,在某些实施例中,所述设备并非便携式通信设备,而是具有触摸敏感表面(例如,触摸屏显示器和/或触摸板)的台式计算机。
在接下来的讨论中,描述了包括显示器和触摸敏感表面的终端。然而,应当理解的是,终端可以包括诸如物理键盘、鼠标和/或控制杆的一个或多个其它物理用户接口设备。
终端支持各种应用程序,例如以下中的一个或多个:绘图应用程序、演示应用程序、文字处理应用程序、网站创建应用程序、盘刻录应用程序、电子表格应用程序、游戏应用程序、电话应用程序、视频会议应用程序、电子邮件应用程序、即时消息收发应用程序、锻炼支持应用程序、照片管理应用程序、数码相机应用程序、数字摄影机应用程序、web浏览应用程序、数字音乐播放器应用程序和/或数字视频播放器应用程序。
可以在终端上执行的各种应用程序可以使用诸如触摸敏感表面的至少一个公共物理用户接口设备。可以在应用程序之间和/或相应应用程序内调整和/或改变触摸敏感表面的一个或多个功能以及终端上显示的相应信息。这样,终端的公共物理架构(例如,触摸敏感表面)可以支持具有对用户而言直观且透明的用户界面的各种应用程序。
应理解,本实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本申请实施例的实施过程构成任何限定。
本申请实施例中,为解决现有技术中灾难性遗忘现象使神经网络需要学习连续的多个任务时,在学习后续任务时会使先前学到的模型的性能急剧下降,严重影响深度神经网络的持续学习效果的这一问题,提出了按照持续学习任务对样本数据集进行组别划分,并利用划分得到的子数据集之间的特征相似度来指示持续学习任务间的相似性,具体通过借助子数据集间的特征相似度对各任务对应的子数据集进行排序,以调节持续学习过程中的学习任务的排序,最终实现依照排序后的次序依次执行对应的学习任务,有效缓解持续学习过程中的灾难性遗忘现象,提升持续学习过程的学习效果。
为了说明本申请所述的技术方案,下面通过具体实施例来进行说明。
参见图1,图1是本申请实施例提供的一种持续学习方法的流程图一。如图1所示,一种持续学习方法,该方法包括以下步骤:
步骤101,获取包含N类数据样本的数据集。
该N类数据样本为持续学习任务所需的样本。该样本中包括持续学习任务的模型训练样本和测试样本。
其中,数据集的获取可以是测试人员上传的数据集,或者从网络上对图片或者文字等样本数据进行抓取得到。
具体地,该获取包含N类数据样本的数据集在实现过程中,具体包括:
获取持续学习任务所需的数据集;对数据集中包含的数据样本添加样本标签;根据不同的样本标签,对数据集中的数据样本进行分类,得到包含N类数据样本的数据集。
该样本标签用于指示数据样本的类别。
其中,在对数据集中包含的数据样本添加样本标签之前,可以先判断持续学习任务所需的数据集中数据样本的分布差别是否差异较大,若判断差异较大则需要对数据集进行标准化处理。
示例性的,可以采用z-score均值化公式:
Figure BDA0002982206170000071
处理,其中,
Figure BDA0002982206170000072
表示所有数据样本的均值;
Figure BDA0002982206170000073
表示所有样本的方差;N是数据样本的类别总数量;x是处理前的值,x′是预处理后的值。
步骤102,基于持续学习任务对数据集包含的N类数据样本进行组别划分,得到M个子数据集。
N大于M,N、M均为正整数。其中每一类数据样本中的样本数量为大于1。
在持续学习的总任务对应的样本类别数量不变的情况下,总任务会被划分成多个含相同类别数量(即持续学习的步子大小)的单任务,每个单任务则对应一个划分得到的子数据集,持续学习中的单任务数量乘以单个任务中样本的类别数量等于总的样本类别数量。其中,在进行组别划分时,将持续学习的步子大小设置的越大,划分得到的子数据集的数量越少,则持续学习的准确率越高。
该步骤实现基于持续学习的任务划定,对数据集进行预处理。
具体地,按持续学习的任务需要来划定子数据集,每个任务需要学习的样本类别数目相同(即持续学习的步子大小),不同的任务对应的子数据集中样本之间没有交集,所有任务对应的子数据集的并集是整个数据集。即,划分得到的不同子数据集中的样本类别不同,而不同子数据集中的样本类别的数量相同。
以数据样本为图片样本作为例子,进行说明。
例如,持续学习任务所需的数据集包含100个种类的图片,图片的种类例如为:包含飞机的图片、包含猫的图片、包含汽车的图片、包含鸟的图片。每种图片包含600张,每张图片会被处理成像素为32x32的RGB图像。本实施例中一个图像的所有像素点值形成为一个样本数据,所包含内容物为同类的图片则给定相同的图片样本标签,形成为一类样本。
数据集一共有100类的图片样本,为了模拟持续学习的过程。我们将模型学习整个数据集划分成5个任务为例,第一个任务需要学会分类第1到第20个类别的图片样本,第二个任务需要新学习第21类到40类的样本,同时不遗忘之前学习过的第1个到第20个类别的图片样本,即第二任务之后,模型要学会分类第1个到40种类的图像样本,最终持续学习第5个任务之后,模型具有分辨第1个到第100个种类图片样本的能力。
步骤103,计算M个子数据集间的特征相似度,并基于特征相似度对M个子数据集进行排序,得到目标集合排列顺序。
具体地,M个子数据集间的特征相似度为基于各自包含的数据样本间的特征相似度得到。
排序时采用的方法可以是模拟退火算法、贪心算法、分支限界算法、枚举法等。
在基于特征相似度对M个子数据集进行排序时,特征相似度越近的子数据集则在目标集合排列顺序中的排列次序越靠近。更具体地,需要使排序后的子数据集与相邻子数据集之间具有最相近的特征相似度,相邻子集合之间的相似度最大,持续学习的效果最佳,有效缓解模型在持续学习新知识过程中旧知识急剧遗忘的现象。
在持续学习中,不同的任务间存在不同的相似性关系,本实施例通过相似性度量得到不同任务间的相似性关系,进而实现利用相似性的特征持续学习。
具体地,在持续学习的过程中,连续学习特征相似的任务可以保证持续学习的效果较佳,本方案研究了不同的任务学习对持续学习结果的影响,并在本步骤中,将学习任务顺序对持续学习的影响考虑进来,采用了特征相似性作为学习任务对应的子数据集排序的依据,确保通过连续学习相似的任务可以得到较好的学习效果。
在基于特征相似度对M个子数据集进行排序,得到目标集合排列顺序的具体过程中,可以通过穷举所有任务对应的子数据集的顺序排列来获得目标任务学习顺序,即目标集合排列顺序。穷举的时间复杂度是O(N!),N是需要持续学习的所有任务的数据样本的类别的总数量。或者,可以基于特征相似度,使用模拟退火算法可以比较快地避免局部最小值并收敛到一个接近全局最优的解,得到与该最优解对应的子数据集排列顺序,降低计算所需时间。
还可以引入M个子数据集中所包含的N类数据样本之间的特征相似度矩阵,通过特征相似度矩阵对M个子数据集之间的相似度进行计算,实现对M个子数据集之间相对顺序的排列及调整。
该过程充分利用了样本的特征进行持续学习,通过计算不同任务的子数据集之间的特征相似度,得到目标集合排列顺序,即确定出持续学习过程中各个学习任务之间的排列顺序。
步骤104,按照集合排列顺序,依次将M个子数据集输入至持续学习模型执行持续学习任务。
本步骤中,基于集合排列顺序,依次将子数据集输入至持续学习模型中,实现基于任务顺序选择的持续学习框架及持续学习过程。
其中,该持续学习模型为深度神经网络模型,通过该模型实现持续学习。
该深度神经网络模型具体包括:任务求解器和生成对抗器两部分。
任务求解器用于对各个学习任务所对应子数据集中数据样本进行有效特征的提取,同时分类输出样本属于各个类别的置信度,该任务求解器包括特征提取网络和特征分类网络。
生成对抗器用于记忆已经学习过的所有学习任务的特征信息,该生成对抗器包括条件生成器网络和判别器网络。
其中,条件生成器网络在通过学习任务求解器得出的不同样本特征的分布之后,能通过给定特征标签生成同类标签的特征。条件生成网络采用的损失函数如下:
Figure BDA0002982206170000111
LGG)为生成器网络的损失函数,θG为生成器网络需要求解的参数,
Figure BDA0002982206170000112
为生成特征的判别损失,
Figure BDA0002982206170000113
为生成特征的分类损失,c为生成特征的标签,同类的特征具有相同的标签pc,z是服从标准正态分布pz的随机噪声。
其中,判别器网络用于监督对应类别的条件生成器网络生成的特征数据,以使得生成器生成的特征数据逐渐逼近该类别的真实特征数据。判别器网络采用WGAN-GP(Wasserstein Generative Adversarial Networks-Gradient Penalty,WGAN-梯度约束)进行稳定训练,该过程中损失函数为:
Figure BDA0002982206170000121
其中,
Figure BDA0002982206170000122
是当前任务的生成特征的判别损失,
Figure BDA0002982206170000123
是已学旧任务的等效特征的判别损失,
Figure BDA0002982206170000124
是为WGAN-GP对权重的梯度惩罚项,c是生成特征的标签值,同一类别的特征具有相同的标签pc,z是服从标准正态分布pz的随机噪声,数据维度和特征维度相同。x是当前任务样本的特征,服从当前任务样本的特征分布S′,D是判别器模型。λGP是梯度惩罚项的系数,该实施例中可以取λGP=10。
可选地,生成对抗器包括自身参数的更新过程,本实施例中条件生成器对任务求解器中所有已学特征进行信息保存,持续学习的过程中通过更新条件生成器网络和判别器网络来保证生成器能学习所有任务的特征信息,条件生成器网络和判别器网络共同组成了生成对抗模型。具体地,在持续学习过程中,通过已经保存有上一学习任务所对应子数据集的特征数据的生成对抗模型(称为旧的生成对抗模型)可以构建出已学任务的特征和标签数据,新任务的样本通过任务求解器中特征提取网络可以构建出新任务的特征和标签数据,在旧的生成对抗模型上通过联合训练学习已学任务特征和新任务特征,就能学习到所有任务的信息,实现持续学习,使持续学习框架中具备了特征重放特性。
该过程,任务求解器中特征提取网络可以提取出样本的特征数据,样本的特征数据的复杂性远低于样本的复杂性,并通过采用条件生成器网络来生成样本的特征数据而不是样本,用学习简单的特征数据来代替学习复杂的样本,利用样本的特征进行持续学习可以减少持续学习过程中的操作复杂度,提升持续学习效率,最终提高复杂样本下的持续学习能力。
其中,在具体实施过程中,该按照集合排列顺序,依次将M个子数据集输入至持续学习模型执行所述持续学习任务,包括:按照集合排列顺序,将M个子数据集中包含的每个类别的数据样本,依照设定比例划分为训练数据和测试数据,依次将M个子数据集输入至持续学习模型执行所述持续学习任务。
具体地,其中训练数据与测试数据具有相同的数据类别。训练数据集的比重大于测试数据集的比重。
该过程中,为了方便评估持续学习框架的性能,可以是将每一子数据集中的样本数据按5:1的比例划分为训练数据集和测试数据集,并调超参数,确保模型不会过拟合或欠拟合,模型准确率确保最佳。
本申请实施例中,通过获取包含N类数据样本的数据集,基于持续学习任务对数据集包含的N类数据样本进行组别划分,得到M个子数据集,计算M个子数据集间的特征相似度,并基于特征相似度对M个子数据集进行排序,得到目标集合排列顺序;按照集合排列顺序,依次将M个子数据集输入至持续学习模型执行持续学习任务。该过程将任务持续学习中学习任务的顺序对学习结果的影响作为考量因素,通过衡量学习任务所对应子数据集间的特征相似性对各子数据集进行排序,依照排序后的次序依次执行学习任务,有效缓解持续学习复杂样本时的灾难性遗忘,提升持续学习过程的学习效果。
本申请实施例中还提供了持续学习方法的不同实施方式。
参见图2,图2是本申请实施例提供的一种持续学习方法的流程图二。如图2所示,一种持续学习方法,该方法包括以下步骤:
步骤201,获取包含N类数据样本的数据集;
该步骤的实现过程与前述实施方式中的步骤101的实现过程相同,此处不再赘述。
步骤202,基于持续学习任务对数据集包含的N类数据样本进行组别划分,得到M个子数据集。
N大于M,N、M均为正整数。
该步骤的实现过程与前述实施方式中的步骤102的实现过程相同,此处不再赘述。
步骤203,获取N类数据样本中每个类别数据样本间的特征相似度数值,得到特征相似度矩阵。
该步骤,可以通过提取样本的特征并计算不同任务的特征之间的相似性关系,可以得到最有利于持续学习的任务顺序。具体地,可以通过相似度计算公式得到不同任务特征之间的相似性,利用混淆矩阵可以直观地展示出任务之间的相似性。
在计算不同类别的数据样本之间的特征相似度数值时,可以是:基于不同类别的数据样本对应的特征向量,计算两向量之间的夹角的余弦值,得到两个类别的数据样本之间的特征相似度数值,该相似度结果值与向量的长度无关,只与向量之间的夹角相关;或者是基于两个类别的数据样本对应的特征向量,计算两个特征向量的内积,得到两个类别的数据样本之间的特征相似度数值;或者是基于两个类别的数据样本对应的特征向量,计算两个特征向量的欧式距离,得到两个类别的数据样本之间的特征相似度数值;或者是基于两个类别的数据样本对应的特征向量,计算两个特征向量的切比雪夫距离,得到两个类别的数据样本之间的特征相似度数值。
以图3为例,图3为100类样本的特征间的夹角余弦相似度的混淆矩阵,图中横纵坐标表示任务中100个类别的编号,点的亮度值表示两类样本特征之间的夹角余弦相似度,亮度值越大表示两类样本的特征越相似。
作为一可选的实施方式,其中获取N类数据样本中每个类别数据样本间的特征相似度数值,包括:
通过特征提取网络将N类数据样本进行特征提取,分别得到每一类别的数据样本的特征矢量;基于该特征矢量,通过如下相似度计算公式,计算每个类别数据样本间的特征相似度数值:
Figure BDA0002982206170000151
其中,dij表示第i个和第j个类别的数据样本间的特征相似度数值,Ni表示第i个类别数据样本的所有特征矢量的数量,Nj表示第j个类别数据样本的所有特征矢量的数量,
Figure BDA0002982206170000152
表示第i个类别的数据样本的第m个特征矢量,
Figure BDA0002982206170000153
表示第j个类别的数据样本的第n个特征矢量;
Figure BDA0002982206170000154
Figure BDA0002982206170000155
两个特征矢量间的相似度;其中,m∈{1,2,3,…,Ni}、m∈{1,2,3,…,Nj}。
其中,通过特征提取网络将N类数据样本进行特征提取时,该特征提取网络可以使用ResNet18卷积神经网络来提取任务中样本的特征信息,或者是其他任何可用于出样本数据进行特征提取的深度神经网络或者信息提取算法,如傅里叶变换、方向梯度直方图、尺度不变特征变换特征提取算法等。
本步骤实施例中,用低维度的特征信息来表示高维度的样本信息,用特征之间的相似度关系来表示不同任务间的相似性关系,通过不同的相似度工具可以有效衡量不同任务间的相似性。
其中,特征提取网络使用一个深度神经网络将高维度的样本数据处理成低维度的特征数据,学习低维度的特征信息可以使持续学习的效果更好。具体地,经过归一化的每一个样本通过该特征提取网络后都会得到一个低维度的特征矢量数据,该特征矢量数据即可表示该样本的有效信息。在本实施例中采用ResNet18卷积神经网络从长度,宽度,通道数分别是28,28,3的图像中提取出512维的特征数据。
其中,
Figure BDA0002982206170000161
两个特征矢量间的相似度,可以是通过计算两个特征矢量的内积来得到,或者通过计算两个特征矢量的切比雪夫距离来得到,或者任何其他能够实现相似度计算的方法计算得到。
可选地,作为一具体的实施方式,该
Figure BDA0002982206170000162
两个特征矢量间的相似度,可以是通过以下公式计算得到:
Figure BDA0002982206170000163
其中,u等于
Figure BDA0002982206170000164
v等于
Figure BDA0002982206170000165
M为特征矢量的维度;s∈{1,2,3,…,M};t∈{1,2,3,…,M};us表示第i个类别数据样本的第m个特征矢量的第s维度的特征值;vt表示第j个类别数据样本的第n个特征矢量的第t维度的特征值。
步骤204,按照M个子数据集间的不同排列顺序,调整N类数据样本的排列顺序,并依照排列顺序调整后的N类数据样本,调整特征相似度数值在特征相似度矩阵中的元素排列位置。
结合图3所示,例如数据集一共有100类的图片样本被分成了5个子数据集,分别为包括第1到第20个类别的样本的第1子数据集,包括第21到第40个类别的样本的第2子数据集,包括第41到第60个类别的样本的第3子数据集,包括第61到第80个类别的样本的第4子数据集,包括第81到第100个类别的样本的第5子数据集。
该步骤中,按照M个子数据集间的不同排列顺序,即按照5个子数据集间的不同排列顺序,该5个子数据集之间的排列顺序可以任意调换,随着5个子数据集之间的排列顺序的调换,同时N类数据样本的排列顺序也随之调换,例如,将第4子数据集插入到第1子数据集之后,则编号为第61到第80个类别的样本调整至插入到编号为第1到第20个类别的样本之后,即图5中横纵坐标中的元素顺序发生了变化,随之,该图5中矩阵中各类别样本之间的特征相似度数值在该混淆矩阵中的元素位置发生变化,以通过矩阵元素位置的变化,将亮度值大的矩阵元素的位置调变至线性分布(例如图4所示),保证相邻任务间的特征相似性最高,以通过本实施例中的该方法快速找到较好的任务学习顺序。
可选地,还可以对M个子数据集内包含的各类数据样本进行排列顺序调整,并基于排列顺序调整后的各类数据样本,调整特征相似度数值在特征相似度矩阵中的元素排列位置,更好地实现矩阵元素位置的变化,将亮度值大的矩阵元素的位置调变至线性分布,保证相邻任务间的特征相似性最高。
步骤205,分别计算在特征相似度数值的不同元素排列位置下,特征相似度矩阵的性能评估值。
其中,该性能评估值的计算可以是退火算法中能量E(x)的计算值,寻找能量E(x)最低的状态s,该能量E(x)最低的状态s即对应最佳任务排列顺序。即,该性能评估值与任务排序效果之间负相关。
或者,将特征相似度数值在不同元素排列位置下的特征相似度矩阵分别乘以一标准矩阵,该标准矩阵例如为邻接矩阵或者其他预先设计的衡量矩阵,得到计算值作为性能评估值,以该性能评估值作为判断不同元素排列位置下哪个特征相似度矩阵符合要求。
步骤206,将性能评估值中符合设定条件的目标性能评估值对应的M个子数据集的排列顺序确定为目标集合排列顺序。
不同元素排列位置下找到性能评估值符合要求的特征相似度矩阵,该矩阵所对应的M个子数据集的排列顺序即为目标集合排列顺序,在该目标集合排列顺序下,相邻子集合之间的相似度最大,持续学习的效果最佳。
步骤207,按照集合排列顺序,依次将M个子数据集输入至持续学习模型执行持续学习任务。
该步骤的实现过程与前述实施方式中的步骤104的实现过程相同,此处不再赘述。
本实施例中,通过获取包含N类数据样本的数据集,基于持续学习任务对数据集包含的N类数据样本进行组别划分,得到M个子数据集,获取M个子数据集间的特征相似度矩阵,调整特征相似度数值在特征相似度矩阵中的元素排列位置,根据不同元素排列位置下矩阵的性能评估值确定目标集合排列顺序;按照集合排列顺序,依次将M个子数据集输入至持续学习模型执行持续学习任务。该过程将任务持续学习中学习任务的顺序对学习结果的影响作为考量因素,通过衡量学习任务所对应子数据集间的特征相似性对各子数据集进行排序,依照排序后的次序依次执行学习任务,有效缓解持续学习复杂样本时的灾难性遗忘,提升持续学习过程的学习效果。
参见图5,图5是本申请实施例提供的一种持续学习装置的结构图,为了便于说明,仅示出了与本申请实施例相关的部分。
所述持续学习装置500包括:
获取模块501,用于获取包含N类数据样本的数据集;
划分模块502,用于基于持续学习任务对所述数据集包含的所述N类数据样本进行组别划分,得到M个子数据集,N大于M,N、M均为正整数;
排序模块503,用于计算所述M个子数据集间的特征相似度,并基于所述特征相似度对所述M个子数据集进行排序,得到目标集合排列顺序;
持续学习模块504,用于按照所述集合排列顺序,依次将所述M个子数据集输入至持续学习模型执行所述持续学习任务。
其中,获取模块501,具体用于:
获取持续学习任务所需的数据集;
对所述数据集中包含的数据样本添加样本标签;
根据不同的所述样本标签,对所述数据集中的数据样本进行分类,得到包含N类数据样本的数据集。
其中,排序模块503,具体用于:
获取所述N类数据样本中每个类别数据样本间的特征相似度数值,得到特征相似度矩阵;
按照所述M个子数据集间的不同排列顺序,调整N类数据样本的排列顺序,并依照排列顺序调整后的所述N类数据样本,调整所述特征相似度数值在所述特征相似度矩阵中的元素排列位置;
分别计算在所述特征相似度数值的不同元素排列位置下,所述特征相似度矩阵的性能评估值;
将所述性能评估值中符合设定条件的目标性能评估值对应的所述M个子数据集的排列顺序确定为所述目标集合排列顺序。
其中,排序模块503,更具体用于:
通过特征提取网络将所述N类数据样本进行特征提取,分别得到每一类别的数据样本的特征矢量;
基于所述特征矢量,通过如下相似度计算公式,计算所述每个类别数据样本间的特征相似度数值:
Figure BDA0002982206170000201
其中,dij表示第i个和第j个类别的数据样本间的特征相似度数值,Ni表示第i个类别数据样本的所有特征矢量的数量,Nj表示第j个类别数据样本的所有特征矢量的数量,
Figure BDA0002982206170000211
表示第i个类别的数据样本的第m个特征矢量,
Figure BDA0002982206170000212
表示第j个类别的数据样本的第n个特征矢量;
Figure BDA0002982206170000213
Figure BDA0002982206170000214
两个特征矢量间的相似度;其中,m∈{1,2,3,…,Ni}、m∈{1,2,3,…,Nj}。
其中,所述
Figure BDA0002982206170000215
两个特征矢量间的相似度,通过以下公式计算得到:
Figure BDA0002982206170000216
其中,u等于
Figure BDA0002982206170000217
等于
Figure BDA0002982206170000218
M为特征矢量的维度;s∈{1,2,3,…,M};t∈{1,2,3,…,M};us表示第i个类别数据样本的第m个特征矢量的第s维度的特征值;vt表示第j个类别数据样本的第n个特征矢量的第t维度的特征值。
其中,排序模块503,还具体用于:对所述M个子数据集内包含的各类数据样本进行排列顺序调整,并基于排列顺序调整后的各类数据样本,调整所述特征相似度数值在所述特征相似度矩阵中的元素排列位置。
其中,持续学习模块504,具体用于:
按照所述集合排列顺序,将所述M个子数据集中包含的每个类别的数据样本,依照设定比例划分为训练数据和测试数据;
依次将所述M个子数据集输入至持续学习模型执行所述持续学习任务。
其中,不同子数据集中的样本类别不同,不同子数据集中的样本类别的数量相同。
本申请实施例提供的持续学习装置能够实现上述持续学习方法的实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。
图6是本申请实施例提供的一种终端的结构图。如该图所示,该实施例的终端6包括:至少一个处理器60(图6中仅示出一个)、存储器61以及存储在所述存储器61中并可在所述至少一个处理器60上运行的计算机程序62,所述处理器60执行所述计算机程序62时实现上述任意各个方法实施例中的步骤。
所述终端6可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。所述终端6可包括,但不仅限于,处理器60、存储器61。本领域技术人员可以理解,图6仅仅是终端6的示例,并不构成对终端6的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如所述终端还可以包括输入输出设备、网络接入设备、总线等。
所述处理器60可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
所述存储器61可以是所述终端6的内部存储单元,例如终端6的硬盘或内存。所述存储器61也可以是所述终端6的外部存储设备,例如所述终端6上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。可选地,所述存储器61还可以既包括所述终端6的内部存储单元也包括外部存储设备。所述存储器61用于存储所述计算机程序以及所述终端所需的其他程序和数据。所述存储器61还可以用于暂时地存储已经输出或者将要输出的数据。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能单元、模块的具体名称也只是为了便于相互区分,并不用于限制本申请的保护范围。上述系统中单元、模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
在本申请所提供的实施例中,应该理解到,所揭露的装置/终端和方法,可以通过其它的方式实现。例如,以上所描述的装置/终端实施例仅仅是示意性的,例如,所述模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通讯连接可以是通过一些接口,装置或单元的间接耦合或通讯连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、电载波信号、电信信号以及软件分发介质等。需要说明的是,所述计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括电载波信号和电信信号。
本申请实现上述实施例方法中的全部或部分流程,也可以通过计算机程序产品来实现,当计算机程序产品在终端上运行时,使得所述终端执行时实现可实现上述各个方法实施例中的步骤。
以上所述实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围,均应包含在本申请的保护范围之内。

Claims (10)

1.一种持续学习方法,其特征在于,包括:
获取包含N类数据样本的数据集;
基于持续学习任务对所述数据集包含的所述N类数据样本进行组别划分,得到M个子数据集,N大于M,N、M均为正整数;
计算所述M个子数据集间的特征相似度,并基于所述特征相似度对所述M个子数据集进行排序,得到目标集合排列顺序;
按照所述集合排列顺序,依次将所述M个子数据集输入至持续学习模型执行所述持续学习任务。
2.根据权利要求1所述的持续学习方法,其特征在于,所述计算所述M个子数据集间的特征相似度,并基于所述特征相似度对所述M个子数据集进行排序,得到目标集合排列顺序,包括:
获取所述N类数据样本中每个类别数据样本间的特征相似度数值,得到特征相似度矩阵;
按照所述M个子数据集间的不同排列顺序,调整N类数据样本的排列顺序,并依照排列顺序调整后的所述N类数据样本,调整所述特征相似度数值在所述特征相似度矩阵中的元素排列位置;
分别计算在所述特征相似度数值的不同元素排列位置下,所述特征相似度矩阵的性能评估值;
将所述性能评估值中符合设定条件的目标性能评估值对应的所述M个子数据集的排列顺序确定为所述目标集合排列顺序。
3.根据权利要求2所述的持续学习方法,其特征在于,所述获取所述N类数据样本中每个类别数据样本间的特征相似度数值,包括:
通过特征提取网络将所述N类数据样本进行特征提取,分别得到每一类别的数据样本的特征矢量;
基于所述特征矢量,通过如下相似度计算公式,计算所述每个类别数据样本间的特征相似度数值:
Figure FDA0002982206160000021
其中,dij表示第i个和第j个类别的数据样本间的特征相似度数值,Ni表示第i个类别数据样本的所有特征矢量的数量,Nj表示第j个类别数据样本的所有特征矢量的数量,
Figure FDA0002982206160000022
表示第i个类别的数据样本的第m个特征矢量,
Figure FDA0002982206160000023
表示第j个类别的数据样本的第n个特征矢量;
Figure FDA0002982206160000024
Figure FDA0002982206160000025
两个特征矢量间的相似度;其中,m∈{1,2,3,...,Ni}、m∈{1,2,3,...,Nj}。
4.根据权利要求3所述的持续学习方法,其特征在于,所述
Figure FDA0002982206160000026
Figure FDA0002982206160000027
两个特征矢量间的相似度,通过以下公式计算得到:
Figure FDA0002982206160000028
其中,u等于
Figure FDA00029822061600000210
v等于
Figure FDA0002982206160000029
M为特征矢量的维度;s∈{1,2,3,...,M};t∈{1,2,3,...,M};us表示第i个类别数据样本的第m个特征矢量的第s维度的特征值;vt表示第j个类别数据样本的第n个特征矢量的第t维度的特征值。
5.根据权利要求2所述的持续学习方法,其特征在于,所述分别计算在所述特征相似度数值的不同元素排列位置下,所述特征相似度矩阵的性能评估值之前,还包括:
对所述M个子数据集内包含的各类数据样本进行排列顺序调整,并基于排列顺序调整后的各类数据样本,调整所述特征相似度数值在所述特征相似度矩阵中的元素排列位置。
6.根据权利要求1所述的持续学习方法,其特征在于,所述获取包含N类数据样本的数据集,包括:
获取持续学习任务所需的数据集;
对所述数据集中包含的数据样本添加样本标签;
根据不同的所述样本标签,对所述数据集中的数据样本进行分类,得到包含N类数据样本的数据集。
7.根据权利要求1所述的持续学习方法,其特征在于,其中,不同子数据集中的样本类别不同,不同子数据集中的样本类别的数量相同。
8.一种持续学习装置,其特征在于,包括:
获取模块,用于获取包含N类数据样本的数据集;
划分模块,用于基于持续学习任务对所述数据集包含的所述N类数据样本进行组别划分,得到M个子数据集,N大于M,N、M均为正整数;
排序模块,用于计算所述M个子数据集间的特征相似度,并基于所述特征相似度对所述M个子数据集进行排序,得到目标集合排列顺序;
持续学习模块,用于按照所述集合排列顺序,依次将所述M个子数据集输入至持续学习模型执行所述持续学习任务。
9.一种终端,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至7任一项所述方法的步骤。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7任一项所述方法的步骤。
CN202110290300.8A 2021-03-18 2021-03-18 持续学习方法、装置、终端及存储介质 Pending CN112990318A (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202110290300.8A CN112990318A (zh) 2021-03-18 2021-03-18 持续学习方法、装置、终端及存储介质
PCT/CN2021/138064 WO2022193753A1 (zh) 2021-03-18 2021-12-14 持续学习方法、装置、终端及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110290300.8A CN112990318A (zh) 2021-03-18 2021-03-18 持续学习方法、装置、终端及存储介质

Publications (1)

Publication Number Publication Date
CN112990318A true CN112990318A (zh) 2021-06-18

Family

ID=76333109

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110290300.8A Pending CN112990318A (zh) 2021-03-18 2021-03-18 持续学习方法、装置、终端及存储介质

Country Status (2)

Country Link
CN (1) CN112990318A (zh)
WO (1) WO2022193753A1 (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022193753A1 (zh) * 2021-03-18 2022-09-22 中国科学院深圳先进技术研究院 持续学习方法、装置、终端及存储介质
CN115860113A (zh) * 2023-03-03 2023-03-28 深圳精智达技术股份有限公司 一种自对抗神经网络模型的训练方法及相关装置
CN117292213A (zh) * 2023-11-27 2023-12-26 江西啄木蜂科技有限公司 多类型相机下样本不均衡的松林变色异木识别方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007220032A (ja) * 2006-02-20 2007-08-30 Kyushu Institute Of Technology 時系列データ認識方法、時系列データ認識装置及びプログラム
US20180137192A1 (en) * 2016-11-11 2018-05-17 1Qb Information Technologies Inc. Method and system for performing a hierarchical clustering of a plurality of items
CN109961089A (zh) * 2019-02-26 2019-07-02 中山大学 基于度量学习和元学习的小样本和零样本图像分类方法
CN112084330A (zh) * 2020-08-12 2020-12-15 东南大学 一种基于课程规划元学习的增量关系抽取方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020191282A2 (en) * 2020-03-20 2020-09-24 Futurewei Technologies, Inc. System and method for multi-task lifelong learning on personal device with improved user experience
CN112115998B (zh) * 2020-09-11 2022-11-25 昆明理工大学 一种基于对抗增量聚类动态路由网络克服灾难性遗忘的方法
CN112990318A (zh) * 2021-03-18 2021-06-18 中国科学院深圳先进技术研究院 持续学习方法、装置、终端及存储介质

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007220032A (ja) * 2006-02-20 2007-08-30 Kyushu Institute Of Technology 時系列データ認識方法、時系列データ認識装置及びプログラム
US20180137192A1 (en) * 2016-11-11 2018-05-17 1Qb Information Technologies Inc. Method and system for performing a hierarchical clustering of a plurality of items
CN109961089A (zh) * 2019-02-26 2019-07-02 中山大学 基于度量学习和元学习的小样本和零样本图像分类方法
CN112084330A (zh) * 2020-08-12 2020-12-15 东南大学 一种基于课程规划元学习的增量关系抽取方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022193753A1 (zh) * 2021-03-18 2022-09-22 中国科学院深圳先进技术研究院 持续学习方法、装置、终端及存储介质
CN115860113A (zh) * 2023-03-03 2023-03-28 深圳精智达技术股份有限公司 一种自对抗神经网络模型的训练方法及相关装置
CN115860113B (zh) * 2023-03-03 2023-07-25 深圳精智达技术股份有限公司 一种自对抗神经网络模型的训练方法及相关装置
CN117292213A (zh) * 2023-11-27 2023-12-26 江西啄木蜂科技有限公司 多类型相机下样本不均衡的松林变色异木识别方法

Also Published As

Publication number Publication date
WO2022193753A1 (zh) 2022-09-22

Similar Documents

Publication Publication Date Title
CN103268317B (zh) 对图像进行语义注释的系统和方法
CN109345553B (zh) 一种手掌及其关键点检测方法、装置和终端设备
CN108280477B (zh) 用于聚类图像的方法和装置
CN108073902B (zh) 基于深度学习的视频总结方法、装置及终端设备
CN112990318A (zh) 持续学习方法、装置、终端及存储介质
CN113177559B (zh) 结合广度和密集卷积神经网络的图像识别方法、系统、设备及介质
CN110705489B (zh) 目标识别网络的训练方法、装置、计算机设备和存储介质
Huang et al. Solution Path for Pin-SVM Classifiers With Positive and Negative $\tau $ Values
Morgenstern et al. An image-computable model of human visual shape similarity
CN111061933A (zh) 图片样本库构建方法、装置、可读存储介质及终端设备
CN112668577A (zh) 大尺度图像中目标物体的检测方法、终端及装置
CN111950279A (zh) 实体关系的处理方法、装置、设备及计算机可读存储介质
CN110163095B (zh) 回环检测方法、回环检测装置及终端设备
Martínez et al. Probing the geometry of data with diffusion fréchet functions
CN113657087B (zh) 信息的匹配方法及装置
CN111124863A (zh) 智能设备性能测试方法、装置及智能设备
CN113221918A (zh) 目标检测方法、目标检测模型的训练方法及装置
CN115066687A (zh) 放射性数据生成
CN111161789B (zh) 一种模型预测的关键区域的分析方法及装置
CN111275683A (zh) 图像质量评分处理方法、系统、设备及介质
Prematilake et al. Evaluation and prediction of polygon approximations of planar contours for shape analysis
CN116029760A (zh) 消息推送方法、装置、计算机设备和存储介质
WO2022126917A1 (zh) 基于深度学习的人脸图像评估方法、装置、设备及介质
CN115063473A (zh) 物体高度的检测方法、装置、计算机设备、存储介质
CN114821140A (zh) 基于曼哈顿距离的图像聚类方法、终端设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination