CN113139612A - 图像分类方法、分类网络的训练方法和相关产品 - Google Patents

图像分类方法、分类网络的训练方法和相关产品 Download PDF

Info

Publication number
CN113139612A
CN113139612A CN202110495315.8A CN202110495315A CN113139612A CN 113139612 A CN113139612 A CN 113139612A CN 202110495315 A CN202110495315 A CN 202110495315A CN 113139612 A CN113139612 A CN 113139612A
Authority
CN
China
Prior art keywords
sample data
category
classification network
network
classification
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110495315.8A
Other languages
English (en)
Inventor
姚达琛
李�诚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Sensetime Lingang Intelligent Technology Co Ltd
Original Assignee
Shanghai Sensetime Lingang Intelligent Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Sensetime Lingang Intelligent Technology Co Ltd filed Critical Shanghai Sensetime Lingang Intelligent Technology Co Ltd
Priority to CN202110495315.8A priority Critical patent/CN113139612A/zh
Publication of CN113139612A publication Critical patent/CN113139612A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Image Analysis (AREA)

Abstract

本公开涉及计算机视觉技术领域,具体提供了一种图像分类方法、分类网络的训练方法和相关产品。分类网络的训练方法包括:基于样本数据对待训练的分类网络进行训练,得到训练后的分类网络;样本数据包括属于新类别的新样本数据和属于旧类别的历史样本数据;根据样本数据的特征得到训练后的分类网络中每个类别的中心特征;根据每个类别的中心特征,从属于每个类别的样本数据中确定预设数量的目标样本数据;基于每个类别对应的目标样本数据,对历史样本数据进行更新。本公开实施方式的训练方法缩短分类网络的训练时间,提高训练速度。

Description

图像分类方法、分类网络的训练方法和相关产品
技术领域
本公开涉及计算机视觉技术领域,具体涉及一种图像分类方法、分类网络的训练方法和相关产品。
背景技术
深度神经网络在处理增量学习任务时具有灾难性遗忘的特点,会使得神经网络通过新数据训练时遗忘通过旧数据学习的内容。为了消除灾难性遗忘的缺陷,在网络训练时,需要将新样本数据和旧样本数据合并成新的数据集,进行完整的网络训练,导致整个训练过程耗时很长。
发明内容
本公开实施方式提供了一种分类网络的训练方法、装置,以及图像分类方法、装置、电子设备和存储介质。
第一方面,本公开实施方式提供了一种分类网络的训练方法,包括:
基于样本数据对待训练的分类网络进行训练,得到训练后的分类网络;所述样本数据包括属于新类别的新样本数据和属于旧类别的历史样本数据;
根据所述样本数据的特征得到训练后的分类网络中每个类别的中心特征;
根据每个类别的中心特征,从属于每个类别的样本数据中确定预设数量的目标样本数据;
基于每个类别对应的所述目标样本数据,对所述历史样本数据进行更新。
在一些实施方式中,所述基于样本数据对待训练的分类网络进行训练,包括:
将所述样本数据输入待训练的分类网络,得到待训练的分类网络输出的输出结果;
确定所述输出结果与所述样本数据的标签信息之间的差异;所述差异包括所述输出结果对应的蒸馏损失;
根据所述差异调整所述分类网络的网络参数,直至满足收敛条件。
在一些实施方式中,所述分类网络的训练过程包括多个轮次;所述确定所述输出结果与所述样本数据的标签信息之间的差异,包括:
对于同一个样本数据,获取待训练的分类网络输出的第一输出结果,和当前轮次训练的分类网络输出的第二输出结果;
根据所述第一输出结果和所述第二输出结果,确定所述样本数据的所述蒸馏损失;
基于所述蒸馏损失确定所述输出结果与所述样本数据的标签信息之间的差异。
在一些实施方式中,所述根据所述样本数据的特征得到训练后的分类网络中每个类别的中心特征,包括:
获取每个类别中包括的各个样本数据的特征;
根据每个类别中包括的各个样本数据的特征,得到该类别中所有样本数据的特征平均值;
将所述特征平均值确定为该类别的所述中心特征。
在一些实施方式中,所述根据每个类别的中心特征,从属于每个类别的样本数据中确定预设数量的目标样本数据,包括:
对于每一个所述类别,获取该类别包括的各个样本数据的特征;
根据各个样本数据的特征与该类别的所述中心特征,确定各个样本数据的特征与所述中心特征的相似度;
对各个样本数据的特征与所述中心特征的相似度由高到低排序,得到相似度序列;
确定所述相似度序列中前所述预设数量的相似度对应的样本数据为所述目标样本数据。
在一些实施方式中,在得到训练后的分类网络之后,所述方法还包括:
对所述分类网络的新类别的权重和旧类别的权重进行归一化处理。
在一些实施方式中,所述对所述分类网络的新类别的权重和旧类别的权重进行归一化处理,包括:
获取所述分类网络的新类别和旧类别的权重比例;
根据所述权重比例,对所述新类别的权重进行调整。
在一些实施方式中,所述分类网络为垃圾分类网络。
第二方面,本公开实施方式提供了一种图像分类方法,包括:
获取待分类的待处理图像;
将所述待处理图像输入分类网络,得到所述分类网络输出的分类结果;所述分类网络利用根据第一方面任一实施方式所述的方法训练得到。
第三方面,本公开实施方式提供了一种分类网络的训练装置,包括:
网络训练模块,被配置为基于样本数据对待训练的分类网络进行训练,得到训练后的分类网络;所述样本数据包括属于新类别的新样本数据和属于旧类别的历史样本数据;
特征确定模块,被配置为根据所述样本数据的特征得到训练后的分类网络中每个类别的中心特征;
数据确定模块,被配置为根据每个类别的中心特征,从属于每个类别的样本数据中确定预设数量的目标样本数据;
更新模块,被配置为基于每个类别对应的所述目标样本数据,对所述历史样本数据进行更新。
在一些实施方式中,所述网络训练模块具体被配置为:
将所述样本数据输入待训练的分类网络,得到待训练的分类网络输出的输出结果;
确定所述输出结果与所述样本数据的标签信息之间的差异;所述差异包括所述输出结果对应的蒸馏损失;
根据所述差异调整所述分类网络的网络参数,直至满足收敛条件。
在一些实施方式中,所述分类网络的训练过程包括多个轮次;所述网络训练模块具体被配置为:
对于同一个样本数据,获取待训练的分类网络输出的第一输出结果,和当前轮次训练的分类网络输出的第二输出结果;
根据所述第一输出结果和所述第二输出结果,确定所述样本数据的所述蒸馏损失;
基于所述蒸馏损失确定所述输出结果与所述样本数据的标签信息之间的差异。
在一些实施方式中,所述特征确定模块具体被配置为:
获取每个类别中包括的各个样本数据的特征;
根据每个类别中包括的各个样本数据的特征,得到该类别中所有样本数据的特征平均值;
将所述特征平均值确定为该类别的所述中心特征。
在一些实施方式中,所述数据确定模块具体被配置为:
对于每一个所述类别,获取该类别包括的各个样本数据的特征;
根据各个样本数据的特征与该类别的所述中心特征,确定各个样本数据的特征与所述中心特征的相似度;
对各个样本数据的特征与所述中心特征的相似度由高到低排序,得到相似度序列;
确定所述相似度序列中前所述预设数量的相似度对应的样本数据为所述目标样本数据。
在一些实施方式中,所述训练装置还包括:
权重调整模块,被配置为在得到训练后的分类网络之后,对所述分类网络的新类别的权重和旧类别的权重进行归一化处理。
在一些实施方式中,所述权重调整模块具体被配置为:
获取所述分类网络的新类别和旧类别的权重比例;
根据所述权重比例,对所述新类别的权重进行调整。
在一些实施方式中,所述分类网络为垃圾分类网络。
第四方面,本公开实施方式提供了一种图像分类装置,包括:
获取模块,被配置为获取待分类的待处理图像;
网络预测模块,被配置为将所述待处理图像输入分类网络,得到所述分类网络输出的分类结果;所述分类网络利用根据第一方面任一实施方式所述的方法训练得到。
第五方面,本公开实施方式提供了一种电子设备,包括:
处理器;和
存储器,存储有计算机指令,所述计算机指令用于使处理器执行根据第一方面或者第二方面任一实施方式所述的方法。
第六方面,本公开实施方式提供了一种存储介质,存储有计算机指令,所述计算机指令用于使计算机执行根据第一方面或者第二方面任一实施方式所述的方法。
本公开实施方式的分类网络的训练方法,包括基于样本数据对待训练的分类网络进训练,得到训练后的分类网络,样本数据包括属于新类别的新样本数据和属于旧类别的历史样本数据,根据样本数据的特征得到训练后的分类网络中每个类别的中心特征,根据每个类别的中心特征由属于该类别的样本数据中确定预设数量的目标样本数据,基于目标样本数据对历史样本数据进行更新。本公开实施例提供的训练方法根据样本数据特征筛选出每个类别中部分数据作为历史样本数据,从而在网络增加新类别需要进行训练时,既可以结合历史样本数据降低网络灾难性遗忘的风险,同时又降低了样本数据量,缩短网络训练时间。
附图说明
为了更清楚地说明本公开具体实施方式或现有技术中的技术方案,下面将对具体实施方式或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本公开的一些实施方式,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是根据本公开一些实施方式中分类网络的训练方法的流程图。
图2是根据本公开一些实施方式中分类网络的训练方法的流程图。
图3是根据本公开一些实施方式中分类网络的训练方法的流程图。
图4是根据本公开一些实施方式中分类网络的训练方法的流程图。
图5是根据本公开一些实施方式中分类网络的训练方法的流程图。
图6是根据本公开一些实施方式中分类网络的训练方法的流程图。
图7是根据本公开一些实施方式中图像分类方法的流程图。
图8是根据本公开一些实施方式中分类网络的训练装置的流程图。
图9是根据本公开一些实施方式中图像分类装置的流程图。
图10是适于实现本公开方法的计算机系统结构框图。
具体实施方式
下面将结合附图对本公开的技术方案进行清楚、完整地描述,显然,所描述的实施方式是本公开一部分实施方式,而不是全部的实施方式。基于本公开中的实施方式,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施方式,都属于本公开保护的范围。此外,下面所描述的本公开不同实施方式中所涉及的技术特征只要彼此之间未构成冲突就可以相互结合。
深度神经网络(Deep Neural Networks,DNN)在处理分类任务中具有卓越的性能表现,在许多实际应用中,网络通常需要从样本数据中逐步学习新的类别,也即增量学习。
DNN处理增量学习任务中,在利用新类别的新样本数据进行网络训练时,网络会遗忘由旧数据中学习的规律,该特点称为神经网络的灾难性遗忘。为了解决灾难性遗忘的问题,相关技术中通常的做法是将新样本数据和旧样本数据合并为完整的样本数据集,利用全部的样本数据进行网络训练。
由于样本数据量较大,因此网络训练过程耗时很长,尤其对于注重落地成本的系统来说,系统算力有限,导致网络训练耗时更长。并且,随着分类类别的逐渐增多,样本数据的数据量将会更加庞大,这一问题也会更加突出。
基于上述相关技术中存在的缺陷,本公开实施方式提供了一种分类网络的训练方法,旨在降低神经网络灾难性遗忘的风险的同时提高网络训练速度。
在一些实施方式中,如图1所示,本公开实施方式的分类网络的训练方法包括:
S110、基于样本数据对待训练的分类网络进行训练,得到训练后的分类网络。
具体来说,当分类网络增加新的类别时,需要结合新类别的样本数据对分类网络进行训练,使其可以学习到新类别的数据特征。
在本公开实施方式中,对待训练的分类网络进行训练时,样本数据包括增加的属于新类别的新样本数据,同时还包括属于旧类别的历史样本数据。但是,本公开实施方式中的历史样本数据,并不是过往全部的历史样本数据,而是由每个旧类别中筛选的部分历史样本数据,本公开下述具体进行说明。
新样本数据可以是例如属于新类别的样本图像,以垃圾分类场景为例,当需要对分类网络增加新的垃圾类别时,可以由采集的属于新类别的垃圾的图像,作为新样本数据。
在一些实施方式中,样本数据中的每个样本对应有标签信息,标签信息表示该样本的真实值,从而可利用样本数据对待训练的分类网络进行监督训练,得到训练后的分类网络。本公开下述进行具体说明,在此暂不展开。
S120、根据样本数据的特征得到训练后的分类网络中每个类别的中心特征。
具体来说,利用样本数据完成分类网络训练后,每个样本数据会对应分类网络输出的一个类别,也即,每个分类网络的每个类别中会包括多个属于该类别的样本数据。
对于每个类别,可根据该类别包括的样本数据的特征,来得到该类别的中心特征,中心特征可用来表征该类别所对应的特征。
在一些实施方式中,对于某个类别,可获取属于该类别的所有样本数据的特征,然后对这些样本数据特征求取平均值,将特征平均值作为该类别的中心特征。
本领域技术人员可以理解,上述实施方式仅作为一种示例性的实施,本公开所述的中心特征并不局限于对应类别下样本数据特征的平均值,还可以是其他任何适于表示类别特征的参数,本公开对此不作限制。
本公开实施方式中,对于每个样本数据的特征,可以由分类网络的隐藏层的最后一层输出得到,也即分类网络的倒数第二层输出。
S130、根据每个类别的中心特征,从属于每个类别的样本数据中确定预设数量的目标样本数据。
具体来说,在确定每个类别对应的中心特征之后,可根据该类别的中心特征,将属于该类别的全部样本数据中的部分样本数据确定为目标样本数据。
在一些实施方式中,对于一个类别,可以根据该类别的中心特征,与该类别包括的各个样本数据的特征的相似度,选取相似度最高的n个样本数据作为目标样本数据。相似度排序最高的样本数据,也即表示该类别下最具有代表性的数据,从而可以提高网络训练效果。本公开下述进行具体说明,在此暂不详述。
在上述实施方式中,若分类网络共包括m个类别,目标样本数据则最大包括n*m个样本数据。
本公开实施方式中,预设数量n可以是由用户根据先验知识或者有限次实验设定的数量,可以理解,预设数量越大则目标样本数据的数据量越大,网络训练的精度越高,但是网络训练时间也越长。反之则相反。因此,本领域技术人员可以根据具体应用环境对预设数量n进行设置,本公开对此不作限制。
S140、基于每个类别对应的目标样本数据,对历史样本数据进行更新。
具体来说,在由每个类别中均确定出n个目标样本数据之后,m个类别共包括n*m个目标样本数据,将这n*m个目标样本数据确定为当前训练完成的分类网络所对应的历史样本数据,对待训练的分类网络的历史样本数据进行更新。
可以理解,对于训练后的分类网络,其历史样本数据最大仅包括前述的n*m个目标样本数据,而非过往全部的样本数据。从而,当分类网络再次增加新类别时,只需要将新增加类别的新样本数据与n*m个历史样本数据合并为新的样本数据集,重复执行上述步骤S110~S140即可完成对新增加类别的训练。
通过上述可知,本公开实施方式的训练方法,在每次针对新增加类别进行网络训练时,都会结合旧类别的历史样本数据,从而降低分类网络对旧数据灾难性遗忘的风险,提高分类网络对旧数据的适应性。并且,基于样本数据特征筛选出每个类别中的部分样本数据作为历史样本数据,降低样本数据量,提高网络训练速度,尤其利于例如嵌入式等算力较低的系统使用。
在一些实施方式中,为了进一步提高分类网络对旧数据的学习能力,本公开方法在网络训练时还利用蒸馏损失来消除历史数据量较小带来的旧数据遗忘问题。
如图2所示,在一些实施方式中,本公开训练方法包括:
S210、将样本数据输入待训练的分类网络,得到待训练的分类网络输出的输出结果。
具体来说,样本数据包括新类别的新样本数据和通过前述方式保存的历史样本数据。
可以理解,对于神经网络的训练,往往需要将所有数据迭代训练多次才能拟合收敛。因此,一些实施方式中,本公开的训练方法包括多个轮次的训练。
值得说明的是,对于分类网络的训练包括多个轮次,本公开对“一个轮次”的定义不作限制,本领域技术人员可以根据不同场景定义何为“一轮”。例如,将一个或多个epoch的数据输入网络完成一次前向计算以及反向传播的过程定义为“一轮”,其中,一个epoch指代全部的样本数据;又例如,将一个或多个batch的数据输入网络完成一次前向计算以及反向传播的过程定义为“一轮”,其中,一个batch表示样本数据中的一部分样本数据;等等。本公开对此不作限制。
在分类网络的训练过程中,对于每一个样本数据,其输入分类网络之后,会对应得到分类网络输出的预测结果,也即所述的输出结果。
S220、确定输出结果与样本数据的标签信息之间的差异。
具体来说,在进行网络训练时,每个样本数据包括有对应的标签信息,标签信息表示该样本数据的真实类别信息,从而基于输出结果与标签信息可以得到两者之间的差异,也即网络损失。
在本公开实施方式中,网络训练的损失函数中结合蒸馏损失,蒸馏损失可以很好地降低网络对旧数据遗忘的风险。下面结合图3进行具体说明。
如图3所示,本实施方式中,分类网络的训练方法包括:
S221、对于同一个样本数据,获取待训练的分类网络输出的第一输出结果,和当前轮次训练的分类网络输出的第二输出结果。
具体来说,如前所述,分类网络的训练包括多个轮次的训练,在第一轮次训练时,可使用交叉熵作为损失函数。由第二轮次开始,每个轮次训练过程中,损失函数包括交叉熵和蒸馏损失两部分。
其中,蒸馏损失表示同一个样本数据,在未经过训练的分类网络的输出结果与当前轮次训练的分类网络的输出结果之间的差异,该差异可以反映训练后的分类网络对旧数据的识别能力。
在网络训练时,对于某一个样本数据输入分类网络之后,首先获取待训练的分类网络输出的第一输出结果。可以理解,待训练的分类网络指尚未进行训练的分类网络,也即训练开始时的分类网络,从而第一输出结果表示未经过训练的分类网络的输出。
类似的,可以理解,当前轮次训练的分类网络指当前正在进行训练的分类网络,而获取该样本数据输入当前轮次训练后的分类网络的第二输出结果,即为将样本数据输入当前正在进行训练的分类网络后,当前正在进行训练的分类网络的输出结果。例如,当前进行第三轮次的网络训练,第二输出结果即为当前第三轮次的分类网络的输出。
S222、根据第一输出结果和第二输出结果,确定样本数据的蒸馏损失。
具体来说,第一输出结果表示样本数据在旧有网络的输出值,第二输出结果表示样本数据在新网络的输出值,第一输出结果和第二输出结果之间的差异也即本公开所述的蒸馏损失,其表示网络对于旧数据的识别能力,蒸馏损失越小,说明分类网络对于旧数据的遗忘越小。
在一个示例中,在对蒸馏损失计算时,可利用第一输出结果和第二输出结果的平方差值表示蒸馏损失。当然,本领域技术人员可以理解,本公开实施例中蒸馏损失的计算方式还可以采用其他方式,本公开对此不作限制。
S223、基于蒸馏损失确定输出结果与样本数据的标签信息之间的差异。
具体来说,在第二轮次之后的网络训练中,损失函数包括交叉熵和蒸馏损失,从而在一些实施方式中,可将交叉熵损失和蒸馏损失之和作为损失函数。
对于一个样本数据来说,其输入分类网络之后,可以得到分类网络输出的第二输出结果,第二输出结果与该样本数据的标签信息之间的差异即为所述的交叉熵损失。在一个示例中,在得到交叉熵损失和蒸馏损失之后,对两者进行加权求和得到用于表示网络输出结果与标签信息之间差异的损失函数。
可以理解,本公开实施方式中,网络训练时的损失函数融合了蒸馏损失,从而可以减少网络对旧数据遗忘的情况,在降低样本数据量保证网络训练速度的基础上,进一步降低网络灾难性遗忘的风险。
本领域技术人员可以理解,在第一轮次训练中,由于当前轮次的分类网络即为待训练的分类网络,因此无需考虑蒸馏损失,损失函数只考虑交叉熵损失即可,本公开对此不再赘述。
S230、根据差异调整分类网络的网络参数,直至满足收敛条件。
具体来说,在得到某个样本数据的输出结果与标签信息之间的差异之后,即可根据该差异反向传播调整网络参数,直至满足收敛条件,即可认为网络训练完成。
在一些实施方式中,收敛条件可以为所有样本数据输入网络一遍,例如,对于某一个轮次的训练,可以将全部样本数据输入网络完成一次前向计算和反向传播,即可确认本轮次训练满足收敛条件。
在另一些实施方式中,收敛条件可以为所述差异满足预设阈值范围,例如,对于分类网络的训练,直到连续多个样本数据的损失均满足预设阈值范围,则可确认分类网络训练完成,得到训练后的分类网络。
可以理解,上述实施方式仅作为两种示例,本领域技术人员在上述基础上还可以实现其他收敛条件,本公开对此不作限制。
本公开实施方式中,在对分类网络训练完成之后,需要基于本次网络训练的样本数据对历史样本数据进行更新,从而作为下次网络训练的历史样本数据。下面结合图4具体进行说明。
如图4所示,在一些实施方式中,本公开实施方式的训练方法包括:
S410、获取每个类别中包括的各个样本数据的特征。
具体来说,在得到训练后的分类网络后,分类网络中的每个类别中会包括多个样本数据。对于每个类别,可以获取该类别中包括的各个样本数据对应的特征。
在一个示例中,可以由分类网络的隐藏层的最后一层输出得到样本数据的特征,例如某个样本数据输入分类网络,由分类网络的输出层之前一层的隐藏层输出获取到该样本数据的特征。
S420、根据每个类别中包括的各个样本数据的特征,得到该类别中所有样本数据的特征平均值。
S430、将特征平均值确定为该类别的中心特征。
具体来说,对于每个类别,在得到该类别中包括的各个样本数据的特征之后,可以求取各个样本数据特征的平均值,该特征平均值即可用来表示该类别的特征,也即所述中心特征。
在一些实施方式中,在确定每个类别中心特征之后,即可根据该中心特征确定该类别的目标样本数据,下面结合图5进行说明。
如图5所示,在一些实施方式中,本公开训练方法包括:
S510、对于每一个类别,获取该类别包括的各个样本数据的特征。
如前所述,在一些实施方式中,可以由分类网络的隐藏层的最后一层输出得到样本数据的特征。
S520、根据各个样本数据的特征与该类别的中心特征,确定各个样本数据的特征与中心特征的相似度。
在一个示例中,对于训练后的分类网络中的某一个类别来说,获取该类别中包括的各个样本数据的特征,然后根据每个样本数据的特征以及通过前述图4实施方式得到的该类别的中心特征,计算每个样本数据的特征与中心特征的欧式距离。该欧式距离即表示两者之间的相似度,距离越小表示两者相似度越高。
S530、对各个样本数据的特征与中心特征的相似度由高到底排序,得到相似度序列。
具体来说,在计算得到该类别中某个样本数据特征与中心特征的相似度之后,可根据相似度由高到低的顺序对相似度进行排序,从而得到该类别的相似度序列。
S540、确定相似度序列中前预设数量的相似度对应的样本数据为目标样本数据。
具体来说,如前所述,预设数量可以预先由用户进行设置。相似度序列中前预设数量的相似度,表示与中心特征相似度最高的样本数据对应的相似度,从而将这些相似度较高的样本数据确定为该类别的目标样本数据。
上述对一个类别的目标样本数据确定过程进行了说明,对于分类网络包括的各个类别,均参照上述方式即可。也即,假设分类网络共包括m个类别,其中每个类别对应的目标样本数据的最大数量为预设数量n,从而分类网络包括的全部样本数据总量为n*m。
在一个示例中,可以将相似度序列中排序靠前的5~10个数据确定为目标数据,也即预设数量n的取值范围为5~10。
在一些实施方式中,在确定目标样本数据之后,可将目标样本数据进行保存,除目标样本数据之外的样本数据进行删除。
在一些实施方式中,将各个类别的目标样本数据合并作为当前分类网络对应的历史样本数据,从而对旧网络的历史样本数据进行替换更新。
通过上述可知,本公开实施方式的训练方法,通过样本数据特征筛选出每个类别中最具有代表性的样本数据更新历史样本数据,在结合历史样本数据的基础上降低网络训练的数据量,提高网络训练速度。
值得说明的是,发明人研究发现,对于分类网络的灾难性遗忘问题,不仅包括网络对旧样本数据遗忘的因素,还有一个重要的因素是输出层新类别与旧类别之间的权重比例失衡。例如,分类网络在处理增量学习任务时,由于旧类别与新类别权重比例失衡,网络会更倾向于将旧类别数据输出为新类别,造成灾难性遗忘的缺陷。
因此,在本公开一些实施方式中,本公开分类网络的训练方法,在得到训练后的分类网络之后,还包括:
对分类网络的新类别权重和旧类别权重进行归一化处理。
可以理解,归一化处理的目的是使得新类别权重和旧类别权重处于相同或相近的比例。图6示出了本实施方式的一个示例,下面结合图6进行具体说明。
如图6所示,本公开实施方式的分类网络的训练方法包括:
S610、获取分类网络的新类别和旧类别的权重比例。
S620、根据权重比例,对新类别的权重进行调整。
具体而言,在网络训练完成之后,每个类别会对应有各自的权重w,在本公开的一些实施方式中,获取新增加的类别的权重w1,和旧类别的权重w2,权重比例k可表示为k=||w1||/||w2||。其中,||w1||表示新类别权重w1的二次模,||w2||表示旧类别权重w2的二次模。
可以理解,权重比例k表示新类别与旧类别之间的权重失衡度,根据权重比例k对新类别权重w1进行调整,例如,将新类别权重w1/k,可使新类别权重与旧类别权重保持平衡。
通过上述可知,本公开实施方式中,通过将分类网络输出层中新类别权重进行调整,可减轻由于新类别与旧类别权重比例失衡导致的灾难性遗忘情况,提高分类网络鲁棒性。
另一方面,本公开实施方式提供了一种图像分类方法。如图7所示,在一些实施方式中,本公开实施方式的图像分类方法包括:
S710、获取待分类的待处理图像。
S720、将待处理图像输入分类网络,得到分类网络输出的分类结果。
可以理解,分类网络可以通过前述任一实施方式中的训练方法训练得到,在分类网络训练完成之后,用户即可利用训练后的分类网络实现分类预测。具体来说,首先可以获取待分类的待处理图像,例如待进行垃圾分类的垃圾图像。然后将待处理图像作为分类网络的输入,输入进分类网络中,即可得到分类网络预测输出的分类结果。
随着垃圾分类在全国的实施推广,AI教育也逐渐开始基于这一场景开展。例如,对学生进行垃圾分类引导教育的场景中,分类系统可以为嵌入式的智能垃圾分类机器人,从而学生可以输入包含垃圾的图像,分类系统即可输出该图像中包含的垃圾的类别。在一个示例中,学生输入包含有废弃电池的图像,系统输出类别为“有害垃圾”,从而学生可以学习到废弃电池的类别,增加趣味性。
对于这种成本较低的嵌入式系统,其系统的计算能力十分有限,当需要新增加垃圾分类的类别时,如果采用传统网络训练方法,则训练耗时会非常长,而如果采用本公开上述的训练方法,则可以大大缩短训练时间。下面结合该场景对本公开实施方式的训练方法以及图像分类方法进行说明。
当系统需要新增加垃圾类别时,需要针对该系统对新类别垃圾进行学习训练。首先,可由用户拍摄若干张新类别垃圾的新样本图像,这些新样本图像即为新样本数据。同时,系统通过前述方法保存有旧类别垃圾的历史样本图像。将新样本图像与历史样本图像合并为样本图像集,利用该样本图像集通过上述任一实施方式所述的训练方法完成对垃圾分类网络的训练。
在垃圾分类网络训练完成之后,系统可通过前述任一实施方式所述的训练方法,由m个类别中的每个类别中筛选出预设数量n的样本图像,然后将这n*m张样本图像保存作为新的历史样本图像。
当系统需要再次增加新的垃圾类别时,重复上述采集新样本图像的过程,将新样本图像与之前保存的n*m张历史样本图像合并为新的样本图像集,重复执行上述训练过程即可。
而在网络训练完成后的使用阶段,垃圾分类机器人由学生使用,学生可以手动拍摄或者选取包含有垃圾的待处理图像,然后将待处理图像输入分类系统中,从而即可得到系统输出的该待处理图像中包含的垃圾的类别,相较于传统教学方式,增加学生的参与感和趣味性。
本公开实施方式的方法,可以大大降低垃圾分类系统样本数据量,从而提高网络训练速度。在一个示例性的实测中,假设用户在垃圾分类系统中注册了100类垃圾,共10000张样本图像,若采用传统的网络训练方法,训练一次可能需要150分钟以上。而采用本公开实施方式的网络训练方法,系统中仅保存有1000张以下图片,训练一次仅需要大约15分钟。可以看到本公开方法尤其适用于这种算力有限的嵌入式系统使用,缩短网络训练时间。
本公开实施方式提供了一种分类网络的训练装置,该训练装置可应用于前述的分类系统。
在一些实施方式中,如图8所示,本公开示例的训练装置包括:
网络训练模块801,被配置为基于样本数据对待训练的分类网络进行训练,得到训练后的分类网络;样本数据包括属于新类别的新样本数据和属于旧类别的历史样本数据;
特征确定模块802,被配置为根据样本数据的特征得到训练后的分类网络中每个类别的中心特征;
数据确定模块803,被配置为根据每个类别的中心特征,从属于每个类别的样本数据中确定预设数量的目标样本数据;
更新模块804,被配置为基于每个类别对应的目标样本数据,对历史样本数据进行更新。
在一些实施方式中,网络训练模块801具体被配置为:
将样本数据输入待训练的分类网络,得到待训练的分类网络输出的输出结果;
确定输出结果与样本数据的标签信息之间的差异;差异包括输出结果对应的蒸馏损失;
根据差异调整分类网络的网络参数,直至满足收敛条件。
在一些实施方式中,分类网络的训练过程包括多个轮次;网络训练模块801具体被配置为:
对于同一个样本数据,获取待训练的分类网络输出的第一输出结果,和当前轮次训练的分类网络输出的第二输出结果;
根据第一输出结果和第二输出结果,确定样本数据的蒸馏损失;
基于蒸馏损失确定输出结果与样本数据的标签信息之间的差异。
在一些实施方式中,特征确定模块802具体被配置为:
获取每个类别中包括的各个样本数据的特征;
根据每个类别中包括的各个样本数据的特征,得到该类别中所有样本数据的特征平均值;
将特征平均值确定为该类别的中心特征。
在一些实施方式中,数据确定模块803具体被配置为:
对于每一个类别,获取该类别包括的各个样本数据的特征;
根据各个样本数据的特征与该类别的中心特征,确定各个样本数据的特征与中心特征的相似度;
对各个样本数据的特征与中心特征的相似度由高到低排序,得到相似度序列;
确定相似度序列中前预设数量的相似度对应的样本数据为目标样本数据。
在一些实施方式中,训练装置还包括:
权重调整模块805,被配置为在得到训练后的分类网络之后,对分类网络的新类别的权重和旧类别的权重进行归一化处理。
在一些实施方式中,权重调整模块805具体被配置为:
获取分类网络的新类别和旧类别的权重比例;
根据权重比例,对新类别的权重进行调整。
在一些实施方式中,分类网络为垃圾分类网络。
通过上述可知,本公开实施方式的训练装置,降低分类网络对旧数据灾难性遗忘的风险,提高分类网络对旧数据的适应性。降低样本数据量,提高网络训练速度,尤其利于例如嵌入式等算力较低的系统使用。网络训练时的损失函数融合了蒸馏损失,从而可以减少网络对旧数据遗忘的情况,在降低样本数据量保证网络训练速度的基础上,进一步降低网络灾难性遗忘的风险。通过将分类网络输出层中新类别权重进行调整,可减轻由于新类别与旧类别权重比例失衡导致的灾难性遗忘情况,提高分类网络鲁棒性。
本公开实施方式提供了一种图像分类装置,该图像分类装置可应用于前述的分类系统。
在一些实施方式中,如图9所示,本公开示例的图像分类装置包括:
获取模块901,被配置为获取待分类的待处理图像;
网络预测模块902,被配置为将待处理图像输入分类网络,得到分类网络输出的分类结果;分类网络利用根据前述任一实施方式的训练方法训练得到。
本公开实施方式提供了一种电子设备,包括:
处理器;和
存储器,存储有计算机指令,计算机指令用于使处理器执行前述任一实施方式中的训练方法和/或图像分类方法。
本公开实施方式提供了一种存储介质,存储有计算机指令,计算机指令用于使计算机执行前述任一实施方式中的训练方法和/或图像分类方法。
具体而言,图10示出了适于用来实现本公开方法的计算机系统10的结构示意图,通过图10所示系统,可实现上述处理器及存储介质相应功能。
如图10所示,计算机系统600包括处理器601,其可以根据存储在存储器602中的程序或者从存储部分608加载到存储器602中的程序而执行各种适当的动作和处理。在存储器602中,还存储有系统600操作所需的各种程序和数据。处理器601和存储器602通过总线604彼此相连。输入/输出(I/O)接口605也连接至总线604。
以下部件连接至I/O接口605:包括键盘、鼠标等的输入部分606;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分607;包括硬盘等的存储部分608;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分609。通信部分609经由诸如因特网的网络执行通信处理。驱动器610也根据需要连接至I/O接口605。可拆卸介质611,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器610上,以便于从其上读出的计算机程序根据需要被安装入存储部分608。
特别地,根据本公开的实施方式,上文方法过程可以被实现为计算机软件程序。例如,本公开的实施方式包括一种计算机程序产品,其包括有形地包含在机器可读介质上的计算机程序,计算机程序包含用于执行上述方法的程序代码。在这样的实施方式中,该计算机程序可以通过通信部分609从网络上被下载和安装,和/或从可拆卸介质611被安装。
附图中的流程图和框图,图示了按照本公开各种实施方式的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
显然,上述实施方式仅仅是为清楚地说明所作的举例,而并非对实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。而由此所引伸出的显而易见的变化或变动仍处于本公开创造的保护范围之中。

Claims (12)

1.一种分类网络的训练方法,其特征在于,包括:
基于样本数据对待训练的分类网络进行训练,得到训练后的分类网络;所述样本数据包括属于新类别的新样本数据和属于旧类别的历史样本数据;
根据所述样本数据的特征得到训练后的分类网络中每个类别的中心特征;
根据每个类别的中心特征,从属于每个类别的样本数据中确定预设数量的目标样本数据;
基于每个类别对应的所述目标样本数据,对所述历史样本数据进行更新。
2.根据权利要求1所述的训练方法,其特征在于,所述基于样本数据对待训练的分类网络进行训练,包括:
将所述样本数据输入待训练的分类网络,得到待训练的分类网络输出的输出结果;
确定所述输出结果与所述样本数据的标签信息之间的差异;所述差异包括所述输出结果对应的蒸馏损失;
根据所述差异调整所述分类网络的网络参数,直至满足收敛条件。
3.根据权利要求2所述的方法,其特征在于,所述分类网络的训练过程包括多个轮次;所述确定所述输出结果与所述样本数据的标签信息之间的差异,包括:
对于同一个样本数据,获取待训练的分类网络输出的第一输出结果,和当前轮次训练的分类网络输出的第二输出结果;
根据所述第一输出结果和所述第二输出结果,确定所述样本数据的所述蒸馏损失;
基于所述蒸馏损失确定所述输出结果与所述样本数据的标签信息之间的差异。
4.根据权利要求1至3任一项所述的方法,其特征在于,所述根据所述样本数据的特征得到训练后的分类网络中每个类别的中心特征,包括:
获取每个类别中包括的各个样本数据的特征;
根据每个类别中包括的各个样本数据的特征,得到该类别中所有样本数据的特征平均值;
将所述特征平均值确定为该类别的所述中心特征。
5.根据权利要求1至4任一项所述的方法,其特征在于,所述根据每个类别的中心特征,从属于每个类别的样本数据中确定预设数量的目标样本数据,包括:
对于每一个所述类别,获取该类别包括的各个样本数据的特征;
根据各个样本数据的特征与该类别的所述中心特征,确定各个样本数据的特征与所述中心特征的相似度;
对各个样本数据的特征与所述中心特征的相似度由高到低排序,得到相似度序列;
确定所述相似度序列中前所述预设数量的相似度对应的样本数据为所述目标样本数据。
6.根据权利要求1至5任一项所述的方法,其特征在于,在得到训练后的分类网络之后,所述方法还包括:
对所述分类网络的新类别的权重和旧类别的权重进行归一化处理。
7.根据权利要求6所述的方法,其特征在于,所述对所述分类网络的新类别的权重和旧类别的权重进行归一化处理,包括:
获取所述分类网络的新类别和旧类别的权重比例;
根据所述权重比例,对所述新类别的权重进行调整。
8.一种图像分类方法,其特征在于,包括:
获取待分类的待处理图像;
将所述待处理图像输入分类网络,得到所述分类网络输出的分类结果;所述分类网络利用根据权利要求1至7任一项所述的方法训练得到。
9.一种分类网络的训练装置,其特征在于,包括:
网络训练模块,被配置为基于样本数据对待训练的分类网络进行训练,得到训练后的分类网络;所述样本数据包括属于新类别的新样本数据和属于旧类别的历史样本数据;
特征确定模块,被配置为根据所述样本数据的特征得到训练后的分类网络中每个类别的中心特征;
数据确定模块,被配置为根据每个类别的中心特征,从属于每个类别的样本数据中确定预设数量的目标样本数据;
更新模块,被配置为基于每个类别对应的所述目标样本数据,对所述历史样本数据进行更新。
10.一种图像分类装置,其特征在于,包括:
获取模块,被配置为获取待分类的待处理图像;
网络预测模块,被配置为将所述待处理图像输入分类网络,得到所述分类网络输出的分类结果;其中,所述分类网络利用根据权利要求1至7任一项所述的方法训练得到。
11.一种电子设备,其特征在于,包括:
处理器;和
存储器,存储有计算机指令,所述计算机指令用于使处理器执行根据权利要求1至7任一项所述的方法,或者执行根据权利要求8所述的方法。
12.一种存储介质,其特征在于,存储有计算机指令,所述计算机指令用于使计算机执行根据权利要求1至7任一项所述的方法,或者执行根据权利要求8所述的方法。
CN202110495315.8A 2021-05-07 2021-05-07 图像分类方法、分类网络的训练方法和相关产品 Pending CN113139612A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110495315.8A CN113139612A (zh) 2021-05-07 2021-05-07 图像分类方法、分类网络的训练方法和相关产品

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110495315.8A CN113139612A (zh) 2021-05-07 2021-05-07 图像分类方法、分类网络的训练方法和相关产品

Publications (1)

Publication Number Publication Date
CN113139612A true CN113139612A (zh) 2021-07-20

Family

ID=76816643

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110495315.8A Pending CN113139612A (zh) 2021-05-07 2021-05-07 图像分类方法、分类网络的训练方法和相关产品

Country Status (1)

Country Link
CN (1) CN113139612A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113971746A (zh) * 2021-12-24 2022-01-25 季华实验室 基于单次人手示教的垃圾分类方法、装置及分拣智能系统

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109934275A (zh) * 2019-03-05 2019-06-25 深圳市商汤科技有限公司 图像处理方法及装置、电子设备和存储介质
CN110210560A (zh) * 2019-05-31 2019-09-06 北京市商汤科技开发有限公司 分类网络的增量训练方法、分类方法及装置、设备及介质
CN110659625A (zh) * 2019-09-29 2020-01-07 深圳市商汤科技有限公司 物体识别网络的训练方法及装置、电子设备和存储介质
CN110689089A (zh) * 2019-10-12 2020-01-14 电子科技大学 用于深度学习多类别医疗图像分类的主动增量训练方法
CN110837856A (zh) * 2019-10-31 2020-02-25 深圳市商汤科技有限公司 神经网络训练及目标检测方法、装置、设备和存储介质
US20200175384A1 (en) * 2018-11-30 2020-06-04 Samsung Electronics Co., Ltd. System and method for incremental learning
CN111310852A (zh) * 2020-03-08 2020-06-19 桂林电子科技大学 一种图像分类方法及系统
CN111428866A (zh) * 2020-06-10 2020-07-17 成都晓多科技有限公司 一种增量学习方法、装置、存储介质及电子设备
CN112559784A (zh) * 2020-11-02 2021-03-26 浙江智慧视频安防创新中心有限公司 基于增量学习的图像分类方法及系统
WO2021056450A1 (zh) * 2019-09-27 2021-04-01 深圳市汇顶科技股份有限公司 图像模板的更新方法、设备及存储介质

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200175384A1 (en) * 2018-11-30 2020-06-04 Samsung Electronics Co., Ltd. System and method for incremental learning
CN109934275A (zh) * 2019-03-05 2019-06-25 深圳市商汤科技有限公司 图像处理方法及装置、电子设备和存储介质
CN110210560A (zh) * 2019-05-31 2019-09-06 北京市商汤科技开发有限公司 分类网络的增量训练方法、分类方法及装置、设备及介质
WO2021056450A1 (zh) * 2019-09-27 2021-04-01 深圳市汇顶科技股份有限公司 图像模板的更新方法、设备及存储介质
CN110659625A (zh) * 2019-09-29 2020-01-07 深圳市商汤科技有限公司 物体识别网络的训练方法及装置、电子设备和存储介质
CN110689089A (zh) * 2019-10-12 2020-01-14 电子科技大学 用于深度学习多类别医疗图像分类的主动增量训练方法
CN110837856A (zh) * 2019-10-31 2020-02-25 深圳市商汤科技有限公司 神经网络训练及目标检测方法、装置、设备和存储介质
CN111310852A (zh) * 2020-03-08 2020-06-19 桂林电子科技大学 一种图像分类方法及系统
CN111428866A (zh) * 2020-06-10 2020-07-17 成都晓多科技有限公司 一种增量学习方法、装置、存储介质及电子设备
CN112559784A (zh) * 2020-11-02 2021-03-26 浙江智慧视频安防创新中心有限公司 基于增量学习的图像分类方法及系统

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
何丽;韩克平;朱泓西;刘颖;: "双分支迭代的深度增量图像分类方法", 模式识别与人工智能, no. 02, 15 February 2020 (2020-02-15), pages 59 - 68 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113971746A (zh) * 2021-12-24 2022-01-25 季华实验室 基于单次人手示教的垃圾分类方法、装置及分拣智能系统

Similar Documents

Publication Publication Date Title
CN110674880B (zh) 用于知识蒸馏的网络训练方法、装置、介质与电子设备
CN111291266A (zh) 基于人工智能的推荐方法、装置、电子设备及存储介质
CN111310814A (zh) 利用不平衡正负样本对业务预测模型训练的方法及装置
CN111611488B (zh) 基于人工智能的信息推荐方法、装置、电子设备
CN111210072B (zh) 预测模型训练和用户资源额度确定方法及装置
CN112906823B (zh) 目标对象识别模型训练方法、识别方法及识别装置
CN111583031A (zh) 一种基于集成学习的申请评分卡模型建立方法
CN112561082A (zh) 生成模型的方法、装置、设备以及存储介质
CN114358197A (zh) 分类模型的训练方法及装置、电子设备、存储介质
CN112712127A (zh) 一种结合图卷积神经网络的图像情感极性分类方法
CN112381030A (zh) 一种基于特征融合的卫星光学遥感图像目标检测方法
CN110991247B (zh) 一种基于深度学习与nca融合的电子元器件识别方法
CN116385879A (zh) 一种半监督海面目标检测方法、系统、设备及存储介质
CN110348516B (zh) 数据处理方法、装置、存储介质及电子设备
CN115272894A (zh) 面向无人机图像目标检测方法、装置、电子设备及存储介质
CN117726884B (zh) 对象类别识别模型的训练方法、对象类别识别方法及装置
CN117011563A (zh) 基于半监督联邦学习的道路损害巡检跨域检测方法及系统
CN113139612A (zh) 图像分类方法、分类网络的训练方法和相关产品
CN112329879A (zh) 基于反事实多智能体学习的图像场景图的生成方法和系统
CN112348809A (zh) 基于多任务深度学习的无参考屏幕内容图像质量评价方法
CN116385791A (zh) 基于伪标签的重加权半监督图像分类方法
CN115410250A (zh) 阵列式人脸美丽预测方法、设备及存储介质
CN115170838A (zh) 一种数据筛选方法及装置
CN115470927A (zh) 一种替代模型自动提取方法、终端及存储介质
CN114861936A (zh) 一种基于特征原型的联邦增量学习方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination