CN112686278B - 模型获取方法、装置及存储介质 - Google Patents

模型获取方法、装置及存储介质 Download PDF

Info

Publication number
CN112686278B
CN112686278B CN201910996286.6A CN201910996286A CN112686278B CN 112686278 B CN112686278 B CN 112686278B CN 201910996286 A CN201910996286 A CN 201910996286A CN 112686278 B CN112686278 B CN 112686278B
Authority
CN
China
Prior art keywords
model
category
image
training set
basic model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910996286.6A
Other languages
English (en)
Other versions
CN112686278A (zh
Inventor
宋涛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Hikvision Digital Technology Co Ltd
Original Assignee
Hangzhou Hikvision Digital Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Hikvision Digital Technology Co Ltd filed Critical Hangzhou Hikvision Digital Technology Co Ltd
Priority to CN201910996286.6A priority Critical patent/CN112686278B/zh
Publication of CN112686278A publication Critical patent/CN112686278A/zh
Application granted granted Critical
Publication of CN112686278B publication Critical patent/CN112686278B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Image Analysis (AREA)

Abstract

本申请实施例提供了一种模型获取方法、装置及存储介质,该方法包括:采用每个基础模型对训练集中的各个图像进行处理,获取每个图像的特征,基础模型为已训练基础模型池中的模型,针对该基础模型,根据图像的特征和类别,获取该基础模型对所述训练集的聚类能力,类别用于表示图像的分类信息,根据每个基础模型对训练集的聚类能力,从基础模型池中获取预训练模型。和相关技术相比,从基础模型池中选取预训练模型时无需额外的训练过程,可快速、高效地获取预训练模型,同时未引入超参数,选取结果稳定,提高了用户体验。

Description

模型获取方法、装置及存储介质
技术领域
本申请涉及机器学习技术领域,尤其涉及一种模型获取方法、装置及存储介质。
背景技术
在卷积神经网络(Convolutional Neural Networks,CNN)学习中,通过加载已有的训练模型对目标数据进行学习,称为迁移学习,即,把为任务A开发的模型作为初始点,重新使用在为任务B开发模型的过程中,相较于初始化的训练模型,迁移学习能够充分利用已学习的有效知识在目标数据上进行表征,可以加快训练收敛速度。迁移学习可以应用于图像分类处理、图像检测、语义等领域。
在图像分类领域中,从已训练的基础模型池中选取预训练模型时,需要对基础模型池中的各个基础模型进行重新训练,然后获取各个训练好的基础模型对测试集的分类准确率,并根据各个分类准确率从基础模型池中确定预训练模型,其中测试集包括多个图像样本。
然而,上述方式中神经网络的训练过程非常冗长、耗时,并且由于神经网络学习收敛的性能对超参数比较敏感,设定不同的超参数值可能导致选取不同的预训练模型,影响用户体验,其中,超参数包括学习率、最大迭代次数等。
发明内容
本申请提供一种模型获取方法、装置及存储介质,用于从基础模型池中快速、高效地获取预训练模型。
本申请第一方面提供的一种模型获取方法,包括:
采用每个基础模型对训练集中的各个图像进行处理,获取每个图像的特征,所述基础模型为已训练的基础模型池中的模型;
针对所述基础模型,根据所述图像的特征和类别,获取所述基础模型对所述训练集的聚类能力,所述类别用于表示所述图像的分类信息;
根据每个基础模型对所述训练集的聚类能力,从所述基础模型池中获取预训练模型。
在一种可能的实施中,所述方法还包括:
根据所述训练集对所述预训练模型进行训练,获取图像分类模型;
根据所述图像分类模型对测试集中的各个图像进行推理,得到所述测试集中各个图像的类别;
根据所述测试集中各个图像的类别,获取所述测试集对应的分类正确率;
若所述分类正确率大于预设值,将所述图像分类模型作为最终的图像分类模型。
在一种可能的实施中,所述基础模型池包括多个类别分别对应的子基础模型池,所述方法还包括:
将所述训练集的类别作为所述最终的图像分类模型的类别,所述训练集的类别用于表示所述训练集的分类信息;
根据所述最终的图像分类模型的类别,将所述最终的图像分类模型存储至对应的子基础模型池。
在一种可能的实施中,所述针对所述基础模型,根据所述图像的特征和类别,获取所述基础模型对所述训练集的聚类能力,包括:
针对所述基础模型,根据所述训练集中各个图像的特征和类别,获取所述训练集的特征子集,所述特征子集用于表示图像的特征和类别对的集合;
针对所述特征子集中的每个类别,根据所述类别对应的图像的特征,获取所述基础模型对所述训练集的聚类能力。
在一种可能的实施中,所述针对所述特征子集中的每个类别,根据所述类别对应的图像的特征,获取所述基础模型对所述训练集的聚类能力,包括:
针对所述类别,计算得到所述类别对应的图像的特征值的平均值,其中,每个图像的特征对应一个特征值;
根据每个图像的特征值与所述平均值之间差值的平均值,获取所述基础模型对所述类别的聚类距离;
计算得到所述基础模型对每个类别的聚类距离之间的平均值;
根据所述基础模型对每个类别的聚类距离之间的平均值,获取所述基础模型对所述训练集的聚类能力。
在一种可能的实施中,所述根据每个基础模型对所述训练集的聚类能力,从所述基础模型池中获取预训练模型,包括:
从所述基础模型池中获取对所述训练集的聚类能力最高的基础模型;
将所述基础模型作为所述预训练模型。
本申请第二方面提供一种模型获取装置,包括:
获取模块,用于采用每个基础模型对训练集中的各个图像进行处理,获取每个图像的特征,所述基础模型为已训练的基础模型池中的模型;
针对所述基础模型,根据所述图像的特征和类别,获取所述基础模型对所述训练集的聚类能力,所述类别用于表示所述图像的分类信息;
根据每个基础模型对所述训练集的聚类能力,从所述基础模型池中获取预训练模型。
在一种可能的实施中,所述获取模块还用于:
根据所述训练集对所述预训练模型进行训练,获取图像分类模型;
根据所述图像分类模型对测试集中的各个图像进行推理,得到所述测试集中各个图像的类别;
根据所述测试集中各个图像的类别,获取所述测试集对应的分类正确率;
若所述分类正确率大于预设值,将所述图像分类模型作为最终的图像分类模型。
在一种可能的实施中,还包括:
处理模块,用于将所述训练集的类别作为所述最终的图像分类模型的类别,所述训练集的类别用于表示所述训练集的分类信息;
根据所述最终的图像分类模型的类别,将所述最终的图像分类模型存储至对应的子基础模型池。
在一种可能的实施中,所述获取模块具体用于:
针对所述基础模型,根据所述训练集中各个图像的特征和类别,获取所述训练集的特征子集,所述特征子集用于表示图像的特征和类别对的集合;
针对所述特征子集中的每个类别,根据所述类别对应的图像的特征,获取所述基础模型对所述训练集的聚类能力。
在一种可能的实施中,所述获取模块具体用于:
针对所述类别,计算得到所述类别对应的图像的特征值的平均值,其中,每个图像的特征对应一个特征值;
根据每个图像的特征值与所述平均值之间差值的平均值,获取所述基础模型对所述类别的聚类距离;
计算得到所述基础模型对每个类别的聚类距离之间的平均值;
根据所述基础模型对每个类别的聚类距离之间的平均值,获取所述基础模型对所述训练集的聚类能力。
在一种可能的实施中,所述获取模块具体用于:
从所述基础模型池中获取对所述训练集的聚类能力最高的基础模型;
将所述基础模型作为所述预训练模型。
本申请第三方面提供一种模型获取装置,包括处理器、存储器及存储在所述存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现如上述第一方面以及第一方面各种可能实现方式中任一项所述的方法。
本申请第四方面提供一种存储介质,所述存储介质中存储有指令,当其在计算机上运行时,使得计算机执行如上述第一方面以及第一方面各种可能实现方式中任一项所述的方法。
本申请实施例提供的模型获取方法、装置及存储介质,该方法包括:采用每个基础模型对训练集中的各个图像进行处理,获取每个图像的特征,基础模型为已训练基础模型池中的模型,针对该基础模型,根据图像的特征和类别,获取该基础模型对所述训练集的聚类能力,类别用于表示图像的分类信息,根据每个基础模型对训练集的聚类能力,从基础模型池中获取预训练模型。和相关技术相比,从基础模型池中选取预训练模型时无需额外的训练过程,可快速、高效地获取预训练模型,同时未引入超参数,选取结果稳定,提高了用户体验。
附图说明
图1为本申请实施例提供的模型获取方法实施例一的流程图;
图2为本申请实施例提供的基础模型的示意图;
图3为本申请实施例提供的模型获取方法实施例二的流程图;
图4为本申请实施例提供的模型获取方法实施例三的流程图;
图5为本申请实施例提供的模型获取方法实施例四的流程图;
图6为本申请实施例提供的基础模型对训练集的聚类能力的示意图;
图7为本申请实施例提供的模型获取装置实施例一的结构示意图;
图8为本申请实施例提供的模型获取装置实施例二的结构示意图。
具体实施方式
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
卷积神经网络(Convolutional Neural Networks,CNN)是一类包含卷积计算且具有深度结构的前馈神经网络,是深度学习的代表算法之一。主要包含卷积层、池化层以及非线性变换层,其中卷积层包含一定数量的卷积核,用于提取特征,池化层用于对特征进行筛选,筛选出更具有代表性的特征,同时还进行降维处理,以减小复杂度,非线性变化层用于进行非线性变换,改变特征的表达空间。
其中,CNN模型的训练过程就是通过数据驱动参数更新的过程,因此每个模型的参数都蕴含了已训练数据中的知识。在CNN学习中,通过加载已有的训练模型对目标数据进行学习,是一种通用的训练方式,即迁移学习。相较于初始化的训练模型,迁移学习能够充分利用已学习的有效知识在目标数据上进行表征,可以加快训练收敛速度,提高收敛性能,并改善训练的稳定性。其中,由于不同的基础模型所蕴含的知识背景不同,其在目标数据集上进行迁移学习的最终结果也可能不一样。因此,如何从已有的基础模型中选取预训练模型极为关键。
相关技术提供了一种从已训练的基础模型池中选取预训练模型的方案,需要对基础模型池中的各个基础模型进行重新训练,具体地:将各个基础模型的最后一层去掉,添加一层新的全连接层,并将神经元数设置为待识别种类数,同时冻结基础模型中的参数值,仅对新添加的全连接层的权值进行调整,然后采用训练集对每个基础模型进行训练,接着根据训练好的基础模型对测试集的分类准确率,从基础模型池中获取预训练模型。
然而,在该方式中,神经网络的训练过程非常冗长、耗时,尤其当训练集数据规模较大时,更加耗时;并且由于神经网络学习收敛的性能对超参数比较敏感,设定不同的超参数值可能导致选取不同的预训练模型,影响用户体验,其中,超参数指的是在开始学习过程之前设置值的参数,超参数包括学习率、最大迭代次数等。
基于此,本申请实施例提供了一种模型获取方法,包括:采用每个基础模型对训练集中的各个图像进行处理,获取每个图像的特征,基础模型为已训练基础模型池中的模型,针对该基础模型,根据图像的特征和类别,获取该基础模型对所述训练集的聚类能力,类别用于表示图像的分类信息,根据每个基础模型对训练集的聚类能力,从基础模型池中获取预训练模型。和相关技术相比,从基础模型池中选取预训练模型时无需额外的训练过程,可快速、高效地获取预训练模型,同时未引入超参数,选取结果稳定,提高了用户体验。
可以理解的是,本申请实施例的执行主体可以是电子设备,例如,终端设备,也可以是服务器,例如,后台的处理平台等,其可以根据实际情况确定,此处不再赘述。
下面通过具体实施例对本申请的技术方案进行详细说明。需要说明的是,下面这几个具体的实施例可以相互结合,对于相同或相似的概念或过程可能在某些实施例中不再赘述。下面将结合附图,对本申请的实施例进行描述。
图1为本申请实施例提供的模型获取方法实施例一的流程图。如图1所示,本申请实施例提供的模型获取方法,可以包括如下步骤:
S101、采用每个基础模型对训练集中的各个图像进行处理,获取每个图像的特征,基础模型为已训练的基础模型池中的模型。
通常,在图像分类领域中,从已训练的基础模型池中选择预训练模型可以加快收敛速度。在本实施例中,训练集包括多个图像,基础模型为已训练基础模型池中的模型。
需要说明的是,基础模型可以为针对特定的数据集进行训练得到的,特定的数据集中图像的类别可以与训练集中图像的类别相同或者不相同,例如:互为包含子集关系或者部分重叠关系,其中类别用于表示图像的分类信息,图像的分类信息可以为该图像包含的拍摄对象。示例性地,训练集中图像的类别包括人、动物、植物、汽车,特定的数据集中图像的类别包括人、动物、植物、汽车,或者人、动物;或者人、动物、植物、汽车、自行车;或者水果、自行车。当然,上述只是示意性地说明特定的数据集中图像的类别和训练集中图像的类别的关系可以是任意的,本实施例对此不做限制。
在本实施例中,可以将训练集中的各个图像分别输入至各个基础模型中,每个基础模型的输出为各个图像的特征,其中已训练基础模型池中基础模型的数量大于或等于2。
图2为本申请实施例提供的基础模型的示意图,如图2所示,已训练基础模型池中包括N个基础模型,记作基础模型1、基础模型2……基础模型N,将图像A输入至每个基础模型,基础模型的输出为图像A的特征,分别记作特征1、特征2……特征N,其中图像A为训练集中的任一图像。按照图2的方式,对训练集中的各个图像均进行上述操作,获取每个图像的特征。
S102、针对该基础模型,根据图像的特征和类别,获取该基础模型对训练集的聚类能力。
其中,类别用于表示图像的分类信息,图像的分类信息为该图像包含的拍摄对象,例如:人、动物、植物等。训练集中每个图像对应一个特征-类别对,也即,图2中的图像A对应一个特征和类别,该特征可以对应一个特征值。
在本实施例中,针对每个基础模型,由于训练集中每个图像对应一个特征和类别对,那么可以根据每个类别对应的特征值,获取基础模型对该类别的聚合程度。然后,根据各个类别的聚合程度,获取该基础模型对训练集的聚类能力,其中,聚类指的是将物理或抽象对象的集合分成由类似的对象组成的多个类的过程。
示例性地,基础模型对每个类别的聚合程度可以用基础模型对该类别的聚类距离来表示,这样,基础模型对训练集的聚类能力可以用基础模型对训练集的聚类距离来表示,其中,基础模型对训练集的聚类距离可以采用基础模型对各个类别的聚类距离的平均值或者均方差或者最大值或者最小值来表示,具体根据实际情况确定,本实施例对此不做限制。其中,聚类距离越小,聚类能力越高,聚类距离越大,聚类能力越弱。
需要说明的是,基础模型对每个类别的聚类距离可以用该类别对应的每个特征值与该类别对应的特征值的平均值之间差值的均方差来表示,或者还可以用与该类别对应的特征值的平均值之间差值的平均值来表示,本实施例对此不做限制。
S103、根据每个基础模型对训练集的聚类能力,从基础模型池中获取预训练模型。
在本实施例中,根据每个基础模型对训练集的聚类能力,按照聚类能力的高低,从基础模型池中获取聚类能力满足预设条件的至少一个预训练模型,其中,预设条件可以为聚类能力最高、聚类能力从高到低前三名,当基础模型对训练集的聚类能力用基础模型对训练集的聚类距离来表示时,预设条件还可以为聚类距离大于预设值。当然,本领域技术人员可以根据实际情况选取预训练模型,本实施例对此不做限制。
示例性地,步骤S103可以通过如下方式实现:
S1031、从基础模型池中获取对训练集的聚类能力最高的基础模型。
S1032、将基础模型作为预训练模型。
由于基础模型对训练集的聚类距离越小,表明该基础模型对训练集的聚类能力越高,基础模型对训练集的聚类距离越大,表明该基础模型对训练集的聚类能力越弱,那么从基础模型池中获取对训练集的聚类距离最小的基础模型,将该基础模型作为预训练模型。
本实施例提供的模型获取方法,包括:采用每个基础模型对训练集中的各个图像进行处理,获取每个图像的特征,基础模型为已训练基础模型池中的模型,针对该基础模型,根据图像的特征和类别,获取该基础模型对所述训练集的聚类能力,类别用于表示图像的分类信息,根据每个基础模型对训练集的聚类能力,从基础模型池中获取预训练模型。和相关技术相比,从基础模型池中选取预训练模型时无需额外的训练过程,可快速、高效地获取预训练模型,同时未引入超参数,选取结果稳定,提高了用户体验。
在上述实施例的基础上,图3为本申请实施例提供的模型获取方法实施例二的流程图。如图3所示,本实施例提供的模型获取方法还包括如下步骤:
S201、根据训练集对预训练模型进行训练,获取图像分类模型。
按照上述步骤S101-S103从基础模型池中获取预训练模型之后,然后根据训练集对预训练模型进行训练得到图像分类模型,其中,图像分类模型的输入为图像,输出可以为该图像的特征,根据图像的特征可以确定该图像的类别,其中图像的特征和图像的类别具有对应关系,在通过图像分类模型得到图像的特征后,查询该对应关系能够得到该图像的类别,或者,图像分类模型的输入为图像,输出可以为该图像的类别。
图像的类别用于表示图像的分类信息,图像的分类信息可以为该图像包含的拍摄对象图像的类别,例如人、动物、植物、汽车。具体的训练过程为卷积神经网络的训练过程,在此不再赘述。
在本实施例中,通过步骤S101-S103选取基础模型作为预训练模型,并根据训练集对该预训练模型进行训练得到图像分类模型,和相关技术中初始化形成一个预训练模型,对该初始化形成的预训练模型进行训练相比,可以加快训练收敛速度、提高收敛性能,并改善训练的稳定性。
S202、根据图像分类模型对测试集中的各个图像进行推理,得到测试集中各个图像的类别。
测试集用于检测图像分类模型的性能,测试集包括多个图像,测试集和训练集同分布,即测试集中图像的类别和训练集中图像的类别是相同的,例如:训练集中图像的类别包括人、动物、植物、汽车,则测试集中图像的类别也包括人、动物、植物、汽车;训练集中图像的类别包括人、动物、植物、汽车、自行车,测试集中图像的类别也包括人、动物、植物、汽车、自行车。
在本实施例中,将测试集中的图像分别输入至图像分类模型中,对测试集中的各个图像分别进行推理,得到测试集中各个图像的特征,查询该对应关系,能够确定各个图像的类别,或者,将测试集中的图像分别输入至图像分类模型,输出为该图像的类别。
需要说明的是,通常测试集中图像的数量小于训练集中图像的数量,因此,在采用测试集检测图像分类模型的性能时,可以提高特征提取的效率。
S203、根据测试集中各个图像的类别,获取测试集对应的分类正确率。
S204、若分类正确率大于预设值,将图像分类模型作为最终的图像分类模型。
根据预先标定的测试集中各个图像的类别,和经过图像分类模型的各个图像的类别,确定测试集对应的分类正确率,即,将预先标定的图像的类别和对应的经过图像分类模型的图像的类别一一做比较,获取测试集对应的分类正确率。若该分类正确率大于预设值,则将该图像分类模型作为最终的图像分类模型,若小于预设值,则可以重新获取新的已训练的基础模型池,并按照步骤S101-S103的方式从该新的基础模型池中获取预训练模型,接着执行本实施例,直至分类正确率大于预设值。
在训练并检验得到最终的图像分类模型之后,在实际应用过程中,可以将任一图像输入值该模型中,获取该图像的特征,进而根据该对应关系获取该图像的类别,从而通过这种方式实现对图像的分类,或者,将图像输入至图像分类模型中,直接输出该图像的类别。
本实施例提供的模型训练方法,包括:根据训练集对预训练模型进行训练,获取图像分类模型,根据图像分类模型对测试集中的各个图像进行推理,得到每个图像的类别,根据每个图像的类别,获取测试集对应的分类正确率,若分类正确率大于预设值,将图像分类模型作为最终的图像分类模型。根据测试集对图像分类模型进行验证,检验了图像分类模型的性能。
在上述实施例的基础上,基础模型池包括多个类别分别对应的子基础模型池,图4为本申请实施例提供的模型获取方法实施例三的流程图。如图4所示,在步骤S204之后,该模型获取方法还包括如下步骤:
S301、将训练集的类别作为最终的图像分类模型的类别,训练集的类别用于表示训练集的分类信息。
基础模型池包括多个类别分别对应的子基础模型池,每个子基础模型池中的基础模型具有相同的类别,例如:基础模型池包括子基础模型池1、子基础模型池2、子基础模型池3,子基础模型池1对应的类别为人、子基础模型池2对应的类别为植物、子基础模型池3对应的类别为汽车。
训练集的类别用于表示训练集的分类信息,例如:训练集中各个图像的类别为欧洲人、亚洲人、非洲人等,那么该训练集的类别为人;训练集中各个图像的类别为消防车、警车、环卫车等,那么该训练集的类别为汽车;训练集中各个图像的类别为玉米、小麦、水稻等,那么该训练集的类别为植物。
在本实施例中,训练集中各个图像总体归属于同一类别,也即,采用同一大类别的图像来训练得到最终的图像分类模型,那么该最终的图像分类模型的类别为该训练集的类别,例如:当训练集的类别为人时,最终得到的图像分类模型的类别为人,实现了针对同一类别图像的训练,得到适用于该类别的图像分类模型。
S302、根据最终的图像分类模型的类别,将最终的图像分类模型存储至对应的子基础模型池。
由于基础模型池包括多个子基础模型池,每个子基础模型池对应一个类别,那么在得到最终的图像分类模型的类别后,根据最终的图像分类模型的类别,将该最终的图像分类模型存储至对应的子基础模型池中,即,将最终的图像分类模型作为新的基础模型。例如:最终的图像分类模型的类别为人,那么将该最终的图像分类模型存储至类别为人的子基础模型池中,参见S301的示例,存储至子基础模型1池中。
在一种可能的实施中,在步骤S302之后,还可以执行如下步骤S101-S103。
S101、采用每个基础模型对训练集中的各个图像进行处理,获取每个图像的特征,基础模型为已训练的基础模型池中的模型。
基础模型池包括多个类别分别对应的子基础模型池,获取到训练集的类别后,根据该训练集的类别从基础模型池中获取类别与该训练集的类别相同的子基础模型池,例如:训练集的类别为植物,那么从基础模型池中获取类别为植物的子基础模型池,然后采用该子基础模型池中的每个基础模型对训练集中的各个图像进行处理,获取每个图像的特征。
S102、针对该基础模型,根据图像的特征和类别,获取该基础模型对训练集的聚类能力,类别用于表示图像的分类信息。
S103、根据每个基础模型对训练集的聚类能力,从基础模型池中获取预训练模型。
步骤S101-S103的实现过程在实施例一进行了具体描述,在此不再赘述。
本实施例提供的模型获取方法,包括:将训练集的类别作为最终的图像分类模型的类别,训练集的类别用于表示训练集的分类信息,根据最终的图像分类模型的类别,将最终的图像分类模型存储至对应的子基础模型池。实现了将训练得到的图像分类模型作为新的基础模型加入基础模型池中,并且从基础模型池中获取预训练模型时,根据训练集的类别获取对应的子基础模型池,进而从子基础模型池中获取预训练模型,使得选取的预训练模型更适用于特定的类别,更加具有针对性。另外,从基础模型池中选取预训练模型时无需额外的训练过程,可快速、高效地获取预训练模型,同时未引入超参数,选取结果稳定,提高了用户体验。
在上述实施例的基础上,图5为本申请实施例提供的模型获取方法实施例四的流程图。如图5所示,步骤S102具体包括:
S401、针对该基础模型,根据训练集中各个图像的特征和类别,获取训练集的特征子集,特征子集用于表示图像的特征和类别对的集合。
在本实施例中,训练集包括多个图像,每个图像对应一个特征和类别,因此针对该基础模型,可以根据训练集中各个图像的特征和类别,获取该训练集的特征子集,特征子集用于表示图像的特征和类别对的集合,也即,特征子集包括多个图像的特征和类别对。其中,每个图像的特征可以对应一个特征值。
S402、针对特征子集中的每个类别,根据该类别对应的图像的特征,获取基础模型对训练集的聚类能力。
特征子集中类别的数量可以有多个,针对特征子集中的每个类别,可以获取基础模型对该类别的聚类能力,然后根据基础模型对各个类别的聚类能力,获取基础模型对训练集的聚类能力。
在特征空间上,各个基础模型会将同一类别的图像映射到临近的流形上,而不同的类别的图像则距离较远。示例性地,图6为本申请实施例提供的基础模型对训练集的聚类能力的示意图,如图6所示,该训练集的特征子集包括多个类别,每个类别对应多个图像,将整个训练集映射到特征空间中,每个点表示一个图像,同一类别的图像聚成一簇。
值得说明的是,参见图6,同一类别的图像聚合程度越高,表明该基础模型对该类别的聚类能力越强,同一类别的图像的越离散,表明该基础模型对该类别的聚类能力越弱。相应地,各个类别的图像的聚合程度越高,表明该基础模型对该训练集的聚类能力越强,各个类别的图像越离散,表明该基础模型对该训练集的聚类能力越弱。
示例性地,步骤S402可以通过如下方式实现:
S4021、针对该类别,计算得到该类别对应的图像的特征值的平均值,其中,每个图像的特征对应一个特征值。
其中,每个类别对应的图像的特征值可以为一个1×256维的向量。举例进行说明:
基础模型的数量为N,基础模型Mk对应的特征子集为Fk,k大于或者等于1且小于或者等于N。针对特征子集Fk中的第l个类别,计算获取第l个类别对应的图像的特征值的平均值,l大于或者等于1且小于或者等于L,其中,L为特征子集Fk中类别的数量。
需要说明的是,若每个图像的特征为一个1×256维的向量,则第l个类别对应的图像的特征值的平均值也为一个1×256维的向量,记作其中,第l个类别可以为人或者动物或者植物等,本实施例对此不做限制。
S4022、根据每个图像的特征值与平均值之间差值的平均值,获取该基础模型对该类别的聚类距离。
针对该类别,计算获取每个图像的特征值与步骤S3021中得到的平均值之间差值的平均值,将得到的平均值作为该基础模型对该类别的聚类距离。其实质上是计算第l个类别对应的图像的特征值与的偏差,然后计算各个偏差的平均值,获取基础模型对该类别的聚类距离,记作/>
S4023、计算得到该基础模型对每个类别的聚类距离之间的平均值。
S4024、根据该基础模型对每个类别的聚类距离之间的平均值,获取该基础模型对训练集的聚类能力。
通过上述S4021-S4023计算得到该基础模型对每个类别的聚类距离之后,接着计算各个聚类距离之间的平均值,并将各个聚类距离之间的平均值该基础模型对训练集的聚类距离,并根据该基础模型对训练集的聚类距离确定该基础模型对训练集的聚类能力。通常,聚类距离越小,聚类能力越高,聚类距离越大,聚类能力越弱。
举例来说,特征子集Fk包括三种类别,即L=3,分别为人、动物、植物,该基础模型Mk对训练集的聚类距离Dk为:
其中,表示基础模型Mk对人的聚类距离,/>表示基础模型Mk对车的聚类距离,表示基础模型Mk对植物的聚类距离。
其中,步骤S4024之后还可以执行如下步骤:
S1031、从基础模型池中获取对训练集的聚类能力最高的基础模型。
S1032、将该基础模型作为预训练模型。
通过步骤S4021-S4024计算得到各个基础模型对训练集的聚类距离之后,还可以将得到的聚类距离Dk按照从小到大进行排序,建立排序索引,排序索引为有效性索引,即各个基础模型按照对训练集的聚类能力由高到底的排序,然后将第一位基础模型作为预训练模型,从而实现了从基础模型池中获取对训练集的聚类能力最高的基础模型,并将该基础模型作为预训练模型。
本实施例提供的模型获取方法,包括:针对基础模型,根据训练集中各个图像的特征和类别,获取所述训练集的特征子集,特征子集用于表示图像的特征和类别对的集合,针对特征子集中的每个类别,根据类别对应的图像的特征,获取基础模型对训练集的聚类能力。根据已有的基础模型对训练集的聚类能力获取预训练模型,无需访问训练基础模型的源数据,对源数据的隐私性保护程度高。
下述为本申请装置实施例,可以用于执行本申请方法实施例。对于本申请装置实施例中未披露的细节,请参照本申请方法实施例。
图7为本申请实施例提供的模型获取装置实施例一的结构示意图。在本实施例中,该模型获取装置可以集成在电子设备中,也可以为一电子设备,可以集成在服务器中,也可以为一服务器。可选的,如图7所示,该模型获取装置70可以包括:获取模块71、处理模块72。
获取模块71用于:
采用每个基础模型对训练集中的各个图像进行处理,获取每个图像的特征,所述基础模型为已训练的基础模型池中的模型;
针对所述基础模型,根据所述图像的特征和类别,获取所述基础模型对所述训练集的聚类能力,所述类别用于表示所述图像的分类信息;
根据每个基础模型对所述训练集的聚类能力,从所述基础模型池中获取预训练模型。
在一种可能的实施中,所述获取模块71还用于:
根据所述训练集对所述预训练模型进行训练,获取图像分类模型;
根据所述图像分类模型对测试集中的各个图像进行推理,得到所述测试集中各个图像的类别;
根据所述测试集中各个图像的类别,获取所述测试集对应的分类正确率;
若所述分类正确率大于预设值,将所述图像分类模型作为最终的图像分类模型。
在一种可能的实施中,还包括:
处理模块72,用于将所述训练集的类别作为所述最终的图像分类模型的类别,所述训练集的类别用于表示所述训练集的分类信息;
根据所述最终的图像分类模型的类别,将所述最终的图像分类模型存储至对应的子基础模型池。
在一种可能的实施中,所述获取模块71具体用于:
针对所述基础模型,根据所述训练集中各个图像的特征和类别,获取所述训练集的特征子集,所述特征子集用于表示图像的特征和类别对的集合;
针对所述特征子集中的每个类别,根据所述类别对应的图像的特征,获取所述基础模型对所述训练集的聚类能力。
在一种可能的实施中,所述获取模块71具体用于:
针对所述类别,计算得到所述类别对应的图像的特征值的平均值,其中,每个图像的特征对应一个特征值;
根据每个图像的特征值与所述平均值之间差值的平均值,获取所述基础模型对所述类别的聚类距离;
计算得到所述基础模型对每个类别的聚类距离之间的平均值;
根据所述基础模型对每个类别的聚类距离之间的平均值,获取所述基础模型对所述训练集的聚类能力。
在一种可能的实施中,所述获取模块71具体用于:
从所述基础模型池中获取对所述训练集的聚类能力最高的基础模型;
将所述基础模型作为所述预训练模型。
本申请实施例提供的装置,可用于执行上述方法实施例的技术方案,其实现原理和技术效果类似,在此不再赘述。
图8为本申请实施例提供的模型获取装置实施例二的结构示意图。如图8所示,该模型获取装置80可以包括:处理器81、存储器82和总线83。
存储器82,用于存储计算机执行指令;
处理器81,用于执行存储器存储的计算机执行指令,以实现上述实施例中接收设备所执行的各个步骤。具体可以参见前述方法实施例中的相关描述。
可选地,存储器82既可以是独立的,也可以跟处理器81集成在一起。
当存储器82独立设置时,该电子设备还包括总线83,用于连接所述存储器82和处理器81。
本发明实施例还提供一种计算机可读存储介质,所述计算机可读存储介质中存储有计算机执行指令,当处理器执行所述计算机执行指令时,实现如上所述的方法。
本领域普通技术人员可以理解:实现上述各方法实施例的全部或部分步骤可以通过程序指令相关的硬件来完成。前述的程序可以存储于一计算机可读取存储介质中。该程序在执行时,执行包括上述各方法实施例的步骤;而前述的存储介质包括:ROM、RAM、磁碟或者光盘等各种可以存储程序代码的介质。
最后应说明的是:以上各实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述各实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围。

Claims (10)

1.一种模型获取方法,其特征在于,包括:
采用每个基础模型对训练集中的各个图像进行处理,获取每个图像的特征,所述基础模型为已训练的基础模型池中的模型;
针对所述基础模型,根据所述图像的特征和类别,获取所述基础模型对所述训练集的聚类能力,所述类别用于表示所述图像的分类信息;
根据每个基础模型对所述训练集的聚类能力,从所述基础模型池中获取预训练模型;
所述针对所述基础模型,根据所述图像的特征和类别,获取所述基础模型对所述训练集的聚类能力,包括:
针对所述基础模型,根据所述训练集中各个图像的特征和类别,获取所述训练集的特征子集,所述特征子集用于表示图像的特征和类别对的集合;
针对所述特征子集中的每个类别,根据所述类别对应的图像的特征,获取所述基础模型对所述训练集的聚类能力。
2.根据权利要求1所述的方法,其特征在于,所述方法还包括:
根据所述训练集对所述预训练模型进行训练,获取图像分类模型;
根据所述图像分类模型对测试集中的各个图像进行推理,得到所述测试集中各个图像的类别;
根据所述测试集中各个图像的类别,获取所述测试集对应的分类正确率;
若所述分类正确率大于预设值,将所述图像分类模型作为最终的图像分类模型。
3.根据权利要求2所述的方法,其特征在于,所述基础模型池包括多个类别分别对应的子基础模型池,所述方法还包括:
将所述训练集的类别作为所述最终的图像分类模型的类别,所述训练集的类别用于表示所述训练集的分类信息;
根据所述最终的图像分类模型的类别,将所述最终的图像分类模型存储至对应的子基础模型池。
4.根据权利要求1所述的方法,其特征在于,所述针对所述特征子集中的每个类别,根据所述类别对应的图像的特征,获取所述基础模型对所述训练集的聚类能力,包括:
针对所述类别,计算得到所述类别对应的图像的特征值的平均值,其中,每个图像的特征对应一个特征值;
根据每个图像的特征值与所述平均值之间差值的平均值,获取所述基础模型对所述类别的聚类距离;
计算得到所述基础模型对每个类别的聚类距离之间的平均值;
根据所述基础模型对每个类别的聚类距离之间的平均值,获取所述基础模型对所述训练集的聚类能力。
5.根据权利要求4所述的方法,其特征在于,所述根据每个基础模型对所述训练集的聚类能力,从所述基础模型池中获取预训练模型,包括:
从所述基础模型池中获取对所述训练集的聚类能力最高的基础模型;
将所述基础模型作为所述预训练模型。
6.一种模型获取装置,其特征在于,包括:
获取模块,用于采用每个基础模型对训练集中的各个图像进行处理,获取每个图像的特征,所述基础模型为已训练的基础模型池中的模型;
针对所述基础模型,根据所述图像的特征和类别,获取所述基础模型对所述训练集的聚类能力,所述类别用于表示所述图像的分类信息;
根据每个基础模型对所述训练集的聚类能力,从所述基础模型池中获取预训练模型;
所述获取模块具体用于:
针对所述基础模型,根据所述训练集中各个图像的特征和类别,获取所述训练集的特征子集,所述特征子集用于表示图像的特征和类别对的集合;
针对所述特征子集中的每个类别,根据所述类别对应的图像的特征,获取所述基础模型对所述训练集的聚类能力。
7.根据权利要求6所述的装置,其特征在于,所述获取模块还用于:
根据所述训练集对所述预训练模型进行训练,获取图像分类模型;
根据所述图像分类模型对测试集中的各个图像进行推理,得到所述测试集中各个图像的类别;
根据所述测试集中各个图像的类别,获取所述测试集对应的分类正确率;
若所述分类正确率大于预设值,将所述图像分类模型作为最终的图像分类模型。
8.根据权利要求7所述的装置,其特征在于,还包括:
处理模块,用于将所述训练集的类别作为所述最终的图像分类模型的类别,所述训练集的类别用于表示所述训练集的分类信息;
根据所述最终的图像分类模型的类别,将所述最终的图像分类模型存储至对应的子基础模型池。
9.根据权利要求6所述的装置,其特征在于,所述获取模块具体用于:
针对所述类别,计算得到所述类别对应的图像的特征值的平均值,其中,每个图像的特征对应一个特征值;
根据每个图像的特征值与所述平均值之间差值的平均值,获取所述基础模型对所述类别的聚类距离;
计算得到所述基础模型对每个类别的聚类距离之间的平均值;
根据所述基础模型对每个类别的聚类距离之间的平均值,获取所述基础模型对所述训练集的聚类能力。
10.根据权利要求9所述的装置,其特征在于,所述获取模块具体用于:
从所述基础模型池中获取对所述训练集的聚类能力最高的基础模型;
将所述基础模型作为所述预训练模型。
CN201910996286.6A 2019-10-18 2019-10-18 模型获取方法、装置及存储介质 Active CN112686278B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910996286.6A CN112686278B (zh) 2019-10-18 2019-10-18 模型获取方法、装置及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910996286.6A CN112686278B (zh) 2019-10-18 2019-10-18 模型获取方法、装置及存储介质

Publications (2)

Publication Number Publication Date
CN112686278A CN112686278A (zh) 2021-04-20
CN112686278B true CN112686278B (zh) 2023-10-20

Family

ID=75445339

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910996286.6A Active CN112686278B (zh) 2019-10-18 2019-10-18 模型获取方法、装置及存储介质

Country Status (1)

Country Link
CN (1) CN112686278B (zh)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109102005A (zh) * 2018-07-23 2018-12-28 杭州电子科技大学 基于浅层模型知识迁移的小样本深度学习方法
CN110232721A (zh) * 2019-05-16 2019-09-13 福建自贸试验区厦门片区Manteia数据科技有限公司 一种危机器官自动勾画模型的训练方法及装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3471060B1 (en) * 2017-10-16 2020-07-08 Nokia Technologies Oy Apparatus and methods for determining and providing anonymized content within images

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109102005A (zh) * 2018-07-23 2018-12-28 杭州电子科技大学 基于浅层模型知识迁移的小样本深度学习方法
CN110232721A (zh) * 2019-05-16 2019-09-13 福建自贸试验区厦门片区Manteia数据科技有限公司 一种危机器官自动勾画模型的训练方法及装置

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
MODEL SHARED SEMI-SUPERVISED LEARNING FOR MULTI-LABEL IMAGE;Liu-Xi et al.;《2011 18th IEEE International Conference on Image Processing》;全文 *
基于概率校准的集成学习;姜正申;刘宏志;;计算机应用(第02期);全文 *
基于渐进式神经网络的机器人控制策略迁移;隋洪建;尚伟伟;李想;丛爽;;中国科学技术大学学报(第10期);全文 *

Also Published As

Publication number Publication date
CN112686278A (zh) 2021-04-20

Similar Documents

Publication Publication Date Title
EP3711000B1 (en) Regularized neural network architecture search
US11651259B2 (en) Neural architecture search for convolutional neural networks
US11544536B2 (en) Hybrid neural architecture search
US10275719B2 (en) Hyper-parameter selection for deep convolutional networks
US20200004777A1 (en) Image Retrieval with Deep Local Feature Descriptors and Attention-Based Keypoint Descriptors
US20190370647A1 (en) Artificial intelligence analysis and explanation utilizing hardware measures of attention
CN111797893A (zh) 一种神经网络的训练方法、图像分类系统及相关设备
CN111783713B (zh) 基于关系原型网络的弱监督时序行为定位方法及装置
CN112529146B (zh) 神经网络模型训练的方法和装置
CN110705573A (zh) 一种目标检测模型的自动建模方法及装置
US20220108180A1 (en) Method and apparatus for compressing artificial neural network
CN112749737A (zh) 图像分类方法及装置、电子设备、存储介质
CN113065525A (zh) 年龄识别模型训练方法、人脸年龄识别方法及相关装置
CN115238909A (zh) 一种基于联邦学习的数据价值评估方法及其相关设备
CN110490058B (zh) 行人检测模型的训练方法、装置、系统和计算机可读介质
US20220076121A1 (en) Method and apparatus with neural architecture search based on hardware performance
US11587323B2 (en) Target model broker
CN112686278B (zh) 模型获取方法、装置及存储介质
CN117010480A (zh) 模型训练方法、装置、设备、存储介质及程序产品
CN111898465B (zh) 一种人脸识别模型的获取方法和装置
CN114970732A (zh) 分类模型的后验校准方法、装置、计算机设备及介质
WO2021055364A1 (en) Efficient inferencing with fast pointwise convolution
CN116050428B (zh) 意图识别方法、装置、设备及存储介质
CN115146258B (zh) 请求处理方法、装置、存储介质及电子设备
CN113011580B (zh) 一种嵌入表征的处理方法以及相关设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant