CN114118236A - 训练智能模型的方法及装置 - Google Patents

训练智能模型的方法及装置 Download PDF

Info

Publication number
CN114118236A
CN114118236A CN202111329061.9A CN202111329061A CN114118236A CN 114118236 A CN114118236 A CN 114118236A CN 202111329061 A CN202111329061 A CN 202111329061A CN 114118236 A CN114118236 A CN 114118236A
Authority
CN
China
Prior art keywords
training
sample
neural network
model
network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111329061.9A
Other languages
English (en)
Inventor
孟让
浦世亮
陈伟杰
杨世才
谢迪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Hikvision Digital Technology Co Ltd
Original Assignee
Hangzhou Hikvision Digital Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Hikvision Digital Technology Co Ltd filed Critical Hangzhou Hikvision Digital Technology Co Ltd
Priority to CN202111329061.9A priority Critical patent/CN114118236A/zh
Publication of CN114118236A publication Critical patent/CN114118236A/zh
Priority to PCT/CN2022/131038 priority patent/WO2023083240A1/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches

Abstract

本申请是关于一种训练智能模型的方法及装置,属于计算机领域。所述方法包括:从第一神经网络中获取第一网络集合和第二网络集合;基于第一样本集合和第二样本集合,训练所述第一网络集合中的每个神经网络,得到第一模型集合;基于所述第一样本集合、所述第二样本集合和所述第一模型集合,训练所述第二网络集合中的每个神经网络,得到第二模型集合,所述第二模型集合包括训练所述m个第二神经网络得到的m个第二智能模型。

Description

训练智能模型的方法及装置
技术领域
本申请涉及计算机领域,特别涉及一种训练智能模型的方法及装置。
背景技术
训练样本包括有标签的训练样本和无标签的训练样本两类,有标签的训练样本包括样本数据和标签,无标签的训练样本包括样本数据。例如,假设训练样本是用于训练车牌的样本,有标签的训练样本包括车牌图像和标签,该标签用于车牌图像中的车牌位置,无标签的训练样本包括车牌图像。
目前可以使用多个训练样本来训练神经网络,该多个训练样本包括有标签的训练样本,通过该有标签的训练样本训练神经网络,能够得到具有优越性能的智能模型。但是当该多个训练样本即包括有标签的训练样本,又包括无标签训练样本,如何训练出具有相同优越性的智能模型,是目前急需解决的问题。
发明内容
为了解决相关技术中的问题,本申请实施例提供了一种训练智能模型的方法及装置。所述技术方案如下:
一方面,本申请提供了一种训练智能模型的方法,所述方法包括:
从第一神经网络中获取第一网络集合和第二网络集合,所述第一网络集合包括第一神经网络和m-1个第二神经网络,m为大于1的整数,所述第二网络集合包括m个第二神经网络,所述m-1个第二神经网络和所述m个第二神经网络是所述第一神经网络中的不同子网络,所述第一网络集合中的每个神经网络的网络规模大于所述第二网络集合中的每个神经网络的网络规模;
基于第一样本集合和第二样本集合,训练所述第一网络集合中的每个神经网络,得到第一模型集合,所述第一样本集合包括多个第一训练样本,第一训练样本包括第一训练数据和标签,所述标签用于指示所述第一训练数据中的目标,所述第二样本集合包括多个第二训练样本,第二训练样本包括第二训练数据,所述第一模型集合包括训练所述第一神经网络得到的第一智能模型和训练所述m-1个第二神经网络得到的m-1个第二智能模型;
基于所述第一样本集合、所述第二样本集合和所述第一模型集合,训练所述第二网络集合中的每个神经网络,得到第二模型集合,所述第二模型集合包括训练所述m个第二神经网络得到的m个第二智能模型。
可选的,所述基于第一样本集合和第二样本集合,训练所述第一网络集合中的每个神经网络,得到第一模型集合,包括:
基于所述第一样本集合,训练待训练神经网络包括的卷积层的参数和全连接层的参数,所述待训练神经网络是所述第一网络集合中的任一个神经网络,训练后的所述卷积层的参数的参数值为第一参数值,以及训练后的所述全连接层的参数的参数值为第二参数值;
将所述卷积层的参数的参数值固定为所述第一参数值,基于所述第一样本集合和所述第二样本集合,训练所述待训练神经网络包括的全连接层的参数,训练后的所述全连接层的参数的参数值由所述第二参数值变为第三参数值;
将所述全连接层的参数的参数值固定为所述第三参数值,基于所述第一样本集合和所述第二样本集合,训练所述待训练神经网络的卷积层的参数,得到所述待训练神经网络对应的智能模型。
可选的,所述基于所述第一样本集合和所述第二样本集合,训练所述待训练神经网络包括的全连接层的参数,包括:
将所述第一样本集合中的每个第一训练样本输入至所述待训练神经网络,获取所述待训练神经网络输出的所述每个第一训练样本对应的第一输出结果,以及将所述第二样本集合中的每个第二训练样本输入至所述待训练神经网络,获取所述每个第二训练样本对应的第一输出结果;
基于所述每个第一训练样本对应的第一输出结果和所述每个第一训练样本包括的标签,通过第一损失函数获取第一损失函数值,以及基于所述每个第二训练样本对应的第一输出结果,通过距离损失函数获取第二损失函数值,所述第一损失函数是除所述距离损失函数之外的其他损失函数;
在全连接层损失函数值不是最小值时,基于所述全连接层损失函数值调整所述全连接层的参数的参数值,所述全连接层损失函数值包括所述第一损失函数值和所述第二损失函数值。
可选的,所述基于所述第一样本集合和所述第二样本集合,训练所述待训练神经网络的卷积层的参数,包括:
将所述第一样本集合中的每个第一训练样本输入至所述待训练神经网络,获取所述待训练神经网络输出的所述每个第一训练样本对应的第二输出结果,以及将所述第二样本集合中的每个第二训练样本输入至所述待训练神经网络,获取所述每个第二训练样本对应的第二输出结果;
基于所述每个第一训练样本对应的第二输出结果和所述第一训练样本包括的标签,通过所述第一损失函数获取第三损失函数值,以及基于所述每个第二训练样本对应的第二输出结果,通过所述距离损失函数获取第四损失函数值;
在卷积层损失函数值不是最小值时,基于所述卷积层损失函数值调整所述卷积层的参数的参数值,所述卷积层损失函数值包括所述第三损失函数值和所述第四损失函数值。
可选的,所述基于所述第一样本集合、所述第二样本集合和所述第一模型集合,训练所述第二网络集合中的每个神经网络,得到第二模型集合,包括:
将所述第二样本集合中的每个第二训练样本输入至所述第一模型集合中的每个智能模型,获取所述每个智能模型输出的所述第二训练样本对应的多个第三输出结果;
基于所述每个第二训练样本对应的多个第三输出结果,分别获取所述每个第二训练样本对应的标签;
基于所述第一样本集合、所述每个第二训练样本和所述每个第二训练样本对应的标签,训练所述第二网络集合中的每个神经网络,得到第二模型集合。
可选的,所述方法还包括:
基于n个设备的资源信息,确定n个第三模型集合,所述n个设备与所述n个第三模型集合一一对应,所述n个设备包括第一设备,所述第一设备对应的第三模型集合包括至少一个第二智能模型,所述第一设备的资源满足所述至少一个第二智能模型中的每个第二智能模型所需要的资源,n为大于1的整数;
基于所述第一智能模型,从所述第一设备对应的第三智能模型中为所述第一设备选择一个第二智能模型。
可选的,所述基于所述第一智能模型,从所述第一设备对应的第三智能模型中为所述第一设备选择一个第二智能模型,包括:
基于所述第二样本集合,获取所述第一智能模型与所述第一设备对应的第三模型集合中的每个第二智能模型的差异信息;
基于所述第一智能模型与所述每个第二智能模型的差异信息,从所述每个第二智能模型中选择一个第二智能模型。
可选的,所述基于所述第二样本集合,获取所述第一智能模型与所述第一设备对应的第三模型集合中的每个第二智能模型的差异信息,包括:
将所述第二样本集合中的每个第二训练样本输入到所述第一智能模型,获取所述第一智能模型输出的所述每个第二训练样本对应的第四输出结果;
将所述第二样本集合中的每个第二训练样本输入到目标智能模型,获取所述目标智能模型输出的所述每个第二训练样本对应的第五输出结果,所述目标智能模型是所述第一设备对应的第三模型集合中的一个第二智能模型;
基于所述每个第二训练样本的第四输出结果和第五输出结果,获取所述第一智能模型与所述目标智能模型的差异信息。
可选的,所述方法应用于中心计算-边缘设备的系统架构,所述系统架构包括中心设备和多个边缘智能设备,每个边缘智能设备部署在不同区域中,所述中心设备的运算能力和存储能力分别大于所述每个边缘智能设备的运算能力和存储能力,所述方法由所述中心设备执行,所述第二样本集合中的第二训练样本是所述中心设备接收的所述每个边缘智能设备采集的数据。
另一方面,本申请提供了一种训练智能模型的装置,所述装置包括:
获取模块,用于从第一神经网络中获取第一网络集合和第二网络集合,所述第一网络集合包括第一神经网络和m-1个第二神经网络,m为大于1的整数,所述第二网络集合包括m个第二神经网络,所述m-1个第二神经网络和所述m个第二神经网络是所述第一神经网络中的不同子网络,所述第一网络集合中的每个神经网络的网络规模大于所述第二网络集合中的每个神经网络的网络规模;
第一训练模块,用于基于第一样本集合和第二样本集合,训练所述第一网络集合中的每个神经网络,得到第一模型集合,所述第一样本集合包括多个第一训练样本,第一训练样本包括第一训练数据和标签,所述标签用于指示所述第一训练数据中的目标,所述第二样本集合包括多个第二训练样本,第二训练样本包括第二训练数据,所述第一模型集合包括训练所述第一神经网络得到的第一智能模型和训练所述m-1个第二神经网络得到的m-1个第二智能模型;
第二训练模块,用于基于所述第一样本集合、所述第二样本集合和所述第一模型集合,训练所述第二网络集合中的每个神经网络,得到第二模型集合,所述第二模型集合包括训练所述m个第二神经网络得到的m个第二智能模型。
可选的,所述第一训练模块,用于:
基于所述第一样本集合,训练待训练神经网络包括的卷积层的参数和全连接层的参数,所述待训练神经网络是所述第一网络集合中的任一个神经网络,训练后的所述卷积层的参数的参数值为第一参数值,以及训练后的所述全连接层的参数的参数值为第二参数值;
将所述卷积层的参数的参数值固定为所述第一参数值,基于所述第一样本集合和所述第二样本集合,训练所述待训练神经网络包括的全连接层的参数,训练后的所述全连接层的参数的参数值由所述第二参数值变为第三参数值;
将所述全连接层的参数的参数值固定为所述第三参数值,基于所述第一样本集合和所述第二样本集合,训练所述待训练神经网络的卷积层的参数,得到所述待训练神经网络对应的智能模型。
可选的,所述第一训练模块,用于:
将所述第一样本集合中的每个第一训练样本输入至所述待训练神经网络,获取所述待训练神经网络输出的所述每个第一训练样本对应的第一输出结果,以及将所述第二样本集合中的每个第二训练样本输入至所述待训练神经网络,获取所述每个第二训练样本对应的第一输出结果;
基于所述每个第一训练样本对应的第一输出结果和所述每个第一训练样本包括的标签,通过第一损失函数获取第一损失函数值,以及基于所述每个第二训练样本对应的第一输出结果,通过距离损失函数获取第二损失函数值,所述第一损失函数是除所述距离损失函数之外的其他损失函数;
在全连接层损失函数值不是最小值时,基于所述全连接层损失函数值调整所述全连接层的参数的参数值,所述全连接层损失函数值包括所述第一损失函数值和所述第二损失函数值。
可选的,所述第一训练模块,用于:
将所述第一样本集合中的每个第一训练样本输入至所述待训练神经网络,获取所述待训练神经网络输出的所述每个第一训练样本对应的第二输出结果,以及将所述第二样本集合中的每个第二训练样本输入至所述待训练神经网络,获取所述每个第二训练样本对应的第二输出结果;
基于所述每个第一训练样本对应的第二输出结果和所述第一训练样本包括的标签,通过所述第一损失函数获取第三损失函数值,以及基于所述每个第二训练样本对应的第二输出结果,通过所述距离损失函数获取第四损失函数值;
在卷积层损失函数值不是最小值时,基于所述卷积层损失函数值调整所述卷积层的参数的参数值,所述卷积层损失函数值包括所述第三损失函数值和所述第四损失函数值。
可选的,所述第二训练模块,用于:
将所述第二样本集合中的每个第二训练样本输入至所述第一模型集合中的每个智能模型,获取所述每个智能模型输出的所述第二训练样本对应的多个第三输出结果;
基于所述每个第二训练样本对应的多个第三输出结果,分别获取所述每个第二训练样本对应的标签;
基于所述第一样本集合、所述每个第二训练样本和所述每个第二训练样本对应的标签,训练所述第二网络集合中的每个神经网络,得到第二模型集合。
可选的,所述装置还包括:
确定模块,用于基于n个设备的资源信息,确定n个第三模型集合,所述n个设备与所述n个第三模型集合一一对应,所述n个设备包括第一设备,所述第一设备对应的第三模型集合包括至少一个第二智能模型,所述第一设备的资源满足所述至少一个第二智能模型中的每个第二智能模型所需要的资源,n为大于1的整数;
选择模块,用于基于所述第一智能模型,从所述第一设备对应的第三智能模型中为所述第一设备选择一个第二智能模型。
可选的,所述选择模块,用于:
基于所述第二样本集合,获取所述第一智能模型与所述第一设备对应的第三模型集合中的每个第二智能模型的差异信息;
基于所述第一智能模型与所述每个第二智能模型的差异信息,从所述每个第二智能模型中选择一个第二智能模型。
可选的,所述选择模块,用于:
将所述第二样本集合中的每个第二训练样本输入到所述第一智能模型,获取所述第一智能模型输出的所述每个第二训练样本对应的第四输出结果;
将所述第二样本集合中的每个第二训练样本输入到目标智能模型,获取所述目标智能模型输出的所述每个第二训练样本对应的第五输出结果,所述目标智能模型是所述第一设备对应的第三模型集合中的一个第二智能模型;
基于所述每个第二训练样本的第四输出结果和第五输出结果,获取所述第一智能模型与所述目标智能模型的差异信息。
本申请实施例提供的技术方案可以包括以下有益效果:
通过将第一神经网络划分成第一网络集合和第二网络集合,第一网络集合包括第一神经网络和m-1个第二神经网络,第二网络集合包括m个第二神经网络。第一样本集合包括的第一训练样本为有标签训练样本,第二样本集合包括的第二训练样本为无标签训练样本。由于第一网络集合中的神经网络的规模均大于第二网络集合中的神经网络的规模,即使用第二样本集合中的第二训练样本为无标签训练样本,也可以使用第一样本集合和第二样本集合训练第一网络集合中的每个神经网络,得到第一网络集合中的每个神经网络对应的智能模型,得到第一模型集合。然后使用第一模型集合、第一样本集合和第二样本集合,对网络规模较小的第二网络集合中的每个神经网络进行训练,从而可以训练出第二网络集合中的每个神经网络对应的智能模型,如此当即包括有标签的训练样本,又包括无标签训练样本,也训练出具有优越性能的智能模型。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本申请。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本申请的实施例,并与说明书一起用于解释本申请的原理。
图1是本申请实施例提供的一种神经网络结构示意图;
图2是本申请实施例提供的另一种神经网络结构示意图;
图3是本申请实施例提供的一种网络架构的结构示意图;
图4是本申请实施例提供的一种训练智能模型的方法流程图;
图5是本申请实施例提供的另一种训练智能模型的方法流程图;
图6是本申请实施例提供的另一种训练智能模型的方法流程图;
图7是本申请实施例提供的另一种训练智能模型的方法流程图;
图8是本申请实施例提供的一种训练智能模型的装置结构示意图;
图9是本申请实施例提供的一种电子设备结构示意图。
通过上述附图,已示出本申请明确的实施例,后文中将有更详细的描述。这些附图和文字描述并不是为了通过任何方式限制本申请构思的范围,而是通过参考特定实施例为本领域技术人员说明本申请的概念。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本申请相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本申请的一些方面相一致的装置和方法的例子。
第一神经网络是规模较大的神经网络,第一神经网络可以称为超网络。第一神经网络包括大量的子网络。
第一神经网络包括大量的神经元,按照不同深度、不同宽度和不同卷积和尺寸,对第一神经网络包括的神经元进行划分,可以在第一神经网络中划分出大量的子网络。
参见图1,按不同深度,对第一神经网络中的神经元进行划分,将第一神经网络划分成多个不同的子网络。或者,参见图2,按不同宽度,对超网络中的神经元进行划分,将第一神经网络划分成多个不同的子网络。
第一神经网络中的每个子网络为神经网络,使用训练样本对神经网络进行训练,得到具有所需功能的智能模型。例如,为了能够识别车牌,可以使用训练样本训练神经网络,得到具有车牌识别功能的车牌识别模型。
对于任意一个神经网络,该神经网络包括卷积层和全连接层,卷积层用于从训练样本中提取特征。全连接层基于提取的特征,对训练样本中的目标进行处理。例如,全连接层基于提取的特征,对该训练样本中的目标进行分类等。
可选的,卷积层包括特征提取器,全连接层包括多个分类器。其中,特征提取器属于该神经网络的卷积层,用于从训练样本中提取特征。对于每个分类器,该分类器基于特征提取器提取的特征,对该训练样本中的目标进行分类。
训练样本分为有标签的训练样本和无标签的训练样本两类。其中,有标签的训练样本包括训练数据和标签,该标签用于指示训练数据中的目标。例如,对于用于训练车牌识别模型的训练样本,该训练样本中的训练数据是包括车牌的图片,该训练样本中的标签用于指示该图片中的车牌位置,该训练样本为有标签的训练样本。无标签的训练样本包括训练数据。例如,对于用于训练车牌识别模型的训练样本,该训练样本包括图片,该图片包括车牌图像,该训练样本为无标签的训练样本。
上述智能模型以车牌识别模型为例,但智能模型还可以为用于实现语义分割的智能模型、用于目标检测的智能模型、用于关键点检测的智能模型和/或用于视频理解的智能模型等。这些智能模型均可以使用训练样本对神经网络进行训练得到。
无论是何种智能模型,全连接层的分类器对训练样本中的训练数据进行分类处理。如上述车牌识别模型,分类器对训练样本中的每个图像进行分类,在该训练样本中分类出某个图像为车牌图像时,将该车牌图像的位置作为车牌位置。再例如,对于用于实现语义分割的智能模型,分类器对训练样本中的各数据内容的语义进行分类,分类出不同的语义的数据内容,以实现进行语义分割。
在本申请实施例提供了第一样本集合和第二样本集合,第一样本集合包括多个第一训练样本,第一训练样本包括第一训练数据和标签,该标签用于指示该第一训练数据包括的目标,第二样本集合包括多个第二训练样本,第二训练样本包括第二训练数据。其中,第一样本集合中的每个第一训练样本均为有标签的训练样本,第二样本集合中的每个第二训练样本均为无标签的训练样本。
基于第一样本集合和第二样本集合,训练第一神经网络以及第一神经网络包括的各个子网络,从而得到第一神经网络对应的智能模型,以及各个子网络对应的智能模型。由于第一神经网络的各个子网络的规模不同,所以训练出的第一神经网络对应的智能模型的规模和各个子网络对应的智能模型的规模不同,从而可以将不同规模智能模型,部署在不同硬件性能的设备上。
第一样本集合中的第一训练样本和第二样本集合中的第二训练样本可能是不同环境下的训练样本。例如以上述车牌识别模型为例,第一样本集合中的每个第一训练样本可能是白天对各种车牌进行拍摄得到的样本,第二样本集合中的每个第二训练样本可能是黑夜对各种车牌进行拍摄得到的样本。这样通过第一样本集合和第二样本集合训练得到的车牌识别模型即可以在白天进行车牌识别,也可以在黑夜进行车牌识别。
参见图3,本申请实施例提供了一种网络架构,该网络架构包括中心设备和多个边缘智能设备,每个边缘智能设备与中心设备通信。
可选的,每个边缘智能设备和中心设备均接入通信网络,每个边缘智能设备在该通信网络中分别建立与中心设备之间的网络连接,以实现每个边缘智能设备与中心设备通信。当然,还有其他实现每个边缘智能设备与中心设备通信的方式,在此不再详细说明。
每个边缘智能设备的计算能力和存储能力分别远小于中心设备的计算能力和存储能力,每个边缘智能设备的计算能力和存储能力可能不同。
中心设备包括第一样本集合,第一样本集合中的每个第一训练样本包括第一训练数据和标签,该标签用于指示该第一训练数据包括的目标。
可选的,每个第一训练样本包括的标签可能是采用人工方式分别对每个第一训练样本进行标注得到的。
每个边缘智能设备部署在不同的区域中,每个边缘智能设备对所在区域进行采集,并将采集的数据作为第二训练样本,向中心设备发送第二训练样本。由于边缘智能设备的个数往往较大,每个边缘智能设备采集到大量的第二训练样本,所以中心设备会得到大量的第二训练样本。如果继续采用人工方式对第二训练样本进行标注,人工成本太高,所以中心设备将每个边缘智能设备采集的数据直接作为第二训练样本,并将每个第二训练样本组成第二样本集合。然后中心设备基于第一样本集合和第二样本集合训练一个超网络,将超网络训练成多个不同规模的智能模型,每个智能模型所需要设备的计算能力和存储能力不同。中心设备向不同的边缘智能设备安装不同的智能模型。
其中,对于每个边缘智能设备,每个边缘智能设备部署在不同的场景中。由于每个边缘智能设备受所在环境的影响,所以每个边缘智能设备采集的第二训练样本对应的场景和中心设备中的各第一训练样本对应的场景不同。
可选的,中心设备为中心服务器。例如中心设备为云计算服务器或云计算服务器集群等。边缘智能设备为智能摄像头、电脑或单片机等。
可选的,该网络架构是中心计算-边缘设备的系统架构,例如可以是云中心计算-边缘设备的系统架构,即一个中心设备是一个具有大规模运算和存储能力的服务器或者服务器集群(举例来说,服务器集群由200台显卡、100台CPU和100T存储硬盘等设备组成),多个边缘智能设备是指具有多个小规模运算和存储能力的边缘设备,比如,边缘智能设备是比服务器集群规模小的服务器(如无显卡或者显卡较少的电脑;单片机),有一定的智能模型搭载能力的摄像头,或者,运算能力更小的智能眼镜等。
图3所示的网络架构应用在智能野生动物保护监测系统。该系统由一个云计算中心(为中心设备)、多个边缘智能设备组成。
在云计算中心是一个服务器集群,该集群硬件运算能力和存储能力强,可以利用预选收集的带标签的野生动物数据(第一训练样本)。云计算中心可以使用带标签的第一训练样本训练超网络,得到超网络模型。边缘智能设备,包括在不同野生动物保护片区安装的智能摄像头,用于采集和处理图像数据,对可能出现的野生动物进行识别和监测。智能摄像头是具有运行智能模型能力的设备,具有不同的型号,因此运算和存储能力各不相同,但与云计算中心相比十分有限,可能无法直接运行云计算中心训练获得的超网络模型完成任务。
智能摄像头采集的数据数量庞大,动用人力对图像中野生动物目标进行标注,代价昂贵;不同的智能摄像头受所在环境影响,采集、处理的数据与云计算中心中的第一训练样本相比,具有不同的场景。
不同智能摄像头需要向云计算中心发送自身的运算和存储条件信息,以及采集的一系列无标注图像信息(为第二训练样本),然后云计算中心根据这些无标注图像信息和自身包括的第一训练样本,通过本申请提供的训练方法对超网络进行训练,训练出符合每个智能摄像头运算能力、存储能力和每个智能摄像头所处场景条件的智能模型。这样,对于不同摄像头,该摄像头可以搭载符合条件(自身的运算能力、存储能力和所处场景条件)的智能模型,然后对采集图像处理,执行野生动物智能监测任务。
在以上过程中,如果不使用本申请的训练方法,则可能需要对不同的智能摄像头训练不同的模型以满足他们各自运算能力的要求以及处理数据的场景要求;如果向系统中添加新的摄像设备,需要重新进行训练,导致系统的可持续性和灵活性不高。但是本申请的训练方法只训练了一个超网络模型,通过收集不同智能摄像头的运算能力、存储能力信息以及所采集的无标签数据(即为第二训练样本),即可获得定制智能模型。省去了不同智能摄像头所需不同模型的单独训练成本,以及不同智能摄像头所采集不同场景数据的人工标注成本。
以上所述的智能野生动物保护监测系统,也可以替换为其他任务。比如,在危险环境中的监控任务:如超高压电网变电站区域的人员/物体入侵预警系统、大规模生产线上对违反安全规范操作识别系统等;也可以是智慧城市公共服务系统不同道路监控设备和智慧交通指挥中心和不同道路电子摄像设备组成的智慧交通系统等。
参见图4,本申请实施例提供了一种训练智能模型的方法,所述方法应用于图3所示的网络架构,所述方法的执行主体为该网络架构中的中心设备,所述方法用于训练第一神经网络,得到第一神经网络对应的第一智能模型和第一神经网络中的多个子网络对应的多个第二智能模型,包括:
步骤301:从第一神经网络中获取第一网络集合和第二网络集合,第一网络集合包括第一神经网络和m-1个第二神经网络,m为大于1的整数,第二网络集合包括m个第二神经网络,该m-1个第二神经网络和该m个第二神经网络是第一神经网络中的不同子网络,第一网络集合中的每个神经网络的网络规模大于第二网络集合中的每个神经网络的网络规模。
步骤302:基于第一样本集合和第二样本集合,训练第一网络集合中的每个神经网络,得到第一模型集合,第一样本集合包括多个第一训练样本,第一训练样本包括第一训练数据和标签,该标签用于指示第一训练数据中的目标,第二样本集合包括多个第二训练样本,第二训练样本包括第二训练数据,第一模型集合包括训练第一神经网络得到的第一智能模型和训练m-1个第二神经网络得到的m-1个第二智能模型。
可选的,中心设备接收每个边缘智能设备采集的数据,将每个边缘智能设备采集的数据作为第二训练样本。例如,每个边缘智能设备采集的数据为图片等。
步骤303:基于第一样本集合、第二样本集合和第一模型集合,训练第二网络集合中的每个神经网络,得到第二模型集合,第二模型集合包括训练该m个第二神经网络得到的m个第二智能模型。
在本申请实施例中,将第一神经网络划分成第一网络集合和第二网络集合,第一网络集合包括第一神经网络和m-1个第二神经网络,第二网络集合包括m个第二神经网络。第一样本集合包括的第一训练样本为有标签训练样本,第二样本集合包括的第二训练样本为无标签训练样本。由于第一网络集合中的神经网络的规模均大于第二网络集合中的神经网络的规模,即使用第二样本集合中的第二训练样本为无标签训练样本,也可以使用第一样本集合和第二样本集合训练第一网络集合中的每个神经网络,得到第一网络集合中的每个神经网络对应的智能模型,得到第一模型集合。然后使用第一模型集合、第一样本集合和第二样本集合,对网络规模较小的第二网络集合中的每个神经网络进行训练,从而可以训练出第二网络集合中的每个神经网络对应的智能模型,如此当即包括有标签的训练样本,又包括无标签训练样本,也训练出具有优越性能的智能模型。
其中,无标签的训练样本均是不同的边缘智能设备采集得到的,每个边缘智能设备部署在不同的区域,所以每个边缘智能设备所处场景不同。这些无标签的训练样本构成第二样本集合,而本申请实施例基于第一样本集合和第二样本集合训练出不同规模的智能模型,使得每个智能模型能够满足不同场景条件。由于不同规模的智能模型对边缘智能设备的运算能力和存储能力要求不同,所以可以将不同规模的智能模型部署在不同的边缘智能设备上。
其中,由于训练出第一模型集合,对第二样本集合中的每个第二训练样本,通过第一模型集合包括m个智能模型对第二训练样本中的训练数据进行分类处理,得到每个第二训练样本对应的m个处理结果,基于每个第二训练样本对应的m个处理结果,获取每个第二训练样本对应的标签,这样基于每个第一训练样本和每个第二训练样本对应的标签,可以训练第二网络集合中的每个神经网络,从而使得第二模型集合中的每个智能模型具有优越性能。
对于上述图4所示的方法300,接下来对所述方法300中的各步骤进行说明。
对于上述步骤301,在步骤301中,从第一神经网络中获取第一网络集合和第二网络集合,第一网络集合包括第一神经网络和m-1个第二神经网络,第二网络集合包括m个第二神经网络,该m-1个第二神经网络和该m个第二神经网络是第一神经网络的不同子网络,m为大于1的整数,第一网络集合中的每个神经网络的网络规模大于第二网络集合中的每个神经网络的网络规模。
在步骤301中,在超网络中随机选择2m个神经网络,该2m个神经网络包括第一神经网络和2m-1个子网络,该2m-1个子网络即为2m-1个第二神经网络,在该2m个神经网络中第一神经网络的规模最大。从该2m个神经网络中选择规模最大的m个神经网络,该m个神经网络包括第一神经网络和m-1个规模最大的第二神经网络,将第一神经网络和选择m-1个第二神经网络组成第一网络集合,将剩下未选择的m个第二神经网络组成第二网络集合。
其中,第一神经网络包括的子网络个数大于或等于2m-1个,所以在执行上述步骤301-303后,还可以从第一神经网络中再随机选择2m-1个第二神经网络,将第一神经网络和该2m-1个第二神经网络,继续执行上述301-303的操作,直至对第一神经网络中的每个子网络进行训练,得到每个子网络对应的智能模型。
对于上述步骤302,参见图5,在步骤302中,按如下3021至3024的操作实现步骤302。该3021至3024的操作分别为:
步骤3021:基于第一样本集合,训练待训练神经网络包括的卷积层的参数和全连接层的参数,待训练神经网络是第一网络集合中的任一个神经网络,训练后的卷积层的参数的参数值为第一参数值,以及训练后的全连接层的参数的参数值为第二参数值。
训练卷积层的参数实质是训练卷积层包括的特征提取器的参数,训练全连接层的参数实质是训练全连接层包括的每个分类器的参数。
在步骤3021中,按如下11至14的操作实现步骤3021。该11至14的操作分别为:
11:将第一样本集合中的每个第一训练样本输入至待训练神经网络,使待训练神经网络对每个第一训练样本中的第一训练数据包括的目标进行分类处理,得到每个第一训练样本对应的第六输出结果。
对于任一个第一训练样本,第一训练样本对应的第六输出结果用于指示该第一训练样本中的第一训练数据包括的目标。
其中,待训练神经网络包括卷积层和全连接层,在将该第一训练样本输入到待训练神经网络后,待训练神经网络中的卷积层从该第一训练样本中的第一训练数据中提取特征,向待训练神经网络中的全连接层输入该特征,全连接层基于该特征,对该第一训练样本中的第一训练数据包括的目标进行分类处理,输出处理结果,该输出的处理结果即为该第一训练样本对应的第六输出结果。
其中,全连接层包括的每个分类器均基于该特征,对第一训练样本中的第一训练数据包括的目标进行分类处理,所以待训练神经网络输出的该第一训练样本对应的第六输出结果包括每个分类器输出的处理结果。
例如,卷积层的特征提取器从该第一训练样本中的第一训练数据中提取特征,向待训练神经网络中的每个分类器输入该特征,每个分类器基于该特征对该第一训练样本中的第一训练数据包括的目标进行分类处理,输出处理结果。其中,该第一训练样本对应的第六输出结果包括每个分类器的输出结果。
12:基于每个第一训练样本对应的第六输出结果,按如下第一损失函数获取第五损失函数值。
第一损失函数为:
Figure BDA0003348231620000161
在第一损失函数中,s1为第五损失函数值,(xs,ys)为第一样本集合,(x,y)为第一训练样本,x为第一训练样本中的第一训练数据,y为第一训练样本中的标签,K表示类别总数目,y代表标签,k为第一训练样本对应的第六输出结果,当k=y时1[k=y]取值为1,C(F(x))为分类器函数,z为全连接层包括的分类器数目。
可选的,第一损失函数可以为交叉熵损失函数等。
13:在第五损失函数值不是第一损失函数的最小值时,基于第五损失函数值调整待训练神经网络的卷积层的参数的参数值以及全连接层的参数的参数值,返回执行11。
调整卷积层的参数的参数值包括调整待训练神经网络的特征提取器的参数的参数值。调整全连接层的参数的参数值包括调整待训练神经网络的每个分类器的参数的参数值。
其中,需要说明的是,由于待训练神经网络是第一神经网络中的网络,待训练神经网络的特征提取器也可能是其他神经网络中的特征提取器,所以在调整待训练神经网络中的特征提取器的参数时,其他神经网络中的该特征提取器的参数也随之一并调整。同样,待训练神经网络的分类器也可能是其他神经网络中的分类器,所以在调整待训练神经网络中的分类器的参数时,其他神经网络中的该分类器的参数也随之一并调整。
14:在第五损失函数值是第一损失函数的最小值时,则结束操作。其中,为了便于说明,将待训练神经网络的卷积层的参数的参数值称为第一参数值,将待训练神经网络的全连接层的参数的参数值称为第二参数值。
步骤3022:将待训练神经网络的卷积层的参数的参数值固定为第一参数值,基于第一样本集合和第二样本集合,训练待训练神经网络包括的全连接层的参数,训练后的全连接层的参数的参数值由第二参数值变为第三参数值。
在步骤3022中,将待训练神经网络的卷积层的参数的参数值固定为第一参数值包括将待训练神经网络的特征提取器的参数的参数值固定为第一参数值。基于第一样本集合和第二样本集合,训练待训练神经网络包括的每个分类器的参数,训练后的每个分类器的参数的参数值由第二参数值变为第三参数值。
每个分类器的第三参数值可能均相同,可能不均相同。
在步骤3022中,按如下21至26的操作训练待训练神经网络包括的全连接层的参数。该21至26的操作分别为:
21:将第一样本集合中的每个第一训练样本输入至待训练神经网络,使待训练神经网络对每个第一训练样本中的第一训练数据包括的目标进行分类处理,得到每个第一训练样本对应的第一输出结果。
例如,将第一样本集合中的每个第一训练样本输入至待训练神经网络,使待训练神经网络对每个第一训练样本中的第一训练数据包括的目标进行分类处理,得到每个第一训练样本对应的第一输出结果。
对于任一个第一训练样本,第一训练样本对应的第一输出结果用于指示该第一训练样本中的第一训练数据包括的目标。
其中,在将该第一训练样本输入到待训练神经网络后,待训练神经网络中的卷积层(特征提取器)从该第一训练样本中的第一训练数据中提取特征,向待训练神经网络中的全连接层(全连接层中的每个分类器)输入该特征,全连接层(每个分类器)基于该特征对该第一训练样本中的第一训练数据包括的目标进行分类处理,输出处理结果,该第一训练样本对应的第一输出结果包括每个分类器的输出结果。
22:将第二样本集合中的每个第二训练样本输入至待训练神经网络,使待训练神经网络对每个第二训练样本中的第二训练数据包括的目标进行处理,得到每个第二训练样本对应的第一输出结果。
对于任一个第二训练样本,第二训练样本对应的第一输出结果用于指示该第二训练样本中的第二训练数据包括的目标。
其中,在将该第二训练样本输入到待训练神经网络后,待训练神经网络中的卷积层(特征提取器)从该第二训练样本中的第二训练数据中提取特征,向待训练神经网络中的全连接层(全连接层包括每个分类器)输入该特征,全连接层(每个分类器)基于该特征对该第二训练样本中的第二训练数据包括的目标进行分类处理,输出处理结果,该第二训练样本对应的第一输出结果包括每个分类器的输出结果。
23:基于每个第一训练样本对应的第一输出结果和每个第一训练样本包括的标签,按上述第一损失函数获取第一损失函数值。
在23操作中,仍使用s1表示第一损失函数值。
24:基于每个第二训练样本对应的第一输出结果,通过如下距离损失函数获取第二损失函数值,第一损失函数和距离损失函数不同。
距离损失函数为:
Figure BDA0003348231620000181
在距离损失函数中,s2为第二损失函数值,{xt}为第二样本集合,(x)为第二训练样本。
25:在全连接层损失函数值不是最小值时,基于全连接层损失函数值调整待训练神经网络的全连接层(全连接层包括的多个分类器)的参数的参数值,返回执行3031,全连接层损失函数值包括第一损失函数值和第二损失函数值。
全连接层损失函数值等于s1-s2,其中,
Figure BDA0003348231620000182
26:在全连接层损失函数值是最小值时,则结束操作。其中,为了便于说明,将待训练神经网络的卷积层(特征提取器)的参数的参数值称为第一参数值,将待训练神经网络的全连接层(全连接层中的多个分类器)的参数的参数值称为第三参数值。
步骤3023:将待训练神经网络的全连接层(该全连接层中的多个分类器)的参数的参数值固定为第三参数值,基于第一样本集合和第二样本集合,训练待训练神经网络的卷积层(特征提取器)的参数,得到待训练神经网络对应的智能模型。
在步骤3023中,按如下31至36的操作训练待训练神经网络包括的卷积层(特征提取器)的参数。该31至36的操作分别为:
31:将第一样本集合中的每个第一训练样本输入至待训练神经网络,使待训练神经网络对每个第一训练样本中的第一训练数据包括的目标进行处理,得到每个第一训练样本对应的第二输出结果。
对于任一个第一训练样本,第一训练样本对应的第二输出结果用于指示该第一训练样本中的第一训练数据包括的目标。
其中,在将该第一训练样本输入到待训练神经网络后,待训练神经网络中的卷积层(特征提取器)从该第一训练样本中的第一训练数据中提取特征,向待训练神经网络中的全连接层(全连接层中的每个分类器)输入该特征,全连接层(全连接层中的每个分类器)基于该特征识别该第一训练样本中的第一训练数据包括的目标,输出识别结果,该第一训练样本对应的第二输出结果包括全连接层(全连接层中的每个分类器)的输出结果。
32:将第二样本集合中的每个第二训练样本输入至待训练神经网络,使待训练神经网络对每个第二训练样本中的第二训练数据包括的目标进行处理,得到每个第二训练样本对应的第二输出结果。
对于任一个第二训练样本,第二训练样本对应的第二输出结果用于指示该第二训练样本中的第二训练数据包括的目标。
其中,在将该第二训练样本输入到待训练神经网络后,待训练神经网络中的卷积层(特征提取器)从该第二训练样本中的第二训练数据中提取特征,向待训练神经网络中的全连接层(全连接层中的每个分类器)输入该特征,全连接层(全连接层中的每个分类器)基于该特征识别该第二训练样本中的第二训练数据包括的目标,输出识别结果,该第二训练样本对应的第二输出结果包括每个分类器的输出结果。
33:基于每个第一训练样本对应的第二输出结果和每个第一训练样本包括的标签,按上述第一损失函数获取第三损失函数值。
在33操作中,仍使用s1表示第三损失函数值。
34:基于每个第二训练样本对应的第二输出结果,通过上述距离损失函数获取第四损失函数值。
在34操作中,仍使用s2表示第四损失函数值。
35:在卷积层损失函数值不是最小值时,基于卷积层损失函数值调整待训练神经网络的卷积层(特征提取器)的参数的参数值,返回执行3041,卷积层损失函数值包括第三损失函数值和第四损失函数值。
卷积层损失函数值等于s1+s2,其中,
Figure BDA0003348231620000201
36:在卷积层损失函数值是最小值时,则结束操作,将此时的待训练神经作为智能模型。
对于第一网络集合中的每个神经网络(第一神经网络和m-1个第二神经网络),对每个神经网络执行上述步骤3021-3023的流程,得到m个智能模型。该m个智能模型包括对第一神经网络进行训练得到的第一智能模型,以及分别对m-1个第二神经网络进行训练得到的m-1个第二智能模型。
对于上述步骤303,参见图6,在步骤303中,按如下3031至3033的操作实现步骤303。该3031至3033的操作分别为:
步骤3031:将第二样本集合中的每个第二训练样本输入至第一模型集合中的每个智能模型,获取每个智能模型输出的第二训练样本对应的多个第三输出结果。
第一模型集合包括m个智能模型,对于第二样本集合中的每个第二训练样本,将该第二训练样本分别输入到该m个智能模型中的每个智能模型中。每个智能模型对该第二训练样本包括的第二训练数据中的目标进行处理,输出处理结果。获取该m个智能模型输出的处理结果,共m个处理结果,将该m个处理结果作为该第二训练样本对应的m个第三输出结果。对第二样本集合中的每个第二训练样本,执行上述操作,得到第二样本集合中的每个第二训练样本对应的m个第三输出结果。
步骤3032:基于每个第二训练样本对应的多个第三输出结果,分别获取每个第二训练样本对应的标签。
对于任一个第二训练样本,该第二训练样本对应的m个第三输出结果,计算该m个第三输出结果的平均值,或者,从该m个第三输出结果中选择最大值或最小值等。将该平均值,该最大值或者该最小值作为该第二训练样本对应的标签。对于第二样本集合的每个第二训练样本,按上述操作获取每个第二训练样本对应的标签。
步骤3033:基于第一样本集合、每个第二训练样本和每个第二训练样本对应的标签,训练第二网络集合中的每个神经网络,得到第二模型集合。
对于第二网络集合中的任一个第二神经网络,可以按如下41-44的操作训练该第二神经网络。该41-44的操作分别为:
41:将每个训练样本输入至该第二神经网络,使该第二神经网络对每个训练样本中的训练数据包括的目标进行处理,得到每个训练样本对应的第七输出结果,该每个训练样本包括第一样本集体中的每个第一训练样本和第二样本集合中的每个第二训练样本。
对于每个训练样本,该训练样本对应的第七输出结果用于指示该训练样本中的训练数据包括的目标。
其中,在将该训练样本输入到该第二神经网络后,该第二神经网络中的卷积层(特征提取器)从该第二训练样本中的训练数据中提取特征,向该第二神经网络中的全连接层(全连接层中的每个分类器)输入该特征,全连接层(全连接层中的每个分类器)基于该特征对该训练样本中的训练数据包括的目标进行处理,输出处理结果,该训练样本对应的第七输出结果包括全连接层的输出结果。
42:基于该每个训练样本对应的第七输出结果和该每个训练样本对应的标签,按上述第一损失函数获取损失函数值。
43:在该损失函数值不是第一损失函数的最小值时,基于该损失函数值调整该第二神经网络的参数的参数值,返回执行41。
44:在该损失函数值是第一损失函数的最小值时,则结束操作,将此时的第二神经网络作为第二智能模型。
对第二网络集合中的每个第二神经网络,可以按上述41-44的操作进行训练,得到每个第二神经网络对应的第二智能模型,共得到m个第二智能模型。
通过上述步骤301-303的流程训练出第一神经网络对应的第一智能模型和第一神经网络中的每个子网络对应的第二智能模型,每个第二智能模型的规模不同,不同规模的第二智能模型适应于不同的硬件性能的设备。假设存在n个不同硬件性能的设备,n为大于1的整数,第二智能模型的个数较多,因此可以从众多的第二智能模型中选择每个设备选择一个第二智能模型。参见图7,本申请实施例提供了如下选择智能模型的方法,包括:
步骤601:基于n个设备的资源信息,确定n个第三模型集合,该n个设备与该n个第三模型集合一一对应。
其中,该n个设备包括第一设备,第一设备对应的第三模型集合包括至少一个第二智能模型,第一设备的资源满足至少一个第二智能模型中的每个第二智能模型所需要的资源。
可选的,第一设备的资源信息包括第一设备空闲的内存大小和/或CPU处理核个数等,第一设备的资源信息用于指示设备上的资源。
在步骤601中,基于第一设备的资源信息和训练出的每个第二智能模型的规模,确定能够在第一设备上运行的至少一个第二智能模型,第一设备的资源满足确定出的每个第二智能模型所需要的资源,将包括该至少一个第二智能模型的模型集合确定为第一设备对应的第三模型集合。按上述相同方法,对其他n-1个第二设备分别执行上述操作,得到该n-1个设备中的每个设备对应的第三模型集合。
步骤602:基于第一智能模型,从第一设备对应的第三智能模型中为第一设备选择一个第二智能模型。
在步骤602中,将第二样本集合中的每个第二训练样本输入到第一智能模型,获取第一智能模型输出的每个第二训练样本对应的第四输出结果。将第二样本集合中的每个第二训练样本输入到目标智能模型,获取目标智能模型输出的每个第二训练样本对应的第五输出结果,目标智能模型是第一设备对应的第三模型集合中的一个第二智能模型。基于每个第二训练样本的第四输出结果和第五输出结果,获取第一智能模型与目标智能模型的差异信息。按上述相同方式,获取第一智能模型与第一设备对应的第三模型集合中的每个第二智能模型之间的差异信息。基于第一智能模型与每个第二智能模型的差异信息,从每个第二智能模型中选择一个第二智能模型。
可选的,计算每个第二训练样本的第四输出结果和第五输出结果之间的差值,即计算出每个第二训练样本对应的差值,基于每个第二训练样本对应的差值,计算出平均差值,将该平均差值作为第一智能模型与目标智能模型的差异信息。
参见图8,本申请实施例提供了一种训练智能模型的装置700,所述装置700包括:
获取模块701,用于从第一神经网络中获取第一网络集合和第二网络集合,所述第一网络集合包括第一神经网络和m-1个第二神经网络,m为大于1的整数,所述第二网络集合包括m个第二神经网络,所述m-1个第二神经网络和所述m个第二神经网络是所述第一神经网络中的不同子网络,所述第一网络集合中的每个神经网络的网络规模大于所述第二网络集合中的每个神经网络的网络规模;
第一训练模块702,用于基于第一样本集合和第二样本集合,训练所述第一网络集合中的每个神经网络,得到第一模型集合,所述第一样本集合包括多个第一训练样本,第一训练样本包括第一训练数据和标签,所述标签用于指示所述第一训练数据中的目标,所述第二样本集合包括多个第二训练样本,第二训练样本包括第二训练数据,所述第一模型集合包括训练所述第一神经网络得到的第一智能模型和训练所述m-1个第二神经网络得到的m-1个第二智能模型;
第二训练模块703,用于基于所述第一样本集合、所述第二样本集合和所述第一模型集合,训练所述第二网络集合中的每个神经网络,得到第二模型集合,所述第二模型集合包括训练所述m个第二神经网络得到的m个第二智能模型。
可选的,所述第一训练模块702,用于:
基于所述第一样本集合,训练待训练神经网络包括的卷积层的参数和全连接层的参数,所述待训练神经网络是所述第一网络集合中的任一个神经网络,训练后的所述卷积层的参数的参数值为第一参数值,以及训练后的所述全连接层的参数的参数值为第二参数值;
将所述卷积层的参数的参数值固定为所述第一参数值,基于所述第一样本集合和所述第二样本集合,训练所述待训练神经网络包括的全连接层的参数,训练后的所述全连接层的参数的参数值由所述第二参数值变为第三参数值;
将所述全连接层的参数的参数值固定为所述第三参数值,基于所述第一样本集合和所述第二样本集合,训练所述待训练神经网络的卷积层的参数,得到所述待训练神经网络对应的智能模型。
可选的,所述第一训练模块702,用于:
将所述第一样本集合中的每个第一训练样本输入至所述待训练神经网络,获取所述待训练神经网络输出的所述每个第一训练样本对应的第一输出结果,以及将所述第二样本集合中的每个第二训练样本输入至所述待训练神经网络,获取所述每个第二训练样本对应的第一输出结果;
基于所述每个第一训练样本对应的第一输出结果和所述每个第一训练样本包括的标签,通过第一损失函数获取第一损失函数值,以及基于所述每个第二训练样本对应的第一输出结果,通过距离损失函数获取第二损失函数值,所述第一损失函数是除所述距离损失函数之外的其他损失函数;
在全连接层损失函数值不是最小值时,基于所述全连接层损失函数值调整所述全连接层的参数的参数值,所述全连接层损失函数值包括所述第一损失函数值和所述第二损失函数值。
可选的,所述第一训练模块702,用于:
将所述第一样本集合中的每个第一训练样本输入至所述待训练神经网络,获取所述待训练神经网络输出的所述每个第一训练样本对应的第二输出结果,以及将所述第二样本集合中的每个第二训练样本输入至所述待训练神经网络,获取所述每个第二训练样本对应的第二输出结果;
基于所述每个第一训练样本对应的第二输出结果和所述第一训练样本包括的标签,通过所述第一损失函数获取第三损失函数值,以及基于所述每个第二训练样本对应的第二输出结果,通过所述距离损失函数获取第四损失函数值;
在卷积层损失函数值不是最小值时,基于所述卷积层损失函数值调整所述卷积层的参数的参数值,所述卷积层损失函数值包括所述第三损失函数值和所述第四损失函数值。
可选的,所述第二训练模块703,用于:
将所述第二样本集合中的每个第二训练样本输入至所述第一模型集合中的每个智能模型,获取所述每个智能模型输出的所述第二训练样本对应的多个第三输出结果;
基于所述每个第二训练样本对应的多个第三输出结果,分别获取所述每个第二训练样本对应的标签;
基于所述第一样本集合、所述每个第二训练样本和所述每个第二训练样本对应的标签,训练所述第二网络集合中的每个神经网络,得到第二模型集合。
可选的,所述装置700还包括:
确定模块,用于基于n个设备的资源信息,确定n个第三模型集合,所述n个设备与所述n个第三模型集合一一对应,所述n个设备包括第一设备,所述第一设备对应的第三模型集合包括至少一个第二智能模型,所述第一设备的资源满足所述至少一个第二智能模型中的每个第二智能模型所需要的资源,n为大于1的整数;
选择模块,用于基于所述第一智能模型,从所述第一设备对应的第三智能模型中为所述第一设备选择一个第二智能模型。
可选的,所述选择模块,用于:
基于所述第二样本集合,获取所述第一智能模型与所述第一设备对应的第三模型集合中的每个第二智能模型的差异信息;
基于所述第一智能模型与所述每个第二智能模型的差异信息,从所述每个第二智能模型中选择一个第二智能模型。
可选的,所述选择模块,用于:
将所述第二样本集合中的每个第二训练样本输入到所述第一智能模型,获取所述第一智能模型输出的所述每个第二训练样本对应的第四输出结果;
将所述第二样本集合中的每个第二训练样本输入到目标智能模型,获取所述目标智能模型输出的所述每个第二训练样本对应的第五输出结果,所述目标智能模型是所述第一设备对应的第三模型集合中的一个第二智能模型;
基于所述每个第二训练样本的第四输出结果和第五输出结果,获取所述第一智能模型与所述目标智能模型的差异信息。
在本申请实施例中,由于第一网络集合中的神经网络的规模均大于第二网络集合中的神经网络的规模,可以使用第一样本集合和第二样本集合训练第一网络集合中的每个神经网络,得到第一网络集合中的每个神经网络对应的智能模型,得到第一模型集合。然后使用第一模型集合、第一样本集合和第二样本集合,对网络规模较小的第二网络集合中的每个神经网络进行训练,从而可以训练出第二网络集合中的每个神经网络对应的智能模型,如此当即包括有标签的训练样本,又包括无标签训练样本,也训练出具有优越性能的智能模型。
图9示出了本申请一个示例性实施例提供的电子设备800的结构框图。该电子设备800可以是便携式移动终端,比如:智能手机、平板电脑、MP3播放器(Moving PictureExperts Group Audio Layer III,动态影像专家压缩标准音频层面3)、MP4(MovingPicture Experts Group Audio Layer IV,动态影像专家压缩标准音频层面4)播放器、笔记本电脑或台式电脑。电子设备800还可能被称为用户设备、便携式终端、膝上型终端、台式终端等其他名称。
通常,电子设备800包括有:处理器801和存储器802。
处理器801可以包括一个或多个处理核心,比如4核心处理器、8核心处理器等。处理器801可以采用DSP(Digital Signal Processing,数字信号处理)、FPGA(Field-Programmable Gate Array,现场可编程门阵列)、PLA(Programmable Logic Array,可编程逻辑阵列)中的至少一种硬件形式来实现。处理器801也可以包括主处理器和协处理器,主处理器是用于对在唤醒状态下的数据进行处理的处理器,也称CPU(Central ProcessingUnit,中央处理器);协处理器是用于对在待机状态下的数据进行处理的低功耗处理器。在一些实施例中,处理器801可以集成有GPU(Graphics Processing Unit,图像处理器),GPU用于负责显示屏所需要显示的内容的渲染和绘制。一些实施例中,处理器801还可以包括AI(Artificial Intelligence,人工智能)处理器,该AI处理器用于处理有关机器学习的计算操作。
存储器802可以包括一个或多个计算机可读存储介质,该计算机可读存储介质可以是非暂态的。存储器802还可包括高速随机存取存储器,以及非易失性存储器,比如一个或多个磁盘存储设备、闪存存储设备。在一些实施例中,存储器802中的非暂态的计算机可读存储介质用于存储至少一个指令,该至少一个指令用于被处理器801所执行以实现本申请中方法实施例提供的训练智能模型的方法。
在一些实施例中,电子设备800还可选包括有:外围设备接口803和至少一个外围设备。处理器801、存储器802和外围设备接口803之间可以通过总线或信号线相连。各个外围设备可以通过总线、信号线或电路板与外围设备接口803相连。具体地,外围设备包括:射频电路804、显示屏805、摄像头组件806、音频电路807、定位组件808和电源809中的至少一种。
外围设备接口803可被用于将I/O(Input/Output,输入/输出)相关的至少一个外围设备连接到处理器801和存储器802。在一些实施例中,处理器801、存储器802和外围设备接口803被集成在同一芯片或电路板上;在一些其他实施例中,处理器801、存储器802和外围设备接口803中的任意一个或两个可以在单独的芯片或电路板上实现,本实施例对此不加以限定。
射频电路804用于接收和发射RF(Radio Frequency,射频)信号,也称电磁信号。射频电路804通过电磁信号与通信网络以及其他通信设备进行通信。射频电路804将电信号转换为电磁信号进行发送,或者,将接收到的电磁信号转换为电信号。可选地,射频电路804包括:天线系统、RF收发器、一个或多个放大器、调谐器、振荡器、数字信号处理器、编解码芯片组、用户身份模块卡等等。射频电路804可以通过至少一种无线通信协议来与其它终端进行通信。该无线通信协议包括但不限于:万维网、城域网、内联网、各代移动通信网络(2G、3G、4G及5G)、无线局域网和/或WiFi(Wireless Fidelity,无线保真)网络。在一些实施例中,射频电路804还可以包括NFC(Near Field Communication,近距离无线通信)有关的电路,本申请对此不加以限定。
显示屏805用于显示UI(User Interface,用户界面)。该UI可以包括图形、文本、图标、视频及其它们的任意组合。当显示屏805是触摸显示屏时,显示屏805还具有采集在显示屏805的表面或表面上方的触摸信号的能力。该触摸信号可以作为控制信号输入至处理器801进行处理。此时,显示屏805还可以用于提供虚拟按钮和/或虚拟键盘,也称软按钮和/或软键盘。在一些实施例中,显示屏805可以为一个,设置在电子设备800的前面板;在另一些实施例中,显示屏805可以为至少两个,分别设置在电子设备800的不同表面或呈折叠设计;在另一些实施例中,显示屏805可以是柔性显示屏,设置在电子设备800的弯曲表面上或折叠面上。甚至,显示屏805还可以设置成非矩形的不规则图形,也即异形屏。显示屏805可以采用LCD(Liquid Crystal Display,液晶显示屏)、OLED(Organic Light-Emitting Diode,有机发光二极管)等材质制备。
摄像头组件806用于采集图像或视频。可选地,摄像头组件806包括前置摄像头和后置摄像头。通常,前置摄像头设置在终端的前面板,后置摄像头设置在终端的背面。在一些实施例中,后置摄像头为至少两个,分别为主摄像头、景深摄像头、广角摄像头、长焦摄像头中的任意一种,以实现主摄像头和景深摄像头融合实现背景虚化功能、主摄像头和广角摄像头融合实现全景拍摄以及VR(Virtual Reality,虚拟现实)拍摄功能或者其它融合拍摄功能。在一些实施例中,摄像头组件806还可以包括闪光灯。闪光灯可以是单色温闪光灯,也可以是双色温闪光灯。双色温闪光灯是指暖光闪光灯和冷光闪光灯的组合,可以用于不同色温下的光线补偿。
音频电路807可以包括麦克风和扬声器。麦克风用于采集用户及环境的声波,并将声波转换为电信号输入至处理器801进行处理,或者输入至射频电路804以实现语音通信。出于立体声采集或降噪的目的,麦克风可以为多个,分别设置在电子设备800的不同部位。麦克风还可以是阵列麦克风或全向采集型麦克风。扬声器则用于将来自处理器801或射频电路804的电信号转换为声波。扬声器可以是传统的薄膜扬声器,也可以是压电陶瓷扬声器。当扬声器是压电陶瓷扬声器时,不仅可以将电信号转换为人类可听见的声波,也可以将电信号转换为人类听不见的声波以进行测距等用途。在一些实施例中,音频电路807还可以包括耳机插孔。
定位组件808用于定位电子设备800的当前地理位置,以实现导航或LBS(LocationBased Service,基于位置的服务)。定位组件808可以是基于美国的GPS(GlobalPositioning System,全球定位系统)、中国的北斗系统或俄罗斯的伽利略系统的定位组件。
电源809用于为电子设备800中的各个组件进行供电。电源809可以是交流电、直流电、一次性电池或可充电电池。当电源809包括可充电电池时,该可充电电池可以是有线充电电池或无线充电电池。有线充电电池是通过有线线路充电的电池,无线充电电池是通过无线线圈充电的电池。该可充电电池还可以用于支持快充技术。
在一些实施例中,电子设备800还包括有一个或多个传感器810。该一个或多个传感器810包括但不限于:加速度传感器811、陀螺仪传感器812、压力传感器813、指纹传感器814、光学传感器815以及接近传感器816。
加速度传感器811可以检测以电子设备800建立的坐标系的三个坐标轴上的加速度大小。比如,加速度传感器811可以用于检测重力加速度在三个坐标轴上的分量。处理器801可以根据加速度传感器811采集的重力加速度信号,控制显示屏805以横向视图或纵向视图进行用户界面的显示。加速度传感器811还可以用于游戏或者用户的运动数据的采集。
陀螺仪传感器812可以检测电子设备800的机体方向及转动角度,陀螺仪传感器812可以与加速度传感器811协同采集用户对电子设备800的3D动作。处理器801根据陀螺仪传感器812采集的数据,可以实现如下功能:动作感应(比如根据用户的倾斜操作来改变UI)、拍摄时的图像稳定、游戏控制以及惯性导航。
压力传感器813可以设置在电子设备800的侧边框和/或显示屏805的下层。当压力传感器813设置在电子设备800的侧边框时,可以检测用户对电子设备800的握持信号,由处理器801根据压力传感器813采集的握持信号进行左右手识别或快捷操作。当压力传感器813设置在显示屏805的下层时,由处理器801根据用户对显示屏805的压力操作,实现对UI界面上的可操作性控件进行控制。可操作性控件包括按钮控件、滚动条控件、图标控件、菜单控件中的至少一种。
指纹传感器814用于采集用户的指纹,由处理器801根据指纹传感器814采集到的指纹识别用户的身份,或者,由指纹传感器814根据采集到的指纹识别用户的身份。在识别出用户的身份为可信身份时,由处理器801授权该用户执行相关的敏感操作,该敏感操作包括解锁屏幕、查看加密信息、下载软件、支付及更改设置等。指纹传感器814可以被设置在电子设备800的正面、背面或侧面。当电子设备800上设置有物理按键或厂商Logo时,指纹传感器814可以与物理按键或厂商Logo集成在一起。
光学传感器815用于采集环境光强度。在一个实施例中,处理器801可以根据光学传感器815采集的环境光强度,控制显示屏805的显示亮度。具体地,当环境光强度较高时,调高显示屏805的显示亮度;当环境光强度较低时,调低显示屏805的显示亮度。在另一个实施例中,处理器801还可以根据光学传感器815采集的环境光强度,动态调整摄像头组件806的拍摄参数。
接近传感器816,也称距离传感器,通常设置在电子设备800的前面板。接近传感器816用于采集用户与电子设备800的正面之间的距离。在一个实施例中,当接近传感器816检测到用户与电子设备800的正面之间的距离逐渐变小时,由处理器801控制显示屏805从亮屏状态切换为息屏状态;当接近传感器816检测到用户与电子设备800的正面之间的距离逐渐变大时,由处理器801控制显示屏805从息屏状态切换为亮屏状态。
本领域技术人员可以理解,图9中示出的结构并不构成对电子设备800的限定,可以包括比图示更多或更少的组件,或者组合某些组件,或者采用不同的组件布置。
本领域技术人员在考虑说明书及实践这里公开的申请后,将容易想到本申请的其它实施方案。本申请旨在涵盖本申请的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本申请的一般性原理并包括本申请未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本申请的真正范围和精神由下面的权利要求指出。
应当理解的是,本申请并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本申请的范围仅由所附的权利要求来限制。

Claims (10)

1.一种训练智能模型的方法,其特征在于,所述方法包括:
从第一神经网络中获取第一网络集合和第二网络集合,所述第一网络集合包括第一神经网络和m-1个第二神经网络,m为大于1的整数,所述第二网络集合包括m个第二神经网络,所述m-1个第二神经网络和所述m个第二神经网络是所述第一神经网络中的不同子网络,所述第一网络集合中的每个神经网络的网络规模大于所述第二网络集合中的每个神经网络的网络规模;
基于第一样本集合和第二样本集合,训练所述第一网络集合中的每个神经网络,得到第一模型集合,所述第一样本集合包括多个第一训练样本,第一训练样本包括第一训练数据和标签,所述标签用于指示所述第一训练数据中的目标,所述第二样本集合包括多个第二训练样本,第二训练样本包括第二训练数据,所述第一模型集合包括训练所述第一神经网络得到的第一智能模型和训练所述m-1个第二神经网络得到的m-1个第二智能模型;
基于所述第一样本集合、所述第二样本集合和所述第一模型集合,训练所述第二网络集合中的每个神经网络,得到第二模型集合,所述第二模型集合包括训练所述m个第二神经网络得到的m个第二智能模型。
2.如权利要求1所述的方法,其特征在于,所述基于第一样本集合和第二样本集合,训练所述第一网络集合中的每个神经网络,得到第一模型集合,包括:
基于所述第一样本集合,训练待训练神经网络包括的卷积层的参数和全连接层的参数,所述待训练神经网络是所述第一网络集合中的任一个神经网络,训练后的所述卷积层的参数的参数值为第一参数值,以及训练后的所述全连接层的参数的参数值为第二参数值;
将所述卷积层的参数的参数值固定为所述第一参数值,基于所述第一样本集合和所述第二样本集合,训练所述待训练神经网络包括的全连接层的参数,训练后的所述全连接层的参数的参数值由所述第二参数值变为第三参数值;
将所述全连接层的参数的参数值固定为所述第三参数值,基于所述第一样本集合和所述第二样本集合,训练所述待训练神经网络的卷积层的参数,得到所述待训练神经网络对应的智能模型。
3.如权利要求2所述的方法,其特征在于,所述基于所述第一样本集合和所述第二样本集合,训练所述待训练神经网络包括的全连接层的参数,包括:
将所述第一样本集合中的每个第一训练样本输入至所述待训练神经网络,获取所述待训练神经网络输出的所述每个第一训练样本对应的第一输出结果,以及将所述第二样本集合中的每个第二训练样本输入至所述待训练神经网络,获取所述每个第二训练样本对应的第一输出结果;
基于所述每个第一训练样本对应的第一输出结果和所述每个第一训练样本包括的标签,通过第一损失函数获取第一损失函数值,以及基于所述每个第二训练样本对应的第一输出结果,通过距离损失函数获取第二损失函数值,所述第一损失函数是除所述距离损失函数之外的其他损失函数;
在全连接层损失函数值不是最小值时,基于所述全连接层损失函数值调整所述全连接层的参数的参数值,所述全连接层损失函数值包括所述第一损失函数值和所述第二损失函数值。
4.如权利要求3所述的方法,其特征在于,所述基于所述第一样本集合和所述第二样本集合,训练所述待训练神经网络的卷积层的参数,包括:
将所述第一样本集合中的每个第一训练样本输入至所述待训练神经网络,获取所述待训练神经网络输出的所述每个第一训练样本对应的第二输出结果,以及将所述第二样本集合中的每个第二训练样本输入至所述待训练神经网络,获取所述每个第二训练样本对应的第二输出结果;
基于所述每个第一训练样本对应的第二输出结果和所述第一训练样本包括的标签,通过所述第一损失函数获取第三损失函数值,以及基于所述每个第二训练样本对应的第二输出结果,通过所述距离损失函数获取第四损失函数值;
在卷积层损失函数值不是最小值时,基于所述卷积层损失函数值调整所述卷积层的参数的参数值,所述卷积层损失函数值包括所述第三损失函数值和所述第四损失函数值。
5.如权利要求1所述的方法,其特征在于,所述基于所述第一样本集合、所述第二样本集合和所述第一模型集合,训练所述第二网络集合中的每个神经网络,得到第二模型集合,包括:
将所述第二样本集合中的每个第二训练样本输入至所述第一模型集合中的每个智能模型,获取所述每个智能模型输出的所述第二训练样本对应的多个第三输出结果;
基于所述每个第二训练样本对应的多个第三输出结果,分别获取所述每个第二训练样本对应的标签;
基于所述第一样本集合、所述每个第二训练样本和所述每个第二训练样本对应的标签,训练所述第二网络集合中的每个神经网络,得到第二模型集合。
6.如权利要求1所述的方法,其特征在于,所述方法还包括:
基于n个设备的资源信息,确定n个第三模型集合,所述n个设备与所述n个第三模型集合一一对应,所述n个设备包括第一设备,所述第一设备对应的第三模型集合包括至少一个第二智能模型,所述第一设备的资源满足所述至少一个第二智能模型中的每个第二智能模型所需要的资源,n为大于1的整数;
基于所述第一智能模型,从所述第一设备对应的第三智能模型中为所述第一设备选择一个第二智能模型。
7.如权利要求6所述的方法,其特征在于,所述基于所述第一智能模型,从所述第一设备对应的第三智能模型中为所述第一设备选择一个第二智能模型,包括:
基于所述第二样本集合,获取所述第一智能模型与所述第一设备对应的第三模型集合中的每个第二智能模型的差异信息;
基于所述第一智能模型与所述每个第二智能模型的差异信息,从所述每个第二智能模型中选择一个第二智能模型。
8.如权利要求7所述的方法,其特征在于,所述基于所述第二样本集合,获取所述第一智能模型与所述第一设备对应的第三模型集合中的每个第二智能模型的差异信息,包括:
将所述第二样本集合中的每个第二训练样本输入到所述第一智能模型,获取所述第一智能模型输出的所述每个第二训练样本对应的第四输出结果;
将所述第二样本集合中的每个第二训练样本输入到目标智能模型,获取所述目标智能模型输出的所述每个第二训练样本对应的第五输出结果,所述目标智能模型是所述第一设备对应的第三模型集合中的一个第二智能模型;
基于所述每个第二训练样本的第四输出结果和第五输出结果,获取所述第一智能模型与所述目标智能模型的差异信息。
9.如权利要求1-8任一项所述的方法,其特征在于,所述方法应用于中心计算-边缘设备的系统架构,所述系统架构包括中心设备和多个边缘智能设备,每个边缘智能设备部署在不同区域中,所述中心设备的运算能力和存储能力分别大于所述每个边缘智能设备的运算能力和存储能力,所述方法由所述中心设备执行,所述第二样本集合中的第二训练样本是所述中心设备接收的所述每个边缘智能设备采集的数据。
10.一种训练智能模型的装置,其特征在于,所述装置包括:
获取模块,用于从第一神经网络中获取第一网络集合和第二网络集合,所述第一网络集合包括第一神经网络和m-1个第二神经网络,m为大于1的整数,所述第二网络集合包括m个第二神经网络,所述m-1个第二神经网络和所述m个第二神经网络是所述第一神经网络中的不同子网络,所述第一网络集合中的每个神经网络的网络规模大于所述第二网络集合中的每个神经网络的网络规模;
第一训练模块,用于基于第一样本集合和第二样本集合,训练所述第一网络集合中的每个神经网络,得到第一模型集合,所述第一样本集合包括多个第一训练样本,第一训练样本包括第一训练数据和标签,所述标签用于指示所述第一训练数据中的目标,所述第二样本集合包括多个第二训练样本,第二训练样本包括第二训练数据,所述第一模型集合包括训练所述第一神经网络得到的第一智能模型和训练所述m-1个第二神经网络得到的m-1个第二智能模型;
第二训练模块,用于基于所述第一样本集合、所述第二样本集合和所述第一模型集合,训练所述第二网络集合中的每个神经网络,得到第二模型集合,所述第二模型集合包括训练所述m个第二神经网络得到的m个第二智能模型。
CN202111329061.9A 2021-11-10 2021-11-10 训练智能模型的方法及装置 Pending CN114118236A (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202111329061.9A CN114118236A (zh) 2021-11-10 2021-11-10 训练智能模型的方法及装置
PCT/CN2022/131038 WO2023083240A1 (zh) 2021-11-10 2022-11-10 训练智能模型的方法、装置、电子设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111329061.9A CN114118236A (zh) 2021-11-10 2021-11-10 训练智能模型的方法及装置

Publications (1)

Publication Number Publication Date
CN114118236A true CN114118236A (zh) 2022-03-01

Family

ID=80378256

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111329061.9A Pending CN114118236A (zh) 2021-11-10 2021-11-10 训练智能模型的方法及装置

Country Status (2)

Country Link
CN (1) CN114118236A (zh)
WO (1) WO2023083240A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023083240A1 (zh) * 2021-11-10 2023-05-19 杭州海康威视数字技术股份有限公司 训练智能模型的方法、装置、电子设备及存储介质

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10878320B2 (en) * 2015-07-22 2020-12-29 Qualcomm Incorporated Transfer learning in neural networks
US11836610B2 (en) * 2017-12-13 2023-12-05 Advanced Micro Devices, Inc. Concurrent training of functional subnetworks of a neural network
KR102235745B1 (ko) * 2018-08-10 2021-04-02 네이버 주식회사 컨볼루션 순환 신경망을 훈련시키는 방법 및 훈련된 컨볼루션 순환 신경망을 사용하는 입력된 비디오의 의미적 세그먼트화 방법
US10867210B2 (en) * 2018-12-21 2020-12-15 Waymo Llc Neural networks for coarse- and fine-object classifications
US11599792B2 (en) * 2019-09-24 2023-03-07 Salesforce.Com, Inc. System and method for learning with noisy labels as semi-supervised learning
CN114118236A (zh) * 2021-11-10 2022-03-01 杭州海康威视数字技术股份有限公司 训练智能模型的方法及装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023083240A1 (zh) * 2021-11-10 2023-05-19 杭州海康威视数字技术股份有限公司 训练智能模型的方法、装置、电子设备及存储介质

Also Published As

Publication number Publication date
WO2023083240A1 (zh) 2023-05-19

Similar Documents

Publication Publication Date Title
CN111091132B (zh) 基于人工智能的图像识别方法、装置、计算机设备及介质
CN110807361B (zh) 人体识别方法、装置、计算机设备及存储介质
CN110490179B (zh) 车牌识别方法、装置及存储介质
CN110839128B (zh) 拍照行为检测方法、装置及存储介质
CN110865756B (zh) 图像标注方法、装置、设备及存储介质
CN112749613B (zh) 视频数据处理方法、装置、计算机设备及存储介质
CN110490186B (zh) 车牌识别方法、装置及存储介质
CN110991491A (zh) 图像标注方法、装置、设备及存储介质
CN111127509A (zh) 目标跟踪方法、装置和计算机可读存储介质
CN112084811A (zh) 身份信息的确定方法、装置及存储介质
CN110647881A (zh) 确定图像对应的卡片类型的方法、装置、设备及存储介质
CN110705614A (zh) 模型训练方法、装置、电子设备及存储介质
CN107944024B (zh) 一种确定音频文件的方法和装置
WO2023083240A1 (zh) 训练智能模型的方法、装置、电子设备及存储介质
CN112818979A (zh) 文本识别方法、装置、设备及存储介质
CN112053360A (zh) 图像分割方法、装置、计算机设备及存储介质
CN113343709B (zh) 意图识别模型的训练方法、意图识别方法、装置及设备
CN115937738A (zh) 视频标注模型的训练方法、装置、设备及存储介质
CN113378705B (zh) 车道线检测方法、装置、设备及存储介质
CN111582184B (zh) 页面检测方法、装置、设备及存储介质
CN111611414A (zh) 车辆检索方法、装置及存储介质
CN113936240A (zh) 确定样本图像的方法、装置、设备及存储介质
CN114283395A (zh) 车道线检测的方法、装置、设备及计算机可读存储介质
CN113920222A (zh) 获取地图建图数据的方法、装置、设备及可读存储介质
CN110728275B (zh) 车牌识别方法、装置及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination