CN108229534A - 神经网络模型迁移方法和系统、电子设备、程序和介质 - Google Patents

神经网络模型迁移方法和系统、电子设备、程序和介质 Download PDF

Info

Publication number
CN108229534A
CN108229534A CN201711214145.1A CN201711214145A CN108229534A CN 108229534 A CN108229534 A CN 108229534A CN 201711214145 A CN201711214145 A CN 201711214145A CN 108229534 A CN108229534 A CN 108229534A
Authority
CN
China
Prior art keywords
network model
feature
nervus opticus
layer
nerves
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201711214145.1A
Other languages
English (en)
Inventor
邵婧
闫俊杰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Sensetime Technology Development Co Ltd
Original Assignee
Beijing Sensetime Technology Development Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Sensetime Technology Development Co Ltd filed Critical Beijing Sensetime Technology Development Co Ltd
Priority to CN201711214145.1A priority Critical patent/CN108229534A/zh
Publication of CN108229534A publication Critical patent/CN108229534A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Abstract

本发明实施例公开了一种神经网络模型迁移方法和系统、电子设备、程序和介质,其中,方法包括:分别向至少两个训练好的第一神经网络模型和一待训练的第二神经网络模型输入相同的待处理对象;其中,第二神经网络模型的大小小于每个第一神经网络模型的大小;获取所述至少两个第一神经网络模型的特征层提取的特征与第二神经网络模型的特征层提取的特征之间的第一差异;根据所述至少两个第一神经网络模型的特征层提取的特征与第二神经网络模型的特征层提取的特征之间的第一差异训练所述第二神经网络模型,直至满足训练完成条件。本发明实施例实现了基于多个大神经网络模型对小神经网络模型在输出特征上的共同监督。

Description

神经网络模型迁移方法和系统、电子设备、程序和介质
技术领域
本发明涉及数据处理技术,尤其是一种神经网络模型迁移方法和系统、电子设备、程序和介质。
背景技术
在当今的图像识别任务中的一个普遍共识是在样本数据足够、训练方法恰当、网络模型设计科学的条件下,所使用的网络模型越大、越复杂,往往能够得到越精确的识别结果。虽然网络模型越大、越复杂,识别结果越精确可靠,但是,由于体量庞大、计算复杂的问题,从而使得其在实际应用中会占用大量的存储和计算资源。
发明内容
本发明实施例提供一种用于进行神经网络模型迁移的技术方案。
根据本发明实施例的一个方面,提供一种神经网络模型迁移方法,包括:
分别向至少两个训练好的第一神经网络模型和一待训练的第二神经网络模型输入相同的待处理对象;其中,第二神经网络模型的大小小于每个第一神经网络模型的大小;
获取所述至少两个第一神经网络模型的特征层提取的特征与第二神经网络模型的特征层提取的特征之间的第一差异;
根据所述至少两个第一神经网络模型的特征层提取的特征与第二神经网络模型的特征层提取的特征之间的第一差异训练所述第二神经网络模型,直至满足训练完成条件。
可选地,在本发明上述各方法实施例中,获取所述至少两个第一神经网络模型的特征层提取的特征与第二神经网络模型的特征层提取的特征之间的第一差异;根据所述至少两个第一神经网络模型的特征层提取的特征与第二神经网络模型的特征层提取的特征之间的第一差异训练所述第二神经网络模型,包括:
分别获取所述至少两个第一神经网络模型中至少一相互对应的特征层所提取的特征,并融合所述至少两个第一神经网络模型中至少一相互对应的特征层所提取的特征,获得融合特征;
通过迁移代价函数层,获取所述融合特征与所述第二神经网络模型的对应特征层提取的特征之间的迁移代价函数值,所述第一差异为所述迁移代价函数值;
根据所述迁移代价函数值调整所述第二神经网络模型中所述对应特征层及所述对应特征层之前各网络层的网络参数值。
可选地,在本发明上述各方法实施例中,所述相互对应的特征层和所述对应特征层包括以下至少之一:至少一中间特征层、最后特征层。
可选地,在本发明上述各方法实施例中,分别获取所述至少两个第一神经网络模型中至少一相互对应的特征层所提取的特征,并融合所述至少两个第一神经网络模型中至少一相互对应的特征层所提取的特征,包括:
分别获取所述至少两个第一神经网络模型中最后特征层所提取的特征;
级联所述至少两个第一神经网络模型中最后特征层提取的特征,得到级联特征;所述融合特征包括所述级联特征。
可选地,在本发明上述各方法实施例中,融合所述至少两个第一神经网络模型中至少一相互对应的特征层所提取的特征,获得融合特征,包括:
获取各所述第一神经网络模型中至少一相互对应的特征层所提取的特征的权重系数;
根据所述权重系数,加权级联所述至少两个第一神经网络模型中至少一相互对应的特征层所提取的特征,得到融合特征。
可选地,在本发明上述各方法实施例中,获取所述至少两个第一神经网络模型的特征层提取的特征与第二神经网络模型的特征层提取的特征之间的第一差异,包括:
获取所述融合特征与第二神经网络模型中所述对应特征层之上插入的辅助全连接层提取的特征之间的第一差异;其中,所述辅助全连接层提取的特征的维度与所述融合特征的维度相同;
所述方法还包括:在所述第二神经网络模型训练完成后,去掉所述辅助全连接层。
可选地,在本发明上述各方法实施例中,根据所述迁移代价函数值调整所述第二神经网络模型中所述对应特征层及以下各网络层的网络参数值,包括:
将所述迁移代价函数值在所述第二神经网络模型中反向回传,以调整所述第二神经网络模型的网络参数值。
可选地,在本发明上述各方法实施例中,还包括:
分别获取所述至少两个第一神经网络模型的分类层输出的分类结果、以及所述第二神经网络模型的分类层输出的分类结果;
分别获取每个第一神经网络模型的分类层输出的分类结果与所述第二神经网络模型的分类层输出的分类结果之间的第二差异,得到至少两个第二差异;
根据所述至少两个第一神经网络模型的特征层提取的特征与第二神经网络模型的特征层提取的特征之间的第一差异训练所述第二神经网络模型,包括:
至少根据所述至少两个第一差异和所述至少两个第二差异对所述第二神经网络模型进行网络训练。
可选地,在本发明上述各方法实施例中,第一神经网络模型还包括:
第一神经网络模型获取所述第二神经网络模型的分类层输出的分类结果与所述待处理对象的标注分类结果之间的第三差异;
所述至少根据所述至少两个第一差异和所述至少两个第二差异对所述第二神经网络模型进行网络训练,包括:以所述第一差异作为所述第二神经网络模型的迁移代价函数值,以所述至少两个第二差异和所述第三差异作为所述第二神经网络模型的分类代价函数值,对所述第二神经网络模型进行网络训练。
可选地,在本发明上述各方法实施例中,以所述至少两个第二差异和所述第三差异作为所述第二神经网络模型的分类代价函数值,包括:
分别针对每个第二差异,获取第二差异与该第二差异对应的第一神经网络模型的权重系数的乘积,得到至少两个乘积;
以所述第三差异和所述至少两个乘积之和作为所述第二神经网络模型的分类代价函数值。
可选地,在本发明上述各方法实施例中,以所述第一差异作为所述第二神经网络模型的迁移代价函数值,以所述至少两个第二差异和所述第三差异作为所述第二神经网络模型的分类代价函数值,对所述第二神经网络模型进行网络训练,包括:
根据所述分类代价函数值调整所述第二神经网络模型中所述分类层及以下各网络层的网络参数值,以及根据所述迁移代价函数值调整所述第二神经网络模型的特征层及以下各网络层的网络参数值。
可选地,在本发明上述各方法实施例中,根据所述分类代价函数值调整所述第二神经网络模型中所述分类层及以下各网络层的权重参数值,包括:
将所述分类代价函数值在所述第二神经网络模型反向回传,以调整所述第二神经网络模型的网络参数。
可选地,在本发明上述各方法实施例中,所所述满足预设训练完成条件,包括以下任意一项或多项:
所述第一差异小于第一预设阈值;
所述第二神经网络模型的训练次数达到预设次数。
可选地,在本发明上述各方法实施例中,所所述满足预设训练完成条件,包括以下任意一项或多项:
所述第一差异小于第一预设阈值;
所述第二差异小于第二预设阈值;
所述第二神经网络模型的训练次数达到预设次数。
可选地,在本发明上述各方法实施例中,所述满足预设训练完成条件,包括以下任意一项或多项:
所述第一差异小于第一预设阈值;
所述第二差异小于第二预设阈值;
所述第三差异小于第三预设阈值;
所述第二神经网络模型的训练次数达到预设次数。
根据本发明实施例的另一个方面,提供一种网络模型迁移系统,包括:至少两个训练好的第一神经网络模型和一待训练的第二神经网络模型;其中,所述第二神经网络模型的大小小于每个所述第一神经网络模型的大小;每个所述第一神经网络模型包括至少一个特征层;所述第二神经网络模型包括至少一个特征层;
所述第一神经网络模型,用于接收待处理对象;并输出特征层提取的特征;
所述第二神经网络模型,用于接收所述待处理对象;并输出特征层提取的特征;
第一获取模块,用于获取所述至少两个第一神经网络模型的特征层提取的特征与第二神经网络模型的特征层提取的特征之间的第一差异;
训练模块,用于根据所述至少两个第一神经网络模型的特征层提取的特征与第二神经网络模型的特征层提取的特征之间的第一差异训练所述第二神经网络模型,直至满足训练完成条件。
可选地,在本发明上述各系统实施例中,所述第一获取模块包括:
获取单元,用于分别获取所述至少两个第一神经网络模型中至少一相互对应的特征层所提取的特征,并融合所述至少两个第一神经网络模型中至少一相互对应的特征层所提取的特征,获得融合特征;
迁移代价函数层,用于获取所述融合特征与所述第二神经网络模型的对应特征层提取的特征之间的迁移代价函数值,所述第一差异为所述迁移代价函数值;
所述训练模块,具体用于根据所述迁移代价函数值调整所述第二神经网络模型中所述对应特征层及所述对应特征层之前各网络层的网络参数值,直至满足训练完成条件。
可选地,在本发明上述各系统实施例中,所述相互对应的特征层和所述对应特征层包括以下至少之一:至少一中间特征层、最后特征层。
可选地,在本发明上述各系统实施例中,所述获取单元,具体用于:
分别获取所述至少两个第一神经网络模型中最后特征层所提取的特征;
级联所述至少两个第一神经网络模型中最后特征层提取的特征,得到级联特征;所述融合特征包括所述级联特征。
可选地,在本发明上述各系统实施例中,获取单元融合所述至少两个第一神经网络模型中至少一相互对应的特征层所提取的特征,获得融合特征时,具体用于:
获取各所述第一神经网络模型中至少一相互对应的特征层所提取的特征的权重系数;
根据所述权重系数,加权级联所述至少两个第一神经网络模型中至少一相互对应的特征层所提取的特征,得到融合特征。
可选地,在本发明上述各系统实施例中,所述第二神经网络模型还包括:在所述对应特征层之上插入的辅助全连接层,用于对所述对应特征层提取的特征进行特征提取,所述辅助全连接层在所述第二神经网络模型训练完成后被去掉;
所述迁移代价函数层第一神经网络模型,具体用于:获取所述融合特征与第二神经网络模型中所述辅助全连接层提取的特征之间的第一差异;其中,所述辅助全连接层提取的特征的维度与所述融合特征的维度相同。
可选地,在本发明上述各系统实施例中,所述训练模块,具体用于:将所述迁移代价函数值在所述第二神经网络模型中反向回传,以调整所述第二神经网络模型的网络参数值,直至满足训练完成条件。
可选地,在本发明上述各系统实施例中,每个所述第一神经网络模型还包括分类层;所述第二神经网络模型还包括分类层;
所述系统还包括:
第二获取模块,用于分别获取所述至少两个第一神经网络模型的分类层输出的分类结果、以及所述第二神经网络模型的分类层输出的分类结果;以及分别获取每个第一神经网络模型的分类层输出的分类结果与所述第二神经网络模型的分类层输出的分类结果之间的第二差异,得到至少两个第二差异;
第一神经网络模型所述训练模块,具体用于:至少根据所述至少两个第一差异和所述至少两个第二差异对所述第二神经网络模型进行网络训练,直至满足训练完成条件。
可选地,在本发明上述各系统实施例中,所述第二获取模块,还用于获取所述第二神经网络模型的分类层输出的分类结果与所述待处理对象的标注分类结果之间的第三差异;
所述训练模块,具体用于:以所述第一差异作为所述第二神经网络模型的迁移代价函数值,以所述至少两个第二差异和所述第三差异作为所述第二神经网络模型的分类代价函数值,对所述第二神经网络模型进行网络训练,直至满足训练完成条件。
可选地,在本发明上述各系统实施例中,所述第二获取模块,还用于分别针对每个第二差异,获取第二差异与该第二差异对应的第一神经网络模型的权重系数的乘积,得到至少两个乘积;
所述训练模块,具体用于以所述第三差异和所述至少两个乘积之和作为所述第二神经网络模型的分类代价函数值。
可选地,在本发明上述各系统实施例中,所述训练模块,具体用于:
根据所述分类代价函数值调整所述第二神经网络模型中所述分类层及以下各网络层的网络参数值,以及根据所述迁移代价函数值调整所述第二神经网络模型的特征层及以下各网络层的网络参数值,直至满足训练完成条件。
可选地,在本发明上述各系统实施例中,所述训练模块根据所述分类代价函数值调整所述第二神经网络模型中所述分类层及以下各网络层的权重参数值时,具体用于:将所述分类代价函数值在所述第二神经网络模型反向回传,以调整所述第二神经网络模型的网络参数。
可选地,在本发明上述各系统实施例中,所述满足预设训练完成条件,包括以下任意一项或多项:所述满足预设训练完成条件,包括以下任意一项或多项:
所述第一差异小于第一预设阈值;
所述第二神经网络模型的训练次数达到预设次数。
可选地,在本发明上述各系统实施例中,所述满足预设训练完成条件,包括以下任意一项或多项:
所述第一差异小于第一预设阈值;
所述第二差异小于第二预设阈值;
所述第二神经网络模型的训练次数达到预设次数。
可选地,在本发明上述各系统实施例中,所述满足预设训练完成条件,包括以下任意一项或多项:
所述第一差异小于第一预设阈值;
所述第二差异小于第二预设阈值;
所述第三差异小于第三预设阈值;
所述第二神经网络模型的训练次数达到预设次数。
根据本发明实施例的又一个方面,提供一种电子设备,设置有本发明上述任一实施例所述的神经网络模型迁移系统。
根据本发明实施例的又一个方面,提供另一种电子设备,包括:
处理器和本发明上述任一实施例所述的神经网络模型迁移系统;
在处理器运行所述神经网络模型迁移系统时,本发明上述任一实施例所述的神经网络模型迁移系统中的单元被运行。
根据本发明实施例的又一个方面,提供一种电子设备,包括:处理器和存储器;
所述存储器用于存放至少一可执行指令,所述可执行指令使所述处理器执行如本发明上述任一实施例所述的神经网络模型迁移方法对应的操作。
根据本发明实施例的又一个方面,提供一种计算机程序,包括计算机可读代码,当所述计算机可读代码在设备上运行时,所述设备中的处理器执行用于实现本发明上述任一实施例所述的神经网络模型迁移方法中各步骤的指令。
根据本发明实施例的再一个方面,提供一种计算机可读存储介质,用于存储计算机可读取的指令,所述指令被执行时实现本发明上述任一实施例所述的神经网络模型迁移方法中各步骤的操作。
基于本发明上述实施例提供的神经网络模型迁移方法和系统、电子设备、程序和介质,分别向至少两个训练好的第一神经网络模型和一待训练的第二神经网络模型输入相同的待处理对象;其中,第二神经网络模型的大小小于每个第一神经网络模型的大小;获取至少两个第一神经网络模型的特征层提取的特征与第二神经网络模型的特征层提取的特征之间的第一差异;根据至少两个第一神经网络模型的特征层提取的特征与第二神经网络模型的特征层提取的特征之间的第一差异训练第二神经网络模型,直至满足训练完成条件,从而实现了基于多个大神经网络模型(即:第一神经网络模型)对小神经网络模型(即:第二神经网络模型)在输出特征上的共同监督,使得小神经网络模型输出的特征能够更好的用于人脸识别、图片聚类等更注重神经网络输出特征的任务。相对于大神经网络模型而言,小神经网络模型在设备上运行时所占用的存储和计算资源要节省很多,采用本发明实施例记载的技术方案训练得到的小神经网络模型,可将多个大神经网络的输出特征方面的性能迁移到小神经网络模型中,可以使小神经网络模型在特征输出上取得较好的性能表现,由此提升小神经网络模型的性能。
下面通过附图和实施例,对本发明的技术方案做进一步的详细描述。
附图说明
构成说明书的一部分的附图描述了本发明的实施例,并且连同描述一起用于解释本发明的原理。
参照附图,根据下面的详细描述,可以更加清楚地理解本发明,其中:
图1为本发明神经网络模型迁移方法一个实施例的流程图。
图2为本发明神经网络模型迁移方法另一个实施例的流程图。
图3为本发明神经网络模型迁移方法又一个实施例的流程图。
图4为本发明神经网络模型迁移系统一个实施例的结构示意图。
图5为本发明神经网络模型迁移系统另一个实施例的结构示意图。
图6为基于本发明实施例训练得到的一个第二神经网络模型的结构示意图。
图7为本发明电子设备一个实施例的结构示意图。
具体实施方式
现在将参照附图来详细描述本发明的各种示例性实施例。应注意到:除非另外具体说明,否则在这些实施例中阐述的部件和步骤的相对布置、数字表达式和数值不限制本发明的范围。
同时,应当明白,为了便于描述,附图中所示出的各个部分的尺寸并不是按照实际的比例关系绘制的。
以下对至少一个示例性实施例的描述实际上仅仅是说明性的,决不作为对本发明及其应用或使用的任何限制。
对于相关领域普通技术人员已知的技术、方法和设备可能不作详细讨论,但在适当情况下,所述技术、方法和设备应当被视为说明书的一部分。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步讨论。
本发明实施例可以应用于计算机系统/服务器,其可与众多其它通用或专用计算系统环境或配置一起操作。适于与计算机系统/服务器一起使用的众所周知的计算系统、环境和/或配置的例子包括但不限于:个人计算机系统、服务器计算机系统、瘦客户机、厚客户机、手持或膝上设备、基于微处理器的系统、机顶盒、可编程消费电子产品、网络个人电脑、小型计算机系统﹑大型计算机系统和包括上述任何系统的分布式云计算技术环境,等等。
计算机系统/服务器可以在由计算机系统执行的计算机系统可执行指令(诸如程序模块)的一般语境下描述。通常,程序模块可以包括例程、程序、目标程序、组件、逻辑、数据结构等等,它们执行特定的任务或者实现特定的抽象数据类型。计算机系统/服务器可以在分布式云计算环境中实施,分布式云计算环境中,任务是由通过通信网络链接的远程处理设备执行的。在分布式云计算环境中,程序模块可以位于包括存储设备的本地或远程计算系统存储介质上。
图1为本发明神经网络模型迁移方法一个实施例的流程图。如图1所示,该实施例的神经网络模型迁移方法包括:
102,分别向至少两个训练好的第一神经网络模型和一待训练的第二神经网络模型输入相同的待处理对象。
其中,第二神经网络模型的大小小于每个第一神经网络模型的大小。示例性地,第二神经网络模型的大小小于第一神经网络模型的大小,例如可以是,第二神经网络模型的参数量小于第一神经网络模型的参数量;和/或,第二神经网络模型的网络层数(也称为:网络深度)小于第一神经网络模型的网络层数。因此,第一神经网络模型也可以称为大神经网络模型,可以选用高精度、高鲁棒性的神经网络模型作为本发明实施例的大神经网络模型,第二神经网络模型也可以称为小神经网络模型。
本发明各实施例中,神经网络模型例如可以是卷积神经网络(CNN)模型。
本发明各实施例中,待处理对象例如可以是需要进行处理(例如待分类、待识别等)的图像、语音、文本、音频、视频、音视频等任意对象。
104,获取至少两个第一神经网络模型的特征层提取的特征与第二神经网络模型的特征层提取的特征之间的第一差异。
106,根据至少两个第一神经网络模型的特征层提取的特征与第二神经网络模型的特征层提取的特征之间的第一差异训练第二神经网络模型,迭代执行上述102~106的操作,直至满足训练完成条件,例如第一差异小于第一预设阈值,和/或第二神经网络模型的训练次数达到预设次数。
在本发明各实施例中,对第二神经网络模型进行网络训练的训练方法可以有多种,例如,在其中一个具体示例中,可以采用梯度下降法对第二神经网络模型进行网络训练,调整第二神经网络模型的各网络层的权重参数值(即:网络参数值),该网络训练过程包括前向传播过程和反向传播过程。
基于本发明上述实施例提供的神经网络模型迁移方法,分别向至少两个训练好的第一神经网络模型和一待训练的第二神经网络模型输入相同的待处理对象;其中,第二神经网络模型的大小小于每个第一神经网络模型的大小;获取至少两个第一神经网络模型的特征层提取的特征与第二神经网络模型的特征层提取的特征之间的第一差异;根据至少两个第一神经网络模型的特征层提取的特征与第二神经网络模型的特征层提取的特征之间的第一差异训练第二神经网络模型,直至满足训练完成条件,从而实现了基于多个大神经网络模型(即:第一神经网络模型)对小神经网络模型(即:第二神经网络模型)在输出特征上的共同监督,使得小神经网络模型输出的特征能够更好的用于人脸识别、图片聚类等更注重神经网络输出特征的任务。相对于大神经网络模型而言,小神经网络模型在设备上运行时所占用的存储和计算资源要节省很多,采用本发明实施例记载的技术方案训练得到的小神经网络模型,可将多个大神经网络的输出特征方面的性能迁移到小神经网络模型中,可以使小神经网络模型在特征输出上取得较好的性能表现,由此提升小神经网络模型的性能。
在本发明各神经网络模型迁移方法实施例的一个实施方式中,操作104~106可以包括:
分别获取至少两个第一神经网络模型中至少一相互对应的特征层所提取的特征,并融合至少两个第一神经网络模型中至少一相互对应的特征层所提取的特征,获得融合特征;
通过迁移代价函数层,获取融合特征与第二神经网络模型的对应特征层提取的特征之间的迁移代价函数值,第一差异为迁移代价函数值;
根据迁移代价函数值调整第二神经网络模型中对应特征层及对应特征层之前各网络层的网络参数值。例如,可以将迁移代价函数值在第二神经网络模型中反向回传,以调整该第二神经网络模型的网络参数值
在本发明各实施例中,至少两个第一神经网络模型中至少一相互对应的特征层、第二神经网络模型的对应特征层,是指在上述至少两个第一神经网络模型和第二神经网络模型中,在各自所在模型的所有特征层中相对位置基本对应的特征层,例如,上述相互对应的特征层和对应特征层可以是上述至少两个第一神经网络模型和第二神经网络模型中的底层特征层,或者可以是上述至少两个第一神经网络模型和第二神经网络模型中的至少一中间特征层,还可以是上述至少两个第一神经网络模型和第二神经网络模型中的最后特征层(即:顶层或最高层特征层)。
在本发明各实施例中,各第一神经网络模型和第二神经网络模型可以采用任意具有分类层、或进一步包括特征层的神经网络结构来实现。第一神经网络模型例如可以是LeNet、AlexNet、GoogLeNet、VGG、ResNet等任意神经网络模型,本发明各实施例中的上述至少两个第一神经网络模型可以采用相同的神经网络模型,也可以采用部分相同或者各不相同的神经网络模型,例如,可以上述至少两个第一神经网络模型中的几个第一神经网络模型采用AlexNet,另外一些采用VGG实现。另外,第一神经网络模型与第二神经网络模型可以采用相同的神经网络模型,也可以采用不同的神经网络模型,第一神经网络模型和第二神经网络模型在结构上可以有也可以没有关联。
本发明各实施例中,第一神经网络模型的数量,即选取多少个第一神经网络模型对第二神经网络模型进行网络训练,具体可以根据第一神经网络模型是什么、第一神经网络模型的性能、以及第二神经网络模型的应用场景和第二神经网络的训练目标等决定。
在其中一个可选示例中,融合至少两个第一神经网络模型中至少一相互对应的特征层所提取的特征,获得融合特征,可以包括:
获取各第一神经网络模型中至少一相互对应的特征层所提取的特征的权重系数;
根据权重系数,加权级联至少两个第一神经网络模型中至少一相互对应的特征层所提取的特征,得到融合特征。
基于上述各实施例,在另一个可选示例中,操作104可以包括:获取融合特征与第二神经网络模型中对应特征层之上插入的辅助全连接层提取的特征之间的第一差异;其中,该辅助全连接层提取的特征的维度与融合特征的维度相同。
相应地,该实施例还可以包括:在第二神经网络模型训练完成后,去掉上述辅助全连接层。
图2为本发明神经网络模型迁移方法另一个实施例的流程图。如图2所示,该实施例的神经网络模型迁移方法包括:
202,分别向至少两个训练好的第一神经网络模型和一待训练的第二神经网络模型输入相同的待处理对象。
其中,第二神经网络模型的大小小于每个第一神经网络模型的大小。
204,分别获取至少两个第一神经网络模型中最后特征层所提取的特征。
206,级联至少两个第一神经网络模型中最后特征层提取的特征,得到级联特征,即上述实施例中融合特征。
206,通过迁移代价函数层,获取融合特征与第二神经网络模型的对应特征层提取的特征之间的迁移代价函数值,上述第一差异具体为该迁移代价函数值。
208,根据迁移代价函数值调整第二神经网络模型中对应特征层及对应特征层之前各网络层的网络参数值,迭代执行上述202~206的操作,直至满足训练完成条件。
另外,在本发明神经网络模型迁移方法的又一个实施例中,还可以包括:分别获取至少两个第一神经网络模型的分类层输出的分类结果、以及第二神经网络模型的分类层输出的分类结果。分别获取每个第一神经网络模型的分类层输出的分类结果与第二神经网络模型的分类层输出的分类结果之间的第二差异,得到至少两个第二差异。
相应地,该实施例中,操作106根据至少两个第一神经网络模型的特征层提取的特征与第二神经网络模型的特征层提取的特征之间的第一差异训练第二神经网络模型时,可以包括:至少根据至少两个第一差异和至少两个第二差异对第二神经网络模型进行网络训练。
可选地,在上述实施例中,满足预设训练完成条件,例如可以包括但不限于以下任意一项或多项:第一差异小于第一预设阈值;第二差异小于第二预设阈值;第二神经网络模型的训练次数达到预设次数。
进一步地,在本发明神经网络模型迁移方法的再一个实施例中,还可以包括:获取第二神经网络模型的分类层输出的分类结果与待处理对象的标注分类结果之间的第三差异。
相应地,该实施例中,至少根据至少两个第一差异和至少两个第二差异对第二神经网络模型进行网络训练,可以包括:以第一差异作为第二神经网络模型的迁移代价函数值,以至少两个第二差异和第三差异作为第二神经网络模型的分类代价函数值,对第二神经网络模型进行网络训练。
在其中一个可选实施方式中,以至少两个第二差异和第三差异作为第二神经网络模型的分类代价函数值,可以包括:
分别针对每个第二差异,获取第二差异与该第二差异对应的第一神经网络模型的权重系数的乘积,得到至少两个乘积;
以第三差异和至少两个乘积之和作为第二神经网络模型的分类代价函数值。
例如,可以通过公式:L=L0+∑αi*Li i=1,2...,n,获取第二神经网络模型的分类代价函数值,对第二神经网络模型进行网络训练。其中,n的取值为大于1的整数。
其中,L表示小神经网络模型的分类代价函数,L0表示第二神经网络模型的分类层输出的分类结果与待处理对象的标注分类结果之间的第三差异,Li表示第i个第一神经网络模型的分类层输出的分类结果与第二神经网络模型的分类层输出的分类结果之间的第二差异,αi表示第i个第一神经网络模型的权重系数。
示例性地,本发明各实施例中的分类代价函数例如可以是:softmax损失函数、交叉熵等各种熵函数、支持向量机(Support Vector Machine,SVM)代价函数。
根据分类代价函数的定义,分类损失函数值越小,说明第二神经网络模型的分类结果越接近于第一神经网络模型;否则,分类损失函数值越大,说明第二神经网络模型的分类结果越偏离于第一神经网络模型。
由于用于对第二神经网络模型进行训练的第二神经网络模型的分类代价函数值包括了上述至少两个第一神经网络模型的分类层输出的分类结果与第二神经网络模型的分类层输出的分类结果之间的第二差异,由此,实现了通过多个分类结果精确度高的第一神经网络模型对第二神经网络模型分类结果的监督,从而可以将通过多个分类结果精确度高的第一神经网络模型的分类性能迁移到第二神经网络模型上。
图3为本发明神经网络模型迁移方法又一个实施例的流程图。如图3所示,该实施例的神经网络模型迁移方法包括:
302,分别向至少两个训练好的第一神经网络模型和一待训练的第二神经网络模型输入相同的待处理对象。
其中,第二神经网络模型的大小小于每个第一神经网络模型的大小。
304,分别获取至少两个第一神经网络模型中最后特征层所提取的特征。
306,级联至少两个第一神经网络模型中最后特征层提取的特征,得到级联特征,即上述实施例中融合特征。
308,通过迁移代价函数层,获取融合特征与第二神经网络模型的对应特征层提取的特征之间的迁移代价函数值,第一差异为迁移代价函数值。
310,分别获取至少两个第一神经网络模型的分类层输出的分类结果、以及第二神经网络模型的分类层输出的分类结果。
312,分别获取每个第一神经网络模型的分类层输出的分类结果与第二神经网络模型的分类层输出的分类结果之间的第二差异,得到至少两个第二差异;以及获取第二神经网络模型的分类层输出的分类结果与待处理对象的标注分类结果之间的第三差异。
314,根据分类代价函数值调整第二神经网络模型中分类层及以下各网络层的网络参数值,以及根据迁移代价函数值调整第二神经网络模型的上述对应特征层及以下各网络层的网络参数值。
在其中一个可选示例中,根据分类代价函数值调整第二神经网络模型中分类层及以下各网络层的权重参数值,可以通过如下方式实现:将分类代价函数值在第二神经网络模型反向回传,以调整第二神经网络模型的网络参数。
其中,分类层以下各网络层,即沿前向传播方向该分类层以前的各网络层,例如各特征层。本发明实施例中的特征层例如可以是卷积层、池化层、全连接层等。第二神经网络模型的上述对应特征层以下各网络层,即第二神经网络模型中沿前向传播方向该对应特征层以前的各特征层。
迭代执行上述操作302~314,直至满足训练完成条件。
在本发明各神经网络模型迁移方法实施例的一个可选实施方式中,满足预设训练完成条件,例如可以包括但不限于以下任意一项或多项:第一差异小于第一预设阈值;第二差异小于第二预设阈值;第三差异小于第三预设阈值;第二神经网络模型的训练次数达到预设次数。
图4为本发明神经网络模型迁移系统一个实施例的结构示意图。本发明各实施例的神经网络模型迁移系统可用于实现本发明上述各神经网络模型迁移方法实施例。如图4所示,该实施例的神经网络模型迁移系统包括:至少两个训练好的第一神经网络模型和一待训练的第二神经网络模型。其中,第二神经网络模型的大小小于每个第一神经网络模型的大小。示例性地,第二神经网络模型的大小小于第一神经网络模型的大小,例如可以是,第二神经网络模型的参数量小于第一神经网络模型的参数量;和/或,第二神经网络模型的网络层数(也称为:网络深度)小于第一神经网络模型的网络层数。因此,第一神经网络模型也可以称为大神经网络模型,可以选用高精度、高鲁棒性的神经网络模型作为本发明实施例的大神经网络模型,第二神经网络模型也可以称为小神经网络模型。本发明各实施例中,神经网络模型例如可以是卷积神经网络(CNN)模型。
其中,每个第一神经网络模型包括至少一个特征层,第二神经网络模型包括至少一个特征层。
第一神经网络模型,用于接收待处理对象,并输出特征层提取的特征。
第二神经网络模型,用于接收待处理对象,并输出特征层提取的特征。
第一获取模块,用于获取上述至少两个第一神经网络模型的特征层提取的特征与第二神经网络模型的特征层提取的特征之间的第一差异。
训练模块,用于根据上述至少两个第一神经网络模型的特征层提取的特征与第二神经网络模型的特征层提取的特征之间的第一差异训练第二神经网络模型,直至满足训练完成条件,例如,第一差异小于第一预设阈值,和/或第二神经网络模型的训练次数达到预设次数。
基于本发明上述实施例提供的神经网络模型迁移系统,分别向至少两个训练好的第一神经网络模型和一待训练的第二神经网络模型输入相同的待处理对象;其中,第二神经网络模型的大小小于每个第一神经网络模型的大小;获取至少两个第一神经网络模型的特征层提取的特征与第二神经网络模型的特征层提取的特征之间的第一差异;根据至少两个第一神经网络模型的特征层提取的特征与第二神经网络模型的特征层提取的特征之间的第一差异训练第二神经网络模型,直至满足训练完成条件,从而实现了基于多个大神经网络模型(即:第一神经网络模型)对小神经网络模型(即:第二神经网络模型)在输出特征上的共同监督,使得小神经网络模型输出的特征能够更好的用于人脸识别、图片聚类等更注重神经网络输出特征的任务。相对于大神经网络模型而言,小神经网络模型在设备上运行时所占用的存储和计算资源要节省很多,采用本发明实施例记载的技术方案训练得到的小神经网络模型,可将多个大神经网络的输出特征方面的性能迁移到小神经网络模型中,可以使小神经网络模型在特征输出上取得较好的性能表现,由此提升小神经网络模型的性能。
在本发明神各经网络模型迁移系统实施例的一个实施方式中,第一获取模块可以包括:获取单元和迁移代价函数层。其中:
获取单元,用于分别获取上述至少两个第一神经网络模型中至少一相互对应的特征层所提取的特征,并融合上述至少两个第一神经网络模型中至少一相互对应的特征层所提取的特征,获得融合特征。
迁移代价函数层,用于获取上述融合特征与第二神经网络模型的对应特征层提取的特征之间的迁移代价函数值,该实施例中,上述第一差异具体为迁移代价函数值。
相应地,该实施例中,训练模块具体用于根据上述迁移代价函数值调整第二神经网络模型中对应特征层及对应特征层之前各网络层的网络参数值,直至满足训练完成条件。
示例性地,相互对应的特征层和对应特征层例如可以包括但不限于以下至少之一:至少一中间特征层、最后特征层。
在其中一个可选实施方式中,获取单元,具体用于:分别获取至少两个第一神经网络模型中最后特征层所提取的特征;以及级联至少两个第一神经网络模型中最后特征层提取的特征,得到级联特征;融合特征包括级联特征。
在另一个可选实施方式中,获取单元融合至少两个第一神经网络模型中至少一相互对应的特征层所提取的特征,获得融合特征时,具体用于:获取各第一神经网络模型中至少一相互对应的特征层所提取的特征的权重系数;以及根据权重系数,加权级联至少两个第一神经网络模型中至少一相互对应的特征层所提取的特征,得到融合特征。
图5为本发明神经网络模型迁移系统另一个实施例的结构示意图。如图5所示,与图4所示的实施例相比,该实施例的神经网络模型迁移系统中,第二神经网络模型还可以包括:在对应特征层之上插入的辅助全连接层,用于对该第二神经网络模型中上述对应特征层提取的特征进行特征提取,该辅助全连接层在第二神经网络模型训练完成后被去掉。
相应地,该实施例中,迁移代价函数层具体用于:获取融合特征与第二神经网络模型中辅助全连接层提取的特征之间的第一差异;其中,该辅助全连接层提取的特征的维度与融合特征的维度相同。
在本发明神各经网络模型迁移系统实施例的一个实施方式中,训练模块具体用于:将迁移代价函数值在第二神经网络模型中反向回传,以调整第二神经网络模型的网络参数值,直至满足训练完成条件。
另外,在本发明上述各神经网络模型迁移系统的又一个实施例中,每个第一神经网络模型还包括分类层;第二神经网络模型还包括分类层。再参见图5,该实施例的神经网络模型迁移系统还包括:第二获取模块,用于分别获取上述至少两个第一神经网络模型的分类层输出的分类结果、以及第二神经网络模型的分类层输出的分类结果;以及分别获取每个第一神经网络模型的分类层输出的分类结果与第二神经网络模型的分类层输出的分类结果之间的第二差异,得到至少两个第二差异。
相应地,该实施例中,训练模块具体用于至少根据上述至少两个第一差异和至少两个第二差异对第二神经网络模型进行网络训练,直至满足训练完成条件。
示例性地,满足预设训练完成条件,例如可以包括但不限于以下任意一项或多项:第一差异小于第一预设阈值;第二差异小于第二预设阈值;第二神经网络模型的训练次数达到预设次数。
另外,在进一步可选实施例中,第二获取模块还可用于获取第二神经网络模型的分类层输出的分类结果与待处理对象的标注分类结果之间的第三差异。相应地,训练模块具体用于:以第一差异作为第二神经网络模型的迁移代价函数值,以至少两个第二差异和第三差异作为第二神经网络模型的分类代价函数值,对第二神经网络模型进行网络训练,直至满足训练完成条件。
另外,在进一步可选实施例中,第二获取模块还可用于分别针对每个第二差异,获取该第二差异与该第二差异对应的第一神经网络模型的权重系数的乘积,得到至少两个乘积。相应地,该实施例中,训练模块具体用于以上述第三差异和该至少两个乘积之和作为第二神经网络模型的分类代价函数值。
在本发明上述各神经网络模型迁移系统的实施例的一个可选实施方式中,练模块具体用于:根据分类代价函数值调整第二神经网络模型中分类层及以下各网络层的网络参数值,以及根据迁移代价函数值调整第二神经网络模型的特征层及以下各网络层的网络参数值,直至满足训练完成条件。
示例性地,训练模块根据分类代价函数值调整第二神经网络模型中分类层及以下各网络层的权重参数值时,具体用于将分类代价函数值在第二神经网络模型反向回传,以调整第二神经网络模型的网络参数。
图6为基于本发明实施例训练得到的一个第二神经网络模型的结构示意图。该示例性实施例中,第二神经网络网络模型包括两个特征层和一个分类层,其中的特征层可以是卷积层、池化层等。另外,本领域技术人员知悉,第二神经网络网络模型可以包括其他多个特征层,还可以包括其他网络层,此处不再赘述。
在本发明各神经网络模型迁移系统实施例的一个可选实施方式中,满足预设训练完成条件,包括以下任意一项或多项:第一差异小于第一预设阈值;第二差异小于第二预设阈值;第三差异小于第三预设阈值;第二神经网络模型的训练次数达到预设次数。
另外,本发明实施例还提供了一种电子设备,设置有本发明上述任一实施例的神经网络模型迁移系统。
另外,本发明实施例还提供了另一种电子设备,包括:
处理器和本发明上述任一实施例的神经网络模型迁移系统;
在处理器运行上述神经网络模型迁移系统时,本发明上述任一实施例的神经网络模型迁移系统中的单元被运行。
另外,本发明实施例还提供了又一种电子设备,包括:处理器和存储器;
所述存储器用于存放至少一可执行指令,所述可执行指令使所述处理器执行本发明上述任一实施例的神经网络模型迁移方法对应的操作。
本发明实施例中的电子设备,例如可以是移动终端、个人计算机(PC)、平板电脑、服务器等。
图7为本发明电子设备一个实施例的结构示意图。如图7所示,用于实现本发明实施例的电子设备包括中央处理单元(CPU)或者图形处理单元(GPU),其可以根据存储在只读存储器(ROM)中的可执行指令或者从存储部分加载到随机访问存储器(RAM)中的可执行指令而执行各种适当的动作和处理。中央处理单元或者图形处理单元可与只读存储器和/或随机访问存储器中通信以执行可执行指令从而完成本发明实施例提供的神经网络模型迁移方法对应的操作,例如:分别向至少两个训练好的第一神经网络模型和一待训练的第二神经网络模型输入相同的待处理对象;其中,第二神经网络模型的大小小于每个第一神经网络模型的大小;获取所述至少两个第一神经网络模型的特征层提取的特征与第二神经网络模型的特征层提取的特征之间的第一差异;根据所述至少两个第一神经网络模型的特征层提取的特征与第二神经网络模型的特征层提取的特征之间的第一差异训练所述第二神经网络模型,直至满足训练完成条件。
此外,在RAM中,还可存储有系统操作所需的各种程序和数据。CPU、GPU、ROM以及RAM通过总线彼此相连。输入/输出(I/O)接口也连接至总线。
以下部件连接至I/O接口:包括键盘、鼠标等的输入部分;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分;包括硬盘等的存储部分;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分。通信部分经由诸如因特网的网络执行通信处理。驱动器也根据需要连接至I/O接口。可拆卸介质,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器上,以便于从其上读出的计算机程序根据需要被安装入存储部分。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括有形地包含在机器可读介质上的计算机程序,计算机程序包含用于执行流程图所示的方法的程序代码,所述程序代码可包括对应执行本发明实施例提供的任一项神经网络模型迁移方法步骤对应的指令,例如,分别向至少两个训练好的第一神经网络模型和一待训练的第二神经网络模型输入相同的待处理对象的指令;其中,第二神经网络模型的大小小于每个第一神经网络模型的大小;获取所述至少两个第一神经网络模型的特征层提取的特征与第二神经网络模型的特征层提取的特征之间的第一差异的指令;根据所述至少两个第一神经网络模型的特征层提取的特征与第二神经网络模型的特征层提取的特征之间的第一差异训练所述第二神经网络模型的指令,直至满足训练完成条件。该计算机程序可以通过通信部分从网络上被下载和安装,和/或从可拆卸介质被安装。在该计算机程序被中央处理单元(CPU)或图形处理单元(GPU)执行时,执行本发明的方法中限定的上述功能。
另外,本发明实施例还提供了一种计算机程序,包括计算机可读代码,当该计算机可读代码在设备上运行时,所述设备中的处理器执行用于实现本发明上述任一实施例的神经网络模型迁移方法中各步骤的指令。
另外,本发明实施例还提供了一种计算机可读存储介质,用于存储计算机可读取的指令,所述指令被执行时实现本发明上述任一实施例的神经网络模型迁移方法中各步骤的操作。
本说明书中各个实施例均采用递进的方式描述,每个实施例重点说明的都是与其它实施例的不同之处,各个实施例之间相同或相似的部分相互参见即可。对于系统、装置、设备实施例而言,由于其与方法实施例基本对应,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
可能以许多方式来实现本发明的方法、系统、装置和设备。例如,可通过软件、硬件、固件或者软件、硬件、固件的任何组合来实现本发明的方法、系统、装置和设备。用于所述方法的步骤的上述顺序仅是为了进行说明,本发明的方法的步骤不限于以上具体描述的顺序,除非以其它方式特别说明。此外,在一些实施例中,还可将本发明实施为记录在记录介质中的程序,这些程序包括用于实现根据本发明的方法的机器可读指令。因而,本发明还覆盖存储用于执行根据本发明的方法的程序的记录介质。
本说明书中各个实施例均采用递进的方式描述,每个实施例重点说明的都是与其它实施例的不同之处,各个实施例之间相同或相似的部分相互参见即可。对于系统实施例而言,由于其与方法实施例基本对应,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
可能以许多方式来实现本发明的方法和装置。例如,可通过软件、硬件、固件或者软件、硬件、固件的任何组合来实现本发明的方法和装置。用于所述方法的步骤的上述顺序仅是为了进行说明,本发明的方法的步骤不限于以上具体描述的顺序,除非以其它方式特别说明。此外,在一些实施例中,还可将本发明实施为记录在记录介质中的程序,这些程序包括用于实现根据本发明的方法的机器可读指令。因而,本发明还覆盖存储用于执行根据本发明的方法的程序的记录介质。
本发明的描述是为了示例和描述起见而给出的,而并不是无遗漏的或者将本发明限于所公开的形式。很多修改和变化对于本领域的普通技术人员而言是显然的。选择和描述实施例是为了更好说明本发明的原理和实际应用,并且使本领域的普通技术人员能够理解本发明从而设计适于特定用途的带有各种修改的各种实施例。

Claims (10)

1.一种神经网络模型迁移方法,其特征在于,包括:
分别向至少两个训练好的第一神经网络模型和一待训练的第二神经网络模型输入相同的待处理对象;其中,第二神经网络模型的大小小于每个第一神经网络模型的大小;
获取所述至少两个第一神经网络模型的特征层提取的特征与第二神经网络模型的特征层提取的特征之间的第一差异;
根据所述至少两个第一神经网络模型的特征层提取的特征与第二神经网络模型的特征层提取的特征之间的第一差异训练所述第二神经网络模型,直至满足训练完成条件。
2.根据权利要求1所述的方法,其特征在于,获取所述至少两个第一神经网络模型的特征层提取的特征与第二神经网络模型的特征层提取的特征之间的第一差异;根据所述至少两个第一神经网络模型的特征层提取的特征与第二神经网络模型的特征层提取的特征之间的第一差异训练所述第二神经网络模型,包括:
分别获取所述至少两个第一神经网络模型中至少一相互对应的特征层所提取的特征,并融合所述至少两个第一神经网络模型中至少一相互对应的特征层所提取的特征,获得融合特征;
通过迁移代价函数层,获取所述融合特征与所述第二神经网络模型的对应特征层提取的特征之间的迁移代价函数值,所述第一差异为所述迁移代价函数值;
根据所述迁移代价函数值调整所述第二神经网络模型中所述对应特征层及所述对应特征层之前各网络层的网络参数值。
3.根据权利要求2所述的方法,其特征在于,所述相互对应的特征层和所述对应特征层包括以下至少之一:至少一中间特征层、最后特征层。
4.根据权利要求3所述的方法,其特征在于,分别获取所述至少两个第一神经网络模型中至少一相互对应的特征层所提取的特征,并融合所述至少两个第一神经网络模型中至少一相互对应的特征层所提取的特征,包括:
分别获取所述至少两个第一神经网络模型中最后特征层所提取的特征;
级联所述至少两个第一神经网络模型中最后特征层提取的特征,得到级联特征;所述融合特征包括所述级联特征。
5.一种神经网络模型迁移系统,其特征在于,包括:至少两个训练好的第一神经网络模型和一待训练的第二神经网络模型;其中,所述第二神经网络模型的大小小于每个所述第一神经网络模型的大小;每个所述第一神经网络模型包括至少一个特征层;所述第二神经网络模型包括至少一个特征层;
所述第一神经网络模型,用于接收待处理对象;并输出特征层提取的特征;
所述第二神经网络模型,用于接收所述待处理对象;并输出特征层提取的特征;
第一获取模块,用于获取所述至少两个第一神经网络模型的特征层提取的特征与第二神经网络模型的特征层提取的特征之间的第一差异;
训练模块,用于根据所述至少两个第一神经网络模型的特征层提取的特征与第二神经网络模型的特征层提取的特征之间的第一差异训练所述第二神经网络模型,直至满足训练完成条件。
6.一种电子设备,其特征在于,设置有权利要求5所述的神经网络模型迁移系统。
7.一种电子设备,其特征在于,包括:
处理器和权利要求5所述的神经网络模型迁移系统;
在处理器运行所述神经网络模型迁移系统时,权利要求5所述的神经网络模型迁移系统中的单元被运行。
8.一种电子设备,其特征在于,包括:处理器和存储器;
所述存储器用于存放至少一可执行指令,所述可执行指令使所述处理器执行如权利要求1至4任意一项所述的神经网络模型迁移方法对应的操作。
9.一种计算机程序,包括计算机可读代码,其特征在于,当所述计算机可读代码在设备上运行时,所述设备中的处理器执行用于实现权利要求1至4任意一项所述的神经网络模型迁移方法中各步骤的指令。
10.一种计算机可读存储介质,用于存储计算机可读取的指令,其特征在于,所述指令被执行时实现权利要求1至4任意一项所述的神经网络模型迁移方法中各步骤的操作。
CN201711214145.1A 2017-11-28 2017-11-28 神经网络模型迁移方法和系统、电子设备、程序和介质 Pending CN108229534A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201711214145.1A CN108229534A (zh) 2017-11-28 2017-11-28 神经网络模型迁移方法和系统、电子设备、程序和介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201711214145.1A CN108229534A (zh) 2017-11-28 2017-11-28 神经网络模型迁移方法和系统、电子设备、程序和介质

Publications (1)

Publication Number Publication Date
CN108229534A true CN108229534A (zh) 2018-06-29

Family

ID=62652977

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201711214145.1A Pending CN108229534A (zh) 2017-11-28 2017-11-28 神经网络模型迁移方法和系统、电子设备、程序和介质

Country Status (1)

Country Link
CN (1) CN108229534A (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109241988A (zh) * 2018-07-16 2019-01-18 北京市商汤科技开发有限公司 特征提取方法和装置、电子设备、存储介质、程序产品
CN109886073A (zh) * 2018-12-26 2019-06-14 深圳云天励飞技术有限公司 一种图像检测方法及装置
CN110047076A (zh) * 2019-03-29 2019-07-23 腾讯科技(深圳)有限公司 一种图像信息的处理方法、装置及存储介质
CN110837846A (zh) * 2019-10-12 2020-02-25 深圳力维智联技术有限公司 一种图像识别模型的构建方法、图像识别方法及装置
WO2020062262A1 (en) * 2018-09-30 2020-04-02 Shanghai United Imaging Healthcare Co., Ltd. Systems and methods for generating a neural network model for image processing
WO2020062004A1 (zh) * 2018-09-28 2020-04-02 深圳百诺国际生命科技有限公司 一种神经网络及其训练方法
CN111783898A (zh) * 2020-07-09 2020-10-16 腾讯科技(深圳)有限公司 图像识别模型的训练、图像识别方法、装置及设备
US11810340B2 (en) * 2017-11-29 2023-11-07 International Business Machines Corporation System and method for consensus-based representation and error checking for neural networks

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11810340B2 (en) * 2017-11-29 2023-11-07 International Business Machines Corporation System and method for consensus-based representation and error checking for neural networks
CN109241988A (zh) * 2018-07-16 2019-01-18 北京市商汤科技开发有限公司 特征提取方法和装置、电子设备、存储介质、程序产品
WO2020062004A1 (zh) * 2018-09-28 2020-04-02 深圳百诺国际生命科技有限公司 一种神经网络及其训练方法
WO2020062262A1 (en) * 2018-09-30 2020-04-02 Shanghai United Imaging Healthcare Co., Ltd. Systems and methods for generating a neural network model for image processing
US11599796B2 (en) 2018-09-30 2023-03-07 Shanghai United Imaging Healthcare Co., Ltd. Systems and methods for generating a neural network model for image processing
US11907852B2 (en) 2018-09-30 2024-02-20 Shanghai United Imaging Healthcare Co., Ltd. Systems and methods for generating a neural network model for image processing
CN109886073A (zh) * 2018-12-26 2019-06-14 深圳云天励飞技术有限公司 一种图像检测方法及装置
CN110047076A (zh) * 2019-03-29 2019-07-23 腾讯科技(深圳)有限公司 一种图像信息的处理方法、装置及存储介质
CN110047076B (zh) * 2019-03-29 2021-03-23 腾讯科技(深圳)有限公司 一种图像信息的处理方法、装置及存储介质
CN110837846A (zh) * 2019-10-12 2020-02-25 深圳力维智联技术有限公司 一种图像识别模型的构建方法、图像识别方法及装置
CN110837846B (zh) * 2019-10-12 2023-10-31 深圳力维智联技术有限公司 一种图像识别模型的构建方法、图像识别方法及装置
CN111783898A (zh) * 2020-07-09 2020-10-16 腾讯科技(深圳)有限公司 图像识别模型的训练、图像识别方法、装置及设备

Similar Documents

Publication Publication Date Title
CN108229534A (zh) 神经网络模型迁移方法和系统、电子设备、程序和介质
Muresan et al. Fruit recognition from images using deep learning
JP6944548B2 (ja) 自動コード生成
CN106599789B (zh) 视频类别识别方法和装置、数据处理装置和电子设备
CN108229651A (zh) 神经网络模型迁移方法和系统、电子设备、程序和介质
Jia et al. Caffe: Convolutional architecture for fast feature embedding
US20190130285A1 (en) Artificial intelligence system for real-time visual feedback-based refinement of query results
CN108229652A (zh) 神经网络模型迁移方法和系统、电子设备、程序和介质
CN108229303A (zh) 检测识别和检测识别网络的训练方法及装置、设备、介质
CN108229478A (zh) 图像语义分割及训练方法和装置、电子设备、存储介质和程序
CN108351984A (zh) 硬件高效的深度卷积神经网络
CN108830288A (zh) 图像处理方法、神经网络的训练方法、装置、设备及介质
CN111476708B (zh) 模型生成方法、模型获取方法、装置、设备及存储介质
Kumar et al. Three-dimensional sign language recognition with angular velocity maps and connived feature resnet
Turpin et al. Grasp’d: Differentiable contact-rich grasp synthesis for multi-fingered hands
CN113792881B (zh) 模型训练方法及装置、电子设备和介质
CN108229496A (zh) 服饰关键点的检测方法和装置、电子设备、存储介质和程序
Zhang et al. Intelligent Chinese calligraphy beautification from handwritten characters for robotic writing
Dave et al. Simulation of analytical chemistry experiments on augmented reality platform
Quanz et al. Machine learning based co-creative design framework
CN103927530A (zh) 一种最终分类器的获得方法及应用方法、系统
Karthikeyan Machine learning projects for mobile applications: build android and IOS applications using tensorflow lite and core ML
CN108830139A (zh) 人体关键点的深度前后关系预测方法、装置、介质及设备
CN108509876A (zh) 针对视频的物体检测方法、装置、设备、存储介质及程序
KR102549937B1 (ko) Sns 텍스트 기반의 사용자의 인테리어 스타일 분석 모델 제공 장치 및 방법

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20180629

RJ01 Rejection of invention patent application after publication