CN112329732A - 模型生成方法、装置、电子设备及存储介质 - Google Patents
模型生成方法、装置、电子设备及存储介质 Download PDFInfo
- Publication number
- CN112329732A CN112329732A CN202011371939.0A CN202011371939A CN112329732A CN 112329732 A CN112329732 A CN 112329732A CN 202011371939 A CN202011371939 A CN 202011371939A CN 112329732 A CN112329732 A CN 112329732A
- Authority
- CN
- China
- Prior art keywords
- model
- image
- preset
- recognition
- output
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000000034 method Methods 0.000 title claims abstract description 45
- 230000006870 function Effects 0.000 claims abstract description 73
- 238000012549 training Methods 0.000 claims abstract description 65
- 230000015654 memory Effects 0.000 claims description 19
- 238000004364 calculation method Methods 0.000 claims description 8
- 238000013473 artificial intelligence Methods 0.000 abstract description 2
- 238000013135 deep learning Methods 0.000 abstract description 2
- 238000012545 processing Methods 0.000 description 12
- 230000008569 process Effects 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 238000004891 communication Methods 0.000 description 4
- 238000004590 computer program Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 210000000697 sensory organ Anatomy 0.000 description 1
- 238000012163 sequencing technique Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- Human Computer Interaction (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
Abstract
本公开公开了模型生成方法、装置、电子设备及存储介质,涉及计算机视觉、深度学习等人工智能领域。具体实现方案为:将N种场景类型的图像分别输入对应的N个识别模型,得到所述N个识别模型分别输出的特征;将所述N种场景类型的图像输入预设模型,得到所述预设模型输出的预测特征;其中N为大于等于2的整数;基于所述N个识别模型分别输出的特征、与所述预设模型输出的所述预测特征,计算得到总损失函数;基于所述总损失函数对所述预设模型进行训练得到训练后的所述预设模型,将所述训练后的所述预设模型作为目标模型。
Description
技术领域
本公开涉及计算机技术领域。本公开尤其涉及计算机视觉、深度学习等人工智能领域。
背景技术
现有的识别技术,尤其是人脸识别技术可以采用识别模型来实现。然而在不同场景下人脸特征差异可能会很大,因此需要在不同的场景类型采用不同的识别模型来进行识别。但是,这样就需要针对不同的场景类型采用不同的训练数据进行模型的训练,如此导致了识别模型的场景适应性较差。
发明内容
本公开提供了一种模型生成方法、装置、电子设备及存储介质。
根据本公开的一方面,提供了一种模型生成方法,包括:
将N种场景类型的图像分别输入对应的N个识别模型,得到所述N个识别模型分别输出的特征;将所述N种场景类型的图像输入预设模型,得到所述预设模型输出的预测特征;其中N为大于等于2的整数;
基于所述N个识别模型分别输出的特征、与所述预设模型输出的所述预测特征,计算得到总损失函数;
基于所述总损失函数对所述预设模型进行训练得到训练后的所述预设模型,将所述训练后的所述预设模型作为目标模型。
根据本公开的另一方面,提供了一种模型生成装置,包括:
特征获取模块,用于将N种场景类型的图像分别输入对应的N个识别模型,得到所述N个识别模型分别输出的特征;以及将所述N种场景类型的图像输入预设模型,得到所述预设模型输出的预测特征;其中N为大于等于2的整数;
损失函数确定模块,用于基于所述N个识别模型分别输出的特征、与所述预设模型输出的所述预测特征,计算得到总损失函数;
第一模型训练模块,用于基于所述总损失函数对所述预设模型进行训练得到训练后的所述预设模型,将所述训练后的所述预设模型作为目标模型。
根据本公开的一方面,提供了一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行前述方法。
根据本公开的一方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,所述计算机指令用于使所述计算机执行前述方法。
根据本公开的技术,将N种场景类型的图像分别输入对应的N个识别模型得到N个特征,并将所述N种场景类型的图像输入预设模型得到预测特征,进而基于N个特征以及预测特征计算损失函数,对预设模型进行训练,得到训练后的预设模型作为目标模型。如此可以基于多种场景类型的多个识别模型对预设模型进行训练,使得最终训练得到的目标模型可以具备对N种场景类型的图像的识别能力,从而保证了目标模型可以适用于多种场景类型的图像识别,保证了目标模型的泛化性。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本公开的限定。其中:
图1是根据本公开实施例的模型生成方法流程示意图一;
图2是根据本公开实施例的模型生成方法流程示意图二;
图3是根据本公开实施例的模型生成装置组成结构示意图一;
图4是根据本公开实施例的模型生成装置组成结构示意图二;
图5是用来实现本公开实施例的模型生成方法的电子设备的框图。
具体实施方式
以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
本公开的第一实施例提供了一种模型生成方法,如图1所示,包括:
S101:将N种场景类型的图像分别输入对应的N个识别模型,得到所述N个识别模型分别输出的特征;将所述N种场景类型的图像输入预设模型,得到所述预设模型输出的预测特征;其中N为大于等于2的整数;
S102:基于所述N个识别模型分别输出的特征、与所述预设模型输出的所述预测特征,计算得到总损失函数;
S103:基于所述总损失函数对所述预设模型进行训练得到训练后的预设模型,将所述训练后的所述预设模型作为目标模型。
本实施例可以应用于电子设备,所述电子设备可以为服务器或终端设备。
需要指出的是,上述S101中将N种场景类型的图像分别输入对应的N个识别模型,得到所述N个识别模型分别输出的特征;以及将所述N种场景类型的图像输入预设模型,得到所述预设模型输出的预测特征的执行顺序可以不分先后。比如,可以先将N种场景类型的图像分别输入对应的N个识别模型,得到所述N个识别模型分别输出的特征,再将所述N种场景类型的图像输入预设模型,得到所述预设模型输出的预测特征;或者,可以先将所述N种场景类型的图像输入预设模型,得到所述预设模型输出的预测特征,再将N种场景类型的图像分别输入对应的N个识别模型,得到所述N个识别模型分别输出的特征;又或者,将N种场景类型的图像分别输入对应的N个识别模型,得到所述N个识别模型分别输出的特征;以及将所述N种场景类型的图像输入预设模型,得到所述预设模型输出的预测特征可以同时执行。
上述N种场景类型的数量可以根据实际情况进行设置,比如N=2,即为2种场景类型,具体可以分别为证件照场景类型、生活照场景类型。另外,场景类型的名称也不一定采用“证件照”场景类型或“生活照”场景类型来划分,可以仅采用场景类型的编号来进行区分,比如,场景类型1、场景类型2等等。需要理解,上述N可以为3或更多,比如可以是场景类型1、场景类型2以及场景类型3,只是本实施例不进行穷举。
相应的,所述N种场景类型的图像可以为N种场景类型下采集的图像。同样以2种场景类型分别为证件照场景类型、生活照场景类型为例进行说明,证件照场景类型的图像,可以为基于证件照要求采集的某一个用户的证件照图像,生活照场景类型的图像则可以为在任意一种生活场景类型中采集的某一个用户的生活照图像。上述证件照要求或条件可以指的是一种或多种证件照的要求或条件,比如,签证照的要求可以包括白底、免冠、五官无遮挡等等,还有符合其他证件照要求的图像均为本实施例的证件照场景类型的图像。生活照图像可以指的是居家场景类型下的图像、婚纱照、旅游场景类型下的照片等等。
所述N个识别模型指的是分别用于识别N种场景类型的图像的N个识别模型。
举例来说,同样以2种场景类型分别为证件照场景类型、生活照场景类型为例进行说明,可以有两种场景类型分别对应的两个识别模型,分别是第一个识别模型,为用于识别生活照场景类型的图像的识别模型;第二个识别模型,为用于识别证件照场景类型的图像的识别模型。
训练的处理中,将N种场景类型的图像分别输入对应的N个识别模型,可以是依次将每一种场景类型的图像输入到该类别所对应的识别模型中,得到该类别所对应的识别模型输出的特征;或者,可以是将N类图像并行的分别输入到对应类别的识别模型中,并行的得到每一个类别的识别模型分别输出的特征。
输入到预设模型的图像为图像组,即输入到所述N个识别模型的N张图像进行组合然后将组合后的图像组输入到预设模型,得到预设模型输出的预测特征。
进而基于预设模型的预测特征以及N个识别模型输出的特征进行损失函数的计算,基于计算得到的损失函数反向传导对预设模型进行训练,最终得到训练后的预设模型,该训练后的预设模型为本申请得到的目标模型。
本实施例将上述N种场景类型分别对应的N个识别模型作为教师模型,预设模型为学生模型进行训练,最终得到训练后的预设模型,将该训练后的预设模型作为目标模型。
上述方案中,将N种场景类型的图像分别输入对应的N个识别模型得到N个特征,并将所述N种场景类型的图像输入预设模型得到预测特征,进而基于N个特征以及预测特征计算损失函数,对预设模型进行训练,得到训练后的预设模型作为目标模型。如此可以基于多种场景类型的多个识别模型对预设模型进行训练,使得最终训练得到的目标模型可以具备对N种场景类型的图像的识别能力,从而保证了目标模型可以适用于多种场景类型的图像识别,保证了目标模型的泛化性。
所述将N种场景类型的图像分别输入N种场景类型分别对应的N个识别模型,得到所述N个识别模型分别输出的特征,包括:将所述N种场景类型中的第i种场景类型的图像输入对应的第i个识别模型,得到所述第i个识别模型输出的特征;其中,所述i为大于等于1且小于等于N的整数;
所述将所述N种场景类型的图像输入预设模型,得到所述预设模型输出的预测特征,包括:基于所述N种场景类型的图像生成图像组,将所述图像组输入所述预设模型得到所述预设模型输出的针对所述图像组的预测特征。
在针对预设模型的一次训练中,需要对N种场景类型的N张图片均采用对应的N个识别模型进行特征识别,其处理具体,可以是依次将不同场景类型下的图像输入到不同场景类型所对应的识别模型中,得到每一个识别模型输出的特征。又或者,可以同时将不同场景类型下的图像输入到不同场景类型所对应的识别模型中,得到每一个识别模型输出的特征。
上述处理中,每一种场景类型的识别模型的处理为:将N种场景类型中的第i种场景类型的图像输入到第i种场景类型所对应的识别模型,得到所述第i种场景类型所对应的识别模型输出的特征。也就是第i种场景类型对应的识别模型为N种场景类型对应的识别模型中的任意之一。
每一种场景类型的识别模型输出的特征的维度可以为128维,也就是输出128维的特征。
在将每一个场景类型所对应的图像分别输入到对应的场景类型下的识别模型的同时,还可以将全部N种场景类型的N张图像组成图像组,将该图像组输入到预设模型,得到所述预设模型输出的预测特征。
本实施例中每次训练预设模型使用的图像并不是一张,而是N张,即N个场景类别分别选取一张图像进行本次预设模型的训练。其中,一次预设模型的训练中,将N种场景类型中不同场景类型的图像在对应的识别模型得到其对应的特征,并且,N种场景类型的N张图片组成一个图像组输入预设模型,得到对应的预测特征,进而进行预设模型的本次训练。这里,在不同次训练预设模型的处理中,可以采用相同的N张图像,或者可以采用部分不同的N张图像,又或者,可以采用均不相同的N张图像。
需要理解的是,预设模型输出的预测特征可以是针对图像组中每一个图像的子预测特征;即预设模型输出的预测特征包含有图像组中的N张图片的每一个图片所对应的子预测特征。每一个子预测特征的维度数量与每一个识别模型的特征维度数量相同,比如,均为128维的特征。
具体来说,假设输入预设模型的为两张图像组成的图像组,其中一个为生活照另一个为证件照;则预设模型可以分别得到生活照所对应的子预测特征,以及证件照所对应的子预测特征。
这样,在对预设模型进行训练的处理中,采用N种场景类型中每一种场景类型分别对应的识别模型对同场景类型的图像进行特征识别,得到对应的特征,并基于预设模型对N种场景类型对应的全部N个图像进行识别得到对应的预测特征。如此,由于采用相同的N个场景类型下的相同的图像分别得到N个识别模型以及预设模型的特征输出,从而可以准确的得到预设模型与N个识别模型的输出之间的损失函数,进而保证最终生成的目标模型适用于多种场景类型。
上述针对预设模型进行训练的处理中,不需要设置图像的标签,也就是不需要对训练样本进行标注。具体的,可以通过将N种场景类型中的第i种场景类型的图像输入到第i种场景类型所对应的识别模型,得到所述第i种场景类型所对应的识别模型输出的特征,由于该第i种场景类型所对应的识别模型为预先已经训练完成的识别模型,因此,所述第i种场景类型所对应的识别模型输出的特征可以作为该第i种场景类型的图像的标签或标注信息。其中,i为大于等于1且小于等于N的整数。
所述基于所述N个识别模型分别输出的特征、与所述预设模型输出的所述预测特征,计算得到总损失函数,包括:
基于所述N个识别模型分别输出的特征、以及所述预设模型输出的所述预测特征,分别计算得到N个损失函数;基于所述N个损失函数进行加权计算,得到所述总损失函数。
需要说明的是,所述预设模型输出的预测特征具体可以包括N个子预测特征;每一个子预测特征对应了一个场景类型的图像。
具体是将N个识别模型中第i个识别模型在第i种场景类型下的图像进行识别得到的特征,以及所述预设模型输出的针对第i种场景类型的图像对应的子预测特征进行监督训练;也就是基于第i个识别模型对输入的第i种场景类型的图像进行识别得到输出的特征、以及所述预设模型输出的针对第i种场景类型的图像对应的子预测特征,确定第i个损失函数。这里,可以将所述第i个损失函数称为第i个识别模型对应的损失函数。
基于所述预设模型输出的预测特征可以分别确定N个损失函数,该N个损失函数可以分别为与N个识别模型对应的N个损失函数;再对所述N个损失函数进行加权计算,得到本次训练所对应的总损失函数。
上述N个损失函数可以为同一类的损失函数,比如均可以为L2损失函数。
其中,加权计算可以采用预设的针对不同识别模型所对应的不同的损失函数的权重来进行计算。
优选的,可以将与每一个识别模型对应的损失函数的权重设置为相同的,比如,存在两个识别模型的时候,可以将所述预设模型输出的预测特征与两个识别模型对应的两个损失函数的权重均设置为0.5,这样训练得到的预设模型可以在两种场景类型下均获得较好的识别准确性。又或者,可以将N个识别模型中某一个识别模型对应的损失函数的权重设置较大,相应的,在总损失函数中该识别模型所对应的损失函数占比较大,最终训练得到的预设模型也就是目标模型在该识别模型对应的场景类型下具备更高的识别准确度,在其他场景类型下的识别准确度可能会较低。具体的权重设置可以根据实际情况进行调整,本实施例中不做穷举。如此,可以基于不同场景类型对应的不同的识别模型设置对应的权重,从而可以调整目标模型在相应场景下的识别准确度,使得目标模型的训练更加灵活。
在进行前述对预设模型进行训练之前,还可以包括有对N个识别模型分别进行训练。
具体可以包括:采用所述N中场景类型中的第j种场景类型下的图像作为训练数据,对所述第j种场景类型所对应的第j个预设识别模型进行训练,得到训练后的第j个预设识别模型,将所述训练后的第j个预设识别模型作为所述第j个场景类型所对应的第j个识别模型;其中,j为大于等于1且小于等于N的整数。
所述第j种场景类型为所述N个场景类型中任意之一,也就是针对每一种场景类型所对应的预设识别模型进行训练的时候,采用每一种场景类型下的任意一张或多张标注后的图像作为训练数据进行该场景类型下的预设识别模型的训练。
举例来说,N个场景类型分别包括证件照识别场景类型以及生活照识别场景类型,则对应有预设证件照识别模型以及预设生活照识别模型;在预设证件照识别模型的训练中,可以采用标注后的证件照作为训练数据,在预设生活照识别模型的训练中可以采用标注后的生活照作为训练数据。其中,标注的图像中可以标注有图像所对应的多个维度的特征,比如,针对一个训练数据中的图像可以设置其128个维度的特征。
在针对第j种场景类型的图像作为训练数据,对第j种场景类型所对应的第j个预设识别模型进行训练的处理中,可以将第j种场景类型的图像作为第j个预设识别模型的输入,在得到该第j个预设识别模型的输出特征之后,可以计算输出特征与输入的图像所标注的特征与第j个预设识别模型的输出特征之间的预测损失函数,基于预测损失函数对第j个预设识别模型进行反向传导,调整所述第j个预设识别模型的参数,如此迭代训练,最终得到训练后的第j个预设识别模型,将该训练后的第j个预设识别模型作为前述第j个识别模型。
需要理解的是,第j个预设识别模型的训练是否完成可以采用第j个预设识别模型对应的指标来衡量,比如在多次迭代训练之后,第j个预设识别模型的准确度达到一定值并且不再变化,则可以确定第j个预设识别模型训练完成;或者,还可以采用迭代次数来判断,比如第j个预设识别模型的迭代训练的迭代次数达到预设次数门限值,则可以确定第j个预设识别模型训练完成;该预设次数门限值可以根据实际情况设置,比如,可以是一万次或五千次等等。
基于上述方式,可以采用不同场景类型的图像分别对不同场景类型所对应的不同的识别模型进行训练,如此可以保证识别模型本身在其对应的场景类型中的识别准确度较高,进而基于这样的识别模型进行目标模型的训练,也可以使得目标模型能够更加准确。
采用以上方式训练得到的所述目标模型,在实际进行预测的处理中可以包括:
将所述N种场景类型中的第k种场景类型的待识别图像输入所述目标模型,得到所述目标模型输出的所述待识别图像所对应的特征信息;k为大于等于1且小于等于N的整数;
基于所述待识别图像所对应的特征信息以及图像库中包含的M种场景类型的预存图像,确定所述待识别图像的识别结果;其中,M种场景类型为所述N种场景类型中的至少部分场景类型;M为大于等于1、且小于等于N的整数。
在电子设备中预先可以保存有预设的图像库,在所述图像库中包含一张或多张预存图像;具体的,所述图像库中可以包含有M中场景类型中不同场景类型的一张或多张图像。所述一张或多张预存图像中的每一个预存图像的场景类型可以为前述N种场景类型中任意之一。
另外,在电子设备中保存的所述预存图像可以采用所述目标模型先进行识别,得到每一个预存图像基于所述目标模型识别得到的特征信息;相应的,在电子设备中保存的所述图像库中,除了保存有M种场景类型中每一个场景类型的一个或多个预存图像之外,所述图像库中还会保存所述一个或多个预存图像中每一个预存图像所对应的特征信息。
所述待识别图像可以为N种场景类型中任意一种场景类型的图像,本实施例中将N种场景类型中的任意一种场景类型称为第k种场景类型。也就是在使用目标模型进行预测的时候,不限定待识别图像一定是N种场景类型中的哪一种,可以是N种场景类型中任意的一种场景类型的图像。
将待识别图像输入所述目标模型后,得到所述目标模型输出的所述待识别图像所对应的特征信息。
基于所述待识别图像所对应的特征信息以及图像库中包含的M种场景类型的预存图像,确定所述待识别图像的识别结果,具体可以是:
将目标模型输出的待识别图像所对应的特征信息,与电子设备本地保存图像库中包含的M种场景类型中每一种场景类型的一张或多张预存图像所对应的特征信息进行比对,获取特征信息匹配的预存图像作为待识别图像所匹配到的预存图像,进而基于该待识别图像所匹配到的预存图像确定所述待识别图像的识别结果。
这里,所述待识别图像的识别结果可以包括待识别图像中的目标对象,比如在人脸识别的处理中,待识别图像的识别结果可以包括待识别图像中的人脸ID、或人脸对应的用户标识(或ID)等。
举例来说,在电子设备的预存图像中,包括有:生活照场景类型下的用户A的生活照、用户B的生活照;证件照场景类型下的用户C的证件照以及用户D的证件照。
待识别图像可以为用户D的生活照;基于目标模型可以获取待识别图像所对应的128维的特征信息;将该用户D的生活照所对应的128维的特征信息,与电子设备中预存图像一一匹配,可以得到匹配了用户D的证件照的结果,相应的,该待识别图像的识别结果可以为用户D(可以是用户D的标识)。
可见,通过采用以上方式训练出来的目标模型,不再需要限定获取的图像的固定场景类型,而是采用任意一种场景类型下采集的图像均可以使用目标模型进行识别,从而达到目标模型可以使用更多场景类型的效果。
结合上述实施例,以两种场景类型的人脸图像识别的识别模型为教师模型,训练得到对两种场景类型的人脸图像均可以进行识别的目标模型的处理进行示例性说明,如图2所示,可以包括:
首先训练两种场景类型分别对应的人脸识别模型。还可以为两个或更多个人脸不同场景下的人脸识别模型作为教师模型。以生活照场景、证件照场景为例,则可以得到两个场景类型分别对应的人脸识别模型作为教师模型,即证件照识别模型和生活照识别模型。
S201:获取生活照人脸图片、证件照人脸图片,将两个图片组成图像组作为训练数据。
S202:将证件照图像输入证件照识别模型,将生活照图像输入生活照识别模型,将所述图像组输入预设模型;分别得到证件照识别模型输出的证件照特征,预设模型输出的预测特征,生活照识别模型输出的生活照特征。这里,所述证件照识别模型可以为一证件照教师模型,所述生活照识别模型可以为生活照教师模型;所述预设模型可以为学生模型。
S203:将证件照特征与预设模型输出的预测特征计算第一损失函数;将生活照特征与预设模型输出的预测特征计算第二损失函数。
这里,所述第一损失函数以及第二损失函数均为L2损失函数。所述第一损失函数以及所述第二损失函数可以进行加权计算得到总损失函数,基于总损失函数监督预设模型训练,如此迭代直至预设模型训练完成,将训练后的预设模型作为目标模型。此时,目标模型具有同时识别证件照人脸图片和生活照人脸图片的能力。在使用目标模型进行预测时,可以随意输入证件照和生活照图片到目标模型并得到其输出的对应的特征。
采用本申请,将N种场景类型的图像分别输入对应的N个识别模型得到N个特征,并将所述N种场景类型的图像输入预设模型得到预测特征,进而基于N个特征以及预测特征计算损失函数,对预设模型进行训练,得到训练后的预设模型作为目标模型。如此可以基于多种场景类型的多个识别模型对预设模型进行训练,使得最终训练得到的目标模型可以具备对N种场景类型的图像的识别能力,从而保证了目标模型可以适用于多种场景类型的图像识别,保证了目标模型的泛化性。
因此,将基于N种场景类型所对应的识别模型训练得到的目标模型,应用到图像处理(如图像分类、图像识别、图像检测)等处理场景中,更具体的可以应用到人脸识别等处理场景中,可以提高图像处理等场景中的硬件性能,比如硬件的处理速度、处理精度等,而且,随着该硬件性能的提高,还可以降低硬件的使用数量,比如用少于以往数量的硬件同样可以达到以往同等的硬件性能,从而降低了硬件成本。
本公开的第二实施例,提供了一种模型生成装置,如图3所示,包括:
特征获取模块31,用于将N种场景类型的图像分别输入对应的N个识别模型,得到所述N个识别模型分别输出的特征;其中N为大于等于2的整数;以及将所述N种场景类型的图像输入预设模型,得到所述预设模型输出的预测特征;
损失函数确定模块32,用于基于所述N个识别模型分别输出的特征、与所述预设模型输出的所述预测特征,计算得到总损失函数;
第一模型训练模块33,用于基于所述总损失函数对所述预设模型进行训练得到训练后的所述预设模型,将所述训练后的所述预设模型作为目标模型。
所述特征获取模块31,用于将所述N种场景类型中的第i种场景类型的图像输入对应的第i个识别模型,得到所述第i个识别模型输出的特征;其中,所述i为大于等于1且小于等于N的整数;
基于所述N种场景类型的图像生成图像组,将所述图像组输入所述预设模型得到所述预设模型输出的针对所述图像组的预测特征。
所述损失函数确定模块32,用于基于所述N个识别模型分别输出的特征、以及所述预设模型输出的所述预测特征,分别计算得到N个损失函数;基于所述N个损失函数进行加权计算,得到所述总损失函数。
如图4所示,所述装置还包括:第二模型训练模块34,用于采用第i种场景类型下的图像作为训练数据,对所述第i种场景类型所对应的第i个识别模型进行训练,得到训练后的第i个识别模型;其中,i为大于等于1且小于等于N的整数。
所述装置还包括:
图像识别模块35,用于将所述N种场景类型中的第k种场景类型的待识别图像输入所述目标模型,得到所述目标模型输出的所述待识别图像所对应的特征信息;k为大于等于1且小于等于N的整数;基于所述待识别图像所对应的特征信息以及图像库中包含的M种场景类型的预存图像,确定所述待识别图像的识别结果;其中,M种场景类型为所述N种场景类型中的至少部分场景类型;M为大于等于1、且小于等于N的整数。
根据本公开的实施例,本公开还提供了一种电子设备和一种可读存储介质。
如图5所示,是根据本公开实施例的模型生成方法的电子设备的框图。该电子设备可以为前述部署设备或代理设备。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
如图5所示,该电子设备包括:一个或多个处理器501、存储器502,以及用于连接各部件的接口,包括高速接口和低速接口。各个部件利用不同的总线互相连接,并且可以被安装在公共主板上或者根据需要以其它方式安装。处理器可以对在电子设备内执行的指令进行处理,包括存储在存储器中或者存储器上以在外部输入/输出装置(诸如,耦合至接口的显示设备)上显示GUI的图形信息的指令。在其它实施方式中,若需要,可以将多个处理器和/或多条总线与多个存储器和多个存储器一起使用。同样,可以连接多个电子设备,各个设备提供部分必要的操作(例如,作为服务器阵列、一组刀片式服务器、或者多处理器系统)。图5中以一个处理器501为例。
存储器502即为本公开所提供的非瞬时计算机可读存储介质。其中,所述存储器存储有可由至少一个处理器执行的指令,以使所述至少一个处理器执行本公开所提供的模型生成方法。本公开的非瞬时计算机可读存储介质存储计算机指令,该计算机指令用于使计算机执行本公开所提供的模型生成方法。
存储器502作为一种非瞬时计算机可读存储介质,可用于存储非瞬时软件程序、非瞬时计算机可执行程序以及模块,如本公开实施例中的模型生成方法对应的程序指令/模块(例如,附图4所示的客户端特征获取模块、损失函数确定模块、第一模型训练模块、图像识别模块、第二模型训练模块)。处理器501通过运行存储在存储器502中的非瞬时软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例中的模型生成方法。
存储器502可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据电子设备的使用所创建的数据等。此外,存储器502可以包括高速随机存取存储器,还可以包括非瞬时存储器,例如至少一个磁盘存储器件、闪存器件、或其他非瞬时固态存储器件。在一些实施例中,存储器502可选包括相对于处理器501远程设置的存储器,这些远程存储器可以通过网络连接至电子设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
模型生成方法的电子设备还可以包括:输入装置503和输出装置504。处理器501、存储器502、输入装置503和输出装置504可以通过总线或者其他方式连接,图5中以通过总线连接为例。
输入装置503可接收输入的数字或字符信息,以及产生与电子设备的用户设置以及功能控制有关的键信号输入,例如触摸屏、小键盘、鼠标、轨迹板、触摸板、指示杆、一个或者多个鼠标按钮、轨迹球、操纵杆等输入装置。输出装置504可以包括显示设备、辅助照明装置(例如,LED)和触觉反馈装置(例如,振动电机)等。该显示设备可以包括但不限于,液晶显示器(LCD)、发光二极管(LED)显示器和等离子体显示器。在一些实施方式中,显示设备可以是触摸屏。
此处描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、专用ASIC(专用集成电路)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
这些计算程序(也称作程序、软件、软件应用、或者代码)包括可编程处理器的机器指令,并且可以利用高级过程和/或面向对象的编程语言、和/或汇编/机器语言来实施这些计算程序。如本文使用的,术语“机器可读介质”和“计算机可读介质”指的是用于将机器指令和/或数据提供给可编程处理器的任何计算机程序产品、设备、和/或装置(例如,磁盘、光盘、存储器、可编程逻辑装置(PLD)),包括,接收作为机器可读信号的机器指令的机器可读介质。术语“机器可读信号”指的是用于将机器指令和/或数据提供给可编程处理器的任何信号。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,又称为云计算服务器或云主机,是云计算服务体系中的一项主机产品,以解决传统物理主机与虚拟专用服务器(VPS)服务中,存在的管理难度大,业务扩展性弱的缺陷。服务器也可以为分布式系统的服务器,或者是结合了区块链的服务器。
根据本申请实施例的技术方案,将N种场景类型的图像分别输入对应的N个识别模型得到N个特征,并将所述N种场景类型的图像输入预设模型得到预测特征,进而基于N个特征以及预测特征计算损失函数,对预设模型进行训练,得到训练后的预设模型作为目标模型。如此可以基于多种场景类型的多个识别模型对预设模型进行训练,使得最终训练得到的目标模型可以具备对N种场景类型的图像的识别能力,从而保证了目标模型可以适用于多种场景类型的图像识别,保证了目标模型的泛化性。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本申请中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。
Claims (12)
1.一种模型生成方法,包括:
将N种场景类型的图像分别输入对应的N个识别模型,得到所述N个识别模型分别输出的特征;将所述N种场景类型的图像输入预设模型,得到所述预设模型输出的预测特征;其中N为大于等于2的整数;
基于所述N个识别模型分别输出的特征、与所述预设模型输出的所述预测特征,计算得到总损失函数;
基于所述总损失函数对所述预设模型进行训练得到训练后的预设模型,将所述训练后的所述预设模型作为目标模型。
2.根据权利要求1所述的方法,其中,所述将N种场景类型的图像分别输入N种场景类型分别对应的N个识别模型,得到所述N个识别模型分别输出的特征,包括:将所述N种场景类型中的第i种场景类型的图像输入对应的第i个识别模型,得到所述第i个识别模型输出的特征;其中,所述i为大于等于1且小于等于N的整数;
所述将所述N种场景类型的图像输入预设模型,得到所述预设模型输出的预测特征,包括:基于所述N种场景类型的图像生成图像组,将所述图像组输入所述预设模型得到所述预设模型输出的针对所述图像组的预测特征。
3.根据权利要求1所述的方法,其中,所述基于所述N个识别模型分别输出的特征、与所述预设模型输出的所述预测特征,计算得到总损失函数,包括:
基于所述N个识别模型分别输出的特征、以及所述预设模型输出的所述预测特征,分别计算得到N个损失函数;
基于所述N个损失函数进行加权计算,得到所述总损失函数。
4.根据权利要求1所述的方法,其中,所述方法还包括:
采用所述N中场景类型中的第j种场景类型下的图像作为训练数据,对所述第j种场景类型所对应的第j个预设识别模型进行训练,得到训练后的第j个预设识别模型,将所述训练后的第j个预设识别模型作为所述第j个场景类型所对应的第j个识别模型;其中,j为大于等于1且小于等于N的整数。
5.根据权利要求1-4任一项所述的方法,其中,所述方法还包括:
将所述N种场景类型中的第k种场景类型的待识别图像输入所述目标模型,得到所述目标模型输出的所述待识别图像所对应的特征信息;k为大于等于1且小于等于N的整数;
基于所述待识别图像所对应的特征信息以及图像库中包含的M种场景类型的预存图像,确定所述待识别图像的识别结果;其中,M种场景类型为所述N种场景类型中的至少部分场景类型;M为大于等于1、且小于等于N的整数。
6.一种模型生成装置,包括:
特征获取模块,用于将N种场景类型的图像分别输入对应的N个识别模型,得到所述N个识别模型分别输出的特征;以及将所述N种场景类型的图像输入预设模型,得到所述预设模型输出的预测特征;其中N为大于等于2的整数;
损失函数确定模块,用于基于所述N个识别模型分别输出的特征、与所述预设模型输出的所述预测特征,计算得到总损失函数;
第一模型训练模块,用于基于所述总损失函数对所述预设模型进行训练得到训练后的预设模型,将所述训练后的所述预设模型作为目标模型。
7.根据权利要求6所述的装置,其中,所述特征获取模块,用于将所述N种场景类型中的第i种场景类型的图像输入对应的第i个识别模型,得到所述第i个识别模型输出的特征;其中,所述i为大于等于1且小于等于N的整数;基于所述N种场景类型的图像生成图像组,将所述图像组输入所述预设模型得到所述预设模型输出的针对所述图像组的预测特征。
8.根据权利要求6所述的装置,其中,所述损失函数确定模块,用于基于所述N个识别模型分别输出的特征、以及所述预设模型输出的所述预测特征,分别计算得到N个损失函数;基于所述N个损失函数进行加权计算,得到所述总损失函数。
9.根据权利要求6所述的装置,其中,所述装置还包括:第二模型训练模块,用于采用所述N中场景类型中的第j种场景类型下的图像作为训练数据,对所述第j种场景类型所对应的第j个预设识别模型进行训练,得到训练后的第j个预设识别模型,将所述训练后的第j个预设识别模型作为所述第j个场景类型所对应的第j个识别模型;其中,j为大于等于1且小于等于N的整数。
10.根据权利要求6-9任一项所述的装置,其中,所述装置还包括:
图像识别模块,用于将所述N种场景类型中的第k种场景类型的待识别图像输入所述目标模型,得到所述目标模型输出的所述待识别图像所对应的特征信息;k为大于等于1且小于等于N的整数;基于所述待识别图像所对应的特征信息以及图像库中包含的M种场景类型的预存图像,确定所述待识别图像的识别结果;其中,M种场景类型为所述N种场景类型中的至少部分场景类型;M为大于等于1、且小于等于N的整数。
11.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-5中任一项所述的方法。
12.一种存储有计算机指令的非瞬时计算机可读存储介质,所述计算机指令用于使所述计算机执行权利要求1-5中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011371939.0A CN112329732A (zh) | 2020-11-30 | 2020-11-30 | 模型生成方法、装置、电子设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011371939.0A CN112329732A (zh) | 2020-11-30 | 2020-11-30 | 模型生成方法、装置、电子设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112329732A true CN112329732A (zh) | 2021-02-05 |
Family
ID=74309299
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011371939.0A Withdrawn CN112329732A (zh) | 2020-11-30 | 2020-11-30 | 模型生成方法、装置、电子设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112329732A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113657465A (zh) * | 2021-07-29 | 2021-11-16 | 北京百度网讯科技有限公司 | 预训练模型的生成方法、装置、电子设备和存储介质 |
CN113993038A (zh) * | 2021-10-27 | 2022-01-28 | 成都颜创启新信息技术有限公司 | 音量调节方法、装置、电子设备及计算机可读存储介质 |
-
2020
- 2020-11-30 CN CN202011371939.0A patent/CN112329732A/zh not_active Withdrawn
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113657465A (zh) * | 2021-07-29 | 2021-11-16 | 北京百度网讯科技有限公司 | 预训练模型的生成方法、装置、电子设备和存储介质 |
CN113657465B (zh) * | 2021-07-29 | 2024-04-09 | 北京百度网讯科技有限公司 | 预训练模型的生成方法、装置、电子设备和存储介质 |
CN113993038A (zh) * | 2021-10-27 | 2022-01-28 | 成都颜创启新信息技术有限公司 | 音量调节方法、装置、电子设备及计算机可读存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112560912B (zh) | 分类模型的训练方法、装置、电子设备和存储介质 | |
CN111931591B (zh) | 用于构建关键点学习模型的方法、装置、电子设备及可读存储介质 | |
CN112036509A (zh) | 用于训练图像识别模型的方法和装置 | |
CN111539514A (zh) | 用于生成神经网络的结构的方法和装置 | |
CN111598164B (zh) | 识别目标对象的属性的方法、装置、电子设备和存储介质 | |
CN112270711B (zh) | 模型训练以及姿态预测方法、装置、设备以及存储介质 | |
CN111783948A (zh) | 模型训练方法、装置、电子设备以及存储介质 | |
CN111241838B (zh) | 文本实体的语义关系处理方法、装置及设备 | |
CN111611990A (zh) | 用于识别图像中表格的方法和装置 | |
CN113408662A (zh) | 图像识别、图像识别模型的训练方法和装置 | |
CN112561056A (zh) | 神经网络模型的训练方法、装置、电子设备和存储介质 | |
CN112508004A (zh) | 一种文字识别方法、装置、电子设备及存储介质 | |
CN112529180A (zh) | 模型蒸馏的方法和装置 | |
CN112241704A (zh) | 一种判定肖像侵权的方法、装置、电子设备及存储介质 | |
CN111967591A (zh) | 神经网络自动剪枝方法、装置及电子设备 | |
CN113313048B (zh) | 脸部表情识别方法和装置 | |
CN113128436B (zh) | 关键点的检测方法和装置 | |
CN112561059B (zh) | 用于模型蒸馏的方法和装置 | |
CN112382291B (zh) | 语音交互的处理方法、装置、电子设备及存储介质 | |
CN112597288B (zh) | 人机交互方法、装置、设备及存储介质 | |
CN112232089B (zh) | 语义表示模型的预训练方法、设备和存储介质 | |
CN112529181A (zh) | 用于模型蒸馏的方法和装置 | |
CN112329732A (zh) | 模型生成方法、装置、电子设备及存储介质 | |
CN111767990A (zh) | 神经网络的处理方法和装置 | |
CN111767380A (zh) | 模型自适应重训方法、装置、电子设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20210205 |