CN116778076A - 一种人脸样本构建方法和相关装置 - Google Patents
一种人脸样本构建方法和相关装置 Download PDFInfo
- Publication number
- CN116778076A CN116778076A CN202210243213.1A CN202210243213A CN116778076A CN 116778076 A CN116778076 A CN 116778076A CN 202210243213 A CN202210243213 A CN 202210243213A CN 116778076 A CN116778076 A CN 116778076A
- Authority
- CN
- China
- Prior art keywords
- face
- model
- parameter
- parameters
- sample
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000010276 construction Methods 0.000 title claims abstract description 46
- 238000005259 measurement Methods 0.000 claims description 93
- 230000002194 synthesizing effect Effects 0.000 claims description 30
- 230000015572 biosynthetic process Effects 0.000 claims description 28
- 238000003786 synthesis reaction Methods 0.000 claims description 28
- 238000005286 illumination Methods 0.000 claims description 27
- 238000000034 method Methods 0.000 claims description 26
- 238000012216 screening Methods 0.000 claims description 23
- 238000004590 computer program Methods 0.000 claims description 8
- 210000000056 organ Anatomy 0.000 claims description 3
- 238000012545 processing Methods 0.000 description 44
- 230000006870 function Effects 0.000 description 13
- 238000010586 diagram Methods 0.000 description 12
- 230000001815 facial effect Effects 0.000 description 9
- 238000012549 training Methods 0.000 description 9
- 238000004891 communication Methods 0.000 description 5
- 238000001514 detection method Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000007774 longterm Effects 0.000 description 2
- 238000010295 mobile communication Methods 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000007599 discharging Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002085 persistent effect Effects 0.000 description 1
- 230000036544 posture Effects 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 230000001105 regulatory effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000010897 surface acoustic wave method Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/04—Texture mapping
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/50—Lighting effects
- G06T15/506—Illumination models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Graphics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Geometry (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Quality & Reliability (AREA)
- Software Systems (AREA)
- Image Processing (AREA)
Abstract
本申请实施例公开了一种人脸样本构建方法和相关装置,可以先获取目标人脸图像,然后通过模型确定该目标人脸图像对应的第一人脸参数,该第一人脸参数用于重建该目标人脸图像对应的人脸模型。由于该第一人脸参数是基于实际的人脸图像所确定出来的,因此该第一人脸参数构建出的人脸模型较为贴合真实人脸的特征。基于此,可以生成该第一人脸参数对应的第一人脸模型,然后合成对应的第一样本人脸图像。由于该第一样本人脸图像是通过该第一人脸模型合成的,因此该第一人脸模型可以作为该第一样本人脸图像对应的样本人脸模型,通过这种方式,可以无需人脸采集设备,即可高效获得贴合真实人脸特点的人脸样本,降低了人脸样本的构建成本。
Description
技术领域
本申请涉及人脸重建技术领域,特别是涉及一种人脸样本构建方法和相关装置。
背景技术
人脸重建是指根据人脸图像重建出人物的人脸模型的技术,为了评测人脸重建的准确度,在相关技术中,通常是将重建得到的人脸模型与该人脸图像实际对应的人脸模型进行比对,基于两个人脸模型之间的差异来确定人脸重建的准确度,差异越小,人脸重建的准确度就越高。
因此,在相关技术中,为了评测人脸重建技术的准确度,需要获取大量准确的人脸样本数据,该人脸样本数据为具有准确对应的人脸模型的人脸图像。然而,相关技术中的人脸样本构建需要通过专业的人脸模型采集设备进行,人脸样本构建的成本较高,且样本效果较差,难以满足日益增长的人脸样本需求。
发明内容
为了解决上述技术问题,本申请提供了一种人脸样本构建方法,可以高效获取大量高精度、多样化的人脸样本,满足对人脸样本的需求。
本申请实施例公开了如下技术方案:
第一方面,本申请实施例公开了一种人脸样本构建方法,所述方法包括:
获取目标人脸图像;
通过参数确定模型,根据所述目标人脸图像,确定所述目标人脸图像对应的第一人脸参数;
生成所述第一人脸参数对应的第一人脸模型;
合成所述第一人脸模型对应的第一样本人脸图像,所述第一人脸模型为所述第一样本人脸图像对应的样本人脸模型。
第二方面,本申请实施例公开了一种人脸样本构建装置,所述装置包括获取单元、第一确定单元、生成单元和合成单元:
所述获取单元,用于获取目标人脸图像;
所述第一确定单元,用于通过参数确定模型,根据所述目标人脸图像,确定所述目标人脸图像对应的第一人脸参数;
所述生成单元,用于生成所述第一人脸参数对应的第一人脸模型;
所述合成单元,用于合成所述第一人脸模型对应的第一样本人脸图像,所述第一人脸模型为所述第一样本人脸图像对应的样本人脸模型。
在一种可能的实现方式中,所述参数确定模型是通过以下方式训练得到的:
通过初始参数确定模型,确定第二样本人脸图像对应的第二人脸参数、位姿参数和光照参数;
根据所述第二人脸参数生成所述第二样本人脸图像对应的第二人脸模型;
根据所述位姿参数和所述光照参数,合成所述第二人脸模型对应的待定人脸图像;
根据所述第二样本人脸图像与所述待定人脸图像之间的差异,调节所述初始参数确定模型,得到所述参数确定模型。
在一种可能的实现方式中,所述第一人脸模型为多个第一人脸模型,所述生成单元具体用于:
确定所述第一人脸参数对应的多个干扰参数;
根据所述第一人脸参数和所述多个干扰参数,生成多个扩充人脸参数;
根据所述多个扩充人脸参数确定所述多个第一人脸模型。
在一种可能的实现方式中,所述装置还包括第二确定单元和筛除单元:
所述第二确定单元,用于确定所述多个第一人脸模型分别对应的人脸衡量参数,所述人脸衡量参数用于衡量所述多个第一人脸模型是否真实;
所述筛除单元,用于筛除所述多个第一人脸模型中人脸衡量参数不满足人脸衡量参数阈值的第一人脸模型;
所述合成单元具体用于:
合成经过筛除处理后的多个第一人脸模型分别对应的第一样本人脸图像。
在一种可能的实现方式中,所述人脸衡量参数包括人脸深度衡量参数和/或人脸平面衡量参数;
针对所述人脸衡量参数包括所述人脸深度衡量参数,所述第二确定单元具体用于:
确定各个第一人脸模型上鼻尖关键点与耳朵关键点在人脸深度方向上的距离参数,所述人脸深度方向为垂直于人脸五官平面的方向;
将所述距离参数确定为所述人脸深度衡量参数;
所述人脸衡量参数阈值为人脸深度衡量参数阈值,所述筛除单元具体用于:
筛除所述多个第一人脸模型中人脸深度衡量参数小于所述人脸深度衡量参数阈值的第一人脸模型;
针对所述人脸衡量参数包括所述人脸平面衡量参数,所述第二确定单元具体用于:
确定各个第一人脸模型上人脸一侧中的第一人脸关键点在人脸另一侧中对应的第一目标位置;
确定第二人脸关键点在所述人脸另一侧中对应的第二目标位置,所述第二人脸关键点与所述第一人脸关键点相对应;
根据所述第一目标位置与所述第二目标位置之间的距离差值,确定所述人脸平面衡量参数;
所述人脸衡量参数阈值为人脸平面衡量参数阈值,所述筛除单元具体用于:
筛除所述多个第一人脸模型中人脸平面衡量参数大于所述人脸平面衡量参数阈值的第一人脸模型。
在一种可能的实现方式中,所述第一人脸参数包括人脸模型参数和人脸纹理参数,所述生成单元具体用于:
根据所述人脸模型参数生成基础人脸模型,以及根据所述人脸纹理参数生成纹理贴图;
根据基础人脸模型和所述纹理贴图,生成所述第一人脸模型。
在一种可能的实现方式中,所述第一人脸模型为多个第一人脸模型,所述生成单元具体用于:
调节所述纹理贴图对应的纹理颜色参数,得到多个扩充纹理贴图;
根据所述基础人脸模型和所述多个扩充纹理贴图,生成所述多个第一人脸模型。
在一种可能的实现方式中,所述合成单元具体用于:
确定所述第一人脸模型对应的合成参数,所述合成参数包括合成光照参数和合成相机参数中的任意一种或多种的组合,所述光照参数用于标识所述第一人脸模型对应的光照环境,所述合成相机参数用于确定所述第一人脸模型在所述第一样本人脸图像中的人脸位姿;
根据所述合成参数,合成所述第一人脸模型对应的第一样本人脸图像。
第三方面,本申请实施例公开了一种计算机设备,所述计算机设备包括处理器以及存储器:
所述存储器用于存储程序代码,并将所述程序代码传输给所述处理器;
所述处理器用于根据所述程序代码中的指令执行第一方面中任意一项所述的人脸样本构建方法。
第四方面,本申请实施例公开了一种计算机可读存储介质,所述计算机可读存储介质用于存储计算机程序,所述计算机程序用于执行第一方面中任意一项所述的人脸样本构建方法。
第五方面,本申请实施例公开了一种包括指令的计算机程序产品,当其在计算机上运行时,使得所述计算机执行第一方面中任意一项所述的人脸样本构建方法。
由上述技术方案可以看出,在构建人脸样本时,可以先获取目标人脸图像,然后通过参数确定模型,根据该目标人脸图像确定该目标人脸图像对应的第一人脸参数,该第一人脸参数用于重建该目标人脸图像对应的人脸模型。由于该第一人脸参数是基于实际的人脸图像所确定出来的,因此虽然该第一人脸参数可能并不能准确匹配该人脸图像对应的实际人脸,但是基于该第一人脸参数构建出的人脸模型较为贴合真实人脸的特征。基于此,可以生成该第一人脸参数对应的第一人脸模型,然后合成该第一人脸模型对应的第一样本人脸图像。由于该第一样本人脸图像是通过该第一人脸模型合成的,因此,该第一样本人脸图像即为该第一样本人脸图像所对应的实际人脸模型,该第一人脸模型可以作为该第一样本人脸图像对应的样本人脸模型,通过这种方式,可以无需人脸采集设备,即可高效获得贴合真实人脸特点的人脸样本,降低了人脸样本的构建成本。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本申请实施例提供的一种实际应用场景中人脸样本构建方法的示意图;
图2为本申请实施例提供的一种人脸样本构建方法的流程图;
图3为本申请实施例提供的一种模型训练的示意图;
图4为本申请实施例提供的一种人脸样本构建方法的示意图;
图5为本申请实施例提供的一种人脸样本构建方法的示意图;
图6为本申请实施例提供的一种人脸样本构建装置的结构框图;
图7为本申请实施例提供的一种计算机设备的结构图;
图8为本申请实施例提供的一种服务器的结构图。
具体实施方式
下面结合附图,对本申请的实施例进行描述。
在相关技术中,人脸样本的构建需要通过高精尖的人脸采集设备,采集测试人员的人脸图片以及构建人脸模型,从而得到测试人员对应的人脸样本。然而,这种样本构建方式的构建成本很高,导致样本数量较少,样本多样性较差,难以满足多样化的人脸重建技术的评测和训练。
为了解决上述技术问题,本申请提供了一种人脸样本构建方法,处理设备可以通过较为高效的参数确定模型来确定出目标人脸图像对应的第一人脸参数,使该第一人脸参数能够贴合真实人脸的特点。处理设备可以生成该第一人脸参数对应的第一人脸模型,并合成该第一人脸模型对应的第一样本图像,从而该第一人脸模型可以作为该第一人脸图像对应的样本人脸图像。基于此,处理设备可以无需人脸采集设备的参与,得到具有准确对应的人脸模型的人脸图像,降低了人脸样本的构建成本。
可以理解的是,该方法可以应用于处理设备上,该处理设备为能够进行人脸样本构建的处理设备,例如可以为具有人脸样本构建功能的终端设备或服务器。该方法可以通过终端设备或服务器独立执行,也可以应用于终端设备和服务器通信的网络场景,通过终端设备和服务器配合执行。其中,终端设备可以为计算机、手机等设备。服务器可以理解为是应用服务器,也可以为Web服务器,在实际部署时,该服务器可以为独立服务器,也可以为集群服务器。
为了便于理解本申请提供的技术方案,接下来,将结合一种实际应用场景,对本申请实施例提供的一种人脸样本构建方法进行介绍。
参见图1,图1为本申请实施例提供的一种实际应用场景中人脸样本构建方法的示意图,在该实际应用场景中,处理设备为能够进行人脸样本构建的服务器101。
服务器101可以获取目标人脸图像,然后通过参数确定模型,可以确定该目标人脸图像对应的第一人脸参数,该第一人脸参数包括人脸模型参数和人脸纹理参数。由于该第一人脸参数是基于目标人脸图像确定出来的,因此虽然可能并不能完全匹配该目标人脸对象对应的实际人脸,但是较为贴合真实人脸的人脸特点,例如较为贴合真实人脸的五官分布、脸部轮廓等。因此,基于该第一人脸参数重建的人脸模型具有较高的真实性。服务器101可以通过人脸模型参数确定出基础人脸模型,通过人脸纹理参数确定出纹理贴图,然后基于该基础人脸模型和纹理贴图生成第一人脸模型,该第一人脸模型具有较高的真实性。通过该第一人脸模型,服务器101可以合成对应的第一样本人脸图像,由于该人脸图像是基于第一人脸模型合成的,因此该第一人脸模型可以作为该第一样本人脸图像对应的样本人脸模型,从而服务器101可以得到具有准确对应关系的第一人脸模型和第一样本人脸图像,构成一个人脸样本,该过程无需专业人脸采集设备的参与,即可获得真实度和准确度较高的人脸样本,降低了人脸样本的构建成本。
接下来,将结合附图,对本申请实施例提供的一种人脸样本构建方法进行介绍。
参见图2,图2为本申请实施例提供的一种人脸样本构建方法的流程图,该方法包括:
S201:获取目标人脸图像。
其中,目标人脸图像可以为任意一张包含人脸的图像,例如人的正脸图像、侧脸图像等。由于本申请并不需要得到与目标人脸图像对应的实际人脸完全匹配的人脸参数,因此,可以支持目标人脸图像中包含多种角度、多种种类的人脸,获取难度较低,可获取的图像数量较大,进一步提高了本申请人脸样本构建的效率。
S202:通过参数确定模型,根据目标人脸图像,确定目标人脸图像对应的第一人脸参数。
该参数确定模型用于基于人脸图像,确定人脸图像对应的人脸参数,该人脸参数用于合成该人脸模型。处理设备可以通过该参数确定模型,根据该目标人脸图像,确定该目标人脸图像对应的第一人脸参数,该第一人脸参数用于合成通过该目标人脸图像确定出的人脸模型。上已述及,本申请并不需要与目标人脸图像对应的实际人脸完全匹配的人脸参数,因此,该参数确定模型的训练难度也较低,进一步降低了人脸样本的构建难度。
S203:生成第一人脸参数对应的第一人脸模型。
根据该第一人脸参数,处理设备可以进行人脸重建,得到第一人脸模型。上已述及,通过真实人脸图像确定出的第一人脸参数具有较高的真实性,因此,虽然可能该第一人脸模型与该目标人脸图像对应的实际人脸匹配度不高,但是也具有较高的真实度,从而可以保障构建的人脸样本的有效性。
S204:合成第一人脸模型对应的第一样本人脸图像。
该第一样本人脸图像即为包含该第一人脸模型的人脸图像,例如,处理设备可以模拟真实生活中的人像摄影方式,通过虚拟相机拍摄该第一人脸模型对应的人脸图像。由于该第一样本人脸图像是通过该第一人脸模型合成的,因此,该第一人脸模型与该第一样本人脸图像具有准确的对应关系,该第一人脸模型可以作为该第一样本人脸图像对应的样本人脸模型。从而,处理设备通过上述方式得到了具有准确对应关系的第一样本人脸图像和第一人脸模型,进而构建了准确性、真实性较高的人脸样本。
由上述技术方案可以看出,在构建人脸样本时,可以先获取目标人脸图像,然后通过参数确定模型,根据该目标人脸图像确定该目标人脸图像对应的第一人脸参数,该第一人脸参数用于重建该目标人脸图像对应的人脸模型。由于该第一人脸参数是基于实际的人脸图像所确定出来的,因此虽然该第一人脸参数可能并不能准确匹配该人脸图像对应的实际人脸,但是基于该第一人脸参数构建出的人脸模型较为贴合真实人脸的特征。基于此,可以生成该第一人脸参数对应的第一人脸模型,然后合成该第一人脸模型对应的第一样本人脸图像。由于该第一样本人脸图像是通过该第一人脸模型合成的,因此,该第一样本人脸图像即为该第一样本人脸图像所对应的实际人脸模型,该第一人脸模型可以作为该第一样本人脸图像对应的样本人脸模型,通过这种方式,可以无需人脸采集设备,即可高效获得贴合真实人脸特点的人脸样本,降低了人脸样本的构建成本。
在一种可能的实现方式中,为了降低人脸样本构建难度,在通过训练以得到参数确定模型时,处理设备可以通过如下方式进行训练:
首先,处理设备可以通过初始参数确定模型,确定第二样本人脸图像对应的第二人脸参数、位姿参数和光照参数,该第二样本人脸图像为用于进行模型训练的人脸图像,该第二人脸参数用于重建该第二样本人脸图像对应的人脸模型,该位姿参数和光照参数用于模拟生成该第二样本人脸图像时,所对应的实际人脸在图像中的状态,例如人脸角度、人脸对应的光照强度等。处理设备可以根据该第二人脸参数生成该第二样本人脸图像对应的第二人脸模型,然后根据该位姿参数和光照参数,合成该第二人脸模型对应的待定人脸图像,该待定人脸图像即为该第二人脸模型在该位姿参数所标识的位姿下以及该光照参数所标识的光照环境下对应的图像。
可以理解的是,该初始参数确定模型确定出的参数越准确,基于这些参数生成的第二人脸模型就应该越贴合该第二样本人脸图像对应的实际人脸,以及基于这些参数合成的待定人脸图像应该越接近该第二样本人脸图像。因此,通过该第二样本人脸图像与该待定人脸图像之间的差异,能够分析出该初始参数确定模型所确定出的第二人脸参数、位姿参数和光照参数的准确度。基于此,处理设备可以根据该第二样本人脸图像与该待定人脸图像之间的差异,调节该初始参数确定模型,得到可以用于进行人脸参数确定的参数确定模型。由于该训练过程无需用到该第二样本人脸图像对应的实际人脸的人脸模型,且该参数确定模型在本申请的人脸样本构建过程中无需提供高精确度的人脸参数,因此也不需要进行人脸重建来构建该第二样本人脸图像对应的准确人脸模型,即可满足模型训练的需求,进一步降低了人脸样本构建的难度。
例如,如图3所示,图3为本申请实施例提供的一种模型训练的示意图,该初始参数确定模型可以为卷积神经网络模型,处理设备可以利用收集到的大量的人脸照片以自监督的方式训练卷积神经网络模型。处理设备可以使用卷积神经网络预测3DMM系数、pose系数以及光照系数,该3DMM系数即为人脸参数,该pose系数即为位姿参数,将这些系数转化为3D模型并投影至图片上,得到投影图片,该投影图片即为待定人脸图像。然后,根据投影图片和原图的差异可以确定出损失函数,基于该损失函数计算梯度信息,利用该梯度信息调整神经网络权重,使下次更准确,直至结果收敛。而投影图片和原图的差异可以体现在很多方面,常见的有两图之间颜色信息的差异;或者计算3D模型上预定义好的关键点投影结果与原图检测出的关键点之间的差异进行约束。由于该参数确定模型是基于大量的真实人脸图像训练得到的,因此该模型能够学习到真实人脸的五官分布、人脸形状特点,即使该参数确定模型无法确定出与人脸图像完全匹配的人脸参数,但是该人脸参数贴合真实的人脸特征,可以用于构建人脸样本。
为了更加高效的构建人脸样本,处理设备在确定出第一人脸参数后,可以确定该第一人脸参数对应的多个干扰参数,例如可以为高斯噪声。通过该干扰参数可以在不影响第一人脸参数所具有的真实性的前提下,对该第一人脸参数进行微调,从而能够对该第一人脸参数进行扩充,大幅增多能确定出的第一人脸模型的数量。处理设备可以根据该第一人脸参数和多个干扰参数,生成多个扩充人脸参数,该扩充人脸参数即为在通过干扰参数干扰第一人脸参数得到的参数。从而,根据该多个扩充人脸参数,可以确定多个第一人脸模型,实现在保障第一人脸模型真实性的情况下,提高了生成第一人脸模型的数量,进而可以提高得到的人脸样本的数量,实现人脸样本的高效构建。
可以理解的是,由于该第一人脸参数是基于人脸图像确定的,而部分人脸图像由于所包含的人脸角度问题,可能导致生成的人脸参数存在部分失真的情况。例如,当人脸图像为人脸的正脸图像时,基于该图像确定出的人脸参数可能导致生成的人脸模型在侧脸方向上存在一定失真;当人脸图像为人脸的测量图像时,基于该图像确定出的人脸参数可能导致生成的人脸模型在正脸方向上存在一定失真。
因此,在一种可能的实现方式中,为了进一步确保人脸样本构建的真实性,避免由于人脸图像的局限性或在通过添加干扰参数进行人脸样本扩充时造成人脸样本的失真,处理设备可以对通过上述方式得到的多个第一人脸模型进行真实性校验。处理设备可以确定多个第一人脸模型分别对应的人脸衡量参数,该人脸衡量参数用于衡量多个第一人脸模型是否真实。随后,处理设备可以筛除多个第一人脸模型中人脸衡量参数不满足人脸衡量参数阈值的第一人脸模型。处理设备可以合成经过筛除处理后的多个第一人脸模型分别对应的第一样本人脸图像,从而可以保障得到的第一人脸模型以及第一样本人脸图像的真实性,进而提高人脸样本的真实性。
具体的,在一种可能的实现方式中,该人脸衡量参数可以包括人脸深度衡量参数和/或人脸平面衡量参数。针对人脸衡量参数包括所述人脸深度衡量参数,在确定多个第一人脸模型对应的人脸衡量参数时,处理设备可以确定各个第一人脸模型上鼻尖关键点与耳朵关键点在人脸深度方向上的距离参数,该人脸深度方向为垂直于人脸五官平面的方向,即人脸的侧脸方向。处理设备可以将该距离参数确定为人脸深度衡量参数,人脸衡量参数阈值可以为人脸深度衡量参数阈值,然后筛除多个第一人脸模型中人脸深度衡量参数小于人脸深度衡量参数阈值的第一人脸模型,这些被筛除的第一人脸模型虽然在正脸的五官比例和人脸形状上可能较为贴合真实人脸的特征,但是在人脸深度上与真实人脸差异较大,因此会导致生的的人脸模型缺乏真实性。例如,处理设备可以通过该方式筛除多个第一人脸模型中人脸深度衡量参数较小的10%的人脸模型。
针对该人脸衡量参数包括人脸平面衡量参数,处理设备可以确定各个第一人脸模型上人脸一侧中的第一人脸关键点在人脸另一侧中对应的第一目标位置,该第一目标位置即为以人脸中线为对称轴,该第一人脸关键点对应的对称位置。虽后,处理设备可以确定第二人脸关键点在人脸另一侧中对应的第二目标位置,该第二人脸关键点与第一人脸关键点相对应,例如第一人脸关键点可以为左眼关键点,第二人脸关键点可以为右眼关键点。可以理解的是,若该第一人脸模型的五官分布和人脸形状贴合真实人脸的特征,则该第一人脸关键点与第二人脸关键点在人脸上的位置应该有较为贴合的对应关系,即该第一目标位置与第二目标位置应该较为匹配。基于此,处理设备可以根据第一目标位置与第二目标位置之间的距离差值,确定人脸平面衡量参数,该人脸衡量参数阈值为人脸平面衡量参数阈值。处理设备可以筛除多个第一人脸模型中人脸平面衡量参数大于人脸平面衡量参数阈值的第一人脸模型,这些第一人脸模型上的第一人脸关键点和第二人脸关键点的位置对应较差,不符合真实人脸的人脸特点,导致人脸模型缺乏真实性。
具体的,在一种可能的实现方式中,该第一人脸参数包括人脸模型参数和人脸纹理参数,处理设备可以根据该人脸模型参数生成基础人脸模型,该基础人脸模型用于体现人脸形状、五官分布等,以及处理设备可以根据人脸纹理参数生成纹理贴图,该纹理贴图用于模拟真实人脸的肤色、纹理等。根据该基础人脸模型和纹理贴图,处理设备可以生成该第一人脸模型。
如图4所示,首先,处理设备可以对模型输出的3DMM模型参数和纹理参数进行扰动扩充数据,方式为添加高斯噪声(不同的3DMM模型,所添加的高斯噪声均值与方差是不同,需要调试)。然后将3DMM参数合成基础人脸模型,将纹理参数合成纹理贴图,从而得到多个基础人脸模型和多个纹理贴图,接着将多个基础人脸模型和纹理贴图进行排列组合,合成数量大且多样化的人脸模型。.
为了进一步扩充人脸样本的多样性,在一种可能的实现方式中,处理设备还可以对纹理贴图进行多样化的调节,例如,处理设备可以调节纹理贴图对应的纹理颜色参数,得到多个扩充纹理贴图,该纹理颜色参数可以包括色温、饱和度、对比度等。由于对纹理贴图进行调节相较于人脸模型来说失真风险较低,因此通过该方式可以在保障人脸样本真实性的情况下,进一步提高合成得到的人脸模型的多样性。
在一种可能的实现方式中,在基于第一人脸模型合成对应的第一样本人脸图像时,处理设备可以确定该第一人脸模型对应的合成参数,该合成参数包括合成光照参数和合成相机参数中的任意一种或多种的组合,该光照参数用于标识第一人脸模型对应的光照环境,如光源的数量、光源强度、光源角度等,该合成相机参数用于确定第一人脸模型在第一样本人脸图像中的人脸位姿,例如该合成相机参数可以为合成该第一样本人脸图像的虚拟相机的角度、位置等。处理设备可以根据该合成参数,合成第一人脸模型对应的第一样本人脸图像。
例如,在一种实际应用场景中,处理设备可以通过能够合成人脸图像的引擎来进行人脸样本构建。处理设备可以将第一人脸模型输入至引擎中,在引擎中随机搭建不同角度的虚拟相机和光源,生成不同的人物姿态、光照、焦距的图片,保证场景丰富性。
其中,相机位置,可以面对正脸,以第一人脸参数的鼻尖为中心,向左或右随机旋转0-90度,向上或下随机旋转0-30度,左右旋转和上下旋转可同时进行。相机焦距可根据实际与鼻尖的距离在一定范围内随机(需要调试)。
光源个数可以随机设置,一般为0-5个光源。随机设置光源类型,一般为聚光灯、点光源和矩阵光源中的一种;每个光源的位置同样以第一人脸模型的鼻尖为中心,向左或右随机旋转0-90度,向上和下随机旋转0-45度放置,左右旋转和上下旋转可同时进行;每个光源的亮度可在一定范围内随机(需要调试)。最后引擎会根据虚拟相机设置,光源数量和位置进行人脸图像合成,如图5所示,一个第一人脸模型可以对应一张第一样本人脸图像。
基于上述实施例提供的一种人脸样本构建方法,本申请实施例还提供了一种人脸样本构建装置,参见图6,图6为本申请实施例提供的一种人脸样本构建装置的结构框图,该装置600包括获取单元601、第一确定单元602、生成单元603和合成单元604:
所述获取单元601,用于获取目标人脸图像;
所述第一确定单元602,用于通过参数确定模型,根据所述目标人脸图像,确定所述目标人脸图像对应的第一人脸参数;
所述生成单元603,用于生成所述第一人脸参数对应的第一人脸模型;
所述合成单元604,用于合成所述第一人脸模型对应的第一样本人脸图像,所述第一人脸模型为所述第一样本人脸图像对应的样本人脸模型。
在一种可能的实现方式中,所述参数确定模型是通过以下方式训练得到的:
通过初始参数确定模型,确定第二样本人脸图像对应的第二人脸参数、位姿参数和光照参数;
根据所述第二人脸参数生成所述第二样本人脸图像对应的第二人脸模型;
根据所述位姿参数和所述光照参数,合成所述第二人脸模型对应的待定人脸图像;
根据所述第二样本人脸图像与所述待定人脸图像之间的差异,调节所述初始参数确定模型,得到所述参数确定模型。
在一种可能的实现方式中,所述第一人脸模型为多个第一人脸模型,所述生成单元603具体用于:
确定所述第一人脸参数对应的多个干扰参数;
根据所述第一人脸参数和所述多个干扰参数,生成多个扩充人脸参数;
根据所述多个扩充人脸参数确定所述多个第一人脸模型。
在一种可能的实现方式中,所述装置还包括第二确定单元和筛除单元:
所述第二确定单元,用于确定所述多个第一人脸模型分别对应的人脸衡量参数,所述人脸衡量参数用于衡量所述多个第一人脸模型是否真实;
所述筛除单元,用于筛除所述多个第一人脸模型中人脸衡量参数不满足人脸衡量参数阈值的第一人脸模型;
所述合成单元604具体用于:
合成经过筛除处理后的多个第一人脸模型分别对应的第一样本人脸图像。
在一种可能的实现方式中,所述人脸衡量参数包括人脸深度衡量参数和/或人脸平面衡量参数;
针对所述人脸衡量参数包括所述人脸深度衡量参数,所述第二确定单元具体用于:
确定各个第一人脸模型上鼻尖关键点与耳朵关键点在人脸深度方向上的距离参数,所述人脸深度方向为垂直于人脸五官平面的方向;
将所述距离参数确定为所述人脸深度衡量参数;
所述人脸衡量参数阈值为人脸深度衡量参数阈值,所述筛除单元具体用于:
筛除所述多个第一人脸模型中人脸深度衡量参数小于所述人脸深度衡量参数阈值的第一人脸模型;
针对所述人脸衡量参数包括所述人脸平面衡量参数,所述第二确定单元具体用于:
确定各个第一人脸模型上人脸一侧中的第一人脸关键点在人脸另一侧中对应的第一目标位置;
确定第二人脸关键点在所述人脸另一侧中对应的第二目标位置,所述第二人脸关键点与所述第一人脸关键点相对应;
根据所述第一目标位置与所述第二目标位置之间的距离差值,确定所述人脸平面衡量参数;
所述人脸衡量参数阈值为人脸平面衡量参数阈值,所述筛除单元具体用于:
筛除所述多个第一人脸模型中人脸平面衡量参数大于所述人脸平面衡量参数阈值的第一人脸模型。
在一种可能的实现方式中,所述第一人脸参数包括人脸模型参数和人脸纹理参数,所述生成单元603具体用于:
根据所述人脸模型参数生成基础人脸模型,以及根据所述人脸纹理参数生成纹理贴图;
根据基础人脸模型和所述纹理贴图,生成所述第一人脸模型。
在一种可能的实现方式中,所述第一人脸模型为多个第一人脸模型,所述生成单元603具体用于:
调节所述纹理贴图对应的纹理颜色参数,得到多个扩充纹理贴图;
根据所述基础人脸模型和所述多个扩充纹理贴图,生成所述多个第一人脸模型。
在一种可能的实现方式中,所述合成单元604具体用于:
确定所述第一人脸模型对应的合成参数,所述合成参数包括合成光照参数和合成相机参数中的任意一种或多种的组合,所述光照参数用于标识所述第一人脸模型对应的光照环境,所述合成相机参数用于确定所述第一人脸模型在所述第一样本人脸图像中的人脸位姿;
根据所述合成参数,合成所述第一人脸模型对应的第一样本人脸图像。
本申请实施例还提供了一种计算机设备,下面结合附图对该设备进行介绍。请参见图7所示,本申请实施例提供了一种设备,该设备还可以是终端设备,该终端设备可以为包括手机、平板电脑、个人数字助理(Personal Digital Assistant,简称PDA)、销售终端(简称POS)、车载电脑等任意智能终端,以终端设备为手机为例:
图7示出的是与本申请实施例提供的终端设备相关的手机的部分结构的框图。参考图7,手机包括:射频(Radio Frequency,简称RF)电路710、存储器720、输入单元730、显示单元740、传感器750、音频电路760、无线保真(简称WiFi)模块770、处理器780、以及电源790等部件。本领域技术人员可以理解,图7中示出的手机结构并不构成对手机的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
下面结合图7对手机的各个构成部件进行具体的介绍:
RF电路710可用于收发信息或通话过程中,信号的接收和发送,特别地,将基站的下行信息接收后,给处理器780处理;另外,将设计上行的数据发送给基站。通常,RF电路710包括但不限于天线、至少一个放大器、收发信机、耦合器、低噪声放大器(Low NoiseAmplifier,简称LNA)、双工器等。此外,RF电路710还可以通过无线通信与网络和其他设备通信。上述无线通信可以使用任一通信标准或协议,包括但不限于全球移动通讯系统(Global System of Mobile communication,简称GSM)、通用分组无线服务(GeneralPacket Radio Service,简称GPRS)、码分多址(Code Division Multiple Access,简称CDMA)、宽带码分多址(Wideband Code Division Multiple Access,简称WCDMA)、长期演进(Long Term Evolution,简称LTE)、电子邮件、短消息服务(Short Messaging Service,简称SMS)等。
存储器720可用于存储软件程序以及模块,处理器780通过运行存储在存储器720的软件程序以及模块,从而执行手机的各种功能应用以及数据处理。存储器720可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据手机的使用所创建的数据(比如音频数据、电话本等)等。此外,存储器720可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。
输入单元730可用于接收输入的数字或字符信息,以及产生与手机的用户设置以及功能控制有关的键信号输入。具体地,输入单元730可包括触控面板731以及其他输入设备732。触控面板731,也称为触摸屏,可收集用户在其上或附近的触摸操作(比如用户使用手指、触笔等任何适合的物体或附件在触控面板731上或在触控面板731附近的操作),并根据预先设定的程式驱动相应的连接装置。可选的,触控面板731可包括触摸检测装置和触摸控制器两个部分。其中,触摸检测装置检测用户的触摸方位,并检测触摸操作带来的信号,将信号传送给触摸控制器;触摸控制器从触摸检测装置上接收触摸信息,并将它转换成触点坐标,再送给处理器780,并能接收处理器780发来的命令并加以执行。此外,可以采用电阻式、电容式、红外线以及表面声波等多种类型实现触控面板731。除了触控面板731,输入单元730还可以包括其他输入设备732。具体地,其他输入设备732可以包括但不限于物理键盘、功能键(比如音量控制按键、开关按键等)、轨迹球、鼠标、操作杆等中的一种或多种。
显示单元740可用于显示由用户输入的信息或提供给用户的信息以及手机的各种菜单。显示单元740可包括显示面板741,可选的,可以采用液晶显示器(Liquid CrystalDisplay,简称LCD)、有机发光二极管(Organic Light-Emitting Diode,简称OLED)等形式来配置显示面板741。进一步的,触控面板731可覆盖显示面板741,当触控面板731检测到在其上或附近的触摸操作后,传送给处理器780以确定触摸事件的类型,随后处理器780根据触摸事件的类型在显示面板741上提供相应的视觉输出。虽然在图7中,触控面板731与显示面板741是作为两个独立的部件来实现手机的输入和输入功能,但是在某些实施例中,可以将触控面板731与显示面板741集成而实现手机的输入和输出功能。
手机还可包括至少一种传感器750,比如光传感器、运动传感器以及其他传感器。具体地,光传感器可包括环境光传感器及接近传感器,其中,环境光传感器可根据环境光线的明暗来调节显示面板741的亮度,接近传感器可在手机移动到耳边时,关闭显示面板741和/或背光。作为运动传感器的一种,加速计传感器可检测各个方向上(一般为三轴)加速度的大小,静止时可检测出重力的大小及方向,可用于识别手机姿态的应用(比如横竖屏切换、相关游戏、磁力计姿态校准)、振动识别相关功能(比如计步器、敲击)等;至于手机还可配置的陀螺仪、气压计、湿度计、温度计、红外线传感器等其他传感器,在此不再赘述。
音频电路760、扬声器761,传声器762可提供用户与手机之间的音频接口。音频电路760可将接收到的音频数据转换后的电信号,传输到扬声器761,由扬声器761转换为声音信号输出;另一方面,传声器762将收集的声音信号转换为电信号,由音频电路760接收后转换为音频数据,再将音频数据输出处理器780处理后,经RF电路710以发送给比如另一手机,或者将音频数据输出至存储器720以便进一步处理。
WiFi属于短距离无线传输技术,手机通过WiFi模块770可以帮助用户收发电子邮件、浏览网页和访问流式媒体等,它为用户提供了无线的宽带互联网访问。虽然图7示出了WiFi模块770,但是可以理解的是,其并不属于手机的必须构成,完全可以根据需要在不改变发明的本质的范围内而省略。
处理器780是手机的控制中心,利用各种接口和线路连接整个手机的各个部分,通过运行或执行存储在存储器720内的软件程序和/或模块,以及调用存储在存储器720内的数据,执行手机的各种功能和处理数据,从而对手机进行整体检测。可选的,处理器780可包括一个或多个处理单元;优选的,处理器780可集成应用处理器和调制解调处理器,其中,应用处理器主要处理操作系统、用户界面和应用程序等,调制解调处理器主要处理无线通信。可以理解的是,上述调制解调处理器也可以不集成到处理器780中。
手机还包括给各个部件供电的电源790(比如电池),优选的,电源可以通过电源管理系统与处理器780逻辑相连,从而通过电源管理系统实现管理充电、放电、以及功耗管理等功能。
尽管未示出,手机还可以包括摄像头、蓝牙模块等,在此不再赘述。
在本实施例中,该终端设备所包括的处理器780还具有以下功能:
获取目标人脸图像;
通过参数确定模型,根据所述目标人脸图像,确定所述目标人脸图像对应的第一人脸参数;
生成所述第一人脸参数对应的第一人脸模型;
合成所述第一人脸模型对应的第一样本人脸图像,所述第一人脸模型为所述第一样本人脸图像对应的样本人脸模型。
本申请实施例还提供一种服务器,请参见图8所示,图8为本申请实施例提供的服务器800的结构图,服务器800可因配置或性能不同而产生比较大的差异,可以包括一个或一个以上中央处理器(Central Processing Units,简称CPU)822(例如,一个或一个以上处理器)和存储器832,一个或一个以上存储应用程序842或数据844的存储介质830(例如一个或一个以上海量存储设备)。其中,存储器832和存储介质830可以是短暂存储或持久存储。存储在存储介质830的程序可以包括一个或一个以上模块(图示没标出),每个模块可以包括对服务器中的一系列指令操作。更进一步地,中央处理器822可以设置为与存储介质830通信,在服务器800上执行存储介质830中的一系列指令操作。
服务器800还可以包括一个或一个以上电源826,一个或一个以上有线或无线网络接口850,一个或一个以上输入输出接口858,和/或,一个或一个以上操作系统841,例如Windows ServerTM,Mac OS XTM,UnixTM,LinuxTM,FreeBSDTM等等。
上述实施例中由服务器所执行的步骤可以基于图8所示的服务器结构。
另外,本申请实施例还提供了一种存储介质,所述存储介质用于存储计算机程序,所述计算机程序用于执行上述实施例提供的人脸样本构建方法。
本申请实施例还提供了一种包括指令的计算机程序产品,当其在计算机上运行时,使得计算机执行上述实施例提供的人脸样本构建方法。
本领域普通技术人员可以理解:实现上述方法实施例的全部或部分步骤可以通过程序指令相关的硬件来完成,前述程序可以存储于一计算机可读取存储介质中,该程序在执行时,执行包括上述方法实施例的步骤;而前述的存储介质可以是下述介质中的至少一种:只读存储器(英文:read-only memory,缩写:ROM)、RAM、磁碟或者光盘等各种可以存储程序代码的介质。
需要说明的是,本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于设备及系统实施例而言,由于其基本相似于方法实施例,所以描述得比较简单,相关之处参见方法实施例的部分说明即可。以上所描述的设备及系统实施例仅仅是示意性的,其中作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。
以上所述,仅为本申请的一种具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应该以权利要求的保护范围为准。
Claims (12)
1.一种人脸样本构建方法,其特征在于,所述方法包括:
获取目标人脸图像;
通过参数确定模型,根据所述目标人脸图像,确定所述目标人脸图像对应的第一人脸参数;
生成所述第一人脸参数对应的第一人脸模型;
合成所述第一人脸模型对应的第一样本人脸图像,所述第一人脸模型为所述第一样本人脸图像对应的样本人脸模型。
2.根据权利要求1所述的方法,其特征在于,所述参数确定模型是通过以下方式训练得到的:
通过初始参数确定模型,确定第二样本人脸图像对应的第二人脸参数、位姿参数和光照参数;
根据所述第二人脸参数生成所述第二样本人脸图像对应的第二人脸模型;
根据所述位姿参数和所述光照参数,合成所述第二人脸模型对应的待定人脸图像;
根据所述第二样本人脸图像与所述待定人脸图像之间的差异,调节所述初始参数确定模型,得到所述参数确定模型。
3.根据权利要求1所述的方法,其特征在于,所述第一人脸模型为多个第一人脸模型,所述生成所述第一人脸参数对应的第一人脸模型,包括:
确定所述第一人脸参数对应的多个干扰参数;
根据所述第一人脸参数和所述多个干扰参数,生成多个扩充人脸参数;
根据所述多个扩充人脸参数确定所述多个第一人脸模型。
4.根据权利要求3所述的方法,其特征在于,所述方法还包括:
确定所述多个第一人脸模型分别对应的人脸衡量参数,所述人脸衡量参数用于衡量所述多个第一人脸模型是否真实;
筛除所述多个第一人脸模型中人脸衡量参数不满足人脸衡量参数阈值的第一人脸模型;
所述合成所述第一人脸模型对应的第一样本人脸图像,包括:
合成经过筛除处理后的多个第一人脸模型分别对应的第一样本人脸图像。
5.根据权利要求4所述的方法,其特征在于,所述人脸衡量参数包括人脸深度衡量参数和/或人脸平面衡量参数;
针对所述人脸衡量参数包括所述人脸深度衡量参数,所述确定所述多个第一人脸模型对应的人脸衡量参数,包括:
确定各个第一人脸模型上鼻尖关键点与耳朵关键点在人脸深度方向上的距离参数,所述人脸深度方向为垂直于人脸五官平面的方向;
将所述距离参数确定为所述人脸深度衡量参数;
所述人脸衡量参数阈值为人脸深度衡量参数阈值,所述筛除所述多个第一人脸模型中人脸衡量参数不满足人脸衡量参数阈值的第一人脸模型,包括:
筛除所述多个第一人脸模型中人脸深度衡量参数小于所述人脸深度衡量参数阈值的第一人脸模型;
针对所述人脸衡量参数包括所述人脸平面衡量参数,所述确定所述多个第一人脸模型对应的人脸衡量参数,包括:
确定各个第一人脸模型上人脸一侧中的第一人脸关键点在人脸另一侧中对应的第一目标位置;
确定第二人脸关键点在所述人脸另一侧中对应的第二目标位置,所述第二人脸关键点与所述第一人脸关键点相对应;
根据所述第一目标位置与所述第二目标位置之间的距离差值,确定所述人脸平面衡量参数;
所述人脸衡量参数阈值为人脸平面衡量参数阈值,所述筛除所述多个第一人脸模型中人脸衡量参数不满足人脸衡量参数阈值的第一人脸模型,包括:
筛除所述多个第一人脸模型中人脸平面衡量参数大于所述人脸平面衡量参数阈值的第一人脸模型。
6.根据权利要求1所述的方法,其特征在于,所述第一人脸参数包括人脸模型参数和人脸纹理参数,所述生成所述第一人脸参数对应的第一人脸模型,包括:
根据所述人脸模型参数生成基础人脸模型,以及根据所述人脸纹理参数生成纹理贴图;
根据基础人脸模型和所述纹理贴图,生成所述第一人脸模型。
7.根据权利要求6所述的方法,其特征在于,所述第一人脸模型为多个第一人脸模型,所述根据基础人脸模型和所述纹理贴图,生成所述第一人脸模型,包括:
调节所述纹理贴图对应的纹理颜色参数,得到多个扩充纹理贴图;
根据所述基础人脸模型和所述多个扩充纹理贴图,生成所述多个第一人脸模型。
8.根据权利要求1所述的方法,其特征在于,所述合成所述第一人脸模型对应的第一样本人脸图像,包括:
确定所述第一人脸模型对应的合成参数,所述合成参数包括合成光照参数和合成相机参数中的任意一种或多种的组合,所述光照参数用于标识所述第一人脸模型对应的光照环境,所述合成相机参数用于确定所述第一人脸模型在所述第一样本人脸图像中的人脸位姿;
根据所述合成参数,合成所述第一人脸模型对应的第一样本人脸图像。
9.一种人脸样本构建装置,其特征在于,所述装置包括获取单元、第一确定单元、生成单元和合成单元:
所述获取单元,用于获取目标人脸图像;
所述第一确定单元,用于通过参数确定模型,根据所述目标人脸图像,确定所述目标人脸图像对应的第一人脸参数;
所述生成单元,用于生成所述第一人脸参数对应的第一人脸模型;
所述合成单元,用于合成所述第一人脸模型对应的第一样本人脸图像,所述第一人脸模型为所述第一样本人脸图像对应的样本人脸模型。
10.一种计算机设备,其特征在于,所述计算机设备包括处理器以及存储器:
所述存储器用于存储程序代码,并将所述程序代码传输给所述处理器;
所述处理器用于根据所述程序代码中的指令执行权利要求1-8中任意一项所述的人脸样本构建方法。
11.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质用于存储计算机程序,所述计算机程序用于执行权利要求1-8中任意一项所述的人脸样本构建方法。
12.一种包括指令的计算机程序产品,当其在计算机上运行时,使得所述计算机执行权利要求1-8中任意一项所述的人脸样本构建方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210243213.1A CN116778076A (zh) | 2022-03-11 | 2022-03-11 | 一种人脸样本构建方法和相关装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210243213.1A CN116778076A (zh) | 2022-03-11 | 2022-03-11 | 一种人脸样本构建方法和相关装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116778076A true CN116778076A (zh) | 2023-09-19 |
Family
ID=87991854
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210243213.1A Pending CN116778076A (zh) | 2022-03-11 | 2022-03-11 | 一种人脸样本构建方法和相关装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116778076A (zh) |
-
2022
- 2022-03-11 CN CN202210243213.1A patent/CN116778076A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107818288B (zh) | 标志牌信息获取方法及装置 | |
CN111145339B (zh) | 图像处理方法及装置、设备、存储介质 | |
CN108989678B (zh) | 一种图像处理方法、移动终端 | |
CN107506732B (zh) | 贴图的方法、设备、移动终端以及计算机存储介质 | |
CN111182453A (zh) | 定位方法、装置、电子设备及存储介质 | |
CN108304758A (zh) | 人脸特征点跟踪方法及装置 | |
CN108271012A (zh) | 一种深度信息的获取方法、装置以及移动终端 | |
CN109522863B (zh) | 耳部关键点检测方法、装置及存储介质 | |
CN106648118A (zh) | 一种基于增强现实的虚拟教学方法与终端设备 | |
CN109816042B (zh) | 数据分类模型训练的方法、装置、电子设备和存储介质 | |
CN111311757B (zh) | 一种场景合成方法、装置、存储介质及移动终端 | |
CN107730460B (zh) | 一种图像处理方法及移动终端 | |
CN111383309A (zh) | 一种骨骼动画驱动方法、装置及存储介质 | |
CN107566749A (zh) | 拍摄方法及移动终端 | |
CN107580176A (zh) | 一种终端拍摄控制方法、摄像终端及计算机可读存储介质 | |
CN109685907A (zh) | 基于增强现实的图像结合方法及系统 | |
CN110717964B (zh) | 场景建模方法、终端及可读存储介质 | |
CN110490295B (zh) | 一种数据处理方法及处理装置 | |
CN110166275B (zh) | 信息处理方法、装置及存储介质 | |
CN111261174B (zh) | 音频的分类方法、装置、终端及计算机可读存储介质 | |
CN111982293B (zh) | 体温测量方法、装置、电子设备及存储介质 | |
CN109660663A (zh) | 一种天线调整方法及移动终端 | |
CN110148167A (zh) | 一种距离测量方法及终端设备 | |
CN116778076A (zh) | 一种人脸样本构建方法和相关装置 | |
CN115331689A (zh) | 语音降噪模型的训练方法、装置、设备、存储介质及产品 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |