CN116958378A - 面部贴图重建方法、装置、计算机可读介质及电子设备 - Google Patents
面部贴图重建方法、装置、计算机可读介质及电子设备 Download PDFInfo
- Publication number
- CN116958378A CN116958378A CN202310179866.2A CN202310179866A CN116958378A CN 116958378 A CN116958378 A CN 116958378A CN 202310179866 A CN202310179866 A CN 202310179866A CN 116958378 A CN116958378 A CN 116958378A
- Authority
- CN
- China
- Prior art keywords
- map
- face
- facial
- mapping
- texture
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 118
- 238000013507 mapping Methods 0.000 claims abstract description 184
- 230000001815 facial effect Effects 0.000 claims abstract description 173
- 230000000007 visual effect Effects 0.000 claims abstract description 87
- 239000013598 vector Substances 0.000 claims description 136
- 210000004709 eyebrow Anatomy 0.000 claims description 42
- 230000004927 fusion Effects 0.000 claims description 24
- 238000004590 computer program Methods 0.000 claims description 23
- 238000000605 extraction Methods 0.000 claims description 16
- 238000003860 storage Methods 0.000 claims description 16
- 208000006440 Open Bite Diseases 0.000 claims description 14
- 238000004422 calculation algorithm Methods 0.000 claims description 11
- 238000003708 edge detection Methods 0.000 claims description 8
- 210000004209 hair Anatomy 0.000 claims description 8
- 238000001914 filtration Methods 0.000 claims description 6
- 238000012545 processing Methods 0.000 description 27
- 238000010586 diagram Methods 0.000 description 23
- 230000008569 process Effects 0.000 description 18
- 239000011148 porous material Substances 0.000 description 13
- 230000000295 complement effect Effects 0.000 description 10
- 238000004891 communication Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 8
- 230000003287 optical effect Effects 0.000 description 4
- 230000009467 reduction Effects 0.000 description 4
- 238000011161 development Methods 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 238000009877 rendering Methods 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 238000000513 principal component analysis Methods 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 230000000717 retained effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 206010027145 Melanocytic naevus Diseases 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 208000007256 Nevus Diseases 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 230000003042 antagnostic effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 230000006798 recombination Effects 0.000 description 1
- 238000005215 recombination Methods 0.000 description 1
- 230000001502 supplementing effect Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 230000037303 wrinkles Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/04—Texture mapping
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Graphics (AREA)
- Image Processing (AREA)
Abstract
本申请的实施例提供了一种面部贴图重建方法、装置、计算机可读介质及电子设备。该面部贴图重建方法包括:获取目标对象不同视角的面部图像;将不同视角的面部图像所对应的面部纹理信息映射到纹理空间,得到不同视角的纹理贴图;将不同视角的纹理贴图进行拼接,得到拼接后的面部贴图;将拼接后的面部贴图与贴图模板进行融合,得到贴图重建结果。本申请实施例的技术方案可以保留目标对象对应的原始面部图像中较为全面的面部纹理信息,并且可以还原得到质量较高的贴图重建结果。
Description
技术领域
本申请涉及计算机及通信技术领域,具体而言,涉及一种面部贴图重建方法、装置、计算机可读介质及电子设备。
背景技术
面部重建是计算机视觉比较热门的一个方向,其主要任务为根据输入的面部图片,重建其对应的3d形状与贴图,然后可以将重建的结果应用于与面部相关的应用,例如可以应用于短视频领域。在相关技术方案中,在进行面部重建时,往往存在得到的重建结果质量不佳的问题。
发明内容
本申请的实施例提供了一种面部贴图重建方法、装置、计算机可读介质及电子设备,进而可以克服重建结果质量不佳的问题。
本申请的其他特性和优点将通过下面的详细描述变得显然,或部分地通过本申请的实践而习得。
根据本申请实施例的一个方面,提供了一种面部贴图重建方法,所述方法包括:
获取目标对象不同视角的面部图像;
将所述不同视角的面部图像所对应的面部纹理信息映射到纹理空间,得到不同视角的纹理贴图;
将所述不同视角的纹理贴图进行拼接,得到拼接后的面部贴图;
将所述拼接后的面部贴图与贴图模板进行融合,得到贴图重建结果。
根据本申请实施例的一个方面,提供了一种面部贴图重建装置,所述装置包括:
获取模块,用于获取目标对象不同视角的面部图像;
映射模块,用于将所述不同视角的面部图像所对应的面部纹理信息映射到纹理空间,得到不同视角的纹理贴图;
拼接模块,用于将所述不同视角的纹理贴图进行拼接,得到拼接后的面部贴图;
融合模块,用于将所述拼接后的面部贴图与贴图模板进行融合,得到贴图重建结果。
在本申请的一些实施例中,基于以上技术方案,所述获取模块还用于,获取目标对象指定视角的面部图像;对所述指定视角的面部图像对应的面部姿势参数进行调整,得到所述目标对象不同视角的面部图像。
在本申请的一些实施例中,基于以上技术方案,所述获取模块还用于,对所述指定视角的面部图像进行特征提取,得到第一编码向量;对所述第一编码向量中的面部姿势向量进行参数调整,得到不同视角的面部图像所对应的编码向量;基于所述不同视角的面部图像所对应的编码向量,得到不同视角的面部图像。
在本申请的一些实施例中,基于以上技术方案,所述获取模块还用于,获取初始化编码向量;根据所述初始化编码向量,生成所述初始化编码向量对应的待调整图像;计算所述待调整图像与所述指定视角的面部图像的相似度,基于所述相似度对所述初始化编码向量进行调整,直至所述待调整图像与所述指定视角的面部图像之间的相似度大于或等于设定阈值;在所述待调整图像与所述指定视角的面部图像之间的相似度大于或等于设定阈值时,将所述待调整图像对应的编码向量作为所述第一编码向量。
在本申请的一些实施例中,基于以上技术方案,所述映射模块还用于,将各个视角的面部图像所对应的重建模型投影至图像平面,得到所述重建模型中包含的三角形区域在图像平面中的位置;将所述重建模型投影至纹理平面,得到所述重建模型中包含的三角形区域在纹理平面中的位置;根据所述重建模型中包含的三角形区域在图像平面中的位置与在纹理平面中的位置之间的对应关系,得到所述各个视角的面部图像与所述纹理空间之间的映射关系;根据所述映射关系将所述各个视角的面部图像映射到所述纹理空间,得到所述各个视角对应的纹理贴图。
在本申请的一些实施例中,基于以上技术方案,所述拼接模块还用于,根据所述不同视角的纹理贴图生成不同视角的纹理贴图所对应的掩膜图像;基于所述不同视角的纹理贴图所对应的掩膜图像,从所述不同视角的纹理贴图中提取出局部纹理信息;将从所述不同视角的纹理贴图中提取出的所述局部纹理信息进行拼接融合,得到拼接后的面部贴图。
在本申请的一些实施例中,基于以上技术方案,所述融合模块还用于,从贴图模板库中选择与所述拼接后的面部贴图匹配的贴图模板;将所述拼接后的面部贴图与所述匹配的贴图模板进行融合,得到所述贴图重建结果。
在本申请的一些实施例中,基于以上技术方案,所述融合模块还用于,对所述拼接后的面部贴图进行特征提取,得到第一面部特征;对所述贴图模板库中的贴图模板进行特征提取,得到第二面部特征;计算所述第一面部特征与所述第二面部特征之间的相似度,将相似度最接近的贴图模板作为所述匹配的贴图模板。
在本申请的一些实施例中,基于以上技术方案,所述融合模块还用于,将所述拼接后的面部贴图中的高低频信息进行分离,得到所述拼接后的面部贴图中的高频信息和低频信息;将所述匹配的贴图模板中的高低频信息进行分离,得到所述匹配的贴图模板中的高频信息和低频信息;将所述拼接后的面部贴图中的低频信息与所述匹配的贴图模板中的高频信息进行融合,得到所述贴图重建结果。
在本申请的一些实施例中,基于以上技术方案,所述融合模块还用于,采用边缘检测算法从所述拼接后的面部贴图的高频信息中提取轮廓特征,得到轮廓特征区域;将所述拼接后的面部贴图中的低频信息与所述匹配的贴图模板中的高频信息的融合结果与所述轮廓特征区域进行融合,得到所述贴图重建结果。
在本申请的一些实施例中,基于以上技术方案,所述融合模块还用于,采用高斯滤波提取所述拼接后的面部贴图中的低频信息;将所述拼接后的面部贴图减去所述低频信息,得到拼接后的面部贴图中的高频信息。
在本申请的一些实施例中,基于以上技术方案,所述装置还包括提取模块,用于从所述目标对象指定视角的面部图像中提取出眉毛特征;将所述眉毛特征与所述贴图重建结果进行融合,得到优化后的贴图重建结果。
在本申请的一些实施例中,基于以上技术方案,所述提取模块还用于,对所述指定视角的面部图像进行特征提取,得到第二编码向量;对所述第二编码向量中的头发长短特征向量进行参数调整,得到无遮挡的面部图像所对应的编码向量;基于所述无遮挡的面部图像所对应的编码向量,得到眉毛无遮挡的面部图像;对所述无遮挡的面部图像对应的面部纹理信息映射到纹理空间,得到与所述无遮挡的面部图像对应的贴图;提取所述无遮挡的面部图像对应的贴图中的眉毛区域,得到所述眉毛特征。
根据本申请实施例的一个方面,提供了一种计算机可读介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现如上述实施例中所述的面部贴图重建方法。
根据本申请实施例的一个方面,提供了一种电子设备,包括:一个或多个处理器;存储装置,用于存储一个或多个计算机程序,当所述一个或多个计算机程序被所述一个或多个处理器执行时,使得所述电子设备实现如上述实施例中所述的面部贴图重建方法。
根据本申请实施例的一个方面,提供了一种计算机程序产品,该计算机程序产品包括计算机程序,该计算机程序存储在计算机可读存储介质中。电子设备的处理器从计算机可读存储介质读取并执行该计算机程序,使得该电子设备执行上述各种可选实施例中提供的面部贴图重建方法。
在本申请一些实施例所提供的技术方案中,先获取目标对象不同视角的面部图像,通过不同视角的面部图像得到不同视角的纹理贴图,从而可以保留得到目标对象对应的原始面部图像中较为全面的面部纹理信息。然后,将不同视角的纹理贴图进行拼接,得到拼接后的面部贴图,并将拼接后的面部贴图与贴图模板进行融合,使得可以利用高质量的贴图模板补全重建过程丢失的毛孔细节特征,从而可以还原得到质量较高的贴图重建结果。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本申请。
附图说明
图1示出了可以应用本申请实施例的技术方案的示例性系统架构的示意图。
图2示出了根据本申请的一个实施例的面部贴图重建方法的流程图。
图3示出了根据本申请的一个实施例的面部贴图重建方法的流程图。
图4示出了根据本申请的一个实施例的面部贴图重建方法的流程图。
图5示出了根据本申请的一个实施例的第一编码向量的简化示意图。
图6示出了根据本申请的一个实施例的面部贴图重建方法的流程图。
图7示出了根据本申请的一个实施例的得到第一编码向量的示意图。
图8示出了根据本申请的一个实施例的面部贴图重建方法的流程图。
图9示出了根据本申请的一个实施例的不同视角的面部图像所对应的面部纹理信息映射到纹理空间的示意图。
图10示出了根据本申请的一个实施例的面部贴图重建方法的流程图。
图11示出了根据本申请的一个实施例的将不同视角的纹理贴图进行拼接,得到拼接后的面部贴图的示意图。
图12示出了根据本申请的一个实施例的面部贴图重建方法的流程图。
图13示出了根据本申请的一个实施例的面部贴图重建方法的流程图。
图14示出了根据本申请的一个实施例的从贴图模板库中选择与拼接后的面部贴图匹配的贴图模板的示意图。
图15示出了根据本申请的一个实施例的面部贴图重建方法的流程图。
图16示出了根据本申请的一个实施例的面部贴图重建方法的流程图。
图17示出了根据本申请的一个实施例的面部贴图重建方法的流程图。
图18示出了根据本申请的一个实施例的将眉毛特征与贴图重建结果进行融合的示意图。
图19示出了根据本申请的一个实施例的面部贴图重建方法的流程图。
图20示出了根据本申请的一个实施例的面部贴图重建方法的流程图。
图21示出了根据本申请的一个实施例的面部贴图重建装置的框图。
图22示出了适于用来实现本申请实施例的电子设备的计算机系统的结构示意图。
具体实施方式
现在参考附图以更全面的方式描述示例实施方式。然而,示例的实施方式能够以各种形式实施,且不应被理解为仅限于这些范例;相反,提供这些实施方式的目的是使得本申请更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。
此外,本申请所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施例中。在下面的描述中,有许多具体细节从而可以充分理解本申请的实施例。然而,本领域技术人员应意识到,在实施本申请的技术方案时可以不需用到实施例中的所有细节特征,可以省略一个或更多特定细节,或者可以采用其它的方法、元件、装置、步骤等。
附图中所示的方框图仅仅是功能实体,不一定必须与物理上独立的实体相对应。即,可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
附图中所示的流程图仅是示例性说明,不是必须包括所有的内容和操作/步骤,也不是必须按所描述的顺序执行。例如,有的操作/步骤还可以分解,而有的操作/步骤可以合并或部分合并,因此实际执行的顺序有可能根据实际情况改变。
需要说明的是:在本文中提及的“多个”是指两个或两个以上。“和/或”描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。字符“/”一般表示前后关联对象是一种“或”的关系。
可以理解的是,在本申请的具体实施方式中,涉及到对象信息等相关的数据,当本申请以上实施例运用到具体产品或技术中时,需要获得用户许可或者同意,且相关数据的收集、使用和处理需要遵守相关国家和地区的相关法律法规和标准。
为了便于理解本申请的技术方案,对部分缩略词以及关键术语进行如下说明:
3DMM(3D Morphable models,三维可变形人脸模型):3DMM可以理解为将人脸形状与人脸贴图变成一系列正交基底的加权和的形式。基底由一定数据量的人脸模型库经过PCA(主成分分析)计算得出,在重建过程中作为已知量,待求解量为基底的系数。公式如下,其中字母均表示向量,x表示形状,c表示贴图,α和β分别为形状基底和贴图基底,求解系数为Φ和Ψ:
UV:UV是纹理贴图坐标的简称。它定义了图片上每个点的位置的信息,这些点与3D模型是相互联系的,以决定表面纹理贴图的位置。具体地,UV就是将图像上每一个点精确对应到模型物体的表面。
在相关技术方案中,在进行面部重建时所采用的方案主要包括如下几种方式,其中,面部重建以人脸重建为例:
第一种方式为:在可控的光场(light stage)环境下,同时拍摄人脸的多张照片。由于光场中的相机已经标定完成,所以可以直接用多视角立体视觉(MVS)算法进行重建。由于光场中的相机均为专业相机,重建所得的贴图分辨率极高,通常在8K以上。而且相机上会设置偏振片,可分离人脸表面的漫反射与高光反射,可生成去光照影响的贴图,在游戏引擎中可重新渲染打光。
第二种方式为:使用3DMM作为人脸表达与可微渲染器构建自监督学习框架。该类方法首先使用卷积神经网络处理输入图片,预测3DMM系数,然后使用可微渲染器将重建结果渲染成图片,最后使用渲染图与输入图计算损失函数,从而回传梯度优化网络参数。这种方式只需使用大量人脸图片,即可训练人脸重建网络,并且能得到较为不错的重建结果。
第三种方式为:在light stage中采集了大量数据,而这些数据中包括人脸照片以及贴图重建结果。当输入一张图片时,可采用任意一种形状重建的算法得到人脸形状,然后进行贴图重建。在贴图重建时采用监督学习框架,使用pixel2pixel网络训练输入图片到重建贴图之间的映射。
对于第一种方式,该方式需要固定的场地,成本极高,并且搭建light stage,耗资在百万量级;而且拍摄时需要预约演员,进行一系列准备工作。对于该方式操作流程繁复,普通用户无法使用。另外,为了在下游任务中的可用性,重建完成之后需要美术人员的修正与处理,耗时耗力。
对于第二种方式,此方案可作为一种低成本方案提供给使用者使用,虽然该方式能够在短时间内通过一张或多张图生成相应的三维重建结果,但此方法有不少局限性,比如生成的人脸只有面部区域,后续在下游任务中使用时,还需要补全头部等流程。另外,该方式最大的局限当属生成的贴图较为平滑,缺乏面部细节,还原度低。
对于第三种方式,该方式也需要极高的成本进行数据采集,而且该方式重组结果的还原度仍有不足。由此可知,在相关技术方案在进行面部重建时,要么存在面部重建效果不佳的问题,要么存在虽然面部重建效果理想,但是需要花费的成本高的问题。
基于此,本申请实施例提供了一种新的面部重建方案,该面部重建方案不仅成本低,而且得到的重建结果质量较高。
具体地,图1示出了可以应用本申请实施例的技术方案的示例性系统架构的示意图。具体如图1所示,该数据处理方案的系统架构可以包括终端设备10和服务器30。终端设备10和服务器30之间可以通过提供通信链路的网络20进行通信连接。而网络可以包括各种连接类型,例如有线通信链路、无线通信链路等等。
可选地,服务器30可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群或者分布式系统,还可以是提供云计算服务的云服务器。终端设备10可以是智能手机、平板电脑、笔记本电脑、台式计算机、智能音箱、智能手表、车载终端、智能电视、飞行器等,但并不局限于此。
应该理解,图1中的终端设备和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备和服务器。比如服务器30可以是多个服务器组成的服务器集群等。
在本申请的一个实施例中,终端设备10的使用者可以使用终端设备10通过网络与服务器30交互,使用者利用终端设备10进行拍摄,然后将终端设备拍摄到的面部图像上传至服务器30,服务器30根据上传的面部图像生成目标对象不同视角的面部图像,将不同视角的面部图像所对应的面部纹理信息映射到纹理空间,得到不同视角的纹理贴图;将不同视角的纹理贴图进行拼接,得到拼接后的面部贴图;将拼接后的面部贴图与贴图模板进行融合,得到贴图重建结果。服务器30在得到贴图重建结果之后可以将该结果返回给终端设备10,以供目标对象使用。
在本申请实施例的技术方案中,先获取目标对象不同视角的面部图像,通过不同视角的面部图像得到不同视角的纹理贴图,从而可以保留得到目标对象对应的原始面部图像中较为全面的面部纹理信息。然后,将不同视角的纹理贴图进行拼接,得到拼接后的面部贴图,并将拼接后的面部贴图与贴图模板进行融合,使得可以利用高质量的贴图模板补全重建过程丢失的毛孔细节特征,从而可以还原得到质量较高的贴图重建结果。而且本申请在面部重建过程中,也不需要花费高额的成本去搭建拍摄环境,所采用的成本不高,对于普通对象也可以使用。
需要说明的是,本申请的面部贴图重建方法可以用于游戏开发场景、虚拟形象建立等场景中,下面进行简要的场景说明。
在本申请的一个应用场景中,在游戏开发阶段,采用该方式可以帮助美术开发人员快速制作高质量的面部贴图。具体地,首先采集多个目标不同视角的面部图像,将不同视角的面部图像所对应的面部纹理信息映射到纹理空间,得到不同视角的纹理贴图;将不同视角的纹理贴图进行拼接,得到拼接后的面部贴图;将拼接后的面部贴图与贴图模板进行融合,以得到贴图重建结果,从而可以快速制作得到美术开发人员所需要的面部贴图,进而提升了游戏开发效率。
在本申请的一个应用场景中,为了建立目标对象的虚拟形象,可以先采集该目标对象在不同视角的面部图像,将不同视角的面部图像所对应的面部纹理信息映射到纹理空间,得到不同视角的纹理贴图;将不同视角的纹理贴图进行拼接,得到拼接后的面部贴图;将拼接后的面部贴图与贴图模板进行融合,以得到贴图重建结果,从而可以快速建立得到目标对象的虚拟形象,增加了生活趣味性。
以下对本申请实施例的技术方案的实现细节进行详细阐述:
图2示出了根据本申请的一个实施例的面部贴图重建方法的流程图,该面部贴图重建方法可以由服务器来执行,该服务器可以是图1中所示的服务器。参照图2所示,该面部贴图重建方法至少包括S201至S204,详细介绍如下:
在S201中,获取目标对象不同视角的面部图像。
在一些可选的实施例中,目标对象为待处理对象,例如可以为人或者动物等其他,本领域技术人员可以实际需要进行确定,在本申请中,主要是以人作为目标对象。
在获取目标对象不同视角的面部图像时,例如可以获取目标对象的正脸图像、左侧脸图像或者右侧脸图像等。其中,这些不同视角的面部图像可以是通过图像采集设备,比如摄像机等在不同的角度采集到的。这样,通过获取目标对象不同视角的面部图像,从而有利于掌握目标对象较为全面的面部特征,便于后续在还原面部图像时可以还原得到的更多原始面部特征。
在S202中,将不同视角的面部图像所对应的面部纹理信息映射到纹理空间,得到不同视角的纹理贴图。
在一些可选的实施例中,在得到目标对象不同视角的面部图像后,将每个视角的面部图像所对应的面部纹理信息均映射到纹理空间,从而得到各个视角的纹理贴图。这样,通过将不同视角的面部所对应的面部纹理信息映射到纹理空间,从而有利于将面部图像上每个点精确对应到三维模型的表面,进一步有利于面部图像的重建。
在S203中,将不同视角的纹理贴图进行拼接,得到拼接后的面部贴图。
在一些可选的实施例中,在得到不同视角的纹理贴图之后,将不同视角的纹理贴图拼接起来,从而得到拼接后的面部贴图。这样,通过将不同视角的纹理贴图进行拼接,从而有利于对面部图像的重建。
在S204中,将拼接后的面部贴图与贴图模板进行融合,得到贴图重建结果。
在一些可选的实施例中,贴图模板是从贴图模板库中选取的,而贴图模板库是预先构建形成的。在得到拼接后的面部贴图之后,将拼接后的面部贴图与贴图模板进行融合。通过将拼接后的面部贴图与贴图模板进行融合,利用高质量的贴图模板补全重建过程丢失的毛孔细节特征,这样,从而有利于还原得到质量较高的贴图重建结果。
在本申请一些实施例所提供的技术方案中,先获取目标对象不同视角的面部图像,通过不同视角的面部图像得到不同视角的纹理贴图,从而可以保留得到目标对象对应的原始面部图像中较为全面的面部纹理信息。然后,将不同视角的纹理贴图进行拼接,得到拼接后的面部贴图,并将拼接后的面部贴图与贴图模板进行融合,使得可以利用高质量的贴图模板补全重建过程丢失的毛孔细节特征,从而可以还原得到质量较高的贴图重建结果。
在一些可选的实施例中,参见图3,图3示出了根据本申请的一个实施例的面部贴图重建方法的流程图。该面部贴图重建方法主要可以包括如下步骤。
在S301中,获取目标对象指定视角的面部图像。
在一些可选的实施例中,指定视角可以由系统定义或者人为定义,例如可以为指定正脸面部图像,通过获取目标对象的正脸面部图像,从而有利于获取得到目标对象较全面的面部特征,进而有利于后续面部图像的重建。当然,指定视角也可以指定为侧脸面部图像,本领域技术人员可以根据实际需要进行选择,在此不予限定。
在S302中,对指定视角的面部图像对应的面部姿势参数进行调整,得到目标对象不同视角的面部图像。
在一些可选的实施例中,在基于目标对象指定视角的面部图像获得目标对象不同视角的面部图像时,可以采用styleGAN算法实现。这样,通过对指定视角的面部图像对应的面部姿势参数进行调整,从而有利于得到多视角的面部图像。进一步地,通过得到多视角的面部图像从而有利于还原得到质量较高的面部图像。
在S202中,将不同视角的面部图像所对应的面部纹理信息映射到纹理空间,得到不同视角的纹理贴图。
在S203中,将不同视角的纹理贴图进行拼接,得到拼接后的面部贴图。
在S204中,将拼接后的面部贴图与贴图模板进行融合,得到贴图重建结果。
步骤S202-S204的具体处理过程及相关说明可以参照前述实施例的技术方案,不再赘述。
在本申请实施例中,只需要获取目标对象指定视角的面部图像,然后对指定视角的面部图像对应的面部姿势参数进行调整,从而可以得到目标对象不同视角的面部图像。如此,只需要输入一张目标对象的面部图像,由一张面部图像可以生成多个视角的面部图像,不需要采用高精度的设备采集得到多张图像才可以进行处理,这样,从而可以节省成本,无需昂贵的数据采集流程。
在一些可选的实施例中,参见图4,图4示出了根据本申请的一个实施例的面部贴图重建方法的流程图。该面部贴图重建方法主要可以包括如下步骤。
在S301中,获取目标对象指定视角的面部图像。
该步骤的具体处理过程及相关说明可以参照前述实施例的技术方案,不再赘述。
在S401中,对指定视角的面部图像进行特征提取,得到第一编码向量。
在一些可选的实施例中,通过采用GAN inversion(生成对抗网络-逆映射)对指定视角的面部图像进行特征采集,从而可以得到指定视角的面部图像对应的第一编码向量。
在S402中,对第一编码向量中的面部姿势向量进行参数调整,得到不同视角的面部图像所对应的编码向量。
在一些可选的实施例中,在得到指定视角的面部图像对应的第一编码向量之后,对第一编码向量中的面部姿势向量进行参数调整,调整的参数不同,得到对应不同视角的面部图像所对应的编码向量。
具体地,参见图5,图5示出了根据本申请的一个实施例的第一编码向量的简化示意图。其中,第一编码向量也可以称为隐编码,通过利用styleGAN对于目标对象指定视角的面部图像进行操作。styleGAN在训练过程中会学习一个18*512维的隐编码,隐编码的不同维度能学习到人脸中不同的特征。其中,1~4代表的是姿势、面部形状以及发型的向量;5~8代表的是更精细的面部特征的向量;9~18代表的是颜色和微观特征的向量。以图中的1~4维为例,其对应的矩阵维度为4*512,可以通过修改这4*512维矩阵中的某些维度,可以控制人脸旋转。例如,通过统计朝左和朝右的人脸图片对应的隐向量的差异,寻找到其中与人脸旋转相关的向量方向记为a,原本的4*512维矩阵记为O,那么修改后的向量O_mod=O+na。O和a都是矩阵,n为控制旋转角度大小的标量,可为正或者负,通过如此调整,可以得到不同视角的面部图像所对应的编码向量。这样,通过对第一编码向量中的面部姿势向量进行参数调整,有利于得到不同视角的面部图像所对应的编码向量,进而有利于得到不同视角的面部图像。
在S403中,基于不同视角的面部图像所对应的编码向量,得到不同视角的面部图像。
在一些可选的实施例中,基于不同视角的面部图像所对应的编码向量,得到不同视角的面部图像,从而实现了基于目标对象指定视角的面部图像得到多个不同视角的面部图像。
在S202中,将不同视角的面部图像所对应的面部纹理信息映射到纹理空间,得到不同视角的纹理贴图。
在S203中,将不同视角的纹理贴图进行拼接,得到拼接后的面部贴图。
在S204中,将拼接后的面部贴图与贴图模板进行融合,得到贴图重建结果。
步骤S202-S204的具体处理过程及相关说明可以参照前述实施例的技术方案,不再赘述。
这样,通过对指定视角的面部图像进行特征调节得到第一编码向量,对第一编码向量中的面部姿势向量进行参数调节,以得到不同视角的面部图像所对应的编码向量,从而有利于基于所述不同视角的面部图像所对应的编码向量,得到不同视角的面部图像。
在一些可选的实施例中,参见图6,图6示出了根据本申请的一个实施例的面部贴图重建方法的流程图。该面部贴图重建方法主要可以包括如下步骤。
在S301中,获取目标对象指定视角的面部图像。
该步骤的具体处理过程及相关说明可以参照前述实施例的技术方案,不再赘述。
在S601中,获取初始化编码向量。
在一些可选的实施例中,初始化编码向量指的是先对编码向量进行初始化。
在S602中,根据初始化编码向量,生成初始化编码向量对应的待调整图像。
在一些可选的实施例中,在得到初始化编码向量之后,基于初始化编码向量可以生成一张与初始化编码向量对应的待调整图像。例如,假设设置初始化编码向量为全零,则基于该初始化编码向量,则会生成一张随机噪声图像,这张随机噪声图像可能是一张全是黑点的图像。这样,通过根据初始化编码向量,生成初始化编码向量对应的待调整图像,从而有利于后续调整得到较合适的编码向量,基于该编码向量可以得到与输入图像较为接近的输出图像。
在S603中,计算待调整图像与指定视角的面部图像的相似度,基于相似度对初始化编码向量进行调整,直至待调整图像与指定视角的面部图像之间的相似度大于或等于设定阈值。
在一些可选的实施例中,以初始化编码向量对应的待调整图像作为初始图像,通过计算待调整图像与指定视角的面部图像的相似度,不断对初始化编码向量进行调整,直至最新编码向量对应的待调整图像与指定视角的面部图像最相似,则不再继续调整。
在S604中,在待调整图像与指定视角的面部图像之间的相似度大于或等于设定阈值时,将待调整图像对应的编码向量作为第一编码向量。
在一些可选的实施例中,设定阈值是预先设定的一个值,用于判断待调整图像与指定视角的面部图像为最接近的时候,本领域技术人员可以根据实际需要进行设置,在此不予进行限制。当待调整图像与指定视角的面部图像之间的相似度大于或等于设定阈值时,则认为该待调整图像与指定视角的面部图像最相似,此时将待调整图像对应的编码向量作为第一编码向量。基于该第一编码向量,从而有利于后续对第一编码向量中的面部姿势向量进行参数调节,得到不同视角的面部图像所对应的编码向量,进而基于所述不同视角的面部图像所对应的编码向量,得到不同视角的面部图像。
为了便于理解得到第一编码向量的过程,参见图7,图7示出了根据本申请的一个实施例的得到第一编码向量的示意图。首先获取初始化编码向量z(也可称为隐编码),z经过网络运算之后输出一张图像,然后将网络输出图像与输入图像进行比对,通过计算网络输出图像有输入图像的相似度loss,可以反传梯度对隐编码进行更新,最终loss收敛之后可以得到输入图像对应的隐编码。
在S402中,对第一编码向量中的面部姿势向量进行参数调整,得到不同视角的面部图像所对应的编码向量。
在S403中,基于不同视角的面部图像所对应的编码向量,得到不同视角的面部图像。
在S202中,将不同视角的面部图像所对应的面部纹理信息映射到纹理空间,得到不同视角的纹理贴图。
在S203中,将不同视角的纹理贴图进行拼接,得到拼接后的面部贴图。
在S204中,将拼接后的面部贴图与贴图模板进行融合,得到贴图重建结果。
步骤S402-S204的具体处理过程及相关说明可以参照前述实施例的技术方案,不再赘述。
这样,通过对初始化编码向量进行不断调整,直至当待调整图像与指定视角的面部图像之间的相似度大于或等于设定阈值时,则认为该待调整图像与指定视角的面部图像最相似,此时将待调整图像对应的编码向量作为第一编码向量。基于该第一编码向量,从而有利于后续对第一编码向量中的面部姿势向量进行参数调节,得到不同视角的面部图像所对应的编码向量,进而基于所述不同视角的面部图像所对应的编码向量,得到不同视角的面部图像。
在一些可选的实施例中,参见图8,图8示出了根据本申请的一个实施例的面部贴图重建方法的流程图。该面部贴图重建方法主要可以包括如下步骤。
在S201中,获取目标对象不同视角的面部图像。
该步骤的具体处理过程及相关说明可以参照前述实施例的技术方案,不再赘述。
在S801中,将各个视角的面部图像所对应的重建模型投影至图像平面,得到重建模型中包含的三角形区域在图像平面中的位置。
在一些可选的实施例中,预先构建每个视角的面部图像所对应的重建模型,不同视角的面部图像会有一个与该视角对应的重建模型。其中,重建模型也可称为mesh。在得到各个视角的面部图像所对应的重建模型之后,由于各个视角的面部图像所对应的重建模型中都会存在三角形区域,此时将各个视角的面部图像所对应的重建模型投影至图像平面,从而可以得到各个视角对应的重建模型中包含的三角形区域在图像平面中的位置。
在S802中,将重建模型投影至纹理平面,得到重建模型中包含的三角形区域在纹理平面中的位置。
在一些可选的实施例中,在得到各个视角的面部图像所对应的重建模型之后,由于各个视角的面部图像所对应的重建模型中都会存在三角形区域,将各个视角对应的重建模型投影至纹理平面,得到各个视角对应的重建模型中包含的三角形区域在纹理平面中的位置。
在S803中,根据重建模型中包含的三角形区域在图像平面中的位置与在纹理平面中的位置之间的对应关系,得到各个视角的面部图像与纹理空间之间的映射关系。
在一些可选的实施例中,以各个视角对应的重建模型中包含的三角形区域作为连接点,根据重建模型中包含的三角形区域在图像平面中的位置与在纹理平面中的位置之间的对应关系,从而可以得到各个视角的面部图像与纹理空间之间的映射关系。这样,根据各个视角的面部图像与纹理空间之间的映射关系,从而有利于将不同视角的面部图像所对应的面部纹理信息映射到纹理空间,便于后续面部贴图的重建。
在S804中,根据映射关系将各个视角的面部图像映射到纹理空间,得到各个视角对应的纹理贴图。
在一些可选的实施例中,根据映射关系将各个视角的面部图像映射到纹理空间,得到各个视角对应的纹理贴图,从而有利于将不同视角的面部图像所对应的面部纹理信息映射到纹理空间,便于后续面部贴图的重建。
为了便于理解本申请实施例的方案,参见图9,图9示出了根据本申请的一个实施例的不同视角的面部图像所对应的面部纹理信息映射到纹理空间的示意图。得多视角的图像后,需要执行贴图扒皮操作,贴图扒皮操作也就是将图像中的人脸纹理信息映射到纹理贴图的UV空间中的过程,这样,方便后续在UV空间中进行操作。在该图中Image平面展示的是重建的Mesh投影回输入图像视角后每个三角面对应的位置,UV平面展示的是纹理贴图中每个三角面对应的位置。所以通过箭头所示的映射关系,可以将输入图片中的颜色,迁移到UV图中。对于三角面顶点上的颜色,直接通过对应关系迁移即可。另外,对于三角面内部的点,通过计算它距离三个顶点的距离,那么在UV平面中三角形内部距离三个顶点距离比例与Image平面一致的点,就是它的对应点,进而得到坐标映射关系,以实现将所述不同视角的面部图像所对应的面部纹理信息映射到纹理空间,得到不同视角的纹理贴图。
在S203中,将不同视角的纹理贴图进行拼接,得到拼接后的面部贴图。
在S204中,将拼接后的面部贴图与贴图模板进行融合,得到贴图重建结果。
步骤S203-S204的具体处理过程及相关说明可以参照前述实施例的技术方案,不再赘述。
这样,在得到不同视角的面部图像后,根据不同视角对应的重建模型中包含的三角形区域在图像平面中的位置与在纹理平面中的位置之间的对应关系,得到所述各个视角的面部图像与所述纹理空间之间的映射关系,进而根据所述映射关系将所述各个视角的面部图像映射到所述纹理空间,得到所述各个视角对应的纹理贴图。如此,将图像中的人脸纹理信息映射到纹理贴图的UV空间中,方便后续在UV空间中进行操作。
在一些可选的实施例中,参见图10,图10示出了根据本申请的一个实施例的面部贴图重建方法的流程图。该面部贴图重建方法主要可以包括如下步骤。
在S201中,获取目标对象不同视角的面部图像。
在S202中,将不同视角的面部图像所对应的面部纹理信息映射到纹理空间,得到不同视角的纹理贴图。
步骤S201-S202的具体处理过程及相关说明可以参照前述实施例的技术方案,不再赘述。
在S1001中,根据不同视角的纹理贴图生成不同视角的纹理贴图所对应的掩膜图像。
在一些可选的实施例中,在得到不同视角的纹理贴图之后,根据不同视角的纹理贴图生成不同视角的纹理贴图所对应的掩膜图像,这样,从而便于后续基于掩膜图像快速进行局部纹理信息的提取。
在S1002中,基于不同视角的纹理贴图所对应的掩膜图像,从不同视角的纹理贴图中提取出局部纹理信息。
在一些可选的实施例中,在得到不同视角的纹理贴图所对应的掩膜图像之后,基于不同视角的纹理贴图所对应的掩膜图像,从不同视角的纹理贴图中提取出局部纹理信息。这样,提取方式也比较简单快捷。
在S1003中,将从不同视角的纹理贴图中提取出的局部纹理信息进行拼接融合,得到拼接后的面部贴图。
在一些可选的实施例中,将从不同视角的纹理贴图中提取出的局部纹理信息进行拼接融合,得到拼接后的面部贴图,这样可以保留得到原始面部特征较全面的面部贴图,然后将贴图特征进行拼接融合,拼接得后的面部贴图保留的原始面部特征也比较全面。
为了便于理解本申请实施例,参见图11,图11示出了根据本申请的一个实施例的将不同视角的纹理贴图进行拼接,得到拼接后的面部贴图的示意图。通过前述实施例得到正脸的纹理贴图、左侧脸的纹理贴图以及右侧脸的纹理贴图之后,需要将各个视角的纹理贴图进行拼接。具体地,针对每个视角的纹理贴图,生成对应的掩膜,然后使用泊松融合完成贴图拼接。在进行融合时,可以以正脸的纹理贴图为基础,先拼接左侧脸的纹理贴图,再拼接右侧脸的纹理贴图,从而可以得到拼接后的面部贴图。
在S204中,将拼接后的面部贴图与贴图模板进行融合,得到贴图重建结果。
步骤S203-S204的具体处理过程及相关说明可以参照前述实施例的技术方案,不再赘述。
这样,通过基于不同视角的纹理贴图所对应的掩膜图像,从不同视角的纹理贴图中提取出局部纹理信息,提取更快捷方便。另外,将从不同视角的纹理贴图中提取出的局部纹理信息进行拼接融合,得到拼接后的面部贴图,使得拼接后的面部贴图具有的面部特征更加全面,便于后续重建得到质量较高的面部图像。
在一些可选的实施例中,参见图12,图12示出了根据本申请的一个实施例的面部贴图重建方法的流程图。该面部贴图重建方法主要可以包括如下步骤。
在S201中,获取目标对象不同视角的面部图像。
在S202中,将不同视角的面部图像所对应的面部纹理信息映射到纹理空间,得到不同视角的纹理贴图。
在S203中,将不同视角的纹理贴图进行拼接,得到拼接后的面部贴图。
步骤S201-S203的具体处理过程及相关说明可以参照前述实施例的技术方案,不再赘述。
在S1201中,从贴图模板库中选择与拼接后的面部贴图匹配的贴图模板。
在一些可选的实施例中,预先构建贴图模板库,在贴图模板库包含多张不同类型的高质量贴图模板,每个模板都是用某一个具体的人的肖像制作而成的,可以认为把这个模板贴回模型,就能看到这个人的本来面貌。而每个贴图模板中的差异例如包括:皮肤不同、毛孔分布不同、斑点位置不同、皱纹位置不同,以及部分男性带有胡须等。贴图模板需保证丰富度,每个贴图模板中的细节足以代表大部份的人脸细节变化,以能够涵盖大部分皮肤状况。这样,通过预先构建贴图模板库,从而有利于使用贴图模板库中的贴图模板补全贴图重建流程中丢失的毛孔级细节。
在S1202中,将拼接后的面部贴图与匹配的贴图模板进行融合,得到贴图重建结果。
在一些可选的实施例中,在得到拼接后的面部贴图之后,将拼接后的面部贴图与贴图模板进行融合,这样,利用高质量的贴图模板补全重建过程丢失的毛孔细节特征,从而有利于还原得到高质量的贴图重建结果。
这样,通过从贴图模板库中选择与拼接后的面部贴图匹配的贴图模板,将拼接后的面部贴图与匹配的贴图模板进行融合,利用高质量的贴图模板补全重建过程丢失的毛孔细节特征,从而有利于还原得到高质量的贴图重建结果。
在一些可选的实施例中,参见图13,图13示出了根据本申请的一个实施例的面部贴图重建方法的流程图。该面部贴图重建方法主要可以包括如下步骤。
在S201中,获取目标对象不同视角的面部图像。
在S202中,将不同视角的面部图像所对应的面部纹理信息映射到纹理空间,得到不同视角的纹理贴图。
在S203中,将不同视角的纹理贴图进行拼接,得到拼接后的面部贴图。
步骤S201-S203的具体处理过程及相关说明可以参照前述实施例的技术方案,不再赘述。
在S1301中,对拼接后的面部贴图进行特征提取,得到第一面部特征。
在一些可选的实施例中,可以采用神经网络模型对拼接后的面部贴图进行特征提取,从而可以得到与拼接后的面部贴图对应的第一面部特征。
在S1302中,对贴图模板库中的贴图模板进行特征提取,得到第二面部特征。
在一些可选的实施例中,可以采用神经网络模型对贴图模板库中的贴图模板进行特征提取,从而可以得到与贴图模板库中的贴图模板对应的第二面部特征。
在S1303中,计算第一面部特征与第二面部特征之间的相似度,将相似度最接近的贴图模板作为匹配的贴图模板。
在一些可选的实施例中,在得到第一面部特征和第二面部特征之后,计算第一面部特征与第二面部特征之间的相似度,将相似度最接近时对应的贴图模板作为匹配的贴图模板。
参见图14,图14示出了根据本申请的一个实施例的从贴图模板库中选择与拼接后的面部贴图匹配的贴图模板的示意图。在贴图模板库中包含各种不同类型的贴图模板,在得到拼接后的面部贴图之后,将拼接后的面部贴图与贴图模板库中的贴图模板进行比较,需要在贴图模板库中选择与拼接后的面部贴图最接近的贴图模板。在选择最接近的贴图模板时,此处相似度计算是使用arcface中的人脸识别模块,具体为分别提取拼接后的面部贴图贴回重建Mesh之后的渲染图的特征,和贴图模板库中每一张贴图模板贴回重建Mesh之后的渲染图的特征,然后计算特征两两之间的余弦相似度,选择与拼接后的面部贴图最接近的贴图模板作为匹配的贴图模板。
在S1202中,将拼接后的面部贴图与匹配的贴图模板进行融合,得到贴图重建结果。
该步骤的具体处理过程及相关说明可以参照前述实施例的技术方案,不再赘述。
这样,通过从贴图模板库中选择与拼接后的面部贴图匹配的贴图模板,将拼接后的面部贴图与匹配的贴图模板进行融合,利用高质量的贴图模板补全重建过程丢失的毛孔细节特征,从而有利于还原得到高质量的贴图重建结果。
在一些可选的实施例中,参见图15,图15示出了根据本申请的一个实施例的面部贴图重建方法的流程图。该面部贴图重建方法主要可以包括如下步骤。
在S201中,获取目标对象不同视角的面部图像。
在S202中,将不同视角的面部图像所对应的面部纹理信息映射到纹理空间,得到不同视角的纹理贴图。
在S203中,将不同视角的纹理贴图进行拼接,得到拼接后的面部贴图。
在S1201中,从贴图模板库中选择与拼接后的面部贴图匹配的贴图模板。
步骤S201-S1201的具体处理过程及相关说明可以参照前述实施例的技术方案,不再赘述。
在S1501中,将拼接后的面部贴图中的高低频信息进行分离,得到拼接后的面部贴图中的高频信息和低频信息。
在一些可选的实施例中,在将拼接后的面部贴图中的高低频信息进行分离时,采用高斯滤波提取拼接后的面部贴图中的低频信息;将拼接后的面部贴图减去低频信息,得到拼接后的面部贴图中的高频信息。
在S1502中,将匹配的贴图模板中的高低频信息进行分离,得到匹配的贴图模板中的高频信息和低频信息。
在一些可选的实施例中,在将匹配的贴图模板中的高低频信息进行分离时,采用高斯滤波提取匹配的贴图模板中的低频信息;将匹配的贴图模板减去低频信息,得到匹配的贴图模板中的高频信息。
在S1503中,将拼接后的面部贴图中的低频信息与匹配的贴图模板中的高频信息进行融合,得到贴图重建结果。
在一些可选的实施例中,将拼接后的面部贴图中的低频信息与匹配的贴图模板中的高频信息进行融合,利用高质量的贴图模板补全重建过程丢失的毛孔细节特征,从而有利于还原得到高质量的贴图重建结果。
为了便于理解本申请实施例的方案,例如,假设拼接后的面部贴图记为A,对应匹配的贴图模板记为B。A与B分别进行高斯滤波提取低频信息记为A_L和B_L。然后使用A-A_L得到高频信息A_H,B-B_L得到高频信息B_H。使用泊松融合将A_L与B_H融合得到O,A_L包含拼接后的面部贴图里面的低频信息,低频信息能较好的记录人脸的皮肤信息。B_H中包含匹配的贴图模板的高频信息,高频信息能较好的保留毛孔级细节。
这样,先将拼接后的面部贴图以及匹配的贴图模板中的高低频信息进行分离,然后将拼接后的面部贴图中的低频信息与匹配的贴图模板中的高频信息进行融合,如此,利用高质量的贴图模板补全重建过程丢失的毛孔细节特征,从而有利于还原得到高质量的贴图重建结果。
在一些可选的实施例中,参见图16,图16示出了根据本申请的一个实施例的面部贴图重建方法的流程图。该面部贴图重建方法主要可以包括如下步骤。
在S201中,获取目标对象不同视角的面部图像。
在S202中,将不同视角的面部图像所对应的面部纹理信息映射到纹理空间,得到不同视角的纹理贴图。
在S203中,将不同视角的纹理贴图进行拼接,得到拼接后的面部贴图。
在S1201中,从贴图模板库中选择与拼接后的面部贴图匹配的贴图模板。
在S1501中,将拼接后的面部贴图中的高低频信息进行分离,得到拼接后的面部贴图中的高频信息和低频信息。
在S1502中,将匹配的贴图模板中的高低频信息进行分离,得到匹配的贴图模板中的高频信息和低频信息。
在S1503中,将拼接后的面部贴图中的低频信息与匹配的贴图模板中的高频信息进行融合。
步骤S201-S1503的具体处理过程及相关说明可以参照前述实施例的技术方案,不再赘述。
在S1601中,采用边缘检测算法从拼接后的面部贴图的高频信息中提取轮廓特征,得到轮廓特征区域。
在S1602中,将拼接后的面部贴图中的低频信息与匹配的贴图模板中的高频信息的融合结果与轮廓特征区域进行融合,得到贴图重建结果。
在一些可选的实施例中,有些面部图像中包含痣,为了尽可能还原原始面部图像中的痣特征,通过使用边缘检测算法,提取拼接后的面部贴图高频信息中的痣,将其融合到最终结果中。
具体地,使用边缘检测算法在拼接后的面部贴图的高频信息中提取轮廓,通过计算圆形度与面积,筛选出符合痣特征的区域,然后将其融合到拼接后的面部贴图中的低频信息与匹配的贴图模板中的高频信息的融合结果中,以得到最终的输出结果。
这样,采用边缘检测算法从拼接后的面部贴图的高频信息中提取轮廓特征,得到轮廓特征区域,将拼接后的面部贴图中的低频信息与匹配的贴图模板中的高频信息的融合结果与轮廓特征区域进行融合,从而有利于还原原始面部图像中的痣特征。
在一些可选的实施例中,参见图17,图17示出了根据本申请的一个实施例的面部贴图重建方法的流程图。该面部贴图重建方法主要可以包括如下步骤。
在S201中,获取目标对象不同视角的面部图像。
在S202中,将不同视角的面部图像所对应的面部纹理信息映射到纹理空间,得到不同视角的纹理贴图。
在S203中,将不同视角的纹理贴图进行拼接,得到拼接后的面部贴图。
在S204中,将拼接后的面部贴图与贴图模板进行融合,得到贴图重建结果。
步骤S201-S204的具体处理过程及相关说明可以参照前述实施例的技术方案,不再赘述。
在S1701中,从目标对象指定视角的面部图像中提取出眉毛特征。
在S1702中,将眉毛特征与贴图重建结果进行融合,得到优化后的贴图重建结果。
参见图18,图18示出了根据本申请的一个实施例的将眉毛特征与贴图重建结果进行融合的示意图。由于目标对象指定视角的面部图像中经常会出现头发遮挡眉毛的情况,因此,使用styleCLIP修改输入图片中的头发长短,使其头发不再遮挡眉毛,然后对眉毛进行提取,融合到最终结果中。
这样,通过从目标对象指定视角的面部图像中提取出眉毛特征,将眉毛特征与贴图重建结果进行融合,从而有利于得到还原度较高的贴图重建结果。
在一些可选的实施例中,参见图19,图19示出了根据本申请的一个实施例的面部贴图重建方法的流程图。该面部贴图重建方法主要可以包括如下步骤。
在S201中,获取目标对象不同视角的面部图像。
在S202中,将不同视角的面部图像所对应的面部纹理信息映射到纹理空间,得到不同视角的纹理贴图。
在S203中,将不同视角的纹理贴图进行拼接,得到拼接后的面部贴图。
在S204中,将拼接后的面部贴图与贴图模板进行融合,得到贴图重建结果。
步骤S201-S204的具体处理过程及相关说明可以参照前述实施例的技术方案,不再赘述。
在S1901中,对指定视角的面部图像进行特征提取,得到第二编码向量。
在一些可选的实施例中,由于第二编码向量与第一编码向量的处理过程相类似,因此,对于第二编码向量的过程可以参照前述实施例的第一编码向量处理过程,在此不予赘述。
在S1902中,对第二编码向量中的头发长短特征向量进行参数调整,得到无遮挡的面部图像所对应的编码向量。
在一些可选的实施例中,在得到第二编码向量之后,对第二编码向量中的头发长短特征向量进行参数调整,通过参数调整,从而可以得到无遮挡的面部图像所对应的编码向量。
在S1903中,基于无遮挡的面部图像所对应的编码向量,得到眉毛无遮挡的面部图像。
在一些可选的实施例中,基于无遮挡的面部图像所对应的编码向量,得到眉毛无遮挡的面部图像,从而实现了基于目标对象指定视角的面部图像得到眉毛无遮挡的面部图像。
在S1904中,对无遮挡的面部图像对应的面部纹理信息映射到纹理空间,得到与无遮挡的面部图像对应的贴图。
在一些可选的实施例中,在得到眉毛无遮挡的面部图像后,将眉毛无遮挡的面部图像所对应的面部纹理信息均映射到纹理空间,从而得到与眉毛无遮挡的面部图像对应的贴图。这样,通过将眉毛无遮挡的面部图像所对应的面部纹理信息映射到纹理空间,从而有利于将眉毛无遮挡的面部图像上每个点精确对应到三维模型的表面,进一步有利于眉毛的重建。
在S1905中,提取无遮挡的面部图像对应的贴图中的眉毛区域,得到眉毛特征。
在一些可选的实施例中,提取无遮挡的面部图像对应的贴图中的眉毛区域,得到眉毛特征,从而有利于眉毛特征的重建。
在S1702中,将眉毛特征与贴图重建结果进行融合,得到优化后的贴图重建结果。
该步骤的具体处理过程及相关说明可以参照前述实施例的技术方案,不再赘述。
这样,通过从目标对象指定视角的面部图像中提取出眉毛特征,将眉毛特征与贴图重建结果进行融合,从而有利于得到还原度较高的贴图重建结果。
为了便于从整体上理解本申请的技术方案,参见图20,图20示出了根据本申请的一个实施例的面部贴图重建方法的流程图。该面部贴图重建方法主要可以包括如下步骤。
获取输入图像,即获取目标对象不同视角的面部图像;
对指定视角的面部图像对应的面部姿势参数进行调整,得到目标对象不同视角的面部图像,也就是生成多视角图像;
在生成多视角图像之后,采用不同视角的面部图像所对应的重建模型,将不同视角的面部图像所对应的面部纹理信息映射到纹理空间,也就是进行贴图扒皮操作,得到不同视角的纹理贴图;
将不同视角的纹理贴图进行拼接,得到拼接后的面部贴图;
从贴图模板库中选择与拼接后的面部贴图匹配的贴图模板;
将拼接后的面部贴图中的高低频信息进行分离,得到拼接后的面部贴图中的高频信息和低频信息;
将匹配的贴图模板中的高低频信息进行分离,得到匹配的贴图模板中的高频信息和低频信息;
采用边缘检测算法从拼接后的面部贴图的高频信息中提取轮廓特征,得到轮廓特征区域;
将拼接后的面部贴图中的低频信息与匹配的贴图模板中的高频信息的融合结果与轮廓特征区域进行泊松融合,得到贴图重建结果;
在得到贴图重建结果之后,从目标对象指定视角的面部图像中提取出眉毛特征,以进行眉毛补全;
将眉毛特征与贴图重建结果进行融合,得到优化后的贴图重建结果,即得到输出贴图。
在本申请实施例中,先获取目标对象不同视角的面部图像,通过不同视角的面部图像得到不同视角的纹理贴图,从而可以保留得到目标对象对应的原始面部图像中较为全面的面部纹理信息。然后,将不同视角的纹理贴图进行拼接,得到拼接后的面部贴图,并将拼接后的面部贴图与贴图模板进行融合,使得可以利用高质量的贴图模板补全重建过程丢失的毛孔细节特征,从而可以还原得到质量较高的贴图重建结果。
以下介绍本申请的装置实施例,可以用于执行本申请上述实施例中的面部贴图重建方法。对于本申请装置实施例中未披露的细节,请参照本申请上述的面部贴图重建方法的实施例。
图21示出了根据本申请的一个实施例的面部贴图重建装置的框图。
参照图21所示,根据本申请的一个实施例的面部贴图重建装置2100,包括:
获取模块2101,用于获取目标对象不同视角的面部图像;
映射模块2102,用于将不同视角的面部图像所对应的面部纹理信息映射到纹理空间,得到不同视角的纹理贴图;
拼接模块2103,用于将不同视角的纹理贴图进行拼接,得到拼接后的面部贴图;
融合模块2104,用于将拼接后的面部贴图与贴图模板进行融合,得到贴图重建结果。
在本申请的一些实施例中,基于以上技术方案,获取模块2101还用于,获取目标对象指定视角的面部图像;对指定视角的面部图像对应的面部姿势参数进行调整,得到目标对象不同视角的面部图像。
在本申请的一些实施例中,基于以上技术方案,获取模块2101还用于,对指定视角的面部图像进行特征提取,得到第一编码向量;对第一编码向量中的面部姿势向量进行参数调整,得到不同视角的面部图像所对应的编码向量;基于不同视角的面部图像所对应的编码向量,得到不同视角的面部图像。
在本申请的一些实施例中,基于以上技术方案,获取模块2101还用于,获取初始化编码向量;根据初始化编码向量,生成初始化编码向量对应的待调整图像;计算待调整图像与指定视角的面部图像的相似度,基于相似度对初始化编码向量进行调整,直至待调整图像与指定视角的面部图像之间的相似度大于或等于设定阈值;在待调整图像与指定视角的面部图像之间的相似度大于或等于设定阈值时,将待调整图像对应的编码向量作为第一编码向量。
在本申请的一些实施例中,基于以上技术方案,映射模块2102还用于,将各个视角的面部图像所对应的重建模型投影至图像平面,得到重建模型中包含的三角形区域在图像平面中的位置;将重建模型投影至纹理平面,得到重建模型中包含的三角形区域在纹理平面中的位置;根据重建模型中包含的三角形区域在图像平面中的位置与在纹理平面中的位置之间的对应关系,得到各个视角的面部图像与纹理空间之间的映射关系;根据映射关系将各个视角的面部图像映射到纹理空间,得到各个视角对应的纹理贴图。
在本申请的一些实施例中,基于以上技术方案,拼接模块2103还用于,根据不同视角的纹理贴图生成不同视角的纹理贴图所对应的掩膜图像;基于不同视角的纹理贴图所对应的掩膜图像,从不同视角的纹理贴图中提取出局部纹理信息;将从不同视角的纹理贴图中提取出的局部纹理信息进行拼接融合,得到拼接后的面部贴图。
在本申请的一些实施例中,基于以上技术方案,融合模块2104还用于,从贴图模板库中选择与拼接后的面部贴图匹配的贴图模板;将拼接后的面部贴图与匹配的贴图模板进行融合,得到贴图重建结果。
在本申请的一些实施例中,基于以上技术方案,融合模块2104还用于,对拼接后的面部贴图进行特征提取,得到第一面部特征;对贴图模板库中的贴图模板进行特征提取,得到第二面部特征;计算第一面部特征与第二面部特征之间的相似度,将相似度最接近的贴图模板作为匹配的贴图模板。
在本申请的一些实施例中,基于以上技术方案,融合模块2104还用于,将拼接后的面部贴图中的高低频信息进行分离,得到拼接后的面部贴图中的高频信息和低频信息;将匹配的贴图模板中的高低频信息进行分离,得到匹配的贴图模板中的高频信息和低频信息;将拼接后的面部贴图中的低频信息与匹配的贴图模板中的高频信息进行融合,得到贴图重建结果。
在本申请的一些实施例中,基于以上技术方案,融合模块2104还用于,采用边缘检测算法从拼接后的面部贴图的高频信息中提取轮廓特征,得到轮廓特征区域;将拼接后的面部贴图中的低频信息与匹配的贴图模板中的高频信息的融合结果与轮廓特征区域进行融合,得到贴图重建结果。
在本申请的一些实施例中,基于以上技术方案,融合模块2104还用于,采用高斯滤波提取拼接后的面部贴图中的低频信息;将拼接后的面部贴图减去低频信息,得到拼接后的面部贴图中的高频信息。
在本申请的一些实施例中,基于以上技术方案,装置还包括提取模块,用于从目标对象指定视角的面部图像中提取出眉毛特征;将眉毛特征与贴图重建结果进行融合,得到优化后的贴图重建结果。
在本申请的一些实施例中,基于以上技术方案,提取模块还用于,对指定视角的面部图像进行特征提取,得到第二编码向量;对第二编码向量中的头发长短特征向量进行参数调整,得到无遮挡的面部图像所对应的编码向量;基于无遮挡的面部图像所对应的编码向量,得到眉毛无遮挡的面部图像;对无遮挡的面部图像对应的面部纹理信息映射到纹理空间,得到与无遮挡的面部图像对应的贴图;提取无遮挡的面部图像对应的贴图中的眉毛区域,得到眉毛特征。
图22示出了适于用来实现本申请实施例的电子设备的计算机系统的结构示意图。
需要说明的是,图22示出的电子设备的计算机系统2200仅是一个示例,不应对本申请实施例的功能和使用范围带来任何限制。
如图22所示,计算机系统2200包括中央处理单元(Central Processing Unit,CPU)2201,其可以根据存储在只读存储器(Read-Only Memory,ROM)2202中的程序或者从存储部分2208加载到随机访问存储器(Random Access Memory,RAM)2203中的程序而执行各种适当的动作和处理,例如执行上述实施例中的方法。在RAM 2203中,还存储有系统操作所需的各种程序和数据。CPU 2201、ROM 2202以及RAM 2203通过总线2204彼此相连。输入/输出(Input/Output,I/O)接口2205也连接至总线2204。
以下部件连接至I/O接口2205:包括键盘、鼠标等的输入部分2206;包括诸如阴极射线管(Cathode Ray Tube,CRT)、液晶显示器(Liquid Crystal Display,LCD)等以及扬声器等的输出部分2207;包括硬盘等的存储部分2208;以及包括诸如LAN(Local AreaNetwork,局域网)卡、调制解调器等的网络接口卡的通信部分2209。通信部分2209经由诸如因特网的网络执行通信处理。驱动器2210也根据需要连接至I/O接口2205。可拆卸介质2211,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器2210上,以便于从其上读出的计算机程序根据需要被安装入存储部分2208。
特别地,根据本申请的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本申请的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的计算机程序。在这样的实施例中,该计算机程序可以通过通信部分2209从网络上被下载和安装,和/或从可拆卸介质2211被安装。在该计算机程序被中央处理单元(CPU)2201执行时,执行本申请的系统中限定的各种功能。
需要说明的是,本申请实施例所示的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(Erasable Programmable Read Only Memory,EPROM)、闪存、光纤、便携式紧凑磁盘只读存储器(Compact Disc Read-Only Memory,CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本申请中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本申请中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的计算机程序。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的计算机程序可以用任何适当的介质传输,包括但不限于:无线、有线等等,或者上述的任意合适的组合。
附图中的流程图和框图,图示了按照本申请各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。其中,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,上述模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图或流程图中的每个方框、以及框图或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机程序的组合来实现。
描述于本申请实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现,所描述的单元也可以设置在处理器中。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定。
作为另一方面,本申请还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。上述计算机可读介质承载有一个或者多个计算机程序,当上述一个或者多个计算机程序被一个该电子设备执行时,使得该电子设备实现上述实施例中的方法。
应当注意,尽管在上文详细描述中提及了用于动作执行的设备的若干模块或者单元,但是这种划分并非强制性的。实际上,根据本申请的实施方式,上文描述的两个或更多模块或者单元的特征和功能可以在一个模块或者单元中具体化。反之,上文描述的一个模块或者单元的特征和功能可以进一步划分为由多个模块或者单元来具体化。
通过以上的实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本申请实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、触控终端、或者网络设备等)执行根据本申请实施方式的方法。
本领域技术人员在考虑说明书及实践这里公开的实施方式后,将容易想到本申请的其它实施方案。本申请旨在涵盖本申请的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本申请的一般性原理并包括本申请未公开的本技术领域中的公知常识或惯用技术手段。
应当理解的是,本申请并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本申请的范围仅由所附的权利要求来限制。
Claims (17)
1.一种面部贴图重建方法,其特征在于,所述方法包括:
获取目标对象不同视角的面部图像;
将所述不同视角的面部图像所对应的面部纹理信息映射到纹理空间,得到不同视角的纹理贴图;
将所述不同视角的纹理贴图进行拼接,得到拼接后的面部贴图;
将所述拼接后的面部贴图与贴图模板进行融合,得到贴图重建结果。
2.根据权利要求1所述的面部贴图重建方法,其特征在于,所述获取目标对象不同视角的面部图像,包括:
获取目标对象指定视角的面部图像;
对所述指定视角的面部图像对应的面部姿势参数进行调整,得到所述目标对象不同视角的面部图像。
3.根据权利要求2所述的面部贴图重建方法,其特征在于,所述对所述指定视角的面部图像对应的面部姿势参数进行调整,得到所述目标对象不同视角的面部图像,包括:
对所述指定视角的面部图像进行特征提取,得到第一编码向量;
对所述第一编码向量中的面部姿势向量进行参数调整,得到不同视角的面部图像所对应的编码向量;
基于所述不同视角的面部图像所对应的编码向量,得到不同视角的面部图像。
4.根据权利要求3所述的面部贴图重建方法,其特征在于,所述对所述指定视角的面部图像进行特征提取,得到第一编码向量,包括:
获取初始化编码向量;
根据所述初始化编码向量,生成所述初始化编码向量对应的待调整图像;
计算所述待调整图像与所述指定视角的面部图像的相似度,基于所述相似度对所述初始化编码向量进行调整,直至所述待调整图像与所述指定视角的面部图像之间的相似度大于或等于设定阈值;
在所述待调整图像与所述指定视角的面部图像之间的相似度大于或等于设定阈值时,将所述待调整图像对应的编码向量作为所述第一编码向量。
5.根据权利要求1所述的面部贴图重建方法,其特征在于,所述将所述不同视角的面部图像所对应的面部纹理信息映射到纹理空间,得到不同视角的纹理贴图,包括:
将各个视角的面部图像所对应的重建模型投影至图像平面,得到所述重建模型中包含的三角形区域在图像平面中的位置;
将所述重建模型投影至纹理平面,得到所述重建模型中包含的三角形区域在纹理平面中的位置;
根据所述重建模型中包含的三角形区域在图像平面中的位置与在纹理平面中的位置之间的对应关系,得到所述各个视角的面部图像与所述纹理空间之间的映射关系;
根据所述映射关系将所述各个视角的面部图像映射到所述纹理空间,得到所述各个视角对应的纹理贴图。
6.根据权利要求1所述的面部贴图重建方法,其特征在于,所述将所述不同视角的纹理贴图进行拼接,得到拼接后的面部贴图,包括:
根据所述不同视角的纹理贴图生成不同视角的纹理贴图所对应的掩膜图像;
基于所述不同视角的纹理贴图所对应的掩膜图像,从所述不同视角的纹理贴图中提取出局部纹理信息;
将从所述不同视角的纹理贴图中提取出的所述局部纹理信息进行拼接融合,得到拼接后的面部贴图。
7.根据权利要求1所述的面部贴图重建方法,其特征在于,所述将所述拼接后的面部贴图与贴图模板进行融合,得到贴图重建结果,包括:
从贴图模板库中选择与所述拼接后的面部贴图匹配的贴图模板;
将所述拼接后的面部贴图与所述匹配的贴图模板进行融合,得到所述贴图重建结果。
8.根据权利要求7所述的面部贴图重建方法,其特征在于,所述从贴图模板库中选择与所述拼接后的面部贴图匹配的贴图模板,包括:
对所述拼接后的面部贴图进行特征提取,得到第一面部特征;
对所述贴图模板库中的贴图模板进行特征提取,得到第二面部特征;
计算所述第一面部特征与所述第二面部特征之间的相似度,将相似度最接近的贴图模板作为所述匹配的贴图模板。
9.根据权利要求7所述的面部贴图重建方法,其特征在于,所述将所述拼接后的面部贴图与所述匹配的贴图模板进行融合,得到所述贴图重建结果,包括:
将所述拼接后的面部贴图中的高低频信息进行分离,得到所述拼接后的面部贴图中的高频信息和低频信息;
将所述匹配的贴图模板中的高低频信息进行分离,得到所述匹配的贴图模板中的高频信息和低频信息;
将所述拼接后的面部贴图中的低频信息与所述匹配的贴图模板中的高频信息进行融合,得到所述贴图重建结果。
10.根据权利要求9所述的面部贴图重建方法,其特征在于,在将所述拼接后的面部贴图中的低频信息与所述匹配的贴图模板中的高频信息进行融合之后,所述方法还包括:
采用边缘检测算法从所述拼接后的面部贴图的高频信息中提取轮廓特征,得到轮廓特征区域;
将所述拼接后的面部贴图中的低频信息与所述匹配的贴图模板中的高频信息的融合结果与所述轮廓特征区域进行融合,得到所述贴图重建结果。
11.根据权利要求9所述的面部贴图重建方法,其特征在于,所述将所述拼接后的面部贴图中的高低频信息进行分离,包括:
采用高斯滤波提取所述拼接后的面部贴图中的低频信息;
将所述拼接后的面部贴图减去所述低频信息,得到拼接后的面部贴图中的高频信息。
12.根据权利要求1至11任意一项所述的面部贴图重建方法,其特征在于,在得到所述贴图重建结果之后,所述方法还包括:
从所述目标对象指定视角的面部图像中提取出眉毛特征;
将所述眉毛特征与所述贴图重建结果进行融合,得到优化后的贴图重建结果。
13.根据权利要求12所述的面部贴图重建方法,其特征在于,所述从所述目标对象指定视角的面部图像中提取出眉毛特征,包括:
对所述指定视角的面部图像进行特征提取,得到第二编码向量;
对所述第二编码向量中的头发长短特征向量进行参数调整,得到无遮挡的面部图像所对应的编码向量;
基于所述无遮挡的面部图像所对应的编码向量,得到眉毛无遮挡的面部图像;
对所述无遮挡的面部图像对应的面部纹理信息映射到纹理空间,得到与所述无遮挡的面部图像对应的贴图;
提取所述无遮挡的面部图像对应的贴图中的眉毛区域,得到所述眉毛特征。
14.一种面部贴图重建装置,其特征在于,所述装置包括:
获取模块,用于获取目标对象不同视角的面部图像;
映射模块,用于将所述不同视角的面部图像所对应的面部纹理信息映射到纹理空间,得到不同视角的纹理贴图;
拼接模块,用于将所述不同视角的纹理贴图进行拼接,得到拼接后的面部贴图;
融合模块,用于将所述拼接后的面部贴图与贴图模板进行融合,得到贴图重建结果。
15.一种计算机可读介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至13中任一项所述的面部贴图重建方法。
16.一种电子设备,其特征在于,包括:
一个或多个处理器;
存储器,用于存储一个或多个计算机程序,当所述一个或多个计算机程序被所述一个或多个处理器执行时,使得所述电子设备实现如权利要求1至13中任一项所述的面部贴图重建方法。
17.一种计算机程序产品,其特征在于,所述计算机程序产品包括计算机程序,所述计算机程序存储在计算机可读存储介质中,电子设备的处理器从所述计算机可读存储介质读取并执行所述计算机程序,使得所述电子设备执行如权利要求1至13中任一项所述的面部贴图重建方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310179866.2A CN116958378A (zh) | 2023-02-21 | 2023-02-21 | 面部贴图重建方法、装置、计算机可读介质及电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310179866.2A CN116958378A (zh) | 2023-02-21 | 2023-02-21 | 面部贴图重建方法、装置、计算机可读介质及电子设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116958378A true CN116958378A (zh) | 2023-10-27 |
Family
ID=88460767
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310179866.2A Pending CN116958378A (zh) | 2023-02-21 | 2023-02-21 | 面部贴图重建方法、装置、计算机可读介质及电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116958378A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117197319A (zh) * | 2023-11-07 | 2023-12-08 | 腾讯科技(深圳)有限公司 | 图像生成方法、装置、电子设备及存储介质 |
CN117876609A (zh) * | 2024-03-11 | 2024-04-12 | 国网电商科技有限公司 | 一种多特征三维人脸重建方法、系统、设备及存储介质 |
CN118211285A (zh) * | 2024-05-15 | 2024-06-18 | 帕西尼感知科技(张家港)有限公司 | 一种贴图平面优化、机器人的控制方法、装置及系统 |
-
2023
- 2023-02-21 CN CN202310179866.2A patent/CN116958378A/zh active Pending
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117197319A (zh) * | 2023-11-07 | 2023-12-08 | 腾讯科技(深圳)有限公司 | 图像生成方法、装置、电子设备及存储介质 |
CN117197319B (zh) * | 2023-11-07 | 2024-03-22 | 腾讯科技(深圳)有限公司 | 图像生成方法、装置、电子设备及存储介质 |
CN117876609A (zh) * | 2024-03-11 | 2024-04-12 | 国网电商科技有限公司 | 一种多特征三维人脸重建方法、系统、设备及存储介质 |
CN117876609B (zh) * | 2024-03-11 | 2024-05-24 | 国网电商科技有限公司 | 一种多特征三维人脸重建方法、系统、设备及存储介质 |
CN118211285A (zh) * | 2024-05-15 | 2024-06-18 | 帕西尼感知科技(张家港)有限公司 | 一种贴图平面优化、机器人的控制方法、装置及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Jam et al. | A comprehensive review of past and present image inpainting methods | |
WO2020192568A1 (zh) | 人脸图像生成方法、装置、设备及存储介质 | |
US9679192B2 (en) | 3-dimensional portrait reconstruction from a single photo | |
CN111784821B (zh) | 三维模型生成方法、装置、计算机设备及存储介质 | |
CN116958378A (zh) | 面部贴图重建方法、装置、计算机可读介质及电子设备 | |
Li et al. | Detail-preserving and content-aware variational multi-view stereo reconstruction | |
Fyffe et al. | Multi‐view stereo on consistent face topology | |
EP3980974A1 (en) | Single image-based real-time body animation | |
EP3991140A1 (en) | Portrait editing and synthesis | |
CN114821404B (zh) | 一种信息处理方法、装置、计算机设备及存储介质 | |
CN114782864B (zh) | 一种信息处理方法、装置、计算机设备及存储介质 | |
CN113628327A (zh) | 一种头部三维重建方法及设备 | |
CN111754622B (zh) | 脸部三维图像生成方法及相关设备 | |
CN117011493B (zh) | 基于符号距离函数表示的三维人脸重建方法、装置及设备 | |
US20230154101A1 (en) | Techniques for multi-view neural object modeling | |
US20190114514A1 (en) | Classification of 2d images according to types of 3d arrangement | |
US20230080639A1 (en) | Techniques for re-aging faces in images and video frames | |
WO2014164230A1 (en) | Hair surface reconstruction from wide-baseline camera arrays | |
CN114898244B (zh) | 一种信息处理方法、装置、计算机设备及存储介质 | |
US12086965B2 (en) | Image reprojection and multi-image inpainting based on geometric depth parameters | |
Kim et al. | Skin tactile surface restoration using deep learning from a mobile image: an application for virtual skincare | |
CN113223128B (zh) | 用于生成图像的方法和装置 | |
Savakar et al. | A relative 3D scan and construction for face using meshing algorithm | |
CN110689602A (zh) | 三维人脸重建方法、装置、终端及计算机可读存储介质 | |
US11562504B1 (en) | System, apparatus and method for predicting lens attribute |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication |