CN107358648B - 基于单张人脸图像的实时全自动高质量三维人脸重建方法 - Google Patents
基于单张人脸图像的实时全自动高质量三维人脸重建方法 Download PDFInfo
- Publication number
- CN107358648B CN107358648B CN201710581769.0A CN201710581769A CN107358648B CN 107358648 B CN107358648 B CN 107358648B CN 201710581769 A CN201710581769 A CN 201710581769A CN 107358648 B CN107358648 B CN 107358648B
- Authority
- CN
- China
- Prior art keywords
- face
- coefficient
- image data
- data set
- offset
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Abstract
本发明公开了一种基于单张人脸图像的实时全自动高质量三维人脸重建方法,包括:对初始的人脸图像数据集合,拟合其参数化模型系数与人脸区域每个像素点沿着深度方向的偏移,得到人脸图像数据集合T;改变集合T中的表情和姿态系数后,渲染人脸图片,得到光滑的人脸图像数据集合C;改变集合T中的偏移后,渲染人脸图片,得到带细节的人脸图像数据集合F;利用集合C训练深度神经网络模型CoarseNet,并利用集合F训练深度神经网络模型FineNet;利用训练好的深度神经网络模型CoarseNet和FineNet,对输入的单张人脸图像进行处理,得到参数化模型系数以及像素点沿着深度方向的偏移,从而重建出三维人脸。该方法避免了复杂耗时的优化过程,能够快速、高质量的重建三维人脸图像。
Description
技术领域
本发明涉及人脸图像处理技术领域,尤其涉及一种基于单张人脸图像的实时全自动高质量三维人脸重建方法。
背景技术
近年来,随着计算机技术和通信技术的快速发展,图像作为一种便捷的信息传递方式,已成为人们获取信息的重要手段。由于人脸图像在身份验证、人机交互、监控、取证、医疗诊断和治疗等领域有着广泛的应用,针对人脸图片的处理与识别已成为机器识别和计算机视觉的主要课题。更进一步,人脸作为身体中最有代表性的部分,人们能够仅凭面部信息就能够获得极为丰富的含义,如人的性别,种族、年龄、健康、情绪,甚至职业等等。
在过去,三维人脸重建主要有三种方法:手动建模,仪器采集和基于图像的少量交互或完全自动建模。手工建模作为最早的三维建模手段,现在仍然被广泛地使用。手工建模一般需要有经验的专业人士借助Autodesk Maya,3DMax等软件来完成。由于手动建模需要耗费大量的人力与时间,三维人脸建模仪器作为更为方便的方法得到了长期的研究和发展。其中的典型代表有基于结构光和激光扫描技术的精密三维采集仪器和深度相机等。基于精密仪器采集的三维模型,精度可达毫米级,是物体的真实三维数据,可以用来为基于图像的建模方法提供评价数据库,但这些设备一般价格高昂,且使用需经过专业培训,不适合于消费级的市场。最近,市场上出现了Microsoft Kinect,Intel RealSense,PrimeSense等深度相机,研究者可以利用深度相机采集到的深度信息来重建三维模型。和精密采集仪器相比,深度相机价格较低廉且更易于使用,但相比于RGB相机而言,这些设备仍较为少见。基于图像的建模技术是指通过多张或单张人脸图像来重建三维人脸模型。和人脸建模仪器相比,基于图像的建模方法只需要传统RGB相机采集的人脸图片,因此应用场景更为广泛。
由于人脸具有较多共性,如具有特定数目的眼睛,嘴巴,鼻子,耳朵且相对位置不变,因此可以建立一个人脸的参数化模型,将复杂的三维人脸参数化到一个低维的空间。传统的基于图像的三维人脸建模技术一般把参数化模型作为先验,利用人脸关键点信息和颜色信息来优化参数化模型的相关系数。但这些方法存在一些问题:基于关键点信息的优化仅利用了稀疏的关键点信息,三维重建精度较低;基于颜色的优化要经过比较耗时的计算,且对光照比较敏感。
发明内容
本发明的目的是提供一种基于单张人脸图像的实时全自动高质量三维人脸重建方法,能够快速、高质量的重建三维人脸图像。
本发明的目的是通过以下技术方案实现的:
一种基于单张人脸图像的实时全自动高质量三维人脸重建方法,包括:
对初始的人脸图像数据集合,拟合其参数化模型系数与人脸区域每个像素点沿着深度方向的偏移,得到人脸图像数据集合T;
改变人脸图像数据集合T中的表情和姿态系数后,渲染人脸图片,得到光滑的人脸图像数据集合C;改变人脸图像数据集合T中的偏移后,渲染人脸图片,得到带细节的人脸图像数据集合F;
利用光滑的人脸图像数据集合C训练深度神经网络模型CoarseNet,并利用带细节的人脸图像数据集合F训练深度神经网络模型FineNet;
利用训练好的深度神经网络模型CoarseNet和FineNet,对输入的单张人脸图像进行处理,得到参数化模型系数以及像素点沿着深度方向的偏移,从而重建出三维人脸。
利用人脸颜色信息对参数化模型系数χ进行拟合:
E(χ)=Econ+wlanElan+wregEreg
上式中,Econ为颜色项衡量由渲染的图片和实际图片的差异;Elan为关键点约束,使三维点的投影和图像上检测到的关键点尽可能接近;Ereg是正则项,以保证参数化模型系数χ中的身份αid、表情αexp及纹理αalb系数在合理的范围内;wlan和wreg分别是Elan和Ereg相对于Econ的权重;
具体的:
其中,CS是由χ渲染的图片,CI是输入的图片,P是所有像素的集合。
其中,是关键点的集合,i为关键点的序号,fi为图像平面的二维关键点,为投影矩阵,其中的s为比例系数,Vi为网格上的三维关键点,为平移向量,R为旋转矩阵;
其中,σ为对应的主成分方向的标准差,αid,j、αalb,j分别为第j个分量的身份、纹理系数;σid,j、σalb,j分别为第j个分量的身份、纹理系数对应主成分方向的标准差;αexp,k为第k个分量的表情系数,σexp,k为第k个分量的表情系数对应主成分方向的标准差;
利用人脸颜色信息对人脸区域每个像素点沿着深度方向的偏移进行拟合,假设所有像素偏移构成向量d,则拟合方式如下:
其中,为正则项,使d接近0;μ2||Ld||1为光滑约束项,Ld表示偏移的拉普拉斯,μ1和μ2分别是和||Ld||1相对于Econ的权重。
所述人脸图像数据集合T中包括:若干彩色人脸图像以及对应的标签;
每一彩色人脸图像均为RGB三通道图像;标签分为两部分,一部分为参数化模型系数,包括身份、表情、纹理、光照以及姿态系数;另一部分为人脸区域每个像素点沿着深度方向的偏移。
所述光滑的人脸图像数据集合C中包括:若干彩色人脸图像以及对应的标签;
每一彩色人脸图像均为RGB三通道图像;标签是参数化模型系数,包括身份、表情以及姿态系数。
所述带细节的人脸图像数据集合F中包括:若干灰度人脸图像、粗糙深度图像以及对应的标签;
每一灰度人脸图像均为单通道图像;粗糙深度图像是由参数化模型系统中的身份、表情与姿态系数得到;标签为人脸区域每个像素点沿着深度方向的偏移。
所述深度神经网络模型CoarseNet为残差卷积神经网络模型,依次包括:输入层、卷积层、非线性层、池化层、全连接层与损失层。
所述深度神经网络模型FineNet为全卷积深度神经网络模型,依次包括:输入层、卷积层、非线性层、池化层、去卷积层、融合层与损失层。
由上述本发明提供的技术方案可以看出,1)由深度神经网络训练得到参数化模型系数及偏移,既利用了完整的人脸图像信息,又避免了复杂耗时的优化过程,加快三维人脸重建的速度。2)通过改变表情、姿态以及皱纹等细节信息来生成训练数据,不仅提供大量带标签的数据用于训练深度神经网络模型,也增加了三维人脸重建方法对表情、姿态以及皱纹的鲁棒性。3)由输入单张图片直接得到参数化模型系数,不用预先检测输入人脸图片的关键点信息。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域的普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他附图。
图1为本发明实施例提供的一种基于单张人脸图像的实时全自动高质量三维人脸重建方法的流程图;
图2为本发明实施例提供的改变人脸图像数据集合T中的表情和姿态系数后,得到光滑的人脸图像数据集合C的示意图;
图3为本发明实施例提供的改变人脸图像数据集合T中的偏移后,到带细节的人脸图像数据集合F的示意图。
具体实施方式
下面结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明的保护范围。
在三维人脸重建领域,传统的基于关键点的优化方法速度快,但因只利用了稀疏的关键点信息,重建结果不够精确;基于颜色的优化方法利用了整张图片的颜色信息,重建结果较为精确,但需要经过复杂的优化,所需时间较长;基于神经网络的方法缺少带标签的训练数据。为此,本发明实施例提供一种基于单张人脸图像的实时全自动高质量三维人脸重建方法,如图1所示,其主要包括如下步骤:
步骤11、对初始的人脸图像数据集合,拟合其参数化模型系数与人脸区域每个像素点沿着深度方向的偏移,得到人脸图像数据集合T。
本发明实施例中,初始的人脸图像数据集合可以采用现有的人脸数据集300W。三维人脸用参数化模型作为先验,参数化模型系数主要包括:身份、表情、纹理、光照以及姿态系数。
其中,几何和纹理信息用PCA表示:
上式中,S为三维几何信息,为平均几何信息,Aid和Aexp分别为身份和表情的PCA基,αid和αexp分别为身份和表情系数;T为纹理信息,为平均纹理信息,Aalb为纹理的PCA基,αalb为纹理系数。
本领域技术人员可以理解,上式中的Aid、Aexp、Aalb均可通过常规技术获得。
投影模型用弱透视投影:
其中,(vx,vy)和(Vx,Vy,Vz)分别是点在图像平面和世界坐标系下的坐标,s为比例系数,R是由欧拉角(pitch,yaw,roll)构造的旋转矩阵,(tx,ty)是平移向量。
对于光照,假设是兰伯特反射并用球面调和函数来逼近。这样,图像的渲染由参数化模型系数χ={αid,αexp,αalb,s,pitch,yaw,roll,tx,ty,L}来决定。其中L为球面调和函数的系数。用人脸图像颜色信息对χ进行拟合:
E(χ)=Econ+wlanElan+wregEreg
上式中,Econ是颜色项衡量由χ渲染的图片和实际图片的差异;Elan是关键点约束使三维点的投影和图像上检测到的关键点尽可能接近;Ereg是正则项,保证αid、αexp、αalb在合理的范围内。wlan和wreg分别是Elan和Ereg相对于Econ的权重。本发明实例中,wlan可取10,wreg可取5·10-5。
具体的:
其中,CS是由χ渲染的图片,CI是输入的图片,P是所有像素的集合。
其中,是眼睛轮廓、嘴巴轮廓、人脸轮廓等关键点的集合,i为关键点的序号,fi为图像平面的二维关键点,为投影矩阵,Vi为网格上的三维关键点,为平移向量。
其中,σ为对应的主成分方向的标准差。下标j、k表示向量的第j、k个分量,本发明实例中,身份与纹理可用100维PCA表示(即J=100),表情可用79维PCA表示(即K=97);上式中各参数含义如下:αid,j、αalb,j分别为第j个分量的身份、纹理系数;σid,j、σalb,j分别为第j个分量的身份、纹理系数对应主成分方向的标准差;αexp,k为第k个分量的表情系数,σexp,k为第k个分量的表情系数对应主成分方向的标准差。
由于参数化模型表达的几何信息比较光滑,为了表示一些细节比如皱纹等信息,需要对每个像素点沿着深度方向做个偏移,假设所有像素偏移构成向量d,同样利用人脸颜色信息进行拟合:
其中,为正则项,使d接近0;μ2||Ld||1为光滑约束,Ld表示偏移的拉普拉斯,μ1和μ2分别是和||Ld||1相对于Econ的权重。本发明实例中,μ1可取0.001,μ2可取0.3。
本发明实施例中,基于上述方式拟合后的参数化模型系数与偏移来获得人脸图像数据集合T。所述人脸图像数据集合T中包括:若干彩色人脸图像以及对应的标签;每一彩色人脸图像均为RGB三通道图像;标签分为两部分,一部分为参数化模型系数,包括身份、表情、纹理、光照以及姿态系数;另一部分为人脸区域每个像素点沿着深度方向的偏移。
步骤12、改变人脸图像数据集合T中的表情和姿态系数后,渲染人脸图片,得到光滑的人脸图像数据集合C;改变人脸图像数据集合T中的偏移后,渲染人脸图片,得到带细节的人脸图像数据集合F。
如图2所示,改变人脸图像数据集合T中的表情和姿态系数后,渲染人脸图片,得到光滑的人脸图像数据集合C。
所述光滑的人脸图像数据集合C中包括:若干彩色人脸图像以及对应的标签;每一彩色人脸图像均为RGB三通道图像;标签是参数化模型系数,包括身份、表情以及姿态系数,即{αid,αexp,s,pitch,yaw,roll,tx,ty}。
本领域技术人员可以理解,人脸图像数据集合T中的纹理和光照系数用于渲染人脸图片;获得的光滑的人脸图像数据集合C在后续步骤用来训练深度神经网络模型CoarseNet,由于CoarseNet只重建了表情和姿态系数,并没有重建纹理和光照系数,因此在光滑的人脸图像数据集合C中无需纹理和光照系数。
如图3所示,改变人脸图像数据集合T中的偏移后,渲染人脸图片,得到带细节的人脸图像数据集合F。偏移的改变是通过细节迁移实现的,给定带有丰富皱纹细节的原始图片source以及较光滑人脸图片target,用步骤11可以算出各自的偏移,通过迁移source偏移的梯度到target上来改变target的偏移。
所述带细节的人脸图像数据集合F中包括:若干灰度人脸图像、粗糙深度图像以及对应的标签;每一灰度人脸图像均为单通道图像;粗糙深度图像是由参数化模型系统中的身份、表情与姿态系数得到;标签为人脸区域每个像素点沿着深度方向的偏移。
步骤13、利用光滑的人脸图像数据集合C训练深度神经网络模型CoarseNet,并利用带细节的人脸图像数据集合F训练深度神经网络模型FineNet。
本发明实施例中,所述深度神经网络模型CoarseNet为残差卷积神经网络模型,依次包括:输入层、卷积层、非线性层、池化层、全连接层与损失层。
本发明实施例中,所述深度神经网络模型FineNet为全卷积深度神经网络模型,依次包括:输入层、卷积层、非线性层、池化层、去卷积层、融合层与损失层。
步骤14、利用训练好的深度神经网络模型CoarseNet和FineNet,对输入的单张人脸图像进行处理,得到参数化模型系数以及像素点沿着深度方向的偏移,从而重建出三维人脸。
本发明实施例上述方案,相比传统人脸分割方法,主要具有以下优点:
1)由深度神经网络训练得到参数化模型系数及偏移,既利用了完整的人脸图像信息,又避免了复杂耗时的优化过程,加快了三维人脸重建的速度。
2)通过改变表情、姿态以及皱纹等细节信息来生成训练数据,不仅提供大量带标签的数据用于训练深度神经网络模型,也增加了三维人脸重建方法对表情、姿态以及皱纹的鲁棒性。
3)由输入图片直接得到参数化模型的系数,不用预先检测图片的关键点信息。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例可以通过软件实现,也可以借助软件加必要的通用硬件平台的方式来实现。基于这样的理解,上述实施例的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述的方法。
以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明披露的技术范围内,可轻易想到的变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应该以权利要求书的保护范围为准。
Claims (6)
1.一种基于单张人脸图像的实时全自动高质量三维人脸重建方法,其特征在于,包括:
对初始的人脸图像数据集合,拟合其参数化模型系数与人脸区域每个像素点沿着深度方向的偏移,得到人脸图像数据集合T;
改变人脸图像数据集合T中的表情和姿态系数后,渲染人脸图片,得到光滑的人脸图像数据集合C;改变人脸图像数据集合T中的偏移后,渲染人脸图片,得到带细节的人脸图像数据集合F;
利用光滑的人脸图像数据集合C训练深度神经网络模型CoarseNet,并利用带细节的人脸图像数据集合F训练深度神经网络模型FineNet;
利用训练好的深度神经网络模型CoarseNet和FineNet,对输入的单张人脸图像进行处理,得到参数化模型系数以及像素点沿着深度方向的偏移,从而重建出三维人脸;
所述对初始的人脸图像数据集合,拟合其参数化模型系数与人脸区域每个像素点沿着深度方向的偏移包括:
利用人脸颜色信息对参数化模型系数χ进行拟合:
E(x)=Econ+wlanElan+wregEreg
上式中,Econ为颜色项衡量由渲染的图片和实际图片的差异;Elan为关键点约束,使三维点的投影和图像上检测到的关键点尽可能接近;Ereg是正则项,以保证参数化模型系数χ中的身份αid、表情αexp及纹理αalb系数在合理的范围内;wlan和wreg分别是Elan和Ereg相对于Econ的权重;
具体的:
其中,CS是由χ渲染的图片,CI是输入的图片,P是所有像素的集合;
其中,是关键点的集合,i为关键点的序号,fi为图像平面的二维关键点,为投影矩阵,其中的s为比例系数,Vi为网格上的三维关键点,为平移向量,R为旋转矩阵;
其中,σ为对应的主成分方向的标准差,J为身份与纹理的PCA维数,K为表情的PCA维数;αid,j、αalb,j分别为第j个分量的身份、纹理系数;σid,j、σalb,j分别为第j个分量的身份、纹理系数对应主成分方向的标准差;αexp,k为第k个分量的表情系数,σexp,k为第k个分量的表情系数对应主成分方向的标准差;
利用人脸颜色信息对人脸区域每个像素点沿着深度方向的偏移进行拟合,假设所有像素偏移构成向量d,则拟合方式如下:
其中,为正则项,使d接近0;μ2||Ld||1为光滑约束项,Ld表示偏移的拉普拉斯,μ1和μ2分别是和||Ld||1相对于Econ的权重。
2.根据权利要求1所述的一种基于单张人脸图像的实时全自动高质量三维人脸重建方法,其特征在于,所述人脸图像数据集合T中包括:若干彩色人脸图像以及对应的标签;
每一彩色人脸图像均为RGB三通道图像;标签分为两部分,一部分为参数化模型系数,包括身份、表情、纹理、光照以及姿态系数;另一部分为人脸区域每个像素点沿着深度方向的偏移。
3.根据权利要求1所述的一种基于单张人脸图像的实时全自动高质量三维人脸重建方法,其特征在于,所述光滑的人脸图像数据集合C中包括:若干彩色人脸图像以及对应的标签;
每一彩色人脸图像均为RGB三通道图像;标签是参数化模型系数,包括身份、表情以及姿态系数。
4.根据权利要求1所述的一种基于单张人脸图像的实时全自动高质量三维人脸重建方法,其特征在于,所述带细节的人脸图像数据集合F中包括:若干灰度人脸图像、粗糙深度图像以及对应的标签;
每一灰度人脸图像均为单通道图像;粗糙深度图像是由参数化模型系统中的身份、表情与姿态系数得到;标签为人脸区域每个像素点沿着深度方向的偏移。
5.根据权利要求1所述的一种基于单张人脸图像的实时全自动高质量三维人脸重建方法,其特征在于,所述深度神经网络模型CoarseNet为残差卷积神经网络模型,依次包括:输入层、卷积层、非线性层、池化层、全连接层与损失层。
6.根据权利要求1所述的一种基于单张人脸图像的实时全自动高质量三维人脸重建方法,其特征在于,所述深度神经网络模型FineNet为全卷积深度神经网络模型,依次包括:输入层、卷积层、非线性层、池化层、去卷积层、融合层与损失层。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710581769.0A CN107358648B (zh) | 2017-07-17 | 2017-07-17 | 基于单张人脸图像的实时全自动高质量三维人脸重建方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710581769.0A CN107358648B (zh) | 2017-07-17 | 2017-07-17 | 基于单张人脸图像的实时全自动高质量三维人脸重建方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107358648A CN107358648A (zh) | 2017-11-17 |
CN107358648B true CN107358648B (zh) | 2019-08-27 |
Family
ID=60293133
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710581769.0A Active CN107358648B (zh) | 2017-07-17 | 2017-07-17 | 基于单张人脸图像的实时全自动高质量三维人脸重建方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107358648B (zh) |
Families Citing this family (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108154550B (zh) * | 2017-11-29 | 2021-07-06 | 奥比中光科技集团股份有限公司 | 基于rgbd相机的人脸实时三维重建方法 |
CN108062791A (zh) * | 2018-01-12 | 2018-05-22 | 北京奇虎科技有限公司 | 一种重建人脸三维模型的方法和装置 |
CN108537881B (zh) * | 2018-04-18 | 2020-04-03 | 腾讯科技(深圳)有限公司 | 一种人脸模型处理方法及其设备、存储介质 |
CN108765550B (zh) * | 2018-05-09 | 2021-03-30 | 华南理工大学 | 一种基于单张图片的三维人脸重建方法 |
CN109035388B (zh) * | 2018-06-28 | 2023-12-05 | 合肥的卢深视科技有限公司 | 三维人脸模型重建方法及装置 |
CN109147048B (zh) * | 2018-07-23 | 2021-02-26 | 复旦大学 | 一种利用单张彩色图的三维网格重建方法 |
WO2020037680A1 (zh) * | 2018-08-24 | 2020-02-27 | 太平洋未来科技(深圳)有限公司 | 基于光线的三维人脸优化方法、装置及电子设备 |
CN109191507B (zh) * | 2018-08-24 | 2019-11-05 | 北京字节跳动网络技术有限公司 | 三维人脸图像重建方法、装置和计算机可读存储介质 |
CN109410318B (zh) | 2018-09-30 | 2020-09-08 | 先临三维科技股份有限公司 | 三维模型生成方法、装置、设备和存储介质 |
CN109615688B (zh) * | 2018-10-23 | 2023-06-23 | 杭州小影创新科技股份有限公司 | 一种移动设备上的实时人脸三维重建系统及方法 |
CN109493417B (zh) * | 2018-10-31 | 2023-04-07 | 深圳大学 | 三维物体重建方法、装置、设备和存储介质 |
CN109584358A (zh) * | 2018-11-28 | 2019-04-05 | 深圳市商汤科技有限公司 | 一种三维人脸重建方法及装置、设备和存储介质 |
CN109903393B (zh) * | 2019-02-22 | 2021-03-16 | 清华大学 | 基于深度学习的新视角场景合成方法和装置 |
CN110021064A (zh) * | 2019-03-07 | 2019-07-16 | 李辉 | 一种唯美人脸系统及其方法 |
CN111696146B (zh) * | 2019-03-14 | 2023-04-11 | 上海科技大学 | 人脸模型重建方法、系统、图像处理系统及存储介质 |
CN109978930B (zh) * | 2019-03-27 | 2020-11-10 | 杭州相芯科技有限公司 | 一种基于单幅图像的风格化人脸三维模型自动生成方法 |
CN110111891B (zh) * | 2019-04-08 | 2022-11-25 | 北京航空航天大学 | 一种基于人脸图像的员工健康告警方法及系统 |
CN110428491B (zh) * | 2019-06-24 | 2021-05-04 | 北京大学 | 基于单帧图像的三维人脸重建方法、装置、设备及介质 |
CN110706339B (zh) * | 2019-09-30 | 2022-12-06 | 北京市商汤科技开发有限公司 | 三维人脸重建方法及装置、电子设备和存储介质 |
CN111091624B (zh) * | 2019-12-19 | 2021-09-28 | 南京大学 | 一种从单张图片生成高精度可驱动人脸三维模型的方法 |
CN111402403B (zh) * | 2020-03-16 | 2023-06-20 | 中国科学技术大学 | 高精度三维人脸重建方法 |
CN113673287B (zh) * | 2020-05-15 | 2023-09-12 | 深圳市光鉴科技有限公司 | 基于目标时间节点的深度重建方法、系统、设备及介质 |
CN111612878B (zh) * | 2020-05-21 | 2023-04-07 | 广州光锥元信息科技有限公司 | 将静态照片制作成三维效果视频的方法及装置 |
CN111583399B (zh) * | 2020-06-28 | 2023-11-07 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置、设备、介质和电子设备 |
CN112037320B (zh) * | 2020-09-01 | 2023-10-20 | 腾讯科技(深圳)有限公司 | 一种图像处理方法、装置、设备以及计算机可读存储介质 |
CN112652058A (zh) * | 2020-12-31 | 2021-04-13 | 广州华多网络科技有限公司 | 人脸图像重演方法、装置、计算机设备及存储介质 |
CN113144615B (zh) * | 2021-05-24 | 2024-04-30 | 上海随幻智能科技有限公司 | 一种从单张设计图片建模3d场景系统 |
CN113378697B (zh) * | 2021-06-08 | 2022-12-09 | 安徽大学 | 一种基于卷积神经网络的说话人脸视频生成方法及装置 |
CN113763559B (zh) * | 2021-07-01 | 2024-04-09 | 清华大学 | 一种拟合深度图像的几何运动细节重建方法 |
CN113838176B (zh) * | 2021-09-16 | 2023-09-15 | 网易(杭州)网络有限公司 | 模型的训练方法、三维人脸图像生成方法及设备 |
CN114241102B (zh) * | 2021-11-11 | 2024-04-19 | 清华大学 | 基于参数化模型的人脸细节重建和编辑方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8582807B2 (en) * | 2010-03-15 | 2013-11-12 | Nec Laboratories America, Inc. | Systems and methods for determining personal characteristics |
CN104978549A (zh) * | 2014-04-03 | 2015-10-14 | 北京邮电大学 | 三维人脸图像特征提取方法和系统 |
CN106599878A (zh) * | 2016-12-28 | 2017-04-26 | 深圳市捷顺科技实业股份有限公司 | 一种基于深度学习的人脸重建矫正方法及装置 |
CN106780662A (zh) * | 2016-11-16 | 2017-05-31 | 北京旷视科技有限公司 | 人脸图像生成方法、装置及设备 |
CN106778682A (zh) * | 2017-01-11 | 2017-05-31 | 厦门中控生物识别信息技术有限公司 | 一种卷积神经网络模型的训练方法及其设备 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9852492B2 (en) * | 2015-09-18 | 2017-12-26 | Yahoo Holdings, Inc. | Face detection |
-
2017
- 2017-07-17 CN CN201710581769.0A patent/CN107358648B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8582807B2 (en) * | 2010-03-15 | 2013-11-12 | Nec Laboratories America, Inc. | Systems and methods for determining personal characteristics |
CN104978549A (zh) * | 2014-04-03 | 2015-10-14 | 北京邮电大学 | 三维人脸图像特征提取方法和系统 |
CN106780662A (zh) * | 2016-11-16 | 2017-05-31 | 北京旷视科技有限公司 | 人脸图像生成方法、装置及设备 |
CN106599878A (zh) * | 2016-12-28 | 2017-04-26 | 深圳市捷顺科技实业股份有限公司 | 一种基于深度学习的人脸重建矫正方法及装置 |
CN106778682A (zh) * | 2017-01-11 | 2017-05-31 | 厦门中控生物识别信息技术有限公司 | 一种卷积神经网络模型的训练方法及其设备 |
Non-Patent Citations (2)
Title |
---|
《Learning Detailed Face Reconstruction from a Single Image》;Elad Richardson等;《ResearchGate》;20161130;正文第1-11页,图1-11 * |
《基于学习的人脸图像超分辨率重建方法》;郑梅兰;《计算机工程与应用》;20091231;第45卷(第1期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN107358648A (zh) | 2017-11-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107358648B (zh) | 基于单张人脸图像的实时全自动高质量三维人脸重建方法 | |
US11010896B2 (en) | Methods and systems for generating 3D datasets to train deep learning networks for measurements estimation | |
US10489683B1 (en) | Methods and systems for automatic generation of massive training data sets from 3D models for training deep learning networks | |
US10796480B2 (en) | Methods of generating personalized 3D head models or 3D body models | |
O'Toole et al. | 3D shape and 2D surface textures of human faces: The role of “averages” in attractiveness and age | |
CN110662484B (zh) | 用于全身测量结果提取的系统和方法 | |
CN107194987B (zh) | 对人体测量数据进行预测的方法 | |
US11798299B2 (en) | Methods and systems for generating 3D datasets to train deep learning networks for measurements estimation | |
CN110110629A (zh) | 面向室内环境控制的人员信息检测方法与系统 | |
WO2022143645A1 (zh) | 三维人脸重建的方法、装置、设备和存储介质 | |
JP6207210B2 (ja) | 情報処理装置およびその方法 | |
US11507781B2 (en) | Methods and systems for automatic generation of massive training data sets from 3D models for training deep learning networks | |
CN110074788B (zh) | 一种基于机器学习的身体数据获取方法和装置 | |
Oliveira-Santos et al. | 3D face reconstruction from 2D pictures: first results of a web-based computer aided system for aesthetic procedures | |
CN110717978A (zh) | 基于单张图像的三维头部重建方法 | |
Chi et al. | A study on segmentation and refinement of key human body parts by integrating manual measurements | |
Zhang et al. | 3D statistical head modeling for face/head-related product design: a state-of-the-art review | |
Chi et al. | A new parametric 3D human body modeling approach by using key position labeling and body parts segmentation | |
CN109285208A (zh) | 基于表情动态模板库的虚拟角色表情卡通化算法 | |
CN111402403B (zh) | 高精度三维人脸重建方法 | |
CN109801326A (zh) | 一种用于获取人体体型数据的图像测量方法 | |
JP2005317000A (ja) | 最適な視点のセットで得られた2d画像からの顔の3d形状構築に最適な視点のセットを求める方法 | |
Zhang et al. | Capture My Head: A Convenient and Accessible Approach Combining 3D Shape Reconstruction and Size Measurement from 2D Images for Headwear Design | |
Liu et al. | Variations in head-and-face shape of Chinese civilian workers | |
Mena-Chalco et al. | 3D human face reconstruction using principal components spaces |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |