CN110298917B - 一种人脸重建方法及系统 - Google Patents
一种人脸重建方法及系统 Download PDFInfo
- Publication number
- CN110298917B CN110298917B CN201910604238.8A CN201910604238A CN110298917B CN 110298917 B CN110298917 B CN 110298917B CN 201910604238 A CN201910604238 A CN 201910604238A CN 110298917 B CN110298917 B CN 110298917B
- Authority
- CN
- China
- Prior art keywords
- model
- face
- expression
- information
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/005—General purpose rendering architectures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/08—Indexing scheme for image data processing or generation, in general involving all processing steps from image acquisition to 3D model generation
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Graphics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明公开了一种人脸重建方法及系统,根据通用人脸3D模型,生成目标用户的目标人脸3D模型;根据所述目标人脸3D模型,构造目标用户的表情形变模型;获取当前用户表情帧对应的面部纹理信息;根据所述面部纹理信息对所述目标用户的表情形变模型进行渲染,获得当前用户表情帧对应的人脸3D模型。由于创建了表征目标用户表情特征的表情形变模型,可以根据用户的表情对该表情形变模型进行实时驱动,使得当前用户表情帧对应的人脸3D模型能够表达出用户的常见表情,提升用户体验效果。
Description
技术领域
本发明涉及3D技术领域,特别是涉及一种人脸重建方法及系统。
背景技术
随着科学技术的发展,人类与虚拟世界的交互方式也在不断改变。通常会通过人脸重建技术获得用户的人脸3D模型,然后应用到游戏、社交、影视等领域,提升人们的娱乐体验。
传统的3D人脸重建技术,基本是根据图像信息,例如,图像亮度、边缘信息、线性透视、颜色、相对高度、视差等等一种或多种信息建模技术进行3D人脸重建。但是这种人脸重建技术一般都是通过深度点云重建得到的,该技术并不成熟,且建模过程繁琐,并且无法实现通过用户的表情实时驱动3D人脸模型。
发明内容
针对于上述问题,本发明提供一种人脸重建方法及系统,实现了建模过程简单且通过用户表情实时驱动人脸模型的目的。
为了实现上述目的,本发明提供了如下技术方案:
一种人脸重建方法,包括:
根据通用人脸3D模型,生成目标用户的目标人脸3D模型;
根据所述目标人脸3D模型,构造目标用户的表情形变模型;
获取当前用户表情帧对应的面部纹理信息;
根据所述面部纹理信息对所述目标用户的表情形变模型进行渲染,获得当前用户表情帧对应的人脸3D模型。
可选地,所述方法还包括:
基于预先采集的用户面部信息,创建通用人脸3D模型,所述用户面部信息包括用户人脸图像顶点信息和面片信息,所述通用人脸3D模型包括若干个子模型,每个所述子模型代表人脸的一种表情单元。
可选地,所述根据通用人脸3D模型,生成目标用户的目标人脸3D模型,包括:
对采集到的目标用户的人脸图像进行关键点检测,获得关键点位置信息;
依据所述关键点位置信息进行人脸姿态估计,获得估计结果;
如果所述估计结果满足人脸姿态在设定范围内,获取当前帧的人脸图像;
将所述当前帧的人脸图像和当前帧人脸图像对应的关键点信息,输入至所述通用人脸3D模型,获得所述目标用户的目标人脸3D模型。
可选地,所述根据所述目标人脸3D模型,构造目标用户的表情形变模型,包括:
基于所述目标人脸3D模型,构造协方差矩阵;
对所述协方差矩阵进行奇异值分解,获取表情基向量;
获取所述目标人脸3D模型的中性表情向量;
根据所述表情基向量、所述中性表情向量和所述目标人脸3D模型对应的模型信息,构造目标用户的表情形变模型。
可选地,所述获取当前用户表情帧对应的面部纹理信息,包括:
检测采集到当前用户表情帧对应的目标用户的人脸图像的关键点信息,并根据所述关键点信息计算仿射变换矩阵;
通过仿射变换矩阵计算目标人脸3D模型对应的数据结构中的顶点位置信息;
根据所述顶点位置信息对应的纹理信息赋值给顶点,获得面部纹理信息。
可选地,所述根据所述面部纹理信息对所述目标用户的表情形变模型进行渲染,获得当前用户表情帧对应的人脸3D模型,包括:
计算所述目标人脸3D模型的表情权重值;
依据所述表情权重值和所述仿射变换矩阵,将所述表情形变模型中的三维信息转换为二维信息;
根据所述二维信息计算获得当前用户的表情权重值;
基于所述当前用户的表情权重值和所述表情形变模型进行加权组合,获得更新后的表情形变模型;
基于所述面部纹理信息对所述更新后的表情形变模型进行显示渲染,获得当前用户表情帧对应的人脸3D模型。
一种人脸重建系统,包括:
模型生成单元,用于根据通用人脸3D模型,生成目标用户的目标人脸3D模型;
模型构造单元,用于根据所述目标人脸3D模型,构造目标用户的表情形变模型;
信息获取单元,用于获取当前用户表情帧对应的面部纹理信息;
渲染单元,用于根据所述面部纹理信息对所述目标用户的表情形变模型进行渲染,获得当前用户表情帧对应的人脸3D模型。
可选地,所述系统还包括:
模型创建单元,用于基于预先采集的用户面部信息,创建通用人脸3D模型,所述用户面部信息包括用户人脸图像顶点信息和面片信息,所述通用人脸3D模型包括若干个子模型,每个所述子模型代表人脸的一种表情单元。
可选地,所述模型生成单元包括:
第一检测子单元,用于对采集到的目标用户的人脸图像进行关键点检测,获得关键点位置信息;
估计子单元,用于依据所述关键点位置信息进行人脸姿态估计,获得估计结果;
第一获取子单元,用于如果所述估计结果满足人脸姿态在设定范围内,获取当前帧的人脸图像;
模型生成子单元,用于将所述当前帧的人脸图像和当前帧人脸图像对应的关键点信息,输入至所述通用人脸3D模型,获得所述目标用户的目标人脸3D模型。
可选地,所述模型构造单元包括:
第一构造子单元,用于基于所述目标人脸3D模型,构造协方差矩阵;
第二获取子单元,用于对所述协方差矩阵进行奇异值分解,获取表情基向量;
第三获取子单元,用于获取所述目标人脸3D模型的中性表情向量;
模型构造子单元,用于根据所述表情基向量、所述中性表情向量和所述目标人脸3D模型对应的模型信息,构造目标用户的表情形变模型。
可选地,所述信息获取单元包括:
第二检测子单元,用于检测采集到当前用户表情帧对应的目标用户的人脸图像的关键点信息,并根据所述关键点信息计算仿射变换矩阵;
第一计算子单元,用于通过仿射变换矩阵计算目标人脸3D模型对应的数据结构中的顶点位置信息;
第四获取子单元,用于根据所述顶点位置信息对应的纹理信息赋值给顶点,获得面部纹理信息。
可选地,所述渲染单元包括:
第二计算子单元,用于计算所述目标人脸3D模型的表情权重值;
转换子单元,用于依据所述表情权重值和所述仿射变换矩阵,将所述表情形变模型中的三维信息转换为二维信息;
第三计算子单元,用于根据所述二维信息计算获得当前用户的表情权重值;
加权子单元,用于基于所述当前用户的表情权重值和所述表情形变模型进行加权组合,获得更新后的表情形变模型;
渲染子单元,用于基于所述面部纹理信息对所述更新后的表情形变模型进行显示渲染,获得当前用户表情帧对应的人脸3D模型。
相较于现有技术,本发明提供了一种人脸重建方法及系统,根据通用人脸3D模型,生成目标用户的目标人脸3D模型;根据所述目标人脸3D模型,构造目标用户的表情形变模型;获取当前用户表情帧对应的面部纹理信息;根据所述面部纹理信息对所述目标用户的表情形变模型进行渲染,获得当前用户表情帧对应的人脸3D模型。由于创建了表征目标用户表情特征的表情形变模型,可以根据用户的表情对该表情形变模型进行实时驱动,使得当前用户表情帧对应的人脸3D模型能够表达出用户的常见表情,提升用户体验效果。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1为本发明实施例提供的一种人脸重建方法的流程示意图;
图2为本发明实施例提供的一种通用人脸模型的示意图;
图3为本发明实施例提供的一种表情的驱动结果的示意图;
图4为本发明实施例提供的一种人脸重建系统的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明的说明书和权利要求书及上述附图中的术语“第一”和“第二”等是用于区别不同的对象,而不是用于描述特定的顺序。此外术语“包括”和“具有”以及他们任何变形,意图在于覆盖不排他的包含。例如包含了一系列步骤或单元的过程、方法、系统、产品或设备没有设定于已列出的步骤或单元,而是可包括没有列出的步骤或单元。
在本发明实施例中提供了一种人脸重建方法,参见图1,该方法包括:
S101、根据通用人脸3D模型,生成目标用户的目标人脸3D模型。
参见图2为本发明实施例提供的一种通用人脸模型的示意图,在该图中包括了部分通用人脸3D模型的子模型。基于预先采集的用户面部信息,创建通用人脸3D模型,所述用户面部信息包括用户人脸图像顶点信息和面片信息,所述通用人脸3D模型包括若干个子模型,每个所述子模型代表人脸的一种表情单元。
例如,通用人脸3D模型为3D BlendShapes模型(三维混合形状)是用3D制作工具制作的一组人脸3D模型,记为Ω1,每个模型包含了顶点(1000多)和面片信息,并且每个模型代表人脸的一种表情单元,所有的模型构成了人脸的表情集合。
S102、根据所述目标人脸3D模型,构造目标用户的表情形变模型。
在构造目标用户的表情形变模型时,可以包括以下步骤:
S1021、基于所述目标人脸3D模型,构造协方差矩阵;
S1022、对所述协方差矩阵进行奇异值分解,获取表情基向量;
S1023、获取所述目标人脸3D模型的中性表情向量;
S1024、根据所述表情基向量、所述中性表情向量和所述目标人脸3D模型对应的模型信息,构造目标用户的表情形变模型。
例如,构造形变模型是将Ω1转化成另一种数据类型,方便算法调用和显示,设有M个3D模型,将每个模型的顶点表示成一列向量,其中中性表情模型用表示,剩下的用表示,利用下面的公式构造协方差矩阵C
对C进行奇异值分解,取前M-1列构成表情基向量,记为这样任何一个人脸S,都存在一组表情权重/>使得人脸S由下面的公式表达;
其中,中性表情指的是人在自然情况下,没有任何情绪的面部姿态,面部没有表现出喜怒哀乐的样子。表情权重是通过上面这个线性方程组求出来的,上面的方程除了表情权重是未知数,其它都是已知的。
S103、获取当前用户表情帧对应的面部纹理信息。
其中,当前用户表情帧对应的是当前用户的表情图像。在获取对应的面部纹理信息时需要进行关键点检测。具体可以包括:
S1031、检测采集到当前用户表情帧对应的目标用户的人脸图像的关键点信息,并根据所述关键点信息计算仿射变换矩阵;
S1032、通过仿射变换矩阵计算目标人脸3D模型对应的数据结构中的顶点位置信息;
S1033、根据所述顶点位置信息对应的纹理信息赋值给顶点,获得面部纹理信息。
在检测目标用户的人脸图像时,为了避免不相关人员和环境因素的干扰,需要限定有效区域,当用户脸在有效区域内时,利用人脸检测装置获取人脸在图像中的具体位置。将人脸检测得到的人脸框的位置,输入到关键点检测器,得到若干个关键点的位置信息,假设得到68个关键点的位置信息。
为了得到较好的建模效果,需要获取用户接近正脸时的关键点,在得到关键点之后,通过姿态估计决定是否进行建模,如果姿态在设定的范围外,会提醒用户需要往哪个方向变化,如果姿态在设定范围内时,会将当前帧图片和当前人脸关键点输入到公模建模系统,得到当前用户的BlendShapes,它是一组新的3D模型,和原来的3D BlendShapes表情是完全一样的,只是脸型ID是当前用户的脸型。
设新生成的M个3D BlendShapes为Ω2,将Ω2顶点表示成列向量形式,其中中性表情用其余的用/>表示,构造如下协方差矩阵
对C1进行奇异值分解,取前M-1列构成新的表情基向量,记为为了之后的渲染显示方便,需要将数据归一化到[-1,1]区间,通过简单计算得出中性表情/>在x轴上的最大和最小分别为xma,xmi,在y轴上的最大和最小分别为yma,ymi,在z轴上的最大和最小分别为zma,zmi,通过下面的公式计算尺度参数d;
d=((xma-xmi)2+(yma-ymi)2+(zma-zmi)2)1/2
对中性表情和/>分别除以尺度参数d,得到归一化后的数据结构/>和除了这些,还需要提取出Ω2的面片信息,边和顶点的关系,边和面的关系,以及手工标注68个关键点的位置l0,所有这些归一化的数据和后面提出的信息,构成了当前用户的表情形变模型结构。
根据实时检测到的人脸关键点l1和l0,计算仿射变换矩阵R,通过R可以计算出中任意一个顶点在图像上的位置,将该位置的纹理信息赋给对应的顶点,即完成了面部纹理提取过程。
S104、根据所述面部纹理信息对所述目标用户的表情形变模型进行渲染,获得当前用户表情帧对应的人脸3D模型。
该过程可以包括以下步骤:
S1041、计算所述目标人脸3D模型的表情权重值;
S1042、依据所述表情权重值和所述仿射变换矩阵,将所述表情形变模型中的三维信息转换为二维信息;
S1043、根据所述二维信息计算获得当前用户的表情权重值;
S1044、基于所述当前用户的表情权重值和所述表情形变模型进行加权组合,获得更新后的表情形变模型;
S1045、基于所述面部纹理信息对所述更新后的表情形变模型进行显示渲染,获得当前用户表情帧对应的人脸3D模型。
为了达到实时驱动的目的,需要计算当前用户在当前帧的表情权重结合上面计算的仿射变换矩阵,将表情形变模型的部分信息由三维转换成二维,l0转换之后记为lR0,/>对应的68个点转换之后记为/> 中对应的点转换之后记为/>构造下面的线性方程组
通过求解上面的线性方程组,得出当前用户的表情权重对表情模型和表情权重加权组合,即完成了表情更新。
为了显示渲染3D模型,计算更新后模型上每一点的法向量,用opengl将更新之后的模型显示出来。其中,opengl是开发工具调用的一个模型渲染库,可以对3D模型进行显示,渲染以及其他处理等。
举例说明,对于每一个用户,制作通用人脸3D模型、构造形变模型、人脸重建,得到当前用户的三维混合形状,构造当前用户表情形变模型和提取面部纹理只需要进行一次,获取到该用户的ID、纹理等信息之后不需要再次运行,随着不断获取视频流,只需要重复进行人脸检测、关键点检测、表情更新和渲染纹理的过程,就可以实时驱动属于该用户的人脸模型。
参见图3的(a),(b),(c),(d),其示出了表情的驱动结果图。每幅图的左边是用户的表情视频帧,中间是人脸重建后用户的3D人脸被驱动的效果,右边的是渲染用户纹理之后的效果。
本发明的人脸重建方法,包括了实时驱动过程,主要应用了以下技术:人脸检测技术,关键点检测技术,人脸重建技术和3D渲染技术;本发明大致思路是:首先构造通用人脸的3D BlendShapes,它是一组3D模型,包含了人脸的表情单元;其次,获取用户在接近正脸时的关键点,利用3D模型上的关键点和检测到的关键点,将通用人脸的3D BlendShapes变换成一组新的3DBlendShapes,新的3D模型和通用的相比,表情单元是完全一样的,只是脸型ID是用户的脸型,可以认为新生成的模型是用户的表情形变模型;最后,根据3D模型上的关键点和检测到的关键点计算仿射变换矩阵,计算模型上顶点在图像上的位置并提取纹理信息,通过构造线性方程组计算当前帧的表情权重,对表情权重和表情模型进行加权组合完成表情的更新,当获取到用户的脸型ID,纹理信息以后,就可以重复人脸检测,关键点检测,表情更新,模型显示等,用户就可以进行实时驱动了。
通过本发明提供的人脸重建方法,使得人脸重建过程快,不需要头部转来转去等操作,只要通过姿态判断,在设定角度内会就进行重建;模型顶点少,在驱动时流畅,速度快;功能综合性强,对于每一个人,都可以生成自己的Blendshapes,并且可以实时驱动自己的3D模型;模型信息丰富,不仅包含顶点和面片,还包含纹理坐标,关键点坐标,边和面的关系,边和顶点的关系等信息,方便算法调用;驱动时表情丰富,基本可以表达出人的所有常见表情,提升用户体验效果。
在本发明实施例中还提供了一种人脸重建系统,参见图4,包括:
模型生成单元10,用于根据通用人脸3D模型,生成目标用户的目标人脸3D模型;
模型构造单元20,用于根据所述目标人脸3D模型,构造目标用户的表情形变模型;
信息获取单元30,用于获取当前用户表情帧对应的面部纹理信息;
渲染单元40,用于根据所述面部纹理信息对所述目标用户的表情形变模型进行渲染,获得当前用户表情帧对应的人脸3D模型。
本发明提供了一种人脸重建系统,模型生成单元根据通用人脸3D模型,生成目标用户的目标人脸3D模型;模型构造单元根据所述目标人脸3D模型,构造目标用户的表情形变模型;信息获取单元获取当前用户表情帧对应的面部纹理信息;渲染单元根据所述面部纹理信息对所述目标用户的表情形变模型进行渲染,获得当前用户表情帧对应的人脸3D模型。由于创建了表征目标用户表情特征的表情形变模型,可以根据用户的表情对该表情形变模型进行实时驱动,使得当前用户表情帧对应的人脸3D模型能够表达出用户的常见表情,提升用户体验效果。
在上述实施例的基础上,所述系统还包括:
模型创建单元,用于基于预先采集的用户面部信息,创建通用人脸3D模型,所述用户面部信息包括用户人脸图像顶点信息和面片信息,所述通用人脸3D模型包括若干个子模型,每个所述子模型代表人脸的一种表情单元。
在上述实施例的基础上,所述模型生成单元包括:
第一检测子单元,用于对采集到的目标用户的人脸图像进行关键点检测,获得关键点位置信息;
估计子单元,用于依据所述关键点位置信息进行人脸姿态估计,获得估计结果;
第一获取子单元,用于如果所述估计结果满足人脸姿态在设定范围内,获取当前帧的人脸图像;
模型生成子单元,用于将所述当前帧的人脸图像和当前帧人脸图像对应的关键点信息,输入至所述通用人脸3D模型,获得所述目标用户的目标人脸3D模型。
在上述实施例的基础上,所述模型构造单元包括:
第一构造子单元,用于基于所述目标人脸3D模型,构造协方差矩阵;
第二获取子单元,用于对所述协方差矩阵进行奇异值分解,获取表情基向量;
第三获取子单元,用于获取所述目标人脸3D模型的中性表情向量;
模型构造子单元,用于根据所述表情基向量、所述中性表情向量和所述目标人脸3D模型对应的模型信息,构造目标用户的表情形变模型。
在上述实施例的基础上,所述信息获取单元包括:
第二检测子单元,用于检测采集到当前用户表情帧对应的的目标用户的人脸图像的关键点信息,并根据所述关键点信息计算仿射变换矩阵;
第一计算子单元,用于通过仿射变换矩阵计算目标人脸3D模型对应的数据结构中的顶点位置信息;
第四获取子单元,用于根据所述顶点位置信息对应的纹理信息赋值给顶点,获得面部纹理信息。
在上述实施例的基础上,所述渲染单元包括:
第二计算子单元,用于计算所述目标人脸3D模型的表情权重值;
转换子单元,用于依据所述表情权重值和所述仿射变换矩阵,将所述表情形变模型中的三维信息转换为二维信息;
第三计算子单元,用于根据所述二维信息计算获得当前用户的表情权重值;
加权子单元,用于基于所述当前用户的表情权重值和所述表情形变模型进行加权组合,获得更新后的表情形变模型;
渲染子单元,用于基于所述面部纹理信息对所述更新后的表情形变模型进行显示渲染,获得当前用户表情帧对应的人脸3D模型。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的装置而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。
Claims (8)
1.一种人脸重建方法,其特征在于,包括:
根据通用人脸3D模型,生成目标用户的目标人脸3D模型;
根据所述目标人脸3D模型,构造目标用户的表情形变模型;
获取当前用户表情帧对应的面部纹理信息;
根据所述面部纹理信息对所述目标用户的表情形变模型进行渲染,获得当前用户表情帧对应的人脸3D模型;
所述方法还包括:
基于预先采集的用户面部信息,创建通用人脸3D模型,所述用户面部信息包括用户人脸图像顶点信息和面片信息,所述通用人脸3D模型包括若干个子模型,每个所述子模型代表人脸的一种表情单元;
所述根据所述目标人脸3D模型,构造目标用户的表情形变模型,包括:
基于所述目标人脸3D模型,构造协方差矩阵;
对所述协方差矩阵进行奇异值分解,获取表情基向量;
获取所述目标人脸3D模型的中性表情向量;
根据所述表情基向量、所述中性表情向量和所述目标人脸3D模型对应的模型信息,构造目标用户的表情形变模型。
2.根据权利要求1所述的方法,其特征在于,所述根据通用人脸3D模型,生成目标用户的目标人脸3D模型,包括:
对采集到的目标用户的人脸图像进行关键点检测,获得关键点位置信息;
依据所述关键点位置信息进行人脸姿态估计,获得估计结果;
如果所述估计结果满足人脸姿态在设定范围内,获取当前帧的人脸图像;
将所述当前帧的人脸图像和当前帧人脸图像对应的关键点信息,输入至所述通用人脸3D模型,获得所述目标用户的目标人脸3D模型。
3.根据权利要求1所述的方法,其特征在于,所述获取当前用户表情帧对应的面部纹理信息,包括:
检测采集到当前用户表情帧对应的目标用户的人脸图像的关键点信息,并根据所述关键点信息计算仿射变换矩阵;
通过仿射变换矩阵计算目标人脸3D模型对应的数据结构中的顶点位置信息;
根据所述顶点位置信息对应的纹理信息赋值给顶点,获得面部纹理信息。
4.根据权利要求3所述的方法,其特征在于,所述根据所述面部纹理信息对所述目标用户的表情形变模型进行渲染,获得当前用户表情帧对应的人脸3D模型,包括:
计算所述目标人脸3D模型的表情权重值;
依据所述表情权重值和所述仿射变换矩阵,将所述表情形变模型中的三维信息转换为二维信息;
根据所述二维信息计算获得当前用户的表情权重值;
基于所述当前用户的表情权重值和所述表情形变模型进行加权组合,获得更新后的表情形变模型;
基于所述面部纹理信息对所述更新后的表情形变模型进行显示渲染,获得当前用户表情帧对应的人脸3D模型。
5.一种人脸重建系统,其特征在于,包括:
模型生成单元,用于根据通用人脸3D模型,生成目标用户的目标人脸3D模型;
模型构造单元,用于根据所述目标人脸3D模型,构造目标用户的表情形变模型;
信息获取单元,用于获取当前用户表情帧对应的面部纹理信息;
渲染单元,用于根据所述面部纹理信息对所述目标用户的表情形变模型进行渲染,获得当前用户表情帧对应的人脸3D模型;
所述系统还包括:
模型创建单元,用于基于预先采集的用户面部信息,创建通用人脸3D模型,所述用户面部信息包括用户人脸图像顶点信息和面片信息,所述通用人脸3D模型包括若干个子模型,每个所述子模型代表人脸的一种表情单元;
所述模型构造单元包括:
第一构造子单元,用于基于所述目标人脸3D模型,构造协方差矩阵;
第二获取子单元,用于对所述协方差矩阵进行奇异值分解,获取表情基向量;
第三获取子单元,用于获取所述目标人脸3D模型的中性表情向量;
模型构造子单元,用于根据所述表情基向量、所述中性表情向量和所述目标人脸3D模型对应的模型信息,构造目标用户的表情形变模型。
6.根据权利要求5所述的系统,其特征在于,所述模型生成单元包括:
第一检测子单元,用于对采集到的目标用户的人脸图像进行关键点检测,获得关键点位置信息;
估计子单元,用于依据所述关键点位置信息进行人脸姿态估计,获得估计结果;
第一获取子单元,用于如果所述估计结果满足人脸姿态在设定范围内,获取当前帧的人脸图像;
模型生成子单元,用于将所述当前帧的人脸图像和当前帧人脸图像对应的关键点信息,输入至所述通用人脸3D模型,获得所述目标用户的目标人脸3D模型。
7.根据权利要求5所述的系统,其特征在于,所述信息获取单元包括:
第二检测子单元,用于检测采集到当前用户表情帧对应的目标用户的人脸图像的关键点信息,并根据所述关键点信息计算仿射变换矩阵;
第一计算子单元,用于通过仿射变换矩阵计算目标人脸3D模型对应的数据结构中的顶点位置信息;
第四获取子单元,用于根据所述顶点位置信息对应的纹理信息赋值给顶点,获得面部纹理信息。
8.根据权利要求7所述的系统,其特征在于,所述渲染单元包括:
第二计算子单元,用于计算所述目标人脸3D模型的表情权重值;
转换子单元,用于依据所述表情权重值和所述仿射变换矩阵,将所述表情形变模型中的三维信息转换为二维信息;
第三计算子单元,用于根据所述二维信息计算获得当前用户的表情权重值;
加权子单元,用于基于所述当前用户的表情权重值和所述表情形变模型进行加权组合,获得更新后的表情形变模型;
渲染子单元,用于基于所述面部纹理信息对所述更新后的表情形变模型进行显示渲染,获得当前用户表情帧对应的人脸3D模型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910604238.8A CN110298917B (zh) | 2019-07-05 | 2019-07-05 | 一种人脸重建方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910604238.8A CN110298917B (zh) | 2019-07-05 | 2019-07-05 | 一种人脸重建方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110298917A CN110298917A (zh) | 2019-10-01 |
CN110298917B true CN110298917B (zh) | 2023-07-25 |
Family
ID=68030423
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910604238.8A Active CN110298917B (zh) | 2019-07-05 | 2019-07-05 | 一种人脸重建方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110298917B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113870399B (zh) * | 2021-09-23 | 2022-12-02 | 北京百度网讯科技有限公司 | 表情驱动方法、装置、电子设备及存储介质 |
CN114898244B (zh) * | 2022-04-08 | 2023-07-21 | 马上消费金融股份有限公司 | 一种信息处理方法、装置、计算机设备及存储介质 |
CN115393532B (zh) * | 2022-10-27 | 2023-03-14 | 科大讯飞股份有限公司 | 脸部绑定方法、装置、设备及存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101770649A (zh) * | 2008-12-30 | 2010-07-07 | 中国科学院自动化研究所 | 一种人脸图像自动合成方法 |
CN104346824A (zh) * | 2013-08-09 | 2015-02-11 | 汉王科技股份有限公司 | 基于单张人脸图像自动合成三维表情的方法及装置 |
CN109087379A (zh) * | 2018-08-09 | 2018-12-25 | 北京华捷艾米科技有限公司 | 人脸表情的迁移方法和人脸表情的迁移装置 |
CN109584353A (zh) * | 2018-10-22 | 2019-04-05 | 北京航空航天大学 | 一种基于单目视频重建三维人脸表情模型的方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TW201023092A (en) * | 2008-12-02 | 2010-06-16 | Nat Univ Tsing Hua | 3D face model construction method |
-
2019
- 2019-07-05 CN CN201910604238.8A patent/CN110298917B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101770649A (zh) * | 2008-12-30 | 2010-07-07 | 中国科学院自动化研究所 | 一种人脸图像自动合成方法 |
CN104346824A (zh) * | 2013-08-09 | 2015-02-11 | 汉王科技股份有限公司 | 基于单张人脸图像自动合成三维表情的方法及装置 |
CN109087379A (zh) * | 2018-08-09 | 2018-12-25 | 北京华捷艾米科技有限公司 | 人脸表情的迁移方法和人脸表情的迁移装置 |
CN109584353A (zh) * | 2018-10-22 | 2019-04-05 | 北京航空航天大学 | 一种基于单目视频重建三维人脸表情模型的方法 |
Also Published As
Publication number | Publication date |
---|---|
CN110298917A (zh) | 2019-10-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105144247B (zh) | 用户的三维表示的生成 | |
US8624901B2 (en) | Apparatus and method for generating facial animation | |
CN114663199B (zh) | 一种动态展示的实时三维虚拟试衣系统及方法 | |
WO2021093453A1 (zh) | 三维表情基的生成方法、语音互动方法、装置及介质 | |
GB2564745B (en) | Methods for generating a 3D garment image, and related devices, systems and computer program products | |
CN110298917B (zh) | 一种人脸重建方法及系统 | |
CN104008564B (zh) | 一种人脸表情克隆方法 | |
CN100407798C (zh) | 三维几何建模系统和方法 | |
CN110310319B (zh) | 光照分离的单视角人体服装几何细节重建方法及装置 | |
CN101303772A (zh) | 一种基于单幅图像的非线性三维人脸建模方法 | |
CN107688391A (zh) | 一种基于单目视觉的手势识别方法和装置 | |
CN101916454A (zh) | 基于网格变形和连续优化的高分辨率人脸重建方法 | |
EP4036863A1 (en) | Human body model reconstruction method and reconstruction system, and storage medium | |
CN104750931A (zh) | 应用于室内设计的智能设备控制布置系统 | |
CN106204746B (zh) | 一种可实现3d模型实时上色的增强现实系统 | |
Aitpayev et al. | Creation of 3D human avatar using kinect | |
CN110796593A (zh) | 基于人工智能的图像处理方法、装置、介质及电子设备 | |
CN110378947A (zh) | 3d模型重建方法、装置及电子设备 | |
CN113421328A (zh) | 一种三维人体虚拟化重建方法及装置 | |
CN114004669A (zh) | 数据处理方法、装置和计算机可读存储介质 | |
CN116129016B (zh) | 一种姿态运动的数字同步方法、装置、设备及存储介质 | |
Liu et al. | Real-time 3D virtual dressing based on users' skeletons | |
CN114581288A (zh) | 一种图像生成方法、装置、电子设备以及存储介质 | |
He et al. | Sketch2cloth: Sketch-based 3d garment generation with unsigned distance fields | |
JP2024503596A (ja) | イメージ・ソースからのボリュメトリック・ビデオ |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |