CN101944238A - 基于拉普拉斯变换的数据驱动人脸表情合成方法 - Google Patents

基于拉普拉斯变换的数据驱动人脸表情合成方法 Download PDF

Info

Publication number
CN101944238A
CN101944238A CN 201010293551 CN201010293551A CN101944238A CN 101944238 A CN101944238 A CN 101944238A CN 201010293551 CN201010293551 CN 201010293551 CN 201010293551 A CN201010293551 A CN 201010293551A CN 101944238 A CN101944238 A CN 101944238A
Authority
CN
China
Prior art keywords
motion
countenance
target faceform
face
faceform
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN 201010293551
Other languages
English (en)
Other versions
CN101944238B (zh
Inventor
万贤美
金小刚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University ZJU
Original Assignee
Zhejiang University ZJU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University ZJU filed Critical Zhejiang University ZJU
Priority to CN2010102935513A priority Critical patent/CN101944238B/zh
Publication of CN101944238A publication Critical patent/CN101944238A/zh
Application granted granted Critical
Publication of CN101944238B publication Critical patent/CN101944238B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

本发明公开了一种基于拉普拉斯变换的数据驱动人脸表情合成方法,包括将采集表演者的脸部运动后捕获的脸部运动数据分解为脸部表情运动和头部刚体运动,计算载入的中性目标人脸模型中各顶点的拉普拉斯坐标,将脸部表情运动迁移到中性目标人脸模型上,使得中性目标人脸模型具有与表演者一致的表情,将头部刚体运动迁移到具有与表演者一致表情的目标人脸模型上,使得最终的目标人脸模型具有与表演者一致的面部表情与头部姿态。本发明基于可保留模型原有细节特征的拉普拉斯变形技术,实现人脸表情迁移的同时保持目标人脸模型上的已有细节特征,算法明确,界面友好,结果鲁棒,可方便地应用于计算机游戏、在线聊天以及其他人机交互领域。

Description

基于拉普拉斯变换的数据驱动人脸表情合成方法
技术领域
本发明涉及计算机图形学及计算机动画技术领域,特别是涉及一种基于拉普拉斯变换的数据驱动人脸表情合成方法。
背景技术
计算机人脸表情动画技术可以合成高度真实感的虚拟人脸表情,它提供了一种快速、高效的刻画虚拟人物表情的工具。人脸表情合成技术将捕获的人脸表情信息有效地迁移到任意人脸模型中,从而合成各种各样的真实感人脸表情。近年来,该技术已被广泛地应用于计算机游戏、在线聊天以及其他人机交互领域。
人脸表情细节可以极大地提高人脸表情动画的真实感,而实时三维扫描系统可以从多个层面上记录人脸表情细节。近年,一些研究人员提出将脸部特征在空间上分为精细、中等与粗糙三种等级,每种代表不同级别的表情运动细节,使用非线性能量优化方法将较高级别的细节添加到带有较低级别表情细节的人脸基网格中,参见Bernd Bickel,Mario Botsch,RolandAngst,Wojciech Matusik,Miguel Otaduy,Hanspeter Pfister,and MarkusGross.Multi-scale capture of facial geometry and motion.ACM Transactionson Graphics,2007,26:33-41。还有一些研究人员使用真实感动态皱纹和高级别人脸细节来自动地合成脸部表情。该方法可以构造出大尺度肌肉运动、中等尺度以及较高级别的脸部皱纹以及动态的皮肤毛孔细节等,参见Wan-Chun Ma,Andrew Jones,Jen-Yuan Chiang,Tim Hawkins,SuneFrederiksen,Pieter Peers,Marko Vukovic,Ming Ouhyoung,and Paul Debevec.Facial performance synthesis using deformation-driven polynomialdisplacement maps.ACM Transactions on Graphics,27:1-10,2008。然而,获取脸部细节需要高级硬件设备的支持,通常代价比较大,而且捕获过程对操作人员的技术要求较高,这种借助增添人脸表情细节提高人脸表情真实感的方法不适合普通大众的使用。
近年,混和样本合成人脸表情技术被广泛地应用于真实感人脸动画技术中。一些研究人员提出了一个基于样例的人脸动画克隆方法,参见Hyewon Pyun,Yejin Kim,Wonseok Chae,Hyung Woo Kang,and Sung Yong Shin.An example-based approach for facial expression cloning.In Proceedings of Symposium on Computer Animation,pages 167-176,Aire-la-Ville,Switzerland,2003.Eurographics Association。还有一些研究人员提出基于混和样例的表演驱动人脸动画方法,参见Erika Chuang and Christoph Bregler.Mood swings:expressive speech animation.ACMTransactions on Graphics,24:331-347,2005。但是,混和样本合成人脸表情动画方法需要提供一个较高质量的人脸表情样本库,构建一个满足要求的人脸表情样本库需要较大的人力和物力,这对普通大众来说是一个很大的难题。而且,最终合成的人脸表情的真实程度由给定的样本以及混和权系数来确定。最近,另有一些研究人员提出了自动地构造最优人脸表情样本的方法,可以很大程度上节省劳力成本,同时他们还给出了一种精确地计算混和权重的方法,可以有效地避免误差累积,参见Xuecheng Liu,Tianlu Mao,Shihong Xia,Yong Yu,and Zhaoqi Wang.Facial animation by optimized blendshapes from motion capture data.Computer Animation and Virtual Worlds,19:235-245,2008。然而,人脸表情变化是个非线性问题。上述的混和样本的方法企图使用线性方法来解决这一非线性问题,所合成表情较单一,而且合成的表情局限在给定样本的线性组合范围内。
直接人脸表情迁移技术是另一种合成人脸表情动画的途径。Noh等人提出了一种将脸部表情克隆到新模型的方法,参见Junyong Noh and Ulrich Neumann.Expression cloning.In Proceedings of ACM SIGGRAPH,pages277-288,New York,USA,2001.ACM。一些研究人员提出使用“网格距离”进行人脸表情运动传播,以人脸特征点到其他顶点的网格距离作为度量标准来计算特征部位的表情变化对其他非特征部位的影响,参见Zhigang Deng and Ulrich Neumann.Expressive speech animation synthesis with phoneme-level control.Computer Graphics Forum,27:2096-2113,2008。然而这些直接表情迁移技术在合成真实感人脸表情的过程中没有考虑人脸模型本身的细节。已知人脸特征点表情变化量,Zhao等人提出使用对偶拉普拉斯变形技术实现人脸表情迁移,参见Hui Zhao and Chiew-Lan Tai.Subtle facial animation transfer from 2d videos to 3d faces with laplacian deformation.In Proceedings of Computer Animation and Social Agents,Hasselt,Belgium,June 11-13,2007。然而,正如该文作者在文中所提那样,该方法没有考虑三维人脸表情变化,只考虑了二维情形。当表情变化会引起第三维空间变化时,该方法将会得到一些奇异的结果。
发明内容
本发明提供一种基于拉普拉斯变换的数据驱动人脸表情合成方法。该方法将采集的表演者真实人脸表情变化迁移到一个虚拟的中性目标人脸模型上,从而方便地合成真实感人脸表情动画。本发明的每一个步骤都可以在家用电脑的图形卡硬件中处理,为非专业人员提供了一种简便且直观的人脸表情动画合成方法。
为了达到上述目的,本发明所采用技术方案如下:
包括以下六个步骤:
1)使用运动捕获设备精确地采集表演者的脸部特征部位的运动;
2)将步骤1)中捕获的脸部特征部位的运动数据分解为脸部表情运动和头部刚体运动;
3)载入中性目标人脸模型;
4)根据中性目标人脸模型的几何结构与拓扑结构,计算中性目标人脸模型中各顶点的拉普拉斯坐标;
5)将步骤2)中分解所得的脸部表情运动迁移到中性目标人脸模型上,使得中性目标人脸模型具有与表演者一致的表情;
6)将步骤2)中分解所得的头部刚体运动迁移到步骤5)中得到的具有与表演者一致表情的目标人脸模型上,使得最终的目标人脸模型具有与表演者一致的面部表情与头部姿态。
本发明所述的采集表演者脸部特征部位的运动的方法如下:
使用光学运动捕获设备精确地记录下表演者的脸部特征部位的空间运动轨迹。根据运动图像专家组MPEG于1999年2月正式公布的MPEG-4标准(于2000年年初正式成为国际标准),在表演者脸部特征部位放置若干表情马克点,以记录表演者的脸部特征部位的运动。这样捕获的马克点的运动不仅记录下了表演者脸部表情的变化,同时还记录下了表演者头部的随机运动。为了分离这两类运动,与此同时,在表演者的脸部、额头等受脸部表情变化影响较小的位置放置若干非表情马克点,以记录表演者的头部随机运动。在采集过程中,允许表演者像在日常交流中那样自然地展现各种不同的脸部表情与头部姿态,如此捕获的人脸运动数据可以全面而真实地反应人类日常生活中的各种表情变化和头部运动。
本发明所述的将捕获的脸部特征部位的运动数据分解为脸部表情运动和头部刚体运动的方法如下:
捕获的脸部特征点的运动Ft与相应的脸部表情变化F′t和头部刚体运动At(At包括旋转变换Rt和平移变换Tt)满足下式:
Ft=RtF′t+Tt
式中,矩阵Rt与矩阵Tt分别是头部刚体运动At的旋转变换部分和平移变换部分。
非表情马克点的运动只包含头部刚体运动,因此使用它们的运动轨迹来描述头部刚体运动At。相应地,脸部的表情变化F′t可由下式得到:
F t ′ = R t - 1 ( F t - T t )
所述的载入中性目标人脸模型的方法如下:选择一个中性目标人脸模型,将该模型的几何信息和拓扑信息载入。
所述的采用拉普拉斯坐标描述中性目标人脸模型的方法如下:
一个顶点的拉普拉斯坐标可由该顶点的欧式坐标及其所有相邻顶点来描述,计算公式如下:
δ i = ( δ i x , δ i y , δ i z ) = v i - 1 d i Σ j ∈ N ( i ) v j
式中,δi是顶点vi的拉普拉斯坐标,N(i)是顶点vi的所有相邻顶点的下标所构成的集合,dt=|N(i)|是集合N(i)中元素的个数。
本发明所述的将脸部表情运动迁移到中性目标人脸模型上,使得目标人脸模型具有与表演者一致的表情的方法如下:
将从捕获的表演者脸部特征部位的运动数据中提取的特征点表情运动迁移到中性目标人脸模型中对应的特征点上,同时固定中性目标人脸模型中若干顶点不变。为了保留中性目标人脸模型中的细节,保持中性目标人脸模型的顶点拉普拉斯坐标不变。求解一个满足以上要求的最优化问题即可获得一个与表演者表情一致的目标人脸。计算公式如下:
E ( V ′ ) = Σ i = 1 n | | δ i ( v i ) - δ i ( v i ′ ) | | 2 + Σ i = 1 m | | v i ′ - u i | | 2
式中,V′为待求解的目标人脸模型,vi为初始目标人脸模型上的顶点,δi为顶点vi的拉普拉斯坐标,v′i为待求解目标人脸模型上的顶点,ui为目标人脸模型上的特征点以及固定点。
本发明所述的将头部刚体运动迁移到具有与表演者一致表情的目标人脸模型上,使得目标人脸模型具有与表演者一致的脸部表情和头部姿态的方法如下:
表演者的头部刚体运动At包含一个旋转变换Rt和一个平移变换Tt。将这两个变换应用于带有表情的目标人脸模型上,使得目标人脸模型具有与表演者一致的脸部表情的同时,还具有与表演者一致的头部姿态。计算公式如下:
M″t=RtM′t+Tt
式中,M′t是带表情的目标人脸模型(不含头部刚体运动部分),M″t是带有与表演者一致的脸部表情和头部姿态的目标人脸模型。
本发明针对现有人脸表情迁移方法存在的无法保留目标人脸模型上已有细节的缺点,将采集的人脸特征部位的运动数据分离为人脸表情运动和头部刚体运动,采用了一种基于拉普拉斯变换的人脸表情迁移技术,有效地实现了人脸表情的迁移;借助于拉普拉斯变换可保留模型变形前的细节这一特点,实现了人脸表情迁移的同时保持了目标人脸模型上的已有细节特征不变。本发明算法明确,界面友好,结果鲁棒,且该方法可以将采集的人脸表情迁移到任何类似人脸形状的目标模型中。
本发明的合成方法可方便地应用于计算机游戏、在线聊天以及其他人机交互领域。
附图说明
图1是本发明的技术方案流程图。
图2是本发明捕获脸部特征部位的运动时的人脸特征点分布图。
图3是本发明合成的脸部表情与表演者相应表情的对比图。
具体实施方式
下面结合附图对本发明一种基于拉普拉斯变换的数据驱动人脸表情合成方法通过实施例子进行详细说明,本发明可以在家用电脑的图形卡硬件中有效应用。
如图1所示,一种基于拉普拉斯变换的数据驱动人脸表情合成方法,包括采集表演者的脸部特征部位的运动、将捕获的脸部特征部位的运动数据分解为脸部表情运动和头部刚体运动、载入中性目标人脸模型、根据中性目标人脸模型的几何结构和拓扑结构计算中性目标人脸模型中各顶点的拉普拉斯坐标、将脸部表情运动迁移到中性目标人脸模型上、将头部刚体运动迁移到具有与表演者一致表情的目标人脸模型上六个步骤。
现具体介绍本方法的六个步骤:
1)使用英国Oxford Metrics Limited公司提供的运动捕获系统精确地采集表演者脸部特征部位的运动;
根据MPEG-4标准,在表演者的脸部特征部位如眼睛、眉毛、嘴巴等位置放置36个表情马克点,以记录表演者的脸部表情变化,参见图2。如此捕获的马克点的运动不仅记录下了表演者脸部表情的变化,同时还记录下了表演者头部的随机运动。为了分离这两类运动,与此同时,在表演者的额头这样受脸部表情变化影响较小的位置放置5个非表情马克点,在其鼻尖放置1个非表情马克点,以记录表演者的头部刚体运动,参见图2。在采集表演者脸部特征部位的运动数据的过程中,允许表演者像在日常活动中那样自然地展现各种脸部表情与头部姿态。如此捕获的人脸特征部位的运动数据可以全面而真实地记录人类日常生活中的各种表情变化和头部运动。
2)将捕获的脸部特征部位的运动数据分解为脸部表情运动和头部刚体运动;
所捕获的脸部36个表情马克点的运动Ft与相应的脸部表情变化F′t和头部刚体运动At(At包括旋转变换Rt和平移变换Tt)满足下式:
Ft=RtF′t+Tt
式中,矩阵Rt与矩阵Tt分别是头部刚体运动At的旋转变换部分和平移变换部分。
6个非表情马克点的运动受脸部表情变化的影响很小,因此,使用它们的运动轨迹来近似地描述头部刚体运动At,其中,Rt是头部刚体运动的旋转变换部分,Tt是头部刚体运动的平移变换部分。
Figure BDA0000027198550000071
为6个非表情马克点在第t帧的位置,则头部刚体运动At满足:
A t ( p t - 1 i ) = p t i , i = 1,2 , . . . , 6
然而,在运动捕获过程中,非表情马克点的运动包含细微的非头部刚体运动。例如,当表演者闭眼的时候,鼻尖上的马克点将会有轻微的非刚体运动。换句话说,非表情马克点的运动不是严格的刚体运动。因此,希望在最小二乘原理上求解最优头部刚体变换At,这对应于求解以下的最小化问题:
arg min A t Σ i = 1 6 | | A t ( p t - 1 i ) - p t i | | 2
以上的能量方程没有解析解,因此可以近似地求解At
为了计算头部刚体变换At中的旋转变换Rt,构造矩阵Lt如下:
L t = Σ i = 1 6 ( p t i - p t * ) ( p t - 1 i - p t - 1 * ) T
式中,
Figure BDA0000027198550000075
Figure BDA0000027198550000076
分别是6个非表情马克点在第t-1帧和第t帧的中心。头部刚体运动At的旋转矩阵Rt可以用矩阵Lt的旋转部分来近似。这里,使用SVD分解来计算这个旋转矩阵Rt。相应地,头部刚体变换At的平移变换Tt可由下式很容易地计算:
T t = p t * - R t p t - 1 *
由6个非表情马克点的运动近似地描述头部刚体运动At后,相应地,脸部特征点的表情运动F′t可由下式获取:
F t ′ = R t - 1 ( F t - T t )
3)载入中性目标人脸模型;
选择一个中性目标人脸模型,将该模型的几何信息和拓扑信息载入。
4)采用拉普拉斯坐标描述中性目标人脸模型;
一个顶点的拉普拉斯坐标可由该顶点的欧式坐标及其所有相邻顶点来描述,计算公式如下:
δ i = ( δ i x , δ i y , δ i z ) = v i - 1 d i Σ j ∈ N ( i ) v j
式中,δi是顶点vi的拉普拉斯坐标,N(i)是顶点vi的所有相邻顶点的下标所构成的集合,di=|N(i)|是集合N(i)中元素的个数。
5)将脸部表情运动迁移到中性目标人脸模型上,使得中性人脸模型具有与表演者一致的表情;
将从捕获的表演者脸部特征部位的运动数据中提取的特征点表情运动迁移到目标人脸模型中对应的特征点上,同时固定目标人脸模型中若干顶点不变。为了保留目标人脸模型中的已有细节,保持目标人脸模型的顶点拉普拉斯坐标不变。求解一个满足以上要求的最优化问题即可获得一个与表演者表情一致的目标人脸。计算公式如下:
E ( V ′ ) = Σ i = 1 n | | δ i ( v i ) - δ i ( v i ′ ) | | 2 + Σ i = 1 m | | v i ′ - u i | | 2
式中,V′为待求解的目标人脸模型上所有顶点的集合,vi为初始目标人脸模型上的顶点,δi为顶点vi的拉普拉斯坐标,v′i为待求解目标人脸模型上的顶点,ui为目标人脸模型上的特征点和固定点。
两帧间的表情偏移为:Et=F′t-F′t-1。这里,使用Et作为目标中性人脸模型上表情特征点的偏移。与此同时,由于表情变化对额头、颈子等位置影响很小,因此在这些部位均匀地选取19个顶点作为拉普拉斯变形的固定点。给定这样的36个表情特征点以及19个固定点,求解中性模型上其他顶点的新位置,即可获得带有与表演者一致表情的目标人脸模型M′t
6)将头部刚体运动At迁移到具有与表演者一致表情的目标人脸模型上,使得目标人脸模型同时具有与表演者一致的脸部表情和头部姿态;
表演者头部刚体运动At包括一个旋转变换矩阵Rt和一个平移变换矩阵Tt。将这两个变换应用于带有相应脸部表情的目标人脸模型上,使得目标人脸模型具有与表演者一致的脸部表情的同时,还具有与表演者一致的头部姿态。计算公式如下:
M″t=RtM′t+Tt
式中,M′t是带表情的目标人脸模型(不含头部刚体运动部分),M″t是带有相应脸部表情和头部姿态的目标人脸模型。
如图3所示为表演者的不同表情与合成的相应脸部表情的对比图。上面一排为表演者的不同表情,从左到右分别为中性、微笑、大笑、惊讶以及开心表情;下面一排为合成的相应脸部表情,从左到右分别为中性、微笑、大笑、惊讶以及开心表情。从图3可以看出:合成的人脸模型具有与表演者相似的面部表情和头部姿态,同时保留了人脸模型原有的细节特征。

Claims (7)

1.一种基于拉普拉斯变换的数据驱动人脸表情合成方法,该方法包括:
(1)采集表演者脸部特征部位的运动;
(2)将步骤(1)中捕获的脸部特征部位的运动数据分解为脸部表情运动和头部刚体运动;
(3)载入中性目标人脸模型;
(4)计算中性目标人脸模型中各顶点的拉普拉斯坐标;
(5)采用拉普拉斯变形技术,将步骤(2)中分解所得的脸部表情运动迁移到中性目标人脸模型上,使得目标人脸模型具有与表演者一致的脸部表情;
(6)将步骤(2)中分解所得的头部刚体运动迁移到具有与表演者一致表情的目标人脸模型上,使得目标人脸模型具有与表演者一致的脸部表情与头部姿态。
2.根据权利要求1所述的基于拉普拉斯变换的数据驱动人脸表情合成方法,其特征在于:所述的采集表演者脸部特征部位的运动的方法如下:
在表演者的表情特征部位放置若干感光的马克点,使用光学运动捕获设备记录下这些马克点的运动。
3.根据权利要求1所述的基于拉普拉斯变换的数据驱动人脸表情合成方法,其特征在于:所述的将捕获的脸部特征部位的运动数据分解为脸部表情运动和头部刚体运动的方法如下:
捕获的脸部特征点的运动Ft与相应的脸部表情变化F′t和头部刚体运动At,其中At包括旋转变换Rt和平移变换Tt,满足下式:
Ft=RtF′t+Tt
式中,Rt是头部刚体运动的旋转变换,Tt是头部刚体运动的平移变换。
4.根据权利要求1所述的基于拉普拉斯变换的数据驱动人脸表情合成方法,其特征在于:所述的载入中性目标人脸模型的方法如下:
选择一个中性目标人脸模型,将该模型的几何信息和拓扑信息载入。
5.根据权利要求1所述的基于拉普拉斯变换的数据驱动人脸表情合成方法,其特征在于:所述的步骤(4)计算中性目标人脸模型中各顶点的拉普拉斯坐标的方法为:
一个顶点的拉普拉斯坐标可由该顶点的欧式坐标以及其所有相邻顶点来描述,计算公式如下:
δ i = ( δ i x , δ i y , δ i z ) = v i - 1 d i Σ j ∈ N ( i ) v j
式中,δi是顶点vi的拉普拉斯坐标,di=|N(i)|是集合N(i)中元素的个数,N(i)是顶点vi的所有相邻顶点的下标所构成的集合。
6.根据权利要求1所述的基于拉普拉斯变换的数据驱动人脸表情合成方法,其特征在于:所述的步骤(5)的方法如下:
(1)固定中性目标人脸模型中若干顶点不变;
(2)将从捕获的表演者脸部特征部位的运动数据中提取的特征点表情运动迁移到中性目标人脸模型中对应的特征点上,
(3)保持中性目标人脸模型的顶点拉普拉斯坐标不变;
(4)求解一个满足以上要求的最优化问题,可获得一个与表演者表情一致的目标人脸,最优化问题的计算公式如下:
E ( V ′ ) = Σ i = 1 n | | δ i ( v i ) - δ i ( v i ′ ) | | 2 + Σ i = 1 m | | v i ′ - u i | | 2
式中,V′为待求解的目标人脸模型,vi为初始目标人脸模型上的顶点,δi为顶点vi的拉普拉斯坐标,v′i为待求解目标人脸模型上的顶点,ui为目标人脸模型上的特征点以及固定点。
7.根据权利要求1所述的基于拉普拉斯变换的数据驱动人脸表情合成方法,其特征在于:所述的步骤(6)的方法如下:
表演者头部刚体运动At包括一个旋转变换Rt和一个平移变换Tt,将这两个变换应用于带有表情的目标人脸模型上,使得目标人脸模型具有与表演者一致的脸部表情和头部姿态,计算公式如下:
M″t=RtM′t+Tt
式中,M′t是带表情的目标人脸模型,M″t是带有相应脸部表情和头部姿态的目标人脸模型。
CN2010102935513A 2010-09-27 2010-09-27 基于拉普拉斯变换的数据驱动人脸表情合成方法 Expired - Fee Related CN101944238B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN2010102935513A CN101944238B (zh) 2010-09-27 2010-09-27 基于拉普拉斯变换的数据驱动人脸表情合成方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN2010102935513A CN101944238B (zh) 2010-09-27 2010-09-27 基于拉普拉斯变换的数据驱动人脸表情合成方法

Publications (2)

Publication Number Publication Date
CN101944238A true CN101944238A (zh) 2011-01-12
CN101944238B CN101944238B (zh) 2011-11-23

Family

ID=43436218

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2010102935513A Expired - Fee Related CN101944238B (zh) 2010-09-27 2010-09-27 基于拉普拉斯变换的数据驱动人脸表情合成方法

Country Status (1)

Country Link
CN (1) CN101944238B (zh)

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102855652A (zh) * 2012-08-10 2013-01-02 大连大学 基于测地距的径向基函数人脸表情重定向与动画方法
CN103035022A (zh) * 2012-12-07 2013-04-10 大连大学 基于特征点的人脸表情合成方法
CN103093490A (zh) * 2013-02-02 2013-05-08 浙江大学 基于单个视频摄像机的实时人脸动画方法
CN103473801A (zh) * 2013-09-27 2013-12-25 中国科学院自动化研究所 一种基于单摄像头与运动捕捉数据的人脸表情编辑方法
CN104008564A (zh) * 2014-06-17 2014-08-27 河北工业大学 一种人脸表情克隆方法
WO2015042867A1 (zh) * 2013-09-27 2015-04-02 中国科学院自动化研究所 一种基于单摄像头与运动捕捉数据的人脸表情编辑方法
CN104517236A (zh) * 2014-11-25 2015-04-15 中国农业大学 一种动物形状表型自动测量系统
CN105069746A (zh) * 2015-08-23 2015-11-18 杭州欣禾圣世科技有限公司 基于局部仿射和颜色迁移技术的视频实时人脸替换方法及其系统
WO2016110199A1 (zh) * 2015-01-05 2016-07-14 掌赢信息科技(上海)有限公司 一种表情迁移方法、电子设备及系统
CN106447785A (zh) * 2016-09-30 2017-02-22 北京奇虎科技有限公司 一种驱动虚拟角色的方法和装置
CN106484511A (zh) * 2016-09-30 2017-03-08 华南理工大学 一种谱姿态迁移方法
WO2017152673A1 (zh) * 2016-03-10 2017-09-14 腾讯科技(深圳)有限公司 人物面部模型的表情动画生成方法及装置
CN107203962A (zh) * 2016-03-17 2017-09-26 掌赢信息科技(上海)有限公司 一种利用2d图片制作伪3d图像的方法及电子设备
CN107341784A (zh) * 2016-04-29 2017-11-10 掌赢信息科技(上海)有限公司 一种表情迁移方法及电子设备
CN108200334A (zh) * 2017-12-28 2018-06-22 广东欧珀移动通信有限公司 图像拍摄方法、装置、存储介质及电子设备
CN110517340A (zh) * 2019-08-30 2019-11-29 腾讯科技(深圳)有限公司 一种基于人工智能的脸部模型确定方法和装置
CN110517337A (zh) * 2019-08-29 2019-11-29 成都数字天空科技有限公司 动画角色表情生成方法、动画制作方法及电子设备
CN110677598A (zh) * 2019-09-18 2020-01-10 北京市商汤科技开发有限公司 视频生成方法、装置、电子设备和计算机存储介质
CN110910478A (zh) * 2019-11-05 2020-03-24 北京奇艺世纪科技有限公司 Gif图生成方法、装置、电子设备及存储介质
CN111105487A (zh) * 2019-12-19 2020-05-05 华中师范大学 一种虚拟教师系统中的面部合成方法及装置
CN111563944A (zh) * 2020-04-29 2020-08-21 山东财经大学 三维人脸表情迁移方法及系统
CN111651033A (zh) * 2019-06-26 2020-09-11 广州虎牙科技有限公司 一种人脸的驱动显示方法、装置、电子设备和存储介质
CN114627218A (zh) * 2022-05-16 2022-06-14 成都市谛视无限科技有限公司 一种基于虚拟引擎的人脸细微表情捕捉方法及装置
WO2023045317A1 (zh) * 2021-09-23 2023-03-30 北京百度网讯科技有限公司 表情驱动方法、装置、电子设备及存储介质
CN116228939A (zh) * 2022-12-13 2023-06-06 北京百度网讯科技有限公司 数字人驱动方法、装置、电子设备及存储介质
CN116485964A (zh) * 2023-06-21 2023-07-25 海马云(天津)信息技术有限公司 一种数字虚拟对象的表情处理方法、装置及存储介质

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101071514A (zh) * 2006-05-12 2007-11-14 中国科学院自动化研究所 一种直接传递三维模型姿态的方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101071514A (zh) * 2006-05-12 2007-11-14 中国科学院自动化研究所 一种直接传递三维模型姿态的方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
《Computer Animation 96 Proceedings》 19960604 Irfan Essa Modeling,Tracking and Interactive Animation of Faces and Heads using Input from Video 全文 1-7 , 2 *
《Computer Graphics Forum》 20080430 Eunjung ju Expressive Facial Gestures From Motion Capture Data 全文 1-7 , 2 *
《Proceedings of the 2004 Eurographics》 20041231 O.Sorkine Laplacian surface editing 全文 1-7 , 2 *
《计算机辅助设计与图形学学报》 20080131 宋明黎 基于拉普拉斯微分的脸部细节迁移 全文 1-7 , 2 *

Cited By (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102855652B (zh) * 2012-08-10 2014-08-06 大连大学 基于测地距的径向基函数人脸表情重定向与动画方法
CN102855652A (zh) * 2012-08-10 2013-01-02 大连大学 基于测地距的径向基函数人脸表情重定向与动画方法
CN103035022A (zh) * 2012-12-07 2013-04-10 大连大学 基于特征点的人脸表情合成方法
CN103035022B (zh) * 2012-12-07 2015-04-01 大连大学 基于特征点的人脸表情合成方法
CN103093490A (zh) * 2013-02-02 2013-05-08 浙江大学 基于单个视频摄像机的实时人脸动画方法
CN103093490B (zh) * 2013-02-02 2015-08-26 浙江大学 基于单个视频摄像机的实时人脸动画方法
US9361723B2 (en) 2013-02-02 2016-06-07 Zhejiang University Method for real-time face animation based on single video camera
CN103473801B (zh) * 2013-09-27 2016-09-14 中国科学院自动化研究所 一种基于单摄像头与运动捕捉数据的人脸表情编辑方法
CN103473801A (zh) * 2013-09-27 2013-12-25 中国科学院自动化研究所 一种基于单摄像头与运动捕捉数据的人脸表情编辑方法
WO2015042867A1 (zh) * 2013-09-27 2015-04-02 中国科学院自动化研究所 一种基于单摄像头与运动捕捉数据的人脸表情编辑方法
CN104008564A (zh) * 2014-06-17 2014-08-27 河北工业大学 一种人脸表情克隆方法
CN104008564B (zh) * 2014-06-17 2018-01-12 河北工业大学 一种人脸表情克隆方法
CN104517236A (zh) * 2014-11-25 2015-04-15 中国农业大学 一种动物形状表型自动测量系统
WO2016110199A1 (zh) * 2015-01-05 2016-07-14 掌赢信息科技(上海)有限公司 一种表情迁移方法、电子设备及系统
CN105069746A (zh) * 2015-08-23 2015-11-18 杭州欣禾圣世科技有限公司 基于局部仿射和颜色迁移技术的视频实时人脸替换方法及其系统
CN105069746B (zh) * 2015-08-23 2018-02-16 杭州欣禾圣世科技有限公司 基于局部仿射和颜色迁移技术的视频实时人脸替换方法及其系统
CN107180446B (zh) * 2016-03-10 2020-06-16 腾讯科技(深圳)有限公司 人物面部模型的表情动画生成方法及装置
WO2017152673A1 (zh) * 2016-03-10 2017-09-14 腾讯科技(深圳)有限公司 人物面部模型的表情动画生成方法及装置
CN107180446A (zh) * 2016-03-10 2017-09-19 腾讯科技(深圳)有限公司 人物面部模型的表情动画生成方法及装置
CN107203962B (zh) * 2016-03-17 2021-02-19 掌赢信息科技(上海)有限公司 一种利用2d图片制作伪3d图像的方法及电子设备
CN107203962A (zh) * 2016-03-17 2017-09-26 掌赢信息科技(上海)有限公司 一种利用2d图片制作伪3d图像的方法及电子设备
CN107341784A (zh) * 2016-04-29 2017-11-10 掌赢信息科技(上海)有限公司 一种表情迁移方法及电子设备
CN106447785A (zh) * 2016-09-30 2017-02-22 北京奇虎科技有限公司 一种驱动虚拟角色的方法和装置
CN106484511A (zh) * 2016-09-30 2017-03-08 华南理工大学 一种谱姿态迁移方法
CN108200334A (zh) * 2017-12-28 2018-06-22 广东欧珀移动通信有限公司 图像拍摄方法、装置、存储介质及电子设备
CN111651033A (zh) * 2019-06-26 2020-09-11 广州虎牙科技有限公司 一种人脸的驱动显示方法、装置、电子设备和存储介质
CN111651033B (zh) * 2019-06-26 2024-03-05 广州虎牙科技有限公司 一种人脸的驱动显示方法、装置、电子设备和存储介质
CN110517337A (zh) * 2019-08-29 2019-11-29 成都数字天空科技有限公司 动画角色表情生成方法、动画制作方法及电子设备
CN110517337B (zh) * 2019-08-29 2023-07-25 成都数字天空科技有限公司 动画角色表情生成方法、动画制作方法及电子设备
CN110517340A (zh) * 2019-08-30 2019-11-29 腾讯科技(深圳)有限公司 一种基于人工智能的脸部模型确定方法和装置
CN110517340B (zh) * 2019-08-30 2020-10-23 腾讯科技(深圳)有限公司 一种基于人工智能的脸部模型确定方法和装置
CN110677598B (zh) * 2019-09-18 2022-04-12 北京市商汤科技开发有限公司 视频生成方法、装置、电子设备和计算机存储介质
CN110677598A (zh) * 2019-09-18 2020-01-10 北京市商汤科技开发有限公司 视频生成方法、装置、电子设备和计算机存储介质
CN110910478A (zh) * 2019-11-05 2020-03-24 北京奇艺世纪科技有限公司 Gif图生成方法、装置、电子设备及存储介质
CN110910478B (zh) * 2019-11-05 2023-10-27 北京奇艺世纪科技有限公司 Gif图生成方法、装置、电子设备及存储介质
CN111105487B (zh) * 2019-12-19 2020-12-22 华中师范大学 一种虚拟教师系统中的面部合成方法及装置
CN111105487A (zh) * 2019-12-19 2020-05-05 华中师范大学 一种虚拟教师系统中的面部合成方法及装置
CN111563944B (zh) * 2020-04-29 2023-06-23 山东财经大学 三维人脸表情迁移方法及系统
CN111563944A (zh) * 2020-04-29 2020-08-21 山东财经大学 三维人脸表情迁移方法及系统
WO2023045317A1 (zh) * 2021-09-23 2023-03-30 北京百度网讯科技有限公司 表情驱动方法、装置、电子设备及存储介质
CN114627218B (zh) * 2022-05-16 2022-08-12 成都市谛视无限科技有限公司 一种基于虚拟引擎的人脸细微表情捕捉方法及装置
CN114627218A (zh) * 2022-05-16 2022-06-14 成都市谛视无限科技有限公司 一种基于虚拟引擎的人脸细微表情捕捉方法及装置
CN116228939A (zh) * 2022-12-13 2023-06-06 北京百度网讯科技有限公司 数字人驱动方法、装置、电子设备及存储介质
CN116485964A (zh) * 2023-06-21 2023-07-25 海马云(天津)信息技术有限公司 一种数字虚拟对象的表情处理方法、装置及存储介质
CN116485964B (zh) * 2023-06-21 2023-10-13 海马云(天津)信息技术有限公司 一种数字虚拟对象的表情处理方法、装置及存储介质

Also Published As

Publication number Publication date
CN101944238B (zh) 2011-11-23

Similar Documents

Publication Publication Date Title
CN101944238B (zh) 基于拉普拉斯变换的数据驱动人脸表情合成方法
Tao et al. Bayesian tensor approach for 3-D face modeling
Qu et al. Data augmentation and directional feature maps extraction for in-air handwritten Chinese character recognition based on convolutional neural network
Bando et al. Animating hair with loosely connected particles
CN103279980B (zh) 基于点云数据的树叶建模方法
Chen et al. A system of 3D hair style synthesis based on the wisp model
CN101826217A (zh) 人脸动画快速生成方法
CN108629834A (zh) 一种基于单张图片的三维头发重建方法
Han et al. Exemplar-based 3d portrait stylization
Wan et al. Data-driven facial expression synthesis via Laplacian deformation
CN100403338C (zh) 一种基于视频流的人脸表情幻想方法
CN102509356A (zh) 使用网格细分的细节保留几何模型变形方法
CN102637304B (zh) 基于gpu的几何表面上各向同性/异性纹理合成方法
CN102231209A (zh) 基于异构特征降维的二维角色卡通生成方法
CN110176063B (zh) 一种基于人体拉普拉斯变形的服装变形方法
Gu et al. CariMe: unpaired caricature generation with multiple exaggerations
Xu et al. Virtual hairy brush for painterly rendering
Ueno et al. Continuous and Gradual Style Changes of Graphic Designs with Generative Model
Xiao et al. A group of novel approaches and a toolkit for motion capture data reusing
Yang et al. Expression transfer for facial sketch animation
Yan et al. Cross-Species 3D Face Morphing via Alignment-Aware Controller
Çetinaslan Position manipulation techniques for facial animation
Meyer et al. PEGASUS: Physically Enhanced Gaussian Splatting Simulation System for 6DOF Object Pose Dataset Generation
Yan et al. Robot calligraphy based on footprint model and brush trajectory extraction
Liu et al. Interactive modeling of trees using VR devices

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20111123

Termination date: 20150927

EXPY Termination of patent right or utility model