CN101354795A - 基于视频的三维人脸动画驱动方法和系统 - Google Patents

基于视频的三维人脸动画驱动方法和系统 Download PDF

Info

Publication number
CN101354795A
CN101354795A CNA200810119046XA CN200810119046A CN101354795A CN 101354795 A CN101354795 A CN 101354795A CN A200810119046X A CNA200810119046X A CN A200810119046XA CN 200810119046 A CN200810119046 A CN 200810119046A CN 101354795 A CN101354795 A CN 101354795A
Authority
CN
China
Prior art keywords
human face
organ
expression
reference mark
driving
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CNA200810119046XA
Other languages
English (en)
Inventor
谢东海
黄英
王浩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Vimicro Corp
Original Assignee
Vimicro Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Vimicro Corp filed Critical Vimicro Corp
Priority to CNA200810119046XA priority Critical patent/CN101354795A/zh
Publication of CN101354795A publication Critical patent/CN101354795A/zh
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

本发明公开了一种基于视频的三维人脸动画驱动方法和系统,该方法可以包括以下步骤:识别视频图像中的人脸表情;根据表情识别结果和该表情相应的预置驱动规则对通用三维人脸模型上需要变形的器官进行变形,得到三维人脸动画。与现有技术相比,本发明的优点在于:本发明先识别视频图像数据中人脸图像的表情,然后依据预设的器官驱动规则,再来驱动相应的三维人脸模型中的器官,可以达到更加逼真的动画效果;避免现有技术采用单个器官驱动时,由于单个器官特征点的运动检测误差而导致的动画效果偏差。

Description

基于视频的三维人脸动画驱动方法和系统
技术领域
本发明涉及图像处理技术领域,尤其涉及一种基于视频的三维人脸动画驱动方法和系统。
背景技术
三维人脸动画技术起步于70年代,其后的研究者做了很多工作以期能够生成逼真生动的三维人脸动画。当前更进一步的研究方向是,人们希望能够实时的模拟真实人脸的各种表情和动作,但是由于人脸生理结构本身的复杂性,以及人们对人脸外观的敏感性,使得达到这一目标非常困难。
一种简单的实现方式是,可以通过检测视频数据中人脸器官特征点的变化来驱动三维人脸模型中的脸部器官,从而达到实时模拟的动画效果。例如,已经上市的罗技的产品可以通过摄像头采集的视频数据来驱动相应的三维脸部器官,进而实现三维人脸动画。
在具体实现中,首先对视频图像中某一人脸上的嘴巴器官的特征点进行实时检测和跟踪,如果检测到其发生了运动变化,则进一步依据预置条件,判定视频中嘴巴器官的运动是张开运动还是闭合运动,进而驱动相应三维模型中的嘴巴器官同时作张开运动或闭合运动。同理,也可以实现通过追踪视频图像中某一人脸上的眉毛、眼睛等器官的特征点变化,实现对三维模型中相应器官的驱动。进而,通过对各个器官的实时跟踪驱动,获得所需的实时模拟动画效果。
但是,由于上述现有技术的核心构思是通过追踪每个器官特征点的变化来对三维人脸模型的脸部器官进行驱动,进而达到动画效果的;而在实际应用中由于处理速度和计算难度的限制,使得通过上述现有技术所能达到的实际的动画效果比较简单,不够逼真,例如对于嘴巴的驱动,只能实现简单的嘴巴张开和闭合,对眉毛的驱动则只能简单的实现眉毛的上下运动。
基于上述对具体处理过程的描述,易于看出,现有的解决方案只能简单的完成单个器官的相应驱动,非常机械,难以实现更加逼真、更加真实的三维人脸动画。
发明内容
本发明所要解决的技术问题是提供一种基于视频的三维人脸动画驱动方法和系统,能够实现更加逼真、更加真实的三维人脸动画。
为了解决上述问题,本发明公开了一种基于视频的三维人脸动画驱动方法,包括以下步骤:识别视频图像中的人脸表情;根据表情识别结果和该表情相应的预置驱动规则对通用三维人脸模型上需要变形的器官进行变形,得到三维人脸动画。
优选的,所述方法还可以包括:依据当前人脸表情的具体程度对通用三维人脸模型上相应的局部人脸器官进行微调。
进一步的,识别当前表情的具体程度可以通过如下步骤实现:检测跟踪视频图像中所需人脸器官的特征点运动数据;依据所述检测跟踪数据,识别当前表情的具体程度。
优选的,所述方法还可以包括:依据器官变形程度对通用三维人脸模型上相应的器官进行局部微调。
进一步的,确定器官的变形程度可以通过以下步骤实现:检测跟踪视频图像中所需人脸器官的特征点运动数据,定位得到视频图像中器官的位置和大小;将得到的器官的位置和大小与标准模型中相应器官的位置和大小进行比较,获得该器官的变形程度。
优选的,所述方法中对通用三维人脸模型上的变形操作可以通过驱动预置控制点来实现。
进一步的,当变形操作针对的器官是嘴巴时,所述预置控制点分布于上嘴唇、下嘴唇、和嘴角。
进一步的,当变形操作针对的器官是眼睛时,所述预置控制点分布于上、下眼睑和眼角。
进一步的,当变形操作针对的器官是眉毛时,所述预置控制点分布于左眉毛和右眉毛。
优选的,所述方法中,当表情识别结果是″笑″时,预置的驱动规则为:下眼睑上的控制点整体向上运动;上嘴唇上的控制点平行上升,并向两边拉升;下嘴唇上的控制点依序连接形成抛物线的形状。
优选的,所述方法中,当表情识别结果是″惊讶″时,预置的驱动规则为:上、下嘴唇的控制点相对于嘴巴中心点分别向上、下运动;嘴角的控制点向嘴巴中心点运动;上、下嘴唇上的控制点同嘴角控制点依序连接形成两个抛物线形状;眉毛控制点向上运动。
优选的,所述方法中,当表情识别结果是″愤怒″时,预置的驱动规则为:上嘴唇的控制点整体向上平移;下嘴唇的控制点向下运动;下嘴唇的控制点同嘴角控制点依序连接形成抛物线形状;眉毛控制点向上运动。
根据本发明的实施例,还公开了一种基于视频的三维人脸动画驱动的系统,包括:表情识别装置,用于识别视频图像中的人脸表情;存储装置,用于存储预置的多个驱动规则;驱动装置,用于根据表情识别结果和该表情相应的预置驱动规则对通用三维人脸模型上需要变形的器官进行变形,得到三维人脸动画。
优选的,所述系统中还可以包括:第一微调装置,用于依据当前人脸表情的具体程度对通用三维人脸模型上相应的局部人脸器官进行微调。
进一步的,所述第一微调装置包括:检测跟踪单元,用于检测跟踪视频图像中所需人脸器官的特征点运动数据;对比单元,用于依据所述检测跟踪数据,识别当前表情的具体程度;调整单元,用于根据被识别表情的具体程度,对通用三维人脸模型上需要局部变形的器官进行微调。
优选的,所述系统中还可以包括:第二微调装置,用于依据器官变形程度对该器官进行局部微调。
进一步的,所述第二微调装置包括:检测定位单元,用于检测跟踪视频图像中所需人脸器官的特征点运动数据,定位得到视频图像中一器官的位置和大小;匹配单元,用于将所述器官的位置和大小与标准模型中的器官位置和大小进行比较,获得该器官的变形程度;协调单元,用于根据器官的变形程度,对通用三维人脸模型上需要局部变形的器官进行微调。
与现有技术相比,本发明具有以下优点:
首先,本发明不是针对单个器官的驱动过程,而是先识别视频图像数据中人脸图像的表情(例如,哭、笑等),然后依据预设的器官驱动规则,再来驱动相应的三维人脸模型中的器官,进而实现所需的三维动画效果。由于人脸的表情比较复杂,各个器官之间有较强的联动关系,因此,通过依据所识别的人脸表情对各个相应的器官进行统一的驱动,可以达到更加逼真的动画效果;可以避免现有技术采用单个器官驱动时,由于单个器官特征点的运动检测误差而导致的动画效果偏差。
其次,本发明还可以进一步实时检测视频图像中的器官特征点运动数据,以确定某个表情的程度(例如,表情为笑,程度包括大笑、微笑等)或者某个器官的变形程度,进而依据所确定的表情程度或变形程度对器官的局部进行微调,以实现对三维模型器官的精细化驱动,从而得到非常逼真,与真实人脸非常相似的三维动画效果。
附图说明
图1为本发明的一种三维人脸动画制作方法实施例的步骤流程图;
图2为本发明通过识别人脸表情的具体程度的方法进行微调的一个实施例的步骤流程图;
图3为本发明通过识别人脸器官变形程度的方法进行微调的一个实施例的步骤流程图;
图4为一个中性表情的人脸示意图;
图4-1为本发明具体实施例中,人脸表情为笑时的示意图;
图4-2为本发明具体实施例中,人脸表情为笑时,下嘴唇上控制点示意图;
图5-1为本发明具体实施例中,人脸表情为惊讶时的示意图;
图5-2为本发明具体实施例中,人脸表情为惊讶时,上、下嘴唇上控制点示意图;
图5-3为本发明具体实施例中,人脸表情为惊讶时,眉毛上控制点示意图;
图6-1为本发明具体实施例中,人脸表情为愤怒时的示意图;
图6-2为本发明具体实施例中,人脸表情为愤怒时,上、下嘴唇上控制点示意图;
图7-1至7-3为本发明具体实施例中,人脸不同程度的笑脸示意图;
图8为本发明基于视频的三维人脸动画驱动的系统实施例的结构框图;
图9为本发明第一微调装置实施例的结构框图;
图10为本发明第二微调装置实施例的结构框图。
具体实施方式
下面结合附图和实施例,对本发明的具体实施方式作进一步详细描述。以下实例用于说明本发明,但不用来限制本发明的范围。
本发明的核心思想在于:依据人脸图像的表情将三维人脸模型的器官进行整体变形,实现所需的三维动画效果,在整体变形后还可以依据所判断的表情程度或器官变形程度对器官的局部进行微调,以实现对三维模型器官的精细化驱动,从而得到非常逼真,与真实人脸非常相似的三维动画效果。
参考图1,示出了一种三维人脸动画制作方法实施例,具体可以包括:
步骤101、输入通用三维人脸模型;通用三维人脸模型一般可以采用三维造型软件(比如3DMax、Maya等)来制作;
步骤102、获取视频人脸图像;
步骤103、识别视频图像中的人脸表情;人脸表情识别具体的实现方法有很多,例如,中国专利申请号为:200710019296.1,名称为“人脸表情图像的分类及语义评判量化方法”中公开了一种,其具体方案为:利用训练人脸表情图像样本集,提取表情特征形成标记图LG向量,将其投影到主成分PCA子空间中,利用这些降维后的LG向量学习混合多维t-分布,作为该图像六种基本情感的语义评判,按照哪个表情所占的概率最大,从而把该图像判到该表情类中。再例如,中国专利申请号为:200710032511.1,名称为“一种会话机器人系统”中也公开了一种基于人脸检测(定位)和人脸表情的特征提取进行人脸表情识别(分类)的方法,不再赘述;
步骤104、调用与所识别的表情结果相匹配的预置驱动规则;例如,在数据库中存储了多个针对不同表情的驱动规则。
步骤105、使用预置驱动规则驱动通用三维人脸模型上器官的运动,得到三维人脸动画。
步骤104、105中预置驱动规则可以通过规定如何驱动通用三维人脸模型上的点来实现;因为,通用三维人脸模型是由点构成,驱动这些点运动就可以改变通用三维人脸模型器官的变形。
为了节省时间和节约运算资源,我们可以选择驱动控制点(即一部分主要的点)的运动,来改变器官的变形。由于当器官发生变形时这些控制点的变化最为明显,所以,通常通过驱动控制点的运动可以完成的人脸器官变化的效果,往往需要驱动多出控制点数十倍以上的非控制点的运动才能达到相同的效果。
优选的,在眼睛、眉毛、嘴巴等人脸器官上选择控制点,因为在人脸表情发生变换时,这些器官的变化明显,对这些器官的准确定位能更加逼真的反映真实人脸的情况。当然,对于数量而言,控制点数量越多,越能逼真的反映真实人脸。
需要说明的是,一般需要依变形的器官不同而选择不同的控制点,例如:当变形操作针对的器官是嘴巴时,控制点可以分布于上嘴唇、下嘴唇、和嘴角(参见图4-2、6-2中圆圈所示);当变形操作针对的器官是眼睛时,控制点可以分布于上、下眼睑和眼角;当变形操作针对的器官是眉毛时,控制点可以分布于左眉毛和右眉毛上(参见图5-3中圆圈所示)。具体的,在选择控制点时,我们可以选择利用三维模型编辑系统完成对通用三维人脸模型控制点的选择。
人脸可以有各种各样的表情,但典型的表情有以下几类:中性,笑,愤怒,惊讶,我们以上述几种表情为基础来研究人脸器官的变形方式,我们认为中性表情时人脸器官没有任何运动,参考图4,为中性表情的人脸示意图。
下面仔细描述当表情为“笑”、“惊讶”和“愤怒”时,预置驱动规则的具体实施方式。
参考图4-1,给出了当人脸表情是“笑”的时候,相对于中性表情人脸的变化情况。
当人脸表情是“笑”的时候,一种优选的预置驱动规则为:下眼睑上的控制点整体向上运动;上嘴唇上的控制点平行上升,并向两边拉升;下嘴唇上的控制点依序连接形成抛物线的形状。
当人脸表情是“笑”的时候,下眼睑会向上微微的运动,所以可以简单的抽象为整体向上运动,而眉毛可以认为没有运动;最明显的变化是上、下嘴唇,所以可以设置上嘴唇上的控制点在y方向是平行上升的,在x方向上则向两边拉升;下嘴唇上的控制点则可以认为从直线变形到一个抛物线的形状。
下嘴唇的变形可以用抛物线来表达:y=ax2-a,该抛物线具体示图见图4-2,图中包含了两根线条,上面的直线代表了中性表情时下嘴唇的位置,下面的曲线是利用公式y=ax2-a来生成,圆圈点代表了嘴唇上的控制点。嘴唇的中心点的x坐标为0,左右的控制点对称分布(例如,间隔为0.25mm),将控制点的x坐标代入抛物线公式可以计算出y值,根据y值就可以驱动嘴唇点的变形来产生笑的表情。调整y=ax2-a中的a值可以产生不同弯曲程度的抛物线,用来模拟不同程度的笑对应的下嘴唇变形。
参考图5-1,给出了当人脸表情是“惊讶”时,相对于中性表情人脸的变化情况。
当人脸表情是“惊讶”的时候,一种优选的预置驱动规则为:上、下嘴唇的控制点相对于嘴巴中心点分别向上、下运动;嘴角的控制点向嘴巴中心点运动;上、下嘴唇上的控制点同嘴角控制点依序连接形成两个抛物线形状;眉毛控制点向上运动。
当人脸表情是“惊讶”的时候,嘴巴的变化可以认为是上下嘴唇都变化为抛物线,同时嘴角往嘴巴的中间收缩;所以在设置上下嘴唇的变形时可以用抛物线函数:y=ax2+b表示,我们可以假设不同程度的″惊讶″时,代表嘴唇的抛物线都和x轴交于相同的位置。那么抛物线的函数可以简化为:y=ax2-a或者y=-ax2+a;抛物线的极值点为x=0时的点,那么该点的变形幅度就为a,x=0.5对应的点的变形幅度就为0.75a;我们可以取不同的x值来计算出变形的幅度,从而得到不同点的运动幅度值。参考图5-2,当为“惊讶”表情时,图中圆圈点代表了嘴唇上的控制点,上面的线条代表了上嘴唇变形,利用公式y=-ax2+a来生成,下面的线条代表了下嘴唇变形,利用公式y=ax2-a来生成,不同的a可以生成不同变形程度的抛物线。
参考图5-1,当为“惊讶”表情时,眉毛的变化是明显的上扬,我们可以用一个简单的变形算法来描述眉毛的上扬,该算法首先在眉毛的中心位置选择一个控制点,并在控制点的附近确定一个邻域。根据控制点和邻域点的位置来计算控制点到所有邻域点的最大距离maxL,那么当控制点运动时,邻域点的运动可以用公式:
V . ( cos ( L max L * PI ) + 1 ) / 2
来计算,公式中V代表了控制点的运动矢量,L表示控制点到邻域点的距离,这个公式可以保证离控制点越近的点的运动距离越大,最远的点保持不变;参考图5-3,最中间的点是控制点,它的移动最大,左右点是邻域点,其变形程度跟该点到控制点的距离成反比,两端的两个点没有移动。
参考图6-1,给出了当人脸表情是“愤怒”时候,相对于中性表情人脸的变化情况。
当人脸表情是“愤怒”的时候,一种优选的预置驱动规则为:上嘴唇的控制点整体向上平移;下嘴唇的控制点向下运动;下嘴唇的控制点同嘴角控制点依序连接形成抛物线形状;眉毛控制点向上运动。
当人脸表情是“愤怒”的时候,眉毛的变化可以采用上述惊讶时的驱动方式,只是眉毛的眉角上的控制点在方向上整体向上运动;嘴巴变化和“惊讶”表情时比较类似,只是上嘴唇的变形不再使用标准的抛物线,而是让上嘴唇中间的几个点向上整体平移;参考图6-2,圆圈点是嘴唇上的控制点,上面的线条代表了上嘴唇的变形,圆圈控制点整体上移,下面的曲线代表了下嘴唇的变形,类似“笑”的下嘴唇变形,可以利用公式y=ax2来生成。
当根据表情识别结果选择预置驱动规则对人脸器官进行变形操作后,能够大致和视频中的人脸相似,但是不能反映出不同程度的脸部表情,所以在细节上还是不像,为此我们需要在基于表情识别的人脸变形基础上,对人脸器官的局部进行微调,使最终的变形结果和真实的人脸表情相似,这种微调可以依据所识别的视频图像中的人脸表情程度或人脸器官变形程度来相应的驱动局部器官的调整。
参考图2,示出了通过识别人脸表情的具体程度的方法进行微调的一种实施例,该方法包括:
步骤201、检测跟踪视频图像中所需人脸器官的特征点运动数据;
步骤202、依据所述检测跟踪数据,识别当前表情的具体程度;
步骤203、对人脸模型中需要变形的器官整体进行调整。
使用上述方法进行微调动作时,先是整体判断人脸表情的具体程度(例如,参考图7-1至图7-3,给出不同程度的笑的表情),然后根据判断的结果对相应需要变形的器官整体进行调整;而下述通过识别人脸器官变形程度的方法进行微调的实施例中则是先获取视频中人脸器官的变形程度,再逐个对需要变形的人脸模型上器官进行调整,使其和真实的人脸表情更加相似。
参考图3,示出了通过识别人脸器官变形程度的方法进行微调的一种实施例,该方法包括:
步骤301、检测跟踪视频图像中所需人脸器官的特征点运动数据,定位得到视频图像中器官的位置和大小;
步骤302、将得到的器官的位置和大小与标准模型中相应器官的位置和大小进行比较,获得该器官的变形程度;
步骤303、对人脸模型中需要变形的器官逐个进行调整。
本发明还公开了一种基于视频的三维人脸动画驱动的系统,参考图8。
图8中所示的系统包括:表情识别装置401,用于识别视频图像中的人脸表情;存储装置402,用于存储预置的多个驱动规则;驱动装置403,用于根据表情识别结果和该表情相应的预置驱动规则对通用三维人脸模型上需要变形的器官进行变形,得到三维人脸动画。
从视频获取人脸图像之后,将人脸图像输入表情识别装置,表情识别装置对输入的人脸图像表情进行识别(判断这人脸图像是笑还是哭还是其它的什么表情),将识别结果输入驱动装置,驱动装置判断输入的表情识别结果同存储装置中的哪个驱动规则对应,从存储装置中调用对应的驱动规则对通用三维人脸模型进行驱动。
图8中所示的系统还可以包括第一微调装置;第一微调装置,用于依据当前人脸表情的具体程度对通用三维人脸模型上相应的人脸器官整体进行调整。参考图9,第一微调装置进一步包括:检测跟踪单元501,用于检测跟踪视频图像中所需人脸器官的特征点运动数据;对比单元502,用于依据所述检测跟踪数据,识别当前表情的具体程度;调整单元503,用于根据被识别表情的具体程度,对通用三维人脸模型上需要变形的器官整体进行调整。
上述的第一微调装置可以用下述的第二微调装置替代,实施例9,基于视频的三维人脸动画驱动的系统还可以包括第二微调装置;第二微调装置用于依据器官变形程度对相应器官逐个进行调整。参考图10,所述第二微调装置进一步包括:检测定位单元601,用于检测跟踪视频图像中所需人脸器官的特征点运动数据,定位得到视频图像中一器官的位置和大小;匹配单元602,用于将所述器官的位置和大小与标准模型中的器官位置和大小进行比较,获得该器官的变形程度;协调单元603,用于根据器官的变形程度,对通用三维人脸模型上需要局部变形的器官逐个进行调整。
为了微调的效果更好,在不考虑成本的情况下,我们可以将第一微调装置和第二微调装置并存,既依据当前人脸表情的具体程度对通用三维人脸模型上相应的人脸器官整体进行调整,同时又依据器官变形程度对相应器官逐个进行调整。
本说明书中的各个实施例均采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似的部分互相参见即可。对于系统实施例而言,由于其与方法实施例基本相似,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明技术原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。

Claims (17)

1、一种基于视频的三维人脸动画驱动方法,其特征在于,包括以下步骤:
识别视频图像中的人脸表情;
根据表情识别结果和该表情相应的预置驱动规则对通用三维人脸模型上需要变形的器官进行变形,得到三维人脸动画。
2、根据权利要求1所述的方法,其特征在于,还包括:依据当前人脸表情的具体程度对通用三维人脸模型上相应的局部人脸器官进行微调。
3、根据权利要求2所述的方法,其特征在于,通过如下步骤识别当前表情的具体程度:
检测跟踪视频图像中所需人脸器官的特征点运动数据;
依据所述检测跟踪数据,识别当前表情的具体程度。
4、根据权利要求1所述的方法,其特征在于,还包括:依据器官变形程度对通用三维人脸模型上相应的器官进行局部微调。
5、根据权利要求4所述的方法,其特征在于,通过以下步骤确定器官的变形程度:
检测跟踪视频图像中所需人脸器官的特征点运动数据,定位得到视频图像中器官的位置和大小;
将得到的器官的位置和大小与标准模型中相应器官的位置和大小进行比较,获得该器官的变形程度。
6、根据权利要求1所述的方法,其特征在于,所述对通用三维人脸模型上的变形操作是通过驱动预置控制点而实现的。
7、根据权利要求6所述的方法,其特征在于,当变形操作针对的器官是嘴巴时,所述预置控制点分布于上嘴唇、下嘴唇、和嘴角。
8、根据权利要求6所述的方法,其特征在于,当变形操作针对的器官是眼睛时,所述预置控制点分布于上、下眼睑和眼角。
9、根据权利要求6所述的方法,其特征在于,当变形操作针对的器官是眉毛时,所述预置控制点分布于左眉毛和右眉毛。
10、根据权利要求1-5所述的任一项方法,其特征在于,当人脸表情是“笑”时,预置的驱动规则为:下眼睑上的控制点整体向上运动;上嘴唇上的控制点平行上升,并向两边拉升;下嘴唇上的控制点依序连接形成抛物线的形状。
11、根据权利要求1-5所述的任一项方法,其特征在于,当人脸表情是“惊讶”时,预置的驱动规则为:上、下嘴唇的控制点相对于嘴巴中心点分别向上、下运动;嘴角的控制点向嘴巴中心点运动;上、下嘴唇上的控制点同嘴角控制点依序连接形成两个抛物线形状;眉毛控制点向上运动。
12、根据权利要求1-5所述的任一项方法,其特征在于,当人脸表情是“愤怒”时,预置的驱动规则为:上嘴唇的控制点整体向上平移;下嘴唇的控制点向下运动;下嘴唇的控制点同嘴角控制点依序连接形成抛物线形状;眉毛控制点向上运动。
13、一种基于视频的三维人脸动画驱动的系统,其特征在于,包括:
表情识别装置,用于识别视频图像中的人脸表情;
存储装置,用于存储预置的多个驱动规则;
驱动装置,用于根据表情识别结果和该表情相应的预置驱动规则对通用三维人脸模型上需要变形的器官进行变形,得到三维人脸动画。
14、根据权利要求13所述的系统,其特征在于,还包括:第一微调装置,用于依据当前人脸表情的具体程度对通用三维人脸模型上相应的局部人脸器官进行微调。
15、根据权利要求14所述的系统,其特征在于,所述第一微调装置进一步包括:
检测跟踪单元,用于检测跟踪视频图像中所需人脸器官的特征点运动数据;
对比单元,用于依据所述检测跟踪数据,识别当前表情的具体程度;
调整单元,用于根据被识别表情的具体程度,对通用三维人脸模型上需要局部变形的器官进行微调。
16、根据权利要求13所述的系统,其特征在于,还包括:第二微调装置,用于依据器官变形程度对该器官进行局部微调。
17、根据权利要求16所述的系统,其特征在于,所述第二微调装置进一步包括:
检测定位单元,用于检测跟踪视频图像中所需人脸器官的特征点运动数据,定位得到视频图像中一器官的位置和大小;
匹配单元,用于将所述器官的位置和大小与标准模型中的器官位置和大小进行比较,获得该器官的变形程度;
协调单元,用于根据器官的变形程度,对通用三维人脸模型上需要局部变形的器官进行微调。
CNA200810119046XA 2008-08-28 2008-08-28 基于视频的三维人脸动画驱动方法和系统 Pending CN101354795A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CNA200810119046XA CN101354795A (zh) 2008-08-28 2008-08-28 基于视频的三维人脸动画驱动方法和系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CNA200810119046XA CN101354795A (zh) 2008-08-28 2008-08-28 基于视频的三维人脸动画驱动方法和系统

Publications (1)

Publication Number Publication Date
CN101354795A true CN101354795A (zh) 2009-01-28

Family

ID=40307594

Family Applications (1)

Application Number Title Priority Date Filing Date
CNA200810119046XA Pending CN101354795A (zh) 2008-08-28 2008-08-28 基于视频的三维人脸动画驱动方法和系统

Country Status (1)

Country Link
CN (1) CN101354795A (zh)

Cited By (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102157007A (zh) * 2011-04-11 2011-08-17 北京中星微电子有限公司 一种表演驱动的制作人脸动画的方法和装置
CN102314612A (zh) * 2010-07-01 2012-01-11 北京中星微电子有限公司 一种笑脸图像的识别方法、识别装置和图像获取设备
CN102393951A (zh) * 2011-06-30 2012-03-28 Tcl集团股份有限公司 一种人脸模型的变形方法
CN102479388A (zh) * 2010-11-22 2012-05-30 北京盛开互动科技有限公司 基于人脸跟踪和分析的表情互动方法
CN102509333A (zh) * 2011-12-07 2012-06-20 浙江大学 基于动作捕获数据驱动的二维卡通表情动画制作方法
WO2012167475A1 (zh) * 2011-07-12 2012-12-13 华为技术有限公司 生成形体动画的方法及装置
CN103198519A (zh) * 2013-03-15 2013-07-10 苏州跨界软件科技有限公司 虚拟人物照相系统系统和方法
CN103473799A (zh) * 2013-09-02 2013-12-25 腾讯科技(深圳)有限公司 一种图片的动态处理方法及装置、终端设备
CN105069830A (zh) * 2015-08-14 2015-11-18 广州市百果园网络科技有限公司 表情动画生成方法及装置
CN105139450A (zh) * 2015-09-11 2015-12-09 重庆邮电大学 一种基于人脸模拟的三维虚拟人物构建方法及系统
CN105190700A (zh) * 2013-06-04 2015-12-23 英特尔公司 基于化身的视频编码
WO2016101131A1 (en) * 2014-12-23 2016-06-30 Intel Corporation Augmented facial animation
CN106934375A (zh) * 2017-03-15 2017-07-07 中南林业科技大学 基于特征点运动轨迹描述的人脸表情识别方法
CN107180446A (zh) * 2016-03-10 2017-09-19 腾讯科技(深圳)有限公司 人物面部模型的表情动画生成方法及装置
US9799133B2 (en) 2014-12-23 2017-10-24 Intel Corporation Facial gesture driven animation of non-facial features
US9824502B2 (en) 2014-12-23 2017-11-21 Intel Corporation Sketch selection for rendering 3D model avatar
CN107657652A (zh) * 2017-09-11 2018-02-02 广东欧珀移动通信有限公司 图像处理方法和装置
CN108305312A (zh) * 2017-01-23 2018-07-20 腾讯科技(深圳)有限公司 3d虚拟形象的生成方法和装置
WO2018205801A1 (zh) * 2017-05-12 2018-11-15 腾讯科技(深圳)有限公司 人脸动画实现的方法、计算机设备及存储介质
CN108830917A (zh) * 2018-05-29 2018-11-16 努比亚技术有限公司 一种信息生成方法、终端及计算机可读存储介质
CN109034056A (zh) * 2018-07-24 2018-12-18 合肥爱玩动漫有限公司 一种用于动漫设计的面部识别系统
CN109145688A (zh) * 2017-06-28 2019-01-04 武汉斗鱼网络科技有限公司 视频图像的处理方法及装置
CN109218700A (zh) * 2018-11-13 2019-01-15 盎锐(上海)信息科技有限公司 影像处理装置及方法
CN109523628A (zh) * 2018-11-13 2019-03-26 盎锐(上海)信息科技有限公司 影像生成装置及方法
CN109558851A (zh) * 2018-12-04 2019-04-02 广东智媒云图科技股份有限公司 一种基于面部表情的联合作画方法及系统
CN110163957A (zh) * 2019-04-26 2019-08-23 李辉 一种基于唯美人脸程序的表情生成系统
CN111524062A (zh) * 2020-04-22 2020-08-11 北京百度网讯科技有限公司 图像生成方法和装置
CN111598977A (zh) * 2020-05-21 2020-08-28 北京中科深智科技有限公司 一种表情迁移并动画化的方法及系统
CN112307942A (zh) * 2020-10-29 2021-02-02 广东富利盛仿生机器人股份有限公司 一种面部表情量化表示方法、系统及介质
WO2021063012A1 (zh) * 2019-09-30 2021-04-08 华为技术有限公司 视频通话人脸呈现方法、视频通话装置及汽车
US11303850B2 (en) 2012-04-09 2022-04-12 Intel Corporation Communication using interactive avatars
CN115049016A (zh) * 2022-07-20 2022-09-13 聚好看科技股份有限公司 基于情绪识别的模型驱动方法及设备
CN115393488A (zh) * 2022-10-28 2022-11-25 北京百度网讯科技有限公司 虚拟人物表情的驱动方法、装置、电子设备和存储介质
US11887231B2 (en) 2015-12-18 2024-01-30 Tahoe Research, Ltd. Avatar animation system

Cited By (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102314612A (zh) * 2010-07-01 2012-01-11 北京中星微电子有限公司 一种笑脸图像的识别方法、识别装置和图像获取设备
CN102314612B (zh) * 2010-07-01 2016-08-17 北京中星微电子有限公司 一种笑脸图像的识别方法、识别装置和图像获取设备
CN102479388A (zh) * 2010-11-22 2012-05-30 北京盛开互动科技有限公司 基于人脸跟踪和分析的表情互动方法
CN102157007A (zh) * 2011-04-11 2011-08-17 北京中星微电子有限公司 一种表演驱动的制作人脸动画的方法和装置
CN102393951B (zh) * 2011-06-30 2014-10-29 Tcl集团股份有限公司 一种人脸模型的变形方法
CN102393951A (zh) * 2011-06-30 2012-03-28 Tcl集团股份有限公司 一种人脸模型的变形方法
WO2012167475A1 (zh) * 2011-07-12 2012-12-13 华为技术有限公司 生成形体动画的方法及装置
CN102509333A (zh) * 2011-12-07 2012-06-20 浙江大学 基于动作捕获数据驱动的二维卡通表情动画制作方法
US11303850B2 (en) 2012-04-09 2022-04-12 Intel Corporation Communication using interactive avatars
US11595617B2 (en) 2012-04-09 2023-02-28 Intel Corporation Communication using interactive avatars
CN103198519A (zh) * 2013-03-15 2013-07-10 苏州跨界软件科技有限公司 虚拟人物照相系统系统和方法
CN105190700A (zh) * 2013-06-04 2015-12-23 英特尔公司 基于化身的视频编码
CN103473799B (zh) * 2013-09-02 2016-09-14 腾讯科技(深圳)有限公司 一种图片的动态处理方法及装置、终端设备
CN103473799A (zh) * 2013-09-02 2013-12-25 腾讯科技(深圳)有限公司 一种图片的动态处理方法及装置、终端设备
WO2016101131A1 (en) * 2014-12-23 2016-06-30 Intel Corporation Augmented facial animation
US9799133B2 (en) 2014-12-23 2017-10-24 Intel Corporation Facial gesture driven animation of non-facial features
US9824502B2 (en) 2014-12-23 2017-11-21 Intel Corporation Sketch selection for rendering 3D model avatar
US9830728B2 (en) 2014-12-23 2017-11-28 Intel Corporation Augmented facial animation
US10540800B2 (en) 2014-12-23 2020-01-21 Intel Corporation Facial gesture driven animation of non-facial features
US11295502B2 (en) 2014-12-23 2022-04-05 Intel Corporation Augmented facial animation
CN105069830A (zh) * 2015-08-14 2015-11-18 广州市百果园网络科技有限公司 表情动画生成方法及装置
CN105139450B (zh) * 2015-09-11 2018-03-13 重庆邮电大学 一种基于人脸模拟的三维虚拟人物构建方法及系统
CN105139450A (zh) * 2015-09-11 2015-12-09 重庆邮电大学 一种基于人脸模拟的三维虚拟人物构建方法及系统
US11887231B2 (en) 2015-12-18 2024-01-30 Tahoe Research, Ltd. Avatar animation system
CN107180446A (zh) * 2016-03-10 2017-09-19 腾讯科技(深圳)有限公司 人物面部模型的表情动画生成方法及装置
CN108305312A (zh) * 2017-01-23 2018-07-20 腾讯科技(深圳)有限公司 3d虚拟形象的生成方法和装置
CN106934375A (zh) * 2017-03-15 2017-07-07 中南林业科技大学 基于特征点运动轨迹描述的人脸表情识别方法
WO2018205801A1 (zh) * 2017-05-12 2018-11-15 腾讯科技(深圳)有限公司 人脸动画实现的方法、计算机设备及存储介质
US11087519B2 (en) 2017-05-12 2021-08-10 Tencent Technology (Shenzhen) Company Limited Facial animation implementation method, computer device, and storage medium
CN109145688A (zh) * 2017-06-28 2019-01-04 武汉斗鱼网络科技有限公司 视频图像的处理方法及装置
CN107657652A (zh) * 2017-09-11 2018-02-02 广东欧珀移动通信有限公司 图像处理方法和装置
CN108830917A (zh) * 2018-05-29 2018-11-16 努比亚技术有限公司 一种信息生成方法、终端及计算机可读存储介质
CN108830917B (zh) * 2018-05-29 2023-04-18 努比亚技术有限公司 一种信息生成方法、终端及计算机可读存储介质
CN109034056A (zh) * 2018-07-24 2018-12-18 合肥爱玩动漫有限公司 一种用于动漫设计的面部识别系统
CN109218700A (zh) * 2018-11-13 2019-01-15 盎锐(上海)信息科技有限公司 影像处理装置及方法
CN109523628A (zh) * 2018-11-13 2019-03-26 盎锐(上海)信息科技有限公司 影像生成装置及方法
CN109558851A (zh) * 2018-12-04 2019-04-02 广东智媒云图科技股份有限公司 一种基于面部表情的联合作画方法及系统
CN110163957A (zh) * 2019-04-26 2019-08-23 李辉 一种基于唯美人脸程序的表情生成系统
WO2021063012A1 (zh) * 2019-09-30 2021-04-08 华为技术有限公司 视频通话人脸呈现方法、视频通话装置及汽车
CN111524062B (zh) * 2020-04-22 2023-11-24 北京百度网讯科技有限公司 图像生成方法和装置
CN111524062A (zh) * 2020-04-22 2020-08-11 北京百度网讯科技有限公司 图像生成方法和装置
CN111598977A (zh) * 2020-05-21 2020-08-28 北京中科深智科技有限公司 一种表情迁移并动画化的方法及系统
CN112307942A (zh) * 2020-10-29 2021-02-02 广东富利盛仿生机器人股份有限公司 一种面部表情量化表示方法、系统及介质
CN115049016A (zh) * 2022-07-20 2022-09-13 聚好看科技股份有限公司 基于情绪识别的模型驱动方法及设备
CN115393488A (zh) * 2022-10-28 2022-11-25 北京百度网讯科技有限公司 虚拟人物表情的驱动方法、装置、电子设备和存储介质

Similar Documents

Publication Publication Date Title
CN101354795A (zh) 基于视频的三维人脸动画驱动方法和系统
US11600013B2 (en) Facial features tracker with advanced training for natural rendering of human faces in real-time
Xia et al. A survey on human performance capture and animation
US10860838B1 (en) Universal facial expression translation and character rendering system
US11836943B2 (en) Virtual face model creation based on key point
Chai et al. Vision-based control of 3 D facial animation
KR101558202B1 (ko) 아바타를 이용한 애니메이션 생성 장치 및 방법
CN105825268B (zh) 面向机器人动作学习的数据处理方法和系统
Zhu et al. Human motion generation: A survey
US11648477B2 (en) Systems and methods for generating a model of a character from one or more images
Cong Art-directed muscle simulation for high-end facial animation
KR102229061B1 (ko) 표정 인식 모델 생성 장치 및 방법, 및 이를 이용한 표정 인식 장치 및 방법
JP2020177620A (ja) アバター用の3d顔モデルを生成する方法及び関連デバイス
JP2022123843A (ja) 3次元姿勢推定データを生成するためのコンピュータ実装方法、データ処理装置およびコンピュータプログラム
CN106326980A (zh) 机器人和机器人模拟人脸面部运动的方法
WO2019098872A1 (ru) Способ отображения трехмерного лица объекта и устройство для него
Agarwal et al. Imitating human movement with teleoperated robotic head
KR102229056B1 (ko) 표정 인식 모델 생성 장치, 방법 및 이러한 방법을 수행하도록 프로그램된 컴퓨터 프로그램을 저장하는 컴퓨터 판독가능한 기록매체
Cetinaslan et al. Sketch-Based Controllers for Blendshape Facial Animation.
Boccignone et al. Predictive sampling of facial expression dynamics driven by a latent action space
Bergasa et al. Guidance of a wheelchair for handicapped people by face tracking
Ma et al. Animating visible speech and facial expressions
KR102143227B1 (ko) 객체의 3차원 형상 정보 생성 방법 및 그 장치
Hüser et al. Visual programming by demonstration of grasping skills in the context of a mobile service robot using 1D-topology based self-organizing-maps
Kroemer et al. Grasping with vision descriptors and motor primitives

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C02 Deemed withdrawal of patent application after publication (patent law 2001)
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20090128