CN102509333A - 基于动作捕获数据驱动的二维卡通表情动画制作方法 - Google Patents
基于动作捕获数据驱动的二维卡通表情动画制作方法 Download PDFInfo
- Publication number
- CN102509333A CN102509333A CN2011104025752A CN201110402575A CN102509333A CN 102509333 A CN102509333 A CN 102509333A CN 2011104025752 A CN2011104025752 A CN 2011104025752A CN 201110402575 A CN201110402575 A CN 201110402575A CN 102509333 A CN102509333 A CN 102509333A
- Authority
- CN
- China
- Prior art keywords
- frame
- point
- cartoon
- expression
- human face
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
本发明公开了一种基于动作捕获数据驱动的二维卡通表情动画制作方法。首先同时使用动作捕获设备捕获演员的表情数据,同时由用户在目标卡通人脸上标记出与演员数据相同的拓扑结构的特征点;然后使用一种基于偏移比例的重定向方法将演员表情数据的第一帧与目标卡通人脸的特征点进行对齐,并以此对齐比例将演员表情数据映射到目标卡通人脸上;将目标卡通人脸矢量化,并最终使用重定向后的动作捕获数据驱动矢量图像形式的卡通人脸进行变形,以达到动画化的效果。本发明由于使用了矢量化和基于偏移比例的重定向技术,在不考虑纹理细节的非真实卡通人脸的动画化的领域可以得到表情丰富且还原度较高的卡通表情动画。
Description
技术领域
本发明涉及计算机动画辅助设计领域,尤其涉及一种动作捕获数据驱动的二维卡通表情动画制作方法。
背景技术
在卡通动画制作领域,如何创作出形象生动的卡通表情动画是一个值得讨论的问题。完全依靠动画师手工完成的卡通表情动画不但难以确保其效果生动形象,而且对动画师的制作技术、经验和工作量也是一种挑战。如何自动或半自动的生成出较为生动形象的表情动画,这成为计算机辅助设计领域的一个热门话题,也是学术界和产业界共同关心的问题。事实上,在卡通人脸动画制作中,静态二维卡通人脸图像的绘制对于动画师而言并非难事,且随着光学运动捕获系统的使用,稀疏二维动态人脸表情数据的获取也越来越容易和普及。因此,基于静态二维卡通人脸图像及动态人脸表情数据融合高效生成二维卡通人脸表情动画是一个可行的思路。
当前人脸表情动画制作技术主要分为以下几类:
基于关键帧插值的动画制作技术:动画师制作若干关键帧表情,通过差值生成两帧之间的过渡帧,这种方法被称为关键帧差值方法。传统的二维卡通动画制作大多采用这种方法,它的优点是简单便捷,有经验的动画师通过制作高质量的关键帧可以做出较生动的卡通动画。但这种方法的效果依赖于关键帧的质量和数目,对动画师的经验要求较高,也无法生成较为复杂的人脸表情变化。
基于参数化的表情动画制作技术:此类方法将人脸表情抽象成若干不同的参数,用户只需要调整参数即可实现不同表情之间的变化。最常用的参数化方法有面部动作编码系统(Fical Action Coding System,FACS)和MPEG-4的人脸动画驱动方法。此类方法在组合的参数相互之间产生冲突时大多缺乏调度机制,导致表情不自然;同时为了得到某一个特定的表情需要调整很多参数,这需要繁琐的手工调试。
基于混合模型的表情动画制作技术:此类方法在三维动画领域中被广泛应用,其思路是不考虑人脸的物理属性,而是直接采用一组三维表情模型(即变形目标)来定义一个线性空间,新的人脸表情由这组模型的线性组合来构成。这种方法直观方便,但缺点是变形目标的创建过程复杂,需要大量艺术家的工作;且当变形目标的数量较大时,模型线性组合系数的人工调整会较繁琐,致使动画师难以实现制作意图。
基于表演驱动的表情动画制作技术:此类方法请演员来表演一段表情,然后使用这段表情数据来驱动卡通形象做出相同的表情。捕获表情的过程又分为使用动作捕获设备捕获表情和普通表情视频驱动两种类型,前者驱动的动画较为生动形象,而后者的优点在于数据捕获更加方便快捷。基于表情驱动的表情动画制作技术较为高效,且能够生成相对形象的表情动画,因此其在表情动画制作领域的应用日益广泛。但运动数据与人脸模型的融合仍然需要大量的人工干预。
发明内容
本发明的目的是提供一种基于动作捕获数据驱动的二维卡通表情动画制作方法。
基于动作捕获数据驱动的二维卡通表情动画制作方法的步骤如下:
1)使用动作捕获数据获取演员表情,并从中跟踪出演员表情特征序列{En};由操作者在目标卡通人脸上手动标注出与演员表情特征序列{En}相同的目标卡通人脸控制点集合E′0;
2)将目标卡通人脸控制点集合E′0作为相对于目标卡通人脸表情特征序列{E′n}的第零帧,对演员表情特征序列{En}第零帧中演员人脸控制点集合E0与目标卡通人脸控制点集合E′0进行数据的对齐,并依照对齐比例映射得出相对于目标卡通人脸表情特征序列{E′n};
3)将目标卡通人脸进行矢量化;
4)使用基于移动最小二乘法的图像变形方法,以矢量化的目标卡通人脸作为目标图像,目标卡通人脸表情特征序列{E′n}作为目标卡通人脸表情控制点集合进行变形,得到每一帧的图像,完成基于动作捕获数据驱动的二维卡通表情动画的制作。
所述的步骤2)为:
(1)在演员表情特征序列{En}和目标卡通人脸表情特征序列{E′n}中,均存在一个控制点,两控制点的位移都不随时间改变,将两控制点作为偏移比例的基准点:C(cx,cy)∈E0、C’(cx’,cy’)∈E′0;
(2)对于演员表情特征序列{En}第零帧中一个控制点Pi∈E0且Pi≠C和目标卡通人脸表情特征序列{E′n}第零帧中对应的一个控制点Pi′∈E′0且Pi′≠C′,定义其偏移比例s(sxi,syi)∈S:
(3)对表情特征序列的第j帧,j≠0:表情动画的基准点在整个动画过程中不会发生位移,即C′i=Ci;
(4)使用偏移比例S对第j帧的动作驱动数据进行映射:
x′i=cx′i+sxi·(xi-cxi)
y′i=cy′i+syi·(yi-cyi)
其中Pi(xi,yi)∈Ei是表情特征序列中第j帧的第i个控制点;Ci(cxi,cyi)∈Ei是表情特征序列第i帧的基准点;C′i(cx′i,cy′i)=C′(cx′,cy′)是即将生成的第j帧的表情动画的基准点;生成控制点P′i(x′i,y′i)∈E′i是生成表情动画的第j帧的第i个控制点,完成表情特征序列从演员人脸到目标卡通人脸的重定向过程。
所述的步骤3)为:
(1)将目标图像转化为灰度图像I,对灰度图像I进行边缘原检测,得到边缘图像I’;对边缘图像I’进行数学形态学的膨胀,再进行骨骼抽取,得到单宽度边缘图像I”;
(2)对单宽度边缘图像I”,建立辅助矩阵M保存单宽度边缘图像I”中每个像素的访问情况,初始化为未访问;由用户在每一个面部器官的轮廓上选取一个点作为根节点vs,当前节点vc设为vs;
(3)将当前节点vc在辅助矩阵M中对应的位置标记为已访问,初始化搜索尺度s=1,按照顺时针方向搜索以当前节点vc为中心,边长为2s+1的正方形的边上的点。当搜索到一个边界节点时,检测辅助矩阵中这个边界节点的已访问性;若已访问,则继续进行搜索;若未访问,则将这个边界节点加入边界点列数组中,并将这个边界节点的八临域内各个点均设为已访问,并将此点作为根节点重复上述步骤;若未搜索到符合条件的节点,则认为遇到断边沟,将搜索尺度s+=1同样重复上述步骤;当搜索尺度s大于一个特定值时,循环结束,此时得到的边界点列数组即为跟踪得到的面部器官轮廓C,其集合为面部器官轮廓线集合{C};
(4)对每一个面部器官轮廓C∈{C},将曲线的起点vs与终点ve加入轮廓特征点列;用vs与ve的连线Lse作为曲线的初始简化,并搜寻曲线上距离Lse最远的点vd;检测vd到Lse的距离d与Lse的长度l的比值d/l是否小于参数α;若成立,则轮廓抽取完成;否则将vd插入轮廓特征点列中起点vs之后,并分别对从vs到vd与从vd到ve的两条曲线分别重复上述步骤,最终得到面部器官轮廓C的特征点集合V;用特征点集合V作为锚点创建贝塞尔曲线,得到矢量化的面部器官轮廓。
所述的步骤4)为:
(1)设目标卡通人脸表情特征序列{E′n}第零帧E′0中的特征点为pi:对原始卡通矢量图每一个面部器官矢量轮廓的锚点v,计算相应的权重参数:
其中α为常量参数;
(2)根据以上结果计算目标卡通人脸表情特征序列{E′n}第零帧E′0的加权重心p*:
(3)对目标卡通人脸表情特征序列{E′n}第零帧E′0的第j个控制点,计算仿射矩阵:
Aj=(v-p*)(∑i(pi-p*)Twi(pi-p*))-1(pj-p*)T
(4)设目标卡通人脸表情特征序列{E′n}的后续某帧的特征点为qi:对原始卡通矢量图每一个面部器官矢量轮廓的锚点v,计算相应的权重参数:
其中α为常量参数;
(5)根据以上结果计算目标卡通人脸表情特征序列{E′n}后续第j帧的加权重心q*:
(6)计算对于目标卡通人脸表情特征序列{E′n}后续第j帧的刚性形变函数fr(x):
(7)跟据刚性形变函数fr(x),计算原始卡通矢量图每一个面部器官矢量轮廓的锚点v形变后的位置v’:
(8)根据原始卡通矢量图每一个面部器官矢量轮廓的锚点v形变后的位置v’,重构矢量图,既得到目标卡通人脸表情特征序列{E′n}后续第j帧所驱动的卡通表情动画的第j帧。
本发明具有的有益效果是:方法简洁,可实施性强;在不要求面部表情纹理变化的非真实卡通表情动画的范畴内有快速、高效且拟真度高的特点,能够半自动的生成生动形象的卡通人脸表情动画。
附图说明
图1为本发明一种基于动作捕获数据驱动的二维卡通表情动画制作方法的流程图;
图2为本发明基于偏移比例的动作捕获表情数据重定向方法的流程图;
图3为本发明实施例控制点分布示意图;
图4为本发明实施例驱动结果示意图。
具体实施方式
基于动作捕获数据驱动的二维卡通表情动画制作方法的步骤如下:
1)使用动作捕获数据获取演员表情,并从中跟踪出演员表情特征序列{En};由操作者在目标卡通人脸上手动标注出与演员表情特征序列{En}相同的目标卡通人脸控制点集合E′0;
2)将目标卡通人脸控制点集合E′0作为相对于目标卡通人脸表情特征序列{E′n}的第零帧,对演员表情特征序列{En}第零帧中演员人脸控制点集合E0与目标卡通人脸控制点集合E′0进行数据的对齐,并依照对齐比例映射得出相对于目标卡通人脸表情特征序列{E′n};
3)将目标卡通人脸进行矢量化;
4)使用基于移动最小二乘法的图像变形方法,以矢量化的目标卡通人脸作为目标图像,目标卡通人脸表情特征序列{E′n}作为目标卡通人脸表情控制点集合进行变形,得到每一帧的图像,完成基于动作捕获数据驱动的二维卡通表情动画的制作。
所述的步骤2)为:
(1)在演员表情特征序列{En}和目标卡通人脸表情特征序列{E′n}中,均存在一个控制点,两控制点的位移都不随时间改变,将两控制点作为偏移比例的基准点:C(cx,cy)∈E0、C’(cx’,cy’)∈E′0;
(2)对于演员表情特征序列{En}第零帧中一个控制点Pi∈E0且Pi≠C和目标卡通人脸表情特征序列{E′n}第零帧中对应的一个控制点Pi′∈E′0且Pi′≠C′,定义其偏移比例s(sxi,syi)∈S:
(3)对表情特征序列的第j帧,j≠0:表情动画的基准点在整个动画过程中不会发生位移,即C′i=Ci;
(4)使用偏移比例S对第j帧的动作驱动数据进行映射:
x′i=cx′i+sxi·(xi-cxi)
y′i=cy′i+syi·(yi-cyi)
其中Pi(xi,yi)∈Ei是表情特征序列中第j帧的第i个控制点;Ci(cxi,cyi)∈Ei是表情特征序列第i帧的基准点;C′i(cx′i,cy′i)=C′(cx′,cy′)是即将生成的第j帧的表情动画的基准点;生成控制点P′i(x′i,y′i)∈E′i是生成表情动画的第j帧的第i个控制点,完成表情特征序列从演员人脸到目标卡通人脸的重定向过程。
所述的步骤3)为:
(1)将目标图像转化为灰度图像I,对灰度图像I进行边缘原检测,得到边缘图像I’;对边缘图像I’进行数学形态学的膨胀,再进行骨骼抽取,得到单宽度边缘图像I”;
(2)对单宽度边缘图像I”,建立辅助矩阵M保存单宽度边缘图像I”中每个像素的访问情况,初始化为未访问;由用户在每一个面部器官的轮廓上选取一个点作为根节点vs,当前节点vc设为vs;
(3)将当前节点vc在辅助矩阵M中对应的位置标记为已访问,初始化搜索尺度s=1,按照顺时针方向搜索以当前节点vc为中心,边长为2s+1的正方形的边上的点。当搜索到一个边界节点时,检测辅助矩阵中这个边界节点的已访问性;若已访问,则继续进行搜索;若未访问,则将这个边界节点加入边界点列数组中,并将这个边界节点的八临域内各个点均设为已访问,并将此点作为根节点重复上述步骤;若未搜索到符合条件的节点,则认为遇到断边沟,将搜索尺度s+=1同样重复上述步骤;当搜索尺度s大于一个特定值时,循环结束,此时得到的边界点列数组即为跟踪得到的面部器官轮廓C,其集合为面部器官轮廓线集合{C};
(4)对每一个面部器官轮廓C∈{C},将曲线的起点vs与终点ve加入轮廓特征点列;用vs与ve的连线Lse作为曲线的初始简化,并搜寻曲线上距离Lse最远的点vd;检测vd到Lse的距离d与Lse的长度l的比值d/l是否小于参数α;若成立,则轮廓抽取完成;否则将vd插入轮廓特征点列中起点vs之后,并分别对从vs到vd与从vd到ve的两条曲线分别重复上述步骤,最终得到面部器官轮廓C的特征点集合V;用特征点集合V作为锚点创建贝塞尔曲线,得到矢量化的面部器官轮廓。
所述的步骤4)为:
(1)设目标卡通人脸表情特征序列{E′n}第零帧E′0中的特征点为pi:对原始卡通矢量图每一个面部器官矢量轮廓的锚点v,计算相应的权重参数:
其中α为常量参数;
(2)根据以上结果计算目标卡通人脸表情特征序列{E′n}第零帧E′0的加权重心p*:
(3)对目标卡通人脸表情特征序列{E′n}第零帧E′0的第j个控制点,计算仿射矩阵:
Aj=(v-p*)(∑i(pi-p*)Twi(pi-p*))-1(pj-p*)T
(4)设目标卡通人脸表情特征序列{E′n}的后续某帧的特征点为qi:对原始卡通矢量图每一个面部器官矢量轮廓的锚点v,计算相应的权重参数:
其中α为常量参数;
(5)根据以上结果计算目标卡通人脸表情特征序列{E′n}后续第j帧的加权重心q*:
(6)计算对于目标卡通人脸表情特征序列{E′n}后续第j帧的刚性形变函数fr(x):
(7)跟据刚性形变函数fr(x),计算原始卡通矢量图每一个面部器官矢量轮廓的锚点v形变后的位置v’:
(8)根据原始卡通矢量图每一个面部器官矢量轮廓的锚点v形变后的位置v’,重构矢量图,既得到目标卡通人脸表情特征序列{E′n}后续第j帧所驱动的卡通表情动画的第j帧。
实施例
图1为使用动作捕获数据制作二维卡通表情动画的流程图,其具体实施方式为:
(1)在人脸上共使用20个mark点标记,分别位于下颌,下嘴唇,左右嘴角,上嘴唇,左右颧骨,左右鼻翼,眉心,双眼的上下边缘,左右眉的两端,以及左右眉的上部,如图3。采用自行研制的近红外光学运动捕获系统以60帧/秒的帧速率、320X240的分辨率捕获一系列具有代表性的表情数据获取二维表情数据,包括惊讶、瞪眼、挑眉、沮丧等。从捕获得到的表情特征视频中跟踪出演员表情特征序列{En};由操作者在目标卡通人脸上手动标注出与演员表情特征序列{En}相同拓扑结构的目标卡通人脸控制点集合E′0;
(2)在演员表情特征序列{En}和目标卡通人脸表情特征序列{E′n}中,均存在一个控制点,两控制点的位移都不随时间改变,将两控制点作为偏移比例的基准点:C(cx,cy)∈E0、C’(cx’,cy’)∈E0;
(3)对于演员表情特征序列{En}第零帧中一个控制点Pi∈E0且Pi≠C和目标卡通人脸表情特征序列{E′n}第零帧中对应的一个控制点Pi′∈E′0且Pi′≠C′,定义其偏移比例s(sxi,syi)∈S:
(4)对表情特征序列的第j帧,j≠0:表情动画的基准点在整个动画过程中不会发生位移,即C′i=Ci;
(5)使用偏移比例S对第j帧的动作驱动数据进行映射:
x′i=cx′i+sxi·(xi-cxi)
y′i=cy′i+syi·(yi-cyi)
其中Pi(xi,yi)∈Ei是表情特征序列中第j帧的第i个控制点;Ci(cxi,cyi)∈Ei是表情特征序列第i帧的基准点;C′i(cx′i,cy′i)=C′(cx′,cy′)是即将生成的第j帧的表情动画的基准点;生成控制点P′i(x′i,y′i)∈E′i是生成表情动画的第j帧的第i个控制点,完成表情特征序列从演员人脸到目标卡通人脸的重定向过程;
(6)将目标图像转化为灰度图像I,对灰度图像I进行边缘原检测,得到边缘图像I’;对边缘图像I’进行数学形态学的膨胀,再进行骨骼抽取,得到单宽度边缘图像I”;
(7)对单宽度边缘图像I”,建立辅助矩阵M保存单宽度边缘图像I”中每个像素的访问情况,初始化为未访问;由用户在每一个面部器官的轮廓上选取一个点作为根节点vs,当前节点vc设为vs;
(8)将当前节点vc在辅助矩阵M中对应的位置标记为已访问,初始化搜索尺度s=1,按照顺时针方向搜索以当前节点vc为中心,边长为2s+1的正方形的边上的点。当搜索到一个边界节点时,检测辅助矩阵中这个边界节点的已访问性;若已访问,则继续进行搜索;若未访问,则将这个边界节点加入边界点列数组中,并将这个边界节点的八临域内各个点均设为已访问,并将此点作为根节点重复上述步骤;若未搜索到符合条件的节点,则认为遇到断边沟,将搜索尺度s+=1同样重复上述步骤;当搜索尺度s大于一个特定值时,循环结束,此时得到的边界点列数组即为跟踪得到的面部器官轮廓C,其集合为面部器官轮廓线集合{C};
(9)对每一个面部器官轮廓C∈{C},将曲线的起点vs与终点ve加入轮廓特征点列;用vs与ve的连线Lse作为曲线的初始简化,并搜寻曲线上距离Lse最远的点vd;检测vd到Lse的距离d与Lse的长度l的比值d/l是否小于参数α;若成立,则轮廓抽取完成;否则将vd插入轮廓特征点列中起点vs之后,并分别对从vs到vd与从vd到ve的两条曲线分别重复上述步骤,最终得到面部器官轮廓C的特征点集合V;用特征点集合V作为锚点创建贝塞尔曲线,得到矢量化的面部器官轮廓;
(10)设目标卡通人脸表情特征序列{E′n}第零帧E′0中的特征点为pi:对原始卡通矢量图每一个面部器官矢量轮廓的锚点v,计算相应的权重参数:
其中α为常量参数;实验中使用1
(11)根据以上结果计算目标卡通人脸表情特征序列{E′n}第零帧E′0的加权重心p*:
(12)对目标卡通人脸表情特征序列{E′n}第零帧E′0的第j个控制点,计算仿射矩阵:
Aj=(v-p*)(∑i(pi-p*)Twi(pi-p*))-1(pj-p*)T
(13)设目标卡通人脸表情特征序列{E′n}的后续某帧的特征点为qi:对原始卡通矢量图每一个面部器官矢量轮廓的锚点v,计算相应的权重参数:
其中α为常量参数;
(14)根据以上结果计算目标卡通人脸表情特征序列{E′n}后续第j帧的加权重心q*:
(15)计算对于目标卡通人脸表情特征序列{E′n}后续第j帧的刚性形变函数fr(x):
(16)跟据刚性形变函数fr(x),计算原始卡通矢量图每一个面部器官矢量轮廓的锚点v形变后的位置v’:
(17)根据原始卡通矢量图每一个面部器官矢量轮廓的锚点v形变后的位置v’,重构矢量图,既得到目标卡通人脸表情特征序列{E′n}后续第j帧所驱动的卡通表情动画的第j帧。
按照本发明驱动的卡通人脸动画,效果与演员动画相比十分吻合,如图4。
Claims (4)
1.一种基于动作捕获数据驱动的二维卡通表情动画制作方法,其特征在于它的步骤如下:
1)使用动作捕获数据获取演员表情,并从中跟踪出演员表情特征序列{En};由操作者在目标卡通人脸上手动标注出与演员表情特征序列{En}相同拓扑结构的目标卡通人脸控制点集合E′0;
2)将目标卡通人脸控制点集合E′0作为相对于目标卡通人脸表情特征序列{E′n}的第零帧,对演员表情特征序列{En}第零帧中演员人脸控制点集合E0与目标卡通人脸控制点集合E′0进行数据的对齐,并依照对齐比例映射得出相对于目标卡通人脸表情特征序列{E′n};
3)将目标卡通人脸进行矢量化;
4)使用基于移动最小二乘法的图像变形方法,以矢量化的目标卡通人脸作为目标图像,目标卡通人脸表情特征序列{E′n}作为目标卡通人脸表情控制点集合进行变形,得到每一帧的图像,完成基于动作捕获数据驱动的二维卡通表情动画的制作。
2.根据权利要求1所述的一种动作捕获数据驱动的二维卡通表情动画制作方法,其特征在于,所述的步骤2)为:
(1)在演员表情特征序列{En}和目标卡通人脸表情特征序列{E′n}中,均存在一个控制点,两控制点的位移都不随时间改变,将两控制点作为偏移比例的基准点:C(cx,cy)∈E0、C’(cx’,cy’)∈E0;
(2)对于演员表情特征序列{En}第零帧中一个控制点Pi∈E0且Pi≠C和目标卡通人脸表情特征序列{E′n}第零帧中对应的一个控制点Pi′∈E′0且Pi′≠C′,定义其偏移比例s(sxi,syi)∈S:
(3)对表情特征序列的第j帧,j≠0:表情动画的基准点在整个动画过程中不会发生位移,即C′i=Ci;
(4)使用偏移比例S对第j帧的动作驱动数据进行映射:
x′i=cx′i+sxi·(xi-cxi)
y′i=cy′i+syi·(yi-cyi)
其中Pi(xi,yi)∈Ei是表情特征序列中第j帧的第i个控制点;Ci(cxi,cyi)∈Ei是表情特征序列第i帧的基准点;C′i(cx′i,cy′i)=C′(cx′,cy′)是即将生成的第j帧的表情动画的基准点;生成控制点P′i(x′i,y′i)∈E′i是生成表情动画的第j帧的第i个控制点,完成表情特征序列从演员人脸到目标卡通人脸的重定向过程。
3.根据权利要求1所述的一种动作捕获数据驱动的二维卡通表情动画制作方法,其特征在于,所述的步骤3)为:
(1)将目标图像转化为灰度图像I,对灰度图像I进行边缘原检测,得到边缘图像I’;对边缘图像I’进行数学形态学的膨胀,再进行骨骼抽取,得到单宽度边缘图像I”;
(2)对单宽度边缘图像I”,建立辅助矩阵M保存单宽度边缘图像I”中每个像素的访问情况,初始化为未访问;由用户在每一个面部器官的轮廓上选取一个点作为根节点vs,当前节点vc设为vs;
(3)将当前节点vc在辅助矩阵M中对应的位置标记为已访问,初始化搜索尺度s=1,按照顺时针方向搜索以当前节点vc为中心,边长为2s+1的正方形的边上的点。当搜索到一个边界节点时,检测辅助矩阵中这个边界节点的已访问性;若已访问,则继续进行搜索;若未访问,则将这个边界节点加入边界点列数组中,并将这个边界节点的八临域内各个点均设为已访问,并将此点作为根节点重复上述步骤;若未搜索到符合条件的节点,则认为遇到断边沟,将搜索尺度s+=1同样重复上述步骤;当搜索尺度s大于一个特定值时,循环结束,此时得到的边界点列数组即为跟踪得到的面部器官轮廓C,其集合为面部器官轮廓线集合{C};
(4)对每一个面部器官轮廓C∈{C},将曲线的起点vs与终点ve加入轮廓特征点列;用vs与ve的连线Lse作为曲线的初始简化,并搜寻曲线上距离Lse最远的点vd;检测vd到Lse的距离d与Lse的长度l的比值d/l是否小于参数α;若成立,则轮廓抽取完成;否则将vd插入轮廓特征点列中起点vs之后,并分别对从vs到vd与从vd到ve的两条曲线分别重复上述步骤,最终得到面部器官轮廓C的特征点集合V;用特征点集合V作为锚点创建贝塞尔曲线,得到矢量化的面部器官轮廓。
4.根据权利要求1所述的一种动作捕获数据驱动的二维卡通表情动画制作方法,其特征在于,所述的步骤4)为:
(1)设目标卡通人脸表情特征序列{E′n}第零帧E′0中的特征点为pi:对原始卡通矢量图每一个面部器官矢量轮廓的锚点v,计算相应的权重参数:
其中α为常量参数;
(2)根据以上结果计算目标卡通人脸表情特征序列{E′n}第零帧E′0的加权重心p*:
(3)对目标卡通人脸表情特征序列{E′n}第零帧E′0的第j个控制点,计算仿射矩阵:
Aj=(v-p*)(∑i(pi-p*)Twi(pi-p*))-1(pj-p*)T
(4)设目标卡通人脸表情特征序列{E′n}的后续某帧的特征点为qi:对原始卡通矢量图每一个面部器官矢量轮廓的锚点v,计算相应的权重参数:
其中α为常量参数;
(5)根据以上结果计算目标卡通人脸表情特征序列{E′n}后续第j帧的加权重心q*:
(6)计算对于目标卡通人脸表情特征序列{E′n}后续第j帧的刚性形变函数fr(x):
(7)跟据刚性形变函数fr(x),计算原始卡通矢量图每一个面部器官矢量轮廓的锚点v形变后的位置v’:
(8)根据原始卡通矢量图每一个面部器官矢量轮廓的锚点v形变后的位置v’,重构矢量图,既得到目标卡通人脸表情特征序列{E′n}后续第j帧所驱动的卡通表情动画的第j帧。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201110402575.2A CN102509333B (zh) | 2011-12-07 | 2011-12-07 | 基于动作捕获数据驱动的二维卡通表情动画制作方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201110402575.2A CN102509333B (zh) | 2011-12-07 | 2011-12-07 | 基于动作捕获数据驱动的二维卡通表情动画制作方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102509333A true CN102509333A (zh) | 2012-06-20 |
CN102509333B CN102509333B (zh) | 2014-05-07 |
Family
ID=46221410
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201110402575.2A Active CN102509333B (zh) | 2011-12-07 | 2011-12-07 | 基于动作捕获数据驱动的二维卡通表情动画制作方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN102509333B (zh) |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104658022A (zh) * | 2013-11-20 | 2015-05-27 | 中国电信股份有限公司 | 三维动画制作方法和装置 |
CN105096353A (zh) * | 2014-05-05 | 2015-11-25 | 腾讯科技(深圳)有限公司 | 一种图像处理方法及装置 |
WO2016101132A1 (en) * | 2014-12-23 | 2016-06-30 | Intel Corporation | Facial gesture driven animation of non-facial features |
WO2017152673A1 (zh) * | 2016-03-10 | 2017-09-14 | 腾讯科技(深圳)有限公司 | 人物面部模型的表情动画生成方法及装置 |
US9824502B2 (en) | 2014-12-23 | 2017-11-21 | Intel Corporation | Sketch selection for rendering 3D model avatar |
US9830728B2 (en) | 2014-12-23 | 2017-11-28 | Intel Corporation | Augmented facial animation |
CN108109189A (zh) * | 2017-12-05 | 2018-06-01 | 北京像素软件科技股份有限公司 | 动作共享方法及装置 |
CN109002185A (zh) * | 2018-06-21 | 2018-12-14 | 北京百度网讯科技有限公司 | 一种三维动画处理的方法、装置、设备及存储介质 |
CN110941332A (zh) * | 2019-11-06 | 2020-03-31 | 北京百度网讯科技有限公司 | 表情驱动方法、装置、电子设备及存储介质 |
CN111292427A (zh) * | 2020-03-06 | 2020-06-16 | 腾讯科技(深圳)有限公司 | 骨骼位移信息获取方法、装置、设备及存储介质 |
CN112669424A (zh) * | 2020-12-24 | 2021-04-16 | 科大讯飞股份有限公司 | 一种表情动画生成方法、装置、设备及存储介质 |
WO2021083028A1 (zh) * | 2019-11-01 | 2021-05-06 | 北京字节跳动网络技术有限公司 | 图像的处理方法、装置、电子设备及存储介质 |
US11887231B2 (en) | 2015-12-18 | 2024-01-30 | Tahoe Research, Ltd. | Avatar animation system |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005346721A (ja) * | 2004-06-04 | 2005-12-15 | Reallusion Inc | 自動的に動画を生み出すシステム |
JP2007156945A (ja) * | 2005-12-07 | 2007-06-21 | Sony Corp | 画像処理装置および画像処理方法、プログラム、並びにデータ構造 |
CN101354795A (zh) * | 2008-08-28 | 2009-01-28 | 北京中星微电子有限公司 | 基于视频的三维人脸动画驱动方法和系统 |
CN101452582A (zh) * | 2008-12-18 | 2009-06-10 | 北京中星微电子有限公司 | 一种实现三维视频特效的方法和装置 |
CN101739712A (zh) * | 2010-01-25 | 2010-06-16 | 四川大学 | 基于视频的3d人脸表情动画驱动方法 |
CN102157007A (zh) * | 2011-04-11 | 2011-08-17 | 北京中星微电子有限公司 | 一种表演驱动的制作人脸动画的方法和装置 |
-
2011
- 2011-12-07 CN CN201110402575.2A patent/CN102509333B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005346721A (ja) * | 2004-06-04 | 2005-12-15 | Reallusion Inc | 自動的に動画を生み出すシステム |
JP2007156945A (ja) * | 2005-12-07 | 2007-06-21 | Sony Corp | 画像処理装置および画像処理方法、プログラム、並びにデータ構造 |
CN101354795A (zh) * | 2008-08-28 | 2009-01-28 | 北京中星微电子有限公司 | 基于视频的三维人脸动画驱动方法和系统 |
CN101452582A (zh) * | 2008-12-18 | 2009-06-10 | 北京中星微电子有限公司 | 一种实现三维视频特效的方法和装置 |
CN101739712A (zh) * | 2010-01-25 | 2010-06-16 | 四川大学 | 基于视频的3d人脸表情动画驱动方法 |
CN102157007A (zh) * | 2011-04-11 | 2011-08-17 | 北京中星微电子有限公司 | 一种表演驱动的制作人脸动画的方法和装置 |
Cited By (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104658022A (zh) * | 2013-11-20 | 2015-05-27 | 中国电信股份有限公司 | 三维动画制作方法和装置 |
CN104658022B (zh) * | 2013-11-20 | 2019-02-26 | 中国电信股份有限公司 | 三维动画制作方法和装置 |
CN105096353A (zh) * | 2014-05-05 | 2015-11-25 | 腾讯科技(深圳)有限公司 | 一种图像处理方法及装置 |
US9799133B2 (en) | 2014-12-23 | 2017-10-24 | Intel Corporation | Facial gesture driven animation of non-facial features |
US9824502B2 (en) | 2014-12-23 | 2017-11-21 | Intel Corporation | Sketch selection for rendering 3D model avatar |
US9830728B2 (en) | 2014-12-23 | 2017-11-28 | Intel Corporation | Augmented facial animation |
WO2016101132A1 (en) * | 2014-12-23 | 2016-06-30 | Intel Corporation | Facial gesture driven animation of non-facial features |
US10540800B2 (en) | 2014-12-23 | 2020-01-21 | Intel Corporation | Facial gesture driven animation of non-facial features |
US11887231B2 (en) | 2015-12-18 | 2024-01-30 | Tahoe Research, Ltd. | Avatar animation system |
CN107180446A (zh) * | 2016-03-10 | 2017-09-19 | 腾讯科技(深圳)有限公司 | 人物面部模型的表情动画生成方法及装置 |
WO2017152673A1 (zh) * | 2016-03-10 | 2017-09-14 | 腾讯科技(深圳)有限公司 | 人物面部模型的表情动画生成方法及装置 |
CN107180446B (zh) * | 2016-03-10 | 2020-06-16 | 腾讯科技(深圳)有限公司 | 人物面部模型的表情动画生成方法及装置 |
CN108109189A (zh) * | 2017-12-05 | 2018-06-01 | 北京像素软件科技股份有限公司 | 动作共享方法及装置 |
CN109002185A (zh) * | 2018-06-21 | 2018-12-14 | 北京百度网讯科技有限公司 | 一种三维动画处理的方法、装置、设备及存储介质 |
CN109002185B (zh) * | 2018-06-21 | 2022-11-08 | 北京百度网讯科技有限公司 | 一种三维动画处理的方法、装置、设备及存储介质 |
WO2021083028A1 (zh) * | 2019-11-01 | 2021-05-06 | 北京字节跳动网络技术有限公司 | 图像的处理方法、装置、电子设备及存储介质 |
US11593983B2 (en) | 2019-11-01 | 2023-02-28 | Beijing Bytedance Network Technology Co., Ltd. | Image processing method and apparatus, electronic device, and storage medium |
CN110941332A (zh) * | 2019-11-06 | 2020-03-31 | 北京百度网讯科技有限公司 | 表情驱动方法、装置、电子设备及存储介质 |
CN111292427A (zh) * | 2020-03-06 | 2020-06-16 | 腾讯科技(深圳)有限公司 | 骨骼位移信息获取方法、装置、设备及存储介质 |
CN112669424A (zh) * | 2020-12-24 | 2021-04-16 | 科大讯飞股份有限公司 | 一种表情动画生成方法、装置、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN102509333B (zh) | 2014-05-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102509333B (zh) | 基于动作捕获数据驱动的二维卡通表情动画制作方法 | |
CN104008564B (zh) | 一种人脸表情克隆方法 | |
CN100416612C (zh) | 基于视频流的三维动态人脸表情建模方法 | |
CN100583158C (zh) | 基于视频提取和重用的卡通动画制作方法 | |
Li et al. | Realtime facial animation with on-the-fly correctives. | |
Xu et al. | Photo-inspired model-driven 3D object modeling | |
CN102254336B (zh) | 人脸视频合成方法及装置 | |
Guerra-Filho et al. | The human motion database: A cognitive and parametric sampling of human motion | |
CN108288072A (zh) | 一种基于生成对抗网络的面部表情合成方法 | |
CN103824272B (zh) | 基于k近邻重识别的人脸超分辨率重建方法 | |
CN103003846B (zh) | 关节区域显示装置、关节区域检测装置、关节区域归属度计算装置、关节状区域归属度计算装置以及关节区域显示方法 | |
CN106778628A (zh) | 一种基于tof深度相机的面部表情捕捉方法 | |
CN103473801A (zh) | 一种基于单摄像头与运动捕捉数据的人脸表情编辑方法 | |
CN106023288A (zh) | 一种基于图像的动态替身构造方法 | |
CN102157007A (zh) | 一种表演驱动的制作人脸动画的方法和装置 | |
CN105118023A (zh) | 基于人脸特征点的实时视频人脸卡通化生成方法 | |
CN103268623A (zh) | 一种基于频域分析的静态人脸表情合成方法 | |
CN104200505A (zh) | 一种人脸视频图像的漫画式动画生成方法 | |
CN110473266A (zh) | 一种基于姿态指导的保留源场景人物动作视频生成方法 | |
CN104463788A (zh) | 基于运动捕捉数据的人体运动插值方法 | |
CN104599309A (zh) | 一种基于元表情的三维动画角色的表情生成方法 | |
Yang et al. | Spatio-temporal reconstruction for 3D motion recovery | |
CN110533579A (zh) | 基于自编码结构与梯度保序的视频风格转换方法 | |
CN102270345A (zh) | 基于第二代条带波变换图像特征表示和人体运动跟踪方法 | |
CN101354743A (zh) | 用于人脸图像合成的图像库 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right | ||
TR01 | Transfer of patent right |
Effective date of registration: 20220215 Address after: 310000 room 2112, floor 2, building 2, building 1, No. 1180, Bin'an Road, Changhe street, Binjiang District, Hangzhou, Zhejiang Province Patentee after: HANGZHOU BIYOU INFORMATION TECHNOLOGY CO.,LTD. Address before: 310027 No. 38, Zhejiang Road, Hangzhou, Zhejiang, Xihu District Patentee before: ZHEJIANG University |