CN101533523A - 一种虚拟人眼部运动控制方法 - Google Patents
一种虚拟人眼部运动控制方法 Download PDFInfo
- Publication number
- CN101533523A CN101533523A CN200910021321A CN200910021321A CN101533523A CN 101533523 A CN101533523 A CN 101533523A CN 200910021321 A CN200910021321 A CN 200910021321A CN 200910021321 A CN200910021321 A CN 200910021321A CN 101533523 A CN101533523 A CN 101533523A
- Authority
- CN
- China
- Prior art keywords
- point
- eyelid
- points
- motion
- crank
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
Abstract
本发明公开了一种虚拟人眼部运动控制方法,获取三维人脸网格模型,参照MPEG-4中对眼部FDP控制点的定义,选取上眼皮边缘处的所有网格点作为运动控制点,将人眼眼皮边界点的运动轨迹看做是一段圆弧,假设眼皮边界点位于摆杆机构中导杆上的一点,取曲柄的旋转角速度为控制参数,根据机架、曲柄、导杆之间的位置关系,以及输入的曲柄转动角速度参数,计算出眼皮边界点在任意时刻的空间位置或转过的角度,并以此驱动三维网格点运动,从而模拟出眼皮的闭合运动。本发明更精确,增强了模拟效果的逼真性;其数学模型简单,物理意义明确,控制简单,容易实现且逼真度高。
Description
技术领域
本发明涉及计算机三维动画技术领域,尤其涉及一种虚拟人眼部运动控制方法。
背景技术
人脸表情是人类情感传递的一个重要途径,是人类进行相互交流的基础。具有真实感的三维人脸动画有着广泛的应用领域,可以用来模拟虚拟环境中的虚拟人物,如影视剧中的虚拟人物,还可以应用于计算机仿真、视频会议、远程医疗等许多领域,而眼睛作为人类面部情感表现的关键载体,对人类情感交流有着重要作用,眼部运动控制及表情仿真直接影响着虚拟人物面部表情合成的真实性,因此,对于人眼模型的运动仿真具有重要意义。
目前人脸面部表情动画仿真方法主要有基于MPEG-4的人脸表情动画和基于肌肉模型的表情动画两种。
MPEG-4的人脸表情模拟方法是一整套人脸模型化描述方法,包括用于定义人脸模型的面部定义参数FDP(facial define parameters)和一组用于定义人脸部动作的人脸动画参数FAP(facial animation parameters)。FDP共包括了84个特征点的位置信息来定义人脸模型,这些点不仅包括外表看得见的人脸特征点,还包括了舌头、牙齿等口腔内器官的特征点。FDP参数包括特征点坐标、纹理坐标、网格的标度、纹理面部、动画定义表等脸部的特征参数。与静态的FDP参数相对应的是动态的FAP参数,它分为10组,分别描述人面部的68种基本运动和6种基本表情。FAP是一个完整的脸部运动的集合,每种FAP描述人脸某一块区域在某方向上的运动,左眼和右眼上眼皮的上下运动则分别通过FAP19和FAP20描述,通过将所有FAP结合起来可以表示人脸复杂的表情。
肌肉模型是以人脸的解剖学为基础开发的,既考虑了脸部的肌肉活动,也考虑了脸部的结缔组织层对肌肉运动的影响。这种模型将人脸描述为一种层状结构的实体,层与层之间由许多弹簧相连,采用跟踪非刚性的面部肌肉特征运动,以达到合成瞬间表情的目的。Waters模型包括两类肌肉,产生拉伸的线性肌肉,产生挤压的括约肌,肌肉拥有向量属性,独立与基本的骨骼结构。这使得肌肉模型独立于特定的脸部拓扑。每块肌肉都有一个影响区域。特定肌肉的影响随着肌肉向量点的径向距离而减小。根据专利检索,申请号为:200610153032.0,名称为“一种复杂表情仿真系统及其实现方法”的发明专利申请中就是采用先根据解剖学结构定位出眼皮的控制对象,再通过肌肉模型控制眼部网格点运动的方法实现眼部表情动作仿真。
上述两种人脸动画方法主要是先根据一定的规则在三维人脸网格模型上选定控制点,再由控制点的运动位移和它对非控制点的影响因子,计算出非控制点的运动位移,最后根据计算结果移动非控制点,从而驱动三维网格模型运动,实现各种表情。在这两种方法中都没有专门针对人眼闭合运动给出具体的网格点运动控制方法。同时,由于受到所选取的控制点位置和数目的限制,大量对眼部运动效果起到重要作用但没有被选作控制点的其他网格点则只能通过某种控制算法在控制点的驱动下进行位移,实现网格变形,其运动规律不明确,对人眼闭合过程的模拟效果不理想,仿真结果的真实性较差。
发明内容
为了克服现有技术在模拟人眼闭合运动时对网格点的控制不够精确,仿真结果真实性不强这一缺点,本发明提出了一种新的人眼运动控制方法,以弥补上述两种方法在网格点运动速度及程度控制方面的不足,提高人眼动画的真实感。
本发明解决其技术问题所采用的技术方案包括以下步骤:
首先获取三维人脸网格模型,即采集三维人脸网格模型数据,可以是采用三维激光扫描仪扫描真实人头生成人脸的三维网格模型,应用此方法可以同时获得大量的三维数据和纹理信息,或是通过3DS MAX或者MAYA等三维建模软件,由设计人员手工建立人脸三维模型,也可以是通过Poser等专业人体建模软件,从其模型库中直接导出所需的人头模型及相应的纹理信息。
然后根据眼部的运动特性设计运动控制点,使用计算机的输入设备,如鼠标拾取、或者键盘输入,按如下方式指定已有的网格点作为运动控制点:通过对人眼闭合动作的特征进行分析,可将眼皮的闭合运动看做是在上眼睑边缘点的带动下所做的弹性弧形拉伸,因此,参照MPEG-4中对眼部FDP控制点的定义(如图1所示),选取上眼皮边缘处的所有网格点作为运动控制点。
在本发明中,根据MEPG-4中对人眼FDP的定义,在网格模型中选出上眼皮边缘的最高点及两个眼角点,以两个眼角点的连线为一条边,以平行于该边并经过最高点的直线作为另一条边限定出一个矩形区域,并在此区域中进行边缘控制点的选取。设定xOy坐标系,x轴平行于两个眼角点的连线,通过矩形区域边界条件的限制,统计出落在此区域中的全部网格点,共N个,将矩形区域沿x轴向划分为N个子区间,在落入每个子区间的所有网格点中求出y坐标值最小的点,即该区域中的最低点,作为候选边界点。从左端眼角点开始随着x坐标值的增大,边缘控制点的y坐标值也应先逐渐增至最高点而后又逐渐减小到右端眼角点,从而根据这一条件从候选点中确定出边界点,剔除其他非边界点。
最后采用摆动导杆机构模型驱动边界控制点的运动,模拟真实的眼部运动。根据摆动导杆机构的运动原理,曲柄能够绕机架的固定铰链做整周转动,并带动导杆在一定的范围内进行往复运动。同样,利用人的眼球近似为球体这一特性,将人眼眼皮边界点的运动轨迹看做是一段圆弧,假设眼皮边界点位于摆杆机构中导杆上的某一点,取曲柄的旋转角速度为控制参数,根据机架、曲柄、导杆之间的位置关系,以及输入的曲柄转动角速度参数等已知信息,计算出眼皮边界点在任意时刻的空间位置或转过的角度,并以此驱动三维网格点运动,从而模拟出眼皮的闭合运动,生成具有真实感的三维人眼动画。
本发明的有益效果是:根据实际的眼部闭合运动特征,并参照MPEG-4标准中对上眼睑特征点的定义,增加了上眼皮处控制点的个数,细化了网格点的运动,能够更精确的控制上睑缘处网格点的运动,增强了模拟效果的逼真性;结合机构学原理进行运动控制,根据摆杆机构的运动特性,导杆可在曲柄的带动下在一定范围内做往复运动,因此可以采用同一个数学模型实现连续时间情况下眼睛张开与闭合这样相反的运动过程,其数学模型简单,物理意义明确,控制简单,容易实现且逼真度高。
下面结合附图和实施例对本发明进一步说明。
附图说明
图1为MPEG-4中眼部FDP的定义;
图2为MPEG-4中眼部FDP定义的右眼放大图;
图3为本发明所述的人眼运动控制操作流程图;
图4为通过人体建模软件导出的三维人脸网格模型示意图;
图5为本发明实施例的一种对图3人脸网格模型中人眼部分的控制点设计方式示例图;
图6为摆杆机构运动原理简图;
图7为最大旋转角度计算方法示意图。
具体实施方式
方法实施例:本实施例是根据附图2所示的操作流程,并基于附图5的一个简单实施方案。
首先可以通过三维激光扫描仪扫描真实人脸得到原始的三维人脸网格点模型,或是通过3DS MAX或者MAYA等三维建模软件,由设计人员手工建立人脸三维模型,也可以是通过Poser等专业人体建模软件,从其模型库中直接导出所需的人头部模型,得到附图4。
然后通过计算机输入设备对原始三维网格模型中的人眼部分进行控制点设计。为了获得更精细的眼部运动模拟效果,根据人们对人眼闭合运动特征的视觉直观认识,并参照MPEG-4标准中对眼部FDP控制点的定义,增加上睑缘处控制点的个数,选取上眼睑边缘曲线上的全部网格点作为运动控制点,如附图5中上眼睑边缘处采用黑色实心圆点表示的网格点。在本发明中,根据MEPG-4中对人眼FDP的定义,在网格模型中选出上眼皮边缘的最高点(FDP 3.2)及两个眼角点(FDP 3.8,3.12),以两个眼角点(FDP 3.8,3.12)的连线为一条边,以平行于该边并经过最高点(FDP 3.2)的直线作为另一条边限定出一个矩形区域,如图2所示,并在此区域中进行边缘控制点的选取。设定x0y坐标系,x轴平行于两个眼角点的连线,通过矩形区域边界条件的限制,统计出落在此区域中的全部网格点,共N个,将矩形区域沿x轴向划分为N个子区间,在落入每个子区间的所有网格点中求出y坐标值最小的点,即该区域中的最低点,作为候选边界点。从左端眼角点(FDP 3.12)开始随着x坐标值的增大,边缘控制点的y坐标值也应先逐渐增至最高点(FDP 3.2)而后又逐渐减小到右端眼角点(FDP 3.8),即其y坐标值应满足关系:yFDP3.12<y1<y2<…yFDP3.2>yn>…yFDP3.8,从而根据这一条件从候选点中确定出边界点,剔除其他非边界点。
得到了眼部运动控制点之后,采用摆动导杆机构模型对控制点进行驱动。机构模型运动简图如图6所示。所采用的摆杆机构模型由3个构件组成,其中构件3为机架,属于机构中的固定部分;构件1为原动件(曲柄);构件2为从动件(导杆)。构件1与机架3和构件2分别在接合处O′点和M点构成转动副和移动副;构件2还与机架3在接合处O点构成转动副。在模拟眼睑运动时取O点为眼球中心,OO′的长度r等于眼球半径;杆1绕O′点以角速度ω做圆周运动,杆长为r1;杆2与杆1通过滑块M相连,在杆1的带动下,杆2也将做绕O点旋转的圆周运动。假设上眼睑边缘上的任一控制点N位于杆2上某固定点处,就可以通过上述机构模型模拟出边界控制点的运动轨迹。
取θ1max为眼睑由正常睁眼状态至完全闭合状态边界控制点绕以左右眼球中心连线为旋转轴所转过的角度,具体计算方法为:
参照MPEG-4中眼部FDP的定义,取上眼睑边缘的最高网格点(FDP 3.1/3.2),下眼睑边缘的最低网格点(FDP 3.3/3.4)及眼球中心点O作为三角形的三个顶点,如附图7,根据网格点在三维空间的位置坐标计算出三角形的三边长度,再应用余弦定理即可求出眼睛由正常状态至完全闭合时网格点转过的角度θ1max;
参见附图6,由机构运动原理可知,当主动杆1与从动杆2处于相互垂直的状态时,从动杆与机架之间的夹角最大,通过改变外部控制参数θ1的初始值(0<θ1≤θ1max),可以有效地控制眼睛的闭合程度,实现半闭、全闭或其它任意位置闭合,模拟各种不同的闭眼动作状态。
下面结合附图6,通过数学模型具体阐述闭合过程的运动控制原理:
对于直角三角形,有
再根据余弦定理,可得:
θ4为从动杆2和机架(OO′)之间的夹角,
通过θ4可获得眼睑边界控制点绕以两眼球连线为旋转轴所转过的角度θ, 进而根据θ值驱动三维网格点进行旋转运动,模拟出逼真的人眼闭合过程动作动画。
由上述分析可知,改变角速度参数ω可以控制眼皮的闭合速度,改变角度参数θ1(0<θ1≤θ1max),可以控制眼睛闭合的程度,实现半闭、全闭等不同程度的闭眼动作,从而模拟出真实的人眼闭合动作动画。
本发明实施例最终获得的人眼运动控制效果与现有技术相比,通过增加控制点的个数,细化控制对象,并引入机构学模型,有效地增强了虚拟人眼部运动的仿真效果,能够逼真的模拟人眼闭合动作过程,运动控制的数学模型简单,物理意义明确,易于实现,效果逼真。
Claims (2)
1、一种虚拟人眼部运动控制方法,其特征在于包括下述步骤:
(a)获取三维人脸网格模型,即采集三维人脸网格模型数据;
(b)参照MPEG-4中对眼部FDP控制点的定义,选取上眼皮边缘处的所有网格点作为运动控制点;
(c)将人眼眼皮边界点的运动轨迹看做是一段圆弧,假设眼皮边界点位于摆杆机构中导杆上的一点,取曲柄的旋转角速度为控制参数,根据机架、曲柄、导杆之间的位置关系,以及输入的曲柄转动角速度参数,计算出眼皮边界点在任意时刻的空间位置或转过的角度,并以此驱动三维网格点运动,从而模拟出眼皮的闭合运动。
2、根据权利要求1所述的一种虚拟人眼部运动控制方法,其特征在于:所述的步骤(b)根据MEPG-4中对人眼FDP的定义,在网格模型中选出上眼皮边缘的最高点及两个眼角点,以两个眼角点的连线为一条边,以平行于该边并经过最高点的直线作为另一条边限定出一个矩形区域,并在此区域中进行边缘控制点的选取;设定xOy坐标系,x轴平行于两个眼角点的连线,通过矩形区域边界条件的限制,统计出落在此区域中的全部网格点,共N个,将矩形区域沿x轴向划分为N个子区间,在落入每个子区间的所有网格点中求出y坐标值最小的点,即该区域中的最低点,作为候选边界点;从左端眼角点开始随着x坐标值的增大,边缘控制点的y坐标值也应先逐渐增至最高点而后又逐渐减小到右端眼角点,从而根据这一条件从候选点中确定出边界点,剔除其他非边界点。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2009100213219A CN101533523B (zh) | 2009-02-27 | 2009-02-27 | 一种虚拟人眼部运动控制方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2009100213219A CN101533523B (zh) | 2009-02-27 | 2009-02-27 | 一种虚拟人眼部运动控制方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN101533523A true CN101533523A (zh) | 2009-09-16 |
CN101533523B CN101533523B (zh) | 2011-08-03 |
Family
ID=41104099
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2009100213219A Expired - Fee Related CN101533523B (zh) | 2009-02-27 | 2009-02-27 | 一种虚拟人眼部运动控制方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN101533523B (zh) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102129706A (zh) * | 2011-03-10 | 2011-07-20 | 西北工业大学 | 一种虚拟人眼部情感表现模拟方法 |
CN103903294A (zh) * | 2014-03-28 | 2014-07-02 | 西北工业大学 | 三维虚拟人嘴部运动的实现方法 |
CN107180446A (zh) * | 2016-03-10 | 2017-09-19 | 腾讯科技(深圳)有限公司 | 人物面部模型的表情动画生成方法及装置 |
CN107773248A (zh) * | 2017-09-30 | 2018-03-09 | 优视眼动科技(北京)有限公司 | 眼动仪及图像处理方法 |
CN107862732A (zh) * | 2017-11-08 | 2018-03-30 | 清华大学 | 实时的三维眼皮重建方法及装置 |
CN108564643A (zh) * | 2018-03-16 | 2018-09-21 | 中国科学院自动化研究所 | 基于ue引擎的表演捕捉系统 |
CN109903362A (zh) * | 2019-01-10 | 2019-06-18 | 珠海金山网络游戏科技有限公司 | 基于Unity3D的2D坐标映射操作3D角色模型注视的方法及装置 |
CN110930477A (zh) * | 2018-09-20 | 2020-03-27 | 深圳市优必选科技有限公司 | 机器人动画表情实现方法、装置及存储介质 |
CN111401921A (zh) * | 2020-03-05 | 2020-07-10 | 成都威爱新经济技术研究院有限公司 | 一种基于虚拟人的远程客服方法 |
CN111652807A (zh) * | 2019-07-05 | 2020-09-11 | 广州虎牙科技有限公司 | 眼部的调整、直播方法、装置、电子设备和存储介质 |
CN113035318A (zh) * | 2021-03-19 | 2021-06-25 | 科大讯飞股份有限公司 | 一种眼部运动引导方法、装置、设备及存储介质 |
-
2009
- 2009-02-27 CN CN2009100213219A patent/CN101533523B/zh not_active Expired - Fee Related
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102129706A (zh) * | 2011-03-10 | 2011-07-20 | 西北工业大学 | 一种虚拟人眼部情感表现模拟方法 |
CN103903294A (zh) * | 2014-03-28 | 2014-07-02 | 西北工业大学 | 三维虚拟人嘴部运动的实现方法 |
CN103903294B (zh) * | 2014-03-28 | 2017-06-23 | 西北工业大学 | 三维虚拟人嘴部运动的实现方法 |
CN107180446A (zh) * | 2016-03-10 | 2017-09-19 | 腾讯科技(深圳)有限公司 | 人物面部模型的表情动画生成方法及装置 |
CN107773248A (zh) * | 2017-09-30 | 2018-03-09 | 优视眼动科技(北京)有限公司 | 眼动仪及图像处理方法 |
CN107862732A (zh) * | 2017-11-08 | 2018-03-30 | 清华大学 | 实时的三维眼皮重建方法及装置 |
CN107862732B (zh) * | 2017-11-08 | 2020-06-19 | 清华大学 | 实时的三维眼皮重建方法及装置 |
CN108564643A (zh) * | 2018-03-16 | 2018-09-21 | 中国科学院自动化研究所 | 基于ue引擎的表演捕捉系统 |
CN110930477A (zh) * | 2018-09-20 | 2020-03-27 | 深圳市优必选科技有限公司 | 机器人动画表情实现方法、装置及存储介质 |
CN110930477B (zh) * | 2018-09-20 | 2024-04-12 | 深圳市优必选科技有限公司 | 机器人动画表情实现方法、装置及存储介质 |
CN109903362A (zh) * | 2019-01-10 | 2019-06-18 | 珠海金山网络游戏科技有限公司 | 基于Unity3D的2D坐标映射操作3D角色模型注视的方法及装置 |
CN111652807A (zh) * | 2019-07-05 | 2020-09-11 | 广州虎牙科技有限公司 | 眼部的调整、直播方法、装置、电子设备和存储介质 |
CN111652807B (zh) * | 2019-07-05 | 2024-03-08 | 广州虎牙科技有限公司 | 眼部的调整、直播方法、装置、电子设备和存储介质 |
CN111401921A (zh) * | 2020-03-05 | 2020-07-10 | 成都威爱新经济技术研究院有限公司 | 一种基于虚拟人的远程客服方法 |
CN111401921B (zh) * | 2020-03-05 | 2023-04-18 | 成都威爱新经济技术研究院有限公司 | 一种基于虚拟人的远程客服方法 |
CN113035318A (zh) * | 2021-03-19 | 2021-06-25 | 科大讯飞股份有限公司 | 一种眼部运动引导方法、装置、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN101533523B (zh) | 2011-08-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN101533523B (zh) | 一种虚拟人眼部运动控制方法 | |
Yang et al. | A review on crowd simulation and modeling | |
CN106023288B (zh) | 一种基于图像的动态替身构造方法 | |
CN100562895C (zh) | 一种基于区域分割和分段学习的三维人脸动画制作的方法 | |
CN104123747B (zh) | 多方式触控三维建模方法和系统 | |
CN100440257C (zh) | 一种虚拟人群运动的三维可视化方法 | |
CN101739709A (zh) | 一种三维人脸动画的控制方法 | |
Gu et al. | Formation sketching: an approach to stylize groups in crowd simulation. | |
CN102184562B (zh) | 一种三维人脸动画模型自动构造方法及系统 | |
CN103679783A (zh) | 基于几何变形的三维动画角色模型皮肤变形方法 | |
CN104599309A (zh) | 一种基于元表情的三维动画角色的表情生成方法 | |
CN102129706A (zh) | 一种虚拟人眼部情感表现模拟方法 | |
Grillon et al. | Simulating gaze attention behaviors for crowds | |
CN108090939A (zh) | 基于集群协同算法与gpu优化渲染的海底生物集群模拟方法 | |
Waite | The facial action control editor, face: A parametric facial expression editor for computer generated animation | |
CN105006015A (zh) | 基于位置的流体模拟控制方法及系统 | |
Edge et al. | Expressive visual speech using geometric muscle functions | |
CN101566828A (zh) | 一种虚拟人嘴部运动控制方法 | |
Tang et al. | Lip-sync in human face animation based on video analysis and spline models | |
CN109003319A (zh) | 角色动画中带有动力学约束的元球驱动蒙皮方法 | |
CN103853044A (zh) | 一种基于径向基函数的交互式群组控制方法 | |
Bouzid et al. | Synthesizing facial expressions for signing avatars using MPEG4 feature points | |
CN102855353A (zh) | 一种埋藏式缝合技术的实时模拟方法 | |
Shi | Optimization for reinforcement learning based 3D animation exercise | |
Curtis et al. | Walk this way: a lightweight, data-driven walking synthesis algorithm |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
C17 | Cessation of patent right | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20110803 Termination date: 20140227 |