CN103279969A - 一种建立富有情感表达能力的三维虚拟眼睛运动模型的方法 - Google Patents

一种建立富有情感表达能力的三维虚拟眼睛运动模型的方法 Download PDF

Info

Publication number
CN103279969A
CN103279969A CN2013101675175A CN201310167517A CN103279969A CN 103279969 A CN103279969 A CN 103279969A CN 2013101675175 A CN2013101675175 A CN 2013101675175A CN 201310167517 A CN201310167517 A CN 201310167517A CN 103279969 A CN103279969 A CN 103279969A
Authority
CN
China
Prior art keywords
eye
motion
eyelid
duration
upperlid
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN2013101675175A
Other languages
English (en)
Other versions
CN103279969B (zh
Inventor
汪增福
江辰
於俊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Science and Technology of China USTC
Original Assignee
University of Science and Technology of China USTC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Science and Technology of China USTC filed Critical University of Science and Technology of China USTC
Priority to CN201310167517.5A priority Critical patent/CN103279969B/zh
Publication of CN103279969A publication Critical patent/CN103279969A/zh
Application granted granted Critical
Publication of CN103279969B publication Critical patent/CN103279969B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

本发明提供一种建立富有情感表达能力的三维虚拟眼睛运动模型的方法,它涉及人机交互、人脸动画、情感合成与表达等技术领域。在这些领域,由于眼睛运动对于虚拟人的非语言交流与情感表达起着至关重要的作用,因此本发明构建了一个生动的逼真的三维眼睛运动模型。该眼动模型分两部分来构建:第一部分为中立情感下(无情感变化下)的眼睛运动模型,第二部分为情感变化下的眼睛运动模型。并且眼睛运动涉及眼球的运动和眼睑的运动,并给出了详细的公式来描述关于眼睛运动的参数,如眼睛扫视的幅度、眨眼的频率。通过本发明关于眼睛运动的描述,可以构建一个栩栩如生的眼睛模型,从而可以很好的增强虚拟人的逼真外观和表现力。

Description

一种建立富有情感表达能力的三维虚拟眼睛运动模型的方法
技术领域
本发明涉及人机交互、人脸动画、情感合成与表达等技术领域,具体涉及一种建立富有情感表达能力的三维虚拟眼睛运动模型的方法,其是一种通过计算机技术虚拟三维眼睛运动,以达到促进虚拟人进行情感表达与交流的目的。本发明可以广泛应用在人机交互与人脸动画等相关领域。
背景技术
自上世纪70年代以来,人脸动画和虚拟人的研究得到了广泛的关注。人们越来越多的将虚拟人应用在一些虚拟领域,如多媒体教学、游戏等领域。情感表达能力一直是虚拟人非常重要的特征之一,而且很多研究人员在情感表达方面做了很多的研究,例如人脸表情合成,情感语音合成,但与情感相关的眼睛运动还没有得到很好的研究。我们都知道眼睛是心灵的窗户,因此在诸多情感的表达方式中,眼睛的运动情感表达是非常重要的。
相对于人脸表情合成、语音情感合成,关于人眼情感表达的研究还没有足够多,且没有达到理想的效果。早期,人们在关注人脸表情合成时,也关注了眼部表情的合成,如眉毛、眼睑的动作表情,FACS(人脸面部编码系统)为这些表情动作提供了依据。后来有了些关于注视方式与情感状态的研究,这些研究反映了注视方式包括眼睛、头部、躯干的转动方式是如何表达情感状态的。但这些工作并不涉及眼睛的运动,所以在情感表达方面有所欠缺。但是,真实自然的人眼情感的表达应该不仅包括眼部周围如眉毛、眼睑的运动,还应包括眼睛的转动以及相伴随的眼睑的运动。一些研究涉及了在正常情感状态下眼睛和眼睑的运动方式,但这些运动如何反映人的情感仍然是个疑问,有待进一步研究。
在此背景下,本文提出了一个面向人眼情感表达的三维眼动模型。
发明内容
本发明的目的在于:提供一种基于真实捕捉的眼睛统计数据和一些实证研究的,能够通过详细的运动参数来表现生动的眼睛运动和眼睑运动的,富有情感表达能力的三维眼睛运动模型。
本发明采用的技术方案为:一种建立富有情感表达能力的三维虚拟眼睛运动模型的方法,该三维虚拟眼睛运动模型涉及的眼睛运动分为两部分:第一部分为中立情感下即无情感变化下的眼睛运动;第二部分为情感变化下的眼睛运动;其中的运动涉及眼球的运动和眼睑的运动,眼球的运动有眼睛扫视运动,涉及的参数有扫视的幅度、方向和持续时间;眼睑的运动有眼睑扫动和眨眼,眼睑扫动涉及的参数有眼睑位置、扫动幅度、持续时间和眨眼频率,该模型给出若干描述眼睛运动的参数,并给出了若干详细的公式来体现这些参数如何反映眼睛运动,该模型中的所有参数中,其中三个参数与情感变化密切相关,即眼睛扫视的持续时间、眼睑的位置和眨眼频率。
其中,三个运动参数来描述眼睛扫视运动:1、幅度AEye,是指人眼的注视点从一个地方变化到另一个地方时,眼球转动的角度;2、持续时间DEye,是指一个扫视运动从开始到结束所用的时间;3、方向,是指眼睛扫视运动时眼球转动的角度,规定0度为向右运动,45度即为向右上方运动,以此类推。具体的:
幅度:
根据一些前人的眼动跟踪数据,眼睛扫视运动的幅度概率分布用一个指数函数来表示:
P = 15.7 * e - A 6.9 - - - ( 1 )
其中A表示幅度大小,P表示该幅度发生的概率;
持续时间:
扫视运动的持续时间是与运动幅度息息相关的,因此持续时间用幅度的函数来表示,用一个函数来表示这运动幅度AEye和运动持续时间DEye之间的关系:
DEye=(2*AEye+20)                     (2)
方向:
扫视运动的方向也可以从前人的眼动跟踪数据中得知。为了简化,将方向量化成8个45度的方向区间,则扫视运动的方向概率分布如表格1所示。
表格1扫视运动方向的概率分布
方向 0度 45度 90度 135度
概率(%) 15.54 6.46 17.69 7.45
方向 180度 225度 270度 315度
概率(%) 16.80 7.89 20.38 7.79
其中,眼睑扫动的参数有:1、眼睑位置PLid;2、幅度ALid;3、持续时间:DLid;在该模型中,眼睑运动的过程也被看成是一个匀加速匀减速过程,将运动过程看成是一个匀加速匀减速过程,最大速度也可以表示成:
VelocityMaximum=2*ALid/DLid
眼睑位置:
眼睑扫动是与其相伴随的眼球扫视有密切关联的,上眼睑的位置PUpperLid与眼球的位置也是息息相关的,公式表示如下:
PUpperLid=PEye(vertical)+20                          (3)
其中PEye(vertical)表示眼球运动的垂直分量。
幅度:
因此上眼睑扫动的幅度AUpperLid就等于眼球扫视运动的幅度的垂直分量:
AUpperLid=AEye(vertical)                          (4)
持续时间:
对于上眼睑,向下扫动和向上扫动的运动规律是不一样的,即对于同样的幅度,上眼睑向下扫动的持续时间DUpperLid(Down)要比向上扫动的持续时间DUpperLid(Up)短:
D UpperLid ( Down ) = 33.2 + 5.9 * A UpperLid - 0.069 * A Upperlid 2 D UpperLid ( Up ) = 98.9 + 3.6 * A UpperLid - 0.042 * A UpperLid 2 - - - ( 5 )
相对于上眼睑,下眼睑的运动基本比较小,而且下眼睑的运动幅度基本为与之相伴随的上眼睑的运动幅度的四分之一,而上眼睑运动的持续时间与之相伴随的上眼睑的运动持续时间是一样的,所以,有关下眼睑的所有参数可以通过公式(3)(4)(5)推出。
其中,眨眼运动的相关参数有:1、幅度ABlink;2、持续时间DBlink;3、眨眼频率RATEBlink;将眨眼运动过程看成是一个匀加速匀减速过程,最大速度也可以表示成VelocityMaximum=2*ABlink/DBlink
幅度:
眨眼就是一个眼睑闭合然后张开的过程,所以眨眼的幅度就是当前眼睑张开的角度,表示如下:
ABlink=DegreesEylid Open                         (6)
持续时间:
对于上眼睑,眨眼过程中向下运动的持续时间DUpperLid(Down)要比向上运动的持续时间DUpperLid(Up)短,所以下眼睑的眨眼持续时间可表示为如下:
D UpperLid ( Down ) = 36.3 + 1.4 * A UpperLid - 0.016 * A UpperLid 2 D UpperLid ( Up ) = 87.9 + 4.3 * A UpperLid - 0.047 * A UpperLid 2 - - - ( 7 )
眨眼频率:
眨眼频率为8.0‐21.0次/分钟,资料和实验显示人正常情况下目光注视远方时眨眼频率符合这样的设置。
以上是无情感变化下各个眼睛运动参数的表达公式。情感变化与三个眼动参数有关,即眼睛扫视的持续时间、眼睑的位置和眨眼频率。
眼睛扫视的持续时间:
如公式(8)所示。相对于公式(2),它反映出情感的激活度越高,即a值越大,眼睛扫视的持续时间越短,即速度越快。
D Eye = 15 - a 2 * a ‾ * 0.001 * ( A Eye + 20 ) - - - ( 8 )
眼睑的位置:
如公式(9)所示。相对于公式(3),它表示情感激活度越高,即a值越大,眼皮张开的幅度越大,反之亦然。
PUpperLid=PEye(vertical)+20+(a-5)                     (9)
眨眼频率:
如前所说,中立情感下我们的眨眼频率为8.0-21.0次/分钟。我们在模型中定义平均眨眼频率为一个从8.0到21.0之间随机产生的一个数。然后根据得到情感变化下的眨眼频率数据,眨眼频率在情感变化下的表达,如公式10所示。它表示情感评估度越高,即e值越大,眨眼频率越高,反之亦然。
Rate Blink = e + 5 2 * e ‾ * Rate Blink ‾ - - - ( 10 )
本发明与现有技术的优点在于:
(1)、本发明是基于真实的眼睛运动跟踪数据和很多医学、心理学关于眼睛运动的实证研究结果,提出来的一种生动的、高真实感的三维眼睛运动模型。
(2)、本发明提出来的三维眼睛运动模型,不仅可以表现在正常交流情况下,即无情感情况下,虚拟人的眼睛运动动画,而且可以表现情感变化下眼睛的运动情况。如本发明可以表现喜悦和愤怒情感下不同的眼睛的运动规律。
(3)、本发明提供一种建立富有情感表达能力的三维虚拟眼睛运动模型的方法,它涉及人机交互、人脸动画、情感合成与表达等技术领域。在这些领域,由于眼睛运动对于虚拟人的非语言交流与情感表达起着至关重要的作用,因此本发明构建了一个生动的逼真的三维眼睛运动模型。该眼动模型分两部分来构建:第一部分为中立情感下(无情感变化下)的眼睛运动模型,第二部分为情感变化下的眼睛运动模型。并且眼睛运动涉及眼球的运动和眼睑的运动,并给出了详细的公式来描述关于眼睛运动的参数,如眼睛扫视的幅度、眨眼的频率。通过本发明关于眼睛运动的描述,可以构建一个栩栩如生的眼睛模型,从而可以很好的增强虚拟人的逼真外观和表现力。
附图说明
图1为本发明的系统框架;
图2为眼睛运动模型的三维网格;
图3为眼睛扫视和它相伴随的眼皮扫动的合成规则;
图4为眨眼的合成规则;
图5为我们眼动模型在运动时能体现情感的几个关键帧;
图6为本发明的眼睛运动模型的合成过程。
具体实施方式
下面结合附图和具体实施方式进一步说明本发明。
本发明的目标是通过眼球的运动让虚拟人物更具表达情感的能力。图1显示了本发明——的整体框架。我们的眼睛运动模型涉及眼球和眼睑。眼球部分的运动涉及扫视,具体的参数包括扫视的幅度,方向和持续时间。眼皮部分的运动涉及眼睑扫视和眨眼,具体的参数包括振幅,持续时间,眼睑的位置和眨眼率。我们的模型通过这些给与眼睛这些参数来反映逼真的眼睛运动,让其看上去十分的栩栩如生。
我们的眼动模型可以分为两个部分:中立情感下(无情感变化下)的眼睛模型与情感变化下的眼睛模型。中立情感下的眼睛模型涉及上面所说的所有眼动参数,我们在下面给出了具体的公式来描述这些参数的设置;情感变化下的眼睛模型只涉及其中的三个参数:眼球扫视的持续时间、眼睑的位置、眨眼率,我们也给出了相应具体的公式来描述情感变化与这三个参数之间的关系。
所以我们的眼动模型可以很好的反映虚拟人眼睛运动,从而加强其在非语言交流与情感表达下的能力,我们将从两个方面(中立情感下和变化情感下)来介绍我们的眼动模型。
1.中立情感下的眼睛运动
这一部分将介绍在中立情感下的眼睛模型,它涉及眼球和眼睑的运动。
1.1眼球运动
眼球的运动有很多种。主要包括扫视运动,跟踪运动,辐辏运动。由于人在社交活动中,大部分时间是没有特定注视点的,所以跟其他绝大部分的研究一样,本发明的模型只涉及眼睛扫视运动(eye saccades)。本发明给出了三个运动参数来描述眼睛扫视运动。1、幅度AEye,是指人眼的注视点从一个地方变化到另一个地方时,眼球转动的角度;2、持续时间DEye,是指一个扫视运动从开始到结束所用的时间;3、方向,是指眼睛扫视运动时眼球转动的角度,我们规定0度为向右运动,45度即为向右上方运动,以此类推。
幅度:
根据一些前人的眼动跟踪数据,眼睛扫视运动的幅度概率分布可以用一个指数函数来表示:
P = 15.7 * e - A 6.9 - - - ( 1 )
其中A表示幅度大小,P表示该幅度发生的概率。
持续时间:
扫视运动的持续时间是与运动幅度息息相关的,因此持续时间可以用幅度的函数来表示。根据一些研究眼动的医学资料,我们用一个函数来表示这运动幅度AEye(单位为度)和运动持续时间DEye(单位为毫秒)之间的关系。
DEye=(2*AEye+20)                         (2)
方向:
扫视运动的方向也可以从前人的眼动跟踪数据中得知。为了简化,将方向量化成8个45度的方向区间,则扫视运动的方向概率分布如表格1所示。
表格1扫视运动方向的概率分布
方向 0度 45度 90度 135度
概率(%) 15.54 6.46 17.69 7.45
方向 180度 225度 270度 315度
概率(%) 16.80 7.89 20.38 7.79
为了表达动画效果,在我们系统中将一个单程的眼睛运动看成是一个匀加速匀减速过程,最大速度可表示为VelocityMaximum=2*AEye/DEye
1.2眼睑的运动
与眼球运动同样重要的是眼睑的运动。眼睑的运动包括眼睑的扫视运动和眨眼运动两种方式。又因为有研究提到在眼睑运动中左右两个眼睑的运动是一致的,所以我们只任意考虑其中一个眼睑的运动规律。
1.2.1眼睑扫动(lid saccades)
眼睑扫动(lid saccades)是指当眼球上下转动时,眼睑会有伴随的上下运动。眼睑的位置与眼球的位置和运动参数有密切联系。
关于眼睑扫动的参数有1:眼睑位置PLid;2、幅度ALid;3、持续时间DLid。在本模型中,眼睑运动的过程也被看成是一个匀加速匀减速过程。至于很多研究中提到的运动中的最大速度,将运动过程看成是一个匀加速匀减速过程,最大速度也可以表示成:
VelocityMaximum=2*ALid/DLid
眼睑位置:
眼睑扫动是与其相伴随的眼球扫视有密切关联的。研究表明对于上眼睑,上眼睑的位置PUpperLid与眼球的位置也是息息相关的,通常眼睑的位置是高于眼球的垂直位置20度。公式表示如下:
PUpperLid=PEye(vertical)+20                         (3)
幅度:
因此上眼睑扫动的幅度AUpperLid就等于眼球扫视运动的幅度的垂直分量:
AUpperLid=AEye(vertical)                        (4)
持续时间:
有前人的研究给出了上眼睑的扫动的持续时间和幅度之间的关系,我们的模型也借鉴了这一结果,在我们的模型中,对于上眼睑,向下扫动和向上扫动的运动规律是不一样的,即对于同样的幅度,上眼睑向下扫动的持续时间DUpperLid(Down)要比向上扫动的持续时间DUpperLid(Up)短。
D UpperLid ( Down ) = 33.2 + 5.9 * A UpperLid - 0.069 * A Upperlid 2 D UpperLid ( Up ) = 98.9 + 3.6 * A UpperLid - 0.042 * A UpperLid 2 - - - ( 5 )
相对于上眼睑,下眼睑的运动基本比较小,而且下眼睑的运动幅度基本为与之相伴随的上眼睑的运动幅度的四分之一,而上眼睑运动的持续时间与之相伴随的上眼睑的运动持续时间是一样的。所以,有关下眼睑的所有参数可以通过公式(3)(4)(5)推出。
1.2.2眨眼
眨眼是眼睑一个自然的快速闭合张开的过程。眨眼分两大类型,自发式和反射式。只有自发的眨眼是能反映人物无意识的内心活动的,与人的情感状态有关,所以本文只考虑自发的眨眼。眨眼运动的相关参数也有1、幅度ABlink;2、持续时间DBlink;3、眨眼频率RATEBlink。同样的我们将眨眼运动过程看成是一个匀加速匀减速过程,最大速度也可以表示成VelocityMaximum=2*ABlink/DBlink
幅度:
眨眼就是一个眼睑闭合然后张开的过程,所以眨眼的幅度就是当前眼睑张开的角度,表示如下:
ABlink=DegreesEylid Open                      (6)
持续时间:
类似于眼睑扫动,对于上眼睑,眨眼过程中向下运动的持续时间DUpperLid(Down)要比向上运动的持续时间DUpperLid(Up)短。所以下眼睑的眨眼持续时间可表示为如下:
D UpperLid ( Down ) = 36.3 + 1.4 * A UpperLid - 0.016 * A UpperLid 2 D UpperLid ( Up ) = 87.9 + 4.3 * A UpperLid - 0.047 * A UpperLid 2 - - - ( 7 )
眨眼频率:
一些研究证明了眨眼频率往往对人的印象的判断有较大的影响。有研究人员对眨眼的频率有很详细的研究,我们采用了他们的研究出的眨眼频率作为我们眼动模型的眨眼频率。即8.0‐21.0次/分钟。
2.情感变化下的眼动模型
上面所述的是从眼动跟踪数据恢复得到的一个客观、真实的反映眼睛运动的模型,这个模型不涉及情感的变化,只适用于无情感时的眼动规律。但是眼睛的运动包括眼动速度、眨眼频率等是能反映人的情感活动的重要线索。我们要做的就是将情感参数与这些眼动参数联系起来。人们对情感的分类有两种观点,第一种观点是说情感时离散的,各个情感之间有不同的结构,第二个观点说情感可以用连续的空间来表示,不同的情感相互渐变得到。在我们系统中,我们使用Whissel提出的情感坐标系作为我们系统的情感描述标准,在这个坐标系中情感是连续的,x轴代表评估度evaluation:e,即表示情感的正负程度,y轴代表激活度activation:a,即表示与情感相关的机体的能量激活程度。一些基本情感可以在这个坐标系中定位得到。我们的系统中,用0–10来表示评估度和激活度这两个轴向的区间,则坐标中心位于(5,5),这也表示情感的评估度的平均值
Figure BDA00003158788000082
激活度的平均值
Figure BDA00003158788000083
我们采用AAM(Active Appearance Model)跟踪算法来跟踪一组眼动视频,得到我们的眼动数据。从这些数据中,我们发现三个眼动参数与情感变化密切相关,即眼睛扫视速度(眼睛扫视的持续时间)、眼皮的位置、眨眼频率。
2.1眼睛扫视的持续时间:
我们可以从AAM跟踪得到最终的眼睛扫视的持续时间数据,我们对眼动持续时间数据做了一次单向方差分析(ANOVA),分析结果显示,情感变化对于眼睛扫视的持续时间是有明显的影响,F(5,24)=6.79,p<0.001。因此相对于公式2,我们给出在情感变化下的眼睛扫视持续时间的公式,如公式8所示。相对于公式2,它反映出情感的激活度越高,即a值越大,眼睛扫视的持续时间越短,即速度越快。
D Eye = 15 - a 2 * a ‾ * 0.001 * ( A Eye + 20 ) - - - ( 8 )
2.2眼皮的位置:
同样,我们可以从AAM跟踪可以得到眼皮的位置数据,我们对这些眼皮的位置数据做了又一次关于情感变化对眼皮位置的单向方差分析(ANOVA),发现情感变化对于眼皮位置有显著的影响,F(5,12)=5.12,p<0.01.。并根据数据得到了相应的表达公式,如公式9所示。相对于公式3,它表示情感激活度越高,即a值越大,眼皮张开的幅度越大,反之亦然。
PUpperLid=PEye(vertical)+20+(a-5)                    (9)
2.3眨眼频率:
同样,我们也可以从AAM跟踪结果得到眨眼频率的数据,根据这些数据,我们做了一个单向方差分析(ANOVA),发现情感变化对眨眼频率也有显著的影响,F(5,24)=4.39,p<0.01。如前所说,中立情感下我们的诈骗频率为8.0-21.0次/分钟。我们在模型中定义平均眨眼频率
Figure BDA00003158788000092
为一个从8.0到21.0之间随机产生的一个数。然后根据得到情感变化下的眨眼频率数据,我们给出了眨眼频率在情感变化下的表达,如公式10所示。它表示情感评估度越高,即e值越大,眨眼频率越高,反之亦然。
Rate Blink = e + 5 2 * e ‾ * Rate Blink ‾ - - - ( 10 )
我们整个系统的合成规则如图3和图4所示。对于眼睛扫视和眼皮扫动,公式1给出了眼睛扫视的幅度的概率分布,从此概率公式我们得到了随此概率产生的一个眼睛扫视幅度,然后此后眼睛扫视和它相伴随的眼皮扫动可以按照图3所示的合成规则来合成。对于眨眼,它的发生时间可以用公式10控制,然后整个眨眼的过程可以由图4所示的合成规则来合成。
我们通过前面的合成规则合成分别合成了不同情感下的眼动视频,图5所示为一些眼动视频的一些关键帧。我们可以看出这些关键帧可以比较好的反映出虚拟人的情感变化。图6为本发明的眼睛运动模型的合成过程。
本发明未详细阐述的部分属于本领域公知技术。
尽管上面对本发明说明性的具体实施方式进行了描述,以便于本技术领的技术人员理解本发明,但应该清楚,本发明不限于具体实施方式的范围,对本技术领域的普通技术人员来讲,只要各种变化在所附的权利要求限定和确定的本发明的精神和范围内,这些变化是显而易见的,一切利用本发明构思的发明创造均在保护之列。

Claims (5)

1.一种建立富有情感表达能力的三维虚拟眼睛运动模型的方法,其特征在于,该三维虚拟眼睛运动模型涉及的眼睛运动分为两部分:第一部分为中立情感下即无情感变化下的眼睛运动;第二部分为情感变化下的眼睛运动;其中的运动涉及眼球的运动和眼睑的运动,眼球的运动为眼睛扫动(eye saccades),涉及的参数有扫视的幅度、方向和持续时间;眼睑的运动有眼睑扫动(lid saccades)和眨眼,眼睑扫动涉及的参数有眼睑位置、扫动幅度、持续时间和眨眼频率,该模型给出若干描述眼睛运动的参数,并给出了若干详细的公式来体现这些参数如何反映眼睛运动,该模型中的所有参数中,其中三个参数与情感变化密切相关,即眼睛扫视的持续时间、眼睑的位置和眨眼频率。
2.根据权利要求1所述的一种建立富有情感表达能力的三维虚拟眼睛运动模型的方法,其特征在于,三个运动参数来描述眼睛扫视运动:1、幅度AEye,是指人眼的注视点从一个地方变化到另一个地方时眼球转动的角度;2、持续时间DEye,是指一个扫视运动从开始到结束所用的时间;3、方向,是指眼睛扫视运动时眼球转动的角度,规定0度为向右运动,45度即为向右上方运动,以此类推,具体的:
幅度:
根据一些前人的眼动跟踪数据,眼睛扫视运动的幅度概率分布用一个指数函数来表示:
P = 15.7 * e - A 6.9 - - - ( 1 )
其中A表示幅度大小,P表示该幅度发生的概率;
持续时间:
扫视运动的持续时间是与运动幅度息息相关的,因此持续时间用幅度的函数来表示,用一个函数来表示这运动幅度AEye和运动持续时间DEye之间的关系:
DEye=(2*AEye+20)          (2)
方向:
扫视运动的方向也可以从前人的眼动跟踪数据中得知,为了简化,将方向量化成8个45度的方向区间,则扫视运动的方向概率分布如表格1所示:
表格1扫视运动方向的概率分布
方向 0度 45度 90度 135度 概率(%) 15.54 6.46 17.69 7.45 方向 180度 225度 270度 315度 概率(%) 16.80 7.89 20.38 7.79
3.根据权利要求2所述的一种建立富有情感表达能力的三维虚拟眼睛运动模型的方法,其特征在于,眼睑扫动的参数有:1、眼睑位置PLid;2、幅度ALid;3、持续时间DLid;在该模型中,眼睑运动的过程也被看成是一个匀加速匀减速过程,将运动过程看成是一个匀加速匀减速过程,最大速度也可以表示成:
VelocityMaximum=2*ALid/DLid
眼睑位置:
眼睑扫动是与其相伴随的眼球扫视有密切关联的,上眼睑的位置PUpperLid与眼球的位置也是息息相关的,公式表示如下:
PUpperLid=PEye(vertical)+20                (3)
其中PEye(vertical)表示眼球运动的垂直分量;
幅度:
因此上眼睑扫动的幅度AUpperLid就等于眼球扫视运动的幅度的垂直分量:
AUpperLid=AEye(vertical)                   (4)
持续时间:
对于上眼睑,向下扫动和向上扫动的运动规律是不一样的,即对于同样的幅度,上眼睑向下扫动的持续时间DUpperLid(Down)要比向上扫动的持续时间DUpperLid(Up)短:
D UpperLid ( Down ) = 33.2 + 5.9 * A UpperLid - 0.069 * A UpperLid 2 D UpperLid ( U p ) = 98.9 + 3.6 * A UpperLid - 0.042 * A UpperLid 2 - - - ( 5 )
相对于上眼睑,下眼睑的运动基本比较小,而且下眼睑的运动幅度基本为与之相伴随的上眼睑的运动幅度的四分之一,而上眼睑运动的持续时间与之相伴随的上眼睑的运动持续时间是一样的,所以,有关下眼睑的所有参数可以通过公式(3)、(4)和(5)推出。
4.根据权利要求3所述的一种建立富有情感表达能力的三维虚拟眼睛运动模型的方法,其特征在于,眨眼运动的相关参数有:1、幅度ABlink;2、持续时间DBlink;3、眨眼频率RATEBlink;将眨眼运动过程看成是一个匀加速匀减速过程,最大速度也可以表示成VelocityMaximum=2*ABlink/DBlink
幅度:
眨眼就是一个眼睑闭合然后张开的过程,所以眨眼的幅度就是当前眼睑张开的角度DegreesEylidOpen,表示如下:
ABlink=DegreesEylidOpen                  (6)
持续时间:
对于上眼睑,眨眼过程中向下运动的持续时间DUpperLid(Down)要比向上运动的持续时间DUpperLid(Up)短,所以下眼睑的眨眼持续时间可表示为如下:
D UpperLid ( Down ) = 36.3 + 1.4 * A UpperLid - 0.016 * A UpperLid 2 D UpperLid ( U p ) = 87.9 + 4.3 * A UpperLid - 0.047 * A UpperLid 2 - - - ( 7 )
眨眼频率:
眨眼频率为8.0‐21.0次/分钟,资料和实验显示人正常情况下目光注视远方时眨眼频率符合这样的设置。
5.根据权利要求3所述的一种建立富有情感表达能力的三维虚拟眼睛运动模型的方法,其特征在于,情感变化与三个眼动参数有关,即眼睛扫视的持续时间、眼睑的位置和眨眼频率,其中:
眼睛扫视的持续时间:
如公式(8)所示,相对于公式(2),它反映出情感的激活度越高,即a值越大,眼睛扫视的持续时间越短,即速度越快;
D Eye = 15 - a 2 * a ‾ * 0.001 * ( A Eye + 20 ) - - - ( 8 )
眼睑的位置:
如公式(9)所示,相对于公式(3),它表示情感激活度越高,即a值越大,眼皮张开的幅度越大,反之亦然;
PUpperLid=PEye(vertical)+20+(a-5)                 (9)
眨眼频率:
中立情感下的眨眼频率为8.0-21.0次/分钟,在该模型中定义平均眨眼频率
Figure FDA00003158787900033
为一个从8.0到21.0之间随机产生的一个数,然后根据得到情感变化下的眨眼频率数据,眨眼频率在情感变化下的表达,如公式(10)所示,
Rate Blink = e + 5 2 * e ‾ * Rate Blink ‾ - - - ( 10 )
它表示情感评估度越高,即e值越大,眨眼频率越高,反之亦然。
CN201310167517.5A 2013-05-08 2013-05-08 一种建立富有情感表达能力的三维虚拟眼睛运动模型的方法 Expired - Fee Related CN103279969B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201310167517.5A CN103279969B (zh) 2013-05-08 2013-05-08 一种建立富有情感表达能力的三维虚拟眼睛运动模型的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201310167517.5A CN103279969B (zh) 2013-05-08 2013-05-08 一种建立富有情感表达能力的三维虚拟眼睛运动模型的方法

Publications (2)

Publication Number Publication Date
CN103279969A true CN103279969A (zh) 2013-09-04
CN103279969B CN103279969B (zh) 2016-01-20

Family

ID=49062476

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201310167517.5A Expired - Fee Related CN103279969B (zh) 2013-05-08 2013-05-08 一种建立富有情感表达能力的三维虚拟眼睛运动模型的方法

Country Status (1)

Country Link
CN (1) CN103279969B (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104146680A (zh) * 2014-09-01 2014-11-19 北京工业大学 一种眼球运动的测量方法和系统
CN104318615A (zh) * 2014-10-29 2015-01-28 中国科学技术大学 一种发音器官三维建模方法
CN110363135A (zh) * 2019-07-10 2019-10-22 广州市百果园信息技术有限公司 人眼闭合程度的确定方法、眼睛控制方法和装置
WO2021004257A1 (zh) 2019-07-10 2021-01-14 广州市百果园信息技术有限公司 视线检测和视频处理的方法、装置、设备和存储介质
US11587388B2 (en) 2020-04-22 2023-02-21 Igt Determining a player's emotional state using player gaze movement at gaming devices
RU2814199C2 (ru) * 2019-07-10 2024-02-27 Биго Текнолоджи Пте. Лтд. Способ определения степени закрытия глаза человека, способ управления глазом, аппарат, устройство и носитель данных

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5517021A (en) * 1993-01-19 1996-05-14 The Research Foundation State University Of New York Apparatus and method for eye tracking interface
CN102129706A (zh) * 2011-03-10 2011-07-20 西北工业大学 一种虚拟人眼部情感表现模拟方法
CN102309366A (zh) * 2011-07-21 2012-01-11 山东科技大学 用眼动信号控制上假肢运动的控制系统和控制方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5517021A (en) * 1993-01-19 1996-05-14 The Research Foundation State University Of New York Apparatus and method for eye tracking interface
CN102129706A (zh) * 2011-03-10 2011-07-20 西北工业大学 一种虚拟人眼部情感表现模拟方法
CN102309366A (zh) * 2011-07-21 2012-01-11 山东科技大学 用眼动信号控制上假肢运动的控制系统和控制方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
刘伟锋: "人脸表情识别研究", 《中国博士学位论文全文数据库信息科技辑》 *
陈盈科: "真实感眼部表情的一种实现方法", 《计算机与数字工程》 *

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104146680A (zh) * 2014-09-01 2014-11-19 北京工业大学 一种眼球运动的测量方法和系统
WO2016033945A1 (zh) * 2014-09-01 2016-03-10 北京工业大学 一种眼球运动的测量方法和系统
CN104318615A (zh) * 2014-10-29 2015-01-28 中国科学技术大学 一种发音器官三维建模方法
CN104318615B (zh) * 2014-10-29 2017-04-19 中国科学技术大学 一种发音器官三维建模方法
CN110363135A (zh) * 2019-07-10 2019-10-22 广州市百果园信息技术有限公司 人眼闭合程度的确定方法、眼睛控制方法和装置
WO2021004257A1 (zh) 2019-07-10 2021-01-14 广州市百果园信息技术有限公司 视线检测和视频处理的方法、装置、设备和存储介质
WO2021004285A1 (zh) * 2019-07-10 2021-01-14 广州市百果园信息技术有限公司 人眼闭合程度的确定方法、眼睛控制方法、装置、设备和存储介质
US11775059B2 (en) 2019-07-10 2023-10-03 Bigo Technology Pte. Ltd. Method for determining human eye close degrees, method for controlling eyes, device, and storage medium
RU2814199C2 (ru) * 2019-07-10 2024-02-27 Биго Текнолоджи Пте. Лтд. Способ определения степени закрытия глаза человека, способ управления глазом, аппарат, устройство и носитель данных
US11587388B2 (en) 2020-04-22 2023-02-21 Igt Determining a player's emotional state using player gaze movement at gaming devices

Also Published As

Publication number Publication date
CN103279969B (zh) 2016-01-20

Similar Documents

Publication Publication Date Title
CN103279969B (zh) 一种建立富有情感表达能力的三维虚拟眼睛运动模型的方法
CN104217454B (zh) 一种视频驱动的人脸动画生成方法
Parke et al. Computer facial animation
CN104541306B (zh) 神经行为动画系统
CN104008564B (zh) 一种人脸表情克隆方法
WO2019033569A8 (zh) 眼球动作分析方法、装置及存储介质
EP2580741A2 (en) Real-time animation of facial expressions
DE112018005034T5 (de) Autonom handelnder Roboter, der den Begleiter anblickt
Lynch et al. Effect of virtual human gaze behaviour during an orthogonal collision avoidance walking task
CN206066469U (zh) 一种移动式的远程临场交互机器人
CN109284778A (zh) 人脸颜值计算方法、计算装置及电子设备
Park et al. Generation of realistic robot facial expressions for human robot interaction
Kipp et al. Igaze: Studying reactive gaze behavior in semi-immersive human-avatar interactions
CN110443872B (zh) 一种具备动态纹理细节的表情合成方法
CN102129706A (zh) 一种虚拟人眼部情感表现模拟方法
CN109101953A (zh) 基于人类面部表情的分区要素化的表情动作生成方法
Thiebaux et al. Real-time expressive gaze animation for virtual humans
Goudé et al. Real-time Multi-map Saliency-driven Gaze Behavior for Non-conversational Characters
CN106239531A (zh) 一种移动式的远程临场交互机器人
CN103207745A (zh) 虚拟化身交互系统和方法
Schulz et al. Humotion: A human inspired gaze control framework for anthropomorphic robot heads
Marcos et al. Nonverbal communication with a multimodal agent via facial expression recognition
CN105224910B (zh) 一种训练共同注意力的系统及方法
Kocoń Idle motion synthesis of human head and face in virtual reality environment
Maddock et al. Movement realism in computer facial animation

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20160120

Termination date: 20210508