CN101499128B - 基于视频流的三维人脸动作检测和跟踪方法 - Google Patents
基于视频流的三维人脸动作检测和跟踪方法 Download PDFInfo
- Publication number
- CN101499128B CN101499128B CN2008100571835A CN200810057183A CN101499128B CN 101499128 B CN101499128 B CN 101499128B CN 2008100571835 A CN2008100571835 A CN 2008100571835A CN 200810057183 A CN200810057183 A CN 200810057183A CN 101499128 B CN101499128 B CN 101499128B
- Authority
- CN
- China
- Prior art keywords
- face
- people
- model
- action
- shape
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 230000009471 action Effects 0.000 title claims abstract description 109
- 238000000034 method Methods 0.000 title claims abstract description 96
- 238000001514 detection method Methods 0.000 claims abstract description 47
- 238000004422 calculation algorithm Methods 0.000 claims description 17
- 238000005286 illumination Methods 0.000 abstract description 6
- 230000003993 interaction Effects 0.000 abstract description 3
- 238000012545 processing Methods 0.000 abstract description 3
- 238000011156 evaluation Methods 0.000 abstract description 2
- 238000010195 expression analysis Methods 0.000 abstract 1
- 230000008569 process Effects 0.000 description 30
- 230000008859 change Effects 0.000 description 19
- 210000003128 head Anatomy 0.000 description 10
- 238000010586 diagram Methods 0.000 description 8
- 239000011159 matrix material Substances 0.000 description 8
- 230000033001 locomotion Effects 0.000 description 7
- 230000001815 facial effect Effects 0.000 description 6
- 239000004744 fabric Substances 0.000 description 5
- 238000012549 training Methods 0.000 description 5
- 238000013459 approach Methods 0.000 description 4
- 230000000903 blocking effect Effects 0.000 description 3
- 210000004709 eyebrow Anatomy 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000011524 similarity measure Methods 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 230000007935 neutral effect Effects 0.000 description 2
- 210000000056 organ Anatomy 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 241000288110 Fulica Species 0.000 description 1
- 241001125929 Trisopterus luscus Species 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000002950 deficient Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 238000007667 floating Methods 0.000 description 1
- 230000004886 head movement Effects 0.000 description 1
- 210000002837 heart atrium Anatomy 0.000 description 1
- 230000008676 import Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000012804 iterative process Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000012821 model calculation Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000004321 preservation Methods 0.000 description 1
- 230000002829 reductive effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000000452 restraining effect Effects 0.000 description 1
- 238000007665 sagging Methods 0.000 description 1
- 239000004576 sand Substances 0.000 description 1
- 238000013179 statistical model Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
本发明提出了一种基于视频流的三维人脸动作检测和跟踪方法。该方法首先在视频图像中检测到人脸和人脸上关键点的位置,初始化用于跟踪的三维可变形人脸网格模型和人脸纹理模型;然后使用这两个模型,采用图像配准的方法,对后续视频图像中人脸的位置、姿态和面部动作进行实时、持续的跟踪;一个PCA人脸子空间模型用于对检测、定位和跟踪的结果进行评估,如果发现跟踪中断,则自动采取措施重新恢复跟踪。本方法不需要对特定的使用者进行训练,头部姿态跟踪范围大,面部动作细节准确,且对光照和遮挡具有一定鲁棒性,在人机交互,表情分析,游戏娱乐等领域具有较高的实用价值和广泛的应用前景。
Description
技术领域
本发明涉及人脸检测和跟踪领域,尤其是指一种在视频流中对三维人脸及人脸动作进行检测和跟踪的方法。
背景技术
人脸是每个人都具有的重要特征,是最自然、最常用的交互手段之一,在计算机视觉和图形学等领域具有相当广泛的应用,例如人机交互,安全监控,游戏娱乐,计算机动画等。对人脸和人脸动作进行实时、准确的检测和跟踪,在理论上和实际中都具有重要的意义。如何建立有效的模型,选择最具表达能力的特征,构造准确的分类器,实现高效稳定的跟踪算法,都是人们关心的理论问题。如果能够得到对人脸及人脸动作的准确的检测和跟踪结果,就可以用来控制电脑中的对象或角色,或者用来辅助生成具有真实感的人脸动画,或者从中获得表情信息。以往对这方面问题的研究,主要集中在人脸检测,人脸关键点定位,人脸和人脸关键点跟踪这几个方面。
人脸检测可以分为基于规则的检测方法和基于统计的检测方法两类。基于规则的检测方法是指,首先从候选图像中抽取几何形状、灰度、纹理等特征,然后检验它们是否符合关于人脸的先验知识。基于统计的检测方法,将人脸区域看作一类模式,使用大量的“人脸”与“非人脸”样本进行训练,构造分类器,然后使用分类器判断候选图像是否具有人脸模式。因此,人脸检测问题被转化为统计模式识别的二分类问题。P.Viola等人在2001年提出的综合Adaboost和Cascade算法实现的实时人脸检测算法,在提高人脸检测精度的同时也大幅度地提高了检测速度,使得人脸检测从真正意义上走向实用。
人脸关键点定位即是检测由眉毛,眼睛,鼻子,嘴巴,以及人脸轮廓等确定的一系列关键点的位置。人脸关键点定位方法可以分为基于可变形人脸模型的方法,基于投影直方图分析的方法和模板匹配的方法三类。可变形人脸模型的方法即首先通过训练的方法建立一个包含人脸关键点分布的模型,使用形状,纹理等特征,对模型参数进行调整,得到输入人脸上关键点的位置。典型的例子是Cootes等人提出的ASM方法和AAM方法。基于投影直方图分析的方法是早期的人脸关键点定位常用的方法,这种方法基于人脸器官的灰度分布特点,对一定宽度的一个区域带,利用灰度的水平和垂直积分直方图的峰谷特征,进行人脸器官和关键点的定位。模版匹配的方法是指,利用人脸或器官的模板在候选窗口逐点滑动进行特征匹配定位。例如首先使用眼睛样本建立分类器,然后在人脸区域上部使用这一分类器搜索最符合眼睛模式的区域,从而实现眼睛的定位。
人脸和人脸关键点跟踪的是在已经确定人脸和人脸关键点位置、姿态等参数的条件下,在后续视频序列保持这些参数的输出。人脸跟踪等价于在连续的视频帧间创建基于位置、速度、形状、纹理、色彩等有关特征的对应匹配问题,常用的跟踪算法可以分为基于模型的方法和不使用模型的方法两类,二者的区别在于是否使用到人脸这一特定对象的知识。
人脸检测,关键点定位,以及跟踪,常常结合在一起形成一个统一的整体,以获得对人脸位置、姿态和动作的完整表达。在对视频序列进行处理和分析的过程中,算法的准确性常常受到很多干扰因素的影响,例如光照条件的变化,人脸区域受到遮挡等。另外,当人脸位置、姿态或动作参数变化比较剧烈时,检测和跟踪的结果往往也会产生较大的误差。这些都是设计人脸及人脸动作检测和跟踪方法需要考虑的问题。
现有技术在人脸及人脸动作跟踪方面,仍然存在一些缺陷,制约着相关应用的实现。在跟踪精度方面,现有技术难以达到很高的精度,表现在对面部器官形状和动作细节的刻画能力不足。在跟踪的稳定性方面,当头部动作变化范围较大,或者运动速度过快,或者面部表情较大时,很多跟踪方法无法收敛到正确的结果。在实用性方面,现有技术对于检测、定位、跟踪这三者的结合,仍然缺少完整有效的解决方案。本发明针对这些问题,平衡各方面性能的需求,同时考虑到实际应用中对计算速度的要求,给出了有效的解决方法。
发明内容
本发明的目的在于提供一种基于视频流的人脸及人脸动作检测和实时跟踪的方法。三维可变形人脸网格的位置、姿态、形状和动作参数用来描述人脸和人脸动作。本发明提供的方法不需要对特定的使用者进行训练,不需要使用者手工参与,可以实现自动从视频流的前若干帧中检测出人脸及人脸关键点的位置,然后就可以在头部存在较大范围的转动,较高速度的运动,以及在较大程度的表情变化的情况下,进行人脸位置、姿态和动作的跟踪。唯一的限制是用户在视频流的起始阶段为正面姿态和中性表情。本发明提供的方法具有检测和跟踪准确,动作跟踪精细,实时性强的优点。
本发明提供的基于视频的人脸及人脸动作检测和跟踪方法,包括以下步骤:
(1)采用自动人脸检测和定位算法,对输入视频图像上人脸及人脸关键点位置进行检测和定位。人脸检测方法采用了Adaboost和Cascade结合的人脸分类器,人脸关键点定位采用了AAM算法。
(2)使用检测和定位的结果对三维可变形人脸网格模型的形状、位置和姿态进行初始化。包括以下步骤:
(21)使用将双眼和嘴巴中心三个点对齐的人脸样本,训练一个PCA人脸子空间,用于对检测和定位的结果进行评估;
(22)根据检测和定位的结果,采用最大化后验概率的方法,调整三维可变形人脸网格模型的形状、位置和姿态参数;
(23)根据三维可变形人脸网格的形状、位置和姿态参数,采用纹理映射的方法,计算出形状和动作无关纹理图像;
(24)使用(21)中所述的PCA人脸子空间,对二维形状和动作无关纹理图像进行评估;
(25)根据评估的结果,决定如何采用本次人脸检测和定位的结果对三维可变形人脸网格模型的形状、位置和姿态参数进行初始化。如果评估显示本次人脸检测和定位准确,则将这一结果记录下来,当准确检测和定位次数达到设定值时,使用所有已经记录的结果的均值对三维可变形人脸网格模型的形状、位置和姿态参数进行初始化。
(3)在对三维可变形人脸网格模型的形状、位置和姿态进行初始化的同时,初始化人脸纹理模型。包括以下步骤:
(31)建立人脸纹理模型为每个像素都符合高斯分布的灰度图像,并为每个像素设置可信度指标和初始化完成度指标。
(32)根据三维可变形人脸网格的形状、位置和姿态参数,采用纹理映射的方法,计算出形状和动作无关纹理图像;
(33)根据三维可变形人脸网格的形状、位置和姿态参数,计算出形状和动作无关纹理图像上每个像素的可信度指标。
(34)使用形状和动作无关纹理图像,设置人脸纹理模型中每个像素高斯分布的均值,设置每个像素的可信度指标,并根据可信度指标计算每个像素的初始化完成度指标。
(4)使用三维可变形人脸网格模型和人脸纹理模型,采用图像配准的方法,在视频图像序列中对人脸位置、姿态和动作进行实时跟踪。在图像配准过程中,使用人脸纹理模型上每个像素的可信度指标和初始化完成度指标,参与计算三维可变形人脸网格模型的位置、姿态和动作参数。每个像素的可信度指标是由对当前帧进行跟踪后的三维可变形人脸网格模型的姿态确定的。具体来说,是由三维可变形人脸网格上三角形面法线方向与图像平面法线方向的夹角确定的。
(5)使用人脸纹理模型和PCA人脸子空间,对实时跟踪的结果进行评估。进行评估时,使用人脸纹理模型上每个像素的可信度指标和初始化完成度指标,参与计算评估结果。每个像素的可信度指标是由对当前帧进行跟踪后的三维可变形人脸网格模型的姿态确定的。具体来说,是由三维可变形人脸网格上三角形面法线方向与图像平面法线方向的夹角确定的。
(6)根据评估结果,确定是否更新人脸纹理模型,是否在下一帧视频图像中重新进行人脸及人脸关键点的检测和定位,以及是否重新初始化人脸纹理模型。包括以下步骤:
(61)如果评估结果显示跟踪正确,则更新人脸纹理模型,并在下一帧中继续跟踪;否则,不更新人脸纹理模型,并累计跟踪不正确的次数。
(62)如果评估结果显示跟踪不正确,并且累计跟踪不正确的次数达到设定值,则重新进行人脸及人脸关键点的检测和定位,并在下一帧中使用这一检测和定位结果作为跟踪的初始值。
(63)如果评估结果显示跟踪不正确,并且累计跟踪不正确的次数达到另一设定值,则重新进行人脸及人脸关键点的检测和定位,重新初始化人脸纹理模型,并在下一帧中使用这一检测和定位结果作为跟踪的初始值。
本发明的有益效果:通过采用上述步骤,可以实现对视频流中的人脸及人脸动作的自动检测、定位和实时跟踪。在检测和定位阶段,使用PCA模型进行评估,保证了检测和定位的准确性。由于人脸纹理模型是在跟踪前的检测和定位阶段进行初始化的,所以不需要针对特定使用者进行提前训练的过程,可以适用于任何使用者。使用三维可变形人脸网格进行位置、姿态和动作的跟踪,可以适用于头部姿态和表情具有较大幅度变化的情况,动作跟踪精细。同时使用人脸纹理模型和PCA模型对每一帧跟踪的结果进行评估,保证了跟踪的准确性,以及在极端情况跟踪出现异常中断的时候能够采用重新检测和定位等方式重新恢复跟踪。在跟踪过程中实时更新人脸纹理模型,保证了跟踪算法对于光线变化具有一定鲁棒性。由于采用了隶属于人脸纹理模型每个像素可信度指标,本方法具有对姿态和表情变化的高度稳定性。
附图说明
图1为本发明的人脸及人脸动作检测和跟踪方法的流程图;
图2为本发明使用的AAM模型示意图;
图3为初始化三维人脸网格模型的形状、位置和姿态参数步骤的流程图;
图4为三维可变形人脸网格模型和坐标轴方向定义的示意图;
图5为为了确定三维可变形人脸网格模型的参数ρ而取的34个点的位置;
图6(a)~图6(d)为形状和动作无关纹理图像示意图;
图7(a)~图7(d)为形状和动作无关纹理图像每个像素对应的可信度指标ri的示意图;
图8为使用本发明提供的方法进行人脸及人脸动作跟踪示例。
具体实施方式
参见图1,本发明提供了一种人脸及人脸动作检测和跟踪方法,按照以下步骤实施,其中,步骤(1)~(3)为检测和定位阶段,发生在输入视频序列的前若干帧,步骤(4)~(6)为跟踪阶段,发生在后续视频序列的每一帧:
(1)采用自动人脸检测和定位算法,对输入视频图像上人脸及人脸关键点位置进行检测和定位。
人脸检测方法采用了Adaboost和Cascade结合的人脸分类器,这一方法根据文献(Viola P.,Rapid object detection using a Boostedcascade of simple features,In Proc IEEE Conference on ComputerVision and Pattern Recognition,pp:511-518,2001)中提出的算法实现为了方便专利审查,也为了帮助公众更直接地理解发明,对于那些就满足专利法第26条第3款(说明书应清楚、完整地描述发明)的要求而言必不可少的内容,不能采用引证其他文件或者本申请中其他段落的方式撰写,而应当将其具体内容写入说明书中。矩形Haar特征通过计算图像中相邻区域像素灰度差,对人脸图像的灰度分布进行表达。为了从大量特征中选择最具分类能力的有效特征,使用了基于Adaboost的统计学习算法在。为了提高人脸检测的速度,采用了层次结构,即,相对较少的弱分类器结合形成强分类器,多个强分类器串联进行分类,被前级强分类器判断为非人脸的图像不再输入后级分类器,只有被所有强分类器都判断为人脸的图像才作为人脸检测结果输出。
人脸关键点定位采用了AAM(Active Appearance Model)方法,这一方法根据文献(I.Matthews,S.Baker,Active Appearance ModelsRevisited,International Journal of Computer Vision,v60,n2,pp135-164,November,2004)中提出的算法实现为了方便专利审查,也为了帮助公众更直接地理解发明,对于那些就满足专利法第26条第3款(说明书应清楚、完整地描述发明)的要求而言必不可少的内容,不能采用引证其他文件或者本申请中其他段落的方式撰写,而应当将其具体内容写入说明书中。在这种方法中,形状模型和纹理模型用来表示人脸,每个模型都是由平均参数加上若干变化参数组成的。参数与人脸形状和纹理的对应关系由使用标定好的人脸图像进行的训练过程得出。在进行关键点定位时,为了提高速度,采用了反转合成图像对齐方法。
我们使用的AAM模型由87个关键点组成,见图2,将进行关键点定位后,这87个关键点在图像坐标系中的坐标记为PAAM,i=(xAAM,i,yAAM,i)T,i=0,...,86。采用320×240的彩色视频图像作为输入,转换为灰度图像后,使用上述方法进行人脸检测和关键点定位,完成一次人脸检测和人脸关键点定位的总时间小于100ms。
(2)使用检测和定位的结果对三维可变形人脸网格模型的形状、位置和姿态进行初始化在此处,不能采用“流程如图3所示”这样的表达方式,而应对照图3对整个流程进行详细的描述,以符合专利法实施细则第18条的规定。
我们使用的三维可变形人脸网格模型的示意图见图4,这一模型根据Candide-3模型(J.Ahlberg,CANDIDE-3-An Updated Parametrized Face,Dept.Elect.Eng.,Linkping Univ.,Sweden,2001,Tech.Rep.LiTH-ISY-R-2326.)修改而来。我们使用的三维可变形人脸网格模型在Candide-3模型的基础上增加了人脸两侧顶点和面的数量,以增强头部姿态变化较大条件下的跟踪稳定性;并且,网格模型上每一个三角形的三个顶点的编号都按照顺时针的次序重新进行了排列,可以在网格模型的参数变化后,计算出每个三角形面的法向方向。三维可变形人脸网格模型的形状可以用一个向量表示:g=(x1,y1,z1,...xn,yn,zn)T,其中n=121为网格顶点数量,(xi,yi,zi)T为网格顶点坐标,i=1,...,n,网格顶点用Pi表示,Pi=(xi,yi,zi)T g。网格模型的形状是可以变化的,即
其中为平均形状,SτS为形状变化增量,AτA为动作变化增量,前者描述网格模型针对不同的人脸在整体形状上的变化,如脸的高度,宽度,两眼的距离,鼻子、嘴的位置等,后者描述脸部动作(即表情)引起的网格形状的变化,如张嘴,皱眉等。S和A分别为形状变化和动作变化矩阵,矩阵的每一列都对应一种独立的变化模式。τS和τA分别为形状变化和动作变化系数向量,改变他们的值,就可以使网格形状g产生变化。
在本发明提供的方法中,形状变化系数τS是在检测和定位以后确定的,在跟踪过程中不再发生改变,除非跟踪失败,需要重新初始化网格模型;动作变化系数τA在跟踪过程中根据每一帧图像上人脸的动作进行调整,在检测和定位阶段,假设τA中的每个值都为0,即人脸为中性表情。人脸的动作跟踪的结果即由τA表达。另外,检测定位和跟踪阶段都需要确定人脸三维网格模型的位置和姿态参数,即对人脸位置和姿态跟踪的结果,用六个参数表示,分别为:模型绕依附于图像的直角坐标系三个坐标轴的旋转角度θx,θy,θz,模型在图像坐标系中的平移量tx,ty,以及将网格模型g变化到图像坐标系所需的尺度变换系数s。综上所述,在检测和定位阶段,需要确定的参数记为ρ=(θx,θy,θz,tx,ty,s,τS)T;在跟踪阶段,需要确定的参数记为b=(θx,θy,θz,tx,ty,s,τA)T。
为了将网格模型g变换到依附于图像的直角坐标系,即图像坐标系上,我们采用了弱投影变换:
(ui,vi)T=M(xi,yi,zi,1)T (2)
其中(ui,vi)T为网格模型第i个顶点在图像上的坐标,M为2×4的投影矩阵,由ρ的前6个分量确定。使用(1)和(2),就可以计算出任意位置、姿态、形状、动作参数下,三维可变形人脸网格模型的顶点在图像坐标上的位置。
根据图3所示的流程,首先,我们使用了799幅正面人脸图像,训练一个PCA人脸子空间模型。这些图像来自799个不同的人,处于不同的光照条件下。为了使子空间能够用较少的维数表达尽可能多的人脸纹理和光照变化,将所有人脸图像的双眼和嘴的中心的位置进行了对齐。在本发明提出的方法中,PCA人脸子空间模型用于判断人脸纹理是否为正常的人脸图像。这一判断依赖于下面定义的相似性测度:
其中M为PCA人脸子空间的维数,x为人脸纹理图像,e是使用PCA模型对输入人脸纹理进行近似时产生的重建误差,λi是PCA中M个最大的特征值,ζi是将人脸纹理投影到PCA人脸子空间时的投影系数,ρ*是训练PCA模型时,除了最大的M个特征值以外,其它特征值的算术平均值。
在使用人脸检测和关键点定位算法得到AAM模型所定义的人脸上87个关键点的坐标PAAM,i后,对三维可变形人脸网格模型的位置、姿态和形状参数进行初始化,即通过PAAM,i(i=0,...,86)确定向量ρ的值。为了实现这一目的,我们从AAM模型中和三维人脸网格模型中选择了34对具有相同定义的点对。相同定义的点对是指在两个模型中,两个点分别所处的相对于人脸器官的位置是相同的,例如都是左眼外眼角的点,或者都是左侧嘴角的点,等等。三维人脸网格模型上的这34个点的选取见图5,它们在图像平面上的坐标记为(uj,vj)T,j=0,...,33,可以通过(1)(2)计算出来。AAM模型上对应的34个点在图像平面上的坐标记为(sj,tj)T,j=0,...,33。(sj,tj)T可以根据定义,由PAAM,i计算出来,例如:
(s0,t0)T=PAAM,35
(s1,t1)T=PAAM,33
(s24,t24)T=(PAAM,57+PAAM,66)/2
(s25,t25)T=(PAAM,55+PAAM,56+PAAM,65)/3
最小化(uj,vj)T和(sj,tj)T之间的距离,就可以求出三维人脸网格模型的参数ρ,即最小化能量函数:
直接求使(4)最小化的ρ容易引起过拟合现象,因此,我们采取了一种最大化后验概率的方式,即在已知三维人脸网格模型上34个点的位置分布F的条件下,寻找合适的参数ρ最大化后验概率p(ρ|F)。根据贝叶斯公式,
p(ρ|F)~p(F|)P(ρ) (5)
要使(5)式最大化,只需要最小化
E=-2lnp(ρ|F)
为了求出使用牛顿迭代法:
ρ=ρ+λ(ρ*-ρ)
其中λ为大于0,远小于1的因子,ρ*由下式求得:
其中
根据检测和定位的结果,采用上述方法求出三维可变形人脸网格模型的形状、位置和姿态参数后,就可以采用纹理映射的方法,计算出形状和动作无关纹理图像。
将三维可变形人脸网格模型上的每个三角形面在输入图像上所覆盖的像素都映射到一幅图像上固定的位置,就形成了形状和动作无关纹理图像。称为形状和动作无关纹理图像的原因是,理想情况下,不论输入图像中的人脸是什么形状,做出什么动作,只要三维可变形人脸网格模型的参数τS和b是准确的,则映射后的图像上的人脸总是保持不变的,各个人脸器官只分布在固定的位置上。实际中,由于网格模型是一个三维模型,总有一些三角形面与图像平面成接近垂直的角度,在这种情况下,投影的结果会产生很大的变形。另外,当人脸网格模型存在较大的面外旋转时,一些三角形面的正方向(指向网格模型外的方向)与图像平面向外的法线方向的夹角大于90度,这些三角形面投影得到的像素也是没有用处的。所以,在使用形状和动作无关纹理图像时,需要考虑到三角形面角度变化引起的图像变形问题。图6是一些网格参数和对应的形状和动作无关纹理图像的例子,其中图6(a)、图6(b)和图6(c)为参数正确的情况,图6(d)为参数不正确的情况。可以看出,当参数正确时,在人脸的正面部分,纹理图像基本是动作无关的。
根据输入图像和三维可变形人脸网格模型的参数计算形状和动作无关纹理图像的过程可以用下面的式子表示:
x=W(y,τS,b) (6)
其中x为形状和动作无关纹理图像,y为输入的视频图像。在跟踪过程中,由于τS是固定不变的,所以映射过程可以简化为
x=W(y,b) (7)
在计算形状和动作无关纹理图像时,由于图像上每个像素点属于哪个三角形面,以及在三角形面中的相对位置是什么,是固定的,所以可以提前计算出来。即保存形状和动作无关纹理图像上每个像素点的对应的三角形面编号,以及到三角形三个顶点的相对距离,在进行(6)或(7)的计算时,直接使用这些保存的数据,找到形状和动作无关纹理图像上每个像素在输入图像上对应的坐标位置,使用输入图像上这个坐标位置周围的像素进行插值,或者使用输入图像上距离这个位置最近的像素的值作为输出,可以显著提高计算速度。
在计算形状和动作无关纹理图像时,由于图像上每个像素点属于哪个三角形面是确定的,所以可以根据当前形状、姿态、动作参数下的人脸三维网格模型形状g,计算出每个像素点所属的三角形面的法线方向。前面提到,这一方向与图像平面向外的法线方向之间的夹角越小,则投影之后像素的值具有越高的准确性或可用性。将形状和动作无关纹理图像上每一像素都具有的这种属性称为可信度指标,用ri表示,则有
由(8)式计算出的可信度指标ri将在后面的步骤中使用,可以起到增强跟踪算法对头部姿态变化鲁棒性的作用。图7(a)~图7(d)是可信度指标ri的示意图,每组图像右侧的较小图像表示左侧图像中网格状态下对应的形状和动作无关纹理图像上每个像素的可信度指标,亮度越高表示可信度指标越大。
得到形状和动作无关纹理图像后,就可以使用(3)式,对其与人脸子空间的接近程度进行评估。如果(3)式计算的结果大于设定值,说明形状和动作无关纹理图像是正常人脸,进而说明前面人脸检测和关键点定位的结果是准确的;反之,则说明前面人脸检测和关键点定位的结果是不准确的。
根据图3的流程,需要将人脸检测及关键点定位,计算三维人脸网格模型参数,计算形状和动作无关纹理图像,以及对其进行评估这样的过程执行多次。每次执行一遍后,如果评估结果显示人脸检测及关键点定位的结果是正确的,则将这次的三维人脸网格模型参数保存下来。当人脸检测及关键点定位结果正确的次数大于某个设定值,例如5次后,则认为检测和定位阶段结束,对这5次正确检测和定位时的三维人脸网格模型参数计算平均值,作为这一步最终输出的人脸网格模型的形状、位置和姿态参数。后面的跟踪过程以这一组位置和姿态参数值为初值,而人脸网格模型的形状参数将保持不变。
(3)初始化人脸纹理模型。
人脸纹理模型是一幅与形状和动作无关纹理图像同样尺寸的图像,图像上的每个像素都符合高斯分布N(μi,σi),并且带有另外一个属性:初始化完成度指标βi,0≤βi≤1。在本文中,人脸纹理模型有时也指μi组成的图像。
前面已经提到,如果三维可变形人脸网格模型对人脸位置、姿态、动作的跟踪是正确的,则在形状和动作无关纹理图像中可信度指标较高的部分,像素亮度分布是基本保持不变的。这种相对不变性就用人脸纹理模型来描述,即用每个像素亮度的高斯分布N(μi,σi)来描述。
人脸纹理模型在跟踪阶段发挥作用,但是要在检测和定位阶段就开始进行初始化,并在跟踪过程中不断更新。在步骤(2)中,已经使用PCA人脸子空间对若干次人脸检测和定位的结果进行了评估,取其中用(3)式计算出的相似性测度最高的形状和动作无关纹理图像,令人脸纹理模型的μi等于此形状和动作无关纹理图像,及
μi=xi (9)
并令
βi=kri (10)
其中,k为大于0,小于1的常数,ri为用(8)式计算出的可信度指标。人脸纹理模型的σi表示每帧跟踪时获得的形状和动作无关纹理图像中,每个像素亮度变化的剧烈程度。在初始化时,可以将它们设置为一个相同的值,例如0.02(用0~1的浮点数表示亮度),然后在跟踪的过程中进行更新;也可以让系统试运行一段时间,得到更新比较稳定后的σi,作为最终设计完成的系统的σi的初始值,然后同样在跟踪的过程中进行更新。
经过人脸纹理模型的初始化后,可以想象,由于检测和定位阶段发生在视频流的前若干帧,前面假设这时人脸处在正面姿态,所以,形状和动作无关纹理图像中间部分的可信度指标接近于1,两侧部分的可信度指标接近于0。如果(10)式中的k取值为1,则初始化后的人脸纹理模型中间部分的初始化完成度指标βi接近于1,两侧部分的初始化完成度指标接近于0。在后面的步骤(6)中可以看到,初始化完成度指标决定着人脸纹理模型每一个像素点模型参数的更新速度,也就是说,人脸纹理模型中间部分在跟踪过程中的更新速度将会比较慢,而两侧部分的更新速度将在开始的一段时间内将会比较快,直到它们对应的初始化完成度指标也接近1。人脸纹理模型两侧部分的更新主要发生在头部绕y轴发生旋转的时候。
经过前面步骤,检测和定位阶段结束,人脸纹理模型已经建立起来。在后续的每一帧中,除非发生跟踪中断的特殊情况,都使用三维可变形人脸网格模型和人脸纹理模型,对视频序列中的人脸的位置、姿态和动作参数b进行跟踪,即进入了跟踪阶段。
(4)使用三维可变形人脸网格模型和人脸纹理模型,采用图像配准的方法,在视频图像序列中对人脸位置、姿态和动作进行实时跟踪。
前面已经提到,如果三维可变形人脸网格模型对人脸位置、姿态、动作的跟踪是正确的,则在形状和动作无关纹理图像中可信度指标较高的部分,像素亮度分布是基本保持不变的,即符合人脸纹理模型。所以,可以利用这种不变性,对人脸网格模型参数b进行跟踪,即求使下面的损失函数最小的参数bt,下标t表示是在当前时刻t输入的图像上进行跟踪:
其中N为形状和动作无关纹理图像中的像素数。暂时不考虑可信度指标的问题,使(11)式最小的bt,可以使下式成立:
x(bt)≈μt-1 (12)
其中x(bt)根据(7)式计算:
x(bt)=W(yt,bt) (13)
考虑到bt是在bt-1上变化得到的,对W(yt,bt)在bt-1处进行一阶泰勒展开,得:
W(yt,bt)≈W(yt,bt-1)+Gt(bt-bt-1) (14)
其中Gt是梯度矩阵:
结合(12)(13)(14)式,可得:
μt-1≈W(yt,bt-1)+Gt(bt-bt-1)
所以,
令
其中,Gt #为Gt的伪逆矩阵, 使用(16)式中的Δb,可以对参数b进行更新:
b′=b+ρΔb (17)
e′=e(b′) (18)
其中ρ为0到1之间的实数。如果e′小于e,则用(17)式更新参数b,然后继续(16)(17)(18)的迭代过程,直到达到设定的收敛条件。如果e′不小于e,则尝试在(17)式中使用较小的ρ。如果ρ取很小仍不能使误差减小,也认为达到了收敛条件,从而完成对参数b的更新。
在(16)式中,没有考虑到遮挡问题。遮挡的结果是使(16)式中的(W(yt,bt-1)-μt-1)项在某些像素点产生很大的值,这种偏差不是正常的人脸运动和动作引起的,所以会对Δb的计算产生不利影响。采用一个N×N的对角矩阵Lt对每个像素的偏差部分进行加权,可以在一定程度上去除遮挡的影响。Lt对角线上第i个元素的计算公式为:
其中
所以,(16)式变成
在(20)式中,没有考虑到形状和动作无关纹理图像中可信度指标的问题。为了使可信度指标低的点不对Δb的计算产生影响,采用一个N×N的对角矩阵Kt对每个像素的偏差部分进行加权。Kt对角线上第i个元素的计算公式为:
Kt(i)=ki=riβi (21)
其中ri根据(8)式计算,βi由(10)式初始化,跟踪过程中的更新方法将在下面的步骤(6)中进行介绍。所以,(20)式变成
(22)式是计算参数更新的最终公式。
在判断迭代是否收敛时,要考察由(11)式决定的误差是否减小。考虑到形状和动作无关纹理图像中可信度指标的问题,同样需要对e的计算方法进行加权:
其中ki由(21)式决定。
在上述迭代计算参数b的过程中,需要根据(15)式计算形状和动作无关纹理图像对参数b的梯度矩阵Gt。Gt的每一列都有N个元素,对应b的一个分量。将Gt的第j列记为Gj,则Gj为形状和动作无关纹理图像对参数b的第j个分量的梯度向量。在实际中,使用数值差分的方法计算Gj:
其中数字δ是一个适当的差分步长,qj是一个长度和b相同的向量,第j个分量为1,其它分量都为0。为了获得更高的计算精度,采用使用多个不同的步长计算差分再取平均的方法计算Gj:
其中数字δj为围绕参数b的第j个分量计算差分时取的最小步长,K是要取的不同步长的次数,例如可取6或者8。
容易看出,在使用(25)式计算梯度矩阵Gt的过程中,需要多次使用(7)式计算形状和动作无关纹理图像。例如当参数b的维数为12,K取8时,计算一次Gt就需要使用96次(7)式。在对一帧视频图像进行处理时,迭代往往要进行多次才能收敛,假如使用(22)式的次数为5次,则需要96×5=480次使用(7)式计算形状和动作无关纹理图像,这会带来较大的计算负担。事实上,在一般的跟踪过程中,使用者常常不会做出使参数b的所有分量都发生显著变化的动作,Gt中的一些列,即一些形状和动作无关纹理图像对参数b分量的梯度向量,在相邻的帧之间变化很小,可以利用这一特点,减少对Gt中的一些列的计算。我们使用的方法是,考虑到参数b的每个分量只对形状和动作无关纹理图像中的部分区域产生影响,在计算Gj时,对W(yt,bt-1)和W(yt-1,bt-2)这两幅图像中会受到参数b的第j个分量影响的部分进行比较,即计算两幅图像这部分区域上的均方误差。如果误差小于某个设定值,则不再重新计算Gj,而是继续使用上一帧跟踪时用过的Gj。使用这种方法,即使对于使用者不停地做出各种头部运动和面部动作的视频,也能减小计算Gt时的计算量30%以上。如果视频中目标的动作较少,还可以将计算量减少得更多。
经过步骤(4),完成了对人脸位置、姿态和动作参数的跟踪。
(5)使用人脸纹理模型和PCA人脸子空间,对实时跟踪的结果进行评估。
评估的目的是判断对这一帧视频图像中的人脸及人脸动作的跟踪是否准确,如果准确,则更新人脸纹理模型,继续跟踪;如果不准确,则需要做出相应的处理。评估中,使用了两个独立的模型,即人脸纹理模型和PCA人脸子空间模型,同时使用两个模型可以使评估的结果更加准确。
对于人脸纹理模型,首先根据在上一步中对人脸及人脸动作跟踪的结果,即参数b,使用(7)(8)式计算出形状和动作无关纹理图像和可信度指标,然后使用(23)式,计算形状和动作无关纹理图像与人脸纹理模型的偏差。如果偏差小于设定值,则认为跟踪成功,否则认为跟踪失败。
对于PCA人脸子空间模型,同样先使用(7)式计算出形状和动作无关纹理图像。为了克服头部左右旋转角度较大时引发的外侧图像变形,设置当θy的绝对值大于20度时,就将图像变形较小的一侧的形状和动作无关纹理图像作水平镜像翻转,取代另一侧变形较大的部分,形成修正的形状和动作无关纹理图像。对形状和动作无关纹理图像使用(3)式计算与PCA人脸子空间的相似性测度,如果结果大于设定值,则认为跟踪成功,否则认为跟踪失败。
当采用两个模型评估的结果都为跟踪成功时,最终认定跟踪成功,否则认定跟踪失败。
(6)根据评估结果,确定是否更新人脸纹理模型,是否在下一帧视频图像中重新进行人脸及人脸关键点的检测和定位,以及是否重新初始化人脸纹理模型。
参见图1所示。在这一步骤中,设置了一个连续跟踪失败次数计数器和两个判断跟踪中断的阈值,称为设定值L和设定值H。设定值L和设定值H是根据连续出现跟踪失败的次数,判断是否出现跟踪中断的阈值。设定值H大于设定值L。如果上一步的评估结果显示跟踪正确,则将连续跟踪失败次数计数器清0,更新人脸纹理模型,并在下一帧中继续跟踪;否则,将连续跟踪失败次数计数器加1。如果连续跟踪失败次数计数器的值达到了设定值L,则认为发生了对同一个人跟踪过程中的跟踪中断。这时,被跟踪的对象没有改变,也就是三维可变形人脸网格模型的形状参数τS和人脸纹理模型都不需改变,只需要重新找到人脸的位置和姿态。所以,重新进行人脸及人脸关键点的检测和定位,并在下一帧中使用这一检测和定位结果作为跟踪的初始值。如果连续跟踪失败次数计数器的值达到了设定值H,则认为产生跟踪中断的原因是被跟踪的对象发生了改变,这时,三维可变形人脸网格模型的形状参数τS和人脸纹理模型都需要改变。所以,重新进行人脸及人脸关键点的检测和定位,重新初始化人脸纹理模型,并在下一帧中使用这一检测和定位结果作为跟踪的初始值。
在跟踪过程中,如果评估显示跟踪正确,则需要更新人脸纹理模型,其意义是:当光照条件发生缓慢变化时,更新人脸纹理模型可以克服关照变化带来的影响;只有当头部绕y轴发生旋转时,形状和动作无关纹理图像中两侧的区域的值才有意义,通过人脸纹理模型的更新过程,可以将这部分纹理保存下来,增强头部姿态变化较大时跟踪的稳定性。当从t时刻过渡到t+1时刻时,人脸纹理模型的更新按照下面方式进行:
μi(t+1)=(1-αi)μi(t)+αixi(t) (27)
βi(t+1)=βi(t)+kαiri (29)
其中αi为更新速度系数。当t小于等于某一设定值,例如30时,t*=t,当t大于这一设定值时,t*保持不变。ri为使用(8)式计算出的可信度指标。xi为形状和动作无关纹理图像。k为一个0到1之间的实数,控制着初始化完成度指标βi的增长速度。βi被限制在不超过1的范围内。在更新人脸纹理模型的时候,也应该考虑到遮挡等因素,因为如果人脸纹理模型被不正常地更新,将会对后续跟踪过程产生非常不利的影响。因此需要使用类似于(19)式的方式,先计算形状和动作无关纹理图像与人脸纹理模型的差别,对于那些差别大于设定值的像素,认为是遮挡等特殊原因造成的,不对相应的人脸纹理模型中的像素参数进行更新。
本发明提供的人脸动作自动检测和实时跟踪方法,可以在视频中自动检测人脸位置,并对人脸位置、姿态和动作进行实时准确的跟踪。在对姿态跟踪方面,可以稳定跟踪头部在面内任意角度转动,面外左右方向转动±45度以上,面外上下方向转动±30度以上。在面部动作方面,可以准确跟踪嘴部动作和眉毛动作,用动作参数向量τA的形式表达出张嘴,闭嘴,微笑,大笑,噘嘴,抿嘴,嘴角下垂,抬眉,皱眉等动作细节。图8是对一段视频中的人脸动作进行跟踪的截图,共有9组,每组图像右侧的4幅小图像从上至下依次为人脸纹理模型的均值,当前帧的形状和动作无关纹理图像,人脸纹理模型的初始化完成度指标,以及当前形状和动作无关纹理图像对应的可信度指标。本方法中的检测、定位和跟踪可以对任何使用者进行,不需要针对特定使用者的训练过程。检测和定位快速,跟踪可以满足实时性要求,对光照和遮挡等具有一定的鲁棒性。在跟踪中断之后,可以自动恢复。此方法在人机交互,表情分析,游戏娱乐等领域具有较高的实用价值和广泛的应用前景。
以上所述,仅为本发明中的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉该技术的人在本发明所揭露的技术范围内,可轻易想到的变换或替换,都应涵盖在本发明的包含范围之内。因此,本发明的保护范围应该以权利要求书的保护范围为准。
Claims (6)
1.一种基于视频流的三维人脸动作检测和跟踪方法,其特征在于,包括以下步骤:
(1)采用自动人脸检测和人脸关键点定位算法,对输入视频图像上人脸及人脸关键点位置进行检测和定位;所述人脸检测采用了Adaboost和Cascade结合的人脸分类器;所述人脸关键点定位算法采用了AAM算法;
(2)使用检测和定位的结果对三维可变形人脸网格模型的形状、位置和姿态进行初始化;
(3)在对三维可变形人脸网格模型的形状、位置和姿态进行初始化的同时,初始化人脸纹理模型;
(4)使用三维可变形人脸网格模型和人脸纹理模型,采用图像配准的方法,在视频图像序列中对人脸位置、姿态和动作进行实时跟踪;
(5)使用人脸纹理模型和PCA人脸子空间,对实时跟踪的结果进行评估;
(6)根据评估结果,确定是否更新人脸纹理模型,是否在下一帧视频图像中重新进行人脸及人脸关键点的检测和定位,以及是否重新初始化人脸纹理模型;
所述步骤(2)包括:
(21)使用将双眼和嘴巴中心三个点对齐的人脸样本,训练一个PCA人脸子空间,用于对检测和定位的结果进行评估;
(22)根据检测和定位的结果,采用最大化后验概率的方法,调整三维可变形人脸网格模型的形状、位置和姿态参数;
(23)根据三维可变形人脸网格的形状、位置和姿态参数,采用纹理映射的方法,计算出形状和动作无关纹理图像;
(24)使用(21)中所述的PCA人脸子空间,对二维形状和动作无关纹理图像进行评估;
(25)根据评估的结果,决定如何采用本次人脸检测和定位的结果对三维可变形人脸网格模型的形状、位置和姿态参数进行初始化;
所述步骤(6)包括:
(61)如果评估结果显示跟踪正确,则更新人脸纹理模型,并在下一帧中继续跟踪;否则,不更新人脸纹理模型,并累计跟踪不正确的次数;
(62)如果评估结果显示跟踪不正确,并且累计跟踪不正确的次数达到设定值,则重新进行人脸及人脸关键点的检测和定位,并在下一帧中使用这一检测和定位结果作为跟踪的初始值;
(63)如果评估结果显示跟踪不正确,并且累计跟踪不正确的次数达到另一设定值,则重新进行人脸及人脸关键点的检测和定位,重新初始化人脸纹理模型,并在下一帧中使用这一检测和定位结果作为跟踪的初始值。
2.如权利要求1所述的方法,其特征在于,所述步骤(3)包括:
(31)建立人脸纹理模型为每个像素都符合高斯分布的灰度图像,并为每个像素设置可信度指标和初始化完成度指标;
(32)根据三维可变形人脸网格的形状、位置和姿态参数,采用纹理映射的方法,计算出形状和动作无关纹理图像;
(33)根据三维可变形人脸网格的形状、位置和姿态参数,计算出形状和动作无关纹理图像上每个像素的可信度指标;
(34)使用形状和动作无关纹理图像,设置人脸纹理模型中每个像素高斯分布的均值,设置每个像素的可信度指标,并根据可信度指标计算每个像素的初始化完成度指标。
3.如权利要求1所述的方法,其特征在于,所述步骤(4)在使用图像配准的方法时,使用人脸纹理模型上每个像素的可信度指标和初始化完成度指标,参与计算三维可变形人脸网格模型的位置、姿态和动作参数。
4.如权利要求1所述的方法,其特征在于,所述步骤(5)在对实时跟踪的结果进行评估时,使用人脸纹理模型上每个像素的可信度指标和初始化完成度指标,参与计算评估结果。
5.如权利要求1所述的方法,其特征在于,所述步骤(25)包括:如果评估的结果显示本次人脸检测和定位的结果是正确的,则记录下这一结果;当正确检测的次数达到设定值后,对所有结果进行平均,得到三维可变形人脸网格的形状、位置和姿态参数初始值。
6.如权利要求3或4所述的方法,其特征在于,所述每个像素的可信度指标是由对当前帧进行跟踪后的三维可变形人脸网格上三角形面的法线方向与图像平面的法线方向的夹角确定的。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2008100571835A CN101499128B (zh) | 2008-01-30 | 2008-01-30 | 基于视频流的三维人脸动作检测和跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2008100571835A CN101499128B (zh) | 2008-01-30 | 2008-01-30 | 基于视频流的三维人脸动作检测和跟踪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN101499128A CN101499128A (zh) | 2009-08-05 |
CN101499128B true CN101499128B (zh) | 2011-06-29 |
Family
ID=40946197
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2008100571835A Expired - Fee Related CN101499128B (zh) | 2008-01-30 | 2008-01-30 | 基于视频流的三维人脸动作检测和跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN101499128B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11595617B2 (en) | 2012-04-09 | 2023-02-28 | Intel Corporation | Communication using interactive avatars |
Families Citing this family (46)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101763636B (zh) * | 2009-09-23 | 2012-07-04 | 中国科学院自动化研究所 | 视频序列中的三维人脸位置和姿态跟踪的方法 |
CN102103694B (zh) * | 2009-12-21 | 2012-10-17 | 展讯通信(上海)有限公司 | 基于视频的人脸实时检测方法及其装置 |
US9396539B2 (en) | 2010-04-02 | 2016-07-19 | Nokia Technologies Oy | Methods and apparatuses for face detection |
CN102479388A (zh) * | 2010-11-22 | 2012-05-30 | 北京盛开互动科技有限公司 | 基于人脸跟踪和分析的表情互动方法 |
KR101257207B1 (ko) * | 2012-02-23 | 2013-04-22 | 인텔 코오퍼레이션 | 헤드 트래킹 방법, 장치 및 컴퓨터 판독 가능한 기록 매체 |
CN103530900B (zh) * | 2012-07-05 | 2019-03-19 | 北京三星通信技术研究有限公司 | 三维人脸模型的建模方法、人脸跟踪方法以及设备 |
CN103854306A (zh) * | 2012-12-07 | 2014-06-11 | 山东财经大学 | 一种高真实感的动态表情建模方法 |
WO2014205768A1 (zh) * | 2013-06-28 | 2014-12-31 | 中国科学院自动化研究所 | 基于增量主成分分析的特征与模型互匹配人脸跟踪方法 |
CN104765739B (zh) * | 2014-01-06 | 2018-11-02 | 南京宜开数据分析技术有限公司 | 基于形状空间的大规模人脸数据库检索方法 |
US10586570B2 (en) | 2014-02-05 | 2020-03-10 | Snap Inc. | Real time video processing for changing proportions of an object in the video |
CN103886317B (zh) * | 2014-03-28 | 2017-01-11 | 合肥工业大学 | 一种基于人脸表情图像的局部特征表征方法 |
CN104077804B (zh) * | 2014-06-09 | 2017-03-01 | 广州嘉崎智能科技有限公司 | 一种基于多帧视频图像构建三维人脸模型的方法 |
WO2016074128A1 (en) * | 2014-11-10 | 2016-05-19 | Intel Corporation | Image capturing apparatus and method |
WO2016101124A1 (en) | 2014-12-23 | 2016-06-30 | Intel Corporation | Sketch selection for rendering 3d model avatar |
US9799133B2 (en) | 2014-12-23 | 2017-10-24 | Intel Corporation | Facial gesture driven animation of non-facial features |
WO2016101131A1 (en) | 2014-12-23 | 2016-06-30 | Intel Corporation | Augmented facial animation |
US10116901B2 (en) | 2015-03-18 | 2018-10-30 | Avatar Merger Sub II, LLC | Background modification in video conferencing |
CN104899575A (zh) * | 2015-06-19 | 2015-09-09 | 南京大学 | 一种基于人脸检测和关键点定位的人体组件划分方法 |
CN106558042B (zh) * | 2015-09-29 | 2020-03-31 | 阿里巴巴集团控股有限公司 | 一种对图像进行关键点定位的方法和装置 |
US10475225B2 (en) | 2015-12-18 | 2019-11-12 | Intel Corporation | Avatar animation system |
CN106933339A (zh) * | 2015-12-31 | 2017-07-07 | 掌赢信息科技(上海)有限公司 | 一种眼球驱动方法及电子设备 |
CN105608446B (zh) * | 2016-02-02 | 2019-02-12 | 北京大学深圳研究生院 | 一种视频流异常事件的检测方法及装置 |
CN106295567B (zh) * | 2016-08-10 | 2019-04-12 | 腾讯科技(深圳)有限公司 | 一种关键点的定位方法及终端 |
CN106327571B (zh) * | 2016-08-23 | 2019-11-05 | 北京的卢深视科技有限公司 | 一种三维人脸建模方法及装置 |
CN107145863A (zh) * | 2017-05-08 | 2017-09-08 | 湖南科乐坊教育科技股份有限公司 | 一种人脸定位方法及系统 |
CN107145864A (zh) * | 2017-05-08 | 2017-09-08 | 湖南科乐坊教育科技股份有限公司 | 一种专注力评估方法及系统 |
CN107609497B (zh) * | 2017-08-31 | 2019-12-31 | 武汉世纪金桥安全技术有限公司 | 基于视觉跟踪技术的实时视频人脸识别方法及系统 |
CN107818310B (zh) * | 2017-11-03 | 2021-08-06 | 电子科技大学 | 一种基于视线的驾驶员注意力检测方法 |
CN108154088B (zh) * | 2017-12-11 | 2021-01-01 | 深圳市云之梦科技有限公司 | 一种导购机检测侧脸的方法及系统 |
CN109933083B (zh) * | 2017-12-15 | 2022-04-05 | 翔升(上海)电子技术有限公司 | 基于无人机的放牧方法、装置和系统 |
CN108282650B (zh) * | 2018-02-12 | 2019-12-24 | 深圳超多维科技有限公司 | 一种裸眼立体显示方法、装置、系统及存储介质 |
CN108809400B (zh) * | 2018-03-05 | 2019-04-30 | 龙大(深圳)网络科技有限公司 | 狭窄空间网络中继系统 |
CN111684460B (zh) * | 2018-04-27 | 2023-09-22 | 上海趋视信息科技有限公司 | 检测人类对象的姿态的系统和方法 |
CN111027350A (zh) * | 2018-10-10 | 2020-04-17 | 成都理工大学 | 一种基于人脸三维重建的改进pca算法 |
CN109684920B (zh) * | 2018-11-19 | 2020-12-11 | 腾讯科技(深圳)有限公司 | 物体关键点的定位方法、图像处理方法、装置及存储介质 |
CN109934847B (zh) * | 2019-03-06 | 2020-05-22 | 视辰信息科技(上海)有限公司 | 弱纹理三维物体姿态估计的方法和装置 |
CN110047121B (zh) * | 2019-03-20 | 2023-08-11 | 北京字节跳动网络技术有限公司 | 端到端的动画生成方法、装置及电子设备 |
CN110059637B (zh) * | 2019-04-22 | 2021-03-30 | 上海云从企业发展有限公司 | 一种人脸对齐的检测方法及装置 |
CN110569724B (zh) * | 2019-08-05 | 2021-06-04 | 湖北工业大学 | 一种基于残差沙漏网络的人脸对齐方法 |
CN111836072B (zh) * | 2020-05-21 | 2022-09-13 | 北京嘀嘀无限科技发展有限公司 | 视频处理方法、装置、设备和存储介质 |
CN111601088B (zh) * | 2020-05-27 | 2021-12-21 | 大连成者科技有限公司 | 一种基于单目摄像头坐姿识别技术的坐姿监控系统 |
CN112215088B (zh) * | 2020-09-21 | 2022-05-03 | 电子科技大学 | 一种视频中舱门残缺形状的跟踪方法 |
CN113780120A (zh) * | 2021-08-27 | 2021-12-10 | 深圳云天励飞技术股份有限公司 | 生成人体三维模型的方法、装置、服务器和存储介质 |
CN113642545B (zh) * | 2021-10-15 | 2022-01-28 | 北京万里红科技有限公司 | 一种基于多任务学习的人脸图像处理方法 |
CN114255307A (zh) * | 2021-12-08 | 2022-03-29 | 中国联合网络通信集团有限公司 | 虚拟人脸的控制方法、装置、设备及存储介质 |
CN114863506B (zh) * | 2022-03-18 | 2023-05-26 | 珠海优特电力科技股份有限公司 | 准入权限的验证方法、装置、系统和身份认证终端 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1717695A (zh) * | 2002-11-29 | 2006-01-04 | 索尼英国有限公司 | 脸部检测及跟踪 |
CN1794264A (zh) * | 2005-12-31 | 2006-06-28 | 北京中星微电子有限公司 | 视频序列中人脸的实时检测与持续跟踪的方法及系统 |
US7127081B1 (en) * | 2000-10-12 | 2006-10-24 | Momentum Bilgisayar, Yazilim, Danismanlik, Ticaret, A.S. | Method for tracking motion of a face |
CN1924894A (zh) * | 2006-09-27 | 2007-03-07 | 北京中星微电子有限公司 | 多姿态人脸检测与追踪系统及方法 |
-
2008
- 2008-01-30 CN CN2008100571835A patent/CN101499128B/zh not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7127081B1 (en) * | 2000-10-12 | 2006-10-24 | Momentum Bilgisayar, Yazilim, Danismanlik, Ticaret, A.S. | Method for tracking motion of a face |
CN1717695A (zh) * | 2002-11-29 | 2006-01-04 | 索尼英国有限公司 | 脸部检测及跟踪 |
CN1794264A (zh) * | 2005-12-31 | 2006-06-28 | 北京中星微电子有限公司 | 视频序列中人脸的实时检测与持续跟踪的方法及系统 |
CN1924894A (zh) * | 2006-09-27 | 2007-03-07 | 北京中星微电子有限公司 | 多姿态人脸检测与追踪系统及方法 |
Non-Patent Citations (2)
Title |
---|
郭志波等.一类视频序列中的人脸检测与实时跟踪算法.《计算机工程与应用》.2007,190-192. * |
黄超等.基于Adaboost的快速人脸跟踪算法.《计算机工程》.2004,第30卷373-374. * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11595617B2 (en) | 2012-04-09 | 2023-02-28 | Intel Corporation | Communication using interactive avatars |
Also Published As
Publication number | Publication date |
---|---|
CN101499128A (zh) | 2009-08-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN101499128B (zh) | 基于视频流的三维人脸动作检测和跟踪方法 | |
CN101369346B (zh) | 一种视频运动目标自适应窗口的跟踪方法 | |
CN101964064B (zh) | 一种人脸比对方法 | |
CN103310204B (zh) | 基于增量主成分分析的特征与模型互匹配人脸跟踪方法 | |
CN101763636B (zh) | 视频序列中的三维人脸位置和姿态跟踪的方法 | |
Prisacariu et al. | Nonlinear shape manifolds as shape priors in level set segmentation and tracking | |
Agarwal et al. | Tracking articulated motion using a mixture of autoregressive models | |
CN101777116B (zh) | 一种基于动作跟踪的脸部表情分析方法 | |
CN101968846B (zh) | 一种人脸跟踪方法 | |
CN104200494B (zh) | 一种基于光流的实时视觉目标跟踪方法 | |
CN102402691A (zh) | 一种对人脸姿态和动作进行跟踪的方法 | |
CN103514441A (zh) | 基于移动平台的人脸特征点定位跟踪方法 | |
CN102376100A (zh) | 基于单张照片的人脸动画方法 | |
Li et al. | Modelling faces dynamically across views and over time | |
CN101216882A (zh) | 一种人脸眼角与嘴角定位与跟踪的方法及装置 | |
CN106408591A (zh) | 一种抗遮挡的目标跟踪方法 | |
Rogez et al. | A spatio-temporal 2D-models framework for human pose recovery in monocular sequences | |
CN105608710A (zh) | 一种非刚性人脸检测和追踪定位方法 | |
CN105321188A (zh) | 基于前景概率的目标跟踪方法 | |
CN105426882A (zh) | 一种人脸图像中快速定位人眼的方法 | |
CN106780564A (zh) | 一种基于先验模型约束的抗干扰轮廓跟踪方法 | |
CN103593639A (zh) | 嘴唇检测和跟踪方法及设备 | |
US20050074148A1 (en) | Face tracking | |
CN109670401A (zh) | 一种基于骨骼运动图的动作识别方法 | |
CN102663773A (zh) | 视频目标的双核式自适应融合跟踪方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20110629 Termination date: 20190130 |