CN104318264A - 一种基于人眼优先拟合的人脸特征点跟踪方法 - Google Patents

一种基于人眼优先拟合的人脸特征点跟踪方法 Download PDF

Info

Publication number
CN104318264A
CN104318264A CN201410543159.8A CN201410543159A CN104318264A CN 104318264 A CN104318264 A CN 104318264A CN 201410543159 A CN201410543159 A CN 201410543159A CN 104318264 A CN104318264 A CN 104318264A
Authority
CN
China
Prior art keywords
human eye
face
algorithm
human
matching
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201410543159.8A
Other languages
English (en)
Other versions
CN104318264B (zh
Inventor
吴怀宇
钟锐
吴若鸿
李威凌
程果
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuhan University of Science and Engineering WUSE
Original Assignee
Wuhan University of Science and Engineering WUSE
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan University of Science and Engineering WUSE filed Critical Wuhan University of Science and Engineering WUSE
Priority to CN201410543159.8A priority Critical patent/CN104318264B/zh
Publication of CN104318264A publication Critical patent/CN104318264A/zh
Application granted granted Critical
Publication of CN104318264B publication Critical patent/CN104318264B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/169Holistic features and representations, i.e. based on the facial image taken as a whole
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Human Computer Interaction (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Image Analysis (AREA)

Abstract

本发明提出了一种基于人眼优先拟合的人脸特征点跟踪方法,其特征在于:包含了人脸姿态估计与更新、人眼的检测与跟踪以及基于反向合成算法的人眼优先拟合与人脸剩余部件的拟合步骤:本发明解决了在人脸特征点跟踪时,人脸姿态出现大幅度偏转、人脸模型的初始位置与目标位置偏离较大时,出现人脸特征点跟踪丢失,跟踪准确低等问题,提高了视频人脸特征点跟踪的准确性、实时性和鲁棒性。

Description

一种基于人眼优先拟合的人脸特征点跟踪方法
技术领域
本发明涉及图像模式识别领域,尤其涉及一种基于人眼优先拟合的人脸特征点跟踪方法。
背景技术
人脸特征点跟踪在人机交互、视频监控等领域得到了广泛的应用,成为当前计算机视觉研究领域中研究热点。传统的人脸跟踪技术是对目标人脸所在每一帧的位置进行标记,而人脸特征点的跟踪不仅能确定目标人脸的位置,同时还能够准确的描述人脸各部件特征点的位置。目前人脸特征点的定位与跟踪主要采用的是主动外观模型(Active Appearance Model,AAM)并此基础上研究人员进行了大量的改进,在人脸与其他非刚体的识别中得到了广泛应用。
AAM模型是通过统计学习建立目标人脸的形状和纹理模型,由于AAM模型使用的是人脸的全局表观,对人脸具有较强的描述能力。使用传统的AAM模型进行人脸特征点跟踪时是通过对形状与纹理模型赋予初值,以迭代的方式求解模型的增加量对模型的参数进行更新,算法的计算量较大,无法实现实时的人脸特征点跟踪。目前主流的人脸特征点跟踪技术采用的是反向合成拟合(Inverse Compositional)算法实现人脸与AAM人脸模型的拟合,该算法是通过计算AAM模型的反向增量,使得在迭代寻优的计算过程中所需的梯度与Hessian保持不变,降低了算法计算代价,然而当AAM模型的初始位置与目标位置偏离较大,或者人脸姿态出现较大幅度转动时,将对算法的拟合效率与精确度产生较大的影响,最终导致人脸特征点跟踪失败。因此同时解决人脸特征点跟踪过程中鲁棒性与准确性方面的问题具有重要的研究意义。
发明内容
本发明的目的在于解决人脸模型的初始位置与目标人脸偏离较大、人脸出现大幅度偏转以及人脸特征点跟踪不精确的问题,提出一种基于人眼优先拟合的人脸特征点跟踪方法。
为解决上述技术问题,本发明采用以下技术方案:
一种基于人眼优先拟合的人脸特征点跟踪方法,其特征在于:包含了人脸姿态估计与更新、人眼的检测与跟踪以及基于反向合成算法的人眼优先拟合与人脸剩余部件的拟合步骤:
首先对归一化后的训练样本进行主成分分析,建立人眼与人脸剩余部件的AAM形状模型;
然后,应用支持向量机算法建立人脸偏转模型,估算出当前人脸的偏转角度并对人脸姿态偏转模型中的参数进行实时更新,有效解决人脸姿态大幅度偏转问题;与此同时,使用强跟踪卡尔曼滤波算法进行人眼跟踪,获取的当前准确的人眼位置坐标;
将人眼位置坐标与人脸姿态信息相结合对反向合成算法中的参数进行更新,使用人眼形状模型优先对人眼区域进行特征点拟合,当人眼特征点拟合完成后再对剩余人脸部件特征点进行拟合。
上述技术方案中,基于人眼优先拟合的人脸特征点跟踪方法的具体实现步骤如下:
步骤S1:对训练集中所有样本中的人眼与人脸剩余部件特征点的二维坐标进行中心、尺度和方向归一化,将所有归一化的形状向量进行主成分分析建立人眼与人脸剩余部件的AAM形状模型;
步骤S2:使用Opencv开源视觉库,按照所设定帧率读取摄像头中的视频流,作为算法的数据输入;
步骤S3:应用支持向量机算法对人脸姿态进行检测,计算出人脸偏转角度,使用人脸偏转角度对人脸偏转模型中的参数进行更新;与此同时,使用Adaboost算法与强跟踪Kalman滤波对人眼进行检测跟踪,获取人眼的准确位置坐标;
步骤S4:使用人眼位置坐标与人脸姿态信息对AAM模型的反向合成算法中参数进行优化,进行人眼特征点的优先拟合,若拟合成功,对人脸剩余部件特征点进行拟合,否则丢弃当前帧,程序跳转至步骤S2顺序执行;
步骤S5:应用反向合成算法对人脸剩余部件特征点进行拟合,若拟合成功则对下一帧图像进行人脸特征点跟踪,否则丢弃当前帧,程序跳转至步骤S2顺序执行。
上述技术方案中,步骤S1:人眼形状模型与人脸剩余部件的AAM形状模型的建立方法,包含了以下步骤:
步骤S11:建立人眼的形状模型:通过对人眼特征点的二维坐标进行中心、尺度和方向归一化,在对训练集中所有归一化的形状向量进行主成分分析;建立人眼AAM形状模型;
步骤S12:建立人脸剩余部件的形状模型:通过对人脸剩余部件的二维坐标进行中心、尺度和方向归一化,在对训练集中所有归一化的形状向量进行主成分分析;建立人脸剩余部件的AAM形状模型。
上述技术方案中,步骤S3具体包含以下步骤:
步骤S31,人脸偏转角度的估计,采用支持向量机算法对大量人脸样本进行学习,建立人脸姿态的分类器,使用该分类器对当前人脸进行检测,估算出当前人脸的偏转角度,根据该偏转角度建立人脸的偏转模型;
步骤S32,应用Adaboost算法对人脸进行检测,在检测出人脸的区域内进行人眼检测并标识出人眼的位置;在对人脸和人眼进行检测时,使用Haar特征进行模型训练与检测;
步骤S33,使用强跟踪Kalman滤波算法对人眼进行跟踪,将算法检测到的人眼位置与人眼运动模型对下一帧图像中人眼可能出现的位置进行预测,并对该预测位置优先进行检测。
步骤S32中Adaboost算法是一种自适应增强(Adaptive Boosting)的分类算法,该算法的核心思想是通过自适应调节训练样本的权重分布,挑选出当前权重分布下分类准确率较高的弱分类器,并根据权重的分布将弱分类器组合成强分类器。在对人脸和人眼进行检测时,使用Haar特征进行模型训练与检测,由于Haar特征采用积分图进行求取,因此耗费在特征值计算上时间为常量,都是简单的加减运算,使得算法具备较高的效率与精度。步骤S33中强跟踪Kalman滤波算法的使用对于稳定人眼跟踪精度具有重要作用。
综上,本发明所提出的基于人眼优先拟合的AAM人脸特征点跟踪算法,针对传统的AAM人脸特征点跟踪算法对初始位置及人脸姿态与表情的变化较为敏感的问题,进行了研究,相对于现有方法,有以下几方面的有益效果:1)建立了人脸姿态偏转模型,为人脸跟踪提供准确的姿态信息,有效解决了人脸姿态大幅度偏转问题;2)使用强跟踪Kalman滤波算法对人眼进行实时准确的跟踪,为特征点的拟合提供了准确的初始位置;3)提出了一种人眼优先拟合的策略,根据人眼跟踪算法所提供的人眼坐标,优先对人眼进行拟合。本发明方法解决了在进行人脸特征点跟踪时,当人脸姿态出现大幅度偏转以及人脸模型的初始位置与目标位置偏离较大时,容易导致人脸特征点跟踪丢失,跟踪准确低等问题。本发明方法提高了视频人脸特征点跟踪的准确性、实时性和鲁棒性。
附图说明
图1是本发明基于人眼优先拟合的人脸特征点跟踪方法流程图;
图2是本发明方法中人眼形状模型;
图3是本发明方法中人脸剩余部件模型;
图4是根据本发明方法对正面人脸进行特征点跟踪的结果示意图,图中所有蓝色的圆点为本发明方法所跟踪到的人脸特征点,白色的连线为根据人脸特征点构建的Delaunay三角网;
图5是根据本发明方法对快速运动的人脸进行特征点跟踪结果示意图,图中所有蓝色的圆点为本发明方法所跟踪到的人脸特征点,白色的连线为根据人脸特征点构建的Delaunay三角网;
图6是根据本发明方法对具有表情变化与小角度偏转的人脸进行特征点跟踪结果示意图,图中所有蓝色的圆点为本发明方法所跟踪到的人脸特征点,白色的连线为根据人脸特征点构建的Delaunay三角网;
图7是根据本发明方法对存在大角度偏转的人脸进行特征点跟踪结果示意图,图中所有蓝色的圆点为本发明方法所跟踪到的人脸特征点,白色的连线为根据人脸特征点构建的Delaunay三角网。
具体实施方式
为了进一步说明本发明的技术方案与优势,通过具体实施例并结合附图,对本发明进行详细的说明。
图1为本发明基于人眼优先拟合的人脸特征点跟踪方法流程图,该检测方法包含以下步骤:
步骤S1:对训练集中所有样本中的人眼(如图2)与人脸剩余部件特征点(如图3)的二维坐标进行中心、尺度和方向归一化,将所有归一化的形状向量进行主成分分析建立人眼形状模型与人脸除人眼外的面部剩余部件的AAM形状模型;
人眼形状模型与人脸剩余部件的AAM形状模型的建立方法,包含了以下步骤:
步骤S11:建立人眼的形状模型,如图2所示。为了实现人眼的优先拟合,需要建立人眼与人脸剩余部件的AAM形状模型,在本发明中使用的68个特征点对人脸轮廓进行描述,其中人眼由22个特征点,如图3所示,人脸剩余部件由46个特征点构成。通过对人眼特征点的二维坐标进行中心、尺度和方向归一化,在对训练集中所有归一化的形状向量进行主成分分析,这样人眼形状模型可以表示为:
S ( eye ) = S e + Σ j = 1 m q j S j - - - ( 1 )
式(1)中Se为人眼的平均形状,qj为人眼形状参数,Sj为人眼形状主分量。
步骤S12:建立人脸剩余部件的形状模型,通过对人脸剩余部件的二维坐标进行中心、尺度和方向归一化,在对训练集中所有归一化的形状向量进行主成分分析,这样人脸剩余部件形状模型可以表示为:
S ( left ) = S l + Σ k = 1 a p k S k - - - ( 2 )
式(2)中Sl分别为人脸剩余部件的平均形状,pk为人脸剩余部件的形状参数,Sk人脸剩余部件的形状主分量。
步骤S2,使用Opencv开源视觉库,按照所设定帧率读取摄像头中的视频流,作为算法的数据输入。
步骤S3,应用支持向量机算法对人脸姿态进行检测,计算出人脸偏转角度,使用人脸偏转角度对人脸偏转模型中的参数进行更新。与此同时,使用Adaboost算法与强跟踪Kalman滤波对人眼进行检测跟踪,获取人眼的位置坐标;
在步骤S3中的主要实现了人脸偏转模型的参数优化与人眼的位置坐标的准确获取,具体的实现方法包含以下步骤:
步骤S31,人脸偏转角度的估计,采用支持向量机算法对大量人脸样本进行学习,建立人脸姿态的分类器,使用该分类器对当前人脸进行检测,估算出当前人脸的偏转角度,根据该偏转角度建立人脸的偏转模型。人脸偏转模型的具体实现方法包含了以下步骤:
步骤S311,建立支持向量机算法的核函数:
步骤S312,假设人脸姿态的训练样本集为(xi,yi),其中xi∈Rn,yi∈R,i=1,...,l,将人脸姿态的分类问题转化为回归问题,即为求解下式的条件约束优化问题:
约束条件为:
Σ i = 1 l ( α i - α i * ) = 0 - - - ( 4 )
这样便可得出回归函数:
θ ( x ) = Σ i = 1 l ( α i ‾ - α ‾ i * ) K ( x , x i ) + b ‾ - - - ( 5 )
步骤S313,输入测试样本x,使用式(5)求得θ(x),通过判断θ(x)所处的区间来判断人脸的水平转角{0°,±15°,±30°,±45°,±60°}。而上下旋转角度,亦使用上述方法求得。
步骤S314,通过学习得到人眼与剩余人脸部件形状模型的统一参数Px
S ( eye ) = S ‾ eye + Q eye P x - - - ( 6 )
S ( left ) = S ‾ left + Q left P x - - - ( 7 )
步骤S315,使用人脸偏转角度θ建立人脸的偏转模型Px':
Px'=Px0+Pxxcosθ+Pxysinθ      (8)
式(8)中参数θ为使用式(5)估算出来的人脸偏转角度,使用该偏转模型中能够估计出人脸的偏转角度,Px0、Pxx、Pxy为人脸偏转模型中的通过学习得到的偏转参数。
偏转模型参数的更新方程为:
d=Px-Px'      (9)
P x * = ( P x 0 + P xx cos θ * + P xy sin θ * ) + d - - - ( 10 )
步骤S32,应用Adaboost算法对人脸进行检测,在检测出人脸的区域内进行人眼检测并标识出人眼的位置。Adaboost算法是一种自适应增强(Adaptive Boosting)的分类算法,该算法的核心思想是通过自适应调节训练样本的权重分布,挑选出当前权重分布下分类准确率较高的弱分类器,并根据权重的分布将弱分类器组合成强分类器。在对人脸和人眼进行检测时,使用Haar特征进行模型训练与检测,由于Haar特征采用积分图进行求取,因此耗费在特征值计算上时间为常量,都是简单的加减运算,使得算法具备较高的效率与精度。
步骤S33,使用强跟踪Kalman滤波算法对人眼进行跟踪,将算法检测到的人眼位置与人眼运动模型对下一帧图像中人眼可能出现的位置进行预测,并对该预测位置优先进行检测。强跟踪Kalman滤波算法的使用对于稳定人眼跟踪精度具有重要作用。
下面给出了基于强跟踪Kalman滤波的人眼跟踪算法的主要实现方法与算法的工作流程。
强跟踪Kalman滤波的实现方法如下所示:
首先建立强跟踪Kalman滤波的状态方程和观测方程:
Xk=Ak/k-1Xk-1+wk-1      (11)
Zk=HkXk+vk      (12)
式(11)、(12)中,Ak/k-1为从k-1时刻到k时刻的系统的状态转移矩阵,Hk为观测矩阵,wk-1和vk分别为观测噪声和观测噪声,并假设以上噪声相互独立且服从高斯分布。状态转移矩阵
然后建立k时刻的状态更新方程:
k时刻的状态估计:
X ~ k ′ = A k X ~ k - 1 ′ - - - ( 14 )
k时刻预测误差方差阵:
P k ′ = A k P k - 1 A k T + Q k 其中Qk=E{v(k)vT(k)}     (15)
k时刻最优状态估计值
X ~ k = X ~ k ′ + K k ( γ k ) , γ k = Z k - H k X ~ k ′ - - - ( 16 )
k时刻最优状态预测误差方差阵:
Pk=(1-KkHk)Pk′     (17)
Kalman增益矩阵:
K k = P k ′ H k T ( H k P k ′ H k T + R k ) - 1 , R k = E { w ( k ) w T ( k ) } - - - ( 18 )
式(18)中Pk′为:
P k ′ = λ k A k P k - 1 A k T + Q k - - - ( 19 )
式(19)中λk>1时即为时变的渐消因子,当λk=1时强跟踪Kalman滤波算法就退化为Kalman滤波算法。
M ( k ) = H ( k ) A k P k - 1 A k T H k T ( k ) - - - ( 24 )
式(22)中的0<ρ≤1为遗忘因子,本文中ρ取值为0.95。式(23)中β>1为弱化因子,弱化因子的引入主要目的是让状态估计更为平滑。
下面给出使用强跟踪Kalman滤波算法进行人眼跟踪时的具体执行步骤:
步骤S331,当k=0时,计算初始值P0′,同时选择一个合适的弱化因子β;
步骤S332,使用式(14)(16)计算出与γk,应用式(22)计算出
步骤S333,使用式(20)(21)(23)(24)计算出次优渐消因子λk
步骤S334,使用式(19)计算Pk′,使用式(18)计算出Kk;计算出状态估计值
步骤S335,k+1→k跳转至第2步,循环执行。
步骤S4,使用人眼位置坐标与人脸姿态信息对AAM模型的反向合成算法中参数进行优化,进行人眼特征点的优先拟合,若拟合成功,对人脸剩余部件特征点进行拟合,否则丢弃当前帧,程序跳转至步骤S2顺序执行;
步骤S41,结合使用人眼位置坐标与人脸偏转模型对反向合成算法中的参数进行优化,实现对人眼的优先拟合,应用反向合成算法的具体实现方法如下所示:
通过计算形状参数中的增向量ΔP,使人脸图像与人脸外观模型间的图像差取得最小值:
Σ x [ I ( W ( x , P ) ) - A 0 ( W ( x , ΔP ) ) ] 2 - - - ( 25 )
式(25)中I为输入的人脸图像,A0为人脸外观模型,ΔP是由当前变换参数P估计出的偏移量,W(x,P)是平均形状S0到形状参数P对应的新形状,W(x,ΔP)是平均形状S0到形状参数ΔP对应的新形状。
使用增向量ΔP对仿射变换进行更新:
W(x;P)←W(x;P)οW(x;ΔP)-1      (26)
对式(25)应用一阶泰勒展开式:
Σ x [ I ( W ( x ; P ) ) - A 0 ( W ( x ; 0 ) ) + ▿ A 0 ∂ W ∂ P ΔP ] 2 - - - ( 27 )
从而得到形状向量的更新参数ΔP:
ΔP = H - 1 Σ x [ ▿ A 0 ∂ W ∂ P ] T [ I ( W ( x ; P ) ) - A 0 ( x ) ] - - - ( 28 )
将式(29)中对式(28)中的参数P进行更新,得到更新后的ΔP:
P x * = ( P x 0 + P xx cos θ * + P xy sin θ * ) + d - - - ( 29 )
ΔP = H - 1 Σ x [ ▿ A 0 ∂ W ∂ P ] T [ I ( W ( x ; P x * ) ) - A 0 ( x ) ] - - - ( 30 )
式(30)中H为图像I的Hessian矩阵,表示为:
H = Σ x [ ▿ A 0 ∂ W ∂ P ] T [ ▿ A 0 ∂ W ∂ P ] - - - ( 31 )
由于反向合成拟合算法中所使用的参数A0为固定值,图像的梯度▽A0与雅克比的计算只与A0有关,因此在迭代寻优的计算过程中无需重新计算与矩阵H。
在进行模型与实际人脸进行拟合时,需要通过循环迭代实现人脸与模型的拟合,具体的实现方法包含了以下步骤:
步骤S411,在执行循环迭代步骤之前,需要计算以下变量的初始值:
(1)人脸初始模型A0(x)的梯度值▽A0
循环执行以下步骤直到人脸与模型收敛:
步骤S412,对人脸图像I进行图像变换W(x;p),计算出变换后的人脸图像I(W(x;p));
步骤S413,计算出人脸图像与模型间的图像差I(W(x;p))-A0(x);
步骤S416,对图像变换方程进行更新W(x;P)←W(x;P)οW(x;ΔP)-1
步骤S5,应用反向合成算法对人脸剩余部件特征点进行拟合,若拟合成功则对下一帧图像进行人脸特征点跟踪,否则丢弃当前帧,程序跳转至S2顺序执行;
具体的实现方法包含了以下步骤:
步骤S51,根据步骤S41中的反向合成算法,结合使用人眼位置坐标与人脸偏转信息对人脸剩余部件进行特征点拟合,最终完成人脸特征点的跟踪。
综上,本发明所提出的基于人眼优先拟合的AAM人脸特征点跟踪算法,针对传统的AAM人脸特征点跟踪算法对初始位置及人脸姿态与表情的变化较为敏感的问题,进行了以下几方面的改进:1)建立了人脸姿态偏转模型,为人脸跟踪提供准确的姿态信息,有效解决了人脸姿态大幅度偏转问题;2)使用强跟踪Kalman滤波算法对人眼进行实时准确的跟踪,为特征点的拟合提供了准确的初始位置;3)提出了一种人眼优先拟合的策略,根据人眼跟踪算法所提供的人眼坐标,优先对人眼进行拟合。本发明方法解决了在进行人脸特征点跟踪时,当人脸姿态出现大幅度偏转以及人脸模型的初始位置与目标位置偏离较大时,容易导致人脸特征点跟踪丢失,跟踪准确低等问题。本发明方法提高了视频人脸特征点跟踪的准确性、实时性和鲁棒性。

Claims (4)

1.一种基于人眼优先拟合的人脸特征点跟踪方法,其特征在于:包含了人脸姿态估计与更新、人眼的检测与跟踪以及基于反向合成算法的人眼优先拟合与人脸剩余部件的拟合步骤:
首先对归一化后的训练样本进行主成分分析,建立人眼与人脸剩余部件的AAM形状模型;
然后,应用支持向量机算法建立人脸偏转模型,估算出当前人脸的偏转角度并对人脸姿态偏转模型中的参数进行实时更新,有效解决人脸姿态大幅度偏转问题;与此同时,使用强跟踪卡尔曼滤波算法进行人眼跟踪,获取的当前准确的人眼位置坐标;
将人眼位置坐标与人脸姿态信息相结合对反向合成算法中的参数进行更新,使用人眼形状模型优先对人眼区域进行特征点拟合,当人眼特征点拟合完成后再对剩余人脸部件特征点进行拟合。
2.根据权利要求1所述的基于人眼优先拟合的人脸特征点跟踪方法,其特征在于:该基于人眼优先拟合的人脸特征点跟踪方法的具体实现步骤如下:
步骤S1:对训练集中所有样本中的人眼与人脸剩余部件特征点的二维坐标进行中心、尺度和方向归一化,将所有归一化的形状向量进行主成分分析建立人眼与人脸剩余部件的AAM形状模型;
步骤S2:使用Opencv开源视觉库,按照所设定帧率读取摄像头中的视频流,作为算法的数据输入;
步骤S3:应用支持向量机算法对人脸姿态进行检测,计算出人脸偏转角度,使用人脸偏转角度对人脸偏转模型中的参数进行更新;与此同时,使用Adaboost算法与强跟踪Kalman滤波对人眼进行检测跟踪,获取人眼的准确位置坐标;
步骤S4:使用人眼位置坐标与人脸姿态信息对AAM模型的反向合成算法中参数进行优化,进行人眼特征点的优先拟合,若拟合成功,对人脸剩余部件特征点进行拟合,否则丢弃当前帧,程序跳转至步骤S2顺序执行;
步骤S5:应用反向合成算法对人脸剩余部件特征点进行拟合,若拟合成功则对下一帧图像进行人脸特征点跟踪,否则丢弃当前帧,程序跳转至步骤S2顺序执行。
3.根据权利要求1所述的基于人眼优先拟合的人脸特征点跟踪方法,其特征在于:步骤S1:人眼形状模型与人脸剩余部件的AAM形状模型的建立方法,包含了以下步骤:
步骤S11:建立人眼的形状模型:通过对人眼特征点的二维坐标进行中心、尺度和方向归一化,在对训练集中所有归一化的形状向量进行主成分分析;建立人眼AAM形状模型;
步骤S12:建立人脸剩余部件的形状模型:通过对人脸剩余部件的二维坐标进行中心、尺度和方向归一化,在对训练集中所有归一化的形状向量进行主成分分析;建立人脸剩余部件的AAM形状模型。
4.根据权利要求1所述的基于人眼优先拟合的人脸特征点跟踪方法,其特征在于:步骤S3具体包含以下步骤:
步骤S31,人脸偏转角度的估计,采用支持向量机算法对大量人脸样本进行学习,建立人脸姿态的分类器,使用该分类器对当前人脸进行检测,估算出当前人脸的偏转角度,根据该偏转角度建立人脸的偏转模型;
步骤S32,应用Adaboost算法对人脸进行检测,在检测出人脸的区域内进行人眼检测并标识出人眼的位置;在对人脸和人眼进行检测时,使用Haar特征进行模型训练与检测;
步骤S33,使用强跟踪Kalman滤波算法对人眼进行跟踪,将算法检测到的人眼位置与人眼运动模型对下一帧图像中人眼可能出现的位置进行预测,并对该预测位置优先进行检测。
CN201410543159.8A 2014-10-14 2014-10-14 一种基于人眼优先拟合的人脸特征点跟踪方法 Active CN104318264B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201410543159.8A CN104318264B (zh) 2014-10-14 2014-10-14 一种基于人眼优先拟合的人脸特征点跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410543159.8A CN104318264B (zh) 2014-10-14 2014-10-14 一种基于人眼优先拟合的人脸特征点跟踪方法

Publications (2)

Publication Number Publication Date
CN104318264A true CN104318264A (zh) 2015-01-28
CN104318264B CN104318264B (zh) 2018-02-02

Family

ID=52373493

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410543159.8A Active CN104318264B (zh) 2014-10-14 2014-10-14 一种基于人眼优先拟合的人脸特征点跟踪方法

Country Status (1)

Country Link
CN (1) CN104318264B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106682582A (zh) * 2016-11-30 2017-05-17 吴怀宇 一种基于压缩感知外观模型的人脸跟踪方法及系统
WO2017084098A1 (en) * 2015-11-20 2017-05-26 Sensetime Group Limited System and method for face alignment
CN107516092A (zh) * 2017-09-21 2017-12-26 天津呼噜互娱科技有限公司 人脸特征点检测增强方法及装置
CN110427849A (zh) * 2019-07-23 2019-11-08 深圳前海达闼云端智能科技有限公司 人脸姿态确定方法、装置、存储介质和电子设备
CN112686927A (zh) * 2020-12-31 2021-04-20 上海易维视科技有限公司 人眼位置回归计算方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130182947A1 (en) * 2011-12-23 2013-07-18 Samsung Electronics Co., Ltd. Apparatus and method for estimating pose of object
CN103514441A (zh) * 2013-09-21 2014-01-15 南京信息工程大学 基于移动平台的人脸特征点定位跟踪方法
CN103632129A (zh) * 2012-08-28 2014-03-12 腾讯科技(深圳)有限公司 一种人脸特征点定位方法及装置
CN103870843A (zh) * 2014-03-21 2014-06-18 杭州电子科技大学 基于多特征点集活动形状模型的头部姿态估计方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130182947A1 (en) * 2011-12-23 2013-07-18 Samsung Electronics Co., Ltd. Apparatus and method for estimating pose of object
CN103632129A (zh) * 2012-08-28 2014-03-12 腾讯科技(深圳)有限公司 一种人脸特征点定位方法及装置
CN103514441A (zh) * 2013-09-21 2014-01-15 南京信息工程大学 基于移动平台的人脸特征点定位跟踪方法
CN103870843A (zh) * 2014-03-21 2014-06-18 杭州电子科技大学 基于多特征点集活动形状模型的头部姿态估计方法

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017084098A1 (en) * 2015-11-20 2017-05-26 Sensetime Group Limited System and method for face alignment
CN108701206A (zh) * 2015-11-20 2018-10-23 商汤集团有限公司 用于面部对准的系统和方法
CN108701206B (zh) * 2015-11-20 2022-04-12 商汤集团有限公司 用于面部对准的系统和方法
CN106682582A (zh) * 2016-11-30 2017-05-17 吴怀宇 一种基于压缩感知外观模型的人脸跟踪方法及系统
CN107516092A (zh) * 2017-09-21 2017-12-26 天津呼噜互娱科技有限公司 人脸特征点检测增强方法及装置
CN110427849A (zh) * 2019-07-23 2019-11-08 深圳前海达闼云端智能科技有限公司 人脸姿态确定方法、装置、存储介质和电子设备
CN110427849B (zh) * 2019-07-23 2022-02-08 达闼机器人有限公司 人脸姿态确定方法、装置、存储介质和电子设备
CN112686927A (zh) * 2020-12-31 2021-04-20 上海易维视科技有限公司 人眼位置回归计算方法
CN112686927B (zh) * 2020-12-31 2023-05-12 上海易维视科技有限公司 人眼位置回归计算方法

Also Published As

Publication number Publication date
CN104318264B (zh) 2018-02-02

Similar Documents

Publication Publication Date Title
CN108764048B (zh) 人脸关键点检测方法及装置
CN101777116B (zh) 一种基于动作跟踪的脸部表情分析方法
CN106909888B (zh) 应用于移动设备端的人脸关键点跟踪系统及方法
CN102880866B (zh) 一种人脸特征提取方法
CN106055091B (zh) 一种基于深度信息和校正方式的手部姿态估计方法
CN104318264A (zh) 一种基于人眼优先拟合的人脸特征点跟踪方法
CN102262724B (zh) 目标图像特征点定位方法和目标图像特征点定位系统
CN105512621A (zh) 一种基于Kinect的羽毛球动作指导系统
CN102567703B (zh) 一种基于分类特征的手部动作识别信息处理方法
CN109800628A (zh) 一种加强ssd小目标行人检测性能的网络结构及检测方法
CN103514442B (zh) 一种基于aam模型的视频序列人脸识别方法
CN106067001B (zh) 一种动作识别方法
CN103824050A (zh) 一种基于级联回归的人脸关键点定位方法
CN103886619B (zh) 一种融合多尺度超像素的目标跟踪方法
CN104102920A (zh) 一种基于形态学多特征融合的害虫图像分类方法及系统
CN106127125B (zh) 基于人体行为特征的分布式dtw人体行为识别方法
CN105354531A (zh) 一种面部关键点的标注方法
CN104715493A (zh) 一种运动人体姿态估计的方法
CN101404086A (zh) 基于视频的目标跟踪方法及装置
CN106096560A (zh) 一种人脸对齐方法
CN105243664A (zh) 一种基于视觉的轮式移动机器人快速目标跟踪方法
CN108961330A (zh) 基于图像的猪体长测算方法及系统
CN104598871A (zh) 一种基于相关回归的面部年龄计算方法
CN101369309B (zh) 基于主动表观模型和外耳长轴的人耳图像归一化方法
CN111476077A (zh) 一种基于深度学习的多视角步态识别方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant