CN101964064B - 一种人脸比对方法 - Google Patents

一种人脸比对方法 Download PDF

Info

Publication number
CN101964064B
CN101964064B CN 201010237415 CN201010237415A CN101964064B CN 101964064 B CN101964064 B CN 101964064B CN 201010237415 CN201010237415 CN 201010237415 CN 201010237415 A CN201010237415 A CN 201010237415A CN 101964064 B CN101964064 B CN 101964064B
Authority
CN
China
Prior art keywords
face
people
feature
point
human face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN 201010237415
Other languages
English (en)
Other versions
CN101964064A (zh
Inventor
唐霖
董初宁
姜涛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SHANGHAI YINGSUI NETWORK TECHNOLOGY CO., LTD.
Original Assignee
SHANGHAI MOBINEX SOFTWARE TECHNOLOGY Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SHANGHAI MOBINEX SOFTWARE TECHNOLOGY Co Ltd filed Critical SHANGHAI MOBINEX SOFTWARE TECHNOLOGY Co Ltd
Priority to CN 201010237415 priority Critical patent/CN101964064B/zh
Publication of CN101964064A publication Critical patent/CN101964064A/zh
Application granted granted Critical
Publication of CN101964064B publication Critical patent/CN101964064B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

本发明公开的是一种人脸特征比对方法,包含:人脸跟踪,获取特征点;提取详细的人脸特征数据;人脸比对,将该人脸特征数据与人脸数据库中的每一个人脸的特征数据进行比对,获得其相似性;判断是否已找到匹配的人脸,δ为相似度阈值,若Smax>δ,则判断输入人脸与数据库中的人脸k’相匹配;判断表情是否有显著变化;根据连续多帧人脸特征点进行分析,包括但不限于:嘴巴的张开与闭合,眼睛的张开与闭合,判断人脸的表情是否发生了显著的变化,输出比中的人脸。本发明属于生物特征识别技术领域,用于人脸跟踪与比对,广泛应用于各种人脸比对系统。

Description

一种人脸比对方法
技术领域
本发明涉及生物特征识别技术领域,尤其涉及一种人脸比对的方法。
背景技术
人脸是人的重要信息,是区分不同的人的重要依据,因此人脸比对是较指纹、虹膜等技术更自然、更直接的比对方式。
人脸比对是将图像或视频输入的人脸通过提取特定的人脸特征信息,与数据库中已注册的人脸特征信息相比较,获得匹配的人脸极其相似度,确认是否与数据库中人脸为同一。
人脸比对在很多场合下都具有非常重要的作用,例如手机彩信中的视频彩信、人机界面、权限控制、智能监视系统等。比对的准确性、精度和鲁棒性问题一直是业界关心的主要问题。
另外,在人脸比对中,如果当前输入一张静态照片,其与数据库中已注册人脸相比对,也会得出匹配的结果,这将导致识别的客体并不是真实的人脸,导致无权限的人得到权限。因此,判断当前输入为真实的人的脸还是静态的照片非常重要,而现有技术还无法解决。
因此,业界急需一种能够确保输入真实、具有较高准确性与鲁棒性的人脸比对技术。
发明内容
为弥补现有技术的不足,本发明目的是提供一种人脸比对方法,解决人脸表情变化和姿态变化的影响,提高比对的准确性、精度和鲁棒性,保障比对的真实性。
为了实现上述目的,本发明的技术方案如下:
一种人脸比对方法,包含:人脸比对方法,其特征在于,包含:
步骤601,人脸跟踪,获取特征点;
步骤603,提取详细的人脸特征数据;
步骤605人脸比对,将该人脸特征数据与人脸数据库中的每一个人脸的特征数据进行比对,获得其相似性;具体方法为:
(1)选取数据库中的一个人脸k的特征模板库k=0,...,K;
(2)对特征模板
Figure GSB00001006235200022
j=0,...,M,计算输入人脸的特征
Figure GSB00001006235200023
Figure GSB00001006235200024
之间的相似度Skji
(3)计算输入人脸与特征模板
Figure GSB00001006235200025
的相似度 S kj = 1 N Σ i S kji ;
(4)计算输入人脸与人脸k的相似度为
Figure GSB00001006235200027
(5)重复步骤(1)-(4),获得输入人脸与数据库中所有K个人脸的相似度,取其中最大者 S max = max k { S k } , 得到其对应的人脸k’;
其中,M为人的特征模板个数,N为选取的人的人脸特征点个数,i为人脸特征。
步骤607,判断是否已找到匹配的人脸;δ为相似度阈值,若Smax>δ,则判断输入人脸与数据库中的人脸k’相匹配;
步骤608,判断表情是否有显著变化;根据连续多帧人脸特征点进行分析,包括但不限于:嘴巴的张开与闭合,眼睛的张开与闭合,判断人脸的表情是否发生了显著的变化;
在人脸表情有显著变化时,执行步骤609,输出比中的人脸。
其中,该步骤603提取详细的人脸特征数据的具体方法为:
根据步骤601人脸检测跟踪得到的精确的人脸特征点位置,插值获得其他选取的人脸特征点的位置;
根据双眼位置对图像进行归一化处理;
计算得到人脸特征点i的Gabor特征
Figure GSB00001006235200029
所有特征点的Gabor特征即组成一个人脸特征数据
Figure GSB000010062352000210
i=1,2,...,N,N为选取的人脸特征点个数。
其中,该人脸特征点为人脸上的显著特征点,人脸特征点的特征选取所有80个Gabor复系数,表达完整的人脸信息,完整表达不同人脸之间的差异性。
其中,该步骤601人脸跟踪,获取特征点所选取的人脸特征为人脸的共同性的特征。
进一步的,该人脸比对方法还包含步骤604人脸注册;保存人脸特征数据至人脸数据库;具体方法为:
将步骤603获得的详细人脸特征数据加入此人的人脸特征模板库
Figure GSB000010062352000211
j=0,...,M,M为此人的特征模板个数,保存至数据库。
其中,该步骤601人脸跟踪,获取特征点的具体包含离线训练方法和在线跟踪方法;
该离线训练方法包含多层结构人脸模型训练方法和人脸特征点的离线模板训练方法;
该多层结构人脸模型训练方法为该在线跟踪方法提供人脸模型,该离线模板训练方法为该在线跟踪方法提供人脸特征点离线模板;
该多层结构人脸模型训练方法包含如下步骤:
步骤301,选取适当的人脸图像作为训练样本;
步骤302,对人脸图像的特征点进行标记;
步骤3031-3061,得到基准形状模型;
步骤3032-3062,得到全局形状模型;
步骤3033-3063,得到局部形状模型。
其中,该基准形状模型、该全局形状模型与该局部形状模型的获得方法为:
用s表示一个人脸形状向量:
s = s ‾ + Pb ,
其中,
Figure GSB00001006235200032
为平均人脸形状;P为一组正交的主形状变化模式;b为形状参数向量;
人脸形状向量s表示为(sR,sG,sL)T,其中sR、sG和sL分别表示基准特征点、全局特征点和局部特征点;
刚性基准形状的点分布模型 s R = s R ‾ + P R b R
全局基准形状的点分布模型 s G = s G ‾ + P G b G
局部形状模型的点分布模型 s Gi , Li = s Gi , Li ‾ + P Gi , Li b Gi , Li
第i个局部形状向量为sGi,Li={sGi,sLi},其中sGi,sLi分别表示属于第i个局部形状的全局和局部特征点,
其中,人脸特征点的表达方法为:
给定灰度图像
Figure GSB00001006235200036
中的一个像素其附近的局部图像
Figure GSB00001006235200038
中的像素为
Figure GSB00001006235200039
一系列Gabor系数
Figure GSB000010062352000310
表达该点附近的局部外观,定义为:
J j ( x → ) = ∫ I ( x → ′ ) ψ j ( x → - x ‾ ′ ) d 2 x → ′
其中Gabor核ψj为高斯包络函数限定的平面波,
ψ j ( x → ) = k j 2 σ 2 exp ( - k j 2 x 2 2 σ 2 ) [ exp ( i k → j x → ) - exp ( - σ 2 2 ) ]
Figure GSB00001006235200042
k v = 2 - v + 2 2 π ,
Figure GSB00001006235200044
其中,kv为频率,
Figure GSB00001006235200045
为方向,kj为特征小波矢量,kjx为特征小波x方向矢量,kjy为特征小波y方向矢量,选v=0,1,...,9,μ=0,1,...,7,j=μ+8v,且频率波宽设为σ=2π;
Gabor核由10个频率、8个方向组成80个Gabor复系数,用以表达像素点附近的外观特征,用一个jet向量
Figure GSB00001006235200047
表示这些系数,Jj=αj exp(iφj),j=0,1,...,79,
其中,αj和φj分别为第j个Gabor系数的幅值和相位;
对80个Gabor复系数进行实验筛选,得到该人脸特征点表达所用的小波特征,
其中,人脸特征点的离线模板训练方法如下:
步骤401,选取N张适当的人脸图像作为训练样本;
步骤402,对人脸图像的特征点进行标记;
步骤403,对图像进行归一化处理;
步骤404,计算所有样本的Gabor特征;
步骤405,获得各样本Gabor特征之间的相似度;
S φ ( J → , J → ′ ) = Σ j α j α ′ j cos ( φ j - φ ′ j - d → k → j ) Σ j α j 2 α j ′ 2
其中,
Figure GSB00001006235200049
Figure GSB000010062352000410
为Gabor特征,α′j
Figure GSB000010062352000411
分别为Gabor系数的幅值和相位;
Figure GSB000010062352000412
Figure GSB000010062352000413
Figure GSB000010062352000414
之间的相对位移;
d → ( J → , J → ′ ) = d x d y = 1 Γ xx Γ xy - Γ xy Γ yx × Γ yy - Γ yx - Γ xy Γ xx Φ x Φ y
如果ΓxxΓyyxyΓyx≠0,其中
Φx=∑jαjα′jkjxj-φ′j),
Γxy=∑jαjα′j kjxkjy
Φy,Γxx,Γyx和Γyy类似地进行定义;
对每个特征点,计算N个Gabor特征两两之间的相似度,当其相似度大于阈值ST时即认为两者相似,ST通过实验选取,选取0.85;步骤406,计算各样本Gabor特征的相似特征数n;
步骤407,选择n最大的样本Gabor特征;
步骤408,判断n是否大于nT
若步骤408的判断结果为否,则执行步骤411,处理下一特征点,然后返回步骤404继续执行;
若步骤408的判断结果为是,则执行步骤409,将Gabor特征加入离线模板;对每一个Gabor特征,设有ni个与其相似的Gabor特征,将ni值最大且大于阈值nT的Gabor特征加入样本特征集
Figure GSB00001006235200051
nT也通过实验选取,选取nT=2;
步骤410,将该Gabor特征从样本中删除,同时将与其相似度大于阈值ST’的Gabor特征从
Figure GSB00001006235200052
中删除,ST’大于ST,选取0.9;
返回步骤405,对步骤405-409作迭代计算;对重复上述过程,直到选不出样本为止;
最终的样本特征集即为该人脸特征点的特征样本,作为人脸特征的离线模板提供给该在线跟踪方法使用,
其中,在线跟踪方法包含:
步骤501,初始化,初始化变量和参数设置,参数包含但不限于图像格式、分辨率、颜色空间,跟踪模式;
步骤502,输入一帧图像;
步骤503,图像归一化,将输入图像转换成标准尺寸的图像;
步骤504,判断是否重新检测;
若步骤504的判断结果为是,则执行步骤505,利用基准形状模型,基于ASM形状约束,对齐基准特征点;
步骤506,利用全局形状模型,基于ASM形状约束,对齐全局特征点;
步骤507,利用局部形状模型,基于ASM形状约束,对齐局部特征点;
步骤508,更新在线特征模板,根据得到的脸部特征点的位置更新其小波特征作为该人脸的在线特征模板;
步骤515,估计人脸姿态,根据六个基础点的位置估计人脸的姿态;
返回步骤502循环执行在线跟踪方法的步骤502至步骤508以及步骤515并执行步骤516,输出人脸特征点及人脸姿态信息;
若步骤504的判断结果若为否,则执行步骤509,基于在线特征模板更新眼角点;
然后执行步骤510,基于离线特征模板调整眼角点;
然后执行步骤511,更新其他特征点;
然后执行步骤512,根据前一帧的人脸姿态更新各形状模型的平均形状;
然后执行步骤513,基于形状约束更新全局特征点;
然后执行步骤514,基于形状约束更新局部特征点;
然后返回步骤508,继续执行在线跟踪方法步骤509至步骤514,
步骤603,提取详细的人脸特征数据;
其中,提取详细的人脸特征数据的具体方法为:
根据步骤601人脸检测跟踪得到的精确的人脸特征点位置,插值获得其他选取的人脸特征点的位置;
根据双眼位置对图像进行归一化处理;
计算得到人脸特征点i的Gabor特征
Figure GSB00001006235200061
所有特征点的Gabor特征即组成一个人脸特征数据
Figure GSB00001006235200062
i=1,2,...,N,N为选取的人脸特征点个数,
步骤605人脸比对,将该人脸特征数据与人脸数据库中的每一个人脸的特征数据进行比对,获得其相似性;具体方法为:
(6)选取数据库中的一个人脸k的特征模板库
Figure GSB00001006235200063
k=0,...,K;
(7)对特征模板
Figure GSB00001006235200064
j=0,...,M,计算输入人脸的特征
Figure GSB00001006235200065
Figure GSB00001006235200066
之间的相似度Skji
(8)计算输入人脸与特征模板的相似度 S kj = 1 N Σ i S kji ;
(9)计算输入人脸与人脸k的相似度为 S k = max j { S kj } ;
(10)重复步骤(1)-(4),获得输入人脸与数据库中所有K个人脸的相似度,取其中最大者
Figure GSB000010062352000610
得到其对应的人脸k’;
其中,M为人的特征模板个数,N为选取的人的人脸特征点个数,i为人脸特征,
步骤607,判断是否已找到匹配的人脸;δ为相似度阈值,若Smax>δ,则判断输入人脸与数据库中的人脸k’相匹配;
步骤608,判断表情是否有显著变化;根据连续多帧人脸特征点进行分析,包括但不限于:嘴巴的张开与闭合,眼睛的张开与闭合,判断人脸的表情是否发生了显著的变化;
在人脸表情有显著变化时,执行步骤609,输出比中的人脸。
如上所述的人脸比对方法,其中,该人脸特征点为人脸上的显著特征点,人脸特征点的特征选取所有80个Gabor复系数,表达完整的人脸信息,完整表达不同人脸之间的差异性。
如上所述的人脸比对方法,其中,该步骤601人脸跟踪,获取特征点所选取的人脸特征为人脸的共同性的特征。
如上所述的人脸比对方法,其中,还包含:
步骤602,检测图像质量,判断是否满足条件,本步骤是对于步骤601所获取的图像质量进行判断,判断图像以及特征点的提取结果是否满足注册或比对的条件,检测的参数包括图像的亮度、光照的均匀性等,
若步骤602的判断结果为否,则执行步骤610,
若步骤602的判断结果为是,则执行步骤603,提取详细的人脸特征数据,应注意的是:为完整表达不同人脸之间的差异性,需提取适当的人脸特征点,以便充分表达人脸信息,所述人脸特征数据选取人脸上的显著特征点作为比对依据,除了人脸的共同性的特征外,还增加双眉之间的中点、鼻根即双眼之间的中点、鼻尖的特征点,根据精度、运算性能要求,对特征点的选取适当进行调整,而人脸特征点的特征必须选取式Jj=αjexp(iφj),j=0,1,...,79中所有80个Gabor复系数,表达完整的人脸信息,以使不同人脸之间的差异最大化,步骤603的具体方法为:
根据人脸检测跟踪得到的精确的人脸特征点位置,插值获得其他选取的人脸特征点的位置,鼻根为双眼位置的中点、鼻尖为4个鼻测点的中心点,
根据双眼位置对图像进行归一化处理,
根据式Jj=αjexp(iφj),j=0,1,...,79计算得到人脸特征点i的Gabor特征所有特征点的Gabor特征即组成一个人脸特征模板
Figure GSB00001006235200072
i=1,2,...,N,N为选取的人脸特征点个数,
然后执行步骤604人脸注册或者步骤605人脸比对,
步骤604人脸注册;保存人脸特征数据至人脸数据库;具体方法为:
将步骤603获得的详细的人脸特征数据与此人已有的人脸特征模板库进行比较,若其相似度S>ST,则不保存该特征,否则将该特征加入此人的人脸特征模板库
Figure GSB00001006235200073
j=0,...,M,M为此人的特征模板个数,保存至数据库;其相似度S的具体计算方法为:
(3)对特征模板
Figure GSB00001006235200081
j=0,...,M,根据式
S φ ( J → , J → ′ ) = Σ j α j α ′ j cos ( φ j - φ ′ j - d → k → j ) Σ j α j 2 α j ′ 2 - - - ( 9 )
计算输入人脸的特征
Figure GSB00001006235200083
Figure GSB00001006235200084
之间的相似度Sji
(4)计算输入人脸与特征模板
Figure GSB00001006235200085
的相似度为:
Figure GSB00001006235200086
其中,N为选取的人脸特征点个数;
(3)计算输入人脸与人脸k的相似度为:
Figure GSB00001006235200087
本发明的有益效果是:
1.本发明选取人脸上的显著特征点作为比对依据,人脸特征点的特征从所有80个Gabor复系数中选取,表达了完整的人脸信息,使不同人脸之间的差异最大化,人脸比对的准确性和鲁棒性较好。
2.使用本发明的人脸比对方法,消除了人脸表情、姿态的影响,在比对中判断出了人脸的真实性,使得跟踪和比对准确性、精度和鲁棒性更高。
3.使用本发明,能够判断当前输入为真实的人脸还是静态的照片。
附图说明
下面结合附图,通过对本发明的具体实施方式的详细描述,将使本发明的技术方案及其他有益效果显而易见。
图1为本发明人脸跟踪方法的组成框架图;
图2为本发明的人脸特征点示意图;
图3为本发明多层结构人脸模型训练方法的流程图;
图4为本发明人脸特征点的离线模板训练方法流程图;
图5为本发明人脸跟踪方法的流程图;
图6为本发明人脸比对方法的流程图。
具体实施方式
为了使本发明实现的技术手段、创作特征、达成目的与功效易于明白了解,下面进一步阐述本发明。
本发明人脸比对方法主要包括两个部分,一是训练部分,即注册部分,一是比对部分。无论是训练部分,还是比对部分,都需先对人脸特征进行检测、跟踪,从而得到精确的人脸特征点的位置。
图1-图5示出了人脸检测跟踪、获取特征点的具体方法。下面详细说明:
图1表示了本发明跟踪方法的组成框架。本发明人脸跟踪方法包含离线训练方法102和在线跟踪方法101两部分。离线训练方法102包含:多层结构人脸模型训练方法1021和人脸特征点的离线模板训练方法1022;前者为在线跟踪方法101提供人脸模型103,后者为人脸跟踪方法101提供人脸特征点离线模板104。
图2为本发明人脸特征点示意图。图3为本发明多层结构人脸模型训练方法的流程图。下面结合图2与图3详细说明本发明多层结构人脸模型训练方法。
人的面部特征具有很大的相似性,这些特征点的相对运动表达了人脸表情和人脸姿态的变化。给定这些人脸的特征点,用人脸特征点集的统计关系表示人脸模型,即可以构建出一个点分布模型(PDM)来表达人脸的可能的形状变化。
本发明基于ASM的原理,从一系列人脸图像训练得到多层结构人脸模型。
多层结构人脸模型训练方法首先执行步骤301,选取适当的人脸图像作为训练样本。然后执行步骤302,对人脸图像的特征点进行标记。
然后执行步骤3031-3061,得到基准形状模型。具体为:步骤3031,基于刚性基准点组成形状向量,来表示基准特征点的位置;然后执行步骤3041,根据Procrustes变换对齐所有形状向量到一个统一的坐标框架下;然后执行步骤3051,由PCA方法获得形状约束参数,步骤3061,得到基准形状模型。
执行步骤3032-3062,得到全局形状模型。具体为:步骤3032,基于全局基准点组成形状向量,来表示全局特征点的位置;然后执行步骤3042,根据Procrustes变换对齐所有形状向量到一个统一的坐标框架下;然后执行步骤3052,由PCA方法获得形状约束参数,步骤3062,得到全局形状模型。
执行步骤3033-3063,得到局部形状模型。具体为:步骤3033,基于局部基准点组成形状向量,来表示局部特征点的位置;然后执行步骤3043,根据Procrustes变换对齐所有形状向量到一个统一的坐标框架下;然后执行步骤3053,由PCA方法获得形状约束参数,步骤3063,得到局部形状模型。
步骤3031-3061、步骤3032-3062和步骤3033-3063的计算方法具体为:
用向量s表示一个人脸形状:
s = s ‾ + Pb , - - - ( 1 )
其中,为平均人脸形状;P为一组正交的主形状变化模式;b为形状参数向量。
现有的ASM方法通过迭代过程搜索人脸形状,迭代中所有的特征点位置同时更新,也就是说特征点之间的相互影响是简单的平行关系。鉴于人脸的复杂结构,以及表情丰富的特点,这种简单的平行机制并不足以描述特征点之间的相互关系。例如,假设眼角位置固定,则眼睛的开闭并不能影响口、鼻的特征点定位。
本发明将人脸特征点组织为多个层次,以更好地适应头部运动、表情变化等对特征点位置的不同影响,我们称为多层结构人脸模型。第一类为基准特征点,基本只受头部姿态的影响,如眼角、鼻端等。第二类为全局特征点,用来约束整个人脸的全局形状,包括基准特征点和其他关键点、如嘴角、眉端等。第三类为局部特征点,只用来约束人脸各组成部分如眼、嘴、眉的细部特征,位于其轮廓边界上,如上下嘴唇的轮廓点,上下眼睑等,主要受表情变化影响。基于此,本发明构建的多层结构人脸模型说明如下:
如上所述,人脸形状向量s可表示为(sR,sG,sL)T,其中sR、sG和sL分别表示基准特征点、全局特征点和局部特征点。基于此,人脸形状模型可分为刚性基准形状、全局基准形状、以及以下局部形状:左眉、右眉、左眼、右眼、鼻、嘴等。对于刚性基准形状和全局基准形状,其点分布模型(PDM)可以从训练数据学习得到如下,
s R = s R ‾ + P R b R - - - ( 2 )
s G = s G ‾ + P G b G - - - ( 3 )
对于局部形状模型,第i个局部形状向量为sGi,Li={sGi,sLi},其中sGi,sLi分别表示属于第i个局部形状的全局和局部特征点。亦有,
s Gi , Li = s Gi , Li ‾ + P Gi , Li b Gi , Li - - - ( 4 )
以上(2)、(3)、(4)三式即构成了本发明的多层结构人脸模型。其中各参数均基于ASM的原理通过训练得到。图2显示了本发明优选的一组特征点,其中所有的星形点201为基准特征点,所有的星形点201和空心原点202组成全局特征点,实心原点203为局部特征点。
图4为本发明人脸特征点的离线模板训练方法流程图。
人脸特征点的特征表达有很多种,如灰度特征、边缘特征、小波特征等等。本发明采用多尺度多方向Gabor小波来建模特征点附近的局部外观,表达人脸特征点。基于Gabor小波的特征表达具有人类视觉的心理物理基础,并且对于光照变化以及外观变化下的表情识别、人脸识别和特征点表示等都具有很好的鲁棒性。
本发明小波特征的计算方法为:
给定灰度图像
Figure GSB00001006235200112
中的一个像素
Figure GSB00001006235200113
其附近的局部图像
Figure GSB00001006235200114
中的像素为
Figure GSB00001006235200115
一系列Gabor系数可表达该点附近的局部外观,定义为:
J j ( x → ) = ∫ I ( x → ′ ) ψ j ( x → - x ‾ ′ ) d 2 x → ′ - - - ( 5 )
其中Gabor核ψj为高斯包络函数限定的平面波
ψ j ( x → ) = k j 2 σ 2 exp ( - k j 2 x 2 2 σ 2 ) [ exp ( i k → j x → ) - exp ( - σ 2 2 ) ] - - - ( 6 )
k v = 2 - v + 2 2 π ,
Figure GSB000010062352001111
其中,kv为频率,
Figure GSB000010062352001112
为方向,kj为特征小波矢量,kjx为特征小波x方向矢量,kjy为特征小波y方向矢量,选v=0,1,...,9,μ=0,1,...,7,j=μ+8v,
Figure GSB000010062352001113
且频率波宽设为σ=2π。
由此,本发明优选的Gabor核由10个频率、8个方向组成80个Gabor复系数,用以表达像素点附近的外观特征。特别地,可用一个jet向量
Figure GSB000010062352001114
表示这些系数,可写成
Jj=αj exp(iφj),j=0,1,...,79                     (8)
其中,αj和φj分别为第j个Gabor系数的幅值和相位。
给定一幅图像,每个标记的人脸特征点都可以计算得到Gabor小波的jet向量,该jet向量即表达了该点的特征。然而,针对每一个人脸特征点,并非所有80个Gabor复系数均适合表达该特征。为使其能表达各种人脸的共同特征,须对80个Gabor复系数进行实验筛选。以嘴角特征点为例,本发明优选的Gabor复系数为:j=24,...,55。
由此,优选出的即为本发明方法中所用的小波特征。
本发明人脸特征点的离线模板训练方法如下:
首先执行步骤401,选取N张适当的人脸图像作为训练样本。
步骤402,对人脸图像的特征点进行标记。
步骤403,对图像进行归一化处理,以保证所有特征点的Gabor特征的计算条件是相近的,从而保证特征采样的精确性。根据双眼的位置,得到双眼的中点作为基准点,双眼的连线作为图像的横轴,双眼连线的中垂线作为纵轴,对图像进行旋转,同时对图像进行缩放以使双眼之间的距离(瞳距)达到一特定值。通过这种归一化处理后能保证Gabor特征表达的精度和鲁棒性。
然后执行步骤404,计算所有样本的Gabor特征。具体方法是:
将标记的特征点坐标转换至归一化图像中,对每个人脸特征点,根据式(5)-(8)计算其Gabor特征。则对每一个特征点而言,共得N个Gabor特征
Figure GSB00001006235200121
i=0,...,N。
然后,执行步骤405,获得各样本Gabor特征之间的相似度;方法为:
假设Gabor特征
Figure GSB00001006235200123
其相似度可由下式计算得到:
S φ ( J → , J → ′ ) = Σ j α j α ′ j cos ( φ j - φ ′ j - d → k → j ) Σ j α j 2 α j ′ 2 - - - ( 9 )
其中,
Figure GSB00001006235200126
Figure GSB00001006235200127
之间的相对位移,可由下式求得
d → ( J → , J → ′ ) = d x d y = 1 Γ xx Γ xy - Γ xy Γ yx × Γ yy - Γ yx - Γ xy Γ xx Φ x Φ y - - - ( 10 )
如果ΓxxΓyyxyΓyx≠0,其中
Φx=∑jαjα′jkjxj-φ′j),
Γxy=∑jαjα′jkjxkjy
Φy,Γxx,Γyx和Γyy类似地进行定义。
对每个特征点,根据式(9)、(10)计算N个Gabor特征两两之间的相似度,当其相似度大于阈值ST时即认为两者相似,ST可通过实验选取,选取0.85。
然后执行步骤406,计算各样本Gabor特征的相似特征数n。
然后执行步骤407,选择n最大的样本Gabor特征。
然后执行步骤408,判断n是否大于nT
若步骤408的判断结果为否,则执行步骤411,处理下一特征点。然后返回步骤404,继续执行本发明方法。
若步骤408的判断结果为是,则执行步骤409,将Gabor特征加入离线模板。对每一个Gabor特征,设有ni个与其相似的Gabor特征,将ni值最大且大于阈值nT的Gabor特征加入样本特征集
Figure GSB00001006235200131
nT也通过实验选取,选取nT=2。
然后执行步骤410,将该Gabor特征从样本中删除,同时将与其相似度大于阈值ST’的Gabor特征从
Figure GSB00001006235200132
中删除,这里ST’应大于ST,选取0.9。
然后返回步骤405,对步骤405-409作迭代计算。对
Figure GSB00001006235200133
重复上述过程,直到选不出样本为止。
最终的样本特征集
Figure GSB00001006235200134
即为该人脸特征点的特征样本,作为人脸特征的离线模板提供给在线跟踪使用。
图5为本发明人脸跟踪方法的流程图。
本发明方法包含:
步骤501,初始化。本步骤主要初始化引擎,包含:初始化变量,参数设置,参数包括图像格式、分辨率、颜色空间,跟踪模式等。
然后执行步骤502,输入一帧图像。本步骤是根据步骤501设置好的格式输入一帧图像数据。
然后执行步骤503,图像归一化。本步骤是对输入图像进行归一化处理。即根据前一帧的人脸信息,主要为双眼的位置信息,将输入图像转换成标准尺寸的图像,优选的尺寸可为256×256。
对人脸图像进行归一化处理,是为了保证所有特征点的计算条件相近,从而保证特征采样的精确性。根据双眼的位置,得到双眼的中点作为基准点,双眼的连线作为图像的横轴,双眼连线的中垂线作为纵轴,对图像进行旋转,同时对图像进行缩放以使双眼之间的距离(瞳距)达到一特定值。通过这种归一化处理后能保证Gabor特征表达的精度和鲁棒性。
然后执行步骤504,判断是否重新检测。本步骤是根据前一帧的检测结果判断是否重新进行人脸特征检测,若为第一帧图像,则直接进行特征检测。
步骤504的判断结果若为是,则继续步骤505,基于形状约束获得基准特征点。本步骤是利用基准形状模型517,基于ASM形状约束对齐基准特征点,基准特征点不会因为表情的变化而运动,如眼角、鼻端。基准形状模型517的获得方法请参见图2和图3及其对应说明。
步骤505基于形状约束获得基准特征点的具体方法为:
首先需对图像进行归一化预处理。
其次,根据双眼的位置确定刚性基准点的位置。根据双眼位置和人脸模型中的刚性基准形状模型对齐刚性基准点,获得这些基准点的初始位置。然后根据式(2)迭代更新其形状参数,直到满足迭代终止条件,即获得刚性基准点的准确位置。迭代过程中,刚性基准点的精度根据其Gabor特征与离线特征模板的相似度进行判断。具体步骤如下:
(1)对每一刚性基准点i,计算其当前位置
Figure GSB00001006235200141
的Gabor特征
Figure GSB00001006235200142
(2)根据式(9)、(10)计算
Figure GSB00001006235200143
与离线特征模板
Figure GSB00001006235200144
中每个Gabor特征的相似度,取相似度最大者作为与模板的相似度Si,并获得其相对位移为
Figure GSB00001006235200146
(3)当满足以下条件之一时,迭代过程结束,否则转入步骤4):a)所有刚性基准点的平均相似度
Figure GSB00001006235200147
小于上一次迭代的平均相似度
Figure GSB00001006235200148
b)90%以上的点的绝对位移值足够小,即
Figure GSB00001006235200149
这里阈值dT根据所需保证的精度确定,如可选dT=2;
(4)对相对位移值
Figure GSB000010062352001410
进行限定,减少突变误差,使得|dxi|≤dxT,|dyi|≤dyT,这里阈值dxT和dyT根据所需保证的精度确定,如可选dxT=dyT=10;
(5)根据
Figure GSB000010062352001411
对刚性基准点坐标进行更新:
Figure GSB000010062352001412
(6)根据更新的坐标
Figure GSB000010062352001413
和刚性基准形状模型及式(2)更新形状参数。根据更新的形状参数获得新的刚性基准点坐标值;
(7)迭代次数t增加1次。若t超过阈值,则迭代过程结束,否则转入步骤(1)。
然后执行步骤506,基于形状约束获得全局特征点。本步骤是利用全局形状模型518,基于ASM形状约束,对齐全局特征点。全局特征点除包括8个基准特征点外,还包括其他受表情影响较小的点,如嘴角、眉尖等。获得全局形状模型518的具体方法请参见图2和图3及其对应说明。
步骤506的基于形状约束获得全局特征点的具体方法与步骤505相同,不同的是其利用刚性基准点的位置以及全局基准形状模型,并在迭代中固定刚性基准点的位置不变。
然后执行步骤507,基于形状约束获得局部特征点。本步骤是针对人脸的每一个局部特征,利用局部形状模型519,基于ASM形状约束对齐局部特征点。本发明人脸的局部特征点主要包括左眼、右眼、嘴、鼻的轮廓点,如左(右)眼包括眼角、上、下眼睑等,嘴部包括两个嘴角、上/下唇的中点,以及上/下唇中点与嘴角之间的轮廓点等。获得局部形状模型519的具体方法请参见图2和图3及其对应说明。
步骤507基于形状约束获得局部特征点的具体方法与步骤505相同,不同的是其利用局部形状模型,并固定全局基准点的位置不变。
然后执行步骤508,更新在线特征模板。本步骤是根据得到的脸部特征点计算其Gabor小波特征,作为新的在线特征模板
Figure GSB00001006235200151
然后执行步骤515,估计人脸姿态。本步骤是根据6个基础点的位置估计人脸的姿态,6个基础点为:4个眼角点和2个鼻端点。
本发明既可以构建多层结构人脸模型以适应人脸表情的变化,也可以构建不同角度下的人脸形状模型以适应人脸角度的变化,不再赘述。
然而,构建的人脸模型毕竟只能采样有限的角度,如正面人脸,左侧面人脸45度,右侧面人脸45度,等等。为保证人脸特征跟踪的精度,需估计出人脸的角度以选取适当的人脸形状模型,并对其进行角度的补偿。本发明根据人脸的刚性基准特征点的位置即能较好地估计出人脸角度,说明如下。
为减少人脸表情的影响,需选取人脸的基准特征点进行人脸姿态的估计,本发明选择4个眼角点和2个鼻端点作为参考。为估计人脸的姿态,这六个点的三维坐标必须先进行初始化。一般地,特征点的三维坐标Xi=(xi,yi,zi )由通用的三维人脸模型,实际应用中,可要求用户面向摄像头以获得其正面人脸图像,根据检测结果,特征点的xi和yi值自动调整为该用户的值,深度值则仍采用三维模型的值进行近似。设人脸姿态参数αface=(σpan,φtilt,κswing,λ),其中(σpan,φtilt,κswing )为人脸三个方向的欧拉角,λ为人脸大小的缩放值。步骤515估计人脸姿态的具体步骤如下:
1)构建N个三角形。选择任意三个非共线性的特征点组成一个三角形Ti,对每一个Ti,构建一个局部坐标系统Ct
2)由每个三角形获得投影矩阵M。图像坐标与局部坐标系统Ct的关系可表示为
c - c 0 r - r 0 = M x t - x t 0 y t - y t 0 - - - ( 11 )
其中,(c,r)表示坐标系统Ct中三维点(xt,yt,0)的投影图像,(c0,r0)是参考点(xt0,yt0,0)的投影图像,M是2×2的投影矩阵。通过限定欧拉角在
Figure GSB00001006235200162
Figure GSB00001006235200163
的范围,可以从M恢复出两组人脸姿态参数,进而生成完全投影矩阵Pi,但其中只有一个是正确的。
3)计算完全投影矩阵的投影偏差。根据完全投影矩阵Pi将特征点的三维坐标投影到图像中,进而获得其与实际特征点图像坐标的偏差derror。如果derror大于阈值d,则删除该矩阵;否则保留该矩阵,并设置其权重为ωi=(d-derror)2
4)加权得到最终结果。通过对N个三角形的检测,最终得到K个完全投影矩阵Pi,i=1…K,及其对应的权重ωi,i=1…K。对每个Pi,可得到唯一的一组参数αi=(σpan,φtilt,κswing,λ)。最终的人脸姿态参数为:
α face = Σ i - 1 K α i * ω i Σ i = 1 K ω i - - - ( 12 )
然后返回步骤502循环执行在线跟踪方法步骤502至508以及步骤515,并执行步骤516,输出人脸特征点及人脸姿态信息。
步骤504的判断结果若为否,则执行步骤509,基于在线模板更新眼角点。本步骤是基于在线模板与特征点的上一帧位置的小波特征进行比较,计算4个眼角点的位移,从而得到眼角的新位置。步骤509的具体获得方法为:
(1)根据前一帧的双眼位置对图像进行归一化预处理;
(2)根据在线特征模板更新刚性基准点中的眼角特征点:对于眼角特征点
Figure GSB00001006235200165
计算其在当前图像的Gabor特征
Figure GSB00001006235200166
然后根据式(10)计算
Figure GSB00001006235200167
与在线特征模板的位移
Figure GSB00001006235200169
则眼角特征点可更新为:
Figure GSB000010062352001610
然后执行步骤510,基于离线特征模板调整眼角点。本步骤是计算离线训练的特征模板与在线特征模板的距离和相似度,根据该距离和相似度对眼角位置进行修改得到新的位置。
获得离线特征模板的具体方法见图4及其对应的说明。
步骤510的具体计算方法为:根据离线特征模板对眼角特征点进行再修正:对于眼角特征点根据式(9)、(10)计算在线特征模板
Figure GSB00001006235200172
与离线特征模板的相似度S′i和位移
Figure GSB00001006235200174
则眼角特征点可进一步修正为 X → i = X → i + d → ′ i 2 ( 1 + exp ( 10 ( ϵ - S ′ i ) ) ) , 其中ε为相似度调整值,根据精度要求进行设置,如优选可设为ε=0.55。
然后执行步骤511,更新其他特征点。首先,计算新的眼角特征点位置与上一帧位置的平均位移作为人脸刚性运动的初步估计,更新其他特征点所有特征点的坐标为:
Figure GSB00001006235200176
然后对每一特征点,重复步骤509与510,对眼角特征点以外的其他特征点的位置进行更新。
然后执行步骤512,根据前一帧的人脸姿态更新各形状模型的平均形状。本步骤是根据前一帧估计的人脸姿态进行误差补偿,对人脸的形状模型进行更新,以得到该姿态下的形状模型。
然后执行步骤513,基于形状约束更新全局特征点。本步骤是对全局特征点,根据补偿的全局形状模型进行形状约束,获得形状参数,根据该形状参数获得准确的全局特征点。本步骤是基于步骤512所更新的形状模型约束更新全局特征点的位置。
然后执行步骤514,基于形状约束更新局部特征点。本步骤是针对人脸的每一个局部特征,这一过程中,全局特征点不再更新。本步骤是基于步骤512所更新的形状模型约束更新其局部特征点的位置。
然后执行步骤508,对所有特征点,计算其Gabor特征作为新的在线特征模板
Figure GSB00001006235200177
以上过程根据检测的人脸及人眼的位置完成了人脸特征点的检测定位。由于各个人脸的差异性,其特征点的Gabor特征与离线特征模板的相似度各不相同。为此,根据当前人脸特征点位置获得其Gabor特征作为后续帧人脸跟踪的特征模板,即在线特征模板
Figure GSB00001006235200178
以提高人脸特征跟踪的效率和精度。
图6为本发明人脸比对方法的流程图。本发明方法包含:
步骤601,人脸跟踪,获取特征点。本步骤对输入的视频或者摄像头实时画面中的人脸进行处理,获取特征点的精确位置。其详细方法在图1-图5及其对应的说明书中详细说明。
应该注意的是,本发明的跟踪部分选取的人脸特征为人脸的共同性的特征,如图2中所示28个特征点。
然后执行步骤602,检测图像质量,判断是否满足条件。本步骤是对于步骤601所获取的图像质量进行判断,判断图像以及特征点的提取结果是否满足注册或比对的条件。检测的参数包括图像的亮度、光照的均匀性等。
若步骤602的判断结果为否,则执行步骤610。
若步骤602的判断结果为是,则执行步骤603,提取详细的人脸特征数据。应注意的是:为完整表达不同人脸之间的差异性,需提取适当的人脸特征点,以便充分表达人脸信息。本发明选取人脸上的显著特征点作为比对依据,除了图2中所示28个特征点外,还增加双眉之间的中点、鼻根即双眼之间的中点、鼻尖,等等。根据精度、运算性能等要求,可对特征点的选取适当进行调整。而人脸特征点的特征必须选取式(8)中所有80个Gabor复系数,表达完整的人脸信息,以使不同人脸之间的差异最大化。步骤603的具体方法为:
根据人脸检测跟踪得到的精确的人脸特征点位置,插值获得其他选取的人脸特征点的位置,如:鼻根为双眼位置的中点、鼻尖为4个鼻测点的中心点,等等。
根据双眼位置对图像进行归一化处理。
根据式(8)计算得到人脸特征点i的Gabor特征
Figure GSB00001006235200181
所有特征点的Gabor特征即组成一个人脸特征模板
Figure GSB00001006235200182
i=1,2,...,N,N为选取的人脸特征点个数。
然后执行步骤604人脸注册或者步骤605人脸比对。
步骤604人脸注册是保存人脸特征数据至人脸数据库。具体方法为:
将步骤603获得的详细的人脸特征数据与此人已有的人脸特征模板库进行比较,若其相似度S>ST,则不保存该特征,否则将该特征加入此人的人脸特征模板库
Figure GSB00001006235200183
j=0,...,M,M为此人的特征模板个数,保存至数据库。阈值ST根据实验选取,其相似度S的具体计算方法为:
(5)对特征模板
Figure GSB00001006235200184
j=0,...,M,根据式(9)计算输入人脸的特征
Figure GSB00001006235200185
Figure GSB00001006235200186
之间的相似度Sji
(6)计算输入人脸与特征模板
Figure GSB00001006235200187
的相似度为:
Figure GSB00001006235200188
(7)计算输入人脸与人脸k的相似度为:
Figure GSB00001006235200189
步骤604执行完之后,执行606退出。
步骤605是将该人脸特征数据与人脸数据库中的每一个人脸的特征数据进行比对,获得其相似性,保存其与数据库中各人脸的相似度值。具体方法为:
假设数据库中有K个人脸的特征模板库,则
(1)选取数据库中的一个人脸k的特征模板库
Figure GSB00001006235200191
k=0,...,K;
(2)对特征模板j=0,...,M,根据式(9)计算输入人脸的特征
Figure GSB00001006235200193
之间的相似度Skji
(3)计算输入人脸与特征模板
Figure GSB00001006235200195
的相似度为:
Figure GSB00001006235200196
(4)计算输入人脸与人脸k的相似度为:
Figure GSB00001006235200197
(5)重复步骤(1)-(4),获得输入人脸与数据库中所有K个人脸的相似度,取其中最大者 S max = max k { S k } , 得到其对应的人脸k’
其中,M为人的特征模板个数,N为选取的人的人脸特征点个数,i为人脸特征。
然后执行步骤607,判断是否已找到匹配的人脸。当步骤605所得出的相似度值超过设定的阈值时,即判断为找到了匹配的人脸。设δ为相似度阈值,可根据实验确定。若Smax>δ,则认为与输入人脸相匹配的是数据库中的人脸k’,否则认为数据库中没有匹配的人脸。
步骤607的判断结果若为否,则执行步骤610。
步骤607的判断结果若为是,则继续步骤608,判断表情是否有显著变化。本步骤是根据连续多帧人脸特征点进行分析,如嘴巴的张开与闭合,眼睛的张开与闭合等,判断人脸的表情是否发生了显著的变化。本步骤是为了判断当前的输入是真实的人还是静态的照片。表情没有显著变化即认为当前输入是静态照片。相反,表情有显著变化,则认为当前输入是真实的人脸。
步骤608的判断结果为否时,执行步骤610。
步骤608的判断结果为是时,执行步骤609,输出比中的人脸。本步骤是输出比中的一个或多个人脸,输出顺序可以定义,例如:按照相似度由大到小的顺序;或者按照相似度由小到大的顺序;或者定义其他顺序。
然后执行步骤606,退出。
步骤610是判断是否满足退出条件。本发明可以设置多个退出条件,如:处理视频的时间超过了一定的时间长度,或者在对人脸与数据库进行了一定的比较后仍然没有找到匹配的人脸,等等。
本发明选取人脸上的显著特征点作为比对依据,如:双眉之间的中点,鼻根即双眼之间的中点,鼻尖等。根据精度、运算性能等要求,可对特征点的选取适当进行调整。人脸特征点的特征从式(8)中所有80个Gabor复系数中选取,表达了完整的人脸信息,使不同人脸之间的差异最大化。人脸比对的准确性和鲁棒性较好。
使用本发明的人脸比对方法,消除了人脸表情、姿态的影响,在比对中判断出了人脸的真实性,使得跟踪和比对准确性、精度和鲁棒性更高。
使用本发明,能够判断当前输入为真实的人脸还是静态的照片。
以上说明和图示仅为了清楚说明和易于理解本发明,本领域技术人员应可以增加或者减少某个步骤,或者对某个步骤做出简单变换,所有简单的变换和增减均属于本发明的保护范围。

Claims (4)

1.一种人脸比对方法,其特征在于,包含:
步骤601,人脸跟踪,获取特征点;
其中,人脸跟踪,获取特征点具体包含离线训练方法和在线跟踪方法;
该离线训练方法包含多层结构人脸模型训练方法和人脸特征点的离线模板训练方法;
该多层结构人脸模型训练方法为该在线跟踪方法提供人脸模型,该离线模板训练方法为该在线跟踪方法提供人脸特征点离线模板;
该多层结构人脸模型训练方法包含如下步骤:
步骤301,选取适当的人脸图像作为训练样本;
步骤302,对人脸图像的特征点进行标记;
步骤3031-3061,得到基准形状模型;
步骤3032-3062,得到全局形状模型;
步骤3033-3063,得到局部形状模型;
所述基准形状模型、该全局形状模型与该局部形状模型的获得方法为:
用s表示一个人脸形状向量:
其中, 
Figure FSB00001006235100012
为平均人脸形状;P为一组正交的主形状变化模式;b为形状参数向量;
人脸形状向量s表示为(sR,sG,sL)T,其中sR、sG和sL分别表示基准特征点、全局特征点和局部特征点;
刚性基准形状的点分布模型
Figure FSB00001006235100013
全局基准形状的点分布模型
Figure FSB00001006235100014
局部形状模型的点分布模型
Figure FSB00001006235100015
第i个局部形状向量为sGi,Li={sGi,sLi},其中sGi,sLi分别表示属于第i个局部形状 的全局和局部特征点,
其中,人脸特征点的表达方法为:
给定灰度图像 
Figure FSB00001006235100021
中的一个像素 
Figure FSB00001006235100022
其附近的局部图像 
Figure FSB00001006235100023
中的像素为 
Figure FSB00001006235100024
一系列Gabor系数 表达该点附近的局部外观,定义为:
Figure FSB00001006235100026
其中Gabor核ψj为高斯包络函数限定的平面波,
Figure FSB00001006235100027
Figure FSB00001006235100028
Figure FSB00001006235100029
Figure FSB000010062351000210
其中,kv为频率, 为方向,kj为特征小波矢量,kjx为特征小波x方向矢量,kjy为特征小波y方向矢量,选v=0,1,...,9,μ=0,1,...,7,j=μ+8v, 
Figure FSB000010062351000212
且频率波宽设为σ=2π;
Gabor核由10个频率、8个方向组成80个Gabor复系数,用以表达像素点附近的外观特征,用一个jet向量 
Figure FSB000010062351000213
表示这些系数,Jj=αjexp(iφj),j=0,1,...,79,
其中,αj和φj分别为第j个Gabor系数的幅值和相位;
对80个Gabor复系数进行实验筛选,得到该人脸特征点表达所用的小波特征,
其中,人脸特征点的离线模板训练方法如下:
步骤401,选取N张适当的人脸图像作为训练样本;
步骤402,对人脸图像的特征点进行标记;
步骤403,对图像进行归一化处理;
步骤404,计算所有样本的Gabor特征;
步骤405,获得各样本Gabor特征之间的相似度;
Figure FSB000010062351000214
其中, 
Figure FSB000010062351000215
和 
Figure FSB000010062351000216
为Gabor特征,α′j和 分别为Gabor系数的幅值和相位;
Figure FSB000010062351000218
为 
Figure FSB000010062351000219
和 
Figure FSB000010062351000220
之间的相对位移;
Figure FSB000010062351000221
如果ΓxxΓyyxyΓyx≠0,其中 
Φx=∑jαjα′j kjxj-φ′j),
Γxy=∑jαjα′jkjxkjy
Φy,Γxx,Γyx和Γyy类似地进行定义;
对每个特征点,计算N个Gabor特征两两之间的相似度,当其相似度大于阈值ST时即认为两者相似,ST通过实验选取,选取0.85;步骤406,计算各样本Gabor特征的相似特征数n;
步骤407,选择n最大的样本Gabor特征;
步骤408,判断n是否大于nT
若步骤408的判断结果为否,则执行步骤411,处理下一特征点,然后返回步骤404继续执行;
若步骤408的判断结果为是,则执行步骤409,将Gabor特征加入离线模板;对每一个Gabor特征,设有ni个与其相似的Gabor特征,将ni值最大且大于阈值nT的Gabor特征加入样本特征集 nT也通过实验选取,选取nT=2;
步骤410,将该Gabor特征从样本中删除,同时将与其相似度大于阈值ST’的Gabor特征从 中删除,ST’大于ST,选取0.9;
返回步骤405,对步骤405-409作迭代计算;对 
Figure FSB00001006235100033
重复上述过程,直到选不出样本为止;
最终的样本特征集 
Figure FSB00001006235100034
即为该人脸特征点的特征样本,作为人脸特征的离线模板提供给该在线跟踪方法使用,
其中,在线跟踪方法包含:
步骤501,初始化,初始化变量和参数设置,参数包含但不限于图像格式、分辨率、颜色空间,跟踪模式;
步骤502,输入一帧图像;
步骤503,图像归一化,将输入图像转换成标准尺寸的图像;
步骤504,判断是否重新检测;
若步骤504的判断结果为是,则执行步骤505,利用基准形状模型,基于ASM形状约束,对齐基准特征点;
步骤506,利用全局形状模型,基于ASM形状约束,对齐全局特征点;
步骤507,利用局部形状模型,基于ASM形状约束,对齐局部特征点;
步骤508,更新在线特征模板,根据得到的脸部特征点的位置更新其小波特征作为该人 脸的在线特征模板;
步骤515,估计人脸姿态,根据六个基础点的位置估计人脸的姿态;
返回步骤502循环执行在线跟踪方法的步骤502至步骤508以及步骤515并执行步骤516,输出人脸特征点及人脸姿态信息;
若步骤504的判断结果若为否,则执行步骤509,基于在线特征模板更新眼角点;
然后执行步骤510,基于离线特征模板调整眼角点;
然后执行步骤511,更新其他特征点;
然后执行步骤512,根据前一帧的人脸姿态更新各形状模型的平均形状;
然后执行步骤513,基于形状约束更新全局特征点;
然后执行步骤514,基于形状约束更新局部特征点;
然后返回步骤508,继续执行在线跟踪方法步骤509至步骤514,
步骤603,提取详细的人脸特征数据;
其中,提取详细的人脸特征数据的具体方法为:
根据步骤601人脸检测跟踪得到的精确的人脸特征点位置,插值获得其他选取的人脸特征点的位置;
根据双眼位置对图像进行归一化处理;
计算得到人脸特征点i的Gabor特征 
Figure FSB00001006235100041
所有特征点的Gabor特征即组成一个人脸特征数据 
Figure FSB00001006235100042
i=1,2,...,N,N为选取的人脸特征点个数,
步骤605人脸比对,将该人脸特征数据与人脸数据库中的每一个人脸的特征数据进行比对,获得其相似性;具体方法为:
(1)选取数据库中的一个人脸k的特征模板库 
Figure FSB00001006235100043
k=0,...,K;
(2)对特征模板 
Figure FSB00001006235100044
j=0,...,M,计算输入人脸的特征 
Figure FSB00001006235100045
与 
Figure FSB00001006235100046
之间的相似度Skji
(3)计算输入人脸与特征模板 
Figure FSB00001006235100047
的相似度 
Figure FSB00001006235100048
(4)计算输入人脸与人脸k的相似度为 
Figure FSB00001006235100049
(5)重复步骤(1)-(4),获得输入人脸与数据库中所有K个人脸的相似度,取其中最大者
Figure FSB000010062351000410
得到其对应的人脸k’;
其中,M为人的特征模板个数,N为选取的人的人脸特征点个数,i为人脸特征,
步骤607,判断是否已找到匹配的人脸;δ为相似度阈值,若Smax>δ,则判断输入人 脸与数据库中的人脸k’相匹配;
步骤608,判断表情是否有显著变化;根据连续多帧人脸特征点进行分析,包括但不限于:嘴巴的张开与闭合,眼睛的张开与闭合,判断人脸的表情是否发生了显著的变化;
在人脸表情有显著变化时,执行步骤609,输出比中的人脸。
2.如权利要求1所述的人脸比对方法,其特征在于,该人脸特征点为人脸上的显著特征点,人脸特征点的特征选取所有80个Gabor复系数,表达完整的人脸信息,完整表达不同人脸之间的差异性。
3.如权利要求1所述的人脸比对方法,其特征在于,该步骤601人脸跟踪,获取特征点所选取的人脸特征为人脸的共同性的特征。
4.如权利要求1所述的人脸比对方法,其特征在于,还包含
步骤602,检测图像质量,判断是否满足条件,本步骤是对于步骤601所获取的图像质量进行判断,判断图像以及特征点的提取结果是否满足注册或比对的条件,检测的参数包括图像的亮度、光照的均匀性等,
若步骤602的判断结果为否,则执行步骤610,
若步骤602的判断结果为是,则执行步骤603,提取详细的人脸特征数据,应注意的是:为完整表达不同人脸之间的差异性,需提取适当的人脸特征点,以便充分表达人脸信息,所述人脸特征数据选取人脸上的显著特征点作为比对依据,除了人脸的共同性的特征外,还增加双眉之间的中点、鼻根即双眼之间的中点、鼻尖的特征点,根据精度、运算性能要求,对特征点的选取适当进行调整,而人脸特征点的特征必须选取式Jj=αj exp(iφj),j=0,1,...,79中所有80个Gabor复系数,表达完整的人脸信息,以使不同人脸之间的差异最大化,步骤603的具体方法为:
根据人脸检测跟踪得到的精确的人脸特征点位置,插值获得其他选取的人脸特征点的位置,鼻根为双眼位置的中点、鼻尖为4个鼻测点的中心点,
根据双眼位置对图像进行归一化处理,
根据式Jj=αjexp(iφj),j=0,1,...,79计算得到人脸特征点i的Gabor特征 
Figure FSB00001006235100051
所有特征点的Gabor特征即组成一个人脸特征模板 
Figure FSB00001006235100052
i=1,2,...,N,N为选取的人脸特征点个数,
然后执行步骤604人脸注册或者步骤605人脸比对,
步骤604人脸注册;保存人脸特征数据至人脸数据库;具体方法为:
将步骤603获得的详细的人脸特征数据与此人已有的人脸特征模板库进行比较,若其 相似度S>ST,则不保存该特征,否则将该特征加入此人的人脸特征模板库 
Figure FSB00001006235100061
j=0,...,M,M为此人的特征模板个数,保存至数据库;其相似度S的具体计算方法为:
(1)对特征模板 
Figure FSB00001006235100062
j=0,...,M,根据式
Figure FSB00001006235100063
计算输入人脸的特征 
Figure FSB00001006235100064
与 
Figure FSB00001006235100065
之间的相似度Sji
(2)计算输入人脸与特征模板 的相似度为: 
Figure FSB00001006235100067
其中,N为选取的人脸特征点个数;
(3)计算输入人脸与人脸k的相似度为: 
Figure FSB00001006235100068
CN 201010237415 2010-07-27 2010-07-27 一种人脸比对方法 Expired - Fee Related CN101964064B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN 201010237415 CN101964064B (zh) 2010-07-27 2010-07-27 一种人脸比对方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN 201010237415 CN101964064B (zh) 2010-07-27 2010-07-27 一种人脸比对方法

Publications (2)

Publication Number Publication Date
CN101964064A CN101964064A (zh) 2011-02-02
CN101964064B true CN101964064B (zh) 2013-06-19

Family

ID=43516929

Family Applications (1)

Application Number Title Priority Date Filing Date
CN 201010237415 Expired - Fee Related CN101964064B (zh) 2010-07-27 2010-07-27 一种人脸比对方法

Country Status (1)

Country Link
CN (1) CN101964064B (zh)

Families Citing this family (46)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5713821B2 (ja) * 2011-06-30 2015-05-07 キヤノン株式会社 画像処理装置及び方法、並びに画像処理装置を有するカメラ
FR2979728B1 (fr) * 2011-09-01 2016-05-13 Morpho Detection de fraude pour systeme de controle d'acces de type biometrique
CN102368300A (zh) * 2011-09-07 2012-03-07 常州蓝城信息科技有限公司 基于复杂环境下目标人群的多种特征的提取方法
CN103093199B (zh) * 2013-01-15 2015-09-23 中国科学院自动化研究所 基于在线识别的特定人脸跟踪方法
CN103105922A (zh) * 2013-02-19 2013-05-15 广东欧珀移动通信有限公司 一种移动终端背光控制方法及装置
CN104143076B (zh) * 2013-05-09 2016-08-03 腾讯科技(深圳)有限公司 人脸形状的匹配方法和系统
CN103679159B (zh) * 2013-12-31 2017-10-17 海信集团有限公司 人脸识别方法
CN104751108B (zh) * 2013-12-31 2019-05-17 汉王科技股份有限公司 人脸图像识别装置和人脸图像识别方法
CN104765739B (zh) * 2014-01-06 2018-11-02 南京宜开数据分析技术有限公司 基于形状空间的大规模人脸数据库检索方法
CN103824052B (zh) * 2014-02-17 2017-05-03 北京旷视科技有限公司 一种基于多层次语义特征的人脸特征提取方法及识别方法
CN103824051B (zh) * 2014-02-17 2017-05-03 北京旷视科技有限公司 一种基于局部区域匹配的人脸搜索方法
CN104008732B (zh) * 2014-05-14 2016-03-09 陆俊 一种液晶显示器led背光源亮度调节方法及系统
CN104091160B (zh) * 2014-07-14 2017-12-08 成都万维图新信息技术有限公司 一种人脸检测方法
CN104298963B (zh) * 2014-09-11 2017-11-07 浙江捷尚视觉科技股份有限公司 一种鲁棒的基于人脸形状回归模型的多姿态疲劳监测方法
CN105405094A (zh) * 2015-11-26 2016-03-16 掌赢信息科技(上海)有限公司 一种即时视频中的人脸处理方法及电子设备
CN105477859B (zh) * 2015-11-26 2019-02-19 北京像素软件科技股份有限公司 一种基于用户颜值的游戏控制方法及装置
CN105868695B (zh) * 2016-03-24 2019-04-02 北京握奇数据系统有限公司 一种人脸识别方法及系统
CN107292218A (zh) * 2016-04-01 2017-10-24 中兴通讯股份有限公司 一种表情识别方法及装置
CN107463865B (zh) * 2016-06-02 2020-11-13 北京陌上花科技有限公司 人脸检测模型训练方法、人脸检测方法及装置
CN106156976A (zh) * 2016-06-23 2016-11-23 武汉微诚科技股份有限公司 物联网仓库智能化管理方法及系统
CN106204722A (zh) * 2016-06-30 2016-12-07 扬州大学 融合形状特征和拓扑特征的颜面柔性体虚拟评价方法
CN107705320B (zh) * 2016-08-08 2022-01-11 佳能株式会社 跟踪视频中的对象的边界点的方法和装置
CN106295602A (zh) * 2016-08-18 2017-01-04 无锡天脉聚源传媒科技有限公司 一种人脸识别方法及装置
CN106385406A (zh) * 2016-09-05 2017-02-08 北京小米移动软件有限公司 视频播放方法及装置
CN106650586B (zh) * 2016-09-30 2019-09-24 厦门大图智能科技有限公司 一种人脸跟踪方法及系统
CN106980819A (zh) * 2017-03-03 2017-07-25 竹间智能科技(上海)有限公司 基于人脸五官的相似度判别系统
CN107341827B (zh) * 2017-07-27 2023-01-24 腾讯科技(深圳)有限公司 一种视频处理方法、装置和存储介质
CN107560083B (zh) * 2017-09-11 2020-08-25 广东美的制冷设备有限公司 空调控制方法、装置及系统
CN107657216A (zh) * 2017-09-11 2018-02-02 安徽慧视金瞳科技有限公司 基于干扰特征向量数据集的1比1人脸特征向量比对方法
CN107944381B (zh) * 2017-11-20 2020-06-16 深圳云天励飞技术有限公司 人脸跟踪方法、装置、终端及存储介质
CN108052879B (zh) * 2017-11-29 2020-08-07 厦门瑞为信息技术有限公司 一种降低人脸识别误识率的方法
CN108009489A (zh) * 2017-11-29 2018-05-08 合肥寰景信息技术有限公司 用于海量数据的人脸布控分析系统
CN108133177A (zh) * 2017-12-06 2018-06-08 山东超越数控电子股份有限公司 一种提高人脸检测可靠性的方法
CN108038176B (zh) * 2017-12-07 2020-09-29 浙江大华技术股份有限公司 一种路人库的建立方法、装置、电子设备及介质
CN108109107B (zh) * 2017-12-18 2021-08-20 北京奇虎科技有限公司 视频数据处理方法及装置、计算设备
CN109344703B (zh) * 2018-08-24 2021-06-25 深圳市商汤科技有限公司 对象检测方法及装置、电子设备和存储介质
CN109788190B (zh) * 2018-12-10 2021-04-06 北京奇艺世纪科技有限公司 一种图像处理方法、装置、移动终端及存储介质
CN109753924A (zh) * 2018-12-29 2019-05-14 上海乂学教育科技有限公司 一种用于在线教育的人脸识别系统、方法及应用
CN110324650A (zh) * 2019-07-22 2019-10-11 北京达佳互联信息技术有限公司 数据匹配的方法、装置、电子设备及存储介质
CN111027385B (zh) * 2019-11-08 2023-09-15 新大陆数字技术股份有限公司 聚类访客统计方法、系统、设备及计算机可读存储介质
CN110910549A (zh) * 2019-11-15 2020-03-24 江苏高泰软件技术有限公司 基于深度学习和人脸识别特征的校园人员安全管理系统
CN111768511A (zh) * 2020-07-07 2020-10-13 湖北省电力装备有限公司 一种基于云测温设备的员工信息记录方法及装置
CN112507848B (zh) * 2020-12-03 2021-05-14 中科智云科技有限公司 一种移动端实时人脸姿态估计方法
CN112287918B (zh) * 2020-12-31 2021-03-19 湖北亿咖通科技有限公司 一种人脸识别方法、装置及电子设备
CN113177489B (zh) * 2021-05-07 2021-12-07 艾拉物联网络(深圳)有限公司 一种安防监控用高精度人像识别方法及系统
CN114312666A (zh) * 2021-11-22 2022-04-12 江铃汽车股份有限公司 基于人脸识别的车辆控制方法、装置、存储介质及设备

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1959701A (zh) * 2005-11-03 2007-05-09 中国科学院自动化研究所 实时的从视频中跟踪多个人脸的方法
CN101324920A (zh) * 2007-06-15 2008-12-17 上海银晨智能识别科技有限公司 搜索人脸显著特征点的方法及人脸比对方法
CN101344914A (zh) * 2007-07-09 2009-01-14 上海耀明仪表控制有限公司 基于特征点的人脸识别方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005196678A (ja) * 2004-01-09 2005-07-21 Neucore Technol Inc テンプレートマッチング方法および対象画像領域抽出装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1959701A (zh) * 2005-11-03 2007-05-09 中国科学院自动化研究所 实时的从视频中跟踪多个人脸的方法
CN101324920A (zh) * 2007-06-15 2008-12-17 上海银晨智能识别科技有限公司 搜索人脸显著特征点的方法及人脸比对方法
CN101344914A (zh) * 2007-07-09 2009-01-14 上海耀明仪表控制有限公司 基于特征点的人脸识别方法

Also Published As

Publication number Publication date
CN101964064A (zh) 2011-02-02

Similar Documents

Publication Publication Date Title
CN101964064B (zh) 一种人脸比对方法
CN101968846B (zh) 一种人脸跟踪方法
CN102654903A (zh) 一种人脸比对方法
TWI430185B (zh) 臉部表情辨識系統及其辨識方法及其電腦程式產品
CN101777116B (zh) 一种基于动作跟踪的脸部表情分析方法
Von Agris et al. The significance of facial features for automatic sign language recognition
Urtasun et al. 3D tracking for gait characterization and recognition
CN103514442B (zh) 一种基于aam模型的视频序列人脸识别方法
US8311954B2 (en) Recovery of 3D human pose by jointly learning metrics and mixtures of experts
CN101819628B (zh) 结合形状特征的稀疏表示人脸识别方法
CN101499128A (zh) 基于视频流的三维人脸动作检测和跟踪方法
Lee et al. Tensor-based AAM with continuous variation estimation: Application to variation-robust face recognition
CN109344713B (zh) 一种姿态鲁棒的人脸识别方法
CN111680550B (zh) 情感信息识别方法、装置、存储介质及计算机设备
CN112001215B (zh) 一种基于三维唇动的文本无关说话人身份识别方法
CN111028319A (zh) 一种基于面部运动单元的三维非真实感表情生成方法
CN105608710A (zh) 一种非刚性人脸检测和追踪定位方法
CN104036299A (zh) 一种基于局部纹理aam的人眼轮廓跟踪方法
CN103093211B (zh) 基于深度核信息图像特征的人体运动跟踪方法
Kare et al. Using bidimensional regression to assess face similarity
CN104732247A (zh) 一种人脸特征定位方法
CN114283265A (zh) 一种基于3d旋转建模的无监督人脸转正方法
Gao et al. Learning and synthesizing MPEG-4 compatible 3-D face animation from video sequence
CN106778579B (zh) 一种基于累计属性的头部姿态估计方法
Riaz et al. A model based approach for expressions invariant face recognition

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
ASS Succession or assignment of patent right

Owner name: SHANGHAI YINGSUI NETWORK TECHNOLOGY CO., LTD.

Free format text: FORMER OWNER: SHANGHAI MOBINEX SOFTWARE TECHNOLOGY CO., LTD.

Effective date: 20150527

C41 Transfer of patent application or patent right or utility model
COR Change of bibliographic data

Free format text: CORRECT: ADDRESS; FROM: 200031 XUHUI, SHANGHAI TO: 200433 YANGPU, SHANGHAI

TR01 Transfer of patent right

Effective date of registration: 20150527

Address after: 200433, room 1, building 853, 564 Min Jing Road, Shanghai, Yangpu District

Patentee after: SHANGHAI YINGSUI NETWORK TECHNOLOGY CO., LTD.

Address before: 200031 Shanghai city Xuhui District Zhaojiabang road 288 business building room 409 Zhongfu

Patentee before: Shanghai Mobinex Software Technology Co., Ltd.

CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20130619

Termination date: 20180727