CN101142584B - 面部特征检测的方法 - Google Patents

面部特征检测的方法 Download PDF

Info

Publication number
CN101142584B
CN101142584B CN2006800055826A CN200680005582A CN101142584B CN 101142584 B CN101142584 B CN 101142584B CN 2006800055826 A CN2006800055826 A CN 2006800055826A CN 200680005582 A CN200680005582 A CN 200680005582A CN 101142584 B CN101142584 B CN 101142584B
Authority
CN
China
Prior art keywords
template
image
eye
zone
facial
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN2006800055826A
Other languages
English (en)
Other versions
CN101142584A (zh
Inventor
亚历山大·西比里亚科夫
米罗斯瓦夫·博贝尔
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of CN101142584A publication Critical patent/CN101142584A/zh
Application granted granted Critical
Publication of CN101142584B publication Critical patent/CN101142584B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • G06V10/7515Shifting the patterns to accommodate for positional errors

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Geometry (AREA)
  • Artificial Intelligence (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明提供了一种面部特征检测的方法。使用模板匹配在图像中检测对象、具体来说检测面部的方法针对同一对象使用至少两个不同的模板。针对左眼、右眼和眼间来提供模板。针对各模板产生置信图,并对置信图进行合并。这可以在几种分辨率下进行。利用对称性、纹理和/或相对于其他面部部分的几何关系来进一步检查检测到的区域。

Description

面部特征检测的方法
技术领域
本发明涉及用于在图像中检测或定位对象特别是面部特征的方法和装置。
背景技术
面部特征检测是在诸如面部识别系统、基于内容的图像检索、视频编码、视频会议、人群监视及智能人-机接口的领域中的许多计算机视觉应用中的必要的第一步骤。
假定在混乱场景中定位面部的通常的面部检测问题,低级分析首先利用诸如灰度级和颜色的像素属性来处理视觉特征的分割。由于它们的低级特性,根据该分析而产生的特征通常是模糊的。在特征分析中,利用与面部几何形状有关的信息将视觉特征分组成更全局的概念一面部和面部特征。通过特征分析,降低了特征模糊性并且确定了面部的定位和面部特征。
图像内的灰度级信息经常用于识别面部特征。诸如眉毛、瞳孔和嘴唇的特征通常比它们周围的面部区域显得更暗。可使用该特性来区分不同的多个面部部分。
近来的几种面部特征提取算法(P.J.L Van Beek,M.J.T.Reinders,B.Sankur,J.C.A.Van Der Lubbe,“Semantic Segmentation of VideophoneImage Sequence”,in Proc.of SPIE Int.Conf.on Visual Communications andImage Processing,1992,pp.1182-1193;H.P.Graf,E.Cosatto,D.Gibson,E.Petajan,and M.Kocheisen,“Multi-modal System for Locating Heads andFaces”,in IEEE Proc.of 2nd Int.Conf.on Automatic Face and GestureRecognition,Vermont,Oct.1996,pp.277-282;和K.M.Lam and H.Yan,“Facial Feature Location and Extraction for Computerised Human FaceRecognition”.in Int.Symposium on information Theory and Its Applications,Sydney,Australia,Nov.1994)搜索分割面部区域内的局部灰度最小值。在这些算法中,首先通过对比度扩展和灰度级形态例程对输入图像进行增强,以提高局部暗块的质量,从而使检测较容易。暗块的提取是由低级灰度级阈值来实现的。
C.Wong,D.Kortenkamp和M.Speich的论文“A Mobile Robot thatRecognises People”(在IEEE Int.Conf.on Tools with ArtificialIntelligence,1995)描述了还在根据颜色分析而间接获得的面部候选内寻找暗的面部区域的机器人实现。算法利用加权的人眼模版来确定一双眼睛的可能定位。
在R.Hoogenboom和M.Lew的“Face Detection Using Local Maxima”(in IEEE Proc.of 2nd Int.Conf.on Automatic Face and GestureRecognition,Vermont,Oct.1996,pp.334-339)中,代之以使用由八个暗相邻像素包围的亮像素限定的局部最大值来表示诸如鼻尖的亮面部斑点。然后,将检测点与特征模版对齐,以便进行相关性测量。
另一方面,G.Yang和T.S.Huang的成果“Human Face Detection in aComplex Background”(Pattern Recognition.27,1994,53-63)研究了马赛克(锥形)图像中的面部的灰度级行为。当面部图像的分辨率由于二次抽样或平均化而逐渐减小时,面部的肉眼可见特征将消失。在低分辨率下,面部区域将变得一致。基于该观察,提出了分级面部检测框架。以低分辨率图像开始,由搜索一致区域的一组规则来建立面部候选。然后,使用较高分辨率下的局部最小值由突出的面部特征的存在来验证该面部候选。将该技术并入到用于旋转不变面部检测的系统(X.-G.Lv,J.Zhou和C.-S.Zhang的“A Novel Algorithm for Rotated Human Face Detection”,inIEEE Conference on Computer Vision and Pattern Recognition,2000),C.Kotropoulos和I.Pitas的“Rule-based Face Detection in Frontal Views”(in Proc.Int.Conf.on Acoustic,Speech and Signal Processing,1997)中提出了算法的扩展。
S.Kawato和N.Teteutani的成果“Real-time Detection ofBetween-the-Eyes with a Circle Frequency Filter”(Accv2002:The5thAsianConference on Computer Vision,Melbourne,2002)声称两眼之间的点对于大多数人是共同的,并且它可以在很大范围的面部定向中被看到。此外,对于任意面部表情,该点周围的图案是相当稳定的。作者提出了基于其圆频率滤波器来检测该特征的算法。检测到两眼之间的点后,就极大地简化了附近面部特征检测的任务,并且我们的提议中利用了该思路。
美国专利6,690,814涉及根据图像序列进行面部和面部特征检测。当新的面部图像与原先记录的背景图像比较时,通过相机位置的特定设置来简化面部检测任务。使用图像减法和设定阈值来定位面部区域并将提取诸如眼睛的面部特征作为面部区域中的暗区域。将不同尺寸的特定匹配滤波器应用于这些暗区域。输出值最大的特定尺寸的滤波器被视为瞳孔的尺寸。在滤波后,通过高斯滤波器使滤波器输出变平滑,得到的局部最大值是瞳孔候选。相机位置的特定设置限制了该方法的可能应用。在我们提出的内容中,我们不依赖于任何预定的相机位置。
美国专利6,681,032描述了包含面部和眼睛检测模块的面部识别系统。该方法与所提出的方法的主要区别是,该面部检测方法完全基于提取皮肤颜色并将它与预先存储的信息进行匹配。该眼睛检测模块基于将关注的匹配区域与本征眼睛(eigeneye)模板进行匹配,该本征眼睛模板是根据基准图像组而构建的。
美国专利6,611,613包含基于观察的眼睛检测方法,该观察为:面部图像的眼睛区域通常包含明显的灰度特征(颜色分量的最大值与最小值之间的微小差异)。接着通过几何形状特征(简缩比、纵横比)和纹理特征(存在明显的水平边缘)来验证提取的区域。所提取的眼睛对确定了面部区域的尺寸、取向和位置,通过其他面部特征(眉毛、鼻孔、嘴)进一步对其进行验证。
美国专利6,381,345描述了适于视频会议应用的眼睛检测方法。首先,使用高斯滤波器来使图像模糊,接着将眼睛提取为大的暗区域,接着使用几何特征来消除眉毛。之后,使用亮度阈值来将眼睛分割,并确定它们的参数。该方法与我们提出的方法的主要区别是,该方法假设面部总是位于图像的中央,并只提取一个眼睛对。同样,该方法使用了预定组的亮度阈值,已经发现难以在不同照明条件下使用它们。
根据美国专利6,151,403的方法由不同于我们的方法的以下步骤组成:(a)基于颜色,确定潜在的皮肤区域;(b)使用形态操作来确定该皮肤区域内的谷区域;(c)使用在谷区域中应用的互相关性来进行模板匹配。
在美国专利6,130,617中描述的眼睛检测方法包括以下步骤:对面部图像进行二值化;提取成对存在的候选区域;在所有对中确定一个候选对作为鼻孔;将相对于鼻孔形成等边三角形的其余候选对设置为眼睛候选对;并将形成较小等边三角形的候选对确定为眼睛。该方法基于将鼻孔作为主要的面部特征进行检测。已经发现,该特征只在特定的相机取向(光轴向上的方向)设置的条件下才是稳定的。在我们提出的方法中,将眼间区域用作主要面部特征,该特征对于不同面部和相机取向都是稳定的。
美国专利5,870,138描述了使用HSV颜色空间来进行面部和面部特征检测的方法。只使用H和S分量来进行面部区域检测。使用带通滤波器在面部区域内根据S和V分量来检测嘴。对面部区域内的V分量进行归一化,并使用与眼睛模板的相关性来定位眼睛。使用区域跟踪来减少搜索区域。
美国专利5,715,325描述了用于人员识别的系统,其中在面部检测的最后阶段使用眼睛特征。首先,降低图像的分辨率并进行归一化以补偿照明变化。接着将其与预先存储的背景图像进行比较以产生二值关注遮罩(binary interest mask)。通过模板匹配来确定面部区域;如果匹配分值超过阈值,则基于神经网络进行进一步的眼睛定位过程。
美国专利6,278,491和5,990,973描述了红眼检测和减少方法。这些方法的主要目的是自动地发现在数字摄影中由于使用闪光灯而导致的红眼。尽管这些方法包括面部和眼睛检测步骤,但它们的主要缺点是它们只对彩色和高分辨率数字图像起作用。使用唯一特征—红瞳孔进行眼睛检测。另外,设计这些方法是为了对单次数字摄影进行后处理,并由于使用计算上代价大的算法(例如,多尺度和多旋转模板匹配)而可能不适合于实时视频处理。
本发明要解决的问题是在诸如低质量图像和杂波背景的复杂环境中进行鲁棒性的面部特征检测。
现有的眼睛检测方法的一个问题是由于在图像中搜索一致的区域对(左眼、右眼)而导致的这些方法的复杂性和低可靠性。即使在简单图像中,也可以发现许多候选区域对,这种模糊性应该由较高层级的判决规则来解决。在本说明书中,眼睛检测基于图像中不常见的特征。该特征是包含左眼、眼间和右眼区域的区域三联体。通过诸如嘴的其他面部特征的存在来进一步验证该区域三联体,以使得眼睛检测变得较不模糊和较不耗时。
发明内容
所附权利要求中对本发明的多个方面进行了阐述。本发明包括使用适当的装置对与图像相对应的信号进行处理。
根据本发明的实施方式所提出的解决方案包括以下步骤:
1、面部特征模板设计和简化。模板只是将面部特征的总体外观表示为暗区域和亮区域的结合。每个面部特征都可以有一组不同的模板。
2、低级图像处理阶段:
·将图像转换为积分图像,以使得后续模板匹配所需要的时间与模板尺寸无关。
·逐像素地进行模板匹配,得到针对各面部特征的多个置信图。
·对置信图进行组合并提取具有高置信级别的面部特征。
3、面部特征分析和选择阶段
·分析区域设置并针对“左眼”、“眼间”和“右眼”提取多组候选。
·基于高置信等级、纹理特征和其他面部特征区域的存在来选择最佳面部特征候选。
4、面部特征检测的分级策略
·对图像和模板的向下取样版本应用步骤1、2。
·提取包含检测到的面部特征的关注区域(ROI)。
·对ROI内的模板和图像的原始版本应用步骤1、2以准确地定位面部特征。
·组合根据不同分辨率得到的结果。如果本方法在多种分辨率之一中失败,则使用从其他分辨率得到的结果。
本发明的另一些方面包括以下内容:
1、针对统一框架中的各面部特征使用任意数量的模板。
2、使用图2中示出的四个具体模板(“眼间区域”、“水平面部特征”和“睁开的眼睛”)
3、基于统计数据分析和信噪比运算进行模板匹配的方法。
4、使用稳定的区域三联体<左眼、眼间、右眼>作为面部区域的主特征。
5、基于高置信层级、纹理特征和其他面部特征区域的存在来选择最佳面部特征候选的方法。
所提出的方法具有重要和有用的特性。首先,它描述了一种允许实时处理的面部特征设计和简化的方法。其次,通过使用已知的积分图像技术获得了模板匹配方法的低成本实时扩展。
附图说明
下面将参照附图来描述本发明的实施方式,附图中:
图1a示出了面部特征的图像;
图1b示出了图1a的图像的二值版本;
图1c和1d示出了针对图1a的面部特征的模板;
图2a至2d是针对其他面部特征的模板;
图3是例示检测面部特征的方法的框图;
图4是例示面部特征检测算法的框图;
图5包括原始图像和示出模板匹配结果的相应图像;
图6是示出由多个模板匹配结果组成的、经阈值化的置信图的连接区域标记的结果;
图7是示出三联体特征检测结果的图像;
图8是例示了特征检测的图像;
图9是例示基于置信图、区域对称性和纹理测量的区域分析和面部特征选择的框图。
具体实施方式
所关注的面部特征的总体外观是由简单模板(图1和2)来编码。模板由多个区域组成,示出了像素值较暗(黑色区域)或像素值较亮(白色区域)的分布。为了定性地估计区域形状,可以使用二值化方法。图1a和1b示出了具有关注的面部特征(眼间区域)的图像和用于模板形状的定性估计的相应二值化。在图1中的实施例中,关注的特征(眼间区域)看起来像两个暗的椭圆区域(参见从图1b中的二值化图像得到的图1c中的模板)。由于实时处理的要求,所有的区域优选地是矩形。这带来了模板的进一步简化,如图1(d)所示。
图2(a)和2(b)中示出了用于眼间区域的两个不同模板。
在以下文本和框图中,这些模板被称为“眼间遮罩1”和“眼间遮罩2”。图2(c)中示出的水平面部特征模板用于检测闭着的眼睛、嘴、鼻孔和眉毛。图2(d)中示出的模板是为检测睁开的眼睛(亮邻近区域中的暗瞳孔)而特别设计的。在以下文本和框图中,图2(c)和(d)的模板也被分别称为“眼睛遮罩1”和“眼睛遮罩2”。
图2中所示的模板是简化的模版;它们只是将各个面部特征的总体外观表示为暗区域和亮区域(矩形)的结合。
图3中示出了用于面部特征检测的分级方法的框图和数据流。
首先,对原始图像和所有模板进行向下取样(S11)。出于速度的原因,使用四个相邻像素的平均并进行因子为2的图像收缩,但也可以使用任何其他图像大小调整方法。为了对模板进行向下取样,将它们矩形的坐标除以2并且向下舍入或向上舍入到最近的整数值。
在下一步骤S12中,将面部特征检测算法应用于图像和模板的向下取样版本。这使计算时间缩短了因子4,但也可能降低面部特征位置的准度。通常,在向下取样图像中可较容易地检测到眼睛,这是因为诸如眼镜的混淆细节不可能以降低的分辨率出现。相反的情况还可以是:较低分辨率下的眉毛可能看上去像闭着的眼睛,而闭着的眼睛还可能几乎消失;在该情况下,眉毛通常成为检测的最终结果。如果可按照原始分辨率检测到嘴,则它通常也可以在较低的分辨率下被检测到。这意味着,即使检测到眉毛而不是眼睛,也可正确地检测到包含眼睛和嘴的面部区域。
考虑到较低分辨率下的检测结果的可能问题,仅使用检测到的特征来提取关注区域(S13)。
最后,对ROI内的模板和图像的原始分辨率应用相同的检测算法,以正确地定位面部特征(S12)。在该步骤中可使用来自较低分辨率下的检测的一些结果(如近似的嘴位置)。该步骤的计算时间与ROI大小成比例,ROI大小通常小于原始图像的大小。
图4中示出了面部特征检测算法(图3中由S12表示)的框图和数据流。该算法有两个主要步骤;第一个是低级图像处理,其包括:
1)积分图像计算(S21)。当模板被表示为不同大小的矩形的结合时,为了快速计算出这些区域内的统计特征(平均和离差),需要特殊的图像预处理。将图像转换为积分表示,就可以仅利用四个像素基准(即矩形的角)快速计算出这种特征。积分图像计算是已知的现有技术。简言之,它包括如下定义的积分图像Sum(x,y)和SumQ(x,y):
Sum ( x , y ) = &Sigma; a &le; x &Sigma; b &le; y I ( a , b ) = I ( x , y ) + S ( x - 1 , y ) + S ( x , y - 1 ) - S ( x - 1 , y - 1 )
SumQ ( x , y ) = &Sigma; a &le; x &Sigma; b &le; y I 2 ( a , b ) = I 2 ( x , y ) + SQ ( x - 1 , y ) + SQ ( x , y - 1 ) - SQ ( x - 1 , y - 1 )
其中I(x,y)是x,y≥0的原始图像,而x,y<0时I(x,y)=0。
2)对每个模板进行模板匹配(S22)。该过程基于针对各个相邻像素的统计假设测试。该步骤的结果是一组置信图。两个图表示出现“眼间”区域的可能性;另两个图表示可能的眼睛区域。置信图的每个像素都包含假设测试的结果,并且可被看作图像区域与模板之间的相似性量度。
3)置信图的组合(S23)。在目前的实现中使用置信图的逐像素乘法,但是也可使用其他组合方法,如相加或最大值选择。逐像素乘法结果的范围取决于置信图的数字格式。在定点表示的情况下,要求另外的除法或位移。
4)置信图的分割(S24)。对各个置信图进行分割,以将高置信的区域与低置信的背景分开。相似性量度还可被解释为信噪比(SNR),其给出了对置信图进行阈值化的可能性。目前的实现中使用SNR~1.1的阈值,该值表示信号电平恰恰高于噪声电平。该阶段也适用更复杂的分割方法(如形态操作或小/大区域消除)。
该算法的第二个步骤包括旨在检测具有高置信值的图像区域的分析。首先,通过应用于经阈值化的置信图的连接组件标记算法来提取所有这样的区域(S25)。然后,将所有可能的区域三联体(左眼区域、眼间区域、右眼区域)进行迭代并且进行对称性的粗略检查(S26)。最后,选择具有高的总置信级、经纹理特征和存在其他面部特征区域(如嘴和鼻孔)而验证的三联体(S27)。置信级的局部最大值被视为准确的眼睛位置。
如下执行该优选实施方式中的模板匹配。
对模板(图2)所定义的图像的两个像素组应用该统计t-测试,便得到以下相似性量度(略过一些等价变形):
( Signal Noise ) 2 = ( Difference between group mean Variability of group ) 2 = | R | &sigma; 2 ( R ) | B | &sigma; 2 ( B ) + | W | &sigma; 2 ( W ) - 1
从上述表达式中移除常量,我们得到我们的相似性量度:
SNR = | R | &sigma; 2 ( R ) | B | &sigma; 2 ( B ) + | W | &sigma; 2 ( W )
其中模板R被表示为两个区域的结合:R=B∪W,其中B是“黑色”区域;W是“白色”区域;σ2(Q)是区域Q中的图像值的离差,|Q|指出了区域Q内的像素数。使用积分图像,对任何矩形区域Q计算σ2(Q)需要2*4个像素基准,而不是2*|Q|个。这里,像素基准是指为了获得像素值而对存储器中的2D图像阵列的单一寻址。
图5示出了对“眼间”和“眼睛”模板的模板匹配的结果。
图6示出了从置信图中提取的一组区域和针对“眼间”和“眼睛”模板向两个置信图的组合结果应用连接区域标记的结果。每个区域都由其边界框示出。图7示出了基于对称性的区域布置分析的结果。该结果包含左眼、眼间、右眼特征的候选。我们假定左右眼之间的距离近似等于嘴和眼睛中部之间的距离。确定具有两个眼睛候选、大小为d×d的矩形搜索范围,其中d是眼睛位置之间的距离。该区域和眼睛之间的垂直距离被选择为d/2。该搜索范围中的包含最高置信图值的区域被选择为嘴区域的候选(图8)。
利用模板匹配的结果和连接区域标记,该算法基于高置信图值、区域对称性和高梯度密度来选择最佳眼睛候选。为了选择与左眼、眼间、右眼和嘴相对应的正确区域组,使用图9中所示的算法。
图9中使用了以下称谓:
·b(x,y)是“眼间”置信图;
·B={B1,...,Bn}是从b(x,y)中提取的一组连接区域;
·e(x,y)是“眼睛”置信图;
·E={E1,...,Em}是从e(x,y)中提取的一组连接区域。
需注意的是,E组包括双眼候选区域和嘴候选区域。
·i,j,k指数分别指定了当前的左眼、右眼和眼间区域。
·对于来自B组的各个区域,预先计算出最大值的位置和其值bmax(xmax,ymax);使用bmax来计算区域组的总分值(图9);(xmax,ymax)表示各个可能的眼间区域的中心。
·来自E组的各个区域具有以下预先计算出的特征:
o  emax(xmax,ymax)-最大值的位置和其值;使用emax来计算区域组的总分值(图9);(xmax,ymax)表示眼睛中心。
o  GE,GM-纹理测量,在区域P内如下来计算它们:
G E = 1 | P | &Sigma; ( x , y ) &Element; P | I ( x + 1 , y ) - I ( x , y ) | ,
G M = 1 | P | &Sigma; ( x , y ) &Element; P | I ( x , y + 1 ) - I ( x , y ) |
这两个纹理测量都对区域组的总分值有贡献(图9)。
下面讨论一些另选例和演变。
还考虑了其他面部特征(如鼻子和鼻孔)的检测,以支持主要面部特征的检测。该实施例可限制其中该方法稳定生效的情况的范围,因为这些面部特征的外观很大程度地受照明条件和相机位置的影响。但在一些特定的应用(如视频会议)中,包括这些特征会使系统更鲁棒。
基于颜色的皮肤分割可显著地限制图像中的搜索范围并减少面部特征的候选数量。该实施例还可限制其中该方法可以生效的情况的范围(灰度级图像、差的照明条件)。
作为一可选项已实现了面部和面部特征的跟踪(参见图3、4,其中可使用任意图像ROI来代替图像)。该模式显著地减少了计算时间,但它不适于处理单一图像。
在该说明书中,术语“图像”用于描述图像单元,包括诸如改变分辨率的处理之后向上取样或向下取样或与积分图像结合,该术语还适用于其他类似的术语,如帧、域、图片或图像、帧等的子单元或区域。在恰当时可互换地使用术语像素和像素的块或组。在说明书中,术语图像是指整个图像或图像的区域,除非从上下文明显看出的情况。类似的是,图像的区域可指整个图像。图像包括帧或域,并且涉及静止图像或图像序列(如电影或视频)中的或有关图像组中的图像。
图像可以是灰度级或彩色图像,或其他类型的多光谱图像,例如IR、UV或其他电磁图像或声像等。
通过适当的软件和/或硬件修改,本发明可以在例如计算机系统中实现。例如,利用计算机等具有控制或处理装置(如处理器或控制装置)、数据存储装置(包括图像存储装置,如存储器、磁存储器、CD、DVD等)、数据输出装置(如显示器或监视器或打印机)、数据输入装置(如键盘)和图像输入装置(如扫描仪),或这样的组件与其他组件的任意组合)可实现本发明。本发明的方面可以软件和/或硬件形式来提供,或可以特定应用装置或特定应用模块(如芯片)来提供。根据本发明的实施方式的装置中的系统组件可例如通过互联网从其他组件远程地提供。
该申请涉及我们的题为“Fast Method Of Object Detection ByStatistical Template Matching”的共同待审申请,此处通过引用将其内容并入。可在上述共同待审申请中找到此处描述的实施方式的某些方面(如统计模板匹配和积分图像的求导和使用)的进一步细节。

Claims (16)

1.一种在图像中检测对象的方法,所述对象包括一组面部特征,在所述图像中能够使用定义简化外观的模板来识别每个所述面部特征,所述模板将各个面部特征的总体外观表示为暗区域和亮区域的结合,所述方法包括步骤:
针对所述对象的眼睛特征和眼间特征分别使用至少第一模板和第二模板,所述第一模板针对所述眼睛特征,并且所述第二模板针对所述眼间特征;
使用所述第一和第二模板来执行模板匹配,以识别匹配所述第一和第二模板的特征;以及
针对每个所述第一和第二模板来处理所述模板匹配的结果,以检测具有特征三联体、匹配所述第一模板的两个特征和匹配所述第二模板的一个特征的至少一个区域。
2.根据权利要求1所述的方法,该方法还包括:通过嘴区域的存在来验证所检测的具有特征三联体的至少一个区域,所述特征三联体包括左眼、右眼以及眼间特征。
3.根据权利要求1所述的方法,该方法包括:使用针对闭着的眼睛和睁开的眼睛二者的模板。
4.根据权利要求1所述的方法,该方法包括:针对对象的至少两个不同模板中的每一个模板,对所述模板匹配的结果进行组合。
5.根据权利要求1所述的方法,该方法包括:得到多个置信图,每个置信图都与针对所述同一对象的模板匹配的结果相关。
6.根据权利要求1所述的方法,该方法包括:
对原始图像进行初始向下取样;以及
在检测可能包含关注对象的至少一个区域的步骤之后,针对所检测的区域执行所述原始图像的模板匹配。
7.根据权利要求6所述的方法,该方法包括:组合针对不同分辨率的所述模板匹配的结果。
8.根据权利要求1所述的方法,该方法包括:在多个分辨率下执行模板匹配;以及得到针对不同分辨率的多个置信图。
9.根据权利要求5所述的方法,其中针对每个第一和第二模板来处理所述模板匹配的结果的步骤包括对所述置信图进行组合。
10.根据权利要求9所述的方法,其中,所述组合包括:逐像素相乘、相加或者最大值选择。
11.根据权利要求10所述的方法,其中所述组合随后进行阈值化和形态后处理。
12.根据权利要求1所述的方法,该方法包括:对由权利要求10的方法得到的二值图像进行连接性分析。
13.根据权利要求1所述的方法,该方法包括:执行区域布置分析。
14.根据权利要求13所述的方法,其中,区域布置分析包括对称性检查。
15.根据权利要求1所述的方法,该方法包括:将模板匹配的结果与一个或更多个纹理信息和所述图像中的其他对象有关的信息进行组合。
16.一种使用权利要求1所述的方法在图像中选择面部区域候选的方法,该方法包括:考虑左眼、右眼以及眼间的区域三联体,并使用嘴区域来验证所述区域三联体。
CN2006800055826A 2005-02-21 2006-02-20 面部特征检测的方法 Expired - Fee Related CN101142584B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP05250970A EP1693782B1 (en) 2005-02-21 2005-02-21 Method for facial features detection
EP05250970.0 2005-02-21
PCT/GB2006/000591 WO2006087581A1 (en) 2005-02-21 2006-02-20 Method for facial features detection

Publications (2)

Publication Number Publication Date
CN101142584A CN101142584A (zh) 2008-03-12
CN101142584B true CN101142584B (zh) 2012-10-10

Family

ID=34940484

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2006800055826A Expired - Fee Related CN101142584B (zh) 2005-02-21 2006-02-20 面部特征检测的方法

Country Status (6)

Country Link
US (1) US20080193020A1 (zh)
EP (1) EP1693782B1 (zh)
JP (1) JP4755202B2 (zh)
CN (1) CN101142584B (zh)
DE (1) DE602005012672D1 (zh)
WO (1) WO2006087581A1 (zh)

Families Citing this family (56)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8675059B2 (en) * 2010-07-29 2014-03-18 Careview Communications, Inc. System and method for using a video monitoring system to prevent and manage decubitus ulcers in patients
US9311540B2 (en) * 2003-12-12 2016-04-12 Careview Communications, Inc. System and method for predicting patient falls
KR100888476B1 (ko) 2007-02-15 2009-03-12 삼성전자주식회사 얼굴이 포함된 영상에서 얼굴의 특징을 추출하는 방법 및장치.
JP2009003730A (ja) * 2007-06-22 2009-01-08 Nintendo Co Ltd 情報処理プログラムおよび情報処理装置
US8542874B2 (en) * 2007-07-11 2013-09-24 Cairos Technologies Ag Videotracking
ATE452379T1 (de) 2007-10-11 2010-01-15 Mvtec Software Gmbh System und verfahren zur 3d-objekterkennung
US9292737B2 (en) 2008-01-18 2016-03-22 Mitek Systems, Inc. Systems and methods for classifying payment documents during mobile image processing
US8724924B2 (en) * 2008-01-18 2014-05-13 Mitek Systems, Inc. Systems and methods for processing mobile images to identify and extract content from forms
US9794523B2 (en) 2011-12-19 2017-10-17 Careview Communications, Inc. Electronic patient sitter management system and method for implementing
US9579047B2 (en) 2013-03-15 2017-02-28 Careview Communications, Inc. Systems and methods for dynamically identifying a patient support surface and patient monitoring
US10645346B2 (en) 2013-01-18 2020-05-05 Careview Communications, Inc. Patient video monitoring systems and methods having detection algorithm recovery from changes in illumination
US9959471B2 (en) 2008-05-06 2018-05-01 Careview Communications, Inc. Patient video monitoring systems and methods for thermal detection of liquids
US9866797B2 (en) 2012-09-28 2018-01-09 Careview Communications, Inc. System and method for monitoring a fall state of a patient while minimizing false alarms
JP2009277027A (ja) * 2008-05-15 2009-11-26 Seiko Epson Corp 画像における顔の器官の画像に対応する器官領域の検出
US8520089B2 (en) * 2008-07-30 2013-08-27 DigitalOptics Corporation Europe Limited Eye beautification
WO2010012448A2 (en) 2008-07-30 2010-02-04 Fotonation Ireland Limited Automatic face and skin beautification using face detection
US9053524B2 (en) 2008-07-30 2015-06-09 Fotonation Limited Eye beautification under inaccurate localization
CN101339607B (zh) * 2008-08-15 2012-08-01 北京中星微电子有限公司 人脸识别方法及系统、人脸识别模型训练方法及系统
KR101522985B1 (ko) * 2008-10-31 2015-05-27 삼성전자주식회사 영상처리 장치 및 방법
US8471899B2 (en) 2008-12-02 2013-06-25 Careview Communications, Inc. System and method for documenting patient procedures
EP2385483B1 (en) 2010-05-07 2012-11-21 MVTec Software GmbH Recognition and pose determination of 3D objects in 3D scenes using geometric point pair descriptors and the generalized Hough Transform
KR101665392B1 (ko) * 2010-07-15 2016-10-12 한화테크윈 주식회사 카메라 내에서의 형상 검출 방법
EP2596458B1 (en) * 2010-07-21 2018-02-21 MBDA UK Limited Image processing method
EP2410466A1 (en) * 2010-07-21 2012-01-25 MBDA UK Limited Image processing method
US9449026B2 (en) * 2010-08-31 2016-09-20 Microsoft Technology Licensing, Llc Sketch-based image search
US8462191B2 (en) 2010-12-06 2013-06-11 Cisco Technology, Inc. Automatic suppression of images of a video feed in a video call or videoconferencing system
JP6026119B2 (ja) * 2012-03-19 2016-11-16 株式会社東芝 生体情報処理装置
WO2013145496A1 (ja) * 2012-03-27 2013-10-03 日本電気株式会社 情報処理装置、情報処理方法、及びプログラム
EP2662827B1 (en) * 2012-05-08 2016-01-13 Axis AB Video analysis
US20140009588A1 (en) * 2012-07-03 2014-01-09 Kabushiki Kaisha Toshiba Video display apparatus and video display method
CN102799885B (zh) * 2012-07-16 2015-07-01 上海大学 嘴唇外轮廓提取方法
TWI471808B (zh) * 2012-07-20 2015-02-01 Pixart Imaging Inc 瞳孔偵測裝置
WO2014144408A2 (en) 2013-03-15 2014-09-18 Nito, Inc. Systems, methods, and software for detecting an object in an image
US9536137B2 (en) 2013-03-26 2017-01-03 Megachips Corporation Object detection apparatus
JP6161931B2 (ja) * 2013-03-26 2017-07-12 株式会社メガチップス 物体検出装置
US9147125B2 (en) 2013-05-03 2015-09-29 Microsoft Technology Licensing, Llc Hand-drawn sketch recognition
US9076270B2 (en) 2013-05-14 2015-07-07 Google Inc. Generating compositions
US9208567B2 (en) 2013-06-04 2015-12-08 Apple Inc. Object landmark detection in images
TWI553501B (zh) * 2014-08-13 2016-10-11 Iris feature identification method and its system
CN105809628B (zh) * 2014-12-30 2021-07-30 南京大目信息科技有限公司 基于局部曲率流分析的胶囊图像滤波方法
JP6346576B2 (ja) * 2015-02-27 2018-06-20 Hoya株式会社 画像処理装置
CN105260740B (zh) * 2015-09-23 2019-03-29 广州视源电子科技股份有限公司 一种元件识别方法及装置
CN105701472B (zh) * 2016-01-15 2019-07-09 杭州鸿雁电器有限公司 一种动态目标的面部识别方法与装置
KR102495359B1 (ko) 2017-10-27 2023-02-02 삼성전자주식회사 객체 트래킹 방법 및 장치
US11087121B2 (en) 2018-04-05 2021-08-10 West Virginia University High accuracy and volume facial recognition on mobile platforms
CN109191539B (zh) * 2018-07-20 2023-01-06 广东数相智能科技有限公司 基于图像的油画生成方法、装置与计算机可读存储介质
CN109146913B (zh) * 2018-08-02 2021-05-18 浪潮金融信息技术有限公司 一种人脸跟踪方法及装置
CN110348361B (zh) * 2019-07-04 2022-05-03 杭州景联文科技有限公司 皮肤纹理图像验证方法、电子设备及记录介质
US11182903B2 (en) * 2019-08-05 2021-11-23 Sony Corporation Image mask generation using a deep neural network
KR20210077993A (ko) 2019-12-18 2021-06-28 삼성전자주식회사 사용자 인증 장치, 사용자 인증 방법, 및 사용자 인증을 위한 학습 방법
CN111738166B (zh) * 2020-06-24 2024-03-01 平安科技(深圳)有限公司 目标轮廓圈定方法、装置、计算机系统及可读存储介质
CN111950515B (zh) * 2020-08-26 2022-10-18 重庆邮电大学 一种基于语义特征金字塔网络的小人脸检测方法
US11763595B2 (en) * 2020-08-27 2023-09-19 Sensormatic Electronics, LLC Method and system for identifying, tracking, and collecting data on a person of interest
CN112836682A (zh) * 2021-03-04 2021-05-25 广东建邦计算机软件股份有限公司 视频中对象的识别方法、装置、计算机设备和存储介质
CN113205138A (zh) * 2021-04-30 2021-08-03 四川云从天府人工智能科技有限公司 人脸人体匹配方法、设备和存储介质
CN113269154B (zh) * 2021-06-29 2023-10-24 北京市商汤科技开发有限公司 一种图像识别方法、装置、设备及存储介质

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5629752A (en) * 1994-10-28 1997-05-13 Fuji Photo Film Co., Ltd. Method of determining an exposure amount using optical recognition of facial features
JP3279913B2 (ja) * 1996-03-18 2002-04-30 株式会社東芝 人物認証装置、特徴点抽出装置及び特徴点抽出方法
DE69910757T2 (de) * 1998-04-13 2004-06-17 Eyematic Interfaces, Inc., Santa Monica Wavelet-basierte gesichtsbewegungserfassung für avataranimation
SG91841A1 (en) * 1999-11-03 2002-10-15 Kent Ridge Digital Labs Face direction estimation using a single gray-level image
KR100343223B1 (ko) * 1999-12-07 2002-07-10 윤종용 화자 위치 검출 장치 및 그 방법
JP2001216515A (ja) * 2000-02-01 2001-08-10 Matsushita Electric Ind Co Ltd 人物の顔の検出方法およびその装置
AUPQ896000A0 (en) * 2000-07-24 2000-08-17 Seeing Machines Pty Ltd Facial image processing system
US7092573B2 (en) * 2001-12-10 2006-08-15 Eastman Kodak Company Method and system for selectively applying enhancement to an image
JP4226247B2 (ja) * 2002-01-15 2009-02-18 富士フイルム株式会社 画像処理装置
JP2003271933A (ja) * 2002-03-18 2003-09-26 Sony Corp 顔検出装置及び顔検出方法並びにロボット装置
US7369687B2 (en) * 2002-11-21 2008-05-06 Advanced Telecommunications Research Institute International Method for extracting face position, program for causing computer to execute the method for extracting face position and apparatus for extracting face position
JP4166143B2 (ja) * 2002-11-21 2008-10-15 株式会社国際電気通信基礎技術研究所 顔位置の抽出方法、およびコンピュータに当該顔位置の抽出方法を実行させるためのプログラムならびに顔位置抽出装置
JP2005044330A (ja) * 2003-07-24 2005-02-17 Univ Of California San Diego 弱仮説生成装置及び方法、学習装置及び方法、検出装置及び方法、表情学習装置及び方法、表情認識装置及び方法、並びにロボット装置

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
BINGLONG XIE ET AL.component fusion for face detection in the presence ofheteroscedatic noise.PROCEEDINGS ANNUAL CONFRERENCE OF THE GERMAN SOCIETY FOR PATTERN RECONGION DRAM.2003,摘要,论文第2-4节,图1-2. *
component fusion for face detection in the presence ofheteroscedatic noise. *
face detection by fuzzy pattern matching.PROCEEDINGS OF THE FIFTH INTERNATIONAL CONFRENCE ON COMPUTER VISION.1995,第595页. *
KAWATO S ET AL.Real-time detection of between-the-eyes with a circlefrequency filter.PROCEEDINGS OF THE FIFTH ASIAN CONFERENCE ON COMPUTER VISION ASIAN FEDERATION OF COMPUTER VISION SOC CLAYTON2.2002,2第3页,附图7. *
KAWATO S ET AL.Real-time detection of nodding and head-shaking by directlydetecting and tracking the "between-eyes").AUTOMATIC FACE AND GESTURE RECONGION.2000,第40-41页,附图1-2、6. *

Also Published As

Publication number Publication date
JP2008530701A (ja) 2008-08-07
DE602005012672D1 (de) 2009-03-26
WO2006087581A1 (en) 2006-08-24
US20080193020A1 (en) 2008-08-14
EP1693782A1 (en) 2006-08-23
EP1693782B1 (en) 2009-02-11
CN101142584A (zh) 2008-03-12
JP4755202B2 (ja) 2011-08-24

Similar Documents

Publication Publication Date Title
CN101142584B (zh) 面部特征检测的方法
Chaudhuri et al. Automatic building detection from high-resolution satellite images based on morphology and internal gray variance
CN105518709B (zh) 用于识别人脸的方法、系统和计算机程序产品
US9064145B2 (en) Identity recognition based on multiple feature fusion for an eye image
CN101558431B (zh) 脸认证设备
CN112686812B (zh) 银行卡倾斜矫正检测方法、装置、可读存储介质和终端
EP2434431A1 (en) Method and device for classifying image
CN103093215A (zh) 人眼定位方法及装置
Zhang et al. License plate localization in unconstrained scenes using a two-stage CNN-RNN
CN109376717A (zh) 人脸对比的身份识别方法、装置、电子设备及存储介质
Hebbale et al. Real time COVID-19 facemask detection using deep learning
Arafah et al. Face recognition system using Viola Jones, histograms of oriented gradients and multi-class support vector machine
CN112686248B (zh) 证件增减类别检测方法、装置、可读存储介质和终端
Kim Detection of traffic signs based on eigen-color model and saliency model in driver assistance systems
Curran et al. The use of neural networks in real-time face detection
Méndez-Llanes et al. On the use of local fixations and quality measures for deep face recognition
Su et al. Automatic seal imprint verification systems using edge difference
Xu et al. Coin recognition method based on SIFT algorithm
Thomas et al. Real Time Face Mask Detection and Recognition using Python
Khin et al. License Plate Identification from Myanmar Vehicle Images under Different Environmental Conditions.
Anveshini et al. Face Recognition Technique based Student Attendance Management System
Nguyen et al. Robust and real-time deep learning system for checking student attendance
Navya SMART ATTENDANCE USING IMAGE PROCESSING TECHNIQUES
Fritz et al. Entropy based saliency maps for object recognition
Hasan Iris Recognition Method for Non-cooperative Images

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20121010

Termination date: 20150220

EXPY Termination of patent right or utility model