CN101271517A - 面部区域检测装置、方法和计算机可读记录介质 - Google Patents

面部区域检测装置、方法和计算机可读记录介质 Download PDF

Info

Publication number
CN101271517A
CN101271517A CNA2008100850763A CN200810085076A CN101271517A CN 101271517 A CN101271517 A CN 101271517A CN A2008100850763 A CNA2008100850763 A CN A2008100850763A CN 200810085076 A CN200810085076 A CN 200810085076A CN 101271517 A CN101271517 A CN 101271517A
Authority
CN
China
Prior art keywords
face
image
past
relative position
presumptive area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CNA2008100850763A
Other languages
English (en)
Other versions
CN101271517B (zh
Inventor
铃木智晴
足立淳
小岛真一
大上健一
蜷川勇二
鱼住重康
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Aisin Corp
Original Assignee
Aisin Seiki Co Ltd
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin Seiki Co Ltd, Toyota Motor Corp filed Critical Aisin Seiki Co Ltd
Publication of CN101271517A publication Critical patent/CN101271517A/zh
Application granted granted Critical
Publication of CN101271517B publication Critical patent/CN101271517B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

图像摄取部分摄取所观察的人的面部。位置检测部分从图像摄取部分摄取的表示面部的面部图像中检测以下位置中的一个:表示鼻子的特征的位置,表示眉毛间区域的特征的位置。计算部分计算以位置检测部分在过去检测的位置为基准的面部的预定区域的过去的相对位置。区域位置检测部分基于计算部分计算的过去的相对位置和位置检测部分检测的当前的位置来检测预定区域的位置。

Description

面部区域检测装置、方法和计算机可读记录介质
技术领域
本发明涉及一种面部区域检测装置、方法和计算机可读记录介质,更具体地涉及一种从摄取了面部的图像中检测面部的预定区域的位置的面部区域检测装置、方法和计算机可读记录介质。
背景技术
传统上已知瞌睡状态检测装置,该装置基于前次测量的眼睛位置设置眼睛搜索区域,如果在眼睛搜索区域内找到眼睛,则认为它们与前次找到的眼睛相同(日本专利No.3312562和No.3444115)。
还已知一种眼睛位置检测装置,该装置检测鼻子的位置,并通过使用检测到的鼻子位置作为基准来设置眼睛搜索区域(日本专利申请早期公开(JP-A)No.2000-67225)。
此外,已知一种眼睛状态检测装置,该装置研究鼻子或眉毛等和上眼睑之间的垂直方向距离,并判断是否准确检测到眼睛(JP-A No.2001-307076)。
然而,在如上所述基于前次测量的眼睛位置设置眼睛搜索区域的情况,如果面部较大幅度地向左或右移动,眼睛会离开所设置的眼睛搜索区域,因此存在不能检测到眼睛的问题。
此外,在如上所述通过使用检测到的鼻子位置作为基准设置眼睛搜索区域的情况,存在如下问题:如果在眼睛搜索区域内找到多个眼睛候选,则需要复杂的处理来检测眼睛的位置。
另外,在如上所述研究鼻子或眉毛等和上眼睑之间的垂直方向距离的情况,由于仅在垂直方向研究鼻子或眉毛和上眼睑的位置之间的位置关系,存在如果面部向左或向右移动则不能正确检测眼睛的问题。
发明内容
考虑到上述情况作出本发明,且本发明提供一种面部区域检测装置。
本发明提供一种面部区域检测装置,其具有:图像摄取部分,用于摄取所观察的人的面部;位置检测部分,用于从图像摄取部分摄取的表示面部的面部图像中检测以下位置中的一个:表示鼻子的特征的位置和表示眉毛之间的区域的特征的位置;计算部分,用于计算以位置检测部分在过去检测到的位置为基准的面部的预定区域的过去的相对位置;以及区域位置检测部分,基于计算部分计算的过去的相对位置和位置检测部分检测到的当前的位置,检测预定区域的位置。
根据本发明,通过图像摄取部分摄取所观察的人的面部。由位置检测部分从图像摄取部分摄取的表示面部的面部图像检测以下两个位置中的任一个:表示鼻子特征的位置和表示眉毛之间的区域的特征的位置。此外,由计算部分计算以位置检测部分在过去检测到的位置为基准的面部的预定区域的过去的相对位置。
然后,由区域位置检测部分基于计算部分所计算的过去的相对位置和位置检测部分检测到的当前的位置检测预定区域的位置。
通过这种方式,通过使用过去的相对位置,通过使用包括表示鼻子的特征的位置和表示眉毛之间的区域的特征的位置中的一个作为基准来检测面部的预定区域的位置。因此通过使用表示鼻子的特征的位置或表示眉毛之间的区域的特征的位置检测面部的预定区域的位置,所述两个位置可轻易地检测。因此,即使面部移动,也可通过简单的计算处理来检测面部的预定区域的位置。
本发明的面部区域检测装置还可包括候选检测部分,用于检测预定区域的位置的多个候选,且区域位置检测部分可通过比较以位置检测部分检测的现在的位置为基准的多个候选的每个的当前的相对位置和计算部分计算的过去的相对位置来检测预定区域的位置。通过这种方式,比较过去的相对位置和当前的相对位置的候选,可通过简单的计算处理检测预定区域的当前的位置。
本发明所涉及的区域位置检测部分可基于计算部分所计算的过去的相对位置检测预定区域的位置,所述过去的相对位置以位置检测部分检测的当前的位置为基准。通过这种方式,可通过简单的计算处理来检测预定区域的当前的位置。
前述表示鼻子的特征的位置可以是面部图像中的左右鼻孔区域的重心的中心点的位置。这样可通过使用可轻易检测的左右鼻孔的区域,通过简单的计算处理来检测预定区域的当前的位置。
此外,面部的预定区域的前述位置可以是眼睛的位置,且眼睛的位置可由面部图像中的上眼睑和眼球之间的边界、面部图像中的下眼睑和眼球之间的边界、面部图像中瞳孔的重心以及上眼睑和眼球之间的边界与下眼睑和眼球之间的边界的中心点中的一个来表示。
面部的预定区域的前述位置可以是眼睛的位置,且眼睛的位置可由面部图像中的下眼睑和眼球之间的边界的垂直方向位置以及上眼睑和眼球之间的边界的左右方向位置来表示。因此可以高精确度地表示面部的预定区域的位置。
本发明所涉及的面部区域检测方法包括:从用于摄取所观察的人的面部的图像摄取部分摄取的表示面部的面部图像中检测以下位置中的一个:表示鼻子的特征的位置和表示眉毛之间的区域的特征的位置;计算以过去检测到的位置为基准的面部的预定区域的过去的相对位置;以及基于计算的过去的相对位置和检测到的当前的位置检测预定区域的位置。
本发明提供一种计算机可读介质,该计算机可读介质存储使计算机执行用于面部区域检测的处理的程序,该处理包括:从用于摄取所观察的人的面部的图像摄取部分所摄取的表示面部的面部图像中检测以下位置中的一个:表示鼻子的特征的位置和表示眉毛之间的区域的特征的位置;计算以过去检测到的位置为基准的面部的预定区域的过去的相对位置;以及基于所计算的过去的相对位置和检测到的当前的位置检测预定区域的位置。
如上所述,根据本发明,通过使用过去的相对位置,通过使用表示鼻子的特征的位置和表示眉毛之间的区域的特征的位置中的一个作为基准来检测面部的预定区域的位置。因此通过使用可轻易地检测的表示鼻子的特征的位置或表示眉毛之间的区域的特征的位置检测面部的预定区域的位置。因此获得了如下效果:即使面部移动,也可通过简单的计算处理检测面部的预定区域的位置。
附图说明
将基于以下附图对本发明的示例性实施例进行更详细的说明,在附图中:
图1是示出与本发明第一示例性实施例相关的眼睛位置检测装置的结构的图;
图2是示出在面部图像中设置的面部区域和鼻孔搜索区域的图;
图3是示出表示面部图像中的鼻孔的区域的重心的中心点的图;
图4是示出在面部图像中设置的右眼搜索区域和左眼搜索区域的图;
图5A是示出右眼图像和左眼图像的图;
图5B是示出右眼图像和左眼图像的Sobel边缘图像的图;
图6是示出在与本发明第一示例性实施例相关的眼睛位置检测装置的图像处理例程的内容的流程图;
图7是示出鼻子位置和下眼睑的位置的多个候选的图;
图8是示出与本发明第二示例性实施例相关的眼睛位置检测装置的结构的图;
图9是示出用于检测眉毛间位置的六分割(six-segmented)矩形滤波器的图;
图10是示出将六分割矩形滤波器应用到面部图像的状态的图;
图11是示出与本发明第三示例性实施例相关的眼睛位置检测装置的结构的图;
图12是示出在与本发明的第三示例性实施例相关的眼睛位置检测装置的图像处理例程的内容的流程图;以及
图13是示出用于示出眼睛位置的上眼睑的边界的拐点和下眼睑的边界的点的图。
具体实施方式
以下将参照附图详细说明本发明的示例性实施例。注意在本示例性实施例中,描述了本发明应用于眼睛位置检测装置的情况的例子,该眼睛位置检测装置从连续摄取的面部图像中检测并跟踪眼睛的位置。
如图1所示,与第一示例性实施例相关的眼睛位置检测装置10具有由CCD照相机等形成的、用于摄取包括作为对象的被摄者的面部的图像的图像摄取部分12;由红外闪光灯或红外LED等形成的、用于与图像摄取部分12的快门操作同步地照明拍摄对象的照明部分14;用于执行图像处理的计算机16,;以及由CRT等构成的显示装置18。
计算机16被构造成包括CPU、存储下文说明的图像处理例程的程序的ROM、存储数据等的RAM以及连接它们的总线。根据分成基于硬件和软件确定的各个功能实现部分的功能块来说明计算机16,如图1所示,计算机16具有:图像输入部分20,用于输入作为从图像摄取部分12输出的灰度图像的面部图像;鼻子位置检测部分22,用于从作为图像输出部分20的输出的面部图像中检测鼻子的位置;眼睛搜索区域设置部分24,用于基于鼻子位置设置眼睛搜索区域;眼睑候选检测部分26,用于从眼睛搜索区域的图像中检测下眼睑的位置的多个候选;相对位置计算部分27,用于计算各个下眼睑位置的候选相对于鼻子位置的相对位置;眼睑位置检测部分28,用于基于下眼睑位置的各个候选的相对位置检测下眼睑的位置作为眼睛位置;以及前次相对位置存储部分30,用于存储眼睑位置相对于前次的鼻子位置的相对位置。
通过例如A/D转换器、存储一个画面的图像数据的图像存储器等构造图像输入部分20。
如下文所述,鼻子位置检测部分22从面部图像检测左右鼻孔的位置(由图像坐标表示的位置)作为表示鼻子的特征的位置,并检测左右鼻孔的位置的中心点的图像坐标作为鼻子位置。
首先,如图2所示,从面部图像提取面部区域F。在提取面部区域F的过程中,计算面部轮廓的边缘,或通过面部轮廓的模式匹配提取面部轮廓,然后在面部轮廓的范围内提取面部区域F。然后,从面部区域F的下部,检测嘴下部的边缘,且检测嘴下部位置M。基于嘴下部位置M,设置用于搜索鼻孔的鼻孔搜索区域。此时,通过使用基于嘴下部的位置和统计数据的比率在面部区域F内设置鼻孔搜索区域N。特别地,在从检测到的嘴下部位置M向上离开预定距离的位置设置鼻孔搜索区域N,从而在面部的中心部分设置鼻孔搜索区域。
例如,假定面部区域F的长度为H且其宽度为W,在从嘴下部位置M向上离开2/16·H且在横向方向位于面部区域F的中心的位置设置长度为9/16·H且宽度为6/16·W的矩形区域作为鼻孔搜索区域N。
然后,在鼻孔搜索区域N的范围内搜索两个相邻的基本为圆形的暗的地方,检测表示鼻孔的区域。例如,在鼻孔搜索区域N的范围内检测水平方向边缘和垂直方向边缘。此处,从左侧到右侧从亮变暗的点是纵向正边缘,从左侧到右侧从暗变亮的点是纵向负边缘。此外,从上侧到下侧从亮变暗的点是横向正边缘,且从上侧到下侧从暗变亮的点是横向负边缘。从纵向正边缘出现在左,纵向负边缘出现在右,横向正边缘出现在上,横向负边缘出现在下的区域检测表示一个鼻孔的区域。
通过上述这四种边缘的位置关系获得的区域是表示一个鼻孔的区域的候选。在检测到两个这样的边缘组横向排列且彼此相邻时,它们是鼻孔候选。此外,如果在鼻孔搜索区域N中检测到两个或更多个鼻孔候选,将其中与嘴下部位置M最接近的鼻孔候选判断为鼻孔。
然后,基于表示如上所述获得的彼此相邻的两个鼻孔的区域,将面部图像中左右鼻孔的区域的重心的中心点的位置(由图像坐标表示的位置)检测为鼻子位置,如图3所示。
如将在下文所述,眼睛搜索区域设置部分24通过使用检测到的鼻子位置设置眼睛搜索区域。如图4所示,基于检测到的鼻子位置在面部区域F内设置右眼搜索区域E和左眼搜索区域E。此处,统计地调查在面部区域F内一定可检测到眼睛的最小范围,并将该最小范围设置为眼睛搜索区域。例如,在鼻子上方放置以预定间隔彼此分开的矩形,从而设置眼睛搜索区域,所述矩形的纵向和横向长度是以预定比率乘以面部区域F的纵向和横向长度获得的长度。
例如,假定面部区域F的宽度是W,右眼搜索区域E和左眼搜索区域E是长度为0.35W且宽度为0.26W的矩形。然后,两个矩形被设置为右眼搜索区域E和左眼搜索区域E,这两个矩阵从与鼻孔的重心Cn向上相距0.08W的位置向上布置,并且在左右方向上以鼻孔的重心Cn为中心彼此间隔0.13W。
对于右眼搜索区域的右眼图像和左眼搜索区域的左眼图像中的每一个,眼睑候选检测部分26执行边缘处理,从左右眼的各个边缘图像提取与下眼睑和眼球之间的边界(下眼睑的上边缘)相对应的边缘的边缘特征点。基于所提取的边缘特征点,眼睑候选检测部分26分别对左右眼检测下眼睑位置的候选(由图像坐标表示的位置的候选)。如下执行边缘特征点的提取。首先,眼睑候选检测部分26从如图5A所示的右眼搜索区域的右眼图像和左眼搜索区域的左眼图像中的每一个,通过使用例如Sobel算子生成Sobel边缘图像。如图5B所示,所生成的Sobel边缘图像表示在眨眼的方向上从上到下每像素的灰度变化的大小。
从所生成的Sobel边缘图像获得在作为眨眼方向的从上到下的方向上原始图像的像素值变化的大小的变化。一般,与作为皮肤部分的眼睑相比,眼球部分的反射率低,且眼球部分被拍摄成暗的。因此,在上眼睑和眼球之间的边界附近,像素值从上向下从亮变暗。此外,在下眼睑和眼球之间的边界附近,像素值从上向下从暗变亮。因此,在眼球和上眼睑之间的边界部分,所获得的表示像素值变化的边缘值大于或等于正预定值,且边界部分的中心的边缘值是最大值。此外,在眼球和下眼睑之间的边界部分,边缘值小于或等于负预定值,且边界部分的中心的边缘值是最小值。
因此,在从上到下扫描Sobel边缘图像中作为检测对象的像素列的各个像素且关注的像素的边缘值小于负阈值的情况,判断关注的像素的边缘值是否是眨眼方向的最小值。如果基于关注的像素上方的一个像素、关注的像素和关注的像素下方的一个像素的边缘值判断出关注的像素的边缘值是最小值,则将关注的像素的位置检测为边缘特征点。以这种方式,检测出示出下眼睑和眼球之间的边界的边缘的边缘特征点。注意如果检测到多个示出下眼睑和眼球之间的边界的边缘的边缘特征点,则基于以鼻孔的位置为基准的边缘特征点的相对位置来选择示出下眼睑和眼球之间的边界的边缘的边缘特征点就可以了。
相对位置计算部分27分别对左右眼计算以检测到的鼻子位置的图像坐标为基准的下眼睑位置的候选的图像坐标的各个相对位置(由图像坐标表示的相对位置)。
对于左右各眼,眼睑位置检测部分28比较检测到的多个下眼睑位置的候选的各个相对位置和以前次的鼻子位置为基准的下眼睑位置的相对位置。眼睑位置检测部分28检测当前的眼睑位置的图像坐标作为眼睛位置,并分别对左右眼计算眼睛位置的时间序列对应关系。
接着,说明眼睛位置检测装置10的操作。首先,通过图像摄取部分12连续摄取被摄者的面部图像。此时,为了减小周围的干扰光的影响,通过例如使由红外闪光灯形成的照明部分14与图像摄取部分12的拍摄同步地发光来照明被摄者的面部。注意如果从照明部分14发出连续光,则不需要与图像摄取部分12同步且结构得到简化。
然后,在计算机16执行图6所示的图像处理例程。首先,在步骤100中,接受在图像摄取部分12摄取的面部图像作为视频信号。在步骤102中,视频信号被A/D转换从而生成二维数字图像。在本示例性实施例中,基于该数字图像通过数字处理执行下文的处理。因此,当下文仅使用术语“图像”时,其指的是数字图像。
在步骤104中,从面部图像中检测示出左右鼻孔的区域,并将分别示出左右鼻孔的区域的重心的中心点的位置检测为鼻子位置。在接着的步骤106中,将存在于预定位置且其基准位置是在上述步骤104中检测到的鼻子位置的区域设置为右眼搜索区域和左眼搜索区域。
在步骤108中,如图7所示,在右眼搜索区域的图像和左眼搜索区域的图像二者上执行边缘处理。基于左右眼的各个边缘图像,检测出多个下眼睑位置的候选的图像坐标(候选x、候选y)。在接着的步骤110中,分别对左右眼基于以下公式计算以鼻子位置(鼻子x、鼻子y)为基准的下眼睑位置的多个候选的各个相对位置(相对x、相对y)。
(相对x、相对y)=(候选x-鼻子x,候选y-鼻子y)。
然后,在步骤112中,分别对左右眼比较存储在前次相对位置存储部分30中的前次的相对位置和在上述步骤110中计算的相对位置,并选择与前次的相对位置最接近的相对位置。然后,使鼻子位置成为基准位置,并将由基准位置和选择的相对位置表示的位置检测为下眼睑的位置。
然后,在步骤114中,分别对左右眼将在上述步骤112中所选择的相对位置,即以在步骤104中检测到的鼻子位置为基准的在步骤112中检测的眼睑位置的相对位置存储到前次相对位置存储部分30并更新前次的相对位置。然后,在步骤116中,通过使用在步骤112中检测到的下眼睑位置,分别对左右眼在显示装置18上显示眼睛位置的时间对应关系。
在步骤118中,判断是否结束跟踪处理。如果不结束,例程返回步骤100,且基于新摄取的面部图像执行上述步骤100-116的处理。当在步骤118中判断出结束跟踪处理时,图像处理例程结束。
如上所述,根据与第一示例性实施例相关的眼睛位置检测装置,通过使用示出鼻子的特征的位置作为基准,通过比较当前的相对位置的候选和前次的相对位置来检测眼睛位置。通过这种方式,通过使用示出鼻子特征的位置来检测眼睛位置,所述示出鼻子特征的位置具有高检测率且可以比眼睛位置更容易地检测到。因此,即使面部移动,也可通过简单的计算处理检测并跟踪眼睛位置。
通过使用即使面部向上/下或左/右移动也保持不变的鼻子和眼睛之间的相对位置,可在不使用计算花费高的眼睑模式相关计算系统的情况下获得眼睛位置的时间对应关系。此外,即使在面部移动的情况也可正确获得时间对应关系。
可通过将即使当眨眼时其纵向位置也移动不多的下眼睑的边界的位置检测为眼睛位置来正确地检测眼睛位置。
在上述示例性实施例中,说明了将下眼睑的边界的位置检测为眼睛位置的情况的例子。然而,本发明不限于此。例如,面部图像中的上眼睑和眼球的边界(即上眼睑的下边缘)的位置、面部图像中瞳孔的重心或上眼睑和眼球之间的边界与下眼睑和眼球之间的边界的中心点可被检测为眼睛位置。
此外,说明了当面对图像时纵向正边缘出现在左、纵向负边缘出现在右、横向正边缘出现在上且横向负边缘出现在下的区域被检测为示出鼻孔的区域的情况。然而,本发明不限于此。例如,可以计算从面部图像提取的面部区域的平均密度值,即亮度的平均值,可以通过使用与所计算的平均密度值相对应的黑像素判断阈值th检测鼻孔搜索开始点,可以检测以鼻孔搜索开始点为中心且变成鼻孔候选的多个搜索圆形,并且可以将与一组鼻孔相对应的圆形对检测为示出鼻孔的区域。
此外,可如下检测鼻孔的位置:检测白-黑-白横向边缘,其是沿横向方向延伸并从白变黑又从黑变白的边缘。在垂直方向检测位于鼻孔区域内且宽度为两到三个像素的黑像素列。检测白-黑-白横向边缘,其是沿垂直方向延伸并从白变黑又从黑变白的边缘。在横向方向检测位于鼻孔区域内且宽度为两到三个像素的黑像素行。从而检测鼻孔的位置。
接着说明第二示例性实施例。注意与第一示例性实施例相似的结构部分用相同的附图标记表示且省略对其说明。
第二示例性实施例与第一示例性实施例的不同之处在于将眉毛之间的位置检测为相对位置的基准位置。
如图8所示,与第二示例性实施例相关的眼睛位置检测装置210的计算机216具有:图像输入部分20;眉毛间位置检测部分222,用于从作为图像输入部分20的输出的面部图像中检测眉毛间位置;眼睛搜索区域设置部分224,用于基于检测到的眉毛间位置设置眼睛搜索区域;眼睑候选检测部分26;相对位置计算部分227,用于计算各个下眼睑位置的候选相对于眉毛间位置的相对位置;眼睑位置检测部分28;前次相对位置存储部分230,用于存储以前次的眉毛间位置为基准的下眼睑位置的相对位置。
眉毛间位置检测部分222如下从面部图像中检测示出眉毛间区域的特征的眉毛间位置。使用如图9所示检测眉毛间区域的滤波器,在该滤波器中六个矩形结合在一起。该眉毛间检测滤波器是六分割矩形滤波器,其提取面部的如下特征:鼻梁比两个眼睛区域亮且眼睛区域比脸颊暗,并确定示出面部的眉毛间区域的特征的位置。眉毛间检测滤波器具有以点(x,y)为中心,且横向为i(i是自然数)个像素,纵向为j(j是自然数)个像素的矩形帧。然后,如图10所示,对面部图像应用眉毛间检测滤波器,且通过滤波处理提取眉毛间候选点的位置。然后,以所提取的眉毛间候选点的位置作为中心,将对象图像裁切成预定尺寸,执行模式确定处理,并从眉毛间候选点中选择真正的候选点,检测眉毛间位置。
眼睛搜索区域设置部分224在面部图像中设置面部区域,并基于检测到的眉毛间位置在面部区域内设置右眼搜索区域和左眼搜索区域。例如,将纵向和横向长度是通过以预定比率乘以面部区域的纵向和横向长度获得的长度的矩形设置在检测到的眉毛间位置的左右,并以预定间隔彼此分开,且使之成为右眼搜索区域和左眼搜索区域。
相对位置计算部分27分别对左右眼计算以检测到的眉毛间位置为基准的下眼睑位置的候选的各个相对位置。
分别对左右眼将以前次检测到的眉毛间位置为基准的前次的下眼睑位置的相对位置存储在前次相对位置存储部分230中。
在第二示例性实施例中,在边缘图像处理例程中,从面部图像中检测眉毛间位置,并通过使用检测到的眉毛间位置作为基准位置,将存在于预定位置的区域设置为右眼搜索区域和左眼搜索区域。然后,从右眼搜索区域的图像和左眼搜索区域的图像中的每一个检测下眼睑位置的多个候选。对左右眼计算眉毛间位置和下眼睑位置的各个候选的相对位置。分别对左右眼将存储在前次相对位置存储部分230中的前次的相对位置和所计算的相对位置彼此比较,并选择与前次的相对位置最接近的相对位置。使用检测到的当前的眉毛间位置作为基准位置,并将由基准位置和选择的相对位置表示的位置检测为下眼睑的位置。
分别对左右眼将以检测到的眉毛间位置为基准的检测到的下眼睑位置的相对位置存储在前次相对位置存储部分230中,并更新前次的相对位置。
通过使用表示眉毛间区域的特征的位置作为基准,比较当前的相对位置的候选和前次的相对位置的这种方式检测眼睛位置,通过使用比眼睛位置容易检测且检测率高的表示眉毛间区域的特征的位置来检测眼睛位置。因此,即使面部移动,也可通过简单的计算处理检测并跟踪眼睛位置。
接着说明第三示例性实施例。注意与第一示例性实施例相似的结构部分用相同的附图标记表示,且省略对其说明。
第三示例性实施例与第一示例性实施例的不同之处在于基于鼻子位置和前次下眼睑的相对位置来设置眼睛搜索区域。
如图11所示,与第三示例性实施例相关的眼睛位置检测装置310的计算机316具有:图像输入部分20;鼻子位置检测部分22;眼睛搜索区域设置部分324,用于基于鼻子位置和前次下眼睑的相对位置设置眼睛搜索区域;眼睑位置检测部分326,用于从眼睛搜索区域中检测下眼睑的位置;相对位置计算部分328,用于计算以鼻子位置为基准的检测到的下眼睑位置的相对位置;以及前次相对位置存储部分30。
接着使用图12说明与第三示例性实施例相关的图像处理例程。注意与第一示例性实施例相似的处理由相同的附图标记表示,并省略对其详细说明。
首先,在步骤100中,接受在图像摄取部分12摄取的面部图像作为视频信号。在步骤102中,对视频信号进行A/D转换,从而生成二维数字图像。然后,在步骤104中,从面部图像中检测示出左右鼻孔的区域,并将示出各个左右鼻孔的区域的重心的中心点的位置检测为鼻子位置。
在接着的步骤350中,通过使用在上述步骤104中检测的鼻子位置作为基准位置,将以由基准位置和存储在前次相对位置存储部分30中的前次的相对位置表示的位置为中心的小区域设置为左眼搜索区域和右眼搜索区域。
然后,在步骤352中,在右眼搜索区域的图像和左眼搜索区域的图像上执行边缘处理,并基于所获得的左右眼的边缘图像检测边缘特征点。基于检测到的边缘特征点,分别对左右眼将下眼睑位置检测为眼睛位置。在随后的步骤354中,分别对左右眼计算以在步骤104中检测到的鼻子位置为基准的在步骤352中检测的下眼睑位置的相对位置。然后,在步骤114中,将在步骤354中计算的相对位置存储在前次相对位置存储部分30中,并分别对左右眼更新前次的相对位置。然后,在步骤116中,通过使用在步骤352中检测到的下眼睑位置,分别对左右眼在显示装置18上显示眼睛位置的时间对应关系。
然后,在步骤118中,判断是否结束跟踪处理。如果不结束,例程返回步骤100,并基于新摄取的面部图像执行上述处理。当在步骤118中判断出结束跟踪处理时,图像处理例程结束。
通过这种方式,使表示鼻子的特征的位置成为基准,并通过使用前次的相对位置检测眼睛位置。从而通过使用比眼睛位置更容易监测且具有高检测率的表示鼻子的特征的位置检测眼睛位置。因此,即使面部移动,也可通过简单的计算处理检测并跟踪眼睛位置。
可通过在由基准位置,即鼻子位置,和前次的相对位置表示的位置设置眼睛搜索区域来指定眼睛搜索区域。因此,可通过简单的计算处理来检测眼睛位置。
接着说明第四示例性实施例。注意与第四示例性实施例相关的眼睛位置检测装置的结构与第一示例性实施例相似。因而对其使用相同的附图标记且省略对其说明。
第四示例性实施例与第一示例性实施例的不同之处在于检测由下眼睑的边界的垂直方向位置和上眼睑的边界的左右方向位置表示的眼睛位置。
在与第四示例性实施例相关的眼睛位置检测装置中,如图13所示,从眼睛搜索区域的边缘图像中检测表示上眼睑和眼球之间的边界的边缘特征点。然后,从检测到的边缘特征点提取与示出当眼睛睁开时的上眼睑的边界的曲线的拐点相对应的边缘特征点,并检测所提取的边缘特征点的左右方向位置。此外,从眼睛搜索区域的边缘图像检测表示下眼睑和眼球之间的边界的边缘特征点。从检测到的边缘特征点检测下眼睑和眼球之间的边界的垂直方向位置。然后,将如上所述检测到的上眼睑的边界的拐点的左右方向位置检测为眼睛位置的左右方向位置。下眼睑和眼球之间的边界的垂直方向位置被检测为眼睛位置的垂直方向位置。从而检测到眼睛位置。
在检测上眼睑的位置时,基于边缘图像搜索边缘值大于或等于正预定值且其边缘值是最大值的边缘最大点。将在下眼睑的位置上方找到的边缘最大点检测为示出上眼睑和眼球之间的边界的边缘特征点就可以了。此外,有可能在下眼睑的位置上方检测到示出虹膜的边缘最大点。然而,对检测到的边缘特征点的边缘值设置正阈值,且排除示出虹膜的边缘最大点就可以了。
当眼睛睁开时,上眼睑圆形弯曲,在上眼睑确定左右方向上的代表位置比在下眼睑容易。因此,通过如上所述检测上眼睑的边界的拐点的左右方向位置,可容易地检测眼睛位置的左右方向位置。此外,由于下眼睑接近于直线,可通过检测下眼睑的边界的垂直方向位置容易地检测眼睛位置的垂直方向位置。
注意上述示例性实施例说明了检测眼睛位置的情况的例子,但是本发明不限于此。例如,可检测眼镜的位置、面部预定区域的位置,如嘴的位置、眉毛的位置、下巴的位置、耳朵的位置等。
此外,将以下情况作为例子进行说明:从在图像输入部分输入的灰度图像生成示出灰度变化大小的边缘图像。然而,在图像输入部分输入的图像可以是彩色图像。在这种情况,生成示出彩色图像的密度值的变化大小的边缘图像就可以了。
说明了以下情况的例子:将边缘图像的边缘值是最小值的点检测为与下眼睑的边缘相对应的边缘特征点,且边缘值是最大值的点被检测为与上眼睑的边缘相对应的边缘特征点。然而,本发明不限于此。例如,在眼睛图像中眼球部分亮且皮肤部分暗的情况,可将边缘图像的边缘值是最大值的点检测为下眼睑的边缘上的边缘特征点,并将边缘值是最小值的点检测为上眼睑的边缘上的边缘特征点。

Claims (8)

1.一种面部区域检测装置,包括:
图像摄取部分,用于摄取所观察的人的面部;
位置检测部分,用于从所述图像摄取部分摄取的表示面部的面部图像中检测以下位置中的一个:表示鼻子的特征的位置和表示眉毛间区域的特征的位置;
计算部分,用于计算以由所述位置检测部分在过去检测到的位置为基准的面部的预定区域的过去的相对位置;以及
区域位置检测部分,用于基于所述计算部分计算的过去的相对位置和所述位置检测部分检测到的当前的位置检测所述预定区域的位置。
2.根据权利要求1所述的面部区域检测装置,还包括候选检测部分,用于检测所述预定区域的位置的多个候选,
其中所述区域位置检测部分通过比较多个候选的每个的当前的相对位置和所述计算部分计算的过去的相对位置来检测所述预定区域的位置,其中所述多个候选的每个的当前的相对位置以由所述位置检测部分检测到的当前的位置为基准。
3.根据权利要求1所述的面部区域检测装置,其中所述区域位置检测部分基于所述计算部分计算的所述过去的相对位置检测所述预定区域的位置,其中所述过去的相对位置以所述位置检测部分检测到的当前的位置为基准。
4.根据权利要求1-3中任一项所述的面部区域检测装置,其中表示鼻子的特征的位置是面部图像中左右鼻孔区域的重心的中心点的位置。
5.根据权利要求1-3中任一项所述的面部区域检测装置,其中面部的预定区域的位置是眼睛的位置,且
所述眼睛的位置由以下中的一个来表示:面部图像中上眼睑和眼球之间的边界、面部图像中下眼睑和眼球之间的边界、面部图像中瞳孔的重心、上眼睑和眼球之间的边界与下眼睑和眼球之间的边界的中心点。
6.根据权利要求1-3中任一项所述的面部区域检测装置,其中面部的预定区域的位置是眼睛的位置,且
所述眼睛的位置由面部图像中下眼睑和眼球之间的边界的垂直方向位置以及上眼睑和眼球之间的边界的左右方向位置来表示。
7.一种面部区域检测方法,包括:
从用于摄取所观察的人的面部的图像摄取部分摄取的表示面部的面部图像中检测以下位置中的一个:表示鼻子的特征的位置和表示眉毛间区域的特征的位置;
计算以过去检测到的位置为基准的面部的预定区域的过去的相对位置;以及
基于所计算的过去的相对位置和检测到的当前的位置来检测所述预定区域的位置。
8.一种计算机可读介质,用于存储使计算机执行用于面部区域检测的处理的程序,所述处理包括:
从用于摄取所观察的人的面部的图像摄取部分摄取的表示面部的面部图像,检测以下位置中的一个:表示鼻子的特征的位置和表示眉毛间区域的特征的位置;
计算以过去检测到的位置为基准的面部的预定区域的过去的相对位置;以及
基于所计算的过去的相对位置和检测到的当前的位置来检测所述预定区域的位置。
CN2008100850763A 2007-03-19 2008-03-17 面部区域检测装置和方法 Active CN101271517B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2007071524A JP4307496B2 (ja) 2007-03-19 2007-03-19 顔部位検出装置及びプログラム
JP2007-071524 2007-03-19

Publications (2)

Publication Number Publication Date
CN101271517A true CN101271517A (zh) 2008-09-24
CN101271517B CN101271517B (zh) 2012-09-19

Family

ID=39405080

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2008100850763A Active CN101271517B (zh) 2007-03-19 2008-03-17 面部区域检测装置和方法

Country Status (4)

Country Link
US (1) US7916904B2 (zh)
EP (1) EP1973059B1 (zh)
JP (1) JP4307496B2 (zh)
CN (1) CN101271517B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102735253A (zh) * 2011-04-05 2012-10-17 现代自动车株式会社 用于在挡风玻璃上显示道路引导信息的装置和方法
CN103748600A (zh) * 2011-08-23 2014-04-23 罗伯特·博世有限公司 用于识别车辆的周围空气中的干扰对象的方法和设备
CN104573704A (zh) * 2013-10-09 2015-04-29 爱信精机株式会社 眼部检测装置、方法
CN107403133A (zh) * 2016-05-10 2017-11-28 富士通株式会社 确定设备和确定方法

Families Citing this family (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4137969B2 (ja) * 2006-12-04 2008-08-20 アイシン精機株式会社 眼部検出装置、眼部検出方法及びプログラム
TW200930069A (en) * 2007-12-21 2009-07-01 Altek Corp Method for correcting red-eye
US8345922B2 (en) * 2008-09-03 2013-01-01 Denso Corporation Apparatus for detecting a pupil, program for the same, and method for detecting a pupil
JP5680667B2 (ja) * 2009-12-02 2015-03-04 タタ コンサルタンシー サービシズ リミテッドTATA Consultancy Services Limited 運転者の覚醒状態の特定システム及び方法
JP5554987B2 (ja) * 2009-12-28 2014-07-23 キヤノン株式会社 オブジェクト識別装置及びその制御方法
KR20120057033A (ko) * 2010-11-26 2012-06-05 한국전자통신연구원 Iptv 제어를 위한 원거리 시선 추적 장치 및 방법
JP5367037B2 (ja) * 2011-09-26 2013-12-11 本田技研工業株式会社 顔向き検出装置
US9082004B2 (en) 2011-12-15 2015-07-14 The Nielsen Company (Us), Llc. Methods and apparatus to capture images
US8861802B2 (en) * 2012-03-13 2014-10-14 Honeywell International Inc. Face image prioritization based on face quality analysis
US9449412B1 (en) 2012-05-22 2016-09-20 Image Metrics Limited Adaptive, calibrated simulation of cosmetic products on consumer devices
US9104908B1 (en) 2012-05-22 2015-08-11 Image Metrics Limited Building systems for adaptive tracking of facial features across individuals and groups
US9129147B1 (en) 2012-05-22 2015-09-08 Image Metrics Limited Optimal automatic capture of facial movements and expressions in video sequences
US9111134B1 (en) 2012-05-22 2015-08-18 Image Metrics Limited Building systems for tracking facial features across individuals and groups
US9460462B1 (en) 2012-05-22 2016-10-04 Image Metrics Limited Monetization using video-based simulation of cosmetic products
TWI498857B (zh) * 2012-09-14 2015-09-01 Utechzone Co Ltd 瞌睡提醒裝置
US8769557B1 (en) 2012-12-27 2014-07-01 The Nielsen Company (Us), Llc Methods and apparatus to determine engagement levels of audience members
US9070015B2 (en) * 2013-02-07 2015-06-30 Ittiam Systems (P) Ltd. System and method for iris detection in digital images
JP6261206B2 (ja) * 2013-06-28 2018-01-17 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
JP6304999B2 (ja) 2013-10-09 2018-04-04 アイシン精機株式会社 顔検出装置、方法およびプログラム
JP6227996B2 (ja) * 2013-12-18 2017-11-08 浜松ホトニクス株式会社 計測装置及び計測方法
JP6535223B2 (ja) * 2015-05-28 2019-06-26 浜松ホトニクス株式会社 瞬目計測方法、瞬目計測装置、及び瞬目計測プログラム
US10146997B2 (en) 2015-08-21 2018-12-04 Magic Leap, Inc. Eyelid shape estimation using eye pose measurement
AU2016310452B2 (en) * 2015-08-21 2021-04-22 Magic Leap, Inc. Eyelid shape estimation
AU2016340222B2 (en) 2015-10-16 2021-07-01 Magic Leap, Inc. Eye pose identification using eye features
US9984282B2 (en) * 2015-12-10 2018-05-29 Perfect Corp. Systems and methods for distinguishing facial features for cosmetic application
US10157323B2 (en) * 2016-08-30 2018-12-18 Qualcomm Incorporated Device to provide a spoofing or no spoofing indication
JP6973928B2 (ja) * 2017-11-10 2021-12-01 アルパイン株式会社 瞼開閉判定装置および眠気検知装置
CN107944393B (zh) * 2017-11-27 2021-03-30 电子科技大学 人脸鼻尖定位方法
JP6919619B2 (ja) * 2018-04-12 2021-08-18 オムロン株式会社 画像解析装置、方法およびプログラム
CN111444748B (zh) * 2019-01-17 2021-11-26 北京字节跳动网络技术有限公司 一种坐姿检测方法、装置、设备及存储介质
US10949649B2 (en) 2019-02-22 2021-03-16 Image Metrics, Ltd. Real-time tracking of facial features in unconstrained video
US11711638B2 (en) 2020-06-29 2023-07-25 The Nielsen Company (Us), Llc Audience monitoring systems and related methods
US11195301B1 (en) * 2020-07-26 2021-12-07 Nec Corporation Of America Estimation of head yaw in an image
US11860704B2 (en) 2021-08-16 2024-01-02 The Nielsen Company (Us), Llc Methods and apparatus to determine user presence
US11758223B2 (en) 2021-12-23 2023-09-12 The Nielsen Company (Us), Llc Apparatus, systems, and methods for user presence detection for audience monitoring

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2932551B2 (ja) 1989-12-28 1999-08-09 日産自動車株式会社 虹彩位置検出装置及び運転者の状態検出装置
FR2690822B1 (fr) * 1992-05-06 1994-08-05 Dior Christian Parfums Procede de maquillage du visage, en particulier des yeux, et dispositif pour sa mise en óoeuvre.
JP3063504B2 (ja) 1993-12-22 2000-07-12 日産自動車株式会社 画像データの特徴量検出装置
JP3143819B2 (ja) 1994-05-20 2001-03-07 株式会社豊田中央研究所 まぶたの開度検出装置
JP3533722B2 (ja) 1994-09-30 2004-05-31 オムロン株式会社 不良検査方法およびその装置
JP3312562B2 (ja) 1996-07-18 2002-08-12 日産自動車株式会社 居眠り状態検出装置
JPH1044824A (ja) 1996-07-30 1998-02-17 Nissan Motor Co Ltd 車両運転者の開閉眼判定装置
JP3422183B2 (ja) 1996-08-22 2003-06-30 トヨタ自動車株式会社 顔画像における目の検出方法
JP3529954B2 (ja) * 1996-09-05 2004-05-24 株式会社資生堂 顔だち分類法及び顔だちマップ
JP3444115B2 (ja) 1996-11-13 2003-09-08 日産自動車株式会社 居眠り状態検出装置
JPH1139469A (ja) * 1997-07-24 1999-02-12 Mitsubishi Electric Corp 顔画像処理装置
JPH1166320A (ja) 1997-08-12 1999-03-09 Mitsubishi Electric Corp 目画像追跡装置
JP2000067225A (ja) 1998-08-26 2000-03-03 Nissan Motor Co Ltd 眼位置検出装置
JP2000123188A (ja) 1998-10-20 2000-04-28 Toyota Motor Corp 眼開閉判定装置
JP2000137792A (ja) 1998-10-30 2000-05-16 Toyota Motor Corp 眼部検出装置
JP3695990B2 (ja) 1999-05-25 2005-09-14 三菱電機株式会社 顔画像処理装置
US6130617A (en) * 1999-06-09 2000-10-10 Hyundai Motor Company Driver's eye detection method of drowsy driving warning system
EP1221922B1 (en) * 1999-10-21 2006-09-27 Technolas GmbH Ophthalmologische Systeme Iris recognition and tracking for optical treatment
JP2001307076A (ja) 2000-04-24 2001-11-02 Niles Parts Co Ltd 眼の状態検出装置、居眠り検出装置
WO2002005249A2 (en) * 2000-06-27 2002-01-17 Rami Orpaz Make-up and fashion accessory display and marketing system and method
JP4469476B2 (ja) * 2000-08-09 2010-05-26 パナソニック株式会社 眼位置検出方法および眼位置検出装置
US7079158B2 (en) * 2000-08-31 2006-07-18 Beautyriot.Com, Inc. Virtual makeover system and method
TWI221404B (en) * 2000-12-26 2004-10-01 Shiseido Co Ltd Mascara selecting method, mascara selecting system, and mascara counseling sheet
US7058209B2 (en) * 2001-09-20 2006-06-06 Eastman Kodak Company Method and computer program product for locating facial features
JP4789408B2 (ja) * 2003-06-30 2011-10-12 株式会社 資生堂 目の形態分類方法及び形態分類マップ並びに目の化粧方法
JP4390487B2 (ja) 2003-07-03 2009-12-24 セコム株式会社 頭部領域抽出装置
JP4506250B2 (ja) 2004-04-12 2010-07-21 日産自動車株式会社 上瞼検出装置
JP4130820B2 (ja) 2004-08-27 2008-08-06 株式会社豊田中央研究所 顔中心位置検出装置及び方法並びにプログラム
US8249695B2 (en) * 2006-09-29 2012-08-21 Tearscience, Inc. Meibomian gland imaging

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102735253A (zh) * 2011-04-05 2012-10-17 现代自动车株式会社 用于在挡风玻璃上显示道路引导信息的装置和方法
CN103748600A (zh) * 2011-08-23 2014-04-23 罗伯特·博世有限公司 用于识别车辆的周围空气中的干扰对象的方法和设备
CN104573704A (zh) * 2013-10-09 2015-04-29 爱信精机株式会社 眼部检测装置、方法
CN107403133A (zh) * 2016-05-10 2017-11-28 富士通株式会社 确定设备和确定方法

Also Published As

Publication number Publication date
EP1973059B1 (en) 2015-04-22
US7916904B2 (en) 2011-03-29
EP1973059A2 (en) 2008-09-24
CN101271517B (zh) 2012-09-19
US20080232650A1 (en) 2008-09-25
EP1973059A3 (en) 2013-03-06
JP4307496B2 (ja) 2009-08-05
JP2008234208A (ja) 2008-10-02

Similar Documents

Publication Publication Date Title
CN101271517B (zh) 面部区域检测装置和方法
CN103106397B (zh) 基于亮瞳效应的人脸活体检测方法
CN108764058B (zh) 一种基于热成像效应的双摄像头人脸活体检测方法
CN101523411B (zh) 眼开度检测系统及眼开度检测方法
JP4845698B2 (ja) 眼部検出装置、眼部検出方法及びプログラム
JP4895797B2 (ja) 瞼検出装置、瞼検出方法及びプログラム
JP3143819B2 (ja) まぶたの開度検出装置
CN106175801B (zh) 眨眼测量方法、眨眼测量装置及眨眼测量程序
EP1969993B1 (en) Eyelid detection apparatus
JP6234762B2 (ja) 眼部検出装置、方法、およびプログラム
CN105095893A (zh) 图像采集装置和方法
EP1868138A2 (en) Method of tracking a human eye in a video image
JP2008192100A (ja) 瞼検出装置及びプログラム
CN104200192A (zh) 驾驶员注视检测系统
CN106846734A (zh) 一种疲劳驾驶检测装置及方法
US7650034B2 (en) Method of locating a human eye in a video image
KR20120006819A (ko) 시선 추적 방법 및 이를 적용하는 장치
KR101640014B1 (ko) 허위 안면 이미지 분류가 가능한 홍채 인식 장치
CN103729646B (zh) 一种眼睛图像有效性检测方法
CN115171024A (zh) 一种基于视频序列的面部多特征融合疲劳检测方法及系统
CN108921010A (zh) 一种瞳孔检测方法及检测装置
CN103955941B (zh) 一种角膜内皮细胞分析仪及分析方法
JP2004192552A (ja) 開閉眼判定装置
Kunka et al. Non-intrusive infrared-free eye tracking method
Zhang et al. An approach of region of interest detection based on visual attention and gaze tracking

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant