CN101089875A - 面部鉴别装置、面部鉴别方法以及入口和出口管理装置 - Google Patents

面部鉴别装置、面部鉴别方法以及入口和出口管理装置 Download PDF

Info

Publication number
CN101089875A
CN101089875A CNA2006101262219A CN200610126221A CN101089875A CN 101089875 A CN101089875 A CN 101089875A CN A2006101262219 A CNA2006101262219 A CN A2006101262219A CN 200610126221 A CN200610126221 A CN 200610126221A CN 101089875 A CN101089875 A CN 101089875A
Authority
CN
China
Prior art keywords
unit
personnel
streamline
face
facial
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CNA2006101262219A
Other languages
English (en)
Inventor
泷泽圭
长谷部光威
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Publication of CN101089875A publication Critical patent/CN101089875A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/42Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/169Holistic features and representations, i.e. based on the facial image taken as a whole
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C9/00Individual registration on entry or exit
    • G07C9/30Individual registration on entry or exit not involving the use of a pass
    • G07C9/32Individual registration on entry or exit not involving the use of a pass in combination with an identity check
    • G07C9/37Individual registration on entry or exit not involving the use of a pass in combination with an identity check using biometric data, e.g. fingerprints, iris scans or voice recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/62Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Collating Specific Patterns (AREA)

Abstract

一种面部鉴别装置,包括:采集单元(101、301、401、501),被配置为采集至少包括移动人员面部的图像;面部检测单元(105、106、305、306、405、406、502、503),被配置为从所述采集单元采集的图像检测所述人员的候选面部区域,并从所检测的候选面部区域检测面部区域;面部识别单元(109、309、409、507),被配置为识别由所述面部检测单元检测的所述面部区域的图像和事先存储的注册面部信息;以及鉴别单元(117、314、416),被配置为根据所述面部识别单元的识别结果鉴别所述人员。

Description

面部鉴别装置、面部鉴别方法以及入口和出口管理装置
技术领域
本发明涉及面部鉴别装置和面部鉴别方法,将步行者设定为要鉴别的对象并用事先存储的注册面部信息对从这个人采集的面部图像进行识别,以便确定该步行者是否为预先注册的人员。
本发明也涉及入口和出口管理装置,使用所述面部鉴别装置和面部鉴别方法管理需要安全的房间、设施等的入口或出口。
背景技术
例如,使用面部鉴别装置的入口和出口管理装置具有摄像头。作为要鉴别的对象的人员停在摄像头前并将其面部转向摄像头的镜头。摄像头捕捉(采集)该人员的面部图像。面部鉴别装置用事先存储的注册面部信息对从捕捉的面部图像获得的所关注人员独特的面部特征信息进行识别,以便确定所关注人员是否为预先注册的人员。如果确定结果指明关注人员是预先注册的人员,入口和出口管理装置就据此打开目标区域(房间、设施等)入口和出口的门(例如,参见日本专利申请公开号2001-266152)。
如上所述,当作为要鉴别的对象的人员停在摄像头前时,这种类型的入口和出口管理装置(面部鉴别装置)捕捉其面部。由于这种原因,当要鉴别的对象是步行者(移动人员)时,在步行者接近门之前难以完成人员鉴别。
作为捕捉步行者面部图像方法的公知实例,可用的有例如日本专利申请公开号2000-331207和2002-140699中公开的技术。
日本专利申请公开号2000-331207中公开的技术注意了以下事实:由于人步行时趋于微微低头,从下方捕捉面部时易于采集整个面部的图像。更确切地说,摄像头从通道低于面部水平的右侧和左侧位置设置得相当朝上。
在日本专利申请公开号2002-140699中公开的技术中,摄像头设置为在开门时捕捉步行者的面部,即在开门的时刻采集图像。这种技术注意了以下事实:人员通过门时面向前方。
不过,在常规的入口和出口管理装置(面部鉴别装置)中,人员必须首先暂时停在摄像头的镜头前,然后才能进行鉴别,导致了用户的不便。
作为捕捉步行者面部图像常规方法的问题,由于不完全面部的图像造成的鉴别效果不佳众所周知。
日本专利申请公开号2000-331207和2002-140699提议的捕捉步行者整个面部的图像的图像捕捉方法是通过利用步行者的以下特征:在人通过门时趋于微微低头或者趋于面向前方。
不过这些方法假设了受限的情形,而在一般的步行时不容易捕捉到整个面部的图像。如果步行者的步行速度高,即使能够捕捉到整个面部的图像,所采集图像的数目也不足,导致了面部鉴别效果不佳。
发明内容
本发明的目的是提供具有出色的面部鉴别效果的面部鉴别装置、面部鉴别方法以及入口和出口管理装置。
根据本发明实例的面部鉴别装置包括:采集单元,被配置为采集至少包括移动人员面部的图像;面部检测单元,被配置为从所述采集单元采集的图像检测所述人员的候选面部区域,并从所检测的候选面部区域检测面部区域;面部识别单元,被配置为识别由所述面部检测单元检测的所述面部区域的图像和事先存储的注册面部信息;以及鉴别单元,被配置为根据所述面部识别单元的识别结果鉴别所述人员。
根据本发明实例的面部鉴别方法包括:采集至少包括移动人员面部的图像;从所述采集的图像检测所述人员的候选面部区域,并从所检测的候选面部区域检测面部区域;识别所述检测的面部区域的图像和事先存储的注册面部信息;以及根据所述识别结果鉴别所述人员。
根据本发明的入口和出口管理装置包括:采集单元,被配置为采集至少包括移动人员面部的图像;面部检测单元,被配置为从所述采集单元采集的图像检测所述人员的候选面部区域,并从所检测的候选面部区域检测面部区域;面部识别单元,被配置为识别由所述面部检测单元检测的所述面部区域的图像和事先存储的注册面部信息;鉴别单元,被配置为根据所述面部识别单元的识别结果鉴别所述人员;以及门控单元,被配置为根据所述鉴别单元的鉴别结果控制入口和出口大门的打开或关闭。
在以下的说明中,将会阐述本发明另外的目的和优点,其中一部分通过说明书显而易见,或者可以从本发明的实践中学会。利用后文中具体指出的若干装置及组合,就可以实现本发明的目的,获得本发明的优点。
附图说明
在说明书中加入并构成其一部分的附图,展示了本发明的若干实施例,并且连同上面给的一般说明和下面给的实施例的详细说明,用于讲解本发明的原理。
图1为示意框图,显示了入口和出口管理装置的布局,对其应用了根据本发明第一个实施例的面部鉴别装置;
图2A和图2B为视图,用于讲解面部鉴别装置的设置实例;
图3A至图3C显示了面部鉴别显示单元中的显示屏实例;
图4显示了面部搜索显示单元中的显示屏实例;
图5为视图,用于讲解头部检测处理;
图6为视图,用于讲解头部跟踪处理;
图7为视图,用于讲解流线提取处理;
图8为视图,用于讲解流线对比处理;
图9为流程图,用于讲解门控单元的处理流程;
图10为流程图,用于讲解门控单元的其他处理流程;
图11为流程图,用于讲解显示鉴别控制单元的处理流程;
图12为流程图,用于讲解面部候选区域检测处理的流程;
图13为流程图,用于讲解另一个面部候选区域检测处理的流程;
图14为流程图,用于讲解面部识别处理的流程;
图15为框图,仅仅显示了入口和出口管理装置布局的主要部分,对其应用了根据本发明第二个实施例的面部鉴别装置;
图16为示意框图,显示了入口和出口管理装置的布局,对其应用了根据本发明第三个实施例的面部鉴别装置;
图17为流程图,用于讲解显示鉴别控制单元的处理流程;
图18为示意框图,显示了入口和出口管理装置的布局,对其应用了根据本发明第四个实施例的面部鉴别装置;
图19为与通行者确认区域相关联的讲解视图;
图20A和图20B为视图,用于讲解面部识别结果和流线之间的对应关系;
图21为流程图,用于讲解替换确定处理的流程;
图22A至图22D为与替换确定的实用实例相关联的视图;
图23为流程图,用于讲解显示鉴别控制单元的处理流程;
图24为示意框图,显示了入口和出口管理装置的布局,对其应用了根据本发明第五个实施例的面部鉴别装置;
图25为流程图,用于讲解全面处理的流程。
具体实施方式
下文将参考附图介绍本发明的若干实施例。
首先简要讲解本发明的综述。在本发明中,例如图2A和图2B所示,由摄像头捕捉步行者M的面部,他以图2A和图2B中箭头a的方向沿着路径1走向入口和出口目标区域(房间、设施等)2配备的大门设备(入口和出口大门)3,比如房门、大门等。更确切地说,在步行者M存在于路径1上点C和点A之间某处时,由摄像头捕捉至少包括步行者M面部的图像,并在步行者M从点A走向大门设备3时,根据所采集的图像确定步行者M是否为预先注册的人员。如果确定步行者M是预先注册的人员,就允许其通过大门设备3。注意,路径1上从点C至点A所限定的范围将称为图像捕捉目标区域,用于捕捉步行者M的面部,如图2A和图2B所示。
下面将介绍本发明的第一个实施例。
图1示意地显示了入口和出口管理装置的布局,对其应用了根据第一个实施例的面部鉴别装置。这个入口和出口管理装置包括用于采集识别图像即用作采集至少包括步行者M面部图像的采集单元的视频摄像头(后文中简称为摄像头)101、变化检测单元102、头部检测单元103、头部跟踪单元104、面部候选区域检测单元105、面部区域检测单元106、面部特征提取单元107、面部识别辞典单元108、面部识别单元109、用于采集监视图像即捕捉包括步行者M的路径1的图像的视频摄像头(后文中简称为摄像头)110、流线提取单元111、参考流线存储单元112、流线对比单元113、面部鉴别显示单元114、面部搜索显示单元115、门控单元116以及执行全面控制的显示鉴别控制单元117。
下面将详细介绍各个组成部件。
面部鉴别显示单元114布置在大门设备3附近,如图2A和图2B所示,并且显示步行者M的当前面部鉴别状态。例如,单元114包括液晶显示器、CRT显示器等。面部鉴别显示单元114的设置高度大约为步行者身高的平均值。
如例如图3A所示,面部鉴别显示单元114显示从用于采集识别图像的摄像头101获得的整幅图像31,以及从面部候选区域检测单元105获得的面部候选区域的检测结果(面部候选区域)32。当鉴别处理完成,而且确定步行者M是注册人员时,指明允许其通过(进入)的消息“鉴别合格你可以进入”向步行者M显示,如图3B所示。否则,指明拒绝步行者M通过(进入)的消息“鉴别不合格输入密码”向步行者M显示,如图3C所示。
面部搜索显示单元115显示多个(N个)人员的面部搜索结果的次序,并且包括如液晶显示器、CRT显示器等。作为显示内容,显示例如次序中最前10个人的面部搜索结果的面部图像,如图4所示。
用于采集识别图像的摄像头101捕捉至少包括步行者M面部的图像,并且包括使用图像传感元件比如CCD传感器等的电视摄像头。摄像头101设置在路径1的侧面部位上点A和大门设备3之间的位置,如图2A所示。摄像头101的设置水平基本上与面部鉴别显示单元114相同,不过比面部鉴别显示单元114略低,使得摄像头101不至于遮挡面部鉴别显示单元114。在俯视的情况下,从图像捕捉目标区域中步行者M看来,摄像头101和面部鉴别显示单元114设置得对齐,如图2A所示。
通过以这种方式设置摄像头101,当步行者M看面部鉴别显示单元114时,就能够采集包括整个面部的图像。所采集的图像发送到变化检测单元102作为数字密度图像数据,在水平方向具有512像素,在垂直方向具有512像素。
变化检测单元102从摄像头101获得的图像检测变化的区域。在变化区域的检测处理中,例如,采用类似参考文献(Nakai,“Detectionmethod for moving object using post-confirmation”,IPSJ Transaction,94-CV90,pp.1-8,1994)中介绍的方法,从与背景图像的差异检测变化区域。利用这种方法,没有发生变化的图像被提供为背景图像,而发生变化的区域则基于背景图像和当前输入图像之间差异检测为变化区域。
头部检测单元103从变化检测单元102获得的变化区域检测包括面部的头部区域。由例如图5所示的处理检测头部区域。在变化区域图像的垂直方向取投影,投影值超过给定阈值Th的区域被选定为目标区域。在目标区域搜索最高点,并参考所发现的最高点确定头部区域。在图5中,附图标记51和52指明检测的头部区域。
头部跟踪单元104将先前由头部检测单元103检测的头部区域与从当前输入图像检测的头部区域相关联。实施这种关联是通过将例如从当前输入图像(时间t)检测的头部区域与从紧邻的前一次输入图像(时间t-1)检测的头部区域相关联,后者的尺寸和位置与前一个头部区域接近。在图6中,附图标记61指明检测的头部区域,附图标记62指明面部候选区域。
面部候选区域检测单元105从头部检测单元103或头部跟踪单元104获得的头部区域检测面部存在的候选区域。这个单元105使用像面部的特征检测面部候选区域,并为了删除由变化检测单元102至头部跟踪单元104的处理检测出而且不包括任何面部的头部区域的目的而执行这项处理。面部候选区域的实用检测处理使用参考文献(Mita,Kaneko,& Hori,“Proposal of spatial difference probability templatesuitable for authentication of image including slight difference”,Lecture Papers of 9th Symposium on Sensing via Image Information,SSII03,2003)中介绍的方法。在这种方法中,事先根据面部学习图案产生检测辞典图案,并从输入图像中检索与辞典图案相似度高的图案。
面部区域检测单元106从由面部候选区域检测单元105检测出并输入的面部候选区域提取面部图案。使用如参考文献(Fukui,&Yamaguchi,“Face feature point extraction by combination of shapeextraction and pattern recognition”,Journal of IEICE,(D),vol.J80-D-H,No.8,pp.2170-2177,1977)等中介绍的方法能够高精度地检测面部区域。
面部特征提取单元107根据检测出的分量的位置将面部区域提取成给定的尺寸和形状,并且使用其密度信息作为特征量。在这种情况下,m像素×n像素区域的密度值用作原样信息,而且(m×n)维信息用作特征向量。从这些数据计算特征向量的相关矩阵,并通过该矩阵的K-L展开计算正交向量,由此计算子空间。在计算子空间的方法中,计算了特征向量的相关矩阵(或协方差矩阵),并通过该矩阵的K-L展开计算了正交向量(特征向量),由此计算了子空间。通过选择与以特征值递减次序排列的特征值对应的k个特征向量,使用一组特征向量表示子空间。在这个实施例中,从特征向量计算相关矩阵Cd,通过与相关矩阵正交计算特征向量矩阵Φ:
Cd=Φd∧dΦdT
这个子空间用作面部特征信息,用于识别人员。这种信息可以事先注册为辞典。正如后面将要介绍,子空间本身可以用作面部特征信息,用于执行识别。所以,将子空间的计算结果输出到面部识别辞典单元108和面部识别单元109。
面部识别辞典单元108保持从面部特征提取单元107获得的面部特征信息作为面部信息,并允许计算与人员M的相似度。
面部识别单元109计算由面部特征提取单元107从摄像头101采集的图像提取的步行者M的面部特征信息和面部识别辞典单元108中存储的面部特征信息(注册面部信息)之间的相似度。如果计算的相似度等于或高于事先设定的确定阈值,单元109就确定步行者M是预先注册的人员;否则,单元109确定步行者M不是预先注册的人员。通过使用参考文献(Yamaguchi,Fukui,& Maeda,“Face recognitionsystem using moving image”,IEICE Transactions PRMU97-50,pp.17-23,1997-06)中介绍的共有子空间方法,可以实施这项面部识别处理。
用于采集监视图像的摄像头110采集从中将要提取图像捕捉目标区域中行进中的步行者M的流线的图像,并包括如使用图像传感元件比如CCD传感器等的电视摄像头。摄像头110设定在从天花板向下看的位置,所以其视野角度可以覆盖路径1的图像捕捉目标区域,如图2A和图2B所示。所采集的图像发送到流线提取单元111作为水平方向上640像素、垂直方向上480像素的数字密度图像数据。
流线提取单元111从摄像头110采集的图像提取步行者M的流线。通过如图7所示处理提取流线。一开始,计算从先前输入图像统计地估计的背景图像71与新输入的输入图像72的像素之间的亮度值差异,并且通过阈值处理从这种差异图像73计算二进制图像,由此检测人员区域74。随后,从各图像帧检测的人员区域74彼此关联,由此获得了每个人员的流线75。
参考流线存储单元112存储着事先设定的参考流线,并允许计算与步行者M的流线的距离。
流线对比单元113计算参考流线存储单元112中存储的参考流线与流线提取单元111获得的步行者M的流线之间的距离。例如以下式计算距离:
D = Σ i = 1 i = n d x i
d x k = | I x k - L x k |
这些方程用采样点X1至Xn处输入流线LXk与参考流线IXk之间距离dxk的累积和表示相似度D,如图8所示。
门控单元116发送控制信号,指令打开或关闭图2A和图2B所示的大门设备3。更确切地说,门控单元116执行控制,如图9所示。换言之,在尽管通过许可信号为OFF而人员仍试图进入大门设备3时,门控单元116会产生报警声并向管理员报告。或者也可能关闭大门设备3配备的门舌以阻止其进入,如图10所示。
显示鉴别控制单元117控制着整个装置,处理流程显示在图11的流程图中。下面将介绍图11的流程图。
如果步行者M存在于图像捕捉目标区域中,就执行面部区域检测处理(步骤S1),并将检测结果显示在面部鉴别显示单元114上(步骤S2)。然后检验面部区域检测完成条件是否满足(步骤S3)。如果面部区域检测完成条件不满足,流程返回步骤S1以重复同一处理。
注意,面部区域检测处理指明了从摄像头101至面部候选区域检测单元105的一系列处理,图12显示了其处理流程。注意,面部区域检测处理能够以图13所示的次序处理。在这种处理中,在使用像面部的特征进行严格检测之后,使用移动特征检测面部候选区域。
同时,面部检测完成条件还包括面部候选区域的所需数目已经采集的情况。此外,面部检测完成条件还包括所检测的面部候选区域的图像尺寸变得等于或大于预定值的情况,以及头部跟踪处理已经完成的情况,等等。
如果面部检测完成条件已满足,就从流线提取单元111获取步行者M的流线提取结果(步骤S4)。下一步,所获取的流线提取结果与事先在参考流线存储单元112中注册的参考流线进行对比(步骤S5),如果计算的距离小于阈值Th1,就执行面部识别处理(步骤S6)。注意,面部识别处理指明了从面部区域检测单元106至面部识别单元109的一系列处理,图14显示了其处理流程。
另一方面,如果步行者M的流线与参考流线之间的距离等于或大于阈值Th1,就跳过正常的面部识别处理。更确切地说,如果该距离等于或大于阈值Th1而小于阈值Th2(Th1<Th2)(步骤S7),面部识别单元109中的确定阈值就改变得更高(设置更高的安全级别)(步骤S8),并执行面部识别处理(步骤S6)。如果该距离等于或大于阈值Th2,步行者M就被排除在将要识别的对象之外(步骤S9),流程返回步骤S1。
根据面部识别处理的结果检验是否鉴别已经成功(步骤S10)。如果鉴别已经成功(如果确定步行者M是预先注册的人员),就将表明鉴别合格的消息显示在面部鉴别显示单元114上(步骤S11),并且将允许通过大门设备3的信号设置为ON一个预定的时间段(步骤S12)。然后流程返回步骤S1。结果,步行者M就能够通过大门设备3。
作为步骤S10中检验的结果,如果鉴别已经失败(如果确定步行者M不是预先注册的人员),就将表明鉴别不合格的消息显示在面部鉴别显示单元114上(步骤S13),流程返回步骤S1。
如上所述,根据第一个实施例,根据步行者M的流线提取结果检验步行者M是否适于将要捕捉的对象,并根据这种检验的结果执行面部识别处理,因此面部鉴别效果大为改进。
下面将介绍第二个实施例。
图15示意地显示了入口和出口管理装置的布局,对其应用了根据第二个实施例的面部鉴别装置。第二个实施例与上述第一个实施例的不同之处在于增加了参考流线学习单元118,其他部件与第一个实施例(图1)中相同。仅仅展示了所述不同部件及其相关联的部件,而其他部件未显示。
参考流线学习单元118使用成功鉴别时的流线提取结果和参考流线存储单元112中存储的参考流线更新参考流线。为了这个目的,流线对比单元113把流线对比结果和流线提取结果输出到显示鉴别控制单元117,它把成功鉴别时的流线提取结果输出到参考流线学习单元118。作为参考流线的更新方法,更新之后,将采样点X1至Xn处输入流线LXk与参考流线IXk之间的平均值调整为新的参考流线,并将新参考流线注册(存储)在参考流线存储单元112中。
如上所述,根据第二个实施例,使用先前成功鉴别时的流线提取结果更新参考流线,并且与适于面部鉴别的参考流线进行对比,因此使得将要捕捉的对象的确定具有高可靠性。
下面将介绍第三个实施例。
图16示意地显示了入口和出口管理装置的布局,对其应用了根据第三个实施例的面部鉴别装置。这个入口和出口管理装置包括用于采集识别图像的摄像头301、变化检测单元302、头部检测单元303、头部跟踪单元304、面部候选区域检测单元305、面部区域检测单元306、面部特征提取单元307、面部识别辞典单元308、面部识别单元309、步行速度测量单元310、面部鉴别显示单元311、面部搜索显示单元312、门控单元313以及显示鉴别控制单元314。
在上述组成部件中,用于采集识别图像的摄像头301、变化检测单元302、头部检测单元303、头部跟踪单元304、面部候选区域检测单元305、面部区域检测单元306、面部特征提取单元307、面部识别辞典单元308、面部识别单元309、面部鉴别显示单元311、面部搜索显示单元312和门控单元313与上述第一个实施例(图1)中的用于采集识别图像的摄像头101、变化检测单元102、头部检测单元103、头部跟踪单元104、面部候选区域检测单元105、面部区域检测单元106、面部特征提取单元107、面部识别辞典单元108、面部识别单元109、面部鉴别显示单元114、面部搜索显示单元115和门控单元116相同,其说明将被省略。下面将仅仅讲解与第一个实施例的差异。
步行速度测量单元310测量步行者M的步行速度(移动速度)。例如,单元310预先存储了步行者M的步行速度与图像捕捉目标区域中所采集图像数目之间的关系,并根据用于采集识别图像的摄像头301采集的识别图像的数目测量步行者M的近似步行速度。
显示鉴别控制单元314控制着整个装置,图17的流程图显示了其处理流程。下面将讲解图17的流程图。注意,控制方法与图11所示的显示鉴别控制单元117基本相同。
如果步行者M存在于图像捕捉目标区域中,就执行与以上介绍相同的面部区域检测处理(步骤S21),并将检测结果显示在面部鉴别显示单元311上(步骤S22)。然后检验面部区域检测完成条件是否满足(步骤S23)。如果面部区域检测完成条件不满足,流程返回步骤S21以重复同一处理。
如果面部检测完成条件已满足,就从步行速度测量单元310获取步行者M的步行速度测量结果(步骤S24)。所获取的步行速度与阈值Th1进行对比(步骤S25),如果所获取的步行速度小于阈值Th1,就执行与以上介绍相同的面部识别处理(步骤S26)。
另一方面,如果所获取的步行速度等于或高于阈值Th1,就跳过正常的面部识别处理。更确切地说,如果步行速度等于或高于阈值Th1而小于阈值Th2(Th1<Th2)(步骤S27),面部识别单元309中的确定阈值就改变得更高(设置更高的安全级别)(步骤S28),并执行面部识别处理(步骤S26)。如果步行速度等于或大于阈值Th2,步行者M就被排除在将要识别的对象之外(步骤S29),流程返回步骤S21。
根据面部识别处理的结果检验是否鉴别已经成功(步骤S30)。如果鉴别已经成功(如果确定步行者M是预先注册的人员),就将表明鉴别表明鉴别合格的消息显示在面部鉴别显示单元311上(步骤S31),并且将允许通过大门设备3的信号设置为ON一个预定的时间段(步骤S32)。然后流程返回步骤S21。结果,步行者M就能够通过大门设备3。
作为步骤S30中检验的结果,如果鉴别已经失败(如果确定步行者M不是预先注册的人员),就将表明鉴别不合格的消息显示在面部鉴别显示单元311上(步骤S33),流程返回步骤S21。
如上所述,根据第三个实施例,根据步行者M的步行速度测量结果检验步行者M是否可能是将要捕捉的对象,并根据这种检验的结果执行面部识别处理,因此面部鉴别效果大为改进。
下面将介绍第四个实施例。
图18示意地显示了入口和出口管理装置的布局,对其应用了根据第四个实施例的面部鉴别装置。这个入口和出口管理装置包括用于采集识别图像的摄像头401、变化检测单元402、头部检测单元403、头部跟踪单元404、面部候选区域检测单元405、面部区域检测单元406、面部特征提取单元407、面部识别辞典单元408、面部识别单元409、用于采集监视图像的摄像头410、流线提取单元411、替换确定单元412、面部鉴别显示单元413、面部搜索显示单元414、门控单元415以及显示鉴别控制单元416。
在这些组成部件中,用于采集识别图像的摄像头401、变化检测单元402、头部检测单元403、头部跟踪单元404、面部候选区域检测单元405、面部区域检测单元406、面部特征提取单元407、面部识别辞典单元408、面部识别单元409、用于采集监视图像的摄像头410、流线提取单元411、面部鉴别显示单元413、面部搜索显示单元414和门控单元415与用于采集识别图像的摄像头101、变化检测单元102、头部检测单元103、头部跟踪单元104、面部候选区域检测单元105、面部区域检测单元106、面部特征提取单元107、面部识别辞典单元108、面部识别单元109、用于采集监视图像的摄像头110、流线提取单元111、面部鉴别显示单元114、面部搜索显示单元115和门控单元116相同,其说明将被省略。下面将仅仅讲解与第一个实施例的差异。
在第四个实施例中,人员通过大门设备3时毫无疑问地必须通过并且邻近大门设备3的区域称为通行者确认区域。更确切地说,图19中所示的矩形阴影区域5指明了这个区域。
用于采集监视图像的摄像头410采集从中将要提取通行者确认区域中流线的图像,并包括例如使用图像传感元件比如CCD传感器等的电视摄像头。摄像头410设定在从天花板向下看的位置,所以其视野角度可以覆盖鉴别完成后步行者M的位置以及通行者确认区域5,如图19所示。所采集的图像发送到流线提取单元411作为水平方向上640像素、垂直方向上480像素的数字密度图像数据。
替换确定单元412使用与面部识别结果相关联的流线确定步行者M的替换。为了这个目的,单元412从显示鉴别控制单元416获取面部识别结果和流线提取结果,并向显示鉴别控制单元416输出其确定结果。根据识别完成后面部检测区域的坐标值(图20A)和流线的坐标值(图20B)进行所述识别结果和流线之间的关联。如果有多个对象要关联,就根据其相对位置关系进行关联。
根据如图21所示的流程图执行替换确定处理。确认步行者M是否存在于通行者确认区域5(步骤S41)。作为确认的结果,如果存在步行者M,就确认是否存在多个人员(步骤S42)。作为确认的结果,如果存在多个人员,就检验这些人员中领头的(最接近大门设备3的)步行者M的识别是否已经成功(步骤S43)。作为确认的结果,如果识别已经成功,则确定没有替换(步骤S44);否则,如果没有成功,则确定人员的替换(步骤S45)。
作为步骤S42中确认的结果,如果不存在多个人员,类似地确认识别是否已经成功(步骤S46)。如果识别已经成功,则确定没有替换(步骤S47);否则,如果没有成功,则确定人员的替换(步骤S45)。这个确定结果输出到显示鉴别控制单元416。作为实用的实例,图22A和图22B显示了没有替换的情况,图22C和图22D显示了替换的情况。
显示鉴别控制单元416控制着整个装置,图23的流程图显示了其处理流程。下面将讲解图23的流程图。注意,控制方法与图11所示的显示鉴别控制单元117基本相同。
如果步行者M存在于图像捕捉目标区域中,就执行与上述相同的面部区域检测处理(步骤S51),并将检测结果显示在面部鉴别显示单元413上(步骤S52)。然后检验面部区域检测完成条件是否满足(步骤S53)。如果面部区域检测完成条件不满足,流程返回步骤S51以重复同一处理。
如果面部检测完成条件已满足,就执行与以上介绍相同的面部识别处理,获取该面部识别处理的结果(步骤S54)。下一步,从流线提取单元411获取步行者M的流线提取结果(步骤S55)。所获取的面部识别处理结果和流线提取结果发送到替换确定单元412(步骤S56),并从替换确定单元412获取确定结果(步骤S57)。
检验从替换确定单元412获取的确定结果是否指明替换的存在/不存在(步骤S58)。如果确定结果指明没有替换,就将表明鉴别合格的消息显示在面部鉴别显示单元413上(步骤S59),并且将允许通过大门设备3的信号设置为ON一个预定的时间段(步骤S60)。然后流程返回步骤S51。结果,步行者M就能够通过大门设备3。
作为步骤S58中检验的结果,如果确定了替换,就将表明鉴别不合格的消息显示在面部鉴别显示单元413上(步骤S61),流程返回步骤S51。
如上所述,根据第四个实施例,使用步行者M的面部识别结果和步行者M的相关联的流线确定替换,并根据确定结果进行通过控制,因此防止了替换,安全性大为改进。
下面将介绍第五个实施例。
图24示意地显示了入口和出口管理装置的布局,对其应用了根据第五个实施例的面部鉴别装置。这个入口和出口管理装置包括用于采集识别图像的摄像头501、第一面部区域检测单元502、第二面部检测单元503、面部区域图像累积单元504、面部特征提取单元505、面部识别辞典单元506、面部识别单元507和门控单元508。
在这些组成部件中,用于采集识别图像的摄像头501、面部特征提取单元505、面部识别辞典单元506和门控单元508与上述第一个实施例(图1)中用于采集识别图像的摄像头101、面部特征提取单元107、面部识别辞典单元108和门控单元116相同,其说明将被省略。下面将仅仅讲解与第一个实施例的差异。
第一面部区域检测单元502从摄像头501捕捉的图像中检测步行者M的候选面部区域,并且可以通过使用如第一个实施例中介绍的变化检测单元102、头部检测单元103、头部跟踪单元104和面部候选区域检测单元105配置它而实施。因此其说明将被省略。检测的面部区域发送到第二面部区域检测单元503。
第二面部区域检测单元503从第一面部区域检测单元502检测的候选面部区域中检测将要鉴别的面部区域,并且可以通过使用面部区域检测单元106配置它而实施。因此其说明将被省略。检测的面部区域发送到面部区域图像累积单元504。
面部区域图像累积单元504累积第二面部区域检测单元503检测的多幅面部区域图像,并且累积面部区域图像直到满足累积完成条件。注意,累积完成条件包括采集了所需数目面部候选区域的情况。此外,累积完成条件还包括以下情况:所检测的面部候选区域的图像尺寸变为等于或大于预定值等。
面部识别单元507用面部识别辞典单元506中事先存储的注册面部信息识别面部特征提取单元505提取的面部特征信息,由此确定步行者M是否为预先注册的人员。
下面将根据图25所示流程图介绍整体处理的流程。注意,控制方法与图11所示显示鉴别控制单元117基本相同,所以将给出简要讲解。
由摄像头501采集包括步行者M面部的图像(步骤S71),并发送到第一面部区域检测单元502。第一面部区域检测单元502从摄像头501采集的图像中检测步行者M的候选面部区域(步骤S72),并发送到第二面部区域检测单元503。
第二面部区域检测单元503从第一面部区域检测单元502检测的候选面部区域中检测将要鉴别的面部区域(步骤S73),并发送到面部区域图像累积单元504。面部区域图像累积单元504累积第二面部区域检测单元503检测的面部区域图像直到满足累积完成条件(步骤S74和步骤S75)。
在累积检测的面部区域图像直到满足累积完成条件之后,面部特征提取单元505从面部区域图像累积单元504中累积的多幅面部区域图像的每一幅中提取特征信息(步骤S76),并将提取的特征信息发送到面部识别单元507。
面部识别单元507通过用面部识别辞典单元506中事先存储的注册面部信息识别所提取的特征信息而确定所关注的步行者M是否为预先注册的人员(步骤S77),并将确定结果发送到门控单元508。门控单元508根据面部识别单元507的确定结果确定人员鉴别是合格还是不合格,并根据人员鉴别的确定结果合格或不合格控制大门设备3(步骤S78)。
如上所述,根据第五个实施例,由于使用通过采用第一面部检测单元和第二面部检测单元获得的多幅面部区域图像进行面部识别处理,所以步行导致的面部方向改变造成的图案变化被吸收,因此以高精度实现了步行者的快速面部鉴别。
注意,上述第一个至第五个实施例可以按需组合。结果,能够获得各个组合实施例的操作和效果。例如,第一个实施例与第五个实施例组合时,图25中步骤S71至步骤S78的处理(除了门控以外)用作图11中步骤S1的处理。第三个实施例与第五个实施例组合时,图25中步骤S71至步骤S78的处理(除了门控以外)用作图17中步骤S21的处理。第四个实施例与第五个实施例组合时,图25中步骤S71至步骤S78的处理(除了门控以外)用作图23中步骤S51的处理。
下面将归纳本发明的效果。
(1)根据本发明,可以提供面部鉴别装置、面部鉴别方法以及入口和出口管理装置,它们使用步行者的流线确定该步行者是否可能为将要捕捉的对象,并且根据这个确定结果改变面部识别处理中的确定阈值,因此面部鉴别效果大为改进。
(2)根据本发明,可以提供面部鉴别装置、面部鉴别方法以及入口和出口管理装置,它们根据步行者的步行速度确定该步行者是否可能为将要捕捉的对象,并且根据这个确定结果改变面部识别处理中的确定阈值,因此面部鉴别效果大为改进。
(3)根据本发明,可以提供面部鉴别装置、面部鉴别方法以及入口和出口管理装置,它们使用与步行者的确定结果相关联的流线确定该步行者的替换以防止替换,因此确保了更高的安全性。
(4)根据本发明,可以提供面部鉴别装置、面部鉴别方法以及入口和出口管理装置,它们使用通过利用第一面部检测单元和第二面部检测单元获得的多幅面部区域图像进行面部识别处理,所以步行导致的面部方向改变造成的图案变化被吸收,因此以高精度实现了步行者的快速面部鉴别。
对于本领域的技术人员,不难设想出其他的优点和修改。所以,从广义上来说,本发明并不限于本文所示和介绍的特定细节和代表性实施例。因此,对于附带的权利要求书及其相当内容定义的一般发明概念,在不脱离其实质和范围的情况下,可以作出多种修改。

Claims (20)

1.一种面部鉴别装置,其特征在于包括:
采集单元(101、301、401、501),被配置为采集至少包括移动人员面部的图像;
面部检测单元(105、106、305、306、405、406、502、503),被配置为从所述采集单元采集的所述图像中检测所述人员的候选面部区域,并从所检测的候选面部区域中检测面部区域;
面部识别单元(109、309、409、507),被配置为识别由所述面部检测单元检测的所述面部区域的图像和事先存储的注册面部信息;以及
鉴别单元(117、314、416),被配置为根据所述面部识别单元的识别结果鉴别所述人员。
2.根据权利要求1的装置,其特征在于,所述面部识别单元通过识别所述检测的面部区域的图像和所述注册的面部信息,计算所述检测的面部区域的图像和所述注册的面部信息之间的相似度,以及
所述鉴别单元对比所述计算的相似度与确定阈值,并根据所述对比结果确定所述人员是否为预先注册的人员。
3.根据权利要求2的装置,进一步包括:
流线提取单元(111),被配置为提取所述人员的流线;
对比单元(113),被配置为对比由所述流线提取单元提取的流线与事先设置的参考流线;以及
确定阈值改变单元(117),被配置为根据所述对比单元的对比结果改变所述确定阈值。
4.根据权利要求3的装置,进一步包括:
参考流线更新单元(118),被配置为在所述鉴别单元确定所述人员是预先注册的人员时根据所述流线提取单元提取的流线更新所述参考流线。
5.根据权利要求2的装置,进一步包括:
移动速度测量单元(310),被配置为测量所述人员的移动速度;以及
确定阈值改变单元(314),被配置为根据所述移动速度测量单元测量的所述移动速度改变所述确定阈值。
6.根据权利要求2的装置,进一步包括:
流线提取单元(411),被配置为提取所述人员的流线;以及
替换确定单元(412),被配置为关联所述流线提取单元提取的流线与所述面部识别单元的人员确定结果,并根据与所述人员确定结果相关联的所述流线确定人员的替换。
7.根据权利要求1的装置,其特征在于,所述面部检测单元包括:
第一面部检测单元(502),被配置为从所述采集单元采集的所述图像中检测所述人员的候选面部区域;以及
第二面部检测单元(503),被配置为从所述第一面部检测单元检测的所述候选面部区域中检测面部区域,以及
面部识别单元(507),被配置为识别由所述第二面部检测单元用所述注册的面部信息检测的预定数目的面部区域图像。
8.一种面部鉴别方法,其特征在于包括:
采集至少包括移动人员面部的图像;
从所述采集的图像中检测所述人员的候选面部区域,并从所检测的候选面部区域中检测面部区域;
识别所述检测的面部区域的图像和事先存储的注册面部信息;以及
根据所述识别结果鉴别所述人员。
9.根据权利要求8的方法,进一步包括:
通过识别所述检测的面部区域的图像和所述注册的面部信息,计算所述检测的面部区域的图像和所述注册的面部信息之间的相似度,以及
对比所述计算的相似度与确定阈值,并根据所述对比结果确定所述人员是否为预先注册的人员。
10.根据权利要求9的方法,进一步包括:
提取所述人员的流线;
对比所述提取的流线与事先设置的参考流线;以及
根据所述对比结果改变所述确定阈值。
11.根据权利要求10的方法,进一步包括:
在确定所述人员是预先注册的人员时根据所述提取的流线更新所述参考流线。
12.根据权利要求9的方法,进一步包括:
测量所述人员的移动速度;以及
根据所述测量的移动速度改变所述确定阈值。
13.根据权利要求9的方法,进一步包括:
提取所述人员的流线;以及
关联所述提取的流线与人员确定结果,并根据与所述人员确定结果相关联的所述流线确定人员的替换。
14.根据权利要求8的方法,进一步包括:
识别通过用所述注册的面部信息检测所述面部区域获得的预定数目的面部区域图像。
15.一种入口和出口管理装置,其特征在于包括:
采集单元(101、301、401、501),被配置为采集至少包括移动人员面部的图像;
面部检测单元(105、106、305、306、405、406、502、503),被配置为从所述采集单元采集的所述图像中检测所述人员的候选面部区域,并从所检测的候选面部区域中检测面部区域;
面部识别单元(109、309、409、507),被配置为识别由所述面部检测单元检测的所述面部区域的图像和事先存储的注册面部信息;
鉴别单元(117、314、416),被配置为根据所述面部识别单元的识别结果鉴别所述人员;
门控单元(116、313、415、508),被配置为根据所述鉴别单元的所述鉴别结果控制打开或关闭入口和出口大门。
16.根据权利要求15的装置,其特征在于,所述面部识别单元通过识别所述检测的面部区域的图像和所述注册的面部信息,计算所述检测的面部区域的图像和所述注册的面部信息之间的相似度,以及
所述鉴别单元对比所述计算的相似度与确定阈值,并根据所述对比结果确定所述人员是否为预先注册的人员。
17.根据权利要求16的装置,进一步包括:
流线提取单元(111),被配置为提取所述人员的流线;
对比单元(113),被配置为对比由所述流线提取单元提取的流线与事先设置的参考流线;以及
确定阈值改变单元(117),被配置为根据所述对比单元的对比结果改变所述确定阈值。
18.根据权利要求17的装置,进一步包括:
参考流线更新单元(118),被配置为在所述鉴别单元确定所述人员是预先注册的人员时根据所述流线提取单元提取的流线更新所述参考流线。
19.根据权利要求16的装置,进一步包括:
移动速度测量单元(310),被配置为测量所述人员的移动速度;以及
确定阈值改变单元(314),被配置为根据所述移动速度测量单元测量的所述移动速度改变所述确定阈值。
20.根据权利要求15的装置,其特征在于,所述面部检测单元包括:
第一面部检测单元(502),被配置为从所述采集单元采集的所述图像中检测所述人员的候选面部区域;以及
第二面部检测单元(503),被配置为从所述第一面部检测单元检测的所述候选面部区域中检测面部区域,以及
面部识别单元(507)识别由所述第二面部检测单元用所述注册的面部信息检测的预定数目的面部区域图像。
CNA2006101262219A 2006-06-15 2006-08-28 面部鉴别装置、面部鉴别方法以及入口和出口管理装置 Pending CN101089875A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2006165507 2006-06-15
JP2006165507A JP2007334623A (ja) 2006-06-15 2006-06-15 顔認証装置、顔認証方法、および入退場管理装置

Publications (1)

Publication Number Publication Date
CN101089875A true CN101089875A (zh) 2007-12-19

Family

ID=37027036

Family Applications (1)

Application Number Title Priority Date Filing Date
CNA2006101262219A Pending CN101089875A (zh) 2006-06-15 2006-08-28 面部鉴别装置、面部鉴别方法以及入口和出口管理装置

Country Status (5)

Country Link
US (1) US20070291998A1 (zh)
EP (1) EP1868158A2 (zh)
JP (1) JP2007334623A (zh)
KR (1) KR100831122B1 (zh)
CN (1) CN101089875A (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101771539B (zh) * 2008-12-30 2012-07-04 北京大学 一种基于人脸识别的身份认证方法
CN102711315A (zh) * 2012-04-16 2012-10-03 东莞光阵显示器制品有限公司 基于视频动态识别的智能室内照明控制方法及系统
CN102857693A (zh) * 2011-06-30 2013-01-02 佳能株式会社 图像处理设备及其控制方法和存储介质
CN103377368A (zh) * 2012-04-24 2013-10-30 三星电子株式会社 用于识别三维对象的方法和设备
CN104282069A (zh) * 2014-10-29 2015-01-14 合肥指南针电子科技有限责任公司 一种智能小区出入管理系统及方法
CN105488478A (zh) * 2015-12-02 2016-04-13 深圳市商汤科技有限公司 一种人脸识别系统和方法
CN112614261A (zh) * 2020-12-15 2021-04-06 中标慧安信息技术股份有限公司 基于录像识别的访客管理方法和系统

Families Citing this family (46)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7916897B2 (en) * 2006-08-11 2011-03-29 Tessera Technologies Ireland Limited Face tracking for controlling imaging parameters
US20090028517A1 (en) * 2007-07-27 2009-01-29 The University Of Queensland Real-time near duplicate video clip detection method
JP4506801B2 (ja) * 2007-09-25 2010-07-21 カシオ計算機株式会社 画像認識装置、画像認識方法、画像認識プログラム
US8457366B2 (en) 2008-12-12 2013-06-04 At&T Intellectual Property I, L.P. System and method for matching faces
JP2011019192A (ja) * 2009-07-10 2011-01-27 Toshiba Corp 画像表示装置
JP5390322B2 (ja) * 2009-09-28 2014-01-15 株式会社東芝 画像処理装置、及び画像処理方法
US20120076368A1 (en) * 2010-09-27 2012-03-29 David Staudacher Face identification based on facial feature changes
JP5939705B2 (ja) * 2012-02-08 2016-06-22 カシオ計算機株式会社 被写体判定装置、被写体判定方法及びプログラム
JP5955031B2 (ja) * 2012-02-29 2016-07-20 セコム株式会社 顔画像認証装置
JP5955056B2 (ja) * 2012-03-30 2016-07-20 セコム株式会社 顔画像認証装置
JP5955057B2 (ja) * 2012-03-30 2016-07-20 セコム株式会社 顔画像認証装置
US8457367B1 (en) 2012-06-26 2013-06-04 Google Inc. Facial recognition
US8411909B1 (en) 2012-06-26 2013-04-02 Google Inc. Facial recognition
US8542879B1 (en) 2012-06-26 2013-09-24 Google Inc. Facial recognition
JP5955133B2 (ja) * 2012-06-29 2016-07-20 セコム株式会社 顔画像認証装置
US8856541B1 (en) 2013-01-10 2014-10-07 Google Inc. Liveness detection
US9110450B2 (en) * 2013-03-14 2015-08-18 Green Edge Technologies, Inc. Systems, devices, and methods for dynamically assigning functions to an actuator
JP6295534B2 (ja) * 2013-07-29 2018-03-20 オムロン株式会社 プログラマブル表示器、制御方法、およびプログラム
US9860517B1 (en) * 2013-09-24 2018-01-02 Amazon Technologies, Inc. Power saving approaches to object detection
JP6025690B2 (ja) * 2013-11-01 2016-11-16 ソニー株式会社 情報処理装置および情報処理方法
CN104851140A (zh) * 2014-12-12 2015-08-19 重庆凯泽科技有限公司 基于人脸识别的考勤门禁系统
CN104486598A (zh) * 2014-12-31 2015-04-01 国家电网公司 一种视频监控方法及装置
JP2017033358A (ja) * 2015-08-03 2017-02-09 富士ゼロックス株式会社 認証装置
CN105426833A (zh) * 2015-11-13 2016-03-23 小米科技有限责任公司 用于游戏的图像识别方法及装置
JPWO2017146161A1 (ja) * 2016-02-26 2018-12-27 日本電気株式会社 顔照合システム、顔照合装置、顔照合方法、及び記録媒体
JP6787391B2 (ja) * 2016-02-26 2020-11-18 日本電気株式会社 顔照合システム、顔照合方法、及びプログラム
CN106340094A (zh) * 2016-08-26 2017-01-18 广西小草信息产业有限责任公司 一种出入口控制系统及其实现方法
JP6409929B1 (ja) * 2017-09-19 2018-10-24 日本電気株式会社 照合システム
JP6601513B2 (ja) * 2018-01-31 2019-11-06 日本電気株式会社 情報処理装置
CN108615288B (zh) * 2018-04-28 2020-12-01 东莞市华睿电子科技有限公司 一种基于人像识别的开锁控制方法
JP7168192B2 (ja) * 2018-05-18 2022-11-09 Necソリューションイノベータ株式会社 顔画像の適正判定装置、顔画像の適正判定方法、プログラム、および記録媒体
US10831817B2 (en) * 2018-07-16 2020-11-10 Maris Jacob Ensing Systems and methods for generating targeted media content
US11615134B2 (en) 2018-07-16 2023-03-28 Maris Jacob Ensing Systems and methods for generating targeted media content
CN108932783A (zh) * 2018-09-19 2018-12-04 南京邮电大学 一种基于二维人脸识别的面向大流量场景的门禁系统
SG11202103136VA (en) * 2018-09-28 2021-04-29 Nec Corp Authentication device, authentication method, and storage medium
CN109377616B (zh) * 2018-10-30 2021-02-12 南京邮电大学 一种基于二维人脸识别的门禁控制系统
CN109801408A (zh) * 2018-12-06 2019-05-24 安徽凯川电力保护设备有限公司 一种用于机房的门禁管理方法
CN109671317B (zh) * 2019-01-30 2021-05-25 重庆康普达科技有限公司 基于ar的脸谱互动教学方法
JP6675564B1 (ja) * 2019-05-13 2020-04-01 株式会社マイクロネット 顔認識システム、顔認識方法及び顔認識プログラム
JP7347102B2 (ja) * 2019-10-16 2023-09-20 富士フイルムビジネスイノベーション株式会社 画像形成装置及びプログラム
KR20210047025A (ko) * 2019-10-21 2021-04-29 엘지전자 주식회사 지능형 디바이스 및 그의 사용자 선택 방법
EP4123110A4 (en) * 2020-03-18 2023-04-26 Nec Corporation DOOR DEVICE, AUTHENTICATION SYSTEM, DOOR DEVICE CONTROL METHOD AND STORAGE MEDIA
EP4123567A4 (en) * 2020-03-18 2023-04-19 NEC Corporation GATE DEVICE, AUTHENTICATION SYSTEM, GATING METHOD AND STORAGE MEDIA
JP7008352B2 (ja) * 2020-04-03 2022-01-25 株式会社トリプルアイズ 情報処理装置、情報処理方法、及びプログラム
DE102020113114A1 (de) 2020-05-14 2021-11-18 Kaba Gallenschütz GmbH Passiererkennungssystem und Verfahren zur berührungslosen Überwachung
WO2023129740A1 (en) * 2021-12-30 2023-07-06 eConnect, Inc. Passive identification verification and transaction facilitation in a defined area

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3803508B2 (ja) 1999-05-21 2006-08-02 オムロン株式会社 入退室確認装置
US20020094111A1 (en) * 2000-05-19 2002-07-18 Puchek Daniel R. Access control method and apparatus
JP3731467B2 (ja) 2000-11-06 2006-01-05 オムロン株式会社 生体照合装置、生体照合システムおよびその方法
KR20030065049A (ko) * 2002-01-29 2003-08-06 삼성전자주식회사 얼굴 인식에 의한 출입 통제 방법 및 그 장치
KR20050082442A (ko) * 2002-07-05 2005-08-23 아스펙터스 엘티디 다수의 병렬 연속 영상에서 사건 감지를 효과적으로 수행하는 방법 및 시스템
JP4320775B2 (ja) 2003-03-13 2009-08-26 オムロン株式会社 顔認証装置
JP4650669B2 (ja) * 2004-11-04 2011-03-16 富士ゼロックス株式会社 動体認識装置
US20070112287A1 (en) * 2005-09-13 2007-05-17 Fancourt Craig L System and method for detecting deviations in nominal gait patterns

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101771539B (zh) * 2008-12-30 2012-07-04 北京大学 一种基于人脸识别的身份认证方法
CN102857693A (zh) * 2011-06-30 2013-01-02 佳能株式会社 图像处理设备及其控制方法和存储介质
CN102857693B (zh) * 2011-06-30 2015-04-08 佳能株式会社 图像处理设备及其控制方法
CN102711315A (zh) * 2012-04-16 2012-10-03 东莞光阵显示器制品有限公司 基于视频动态识别的智能室内照明控制方法及系统
CN102711315B (zh) * 2012-04-16 2016-01-20 东莞光阵显示器制品有限公司 基于视频动态识别的智能室内照明控制方法及系统
CN103377368A (zh) * 2012-04-24 2013-10-30 三星电子株式会社 用于识别三维对象的方法和设备
CN103377368B (zh) * 2012-04-24 2018-03-16 三星电子株式会社 用于识别三维对象的方法和设备
CN104282069A (zh) * 2014-10-29 2015-01-14 合肥指南针电子科技有限责任公司 一种智能小区出入管理系统及方法
CN105488478A (zh) * 2015-12-02 2016-04-13 深圳市商汤科技有限公司 一种人脸识别系统和方法
CN112614261A (zh) * 2020-12-15 2021-04-06 中标慧安信息技术股份有限公司 基于录像识别的访客管理方法和系统

Also Published As

Publication number Publication date
EP1868158A2 (en) 2007-12-19
US20070291998A1 (en) 2007-12-20
JP2007334623A (ja) 2007-12-27
KR20070119463A (ko) 2007-12-20
KR100831122B1 (ko) 2008-05-20
EP1868158A8 (en) 2008-04-02

Similar Documents

Publication Publication Date Title
CN101089875A (zh) 面部鉴别装置、面部鉴别方法以及入口和出口管理装置
US11670086B2 (en) System and process for detecting, tracking and counting human objects of interest
US11048942B2 (en) Method and apparatus for detecting a garbage dumping action in real time on video surveillance system
JP4836633B2 (ja) 顔認証装置、顔認証方法および入退場管理装置
CN101095149B (zh) 图像比较设备和图像比较方法
CN110648352B (zh) 一种异常事件的检测方法、装置及电子设备
KR101735365B1 (ko) 학습 기반의 영상 내 관심 물체 검지 및 환경 변화에 강인한 물체 추적 방법
CN109409315B (zh) 一种atm机面板区域遗留物检测方法及系统
CN111814510B (zh) 一种遗留物主体检测方法及装置
JP2006236260A (ja) 顔認証装置、顔認証方法および入退場管理装置
CN109754478A (zh) 一种低用户配合度的人脸智能考勤方法
US8923552B2 (en) Object detection apparatus and object detection method
CN109344792A (zh) 一种目标自动识别跟踪方法
Patil et al. Suspicious movement detection and tracking based on color histogram
KR100885418B1 (ko) 오버헤드 카메라 영상에서 사람을 감지하고 추적하는시스템 및 그 방법
CN112016509B (zh) 人员站位异常提醒方法及装置
CN109215150A (zh) 人脸点名与计数方法及其系统
JP2020077399A (ja) 情報処理装置
KR101355206B1 (ko) 영상분석을 이용한 출입 계수시스템 및 그 방법
JPH0883341A (ja) 物体領域抽出方法とその装置及び物体認識装置
CN116188538A (zh) 一种多摄像头的行为轨迹跟踪方法
Foggia et al. A Method for Detecting Long Term Left Baggage based on Heat Map.
JPH1031797A (ja) 駐車場における車両の特定方法及びそのシステム並びに駐車料金計算方法及びそのシステム
JPH05300516A (ja) 動画処理装置
Yoshioka et al. Improving person re-identification based on human height information

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C02 Deemed withdrawal of patent application after publication (patent law 2001)
WD01 Invention patent application deemed withdrawn after publication