CN1288600C - 个人识别设备和个人识别方法 - Google Patents

个人识别设备和个人识别方法 Download PDF

Info

Publication number
CN1288600C
CN1288600C CNB2003101233034A CN200310123303A CN1288600C CN 1288600 C CN1288600 C CN 1288600C CN B2003101233034 A CNB2003101233034 A CN B2003101233034A CN 200310123303 A CN200310123303 A CN 200310123303A CN 1288600 C CN1288600 C CN 1288600C
Authority
CN
China
Prior art keywords
dictionary
unit
appraising datum
personnel
formulated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CNB2003101233034A
Other languages
English (en)
Other versions
CN1512452A (zh
Inventor
横井谦太朗
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Publication of CN1512452A publication Critical patent/CN1512452A/zh
Application granted granted Critical
Publication of CN1288600C publication Critical patent/CN1288600C/zh
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • G06F18/2135Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on approximation criteria, e.g. principal component analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/7715Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/169Holistic features and representations, i.e. based on the facial image taken as a whole

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Collating Specific Patterns (AREA)
  • Image Analysis (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种个人识别设备,包括一个数据获取单元,用于从所识别的人员那里获取鉴定数据,一个检测单元,用于对数据获取单元得到的鉴定数据的特征点进行检测,一个变化计算单元,用于计算检测单元测得的特征点的检测位置变化,一个适应性判断单元,用于根据变化计算单元计算的特征点变化来判断数据获取单元得到的鉴定数据是否适合制定一个鉴定字典,一个字典制定单元,在适应性判断单元判定所获取的鉴定数据合适的时候,基于数据获取单元得到的鉴定数据来制定一个鉴定字典,一个字典存储单元,用于保存字典制定单元所制定的鉴定字典,以及一个鉴定单元,用于使用数据获取单元得到的鉴定数据以及字典存储单元保存的字典来鉴定所识别的人员是否即为正确人员。

Description

个人识别设备和个人识别方法
交叉引用
本申请基于2002年12月26日提交的在先日本专利申请2002-378452并且要求享有该申请的优先权,所述申请的全部内容在此引入作为参考。
技术领域
本发明涉及一种个人识别设备和一种个人识别方法,所述设备使用一个经过验证的人员的生物信息作为用于确认的数据,以便认定所识别的人员是否即为正确人员,其中,举例来说,所述生物信息可以是面部图像、指纹、视网膜、虹膜、掌纹。
背景技术
最近已经开发出了一种个人识别设备,并且将其用在那些需要安全的建筑物/房间的出口/入口的管理之中,以便使用所识别人员的面部图像、指纹、视网膜、虹膜、掌纹等等来确认所识别的人员是否即为正确人员。
这种个人识别设备通常具有一个字典存储单元,其中保存了在个人认证中使用的字典。通过使用字典存储单元中保存的字典来执行个人认证,以便证实所识别的人员是否即为正确人员,并且所述个人认证还输入了鉴定数据(经过验证的人员的生物信息)。
顺便说一句,鉴定字典是保存(在下文中也称为“记录”)在字典存储单元中的,并且包含多种变量在内的鉴定数据是在保存字典的时候获取的。出于这个原因,所识别的人员被迫通过用户界面来添加不同种类的变量。
此外,例如在无法识别(核对)某个人的时候,将会通过认可某个人来更新鉴定字典。
如上所述,迄今为止已经尝试通过提供给所识别人员的指南来获取通用的鉴定数据(面部图像)。然而,经过验证的人员可能不会像指南中提供的那样来做出行动。
此外,迄今为止都是假设如果登记了一个不正确的字典来进行识别(核对),则通过重新登记或是更新字典来将其更新成一个正确的字典。然而,经过验证的人员不可以总是进行重新登记或者更新一个字典。
发明内容
本发明的一个目的是提供一种个人识别设备和一种个人识别方法,在保存字典的时候,所述设备和方法能将适于识别的鉴定数据用于进行学习,并且防止不正确的字典存储。
根据本发明,提供了一种个人识别设备,其中包括:数据获取单元,用于从所识别的人员那里获取鉴定数据;检测单元,用于对数据获取单元得到的鉴定数据的特征点进行检测;变化计算单元,用于计算检测单元测得的特征点的检测位置变化;适应性判断单元,用于根据变化计算单元计算的特征点变化来判断数据获取单元得到的鉴定数据是否适于制定鉴定字典;字典制定单元,用于在判定鉴定数据合适的时候,根据数据获取单元得到的鉴定数据来制定鉴定字典;字典存储单元,用于保存字典制定单元所制定的鉴定字典;以及鉴定单元,用于使用数据获取单元得到的鉴定数据以及字典存储单元中保存的字典来鉴定所识别的人员是否即为正确人员,其中,变化计算单元包括用于计算由检测单元所检测的特征点的up_down和left_right角度变化中的至少任一个的单元。
此外,根据本发明,提供了一种个人识别设备,其中包括:数据获取单元,用于从所识别的人员那里获取鉴定数据;字典制定单元,用于通过基于数据获取单元得到的鉴定数据分析主分量,来制定鉴定字典;计算单元,用于计算由字典制定单元制定的字典的本征值作用率(eigenvalue contribution rate);适应性判断单元,用于基于计算单元计算得到的本征值作用率判定字典制定单元制定的字典是否适于充当鉴定字典;字典存储单元,用于在适应性判断单元判定字典合适的时候保存字典制定单元制定的字典;以及鉴定单元,使用数据获取单元得到的鉴定数据以及字典存储单元中保存的字典来鉴定所识别的人员是否即为正确人员。
此外,根据本发明,提供了一种个人识别方法,其中包括:从所识别的人员那里获取鉴定数据;从所获取的鉴定数据中检测特征点;计算所检测的特征点的检测位置变化;根据计算得到的特征点变化来判断所获取的鉴定数据是否适于制定鉴定字典;当在判断步骤中判定所述鉴定数据合适时,根据所获取的鉴定数据来制定鉴定字典;保存所制定的鉴定字典;以及使用获取的鉴定数据以及存储的字典来鉴定所识别人员是否即为正确人员,其中,用于计算变化的步骤包括计算由检测步骤所检测的特征点的up_down和left_right角度变化中的至少任一个变化的步骤。
此外,根据本发明,提供了一种个人识别方法,其中包括:从所识别的人员那里获取鉴定数据;通过基于所获取的鉴定数据分析主分量,来制定鉴定字典;计算所制定的字典的本征值作用率;基于计算得到的本征值作用率来判断所制定的字典是否适于充当鉴定字典;当在判断步骤中判定所制定的字典合适时,保存所制定的字典;以及使用所获取的鉴定数据和所保存的字典来鉴定所识别人员是否即为正确人员。
附图说明
图1是示意性显示本发明第一实施例中包含的个人识别设备结构的框图;
图2是用于说明第一实施例中包含的个人识别设备的字典登记处理流程的流程图;
图3是示意性显示第二实施例中包含的个人识别设备结构的框图;
图4是用于说明第二实施例中的个人识别设备的字典登记处理流程的流程图;
图5A和图5B是用于对检测第二实施例中个人识别设备的UP_DOWN角度变化的状态进行说明的图示;
图6A和图6B是用于对检测第二实施例中个人识别设备的UP_DOWN角度变化的失败实例进行说明的图示;
图7是从顶端查看而对第二实施例中个人识别设备的特征点位置关系加以说明的人员头部的顶视图;
图8A和图8B是用于说明旋转第二实施例中的个人识别设备所产生的特征点变化的图示;
图9A和9B是用于对检测第二实施例中个人识别设备的LEFT_RIGHT角度变化的状态进行说明的图示;
图10是示意性显示第三实施例中包含的个人识别设备结构的框图;
图11是用于说明第三实施例中的个人识别设备的字典登记处理流程的流程图;以及
图12A到图12C是用于说明第三实施例中个人识别设备的本征值作用率的图表。
具体实施方式
以下参考附图来描述本发明的优选实施例。
首先参考附图来说明本发明的第一实施例。
图1示意性显示了第一实施例中包含的个人识别设备的结构。
所述个人识别设备包括一个数据获取单元101,一个检测单元102,一个变化计算单元103,一个适应性判断单元104,一个字典制定单元105,一个字典存储单元106以及一个鉴定单元107。
数据获取单元101从所识别人员100那里获取生物信息及其他鉴定数据。
检测单元102从数据获取单元101得到的鉴定数据中检测特征点。
变化计算单元103计算检测单元102测得的特征点的检测位置变化。
适应性判断单元104基于变化计算单元103计算得到的特征点变化来判断数据获取单元101获取的鉴定数据是否适于制定一个鉴定字典。
当判定数据获取单元105获取的鉴定数据合适时,字典制定单元105基于数据获取单元101获取的鉴定数据来制定一个用于鉴定的字典。
字典存储单元106保存字典制定单元105所制定的鉴定字典。
鉴定单元107使用数据获取单元101获取的鉴定数据以及字典存储单元106保存的字典来确认所识别人员是否即为正确人员。
下文将参考图2所示流程图来说明第一实施例中的字典登记处理流程。
首先,使用数据获取单元101从所识别人员100那里获取一个鉴定数据D(步骤S101)。例如,所述鉴定数据可以是面部认证中的面部图像数据,指纹数据中的指纹数据,声波纹认证中的声波纹数据,以及签名认证中的签名数据。
然后在检测单元102中,从这些鉴定数据D中检测特征点。在这里,所述特征点将会涉及图像数据中的以下区域:例如眼、额,鼻,唇、棱(edge)、皱纹。在指纹数据中,特征点是指纹节点(棱,分叉指纹图案等等)。而在签名数据中,结束和跳跃单元则是特征点。为了检测这些特征点,举例来说,可以应用公知文献[1](1997年8月由Kazuhiro FUKUI和Osamu YAMAGUCHI发表于TheInstitute Electronics,Information and Communication EngineersPaper D-11第J82-D-11卷第8号第2170-2177页的“Extractionof Face Characteristics by Combination of Shape Extraction andPattern Collation”)中描述的检测技术作为提取面部图像的方法。
此外,在这个实例中,即使鉴定数据D是一个面部图像数据的时候,也会将眼睛与鼻子检测为特征点。
在得到足量数据之前(S103),将会重复步骤S101和S102中的处理。在这里,假设每秒得到5张面部图像,那么足量数据大约是50到100张面部图像的数据。
在得到足量数据的时候,变化计算单元103计算步骤S102中测得的特征点(眼睛与鼻子)的变化位置(S104)。举例来说,假定从n片数据Di(i=1,2,...,k,...,n)中检测到a片特征点fj,i(j=1,2,… …,a)。这时,举例来说,如果处于第j个特征点的平均位置是fj,center,则可以如以下数学表达式1所示来计算“变化”,其中所述“变化”即为位置变化。
【数学表达式1】
change = Σ j = 1 a change ( j )
Change ( j ) = Σ i = 1 n | f j , i - f j , center | 2
此外,在将所述变化视为并不是从平均位置偏移,而是视为离开先前特征点位置的总的移动量的情况下,还可以根据以下数学表达式[2]来计算所述变化:
【数学表达式2】
Change ( j ) = Σ i = 1 n - 1 | f j , i - f j , i + 1 |
并且可以如以下的数学表达式3所示,基于那些并非特征点位置的特征点之间距离变化来计算所述变化。
【数学表达式3】
Change = Σ j = 1 a Σ i = 1 n Change ( j , i )
Change ( j , i ) = Σ k = 1 ( k ≠ i ) n | f j , i - f j , k | 2
然后,适应性判断单元104判定数据获取单元101得到的鉴定数据是否适合制定一个鉴定字典(步骤S105)。举例来说,在位置变化超出规定阈值TH101或者低于TH102的时候,所述数据将会太大(高于TH101)或者太小(低于TH101),由此将会判定所述数据不适于进行字典登记,并且修改所述登记或者警告所识别人员,要求他选择进行登记(步骤S106)。
当在步骤S105中判定所获取的鉴定数据适合制定鉴定字典时,字典制定单元105根据数据获取单元101得到的鉴定数据来制定一个鉴定字典(步骤S107)。然后,字典存储单元106保存所制定的字典(步骤S108)。
在学习字典时,有必要学习稍微有点不同的数据。因此,如果在如上所述根据眼鼻检测位置来检测面部运动的时候没有观察到足够运动,或者与此相反并观察到了过多运动,那么将会执行一个处理,以便从学习数据中排除这种数据。由此可以通过没有足够变化或是具有太大变化的数据来防止不恰当的字典学习。
不恰当的字典学习是那些只存在较少变化或是数据过于远离阈值的字典学习。
接下来描述第二实施例。
图3示意性显示了第二实施例中的个人识别设备的结构。所述个人识别设备包括一个数据获取单元201,一个检测单元202,一个角度变化计算单元203,一个适应性判断单元204,一个字典制定单元205,一个字典存储单元206以及一个鉴定单元207。
数据获取单元201从所识别人员那里获取生物信息和其他鉴定数据。
检测单元202从数据获取单元201获取的鉴定数据中检测特征点。
角度变化计算单元203计算检测单元202测得的up_down和left_right特征点中的任意一个特征点;在这个范例中,up_down和left_right角度都会变化。
适应性判断单元204根据角度变化计算单元203计算的角度变化来判定数据获取单元201获取的鉴定数据是否适合制定一个鉴定字典。
当适应性判断单元204判定所获取的鉴定数据适合时,字典制定单元205基于数据获取单元201得到的鉴定数据来制定一个鉴定字典。
字典存储单元206保存字典制定单元205所制定的鉴定字典。
鉴定单元207使用数据获取单元201获取的鉴定数据以及字典存储单元206保存的字典来确认所识别人员是否即为正确人员。
下文参考图4所示流程图来说明第二实施例中包含的字典登记处理流程。
首先,在得到足量数据之前(步骤S203),数据获取单元201从所识别人员100那里获取鉴定数据D的处理(步骤S201)以及检测单元202检测特征点的处理(步骤S203)与上述第一实施例中步骤S101到S103的处理相同。
在使用等同于第一实施例的方式而从n片数据Di(i=1,2,...,n)中测得a片特征点fj,i(j=1,2,… …,n)时,如下所述,角度变化计算单元203首先计算up_down角度变化(步骤S204)。在这里是将作为面部图像数据的鉴定数据D作为特征点位置信息的一个实例,这时,分别使用了左眼坐标(Xleft_eye,Yleft_eye),右眼坐标(Xright_eye,Yright_eye),左鼻孔坐标(Xleft_nose,Yleft_nose)以及右鼻孔坐标(Xright_nose,Yright_nose)。举例来说,即使特征点是眼部区域、嘴或者额,所述处理仍然是相同的。
当双眼的中心坐标是(Xcenter_eye,Ycenter_eye)并且两个鼻孔的中心坐标是(Xcenter_nose,Ycenter_nose)时,通过如下所示的数学表达式4来获取指示上下角度变化的UP_DOWN索引(参见图5)。
【数学表达式4】
Figure C20031012330300121
Figure C20031012330300122
= ( X center _ eye - X center _ nose ) 2 + ( Y center _ eye - Y center _ nose ) 2 ( X left _ eye - X right _ eye ) 2 + ( Y left _ eye - Y right _ eye ) 2
如图5A所示,当面朝前方时,眼睛与鼻子的距离(眼鼻距离)将会变大,并且索引也会变大。如图5B所示,当面朝上方时,眼鼻距离将会变小,并且索引也会变小。因此在这个实例中,即使是在仅仅通过接近或者远离而使眼鼻距离变大或变小的时候,眼鼻距离也是通过与双眼距离相除来进行归一化的,由此不会因为上下角度变化而对眼鼻距离做出错误判定。
然而,在这种技术中,即使仅仅如图6B所述改变左右角度,而不是如图6A所示的面朝前方,也有可能会因为上下角度变化而对索引UP_DOWN的变化做出错误判定。因此,在这种情况下,可以如下所示来进行校正。
如果眼睛701和702以及鼻子703(鼻孔704和705)处于图7模型所显示的位置,则如图8A所示来表示方向x上的特征点位置。此外,在将脸部从正面转动角度R时,则如图8B所示来表示特征点位置。因此在x方向上,处于前端的双眼距离Leye,0是使用以下表达式来表示的:
【数学表达式5】
Leye,0=2r1sinθ1
当转动角度R时,在x方向上,双眼之间的距离Leye,R是使用以下表达式来表示的:
【数学表达式6】
Leye,R=r1sin(θ1+R)+r1sin(θ1-R)
在转动角度R时,在x方向上,眼鼻之间中心点的偏移Lshift,R是使用以下表达式来表示的:
【数学表达式7】
Figure C20031012330300131
= r 2 sin ( θ 2 + R ) - r 2 sin ( θ 2 - R ) 2 - r 1 sin ( θ 1 + R ) - r 1 sin ( θ 1 - R ) 2
此外,如下定义r1,r2,R,θ1和θ2(参见图8A和8B):
r1:从头部中心点到左眼702的距离;
r2:从头部中心点到右鼻孔704的距离;
R:面部从正面转到左边或右边的角度;
θ1:头部中心点连接到正面的线条与头部中心点连接到左眼702的线条所形成的角度;
θ2:头部中心点连接到正面的线条与头部中心点连接到左鼻孔705的线条所形成的角度。
另一方面,图像上的视距是依照所识别人员100与用作数据获取单元201的摄像机之间的距离而改变的,并且视距通常与实际距离成比例。换句话说,数字公式5、6和7中的图像上的视距分别如下所示:
【数学表达式8】
L′eye,0=a·Leye,0
【数学表达式9】
L′eye,R=a·Leye,0
【数学表达式10】
L′shift,R=a·Lshift,R(a是比例常数)
因此,从数学表达式9和10可以得到:
【数学表达式11】
a = L eye , R ′ L eye , R = L shift , R ′ L shift , R
【数学表达式12】
L eye , R ′ L shift , R ′ = L eye , R L shift , R
数学表达式12的左侧是从图像上的一个观察值中获取的,参数R则是通过将数学表达式6和7替换到右端来确定的。因此,Leye,R是从数学表达式6中获取的,而a则通过将其替换到数学表达式11中来获取的。最后,在前方,处于方向x上的双眼距离图像上的距离L’eye,0(数学表达式4中双眼之间距离的校正值)是在将a代入数学表达式8的时候估计的。
因此有可能计算数学表达式4的上下角度变化索引UP_DOWN,而不会从图6B所示的双眼距离变化中导致问题。此外,作为图7所示模型,通常可以将一个模型用于所有人员,但也可以为所识别人员100的各种面部结构而使用一个不同的模型。
然后,角度变化计算单元203根据以下数学表达式13来计算显示了左右角度变化的索引LEFT_RIGHT(参照步骤S205,图9)。
【数学表达式13】
Figure C20031012330300151
Figure C20031012330300152
= - X center _ eye - X center _ nose ( X center _ eye - X center _ nose ) 2 + ( Y center _ eye - Y center _ nose ) 2
在这里,对双眼之间的距离而言,可以对步骤S204中所使用的双眼距离进行校正。
基于在上文中得到的结果,适应性判断单元204判定数据获取单元201得到的鉴定数据是否具有足够的角度变化(步骤S206和S208)。举例来说,当上下角度变化索引UP_DOWN超出规定阈值TH201时,则将其判定为太大,并且修改字典登记或者警告所识别人员100,使之选择是否进行登记(步骤S207)。
当上下角度变化索引UP_DOWN低于规定阈值TH202时,则判定上下角度变化太小,或者,当左右角度变化索引LEFT_RIGHT超出规定阈值TH203时,则判定左右角度变化太大,当左右角度变化索引LEFT_RIGHT低于规定阈值TH204时,则判定左右角度变化太小,并且执行步骤S207所示处理。
当步骤S206和S208中并未将鉴定数据判定为不合适时(当判定所获取的鉴定数据具有足够角度变化的时候),基于数据获取单元201获取的鉴定数据来制定一个鉴定字典(步骤S209)。然后,将所制定的字典保存在字典存储器单元206中(步骤S210)。
在学习字典时,有必要使用具有某种变化的数据来进行学习,因此,如上所述,面部的垂直和横向方向是基于眼睛和鼻子的位置来判定的。如果在所述方向上只有较少变化,或者与此相反,在所述方向上存在太多变化,则有可能通过从学习数据中排除这种没有足够角度变化的数据或是具有很大角度变化的数据来使用这些数据,从而防止不合适的学习字典。
接下来对第三实施例进行说明。
图10是示意性显示第三实施例中包含的个人识别设备结构的图示。所述个人识别设备包括一个数据获取单元301,一个字典制定单元302,一个本征值计算单元303,一个本征值作用率计算单元304,一个适应性判断单元305,一个字典存储单元396,以及一个鉴定单元307。
数据获取单元301从所识别人员100那里获取包括生物信息在内的鉴定数据。
字典制定单元302基于数据获取单元301获取的鉴定数据来执行一个主分量分析,由此制定一个鉴定字典。
本征值计算单元303计算字典制定单元302中包含的本征值。
本征值作用率计算单元304计算字典制定单元302所制定的字典的本征值作用率。
适应性判断单元305基于本征值作用率计算单元304计算的本征值作用率来判定字典制定单元302所制定的字典是否适合充当鉴定字典。
在适应性判断单元305判定合适的时候,字典存储单元306保存字典制定单元302制定的字典。
鉴定单元307使用数据获取单元301获取的鉴定数据以及字典存储单元306保存的字典来验证所识别人员是否即为人员自身。
以下参考图11所示流程图来说明第三实施例中的字典登记处理流程。
首先,在得到足量数据之前(步骤S302),在数据获取单元301中重复进行从所识别人员100那里获取鉴定数据D的处理(步骤S301)。在得到足量数据的时候,字典制定单元302和本征值计算单元303基于所获取的鉴定数据并且通过分析主分量来制定一个鉴定字典。
非常明确的是,以下处理将被执行,要想了解详细资料,可以参考公开文献[2](由Shigeru AKAMATSU在1997年发表于Institute Electronics Information and Communication EngineersPaper D-11第J80-d-11卷pp.2031-2046的“Recognition of Face byComputer-Survey”)。
N维矢量所表示的M块图案是xi(i=1,2,… …,M),并且其均值矢量为μ,而方差-协方差矩阵S则表示为
【数学表达式14】
S = 1 M Σ i = 1 N ( x i - μ ) ( x i - μ ) T
 因此,通过求解如下所示的一个特征等式,
【数学表达式15】
i=λiΦi    (λ1≥λ2≥...≥λN)
Φ i T Φ i = 1
获取了N块N维特征向量?i(i=1,2,……,N)以及对应的N块本征值λi(i=1,2,……,N;λ1>λ2>……>λn)。为了求解特征等式,可以使用上述文献[1]中包含的分析库。此外,可以使用如下所示的互相关矩阵R,而不是方差-协方差矩阵。
【数学表达式16】
R = 1 M Σ i = 1 M x i · x i T
然后,特征量作用率计算单元304根据以下等式17来计算特征量作用率(要了解详细资料,可以参考1991年由Takagi和Shimoda发表于Tokyo University Publishing Society第43页的“ImageAnalyzing Handbook”),符号“T”表示一个转置矩阵。
【数学表达式17】
第m个特征量的特征量作用率
C m = λ m Σ i = 1 N λ i
这个本征值显示了占用大部分作用率的更高维数的本征值分布(要了解详细资料,可以参考公开文献[4],由M.Kirby和L.Sirovich在1990年1月发表于IEEE Transactions on PatternsAnalysis and Machine Intelligence第12卷第1号第103页的“Application of the Karhymen-Loeve Procedure for theCharacterization of Human Faces”)。这意味着可以使用更高维数的特征矢量来表示学习数据的大部分分布。
另一方面,当学习数据变化很小的时候(例如,当面部几乎保持不动的时候),几乎所有本征值作用率都只由很小的高维本征值所占用。相反,当学习数据的变化太大时(例如过度移动面部或者移动所检测面部的时候),如图12C所示,大部分本征值作用率将会保持为较低维数的本征值。
因此,当【数学表达式18】
C m = Σ j m c j = Σ j m λj Σ i = 1 N λ i
中显示的第m个本征值的累积本征值作用率或是第m个特征的本征值作用率高于规定阈值TH301时,适应性判断单元305判定所述变化太大并且所述变化不适合充当用于验证(核对)的字典(步骤S304),由此修改字典登记或是对所识别的人员100发出警告,使他(或她)选择是否进行登记(步骤S305)。当在步骤S304中判定字典适合的时候,字典存储单元306将会保存所述字典(步骤S306)。
如上所述,当面部图像变化太小的时候,字典的本征值作用率将会变大,与此相反,当变化太大时,字典的本征值作用率将会变小。因此,通过判断面部变化,可以使用不具有足够变化或是太多变化的数据来防止不合适的字典学习。
此外,在上述实施例中对字典登记中的处理进行了说明,在字典登记之后,可以在验证(核对)中进行相似的处理。
根据上文中详细描述的本发明,可以提供一种个人识别设备和一种个人识别方法,所述设备和方法能在字典登记中使用适合验证的鉴定数据来进行学习,并且防止不合适的字典登记。

Claims (16)

1.一种个人识别设备,包括:
数据获取单元,用于从所识别的人员那里获取鉴定数据;
检测单元,用于对数据获取单元得到的鉴定数据的特征点进行检测;
变化计算单元,用于计算检测单元测得的特征点的检测位置变化;
适应性判断单元,用于根据变化计算单元计算的特征点变化来判断数据获取单元得到的鉴定数据是否适合制定鉴定字典;
字典制定单元,用于在判定鉴定数据合适的时候,基于数据获取单元得到的鉴定数据来制定鉴定字典;
字典存储单元,用于保存字典制定单元所制定的鉴定字典;以及
鉴定单元,用于使用数据获取单元得到的鉴定数据以及字典存储单元中保存的字典来鉴定所识别的人员是否即为正确人员,
其中,变化计算单元包括用于计算由检测单元所检测的特征点的up_down和left_right角度变化中的至少任一个的单元。
2.根据权利要求1的个人识别设备,其中数据获取单元得到的鉴定数据是所识别人员的面部图像。
3.根据权利要求2的个人识别设备,其中检测单元使用面部图像的眼睛、额头、鼻子或嘴唇这种面部区域作为特征点。
4.根据权利要求1的个人识别设备,其中,在适应性判断单元将鉴定数据判定为不合适的时候,再次从数据获取单元获取鉴定数据开始执行处理。
5.一种个人识别设备,包括:
数据获取单元,用于从所识别的人员那里获取鉴定数据;
字典制定单元,用于通过基于数据获取单元得到的鉴定数据分析主分量,来制定鉴定字典;
计算单元,用于计算由字典制定单元制定的字典的本征值作用率;
适应性判断单元,用于基于计算单元计算得到的本征值作用率判定字典制定单元制定的字典是否适于充当鉴定字典;
字典存储单元,用于在适应性判断单元判定字典合适的时候保存字典制定单元制定的字典;以及
鉴定单元,使用数据获取单元得到的鉴定数据以及字典存储单元中保存的字典来鉴定所识别的人员是否即为正确人员。
6.根据权利要求5的个人识别设备,其中数据获取单元得到的鉴定数据是所识别人员的面部图像。
7.根据权利要求6的个人识别设备,其中数据获取单元使用面部图像的眼睛、额头、鼻子或嘴唇这种面部区域作为特征点。
8.根据权利要求5的个人识别设备,其中,在适应性判断单元将鉴定数据判定为不合适的时候,再次从数据获取单元获取鉴定数据开始执行处理。
9.一种个人识别方法,包括:
从所识别的人员那里获取鉴定数据;
从所获取的鉴定数据中检测特征点;
计算所检测的特征点的检测位置变化;
根据计算得到的特征点变化来判断所获取的鉴定数据是否适于制定鉴定字典;
当在判断步骤中判定所述鉴定数据合适时,根据所获取的鉴定数据来制定鉴定字典;
保存所制定的鉴定字典;以及
使用获取的鉴定数据以及存储的字典来鉴定所识别人员是否为正确人员,
其中,用于计算变化的步骤包括计算由检测步骤所检测的特征点的up_down和left_right角度变化中的至少任一个变化的步骤。
10.根据权利要求9的个人识别方法,其中在数据获取步骤中得到的鉴定数据是所识别人员的面部图像。
11.根据权利要求10的个人识别方法,其中检测步骤使用了面部图像的眼睛、额头、鼻子或嘴唇这种面部区域作为特征点。
12.根据权利要求9的个人识别方法,其中在适应性判断步骤将所获取的数据判定为不合适的时候,再次从通过数据获取步骤获取鉴定数据开始执行处理。
13.一种个人识别方法,包括:
从所识别的人员那里获取鉴定数据;
通过基于所获取的鉴定数据分析主分量,来制定鉴定字典;
计算所制定的字典的本征值作用率;
基于计算得到的本征值作用率来判断所制定的字典是否适于充当鉴定字典;
当在判断步骤中判定所制定的字典合适时,保存所制定的字典;以及
使用所获取的鉴定数据和所保存的字典来鉴定所识别人员是否即为正确人员。
14.根据权利要求13的个人识别方法,其中所获取的鉴定数据是所识别人员的面部图像。
15.根据权利要求14的个人识别方法,其中检测步骤使用了面部图像的眼睛、额头、鼻子或嘴唇这种面部区域作为特征点。
16.根据权利要求13的个人识别方法,其中在适应性判断步骤判定所获取的数据不合适的时候,再次从通过数据获取步骤获取鉴定数据开始执行处理。
CNB2003101233034A 2002-12-26 2003-12-23 个人识别设备和个人识别方法 Expired - Fee Related CN1288600C (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2002378452A JP2004213087A (ja) 2002-12-26 2002-12-26 個人認証装置および個人認証方法
JP378452/2002 2002-12-26

Publications (2)

Publication Number Publication Date
CN1512452A CN1512452A (zh) 2004-07-14
CN1288600C true CN1288600C (zh) 2006-12-06

Family

ID=32463606

Family Applications (1)

Application Number Title Priority Date Filing Date
CNB2003101233034A Expired - Fee Related CN1288600C (zh) 2002-12-26 2003-12-23 个人识别设备和个人识别方法

Country Status (8)

Country Link
US (1) US20040125991A1 (zh)
EP (2) EP1903476A3 (zh)
JP (1) JP2004213087A (zh)
KR (1) KR100587617B1 (zh)
CN (1) CN1288600C (zh)
CA (1) CA2452188A1 (zh)
DE (1) DE60324246D1 (zh)
TW (1) TWI250469B (zh)

Families Citing this family (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4696857B2 (ja) 2005-11-02 2011-06-08 オムロン株式会社 顔照合装置
US20070201727A1 (en) * 2006-02-13 2007-08-30 Precor Incorporated User identification for fitness equipment
US20070261100A1 (en) * 2006-05-05 2007-11-08 Greeson Robert L Platform independent distributed system and method that constructs a security management infrastructure
JP4910507B2 (ja) * 2006-06-29 2012-04-04 コニカミノルタホールディングス株式会社 顔認証システム及び顔認証方法
JP4952267B2 (ja) * 2007-01-19 2012-06-13 コニカミノルタホールディングス株式会社 3次元形状処理装置、3次元形状処理装置の制御方法、および3次元形状処理装置の制御プログラム
JP5024067B2 (ja) * 2007-01-19 2012-09-12 コニカミノルタホールディングス株式会社 顔認証システム、方法及びプログラム
US9721148B2 (en) 2007-12-31 2017-08-01 Applied Recognition Inc. Face detection and recognition
WO2009082814A1 (en) 2007-12-31 2009-07-09 Ray Ganong Method, system, and computer program for identification and sharing of digital images with face signatures
US9639740B2 (en) 2007-12-31 2017-05-02 Applied Recognition Inc. Face detection and recognition
CN102762720B (zh) 2009-11-12 2015-03-11 Vbi技术有限责任公司 类孢子细胞子群及其用途
JP5783759B2 (ja) * 2011-03-08 2015-09-24 キヤノン株式会社 認証装置、認証方法、および認証プログラム、並びに記録媒体
US8830032B2 (en) 2010-10-25 2014-09-09 International Business Machines Corporation Biometric-based identity confirmation
EP2669833A4 (en) * 2011-01-27 2014-07-09 Ntt Docomo Inc MOBILE INFORMATION TERMINAL, METHOD FOR SAVING GRIP PROPERTIES, AND METHOD FOR AUTHENTICATING GRIP PROPERTIES
US9552376B2 (en) 2011-06-09 2017-01-24 MemoryWeb, LLC Method and apparatus for managing digital files
US8548207B2 (en) 2011-08-15 2013-10-01 Daon Holdings Limited Method of host-directed illumination and system for conducting host-directed illumination
DE102011054658A1 (de) 2011-10-20 2013-04-25 Bioid Ag Verfahren zur Unterscheidung zwischen einem realen Gesicht und einer zweidimensionalen Abbildung des Gesichts in einem biometrischen Erfassungsprozess
US9931154B2 (en) * 2012-01-11 2018-04-03 Biosense Webster (Israel), Ltd. Touch free operation of ablator workstation by use of depth sensors
US9202105B1 (en) 2012-01-13 2015-12-01 Amazon Technologies, Inc. Image analysis for user authentication
US9792528B2 (en) * 2012-01-30 2017-10-17 Nec Corporation Information processing system, information processing method, information processing apparatus and control method and control program thereof, and communication terminal and control method and control program thereof
WO2015146101A1 (ja) * 2014-03-28 2015-10-01 日本電気株式会社 顔照合装置、方法、及び、記録媒体
US10614204B2 (en) 2014-08-28 2020-04-07 Facetec, Inc. Facial recognition authentication system including path parameters
US11256792B2 (en) 2014-08-28 2022-02-22 Facetec, Inc. Method and apparatus for creation and use of digital identification
US10915618B2 (en) 2014-08-28 2021-02-09 Facetec, Inc. Method to add remotely collected biometric images / templates to a database record of personal information
US10698995B2 (en) 2014-08-28 2020-06-30 Facetec, Inc. Method to verify identity using a previously collected biometric image/data
CA3186147A1 (en) 2014-08-28 2016-02-28 Kevin Alan Tussy Facial recognition authentication system including path parameters
US10803160B2 (en) 2014-08-28 2020-10-13 Facetec, Inc. Method to verify and identify blockchain with user question data
CN106991355B (zh) * 2015-09-10 2020-04-24 天津中科智能识别产业技术研究院有限公司 基于拓扑保持的解析型字典学习模型的人脸识别方法
CN105701786B (zh) * 2016-03-21 2019-09-24 联想(北京)有限公司 一种图像处理方法及电子设备
USD987653S1 (en) 2016-04-26 2023-05-30 Facetec, Inc. Display screen or portion thereof with graphical user interface
CN109034138B (zh) * 2018-09-11 2021-09-03 湖南拓视觉信息技术有限公司 图像处理方法及装置
US10936178B2 (en) 2019-01-07 2021-03-02 MemoryWeb, LLC Systems and methods for analyzing and organizing digital photos and videos
US20230153409A1 (en) * 2020-10-16 2023-05-18 Nec Corporation Authentication system, authentication method, and program recording medium

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3581865D1 (de) * 1984-08-30 1991-04-04 Nec Corp Vorverarbeitungssystem fuer die vorverarbeitung einer folge von bildpunkten vor der identifikation.
CA2004457A1 (en) * 1988-12-06 1990-06-06 Seigo Igaki Minutia data extraction in fingerprint identification
US5040213A (en) * 1989-01-27 1991-08-13 Ricoh Company, Ltd. Method of renewing reference pattern stored in dictionary
CN1045129C (zh) * 1993-03-29 1999-09-15 松下电器产业株式会社 个人识别装置
JP3279913B2 (ja) * 1996-03-18 2002-04-30 株式会社東芝 人物認証装置、特徴点抽出装置及び特徴点抽出方法
EP0833232B1 (en) * 1996-09-26 2002-06-12 Canon Kabushiki Kaisha Process cartridge, electrophotographic image forming apparatus driving force transmission part and electrophotographic photosensitive drum
DE19901881A1 (de) * 1999-01-19 2000-07-27 Dcs Dialog Communication Syste Verfahren und System zur Fälschungssicherung bei biometrischer Personenerkennung
WO2001024700A1 (en) * 1999-10-07 2001-04-12 Veridicom, Inc. Spoof detection for biometric sensing systems
JP3356144B2 (ja) * 1999-12-08 2002-12-09 日本電気株式会社 バイオメトリクスを用いるユーザ認証装置及びそれに用いるユーザ認証方法
JP4526639B2 (ja) * 2000-03-02 2010-08-18 本田技研工業株式会社 顔認識装置およびその方法
JP4443722B2 (ja) * 2000-04-25 2010-03-31 富士通株式会社 画像認識装置及び方法
JP2002229955A (ja) * 2001-02-02 2002-08-16 Matsushita Electric Ind Co Ltd 情報端末装置及び認証システム
DE60213032T2 (de) * 2001-05-22 2006-12-28 Matsushita Electric Industrial Co. Ltd. Gerät zur Gesichtsdetektion, Gerät zur Detektion der Gesichtspose, Gerät zur Extraktion von Teilbildern und Verfahren für diese Geräte

Also Published As

Publication number Publication date
CN1512452A (zh) 2004-07-14
TWI250469B (en) 2006-03-01
US20040125991A1 (en) 2004-07-01
EP1434163A2 (en) 2004-06-30
DE60324246D1 (de) 2008-12-04
EP1434163A3 (en) 2006-06-07
CA2452188A1 (en) 2004-06-26
TW200414074A (en) 2004-08-01
KR100587617B1 (ko) 2006-06-07
EP1903476A3 (en) 2008-05-21
EP1434163B1 (en) 2008-10-22
KR20040057942A (ko) 2004-07-02
EP1903476A2 (en) 2008-03-26
JP2004213087A (ja) 2004-07-29

Similar Documents

Publication Publication Date Title
CN1288600C (zh) 个人识别设备和个人识别方法
KR100617390B1 (ko) 얼굴 식별 장치, 얼굴 식별 방법 및 기록매체
JP4946730B2 (ja) 顔画像処理装置及び顔画像処理方法、並びにコンピュータ・プログラム
US9684850B2 (en) Biological information processor
CN1379364A (zh) 图形对照装置及其图形对照方法
JP4655235B2 (ja) 情報処理装置および方法、並びにプログラム
CN1901672A (zh) 照相机系统、信息处理装置及方法
US20070071288A1 (en) Facial features based human face recognition method
CN105740778B (zh) 一种改进的三维人脸活体检测方法及其装置
US11804071B2 (en) Method for selecting images in video of faces in the wild
CA3152812A1 (en) Facial recognition method and apparatus
CN1894703A (zh) 模式识别方法、设备以及程序
WO2016089529A1 (en) Technologies for learning body part geometry for use in biometric authentication
CN1845126A (zh) 信息处理设备、信息处理方法
CN1552041A (zh) 人脸元数据生成与人脸相似度计算
CN1494037A (zh) 人员识别仪器、人员识别方法和通行控制器
CN1940961A (zh) 特征点检测设备和方法
CN1798237A (zh) 图像处理方法以及装置与程序
US8213720B2 (en) System and method for determining chin position in a digital image
CN106446859B (zh) 利用手机前置摄像头自动识别人眼中黑点和血丝的方法
KR102037573B1 (ko) 문진 데이터 및 카메라 데이터에 기반한 진단용 데이터 처리 장치 및 그 시스템
CN111931617A (zh) 基于图像处理的人眼图像识别方法、装置及自助终端
CN110443147A (zh) 一种坐姿识别方法、系统和存储介质
JP2005084979A (ja) 顔認証システムおよび方法並びにプログラム
Ruiz et al. Automatic landmarking of faces in 3D-ALF3D

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
C19 Lapse of patent right due to non-payment of the annual fee
CF01 Termination of patent right due to non-payment of annual fee