CN1543625A - 个人身份验证方法和系统 - Google Patents

个人身份验证方法和系统 Download PDF

Info

Publication number
CN1543625A
CN1543625A CNA028149459A CN02814945A CN1543625A CN 1543625 A CN1543625 A CN 1543625A CN A028149459 A CNA028149459 A CN A028149459A CN 02814945 A CN02814945 A CN 02814945A CN 1543625 A CN1543625 A CN 1543625A
Authority
CN
China
Prior art keywords
ecoc
output vector
sorter
class
sorter output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CNA028149459A
Other languages
English (en)
Other versions
CN100403333C (zh
Inventor
J・基特勒
J·基特勒
T·温迪特
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omniperception Ltd
Original Assignee
Omniperception Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omniperception Ltd filed Critical Omniperception Ltd
Publication of CN1543625A publication Critical patent/CN1543625A/zh
Application granted granted Critical
Publication of CN100403333C publication Critical patent/CN100403333C/zh
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Collating Specific Patterns (AREA)

Abstract

一种个人身份验证方法和系统采用纠错输出编码(ECOC)分类器方法。处理表示输入脸部图像的图像数据以生成第一(ECOC)分类器输出向量,处理表示个人脸部的不同训练图像类的图像数据以生成第二ECOC分类器输出向量集。通过利用一阶明可夫斯基量度测量第一ECOC分类器输出向量与第二ECOC分类器输出向量集的距离来评估输入脸部图像相对于训练图像类的真实性。

Description

个人身份验证方法和系统
本发明涉及个人身份验证方法和系统。
基于生物统计信息的自动个人身份验证和鉴别已在安全应用中得到普及。现有的商用系统利用了大量生物统计模式,包括语音特征、虹膜扫描和指纹。但是,作为生物统计信息源,人的脸部起着特别重要的作用,因为脸部图像(例如照片)可以容易地得到,并携带可由未经专家培训的人们例行用于识别的鉴别特征。这提供了人机紧密交互和协作的可能性。
不幸的是,迄今自动脸部验证系统的性能一般都很差。虽然近几年已取得了很大的进展,但脸部验证仍是一个难题。为此,最近的范例之一是采用多个模式来取得稳健性并提高性能。通常,语音和脸部数据相结合,以取得更好的验证率(即较低的错误接受率和错误拒绝率),具体描述见S.Ben-Yacoub等人所著“音频视频方式的人员认证”(Computer Vision and Pattern Recognition,pp 580-585,June 1999,IEEE Computer Society)。不过,也对结合其他特征(包括例如脸部轮廓、唇动力学信息和3D脸部信息)的优点进行了研究。虽然已证明这种多模式方法取得了重大改善,但仍需要提高生物测量构成子系统的性能,以使出错率更低。这方面最近报道的一些进展包括J.Kittler等人所著的“关于基于IDA的脸部验证的匹配记分”(British MachineVision Conference 2000,ed M.Mirmehdi and B.Thomas)论文中所述的进展。
作为另一种提高性能的方向,已尝试对多个决策系统的输出加以综合。此方法利用了根据多分类器融合(classifier fusion)而获得的结果,多分类器融合参见J.Kittlet等人编辑的“多分类器系统”(Springer-Verlag,Berlin 2000)。通过综合涉及真实性的多种意见,可以降低单个专家输出的错误方差,并取得更好的出错率。在J.Kittlet等人所著的“利用特定于客户的fisher脸进行脸部验证”(TheStatistics of Directions,Shapes and Images pages 63-66,2000,ed.J.T.Kent and R.G.Aykroyd)中表明,通过综合多个不同脸部验证系统的得分,可以将最好专家的出错率降低42%以上。但是,这种专门设计的多个专家系统并不一定得到最佳解。
为了至少缓解上述问题,本发明提供一种采用纠错输出编码(ECOC)方法的个人身份验证方法和系统。ECOC是针对信道编码开发的。ECOC的基本思想是,分配超出对源消息编码所需的比特数量的一些额外比特,以便提供纠错能力。在模式分类的上下文中,该思想意味着每类模式用比常规码复杂的码来表示,Zij=0 i≠j和Zij=1 i=j。实现这种容错码(error resilient code)需要多于常规的分类器。
将ECOC分类方法应用于脸部验证问题的主要困难为两类问题(即包含客户类(client class)和假冒者类),而ECOC只适合多类问题。可以对验证问题采用两阶段解决方案来克服此困难。在第一阶段,可以将验证任务视为识别问题并可以设计ECOC来生成特定于类的鉴别式。事实上,只需要所声称的身份的类的鉴别式。在第二阶段,假设所生成的鉴别式与特定客户的响应分布一致。
根据本发明,提供一种个人身份验证方法,用以参照表示个人脸部的不同训练图像类来评估输入脸部图像的真实性,此方法包括处理表示输入脸部图像的图像数据,以生成第一纠错输出码(ECOC)分类器输出向量,处理表示所述类的不同训练图像的图像数据,以生成第二ECOC分类器输出向量集,将所述第一ECOC分类器输出向量与所述第二ECOC分类器输出向量集比较,以及根据所述比较结果评估所述输入脸部图像相对于所述训练图像类的真实性。
本发明提供一种有效的设计,它利用ECOC分类器的具有吸引力的特性,但同时适用于两类个人身份验证问题。此设计方法已经利用洛桑(Lausanne)协议对XM2VTS脸部数据库进行了测试。发现所得到的错误拒绝率和错误接受率优于J.Matas等人于“XM2VTS数据库上的脸部验证结果比较”(Proceedings of the 15th ICPR,vol 4,pages 858-863,Los Alamitos USA,Sept 2000,IEEE Computer SocPress)一文中所报道的迄今有关该数据库的最佳报道结果。
现在对本发明的实施例和利用这些实施例获得的测试结果加以说明,但这些仅仅作为例示。
脸部图像表示
脸部图像归一化或标准化是脸部识别或验证的重要步骤。脸部图像彼此在形状和亮度上均存在差异,所以形状对齐(几何归一化)和亮度校正(光度归一化)可以提高所设计的系统的性能。在本实施例中,几何归一化的方法基于眼睛位置。根据眼睛的坐标计算四个参数(即,旋转度、比例和水平和垂直方向上的转换),以从原始图像中剪切出脸部部分,并将其缩放到任何期望的分辨率。采用“人工定位的”眼睛坐标,以消除试验对可能缺乏稳健性的方法的依赖性。由此,可以重点研究性能如何受验证方法,即ECOC技术影响。就光度归一化而言,已采用了直方图平均值化,这是因为与其他现有方法(例如“线性鉴别分析及其在脸部识别中的应用”(Ph.D Thesis,universityof Surrey,Sept 2000)一文所述的方法)相比,此方法已显示较好的性能。
虽然如早先的试验(例如参见F.S.Samaria等人所著的“人脸识别随机模型的参数化”(Proceedings of the 2nd IEEE Workshop onapplication of computer vision,Sarasota,Florida,1994.http://mambo.ucsc.edu/psl/olivetti.[HTML.,]and"Fast facelocalisation and verification"by J.Matas et al IVC,17(8)[PAGES578-581,]June 1999))所示,可以直接采用灰度级,但一般首先提取特征。模式识别文献中介绍了许多用于提取和选择可在特征空间中提供最大类区分的有效特征的技术,如P.A Devijver等人所著的“模式识别:一种统计方法”(Prentice Hall,1982)中所述。一种流行的方法是线性鉴别分析(LDA),它是本实施例中采用的方法。下面简述LDA的原理,以及如何将其应用于脸部识别或验证。更多的细节可以参见上面提及的P.A.Devijver等人所著的“特征脸对fisher脸:使用特定于类的特殊线性投影的识别”(Proc.of ECCV′96,pages 45-58,Cambridge,United Kingdom,1996)。
给定一组向量xi,i=1,…,M,xi∈RD,每个向量均属于c个类(C1,C2,…,Ce)之一,类间离散矩阵SB按下式计算:
S B = Σ i = 1 c ( μ i - μ ) ( μ i - μ ) T - - - ( 1 )
而类内离散矩阵SW按下式计算:
S W = Σ i = 1 c Σ x k ∈ C i ( x k - μ i ) ( x k - μ i ) T - - - ( 2 )
其中μ是总平均值,μi是类Ci的平均值。
LDA的目标是要得到使鉴别比 最大的变换矩阵Wopt。已知Wopt是如下特征值问题的解:
          SBW-SWWΛ=0                (3)其中Λ是其元素为矩阵SW -1SB的特征值的对角矩阵(参见前述P.A.Devijver等人所著的“模式识别:一种统计方法”)。矩阵W的列向量 wi(i=1,…,c-1)称为fisher脸,如以上提及的P.N.Belhumeur等人所著的“特征脸对fisher脸:使用特定于类的线性投影识别”中所述。
在高维问题中(例如在xi以及D约为105的情况中),Sw几乎总是奇异的,因为训练样本M数远小于D。因此,在解上述等式(3)所定义的特征值问题之前首先必须作降维处理。通常,降维是通过主成分分析来实现的(例如,可参见L.Sirovich等人所著的“脸部特征化的低维化过程”(Journal.Opt.Soc.Am,A,3(4)pages519-524,1987)和以上提及的P.N.Belhumeur等人所著的“特征脸对fisher脸:利用特定于类的线性投影的识别”);第一(M-c)特征投影用于表示向量xi。降维还使得可以有效地计算Sw和SB。于是最优线性特征提取器Wopt可定义为:
      Wopt=Wlda*Wpca            (4)其中Wpca是PCA投影矩阵,Wlda是通过如下求极大值而获得的最优投影:
W lda = arg max | W T W pca T S W W pca W | | W T W pca T S B W pca W | - - - ( 5 )
ECOC验证方法
纠错输出编码(ECOC)是信息论的概念,它提示采用ECOC码来表示通过传输信道被破坏之后应该彼此加以区分的信号可能是有利的。T.G.Dietterich等人所著的题为“纠错输出码:改进多类归纳学习方法的通用方法”的论文(pages 572-577,Proceedings of TheNinth National Conference On Artificial Intelligence.(AAAI-91),AAAI Pres,1991)建议可以将分类模型化为由“输入特征”、“训练样本”和“学习范例”构成的传输信道。类由任何一对之间具有较大汉明距离的码字来表示。通过既分解多类问题又在决策阶段进行纠错,相信ECOC可提高性能(参见T.G.Dietterich等人所著的“通过纠错输出码解决多类学习问题”(Journal of ArtificialIntelligence Research,2 pages 263-286,1995)。码字矩阵中的二进制值由码生成过程确定;有可能选择可提供有意义的分解的值(例如,参见T.J.Senjnowski等人所著的“学习念英语文本的并行网络”(Complex systems,1(1)pages 145-168,1987),但通常没有相关的意义(参见上述T.G.Dietterich等人所著的“通过纠错输出码解决多类学习问题”;R.Ghaderi等人所著的“循环ecoc,理论和试验分析”(pages 203-206,Barcelona,Spain,September2000.International Conference of Pattern Recognition(ICPR2000);T.Windeatt等人所著的“多类决策综合的二进制码”(volume 4051,pages 23-24,Florida,USA,April 2000.14th AnnualInternational Conference of Society of Photo- OpticalInstrumentation Engineers(SPIE))和E.B.Kong等人所著的“借助纠错输出编码进行概率估算”(Banff,Canada,1997.Int.Conf.of Artificial Intelligence and soft computing,http://WWW/CS/0RST.]edu/tgd/cv/pubs.html))。存在几种可找到一组其中任何一对码字之间具有最小保证距离的码字的方法,最流行的是以下文献中所述的BCH码:T.G.Dietterich等人所著的“通过纠错输出码解决多类学习问题”和W.W.Peterson等人所著的“纠错码”(MIT press,Cambridge,MA,1972年),BCH码为本发明述及的实施例所采用。
为了理解ECOC算法,考虑k×b码字矩阵Z(k是类的数量),其中k行表示码字(标记),每类一个。在训练阶段,对于每列,根据二进制值(“1”和“0”)对模式重新进行标记,从而定义两个超类。训练二进制分类器b次,每列一次。现在各模式可以由b个分类器变换到ECOC特征空间,给出向量:
        y=[y1,y2,…,yb]T                       (6)其中yj是第j个分类器的实值输出。在测试阶段,各类的输出向量与标签之间的距离L按如下公式确定:
L i = Σ j = i b | Z ij - y j | - - - ( 7 )
并且将输入模式分配给与 y距离最小的码字所对应的类。
就本发明所涉及的验证而言,任务有所不同。此时希望确定分类器输出共同与所声称的身份相符。这可通过设置有关输出与客户码的距离的阈值来实现。但是,混合码表示理想化的目标,而非这些输出的真实分布。因此,测量与客户码的距离可能存在误导,尤其是在高维空间。
一种替代方法是,采用联合分类器输出的质心(centroid)来描述各客户的特征,并根据此表示来测量新客户声称的一致性。G.James所著的“多数票决分类器:原理和应用”(PhD thesis,Dept.of Statistics,Univ. of Stanford,May 1998.http://www/stat/stanford.edu./Gareth/)中提倡在ECOC分类器场景中采用质心。但是,在本例中,因为只有非常少量的训练图像,所以估计的质心可能非常不可靠。根据本发明,各客户用从第i个客户的训练图像导出的N个ECOC分类器输出向量的相应的集合Yi表示,即:
Y i = { y ‾ i 1 | 1 = 1,2 , . . . , N - - - ( 8 )
其中N是第i个客户的可用训练图像的数量。为了测试客户声称是真实的假设,将(根据输入脸部图像推导出来的)向量 y与(根据第i个客户训练图像类推导出来的)集合Yi的元素之间的平均距离用作测试统计。在本实施例中,采用上述等式(3)的一阶明可夫斯基量度(Minkowski metric)而非欧几里德量度来测量距离,以便达到抗非正常值更好的稳健性。这样估算的距离由下式给出:
d i ( y ‾ ) = 1 N Σ i = 1 N Σ j = 1 b | y j i - y j | - - - ( 9 )
其中yj是由输入脸部图像推导出的ECOC分类器输出向量的第j个元素,而yj 1是由第i个客户类推导出的ECOC分类器输出向量的集合Yi的第1个成员的第j个元素。对照决策阈值t检查该距离。如果该距离低于阈值,则接受客户声称,即确认输入脸部图像相对于第i个训练图像类的真实性;否则拒绝它,即
Figure A0281494500121
或者,与测量点之间的距离不同,有可能测量点间的相似度,它可以由距离为零时取最大值且随距离增加而单调递减的核函数来表示。决策函数的设计不能包含任何训练,因为可用点的数量极小。我们简单地采用固定宽度为σ的指数核。不需要明确地确定中心,因为距离di( y)用于核指数中以测量 y与相应的类i的相似度。为一定数量的假冒者类中的每个假冒者类和客户类分配一个核。(由输入脸部图像推导出的)测试向量 y与所声称的客户类和假冒者类的相应的相似度按下式测量:
k i ( y ‾ ) = Σ ∝ w ∝ exp { - d ∝ ( y ‾ ) σ 2 } - - - ( 11 )
其中索引∝超出第i个类和所有假冒者类,并估计相应的加权值w。客户声称测试按下式执行:
Figure A0281494500123
基于XM2VTS数据库的试验
上述个人身份验证的方法已经由本发明人利用XM2VTS脸部数据库进行了测试,因为众所周知这是挑战性的,并且可以容易地从文献中得到采用其他验证方法按照国际认可的协议进行试验而得到的结果,以便用于比较。
数据库和试验协议
扩充后的M2VTS(XM2VTS)数据库包含295个主题。这些主题是在四个均匀分布在5个月周期的独立期间中记录的,各期间拍摄一定数量的照片,包括正面视图和旋转序列。在正面视图序列中,主题阅读特定的文本(提供同步化的图像和语音数据),而在旋转序列中,使头部垂直和水平移动(提供对头部3D表面建模有用的信息)。该数据库的更多的细节可以参见KL Messer等人所著的“XM2VTSDB:扩充的M2VTS数据库”(Proc.of AVBPA ′99,pages 72-77,1999)。
试验协议(称为Lausanne评估协议)提供了一种框架,在此框架中可对基于扩充的M2VTS数据库运行的基于视觉(和基于声音)的人员认证系统的性能加以测量。该协议分配了200个客户和95个假冒者。选择各期间对各主题的正面图像或近正面图像(near frontalimage)的两个照片,以构成两个配置。在此评估中,采用了第一个配置。如上述J Matas等人所著的“基于xm2vts数据库的脸部验证结果比较”中的报告结果所示,此方式更为困难。在此配置中,每个客户对应3个训练图像、3个评估图像和2个测试图像。假冒者集合被划分为25个评估假冒者和70个测试假冒者。在该协议中,利用错误接受率和错误拒绝率来测定验证性能。这两个出错率彼此相等的工作点称为等出错率点。此协议的细节可参见J.Luettin等人所著的“扩充的M2VTS数据库(XM2VTS)的评估协议”(Dalle Molle Institute forPerceptual Artificial Intelligence,P.O.Box 592 Martigny,Valais,Switzerland,July 1998,IDIAP-Com 98-05)。
系统说明
在本发明的本实施例中,利用前述LDA将所有图像投影到较低维的特征空间,以便通过含199个元素的向量来表示各模式。有200个客户,所以从识别的观点来看,这提出了一个200类的问题。采用含200个码字(混合标记)511个比特的BCH等距码。任何一对标签之间的码距离为256个比特。码选择和等距码的优点在上述T.Windeatt等人所著的“用于多类决策综合的二进制码”中作了讨论。
对于验证任务,零级分类器是具有一个隐藏层的“多层感知器”(MLP),它包含199个输入节点、35个隐藏节点和2个输出节点。对于训练,将具有固定学习率、动量和历元(epoch)数量的后向传播(Back-propagation)算法用于训练。双输出映射到“0”和“1”之间的值,以给出超类成员关系的概率估计值。对于标识任务,采用具有三个隐藏节点的MLP。
如前所述,MLP的输出定义ECOC特征向量,并根据公式(9),通过对各类图像求平均值来计算所声称的身份i的di( y)。已对用于综合ECOC多个分类器的输出的基于规则的距离和相似度作了研究。在两个决策函数中,基于规则的距离是唯一一个必须选择的依赖于参数(即决策阈值)的决策函数。
基于距离的综合
通常会采用评估集合数据来计算“接收器工作特性(ROC)曲线,它将错误拒绝(FR)率和错误接受(FA)率的关系描绘成阈值的函数。然后选择合适的阈值以取得所需的特性;例如,可以指定得到相等的错误拒绝率和错误接受率的阈值。可以单独为各客户选择阈值,也可以通过对所有客户求平均误差而以全局方式选择阈值。
本发明基于ECOC的方法可能遇到的困难是,对于较大范围的阈值,基于评估集合的FR和FA误差均为零,因为零级分类器“太过强大”。在这类情况中,ROC曲线对阈值设定并非很有用。此问题可通过如下方法来加以克服。从t=0开始,阈值按固定步长连续递增,以找出总误差(FR和FA误差之和)为最小的点。如果这样递增几次,总误差为零,则所选的阈值将对应总误差刚开始上升之前的点。
表1给出利用评估集合数据通过上述阈值选择过程得到的结果,该结果是步长的函数。因为不同的步长使阈值选择过程终止于距评估集合中假冒者不同的目的地,故测试集合的性能也有所不同。表2显示将来自评估(Ev)和测试(Ts)集合的种子(seed)均用于设定阈值时所得到的出错率。即使已经改进了泛化过程(generalisation),还是不明白根据评估集合的性能如何选择最佳步长。
   搜索步长     FR(Ev)    FA(Ev)     FR(Ts)     FA(Ts)
    .25     0     0     13.2500     0.1078
    .2     0     0     10.5000     0.1422
    1     0     0     6.5000     0.2772
    .05     0     0     5.2500     0.4130
    .01     0     0     4.7500     0.6540
    .005     0     0     4.7500     0.7111
    .001     0     0     4.5000     0.7391
表1:当评估集合中的客户被用作种子时的验证结果
一种可能是对从所有步长得到的结果加以综合,表2最后一行显示这种多数票决综合的结果。
  搜索步长   FR(Ev)     FA(Ev)    FR(Ts)     FA(Ts)
    .2     0     -0.065     6.75     .1676
    .1     0     0′     4.50     .2174
    .05     0     0     3.25     .3668
    .01     0     0     1.25     .6495
    .005     0     0     1.25     .7038
    .001     0     0     1.25     .7482
    综合     0     0     1.25     .6603
表2:当评估和训练集合中的客户被用作种子时的验证结果
为了演示ECOC的有效性,表3中显示了将穷举搜索法直接应用于原始199维特征向量所得的结果。比较表2和表3,将输入的数据映射到ECOC输出向量上的好处是显而易见的。还要注意,在本例中,评估集合的出错率是非零的,即,客户和假冒者的群体是有重叠的。在此特定情况中,可能原来计算ROC曲线,但后来未继续,因为它明显不如基于ECOC的方法。
  搜索步长     FR(Ev)     FA(Ev)     FR(Ts)     FA(Ts)
    .25     1.67     0.89     16.75     1.105
    .2     0.83     1.07     15.25     1.144
    .01     0.167     0.33     8.0     1.180
    .005     0.167     0.31     8.0     1.239
    .001     0.167     0.2925     8.0     1.310
              表3:fisher脸特征空间中的验证结果
核综合
虽然核综合方法不需要阈值,但存在可以加以改变以控制该方法的特性的设计参数。具体地说,可以选择不同方式来表示假冒者。25个评估假冒者的每一个具有4个2图像组,如上所述。因此,作为基于4组求平均值的25个中心的替代方案,我们可以选择基于2组求平均值的50个中心或基于1组求平均值的100个中心。表4显示了25、50、100个假冒者中心的出错率以及多数票决综合的结果。与表2相比较,错误接受率和错误拒绝率之间存在不同的折衷。
  假冒者中心 FR(Ev) FA(Ev)   FR(Ts)   FA(Ts)
    25   0   0   0.7500   0.8833
    50   0   0   0.5000   0.8786
    100   0   0   0.7500   1.2455
    综合   0   0   0.7500   0.8596
表4:使用不同数量的假冒者中心并采用核心得分的验证结果与其他方法的比较
为了进行比较,给出了对相同数据集合采用三种不同方法以及采用相同评估协议所得到的结果。这些方法采用基于199个fisher脸系数的相同图像数据表示。它们在此特征空间将三种不同的得分用于此特征空间中的决策。具体来说,采用欧几里德量度SE、正态相关性SN以及梯度量度So,如J.Kittler等人所著“基于Ida的脸部验证的匹配得分”。表5汇总了所得结果。
    得分        评估集合         测试集合
 FR   FA  TE  FR  FA  TE
    SE  7.83  7.83    15.66  5.50  7.35    12.85
    SN  2.50  2.50    5.00  2.25  2.56    4.81
    So  1.74  1.74    3.48  1.75  1.70    3.45
表5:基于手工登记的图像的三种基线匹配得分的性能
结果显示多个有趣的特征。首先,通过将欧几里德量度的性能与表3中所建议的距离di( y)作比较,显然在di( y)中采用更稳健的量度并结合客户的多种子表示(multi-seed representation)比基于欧几里德距离的得分更有效。最重要的是,所有基于ECOC的结果确实优于原始fisher脸空间中的决策。最后,ECOC多分类器输出通过上述公式12给出的相对相似度得分进行综合,看来似乎可获得比采用基于距离的得分di( y)稍好的结果。此发现和别处报道的工作成果意味着,决策函数的选择(得分)函数在验证系统的设计中起着极其重要的作用,将来应该予以更多关注。
总之,所述实施例的脸部验证和识别方法和系统基于纠错输出编码(ECOC)分类器设计方法。在训练阶段,重复将客户集合划分为两个ECOC指定子集(超类),以训练一组二进制分类器。分类器的输出定义ECOC特征空间,其中容易分离表示客户和假冒者的变换模式。作为一种ECOC特征空间中的匹配得分,已开发出了创新的基于距离的测量方法和创新的基于核的相似度测量方法。基于距离的得分计算输入脸部图像与训练图像类之间的平均一阶明可夫斯基距离,已发现这种距离比欧几里德量度更有效。已证明,所述方法和系统表现出比以前所报道的结果优越的基于众所周知的XM2VTS数据集合的验证性能。从前述应理解,声称属于已知个人(一个客户)的输入脸部数据可以参照表示该个人的不同训练图像类来加以认证或验证(利用上述基于距离的测量方法)。或者,该输入脸部图像可以参照表示另一个人(假冒者)的表示不同个人(假冒者)的其他训练图像类以及表示客户的训练图像类来加以认证或验证(利用上述基于核的相似度方法)。
输入脸部图像可以表示身份未知的个人。在此情况下,可以将不同的训练图像类中的任何一类用作客户类,采用基于距离的测量方法或基于核的相似度方法来对输入脸部图像进行认证(从而识别个人)。

Claims (14)

1.一种个人身份验证方法,用于对照表示个人脸部的不同训练图像类来评估输入脸部图像的真实性,所述方法包括:
处理表示所述输入脸部图像的图像数据,以生成第一纠错输出码(ECOC)分类器输出向量;
处理表示所述不同训练图像类的图像数据,以生成第二ECOC分类器输出向量集;
将所述第一ECOC分类器输出向量与所述第二ECOC分类器输出向量集进行比较;以及
根据比较结果评估所述输入脸部图像相对于所述训练图像类的真实性。
2.如权利要求1所述的方法,其特征在于所述比较步骤包括测量所述第一分类器输出向量与所述第二ECOC分类器输出向量集之间的距离。
3.如权利要求1所述的方法,其特征在于它包括利用一阶明可夫斯基量度来测量所述距离。
4.如权利要求3所述的方法,其特征在于所述距离d(y)由如下公式给出:
d i ( y ‾ ) = 1 N Σ l = 1 N Σ j = 1 b | y j 1 - y j |
其中yj是所述第一ECOC分类器输出向量的第j个元素,
yj 1是所述第二ECOC分类器输出向量集的第1个成员的第j个元素;以及
N是所述集合的成员数量;
以及如果所述距离d( y)≤t,t是预定阈值,则将所述输入脸部图像评估为真实的。
5.如权利要求1所述的方法,其特征在于:
处理表示多个所述不同训练图像类的图像数据,以生成相应于各类的所述第二ECOC分类器输出向量集,各所述训练图像类表示不同个人的脸部;
测量所述第一ECOC分类器向量集与各所述第二ECOC分类器输出向量集之间的距离;以及
综合所测得的距离,以评估所述输入脸部图像相对于所述训练图像类之一的真实性。
6.如权利要求5所述的方法,其特征在于所述综合是对指数核函数求和,各核函数具有与不同的各所述距离相关的指数。
7.如权利要求6所述的方法,其特征在于所述综合按下式给出:
k ( y ‾ ) = Σ ∝ w ∝ exp { - d ∝ ( y ‾ ) σ 2 }
其中∝是类索引;
d( y)是所述第一ECOC分类器向量与相应的第二ECOC分类器输出向量集之间的测量距离;以及
w是相应的预定加权函数;
以及如果k( y)≥t1,t1是预定阈值,则将所述输入脸部图像评估为真实的。
8.如权利要求4所述的方法,其特征在于这样选择所述阈值t,使FA+FR相对于阈值t基本为最小,其中FA是错误接受率,FR是错误拒绝率。
9.如权利要求1至8所述的方法,其特征在于所述处理图像数据的步骤包括将图像数据投影到较低维的空间并根据如此投影的图像数据生成所述第一和第二(ECOC)分类器输出向量。
10.如权利要求9所述的方法,其特征在于所述投影图像数据的步骤还包括线性鉴别分析。
11.如权利要求10所述的方法,其特征在于所述投影图像数据的步骤还包括主成分分析。
12.如权利要求1所述的方法,其特征在于:
处理表示多个所述不同训练图像类的图像数据,以生成相应于各类的所述第二ECOC分类器输出向量集,各所述训练图像类表示不同个人的脸部;
将所述第一ECOC分类器输出向量与各所述第二ECOC分类器输出向量集进行比较;以及
根据比较结果评估所述输入脸部图像相对于各所述训练图像类的真实性。
13.一种个人身份验证系统,它包括用于存储表示输入脸部图像和一个或多个不同训练图像类的图像数据的装置以及用于根据权利要求1至12中任意一项所述的方法来处理所述存储的图像数据的处理装置。
14.一种如权利要求1所述的个人身份验证方法,其特征在于,基本上如本文中所述。
CNB028149459A 2001-05-31 2002-05-30 个人身份验证方法和系统 Expired - Fee Related CN100403333C (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
GB0113263.8 2001-05-31
GBGB0113263.8A GB0113263D0 (en) 2001-05-31 2001-05-31 Personal identity verification process system

Publications (2)

Publication Number Publication Date
CN1543625A true CN1543625A (zh) 2004-11-03
CN100403333C CN100403333C (zh) 2008-07-16

Family

ID=9915650

Family Applications (1)

Application Number Title Priority Date Filing Date
CNB028149459A Expired - Fee Related CN100403333C (zh) 2001-05-31 2002-05-30 个人身份验证方法和系统

Country Status (6)

Country Link
US (2) US7519828B2 (zh)
EP (1) EP1395946B1 (zh)
JP (1) JP2004527862A (zh)
CN (1) CN100403333C (zh)
GB (1) GB0113263D0 (zh)
WO (1) WO2002097719A1 (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100454329C (zh) * 2005-03-15 2009-01-21 欧姆龙株式会社 被拍体验证设备以及验证方法
CN101937513A (zh) * 2009-06-30 2011-01-05 索尼公司 信息处理设备、信息处理方法和程序
CN103246893A (zh) * 2013-03-20 2013-08-14 西交利物浦大学 基于拒识的随机子空间的ecoc编码分类方法
CN103973441A (zh) * 2013-01-29 2014-08-06 腾讯科技(深圳)有限公司 基于音视频的用户认证方法和装置
CN105809180A (zh) * 2014-12-31 2016-07-27 北京智诺英特科技有限公司 图像处理方法及装置
CN107967688A (zh) * 2017-12-21 2018-04-27 联想(北京)有限公司 对图像中的对象进行分割的方法及系统

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7545962B2 (en) * 2005-12-22 2009-06-09 Daon Holdings Limited Biometric authentication system
DE602005027918D1 (de) * 2005-12-22 2011-06-16 Daon Holdings Ltd Biometrisches authentifikationssystem
US7545961B2 (en) * 2005-12-22 2009-06-09 Daon Holdings Limited Biometric authentication system
EP1969528B1 (en) * 2005-12-22 2011-05-25 Daon Holdings Limited Biometric authentication system
JP5010905B2 (ja) * 2006-12-13 2012-08-29 パナソニック株式会社 顔認証装置
US8554622B2 (en) * 2006-12-18 2013-10-08 Yahoo! Inc. Evaluating performance of binary classification systems
KR100917748B1 (ko) * 2007-10-23 2009-09-15 한국전자통신연구원 후각 기반 인증 시스템 및 그 방법
JP2010117787A (ja) * 2008-11-11 2010-05-27 Seiko Epson Corp 画像処理装置
JP2013518319A (ja) * 2010-01-22 2013-05-20 イリテック インコーポレイテッド 虹彩サイズの異なる複数の虹彩イメージを用いた虹彩認識装置及び方法
CN113177437A (zh) 2017-06-13 2021-07-27 阿里巴巴集团控股有限公司 一种人脸识别方法和装置
JP2019185384A (ja) * 2018-04-10 2019-10-24 キヤノン株式会社 画像認証装置、画像認証方法、コンピュータプログラムおよび記憶媒体
US10747989B2 (en) * 2018-08-21 2020-08-18 Software Ag Systems and/or methods for accelerating facial feature vector matching with supervised machine learning
US11402488B2 (en) 2019-03-13 2022-08-02 Massachusetts Institute Of Technology Sidelobe detector and angle/angle-rate estimator for a slewing monopulse antenna
CN111222460B (zh) * 2020-01-02 2023-04-18 中南大学 一种基于增量误差计算的行人检测器训练方法及系统
CN112560920B (zh) * 2020-12-10 2022-09-06 厦门大学 一种基于自适应纠错输出编码的机器学习分类方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5245329A (en) * 1989-02-27 1993-09-14 Security People Inc. Access control system with mechanical keys which store data
US5842194A (en) * 1995-07-28 1998-11-24 Mitsubishi Denki Kabushiki Kaisha Method of recognizing images of faces or general images using fuzzy combination of multiple resolutions
US5809490A (en) * 1996-05-03 1998-09-15 Aspen Technology Inc. Apparatus and method for selecting a working data set for model development
DE19626775A1 (de) * 1996-07-03 1998-01-08 Siemens Ag Schnelle Faltung von Projektionen
US6038315A (en) * 1997-03-17 2000-03-14 The Regents Of The University Of California Method and system for normalizing biometric variations to authenticate users from a public database and that ensures individual biometric data privacy
US5930804A (en) * 1997-06-09 1999-07-27 Philips Electronics North America Corporation Web-based biometric authentication system and method
CN1191358A (zh) * 1998-02-05 1998-08-26 杨振宁 人脸图像防伪认证法
CN1211770A (zh) * 1998-03-27 1999-03-24 杨振宁 人体生理特征与识别卡流动数据库互相关防伪认证法
JP2000222572A (ja) * 1999-01-28 2000-08-11 Toshiba Tec Corp 性別の判定方法
US6826300B2 (en) * 2001-05-31 2004-11-30 George Mason University Feature based classification

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100454329C (zh) * 2005-03-15 2009-01-21 欧姆龙株式会社 被拍体验证设备以及验证方法
CN101937513A (zh) * 2009-06-30 2011-01-05 索尼公司 信息处理设备、信息处理方法和程序
CN101937513B (zh) * 2009-06-30 2013-04-24 索尼公司 信息处理设备、信息处理方法
CN103973441A (zh) * 2013-01-29 2014-08-06 腾讯科技(深圳)有限公司 基于音视频的用户认证方法和装置
CN103973441B (zh) * 2013-01-29 2016-03-09 腾讯科技(深圳)有限公司 基于音视频的用户认证方法和装置
CN103246893A (zh) * 2013-03-20 2013-08-14 西交利物浦大学 基于拒识的随机子空间的ecoc编码分类方法
CN105809180A (zh) * 2014-12-31 2016-07-27 北京智诺英特科技有限公司 图像处理方法及装置
CN107967688A (zh) * 2017-12-21 2018-04-27 联想(北京)有限公司 对图像中的对象进行分割的方法及系统
CN107967688B (zh) * 2017-12-21 2021-06-15 联想(北京)有限公司 对图像中的对象进行分割的方法及系统

Also Published As

Publication number Publication date
EP1395946B1 (en) 2012-11-28
JP2004527862A (ja) 2004-09-09
EP1395946A1 (en) 2004-03-10
CN100403333C (zh) 2008-07-16
WO2002097719A1 (en) 2002-12-05
GB0113263D0 (en) 2001-07-25
US7519828B2 (en) 2009-04-14
US20090046901A1 (en) 2009-02-19
US20040199776A1 (en) 2004-10-07

Similar Documents

Publication Publication Date Title
CN100403333C (zh) 个人身份验证方法和系统
Ding et al. Multi-directional multi-level dual-cross patterns for robust face recognition
US10095950B2 (en) Systems and methods for image processing
US7295687B2 (en) Face recognition method using artificial neural network and apparatus thereof
Pavani et al. Haar-like features with optimally weighted rectangles for rapid object detection
CN100426314C (zh) 一种基于特征分组的多分类器组合人脸识别方法
Jain et al. Gender identification using frontal facial images
CN103839041B (zh) 客户端特征的识别方法和装置
US20070172099A1 (en) Scalable face recognition method and apparatus based on complementary features of face image
US20070104362A1 (en) Face recognition method, and system using gender information
Czyz et al. Multiple classifier combination for face-based identity verification
Nanni et al. Likelihood ratio based features for a trained biometric score fusion
CN110378414B (zh) 基于进化策略的多模态生物特征融合的身份识别方法
Tamimi et al. Eigen faces and principle component analysis for face recognition systems: a comparative study
Jagadeesh et al. DBC based Face Recognition using DWT
Lin et al. Robust face recognition using posterior union model based neural networks
CN116030508A (zh) 一种人脸识别方法、终端及存储介质
Rizk et al. Analysis of neural networks for face recognition systems with feature extraction to develop an eye localization based method
Kittler et al. Face Verification via ECOC.
Li et al. Selective encoding for recognizing unreliably localized faces
Kittler et al. Face identification and verification via ECOC
Roy et al. Handwritten signature recognition and verification using artificial neural network
Zhang et al. Vehicle identification by improved stacking via kernel principal component regression
Erdogmus et al. Probabilistic fusion of regional scores in 3d face recognition
Karras Face detection in complex backgrounds based on the integration of neural classifiers through similarity analysis of higher order representation patterns

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
C17 Cessation of patent right
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20080716

Termination date: 20130530