CN100365645C - 基于眉毛识别的身份鉴别方法 - Google Patents
基于眉毛识别的身份鉴别方法 Download PDFInfo
- Publication number
- CN100365645C CN100365645C CNB2006100000488A CN200610000048A CN100365645C CN 100365645 C CN100365645 C CN 100365645C CN B2006100000488 A CNB2006100000488 A CN B2006100000488A CN 200610000048 A CN200610000048 A CN 200610000048A CN 100365645 C CN100365645 C CN 100365645C
- Authority
- CN
- China
- Prior art keywords
- eyebrow
- image
- equal
- computer
- polygon
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
本发明属于身份鉴别方法,其特征在于依次包括步骤:(1)分别选择右眉和左眉用图像采集设备建立与个人身份相关联的高清晰度原始眉毛图像数据库并装入计算机;(2)通过计算机从原始眉毛图像中任意选取一组点连成多边形提取眉毛区域同时生成256色的纯眉毛图像,并用傅里叶变换和K-均值算法进行矢量量化生成眉毛特征序列数据库;(3)把待识别眉毛图像装入计算机并用步骤(2)的方法从中提取眉毛区域然后生成待识别特征序列;(4)通过计算机用编辑距离把待识别特征序列与眉毛特征序列数据库中的记录进行比较以确定其中最接近的记录,并把对应的眉毛身份记录作为待识别眉毛图像的所属个人最佳候选身份。本发明有更好的稳定性和抗干扰性。
Description
技术领域
本发明涉及一种基于眉毛识别的身份鉴别方法,属于电子信息技术领域。
背景技术
在现代社会中,随着计算机网络技术的高速发展和全球范围内电子商务的迅速兴起,信息安全显示出前所未有的重要性,而身份鉴别作为信息安全的一个重要方面开始越来越受到人们的重视。身份鉴别是保证信息服务系统安全的必要前提,在金融、国家安全、司法、电子商务、电子政务等领域有着广泛的应用。当前,个人身份鉴别主要依靠ID卡(如身份证、工作证、智能卡、计算机标志卡和储蓄卡等)和密码等手段,然而这些手段存在携带不便、容易遗失,或者由于使用过多或不当而损坏、不可读和密码易被破解等诸多问题,因此它们显得越来越不适应现代科技的发展和社会的进步,正面临着各种严峻的挑战。同时,由于生物特征识别技术在很多方面可以弥补传统身份鉴别方法的不足,所以逐渐成为国内外的一个研究热点。
目前人们研究和使用的生物特征识别技术主要有:人脸识别、虹膜识别、指纹识别、手形识别、掌纹识别、人耳识别、签名识别、声音识别、步态识别、等等。在各种生物特征识别技术中,人脸识别和虹膜识别本专利关系较为密切,有必要作进一步的说明。尽管人脸识别是一种最直观、最易于被接受的身份鉴别方法,但是由于人脸结构比较复杂,能够产生弹性形变,在不同光照、视角、化装和表情等条件下的同一人脸图像存在较大的差别,因此人脸识别在具体应用时计算量较大、出错率较高,难于达到实用的水平。虹膜识别的主要难点则是虹膜图像的获取,由于使用CCD摄像头在普通条件下通常很难拍摄到可用的图像,因此需要购买昂贵的图像采集设备,对被采集者也有严格的要求,使用不太方便,这给虹膜识别技术的推广带来了很大的困难;此外,虹膜图像易受眼睫毛等因素的干扰,这使得虹膜识别在实际应用中很难达到理想的效果。
发明人通过大量的文献检索表明,虽然在一些人脸识别系统中或多或少地使用了眉毛特征以提高人脸识别的正确率,但是直接利用眉毛图像进行身份鉴别的方法还未见报道。由于眉毛只是人脸图像中的很小一部分,其中的细节在人脸图像中通常没有被详细地记录,所以在人脸识别中只能大致使用眉毛的轮廓信息,而眉毛图像中那些对身份识别具有重要意义的细节特征则难于被充分地使用。本发明的目的在于提供一种直接通过眉毛识别进行身份鉴别方法,它能够充分利用眉毛中的轮廓和纹理等细节信息进行身份鉴别。与人脸图像相比,眉毛图像不仅具有轮廓鲜明、结构简单和容易选取的优点,而且受光照和表情的影响较小,具有更好的稳定性和抗干扰性;与虹膜图像相比,眉毛图像则又具有易于采集和使用方便的优点。此外,人类的眉毛具有多种多样的形状,无固定结构,具有很好的身份特异性,因此能够被有效地应用于身份鉴别。基于以上分析,眉毛识别不仅是人脸识别和虹膜识别的一种重要补充,而且还可能在许多应用中取代人脸识别和虹膜识别而成为一种崭新的、独立的生物特征识别技术。
发明内容
本发明的目的是提供一种基于眉毛识别的身份鉴别方法,
本发明的特征在于依次包括以下步骤:
步骤(1),分别选择右眉和左眉用图像采集设备建立与个人身份相关联的高清晰度原始眉毛图像数据库并装入计算机,要求每幅原始眉毛图像的分辨率至少达到宽×高为96×32;
步骤(2),通过计算机从原始眉毛图像中依次任意选取一组点连成包含眉毛区域的多边形,计算包含该多边形的最小矩型区域,生成256色的纯眉毛图像,并采用傅里叶变换和K-均值算法进行矢量量化生成眉毛特征序列数据库,具体步骤如下:
步骤(2.1),在计算机的显示器上显示原始眉毛图像,并通过鼠标、或键盘、或触摸屏从原始眉毛图像中任意选取眉毛边界上的一组点连成多边形,一般取16-64个点,使得该多边形尽可能把眉毛部分包括在内;
步骤(2.2),通过计算机把多边形内部的点保留为眉毛区域,然后把眉毛区域放到一个能够包含它的最小矩形中生成一幅256色的纯眉毛图像,眉毛区域外部和最小矩形之间的部分统一取为多边形顶点颜色的均值;
步骤(2.3),把所有各幅纯眉毛图像的点集用Ek表示,即: 其中Wk和Hk分别为Ek的宽度和高度,gp,q k为0至255之间的整数,1≤k≤N,N为纯眉毛图像的记录总数;
步骤(2.4),对Ek的第p列 进行傅里叶变换,即:
其中n从0开始取值,对应第p列 中的第n+1个点,m也从0开始取值,对应傅里叶变换的第m个频谱分量Fp k(m);
步骤(2.5),选择维数D=16或D=32或D=任意不超过每个Hk的正整数,然后构造D维向量 其中|Fp k(n)|表示Fp k(n)的模,即:
其中Re(Fp k(n))和Im(Fp k(n))分别表示Fp k(n)的实部和虚部,1≤p≤Wk,1≤k≤N;
步骤(2.6),对每个D维向量 进行归一化处理,即计算:
其中 1≤p≤Wk,1≤k≤N,||·||表示任意向量的模或长度;
步骤(2.7),选择类别个数M=8或旃16或M=任意不小于2的正整数,把每个向量Vp k所属的类别符号表示为C(Vp k),C(Vp k)通常可取为1,...,M中的某一个整数,然后采用K-均值算法对D维向量的集合 进行聚类分析,步骤为:
步骤(2.7.1)从D维向量的集合 中任意选择M个不同的向量,把它们记为初始中心向量Y1 0,Y2 0,...,YM 0,它们所属的类别分别是 令迭代次数s=0;
步骤(2.7.2)计算Vp k与Y1 s,Y2 s,...,YM s之间的距离||Vp k-Yi s||,1≤i≤M;
步骤(2.7.3)令 使得||Vp k-Yd s||为集合 的最小值,即:
步骤(2.7.4)用第s次迭代中的第i类向量的均值计算第s+1次迭代的中心向量Yi s+1,即:
其中1≤i≤M, 表示Vp k是第i类向量,NUMi是所有第i类向量的个数;
步骤(2.7.5)如果 则执行步骤(2.7.6),否则令s=s+1,返回步骤(2.7.2);
步骤(2.7.6)令聚类结果中心矢量 停止迭代过程;
步骤(2.8),生成每个眉毛Ek的特征序列为C(V1 k)C(V2 k)...C(VWk k);
步骤(3),把待识别眉毛图像装入计算机并从中提取眉毛区域同时生成256色的纯眉毛图像,然后计算待识别特征序列,具体步骤如下:
步骤(3.1),在计算机的显示器上显示待识别眉毛图像,并通过鼠标、或键盘、或触摸屏从待识别眉毛图像中任意选择眉毛边界上的一组点连成多边形,一般取16-64个点,使得该多边形尽可能把眉毛部分包括在内;
步骤(3.2),通过计算机把多边形内部的点保留为眉毛区域,然后把眉毛区域放到一个能够包含它的最小矩形中生成256色的待识别纯眉毛图像Ec,即:
其中眉毛区域外部和最小矩形之间的部分取为多边形顶点颜色的均值,Wc和Hc分别为Ec的宽和高,gp,q c为0至255之间的整数,c是不满足1≤c≤N的正整数;
步骤(3.3),对Ec的第p列 进行傅里叶变换,即:
步骤(3.4),构造D维向量
步骤(3.5),对每个向量 进行归一化处理,即计算:
步骤(3.6),计算Vp c与聚类结果中心矢量Y1,Y2,...,YM之间的距离
||Vp c-Yi||,1≤i≤M;
步骤(3.7),令 使得||Vp c-Yd||为集合 的最小值,即;
步骤(3.8),生成待识别特征序列为C(V1 c)C(V2 c)...C(VWc c);
步骤(4),通过计算机用编辑距离把待识别特征序列C(V1 c)C(V2 c)...C(VWc c)与眉毛特征序列数据库中的记录C(V1 k)C(V2 k)...C(VWk k)进行比较以确定其中最接近的记录,并把该记录对应的眉毛身份记录作为待识别眉毛图像的所属个人最佳候选身份,具体步骤如下:
步骤(4.1),用EDc,k(u,v)表示C(V1 c)C(V2 c)...C(Vu c)和C(V1 k)C(V2 k)...C(Vv k)之间的编辑距离,其中0≤u ≤u≤Wc,0≤v≤Wk,1≤k≤N,C(V1 c)C(V2 c)...C(Vu c)是C(V1 c)C(V2 c)...C(VWc c)的前u个类别符号,C(V1 k)C(V2 k)...C(Vv k)是C(V1 k)C(V2 k)...C(VWk k)的前v个类别符号,且当u=0或v=0时,C(V1 c)C(V2 c)...C(Vu c)或C(V1 k)C(V2 k)...C(Vv k)表示空字符串;
步骤(4.2),令
步骤(4.3),用EDc,k(u-1,v)+1、EDc,k(u,v-1)+1和EDc,k(u-1,v-1)+Q(u,v)的最小值递推计算C(V1 c)C(V2 c)...C(Vu c)和C(V1 k)C(V2 k)...C(Vu k)之间的编辑距离EDc,k(u,v)的值,即:
其中1≤u≤Wc,1≤v≤Wk,1≤k≤N,且当 时Q(u,v)=0,否则Q(u,v)=1;
步骤(4.4),完成步骤(4.3)后,得到C(V1 c)C(V2 c)...C(VWc c)和C(V1 k)C(V2 k)...C(VWk k)之间的编辑距离EDc,k(Wc,Wk)的值,其中1≤k≤N;
步骤(4.5),计算一个正整数k*使得Ec,k*(Wc,Wk*)是集合{Ec,k(Wc,Wk),1≤k≤N}的最小值,即:
步骤(4.6),把k*对应的眉毛身份记录作为待识别眉毛图像的所属个人最佳候选身份。
本发明的基本原理在于,人类的眉毛具有多种多样的形状,无固定结构,具有很好的身份特异性,所以可以单独作为身份鉴别的一种有效特征。
本发明的优势在于,直接利用眉毛识别进行身份鉴别比利用整个人脸进行身份鉴别,能够获得更高的正确率,因为与人脸图像相比,眉毛图像受光照和表情影响较小,因此具有更好的稳定性和抗干扰性。
附图说明
图1是方法的原理框图;
图2是一个原始眉毛图像的例子;
图3是一个在原始眉毛图像上选择多边形的例子;
图4是一个纯眉毛图像的例子;
图5是一个特征序列的例子;
图6是一个计算“zxzyz”和“xyz”之间的编辑距离的例子,其中Ed(u,v)表示“zxzyz”的前u个字符构成的子串和“xyz”的前v个字符构成的子串之间的编辑距离,Ed(u,v)只与Ed(u-1,v)、Ed(u,v-1)和Ed(u-1,v-1)有关,比如Ed(1,1)只与Ed(0,1)、Ed(1,0)和Ed(0,0)有关;同时Ed(u,v)能够用Ed(u-1,v)+1、Ed(u,v-1)+1和Ed(u-1,v-1)+Q(u,v)的最小值来计算,比如Ed(1,1)可以用Ed(0,1)+1=2、Ed(1,0)+1=2和Ed(0,0)+Q(1,1)=1的最小值来计算,其中当“zxzyz”的第u个符号与“xyz”的第v个符号相等时Q(u,v)=0,不相等时Q(u,v)=1,比如当“zxzyz”的第1个符号z与“xyz”的第1个符号x不相等,所以Q(1,1)=1;递推计算完成后得到的Ed(5,3)=2就是“zxzyz”和“xyz”之间的编辑距离。
具体实施方式
根据图1配置本发明的实施例。本发明在实施时需要数码相机或数码摄像机之类的数字图像采集设备和具有一般图像处理能力的普通台式微机。具体实方案为:
步骤1,采用图像采集卡CG300、CP240松下摄像机和75mm高精度日本进口镜头组装成数字图像采集设备,微机选为DELL GX620型计算机;
步骤2,在一般的光照条件下采集10个人的原始眉毛图像,在睁眼和闭眼平视条件下分别采集右眉保存到原始眉毛图像库中,共生成10幅睁眼原始眉毛图像和10幅闭眼原始眉毛图像,图2是睁眼原始眉毛图像的一个例子;
步骤3,在计算机的显示器上依次显示睁眼原始眉毛图像,并在每幅图像上通过鼠标任意选择一组点连成多边形,使该多边形尽可能恰好包含其中的眉毛区域,图3是一个选择多边形的例子;
步骤4,通过计算机把在每幅睁眼原始眉毛图像上的多边形内部的点分别保留为眉毛区域,然后把眉毛区域放到一个能够包含它的最小矩形中生成一幅256色的睁眼纯眉毛图像,眉毛区域外部和最小矩形之间的部分统一取为多边形顶点颜色的均值,图4是一幅睁眼纯眉毛图像例子;
步骤5,把生成的N=10幅睁眼纯眉毛图像的点集用Ek表示,即:
步骤6,对Ek的第p列 进行傅里叶变换,即:
步骤7,对每个傅里叶变换的结果选择D=32个频谱分量构造32维矢量,即:
步骤8,对每个32维向量 进行归一化处理,即计算:
步骤9,选择M=9个类别,把每个向量Vp k所属的类别符号表示为C(Vp k),C(Vp k)在这里取为1,2,3,4,5,6,7,8,9中的一个正整数,然后利用K-均值算法对集合 进行矢量量化,把生成的聚类结果中心矢量记为Y1,Y2,...,Y9,把睁眼眉毛Ek的特征序列记为C(V1 k)C(V2 k)...C(VWk k),1≤k≤10,建立睁眼特征序列数据库,图5是睁眼特征序列的一个例子;
步骤10,在计算机的显示器上依次打开显示闭眼原始眉毛图像,把它作为待识别原始眉毛图像;
步骤11,通过鼠标在待识别原始眉毛图像上任意选择一组点连成多边形,使该多边形尽可能包含其中的眉毛区域,然后把多边形内部的点保留为眉毛区域,并把眉毛区域放到一个能够包含它的最小矩形中生成一幅256色的待识别纯眉毛图像,即:
其中眉毛区域外部和最小矩形之间的部分取为多边形顶点颜色的均值;
步骤12,对Ec的第p列 进行傅里叶变换,即:
步骤13,构造D=32维向量
步骤14,对每个32维向量 进行归一化处理,即计算:
步骤15,计算Vp c与聚类结果中心矢量Y1,Y2,...,Y9之间的距离
||Vp c-Yi||,1≤i≤9;
步骤16,令 使得||Vp c-Yd||为集合 的最小值,即:
步骤17,生成待识别特征序列为C(V1 c)C(V2 c)...C(VWc c);
步骤18,用EDc,k(u,v)表示C(V1 c)C(V2 c)...C(Vu c)和C(V1 k)C(V2 k)...C(Vv k)之间的编辑距离,其中0≤u≤Wc,0≤v≤Wk,1≤k≤10,C(V1 c)C(V2 c)...C(Vu c)是C(V1 c)C(V2 c)...C(VWc c)的前u个类别符号,C(V1 k)C(V2 k)...C(Vv k)是C(V1 k)C(V2 k)...C(VWk k)的前v个类别符号,且当u=0或v=0时,C(V1 c)C(V2 c)...C(Vu c)或C(V1 k)C(V2 k)...C(Vv k)表示空字符串;
步骤19,令
步骤20,用EDc,k(u-1,v)+1、EDc,k(u,v-1)+1和EDc,k(u-1,v-1)+Q(u,v)的最小值递推计算C(V1 c)C(V2 c)...C(Vu c)和C(V1 k)C(V2 k)...C(Vv k)之间的编辑距离EDc,k(u,v)的值,即:
其中当 时Q(u,v)=0,否则Q(u,v)=1,图6是一个计算编辑距离的例子;
步骤21,完成步骤20后,得到C(V1 c)C(V2 c)...C(VWc c)和C(V1 k)C(V2 k)...C(VWk k)之间的编辑距离EDc,k(Wc,Wk)的值,其中1≤k≤10;
步骤22,计算一个正整数 k*使得Ec,k*(Wc,Wk*)是集合{Ec,k(Wc,Wk),1≤k≤10}的最小值,即:
步骤23,把k*对应的眉毛身份记录作为待识别眉毛图像的所属个人最佳候选身份。
本实施例的实验效果明显,说明本发明可以在实际应用中进行身份鉴别。在一个具体的实验中,选择正常睁眼平视条件下的右眉建立了10个人的高清晰度原始眉毛图像数据库,然后利用这10个人正常闭眼平视条件下的右眉图像进行识别,识别正确率达到了100%;在另一个具体的实验中,分别利用这10个人在正常睁眼和闭眼稍稍向左侧视条件下的右眉图像进行识别,识别正确率也达到了100%。这样高的正确率是在室内一般自然光照条件下取得的,在采集图像时对被采集者也没有什么特殊要求,只需要保证双眼基本水平同时眉毛部分在采集图像中清晰和完整即可。所以,可以认为眉毛识别在实际应用中比人脸识别和虹膜识别更容易达到更好的效果。事实上,根据中国科学院计算技术研究所数字化研究室公布的对CAS-PEAL大规模中国人脸图像数据库的评测报告,常用的两个人脸识别基准算法Eigenface和Correlation在比较理想的实验条件下最好只达到了80%左右的正确率,目前世界上最好的商业人脸识别系统在光照变化和姿态变化时也只能分别达到60%和40%左右的正确率。虹膜识别技术虽然在理想的实验条件下可以达到97%左右甚至100%的识别率,但是由于它对图像采集系统和受试者要求严格,再加上眼睫毛等因素的干扰,因此在实际应用中也很难达到100%的正确率,根据中国科学院自动化研究所模式识别国家重点实验室2002年在自动化学报第28卷第1期1-10页上发表的论文,对8个人的160个虹膜样本进行分组识别正确率最高也只达到了93.8%。
尽管本发明在进行身份鉴别时需要手工选择一组构成多边形的点来圈定眉毛区域,但是由于识别的结果对这些点的选择依赖性很小,因此它仍然在许多领域中具有重要的应用价值。比如,在司法和刑侦工作中,如果利用本发明对犯罪分子建立了眉毛数据库,那么在其他案件中锁定犯罪嫌疑人后,就可以通过远距离拍摄他的高清晰度眉毛图像来检索他是否有过犯罪前科;又比如,在银行金融系统中,如果利用本发明对客户建立了眉毛数据库,那么就可以通过远距离拍摄客户的高清晰度眉毛图像来鉴别客户的实际身份;再比如,如果在自动取款柜员机上安装摄像头,就可让用户选择自己的眉毛区域进行身份验证。
Claims (1)
1.一种基于眉毛识别的身份鉴别方法,其特征在于,依次包括以下步骤:
步骤(1),分别选择右眉和左眉用图像采集设备建立与个人身份相关联的高清晰度原始眉毛图像数据库并装入计算机,要求每幅原始眉毛图像的分辨率至少达到宽×高为96×32;
步骤(2),通过计算机从原始眉毛图像中依次任意选取一组点连成包含眉毛区域的多边形,计算包含该多边形的最小矩型区域,生成256色的纯眉毛图像,并采用傅里叶变换和K-均值算法进行矢量量化生成眉毛特征序列数据库,具体步骤如下:
步骤(2.1),在计算机的显示器上显示原始眉毛图像,并通过鼠标、或键盘、或触摸屏从原始眉毛图像中任意选取眉毛边界上的一组点连成多边形,一般取16-64个点,使得该多边形把眉毛部分包括在内;
步骤(2.2),通过计算机把多边形内部的点保留为眉毛区域,然后把眉毛区域放到一个能够包含它的最小矩形中生成一幅256色的纯眉毛图像,眉毛区域外部和最小矩形之间的部分统一取为多边形顶点颜色的均值;
步骤(2.3),把所有各幅纯眉毛图像的点集用Ek表示,即: ,其中Wk和Hk分别为EK的宽度和高度,gp,q k为0至255之间的整数,1≤k≤N,N为纯眉毛图像的记录总数;
步骤(2.4),对Ek的第p列 ,0≤n≤(Hk-1)进行傅里叶变换,即: ,m=0,1,2,...,Hk-1,p=1,2,...,Wk,1≤k≤N,其中n从0开始取值,对应第p列 中的第n+1个点,m也从0开始取值,对应傅里叶变换的第m个频谱分量Fp k(m);
步骤(2.5),选择维数D=16或D=32或D=任意不超过每个Hk的正整数,然后构造D维向量 ,其中|Fp k(n)1表示Fp k(n)的模,即:
其中Re(Fp k(n))和Im(Fp k(n))分别表示Fp k(n)的实部和虚部,1≤p≤Wk,1≤k≤N;
步骤(2.6),对每个D维向量 进行归一化处理,即
计算:
其中 ,1≤p≤Wk,1 ≤k≤N,‖·‖表示任意向量的模或长度;
步骤(2.7),选择类别个数M=8或M=16或M=任意不小于2的正整数,把每个向量Vp k所属的类别符号表示为C(Vp k),C(Vp k)通常取为1,...,M中的某一个整数,然后采用K-均值算法对D维向量的集合{Vp k|1≤k≤N,1≤p≤Wk}进行聚类分析,步骤为:
步骤(2.7.1)从D维向量的集合{Vp k|1≤k≤N,1≤p≤Wk}中任意选择M个不同的向量,把它们记为初始中心向量Y1 0,Y2 0,...,YM 0,它们所属的类别分别是 ,1≤i≤M,令迭代次数s=0;
步骤(2.7.2)计算Vp k与Y1 s,Y2 s,...,YM s之间的距离‖Vp k-Yi s‖,1≤i≤M;
步骤(2.7.3)令 使得‖Vp k-Yd s‖为集合{‖Vp k-Yi s‖,1≤i≤M}的最小值,即:
步骤(2.7.4)用第s次迭代中的第i类向量的均值计算第s+1次迭代的中心向量Yi s+1,即:
其中1≤i≤M, 表示Vp k是第i类向量,NUMi是所有第i类向量的个数;
步骤(2.7.5)如果 ,1≤i≤M,则执行步骤(2.7.6),否则令s=s+1,返回步骤(2.7.2);
步骤(2.7.6)令聚类结果中心矢量 ,1≤i≤M,停止迭代过程;
步骤(2.8),生成每个眉毛Ek的特征序列为C(V1 k)C(V2 k)...C(VWk k);
步骤(3),把待识别眉毛图像装入计算机并从中提取眉毛区域同时生成256色的纯眉毛图像,然后计算待识别特征序列,具体步骤如下:
步骤(3.1),在计算机的显示器上显示待识别眉毛图像,并通过鼠标、或键盘、或触摸屏从待识别眉毛图像中任意选择眉毛边界上的一组点连成多边形,一般取16-64个点,使得该多边形把眉毛部分包括在内;
步骤(3.2),通过计算机把多边形内部的点保留为眉毛区域,然后把眉毛区域放到一个能够包含它的最小矩形中生成256色的待识别纯眉毛图像Ec,即:
其中眉毛区域外部和最小矩形之间的部分取为多边形顶点颜色的均值,Wc和Hc分别为Ec的宽和高,gp,q c为0至255之间的整数,c是不满足1≤c≤N的正整数;
步骤(3.3),对Ec的第p列 ,0≤n≤(Hc-1)进行傅里叶变换,即: ,m=0,1,2,...,Hc-1,1≤p≤Ec;
步骤(3.4),构造D维向量 1≤p≤Wc;
步骤(3.5),对每个向量 进行归一化处理,即计算:
步骤(3.6),计算Vp c与聚类结果中心矢量Y1,Y2,...,YM之间的距离‖Vp c-Yi‖,1≤i≤M;
步骤(3.7),令 ,使得‖Vp c-Yd‖为集合{‖Vpc-Yi‖,1≤i≤M}的最小值,即:
步骤(3.8),生成待识别特征序列为C(V1 c)C(V2 c)...C(VWc c);
步骤(4),通过计算机用编辑距离把待识别特征序列C(V1 c)C(V2 c)...C(VWc c)与眉毛特征序列数据库中的记录C(V1 k)C(V2 k)...C(VWk k)进行比较以确定其中最接近的记录,并把该记录对应的眉毛身份记录作为待识别眉毛图像的所属个人最佳候选身份,具体步骤如下:
步骤(4.1),用EDc.k(u,v)表示C(V1 c)C(V2 c)...C(Vu c)和C(V1 k)C(V2 k)...C(Vv k)之间的编辑距离,其中0≤u≤Wc,0≤v≤Wk,1≤k≤N,C(V1 c)C(V2 c)...C(Vu c)是C(V1 c)C(V2 c)...C(VWc c)的前u个类别符号,C(V1 k)C(V2 k)...C(Vv k)是C(V1 k)C(V2 k)...C(VWk k)的前v个类别符号,且当u=0或v=0时,C(V1 c)C(V2 c)...C(Vu c)或C(V1 k)C(V2 k)...C(Vv k)表示空字符串;
步骤(4.2),令EDc,k(u,0)=u, 0≤u≤Wc,0≤v≤Wk,1≤k≤N;
步骤(4.3),用EDc,k(u-1,v)+1、EDc,k(u,v-1)+1和EDc,k(u-1,v-1)+Q(u,v)的最小值递推计算C(V1 c)C(V2 c)...C(Vu c)和C(V1 k)C(V2 k)...C(Vv k)之间的编辑距离EDc,k(u,v)的值,即:
其中1≤u≤Wc,1≤v≤Wk,1≤k≤N,且当 时Q(u,v)=0,否则Q(u,v)=1;
步骤(4.4),完成步骤(4.3)后,得到C(V1 c)C(V2 c)...C(VWc c)和C(V1 k)C(V2 k)...C(VWk k)之间的编辑距离EDc,k(Wc,Wk)的值,其中1≤k≤N;
步骤(4.5),计算一个正整数k*使得Ec,k*(Wc,Wk*)是集合{Ec,k(Wc,Wk),1≤k≤ N}的最小值,即:
步骤(4.6),把k*对应的眉毛身份记录作为待识别眉毛图像的所属个人最佳候选身份。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CNB2006100000488A CN100365645C (zh) | 2005-02-24 | 2006-01-06 | 基于眉毛识别的身份鉴别方法 |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN 200510008707 CN1645406A (zh) | 2005-02-24 | 2005-02-24 | 基于眉毛识别的身份鉴别方法 |
CN200510008707.8 | 2005-02-24 | ||
CNB2006100000488A CN100365645C (zh) | 2005-02-24 | 2006-01-06 | 基于眉毛识别的身份鉴别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN1801180A CN1801180A (zh) | 2006-07-12 |
CN100365645C true CN100365645C (zh) | 2008-01-30 |
Family
ID=36811174
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CNB2006100000488A Expired - Fee Related CN100365645C (zh) | 2005-02-24 | 2006-01-06 | 基于眉毛识别的身份鉴别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN100365645C (zh) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101493887B (zh) * | 2009-03-06 | 2012-03-28 | 北京工业大学 | 基于半监督学习和哈希索引的眉毛图像分割方法 |
CN101901353B (zh) * | 2010-07-23 | 2012-10-31 | 北京工业大学 | 基于子区域匹配的眉毛图像识别方法 |
CN102999751A (zh) * | 2013-01-06 | 2013-03-27 | 山东神思电子技术股份有限公司 | 一种基于sift特征的眉毛识别方法 |
CN106203329B (zh) * | 2016-07-08 | 2019-02-22 | 安徽工业大学 | 一种基于眉毛建立身份标识模板及进行身份识别的方法 |
CN108256440A (zh) * | 2017-12-27 | 2018-07-06 | 长沙学院 | 一种眉毛图像分割方法和系统 |
CN108985174A (zh) * | 2018-06-19 | 2018-12-11 | 杭州创匠信息科技有限公司 | 会员认证方法和装置 |
CN112133391B (zh) * | 2020-09-17 | 2024-01-26 | 吾征智能技术(北京)有限公司 | 一种基于人体异常眉毛的疾病认知系统 |
-
2006
- 2006-01-06 CN CNB2006100000488A patent/CN100365645C/zh not_active Expired - Fee Related
Non-Patent Citations (5)
Title |
---|
A METHOD FORESTIMATING AND ACCURATELY EXTRACTING THEEYEBROW IN HUMAN FACE IMAGE. Q.R Chen, W.K.cham ,H.T.Tsui.Image Processing.2002,Vol.3 . 2002 * |
Automatic Extraction of Facial Organs andRecognition of Facial Expressions. Hiroshi Kobayashi,Seiji Suzuki, Hisanori Takahashi.Proceedings of the 1999 IEEE International Workshop on Robot and Human Interaction. 1999 * |
Eyes and eyebrows parametric modelsfor automatic segmentation. Z.Hammal , A Caplier.Image Analysis and Interpretation,2004.6th IEEE Southwest symposium. 2004 * |
On-Line Fingerprint Vertification. Anil Jain, Lin Hong, Ruud Bolle.IEEE trans pattern analysis and machine intelligence,Vol.19 No.4. 1997 * |
基于人脸信息的信息安全技术研究现状及应用前景展望. 陈爱军,王述洋.林业劳动安全,第15卷第2期. 2002 * |
Also Published As
Publication number | Publication date |
---|---|
CN1801180A (zh) | 2006-07-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Yuan et al. | Fingerprint liveness detection using an improved CNN with image scale equalization | |
CN106372581B (zh) | 构建及训练人脸识别特征提取网络的方法 | |
US8379937B1 (en) | Method and system for robust human ethnicity recognition using image feature-based probabilistic graphical models | |
CN100365645C (zh) | 基于眉毛识别的身份鉴别方法 | |
US20130266195A1 (en) | Hash-Based Face Recognition System | |
Nguyen et al. | Generating master faces for use in performing wolf attacks on face recognition systems | |
CN112464730A (zh) | 一种基于域无关前景特征学习的行人再识别方法 | |
Kim et al. | Reconstruction of fingerprints from minutiae using conditional adversarial networks | |
Albadarneh et al. | Iris recognition system for secure authentication based on texture and shape features | |
Yang et al. | Revealing task-relevant model memorization for source-protected unsupervised domain adaptation | |
Wang et al. | Finger multimodal features fusion and recognition based on CNN | |
Yin et al. | Fusion of face recognition and facial expression detection for authentication: a proposed model | |
Kagawade et al. | VISA: a multimodal database of face and iris traits | |
Liu et al. | Palm-dorsa vein recognition based on independent principle component analysis | |
Sinha et al. | Age Invariant Face Recogntion Using Pca And Msvm | |
Hassen et al. | Human identification system: A review | |
Hannan et al. | Analysis of Detection and Recognition of Human Face Using Support Vector Machine | |
Szymkowski et al. | A multimodal face and fingerprint recognition biometrics system | |
Muthukumaran et al. | Face and Iris based Human Authentication using Deep Learning | |
Yao et al. | A study on the effect of ageing in facial authentication and the utility of data augmentation to reduce performance bias across age groups | |
Uchida et al. | DeDiM: De-identification using a diffusion model | |
Alrikabi et al. | Deep Learning-Based Face Detection and Recognition System | |
Li et al. | Multimodal Biometric Fusion Algorithm Based on Ranking Partition Collision Theory | |
Dubey et al. | A review of face recognition using SIFT feature extraction | |
Li | ◾ Biometrics in Social Media Applications |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
C17 | Cessation of patent right | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20080130 Termination date: 20100208 |