CN101901353A - 基于子区域匹配的眉毛图像识别方法 - Google Patents
基于子区域匹配的眉毛图像识别方法 Download PDFInfo
- Publication number
- CN101901353A CN101901353A CN 201010237776 CN201010237776A CN101901353A CN 101901353 A CN101901353 A CN 101901353A CN 201010237776 CN201010237776 CN 201010237776 CN 201010237776 A CN201010237776 A CN 201010237776A CN 101901353 A CN101901353 A CN 101901353A
- Authority
- CN
- China
- Prior art keywords
- eyebrow image
- eyebrow
- pure
- sigma
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
本发明公开了一种基于子区域匹配的眉毛图像识别方法,依次包括以下步骤:采集每一位用户的原始眉毛图像,并通过手工方式选取包含眉毛的区域构成纯眉毛图像,并以此作为用户的模板;识别时,先采集用户的一张待识别原始眉毛图像,再将所有纯眉毛图像模板依次与待识别眉毛图像进行卷积运算得到它们对应的相似度,同时计算它们的距离,最后依据相似度及距离进行判断,从而得出与待识别眉毛图像匹配最佳的纯眉毛图像模板,并以此作为识别的结果,完成眉毛图像识别的工作。本发明因使用了子区域匹配的技术,避免了识别过程中人工地选取眉毛区域,减少人为的影响,使识别过程更加智能化,同时也提高了识别正确率。
Description
技术领域
本发明涉及一种基于子区域匹配的眉毛图像识别方法,属于电子信息技术领域。
背景技术
在现代社会中,随着计算机网络技术的高速发展和全球范围内电子商务的迅速兴起,信息安全显示出前所未有的重要性,而生物特征识别作为信息安全的一个重要方面开始越来越受到人们的重视。目前人们研究和使用的生物特征识别技术主要有:人脸识别、虹膜识别、指纹识别、手形识别、掌纹识别、人耳识别、签名识别、声音识别、步态识别、等等。眉毛作为人脸上的一个重要特征,具有作为识别特征的普遍性、唯一性、稳定性和易采集性等特点。事实上,与人脸图像相比,眉毛图像不仅具有轮廓鲜明、结构简单和容易选取的优点,而且具有更好的稳定性和抗干扰性;与虹膜图像相比,眉毛图像则又具有易于采集和使用方便的优点。此外,人类的眉毛具有多种多样的形状,无固定结构,具有很好的身份特异性,因此能够被有效地应用于身份鉴别。
目前用于眉毛识别的方法主要有:基于特征串比较的识别方法、基于离散隐马尔科夫链的识别方法以及基于PCA的识别方法。虽然这些方法都有其优点,但是,它们的识别结果在规模较大的眉毛图像数据库上仍不能让人满意,其主要原因之一是在识别前需要手动圈选眉毛区域,从而增加了人为的干扰因素。因此,寻找一种无需手动圈选眉毛区域的识别方法,就具有重要的新颖性、创造性和实用价值。
子区域匹配是一种利用图像卷积运算将图像模板在另一幅更大范围的图像中进行局部定位、检测和识别的方法。只要给定模板图像,该方法总能在范围更大的图像中找到与模板的最佳匹配区域。本发明的目的在于提出一种基于子区域匹配的眉毛图像识别方法。该方法不需要在待识别的原始眉毛图像中手动选择眉毛区域或对眉毛区域进行部分标注,同时能够获得很好的识别结果。
发明内容
本发明的目的在于提出一种基于子区域匹配的眉毛图像识别方法,依次包括以下步骤:
步骤1、根据用户的个数N,建立纯眉毛图像模板库,即使用图像采集设备,为每一个用户拍摄一幅以眉毛为中心的原始眉毛图像,同时手工选择其中只包含眉毛的部分构成纯眉毛图像作为模板,用Ek(0≤k≤N-1)表示第k个用户的纯眉毛图像模板,用Hk和Wk分别表示Ek的高和宽,用SOE={Ek|k=0,…,N-1}表示N个用户的纯眉毛图像模板库;
步骤2、如果纯眉毛图像模板Ek是彩色图像,用Rk(h,w)、Gk(h,w)和Bk(h,w)分别表示Ek中第(h,w)个像素的红色分量、绿色分量和蓝色分量,根据著名灰度化心理学公式计算其灰度值如下:
gk(h,w)=(Rk(h,w)×299+Gk(h,w)×587+Bk(h,w)×114+500)/1000,
并把灰度化后的纯眉毛图像表示为Ek={gk(h,w)},其中0≤h≤Hk-1,0≤w≤Wk-1,Hk和Wk分别表示纯眉毛图像模板Ek的高和宽;否则,Ek是灰度图像,则直接把Ek表示为Ek={gk(h,w)},其中gk(h,w)是第(h,w)个像素的灰度值,0≤h≤Hk-1,0≤w≤Wk-1,Hk和Wk分别表示纯眉毛图像模板Ek的高和宽;
步骤3;用E表示的待识别输入眉毛图像,用H和W分别表示E的高和宽,其中H≥Hk,W≥Wk,Hk和Wk分别表示眉毛图像模板Ek的高和宽;如果待识别原始眉毛图像E是彩色图像,用R(h,w)、G(h,w)和B(h,w)分别E中第(h,w)个像素的红色分量、绿色分量和蓝色分量,根据著名灰度化心理学公式计算其灰度值如下:
g(h,w)=(R(h,w)×299+G(h,w)×587+B(h,w)×114+500)/1000,
并把灰度化的眉毛图像表示为E={g(h,w)},其中0≤h≤H-1,0≤w≤W-1,H和W分别表示待识别眉毛图像E的高和宽;否则,E是灰度图像,则直接把E表示为E={g(h,w)},其中g(h,w)是第(h,w)个像素的灰度值,0≤h≤H-1,0≤w≤W-1,H和W分别表示待识别眉毛图像E的高和宽;
步骤4、用H和W分别表示待识别眉毛图像E的高和宽,则令U=2H-1,V=2W-1,以下出现的U和V均与此意义相同;将待识别眉毛图像E={g(h,w)}中第(h,w)个像素的能量表示为P(h,w)=g(h,w)×g(h,w),0≤h≤H-1,0≤w≤W-1;然后用0将P扩充至大小为U×V的能量矩阵P*={P*(h,w)},其中(h,w)位置上的元素表示如下
令I表示与待识别眉毛图像E大小相等的图像,其像素均等于1,用0将I扩充至大小为U×V的图像I*={I*(h,w)},其中(h,w)位置上的像素表示如下
步骤5、计算能量矩阵P*与I*的卷积,结果记为C={c(h,w)},其中0≤h≤U-1,0≤w≤V-1,具体计算依次包括以下步骤:
步骤5.1、用FFT方法,计算能量矩阵P*={P*(h,w)}的付里叶变换结果F(P*)={P*_f(u,v)},其中P*_f(u,v)可由如下公式计算得到
同样,用FFT方法,计算I*={I*(h,w)}的付里叶变换结果F(I*)={I*_f(u,v)},其中I*_f(u,v)可由如下公式计算得到
步骤5.2、将付里叶变换结果F(P*)={P*_f(u,v)}和F(I*)={I*_f(u,v)}的对应元素相乘,结果记为A={a(u,v)},其中a(u,v)=P*_f(u,v)×I*_f(u,v),0≤u≤U-1,0≤v≤V-1;
步骤5.3、用逆FFT方法,计算A={a(u,v)}的逆付里叶变换,其结果根据付里叶变换与卷积的关系实际上就是能量矩阵P*与I*的卷积结果C={c(h,w)},因此c(h,w)可由如下公式计算得到
步骤6、令k表示从纯眉毛图像模板库SOE中,取出第k个用户的纯眉毛图像模板Ek;初始时k=0,表示从纯眉毛图像模板库SOE中,取出第0个用户的纯眉毛图像模板;令T表示待识别眉毛图像的识别结果,初始时T=-1,表示没有进行任何识别;
步骤7、用H和W分别表示待识别眉毛图像E的高和宽,Hk和Wk分别表示纯眉毛图像模板Ek的高和宽,则令Uk=H+Hk-1,Vk=W+Wk-1,以下出现的Uk和Vk均与此意义相同;计算纯眉毛图像模板Ek与待识别眉毛图像E的卷积Ck={ck(h,w)},其中0≤h≤Uk-1,0≤w≤Vk-1,具体过程依次包括以下步骤:
步骤7.1、用0将待识别眉毛图像E={g(h,w)}扩充至大小为Uk×Vk的图像E*={g*(h,w)},其中(h,w)位置上的像素表示如下
把纯眉毛图像模板Ek={gk(h,w)}旋转180度,旋转后的纯眉毛图像模板记为Rk={rk(h,w)},其中(h,w)位置上的像素rk(h,w)=gk(l,t),l=Hk-1-h,t=Wk-1-w,0≤h≤Hk-1,0≤w≤Wk-1,其中Hk和Wk分别表示纯眉毛图像模板Ek的高和宽;然后用0将旋转后的纯眉毛图像模板Rk扩充至大小为Uk×Vk的图像Rk *={rk *(h,w)},其中(h,w)位置上的像素表示如下
步骤7.2、用FFT方法,计算扩充后的待识别眉毛图像E*={g*(h,w)}的付里叶变换结果F(E*)={E*_f(u,v)},其中E*_f(u,v)可由如下公式计算得到
同样,用FFT方法,计算旋转扩充后的纯眉毛图像模板Rk *={rk *(h,w)}的付里叶变换结果F(Rk *)={Rk *_f(u,v)},其中Rk *_f(u,v)可由如下公式计算得到
步骤7.3、将付里叶变换结果F(E*)={E*_f(u,v)}和F(Rk *)={Rk *_f(u,v)}的对应元素相乘,结果记为Ak={ak(u,v)},其中ak(u,v)=E*_f(u,v)×Rk *_f(u,v),0≤u≤Uk-1,0≤v≤Vk-1;
步骤7.4、用逆FFT方法,计算Ak={ak(u,v)}的逆付里叶变换,其结果根据付里叶变换与卷积的关系实际上就是纯眉毛图像模板Ek与待识别眉毛图像E的卷积Ck={ck(h,w)},其中ck(h,w)可由如下公式计算得到
步骤8、计算纯眉毛图像模板Ek在待识别眉毛图像E中每个(h,w)位置上的匹配相似度M(h,w),其计算公式表示如下:
其中,H和W分别表示待识别眉毛图像E的高和宽,Hk和Wk分别表示纯眉毛图像模板Ek的高和宽,tk表示纯眉毛图像模板Ek的总能量幅度,即
而t(h,w)表示将纯眉毛图像模板Ek左上角顶点移至待识别图像E的(h,w)位置时,所覆盖区域的总能量幅度,若令t* (h,w)表示覆盖区域的总能量,则t* (h,w)可由能量矩阵P*与I*的卷积C={c(h,w)}依照以下计算步骤得到:
步骤8.1、令覆盖区域的总能量t* (h,w)=c(h+Hk-1,w+Wk-1),Hk和Wk分别表示纯眉毛图像模板Ek的高和宽;
步骤8.2、若0≤h-1,则令覆盖区域的总能量t* (h,w)=x,其中x=t* (h,w)-c(h-1,w+Wk-1),Wk表示纯眉毛图像模板Ek的宽;若0≤w-1,则令覆盖区域的总能量t* (h,w)=x,其中x=t* (h,w)-c(h+Hk-1,w-1),Hk表示纯眉毛图像模板Ek的高;若0≤h-1并且0≤w-1,则令覆盖区域的总能量t* (h,w)=x,其中x=t* (h,w)+c(h-1,w-1);
步骤9、在0≤h≤H-Hk,0≤w≤W-Wk中,H和W分别表示待识别眉毛图像E的高和宽,Hk和Wk分别表示纯眉毛图像模板Ek的高和宽,搜索使M(h,w)最大的h*、w*,令maxR=M(h*,w*),并且将纯眉毛图像模板Ek左上角顶点移至待识别眉毛图像E的(h*,w*)位置时,覆盖的子图像记为Xs;
步骤10、计算子图像Xs与纯眉毛图像模板Ek之间的距离dist,因为图像付里叶变换结果的左上角子矩阵已包含了图像的大部分轮廓信息,所以dist可由子图像Xs与纯眉毛图像模板Ek的付里叶变换结果的左上角大小为LH×LW的子矩阵近似计算得到,其中LH和LW一般不大于付里叶变换结果行和列的1/4,且实验发现LH和LW分别取为付里叶变换结果行和列的1/8效果较好,具体计算依次包括以下步骤:
步骤10.1、为加速计算令SH和SW均取为2的幂次,即SH=2n、SW=2m,以下出现的SH和SW均与此意义相同;使用图像插值法,将子图像Xs缩放至SH×SW大小,缩放后的子图像记为Xs *;同样,使用图像插值法,将纯眉毛图像模板Ek缩放至SH×SW大小,缩放后的纯眉毛图像模板记为Ek *;
步骤10.2、用FFT方法,计算缩放后的子图像Xs *的付里叶变换结果F(Xs *)={Xs *_f(u,v)},其中Xs *_f(u,v)可由如下公式计算得到
同样,用FFT方法,计算缩放后的纯眉毛图像模板Ek *的付里叶变换结果F(Ek *)={Ek *_f(u,v)},其中Ek *_f(u,v)可由如下公式计算得到
步骤10.3、令LH=SH/8,LW=SW/8,以下出现的LH和LW均与此意义相同;取付里叶变换F(Xs *)={Xs *_f(u,v)}和F(Ek *)={Ek *_f(u,v)}不包括第一行和第一列的左上角大小为LH×LW的子矩阵,分别记为L(Xs *)={Xs *_l(h,w)}和L(Ek *)={Ek *_l(h,w)},其中Xs *_l(h,w)Xs *_f(h+1,w+1),Ek *_l(h,w)=Ek *_f(h+1,w+1),0≤h≤LH-1,0≤w≤LW-1;
步骤10.4、用付里叶变换子矩阵L(Xs *)={Xs *_l(h,w)}和L(Ek *)={Ek *_l(h,w)},0≤h≤LH-1,0≤w≤LW-1,计算dist如下:
步骤11、计算纯眉毛图像模板Ek的接受系数aptcoef,aptcoef的计算方法如下所示:
其中,参数paramA和paramB在(0,10]内选择,实验发现取paramA=2,paramB=8效果较好;dist_old和maxR_old用于记录识别过程中最佳的距离dist值和相似度maxR值,初始时dist_old和maxR_old均取为较小的正数;
步骤12、如果aptcoef>0,则更新T=k,dist_old=dist,以及maxR_old=maxR;否则aptcoef≤0,不进行任何更新操作;
步骤13、令k=k+1,即令k指向纯眉毛图像模板库中的下一用户模板;若k小于N,则转至步骤6;否则执行步骤14;
步骤14;输出识别结果T,即认为待识别眉毛图像E是来自用户T的。
本发明的基本原理是用户的纯眉毛图像模板能够与其待识别原始眉毛图像中的某个子区域达到最佳匹配,且这种最佳匹配可以通过卷积运算进行定位和检测。需要注意的是:步骤2和步骤3是并列的无先后顺序可分,且先执行这两步灰度化处理只是为了减少识别时的重复计算,也可将这两步灰度化处理放置于识别过程中进行;步骤4和步骤5先于之后的步骤而执行亦是为了减少重复计算,也可将这两步放置于步骤6和步骤8计算匹配相似度之间进行。
本发明与现有技术相比,具有以下明显的优势和有益效果:
本发明在识别过程中不再需要手动圈选眉毛区域或对眉毛区域进行部分标注,大大减少了人为因素的干扰;同时,本发明大量采用优化的计算方式,大大减少了重复计算和繁杂计算,加快了识别的速度;此外,在计算纯眉毛图像模板的接受系数时,综合利用卷积相似度和付里叶频谱信息,使识别正确率能达到一个更高的水平。
实施例的实验效果明显,说明本发明可以在实际应用中进行眉毛图像的识别。在一个具体的实验中,采集了109个人的闭眼眉毛图像各一幅,并以此生成纯眉毛图像模板库供识别使用;在测试阶段,同样采集这109人的睁眼眉毛图像各一幅,分别对它们进行识别测试。实验结果表明,本发明能达到96.33%的识别正确率。这么好的识别效果,是在室内一般自然光照条件下取得的,且对图像的成像质量并没有非常高的要求。所以,可以认为本发明具有非常高的实用价值。
本发明在许多领域中具有重要的应用价值。比如,可以将本发明独立应用于考勤管理系统中,只需要简单的图像采集设备,而不需要过多的人为干预;又比如,可以将本发明应用于安全刑侦等领域中,作为辅助的身份鉴别方法,这将能进一步提高身份鉴别的可靠性与准确性。
附图说明
图1为本发明流程示意图;
图2为用于生成模板的原始眉毛图像示意图;
图3为灰度化后的纯眉毛图像模板示意图;
图4为用于识别的原始眉毛图像示意图;
具体实施方式
根据图1配置本发明的实施例。本发明在实施时需要数码相机或数码摄像机之类的数字图像采集设备和具有一般图像处理能力的普通台式微机。具体实施方案为:
步骤(1)、使用图像采集卡CG300、CP240松下摄像机和75mm高精度日本进口镜头组装成数字图像采集设备,并选用lenovo启天M8000微型计算机,组成基于子区域匹配的眉毛识别系统;系统在一般的光照条件下采集距离约一米处的用户原始眉毛图像,并输入计算机中,原始眉毛图像如图2所示;
步骤(2)、利用步骤(1)组建的眉毛识别系统,采集109人的闭眼眉毛图像各一幅,同时采用手工的方式选择其中包含眉毛的部分构成纯眉毛图像作为模板;给109人进行编号,编号从0~108,并用Ek表示第k个人的纯眉毛图像模板,Ek的高和宽分别用Hk和Wk表示,其中在所选取的纯眉毛图像模板中Hk从58~335、Wk从279~669不等;用SOE={Ek|k=0,…,108}表示109人的纯眉毛图像模板库;
步骤(3)、对纯眉毛图像模板库SOE中的每一个模板Ek进行灰度化处理;用Rk(h,w)、Gk(h,w)和Bk(h,w)分别Ek中第(h,w)个像素的红色分量、绿色分量和蓝色分量,计算其灰度值如下:
gk(h,w)=(Rk(h,w)×299+Gk(h,w)×587+Bk(h,w)×114+500)/1000,
并把灰度化后的纯眉毛图像表示为Ek={gk(h,w)},其中0≤h≤Hk-1,0≤w≤Wk-1;灰度化后的纯眉毛图像模板如图3所示;
步骤(4)、通过图像采集设备采集约一米处的用户睁眼原始眉毛图像,以此作为待识别眉毛图像E,如图4所示,其大小为576×768,输入计算机进行识别处理;
步骤(5)、对待识别眉毛图像E进行灰度化处理,用R(h,w)、G(h,w)和B(h,w)分别E中第(h,w)个像素的红色分量、绿色分量和蓝色分量,计算其灰度值如下:
g(h,w)=(R(h,w)×299+G(h,w)×587+B(h,w)×114+500)/1000,
并把灰度化后的眉毛图像表示为E={g(h,w)},其中0≤h≤575,0≤w≤767;
步骤(6);将E中第(h,w)个像素的能量表示为P(h,w)=g(h,w)×g(h,w),0≤h≤575,0≤w≤767;用0将P扩充至大小为1151×1535的能量矩阵P*={P*(h,w)},其中数值1151和1535分别根据待识别眉毛图像E的高576和宽768计算得到,即1151=2×576-1,1535=2×768-1,以下均同;能量矩阵P*在(h,w)位置上的元素表示如下
步骤(7)、令I表示与E大小相等的图像,其像素均等于1,则用0将I扩充至大小为1151×1535的图像I*={I*(h,w)},其中(h,w)位置上的像素表示如下
步骤(8)、计算P*与I*的卷积,结果记为C={c(h,w)},其中0≤h≤1150,0≤w≤1534,具体计算依次包括以下步骤:
步骤(8.1)、用FFT,计算P*的付里叶变换结果F(P*)={P*_f(u,v)},其中P*_f(u,v)可由如下公式计算得到
步骤(8.2)、用FFT,计算I*的付里叶变换结果F(I*)={I*_f(u,v)},其中I*_f(u,v)可由如下公式计算得到
步骤(8.3)、将F(P*)和F(I*)的对应元素相乘,结果记为A={a(u,v)},其中a(u,v)=P*_f(u,v)×I*_f(u,v),0≤u≤1150,0≤v≤1534;
步骤(8.4)、用逆FFT,计算A的逆付里叶变换,其结果就是P*与I*的卷积结果C={c(h,w)},其中c(h,w)可由如下公式计算得到
步骤(9)、分别取参数paramA=2,paramB=8;初始化dist_old=10-5,maxR_old=10-5;
步骤(10)、令变量k=0,T=-1;
步骤(11)、计算Ek与E的卷积Ck={ck(h,w)},其中0≤h≤Uk-1,0≤w≤Vk-1,Uk=575+Hk,Vk=767+Wk,以下Uk和Vk均同此意义;卷积Ck具体过程依次包括以下步骤:
步骤(11.1)、用0将E扩充至大小为Uk×Vk的图像E*={g*(h,w)},其中(h,w)位置上的像素表示如下
步骤(11.2)、用FFT,计算E*的付里叶变换结果F(E*)={E*_f(u,v)},其中E*_f(u,v)可由如下公式计算得到
步骤(11.3)、把Ek旋转180度,结果图像记为Rk={rk(h,w)},其中(h,w)位置上的像素rk(h,w)=gk(l,t),l=Hk-1-h,t=Wk-1-w,0≤h≤Hk-1,0≤w≤Wk-1;
步骤(11.4)、用0将Rk扩充至大小为Uk×Vk的图像Rk *={rk *1(h,w)},其中(h,w)位置上的像素表示如下
步骤(11.5)、用FFT,计算Rk *的付里叶变换结果F(Rk *)={Rk *_f(u,v)},其中Rk *_f(u,v)可由如下公式计算得到
步骤(11.6)、将F(E*)和F(Rk *)的对应元素相乘,结果记为Ak={ak(u,v)},其中ak(u,v)=E*_f(u,v)×Rk *_f(u,v),0≤u≤Uk-1,0≤v≤Vk-1;
步骤(11.7)、用逆FFT,计算Ak的逆付里叶变换,其结果就是Ek与E的卷积Ck={ck(h,w)},其中ck(h,w)可由如下公式计算得到
步骤(12)、计算Ek在E中每个(h,w)位置上的匹配相似度M(h,w),其公式表示如下:
式中,tk表示Ek的总能量幅度,即
而t(h,w)表示将纯眉毛图像模板Ek左上角顶点移至待识别图像E的(h,w)位置时,所覆盖区域的总能量幅度,若令t* (h,w)表示覆盖区域的总能量,则t* (h,w)可由能量矩阵P*与I*的卷积C={c(h,w)}依照以下计算步骤得到:
步骤(12.1)、令覆盖区域的总能量t* (h,w)=c(h+Hk-1,w+Wk-1),Hk和Wk分别表示纯眉毛图像模板Ek的高和宽;
步骤(12.2)、若0≤h-1,则令覆盖区域的总能量t* (h,w)=x,其中x=t* (h,w)-c(h-1,w+Wk-1),Wk表示纯眉毛图像模板Ek的宽;若0≤w-1,则令覆盖区域的总能量t* (h,w)=x,其中x=t* (h,w)-c(h+Hk-1,w-1),Hk表示纯眉毛图像模板Ek的高;若0≤h-1并且0≤w-1,则令覆盖区域的总能量t* (h,w)=x,其中x=t* (h,w)+c(h-1,w-1);
步骤(13)、在0≤h≤576-Hk,0≤w≤768-Wk中,Hk和Wk分别表示纯眉毛图像模板Ek的高和宽,搜索使M(h,w)最大的h*、w*,令maxR=M(h*,w*),并且将Ek左上角顶点移至E的(h*,w*)位置时,覆盖的子图像记为Xs;
步骤(14)、计算Xs与Ek之间的相似距离dist,dist可由它们的付里叶变换结果的左上角子矩阵近似计算得到,具体计算依次包括以下步骤:
步骤(14.1)、使用立方插值,将Xs缩放至256×512,结果记为Xs *;
步骤(14.2)、用FFT,计算Xs *的付里叶变换结果F(Xs *)={Xs *_f(u,v)},其中Xs *_f(u,v)可由如下公式计算得到
步骤(14.3)、取F(Xs *)不包括第一行和第一列的左上角32×64的低频矩阵L(Xs *)={Xs *_l(h,w)},其中Xs *_l(h,w)=Xs *_f(h+1,w+1),0≤h≤31,0≤w≤63;
步骤(14.4)、使用立方插值法,将Ek缩放至256×512,结果记为Ek *;
步骤(14.5)、用FFT,计算Ek *的付里叶变换结果F(Ek *)={Ek *_f(u,v)},其中Ek *_f(u,v)可由如下公式计算得到
步骤(14.6)、取F(Ek *)不包括第一行和第一列的左上角32×64的低频矩阵L(Ek *)={Ek *_l(h,w)},其中Ek *_l(h,w)=Ek *_f(h+1,w+1),0≤h≤31,0≤w≤63;
步骤(14.7)、用L(Xs *)和L(Ek *)计算dist如下:
步骤(15)、计算纯眉毛图像模板Ek的接受系数aptcoef,aptcoef的计算方法如下所示:
步骤(16)、如果aptcoef>0,则更新T=k,dist_old=dist,以及maxR_old=maxR;否则aptcoef≤0,不进行任何更新操作;
步骤(17)、令k=k+1;若k小于N,则转至步骤(11);否则执行步骤(18);
步骤(18);输出识别结果T,即认为原始眉毛图像E是来自用户T的。
最后应说明的是:以上实施例仅用以说明本发明而并非限制本发明所描述的技术方案;因此,尽管本说明书参照上述的各个实施例对本发明已进行了详细的说明,但是,本领域的普通技术人员应当理解,仍然可以对本发明进行修改或等同替换;而一切不脱离本发明的精神和范围的技术方案及其改进,均应涵盖在本发明的权利要求范围当中。
Claims (1)
1.一种基于子区域匹配的眉毛图像识别方法,其特征在于,依次包括以下步骤:
步骤1、根据用户的个数N,建立纯眉毛图像模板库,即使用图像采集设备,为每一个用户拍摄一幅以眉毛为中心的原始眉毛图像,同时手工选择其中只包含眉毛的部分构成纯眉毛图像作为模板,用Ek(0≤k≤N-1)表示第k个用户的纯眉毛图像模板,用Hk和Wk分别表示Ek的高和宽,用SOE={Ek|k=0,…,N-1}表示N个用户的纯眉毛图像模板库;
步骤2、如果纯眉毛图像模板Ek是彩色图像,用Rk(h,w)、Gk(h,w)和Bk(h,w)分别表示Ek中第(h,w)个像素的红色分量、绿色分量和蓝色分量,根据著名灰度化心理学公式计算其灰度值如下:
gk(h,w)=(Rk(h,w)×299+Gk(h,w)×587+Bk(h,w)×114+500)/1000,
并把灰度化后的纯眉毛图像表示为Ek={gk(h,w)},其中0≤h≤Hk-1,0≤w≤Wk-1,Hk和Wk分别表示纯眉毛图像模板Ek的高和宽;否则,Ek是灰度图像,则直接把Ek表示为Ek={gk(h,w)},其中gk(h,w)是第(h,w)个像素的灰度值,0≤h≤Hk-1,0≤w≤Wk-1,Hk和Wk分别表示纯眉毛图像模板Ek的高和宽;
步骤3;用E表示的待识别输入眉毛图像,用H和W分别表示E的高和宽,其中H≥Hk,W≥Wk,Hk和Wk分别表示眉毛图像模板Ek的高和宽;如果待识别原始眉毛图像E是彩色图像,用R(h,w)、G(h,w)和B(h,w)分别E中第(h,w)个像素的红色分量、绿色分量和蓝色分量,根据著名灰度化心理学公式计算其灰度值如下:
g(h,w)=(R(h,w)×299+G(h,w)×587+B(h,w)×114+500)/1000,
并把灰度化的眉毛图像表示为E={g(h,w)},其中0≤h≤H-1,0≤w≤W-1,H和W分别表示待识别眉毛图像E的高和宽;否则,E是灰度图像,则直接把E表示为E={g(h,w)},其中g(h,w)是第(h,w)个像素的灰度值,0≤h≤H-1,0≤w≤W-1,H和W分别表示待识别眉毛图像E的高和宽;
步骤4、用H和W分别表示待识别眉毛图像E的高和宽,则令U=2H-1,V=2W-1,以下出现的U和V均与此意义相同;将待识别眉毛图像E={g(h,w)}中第(h,w)个像素的能量表示为P(h,w)=g(h,w)×g(h,w),0≤h≤H-1,0≤w≤W-1;然后用0将P扩充至大小为U×V的能量矩阵P*={P*(h,w)},其中(h,w)位置上的元素表示如下
令I表示与待识别眉毛图像E大小相等的图像,其像素均等于1,用0将I扩充至大小为U×V的图像I*={I*(h,w)},其中(h,w)位置上的像素表示如下
步骤5、计算能量矩阵P*与I*的卷积,结果记为C={c(h,w)},其中0≤h≤U-1,0≤w≤V-1,具体计算依次包括以下步骤:
步骤5.1、用FFT方法,计算能量矩阵P*={P*(h,w)}的付里叶变换结果F(P*)={P*_f(u,v)},其中P*_f(u,v)可由如下公式计算得到
同样,用FFT方法,计算I*={I*(h,w)}的付里叶变换结果F(I*)={I*_f(u,v)},其中I*_f(u,v)可由如下公式计算得到
步骤5.2、将付里叶变换结果F(P*)={P*_f(u,v)}和F(I*)={I*_f(u,v)}的对应元素相乘,结果记为A={a(u,v)},其中a(u,v)=P*_f(u,v)×I*_f(u,v),0≤u≤U-1,0≤v≤V-1;
步骤5.3、用逆FFT方法,计算A={a(u,v)}的逆付里叶变换,其结果根据付里叶变换与卷积的关系实际上就是能量矩阵P*与I*的卷积结果C={c(h,w)},因此c(h,w)可由如下公式计算得到
步骤6、令k表示从纯眉毛图像模板库SOE中,取出第k个用户的纯眉毛图像模板Ek;初始时k=0,表示从纯眉毛图像模板库SOE中,取出第0个用户的纯眉毛图像模板;令T表示待识别眉毛图像的识别结果,初始时T=-1,表示没有进行任何识别;
步骤7、用H和W分别表示待识别眉毛图像E的高和宽,Hk和Wk分别表示纯眉毛图像模板Ek的高和宽,则令Uk=H+Hk-1,Vk=W+Wk-1,以下出现的Uk和Vk均与此意义相同;计算纯眉毛图像模板Ek与待识别眉毛图像E的卷积Ck={ck(h,w)},其中0≤h≤Uk-1,0≤w≤Vk-1,具体过程依次包括以下步骤:
步骤7.1、用0将待识别眉毛图像E={g(h,w)}扩充至大小为Uk×Vk的图像E*={g*(h,w)},其中(h,w)位置上的像素表示如下
把纯眉毛图像模板Ek={gk(h,w)}旋转180度,旋转后的纯眉毛图像模板记为Rk={rk(h,w)},其中(h,w)位置上的像素rk(h,w)=gk(l,t),l=Hk-1-h,t=Wk-1-w,0≤h≤Hk-1,0≤w≤Wk-1,其中Hk和Wk分别表示纯眉毛图像模板Ek的高和宽;然后用0将旋转后的纯眉毛图像模板Rk扩充至大小为Uk×Vk的图像Rk *={rk *(h,w)},其中(h,w)位置上的像素表示如下
步骤7.2、用FFT方法,计算扩充后的待识别眉毛图像E*={g*(h,w)}的付里叶变换结果F(E*)={E*_f(u,v)},其中E*_f(u,v)可由如下公式计算得到
同样,用FFT方法,计算旋转扩充后的纯眉毛图像模板Rk *={rk *(h,w)}的付里叶变换结果F(Rk *)={Rk *_f(u,v)},其中Rk *_f(u,v)可由如下公式计算得到
步骤7.3、将付里叶变换结果F(E*)={E*_f(u,v)}和F(Rk *)={Rk *_f(u,v)}的对应元素相乘,结果记为Ak={ak(u,v)},其中ak(u,v)=E*_f(u,v)×Rk *_f(u,v),0≤u≤Uk-1,0≤v≤Vk-1;
步骤7.4、用逆FFT方法,计算Ak={ak(u,v)}的逆付里叶变换,其结果根据付里叶变换与卷积的关系实际上就是纯眉毛图像模板Ek与待识别眉毛图像E的卷积Ck={ck(h,w)},其中ck(h,w)可由如下公式计算得到
步骤8、计算纯眉毛图像模板Ek在待识别眉毛图像E中每个(h,w)位置上的匹配相似度M(h,w),其计算公式表示如下:
其中,H和W分别表示待识别眉毛图像E的高和宽,Hk和Wk分别表示纯眉毛图像模板Ek的高和宽,tk表示纯眉毛图像模板Ek的总能量幅度,即
而t(h,w)表示将纯眉毛图像模板Ek左上角顶点移至待识别图像E的(h,w)位置时,所覆盖区域的总能量幅度,若令t* (h,w)表示覆盖区域的总能量,则t* (h,w)可由能量矩阵P*与I*的卷积C={c(h,w)}依照以下计算步骤得到:
步骤8.1、令覆盖区域的总能量t* (h,w)=c(h+Hk-1,w+Wk-1),Hk和Wk分别表示纯眉毛图像模板Ek的高和宽;
步骤8.2、若0≤h-1,则令覆盖区域的总能量t* (h,w)=x,其中x=t* (h,w)-c(h-1,w+Wk-1),Wk表示纯眉毛图像模板Ek的宽;若0≤w-1,则令覆盖区域的总能量t* (h,w)=x,其中x=t* (h,w)-c(h+Hk-1,w-1),Hk表示纯眉毛图像模板Ek的高;若0≤h-1并且0≤w-1,则令覆盖区域的总能量t* (h,w)=x,其中x=t* (h,w)+c(h-1,w-1);
步骤9、在0≤h≤H-Hk,0≤w≤W-Wk中,H和W分别表示待识别眉毛图像E的高和宽,Hk和Wk分别表示纯眉毛图像模板Ek的高和宽,搜索使M(h,w)最大的h*、w*,令maxR=M(h*,w*),并且将纯眉毛图像模板Ek左上角顶点移至待识别眉毛图像E的(h*,w*)位置时,覆盖的子图像记为Xs;
步骤10、计算子图像Xs与纯眉毛图像模板Ek之间的距离dist,因为图像付里叶变换结果的左上角子矩阵已包含了图像的大部分轮廓信息,所以dist可由子图像Xs与纯眉毛图像模板Ek的付里叶变换结果的左上角大小为LH×LW的子矩阵近似计算得到,其中LH和LW一般不大于付里叶变换结果行和列的1/4,且实验发现LH和LW分别取为付里叶变换结果行和列的1/8效果较好,具体计算依次包括以下步骤:
步骤10.1、为加速计算令SH和SW均取为2的幂次,即SH=2n、SW=2m,以下出现的SH和SW均与此意义相同;使用图像插值法,将子图像Xs缩放至SH×SW大小,缩放后的子图像记为Xs *;同样,使用图像插值法,将纯眉毛图像模板Ek缩放至SH×SW大小,缩放后的纯眉毛图像模板记为Ek *;
步骤10.2、用FFT方法,计算缩放后的子图像Xs *的付里叶变换结果F(Xs *)={Xs *_f(u,v)},其中Xs *_f(u,v)可由如下公式计算得到
同样,用FFT方法,计算缩放后的纯眉毛图像模板Ek *的付里叶变换结果F(Ek *)={Ek *_f(u,v)},其中Ek *_f(u,v)可由如下公式计算得到
步骤10.3、令LH=SH/8,LW=SW/8,以下出现的LH和LW均与此意义相同;取付里叶变换F(Xs *)={Xs *_f(u,v)}和F(Ek *)={Ek *_f(u,v)}不包括第一行和第一列的左上角大小为LH×LW的子矩阵,分别记为L(Xs *)={Xs *_l(h,w)}和L(Ek *)={Ek *_l(h,w)},其中Xs *_l(h,w)=Xs *_f(h+1,w+1),Ek *_l(h,w)=Ek *_f(h+1,w+1),0≤h≤LH-1,0≤w≤LW-1;
步骤10.4、用付里叶变换子矩阵L(Xs *)={Xs *_l(h,w)}和L(Ek *)={Ek *_l(h,w)},0≤h≤LH-1,0≤w≤LW-1,计算dist如下:
步骤11、计算纯眉毛图像模板Ek的接受系数aptcoef,aptcoef的计算方法如下所示:
其中,参数paramA和paramB在(0,10]内选择,实验发现取paramA=2,paramB=8效果较好;dist_old和maxR_old用于记录识别过程中最佳的距离dist值和相似度maxR值,初始时dist_old和maxR_old均取为较小的正数;
步骤12、如果aptcoef>0,则更新T=k,dist_old=dist,以及maxR_old=maxR;否则aptcoef≤0,不进行任何更新操作;
步骤13、令k=k+1,即令k指向纯眉毛图像模板库中的下一用户模板;若k小于N,则转至步骤6;否则执行步骤14;
步骤14;输出识别结果T,即认为待识别眉毛图像E是来自用户T的。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2010102377767A CN101901353B (zh) | 2010-07-23 | 2010-07-23 | 基于子区域匹配的眉毛图像识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2010102377767A CN101901353B (zh) | 2010-07-23 | 2010-07-23 | 基于子区域匹配的眉毛图像识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN101901353A true CN101901353A (zh) | 2010-12-01 |
CN101901353B CN101901353B (zh) | 2012-10-31 |
Family
ID=43226876
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2010102377767A Expired - Fee Related CN101901353B (zh) | 2010-07-23 | 2010-07-23 | 基于子区域匹配的眉毛图像识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN101901353B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102999751A (zh) * | 2013-01-06 | 2013-03-27 | 山东神思电子技术股份有限公司 | 一种基于sift特征的眉毛识别方法 |
CN110033027A (zh) * | 2019-03-15 | 2019-07-19 | 深兰科技(上海)有限公司 | 一种物品识别方法、装置、终端及可读存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004272326A (ja) * | 2003-03-05 | 2004-09-30 | Matsushita Electric Ind Co Ltd | 部分空間成分特徴を用いた顔面描写および認識用の確率的顔面成分融合方法 |
CN1645406A (zh) * | 2005-02-24 | 2005-07-27 | 北京工业大学 | 基于眉毛识别的身份鉴别方法 |
CN1801180A (zh) * | 2005-02-24 | 2006-07-12 | 北京工业大学 | 基于眉毛识别的身份鉴别方法 |
US20070071288A1 (en) * | 2005-09-29 | 2007-03-29 | Quen-Zong Wu | Facial features based human face recognition method |
JP2008033718A (ja) * | 2006-07-31 | 2008-02-14 | Sanyo Electric Co Ltd | 撮像装置及び部位拡大表示方法 |
CN101493887A (zh) * | 2009-03-06 | 2009-07-29 | 北京工业大学 | 基于半监督学习和哈希索引的眉毛图像分割方法 |
-
2010
- 2010-07-23 CN CN2010102377767A patent/CN101901353B/zh not_active Expired - Fee Related
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004272326A (ja) * | 2003-03-05 | 2004-09-30 | Matsushita Electric Ind Co Ltd | 部分空間成分特徴を用いた顔面描写および認識用の確率的顔面成分融合方法 |
CN1645406A (zh) * | 2005-02-24 | 2005-07-27 | 北京工业大学 | 基于眉毛识别的身份鉴别方法 |
CN1801180A (zh) * | 2005-02-24 | 2006-07-12 | 北京工业大学 | 基于眉毛识别的身份鉴别方法 |
US20070071288A1 (en) * | 2005-09-29 | 2007-03-29 | Quen-Zong Wu | Facial features based human face recognition method |
JP2008033718A (ja) * | 2006-07-31 | 2008-02-14 | Sanyo Electric Co Ltd | 撮像装置及び部位拡大表示方法 |
CN101493887A (zh) * | 2009-03-06 | 2009-07-29 | 北京工业大学 | 基于半监督学习和哈希索引的眉毛图像分割方法 |
Non-Patent Citations (2)
Title |
---|
《IEEE》 20081231 Javier Orozco等 Confidence Assessment On eyelid and eyebrow expression recognition 全文 1 , 2 * |
《计算机应用研究》 20091130 曹俊彬等 基于小波变换和SVM的眉毛身份验证系统研究 全文 1 第26卷, 第11期 2 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102999751A (zh) * | 2013-01-06 | 2013-03-27 | 山东神思电子技术股份有限公司 | 一种基于sift特征的眉毛识别方法 |
CN110033027A (zh) * | 2019-03-15 | 2019-07-19 | 深兰科技(上海)有限公司 | 一种物品识别方法、装置、终端及可读存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN101901353B (zh) | 2012-10-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107392082B (zh) | 一种基于深度学习的小面积指纹比对方法 | |
CN106056037A (zh) | 用于识别指纹的方法和设备 | |
CN112598658A (zh) | 基于轻量级孪生卷积神经网络的病识别方法 | |
CN107452022A (zh) | 一种视频目标跟踪方法 | |
CN109934114B (zh) | 一种手指静脉模板生成与更新算法及系统 | |
CN107463954B (zh) | 一种模糊异谱图像的模板匹配识别方法 | |
CN101551853A (zh) | 复杂静态彩色背景下的人耳检测方法 | |
CN103218624A (zh) | 基于生物特征的识别方法及装置 | |
CN102955855A (zh) | 基于量子算法的掌纹数据库搜索方法 | |
CN103268483A (zh) | 开放式环境非接触采集下的掌纹识别方法 | |
CN111126280B (zh) | 基于融合手势识别的失语症患者辅助康复训练系统及方法 | |
Wang et al. | On-line fast palmprint identification based on adaptive lifting wavelet scheme | |
CN101819629B (zh) | 一种基于监督张量流形学习的掌纹识别系统及识别方法 | |
CN105631899A (zh) | 一种基于灰度纹理特征的超声图像运动目标跟踪方法 | |
CN112395442A (zh) | 移动互联网上的低俗图片自动识别与内容过滤方法 | |
CN110175574A (zh) | 一种道路网提取方法及装置 | |
CN108182399B (zh) | 指静脉特征比对方法、装置、存储介质和处理器 | |
CN110929558B (zh) | 一种基于深度学习的行人重识别方法 | |
CN101901353B (zh) | 基于子区域匹配的眉毛图像识别方法 | |
Saif et al. | Exploiting cascaded ensemble of features for the detection of tuberculosis using chest radiographs | |
CN103903017A (zh) | 一种基于自适应软直方图局部二值模式的人脸识别方法 | |
CN102819754A (zh) | 一种基于Sigmoid扩展的指纹分数融合系统及方法 | |
CN108898619A (zh) | 一种基于pvanet神经网络的目标跟踪方法 | |
Bakhshayesh et al. | The Effects of Data Augmentation Methods on the Performance of Human Activity Recognition | |
CN109350072B (zh) | 一种基于人工神经网络的步频探测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20121031 Termination date: 20140723 |
|
EXPY | Termination of patent right or utility model |