CN1305002C - 多注册指纹融合方法 - Google Patents
多注册指纹融合方法 Download PDFInfo
- Publication number
- CN1305002C CN1305002C CNB2004100689769A CN200410068976A CN1305002C CN 1305002 C CN1305002 C CN 1305002C CN B2004100689769 A CNB2004100689769 A CN B2004100689769A CN 200410068976 A CN200410068976 A CN 200410068976A CN 1305002 C CN1305002 C CN 1305002C
- Authority
- CN
- China
- Prior art keywords
- point
- fingerprint
- minutiae point
- minutiae
- sigma
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Collating Specific Patterns (AREA)
Abstract
多注册指纹融合方法属于指纹识别技术领域,其特征在于:它对数据库中同一手指的m枚指纹两两进行细节点比对,求出其相似度,再据此算出优良性系数,取其中最大者作为基准指纹,复制到模板上;把其他指纹与它进行细节点比对,并按比对成功的次数修改模板细节点的置信度值,得到一个融合模板;再配合传统的细节点特征进行决策融合和最终融合,得到注册手指和申请指纹之间的相似度。与单纯的细节点方法比较,在相同的错误接收率下,它有较低的错误拒绝率。
Description
技术领域:
本发明涉及指纹识别领域,特别涉及含有多枚注册指纹的指纹识别系统中信息融合的技术。
背景技术:
随着社会的发展与进步,进行快速、有效、自动的人身辨别的实际要求日益迫切,重要部门保安、过境控制、移民检查、机密或贵重物品保存场所的进出、防止信用卡欺骗、网络安全等都需要进行可靠的人身鉴别。在身份验证的依据中,钥匙、证件可能会丢失、被盗或复制,密码又容易被忘掉、混淆或被偷看,而生物特征(包括指纹、人脸、手形、手写签名、虹膜等)是人的内在属性,它们不会出现上述情况,因此成为最理想的辨别依据。这其中,指纹识别是应用最普遍、识别率最高、最容易被接受的个人身份认定方法。作为物证之首,指纹识别已有一个非常漫长而且成果丰富的历史。基于计算机的自动指纹识别始于二十世纪60年代,它首先应用在刑事侦破中。近年来,指纹自动识别从刑事应用逐渐推广到考勤、门禁、银行保险箱、社会保险等领域,我国也已初步决定在新一代身份证中引入指纹信息进行个人身份认证。在美国911恐怖事件后,基于指纹自动识别的个人身份识别更是得到前所未有的重视。
目前的指纹自动识别方法主要是基于细节点特征的,即提取细节点(指纹中脊线的终结点或交叉点)作为特征来表征指纹图像,通过比对这些特征进行识别。其步骤一般包括:指纹图像采集、方向图(指纹纹理的方向)提取、图像增强、指纹脊线细化、细节点提取等。围绕着如何更好更快地提取细节点,近二十年来国内外研究单位做出了大量工作,并且现有指纹产品都是基于这种方法的,如美国BAC公司的SecuTouch,日本Sony公司的FIU-500,美国BII公司的Veriprox,韩国Bogo公司的Bogo2000,美国DP公司的U.are.U 2000,美国Identix公司的Biologon等。
实际应用表明,单纯用一枚注册指纹、一种特征、一个分类器很难达到实际要求的性能。因此,实用的自动指纹识别系统,在注册阶段都会要求用户对同一枚手指进行多次按捺以获取多枚注册指纹。如何充分利用多枚注册指纹的信息,是提高指纹识别系统性能的一个重要课题。在所有可以查到的专利或发表文献中,与本发明相近的方法有:在“Xudong Jiang,andWee Ser,“Online Fingerprint Template Improvement”,IEEE Trans.Pattern Analysis and MachineIntelligence,vol.24,No.8,pp.1121-1126,Aug.2002”中提到的生成指纹模板的特征级融合方法和“Salil Parbhakar,Anil K.Jain,“Decision-level fusion in fingerprint verification”,PatternRecognition vol.35,pp.861-874,2002.”中提到的基于联合概率密度估计的Neyman-Pearson准则的决策级方法。本发明则是利用特征融合和决策融合能够互补的特性,提出了两种具体的新融合方法,在特征融合和决策融合的结果之上再进行融合,更好地提高系统识别率的性能。
发明内容
本发明的目的是充分利用多枚注册指纹中含有的有用信息,来提高指纹识别系统的性能。所用的识别算法是基于细节点的指纹识别算法。
本发明的特征在于:
它依次含有以下步骤:
一、学习阶段
计算机在离线状态下对所有注册的指纹进行细节点的提取、存储,再进行伪细节点的去除和特征融合后,建立数据库;它依次含有以下步骤:
(1)对计算机进行初始化
设定下列各初始值:
设定注册指纹数量m=4;
在指纹有效区域的检测步骤中,对于已经分割成大小为4×4像素的方格的原始指纹图像而言,当以点(i,j)为左上角的每一个方格的灰度均值Iavg(i,j)和方差Var(i,j)处于下述范围内时,该方格为有效,标记为1;否则为无效,标记为0;
th1<Iavg(i,j)<th2且Var(i,j)>th3,其中th表示为阈值:th1=20;th2=220;th3=6;
在图像增强的步骤中,Gabor滤波器空域表达形式G(x掩,y掩,θ)中的参数值δx′=δy′=5.0,f=0.6,空域掩模大小为7×7像素;
设定细节点比对中两个细节点比对成功的阈值为8像素;
设定特征融合的置信度阈值为0.5;
设定最终融合相似度域值Ths为0.4;
(2)计算机通过取指器采集所有注册指纹的原始图像并存储,对同一枚手指提取m枚指纹;
(3)计算机检测指纹的有效区域,它依次包含以下步骤:
(3.1)把原始图像分割成大小为4×4像素的方格;
(3.2)计算机按下式计算以点(i,j)为左上角的每一个方格的灰度均值Iavg(i,j)和方差Var(i,j):
其中,I(i+x,j+y)为(i+x,j+y)点的图像灰度值;
(3.3)计算机按下式判断上述每一个方格是否有效:
若th1<Iavg(i,j)<th2且Var(i,j)>th3,则该方格有效标记为1;
(3.4)去噪声处理
(3.4.1)对上述图像进行3×3滤波,即检查以待测点为中心的3×3邻域内的9个点,如果只有该待测点是有效的,则认为该点为噪声,更改标记为0,表明以该点为左上角的方格无效;若只有该待测点是无效的,则认为该点为有效点,更改标记为1,表明以该点为左上角的方格有效;
(3.4.2)去掉有效区域中间的“洞”,即逐行对上述图像扫描,填补最左边和最右边的有效点之间的所有无效点,将其标记为有效;逐列扫描,填补最上边和最下边的有效点之间的所有无效点,将其标记为有效,从而得到有效区域,长和宽分别为原图的1/4;
(4)用基于梯度统计的金字塔形算法进行方向场估计,它依次包含以下步骤:
(4.1)利用Soble算子的水平方向算子Sx和竖直方向算子Sy求取点(x,y)的灰度梯度:
水平方向:
竖直方向:
其中I(i,j)为(i,j)点的灰度值,Sx(x-i,y-j),Sy(x-i,y-j)分别表示水平和竖直方向的Soble算子,在(x-i,y-j)点的值,算子分别用一个大小为3×3的掩膜表示;
(4.2)把指纹图划分成大小为
W×
W的方格,
W=7,再依次进行以下步骤:
(4.2.1)用下式求取每一方格对应的局部方向θ:
(4.2.2)计算方向场一致性水平:
其中,Ω是第(i,j)方格的邻域,取为5×5,N是Ω中所含方格的个数,N=25;θ(i′,j′)和θ(i,j)分别为第(i′,j′)和第(i,j)方格的局部方向;
则令
W=1.5
W,重新估计Ω中各方格的方向,重复步骤(4.2.1)和(4.2.2);直至
E0≤Tc,这里Tc=1.5;
(5)采用Gabor滤波方法进行图像增强,它依次包含以下步骤:
(5.1)Gabor滤波器空域表达形式为:
其中
θ∈[0,180)为当前点的方向场垂直方向,x掩,y掩为掩膜中各点相对于掩膜中心点的坐标,δx′=δy′=5.0,f=0.6,空域掩膜大小为7×7像素;
(5.2)自适应滤波:
假设输入指纹灰度图像为I(i,j),θ为(i,j)点方向场方向垂直的方向,则用上述滤波器滤波如下:
然后按下式求取一个数值:
其中L=12为统计数据区域长度,D=2为统计步长,进行脊线提取:如果
F(i,j)>flag(i,j),则(i,j)点位于谷即背景,否则位于脊即前景;
(6)脊线细化,它依次包含以下步骤:
(6.1)在保持原图的骨架即不改变拓扑结构和不删除直线端点的前提下,根据以待测点为中心的8邻域的不同状态来决定待测点的“去”或“留”,“去”用“0”表示,“留”用“1”表示;
(6.2)建立1维索引表table,标记索引为0~255,共256个元素,每个元素取1表示保留,0表示去掉;
(6.3)遍历有效区域内所有点,考察其8邻域,对所有排列组合通过下面的公式映射到0~255之间:
index=A32×20+A31×21+A21×22+A11×23
+A12×24+A13×25+A23×26+A33×27;
其中,Aij代表8个邻域中的点的值,然后通过查询索引表中索引值为index的元素即table[index],决定该待测点是否保留或者去掉;
(6.4)重复(6.3)直到没有被去掉的点出现;
(6.5)细化后处理:
(6.5.1),按照细化图,初步确定细节点中的端点,即本身为1且周围8个点中有且仅有一个点为1,和分岔点,即本身为1且周围8个点中有且仅有三个点为1;
(6.5.2),沿着细节点生长,对细节点进行后处理:
(a),对于端点,如果在其12×12的邻域内有另一个端点的方向与之接近,即角度差小于Tha=30度,则将这两个端点都去掉;
(b),将形成环形的邻近分叉点连接起来,对于一个分叉点,如果在其12×12的邻域内有另一个分叉点的方向与之接近,即角度差小于Tha=30度,则将两者都去掉;
(c),去除一些小短棒对应的两个端点,对于一个端点,如果沿着它所在脊线经过12个像素之内就碰到另一个端点,则将两个端点都去掉;
(6.5.3),筛除方向与该点方向场角度差大于30度的特征点;
(7)对所有注册指纹进行步骤(2)~(6)的操作,并把所得细节点集合存入数据库;
(8)对同一枚手指的m枚指纹两两进行细节点比对;
(8.1)用基于Hough变换的方法进行细节点配准:
计算补偿旋转和平移偏差,按照下面方法计算:把两个指纹各自的细节点分别构成各自含有M和N个细节点的点集,从两个点集中各选一个细节点分别表示为(x1,y1,θ1)和(x2,y2,θ2),利用它们之间的坐标、方向求出一个平移量: 一个旋转量:Δθ=θ2-θ1,遍历所有M×N对细节点对,统计(Δx,Δy,Δθ)出现的次数,得票最高的平移旋转量就是最终使用的平移旋转量,同时记录得票数vote;
用下面的公式计算平移旋转后的新坐标:
x″=x′×cos(Δθ)-y′×sin(Δθ)+Δx;
y″=x′×sin(Δθ)-y′×cos(Δθ)+Δy;
其中(x′,y′)是旋转平移前的坐标,(x″,y″)是旋转平移后的坐标
(8.2)公共有效区域提取:
记两枚指纹r,t配准后的有效区域分别为Rr、Rt,根据上面求得的参数(Δx,Δy,Δθ),利用上述新坐标求取公式对Rt进行旋转平移,则公共有效区域为R=Rr∩Rt;
(8.3)比对指纹r,t中所有的细节点,记录比对成功的细节点对数;若两幅匹配好的指纹图中的两个细节点距离小于设定用像素数表示的阈值,则比对成功,该阈值为8;
(8.4)计算指纹r,t细节点集合的相似度Mrt,0<Mrt<1:
其中count表示比对成功的细节点对数,countr表示指纹r在两幅指纹公共有效区域内的细节点个数,countt表示指纹t在两幅指纹公共有效区域内的细节点个数;Th为经验阈值,取为12;
(9)特征级融合,即把数据库中对应同一个手指的m枚指纹中的细节点进行融合,它依次含有以下步骤:
(9.1)把同一手指对应的m枚注册指纹两两按上述步骤(8)所述的方法进行细节点比对操作,得出用Sij表示的两枚指纹之间的相似度,其中:Sij表示第i枚指纹与第j枚指纹的相似度,i=1,2,…m,j=1,2,…m,且i≠j;
(9.2)计算每一枚指纹相对于其他m-1枚指纹的优良性参数Ji:
(9.3)按下式选取m枚指纹中J值最高的一个作为基准,即
Ja=max(Ji),i=1,2,…,m,记为F1;
(9.4)将F1中所有细节点Mk的置信度ck记为1,即ck=1,k=1,2,…,n1,n1表示F1中细节点的个数;
(9.5)将F1复制到模板T,令nt=n1,nt为模板中细节点个数,用ck表示模板T中第k个细节点的置信度,与步骤(9.4)中的ck值相等;
(9.6)对于T中的所有细节点Mk,k=1,2,…,nt,在F2的所有细节点Mj,j=1,2,…,n2中,寻找与Mk匹配的细节点,即两个细节点距离小于8像素:如果找到,则T中的细节点Mk的置信度ck增1,即ck=ck+1;
如过所有的寻找已经进行完,而F2中某个细节点仍未与T中任何细节点匹配,则直接将其加到T中并将其置信度置为1,同时令T中细节点数nt=nt+1;
对于F2中所有没有匹配的细节点都进行这样的操作;
(9.7)重复步骤(9.6),依次把F2替换成F2,…,Fm,直到所有m枚指纹融合完毕;
(10)对融合后的模板T进行后处理,即去掉置信度低于某一阈值的细节点,得到一个由细节点合成的合成模板,该阈值为0.5;
(11)对数据库中每一个手指进行上述步骤(9)~(10)的操作,则每一个手指对应唯一的一个合成模板;
二、验证阶段
(1)把申请指纹按学习阶段的步骤(2)~(6)进行细节点提取;
(2)把(1)中得到的申请指纹的细节点按学习阶段的(8)和同一手指的模板进行细节点比对得出相似度Sf;
(3)决策融合,它依次含有以下步骤:
(3.1)把(1)中得到的申请指纹的细节点与同一个手指的所有m枚注册指纹按学习阶段步骤(8)进行细节点比对,得出m个相似度S1,...,Sm;
(3.2)按下式求取申请指纹与注册手指之间的相似度Sd:
(4)最终融合:用下面所选的加权平均方法对合成模板给出的相似度Sf和决策融合给出的相似度Sd进行最终融合:
(4.1)计算最终融合的相似度S:
S=wdSd+(1-wd)Sf,其中wd是决策融合结果的权重,设定为wd=0.5;
(4.2)比较S与预设的相似度阈值Ths,设定为0.4:
若S≥Ths,则判断申请者与注册者是同一个人;
若S<Ths,则判断申请者与注册者不是同一个人。
实验表明,本发明提出的多注册指纹的融合算法能够极大地提高指纹识别系统性能。如图12所示,当各阈值按照上面的推荐值(加权平均相似度阈值0.4)设定时,融合算法的错误接受率(即将其他手指的指纹认为是这个手指的)一般在0.01%附近,而错误拒绝率(将同一手指的指纹认为是其他手指的)在8%左右,这个数值还不到单一注册指纹时的一半(18%左右)。阈值增大会使错误接受率减小,同时使错误拒绝率增大。实际使用中应适当权衡。
附图说明
图1多特征指纹识别系统的流程;
图2Sobel算子,2-1)为水平方向算子,2-2)为竖直方向算子;
图3细节点的类型,3-1)为端点,3-2)为分叉点;
图4是细化的八个例子;
图5为细化索引表;
图6为细化索引建立方式示意图;
图7是指纹识别各步骤中间结果,其中,7-1)是原始指纹图,7-2)是原始有效区域,7-3)是位于有效区域内增强的指纹图(以下各图均在有效区域内),7-4)是对“脊”(前景)的细化图,7-5)是对“谷”(背景)的细化图,7-6)是用基于梯度的金字塔方法求得的方向场图,7-7)是最终求得的细节点在指纹图像中的位置(为突出细节点位置,对指纹图像作了弱化);
图8是细节点提取的流程;
图9是特征级融合的实例;
图10是人工神经网络的结构;
图11是融合策略的流程;
图12是采用融合策略的系统性能与单使用一枚指纹的性能比较。
具体实施方式
本发明可以在普通PC机上实现,对操作系统没有要求。
发明的内容包含基于细节点的指纹识别算法和多注册指纹融合策略。分别说明如下:
基于细节点的指纹识别算法包括:有效区域提取,方向场估计,图像增强与二值化,细节点提取,细节点比对。融合策略包括特征级融合,决策级融合,以及融合特征与决策的再融合。其中,有效区域提取、方向场估计、图像增强与二值化、细节点提取和细节点比对等各步均可采用传统的任意一种方法进行,决策级融合的方法也可采用传统的方法进行。下面对各步骤逐一介绍:
有效区域提取
通过取指器采集到的原始指纹图中指纹部分并不是充满全图,含有指纹的部分图像在指纹识别中才有意义,称为有效区域。将原始图像分割为大小为(4×4)的方格,对每个这样的方格,计算这一区域内所有象素的灰度值的均值与方差,只有两者均满足各自条件时才认为该点处于有效区域。其中均值和方差的计算依靠下面的公式:
这里,Iavg(i,j),Var(i,j)分别表示在以点(i,j)为左上角的方格的灰度均值和方差,I(i+x,j+y)为(i+x,j+y)点的图像灰度值。要求当th1<Iavg(i,j)<th2且Var(i,j)>th3时,标记该方格为有效,标记为1。其中,阈值选择为:th1=20;th2=220;th3=6。
对图像上所有的方格进行上述操作,为了去掉噪声影响,需要进行后处理:
1、3×3滤波,具体做法就是检查包含被检测点在内的其3×3邻域内的9个点,如果只有该点是有效的,其他都是无效的,那么认为该点为噪声,更改标记为0(表明无效);如果只有该点是无效的,其他都是有效的,那么认为该点为有效点,更改标记为1(表明有效)。
2、去掉有效区域中间的“洞”,方法是逐行扫描,填补图像中最左边和最右边的有效点之间的所有无效点,将其标记为有效1;逐列扫描,填补图像中最上边和最下边的有效点之间的所有无效点,将其标记为有效1。
这样就得到了有效区域(长宽分别为原图的1/4)。效果如图7-2)所示。
方向场估计
方向场是表示指纹脊线走向的一幅图像,其中每点的数值代表了指纹图像中对应点的局部脊线方向。方向图刻画了指纹的全局信息,在指纹识别中起着重要的作用。本方法中采用的是基于梯度统计的金字塔形算法,效果如图7-6)所示。算法如下:
1、利用Soble算子的水平方向算子Sx和竖直方向算子Sy(见图2)求取点(x,y)的灰度梯度:
水平方向:
竖直方向:
其中I(i,j)为(i,j)点的灰度值。
2、把指纹图划分成大小为
W×
W的方格,
W=7,再依次进行以下步骤:
2.1用下式求取每一方格对应的局部方向θ:
2.2计算方向场一致性水平:
其中,D是第(i,j)方格的邻域,取为5×5,N是D中所含方格的个数,N=25。θ(i′,j′)和θ(i,j)分别为第(i′,j′)和第(i,j)方格的局部方向;
若E0>Tc,则令
W=1.5
W,重新估计D中各方格的方向,重复步骤(4.2.1)和(4.2.2)。直至E0≤Tc。这里Tc=1.5。
图像增强和二值化
图像增强算法采用Gabor滤波方法,即根据各点方向场取值,用Gabor滤波器进行滤波。滤波并二值化后效果如图7-3)所示。滤波算法如下:
1、求取指定大小的空域掩膜:
Gabor滤波器空域表达形式为:
θ∈[0,180)为当前点的方向场垂直方向,x掩,y掩为掩膜中各点相对于掩膜中心点的坐标,δx′=δy′=5.0,f=0.6,空域掩膜大小为7×7像素。由于对于相同的θ,空域掩膜是相同的。所以可以在滤波之前将空域掩膜一次求取完成并存储下来,以减少不必要的重复计算。
2、自适应滤波:
对于指纹图像中的点(i,j),假设输入指纹灰度图像为I(i,j),θ为(i,j)点方向场方向垂直的方向,则用上述滤波器滤波如下:
然后按下式求取一个数值
其中L=12为统计数据区域长度,D=2为统计步长,进行脊线提取:如果F(i,j)>,flag(i,j),则(i,j)点位于谷(背景),否则位于脊(前景)。
细节点提取
细节点可分为两种,一种是脊线的端点,另一种是脊线的分岔点。如图3所示。细节点的提取方法我们采用的是基于细化图的方法。分别对前景和背景进行细化,得到两张细化图。最终结果如图7-4、5)所示。
具体的细化方法如下:
对增强后的指纹图像,我们将其二值化(直接选择阈值为128即可)。每个点取值为1或者0,1表示前景;0表示背景。细化的目标就是考察每一个值为1的点,根据其8邻域的取值来决定是否将这个待考察的点置为0(即将该点变成背景),通过对全图的几次遍历,不断将一些前景(值为1)的点变成背景点,从而达到细化的目的。
我们根据待测点8邻域的不同状态来决定待测点的“去”或“留”。这8个邻域点的所有可能取值组合有28=256种(每个点只能取1或者0)。我们将每种可能设定为一条规则对应结果为“1”(保留)或“0”(去除),规则设定的原则是保持原图的骨架。对于指纹脊线细化,我们定义的骨架,可以理解为图像的中轴,例如一个长方形的骨架是它的长方向上的中轴线,圆的骨架是它的圆心,环的骨架是类似圆的封闭曲线,直线的骨架是它自身,孤立点的骨架也是自身。不同应用场合,对骨架的定义可能有不同,我们通过几个例子说明,图4中给出了几个例子,其中:(1)不能删,因为它是个内部点,如果删去,就没有了骨架;(2)不能删,这是一个特殊要求,尽量保留直线;(3)不能删,这点是骨架,删掉后,改变拓扑结构;(4)不能删,因为删掉后,原来相连的部分断开,改变拓扑结构;(5)不能删,因为它是直线的端点;(6)可以删,该点不是骨架;(7)不能删,该点是骨架;(8)可以删,该点不是骨架。我们简单总结一下,有如下的判据:(1)直线端点不能删除;(2)改变拓扑结构的点不能删除,例如内部点不能删除、孤立点不能删除等。
对所有情况按照上面的例子总结,可以得到256个规则,将其结果编码为一张表(其实就是一个1维数组,标记0~255,共256个元素),每个待测点的8邻域的值对应一个0到255的数,将这个数作为索引,查表中对应的值,如果是1表示保留;0表示该点被去掉(即将这个待测点的值置为0)。
索引方法如图6,Aij代表8个邻域中的点,索引定义为:
index=A32×20+A31×21+A21×22+A11×23+A12×24+A13×25+A23×26+A33×27
按照索引值找到表table中对应的元素table[index],其中索引值index的取值范围在[0,255]内的整数,如果table[index]为1,则保留该点(值不变);如果为0,则将该点置0。我们采用的表如图5所示。从图4的八个例子中选出两个作说明如下:
图4-2):中心(待测)点不能删,因为:
index=1×20+0×21+0×22+0×23+1×24+0×25+1×26+0×27=81,
table[81]=1,所以表示该点不能去掉。
图4-8):中心(待测)点可以删,因为:
index=1×20+1×21+0×22+0×23+0×24+0×25+0×26+0×27=3,
table[3]=0,所以表示该点可以去掉。
我们总结一下细化的步骤:
第一步,给出索引方法,例如按照图6中设定的方法;
第二步,根据规则给出索引表,例如按照图5中设定的表;
第三步,遍历全图所有值为1的点,计算索引,判断是否保留;
第四步,如果第三步没有去掉任何点,则下一步,否则重复第三步。
第五步,后处理,我们将在下面详细介绍:
求出细化图后的操作如下:
第一步,按照细化图,初步确定细节点中的端点(本身为1且周围8个点中有且仅有一个点为1)和分岔点(本身为1且周围8个点中有且仅有三个点为1)。
第二步,沿着细节点生长,对细节点进行后处理:
(a),对于端点,如果在其12×12的邻域内有另一个端点的方向与之接近(角度差小于30度),则将这两个端点都去掉;
(b),将形成环形的邻近分叉点连接起来,对于一个分叉点,如果在其12×12的邻域内有另一个分叉点的方向与之接近(角度差小于30度),则将两者都去掉;
(c),去除一些小短棒对应的两个端点,对于一个端点,如果沿着它所在脊线经过12个像素之内就碰到另一个端点,则将两个端点都去掉;
第三步,筛除方向与该点方向场角度差大于30度的特征点。
对所有注册指纹进行上述特征提取操作并将所得细节点集合存入数据库。
细节点比对
细节点的比对过程分为细节点配准和细节点匹配两个步骤。
由于用于比对的两枚指纹间存在旋转和平移,必须利用细节点配准的方法补偿旋转和平移偏差。我们采用的是基于Hough变换的配准方法。简单解释为:将两个指纹的各自的细节点分别构成两个点集(各有M和N个细节点),从两个点集中各选一个细节点分别表示为(x1,y1,θ1)和(x2,y2,θ2),利用它们之间的坐标、方向可以求出一个平移量和旋转量: Δθ=θ2-θ1。遍历所有细节点对(共M×N对),将所有的平移和旋转量进行投票,即统计(Δx,Δy,Δθ)出现的次数,得票最高的平移旋转量就是最终使用的平移旋转量,同时记录得票数vote。
根据下面的公式进行点的旋转平移变换:
x″=x′×cos(Δθ)-y′×sin(Δθ)+Δx;
y″=x′×sin(Δθ)-y′×cos(Δθ)+Δy;
其中(x′,y′)是旋转平移前的坐标,(x″,y″)是旋转平移后的坐标。对于有效区域,分别对应变换前所包含的点的坐标和变换后所包含的点的坐标;对于细节点,则分别对应配准前和配准后的坐标。
将两枚指纹有效区域变换之后就可以计算两枚指纹(记为r,t,并假设r为基准,t向r旋转平移)之间的公共有效区域。求取方法如下:设两幅配准好的指纹有效区域分别为Rr、Rt,则公共有效区域为Rc=Rr∩Rt,其中Rt是由指纹t的未配准的有效区域按上面求得的参数(Δx,Δy,Δθ)旋转平移得到
对于这两枚已经配准好的指纹,进行细节点比对。最终得出的是0~1之间的一个数,表示两枚指纹细节点集合的相似度。当两幅配准好的指纹图中的两个细节点距离小于某一阈值(取为8像素)时,认为这两个点比对成功,匹配成功点对计数加1。最终可以求出这两枚指纹之间的相似度:
其中count表示比对成功的细节点对数,countr表示指纹r在两幅指纹公共有效区域内的细节点个数,countt表示指纹t在两幅指纹公共有效区域内的细节点个数。Th为经验阈值,取为12。
特征级融合
该步骤的实质是将对应同一个手指的多枚指纹中的细节点进行融合,融合原则是:如果一个细节点在m枚注册指纹中出现的频率高于某一阈值,则该细节点被保存到模板中,否则被去除。
融合过程如下:
1将同一个手指对应的多枚注册指纹两两进行细节点比对操作,得出相似度Sij,Sij表示第i枚指纹与第j枚指纹的相似度,其中i=1,2,…m ,j=1,2,…m,并且i≠j(i=j表示第i枚指纹与自身比较,没有意义)。然后令
作为第i枚指纹优
良性的度量,选取m枚指纹中J值最高的一个作为基准指纹,即如果Ja=max(Ji),i=1,2,…,m,则选取第a枚指纹作为基准指纹,记为F1,并将其他指纹按照前面提到的细节点配准方法与该指纹进行配准(以后提到的细节点均为经过旋转平移得到的配准后结果),并按与该指纹的相似度从大到小排序,依次标记为F2,...,Fm;
2将F1中所有细节点Mk,k=1,2,…,n1,的置信度记为1,即ck=1,k=1,2,…,n1,n1表示F1中细节点的个数,然后将F1复制到模板T,同时令nt=n1,代表模板中细节点个数,ck为第k个细节点的置信度,是一个特征融合过程中的临时变量;
3对于T中的所有细节点Mk,k=1,2,…,nt,在F2的所有细节点Mj,j=1,2,…,n2中,寻找与其匹配的细节点(即两个细节点距离小于8像素)。如果找到则T中的细节点Mk的置信度增1,即ck=ck+1。如F2中某一细节点未与T中任何细节点匹配,则直接将其加到T中并将其置信度置为1,同时改变T中细节点的记数,即nt=nt+1。
重复3,将其中的F2替换成F3,...,Fm,直至所有注册指纹均融合完毕。
对融合后的模板进行后处理,去掉置信度低于某一阈值的细节点。建议采集四枚注册指纹,此时该阈值选为2。阈值选取过高会使模板中所剩细节点过少,选取过低会使模板中虚假细节点过多。经过后处理就得到了合成的模板,这是一个细节点集合,本质上与单幅指纹的细节点特征集合是相同的。
对数据库中每一手指进行上述特征融合操作,最终每一手指对应唯一一个合成模板。
验证阶段
按照前面所述的细节点提取的方法对申请指纹进行细节点提取,然后将申请指纹的细节点与与合成的模板进行细节点比对,得出相似度Sf,这一数值将在后面最终融合中用到。
决策融合
决策融合有许多经典方法,这里我们以一种比较简单的方法为例说明其应用:申请指纹与一个注册手指的所有m枚指纹进行细节点比对,得出m个相似度S1,...,Sm,决策融合就是根据这些相似度综合做出决策。令
作为决策融合的最终结果,即申请指纹与注册手指之间的相似度。
最终融合
该步融合也可以采用多种经典的决策融合策略来实现,这里我们以下面两种方法(加权平均法和人工神经网络法)为例来说明其应用:
加权平均法的公式如下:
S=wdSd+(1-wd)Sf,其中S是最终的结果;Sd是决策级融合求和算法给出的相似度;Sf是合成模板给出的相似度。wd是决策融合结果的权重。公式的形式保证了结果是归一化的,即S∈[0,1]。wd是根据经验选定的,建议设定为0.5。判决规则为:
若S≥Ths则判断为成功比对,即申请者与注册者是同一个人;
若S<Ths则判断为失败比对,即申请者与注册者不是同一个人;
其中Ths为预先设定的阈值,设定为0.4。
人工神经网络方法如下:
选用三层前馈神经网络,两个输入层节点,分别对应Sf和Sd,五个隐层节点,一个输出层节点,用反向传播(BP)算法进行训练。
训练方法如下:
建议训练所用数据在2000个以上,其中一半为正样本,即真实匹配(属于同一手指)的比对结果组成的二维向量(Sf,Sd);一半为负样本,即虚假匹配(不属于同一手指)的比对结果组成的二维向量(Sf,Sd)。
训练算法分为两个阶段:第一阶段(正向过程)输入信息,从输入层经隐层逐层计算各单元的输出值;第二阶段(反向传播过程)内计算输出误差,并逐层向前算出隐层各单元的误差,然后用此误差修正前层到本层的连接强度(权值)。我们设计的神经网络一共含有15个权系数,其中输入层到隐层10个,隐层到输出层5个,训练就是要确定这15个权系数的值。令输入层第i个节点到隐层第j个节点的权系数为wij′(i=1,2,j=1,2,…5),隐层第j个节点到输出层第k个节点(只有一个)的权系数为wjk″(j=1,2,…5,k=1),输入层第一个节点的输出为Sf,第二个节点的输出为Sd,隐层第j个节点的输出为Oj′,输出层节点的输出为y′。
具体步骤如下:
1、设置权系数初始值,即用±0.3区间的随机数赋值给wij′、wjk″。
2、对于所有训练样本,重复以下步骤:
1)、当输入某个样本时,首先计算输入层到隐层节点的加权和:
netj=w1j′Sf+w2j′Sd;
进而得出隐层节点的输出:
上面两式中j=1,2,…,5;
然后计算隐层到输出层的加权和:
其中k=1;
进而得出输出层节点的输出:
y′=1/(1+e-net′);
2)、对输出层计算输出误差δ=(y-y′)y′(1-y′),其中y是理想输出值,对于正样本,理想输出值定义为1;对于负样本,理想输出值定义为0;
3)、计算其余各层节点的输出误差:
计算隐层各节点的δj′,j=1,2,…,5:
δj′=Oj′(1-Oj′)wjk″δ;
计算输入节点的δi,i=1,2;
4)、计算并保存各权值修正量:
对隐层到输出的权值:
Δwjk″(t)=αΔwjk″(t-1)+ηδOj′;
对输入层到隐层的权值:
Δw1j′(t)=αΔw1j′(t-1)+ηδjSf;
Δw2j′(t)=αΔw2j″(t-1)+ηδjSd;
其中α为惯性项系数,选为0.9~1.0之间的数值,建议设为0.95;η为步长,选为0.1~3之间的数值,建议设为1;t为输入样本的序号,初始权值修正量Δwjk″(0)=0,Δwij′(0)=0。
5)、修正权值:
wij′(t)=wij′(t-1)+Δwij′(t);
wjk″(t)=wjk″(t-1)+Δwjk″(t);
实验表明只需要进行一轮这样的训练即可,因此训练过程实际上就是对所有的样本进行1)-5)的操作,将最终得到15个权系数存储到文件,在分类的过程中从文件读取即可。
分类过程如下:
对给定样本输入Sf′和Sd′,按2-1)中公式依次计算各层输出,最终得到输出层的输出y′。如果y′>Thn则判定为匹配成功,否则判定为匹配失败。其中Thn是判断阈值,选为0.5。
实验表明,上面提到的加权平均的算法和利用人工神经网络的方法在性能上差别很小,均可用于实际系统。考虑到方便性,建议采用加权平均算法。
Claims (1)
1.多注册指纹融合方法,其特征在于,它依次含有以下步骤:
一、学习阶段
计算机在离线状态下对所有注册的指纹进行细节点的提取、存储,再进行伪细节点的去除和特征融合后,建立数据库;它依次含有以下步骤:
(1)对计算机进行初始化
设定下列各初始值:
设定注册指纹数量m=4;
在指纹有效区域的检测步骤中,对于已经分割成大小为4×4像素的方格的原始指纹图像而言,当以点(i,j)为左上角的每一个方格的灰度均值Iavg(i,j)和方差Var(i,j)处于下述范围内时,该方格为有效,标记为1;否则为无效,标记为0;
th1<Iavg(i,j)<th2且Var(i,j)>th3,其中th表示为阈值:th1=20;th2=220;th3=6;
在图像增强的步骤中,Gabor滤波器空域表达形式G(x掩,y掩,θ)中的参数值δx′=δy′=5.0,f=0.6,空域掩模大小为7×7像素;
设定细节点比对中两个细节点比对成功的阈值为8像素;
设定特征融合的置信度阈值为0.5;
设定最终融合相似度域值Ths为0.4;
(2)计算机通过取指器采集所有注册指纹的原始图像并存储,对同一枚手指提取m枚指纹;
(3)计算机检测指纹的有效区域,它依次包含以下步骤:
(3.1)把原始图像分割成大小为4×4像素的方格;
(3.2)计算机按下式计算以点(i,j)为左上角的每一个方格的灰度均值Iavg(i,j)和方差Var(i,j):
其中,I(i+x,j+y)为(i+x,j+y)点的图像灰度值,x=0,1,2,3,y=0,1,2,3;(3.3)计算机按下式判断上述每一个方格是否有效:
若th1<Iavg(i,j)<th2且Var(i,j)>th3,则该方格有效标记为1;
(3.4)去噪声处理
(3.4.1)对上述图像进行3×3滤波,即检查以待测点为中心的3×3邻域内的9个点,如果只有该待测点是有效的,则认为该点为噪声,更改标记为0,表明以该点为左上角的方格无效;若只有该待测点是无效的,则认为该点为有效点,更改标记为1,表明以该点为左上角的方格有效;
(3.4.2)去掉有效区域中间的“洞”,即逐行对上述图像扫描,填补最左边和最右边的有效点之间的所有无效点,将其标记为有效;逐列扫描,填补最上边和最下边的有效点之间的所有无效点,将其标记为有效,从而得到有效区域,长和宽分别为原图的1/4;
(4)用基于梯度统计的金字塔形算法进行方向场估计,它依次包含以下步骤:
(4.1)利用Soble算子的水平方向算子Sx和竖直方向算子Sy求取点(x,y)的灰度梯度:
水平方向:
竖直方向:
其中I(i,j)为(i,j)点的灰度值,Sx(x-i,y-j),Sy(x-i,y-j)分别表示水平和竖直方向的Soble算子,在(x-i,y-j)点的值,算子分别用一个大小为3×3的掩膜表示;
(4.2)把指纹图划分成大小为
W×
W的方格,
W=7,再依次进行以下步骤:
(4.2.1)用下式求取每一方格对应的局部方向β:
(4.2.2)计算方向场一致性水平:
其中,Ω是第(i,j)方格的邻域,取为5×5,N是Ω中所含方格的个数,N=25;β(i′,j′)和β(i,j)分别为第(i′,j′)和第(i,j)方格的局部方向;
令
W=1.5
W,重新估计Ω中各方格的方向,重复步骤(4.2.1)和(4.2.2);直至E0≤Tc,
这里Tc为方向场一致性阈值,Tc=1.5;
(5)采用Gabor滤波方法进行图像增强,它依次包含以下步骤:
(5.1)Gabor滤波器空域表达形式为:
其中
θ∈[0,180)为当前点的方向场垂直方向,x掩,y掩为掩模中各点相对于掩模中心点的坐标,δx′,δy′为高斯包络沿x′,y′轴方向的空间系数,f为正弦平面波沿θ方向的频率;(5.2)自适应滤波:
假设输入指纹灰度图像为I(i,j),θ为(i,j)点方向场方向垂直的方向,则用上述滤波器滤波计算(i,j)点的滤波器响应F(i,j):
然后按下式求取(i,j)点的滤波器响应阈值,flag(i,j):
其中L=12为统计数据区域长度,D=2为统计步长,进行脊线提取:如果F(i,j)>flag(i,j),则(i,j)点位于谷即背景,否则位于脊即前景;
(6)脊线细化,它依次包含以下步骤:
(6.1)在保持原图的骨架即不改变拓扑结构和不删除直线端点的前提下,根据以待测点为中心的8邻域的不同状态来决定待测点的“去”或“留”,“去”用“0”表示,“留”用“1”表示;
(6.2)建立1维索引表table,标记索引为0~255,共256个元素,每个元素取1表示保留,0表示去掉;
(6.3)遍历有效区域内所有点,考察其8邻域,对所有排列组合通过下面的公式映射到0~255之间:
index=A32×20+A31×21+A21×22+A11×23
+A12×24+A13×25+A23×26+A33×27;
其中,Aij代表8个邻域中的点的值,如果table[index]为1,则保留该点,如果table[index]为0,则去掉该点;
(6.4)重复(6.3)直到没有被去掉的点出现;
(6.5)细化后处理:
(6.5.1),按照细化图,初步确定细节点中的端点,即本身为1且周围8个点中有且仅有一个点为1,和分岔点,即本身为1且周围8个点中有且仅有三个点为1;
(6.5.2),沿着细节点生长,对细节点进行后处理:
(a),对于端点,如果在其12×12的邻域内有另一个端点的方向与之接近,即该端点与邻域内某一个端点的角度差小于30度,则将这两个端点都去掉;
(b),对于分叉点,如果在其12×12的邻域内有另一个分叉点的方向与之接近,即该分叉点与邻域内某一个分叉点的角度差小于30度,则将这两个分叉点都去掉;
(c),对于端点,如果沿着它所在脊线经过12个像素之内就碰到另一个端点,则将两个端点都去掉;
(6.5.3),筛除方向与该点方向场角度差大于30度的特征点;
(7)对所有注册指纹进行步骤(2)~(6)的操作,并把所得的细节点集合存入数据库;
(8)对同一枚手指的m枚指纹两两进行细节点比对;
(8.1)用基于Hough变换的方法进行细节点配准:
计算旋转量和平移量,按照下面方法计算:把两个指纹各自的细节点分别构成各自含有M和N个细节点的点集,从两个点集中各选一个细节点分别表示为(x1,y1,θ1)和(x2,y2,θ2),利用它们之间的坐标、方向求出一个平移量:
一个旋转量:Δθ=θ2-θ1,遍历所有M×N对细节点对,累计旋转平移复合向量(Δx,Δy,Δθ)出现的次数,出现次数最多的平移旋转量就是最终使用的平移旋转量,同时记录最多的出现次数vote;
用下面的公式计算平移旋转后的新坐标:
x″=x′×cos(Δθ)-y′×sin(Δθ)+Δx;
y″=x′×sin(Δθ)-y′×cos(Δθ)+Δy;
其中(x′,y′)是旋转平移前的坐标,(x″,y″)是旋转平移后的坐标;
(8.2)公共有效区域提取:
记两枚指纹r,t配准后的有效区域分别为Rr、Rt,根据上面求得的参数(Δx,Δy,Δθ),利用上述新坐标求取公式对Rt内的点进行旋转平移得到旋转平移后的有效区Rt t,Rr保持不变,则公共有效区域为R=Rr∩Rt t;
(8.3)比对指纹r,t中所有的细节点,记录比对成功的细节点对数;若两幅匹配好的指纹图中的两个细节点距离小于设定用像素数表示的阈值,则比对成功,该阈值为8;
(8.4)计算指纹r,t细节点集合的相似度Mrt,0<Mrt<1:
其中count表示比对成功的细节点对数,countr表示指纹r在两幅指纹公共有效区域内的细节点个数,countt表示指纹t在两幅指纹公共有效区域内的细节点个数;Th为经验阈值,取为12;
(9)特征级融合,即把数据库中对应同一个手指的m枚指纹中的细节点进行融合,它依次含有以下步骤:
(9.1)把同一手指对应的m枚注册指纹两两按上述步骤(8)所述的方法进行细节点比对操作,由(8.4)计算所得的Mrt即为两枚指纹之间的相似度,记为Sij,其中:Sij表示第i枚指纹与第j枚指纹的相似度,i=1,2,…m,j=1,2,…m,且i≠j;
(9.2)计算每一枚指纹相对于其他m-1枚指纹的优良性参数Ji:
(9.3)记Ja为m枚指纹的优良性的最大值,即Ja=max(Ji),i=1,2,…,m,选取取得Ja的指纹作为基准,将其序号记为F1=a;
(9.4)将F1中所有细节点Mk的置信度ck记为1,即ck=1,k=1,2,…,n1,n1表示F1中细节点的个数;
(9.5)将F1复制到模板T,令nt=n1,nt为模板中细节点个数,用ck T表示模板T中第k个细节点的置信度,与步骤(9.4)中的ck值相等;
(9.6)将F2记为m枚指纹中除去F1后序号最小的指纹序号,对于模板T中的所有细节点Mk T,k=1,2,…,nt,在F2的所有细节点Mj F2,j=1,2,…,n2中,n2表示F2中的细节点数量,寻找与Mk T匹配的细节点,即两个细节点距离小于8像素:
如果找到,则模板T中的细节点Mk T的置信度ck T增1,即
如过所有的寻找已经进行完,而F2中某个细节点仍未与模板T中任何细节点匹配,则直接将其加到模板T中并将其置信度置为1,同时令模板T中细节点数nt=nt+1;
对于F2中所有没有匹配的细节点都进行这样的操作;
(9.7)重复步骤(9.6),依次把F2替换成F3,…,Fm,其中Fp,p=3,4,…m,表示m枚指纹中除去F1,F2,…,Fp-1后序号最小的指纹序号,直到所有m枚指纹融合完毕;
(10)对融合后的模板T进行后处理,即去掉置信度低于某一阈值的细节点,得到一个由细节点合成的合成模板,该阈值为0.5;
(11)对数据库中每一个手指进行上述步骤(9)~(10)的操作,则每一个手指对应唯一的一个合成模板;
二、验证阶段
(1)把申请指纹按学习阶段的步骤(2)~(6)进行细节点提取;
(2)把(1)中得到的申请指纹的细节点与同一手指的模板按学习阶段的(8)和进行细节点比对得出相似度Sf,即学习阶段的(8.4)中计算得出的Mrt;
(3)决策融合,它依次含有以下步骤:
(3.1)把(1)中得到的申请指纹的细节点与同一手指的模板按学习阶段(8)中细节点比对算法进行比对,得出相似度Sf,即学习阶段的(8.4)中计算得出的Mrt;
(3.2)按下式求取申请指纹与注册手指之间的相似度Sd:
(4)最终融合:用下面所选的加权平均方法对合成模板给出的相似度Sf和决策融合给出的相似度Sd进行最终融合:
(4.1)计算最终融合的相似度S:
S=wdSd+(1-wd)Sf,其中wd是决策融合结果的权重,设定为wd=0.5;
(4.2)比较S与预设的相似度阈值Ths,设定为0.4:
若S≥Ths,则判断申请者与注册者是同一个人;
若S<Ths,则判断申请者与注册者不是同一个人。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CNB2004100689769A CN1305002C (zh) | 2004-07-15 | 2004-07-15 | 多注册指纹融合方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CNB2004100689769A CN1305002C (zh) | 2004-07-15 | 2004-07-15 | 多注册指纹融合方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN1588425A CN1588425A (zh) | 2005-03-02 |
CN1305002C true CN1305002C (zh) | 2007-03-14 |
Family
ID=34604231
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CNB2004100689769A Expired - Fee Related CN1305002C (zh) | 2004-07-15 | 2004-07-15 | 多注册指纹融合方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN1305002C (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102708360A (zh) * | 2012-05-09 | 2012-10-03 | 深圳市亚略特生物识别科技有限公司 | 一种指纹模板生成及自动更新的方法 |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4989308B2 (ja) | 2007-05-16 | 2012-08-01 | キヤノン株式会社 | 画像処理装置及び画像検索方法 |
CN101853382B (zh) * | 2010-05-18 | 2012-08-15 | 清华大学 | 一种求取现场指纹方向的方法和装置 |
CN103488925B (zh) * | 2013-08-13 | 2016-04-27 | 金硕澳门离岸商业服务有限公司 | 指纹认证方法和装置 |
CN106575355A (zh) * | 2014-07-25 | 2017-04-19 | 高通股份有限公司 | 移动装置上的注册及验证 |
CN104463141B (zh) * | 2014-12-24 | 2018-03-13 | 北京大唐智能卡技术有限公司 | 一种基于智能卡的指纹模板录入方法及装置 |
CN105426835B (zh) | 2015-11-13 | 2019-03-05 | Oppo广东移动通信有限公司 | 指纹注册方法、装置及移动终端 |
CN109800741B (zh) * | 2015-11-13 | 2023-07-14 | Oppo广东移动通信有限公司 | 指纹注册方法、装置和终端设备 |
CN105389564B (zh) * | 2015-11-13 | 2019-05-10 | Oppo广东移动通信有限公司 | 指纹注册方法、装置及移动终端 |
CN105678271B (zh) * | 2016-01-11 | 2019-08-23 | Oppo广东移动通信有限公司 | 指纹录入方法、装置及移动终端 |
CN108345826A (zh) * | 2017-01-24 | 2018-07-31 | 创智能科技股份有限公司 | 指纹验证方法与电子装置 |
CN107368780B (zh) * | 2017-06-07 | 2020-08-28 | 西安电子科技大学 | 一种基于中心奇异点的指纹配准点提取方法 |
EP3637272A4 (en) | 2017-06-26 | 2020-09-02 | Shanghai Cambricon Information Technology Co., Ltd | DATA-SHARING SYSTEM AND RELATED DATA-SHARING PROCESS |
CN109426553A (zh) | 2017-08-21 | 2019-03-05 | 上海寒武纪信息科技有限公司 | 任务切分装置及方法、任务处理装置及方法、多核处理器 |
CN110413551B (zh) | 2018-04-28 | 2021-12-10 | 上海寒武纪信息科技有限公司 | 信息处理装置、方法及设备 |
CN109214616B (zh) * | 2017-06-29 | 2023-04-07 | 上海寒武纪信息科技有限公司 | 一种信息处理装置、系统和方法 |
CN107193118A (zh) * | 2017-07-04 | 2017-09-22 | 清华大学 | 多光谱显微成像系统及显微镜 |
CN107832704B (zh) * | 2017-11-08 | 2019-12-31 | 清华大学深圳研究生院 | 一种使用基于图像场的非刚性配准的指纹识别方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5497429A (en) * | 1993-10-01 | 1996-03-05 | Nec Corporation | Apparatus for automatic fingerprint classification |
JP2000003441A (ja) * | 1998-06-12 | 2000-01-07 | Sony Corp | 指紋画像処理方法および指紋画像処理装置 |
JP2002334324A (ja) * | 2001-03-07 | 2002-11-22 | Sony Corp | 指紋照合システム、指紋照合装置、指紋照合方法、およびバイオメトリクス照合装置 |
EP1282045A2 (en) * | 2001-07-30 | 2003-02-05 | Nippon Telegraph and Telephone Corporation | Parallel processing logic circuit for sensor processing |
-
2004
- 2004-07-15 CN CNB2004100689769A patent/CN1305002C/zh not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5497429A (en) * | 1993-10-01 | 1996-03-05 | Nec Corporation | Apparatus for automatic fingerprint classification |
JP2000003441A (ja) * | 1998-06-12 | 2000-01-07 | Sony Corp | 指紋画像処理方法および指紋画像処理装置 |
JP2002334324A (ja) * | 2001-03-07 | 2002-11-22 | Sony Corp | 指紋照合システム、指紋照合装置、指紋照合方法、およびバイオメトリクス照合装置 |
EP1282045A2 (en) * | 2001-07-30 | 2003-02-05 | Nippon Telegraph and Telephone Corporation | Parallel processing logic circuit for sensor processing |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102708360A (zh) * | 2012-05-09 | 2012-10-03 | 深圳市亚略特生物识别科技有限公司 | 一种指纹模板生成及自动更新的方法 |
Also Published As
Publication number | Publication date |
---|---|
CN1588425A (zh) | 2005-03-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN1305002C (zh) | 多注册指纹融合方法 | |
CN100347719C (zh) | 基于密度图模型的指纹识别方法 | |
CN1267849C (zh) | 基于断纹检测的指纹识别方法 | |
CN1595425A (zh) | 指纹多特征识别方法 | |
CN100336070C (zh) | 复杂背景图像中的鲁棒人脸检测方法 | |
CN1973757A (zh) | 基于舌象特征的病证计算机分析系统 | |
CN1214340C (zh) | 多个神经网络的成像设备和方法 | |
CN1794266A (zh) | 生物特征融合的身份识别和认证方法 | |
CN1165869C (zh) | 通过均衡正交映射可视化和自组织多维数据 | |
CN1249046A (zh) | 利用指纹及类似印痕的流线比较和解释的身份验证系统和方法 | |
CN1664846A (zh) | 基于统计结构特征的联机手写汉字识别方法 | |
CN1156791C (zh) | 模式识别设备与方法 | |
CN1818927A (zh) | 指纹识别方法与系统 | |
CN1596420A (zh) | 用于学习模式分类和判定值估计的方法和装置 | |
CN1310825A (zh) | 用于分类文本以及构造文本分类器的方法和装置 | |
CN1839397A (zh) | 用于处理诸如图像的具有现有拓扑的数据阵列的神经网络和网络应用 | |
CN1151465C (zh) | 利用候选表进行分类的模式识别设备及其方法 | |
CN1402190A (zh) | 用户认证方法和用户认证装置 | |
CN1415103A (zh) | 多分辨率标签定位器 | |
CN1200387C (zh) | 基于单个字符的统计笔迹鉴别和验证方法 | |
CN1912932A (zh) | 薄片识别设备和薄片识别方法 | |
CN1435781A (zh) | 一种基于信息挖掘的智能决策支持构造方法 | |
CN1945602A (zh) | 一种基于人工神经网络的特征选择方法 | |
CN1839410A (zh) | 图像处理设备、摄像设备、图像处理方法 | |
CN1251130C (zh) | 多字体多字号印刷体藏文字符识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20070314 Termination date: 20190715 |