CN1595425A - 指纹多特征识别方法 - Google Patents
指纹多特征识别方法 Download PDFInfo
- Publication number
- CN1595425A CN1595425A CN 200410009328 CN200410009328A CN1595425A CN 1595425 A CN1595425 A CN 1595425A CN 200410009328 CN200410009328 CN 200410009328 CN 200410009328 A CN200410009328 A CN 200410009328A CN 1595425 A CN1595425 A CN 1595425A
- Authority
- CN
- China
- Prior art keywords
- point
- fingerprint
- sigma
- theta
- prime
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Collating Specific Patterns (AREA)
Abstract
指纹多特征识别方法属于指纹识别技术领域,其特征在于:它把传统的细节点特征与方向图模型参数结合在一起作为指纹识别的特征,同时把方向图比对结果与传统的细节点比对结果加以融合以大大提高指纹识别率。同时也节省了存储空间,便于实用。尤其适用于大人群和质量不好的人群。
Description
技术领域
本发明涉及指纹识别技术领域,尤其涉及同时融合方向图特征和细节点特征进行识别的技术。
背景技术
随着社会的发展与进步,进行快速、有效、自动的人身辨别的实际要求日益迫切,重要部门保安、过境控制、移民检查、机密或贵重物品保存场所的进出、防止信用卡欺骗、网络安全等都需要进行可靠的人身鉴别。在身份验证的依据中,钥匙、证件可能会丢失、被盗或复制,密码又容易被忘掉、混淆或被偷看,而生物特征(包括指纹、人脸、手形、手写签名、虹膜等)是人的内在属性,不会出现上述情况,因此成为最理想的辨别依据。其中,指纹识别是应用最普遍、识别率最高、最容易被接受的个人身份认定方法。作为物证之首,指纹识别已有一个非常漫长而且成果丰富的历史。基于计算机的自动指纹识别始于二十世纪60年代,它首先应用在刑事侦破中。近年来,指纹自动识别从刑事应用逐渐推广到考勤、门禁、银行保险箱、社会保险等领域,我国也已初步决定在新一代身份证中引入指纹信息进行个人身份认证。在911恐怖事件后,基于指纹自动识别的个人身份识别更得到前所未有的重视。
目前的指纹自动识别方法主要是基于细节点特征的,即提取细节点(指纹中脊线的终结点或交叉点)作为特征来表征指纹图像,通过比对这些特征进行识别。其步骤一般包括:指纹图像采集、方向图(指纹纹理的方向)提取、图像增强、指纹脊线细化、细节点提取等。围绕着如何更好更快地提取细节点,近二十年来国内外研究单位做出了大量工作,并且现有指纹产品都是基于这种方法的,如美国BAC公司的SecuTouch,日本Sony公司的FIU-500,美国BII公司的Veriprox,韩国Bogo公司的Bogo2000,美国DP公司的U.are.U2000,美国Identix公司的Biologon等。
随着指纹识别应用的推广,现有系统和方法在大范围应用上的不足越来越显现出来。最近发表的一篇论文(S.Pankanti,S.Prabhakar,and A.K.Jain.On the individualitv offingerprints.Proceedings of IEEE International Symposium of CVPR,Vol.1,USA,Dec2001,pp:805-812)指出,目前的很多指纹系统中对于一枚指纹平均只能获得36个真的细节点,而通常认为,两枚指纹之间如果有15个以上的细节点比对成功就可以判断为同一个手指,考虑到用计算机方法提取出的细节点在坐标和方向上会出现一定误差,则将某一个手指的指纹判断为另一个的概率大于4.26×10-7(图1中给出了两枚不同指纹被判断为同一手指的例子)。如果考虑到提取出的细节点中有假点的话(对于任何方法都必然会出现这种情况),则错误率还会大大增大,达到10-3的程度,严重影响识别的结果。
出现以上问题的一个根本原因在于指纹的特征表达不够完备。指纹这一比较复杂的模式单用细节点来描述是远远不够的。可以说,这一问题已成为当前指纹识别的一个瓶颈问题。要解决这一问题,必须从全新角度重新研究指纹的特征表达问题,寻求新的可以描述指纹个体差异和自身稳定性的特征。当然,由于实际应用的限制,这些新的特征应该有简约的表达(以方便存储)。在所有可以查到的专利或发表文献中,与本发明思路比较接近的有:在(A.K.Jain,S.Prabhakar,L.Hong and S.Pankanti.Filterbank-based fingerprint matching.IEEE Trans.on Image Processing,Vol.9,2000,pp:846-859)中利用多滤波器的响应进行编码,以这些编码作为特征进行指纹识别,在(A.Ross,S.Prabhakar,and A.K.Jain.Fingerprint matching using minutiae and texture features.Proc.ICIP 2001,Vol.3,Greece,Oct 2001,pp 282-285)中采用与上述思路类似的编码加上细节点信息进行指纹识别,都获得了一定的效果,但其问题是需要存储空间非常大,造成应用的障碍。改进效果也不是很理想。本发明方法则利用方向图作为新的指纹表示的特征,将方向图用模型表达,只需存储少量参数;在指纹识别时将细节点和方向图模型参数一同使用,所需增加的存储空间远远小于前述方法,而且特征更稳定可靠。而且由于方向图在指纹识别多个步骤都要应用,保存方向图参数有利于设计新的实用的技术方案。
发明内容
本发明的目的是提供多特征的实用的指纹表示方法及相应的识别技术,能够在存储指纹特征时保存更多有用的信息供指纹比对时使用。本发明采用模型对指纹方向图进行描述,计算出任意指纹的方向图模型参数;在指纹比对阶段,能够用存储的模型参数恢复指纹方向图,进而进行任意两个指纹的方向图比对,再与细节点比对结果结合,从而达到提高传统识别方法效果的目的。
本发明的核心思想是将指纹识别中非常重要的方向图只用少量参数表达出来,这样就能存储这些参数在比对阶段使用,与传统细节点识别方法结合就可以提高识别性能。在指纹中,细节点反映的是指纹的细节特征,方向图反映的是全局特征,具有很大互补性。又因为方向图除几个点(奇异点)外都是连续的,因此可以采用二元多项式和奇异函数的加权和来表达方向图。采用最小二乘法能够求出上述模型的参数。采用传统的融合方法能够实现细节点特征和方向图特征的结合。其中基于细节点特征的的识别方法可以选用目前使用的任何方法。本发明仅对其中一种加以介绍。
我们提出的指纹表示特征包括:奇异点(坐标),细节点(坐标,方向),方向图参数,有效区域链码。传统方法主要使用前两种,我们则增加使用了方向图参数,有效区域链码。这些特征与原有特征具有较大独立性,融合起来能够大大提高识别率。
上述特征可以用定长编码方式存储。以下分别加以介绍:
奇异点:即方向图不连续的点,分为中心点和三角点。一般中心点少于3个,三角点少于3个。存储这些奇异点的x坐标,y坐标,每个坐标用一个字节存放(原因见细节点存储部分)。所以共需12个字节。
细节点:包括细节点的x坐标,y坐标和方向角度。为节省存储空间,存储实际值大小的一半(以指纹图像大小(512×320)为例,存储的细节点和奇异点的坐标范围为0-255,方向值的范围在0到180之间)。因此,一个细节点需要用3个字节表示。一般情况下,指纹的细节点数量在100以下,所以最多需要300字节表示;
方向图:方向图的模型参数。以混合模型为例,多项式模型部分一般取n为4,即用两个四次二元多项式拟合,每个多项式系数为25个参数,所以多项式部分共有参数50个,用float型(4字节)存储,需200字节;点电荷模型部分只需存储电量,也用float型存储,因奇异点少于6个,共需24字节存储。
有效区域:需存储指纹有效区域边界,采用十六边形表示方法,存储顶点x坐标,y坐标,同细节点类似,存储实际坐标值的一半,共需32字节。
综上,共需568字节存储指纹特征。如果不存储细节点方向值(可以从方向图特征推出),则共需468字节。
下面详细描述基于多特征的指纹识别算法。特征提取阶段的主要步骤包括:有效区域提取,方向场估计,奇异点检测,方向图建模图像处理与增强,细节点提取;特征比较即识别阶段的主要步骤包括:细节点比对,方向图比对,决策融合。其中,有效区域提取、方向场估计、图像处理与增强、细节点提取和细节点比对等各步都可采用传统的方法进行。下面对各步骤逐一介绍。
特征提取
有效区域提取
通过取指器采集到的原始指纹图中指纹部分并不是充满全图,含有指纹的部分图像在指纹识别中才有意义,称为有效区域。将原始图像分割为大小为(4×4)的方格,对每个这样的方格,计算这一区域内所有象素的灰度值的均值与方差,只有两者均满足各自条件时才认为该点处于有效区域。其中均值和方差的计算依靠下面的公式:
这里,Iavg(i,j),Var(i,j)分别表示在以点(i,j)为左上角的方格的灰度均值和方差,I(i+x,j+y)为(i+x,j+y)点的图像灰度值。要求当th1<Iavg(i,j)<th2且Var(i,j)>th3时,标记该方格为有效,标记为1。其中,阈值选择为:th1=20;th2=220;th3=6。
对图像上所有的方格进行上述操作,为了去掉噪声影响,需要进行后处理:
1、3×3滤波,具体做法就是检查包含被检测点在内的其3×3邻域内的9个点,如果只有该点是有效的,其他都是无效的,那么认为该点为噪声,更改标记为0(表明无效);如果只有该点是无效的,其他都是有效的,那么认为该点为有效点,更改标记为1(表明有效)。
2、去掉有效区域中间的“洞”,方法是逐行扫描,填补图像中最左边和最右边的有效点之间的所有无效点,将其标记为有效1;逐列扫描,填补图像中最上边和最下边的有效点之间的所有无效点,将其标记为有效1。
这样就得到了有效区域(长宽分别为原图的1/4)。如图11-2)。
在基于方向场的比对中,有效区域起着重要的作用,因此需要进行保存。为节省存储空间,我们采用一个十六边形来近似表示指纹图像有效区域。具体操作如下:
求出真实有效区域的质心(x0,y0):
其中,E代表有效区域,N代表有效区域内的点数
从质心(x0,y0)处等角度的向四周16个方向(分别为0,π/8,π/4,…,15π/8)引射线,求出这些射线与有效区域外边界的交点。具体实现的时候,只要检查射线上的点由有效变成无效,则说明该点为边界交点。我们只需要存储这些交点的坐标,即十六边形的顶点,就可以恢复出近似的有效区域。
由图11-3)可以看出,用这种方法表示的有效区域与真实有效区域基本一致。实验结果也表明,两者的差别对后面的比对影响极小。
方向场估计
方向场是表示指纹脊线走向的一幅图像,其中每点的数值代表了指纹图像中对应点的局部脊线方向。方向图刻画了指纹的全局信息,在指纹识别中起着重要的作用。本方法中采用的是基于梯度统计的算法,效果如图11-7)所示。算法如下:
1、利用Soble算子的水平方向算子Sx和竖直方向算子Sy(见图4)求取点(x,y)的灰度梯度:
水平方向:
竖直方向:
其中I(i,j)为(i,j)点的灰度值。
2、把指纹图划分成大小为
W×
W的方格,
W=7,用下式求取每一方格对应的局部方向θ:
方向场置信度
方向场置信度是方向场估计的进一步结果。对于方向场中的每一个点,计算其周围一个小邻域内方向场的一致性,并将其作为该点的可靠性度量,称之为方向场置信度。它的取值在[0,1]之间。方向场置信度在一定程度上反映了局部图像质量,图像质量越好的区域,方向场置信度越高,图像质量越差的区域,方向场置信度越低。效果如图11-8)所示。求取方法如下:
其中c(i,j)即点(i,j)的方向场置信度,
W=7。
方向场置信度在下面将要提到的方向图建模操作中将作为加权系数使用,具体方法在该步骤有详细说明。
奇异点检测
利用Poincare指数方法在方向场上进行奇异点检测,根据的原则是:普通点的Poincare指数为0,中心点的Poincare指数为1/2,三角点的Poincare指数为-1/2。点(i,j)上的Poincare指数的计算过程如下:
ψx(k)和ψy(k)分别表示以给定点为中心的半径为8的圆(圆上共有Nψ=25个象素点)上的第k个点的横、纵坐标。圆上相邻两点的方向变化为:
其中:δ(k)=O(ψx(k′),ψy(k′))-O(ψx(k),ψy(k));
k′=(k+1)mod Nψ;
这里O(·)表示指纹图像的方向场(值域为[0,180))。
点(i,j)上的Poincare指数为:
方向场建模
指纹方向场反映出指纹的全局性信息,对指纹识别非常重要。通常采用的是基于梯度的方法,它有两个弊病:1、求出的方向场受噪声影响较大;2、不能直接存储方向图,原因是所需空间过大。因此需要对指纹方向场进行建模,这样可以使求得的方向图更加可靠,并且需要的存储空间也会非常小。我们采用的混合模型包括两部分,一部分是多项式模型,即对整个指纹的方向场,用两个二元n次多项式来刻画;另一部分是点电荷模型,即对靠近奇异点的不在光滑区域的方向场,用标准电荷模型来修正,模型如下:
其中R(x,y)、I(x,y)是混合模型在点(x,y)的取值,PR(x,y)、PI(x,y)是多项式模型在点(x,y)的取值,H1 (k)(x,y)、H2 (k)(x,y)是第k个奇异点对应的点电荷模型在点(x,y)的取值;αPC (k)(x,y)表示第k个奇异点对应的点电荷模型在点(x,y)处的权重,计算公式为:
在中心点附近点(x,y)上的标准点电荷模型为:
其中(x0,y0)是中心点坐标,Q是点电荷电量,R是点电荷影响有效半径,i是虚数单位
在三角点附近,点(x,y)上的标准点电荷模型则为
其中(x0,y0)是三角点坐标,其他符号意义同上。
模型参数求取步骤如下:
1、利用公知的加权最小二乘方法,最小化
和 来求解出两个二元四次多项式PR(x,y)、PI(x,y)的系数。其中(x,y)是指纹有效区域中任意一点,c(x,y)为点(x,y)的方向场置信度,θ(x,y)为(x,y)点方向场估计得出的角度。
2、求解点电荷模型参数
2.1利用1中求出的多项式模型,求出该模型在各奇异点处的值PR(x0,y0)、PI(x0,y0),然后利用cos2θ′(x0,y0)=PR(x0,y0)以及sin2θ′(x0,y0)=PI(x0,y0)可以反求出θ′(x0,y0),它可以看作是点电荷模型相对于标准模型的旋转角度:
则旋转后的中心点对应的点电荷模型中的H1、H2可以表示为:
三角点对应的电荷模型中的H1、H2为:
以上四式中各量含义与前文相同。
2.2将求得的点电荷模型表达式代入混合模型公式,应用最小二乘法求出各点电荷的电量,即求解下列的优化问题:
Ω是点电荷起作用区域的点集合,如图9所示。
多项式模型与点电荷模型及二者混合的结果参见图10。
图像增强
图像增强算法采用Gabor滤波方法,即根据各点方向场取值,用Gabor滤波器进行滤波。滤波后效果如图11-4)所示。滤波算法如下:
1、求取指定大小的空域掩膜:
Gabor滤波器空域表达形式为
这里θ∈[0,180)为当前点的方向场垂直方向,x,y为掩膜中各点相对于掩膜中心点的坐标。各参数取δx′=δy′=5.0,f=0.6,空域掩膜大小为7×7像素。由于对于相同的θ,空域掩膜是相同的。所以可以在滤波之前将空域掩膜一次求取完成并存储下来,以减少不必要的重复计算。
2、自适应滤波:
对于指纹图像中的点(i,j),假设输入指纹灰度图像为I(x,y),θ为(i,j)点方向场方向垂直的方向,则用上述滤波器滤波如下:
然后按下式求取一个数值:
其中L=12为统计数据区域长度,D=2为统计步长,进行脊线提取:如果F(i,j)>flag(i,j),则(i,j)点位于谷(背景),否则位于脊(前景)。
细节点提取
细节点可分为两种,一种是脊线的端点,另一种是脊线的分岔点,如图2所示。细节点的提取方法我们采用的是基于细化图的方法。分别对前景和背景进行细化,得到两张细化图。最终结果如图11-5、6)所示。
具体的细化方法如下:
对增强后的指纹图像,我们将其二值化(直接选择阈值为128即可)。每个点取值为1或者0,1表示前景;0表示背景。细化的目标就是考察每一个值为1的点,根据其8邻域的取值来决定是否将这个待考察的点置为0(即将该点变成背景),通过对全图的几次遍历,不断将一些前景(值为1)的点变成背景点,从而达到细化的目的。
我们根据待测点8邻域的不同状态来决定待测点的“去”或“留”。这8个邻域点的所有可能取值组合有28=256种(每个点只能取1或者0)。我们将每种可能设定为一条规则对应结果为“1”(保留)或“0”(去除),规则设定的原则是保持原图的骨架。对于指纹脊线细化,我们定义的骨架,可以理解为图像的中轴,例如一个长方形的骨架是它的长方向上的中轴线,圆的骨架是它的圆心,环的骨架是类似圆的封闭曲线,直线的骨架是它自身,孤立点的骨架也是自身。不同应用场合,对骨架的定义可能有不同,我们通过几个例子说明,图8中给出了几个例子,其中:(1)不能删,因为它是个内部点,如果删去,就没有了骨架;(2)不能删,这是一个特殊要求,尽量保留直线;(3)不能删,这点是骨架,删掉后,改变拓扑结构;(4)不能删,因为删掉后,原来相连的部分断开,改变拓扑结构;(5)不能删,因为它是直线的端点;(6)可以删,该点不是骨架;(7)不能删,该点是骨架;(8)可以删,该点不是骨架。我们简单总结一下,有如下的判据:(1)直线端点不能删除;(2)改变拓扑结构的点不能删除,例如内部点不能删除、孤立点不能删除等。
对所有情况按照上面的例子总结,可以得到256个规则,将其结果编码为一张表(其实就是一个一维数组,标记0~255,共256个元素),每个待测点的8邻域的值对应一个0到255的数,将这个数作为索引,查表中对应的值,如果是1表示保留;0表示该点被去掉(即将这个待测点的值置为0)。
索引方法如图7,Aij代表8个邻域中的点,索引定义为:
index=A32×20+A31×21+A21×22+A11×23+A12×24+A13×25+A23×26+A33×27
按照索引值找到表table中对应的元素table[index],其中索引值index的取值范围在[0,255]内的整数,如果table[index]为1,则保留该点(值不变);如果为0,则将该点置0。我们采用的表如图6所示。从图8的八个例子中选出两个作说明如下:
图8-2):中心(待测)点不能删,因为:
index=1×20+0×21+0×22+0×23+1×24+0×25+1×26+0×27=81,
table[81]=1,所以表示该点不能去掉。
图8-8):中心(待测)点可以删,因为:
index=1×20+1×21+0×22+0×23+0×24+0×25+0×26+0×27=3,
table[3]=0,所以表示该点可以去掉。
我们总结一下细化的步骤:
第一步,给出索引方法,例如按照图7中设定的方法;
第二步,根据规则给出索引表,例如按照图6中设定的表;
第三步,遍历全图所有值为1的点,计算索引,判断是否保留;
第四步,如果第三步没有去掉任何点,则下一步,否则重复第三步。
第五步,后处理,我们将在下面详细介绍:
求出细化图后的操作如下:
第一步,按照细化图,初步确定细节点中的端点(本身为1且周围8个点中有且仅有一个点为1)和分岔点(本身为1且周围8个点中有且仅有三个点为1)。
第二步,沿着细节点生长,对细节点进行后处理:
(a),对于端点,如果在其12×12的邻域内有另一个端点的方向与之接近(角度差小于30度),则将这两个端点都去掉;
(b),将形成环形的邻近分叉点连接起来,对于一个分叉点,如果在其12×12的邻域内有另一个分叉点的方向与之接近(角度差小于30度),则将两者都去掉;
(c),去除一些小短棒对应的两个端点,对于一个端点,如果沿着它所在脊线经过12个像素之内就碰到另一个端点,则将两个端点都去掉;
第三步,筛除方向与该点方向场角度差大于30度的特征点
对所有注册指纹进行上述特征提取操作并将所得特征存入数据库,包括细节点的坐标和方向值,混合模型中多项式模型的系数以及点电荷模型中点电荷的电量。
特征比较
首先对申请指纹进行上述的特征提取操作,再将其与数据库中注册指纹的特征进行比较。
细节点比对
细节点的比对过程分为细节点配准和细节点匹配两个步骤。
由于用于比对的两枚指纹间存在旋转和平移,必须利用细节点配准的方法补偿旋转和平移偏差。我们采用的是基于Hough变换的配准方法。简单解释为:将两个指纹的各自的细节点分别构成两个点集(各有M和N个细节点),从两个点集中各选一个细节点分别表示为(x1,y1,θ1)和(x2,y2,θ2),利用它们之间的坐标、方向可以求出一个平移量和旋转量:遍历所有细节点对(共M×N对),将所有的平移和旋转量进行投票,即统计(Δx,Δy,Δθ)出现的次数,得票最高的平移旋转量就是最终使用的平移旋转量,同时记录得票数vote。
根据下面的公式进行点的旋转平移变换:
x″=x′×cos(Δθ)-y′×sin(Δθ)+Δx;
y″=x′×sin(Δθ)-y′×cos(Δθ)+Δy;
其中(x′,y′)是旋转平移前的坐标,(x″,y″)是旋转平移后的坐标。对于有效区域,分别对应变换前的顶点坐标和变换后的顶点坐标;对于细节点,则分别对应配准前和配准后的坐标。
将两枚指纹有效区变换之后就可以计算两枚指纹(记为r,t,并假设r为基准,t向r旋转平移)之间的公共有效区域。求取方法如下:设两幅配准好的指纹有效区域分别为Rr、Rt,则公共有效区域为Rc=Rr∩Rt,其中Rt是由指纹t的未配准的有效区域按上面求得的参数旋转平移得到,实际上是旋转平移了十六个顶点的坐标。
对于这两枚已经配准好的指纹,进行细节点比对。最终得出的是0~1之间的一个数,表示两枚指纹细节点集合的相似度。当两幅配准好的指纹图中的两个细节点距离小于某一阈值(取为8像素)时,认为这两个点比对成功,匹配成功点对计数加1。最终可以求出:
其中count表示比对成功的细节点对数,countr表示指纹r在两幅指纹公共有效区域内的细节点个数,countt表示指纹t在两幅指纹公共有效区域内的细节点个数。Th为经验阈值,取为12。
方向图比对
首先按照基于细节点的对准方法对方向图进行对准。为了设计基于方向图的分类器,需要定义两个方向图之间的距离度量。设Or,Ot分别为两幅已经对准的指纹的方向图,公共有效区域为Rc(与细节点比对所用公共区域相同,不用重复求取),则这两幅方向图的距离为:
其中,|Rc|为公共的有效区域面积,Oz(i,j)(z=r,t)为方向图z中由方向图模型恢复出的点(i,j)的方向,。恢复方法如下:
首先,按照方向场建模中给出的公式:
计算出点(i,j)的R(i,j)、I(i,j),其中各符号意义与前文完全相同,然后根据下式恢复方向场:
f(Or(i,j),Ot(i,j))为度量角度差的函数。选为指数函数:exp(-β×(|Or(x,y)-Ot(x,y)|%90)),其中%表示取余数运算,β=10。
为了与基于细节点的方法作融合,将距离转换为相似度。相似度=1-S(Or,Ot)。
决策融合
在分别利用细节点和方向图对指纹进行比对后,通过分类器融合可以得到最终的识别结果。这两种特征从不同的方面刻画了指纹:细节点刻画了指纹局部的脊线分布特征;方向图刻画了指纹全局的纹线走向。因此它们可以构成对指纹的更好的特征表示。在识别阶段,由它们构造的分类器相辅相成,互为补充,例如:基于方向图的识别,可以克服传统的基于细节点的识别方法因为细节点过少或假点过多而造成的误识别。我们在6616幅指纹数据库上的实验表明,融合可以大幅度提高指纹识别的准确性和鲁棒性。决策融合的具体方法很多,我们采用的融合策略如下。
设采用细节点和方向图进行识别的输出分别为X1,X2(两个数),这两个识别过程可以看为两个分类器,假设它们是相互独立的,即X1,X2相互独立,则它们的联合概率密度可以利用两个分类器的概率密度相乘得到:
P(X1,X2|w1)=P(X1|w1)P(X2|w1);
P(X1,X2|w2)=P(X1|w2)P(X2|w2);
其中,P(X1,X2|w1)表示在样本(X1,X2)(即一个输入指纹与一个参考指纹之间的两个比对结果)属于w1类(即输入指纹与参考指纹实际上属于同一个手指)时的概率,P(X1,X2|w2)表示在样本(X1,X2)属于w2类(即输入指纹与参考指纹实际上属于不同手指)时的概率。P(X1|w1)表示属于w1类的指纹对,用细节点比对结果为X1的概率密度,P(X2|w1)表示属于w1类的指纹对,用方向图比对结果为X2的概率密度,P(X1|w2)表示属于w2类的指纹对,用细节点比对结果为X1的概率密度,P(X2|w2)表示属于w2类的指纹对,用方向图比对结果为X2的概率密度。
我们可以通过一定数量的训练样本,计算出“真实的指纹比对”和“虚假的指纹比对”的概率分布,即P(X1|w1)、P(X2|w1)、P(X1|w2)和P(X2|w2)。方法采用Parzen窗进行非参数估计,窗函数推荐采用高斯窗,对于一维分布,公式如下:
将相似度的[0,1]区间100等分,令上式中的x分别取0,0.01,0.02,…,1(实际计算出的相似度要按照这个精度进行近似),按照上式计算细节点比对相似度的类条件概率密度P(X1|w1)、P(X1|w2)和方向图比对的类条件概率密度P(X2|w1)和P(X2|w2),这四个量计算中存储为四个包含101个元素的数组,用float型(4字节)存储,共需要1616字节。最后写成文件,以用于后面的在线决策融合过程。在线的决策融合只需要从文件中读取相应的数值,计算出联合概率密度即可,不需要在线估计概率密度。
在线应用时,得到两个指纹之间细节点比对的相似度和方向图比对的相似度后,利用事先估计出的P(X1|w1)、P(X1|w2)、P(X2|w1)和P(X2|w2)得到P(X1,X2|w1)和P(X1,X2|w2)。再采用下面的分类器判断这两个指纹是否属于同一手指(即属于w1类还是w2类):
其中λ为似然比阈值,根据实际要求选择。推荐使用25。
实验表明,按照上述参数设置,指纹识别系统的错误接受率(即将其他手指的指纹认为是这个手指的)一般在0.01%附近,而错误拒绝率(将同一手指的指纹认为是其他手指的)在10%-20%之间,比单用细节点比对时可以降低10%左右。λ增大会使FAR减小,同时使FRR增大。实际使用中应适当权衡。
附图说明
图1两枚不同指纹,但细节点比对上25个;
图2是多特征指纹识别系统的组成;
图3是指纹多特征提取的流程;
图4为Sobel算子,1)为水平方向算子,2)为竖直方向算子。
图5为细节点与奇异点的类型,1)为细节点,其中点(1-1)为端点,点(1-2)为分叉点,2)为奇异点类型,点(2-1)为中心点,点(2-2)为三角点;
图6为细化索引表;
图7为细化索引建立方式示意图;
图8是细化的八个例子;
图9是点电荷模型起作用区域,C1,C2表示两个中心点,D1,D2表示两个三角点;
图10是混合模型计算中的中间结果,其中,1)是多项式模型拟合结果,2)是点电荷模型结果,3)是多项式模型与点电荷模型混合的结果;
图11是指纹识别各步骤中间结果,其中,1)是原始指纹图,2)是原始有效区域,3)是用十六边形表示的有效区域,4)是位于有效区域内增强的指纹图(以下各图均在有效区域内),5)是对“脊”(前景)的细化图,6)是对“谷”(背景)的细化图,7)是用基于梯度的方法求得的方向场图,8)是方向场置信度的灰度级表示,灰度级越高(越亮)表示该点方向场置信度越高,9)是用混合模型拟合得出的方向场图,10)是最终求得的细节点在指纹图像中的位置(为突出细节点位置,对指纹图像作了弱化)。
图12是单纯使用细节点和使用多特征的系统性能对比。
具体实施方式
我们的发明已在普通PC计算机上实现,对操作系统没有要求。
本发明的特征在于,它依次含有以下两个阶段:
注册阶段,计算机在离线状态下对所有注册的指纹进行特征提取和存储,这个阶段依次含有以下步骤:
(1).对计算机进行初始化:
设定:用以下多特征表示指纹:
奇异点,即方向场不连续的点,它包含:
中心点:少于三个;
三角点:少于三个;
奇异点的X坐标,Y坐标各用一个字节存放,共12个字节;
细节点,包括它的X、Y坐标和方向角度,每个细节点用3个字节表示,细节点数小于100,最多存入300字节;
方向图,使用混合模型,它含有:
多项式模型部分:用两个二元四次多项式拟合,n=4,每个多项式系数是25个参数,共计50个,用4字节的float型存储,共200字节;
点电荷模型部分,用float型存储,在奇异点数小于6个时,共24字节;
有效区域链码,用十六边形表示指纹有效区域边界,存储16个顶点的X、Y坐标,共32字节;
存储以上四个指纹特征共占用568字节;
在指纹有效区域的检测步骤中,对于已经按4×4大小方格分割的原始指纹图像而言,当以点(i,j)为左上角的一个方格内的灰度均值Iavg(i,j)和方差Var(i,j)处于下述范围内时,该方格为有效,标记为1,否则无效,标记为0,即:
th1<Iavg(i,j)<th2且同时Var(i,j)>th3;
其中th为阈值,th1=20,th2=220,th3=6;
在方向场估计的步骤中,方向场一致性水平的上限值为Tc=1.5;
在方向场建模的步骤中,多项式模型中多项式阶次为4,中心点处点电荷模型有效作用半径为10像素,三角点处点电荷模型有效作用半径为15像素;
在图像增强的步骤中,Gabor滤波器空域表达形式G(x,y,θ)中的参数值δx′=δy′=5.0,f=0.6,空域掩模大小为7×7像素;
(2).计算机通过取指器采集所有注册指纹的原始图像并存储;
(3).检测指纹的有效区域,它依次含有以下步骤:
(3.1)把原始图像分割成大小为4×4像素的方格;
(3.2)计算机按下式计算以点(i,j)为左上角的一个方格内的灰度均值Iavg(i,j)和方差Var(i,j):
其中I(i+x,j+y)为(i+x,j+y)点的图像灰度值;
(3.3)计算机按下式判断上述每一个方格是否有效:
若th1<Iavg(i,j)<th2且同时Var(i,j)>th3,则该方格有效,标记为1,否则为0;
(3.4)消噪声处理:
(3.4.1)对上述图像进行3×3滤波,即对图像上所有的点,检查其3×3邻域内9个点,若只有该点是有效的,而其它8个点是无效的,则该点判断为噪声,标记改为0;若只有该点是无效的,而其他8个点是有效的,则该点标记改为1;
(3.4.2)去掉有效区域中的“洞”:即逐行对上述图像扫描,填补最左边和最右边的有效点之间的所有无效点,把它们的标记为有效;逐列扫描,填补最上边和最
下边的有效点之间的所有无效点,把它们的标记为有效;
这样得到了指纹图像的有效区域,长、宽分别为原图的1/4;
(3.5)求取真实的有效区域的质心(x0,y0):
其中,E代表有效区域,N代表有效区域内的点数;
(3.6)从质心(x0,y0)处等角度地向四周16个方向引射线,求出这些射线与有效区域外边界的交点,并存储;
(4).用基于梯度统计的算法进行方向场估计,它依次含有以下步骤:
(4.1)利用Soble水平方向算子Sx和竖直方向算子Sy求取点(x,y)的灰度梯度:
水平方向:
竖直方向:
I(i,j)为(i,j)点的灰度值;
(4.2)把指纹图划分成大小为
W×
W的方格,
W=7,用下式求取每一方格对应的局部方向θ:
(4.3)计算方向场置信度,取值在[0,1]之间,对于方向场中的每一个点,计算其周围
W×
W大小的一个邻域内方向场的一致性,其中
W=7,即:
其中c(i,j)即点(i,j)的方向场置信度;
(5).用Poincare指数法在方向场上进行奇异点检测:
设:ψx(k)和ψy(k)分别表示以给定点即所求点为中心的半径为8个像素的圆上的第k个点的横、纵坐标,圆上共有Nψ=25个象素点;
则圆上相邻两点k′、k的方向变化为:
其中:δ(k)=O(ψx(k′),ψy(k′))-O(ψx(k),ψy(k));
k′=(k+1)modNψ;
O(·)表示该指纹图像k′或k点的方向场在[0,180)之间;点(i,j)上的Poincare指数可以用下式表示:
当Poincare指数为0时,给定点为普通点;当Poincare指数为1/2时,给定点为中心点;Poincare指数为-1/2时,给定点为三角点;
存储奇异点的检测结果;
(6).建立方向场混合模型,计算混合模型的模型参数,即多项式系数和点电荷电量;
(6.1)对有效区域内所有点,利用公知的加权最小二乘方法,分别最小化 和
,求解出两个二元四次多项式PR(x,y)、PI(x,y)中各项的系数;其中(x,y)是指纹有效区域中任意一点,c(x,y)为点(x,y)的方向场置信度,θ(x,y)为步骤(4)中在(x,y)点方向场估计得出的角度;
(6.2)求解点电荷模型参数:
(6.2.1)利用(6.1)中求出的多项式模型,求出该模型在各奇异点(x0,y0)处的值PR(x0,y0)、PI(x0,y0),然后根据下式计算出点电荷模型的旋转角度θ′(x0,y0):
中心点(x0,y0)附近满足
的点(x,y)上的点电荷模型为:
Q是待求的中心点点电荷电量,R是已经给定的中心点点电荷影响有效半径;
在三角点(x0,y0)附近满足
的点(x,y)上的点电荷模型为:
Q是待求的三角点点电荷电量,R是已经给定的三角点点电荷影响有效半径;
(6.2.2)应用最小二乘法求出各点电荷的电量,即求解下列的优化问题:
其中Ω是点电荷起作用区域的点集合,R(x,y)、I(x,y)是混合模型在点(x,y)的取值,按照如下公式求取:
其中PR(x,y)、PI(x,y)是多项式模型在点(x,y)的取值,H1 (k)(x,y)、H2 (k)(x,y)是第k个奇异点对应的点电荷模型在点(x,y)的取值;αPC (k)(x,y)表示第k个奇异点对应的点电荷模型在点(x,y)处的权重,计算公式为:
R(k)是第k个奇异点对应的点电荷模型的有效半径,(x0 (k),y0 (k))是第k个奇异点的坐标;多项式模型的权重为
(7).用Gabor滤波方法增强图像,其步骤如下:
(7.1)Gabor滤波器空域表达形式为:
θ∈[0,180)为当前点的方向场垂直方向,x,y为掩膜中各点相对于掩膜中心点的坐标,δx′=δy′=5.0,f=0.6,空域掩膜大小为7×7像素;
(7.2)自适应滤波:
假设输入指纹灰度图像为I(x,y),θ为(i,j)点方向场方向垂直的方向,则用上述滤波器滤波如下:
然后按下式求取一个数值:
中L=12为统计数据区域长度,D=2为统计步长,进行脊线提取:如果F(i,j)>flag(i,j),则(i,j)点位于谷,即背景,否则位于脊,即前景;
(8).基于细化图的细节点提取和存储,它依次包含以下步骤:
(8.1)在保持原图的骨架即不改变拓扑结构和不删除直线端点的前提下,根据以待测点为中心的8邻域的不同状态来决定待测点的“去”或“留”,“去”用“0”表示,“留”用“1”表示;
(8.2)建立一维索引表table,标记索引为0~255,共256个元素,每个元素取1表示保留,0表示去掉;
(8.2)遍历有效区域内所有点,考察其8邻域,对所有排列组合通过下面的公式映射到0~255之间:
index=A32×20+A31×21+A21×22+A11×23
+A12×24+A13×25+A23×26+A33×27;
其中,Aij代表8个邻域中的点的值,然后通过查询索引表中索引值为index的元素即table[index],决定该待测点是否保留或者去掉;
(8.4)重复(8.3)直到没有被去掉的点出现;
(8.5)细化后处理:
(8.5.1),按照细化图,初步确定细节点中的端点,即本身为1且周围8个点中有且仅有一个点为1的点;分岔点,即本身为1且周围8个点中有且仅有三个点为1的点;
(8.5.2),沿着细节点生长,对细节点进行后处理:
(8.5.2.1),对于端点,如果在其12×12的邻域内有另一个端点的方向与之接近(角度差小于30度),则将这两个端点都去掉;
(8.5.2.2),将形成环形的邻近分叉点连接起来,对于一个分叉点,如果在其12×12的邻域内有另一个分叉点的方向与之接近(角度差小于30度),则将两者都去掉;
(8.5.2.3),去除小短棒对应的两个端点,对于一个端点,如果沿着它所在脊线经过12个像素之内就碰到另一个端点,则将两个端点都去掉;
(8.5.3),筛除方向与该点方向场角度差大于30度的特征点;
对所有注册指纹进行上述特征提取操作(1)~(8)并将所得特征存入数据库,包括细节点的坐标和方向值,混合模型中多项式模型的系数以及点电荷模型中点电荷的电量;
验证阶段:
(1)~(8)与注册阶段相同
(9)细节点比对
(9.1)用基于Hough变换的西节点配准方法补偿旋转和平移偏差,即把两个指纹各自的细节点分别构成各自含有M和N个细节点的点集,从两个点集中各选一个细节点分别表示为(x1,y1,θ1)和(x2,y2,θ2),利用它们之间的坐标、方向求出一个平移量:一个旋转量:Δθ=θ2-θ1,遍历所有M×N对细节点对,统计(Δx,Δy,Δθ)出现的次数,得票最高的平移旋转量就是最终使用的平移旋转量,同时记录得票数vote;
下面用到的坐标变换都可以由下面的公式实现:
x″=x′×cos(Δθ)-y′×sin(Δθ)+Δx;
y″=x′×sin(Δθ)-y′×cos(Δθ)+Δy;
其中(x′,y′)是旋转平移前的坐标,(x″,y″)是旋转平移后的坐标;
(9.2)公共有效区域提取:
记注册指纹r和申请指纹t配准后的有效区域分别为Rr、Rt,设以r为基准,t向r旋转平移,则公共有效区域为Rc=Rr∩Rt,其中Rt是由指纹t的有效区域按(9.1)求得的参数旋转平移得到,具体是按(9.1)中公式旋转平移十六边形的十六个顶点的坐标实现;
(9.3)按(9.1)中公式旋转平移指纹t中所有细节点的坐标,并将其与指纹r中所有细节点进行比对,记录比对成功即距离小于8像素的细节点的对数;
(9.4)计算指纹r,t细节点集合的相似度Mrt,0<Mrt<1:
其中count表示比对成功的细节点对数,countr表示指纹r在两幅指纹公共有效区域内的细节点个数,countt表示指纹t在两幅指纹公共有效区域内的细节点个数,Th为经验阈值,取为12;
(10)方向图比对:
(10.1)按照(6)中给出的公式:
计算出点(x,y)的R(x,y)、I(x,y),其中各符号意义与(6)完全相同,然后根据如下公式恢复出方向图:
按照细节点配准得出的参数进行方向图的对准,即将指纹t的方向图中各点的坐标按照(9.1)中确定的参数根据(9.1)给出的公式进行变换;
(10.2)设Or,Ot分别为两幅已经对准的指纹的方向图,有效区域即为(9.2)中Rc,不用重复求取;
(10.3)按下式计算两幅方向图Or,Ot的距离:
其中,|Rc|为公共的有效区域面积,Oz(x,y)(z=r,t)为方向图z中点(x,y)的方向,f(Or(x,y),Ot(x,y))为度量角度差的函数,选为指数函数:exp(-β×(|Or(x,y)-Ot(x,y)|%90)),其中%表示取余数运算,β=10;
(10.4)相似度=1-S(Or,Ot);
(11).用分类器进行决策融合:
首先定义w1类事件为输入指纹与参考指纹实际上属于同一个手指的情况;w2类事件为输入指纹与参考指纹实际上属于不同手指的事件;
(11.1)概率密度估计过程:
令:
P(X1|w1)表示:属于w1类的指纹对,用细节点比对结果为X1的概率密度;
P(X2|w1)表示:属于w1类的指纹对,用方向图比对结果为X2的概率密度;
P(X1|w2)表示:属于w2类的指纹对,用细节点比对结果为X1的概率密度;
P(X2|w2)表示:属于w2类的指纹对,用方向图比对结果为X2的概率密度;
其中
,N′为训练样本个数,即相应的比对结果的个数,四组数据数量推荐均在2000以上,这些比对是离线进行的;hN为窗宽,取为0.02;x分别取0,0.01,0.02,…,1,即将相似度的区间[0,1]100等分,分别按照上式计算P(X1|w1)、P(X2|w1)、P(X1|w2)和P(X2|w2),这四个量计算中存储为四个包含101个元素的数组,用float型(4字节)存储,共需要1616字节;最后写成文件;
(11.2)在线决策过程:
按照细节点和方向图比对得出的结果比对的结果(X1′,X2′),从存储概率密度的文件中读取相应的数值,计算出联合概率密度:
P(X1′,X2′|w1)=P(X1′|w1)P(X2′|w1),
P(X1′,X2′|w2)=P(X1′|w2)P(X2′|w2),
运用下述决策规则进行决策:
若
,则判定指纹属于同一手指;
若
,则判定指纹属于不同手指;
其中λ是决策阈值,建议选用25。
Claims (1)
1.指纹多特征识别方法,其特征在于,它依次含有以下两个阶段:
注册阶段,计算机在离线状态下对所有注册的指纹进行特征提取和存储,这个阶段依次含有以下步骤:
(1).对计算机进行初始化:
设定:用以下多特征表示指纹:
奇异点,即方向场不连续的点,它包含:
中心点:少于三个;
三角点:少于三个;
奇异点的X坐标,Y坐标各用一个字节存放,共12个字节;
细节点,包括它的X、Y坐标和方向角度,每个细节点用3个字节表示,细节点数小于100,最多存入300字节;
方向图,使用混合模型,它含有:
多项式模型部分:用两个二元四次多项式拟合,n=4,每个多项式系数是25个参数,共计50个,用4字节的float型存储,共200字节;
点电荷模型部分,用float型存储,在奇异点数小于6个时,共24字节;
有效区域链码,用十六边形表示指纹有效区域边界,存储16个顶点的X、Y坐标,共32字节;
存储以上四个指纹特征共占用568字节;
在指纹有效区域的检测步骤中,对于已经按4×4大小方格分割的原始指纹图像而言,
当以点(i,j)为左上角的一个方格内的灰度均值Iavg(i,j)和方差Var(i,j)处于下述范围内时,该方格为有效,标记为1,否则无效,标记为0,即:
th1<Iavg(i,j)<th2且同时Var(i,j)>th3;
其中th为阈值,th1=20,th2=220,th3=6;
在方向场估计的步骤中,方向场一致性水平的上限值为Tc=1.5;
在方向场建模的步骤中,多项式模型中多项式阶次为4,中心点处点电荷模型有效作用半径为10像素,三角点处点电荷模型有效作用半径为15像素;
在图像增强的步骤中,Gabor滤波器空域表达形式G(x,y,θ)中的参数值
δx′=δy′=5.0,f=0.6,空域掩模大小为7×7像素;
(2).计算机通过取指器采集所有注册指纹的原始图像并存储;
(3).检测指纹的有效区域,它依次含有以下步骤:
(3.1)把原始图像分割成大小为4×4像素的方格;
(3.2)计算机按下式计算以点(i,j)为左上角的一个方格内的灰度均值Iavg(i,j)和方差Var(i,j):
其中I(i+x,j+y)为(i+x,j+y)点的图像灰度值;
(3.3)计算机按下式判断上述每一个方格是否有效:
若th1<Iavg(i,j)<th2且同时Var(i,j)>th3,则该方格有效,标记为1,否则为0;
(3.4)消噪声处理:
(3.4.1)对上述图像进行3×3滤波,即对图像上所有的点,检查其3×3邻域内9个点,若只有该点是有效的,而其它8个点是无效的,则该点判断为噪声,标记改为0;若只有该点是无效的,而其他8个点是有效的,则该点标记改为1;
(3.4.2)去掉有效区域中的“洞”:即逐行对上述图像扫描,填补最左边和最右边的有效点之间的所有无效点,把它们的标记为有效;逐列扫描,填补最上边和最下边的有效点之间的所有无效点,把它们的标记为有效;
这样得到了指纹图像的有效区域,长、宽分别为原图的1/4;
(3.5)求取真实的有效区域的质心(x0,y0):
其中,E代表有效区域,N代表有效区域内的点数;
(3.6)从质心(x0,y0)处等角度地向四周16个方向引射线,求出这些射线与有效区域外边界的交点,并存储;
(4).用基于梯度统计的算法进行方向场估计,它依次含有以下步骤:
(4.1)利用Soble水平方向算子Sx和竖直方向算子Sy求取点(x,y)的灰度梯度:
水平方向:
竖直方向:
I(i,j)为(i,j)点的灰度值;
(4.2)把指纹图划分成大小为
W×
W的方格,
W=7,用下式求取每一方格对应的局部方向θ:
(4.3)计算方向场置信度,取值在[0,1]之间,对于方向场中的每一个点,计算其周围
W×
W大小的一个邻域内方向场的一致性,其中
W=7,即:
其中c(i,j)即点(i,j)的方向场置信度;
(5).用Poincare指数法在方向场上进行奇异点检测:
设:ψx(k)和ψy(k)分别表示以给定点即所求点为中心的半径为8个像素的圆上的第k个点的横、纵坐标,圆上共有Nψ=25个象素点;
则圆上相邻两点k′、k的方向变化为:
其中:δ(k)=O(ψx(k′),ψy(k′))-O(ψx(k),ψy(k));
k′=(k+1)mod Nψ;
O(·)表示该指纹图像k′或k点的方向场在[0,180)之间;点(i,j)上的Poincare指数可以用下式表示:
当Poincare指数为0时,给定点为普通点;当Poincare指数为1/2时,给定点为中心点;Poincare指数为-1/2时,给定点为三角点;
存储奇异点的检测结果;
(6).建立方向场混合模型,计算混合模型的模型参数,即多项式系数和点电荷电量;
(6.1)对有效区域内所有点,利用公知的加权最小二乘方法,分别最小化 和
求解出两个二元四次多项式PR(x,y)、PI(x,y)中各项的系数;其中(x,y)是指纹有效区域中任意一点,c(x,y)为点(x,y)的方向场置信度,θ(x,y)为步骤(4)中在(x,y)点方向场估计得出的角度;
(6.2)求解点电荷模型参数:
(6.2.1)利用(6.1)中求出的多项式模型,求出该模型在各奇异点(x0,y0)处的值PR(x0,y0)、PI(x0,y0),然后根据下式计算出点电荷模型的旋转角度θ′(x0,y0):
中心点(x0,y0)附近满足
的点(x,y)上的点电荷模型为:
Q是待求的中心点点电荷电量,R是已经给定的中心点点电荷影响有效半径;三角点(x0,y0)附近满足
的点(x,y)上的电荷模型为:
Q是待求的三角点点电荷电量,R是已经给定的三角点点电荷影响有效半径;
(6.2.2)应用最小二乘法求出各点电荷的电量,即求解下列的优化问题:
其中Ω是点电荷起作用区域的点集合,R(x,y)、I(x,y)是混合模型在点(x,y)的取值,按照如下公式求取:
其中PR(x,y)、PI(x,y)是多项式模型在点(x,y)的取值,H1 (k)(x,y)、H2 (k)(x,y)是第k个奇异点对应的点电荷模型在点(x,y)的取值;αPC (k)(x,y)表示第k个奇异点对应的点电荷模型在点(x,y)处的权重,计算公式为:
奇异点对应的点电荷模型的有效半径,(x0 (k),y0 (k))是第k个奇异点的坐标;多项式模型的权重为
(7).用Gabor滤波方法增强图像,其步骤如下:
(7.1)Gabor滤波器空域表达形式为: 其中
θ∈[0,180)为当前点的方向场垂直方向,x,y为掩膜中各点相对于掩膜中心点的坐标,δx′=δy′=5.0,f=0.6,空域掩膜大小为7×7像素;
(7.2)自适应滤波:
假设输入指纹灰度图像为I(x,y),θ为(i,j)点方向场方向垂直的方向,则用上述滤波器滤波如下: 其中W=3;
然后按下式求取一个数值:
其中L=12为统计数据区域长度,D=2为统计步长,进行脊线提取:如果F(i,j)>flag(i,j),则(i,j)点位于谷,即背景,否则位于脊,即前景;
(8).基于细化图的细节点提取和存储,它依次包含以下步骤:
(8.1)在保持原图的骨架即不改变拓扑结构和不删除直线端点的前提下,根据以待测点为中心的8邻域的不同状态来决定待测点的“去”或“留”,“去”用“0”表示,“留”用“1”表示;
(8.2)建立一维索引表table,标记索引为0~255,共256个元素,每个元素取1表示保留,0表示去掉;
(8.2)遍历有效区域内所有点,考察其8邻域,对所有排列组合通过下面的公式映射到0~255之间:
index=A32×20+A31×21+A21×22+A11×23+A12×24+A13×25+A23×26+A33×27;
其中,Aij代表8个邻域中的点的值,然后通过查询索引表中索引值为index的元素即table[index],决定该待测点是否保留或者去掉;
(8.4)重复(8.3)直到没有被去掉的点出现;
(8.5)细化后处理:
(8.5.1),按照细化图,初步确定细节点中的端点,即本身为1且周围8个点中有且仅有一个点为1的点;分岔点,即本身为1且周围8个点中有且仅有三个点为1的点;
(8.5.2),沿着细节点生长,对细节点进行后处理:
(8.5.2.1),对于端点,如果在其12×12的邻域内有另一个端点的方向与之接近(角度差小于30度),则将这两个端点都去掉;
(8.5.2.2),将形成环形的邻近分叉点连接起来,对于一个分叉点,如果在其12×12的邻域内有另一个分叉点的方向与之接近(角度差小于30度),则将两者都去掉;
(8.5.2.3),去除小短棒对应的两个端点,对于一个端点,如果沿着它所在脊线经过12个像素之内就碰到另一个端点,则将两个端点都去掉;
(8.5.3),筛除方向与该点方向场角度差大于30度的特征点;
对所有注册指纹进行上述特征提取操作(1)~(8)并将所得特征存入数据库,包括细节点的坐标和方向值,混合模型中多项式模型的系数以及点电荷模型中点电荷的电量;
验证阶段:
(1)~(8)与注册阶段相同
(9)细节点比对
(9.1)用基于Hough变换的西节点配准方法补偿旋转和平移偏差,即把两个指纹各自的细节点分别构成各自含有M和N个细节点的点集,从两个点集中各选一个细节点分别表示为(x1,y1,θ1)和(x2,y2,θ2),利用它们之间的坐标、方向求出一个平移量: 一个旋转量:Δθ=θ2-θ1,遍 历所有M×N对细节点对,统计(Δx,Δy,Δθ)出现的次数,得票最高的平移旋转量就是最终使用的平移旋转量,同时记录得票数vote;
下面用到的坐标变换都可以由下面的公式实现:
x″=x′×cos(Δθ)-y′×sin(Δθ)+Δx;
y″=x′×sin(Δθ)-y′×cos(Δθ)+Δy;
其中(x′,y′)是旋转平移前的坐标,(x″,y″)是旋转平移后的坐标;
(9.2)公共有效区域提取:
记注册指纹r和申请指纹t配准后的有效区域分别为Rr、Rt,设以r为基准,t向r旋转平移,则公共有效区域为Rc=Rr∩Rt,其中Rt是由指纹t的有效区域按(9.1)求得的参数旋转平移得到,具体是按(9.1)中公式旋转平移十六边形的十六个顶点的坐标实现;
(9.3)按(9.1)中公式旋转平移指纹t中所有细节点的坐标,并将其与指纹r中所有细节点进行比对,记录比对成功即距离小于8像素的细节点的对数;
(9.4)计算指纹r,t细节点集合的相似度Mrt,0<Mrt<1:
其中count表示比对成功的细节点对数,countr表示指纹r在两幅指纹公共有效区域内的细节点个数,countt表示指纹t在两幅指纹公共有效区域内的细节点个数,Th为经验阈值,取为12;
(10)方向图比对:
(10.1)按照(6)中给出的公式:
计算出点(x,y)的R(x,y)、I(x,y),其中各符号意义与(6)完全相同,然后根据如下公式恢复出方向图:
按照细节点配准得出的参数进行方向图的对准,即将指纹t的方向图中各点的坐标按照(9.1)中确定的参数根据(9.1)给出的公式进行变换;
(10.2)设Or,Qt分别为两幅已经对准的指纹的方向图,有效区域即为(9.2)中Rc,不用重复求取;
(10.3)按下式计算两幅方向图Or,Ot的距离:
其中,|Rc|为公共的有效区域面积,Oz(x,y)(z=r,t)为方向图z中点(x,y)的方向,f(Or(x,y),Ot(x,y))为度量角度差的函数,选为指数函数:
exp(-β×(|Or(x,y)-Ot(x,y)|%90)),其中%表示取余数运算,β=10;
(10.4)相似度=1-S(Or,Ot);
(11).用分类器进行决策融合:
首先定义w1类事件为输入指纹与参考指纹实际上属于同一个手指的情况;w2类事件为输入指纹与参考指纹实际上属于不同手指的事件;
(11.1)概率密度估计过程:
令:
P(X1|w1)表示:属于w1类的指纹对,用细节点比对结果为X1的概率密度;
P(X2|w1)表示:属于w1类的指纹对,用方向图比对结果为X2的概率密度;
P(X1|w2)表示:属于w2类的指纹对,用细节点比对结果为X1的概率密度;
P(X2|w2)表示:属于w2类的指纹对,用方向图比对结果为X2的概率密度;
其中
N′为训练样本个数,即相应的比对结果的个数,四组数据数量推荐均在2000以上,这些比对是离线进行的;hN为窗宽,取为0.02;x分别取0,0.01,0.02,…,1,即将相似度的区间[0,1]100等分,分别按照上式计算P(X1|w1)、P(X2|w1)、P(X1|w2)和P(X2|w2),这四个量计算中存储为四个包含101个元素的数组,用float型(4字节)存储,共需要1616字节;最后写成文件;
(11.2)在线决策过程:
按照细节点和方向图比对得出的结果比对的结果(X′1,X′2),从存储概率密度的文件中读取相应的数值,计算出联合概率密度:
P(X′1,X′2|w1)=P(X′1|w1)P(X′2|w1),
P(X′1,X′2|w2)=P(X′1|w2)P(X′2|w2),
运用下述决策规则进行决策:
若
则判定指纹属于同一手指;
若
则判定指纹属于不同手指;
其中λ是决策阈值,建议选用25。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CNB2004100093286A CN1327387C (zh) | 2004-07-13 | 2004-07-13 | 指纹多特征识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CNB2004100093286A CN1327387C (zh) | 2004-07-13 | 2004-07-13 | 指纹多特征识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN1595425A true CN1595425A (zh) | 2005-03-16 |
CN1327387C CN1327387C (zh) | 2007-07-18 |
Family
ID=34662443
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CNB2004100093286A Expired - Fee Related CN1327387C (zh) | 2004-07-13 | 2004-07-13 | 指纹多特征识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN1327387C (zh) |
Cited By (41)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1322465C (zh) * | 2005-08-15 | 2007-06-20 | 阜阳师范学院 | 自动指纹识别方法中的图像分割及指纹纹路距离提取方法 |
CN100383808C (zh) * | 2006-06-20 | 2008-04-23 | 北京邮电大学 | 适于硬件加速的指纹粗比对方法及装置 |
CN100412883C (zh) * | 2006-03-23 | 2008-08-20 | 北京中控科技发展有限公司 | 指纹识别方法与系统 |
CN100592323C (zh) * | 2008-07-01 | 2010-02-24 | 山东大学 | 面向图像质量的指纹识别方法 |
CN101145196B (zh) * | 2006-09-13 | 2010-04-07 | 中国科学院自动化研究所 | 基于奇异的拓扑结构的快速指纹识别方法 |
CN101165704B (zh) * | 2006-10-20 | 2010-07-14 | 西安紫牛信息技术有限公司 | 一种复合指纹模板匹配方法 |
CN101329730B (zh) * | 2007-06-21 | 2010-09-15 | 仁宝电脑工业股份有限公司 | 符号影像辨识方法 |
CN101853383A (zh) * | 2010-05-17 | 2010-10-06 | 清华大学 | 高分辨率掌纹方向场提取方法 |
CN101853382A (zh) * | 2010-05-18 | 2010-10-06 | 清华大学 | 一种求取现场指纹方向的方法和装置 |
CN101957980A (zh) * | 2009-07-15 | 2011-01-26 | 索尼公司 | 信息处理装置、块检测方法和程序 |
CN102073856A (zh) * | 2011-01-20 | 2011-05-25 | 邵明省 | 一种基于频率能量差别的指纹识别 |
CN101151624B (zh) * | 2005-03-31 | 2012-05-09 | 德国捷德有限公司 | 指纹验证 |
CN101796400B (zh) * | 2007-09-05 | 2012-08-29 | 史密斯海曼有限公司 | 用于改善x射线检查设备中的物质可识别度的方法和x射线检查设备 |
CN101652730B (zh) * | 2007-01-31 | 2013-03-13 | 霍尼韦尔国际公司 | 过程控制系统中的工业过程的自动闭环识别的设备和方法 |
CN102968614A (zh) * | 2012-10-10 | 2013-03-13 | 清华大学 | 一种纸币上潜指纹的识别方法 |
CN103020610A (zh) * | 2012-12-31 | 2013-04-03 | 清华大学 | 扭曲指纹的自动检测方法 |
CN101308504B (zh) * | 2007-05-16 | 2013-04-10 | 佳能株式会社 | 图像处理设备和图像检索方法 |
CN103077377A (zh) * | 2012-12-31 | 2013-05-01 | 清华大学 | 基于方向场分布的指纹校正方法 |
CN103426157A (zh) * | 2012-05-17 | 2013-12-04 | 成都方程式电子有限公司 | 图像有效区域的扫描方法及装置 |
CN103646401A (zh) * | 2013-12-18 | 2014-03-19 | 上海紫竹数字创意港有限公司 | 基于时间梯度与空间梯度实现视频指纹提取的方法 |
CN103824060A (zh) * | 2014-02-28 | 2014-05-28 | 清华大学 | 指纹细节点的提取方法 |
CN104504739A (zh) * | 2014-12-29 | 2015-04-08 | 北京大唐智能卡技术有限公司 | 指纹数据压缩方法及装置 |
CN104602975A (zh) * | 2015-01-15 | 2015-05-06 | 深圳市三木通信技术有限公司 | 车载智能检测方法及系统 |
CN104866815A (zh) * | 2015-04-23 | 2015-08-26 | 杭州电子科技大学 | 基于图像空域特征的指纹核点精确定位方法 |
WO2015131468A1 (en) * | 2014-03-03 | 2015-09-11 | Tsinghua University | Method and system for estimating fingerprint pose |
CN105260720A (zh) * | 2015-10-19 | 2016-01-20 | 广东欧珀移动通信有限公司 | 指纹识别的方法及装置 |
CN105389564A (zh) * | 2015-11-13 | 2016-03-09 | 广东欧珀移动通信有限公司 | 指纹注册方法、装置及移动终端 |
CN105469022A (zh) * | 2014-09-11 | 2016-04-06 | 联想(北京)有限公司 | 一种指纹注册方法以及指纹注册系统及电子设备 |
CN106156774A (zh) * | 2016-05-30 | 2016-11-23 | 友达光电股份有限公司 | 影像处理方法及影像处理系统 |
CN106295539A (zh) * | 2016-08-03 | 2017-01-04 | 乐视控股(北京)有限公司 | 指纹识别方法、指纹识别装置和终端设备 |
CN106326829A (zh) * | 2015-06-30 | 2017-01-11 | 三星电子株式会社 | 检测虚假指纹的方法和设备以及识别指纹的方法和设备 |
CN106529389A (zh) * | 2015-09-10 | 2017-03-22 | 富士通株式会社 | 生物认证装置和生物认证方法 |
CN106557748A (zh) * | 2016-11-21 | 2017-04-05 | 成都艾德沃传感技术有限公司 | 指纹识别处理方法及装置 |
CN106851369A (zh) * | 2017-01-07 | 2017-06-13 | 广州博冠光电技术有限公司 | 一种基于网络电视的信息交互方法及其信息交互系统 |
CN107851313A (zh) * | 2015-07-31 | 2018-03-27 | 株式会社Dds | 信息处理程序及信息处理装置 |
CN108268836A (zh) * | 2017-12-30 | 2018-07-10 | 桂林理工大学 | 自动指纹分类方法 |
CN108701383A (zh) * | 2016-03-03 | 2018-10-23 | 维普公司 | 抗攻击生物识别授权装置 |
CN110084102A (zh) * | 2019-03-15 | 2019-08-02 | 上海大学 | 一种基于方向场的形变指纹检测方法 |
CN110291538A (zh) * | 2017-02-16 | 2019-09-27 | 国际商业机器公司 | 过滤图像分类输出分布的图像识别 |
CN113469920A (zh) * | 2021-09-02 | 2021-10-01 | 中国建筑第五工程局有限公司 | 用于智能化设备管理的图像处理方法及系统 |
CN113724435A (zh) * | 2020-05-25 | 2021-11-30 | 上海迎课松数字科技有限公司 | 一种基于指纹识别的投票管理系统 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101303729B (zh) * | 2008-07-01 | 2010-06-02 | 山东大学 | 一种新的指纹奇异点检测方法 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1163669A (zh) * | 1995-10-05 | 1997-10-29 | 富士通电装株式会社 | 指纹记录方法和指纹检验装置 |
US6072895A (en) * | 1996-12-13 | 2000-06-06 | International Business Machines Corporation | System and method using minutiae pruning for fingerprint image processing |
CN1229755C (zh) * | 2003-01-06 | 2005-11-30 | 南京大学 | 验证模式下的自动指纹识别技术 |
-
2004
- 2004-07-13 CN CNB2004100093286A patent/CN1327387C/zh not_active Expired - Fee Related
Cited By (57)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101151624B (zh) * | 2005-03-31 | 2012-05-09 | 德国捷德有限公司 | 指纹验证 |
CN1322465C (zh) * | 2005-08-15 | 2007-06-20 | 阜阳师范学院 | 自动指纹识别方法中的图像分割及指纹纹路距离提取方法 |
CN100412883C (zh) * | 2006-03-23 | 2008-08-20 | 北京中控科技发展有限公司 | 指纹识别方法与系统 |
CN100383808C (zh) * | 2006-06-20 | 2008-04-23 | 北京邮电大学 | 适于硬件加速的指纹粗比对方法及装置 |
CN101145196B (zh) * | 2006-09-13 | 2010-04-07 | 中国科学院自动化研究所 | 基于奇异的拓扑结构的快速指纹识别方法 |
CN101165704B (zh) * | 2006-10-20 | 2010-07-14 | 西安紫牛信息技术有限公司 | 一种复合指纹模板匹配方法 |
CN101652730B (zh) * | 2007-01-31 | 2013-03-13 | 霍尼韦尔国际公司 | 过程控制系统中的工业过程的自动闭环识别的设备和方法 |
CN101308504B (zh) * | 2007-05-16 | 2013-04-10 | 佳能株式会社 | 图像处理设备和图像检索方法 |
CN101329730B (zh) * | 2007-06-21 | 2010-09-15 | 仁宝电脑工业股份有限公司 | 符号影像辨识方法 |
CN101796400B (zh) * | 2007-09-05 | 2012-08-29 | 史密斯海曼有限公司 | 用于改善x射线检查设备中的物质可识别度的方法和x射线检查设备 |
CN100592323C (zh) * | 2008-07-01 | 2010-02-24 | 山东大学 | 面向图像质量的指纹识别方法 |
CN101957980A (zh) * | 2009-07-15 | 2011-01-26 | 索尼公司 | 信息处理装置、块检测方法和程序 |
CN101957980B (zh) * | 2009-07-15 | 2013-03-13 | 索尼公司 | 信息处理装置和块检测方法 |
CN101853383B (zh) * | 2010-05-17 | 2012-09-05 | 清华大学 | 高分辨率掌纹方向场提取方法 |
CN101853383A (zh) * | 2010-05-17 | 2010-10-06 | 清华大学 | 高分辨率掌纹方向场提取方法 |
CN101853382A (zh) * | 2010-05-18 | 2010-10-06 | 清华大学 | 一种求取现场指纹方向的方法和装置 |
CN102073856A (zh) * | 2011-01-20 | 2011-05-25 | 邵明省 | 一种基于频率能量差别的指纹识别 |
CN103426157A (zh) * | 2012-05-17 | 2013-12-04 | 成都方程式电子有限公司 | 图像有效区域的扫描方法及装置 |
CN103426157B (zh) * | 2012-05-17 | 2016-08-31 | 成都方程式电子有限公司 | 图像有效区域的扫描方法及装置 |
CN102968614A (zh) * | 2012-10-10 | 2013-03-13 | 清华大学 | 一种纸币上潜指纹的识别方法 |
CN102968614B (zh) * | 2012-10-10 | 2015-08-12 | 清华大学 | 一种纸币上潜指纹的识别方法 |
CN103077377A (zh) * | 2012-12-31 | 2013-05-01 | 清华大学 | 基于方向场分布的指纹校正方法 |
CN103077377B (zh) * | 2012-12-31 | 2015-07-29 | 清华大学 | 基于方向场分布的指纹校正方法 |
CN103020610A (zh) * | 2012-12-31 | 2013-04-03 | 清华大学 | 扭曲指纹的自动检测方法 |
CN103646401A (zh) * | 2013-12-18 | 2014-03-19 | 上海紫竹数字创意港有限公司 | 基于时间梯度与空间梯度实现视频指纹提取的方法 |
CN103646401B (zh) * | 2013-12-18 | 2016-09-14 | 上海紫竹数字创意港有限公司 | 基于时间梯度与空间梯度实现视频指纹提取的方法 |
CN103824060A (zh) * | 2014-02-28 | 2014-05-28 | 清华大学 | 指纹细节点的提取方法 |
WO2015131468A1 (en) * | 2014-03-03 | 2015-09-11 | Tsinghua University | Method and system for estimating fingerprint pose |
CN105469022B (zh) * | 2014-09-11 | 2019-09-24 | 联想(北京)有限公司 | 一种指纹注册方法以及指纹注册系统及电子设备 |
CN105469022A (zh) * | 2014-09-11 | 2016-04-06 | 联想(北京)有限公司 | 一种指纹注册方法以及指纹注册系统及电子设备 |
CN104504739A (zh) * | 2014-12-29 | 2015-04-08 | 北京大唐智能卡技术有限公司 | 指纹数据压缩方法及装置 |
CN104602975A (zh) * | 2015-01-15 | 2015-05-06 | 深圳市三木通信技术有限公司 | 车载智能检测方法及系统 |
CN104866815A (zh) * | 2015-04-23 | 2015-08-26 | 杭州电子科技大学 | 基于图像空域特征的指纹核点精确定位方法 |
CN104866815B (zh) * | 2015-04-23 | 2018-11-30 | 杭州电子科技大学 | 基于图像空域特征的指纹核点精确定位方法 |
US11295111B2 (en) | 2015-06-30 | 2022-04-05 | Samsung Electronics Co., Ltd. | Method and apparatus for detecting fake fingerprint, and method and apparatus for recognizing fingerprint |
CN106326829B (zh) * | 2015-06-30 | 2021-09-28 | 三星电子株式会社 | 检测虚假指纹的方法和设备以及识别指纹的方法和设备 |
CN106326829A (zh) * | 2015-06-30 | 2017-01-11 | 三星电子株式会社 | 检测虚假指纹的方法和设备以及识别指纹的方法和设备 |
CN107851313B (zh) * | 2015-07-31 | 2021-04-27 | 株式会社Dds | 计算机可读介质及信息处理装置 |
CN107851313A (zh) * | 2015-07-31 | 2018-03-27 | 株式会社Dds | 信息处理程序及信息处理装置 |
CN106529389A (zh) * | 2015-09-10 | 2017-03-22 | 富士通株式会社 | 生物认证装置和生物认证方法 |
CN105260720B (zh) * | 2015-10-19 | 2017-02-22 | 广东欧珀移动通信有限公司 | 指纹识别的方法及装置 |
CN105260720A (zh) * | 2015-10-19 | 2016-01-20 | 广东欧珀移动通信有限公司 | 指纹识别的方法及装置 |
CN105389564B (zh) * | 2015-11-13 | 2019-05-10 | Oppo广东移动通信有限公司 | 指纹注册方法、装置及移动终端 |
CN105389564A (zh) * | 2015-11-13 | 2016-03-09 | 广东欧珀移动通信有限公司 | 指纹注册方法、装置及移动终端 |
CN108701383A (zh) * | 2016-03-03 | 2018-10-23 | 维普公司 | 抗攻击生物识别授权装置 |
CN106156774A (zh) * | 2016-05-30 | 2016-11-23 | 友达光电股份有限公司 | 影像处理方法及影像处理系统 |
CN106156774B (zh) * | 2016-05-30 | 2019-12-17 | 友达光电股份有限公司 | 影像处理方法及影像处理系统 |
CN106295539A (zh) * | 2016-08-03 | 2017-01-04 | 乐视控股(北京)有限公司 | 指纹识别方法、指纹识别装置和终端设备 |
CN106557748A (zh) * | 2016-11-21 | 2017-04-05 | 成都艾德沃传感技术有限公司 | 指纹识别处理方法及装置 |
CN106851369A (zh) * | 2017-01-07 | 2017-06-13 | 广州博冠光电技术有限公司 | 一种基于网络电视的信息交互方法及其信息交互系统 |
CN110291538A (zh) * | 2017-02-16 | 2019-09-27 | 国际商业机器公司 | 过滤图像分类输出分布的图像识别 |
CN110291538B (zh) * | 2017-02-16 | 2023-05-16 | 国际商业机器公司 | 用于管理图像识别的方法和系统 |
CN108268836A (zh) * | 2017-12-30 | 2018-07-10 | 桂林理工大学 | 自动指纹分类方法 |
CN110084102A (zh) * | 2019-03-15 | 2019-08-02 | 上海大学 | 一种基于方向场的形变指纹检测方法 |
CN113724435A (zh) * | 2020-05-25 | 2021-11-30 | 上海迎课松数字科技有限公司 | 一种基于指纹识别的投票管理系统 |
CN113469920B (zh) * | 2021-09-02 | 2021-11-19 | 中国建筑第五工程局有限公司 | 用于智能化设备管理的图像处理方法及系统 |
CN113469920A (zh) * | 2021-09-02 | 2021-10-01 | 中国建筑第五工程局有限公司 | 用于智能化设备管理的图像处理方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN1327387C (zh) | 2007-07-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN1595425A (zh) | 指纹多特征识别方法 | |
CN100347719C (zh) | 基于密度图模型的指纹识别方法 | |
CN1159673C (zh) | 从图像中提取管理信息的设备与方法 | |
CN1156791C (zh) | 模式识别设备与方法 | |
CN1161687C (zh) | 手写体匹配技术 | |
CN1305002C (zh) | 多注册指纹融合方法 | |
CN1140878C (zh) | 字符识别方法,修正方法及字符识别装置 | |
CN1588424A (zh) | 基于断纹检测的指纹识别方法 | |
CN1213592C (zh) | 采用自适应二值化的图象处理方法和设备 | |
CN1324521C (zh) | 用于识别图象字符的预处理设备和方法 | |
CN1249046A (zh) | 利用指纹及类似印痕的流线比较和解释的身份验证系统和方法 | |
CN1269068C (zh) | 标题抽取设备及标题抽取方法 | |
CN1369856A (zh) | 图像处理方法和装置 | |
CN1794266A (zh) | 生物特征融合的身份识别和认证方法 | |
CN1973757A (zh) | 基于舌象特征的病证计算机分析系统 | |
CN1818927A (zh) | 指纹识别方法与系统 | |
CN1596420A (zh) | 用于学习模式分类和判定值估计的方法和装置 | |
CN1607551A (zh) | 基于图像的超现实主义三维脸部建模的方法和设备 | |
CN1664846A (zh) | 基于统计结构特征的联机手写汉字识别方法 | |
CN1492661A (zh) | 2维码读取装置和读取方法、便携终端及数字照相机 | |
CN1741035A (zh) | 印刷体阿拉伯字符集文本切分方法 | |
CN1202065A (zh) | 图像检测方法、图像检测装置、图像处理方法、图像处理装置以及媒体 | |
CN1940965A (zh) | 信息处理设备及其控制方法 | |
CN1839410A (zh) | 图像处理设备、摄像设备、图像处理方法 | |
CN1147116A (zh) | 模式识别方法和系统以及模式数据处理系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20070718 Termination date: 20190713 |