CN114782715B - 一种基于统计信息的静脉识别方法 - Google Patents
一种基于统计信息的静脉识别方法 Download PDFInfo
- Publication number
- CN114782715B CN114782715B CN202210367828.5A CN202210367828A CN114782715B CN 114782715 B CN114782715 B CN 114782715B CN 202210367828 A CN202210367828 A CN 202210367828A CN 114782715 B CN114782715 B CN 114782715B
- Authority
- CN
- China
- Prior art keywords
- matching
- vein image
- global
- feature
- point set
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 210000003462 vein Anatomy 0.000 title claims abstract description 135
- 238000000034 method Methods 0.000 title claims abstract description 69
- 238000013507 mapping Methods 0.000 claims abstract description 34
- 238000012216 screening Methods 0.000 claims abstract description 16
- 238000004422 calculation algorithm Methods 0.000 claims description 9
- 239000011159 matrix material Substances 0.000 claims description 8
- 239000013598 vector Substances 0.000 claims description 7
- 238000007781 pre-processing Methods 0.000 claims description 5
- 238000001914 filtration Methods 0.000 claims description 2
- 238000010606 normalization Methods 0.000 claims description 2
- 230000000694 effects Effects 0.000 abstract description 6
- 238000004364 calculation method Methods 0.000 description 5
- 230000000052 comparative effect Effects 0.000 description 3
- 238000010845 search algorithm Methods 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- NAWXUBYGYWOOIX-SFHVURJKSA-N (2s)-2-[[4-[2-(2,4-diaminoquinazolin-6-yl)ethyl]benzoyl]amino]-4-methylidenepentanedioic acid Chemical compound C1=CC2=NC(N)=NC(N)=C2C=C1CCC1=CC=C(C(=O)N[C@@H](CC(=C)C(O)=O)C(O)=O)C=C1 NAWXUBYGYWOOIX-SFHVURJKSA-N 0.000 description 2
- 230000001186 cumulative effect Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000001629 suppression Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000005764 inhibitory process Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000011426 transformation method Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/20—Image enhancement or restoration using local operators
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/40—Image enhancement or restoration using histogram techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30101—Blood vessel; Artery; Vein; Vascular
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明提供一种基于统计信息的静脉识别方法,该识别方法通过计算偏移直方图极值能够高效获得全局偏移,选取全局偏移一定距离范围内的匹配组(特征点对),筛选出的匹配组的置信度更高,应对静脉图像偏移的场景,提升了识别的准确性。该识别方法还可以同时采用基于映射一致性的局部匹配筛除方法,将图像划分成多个网格,同一网格内的特征点,它们在匹配点大概率应该也落在同一网格,而不同静脉图像不具备这一特点;定义映射一致性强度,通过阈值保留映射一致性较高的匹配组,使得误匹配点对配被筛除,降低了误识率。采用本发明的识别方法误识率低,识别效果好。
Description
技术领域
本发明属于生物静脉识别、图像匹配技术领域,具体涉及一种基于统计信息的静脉识别方法,广泛应用于身份认证等场景。
背景技术
手指或者手掌静脉有独特的静脉模式,在体内发现并且极难伪造。红外线灯的使用允许进行非侵入性、非接触式成像,确保用户体验既方便又干净。如采用远距离无接触采集静脉,适用于对于无接触的场景应用。静脉识别系统最主要的技术点聚焦在特征提取和匹配上,先从静脉图像中检测特征点,在增强图中计算每个点的特征描述符,根据特征描述符相似程度寻找每个特征点在另一个图中对应的特征点,然后根据匹配程度判断静脉是否识别成功。
由于图像采集时候,手指或手掌位置发生偏移、旋转,采集角度不同,甚至不同时刻采集动作的不同,静脉有形变的情况,影响算法识别效果。为应对这些问题,除了在特征提取阶段采用稳健的描述符,在匹配阶段,基于特征点的匹配方法一般由邻域最近点搜索(Local Closest Point Search,LNNS)算法提取匹配点,相较于全局最近点搜索方法,邻域最近点搜索算法考虑了图像局部区域匹配概率更大的因素,只遍历邻域范围内的特征点,也提高了匹配速度。
基于比式判别法(Ratio Test),是一种局部匹配方法,特征点的若干匹配点,选择最近的距离除以次近的距离小于某个阈值,则接受这一对匹配组,该方法能有效剔除误匹配,但对于特征点稀疏的场景并不适用。
基于全局变换的方法,该方法假设的整体的映射关系是存在的,认为待匹配的所有点都满足一种变换或者映射关系,使用该方法能有效应对图像偏移问题。全局变换的变换关系的计算一般采用随机抽样一致算法(Random Sample Consensus,RANSAC)及其各种改进算法,但RANSAC在计算过程中需要迭代剔除局外点,全局性较差,对图像的识别效果较差,识别率较低。但是在局部的映射关系有可能是相差很大,这是由于形变、采集角度等问题,由于本发明描述的静脉图像是只有静脉和背景、尺度一致的图像,如果只采取局部匹配没有全局约束,会带来局部区域之间映射关系差距大,识别效果差。
发明内容
为解决现有技术中存在的问题,本发明提供一种基于统计信息的静脉识别方法,该识别方法能够有效应对图像偏移和形变场景,降低拒真率和误识率。
一种基于统计信息的静脉识别方法,包括以下步骤:
(1)分别提取源静脉图像和目标静脉图像的特征点和增强图,得到源特征点集和目标特征点集;
(2)计算两个特征点集中所有特征点的特征描述符,分别得到源描述符集合和目标描述符集合;
(3)利用邻域最近点搜索算法,筛选出两个特征点集中特征描述符最相似的特征点对,得到候选匹配点集;
(4)采用基于偏移直方图的全局匹配方法对候选匹配点集进行筛选,得到全局匹配点集;
(5)根据全局匹配点集计算源静脉图像和目标静脉图像的匹配分数,进而判断二者是否匹配成功。
作为优选,所述源静脉图像和目标静脉图像为已经去除边缘区域且尺度一直的预处理后的静脉图像,其中预处理包括先后进行的灰度值归一化和高斯滤波。
作为优选,源静脉图像和目标静脉图像为手背静脉图像、掌静脉图像或指静脉图像。静脉图像可以由静脉采集设备采集得到。
作为优选,步骤(1)中,利用Hessian矩阵提取静脉图像的特征点和增强图,其中Hessian矩阵由静脉图像中每个像素值的二阶偏导组成。
作为进一步优选,以任一静脉图像作为原图,对其中的每个像素值求二阶偏导并组成Hessian矩阵H(x,y),表达式如下:
根据公式(2)求解H(x,y)的特征值λ1、λ2:
其中,Diag(H)表示对角化,且λ1>λ2。
根据特征值λ2生成图A,规则如下:
对于每个像素值位置,若根据公式(2)求解得到的λ2>0,则该像素取值为λ2;否则该像素取值为0。
根据特征值λ1生成图B,规则如下:
对于每个像素值位置,若根据公式(2)求解得到的λ1>0,则该像素取值为λ1;否则该像素取值为0,生成的图B即为增强图。
在图A中通过非极大值抑制(Non-Maximum Suppression,NMS)后,选取局部邻域极大值的点作为特征点,记录下其坐标(x,y),依次保存在一个集合中;提取出所有特征点,得到特征点集p(x,y)。
按照上述方式,分别求得源静脉图像和目标静脉图像的特征点和增强图,得到源特征点集和目标特征点集,并分别记为pS(x,y)和pD(x,y)。
作为优选,步骤(2)中的特征描述符为方向梯度直方图(Histograms of OrientedGradients,Hog)特征描述符。
Hog特征描述符是一个向量,向量维度和特征点(x,y)在增强图B相同坐标下的邻域大小和方向相关,利用该邻域信息计算源静脉图像所有特征点的Hog特征描述符,得到源描述符集合,记作hS(x,y)。
按照同样的方式得到目标待匹配静脉图像的描述符集合(目标描述符集合),记作hD(x,y)。需要注意的是描述符集合和特征点集合一一对应。
作为优选,步骤(3)具体包括:
选取源描述符集合hS(x,y)中任一未遍历特征描述符,在目标描述符集合hD(x,y)中找出与该未遍历特征描述符的向量欧氏距离最近的特征描述符,该未遍历特征描述符与找到的特征描述符分别对应的两个特征点集(pS(x,y)和pD(x,y))中的两个特征点即构成一个特征点对(s,d),其中,s记作(xs,ys)为pS(x,y)中的一个特征点的坐标,d记作(xd,yd)为pD(x,y)中的一个特征点的坐标;
遍历源描述符集合hS(x,y)中的所有特征描述符,找出所有的特征点对,所有的s按顺序组成源候选匹配点集S(x,y),所有的d按顺序组成目标候选匹配点集D(x,y),源候选匹配点集S(x,y)和目标候选匹配点集D(x,y)共同组成候选匹配点集。
作为优选,步骤(4)具体包括:
设计并初始化源静脉图像和目标静脉图像的偏移直方图,计算出候选匹配点集中每组特征点对的偏移,根据满足阈值要求的偏移获取全局偏移直方图的索引,得到全局偏移直方图;
根据全局偏移直方图数值最大时对应的索引,计算全局偏移;
对得到的每组特征点对的偏移和全局偏移进行全局偏移阈值条件判断,根据判断结果筛选出全局匹配点集。其中,全局匹配点集包括源全局匹配点集S'(x,y)和目标全局匹配点集D'(x,y)。
具体操作如下:
设静脉图像尺寸宽度为imgW,高度为imgH;设置统计偏移直方图V,其中,偏移直方图V的宽度为imgW+1,高度为imgH+1,初始化V元素的数值为0。
按顺序取出候选匹配点集S(x,y)和D(x,y)中未遍历的特征点对,按照公式(3)计算该特征点对的偏移(dx,dy):
若求得的(dx,dy)满足如下设定阈值(thx,thy)要求:
其中,/> 表示向下取整;
则根据(dx,dy)获得V的索引并按照公式(4)进行累加:
V(dx+thx,dy+thy)=V(dx+thx,dy+thy)+1 (4)
若不满足上述阈值(thx,thy)要求,则计算下一组特征点对的偏移,并进行上述阈值要求判断。
遍历所有候选匹配点集中的特征点对,此时全局的偏移直方图V统计完毕,得到更新的全局偏移直方图V。
遍历全局偏移直方图V,根据其最大数值时对应的索引(xθ,yθ),按照公式(5)计算全局偏移(gxθ,gyθ):
其中,S1=[0,imgW+1),S2=[0,imgH+1)。
遍历候选匹配点集S(x,y)和D(x,y),依次取出任一未遍历特征点对(s,d),判断该特征点对(s,d)的(dx,dy)和(gxθ,gyθ)是否满足公式(6)的阈值条件:
其中,threax,threay为设定的全局偏移阈值。
若(dx,dy)和(gxθ,gyθ)满足公式(6)的阈值条件,则认为(s,d)有效,并将其对应的两个特征点分别存入两个新的集合中;
遍历候选匹配点集S(x,y)和D(x,y)中所有的特征点对,得到两个新的特征点集合,即源全局匹配点集S'(x,y)和目标全局匹配点集D'(x,y)。
为了进一步提高图像的识别率,作为优选,步骤(4)中,得到全局匹配点集后,采用基于映射一致性的局部匹配方法对全局匹配点集中的特征点对进行筛选,得到局部匹配点集;
步骤(5)中根据得到的局部匹配点集计算源静脉图像和目标静脉图像的匹配分数,进而判断二者是否匹配成功。其中,局部匹配点集包括源局部匹配点集和目标局部匹配点集。
作为进一步优选,基于映射一致性的局部匹配方法包括:
分别将源静脉图像和目标静脉图像进行网格划分,根据各自特征点坐标计算出对应的网格索引,统计匹配网格索引图,并计算出匹配网格索引图中的最大值和累计值;
定义映射一致性强度为求得的最大值和累计值的比值,对比该比值与设定映射强度阈值的大小,根据对比结果对全局匹配点集中的特征点对进行筛选,得到局部匹配点集。
具体操作如下:
设置网格宽度cellW和高度cellH,计算图像网格数量cellNum,计算公式如式(7),其中cellNumX表示x轴网格划分数量,cellNumY表示y轴网格划分数量,设计匹配网格索引图(Cell Index Map,CIM),其中,CIM的宽度和长度都是cellNum,数值初始化为0;
依次取出全局匹配点集S'(x,y)和D'(x,y)中的任一未遍历特征点对(s,d),按照公式(8)计算出该特征点对(s,d)在CIM中的索引位置(is,id):
按照公式(9)将CIM对应索引位置数据累加:
CIM(is,id)=CIM(is,id)+1 (9)
重复上述操作,直至全局匹配点集中所有的特征点对遍历完毕。
取目标全局匹配点集D'(x,y)中任一未遍历特征点d=(xd,yd),利用公式(8)求出id=idθ,当CIM满足id=idθ时,根据公式(10)计算出CIM的最大值cellMax:
其中,Q=[0,cellNum)。
按照公式(11)计算CIM的累计值cellSum:
其中,Q=[0,cellNum)。
定义映射一致性强度为CIM的最大值cellMax和累计值cellSum的比值,设置阈值strength,若当前遍历特征点d=(xd,yd)的映射一致性强度满足式(12)时:
则当前遍历特征点d=(xd,yd)所对应的特征点对(s,d)为一组有效匹配组,将对应的s=(xs,ys)加入到源局部匹配点集S”(x,y)中,d=(xd,yd)加入到目标匹配点集D”(x,y)中,得到局部匹配点集;
按照上述步骤遍历D'(x,y)中所有特征点,得到最终的源局部匹配点集S”(x,y)和目标局部匹配点集D”(x,y)。
作为优选,步骤(5)的具体操作包括:
统计全局匹配点集中特征点对的数量和源静脉图像的特征点集(源特征点集)中特征点的数量,定义全局匹配点集中特征点对的数量与源静脉图像的特征点集中特征点的数量的比值为匹配分数;
判断该匹配分数是否满足设定阈值要求,进而判断源静脉图像和目标静脉图像是否匹配成功。
其中,全局匹配点集中特征点对的数量可以采用源全局匹配点集S'(x,y)或目标全局匹配点集D'(x,y)中的特征点的数量|S'(x,y)|或|D'(x,y)|,源特征点集pS(x,y)中的特征点数量记为|pS(x,y)|,则源静脉图像与目标静脉图像的匹配分数score的表达式如下:
或/>
设定匹配分数阈值gate,当得到的score满足:score≥gate时,判定源静脉图像与目标静脉图像匹配成功;否则,则匹配失败。
如果得到全局匹配点集后,采用基于映射一致性的局部匹配方法对全局匹配点集中的特征点对进行进一步筛选,则以局部匹配点集中特征点对的数量(源局部匹配点集S”(x,y)或目标局部匹配点集D”(x,y)中的特征点的数量|S”(x,y)|或|D”(x,y)|)代替全局匹配点集中特征点对的数量来计算匹配分数score,匹配分数score的表达式如下:
或/>
作为具体优选,一种基于统计信息的静脉识别方法,包括以下步骤:
1)静脉图像的预处理;
2)特征提取,利用Hessian矩阵提取特征点并计算特征描述符;
3)利用邻域最邻近搜索算法得到初始匹配候选点集,再采用基于偏移直方图的全局匹配方法筛选匹配点集;
4)利用匹配点对邻域内的点集具备相似的映射关系的特点,提出基于映射一致性的局部匹配方法,筛选出最终的匹配点集;
5)计算匹配分数判断当前静脉图像是否匹配成功。
本发明提出的全局匹配方法能够计算得到全局偏移,利用该方法能够有效解决静脉图像偏移导致的错拒问题。本发明提出的映射一致性的局部匹配方法能有效降低误识别率。将两种方法相结合应用于静脉图像识别中,能够有效降低误识率,提高识别效果。
与现有技术相比,本发明的有益效果为:
1、本发明的基于统计信息的静脉识别方法,采用基于偏移直方图的全局匹配筛除方法,相同人的静脉图像的匹配组应该具备相似的偏移方向。利用偏移直方图最大值的索引位置计算全局偏移,选取全局偏移一定距离范围内的匹配组(特征点对),筛选出的匹配组的置信度更高,应对静脉图像偏移的场景,提升了识别的准确性。
2、本发明的基于统计信息的静脉识别方法,同时采用基于映射一致性的局部匹配筛除方法,静脉图像由于自身形变,不同角度、不同时刻采集等原因,使得匹配组(特征点对)的映射关系不尽相同,但在局部一个小范围内,近似具有一致的映射关系。利用这一理论,将图像划分成多个网格,同一网格内的特征点,它们在匹配点大概率应该也落在同一网格,而不同静脉图像不具备这一特点。定义映射一致性强度,通过阈值保留映射一致性较高的匹配组,使得误匹配点对配被筛除,降低了误识率。
3、本发明的基于统计信息的静脉识别方法,计算偏移直方图极值能够高效获得全局偏移,相较于RANSAC不需要迭代剔除局外点,能够充分利用所有的匹配点对,更具备全局性;而利用局部映射一致性计算映射强度,能很好判断局部区域的匹配关系是否合理,保留符合局部映射关系的匹配点对(特征点对),降低误识率;全局和局部匹配算法的结合可以获得更优的识别效果。
附图说明
图1为本发明实施例的基于统计信息的静脉识别方法的流程图;
图2为本发明实施例中基于偏移直方图的全局匹配方法的流程图;
图3为本发明实施例中基于映射一致性的局部匹配方法的流程图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。此外,下面所描述的本发明各个实施方式中所涉及到的技术特征只要彼此间不构成冲突就可以相互组合。
实施例1
一种基于统计信息的静脉特征识别方法,主要步骤如图1所示,包括以下步骤:
1]利用静脉采集设备采集静脉图像,本实施例以手指静脉图像为例。提取采集到的图像(源静脉图像和目标静脉图像(图中显示为目标待配准静脉图像))的手指边缘,只保留感兴趣区域ROI,然后对ROI图像进行预处理,将原始图像数据归一化到0到255之间,然后5*5的高斯核对数据进行高斯平滑处理,最后得到大小为imgH*imgW的图像,imgH和imgW分别代表处理后图像的高度和宽度,本实施例中手指静脉图像的尺寸为64*128;
2]预处理过后的静脉图像,利用Hessian矩阵提取特征点和生成增强图,并计算Hog特征描述符,算法具体实现如下:
2.1]预处理后的静脉图像的像素值的二阶偏导组成Hessina矩阵H(x,y),如式(1)所示:
根据式(2)求解H(x,y)的特征值λ1、λ2:
其中,Diag(H)表示对角化,且λ1>λ2。
根据特征值λ2生成图A,规则如下:
对于每个像素值位置,若根据公式(2)求解得到的λ2>0,则该像素取值为λ2;否则该像素取值为0。
根据特征值λ1生成图B,规则如下:
对于每个像素值位置,若根据公式(2)求解得到的λ1>0,则该像素取值为λ1;否则该像素取值为0,生成的图B即为增强图。
2.2]在A图中通过非极大值抑制后,选取局部邻域极大值的点作为特征点,记录下其坐标(x,y),依次保存在一个集合中。对于源静脉图像,源特征点集记作pS(x,y),对于目标静脉图像,目标特征点集记作pD(x,y)。
2.3]Hog特征描述符是一个向量,向量维度和特征点(x,y)在B图相同坐标下的邻域大小和方向相关,利用该邻域信息计算源静脉图像所有特征点的Hog特征描述符,得到源描述符集合,记作hS(x,y)。
按照同样的方式得到目标待匹配静脉图像的描述符集合(目标描述符集合),记作hD(x,y)。描述符集合和特征点集合一一对应。
3]利用邻域最邻近搜索算法(邻域最近点搜索算法),筛选特征描述符最相似的特征点对,得到候选匹配点集,设计并初始化偏移直方图,再统计得到全局偏移,最后根据阈值筛选出全局匹配点集。该方法流程如图2所示,包括以下步骤:
3.1]选取hS(x,y)中的任一未遍历特征描述符,在hD(x,y)中寻找与该未遍历特征描述符的向量欧式距离最近的特征描述符,该未遍历特征描述符与找到的特征描述符分别对应的两个特征点集(pS(x,y)和pD(x,y))中的两个特征点即构成一组待匹配点对(特征点对)(s,d),其中,s记作(xs,ys)来源于pS(x,y),d记作(xd,yd)来源于pD(x,y)。
遍历hS(x,y)中所有的特征描述符,得到所有的待匹配点对(特征点对),所有的s按顺序组成源候选匹配点集S(x,y),所有的d按顺序组成目标候选匹配点集D(x,y)。源候选匹配点集S(x,y)和目标候选匹配点集D(x,y)共同构成了候选匹配点集(图中显示为匹配候选点集)。
设置统计偏移直方图矩阵V,初始化V元素的数值为0,其高度为65,宽度为129,V的高度和宽度刚好等于(imgH+1)和(imgW+1),原因是计算直方图时,阈值的限制使得直坐标寻址能够取值到64和128,防止寻址时溢出。
3.2]按顺序取出候选匹配点集S(x,y)和D(x,y)中未遍历的特征点对,按照式(3)计算每组待匹配点对(特征点对,图中显示为点对)的偏移(dx,dy):
3.3]设置阈值thx=64,thy=32,若求得的(dx,dy)满足如下设定阈值(thx,thy)要求:
其中,/> 表示向下取整;
则根据计算得到的偏移(dx,dy)获得V的索引,并按照式(4)对元素累加:
V(dx+thx,dy+thy)=V(dx+thx,dy+thy)+1 (4)
若偏移(dx,dy)不满足式上述阈值(thx,thy)要求,则返回执行步骤3.2]。
3.4]判断候选匹配点集S(x,y)和D(x,y)中的特征点对是否遍历完毕,若否,则返回执行步骤3.2],直至全部取出,此时全局的偏移直方图统计完毕,得到更新完成的全局偏移直方图V;若是,则进行下一步。
3.5]遍历更新完成的V,根据其最大数值时对应的索引(xθ,yθ),计算全局偏移(gxθ,gyθ),计算公式为(5):
其中,S1=[0,imgW+1),S2=[0,imgH+1)。
3.6]设置全局偏移阈值threax=3,threay=3,遍历候选匹配点集S(x,y)和D(x,y),依次取出任一未遍历待匹配点对(s,d),如果该未遍历待匹配点对(s,d)的(dx,dy)和(gxθ,gyθ)满足式(6)中的阈值条件,则认为(s,d)有效,并将其对应的两个特征点分别加入到两个对应的新的集合;
遍历候选匹配点集S(x,y)和D(x,y)中所有的待匹配点对,从而生成源全局匹配点集S'(x,y)和目标全局匹配点集D'(x,y),二者构成完整的全局匹配点集。
其中,threax,threay为设定的全局偏移阈值。
4]分别将源静脉图像和目标静脉图像划分为网格,根据各自的特征点坐标计算出对应的网格索引,统计匹配网格索引图,基于映射一致性的方法,根据映射强度阈值判断匹配组是否需要筛除,得到最终的匹配点集,即局部匹配点集。该方法流程如图3,具体包括以下步骤:
4.1]设置网格宽度cellW=8和高度cellH=8,计算图像网格数量cellNum=128,计算公式如式(7),其中cellNumX=16表示x轴网格划分数量,cellNumY=8表示y轴网格划分数量,设计匹配网格索引图CIM,其中,CIM的宽度和长度都是128,数值初始化为0;
4.2]依次取出全局匹配点集S'(x,y)和D'(x,y)中的任一未遍历匹配点对(s,d),其中s记作(xs,ys)来源于S'(x,y),d记作(xd,yd)来源于D'(x,y)。计算该未遍历匹配点对(s,d)在CIM中的索引位置(is,id),计算公式如式(8):
4.3]将得到的(s,d)在CIM中对应索引位置数据累加,如式(9):
CIM(is,id)=CIM(is,id)+1 (9)
判断全局匹配点集S'(x,y)和D'(x,y)中的匹配点对是否遍历完毕,若否,则返回执行4.2],直至S'(x,y)和D'(x,y)中的匹配点对遍历完毕。
4.4]取目标全局匹配点集D'(x,y)中任一未遍历特征点d=(xd,yd),利用式(8)求出id=idθ,当CIM在满足id=idθ时,根据式(10)计算CIM的出最大值cellMax:
其中,Q=[0,cellNum)。
按照式(11)计算CIM的累计值cellSum:
其中,Q=[0,cellNum)。
4.5]定义映射一致性强度为CIM的最大值cellMax和累计值cellSum的比值,设置阈值strength=0.5,若当前遍历特征点d=(xd,yd)的映射一致性强度满足式(12)时,D'(x,y)的当前遍历元素d=(xd,yd)所对应的匹配组(特征点对)(s,d)为一组有效匹配组,将对应的s=(xs,ys)加入到S”(x,y),d=(xd,yd)加入到D”(x,y)。
4.6]检查D'(x,y)是否遍历结束,若已遍历结束,则得到最终更新完成的匹配集合S”(x,y)和D”(x,y);若没有遍历完全,则返回执行步骤4.4]。
5]中匹配分数score计算方法如式(13),统计最终匹配组数量(特征点对的数量)|S”(x,y)|或|D”(x,y)|和待匹配源特征点集合基数(特征点的数量)|pS(x,y)|,匹配分数score计算方法如式(13):
或/>
设定匹配分数阈值gate=0.7,若计算得到的score满足score≥gate时,则判断源静脉图像与目标静脉图像匹配成功;否则,则匹配失败。本实施例中,通过选择误识率为0的情况下比较好的通过率,计算得到阈值gate。
实施例2
一种静脉识别方法,包括实施例1中的步骤1]+步骤2]+步骤3]+步骤5]。步骤5]中,匹配分数score的表达式如下:
或/>
对比例1
一种静脉识别方法,包括实施例1中的步骤1]+实施例的步骤2]+传统匹配方法+实施例的步骤5]。其中,传统匹配方式是基于LNNS的方法。
以下是利用本实施例1和2以及对比例1提供的静脉识别方法对人体静脉图像数据库进行识别实验,并给出结果与分析。
建立了静脉采集设备采集的手指静脉图像数据库VD1、VD2,VD1由90*5副组成,VD2图像由78*10幅组成。测试的计算机的操作系统为64位Window10,内存8G,主频率2.30GHz。对于静脉图像库,分别以实施例1、2,对比例1中的识别方法对静脉图像库中的所有图像进行匹配识别,统计零误识别率下的识别结果,如表1所示。
表1不同识别方法得到的零误识别率的通过率
从上表中可以看出:对比例1在静脉图像库VD1、VD2上的识别率均低于80%,平均通过率仅有73.83%。实施例2使用了本发明实施例1中提出的全局匹配方法,在静脉图像库上的识别率得到有效提升,在VD1上识别率达到96.4%,在VD2上识别率达到90.1%。而本发明实施例1中的识别方法结合全局和局部匹配的方法使得在静脉图像库上的平均识别率达到了94.8%。可见本发明实施例1和2中提出的基于统计信息的静脉识别方法在有效利用全局统计信息获得全局偏移,利用局部映射一致性降低了错误率,通过两种匹配机制相结合的方式,可以达到较高的静脉识别率。
以上结合实施例对本发明进行了详细说明,但所述内容仅为本发明的较佳实施例,不能被认为用于限定本发明的实施范围。凡依本发明申请范围所作的均等变化与改进等,均应仍属于本发明的专利涵盖范围之内。
Claims (7)
1.一种基于统计信息的静脉识别方法,其特征在于,包括以下步骤:
(1)分别提取源静脉图像和目标静脉图像的特征点和增强图,得到源特征点集和目标特征点集;
(2)计算两个特征点集中所有特征点的特征描述符,分别得到源描述符集合和目标描述符集合;
(3)利用邻域最近点搜索算法,筛选出两个特征点集中特征描述符最相似的特征点对,得到候选匹配点集;
(4)采用基于偏移直方图的全局匹配方法对候选匹配点集进行筛选,得到全局匹配点集;
(5)根据全局匹配点集计算源静脉图像和目标静脉图像的匹配分数,进而判断二者是否匹配成功;
其中,步骤(4)具体包括:
设计并初始化源静脉图像和目标静脉图像的偏移直方图,计算出候选匹配点集中每组特征点对的偏移,根据满足阈值要求的偏移获取全局偏移直方图的索引,进而得到全局偏移直方图;
根据全局偏移直方图数值最大时对应的索引,计算全局偏移;
对得到的每组特征点对的偏移和全局偏移进行全局偏移阈值条件判断,根据判断结果筛选出全局匹配点集;
按照以下公式计算全局偏移(gxθ,gyθ):
式中,S1=[0,imgW+1),S2=[0,imgH+1);imgH和imgW分别代表图像的高度和宽度;V为全局偏移直方图;V(xθ,yθ)表示全局偏移直方图最大数值时对应的索引;
(thx,thy)表示设定阈值,由下式得到:
表示向下取整。
2.根据权利要求1所述的基于统计信息的静脉识别方法,其特征在于,步骤(3)具体包括:
选取源描述符集合中任一未遍历特征描述符,在目标描述符集合中找出与该未遍历特征描述符的向量欧氏距离最近的特征描述符,该未遍历特征描述符与找到的特征描述符分别对应的两个特征点集中的两个特征点即构成一个特征点对;
遍历所有源描述符集合,找出所有的特征点对,得到候选匹配点集。
3.根据权利要求1所述的基于统计信息的静脉识别方法,其特征在于,步骤(4)中,得到全局匹配点集后,采用基于映射一致性的局部匹配方法对全局匹配点集中的特征点对进行筛选,得到局部匹配点集;
步骤(5)中根据得到的局部匹配点集计算源静脉图像和目标静脉图像的匹配分数,进而判断二者是否匹配成功。
4.根据权利要求3所述的基于统计信息的静脉识别方法,其特征在于,基于映射一致性的局部匹配方法包括:
分别将源静脉图像和目标静脉图像进行网格划分,根据各自特征点坐标计算出对应的网格索引,统计匹配网格索引图,并计算出匹配网格索引图中的最大值和累计值;
定义映射一致性强度为求得的最大值和累计值的比值,对比该比值与设定映射强度阈值的大小,根据对比结果对全局匹配点集中的特征点对进行筛选。
5.根据权利要求1所述的基于统计信息的静脉识别方法,其特征在于,步骤(5)的具体操作包括:
统计全局匹配点集中特征点对的数量和源静脉图像的特征点集中特征点的数量,定义全局匹配点集中特征点对的数量与源静脉图像的特征点集中特征点的数量的比值为匹配分数;
判断该匹配分数是否满足设定阈值要求,进而判断源静脉图像和目标静脉图像是否匹配成功。
6.根据权利要求1所述的基于统计信息的静脉识别方法,其特征在于,所述源静脉图像和目标静脉图像为已经去除边缘区域且尺度一直的预处理后的静脉图像,其中预处理包括先后进行的灰度值归一化和高斯滤波。
7.根据权利要求1所述的基于统计信息的静脉识别方法,其特征在于,步骤(1)中,利用Hessian矩阵提取静脉图像的特征点和增强图,其中Hessian矩阵由静脉图像中每个像素值的二阶偏导组成。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210367828.5A CN114782715B (zh) | 2022-04-08 | 2022-04-08 | 一种基于统计信息的静脉识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210367828.5A CN114782715B (zh) | 2022-04-08 | 2022-04-08 | 一种基于统计信息的静脉识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114782715A CN114782715A (zh) | 2022-07-22 |
CN114782715B true CN114782715B (zh) | 2024-04-16 |
Family
ID=82426971
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210367828.5A Active CN114782715B (zh) | 2022-04-08 | 2022-04-08 | 一种基于统计信息的静脉识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114782715B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116740374B (zh) * | 2022-10-31 | 2024-06-21 | 荣耀终端有限公司 | 重复纹理识别方法及装置 |
CN115546443B (zh) * | 2022-11-25 | 2023-03-24 | 西南林业大学 | 一种球面六边形格网的局部等距性优化方法和系统 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101770567A (zh) * | 2008-12-31 | 2010-07-07 | 杭州中正生物认证技术有限公司 | 一种识别生物特征的方法及系统 |
EP2450829A2 (en) * | 2010-11-04 | 2012-05-09 | Hitachi, Ltd. | Biometrics authentication device and method |
CN110472479A (zh) * | 2019-06-28 | 2019-11-19 | 广州中国科学院先进技术研究所 | 一种基于surf特征点提取和局部lbp编码的指静脉识别方法 |
CN113392856A (zh) * | 2021-08-17 | 2021-09-14 | 北京航空航天大学 | 图像伪造检测装置和方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI599964B (zh) * | 2010-09-03 | 2017-09-21 | 國立台灣科技大學 | 手指靜脈辨識系統與方法 |
-
2022
- 2022-04-08 CN CN202210367828.5A patent/CN114782715B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101770567A (zh) * | 2008-12-31 | 2010-07-07 | 杭州中正生物认证技术有限公司 | 一种识别生物特征的方法及系统 |
EP2450829A2 (en) * | 2010-11-04 | 2012-05-09 | Hitachi, Ltd. | Biometrics authentication device and method |
CN110472479A (zh) * | 2019-06-28 | 2019-11-19 | 广州中国科学院先进技术研究所 | 一种基于surf特征点提取和局部lbp编码的指静脉识别方法 |
CN113392856A (zh) * | 2021-08-17 | 2021-09-14 | 北京航空航天大学 | 图像伪造检测装置和方法 |
Non-Patent Citations (3)
Title |
---|
基于FAST特征提取的指静脉识别;李伟剑;金建;邸思;;光学精密工程;20200215(02);全文 * |
基于区域分割和二次判别的手静脉识别;孟昭慧;顾晓东;;数据采集与处理;20130915(05);全文 * |
软硬件协同设计方案与经验性PCA算法的FPGA实现;尹科棹;魏蓝海;李洪强;李蠡;;成都信息工程学院学报;20150815(04);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN114782715A (zh) | 2022-07-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN115861135B (zh) | 一种应用于箱体全景探测的图像增强及识别方法 | |
CN108038476B (zh) | 一种基于边缘检测与sift的人脸表情识别特征提取方法 | |
CN105956582B (zh) | 一种基于三维数据的人脸识别系统 | |
CN114782715B (zh) | 一种基于统计信息的静脉识别方法 | |
CN107145829B (zh) | 一种融合纹理特征和尺度不变特征的掌静脉识别方法 | |
US9141871B2 (en) | Systems, methods, and software implementing affine-invariant feature detection implementing iterative searching of an affine space | |
CN107085708B (zh) | 基于多尺度分割和融合的高分辨率遥感图像变化检测方法 | |
CN107330875B (zh) | 基于遥感图像正反向异质性的水体周边环境变化检测方法 | |
CN104636721B (zh) | 一种基于轮廓与边缘纹理特征融合的掌纹识别方法 | |
US20080260254A1 (en) | Automatic 3-D Object Detection | |
CN104933709A (zh) | 基于先验信息的随机游走ct肺组织图像自动分割方法 | |
CN110188763B (zh) | 一种基于改进图模型的图像显著性检测方法 | |
CN111429359B (zh) | 小面积指纹图像拼接方法、装置、设备及存储介质 | |
CN106981077A (zh) | 基于dce和lss的红外图像和可见光图像配准方法 | |
CN107239792A (zh) | 一种基于二进制描述子的工件识别方法及装置 | |
CN1912889A (zh) | 基于局部三角结构特征集的形变指纹识别方法 | |
CN111815640A (zh) | 一种基于忆阻器的rbf神经网络医学图像分割算法 | |
Lee et al. | Model-based detection, segmentation, and classification for image analysis using on-line shape learning | |
CN109523484B (zh) | 一种基于分形特征的手指静脉血管网络修复方法 | |
Raghavendra et al. | An efficient finger vein indexing scheme based on unsupervised clustering | |
CN109753912B (zh) | 一种基于张量的多光谱掌纹匹配方法 | |
CN117078726A (zh) | 一种基于边缘提取的异谱图像配准方法 | |
CN113658238B (zh) | 一种基于改进特征检测的近红外静脉图像高精度匹配方法 | |
CN110705569A (zh) | 一种基于纹理特征的图像局部特征描述子提取方法 | |
CN103366376B (zh) | 一种基于邻域尺度变化的图像特征提取方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |