CN109871779A - 掌纹识别的方法及电子设备 - Google Patents
掌纹识别的方法及电子设备 Download PDFInfo
- Publication number
- CN109871779A CN109871779A CN201910066101.1A CN201910066101A CN109871779A CN 109871779 A CN109871779 A CN 109871779A CN 201910066101 A CN201910066101 A CN 201910066101A CN 109871779 A CN109871779 A CN 109871779A
- Authority
- CN
- China
- Prior art keywords
- image
- sub
- district area
- value
- area image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Image Analysis (AREA)
Abstract
本申请公开了一种掌纹识别的方法及电子设备,该方法包括:分别对获取的模板图像和待匹配图像提取掌纹主线,得到第一掌纹主线图像和第二掌纹主线图像;分别对第一掌纹主线图像和第二掌纹主线图像提取掌纹主线特征点,得到第一特征图像和第二特征图像;在第一特征图像中,确定多个第一子区域图像;在第二特征图像中,确定与第一特征图像中的各第一子区域图像位置一一对应的各第二子区域图像;分别计算每对第一子区域图像与第二子区域图像的匹配度,得到各第一匹配度;分别将各第一匹配度与第一阈值进行比较,得到各第一匹配结果;根据各对第一子区域图像和第二子区域图像及对应的各第一匹配结果,判断待匹配图像是否与模板图像匹配以识别掌纹。
Description
技术领域
本申请涉及掌纹识别技术领域,尤其涉及一种掌纹识别的方法及电子设备。
背景技术
掌纹识别是一种有效的生物识别方法,可以实现对人身份的有效识别验证。
相关技术中,一种掌纹识别的方法是:分别对模板图像和待匹配图像整个图像提取特征点,然后计算模板图像与待匹配图像之间的匹配度,从而实现掌纹识别。
由于上述掌纹识别的过程中,是针对整个图像的特征提取过程,当需要旋转和平移等操作时,对旋转和平移等操作无鲁棒性,从而干扰了识别,降低了识别的准确率。
发明内容
本申请的目的是提供一种掌纹识别的方法及电子设备,以解决相关技术中掌纹识别的准确率较低的问题。
本申请的目的是通过以下技术方案实现的:
一种掌纹识别的方法,包括:
分别对获取的模板图像和待匹配图像提取掌纹主线,得到第一掌纹主线图像和第二掌纹主线图像;
分别对所述第一掌纹主线图像和所述第二掌纹主线图像提取掌纹主线特征点,得到第一特征图像和第二特征图像;
在所述第一特征图像中,确定多个第一子区域图像,各所述第一子区域图像为以各所述掌纹主线特征点为中心的区域的图像;在所述第二特征图像中,确定与所述第一特征图像中的各第一子区域图像位置一一对应的各第二子区域图像;
分别计算每对所述第一子区域图像与所述第二子区域图像的匹配度,得到各第一匹配度;
分别将各所述第一匹配度与第一阈值进行比较,得到各第一匹配结果;
根据各对所述第一子区域图像和所述第二子区域图像及对应的各所述第一匹配结果,判断所述待匹配图像是否与所述模板图像匹配,以识别掌纹。
可选的,所述分别计算每对所述第一子区域图像与所述第二子区域图像的匹配度,包括:
分别对各所述第一子区域图像与所述第二子区域图像计算局部敏感哈希LSH值;
分别计算每对所述第一子区域图像的LSH值与所述第二子区域图像的LSH值的匹配度,作为各所述第一匹配度。
可选的,所述分别对各所述第一子区域图像与所述第二子区域图像计算LSH值,包括:
获取所述第一子区域图像的各个像素点的灰度值;计算获取的所述第一子区域图像的各个像素点的灰度值的平均值,得到第一均值;将所述第一子区域图像的各个像素点的灰度值与所述第一均值进行比较,如果大于所述第一均值,则取值0,否则,取值1,得到所述第一子区域图像的二进制特征向量;
获取所述第二子区域图像的各个像素点的灰度值;计算获取的所述第二子区域图像的各个像素点的灰度值的平均值,得到第二均值;将所述第二子区域图像的各个像素点的灰度值与所述第二均值进行比较,如果大于所述第二均值,则取值0,否则,取值1,得到所述第二子区域图像的二进制特征向量;
所述分别计算每对所述第一子区域图像的LSH值与所述第二子区域图像的LSH值的匹配度,包括:
将所述第一子区域图像的二进制特征向量和第二子区域图像的二进制特征向量按位抑或,统计得到的1的个数,作为各所述第一匹配度。
可选的,所述分别对各所述第一子区域图像与所述第二子区域图像计算LSH值,包括:
将所述第一子区域图像和所述第二子区域图像缩小成大小为Q像素*Q像素的图像,以及将缩小后的所述第一子区域图像和所述第二子区域图像的像素点的灰度值L更新为L*Q*Q/256;
获取所述第一子区域图像的各个像素点的灰度值;计算获取的所述第一子区域图像的各个像素点的灰度值的平均值,得到第一均值;将所述第一子区域图像的各个像素点的灰度值与所述第一均值进行比较,如果大于所述第一均值,则取值0,否则,取值1,得到所述第一子区域图像的二进制特征向量;
获取所述第二子区域图像的各个像素点的灰度值;计算获取的所述第二子区域图像的各个像素点的灰度值的平均值,得到第二均值;将所述第二子区域图像的各个像素点的灰度值与所述第二均值进行比较,如果大于所述第二均值,则取值0,否则,取值1,得到所述第二子区域图像的二进制特征向量;
所述分别计算每对所述第一子区域图像的LSH值与所述第二子区域图像的LSH值的匹配度,包括:
将所述第一子区域图像的二进制特征向量和第二子区域图像的二进制特征向量按位抑或,统计得到的1的个数,作为各所述第一匹配度。
可选的,所述第一匹配结果为匹配或者不匹配;
所述根据各对所述第一子区域图像和所述第二子区域图像及对应的各所述第一匹配结果,判断所述待匹配图像是否与所述模板图像匹配,包括:
按照如下公式计算所述待匹配图像是否与所述模板图像的匹配度,得到第二匹配度:
其中,T表示所述模板图像,I表示所述待匹配图像,f(T,I)表示第二匹配度,N表示掌纹主线特点的总个数,points表示特征点的集合,p(x,y)|(x,y)∈points表示特征点集合(x,y)∈points中的特征点p(x,y),Zp(x,y)(T|m,n)表示模板图像中特征点p(x,y)的m,n阶Zernike矩,Zp(x,y)(I|m,n)表示待匹配图像中特征点p(x,y)的m,n阶Zernike矩,m和n表示Zernike矩的阶数;Wlshp(x,y)表示第一匹配结果;
如果所述第一匹配结果为匹配,Wlshp(x,y)的取值为1;如果所述第一匹配结果为不匹配,Wlshp(x,y)的取值为0;
将所述第二匹配度与第二阈值进行比较;
根据比较结果,判断所述待匹配图像与所述模板图像是否匹配。
可选的,还包括:
计算所述待匹配图像相对所述模板图像的中心点偏移像素(Δx,Δy);
所述在所述第二特征图像中,确定与所述第一特征图像中的各第一子区域图像位置一一对应的各第二子区域图像,包括:
获取各所述第一子区域图像中的各个像素点的位置(x,y);
在所述第二特征图像中,确定所述第二子区域图像中的各个像素点的位置为(x+Δx,y+Δy)。
可选的,在所述分别对获取的模板图像和待匹配图像提取掌纹主线之前,还包括:
分别对所述模板图像和待匹配图像进行感兴趣ROI区域的提取。
可选的,在所述分别对获取的模板图像和待匹配图像提取掌纹主线之前,还包括:
分别对提取的所述模板图像的ROI区域和待匹配图像的ROI区域进行去噪增强处理。
可选的,所述分别对提取的所述模板图像的ROI区域和待匹配图像的ROI区域进行去噪增强处理,包括:
采用高斯滤波分别对提取的所述模板图像的ROI区域和待匹配图像的ROI区域进行去噪;
采用Frangi滤波分别对提取的所述模板图像的ROI区域和待匹配图像的ROI区域进行增强处理。
一种电子设备,包括:
处理器,以及与所述处理器相连接的存储器;
所述存储器用于存储计算机程序;
所述处理器用于调用并执行所述存储器中的所述计算机程序,以执行如以上任一项所述的掌纹识别的方法。
本申请采用以上技术方案,具有如下有益效果:
本申请实施例中,对模板图像和待匹配图像提取掌纹主线得到第一掌纹主线图像和第二掌纹主线图像,提取第一掌纹主线图像和第二掌纹主线图像中的掌纹主线特征点,得到第一特征图像和第二特征图像,本方案中,并非直接将第一特征图像与第二特征图像进行匹配,而是继续在第一特征图像中,以各掌纹主线特征点为中心确定多个第一子区域图像,即,在整个特征图像中确定包含掌纹主线特征点的多个局部区域图像,在第二特征图像中,确定与各第一子区域图像位置一一对应的各第二子区域图像,一个第一子区域图像有一个对应的第二子区域图像,形成匹配对,分别计算每一个匹配对的匹配度,得到各第一匹配度,如此,是将第一子区域图像中的掌纹主线特征点与第二子区域图像中的多个掌纹主线特征点进行匹配,扩大了第一子区域图像中的掌纹主线特征点所匹配的特征点的范围,从而排除了旋转和平移等操作带来的干扰,然后将各第一匹配度与第一阈值进行比较,得到各第一匹配结果,即匹配对内的匹配结果,最后,基于整个特征图像的各局部区域图像的匹配结果,判断待匹配图像是否与模板图像匹配,匹配结果更加准确。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本申请一个实施例提供的一种掌纹识别的方法流程图;
图2为本申请一个实施例提供的一种计算匹配度的方法流程图;
图3为本申请一个实施例提供的一种电子设备的结构示意图。
具体实施方式
为使本申请的目的、技术方案和优点更加清楚,下面将对本申请的技术方案进行详细的描述。显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所得到的所有其它实施方式,都属于本申请所保护的范围。
实施例
参见图1,图1是本申请一个实施例提供的一种掌纹识别的方法流程图。
如图1所示,本实施例提供一种掌纹识别的方法,至少包括如下步骤:
步骤11、分别对获取的模板图像和待匹配图像提取掌纹主线,得到第一掌纹主线图像和第二掌纹主线图像。
步骤12、分别对第一掌纹主线图像和第二掌纹主线图像提取掌纹主线特征点,得到第一特征图像和第二特征图像。
步骤13、在第一特征图像中,确定多个第一子区域图像,各第一子区域图像为以各掌纹主线特征点为中心的区域的图像;在第二特征图像中,确定与第一特征图像中的各第一子区域图像位置一一对应的各第二子区域图像。
步骤14、分别计算每对第一子区域图像与第二子区域图像的匹配度,得到各第一匹配度。
步骤15、分别将各第一匹配度与第一阈值进行比较,得到各第一匹配结果。
步骤16、根据各对第一子区域图像和第二子区域图像及对应的各第一匹配结果,判断待匹配图像是否与模板图像匹配,以识别掌纹。
本申请实施例中,对模板图像和待匹配图像提取掌纹主线得到第一掌纹主线图像和第二掌纹主线图像,提取第一掌纹主线图像和第二掌纹主线图像中的掌纹主线特征点,得到第一特征图像和第二特征图像,本方案中,并非直接将第一特征图像与第二特征图像进行匹配,而是继续在第一特征图像中,以各掌纹主线特征点为中心确定多个第一子区域图像,即,在整个特征图像中确定包含掌纹主线特征点的多个局部区域图像,在第二特征图像中,确定与各第一子区域图像位置一一对应的各第二子区域图像,一个第一子区域图像有一个对应的第二子区域图像,形成匹配对,分别计算每一个匹配对的匹配度,得到各第一匹配度,如此,是将第一子区域图像中的掌纹主线特征点与第二子区域图像中的多个掌纹主线特征点进行匹配,扩大了第一子区域图像中的掌纹主线特征点所匹配的特征点的范围,从而排除了旋转和平移等操作带来的干扰,然后将各第一匹配度与第一阈值进行比较,得到各第一匹配结果,即匹配对内的匹配结果,最后,基于整个特征图像的各局部区域图像的匹配结果,判断待匹配图像是否与模板图像匹配,匹配结果更加准确。
上述步骤14中,分别计算每对第一子区域图像与第二子区域图像的匹配度,其具体实现方式有多种,如图2所示,其中一种具体实现方式可以为:
步骤21、分别对各第一子区域图像与第二子区域图像计算LSH(LocalitySensitive Hashing,局部敏感哈希)值。
步骤22、分别计算每对第一子区域图像的LSH值与第二子区域图像的LSH值的匹配度,作为各第一匹配度。
本实施例中,通过LSH值确定匹配度,计算量更小。
上述步骤21中,分别对各第一子区域图像与第二子区域图像计算LSH值的实现方式有多种,其中一种实现方式可以为:
获取第一子区域图像的各个像素点的灰度值;计算获取的第一子区域图像的各个像素点的灰度值的平均值,得到第一均值;将第一子区域图像的各个像素点的灰度值与第一均值进行比较,如果大于第一均值,则取值0,否则,取值1,得到第一子区域图像的二进制特征向量;
获取第二子区域图像的各个像素点的灰度值;计算获取的第二子区域图像的各个像素点的灰度值的平均值,得到第二均值;将第二子区域图像的各个像素点的灰度值与第二均值进行比较,如果大于第二均值,则取值0,否则,取值1,得到第二子区域图像的二进制特征向量。
上述步骤21的另一种实现方式可以为:
将第一子区域图像和第二子区域图像缩小成大小为Q像素*Q像素的图像,以及将缩小后的第一子区域图像和第二子区域图像的像素点的灰度值L更新为L*Q*Q/256;其中,更新后的像素点的灰度值的最大值不超过Q*Q;
获取第一子区域图像的各个像素点的灰度值;计算获取的第一子区域图像的各个像素点的灰度值的平均值,得到第一均值;将第一子区域图像的各个像素点的灰度值与第一均值进行比较,如果大于第一均值,则取值0,否则,取值1,得到第一子区域图像的二进制特征向量;
获取第二子区域图像的各个像素点的灰度值;计算获取的第二子区域图像的各个像素点的灰度值的平均值,得到第二均值;将第二子区域图像的各个像素点的灰度值与第二均值进行比较,如果大于第二均值,则取值0,否则,取值1,得到第二子区域图像的二进制特征向量。
其中,256为一般的图像的灰度级。
上述步骤21的后一种实现方式中,先将第一子区域图像和第二子区域图像缩小之后再进行后续处理,大大减少了处理的像素点的数量,提高了处理效率。
相应的,上述步骤22中,分别计算每对第一子区域图像的LSH值与第二子区域图像的LSH值的匹配度,包括:
将第一子区域图像的二进制特征向量和第二子区域图像的二进制特征向量按位抑或,统计得到的1的个数,作为各第一匹配度。
上述Q的取值为正整数,为了进一步减小计算量且保证准确匹配,优选的,Q的取值范围为(4,16],优选的,Q的取值可以为8。
在此对上述步骤21~步骤22的实现方式进行举例说明:
首先,将第一子区域图像和第二子区域图像缩小成8*8像素的图像,以及将缩小后的第一子区域图像和第二子区域图像的像素点的灰度值L更新为L*8*8/256,相当于将子区域图像的灰度等级划分成64。获取缩小的第一子区域图像的64个像素点的灰度值;计算获取的第一子区域图像的64个像素点的灰度值的平均值,得到第一均值;将第一子区域图像的64个像素点的灰度值与第一均值进行比较,如果大于第一均值,则取值0,否则,取值1,得到第一子区域图像的二进制特征向量,如此得到一个8*8=64位二进制特征向量;获取缩小的第二子区域图像的64个像素点的灰度值;计算获取的第二子区域图像的64个像素点的灰度值的平均值,得到第二均值;将第二子区域图像的64个像素点的灰度值与第二均值进行比较,如果大于第二均值,则取值0,否则,取值1,得到第二子区域图像的二进制特征向量,如此得到一个8*8=64位二进制特征向量。将得到的此可得到2个8*8=64位二进制特征向量按位抑或,如果两个向量的同一位均为1或0,则抑或结果为0,如果两个向量的同一位为1和0,则抑或结果为1,最终所得1的个数作为LSH值的匹配度。如果LSH值的越大,说明两个图像的距离越大,越不匹配度。
可以理解的是,上述第一匹配结果为匹配或者不匹配;相应的,上述步骤16,根据各对第一子区域图像和第二子区域图像及对应的各第一匹配结果,判断待匹配图像是否与模板图像匹配,具体实现方式可以是:
按照如下公式计算待匹配图像是否与模板图像的匹配度,得到第二匹配度:
公式(1)变形之后为:
其中,T表示所述模板图像,I表示所述待匹配图像,f(T,I)表示第二匹配度,N表示掌纹主线特点的总个数,points表示特征点的集合,p(x,y)|(x,y)∈points表示特征点集合(x,y)∈points中的特征点p(x,y),Zp(x,y)(T|m,n)表示模板图像中特征点p(x,y)的m,n阶Zernike矩(即Z矩),Zp(x,y)(I|m,n)表示待匹配图像中特征点p(x,y)的m,n阶Zernike矩,m和n表示Zernike矩的阶数;Wlshp(x,y)表示第一匹配结果;
如果第一匹配结果为匹配,Wlshp(x,y)的取值1;如果第一匹配结果为不匹配,Wlshp(x,y)的取值为0;
将第二匹配度与第二阈值进行比较;
根据比较结果,判断待匹配图像与模板图像是否匹配。
其中,Zernike矩的阶数如下表1所示:
表1 Zernike矩的阶数
m | Z矩 | n | m | Z矩 | n |
1 | Z<sub>11</sub>,Z<sub>31</sub>,Z<sub>51</sub>,Z<sub>71</sub>,Z<sub>91</sub>,Z<sub>11,1</sub> | 6 | 7 | Z<sub>77</sub>,Z<sub>97</sub>,Z<sub>11,7</sub> | 3 |
2 | Z<sub>22</sub>,Z<sub>42</sub>,Z<sub>62</sub>,Z<sub>82</sub>,Z<sub>10,2</sub>,Z<sub>12,2</sub> | 6 | 8 | Z<sub>88</sub>,Z<sub>10,8</sub>Z<sub>12,8</sub> | 3 |
3 | Z<sub>33</sub>,Z<sub>53</sub>,Z<sub>73</sub>,Z<sub>93</sub>,Z<sub>11,3</sub> | 5 | 9 | Z<sub>99</sub>,Z<sub>11,9</sub> | 2 |
4 | Z<sub>44</sub>,Z<sub>64</sub>,Z<sub>84</sub>,Z<sub>12,4</sub> | 5 | 10 | Z<sub>10,10</sub>Z<sub>12,10</sub> | 2 |
5 | Z<sub>55</sub>,Z<sub>75</sub>,Z<sub>95</sub>,Z<sub>11,5</sub> | 4 | 11 | Z<sub>11,11</sub> | 1 |
6 | Z<sub>66</sub>,Z<sub>86</sub>,Z<sub>10,6</sub>,Z<sub>12,6</sub> | 4 | 12 | Z<sub>12,12</sub> | 1 |
当m取值1时,n取值6;当m取值2时,n取值6;当m取值3时,n取值5;当m取值4时,n取值5;当m取值5时,n取值4;当m取值6时,n取值4;当m取值7时,n取值3;当m取值8时,n取值3;当m取值9时,n取值2;当m取值10时,n取值2;当m取值11时,n取值1;当m取值12时,n取值1。
如果匹配对的第一匹配结果为匹配的数量越多,即Wlshp(x,y)的取值1的数量越多,则待匹配图像与模板图像的匹配度越高。
上述步骤16的具体实现方案中,采用了Zernike矩,Zernike矩为全局特征,由于Zernike矩的区分性差,以LSH值为辅助进行匹配度的计算,增加了匹配准确性。并且,Zernike矩具有旋转不变性,进一步消除了旋转操作的干扰。
另外,由于Zernike矩对图像的平移不敏感,为保证匹配的准确性,需要计算待匹配图像相对模板图像的平移位置。可选的,本实施例的方法还可以包括:计算待匹配图像相对模板图像的中心点偏移像素(Δx,Δy);相应的,上述步骤13中,在第二特征图像中,确定与第一特征图像中的各第一子区域图像位置一一对应的各第二子区域图像,具体实现方式可以是:获取各第一子区域图像中的各个像素点的位置(x,y);在第二特征图像中,确定第二子区域图像中的各个像素点的位置为(x+Δx,y+Δy)。
具体的,基于带限相位相关(Band-Limited Phase-Only Correlation,BLPOC)算法,计算待匹配图像相对模板图像的中心点偏移像素(Δx,Δy)。通过BLPOC算法,得到的中心点偏移像素更加准确。
为了保证能够提取到丰富的掌纹特征,可选的,在分别对获取的模板图像和待匹配图像提取掌纹主线之前,本实施例的方法还可以包括:分别对模板图像和待匹配图像进行感兴趣(region of interest,ROI)区域的提取。如此,可以准确定位掌纹的位置。
可选的,在分别对获取的模板图像和待匹配图像提取掌纹主线之前,本实施例的方法还可以包括:分别对提取的模板图像的ROI区域和待匹配图像的ROI区域进行去噪增强处理,去除非纹理噪声,并对去噪的图像进行增强,以提高特征提取效果。
具体的,分别对提取的模板图像的ROI区域和待匹配图像的ROI区域进行去噪增强处理,其实现方式可以是:采用高斯滤波分别对提取的模板图像的ROI区域和待匹配图像的ROI区域进行去噪;采用Frangi滤波分别对提取的模板图像的ROI区域和待匹配图像的ROI区域进行增强处理。
由于光照的影响,去噪之后还可以对图像进行归一化。
下面以一个具体的掌纹库为例,对本申请实施例提供的掌纹识别的方法进行更加详细地描述。
本实施例中,以PolyU掌纹库为例,参考以上相关实施例进行实施,模板图像和待匹配图像是同一类图像时,称为类内样本,计算出的距离为类内距离,不同类的图像称为类间样本,计算出来的距离为类间距离。本实施例中,参考公式(1)相关实施例,得到第二匹配度,即计算出来的图像之间的距离。
将本实施例中基于多阶Zernike矩和LSH值的方法得到的类内距离值和类间距离值与单独采用Z多阶Zernike矩的方法得到的类内距离值与类间距离值进行对比,如下表2所示的距离值:
表2距离值范围
其中,类间样本的距离范围在4.5125-10.3729,类内样本的距离范围在1.279-5.6626。本实施例的方法选取的Zernike矩匹配的阈值为4.67。类间样本LSH值匹配出的个数的分布主要在20-37之间,类内样本LSH值匹配出的个数的主要分布是在0-21之间。因此在对应特征点进行LSH值匹配时,本实施例的方法选取类内类间LSH值匹配出的个数阈值为22,如果当前LSH值的个数大于或者等于22*4.67(即上述第一阈值),则判定为不相似,否则判定为相似。本实施例的方法在PolyU掌纹库中进行匹配实验,其中类内样本对个数为60对,类间样本对个数为40对,分别对比了多阶Zernike矩和本方法的类内准确率和类间准确率。从下表3可以看出,在使用同一Zernike矩阈值的情况下,加入了特征点LSH值的方法在类内和类间的准确率都有大幅度提升。
表3对比结果
图3是本申请一个实施例提供的一种电子设备的结构示意图。
如图3所示,本实施例提供一种电子设备,包括:
处理器301,以及与处理器相连接的存储器302;
存储器302用于存储计算机程序;
处理器301用于调用并执行存储器中的计算机程序,以执行如以上任意实施例所述的掌纹识别的方法。
可以理解的是,上述各实施例中相同或相似部分可以相互参考,在一些实施例中未详细说明的内容可以参见其他实施例中相同或相似的内容。
需要说明的是,在本申请的描述中,术语“第一”、“第二”等仅用于描述目的,而不能理解为指示或暗示相对重要性。此外,在本申请的描述中,除非另有说明,“多个”的含义是指至少两个。
流程图中或在此以其他方式描述的任何过程或方法描述可以被理解为,表示包括一个或更多个用于实现特定逻辑功能或过程的步骤的可执行指令的代码的模块、片段或部分,并且本申请的优选实施方式的范围包括另外的实现,其中可以不按所示出或讨论的顺序,包括根据所涉及的功能按基本同时的方式或按相反的顺序,来执行功能,这应被本申请的实施例所属技术领域的技术人员所理解。
应当理解,本申请的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行系统执行的软件或固件来实现。例如,如果用硬件来实现,和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(PGA),现场可编程门阵列(FPGA)等。
本技术领域的普通技术人员可以理解实现上述实施例方法携带的全部或部分步骤是可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,该程序在执行时,包括方法实施例的步骤之一或其组合。
此外,在本申请各个实施例中的各功能单元可以集成在一个处理模块中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。所述集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。
上述提到的存储介质可以是只读存储器,磁盘或光盘等。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本申请的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
尽管上面已经示出和描述了本申请的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本申请的限制,本领域的普通技术人员在本申请的范围内可以对上述实施例进行变化、修改、替换和变型。
Claims (10)
1.一种掌纹识别的方法,其特征在于,包括:
分别对获取的模板图像和待匹配图像提取掌纹主线,得到第一掌纹主线图像和第二掌纹主线图像;
分别对所述第一掌纹主线图像和所述第二掌纹主线图像提取掌纹主线特征点,得到第一特征图像和第二特征图像;
在所述第一特征图像中,确定多个第一子区域图像,各所述第一子区域图像为以各所述掌纹主线特征点为中心的区域的图像;在所述第二特征图像中,确定与所述第一特征图像中的各第一子区域图像位置一一对应的各第二子区域图像;
分别计算每对所述第一子区域图像与所述第二子区域图像的匹配度,得到各第一匹配度;
分别将各所述第一匹配度与第一阈值进行比较,得到各第一匹配结果;
根据各对所述第一子区域图像和所述第二子区域图像及对应的各所述第一匹配结果,判断所述待匹配图像是否与所述模板图像匹配,以识别掌纹。
2.根据权利要求1所述的方法,其特征在于,所述分别计算每对所述第一子区域图像与所述第二子区域图像的匹配度,包括:
分别对各所述第一子区域图像与所述第二子区域图像计算局部敏感哈希LSH值;
分别计算每对所述第一子区域图像的LSH值与所述第二子区域图像的LSH值的匹配度,作为各所述第一匹配度。
3.根据权利要求2所述的方法,其特征在于,所述分别对各所述第一子区域图像与所述第二子区域图像计算LSH值,包括:
获取所述第一子区域图像的各个像素点的灰度值;计算获取的所述第一子区域图像的各个像素点的灰度值的平均值,得到第一均值;将所述第一子区域图像的各个像素点的灰度值与所述第一均值进行比较,如果大于所述第一均值,则取值0,否则,取值1,得到所述第一子区域图像的二进制特征向量;
获取所述第二子区域图像的各个像素点的灰度值;计算获取的所述第二子区域图像的各个像素点的灰度值的平均值,得到第二均值;将所述第二子区域图像的各个像素点的灰度值与所述第二均值进行比较,如果大于所述第二均值,则取值0,否则,取值1,得到所述第二子区域图像的二进制特征向量;
所述分别计算每对所述第一子区域图像的LSH值与所述第二子区域图像的LSH值的匹配度,包括:
将所述第一子区域图像的二进制特征向量和第二子区域图像的二进制特征向量按位抑或,统计得到的1的个数,作为各所述第一匹配度。
4.根据权利要求2所述的方法,其特征在于,所述分别对各所述第一子区域图像与所述第二子区域图像计算LSH值,包括:
将所述第一子区域图像和所述第二子区域图像缩小成大小为Q像素*Q像素的图像,以及将缩小后的所述第一子区域图像和所述第二子区域图像的像素点的灰度值L更新为L*Q*Q/256;
获取所述第一子区域图像的各个像素点的灰度值;计算获取的所述第一子区域图像的各个像素点的灰度值的平均值,得到第一均值;将所述第一子区域图像的各个像素点的灰度值与所述第一均值进行比较,如果大于所述第一均值,则取值0,否则,取值1,得到所述第一子区域图像的二进制特征向量;
获取所述第二子区域图像的各个像素点的灰度值;计算获取的所述第二子区域图像的各个像素点的灰度值的平均值,得到第二均值;将所述第二子区域图像的各个像素点的灰度值与所述第二均值进行比较,如果大于所述第二均值,则取值0,否则,取值1,得到所述第二子区域图像的二进制特征向量;
所述分别计算每对所述第一子区域图像的LSH值与所述第二子区域图像的LSH值的匹配度,包括:
将所述第一子区域图像的二进制特征向量和第二子区域图像的二进制特征向量按位抑或,统计得到的1的个数,作为各所述第一匹配度。
5.根据权利要求1所述的方法,其特征在于,所述第一匹配结果为匹配或者不匹配;
所述根据各对所述第一子区域图像和所述第二子区域图像及对应的各所述第一匹配结果,判断所述待匹配图像是否与所述模板图像匹配,包括:
按照如下公式计算所述待匹配图像与所述模板图像的匹配度,得到第二匹配度:
其中,T表示所述模板图像,I表示所述待匹配图像,f(T,I)表示第二匹配度,N表示掌纹主线特点的总个数,points表示特征点的集合,p(x,y)|(x,y)∈points表示特征点集合(x,y)∈points中的特征点p(x,y),Zp(x,y)(T|m,n)表示模板图像中特征点p(x,y)的m,n阶Zernike矩,Zp(x,y)(I|m,n)表示待匹配图像中特征点p(x,y)的m,n阶Zernike矩,m和n表示Zernike矩的阶数;
如果所述第一匹配结果为匹配,Wlshp(x,y)的取值为1;如果所述第一匹配结果为不匹配,Wlshp(x,y)的取值为0;
将所述第二匹配度与第二阈值进行比较;
根据比较结果,判断所述待匹配图像与所述模板图像是否匹配。
6.根据权利要求5所述的方法,其特征在于,还包括:
计算所述待匹配图像相对所述模板图像的中心点偏移像素(Δx,Δy);
所述在所述第二特征图像中,确定与所述第一特征图像中的各第一子区域图像位置一一对应的各第二子区域图像,包括:
获取各所述第一子区域图像中的各个像素点的位置(x,y);
在所述第二特征图像中,确定所述第二子区域图像中的各个像素点的位置为(x+Δx,y+Δy)。
7.根据权利要求1所述的方法,其特征在于,在所述分别对获取的模板图像和待匹配图像提取掌纹主线之前,还包括:
分别对所述模板图像和待匹配图像进行感兴趣ROI区域的提取。
8.根据权利要求7所述的方法,其特征在于,在所述分别对获取的模板图像和待匹配图像提取掌纹主线之前,还包括:
分别对提取的所述模板图像的ROI区域和待匹配图像的ROI区域进行去噪增强处理。
9.根据权利要求8所述的方法,其特征在于,所述分别对提取的所述模板图像的ROI区域和待匹配图像的ROI区域进行去噪增强处理,包括:
采用高斯滤波分别对提取的所述模板图像的ROI区域和待匹配图像的ROI区域进行去噪;
采用Frangi滤波分别对提取的所述模板图像的ROI区域和待匹配图像的ROI区域进行增强处理。
10.一种电子设备,其特征在于,包括:
处理器,以及与所述处理器相连接的存储器;
所述存储器用于存储计算机程序;
所述处理器用于调用并执行所述存储器中的所述计算机程序,以执行如权利要求1-9任一项所述的掌纹识别的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910066101.1A CN109871779B (zh) | 2019-01-23 | 2019-01-23 | 掌纹识别的方法及电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910066101.1A CN109871779B (zh) | 2019-01-23 | 2019-01-23 | 掌纹识别的方法及电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109871779A true CN109871779A (zh) | 2019-06-11 |
CN109871779B CN109871779B (zh) | 2020-11-03 |
Family
ID=66918009
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910066101.1A Active CN109871779B (zh) | 2019-01-23 | 2019-01-23 | 掌纹识别的方法及电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109871779B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112507974A (zh) * | 2020-12-29 | 2021-03-16 | 哈尔滨工业大学芜湖机器人产业技术研究院 | 一种基于纹理特征的掌纹识别方法 |
CN117058723A (zh) * | 2023-10-11 | 2023-11-14 | 腾讯科技(深圳)有限公司 | 掌纹识别方法、装置及存储介质 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101055618A (zh) * | 2007-06-21 | 2007-10-17 | 中国科学院合肥物质科学研究院 | 基于方向特征的掌纹识别方法 |
US20120057763A1 (en) * | 2010-09-03 | 2012-03-08 | Shi-Jinn Horng | method for recognizing the identity of user by biometrics of palm vein |
US20130011022A1 (en) * | 2011-07-08 | 2013-01-10 | I Shou University | Method and Computer Program Product for Extracting Feature Vectors from a Palm Image |
CN103077459A (zh) * | 2012-12-18 | 2013-05-01 | 天津科技大学 | 一种融合用户多生物特征进行活体认证支付的方法 |
CN103198304A (zh) * | 2013-04-19 | 2013-07-10 | 吉林大学 | 一种掌纹提取识别方法 |
CN103207898A (zh) * | 2013-03-19 | 2013-07-17 | 天格科技(杭州)有限公司 | 一种基于局部敏感哈希的相似人脸快速检索方法 |
CN105701473A (zh) * | 2016-01-15 | 2016-06-22 | 深圳市未来媒体技术研究院 | 一种掌纹图像细节点特征匹配的方法 |
CN107506688A (zh) * | 2017-07-18 | 2017-12-22 | 西安电子科技大学 | Harris角点检测影像金字塔掌纹ROI识别方法 |
CN108989322A (zh) * | 2018-07-28 | 2018-12-11 | 努比亚技术有限公司 | 数据传输方法、移动终端及计算机可读存储介质 |
-
2019
- 2019-01-23 CN CN201910066101.1A patent/CN109871779B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101055618A (zh) * | 2007-06-21 | 2007-10-17 | 中国科学院合肥物质科学研究院 | 基于方向特征的掌纹识别方法 |
US20120057763A1 (en) * | 2010-09-03 | 2012-03-08 | Shi-Jinn Horng | method for recognizing the identity of user by biometrics of palm vein |
US20130011022A1 (en) * | 2011-07-08 | 2013-01-10 | I Shou University | Method and Computer Program Product for Extracting Feature Vectors from a Palm Image |
CN103077459A (zh) * | 2012-12-18 | 2013-05-01 | 天津科技大学 | 一种融合用户多生物特征进行活体认证支付的方法 |
CN103207898A (zh) * | 2013-03-19 | 2013-07-17 | 天格科技(杭州)有限公司 | 一种基于局部敏感哈希的相似人脸快速检索方法 |
CN103198304A (zh) * | 2013-04-19 | 2013-07-10 | 吉林大学 | 一种掌纹提取识别方法 |
CN105701473A (zh) * | 2016-01-15 | 2016-06-22 | 深圳市未来媒体技术研究院 | 一种掌纹图像细节点特征匹配的方法 |
CN107506688A (zh) * | 2017-07-18 | 2017-12-22 | 西安电子科技大学 | Harris角点检测影像金字塔掌纹ROI识别方法 |
CN108989322A (zh) * | 2018-07-28 | 2018-12-11 | 努比亚技术有限公司 | 数据传输方法、移动终端及计算机可读存储介质 |
Non-Patent Citations (5)
Title |
---|
G S BADRINATH等: "Verification System Robust to Occlusion Using Low-order Zernike Moments of Palmprint Sub-images", 《TELECOMMUNICATION SYSTEMS》 * |
YANLAI LI等: "Palmprint Recognition Based on Translation Invariant Zernike Moments", 《INTERNATIONAL SYMPOSIUM ON NEURAL NETWORKS》 * |
YING-HUNPANG等: "Palmprint authentication with Zernike moment invariants", 《PROCEEDINGS OF THE 3RD IEEE INTERNATIONAL SYMPOSIUM ON SIGNAL PROCESSING AND INFORMATION TECHNOLOGY》 * |
YOUSSEF CHAHIR等: "Superpixel-based Zernike Moments for Palm-print Recognition", 《INTERNATIONAL JOURNAL OF ELECTRONIC SECURITY AND DIGITAL FORENSICS》 * |
黄树杰: "无接触低分辨率掌纹识别算法研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112507974A (zh) * | 2020-12-29 | 2021-03-16 | 哈尔滨工业大学芜湖机器人产业技术研究院 | 一种基于纹理特征的掌纹识别方法 |
CN117058723A (zh) * | 2023-10-11 | 2023-11-14 | 腾讯科技(深圳)有限公司 | 掌纹识别方法、装置及存储介质 |
CN117058723B (zh) * | 2023-10-11 | 2024-01-19 | 腾讯科技(深圳)有限公司 | 掌纹识别方法、装置及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN109871779B (zh) | 2020-11-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Kang et al. | Contact-free palm-vein recognition based on local invariant features | |
CN108846390B (zh) | 用于生物认证的特征提取及匹配以及模板更新 | |
Abate et al. | BIRD: Watershed based iris detection for mobile devices | |
US11380010B2 (en) | Image processing device, image processing method, and image processing program | |
US10748018B2 (en) | Multi-stage tattoo matching techniques | |
Pundlik et al. | Iris segmentation in non-ideal images using graph cuts | |
Thalji et al. | Iris Recognition using robust algorithm for eyelid, eyelash and shadow avoiding | |
WO2017135120A1 (en) | Computationally efficient frame rate conversion system | |
CN110738222B (zh) | 图像匹配方法、装置、计算机设备和存储介质 | |
CN108229583B (zh) | 一种基于主方向差分特征的快速模板匹配的方法及装置 | |
CN109871779A (zh) | 掌纹识别的方法及电子设备 | |
Hao et al. | Low-light image enhancement based on retinex and saliency theories | |
Xu et al. | Improving the performance of iris recogniton system using eyelids and eyelashes detection and iris image enhancement | |
CN111814682A (zh) | 人脸活体检测方法及装置 | |
Ng et al. | An effective segmentation method for iris recognition system | |
CN113496215A (zh) | 一种活体人脸检测的方法、装置及电子设备 | |
Wu et al. | Exploiting superpixel and hybrid hash for kernel-based visual tracking | |
Rodrigues et al. | A simple approach for biometrics: Finger-knuckle prints recognition based on a sobel filter and similarity measures | |
Arakala et al. | The palm vein graph feature extraction and matching | |
US7957555B2 (en) | Method and apparatus for localizing an object part in digital image data by updating an initial position estimate based on a displacement of the object part | |
CN113688785A (zh) | 基于多监督的人脸识别方法、装置、计算机设备及存储介质 | |
CN111598943A (zh) | 基于书本辅助阅读设备的书本就位检测方法、装置及设备 | |
KR20130059680A (ko) | 얼굴 영상에서의 기술어 추출 시스템 및 그 방법 | |
Ng et al. | Iris recognition algorithms based on texture analysis | |
Jarjes et al. | A new Iris segmentation method based on improved snake model and angular integral projection |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |