CN109784241B - 一种稳定的掌纹图像特征富集区域提取方法 - Google Patents

一种稳定的掌纹图像特征富集区域提取方法 Download PDF

Info

Publication number
CN109784241B
CN109784241B CN201811646238.6A CN201811646238A CN109784241B CN 109784241 B CN109784241 B CN 109784241B CN 201811646238 A CN201811646238 A CN 201811646238A CN 109784241 B CN109784241 B CN 109784241B
Authority
CN
China
Prior art keywords
palm
positioning
points
area
candidate frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201811646238.6A
Other languages
English (en)
Other versions
CN109784241A (zh
Inventor
钟德星
杨元
邵会凯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GRASP TECHNOLOGY WUXI Co.,Ltd.
Original Assignee
Xian Jiaotong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xian Jiaotong University filed Critical Xian Jiaotong University
Priority to CN201811646238.6A priority Critical patent/CN109784241B/zh
Publication of CN109784241A publication Critical patent/CN109784241A/zh
Application granted granted Critical
Publication of CN109784241B publication Critical patent/CN109784241B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

本发明公开了一种稳定的掌纹图像特征富集区域提取方法,包括以下步骤:利用手掌检测算法定位手掌在图片中的位置,也就是找到需要定位的局部图像区域;利用CNN粗定位出13个手掌关键点的坐标;对于关键点中P3,P6,P9的分别用两个CNN进行精细回归,对于P0,P12根据图像边缘信息进行精细回归;最后根据定位得到的关键点的坐标建立参考坐标系,P3P9为X轴,过P6做Y轴,在距离P6点k1·d取一边长为k2·d的正方向区域,其中d为P0与P12之间的距离,该正方向区域就是最终提取的掌纹富集区域。该方案可以极大减弱位置定位中由于受到手掌大小,方向、张合姿势等不同所导致谷点偏移所带来的误差影响。

Description

一种稳定的掌纹图像特征富集区域提取方法
【技术领域】
本发明属于生物特征识别技术领域,涉及一种稳定的掌纹图像特征富集区域提取方法。
【背景技术】
在信息化社会的今天,个人身份认证已经成为各个信息安全领域的基本要素,其中基于生物特征的识别方法获得了很大的发展。指纹识别与虹膜识别等技术已经被广泛应用在生活中各个领域,而在人脸识别领域,近十年来随着互联网的发展,数据信息急剧膨胀,这些海量的数据极大地促进了以深度学习为代表的人脸识别技术的发展。目前生物特征身份识别技术主要有指纹识别、虹膜识别、人脸识别、步态识别等。其中指纹、虹膜、人脸识别等技术已经比较成熟,在市场上已经有了比较完整的商业体系。手掌作为一个人体富含生物特征的区域了,其上的指纹特征已经被成熟应用到很多身份认证的场合,掌纹纹理特征作为手掌上另外一种生物特征也具有很强的应用价值。
目前,在国内外的大多数基于掌纹的生物认证技术的研究中,掌纹认证算法的先决条件是从人的不同手掌图片上,提取到位置相对固定的掌纹富集感兴趣区域,进而对掌纹进行身份比对等操作。而一个稳定的掌纹富集感兴趣区域对于之后识别算法的精度有着很大的影响。
对手掌的自然拍摄照片进行掌纹富集感兴趣区域提取,而不需对手掌的姿势以及照片的拍摄背景有额外的要求,会使得整个区域提取过程更符合现实场景的应用。因此,一种稳定的非接触式的掌纹图像特征富集区域方法是掌纹生物认证技术的研发的一项关键技术。
【发明内容】
本发明的目的在于克服上述现有技术的缺点,提供一种稳定的掌纹图像特征富集区域提取方法,该方法对于自然场景下的采集到的手掌图片进行处理,无需对于采集环境光线背景以及手掌的位置姿势做额外的限定。
为达到上述目的,本发明采用以下技术方案予以实现:
一种稳定的掌纹图像特征富集区域提取方法,包括以下步骤:
步骤1:手掌位置检测,采用手掌位置检测算法来定位输入图像中手掌的位置;
步骤2:在检测出输入图像中的手掌位置后,采用定位算法对手掌的关键点进行粗定位,进而进行精调;
步骤3:确定关键点的位置后,通过关键点的坐标来裁剪出掌纹图片的特征富集区域。
本发明进一步的改进在于:
步骤1中,定位输入图像中手掌的位置的具体方法如下:
将输入图像分成S×S个格子,每个格子负责检测落入该格子的手掌;若一手掌的中心位置的坐标落入到某个格子,那么这个格子就负责检测出这个物体;每个格子输出B个候选框的矩形区域信息,它包括5个数值,分别是候选框中心位置坐标x、y,候选框宽度和高度w、h,候选框中是手掌的置信度confidence;
训练时使用均方和误差作为损失函数来优化模型参数,即网络输出的S×S×(B×5)维向量与真实图像的对应S×S×(B×5)维向量的均方和误差;如下式所示:
Figure GDA0001988331380000031
其中,coordError和iouError分别代表预测数据与标定数据之间的坐标误差、预测候选框与手掌真实区域的交集面积IOU误差。
步骤2中,对候选框中手掌的关键点进行定位的具体方法如下:
粗定位由一6层的卷积神经网络来完成,其输出为一2×13维的向量,为13个关键点的归一化后的坐标;
对手掌三个谷点P3,P6,P9进行精细定位,精细定位是在粗定位所得的结果上缩小搜索范围,以粗定位预测到的三个谷点的位置为中心,用一个候选框把这三个谷点区域范围内的图片裁剪出来,对于每个谷点分别设计两个卷积神经网络来定位,最终谷点的定位结果取其两定位结果的平均;
其中定位卷积神经网络CNN损失函数为如下所示:
Figure GDA0001988331380000032
其中,l为候选框的宽度;手掌两侧的关键点P0,P12用于定位手掌的宽度,故二者位置的精调是通过对原图进行边缘检测,而后在两粗定位点的周边做位置迭代更新,更新到手掌边缘即停止迭代。
步骤3中,裁剪出掌纹图片的特征富集区域的具体方法如下:
特征富集区域是根据关键点食指与中指P3、无名指与小指谷点P9的连线确定方向,P0与P12之间的距离d确定特征富集区域的边长和与谷点P6的距离;直线P3P9与直线P6O垂直,线段P6O的长度为k1·d,特征富集区域边长为k2·d。
与现有技术相比,本发明具有以下有益效果:
本发明是针对背景复杂的自然环境下采集的手掌图片进行设计的,相比于现在大多数背景单一的应用背景,具有更强的实用价值;算法针对手掌在图像中位置、角度、姿势的不同做了对应的设计优化,使得算法在实际使用过程中,使用者在采集掌纹时不需对于采集姿势做过多的要求;算法的整体检测思路采取粗定位,精细定位的设计思路,对于检测速度方面做了大量优化,使得在保证精度的情况下检测速度也可以达到实时采集识别的要求。
【附图说明】
图1为本发明方法的流程图;
图2为本发明的识别过程示意图;
图3为本发明掌纹富集区域提取示意图。
【具体实施方式】
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分的实施例,不是全部的实施例,而并非要限制本发明公开的范围。此外,在以下说明中,省略了对公知结构和技术的描述,以避免不必要的混淆本发明公开的概念。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
在附图中示出了根据本发明公开实施例的各种结构示意图。这些图并非是按比例绘制的,其中为了清楚表达的目的,放大了某些细节,并且可能省略了某些细节。图中所示出的各种区域、层的形状及它们之间的相对大小、位置关系仅是示例性的,实际中可能由于制造公差或技术限制而有所偏差,并且本领域技术人员根据实际所需可以另外设计具有不同形状、大小、相对位置的区域/层。
本发明公开的上下文中,当将一层/元件称作位于另一层/元件“上”时,该层/元件可以直接位于该另一层/元件上,或者它们之间可以存在居中层/元件。另外,如果在一种朝向中一层/元件位于另一层/元件“上”,那么当调转朝向时,该层/元件可以位于该另一层/元件“下”。
需要说明的是,本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本发明的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
下面结合附图对本发明做进一步详细描述:
参见图1和图2,本发明稳定的掌纹图像特征富集区域提取方法,包括以下步骤:
1.手掌位置检测
由于手掌在图片中的位置不确定,故设计一个手掌位置检测算法来定位图片中手掌的位置,与此同时还可以用于判断图片中是否有手掌。本部分借鉴YOLO算法将手掌检测作为一个回归问题进行求解,输入图像经过一次计算,便能得到图像中有无手掌的置信概率以及手掌的具体位置。
将输入图像分成S×S个格子,每个格子负责检测落入该格子的手掌。若一手掌的中心位置的坐标落入到某个格子,那么这个格子就负责检测出这个物体。每个格子输出B个候选框的矩形区域信息,它包括5个数值,分别是候选框中心位置坐标x、y,候选框宽度和高度w、h,候选框中是手掌的置信度confidence。
训练时使用均方和误差作为损失函数来优化模型参数,即网络输出的S×S×(B×5)维向量与真实图像的对应S×S×(B×5)维向量的均方和误差。如下式所示:
Figure GDA0001988331380000061
其中coordError和iouError分别代表预测数据与标定数据之间的坐标误差、IOU(Intersection Over Union,预测候选框与手掌真实区域的交集面积)误差。
2.手掌关键点定位
在检测出图片中的手掌候选框后,就需要对候选框中手掌的关键点进行定位,本方案中需要定位手掌的13个关键点的位置。定位算法遵从从粗到精的思想,先对关键点进行粗定位,进而进行精调。
粗定位由一6层的CNN(卷积神经网络)来完成,其输出为一2×13维的向量,为13个关键点的归一化后的坐标。
因为手掌三个谷点P3,P6,P9(食指与中指、中指与无名指、无名指与小指之间的谷点)的位置在之后的特征富集区域提取中比较重要,故对于手掌三个谷点进行精细定位。精细定位是在之前粗定位所得的结果上缩小搜索范围,以粗定位预测到的三个谷点的位置为中心,用一个较小的候选框把这三个谷点区域范围内的图片裁剪出来,对于每个谷点分别设计两个CNN来定位,最终谷点的定位结果取其两定位结果的平均。
其中定位CNN的损失函数为如下所示(l为候选框的宽度):
Figure GDA0001988331380000071
手掌两侧的关键点P0,P12主要用于定位手掌的宽度,故它俩位置的精调是通过对原图进行边缘检测,而后在两粗定位点的周边做位置迭代更新,更新到手掌边缘即停止迭代。
3.特征富集区域裁剪
在通过之前两个步骤确定了13个关键点的位置后,就可以通过关键点的坐标来裁剪出掌纹图片的特征富集区域。
特征富集区域是根据关键点P3,P9(食指与中指、无名指与小指谷点)的连线确定方向,P0与P12之间的距离d确定特征富集区域的边长和与谷点P6的距离。如图1所示,直线P3P9与直线P6O垂直,线段P6O的长度为k1·d,特征富集区域边长为k2·d。
由于本方案中特征富集区域的确定使用食指与中指谷点、无名指与小指谷点确定方向,使用手掌宽度确定边长,使得通过该方案确定的特征富集区域十分稳定,对于手掌在图片中角度偏移以及手指张合程度不同的情况也有很好的识别稳定性。
以上内容仅为说明本发明的技术思想,不能以此限定本发明的保护范围,凡是按照本发明提出的技术思想,在技术方案基础上所做的任何改动,均落入本发明权利要求书的保护范围之内。

Claims (3)

1.一种稳定的掌纹图像特征富集区域提取方法,其特征在于,包括以下步骤:
步骤1:手掌位置检测,采用手掌位置检测算法来定位输入图像中手掌的位置,具体方法如下:
将输入图像分成S×S个格子,每个格子负责检测落入该格子的手掌;若一手掌的中心位置的坐标落入到某个格子,那么这个格子就负责检测出这个物体;每个格子输出B个候选框的矩形区域信息,它包括5个数值,分别是候选框中心位置坐标x、y,候选框宽度和高度w、h,候选框中是手掌的置信度confidence;
训练时使用均方和误差作为损失函数来优化模型参数,即网络输出的S×S×(B×5)维向量与真实图像的对应S×S×(B×5)维向量的均方和误差;如下式所示:
Figure FDA0002626326940000011
其中,coordError和iouError分别代表预测数据与标定数据之间的坐标误差、预测候选框与手掌真实区域的交集面积IOU误差;
步骤2:在检测出输入图像中的手掌位置后,采用定位算法对手掌的关键点进行粗定位,进而进行精调;
步骤3:确定关键点的位置后,通过关键点的坐标来裁剪出掌纹图片的特征富集区域。
2.根据权利要求1所述的稳定的掌纹图像特征富集区域提取方法,其特征在于,步骤2中,对候选框中手掌的关键点进行定位的具体方法如下:
粗定位由一6层的卷积神经网络来完成,其输出为一2×13维的向量,为13个关键点的归一化后的坐标;
对手掌三个谷点P3,P6,P9进行精细定位,精细定位是在粗定位所得的结果上缩小搜索范围,以粗定位预测到的三个谷点的位置为中心,用一个候选框把这三个谷点区域范围内的图片裁剪出来,对于每个谷点分别设计两个卷积神经网络来定位,最终谷点的定位结果取其两定位结果的平均;
其中定位卷积神经网络CNN损失函数为如下所示:
Figure FDA0002626326940000021
其中,l为候选框的宽度;手掌两侧的关键点P0,P12用于定位手掌的宽度,故二者位置的精调是通过对原图进行边缘检测,而后在两粗定位点的周边做位置迭代更新,更新到手掌边缘即停止迭代。
3.根据权利要求2所述的稳定的掌纹图像特征富集区域提取方法,其特征在于,步骤3中,裁剪出掌纹图片的特征富集区域的具体方法如下:
特征富集区域是根据关键点食指与中指P3、无名指与小指谷点P9的连线确定方向,P0与P12之间的距离d确定特征富集区域的边长和与谷点P6的距离;直线P3P9与直线P6O垂直,线段P6O的长度为k1·d,特征富集区域边长为k2·d。
CN201811646238.6A 2018-12-29 2018-12-29 一种稳定的掌纹图像特征富集区域提取方法 Active CN109784241B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811646238.6A CN109784241B (zh) 2018-12-29 2018-12-29 一种稳定的掌纹图像特征富集区域提取方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811646238.6A CN109784241B (zh) 2018-12-29 2018-12-29 一种稳定的掌纹图像特征富集区域提取方法

Publications (2)

Publication Number Publication Date
CN109784241A CN109784241A (zh) 2019-05-21
CN109784241B true CN109784241B (zh) 2020-10-27

Family

ID=66499644

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811646238.6A Active CN109784241B (zh) 2018-12-29 2018-12-29 一种稳定的掌纹图像特征富集区域提取方法

Country Status (1)

Country Link
CN (1) CN109784241B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111339932B (zh) * 2020-02-25 2022-10-14 南昌航空大学 一种掌纹图像预处理方法和系统
CN113705344A (zh) * 2021-07-21 2021-11-26 西安交通大学 基于全手掌的掌纹识别方法、装置、终端设备及存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104123531A (zh) * 2013-04-28 2014-10-29 汉王科技股份有限公司 一种掌纹兴趣区域定位的方法和装置
CN107657239A (zh) * 2017-09-30 2018-02-02 清华大学深圳研究生院 掌纹图像性别分类方法及装置、计算机装置及可读存储介质

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105701513B (zh) * 2016-01-14 2019-06-07 深圳市未来媒体技术研究院 快速提取掌纹感兴趣区域的方法
CN106096370A (zh) * 2016-06-18 2016-11-09 上海市数字证书认证中心有限公司 一种双点辅助定位的移动终端掌纹认证方法
CN107609499A (zh) * 2017-09-04 2018-01-19 南京航空航天大学 一种复杂环境下非接触式掌纹感兴趣区提取方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104123531A (zh) * 2013-04-28 2014-10-29 汉王科技股份有限公司 一种掌纹兴趣区域定位的方法和装置
CN107657239A (zh) * 2017-09-30 2018-02-02 清华大学深圳研究生院 掌纹图像性别分类方法及装置、计算机装置及可读存储介质

Also Published As

Publication number Publication date
CN109784241A (zh) 2019-05-21

Similar Documents

Publication Publication Date Title
CN106682598B (zh) 一种基于级联回归的多姿态的人脸特征点检测方法
WO2020083407A1 (zh) 三维指静脉特征提取方法及其匹配方法
CN108615016B (zh) 人脸关键点检测方法和人脸关键点检测装置
CN106407985B (zh) 一种三维人体头部点云特征提取方法及其装置
CN108256421A (zh) 一种动态手势序列实时识别方法、系统及装置
CN109685013B (zh) 人体姿态识别中头部关键点的检测方法及装置
CN110008913A (zh) 基于姿态估计与视点机制融合的行人再识别方法
CN108182397B (zh) 一种多姿态多尺度的人脸验证方法
CN104091162A (zh) 基于特征点的三维人脸识别方法
WO2021227331A1 (zh) 一种基于地形凹凸特性的指静脉机器学习识别方法及装置
CN102938065A (zh) 基于大规模图像数据的人脸特征提取方法及人脸识别方法
Fang et al. A novel video-based system for in-air signature verification
CN107944435A (zh) 一种三维人脸识别方法、装置及处理终端
CN104598879A (zh) 基于半刚性区域面部轮廓线的三维人脸识别方法
CN107169479A (zh) 基于指纹验证的智能移动设备敏感数据防护方法
CN110796101A (zh) 一种嵌入式平台的人脸识别方法及系统
CN101131728A (zh) 一种基于Shape Context的人脸形状匹配方法
Bhuyan et al. Hand pose identification from monocular image for sign language recognition
CN111091075A (zh) 人脸识别方法、装置、电子设备及存储介质
WO2015131468A1 (en) Method and system for estimating fingerprint pose
CN103425970A (zh) 一种基于头部姿态的人机交互方法
CN109784241B (zh) 一种稳定的掌纹图像特征富集区域提取方法
WO2015165227A1 (zh) 人脸识别方法
CN112686191B (zh) 基于人脸三维信息的活体防伪方法、系统、终端及介质
CN102831408A (zh) 人脸识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20210715

Address after: 214063 7th floor, building A3, No.777 Jianshe West Road, Binhu District, Wuxi City, Jiangsu Province

Patentee after: GRASP TECHNOLOGY WUXI Co.,Ltd.

Address before: Beilin District Xianning West Road 710049, Shaanxi city of Xi'an province No. 28

Patentee before: XI'AN JIAOTONG University

TR01 Transfer of patent right