CN116778533A - 一种掌纹全感兴趣区域图像提取方法、装置、设备及介质 - Google Patents
一种掌纹全感兴趣区域图像提取方法、装置、设备及介质 Download PDFInfo
- Publication number
- CN116778533A CN116778533A CN202310706129.3A CN202310706129A CN116778533A CN 116778533 A CN116778533 A CN 116778533A CN 202310706129 A CN202310706129 A CN 202310706129A CN 116778533 A CN116778533 A CN 116778533A
- Authority
- CN
- China
- Prior art keywords
- feature
- feature map
- layer
- palm print
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000605 extraction Methods 0.000 title claims abstract description 143
- 238000011176 pooling Methods 0.000 claims abstract description 66
- 238000005070 sampling Methods 0.000 claims abstract description 45
- 238000000034 method Methods 0.000 claims abstract description 24
- 238000005520 cutting process Methods 0.000 claims abstract description 7
- 238000010586 diagram Methods 0.000 claims description 60
- 238000012549 training Methods 0.000 claims description 24
- 238000012545 processing Methods 0.000 claims description 15
- 238000013507 mapping Methods 0.000 claims description 13
- 238000012216 screening Methods 0.000 claims description 9
- 238000004590 computer program Methods 0.000 claims description 6
- 238000003860 storage Methods 0.000 claims description 6
- 238000005096 rolling process Methods 0.000 claims description 5
- 230000001629 suppression Effects 0.000 claims description 5
- 238000002372 labelling Methods 0.000 claims description 4
- 238000013519 translation Methods 0.000 claims description 4
- 238000013527 convolutional neural network Methods 0.000 description 11
- 210000003811 finger Anatomy 0.000 description 9
- 230000000694 effects Effects 0.000 description 6
- 238000012360 testing method Methods 0.000 description 5
- 238000001514 detection method Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 239000000284 extract Substances 0.000 description 4
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000005286 illumination Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 210000004932 little finger Anatomy 0.000 description 2
- 238000013145 classification model Methods 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 238000002788 crimping Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000005021 gait Effects 0.000 description 1
- 230000005764 inhibitory process Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/12—Fingerprints or palmprints
- G06V40/1347—Preprocessing; Feature extraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/16—Image acquisition using multiple overlapping images; Image stitching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/12—Fingerprints or palmprints
- G06V40/1365—Matching; Classification
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Life Sciences & Earth Sciences (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种掌纹全感兴趣区域图像提取方法、装置、设备及介质,包括获取手部图像,将手部图像输入至预置掌纹提取模型;采用主干网络对手部图像执行特征提取操作,生成多个多层特征图;通过特征金字塔网络对各多层特征图进行分支采样拼接和最大池化,确定多个特征图;将特征图输入至区域提议网络进行卷积运算,输出多个候选框;通过区域生成预测器对多个候选框和多个特征图执行池化分类操作,确定预测框;采用预测框对手部图像进行裁剪,生成掌纹全感兴趣区域图像。解决了现有技术只提取手掌中心的局部区域作为ROI,使得掌纹ROI提取的难度较大,导致在复杂环境下掌纹ROI提取的精度不理想的技术问题。
Description
技术领域
本发明涉及图像处理技术领域,尤其涉及一种掌纹全感兴趣区域图像提取方法、装置、设备及介质。
背景技术
随着数字时代的高速发展,生物特征识别技术已经成为信息化社会不可或缺的一部分。目前,生物特征识别技术主要有指纹识别、虹膜识别、人脸识别、步态识别和掌纹识别等。与其他生物特征相比,手掌作为人体富含生物特征的区域,掌纹具有丰富的生物特征信息,其特征具备稳定性和唯一性,所以掌纹识别技术能够提高个人身份的准确鉴定、个人信息安全等方面的方便性和安全性,具有很强的应用价值。
传统的掌纹ROI(Region of Interest,感兴趣区域)图像的提取方法主要为先通过边缘检测等寻找食指与中指之间和无名指与小指之间的两个关键点;两个关键点之间线段的垂直平分线设置为ROI的中心线,并定位ROI的区域;最后将定位的区域裁剪和调整大小,例如128×128像素,作为掌纹传统ROI。
该方法在用户使用的现实场景中,往往会受到复杂背景和手姿势多样性的干扰,使得手掌的提取区域容易与背景混淆,且传统掌纹ROI提取方法只提取手掌中心的局部区域作为ROI,使得需要先找到隐蔽的手指关键点再找到手掌中心区域,从而导致在复杂环境下掌纹ROI提取的精度不理想。
发明内容
本发明提供了一种掌纹全感兴趣区域图像提取方法、装置、设备及介质,解决了现有技术在用户使用的现实场景中,往往会受到复杂背景和手姿势多样性的干扰,使得手掌的提取区域容易与背景混淆,且传统掌纹ROI提取方法只提取手掌中心的局部区域作为ROI,使得需要先找到隐蔽的手指关键点再找到手掌中心区域,从而导致在复杂环境下掌纹ROI提取的精度不理想的技术问题。
本发明提供的一种掌纹全感兴趣区域图像提取方法,包括:
获取待识别手部图像,将所述待识别手部图像输入至预置掌纹提取模型,所述预置掌纹提取模型包括主干网络、特征金字塔网络、区域提议网络和区域生成预测器;
采用所述主干网络对所述待识别手部图像执行特征提取操作,生成多个多层特征图;
通过所述特征金字塔网络对各所述多层特征图进行分支采样拼接和最大池化,确定多个多尺度特征图和粗特征图;
将所述粗特征图输入至所述区域提议网络进行卷积运算,输出多个候选框;
通过所述区域生成预测器对多个所述候选框和多个所述多尺度特征图执行池化分类操作,确定目标预测框;
采用所述目标预测框对所述待识别手部图像进行裁剪,生成掌纹全感兴趣区域图像。
可选地,所述主干网络包括深度可分离卷积层和输入卷积层;所述采用所述主干网络对所述待识别手部图像执行特征提取操作,生成多个多层特征图的步骤,包括:
采用输入卷积层对输入的所述待识别手部图像进行卷积处理,生成浅层特征图;
将所述浅层特征图输入至级联的四个所述深度可分离卷积层执行特征提取操作,依次输出第一多层特征图、第二多层特征图、第三多层特征图和第四多层特征图。
可选地,所述特征金字塔网络包括下采样层、1×1二维卷积层、3×3二维卷积层和最大池化层;所述通过所述特征金字塔网络对各所述多层特征图进行分支采样拼接和最大池化,确定多个多尺度特征图和粗特征图的步骤,包括:
将所述第一多层特征图输入至所述1×1二维卷积层进行二维卷积运算,确定第一特征图;
对所述第一特征图和所述第二多层特征图进行拼接后,并通过所述1×1二维卷积层执行二维卷积运算操作,生成第二特征图;
对所述第二特征图和所述第三多层特征图进行拼接后,并通过所述1×1二维卷积层进行二维卷积运算,输出第三特征图;
对所述第三特征图和所述第四多层特征图进行拼接后,并通过所述1×1二维卷积层执行二维卷积运算操作,确定第四特征图;
基于所述下采样层、所述3×3二维卷积层和所述最大池化层,对所述第一特征图、所述第二特征图、所述第三特征图和所述第四特征图进行采样卷积和最大池化,确定多个多尺度特征图和粗特征图。
可选地,所述基于所述下采样层、所述3×3二维卷积层和所述最大池化层,对所述第一特征图、所述第二特征图、所述第三特征图和所述第四特征图进行采样卷积和最大池化,确定多个多尺度特征图和粗特征图的步骤,包括:
将所述第四特征图输入至所述下采样层执行下采样操作,确定第一采样特征图;
对所述第一采样特征图和所述第三特征图进行拼接,生成第一拼接特征图,接着通过所述下采样层对所述第一拼接特征图进行下采样,输出第二采样特征图;
对所述第二采样特征图和所述第二特征图进行拼接,生成第二拼接特征图,接着采用所述下采样层对所述第二拼接特征图进行下采样,输出第三采样特征图;
对所述第三采样特征图和所述第一特征图进行拼接后,并通过所述3×3二维卷积层进行特征提取,确定第一多尺度特征图;
对所述第一多尺度特征图和所述第二拼接特征图进行拼接后,并通过所述3×3二维卷积层执行特征提取操作,确定第二多尺度特征图;
对所述第二多尺度特征图和所述第一拼接特征图进行拼接后,并通过所述3×3二维卷积层进行特征提取,生成第三多尺度特征图;
对所述第三多尺度特征图和所述第四特征图进行拼接后,并通过所述3×3二维卷积层执行特征提取操作,输出第四多尺度特征图;
采用所述最大池化层对所述第四多尺度特征图执行最大池化操作,确定粗特征图。
可选地,所述区域提议网络包括1×1卷积层、3×3卷积层、锚框生成器和候选框过滤器;所述将所述粗特征图输入至所述区域提议网络进行卷积运算,输出多个候选框的步骤,包括:
将所述粗特征图分别输入至所述3×3卷积层和所述锚框生成器进行3×3卷积运算和像素映射平移,生成第一卷积特征图和多个初始锚框;
将所述第一卷积特征图分别输入至所述1×1卷积层进行1×1卷积运算,确定预测类别和初始预测框;
采用所述候选框过滤器对多个所述初始锚框、所述预测类别和所述初始预测框进行筛选,输出多个候选框。
可选地,所述区域生成预测器包括感兴趣区域池化层和全连接层;所述通过所述区域生成预测器对多个所述候选框和多个所述多尺度特征图执行池化分类操作,确定目标预测框的步骤,包括:
通过所述感兴趣区域池化层对多个所述候选框和多个所述多尺度特征图执行池化操作,生成多个池化特征图;
对各所述池化特征图执行特征展平操作后,并通过级联的三个所述全连接层进行特征映射分类,输出对应的多个中间预测框;
采用非极大值抑制算法对多个所述中间预测框进行筛选,确定目标预测框。
可选地,在所述获取待识别手部图像,将所述待识别手部图像输入至预置掌纹提取模型的步骤之前,包括:
获取待训练手部图像集,并对所述待训练手部图像集进行感兴趣区域标注,确定标注掌纹图像集;
采用所述标注掌纹图像集对初始掌纹提取模型的特征金字塔网络、区域提议网络和区域生成预测器进行局部模型训练,并实时统计训练迭代次数;
当所述训练迭代次数达到预设训练次数时,获得训练好的所述初始掌纹提取模型;
将训练好的所述初始掌纹提取模型作为所述预置掌纹提取模型。
本发明第二方面提供的一种掌纹全感兴趣区域图像提取装置,包括:
获取图像模块,用于获取待识别手部图像,将所述待识别手部图像输入至预置掌纹提取模型,所述预置掌纹提取模型包括主干网络、特征金字塔网络、区域提议网络和区域生成预测器;
特征提取模块,用于采用所述主干网络对所述待识别手部图像执行特征提取操作,生成多个多层特征图;
拼接特征模块,用于通过所述特征金字塔网络对各所述多层特征图进行分支采样拼接和最大池化,确定多个多尺度特征图和粗特征图;
卷积特征模块,用于将所述粗特征图输入至所述区域提议网络进行卷积运算,输出多个候选框;
池化特征模块,用于通过所述区域生成预测器对多个所述候选框和多个所述多尺度特征图执行池化分类操作,确定目标预测框;
裁剪图像模块,用于采用所述目标预测框对所述待识别手部图像进行裁剪,生成掌纹全感兴趣区域图像。
本发明第三方面提供的一种电子设备,包括存储器及处理器,所述存储器中储存有计算机程序,所述计算机程序被所述处理器执行时,使得所述处理器执行如上述任一项所述的掌纹全感兴趣区域图像提取方法的步骤。
本发明第四方面提供的一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被执行时实现如上述任一项所述的掌纹全感兴趣区域图像提取方法。
从以上技术方案可以看出,本发明具有以下优点:
本发明首先采用轻量级特征提取主干网络(MobileNet)替代原有的特征提取模块,使得网络参数大幅度降低的前提下,还能够高效、准确地提取手部图像的特征信息,保证了掌纹全感兴趣区域图像提取的准确度,其次,将主干网络提取的多层特征输入到特征金字塔网络(FPN)进行图像处理得到的多尺度特征,极大避免了特征信息的非歧视性丢失,同时结合区域提议网络(RPN)输出的高质量候选框,一起输入至区域生成预测器(FasterR-CNN预测器)进行映射处理得到的预测框,能够有效抵抗光照和手的上下左右倾斜的影响,对复杂场景和手姿态具有比较好的鲁棒性,从而准确判断出待识别图像是否含有手部图像,并能准确定位出手所属的区域,最后通过预测框对待识别图像定位并裁剪得到的掌纹全感兴趣区域图像,该图像包含了完整的手掌区域以及更全面的掌纹信息,为大规模掌纹识别、高精度识别提供信息保障,从而提高了掌纹ROI提取的精度并获得了更好的检测效果。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其它的附图。
图1为本发明实施例提供的一种掌纹全感兴趣区域图像提取方法的步骤流程图;
图2为本发明实施例提供的预置掌纹提取模型的结构示意图;
图3为本发明实施例提供的掌纹CROI(全感兴趣区域)图像的提取过程图;
图4为本发明实施例提供的传统掌纹ROI图像的提取过程图;
图5为本发明实施例提供的另一种掌纹全感兴趣区域图像提取方法的步骤流程图;
图6为本发明实施例提供的预置掌纹提取模型在XJTU-UP数据库上的提取效果图;
图7为本发明实施例提供的在XJTU-UP数据库的原始图像提取的传统掌纹图像和掌纹全感兴趣区域图像的对比图;
图8为本发明实施例提供的一种掌纹全感兴趣区域图像提取装置的结构框图。
具体实施方式
本发明实施例提供了一种掌纹全感兴趣区域图像提取方法、装置、设备及介质,用于解决现有技术在用户使用的现实场景中,往往会受到复杂背景和手姿势多样性的干扰,使得手掌的提取区域容易与背景混淆,且传统掌纹ROI提取方法只提取手掌中心的局部区域作为ROI,使得需要先找到隐蔽的手指关键点再找到手掌中心区域,从而导致在复杂环境下掌纹ROI提取的精度不理想的技术问题。
为使得本发明的发明目的、特征、优点能够更加的明显和易懂,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,下面所描述的实施例仅仅是本发明一部分实施例,而非全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
请参阅图1,图1为本发明实施例提供的一种掌纹全感兴趣区域图像提取方法的步骤流程图。
本发明提供的一种掌纹全感兴趣区域图像提取方法,包括:
步骤101、获取待识别手部图像,将待识别手部图像输入至预置掌纹提取模型,预置掌纹提取模型包括主干网络、特征金字塔网络、区域提议网络和区域生成预测器。
值得一提的是,通过手机或其他拍照设备的摄像头对手部进行拍照,得到待识别手部图像。
请参阅图2,本发明实施例所提供的预置掌纹提取模型为Faster R-CNN的轻量级掌纹CROI(Complete Region of Interest,全感兴趣区域)提取网络模型,其是基于FasterR-CNN(Faster Region-CNN,区域生成模型)模型,将特征提取主干网络改进为MobileNet(轻量级卷积神经网络)的轻量级掌纹CROI提取模型;该模型包括主干网络、特征金字塔网络、区域提议网络和区域生成预测器,其中,主干网络为MobileNet,能够高效、准确地提取特征信息;特征金字塔网络为FPN(Feature Pyramid Networks)模块,能够进行跨尺度特征结合从而得到不同尺度的特征,避免了特征信息的丢失和过度拉伸;区域提议网络为RPN(Region Proposal Network)模块,用来提取高质量候选框的网络;区域生成预测器为Faster R-CNN模块,能够提高检测速度和检测精度。
在本实施例中,获取待识别手部图像,将待识别手部图像输入至预置掌纹提取模型,预置掌纹提取模型包括主干网络、特征金字塔网络、区域提议网络和区域生成预测器。
步骤102、采用主干网络对待识别手部图像执行特征提取操作,生成多个多层特征图。
在本步骤中,多层特征图包括第一多层特征图、第二多层特征图、第三多层特征图和第四多层特征图。
在本实施例中,采用主干网络对待识别手部图像执行特征提取操作,生成多个多层特征图。
步骤103、通过特征金字塔网络对各多层特征图进行分支采样拼接和最大池化,确定多个多尺度特征图和粗特征图。
在本步骤中,多尺度特征图包括第一多尺度特征图、第二多尺度特征图、第三多尺度特征图和第四多尺度特征图。
在本实施例中,通过特征金字塔网络对各多层特征图进行分支采样拼接和最大池化,确定多个多尺度特征图和粗特征图。
步骤104、将粗特征图输入至区域提议网络进行卷积运算,输出多个候选框。
在本实施例中,将粗特征图输入至区域提议网络进行卷积运算,输出多个候选框。
步骤105、通过区域生成预测器对多个候选框和多个多尺度特征图执行池化分类操作,确定目标预测框。
在本实施例中,通过区域生成预测器对多个候选框和多个多尺度特征图执行池化分类操作,确定目标预测框。
步骤106、采用目标预测框对待识别手部图像进行裁剪,生成掌纹全感兴趣区域图像。
请参阅图3,本实施例设计了掌纹CROI(Complete Region of Interest,全感兴趣区域)图像的提取过程为根据给定的一张手原始图像(a);可知手的掌纹区域(b);根据该掌纹区域,确定与之相切的矩形框(c);最后根据矩形框裁剪出的掌纹图像(d),即为掌纹全感兴趣区域(CROI)图像。本实施例通过预置掌纹提取模型提取的掌纹全感兴趣区域图像包含了完整的手掌区域,具备包含全面掌纹信息以及方便掌纹提取的特点,为大规模掌纹识别、高精度识别提供信息保障。
请参阅图4,而传统的掌纹ROI图像的提取过程为根据给定的手原始图像(e);检测食指与中指之间、无名指与小指之间的两个关键点(f);根据关键点定位传统掌纹ROI位置(g);对该位置裁剪后得到的传统掌纹ROI图像(h);该图像需要在简单纯色的背景下提取,且携带的掌纹信息量太少以及受掌纹蜷缩变形的影响较大,难以满足大量用户的使用需求,故本实施例提取的掌纹全感兴趣区域(CROI)图像由于携带更全面的掌纹信息,能够提高掌纹识别系统的精度和稳定,能够带来更好的检测效果。
在本实施例中,采用目标预测框对待识别手部图像进行裁剪,生成掌纹全感兴趣区域图像。
在本发明实施例中,通过采用轻量级特征提取主干网络(MobileNet)替代原有的特征提取模块,使得网络参数大幅度降低的前提下,还能够高效、准确地提取手部图像的特征信息,保证了掌纹全感兴趣区域图像提取的准确度,其次,将主干网络提取的多层特征输入到特征金字塔网络(FPN)进行图像处理得到的多尺度特征,极大避免了特征信息的非歧视性丢失,同时结合区域提议网络(RPN)输出的高质量候选框,一起输入至区域生成预测器(Faster R-CNN预测器)进行映射处理得到的预测框,能够有效抵抗光照和手的上下左右倾斜的影响,对复杂场景和手姿态具有比较好的鲁棒性,从而准确判断出待识别图像是否含有手部图像,并能准确定位出手所属的区域,最后通过预测框对待识别图像定位并裁剪得到的掌纹全感兴趣区域图像,该图像包含了完整的手掌区域以及更全面的掌纹信息,为大规模掌纹识别、高精度识别提供信息保障,从而提高了掌纹ROI提取的精度并获得了更好的检测效果。
请参阅图5,图5为本发明实施例提供的一种掌纹全感兴趣区域图像提取方法的步骤流程图。
本发明提供的一种掌纹全感兴趣区域图像提取方法,包括:
步骤501、获取待训练手部图像集,并对待训练手部图像集进行感兴趣区域标注,确定标注掌纹图像集。
值得一提的是,首先通过手机或其他拍照设备的摄像头采集的2000张不同的手部图片作为待训练手部图像集,并使用LabelImg标签制作工具进行掌纹CROI的标注,得到标注掌纹图像集。
在本实施例中,获取待训练手部图像集,并对待训练手部图像集进行感兴趣区域标注,确定标注掌纹图像集。
步骤502、采用标注掌纹图像集对初始掌纹提取模型的特征金字塔网络、区域提议网络和区域生成预测器进行局部模型训练,并实时统计训练迭代次数。
值得一提的是,采用ImageNet数据集上的预训练参数作为主干网络的参数并对主干网络进行冻结,采用标注掌纹图像集对初始掌纹提取模型中的RPN、FPN和Faster R-CNN预测器进行局部模型训练,并实时统计训练迭代次数;其中,初始掌纹提取模型指的是未训练好的Faster R-CNN的轻量级掌纹CROI提取网络模型。
在本实施例中,采用标注掌纹图像集对初始掌纹提取模型的特征金字塔网络、区域提议网络和区域生成预测器进行局部模型训练,并实时统计训练迭代次数。
步骤503、当训练迭代次数达到预设训练次数时,获得训练好的初始掌纹提取模型。
示例性地,当训练迭代次数达到30次时,将最后一次迭代训练的参数作为模型的测试参数,并将该模型作为训练好的初始掌纹提取模型,以对新传入的手部图像进行掌纹CROI图像的提取。
在本实施例中,当训练迭代次数达到预设训练次数时,获得训练好的初始掌纹提取模型。
步骤504、将训练好的初始掌纹提取模型作为预置掌纹提取模型。
值得一提的是,将训练好的初始掌纹提取模型作为预置掌纹提取模型后,请参阅图6,接着使用XJTU-UP数据库,即通过iphone 6s采集的在自然光下和在闪光下的多张手部图片构成的掌纹数据库,将该数据库作为测试集来检验掌纹CROI的提取效果,测试集一共6000张现实复杂背景下的掌纹手部原始图像(部分如图6第一行),对应的掌纹CROI的提取效果如图6第二行所示;可以看出预置掌纹提取模型提取出的掌纹CROI的定位比较准确,能包含全面的掌纹信息,说明了预置掌纹提取模型能高效和精准地提取出掌纹CROI图像。同时看出,无论手的姿势和手的背景多复杂,轻量级掌纹CROI提取网络都能精准的提取,说明本实施例中的预置掌纹提取模型对复杂场景和手姿态具有比较好的鲁棒性。
在本实施例中,将训练好的初始掌纹提取模型作为预置掌纹提取模型。
步骤505、获取待识别手部图像,将待识别手部图像输入至预置掌纹提取模型,预置掌纹提取模型包括主干网络、特征金字塔网络、区域提议网络和区域生成预测器。
在本实施例中,获取待识别手部图像,将待识别手部图像输入至预置掌纹提取模型,预置掌纹提取模型包括主干网络、特征金字塔网络、区域提议网络和区域生成预测器。
步骤506、采用主干网络对待识别手部图像执行特征提取操作,生成多个多层特征图。
多层特征图,指的是主干网络进行图像处理后输出的特征图,可以理解的是,其可以对应为在图像检测过程中主干网络进行图像处理后任一输出的特征图。
主干网络包括深度可分离卷积层(Depthwise separable convolution,DSC)和输入卷积层(Conv1)。
示例性地,将待识别手部图像输入到主干网络Mobilenet中,首先对该图像进行步长为2的卷积,生成一个320*320*32的浅层特征图,然后经过Mobilenet中的DSC块进行特征的提取,本实施例取了前四个DSC块的特征图,可以看到这四个特征图的分辨率从160*160到20*20,覆盖了多种尺度的特征,因此作为FPN的多特征输入最好。
进一步地,步骤506可以包括以下子步骤:
S61、采用输入卷积层对输入的待识别手部图像进行卷积处理,生成浅层特征图。
S62、将浅层特征图输入至级联的四个深度可分离卷积层执行特征提取操作,依次输出第一多层特征图、第二多层特征图、第三多层特征图和第四多层特征图。
值得一提的是,通过深度可分离卷积层对浅层特征图执行特征提取操作,输出第一多层特征图;将第一多层特征图输入至深度可分离卷积层执行特征提取操作,获得第二多层特征图;采用深度可分离卷积层对第二多层特征图进行特征提取,生成第三多层特征图;通过深度可分离卷积层对第三多层特征图进行特征提取,输出第四多层特征图;其中,浅层特征图指的是在主干网络中生成的中间图。
在本实施例中,采用主干网络对待识别手部图像执行特征提取操作,生成多个多层特征图。
步骤507、通过特征金字塔网络对各多层特征图进行分支采样拼接和最大池化,确定多个多尺度特征图和粗特征图。
特征金字塔网络包括下采样层、1×1二维卷积层(Conv_2D 1×1)、3×3二维卷积层(Conv_2D 3×3)和最大池化层(Maxpool 1×1)。
多尺度特征图和粗特征图指的是特征金字塔网络进行图像处理后输出的特征图。
示例性地,多特征输入到FPN后,每个特征经过下采样与下面的特征进行相加并卷积得到四个不同的特征,即FPN输出的多尺度特征。而在20*20*256的输出特征再加一个最大池化层输出一个粗特征送入到RPN的特征输入。
进一步地,步骤507可以包括以下子步骤:
S71、将第一多层特征图输入至1×1二维卷积层进行二维卷积运算,确定第一特征图。
S72、对第一特征图和第二多层特征图进行拼接后,并通过1×1二维卷积层执行二维卷积运算操作,生成第二特征图。
S73、对第二特征图和第三多层特征图进行拼接后,并通过1×1二维卷积层进行二维卷积运算,输出第三特征图。
S74、对第三特征图和第四多层特征图进行拼接后,并通过1×1二维卷积层执行二维卷积运算操作,确定第四特征图。
S75、基于下采样层、3×3二维卷积层和最大池化层,对第一特征图、第二特征图、第三特征图和第四特征图进行采样卷积和最大池化,确定多个多尺度特征图和粗特征图。
进一步地,S75可以包括以下子步骤:
将第四特征图输入至下采样层执行下采样操作,确定第一采样特征图。对第一采样特征图和第三特征图进行拼接,生成第一拼接特征图,接着通过下采样层对第一拼接特征图进行下采样,输出第二采样特征图。对第二采样特征图和第二特征图进行拼接,生成第二拼接特征图,接着采用下采样层对第二拼接特征图进行下采样,输出第三采样特征图。对第三采样特征图和第一特征图进行拼接后,并通过3×3二维卷积层进行特征提取,确定第一多尺度特征图。对第一多尺度特征图和第二拼接特征图进行拼接后,并通过3×3二维卷积层执行特征提取操作,确定第二多尺度特征图。对第二多尺度特征图和第一拼接特征图进行拼接后,并通过3×3二维卷积层进行特征提取,生成第三多尺度特征图。对第三多尺度特征图和第四特征图进行拼接后,并通过3×3二维卷积层执行特征提取操作,输出第四多尺度特征图。采用最大池化层对第四多尺度特征图执行最大池化操作,确定粗特征图。
在本实施例中,通过特征金字塔网络对各多层特征图进行分支采样拼接和最大池化,确定多个多尺度特征图和粗特征图。
步骤508、将粗特征图输入至区域提议网络进行卷积运算,输出多个候选框。
区域提议网络包括1×1卷积层(Conv 1×1)、3×3卷积层(Conv 3×3)、锚框生成器和候选框过滤器。
示例性地,RPN得到FPN输出的粗特征后经过3*3卷积再分别经过1*1卷积层得到预测的类别和预测框。同时RPN中的锚图生成器会根据输入的特征图生成多个锚框,然后与得到的预测类别和预测框一起送入候选框过滤器筛选出包含有目标的候选框,然后将候选框送入Faster R-CNN预测器。
进一步地,步骤508可以包括以下子步骤:
S81、将粗特征图分别输入至3×3卷积层和锚框生成器进行3×3卷积运算和像素映射平移,生成第一卷积特征图和多个初始锚框.
S82、将第一卷积特征图分别输入至1×1卷积层进行1×1卷积运算,确定预测类别和初始预测框。
S83、采用候选框过滤器对多个初始锚框、预测类别和初始预测框进行筛选,输出多个候选框。
在本实施例中,将粗特征图输入至区域提议网络进行卷积运算,输出多个候选框。
步骤509、通过区域生成预测器对多个候选框和多个多尺度特征图执行池化分类操作,确定目标预测框。
区域生成预测器包括感兴趣区域池化层(ROI池化层)和全连接层(FC层)。
示例性地,FPN生成的多尺度特征与RPN生成的候选框一起输入到ROI池化层,根据候选框来池化到输入的多尺度特征图上,并且计算对应的IoU匹配合适的特征图,然后再将候选框的特征图展平再经过多个全连接层(FC)(特征映射分类)得到初步预测框。接着再送入过滤处理,其中有非极大抑制等处理,最后得到一个最合适的预测框输出。
进一步地,步骤509可以包括以下子步骤:
S91、通过感兴趣区域池化层对多个候选框和多个多尺度特征图执行池化操作,生成多个池化特征图。
S92、对各池化特征图执行特征展平操作后,并通过级联的三个全连接层进行特征映射分类,输出对应的多个中间预测框。
S93、采用非极大值抑制算法对多个中间预测框进行筛选,确定目标预测框。
值得一提的是,多个候选框和多个多尺度特征图输入至感兴趣区域池化层后,通过感兴趣区域池化层将各候选框池化到每一张多尺度特征图上,得到多张池化特征图,并计算多张池化特征图对应的IOU值,然后对各个池化特征图进行展平并经过多个全连接层进行特征映射分类,从而得到多个池化特征图对应的多个中间预测框,接着将多个中间预测框进行过滤处理,最后采用非极大值抑制NMS选取IOU值最大的对应的中间预测框作为目标预测框;其中,池化特征图为在区域生成预测器生成的中间图。
步骤510、采用目标预测框对待识别手部图像进行裁剪,生成掌纹全感兴趣区域图像。
值得一提的是,为了证明掌纹CROI在掌纹识别中的有效性,本实施例将其与传统掌纹ROI进行掌纹识别性能的对比。请参阅图7,本实施例采用了XJTU-UP数据库进行对比实验,分别提取了传统掌纹ROI和掌纹CROI。本实施例的使用了三个深度学习的经典分类模型:VGG16、Resnet50和Mobilenet。每个实验迭代300次,计算出鉴定精确度和等错误率,效果如表1所示。
从表1中看出,掌纹CROI的识别性能比传统掌纹ROI的识别性能都更好,这是因为掌纹CROI中掌纹信息更为全面,使得掌纹识别系统变得更准确和稳定。值得一说的是,掌纹CROI并没有对掌纹图像进行旋转纠正,但是识别的效果仍然比有旋转纠正的传统掌纹ROI更好。因此在未来,掌纹CROI在大规模用户的掌纹识别系统下比传统掌纹ROI更加有效。
表1传统掌纹ROI与掌纹CROI的对比实验数据
在本发明实施例中,通过采用轻量级特征提取主干网络(MobileNet)替代原有的特征提取模块,使得网络参数大幅度降低的前提下,还能够高效、准确地提取手部图像的特征信息,保证了掌纹全感兴趣区域图像提取的准确度,其次,将主干网络提取的多层特征输入到特征金字塔网络(FPN)进行图像处理得到的多尺度特征,极大避免了特征信息的非歧视性丢失,同时结合区域提议网络(RPN)输出的高质量候选框,一起输入至区域生成预测器(Faster R-CNN预测器)进行映射处理得到的预测框,能够有效抵抗光照和手的上下左右倾斜的影响,对复杂场景和手姿态具有比较好的鲁棒性,从而准确判断出待识别图像是否含有手部图像,并能准确定位出手所属的区域,最后通过预测框对待识别图像定位并裁剪得到的掌纹全感兴趣区域图像,该图像包含了完整的手掌区域以及更全面的掌纹信息,为大规模掌纹识别、高精度识别提供信息保障,从而提高了掌纹ROI提取的精度并获得了更好的检测效果。
请参阅图8,图8为本发明实施例提供的一种掌纹全感兴趣区域图像提取装置的结构框图。
获取图像模块801,用于获取待识别手部图像,将待识别手部图像输入至预置掌纹提取模型,预置掌纹提取模型包括主干网络、特征金字塔网络、区域提议网络和区域生成预测器。
特征提取模块802,用于采用主干网络对待识别手部图像执行特征提取操作,生成多个多层特征图。
拼接特征模块803,用于通过特征金字塔网络对各多层特征图进行分支采样拼接和最大池化,确定多个多尺度特征图和粗特征图。
卷积特征模块804,用于将粗特征图输入至区域提议网络进行卷积运算,输出多个候选框。
池化特征模块805,用于通过区域生成预测器对多个候选框和多个多尺度特征图执行池化分类操作,确定目标预测框。
裁剪图像模块806,用于采用目标预测框对待识别手部图像进行裁剪,生成掌纹全感兴趣区域图像。
进一步地,特征提取模块802包括:
输入卷积子模块,用于采用输入卷积层对输入的待识别手部图像进行卷积处理,生成浅层特征图。
输出多层特征图子模块,用于将浅层特征图输入至级联的四个深度可分离卷积层执行特征提取操作,依次输出第一多层特征图、第二多层特征图、第三多层特征图和第四多层特征图。
进一步地,拼接特征模块803包括:
第一特征子模块,用于将第一多层特征图输入至1×1二维卷积层进行二维卷积运算,确定第一特征图。
第二特征子模块,用于对第一特征图和第二多层特征图进行拼接后,并通过1×1二维卷积层执行二维卷积运算操作,生成第二特征图。
第三特征子模块,用于对第二特征图和第三多层特征图进行拼接后,并通过1×1二维卷积层进行二维卷积运算,输出第三特征图。
第四特征子模块,用于对第三特征图和第四多层特征图进行拼接后,并通过1×1二维卷积层执行二维卷积运算操作,确定第四特征图。
多特征子模块,用于基于下采样层、3×3二维卷积层和最大池化层,对第一特征图、第二特征图、第三特征图和第四特征图进行采样卷积和最大池化,确定多个多尺度特征图和粗特征图。
进一步地,多特征子模块包括:
第一采样单元,用于将第四特征图输入至下采样层执行下采样操作,确定第一采样特征图。
第一采样拼接单元,用于对第一采样特征图和第三特征图进行拼接,生成第一拼接特征图,接着通过下采样层对第一拼接特征图进行下采样,输出第二采样特征图。
第二采样拼接单元,用于对第二采样特征图和第二特征图进行拼接,生成第二拼接特征图,接着采用下采样层对第二拼接特征图进行下采样,输出第三采样特征图。
第一多尺度单元,用于对第三采样特征图和第一特征图进行拼接后,并通过3×3二维卷积层进行特征提取,确定第一多尺度特征图。
第二多尺度单元,用于对第一多尺度特征图和第二拼接特征图进行拼接后,并通过3×3二维卷积层执行特征提取操作,确定第二多尺度特征图。
第三多尺度单元,用于对第二多尺度特征图和第一拼接特征图进行拼接后,并通过3×3二维卷积层进行特征提取,生成第三多尺度特征图。
第四多尺度单元,用于对第三多尺度特征图和第四特征图进行拼接后,并通过3×3二维卷积层执行特征提取操作,输出第四多尺度特征图。
粗特征单元,用于采用最大池化层对第四多尺度特征图执行最大池化操作,确定粗特征图。
进一步地,卷积特征模块804包括:
卷积子模块,用于将粗特征图分别输入至3×3卷积层和锚框生成器进行3×3卷积运算和像素映射平移,生成第一卷积特征图和多个初始锚框。
预测子模块,用于将第一卷积特征图分别输入至1×1卷积层进行1×1卷积运算,确定预测类别和初始预测框。
输出子模块,用于采用候选框过滤器对多个初始锚框、预测类别和初始预测框进行筛选,输出多个候选框。
进一步地,池化特征模块805包括:
池化子模块,用于通过感兴趣区域池化层对多个候选框和多个多尺度特征图执行池化操作,生成多个池化特征图。
映射子模块,用于对各池化特征图执行特征展平操作后,并通过级联的三个全连接层进行特征映射分类,输出对应的多个中间预测框。
筛选子模块,用于采用非极大值抑制算法对多个中间预测框进行筛选,确定目标预测框。
在一种可选实施例中,装置还包括:
获取数据模块,用于获取待训练手部图像集,并对待训练手部图像集进行感兴趣区域标注,确定标注掌纹图像集。
训练模块,用于采用标注掌纹图像集对初始掌纹提取模型的特征金字塔网络、区域提议网络和区域生成预测器进行局部模型训练,并实时统计训练迭代次数。
判断模块,用于当训练迭代次数达到预设训练次数时,获得训练好的初始掌纹提取模型。
确定模型模块,用于将训练好的初始掌纹提取模型作为预置掌纹提取模型。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的装置、模块、子模块和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
本发明实施例还提供了一种电子设备,设备包括处理器以及存储器:
存储器用于存储程序代码,并将程序代码传输给处理器;
处理器用于根据程序代码中的指令执行本发明上述实施例的掌纹全感兴趣区域图像提取方法。
本发明实施例还提供了一种计算机可读存储介质,计算机可读存储介质用于存储程序代码,程序代码用于执行本发明上述实施例的掌纹全感兴趣区域图像提取方法。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-OnlyMemory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (10)
1.一种掌纹全感兴趣区域图像提取方法,其特征在于,包括:
获取待识别手部图像,将所述待识别手部图像输入至预置掌纹提取模型,所述预置掌纹提取模型包括主干网络、特征金字塔网络、区域提议网络和区域生成预测器;
采用所述主干网络对所述待识别手部图像执行特征提取操作,生成多个多层特征图;
通过所述特征金字塔网络对各所述多层特征图进行分支采样拼接和最大池化,确定多个多尺度特征图和粗特征图;
将所述粗特征图输入至所述区域提议网络进行卷积运算,输出多个候选框;
通过所述区域生成预测器对多个所述候选框和多个所述多尺度特征图执行池化分类操作,确定目标预测框;
采用所述目标预测框对所述待识别手部图像进行裁剪,生成掌纹全感兴趣区域图像。
2.根据权利要求1所述的掌纹全感兴趣区域图像提取方法,其特征在于,所述主干网络包括深度可分离卷积层和输入卷积层;所述采用所述主干网络对所述待识别手部图像执行特征提取操作,生成多个多层特征图的步骤,包括:
采用输入卷积层对输入的所述待识别手部图像进行卷积处理,生成浅层特征图;
将所述浅层特征图输入至级联的四个所述深度可分离卷积层执行特征提取操作,依次输出第一多层特征图、第二多层特征图、第三多层特征图和第四多层特征图。
3.根据权利要求2所述的掌纹全感兴趣区域图像提取方法,其特征在于,所述特征金字塔网络包括下采样层、1×1二维卷积层、3×3二维卷积层和最大池化层;所述通过所述特征金字塔网络对各所述多层特征图进行分支采样拼接和最大池化,确定多个多尺度特征图和粗特征图的步骤,包括:
将所述第一多层特征图输入至所述1×1二维卷积层进行二维卷积运算,确定第一特征图;
对所述第一特征图和所述第二多层特征图进行拼接后,并通过所述1×1二维卷积层执行二维卷积运算操作,生成第二特征图;
对所述第二特征图和所述第三多层特征图进行拼接后,并通过所述1×1二维卷积层进行二维卷积运算,输出第三特征图;
对所述第三特征图和所述第四多层特征图进行拼接后,并通过所述1×1二维卷积层执行二维卷积运算操作,确定第四特征图;
基于所述下采样层、所述3×3二维卷积层和所述最大池化层,对所述第一特征图、所述第二特征图、所述第三特征图和所述第四特征图进行采样卷积和最大池化,确定多个多尺度特征图和粗特征图。
4.根据权利要求3所述的掌纹全感兴趣区域图像提取方法,其特征在于,所述基于所述下采样层、所述3×3二维卷积层和所述最大池化层,对所述第一特征图、所述第二特征图、所述第三特征图和所述第四特征图进行采样卷积和最大池化,确定多个多尺度特征图和粗特征图的步骤,包括:
将所述第四特征图输入至所述下采样层执行下采样操作,确定第一采样特征图;
对所述第一采样特征图和所述第三特征图进行拼接,生成第一拼接特征图,接着通过所述下采样层对所述第一拼接特征图进行下采样,输出第二采样特征图;
对所述第二采样特征图和所述第二特征图进行拼接,生成第二拼接特征图,接着采用所述下采样层对所述第二拼接特征图进行下采样,输出第三采样特征图;
对所述第三采样特征图和所述第一特征图进行拼接后,并通过所述3×3二维卷积层进行特征提取,确定第一多尺度特征图;
对所述第一多尺度特征图和所述第二拼接特征图进行拼接后,并通过所述3×3二维卷积层执行特征提取操作,确定第二多尺度特征图;
对所述第二多尺度特征图和所述第一拼接特征图进行拼接后,并通过所述3×3二维卷积层进行特征提取,生成第三多尺度特征图;
对所述第三多尺度特征图和所述第四特征图进行拼接后,并通过所述3×3二维卷积层执行特征提取操作,输出第四多尺度特征图;
采用所述最大池化层对所述第四多尺度特征图执行最大池化操作,确定粗特征图。
5.根据权利要求1所述的掌纹全感兴趣区域图像提取方法,其特征在于,所述区域提议网络包括1×1卷积层、3×3卷积层、锚框生成器和候选框过滤器;所述将所述粗特征图输入至所述区域提议网络进行卷积运算,输出多个候选框的步骤,包括:
将所述粗特征图分别输入至所述3×3卷积层和所述锚框生成器进行3×3卷积运算和像素映射平移,生成第一卷积特征图和多个初始锚框;
将所述第一卷积特征图分别输入至所述1×1卷积层进行1×1卷积运算,确定预测类别和初始预测框;
采用所述候选框过滤器对多个所述初始锚框、所述预测类别和所述初始预测框进行筛选,输出多个候选框。
6.根据权利要求1所述的掌纹全感兴趣区域图像提取方法,其特征在于,所述区域生成预测器包括感兴趣区域池化层和全连接层;所述通过所述区域生成预测器对多个所述候选框和多个所述多尺度特征图执行池化分类操作,确定目标预测框的步骤,包括:
通过所述感兴趣区域池化层对多个所述候选框和多个所述多尺度特征图执行池化操作,生成多个池化特征图;
对各所述池化特征图执行特征展平操作后,并通过级联的三个所述全连接层进行特征映射分类,输出对应的多个中间预测框;
采用非极大值抑制算法对多个所述中间预测框进行筛选,确定目标预测框。
7.根据权利要求1所述的掌纹全感兴趣区域图像提取方法,其特征在于,在所述获取待识别手部图像,将所述待识别手部图像输入至预置掌纹提取模型的步骤之前,包括:
获取待训练手部图像集,并对所述待训练手部图像集进行感兴趣区域标注,确定标注掌纹图像集;
采用所述标注掌纹图像集对初始掌纹提取模型的特征金字塔网络、区域提议网络和区域生成预测器进行局部模型训练,并实时统计训练迭代次数;
当所述训练迭代次数达到预设训练次数时,获得训练好的所述初始掌纹提取模型;
将训练好的所述初始掌纹提取模型作为所述预置掌纹提取模型。
8.一种掌纹全感兴趣区域图像提取装置,其特征在于,包括:
获取图像模块,用于获取待识别手部图像,将所述待识别手部图像输入至预置掌纹提取模型,所述预置掌纹提取模型包括主干网络、特征金字塔网络、区域提议网络和区域生成预测器;
特征提取模块,用于采用所述主干网络对所述待识别手部图像执行特征提取操作,生成多个多层特征图;
拼接特征模块,用于通过所述特征金字塔网络对各所述多层特征图进行分支采样拼接和最大池化,确定多个多尺度特征图和粗特征图;
卷积特征模块,用于将所述粗特征图输入至所述区域提议网络进行卷积运算,输出多个候选框;
池化特征模块,用于通过所述区域生成预测器对多个所述候选框和多个所述多尺度特征图执行池化分类操作,确定目标预测框;
裁剪图像模块,用于采用所述目标预测框对所述待识别手部图像进行裁剪,生成掌纹全感兴趣区域图像。
9.一种电子设备,其特征在于,包括存储器及处理器,所述存储器中储存有计算机程序,所述计算机程序被所述处理器执行时,使得所述处理器执行如权利要求1-7任一项所述的掌纹全感兴趣区域图像提取方法的步骤。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被执行时实现如权利要求1-7任一项所述的掌纹全感兴趣区域图像提取方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310706129.3A CN116778533A (zh) | 2023-06-14 | 2023-06-14 | 一种掌纹全感兴趣区域图像提取方法、装置、设备及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310706129.3A CN116778533A (zh) | 2023-06-14 | 2023-06-14 | 一种掌纹全感兴趣区域图像提取方法、装置、设备及介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116778533A true CN116778533A (zh) | 2023-09-19 |
Family
ID=88007416
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310706129.3A Pending CN116778533A (zh) | 2023-06-14 | 2023-06-14 | 一种掌纹全感兴趣区域图像提取方法、装置、设备及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116778533A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117831082A (zh) * | 2023-12-29 | 2024-04-05 | 广电运通集团股份有限公司 | 手掌区域检测方法和装置 |
-
2023
- 2023-06-14 CN CN202310706129.3A patent/CN116778533A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117831082A (zh) * | 2023-12-29 | 2024-04-05 | 广电运通集团股份有限公司 | 手掌区域检测方法和装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Wang et al. | Towards complete and accurate iris segmentation using deep multi-task attention network for non-cooperative iris recognition | |
Bhanu et al. | Deep learning for biometrics | |
Chen et al. | Look, perceive and segment: Finding the salient objects in images via two-stream fixation-semantic cnns | |
CN108062525B (zh) | 一种基于手部区域预测的深度学习手部检测方法 | |
CN110659589B (zh) | 基于姿态和注意力机制的行人再识别方法、系统、装置 | |
Dagnes et al. | Occlusion detection and restoration techniques for 3D face recognition: a literature review | |
CN111445459B (zh) | 一种基于深度孪生网络的图像缺陷检测方法及系统 | |
Ungureanu et al. | Toward unconstrained palmprint recognition on consumer devices: A literature review | |
Malgheet et al. | Iris recognition development techniques: a comprehensive review | |
CN113963032A (zh) | 一种融合目标重识别的孪生网络结构目标跟踪方法 | |
CN111080670A (zh) | 图像提取方法、装置、设备及存储介质 | |
Yang et al. | A robust iris segmentation using fully convolutional network with dilated convolutions | |
CN112101208A (zh) | 高龄老人特征串联融合手势识别方法及装置 | |
CN111209873A (zh) | 一种基于深度学习的高精度人脸关键点定位方法及系统 | |
CN116778533A (zh) | 一种掌纹全感兴趣区域图像提取方法、装置、设备及介质 | |
CN104504161B (zh) | 一种基于机器人视觉平台的图像检索方法 | |
Huang et al. | M2-Net: multi-stages specular highlight detection and removal in multi-scenes | |
CN110826534A (zh) | 一种基于局部主成分分析的人脸关键点检测方法及系统 | |
Fathee et al. | Iris segmentation in uncooperative and unconstrained environments: state-of-the-art, datasets and future research directions | |
Alghamdi et al. | Automated person identification framework based on fingernails and dorsal knuckle patterns | |
Ma et al. | Local blur mapping: Exploiting high-level semantics by deep neural networks | |
WO2022121858A1 (zh) | 图像处理方法、指纹信息提取方法、装置、设备、产品及介质 | |
Wu | Data augmentation | |
Viswanathan | Data fusion | |
CN110751034A (zh) | 行人行为识别方法及终端设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |