CN116052231A - 掌静脉识别方法、装置、设备及存储介质 - Google Patents
掌静脉识别方法、装置、设备及存储介质 Download PDFInfo
- Publication number
- CN116052231A CN116052231A CN202211727586.2A CN202211727586A CN116052231A CN 116052231 A CN116052231 A CN 116052231A CN 202211727586 A CN202211727586 A CN 202211727586A CN 116052231 A CN116052231 A CN 116052231A
- Authority
- CN
- China
- Prior art keywords
- palm
- brightness
- preset
- area
- condition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/14—Vascular patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/762—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10048—Infrared image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30101—Blood vessel; Artery; Vein; Vascular
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30168—Image quality inspection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Human Computer Interaction (AREA)
- Vascular Medicine (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Quality & Reliability (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Collating Specific Patterns (AREA)
Abstract
本申请公开了一种掌静脉识别方法、装置、设备及存储介质,该方法包括:根据预设的手掌区域坐标,从手掌图像中提取第一手掌区域;在第一手掌区域的亮度值满足预设亮度条件的情况下,通过关键点检测算法从手掌图像中提取第二手掌区域;在第二手掌区域的图像质量满足预设合格条件的情况下,从第二手掌区域提取掌静脉特征,并根据掌静脉特征确定用户身份。通过上述技术手段,基于预设的手掌区域坐标从手掌图像中提取大致的手掌区域,并根据大致手掌区域的亮度值对手掌图像的亮度质量进行评估,以快速筛选出图片队列中质量不合格的图片,避免不合格图片占用过长的处理时间,有效提高了识别效率,解决了现有技术中掌静脉识别所需时间较长的问题。
Description
技术领域
本申请实施例涉及生物识别技术领域,尤其涉及一种掌静脉识别方法、装置、设备及存储介质。
背景技术
随着掌静脉识别技术的快速发展,掌静脉识别技术被广泛应用到各种身份识别系统,例如安保系统、门禁系统、地铁过闸系统和签到系统等。掌静脉识别过程大致为:将相机拍摄的手掌图片以队列的形式依次处理,在处理过程中评估手掌图片的质量,并将质量不合格的手掌图片丢弃,直至对第一张质量合格的手掌图片进行掌静脉识别,确定用户身份。
在现有技术中,通过图像噪声估计算法和拉普拉斯算子检测图像的噪声和模糊来估计图像质量。以上算法往往需要较大的耗时,如果对每张手掌图片都进行以上的质量评估,会延长身份识别时间,降低身份识别效率,导致用户需等待较长时间才能完成身份识别。
发明内容
本申请实施例提供一种掌静脉识别方法、装置、设备及存储介质,通过预设的手掌区域坐标从手掌图像中提取大致的手掌区域,并根据大致手掌区域的亮度值对手掌图像的亮度质量进行评估,以快速筛选出图片队列中质量不合格的图片,避免不合格图片占用过长的处理时间,有效提高了识别效率,解决了现有技术中掌静脉识别所需时间较长的问题。
第一方面,本申请实施例提供了一种掌静脉识别方法,包括:
根据预设的手掌区域坐标,从手掌图像中提取第一手掌区域;
在所述第一手掌区域的亮度值满足预设亮度条件的情况下,通过关键点检测算法从所述手掌图像中提取第二手掌区域;
在所述第二手掌区域的图像质量满足预设合格条件的情况下,从所述第二手掌区域提取掌静脉特征,并根据所述掌静脉特征确定用户身份。
进一步的,在所述第一手掌区域的亮度值满足预设亮度条件之前,还包括:
按照预设间隔均匀从所述第一手掌区域中提取多个像素点,根据所述多个像素点的亮度值确定所述第一手掌区域的亮度值;
在所述亮度值满足预设亮度范围的情况下,确定所述第一手掌区域的亮度值满足预设亮度条件。
进一步的,所述根据所述多个像素点的亮度值确定所述第一手掌区域的亮度值包括:
将所述多个像素点的亮度平均值确定为所述第一手掌区域的亮度值。
进一步的,在所述根据预设的手掌区域坐标,从手掌图像中提取第一手掌区域之前,还包括:
获取多个样本手掌图像,并通过所述关键点检测算法从每个所述样本手掌图像中提取第三手掌区域;
根据每个所述第三手掌区域的像素坐标,确定所述手掌区域坐标。
进一步的,在所述确定所述手掌区域坐标之后,还包括:
将每个所述第三手掌区域输入预先训练的质量检测模型,得到所述质量检测模型输出的质量检测结果,所述质量检测结果包括质量不合格和质量合格;
根据每个所述第三手掌区域的亮度值和质量检测结果,确定所述预设亮度条件中的预设亮度范围。
进一步的,所述根据每个所述第三手掌区域的亮度值和质量检测结果,确定所述预设亮度条件中的预设亮度范围,包括:
将所述质量检测结果为质量合格的所述第三手掌区域划分至第一区域集合;
基于高斯概率密度函数,确定所述第一区域集合中第一预设比例的第三手掌区域的亮度值落入的亮度分布范围,并将所述亮度分布范围设置为所述预设亮度范围。
进一步的,所述根据每个所述第三手掌区域的亮度值和质量检测结果,确定所述预设亮度条件中的预设亮度范围,包括:
根据各个所述第三手掌区域的亮度值,对各个所述第三手掌区域进行聚类,确定每个所述第三手掌区域对应的亮度聚类集合;
根据每个所述亮度聚类集合中所述第三手掌区域的质量检测结果,确定对应所述亮度聚类集合中质量合格的第三手掌区域的比例;
在所述比例等于或大于第二预设比例的情况下,将对应所述亮度聚类集合对应的亮度范围为所述预设亮度范围。
第二方面,本申请实施例提供了一种掌静脉识别装置,包括:
第一提取模块,被配置为根据预设的手掌区域坐标,从手掌图像中提取第一手掌区域;
第二提取模块,被配置为在所述第一手掌区域的亮度值满足预设亮度条件的情况下,通过关键点检测算法从所述手掌图像中提取第二手掌区域;
识别模块,被配置为在所述第二手掌区域的图像质量满足预设合格条件的情况下,从所述第二手掌区域提取掌静脉特征,并根据所述掌静脉特征确定用户身份。
进一步的,所述第二提取模块还包括:
亮度值确定单元,被配置为在所述第一手掌区域的亮度值满足预设亮度条件之前,按照预设间隔均匀从所述第一手掌区域中提取多个像素点,根据所述多个像素点的亮度值确定所述第一手掌区域的亮度值;
第一条件判断单元,被配置为在所述亮度值满足预设亮度范围的情况下,确定所述第一手掌区域的亮度值满足预设亮度条件。
进一步的,所述亮度值确定单元包括:亮度平均值确定子单元,被配置为将所述多个像素点的亮度平均值确定为所述第一手掌区域的亮度值。
进一步的,所述掌静脉识别装置还包括:手掌区域坐标确定模块,所述手掌区域坐标确定模块包括:
样本图像获取单元,被配置为在所述根据预设的手掌区域坐标,从手掌图像中提取第一手掌区域之前,获取多个样本手掌图像,并通过所述关键点检测算法从每个所述样本手掌图像中提取第三手掌区域;
手掌区域坐标确定单元,被配置为根据每个所述第三手掌区域的像素坐标,确定所述手掌区域坐标。
进一步的,所述掌静脉识别装置还包括:预设亮度范围确定模块,预设亮度范围确定模块包括:
样本质量检测单元,被配置为在所述确定所述手掌区域坐标之后,将每个所述第三手掌区域输入预先训练的质量检测模型,得到所述质量检测模型输出的质量检测结果,所述质量检测结果包括质量不合格和质量合格;
预设亮度范围确定单元,被配置为根据每个所述第三手掌区域的亮度值和质量检测结果,确定所述预设亮度条件中的预设亮度范围。
进一步的,所述预设亮度范围确定单元包括:
集合划分子单元,被配置为将所述质量检测结果为质量合格的所述第三手掌区域划分至第一区域集合;
第一预设亮度确定子单元,被配置为基于高斯概率密度函数,确定所述第一区域集合中第一预设比例的第三手掌区域的亮度值落入的亮度分布范围,并将所述亮度分布范围设置为所述预设亮度范围。
进一步的,所述预设亮度范围确定单元包括:
聚类集合生成子单元,被配置为根据各个所述第三手掌区域的亮度值,对各个所述第三手掌区域进行聚类,确定每个所述第三手掌区域对应的亮度聚类集合;
比例确定子单元,被配置为根据每个所述亮度聚类集合中所述第三手掌区域的质量检测结果,确定对应所述亮度聚类集合中质量合格的第三手掌区域的比例;
第二预设亮度确定子单元,被配置为在所述比例等于或大于第二预设比例的情况下,将对应所述亮度聚类集合对应的亮度范围为所述预设亮度范围。
第三方面,本申请实施例提供了一种掌静脉识别设备,包括:
存储器以及一个或多个处理器;
所述存储器,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如第一方面所述的掌静脉识别方法。
第四方面,本申请实施例提供了一种包含计算机可执行指令的存储介质,所述计算机可执行指令在由计算机处理器执行时用于执行如第一方面所述的掌静脉识别方法。
本申请通过预设的手掌区域坐标,从手掌图像中提取第一手掌区域;在第一手掌区域的亮度值满足预设亮度条件的情况下,通过关键点检测算法从手掌图像中提取第二手掌区域;在第二手掌区域的图像质量满足预设合格条件的情况下,从第二手掌区域提取掌静脉特征,并根据掌静脉特征确定用户身份。通过上述技术手段,通过预设的手掌区域坐标从手掌图像中提取大致的手掌区域,并根据大致手掌区域的亮度值对手掌图像的亮度质量进行评估,以快速筛选出图片队列中质量不合格的图片,避免不合格图片占用过长的处理时间,有效提高了识别效率,解决了现有技术中掌静脉识别所需时间较长的问题。
附图说明
图1是本申请实施例提供的一种掌静脉识别方法的流程图;
图2是本申请实施例提供的确定手掌区域坐标的流程图;
图3是本申请实施例提供的确定第一手掌区域满足预设亮度条件的流程图;
图4是本实施例提供的从第一手掌区域提取像素点的示意图;
图5是本申请实施例提供的确定预设亮度范围的流程图;
图6是本申请实施例提供的基于高斯分布密度函数进行统计分析的流程图;
图7是本申请实施例提供的基于聚类进行统计分析的流程图;
图8是本申请实施例提供的一种掌静脉识别装置的结构示意图;
图9是本申请实施例提供的一种掌静脉识别设备的结构示意图。
具体实施方式
为了使本申请的目的、技术方案和优点更加清楚,下面结合附图对本申请具体实施例作进一步的详细描述。可以理解的是,此处所描述的具体实施例仅仅用于解释本申请,而非对本申请的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本申请相关的部分而非全部内容。在更加详细地讨论示例性实施例之前应当提到的是,一些示例性实施例被描述成作为流程图描绘的处理或方法。虽然流程图将各项操作(或步骤)描述成顺序的处理,但是其中的许多操作可以被并行地、并发地或者同时实施。此外,各项操作的顺序可以被重新安排。当其操作完成时所述处理可以被终止,但是还可以具有未包括在附图中的附加步骤。所述处理可以对应于方法、函数、规程、子例程、子程序等等。
本申请的说明书和权利要求书中的术语“第一”、“第二”等是用于区别类似的对象,而不用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便本申请的实施例能够以除了在这里图示或描述的那些以外的顺序实施,且“第一”、“第二”等所区分的对象通常为一类,并不限定对象的个数,例如第一对象可以是一个,也可以是多个。此外,说明书以及权利要求中“和/或”表示所连接对象的至少其中之一,字符“/”,一般表示前后关联对象是一种“或”的关系。
本申请提供的掌静脉识别方法、装置、设备及存储介质,旨在根据预设的手掌区域坐标,从手掌图像中提取第一手掌区域;在所述第一手掌区域的亮度值满足预设亮度条件的情况下,通过关键点检测算法从所述手掌图像中提取第二手掌区域;在所述第二手掌区域的图像质量满足预设合格条件的情况下,从所述第二手掌区域提取掌静脉特征,并根据所述掌静脉特征确定用户身份。相对于传统掌静脉识别方法,通过图像噪声估计算法和拉普拉斯算子检测图像的噪声和模糊来估计图像质量。但以上算法往往需要较大的耗时,如果对每张手掌图片都进行以上的质量评估,会延长身份识别时间,降低身份识别效率,导致用户需等待较长时间才能完成身份识别。
图1是本申请一个实施例提供的一种掌静脉识别方法的流程图。本实施例中提供的掌静脉识别方法可以由掌静脉识别设备执行,该掌静脉识别设备可以通过软件和/或硬件的方式实现,该掌静脉识别设备可以是两个或多个物理实体构成,也可以是一个物理实体构成。
下述以掌静脉识别设备为执行掌静脉识别方法的主体为例,进行描述。参考图1,该掌静脉识别方法包括:
S110、根据预设的手掌区域坐标,从手掌图像中提取第一手掌区域。
本实施例以小区门禁系统设置有掌静脉识别设备为例进行描述。当用户进入小区时,将手掌放置在掌静脉识别设备的相机的拍摄区域,相机拍摄到该用户的手掌图像,并将该手掌图像传输至掌静脉识别设备的处理器,以便处理器判断该手掌图像是否能够提取到用户的掌静脉特征信息。
在本实施例中,掌静脉识别设备的相机是红外摄像头,相机经过特殊设计,其采集到的手掌图像为8位灰度图,手掌图像组成简单,多数情况下为纯黑背景和一个手掌区域,手掌区域一般靠近手掌图像中心。基于此,本实施例预先基于大量样本手掌图像中的手掌区域估计出的手掌图像中大致手掌区域的坐标,然后将大致手掌区域的坐标设置为手掌区域坐标,以便通过该手掌区域坐标快速从手掌图像中截取对应的第一手掌区域。其中,手掌区域是指手掌中包含掌心的区域。
在一实施例中,图2是本申请实施例提供的确定手掌区域坐标的流程图。
如图2所示,该确定手掌区域坐标的步骤具体包括S1401-S1402:
S1401、获取多个样本手掌图像,并通过关键点检测算法从每个样本手掌图像中提取第三手掌区域。
示例性的,事先采集多张样本手掌图像,使用基于深度学习的关键点检测模型检测手掌上的多个关键点,如手指之间的连接点。基于关键点与掌心的位置关系,根据关键点的坐标从样本手掌图像中提取到包含掌心的第三手掌区域。
S1402、根据每个所述第三手掌区域的像素坐标,确定所述手掌区域坐标。
示例性的,由于手掌区域一般靠近手掌图像中心,因此可将第三手掌区域和手掌图像中心区域进行比较,确定第三手掌区域与手掌图像中心区域的重叠度,在重叠度高达一定阈值时可确定第三手掌区域落入手掌图像中心区域。若所有样本手掌图像中至少有90%以上的第三手掌区域落入手掌图像中心区域,则可确定手掌图像中心区域为大致手掌区域,则将手掌图像中心区域确定为手掌区域坐标。其中,手掌图像中心区域的尺寸为H/2*L/2,手掌图像中心区域的中心点即为手掌图像的中心点。
在该实施例中,若所有样本手掌图像中没有90%以上的第三手掌区域落入手掌图像中心区域,则确定各个第三手掌区域的中心点坐标。根据各个第三手掌区域的中心点坐标确定中心点坐标均值,基于中心点坐标均值确定各个第三手掌区域的中心点坐标与该中心点坐标均值的方差,剔除方差大于预设方差阈值的中心点坐标,将剩余的中心点坐标再重新计算中心点坐标均值。将最新确定的中心点坐标均值作为大致手掌区域的中心点,将H/2*L/2作为大致手掌区域的尺寸,确定出手掌区域坐标。可理解,当第三手掌区域的中心点坐标的方差较大时,表明该第三手掌区域偏离大多数第三手掌区域,因此将该第三手掌区域的中心点坐标剔除,而剩余的大多数第三手掌区域重合度较高,将剩余的第三手掌区域的中心点坐标均值作为大致手掌区域的中心点,以使得大多数的第三手掌区域可以落入手掌区域,即得到了大致手掌区域。
S120、在第一手掌区域的亮度值满足预设亮度条件的情况下,通过关键点检测算法从手掌图像中提取第二手掌区域。
示例性的,影响手掌区域质量的因素中,手掌区域过亮和过暗是主要影响因素,大约占不合格原因的95%以上,因此可基于第一手掌区域的亮度值初步确定手掌图像是否合格。在本实施例中,预设亮度条件是指手掌图像的亮度质量合格时满足的条件。若第一手掌区域的亮度值满足预设亮度条件,可确定相机当前拍摄的手掌图像的亮度质量是合格的,则可进一步确定该手掌图像的其他图像质量是否合格。若第一手掌区域的亮度值不满足预设亮度条件,可确定相机当前拍摄的手掌图像的亮度不合格,则将该手掌图像删除并拍摄下一张手掌图像。可理解,本实施例基于第一手掌区域的亮度值和预设亮度条件可快速筛选出不满足亮度质量的手掌图像,筛选耗时控制在1ms以内,有效提高了质量不合格图像的筛除效率,缩短了相机采集到质量合格图像的时间,提高了掌静脉识别效率。
在一实施例中,图3是本申请实施例提供的确定第一手掌区域满足预设亮度条件的流程图。如图3所示,该确定第一手掌区域满足预设亮度条件的步骤具体包括S1201-S1202:
S1201、按照预设间隔均匀从第一手掌区域中提取多个像素点,根据多个像素点的亮度值确定第一手掌区域的亮度值。
示例性的,图4是本实施例提供的从第一手掌区域提取像素点的示意图。如图4所示,均匀提取像素点的规则为每5行取一行,每5列取一列,图4中黑色像素点即为从第一手掌区域中提取的像素点。在采集到多个像素点后,根据多个像素点的亮度值确定亮度平均值,将多个像素点的亮度平均值确定为第一手掌区域的亮度值。由于本实施例采用跳行跳点的采点计算方式,不仅保持合理的亮度值精度,还可以降低计算时长。
S1202、在亮度值满足预设亮度范围的情况下,确定第一手掌区域的亮度值满足预设亮度条件。
其中,预设亮度范围是本实施例设置的手掌图像的亮度质量合格时对应第一手掌区域的亮度值范围。当多个像素点的亮度平均值落入预设亮度范围时,可确定手掌图像的亮度质量合格,进而对手掌图像做进一步的复杂质量检测。当多个像素点的亮度平均值超出预设亮度范围时,可确定手掌图像的亮度质量不合格,则将手掌图像删除并通过相机采集下一张手掌图像,节约了对亮度质量不合格的手掌图像做复杂质量检测的时间,有效提高了图像筛除效率。
在一实施例中,在样本手掌图像确定出对应第三手掌区域后,可基于各个第三手掌区域的亮度值确定预设亮度范围。示例性的,图5是本申请实施例提供的确定预设亮度范围的流程图。如图5所示,该确定预设亮度范围的步骤具体包括S1501-S1502:
S1501、将每个第三手掌区域输入预先训练的质量检测模型,得到质量检测模型输出的质量检测结果,质量检测结果包括质量不合格和质量合格。
示例性的,质量检测模型可以是使用深度学习算法的噪声检测模型或模糊检测模型。质量检测模型可基于大量标记有质量检测结果的样本手掌图像对初始配置的神经网络模型进行训练得到。将样本手掌图像的第三手掌区域输入的质量检测模型中,通过质量检测模型确定该第三手掌区域的质量是否合格。
S1502、根据每个第三手掌区域的亮度值和质量检测结果,确定预设亮度条件中的预设亮度范围。
示例性的,确定第三手掌区域内的所有像素点的亮度平均值,将该亮度平均值作为该第三手掌区域的亮度值。对各个第三手掌区域的质量检测结果和亮度值进行统计分析,发现以亮度值[50,150]的区间作为亮度质量合格的衡量标准,可以达到90%的区分精度,因此可将[50,150]设置为预设亮度范围。
在本实施例中,提供两种统计分析方式确定预设亮度范围。第一种是基于高斯分布密度函数进行统计分析,第二种是基于聚类进行统计分析。
在一实施例中,图6是本申请实施例提供的基于高斯分布密度函数进行统计分析的流程图,如图6所示,该基于高斯分布密度函数进行统计分析的步骤具体包括S15021-S15022:
S15021、将质量检测结果为质量合格的第三手掌区域划分至第一区域集合。
S15022、基于高斯概率密度函数,确定第一区域集合中第一预设比例的第三手掌区域的亮度值落入的亮度分布范围,并将亮度分布范围设置为预设亮度范围。
示例性的,假设第一区域集合中各个第三手掌区域的亮度值服从高斯分布,则基于第一区域集合中各个第三手掌区域的亮度值确定对应的亮度平均值和亮度方差。基于该亮度平均值和亮度方差可生成第一区域集合中各个第三手掌区域的高斯概率密度函数。将预设比例设置为95%,则可确定95%的第三手掌区域的亮度值落在亮度区间即为预设亮度范围。可理解,当某一手掌图像的第一手掌区域的亮度值位于该亮度区间时,有95%的概率证明该第一手掌区域与第一区域集合中的第三手掌区域在亮度上是同类手掌区域,即确定该第一手掌区域对应手掌图像为亮度质量合格的图像。
在另一实施例中,图7是本申请实施例提供的基于聚类进行统计分析的流程图,如图7所示,该基于聚类进行统计分析的步骤具体包括S15023-S15025:
S15023、根据各个第三手掌区域的亮度值,对各个第三手掌区域进行聚类,确定每个第三手掌区域对应的亮度聚类集合。
S15024、根据每个亮度聚类集合中第三手掌区域的质量检测结果,确定对应亮度聚类集合中质量合格的第三手掌区域的比例。
S15025、在比例等于或大于第二预设比例的情况下,将对应亮度聚类集合对应的亮度范围为预设亮度范围。
示例性的,聚类算法可以将具有一致性亮度值的第三手掌区域划分至同一亮度聚类集合中。然后根据各个样本手掌图像的质量检测结果,将每个亮度聚类集合中的第三手掌区域划分成质量合格组和质量不合格组。计算同一亮度聚类集合中质量合格组与对应亮度聚类集合的数据量的比例。若该比例大于第二预设比例,则表明亮度聚类集合中大部分第三手掌区域的质量合格,即该亮度聚类集合中第三手掌区域的亮度值保持一致性以及质量检测结果也保持一致。当某一手掌图像的第一手掌区域落入该亮度聚类集合的亮度范围,可大概率确定该第一手掌区域与亮度聚类集合中的第三手掌区域在亮度上是同类手掌区域,进而确定该第一手掌区域对应的手掌图像为亮度质量合格的图像。进一步的,将比例等于或大于第二预设比例的亮度聚类集合对应的亮度范围进行组合,得到预设亮度范围。
在本实施例中,当第一手掌区域的亮度值落入预设亮度范围时,确定手掌图像的亮度质量合格,进而基于预先训练的关键点检测模型检测手掌图像中的关键点,根据关键点与掌心的位置关系以及关键点的坐标从手掌图像中提取到更加精准的第二手掌区域。
S130、在第二手掌区域的图像质量满足预设合格条件的情况下,从第二手掌区域提取掌静脉特征,并根据掌静脉特征确定用户身份。
示例性的,通过预先训练的质量检测模型检测第二手掌区域的图像质量,若质量检测模型检测到第二手掌区域的质量合格,则从第二手掌区域中提取掌静脉特征。将从第二手掌区域中提取到的掌静脉特征与数据库中预先存储的各个用户的掌静脉特征比较,确定数据库中存储在相匹配的掌静脉特征时,确定用户为小区住户并打开小区大门。
综上,本申请实施例提供的掌静脉识别方法,通过预设的手掌区域坐标,从手掌图像中提取第一手掌区域;在第一手掌区域的亮度值满足预设亮度条件的情况下,通过关键点检测算法从手掌图像中提取第二手掌区域;在第二手掌区域的图像质量满足预设合格条件的情况下,从第二手掌区域提取掌静脉特征,并根据掌静脉特征确定用户身份。通过上述技术手段,通过预设的手掌区域坐标从手掌图像中提取大致的手掌区域,并根据大致手掌区域的亮度值对手掌图像的亮度质量进行评估,以快速筛选出图片队列中质量不合格的图片,避免不合格图片占用过长的处理时间,有效提高了识别效率,解决了现有技术中掌静脉识别所需时间较长的问题。
在上述实施例的基础上,图8是本申请一个实施例提供的一种掌静脉识别装置的结构示意图。参考图8,本实施例提供的掌静脉识别装置具体包括:第一提取模块21、第二提取模块22和识别模块23。
其中,第一提取模块21,被配置为根据预设的手掌区域坐标,从手掌图像中提取第一手掌区域;
第二提取模块22,被配置为在第一手掌区域的亮度值满足预设亮度条件的情况下,通过关键点检测算法从手掌图像中提取第二手掌区域;
识别模块23,被配置为在第二手掌区域的图像质量满足预设合格条件的情况下,从第二手掌区域提取掌静脉特征,并根据掌静脉特征确定用户身份。
在上述实施例的基础上,第二提取模块还包括:
亮度值确定单元,被配置为在第一手掌区域的亮度值满足预设亮度条件之前,按照预设间隔均匀从第一手掌区域中提取多个像素点,根据多个像素点的亮度值确定第一手掌区域的亮度值;
第一条件判断单元,被配置为在亮度值满足预设亮度范围的情况下,确定第一手掌区域的亮度值满足预设亮度条件。
在上述实施例的基础上,亮度值确定单元包括:亮度平均值确定子单元,被配置为将多个像素点的亮度平均值确定为第一手掌区域的亮度值。
在上述实施例的基础上,掌静脉识别装置还包括:手掌区域坐标确定模块,手掌区域坐标确定模块包括:
样本图像获取单元,被配置为在根据预设的手掌区域坐标,从手掌图像中提取第一手掌区域之前,获取多个样本手掌图像,并通过关键点检测算法从每个样本手掌图像中提取第三手掌区域;
手掌区域坐标确定单元,被配置为根据每个第三手掌区域的像素坐标,确定手掌区域坐标。
在上述实施例的基础上,掌静脉识别装置还包括:预设亮度范围确定模块,预设亮度范围确定模块包括:
样本质量检测单元,被配置为在确定手掌区域坐标之后,将每个第三手掌区域输入预先训练的质量检测模型,得到质量检测模型输出的质量检测结果,质量检测结果包括质量不合格和质量合格;
预设亮度范围确定单元,被配置为根据每个第三手掌区域的亮度值和质量检测结果,确定预设亮度条件中的预设亮度范围。
在上述实施例的基础上,预设亮度范围确定单元包括:
集合划分子单元,被配置为将质量检测结果为质量合格的第三手掌区域划分至第一区域集合;
第一预设亮度确定子单元,被配置为基于高斯概率密度函数,确定第一区域集合中第一预设比例的第三手掌区域的亮度值落入的亮度分布范围,并将亮度分布范围设置为预设亮度范围。
在上述实施例的基础上,预设亮度范围确定单元包括:
聚类集合生成子单元,被配置为根据各个第三手掌区域的亮度值,对各个第三手掌区域进行聚类,确定每个第三手掌区域对应的亮度聚类集合;
比例确定子单元,被配置为根据每个亮度聚类集合中第三手掌区域的质量检测结果,确定对应亮度聚类集合中质量合格的第三手掌区域的比例;
第二预设亮度确定子单元,被配置为在比例等于或大于第二预设比例的情况下,将对应亮度聚类集合对应的亮度范围为预设亮度范围。
综上,本申请实施例提供的掌静脉识别装置,通过预设的手掌区域坐标,从手掌图像中提取第一手掌区域;在第一手掌区域的亮度值满足预设亮度条件的情况下,通过关键点检测算法从手掌图像中提取第二手掌区域;在第二手掌区域的图像质量满足预设合格条件的情况下,从第二手掌区域提取掌静脉特征,并根据掌静脉特征确定用户身份。通过上述技术手段,通过预设的手掌区域坐标从手掌图像中提取大致的手掌区域,并根据大致手掌区域的亮度值对手掌图像的亮度质量进行评估,以快速筛选出图片队列中质量不合格的图片,避免不合格图片占用过长的处理时间,有效提高了识别效率,解决了现有技术中掌静脉识别所需时间较长的问题。
本申请实施例提供的掌静脉识别装置可以用于执行上述实施例提供的掌静脉识别方法,具备相应的功能和有益效果。
本申请实施例提供了一种掌静脉识别设备,参照图9,该掌静脉识别设备包括:处理器31、存储器32、通信装置33、输入装置34及输出装置35。该掌静脉识别设备中处理器的数量可以是一个或者多个,该掌静脉识别设备中的存储器的数量可以是一个或者多个。该掌静脉识别设备的处理器、存储器、通信装置、输入装置及输出装置可以通过总线或者其他方式连接。
存储器32作为一种计算机可读存储介质,可用于存储软件程序、计算机可执行程序以及模块,如本申请任意实施例所述的掌静脉识别方法对应的程序指令/模块(例如,掌静脉识别装置中的第一提取模块21、第二提取模块22和识别模块23)。存储器可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序;存储数据区可存储根据设备的使用所创建的数据等。此外,存储器可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他非易失性固态存储器件。在一些实例中,存储器可进一步包括相对于处理器远程设置的存储器,这些远程存储器可以通过网络连接至设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
通信装置33用于进行数据传输。
处理器31通过运行存储在存储器中的软件程序、指令以及模块,从而执行设备的各种功能应用以及数据处理,即实现上述的掌静脉识别方法。
输入装置34可用于接收输入的数字或字符信息,以及产生与设备的用户设置以及功能控制有关的键信号输入。输出装置35可包括显示屏等显示设备。
上述提供的掌静脉识别设备可用于执行上述实施例提供的掌静脉识别方法,具备相应的功能和有益效果。
本申请实施例还提供一种包含计算机可执行指令的存储介质,所述计算机可执行指令在由计算机处理器执行时用于执行一种掌静脉识别方法,该掌静脉识别方法包括:根据预设的手掌区域坐标,从手掌图像中提取第一手掌区域;在第一手掌区域的亮度值满足预设亮度条件的情况下,通过关键点检测算法从手掌图像中提取第二手掌区域;在第二手掌区域的图像质量满足预设合格条件的情况下,从第二手掌区域提取掌静脉特征,并根据掌静脉特征确定用户身份。
存储介质——任何的各种类型的存储器设备或存储设备。术语“存储介质”旨在包括:安装介质,例如CD-ROM、软盘或磁带装置;计算机系统存储器或随机存取存储器,诸如DRAM、DDR RAM、SRAM、EDO RAM,兰巴斯(Rambus)RAM等;非易失性存储器,诸如闪存、磁介质(例如硬盘或光存储);寄存器或其它相似类型的存储器元件等。存储介质可以还包括其它类型的存储器或其组合。另外,存储介质可以位于程序在其中被执行的第一计算机系统中,或者可以位于不同的第二计算机系统中,第二计算机系统通过网络(诸如因特网)连接到第一计算机系统。第二计算机系统可以提供程序指令给第一计算机用于执行。术语“存储介质”可以包括驻留在不同位置中(例如在通过网络连接的不同计算机系统中)的两个或更多存储介质。存储介质可以存储可由一个或多个处理器执行的程序指令(例如具体实现为计算机程序)。
当然,本申请实施例所提供的一种包含计算机可执行指令的存储介质,其计算机可执行指令不限于如上所述的掌静脉识别方法,还可以执行本申请任意实施例所提供的掌静脉识别方法中的相关操作。
上述实施例中提供的掌静脉识别装置、设备及存储介质可执行本申请任意实施例所提供的掌静脉识别方法,未在上述实施例中详尽描述的技术细节,可参见本申请任意实施例所提供的掌静脉识别方法。
上述仅为本申请的较佳实施例及所运用的技术原理。本申请不限于这里所述的特定实施例,对本领域技术人员来说能够进行的各种明显变化、重新调整及替代均不会脱离本申请的保护范围。因此,虽然通过以上实施例对本申请进行了较为详细的说明,但是本申请不仅仅限于以上实施例,在不脱离本申请构思的情况下,还可以包括更多其他等效实施例,而本申请的范围由权利要求的范围决定。
Claims (10)
1.一种掌静脉识别方法,其特征在于,包括:
根据预设的手掌区域坐标,从手掌图像中提取第一手掌区域;
在所述第一手掌区域的亮度值满足预设亮度条件的情况下,通过关键点检测算法从所述手掌图像中提取第二手掌区域;
在所述第二手掌区域的图像质量满足预设合格条件的情况下,从所述第二手掌区域提取掌静脉特征,并根据所述掌静脉特征确定用户身份。
2.根据权利要求1所述的方法,其特征在于,在所述第一手掌区域的亮度值满足预设亮度条件之前,还包括:
按照预设间隔均匀从所述第一手掌区域中提取多个像素点,根据所述多个像素点的亮度值确定所述第一手掌区域的亮度值;
在所述亮度值满足预设亮度范围的情况下,确定所述第一手掌区域的亮度值满足预设亮度条件。
3.根据权利要求2所述的方法,其特征在于,所述根据所述多个像素点的亮度值确定所述第一手掌区域的亮度值包括:
将所述多个像素点的亮度平均值确定为所述第一手掌区域的亮度值。
4.根据权利要求1所述的方法,其特征在于,在所述根据预设的手掌区域坐标,从手掌图像中提取第一手掌区域之前,还包括:
获取多个样本手掌图像,并通过所述关键点检测算法从每个所述样本手掌图像中提取第三手掌区域;
根据每个所述第三手掌区域的像素坐标,确定所述手掌区域坐标。
5.根据权利要求4所述的方法,其特征在于,在所述确定所述手掌区域坐标之后,还包括:
将每个所述第三手掌区域输入预先训练的质量检测模型,得到所述质量检测模型输出的质量检测结果,所述质量检测结果包括质量不合格和质量合格;
根据每个所述第三手掌区域的亮度值和质量检测结果,确定所述预设亮度条件中的预设亮度范围。
6.根据权利要求5所述的方法,其特征在于,所述根据每个所述第三手掌区域的亮度值和质量检测结果,确定所述预设亮度条件中的预设亮度范围,包括:
将所述质量检测结果为质量合格的所述第三手掌区域划分至第一区域集合;
基于高斯概率密度函数,确定所述第一区域集合中第一预设比例的第三手掌区域的亮度值落入的亮度分布范围,并将所述亮度分布范围设置为所述预设亮度范围。
7.根据权利要求5所述的方法,其特征在于,所述根据每个所述第三手掌区域的亮度值和质量检测结果,确定所述预设亮度条件中的预设亮度范围,包括:
根据各个所述第三手掌区域的亮度值,对各个所述第三手掌区域进行聚类,确定每个所述第三手掌区域对应的亮度聚类集合;
根据每个所述亮度聚类集合中所述第三手掌区域的质量检测结果,确定对应所述亮度聚类集合中质量合格的第三手掌区域的比例;
在所述比例等于或大于第二预设比例的情况下,将对应所述亮度聚类集合对应的亮度范围为所述预设亮度范围。
8.一种掌静脉识别装置,其特征在于,包括:
第一提取模块,被配置为根据预设的手掌区域坐标,从手掌图像中提取第一手掌区域;
第二提取模块,被配置为在所述第一手掌区域的亮度值满足预设亮度条件的情况下,通过关键点检测算法从所述手掌图像中提取第二手掌区域;
识别模块,被配置为在所述第二手掌区域的图像质量满足预设合格条件的情况下,从所述第二手掌区域提取掌静脉特征,并根据所述掌静脉特征确定用户身份。
9.一种掌静脉识别设备,其特征在于,包括:
存储器以及一个或多个处理器;
所述存储器,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-7任一所述的掌静脉识别方法。
10.一种包含计算机可执行指令的存储介质,其特征在于,所述计算机可执行指令在由计算机处理器执行时用于执行如权利要求1-7任一所述的掌静脉识别方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211727586.2A CN116052231A (zh) | 2022-12-30 | 2022-12-30 | 掌静脉识别方法、装置、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211727586.2A CN116052231A (zh) | 2022-12-30 | 2022-12-30 | 掌静脉识别方法、装置、设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116052231A true CN116052231A (zh) | 2023-05-02 |
Family
ID=86128848
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211727586.2A Pending CN116052231A (zh) | 2022-12-30 | 2022-12-30 | 掌静脉识别方法、装置、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116052231A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118097724A (zh) * | 2024-04-23 | 2024-05-28 | 江西百胜智能科技股份有限公司 | 基于掌静脉的身份识别方法、装置、可读存储介质及设备 |
-
2022
- 2022-12-30 CN CN202211727586.2A patent/CN116052231A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118097724A (zh) * | 2024-04-23 | 2024-05-28 | 江西百胜智能科技股份有限公司 | 基于掌静脉的身份识别方法、装置、可读存储介质及设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110020592B (zh) | 物体检测模型训练方法、装置、计算机设备及存储介质 | |
EP3916627A1 (en) | Living body detection method based on facial recognition, and electronic device and storage medium | |
CN109284733B (zh) | 一种基于yolo和多任务卷积神经网络的导购消极行为监控方法 | |
CN108875600A (zh) | 一种基于yolo的车辆信息检测和跟踪方法、装置及计算机存储介质 | |
CN111814902A (zh) | 目标检测模型训练方法、目标识别方法、装置和介质 | |
CN104123543B (zh) | 一种基于人脸识别的眼球运动识别方法 | |
CN112381104B (zh) | 一种图像识别方法、装置、计算机设备及存储介质 | |
CN110969045B (zh) | 一种行为检测方法、装置、电子设备和存储介质 | |
CN112116556B (zh) | 一种客流量统计方法、装置和计算机设备 | |
CN110287862B (zh) | 基于深度学习的防偷拍检测方法 | |
CN110688878A (zh) | 活体识别检测方法、装置、介质及电子设备 | |
CN111814690A (zh) | 一种目标重识别方法、装置和计算机可读存储介质 | |
CN116052231A (zh) | 掌静脉识别方法、装置、设备及存储介质 | |
CN112070035A (zh) | 基于视频流的目标跟踪方法、装置及存储介质 | |
CN112446428B (zh) | 一种图像数据处理方法及装置 | |
CN110909685A (zh) | 姿势估计方法、装置、设备及存储介质 | |
US20220405527A1 (en) | Target Detection Methods, Apparatuses, Electronic Devices and Computer-Readable Storage Media | |
CN111274965A (zh) | 人脸识别方法、装置、计算机设备和存储介质 | |
CN113256683B (zh) | 目标跟踪方法及相关设备 | |
CN113052019B (zh) | 目标跟踪方法及装置、智能设备和计算机存储介质 | |
CN113780424A (zh) | 一种基于背景相似度的照片实时在线聚类方法及系统 | |
CN113469135A (zh) | 对象身份信息的确定方法、装置、存储介质及电子装置 | |
CN112001280A (zh) | 一种实时、可在线优化的人脸识别系统和方法 | |
CN116052230A (zh) | 一种掌静脉识别方法、装置、设备及存储介质 | |
CN110751163A (zh) | 目标定位方法及其装置、计算机可读存储介质和电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |