CN115311691B - 一种基于腕部静脉和腕部纹理的联合识别方法 - Google Patents
一种基于腕部静脉和腕部纹理的联合识别方法 Download PDFInfo
- Publication number
- CN115311691B CN115311691B CN202211243982.8A CN202211243982A CN115311691B CN 115311691 B CN115311691 B CN 115311691B CN 202211243982 A CN202211243982 A CN 202211243982A CN 115311691 B CN115311691 B CN 115311691B
- Authority
- CN
- China
- Prior art keywords
- vein
- image
- texture
- wrist
- region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/30—Noise filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/32—Normalisation of the pattern dimensions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/36—Applying a local operator, i.e. means to operate on image points situated in the vicinity of a given point; Non-linear local filtering operations, e.g. median filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/467—Encoded features or binary features, e.g. local binary patterns [LBP]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/54—Extraction of image or video features relating to texture
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/761—Proximity, similarity or dissimilarity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Nonlinear Science (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于腕部静脉和腕部纹理的联合识别方法,属于生物识别技术领域,该方法从采集到的腕部静脉图像中截取ROI图像,依次进行归一化处理和去噪处理;从ROI图像中分离出多尺度的纹理区域图像和多尺度的静脉区域图像,分别对多尺度纹理区域图像和多尺度静脉区域图像进行融合;对纹理区域融合图像进行纹理增长,对静脉区域融合图像进行静脉增长;从纹理增长后的纹理区域融合图像中提取腕部纹理特征,从静脉增长后的静脉区域融合图中提取腕部静脉特征及信息熵;基于信息熵构建二叉树的大顶堆结构,基于二叉树的大顶堆结构对腕部纹理特征和腕部静脉特征进行联合识别。本发明的安全度更高,识别率高,识别过程快速且准确。
Description
技术领域
本发明属于生物识别技术领域,尤其涉及一种基于腕部静脉和腕部纹理的联合识别方法。
背景技术
生物识别技术是对人体自身所拥有的生物特征进行自动身份识别的技术,其中,静脉特征识别是生物识别技术中较为常见的一种,静脉由于其唯一、体内、不易复制等特性,用于身份识别是一种安全度较高方法。
腕部静脉相较于其他手部的静脉,具有清晰、稳定等特性,可用于静脉身份识别,腕部静脉的应用比如授权公告号为CN207363420U公开的一种基于腕部静脉识别的安全门,其中:门体外侧固定安装有安装环,安装环内壁之上均匀分布有多个红外摄像头,红外摄像头均连接到信号转换器上,信号转换器之上连接有存储比对模块,存储比对模块之上连接有控制器,信号转换器、存储比对模块、控制器三者均安装在控制柜内,控制柜固定安装在安装环的外壁之上,安装环内的门体表面上固定安装有把手,把手之上固定安装有转盘,转盘之上固定安装有控制轴,控制轴固定连接到锁芯之上,控制轴之上设有卡槽。
虽然腕部静脉识别已具备了较高的安全度,但其仍有进一步提升的空间;并且腕部静脉存在识别率较低、识别速度慢等缺陷。
发明内容
本发明提供了一种基于腕部静脉和腕部纹理的联合识别方法,以解决现有腕部静脉识别存在的识别率较低、识别速度慢等问题,并进一步提高安全性。
为了解决上述技术问题,本发明提供的技术方案为:
本发明涉及一种基于腕部静脉和腕部纹理的联合识别方法,其包括以下步骤:
S1.从采集到的腕部静脉图像中截取ROI图像,依次进行归一化处理和去噪处理;
S2. 采用半径为4、5、6的均值滤波核对去噪后的ROI图像连续进行多次滤波,分离出多尺度的纹理区域图像和静脉区域图像,具体步骤为:
S2.1.采用半径为4的均值滤波核对去噪后的ROI图像进行3次滤波,得到第一静脉图像,用去噪后的ROI图像减去第一静脉图像得到第一纹理图像;
S2.2.采用半径为5的均值滤波核对去噪后的ROI图像进行3次滤波,得到第二静脉图像,用去噪后的ROI图像减去第二静脉图像得到第二纹理图像;
S2.3采用半径为6的均值滤波核对去噪后的ROI图像进行3次滤波,得到第三静脉图像,用去噪后的ROI图像减去第三静脉图像得到第三纹理图像;
分别对多尺度纹理区域图像和多尺度静脉区域图像进行融合,得到纹理区域融合图像和静脉区域融合图像,对纹理区域融合图像进行纹理增长的具体步骤为:
S3.1.将纹理区域融合图像均分成四块纹理区域融合图像的纹理图像子区域;
S3.2.从各块纹理图像子区域中选取一个点作为相应纹理图像子区域的初始种子点,具体步骤为:对于纹理图像子区域,以8个像素为单位,均分为n个单元块,计算每个单元块的信息熵,选择信息熵最大单元块的中心点作为对应的纹理图像子区域的初始种子点;
S3.3.计算初始种子点8邻域内8个方向上的梯度特征和像素均值mean1,选取梯度变化最大的方向作为纹理的生长方向,将该方向上的像素值设置为mean1并记为标的点;
S3.4.依次选取该生长方向上的标的点,计算该标的点8邻域内8个方向上的梯度特征和像素均值mean2,选取梯度变化最大的方向作为纹理的生长方向,将该方向上的像素值设置为mean2并记为新的标的点;
S3.5.重复步骤S3.3~S3.4,进行循环迭代,完成纹理增长;
对静脉区域融合图像进行静脉增长的具体步骤为:
S3.6.将静脉区域融合图像均分成四块静脉区域融合图像的静脉图像子区域;
S3.7.从各块静脉图像子区域中选取一个点作为相应静脉图像子区域的初始种子点,具体步骤为:对于第一块静脉图像子区域,以8个像素为单位,均分为n个单元块,计算每个单元块的信息熵,选择信息熵最大单元块的中心点作为对应的静脉图像子区域的初始种子点;
S3.8.计算初始种子点8邻域内8个方向上的梯度特征和像素均值mean1,选取梯度变化最大的方向作为静脉的生长方向,将该方向上的像素值设置为mean1并记为标的点;
S3.9.依次选取该生长方向上的标的点,计算该标的点8邻域内8个方向上的梯度特征和像素均值mean2,选取梯度变化最大的方向作为静脉的生长方向,将该方向上的像素值设置为mean2并记为新的标的点;
S3.10.重复步骤S3.8~S3.9,进行循环迭代,完成静脉增长;
S3.对纹理区域融合图像进行纹理增长,对静脉区域融合图像进行静脉增长;
S4.从纹理增长后的纹理区域融合图像中提取腕部纹理特征,从静脉增长后的静脉区域融合图中提取腕部静脉特征及信息熵;
S5.基于信息熵构建二叉树的大顶堆结构,基于二叉树的大顶堆结构对腕部纹理特征和腕部静脉特征进行联合识别,其具体步骤为:
S5.1.根据静脉区域融合图像的信息熵大小,对本地的N个腕部静脉图像模板构建基于完全二叉树的大顶堆结构;
S5.2.计算腕部静脉图像模板二叉树所有层的模板节点的信息熵平均值;
S5.3.将步骤S4.4计算所得的静脉区域融合图像的信息熵与步骤S5.2计算所得的二叉树各层模板节点的信息熵平均值进行比对,找到信息熵与模板节点的信息熵平均值最接近的二叉树层数K,将步骤S4.1~S4.3获得的腕部静脉图像的纹理特征、静脉特征1、静脉特征2与该层的所有的n个节点进行比对,完成识别;
所述步骤S5.3中,当找到信息熵最接近的二叉树层数K=0时,则增加第二层的模板节点进行比对;当找到信息熵最接近的二叉树层数中模板节点的数量n小于二叉树中所有模板节点总数N的1/10,则加入该二叉树层数的上层或下层的模板节点数据进行比对。
优选地,所述的步骤S2中多尺度纹理区域图像的融合公式为:
TextMap= a1*Ts1+a2*Ts2+ a3*Ts3 (1)
公式中,TextMap为纹理区域融合图像,Ts1为第一纹理图像,Ts2为第二纹理图像,Ts3为第三纹理图像,a1~a3分别为第一纹理图像、第二纹理图像和第三纹理图像加权系数,a1~a3的取值范围均为[0,1]。
优选地,所述的步骤S2中多尺度静脉区域图像的融合公式为:
VeinMap= b1* Ves1+b2* Ves2+ b3* Ves3 (2)
公式中,VeinMap为静脉区域融合图像,Ves1为第一静脉图像,Ves2为第二静脉图像,Ves3为第三静脉图像,b1~b3分别为第一静脉图像、第二静脉图像和第三静脉图像加权系数,b1~b3的取值范围均为[0,1]。
优选地,所述的步骤S3.5中纹理增长迭代结束的条件为:所有步骤S3.3~S3.4获得的标的点的重心坐标和相应的纹理图像子区域的重心坐标平均误差小于8个像素;
所述的步骤S3.10中静脉增长迭代结束的条件为:所有步骤S3.8~S3.9中获得的标的点的重心坐标和相应的静脉图像子区域的重心坐标平均误差小于15个像素。
优选地,所述的步骤S4中从纹理增长后的纹理区域融合图像中提取腕部纹理特征,从静脉增长后的静脉区域融合图中提取腕部静脉特征及信息熵的具体步骤为:
S4.1.提取纹理区域融合图像的LBP特征作为纹理特征;
S4.2.提取静脉区域融合图像的4方向的梯度特征作为静脉特征1;
S4.3.提取静脉区域融合图像的8方向的梯度特征作为静脉特征2;
S4.4.计算静脉区域融合图像的信息熵。
优选地,所述的步骤S5.3的比对包括以下步骤:
S5.3.1.使用4方向的梯度静脉特征1进行快速排序验证,验证采集到的腕部静脉图像与二叉树K层n个本地注册的模板节点的特征的相似度,筛选相似度前10%的模板节点对应的本地注册用户的特征进入下一轮比对;
S5.3.2.使用LBP纹理特征进行快速排序验证,验证采集到的腕部静脉图像与步骤S5.3.1中筛选出来的本地注册用户的特征,再次筛选相似度前5%的模板节点对应的本地注册用户的特征进入下一轮比对;
S5.3.3.使用8方向的梯度静脉特征2进行快速排序验证,验证采集到的腕部静脉图像与步骤S5.3.2中筛选出来的本地注册用户的特征,筛选出相似度最高的一个模板节点的特征;
S5.3.4.相似度最高的用户比对值与通过阈值进行比较,若采集到的腕部静脉图像的相似度小于等于通过阈值,则表示识别成功;反之,则表示识别失败。
采用本发明提供的技术方案,与现有技术相比,具有如下有益效果:
1.本发明涉及的基于腕部静脉和腕部纹理的联合识别方法创造性的将腕部静脉特征和腕部纹理特征进行结合,用以身份识别,具有更高的安全性。
2.本发明涉及的基于腕部静脉和腕部纹理的联合识别方法对纹理区域融合图像进行纹理增长,从纹理增长后的纹理区域融合图像中提取腕部纹理特征;对静脉区域融合图像进行静脉增长,从静脉增长后的静脉区域融合图中提取腕部静脉特征,生长结果更符合图像特征的分布,使得纹理和静脉图信息都融合的更好;有利于纹理区域和静脉区域的完整性、丰富性和一致性,起到提升识别率的目的。
3.本发明涉及的基于腕部静脉和腕部纹理的联合识别方法在纹理增长和静脉增长过程中,各区域初始种子点的选取不再随机,也不受经验选取方法的限制,而是通过自适应分块计算选取,使得初始种子点的选取更精确。
4.本发明涉及的基于腕部静脉和腕部纹理的联合识别方法在识别过程中,基于信息熵构建二叉树的大顶堆结构,再联合腕部纹理特征和腕部静脉特征进行识别,依次进行详细比对,使得验证用户的识别过程快速且准确。
附图说明
图1是本发明涉及的基于腕部静脉和腕部纹理的联合识别方法在识别的流程图。
具体实施方式
为进一步了解本发明的内容,结合实施例对本发明作详细描述,以下实施例用于说明本发明,但不用来限制本发明的范围。
参照附图1所示,本发明涉及一种基于腕部静脉和腕部纹理的联合识别方法,其包括以下步骤:
S1.从采集到的腕部静脉图像中截取ROI图像,依次进行归一化处理和去噪处理:将获取到的腕部ROI图像尺寸,归一化到144x144,记为SRC1;将腕部ROI图像进行高斯滤波一次,高斯半径为3,去噪后的图像极为SRC2。
S2.采用不同半径的均值滤波从去噪后的ROI图像中分离出多尺度的纹理区域图像和多尺度的静脉区域图像,分别对多尺度纹理区域图像和多尺度静脉区域图像进行融合,得到纹理区域融合图像和静脉区域融合图像;
本实施例中,采用半径为4、5、6的均值滤波核对去噪后的ROI图像连续进行多次滤波,分离出多尺度的纹理区域图像和静脉区域图像,具体步骤为:
S2.1.采用半径为4的均值滤波核对去噪后的ROI图像进行3次滤波,得到第一静脉图像Ves1,用去噪后的ROI图像SRC2减去第一静脉图像Ves1得到第一纹理图像Ts1;
S2.2.采用半径为5的均值滤波核对去噪后的ROI图像进行3次滤波,得到第二静脉图像Ves2,用去噪后的ROI图像SRC2减去第二静脉图像Ves2得到第二纹理图像Ts2;
S2.3采用半径为6的均值滤波核对去噪后的ROI图像进行3次滤波,得到第三静脉图像Ves3,用去噪后的ROI图像SRC2减去第三静脉图像Ves3得到第三纹理图像Ts3;
获得多尺度的纹理区域图像和静脉区域图像后,分别对多尺度的纹理区域图像和静脉区域图像进行融合,多尺度纹理区域图像的融合公式为:
TextMap= a1*Ts1+a2*Ts2+ a3*Ts3 (1)
公式中,TextMap为纹理区域融合图像,Ts1为第一纹理图像,Ts2为第二纹理图像,Ts3为第三纹理图像,a1~a3分别为第一纹理图像、第二纹理图像和第三纹理图像加权系数,a1~a3的取值范围均为[0,1];
多尺度静脉区域图像的融合公式为:
VeinMap= b1* Ves1+b2* Ves2+ b3* Ves3 (2)
公式中,VeinMap为静脉区域融合图像,Ves1为第一静脉图像,Ves2为第二静脉图像,Ves3为第三静脉图像,b1~b3分别为第一静脉图像、第二静脉图像和第三静脉图像加权系数,b1~b3的取值范围均为[0,1]。
S3.对纹理区域融合图像进行纹理增长,对静脉区域融合图像进行静脉增长:
对纹理区域融合图像进行纹理增长的具体步骤为:
S3.1.将纹理区域融合图像均分成四块纹理区域融合图像的纹理图像子区域;
S3.2.从各块纹理图像子区域中选取一个点作为相应纹理图像子区域的初始种子点,选取一个点作为相应纹理图像子区域的初始种子点的具体步骤为:
S3.2.1.对于纹理图像子区域,以8个像素为单位,均分为n个单元块,计算每个单元块的信息熵,选择信息熵最大单元块的中心点作为对应的纹理图像子区域的初始种子点;
S3.3.计算初始种子点8邻域内8个方向上的梯度特征和像素均值mean1,选取梯度变化最大的方向作为纹理的生长方向,将该方向上的像素值设置为mean1并记为标的点;
S3.4.依次选取该生长方向上的标的点,计算该标的点8邻域内8个方向上的梯度特征和像素均值mean2,选取梯度变化最大的方向作为纹理的生长方向,将该方向上的像素值设置为mean2并记为新的标的点;
S3.5.重复步骤S3.3~S3.4,进行循环迭代,完成纹理增长,纹理增长迭代结束的条件为:所有步骤S3.3~S3.4获得的标的点的重心坐标和相应的纹理图像子区域的重心坐标平均误差小于8个像素;
对静脉区域融合图像进行静脉增长的具体步骤为:
S3.6.将静脉区域融合图像均分成四块静脉区域融合图像的静脉图像子区域;
S3.7.从各块静脉图像子区域中选取一个点作为相应静脉图像子区域的初始种子点,选取一个点作为相应静脉图像子区域的初始种子点的具体步骤为:
S3.7.1.对于第一块静脉图像子区域,以8个像素为单位,均分为n个单元块,计算每个单元块的信息熵,选择信息熵最大单元块的中心点作为对应的静脉图像子区域的初始种子点;
S3.8.计算初始种子点8邻域内8个方向上的梯度特征和像素均值mean1,选取梯度变化最大的方向作为静脉的生长方向,将该方向上的像素值设置为mean1并记为标的点;
S3.9.依次选取该生长方向上的标的点,计算该标的点8邻域内8个方向上的梯度特征和像素均值mean2,选取梯度变化最大的方向作为静脉的生长方向,将该方向上的像素值设置为mean2并记为新的标的点;
S3.10.重复步骤S3.8~S3.9,进行循环迭代,完成静脉增长,静脉增长迭代结束的条件为:所有步骤S3.8~S3.9中获得的标的点的重心坐标和相应的静脉图像子区域的重心坐标平均误差小于15个像素。
S4.从纹理增长后的纹理区域融合图像中提取腕部纹理特征,从静脉增长后的静脉区域融合图中提取腕部静脉特征及信息熵,其具体步骤为:
S4.1.提取纹理区域融合图像的LBP特征作为纹理特征;
S4.2.提取静脉区域融合图像的4方向的梯度特征作为静脉特征1;
S4.3.提取静脉区域融合图像的8方向的梯度特征作为静脉特征2;
S4.4.计算静脉区域融合图像的信息熵。
S5.基于信息熵构建二叉树的大顶堆结构,基于二叉树的大顶堆结构对腕部纹理特征和腕部静脉特征进行联合识别,其具体步骤为:
S5.1.根据静脉区域融合图像的信息熵大小,对本地的N个腕部静脉图像模板构建基于完全二叉树的大顶堆结构;
S5.2.计算腕部静脉图像模板二叉树所有层的模板节点的信息熵平均值;
S5.3.将步骤S4.4计算所得的静脉区域融合图像的信息熵与步骤S5.2计算所得的二叉树各层模板节点的信息熵平均值进行比对,找到信息熵与模板节点的信息熵平均值最接近的二叉树层数K,将步骤S4.1~S4.3获得的腕部静脉图像的纹理特征、静脉特征1、静脉特征2与该层的所有的n个节点进行比对,完成识别;
所述步骤S5.3中,当找到信息熵最接近的二叉树层数K=0时,则增加第二层的模板节点进行比对;当找到信息熵最接近的二叉树层数中模板节点的数量n小于二叉树中所有模板节点总数N的1/10,则加入该二叉树层数的上层或下层的模板节点数据进行比对,比对的具体步骤为:
S5.3.1.使用4方向的梯度静脉特征1进行快速排序验证,验证采集到的腕部静脉图像与二叉树K层n个本地注册的模板节点的特征的相似度,筛选相似度前10%的模板节点对应的本地注册用户的特征进入下一轮比对;
S5.3.2.使用LBP纹理特征进行快速排序验证,验证采集到的腕部静脉图像与步骤S5.3.1中筛选出来的本地注册用户的特征,再次筛选相似度前5%的模板节点对应的本地注册用户的特征进入下一轮比对;
S5.3.3.使用8方向的梯度静脉特征2进行快速排序验证,验证采集到的腕部静脉图像与步骤S5.3.2中筛选出来的本地注册用户的特征,筛选出相似度最高的一个模板节点的特征;
S5.3.4.相似度最高的用户比对值与通过阈值进行比较,若采集到的腕部静脉图像的相似度小于等于通过阈值,则表示识别成功;反之,则表示识别失败。
以上结合实施例对本发明进行了详细说明,但所述内容仅为本发明的较佳实施例,不能被认为用于限定本发明的实施范围。凡依本发明申请范围所作的均等变化与改进等,均应仍属于本发明的专利涵盖范围之内。
Claims (6)
1.一种基于腕部静脉和腕部纹理的联合识别方法,其特征在于:其包括以下步骤:
S1.从采集到的腕部静脉图像中截取ROI图像,依次进行归一化处理和去噪处理;
S2. 采用半径为4、5、6的均值滤波核对去噪后的ROI图像连续进行多次滤波,分离出多尺度的纹理区域图像和静脉区域图像,具体步骤为:
S2.1.采用半径为4的均值滤波核对去噪后的ROI图像进行3次滤波,得到第一静脉图像,用去噪后的ROI图像减去第一静脉图像得到第一纹理图像;
S2.2.采用半径为5的均值滤波核对去噪后的ROI图像进行3次滤波,得到第二静脉图像,用去噪后的ROI图像减去第二静脉图像得到第二纹理图像;
S2.3采用半径为6的均值滤波核对去噪后的ROI图像进行3次滤波,得到第三静脉图像,用去噪后的ROI图像减去第三静脉图像得到第三纹理图像;
分别对多尺度纹理区域图像和多尺度静脉区域图像进行融合,得到纹理区域融合图像和静脉区域融合图像,对纹理区域融合图像进行纹理增长的具体步骤为:
S3.1.将纹理区域融合图像均分成四块纹理区域融合图像的纹理图像子区域;
S3.2.从各块纹理图像子区域中选取一个点作为相应纹理图像子区域的初始种子点,具体步骤为:对于纹理图像子区域,以8个像素为单位,均分为n个单元块,计算每个单元块的信息熵,选择信息熵最大单元块的中心点作为对应的纹理图像子区域的初始种子点;
S3.3.计算初始种子点8邻域内8个方向上的梯度特征和像素均值mean1,选取梯度变化最大的方向作为纹理的生长方向,将该方向上的像素值设置为mean1并记为标的点;
S3.4.依次选取该生长方向上的标的点,计算该标的点8邻域内8个方向上的梯度特征和像素均值mean2,选取梯度变化最大的方向作为纹理的生长方向,将该方向上的像素值设置为mean2并记为新的标的点;
S3.5.重复步骤S3.3~S3.4,进行循环迭代,完成纹理增长;
对静脉区域融合图像进行静脉增长的具体步骤为:
S3.6.将静脉区域融合图像均分成四块静脉区域融合图像的静脉图像子区域;
S3.7.从各块静脉图像子区域中选取一个点作为相应静脉图像子区域的初始种子点,具体步骤为:对于第一块静脉图像子区域,以8个像素为单位,均分为n个单元块,计算每个单元块的信息熵,选择信息熵最大单元块的中心点作为对应的静脉图像子区域的初始种子点;
S3.8.计算初始种子点8邻域内8个方向上的梯度特征和像素均值mean1,选取梯度变化最大的方向作为静脉的生长方向,将该方向上的像素值设置为mean1并记为标的点;
S3.9.依次选取该生长方向上的标的点,计算该标的点8邻域内8个方向上的梯度特征和像素均值mean2,选取梯度变化最大的方向作为静脉的生长方向,将该方向上的像素值设置为mean2并记为新的标的点;
S3.10.重复步骤S3.8~S3.9,进行循环迭代,完成静脉增长;
S3.对纹理区域融合图像进行纹理增长,对静脉区域融合图像进行静脉增长;
S4.从纹理增长后的纹理区域融合图像中提取腕部纹理特征,从静脉增长后的静脉区域融合图中提取腕部静脉特征及信息熵;
S5.基于信息熵构建二叉树的大顶堆结构,基于二叉树的大顶堆结构对腕部纹理特征和腕部静脉特征进行联合识别,其具体步骤为:
S5.1.根据静脉区域融合图像的信息熵大小,对本地的N个腕部静脉图像模板构建基于完全二叉树的大顶堆结构;
S5.2.计算腕部静脉图像模板二叉树所有层的模板节点的信息熵平均值;
S5.3.将步骤S4.4计算所得的静脉区域融合图像的信息熵与步骤S5.2计算所得的二叉树各层模板节点的信息熵平均值进行比对,找到信息熵与模板节点的信息熵平均值最接近的二叉树层数K,将步骤S4.1~S4.3获得的腕部静脉图像的纹理特征、静脉特征1、静脉特征2与该层的所有的n个节点进行比对,完成识别;
所述步骤S5.3中,当找到信息熵最接近的二叉树层数K=0时,则增加第二层的模板节点进行比对;当找到信息熵最接近的二叉树层数中模板节点的数量n小于二叉树中所有模板节点总数N的1/10,则加入该二叉树层数的上层或下层的模板节点数据进行比对。
2.根据权利要求1所述的基于腕部静脉和腕部纹理的联合识别方法,其特征在于:所述的步骤S2中多尺度纹理区域图像的融合公式为:
TextMap= a1*Ts1+a2*Ts2+ a3*Ts3 (1)
公式中,TextMap为纹理区域融合图像,Ts1为第一纹理图像,Ts2为第二纹理图像,Ts3为第三纹理图像,a1~a3分别为第一纹理图像、第二纹理图像和第三纹理图像加权系数,a1~a3的取值范围均为[0,1]。
3.根据权利要求1所述的基于腕部静脉和腕部纹理的联合识别方法,其特征在于:所述的步骤S2中多尺度静脉区域图像的融合公式为:
VeinMap= b1* Ves1+b2* Ves2+ b3* Ves3 (2)
公式中,VeinMap为静脉区域融合图像,Ves1为第一静脉图像,Ves2为第二静脉图像,Ves3为第三静脉图像,b1~b3分别为第一静脉图像、第二静脉图像和第三静脉图像加权系数,b1~b3的取值范围均为[0,1]。
4.根据权利要求1所述的基于腕部静脉和腕部纹理的联合识别方法,其特征在于:所述的步骤S3.5中纹理增长迭代结束的条件为:所有步骤S3.3~S3.4获得的标的点的重心坐标和相应的纹理图像子区域的重心坐标平均误差小于8个像素;
所述的步骤S3.10中静脉增长迭代结束的条件为:所有步骤S3.8~S3.9中获得的标的点的重心坐标和相应的静脉图像子区域的重心坐标平均误差小于15个像素。
5.根据权利要求1所述的基于腕部静脉和腕部纹理的联合识别方法,其特征在于:所述的步骤S4中从纹理增长后的纹理区域融合图像中提取腕部纹理特征,从静脉增长后的静脉区域融合图中提取腕部静脉特征及信息熵的具体步骤为:
S4.1.提取纹理区域融合图像的LBP特征作为纹理特征;
S4.2.提取静脉区域融合图像的4方向的梯度特征作为静脉特征1;
S4.3.提取静脉区域融合图像的8方向的梯度特征作为静脉特征2;
S4.4.计算静脉区域融合图像的信息熵。
6.根据权利要求1所述的基于腕部静脉和腕部纹理的联合识别方法,其特征在于:所述的步骤S5.3的比对包括以下步骤:
S5.3.1.使用4方向的梯度静脉特征1进行快速排序验证,验证采集到的腕部静脉图像与二叉树K层n个本地注册的模板节点的特征的相似度,筛选相似度前10%的模板节点对应的本地注册用户的特征进入下一轮比对;
S5.3.2.使用LBP纹理特征进行快速排序验证,验证采集到的腕部静脉图像与步骤S5.3.1中筛选出来的本地注册用户的特征,再次筛选相似度前5%的模板节点对应的本地注册用户的特征进入下一轮比对;
S5.3.3.使用8方向的梯度静脉特征2进行快速排序验证,验证采集到的腕部静脉图像与步骤S5.3.2中筛选出来的本地注册用户的特征,筛选出相似度最高的一个模板节点的特征;
S5.3.4.相似度最高的用户比对值与通过阈值进行比较,若采集到的腕部静脉图像的相似度小于等于通过阈值,则表示识别成功;反之,则表示识别失败。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211243982.8A CN115311691B (zh) | 2022-10-12 | 2022-10-12 | 一种基于腕部静脉和腕部纹理的联合识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211243982.8A CN115311691B (zh) | 2022-10-12 | 2022-10-12 | 一种基于腕部静脉和腕部纹理的联合识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115311691A CN115311691A (zh) | 2022-11-08 |
CN115311691B true CN115311691B (zh) | 2023-02-28 |
Family
ID=83868494
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211243982.8A Active CN115311691B (zh) | 2022-10-12 | 2022-10-12 | 一种基于腕部静脉和腕部纹理的联合识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115311691B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117152221B (zh) * | 2023-10-26 | 2024-01-16 | 山东科技大学 | 一种图像非刚性配准方法、系统、设备和存储介质 |
Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101539995A (zh) * | 2009-04-24 | 2009-09-23 | 清华大学深圳研究生院 | 基于手指静脉纹与手指背纹的成像设备及多模态身份认证方法 |
CN103824295A (zh) * | 2014-03-03 | 2014-05-28 | 天津医科大学 | 一种肺部ct图像中粘连血管型肺结节的分割方法 |
CN103971126A (zh) * | 2014-05-12 | 2014-08-06 | 百度在线网络技术(北京)有限公司 | 一种交通标志识别方法和装置 |
CN104463822A (zh) * | 2014-12-11 | 2015-03-25 | 西安电子科技大学 | 基于多尺度全局滤波的多聚焦图像融合方法及其装置 |
CN104504370A (zh) * | 2014-12-15 | 2015-04-08 | 广东智冠信息技术股份有限公司 | 一种结合仿生纹理特征和线状纹理特征的手指静脉识别方法 |
CN107145829A (zh) * | 2017-04-07 | 2017-09-08 | 电子科技大学 | 一种融合纹理特征和尺度不变特征的掌静脉识别方法 |
CN110349207A (zh) * | 2019-07-10 | 2019-10-18 | 国网四川省电力公司电力科学研究院 | 一种复杂环境下的视觉定位方法 |
CN110855903A (zh) * | 2019-11-19 | 2020-02-28 | 长沙品先信息技术有限公司 | 一种多路视频实时拼接方法 |
CN111209851A (zh) * | 2020-01-04 | 2020-05-29 | 圣点世纪科技股份有限公司 | 一种基于指腹静脉和指背静脉深度融合的指静脉识别方法 |
CN111507206A (zh) * | 2020-03-29 | 2020-08-07 | 杭州电子科技大学 | 一种基于多尺度局部特征融合的手指静脉识别方法 |
CN111735524A (zh) * | 2020-08-27 | 2020-10-02 | 湖南大学 | 基于图像识别的轮胎荷载获取方法、车辆称重方法及系统 |
CN111914125A (zh) * | 2020-07-16 | 2020-11-10 | 北京爱芯科技有限公司 | 数据处理方法及装置、存储介质及电子设备 |
CN112036382A (zh) * | 2020-11-04 | 2020-12-04 | 北京圣点云信息技术有限公司 | 一种基于地形点分类的指静脉特征提取及识别方法和装置 |
CN114863130A (zh) * | 2022-05-11 | 2022-08-05 | 安徽大学 | 一种指静脉生物特征识别方法、系统及匹配和识别方法 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8872909B2 (en) * | 2010-06-10 | 2014-10-28 | The Hong Kong Polytechnic University | Method and apparatus for personal identification using finger imaging |
CN107092866A (zh) * | 2017-03-29 | 2017-08-25 | 广西科技大学 | 基于纹理特征的静脉识别方法 |
CN108509886B (zh) * | 2018-03-26 | 2021-08-17 | 电子科技大学 | 基于静脉像素点判定的掌静脉识别方法 |
-
2022
- 2022-10-12 CN CN202211243982.8A patent/CN115311691B/zh active Active
Patent Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101539995A (zh) * | 2009-04-24 | 2009-09-23 | 清华大学深圳研究生院 | 基于手指静脉纹与手指背纹的成像设备及多模态身份认证方法 |
CN103824295A (zh) * | 2014-03-03 | 2014-05-28 | 天津医科大学 | 一种肺部ct图像中粘连血管型肺结节的分割方法 |
CN103971126A (zh) * | 2014-05-12 | 2014-08-06 | 百度在线网络技术(北京)有限公司 | 一种交通标志识别方法和装置 |
CN104463822A (zh) * | 2014-12-11 | 2015-03-25 | 西安电子科技大学 | 基于多尺度全局滤波的多聚焦图像融合方法及其装置 |
CN104504370A (zh) * | 2014-12-15 | 2015-04-08 | 广东智冠信息技术股份有限公司 | 一种结合仿生纹理特征和线状纹理特征的手指静脉识别方法 |
CN107145829A (zh) * | 2017-04-07 | 2017-09-08 | 电子科技大学 | 一种融合纹理特征和尺度不变特征的掌静脉识别方法 |
CN110349207A (zh) * | 2019-07-10 | 2019-10-18 | 国网四川省电力公司电力科学研究院 | 一种复杂环境下的视觉定位方法 |
CN110855903A (zh) * | 2019-11-19 | 2020-02-28 | 长沙品先信息技术有限公司 | 一种多路视频实时拼接方法 |
CN111209851A (zh) * | 2020-01-04 | 2020-05-29 | 圣点世纪科技股份有限公司 | 一种基于指腹静脉和指背静脉深度融合的指静脉识别方法 |
CN111507206A (zh) * | 2020-03-29 | 2020-08-07 | 杭州电子科技大学 | 一种基于多尺度局部特征融合的手指静脉识别方法 |
CN111914125A (zh) * | 2020-07-16 | 2020-11-10 | 北京爱芯科技有限公司 | 数据处理方法及装置、存储介质及电子设备 |
CN111735524A (zh) * | 2020-08-27 | 2020-10-02 | 湖南大学 | 基于图像识别的轮胎荷载获取方法、车辆称重方法及系统 |
CN112036382A (zh) * | 2020-11-04 | 2020-12-04 | 北京圣点云信息技术有限公司 | 一种基于地形点分类的指静脉特征提取及识别方法和装置 |
CN114863130A (zh) * | 2022-05-11 | 2022-08-05 | 安徽大学 | 一种指静脉生物特征识别方法、系统及匹配和识别方法 |
Non-Patent Citations (4)
Title |
---|
Finger-Vein Recognition Based on Densely Connected Convolutional Network Using Score-Level Fusion With Shape and Texture Images;K. J. Noh et al;《IEEE Access》;20201225;第96748-96766页 * |
基于局部宏观结构和微观特征融合的手指静脉识别算法;程申前等;《通信技术》;20181230;第51卷(第07期);第1585-1593页 * |
基于掌静脉的身份识别系统设计;柳亚楠;《中国优秀硕士学位论文全文数据库 信息科技辑》;20210215;第2021年卷(第2期);I138-125 * |
手掌静脉图像识别技术综述;吴微等;《中国图象图形学报》;20131230(第10期);第1215-1224页 * |
Also Published As
Publication number | Publication date |
---|---|
CN115311691A (zh) | 2022-11-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105956582B (zh) | 一种基于三维数据的人脸识别系统 | |
CN111368683B (zh) | 基于模约束CenterFace的人脸图像特征提取方法及人脸识别方法 | |
CN110443128B (zh) | 一种基于surf特征点精确匹配的指静脉识别方法 | |
CN108010045A (zh) | 基于orb的视觉图像特征点误匹配提纯方法 | |
CN111080529A (zh) | 一种加强鲁棒性的无人机航拍图像拼接方法 | |
CN111784576A (zh) | 一种基于改进orb特征算法的图像拼接方法 | |
CN107424161B (zh) | 一种由粗至精的室内场景图像布局估计方法 | |
CN103984920B (zh) | 一种基于稀疏表示与多特征点的三维人脸识别方法 | |
CN110472625B (zh) | 一种基于傅里叶描述子的象棋棋子视觉识别方法 | |
CN111192194B (zh) | 一种针对幕墙建筑立面的全景图像拼接方法 | |
CN110310277B (zh) | 基于深度特征和ntv-rpca的织物疵点检测方法 | |
CN110516533B (zh) | 一种基于深度度量的行人再辨识方法 | |
CN101458763A (zh) | 基于图像加权平均的自动人脸识别方法 | |
CN112733627B (zh) | 一种基于融合局部与全局特征网络的指静脉识别方法 | |
Yin et al. | Dynamic difference learning with spatio-temporal correlation for deepfake video detection | |
CN115311691B (zh) | 一种基于腕部静脉和腕部纹理的联合识别方法 | |
CN113095385B (zh) | 一种基于全局和局部特征描述的多模图像匹配方法 | |
CN113269029B (zh) | 一种多模态及多特征的指静脉图像识别方法 | |
CN111209820A (zh) | 人脸活体检测方法、系统、设备及可读存储介质 | |
WO2013075295A1 (zh) | 低分辨率视频的服装识别方法及系统 | |
CN112614167A (zh) | 一种结合单偏光与正交偏光图像的岩石薄片图像对齐方法 | |
CN111222508A (zh) | 基于roi的户型图比例尺识别方法、装置、计算机设备 | |
CN113435225A (zh) | 一种基于分块水平金字塔时空特征融合模型和步态重排序的跨视角步态识别方法 | |
CN117333908A (zh) | 基于姿态特征对齐的跨模态行人重识别方法 | |
CN109165551B (zh) | 一种自适应加权融合显著性结构张量和lbp特征的表情识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right | ||
TR01 | Transfer of patent right |
Effective date of registration: 20230410 Address after: Room 2309, 23rd Floor, Qidi Building, No. 99, South Tiancheng Road, High Speed Rail New Town, Xiangcheng District, Suzhou City, Jiangsu Province, 215000 - Work Station A029 (cluster registration) Patentee after: Jiangsu Shengdian Century Technology Co.,Ltd. Address before: Room 1602, Qianshan building, building D2, Qingdao International Innovation Park, No. 169, Songling Road, Laoshan District, Qingdao, Shandong 266100 Patentee before: Shandong ShengDian Century Technology Co.,Ltd. |