CN109934118A - 一种手背静脉身份识别方法 - Google Patents
一种手背静脉身份识别方法 Download PDFInfo
- Publication number
- CN109934118A CN109934118A CN201910124092.7A CN201910124092A CN109934118A CN 109934118 A CN109934118 A CN 109934118A CN 201910124092 A CN201910124092 A CN 201910124092A CN 109934118 A CN109934118 A CN 109934118A
- Authority
- CN
- China
- Prior art keywords
- image
- point
- value
- gray
- hand
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Image Analysis (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Collating Specific Patterns (AREA)
Abstract
本发明公开了一种手背静脉身份识别方法,其通过使用近红外光图像采集设备照射手背,采集一张手背静脉实时图像,然后对该图像进行一系列特定的预处理,然后将两幅经相同预处理的图像进行基于SIFT算法的特征匹配,实现身份识别。本发明针对现有的技术缺陷,本发明着重优化了识别算法,本发明的识别速度为0.87s,识别拒识率为0.0033,误识率为0.002899,识别效果远优于现有的生物设备。本发明提升了静脉识别的准确率和识别速度,可以被广泛地应用在安全验证领域。
Description
技术领域
本发明涉及静脉识别技术,具体的说是一种手背静脉身份识别方法。
背景技术
信息技术的飞速发展、人类社会的不断进步,对信息技术提出了更新、更高的要求。 目前,人的身份识别需求越来越多,如何准确鉴定一个人的身份,保证信息安全,能够做 到身份数字化和隐形化,已成为信息化时代必须解决的一个关键性问题。
传统的身份认证方法主要有两种:一种是基于身份标示物(如钥匙、证件、卡等)的身 份认证,另一种是基于身份标示知识(如密码、卡号、用户名等)的身份认证。但两者都存在难以克服的缺陷:标示物容易丢失或被伪造,标示知识容易遗忘或被记错;更为严重的是,这些传统的身份识别方法往往无法区分真正拥有者和冒充者,一旦他人获得这些标示物,就拥有了相同的权利。
目前最为便捷与安全的解决方案就是生物识别技术。生物识别技术是利用人的生理特 征或行为特征,来进行个人身份的鉴定。现有的识别技术主要包括:指纹识别、人脸识别、 掌纹识别、签名识别、声纹识别、步态识别、DNA识别、视网膜识别、虹膜识别、静脉识 别等。
指纹识别和人脸识别技术发展较早,相对比较成熟,目前市场上已有指纹识别和人脸 识别的各类产品用于门禁、考勤和安防等。大多数智能手机中也引入了此项技术。但此类 产品识别依赖于表面特征,若指纹和面部有破损或者损伤,就不能通过验证。且此类特征 极易被仿造,不能保证信息安全。
掌纹识别、签名识别、声纹识别、步态识别等和指纹识别类似,都借助于外显的特征, 有可能被复制或伪造。尽管有些特征复制相对困难,但其特征获取难度大,识别率不高, 成为限制其应用的一大要因。DNA识别借助人身体内细胞的原子物质进行识别,特征不外 显,较难被复制或伪造,但是DNA识别不需要活体也可以鉴定。以上生物特征识别技术都属于非活体识别,存在造假的可能。
视网膜识别是用激光照射眼球背面,得到眼睛底部的血液细胞层特征进行识别,特征 不外显,且是活体识别,安全系数较高。但激光照射可能会影响视网膜健康,受众接受度 差,且基于此类识别技术的产品很难进一步降低成本。
虹膜识别是利用近红外光照射扫描眼睛,得到眼睛虹膜特征图像,通过分析虹膜特征 的不同达到身份识别的目的。该特征不外显,安全系数较高,但容易给人们带来不适感, 接受度略差。且扫描中可能产生图像畸变使可靠性降低。
静脉识别在2006年被纳入生物识别一环,其逐渐被人们应用到安防系统中,如掌静脉 识别仪。
每个人的静脉特征分都是独一无二的,而且静脉由于在人体体内,不会随着皮肤表面 特征变化,很难被模仿,安全性更高。目前市场上已经存在有手指静脉识别相关技术,但 是其可识别静脉血管比较细微而且数量较少,识别的精度和速度不及手背静脉血管。而且 不同人群的手部肤色、脂肪分布厚度不一样,采用手背静脉识别可以有效的处理这些误差 影响。
人体静脉识别技术是图像识别领域的新兴课题,相对于目前流行的生物识别技术来说, 静脉识别具有以下优势:
1.唯一性(双胞胎也不一样),不会遗失、不会被窃、无记忆密码负担。
2.稳定性,体内信息,活体识别,不受皮肤粗糙、外部环境(温度、湿度)的影响。
3.适用性广,成年人基本不变,不可复制、不可伪造,安全保密性高。
4.非接触式检测,较自然且卫生,无不适感,易于接受,适合在公共场合使用。
静脉识别属于第二代生物识别技术,通过特定波长的红外线和高清摄像头,其依据人 类流动的血液可吸收特定波长的光线,而使用特定波长光线对手指进行照射,采集隐藏于 手背内部的静脉分布图,通过匹配静脉分布实现身份的识别。静脉识别依靠内部特征,不 易伪造,不受外在环境因素影响,只有活体才能识别,是最安全的识别技术。其识别率高, 认假率低于0.0001%,拒真率低于0.01%。识别速度快,不到1s识别即可完成。且不需要 直接接触感应器,既卫生又安全,容易被大众接受。
所以基于近红外光的静脉图像识别,利用图像分割及特征提取算法,构建精准人体识 别系统,准确率高,在部门安全、会员管理、人员考勤、出入监控等领域具有广阔的应用 前景和市场前景,是未来生物识别技术发展的趋势。
发明内容
本发明的目的是提供一种手背静脉身份识别方法,以其精准的识别率和较小的外界干 扰,来弥补指纹识别、脸部识别等识别技术识别不准、受外界影响较大的缺陷,给人们提供更加安全的保密手段。
本发明的目的是这样实现的:
一种手背静脉身份识别方法,其按以下步骤进行:
(1)图像采集:使用近红外光图像采集设备照射手背,采集一张手背静脉实时图像;
(2)图像预处理:
①、尺寸归一化:采用最近邻域插值法,将所采集到的手背静脉图像调整为320像素 ×320像素大小;
②、灰度归一化:将尺寸归一化后的图像逐点进行不同程度的灰度级校正,转化成同 一灰度级:
③、根据二维高斯分布函数,设定标准差σ=0.8,建立得到一个三维高斯1/16模板采用所建立的三维高斯1/16模板平滑处理去除灰度归一化后的图像的噪声;
④、采用总体均值法将经步骤③处理后的图像进行背景去除;
⑤、将经步骤④处理后的图像先采用AHE方法增强血管对比度,然后进行阈值分割, 得到血管图像;
⑥、去除外围轮廓:对步骤③所得图像进行二值化,将图像的感兴趣区域像素点灰度 值置为1,背景区域像素点灰度值置为0,得到掩模图像,然后等比例缩小为300×300像素,再用灰度值为0的像素填充为320×320的掩模图像;
⑦、将步骤⑤所得血管图像与步骤⑥所得掩模图像进行相乘运算,得到去掉轮廓的血 管图像,然后对其进行噪点去除和毛刺修复,完成图像预处理过程;
(3)按照步骤(2)的操作将按照步骤(1)所采集的不同人的手背静脉图像进行处理后,存入比对系统;然后将同样按照步骤(1)所采集的识别人的手背静脉图像按照步 骤(2)的操作进行预处理后,与比对系统中所保存的各个图像分别采用SIFT算法将进行 特征提取与特征匹配,规定当图像间的特征匹配点的数量大于25时判定为匹配成功,否 则匹配失败,完成手背静脉身份识别。
所述的手背静脉身份识别方法,步骤②灰度归一化的具体过程是:根据公式其中,f(x,y)是灰度归一化前的灰度图像,f′(x,y)是 灰度归一化后的灰度图像,MaxValue、MinValue分别为原始图像灰度的最大值和最小值。 本文实现获取0~255灰度值范围的图像,所以根据修正公式f′(x,y)=(Max–Min)*对图像进行处理,f(x,y)是灰度归一化前的灰度图像,f′(x,y) 是灰度归一化后的灰度图像,MaxValue、MinValue分别为原始图像灰度的最大值和最小 值,Max和Min分别是预置范围的最大值与最小值即255与0。
所述的手背静脉身份识别方法,步骤④进行背景去除的具体处理过程是:计算整幅待 处理图像的所有像素点灰度值的均值作为去除图像背景时的分割阈值,将该阈值与整幅待 处理图像的各个像素点的灰度值进行比较,如果当前像素点的灰度值小于所述阈值,则将 当前像素点的灰度值置0,如果当前像素点的灰度值大于所述阈值,则将保留当前像素点 的灰度值;所述阈值的计算公式为:其中,H为图像的高度,W 为图像的宽度;
所述的手背静脉身份识别方法,步骤⑤采用AHE方法增强血管对比度的过程是:用直 方图匹配方法来逐个处理图像中的较小区域,然后使用双线性内插方法将相邻的小片组合 起来;然后对图像进行10×10二维高斯滤波处理,提高图像质量;
增强对比度的过程中:MATLAB调用格式为g=adapthisteq(f,param1,val1,param2, val2,...)本文采用默认参数,即g=adapthisteq(f)。
步骤⑤进行阈值分割的方法采用最大类间方差法,将函数graythresh(image)计算值 的0.6倍作为分割阈值,然后将当前像素点的灰度值与计算的分割阈值进行比较,低于分 割阈值置为黑色,高于分割阈值则置为白色;
即thresh=graythresh(image)*0.6,其中thresh为分割阈值,graythresh为matlab 内置函数,0.6为修正系数。
所述的手背静脉身份识别方法,步骤⑥进行二值化的过程采用全局阈值法,即将图像 所有像素点灰度值的平均值作为阈值,低于该阈值置为黑色,高于该阈值置为白色。
所述的手背静脉身份识别方法,步骤⑦的具体过程是:步骤⑥所得到的掩膜图像实际 是一个320×320的01矩阵,如图g所示,将此矩阵与步骤⑤得到的血管图像矩阵点乘,则手背之外区域全部置0(因掩膜曾等比例缩小,所以手背边缘也被置0),实际效果即去 除外围轮廓。最后调用MATLAB中bwareaopen函数去除噪点,其调用格式为:BW2=bwareaopen(BW,P,conn),作用是删除二值图像BW中面积小于P的对象,默认情况下conn 使用8邻域,本文根据像素噪点大小将P设置为10(可根据实际情况改动)。
所述的手背静脉身份识别方法,步骤(3)中采用SIFT算法将进行特征提取与特征匹 配的过程是:构建尺度空间,检测DoG尺度空间极值点,去除不稳定特征点,给特征点赋值一个128维方向参数,生成关键点描述子,对关键点描述子的欧氏距离的相似度进行匹配。
本发明的方法可应用于许多注重个人信息管理的领域,采用静脉网识别技术,无需用 卡,数字化博物馆、银行的建设将会更加彻底,采用这项技术来管理人员出入,可以达到 更细化的个人信息管理;采用静脉网识别技术,军事国防、重大会议的安全性得到切实保 障,无关人员不会有可乘之机;采用静脉网识别技术,大型考试将不再出现替考、代考现象,教育系统设施的管理和使用都变得十分井井有条。手掌静脉识别技术提供了真正的安全、公正、公平的保障。可以说,手掌静脉识别技术几乎可以应用于所有需要个人信息识 别的领域,让其身份识别、信息保密和管理工作提升到一个新的境界。
附图说明
图1是按照本发明的方法对手背图像进行处理后的结果。
图1中:a为设备采集的原始图像,b为尺度归一化后的图像,c为灰度归一化后的图像,d为去噪后的图像,e是去除背景后的图像,f是进行阈值分割后的图像,g是掩膜 图像,h是去除轮廓后的图像。
图2是两幅相同图像图特征匹配。
图3是静脉识别系统界面的图像。
图4是图像金字塔的建立过程图像。
图5是检测DoG尺度空间极值点过程图像。
图6是图像金字塔的建立后的塔层结构图像。
图7是塔层结构中S=3的图像。
图8是除去不好的特征点(DoG局部曲率非常不对称的像素)的曲线拟合图像。
图9是利用直方图统计领域内像素对应的梯度和幅值过程图。
图10是关键点描述子的生成过程图像。
具体实施方式
本发明研究来自河北大学大学生创新创业训练计划项目,项目编号为201810075019。 本发明的技术方案所涉及的方法基于主要由静脉采集模块、图像处理模块、特征提取模块 和静脉匹配模块构成的静脉识别系统实现,在Windows7系统的计算机中采用MATLAB R2014b实现处理过程。静脉采集模块为一个近红外图像采集设备,其主要包括红外灯光 源、工业相机、滤光片、相机镜头、硬件支架、散光板、显示模块、语音模块、电源模块 等,为现有常规设计结构。图像处理模块基于像素层面上灰度归一化以及图像大小的归一 化,并对图像高斯滤波降噪、总体均值去除背景、阈值分割得到静脉拓扑图;特征提取模块利用SIFT算法对预处理图像进行静脉的特征提取,静脉匹配模块实现对已提取的静脉特征识别决策与现有特征数据库进行特征匹配。图像处理模块、特征提取模块和静脉匹配模块所涉及的算法在以下描述中详述。
本发明的实现步骤如下:
(1)图像采集:使用近红外光图像采集设备照射手背,采集一张手背静脉实时图像, 如图1中a所示。
(2)图像预处理:
①、尺寸归一化:考虑到每个人的手背区域尺寸大小不同,且同一个人在不同时刻采 集的静脉图像中手背区域尺寸大小也可能不同,为了提高识别的准确性,需要将每个人的 手背区域通过缩放进行尺寸标准化。
根据手背静脉图像的特点,从处理效果和方法计算量这两方面综合考虑,本实施例采 用最近邻域插值法,将所采集到的不同大小的手背静脉图像统一调整为320×320像素大 小,结果如图1中b所示,以方便存储与处理。
②、灰度归一化:由于采集时间、红外线强、手背脂肪厚度不同,手背静脉图像在灰度分布上存在较大的差异,这会影响后续的处理,因此必须进行灰度标准化,将尺寸归一化后的图像逐点进行不同程度的灰度级校正,转化成同一灰度级,以排除灯光、手背颜色的影响,避免图像对比度不足(图像像素亮度分布不平衡)从而对后续处理带来干扰。
本实施方案中对图像灰度进行标准化的方法是:针对图像成像不均匀(如图半边暗半 边亮)而对图像逐点进行不同程度的灰度级校正,目的是使图像灰度均匀,具体过程是:
根据公式其中,f(x,y)是灰度归一化前的灰度图像, f′(x,y)是灰度归一化后的灰度图像,MaxValue、MinValue分别为原始图像灰度的最大值和最小值。本文实现获取0~255灰度值范围的图像,所以根据修正公式f′(x,y)=对图像进行处理,f(x,y)是灰度归一化前的灰度图像,f′(x,y)是灰度归一化后的灰度图像,MaxValue、MinValue分别为原始图像灰度 的最大值和最小值,Max和Min分别是预置范围的最大值与最小值即255与0。灰度归一 化后的图像如图1中c所示,此步骤为之后的图像增强处理奠定基础。
③、任何一幅原始图像,在其获取和传输过程中,会受到各种噪声的方法,使得图像 恶化,质量下降,特征淹没,对图像处理极为不便。本步骤通过转化为频率域处理可减少图像的噪声,如实际拍摄过程中手背的汗毛、皮屑等因素。
本步骤根据血管形状的特殊性,采用高斯滤波平滑处理,根据二维高斯分布函数生成 三维高斯1/16模板进行高斯滤波,平滑处理去除噪声(结果见图1中d所示):
二维高斯分布函数:
其中(x,y)为点坐标,在图像处理中可认为是整数;σ是标准差,本实施例中取σ=0.8, 生成如下模板:
④、采用总体均值法将经步骤③处理后的图像进行背景去除:
近红外光图像采集设备所采集的图像会出现手背图像背景区域,需要将手背图像从背 景中分离出来。本实施例中采用图像分割中的自适应总体阈值的方法--总体均值方法去除 静脉图像的背景区域。总体均值法是根据整幅手背静脉图像的灰度值的均值,把它作为去 除图像背景的分割依据,然后将此阈值和整幅图像的像素逐个进行比较,如果小于此阀值 就将此像素值置0,否则保留该像素点的像素值,具体是:
阈值公式为:
上式中H为图像的高度,W为图像的宽度,经尺寸归一化后统一为320,处理结果如图1中e所示。
⑤、将经步骤④处理后的图像先采用AHE方法增强血管对比度,然后进行阈值分割, 得到血管图像,如图1中f所示。
先采用AHE方法增强血管对比度的过程是:用直方图匹配方法来逐个处理图像中的较 小区域,然后使用双线性内插方法将相邻的小片组合起来;然后对图像进行10x10二维高 斯滤波处理,提高图像质量;采用AHE方法增强对比度的过程MATLAB调用格式为g=adapthisteq(f,param1,val1,param2,val2,...),本文采用默认参数,即g= adapthisteq(f)。
进行阈值分割的过程是:采用最大类间方差法,将函数graythresh(image)计算值的 0.6倍作为分割阈值,然后将当前像素点的灰度值与计算的分割阈值进行比较,低于分割 阈值置为黑色,高于分割阈值则置为白色;即thresh=graythresh(image)*0.6,其中thresh 为分割阈值,graythresh为matlab内置函数,0.6为修正系数。
⑥、对于步骤③进行高斯去噪后的图像,一方面先按照步骤④、⑤的方法处理后得到 血管图像,另一方面要去除外围轮廓,其原因在于在真实的匹配过程中,手背的轮廓是不 需要的,只需保留手背静脉的纹理,为了之后对静脉骨架选取特征点提供基础,避免误识 特征点,通过这样的处理,使得之后进行特征匹配时的匹配速度和精度都能得到有效的提 高。
去除外围轮廓的方法是:对步骤③所得图像进行二值化,二值化的过程采用全局阈值 法,即将图像所有像素点灰度值的平均值作为阈值,低于该阈值置为黑色,高于该阈值置 为白色。然后将图像的感兴趣区域(即手背区域)像素点灰度值置为1,不感兴趣区域(即 背景区域)像素点灰度值置为0,得到掩模图像,然后等比例缩小为300×300像素,再用灰度值为0的像素填充为320×320的掩模图像,即得到与血管图像等大的二值图像, 如图1中g所示。
⑦、将步骤⑤所得血管图像与步骤⑥所得掩模图像进行相乘运算,得到去掉轮廓的血 管图像,如图1中h所示,然后对其进行噪点去除和毛刺修复,完成图像预处理过程。
步骤⑥所得到的掩膜图像实际是一个320×320的01矩阵,如图g所示,将此矩阵与步骤⑤得到的血管图像矩阵点乘,则手背之外区域全部置0(因掩膜曾等比例缩小,所以 手背边缘也被置0),实际效果即去除外围轮廓。最后调用MATLAB中bwareaopen函数去 除噪点,其调用格式为:BW2=bwareaopen(BW,P,conn),作用是删除二值图像BW中面积 小于P的对象,默认情况下conn使用8邻域,本文根据像素噪点大小将P设置为10(可 根据实际情况改动)。
毛刺修复的方法:毛刺的产生不仅与采集图像的清晰程度有关而且也与细化算法有关, 对毛刺处理效果的好坏,将直接影响到后面静脉图像的骨架特征提取的好坏。本实施例所 采用的毛刺修复方法是从端点(端点是指其8邻域中有7个像素点为0只有一个像素为目 标像素的目标像素点)出发沿5像素宽的静脉纹理向前搜索,若在遇到一个交叉点时其搜 索(长度灌索路径上的像素点数)没有超过预先设定的最大毛刺长度(本实施例中规定最 大毛刺长度为10个像素点,最大毛刺长度取值可在6-10个像素点),则认为这是一条毛 刺,可将其置黑删除掉。
噪点去除的方法:噪点修复方法采用matlab函数bwareaopen删除二值图像中面积小 于P的对象,本实施例中P取15。例如BW2=bwareaopen(BW,P,conn),作用是删除二值 图像BW中面积小于P的对象,默认情况下conn使用8邻域,本文根据像素噪点大小将P 设置为15,BW为原二值图像,BW2为噪点修复后的新图像。
至此,图像预处理过程全部完成。
(3)特征提取及特征点匹配:按照步骤(2)的操作将按照步骤(1)所采集的不同 人的手背静脉图像进行处理后,存入比对系统;然后将同样按照步骤(1)所采集的待识 别人的手背静脉图像按照步骤(2)的操作进行预处理后,与比对系统中所保存的各个图 像分别采用SIFT算法进行局部特征提取,然后通过计算图像中的特征点(interest points,orcorner points)及其有关scale和orientation的描述子得到特征并进行 图像特征点匹配,得到匹配结果,完成手背静脉身份识别。
具体的,本步骤基于SIFT算法的特征匹配的过程是:
(3.1)构建尺度空间
(3.1.1)定义原始二维图像(即经步骤(2)预处理后的图像)为I(x,y),则该二维图像的尺度空间L(x,y,σ)为原始图像I(x,y)与一个可变尺度的二维空间高斯函数G(x,y,σ) 的卷积运算,即:
L(x,y,σ)=G(x,y,σ)*I(x,y)…………(式1);
其中二维空间高斯函数表达式:
式1、式2中:(x,y)是空间尺度坐标;σ称为尺度空间因子,它是高斯正态分布的标准差,反映了图像被模糊的程度,其值越大图像越模糊,对应的尺度也就越大,其大小决 定图像的平滑程度,大尺度对应图像的概貌特征(即对应粗糙尺度(低分辨率)),小尺度 对应图像的细节特征(即对应精细尺度(高分辨率))。
为了有效的在二维图像的尺度空间检测到稳定的关键点,本实施例中利用不同尺度的 高斯差分核与图像卷积生成高斯差分尺度空间(DoG scale-space),即:
D(x,y,σ)=(G(x,y,kσ)-G(x,y,σ))*I(x,y)
=L(x,y,kσ)-L(x,y,σ).…………(式3);
式3中,D(x,y,σ)表示高斯差分的DoG(Difference of Gaussians)的响应值图像,
k表示相邻尺度空间倍数的常数,L(x,y,σ)和L(x,y,σ)代表着图像的高斯尺度空间。
(3.1.2)图像金字塔的建立(图6是图像金字塔的建立后的塔层结构图像,图7是塔层结构中S=3的图像):对于一幅图像I,建立其在不同尺度(scale)的图像,也称为子八度(octave),第一个子八度的scale为原图大小,后面每个octave为上一个octave降 采样的结果,即原图的1/4,构成下一个子八度(如图4所示):
此为参数σ的取值,每一层的参数σ不同。其中s为每层金字塔的尺度数。
尺度空间的所有取值,i为octave的塔数,s为每塔层数。由图片size决定建共几个塔,每塔几层图像。0塔的第0层是原始图像,往上每一层是对其下一层进行Laplacian 变换,直观上看来越往上图片越模糊;塔间的图片是降采样关系,然后进行与0塔类似的 高斯卷积操作。
(3.2)检测DoG尺度空间极值点
为了寻找尺度空间的极值点,每一个采样点要和它所有的相邻点比较,看其是否比它 的图像域和尺度域的相邻点大或者小。如图5所示,中间的检测点和它同尺度的8个相邻 点和上下相邻尺度对应的9×2个点共26个点比较,以确保在尺度空间和二维图像空间都 检测到极值点。
一个点如果在DoG尺度空间本层以及上下两层的26个领域中是最大或最小值时,就 认为该点是图像在该尺度下的一个特征点。
本实施例中使用Difference of Gaussian图像的极大极小值近似寻找特征点。
(3.3)除去不好的特征点
这一步本质上要去掉DoG局部曲率非常不对称的像素。
由于我们找的极值点是在高斯差分之后所确定下来的,那么其是属于离散空间上的点, 不一定是真正意义上的极值点,因此我们需用用到一条曲线来进行拟合,如图8所示。通 过拟和三维二次函数以精确确定关键点的位置和尺度,同时去除低对比度的关键点和不稳 定的边缘响应点,以增强匹配稳定性、提高抗噪声能力,在这里使用近似HarrisCorner 检测器。
采用泰勒展开式将离散转换为连续,空间尺度函数泰勒展开式如下:
对式4求导,得到精确位置,如此可以得到真正意义上的极值点:
进一步的,在已经检测到的特征点中,要去掉不好的特征点(包括低对比度的特征点 和不稳定的边缘响应点)。
①、去除低对比度的点的方法是:把式2代入式1,即在DoG Space的极值点处D(x)取 值,只取前两项可得:
若该特征点就保留下来,否则就舍弃。
②、去除不稳定的边缘响应点的方法是:
一个定义不好的高斯差分算子的极值在横跨边缘的地方有较大的主曲率,而在垂直边 缘的方向有较小的主曲率,主曲率通过一个2×2的Hessian矩阵H求出:
导数由采样点相邻差估计得到。
D的主曲率和H的特征值成正比,令α为较大特征值,β为较小的特征值,则:
Tr(H)=Dxx+Dyy=α+β…………(式8),
Det(H)=DxxDyy-(Dxy)2=αβ…………(式9)。
令α=γβ,则:
的值在两个特征值相等的时候最小,随着γ的增大而增大,因此,为了检测主曲 率是否在某域值γ下,只需检测本实施例中取γ=10。
(3.4)方向赋值
在DoG金字塔中,有很多层高斯模糊后的图像,依照这个方向做进一步的计算,利用 关键点邻域像素的梯度方向分布特性为每个关键点指定方向参数,使算子具备旋转不变性。
式11为(x,y)处梯度的模值和方向公式,其中L所用的尺度为每个关键点各自所在的尺 度。
至此,图像的关键点已经检测完毕,每个关键点有三个信息:位置、所处尺度、方向, 由此可以确定一个SIFT特征区域。然后利用直方图统计领域内像素对应的梯度和幅值: 梯度方向角为横轴刻度,取45度为一个单位,那么横轴就有8个刻度;纵轴是对应梯度的幅值累加值。取幅值最高的方向为主方向(如图9所示),取超过峰值能量的80%的方 向称为辅方向。
(3.5)关键点描述子的生成
首先将坐标轴旋转为关键点的方向,以确保旋转不变性。以关键点为中心取8×8的 窗口。16*16的图中,其中1/4的特征点梯度方向及scale,图10中,右图为其加权到8 个主方向后的效果。
图10中,左图的中央为当前关键点的位置,每个小格代表关键点邻域所在尺度空间 的一个像素,利用公式求得每个像素的梯度幅值与梯度方向,箭头方向代表该像素的梯度 方向,箭头长度代表梯度模值,然后用高斯窗口对其进行加权运算。
图10中蓝色的圈代表高斯加权的范围(越靠近关键点的像素梯度方向信息贡献越大)。 然后在每4×4的小块上计算8个方向的梯度方向直方图,绘制每个梯度方向的累加值, 即可形成一个种子点,如图右部分示。此图中一个关键点由2×2共4个种子点组成,每个种子点有8个方向向量信息。这种邻域方向性信息联合的思想增强了算法抗噪声的能力,同时对于含有定位误差的特征匹配也提供了较好的容错性。
(3.6)最后,根据SIFT进行匹配:
匹配时A、B两幅图(即待识别人的手背静脉图像和比对系统中存储的图像)生成描述子,分别是k1*128维和k2*128维,然后就将两图中各个scale的描述子进行匹配,匹 配上128维即可表示两个特征点匹配成功,如图2所示。
当两幅图像的SIFT特征向量生成后,下一步我们采用特征点特征向量的欧式距离来 作为两幅图像中特征点的相似性判定度量。取图像A中的某个特征点,并找出其与图像B中欧式距离最近的前两个特征点,在这两个关键点(即特征点)中,如果最近的距离除以 次近的距离少于某个比例阈值,则接受这一对匹配点。降低这个比例阈值,SIFT匹配点 数目会减少,但更加稳定,本实施例中该阈值取值为0.3。
经过上述特征匹配过程后,当图像间的特征匹配点的数量大于25时判定为匹配成功, 否则匹配失败,匹配结果如图3示意图所示。
以上是本发明方法的一个具体实施方案,经过一系列的实验对比,本发明的识别速度 为0.87s,识别拒识率为0.0033,误识率为0.002899,识别效果远优于现有的生物设备。 针对现有的技术缺陷,本发明着重优化了识别算法,首先对红外相机采集到的图片的尺寸 和灰度标准化,在降噪、滤波之后采用图像分割中自适应总体阈值的方法—总体均值法去 除图像的背景区域,然后对图像进行自适应直方图均衡和血管阈值分割,最后采用SIFT 特征点检测,使用Match比对函数对采集到的图像的特征点和数据库中的特征信息作比较, 特征点大于一定的阈值即为匹配成功。每次对图像处操作之后都会采用高斯平滑滤波处理, 对图像邻域像素的灰度进行平均化,以提高图像质量。本发明提升了静脉识别的准确率和 识别速度,可以被广泛地应用在安全验证领域。
Claims (6)
1.一种手背静脉身份识别方法,其特征在于,按以下步骤进行:
(1)图像采集:使用近红外光图像采集设备照射手背,采集一张手背静脉实时图像;
(2)图像预处理:
①、尺寸归一化:采用最近邻域插值法,将所采集到的手背静脉图像调整为320像素×320像素大小;
②、灰度归一化:将尺寸归一化后的图像逐点进行不同程度的灰度级校正,转化成同一灰度级:
③、根据二维高斯分布函数,设定标准差σ=0.8,建立得到一个三维高斯1/16模板采用所建立的三维高斯1/16模板平滑处理去除灰度归一化后的图像的噪声;
④、采用总体均值法将经步骤③处理后的图像进行背景去除;
⑤、将经步骤④处理后的图像先采用AHE方法增强血管对比度,然后进行阈值分割,得到血管图像;
⑥、去除外围轮廓:对步骤③所得图像进行二值化,将图像的感兴趣区域像素点灰度值置为1,背景区域像素点灰度值置为0,得到掩模图像,然后等比例缩小为300×300像素,再用灰度值为0的像素填充为320×320的掩模图像;
⑦、将步骤⑤所得血管图像与步骤⑥所得掩模图像进行相乘运算,得到去掉轮廓的血管图像,然后对其进行噪点去除和毛刺修复,完成图像预处理过程;
(3)按照步骤(2)的操作将按照步骤(1)所采集的不同人的手背静脉图像进行处理后,存入比对系统;然后将同样按照步骤(1)所采集的识别人的手背静脉图像按照步骤(2)的操作进行预处理后,与比对系统中所保存的各个图像分别采用SIFT算法将进行特征提取与特征匹配,规定当图像间的特征匹配点的数量大于25时判定为匹配成功,否则匹配失败,完成手背静脉身份识别。
2.根据权利要求1所述的手背静脉身份识别方法,其特征在于,
步骤②灰度归一化的具体过程是:根据公式其中,f(x,y)是灰度归一化前的灰度图像,f′(x,y)是灰度归一化后的灰度图像,MaxValue、MinValue分别为原始图像灰度的最大值和最小值。
3.根据权利要求1所述的手背静脉身份识别方法,其特征在于,
步骤④进行背景去除的具体处理过程是:计算整幅待处理图像的所有像素点灰度值的均值作为去除图像背景时的分割阈值,将该阈值与整幅待处理图像的各个像素点的灰度值进行比较,如果当前像素点的灰度值小于所述阈值,则将当前像素点的灰度值置0,如果当前像素点的灰度值大于所述阈值,则将保留当前像素点的灰度值;所述阈值的计算公式为:其中,H为图像的高度,W为图像的宽度。
4.根据权利要求1所述的手背静脉身份识别方法,其特征在于,
步骤⑤采用AHE方法增强血管对比度的过程是:用直方图匹配方法来逐个处理图像中的较小区域,然后使用双线性内插方法将相邻的小片组合起来;然后对图像进行10×10二维高斯滤波处理,提高图像质量;
步骤⑤进行阈值分割的方法采用最大类间方差法,将函数graythresh(image)计算值的0.6倍作为分割阈值,然后将当前像素点的灰度值与计算的分割阈值进行比较,低于分割阈值置为黑色,高于分割阈值则置为白色。
5.根据权利要求1所述的手背静脉身份识别方法,其特征在于,
步骤⑥进行二值化的过程采用全局阈值法,即将图像所有像素点灰度值的平均值作为阈值,低于该阈值置为黑色,高于该阈值置为白色。
6.根据权利要求1-5所述的手背静脉身份识别方法,其特征在于,
步骤(3)中采用SIFT算法将进行特征提取与特征匹配的过程是:构建尺度空间,检测DoG尺度空间极值点,去除不稳定特征点,给特征点赋值一个128维方向参数,生成关键点描述子,对关键点描述子的欧氏距离的相似度进行匹配。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910124092.7A CN109934118A (zh) | 2019-02-19 | 2019-02-19 | 一种手背静脉身份识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910124092.7A CN109934118A (zh) | 2019-02-19 | 2019-02-19 | 一种手背静脉身份识别方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109934118A true CN109934118A (zh) | 2019-06-25 |
Family
ID=66985719
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910124092.7A Pending CN109934118A (zh) | 2019-02-19 | 2019-02-19 | 一种手背静脉身份识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109934118A (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110443146A (zh) * | 2019-07-09 | 2019-11-12 | 一脉通(深圳)智能科技有限公司 | 基于生物识别的身份验证方法、装置、设备及可读介质 |
CN110728647A (zh) * | 2019-10-16 | 2020-01-24 | 紫光展讯通信(惠州)有限公司 | 水下图像的增强方法及装置、存储介质、终端 |
CN110751071A (zh) * | 2019-10-12 | 2020-02-04 | 上海上湖信息技术有限公司 | 人脸识别方法及装置、存储介质、计算设备 |
CN110991465A (zh) * | 2019-11-15 | 2020-04-10 | 泰康保险集团股份有限公司 | 一种物体识别方法、装置、计算设备及存储介质 |
CN113420690A (zh) * | 2021-06-30 | 2021-09-21 | 平安科技(深圳)有限公司 | 基于感兴趣区域的静脉识别方法、装置、设备及存储介质 |
CN113435377A (zh) * | 2021-07-06 | 2021-09-24 | 吴国军 | 一种医疗手掌静脉图像采集监控方法及系统 |
CN114022657A (zh) * | 2022-01-06 | 2022-02-08 | 高视科技(苏州)有限公司 | 一种屏幕缺陷分类方法、电子设备及存储介质 |
CN114817757A (zh) * | 2022-04-02 | 2022-07-29 | 广州大学 | 基于图卷积网络的跨社交网络虚拟身份关联方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101002682A (zh) * | 2007-01-19 | 2007-07-25 | 哈尔滨工程大学 | 用于身份识别的手背静脉特征提取和匹配方法 |
CN102663355A (zh) * | 2012-03-27 | 2012-09-12 | 天津理工大学 | 基于手背静脉与手形结合的识别系统与方法 |
CN103235929A (zh) * | 2013-03-11 | 2013-08-07 | 北京航空航天大学 | 基于手背静脉图像的身份识别方法和装置 |
CN104239769A (zh) * | 2014-09-18 | 2014-12-24 | 北京智慧眼科技发展有限公司 | 基于手指静脉特征的身份识别方法及系统 |
CN107967462A (zh) * | 2017-12-12 | 2018-04-27 | 天津津航计算技术研究所 | 一种基于指静脉生物特征的身份识别方法 |
-
2019
- 2019-02-19 CN CN201910124092.7A patent/CN109934118A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101002682A (zh) * | 2007-01-19 | 2007-07-25 | 哈尔滨工程大学 | 用于身份识别的手背静脉特征提取和匹配方法 |
CN102663355A (zh) * | 2012-03-27 | 2012-09-12 | 天津理工大学 | 基于手背静脉与手形结合的识别系统与方法 |
CN103235929A (zh) * | 2013-03-11 | 2013-08-07 | 北京航空航天大学 | 基于手背静脉图像的身份识别方法和装置 |
CN104239769A (zh) * | 2014-09-18 | 2014-12-24 | 北京智慧眼科技发展有限公司 | 基于手指静脉特征的身份识别方法及系统 |
CN107967462A (zh) * | 2017-12-12 | 2018-04-27 | 天津津航计算技术研究所 | 一种基于指静脉生物特征的身份识别方法 |
Non-Patent Citations (2)
Title |
---|
姚吉: "手背静脉识别图像的预处理方法研究", 《中国优秀硕士学位论文全文数据库信息科技辑》 * |
王云新: "基于手背静脉与虹膜的生物特征识别方法研究", 《万方在线》 * |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110443146A (zh) * | 2019-07-09 | 2019-11-12 | 一脉通(深圳)智能科技有限公司 | 基于生物识别的身份验证方法、装置、设备及可读介质 |
CN110751071A (zh) * | 2019-10-12 | 2020-02-04 | 上海上湖信息技术有限公司 | 人脸识别方法及装置、存储介质、计算设备 |
CN110728647A (zh) * | 2019-10-16 | 2020-01-24 | 紫光展讯通信(惠州)有限公司 | 水下图像的增强方法及装置、存储介质、终端 |
CN110991465A (zh) * | 2019-11-15 | 2020-04-10 | 泰康保险集团股份有限公司 | 一种物体识别方法、装置、计算设备及存储介质 |
CN110991465B (zh) * | 2019-11-15 | 2023-05-23 | 泰康保险集团股份有限公司 | 一种物体识别方法、装置、计算设备及存储介质 |
CN113420690A (zh) * | 2021-06-30 | 2021-09-21 | 平安科技(深圳)有限公司 | 基于感兴趣区域的静脉识别方法、装置、设备及存储介质 |
CN113435377A (zh) * | 2021-07-06 | 2021-09-24 | 吴国军 | 一种医疗手掌静脉图像采集监控方法及系统 |
CN114022657A (zh) * | 2022-01-06 | 2022-02-08 | 高视科技(苏州)有限公司 | 一种屏幕缺陷分类方法、电子设备及存储介质 |
CN114022657B (zh) * | 2022-01-06 | 2022-05-24 | 高视科技(苏州)有限公司 | 一种屏幕缺陷分类方法、电子设备及存储介质 |
CN114817757A (zh) * | 2022-04-02 | 2022-07-29 | 广州大学 | 基于图卷积网络的跨社交网络虚拟身份关联方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109934118A (zh) | 一种手背静脉身份识别方法 | |
Cherabit et al. | Circular hough transform for iris localization | |
Han et al. | Palm vein recognition using adaptive Gabor filter | |
Choraś | Ear biometrics based on geometrical feature extraction | |
US7327860B2 (en) | Conjunctival scans for personal identification | |
Abiyev et al. | Personal iris recognition using neural network | |
Banerjee et al. | ARTeM: A new system for human authentication using finger vein images | |
CN102902970A (zh) | 一种虹膜定位方法 | |
Zhou et al. | Research on image preprocessing algorithm and deep learning of iris recognition | |
CN111178130A (zh) | 一种基于深度学习的人脸识别方法、系统和可读存储介质 | |
Abidin et al. | Iris segmentation analysis using integro-differential and hough transform in biometric system | |
Albadarneh et al. | Iris recognition system for secure authentication based on texture and shape features | |
Abiyev et al. | Neural network based biometric personal identification with fast iris segmentation | |
CN108288040A (zh) | 基于面部轮廓的多参数人脸识别系统 | |
Latha et al. | A robust person authentication system based on score level fusion of left and right irises and retinal features | |
Jamaludin et al. | Iris recognition based on the modified Chan-Vese active contour | |
Swati et al. | Iris recognition using Gabor | |
Khoirunnisaa et al. | The biometrics system based on iris image processing: a review | |
Al-Ani | Efficient biometric iris recognition based on iris localization approach | |
Chen | A Highly Efficient Biometrics Approach for Unconstrained Iris Segmentation and Recognition | |
Kolda et al. | Biometrie hand vein estimation using bloodstream filtration and fuzzy e-means | |
Subbarayudu et al. | A novel iris recognition system | |
Heenaye et al. | A study of dorsal vein pattern for biometric security | |
Phang | Investigating and developing a model for iris changes under varied lighting conditions | |
Choraś | Multimodal biometric personal authentication integrating iris and retina images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190625 |