CN104809450A - 基于在线极限学习机的腕部静脉认证系统 - Google Patents

基于在线极限学习机的腕部静脉认证系统 Download PDF

Info

Publication number
CN104809450A
CN104809450A CN201510245415.XA CN201510245415A CN104809450A CN 104809450 A CN104809450 A CN 104809450A CN 201510245415 A CN201510245415 A CN 201510245415A CN 104809450 A CN104809450 A CN 104809450A
Authority
CN
China
Prior art keywords
image
wrist
module
learning machine
wrist vein
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201510245415.XA
Other languages
English (en)
Other versions
CN104809450B (zh
Inventor
梁静
岳彩通
瞿博阳
韩玉红
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhengzhou University
Original Assignee
Zhengzhou University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhengzhou University filed Critical Zhengzhou University
Priority to CN201510245415.XA priority Critical patent/CN104809450B/zh
Publication of CN104809450A publication Critical patent/CN104809450A/zh
Application granted granted Critical
Publication of CN104809450B publication Critical patent/CN104809450B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1347Preprocessing; Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1365Matching; Classification

Abstract

本发明公开了一种基于在线极限学习机的腕部静脉认证系统,包括识别部分和注册部分;所述的识别部分包括读图模块、图像预处理模块、特征提取模块、手腕静脉特征数据库和识别对比模块,注册部分包括图像采集模块、图像预处理模块和特征提取模块;该系统当有新成员注册时,只对新成员的信息训练,不需要将所有成员信息重新训练就能完成对新旧成员的准确识别,在保证识别准确率的前提下大大节省了注册所需时间。另外,该系统人数容量是可以自动添加的,不必担心人过多而造成系统出错。

Description

基于在线极限学习机的腕部静脉认证系统
技术领域
本发明涉及一种基于在线极限学习机的腕部静脉认证系统。
背景技术
信息技术的飞速发展推动了社会的发展,随之现代社会对于信息技术又提出了更新、更高的要求,例如计算机使得经济与金融网络化,而网络经济与金融又要求更可靠的信息安全系统。身份验证是人们进行加强信息安全性的基本方法之一。传统的身份验证是基于标识物(如证件、钥匙等)或者知识(如密码、PIN等)来完成,然而这些方式不方便、不安全、不可靠的缺点不言而喻:证件、钥匙携带不便、容易丢失伪造;密码可能会被遗忘或被蓄意窃取。因此,急需一种不易被他人替代、仿制、方便、有效、安全的身份识别技术来保障人们的生活和社会的安全,这种技术就是基于人体生理特征的生物识别技术。
生物特征识别技术(BiometricIdentificationTechnology)是指利用人体生物特征进行身份认证的一种技术。与传统的方法不同在于,生物特征识别方法的依据是我们人体本身所拥有的东西,是我们的个体特性。事实上,任何生理上的特征都可以用来进行识别。生物特征分为基于身体特征和基于行为特点两类。身体特征包括:指纹、掌型、眼睛(视网膜和虹膜)、人体气味、脸形、皮肤毛孔、手腕/手的血管纹理和DNA等;行为特点包括:签名、语音、行走的步态、击键的力度等。
本发明是申请号为:201410337530.5《腕部静脉认证系统》上进行的改进,改善了现有装置中需要将所有成员信息重新训练才能完成对新旧成员的准确识别的问题。
发明内容
本发明提供了一种基于在线学习机的腕部静脉认证系统,该系统当有新成员注册时,只对新成员的信息训练,不需要将所有成员信息重新训练就能完成对新旧成员的准确识别,在保证识别准确率的前提下大大节省了注册所需时间。另外,该系统人数容量是可以自动添加的,不必担心人过多而造成系统出错。
本发明采用的技术方案为:
一种基于在线学习机的腕部静脉认证系统,包括识别部分和注册部分;所述的识别部分包括读图模块、图像预处理模块、特征提取模块、手腕静脉特征数据库和识别对比模块,注册部分包括图像采集模块、图像预处理模块和特征提取模块;
图像采集模块,通过手腕静脉采集装置采集手腕静脉红外图像;
图像预处理模块,对采集的手腕静脉红外图像截取感兴趣区域后,对该区域采用均值滤波方法进行滤波处理,进行灰度化、归一化,并采用直方图拉伸的方法进行对比度增强处理;
特征提取模块,对预处理后的图像进行主成分特征提取、小波特征提取;
识别对比模块,利用在线极限学习机对手腕静脉图像进行分类识别,用图像信息的主成分与高频低频特征,与手腕静脉特征数据库进行识别对比;
其中,所述的在线极限学习机模型为:
给定ELM隐含节点数L及对应的参数初始批次的训练数据
X 0 = { ( a i , b i ) } j = 1 L ,
H 0 = g ( a 1 , b 1 , x 1 ) . . . g ( a L , b L , x L ) . . . . . . . . . g ( a 1 , b 1 , x N 0 ) . . . g ( a L , b L , x N 0 )
T 0 = t 1 T . . . t N 0 T
隐含节点权值参数矩阵β0可以通过公式以下求解:
H0β0=T0
假定则公式H0β0=T0等价于P0β0=Q0
给定一批新的训练数据隐含节点权值参数矩阵β1可以根据以下公式计算:
H 0 H 1 β 1 = T 0 T 1
假定 P 1 = H 0 H 1 T H 0 H 1 , Q 1 = H 0 H 1 T T 0 T 1 , 则公式 H 0 H 1 β 1 = T 0 T 1 等价于P1β1=Q1
将上述过程推广到第k+1批训练数据 X k + 1 = { x i , t i } i = Σ j = 0 k N j + 1 Σ j = 0 k + 1 N j , T k + 1 = t ( Σ j = 0 k N j + 1 ) T . . . t Σ j = 0 k + 1 T N j N k + 1 × m , 可以得到 H k + 1 = g ( a 1 , b 1 , x Σ j = 0 k N j + 1 ) . . . g ( a L , b L , x ( Σ j = 0 k N j + 1 ) ) . . . . . . . . . g ( a 1 , b 1 , x Σ j = 0 k + 1 N j + 1 ) . . . g ( a L , b L , x ( Σ j = 0 k + 1 N j + 1 ) ) N k + 1 × L , 隐含节点权值参数矩阵βk+1可以通过以下公式求解:
Pk+1βk+1=Qk+1
其中 P k + 1 = P k + H k + 1 T H k + 1 , Q k + 1 = Q k + H k + 1 T T k + 1 .
本发明还涉及一种在基于在线注册学习机的腕部静脉认证系统中的注册方法,其步骤如下:
S1、对系统进行初始化设置;
S2、在系统中输入权限密码;
S3、在系统中输入注册姓名;
S4、输入的姓名被暂时存入姓名变量s中;
进一步,所述的姓名变量s的编号方式为:
s1=fix(trainnum-p×n)+n+1
其中fix(x)表示对x向零取整,trainnum代表训练样本的个数,n为初始分配的人数,p为每个人采集的手腕静脉图像的训练样本个数。
本发明的有益效果是:
1、能够在线注册新成员,无需重复训练原有人员的信息,大大节省训练时间;
2、在新成员注册后自动分配新成员编号;
3、注册时要输入密码,增加了注册权限;
4、注册人数可以自动增加,实现了达到最大额度为一个小时自动增加200个的功能。
5、注册与识别分开进行,在不增加人时只用识别界面,注册新成员时启动注册界面,便于使用。
附图说明
图1为本发明的识别注册流程图;
图2为原始图像与灰度图像的对比图;
图3为光照归一化前后图像的对比图;
图4为直方图拉伸关系图;
图5为灰度归一化与对比度增强结果图;
图6为特征提取框图;
图7为对原有成员分类训练集测试精度统计图。
具体实施方式
如图1所示,一种基于在线极限学习机的腕部静脉认证系统,其主要特征是当有新成员注册时,只对新成员的信息训练,不需要将所有成员信息重新训练就能完成对新旧成员的准确识别,在保证识别准确率的前提下大大节省了注册所需的时间;另外,该系统人数容量是可以自动添加的,不必担心人过多而造成系统出错。通过自行设计的图像采集装置采集到了手腕静脉图像样本,然后对图像进行预处理和特征提取,最后用在线极限学习机对图像特征进行分类。
图像采集模块,通过手腕静脉采集装置采集手腕静脉红外图像;
图像预处理模块,对采集的手腕静脉红外图像截取感兴趣区域后,对该区域采用均值滤波方法进行滤波处理,进行灰度化、归一化,并采用直方图拉伸的方法进行对比度增强处理;
特征提取模块,对预处理后的图像进行主成分特征提取、小波特征提取;
识别对比模块,利用在线极限学习机对手腕静脉图像进行分类识别,用图像信息的主成分与高频低频特征,与手腕静脉特征数据库进行识别比对。它采用递推的方式将样本一块一块的分类,最后分类结果跟基本极限学习机整体分类等效,但是增加新样本时它只需要对新样本进行训练即可。通过这一算法的改进,使该系统既具有极限学习机分类的准确率高又具有注册方便快捷的优点。
手腕静脉采集装置中,采集设备要尽量封闭;背景颜色应该尽量选择灰度值比较低的颜色,比如黑色。采用红外发射二极管(LED)作为红外光源。实施例采用了三种波段的红外LED灯:850nm、880-900nm、940nm。采用光源单独照射和光源两两混合照射的试验,最后发现采用850nm和940nm混合作为照射光源效果最好。采用选择CMOSS图像传感器,采用的是130万像素的USB网络摄像头。这种摄像头最大的有点事拍照后传输方便,可以直接传入电脑中进行处理。这种摄像头最大的有点事拍照后传输方便,可以直接传入电脑中进行处理。采用800-1100nm的滤光片,其光学特性为允许波长在800-1100nm的光通过其他波段的光截止。
红外采集原理:根据人体骨骼和肌肉组织的特点,700nm-1000nmNIR的光对人体组织有较强的穿透能力,通过测量人体组织的光学参数,能提取深层生理信息。同时,手腕静脉血管中的血色素相比于皮下的其他组织可以吸收更多IR放射线,可以很好地呈现出静脉血管结构。该波长范围属于近红外光线,根据中国国家医用红外监测光源的有关规定,红外光强处于峰值时,波长范围在800nm-1500nm之间。因此,可以选取750nm-900nm之间一个波段的光作为光源。这个波段的光既能较好地穿透手腕表皮组织,又能较多的被静脉血管所吸收。
图像预处理模块,包括手腕静脉图像感兴趣区域提取,归一化,手腕静脉对比度增强。采集的近红外手腕图像是彩色图像并且包含背景和边缘信息的,所以对手腕静脉图像进行预处理是非常必要的。
采集图像时采用的是0.85μm的近红外波段不可见光,由于设备很难做到完全封闭,所以采集的图片仍包含着颜色信息(即R、G、B信息),为了减少后期的计算量,首先将图像进行灰度化处理,以消除彩色信息。图像的灰度化,可以使图像的数据量仅为原来的1/3,从而减少了后续处理的计算量。
在RGB颜色模型中,由颜色(R,G,B)三种颜色来表示彩色信息。通过计算(R,G,B)来转换得到256色的灰度图像。主要有如下3种方法:最大值法、平均值法、加权平均值法。
其中,加权平均值法:根据重要性或其他指标给R,G,B赋予不同的权值,并使R,G,B的值加权,即:
Gray=(WRR+WGG+WBB)/(WR+WG+WB)
式中,WR,WG,WB分别为R,G,B的对应的权值,WR,WG,WB取不同的值,加权平均值法将形成不同的灰度图像。由于人眼对绿色的敏感度最高,对红色分量次之,对蓝色的敏感度最低,因此使WG>WR>WB将得到比较合理的灰度图像。
在MATLAB中借助rgb2gray(I)函数将彩色图像I转换成灰度图像,它的实现原理是:依据人眼对R、G、B三个分量的敏感程度不同,且敏感程度由低到高一次是蓝、红、绿,所以这里采用的灰度图像的转换方法是根据R、G、B三个分量的重要性的比重对三个分量进行加权处理,三个分量的加权值分别为WG=0.5870,WR=0.2989,WB=0.1140时,可得到最佳的灰度变换图像:
I′(i,j)=0.2989×R(i,j)+0.5870×G(i,j)+0.1140×B(i,j)
式中I′(i,j)为灰为度转换后图像上(i,j)点的像素值;
I(i,j)为原始图像上(i,j)点的像素值。
如图2所示,原始图像经过函数rgb2gray(I)的处理后得到的灰度图像。
对图像的截取分为两部分,第一部分是截取待处理图像;第二部分是在待处理图像上截取训练和测试的图像块。
对原始图像进行截取:这一步操作是把原始图像的背景去除掉,保留信息比较丰富的区域。操作方法是,先对采集来的图像进行预览,记下手腕静脉与背景交界点的坐标,然后截取交界以内的区域作为待处理图片。
截取训练测试的图像块:在上面得到的待处理对象上随机取一点作为中心,以一定的长度为边长截取一个图像块作为训练和识别的样本。该方块的边长是通过试验测试后得出的最佳长度,即要求满足一定识别率的情况下越小越好。这里有个问题是,由于中心点是随机的,所以中心点有可能落在边界上或里边界很近,这种情况再取方块的话就超出图形的范围了。所以在编程实现的时设置防出界程序,如果出界重新选取中心点直到取到合适的图像块为止。
由于无法避免外在环境以及设备本身的影响,手背静脉图像存在一些噪声,这些噪声的不同可能会被误认为是静脉信息的不同,致使系统识别率降低,所以要对图像进行滤波去除噪声处理。实施例采用的是均值滤波的方法。
均值滤波是一种典型的线性滤波算法,它是给目标像素一个模板,这个模板包括了目标像素周围的8个像素(不包括目标像素),这个模板被称为滤波模板,用这个模板中的全体像素的平均值来代替目标像素的值。
均值滤波的公式表达:
I ′ ( i , j ) = 1 N Σ i ∈ D , j ∈ D I ( x + i , y + j )
式中I(i,j)为原始图像上(i,j)点的像素值;
I′(i,j)为均值滤波后图像上(i,j)点的像素值;
D为滤波窗口的大小,一般是3*3或5*5像素大小
对图像进行均值滤波后,图像中斑点类的噪声大大减少,图像看上去变得更加平滑,滤波处理为后面的图像处理奠定了基础。
光照归一化,采集图像样本时,由于手腕到镜头的距离,手腕与镜头的相对位置,以及光强的不同都会造成同一个手腕的不同图像亮度不统一也称光照不统一。在后期分类的时候,分类器会把同一手腕不同光照强度的图像分成不同类别,这会影响分类的精确度。
光照的强弱不同在样本图像上就反应为图像的明暗程度不同,而决定图像的明暗程度的内在因素是图像的像素值,所以这里用像素值的大小来反应光照的强弱。
本实验对一个手腕采集了50张图片,光照归一化的算法描述如下:先求取每一张图片的平均像素值Meank(k=1,2,…50),然后对这50个平均值再求平均Mean。最后的平均值Mean作为这个手腕的归一光照值,把这50张图片中每一张的均值都归一到最后的平均值上,就完成了光照的归一化。计算公式如下:
Mean k = Σ I k ( i , j ) m k × n k
Mean = Σ k = 1 50 Mean k 50
Ik(i,j)′=Ik(i,j)+Mean-Meank
式中Meank为第k幅图像像素的均值
Ik(i,j)为第k幅图像(i,j)点的像素值
mknk为第k幅图像矩阵的行数和列数
Mean为所有图像像素均值
Ik(i,j)′为光照归一化后第k幅图像(i,j)点的像素值
从图3的处理结果看出光照归一化前上面几幅图光照比较强下边几幅光照比较弱,归一化后使得同一只手腕的不同图像光照统一了,即同一类在光照上没有区别了,这为后期的分类奠定了基础。
灰度归一化,在截取了图像之后,由于光源较强烈,而且手腕各部分对近红外光的吸收效果存在差异,因而从手腕区域部分可以看到,手腕区域整体偏亮,而手腕静脉与肌肉组织图像对比度较差。为了便于图像的后续处理,在此使用一种图像灰度归一化的方法。
灰度归一化主要借助于下式
I ′ ( i , j ) = I ( i , j ) - Min ( I ( i , j ) ) Max ( I ( i , j ) ) - Min ( I ( i , j ) )
式中I(i,j)为原图像上点(i,j)处的灰度值;
Max(I(i,j))为原图像灰度最大值
Min(I(i,j))为原图像灰度最小值
I′(i,j)为归一化后图像上(i,j)处的灰度值。
手腕图像对比度增强,灰度归一化之后要对图像进行增强。采用直方图拉伸的方法实现对比度增强。图像的直方图是图像的重要统计特征,是表示数字图像中每一灰度级与该灰度级出现的频数间的统计关系。通常一幅均匀量化的自然图像由于其灰度直方图分布集中在较窄的低值灰度区间,图像的细节看不清楚,为使图像变得清晰,可以通过变换使图像的灰度范围拉开或使灰度分布在动态范围内趋于均化,从而增加反差,使图像的细节清晰,达到图像增强的目的。直方图的变换分为线性、分段线性、非线性以及其他变换。
分段线性变换,为了突出图像中感兴趣的目标或者灰度区间,相对抑制那些不感兴趣的灰度区域,而不惜牺牲其他灰度级上的细节,可以采用分段线性法,将需要的图像细节灰度级拉伸,增强对比度,压缩不需要的细节灰度级。常采用图所示的三段线性变换法,其数学表达式如下:
I ′ ( i , j ) = c a I ( i , j ) 0 ≤ I ( i , j ) ≤ a d - c b - a [ I ( i , j ) - a ] + c a ≤ I ( i , j ) ≤ b f - d e - b [ I ( i , j ) - b ] + d b ≤ I ( i , j ) ≤ e
图4中对灰度区间[a,b]进行了线性扩展,而灰度区间[0,a]和[b,e]受到了压缩。通过调整折线拐点的位置及控制分段直线的斜率,可对任意一个灰度区间进行扩展和压缩。
如图5所示,直方图拉伸对比度增强,实施例采用的对比度增强方法是分段线性变换。此方法使得血管处的灰度值更低,肌肉组织处的灰度值更高,这样血管纹路就变得更加清晰了。
图像的特征一般会关注于图像的一些变化较剧烈的部分,手腕静脉图像往往具有较为简单而且清晰的纹理特征,由手腕静脉典型图像可以看到,手腕静脉较肌肉组织具有较好的灰度区分性,显然这给手腕静脉的提取带来了极大的便利。
特征选择,从一个待识别模式上形成特征数据,也即该模式的原始特征。特征的类型和数量在很大程度上影响着分类器的性能。由特征形成过程得到的原始特征可能很多,如果把所有的原始特征都作为分类特征送往分类器,不仅使得分类器更加复杂,分类计算判别量更大,而且分类错误概率也不一定小。因此需要减少特征的数目。至于减少特征数目的方法就是这里涉及到的特征的选择与提取。特征的选择是从一组特征中挑选出一些最有效的特征以达到降低特征空间维数的方法。
就图像所能提供的信息属性而言,大致能分为四个方面:结构特性、统计特性、模糊特性及知识特性。在静脉识别中,主要用到的是前两类特性,即与之对应的是几何特征和统计特征。
特征提取就是要寻找图像中易于区分的环节,对于细节几何特征提取在静脉方面表现的是提取出静脉图像中的交叉点和端点,并将其表述出来。静脉细节特征主要包括静脉的端点和交叉点。采用细节特征具有识别精度高的优点,它的缺点是对前期图像的预处理的要求高。
对于细化后的图像(灰度为0或255的单像素图像),端点的提取比较简单,思路非常清晰:逐行扫描图像,首先找到第一个黑点f(灰度为0),检查其周围八个相邻点中黑点的个数N,如果N=l,则证明f点为端点,迭代整个图像,直到整幅图像扫描完毕,找到所有端点。
在静脉图像中出现交叉点的种类主要有三交叉点和四叉点,求三线交叉点的算法和求端点的算法类似,只是要求该黑点周围八相邻点中黑点的个数为三。
对于四叉点,两线只有垂直交叉和非垂直交叉两种情况。对于垂直交叉的情况,中心交叉点八邻域内有四个点,只有这一种可能;对于非垂直交叉点的情况,将会产生两个三叉点,在这段图像中两线交叉应该只有一个交叉点,产生误差,排除方法是:如果求出某点是交叉点,那么限定其八邻域内不允许再有交叉点,既是周围八邻域内不再考虑交叉点。
把端点、交叉点提取出来后,匹配一般分为局部比对和全局比对两种方法。
局部比对:不同的比对算法决定着不同的比对计算复杂性。
采用的比对算法为:首先判断中心点的类型是否相同,如果相同则一一比对邻域特征点的参数是否匹配:包括邻域特征点的类型是否相同,两点间参数和三点间参数是否满足阈值范围(误差小于5%-10%)的要求。如果符合条件的星型结构的中心点保留下来仍然作为特征点,不符合条件的星型结构的中心点从特征点中删除。因此删除了不合格的特征点,留下的点作为下一步匹配的特征点。这样做的目的是避免同一类静脉图像中两个相差很大的星型结构之间进行匹配。
全局匹配。首先统计出经过局部匹配之后保留下来的端点和交叉点,然后计算出所有这些端点之间的距离和交叉点之间的距离,按照从小到大的顺序排列,大概可以得出100多个距离,用这100多个距离进行匹配实验,计算累积误差,如果误差大于阈值则匹配失败,如果误差小于阈值则匹配成功,在这里阈值设为(5%)。可以看出此全局匹配方法对于伪细节和局部形变的影响很敏感,特别是当静脉特征点比较少时,这种影响是不能被忽视的。特征点数目越少,所受的影响程度就越大。影响主要有两种:
(1)伪细节的影响:特征点类型的改变、增加的伪特征点或丢失的真特征点。
(2)局部非线性形变的影响:不可预知的局部非线性形变,使得细节点对的相对距离、角度和方向角产生较大的改变,而超过匹配阈值范围,致使原本匹配的点不匹配;或者使得局部特征完全改变。
在实际静脉图像中,这种伪细节和局部形变是普遍存在的。例如在实施例所使用的静脉图像中,每一幅都存在伪细节和局部形变,如果仅仅采用全局特征点匹配那么绝大多数的误判都是由于这两种影响所致。因此可以看出实施例的这种局部加全局的匹配方案是很合理的,而且实验证明识别率提高很多。
静脉图像全局特征,随着智能计算机方法的高速发展,基于整体图像的全局相关性匹配的方法成为可能。这种匹配方法有如下特点:
(1)基于全局相关性的匹配方法不需要提取图像的细节特征,进而去除了由于细节特征提取不准确对图像匹配带来的影响。
(2)基于全局相关性的匹配方法相对于基于细节特征的匹配算法更加简单。
(3)提取出的全局特征中包含了图像中隐含的一些特征。
匹配方法采用变换的模板匹配的方法。与传统的模板匹配不同的是,在没有标准模板的情况下,采用移动的变换模板(在样本图像中从起始点开始选定特定大小模板,每一块模板都与待识别图像进行模板匹配。然后按照特定的大小逐点移动变换模板。)最后找出最接近的匹配结果。匹配过程中,模板每移动一次都计算出相对应部分的不变矩,然后匹配模板和待匹配图像相对应部分的不变矩。
特征提取,大部分的认证系统(如指纹识别人脸识别系统)用的都是图像匹配的方法,它们提取的都是具体特征,如特征点的个数,图像纹路特征等。但是实施例研究的手腕静脉认证系统要求在信息不完全(不是整幅手腕静脉图像)时仍能完成识别工作,这就决定了实施例不能采用特征点等这类的具体特征。基于这方面考虑采用了主成分分析和小波分析两种方法提取图像内部特征,如图6所示。
主成分分析是采取一种数学降维的方法,找出几个综合变量来代替原来众多的变量,使这些综合变量能尽可能地代表原来变量的信息量,而且彼此之间互不相关。这种将把多个变量化为少数几个互相无关的综合变量的统计分析方法就叫做主成分分析或主分量分析。
主成分分析所要做的就是设法将原来众多具有一定相关性的变量,重新组合为一组新的相互无关的综合变量来代替原来变量。通常,数学上的处理方法就是将原来的变量做线性组合,作为新的综合变量,但是这种组合如果不加以限制,则可以有很多,应该如何选择呢?如果将选取的第一个线性组合即第一个综合变量记为F1,自然希望它尽可能多地反映原来变量的信息,这里“信息”用方差来测量,即希望Var(F1)越大,表示F1包含的信息越多。因此在所有的线性组合中所选取的F1应该是方差最大的,故称F1为第一主成分。如果第一主成分不足以代表原来p个变量的信息,再考虑选取F2即第二个线性组合,为了有效地反映原来信息,F1已有的信息就不需要再出现在F2中,用数学语言表达就是要求Cov(F1,F2)=0,称F2为第二主成分,依此类推可以构造出第三、四···第p个主成分。
主成分分析的数学模型,对于一个样本资料,观测p个变量,x1,x2,...xp,n个样品的数据资料阵为:
X = x 11 x 12 . . . x 1 p x 21 x 22 . . . x 2 p . . . . . . . . . . . . x n 1 x n 2 . . . x np = ( x 1 , x 2 , . . . , x p )
上式中:
x j = x 1 j x 2 j . . . x nj , j = 1,2 , . . . p .
主成分分析就是将p个观测变量综合成为p个新的变量(综合变量),即
F 1 = a 11 x 1 + a 12 x 2 + . . . + a 1 p x p F 2 = a 21 x 1 + a 22 x 2 + . . . + a 2 p x p . . . F p = a p 1 x 1 + a p 2 x 2 + . . . + a pp x p
简写为:
Fj=αj1x1j2+…+αjpxp
j=1,2,…,p
要求模型满足一下条件:
(1)Fi,Fj互不相关(i≠j,i,j=1,2,...,p)
(2)F1的方差大于F2的方差大于F3的方差,依次类推
(3)ak1 2+ak2 2+…+akp 2=1 k=1,2,…p.
于是,称F1为第一主成分,F2为第二主成分,依此类推,有第p个主成分。主成分又叫主分量。这里aij我们称为主成分系数。
上述模型可用矩阵表示为:
F=AX
F = F 1 F 2 . . . F p , X = x 1 x 2 . . . x p
A = a 11 a 12 . . . a 1 p a 21 a 22 . . . a 2 p . . . . . . . . . . . . a p 1 a p 2 . . . a pp = a 1 a 2 . . . a p
式中:A为主成分系数矩阵。
样本观测矩阵为:
X = x 11 x 12 . . . x 1 p x 21 x 22 . . . x 2 p . . . . . . . . . . . . x n 1 x n 2 . . . x np
第一步:对原始数据进行标准化处理
x ij * = x ij - x ‾ j var ( x j ) , ( i = 1,2 , . . . , n ; j = 1,2 , . . . , p )
其中 x j ‾ = 1 n Σ i = 1 n x ij ; var ( x j ) = 1 n - 1 Σ ( x ij - x j ‾ ) 2 , ( j = 1,2 , . . . , p )
第二步:计算样本相关系数矩阵
R = r 11 r 12 . . . r 1 p r 21 r 21 . . . r 2 p . . . . . . . . . . . . r p 1 r p 2 . . . r pp
为方便,假定原始数据标准化后仍用X表示,则经标准化处理后的数据的相关系数为:
r ij = 1 n - 1 Σ t = 1 n x ti x tj , ( i , j = 1,2 , . . . , p )
第三步:用雅克比方法求相关系数矩阵R的特征值(λ12,…,λp)和相应的特征向量ai=(ai1,ai2,…,aip),i=1,2…p。
第四步:选择重要的主成分,并写出主成分表达式。
主成分分析可以得到p个主成分,但是,由于各个主成分的方差是递减的,包含的信息量也是递减的,所以实际分析时,一般不是选取p个主成分,而是根据各个主成分累计贡献率的大小选取前k个主成分,这里贡献率就是指某个主成分的方差占全部方差的比重,实际也就是某个特征值占全部特征值合计的比重。即
贡献率越大,说明该主成分所包含的原始变量的信息越强。主成分个数k的选取,主要根据主成分的累积贡献率来决定,即一般要求累计贡献率达到85%以上,这样才能保证综合变量能包括原始变量的绝大多数信息。
另外,在实际应用中,选择了重要的主成分后,还要注意主成分实际含义解释。主成分分析中一个很关键的问题是如何给主成分赋予新的意义,给出合理的解释。一般而言,这个解释是根据主成分表达式的系数结合定性分析来进行的。主成分是原来变量的线性组合,在这个线性组合中个变量的系数有大有小,有正有负,有的大小相当,因而不能简单地认为这个主成分是某个原变量的属性的作用,线性组合中各变量系数的绝对值大者表明该主成分主要综合了绝对值大的变量,有几个变量系数大小相当时,应认为这一主成分是这几个变量的总和,这几个变量综合在一起应赋予怎样的实际意义,这要结合具体实际问题和专业,给出恰当的解释,进而才能达到深刻分析的目的。
第五步:计算主成分得分。
根据标准化的原始数据,按照各个样品,分别代入主成分表达式,就可以得到各主成分下的各个样品的新数据,即为主成分得分。具体形式可如下。
F 11 F 12 . . . F 1 k F 21 F 21 . . . F 2 k F n 1 F n 2 . . . F nk
第六步:利用主成分分析提取特征,本实验对图像矩阵进行主成分分析,经过多次试验结果分析,确定图像的大小为300*300,图像矩阵如下
I = I ( 1,1 ) , I ( 1,2 ) , . . . , I ( 1,300 ) I ( 2,1 ) , I ( 2,2 ) , . . . , I ( 2,300 ) . . . . . . . . . I ( 300,1 ) , I ( 300,2 ) , . . . , I ( 300,300 )
提取到的特征值如下:
试验发现取前六个特征值作为特征就能达到理想的准确率,所以本实验只选取了前六个特征值λ123456,结合后面的小波分析提取的特征作为总体的特征。
小波分析特征提取,小波分析是时间(空间)频率的局部化分析,它通过伸缩平移运算对信号(函数)逐步进行多尺度细化,最终达到高频处时间细分,低频处频率细分,能自动适应时频信号分析的要求,从而可聚焦到信号的任意细节,解决了Fourier变换的困难问题。
在构造正交小波基时提出多尺度的概念,给出离散正交二进小波变换的金字塔算法,任何函数f(x)∈L(R)都可以根据分辨率为2-N的f(x)的低频部分(近似部分)和分辨率为2-j(1≤j≤N)下f(x)的高频部分(细节部分)完全重构。多尺度分析时只对低频部分作进一步分解,而高频部分则不予考虑,分解具有关系:
f(x)=An+Dn+Dn-1+…+D2+D1
式中f(x)为信号;A为低频近似部分;D为高频细节部分;n为分解层数。
连续小波变换与离散小波变换
小波变换的出发点是通过对一个基本小波通过伸缩和平移而得到一组形状相似的小波。这个基本小波就是母小波,伸缩和平移后得到的小波称作子小波或小波基函数。
母小波的数学定义如下:
设ψ(t)∈L2(R),其傅里叶变化为ψ(ω),如果满足
&Integral; - &infin; + &infin; | &psi; ( &omega; ) | 2 &omega; d&omega; < + &infin;
则称ψ(t)为基本小波或母小波。上式也成为小波的允许条件,一直基本小波ψ(t)的函数满足ψ(ω=0)=0,即具有带通性质,有正负交替的振荡波形,且平均值为零。一般选取紧支集的具有正则性的实函数,使小波母函数在时、频两域同时具有局部化特性,以满足时频分析的要求。通过对不小ψ(t)做平移和伸缩,就可以生成小波基函数。
&psi; a , &tau; ( t ) = 1 a &psi; ( t - &tau; a ) , a > 0 , &tau; > R
式中,a为湿度因子;τ为平移因子。
由于a、τ都是连续变化的因此ψa,τ(t)也称作连续小波基函数。尺度因子的作用是将小波做伸缩,对于不同的尺度a,基本小波被伸缩为a较大时,变宽,反之则变窄。即尺度因子变化时,小波的时频分辨率也相应进行变化。
时窗宽度和频窗宽度的变化时反向的,时窗拉伸必然导致频窗压缩,时窗压缩必然导致频窗拉伸。这种小波变换特有的时频窗结构很符合实际应用的需要:低频信号持续时间长,总是希望时窗尽量宽些,而频率尽量精细一些;分析高频信号时,则希望时窗窄一些,频域适当降低精度。
有了连续小波基函数ψa,τ(t),将这些函数作用域能量有线信号f(t),或者说在这些小波基函数下进行投影分解,就得到连续小波变换。定义如下:
WT f ( a , &tau; ) = < f ( t ) , &psi; a , &tau; ( t ) > = 1 a &Integral; R f ( t ) &psi; * a , &tau; ( t - &tau; a ) dt
式中WTf(a,τ)为小波变换系数;<f(t),ψa,τ(t)>为f(t)与ψa,τ(t)的内积;的复共轭。
由于现代计算机基本车采用数字处理模式,因此需要对小波变换进行离散化,以适合于数字计算机上的使用。离散小波变换(DiscreteWaveletTransform,DWT)是相对于连续小波变换(CWT)的变换方法,本质上是对尺度因子a和平移因子τ进行离散化处理。一种经典的被普遍接受的离散化方法是将尺度因子a按幂级数进行离散化,而平移因子τ按某间隔τ0做均匀采样,分别如下所示
a = a 0 j ( a 0 > 0 , j &Element; Z )
&tau; = k a 0 j &tau; 0 ( &tau; 0 &Element; R , k &Element; Z )
其中母小波ψ(t)的具体形式决定了a0、τ0的取值,则小波变为离散小波
&psi; a , x ( t ) = a 0 - j / 2 &psi; ( a 0 - j t - k &tau; 0 )
则离散后的小波变换可以表示为:
WT f ( a , &tau; ) = < f ( t ) , &psi; a , &tau; ( t ) > = a 0 - j / 2 &Integral; R f ( t ) &psi; * a , x ( a 0 - j t - k &tau; 0 ) dt
离散后的小波变换系数与连续小波变换系数相比,前者是关于j,k二维的离散序列,而后者是关于整数a,τ的二维连续变量。
小波分解的低频带和高频带起着不同的作用,低频成份的作用主要对应于全局(整体)描述,而高频成份的作用主要对应于局部细节的描述。由此可见,将图像经小波变换后只要去除高频成分,保留低频成分就能够很好的保留手腕静脉信息。图像经过一层小波分解能够得到四个子带图像,即LL、HL、LH和HH,且每个子图的维数是原图像的四分之一,一幅手背静脉图像经一次小波分解后的结果。可知图像经过一层小波分解后产生了四个子带图像。子带图像LL代表图像在水平和垂直方向经过低通滤波后的低频分量;HL代表原始图像在水平方向的高频分量和垂直方向的低频分量;LH代表原始图像在水平方向上低频分量和垂直方向高频分量;HH代表了原始图像在水平和垂直方向的高频分量。所示,子带图像LL很好的保存了原图像的结构信息,所以去除子带图像HL、LH和HH,只保留LL。然后将LL再进行一次小波分解,仍保留第一个子带图像,去除其他子带图像。以此类推,通过对每一层子带图像LL进行一次小波分解便可得到多层小波分解结果。经两次小波分解后,手背静脉图像的主要结构信息保持不变,且图像中的噪声得到了降低,另外图像的维数也降低了16倍。可见在手背静脉识别系统采用小波变换为之后的特征提取提供了方便。
对手腕静脉图像采样后,可得到在一个大的有限频带中的一个信号,对这个信号进行小波多尺度分解,其实质就是把采到的信号分成两个信号,即高频部分和低频部分,而低频部分通常包含了信号的主要信息,高频部分则与噪音及扰动联系在一起。根据分析的需要,可以继续对所得到的低频部分进行分解,如此又得到了更低频部分的信号和频率相对较高部分的信号。
本发明采用两层的小波分解,得到图像的高低频系数,包括两个低频系数和六个高频系数,然后对这八个系数分别取平均值得到8个特征值,所以小波分析得到了图像的8个特征。将这八个特征值与主成分提取的六个特征值组成一个特征矩阵,用于后期分类器的输入特征。
将上面提取到的两种特征进行结合,并且加上期望输出形成特征值矩阵直接作为在线极限学习机的训练和识别样本。
在线极限学习机(online optimized ELM,OP-ELM)。OP-ELM以单隐层前馈神经网络(single hidden layer feed forward networks,SLFNs)为基础,固定了隐含节点数以及节点参数,在在线增量学习过程中综合考虑历史数据和新数据,产生全局唯一的最优解,降低了计算资源的需求,继承了极限学习机(ExtremeLearning Machine,ELM)学习速度快泛化性能好的优点。因此非常适合于海量图像数据的在线学习问题。
随着样本规模增加,隐含节点输出矩阵H的逆/伪逆矩阵对计算资源的要求显著增大。ELM训练方法并不适用于海量的训练数据。针对此问题,本文给出了一种在线的极限学习机OP-ELM。
在OP-ELM中,训练数据是一批一批地提交给OP-ELM进行训练。在每一轮训练中,OP-ELM在历史批次和当前批次数据中训练全局最优的隐含节点权重参数矩阵b。而且每一轮训练过程中,训练算法仅需要输入当前批次的数据,无需再次扫描历史数据,模型参数规模也不会因为数据量的变化而增大。相应地,海量数据的ELM训练过程逐步分解为若干批次的OP-ELM训练,最终OP-ELM的解等价于ELM在全部训练数据基础上一次性学习的结果。而且OP-ELM对不同批次训练样本数目没有固定要求,支持可变化的样本数。在保证模型精度和泛化能力的同时,OP-ELM满足了海量数据训练的计算需求。
给定ELM隐含节点数L及对应的参数初始批次的训练数据隐含节点输出矩阵H0和T0分别可以通过以下公式计算。
H 0 = g ( a 1 , b 1 , x 1 ) . . . g ( a L , b L , x L ) . . . . . . . . . g ( a 1 , b 1 , x N 0 ) . . . g ( a L , b L , x N 0 )
T 0 = t 1 T . . . t N 0 T
隐含节点权值参数矩阵β0可以通过公式以下求解。
H0β0=T0
假定则公式H0β0=T0等价于P0β0=Q0
给定一批新的训练数据隐含节点权值参数矩阵β1可以根据以下公式计算。
H 0 H 1 &beta; 1 = T 0 T 1
假定 P 1 = H 0 H 1 T H 0 H 1 , Q 1 = H 0 H 1 T T 0 T 1 , 则公式 H 0 H 1 &beta; 1 = T 0 T 1 等价于P1β1=Q1
将上述过程推广到第k+1批训练数据 X k + 1 = { x i , t i } i = &Sigma; j = 0 k N j + 1 &Sigma; j = 0 k + 1 N j , T k + 1 = t ( &Sigma; j = 0 k N j + 1 ) T . . . t &Sigma; j = 0 k + 1 T N j N k + 1 &times; m , 可以得到 H k + 1 = g ( a 1 , b 1 , x &Sigma; j = 0 k N j + 1 ) . . . g ( a L , b L , x ( &Sigma; j = 0 k N j + 1 ) ) . . . . . . . . . g ( a 1 , b 1 , x &Sigma; j = 0 k + 1 N j + 1 ) . . . g ( a L , b L , x ( &Sigma; j = 0 k + 1 N j + 1 ) ) N k + 1 &times; L , 隐含节点权值参数矩阵βk+1可以通过以下公式求解。
Pk+1βk+1=Qk+1
其中 P k + 1 = P k + H k + 1 T H k + 1 , Q k + 1 = Q k + H k + 1 T T k + 1 .
由以上的递推公式就可以分批对数据进行训练。
在本实施例总共采集了4个人8只手腕的静脉图像,每只手腕采集图像50张。为了试验需求,把前4只手腕当做是原有成员,后4人的当成后来的新成员,来测试该系统的性能。
在线极限学习机对样本分类时要对训练数据矩阵和测试数据矩阵维度初始化。这里初始训练数据矩阵维度为135*15。其中包括4个原有成员和一个空类。前四个成员每个成员占33行15列,共占132行15列;一个空类占3行15列;所以总共是135*15。并且定义在线训练方式是先训练前30行,随后每次训练接下来的10行,这样依次训练,最后保存5.1节所述βk的值。
如图7所示,统计了该系统对原有成员50次的分类精度,可见分类精度达91%以上,满足实验要求。
当有新成员注册时,系统会再次对新成员的腕部静脉图像进行预处理和特征提取,将特征矩阵送入在线极限学习机,根据递推公式计算出新成员对应的输入权值隐层偏置和输出权值,并存入数据库,下次识别时系统根据存入数据库的参数就能准确的计算出目的输出了。
通过设计用户界面,让操作者根据界面上的文字提示或者一些对话框通过单击一些简单的按钮完成该系统的功能。
本发明包括注册部分和识别部分,以下为注册新用户时的注册方式。
第一步:初始化
当注册新用户时,点击初始化按钮,系统会弹出注册权限密码输入对话框,输入密码后,接着系统会提醒你输入姓名的对话框,输入的姓名被暂时存入姓名变量s中。
假设每个人采集3张手腕静脉图像作为训练样本,trainnum代表训练样本的个数,初始分配了n个人,以后分配的编号为
s1=fix(trainnum-3×n)+n+1
其中fix(x)表示对x向零取整。
姓名变量s的值赋给pname的第s1个元素,这样就完成了序号和姓名的对应关系,已备识别程序调用。
第二步:注册
实验是直接调用已经采集好的图像作为新成员手腕静脉图。这里直接选择要注册成员的手腕静脉图形即可。
第三步:完成注册
点击完成注册,系统弹出注册成功对话框,新成员的注册就完成了。
以下为识别部分的识别步骤:
第一步点击“读图”,点击后会弹出一个对话框供用户选择要识别的手腕静脉图像,选定后点击打开,图像数据就读入程序了。
第二步点击“读模式”,该步是读取事先训练好的数据(如极限学习机的输入权值、隐层偏置和输出权值等),为下一步的识别做准备。
第三步点击“识别”,把读入的图片送入极限学习机的测试程序中进行测试,在左侧会显示处理后的图像,并在“识别结果”栏显示出识别的结果如图。
第四步点击“退出”关闭GUI界面。

Claims (3)

1.一种基于在线极限学习机的腕部静脉认证系统,包括识别部分和注册部分;所述的识别部分包括读图模块、图像预处理模块、特征提取模块、手腕静脉特征数据库和识别对比模块,注册部分包括图像采集模块、图像预处理模块和特征提取模块;
图像采集模块,通过手腕静脉采集装置采集手腕静脉红外图像;
图像预处理模块,对采集的手腕静脉红外图像截取感兴趣区域后,对该区域采用均值滤波方法进行滤波处理,进行灰度化、归一化,并采用直方图拉伸的方法进行对比度增强处理;
特征提取模块,对预处理后的图像进行主成分特征提取、小波特征提取;
识别对比模块,利用在线极限学习机对手腕静脉图像进行分类识别,用图像信息的主成分与高频低频特征,与手腕静脉特征数据库进行识别对比;
其特征在于:所述的在线极限学习机模型为:
给定ELM隐含节点数L及对应的参数初始批次的训练数据 
隐含节点权值参数矩阵β0可以通过公式以下求解:
H0β0=T0
假定则公式H0β0=T0等价于P0β0=Q0
给定一批新的训练数据隐含节点权值参数矩阵β1可以根据以下公式计算:
假定则公式等价于P1β1=Q1
将上述过程推广到第k+1批训练数据可以得到隐含节点权值参数矩阵βk+1可以通过以下公式求解:
Pk+1βk+1=Qk+1
其中
2.一种在基于在线注册极限学习机的腕部静脉认证系统中的注册方法,其步骤如下:
S1、对系统进行初始化设置;
S2、在系统中输入权限密码;
S3、在系统中输入注册姓名;
S4、输入的姓名被暂时存入姓名变量s中。
3.根据权利要求2所述的一种在基于在线注册学习机的腕部静脉认证系统中的注册方法,其特征在于:所述的姓名变量s的编号方式为:
s1=fix(trainnum-p×n)+n+1
其中fix(x)表示对x向零取整,trainnum代表训练样本的个数,n为初始分配的人数,p为每个人采集的手腕静脉图像的训练样本个数。
CN201510245415.XA 2015-05-14 2015-05-14 基于在线极限学习机的腕部静脉认证系统 Active CN104809450B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510245415.XA CN104809450B (zh) 2015-05-14 2015-05-14 基于在线极限学习机的腕部静脉认证系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510245415.XA CN104809450B (zh) 2015-05-14 2015-05-14 基于在线极限学习机的腕部静脉认证系统

Publications (2)

Publication Number Publication Date
CN104809450A true CN104809450A (zh) 2015-07-29
CN104809450B CN104809450B (zh) 2018-01-26

Family

ID=53694261

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510245415.XA Active CN104809450B (zh) 2015-05-14 2015-05-14 基于在线极限学习机的腕部静脉认证系统

Country Status (1)

Country Link
CN (1) CN104809450B (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105512679A (zh) * 2015-12-02 2016-04-20 天津大学 一种基于极限学习机的零样本分类方法
CN105550677A (zh) * 2016-02-02 2016-05-04 河北大学 一种3d掌纹认证方法
CN105954223A (zh) * 2016-04-28 2016-09-21 南京富岛信息工程有限公司 一种提高汽油性质预测精度的方法
CN106971157A (zh) * 2017-03-22 2017-07-21 重庆科技学院 基于多元线性回归联想记忆模型的指纹和人脸耦合识别方法
CN109263604A (zh) * 2018-09-10 2019-01-25 深兰盛视科技(苏州)有限公司 车门锁开启方法、装置及计算机可读存储介质
CN115862121A (zh) * 2023-02-23 2023-03-28 中国人民解放军海军潜艇学院 基于多媒体资源库的人脸快速匹配方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010000618A (ko) * 2000-09-27 2001-01-05 박동조 손등 정맥 패턴의 주파수 영역 특징을 이용한 개인 식별기법
CN101002682A (zh) * 2007-01-19 2007-07-25 哈尔滨工程大学 用于身份识别的手背静脉特征提取和匹配方法
CN101093539A (zh) * 2007-07-27 2007-12-26 哈尔滨工程大学 手指静脉特征提取与匹配识别方法
CN101647702A (zh) * 2009-08-31 2010-02-17 曾超宁 带有静脉身份验证功能的腕戴电子身份装置
CN102739874A (zh) * 2012-07-16 2012-10-17 北京鑫光智信软件技术有限公司 一种移动终端身份认证解锁方法
CN103646255A (zh) * 2013-11-13 2014-03-19 扬州西岐自动化科技有限公司 一种基于Gabor特征和极限学习机的人脸检测方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010000618A (ko) * 2000-09-27 2001-01-05 박동조 손등 정맥 패턴의 주파수 영역 특징을 이용한 개인 식별기법
CN101002682A (zh) * 2007-01-19 2007-07-25 哈尔滨工程大学 用于身份识别的手背静脉特征提取和匹配方法
CN101093539A (zh) * 2007-07-27 2007-12-26 哈尔滨工程大学 手指静脉特征提取与匹配识别方法
CN101647702A (zh) * 2009-08-31 2010-02-17 曾超宁 带有静脉身份验证功能的腕戴电子身份装置
CN102739874A (zh) * 2012-07-16 2012-10-17 北京鑫光智信软件技术有限公司 一种移动终端身份认证解锁方法
CN103646255A (zh) * 2013-11-13 2014-03-19 扬州西岐自动化科技有限公司 一种基于Gabor特征和极限学习机的人脸检测方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
焦焰斌: "基于图像隐式语义分析与极限学习机的多生物特征识别", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *
袁智: "手指静脉识别技术研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105512679A (zh) * 2015-12-02 2016-04-20 天津大学 一种基于极限学习机的零样本分类方法
CN105550677A (zh) * 2016-02-02 2016-05-04 河北大学 一种3d掌纹认证方法
CN105550677B (zh) * 2016-02-02 2018-08-24 河北大学 一种3d掌纹认证方法
CN105954223A (zh) * 2016-04-28 2016-09-21 南京富岛信息工程有限公司 一种提高汽油性质预测精度的方法
CN106971157A (zh) * 2017-03-22 2017-07-21 重庆科技学院 基于多元线性回归联想记忆模型的指纹和人脸耦合识别方法
CN109263604A (zh) * 2018-09-10 2019-01-25 深兰盛视科技(苏州)有限公司 车门锁开启方法、装置及计算机可读存储介质
CN115862121A (zh) * 2023-02-23 2023-03-28 中国人民解放军海军潜艇学院 基于多媒体资源库的人脸快速匹配方法

Also Published As

Publication number Publication date
CN104809450B (zh) 2018-01-26

Similar Documents

Publication Publication Date Title
CN104102913B (zh) 腕部静脉认证系统
CN104809450A (zh) 基于在线极限学习机的腕部静脉认证系统
CN100492400C (zh) 手指静脉特征提取与匹配识别方法
Maltoni et al. Handbook of fingerprint recognition
CN101002682A (zh) 用于身份识别的手背静脉特征提取和匹配方法
CN102136024B (zh) 生物特征识别性能测评和诊断优化系统
CN111461176A (zh) 基于归一化互信息的多模态融合方法、装置、介质及设备
CN103761465A (zh) 一种身份验证的方法及装置
CN101751555A (zh) 一种形变指纹识别方法及系统
CN107169479A (zh) 基于指纹验证的智能移动设备敏感数据防护方法
CN105760841A (zh) 一种身份识别方法及系统
CN102567708B (zh) 生物特征提取方法、装置及生物识别方法、系统
CN109034016A (zh) 一种普适性的基于s-cnn模型的手背静脉图像识别方法
CN113469143A (zh) 一种基于神经网络学习的手指静脉图像识别方法
CN112949469A (zh) 针对人脸篡改图像特点分布的图像识别方法、系统及设备
CN103942545A (zh) 一种基于双向压缩数据空间维度缩减的人脸识别方法和装置
Yuan et al. Fingerprint liveness detection using an improved CNN with the spatial pyramid pooling structure
Toliupa et al. Procedure for adapting a neural network to eye iris recognition
Premalatha et al. A dorsal hand vein recognition-based on local gabor phase quantization with whitening transformation
Tallapragada et al. Iris recognition based on combined feature of GLCM and wavelet transform
Latha et al. A novel method for person authentication using retinal images
Sarfraz Introductory chapter: On fingerprint recognition
Sarode et al. Review of iris recognition: an evolving biometrics identification technology
Kuzu et al. Gender-specific characteristics for hand-vein biometric recognition: Analysis and exploitation
CN115953822A (zh) 一种基于rPPG生理信号的人脸视频鉴伪方法和装置

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
EXSB Decision made by sipo to initiate substantive examination
SE01 Entry into force of request for substantive examination
CB03 Change of inventor or designer information

Inventor after: Ji Boyang

Inventor after: Yue Caitong

Inventor after: Liang Jing

Inventor after: Han Yuhong

Inventor before: Liang Jing

Inventor before: Yue Caitong

Inventor before: Ji Boyang

Inventor before: Han Yuhong

COR Change of bibliographic data
GR01 Patent grant
GR01 Patent grant