CN107977609A - 一种基于cnn的指静脉身份验证方法 - Google Patents

一种基于cnn的指静脉身份验证方法 Download PDF

Info

Publication number
CN107977609A
CN107977609A CN201711156713.7A CN201711156713A CN107977609A CN 107977609 A CN107977609 A CN 107977609A CN 201711156713 A CN201711156713 A CN 201711156713A CN 107977609 A CN107977609 A CN 107977609A
Authority
CN
China
Prior art keywords
sample
cnn
network
training
mrow
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201711156713.7A
Other languages
English (en)
Other versions
CN107977609B (zh
Inventor
唐溯
康文雄
邓飞其
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
South China University of Technology SCUT
Original Assignee
South China University of Technology SCUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by South China University of Technology SCUT filed Critical South China University of Technology SCUT
Priority to CN201711156713.7A priority Critical patent/CN107977609B/zh
Publication of CN107977609A publication Critical patent/CN107977609A/zh
Application granted granted Critical
Publication of CN107977609B publication Critical patent/CN107977609B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/40Spoof detection, e.g. liveness detection
    • G06V40/45Detection of the body part being alive
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

本发明公开了一种基于CNN的指静脉身份验证方法,包括下述步骤:1)数据采集及处理:使用公开数据集或者自行采集若干指静脉图像,并随机使用旋转、平移和裁剪的操作对所获取指静脉数据集的图像数据进行扩增;2)构建CNN网络并对CNN网络进行训练;3)注册阶段:对于每根手指采集若干幅指静脉图片,提取出其ROI区域并进行归一化处理,然后使用步骤2)中训练完成的CNN网络计算出其特征向量并存储下来;4)验证阶段:再以步骤3)的方式采集指静脉图片并计算其特征向量,然后计算该特征向量与数据库中每一特征向量的距离,并依据距离判断其是否对应同一根手指。本发明所应用的匹配方式简单易行,系统性能相比传统方法有很大提高。

Description

一种基于CNN的指静脉身份验证方法
技术领域
本发明涉及生物特征识别领域,特别涉及一种基于CNN的指静脉身份验证方法。
背景技术
随着信息技术的不断发展,当代社会对信息安全的要求越来越高,人们迫切需要一种更加安全可靠的身份认证方式来保障自己的信息安全。相比于传统的身份认证方式,即基于密码等的方式,基于生物特征的身份验证方法具有更突出的便利性与安全性,因此具有广泛的应用前景。
目前,应用比较广泛的生物特征识别方式有人脸识别和指纹识别等,它们主要应用在了门禁系统、ATM系统、安防监控系统等领域。相比于人脸识别和指纹识别等方式,指静脉由于其处于人体皮肤表皮之下,不会像指纹一样受到皮肤表面磨损等影响,同时也不容易被窃取与伪造,因此具有更高的安全性。
当前的指静脉识别算法,大体可以分为以下几类:基于指静脉纹路的方法、基于局部不变特征的方法、基于指静脉纹理特征的方法。
基于指静脉纹路的方法主要是从预处理后的指静脉图像中提取出包含指静脉纹路的二值图像,通过比对两幅指静脉图像的纹路来判断其是否对应同一根手指。基于指静脉纹路的方法可以充分利用指静脉图像中纹路的方向、宽度和空间信息,但是由于采集设备限制而导致的图像质量问题,以及手指旋转平移导致的纹路偏差问题等因素,该方法在最终效果上总体较差。
基于局部不变特征的方法主要是从指静脉图像上检测局部不变特征点,然后利用局部不变特征描述方法对其进行表征并匹配,通过匹配分数来判断两幅指静脉图像是否对应同一根手指,典型的方法有基于SIFT的方法。这种方法在一定程度上可以克服平移和旋转问题,但是由于指静脉图像通常较为模糊,因此较难获得稳定的特征点,从而使得算法的性能及应用场景受限。
基于指静脉纹理特征的方法是当前指静脉识别领域的主流方法,它主要是通过统计指静脉图像中的灰度变化信息来获取特征,并最终将该特征用于匹配,其使用的典型特征包括LBP、WLD、HOG等。该方法较有效地表征了指静脉纹理引起的图像灰度变化情况,同时在实际使用中可以通过分块提取特征,在一定程度上保留空间结构信息。但是总的来说,这些特征提取方法都是人工设计的,特征的表达能力仍然不够强,在指静脉图像出现稍大的旋转平移时,性能会迅速下降。
以上提及的传统方法,大都是基于人手工设计的特征,其表征能力总体较差,因此系统鲁棒性不够。近年来,由于数据量的增大及硬件性能的提升,深度学习这种可以自动地从大量图像中学习和提取特征的方法逐渐受到了人们的重视,并在如物体识别、目标检测、人脸识别等一系列领域取得了重大突破。由于指静脉识别领域数据集较小,难以满足深度学习对训练数据量的需求,从而使得深度学习在指静脉识别领域上的应用受到了限制。
发明内容
本发明的目的在于克服现有技术的缺点和不足,提供一种基于CNN的指静脉身份验证方法。
为了实现上述发明目的,采用的技术方案如下:
一种基于CNN的指静脉身份验证方法,包括下述步骤:
1)数据采集及处理:使用公开数据集或者自行采集若干指静脉图像,并随机使用旋转、平移和裁剪的操作对所获取指静脉数据集的图像数据进行扩增;
2)构建CNN网络并对CNN网络进行训练:所述CNN网络包括基础网络和延伸网络,所述基础网络用于提取指静脉图像的基础特征,所述延伸网络用于CNN网络更好地适配于指静脉识别的任务;对CNN网络进行训练包括:搭建训练CNN网络所需的网络架构,建立训练样本对并利用损失函数分阶段进行CNN网络训练;
3)注册阶段:对于每根手指采集若干幅指静脉图片,提取出其ROI区域并进行归一化处理,然后利用步骤2)中训练完成的CNN网络计算出指静脉图像的特征向量并存储到数据库中;
4)验证阶段:再以步骤3)的方式采集指静脉图片并计算其特征向量,然后计算该特征向量与数据库中每一特征向量的欧式距离,并依据欧式距离判断其是否对应同一根手指。
作为优选的技术方案:步骤1)还包括,对所获取指静脉数据集的图像数据进行扩增之后,将所获取指静脉数据集中的每一张图片归一化为64*128分辨率大小。
作为优选的技术方案:在步骤2)中,所述基础网络由在ImageNet数据集上预训练的ResNet50网络的前10层构成;所述延伸网络在基础网络之上,添加14个网络层。
作为优选的技术方案:所述延伸网络的第1、3、6、8层为卷积层,所述第1、6层使用了1*1大小的卷积核,分别有128、192个滤波器;所述第3、8层使用了3*3大小的卷积核,分别有256和384个滤波器;所述延伸网络的第2、4、7、9、13层为BatchNormalization层;所述延伸网络的第5、10层为池化层;所述延伸网络的第11、14层为全连接层,所述第11层有256个神经元,所述第14层的神经元数量与训练数据中的类别数相同;所述延伸网络的第12层为L2Normalize层;所述延伸网络在第1、3、6、8、12层后使用了PReLU激活函数,在第5、10、13层后使用了dropout技术,在第14层后使用了softmax函数获取CNN网络输出的类别概率分布。
作为优选的技术方案:在步骤2)中,所述搭建训练CNN网络所需的网络架构为Siamese网络架构,所述Siamese网络架构将构建的CNN网络复制为两个分支,两个分支的CNN网络参数是一样的,在进行CNN网络训练时输入的是成对的指静脉图片即样本对。
作为优选的技术方案:在步骤2)中的所述建立训练样本包括下述内容:对训练数据集中的每一张指静脉图片,在同类图片中随机选取两张指静脉图片与其组建正样本对,所述同类图片为同一根手指的指静脉图片,同时在其他类别图片中随机选取两张指静脉图片与其组建负样本对,所述其他类别图片为不同手指的指静脉图片,合并正负样本对作为最终的训练样本对;该选取过程将在每个batch的训练阶段结束时重新进行;此外在训练过程中,每500次迭代保存一次CNN网络参数。
作为优选的技术方案:在步骤2)中,所述损失函数包括分类损失和验证损失,所述分类损失用于将样本对中不同类别的个体区分开来,其数学形式为:
其中n表示每个mini-batch中样本数量;yi表示CNN网络输出的样本属于真实类别的概率;i表示样本在一个mini-batch中的编号。
所述验证损失,用于减小同类样本对特征向量间的距离并扩大不同类样本对特征向量间的距离;对于单个样本对的情况,验证损失的数学形式如下:
VLi=yi*max(0,d-mpull)2+(1-yi)*max(0,mpush-d)2
其中,yi表示该样本对的类别,若为同类样本对则取1,不同类样本对则取0;mpull代表类内样本对的距离阈值,mpush代表类间样本对的距离阈值;d表示样本对特征向量间的欧式距离;
在计算最终损失时,只挑选难分的样本对,即没有满足约束距离的样本,完整的验证损失公式如下:
最终的损失函数J结合分类损失和验证损失,如下式所示:
其中,λ1和λ2分别表示分类损失和验证损失的权重比例,j表示样本在一个样本对中的编号。
作为优选的技术方案:在步骤2)中,所述训练CNN网络包括三个训练阶段,分别为训练阶段一、训练阶段二和训练阶段三;在所述训练阶段一,固定基础网络的权值,使用分类损失训练延伸网络部分的权值,学习率为0.01;在所述训练阶段二,固定基础网络的权值,使用分类损失和验证损失共同训练延伸网络部分的权值,且学习率调整为阶段一的十分之一;在所述训练阶段三,使用分类损失和验证损失,同时训练基础网络与延伸网络,且学习率调整为阶段二的十分之一;在所述训练阶段二和训练阶段三,采用难分样本挖掘技术,计算没有满足距离约束的样本对的损失。
作为优选的技术方案:在步骤3)中,对于每一幅图片,经过预处理后,将其输入训练完成的CNN网络,得到一个256维的特征向量,在注册阶段和验证阶段直接利用特征向量,不再需要原图来进行匹配;所述预处理包括提取ROI区域并进行归一化处理,所述特征向量为CNN网络倒数第二层输出的向量。
作为优选的技术方案:步骤4),具体包括下述步骤:采集待验证手指指静脉图片即待验证样本,进行预处理,并使用训练完成的CNN网络获取该样本的特征向量;然后分别计算该特征向量与数据库中所有已存储样本的特征向量间的欧式距离,即d=||f(P1)-f(P2)||,其中f(P1)和f(P2)指两张图片的特征向量,P1表示待验证样本,P2表示数据库中已存储的样本;最后选取与待验证样本欧式距离最小dmin的类别作为目标类别,同时判断最小距离dmin是否大于设定的欧式距离阈值dthreshold,若dmin<dthreshold,则该手指指静脉图片P1属于目标类别,如果dmin>dthreshold,则该手指指静脉图片P1不在数据库中;
所述欧式距离阈值dthreshold的确定通过如下步骤进行:挑选一批已知类别的样本图像并构建样本对,使用训练完成的CNN网络获取样本的特征向量并计算每一个样本对间的欧式距离,在0-1之间以0.01为增量依次取值作为欧式距离阈值,计算每个阈值下CNN网络的FAR错误接受率和FRR错误拒绝率,找到满足FAR和FRR参数指标要求的欧式距离阈值作为最终的欧式距离阈值dthreshold;所述错误接受率为非同类样本对距离小于阈值的次数占总类间匹配次数的比例,所述错误拒绝率为同类样本对距离大于阈值的次数占总类内匹配次数的比例。
本发明相对于现有技术具有如下的优点和效果:
(1)本发明结合使用多项技术,解决了难以在指静脉识别领域应用深度学习的难题,同时本发明所应用的匹配方式简单易行,系统性能相比传统方法也有很大提高。
(2)本发明使用数据扩增技术,大幅度增加了训练样本的数量,从而解决了指静脉图片样本不足的问题。
(3)本发明采用ResNet50的前10层作为基础网络,用于提取基础特征,在此基础上,搭建具有14个网络层的延伸网络,使得网络能够更加适应于指静脉识别的任务。
(4)本发明在训练阶段,构建Siamese网络结构,结合使用分类损失与验证损失,使得网络能够提取更具有辨别力的特征;分多个阶段训练网络,并在训练过程中采用难分样本挖掘技术,不计算已满足距离约束的样本对的损失,使得网络的优化与收敛更加稳定。
(5)本发明根据指静脉领域的实际情况,对原始数据集进行扩增,采用Dropout及L2正则等技术控制过拟合,并结合分类及验证损失,进行多阶段的迁移度量学习,最终在训练数据集极小的情况下,成功训练出了性能大幅超越传统算法的CNN网络。
(6)本发明基于CNN网络,对于每一幅图片,经过预处理,将其输入训练完成的CNN网络,可以得到一个256维的特征向量,无论注册还是验证阶段,均可以直接利用特征向量,而不再需要原图来进行匹配,匹配方式简单易行。
附图说明
图1是本发明基于CNN的指静脉身份验证方法流程图。
图2是本发明的Siamese网络架构示意图。
图3是本发明的CNN网络的训练目标示意图。
具体实施方式
下面结合附图对本发明进行详细描述,但本发明的实施方式不限于此。
实施例
如图1所示,本发明的一种基于CNN的指静脉身份验证方法步骤为:
1)数据采集及处理:使用公开数据集或者自行采集若干指静脉图像,并随机使用旋转、平移和裁剪的操作对所获取指静脉数据集的图像数据进行扩增;
2)构建CNN网络并对CNN网络进行训练:所述CNN网络包括基础网络和延伸网络,所述基础网络用于提取指静脉图像的基础特征,所述延伸网络用于CNN网络更好地适配于指静脉识别的任务;对CNN网络进行训练包括:搭建训练CNN网络所需的网络架构,建立训练样本并利用损失函数分阶段进行CNN网络训练;
3)注册阶段:对于每根手指采集若干幅指静脉图片,提取出其ROI区域并进行归一化处理,然后利用步骤2)中训练完成的CNN网络计算出指静脉图像的特征向量并存储到数据库中;
4)验证阶段:再以步骤3)的方式采集指静脉图片并计算其特征向量,然后计算该特征向量与数据库中每一特征向量的欧式距离,并依据欧式距离判断其是否对应同一根手指。
下面详细介绍本发明所用的CNN网络的构建及训练方式。
1.数据集扩增及预处理
根据指静脉识别领域的开放数据集,一个数据集通常只包含数千张指静脉图片,数据量很小,因此如果直接应用深度学习方法,网络很难从中学习到能够应对平移、旋转、色彩变动等各种变化的具有区分力的特征。在本实施例中,需要对原始数据集中的图像进行扩增,对原始训练数据集中的每一张图片,随机组合旋转、缩放、水平平移、竖直平移、剪切变换以及颜色变换(channel color shift)的操作,将1张图片扩增至20张。扩增之后,将每一张图片归一化至64*128分辨率大小。
2.网络架构
应用上述的扩增策略产生大量的新样本数据,但由于新样本数据是原始数据经过简单的变换得到的,因此二者仍然存在很高的相关性;如果自行构建浅层网络并使用这些数据训练,由于浅层网络的表达力有限,仍旧难以适应指静脉识别的任务;如果从零开始构建深层网络,由于深层网络其参数量较大,在训练数据集有限的情况下难以获得充分训练,在本实施例中尝试采用迁移学习的方法克服这一问题。
由于CNN网络的浅层部分提取的是一些边缘、条纹和颜色块等特征,高层部分提取的才是更加抽象的适用于具体任务的特征,因此如果采用在ImageNet数据集上预训练的模型,保留其浅层部分用于提取基础特征,在基础特征的基础上构建延伸网络,可以在最小化网络参数数量的情况下训练出具有较强表达能力的网络。
目前存在的网络架构有VGGNet、GoogLeNet、ResNet等,在本实施例中采用ResNet50网络的前10层作为基础网络,用于提取指静脉图像的基础特征,网络架构如表1所示。
表1
在基础网络之上搭建了延伸网络,架构如表2所示,延伸网络交替采用了1*1卷积和3*3卷积,1*1卷积用于组合通道间信息,同时通过减少通道数量去减小参数量,3*3卷积用于进一步提取特征;使用了PReLU激活函数,用于在一定程度上减小神经元死亡的情况;使用BatchNormalization层稳定网络训练并加速收敛;使用池化层降低特征图大小,获取一定程度的平移不变性并减少参数数量;使用L2Normalization层避免计算距离时的尺度问题;使用Dropout技术进一步减少过拟合的发生。在延伸网络的最后使用两个全连接层,其中倒数第二层设置了256个神经元,即使用256维的特征向量来表征每一幅指静脉图片;延伸网络的最后一层输出分类结果,只在训练阶段使用。
表2
网络层编号 类型 卷积核大小 数量 步长
1 Conv 1×1 128 1
2 BN - - -
3 Conv 3×3 256 1
4 BN - - -
5 Max Pool 2×2 - 1
6 Conv 1×1 192 1
7 BN - - -
8 Conv 3×3 384 1
9 BN - - -
10 Max pool 2×2 - 1
11 FC - 256 -
12 L2Norm - - -
13 BN - - -
14 FC - 训练集类别数 -
3.训练方式
对于每一张指静脉图片,获得一个固定长度的特征向量,并通过计算不同指静脉图片特征向量的欧式距离来判断其是否对应同一根手指。因此,根本目的在于构建一个能充分表征指静脉图片的网络,对于输入的指静脉图片,它能输出满足下述约束的特征:即对于同类图片,其输出的特征向量间的距离尽可能小;对于其他类图片,其输出的特征向量间的距离尽可能大,所述同类图片表示同一根手指的指静脉图片,所述其他类图片表示不同手指的指静脉图片。如果仅使用SoftmaxLoss训练网络,将很难获取到充分满足上述约束的特征。因此,在本实施例中搭建Siamese网络架构,如图2所示,该Siamese网络架构将CNN网络复制为两个分支,两个分支的CNN网络参数是一样的,P1和P2表示输入的两张指静脉图片即样本对。
训练过程中采用的损失函数由两部分构成。第一部分是分类损失,分类损失主要用于将不同类别的个体区分开来,其数学形式为:
n表示每个mini-batch中样本数量;yi表示网络输出的某个样本属于其真实类别的概率;i表示样本在一个mini-batch中的编号。
第二部分是验证损失,主要用于减小同类样本对特征间的距离并扩大不同类样本对特征间的距离。原始的ContrastiveLoss形式如下式所示:
从上式可以看出原始形式的ContrastiveLoss只考虑了类间样本对的距离阈值,即约束非同类样本对的距离需要大于设定的阈值。在本实施例中考虑一种特殊情况,即手指在正常姿势和旋转较大角度姿态下的两张指静脉图片,此时两张图片虽然属于同一类,但从画面上看已经有了明显的区别,如果仍然不加考虑的计算二者的特征向量的距离,并约束其接近于0,将会导致模型易受这种极端情况影响,从而使得模型的泛化性能变差。因此,为类内样本也加上一个阈值,考虑单个样本对的情况,验证损失VerificationLoss如下:
VLi=yi*max(0,d-mpull)2+(1-yi)*max(0,mpush-d)2
上式中mpull代表类内样本对的阈值,mpush代表类间样本对的阈值,d表示样本对特征向量的欧式距离,如图3所示,CNN网络的训练目标,试图约束类内样本对的特征向量距离小于mpull,类间样本对的特征向量距离大于mpush,其中,箭头表示训练。
考虑到随着模型的训练优化,训练数据中有一些样本对的距离已经满足了约束,在计算最终损失的时候不应当考虑这一部分较容易的样本,即应当只挑选难分的样本,故完整的验证损失函数公式如下:
最终的损失函数J结合了前面的分类损失和验证损失,如下式所示:
其中,λ1和λ2分别表示分类损失和验证损失的权重比例,j表示样本在一个样本对中的编号,在不同的训练阶段可以选取不同的值,从而使得CNN网络可以更好的得到优化。
对训练数据集中的每一张图片,在同类图片中分别随机选取两张与其组建正样本对,同时在其他类别中随机选取两张与其组建负样本对,合并正负样本对作为最终的训练样本。此外在训练过程中,每500次迭代保存一次CNN网络参数。
训练过程中,选取的mpull=0.35,mpush=0.55。
(1)训练阶段一
在训练阶段一,使用在ImageNet上预训练的ResNet50参数去预设基础网络部分的参数,另外随机初始化延伸网络的参数,为了更好地优化网络,在这一阶段,先固定基础网络的参数,仅仅优化延伸网络。
在所述训练阶段一选取λ1=0.5,λ2=0,使用的学习率为0.01,训练1个batch。
(2)训练阶段二
在所述训练阶段二开始前,搭建的网络已经能够对训练数据中的图片做出较为准确的分类,然后加入验证损失进一步训练。在这一阶段中,任然固定基础网络的参数,只优化延伸网络部分。
选取λ1=0.5,λ2=0.5,使用的学习率为0.001,训练4个batch。
(3)训练阶段三
在所述训练阶段三,对网络进行最后的全局微调。
选取λ1=0.5,λ2=1,使用的学习率为0.0001,所述训练阶段三在训练总步数达到25000时停止。
经过三个阶段的训练之后,使用训练过程中保存下的模型在验证集上进行测试,选取在验证集上效果最好的模型作为最终模型,并在测试集上测试性能。4.验证实验
在验证实验中,选取三个数据集,分别为MMCBNU_6000、FV-USM、SDUMLA-HMT。MMCBNU_6000数据集包含100个人,每个人采集6根手指,每根手指采集6个样本,总计6000张图片。FV-USM数据集包含123个人,每个人同样也是采集6根手指,每根手指采集4个样本,总计2952张图片。SDUMLA-HMT数据集包含106个人,每个人采集6根手指,每根手指采集6个样本,总计3816张图片。
对于MMCBNU_6000和FV-USM数据集,使用数据集提供的指静脉ROI图像;对于SDUMLA-HMT数据集,自行对其进行截取。最后统一将所有的指静脉图像归一化至64*128分辨率大小。
在验证实验中,根据手指来划分类别,选取60%的手指类作为训练样本,10%的手指类作为验证样本,并将剩下的30%手指类作为测试样本。
训练时,将针对每个数据集分别进行训练、验证及测试,训练过程依照前述步骤进行;测试时,分别选取每个数据集中测试部分样本中所有可能组合而成的同类样本对作为正样本对,并依据正样本对的数量为每张指静脉图片挑选一定数量的非同类样本组成负样本对,保证正负样本对数量大体相等。
具体包括下述步骤:采集待验证手指指静脉图片即待验证样本,进行预处理,并使用已训练好的CNN网络获取该样本的特征向量;然后分别计算该特征向量与数据库中所有已存储的特征向量间的欧式距离,即d=||f(P1)-f(P2)||,其中f(P1)和f(P2)指两张图片的特征向量,P1表示待验证样本,P2表示数据库中已存储的样本;最后选取与待验证样本欧式距离最小dmin的类别作为目标类别,同时判断最小距离dmin是否大于设定的欧式距离阈值dthreshold,若dmin<dthreshold,则该手指指静脉图片P1属于目标类别,如果dmin>dthreshold,则该手指指静脉图片P1不在数据库中;
所述欧式距离阈值dthreshold的确定通过如下步骤进行:挑选一批已知类别的样本图像并构建样本对,使用训练好的CNN网络获取样本特征向量并计算每一个样本对间的欧式距离,在0-1之间以0.01为增量依次取值作为欧式距离阈值,计算每个阈值下CNN网络的FAR错误接受率和FRR错误拒绝率,找到满足FAR和FRR参数指标要求的欧式距离阈值作为最终的距离阈值dthreshold;所述错误接受率为非同类样本距离小于阈值的次数占总类间匹配次数的比例,所述错误拒绝率为同类样本距离大于阈值的次数占总类内匹配次数的比例,错误接受率固定时,错误拒绝率相应就固定了,错误接收率固定为0.1%。
如表3所示,本实施例验证实验最终的测试结果,表中所示结果为等误率,即FAR与FRR相等时的取值:从表3中可以看出,本实施例提出的模型在各个公开数据集上都取得了大幅超越传统算法的性能。
表3
MMCBNU_6000 FV-USM SDUMLA-HMT
模板匹配 3.90 5.288 12.43
LBP 1.77 1.843 11.94
HOG 0.77 1.393 7.119
WLD 2.01 2.715 10.56
SIFT 7.727 8.472 15.09
Gabor+WLD 2.72 6.146 8.86
Gabot+SIFT 0.65 1.068 4.102
本实施例方法 0.33 0.63 1.04
在实施例中提出了一种基于CNN的指静脉身份验证方法。为了解决指静脉训练样本较少而难以应用深度学习的问题,本实施例使用了ResNet50的前10层作为基础网络提取底层特征,在基础网络之上构建延伸网络,使得网络能够更加适应于指静脉识别的任务。并根据指静脉领域的实际情况,对原始数据集进行扩增,采用Dropout及L2正则等技术控制过拟合,并结合分类及验证损失,进行多阶段的迁移度量学习,最终在训练数据集极小的情况下,成功训练出了性能大幅超越传统算法的CNN模型。此外,本实施例使用的验证方法仅仅是计算特征向量间的欧式距离,匹配方式简单,在使用过程中可以大幅减少匹配时间。
本发明的上述实施例仅仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明权利要求的保护范围之内。

Claims (10)

1.一种基于CNN的指静脉身份验证方法,其特征在于,包括下述步骤:
1)数据采集及处理:使用公开数据集或者自行采集若干指静脉图像,并随机使用旋转、平移和裁剪的操作对所获取指静脉数据集的图像数据进行扩增;
2)构建CNN网络并对CNN网络进行训练:所述CNN网络包括基础网络和延伸网络,所述基础网络用于提取指静脉图像的基础特征,所述延伸网络用于CNN网络更好地适配于指静脉识别的任务;对CNN网络进行训练包括:搭建训练CNN网络所需的网络架构,建立训练样本对并利用损失函数分阶段进行CNN网络训练;
3)注册阶段:对于每根手指采集若干幅指静脉图片,提取出其ROI区域并进行归一化处理,然后利用步骤2)中训练完成的CNN网络计算出指静脉图像的特征向量并存储到数据库中;
4)验证阶段:再以步骤3)的方式采集指静脉图片并计算其特征向量,然后计算该特征向量与数据库中每一特征向量的欧式距离,并依据欧式距离判断其是否对应同一根手指。
2.根据权利要求1所述的基于CNN的指静脉身份验证方法,其特征在于,步骤1)还包括,对所获取指静脉数据集的图像数据进行扩增之后,将所获取指静脉数据集中的每一张图片归一化为64*128分辨率大小。
3.根据权利要求1所述的基于CNN的指静脉身份验证方法,其特征在于,在步骤2)中,所述基础网络由在ImageNet数据集上预训练的ResNet50网络的前10层构成;所述延伸网络在基础网络之上,添加14个网络层。
4.根据权利要求3所述的基于CNN的指静脉身份验证方法,其特征在于,所述延伸网络的第1、3、6、8层为卷积层,所述第1、6层使用了1*1大小的卷积核,分别有128、192个滤波器;所述第3、8层使用了3*3大小的卷积核,分别有256和384个滤波器;所述延伸网络的第2、4、7、9、13层为BatchNormalization层;所述延伸网络的第5、10层为池化层;所述延伸网络的第11、14层为全连接层,所述第11层有256个神经元,所述第14层的神经元数量与训练数据中的类别数相同;所述延伸网络的第12层为L2 Normalize层;所述延伸网络在第1、3、6、8、12层后使用了PReLU激活函数,在第5、10、13层后使用了dropout技术,在第14层后使用了softmax函数获取CNN网络输出的类别概率分布。
5.根据权利要求1所述的基于CNN的指静脉身份验证方法,其特征在于,在步骤2)中,所述搭建训练CNN网络所需的网络架构为Siamese网络架构,所述Siamese网络架构将构建的CNN网络复制为两个分支,两个分支的CNN网络参数是一样的,在进行CNN网络训练时输入的是成对的指静脉图片即样本对。
6.根据权利要求1所述的基于CNN的指静脉身份验证方法,其特征在于,在步骤2)中的所述建立训练样本对包括下述内容:对训练数据集中的每一张指静脉图片,在同类图片中随机选取两张指静脉图片与其组建正样本对,所述同类图片为同一根手指的指静脉图片,同时在其他类别图片中随机选取两张指静脉图片与其组建负样本对,所述其他类别图片为不同手指的指静脉图片,合并正负样本对作为最终的训练样本对;该选取过程将在每个batch的训练阶段结束时重新进行;此外在训练过程中,每500次迭代保存一次CNN网络参数。
7.根据权利要求1所述的基于CNN的指静脉身份验证方法,其特征在于,在步骤2)中,所述损失函数包括分类损失和验证损失,所述分类损失用于将样本对中不同类别的个体区分开来,其数学形式为:
<mrow> <mi>I</mi> <mi>d</mi> <mi>e</mi> <mi>n</mi> <mi>t</mi> <mi>i</mi> <mi>f</mi> <mi> </mi> <mi>a</mi> <mi>c</mi> <mi>a</mi> <mi>t</mi> <mi>i</mi> <mi>o</mi> <mi>n</mi> <mi>L</mi> <mi>o</mi> <mi>s</mi> <mi>s</mi> <mo>=</mo> <mo>-</mo> <mfrac> <mn>1</mn> <mi>n</mi> </mfrac> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>n</mi> </munderover> <mi>log</mi> <mi> </mi> <msub> <mi>y</mi> <mi>i</mi> </msub> </mrow>
其中n表示每个mini-batch中样本数量;yi表示CNN网络输出的样本属于真实类别的概率;i表示样本在一个mini-batch中的编号;
所述验证损失,用于减小同类样本对特征向量间的距离并扩大不同类样本对特征向量间的距离;对于单个样本对的情况,验证损失的数学形式如下:
VLi=yi*max(0,d-mpull)2+(1-yi)*max(0,mpush-d)2
其中,yi表示该样本对的类别,若为同类样本对则取1,不同类样本对则取0,mpull代表类内样本对的距离阈值,mpush代表类间样本对的距离阈值,d表示样本对特征向量间的欧式距离;
在计算最终损失时,只挑选难分的样本对,即没有满足约束距离的样本,完整的验证损失公式如下:
<mrow> <mi>V</mi> <mi>e</mi> <mi>r</mi> <mi>i</mi> <mi>f</mi> <mi> </mi> <mi>a</mi> <mi>c</mi> <mi>a</mi> <mi>t</mi> <mi>i</mi> <mi>o</mi> <mi>n</mi> <mi>L</mi> <mi>o</mi> <mi>s</mi> <mi>s</mi> <mo>=</mo> <mfrac> <mn>1</mn> <mrow> <msubsup> <mi>&amp;Sigma;</mi> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>n</mi> </msubsup> <mi>s</mi> <mi>i</mi> <mi>g</mi> <mi>n</mi> <mrow> <mo>(</mo> <msub> <mi>VL</mi> <mi>i</mi> </msub> <mo>)</mo> </mrow> </mrow> </mfrac> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>n</mi> </munderover> <msub> <mi>VL</mi> <mi>i</mi> </msub> </mrow>
最终的损失函数J结合分类损失和验证损失,如下式所示:
<mrow> <mi>J</mi> <mo>=</mo> <msub> <mi>&amp;lambda;</mi> <mn>1</mn> </msub> <mo>*</mo> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>j</mi> <mo>=</mo> <mn>1</mn> </mrow> <mn>2</mn> </munderover> <mrow> <mi>I</mi> <mi>d</mi> <mi>e</mi> <mi>n</mi> <mi>t</mi> <mi>i</mi> <mi>f</mi> <mi> </mi> <msub> <mi>acationLoss</mi> <mi>j</mi> </msub> </mrow> <mo>+</mo> <msub> <mi>&amp;lambda;</mi> <mn>2</mn> </msub> <mo>*</mo> <mi>V</mi> <mi>e</mi> <mi>r</mi> <mi>i</mi> <mi>f</mi> <mi> </mi> <mi>a</mi> <mi>c</mi> <mi>a</mi> <mi>t</mi> <mi>i</mi> <mi>o</mi> <mi>n</mi> <mi>L</mi> <mi>o</mi> <mi>s</mi> <mi>s</mi> </mrow>
其中,λ1和λ2分别表示分类损失和验证损失的权重比例,j表示样本在一个样本对中的编号。
8.根据权利要求1所述的基于CNN的指静脉身份验证方法,其特征在于,在步骤2)中,所述训练CNN网络包括三个训练阶段,分别为训练阶段一、训练阶段二和训练阶段三;在所述训练阶段一,固定基础网络的权值,使用分类损失训练延伸网络部分的权值,学习率为0.01;在所述训练阶段二,固定基础网络的权值,使用分类损失和验证损失共同训练延伸网络部分的权值,且学习率调整为阶段一的十分之一;在所述训练阶段三,使用分类损失和验证损失,同时训练基础网络与延伸网络,且学习率调整为阶段二的十分之一;在所述训练阶段二和训练阶段三,采用难分样本挖掘技术,计算没有满足距离约束的样本对的损失。
9.根据权利要求1所述的基于CNN的指静脉身份验证方法,其特征在于,在步骤3)中,对于每一幅图片,经过预处理后,将其输入训练完成的CNN网络,得到一个256维的特征向量,在注册阶段和验证阶段直接利用特征向量,不再需要原图来进行匹配;所述预处理包括提取ROI区域并进行归一化处理,所述特征向量为CNN网络倒数第二层输出的向量。
10.根据权利要求1所述的基于CNN的指静脉身份验证方法,其特征在于,步骤4),具体包括下述步骤:采集待验证手指指静脉图片即待验证样本,进行预处理,并使用训练完成的CNN网络获取该样本的特征向量;然后分别计算该特征向量与数据库中所有已存储样本的特征向量间的欧式距离,即d=||f(P1)-f(P2)||,其中f(P1)和f(P2)指两张图片的特征向量,P1表示待验证样本,P2表示数据库中已存储的样本;最后选取与待验证样本欧式距离最小dmin的类别作为目标类别,同时判断最小距离dmin是否大于设定的欧式距离阈值dthreshold,若dmin<dthreshold,则该手指指静脉图片P1属于目标类别,如果dmin>dthreshold,则该手指指静脉图片P1不在数据库中;
所述欧式距离阈值dthreshold的确定通过如下步骤进行:挑选一批已知类别的样本图像并构建样本对,使用训练完成的CNN网络获取样本的特征向量并计算每一个样本对间的欧式距离,在0-1之间以0.01为增量依次取值作为欧式距离阈值,计算每个阈值下CNN网络的FAR错误接受率和FRR错误拒绝率,找到满足FAR和FRR参数指标要求的欧式距离阈值作为最终的欧式距离阈值dthreshold;所述错误接受率为非同类样本对距离小于阈值的次数占总类间匹配次数的比例,所述错误拒绝率为同类样本对距离大于阈值的次数占总类内匹配次数的比例。
CN201711156713.7A 2017-11-20 2017-11-20 一种基于cnn的指静脉身份验证方法 Active CN107977609B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201711156713.7A CN107977609B (zh) 2017-11-20 2017-11-20 一种基于cnn的指静脉身份验证方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201711156713.7A CN107977609B (zh) 2017-11-20 2017-11-20 一种基于cnn的指静脉身份验证方法

Publications (2)

Publication Number Publication Date
CN107977609A true CN107977609A (zh) 2018-05-01
CN107977609B CN107977609B (zh) 2021-07-20

Family

ID=62010413

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201711156713.7A Active CN107977609B (zh) 2017-11-20 2017-11-20 一种基于cnn的指静脉身份验证方法

Country Status (1)

Country Link
CN (1) CN107977609B (zh)

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108875705A (zh) * 2018-07-12 2018-11-23 广州麦仑信息科技有限公司 一种基于Capsule的掌静脉特征提取方法
CN109034092A (zh) * 2018-08-09 2018-12-18 燕山大学 用于监控系统的异常事件检测方法
CN109034016A (zh) * 2018-07-12 2018-12-18 辽宁工业大学 一种普适性的基于s-cnn模型的手背静脉图像识别方法
CN109117744A (zh) * 2018-07-20 2019-01-01 杭州电子科技大学 一种用于人脸验证的孪生神经网络训练方法
CN109376578A (zh) * 2018-08-27 2019-02-22 杭州电子科技大学 一种基于深度迁移度量学习的小样本目标识别方法
CN109460774A (zh) * 2018-09-18 2019-03-12 华中科技大学 一种基于改进的卷积神经网络的鸟类识别方法
CN109740495A (zh) * 2018-12-28 2019-05-10 成都思晗科技股份有限公司 基于迁移学习技术的室外天气图像分类方法
CN109800710A (zh) * 2019-01-18 2019-05-24 北京交通大学 行人重识别系统及方法
CN110033035A (zh) * 2019-04-04 2019-07-19 武汉精立电子技术有限公司 一种基于强化学习的aoi缺陷分类方法及装置
CN110147732A (zh) * 2019-04-16 2019-08-20 平安科技(深圳)有限公司 指静脉识别方法、装置、计算机设备及存储介质
CN110175500A (zh) * 2019-04-03 2019-08-27 平安科技(深圳)有限公司 指静脉比对方法、装置、计算机设备及存储介质
CN110211041A (zh) * 2019-05-08 2019-09-06 云南大学 一种基于感受野集成的神经网络图像分类器的优化方法
CN110263659A (zh) * 2019-05-27 2019-09-20 南京航空航天大学 一种基于三元组损失和轻量级网络的指静脉识别方法及系统
CN110377775A (zh) * 2019-07-26 2019-10-25 Oppo广东移动通信有限公司 一种图片审核方法及装置、存储介质
CN110443306A (zh) * 2019-08-06 2019-11-12 深圳大学 葡萄酒木塞的分类方法
CN110705341A (zh) * 2019-08-13 2020-01-17 平安科技(深圳)有限公司 基于指静脉图像的验证方法、装置、存储介质
CN110942001A (zh) * 2019-11-14 2020-03-31 五邑大学 指静脉数据扩充后再识别的方法、装置、设备和存储介质
CN111008550A (zh) * 2019-09-06 2020-04-14 上海芯灵科技有限公司 基于Multiple loss损失函数的指静脉验证身份的识别方法
CN111274915A (zh) * 2020-01-17 2020-06-12 华南理工大学 一种指静脉图像的深度局部聚合描述子提取方法及系统
CN111639558A (zh) * 2020-05-15 2020-09-08 圣点世纪科技股份有限公司 一种基于ArcFace Loss和改进残差网络的指静脉身份验证方法
CN111967351A (zh) * 2020-07-31 2020-11-20 华南理工大学 基于深度树网络的指静脉认证算法、装置、介质和设备
CN112241680A (zh) * 2020-09-14 2021-01-19 中国矿业大学 基于静脉相似图像知识迁移网络的多模态身份认证方法
CN112949780A (zh) * 2020-04-21 2021-06-11 佳都科技集团股份有限公司 特征模型训练方法、装置、设备及存储介质
CN113537195A (zh) * 2021-07-21 2021-10-22 北京数美时代科技有限公司 一种图像文本识别方法、系统和电子设备
CN115063843A (zh) * 2022-05-20 2022-09-16 华南理工大学 面向高自由度应用场景的掌脉数据增强及特征提取方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140019390A1 (en) * 2012-07-13 2014-01-16 Umami, Co. Apparatus and method for audio fingerprinting
CN106599883A (zh) * 2017-03-08 2017-04-26 王华锋 一种基于cnn的多层次图像语义的人脸识别方法
CN106778527A (zh) * 2016-11-28 2017-05-31 中通服公众信息产业股份有限公司 一种基于三重损失的改进的神经网络行人再识别方法
CN106991368A (zh) * 2017-02-20 2017-07-28 北京大学 一种基于深度卷积神经网络的指静脉验证身份识别方法
CN107330383A (zh) * 2017-06-18 2017-11-07 天津大学 一种基于深度卷积神经网络的人脸识别方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140019390A1 (en) * 2012-07-13 2014-01-16 Umami, Co. Apparatus and method for audio fingerprinting
CN106778527A (zh) * 2016-11-28 2017-05-31 中通服公众信息产业股份有限公司 一种基于三重损失的改进的神经网络行人再识别方法
CN106991368A (zh) * 2017-02-20 2017-07-28 北京大学 一种基于深度卷积神经网络的指静脉验证身份识别方法
CN106599883A (zh) * 2017-03-08 2017-04-26 王华锋 一种基于cnn的多层次图像语义的人脸识别方法
CN107330383A (zh) * 2017-06-18 2017-11-07 天津大学 一种基于深度卷积神经网络的人脸识别方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
ZHEDONG ZHENG ET AL.: "A Discriminatively Learned CNN Embedding for Person Re-identification", 《ARXIV:1611.05666V2 [CS.CV]》 *

Cited By (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108875705A (zh) * 2018-07-12 2018-11-23 广州麦仑信息科技有限公司 一种基于Capsule的掌静脉特征提取方法
CN109034016A (zh) * 2018-07-12 2018-12-18 辽宁工业大学 一种普适性的基于s-cnn模型的手背静脉图像识别方法
CN109034016B (zh) * 2018-07-12 2021-10-15 辽宁工业大学 一种普适性的基于s-cnn模型的手背静脉图像识别方法
CN108875705B (zh) * 2018-07-12 2021-08-31 广州麦仑信息科技有限公司 一种基于Capsule的掌静脉特征提取方法
CN109117744A (zh) * 2018-07-20 2019-01-01 杭州电子科技大学 一种用于人脸验证的孪生神经网络训练方法
CN109034092A (zh) * 2018-08-09 2018-12-18 燕山大学 用于监控系统的异常事件检测方法
CN109376578A (zh) * 2018-08-27 2019-02-22 杭州电子科技大学 一种基于深度迁移度量学习的小样本目标识别方法
CN109460774A (zh) * 2018-09-18 2019-03-12 华中科技大学 一种基于改进的卷积神经网络的鸟类识别方法
CN109460774B (zh) * 2018-09-18 2022-04-22 华中科技大学 一种基于改进的卷积神经网络的鸟类识别方法
CN109740495A (zh) * 2018-12-28 2019-05-10 成都思晗科技股份有限公司 基于迁移学习技术的室外天气图像分类方法
CN109800710A (zh) * 2019-01-18 2019-05-24 北京交通大学 行人重识别系统及方法
CN109800710B (zh) * 2019-01-18 2021-04-06 北京交通大学 行人重识别系统及方法
CN110175500A (zh) * 2019-04-03 2019-08-27 平安科技(深圳)有限公司 指静脉比对方法、装置、计算机设备及存储介质
CN110175500B (zh) * 2019-04-03 2024-01-19 平安科技(深圳)有限公司 指静脉比对方法、装置、计算机设备及存储介质
CN110033035A (zh) * 2019-04-04 2019-07-19 武汉精立电子技术有限公司 一种基于强化学习的aoi缺陷分类方法及装置
CN110147732A (zh) * 2019-04-16 2019-08-20 平安科技(深圳)有限公司 指静脉识别方法、装置、计算机设备及存储介质
WO2020211339A1 (zh) * 2019-04-16 2020-10-22 平安科技(深圳)有限公司 指静脉识别方法、装置、计算机设备及存储介质
CN110211041B (zh) * 2019-05-08 2023-06-23 云南大学 一种基于感受野集成的神经网络图像分类器的优化方法
CN110211041A (zh) * 2019-05-08 2019-09-06 云南大学 一种基于感受野集成的神经网络图像分类器的优化方法
CN110263659B (zh) * 2019-05-27 2023-09-26 南京航空航天大学 一种基于三元组损失和轻量级网络的指静脉识别方法及系统
CN110263659A (zh) * 2019-05-27 2019-09-20 南京航空航天大学 一种基于三元组损失和轻量级网络的指静脉识别方法及系统
CN110377775A (zh) * 2019-07-26 2019-10-25 Oppo广东移动通信有限公司 一种图片审核方法及装置、存储介质
CN110443306A (zh) * 2019-08-06 2019-11-12 深圳大学 葡萄酒木塞的分类方法
CN110705341A (zh) * 2019-08-13 2020-01-17 平安科技(深圳)有限公司 基于指静脉图像的验证方法、装置、存储介质
CN111008550A (zh) * 2019-09-06 2020-04-14 上海芯灵科技有限公司 基于Multiple loss损失函数的指静脉验证身份的识别方法
CN110942001A (zh) * 2019-11-14 2020-03-31 五邑大学 指静脉数据扩充后再识别的方法、装置、设备和存储介质
CN111274915A (zh) * 2020-01-17 2020-06-12 华南理工大学 一种指静脉图像的深度局部聚合描述子提取方法及系统
CN111274915B (zh) * 2020-01-17 2023-04-28 华南理工大学 一种指静脉图像的深度局部聚合描述子提取方法及系统
CN112949780A (zh) * 2020-04-21 2021-06-11 佳都科技集团股份有限公司 特征模型训练方法、装置、设备及存储介质
CN111639558B (zh) * 2020-05-15 2023-06-20 圣点世纪科技股份有限公司 一种基于ArcFace Loss和改进残差网络的指静脉身份验证方法
CN111639558A (zh) * 2020-05-15 2020-09-08 圣点世纪科技股份有限公司 一种基于ArcFace Loss和改进残差网络的指静脉身份验证方法
CN111967351B (zh) * 2020-07-31 2023-06-20 华南理工大学 基于深度树网络的指静脉认证算法、装置、介质和设备
CN111967351A (zh) * 2020-07-31 2020-11-20 华南理工大学 基于深度树网络的指静脉认证算法、装置、介质和设备
CN112241680A (zh) * 2020-09-14 2021-01-19 中国矿业大学 基于静脉相似图像知识迁移网络的多模态身份认证方法
CN113537195A (zh) * 2021-07-21 2021-10-22 北京数美时代科技有限公司 一种图像文本识别方法、系统和电子设备
CN113537195B (zh) * 2021-07-21 2022-02-08 北京数美时代科技有限公司 一种图像文本识别方法、系统和电子设备
CN115063843A (zh) * 2022-05-20 2022-09-16 华南理工大学 面向高自由度应用场景的掌脉数据增强及特征提取方法
CN115063843B (zh) * 2022-05-20 2024-03-29 华南理工大学 面向高自由度应用场景的掌脉数据增强及特征提取方法

Also Published As

Publication number Publication date
CN107977609B (zh) 2021-07-20

Similar Documents

Publication Publication Date Title
CN107977609A (zh) 一种基于cnn的指静脉身份验证方法
CN107886064B (zh) 一种基于卷积神经网络的人脸识别场景适应的方法
CN106326886B (zh) 基于卷积神经网络的手指静脉图像质量评估方法
CN107194341B (zh) Maxout多卷积神经网络融合人脸识别方法和系统
Jung et al. Joint fine-tuning in deep neural networks for facial expression recognition
CN103605972B (zh) 一种基于分块深度神经网络的非限制环境人脸验证方法
CN104778448B (zh) 一种基于结构自适应卷积神经网络的人脸识别方法
CN106529468A (zh) 一种基于卷积神经网络的手指静脉识别方法及系统
CN110427832A (zh) 一种基于神经网络的小数据集手指静脉识别方法
CN108388896A (zh) 一种基于动态时序卷积神经网络的车牌识别方法
CN106599883A (zh) 一种基于cnn的多层次图像语义的人脸识别方法
CN107085704A (zh) 基于elm自编码算法的快速人脸表情识别方法
CN107292250A (zh) 一种基于深度神经网络的步态识别方法
CN107844795A (zh) 基于主成分分析的卷积神经网络特征提取方法
CN104346607A (zh) 基于卷积神经网络的人脸识别方法
CN110569725B (zh) 一种基于自注意力机制的深度学习的步态识别系统与方法
CN108764041A (zh) 用于下部遮挡人脸图像的人脸识别方法
CN109344856B (zh) 一种基于多层判别式特征学习的脱机签名鉴别方法
CN106529395B (zh) 基于深度置信网络和k均值聚类的签名图像鉴定方法
CN106909909A (zh) 一种基于共享卷积特征的人脸检测与对齐方法
CN109753864A (zh) 一种基于caffe深度学习框架的人脸识别方法
CN112580445B (zh) 基于生成对抗网络的人体步态图像视角转化方法
CN112214630B (zh) 基于膨胀卷积残差网络的服装图像检索系统及方法
Shengtao et al. Facial expression recognition based on global and local feature fusion with CNNs
CN106650798A (zh) 一种结合深度学习与稀疏表示的室内场景识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant