CN110390282A - 一种基于余弦中心损失的指静脉识别方法及系统 - Google Patents

一种基于余弦中心损失的指静脉识别方法及系统 Download PDF

Info

Publication number
CN110390282A
CN110390282A CN201910627806.6A CN201910627806A CN110390282A CN 110390282 A CN110390282 A CN 110390282A CN 201910627806 A CN201910627806 A CN 201910627806A CN 110390282 A CN110390282 A CN 110390282A
Authority
CN
China
Prior art keywords
image
training
cosine
neural networks
convolutional neural
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910627806.6A
Other languages
English (en)
Inventor
严如强
侯博瑞
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xi'an Geweixi United Technology Co Ltd
Original Assignee
Xi'an Geweixi United Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xi'an Geweixi United Technology Co Ltd filed Critical Xi'an Geweixi United Technology Co Ltd
Priority to CN201910627806.6A priority Critical patent/CN110390282A/zh
Publication of CN110390282A publication Critical patent/CN110390282A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/14Vascular patterns

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Multimedia (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)
  • Collating Specific Patterns (AREA)

Abstract

本发明公开了一种基于余弦中心损失函数的指静脉识别方法及系统,系统包括图像采集模块、图像预处理模块、图像识别模块和图像训练模块;识别方法包括以下步骤:获取待识别用户的指静脉图像;对指静脉图像信息进行图像预处理,提取指静脉感兴趣区域(ROI)图像;通过基于余弦中心损失的卷积神经网络提取指静脉感兴趣区域中的指静脉特征,并识别待识别用户的身份信息。本发明能够有效地提取指静脉特征,提高了对噪声的冗余性,明显改善指静脉识别系统的识别精度。

Description

一种基于余弦中心损失的指静脉识别方法及系统
技术领域
本发明涉及生物特征识别方法,特别是涉及一种基于余弦中心损失的指静脉识别方法及系统。
背景技术
在观察血液流量的医学科研中,人们发现手指中流动的血液可吸收特定波长的光线,而使用特定波长光线对手指进行照射,便可得到指静脉的清晰图像。
进一步的医学研究证明,指静脉的形状具有唯一性和稳定性,即每个人的指静脉图像都不相同,同一个人不同的指静脉图像也不相同,而且指静脉结构分布,在成年后不会发生变化。上述的医学科研的发现,为利用指静脉技术进行生物特征识别,奠定了科学理论基础。
基于指静脉这一固有特征,通过相关计算机、互联网技术和科技的应用,对获取的指静脉影像进行分析、处理,再将得到的信息处理结果与事先注册的指静脉特征进行比对,就能达到甄别使用者身份的目的。
指静脉识别是利用人体血液中血红蛋白吸收近红外光的特性,获取指静脉图像,通过定位、增强、特征提取等算法提取特征值,同存储在服务器中的指静脉模板进行比对,从而确认身份的技术过程,是一种真正的活体生物识别技术。
指静脉识别有别声波、指纹、人脸、虹膜等采用体外生物特征为判定依据的第一代生物识别技术,它主要是利用外部看不到的生物体内部特征进行身份识别,具有高精度、高速度、高防伪性,是目前世界上最尖端的第二代生物识别技术。因此,指静脉识别成为近年来生物识别技术领域的热点,并在银行、楼宇门禁、PC登录、ATM存取款机、汽车安全等领域得到应用。
当前,指静脉识别依然存在较多的问题。传统的指静脉识别方法在运用过程中受到多种因素的影响,在实际应用存在以下缺陷:
1)指静脉图像获取困难,在现行数据库下难以建立有效的数学模型,提取合适的指静脉特征;
2)静脉图像易受到噪声干扰进而影响到图像中与静脉特征相关的分布;
3)指静脉样本的稀缺致使当前手工设计的指静脉特征缺乏特异性。
因此,目前基于手工特征的方法很难有效地提取到指静脉纹路信息,导致认证系统的识别性能有限。
同时,当前对于深度学习在指静脉识别方面的应用也存在极大的局限性,常常只能应用于大样本指静脉数据的识别及作为图像处理工具使用。传统的基于softmax函数的深度学习方法往往局限于提高样本的类间距离并以此分类样本,但是,这种做法忽视了样本的类内距离,使其往往需要大样本的指静脉数据用于训练,并没有充分发挥其强大的特征学习能力。对于当前指静脉数据库稀缺和小样本的问题,需要一类兼顾样本类内距离和类间距离的损失函数,在小样本指静脉数据的基础上提升指静脉深度学习识别模型的识别效果。
发明内容
本发明提供了一种基于余弦中心损失的指静脉识别方法及系统,提供了一种可以较大程度的提取指静脉特征信息的卷积神经网络,可以大幅度提高指静脉识别系统的识别能力。
为解决现有技术的不足,提供一种可以较大程度的提取指静脉特征信息的卷积神经网络,并且在网络训练阶段使用所提出的基于余弦距离的指静脉识别方法及系统。
本发明的一个实施例提供了一种基于余弦中心损失的指静脉识别方法,包括如下步骤:
S100:获取待识别用户的指静脉原始图像;
S200:将指静脉原始图像进行预处理,提取经过预处理的图像ROI图像;
S300:通过基于余弦中心损失的卷积神经网络算法对所述ROI图像进行识别处理,以识别待识别用户的身份信息。
本发明的一个实施例还提供了一种基于余弦中心损失的指静脉识别系统,其包括依次连接的图像采集模块、图像预处理模块、图像识别模块和图像训练模块;
图像采集模块用于采集用户的指静脉原始图像;
图像预处理模块用于对用户的指静脉原始图像进行预处理;
图像识别模块用于识别用户的身份信息;
图像训练模块根据待训练用户的指静脉原始图像进行训练,得到训练参数。
本发明提供了一种基于余弦中心损失的指静脉识别方法及系统,提出并应用了基于余弦中心损失的卷积神经网络,具有如下有益效果:
1)通过该网络的使用,可以大幅度提高指静脉识别系统的识别能力。
2)本发明提出的基于余弦中心损失的卷积神经网络,通过结合余弦中心损失和softmax损失指导卷积神经网络的训练,提高了对指静脉的特征提取能力,提高了指静脉识别系统的安全性。
(3)本发明提出的基于余弦中心损失的卷积神经网络在提取指静脉的编码值作为特征值后,可以采用余弦距离对编码值进行分类,从而有效地简化了指静脉的识别流程。
附图说明
图1是本发明的基于余弦中心损失的指静脉识别方法的一个实施例的流程示意图。
图2是本发明的基于余弦中心损失的卷积神经网络模型的一个实施例的示意图。
图3是本发明的基于余弦中心损失的指静脉识别系统的一个实施例的示意图。
具体实施方式
为了更清楚地说明本发明实施例的目的、技术方案和优点更加清楚,下面将结合附图及实施例对本发明作进一步说明,进行清楚、完整的描述,显然,所描述的实施例是本发明的部分实施例,而不是全部实施例。基于本发明的实施例,本领域普通技术人员在没有付出创造性劳动的前提下所获得的所有其他实施例,都属于本发明的保护范围。
参考图1,在本发明的一个实施例中,基于余弦中心损失的指静脉识别方法,可以包括如下步骤:
S100:获取待识别用户的指静脉原始图像;
S200:将指静脉原始图像进行预处理,提取图像ROI图像;
S300:通过基于余弦中心损失的卷积神经网络算法对ROI图像进行识别处理,以识别待识别用户的身份信息。
在本发明的一个实施例中,对指静脉图像信息灰度化处理可以采用符合人眼特性的灰度化方法,如公式(1)所示,令:
G=0.299R+0.587G+0.114B (1);
其中,R、G、B为原始彩色输入图像的三通道值,G表示灰度化的图像。
其中对灰度化图像信息进行滤波降噪处理的过程中,可以采用高斯低通滤波来实现,如公式(2)所示,令:
Gσ=I*G (2);
其中,G表示灰度图像,Gσ表示经过高斯低通降噪后的图像,I表示使用的二维高斯核,σ表示标准差,x和y分别表示图像的横纵坐标。
其中,像素灰度值归一化,可以将每一个像素点的灰度值归一化为0到1之间,归一化方法为MAX-MIN方法,归一化公式(3)所示:
其中,Z(x,y)为每个像素点归一化后的灰度值,g(x,y)表示原图像的灰度值。其中,采用双线性插值法进行尺度归一化处理,遍历图像信息上的每一个像素点,在x,y方向上进行插值和调整进行尺度归一化处理,本实施例中图像尺寸大小归一化为48*144。
在本发明的一个实施例中,步骤S300可以进一步包括如下步骤:
S310:将预处理后的指静脉ROI图像输入卷积神经网络,以余弦中心损失和softmax 损失相结合得到的损失函数指导训练,得到训练后的卷积神经网络的网络权重参数;
S310:将预处理后的指静脉ROI图像输入卷积神经网络,以余弦中心损失和softmax 损失相结合作为训练指导进行训练,得到训练后的卷积神经网络的网络参数;
在本发明的一个实施例中,步骤S310中的训练方法具体可以为:
选取指静脉感兴趣区域(ROI)图像作为训练图像,将训练图像集合输入至基于余弦中心损失的卷积神经网络中训练,卷积神经网络的输入为指静脉图像,输出为图像的标签值;卷积神经网络由输入层,卷积层,最大池化层,全连接层和输出层组成,采用余弦中心损失和softmax损失相结合作为训练指标,训练卷积神经网络,,得到卷积神经网络的网络权重,完成训练后,选取卷积神经网络模型处理输入图像并得到分类结果。
卷积神经网络的损失函数由与余弦中心损失和softmax损失函数的组成。采用余弦中心损失函数减少指静脉图像的类内距离,使同一类的指静脉特征在特征空间内更靠近;同时采用softmax损失函数增大指静脉图像的类间距离,使不同类的指静脉特征在特征空间内更远离,统一训练卷积神经网络,完成训练后,选取卷积神经网络模型中处理输入图像,识别用户的指静脉信息。
在本发明的一个实施例中,假设卷积神经网络提取到的特征值为xi(即第yi类指静脉图像的第i个样本),卷积神经网络的权重为W,偏置为b(其中第i层的权重和偏置分别为Wi和bi),指静脉图像种类为N,批训练样本总数为n。则softmax损失函数如公式(4)所示:
传统的softmax损失函数专注于增大样本的类间距离,使得样本间的区分度更高,但忽视了样本的类内距离。余弦中心损失专注于减小样本的类内距离,进一步提高模型提取指静脉特征的能力。
在本发明的一个实施例中,假设样本中心向量为c, 为第yi类指静脉图像,样本特征向量为f,fi表示第i个样本的特征向量。为了简化计算,这里将表示正则化后的向量v,余弦中心损失为:
其中θi为第i个样本的中心向量与特征向量的夹角。
当夹角θi范围为[0,π]时,cosθi与θi的值有一一对应的关系。因此中心向量与特征向量的夹角θi也能用于衡量两向量间的距离。事实上,cosθi的值越大,夹角θi的值越小,中心向量与特征向量越相似。而在神经网络优化过程中,需要得到的是损失函数的最小值,因此,在设计余弦中心损失的损失函数时,采用两个向量间的夹角来代替余弦值,作为优化目标。对于样本i,其余弦损失可以表示为:
余弦损失Lac相对于特征向量的偏导为:
其中夹角的范围为[0,π],结合公式(7)和(8),
中心向量的更新策略为:
当yi=j时δ(yi=j)=1,否则δ(yi=j)=0。
余弦中心损失的主要作用是指导卷积神经网络的特征提取能力,减少类内距离,使得同一类样本的特征在特征空间里的分布更为紧凑。同时为了更好的区分不同类的样本, softmax损失同样也得引入训练过程中,用以使得不同类样本的特征在特征空间的分布更稀疏。
因此,在本发明的一个实施例中,总的损失函数可以为余弦中心损失与softmax损失的和,如公式(11)所示:
L=Ls+λLac (11)
λ的取值范围可以为全体实数,一般用于平衡两种损失,使得二者能更好的发挥各自的作用。
如表1所示,在本发明的一个实施例中,卷积神经网络由输入层,卷积层,最大池化层,全连接层和输出层组成:
第一层输入层,输入层大小即为指静脉图像大小,48x144x1;
第二层为卷积层,卷积核大小为3×3,步长大小为2,输出32个特征图;
第三层为卷积层,卷积核大小为3×3,步长大小为2,输出32个特征图;
第四层为卷积层,卷积核大小为3×3,步长大小为2,输出32个特征图;
第五层是最大池化层,核大小为2×2,步长大小为2,输出32个特征图;
第六层为卷积层,卷积核大小为3×3,步长大小为2,输出64个特征图;
第七层为卷积层,卷积核大小为3×3,步长大小为2,输出64个特征图;
第八层是最大池化层,核大小为2×2,步长大小为2,输出64个特征图;
第九层是卷积层,卷积核大小为3×3,步长大小为2,输出128个特征图;
第十层是卷积层,卷积核大小为3×3,步长大小为2,输出128个特征图;
第十一层是卷积层,卷积核大小为3×3,步长大小为2,输出128个特征图;
第十二层是最大池化层,核大小为2×2,步长大小为2,输出128个特征图;
连接到节点个数为128的全连接层;输出层节点个数由待识别用户数决定。在训练过程中采用随机丢弃50%节点的方法防止神经网络过拟合。
表1:提出的卷积神经网络模型
注:N:待识别用户数
为了证明该方法的优越性,本实施例比较了传统纹理特征提取方法:基于Gabor滤波器和2DPCA的方法、基于滑动窗口滤波的方法,基于双重滑动窗口滤波方法的性能以及采用基于softmax损失函数的卷积神经网络方法(神经网络结构如表1所示)等方案的结果。在马来西亚指静脉图像公开数据库FV_USM和山东大学大学指静脉数据库 SDUMLA上进行实验,结果如表2所示。
表2.等误率对比
在FV_USM指静脉数据库上,基于Gabor滤波器和2DPCA的融合识别结果等误率为5.72%,基于滑动窗口滤波识别结果等误率为2.69%,基于双重滑动窗口滤波识别结果等误率为2.32%,在同一卷积神经网络结构下,使用基于softmax损失函数识别结果等误率为0.38%,使用本实施例提取特征识别等误率为0.29%。在SDUMLA指静脉数据库中,基于Gabor滤波器和2DPCA的融合识别结果等误率为3.63%,基于滑动窗口滤波识别结果等误率为2.77%,基于双重滑动窗口滤波识别结果等误率为1.59%,在同一卷积神经网络结构下,使用基于softmax损失函数识别结果等误率为2.17%,使用本实施例提取特征识别等误率为2.04%。本实例方法中提取的特征更能表达指静脉根本信息。所以使用本实例方法提取指静脉图像特征更加有效。
S320:采用训练后的卷积神经网络处理所述指静脉ROI图像,以识别待识别用户的身份信息。
参考图3,在本发明的一个实施例中,基于余弦中心损失的指静脉识别系统,可以包括依次连接的图像采集模块、图像预处理模块、图像识别模块和图像训练模块;
图像采集模块用于采集用户的指静脉原始图像;
图像预处理模块用于对用户的指静脉原始图像进行预处理;
图像识别模块用于识别用户的身份信息;
图像训练模块根据待训练用户的指静脉原始图像进行训练,得到训练参数。
进一步的,参考图3,在本发明的一个实施例中,图像预处理模块包括依次连接的灰度化单元、降噪单元、ROI单元以及归一化单元,其中,
灰度化单元用于对用户指静脉原始图像进行灰度化;
降噪单元用于对灰度化后的指静脉图像进行高斯低通滤波去除噪声干扰;
ROI单元使用边缘检测算子进行边缘检测获取边缘检测图像中手指边缘区域,以确定手指图像位置,即提取指静脉感兴趣区域(ROI)图像;
归一化单元采用MAX-MIN方法对所提取的指静脉感兴趣区域图像进行像素归一化处理,处理后每个像素点的像素在[0,1]范围;并采用双线性插值法对像素归一化后图像信息的图像尺寸进行归一化处理,处理后的图像尺寸大小相同,方便下一步处理。
进一步的,在本发明的一个实施例中,图像训练模块可以为基于余弦中心损失的卷积神经网络模型,包括:
图像获取单元:用于获取用户的指静脉图像信息;
图像预处理单元:对用户的指静脉图像信息进行图像预处理,获取预处理后的ROI图像;
识别单元:对预处理后待识别图像信息输入卷积神经网络进行训练,采用余弦中心损失函数和softmax损失函数指导卷积神经网络训练过程,得到训练后的卷积神经网络的网络参数,采用训练后的卷积神经网络处理输入图像并识别。
进一步的,在本发明的一个实施例中,卷积神经网络包括输入层、卷积层、全连接层和输出层,损失函数为余弦中心损失和softmax损失。
本发明的实施例提出基于余弦中心损失卷积神经网络的指静脉识别方法,同时使用两个数据库中的图像进行训练,在两个数据库上的识别率都比传统方法的识别率要高,证明了该方法确实可以获得更好的识别性能,对于不同场景采集的数据库依然适用。

Claims (10)

1.一种基于余弦中心损失的指静脉识别方法,其特征在于,包括如下步骤:
S100:获取待识别用户的指静脉原始图像;
S200:将所述指静脉原始图像进行预处理,并提取经过预处理的指静脉图像的ROI图像;
S300:通过基于余弦中心损失的卷积神经网络算法对所述ROI图像进行识别处理,以识别待识别用户的身份信息。
2.根据权利要求1的指静脉识别方法,其特征在于,步骤S300进一步包括如下步骤:
S310:将预处理后的指静脉ROI图像输入卷积神经网络,以余弦中心损失和softmax损失相结合得到的损失函数指导训练,得到训练后的卷积神经网络的网络权重参数;
S320:采用训练后的卷积神经网络处理所述指静脉ROI图像,以识别待识别用户的身份信息。
3.根据权利要求2所述的方法,其特征在于,所述步骤S310中的训练方法具体为:
选取所述指静脉ROI图像作为训练图像,将训练图像输入至所述基于余弦中心损失的卷积神经网络中训练,训练过程中,卷积神经网络的输入为训练图像,输出为训练图像的标签值;卷积神经网络由输入层,卷积层,最大池化层,全连接层和输出层组成,采用余弦中心损失和softmax损失相结合得到的损失函数作为训练指标,训练卷积神经网络,得到卷积神经网络的网络权重参数,完成训练后,通过卷积神经网络模型处理输入图像并得到输入图像的分类结果。
4.根据权利要求3所述的方法,其特征在于,假设卷积神经网络提取到的特征值为xi(即第yi类指静脉图像的第i个样本),卷积神经网络的权重为W,偏置为b(其中第i层的权重和偏置分别为Wi和bi),指静脉图像种类为N,批训练样本总数为n,则所述softmax损失函数如公司(4)所示:
假设样本中心向量为c, 为第yi类指静脉图像,样本特征向量为f,fi表示第i个样本的特征向量,为简化计算,将表示正则化后的向量v,余弦中心损失如公式(5)所示:
其中θi为第i个样本的中心向量与特征向量的夹角,其计算公式为(6)
5.根据权利要求4所述的方法,其特征在于,余弦中心损失计算公式中,采用两个向量间的夹角来代替余弦值,作为优化目标,对于样本i,其余弦损失表示如公式(7)所示:
其中夹角θi的范围为[0,π]。
6.根据权利要求4或5所述的方法,其特征在于,中心向量的更新策略如公式(10)所示:
当yi=j时δ(yi=j)=1,否则δ(yi=j)=0。
7.根据权利要求4或5所述的方法,其特征在于,总的损失函数为余弦中心损失与softmax损失的和,如公式(11)所示:
L=Ls+λLac (11)
λ的取值范围为任意实数。
8.一种基于余弦中心损失的指静脉识别系统,其特征在于,包括依次连接的图像采集模块、图像预处理模块、图像识别模块和图像训练模块;
所述图像采集模块用于采集用户的指静脉原始图像;
所述图像预处理模块用于对所述用户的指静脉原始图像进行预处理;
所述图像识别模块用于识别用户的身份信息;
所述图像训练模块根据待训练用户的指静脉原始图像进行训练,得到训练参数。
9.根据权利要求8所述的系统,其特征在于,所述图像预处理模块包括依次连接的灰度化单元、降噪单元、ROI单元以及归一化单元,其中,
所述灰度化单元用于对用户指静脉原始图像进行灰度化;
所述降噪单元用于对灰度化后的指静脉图像进行高斯低通滤波去除噪声干扰;
所述ROI单元使用边缘检测算子进行边缘检测获取边缘检测图像中手指边缘区域,以确定手指图像位置,即提取指静脉ROI图像;
所述归一化单元采用MAX-MIN方法对所提取的指静脉感兴趣区域图像进行像素归一化处理,处理后每个像素点的像素在[0,1]范围;并采用双线性插值法对像素归一化后图像信息的图像尺寸进行归一化处理,处理后的图像尺寸大小相同,方便下一步处理。
10.根据权利要求8所述的系统,其特征在于,所述图像训练模块为基于余弦中心损失的卷积神经网络模型,包括:
图像获取单元:用于获取所有用户的指静脉图像信息;
图像预处理单元:对所述所有用户的指静脉图像信息进行图像预处理,获取预处理后的ROI图像;
识别单元:对所述预处理后待识别图像信息输入卷积神经网络进行训练,采用余弦中心损失函数和softmax损失函数指导卷积神经网络训练过程,得到训练后的卷积神经网络的网络参数,采用训练后的卷积神经网络处理输入图像并识别。
CN201910627806.6A 2019-07-12 2019-07-12 一种基于余弦中心损失的指静脉识别方法及系统 Pending CN110390282A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910627806.6A CN110390282A (zh) 2019-07-12 2019-07-12 一种基于余弦中心损失的指静脉识别方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910627806.6A CN110390282A (zh) 2019-07-12 2019-07-12 一种基于余弦中心损失的指静脉识别方法及系统

Publications (1)

Publication Number Publication Date
CN110390282A true CN110390282A (zh) 2019-10-29

Family

ID=68286510

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910627806.6A Pending CN110390282A (zh) 2019-07-12 2019-07-12 一种基于余弦中心损失的指静脉识别方法及系统

Country Status (1)

Country Link
CN (1) CN110390282A (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111428643A (zh) * 2020-03-25 2020-07-17 智慧眼科技股份有限公司 指静脉图像识别方法、装置、计算机设备及存储介质
CN111914616A (zh) * 2020-06-05 2020-11-10 华南理工大学 指静脉识别与防伪一体化方法、装置、存储介质和设备
CN111931758A (zh) * 2020-10-19 2020-11-13 北京圣点云信息技术有限公司 一种结合面部静脉的人脸识别方法及装置
CN112560710A (zh) * 2020-12-18 2021-03-26 北京曙光易通技术有限公司 一种用于构建指静脉识别系统的方法及指静脉识别系统
CN113469143A (zh) * 2021-08-16 2021-10-01 西南科技大学 一种基于神经网络学习的手指静脉图像识别方法
CN114239649A (zh) * 2021-07-15 2022-03-25 电子科技大学 面向可穿戴设备光电容积脉搏波信号发现和识别新用户的身份识别方法
CN114636995A (zh) * 2022-03-16 2022-06-17 中国水产科学研究院珠江水产研究所 一种基于深度学习的水声信号检测方法及系统
WO2022126220A1 (pt) * 2020-12-18 2022-06-23 Neuralmind Inteligencia Artificial Sa Método e sistema de reconhecimento de imagem, método de treinamento e método de autenticação biométrica

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108009520A (zh) * 2017-12-21 2018-05-08 东南大学 一种基于卷积变分自编码器神经网络的手指静脉识别方法及系统
CN108573243A (zh) * 2018-04-27 2018-09-25 上海敏识网络科技有限公司 一种基于深度卷积神经网络的低质量人脸的比对方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108009520A (zh) * 2017-12-21 2018-05-08 东南大学 一种基于卷积变分自编码器神经网络的手指静脉识别方法及系统
CN108573243A (zh) * 2018-04-27 2018-09-25 上海敏识网络科技有限公司 一种基于深度卷积神经网络的低质量人脸的比对方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
JIANKANG DENG等: "ArcFace: Additive Angular Margin Loss for Deep Face Recognition", 《JOURNAL OF LATEX CLASS FILES》 *
YANDONG WEN等: "A Discriminative Feature Learning Approach for Deep Face Recognition", 《SPRINGER》 *

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111428643A (zh) * 2020-03-25 2020-07-17 智慧眼科技股份有限公司 指静脉图像识别方法、装置、计算机设备及存储介质
CN111914616A (zh) * 2020-06-05 2020-11-10 华南理工大学 指静脉识别与防伪一体化方法、装置、存储介质和设备
CN111914616B (zh) * 2020-06-05 2024-04-16 华南理工大学 指静脉识别与防伪一体化方法、装置、存储介质和设备
CN111931758A (zh) * 2020-10-19 2020-11-13 北京圣点云信息技术有限公司 一种结合面部静脉的人脸识别方法及装置
CN111931758B (zh) * 2020-10-19 2021-01-05 北京圣点云信息技术有限公司 一种结合面部静脉的人脸识别方法及装置
CN112560710A (zh) * 2020-12-18 2021-03-26 北京曙光易通技术有限公司 一种用于构建指静脉识别系统的方法及指静脉识别系统
WO2022126220A1 (pt) * 2020-12-18 2022-06-23 Neuralmind Inteligencia Artificial Sa Método e sistema de reconhecimento de imagem, método de treinamento e método de autenticação biométrica
CN112560710B (zh) * 2020-12-18 2024-03-01 北京曙光易通技术有限公司 一种用于构建指静脉识别系统的方法及指静脉识别系统
CN114239649A (zh) * 2021-07-15 2022-03-25 电子科技大学 面向可穿戴设备光电容积脉搏波信号发现和识别新用户的身份识别方法
CN114239649B (zh) * 2021-07-15 2023-04-07 电子科技大学 面向可穿戴设备光电容积脉搏波信号发现和识别新用户的身份识别方法
CN113469143A (zh) * 2021-08-16 2021-10-01 西南科技大学 一种基于神经网络学习的手指静脉图像识别方法
CN114636995A (zh) * 2022-03-16 2022-06-17 中国水产科学研究院珠江水产研究所 一种基于深度学习的水声信号检测方法及系统

Similar Documents

Publication Publication Date Title
CN110390282A (zh) 一种基于余弦中心损失的指静脉识别方法及系统
Yuan et al. Fingerprint liveness detection using an improved CNN with image scale equalization
CN106529468B (zh) 一种基于卷积神经网络的手指静脉识别方法及系统
CN108009520A (zh) 一种基于卷积变分自编码器神经网络的手指静脉识别方法及系统
CN104239769B (zh) 基于手指静脉特征的身份识别方法及系统
CN102542281B (zh) 非接触式生物特征识别方法和系统
CN104102913B (zh) 腕部静脉认证系统
CN106372611A (zh) 基于手掌静脉特征的身份识别方法、系统及图像采集装置
CN106022218A (zh) 一种基于小波变换和Gabor滤波器的掌纹掌静脉图像层融合方法
Zhang et al. Graph fusion for finger multimodal biometrics
CN109063572A (zh) 一种基于多尺度和多卷积层特征融合的指纹活性检测方法
CN107392114A (zh) 一种基于神经网络模型的手指静脉识别方法及系统
TW201211913A (en) A method for recognizing the identity of user by palm vein biometric
Zhong et al. Towards application of dorsal hand vein recognition under uncontrolled environment based on biometric graph matching
CN105760841A (zh) 一种身份识别方法及系统
CN111914616A (zh) 指静脉识别与防伪一体化方法、装置、存储介质和设备
Meng et al. Finger vein recognition based on convolutional neural network
CN113537111A (zh) 基于双支路深度卷积网络的虹膜分割方法
CN108182399A (zh) 指静脉特征比对方法、装置、存储介质和处理器
CN110147769B (zh) 一种手指静脉图像匹配方法
Liu et al. MMRAN: A novel model for finger vein recognition based on a residual attention mechanism: MMRAN: A novel finger vein recognition model
CN107944366A (zh) 一种基于属性学习的手指静脉识别方法及装置
Guo et al. Multifeature extracting CNN with concatenation for image denoising
Albadarneh et al. Iris recognition system for secure authentication based on texture and shape features
CN106295622A (zh) 一种基于手背静脉的识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20191029

RJ01 Rejection of invention patent application after publication