CN111008550A - 基于Multiple loss损失函数的指静脉验证身份的识别方法 - Google Patents

基于Multiple loss损失函数的指静脉验证身份的识别方法 Download PDF

Info

Publication number
CN111008550A
CN111008550A CN201910840842.0A CN201910840842A CN111008550A CN 111008550 A CN111008550 A CN 111008550A CN 201910840842 A CN201910840842 A CN 201910840842A CN 111008550 A CN111008550 A CN 111008550A
Authority
CN
China
Prior art keywords
finger vein
loss function
distance
multiple loss
sample
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910840842.0A
Other languages
English (en)
Inventor
吴松
夏华东
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Xinling Technology Co ltd
Original Assignee
Shanghai Xinling Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Xinling Technology Co ltd filed Critical Shanghai Xinling Technology Co ltd
Priority to CN201910840842.0A priority Critical patent/CN111008550A/zh
Publication of CN111008550A publication Critical patent/CN111008550A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/14Vascular patterns

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Collating Specific Patterns (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

本发明涉及生物识别技术,尤其涉及一种指静脉验证身份的识别方法。一种基于Multiple loss损失函数的指静脉验证身份的识别方法,具体步骤为:采集至少二人的指静脉样本图像,每个手指至少采集两个的图像;将采集到的静脉样本图像分为三组:锚点组:取识别对象的指静脉图像做为锚点、positive组:取与识别对象同一人的另外一张指静脉图像为正样本组、negative组:取与识别对象不同人的一张指静脉图像为负样本组;以上三组数据放入深度残差网络中进行训练,使用Multiple loss得到embeddings向量;计算两两embeddings的欧式距离,距离近的为同一人,距离远的为不同人。本发明能快速和精准地识别个人身份,并将其应用于静脉识别系统中,体形小巧、界面友好、价格适宜。

Description

基于Multiple loss损失函数的指静脉验证身份的识别方法
技术领域
本发明涉及生物识别技术,尤其涉及一种指静脉验证身份的识别方法。
背景技术
传统的身份鉴定方法包括身份标识物品(如钥匙、证件、ATM卡等)和身份标识(如用户名和密码)但由于主要借助体外物,一旦证明身份的标识物品和标识被盗或遗忘,其身份就容易被他人冒充或取代。生物识别技术比传统的身份鉴定方法更具安全、保密和方便性。生物特征识别技术具不易遗忘、防伪性能好、不易伪造或被盗、随身“携带”和随时随地可用等优点。光传播技术可以确保能够拍摄到高对比度的手指静脉影像,而不受皮肤表面的褶皱、纹理、粗糙度、干湿度等任何缺陷和瑕疵的影响。由于手指静脉图样对比只需要少量的生物统计学数据,所以开发出世界上最为快速和精准的个人身份识别系统,并将其在体形小巧、界面友好、价格适宜的个人身份识别装置中得以有效应用。
指静脉识别技术利用手指静脉血管的纹理进行身份验证,对人体无害,具有不易被盗取、伪造等特点。该识别技术可广泛应用于银行金融、政府国安、教育社保等领域的门禁系统。2013年度全国专业技术人员职称外语等级统一考试全面推广应用指静脉识别技术。2013年的报考者除须提交相关的资料信息外,省直考区在资格审查时将采用指静脉识别技术进行个人指静脉信息采集。然而,指静脉识别方法在实践中还有很多需要改进的地方,从而得到一个可以接受的错误率。
目前市场上常用的深度学习识别方案,大体有以下几种:
多分类算法:即通过深度学习训练来对训练的图片进行分类,如:找10个人指静脉图片来做分类,来识别身份。
二分类算法:即通过深度学习中的maxsoft损失函数,生成一个概率,用概率的大小来识别身份。
上述方法,对于全球75.94亿人口来讲,一是不可能采集所有人的指静脉图片,做75.94亿的分类。二是通过概率没有办法准确判断75.94亿人的身份。
发明内容
本发明旨在克服现有技术的缺陷,提供一种基于Multiple loss损失函数的指静脉验证身份的识别方法。本发明能快速和精准地识别个人身份,并将其应用于静脉识别系统中,体形小巧、界面友好、价格适宜。
一种基于Multiple loss损失函数的指静脉验证身份的识别方法,具体步骤为:
1)采集至少二人的指静脉样本图像,每个手指至少采集两个的图像;
2)将采集到的静脉样本图像分为三组:锚点组:取识别对象的指静脉图像做为锚点、positive组:取与识别对象同一人的另外一张指静脉图像为正样本组、 negative组:取与识别对象不同人的一张指静脉图像为负样本组;
3)以上三组数据放入深度残差网络中进行训练,使用Multiple loss得到embeddings向量;
4)计算两两embeddings的欧式距离,距离近的为同一人,距离远的为不同人。
所述的基于Multiple loss损失函数的指静脉验证身份的识别方法,所述3)中使用Multiple loss学到的是一个好的embedding,相似的图像在embedding空间里是相近的,判断是否是同一人。
所述的基于Multiple loss损失函数的指静脉验证身份的识别方法,所述3)向深度残差网络输入一个三元组<a,p,n>;a点,p:正样本,与a是同一类别的样本, n:负样本,与a是不同类别的样本。
所述的基于Multiple loss损失函数的指静脉验证身份的识别方法,所述4)采用公式为:L=max(d(a,p)-d(a,n))+margin,0),最终的优化目标是拉近a,p的距离,拉远a,n的距离,easy multiples:L=0即d(a,p)+margin<d(a,n),情况不需要优化,天然a,p的距离近,a,n的距离远hard multiples:d(a,n)<d(a,p),即a,p的距离远semi-hardmultiples:d(a,p)<d(a,n)<d(a,p)<d(a,p)+margin,即a,n的距离靠的近,但是有一个margin,上述模型中是随机选取semi-hard multiples和/或hard multiples进行训练。
所述的基于Multiple loss损失函数的指静脉验证身份的识别方法,所述3)采取的训练方法为:从训练集中抽取B个样本,然后计算B个embeddings,可以产生B3个multiples,其中包括非法的数据。
所述基于Multiple loss损失函数的指静脉验证身份的识别方法,它还包括使用策略:Batch All:计算batch_size中所有合法的hard multiple和semi-hard multiple,然后取t平均得到Loss。
所述的基于Multiple loss损失函数的指静脉验证身份的识别方法,它进一步包括计算两两embeddings的距离:
Figure RE-GDA0002249164510000031
所述的基于Multiple loss损失函数的指静脉验证身份的识别方法,它还包括计算valid mask,labels[i]==labels[j]和labels[i]!=labels[k]。
所述的基于Multiple loss损失函数的指静脉验证身份的识别方法,它进一步包括计算multipleloss=anchorpositivedist-anchornegative_dist+margin。
所述的基于Multiple loss损失函数的指静脉验证身份的识别方法,所述计算embedding mean norm中每一行embedding公式为:
Figure RE-GDA0002249164510000032
为了解决上述技术问题,本发明是通过特殊设计的Multiple loss损失函数来为每一张指静脉图片生成一个128维向量,通过计算向量之间的距离,来识别身份。有效提高了身份识别的准确度。
本发明本发明是通过特殊设计的Multiple loss损失函数来为每一张指静脉图片生成一个128维向量,通过计算向量之间的距离,来识别身份。有效提高了身份识别的准确度。利用本发明的方法的指静脉验证身份的识别系统,体型小巧,界面友好,价格适宜。
附图说明
图1是本发明的基本原理图;
图2是所述指静脉图像样本分组及深度学习示意图;
图3至图7是所述训练情况示意图。
具体实施方式
如图1和图2所示,一种基于Multiple loss损失函数的指静脉验证身份的识别方法,具体步骤为:
1)采集至少二人的指静脉样本图像,每个手指至少采集两个的图像;为了达到较好的学习效果,采集人数为1000人,每个手指采集4个图像。
2)将采集到的静脉样本图像分为三组:锚点组:取识别对象的指静脉图像做为锚点、positive组:取与识别对象同一人的另外一张指静脉图像为正样本组、negative组:取与识别对象不同人的一张指静脉图像为负样本组;
通过深度学习,针对三元组中的每个元素(样本),训练一个参数共享或者不共享的网络,得到三个元素的特征表达,分别记为:
Figure RE-GDA0002249164510000041
让锚点和正样本特征表达之间的距离尽可能小,而正样本和负样本的特征表达之间的距离尽可能大,并且要让锚点与正样本之间的距离和锚点与负样本之间的距离之间有一个最小的间隔:α。公式化的表示就是:
Figure RE-GDA0002249164510000042
Figure RE-GDA0002249164510000043
Multiple loss的梯度推导:
Figure RE-GDA0002249164510000044
Figure RE-GDA0002249164510000045
Figure RE-GDA0002249164510000046
3)以上三组数据放入深度残差网络中进行训练,使用Multiple loss得到embeddings 向量;计算两两embeddings的距离
输入大小是(batchsize,vectorsize)大小的embeddings向量
因为(a-b)2=a2-2ab+b2矩阵相乘embeddings×embeddingsT包含a*b的值,对象线上是向量平方的值,所以可以直接使用矩阵计算
计算valid mask
上面得到了(batchsize,batchsize)大小的距离矩阵,然后就可以计算所有embeddings组成的三元组<i,j,k>损失,计算一个3D的mask,然后乘上得到的(batchsize,batchsize,batch_size) 的所有三元组的损失即可,i,j,k不相等,labels[i]==labels[j]and labels[i]!=labels[k]。
计算multiple loss
multipleloss=anchorpositivedist-anchornegative_dist+margin可以得到所有(i,j,k)的multiple loss
Batch Hard
因为最后只有PK个multiple,从positive中选择距离最大的,从negative中选择距离最小的即可
计算positive mask
满足a!=p and a,p label一致,之后用mask乘上计算的pairwice_distances,然后取每行最大值即为每个样本对应positive的最大距离
计算negative mask
只需[a,n]对应的labels不一致即可
batch hard loss
计算最大positive距离时直接取valid的每一行的最大值,计算最小negative距离时不能直接取每一行的最小值,因为invalid位置的值为0,所以可以在invalid位置加上每一行的最大值,然后就可以取每一行的最小值了。
model_fn函数
计算embeddingmeannorm中每一行embedding公式为:
Figure RE-GDA0002249164510000051
训练情况见图3-图7。
4)计算两两embeddings的欧式距离,距离近的为同一人,距离远的为不同人。
所述的基于Multiple loss损失函数的指静脉验证身份的识别方法,所述3)中使用Multiple loss学到的是一个好的embedding,相似的图像在embedding空间里是相近的,判断是否是同一人。
所述的基于Multiple loss损失函数的指静脉验证身份的识别方法,所述3)向深度残差网络输入一个三元组<a,p,n>;a点,p:正样本,与a是同一类别的样本, n:负样本,与a是不同类别的样本。
所述的基于Multiple loss损失函数的指静脉验证身份的识别方法,所述4)采用公式为:L=max(d(a,p)-d(a,n))+margin,0),最终的优化目标是拉近a,p的距离,拉远a,n的距离,easy multiples:L=0即d(a,p)+margin<d(a,n),情况不需要优化,天然a,p的距离近,a,n的距离远hard multiples:d(a,n)<d(a,p),即a,p的距离远semi-hardmultiples:d(a,p)<d(a,n)<d(a,p)<d(a,p)+margin,即a,n的距离靠的近,但是有一个margin,上述模型中是随机选取semi-hard multiples和/或hard multiples进行训练。
所述的基于Multiple loss损失函数的指静脉验证身份的识别方法,所述3)采取的训练方法为:从训练集中抽取B个样本,然后计算B个embeddings,可以产生B3个multiples,其中包括非法的数据。
所述基于Multiple loss损失函数的指静脉验证身份的识别方法,它还包括使用策略:Batch All:计算batch_size中所有合法的hard multiple和semi-hard multiple,然后取t平均得到Loss。
所述的基于Multiple loss损失函数的指静脉验证身份的识别方法,它进一步包括计算两两embeddings的距离:
Figure RE-GDA0002249164510000061
所述的基于Multiple loss损失函数的指静脉验证身份的识别方法,它还包括计算valid mask,labels[i]==labels[j]和labels[i]!=labels[k]。
所述的基于Multiple loss损失函数的指静脉验证身份的识别方法,它进一步包括计算multipleloss=anchorpositivedist-anchornegative_dist+margin。
所述的基于Multiple loss损失函数的指静脉验证身份的识别方法,所述计算embedding mean norm中每一行embedding公式为:
Figure RE-GDA0002249164510000062
为了解决上述技术问题,本发明是通过特殊设计的Multiple loss损失函数来为每一张指静脉图片生成一个128维向量,通过计算向量之间的距离,来识别身份。有效提高了身份识别的准确度。

Claims (10)

1.一种基于Multiple loss损失函数的指静脉验证身份的识别方法,具体步骤为:
1)采集至少二人的指静脉样本图像,每个手指至少采集两个的图像;
2)将采集到的静脉样本图像分为三组:锚点组:取识别对象的指静脉图像做为锚点、positive组:取与识别对象同一人的另外一张指静脉图像为正样本组、negative组:取与识别对象不同人的一张指静脉图像为负样本组;
3)以上三组数据放入深度残差网络中进行训练,使用Multiple loss得到embeddings向量;
4)计算两两embeddings的欧式距离,距离近的为同一人,距离远的为不同人。
2.如权利要求1所述的基于Multiple loss损失函数的指静脉验证身份的识别方法,其特征在于,所述3)中使用Multiple loss学到的是一个好的embedding,相似的图像在embedding空间里是相近的,判断是否是同一人。
3.如权利要求1所述的基于Multiple loss损失函数的指静脉验证身份的识别方法,其特征在于,所述3)向深度残差网络输入一个三元组<a,p,n>;a点,p:正样本,与a是同一类别的样本,n:负样本,与a是不同类别的样本。
4.如权利要求1所述的基于Multiple loss损失函数的指静脉验证身份的识别方法,其特征在于,所述4)采用公式为:L=max(d(a,p)-d(a,n))+margin,0),最终的优化目标是拉近a,p的距离,拉远a,n的距离,easy multiples:L=0即d(a,p)+margin<d(a,n),情况不需要优化,天然a,p的距离近,a,n的距离远hard multiples:d(a,n)<d(a,p),即a,p的距离远semi-hard multiples:d(a,p)<d(a,n)<d(a,p)<d(a,p)+margin,即a,n的距离靠的近,但是有一个margin,上述模型中是随机选取semi-hard multiples和/或hard multiples进行训练。
5.如权利要求1所述的基于Multiple loss损失函数的指静脉验证身份的识别方法,其特征在于,所述3)采取的训练方法为:从训练集中抽取B个样本,然后计算B个embeddings,可以产生B3个multiples,其中包括非法的数据。
6.如权利要求5所述基于Multiple loss损失函数的指静脉验证身份的识别方法,其特征在于,它还包括使用策略:Batch All:计算batch_size中所有合法的hard multiple和semi-hard multiple,然后取t平均得到Loss。
7.如权利要求6所述的基于Multiple loss损失函数的指静脉验证身份的识别方法,其特征在于,它进一步包括计算两两embeddings的距离:
Figure FDA0002193661180000021
8.如权利要求7所述的基于Multiple loss损失函数的指静脉验证身份的识别方法,其特征在于,它还包括计算valid mask,labels[i]==labels[j]和labels[i]!=labels[k]。
9.如权利要求8所述的基于Multiple loss损失函数的指静脉验证身份的识别方法,其特征在于,它进一步包括计算multipleloss=anchorpositivedist-anchornegative_dist+margin。
10.如权利要求7所述的基于Multiple loss损失函数的指静脉验证身份的识别方法,其特征在于,所述计算embedding mean norm中每一行embedding公式为:
Figure FDA0002193661180000022
CN201910840842.0A 2019-09-06 2019-09-06 基于Multiple loss损失函数的指静脉验证身份的识别方法 Pending CN111008550A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910840842.0A CN111008550A (zh) 2019-09-06 2019-09-06 基于Multiple loss损失函数的指静脉验证身份的识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910840842.0A CN111008550A (zh) 2019-09-06 2019-09-06 基于Multiple loss损失函数的指静脉验证身份的识别方法

Publications (1)

Publication Number Publication Date
CN111008550A true CN111008550A (zh) 2020-04-14

Family

ID=70111795

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910840842.0A Pending CN111008550A (zh) 2019-09-06 2019-09-06 基于Multiple loss损失函数的指静脉验证身份的识别方法

Country Status (1)

Country Link
CN (1) CN111008550A (zh)

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140355861A1 (en) * 2011-08-25 2014-12-04 Cornell University Retinal encoder for machine vision
WO2016023582A1 (en) * 2014-08-13 2016-02-18 Fondation De L'institut De Recherche Idiap A method of detecting a falsified presentation to a vascular recognition system
CN106991368A (zh) * 2017-02-20 2017-07-28 北京大学 一种基于深度卷积神经网络的指静脉验证身份识别方法
CN107844784A (zh) * 2017-12-08 2018-03-27 广东美的智能机器人有限公司 人脸识别方法、装置、计算机设备和可读存储介质
CN107977609A (zh) * 2017-11-20 2018-05-01 华南理工大学 一种基于cnn的指静脉身份验证方法
CN108805078A (zh) * 2018-06-11 2018-11-13 山东大学 基于行人平均状态的视频行人再识别方法及系统
CN109190446A (zh) * 2018-07-06 2019-01-11 西北工业大学 基于三元组聚焦损失函数的行人再识别方法
WO2019024636A1 (zh) * 2017-08-01 2019-02-07 广州广电运通金融电子股份有限公司 身份认证的方法、系统和装置
CN109635618A (zh) * 2018-08-07 2019-04-16 南京航空航天大学 基于卷积神经网络的可见光图像静脉显像方法
CN109948587A (zh) * 2019-03-29 2019-06-28 清华大学 基于高判别力特征挖掘的车辆再识别方法及装置
WO2019128367A1 (zh) * 2017-12-26 2019-07-04 广州广电运通金融电子股份有限公司 基于Triplet Loss的人脸认证方法、装置、计算机设备和存储介质
WO2019146422A1 (ja) * 2018-01-25 2019-08-01 ソニー株式会社 情報処理装置、情報処理方法、プログラムおよびロボット
CN110147732A (zh) * 2019-04-16 2019-08-20 平安科技(深圳)有限公司 指静脉识别方法、装置、计算机设备及存储介质

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140355861A1 (en) * 2011-08-25 2014-12-04 Cornell University Retinal encoder for machine vision
WO2016023582A1 (en) * 2014-08-13 2016-02-18 Fondation De L'institut De Recherche Idiap A method of detecting a falsified presentation to a vascular recognition system
CN106991368A (zh) * 2017-02-20 2017-07-28 北京大学 一种基于深度卷积神经网络的指静脉验证身份识别方法
WO2019024636A1 (zh) * 2017-08-01 2019-02-07 广州广电运通金融电子股份有限公司 身份认证的方法、系统和装置
CN107977609A (zh) * 2017-11-20 2018-05-01 华南理工大学 一种基于cnn的指静脉身份验证方法
CN107844784A (zh) * 2017-12-08 2018-03-27 广东美的智能机器人有限公司 人脸识别方法、装置、计算机设备和可读存储介质
WO2019128367A1 (zh) * 2017-12-26 2019-07-04 广州广电运通金融电子股份有限公司 基于Triplet Loss的人脸认证方法、装置、计算机设备和存储介质
WO2019146422A1 (ja) * 2018-01-25 2019-08-01 ソニー株式会社 情報処理装置、情報処理方法、プログラムおよびロボット
CN108805078A (zh) * 2018-06-11 2018-11-13 山东大学 基于行人平均状态的视频行人再识别方法及系统
CN109190446A (zh) * 2018-07-06 2019-01-11 西北工业大学 基于三元组聚焦损失函数的行人再识别方法
CN109635618A (zh) * 2018-08-07 2019-04-16 南京航空航天大学 基于卷积神经网络的可见光图像静脉显像方法
CN109948587A (zh) * 2019-03-29 2019-06-28 清华大学 基于高判别力特征挖掘的车辆再识别方法及装置
CN110147732A (zh) * 2019-04-16 2019-08-20 平安科技(深圳)有限公司 指静脉识别方法、装置、计算机设备及存储介质

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
HYUNG GIL HONG ET AL.: "Convolutional Neural Network-Based Finger-Vein Recognition Using NIR Image Sensors" *
余成波;熊递恩;: "基于胶囊网络的指静脉识别研究", no. 10 *
吴超;邵曦;: "基于深度学习的指静脉识别研究", no. 02 *
杨云;张海宇;朱宇;张艳宁;: "类别信息生成式对抗网络的单图超分辨重建", no. 12 *
莫失莫忘LAWLITE: "Triplet-Loss原理及其实现、应用", Retrieved from the Internet <URL:https://blog.csdn.net/u013082989/article/details/83537370> *

Similar Documents

Publication Publication Date Title
Galbally et al. Iris image reconstruction from binary templates: An efficient probabilistic approach based on genetic algorithms
Yuan et al. Deep residual network with adaptive learning framework for fingerprint liveness detection
CN107944356A (zh) 综合多类型特征的层次主题模型掌纹图像识别的身份认证方法
Mukhaiyar Cancellable biometric using matrix approaches
Dass Fingerprint‐Based Recognition
CN109145704A (zh) 一种基于人脸属性的人脸画像识别方法
Raut et al. Biometric palm prints feature matching for person identification
TWI325568B (en) A method for face varification
Diarra et al. Study of deep learning methods for fingerprint recognition
Hegde et al. Human authentication using finger knuckle print
Liu et al. A novel high-resolution fingerprint representation method
Wangkeeree et al. Finding a suitable threshold value for an iris-based authentication system
CN111008550A (zh) 基于Multiple loss损失函数的指静脉验证身份的识别方法
Essam et al. Quaternion based on cancelable biometrics
Abdulla et al. Exploring Human Biometrics: A Focus on Security Concerns and Deep Neural Networks
Kumar et al. An Advance Approach of Face Recognition using PCA and Region Base Color Segmentation
Sonkar et al. Cancelable iris biometric: A review
Palys et al. Statistical analysis in signature recognition system based on Levenshtein distance
Alsellami et al. Overview of Biometric Traits
Maheta Cancelable Biometric Recognition Using Deep Learning Based ResNet50 Model
Yu et al. Effect of Facial Shape Information Reflected on Learned Features in Face Spoofing Detection
Sutradhar et al. Anti-Spoofing System for Face Detection Using Convolutional Neural Network Check for updates
Abidin et al. Deepfake Detection in Videos Using Long Short-Term Memory and CNN ResNext
CN116524557B (zh) 基于联邦学习的人脸伪造检测模型优化方法、装置及系统
Dubey et al. A review of face recognition using SIFT feature extraction

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20200414