CN111008550A - 基于Multiple loss损失函数的指静脉验证身份的识别方法 - Google Patents
基于Multiple loss损失函数的指静脉验证身份的识别方法 Download PDFInfo
- Publication number
- CN111008550A CN111008550A CN201910840842.0A CN201910840842A CN111008550A CN 111008550 A CN111008550 A CN 111008550A CN 201910840842 A CN201910840842 A CN 201910840842A CN 111008550 A CN111008550 A CN 111008550A
- Authority
- CN
- China
- Prior art keywords
- finger vein
- loss function
- distance
- multiple loss
- sample
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 210000003462 vein Anatomy 0.000 title claims abstract description 76
- 238000000034 method Methods 0.000 title claims abstract description 45
- 239000013598 vector Substances 0.000 claims abstract description 13
- 238000005457 optimization Methods 0.000 claims description 6
- 230000006870 function Effects 0.000 description 27
- 238000013135 deep learning Methods 0.000 description 5
- 239000011159 matrix material Substances 0.000 description 3
- 238000007635 classification algorithm Methods 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 238000012797 qualification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/14—Vascular patterns
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Collating Specific Patterns (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
本发明涉及生物识别技术,尤其涉及一种指静脉验证身份的识别方法。一种基于Multiple loss损失函数的指静脉验证身份的识别方法,具体步骤为:采集至少二人的指静脉样本图像,每个手指至少采集两个的图像;将采集到的静脉样本图像分为三组:锚点组:取识别对象的指静脉图像做为锚点、positive组:取与识别对象同一人的另外一张指静脉图像为正样本组、negative组:取与识别对象不同人的一张指静脉图像为负样本组;以上三组数据放入深度残差网络中进行训练,使用Multiple loss得到embeddings向量;计算两两embeddings的欧式距离,距离近的为同一人,距离远的为不同人。本发明能快速和精准地识别个人身份,并将其应用于静脉识别系统中,体形小巧、界面友好、价格适宜。
Description
技术领域
本发明涉及生物识别技术,尤其涉及一种指静脉验证身份的识别方法。
背景技术
传统的身份鉴定方法包括身份标识物品(如钥匙、证件、ATM卡等)和身份标识(如用户名和密码)但由于主要借助体外物,一旦证明身份的标识物品和标识被盗或遗忘,其身份就容易被他人冒充或取代。生物识别技术比传统的身份鉴定方法更具安全、保密和方便性。生物特征识别技术具不易遗忘、防伪性能好、不易伪造或被盗、随身“携带”和随时随地可用等优点。光传播技术可以确保能够拍摄到高对比度的手指静脉影像,而不受皮肤表面的褶皱、纹理、粗糙度、干湿度等任何缺陷和瑕疵的影响。由于手指静脉图样对比只需要少量的生物统计学数据,所以开发出世界上最为快速和精准的个人身份识别系统,并将其在体形小巧、界面友好、价格适宜的个人身份识别装置中得以有效应用。
指静脉识别技术利用手指静脉血管的纹理进行身份验证,对人体无害,具有不易被盗取、伪造等特点。该识别技术可广泛应用于银行金融、政府国安、教育社保等领域的门禁系统。2013年度全国专业技术人员职称外语等级统一考试全面推广应用指静脉识别技术。2013年的报考者除须提交相关的资料信息外,省直考区在资格审查时将采用指静脉识别技术进行个人指静脉信息采集。然而,指静脉识别方法在实践中还有很多需要改进的地方,从而得到一个可以接受的错误率。
目前市场上常用的深度学习识别方案,大体有以下几种:
多分类算法:即通过深度学习训练来对训练的图片进行分类,如:找10个人指静脉图片来做分类,来识别身份。
二分类算法:即通过深度学习中的maxsoft损失函数,生成一个概率,用概率的大小来识别身份。
上述方法,对于全球75.94亿人口来讲,一是不可能采集所有人的指静脉图片,做75.94亿的分类。二是通过概率没有办法准确判断75.94亿人的身份。
发明内容
本发明旨在克服现有技术的缺陷,提供一种基于Multiple loss损失函数的指静脉验证身份的识别方法。本发明能快速和精准地识别个人身份,并将其应用于静脉识别系统中,体形小巧、界面友好、价格适宜。
一种基于Multiple loss损失函数的指静脉验证身份的识别方法,具体步骤为:
1)采集至少二人的指静脉样本图像,每个手指至少采集两个的图像;
2)将采集到的静脉样本图像分为三组:锚点组:取识别对象的指静脉图像做为锚点、positive组:取与识别对象同一人的另外一张指静脉图像为正样本组、 negative组:取与识别对象不同人的一张指静脉图像为负样本组;
3)以上三组数据放入深度残差网络中进行训练,使用Multiple loss得到embeddings向量;
4)计算两两embeddings的欧式距离,距离近的为同一人,距离远的为不同人。
所述的基于Multiple loss损失函数的指静脉验证身份的识别方法,所述3)中使用Multiple loss学到的是一个好的embedding,相似的图像在embedding空间里是相近的,判断是否是同一人。
所述的基于Multiple loss损失函数的指静脉验证身份的识别方法,所述3)向深度残差网络输入一个三元组<a,p,n>;a点,p:正样本,与a是同一类别的样本, n:负样本,与a是不同类别的样本。
所述的基于Multiple loss损失函数的指静脉验证身份的识别方法,所述4)采用公式为:L=max(d(a,p)-d(a,n))+margin,0),最终的优化目标是拉近a,p的距离,拉远a,n的距离,easy multiples:L=0即d(a,p)+margin<d(a,n),情况不需要优化,天然a,p的距离近,a,n的距离远hard multiples:d(a,n)<d(a,p),即a,p的距离远semi-hardmultiples:d(a,p)<d(a,n)<d(a,p)<d(a,p)+margin,即a,n的距离靠的近,但是有一个margin,上述模型中是随机选取semi-hard multiples和/或hard multiples进行训练。
所述的基于Multiple loss损失函数的指静脉验证身份的识别方法,所述3)采取的训练方法为:从训练集中抽取B个样本,然后计算B个embeddings,可以产生B3个multiples,其中包括非法的数据。
所述基于Multiple loss损失函数的指静脉验证身份的识别方法,它还包括使用策略:Batch All:计算batch_size中所有合法的hard multiple和semi-hard multiple,然后取t平均得到Loss。
所述的基于Multiple loss损失函数的指静脉验证身份的识别方法,它还包括计算valid mask,labels[i]==labels[j]和labels[i]!=labels[k]。
所述的基于Multiple loss损失函数的指静脉验证身份的识别方法,它进一步包括计算multipleloss=anchorpositivedist-anchornegative_dist+margin。
为了解决上述技术问题,本发明是通过特殊设计的Multiple loss损失函数来为每一张指静脉图片生成一个128维向量,通过计算向量之间的距离,来识别身份。有效提高了身份识别的准确度。
本发明本发明是通过特殊设计的Multiple loss损失函数来为每一张指静脉图片生成一个128维向量,通过计算向量之间的距离,来识别身份。有效提高了身份识别的准确度。利用本发明的方法的指静脉验证身份的识别系统,体型小巧,界面友好,价格适宜。
附图说明
图1是本发明的基本原理图;
图2是所述指静脉图像样本分组及深度学习示意图;
图3至图7是所述训练情况示意图。
具体实施方式
如图1和图2所示,一种基于Multiple loss损失函数的指静脉验证身份的识别方法,具体步骤为:
1)采集至少二人的指静脉样本图像,每个手指至少采集两个的图像;为了达到较好的学习效果,采集人数为1000人,每个手指采集4个图像。
2)将采集到的静脉样本图像分为三组:锚点组:取识别对象的指静脉图像做为锚点、positive组:取与识别对象同一人的另外一张指静脉图像为正样本组、negative组:取与识别对象不同人的一张指静脉图像为负样本组;
通过深度学习,针对三元组中的每个元素(样本),训练一个参数共享或者不共享的网络,得到三个元素的特征表达,分别记为:
让锚点和正样本特征表达之间的距离尽可能小,而正样本和负样本的特征表达之间的距离尽可能大,并且要让锚点与正样本之间的距离和锚点与负样本之间的距离之间有一个最小的间隔:α。公式化的表示就是:
Multiple loss的梯度推导:
3)以上三组数据放入深度残差网络中进行训练,使用Multiple loss得到embeddings 向量;计算两两embeddings的距离
输入大小是(batchsize,vectorsize)大小的embeddings向量
因为(a-b)2=a2-2ab+b2矩阵相乘embeddings×embeddingsT包含a*b的值,对象线上是向量平方的值,所以可以直接使用矩阵计算
计算valid mask
上面得到了(batchsize,batchsize)大小的距离矩阵,然后就可以计算所有embeddings组成的三元组<i,j,k>损失,计算一个3D的mask,然后乘上得到的(batchsize,batchsize,batch_size) 的所有三元组的损失即可,i,j,k不相等,labels[i]==labels[j]and labels[i]!=labels[k]。
计算multiple loss
multipleloss=anchorpositivedist-anchornegative_dist+margin可以得到所有(i,j,k)的multiple loss
Batch Hard
因为最后只有PK个multiple,从positive中选择距离最大的,从negative中选择距离最小的即可
计算positive mask
满足a!=p and a,p label一致,之后用mask乘上计算的pairwice_distances,然后取每行最大值即为每个样本对应positive的最大距离
计算negative mask
只需[a,n]对应的labels不一致即可
batch hard loss
计算最大positive距离时直接取valid的每一行的最大值,计算最小negative距离时不能直接取每一行的最小值,因为invalid位置的值为0,所以可以在invalid位置加上每一行的最大值,然后就可以取每一行的最小值了。
model_fn函数
4)计算两两embeddings的欧式距离,距离近的为同一人,距离远的为不同人。
所述的基于Multiple loss损失函数的指静脉验证身份的识别方法,所述3)中使用Multiple loss学到的是一个好的embedding,相似的图像在embedding空间里是相近的,判断是否是同一人。
所述的基于Multiple loss损失函数的指静脉验证身份的识别方法,所述3)向深度残差网络输入一个三元组<a,p,n>;a点,p:正样本,与a是同一类别的样本, n:负样本,与a是不同类别的样本。
所述的基于Multiple loss损失函数的指静脉验证身份的识别方法,所述4)采用公式为:L=max(d(a,p)-d(a,n))+margin,0),最终的优化目标是拉近a,p的距离,拉远a,n的距离,easy multiples:L=0即d(a,p)+margin<d(a,n),情况不需要优化,天然a,p的距离近,a,n的距离远hard multiples:d(a,n)<d(a,p),即a,p的距离远semi-hardmultiples:d(a,p)<d(a,n)<d(a,p)<d(a,p)+margin,即a,n的距离靠的近,但是有一个margin,上述模型中是随机选取semi-hard multiples和/或hard multiples进行训练。
所述的基于Multiple loss损失函数的指静脉验证身份的识别方法,所述3)采取的训练方法为:从训练集中抽取B个样本,然后计算B个embeddings,可以产生B3个multiples,其中包括非法的数据。
所述基于Multiple loss损失函数的指静脉验证身份的识别方法,它还包括使用策略:Batch All:计算batch_size中所有合法的hard multiple和semi-hard multiple,然后取t平均得到Loss。
所述的基于Multiple loss损失函数的指静脉验证身份的识别方法,它还包括计算valid mask,labels[i]==labels[j]和labels[i]!=labels[k]。
所述的基于Multiple loss损失函数的指静脉验证身份的识别方法,它进一步包括计算multipleloss=anchorpositivedist-anchornegative_dist+margin。
为了解决上述技术问题,本发明是通过特殊设计的Multiple loss损失函数来为每一张指静脉图片生成一个128维向量,通过计算向量之间的距离,来识别身份。有效提高了身份识别的准确度。
Claims (10)
1.一种基于Multiple loss损失函数的指静脉验证身份的识别方法,具体步骤为:
1)采集至少二人的指静脉样本图像,每个手指至少采集两个的图像;
2)将采集到的静脉样本图像分为三组:锚点组:取识别对象的指静脉图像做为锚点、positive组:取与识别对象同一人的另外一张指静脉图像为正样本组、negative组:取与识别对象不同人的一张指静脉图像为负样本组;
3)以上三组数据放入深度残差网络中进行训练,使用Multiple loss得到embeddings向量;
4)计算两两embeddings的欧式距离,距离近的为同一人,距离远的为不同人。
2.如权利要求1所述的基于Multiple loss损失函数的指静脉验证身份的识别方法,其特征在于,所述3)中使用Multiple loss学到的是一个好的embedding,相似的图像在embedding空间里是相近的,判断是否是同一人。
3.如权利要求1所述的基于Multiple loss损失函数的指静脉验证身份的识别方法,其特征在于,所述3)向深度残差网络输入一个三元组<a,p,n>;a点,p:正样本,与a是同一类别的样本,n:负样本,与a是不同类别的样本。
4.如权利要求1所述的基于Multiple loss损失函数的指静脉验证身份的识别方法,其特征在于,所述4)采用公式为:L=max(d(a,p)-d(a,n))+margin,0),最终的优化目标是拉近a,p的距离,拉远a,n的距离,easy multiples:L=0即d(a,p)+margin<d(a,n),情况不需要优化,天然a,p的距离近,a,n的距离远hard multiples:d(a,n)<d(a,p),即a,p的距离远semi-hard multiples:d(a,p)<d(a,n)<d(a,p)<d(a,p)+margin,即a,n的距离靠的近,但是有一个margin,上述模型中是随机选取semi-hard multiples和/或hard multiples进行训练。
5.如权利要求1所述的基于Multiple loss损失函数的指静脉验证身份的识别方法,其特征在于,所述3)采取的训练方法为:从训练集中抽取B个样本,然后计算B个embeddings,可以产生B3个multiples,其中包括非法的数据。
6.如权利要求5所述基于Multiple loss损失函数的指静脉验证身份的识别方法,其特征在于,它还包括使用策略:Batch All:计算batch_size中所有合法的hard multiple和semi-hard multiple,然后取t平均得到Loss。
8.如权利要求7所述的基于Multiple loss损失函数的指静脉验证身份的识别方法,其特征在于,它还包括计算valid mask,labels[i]==labels[j]和labels[i]!=labels[k]。
9.如权利要求8所述的基于Multiple loss损失函数的指静脉验证身份的识别方法,其特征在于,它进一步包括计算multipleloss=anchorpositivedist-anchornegative_dist+margin。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910840842.0A CN111008550A (zh) | 2019-09-06 | 2019-09-06 | 基于Multiple loss损失函数的指静脉验证身份的识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910840842.0A CN111008550A (zh) | 2019-09-06 | 2019-09-06 | 基于Multiple loss损失函数的指静脉验证身份的识别方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111008550A true CN111008550A (zh) | 2020-04-14 |
Family
ID=70111795
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910840842.0A Pending CN111008550A (zh) | 2019-09-06 | 2019-09-06 | 基于Multiple loss损失函数的指静脉验证身份的识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111008550A (zh) |
Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140355861A1 (en) * | 2011-08-25 | 2014-12-04 | Cornell University | Retinal encoder for machine vision |
WO2016023582A1 (en) * | 2014-08-13 | 2016-02-18 | Fondation De L'institut De Recherche Idiap | A method of detecting a falsified presentation to a vascular recognition system |
CN106991368A (zh) * | 2017-02-20 | 2017-07-28 | 北京大学 | 一种基于深度卷积神经网络的指静脉验证身份识别方法 |
CN107844784A (zh) * | 2017-12-08 | 2018-03-27 | 广东美的智能机器人有限公司 | 人脸识别方法、装置、计算机设备和可读存储介质 |
CN107977609A (zh) * | 2017-11-20 | 2018-05-01 | 华南理工大学 | 一种基于cnn的指静脉身份验证方法 |
CN108805078A (zh) * | 2018-06-11 | 2018-11-13 | 山东大学 | 基于行人平均状态的视频行人再识别方法及系统 |
CN109190446A (zh) * | 2018-07-06 | 2019-01-11 | 西北工业大学 | 基于三元组聚焦损失函数的行人再识别方法 |
WO2019024636A1 (zh) * | 2017-08-01 | 2019-02-07 | 广州广电运通金融电子股份有限公司 | 身份认证的方法、系统和装置 |
CN109635618A (zh) * | 2018-08-07 | 2019-04-16 | 南京航空航天大学 | 基于卷积神经网络的可见光图像静脉显像方法 |
CN109948587A (zh) * | 2019-03-29 | 2019-06-28 | 清华大学 | 基于高判别力特征挖掘的车辆再识别方法及装置 |
WO2019128367A1 (zh) * | 2017-12-26 | 2019-07-04 | 广州广电运通金融电子股份有限公司 | 基于Triplet Loss的人脸认证方法、装置、计算机设备和存储介质 |
WO2019146422A1 (ja) * | 2018-01-25 | 2019-08-01 | ソニー株式会社 | 情報処理装置、情報処理方法、プログラムおよびロボット |
CN110147732A (zh) * | 2019-04-16 | 2019-08-20 | 平安科技(深圳)有限公司 | 指静脉识别方法、装置、计算机设备及存储介质 |
-
2019
- 2019-09-06 CN CN201910840842.0A patent/CN111008550A/zh active Pending
Patent Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140355861A1 (en) * | 2011-08-25 | 2014-12-04 | Cornell University | Retinal encoder for machine vision |
WO2016023582A1 (en) * | 2014-08-13 | 2016-02-18 | Fondation De L'institut De Recherche Idiap | A method of detecting a falsified presentation to a vascular recognition system |
CN106991368A (zh) * | 2017-02-20 | 2017-07-28 | 北京大学 | 一种基于深度卷积神经网络的指静脉验证身份识别方法 |
WO2019024636A1 (zh) * | 2017-08-01 | 2019-02-07 | 广州广电运通金融电子股份有限公司 | 身份认证的方法、系统和装置 |
CN107977609A (zh) * | 2017-11-20 | 2018-05-01 | 华南理工大学 | 一种基于cnn的指静脉身份验证方法 |
CN107844784A (zh) * | 2017-12-08 | 2018-03-27 | 广东美的智能机器人有限公司 | 人脸识别方法、装置、计算机设备和可读存储介质 |
WO2019128367A1 (zh) * | 2017-12-26 | 2019-07-04 | 广州广电运通金融电子股份有限公司 | 基于Triplet Loss的人脸认证方法、装置、计算机设备和存储介质 |
WO2019146422A1 (ja) * | 2018-01-25 | 2019-08-01 | ソニー株式会社 | 情報処理装置、情報処理方法、プログラムおよびロボット |
CN108805078A (zh) * | 2018-06-11 | 2018-11-13 | 山东大学 | 基于行人平均状态的视频行人再识别方法及系统 |
CN109190446A (zh) * | 2018-07-06 | 2019-01-11 | 西北工业大学 | 基于三元组聚焦损失函数的行人再识别方法 |
CN109635618A (zh) * | 2018-08-07 | 2019-04-16 | 南京航空航天大学 | 基于卷积神经网络的可见光图像静脉显像方法 |
CN109948587A (zh) * | 2019-03-29 | 2019-06-28 | 清华大学 | 基于高判别力特征挖掘的车辆再识别方法及装置 |
CN110147732A (zh) * | 2019-04-16 | 2019-08-20 | 平安科技(深圳)有限公司 | 指静脉识别方法、装置、计算机设备及存储介质 |
Non-Patent Citations (5)
Title |
---|
HYUNG GIL HONG ET AL.: "Convolutional Neural Network-Based Finger-Vein Recognition Using NIR Image Sensors" * |
余成波;熊递恩;: "基于胶囊网络的指静脉识别研究", no. 10 * |
吴超;邵曦;: "基于深度学习的指静脉识别研究", no. 02 * |
杨云;张海宇;朱宇;张艳宁;: "类别信息生成式对抗网络的单图超分辨重建", no. 12 * |
莫失莫忘LAWLITE: "Triplet-Loss原理及其实现、应用", Retrieved from the Internet <URL:https://blog.csdn.net/u013082989/article/details/83537370> * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Galbally et al. | Iris image reconstruction from binary templates: An efficient probabilistic approach based on genetic algorithms | |
Yuan et al. | Deep residual network with adaptive learning framework for fingerprint liveness detection | |
CN107944356A (zh) | 综合多类型特征的层次主题模型掌纹图像识别的身份认证方法 | |
Mukhaiyar | Cancellable biometric using matrix approaches | |
Dass | Fingerprint‐Based Recognition | |
CN109145704A (zh) | 一种基于人脸属性的人脸画像识别方法 | |
Raut et al. | Biometric palm prints feature matching for person identification | |
TWI325568B (en) | A method for face varification | |
Diarra et al. | Study of deep learning methods for fingerprint recognition | |
Hegde et al. | Human authentication using finger knuckle print | |
Liu et al. | A novel high-resolution fingerprint representation method | |
Wangkeeree et al. | Finding a suitable threshold value for an iris-based authentication system | |
CN111008550A (zh) | 基于Multiple loss损失函数的指静脉验证身份的识别方法 | |
Essam et al. | Quaternion based on cancelable biometrics | |
Abdulla et al. | Exploring Human Biometrics: A Focus on Security Concerns and Deep Neural Networks | |
Kumar et al. | An Advance Approach of Face Recognition using PCA and Region Base Color Segmentation | |
Sonkar et al. | Cancelable iris biometric: A review | |
Palys et al. | Statistical analysis in signature recognition system based on Levenshtein distance | |
Alsellami et al. | Overview of Biometric Traits | |
Maheta | Cancelable Biometric Recognition Using Deep Learning Based ResNet50 Model | |
Yu et al. | Effect of Facial Shape Information Reflected on Learned Features in Face Spoofing Detection | |
Sutradhar et al. | Anti-Spoofing System for Face Detection Using Convolutional Neural Network Check for updates | |
Abidin et al. | Deepfake Detection in Videos Using Long Short-Term Memory and CNN ResNext | |
CN116524557B (zh) | 基于联邦学习的人脸伪造检测模型优化方法、装置及系统 | |
Dubey et al. | A review of face recognition using SIFT feature extraction |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20200414 |