CN117496562A - 基于FV-MViT的指静脉识别方法、装置及相关介质 - Google Patents

基于FV-MViT的指静脉识别方法、装置及相关介质 Download PDF

Info

Publication number
CN117496562A
CN117496562A CN202410000951.2A CN202410000951A CN117496562A CN 117496562 A CN117496562 A CN 117496562A CN 202410000951 A CN202410000951 A CN 202410000951A CN 117496562 A CN117496562 A CN 117496562A
Authority
CN
China
Prior art keywords
finger vein
image
vein recognition
mini
convolution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202410000951.2A
Other languages
English (en)
Other versions
CN117496562B (zh
Inventor
李雄军
冯晋
蔡继林
林国文
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen University
Original Assignee
Shenzhen University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen University filed Critical Shenzhen University
Priority to CN202410000951.2A priority Critical patent/CN117496562B/zh
Publication of CN117496562A publication Critical patent/CN117496562A/zh
Application granted granted Critical
Publication of CN117496562B publication Critical patent/CN117496562B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/14Vascular patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/778Active pattern-learning, e.g. online learning of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Vascular Medicine (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

本发明公开了基于FV‑MViT的指静脉识别方法、装置及相关介质,该方法包括:获取多张指静脉训练图像;针对每一所述指静脉训练图像,使用限制对比度自适应直方图均衡化进行图像增强,并对增强后的图像提取Mini‑ROI区域特征;采用多个MobileViT2块、Mul‑MobileViT2块以及Emhanced MobileViT块构建得到FV‑MViT的指静脉识别模型;将所述Mini‑ROI区域特征输入至所述指静脉识别模型进行训练学习,并由所述指静脉识别模型输出对应的指静脉预测结果;通过软目标交叉熵损失函数和中心损失函数构建目标损失函数,并利用所述目标损失函数对所述指静脉识别模型进行网络参数更新,然后利用参数更新后的指静脉识别模型对指定的指静脉图像进行指静脉识别。本发明可有效提高对于指静脉识别的准确性和效率。

Description

基于FV-MViT的指静脉识别方法、装置及相关介质
技术领域
本发明涉及图像处理技术领域,特别涉及基于FV-MViT的指静脉识别方法、装置及相关介质。
背景技术
指静脉识别是一种生物识别技术,利用个体手指的静脉纹路进行身份认证。指静脉识别通常通过使用红外光线来拍摄手指的静脉图像,并将其与事先注册的模板进行比对。这种技术在不需要接触的情况下进行身份验证,因此静脉纹身份识别技术具有不易伪造、非接触特性、不侵犯肖像隐私等优势。
传统的指静脉识别算法主要包括以下几种特征提取方法:直方图梯度(HOG)、Gabor滤波器、主成分分析(PCA)、局部二值模式(LBP)、尺度不变特征变换(SIFT)、判别性多模态特征编码SDMFC等。这些传统算法的缺点主要包括:(1)传统算法中的特征通常针对特定问题和数据集进行设计,而不具有通用性,因此会使得这些特征在不同的场景或数据集上可能失效或表现不佳;(2)传统算法往往只能提取较低级别的特征,如边缘、纹理等特征,而无法自动学习和提取更高级别、抽象的特征,从而限制了模型的表达能力,导致识别精度不足;(2)算法在进行特征提取时,计算复杂度较高,导致识别实时性和效率受到影响,因此不适用于处理大规模数据。
相较于传统算法,深度卷积神经网络(CNN)用于指静脉识别时具有诸多的优势,具体为:(1)能够自动学习特征,无需手动设计特征;(2)具有较强的鲁棒性;(3)可迁移学习,通过微调适应于特定指静脉识别任务。并且深度卷积神经网络对于局部特征的提取具有很好的效果,但是其缺陷在于参数量巨大,例如经常使用的网络模型Alexnet、Google-Net和ResNet无法移植到移动设备端。
现有技术也有采用Transformer模型进行指静脉识别,Transformer模型的优势在于远程依赖,其对于全局的特征的提取具有很好的效果。但Transformer模型在一场景中的识别精度并不能够达到令人满意的程度,而且Transformer模型参数量较大,导致特征提取的过程相对耗时。此外,MobileViT结合了CNN和Transformer的优势,不过在将MobileViT应用于指静脉识别时,会面临两个问题:一是一般可用于训练的指静脉图像样本数量有限,模型容易受到过拟合的影响,难以泛化到新的测试数据;二是由于模型参数量的大量减少,导致最终识别精确度下降。
发明内容
本发明实施例提供了一种基于FV-MViT的指静脉识别方法、装置、计算机设备及存储介质,旨在提高对于指静脉识别的准确性和效率。
第一方面,本发明实施例提供了一种基于FV-MViT的指静脉识别方法,包括:
获取多张指静脉训练图像;
针对每一所述指静脉训练图像,使用限制对比度自适应直方图均衡化进行图像增强,并对增强后的图像提取Mini-ROI区域特征;
采用多个MobileViT2块、Mul-MobileViT2块以及Emhanced MobileViT块构建得到FV-MViT的指静脉识别模型;
将所述Mini-ROI区域特征输入至所述指静脉识别模型进行训练学习,并由所述指静脉识别模型输出对应的指静脉预测结果;
通过软目标交叉熵损失函数和中心损失函数构建目标损失函数,并利用所述目标损失函数对所述指静脉识别模型进行网络参数更新,然后利用参数更新后的指静脉识别模型对指定的指静脉图像进行指静脉识别。
第二方面,本发明实施例提供了一种基于FV-MViT的指静脉识别装置,包括:
图像获取单元,用于获取多张指静脉训练图像;
特征提取单元,用于针对每一所述指静脉训练图像,使用限制对比度自适应直方图均衡化进行图像增强,并对增强后的图像提取Mini-ROI区域特征;
模型构建单元,用于采用多个MobileViT2块、Mul-MobileViT2块以及EmhancedMobileViT块构建得到FV-MViT的指静脉识别模型;
模型训练单元,用于将所述Mini-ROI区域特征输入至所述指静脉识别模型进行训练学习,并由所述指静脉识别模型输出对应的指静脉预测结果;
更新识别单元,通过软目标交叉熵损失函数和中心损失函数构建目标损失函数,并利用所述目标损失函数对所述指静脉识别模型进行网络参数更新,然后利用参数更新后的指静脉识别模型对指定的指静脉图像进行指静脉识别。
第三方面,本发明实施例提供了一种计算机设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如第一方面所述的基于FV-MViT的指静脉识别方法。
第四方面,本发明实施例提供了一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如第一方面所述的基于FV-MViT的指静脉识别方法。
本发明实施例提供了一种基于FV-MViT的指静脉识别方法、装置、计算机设备及存储介质,该方法包括:获取多张指静脉训练图像;针对每一所述指静脉训练图像,使用限制对比度自适应直方图均衡化进行图像增强,并对增强后的图像提取Mini-ROI区域特征;采用多个MobileViT2块、Mul-MobileViT2块以及Emhanced MobileViT块构建得到FV-MViT的指静脉识别模型;将所述Mini-ROI区域特征输入至所述指静脉识别模型进行训练学习,并由所述指静脉识别模型输出对应的指静脉预测结果;通过软目标交叉熵损失函数和中心损失函数构建目标损失函数,并利用所述目标损失函数对所述指静脉识别模型进行网络参数更新,然后利用参数更新后的指静脉识别模型对指定的指静脉图像进行指静脉识别。本发明实施例为了在减少MobileViT模型参数量的同时保证较高的识别精度,又考虑到指静脉的同一类可用于训练的样本数量较少的特点,故提出了基于FV-MViT的指静脉识别模型,即将改进的Mobile ViT应用于指静脉识别中,并引入Mul-MV2块和Emhanced MobileViT块,从而通过Mul-MV2块提取更多的局部特征信息,以及通过Emhanced MobileViT块实现全局特征提取,同时有效减少MobileViT块的参数量,缩短了特征提取的时间,如此便能够提高基于FV-MViT的指静脉识别模型的指静脉识别效率和准确性。
附图说明
为了更清楚地说明本发明实施例技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的一种基于FV-MViT的指静脉识别方法的流程示意图;
图2为本发明实施例提供的一种基于FV-MViT的指静脉识别装置的示意性框图;
图3为本发明实施例提供的一种基于FV-MViT的指静脉识别方法中的指静脉训练图像示意图;
图4为本发明实施例提供的一种基于FV-MViT的指静脉识别方法中的Mini-ROI区域特征提取示意图;
图5为本发明实施例提供的一种基于FV-MViT的指静脉识别方法中的另一Mini-ROI区域特征提取示意图;
图6为本发明实施例提供的一种基于FV-MViT的指静脉识别方法中的Mul-MobileViT2块的架构图;
图7为本发明实施例提供的一种基于FV-MViT的指静脉识别方法中的EmhancedMobileViT块的架构图;
图8为本发明实施例提供的一种基于FV-MViT的指静脉识别方法中的指静脉识别模型的网络框图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
应当理解,当在本说明书和所附权利要求书中使用时,术语“包括”和 “包含”指示所描述特征、整体、步骤、操作、元素和/或组件的存在,但并不排除一个或多个其它特征、整体、步骤、操作、元素、组件和/或其集合的存在或添加。
还应当理解,在此本发明说明书中所使用的术语仅仅是出于描述特定实施例的目的而并不意在限制本发明。如在本发明说明书和所附权利要求书中所使用的那样,除非上下文清楚地指明其它情况,否则单数形式的“一”、“一个”及“该”意在包括复数形式。
还应当进一步理解,在本发明说明书和所附权利要求书中使用的术语“和/ 或”是指相关联列出的项中的一个或多个的任何组合以及所有可能组合,并且包括这些组合。
下面请参见图1,图1为本发明实施例提供的一种基于FV-MViT的指静脉识别方法的流程示意图,具体包括:步骤S101~S105。
S101、获取多张指静脉训练图像;
S102、针对每一所述指静脉训练图像,使用限制对比度自适应直方图均衡化进行图像增强,并对增强后的图像提取Mini-ROI区域特征;
S103、采用多个MobileViT2块、Mul-MobileViT2块以及Emhanced MobileViT块构建得到FV-MViT的指静脉识别模型;
S104、将所述Mini-ROI区域特征输入至所述指静脉识别模型进行训练学习,并由所述指静脉识别模型输出对应的指静脉预测结果;
S105、通过软目标交叉熵损失函数和中心损失函数构建目标损失函数,并利用所述目标损失函数对所述指静脉识别模型进行网络参数更新,然后利用参数更新后的指静脉识别模型对指定的指静脉图像进行指静脉识别。
本实施例中,首先获取带有真值标签(即分类标签)的指静脉训练图像,然后使用限制对比度自适应直方图均衡化进行图像增强,并对增强后的图像提取Mini-ROI区域特征。同时结合MobileViT2块、Mul-MobileViT2块以及Emhanced MobileViT块搭建指静脉识别模型框架。然后利用目标损失函数对构建训练的指静脉识别模型进行优化更新,从而提高指静脉识别模型的性能。此后,便可以利用优化的指静脉识别模型对指定的指静脉图像进行识别,得到精准可靠的指静脉识别结果。
本实施例为了在减少MobileViT模型参数量的同时保证较高的识别精度,又考虑到指静脉的同一类可用于训练的样本数量较少的特点,故提出了基于FV-MViT的指静脉识别模型,即将改进的Mobile ViT应用于指静脉识别中,并引入Mul-MV2块和EmhancedMobileViT块,从而通过Mul-MV2网络提取更多的局部特征信息,以及通过EmhancedMobileViT块实现全局特征提取,同时有效减少MobileViT块的参数量,缩短了特征提取的时间,如此便能够提高基于FV-MViT的指静脉识别模型的指静脉识别效率和准确性。
需要说明的是,本实施例所提供的指静脉识别方法,可以应用在访问控制、身份认证、时间和出勤管理以及边境安全和护照控制等领域,例如在访问控制领域中,可以在企业办公楼、实验室、数据中心和其他安全区域中的门禁系统应用指静脉识别来验证员工或访客的身份。又或者是在银行和金融机构可以使用指静脉识别来加强ATM机和安全存款箱的访问控制。又例如在身份认证领域中,诸如智能手机等终端设备可以使用指静脉识别来解锁屏幕或验证移动支付,又或者是在医疗保健领域,医生和护士可以使用指静脉识别来访问电子病历,确保只有授权人员可以查看患者信息。还例如在时间和出勤管理领域,企业可以使用指静脉识别来跟踪员工的工作时间和出勤情况,以确保工资计算的准确性。学校和大学也可以使用这项技术来管理学生和教职员工的出勤。再例如边境安全和护照控制领域,边境检查点和机场可以采用指静脉识别来加强边境安全,并防止伪造护照或假冒身份。特别的,本实施例所提供的指静脉识别方法,还可以应用在医疗保健、电子支付、汽车安全、手持设备和智能家居和电子政府服务等领域,比如在医疗保健领域,患者可以使用指静脉识别来验证其身份,以确保只有合法的人可以访问其医疗记录和处方药物。在电子支付领域,指静脉识别可以用于身份验证,以增强支付安全性。在汽车安全领域,汽车制造商可以将指静脉识别技术集成到汽车中,以允许合法车主访问和启动车辆。在手持设备和智能家居领域中,指静脉识别可以用于保护个人设备和智能家居设备,以防止未经授权的访问。在电子政府服务领域中,政府可以使用指静脉识别来提供安全的在线服务,如电子投票和税务申报。
在一实施例中,所述步骤S102包括:
采用限制对比度自适应直方图均衡化方法对所述指静脉训练图像进行图像增强处理;
对于图像增强处理后的指静脉训练图像,按照图像行方向进行像素灰度值累加,得到在图像行方向上的两个第一峰值;以及按照图像列方向进行像素灰度值累加,得到在图像列方向上的两个第二峰值;
获取两个所述第一峰值对应的两个横坐标,以及获取两个所述第二峰值对应的两个纵坐标;
结合两个所述横坐标和两个所述纵坐标对所述指静脉训练图像进行裁剪,并将裁剪结果作为所述Mini-ROI区域特征。
本实施例中,首先使用限制对比度自适应直方图均衡化进行图像增强,然后利用行列像素灰度累加值的峰值进行Mini-ROI区域的定位,该方式可以有效地提取手指静脉的有效区域,减少冗余信息对识别精度的影响。
结合图3,其中,图3中的(a)部分为某一张指静脉训练图像的原图,图3中的(b)部分为限制对比度自适应直方图均衡化后的图像,经过对比可以发现,模糊的原图经过限制对比度自适应直方图均衡化图像的局部对比度明显增强,细节特征得以增强,噪声也得到了一定程度的抑制。
另外,由于指静脉训练图像中包含了大量的冗余信息,这些冗余信息会导致模型网络的复杂度的上升,造成不必要的资源消耗,同时会严重影响识别算法的精度。故本实施例为了避免这些冗余信息对指静脉识别算法的影响,对指静脉训练图像中的有效区域进行提取,从而去除图像中的冗余信息。具体的,如图4所示,其中,图4中的(a)部分为原图像均衡化的结果,可以观察到手指的上下边缘的亮度很高,亮度越高,像素灰度值越大,而行方向上像素灰度累加后的最大值就是本实施例需要寻找的上下边缘。结合图5,图5中的(a)部分为行方向上像素灰度值累加的结果图,可以明显的观察到两个波峰,左侧峰值对应的横坐标为图4中的(a)部分的上边缘,右侧峰值对应的横坐标为图4中的(a)部分的下边缘,将图4中的(a)部分按照上坐标和下坐标进行裁剪得到图4中的(b)部分。
图4中的(b)部分为按照上坐标和下坐标裁剪后的结果,可以观察到手指中间指节的两侧边缘的亮度很高。亮度越高,像素灰度值越大,即列方向上像素灰度值累加后的最大值就是本实施例需要寻找的左右边缘。图5中的(b)部分为列方向上像素灰度值累加的结果图,可以明显的观察到两个波峰,左侧峰值对应的横坐标为图4中的(b)部分的左边缘,右侧峰值对应的横坐标为图4中的(b)部分的右边缘,将图4中的(b)部分按照左坐标和右坐标进行裁剪得到图4中的(c)部分,而图4中的(c)部分就是最终的Mini-ROI区域。
在一实施例中,所述步骤S102还包括:
获取每一所述指静脉训练图像对应的真值标签;
按照下式,采用Mixup方法对所述Mini-ROI区域特征进行数据增强处理:
其中,表示Mini-ROI区域特征的数据增强结果, />和/>分别表示第i张指静脉训练图像的Mini-ROI区域特征和第j张指静脉训练图像的Mini-ROI区域特征,/>表示真值标签的数据增强结果, />和/>分别表示第i张指静脉训练图像的真值标签和第j张指静脉训练图像的真值标签,/>表示随机参数。
本实施例使用Mixup来进行数据增强,Mixup主要将两个样本(即所述Mini-ROI区域特征)的特征线性组合,并将对应的标签也进行线性组合,生成新的样本和标签。在上述数据增强处理公式中,是一个来自Beta分布的随机参数,用于确定两个样本的权重。在两个样本经过混合后,输入的特征向量变成了具有一定混合程度的向量/>,目标标签的输出变成了n维的概率分布/>。这样的混合操作可以改善模型的泛化能力,以及提高模型对不同类别样本的分类能力。
在一实施例中,所述步骤S103包括:
采用第一次卷积对第一输入数据进行卷积处理;其中,所述第一次卷积包括点卷积、批标准化和激活函数;
采用倒残差连接结构设置第一特征提取模块和第二特征提取模块,并分别利用所述第一特征提取模块和第二特征提取模块进行局部特征提取;其中,所述第一特征提取模块包含有第二次卷积,所述第二特征提取模块包含有第三次卷积,所述第二次卷积包含有5×5卷积和点卷积,所述第三次卷积包含有3×3卷积和点卷积;
通过Concat函数对所述第一特征提取模块的局部提取结果和第二特征提取模块的局部提取结果进行堆叠,得到第一堆叠结果,并通过第四次卷积对所述第一堆叠结果进行降维输出,以此构建所述Mul-MobileViT2块;其中,所述第四次卷积为点卷积。
本实施例中,结合图6,在Mul-MobileViT2块中,先对输入的数据进行升维,维数由输入的C升到4C。这样设置的原因在于维度升高后,在更多的通道进行卷积可以提取更多的特征,从而提高模型的性能,先升维再降维的结构称为倒残差连接。第一次卷积后面依次为批标准化Batch Normalization和激活函数SiLU,在训练过程中使用Batch Normalization对每一层的参数进行规范化的处理,使得学习率能够动态的调整,SiLU激活函数能够有效地避免梯度消失问题,SiLU的计算公式为:
然后采用两路设计来进行特征的提取,即一路为所述第一特征提取模块,另一路为所述第二特征提取模块。两路特征提取模块都采用倒残差连接结构,其中,第一路特征提取模块使用5×5卷积,第二路特征提取模块使用3×3卷积,然后两路特征提取模块都采用Batch Normalization和SiLU。接着两路特征提取模块继续使用点卷积进行降维,并在输出时,首先采用Batch Normalization进行规范化处理,然后通过线性连接输出。再通过一个Concat函数将两路特征提取模块的输出结果堆叠到一起,并通过第四次卷积点卷积进行维数变换,从而得到Mul-MobileViT2块的输出结果将维度变换到out_C。
在这里,本实施例通过采用不同尺度的卷积核(即所述第二次卷积和第三次卷积)进行卷积处理,得到的视野范围便不同,从而提取到的局部特征不也同,如此在将两路局部特征融合后,便能够得到更多的局部特征。而本实施例使用线性连接而不使用SiLU的原因在于,当高维向低维映射后通过一个SiLU,再还原回到高维后会有很大的信息损失,MobileNetV2中称之为线性瓶颈,而使用线性连接来代替SiLU则可以避免线性瓶颈。还需说明的是,本实施例所述的第一输入数据是指输入至Mul-MobileViT2块中的数据,而在结合后续关于指静脉识别模型的训练内容来看,其可以为MobileViT2块的输出数据,也可以为Emhanced MobileViT块的输出数据。
在一实施例中,所述步骤S103还包括:
采用线性可分离自注意力Transformer对第二输入数据进行全局特征提取;
采用Concat函数对所述线性可分离自注意力Transformer的输出结果与所述第二输入数据进行堆叠,得到第二堆叠结果;
利用深度可分离卷积对所述第二堆叠结果进行图像融合和通道数变换,以此构建所述Emhanced MobileViT块。
本实施例中,结合图7,由于在后续构建的指静脉识别模型中,EmhancedMobileViT块的输入数据为Mul-MobileViT2块的输出数据,即Emhanced MobileViT块的输入数据已经进行了局部特征的提取和融合,因此本实施例将3×3卷积去掉。同时,将Transformer网络中的自注意力变换成具有线性复杂度的可分离自注意力,可分离自注意力将自注意力的复杂度降低到/>, 能够减少模型的参数量,同时减低模型的延迟。然后使用Concat函数进行通道堆叠,堆叠后的通道数为2C。在这里,本实施例中使用深度可分离卷积进行改进,际先使用3×3的卷积进行图像融合,此时输出的维度数仍为2C,然后使用点卷积进行通道数变换,以变换到输出的维度数。通过上述改进优化方式,可以有效的减少参数量,同时减低模型的延迟,从而有效的提升模型的性能。还需说明的是,本实施例所述的第二输入数据是指输入至Emhanced MobileViT块中的数据,而在结合后续关于指静脉识别模型的训练内容来看,其可以为Mul-MobileViT2块的输出数据。
在一实施例中,所述步骤S104包括:
对所述Mini-ROI区域特征进行图像尺寸调整,并对图像尺寸调整后的Mini-ROI区域特征进行降采样处理,得到第一中间图像;
连续多次采用MobileViT2块对所述第一中间图像进行局部特征提取,得到第二中间图像;
连续多次采用Mul-MobileViT2块和Emhanced MobileViT块对所述第二中间图像进行局部特征融合、局部特征提取以及全局特征提取,得到第三中间图像;
采用MobileViT2块对所述第三中间图像进行降采样,得到第四中间图像;
通过第五次卷积对所述第四中间图像进行升维处理,并依次通过全局池化层和全连接层对升维处理后的第四中间图像进行分类预测输出,得到最终的指静脉预测结果;其中,所述第五次卷积为点卷积。
本实施例中,在结合MobileViT2块、Mul-MobileViT2块以及Emhanced MobileViT块后,构建得到FV-MViT的指静脉识别模型如图8所示。具体来说,在基于FV-MViT的指静脉识别模型中,首先将输入数据(即所述Mini-ROI区域特征)调整为1×256×256,接着使用3×3卷积进行一次降采样,将Mini-ROI区域特征调整为16×128×128。然后使用MobileViT2块(即图8中的Mv2)进行一次局部特征的提取,并进行图像的升维,图像大小调整为32×128×128,再使用MobileViT2块进行一次图像的降采样,并进行升维,图像大小调整为64×64×64,即为了使模型提取更多的特征,故使用两次MobileViT2块进行特征提取,而图像的维数、尺寸则不会发生变化。随后,采用Mul-MobileViT2块(即图8中的Mul-Mv2),Mul-MobileViT2块在这里具有三个作用,一是进行多尺度的局部特征融合,提取局部特征,二是进行图像降采样,三是进行图像升维,此时的图像输出为96×32×32。接着通过EnhancedMobileViT块进行全局特征提取,这样的好处是可以将CNN和Transformer优势结合起来,同时有效地避免了ViT在小数据集上识别率低的问题。然后后面进行两次相同的操作,即再次使用Mul-MobileViT2块进行降采样,以及使用Enhanced MobileViT块进行全局特征提取,这时的图像大小调整为160×8×8。在实际场景中,由于指静脉的分类包括有636类和492类,因此需要更多的通道数方便图像的分类,故可以使用一个1×1卷积来将图像的通道数提升到640维,此时的图像大小调整为640×8×8,此时通过一个全局池化层Globel pool变成640×1,最后通过一个全连接层输出具有636或492维的特征,即为关于指静脉训练图像的最终指静脉预测结果。
在一实施例中,所述步骤S105包括:
按照下式,结合软目标交叉熵损失函数和中心损失函数相结合构建得到所述目标损失函数:
其中,l表示目标损失函数,ls表示软目标交叉熵损失函数,lc表示中心损失函数,m表示一个批次Mini-ROI区域特征的数量,n表示Mini-ROI区域特征的特征向量维度,x表示Mini-ROI区域特征,y表示真值标签,表示Mini-ROI区域特征转换为归一化的概率分布,c表示真值标签的类别中心。
在模型训练工程中通常存在两个问题,一是训练准确率很高,但测试准确率相较于训练准确率要低很多,因此要提升模型的泛化能力,故本实施例采用软目标交叉熵进行泛化。与传统的交叉熵损失相比,软目标交叉熵能够提供更平滑的优化空间,可以得到更稳定和高效的训练过程。在软目标交叉熵中,输入的目标标签表示为概率分布,而不是独热向量,这样的操作可以防止模型在预测上过于自信,从而使得训练结果更具鲁棒性和泛化性的表示。二是由于可用与训练的样本数比较少,所以要加强类内样本的距离,同时增大不同类样本之间的距离,从而提高分类性能。而中心损失函数对于小样本问题,由于它可以引导特征向量朝向正确类别的中心移动,所以使用中心损失可以在有限的样本上提供更好的特征表示,减小类内方差,增大类间方差,从而提高分类性能。总的来说,本实施例结合使用软目标交叉熵损失函数(Soft Target Cross Entropy Loss)和中心损失函数(Centerloss),以提出一种基于软目标中心交叉熵的目标损失函数,从而提高指静脉识别模型的泛化性,以及缩小类内距离,增大类间距离。
具体来说,在软目标交叉熵损失函数中:假设一个批次是m个样本,样本表示为x,,/>表示第i个样本的特征向量,一个样本的特征向量的维度为n维,/>可以表示为/>,将输入特征/>转换成归一化的概率分布:,/>中的每个特征的计算公式如下所示:
其中,j=1,2,....n。m个就构成了/>,/>可以表示为/>,在前述内容中已经提到使用Mixup进行数据增强后得到/>,所以m个/>构成一个批次的/>,/>可以表示为/>,/>和/>的维度都是/>维,/>取对数与/>逐元素相乘,然后进行行和列的累加,最后除以m得到该批次的软目标交叉熵损失函数的结果,计算公式如下所示:
中心损失函数的计算公式如下所示:
其中, 表示所属类别的中心(指静脉一共636类,yi就是对应的标签(类别),cyi就是对应类的类别中心)。需要说明的是,/>需要遍历所有样本才能得出对应的类别中心,这就表示要在进行训练时,每一批次的训练都要对所有的类别中心进行更新。但是这样的操作会导致训练效率很低,故本实施例在进行小批量训练时更新的不是所有类别的中心,只对该批次中训练到的类别进行更新,同时为了抑制由少量错误标注的样本导致的大的扰动,可以采用一个标量/>来调节类别中心/>的学习速率。
最终,以软目标交叉熵函数为主,结合一定比例的中心损失函数,即可得到基于软目标中心交叉熵的目标损失函数。还需说明的是,本实施例在构建目标损失函数时,所述的样本即为指静脉训练图像的所述Mini-ROI区域特征。
此外,还可以采用Adam优化器来训练优化指静脉识别模型,同时,为了避免神经网络陷入局部最优解,还可以使用余弦退火算法进行学习率的调度。具体的,在初始时刻,指静脉识别模型进行使用较大的学习率进行快速收敛,例如设置初始学习率为0.0001,而随着迭代次数的变多,神经网络开始收敛,故可以将使用余弦调度到1e-6。
图2为本发明实施例提供的一种基于FV-MViT的指静脉识别装置200的示意性框图,该装置200包括:
图像获取单元201,用于获取多张指静脉训练图像;
特征提取单元202,用于针对每一所述指静脉训练图像,使用限制对比度自适应直方图均衡化进行图像增强,并对增强后的图像提取Mini-ROI区域特征;
模型构建单元203,用于采用多个MobileViT2块、Mul-MobileViT2块以及EmhancedMobileViT块构建得到FV-MViT的指静脉识别模型;
模型训练单元204,用于将所述Mini-ROI区域特征输入至所述指静脉识别模型进行训练学习,并由所述指静脉识别模型输出对应的指静脉预测结果;
更新识别单元205,用于通过软目标交叉熵损失函数和中心损失函数构建目标损失函数,并利用所述目标损失函数对所述指静脉识别模型进行网络参数更新,然后利用参数更新后的指静脉识别模型对指定的指静脉图像进行指静脉识别。
在一实施例中,所述特征提取单元202包括:
图像增强单元,用于采用限制对比度自适应直方图均衡化方法对所述指静脉训练图像进行图像增强处理;
峰值获取单元,用于对于图像增强处理后的指静脉训练图像,按照图像行方向进行像素灰度值累加,得到在图像行方向上的两个第一峰值;以及按照图像列方向进行像素灰度值累加,得到在图像列方向上的两个第二峰值;
坐标获取单元,用于获取两个所述第一峰值对应的两个横坐标,以及获取两个所述第二峰值对应的两个纵坐标;
图像裁剪单元,用于结合两个所述横坐标和两个所述纵坐标对所述指静脉训练图像进行裁剪,并将裁剪结果作为所述Mini-ROI区域特征。
在一实施例中,所述特征提取单元202还包括:
标签获取单元,用于获取每一所述指静脉训练图像对应的真值标签;
数据增强单元,用于按照下式,采用Mixup方法对所述Mini-ROI区域特征进行数据增强处理:
其中,表示Mini-ROI区域特征的数据增强结果, />和/>分别表示第i张指静脉训练图像的Mini-ROI区域特征和第j张指静脉训练图像的Mini-ROI区域特征,/>表示真值标签的数据增强结果, />和/>分别表示第i张指静脉训练图像的真值标签和第j张指静脉训练图像的真值标签,/>表示随机参数。
在一实施例中,所述模型构建单元203包括:
第一卷积处理单元,用于采用第一次卷积对第一输入数据进行卷积处理;其中,所述第一次卷积包括点卷积、批标准化和激活函数;
特征提取设置单元,用于采用倒残差连接结构设置第一特征提取模块和第二特征提取模块,并分别利用所述第一特征提取模块和第二特征提取模块进行局部特征提取;其中,所述第一特征提取模块包含有第二次卷积,所述第二特征提取模块包含有第三次卷积,所述第二次卷积包含有5×5卷积和点卷积,所述第三次卷积包含有3×3卷积和点卷积;
第一网络构建单元,用于通过Concat函数对所述第一特征提取模块的局部提取结果和第二特征提取模块的局部提取结果进行堆叠,得到第一堆叠结果,并通过第四次卷积对所述第一堆叠结果进行降维输出,以此构建所述Mul-MobileViT2块;其中,所述第四次卷积为点卷积。
在一实施例中,所述模型构建单元203还包括:
全局特征提取单元,用于采用线性可分离自注意力Transformer对第二输入数据进行全局特征提取;
数据堆叠单元,用于采用Concat函数对所述线性可分离自注意力Transformer的输出结果与所述第二输入数据进行堆叠,得到第二堆叠结果;
第二网络构建单元,用于利用深度可分离卷积对所述第二堆叠结果进行图像融合和通道数变换,以此构建所述Emhanced MobileViT块。
在一实施例中,所述模型训练单元204还包括:
像素调整单元,用于对所述Mini-ROI区域特征进行图像尺寸调整,并对图像尺寸调整后的Mini-ROI区域特征进行降采样处理,得到第一中间图像;
第一提取单元,用于连续多次采用MobileViT2块对所述第一中间图像进行局部特征提取,得到第二中间图像;
第二提取单元,用于连续多次采用Mul-MobileViT2块和Emhanced MobileViT块对所述第二中间图像进行局部特征融合、局部特征提取以及全局特征提取,得到第三中间图像;
分类预测单元,用于通过第五次卷积对所述第三中间图像进行升维处理,并依次通过全局池化层和全连接层对升维处理后的第三中间图像进行分类预测输出,得到最终的指静脉预测结果;其中,所述第五次卷积为点卷积。
在一实施例中,所述更新识别单元205包括:
损失函数构建单元,用于按照下式,结合软目标交叉熵损失函数和中心损失函数相结合构建得到所述目标损失函数:
其中,l表示目标损失函数,ls表示软目标交叉熵损失函数,lc表示中心损失函数,m表示Mini-ROI区域特征的数量,n表示Mini-ROI区域特征的特征向量维度,x表示Mini-ROI区域特征,y表示真值标签,表示Mini-ROI区域特征转换为归一化的概率分布,c表示真值标签的类别中心。
由于装置部分的实施例与方法部分的实施例相互对应,因此装置部分的实施例请参见方法部分的实施例的描述,这里暂不赘述。
本发明实施例还提供了一种计算机可读存储介质,其上存有计算机程序,该计算机程序被执行时可以实现上述实施例所提供的步骤。该存储介质可以包括:U盘、移动硬盘、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
本发明实施例还提供了一种计算机设备,可以包括存储器和处理器,存储器中存有计算机程序,处理器调用存储器中的计算机程序时,可以实现上述实施例所提供的步骤。当然计算机设备还可以包括各种网络接口,电源等组件。
说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的系统而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。应当指出,对于本技术领域的普通技术人员来说,在不脱离本申请原理的前提下,还可以对本申请进行若干改进和修饰,这些改进和修饰也落入本申请权利要求的保护范围内。
还需要说明的是,在本说明书中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的状况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。

Claims (10)

1.一种基于FV-MViT的指静脉识别方法,其特征在于,包括:
获取多张指静脉训练图像;
针对每一所述指静脉训练图像,使用限制对比度自适应直方图均衡化进行图像增强,并对增强后的图像提取Mini-ROI区域特征;
采用多个MobileViT2块、Mul-MobileViT2块以及Emhanced MobileViT块构建得到FV-MViT的指静脉识别模型;
将所述Mini-ROI区域特征输入至所述指静脉识别模型进行训练学习,并由所述指静脉识别模型输出对应的指静脉预测结果;
通过软目标交叉熵损失函数和中心损失函数构建目标损失函数,并利用所述目标损失函数对所述指静脉识别模型进行网络参数更新,然后利用参数更新后的指静脉识别模型对指定的指静脉图像进行指静脉识别。
2.根据权利要求1所述的基于FV-MViT的指静脉识别方法,其特征在于,所述针对每一所述指静脉训练图像,使用限制对比度自适应直方图均衡化进行图像增强,并对增强后的图像提取Mini-ROI区域特征,包括:
采用限制对比度自适应直方图均衡化方法对所述指静脉训练图像进行图像增强处理;
对于图像增强处理后的指静脉训练图像,按照图像行方向进行像素灰度值累加,得到在图像行方向上的两个第一峰值;以及按照图像列方向进行像素灰度值累加,得到在图像列方向上的两个第二峰值;
获取两个所述第一峰值对应的两个横坐标,以及获取两个所述第二峰值对应的两个纵坐标;
结合两个所述横坐标和两个所述纵坐标对所述指静脉训练图像进行裁剪,并将裁剪结果作为所述Mini-ROI区域特征。
3.根据权利要求1所述的基于FV-MViT的指静脉识别方法,其特征在于,所述针对每一所述指静脉训练图像,使用限制对比度自适应直方图均衡化进行图像增强,并对增强后的图像提取Mini-ROI区域特征,还包括:
获取每一所述指静脉训练图像对应的真值标签;
按照下式,采用Mixup方法对所述Mini-ROI区域特征进行数据增强处理:
其中,表示Mini-ROI区域特征的数据增强结果, />和/>分别表示第i张指静脉训练图像的Mini-ROI区域特征和第j张指静脉训练图像的Mini-ROI区域特征,/>表示真值标签的数据增强结果, />和/>分别表示第i张指静脉训练图像的真值标签和第j张指静脉训练图像的真值标签,/>表示随机参数。
4.根据权利要求1所述的基于FV-MViT的指静脉识别方法,其特征在于,所述采用多个MobileViT2块、Mul-MobileViT2块以及Emhanced MobileViT块构建得到FV-MViT的指静脉识别模型,包括:
采用第一次卷积对第一输入数据进行卷积处理;其中,所述第一次卷积包括点卷积、批标准化和激活函数;
采用倒残差连接结构设置第一特征提取模块和第二特征提取模块,并分别利用所述第一特征提取模块和第二特征提取模块进行局部特征提取;其中,所述第一特征提取模块包含有第二次卷积,所述第二特征提取模块包含有第三次卷积,所述第二次卷积包含有5×5卷积和点卷积,所述第三次卷积包含有3×3卷积和点卷积;
通过Concat函数对所述第一特征提取模块的局部提取结果和第二特征提取模块的局部提取结果进行堆叠,得到第一堆叠结果,并通过第四次卷积对所述第一堆叠结果进行降维输出,以此构建所述Mul-MobileViT2块;其中,所述第四次卷积为点卷积。
5.根据权利要求4所述的基于FV-MViT的指静脉识别方法,其特征在于,所述采用多个MobileViT2块、Mul-MobileViT2块以及Emhanced MobileViT块构建得到FV-MViT的指静脉识别模型,还包括:
采用线性可分离自注意力Transformer对第二输入数据进行全局特征提取;
采用Concat函数对所述线性可分离自注意力Transformer的输出结果与所述第二输入数据进行堆叠,得到第二堆叠结果;
利用深度可分离卷积对所述第二堆叠结果进行图像融合和通道数变换,以此构建所述Emhanced MobileViT块。
6.根据权利要求5所述的基于FV-MViT的指静脉识别方法,其特征在于,所述将所述Mini-ROI区域特征输入至所述指静脉识别模型进行训练学习,并由所述指静脉识别模型输出对应的指静脉预测结果,包括:
对所述Mini-ROI区域特征进行图像尺寸调整,并对图像尺寸调整后的Mini-ROI区域特征进行降采样处理,得到第一中间图像;
连续多次采用MobileViT2块对所述第一中间图像进行局部特征提取,得到第二中间图像;
连续多次采用Mul-MobileViT2块和Emhanced MobileViT块对所述第二中间图像进行局部特征融合、局部特征提取以及全局特征提取,得到第三中间图像;
通过第五次卷积对所述第三中间图像进行升维处理,并依次通过全局池化层和全连接层对升维处理后的第三中间图像进行分类预测输出,得到最终的指静脉预测结果;其中,所述第五次卷积为点卷积。
7.根据权利要求3所述的基于FV-MViT的指静脉识别方法,其特征在于,所述通过软目标交叉熵损失函数和中心损失函数构建目标损失函数,包括:
按照下式,结合软目标交叉熵损失函数和中心损失函数相结合构建得到所述目标损失函数:
其中,l表示目标损失函数,ls表示软目标交叉熵损失函数,lc表示中心损失函数,m表示一个批次Mini-ROI区域特征的数量,n表示Mini-ROI区域特征的特征向量维度,x表示Mini-ROI区域特征,y表示真值标签,表示Mini-ROI区域特征转换为归一化的概率分布,c表示真值标签的类别中心。
8.一种基于FV-MViT的指静脉识别装置,其特征在于,包括:
图像获取单元,用于获取多张指静脉训练图像;
特征提取单元,用于针对每一所述指静脉训练图像,使用限制对比度自适应直方图均衡化进行图像增强,并对增强后的图像提取Mini-ROI区域特征;
模型构建单元,用于采用多个MobileViT2块、Mul-MobileViT2块以及EmhancedMobileViT块构建得到基于FV-MViT的指静脉识别模型;
模型训练单元,用于将所述Mini-ROI区域特征输入至所述指静脉识别模型进行训练学习,并由所述指静脉识别模型输出对应的指静脉预测结果;
更新识别单元,用于通过软目标交叉熵损失函数和中心损失函数构建目标损失函数,并利用所述目标损失函数对所述指静脉识别模型进行网络参数更新,然后利用参数更新后的指静脉识别模型对指定的指静脉图像进行指静脉识别。
9.一种计算机设备,其特征在于,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如权利要求1至7任一项所述的基于FV-MViT的指静脉识别方法。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如权利要求1至7任一项所述的基于FV-MViT的指静脉识别方法。
CN202410000951.2A 2024-01-02 2024-01-02 基于FV-MViT的指静脉识别方法、装置及相关介质 Active CN117496562B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202410000951.2A CN117496562B (zh) 2024-01-02 2024-01-02 基于FV-MViT的指静脉识别方法、装置及相关介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202410000951.2A CN117496562B (zh) 2024-01-02 2024-01-02 基于FV-MViT的指静脉识别方法、装置及相关介质

Publications (2)

Publication Number Publication Date
CN117496562A true CN117496562A (zh) 2024-02-02
CN117496562B CN117496562B (zh) 2024-03-29

Family

ID=89683362

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202410000951.2A Active CN117496562B (zh) 2024-01-02 2024-01-02 基于FV-MViT的指静脉识别方法、装置及相关介质

Country Status (1)

Country Link
CN (1) CN117496562B (zh)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111460915A (zh) * 2020-03-13 2020-07-28 华南理工大学 一种基于轻量神经网络的指静脉验证方法及系统
CN112580590A (zh) * 2020-12-29 2021-03-30 杭州电子科技大学 一种基于多语义特征融合网络的指静脉识别方法
CN112733627A (zh) * 2020-12-28 2021-04-30 杭州电子科技大学 一种基于融合局部与全局特征网络的指静脉识别方法
CN115797987A (zh) * 2022-08-31 2023-03-14 电子科技大学 一种基于联合损失和卷积神经网络的指静脉识别方法
CN116311403A (zh) * 2023-03-27 2023-06-23 浙江科技学院 一种基于FECAGhostNet的轻量化卷积神经网络的指静脉识别方法
US20230368497A1 (en) * 2022-05-10 2023-11-16 Shandong Jianzhu University Image Recognition Method and System of Convolutional Neural Network Based on Global Detail Supplement

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111460915A (zh) * 2020-03-13 2020-07-28 华南理工大学 一种基于轻量神经网络的指静脉验证方法及系统
CN112733627A (zh) * 2020-12-28 2021-04-30 杭州电子科技大学 一种基于融合局部与全局特征网络的指静脉识别方法
CN112580590A (zh) * 2020-12-29 2021-03-30 杭州电子科技大学 一种基于多语义特征融合网络的指静脉识别方法
US20230368497A1 (en) * 2022-05-10 2023-11-16 Shandong Jianzhu University Image Recognition Method and System of Convolutional Neural Network Based on Global Detail Supplement
CN115797987A (zh) * 2022-08-31 2023-03-14 电子科技大学 一种基于联合损失和卷积神经网络的指静脉识别方法
CN116311403A (zh) * 2023-03-27 2023-06-23 浙江科技学院 一种基于FECAGhostNet的轻量化卷积神经网络的指静脉识别方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
李冉;苏志刚;张海刚;杨金锋;: "改进GCNs在指静脉特征表达中的应用", 信号处理, no. 04, 25 April 2020 (2020-04-25), pages 80 - 91 *

Also Published As

Publication number Publication date
CN117496562B (zh) 2024-03-29

Similar Documents

Publication Publication Date Title
Al-Waisy et al. A multi-biometric iris recognition system based on a deep learning approach
CN106295694B (zh) 一种迭代重约束组稀疏表示分类的人脸识别方法
Hyvärinen et al. Complex cell pooling and the statistics of natural images
CN108664911B (zh) 一种基于图像稀疏表示的鲁棒人脸识别方法
CN111340103B (zh) 一种基于图嵌入典型相关分析的特征层融合方法及其装置
Ahmadi et al. Iris tissue recognition based on GLDM feature extraction and hybrid MLPNN-ICA classifier
Sinha Study of assessment of cognitive ability of human brain using deep learning
Vishwakarma et al. An efficient hybrid DWT-fuzzy filter in DCT domain based illumination normalization for face recognition
Garg et al. An efficient human identification through iris recognition system
Shi et al. Face recognition algorithm based on self-adaptive blocking local binary pattern
Peng et al. A new virtual samples-based CRC method for face recognition
Li et al. Transformer based defense GAN against palm-vein adversarial attacks
Kumar et al. Face and Iris‐Based Secured Authorization Model Using CNN
Oja Self-organizing maps and computer vision
CN117496562B (zh) 基于FV-MViT的指静脉识别方法、装置及相关介质
CN110287973B (zh) 一种基于低秩鲁棒线性鉴别分析的图像特征提取方法
CN116884067A (zh) 一种基于改进的隐式语义数据增强的微表情识别方法
CN115984906A (zh) 掌纹图像识别方法、装置、设备及存储介质
Huang Multimodal biometrics fusion algorithm using deep reinforcement learning
Nozaripour et al. Image classification via convolutional sparse coding
Dutta et al. 3D face recognition using a fusion of PCA and ICA convolution descriptors
Soviany et al. An optimized biometric system with intra-and inter-modal feature-level fusion
CN114880700A (zh) 一种指纹认证的隐私保护方法及系统
Khedgaonkar et al. Local plastic surgery-based face recognition using convolutional neural networks
CN107341485B (zh) 人脸识别方法和装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant