CN116071787A - 一种多光谱掌纹识别方法、系统、电子设备及介质 - Google Patents

一种多光谱掌纹识别方法、系统、电子设备及介质 Download PDF

Info

Publication number
CN116071787A
CN116071787A CN202310020809.XA CN202310020809A CN116071787A CN 116071787 A CN116071787 A CN 116071787A CN 202310020809 A CN202310020809 A CN 202310020809A CN 116071787 A CN116071787 A CN 116071787A
Authority
CN
China
Prior art keywords
palm print
sample
multispectral
disturbance
sample images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202310020809.XA
Other languages
English (en)
Other versions
CN116071787B (zh
Inventor
朱旗
周宇泽
林熙翔
王明明
李超君
张道强
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Aeronautics and Astronautics
Original Assignee
Nanjing University of Aeronautics and Astronautics
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Aeronautics and Astronautics filed Critical Nanjing University of Aeronautics and Astronautics
Priority to CN202310020809.XA priority Critical patent/CN116071787B/zh
Publication of CN116071787A publication Critical patent/CN116071787A/zh
Application granted granted Critical
Publication of CN116071787B publication Critical patent/CN116071787B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1347Preprocessing; Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A40/00Adaptation technologies in agriculture, forestry, livestock or agroalimentary production
    • Y02A40/10Adaptation technologies in agriculture, forestry, livestock or agroalimentary production in agriculture

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供一种多光谱掌纹识别方法、系统、电子设备及介质,属于生物识别领域,方法包括:获取包括多组掌纹样本图像的多光谱掌纹样本集;针对任一组掌纹样本图像,采用深度典型相关性分析算法提取样本图像间的公共相关性信息,采用基础迭代攻击方法生成各样本图像的第一扰动,以破坏公共相关性信息,将该组掌纹样本图像投影到差异子空间中,确定样本图像间的差异判别信息,基于对抗性区域确定算法生成各样本图像的第二扰动,以破坏差异判别信息;将第一扰动及第二扰动添加至对应的样本图像中,得到多张扰动样本图像;采用扰动样本图像对深度神经网络进行对抗训练,得到多光谱掌纹识别模型进行掌纹识别。本发明提高了多光谱掌纹识别的鲁棒性。

Description

一种多光谱掌纹识别方法、系统、电子设备及介质
技术领域
本发明涉及生物识别技术领域,特别是涉及一种多光谱掌纹识别方法、系统、电子设备及介质。
背景技术
掌纹识别属于一种生物特征识别技术,生物特征识别技术指利用人体固有的生理特征和行为特征,并结合计算机与光学、声学、生物传感器和生物统计学原理等高科技手段来进行个人身份的鉴定。其中,掌纹识别是一种高效的生物识别方法,掌纹作为一种生物特征,具有主线、皱纹、脊末梢、分叉点等辨识度高的纹理特征,含有丰富的信息,同时,其特征普遍,不同掌纹的特征具有较大的区分度,掌纹不会随着时间的变化产生较大的变化,并且掌纹采集便捷,获取的掌纹数据易于进行后续处理,识别的准确度高,在使用人群中的接受程度高,近年来提出的大量关于掌纹识别的技术都获得了较好的识别率,说明掌纹识别是一种非常有效的生物特征。
在众多掌纹识别方法中,多光谱掌纹识别是一种较为高效的掌纹识别方法,它可以使用不同的光谱对掌纹进行采样,融合多个光谱的信息,如使用蓝色光谱,红色光谱,绿色光谱及近红外光谱进行采样,能够采集到一般的彩色图像系统无法捕捉到的信息,最后融合不同光谱下采集到的掌纹图像,从而提高识别的准确度。
对抗攻击是一种用于攻击机器学习模型的技术,所谓对抗攻击就是在待分类图像上添加精心构造的微小扰动,使机器学习模型在对该图像分类时出现错误,同时要保证添加扰动后的图像在视觉上(对人类而言)与原始图像相似。对抗攻击通常分为白盒攻击和黑盒攻击。对于白盒攻击,攻击者可以访问关于目标模型的所有信息,包括体系结构、参数、梯度、训练过程。攻击者可以充分利用模型信息生成对抗样本,目前常见的白盒攻击方法大多基于梯度方法和优化方法。黑盒攻击即神经网络相关的信息对攻击者来说是透明不可知的,攻击者可以通过提交输入数据并观察输出结果来进行交互,以此为基础生成对抗样本,目前常见的黑盒攻击有基于梯度估计的攻击,基于决策边界的攻击,基于搜索的攻击等攻击方法。对于多光谱掌纹识别的任务来说,一般无法接触到模型的具体信息,因此白盒攻击方法不能很好地适用,而现有的黑盒攻击大多需要对模型进行大量的查询操作,依赖于具体的目标模型。
对抗防御是用来保护模型抵御对抗攻击的方法,一般分为被动防御和主动防御,被动防御不会对原始模型进行修改,主要方法有在模型前加入过滤层,对输入样本进行随机变换、伸缩变化等操作。主动防御会对模型进行增强,例如对抗训练,通过将对抗攻击生成的对抗样本中进行训练,从而发现模型的漏洞,并提高模型的鲁棒性。
目前对对抗样本的研究表明,即使是最先进的深度神经网络在面对对抗样本时也较为脆弱,容易受到对抗样本的攻击,而目前针对多光谱掌纹识别的研究大多集中在融合方法以及如何提高识别精确度上,缺乏对多光谱掌纹识别安全性的研究,尤其是当受到对抗样本攻击时的影响。同时,现有的对抗攻击方法大多针对单视图模型,缺少针对多光谱掌纹识别的攻击方法,其生成的对抗样本不能很好的利用多光谱之间的信息,将其用于对抗训练时对多光谱掌纹识别的鲁棒性的提升也较为有限。
发明内容
本发明的目的是提供一种多光谱掌纹识别方法、系统、电子设备及介质,可提高多光谱掌纹识别的鲁棒性。
为实现上述目的,本发明提供了如下方案:
一种多光谱掌纹识别方法,包括:
获取多光谱掌纹样本集;所述多光谱掌纹样本集中包括多组掌纹样本图像,每组掌纹样本图像包括不同光谱下同一掌纹的样本图像;
针对任一组掌纹样本图像,采用深度典型相关性分析算法提取不同光谱下所述掌纹的样本图像之间的公共相关性信息;
采用基础迭代攻击方法生成所述掌纹的各样本图像的第一扰动,以破坏各样本图像之间的公共相关性信息;
将该组掌纹样本图像投影到差异子空间中,确定不同光谱下所述掌纹的样本图像之间的差异判别信息;
基于对抗性区域确定算法生成所述掌纹的各样本图像的第二扰动,以破坏各样本图像之间的差异判别信息;
将所述掌纹的各样本图像的第一扰动及所述掌纹的各样本图像的第二扰动添加至对应的样本图像中,以得到所述掌纹的多张扰动样本图像;
采用各掌纹的扰动样本图像对深度神经网络进行对抗训练,以得到多光谱掌纹识别模型;
基于所述多光谱掌纹识别模型,对待识别掌纹图像进行掌纹识别。
为实现上述目的,本发明还提供了如下方案:
一种多光谱掌纹识别系统,包括:
样本获取单元,用于获取多光谱掌纹样本集;所述多光谱掌纹样本集中包括多组掌纹样本图像,每组掌纹样本图像包括不同光谱下同一掌纹的样本图像;
公共信息提取单元,用于针对任一组掌纹样本图像,采用深度典型相关性分析算法提取不同光谱下所述掌纹的样本图像之间的公共相关性信息;
第一扰动生成单元,用于采用基础迭代攻击方法生成所述掌纹的各样本图像的第一扰动,以破坏各样本图像之间的公共相关性信息;
差异信息提取单元,用于针对任一组掌纹样本图像,将该组掌纹样本图像投影到差异子空间中,确定不同光谱下所述掌纹的样本图像之间的差异判别信息;
第二扰动生成单元,用于基于对抗性区域确定算法生成所述掌纹的各样本图像的第二扰动,以破坏各样本图像之间的差异判别信息;
扰动样本生成单元,用于将所述掌纹的各样本图像的第一扰动及所述掌纹的各样本图像的第二扰动添加至对应的样本图像中,以得到所述掌纹的多张扰动样本图像;
训练单元,用于采用各掌纹的扰动样本图像对深度神经网络进行对抗训练,以得到多光谱掌纹识别模型;
识别单元,用于基于所述多光谱掌纹识别模型,对待识别掌纹图像进行掌纹识别。
为实现上述目的,本发明提供了如下方案:
一种电子设备,包括存储器及处理器,所述存储器用于存储计算机程序,所述处理器运行所述计算机程序以使所述电子设备执行上述的多光谱掌纹识别方法。
为实现上述目的,本发明提供了如下方案:
一种计算机可读存储介质,其存储有计算机程序,所述计算机程序被处理器执行时实现上述的多光谱掌纹识别方法。
根据本发明提供的具体实施例,本发明公开了以下技术效果:
本发明首先生成能够破坏公共相关性信息的第一扰动以及能够破坏差异判别信息的第二扰动,结合这两种扰动生成对抗样本(扰动样本图像),将生成的对抗样本添加到训练集中,并多次迭代进行对抗训练,有效提高了多光谱掌纹识别模型在面对对抗样本攻击时的鲁棒性,进而提高了掌纹识别的安全性。此外,本发明充分利用了不同光谱之间的信息,克服了现有攻击方法都是争夺单视图进行攻击的不足,无需知道待攻击模型的具体细节,也无需查询操作,不依赖于具体的目标模型,具有较强的可迁移性能。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明多光谱掌纹识别方法的流程图;
图2为针对多光谱掌纹识别的对抗样本生成过程的示意图;
图3为针对多光谱掌纹识别对抗攻击的实例结构图;
图4为深度典型相关性模型的结构示意图;
图5为广义深度典型相关模型的结构示意图;
图6为生成破坏公共相关性空间的扰动的流程示意图;
图7为对抗性区域的结构示意图;
图8为差异子空间的结构示意图;
图9为生成破坏差异判别性空间的扰动的流程示意图;
图10为多光谱掌纹识别模型的训练过程示意图;
图11为本发明多光谱掌纹识别系统的模块示意图。
符号说明:
样本获取单元-21,公共信息提取单元-22,第一扰动生成单元-23,差异信息提取单元-24,第二扰动生成单元-25,扰动样本生成单元-26,训练单元-27,识别单元-28。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明的目的是提供一种多光谱掌纹识别方法、系统、电子设备及介质,在模型训练的过程中考虑到在遇到对抗样本攻击时的结果,将对抗样本加入到训练集中进行训练,增强多光谱掌纹识别模型在遇到对抗样本攻击时的鲁棒性。
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。
实施例一
如图1所示,本实施例提供一种多光谱掌纹识别方法,包括:
S1:获取多光谱掌纹样本集。所述多光谱掌纹样本集中包括多组掌纹样本图像,每组掌纹样本图像包括不同光谱下同一掌纹的样本图像。
S2:针对任一组掌纹样本图像,采用深度典型相关性分析算法提取不同光谱下所述掌纹的样本图像之间的公共相关性信息。
具体地,首先将不同光谱下所述掌纹的样本图像映射到公共相关性空间中,得到各样本图像在所述公共相关性空间中的表示。在本实施例中,采用预先确定的投影参数将不同光谱下所述掌纹的样本图像映射到公共相关性空间中。
然后根据各样本图像在所述公共相关性空间中的表示,确定各样本图像的中心化矩阵。在本实施例中,采用公式
Figure BDA0004041946840000061
确定样本图像的中心化矩阵。其中,
Figure BDA0004041946840000062
为样本图像的中心化矩阵,Y为样本图像在公共相关性空间中的表示,m为掌纹的数量。
最后根据各样本图像的中心化矩阵,确定不同光谱下所述掌纹的样本图像之间的公共相关性信息。在本实施例中,采用以下公式确定不同光谱下所述掌纹的样本图像之间的公共相关性信息:
Figure BDA0004041946840000063
其中,corr(Y1,Y2)为不同光谱下所述掌纹的样本图像之间的公共相关性信息,
Figure BDA0004041946840000064
Figure BDA0004041946840000065
分别为不同光谱下所述掌纹的样本图像的中心化矩阵,tr()为矩阵的迹,m为掌纹的数量,T为转置,r1和r2为正则化常数,I为单位矩阵。
S3:采用基础迭代攻击方法生成所述掌纹的各样本图像的第一扰动,以破坏各样本图像之间的公共相关性信息。在本实施例中,采用快速梯度符号算法迭代生成各样本图像的第一扰动。
S4:将该组掌纹样本图像投影到差异子空间中,确定不同光谱下所述掌纹的样本图像之间的差异判别信息。
S5:基于对抗性区域确定算法生成所述掌纹的各样本图像的第二扰动,以破坏各样本图像之间的差异判别信息。在本实施例中,采用公式
Figure BDA0004041946840000071
Figure BDA0004041946840000072
生成样本图像x的第二扰动。其中,xper为样本图像x的第二扰动,ε为控制扰动大小的常数,x*为样本图像x在差异子空间中的投影,||||2为二范数。
S6:将所述掌纹的各样本图像的第一扰动及所述掌纹的各样本图像的第二扰动添加至对应的样本图像中,以得到所述掌纹的多张扰动样本图像。
S7:采用各掌纹的扰动样本图像对深度神经网络进行对抗训练,以得到多光谱掌纹识别模型。
S8:基于所述多光谱掌纹识别模型,对待识别掌纹图像进行掌纹识别。
优选地,步骤S1-S6为针对多光谱掌纹识别模型的对抗样本生成方法,如图2所示为针对多光谱掌纹识别的对抗样本生成过程的示意图,如图3所示为针对多光谱掌纹识别对抗攻击的实例结构图。为了更好的理解本发明的方案,下面结合具体实施例对对抗样本生成过程进一步进行说明。
1)将多光谱掌纹样本集划分为训练集和测试集。多光谱掌纹样本集中包括多张在不同光谱下采集得到的掌纹样本图像。
2)将训练集输入至深度典型相关模型进行训练,使得映射后的特征间相关性最大。同时计算训练集的差异子空间,并得到将样本投影到差异子空间中的投影矩阵。
3)将测试集输入深度典型相关模型,使用基础迭代攻击方法,计算损失函数相对于输入样本图像的梯度,并将随机选择的常数乘以梯度的符号向量,生成一个小扰动,通过多次迭代生成最终的第一扰动。同时将测试集投影到差异子空间中来模拟数据流形空间,根据对抗性区域理论计算得到能够破环差异判别空间的第二扰动。
在生成第一扰动的过程中,首先生成能够破坏公共相关性空间信息的扰动,需要使得添加扰动后的图像在经过深度典型相关性模块投影之后的相关系数降低,最终会影响到多光谱掌纹识别模型的判断结果。即首先使用深度典型相关性分析方法提取各个光谱下的样本图像的相关信息,每一个光谱下的样本图像在输入深度典型相关模型后,会经过一个深度神经网络模块,将样本图像映射到公共相关性空间中,然后通过基础迭代攻击的方法,根据深度典型相关性分析的损失函数来生成能够破坏公共相关性信息的扰动,从而影响分类器的分类结果。深度神经网络模块首先需要根据多光谱掌纹样本集进行训练,使得映射后的不同光谱下掌纹的特征相关系数最大。
为了便于优化,损失函数采用如下公式表示:
-corr(f1(x1;θ1),f2(x2;θ2));
其中,corr表示映射后特征的相关系数,f1()和f2()分别表示两个光谱下的样本图像对应的映射,x1和x2分别表示两个光谱下的样本图像,θ1和θ2表示两个光谱下样本图像对应的投影网络的参数。
深度典型相关模型用于数据降维,每个光谱下的样本图像对应一个视图,每个视图都有一个对应的神经网络模块,每个视图的样本图像在经过神经网络模块后得到降维后的特征,通过这些训练后的神经网络模块,使得降维后的特征之间的相关系数最大。
如图4所示深度典型相关分析模型的结构图,CCA(canonical correlationanalysis,典型相关性分析)是一种基于统计的数据融合技术,用于寻找到两个视图之间的相关信息,使得经过投影后的数据之间的相关系数最大化,典型相关性分析为线性投影,而深度典型相关性分析是典型相关性分析的非线形版本,该方法使用一个神经网络模块取代了典型相关性分析中的线形投影矩阵,实现了非线形投影。定义两个维度分别为d11,d12的视图
Figure BDA0004041946840000081
以及
Figure BDA0004041946840000082
这两个视图都来自于同一个样本,则将x1输入神经网络模块后,拥有c1个节点的网络第k层的输出可以表示如下:
Figure BDA0004041946840000083
其中,
Figure BDA0004041946840000084
表示权重矩阵,
Figure BDA0004041946840000085
是一个偏移向量,ck为第k层的节点个数,
Figure BDA0004041946840000086
是一个非线形的激活函数。对于一个有γ层的网络来说,将x1输入后得到的输出可以表示如下:
Figure BDA0004041946840000091
而x2的计算方式也与上述方法相同。深度典型相关分析的目标是同时学习得到各个网络的参数,使得经过网络非线形投影后的表示之间的相关性越高越好。现在定义θ1是第一个视图即x1对应的投影网络的所有参数,θ2是第二个视图即x2对应的投影网络的所有参数,优化目标可以用下面的公式表示:
Figure BDA0004041946840000092
其中,
Figure BDA0004041946840000093
Figure BDA0004041946840000094
为优化后的投影网络的参数。
此外,广义深度典型相关性分析是深度典型相关性分析的扩展,如图5所示,其可以计算两个或者两个以上的的视图的相关性,通过非线形投影,使得投影后的表示之间的相关系数最大。
对于只融合了两个光谱下的掌纹图像的多光谱掌纹识别模型来说,本发明使用深度典型相关性分析模型来提取各光谱下样本图像之间的公共相关信息。现在定义两个视图x1、x2的特征矩阵分别表示为
Figure BDA0004041946840000095
以及
Figure BDA0004041946840000096
Figure BDA0004041946840000097
相应的投影之后的矩阵表示为f1(X1;θ1)以及f2(X1;θ2),θ1是第一个视图即x1对应的投影网络的所有参数,θ2是第二个视图即x2对应的投影网络的所有参数,定义投影后的表示分别为Y1=f1(X1;θ1)∈Rm×d'以及Y2=f2(X2;θ2)∈Rm×d',然后得到中心化的矩阵
Figure BDA0004041946840000099
以及
Figure BDA00040419468400000910
Figure BDA00040419468400000911
定义
Figure BDA00040419468400000912
以及
Figure BDA00040419468400000913
其中r1和r2为正则化常数,在本实施例中,假设r1和r2均大于0,则Σ11以及Σ22都是正定的,Y1和Y2的前k个分量的总相关性是矩阵等同于矩阵U=
Figure BDA00040419468400000914
当取k=d'时,总相关系数等同于矩阵U的矩阵迹范数:
Figure BDA00040419468400000915
在训练完投影网络后,将测试样本的数据通过深度典型相关模型来提取公共相关性信息,下面需要生成能够破坏这些相关性信息的扰动,从而影响分类器,最终使得分类器分类出错。
本发明使用基础迭代攻击方法来生成能够破坏公共相关信息的扰动,基础迭代攻击以FGSM(Fast Gradient Sign Method,快速梯度符号方法)为基础,通过多次迭代,从而能够生产对抗性更强的扰动。快速梯度符号方法旨在快速找到给定输入的摄动方向,使目标模型的训练损失函数增大,降低分类置信度,增加类间混淆的可能性,根据定义,错误分类实例的损失值要比其他情况大。快速梯度符号方法的工作原理是计算损失函数相对于输入的梯度,并通过将选择的小常数乘以梯度的符号向量来产生一个小扰动,公式如下:
Figure BDA0004041946840000101
其中,
Figure BDA0004041946840000102
是损失函数相对于输入的梯度,在模型为深度神经网络的情况下,这可以通过反向传播算法来计算。
对于破坏相关性空间来说,深度典型相关模型为了便于优化,使用-corr(Y1,Y2)作为训练的损失函数,第一视图和第二视图的梯度分别用
Figure BDA0004041946840000103
以及
Figure BDA0004041946840000104
表示。下面通过多次迭代生成能够破环公共相关性空间的扰动,公式如下:
Figure BDA0004041946840000105
其中,
Figure BDA0004041946840000106
Clip用来约束每次迭代后生产的扰动要在一定的范围之内,t表示迭代的次数,而α表示每次迭代时添加的扰动的强度,为常数。
Figure BDA0004041946840000107
为第t次迭代时的f1(X'11),
Figure BDA0004041946840000108
为第t次迭代时的f2(X'22)。对原始图像加摄动后,f1(X'11)与f2(X'22)之间的相关系数减小,破坏了两视图之间的共同信息和互补信息,影响了特征提取的效果,最终导致分类模型的误差。
对于融合了两个以及两个以上个数光谱的多光谱掌纹识别模型来说,本发明使用深度广义典型相关性分析来提取公共相关性信息。现在定义输入矩阵
Figure BDA0004041946840000109
其中,i指的是第i个光谱下的掌纹样本图像,m指的是有一个光谱下的图像有m个输入样本,相对应的投影后的特征矩阵表示为Yi=fi(Xii),可以得到
Figure BDA00040419468400001010
作为经验协方差矩阵,d'i为第i个光谱下的掌纹投影后的特征的维度,并且
Figure BDA00040419468400001011
即为相应的投影矩阵,其中Pi是对称幂等的,此外,定义总投影矩阵为
Figure BDA0004041946840000111
深度广义典型相关性分析的优化目标函数可以表示为:
Figure BDA0004041946840000112
其中,r表示总投影矩阵M的前r个最大的特征值,Ui为第i个光谱下图像的投影矩阵,G为总投影矩阵M的前r个最大的特征值对应的特征向量组成的矩阵。
最小化该目标函数等同于最大化GMGT的迹,即Tr(GMGT),可以通过计算特征值之和
Figure BDA0004041946840000113
来得到,λρ(M)为总投影矩阵M的第ρ个特征值。则目标函数又可以表示如下:
Figure BDA0004041946840000114
对于第i个光谱下的图像的梯度计算如下:
Figure BDA0004041946840000115
下面需要计算生成能够破坏这些相关性信息的扰动,从而影响分类器,最终使得分类出错,同样使用基础迭代方法来计算,与上述方式相同。最终生成能够破坏公共相关性信息的扰动。如图6所示为生成破坏公共相关性空间的扰动的流程示意图。
在原始的样本图像上添加上生成的扰动后得到对抗样本图像,将对抗样本图像输入到分类模型(多光谱掌纹识别模型)中,由于破坏了相关性空间,使得多光谱掌纹识别模型的融合效果变差,最终会影响到模型的输出结果,导致判断出错。
在生成第二扰动的过程中,使用差异子空间方法来提取不同类别的样本之间的差异信息,并将差异子空间方法推广到多光谱掌纹识别中,利用对抗性区域理论来生成对抗样本,对抗性区域基于数据流形的对抗性现象,但是由于数据流形很难构造,所以将样本投影到差异子空间中来模拟数据流形空间,同时,生成能够破坏差异判别信息的扰动。
对抗区域理论源于数据流形的对抗性现象,流形学习是一种机器学习方法,该方法能对训练集中的高维数据空间进行非线性降维,揭示数据的流形分布状况,并能从中找到隐藏在高维数据中有意义的低维数据结构,进而从中提取出易于识别的特征。它的目标是发现嵌入在高维数据空间中的低维流形结构,并给出一个有效的低维表示,而数据流形的对抗性现象指的是一个泛化性能良好的机器学习模型对于分布在x点与其流形切平面正交方向上的畸变高度敏感,在面对图像分类问题时,将每个类别的数据映射到相应的流形界面,流形上的数据点可以局部地用一个低维向量来表征。对于一个W维空间上的样本点x1,沿着W维空间的流形界面的映射方向进行搜寻,可得到相应的对抗区域和对抗样本。现在假设有一个数据集W,能够张成一个d维的数据空间,该数据空间相应的流形空间为L,数据集W中有一个点用x1来表示,
Figure BDA0004041946840000121
表示点x1在数据流形L上的投影点,则点x1的对抗性区域可以表示为:
Figure BDA0004041946840000122
此外,对抗性区域对所有机器学习模型都构成了潜在威胁。如图7所示,定义了两个决策超平面f1和f2,可以使用这两个决策超平面将对抗区域划分为2个子集,即对抗子集Sadv和常规子集Sreg,对抗区域由超平面f1划分得到Sadv,1以及Sreg,1,如果该对抗区域又被超平面f2划分,则会存在一个交集Sadv,1∩Sadv,2,处于这个交集中的点会导致这两个分类器都分类出错,表明2个对抗子集中的样本能够在两个模型之间传递,该原理也说明了对抗性区域方法生成的对抗样本有较强的可迁移性。
在现实中数据流形很难显式构造,本发明将数据投影到差异子空间中来模拟数据流形。差异子空间的目的是用来提取不同类别数据间的差异判别信息。如图8所示,假设有两个N维的子空间P和子空间Q,分属于类别1和类别2的两类样本的子空间,定义di为子空间P中的一个基向量pi和子空间Q中的一个基向量qi的差异向量。且子空间中的的向量都是单位正交的,差异向量di的长度也会被归一化至1。这里d1,d2,…dN则为一组形成差异子空间的基向量。
这里使用代数方法来计算差异子空间,假设[φ1…φN]∈Rf×N和[ψ1…ψN]∈Rf×N分别是子空间P和子空间Q的单位正交基向量,设P和Q分别为子空间P和子空间Q的投影矩阵,其中
Figure BDA0004041946840000131
则差异子空间D可以通过计算投影矩阵P+Q的前N个最小的特征值所对应的特征向量得到,这些特征向量即为子空间P和子空间Q的差异子空间的单位正交基向量,这些向量能够形成差异子空间。最终得到投影矩阵Z,通过该投影矩阵Z可以将输入样本投影到差异子空间中,从而提取出样本的差异判别信息。
下面将差异子空间应用到多光谱数据集中,假设有n个光谱下的掌纹数据集,定义Pi为光谱i中类别为1的样本,定义Qi为光谱i中类别为2的样本。子空间的总数为N,假设
Figure BDA0004041946840000132
表示子空间Pi的正交基,
Figure BDA0004041946840000133
Figure BDA0004041946840000134
表示Qi的正交基。相对应的用于多光谱掌纹的总投影矩阵G’可以表示如下:
Figure BDA0004041946840000135
给定两个投影矩阵A和B,可以得到λk=(λ'k-1)2,其中λ'k和λk分别是矩阵A+B和矩阵AB的第k个最大的特征值。因此,多光谱的总投影矩阵G’的特征值λ'k就等同于
Figure BDA0004041946840000136
当λ'k<1时,特征向量vk可以表示为:
Figure BDA0004041946840000137
将总投影矩阵G’的表达式带入上面公式中,可以得到:
Figure BDA0004041946840000138
化简后得到:
Figure BDA0004041946840000139
vk可以使用基向量线形组合表示得到,即
Figure BDA00040419468400001310
其中,aj和bj是对应的线性组合的系数,pi∈(P1,P2…Pn),qi∈(Q1,Q2…Qn),则上述等式可以表示如下:
Figure BDA00040419468400001311
Figure BDA00040419468400001413
该公式有如下关系:
Figure BDA0004041946840000141
Figure BDA0004041946840000142
以及
Figure BDA0004041946840000143
因此,上述等式可以改写如下:
Figure BDA0004041946840000144
从该式中可以得到:
bjηj+ajηk=ajηj+bjηk=0;
由于pj,qj是线形无关的,所以当j≠k时,(ηjj+1)(aj+1+bj+1)=0。这里因为ηjj+1≠0,所以可以得到aj+1=-bj+1。将其带入到上方公式中可以发现当ηj+1≠ηj时,aj+1j+1j)=bj+1j+1j)=0,可得aj+1=bj+1=0(j≠k)。此外,当j=k时,可以得到bkηk+akηk=0。最终得到vk=pk-qk,说明,多光谱掌纹任务中的差分子空间可以通过计算总的投影矩阵G的前N个最小的特征值所对应的特征向量得到。
下面将样本投影到差异子空间中来模拟数据流形空间,同时也能够有效提取并利用多光谱掌纹间的差异判别信息,进而根据对抗性区域理论来生成能够破坏样本的差异判别信息的对抗性扰动,该扰动拥有较强的对抗性能,破坏了各个类别的样本之间的差异判别信息,使得添加了扰动后生成的对抗样本在输入到对光谱掌纹识别模型后会被模型分类出错。
假设有C(≥2)个N维的子空间,每一类的子空间表示为Pk(k=1,…,C),其中
Figure BDA0004041946840000145
相应的投影矩阵可以表示如下:
Figure BDA0004041946840000146
总的投影矩阵为
Figure BDA0004041946840000147
差分子空间可以通过计算总的投影矩阵G的前N个最小的特征值所对应的特征向量得到,这里投影矩阵计算为
Figure BDA0004041946840000148
将输入样本x投影到差分子空间中,使得y=ZTx以及y*=ZTx,其中
Figure BDA0004041946840000149
以及
Figure BDA00040419468400001410
使用差分子空间来模拟流形空间,同时,
Figure BDA00040419468400001411
这里的i∈{1,2,…,Nd}。yi以及
Figure BDA00040419468400001412
分别指的是y和y*的第i个向量。根据对抗性区域的表达式,对抗扰动可以计算如下:
Figure BDA0004041946840000151
其中,zi表示矩阵Z的第i个向量。
最终生成得到能够破坏样本差异判别信息的扰动。如图9所示为生成破坏差异判别性空间的扰动的流程示意图。
4)结合上述两个方法生成的对抗扰动(第一扰动及第二扰动),将其添加到原始的样本图像中,以得到最终的对抗样本图像。结合两种扰动后的对抗样本能够同时破坏原始样本的公共相关性信息以及差异判别信息,从而生成了对抗性更强的对抗样本。
步骤S7为多光谱掌纹识别模型的训练过程,即在生成对抗样本的基础上,使用对抗训练的方法来提高多光谱掌纹识别模型的鲁棒性能,对抗训练通过将对抗样本加入训练数据集中来提高模型的鲁棒性。
如图10所示,首先将样本集划分为训练集和测试集,在第一次迭代中,使用原始的训练集输入多光谱掌纹识别模型进行训练,得到未经过鲁棒性增强的模型。然后采用步骤S1-S6的方法生成各个光谱下的样本的对抗样本,该方法生成的对抗样本具有较强的可迁移性能,且能够同时破坏同时破环样本的公共相关性信息以及差异判别信息。
在第二次迭代中,将生成的对抗样本添加到原始的训练集中,生成新的包含了对抗样本的训练集,将该训练集送入到多光谱掌纹识别模型中进行训练,得到新的增强后的模型,下面再使用本发明中的对抗样本生成方法来生成出新的对抗样本。
在第三次迭代中,与上面操作相同,继续将新生成的对抗样本加入到之前到训练集合中,得到这一次迭代所需要的训练集合,并将训练集送入光谱掌纹识别模型中进行训练。
与上述过程相同,经过多次迭代之后,最终可以生成得到鲁棒性增强后的多光谱掌纹识别模型。
本发明使用无监督方法提取了各个光谱之间的相关性信息,并且生成了能够破坏样本公共相关信息的扰动,此外还提取了样本的差异判别信息,同时也生成了能够破坏样本差异判别信息的扰动,最后结合这两种扰动来生成对抗样本,该方法属于一种黑盒攻击,不需要知道目标模型的具体信息,不依赖于具体的目标模型,生成的对抗样本能够同时破坏样本的公共相关信息以及差异判别信息,具有较强的可迁移性能。将该方法生成的对抗样本加入到训练集中用于对抗训练,能够有效提高多光谱掌纹识别模型在面对对抗样本时的鲁棒性。
实施例二
为了执行上述实施例一对应的方法,以实现相应的功能和技术效果,下面提供一种多光谱掌纹识别系统系统。
如图11所示,本实施例提供的多光谱掌纹识别系统包括:样本获取单元21、公共信息提取单元22、第一扰动生成单元23、差异信息提取单元24、第二扰动生成单元25、扰动样本生成单元26、训练单元27及识别单元28。
样本获取单元21用于获取多光谱掌纹样本集。所述多光谱掌纹样本集中包括多组掌纹样本图像,每组掌纹样本图像包括不同光谱下同一掌纹的样本图像;
公共信息提取单元22用于针对任一组掌纹样本图像,采用深度典型相关性分析算法提取不同光谱下所述掌纹的样本图像之间的公共相关性信息。
第一扰动生成单元23用于采用基础迭代攻击方法生成所述掌纹的各样本图像的第一扰动,以破坏各样本图像之间的公共相关性信息。
差异信息提取单元24用于针对任一组掌纹样本图像,将该组掌纹样本图像投影到差异子空间中,确定不同光谱下所述掌纹的样本图像之间的差异判别信息。
第二扰动生成单元25用于基于对抗性区域确定算法生成所述掌纹的各样本图像的第二扰动,以破坏各样本图像之间的差异判别信息。
扰动样本生成单元26用于将所述掌纹的各样本图像的第一扰动及所述掌纹的各样本图像的第二扰动添加至对应的样本图像中,以得到所述掌纹的多张扰动样本图像。
训练单元27用于采用各掌纹的扰动样本图像对深度神经网络进行对抗训练,以得到多光谱掌纹识别模型。
识别单元28用于基于所述多光谱掌纹识别模型,对待识别掌纹图像进行掌纹识别。
相对于现有技术,本实施例提供的多光谱掌纹识别系统与实施例一提供的多光谱掌纹识别方法的有益效果相同,在此不再赘述。
实施例三
本实施例提供一种电子设备,包括存储器及处理器,存储器用于存储计算机程序,处理器运行计算机程序以使电子设备执行实施例一的多光谱掌纹识别方法。
可选地,上述电子设备可以是服务器。
另外,本发明实施例还提供一种计算机可读存储介质,其存储有计算机程序,该计算机程序被处理器执行时实现实施例一的多光谱掌纹识别方法。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。
本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处。综上所述,本说明书内容不应理解为对本发明的限制。

Claims (10)

1.一种多光谱掌纹识别方法,其特征在于,所述多光谱掌纹识别方法包括:
获取多光谱掌纹样本集;所述多光谱掌纹样本集中包括多组掌纹样本图像,每组掌纹样本图像包括不同光谱下同一掌纹的样本图像;
针对任一组掌纹样本图像,采用深度典型相关性分析算法提取不同光谱下所述掌纹的样本图像之间的公共相关性信息;
采用基础迭代攻击方法生成所述掌纹的各样本图像的第一扰动,以破坏各样本图像之间的公共相关性信息;
将该组掌纹样本图像投影到差异子空间中,确定不同光谱下所述掌纹的样本图像之间的差异判别信息;
基于对抗性区域确定算法生成所述掌纹的各样本图像的第二扰动,以破坏各样本图像之间的差异判别信息;
将所述掌纹的各样本图像的第一扰动及所述掌纹的各样本图像的第二扰动添加至对应的样本图像中,以得到所述掌纹的多张扰动样本图像;
采用各掌纹的扰动样本图像对深度神经网络进行对抗训练,以得到多光谱掌纹识别模型;
基于所述多光谱掌纹识别模型,对待识别掌纹图像进行掌纹识别。
2.根据权利要求1所述的多光谱掌纹识别方法,其特征在于,所述采用深度典型相关性分析算法提取不同光谱下所述掌纹的样本图像之间的公共相关性信息,具体包括:
将不同光谱下所述掌纹的样本图像映射到公共相关性空间中,得到各样本图像在所述公共相关性空间中的表示;
根据各样本图像在所述公共相关性空间中的表示,确定各样本图像的中心化矩阵;
根据各样本图像的中心化矩阵,确定不同光谱下所述掌纹的样本图像之间的公共相关性信息。
3.根据权利要求2所述的多光谱掌纹识别方法,其特征在于,采用预先确定的投影参数将不同光谱下所述掌纹的样本图像映射到公共相关性空间中。
4.根据权利要求2所述的多光谱掌纹识别方法,其特征在于,采用以下公式确定样本图像的中心化矩阵:
Figure FDA0004041946830000021
其中,
Figure FDA0004041946830000024
为样本图像的中心化矩阵,Y为样本图像在公共相关性空间中的表示,m为掌纹的数量。
5.根据权利要求2所述的多光谱掌纹识别方法,其特征在于,采用以下公式确定不同光谱下所述掌纹的样本图像之间的公共相关性信息:
Figure FDA0004041946830000022
其中,corr(Y1,Y2)为不同光谱下所述掌纹的样本图像之间的公共相关性信息,
Figure FDA0004041946830000025
Figure FDA0004041946830000026
分别为不同光谱下所述掌纹的样本图像的中心化矩阵,tr()为矩阵的迹,m为掌纹的数量,T为转置,r1和r2为正则化常数,I为单位矩阵。
6.根据权利要求1所述的多光谱掌纹识别方法,其特征在于,采用快速梯度符号算法迭代生成各样本图像的第一扰动。
7.根据权利要求1所述的多光谱掌纹识别方法,其特征在于,采用以下公式生成样本图像x的第二扰动:
Figure FDA0004041946830000023
其中,xper为样本图像x的第二扰动,ε为控制扰动大小的常数,x*为样本图像x在差异子空间中的投影,|| ||2为二范数。
8.一种多光谱掌纹识别系统,其特征在于,所述多光谱掌纹识别系统包括:
样本获取单元,用于获取多光谱掌纹样本集;所述多光谱掌纹样本集中包括多组掌纹样本图像,每组掌纹样本图像包括不同光谱下同一掌纹的样本图像;
公共信息提取单元,用于针对任一组掌纹样本图像,采用深度典型相关性分析算法提取不同光谱下所述掌纹的样本图像之间的公共相关性信息;
第一扰动生成单元,用于采用基础迭代攻击方法生成所述掌纹的各样本图像的第一扰动,以破坏各样本图像之间的公共相关性信息;
差异信息提取单元,用于针对任一组掌纹样本图像,将该组掌纹样本图像投影到差异子空间中,确定不同光谱下所述掌纹的样本图像之间的差异判别信息;
第二扰动生成单元,用于基于对抗性区域确定算法生成所述掌纹的各样本图像的第二扰动,以破坏各样本图像之间的差异判别信息;
扰动样本生成单元,用于将所述掌纹的各样本图像的第一扰动及所述掌纹的各样本图像的第二扰动添加至对应的样本图像中,以得到所述掌纹的多张扰动样本图像;
训练单元,用于采用各掌纹的扰动样本图像对深度神经网络进行对抗训练,以得到多光谱掌纹识别模型;
识别单元,用于基于所述多光谱掌纹识别模型,对待识别掌纹图像进行掌纹识别。
9.一种电子设备,其特征在于,包括存储器及处理器,所述存储器用于存储计算机程序,所述处理器运行所述计算机程序以使所述电子设备执行权利要求1至7中任一项所述的多光谱掌纹识别方法。
10.一种计算机可读存储介质,其特征在于,其存储有计算机程序,所述计算机程序被处理器执行时实现如权利要求1至7中任一项所述的多光谱掌纹识别方法。
CN202310020809.XA 2023-01-06 2023-01-06 一种多光谱掌纹识别方法、系统、电子设备及介质 Active CN116071787B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310020809.XA CN116071787B (zh) 2023-01-06 2023-01-06 一种多光谱掌纹识别方法、系统、电子设备及介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310020809.XA CN116071787B (zh) 2023-01-06 2023-01-06 一种多光谱掌纹识别方法、系统、电子设备及介质

Publications (2)

Publication Number Publication Date
CN116071787A true CN116071787A (zh) 2023-05-05
CN116071787B CN116071787B (zh) 2023-09-29

Family

ID=86176316

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310020809.XA Active CN116071787B (zh) 2023-01-06 2023-01-06 一种多光谱掌纹识别方法、系统、电子设备及介质

Country Status (1)

Country Link
CN (1) CN116071787B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117457032A (zh) * 2023-12-25 2024-01-26 山东万里红信息技术有限公司 一种基于体量识别的存储介质销毁方法

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120194662A1 (en) * 2011-01-28 2012-08-02 The Hong Kong Polytechnic University Method and system for multispectral palmprint verification
CN103942553A (zh) * 2014-01-17 2014-07-23 吉林大学 一种多光谱掌纹精细纹路提取识别方法及其采集台
CN103974049A (zh) * 2014-04-28 2014-08-06 京东方科技集团股份有限公司 一种穿戴式投影装置及投影方法
CN109753912A (zh) * 2018-12-27 2019-05-14 南京邮电大学 一种基于张量的多光谱掌纹匹配方法
CN110633655A (zh) * 2019-08-29 2019-12-31 河南中原大数据研究院有限公司 一种attention-attack人脸识别攻击算法
CN111340103A (zh) * 2020-02-24 2020-06-26 安徽大学 一种基于图嵌入典型相关分析的特征层融合方法及其装置
US20200410335A1 (en) * 2019-06-26 2020-12-31 International Business Machines Corporation Detecting and Purifying Adversarial Inputs in Deep Learning Computing Systems
CN112232434A (zh) * 2020-10-29 2021-01-15 浙江工业大学 基于相关性分析的对抗攻击协同防御方法及装置
CN114821730A (zh) * 2022-05-10 2022-07-29 中移(杭州)信息技术有限公司 人脸识别方法、装置、设备及计算机可读存储介质
CN114969826A (zh) * 2022-06-17 2022-08-30 支付宝(杭州)信息技术有限公司 一种生物识别的隐私保护方法、装置及设备
CN115546848A (zh) * 2022-10-26 2022-12-30 南京航空航天大学 一种对抗生成网络训练方法、跨设备掌纹识别方法及系统

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120194662A1 (en) * 2011-01-28 2012-08-02 The Hong Kong Polytechnic University Method and system for multispectral palmprint verification
CN103942553A (zh) * 2014-01-17 2014-07-23 吉林大学 一种多光谱掌纹精细纹路提取识别方法及其采集台
CN103974049A (zh) * 2014-04-28 2014-08-06 京东方科技集团股份有限公司 一种穿戴式投影装置及投影方法
CN109753912A (zh) * 2018-12-27 2019-05-14 南京邮电大学 一种基于张量的多光谱掌纹匹配方法
US20200410335A1 (en) * 2019-06-26 2020-12-31 International Business Machines Corporation Detecting and Purifying Adversarial Inputs in Deep Learning Computing Systems
CN110633655A (zh) * 2019-08-29 2019-12-31 河南中原大数据研究院有限公司 一种attention-attack人脸识别攻击算法
CN111340103A (zh) * 2020-02-24 2020-06-26 安徽大学 一种基于图嵌入典型相关分析的特征层融合方法及其装置
CN112232434A (zh) * 2020-10-29 2021-01-15 浙江工业大学 基于相关性分析的对抗攻击协同防御方法及装置
CN114821730A (zh) * 2022-05-10 2022-07-29 中移(杭州)信息技术有限公司 人脸识别方法、装置、设备及计算机可读存储介质
CN114969826A (zh) * 2022-06-17 2022-08-30 支付宝(杭州)信息技术有限公司 一种生物识别的隐私保护方法、装置及设备
CN115546848A (zh) * 2022-10-26 2022-12-30 南京航空航天大学 一种对抗生成网络训练方法、跨设备掌纹识别方法及系统

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
QI ZHU等: "Cross-spectral palmprint recognition with low-rank canonical correlation analysis", 《MULTIMEDIA TOOLS AND APPLICATIONS》, vol. 79, pages 33771, XP037308013, DOI: 10.1007/s11042-019-08362-x *
QI ZHU等: "Multi-Spectral Palmprints Joint Attack and Defense With Adversarial Examples Learning", 《IEEE TRANSACTIONS ON INFORMATION FORENSICS AND SECURITY》, vol. 18, pages 1789 - 1799 *
刘雪微等: "基于卷积神经网络的多光谱掌纹识别技术", 《郑州大学学报(理学版)》, vol. 53, no. 3, pages 50 - 55 *
火元莲: "基于Gabor小波与共同向量的人脸识别方法", 《计算机应用》, vol. 29, no. 9, pages 2383 - 2385 *
许学斌等: "基于多光谱图像融合的掌纹识别方法", 《光谱学与光谱分析》, vol. 42, no. 11, pages 3615 - 3625 *
许诺亚: "复杂场景下掌纹识别方法研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》, no. 7, pages 138 - 540 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117457032A (zh) * 2023-12-25 2024-01-26 山东万里红信息技术有限公司 一种基于体量识别的存储介质销毁方法
CN117457032B (zh) * 2023-12-25 2024-03-22 山东万里红信息技术有限公司 一种基于体量识别的存储介质销毁方法

Also Published As

Publication number Publication date
CN116071787B (zh) 2023-09-29

Similar Documents

Publication Publication Date Title
CN105550657B (zh) 基于关键点的改进sift人脸特征提取方法
US8005767B1 (en) System and method of classifying events
CN107862680B (zh) 一种基于相关滤波器的目标跟踪优化方法
CN116071787B (zh) 一种多光谱掌纹识别方法、系统、电子设备及介质
CN112949469A (zh) 针对人脸篡改图像特点分布的图像识别方法、系统及设备
Li et al. Sa-es: Subspace activation evolution strategy for black-box adversarial attacks
CN110097117B (zh) 基于线性判别分析与多元自适应样条的数据分类方法
Raveendra et al. Performance evaluation of face recognition system by concatenation of spatial and transformation domain features
Vinay et al. Two dimensionality reduction techniques for surf based face recognition
He et al. ResNeXt+: Attention mechanisms based on ResNeXt for malware detection and classification
Khalid et al. Tropical wood species recognition system based on multi-feature extractors and classifiers
Woźniak et al. Basic concept of cuckoo search algorithm for 2D images processing with some research results: An idea to apply cuckoo search algorithm in 2d images key-points search
Zhu et al. Multi-spectral palmprints joint attack and defense with adversarial examples learning
Jadhav et al. HDL-PI: hybrid DeepLearning technique for person identification using multimodal finger print, iris and face biometric features
CN104573728B (zh) 一种基于极端学习机的纹理分类方法
Li et al. Face liveness detection based on parallel CNN
Zhang et al. Contrastive learning ideas in underwater terrain image matching
Fernandes et al. Directed adversarial attacks on fingerprints using attributions
Liu et al. Enhanced attacks on defensively distilled deep neural networks
Hasan Abdulameer et al. Face Identification Approach Using Legendre Moment and Singular Value Decomposition
Naser et al. Artificial Neural Network-Based Fingerprint Classification and Recognition.
Dhamija et al. An approach to enhance performance of age invariant face recognition
CN110378262B (zh) 基于加性高斯核的核非负矩阵分解人脸识别方法、装置、系统及存储介质
Anila et al. Global and local classifiers for face recognition
Umair et al. Classification of Demographic Attributes from Facial Image by using CNN

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant