CN112001292A - 一种基于多尺度注意力机制深度哈希的指静脉索引方法 - Google Patents

一种基于多尺度注意力机制深度哈希的指静脉索引方法 Download PDF

Info

Publication number
CN112001292A
CN112001292A CN202010832348.2A CN202010832348A CN112001292A CN 112001292 A CN112001292 A CN 112001292A CN 202010832348 A CN202010832348 A CN 202010832348A CN 112001292 A CN112001292 A CN 112001292A
Authority
CN
China
Prior art keywords
image
scale attention
attention mechanism
hash
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010832348.2A
Other languages
English (en)
Other versions
CN112001292B (zh
Inventor
王新年
李源
齐国清
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dalian Maritime University
Original Assignee
Dalian Maritime University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dalian Maritime University filed Critical Dalian Maritime University
Priority to CN202010832348.2A priority Critical patent/CN112001292B/zh
Publication of CN112001292A publication Critical patent/CN112001292A/zh
Application granted granted Critical
Publication of CN112001292B publication Critical patent/CN112001292B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/51Indexing; Data structures therefor; Storage structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/14Vascular patterns
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Multimedia (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Computing Systems (AREA)
  • Evolutionary Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mathematical Physics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Human Computer Interaction (AREA)
  • Databases & Information Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供一种基于多尺度注意力机制深度哈希的指静脉索引方法,包括:获取包括指静脉特征数据的训练集;对训练集进行遍历和扩充操作,得到扩充训练集;基于扩充训练集和预先构建的多尺度注意力特征提取模型,提取多尺度注意力机制指静脉深度特征;基于多尺度注意力机制指静脉深度特征和预先构建的分类监督模型、哈希编码模型、检索任务监督模型,进行三重损失函数的协同训练,生成最终的训练模型。本发明主要通过采用神经网络的方法并且加入多尺度注意力机制,相比较于传统的特征提取算法,特征的鲁棒性获得一定的提升,同时,本发明中的模型是端到端的,可以保证哈希编码和特征提取的整体性,编码质量和编码效率得到了保障。

Description

一种基于多尺度注意力机制深度哈希的指静脉索引方法
技术领域
本发明涉及指静脉识别技术领域,具体而言,尤其涉及一种基于多尺度注意力机制深度哈希的指静脉索引方法。
背景技术
近年来,随着的生物特征识别技术的快速发展,指静脉识别技术逐渐被人们所熟知。指静脉识别技术除了具有普遍性,持久性,唯一性和可采集性的生物特征识别的固有特性外还有活体检测和非接触特性的特有属性,因此被民众广泛接受。在指静脉识别技术的应用越来越广泛的情况下,数据库中存储的注册用户逐渐累积,过往的识别技术在逐渐积累的数据量下难以达到实时效果。并且传统的手工特征在海量数据下也难以保证良好的鲁棒性。
现有的指静脉哈希索引方法,使用双侧红外照射采集的指静脉图像进行预处理、边缘检测、方向矫正和感兴趣区域(ROI)提取,采用Res2net卷积神经网络对ROI图像进行二进制编码。将提取的二进制编码特征作为待注册/识别的指静脉特征;构建指静脉图像数据库,将待识别指静脉图像经过上述处理得到的特征编码后在指静脉数据库中通过汉明距离进行一一匹配得到最终的检索识别结果。但该方法存在的缺陷是:
(1)模型是非端到端的,即指静脉特征的提取和哈希编码是分步进行的,模型的运行效率难以保证。
(2)两个模块的目标函数并不一致,两个模块组合产生的哈希编码的鲁棒性难以保证。
发明内容
根据上述提出的技术问题,而提供一种基于多尺度注意力机制深度哈希的指静脉索引方法。本发明主要通过采用神经网络的方法并且加入多尺度注意力机制,相比较于传统的特征提取算法,特征的鲁棒性获得一定的提升,同时,本发明中的模型是端到端的,可以保证哈希编码和特征提取的整体性,编码质量和编码效率得到了保障。
本发明采用的技术手段如下:
一种基于多尺度注意力机制深度哈希的指静脉索引方法,包括:
获取包括指静脉特征数据的训练集;
对所述获取的训练集进行遍历和扩充操作,得到扩充训练集;
基于所述扩充训练集和预先构建的多尺度注意力特征提取模型,提取多尺度注意力机制指静脉深度特征;
基于所述多尺度注意力机制指静脉深度特征和预先构建的分类监督模型、哈希编码模型、检索任务监督模型,进行三重损失函数的协同训练,生成最终的训练模型。
进一步地,所述对所述获取的训练集进行遍历和扩充操作,得到扩充训练集,具体的扩充操作包括:
在所述获取的训练集的训练图像I中,以一定的概率Pc选择是否随机裁剪图像,若裁剪图像则在训练图像I中随机选择原图大小的90%区域裁剪,并且恢复为原图尺寸大小,产生的图像记为Ic
对图像Ic进行随机旋转,图像Ic的旋转角度以均匀分布在角度集合A={-3,-2,-1,0,1,2,3}中随机采样,产生的旋转图像记为Ir
对图像Ic的亮度和对比度进行随机变换,亮度因子在[0.7,1.3)中随机均匀选取,对比度因子在[0.8,1.2)中随机均匀选取,生成的图像记为Ib
对图像Ib进行标准化,计算公式如下所示:
Figure BDA0002638450460000021
其中,In为标准化操作生成的图像,μ为Ib的图像均值,σ为Ib的图像标准差;
将图像In作为最终扩充图像进行保存,与原始图像共同组成扩充训练集。
进一步地,所述多尺度注意力特征提取模型包括五个卷积层、三个最大池化层以及三个多尺度注意力模块;所述的五个卷积层按命名顺序串联,网络层均采用relu激活函数激活,三个最大池化层分别插入在第一卷积层、第二卷积层以及第三卷积层后,之后,所述的三个多尺度注意力机制模块分别插入在第三卷积层、第四卷积层以及第五卷积层之后;
所述基于所述扩充训练集和预先构建的多尺度注意力特征提取模型,提取出多尺度注意力机制指静脉深度特征,包括:
所述的三个多尺度注意力机制模块将输入的所述扩充训练集中的特征进行注意力掩码的计算,并将掩码与原特征向量进行点乘。
进一步地,所述分类监督模型采用交叉熵损失函数进行约束优化,具体的公式为:
Figure BDA0002638450460000031
其中,p=[p0,p1,...,pC-1]是当前样本的分类监督模型所输出的一个概率分布,pi是当前样本属于第i类的概率,y=[y0,y1,...,yC-1]是样本标签的独热编码,当样本属于第i类时yi=1,否则yi=0;C为样本标签。
进一步地,所述哈希编码模型由用来优化哈希编码的特征表达能力的对比损失和优化哈希编码量化过程的量化误差两部分组成,具体的公式为:
Figure BDA0002638450460000032
上式中,第一项为对比损失,第二项为量化损失,N为单个batch的图像个数,Si,j为第i和第j个图像的近邻关系,如果同类则Si,j=1,反之Si,j=0,bi,bj,bk分别为第i,j,k个哈希码向量,1为每个元素都为1的且与哈希码尺寸相同的向量,m为边界阈值。
进一步地,所述检索任务监督模型采用监督损失函数对哈希码进行检索,具体的公式为:
Figure BDA0002638450460000033
其中,n为每个训练batch的大小,rt为当前查询哈希码与训练集中第t个哈希码的相似度,rt=(tanh(m-log(cosh(b-bt)))+1)/2;b为当前查询哈希码,bt为训练batch中第t个哈希码;at为b和bt的近邻关系。当b和bt为同一类别时,at=1,否则该值为0。
进一步地,所述生成最终的训练模型的损失函数为:
L=λL1+L2+βL3
其中,λ和β为加权系数。
较现有技术相比,本发明具有以下优点:
1、本发明提供的基于多尺度注意力机制深度哈希的指静脉索引方法,从特征提取角度来说,通过采用神经网络的方法并且加入多尺度注意力机制,相比较于传统的特征提取算法,特征的鲁棒性获得一定的提升。
2、本发明提供的基于多尺度注意力机制深度哈希的指静脉索引方法,从哈希编码角度来说,模型是端到端的,可以保证哈希编码和特征提取的整体性,编码质量和编码效率得到了保障。
基于上述理由本发明可在指静脉识别等领域广泛推广。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图做以简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明方法流程图。
图2为本发明多尺度注意力机制模块结构示意图。
图3为本发明实施例提供的多尺度池化示意图。
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分的实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
需要说明的是,本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本发明的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
如图1所示,本发明提供了一种基于多尺度注意力机制深度哈希的指静脉索引方法,包括:
S1、获取包括指静脉特征数据的训练集;
S2、对所述获取的训练集进行遍历和扩充操作,得到扩充训练集;
S21、在所述获取的训练集的训练图像I中,以一定的概率Pc选择是否随机裁剪图像,若裁剪图像则在训练图像I中随机选择原图大小的90%区域裁剪,并且恢复为原图尺寸大小,产生的图像记为Ic;本实施例中,Pc=0.8。
S22、对图像Ic进行随机旋转,图像Ic的旋转角度以均匀分布在角度集合A={-3,-2,-1,0,1,2,3}中随机采样,产生的旋转图像记为Ir
S23、对图像Ic的亮度和对比度进行随机变换,亮度因子在[0.7,1.3)中随机均匀选取,对比度因子在[0.8,1.2)中随机均匀选取,生成的图像记为Ib
S24、对图像Ib进行标准化,计算公式如下所示:
Figure BDA0002638450460000051
其中,In为标准化操作生成的图像,μ为Ib的图像均值,σ为Ib的图像标准差;
S25、将图像In作为最终扩充图像进行保存,与原始图像共同组成扩充训练集。
S3、基于所述扩充训练集和预先构建的多尺度注意力特征提取模型,提取多尺度注意力机制指静脉深度特征;
多尺度注意力特征提取模型包括五个卷积层、三个最大池化层以及三个多尺度注意力模块;所述的五个卷积层按命名顺序串联,网络层均采用relu激活函数激活,三个最大池化层分别插入在第一卷积层、第二卷积层以及第三卷积层后,之后,所述的三个多尺度注意力机制模块分别插入在第三卷积层、第四卷积层以及第五卷积层之后;
如图2所示,多尺度注意力机制模块将输入的所述扩充训练集中的特征进行注意力掩码的计算,并将掩码与原特征向量进行点乘。具体步骤如下:
S31、多尺度池化操作,如图3所示,将输入的特征按行分为ai块,设输入的维度为[b,c,h,w],其中,b为batch size,c为通道数量,h,w分别为特征的高和宽,则池化的核尺寸为
Figure BDA0002638450460000061
池化的步长为
Figure BDA0002638450460000062
并将池化操作取得的数值填充在该区域,以使得输出的维度不变,其中ai∈{1,2,4};把三个通路的输出进行拼接,再通过一个卷积核为1×1的卷积层,使得输出的维度为[b,1,h,w]。
S32、将输入的维度为[b,c,h,w]的特征记为fin,在经过卷积核为1×1的卷积层后维度转变为[b,1,h,w]。将该特征和它的转置送入多尺度池化中。
S33、将转置多尺度池化的特征转置回来,进而将两个多尺度池化的输出相加,通过softmax函数计算概率,得到的特征的维度是[b,h×w,1],将该特征记为fM。将输入的特征维度转化为[b,1,c,h×w],将该特征记为fin′。计算得出多尺度通道注意力掩码为Mc=fin′fM,维度为[b,c,1,1]。
S34、将原输入掩码和多尺度通道注意力掩码相乘,得到的特征作为多尺度通道注意力模块的输出,记为Mc
S35、将所述特征Mc送入输出通道数为
Figure BDA0002638450460000063
的1×1卷积层,并采用relu作为激活函数。再将其送入输出通道数为c的1×1卷积层,得到最终的注意力掩码Ma
S36、将所述最终的注意力掩码Ma和原始输入特征点相乘,得到最终的注意力特征fa,q,其中q代表该注意力特征所在位置,多尺度注意力机制模块位于第三卷积层、第四卷积层以及第五卷积层之后,故q∈[3,5]。
S4、基于所述多尺度注意力机制指静脉深度特征和预先构建的分类监督模型、哈希编码模型、检索任务监督模型,进行三重损失函数的协同训练,生成最终的训练模型。
所述分类监督模型由两个全连接网络层组成,采用交叉熵损失函数进行约束优化,具体的公式为:
Figure BDA0002638450460000071
其中,p=[p0,p1,...,pC-1]是当前样本的分类监督模型所输出的一个概率分布,pi是当前样本属于第i类的概率,y=[y0,y1,...,yC-1]是样本标签的独热编码,当样本属于第i类时yi=1,否则yi=0;C为样本标签。
所述哈希编码模型由用来优化哈希编码的特征表达能力的对比损失和优化哈希编码量化过程的量化误差两部分组成,具体的公式为:
Figure BDA0002638450460000072
上式中,第一项为对比损失,第二项为量化损失,N为单个batch的图像个数,Si,j为第i和第j个图像的近邻关系,如果同类则Si,j=1,反之Si,j=0,bi,bj,bk分别为第i,j,k个哈希码向量,1为每个元素都为1的且与哈希码尺寸相同的向量,m为边界阈值。
所述检索任务监督模型采用监督损失函数对哈希码进行检索,具体的公式为:
Figure BDA0002638450460000073
其中,n为每个训练batch的大小,rt为当前查询哈希码与训练集中第t个哈希码的相似度,rt=(tanh(m-log(cosh(b-bt)))+1)/2;b为当前查询哈希码,bt为训练batch中第t个哈希码;at为b和bt的近邻关系。当b和bt为同一类别时,at=1,否则该值为0。
对分类监督模型、哈希编码模型以及检索任务监督模型进行联合监督优化,生成最终的训练模型。其损失函数为:
L=λL1+L2+βL3
其中,λ和β为加权系数。
最后应说明的是:以上各实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述各实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围。

Claims (7)

1.一种基于多尺度注意力机制深度哈希的指静脉索引方法,其特征在于,所述方法包括:
获取包括指静脉特征数据的训练集;
对所述获取的训练集进行遍历和扩充操作,得到扩充训练集;
基于所述扩充训练集和预先构建的多尺度注意力特征提取模型,提取多尺度注意力机制指静脉深度特征;
基于所述多尺度注意力机制指静脉深度特征、预先构建的分类监督模型、预先构建的哈希编码模型和预先构建的检索任务监督模型,进行三重损失函数的协同训练,生成最终的训练模型。
2.根据权利要求1所述的基于多尺度注意力机制深度哈希的指静脉索引方法,其特征在于,所述对所述获取的训练集进行遍历和扩充操作操作,得到扩充训练集,具体的扩充操作包括:
在所述获取的训练集的训练图像I中,以一定的概率Pc选择是否随机裁剪图像,若裁剪图像则在训练图像I中随机选择原图大小的90%区域裁剪,并且恢复为原图尺寸大小,产生的图像记为Ic
对图像Ic进行随机旋转,图像Ic的旋转角度以均匀分布在角度集合A={-3,-2,-1,0,1,2,3}中随机采样,产生的旋转图像记为Ir
对图像Ic的亮度和对比度进行随机变换,亮度因子在[0.7,1.3)中随机均匀选取,对比度因子在[0.8,1.2)中随机均匀选取,生成的图像记为Ib
对图像Ib进行标准化,计算公式如下所示:
Figure FDA0002638450450000011
其中,In为标准化操作生成的图像,μ为Ib的图像均值,σ为Ib的图像标准差;
将图像In作为最终扩充图像进行保存,与原始图像共同组成扩充训练集。
3.根据权利要求1所述的基于多尺度注意力机制深度哈希的指静脉索引方法,其特征在于,所述多尺度注意力特征提取模型包括五个卷积层、三个最大池化层以及三个多尺度注意力模块;所述的五个卷积层按命名顺序串联,网络层均采用relu激活函数激活,三个最大池化层分别插入在第一卷积层、第二卷积层以及第三卷积层之后,所述的三个多尺度注意力机制模块分别插入在第三卷积层、第四卷积层以及第五卷积层之后;
所述基于所述扩充训练集和预先构建的多尺度注意力特征提取模型,提取出多尺度注意力机制指静脉深度特征,包括:
所述多尺度注意力机制模块将输入的所述扩充训练集中的特征进行注意力掩码的计算,并将掩码与原特征向量进行点乘。
4.根据权利要求1所述的基于多尺度注意力机制深度哈希的指静脉索引方法,其特征在于,所述分类监督模型采用交叉熵损失函数进行约束优化,具体的公式为:
Figure FDA0002638450450000021
其中,p=[p0,p1,...,pC-1]是当前样本的分类监督模型所输出的一个概率分布,pi是当前样本属于第i类的概率,y=[y0,y1,...,yC-1]是样本标签的独热编码,当样本属于第i类时yi=1,否则yi=0;C为样本标签。
5.根据权利要求1所述的基于多尺度注意力机制深度哈希的指静脉索引方法,其特征在于,所述哈希编码模型由用来优化哈希编码的特征表达能力的对比损失和优化哈希编码量化过程的量化误差两部分组成,具体的公式为:
Figure FDA0002638450450000022
上式中,第一项为对比损失,第二项为量化损失,N为单个batch的图像个数,Si,j为第i和第j个图像的近邻关系,如果同类则Si,j=1,反之Si,j=0,bi,bj,bk分别为第i,j,k个哈希码向量,1为每个元素都为1的且与哈希码尺寸相同的向量,m为边界阈值。
6.根据权利要求1所述的基于多尺度注意力机制深度哈希的指静脉索引方法,其特征在于,所述检索任务监督模型采用监督损失函数对哈希码进行检索,具体的公式为:
Figure FDA0002638450450000031
其中,n为每个训练batch的大小,rt为当前查询哈希码与训练集中第t个哈希码的相似度,rt=(tanh(m-log(cosh(b-bt)))+1)/2;b为当前查询哈希码,bt为训练batch中第t个哈希码;at为b和bt的近邻关系,当b和bt为同一类别时,at=1,否则该值为0。
7.根据权利要求1所述的基于多尺度注意力机制深度哈希的指静脉索引方法,其特征在于,所述生成最终的训练模型的损失函数为:
L=λL1+L2+βL3
其中,λ和β为加权系数。
CN202010832348.2A 2020-08-18 2020-08-18 一种基于多尺度注意力机制深度哈希的指静脉索引方法 Active CN112001292B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010832348.2A CN112001292B (zh) 2020-08-18 2020-08-18 一种基于多尺度注意力机制深度哈希的指静脉索引方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010832348.2A CN112001292B (zh) 2020-08-18 2020-08-18 一种基于多尺度注意力机制深度哈希的指静脉索引方法

Publications (2)

Publication Number Publication Date
CN112001292A true CN112001292A (zh) 2020-11-27
CN112001292B CN112001292B (zh) 2024-01-09

Family

ID=73473835

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010832348.2A Active CN112001292B (zh) 2020-08-18 2020-08-18 一种基于多尺度注意力机制深度哈希的指静脉索引方法

Country Status (1)

Country Link
CN (1) CN112001292B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113723215A (zh) * 2021-08-06 2021-11-30 浙江大华技术股份有限公司 活体检测网络的训练方法、活体检测方法及装置
CN113742775A (zh) * 2021-09-08 2021-12-03 哈尔滨工业大学(深圳) 一种图像数据安全检测方法、系统和存储介质
CN113792632A (zh) * 2021-09-02 2021-12-14 广州广电运通金融电子股份有限公司 基于多方合作的指静脉识别方法、系统和存储介质
CN113887320A (zh) * 2021-09-08 2022-01-04 华南理工大学 一种基于多尺度图模型的平面并联机构状态诊断方法
CN115063845A (zh) * 2022-06-20 2022-09-16 华南理工大学 基于轻量级网络及深度哈希的指静脉识别方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103903001A (zh) * 2014-03-19 2014-07-02 中国民航大学 一种手指静脉网络精确提取方法
CN110427509A (zh) * 2019-08-05 2019-11-08 山东浪潮人工智能研究院有限公司 一种基于深度学习的多尺度特征融合图像哈希检索方法及系统
JP2019208133A (ja) * 2018-05-29 2019-12-05 株式会社日立製作所 生体認証システム及び生体認証方法
CN110543822A (zh) * 2019-07-29 2019-12-06 浙江理工大学 一种基于卷积神经网络和监督式离散哈希算法的指静脉识别方法
WO2020147857A1 (zh) * 2019-01-18 2020-07-23 上海极链网络科技有限公司 海量视频特征提取以及存储和检索方法及系统

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103903001A (zh) * 2014-03-19 2014-07-02 中国民航大学 一种手指静脉网络精确提取方法
JP2019208133A (ja) * 2018-05-29 2019-12-05 株式会社日立製作所 生体認証システム及び生体認証方法
WO2020147857A1 (zh) * 2019-01-18 2020-07-23 上海极链网络科技有限公司 海量视频特征提取以及存储和检索方法及系统
CN110543822A (zh) * 2019-07-29 2019-12-06 浙江理工大学 一种基于卷积神经网络和监督式离散哈希算法的指静脉识别方法
CN110427509A (zh) * 2019-08-05 2019-11-08 山东浪潮人工智能研究院有限公司 一种基于深度学习的多尺度特征融合图像哈希检索方法及系统

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
周书仁;谢盈;蔡碧野;: "融合多尺度特征的深度哈希图像检索方法", 计算机科学与探索, no. 12 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113723215A (zh) * 2021-08-06 2021-11-30 浙江大华技术股份有限公司 活体检测网络的训练方法、活体检测方法及装置
CN113792632A (zh) * 2021-09-02 2021-12-14 广州广电运通金融电子股份有限公司 基于多方合作的指静脉识别方法、系统和存储介质
CN113742775A (zh) * 2021-09-08 2021-12-03 哈尔滨工业大学(深圳) 一种图像数据安全检测方法、系统和存储介质
CN113887320A (zh) * 2021-09-08 2022-01-04 华南理工大学 一种基于多尺度图模型的平面并联机构状态诊断方法
CN113742775B (zh) * 2021-09-08 2023-07-28 哈尔滨工业大学(深圳) 一种图像数据安全检测方法、系统和存储介质
CN113887320B (zh) * 2021-09-08 2024-05-14 华南理工大学 一种基于多尺度图模型的平面并联机构状态诊断方法
CN115063845A (zh) * 2022-06-20 2022-09-16 华南理工大学 基于轻量级网络及深度哈希的指静脉识别方法
CN115063845B (zh) * 2022-06-20 2024-05-28 华南理工大学 基于轻量级网络及深度哈希的指静脉识别方法

Also Published As

Publication number Publication date
CN112001292B (zh) 2024-01-09

Similar Documents

Publication Publication Date Title
CN112001292B (zh) 一种基于多尺度注意力机制深度哈希的指静脉索引方法
Parkhi et al. Deep face recognition
Cao et al. End-to-end latent fingerprint search
Melekhov et al. Siamese network features for image matching
Chen et al. Graph regularized restricted Boltzmann machine
CN109543602B (zh) 一种基于多视角图像特征分解的行人再识别方法
Wang et al. Correntropy matching pursuit with application to robust digit and face recognition
CN112437926B (zh) 使用前馈卷积神经网络的快速鲁棒摩擦脊印痕细节提取
CN112434553B (zh) 一种基于深度字典学习的视频鉴别方法及系统
CN109815357B (zh) 一种基于非线性降维及稀疏表示的遥感图像检索方法
Wang et al. Learning adaptive neighborhood graph on Grassmann manifolds for video/image-set subspace clustering
Zhang et al. Double nuclear norm-based matrix decomposition for occluded image recovery and background modeling
CN110991321B (zh) 一种基于标签更正与加权特征融合的视频行人再识别方法
Xia et al. LAGA-Net: Local-and-global attention network for skeleton based action recognition
CN104820696A (zh) 一种基于多标签最小二乘哈希算法的大规模图像检索方法
CN107403153A (zh) 一种基于卷积神经网络和哈希编码的掌纹图像识别方法
Xu et al. Iterative manifold embedding layer learned by incomplete data for large-scale image retrieval
He et al. Identification of finger vein using neural network recognition research based on PCA
CN113920472A (zh) 一种基于注意力机制的无监督目标重识别方法及系统
CN114140831B (zh) 人体姿态估计方法、装置、电子设备及存储介质
Liu et al. Sequential subspace clustering via temporal smoothness for sequential data segmentation
Klomsae et al. A string grammar fuzzy-possibilistic C-medians
CN117710888A (zh) 一种遮挡行人再识别方法及系统
Li et al. Locally-enriched cross-reconstruction for few-shot fine-grained image classification
CN110135253B (zh) 一种基于长期递归卷积神经网络的手指静脉认证方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant