CN112001292A - 一种基于多尺度注意力机制深度哈希的指静脉索引方法 - Google Patents
一种基于多尺度注意力机制深度哈希的指静脉索引方法 Download PDFInfo
- Publication number
- CN112001292A CN112001292A CN202010832348.2A CN202010832348A CN112001292A CN 112001292 A CN112001292 A CN 112001292A CN 202010832348 A CN202010832348 A CN 202010832348A CN 112001292 A CN112001292 A CN 112001292A
- Authority
- CN
- China
- Prior art keywords
- image
- scale attention
- attention mechanism
- hash
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 210000003462 vein Anatomy 0.000 title claims abstract description 43
- 230000007246 mechanism Effects 0.000 title claims abstract description 37
- 238000000034 method Methods 0.000 title claims abstract description 31
- 238000012549 training Methods 0.000 claims abstract description 57
- 238000000605 extraction Methods 0.000 claims abstract description 18
- 238000011176 pooling Methods 0.000 claims description 11
- 238000013139 quantization Methods 0.000 claims description 9
- 239000013598 vector Substances 0.000 claims description 9
- 238000010606 normalization Methods 0.000 claims description 6
- 230000008569 process Effects 0.000 claims description 5
- 230000004913 activation Effects 0.000 claims description 4
- 238000005457 optimization Methods 0.000 claims description 4
- 238000004364 calculation method Methods 0.000 claims description 3
- 238000009826 distribution Methods 0.000 claims description 3
- 238000009827 uniform distribution Methods 0.000 claims description 3
- 238000012544 monitoring process Methods 0.000 claims 2
- 238000013528 artificial neural network Methods 0.000 abstract description 4
- 238000010586 diagram Methods 0.000 description 2
- 238000012937 correction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000000873 masking effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/51—Indexing; Data structures therefor; Storage structures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/14—Vascular patterns
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Probability & Statistics with Applications (AREA)
- Multimedia (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Computing Systems (AREA)
- Evolutionary Biology (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Mathematical Physics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Human Computer Interaction (AREA)
- Databases & Information Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明提供一种基于多尺度注意力机制深度哈希的指静脉索引方法,包括:获取包括指静脉特征数据的训练集;对训练集进行遍历和扩充操作,得到扩充训练集;基于扩充训练集和预先构建的多尺度注意力特征提取模型,提取多尺度注意力机制指静脉深度特征;基于多尺度注意力机制指静脉深度特征和预先构建的分类监督模型、哈希编码模型、检索任务监督模型,进行三重损失函数的协同训练,生成最终的训练模型。本发明主要通过采用神经网络的方法并且加入多尺度注意力机制,相比较于传统的特征提取算法,特征的鲁棒性获得一定的提升,同时,本发明中的模型是端到端的,可以保证哈希编码和特征提取的整体性,编码质量和编码效率得到了保障。
Description
技术领域
本发明涉及指静脉识别技术领域,具体而言,尤其涉及一种基于多尺度注意力机制深度哈希的指静脉索引方法。
背景技术
近年来,随着的生物特征识别技术的快速发展,指静脉识别技术逐渐被人们所熟知。指静脉识别技术除了具有普遍性,持久性,唯一性和可采集性的生物特征识别的固有特性外还有活体检测和非接触特性的特有属性,因此被民众广泛接受。在指静脉识别技术的应用越来越广泛的情况下,数据库中存储的注册用户逐渐累积,过往的识别技术在逐渐积累的数据量下难以达到实时效果。并且传统的手工特征在海量数据下也难以保证良好的鲁棒性。
现有的指静脉哈希索引方法,使用双侧红外照射采集的指静脉图像进行预处理、边缘检测、方向矫正和感兴趣区域(ROI)提取,采用Res2net卷积神经网络对ROI图像进行二进制编码。将提取的二进制编码特征作为待注册/识别的指静脉特征;构建指静脉图像数据库,将待识别指静脉图像经过上述处理得到的特征编码后在指静脉数据库中通过汉明距离进行一一匹配得到最终的检索识别结果。但该方法存在的缺陷是:
(1)模型是非端到端的,即指静脉特征的提取和哈希编码是分步进行的,模型的运行效率难以保证。
(2)两个模块的目标函数并不一致,两个模块组合产生的哈希编码的鲁棒性难以保证。
发明内容
根据上述提出的技术问题,而提供一种基于多尺度注意力机制深度哈希的指静脉索引方法。本发明主要通过采用神经网络的方法并且加入多尺度注意力机制,相比较于传统的特征提取算法,特征的鲁棒性获得一定的提升,同时,本发明中的模型是端到端的,可以保证哈希编码和特征提取的整体性,编码质量和编码效率得到了保障。
本发明采用的技术手段如下:
一种基于多尺度注意力机制深度哈希的指静脉索引方法,包括:
获取包括指静脉特征数据的训练集;
对所述获取的训练集进行遍历和扩充操作,得到扩充训练集;
基于所述扩充训练集和预先构建的多尺度注意力特征提取模型,提取多尺度注意力机制指静脉深度特征;
基于所述多尺度注意力机制指静脉深度特征和预先构建的分类监督模型、哈希编码模型、检索任务监督模型,进行三重损失函数的协同训练,生成最终的训练模型。
进一步地,所述对所述获取的训练集进行遍历和扩充操作,得到扩充训练集,具体的扩充操作包括:
在所述获取的训练集的训练图像I中,以一定的概率Pc选择是否随机裁剪图像,若裁剪图像则在训练图像I中随机选择原图大小的90%区域裁剪,并且恢复为原图尺寸大小,产生的图像记为Ic;
对图像Ic进行随机旋转,图像Ic的旋转角度以均匀分布在角度集合A={-3,-2,-1,0,1,2,3}中随机采样,产生的旋转图像记为Ir;
对图像Ic的亮度和对比度进行随机变换,亮度因子在[0.7,1.3)中随机均匀选取,对比度因子在[0.8,1.2)中随机均匀选取,生成的图像记为Ib;
对图像Ib进行标准化,计算公式如下所示:
其中,In为标准化操作生成的图像,μ为Ib的图像均值,σ为Ib的图像标准差;
将图像In作为最终扩充图像进行保存,与原始图像共同组成扩充训练集。
进一步地,所述多尺度注意力特征提取模型包括五个卷积层、三个最大池化层以及三个多尺度注意力模块;所述的五个卷积层按命名顺序串联,网络层均采用relu激活函数激活,三个最大池化层分别插入在第一卷积层、第二卷积层以及第三卷积层后,之后,所述的三个多尺度注意力机制模块分别插入在第三卷积层、第四卷积层以及第五卷积层之后;
所述基于所述扩充训练集和预先构建的多尺度注意力特征提取模型,提取出多尺度注意力机制指静脉深度特征,包括:
所述的三个多尺度注意力机制模块将输入的所述扩充训练集中的特征进行注意力掩码的计算,并将掩码与原特征向量进行点乘。
进一步地,所述分类监督模型采用交叉熵损失函数进行约束优化,具体的公式为:
其中,p=[p0,p1,...,pC-1]是当前样本的分类监督模型所输出的一个概率分布,pi是当前样本属于第i类的概率,y=[y0,y1,...,yC-1]是样本标签的独热编码,当样本属于第i类时yi=1,否则yi=0;C为样本标签。
进一步地,所述哈希编码模型由用来优化哈希编码的特征表达能力的对比损失和优化哈希编码量化过程的量化误差两部分组成,具体的公式为:
上式中,第一项为对比损失,第二项为量化损失,N为单个batch的图像个数,Si,j为第i和第j个图像的近邻关系,如果同类则Si,j=1,反之Si,j=0,bi,bj,bk分别为第i,j,k个哈希码向量,1为每个元素都为1的且与哈希码尺寸相同的向量,m为边界阈值。
进一步地,所述检索任务监督模型采用监督损失函数对哈希码进行检索,具体的公式为:
其中,n为每个训练batch的大小,rt为当前查询哈希码与训练集中第t个哈希码的相似度,rt=(tanh(m-log(cosh(b-bt)))+1)/2;b为当前查询哈希码,bt为训练batch中第t个哈希码;at为b和bt的近邻关系。当b和bt为同一类别时,at=1,否则该值为0。
进一步地,所述生成最终的训练模型的损失函数为:
L=λL1+L2+βL3
其中,λ和β为加权系数。
较现有技术相比,本发明具有以下优点:
1、本发明提供的基于多尺度注意力机制深度哈希的指静脉索引方法,从特征提取角度来说,通过采用神经网络的方法并且加入多尺度注意力机制,相比较于传统的特征提取算法,特征的鲁棒性获得一定的提升。
2、本发明提供的基于多尺度注意力机制深度哈希的指静脉索引方法,从哈希编码角度来说,模型是端到端的,可以保证哈希编码和特征提取的整体性,编码质量和编码效率得到了保障。
基于上述理由本发明可在指静脉识别等领域广泛推广。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图做以简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明方法流程图。
图2为本发明多尺度注意力机制模块结构示意图。
图3为本发明实施例提供的多尺度池化示意图。
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分的实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
需要说明的是,本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本发明的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
如图1所示,本发明提供了一种基于多尺度注意力机制深度哈希的指静脉索引方法,包括:
S1、获取包括指静脉特征数据的训练集;
S2、对所述获取的训练集进行遍历和扩充操作,得到扩充训练集;
S21、在所述获取的训练集的训练图像I中,以一定的概率Pc选择是否随机裁剪图像,若裁剪图像则在训练图像I中随机选择原图大小的90%区域裁剪,并且恢复为原图尺寸大小,产生的图像记为Ic;本实施例中,Pc=0.8。
S22、对图像Ic进行随机旋转,图像Ic的旋转角度以均匀分布在角度集合A={-3,-2,-1,0,1,2,3}中随机采样,产生的旋转图像记为Ir;
S23、对图像Ic的亮度和对比度进行随机变换,亮度因子在[0.7,1.3)中随机均匀选取,对比度因子在[0.8,1.2)中随机均匀选取,生成的图像记为Ib;
S24、对图像Ib进行标准化,计算公式如下所示:
其中,In为标准化操作生成的图像,μ为Ib的图像均值,σ为Ib的图像标准差;
S25、将图像In作为最终扩充图像进行保存,与原始图像共同组成扩充训练集。
S3、基于所述扩充训练集和预先构建的多尺度注意力特征提取模型,提取多尺度注意力机制指静脉深度特征;
多尺度注意力特征提取模型包括五个卷积层、三个最大池化层以及三个多尺度注意力模块;所述的五个卷积层按命名顺序串联,网络层均采用relu激活函数激活,三个最大池化层分别插入在第一卷积层、第二卷积层以及第三卷积层后,之后,所述的三个多尺度注意力机制模块分别插入在第三卷积层、第四卷积层以及第五卷积层之后;
如图2所示,多尺度注意力机制模块将输入的所述扩充训练集中的特征进行注意力掩码的计算,并将掩码与原特征向量进行点乘。具体步骤如下:
S31、多尺度池化操作,如图3所示,将输入的特征按行分为ai块,设输入的维度为[b,c,h,w],其中,b为batch size,c为通道数量,h,w分别为特征的高和宽,则池化的核尺寸为池化的步长为并将池化操作取得的数值填充在该区域,以使得输出的维度不变,其中ai∈{1,2,4};把三个通路的输出进行拼接,再通过一个卷积核为1×1的卷积层,使得输出的维度为[b,1,h,w]。
S32、将输入的维度为[b,c,h,w]的特征记为fin,在经过卷积核为1×1的卷积层后维度转变为[b,1,h,w]。将该特征和它的转置送入多尺度池化中。
S33、将转置多尺度池化的特征转置回来,进而将两个多尺度池化的输出相加,通过softmax函数计算概率,得到的特征的维度是[b,h×w,1],将该特征记为fM。将输入的特征维度转化为[b,1,c,h×w],将该特征记为fin′。计算得出多尺度通道注意力掩码为Mc=fin′fM,维度为[b,c,1,1]。
S34、将原输入掩码和多尺度通道注意力掩码相乘,得到的特征作为多尺度通道注意力模块的输出,记为Mc。
S36、将所述最终的注意力掩码Ma和原始输入特征点相乘,得到最终的注意力特征fa,q,其中q代表该注意力特征所在位置,多尺度注意力机制模块位于第三卷积层、第四卷积层以及第五卷积层之后,故q∈[3,5]。
S4、基于所述多尺度注意力机制指静脉深度特征和预先构建的分类监督模型、哈希编码模型、检索任务监督模型,进行三重损失函数的协同训练,生成最终的训练模型。
所述分类监督模型由两个全连接网络层组成,采用交叉熵损失函数进行约束优化,具体的公式为:
其中,p=[p0,p1,...,pC-1]是当前样本的分类监督模型所输出的一个概率分布,pi是当前样本属于第i类的概率,y=[y0,y1,...,yC-1]是样本标签的独热编码,当样本属于第i类时yi=1,否则yi=0;C为样本标签。
所述哈希编码模型由用来优化哈希编码的特征表达能力的对比损失和优化哈希编码量化过程的量化误差两部分组成,具体的公式为:
上式中,第一项为对比损失,第二项为量化损失,N为单个batch的图像个数,Si,j为第i和第j个图像的近邻关系,如果同类则Si,j=1,反之Si,j=0,bi,bj,bk分别为第i,j,k个哈希码向量,1为每个元素都为1的且与哈希码尺寸相同的向量,m为边界阈值。
所述检索任务监督模型采用监督损失函数对哈希码进行检索,具体的公式为:
其中,n为每个训练batch的大小,rt为当前查询哈希码与训练集中第t个哈希码的相似度,rt=(tanh(m-log(cosh(b-bt)))+1)/2;b为当前查询哈希码,bt为训练batch中第t个哈希码;at为b和bt的近邻关系。当b和bt为同一类别时,at=1,否则该值为0。
对分类监督模型、哈希编码模型以及检索任务监督模型进行联合监督优化,生成最终的训练模型。其损失函数为:
L=λL1+L2+βL3
其中,λ和β为加权系数。
最后应说明的是:以上各实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述各实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围。
Claims (7)
1.一种基于多尺度注意力机制深度哈希的指静脉索引方法,其特征在于,所述方法包括:
获取包括指静脉特征数据的训练集;
对所述获取的训练集进行遍历和扩充操作,得到扩充训练集;
基于所述扩充训练集和预先构建的多尺度注意力特征提取模型,提取多尺度注意力机制指静脉深度特征;
基于所述多尺度注意力机制指静脉深度特征、预先构建的分类监督模型、预先构建的哈希编码模型和预先构建的检索任务监督模型,进行三重损失函数的协同训练,生成最终的训练模型。
2.根据权利要求1所述的基于多尺度注意力机制深度哈希的指静脉索引方法,其特征在于,所述对所述获取的训练集进行遍历和扩充操作操作,得到扩充训练集,具体的扩充操作包括:
在所述获取的训练集的训练图像I中,以一定的概率Pc选择是否随机裁剪图像,若裁剪图像则在训练图像I中随机选择原图大小的90%区域裁剪,并且恢复为原图尺寸大小,产生的图像记为Ic;
对图像Ic进行随机旋转,图像Ic的旋转角度以均匀分布在角度集合A={-3,-2,-1,0,1,2,3}中随机采样,产生的旋转图像记为Ir;
对图像Ic的亮度和对比度进行随机变换,亮度因子在[0.7,1.3)中随机均匀选取,对比度因子在[0.8,1.2)中随机均匀选取,生成的图像记为Ib;
对图像Ib进行标准化,计算公式如下所示:
其中,In为标准化操作生成的图像,μ为Ib的图像均值,σ为Ib的图像标准差;
将图像In作为最终扩充图像进行保存,与原始图像共同组成扩充训练集。
3.根据权利要求1所述的基于多尺度注意力机制深度哈希的指静脉索引方法,其特征在于,所述多尺度注意力特征提取模型包括五个卷积层、三个最大池化层以及三个多尺度注意力模块;所述的五个卷积层按命名顺序串联,网络层均采用relu激活函数激活,三个最大池化层分别插入在第一卷积层、第二卷积层以及第三卷积层之后,所述的三个多尺度注意力机制模块分别插入在第三卷积层、第四卷积层以及第五卷积层之后;
所述基于所述扩充训练集和预先构建的多尺度注意力特征提取模型,提取出多尺度注意力机制指静脉深度特征,包括:
所述多尺度注意力机制模块将输入的所述扩充训练集中的特征进行注意力掩码的计算,并将掩码与原特征向量进行点乘。
7.根据权利要求1所述的基于多尺度注意力机制深度哈希的指静脉索引方法,其特征在于,所述生成最终的训练模型的损失函数为:
L=λL1+L2+βL3
其中,λ和β为加权系数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010832348.2A CN112001292B (zh) | 2020-08-18 | 2020-08-18 | 一种基于多尺度注意力机制深度哈希的指静脉索引方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010832348.2A CN112001292B (zh) | 2020-08-18 | 2020-08-18 | 一种基于多尺度注意力机制深度哈希的指静脉索引方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112001292A true CN112001292A (zh) | 2020-11-27 |
CN112001292B CN112001292B (zh) | 2024-01-09 |
Family
ID=73473835
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010832348.2A Active CN112001292B (zh) | 2020-08-18 | 2020-08-18 | 一种基于多尺度注意力机制深度哈希的指静脉索引方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112001292B (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113723215A (zh) * | 2021-08-06 | 2021-11-30 | 浙江大华技术股份有限公司 | 活体检测网络的训练方法、活体检测方法及装置 |
CN113742775A (zh) * | 2021-09-08 | 2021-12-03 | 哈尔滨工业大学(深圳) | 一种图像数据安全检测方法、系统和存储介质 |
CN113792632A (zh) * | 2021-09-02 | 2021-12-14 | 广州广电运通金融电子股份有限公司 | 基于多方合作的指静脉识别方法、系统和存储介质 |
CN113887320A (zh) * | 2021-09-08 | 2022-01-04 | 华南理工大学 | 一种基于多尺度图模型的平面并联机构状态诊断方法 |
CN115063845A (zh) * | 2022-06-20 | 2022-09-16 | 华南理工大学 | 基于轻量级网络及深度哈希的指静脉识别方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103903001A (zh) * | 2014-03-19 | 2014-07-02 | 中国民航大学 | 一种手指静脉网络精确提取方法 |
CN110427509A (zh) * | 2019-08-05 | 2019-11-08 | 山东浪潮人工智能研究院有限公司 | 一种基于深度学习的多尺度特征融合图像哈希检索方法及系统 |
JP2019208133A (ja) * | 2018-05-29 | 2019-12-05 | 株式会社日立製作所 | 生体認証システム及び生体認証方法 |
CN110543822A (zh) * | 2019-07-29 | 2019-12-06 | 浙江理工大学 | 一种基于卷积神经网络和监督式离散哈希算法的指静脉识别方法 |
WO2020147857A1 (zh) * | 2019-01-18 | 2020-07-23 | 上海极链网络科技有限公司 | 海量视频特征提取以及存储和检索方法及系统 |
-
2020
- 2020-08-18 CN CN202010832348.2A patent/CN112001292B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103903001A (zh) * | 2014-03-19 | 2014-07-02 | 中国民航大学 | 一种手指静脉网络精确提取方法 |
JP2019208133A (ja) * | 2018-05-29 | 2019-12-05 | 株式会社日立製作所 | 生体認証システム及び生体認証方法 |
WO2020147857A1 (zh) * | 2019-01-18 | 2020-07-23 | 上海极链网络科技有限公司 | 海量视频特征提取以及存储和检索方法及系统 |
CN110543822A (zh) * | 2019-07-29 | 2019-12-06 | 浙江理工大学 | 一种基于卷积神经网络和监督式离散哈希算法的指静脉识别方法 |
CN110427509A (zh) * | 2019-08-05 | 2019-11-08 | 山东浪潮人工智能研究院有限公司 | 一种基于深度学习的多尺度特征融合图像哈希检索方法及系统 |
Non-Patent Citations (1)
Title |
---|
周书仁;谢盈;蔡碧野;: "融合多尺度特征的深度哈希图像检索方法", 计算机科学与探索, no. 12 * |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113723215A (zh) * | 2021-08-06 | 2021-11-30 | 浙江大华技术股份有限公司 | 活体检测网络的训练方法、活体检测方法及装置 |
CN113792632A (zh) * | 2021-09-02 | 2021-12-14 | 广州广电运通金融电子股份有限公司 | 基于多方合作的指静脉识别方法、系统和存储介质 |
CN113742775A (zh) * | 2021-09-08 | 2021-12-03 | 哈尔滨工业大学(深圳) | 一种图像数据安全检测方法、系统和存储介质 |
CN113887320A (zh) * | 2021-09-08 | 2022-01-04 | 华南理工大学 | 一种基于多尺度图模型的平面并联机构状态诊断方法 |
CN113742775B (zh) * | 2021-09-08 | 2023-07-28 | 哈尔滨工业大学(深圳) | 一种图像数据安全检测方法、系统和存储介质 |
CN113887320B (zh) * | 2021-09-08 | 2024-05-14 | 华南理工大学 | 一种基于多尺度图模型的平面并联机构状态诊断方法 |
CN115063845A (zh) * | 2022-06-20 | 2022-09-16 | 华南理工大学 | 基于轻量级网络及深度哈希的指静脉识别方法 |
CN115063845B (zh) * | 2022-06-20 | 2024-05-28 | 华南理工大学 | 基于轻量级网络及深度哈希的指静脉识别方法 |
Also Published As
Publication number | Publication date |
---|---|
CN112001292B (zh) | 2024-01-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112001292B (zh) | 一种基于多尺度注意力机制深度哈希的指静脉索引方法 | |
Parkhi et al. | Deep face recognition | |
Cao et al. | End-to-end latent fingerprint search | |
Melekhov et al. | Siamese network features for image matching | |
Chen et al. | Graph regularized restricted Boltzmann machine | |
CN109543602B (zh) | 一种基于多视角图像特征分解的行人再识别方法 | |
Wang et al. | Correntropy matching pursuit with application to robust digit and face recognition | |
CN112437926B (zh) | 使用前馈卷积神经网络的快速鲁棒摩擦脊印痕细节提取 | |
CN112434553B (zh) | 一种基于深度字典学习的视频鉴别方法及系统 | |
CN109815357B (zh) | 一种基于非线性降维及稀疏表示的遥感图像检索方法 | |
Wang et al. | Learning adaptive neighborhood graph on Grassmann manifolds for video/image-set subspace clustering | |
Zhang et al. | Double nuclear norm-based matrix decomposition for occluded image recovery and background modeling | |
CN110991321B (zh) | 一种基于标签更正与加权特征融合的视频行人再识别方法 | |
Xia et al. | LAGA-Net: Local-and-global attention network for skeleton based action recognition | |
CN104820696A (zh) | 一种基于多标签最小二乘哈希算法的大规模图像检索方法 | |
CN107403153A (zh) | 一种基于卷积神经网络和哈希编码的掌纹图像识别方法 | |
Xu et al. | Iterative manifold embedding layer learned by incomplete data for large-scale image retrieval | |
He et al. | Identification of finger vein using neural network recognition research based on PCA | |
CN113920472A (zh) | 一种基于注意力机制的无监督目标重识别方法及系统 | |
CN114140831B (zh) | 人体姿态估计方法、装置、电子设备及存储介质 | |
Liu et al. | Sequential subspace clustering via temporal smoothness for sequential data segmentation | |
Klomsae et al. | A string grammar fuzzy-possibilistic C-medians | |
CN117710888A (zh) | 一种遮挡行人再识别方法及系统 | |
Li et al. | Locally-enriched cross-reconstruction for few-shot fine-grained image classification | |
CN110135253B (zh) | 一种基于长期递归卷积神经网络的手指静脉认证方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |