CN112580590B - 一种基于多语义特征融合网络的指静脉识别方法 - Google Patents

一种基于多语义特征融合网络的指静脉识别方法 Download PDF

Info

Publication number
CN112580590B
CN112580590B CN202011593048.XA CN202011593048A CN112580590B CN 112580590 B CN112580590 B CN 112580590B CN 202011593048 A CN202011593048 A CN 202011593048A CN 112580590 B CN112580590 B CN 112580590B
Authority
CN
China
Prior art keywords
layer
network
features
finger vein
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011593048.XA
Other languages
English (en)
Other versions
CN112580590A (zh
Inventor
王智霖
沈雷
徐文贵
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Dianzi University
Original Assignee
Hangzhou Dianzi University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Dianzi University filed Critical Hangzhou Dianzi University
Priority to CN202011593048.XA priority Critical patent/CN112580590B/zh
Publication of CN112580590A publication Critical patent/CN112580590A/zh
Application granted granted Critical
Publication of CN112580590B publication Critical patent/CN112580590B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/14Vascular patterns

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

本发明公开了一种基于多语义特征融合网络的指静脉识别方法。首先采集指静脉图像,并进行数据增强,制作训练集、测试集;然后搭建特征提取网络,包括输入层、改进的残差模块、特征融合预处理模块、池化层和全连接层;再构建损失函数;通过训练集训练特征提取网络;最后将测试集中的待分类图像输入到训练好的特征提取网络模型中,获取待分类图像的图像特征,并且对特征进行匹配计算,获取识别结果。本发明方法有效得提升了指静脉图像识别率,与其他方法相比拒识率均有明显下降。

Description

一种基于多语义特征融合网络的指静脉识别方法
技术领域
本发明属于生物特征识别及信息安全技术领域,特别涉及到手指静脉图像识别领域。
背景技术
指静脉识别技术主要包含传统特征提取和深度学习特征提取两类方法。
传统特征提取可大致分为四类方法:基于全局特征的方法、基于局部特征的方法、基于静脉模式的方法。基于全局特征的方法从整个图像上提取特征,如主成分分析、双向二维主成分分析、线性判别分析、二维主成分分析、独立成分分析,此类方法具有特征数量维度低,识别速度快的优点;但是全局特征受姿态变化,遮挡,变形和光照等因素影响较大,不适合提取指静脉图像特征。基于局部特征的方法从手指静脉图像的局部块中提取特征,有效地反映图像局部属性,如Chen等人提出的韦伯局部描述符(WLD),它由差分激励算子和梯度方向算子组成。Luo等人根据掌纹特征的特点改进了WLD,并提出了线特征韦伯局部描述符(LWLD)。Sikarwar等人提出通过利用不同类型的局部方向模式(LDP)对指静脉进识别,首先采用LDP计算八个方向的边缘响应得到响应值,考虑到了每个像素的位置,然后,通过响应值进行编码,提取指静脉图像特征。基于静脉模式的方法是提取静脉图案或特征来识别,Yang等人提出了基于自适应矢量场估计的指静脉特征表示方法,设计包含曲率和方向变化的空间曲线滤波器,利用构造的滤波器去拟合静脉曲线,建立静脉矢量场用于描述指静脉网络特征。W.Son等人提出了计算平均曲率的方法,该方法用于提取静脉图案。Miura等人提出了一种计算局部最大曲率的方法,该方法有效地提取了静脉细节。这类方法具有改善图像质量,提高识别性能的优点;但受不规则阴影和噪声影响的模糊区域仍然不能很好地提取静脉图案。
近年来,在深度学习指静脉识别方法中,卷积神经网络因具有强大的特征表达能力而得到了迅速发展,在指静脉识别中展现出了独特的优势,柴瑞敏等提出了基于深度信念网络的指静脉识别算法,该算法利用局部配置模式算法提取静脉纹理特征,并作为网络的输入,通过逐层训练网络使模型达到最优。该算法是针对静脉图像进行分类,如果增加类别,需要重新训练网络模型。He等提出了基于改进的卷积神经网络该算法通过增加卷积层数并使用LeaKy-Relu作为激活函数来训练网络参数,同时在网络的损失函数中引入判别信息作为约束条件。但是该算法仅在少样本训练下效果比较明显。唐溯提出了基于残差网络的识别算法,该算法使用Resnet-18作为特征提取网络,将Triplet损失函数作为目标函数训练网络,使用欧式距离来计算特征之间的相似度。该算法在一定程度上能降低网络的过拟合,但是该网络是一个浅层网络不能提取更高层的语义特征。
发明内容
针对传统指静脉识别技术仅采用了图形的低级特征,目前深度学习指静脉识别技术仅考虑指静脉图像的高级语义特征,而忽略了指静脉图像本身的浅层信息的问题。本发明提出了一种基于多语义特征融合网络的指静脉识别方法。
本发明采用的技术方案为:
一种基于多语义特征融合网络的指静脉识别方法,包括以下步骤:
S1、采集指静脉图像,并进行数据增强,制作训练集、测试集。在深度学习中,训练集的数据质量对于网络的性能至关重要,而数据增强对于提升训练样本数据量、改善模型稳定性和鲁棒性、提高网络的泛化性具有重要的作用。
S2、搭建特征提取网络。
特征提取网络包括输入层、改进的残差模块、特征融合预处理模块、池化层和全连接层。该网络用于输入指静脉图像并输出图像的特征向量。
其中所述的输入层依次包括卷积层、批量正则化层和激活层。所述的改进的残差模块包括两个卷积层、两个批量正则化层、一个激活层和一个注意力机制层,依次为一个批量正则化层,一个卷积层,一个激活层,然后再经过一个卷积层,一个批量正则化层,最后经过一个注意力机制层。所述的特征融合预处理模块依次包括批量正则化层、卷积层、激活层和池化层。
S3、构建损失函数
网络模型的损失函数采用Softmax损失函数与中心损失函数共同约束,使得网络能够更好的聚拢类内图像距离,增加类间图像距离,提高网络的分类能力,进而拥有更加准确的特征表征能力。
S4、训练网络。将S1制作好的训练集输入S3构建的特征提取网络中,直到训练精度恒定,完成特征提取网络的训练,并保存特征提取网络模型。
S5、测试网络。将测试集中的待分类图像输入到S4保存的特征提取网络模型中,获取待分类图像的图像特征,并且对特征进行匹配计算,获取识别结果。
本发明有益效果如下:
本发明方法,首先对残差网络进行改进,并且加入注意力机制,使网络更加适合于指静脉图像各级特征图提取,然后提出了特征融合预处理模块,对网络各级特征图进行预处理,便于网络对各层特征的融合。最后,采用交叉熵损失与中心损失作为网络的联合监督信号,构成网络整体的分类损失,有效得提升了指静脉图像识别率。
附图说明
图1为本发明方法流程图;
图2为本发明方法实施例输入层结构和特征提取网络的主体结构图;
图3为改进的残差模块结构;
图4为特征融合预处理模块;
图5为正常图像测试集实验结果ROC曲线;
图6为特殊图像测试集实验结果ROC曲线。
具体实施方法
下面结合附图对本发明的具体实施例作进一步的说明。
如图1所示,基于多语义特征融合网络的指静脉识别方法,包括以下步骤:
S1、采集指静脉图像,对指静脉图像进行数据增强,制作训练集、测试集。为了使训练出的卷积神经网络模型有较好的分类效果,要求训练样本集中样本数量要达到一定的规模,各类别样本数量分布均匀;若样本数量较少,则无法得到适应性较强的模型;若各类别样本数量分布不均匀,也会影响对小样本类别的识别。通过旋转、平移、缩放、亮度变换、添加噪声对现有指静脉图像进行处理,得到数据增强的样本图像,将获得的样本图像分为训练集和测试集。
S2、搭建特征提取网络。
如图2所示,特征提取网络包括输入层、改进的残差模块、特征融合预处理模块、池化层和全连接层。将指静脉图像输入网络输入层处理,经过3个改进的残差块后提取图像较浅层特征,并进行特征融合前的预处理得到特征x1;再经过4个改进的残差块后提取图像较深层特征,并进行特征融合前的预处理得到特征x2;然后经过6个改进的残差块后提取图像深层特征,并进行特征融合前的预处理得到特征x3;最后经过3个改进的残差块提取图像网络最深层特征,然后将提取的不同层语义特征融合,在经过池化层后输入全连接层,进行分类。
所述的输入层如图2所示,包括普通卷积操作(Conv2D),具体参数为:输入通道为1,输出通道为64,卷积核大小为3×3,步长为1,Padding为1;再经过批量正则化(BatchNormalization,BN)和激活函数(Activation),其中激活函数采用PRelu。
所述的改进的残差模块包括两个卷积层、两个批量正则化层、一个激活层和一个注意力机制层,如图3所示。依次为一个批量正则化层,一个卷积层,一个激活层,然后再经过一个卷积层,一个批量正则化层,最后经过一个注意力机制层。当模块的输入与输出通道维度不相等时,需要经过卷积操作升维,使得二者保持通道维度一致,具体参数为:卷积核大小为1×1,步长根据输入通道与输出通道的倍数关系决定。所述的注意力机制层采用SE注意力机制,使得网络模型可以自动学习特征图各通道的重要程度。
特征融合预处理模块依次包括卷积层、批量正则化层、激活层和池化层,如图4所示。为了确保网络进行特征融合时,网络浅层到高层特征能够具有相同权重,需要保持特征图大小一致,因此需要对特征图进行预处理,同时对不同层特征进行非线性映射,起到激活作用。
S3、构建损失函数;
特征提取网络最后一层全连接层输出需要进行最终的损失函数计算损失。所述的损失函数采用Softmax损失函数与中心损失函数共同约束,使得网络能够更好的聚拢类内图像距离,增加类间图像距离,提高网络的分类能力,进而拥有更加准确的特征表征能力。
特征提取网络的损失函数为:
Loss=Losssoftmax+λ*Losscenterloss (1)
式中Losssoftmax为Softmax损失函数,Losscenterloss为中心损失函数,权重参数λ为标量,范围在[0-1]之间,用于平衡两种损失函数。
式中,m为训练集中一个批次图像的数量,n为训练集中静脉图像的类别数,为全连接层FC的输出,xi为当前图像的全局平均池化层特征向量,/>表示GAP特征向量xi属于类别yj权重矩阵,bj为偏置项。
中心损失函数如公式(3)所示:
式中,m为训练集中一个批次图像的数量,xi表示当前图像的全局平均池化层特征向量,cyi表示第yi类特征向量的中心。
S4、训练特征提取网络。将S1制作的训练集中的图像顺序打乱,将指静脉图像和对应标签输入S2构建的特征提取网络中,当特征提取网络训练精度恒定时,完成网络的训练,并保存模型。
S5、将测试集中的指静脉图像进行尺寸归一化,将尺寸缩放为448*224,然后输入训练好的特征提取网络中,进行一次正向计算;特征提取网络将输出当前测试集中指静脉图像的特征;并且对特征进行匹配计算,获取识别结果:
采用欧式距离作为衡量静脉特征相似度的标准,欧式距离越小,说明两个静脉特征的相似度越高,反之,两个静脉特征的相似度越低。通过对指静脉特征的不同类进行比对,获取不同类的最小值作为阈值T,然后对指静脉特征的同类进行1∶1比对,若每次比对值小于阈值T,则该次比对成功,反之,则该次比对失败。
以下是基于图像数据库对本发明所提算法的实验数据分析,本发明算法与现有的两种深度学习算法进行测试比较。
本发明采用的训练集是由实验室自主研发的850nm波长红外摄像头的小型指静脉模块进行采集,共有4000根干净手指静脉图像,每根手指6张图像,总共24000张图像。对于数据集增强,经过旋转、平移、缩放、亮度变换、添加噪声等方式处理,得到新的样本图像,作为训练集,最终训练集图像数量为4000指×6×131=3144000张。测试集分为正常图像测试集和特殊图像测试集两部分,其中正常图像测试集共有600根干净手指静脉图像,每根手指6张图像,总共3600张图像;特殊手指测试集共64根手指,其中每根手指进行8种不同方式放置,分别为上移放置、下移放置、平面左旋转放置、平面右旋转放置、轴左旋转放置、轴右旋转放置、弯曲放置、重压放置,每类放置方式采集10张图片,即特殊手指测试集图像数量为64指×8类×10张=5120张。并且测试集和训练集没有交集。
图5为正常图像测试集识别率,采用不同算法进行识别的ROC曲线对比。其中除了特征提取算法不同外,图像预处理、特征匹配方式均相同。可以看出,在零误识情况下,本发明方法与Resnet-50相比拒识率降低3.14%,与SE-Resnet-50相比,拒识率降低2.68%;其他误识情况下,拒识率均有明显下降。
图6为特殊手指测试集识别率,采用不同算法进行识别的ROC曲线对比。其中除了特征提取算法不同外,图像预处理、特征匹配方式均相同。可以看出,在零误识情况下,本发明方法与Resnet-50相比拒识率降低10.58%,与SE-Resnet-50相比,拒识率降低8.22%。
上面结合附图对本发明的实施方法作了详细说明,但是本发明并不限于上述实施例,在本领域普通技术人员所具备的知识范围内,还可以在不脱离本发明宗旨的前提下做出的各种变化,也应视为本发明的保护范围。

Claims (4)

1.一种基于多语义特征融合网络的指静脉识别方法,其特征在于,包括以下步骤:
S1、采集指静脉图像,并进行数据增强,制作训练集、测试集;
S2、搭建特征提取网络;
特征提取网络包括输入层、改进的残差模块、特征融合预处理模块、池化层和全连接层;
其中所述的输入层依次包括卷积层、批量正则化层和激活层所述的改进的残差模块包括两个卷积层、两个批量正则化层、一个激活层和一个注意力机制层,依次为一个批量正则化层,一个卷积层,一个激活层,然后再经过一个卷积层,一个批量正则化层,最后经过一个注意力机制层;所述的特征融合预处理模块依次包括批量正则化层、卷积层、激活层和池化层;
S3、构建损失函数;
网络模型的损失函数采用Softmax损失函数与中心损失函数共同约束,使得网络能够更好的聚拢类内图像距离,增加类间图像距离,提高网络的分类能力,进而拥有更加准确的特征表征能力;
S4、训练网络;
将S1制作好的训练集输入S3构建的特征提取网络中,直到训练精度恒定,完成特征提取网络的训练,并保存特征提取网络模型;
S5、测试网络;
将测试集中的待分类图像输入到S4保存的特征提取网络模型中,获取待分类图像的图像特征,并且对特征进行匹配计算,获取识别结果;
S3构建损失函数具体操作如下
特征提取网络最后一层全连接层输出需要进行最终的损失函数计算损失;所述的损失函数采用Softmax损失函数与中心损失函数共同约束;
特征提取网络的损失函数为:
Loss=Losssoftmax+λ*Losscenterloss (1)
式中Losssoftmax为Softmax损失函数,Losscenterloss为中心损失函数,权重参数λ为标量,范围在[0-1]之间,用于平衡两种损失函数;
式中,m为训练集中一个批次图像的数量,n为训练集中静脉图像的类别数,为全连接层FC的输出,xi为当前图像的全局平均池化层特征向量,/>表示GAP特征向量xi属于类别yj权重矩阵,bj为偏置项;
中心损失函数如公式(3)所示:
式中,m为训练集中一个批次图像的数量,xi表示当前图像的全局平均池化层特征向量,表示第yi类特征向量的中心。
2.根据权利要求1所述的一种基于多语义特征融合网络的指静脉识别方法,其特征在于,S1具体操作如下:
采集指静脉图像,并通过旋转、平移、缩放、亮度变换、添加噪声对现有指静脉图像进行处理,得到数据增强的样本图像,将获得的样本图像分为训练集和测试集。
3.根据权利要求2所述的一种基于多语义特征融合网络的指静脉识别方法,其特征在于,S2搭建特征提取网络,具体操作如下:
特征提取网络包括输入层、改进的残差模块、特征融合预处理模块、池化层和全连接层;将指静脉图像输入网络输入层处理,经过3个改进的残差块后提取图像较浅层特征,并进行特征融合前的预处理得到特征x1;再经过4个改进的残差块后提取图像较深层特征,并进行特征融合前的预处理得到特征x2;然后经过6个改进的残差块后提取图像深层特征,并进行特征融合前的预处理得到特征x3;最后经过3个改进的残差块提取图像网络最深层特征,然后将提取的不同层语义特征融合,在经过池化层后输入全连接层,进行分类;
所述的输入层,包括普通卷积操作,具体参数为:输入通道为1,输出通道为64,卷积核大小为3×3,步长为1,Padding为1;再经过批量正则化和激活函数,其中激活函数采用PRelu;
所述的改进的残差模块包括两个卷积层、两个批量正则化层、一个激活层和一个注意力机制层;依次为一个批量正则化层,一个卷积层,一个激活层,然后再经过一个卷积层,一个批量正则化层,最后经过一个注意力机制层;当模块的输入与输出通道维度不相等时,需要经过卷积操作升维,使得二者保持通道维度一致,具体参数为:卷积核大小为1×1,步长根据输入通道与输出通道的倍数关系决定;所述的注意力机制层采用SE注意力机制,使得网络模型能够自动学习特征图各通道的重要程度;
特征融合预处理模块依次包括卷积层、批量正则化层、激活层和池化层,为了确保网络进行特征融合时,网络浅层到高层特征能够具有相同权重,需要保持特征图大小一致,因此需要对特征图进行预处理,同时对不同层特征进行非线性映射,起到激活作用。
4.根据权利要求3所述的一种基于多语义特征融合网络的指静脉识别方法,其特征在于,S5具体操作如下:
将测试集中的指静脉图像进行尺寸归一化,将尺寸缩放为448*224,然后输入训练好的特征提取网络中,进行一次正向计算;特征提取网络将输出当前测试集中指静脉图像的特征;并且对特征进行匹配计算,获取识别结果:
采用欧式距离作为衡量静脉特征相似度的标准,欧式距离越小,说明两个静脉特征的相似度越高,反之,两个静脉特征的相似度越低;通过对指静脉特征的不同类进行比对,获取不同类的最小值作为阈值T,然后对指静脉特征的同类进行1∶1比对,若每次比对值小于阈值T,则该次比对成功,反之,则该次比对失败。
CN202011593048.XA 2020-12-29 2020-12-29 一种基于多语义特征融合网络的指静脉识别方法 Active CN112580590B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011593048.XA CN112580590B (zh) 2020-12-29 2020-12-29 一种基于多语义特征融合网络的指静脉识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011593048.XA CN112580590B (zh) 2020-12-29 2020-12-29 一种基于多语义特征融合网络的指静脉识别方法

Publications (2)

Publication Number Publication Date
CN112580590A CN112580590A (zh) 2021-03-30
CN112580590B true CN112580590B (zh) 2024-04-05

Family

ID=75144304

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011593048.XA Active CN112580590B (zh) 2020-12-29 2020-12-29 一种基于多语义特征融合网络的指静脉识别方法

Country Status (1)

Country Link
CN (1) CN112580590B (zh)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113180690B (zh) * 2021-04-21 2022-12-09 上海数创医疗科技有限公司 一种心电诊断模型的判断方法及心电检测装置
CN113312989B (zh) * 2021-05-11 2023-06-20 华南理工大学 一种基于聚合描述子与注意力的指静脉特征提取网络
CN113269702A (zh) * 2021-05-21 2021-08-17 中国矿业大学 基于跨尺度特征融合的低曝光静脉图像增强方法
CN113284136A (zh) * 2021-06-22 2021-08-20 南京信息工程大学 一种双损失函数训练的残差网络和XGBoost的医学图像分类方法
CN113673553B (zh) * 2021-07-05 2024-03-29 浙江工业大学 一种快速检测与识别少样本目标的方法和系统
CN113876304A (zh) * 2021-09-08 2022-01-04 深圳市中科微光医疗器械技术有限公司 一种基于oct图像和造影图像确定ffr的方法及装置
CN113989541A (zh) * 2021-09-23 2022-01-28 神思电子技术股份有限公司 一种基于特征聚合的着装分类方法及系统
CN114448906A (zh) * 2022-01-27 2022-05-06 中国人民解放军战略支援部队信息工程大学 一种网络流量识别方法及系统
CN114581965B (zh) * 2022-03-04 2024-05-14 长春工业大学 指静脉识别模型训练方法及识别方法、系统和终端
CN114913610A (zh) * 2022-06-15 2022-08-16 南京邮电大学 一种基于指纹和指静脉的多模态识别方法
CN115830686A (zh) * 2022-12-13 2023-03-21 云指智能科技(广州)有限公司 基于特征融合的生物识别方法、系统、装置及存储介质
CN116777908B (zh) * 2023-08-18 2023-11-03 新疆塔林投资(集团)有限责任公司 油气井套管堵漏辅助方法及其系统
CN117496562B (zh) * 2024-01-02 2024-03-29 深圳大学 基于FV-MViT的指静脉识别方法、装置及相关介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110427832A (zh) * 2019-07-09 2019-11-08 华南理工大学 一种基于神经网络的小数据集手指静脉识别方法
CN110555380A (zh) * 2019-07-30 2019-12-10 浙江理工大学 基于Center Loss损失函数的指静脉识别方法
CN111274915A (zh) * 2020-01-17 2020-06-12 华南理工大学 一种指静脉图像的深度局部聚合描述子提取方法及系统

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110427832A (zh) * 2019-07-09 2019-11-08 华南理工大学 一种基于神经网络的小数据集手指静脉识别方法
CN110555380A (zh) * 2019-07-30 2019-12-10 浙江理工大学 基于Center Loss损失函数的指静脉识别方法
CN111274915A (zh) * 2020-01-17 2020-06-12 华南理工大学 一种指静脉图像的深度局部聚合描述子提取方法及系统

Also Published As

Publication number Publication date
CN112580590A (zh) 2021-03-30

Similar Documents

Publication Publication Date Title
CN112580590B (zh) 一种基于多语义特征融合网络的指静脉识别方法
CN109800648B (zh) 基于人脸关键点校正的人脸检测识别方法及装置
Wang et al. Salient band selection for hyperspectral image classification via manifold ranking
CN110348399B (zh) 基于原型学习机制和多维残差网络的高光谱智能分类方法
CN105550657B (zh) 基于关键点的改进sift人脸特征提取方法
CN105718889B (zh) 基于GB(2D)2PCANet深度卷积模型的人脸身份识别方法
CN112766158A (zh) 基于多任务级联式人脸遮挡表情识别方法
CN111339930A (zh) 一种联合口罩属性损失函数的人脸识别方法
CN111401303B (zh) 一种身份与视角特征分离的跨视角步态识别方法
CN109344856B (zh) 一种基于多层判别式特征学习的脱机签名鉴别方法
CN109242097B (zh) 无监督学习的视觉表示学习系统及方法
Jiang A review of the comparative studies on traditional and intelligent face recognition methods
CN112733627A (zh) 一种基于融合局部与全局特征网络的指静脉识别方法
CN114821682B (zh) 一种基于深度学习算法的多样本混合掌静脉识别方法
CN113011243A (zh) 基于胶囊网络的面部表情分析方法
CN112669343A (zh) 一种基于深度学习的壮族少数民族服饰分割方法
CN112329662B (zh) 基于无监督学习的多视角显著性估计方法
CN111209850B (zh) 一种基于改进cGAN网络生成适用多设备识别指静脉图像的方法
CN113221660A (zh) 一种基于特征融合的跨年龄人脸识别方法
CN113887509B (zh) 一种基于图像集合的快速多模态视频人脸识别方法
CN116403252A (zh) 基于双向动态分组的多目标特征选择的人脸识别分类方法
CN111931749B (zh) 一种基于神经网络的人脸聚类方法以及装置
CN111695507B (zh) 一种基于改进VGGNet网络和PCA的静态手势识别方法
Huang et al. Axially-enhanced local attention network for finger vein recognition
CN112241680A (zh) 基于静脉相似图像知识迁移网络的多模态身份认证方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant