CN111639550A - 基于多尺度融合lbp和改进深度置信网络的指静脉识别方法 - Google Patents

基于多尺度融合lbp和改进深度置信网络的指静脉识别方法 Download PDF

Info

Publication number
CN111639550A
CN111639550A CN202010403335.3A CN202010403335A CN111639550A CN 111639550 A CN111639550 A CN 111639550A CN 202010403335 A CN202010403335 A CN 202010403335A CN 111639550 A CN111639550 A CN 111639550A
Authority
CN
China
Prior art keywords
lbp
finger vein
image
layer
confidence network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010403335.3A
Other languages
English (en)
Inventor
黎捷
袁炀
马佳越
季淑梅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yanshan University
Original Assignee
Yanshan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yanshan University filed Critical Yanshan University
Priority to CN202010403335.3A priority Critical patent/CN111639550A/zh
Publication of CN111639550A publication Critical patent/CN111639550A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/467Encoded features or binary features, e.g. local binary patterns [LBP]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/14Vascular patterns

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Abstract

本发明提出一种基于多尺度融合LBP和改进深度置信网络的指静脉识别方法。该方法采用多尺度融合的LBP算法,相比单一尺度的LBP算法,可在指静脉识别的特征提取阶段获取较为丰富的信息;本方法采用的改进的深度置信网络方法,能够缩短深度置信网络的训练时间,同时在识别率上相较于传统深度置信网络更具有优势;因此,本发明提出的基于多尺度融合LBP及改进深度置信网络的指静脉识别方法与现有技术相比,可以得到更高精度的识别效果,并花费较少的时间代价。

Description

基于多尺度融合LBP和改进深度置信网络的指静脉识别方法
技术领域
本发明属于指静脉识别技术领域,具体涉及一种基于多尺度融合LBP和改进深度置信网络的指静脉识别方法。
背景技术
静脉识别技术是世界上最先进的一类生物识别技术,具有很高的准确性和识别速度。在众多的生物特征识别技术中,静脉识别技术由于使用隐藏在人体内部的隐式特征,因而作为拥有高防伪能力的第二代生物特征识别技术而受到广泛关注。相较于其他身份识别技术,指静脉识别技术的优势体现在活体识别、隐式特征、易于使用、安全等级高等方面。
指静脉识别技术的基本流程包括图像采集、预处理、特征提取和特征识别,其中特征提取和特征识别是指静脉识别技术的关键环节。如何更加准确、更加全面地从图像中提取信息,以及如何更加高效地利用这些信息,获得较高的的识别精度和识别速度,一直是指静脉识别技术的重点和难点。
发明内容
本发明要解决的技术问题是提出一种更加准确、更加全面地从手指静脉图像中提取信息的指静脉识别方法。
为解决上述技术问题,本发明提出一种基于多尺度融合LBP和改进深度置信网络的指静脉识别方法,具体步骤如下:
S1、对手指静脉原始图像进行感兴趣区域提取,得到包含有用信息的特定区域;
S2、使用多尺度融合的LBP方法提取所述感兴趣区域图像的LBP特征,包括如下具体步骤:
S21、分别计算得到窗口尺度不同的LBP特征图像;
S22、对所述LBP特征图像进行分块,并将所述LBP特征图像在水平方向和垂直方向上均匀分割;
S23、分别计算每块区域特征图像的LBP直方图特征;
S24、将每块所述区域特征图像的LBP直方图按空间顺序依次排列成一行,最后形成整幅图像的多尺度融合的LBP特征直方图特征;
S3、利用所述感兴趣区域的LBP特征直方图,对改进深度置信网络进行训练,从而建立分类模型,包括如下具体步骤:
S31、从第一层RBM开始,逐层进行深度置信网络的预训练,只有在当前层训练完全以后,数据从当前层的显层向下一层的隐藏层传递,每次训练时只调整当前层的权重,对其他所有RBM的权重均不作任何操作,直至所有 RBM的预训练全部完成;
S32、将所述预训练完成的深度置信网络置入BP神经网络中,根据训练集和标签有监督地对整个神经网络进行训练,从而建立分类模型;
S4、利用所述分类模型,对手指静脉图像进行分类。
进一步的,所述步骤S1,包括如下具体步骤:
S11、使用Canny边缘检测算法得到所述手指静脉图像轮廓边缘;
S12、使用基于边缘中线的微调方法对所述手指静脉图像进行旋转后,截取感兴趣区域图像,所述微调方法包括如下具体步骤:
S121、做所述轮廓边缘的中线;
S122、令所述中线向左右两侧平移至与所述轮廓线相交;
S123、旋转所述图片,使得中线呈竖直状态;
S124、依照与所述轮廓线相交的中线的平行线截取图像;
S13、对所述感兴趣区域图像进行尺寸归一化。
进一步的,所述步骤S11包括如下具体步骤:
S111、通过高斯滤波对所述手指静脉图像进行降噪处理;
S112、通过有限差分计算所述手指静脉图像的梯度;
S113、通过极坐标变换,得到所述手指静脉图像的梯度幅值和梯度方向;
S114、通过非极大值抑制方法确定所述手指静脉图像的边缘的候选点,包以下具体步骤:
从所述手指静脉图像的梯度幅值中筛选出梯度值的非零点作为目标点,求得所述目标点梯度方向上的两个相邻点,如果所述两个相邻点的梯度值小于所述目标点,则所述目标点是图像边缘的候选点;否则该目标点就不是图像边缘的候选点;
S115、通过双门限检测和边缘连接方法连接所述候选点,得到指静脉图像轮廓边缘。
进一步的,所述步骤S21包括如下具体步骤:
S211、从所述感兴趣区域图像的左上角的像素点开始,依次计算每一个像素点的LBP值,具体方法如下:
依次以每一个像素点为中心,取不同尺寸的窗口,根据公式
Figure BDA0002490339260000031
确定所述每一个像素点的LBP值;
其中:
Figure BDA0002490339260000032
ip表示第p个像素点的灰度值,ic表示中心像素点的灰度值,n为采样点数量,p为整数,且1≤p≤n;
S212、使用均值模式对所述LBP值进行降维;根据所获得的LBP值,计算LBP值相邻两位上的跳变次数,跳变次数大于2的LBP值为混合模式类,跳变次数小于等于2的LBP值为等价模式类;将所有的混合模式类归为一类,将每一个等价模式类各自单独归为一类,从而将LBP值降维为均匀模式。
进一步的,所述步骤S31包括如下具体步骤:
S311、设置深度置信网络的初始权重wij、初始偏置ai、初始偏置bj、初始学习率δ0、迭代次数R、神经元层数H和每一层神经元的数量L,搭建RBM 网络;
S312、利用改进的RBM训练算法计算每个RBM可见层和隐藏层的随机节点状态;
S313、计算所述深度置信网络的权重和偏差的似然梯度;
S314、计算所述深度置信网络的权重和偏差的似然梯度增量;
S315、计算所述深度置信网络的重构误差的增量Δen
S316、根据重构误差的增量Δen更新所述权重wij、偏置ai和偏置bj
S317、基于重构误差的增量Δen自动调整学习率δ′ij
S318、R=R-1,若R>1,回到步骤S312;若R=1,跳转到步骤S319,当前RBM层预训练完成;
S319、H=H-1,若H>1,回到步骤S312;若H=1,预训练完成。
进一步的,在所述步骤S311中,所述初始学习率δ0为0.1,所述迭代次数为30,所述神经元层数为2,所述每一层神经元的数量为100。
进一步的,在所述步骤S317中,基于重构误差的增量Δen自适应调整学习率δ′ij
所述学习率可由下式计算:
Figure BDA0002490339260000041
其中:
Figure BDA0002490339260000042
是衰减因子,Δen为重构误差的增量,其表达式为:Δen=en-en-1,其中,n表示迭代次数,en表示第n次迭代的重构误差。
进一步的,所述步骤S317中的所述衰减因子
Figure BDA0002490339260000043
的取值为0.1。
与现有技术相比,本发明的有益效果如下:
本发明提出的基于多尺度融合LBP和改进深度置信网络的指静脉识别方法,采用多尺度融合的LBP算法,相比单一尺度的LBP算法,可在指静脉识别的特征提取阶段获取较为丰富的信息;本方法采用的改进的深度置信网络方法,能够缩短深度置信网络的训练时间,同时在识别率上相较于传统深度置信网络更具有优势;因此,本发明提出的基于多尺度融合LBP和改进深度置信网络的指静脉识别方法与现有技术相比,可以得到更高精度的识别效果,并花费较少的时间代价。
附图说明
图1为本发明实施例提出的基于多尺度融合LBP和改进深度置信网络的指静脉识别方法的流程图;
附图2为本发明实施例中指静脉原始图像的示意图;
附图3为本发明实施例中提取后的感兴趣区域图像的示意图;以及
附图4为本发明实施例得到的多尺度融合的LBP特征直方图的示意图。
附图5为本发明实施例中手指中线平行线与手指轮廓线相交的示意图;以及
附图6为本发明实施例中用于提取手指ROI区域的平行线示意图。
具体实施方式
以下,参照附图对本发明的实施方式进行说明。
本实施例使用的数据集为马来西亚理科大学建立的FV-USM数据集,总计492个手指类别,每个手指类别取10张图片作为训练集,2张图片作为测试集,每张图片的分辨率为640像素×480像素。
本实施例提出的一种基于多尺度融合LBP和改进深度置信网络的指静脉识别方法流程如图1所示,该方法包括以下步骤:
S1、通过对图2所示手指静脉原始图像进行感兴趣区域提取,以得到包含有用信息的特定区域,包括如下步骤:
S11、使用Canny边缘检测算法得到手指静脉图像轮廓边缘,具体包括如下步骤:
S111、通过高斯滤波对手指静脉图像进行降噪处理;
S112、通过有限差分计算手指静脉图像的梯度;
S113、通过极坐标变换,得到手指静脉图像的梯度幅值和梯度方向;
S114、通过非极大值抑制方法确定手指静脉图像的边缘的候选点,包以下步骤:
从手指静脉图像的梯度幅值中筛选出梯度值的非零点作为目标点,求得目标点梯度方向上的两个相邻点,如果两个相邻点的梯度值小于目标点,则目标点是图像边缘的候选点;否则该目标点就不是图像边缘的候选点;
S115、通过双门限检测和边缘连接方法连接候选点,得到指静脉图像轮廓边缘;
S12、使用基于边缘中线的微调方法对手指静脉图像进行旋转后,截取到图3所示的感兴趣区域图像,微调方法包括如下步骤:
S121、做轮廓边缘的中线;
S122、令中线向左右两侧平移至与轮廓线相交,如图5所示;
S123、旋转图片,使得中线呈竖直状态,如图6所示;
S124、依照与轮廓线相交的中线的平行线截取图像;
S13、对感兴趣区域图像进行尺寸归一化;
S2、使用多尺度融合的LBP方法提取感兴趣区域图像的LBP特征,包括如下步骤:
S21、分别计算得到窗口大小为3×3和窗口大小为5×5的LBP特征图像,包括如下具体步骤:
S211、从感兴趣区域图像的左上角的像素点开始,依次计算每一个像素点的LBP值,具体方法如下:
依次以每一个像素点为中心,取3×3和5×5的窗口,根据公式
Figure BDA0002490339260000061
确定每一个像素点的LBP值;
其中:
Figure BDA0002490339260000071
ip表示第p点的灰度值,ic表示中心像素点的灰度值;
S212、使用均值模式对LBP值进行降维;根据所获得的8位的LBP值,计算LBP值相邻两位上的跳变次数,跳变次数大于2的LBP值为混合模式类,跳变次数小于等于2的LBP值为等价模式类;将所有的混合模式类归为一类,将每一个等价模式类各自单独归为一类,从而将LBP值降维为59类的均匀模式;
S22、对LBP特征图像进行分块,将LBP特征图像在水平方向和垂直方向上均匀分割成16份;
S23、分别计算每块区域特征图像的LBP直方图特征;
S24、将每块区域特征图像的LBP直方图按空间顺序依次排列成一行,最后形成图4所示的整幅图像的多尺度融合的LBP特征直方图特征;
S3、利用多尺度LBP算法提取的感兴趣区域的特征直方图,对改进深度置信网络进行训练,从而建立模型,包括如下步骤:
S31、深度置信网络的训练是逐层进行的,数据从第一层RBM开始训练,只有在当前那一层训练完全以后,数据从当前层的显层向下一层的隐藏层传递,每次训练时只调整当前层的权重,对其他所有RBM的权重均不作任何操作,直至所有RBM的训练全部完成,保证特征向量映射至的特征空间时,能够尽量保留更多的图像信息,包括如下具体步骤:
S311、RBM网络的搭建:设置深度置信网络的初始权重wij、初始偏置ai、初始偏置bj、初始学习率δ0、迭代次数R、神经元层数H和每一层神经元的数量L;本实施例中,初始学习率δ0为0.1,迭代次数为30,神经元层数为2,每一层神经元的数量为100;
S312、利用改进的RBM训练算法计算每个RBM可见层和隐藏层的随机节点状态;
S313、计算深度置信网络的权重和偏差的似然梯度;
S314、计算深度置信网络的权重和偏差的似然梯度增量;
S315、计算深度置信网络的重构误差的增量Δen
S316、根据重构误差的增量Δen更新权重wij、偏置ai和偏置bj
S317、基于重构误差的增量Δen自动调整学习率δ′ij
自适应学习率可由下式计算:
Figure BDA0002490339260000081
其中:
Figure BDA0002490339260000082
是衰减因子,Δen为重构误差的增量,其表达式为:
Δen=en-en-1;其中:n表示迭代次数,en表示第n次迭代的重构误差;
当Δen>0,则学习率δ′ij将会降低;若Δen<0,则学习率δ′ij将会保持不变。
本实施例中,衰减因子
Figure BDA0002490339260000083
的取值为0.1;
S318、R=R-1,若R>1,回到步骤S312;若R=1,跳转到步骤S319,当前RBM层预训练完成;
S319、H=H-1,若H>1,回到步骤S312;若H=1,预训练完成;
S32、将预训练完成的深度置信网络置入BP神经网络中,根据训练集和标签有监督地对整个神经网络进行训练;
S4、根据训练好的模型,利用改进深度置信网络的分类能力对手指静脉图像完成分类。
本发明实施例提出一种基于多尺度融合LBP和改进深度置信网络的指静脉识别方法。该方法利用多个尺度的LBP直方图特征相融合的方法提取指静脉图像的直方图特征。同时该方法通过引入一个自适应的学习率,使得深度置信网络的训练时间缩短。本发明实施例具有高准确性的优势,同时兼顾训练时间较短的特点。
以上所述的实施例仅是对本发明的优选实施方式进行描述,并非对本发明的范围进行限定,在不脱离本发明设计精神的前提下,本领域普通技术人员对本发明的技术方案做出的各种变形和改进,均应落入本发明权利要求书确定的保护范围内。

Claims (8)

1.一种基于多尺度融合LBP和改进深度置信网络的指静脉识别方法,其特征在于,其包括如下步骤:
S1、对手指静脉原始图像进行感兴趣区域提取,得到包含有用信息的特定区域;
S2、使用多尺度融合的LBP方法提取所述感兴趣区域图像的LBP特征,包括如下具体步骤:
S21、分别计算得到窗口尺度不同的LBP特征图像;
S22、对所述LBP特征图像进行分块,并将所述LBP特征图像在水平方向和垂直方向上均匀分割;
S23、分别计算每块区域特征图像的LBP直方图特征;
S24、将每块所述区域特征图像的LBP直方图按空间顺序依次排列成一行,最后形成整幅图像的多尺度融合的LBP特征直方图特征;
S3、利用所述感兴趣区域的LBP特征直方图,对改进深度置信网络进行训练,从而建立分类模型,包括如下具体步骤:
S31、从第一层RBM开始,逐层进行深度置信网络的预训练,只有在当前层训练完全以后,数据从当前层的显层向下一层的隐藏层传递,每次训练时只调整当前层的权重,对其他所有RBM的权重均不作任何操作,直至所有RBM的预训练全部完成;
S32、将所述预训练完成的深度置信网络置入BP神经网络中,根据训练集和标签有监督地对整个神经网络进行训练,从而建立分类模型;
S4、利用所述分类模型,对手指静脉图像进行分类。
2.根据权利要求1所述的基于多尺度融合LBP和改进深度置信网络的指静脉识别方法,其特征在于,所述步骤S1,包括如下具体步骤:
S11、使用Canny边缘检测算法得到所述手指静脉图像轮廓边缘;
S12、使用基于边缘中线的微调方法对所述手指静脉图像进行旋转后,截取感兴趣区域图像,所述微调方法包括如下具体步骤:
S121、做所述轮廓边缘的中线;
S122、令所述中线向左右两侧平移至与所述轮廓线相交;
S123、旋转所述图片,使得中线呈竖直状态;
S124、依照与所述轮廓线相交的中线的平行线截取图像;
S13、对所述感兴趣区域图像进行尺寸归一化。
3.根据权利要求2所述的基于多尺度融合LBP和改进深度置信网络的指静脉识别方法,其特征在于,所述步骤S11包括如下具体步骤:
S111、通过高斯滤波对所述手指静脉图像进行降噪处理;
S112、通过有限差分计算所述手指静脉图像的梯度;
S113、通过极坐标变换,得到所述手指静脉图像的梯度幅值和梯度方向;
S114、通过非极大值抑制方法确定所述手指静脉图像的边缘的候选点,包以下具体步骤:
从所述手指静脉图像的梯度幅值中筛选出梯度值的非零点作为目标点,求得所述目标点梯度方向上的两个相邻点,如果所述两个相邻点的梯度值小于所述目标点,则所述目标点是图像边缘的候选点;否则该目标点就不是图像边缘的候选点;
S115、通过双门限检测和边缘连接方法连接所述候选点,得到指静脉图像轮廓边缘。
4.根据权利要求1所述的基于多尺度融合LBP和改进深度置信网络的指静脉识别方法,其特征在于,所述步骤S21包括如下具体步骤:
S211、从所述感兴趣区域图像的左上角的像素点开始,依次计算每一个像素点的LBP值,具体方法如下:
依次以每一个像素点为中心,取不同尺寸的窗口,根据公式
Figure FDA0002490339250000021
确定所述每一个像素点的LBP值;
其中:
Figure FDA0002490339250000031
ip表示第p个像素点的灰度值,ic表示中心像素点的灰度值,n为采样点数量,p为整数,且1≤p≤n;
S212、使用均值模式对所述LBP值进行降维;根据所获得的LBP值,计算LBP值相邻两位上的跳变次数,跳变次数大于2的LBP值为混合模式类,跳变次数小于等于2的LBP值为等价模式类;将所有的混合模式类归为一类,将每一个等价模式类各自单独归为一类,从而将LBP值降维为均匀模式。
5.根据权利要求1所述的基于多尺度融合LBP和改进深度置信网络的指静脉识别方法,其特征在于,所述步骤S31包括如下具体步骤:
S311、设置深度置信网络的初始权重wij、初始偏置ai、初始偏置bj、初始学习率δ0、迭代次数R、神经元层数H和每一层神经元的数量L,搭建RBM网络;
S312、利用改进的RBM训练算法计算每个RBM可见层和隐藏层的随机节点状态;
S313、计算所述深度置信网络的权重和偏差的似然梯度;
S314、计算所述深度置信网络的权重和偏差的似然梯度增量;
S315、计算所述深度置信网络的重构误差的增量Δen
S316、根据重构误差的增量Δen更新所述权重wij、偏置ai和偏置bj
S317、基于重构误差的增量Δen自动调整学习率δij′:
S318、R=R-1,若R>1,回到步骤S312;若R=1,跳转到步骤S319,当前RBM层预训练完成;
S319、H=H-1,若H>1,回到步骤S312;若H=1,预训练完成。
6.根据权利要求5所述的基于多尺度融合LBP和改进深度置信网络的指静脉识别方法,其特征在于,在所述步骤S311中,所述初始学习率δ0为0.1,所述迭代次数为30,所述神经元层数为2,所述每一层神经元的数量为100。
7.根据权利要求5所述的基于多尺度融合LBP和改进深度置信网络的指静脉识别方法,其特征在于,在所述步骤S317中,基于重构误差的增量Δen自适应调整学习率δ′ij
所述学习率可由下式计算:
Figure FDA0002490339250000041
其中:
Figure FDA0002490339250000042
是衰减因子,Δen为重构误差的增量,其表达式为:Δen=en-en-1,其中,n表示迭代次数,en表示第n次迭代的重构误差。
8.根据权利要求7所述的基于多尺度融合LBP和改进深度置信网络的指静脉识别方法,其特征在于,所述步骤S317中的所述衰减因子
Figure FDA0002490339250000043
的取值为0.1。
CN202010403335.3A 2020-05-13 2020-05-13 基于多尺度融合lbp和改进深度置信网络的指静脉识别方法 Pending CN111639550A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010403335.3A CN111639550A (zh) 2020-05-13 2020-05-13 基于多尺度融合lbp和改进深度置信网络的指静脉识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010403335.3A CN111639550A (zh) 2020-05-13 2020-05-13 基于多尺度融合lbp和改进深度置信网络的指静脉识别方法

Publications (1)

Publication Number Publication Date
CN111639550A true CN111639550A (zh) 2020-09-08

Family

ID=72332055

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010403335.3A Pending CN111639550A (zh) 2020-05-13 2020-05-13 基于多尺度融合lbp和改进深度置信网络的指静脉识别方法

Country Status (1)

Country Link
CN (1) CN111639550A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116758077A (zh) * 2023-08-18 2023-09-15 山东航宇游艇发展有限公司 一种冲浪板表面平整度在线检测方法及系统

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103761515A (zh) * 2014-01-27 2014-04-30 中国科学院深圳先进技术研究院 一种基于lbp的人脸特征提取方法及装置
CN103971095A (zh) * 2014-05-09 2014-08-06 西北工业大学 基于多尺度lbp和稀疏编码的大规模人脸表情识别方法
CN107392114A (zh) * 2017-06-29 2017-11-24 广州智慧城市发展研究院 一种基于神经网络模型的手指静脉识别方法及系统
CN108520214A (zh) * 2018-03-28 2018-09-11 五邑大学 一种基于多尺度hog和svm的手指静脉识别方法
CN110300095A (zh) * 2019-05-13 2019-10-01 江苏大学 一种基于改进学习率的深度学习网络入侵检测方法
CN110532851A (zh) * 2019-07-04 2019-12-03 珠海格力电器股份有限公司 指静脉识别方法、装置、计算机设备和存储介质
CN110543822A (zh) * 2019-07-29 2019-12-06 浙江理工大学 一种基于卷积神经网络和监督式离散哈希算法的指静脉识别方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103761515A (zh) * 2014-01-27 2014-04-30 中国科学院深圳先进技术研究院 一种基于lbp的人脸特征提取方法及装置
CN103971095A (zh) * 2014-05-09 2014-08-06 西北工业大学 基于多尺度lbp和稀疏编码的大规模人脸表情识别方法
CN107392114A (zh) * 2017-06-29 2017-11-24 广州智慧城市发展研究院 一种基于神经网络模型的手指静脉识别方法及系统
CN108520214A (zh) * 2018-03-28 2018-09-11 五邑大学 一种基于多尺度hog和svm的手指静脉识别方法
CN110300095A (zh) * 2019-05-13 2019-10-01 江苏大学 一种基于改进学习率的深度学习网络入侵检测方法
CN110532851A (zh) * 2019-07-04 2019-12-03 珠海格力电器股份有限公司 指静脉识别方法、装置、计算机设备和存储介质
CN110543822A (zh) * 2019-07-29 2019-12-06 浙江理工大学 一种基于卷积神经网络和监督式离散哈希算法的指静脉识别方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
张善文: "《图像模式识别》", 西安电子科学出版社 *
李璨: "《深度指静脉识别技术研究》", 《长春工业大学学报》 *
王永超: "《基于深度信念网络的在线社交图像分类研究》", 《中国优秀博硕士学位论文全文数据库(硕士),信息科技辑》 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116758077A (zh) * 2023-08-18 2023-09-15 山东航宇游艇发展有限公司 一种冲浪板表面平整度在线检测方法及系统
CN116758077B (zh) * 2023-08-18 2023-10-20 山东航宇游艇发展有限公司 一种冲浪板表面平整度在线检测方法及系统

Similar Documents

Publication Publication Date Title
CN107506761B (zh) 基于显著性学习卷积神经网络的脑部图像分割方法及系统
CN108648191B (zh) 基于贝叶斯宽度残差神经网络的害虫图像识别方法
CN107657279B (zh) 一种基于少量样本的遥感目标检测方法
CN108537102B (zh) 基于稀疏特征与条件随机场的高分辨sar图像分类方法
CN109409297B (zh) 一种基于双通道卷积神经网络的身份识别方法
CN103971137B (zh) 基于结构性稀疏特征学习的三维动态人脸表情识别方法
CN109299716A (zh) 神经网络的训练方法、图像分割方法、装置、设备及介质
CN108427921A (zh) 一种基于卷积神经网络的人脸识别方法
CN111797683A (zh) 一种基于深度残差注意力网络的视频表情识别方法
CN109002755B (zh) 基于人脸图像的年龄估计模型构建方法及估计方法
CN104866810A (zh) 一种深度卷积神经网络的人脸识别方法
CN104408469A (zh) 基于图像深度学习的烟火识别方法及系统
CN109359608A (zh) 一种基于深度学习模型的人脸识别方法
CN109583379A (zh) 一种基于随机擦除行人对齐网络的行人重识别方法
CN108921019A (zh) 一种基于GEI和TripletLoss-DenseNet的步态识别方法
CN112084891B (zh) 基于多模态特征与对抗学习的跨域人体动作识别方法
CN110852358A (zh) 一种基于深度学习的车辆类型判别方法
Xu et al. Research on ResNet101 network chemical reagent label image classification based on transfer learning
CN110569971B (zh) 一种基于LeakyRelu激活函数的卷积神经网络单目标识别方法
CN112052772A (zh) 一种人脸遮挡检测算法
CN108932455B (zh) 遥感图像场景识别方法及装置
CN113361566A (zh) 用对抗性学习和判别性学习来迁移生成式对抗网络的方法
CN107220598A (zh) 基于深度学习特征和Fisher Vector编码模型的虹膜图像分类方法
CN105404865A (zh) 基于概率态受限玻尔兹曼机级联的人脸检测方法
Zhu et al. Indoor scene segmentation algorithm based on full convolutional neural network

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20200908