CN107944366A - 一种基于属性学习的手指静脉识别方法及装置 - Google Patents

一种基于属性学习的手指静脉识别方法及装置 Download PDF

Info

Publication number
CN107944366A
CN107944366A CN201711137439.9A CN201711137439A CN107944366A CN 107944366 A CN107944366 A CN 107944366A CN 201711137439 A CN201711137439 A CN 201711137439A CN 107944366 A CN107944366 A CN 107944366A
Authority
CN
China
Prior art keywords
attribute
distinction
finger
interpretation
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201711137439.9A
Other languages
English (en)
Other versions
CN107944366B (zh
Inventor
袭肖明
尹义龙
孟宪静
杨璐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shandong University of Finance and Economics
Original Assignee
Shandong University of Finance and Economics
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shandong University of Finance and Economics filed Critical Shandong University of Finance and Economics
Priority to CN201711137439.9A priority Critical patent/CN107944366B/zh
Publication of CN107944366A publication Critical patent/CN107944366A/zh
Application granted granted Critical
Publication of CN107944366B publication Critical patent/CN107944366B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/192Recognition using electronic means using simultaneous comparisons or correlations of the image signals with a plurality of references
    • G06V30/194References adjustable by an adaptive method, e.g. learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/14Vascular patterns

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Biophysics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computing Systems (AREA)
  • Evolutionary Biology (AREA)
  • Databases & Information Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Collating Specific Patterns (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于属性学习的手指静脉识别方法及装置,该方法包括:获取手指静脉图像库,进行数据增广形成训练集;针对手指静脉的特点设计可解释性属性,在训练集中分别针对每个可解释性属性建立其对应的属性学习模型用于获取可解释性属性的值;为了进一步提高特征的区分性,提出了基于区分性辅助branch的卷积神经网络作为区分性属性的学习模型,并设计新的Inter‑intra损失函数,增强区分性属性学习模型的区分性;获取待识别图像,根据全部属性学习模型确定待识别图像的属性特征,进行手指静脉识别。相比较传统的特征,本发明提出的方法提高现有特征的可解释性,识别精度以及识别效率。

Description

一种基于属性学习的手指静脉识别方法及装置
技术领域
本发明属于手指静脉识别的技术领域,涉及一种基于属性学习的手指静脉识别方法及装置,尤其是涉及一种基于可解释性属性学习和区分性属性学习的手指静脉识别方法及装置。
背景技术
近年来,生物识别在信息安全、电子商务等领域起着越来越重要的作用。手指静脉作为一种新兴的生物特征受到越来越多研究者的关注。相比较指纹、人脸等较为成熟的生物特征,手指静脉具有内部特征、活体识别、非接触式采集,采集设备体积小且成本较小等优点。鉴于手指静脉的这些优点,手指静脉识别技术已广泛应用到考勤、汽车锁、ATM等领域。
传统的手指静脉识别技术主要包括图像增强,特征提取,分类等过程。图像增强主要用于增强图像的质量、去除噪声。特征提取用于提取图像的量化特征,表示图像的特点。分类则是基于提取的图像特征进行身份识别。在整个过程中,特征提取是关键一环,特征提取的好坏直接影响到下一步的识别性能。
例如,现有的手指静脉识别领域中的特征提取主要分为基于纹理的特征提取、基于纹路的特征提取、基于学习的特征提取、基于融合特征的提取等四类方法。基于纹理的特征提取方法主要提取指静脉的纹理信息。基于纹路的特征提取方法主要提取指静脉的拓扑结构信息。基于学习的特征提取方法通过机器学习方法从已有的数据中学习相关的特征。基于融合特征的提取方法则是将各种特征进行融合来提高识别精度。
虽然现有的特征在一定程度上都能取得较好的效果,然而这些特征仍存在一定的局限性:
(1)可解释性较差。很难根据提取的特征直观地判断其所代表的物理意义。而增强特征的可解释性,让人更容易理解,对让人接受手指静脉识别具有重要的意义。
(2)忽略了特征的区分性。现有的方法在提取图像特征时,并未考虑到图像特征之间的区分性。而图像特征的区分性信息对于提高最后的手指静脉识别性能具有重要的意义。
综上所述,现有技术在手指静脉识别中如何直观地对图像特征进行表示、提高图像特征之间的分区性的问题,以及如何提高手指静脉识别的识别精度和识别效率的问题,尚缺乏有效的解决方案。
发明内容
针对现有技术中存在的不足,解决现有技术在手指静脉识别中如何直观地对手指静脉识别中特征进行表示、提高手指静脉识别中特征之间的分区性的问题,以及如何提高手指静脉识别的识别精度和识别效率的问题,本发明提供了一种基于属性学习的手指静脉识别方法及装置,相比较传统的手指静脉识别中提取的特征,本发明有效提高现有手指静脉识别中特征的可解释性和图像特征之间的分区性,有效提高手指静脉识别的识别精度以及识别效率。
本发明的第一目的是提供一种基于属性学习的手指静脉识别方法。
为了实现上述目的,本发明采用如下一种技术方案:
一种基于属性学习的手指静脉识别方法,该方法包括:
获取手指静脉图像库,进行数据增广形成训练集;
预设手指静脉图像对应的可解释性属性和区分性属性,在训练集中分别针对每个可解释性属性和区分性属性建立其对应的属性学习模型;
获取待识别手指静脉图像,根据全部属性学习模型确定待识别手指静脉图像的属性特征,进行手指静脉识别。
在本发明中,第一次提出手指静脉识别中的可解释性属性的定义;比较于传统的手指静脉识别中的特征提取方法,本发明提取的属性特征中,可解释性属性具有更好的解释意义,可以直观地对图像特征进行表示。
作为进一步的优选方案,在本方法中,进行数据增广形成训练集的具体步骤包括:
分别将手指静脉图像库中的每一幅训练图像中进行加噪和旋转处理得到新的训练图像;在进行加噪和旋转处理时对手指静脉图像库中的每一幅训练图像进行不同参数的设置;
将新的训练图像加入手指静脉图像库中,形成训练集。
作为进一步的优选方案,在本方法中,根据手指静脉的特点预设若干可解释性属性,采用卷积神经网络作为可解释性属性学习模型;
采用卷积神经网络构建一个可解释性属性的学习模型的具体步骤包括:
根据手指静脉的特点预设若干可解释性属性,可解释性属性的属性值作为训练图像的标签;
根据训练和其对应的标签,采用卷积神经网络模型进行训练,获得可解释性属性学习模型。
作为进一步的优选方案,该方法还包括区分性属性的学习:
从训练集中获取可解释性属性无法区分的用户的手指静脉图像;
构造与无法区分的用户数量相同的区分性属性,分别用于区分一个用户与其他用户。
作为进一步的优选方案,该方法还包括:采用最小化的最小二乘损失函数和间内损失函数计算分区性辅助分支参数,建立引入分区性辅助分支的区分性属性学习模型。
在本发明中,基于获取的不易区分用户的手指静脉图像,建立区分性属性学习模型。提出区分性辅助branch卷积神经网络学习作为区分性属性学习模型。不同于传统的卷积神经网络,本发明提出的区分性卷积神经网络引入了区分性辅助branch,并设计了新的Inter-intra损失函数,用于增强特征的区分性。
在本发明中,基于可解释性属性的识别结果,学习出区分性属性,对可解释性属性进行较好的互补。另外,由于最后获得的属性是二值的,且是少量的,可以提高计算机的存储计算效率。
作为进一步的优选方案,在本方法中,所述最小二乘损失函数包括用于保证训练误差最小的拟合项和用于提高网络泛化能力的正则化项;
所述间内损失函数包括用于保证最小化类内差异性的拟合项和用于最大化类间的差异的正则化项。
作为进一步的优选方案,采用随机梯度下降法对最小二乘损失函数和间内损失函数进行优化求解。
作为进一步的优选方案,根据全部属性学习模型确定待识别图像的属性特征的具体步骤包括:
将待识别图像输入全部属性学习模型中,所述全部属性学习模型包括可解释性属性学习模型和区分性属性学习模型;
根据全部属性学习模型的输出结果得到待识别图像的属性特征。
本发明的第二目的是提供一种计算机可读存储介质。
为了实现上述目的,本发明采用如下一种技术方案:
一种计算机可读存储介质,其中存储有多条指令,所述指令适于由终端设备设备的处理器加载并执行以下处理:
获取手指静脉图像库,进行数据增广形成训练集;
预设手指静脉图像对应的可解释性属性和区分性属性,在训练集中分别针对每个可解释性属性和区分性属性建立其对应的属性学习模型;
获取待识别手指静脉图像,根据全部属性学习模型确定待识别手指静脉图像的属性特征,进行手指静脉识别。
本发明的第三目的是提供一种基于属性学习的手指静脉识别装置。
为了实现上述目的,本发明采用如下一种技术方案:
一种基于属性学习的手指静脉识别装置,采用互联网终端设备,包括处理器和计算机可读存储介质,处理器用于实现各指令;计算机可读存储介质用于存储多条指令,所述指令适于由处理器加载并执行以下处理:
获取手指静脉图像库,进行数据增广形成训练集;
预设手指静脉图像对应的可解释性属性和区分性属性,在训练集中分别针对每个可解释性属性和区分性属性建立其对应的属性学习模型;
获取待识别手指静脉图像,根据全部属性学习模型确定待识别手指静脉图像的属性特征,进行手指静脉识别。
本发明的有益效果:
(1)本发明所述的一种基于属性学习的手指静脉识别方法及装置,第一次提出手指静脉识别中的可解释性属性的定义,并提出了相关的属性学习模型;比较于传统的手指静脉识别中的特征提取方法,本发明提取的属性特征中,可解释性属性能够增强属性对目标的直观表达能力,具有更好的解释意义,可以直观地对图像特征进行表示;
(2)本发明所述的一种基于属性学习的手指静脉识别方法及装置,为了加强属性的区分能力,提出了一种基于区分性辅助branch卷积神经网络的区分性属性学习模型,在卷积神经网络架构中,引入区分性分支,在该区分性分支中引入了新的Inter-intra损失函数;基于可解释性属性的识别结果,提出了区分性属性的获取方法,构造具有更强区分能力的区分性属性,对可解释性属性进行较好的互补;最后将获得的可解释性属性和区分性属性作为用于识别的特征。
(3)本发明所述的一种基于属性学习的手指静脉识别方法及装置,最后获得的属性是二值的,且是少量的,可以提高计算机的存储计算效率。
附图说明
构成本申请的一部分的说明书附图用来提供对本申请的进一步理解,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。
图1为本发明中的方法流程图;
图2为拓扑结构属性示例图;
图3为静脉密集度属性示例图;
图4为主干属性示例图
图5为皮肤属性示例图
图6为区分性辅助branch卷积神经网络基本架构;
图7为实施例1的流程图。
具体实施方式:
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
应该指出,以下详细说明都是例示性的,旨在对本申请提供进一步的说明。除非另有指明,本实施例使用的所有技术和科学术语具有与本申请所属技术领域的普通技术人员通常理解的相同含义。
需要注意的是,这里所使用的术语仅是为了描述具体实施方式,而非意图限制根据本申请的示例性实施方式。如在这里所使用的,除非上下文另外明确指出,否则单数形式也意图包括复数形式,此外,还应当理解的是,当在本说明书中使用术语“包含”和/或“包括”时,其指明存在特征、步骤、操作、器件、组件和/或它们的组合。
针对现有技术中存在的不足,解决现有技术在手指静脉识别中如何直观地对图像特征进行表示、提高图像特征之间的分区性的问题,以及如何提高手指静脉识别的识别精度和识别效率的问题,本发明提供了一种基于属性学习的手指静脉识别方法及装置,相比较传统的手指静脉识别中提取的特征,本发明有效提高现有图像特征的可解释性和图像特征之间的分区性,有效提高识别精度以及识别效率。。
在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面结合附图与实施例对本发明作进一步说明。
实施例1:
本实施例1的目的是提供一种基于属性学习的手指静脉识别方法。
为了实现上述目的,本发明采用如下一种技术方案:
如图1所示,
一种基于属性学习的手指静脉识别方法,该方法包括:
获取手指静脉图像库,进行数据增广形成训练集;
预设手指静脉图像对应的可解释性属性和区分性属性,在训练集中分别针对每个可解释性属性和区分性属性建立其对应的属性学习模型;
获取待识别手指静脉图像,根据全部属性学习模型确定待识别手指静脉图像的属性特征,进行手指静脉识别。
在本实施例中提出一种基于可解释性属性学习的手指静脉识别方法。首先提出了手指静脉中的可解释性属性,设计基于卷积神经网络的可解释性属性学习模型。然后提出区分性属性的概念,为了学习区分性属性,本发明提出了区分性辅助分支branch以及间内损失函数Inter-intra损失函数,并将其引入到卷积神经网络架构中,学习区分性属性。最后将学到的可解释性属性和区分性属性作为最后的特征,进行识别。本实施例第一次提出手指静脉识别中的可解释性属性的定义。相比较于传统的特征方法,本发明提取的属性特征中,可解释性属性具有更好的解释意义,可以直观地对手指静脉进行表示。区分性属性虽然很难对其进行直观解释,但是此类属性具有加强的区分能力,可以对可解释性属性进行较好的互补。另外,由于最后获得的属性是二值的,且是少量的,可以提高计算机的存储计算效率。综上,相比较传统的特征,本发明提出的方法有望提高现有特征的可解释性,识别精度以及识别效率。
一种基于可解释性属性学习的手指静脉识别方法,包括训练阶段和测试阶段。
训练阶段:
步骤(11):对训练图像进行数据増广。进行数据增广形成训练集的具体步骤包括:分别将图像库中的每一幅训练图像中进行加噪和旋转处理得到新的训练图像;在进行加噪和旋转处理时对图像库中的每一幅训练图像进行不同参数的设置;将新的训练图像加入图像库中,形成训练集。
在本实施例中,针对每一幅训练图像,对其加入高斯噪声,对图像进行旋转,在加噪和旋转时进行不同参数的设置,得到若干新的图像。将这些图像加入到原始图像库中,得到新的训练集。
步骤(12):属性学习。主要包括可解释性属性定义及学习和区分性属性定义及学习。
可解释性属性定义及学习:
根据训练集中的图像种类预设其对应的可解释性属性和属性值,在训练集中分别针对每个可解释性属性建立其对应的属性学习模型。
在本实施例中,为了提高属性的可解释性,按照人类对手指静脉图像的视觉理解进行设计。本实施例设计如下可解释性属性,但不限于本实施例给出的属性。
本实施例拟首先定义拓扑结构属性、静脉密集度属性、主干属性、皮肤属性等及设计相应的属性值获取方法。
(a)拓扑结构属性
拓扑结构属性用于描述指静脉血管拓扑结构的复杂程度,如图2所示。属性值分为高度复杂,中度复杂和低度复杂。
(b)静脉密集度属性
静脉密集度属性用于描述指静脉比较紧凑的区域的位置,如图3中的方框中的区域所示。属性值分为中部密集、底部密集以及无密集部位。
(c)主干属性
主干属性用于描述指静脉的主干血管的粗细程度,如图4中的方框中的区域所示。属性值分为主干粗和主干细两类。
(d)皮肤属性
皮肤属性用于描述手指皮肤的特点,如图5所示。此属性值分为皮肤厚和皮肤薄两类
需要强调的是,本实施例只是列举了以上四个可解释性属性的定义及取值,但可解释性属性并不限于以上四个。
在本实施例中,
根据手指静脉的特点预设若干可解释性属性,采用卷积神经网络作为可解释性属性学习模型;如图6所示;
采用卷积神经网络构建一个可解释性属性的学习模型的具体步骤包括:
根据手指静脉的特点预设若干可解释性属性,可解释性属性的属性值作为训练图像的标签;
根据训练和其对应的标签,采用卷积神经网络模型进行训练,获得可解释性属性学习模型。
拟利用Alexnet对每个属性建立一个属性学习器。以拓扑结构属性学习过程为例进行简述。在训练集中,根据每幅图像的拓扑属性值对训练集进行label,分成高度复杂,中度复杂和低度复杂三类。然后根据训练集和相关的label,使用Alexnet进行训练,得到的模型即为拓扑结构属性学习器。同理,利用相同的过程对其他的属性进行学习。
本发明所述的一种基于属性学习的手指静脉识别方法及装置,第一次提出手指静脉识别中的可解释性属性的定义,并提出了相关的属性学习模型;比较于传统的手指静脉识别中的特征提取方法,本发明提取的属性特征中,可解释性属性能够增强属性对目标的直观表达能力,具有更好的解释意义,可以直观地对图像特征进行表示。
区分性属性定义及学习:
由于可解释性属性只是具有较好的直观表达能力,并不一定具有较好的区分性,因此,本实施例提出区分性属性来弥补可解释性属性的局限性。在本实施例中一个用户对应多幅手指静脉图像,区分性属性用于区分不同用户。
从训练集中获取可解释性属性无法区分的用户的手指静脉图像;
构造与无法区分的用户数量相同的区分性属性,分别用于区分一个用户与其他用户。
在本实施例中,首先对比训练集中每个用户的可解释性属性,找到难以区分的用户。例如,用户甲、乙、丙拥有相同的可解释性属性,即利用本发明提出的可解释性属性难以将这三个用户区分开来。针对上例,说明区分性属性的构造。针对用户甲、乙、丙难以区分这种情况,构造三个区分性属性A、B、C。属性A主要用于区分用户甲和用户乙、丙,属性B主要用于区分用户乙和用户甲、丙,属性C主要用于区分用户丙和用户甲、乙。为了提高学到的属性的区分性,本发明设计了基于区分性辅助branch卷积神经网络的区分性属性学习模型。该辅助branch主要用于增强学习模型的区分性。具体实现思路是在branch中引入新的Inter-intra Loss来提高模型的区分性。
为了提高学到的属性的区分性,本发明设计了基于区分性辅助分支branch卷积神经网络的区分性属性学习模型。该辅助分支branch主要用于增强学习模型的区分性。具体实现思路是在分支branch中引入新的损失函数Inter-intra损失函数来提高模型的区分性。
通过优化最小化二乘损失函数和Inter-intra损失函数来求解区分性属性学习模型的参数。
Loss函数主要设计思路如下式所示:
Min Llsq+Linter-intra (1)
在上式中,ci是第i类的中心,可通过第i类的训练样本的平均值获得。δqi是指示函数,若第q个样本属于第i类,δqi=1,否则,δqi=0。w和b是网络的参数,M表示训练样本的总个数,N表示训练样本的类别数目。
通过最小二乘Loss Llsq和Inter-intra损失函数Linter-intra来获得每个层的参数。Llsq用于进行训练数据拟合,Linter-intra用于提高特征的区分性。
所述最小二乘损失函数包括用于保证训练误差最小的拟合项和用于提高网络泛化能力的正则化项;在Llsq中,第一项是拟合项,用于保证训练误差最小,第二项是正则化项,用于提高网络的泛化能力。
所述Inter-intra损失函数函数包括用于保证最小化类内差异性和最大化类间的差异;在Linter-intra中,第一项用于保证最小化类内差异性,第二项用于最大化类间的差异。
采用随机梯度下降法对最小二乘损失函数和Inter-intra损失函数函数进行优化求解。利用随机梯度下降法对Loss函数进行优化求解,可获得区分性卷积神经网络的模型参数。
在本发明中,基于可解释性属性,提出了区分性属性的获取方法,构造具有加强的区分能力的区分性属性,对可解释性属性进行较好的互补。另外,由于最后获得的属性是二值的,且是少量的,可以提高计算机的存储计算效率。
区分性属性学习完成后,获得所有的属性学习器。
识别阶段:
步骤(21):获取一幅待识别的手指静脉图像;
步骤(22):该图像输入到所有的属性学习器中,根据所有属性学习器的输出结果可以获得该图像的属性特征;
根据全部属性学习模型确定待识别图像的属性特征的具体步骤包括:
将待识别图像输入全部属性学习模型中,所述全部属性学习模型包括可解释性属性学习模型和区分性属性学习模型;
根据全部属性学习模型的输出结果得到待识别图像的属性特征。
步骤(23):将获得的属性特征与数据库中存在的模板进行比对,找到相似度最高的模板,即可获得识别结果。
本实施例的流程图如图7所示。
实施例2:
本实施例2的目的是提供一种计算机可读存储介质。
为了实现上述目的,本发明采用如下一种技术方案:
一种计算机可读存储介质,其中存储有多条指令,所述指令适于由终端设备设备的处理器加载并执行以下处理:
获取手指静脉图像库,进行数据增广形成训练集;
预设手指静脉图像对应的可解释性属性和区分性属性,在训练集中分别针对每个可解释性属性和区分性属性建立其对应的属性学习模型;
获取待识别手指静脉图像,根据全部属性学习模型确定待识别手指静脉图像的属性特征,进行手指静脉识别。
在本实施例中,计算机可读记录介质的例子包括磁存储介质(例如,ROM,RAM,USB,软盘,硬盘等)、光学记录介质(例如,CD-ROM或DVD)、PC接口(例如,PCI、PCI-Expres、WiFi等)等。然而,本公开的各个方面不限于此。
实施例3:
本实施例3的目的是提供一种基于属性学习的手指静脉识别装置。
为了实现上述目的,本发明采用如下一种技术方案:
一种基于属性学习的手指静脉识别装置,采用一种互联网终端设备,包括处理器和计算机可读存储介质,处理器用于实现各指令;计算机可读存储介质用于存储多条指令,所述指令适于由处理器加载并执行以下处理:
获取手指静脉图像库,进行数据增广形成训练集;
预设手指静脉图像对应的可解释性属性和区分性属性,在训练集中分别针对每个可解释性属性和区分性属性建立其对应的属性学习模型;
获取待识别手指静脉图像,根据全部属性学习模型确定待识别手指静脉图像的属性特征,进行手指静脉识别。
本领域技术人员应该明白,上述的本发明的各模块或各步骤可以用通用的计算机装置来实现,可选地,它们可以用计算装置可执行的程序代码来实现,从而,可以将它们存储在存储装置中由计算装置来执行,或者将它们分别制作成各个集成电路模块,或者将它们中的多个模块或步骤制作成单个集成电路模块来实现。本发明不限制于任何特定的硬件和软件的结合。
本发明的有益效果:
(1)本发明所述的一种基于属性学习的手指静脉识别方法及装置,第一次提出手指静脉识别中的可解释性属性的定义,并提出了相关的属性学习模型;比较于传统的手指静脉识别中的特征提取方法,本发明提取的属性特征中,可解释性属性能够增强属性对目标的直观表达能力,具有更好的解释意义,可以直观地对图像特征进行表示;
(2)本发明所述的一种基于属性学习的手指静脉识别方法及装置,为了加强属性的区分能力,提出了一种基于区分性辅助branch卷积神经网络的区分性属性学习模型,在卷积神经网络架构中,引入区分性分支,在该区分性分支中引入了新的间内损失函数;本发明基于可解释性属性,提出了区分性属性的获取方法,构造具有加强的区分能力的区分性属性,对可解释性属性进行较好的互补;最后将获得的可解释性属性和区分性属性作为用于识别的特征。
(3)本发明所述的一种基于属性学习的手指静脉识别方法及装置,最后获得的属性是二值的,且是少量的,可以提高计算机的存储计算效率。
以上所述仅为本申请的优选实施例而已,并不用于限制本申请,对于本领域的技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。

Claims (10)

1.一种基于属性学习的手指静脉识别方法,其特征在于,该方法包括:
获取手指静脉图像库,进行数据增广形成训练集;
预设手指静脉图像对应的可解释性属性和区分性属性,在训练集中分别针对每个可解释性属性和区分性属性建立其对应的属性学习模型;
获取待识别手指静脉图像,根据全部属性学习模型确定待识别手指静脉图像的属性特征,进行手指静脉识别。
2.如权利要求1所述的方法,其特征在于,在本方法中,进行数据增广形成训练集的具体步骤包括:
进行数据增广形成训练集的具体步骤包括:
分别将手指静脉图像库中的每一幅训练图像中进行加噪和旋转处理得到新的训练图像;在进行加噪和旋转处理时对手指静脉图像库中的每一幅训练图像进行不同参数的设置;
将新的训练图像加入手指静脉图像库中,形成训练集。
3.如权利要求2所述的方法,其特征在于,在本方法中,根据手指静脉的特点预设若干可解释性属性,采用卷积神经网络作为可解释性属性学习模型,具体步骤包括:
根据手指静脉的特点预设若干可解释性属性,可解释性属性的属性值作为训练图像的标签;
根据训练和其对应的标签,采用卷积神经网络模型进行训练,获得可解释性属性学习模型。
4.如权利要求3所述的方法,其特征在于,该方法还包括区分性属性的学习:
从训练集中获取可解释性属性无法区分的用户的手指静脉图像;
构造与无法区分的用户数量相同的区分性属性,分别用于区分一个用户与其他用户。
5.如权利要求4所述的方法,其特征在于,该方法还包括:采用最小化的最小二乘损失函数和间内损失函数计算分区性辅助分支参数,建立引入分区性辅助分支的区分性属性学习模型。
6.如权利要求5所述的方法,其特征在于,在本方法中,所述最小二乘损失函数包括用于保证训练误差最小的拟合项和用于提高网络泛化能力的正则化项;
所述间内损失函数包括用于保证最小化类内差异性的拟合项和用于最大化类间的差异的正则化项。
7.如权利要求6所述的方法,其特征在于,采用随机梯度下降法对最小二乘损失函数和间内损失函数进行优化求解。
8.如权利要求1所述的方法,其特征在于,根据全部属性学习模型确定待识别图像的属性特征的具体步骤包括:
将待识别图像输入全部属性学习模型中,所述全部属性学习模型包括每个可解释性属性对应的可解释性属性学习模型和区分性属性学习模型;
根据全部属性学习模型的输出结果得到待识别图像的属性特征。
9.一种计算机可读存储介质,其中存储有多条指令,其特征在于,所述指令适于由终端设备设备的处理器加载并执行以下处理:
获取手指静脉图像库,进行数据增广形成训练集;
预设手指静脉图像对应的可解释性属性和区分性属性,在训练集中分别针对每个可解释性属性和区分性属性建立其对应的属性学习模型;
获取待识别手指静脉图像,根据全部属性学习模型确定待识别手指静脉图像的属性特征,进行手指静脉识别。
10.一种基于属性学习的手指静脉识别装置,采用互联网终端设备,包括处理器和计算机可读存储介质,处理器用于实现各指令;计算机可读存储介质用于存储多条指令,其特征在于,所述指令适于由处理器加载并执行以下处理:
获取手指静脉图像库,进行数据增广形成训练集;
预设手指静脉图像对应的可解释性属性和区分性属性,在训练集中分别针对每个可解释性属性和区分性属性建立其对应的属性学习模型;
获取待识别手指静脉图像,根据全部属性学习模型确定待识别手指静脉图像的属性特征,进行手指静脉识别。
CN201711137439.9A 2017-11-16 2017-11-16 一种基于属性学习的手指静脉识别方法及装置 Active CN107944366B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201711137439.9A CN107944366B (zh) 2017-11-16 2017-11-16 一种基于属性学习的手指静脉识别方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201711137439.9A CN107944366B (zh) 2017-11-16 2017-11-16 一种基于属性学习的手指静脉识别方法及装置

Publications (2)

Publication Number Publication Date
CN107944366A true CN107944366A (zh) 2018-04-20
CN107944366B CN107944366B (zh) 2020-04-17

Family

ID=61931536

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201711137439.9A Active CN107944366B (zh) 2017-11-16 2017-11-16 一种基于属性学习的手指静脉识别方法及装置

Country Status (1)

Country Link
CN (1) CN107944366B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108681714A (zh) * 2018-05-18 2018-10-19 济南浪潮高新科技投资发展有限公司 一种基于个性化学习的手指静脉识别系统及方法
CN108830334A (zh) * 2018-06-25 2018-11-16 江西师范大学 一种基于对抗式迁移学习的细粒度目标判别方法
CN113221655A (zh) * 2021-04-12 2021-08-06 重庆邮电大学 基于特征空间约束的人脸欺骗检测方法
CN114157539A (zh) * 2022-02-10 2022-03-08 南京航空航天大学 一种数据知识双驱动的调制智能识别方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008225671A (ja) * 2007-03-09 2008-09-25 Ricoh Co Ltd 画像入力装置及び個人認証装置
CN103824054A (zh) * 2014-02-17 2014-05-28 北京旷视科技有限公司 一种基于级联深度神经网络的人脸属性识别方法
CN106447625A (zh) * 2016-09-05 2017-02-22 北京中科奥森数据科技有限公司 基于人脸图像序列的属性识别方法及装置
CN106611168A (zh) * 2016-12-29 2017-05-03 杭州电子科技大学 基于细化图像和方向场图的指静脉快速识别方法
CN106845373A (zh) * 2017-01-04 2017-06-13 天津大学 面向监控视频的行人属性预测方法
CN106897390A (zh) * 2017-01-24 2017-06-27 北京大学 基于深度度量学习的目标精确检索方法
CN107330396A (zh) * 2017-06-28 2017-11-07 华中科技大学 一种基于多属性和多策略融合学习的行人再识别方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008225671A (ja) * 2007-03-09 2008-09-25 Ricoh Co Ltd 画像入力装置及び個人認証装置
CN103824054A (zh) * 2014-02-17 2014-05-28 北京旷视科技有限公司 一种基于级联深度神经网络的人脸属性识别方法
CN106447625A (zh) * 2016-09-05 2017-02-22 北京中科奥森数据科技有限公司 基于人脸图像序列的属性识别方法及装置
CN106611168A (zh) * 2016-12-29 2017-05-03 杭州电子科技大学 基于细化图像和方向场图的指静脉快速识别方法
CN106845373A (zh) * 2017-01-04 2017-06-13 天津大学 面向监控视频的行人属性预测方法
CN106897390A (zh) * 2017-01-24 2017-06-27 北京大学 基于深度度量学习的目标精确检索方法
CN107330396A (zh) * 2017-06-28 2017-11-07 华中科技大学 一种基于多属性和多策略融合学习的行人再识别方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
JINFENG YANG 等: "A novel finger-vein recognition method with feature combination", 《 2009 16TH IEEE INTERNATIONAL CONFERENCE ON IMAGE PROCESSING (ICIP)》 *
姚万超: ""基于卷积神经网络的行人再识别算法"", 《万方数据知识服务平台》 *
杨璐: ""手指静脉识别方法研究"", 《中国博士学位论文全文数据库 信息科技辑》 *
袭肖明: ""手指静脉识别若干关键问题研究"", 《中国博士学位论文全文数据库 信息科技辑》 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108681714A (zh) * 2018-05-18 2018-10-19 济南浪潮高新科技投资发展有限公司 一种基于个性化学习的手指静脉识别系统及方法
CN108830334A (zh) * 2018-06-25 2018-11-16 江西师范大学 一种基于对抗式迁移学习的细粒度目标判别方法
CN108830334B (zh) * 2018-06-25 2020-08-28 江西师范大学 一种基于对抗式迁移学习的细粒度目标判别方法
CN113221655A (zh) * 2021-04-12 2021-08-06 重庆邮电大学 基于特征空间约束的人脸欺骗检测方法
CN113221655B (zh) * 2021-04-12 2022-09-30 重庆邮电大学 基于特征空间约束的人脸欺骗检测方法
CN114157539A (zh) * 2022-02-10 2022-03-08 南京航空航天大学 一种数据知识双驱动的调制智能识别方法
CN114157539B (zh) * 2022-02-10 2022-05-10 南京航空航天大学 一种数据知识双驱动的调制智能识别方法

Also Published As

Publication number Publication date
CN107944366B (zh) 2020-04-17

Similar Documents

Publication Publication Date Title
CN106326886B (zh) 基于卷积神经网络的手指静脉图像质量评估方法
CN107506761B (zh) 基于显著性学习卷积神经网络的脑部图像分割方法及系统
CN105975931B (zh) 一种基于多尺度池化的卷积神经网络人脸识别方法
CN103942577B (zh) 视频监控中基于自建立样本库及混合特征的身份识别方法
CN107944366A (zh) 一种基于属性学习的手指静脉识别方法及装置
CN106778664A (zh) 一种虹膜图像中虹膜区域的分割方法及其装置
CN107977671A (zh) 一种基于多任务卷积神经网络的舌象分类方法
CN106951825A (zh) 一种人脸图像质量评估系统以及实现方法
CN106326874A (zh) 一种人眼图像中的虹膜识别方法及其装置
CN110309861A (zh) 一种基于生成对抗网络的多模态人类活动识别方法
CN106372581A (zh) 构建及训练人脸识别特征提取网络的方法
CN106778584A (zh) 一种基于深层特征与浅层特征融合的人脸年龄估计方法
CN104850825A (zh) 一种基于卷积神经网络的人脸图像颜值计算方法
CN106295591A (zh) 基于人脸图像的性别识别方法及装置
CN108804677A (zh) 结合多层级注意力机制的深度学习问题分类方法及系统
CN103824054A (zh) 一种基于级联深度神经网络的人脸属性识别方法
CN109543526A (zh) 基于深度差异性特征的真假面瘫识别系统
CN109299701A (zh) 基于gan扩充多人种特征协同选择的人脸年龄估计方法
CN109086660A (zh) 多任务学习深度网络的训练方法、设备及存储介质
CN106909938A (zh) 基于深度学习网络的视角无关性行为识别方法
CN109033953A (zh) 多任务学习深度网络的训练方法、设备及存储介质
CN108171318A (zh) 一种基于模拟退火—高斯函数的卷积神经网络集成方法
CN109344856A (zh) 一种基于多层判别式特征学习的脱机签名鉴别方法
CN108764282A (zh) 一种类别增量行为识别方法和系统
CN109583279A (zh) 一种指纹和指静脉联合识别算法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant