CN109214246B - 基于全局方向信息的指纹检索方法 - Google Patents

基于全局方向信息的指纹检索方法 Download PDF

Info

Publication number
CN109214246B
CN109214246B CN201710538778.1A CN201710538778A CN109214246B CN 109214246 B CN109214246 B CN 109214246B CN 201710538778 A CN201710538778 A CN 201710538778A CN 109214246 B CN109214246 B CN 109214246B
Authority
CN
China
Prior art keywords
fingerprint
direction information
fingerprint image
information
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201710538778.1A
Other languages
English (en)
Other versions
CN109214246A (zh
Inventor
杨霄
司轩斌
郭振华
冯建江
夏树涛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Graduate School Tsinghua University
Original Assignee
Shenzhen Graduate School Tsinghua University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Graduate School Tsinghua University filed Critical Shenzhen Graduate School Tsinghua University
Priority to CN201710538778.1A priority Critical patent/CN109214246B/zh
Publication of CN109214246A publication Critical patent/CN109214246A/zh
Application granted granted Critical
Publication of CN109214246B publication Critical patent/CN109214246B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1347Preprocessing; Feature extraction
    • G06V40/1359Extracting features related to ridge properties; Determining the fingerprint type, e.g. whorl or loop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • G06V10/507Summing image-intensity values; Histogram projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1365Matching; Classification
    • G06V40/1376Matching features related to ridge properties or fingerprint texture

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Probability & Statistics with Applications (AREA)
  • Collating Specific Patterns (AREA)

Abstract

本发明提供了一种基于全局方向信息的指纹检索方法,包括:A、建立指纹全局方向信息特征表示模型;B、提取指纹数据库的以及输入的指纹图像的全局方向信息,利用所述全局方向信息特征表示模型构造特征向量,然后进行检索。本发明可提高指纹信息的利用率,提升指纹检索效率。

Description

基于全局方向信息的指纹检索方法
技术领域
本发明涉及指纹识别领域,尤其涉及一种基于全局方向信息的指纹检索方法。
背景技术
由于在唯一性、稳定性和易采集性等主要指标上具有综合优势,指纹一直是公安刑侦领域进行身份认证的重要特征之一。近年来,随着指纹自动识别技术的逐渐成熟和半导体硬件技术的快速发展,指纹识别被更广泛地应用于出入境管理、金融身份认证、手机识别等场景中。
常见的指纹识别系统通常包含进行一对一比对的指纹认证子系统和进行一对多比对的指纹辨识子系统。在指纹辨识问题中,认证一个人的身份需要将其指纹与数据库中的海量指纹进行比对。如果全部进行精确匹配的话,将消耗大量的时间和计算资源。因此,实际应用中往往需要采用多种策略进行加速以提高指纹辨识的整体性能,指纹检索就是一种有效的加速策略。
本发明要解决的是指纹的快速检索问题,传统的主流指纹检索方法通常依靠指纹奇异点的精确提取和配准来构造特征向量,容易受噪声影响。同时,考虑到指纹存在变形的情况,传统方法通常认为只有奇异点附近的信息相对稳定,从而只采集其附近的信息。事实上,对于单个手指而言,指纹图像中各部分的信息(特别是脊线方向信息)对于快速匹配都有重要意义,但目前没有对指纹全局方向信息进行有效利用的方案。因此,迫切需要一种基于全局方向信息的指纹检索技术,以完整、平等地提取和表达不同质量、不同类型的指纹各部分的有效信息,提高指纹信息的利用率,提升指纹检索的精度。
发明内容
本发明旨在至少在一定程度上解决上述技术问题之一或至少提供一种有用的商业选择。为此,本发明的一个目的在于提出一种提高指纹信息的利用率,提升精度的基于全局方向信息的指纹检索方法。
本发明提供的基于全局方向信息的指纹检索方法,包括:
A、建立指纹全局方向信息特征表示模型;
B、提取指纹数据库的以及输入的指纹图像的全局方向信息,利用所述全局方向信息特征表示模型构造特征向量,然后进行检索。
进一步的,所述步骤A包括:
A1、根据指纹类型、奇异点完整情况、脊线部位和噪声情况从真实指纹数据库中挑选指纹构成训练数据库;
A2、对所述训练数据库进行标定和扩展,得到扩展后的指纹图像族;
A3、对所述指纹图像族的类别进行指定;
A4、对所述指纹图像族的全局方向信息进行提取;
A5、利用所述指纹图像族的全局方向信息和类别进行特征表示模型的训练。
进一步的,所述步骤A2包括:
A21、调整所述训练数据库中的每个指纹图像的位置和方向;
A22、对调整后的所述指纹图像进行方向场标记;
A23、基于多个角度对调整后的所述指纹图像进行中心旋转得到扩展图像族。
进一步的,所述步骤A3包括:
A31、为所述训练数据库中的每个指纹指定一个类别;
A32、对每一个类别的所有图像进行K-中心聚类,得到最终类别;
A33、以所述训练数据库中每个指纹的最终类别指定对应的所述扩展图像族为同样类别。
进一步的,所述步骤A5包括:
A51、按照所述全局方向信息的大小、期望的所述特征向量大小和所述最终类别总数分别建立卷积神经网络结构;
A52、基于所述全局方向信息和所述指纹图像族类别分别对所述卷积神经网络进行训练,得到特征表示模型。
进一步的,所述全局方向信息包括梯度方向信息、盖伯滤波响应信息和方向直方图场信息。
进一步的,所述步骤B包括:
B1、对实际应用中的指纹数据库及输入的指纹图像进行位置校正;
B2、对所述的校正后的指纹图像的全局方向信息进行提取;
B3、对所述全局方向信息进行特征表示,得到特征向量;
B4、利用所述特征向量进行指纹检索。
进一步的,所述步骤B1包括:
B11、对所述指纹图像提取梯度强度值图和梯度方向一致性图;
B12、按照预设阈值划分所述指纹图像的前景区;
B13、基于所述前景区的中心将所述指纹图像调整到校正后的指纹图像中心。
进一步的,所述步骤B3包括:
B31、将所述全局方向信息输入所述特征表示模型;
B32、提取卷积神经网络输出倒数第二层的特征表示向量;
B33、将所述特征表示向量进行均方归一化后,组合构成所述特征向量。
进一步的,所述步骤B4中:所述指纹检索通过计算特征向量的相似度完成,其中相似度采用不同的距离度量方式。
本发明提供的基于全局方向信息的指纹检索方法,包括:A、建立指纹全局方向信息特征表示模型;B、提取指纹数据库的以及输入的指纹图像的全局方向信息,利用所述全局方向信息特征表示模型构造特征向量,然后进行检索。通过本发明可提高指纹信息的利用率,提升指纹检索效率。
进一步的,本发明提出了一种融合指纹脊线梯度方向信息、指纹图像盖伯滤波响应信息以及指纹脊线方向直方图场信息等三种指纹全局方向信息的表示方法,基于人工标注的训练数据和深度卷积神经网络框架构造了一种从全局方向信息到特征向量的特征表示模型。对于输入的指纹图像,首先进行位置校正,提取全局方向信息,然后将其输入卷积神经网络,得到输出的特征向量,最终用于指纹检索。
进一步的,本发明与以往指纹检索方法最大的不同在于它对指纹全局方向信息进行了全面、平等的利用,不依赖于专门的配准和校正。传统的指纹检索方法无法对指纹全局方向信息的进行有效的建模:要么强烈地依赖基于奇异点的配准,以奇异点附近的局部方向场代表整个指纹,丢失了很多重要信息;要么将指纹全局方向场看作一维向量进行降维表达,丢失了二维空间结构信息。本方法采用三种方式对指纹全局方向信息进行了描述,其中梯度方向信息能够精确地描述高质量区域的指纹脊线走向,盖伯滤波响应信息能够在噪声影响下保留脊线方向信息并在一定程度上包含脊线宽度信息,方向直方图场信息则能够表达不同区域不同方向上的脊线纹理强度,三种方式的融合使得本方法对脊线信息表达地更全面。相对于传统模型,卷积神经网络模型对全局方向信息的利用也更充分和平等:首先,卷积操作是对二维结构信息的提取,能够更好地维持指纹方向场的结构;其次,池化操作降低了模型对配准精度的依赖性,使得具有区分度的特征可以被更好地提取出来;最后,卷积神经网络模型的逐层信息传递特性能够更好地表达指纹从局部信息到全局结构的层次关系。本指纹检索技术对指纹内在规律进行了更好地表达,可以提高复杂背景、不完整指纹、局部变形指纹等困难情形的指纹检索性能,具有泛用性强、稳定性高的特点。
本发明的附加方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
本发明的上述和/或附加的方面和优点从结合下面附图对实施例的描述中将变得明显和容易理解,其中:
图1为本发明的基于全局方向信息的指纹检索方法的流程图;
图2为指纹梯度方向信息示意图;
图3为指纹盖伯滤波响应信息示意图;
图4为指纹方向直方图场信息示意图;
图5为本发明涉及的卷积神经网络示意图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本发明,而不能理解为对本发明的限制。
在本发明的描述中,需要理解的是,术语“中心”、“纵向”、“横向”、“长度”、“宽度”、“厚度”、“上”、“下”、“前”、“后”、“左”、“右”、“竖直”、“水平”、“顶”、“底”“内”、“外”、“顺时针”、“逆时针”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括一个或者更多个该特征。在本发明的描述中,“多个”的含义是两个或两个以上,除非另有明确具体的限定。
在本发明中,除非另有明确的规定和限定,术语“安装”、“相连”、“连接”、“固定”等术语应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或一体地连接;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通。对于本领域的普通技术人员而言,可以根据具体情况理解上述术语在本发明中的具体含义。
在本发明中,除非另有明确的规定和限定,第一特征在第二特征之“上”或之“下”可以包括第一和第二特征直接接触,也可以包括第一和第二特征不是直接接触而是通过它们之间的另外的特征接触。而且,第一特征在第二特征“之上”、“上方”和“上面”包括第一特征在第二特征正上方和斜上方,或仅仅表示第一特征水平高度高于第二特征。第一特征在第二特征“之下”、“下方”和“下面”包括第一特征在第二特征正下方和斜下方,或仅仅表示第一特征水平高度小于第二特征。
本发明的目的是完整、平等地提取和表达指纹全局方向信息,以提升指纹检索的精度。
本发明实施方式提出了一种融合指纹脊线梯度方向信息、指纹图像盖伯滤波响应信息以及指纹脊线方向直方图场信息等三种指纹全局方向信息的表示方法,基于人工标注的训练数据和深度卷积神经网络框架构造了一种从全局方向信息到特征向量的特征表示模型。对于输入的指纹图像,首先进行位置校正,提取全局方向信息,然后将其输入卷积神经网络,得到输出的特征向量,最终用于指纹检索。
为使本领域技术人员更好地理解本文,现对部分符号说明如下:
F 原始训练指纹图像
Fc 标定后的训练指纹图像
Fcs 扩展后的训练指纹图像族
Ci 指纹的主类别
Oci 属于Ci类的Fc对应的人工标注方向场集合
Cij 指纹的子类别
Ogr 指纹图像对应的梯度方向信息
Ogg 指纹图像对应的盖伯滤波响应信息
Ogh 指纹图像对应的方向直方图场信息
Figure BDA0001341341600000072
在线检索阶段的指纹图像
Figure BDA0001341341600000071
校正后的在线检索阶段的指纹图像
Fv 指纹图像对应的检索特征向量
发明实施方式中主要涉及的算法包括离线训练阶段和在线检索阶段。
A离线训练阶段
这一阶段的主要工作是训练从输入全局方向信息到输出特征向量的卷积神经网络模型,只需要进行一次。这一阶段主要包括下面几个主要步骤:
A1、挑选指纹构成训练数据库
传统指纹数据主要分为两大类,一类是平面指纹,另一类是滚动指纹,为了提高本方法的泛用能力,首先需要从这两大类真实指纹数据库中挑选若干指纹放到一起构造训练指纹库。具体地,挑选出的原始训练指纹图像F应当满足下列条件:
(1)脊线结构包含完整的奇异点;
(2)不包含指节部位的脊线纹理(可以采用手工的方式截掉指节部位的纹理);
(3)指纹脊线可以存在模糊的区域,但是每个模糊连通区域不超过整个脊线区域面积的1/9,总模糊区域面积不超过整个脊线区域面积的1/4;
(4)可以存在噪声,但不能是大面积的、强烈的结构噪声(比如清晰的背景条纹)
A2、训练数据的标定与扩展
对于A1得到的每个原始训练指纹图像F,可通过人工处理的方式进行标定,按照基于经验估计的大体的指纹中心和方向将原始训练指纹图像F校准到统一的坐标系中,得到标定后的训练指纹图像Fc。
具体地,准备大小为N×N(如取N=512)像素的纯黑底图,以原始训练指纹图像F对应的手指的末端指节的几何中心为指纹中心,以手指根部指向指尖的方向为指纹方向,将原始训练指纹图像F的中心平移至底图中心,旋转原始训练指纹图像F角度使得其方向指向底图竖直向上的方向,超出底图的区域舍弃,即得标定后的训练指纹图像Fc。值得说明的是,实际上从指纹图像无法反推出精确的指纹中心和方向,但这里并不需要特别精确的中心和方向,大体校准即可。
然后,标注标定后的训练指纹图像Fc的方向场。一般意义的指纹方向场包括两种,一种是像素方向场,一种是图像块方向场,本技术说明中其他部分所有提到的方向场可都是指图像块方向场,即可将指纹图像划分为D×D像素大小且互不重叠的图像块(根据具体步骤不同,图像块大小不同),以每个块包含的指纹脊线和谷线的方向作为该块的方向,所有图像块的方向组成了该指纹的方向场。这里通过人工标注的方式对标定后的训练指纹图像Fc方向场进行标注,一般取中等大小的D值,比如可选取D=8。
接下来对标定后的训练指纹图像Fc进行扩展,分别将标定后的训练指纹图像Fc进行中心旋转若干角度(比如{-30°,-25°,-20°,-15°,-10°,-5°,0°,5°,10°,15°,20°,25°,30°}这些角度),旋转后的图像保留原始的N×N像素大小,出现的外部区域图像用纯黑表示,而丢失的图像区域舍弃,这样,基于每个标定后的训练指纹图像Fc可以得到一扩展后的训练指纹图像族Fcs。
A3、训练数据的类别指定
对于A2得到的每个标定后的训练指纹图像Fc,指定一个类别,然后为它对应的扩展后的训练指纹图像族Fcs中的所有图像指定同样的类别。
具体地,首先,可基于传统的高尔顿-亨利分类方案,通过人工处理的方式,检查指纹中奇异点的数量、类型和位置关系,从拱型、拱帐型、左箕型、右箕型和斗型这五种类型中为原始训练指纹F指定一个主类别Ci。
然后,对于每一个主类别Ci,将整个训练数据集中属于该类的标定后的训练指纹图像Fc及对应的人工标注方向场取出来组成属于Ci类的Fc对应的人工标注方向场集合Oci,并采用K-中心聚类方法进行聚类,获得每个训练指纹图像Fc的子类别,具体方案为:
预设聚类数目为ki(对于不同的主类别拱型、拱帐型、左箕型、右箕型和斗型,聚类数目ki可以不同,记五类的总聚类数目为nki),从方向场集合Oci随机选取ki个方向场作为初始聚类中心,然后按照如下步骤进行:
(1)计算方向场集合Oci中每个方向场到所有聚类中心的距离,并将其分到距离最近的类中去;
(2)在每个方向场集合Oci中,依次选取每个方向场作为类中心,计算类中所有方向场到它的距离之和,然后选择与最小的距离之和对应的方向场作为该类的新中心。这样,每个类的中心就经过了一次更新;
(3)聚类中心更新后,返回步骤(1),直到这ki个聚类中心不再发生改变为止。
对于每一个主类别Ci,通过上述方法可得ki个聚类中心,并且方向场集合Oci中每个方向场都到了一个聚类编号Cij,由于Oci中每个方向场与一个Fc一一对应,因此实际上是每个训练指纹图像Fc得到了一个类别Cij,然后为每个Fc对应的Fcs指定同样的类别Cij。
A4、全局方向信息的提取
对于每个Fcs中的每个图像I,提取全局方向信息。全局方向信息包括梯度方向信息Ogr,盖伯滤波响应信息Ogg和方向直方图场信息Ogh三种。
首先提取梯度方向信息Ogr。将图像I划分为d×d像素大小且互不重叠的图像块(这里的图像块取偏小的值,比如d=4,要求d能被N整除),在每个图像块中,计算其中每个像素的水平梯度值和竖直梯度值,然后分别计算水平梯度的均值和竖直梯度的均值,再利用反正切函数计算该图像块对应的脊线方向(角度)。这样就得到了大小为M×M维(M=N/d)的初始梯度方向场。然后,以初始梯度方向场中的每个位置为中心,选取n×n大小(n选取较小的奇数值,比如n=5)的邻域方向块,进行局部平滑。具体做法是将方向块中的每个角度值乘以2,计算正弦值和余弦值,然后分别求均值。这样就得到了M×M×2维的梯度方向信息Ogr(即包含了M×M个二倍角正弦均值和M×M个二倍角余弦均值)。梯度方向信息Ogr的样例如图2所示。
接下来提取盖伯滤波响应信息Ogg。同样将图像I划分为d×d像素大小且互不重叠的图像块,并准备若干等差角度(比如{0°,15°,30°,45°,60°,75°,90°,105°,120°,135°,150°,165°})且波长与指纹脊线宽度匹配(比如500ppi下的10像素)的ng个盖伯滤波器。对于图像I中的每个像素,采用这ng个盖伯滤波器分别进行滤波,这样就得到了N×N×ng维的盖伯滤波响应图。接下来按照前述划分的图像块求均值,即对于每一个N×N的盖伯滤波响应图,用每个图像块中的d×d个响应值的均值作为该图像块的盖伯响应值,这样就得到了M×M×ng(同样M=N/d)维的盖伯滤波响应信息Ogg(即包含了ng个盖伯滤波器分别对图像I滤波得到的M×M维的图像块平均滤波响应图)。一种ng=8的盖伯滤波响应信息Ogg的样例如图3所示。
然后提取指纹方向直方图场信息Ogh。方向直方图表示的是一个图像块的频域响应图在不同方向上的强度统计情况,如果图像块的纹理方向集中,那么方向直方图的强度也集中在对应方向上,如果图像块的纹理方向分散,那么方向直方图的强度分布就会比较平均。具体地,首先将图像I划分为d×d像素大小且互不重叠的采样格子,然后以每个采样格子为中心,选取大小为m×m像素的邻域图像(通常m远大于d,比如取m=64,d=4,这样相邻采样格子的邻域图像就有重叠),采用大小为m×m像素的高斯滤波器进行滤波,再对滤波结果进行快速傅里叶变换,得到滤波后的邻域图像对应的频域响应图。将频域响应图的0频率点平移到图像中心,然后以ng个等差角度(比如{0°,15°,30°,45°,60°,75°,90°,105°,120°,135°,150°,165°}这样的12个角度)边界和与指纹脊线宽度匹配的波长边界(比如500ppi下大于9像素小于11像素)构造ng个采样框,计算每个采样框中频域响应的均值,则共计可得到ng个平均频域响应值。对整个图像I进行上述提取之后,可以得到大小为M×M×ng维的指纹方向直方图场信息Ogh。方向直方图场信息Ogh的样例如图4所示。
A5、特征表示模型的训练
在本发明中,可以指纹图像对应的上述每一种全局方向信息(A4中介绍的梯度方向信息Ogr,盖伯滤波响应信息Ogg和方向直方图场信息Ogh)为输入,以子类别Cij为输出,分别构造一个卷积神经网络特征表示模型(总计三个)。并基于这三个卷积神经网络的倒数第二层的特征表示向量为基础构造指纹图像对应的检索特征向量。
卷积神经网络本身有很多种可能的构造形式,三种全局方向信息对应不同结构的卷积神经网络。这里以一种相对比较深层的网络结构进行举例。
以M×M×nd维的某种全局方向信息为输入,间隔构建卷积层和池化层。对于每个卷积层,以大小为3×3×nlast×nnext的卷积核进行卷积,其中nlast为输入该卷积层的特征的第三维大小,nnext为输出该卷积层的特征的第三维大小。对于每个池化层,则采用2×2的池化窗口进行池化处理。等到池化输出层的特征维数的前两位小于等于特定大小时(比如4),就采取一个全连接网络,将该层再进行卷积得到大小为1×1×nfv的特征表示向量(即倒数第二层,nfv根据实际情况确定,比如取nfv=300),最后再通过一个全连接网络输出1×1×nki的类别归属度向量。图5展示了一种以M=128,nd=12,nfv=300,nki=100的卷积神经网络样例。
卷积神经网络的训练可以通过已有的很多开源工具完成,本专利不介绍相关内容。
B在线检索阶段
离线训练阶段构造了用于特征表示的卷积神经网络,在在线检索阶段,对于数据库中的指纹和待检索的指纹(这里统一用
Figure BDA0001341341600000138
表示),可以通过该神经网络构造每个指纹对应的特征向量Fv,然后进行检索。具体地,这一阶段主要包括下面几个主要步骤:
B1、指纹位置校正
不同的传感器采集的指纹图像大小有较大差异,不同人按捺指纹时位置会有差异,为了提取同样大小、位置大体相同的全局方向信息,需要对指纹图像大小和指纹位置进行校正。
首先对指纹图像
Figure BDA0001341341600000139
的前景区进行划分。所谓前景区,指的是脊线图像对应的区域。本发明通过脊线的梯度强度和梯度方向一致性对指纹前景区进行划分,其中梯度强度用于区分纹理强度较高的指纹区域与纹理强度低的背景区域,而梯度方向一致性用于区分脊线结构清晰的高质量指纹区域和受噪声影响的低质量指纹区域。
具体地,计算指纹图像
Figure BDA00013413416000001310
中每个像素的水平梯度值和竖直梯度值,然后计算每个像素的梯度强度值(梯度强度等于水平梯度值与竖直梯度值的平方相加再开方),再将图像
Figure BDA0001341341600000131
按照
Figure BDA0001341341600000132
像素大小划分为互不重叠的图像块,计算每个块中的梯度强度均值作为该图像块的梯度强度值。接下来,按照A4中的方法计算
Figure BDA0001341341600000133
对应的梯度强度信息Ogr。以Ogr中的每个位置为中心,选定大小为
Figure BDA0001341341600000134
的梯度信息块(实际上是
Figure BDA0001341341600000135
的矩阵,由
Figure BDA0001341341600000136
的二倍角正弦值和
Figure BDA0001341341600000137
的二倍角余弦值组成),以块中所有正弦值之和的平方加所有余弦值之和的平方为分子,以所有正弦值的平方和加所有余弦值的平方和为分母,相除再开方得到梯度方向一致性值。这样,对于
Figure BDA00013413416000001311
就得到了一个梯度强度图和梯度方向一致性图。预设一个梯度强度阈值和梯度方向一致性阈值,将梯度强度值和梯度方向一致性值同时大于各自阈值的图像块标记为前景图像块,将其他图像块标记为背景图像块,再用数次膨胀和腐蚀的形态学操作进行优化,得到指纹图像
Figure BDA0001341341600000143
的前景区。
接下来,准备大小为N×N(与A2进行标定时的N一致)的纯黑底图,将
Figure BDA0001341341600000144
的前景区重心平移到底图中心,超出范围部分图像舍弃,即得校正后的指纹图像
Figure BDA0001341341600000141
B2、指纹全局方向信息提取
以A4中的方法,对校正后的指纹图像
Figure BDA0001341341600000142
提取全局方向信息,包括梯度方向信息Ogr,盖伯滤波响应信息Ogg和方向直方图场信息Ogh。
B3、指纹特征向量提取
然后,以A5中训练得到的卷积神经网络特征表示模型对上述三种信息分别进行处理,将三个卷积神经网络处理后的倒数第二层的nfv维的特征表示向量取出来,分别进行均方归一化,然后顺序排布起来,即得
Figure BDA0001341341600000145
对应的特征向量Fv。
B4、指纹检索
指纹检索指的是采用精简的特征代表指纹图像,要求真匹配指纹的特征间相似度高,假匹配指纹的特征间相似度低,从而通过特征的匹配相似度进行排序,将真匹配指纹尽可能地排在靠前的位置。
对于一个指纹库中的每个指纹图像和一个输入的指纹图像,利用B1和B2的步骤可以得到其各自的特征向量Fv。接下来,计算输入指纹的特征向量与指纹库中每个指纹特征向量的相似度(相似度等于两个特征向量的某种度量距离,比如欧氏距离),进行排序即完成指纹检索。
与现有技术相比,本发明的一个或多个实施例可以具有如下优点:本发明与以往指纹检索方法最大的不同在于它对指纹全局方向信息进行了全面、平等的利用,不依赖于专门的配准和校正。传统的指纹检索方法无法对指纹全局方向信息的进行有效的建模:要么强烈地依赖基于奇异点的配准,以奇异点附近的局部方向场代表整个指纹,丢失了很多重要信息;要么将指纹全局方向场看作一维向量进行降维表达,丢失了二维空间结构信息。本方法采用三种方式对指纹全局方向信息进行了描述,其中梯度方向信息能够精确地描述高质量区域的指纹脊线走向,盖伯滤波响应信息能够在噪声影响下保留脊线方向信息并在一定程度上包含脊线宽度信息,方向直方图场信息则能够表达不同区域不同方向上的脊线纹理强度,三种方式的融合使得本方法对脊线信息表达地更全面。相对于传统模型,卷积神经网络模型对全局方向信息的利用也更充分和平等:首先,卷积操作是对二维结构信息的提取,能够更好地维持指纹方向场的结构;其次,池化操作降低了模型对配准精度的依赖性,使得具有区分度的特征可以被更好地提取出来;最后,卷积神经网络模型的逐层信息传递特性能够更好地表达指纹从局部信息到全局结构的层次关系。本指纹检索技术对指纹内在规律进行了更好地表达,可以提高复杂背景、不完整指纹、局部变形指纹等困难情形的指纹检索性能,具有泛用性强、稳定性高的特点。
流程图中或在此以其他方式描述的任何过程或方法描述可以被理解为,表示包括一个或更多个用于实现特定逻辑功能或过程的步骤的可执行指令的代码的模块、片段或部分,并且本发明的优选实施方式的范围包括另外的实现,其中可以不按所示出或讨论的顺序,包括根据所涉及的功能按基本同时的方式或按相反的顺序,来执行功能,这应被本发明的实施例所属技术领域的技术人员所理解。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在不脱离本发明的原理和宗旨的情况下在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。

Claims (9)

1.一种基于全局方向信息的指纹检索方法,其特征在于,包括:
步骤A、建立指纹全局方向信息特征表示模型;所述全局方向信息特征表示模型的输入为包括梯度方向信息、盖伯滤波响应信息和方向直方图场信息的多维空间结构的全局方向信息,输出为指纹图像的类别;
步骤B、提取指纹数据库的以及输入的指纹图像的包括梯度方向信息、盖伯滤波响应信息和方向直方图场信息的多维空间结构的全局方向信息,将所述多维空间结构的全局方向信息输入至所述全局方向信息特征表示模型来提取所述全局方向信息特征表示模型倒数第二层的特征向量,然后比较输入的指纹图像的所述特征向量与指纹数据库的指纹图像的所述特征向量来进行检索。
2.如权利要求1所述的方法,其特征在于,所述步骤A包括:
步骤A1、根据指纹类型、奇异点完整情况、脊线部位和噪声情况从真实指纹数据库中挑选指纹构成训练数据库;
步骤A2、对所述训练数据库进行标定和扩展,得到扩展后的指纹图像族;
步骤A3、对所述指纹图像族的类别进行指定;
步骤A4、对所述指纹图像族的全局方向信息进行提取;
步骤A5、利用所述指纹图像族的全局方向信息和类别进行特征表示模型的训练。
3.如权利要求2所述的方法,其特征在于,所述步骤A2包括:
步骤A21、调整所述训练数据库中的每个指纹图像的位置和方向;
步骤A22、对调整后的所述指纹图像进行方向场标记;
步骤A23、基于多个角度对调整后的所述指纹图像进行中心旋转得到扩展图像族。
4.如权利要求3所述的方法,其特征在于,所述步骤A3包括:
步骤A31、为所述训练数据库中的每个指纹指定一个类别;
步骤A32、对每一个类别的所有图像进行K-中心聚类,得到最终类别;
步骤A33、以所述训练数据库中每个指纹的最终类别指定对应的所述扩展图像族为同样类别。
5.如权利要求4所述的方法,其特征在于,所述步骤A5包括:
步骤A51、按照所述全局方向信息的大小、期望的所述特征向量的大小和所述最终类别的总数分别建立卷积神经网络结构;
步骤A52、基于所述全局方向信息和所述指纹图像族的类别分别对所述卷积神经网络进行训练,得到特征表示模型。
6.如权利要求1-5任一项所述的方法,其特征在于,所述步骤B包括:
步骤B1、对实际应用中的指纹数据库及输入的指纹图像进行位置校正;
步骤B2、对校正后的所述的指纹图像的包括梯度方向信息、盖伯滤波响应信息和方向直方图场信息的多维空间结构的全局方向信息进行提取;
步骤B3、对所述全局方向信息进行特征表示,得到所述全局方向信息特征表示模型倒数第二层的特征向量;
步骤B4、利用所述特征向量进行比较输入的指纹图像的所述特征向量与指纹数据库的指纹图像的所述特征向量来进行指纹检索。
7.如权利要求6所述的方法,其特征在于,所述步骤B1包括:
步骤B11、对所述指纹图像提取梯度强度值图和梯度方向一致性图;
步骤B12、按照预设阈值划分所述指纹图像的前景区;
步骤B13、基于所述前景区的中心将所述指纹图像调整到校正后的指纹图像中心。
8.如权利要求6所述的方法,其特征在于,所述步骤B3包括:
步骤B31、将所述全局方向信息输入所述特征表示模型;
步骤B32、提取卷积神经网络输出倒数第二层的特征表示向量;
步骤B33、将所述特征表示向量进行均方归一化后,组合构成所述特征向量。
9.如权利要求6所述的方法,其特征在于,所述步骤B4中:所述指纹检索通过计算特征向量的相似度完成,其中相似度采用不同的距离度量方式。
CN201710538778.1A 2017-07-04 2017-07-04 基于全局方向信息的指纹检索方法 Expired - Fee Related CN109214246B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710538778.1A CN109214246B (zh) 2017-07-04 2017-07-04 基于全局方向信息的指纹检索方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710538778.1A CN109214246B (zh) 2017-07-04 2017-07-04 基于全局方向信息的指纹检索方法

Publications (2)

Publication Number Publication Date
CN109214246A CN109214246A (zh) 2019-01-15
CN109214246B true CN109214246B (zh) 2021-02-12

Family

ID=64993767

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710538778.1A Expired - Fee Related CN109214246B (zh) 2017-07-04 2017-07-04 基于全局方向信息的指纹检索方法

Country Status (1)

Country Link
CN (1) CN109214246B (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110866088B (zh) * 2019-08-22 2020-10-30 中国人民解放军军事科学院评估论证研究中心 一种语料库之间的快速全文检索方法及系统
CN111104922B (zh) * 2019-12-30 2022-03-08 深圳纹通科技有限公司 一种基于有序抽样的特征匹配算法
CN111160466B (zh) * 2019-12-30 2022-02-22 深圳纹通科技有限公司 一种基于直方图统计的特征匹配算法
KR102570081B1 (ko) * 2020-12-18 2023-08-23 서울대학교산학협력단 딥러닝 알고리즘을 이용하여 지문중첩영상에서 지문을 분리하는 방법 및 그 장치
CN112560813B (zh) * 2021-02-19 2021-05-25 深圳阜时科技有限公司 窄条形指纹的识别方法、存储介质及电子设备
US20230119918A1 (en) * 2021-10-14 2023-04-20 Thales Dis France Sas Deep learning based fingerprint minutiae extraction

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102027488A (zh) * 2008-05-15 2011-04-20 国际商业机器公司 使用梯度直方图的指纹表示
CN105389563A (zh) * 2015-11-16 2016-03-09 杭州电子科技大学 基于方向场全局信息的指纹伪核点检测方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7142699B2 (en) * 2001-12-14 2006-11-28 Siemens Corporate Research, Inc. Fingerprint matching using ridge feature maps

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102027488A (zh) * 2008-05-15 2011-04-20 国际商业机器公司 使用梯度直方图的指纹表示
CN105389563A (zh) * 2015-11-16 2016-03-09 杭州电子科技大学 基于方向场全局信息的指纹伪核点检测方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于GVF模型的低质量指纹图像方向场提取;桂廷;《中国优秀硕士学位论文全文数据库》;20130315;I138-1253 *

Also Published As

Publication number Publication date
CN109214246A (zh) 2019-01-15

Similar Documents

Publication Publication Date Title
CN109214246B (zh) 基于全局方向信息的指纹检索方法
Zamir et al. Accurate image localization based on google maps street view
CN104574347B (zh) 基于多源遥感数据的在轨卫星图像几何定位精度评价方法
CN105389817B (zh) 一种两时相遥感影像变化检测方法
CN112396160A (zh) 基于图神经网络的交易欺诈检测方法及系统
CN109800779B (zh) 利用d-s证据理论融合fcm算法的变化检测方法
CN110781756A (zh) 基于遥感图像的城市道路提取方法及装置
CN104732546B (zh) 区域相似性和局部空间约束的非刚性sar图像配准方法
CN102122359B (zh) 一种图像配准方法及装置
CN107977660A (zh) 基于背景先验和前景节点的感兴趣区域检测方法
CN106780639B (zh) 基于显著性特征稀疏嵌入和极限学习机的哈希编码方法
CN115713694B (zh) 一种土地测绘信息管理方法
CN111476813A (zh) 图像变化检测方法、装置、电子设备及存储介质
CN106650580A (zh) 基于图像处理的货架快速清点方法
CN104978738A (zh) 检测数字图像中的兴趣点的方法
Liu et al. Feature extraction for hyperspectral remote sensing image using weighted PCA-ICA
CN113538264A (zh) 一种点云数据的去噪方法、装置及存储介质
CN113066030A (zh) 一种基于空谱融合网络的多光谱图像全色锐化方法及系统
Zhang et al. Splitting and merging based multi-model fitting for point cloud segmentation
CN114612450B (zh) 基于数据增广机器视觉的图像检测分割方法、系统、电子设备
AU2015218184A1 (en) Processing hyperspectral or multispectral image data
CN113627481A (zh) 一种面向智慧园林的多模型组合的无人机垃圾分类方法
Elashry et al. Feature matching enhancement using the graph neural network (gnn-ransac)
CN106611418A (zh) 一种图像分割算法
CN115511928A (zh) 多光谱图像的匹配方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20210212

Termination date: 20210704

CF01 Termination of patent right due to non-payment of annual fee