CN116935449A - 指纹图像匹配模型训练方法、指纹匹配方法及相关介质 - Google Patents
指纹图像匹配模型训练方法、指纹匹配方法及相关介质 Download PDFInfo
- Publication number
- CN116935449A CN116935449A CN202310936798.XA CN202310936798A CN116935449A CN 116935449 A CN116935449 A CN 116935449A CN 202310936798 A CN202310936798 A CN 202310936798A CN 116935449 A CN116935449 A CN 116935449A
- Authority
- CN
- China
- Prior art keywords
- sweat pore
- fingerprint image
- fingerprint
- points
- feature map
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 65
- 238000012549 training Methods 0.000 title claims abstract description 53
- 210000004243 sweat Anatomy 0.000 claims abstract description 210
- 239000011148 porous material Substances 0.000 claims abstract description 201
- 238000010586 diagram Methods 0.000 claims abstract description 109
- 238000000605 extraction Methods 0.000 claims abstract description 57
- 238000013528 artificial neural network Methods 0.000 claims abstract description 25
- 238000012545 processing Methods 0.000 claims abstract description 24
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 16
- 238000004590 computer program Methods 0.000 claims description 12
- 239000011159 matrix material Substances 0.000 claims description 11
- 238000004364 calculation method Methods 0.000 claims description 8
- 238000010276 construction Methods 0.000 claims description 2
- 230000008569 process Effects 0.000 description 9
- 239000013598 vector Substances 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 3
- 238000005070 sampling Methods 0.000 description 3
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000011840 criminal investigation Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 235000019800 disodium phosphate Nutrition 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/12—Fingerprints or palmprints
- G06V40/1365—Matching; Classification
- G06V40/1371—Matching features related to minutiae or pores
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
- G06N3/0455—Auto-encoder networks; Encoder-decoder networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/761—Proximity, similarity or dissimilarity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/12—Fingerprints or palmprints
- G06V40/1347—Preprocessing; Feature extraction
- G06V40/1353—Extracting features related to minutiae or pores
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A90/00—Technologies having an indirect contribution to adaptation to climate change
- Y02A90/10—Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Molecular Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Human Computer Interaction (AREA)
- Collating Specific Patterns (AREA)
Abstract
本发明公开了一种指纹图像匹配模型训练方法、指纹匹配方法及相关介质,所述方法包括:对指纹图像进行特征提取,得到原始特征图;基于汗孔坐标点提取分支,对原始特征图进行卷积处理,得到汗孔点热力图,并基于特征图生成分支,对原始特征图进行卷积处理,得到中间特征图;采用滑动窗口算法,对汗孔点热力图中的汗孔点进行坐标提取,确定每一个汗孔点的坐标;从中间特征图中提取描述特征;利用图神经网络对所有汗孔点进行连接,得到指纹图像对应的结构图;计算待匹配的指纹图像对应的结构图的相似度,并确定匹配度,当匹配度满足预设训练条件时,将得到的模型作为指纹图像匹配模型。采用本发明实现同时兼顾提取汗孔的精确度和指纹匹配的准确度。
Description
技术领域
本发明涉及图像处理领域,尤其涉及一种指纹图像匹配模型训练方法、指纹匹配方法及相关介质。
背景技术
生物特征识别系统正广泛应用于各个安全领域,包括个人身份认证、移动支付、犯罪调查等。其中,自动指纹识别系统是最广泛的生物特征识别系统,通过采集指纹表面的成像,对指纹图像的特征进行提取并匹配相同的指纹。现有的指纹图像匹配方法主要有基于汗孔进行指纹识别,并根据提取到的汗孔进行指纹匹配。其中,汗孔在指纹图像为丰富特征,出现率高且容易提取,利用汗孔作为指纹识别的特征,能够提升指纹识别的安全性和可靠性。该方法主要通过提取指纹图像上的汗孔特征、计算汗孔特征的描述符、基于该描述符和目标指纹图像进行特征匹配等步骤进行指纹匹配,但是,由于汗孔的大小与形态多种多样,传统方法只能提取出一部分的汗孔特征,存在着正确率不高和鲁棒性不强等缺点,特别是当面对大规模指纹数据集时,存在难以兼顾提取汗孔的精确度和指纹匹配的准确度的技术问题。
发明内容
本发明实施例提供一种指纹图像匹配模型训练方法、指纹匹配方法及相关介质,以实现同时兼顾提取汗孔的精确度和指纹匹配的准确度。
为了解决上述技术问题,本申请实施例提供一种指纹图像匹配模型训练方法,包括:
基于初始指纹图像匹配模型的特征提取网络,对指纹图像进行特征提取,得到原始特征图,其中,所述初始指纹图像匹配模型还包括图神经网络,所述特征提取网络还包括汗孔坐标点提取分支和特征图生成分支;
基于所述汗孔坐标点提取分支,对所述原始特征图进行卷积处理,得到汗孔点热力图,并基于所述特征图生成分支,对所述原始特征图进行卷积处理,得到中间特征图,其中,所述汗孔点热力图是由汗孔点的特征构建得到的图像,所述中间特征图与所述指纹图像的特征维度相同;
采用滑动窗口算法,对所述汗孔点热力图中的汗孔点进行坐标提取,确定每一个汗孔点的坐标;
针对每一个所述汗孔点,根据所述汗孔点的坐标从所述中间特征图中提取描述特征,其中,所述描述特征用于表征所述汗孔点的特征;
基于获取到的所有所述汗孔点的坐标和描述特征,利用所述图神经网络对所有所述汗孔点进行连接,得到所述指纹图像对应的结构图,其中,所述汗孔点对应所述结构图的节点;
计算待匹配的指纹图像对应的结构图的相似度,并根据计算得到的相似度结果确定匹配度,当匹配度满足预设训练条件时,将得到的模型作为指纹图像匹配模型。
为了解决上述技术问题,本申请实施例提供一种指纹匹配方法,包括:
获取至少两张指纹图像;
将所有所述指纹图像输入指纹图像匹配模型中进行匹配,得到匹配结果,其中,所述指纹图像匹配模型为根据上述指纹图像匹配模型训练方法训练得到的模型。
为了解决上述技术问题,本申请实施例还提供一种指纹图像匹配模型训练装置,包括:
原始特征图确定模块,用于基于初始指纹图像匹配模型的特征提取网络,对指纹图像进行特征提取,得到原始特征图,其中,所述初始指纹图像匹配模型还包括图神经网络,所述特征提取网络还包括汗孔坐标点提取分支和特征图生成分支;
卷积模块,用于基于所述汗孔坐标点提取分支,对所述原始特征图进行卷积处理,得到汗孔点热力图,并基于所述特征图生成分支,对所述原始特征图进行卷积处理,得到中间特征图,其中,所述汗孔点热力图是由汗孔点的特征构建得到的图像,所述中间特征图与所述指纹图像的特征维度相同;
坐标确定模块,用于采用滑动窗口算法,对所述汗孔点热力图中的汗孔点进行坐标提取,确定每一个汗孔点的坐标;
描述特征提取模块,用于针对每一个所述汗孔点,根据所述汗孔点的坐标从所述中间特征图中提取描述特征,其中,所述描述特征用于表征所述汗孔点的特征;
结构图确定模块,用于基于获取到的所有所述汗孔点的坐标和描述特征,利用所述图神经网络对所有所述汗孔点进行连接,得到所述指纹图像对应的结构图,其中,所述汗孔点对应所述结构图的节点;
指纹图像匹配模型确定模块,用于计算待匹配的指纹图像对应的结构图的相似度,并根据计算得到的相似度结果确定匹配度,当匹配度满足预设训练条件时,将得到的模型作为指纹图像匹配模型。
为了解决上述技术问题,本申请实施例还提供一种指纹匹配装置,包括:
指纹图像获取模块,用于获取至少两张指纹图像;
匹配模块,用于将所有所述指纹图像输入指纹图像匹配模型中进行匹配,得到匹配结果,其中,所述指纹图像匹配模型为根据上述指纹图像匹配模型训练方法训练得到的模型。
为了解决上述技术问题,本申请实施例还提供一种计算机设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述指纹图像匹配模型训练方法的步骤,或者,所述处理器执行所述计算机程序时实现上述指纹匹配方法的步骤。
为了解决上述技术问题,本申请实施例还提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述指纹图像匹配模型训练方法的步骤,或者,所述计算机程序被处理器执行时实现上述指纹匹配方法的步骤。
本发明实施例提供的指纹图像匹配模型训练方法、指纹匹配方法、装置、计算机设备及存储介质,通过基于初始指纹图像匹配模型的特征提取网络,对指纹图像进行特征提取,得到原始特征图,其中,所述初始指纹图像匹配模型还包括图神经网络,所述特征提取网络还包括汗孔坐标点提取分支和特征图生成分支;基于所述汗孔坐标点提取分支,对所述原始特征图进行卷积处理,得到汗孔点热力图,并基于所述特征图生成分支,对所述原始特征图进行卷积处理,得到中间特征图,其中,所述汗孔点热力图是由汗孔点的特征构建得到的图像,所述中间特征图与所述指纹图像的特征维度相同;采用滑动窗口算法,对所述汗孔点热力图中的汗孔点进行坐标提取,确定每一个汗孔点的坐标;针对每一个所述汗孔点,根据所述汗孔点的坐标从所述中间特征图中提取描述特征,其中,所述描述特征用于表征所述汗孔点的特征;基于获取到的所有所述汗孔点的坐标和描述特征,利用所述图神经网络对所有所述汗孔点进行连接,得到所述指纹图像对应的结构图,其中,所述汗孔点对应所述结构图的节点;计算待匹配的指纹图像对应的结构图的相似度,并根据计算得到的相似度结果确定匹配度,当匹配度满足预设训练条件时,将得到的模型作为指纹图像匹配模型,提高指纹图像中汗孔提取的精确性并提升匹配的准确率,进而解决高精度指纹图像的特征提取和匹配不能一体化的问题,使得指纹识别系统更加准确高效。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对本发明实施例的描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本申请可以应用于其中的示例性系统架构图;
图2是本申请的指纹图像匹配模型训练方法的一个实施例的流程图;
图3是本申请的指纹匹配方法的一个实施例的流程图;
图4是根据本申请的指纹图像匹配模型训练装置的一个实施例的结构示意图;
图5是根据本申请的指纹匹配装置的一个实施例的结构示意图;
图6是根据本申请的计算机设备的一个实施例的结构示意图。
具体实施方式
除非另有定义,本文所使用的所有的技术和科学术语与属于本申请的技术领域的技术人员通常理解的含义相同;本文中在申请的说明书中所使用的术语只是为了描述具体的实施例的目的,不是旨在于限制本申请;本申请的说明书和权利要求书及上述附图说明中的术语“包括”和“具有”以及它们的任何变形,意图在于覆盖不排他的包含。本申请的说明书和权利要求书或上述附图中的术语“第一”、“第二”等是用于区别不同对象,而不是用于描述特定顺序。
在本文中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本申请的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本文所描述的实施例可以与其它实施例相结合。
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
请参阅图1,如图1所示,系统架构100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。
终端设备101、102、103可以是具有显示屏并且支持网页浏览的各种电子设备,包括但不限于智能手机、平板电脑、电子书阅读器、MP3播放器(Moving Picture EpertsGroup Audio Layer III,动态影像专家压缩标准音频层面3)、MP4(Moving PictureEperts Group Audio Layer IV,动态影像专家压缩标准音频层面4)播放器、膝上型便携计算机和台式计算机等等。
服务器105可以是提供各种服务的服务器,例如对终端设备101、102、103上显示的页面提供支持的后台服务器。
需要说明的是,本申请实施例所提供的指纹图像匹配模型训练方法和指纹匹配方法由服务器执行,相应地,指纹图像匹配模型训练装置和指纹匹配装置设置于服务器中。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器,本申请实施例中的终端设备101、102、103具体可以对应的是实际生产中的应用系统。
请参阅图2,图2示出本发明实施例提供的一种指纹图像匹配模型训练方法,以该方法应用在图1中的服务端为例进行说明,详述如下:
S201、基于初始指纹图像匹配模型的特征提取网络,对指纹图像进行特征提取,得到原始特征图,其中,初始指纹图像匹配模型还包括图神经网络,特征提取网络还包括汗孔坐标点提取分支和特征图生成分支。
具体地,上述特征提取网络包括但不限于VGG卷积神经网络、残差神经网络。
优选地,本申请采用U-net构造特征提取网络,该特征提取网络包括卷积模块,下采样模块、上采样模块和特征图拼接模块。其中,卷积模块用于执行卷积核为3×3的卷积操作、批量标准化操作、ReLu激活处理。下采样模块连续经过4个卷积模块,最大池化操作,确保特征图的高宽分别缩小为指纹图像高宽的1/2、1/4、1/8、1/16,同时,特征图的维度分别增加到64,128,256,512,1024。上采样模块用于将得到的特征图经过双线性插值使其高宽加倍。特征图拼接模块用于将上采样模块和下采样模块过程中相同大小的特征图相拼接,经过卷积得到原始特征图。
此处需要说明的是,指纹图像的维度为512。该原始特征图与指纹图像高宽相同,维度为256。
上述图神经网络用于对提取到的特征图进行结构图构建的神经网络。
上述汗孔坐标点提取分支用于提取指纹图像上的汗孔点坐标。
上述特征图生成分支是用于生成对指纹图像的同维度的特征图。
在本实施例中,通过初始指纹图像匹配模型的特征提取网络,对指纹图像进行特征提取,得到原始特征图,以便于后续对原始特征图进行汗孔坐标点处理以及生成相应特征图,并经过图神经网络构建结构图,提高指纹图像中汗孔提取的精确性并提升匹配的准确率,进而解决高精度指纹图像的特征提取和匹配不能一体化的问题,使得指纹识别系统更加准确高效。
S202、基于汗孔坐标点提取分支,对原始特征图进行卷积处理,得到汗孔点热力图,并基于特征图生成分支,对原始特征图进行卷积处理,得到中间特征图,其中,汗孔点热力图是由汗孔点的特征构建得到的图像,中间特征图与指纹图像的特征维度相同。
具体地,通过汗孔坐标点提取分支,对原始特征图进行卷积操作将该原始特征图转为为1维的汗孔点热力图,该汗孔点热力图用于学习指纹图像中汗孔的坐标信息。
此处需要说明的是,通过汗孔坐标点提取分支,对原始特征图进行汗孔点提取,并对提取到的汗孔点的特征进行卷积处理,得到1维特征,将汗孔点以及汗孔点的特征构建形成汗孔点热力图。
通过特征图生成分支,对原始特征图进行卷积操作,以得到与指纹图像大小一致,维度为512的中间特征图。该中间特征图用于利用汗孔点热力图中的汗孔点的坐标信息从中间特征图本身获取到该汗孔点的描述特征。
例如,当存在汗孔点A,该汗孔点A的坐标为(10,5),则从中间特征图的第10行第5列提取描述特征B,该描述特征B为汗孔点的描述特征。
在本实施例中,通过对原始特征图进行卷积操作,得到汗孔点热力图和中间特征图,提高指纹图像中汗孔提取的精确率。
S203、采用滑动窗口算法,对汗孔点热力图中的汗孔点进行坐标提取,确定每一个汗孔点的坐标。
具体地,上述滑动窗口算法是指在一个特定大小的字符串或者数组上进行处理的方法,该字符串或者数组即为滑动窗口。也就是说,采用特定大小的滑动窗口对汗孔点热力图的汗孔点进行坐标提取,从而确定每一个汗孔点的坐标。
S204、针对每一个汗孔点,根据汗孔点的坐标从中间特征图中提取描述特征,其中,描述特征用于表征汗孔点的特征。
上述描述特征为脊线特征。
提取脊线特征的过程包括但不限于对中间特征图进行图像归一化、方向提取、脊线频率计算、滤波和二值化等操作。
在本实施例中,通过汗孔点的坐标从中间特征图中提取描述特征,可提高指纹图像中汗孔提取的精确率。
S205、基于获取到的所有汗孔点的坐标和描述特征,利用图神经网络对所有汗孔点进行连接,得到指纹图像对应的结构图,其中,汗孔点对应结构图的节点。
具体地,通过多层感知机作为位置编码器,将位置信息与中间特征图进行融合,得到融合特征向量,该融合特征向量为图节点特征向量的初始值,该位置信息为每一个汗孔点的坐标和该汗孔点对应的描述特征。
应理解,一个汗孔点对应结构图的一个节点,一个汗孔点的位置信息与中间特征图进行融合,得到该汗孔点对应的融合特征向量。
在构建结构图的每一条边时,该边对应的特征向量为由边所连接的两个节点的特征向量定义。
当构建完成所有节点和所有边时,得到初始结构图,对该初始结构图进行图卷积,得到结构图。
此处需要说明的是,图卷积是指对每个节点,通过不同的卷积核将其相邻的节点信息聚合到该节点,从而使得每一个节点的特征能够结合其他节点的信息以及图的全局信息,进而做到局部特征与全局特征的融合,生成新的图。
在本实施例中,通过图卷积操作后,每个指纹图像可以得到一组表征汗孔点的描述符,提高指纹图像中汗孔提取的精确性并提升匹配的准确率,进而解决高精度指纹图像的特征提取和匹配不能一体化的问题,使得指纹识别系统更加准确高效。
S206、计算待匹配的指纹图像对应的结构图的相似度,并根据计算得到的相似度结果确定匹配度,当匹配度满足预设训练条件时,将得到的模型作为指纹图像匹配模型。
具体地,每一张指纹图像对应一个结构图。待匹配的指纹图像是指至少两张指纹图像。
通过计算待匹配的指纹图像的结构图的相似度,得到相似度结果。该相似度结果用于确定待匹配的指纹图像是否匹配。通过相似度结果,计算匹配度。
上述预设训练条件是指匹配度大于预设匹配度时,则将得到的模型作为指纹图像匹配模型。
此处需要说明的是,在汗孔坐标提取分支,用汗孔点热力图进行监督,通过对输出的汗孔点热力图的预测标签和指纹图像的标注结果进行均方误差损失计算,该均方误差损失记作Lossmse。
对相似度矩阵和待匹配指纹图像的标注结果对应的相似度矩阵之间进行交叉熵损失计算,该交叉熵损失记作Lossbce。
在网络训练的过程中,用一个可以共享权值的孪生网络对输入的两张指纹图像,得到的两张汗孔点热力图用来作为特征坐标的预测,相似度矩阵用来作为特征匹配得分的预测。由于整个前向的过程可微,这两个损失均可以反向传播,用一个损失权重超参数α对两个损失进行调节,即按照如下公式(1)计损失函数:
Lossall=Lossmse+α×Lossbce(1)
其中,Lossmse为均方误差损失,Lossbce为交叉熵损失,a为损失权重超参数,Lossall为损失函数。
当匹配度不满足预设训练条件时,则通过计算损失函数并调整模型参数,重新对指纹图像进行训练。
在本实施例中,通过上述步骤,提高指纹图像中汗孔提取的精确性并提升匹配的准确率,进而解决高精度指纹图像的特征提取和匹配不能一体化的问题,使得指纹识别系统更加准确高效。
在本实施例的一些可选的实现方式中,步骤S203包括:
S2031、遍历汗孔点热力图的所有像素点对应的像素值,并将满足预设条件的像素点的像素值设置为0,得到中间热力图,其中,预设条件为像素点的像素值小于预设像素阈值。
S2032、针对中间热力图的每一个像素点,对像素点与预设尺寸窗口内的像素点进行窗口构建,得到窗口。
S2033、对窗口中的像素值进行遍历,并将像素值最大的像素点标记为汗孔。
S2034、根据汗孔在中间热力图中的位置,确定汗孔点的坐标。
对于步骤S2032,上述预设尺寸窗口是指预设尺寸的字符串或数组构成的窗口。
例如,当预测尺寸窗口为4,且该窗口为正方形窗口时,则可以将遍历到的像素点作为窗口的第一个值,位于该像素点左侧第一个像素点作为第二个值,位于该像素点下侧第一个像素点作为第三个值、位于该像素点下侧第二个像素点作为第四个值,构建一个窗口。
在本实施例中,通过上述步骤确定汗孔点的坐标,提高了对汗孔点的提取准确性。
在本实施例的一些可选的实现方式中,步骤S205包括:
S2051、基于连通性算法,对中间特征图上的所有脊线特征进行区域划分,得到区域划分图,其中,汗孔点位于脊线上。
S2052、基于预设连接规则,利用图神经网络对区域划分图的所有汗孔点进行连接,得到指纹图像对应的结构图。
对于步骤S2051,上述连通性算法是指判断两个节点是否存在连通路径的算法。
上述连通性算法的实现方式包括但不限于深度优先搜索方式、宽度优先搜索方式和并查集方式。
对于步骤S2052,上述预设连接规则包括但不限于汗孔点和脊线位于同一区域内、脊线方向相似的汗孔点、汗孔点之间距离相近、每个汗孔点最多连接两个点。具体连接规则可根据实际情况设置。
汗孔点连接起来,可以构建出一个图结构。在结构图中,每个节点对应指纹图像上的一个汗孔点,而结构图中的边则与指纹图像的脊线的走向一致。
在本实施例中,利用图神经网络将指纹图像的汗孔点局部特征和脊线全局特征结合,提高指纹图像中汗孔点提取的精确性、提升匹配的准确率,并且解决高精度指纹图像的特征提取和匹配不能一体化的问题,使得指纹识别系统更加准确高效。
在本实施例的一些可选的实现方式中,步骤S206包括:
S2061、计算待匹配的指纹图像对应的结构图的相似度,得到相似度矩阵。
S2062、根据相似度矩阵,确定待匹配的指纹图像上的匹配汗孔点。
S2063、根据匹配汗孔点和汗孔点总数,确定匹配度。
S2064、当匹配度满足预设训练条件时,将得到的模型作为指纹图像匹配模型。
对于步骤S2062,相似度矩阵中的某一项元素在该行中是最大值且在该列中是最大值,则认为对应两个图中的汗孔点是匹配的。
匹配汗孔点是指待匹配的指纹图像被认定为匹配的汗孔点。对于步骤S2063,匹配度是指匹配汗孔点的数量与汗孔点总数的比例。
当待匹配的指纹图像的汗孔点总数不同的,则以较少汗孔点的指纹图像的汗孔点总数计算匹配度。
对于步骤S2064,上述预设训练条件是指匹配度不小于预设匹配度。
在本实施例中,通过上述步骤提高指纹图像中汗孔点提取的精确性、提升匹配的准确率,并且解决高精度指纹图像的特征提取和匹配不能一体化的问题,使得指纹识别系统更加准确高效。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本发明实施例的实施过程构成任何限定。
请参阅图3,图3示出本发明实施例提供的一种指纹匹配方法,以该方法应用在图2中的指纹图像匹配模型为例进行说明,详述如下步骤S301至步骤S302:
S301、获取至少两张指纹图像。
S302、将所有指纹图像输入指纹图像匹配模型中进行匹配,得到匹配结果,其中,指纹图像匹配模型为根据上述指纹图像匹配模型训练方法训练得到的模型。
对于步骤S301,上述指纹图像为待匹配的指纹图像。
对于步骤S302,将所有指纹图像输入指纹图像匹配模型中,通过指纹图像匹配模型提取每一张指纹图像的汗孔点热力图和中间特征图,利用图神经网络对汗孔点热力图和中间特征图进行结构图构建,得到指纹图像的结构图,计算待匹配的指纹图像的结构图的相似度,并根据相似度确定匹配结果。
在本实施例中,提高指纹图像中汗孔提取的精确性并提升匹配的准确率,进而解决高精度指纹图像的特征提取和匹配不能一体化的问题,使得指纹识别系统更加准确高效。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本发明实施例的实施过程构成任何限定。
图4示出与上述实施例指纹图像匹配模型训练方法一一对应的指纹图像匹配模型训练装置的原理框图。如图4所示,该指纹图像匹配模型训练装置包括原始特征图确定模块41、卷积模块42、坐标确定模块43、描述特征提取模块44、结构图确定模块45和指纹图像匹配模型确定模块46。各功能模块详细说明如下:
原始特征图确定模块41,用于基于初始指纹图像匹配模型的特征提取网络,对指纹图像进行特征提取,得到原始特征图,其中,初始指纹图像匹配模型还包括图神经网络,特征提取网络还包括汗孔坐标点提取分支和特征图生成分支。
卷积模块42,用于基于汗孔坐标点提取分支,对原始特征图进行卷积处理,得到汗孔点热力图,并基于特征图生成分支,对原始特征图进行卷积处理,得到中间特征图,其中,汗孔点热力图是由汗孔点的特征构建得到的图像,中间特征图与指纹图像的特征维度相同。
坐标确定模块43,用于采用滑动窗口算法,对汗孔点热力图中的汗孔点进行坐标提取,确定每一个汗孔点的坐标。
描述特征提取模块44,用于针对每一个汗孔点,根据汗孔点的坐标从中间特征图中提取描述特征,其中,描述特征用于表征汗孔点的特征。
结构图确定模块45,用于基于获取到的所有汗孔点的坐标和描述特征,利用图神经网络对所有汗孔点进行连接,得到指纹图像对应的结构图,其中,汗孔点对应结构图的节点。
指纹图像匹配模型确定模块46,用于计算待匹配的指纹图像对应的结构图的相似度,并根据计算得到的相似度结果确定匹配度,当匹配度满足预设训练条件时,将得到的模型作为指纹图像匹配模型。
在本实施例的一些可选的实现方式中,坐标确定模块43包括:
中间热力图确定单元,用于遍历汗孔点热力图的所有像素点对应的像素值,并将满足预设条件的像素点的像素值设置为0,得到中间热力图,其中,预设条件为像素点的像素值小于预设像素阈值。
窗口确定单元,用于针对中间热力图的每一个像素点,对像素点与预设尺寸窗口内的像素点进行窗口构建,得到窗口。
汗孔确定单元,用于对窗口中的像素值进行遍历,并将像素值最大的像素点标记为汗孔。
坐标确定单元,用于根据汗孔在中间热力图中的位置,确定汗孔点的坐标。
在本实施例的一些可选的实现方式中,描述特征为脊线特征。
在本实施例的一些可选的实现方式中,结构图确定模块45包括:
区域划分单元,用于基于连通性算法,对中间特征图上的所有脊线特征进行区域划分,得到区域划分图,其中,汗孔点位于脊线上。
结构图确定单元,用于基于预设连接规则,利用图神经网络对区域划分图的所有汗孔点进行连接,得到指纹图像对应的结构图。
在本实施例的一些可选的实现方式中,指纹图像匹配模型确定模块46包括:
相似度矩阵计算单元,用于计算待匹配的指纹图像对应的结构图的相似度,得到相似度矩阵。
匹配汗孔点确定单元,用于根据相似度矩阵,确定待匹配的指纹图像上的匹配汗孔点。
匹配度确定单元,用于根据匹配汗孔点和汗孔点总数,确定匹配度。
指纹图像匹配模型确定单元,用于当匹配度满足预设训练条件时,将得到的模型作为指纹图像匹配模型。
关于指纹图像匹配模型训练装置的具体限定可以参见上文中对于指纹图像匹配模型训练方法的限定,在此不再赘述。上述指纹图像匹配模型训练装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
图5示出与上述实施例指纹匹配方法一一对应的指纹匹配装置的原理框图。如图5所示,该指纹匹配装置包括指纹图像获取模块51和匹配模块52。各功能模块详细说明如下:
指纹图像获取模块51,用于获取至少两张指纹图像。
匹配模块52,用于将所有指纹图像输入指纹图像匹配模型中进行匹配,得到匹配结果,其中,指纹图像匹配模型为根据上述指纹图像匹配模型训练方法训练得到的模型。
关于指纹匹配装置的具体限定可以参见上文中对于指纹匹配方法的限定,在此不再赘述。上述指纹匹配装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
为解决上述技术问题,本申请实施例还提供计算机设备。具体请参阅图6,图6为本实施例计算机设备基本结构框图。
所述计算机设备6包括通过系统总线相互通信连接存储器61、处理器62、网络接口63。需要指出的是,图中仅示出了具有组件连接存储器61、处理器62、网络接口63的计算机设备6,但是应理解的是,并不要求实施所有示出的组件,可以替代的实施更多或者更少的组件。其中,本技术领域技术人员可以理解,这里的计算机设备是一种能够按照事先设定或存储的指令,自动进行数值计算和/或信息处理的设备,其硬件包括但不限于微处理器、专用集成电路(Application Specific Integrated Circuit,ASIC)、可编程门阵列(Field-Programmable Gate Array,FPGA)、数字处理器(Digital Signal Processor,DSP)、嵌入式设备等。
所述计算机设备可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。所述计算机设备可以与用户通过键盘、鼠标、遥控器、触摸板或声控设备等方式进行人机交互。
所述存储器61至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、硬盘、多媒体卡、卡型存储器(例如,SD或D界面显示存储器等)、随机访问存储器(RAM)、静态随机访问存储器(SRAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、可编程只读存储器(PROM)、磁性存储器、磁盘、光盘等。在一些实施例中,所述存储器61可以是所述计算机设备6的内部存储单元,例如该计算机设备6的硬盘或内存。在另一些实施例中,所述存储器61也可以是所述计算机设备6的外部存储设备,例如该计算机设备6上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。当然,所述存储器61还可以既包括所述计算机设备6的内部存储单元也包括其外部存储设备。本实施例中,所述存储器61通常用于存储安装于所述计算机设备6的操作系统和各类应用软件,例如电子文件的控制的程序代码等。此外,所述存储器61还可以用于暂时地存储已经输出或者将要输出的各类数据。
所述处理器62在一些实施例中可以是中央处理器(Central Processing Unit,CPU)、控制器、微控制器、微处理器、或其他数据处理芯片。该处理器62通常用于控制所述计算机设备6的总体操作。本实施例中,所述处理器62用于运行所述存储器61中存储的程序代码或者处理数据,例如运行电子文件的控制的程序代码。
所述网络接口63可包括无线网络接口或有线网络接口,该网络接口63通常用于在所述计算机设备6与其他电子设备之间建立通信连接。
本申请还提供了另一种实施方式,即提供一种计算机可读存储介质,所述计算机可读存储介质存储有界面显示程序,所述界面显示程序可被至少一个处理器执行,以使所述至少一个处理器执行如上述的指纹图像匹配模型训练方法的步骤,或者,以使所述至少一个处理器执行如上述的指纹匹配方法的步骤。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本申请各个实施例所述的方法。
显然,以上所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例,附图中给出了本申请的较佳实施例,但并不限制本申请的专利范围。本申请可以以许多不同的形式来实现,相反地,提供这些实施例的目的是使对本申请的公开内容的理解更加透彻全面。尽管参照前述实施例对本申请进行了详细的说明,对于本领域的技术人员来而言,其依然可以对前述各具体实施方式所记载的技术方案进行修改,或者对其中部分技术特征进行等效替换。凡是利用本申请说明书及附图内容所做的等效结构,直接或间接运用在其他相关的技术领域,均同理在本申请专利保护范围之内。
Claims (10)
1.一种指纹图像匹配模型训练方法,其特征在于,所述指纹图像匹配模型训练方法包括:
基于初始指纹图像匹配模型的特征提取网络,对指纹图像进行特征提取,得到原始特征图,其中,所述初始指纹图像匹配模型还包括图神经网络,所述特征提取网络还包括汗孔坐标点提取分支和特征图生成分支;
基于所述汗孔坐标点提取分支,对所述原始特征图进行卷积处理,得到汗孔点热力图,并基于所述特征图生成分支,对所述原始特征图进行卷积处理,得到中间特征图,其中,所述汗孔点热力图是由汗孔点的特征构建得到的图像,所述中间特征图与所述指纹图像的特征维度相同;
采用滑动窗口算法,对所述汗孔点热力图中的汗孔点进行坐标提取,确定每一个汗孔点的坐标;
针对每一个所述汗孔点,根据所述汗孔点的坐标从所述中间特征图中提取描述特征,其中,所述描述特征用于表征所述汗孔点的特征;
基于获取到的所有所述汗孔点的坐标和描述特征,利用所述图神经网络对所有所述汗孔点进行连接,得到所述指纹图像对应的结构图,其中,所述汗孔点对应所述结构图的节点;
计算待匹配的指纹图像对应的结构图的相似度,并根据计算得到的相似度结果确定匹配度,当匹配度满足预设训练条件时,将得到的模型作为指纹图像匹配模型。
2.如权利要求1所述的指纹图像匹配模型训练方法,其特征在于,所述采用滑动窗口算法,对所述汗孔点热力图中的汗孔点进行坐标提取,确定每一个汗孔点的坐标的步骤包括:
遍历汗孔点热力图的所有像素点对应的像素值,并将满足预设条件的像素点的像素值设置为0,得到中间热力图,其中,所述预设条件为所述像素点的像素值小于预设像素阈值;
针对所述中间热力图的每一个像素点,对所述像素点与预设尺寸窗口内的像素点进行窗口构建,得到窗口;
对所述窗口中的像素值进行遍历,并将像素值最大的像素点标记为汗孔;
根据所述汗孔在所述中间热力图中的位置,确定所述汗孔点的坐标。
3.如权利要求1所述的指纹图像匹配模型训练方法,其特征在于,所述描述特征为脊线特征。
4.如权利要求3所述的指纹图像匹配模型训练方法,其特征在于,所述基于获取到的所有所述汗孔点的坐标和描述特征,利用所述图神经网络对所有所述汗孔点进行连接,得到所述指纹图像对应的结构图的步骤包括:
基于连通性算法,对中间特征图上的所有脊线特征进行区域划分,得到区域划分图,其中,汗孔点位于脊线上;
基于预设连接规则,利用图神经网络对所述区域划分图的所有所述汗孔点进行连接,得到所述指纹图像对应的结构图。
5.如权利要求1所述的指纹图像匹配模型训练方法,其特征在于,所述计算待匹配的指纹图像对应的结构图的相似度,并根据计算得到的相似度结果确定匹配度,当匹配度满足预设训练条件时,将得到的模型作为指纹图像匹配模型的步骤包括:
计算待匹配的指纹图像对应的结构图的相似度,得到相似度矩阵;
根据相似度矩阵,确定待匹配的指纹图像上的匹配汗孔点;
根据匹配汗孔点和汗孔点总数,确定匹配度;
当匹配度满足预设训练条件时,将得到的模型作为指纹图像匹配模型。
6.一种指纹匹配方法,其特征在于,所述指纹匹配方法包括:
获取至少两张指纹图像;
将所有所述指纹图像输入指纹图像匹配模型中进行匹配,得到匹配结果,其中,所述指纹图像匹配模型为根据权利要求1至5任一项所述的指纹图像匹配模型训练方法训练得到的模型。
7.一种指纹图像匹配模型训练装置,其特征在于,所述指纹图像匹配模型训练装置包括:
原始特征图确定模块,用于基于初始指纹图像匹配模型的特征提取网络,对指纹图像进行特征提取,得到原始特征图,其中,所述初始指纹图像匹配模型还包括图神经网络,所述特征提取网络还包括汗孔坐标点提取分支和特征图生成分支;
卷积模块,用于基于所述汗孔坐标点提取分支,对所述原始特征图进行卷积处理,得到汗孔点热力图,并基于所述特征图生成分支,对所述原始特征图进行卷积处理,得到中间特征图,其中,所述汗孔点热力图是由汗孔点的特征构建得到的图像,所述中间特征图与所述指纹图像的特征维度相同;
坐标确定模块,用于采用滑动窗口算法,对所述汗孔点热力图中的汗孔点进行坐标提取,确定每一个汗孔点的坐标;
描述特征提取模块,用于针对每一个所述汗孔点,根据所述汗孔点的坐标从所述中间特征图中提取描述特征,其中,所述描述特征用于表征所述汗孔点的特征;
结构图确定模块,用于基于获取到的所有所述汗孔点的坐标和描述特征,利用所述图神经网络对所有所述汗孔点进行连接,得到所述指纹图像对应的结构图,其中,所述汗孔点对应所述结构图的节点;
指纹图像匹配模型确定模块,用于计算待匹配的指纹图像对应的结构图的相似度,并根据计算得到的相似度结果确定匹配度,当匹配度满足预设训练条件时,将得到的模型作为指纹图像匹配模型。
8.一种指纹匹配装置,其特征在于,所述指纹匹配装置包括:
指纹图像获取模块,用于获取至少两张指纹图像;
匹配模块,用于将所有所述指纹图像输入指纹图像匹配模型中进行匹配,得到匹配结果,其中,所述指纹图像匹配模型为根据权利要求1至5任一项所述的指纹图像匹配模型训练方法训练得到的模型。
9.一种计算机设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至5任一项所述的指纹图像匹配模型训练方法,或者,所述处理器执行所述计算机程序时实现如权利要求6所述的指纹匹配方法。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至5任一项所述的指纹图像匹配模型训练方法,或者,所述计算机程序被处理器执行时实现如权利要求6所述的指纹匹配方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310936798.XA CN116935449A (zh) | 2023-07-27 | 2023-07-27 | 指纹图像匹配模型训练方法、指纹匹配方法及相关介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310936798.XA CN116935449A (zh) | 2023-07-27 | 2023-07-27 | 指纹图像匹配模型训练方法、指纹匹配方法及相关介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116935449A true CN116935449A (zh) | 2023-10-24 |
Family
ID=88392191
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310936798.XA Pending CN116935449A (zh) | 2023-07-27 | 2023-07-27 | 指纹图像匹配模型训练方法、指纹匹配方法及相关介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116935449A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117725942A (zh) * | 2024-02-06 | 2024-03-19 | 浙江码尚科技股份有限公司 | 用于标签纹理防伪的识别预警方法及系统 |
CN117953519A (zh) * | 2024-03-27 | 2024-04-30 | 湖北楚天龙实业有限公司 | 一种用于档案数字化服务的质量监控方法及系统 |
CN117975512A (zh) * | 2024-03-29 | 2024-05-03 | 深圳市魔力信息技术有限公司 | 一种基于Transformer的指纹图像匹配方法 |
-
2023
- 2023-07-27 CN CN202310936798.XA patent/CN116935449A/zh active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117725942A (zh) * | 2024-02-06 | 2024-03-19 | 浙江码尚科技股份有限公司 | 用于标签纹理防伪的识别预警方法及系统 |
CN117953519A (zh) * | 2024-03-27 | 2024-04-30 | 湖北楚天龙实业有限公司 | 一种用于档案数字化服务的质量监控方法及系统 |
CN117975512A (zh) * | 2024-03-29 | 2024-05-03 | 深圳市魔力信息技术有限公司 | 一种基于Transformer的指纹图像匹配方法 |
CN117975512B (zh) * | 2024-03-29 | 2024-06-11 | 深圳市魔力信息技术有限公司 | 一种基于Transformer的指纹图像匹配方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112863683B (zh) | 基于人工智能的病历质控方法、装置、计算机设备及存储介质 | |
CN116935449A (zh) | 指纹图像匹配模型训练方法、指纹匹配方法及相关介质 | |
CN112733645B (zh) | 手写签名校验方法、装置、计算机设备及存储介质 | |
CN112330331A (zh) | 基于人脸识别的身份验证方法、装置、设备及存储介质 | |
CN115512005A (zh) | 一种数据处理方法及其装置 | |
CN115083435A (zh) | 音频数据处理方法、装置、计算机设备和存储介质 | |
CN115862075A (zh) | 指纹识别模型训练方法、指纹识别方法、装置及相关设备 | |
CN112529939A (zh) | 一种目标轨迹匹配方法、装置、机器可读介质及设备 | |
CN116311370A (zh) | 一种基于多角度特征的牛脸识别方法及其相关设备 | |
CN117894036A (zh) | 基于边缘设备的行人目标检测方法、装置、设备及介质 | |
CN112417886B (zh) | 意图实体信息抽取方法、装置、计算机设备及存储介质 | |
CN115700845B (zh) | 人脸识别模型训练方法、人脸识别方法、装置及相关设备 | |
CN112395450B (zh) | 图片文字检测方法、装置、计算机设备及存储介质 | |
CN113139490B (zh) | 一种图像特征匹配方法、装置、计算机设备及存储介质 | |
CN113936286A (zh) | 图像文本识别方法、装置、计算机设备及存储介质 | |
CN112036501A (zh) | 基于卷积神经网络的图片的相似度检测方法及其相关设备 | |
CN113011132A (zh) | 竖排文字识别方法、装置、计算机设备和存储介质 | |
CN117173731B (zh) | 一种模型训练的方法、图像处理的方法以及相关装置 | |
CN113688268B (zh) | 图片信息抽取方法、装置、计算机设备及存储介质 | |
CN115631509B (zh) | 一种行人再识别方法、装置、计算机设备及存储介质 | |
CN112669212B (zh) | 人脸图像超分辨率重建方法、装置、计算机设备及介质 | |
CN118334713A (zh) | 一种掌静脉识别方法、装置、计算机设备及存储介质 | |
CN118334554A (zh) | 音唇同步识别方法、装置、设备及存储介质 | |
CN117422523A (zh) | 产品上线方法、装置、计算机设备及存储介质 | |
CN115527242A (zh) | 身份识别方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |