CN117058723A - 掌纹识别方法、装置及存储介质 - Google Patents
掌纹识别方法、装置及存储介质 Download PDFInfo
- Publication number
- CN117058723A CN117058723A CN202311314425.5A CN202311314425A CN117058723A CN 117058723 A CN117058723 A CN 117058723A CN 202311314425 A CN202311314425 A CN 202311314425A CN 117058723 A CN117058723 A CN 117058723A
- Authority
- CN
- China
- Prior art keywords
- palm print
- feature
- palm
- features
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 109
- 238000000605 extraction Methods 0.000 claims abstract description 135
- 238000012545 processing Methods 0.000 claims abstract description 66
- 238000004364 calculation method Methods 0.000 claims abstract description 35
- 239000013598 vector Substances 0.000 claims description 73
- 230000004927 fusion Effects 0.000 claims description 33
- 238000004590 computer program Methods 0.000 claims description 15
- 238000013507 mapping Methods 0.000 claims description 9
- 238000003709 image segmentation Methods 0.000 claims description 5
- 238000009825 accumulation Methods 0.000 claims description 4
- 238000005516 engineering process Methods 0.000 abstract description 23
- 230000000694 effects Effects 0.000 abstract description 16
- 238000013473 artificial intelligence Methods 0.000 abstract description 15
- 210000003811 finger Anatomy 0.000 description 49
- 230000008569 process Effects 0.000 description 29
- 239000011159 matrix material Substances 0.000 description 24
- 238000012549 training Methods 0.000 description 22
- 230000006870 function Effects 0.000 description 16
- 238000010586 diagram Methods 0.000 description 11
- 230000004044 response Effects 0.000 description 8
- 238000013135 deep learning Methods 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 238000013527 convolutional neural network Methods 0.000 description 6
- 238000010801 machine learning Methods 0.000 description 5
- 238000007781 pre-processing Methods 0.000 description 5
- 230000009286 beneficial effect Effects 0.000 description 4
- 239000000284 extract Substances 0.000 description 4
- 238000003062 neural network model Methods 0.000 description 4
- 230000006978 adaptation Effects 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 238000010606 normalization Methods 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 230000006399 behavior Effects 0.000 description 2
- 238000013136 deep learning model Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000002708 enhancing effect Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 230000017105 transposition Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000033228 biological regulation Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 239000002537 cosmetic Substances 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000007499 fusion processing Methods 0.000 description 1
- 230000006698 induction Effects 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 210000004932 little finger Anatomy 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000013526 transfer learning Methods 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/12—Fingerprints or palmprints
- G06V40/1347—Preprocessing; Feature extraction
- G06V40/1359—Extracting features related to ridge properties; Determining the fingerprint type, e.g. whorl or loop
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/267—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computational Linguistics (AREA)
- General Engineering & Computer Science (AREA)
- Databases & Information Systems (AREA)
- Human Computer Interaction (AREA)
- Medical Informatics (AREA)
- Collating Specific Patterns (AREA)
- Image Analysis (AREA)
Abstract
本申请公开了一种掌纹识别方法、装置及存储介质,先获取手掌图像,将手掌图像分割成多个掌纹区域图像,再对多个掌纹区域图像进行线型特征提取得到多个掌纹线特征,然后对于每个掌纹线特征,获取其所对应的掌纹区域图像相对于其相邻掌纹线特征所对应的掌纹区域图像之间的第一位置关系信息,并根据该第一位置关系信息计算得到对应的第一重要性分数,接着根据第一重要性分数确定多个第一显著线型特征,并根据多个第一显著线型特征进行掌纹识别得到掌纹识别结果。本申请实施例能够改善对掌纹特征的提取效果,从而能够提高掌纹识别的准确性。本申请实施例可广泛应用于例如人工智能、智慧交通、交易支付、门禁、车辆控制等各种场景的图像处理技术中。
Description
技术领域
本申请涉及图像处理技术领域,尤其涉及一种掌纹识别方法、装置及存储介质。
背景技术
掌纹识别技术是继指纹识别和人脸识别技术以后的新一代生物特征识别技术,相较于指纹识别技术和人脸识别技术,掌纹识别技术更有利于保护用户的隐私,同时不会受到口罩、化妆、墨镜等因素的影响。在目前的相关技术中,常用基于几何特征或者基于深度学习等方法对掌纹特征进行提取,但是,这些方法都是基于正方形卷积核的图像特征提取方法,与掌纹特征的适配度不高,因此会存在特征提取效果不佳的问题,从而会影响掌纹识别的准确性。
发明内容
以下是对本文详细描述的主题的概述。本概述并非是为了限制权利要求的保护范围。
本申请实施例提供了一种掌纹识别方法、装置及存储介质,能够改善对掌纹特征的提取效果,从而能够提高掌纹识别的准确性。
一方面,本申请实施例提供了一种掌纹识别方法,包括以下步骤:
获取手掌图像,将所述手掌图像分割成多个互不重叠的掌纹区域图像;
对多个所述掌纹区域图像进行线型特征提取得到多个掌纹线特征;
对于每个所述掌纹线特征,获取所述掌纹线特征所对应的所述掌纹区域图像相对于所述掌纹线特征的相邻掌纹线特征所对应的所述掌纹区域图像之间的第一位置关系信息,并根据所述掌纹线特征和所述第一位置关系信息,计算得到所述掌纹线特征对应的第一重要性分数;
根据所述第一重要性分数,在所有所述掌纹线特征中确定多个第一显著线型特征;
根据多个所述第一显著线型特征进行掌纹识别,得到掌纹识别结果。
另一方面,本申请实施例还提供了一种掌纹识别装置,包括:
图像分割单元,用于获取手掌图像,将所述手掌图像分割成多个互不重叠的掌纹区域图像;
特征提取单元,用于对多个所述掌纹区域图像进行线型特征提取得到多个掌纹线特征;
分数计算单元,用于对于每个所述掌纹线特征,获取所述掌纹线特征所对应的所述掌纹区域图像相对于所述掌纹线特征的相邻掌纹线特征所对应的所述掌纹区域图像之间的第一位置关系信息,并根据所述掌纹线特征和所述第一位置关系信息,计算得到所述掌纹线特征对应的第一重要性分数;
特征确定单元,用于根据所述第一重要性分数,在所有所述掌纹线特征中确定多个第一显著线型特征;
掌纹识别单元,用于根据多个所述第一显著线型特征进行掌纹识别,得到掌纹识别结果。
可选地,所述分数计算单元还用于:
根据所述掌纹线特征和所述第一位置关系信息,计算得到所述掌纹线特征对应的局部注意力特征;
根据所述局部注意力特征和所述第一位置关系信息,计算得到所述掌纹线特征对应的第一重要性分数。
可选地,所述分数计算单元还用于:
将所述局部注意力特征映射到重要性分数维度,得到所述掌纹线特征对应的重要性分数特征;
根据所述重要性分数特征和所述第一位置关系信息,计算得到所述掌纹线特征对应的第一重要性分数。
可选地,所述相邻掌纹线特征的数量为多个;所述分数计算单元还用于:
根据所述重要性分数特征和多个所述相邻掌纹线特征对应的所述第一位置关系信息进行相乘累加计算,得到所述掌纹线特征对应的第一重要性分数。
可选地,所述分数计算单元还用于:
根据所述掌纹线特征和所述第一位置关系信息进行局部注意力计算,得到所述掌纹线特征对应的局部注意力参数;
根据所述掌纹线特征和所述局部注意力参数,计算得到所述掌纹线特征对应的局部注意力特征。
可选地,所述分数计算单元还用于:
根据所述掌纹线特征计算得到所述掌纹线特征对应的查询特征和键特征;
根据所述查询特征、所述键特征和所述第一位置关系信息,计算得到所述掌纹线特征对应的局部注意力参数。
可选地,所述分数计算单元还用于:
根据所述局部注意力参数对所述掌纹线特征进行加权计算或者求和计算,得到所述掌纹线特征对应的局部注意力特征。
可选地,所述分数计算单元还用于:
获取所述掌纹线特征所对应的所述掌纹区域图像在所述手掌图像中的第一坐标,以及所述掌纹线特征的相邻掌纹线特征所对应的所述掌纹区域图像在所述手掌图像中的第二坐标;
根据所述第一坐标和所述第二坐标,计算得到所述掌纹线特征对应的位置编码向量;
将所述位置编码向量作为所述掌纹线特征所对应的所述掌纹区域图像相对于所述掌纹线特征的相邻掌纹线特征所对应的所述掌纹区域图像之间的第一位置关系信息。
可选地,所述分数计算单元还用于:
计算所述第一坐标和所述第二坐标之间的坐标偏移量;
对所述坐标偏移量进行位置编码投影,得到所述掌纹线特征对应的位置编码向量。
可选地,所述掌纹识别单元还用于:
根据多个所述第一显著线型特征进行多次迭代的显著特征提取处理,获取每次进行所述显著特征提取处理时得到的多个第二显著线型特征;
将所述第一显著线型特征和所有所述第二显著线型特征进行特征融合,得到掌纹融合特征;
根据所述掌纹融合特征进行掌纹识别,得到掌纹识别结果。
可选地,所述掌纹识别单元还用于:
获取多个目标图像特征,其中,所述目标图像特征为所述第一显著线型特征,或者为前一次进行所述显著特征提取处理时得到的第二显著线型特征;
对于每个所述目标图像特征,获取所述目标图像特征所对应的所述掌纹区域图像相对于所述目标图像特征的相邻图像特征所对应的所述掌纹区域图像之间的第二位置关系信息,并根据所述目标图像特征和所述第二位置关系信息,计算得到所述目标图像特征对应的第二重要性分数;
根据所述第二重要性分数,在所有所述目标图像特征中确定多个第二显著线型特征。
另一方面,本申请实施例还提供了一种掌纹识别装置,包括:
至少一个处理器;
至少一个存储器,用于存储至少一个程序;
当至少一个所述程序被至少一个所述处理器执行时实现如前面所述的掌纹识别方法。
另一方面,本申请实施例还提供了一种计算机可读存储介质,其中存储有处理器可执行的计算机程序,所述处理器可执行的计算机程序被处理器执行时用于实现如前面所述的掌纹识别方法。
另一方面,本申请实施例还提供了一种计算机程序产品,包括计算机程序或计算机指令,所述计算机程序或所述计算机指令存储在计算机可读存储介质中,掌纹识别装置的处理器从所述计算机可读存储介质读取所述计算机程序或所述计算机指令,所述处理器执行所述计算机程序或所述计算机指令,使得所述掌纹识别装置执行如前面所述的掌纹识别方法。
本申请实施例至少包括以下有益效果:在获取到手掌图像之后,先将手掌图像分割成多个互不重叠的掌纹区域图像,并对多个掌纹区域图像进行线型特征提取得到多个掌纹线特征;通过对手掌图像进行多个互不重叠的掌纹区域图像的分割,可以将整个手掌的大范围纹路区域分割成多个小范围的掌纹线区域,从而使得在对这些掌纹区域图像进行线型特征提取时,可以提高对这些掌纹区域图像的掌纹线特征的提取效率;另外,由于手掌掌纹由掌纹线构成,而分割得到的多个掌纹区域图像的图像内容能够以掌纹线为主,因此在对这些掌纹区域图像进行线型特征提取时,还可以提高对这些掌纹区域图像的掌纹线特征的提取准确性。在得到多个掌纹线特征之后,对于每个掌纹线特征,先获取掌纹线特征所对应的掌纹区域图像相对于掌纹线特征的相邻掌纹线特征所对应的掌纹区域图像之间的第一位置关系信息,然后根据掌纹线特征和第一位置关系信息,计算得到掌纹线特征对应的第一重要性分数;由于第一位置关系信息是掌纹线特征所对应的掌纹区域图像和相邻掌纹线特征所对应的掌纹区域图像之间的位置关系信息,因此第一位置关系信息能够表征掌纹线特征和相邻掌纹线特征之间的上下文信息,所以,在根据掌纹线特征和第一位置关系信息计算掌纹线特征对应的第一重要性分数时,能够将掌纹线特征与其对应的上下文信息进行结合,使得计算得到的第一重要性分数能够更加准确地表达掌纹线特征较之于相邻掌纹线特征的重要程度。在计算得到各个掌纹线特征对应的第一重要性分数之后,先根据第一重要性分数在所有掌纹线特征中确定多个第一显著线型特征,然后根据多个第一显著线型特征进行掌纹识别得到掌纹识别结果;通过第一重要性分数,可以在所有掌纹线特征中确定出能够更好地对手掌图像进行表达的多个第一显著线型特征,达到提高对手掌图像的特征提取效果的目的,从而可以使得在根据这些第一显著线型特征进行掌纹识别时,能够提高掌纹识别的准确性,进而能够改善掌纹识别的识别效果。
本申请的其它特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本申请而了解。本申请的目的和其他优点可通过在说明书以及附图中所特别指出的结构来实现和获得。
附图说明
附图用来提供对本申请技术方案的进一步理解,并且构成说明书的一部分,与本申请的实施例一起用于解释本申请的技术方案,并不构成对本申请技术方案的限制。
图1是本申请实施例提供的一种实施环境的示意图;
图2是本申请实施例提供的另一种实施环境的示意图;
图3是本申请实施例提供的一种掌纹识别方法的流程图;
图4是本申请实施例提供的对手部图像进行手掌区域提取的示意图;
图5是本申请实施例提供的对手掌图像进行分割以得到多个掌纹区域图像的示意图;
图6是本申请实施例提供的计算掌纹线特征对应的位置编码向量的过程示意图;
图7是本申请实施例提供的根据第一重要性分数确定第一显著线型特征的过程示意图;
图8是本申请实施例提供的采用加权计算得到局部注意力特征的过程示意图;
图9是本申请实施例提供的采用求和计算得到局部注意力特征的过程示意图;
图10是本申请实施例提供的一种身份识别的整体流程示意图;
图11是本申请实施例提供的调用识别模型得到掌纹特征向量的过程示意图;
图12是本申请一个具体例子提供的掌纹识别方法的具体流程图;
图13是本申请实施例提供的一种掌纹识别装置的示意图;
图14是本申请实施例提供的另一种掌纹识别装置的示意图。
具体实施方式
下面结合说明书附图和具体的实施例对本申请进行进一步的说明。所描述的实施例不应视为对本申请的限制,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
在以下的描述中,涉及到“一些实施例”,其描述了所有可能实施例的子集,但是可以理解,“一些实施例”可以是所有可能实施例的相同子集或不同子集,并且可以在不冲突的情况下相互结合。
除非另有定义,本文所使用的所有的技术和科学术语与属于本申请的技术领域的技术人员通常理解的含义相同。本文中所使用的术语只是为了描述本申请实施例的目的,不是旨在限制本申请。
对本申请实施例进行进一步详细说明之前,对本申请实施例中涉及的名词和术语进行说明,本申请实施例中涉及的名词和术语适用于如下的解释。
1)人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。换句话说,人工智能是计算机科学的一个综合技术,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器。人工智能也就是研究各种智能机器的设计原理与实现方法,使机器具有感知、推理与决策的功能。人工智能技术是一门综合学科,涉及领域广泛,既有硬件层面的技术也有软件层面的技术。人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、预训练模型技术、操作/交互系统、机电一体化等。其中,预训练模型又称大模型、基础模型,经过微调后可以广泛应用于人工智能各大方向下游任务。人工智能软件技术主要包括计算机视觉技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
2)计算机视觉技术(Computer Vision,CV)计算机视觉是一门研究如何使机器“看”的科学,更进一步的说,就是指用摄影机和电脑代替人眼对目标进行识别和测量等机器视觉,并进一步做图形处理,使电脑处理成为更适合人眼观察或传送给仪器检测的图像。作为一个科学学科,计算机视觉研究相关的理论和技术,试图建立能够从图像或者多维数据中获取信息的人工智能系统。计算机视觉技术通常包括图像处理、图像识别、图像语义理解、图像检索、OCR、视频处理、视频语义理解、视频内容/行为识别、三维物体重建、3D技术、虚拟现实、增强现实、同步定位与地图构建等技术,还包括常见的人脸识别、指纹识别等生物特征识别技术。
3)机器学习(Machine Learning,ML)是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能。机器学习是人工智能的核心,是使计算机具有智能的根本途径,其应用遍及人工智能的各个领域。机器学习和深度学习通常包括人工神经网络、置信网络、强化学习、迁移学习、归纳学习、式教学习等技术。
在目前的相关技术中,掌纹识别方法通常可以包括基于几何特征的掌纹识别方法、基于深度学习的掌纹识别方法等。其中,基于几何特征的掌纹识别方法,主要是通过识别手掌上的几何形状来进行掌纹识别。该方法主要包括图像预处理、几何特征提取以及模式匹配等步骤,其中图像预处理包括对输入的掌纹图像进行去噪、增强和二值化等操作;几何特征提取包括计算手掌的几何特征,例如手指间距、手指宽度、手掌长度等;模式匹配包括利用提取到的几何特征,与数据库中的模板进行模式匹配,从而实现掌纹识别。该方法对于较低分辨率的图像和环境干扰均具有较好的鲁棒性,但是识别精度有限。另外,基于深度学习的掌纹识别方法,主要是通过借助深度学习技术,例如卷积神经网络(ConvolutionalNeural Network,CNN),对手掌图像进行端到端的特征学习与识别。该方法主要包括图像预处理、深度学习模型训练以及掌纹识别等步骤,其中图像预处理包括对输入的掌纹图像进行去噪、增强、归一化等操作;深度学习模型训练包括利用标注好的掌纹图像对深度卷积神经网络进行训练,使得训练后的深度卷积神经网络能够学习到掌纹图像的层次特征;掌纹识别包括将输入图像进行预处理后,输入到训练好的深度卷积神经网络模型中进行掌纹识别。该方法可以自动学习到手掌图像的层次性特征表达,从而能够提高掌纹识别的准确性和鲁棒性。虽然基于几何特征的掌纹识别方法和基于深度学习的掌纹识别方法等,能够实现对手掌的掌纹识别,但是这些方法都是基于正方形卷积核的图像特征提取方法,而手掌的掌纹信息主要集中在掌纹线中,因此这些基于正方形卷积核的图像特征提取与手掌的掌纹特征的适配度不高,从而会存在特征提取效果不佳的问题,进而会影响掌纹识别的准确性。
为了能够改善对掌纹特征的提取效果而提高掌纹识别的准确性,本申请实施例提供了一种掌纹识别方法、掌纹识别装置、计算机可读存储介质以及计算机程序产品,在获取到手掌图像之后,先将手掌图像分割成多个互不重叠的掌纹区域图像,并对多个掌纹区域图像进行线型特征提取得到多个掌纹线特征;通过对手掌图像进行多个互不重叠的掌纹区域图像的分割,可以将整个手掌的大范围纹路区域分割成多个小范围的掌纹线区域,从而使得在对这些掌纹区域图像进行线型特征提取时,可以提高对这些掌纹区域图像的掌纹线特征的提取效率;另外,由于手掌掌纹由掌纹线构成,而分割得到的多个掌纹区域图像的图像内容能够以掌纹线为主,因此在对这些掌纹区域图像进行线型特征提取时,还可以提高对这些掌纹区域图像的掌纹线特征的提取准确性。在得到多个掌纹线特征之后,对于每个掌纹线特征,先获取掌纹线特征所对应的掌纹区域图像相对于掌纹线特征的相邻掌纹线特征所对应的掌纹区域图像之间的第一位置关系信息,然后根据掌纹线特征和第一位置关系信息,计算得到掌纹线特征对应的第一重要性分数;由于第一位置关系信息是掌纹线特征所对应的掌纹区域图像和相邻掌纹线特征所对应的掌纹区域图像之间的位置关系信息,因此第一位置关系信息能够表征掌纹线特征和相邻掌纹线特征之间的上下文信息,所以,在根据掌纹线特征和第一位置关系信息计算掌纹线特征对应的第一重要性分数时,能够将掌纹线特征与其对应的上下文信息进行结合,使得计算得到的第一重要性分数能够更加准确地表达掌纹线特征较之于相邻掌纹线特征的重要程度。在计算得到各个掌纹线特征对应的第一重要性分数之后,先根据第一重要性分数在所有掌纹线特征中确定多个第一显著线型特征,然后根据多个第一显著线型特征进行掌纹识别得到掌纹识别结果;通过第一重要性分数,可以在所有掌纹线特征中确定出能够更好地对手掌图像进行表达的多个第一显著线型特征,达到提高对手掌图像的特征提取效果的目的,从而可以使得在根据这些第一显著线型特征进行掌纹识别时,能够提高掌纹识别的准确性,进而能够改善掌纹识别的识别效果。
本申请实施例提供的方案可应用于各种场景,包括但不限于云技术、人工智能、智慧交通、辅助驾驶等,具体通过如下的各个实施例进行相应的说明。
图1是本申请实施例提供的一种实施环境的示意图。参照图1,该实施环境包括第一终端101和第一服务器102。第一终端101和第一服务器102通过有线或无线通信方式进行直接或间接的连接,其中,第一终端101和第一服务器102可以为区块链中的节点,本实施例对此并不作具体限定。
第一终端101可以包括但不限于智能手机、电脑、智能语音交互设备、智能家电、车载终端、飞行器等具有图像采集功能的智能设备。可选地,第一终端101可以设置有用于采集图像的图像采集模块,例如摄像头、图像传感器等,通过该图像采集模块,可以拍摄用户的手掌图像,然后根据用户的手掌图像进行识别处理。
在一实施例中,第一终端101至少具有发起图像识别请求和获取图像识别结果等功能,例如,第一终端101能够在拍摄到用户的手掌图像之后,向第一服务器102发送该手掌图像和对于该手掌图像的识别请求,在接收到第一服务器102根据该手掌图像和识别请求所反馈的掌纹识别结果之后,显示该掌纹识别结果或者根据该掌纹识别结果对第一终端101进行控制处理。
第一服务器102可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群或者分布式系统,还可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、CDN(Content Delivery Network,内容分发网络)以及大数据和人工智能平台等基础云计算服务的云服务器。
在一实施例中,第一服务器102至少具有手掌图像获取、手掌图像分割、掌纹线特征提取、特征重要性分数计算以及掌纹识别等功能,例如,第一服务器102能够在获取到手掌图像之后,将手掌图像分割成多个互不重叠的掌纹区域图像,并对多个掌纹区域图像进行线型特征提取得到多个掌纹线特征,然后,对于每个掌纹线特征,获取掌纹线特征所对应的掌纹区域图像相对于相邻掌纹线特征所对应的掌纹区域图像之间的第一位置关系信息,并根据掌纹线特征和第一位置关系信息,计算得到掌纹线特征对应的第一重要性分数,在计算得到各个掌纹线特征对应的第一重要性分数之后,根据这些第一重要性分数在所有掌纹线特征中确定多个第一显著线型特征,接着根据这些第一显著线型特征进行掌纹识别得到掌纹识别结果。在得到掌纹识别结果之后,第一服务器102还能够将掌纹识别结果发送给第一终端101,使得第一终端101能够显示该掌纹识别结果或者根据该掌纹识别结果对第一终端101进行控制处理。
参照图1所示,在一应用场景中,假设第一终端101为支付终端,并且第一终端101设置有用于采集图像的图像采集模块(例如摄像头或者图像传感器等)。当用户使用第一终端101对手掌进行扫描以进行支付行为时,响应于获取到用户的手掌图像,第一终端101向第一服务器102发送该手掌图像和对于该手掌图像的识别请求;响应于接收到该手掌图像和该识别请求,第一服务器102将手掌图像分割成多个互不重叠的掌纹区域图像,并对多个掌纹区域图像进行线型特征提取得到多个掌纹线特征,然后,对于每个掌纹线特征,获取掌纹线特征所对应的掌纹区域图像相对于掌纹线特征的相邻掌纹线特征所对应的掌纹区域图像之间的第一位置关系信息,并根据掌纹线特征和第一位置关系信息,计算得到掌纹线特征对应的第一重要性分数;在计算得到各个掌纹线特征对应的第一重要性分数之后,第一服务器102根据这些第一重要性分数在所有掌纹线特征中确定多个第一显著线型特征,接着,第一服务器102根据这些第一显著线型特征进行掌纹识别,得到掌纹识别结果;在得到掌纹识别结果之后,第一服务器102向第一终端101发送掌纹识别结果;响应于接收到掌纹识别结果,第一终端101根据掌纹识别结果进行支付操作。
图2是本申请实施例提供的另一种实施环境的示意图。参照图2,该实施环境包括第二终端201和第二服务器202。第二终端201和第二服务器202通过有线或无线通信方式进行直接或间接的连接,其中,第二终端201和第二服务器202可以为区块链中的节点,本实施例对此并不作具体限定。
第二终端201可以包括但不限于智能手机、电脑、智能语音交互设备、智能家电、车载终端、飞行器等具有图像采集功能的智能设备。可选地,第二终端201可以设置有用于采集图像的图像采集模块,例如摄像头、图像传感器等,通过该图像采集模块,可以拍摄用户的手掌图像,然后根据用户的手掌图像进行识别处理。
在一实施例中,第二终端201至少具有掌纹识别模型获取、手掌图像获取、手掌图像分割、掌纹线特征提取、特征重要性分数计算以及掌纹识别等功能,例如,第二终端201能够预先从第二服务器202下载经过训练的掌纹识别模型,当第二终端201在拍摄到用户的手掌图像之后,第二终端201能够将手掌图像分割成多个互不重叠的掌纹区域图像,并对多个掌纹区域图像进行线型特征提取得到多个掌纹线特征,然后,对于每个掌纹线特征,获取掌纹线特征所对应的掌纹区域图像相对于相邻掌纹线特征所对应的掌纹区域图像之间的第一位置关系信息,并根据掌纹线特征和第一位置关系信息,计算得到掌纹线特征对应的第一重要性分数,在计算得到各个掌纹线特征对应的第一重要性分数之后,根据这些第一重要性分数在所有掌纹线特征中确定多个第一显著线型特征,接着调用该掌纹识别模型对这些第一显著线型特征进行掌纹识别得到掌纹识别结果。在得到掌纹识别结果之后,第二终端201显示该掌纹识别结果或者根据该掌纹识别结果对第二终端201进行控制处理。
第二服务器202可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群或者分布式系统,还可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、CDN网络以及大数据和人工智能平台等基础云计算服务的云服务器。
在一实施例中,第二服务器202至少具有利用训练样本对掌纹识别模型进行训练、下发经过训练的掌纹识别模型等功能,例如,第二服务器202能够随机生成掌纹训练样本,或者通过互联网获取公开的掌纹图像并将公开的掌纹图像作为掌纹训练样本,然后利用这些掌纹训练样本对掌纹识别模型进行训练;在完成对掌纹识别模型的训练之后,当接收到第二终端201发送的模型下载请求,第二服务器202能够将经过训练的掌纹识别模型发送给第二终端201,使得第二终端201能够在本地利用经过训练的掌纹识别模型直接对用户的手掌图像进行掌纹识别。
参照图2所示,在另一应用场景中,假设第二终端201为车载终端,并且第二终端201设置有用于采集图像的图像采集模块(例如摄像头或者图像传感器等),另外,第二终端201还预先从第二服务器202下载了经过训练的掌纹识别模型。当用户使用第二终端201对手掌进行扫描以启动车辆时,响应于获取到用户的手掌图像,第二终端201先将手掌图像分割成多个互不重叠的掌纹区域图像,并对多个掌纹区域图像进行线型特征提取得到多个掌纹线特征,然后,对于每个掌纹线特征,获取掌纹线特征所对应的掌纹区域图像相对于掌纹线特征的相邻掌纹线特征所对应的掌纹区域图像之间的第一位置关系信息,并根据掌纹线特征和第一位置关系信息,计算得到掌纹线特征对应的第一重要性分数;在计算得到各个掌纹线特征对应的第一重要性分数之后,第二终端201根据这些第一重要性分数在所有掌纹线特征中确定多个第一显著线型特征,接着调用该掌纹识别模型对这些第一显著线型特征进行掌纹识别得到掌纹识别结果。在得到掌纹识别结果之后,第二终端201根据掌纹识别结果进行车辆启动操作。
需要说明的是,在本申请的各个具体实施方式中,当涉及到需要根据目标对象(例如用户等)的属性信息或属性信息集合等与目标对象的特性相关的数据进行相关处理时,都会先获得目标对象的许可或者同意,而且,对这些数据的收集、使用和处理等,都会遵守相关法律法规和标准。此外,当本申请实施例需要获取目标对象的属性信息时,会通过弹窗或者跳转到确认页面等方式获得目标对象的单独许可或者单独同意,在明确获得目标对象的单独许可或者单独同意之后,再获取用于使本申请实施例能够正常运行的必要的目标对象的相关数据。
本申请实施例可应用于各种需要对掌纹图像进行识别的场景,包括但不限于支付、门禁、车辆控制等领域中的掌纹识别场景。
图3是本申请实施例提供的一种掌纹识别方法的流程图,该掌纹识别方法可以由终端或服务器执行,也可以由终端和服务器共同执行,在本申请实施例中,以该方法由服务器执行为例进行说明。参照图3,该掌纹识别方法包括但不限于步骤310至步骤350。
步骤310:获取手掌图像,将手掌图像分割成多个互不重叠的掌纹区域图像。
在一实施例中,当终端的图像采集设备采集到用户的不包含手指等部位的手掌图像时,服务器可以直接获取终端上传的手掌图像,然后将该手掌图像分割成多个互不重叠的掌纹区域图像;当终端的图像采集设备采集到用户的包含手指等部位的手部图像时,服务器在接收到终端上传的手部图像之后,可以先在该手部图像中提取出手掌图像,然后将提取出的手掌图像分割成多个互不重叠的掌纹区域图像。通过对手掌图像进行多个互不重叠的掌纹区域图像的分割,可以将整个手掌的大范围纹路区域分割成多个小范围的掌纹线区域,使得分割后的掌纹区域图像的图像内容能够以掌纹线为主,从而使得在对这些掌纹区域图像进行线型特征提取时,可以降低其他图像内容对掌纹线的特征提取的影响,不仅可以提高对这些掌纹区域图像的掌纹线特征的提取效率,还能够提高对这些掌纹区域图像的掌纹线特征的提取准确性。
在一实施例中,分割得到的多个互不重叠的掌纹区域图像,可以采用图像矩阵的形式表示,因此,在将手掌图像进行分割之后,可以得到由多个互不重叠的掌纹区域图像构成的掌纹区域图像矩阵,以便于这些掌纹区域图像能够与后续步骤得到的掌纹线特征矩阵对应一致,从而有利于进行后续的特征处理。
在一实施例中,在对终端上传的手部图像进行手掌区域提取以得到手掌图像时,可以采用基于神经网络模型的方式对手部图像进行手掌区域提取,也可以采用非神经网络模型的方式对手部图像进行手掌区域提取,此处不作具体限定。其中,当采用基于神经网络模型的方式对手部图像进行手掌区域提取时,可以将手部图像输入至经过训练的手掌区域提取模型进行手掌区域提取,得到仅包括手掌区域的手掌图像(即手掌图像不包含手指部分等内容)。其中,在对手掌区域提取模型进行训练时,可以采用通过不同方式得到的训练样本对手掌区域提取模型进行训练,例如,可以采用网络上公开的手掌图像作为训练样本,或者,可以采用不同的拍摄终端对不同的手掌进行拍摄,将拍摄得到的手掌图像作为训练样本。对于训练样本的获得方式,可以根据实际应用情况而进行适当的选择,此处不作具体限定。另外,当采用非神经网络模型的方式对手部图像进行手掌区域提取时,可以先通过基于YOLOv2的指缝点目标检测器检测手部图像中的第一指缝位置、第二指缝位置和第三指缝位置,其中,第二指缝位置位于第一指缝位置和第三指缝位置之间,然后根据第一指缝位置和第三指缝位置确定第一坐标轴,接着根据第二指缝位置和第一坐标轴确定第二坐标轴,其中,第二坐标轴垂直于第一坐标轴,在确定第二坐标轴之后,根据第一指缝位置和第三指缝位置之间的距离在第二坐标轴中确定掌纹中心点,然后根据第一指缝位置、第三指缝位置和掌纹中心点确定手掌图像。
在一实施例中,如图4所示,第一指缝位置可以是食指和中指之间的指缝位置,第二指缝位置可以是中指和无名指之间的指缝位置,第三指缝位置可以是无名指和小指之间的指缝位置,也就是说,第一指缝位置可以是图4中A点的位置,第二指缝位置可以是图4中B点的位置,第三指缝位置可以是图4中C点的位置。在确定手部图像中的第一指缝位置、第二指缝位置和第三指缝位置之后,可以将第一指缝位置和第三指缝位置所在的直线作为第一坐标轴,例如图4中将A点和C点所在的直线作为第一坐标轴,然后将垂直于第一坐标轴的第二指缝位置所在的直线作为第二坐标轴,例如图4中将垂直于第一坐标轴的B点所在的直线作为第二坐标轴,此时,第一坐标轴和第二坐标轴的交点即为坐标原点,例如图4中的O点,接着沿着从第二指缝位置指向坐标原点的方向在第二坐标轴中确定掌纹中心点,例如图4中的D点,使得掌纹中心点与坐标原点之间的距离等于或者约等于第一指缝位置和第三指缝位置之间的距离,其中,掌纹中心点与坐标原点之间的距离约等于第一指缝位置和第三指缝位置之间的距离,是指掌纹中心点与坐标原点之间的距离与第一指缝位置和第三指缝位置之间的距离的差值的绝对值小于预设阈值,该预设阈值可以根据实际应用情况而进行适当的选择,此处不作具体限定。当在第二坐标轴中确定掌纹中心点之后,可以以掌纹中心点作为中心,并以第一指缝位置和第三指缝位置之间的距离与预设系数之间的乘积作为手掌区域边长,确定手掌区域范围,例如图4中矩形框的范围,然后将该手掌区域范围所对应的图像确定为手掌图像。其中,预设系数可以是大于1或者小于1的数值,例如,预设系数可以是1.5或者0.8等,预设系数可以根据实际应用情况而进行适当的选择,此处不作具体限定。
在一实施例中,在将手掌图像分割成多个互不重叠的掌纹区域图像时,可以先确定分割的掌纹区域图像的数量,然后根据掌纹区域图像的数量和手掌图像的边长确定掌纹区域图像的边长,接着根据掌纹区域图像的边长对手掌图像进行分割,得到多个互不重叠的掌纹区域图像。例如图5所示,假设分割的掌纹区域图像530的数量为4个,那么在根据掌纹区域图像530的数量和手掌图像510的边长确定掌纹区域图像530的边长时,可以确定掌纹区域图像530的边长为手掌图像510的边长的一半,因此可以在手掌图像510中确定4个分割区域520,然后在手掌图像510中对这4个分割区域520进行分割,即可得到4个互不重叠的掌纹区域图像530。
步骤320:对多个掌纹区域图像进行线型特征提取得到多个掌纹线特征。
在一实施例中,在分割得到多个互不重叠的掌纹区域图像之后,可以对这多个掌纹区域图像进行线型特征提取得到多个掌纹线特征,也就是说,可以对各个掌纹区域图像进行线型特征提取,得到各个掌纹区域图像的掌纹线特征,由于手掌掌纹是由掌纹线构成的,而分割得到的多个掌纹区域图像的图像内容能够以掌纹线为主,因此在对这些掌纹区域图像进行线型特征提取时,可以降低手掌图像中其他图像内容对掌纹线的特征提取的影响,从而可以提高对这些掌纹区域图像的掌纹线特征的提取准确性。
在一实施例中,对多个掌纹区域图像进行线型特征提取而得到的多个掌纹线特征,可以采用特征矩阵的形式表示,因此,在对多个掌纹区域图像进行线型特征提取之后,可以得到由多个掌纹线特征构成的掌纹线特征矩阵,以便于这些掌纹线特征能够与前面步骤得到的掌纹区域图像矩阵对应一致,从而有利于后续步骤以特征矩阵的方式对掌纹线特征进行处理。
步骤330:对于每个掌纹线特征,获取掌纹线特征所对应的掌纹区域图像相对于掌纹线特征的相邻掌纹线特征所对应的掌纹区域图像之间的第一位置关系信息,并根据掌纹线特征和第一位置关系信息,计算得到掌纹线特征对应的第一重要性分数。
在一实施例中,在提取得到各个掌纹区域图像的掌纹线特征之后,对于每个掌纹线特征,可以获取其所对应的掌纹区域图像相对于其相邻掌纹线特征所对应的掌纹区域图像之间的第一位置关系信息,由于第一位置关系信息是掌纹线特征所对应的掌纹区域图像和相邻掌纹线特征所对应的掌纹区域图像之间的位置关系信息,因此第一位置关系信息能够表征掌纹线特征和相邻掌纹线特征之间的上下文信息,所以,在根据掌纹线特征和第一位置关系信息计算掌纹线特征对应的第一重要性分数时,能够将掌纹线特征与其对应的上下文信息进行结合,使得计算得到的第一重要性分数能够更加准确地表达掌纹线特征较之于相邻掌纹线特征的重要程度。
在一实施例中,在获取掌纹线特征所对应的掌纹区域图像相对于掌纹线特征的相邻掌纹线特征所对应的掌纹区域图像之间的第一位置关系信息的过程中,可以先获取掌纹线特征所对应的掌纹区域图像在手掌图像中的第一坐标,以及掌纹线特征的相邻掌纹线特征所对应的掌纹区域图像在手掌图像中的第二坐标,然后根据第一坐标和第二坐标计算得到掌纹线特征对应的位置编码向量,接着将位置编码向量作为掌纹线特征所对应的掌纹区域图像相对于掌纹线特征的相邻掌纹线特征所对应的掌纹区域图像之间的第一位置关系信息。由于第一位置关系信息能够表征掌纹线特征和相邻掌纹线特征之间的上下文信息,根据第一坐标和第二坐标计算得到的位置编码向量能够表征掌纹区域图像和相邻掌纹区域图像之间的上下文信息,而掌纹线特征是与掌纹区域图像一一对应的,因此掌纹线特征所对应的位置编码向量,能够采用其所对应的掌纹区域图像的位置编码向量来表示,所以,可以将掌纹线特征对应的位置编码向量作为掌纹线特征所对应的掌纹区域图像相对于掌纹线特征的相邻掌纹线特征所对应的掌纹区域图像之间的第一位置关系信息。此外,通过先获取掌纹线特征所对应的掌纹区域图像在手掌图像中的第一坐标以及相邻掌纹线特征所对应的掌纹区域图像在手掌图像中的第二坐标,然后根据第一坐标和第二坐标计算得到用于作为第一位置关系信息的位置编码向量,因此可以将针对掌纹线特征的位置的计算处理转换成针对掌纹区域图像的位置的计算处理,从而可以有效降低对掌纹线特征所对应的位置编码向量的计算难度,使得对掌纹线特征所对应的位置编码向量的计算能够更加方便地执行。如图6所示,图6示例性地给出了计算掌纹线特征对应的位置编码向量的过程。在图6中,假设需要计算掌纹线特征矩阵610中掌纹线特征611对应的位置编码向量,可以先在掌纹线特征矩阵610对应的掌纹区域图像矩阵620中,确定出掌纹线特征611对应的目标掌纹区域图像621,以及掌纹线特征611的相邻掌纹线特征612对应的相邻掌纹区域图像622,然后在掌纹区域图像矩阵620中获取目标掌纹区域图像621的第一坐标P1以及相邻掌纹区域图像622的第二坐标P2,接着根据第一坐标P1和第二坐标P2计算掌纹线特征611对应的位置编码向量。
在一实施例中,在根据第一坐标和第二坐标计算掌纹线特征对应的位置编码向量的过程中,可以先计算第一坐标和第二坐标之间的坐标偏移量,然后对坐标偏移量进行位置编码投影,得到掌纹线特征对应的位置编码向量。其中,在对坐标偏移量进行位置编码投影时,可以先确定进行位置编码投影的投影权重,然后根据投影权重对坐标偏移量进行位置编码投影。在一实施例中,可以采用如下公式(1)计算掌纹线特征对应的位置编码向量:
在公式(1)中,表示第/>个掌纹线特征所对应的第一坐标,即第/>个掌纹区域图像的坐标;/>表示第/>个掌纹线特征所对应的第二坐标,即第/>个掌纹区域图像的坐标,其中第/>个掌纹区域图像和第/>个掌纹区域图像互为相邻关系;/>表示投影权重,用于将/>投影到其对应的位置编码上;/>表示第/>个掌纹线特征对应的位置编码向量。因此,当需要计算掌纹线特征对应的位置编码向量时,可以先获取掌纹线特征对应的第一坐标和第二坐标,然后计算第一坐标和第二坐标之间的坐标偏移量,接着将坐标偏移量输入至一个全连接层,使得该全连接层为坐标偏移量赋予一个投影权重,并通过投影权重与坐标偏移量的乘积得到掌纹线特征对应的位置编码向量。
在一实施例中,在根据掌纹线特征和第一位置关系信息计算掌纹线特征对应的第一重要性分数的过程中,可以先根据掌纹线特征和第一位置关系信息,计算得到掌纹线特征对应的局部注意力特征,然后根据局部注意力特征和第一位置关系信息,计算得到掌纹线特征对应的第一重要性分数。由于第一位置关系信息能够表征掌纹线特征和相邻掌纹线特征之间的上下文信息,而根据掌纹线特征和第一位置关系信息计算得到的掌纹线特征对应的局部注意力特征,能够突出掌纹线特征较之于相邻掌纹线特征的重要程度,因此,根据局部注意力特征和第一位置关系信息计算得到的掌纹线特征对应的第一重要性分数,能够更好地表达各个掌纹线特征在所有掌纹线特征中的重要程度,有利于后续步骤可以根据第一重要性分数在所有掌纹线特征中确定更为重要的、更能对手掌的掌纹特征进行表达的多个第一显著线型特征,从而有利于提高后续进行的掌纹识别的准确性。
在一实施例中,在根据掌纹线特征和第一位置关系信息计算掌纹线特征对应的局部注意力特征的过程中,可以采用计算掌纹线特征的局部注意力的方式,先根据掌纹线特征和第一位置关系信息进行局部注意力计算,得到掌纹线特征对应的局部注意力参数,然后根据掌纹线特征和局部注意力参数,计算得到掌纹线特征对应的局部注意力特征。通过根据掌纹线特征和第一位置关系信息计算得到掌纹线特征对应的局部注意力参数,可以使得局部注意力参数能够表达掌纹线特征的显著性程度,从而可以使得根据掌纹线特征和局部注意力参数计算得到的局部注意力特征能够对掌纹线特征进行增强,以便于增强后续步骤对掌纹线特征的识别效果。
在一实施例中,在根据掌纹线特征和第一位置关系信息进行局部注意力计算以得到掌纹线特征对应的局部注意力参数的过程中,可以先根据掌纹线特征计算得到掌纹线特征对应的查询特征和键特征,然后根据查询特征、键特征和第一位置关系信息,计算得到掌纹线特征对应的局部注意力参数。其中,在根据掌纹线特征计算掌纹线特征对应的查询特征和键特征时,可以对掌纹线特征进行两种不同的线性变换,得到掌纹线特征对应的查询特征和键特征。在一实施例中,可以采用如下公式(2)计算掌纹线特征的局部注意力参数:
在公式(2)中,表示掌纹线特征的局部注意力参数;/>表示掌纹线特征的查询特征;/>表示掌纹线特征的键特征,/>表示对键特征/>进行矩阵转置后得到的转置键特征;/>表示掌纹线特征对应的位置编码向量(即第一位置关系信息);/>表示概率分布映射,用于将掌纹线特征的局部注意力参数以概率的形式进行表示。因此,当需要计算掌纹线特征的局部注意力参数时,可以先对掌纹线特征进行查询特征的线性变换,得到掌纹线特征对应的查询特征,以及对掌纹线特征进行键特征的线性变换,得到掌纹线特征对应的键特征,并且采用上述公式(1)计算得到掌纹线特征对应的位置编码向量,再对掌纹线特征对应的键特征进行矩阵转置,得到转置键特征,然后将查询特征与转置键特征进行矩阵相乘所得到的结果与位置编码向量进行矩阵相加,接着将矩阵相加的结果输入至函数进行概率分布映射,得到掌纹线特征的局部注意力参数。
在一实施例中,在根据掌纹线特征和局部注意力参数计算掌纹线特征对应的局部注意力特征的过程中,可以根据局部注意力参数对掌纹线特征进行加权计算或者求和计算,得到掌纹线特征对应的局部注意力特征。如图8和图9所示,图8示例性地给出了采用加权计算得到掌纹线特征对应的局部注意力特征的过程,图9示例性地给出了采用求和计算得到掌纹线特征对应的局部注意力特征的过程。在图8中,假设具有掌纹线特征B1、掌纹线特征B2和掌纹线特征B3,其中掌纹线特征B1对应的局部注意力参数为C1,掌纹线特征B2对应的局部注意力参数为C2,掌纹线特征B3对应的局部注意力参数为C3,此时,将掌纹线特征B1与局部注意力参数C1进行相乘,可以得到掌纹线特征B1对应的局部注意力特征为B1*C1;将掌纹线特征B2与局部注意力参数C2进行相乘,可以得到掌纹线特征B2对应的局部注意力特征为B2*C2;将掌纹线特征B3与局部注意力参数C3进行相乘,可以得到掌纹线特征B3对应的局部注意力特征为B3*C3。在图9中,假设具有掌纹线特征B1、掌纹线特征B2和掌纹线特征B3,其中掌纹线特征B1对应的局部注意力参数为C1,掌纹线特征B2对应的局部注意力参数为C2,掌纹线特征B3对应的局部注意力参数为C3,此时,将掌纹线特征B1与局部注意力参数C1进行相加,可以得到掌纹线特征B1对应的局部注意力特征为B1+C1;将掌纹线特征B2与局部注意力参数C2进行相加,可以得到掌纹线特征B2对应的局部注意力特征为B2+C2;将掌纹线特征B3与局部注意力参数C3进行相加,可以得到掌纹线特征B3对应的局部注意力特征为B3+C3。
在一实施例中,在根据局部注意力特征和第一位置关系信息计算掌纹线特征对应的第一重要性分数的过程中,可以先将局部注意力特征映射到重要性分数维度,得到掌纹线特征对应的重要性分数特征,然后根据重要性分数特征和第一位置关系信息,计算得到掌纹线特征对应的第一重要性分数。其中,在将局部注意力特征映射到重要性分数维度时,可以采用一个全连接层将局部注意力特征映射到重要性分数维度。另外,在相邻掌纹线特征的数量为多个的情况下,在根据重要性分数特征和第一位置关系信息计算掌纹线特征对应的第一重要性分数的过程中,可以根据重要性分数特征和多个相邻掌纹线特征对应的第一位置关系信息进行相乘累加计算,得到掌纹线特征对应的第一重要性分数。在一实施例中,可以采用如下公式(3)计算掌纹线特征对应的第一重要性分数:
在公式(3)中,表示第/>个掌纹线特征对应的局部注意力特征;/>表示重要性分数维度的映射,用于将局部注意力特征映射到重要性分数维度;/>表示第/>个掌纹线特征对应的局部注意力特征/>对应的第一重要性分数;/>表示Sigmod函数,用于实现数值的归一化处理;/>表示第/>个掌纹线特征所对应的第一坐标,即第/>个掌纹区域图像的坐标;/>表示第/>个掌纹线特征所对应的第二坐标,即第/>个掌纹区域图像的坐标,其中第/>个掌纹区域图像和第/>个掌纹区域图像互为相邻关系;/>表示投影权重,用于将/>投影到其对应的位置编码上。因此,当需要计算掌纹线特征对应的第一重要性分数时,可以先确定掌纹线特征所对应的多个位置编码向量,即公式(2)中的/>,然后采用/>函数将局部注意力特征/>映射到重要性分数维度,得到重要性分数特征/>,并采用/>函数对重要性分数特征进行归一化处理,接着将经过归一化处理的重要性分数特征与多个位置编码向量进行相乘以及累加,得到掌纹线特征对应的第一重要性分数。下面以一个具体例子对计算掌纹线特征对应的第一重要性分数的过程进行说明。假设当前掌纹线特征具有3个相邻掌纹线特征,其中当前掌纹线特征所对应的第一坐标为/>,3个相邻掌纹线特征所对应的第二坐标分别为/>、/>和/>,那么,在计算当前掌纹线特征/>对应的第一重要性分数时,可以先确定当前掌纹线特征相对于3个相邻掌纹线特征的位置编码向量,可以得到当前掌纹线特征相对于3个相邻掌纹线特征的位置编码向量分别为/>、/>和/>,然后,调用/>函数将当前掌纹线特征映射到重要性分数维度,得到当前掌纹线特征对应的重要性分数特征为/>,并调用/>函数对当前掌纹线特征对应的重要性分数特征进行归一化处理,得到经过归一化处理的重要性分数特征为/>,此时,将经过归一化处理的重要性分数特征与当前掌纹线特征相对于3个相邻掌纹线特征的位置编码向量分别进行相乘后再相加,可以得到当前掌纹线特征对应的第一重要性分数为。
步骤340:根据第一重要性分数,在所有掌纹线特征中确定多个第一显著线型特征。
在一实施例中,在根据第一重要性分数在所有掌纹线特征中确定多个第一显著线型特征的过程中,可以先在所有第一重要性分数中确定符合预设条件的多个目标分数,然后在所有掌纹线特征中,将多个目标分数所对应的多个掌纹线特征确定为多个第一显著线型特征。虽然第一重要性分数能够表达掌纹线特征的重要程度,但仍然需要一个分数阈值或者比例阈值以划分出能够表达第一显著线型特征的第一重要性分数,所以,可以预先设定一个分数阈值或者比例阈值,并将数值大于该分数阈值的情况,或者将排序比例大于该比例阈值的情况,作为预设条件,从所有第一重要性分数中确定符合该预设条件的多个目标分数,此时,即可在所有掌纹线特征中,将这些目标分数所对应的掌纹线特征确定为第一显著线型特征。其中,当预设条件为数值大于分数阈值时,可以直接将各个第一重要性分数与分数阈值进行大小比较,从而确定符合预设条件的多个目标分数;当预设条件为排序比例大于比例阈值时,则可以先将所有第一重要性分数按照数值从大到小进行排序,然后将排序比例大于比例阈值的第一重要性分数确定为目标分数,例如,假设比例阈值为50%,那么可以将处于排序前50%的第一重要性分数确定为目标分数。如图7所示,图7示例性地给出了根据第一重要性分数在所有掌纹线特征中确定多个第一显著线型特征的过程。在图7中,假设所有掌纹线特征包括掌纹线特征A1、掌纹线特征A2、掌纹线特征A3、掌纹线特征A4和掌纹线特征A5,其中掌纹线特征A1对应的第一重要性分数为0.84,掌纹线特征A2对应的第一重要性分数为0.93,掌纹线特征A3对应的第一重要性分数为0.87,掌纹线特征A4对应的第一重要性分数为0.96,掌纹线特征A5对应的第一重要性分数为0.94,分数阈值为0.90,那么可以确定0.93、0.96和0.94均为符合预设条件的目标分数,因此,在所有掌纹线特征中,可以将第一重要性分数0.93所对应的掌纹线特征、第一重要性分数0.96所对应的掌纹线特征以及第一重要性分数0.94所对应的掌纹线特征确定为第一显著线型特征,也就是说,可以确定掌纹线特征A2、掌纹线特征A4和掌纹线特征A5为第一显著线型特征。
步骤350:根据多个第一显著线型特征进行掌纹识别,得到掌纹识别结果。
在一实施例中,在得到多个第一显著线型特征之后,可以根据多个第一显著线型特征进行掌纹识别,得到掌纹识别结果。其中,在根据多个第一显著线型特征进行掌纹识别以得到掌纹识别结果的过程中,可以先对多个第一显著线型特征进行向量化,得到以矩阵形式表示的显著线型特征向量,然后调用掌纹识别模型对显著线型特征向量进行掌纹识别,得到掌纹识别结果。其中,在对多个第一显著线型特征进行向量化时,可以采用多层感知器(Multi-Layer Perceptron,MLP)对多个第一显著线型特征进行向量化,例如,假设第一显著线型特征为embedding,显著线型特征向量为embedding_final,那么采用多层MLP对多个第一显著线型特征进行向量化的过程可以表达为embedding_final = MLP(embedding)。
在一实施例中,在调用掌纹识别模型对显著线型特征向量进行掌纹识别之前,可以预先对掌纹识别模型进行训练,例如,可以采用前面实施例描述中的方法,得到训练样本中的多个第一显著线型特征,并对训练样本的这些第一显著线型特征进行向量化,得到训练样本的显著线型特征向量,然后将训练样本的显著线型特征向量输入至掌纹识别模型进行掌纹识别,得到识别结果,接着根据识别结果和样本标签计算得到识别损失值,并根据识别损失值在掌纹识别模型中进行梯度反向传播,修正掌纹识别模型的模型参数,实现对掌纹识别模型的训练。
本实施例中,通过包括前面步骤310至步骤350的掌纹识别方法,在获取到手掌图像之后,先将手掌图像分割成多个互不重叠的掌纹区域图像,并对多个掌纹区域图像进行线型特征提取得到多个掌纹线特征;通过对手掌图像进行多个互不重叠的掌纹区域图像的分割,可以将整个手掌的大范围纹路区域分割成多个小范围的掌纹线区域,从而使得在对这些掌纹区域图像进行线型特征提取时,可以提高对这些掌纹区域图像的掌纹线特征的提取效率;另外,由于手掌掌纹由掌纹线构成,而分割得到的多个掌纹区域图像的图像内容能够以掌纹线为主,因此在对这些掌纹区域图像进行线型特征提取时,还可以提高对这些掌纹区域图像的掌纹线特征的提取准确性。在得到多个掌纹线特征之后,对于每个掌纹线特征,先获取掌纹线特征所对应的掌纹区域图像相对于掌纹线特征的相邻掌纹线特征所对应的掌纹区域图像之间的第一位置关系信息,然后根据掌纹线特征和第一位置关系信息,计算得到掌纹线特征对应的第一重要性分数;由于第一位置关系信息是掌纹线特征所对应的掌纹区域图像和相邻掌纹线特征所对应的掌纹区域图像之间的位置关系信息,因此第一位置关系信息能够表征掌纹线特征和相邻掌纹线特征之间的上下文信息,所以,在根据掌纹线特征和第一位置关系信息计算掌纹线特征对应的第一重要性分数时,能够将掌纹线特征与其对应的上下文信息进行结合,使得计算得到的第一重要性分数能够更加准确地表达掌纹线特征较之于相邻掌纹线特征的重要程度。在计算得到各个掌纹线特征对应的第一重要性分数之后,先根据第一重要性分数在所有掌纹线特征中确定多个第一显著线型特征,然后根据多个第一显著线型特征进行掌纹识别得到掌纹识别结果;通过第一重要性分数,可以在所有掌纹线特征中确定出能够更好地对手掌图像进行表达的多个第一显著线型特征,达到提高对手掌图像的特征提取效果的目的,从而可以使得在根据这些第一显著线型特征进行掌纹识别时,能够提高掌纹识别的准确性,进而能够改善掌纹识别的识别效果。
在一实施例中,在根据多个第一显著线型特征进行掌纹识别以得到掌纹识别结果的过程中,可以先根据多个第一显著线型特征进行多次迭代的显著特征提取处理,获取每次进行显著特征提取处理时得到的多个第二显著线型特征,然后将第一显著线型特征和所有第二显著线型特征进行特征融合,得到掌纹融合特征,接着根据掌纹融合特征进行掌纹识别,得到掌纹识别结果。在本实施例中,根据掌纹融合特征进行掌纹识别的过程,可以参考前面步骤350的相关描述,此处不再赘述。
在一实施例中,在得到多个第一显著线型特征之后,可以将这些第一显著线型特征作为基础进行多次迭代的显著特征提取处理,然后获取每次进行显著特征提取处理时得到的多个第二显著线型特征。其中,将这些第一显著线型特征作为基础进行多次迭代的显著特征提取处理,是指先对这些第一显著线型特征进行第一次显著特征提取处理,得到该第一次显著特征提取处理输出的多个第二显著线型特征,然后对这些第一次显著特征提取处理输出的第二显著线型特征进行第二次显著特征提取处理,得到该第二次显著特征提取处理输出的多个第二显著线型特征,接着对这些第二次显著特征提取处理输出的第二显著线型特征进行第三次显著特征提取处理,得到该第三次显著特征提取处理输出的多个第二显著线型特征,如此不断迭代,直到进行的显著特征提取处理的次数达到预设次数。需要说明的是,预设次数可以根据实际应用情况而进行适当的选择,例如预设次数可以是3次、5次或7次等,此处不作具体限定。通过根据这些第一显著线型特征进行多次迭代的显著特征提取处理,可以在这些第一显著线型特征的基础上进行更为准确的第二显著线型特征的提取,不仅可以使得得到的第二显著线型特征能够与手掌的掌纹特征具有更好的适配度,并且可以使得得到的第二显著线型特征能够更为准确地对手掌的掌纹特征进行表达,从而能够改善对手掌的掌纹特征的提取效果。
在一实施例中,每次进行的显著特征提取处理,均可以包括以下步骤:
获取多个目标图像特征,其中,目标图像特征为第一显著线型特征,或者为前一次进行显著特征提取处理时得到的第二显著线型特征;
对于每个目标图像特征,获取目标图像特征所对应的掌纹区域图像相对于目标图像特征的相邻图像特征所对应的掌纹区域图像之间的第二位置关系信息,并根据目标图像特征和第二位置关系信息,计算得到目标图像特征对应的第二重要性分数;
根据第二重要性分数,在所有目标图像特征中确定多个第二显著线型特征。
其中,在进行第一次显著特征提取处理时,获取多个目标图像特征,是指获取多个第一显著线型特征;在进行非第一次显著特征提取处理时,获取多个目标图像特征,是指获取前一次进行显著特征提取处理时得到的多个第二显著线型特征。因此,多次进行的显著特征提取处理,是多次迭代的显著特征提取处理,可以使得得到的第二显著线型特征能够更为准确地对手掌的掌纹特征进行表达。另外,根据显著特征提取处理所包含的步骤可知,前面所描述的步骤330至步骤340,实际上就是显著特征提取处理的内容,因此,获取目标图像特征所对应的掌纹区域图像相对于目标图像特征的相邻图像特征所对应的掌纹区域图像之间的第二位置关系信息的过程、根据目标图像特征和第二位置关系信息计算得到目标图像特征对应的第二重要性分数的过程、根据第二重要性分数在所有目标图像特征中确定多个第二显著线型特征的过程,均可以参考前面实施例的相关描述,此处不再赘述。
在一实施例中,在获取到每次进行显著特征提取处理时得到的多个第二显著线型特征之后,可以将这些第二显著线型特征进行拼接,得到显著线型特征矩阵,然后将该显著线型特征矩阵作为下一次进行显著特征提取处理的输入参数。其中,在将这些第二显著线型特征进行拼接以得到显著线型特征矩阵时,可以按照特征位置的先后顺序将这些第二显著线型特征进行拼接,也可以将这些第二显著线型特征进行随机拼接,此处不作具体限定。
在一实施例中,在获取到每次进行显著特征提取处理时得到的多个第二显著线型特征之后,可以将这些第二显著线型特征和第一显著线型特征进行特征融合,得到掌纹融合特征,从而可以通过掌纹融合特征提高对手掌图像的掌纹特征的表达准确性,进而可以提高对手掌图像的识别准确性,改善掌纹识别的识别效果。
在一实施例中,在将第一显著线型特征和所有第二显著线型特征进行特征融合以得到掌纹融合特征时,可以将第一显著线型特征和每次进行显著特征提取处理时得到的第二显著线型特征进行拼接,从而得到掌纹融合特征。其中,为了保证第一显著线型特征和各次进行显著特征提取处理所得到的第二显著线型特征的顺序信息,可以按照进行显著特征提取处理的先后顺序,将第一显著线型特征和各次进行显著特征提取处理时得到的第二显著线型特征进行拼接。例如,假设一共进行了3次显著特征提取处理,其中第一次显著特征提取处理得到的第二显著线型特征为特征矩阵feature_stage1,第二次显著特征提取处理得到的第二显著线型特征为特征矩阵feature_stage2,第三次显著特征提取处理得到的第二显著线型特征为特征矩阵feature_stage3,第一显著线型特征为特征矩阵feature_stage0,那么可以得到掌纹融合特征为Feature=concat(feature_stage0,feature_stage1,feature_stage2,feature_stage3)。
在一实施例中,本申请实施例提供的掌纹识别方法可以应用在移动支付、身份核验等应用场景,以移动支付场景为例,该掌纹识别方法可用于在移动支付场景下的身份识别,该身份识别的整体流程可以参照图10所示。在图10中,先通过终端支付设备采集用户的手部图像,然后采用检测模型对手部图像进行指缝关键点检测,在检测到用户手部的三个指缝关键点之后,基于检测出的三个指缝关键点在手部图像中提取出手掌图像,然后调用识别模型对手掌图像进行特征提取得到掌纹特征向量,其中,在调用识别模型对手掌图像进行特征提取得到掌纹特征向量的过程中,先将手掌图像分割成多个互不重叠的掌纹区域图像,并对这些掌纹区域图像进行线型特征提取得到多个掌纹线特征,然后调用多尺度线型模型对这些掌纹线特征进行多次迭代的显著特征提取处理,获取每次进行显著特征提取处理时得到的多个显著线型特征,并将所有显著线型特征进行特征融合,得到掌纹融合特征,接着调用掌纹识别模型对掌纹融合特征进行特征向量化,得到掌纹特征向量,在得到掌纹特征向量之后,计算掌纹特征向量与底库特征向量(即候选用户的候选对象特征向量)之间的特征相似度(例如余弦相似度等),例如,可以采用如下公式(4)计算掌纹特征向量与底库特征向量之间的特征相似度:
在公式(4)中,表示底库特征向量,/>表示掌纹特征向量,/>表示计算/>和/>之间的余弦相似度。
在计算得到掌纹特征向量与底库特征向量之间的特征相似度之后,再将特征相似度最高的候选用户的身份标识(ID)作为掌纹识别结果,然后将得到的掌纹识别结果返回至终端支付设备,使得终端支付设备能够根据该掌纹识别结果进行支付操作。
在一实施例中,如图11所示,在调用识别模型对手掌图像进行特征提取得到掌纹特征向量的过程中,可以基于手掌图像进行三次迭代的显著特征提取处理。具体地,在调用识别模型对手掌图像进行特征提取时,可以先将手掌图像分割成多个互不重叠的掌纹区域图像,并对这些掌纹区域图像进行线型特征提取得到多个掌纹线特征,然后,对这些掌纹线特征进行第一次显著特征提取处理,在对这些掌纹线特征进行第一次显著特征提取处理时,先计算各个掌纹线特征的局部注意力参数,并根据各个掌纹线特征的局部注意力参数,对各个掌纹线特征进行特征调整,得到各个掌纹线特征的局部注意力特征,然后计算各个局部注意力特征对应的重要性分数,并将数值从大到小排列靠前的K(K大于或等于1)个重要性分数所对应的局部注意力特征,确定为进行第一次显著特征提取处理时所得到的多个显著线型特征;接着,对得到的这些显著线型特征进行拼接,并对拼接后的这些显著线型特征进行第二次显著特征提取处理,在对这些显著线型特征进行第二次显著特征提取处理时,先计算各个显著线型特征的局部注意力参数,并根据各个显著线型特征的局部注意力参数,对各个显著线型特征进行特征调整,得到各个显著线型特征的局部注意力特征,然后计算各个局部注意力特征对应的重要性分数,并将数值从大到小排列靠前的K(K大于或等于1)个重要性分数所对应的局部注意力特征,确定为进行第二次显著特征提取处理时所得到的多个显著线型特征;此时,对得到的这些显著线型特征进行拼接,并对拼接后的这些显著线型特征进行第三次显著特征提取处理,在对这些显著线型特征进行第三次显著特征提取处理时,先计算各个显著线型特征的局部注意力参数,并根据各个显著线型特征的局部注意力参数,对各个显著线型特征进行特征调整,得到各个显著线型特征的局部注意力特征,然后计算各个局部注意力特征对应的重要性分数,并将数值从大到小排列靠前的K(K大于或等于1)个重要性分数所对应的局部注意力特征,确定为进行第三次显著特征提取处理时所得到的多个显著线型特征;在得到每次进行显著特征提取处理时得到的多个显著线型特征之后,将每次进行显著特征提取处理时得到的多个显著线型特征进行特征融合,得到掌纹融合特征,然后调用掌纹识别模型中的特征向量化模型对掌纹融合特征进行特征向量化,得到掌纹特征向量,接着将掌纹特征向量输入到掌纹识别模型中的特征识别模型,使得掌纹识别模型中的特征识别模型能够计算掌纹特征向量与底库特征向量之间的特征相似度,从而能够根据特征相似度得到掌纹识别结果。
在一实施例中,本申请实施例提供的掌纹识别方法还可以针对高相似度的掌纹进行识别。如表1所示,使用四十对双胞胎的高清和模糊掌纹图像作为高相似掌纹图像进行测试。将同一对双胞胎的左手/右手作为一个样本对,总共包含3600个样本对,在高清图像上,相关技术中的Arcface方法(一种对象识别方法)存在37对识别错误的样本,本申请实施例提供的掌纹识别方法则没有识别错误的样本;而在模糊图像上,Arcface方法存在46对识别错误的样本,而本申请实施例提供的掌纹识别方法则没有识别错误的样本。
表1
根据上述表1中的内容可知,本申请实施例提供的掌纹识别方法通过进行多次迭代的显著特征提取处理,不仅可以实现更为准确的显著线型特征的提取,使得得到的显著线型特征能够与手掌的掌纹特征具有更好的适配度,还可以使得得到的显著线型特征能够更为准确地对手掌的掌纹特征进行表达,从而能够提升对高相似掌纹的识别有效性,进而能够提高掌纹识别的准确性。
下面以具体的例子对本申请实施例所提供的掌纹识别方法进行详细的说明。
参照图12所示,图12是一个具体例子提供的掌纹识别方法的具体流程图。在图12中,该掌纹识别方法可以包括以下步骤1201至步骤1216。
步骤1201:获取手掌图像,将手掌图像分割成多个互不重叠的掌纹区域图像。
在一实施例中,在将手掌图像分割成多个互不重叠的掌纹区域图像时,可以先对手掌图像进行尺寸调整,再将尺寸调整后的手掌图像分割成多个互不重叠的掌纹区域图像。例如,在一实施例中,可以先将手掌图像的尺寸调整为224*224,然后将尺寸调整后的手掌图像等分为28*28个掌纹区域图像,这28*28个掌纹区域图像可以构成掌纹区域图像矩阵,并且每个掌纹区域图像的尺寸均为8*8。
步骤1202:对多个掌纹区域图像进行线型特征提取得到多个掌纹线特征。
步骤1203:获取多个目标图像特征。
需要说明的是,当第一次执行步骤1203时,目标图像特征为步骤1202中得到的掌纹线特征;当并非是第一次执行步骤1203时,目标图像特征为步骤1214中得到的显著线型特征。
步骤1204:获取各个目标图像特征所对应的掌纹区域图像的第一坐标,以及各个目标图像特征的相邻图像特征所对应的掌纹区域图像的第二坐标。
需要说明的是,相邻图像特征即是前面实施例中所描述的相邻掌纹线特征。
步骤1205:计算各个目标图像特征所对应的第一坐标和第二坐标之间的坐标偏移量。
步骤1206:对各个目标图像特征所对应的坐标偏移量进行位置编码投影,得到各个目标图像特征对应的位置编码向量。
步骤1207:计算各个目标图像特征对应的查询特征和键特征。
步骤1208:根据各个目标图像特征对应的查询特征、键特征和位置编码向量,计算得到各个目标图像特征的局部注意力参数。
步骤1209:根据各个目标图像特征的局部注意力参数,对各个目标图像特征进行加权计算或者求和计算,得到各个目标图像特征的局部注意力特征。
步骤1210:确定各个局部注意力特征所对应的位置编码向量。
步骤1211:将各个局部注意力特征映射到重要性分数维度,得到各个局部注意力特征对应的重要性分数特征。
步骤1212:根据各个局部注意力特征对应的重要性分数特征和位置编码向量,计算得到各个局部注意力特征对应的重要性分数。
步骤1213:在所有重要性分数中,确定符合预设条件的多个目标分数。
步骤1214:在所有局部注意力特征中,将多个目标分数所对应的多个局部注意力特征,确定为多个显著线型特征,然后执行步骤1203,直到执行步骤1214的次数达到预设次数阈值。
步骤1215:将所有显著线型特征进行特征融合,得到掌纹融合特征。
步骤1216:根据掌纹融合特征进行掌纹识别,得到掌纹识别结果。
本实施例中,通过上述步骤1201至步骤1216的掌纹识别方法,在获取到手掌图像之后,先将手掌图像分割成多个互不重叠的掌纹区域图像,并对多个掌纹区域图像进行线型特征提取得到多个掌纹线特征,通过对手掌图像进行多个互不重叠的掌纹区域图像的分割,可以将整个手掌的大范围纹路区域分割成多个小范围的掌纹线区域,从而在对这些掌纹区域图像进行线型特征提取时,可以提高对这些掌纹区域图像的掌纹线特征的提取效率;另外,由于手掌掌纹由掌纹线构成,而分割得到的多个掌纹区域图像的图像内容能够以掌纹线为主,因此在对这些掌纹区域图像进行线型特征提取时,还可以提高对这些掌纹区域图像的掌纹线特征的提取准确性。在得到多个掌纹线特征之后,根据这些掌纹线特征进行多次迭代的显著特征提取处理,并获取每次进行显著特征提取处理时得到的多个显著线型特征,通过根据这些掌纹线特征进行多次迭代的显著特征提取处理,可以在这些掌纹线特征的基础上进行更为准确的显著线型特征的提取,不仅可以使得得到的显著线型特征能够与手掌的掌纹特征具有更好的适配度,并且可以使得得到的显著线型特征能够更为准确地对手掌的掌纹特征进行表达,从而能够改善对手掌的掌纹特征的提取效果。在得到每次进行显著特征提取处理时得到的多个显著线型特征之后,将所有显著线型特征进行特征融合得到掌纹融合特征,然后根据掌纹融合特征进行掌纹识别得到掌纹识别结果,通过对所有显著线型特征进行特征融合得到掌纹融合特征,可以进一步提高掌纹融合特征对手掌的掌纹特征的表达准确性,因此在根据掌纹融合特征进行掌纹识别时,能够提高掌纹识别的准确性,从而能够改善掌纹识别的识别效果。
下面以一些实际例子说明本申请实施例的应用场景。
需要说明的是,本申请实施例提供的掌纹识别方法可应用于交易支付场景、门禁场景或车载场景等不同的应用场景,下面以交易支付场景、门禁场景和车载场景为例进行说明。
场景一
本申请实施例提供的掌纹识别方法可以应用于交易支付场景,例如,当消费者通过智能手机或者收银台等终端进行掌纹扫描支付时,响应于扫描到消费者的手掌图像,智能手机或者收银台等终端将消费者的手掌图像发送给服务器,响应于接收到消费者的手掌图像,服务器先将手掌图像分割成多个互不重叠的掌纹区域图像,并对多个掌纹区域图像进行线型特征提取得到多个掌纹线特征,然后,对于每个掌纹线特征,获取掌纹线特征所对应的掌纹区域图像相对于掌纹线特征的相邻掌纹线特征所对应的掌纹区域图像之间的第一位置关系信息,并根据掌纹线特征和第一位置关系信息,计算得到掌纹线特征对应的第一重要性分数;在计算得到各个掌纹线特征对应的第一重要性分数之后,服务器根据这些第一重要性分数在所有掌纹线特征中确定多个第一显著线型特征,然后根据这些第一显著线型特征进行掌纹识别,得到掌纹识别结果,接着将掌纹识别结果发送给智能手机或者收银台等终端,此时,智能手机或者收银台等终端根据掌纹识别结果完成支付操作。
场景二
本申请实施例提供的掌纹识别方法也可以应用于门禁场景,例如,当住户通过门禁终端请求开门时,响应于扫描到住户的手掌图像,门禁终端将住户的手掌图像发送给服务器,响应于接收到住户的手掌图像,服务器先将手掌图像分割成多个互不重叠的掌纹区域图像,并对多个掌纹区域图像进行线型特征提取得到多个掌纹线特征,然后,对于每个掌纹线特征,获取掌纹线特征所对应的掌纹区域图像相对于掌纹线特征的相邻掌纹线特征所对应的掌纹区域图像之间的第一位置关系信息,并根据掌纹线特征和第一位置关系信息,计算得到掌纹线特征对应的第一重要性分数;在计算得到各个掌纹线特征对应的第一重要性分数之后,服务器根据这些第一重要性分数在所有掌纹线特征中确定多个第一显著线型特征,然后根据这些第一显著线型特征进行掌纹识别,得到掌纹识别结果,接着将掌纹识别结果发送给门禁终端,此时,门禁终端根据掌纹识别结果打开门禁。
场景三
本申请实施例提供的掌纹识别方法还可以应用于车载场景,例如,当驾驶员通过车载终端请求启动车辆时,响应于扫描到驾驶员的手掌图像,车载终端将驾驶员的手掌图像发送给服务器,响应于接收到驾驶员的手掌图像,服务器先将手掌图像分割成多个互不重叠的掌纹区域图像,并对多个掌纹区域图像进行线型特征提取得到多个掌纹线特征,然后,对于每个掌纹线特征,获取掌纹线特征所对应的掌纹区域图像相对于掌纹线特征的相邻掌纹线特征所对应的掌纹区域图像之间的第一位置关系信息,并根据掌纹线特征和第一位置关系信息,计算得到掌纹线特征对应的第一重要性分数;在计算得到各个掌纹线特征对应的第一重要性分数之后,服务器根据这些第一重要性分数在所有掌纹线特征中确定多个第一显著线型特征,然后根据这些第一显著线型特征进行掌纹识别,得到掌纹识别结果,接着将掌纹识别结果发送给车载终端,此时,车载终端根据掌纹识别结果启动车辆。
可以理解的是,虽然上述各个流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本实施例中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,上述流程图中的至少一部分步骤可以包括多个步骤或者多个阶段,这些步骤或者阶段并不必然是在同一时间执行完成,而是可以在不同的时间执行,这些步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤中的步骤或者阶段的至少一部分轮流或者交替地执行。
参照图13,本申请实施例还公开了一种掌纹识别装置,该掌纹识别装置1300能够实现前面实施例中的掌纹识别方法,该掌纹识别装置1300包括:
图像分割单元1310,用于获取手掌图像,将手掌图像分割成多个互不重叠的掌纹区域图像;
特征提取单元1320,用于对多个掌纹区域图像进行线型特征提取得到多个掌纹线特征;
分数计算单元1330,用于对于每个掌纹线特征,获取掌纹线特征所对应的掌纹区域图像相对于掌纹线特征的相邻掌纹线特征所对应的掌纹区域图像之间的第一位置关系信息,并根据掌纹线特征和第一位置关系信息,计算得到掌纹线特征对应的第一重要性分数;
特征确定单元1340,用于根据第一重要性分数,在所有掌纹线特征中确定多个第一显著线型特征;
掌纹识别单元1350,用于根据多个第一显著线型特征进行掌纹识别,得到掌纹识别结果。
在一实施例中,分数计算单元1330还用于:
根据掌纹线特征和第一位置关系信息,计算得到掌纹线特征对应的局部注意力特征;
根据局部注意力特征和第一位置关系信息,计算得到掌纹线特征对应的第一重要性分数。
在一实施例中,分数计算单元1330还用于:
将局部注意力特征映射到重要性分数维度,得到掌纹线特征对应的重要性分数特征;
根据重要性分数特征和第一位置关系信息,计算得到掌纹线特征对应的第一重要性分数。
在一实施例中,相邻掌纹线特征的数量为多个;分数计算单元1330还用于:
根据重要性分数特征和多个相邻掌纹线特征对应的第一位置关系信息进行相乘累加计算,得到掌纹线特征对应的第一重要性分数。
在一实施例中,分数计算单元1330还用于:
根据掌纹线特征和第一位置关系信息进行局部注意力计算,得到掌纹线特征对应的局部注意力参数;
根据掌纹线特征和局部注意力参数,计算得到掌纹线特征对应的局部注意力特征。
在一实施例中,分数计算单元1330还用于:
根据掌纹线特征计算得到掌纹线特征对应的查询特征和键特征;
根据查询特征、键特征和第一位置关系信息,计算得到掌纹线特征对应的局部注意力参数。
在一实施例中,分数计算单元1330还用于:
根据局部注意力参数对掌纹线特征进行加权计算或者求和计算,得到掌纹线特征对应的局部注意力特征。
在一实施例中,分数计算单元1330还用于:
获取掌纹线特征所对应的掌纹区域图像在手掌图像中的第一坐标,以及掌纹线特征的相邻掌纹线特征所对应的掌纹区域图像在手掌图像中的第二坐标;
根据第一坐标和第二坐标,计算得到掌纹线特征对应的位置编码向量;
将位置编码向量作为掌纹线特征所对应的掌纹区域图像相对于掌纹线特征的相邻掌纹线特征所对应的掌纹区域图像之间的第一位置关系信息。
在一实施例中,分数计算单元1330还用于:
计算第一坐标和第二坐标之间的坐标偏移量;
对坐标偏移量进行位置编码投影,得到掌纹线特征对应的位置编码向量。
在一实施例中,掌纹识别单元1350还用于:
根据多个第一显著线型特征进行多次迭代的显著特征提取处理,获取每次进行显著特征提取处理时得到的多个第二显著线型特征;
将第一显著线型特征和所有第二显著线型特征进行特征融合,得到掌纹融合特征;
根据掌纹融合特征进行掌纹识别,得到掌纹识别结果。
在一实施例中,掌纹识别单元1350还用于:
获取多个目标图像特征,其中,目标图像特征为第一显著线型特征,或者为前一次进行显著特征提取处理时得到的第二显著线型特征;
对于每个目标图像特征,获取目标图像特征所对应的掌纹区域图像相对于目标图像特征的相邻图像特征所对应的掌纹区域图像之间的第二位置关系信息,并根据目标图像特征和第二位置关系信息,计算得到目标图像特征对应的第二重要性分数;
根据第二重要性分数,在所有目标图像特征中确定多个第二显著线型特征。
需要说明的是,由于本实施例的掌纹识别装置1300能够实现如前面实施例的掌纹识别方法,因此本实施例的掌纹识别装置1300与前面实施例的掌纹识别方法,具有相同的技术原理以及相同的有益效果,为了避免内容重复,此处不再赘述。
参照图14,本申请实施例还公开了一种掌纹识别装置,该掌纹识别装置1400包括:
至少一个处理器1401;
至少一个存储器1402,用于存储至少一个程序;
当至少一个程序被至少一个处理器1401执行时,实现如前面的掌纹识别方法。
本申请实施例还公开了一种计算机可读存储介质,其中存储有处理器可执行的计算机程序,处理器可执行的计算机程序被处理器执行时,用于实现如前面的掌纹识别方法。
本申请实施例还公开了一种计算机程序产品,包括计算机程序或计算机指令,计算机程序或计算机指令存储在计算机可读存储介质中,掌纹识别装置的处理器从计算机可读存储介质读取计算机程序或计算机指令,处理器执行计算机程序或计算机指令,使得掌纹识别装置执行如前面的掌纹识别方法。
本申请的说明书及上述附图中的术语“第一”、“第二”、“第三”、“第四”等(如果存在)是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请的实施例例如能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或装置不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或装置固有的其他步骤或单元。
应当理解,在本申请中,“至少一个(项)”是指一个或者多个,“多个”是指两个或两个以上。“和/或”,用于描述关联对象的关联关系,表示可以存在三种关系,例如,“A和/或B”可以表示:只存在A,只存在B以及同时存在A和B三种情况,其中A,B可以是单数或者复数。字符“/”一般表示前后关联对象是一种“或”的关系。“以下至少一项(个)”或其类似表达,是指这些项中的任意组合,包括单项(个)或复数项(个)的任意组合。例如,a,b或c中的至少一项(个),可以表示:a,b,c,“a和b”,“a和c”,“b和c”,或“a和b和c”,其中a,b,c可以是单个,也可以是多个。
在本申请所提供的几个实施例中,应该理解到,所揭露的系统、装置和方法,可以通过其他的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口、装置或单元的间接耦合或通信连接,可以是电性、机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机装置(可以是个人计算机、服务器或者网络装置等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read-Only Memory,简称ROM)、随机存取存储器(Random Access Memory,简称RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
对于上述方法实施例中的步骤编号,仅为了便于阐述说明而设置,对步骤之间的顺序不做任何限定,实施例中各步骤的执行顺序均可根据本领域技术人员的理解来进行适应性调整。
Claims (14)
1.一种掌纹识别方法,其特征在于,包括以下步骤:
获取手掌图像,将所述手掌图像分割成多个互不重叠的掌纹区域图像;
对多个所述掌纹区域图像进行线型特征提取得到多个掌纹线特征;
对于每个所述掌纹线特征,获取所述掌纹线特征所对应的所述掌纹区域图像相对于所述掌纹线特征的相邻掌纹线特征所对应的所述掌纹区域图像之间的第一位置关系信息,并根据所述掌纹线特征和所述第一位置关系信息,计算得到所述掌纹线特征对应的第一重要性分数;
根据所述第一重要性分数,在所有所述掌纹线特征中确定多个第一显著线型特征;
根据多个所述第一显著线型特征进行掌纹识别,得到掌纹识别结果。
2.根据权利要求1所述的方法,其特征在于,所述根据所述掌纹线特征和所述第一位置关系信息,计算得到所述掌纹线特征对应的第一重要性分数,包括:
根据所述掌纹线特征和所述第一位置关系信息,计算得到所述掌纹线特征对应的局部注意力特征;
根据所述局部注意力特征和所述第一位置关系信息,计算得到所述掌纹线特征对应的第一重要性分数。
3.根据权利要求2所述的方法,其特征在于,所述根据所述局部注意力特征和所述第一位置关系信息,计算得到所述掌纹线特征对应的第一重要性分数,包括:
将所述局部注意力特征映射到重要性分数维度,得到所述掌纹线特征对应的重要性分数特征;
根据所述重要性分数特征和所述第一位置关系信息,计算得到所述掌纹线特征对应的第一重要性分数。
4.根据权利要求3所述的方法,其特征在于,所述相邻掌纹线特征的数量为多个;所述根据所述重要性分数特征和所述第一位置关系信息,计算得到所述掌纹线特征对应的第一重要性分数,包括:
根据所述重要性分数特征和多个所述相邻掌纹线特征对应的所述第一位置关系信息进行相乘累加计算,得到所述掌纹线特征对应的第一重要性分数。
5.根据权利要求2所述的方法,其特征在于,所述根据所述掌纹线特征和所述第一位置关系信息,计算得到所述掌纹线特征对应的局部注意力特征,包括:
根据所述掌纹线特征和所述第一位置关系信息进行局部注意力计算,得到所述掌纹线特征对应的局部注意力参数;
根据所述掌纹线特征和所述局部注意力参数,计算得到所述掌纹线特征对应的局部注意力特征。
6.根据权利要求5所述的方法,其特征在于,所述根据所述掌纹线特征和所述第一位置关系信息进行局部注意力计算,得到所述掌纹线特征对应的局部注意力参数,包括:
根据所述掌纹线特征计算得到所述掌纹线特征对应的查询特征和键特征;
根据所述查询特征、所述键特征和所述第一位置关系信息,计算得到所述掌纹线特征对应的局部注意力参数。
7.根据权利要求5所述的方法,其特征在于,所述根据所述掌纹线特征和所述局部注意力参数,计算得到所述掌纹线特征对应的局部注意力特征,包括:
根据所述局部注意力参数对所述掌纹线特征进行加权计算或者求和计算,得到所述掌纹线特征对应的局部注意力特征。
8.根据权利要求1至7任意一项所述的方法,其特征在于,所述获取所述掌纹线特征所对应的所述掌纹区域图像相对于所述掌纹线特征的相邻掌纹线特征所对应的所述掌纹区域图像之间的第一位置关系信息,包括:
获取所述掌纹线特征所对应的所述掌纹区域图像在所述手掌图像中的第一坐标,以及所述掌纹线特征的相邻掌纹线特征所对应的所述掌纹区域图像在所述手掌图像中的第二坐标;
根据所述第一坐标和所述第二坐标,计算得到所述掌纹线特征对应的位置编码向量;
将所述位置编码向量作为所述掌纹线特征所对应的所述掌纹区域图像相对于所述掌纹线特征的相邻掌纹线特征所对应的所述掌纹区域图像之间的第一位置关系信息。
9.根据权利要求8所述的方法,其特征在于,所述根据所述第一坐标和所述第二坐标,计算得到所述掌纹线特征对应的位置编码向量,包括:
计算所述第一坐标和所述第二坐标之间的坐标偏移量;
对所述坐标偏移量进行位置编码投影,得到所述掌纹线特征对应的位置编码向量。
10.根据权利要求1所述的方法,其特征在于,所述根据多个所述第一显著线型特征进行掌纹识别,得到掌纹识别结果,包括:
根据多个所述第一显著线型特征进行多次迭代的显著特征提取处理,获取每次进行所述显著特征提取处理时得到的多个第二显著线型特征;
将所述第一显著线型特征和所有所述第二显著线型特征进行特征融合,得到掌纹融合特征;
根据所述掌纹融合特征进行掌纹识别,得到掌纹识别结果。
11.根据权利要求10所述的方法,其特征在于,每次进行的所述显著特征提取处理,均包括以下步骤:
获取多个目标图像特征,其中,所述目标图像特征为所述第一显著线型特征,或者为前一次进行所述显著特征提取处理时得到的第二显著线型特征;
对于每个所述目标图像特征,获取所述目标图像特征所对应的所述掌纹区域图像相对于所述目标图像特征的相邻图像特征所对应的所述掌纹区域图像之间的第二位置关系信息,并根据所述目标图像特征和所述第二位置关系信息,计算得到所述目标图像特征对应的第二重要性分数;
根据所述第二重要性分数,在所有所述目标图像特征中确定多个第二显著线型特征。
12.一种掌纹识别装置,其特征在于,包括:
图像分割单元,用于获取手掌图像,将所述手掌图像分割成多个互不重叠的掌纹区域图像;
特征提取单元,用于对多个所述掌纹区域图像进行线型特征提取得到多个掌纹线特征;
分数计算单元,用于对于每个所述掌纹线特征,获取所述掌纹线特征所对应的所述掌纹区域图像相对于所述掌纹线特征的相邻掌纹线特征所对应的所述掌纹区域图像之间的第一位置关系信息,并根据所述掌纹线特征和所述第一位置关系信息,计算得到所述掌纹线特征对应的第一重要性分数;
特征确定单元,用于根据所述第一重要性分数,在所有所述掌纹线特征中确定多个第一显著线型特征;
掌纹识别单元,用于根据多个所述第一显著线型特征进行掌纹识别,得到掌纹识别结果。
13.一种掌纹识别装置,其特征在于,包括:
至少一个处理器;
至少一个存储器,用于存储至少一个程序;
当至少一个所述程序被至少一个所述处理器执行时实现如权利要求1至11任意一项所述的掌纹识别方法。
14.一种计算机可读存储介质,其特征在于,其中存储有处理器可执行的计算机程序,所述处理器可执行的计算机程序被处理器执行时用于实现如权利要求1至11任意一项所述的掌纹识别方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311314425.5A CN117058723B (zh) | 2023-10-11 | 2023-10-11 | 掌纹识别方法、装置及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311314425.5A CN117058723B (zh) | 2023-10-11 | 2023-10-11 | 掌纹识别方法、装置及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117058723A true CN117058723A (zh) | 2023-11-14 |
CN117058723B CN117058723B (zh) | 2024-01-19 |
Family
ID=88669643
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311314425.5A Active CN117058723B (zh) | 2023-10-11 | 2023-10-11 | 掌纹识别方法、装置及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117058723B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117350737A (zh) * | 2023-11-29 | 2024-01-05 | 深圳市盛思达通讯技术有限公司 | 一种基于掌纹识别的支付方法及系统 |
Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2004111919A1 (en) * | 2003-06-12 | 2004-12-23 | The Hong Kong Polytechnic University | Method of palm print identification |
US20040264742A1 (en) * | 2002-09-25 | 2004-12-30 | Zhang Dapeng David | Method of palm print identification |
CN101055618A (zh) * | 2007-06-21 | 2007-10-17 | 中国科学院合肥物质科学研究院 | 基于方向特征的掌纹识别方法 |
CN102254188A (zh) * | 2011-08-04 | 2011-11-23 | 汉王科技股份有限公司 | 掌纹识别方法及装置 |
WO2013073622A1 (ja) * | 2011-11-18 | 2013-05-23 | 日本電気株式会社 | 局所特徴量抽出装置、局所特徴量抽出方法、及びプログラム |
CN105046205A (zh) * | 2015-06-24 | 2015-11-11 | 西安理工大学 | 一种基于局部和全局特征融合的掌纹识别方法 |
CN105335853A (zh) * | 2015-10-26 | 2016-02-17 | 惠州Tcl移动通信有限公司 | 一种基于掌纹识别的移动终端支付方法、系统及移动终端 |
CN109543701A (zh) * | 2018-11-30 | 2019-03-29 | 长沙理工大学 | 视觉显著性区域检测方法及装置 |
CN109871779A (zh) * | 2019-01-23 | 2019-06-11 | 北京细推科技有限公司 | 掌纹识别的方法及电子设备 |
CN111047579A (zh) * | 2019-12-13 | 2020-04-21 | 中南大学 | 一种特征质量评估方法及图像特征均匀提取方法 |
CN112149459A (zh) * | 2019-06-27 | 2020-12-29 | 哈尔滨工业大学(深圳) | 一种基于交叉注意力机制的视频显著性物体检测模型及系统 |
CN112464865A (zh) * | 2020-12-08 | 2021-03-09 | 北京理工大学 | 一种基于像素和几何混合特征的人脸表情识别方法 |
CN113826119A (zh) * | 2019-05-23 | 2021-12-21 | 谷歌有限责任公司 | 纯注意力的计算机视觉 |
CN115830652A (zh) * | 2023-01-11 | 2023-03-21 | 山西清众科技股份有限公司 | 一种深度掌纹识别装置及方法 |
-
2023
- 2023-10-11 CN CN202311314425.5A patent/CN117058723B/zh active Active
Patent Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040264742A1 (en) * | 2002-09-25 | 2004-12-30 | Zhang Dapeng David | Method of palm print identification |
WO2004111919A1 (en) * | 2003-06-12 | 2004-12-23 | The Hong Kong Polytechnic University | Method of palm print identification |
CN101055618A (zh) * | 2007-06-21 | 2007-10-17 | 中国科学院合肥物质科学研究院 | 基于方向特征的掌纹识别方法 |
CN102254188A (zh) * | 2011-08-04 | 2011-11-23 | 汉王科技股份有限公司 | 掌纹识别方法及装置 |
WO2013073622A1 (ja) * | 2011-11-18 | 2013-05-23 | 日本電気株式会社 | 局所特徴量抽出装置、局所特徴量抽出方法、及びプログラム |
US20140328543A1 (en) * | 2011-11-18 | 2014-11-06 | Nec Corporation | Local feature descriptor extracting apparatus, local feature descriptor extracting method, and program |
CN105046205A (zh) * | 2015-06-24 | 2015-11-11 | 西安理工大学 | 一种基于局部和全局特征融合的掌纹识别方法 |
CN105335853A (zh) * | 2015-10-26 | 2016-02-17 | 惠州Tcl移动通信有限公司 | 一种基于掌纹识别的移动终端支付方法、系统及移动终端 |
CN109543701A (zh) * | 2018-11-30 | 2019-03-29 | 长沙理工大学 | 视觉显著性区域检测方法及装置 |
CN109871779A (zh) * | 2019-01-23 | 2019-06-11 | 北京细推科技有限公司 | 掌纹识别的方法及电子设备 |
CN113826119A (zh) * | 2019-05-23 | 2021-12-21 | 谷歌有限责任公司 | 纯注意力的计算机视觉 |
CN112149459A (zh) * | 2019-06-27 | 2020-12-29 | 哈尔滨工业大学(深圳) | 一种基于交叉注意力机制的视频显著性物体检测模型及系统 |
CN111047579A (zh) * | 2019-12-13 | 2020-04-21 | 中南大学 | 一种特征质量评估方法及图像特征均匀提取方法 |
CN112464865A (zh) * | 2020-12-08 | 2021-03-09 | 北京理工大学 | 一种基于像素和几何混合特征的人脸表情识别方法 |
CN115830652A (zh) * | 2023-01-11 | 2023-03-21 | 山西清众科技股份有限公司 | 一种深度掌纹识别装置及方法 |
Non-Patent Citations (1)
Title |
---|
张建新 等: "基于Log-Gabor小波相位一致的掌纹线特征提取", 光电子.激光, no. 05, pages 704 - 707 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117350737A (zh) * | 2023-11-29 | 2024-01-05 | 深圳市盛思达通讯技术有限公司 | 一种基于掌纹识别的支付方法及系统 |
CN117350737B (zh) * | 2023-11-29 | 2024-05-14 | 深圳市盛思达通讯技术有限公司 | 一种基于掌纹识别的支付方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN117058723B (zh) | 2024-01-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111709409B (zh) | 人脸活体检测方法、装置、设备及介质 | |
CN110414432B (zh) | 对象识别模型的训练方法、对象识别方法及相应的装置 | |
Azazi et al. | Towards a robust affect recognition: Automatic facial expression recognition in 3D faces | |
CN112132099A (zh) | 身份识别方法、掌纹关键点检测模型训练方法和装置 | |
CN117058723B (zh) | 掌纹识别方法、装置及存储介质 | |
CN111461174A (zh) | 多层次注意力机制的多模态标签推荐模型构建方法及装置 | |
Chen et al. | Multi-SVM based Dempster–Shafer theory for gesture intention understanding using sparse coding feature | |
CN115050064A (zh) | 人脸活体检测方法、装置、设备及介质 | |
CN114005169B (zh) | 人脸关键点检测方法、装置、电子设备及存储介质 | |
CN115147532A (zh) | 一种图像处理方法、装置、设备及存储介质、程序产品 | |
CN116884045B (zh) | 身份识别方法、装置、计算机设备和存储介质 | |
CN113033305B (zh) | 活体检测方法、装置、终端设备和存储介质 | |
Sabeena et al. | Convolutional block attention based network for copy-move image forgery detection | |
Mehta et al. | Deep convolutional neural network-based effective model for 2D ear recognition using data augmentation | |
CN113378609B (zh) | 代理商代签名的识别方法及装置 | |
Saha et al. | Topomorphological approach to automatic posture recognition in ballet dance | |
CN115880702A (zh) | 数据处理方法、装置、设备、程序产品及存储介质 | |
CN117011566A (zh) | 一种目标检测方法、检测模型训练方法、装置及电子设备 | |
CN116563898A (zh) | 基于GhostNet网络的掌静脉图像识别方法、装置、设备及介质 | |
CN113762237A (zh) | 文本图像处理方法、装置、设备及存储介质 | |
CN114373098A (zh) | 一种图像分类方法、装置、计算机设备及存储介质 | |
Yang et al. | A robust scheme for copy detection of 3D object point clouds | |
CN117197843B (zh) | 无监督的人体部件区域确定方法及装置 | |
Dai et al. | Object detection based on visual memory: a feature learning and feature imagination process | |
CN116994297A (zh) | 掌纹图像生成方法、掌纹识别模型训练方法、装置及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |