CN117133021A - 掌部图像的识别方法、装置、设备、存储介质及程序产品 - Google Patents
掌部图像的识别方法、装置、设备、存储介质及程序产品 Download PDFInfo
- Publication number
- CN117133021A CN117133021A CN202210552939.3A CN202210552939A CN117133021A CN 117133021 A CN117133021 A CN 117133021A CN 202210552939 A CN202210552939 A CN 202210552939A CN 117133021 A CN117133021 A CN 117133021A
- Authority
- CN
- China
- Prior art keywords
- palm
- image
- infrared
- color image
- color
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 126
- 238000012545 processing Methods 0.000 claims abstract description 99
- 238000003860 storage Methods 0.000 claims abstract description 39
- 238000004590 computer program Methods 0.000 claims description 22
- 238000003384 imaging method Methods 0.000 claims description 22
- 230000008569 process Effects 0.000 claims description 22
- 238000006243 chemical reaction Methods 0.000 claims description 14
- 101100291369 Mus musculus Mip gene Proteins 0.000 description 583
- 101150116466 PALM gene Proteins 0.000 description 583
- 238000005516 engineering process Methods 0.000 description 39
- 210000003811 finger Anatomy 0.000 description 29
- 238000010586 diagram Methods 0.000 description 14
- 230000002123 temporal effect Effects 0.000 description 12
- 238000004891 communication Methods 0.000 description 10
- 238000013473 artificial intelligence Methods 0.000 description 8
- 230000003993 interaction Effects 0.000 description 6
- 238000012795 verification Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 4
- 238000004080 punching Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 238000011161 development Methods 0.000 description 3
- 238000012546 transfer Methods 0.000 description 3
- 230000010354 integration Effects 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- 230000006855 networking Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 210000004932 little finger Anatomy 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/12—Fingerprints or palmprints
- G06V40/1365—Matching; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q20/00—Payment architectures, schemes or protocols
- G06Q20/38—Payment protocols; Details thereof
- G06Q20/40—Authorisation, e.g. identification of payer or payee, verification of customer or shop credentials; Review and approval of payers, e.g. check credit lines or negative lists
- G06Q20/401—Transaction verification
- G06Q20/4014—Identity check for transactions
- G06Q20/40145—Biometric identity checks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/32—Determination of transform parameters for the alignment of images, i.e. image registration using correlation-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/12—Fingerprints or palmprints
- G06V40/1335—Combining adjacent partial images (e.g. slices) to create a composite input or reference pattern; Tracking a sweeping finger movement
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10048—Infrared image
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Business, Economics & Management (AREA)
- Human Computer Interaction (AREA)
- Accounting & Taxation (AREA)
- Databases & Information Systems (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Computer Security & Cryptography (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Finance (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- Image Analysis (AREA)
Abstract
本申请公开了一种掌部图像的识别方法、装置、设备、存储介质及程序产品,属于计算机技术领域。该方法包括:获取同一掌部图像的彩色图像和红外图像;将彩色图像和红外图像进行对齐处理,得到彩色图像和红外图像之间的对齐关系;对红外图像进行区域识别处理,确定红外图像上的第一掌部区域;基于彩色图像和红外图像之间的对齐关系,在彩色图像上确定与第一掌部区域相对应的第二掌部区域;对红外图像的第一掌部区域和彩色图像的第二掌部区域进行掌部对比识别处理,确定掌部图像对应的目标对象标识。通过上述方法,可辅助彩色图像快速确定掌部区域,使得掌部图像的识别方法可以适应于复杂环境,提高了掌部识别的准确性。
Description
技术领域
本申请实施例涉及计算机技术领域,特别涉及一种掌部图像的识别方法、装置、设备、存储介质及程序产品。
背景技术
随着计算机技术的发展,掌部识别技术应用越来越广泛,可以应用于多种场景下,例如,支付场景或上班打卡场景等,通过掌部识别,可以对用户身份进行验证。
相关技术中,用户在刷掌部时,计算机设备采集掌部图像,计算机设备将掌部图像通过网络传输到掌部识别服务器。掌部识别服务器对掌部图像进行识别,从而完成身份识别。
在“强逆光”、“强侧光”、“较暗”等复杂光照环境的情况下,计算机设备采集的掌部图像质量差,难以确定待识别的掌部区域,导致掌部识别的准确性较低。
发明内容
本申请提供了一种掌部图像的识别方法、装置、设备、存储介质及程序产品,所述技术方案如下:
根据本申请的一方面,提供了一种掌部图像的识别方法,所述方法包括:
获取同一掌部图像的彩色图像和红外图像,所述彩色图像是指彩色相机基于自然光对掌部成像所得到的图像,所述红外图像是指红外相机基于红外光对所述掌部成像所得到的图像;
将所述彩色图像和所述红外图像进行对齐处理,得到所述彩色图像和所述红外图像之间的对齐关系;
对所述红外图像进行区域识别处理,确定所述红外图像上的第一掌部区域;
基于所述彩色图像和所述红外图像之间的对齐关系,在所述彩色图像上确定与所述第一掌部区域相对应的第二掌部区域;
对所述红外图像的所述第一掌部区域和所述彩色图像的所述第二掌部区域进行掌部对比识别处理,确定所述掌部图像对应的目标对象标识。
根据本申请的一方面,提供了一种掌部图像的识别装置,所述装置包括:
获取模块,用于获取同一掌部图像的彩色图像和红外图像,所述彩色图像是指彩色相机基于自然光对掌部成像所得到的图像,所述红外图像是指红外相机基于红外光对所述掌部成像所得到的图像;
对齐模块,用于将所述彩色图像和所述红外图像进行对齐处理,得到所述彩色图像和所述红外图像之间的对齐关系;
识别模块,用于对所述红外图像进行区域识别处理,确定所述红外图像上的第一掌部区域;
所述对齐模块,还用于基于所述彩色图像和所述红外图像之间的对齐关系,在所述彩色图像上确定与所述第一掌部区域相对应的第二掌部区域;
所述识别模块,还用于对所述红外图像的所述第一掌部区域和所述彩色图像的所述第二掌部区域进行掌部对比识别处理,确定所述掌部图像对应的目标对象标识。
在一种可能的实现方式中,对齐模块,还用于将所述彩色图像和所述红外图像进行空间对齐处理和/或时间对齐处理,得到所述彩色图像和所述红外图像之间的对齐关系。
在一种可能的实现方式中,对齐模块,还用于获取所述红外图像的像素坐标系中掌部的坐标参数;基于所述红外相机的相机内参,使用红外相机坐标系表示所述红外图像中所述掌部的坐标参数,所述相机内参用以描述世界坐标系中所述掌部的坐标参数与像素坐标系中所述掌部的坐标参数之间的转换关系的参数;基于相机外参,使用彩色相机坐标系表示所述红外图像中所述掌部的坐标参数,所述相机外参用以描述所述彩色相机坐标系与所述红外相机坐标系之间的转换关系的参数;基于所述彩色相机的相机内参,使用所述彩色图像的像素坐标系表示所述红外图像中所述掌部的坐标参数,得到所述彩色图像和所述红外图像之间的空间对齐关系。
在一种可能的实现方式中,识别模块,还用于基于所述彩色图像和所述红外图像之间的空间对齐关系,将所述红外图像上的所述第一掌部区域映射至所述彩色图像上,在所述彩色图像上得到所述第二掌部区域。
在一种可能的实现方式中,对齐模块,还用于获取所述彩色图像和所述红外图像上标记的时间戳,所述时间戳是指在彩色相机和红外相机曝光时,在所述彩色图像和所述红外图像上标记的时间性数据;基于所述时间戳,得到所述彩色图像和所述红外图像之间的时间对齐关系。
在一种可能的实现方式中,识别模块,还用于基于所述彩色图像和所述红外图像之间的时间对齐关系,将所述红外图像上的所述第一掌部区域映射至所述彩色图像上,在所述彩色图像上得到所述第二掌部区域。
在一种可能的实现方式中,识别模块,还用于在第i帧所述彩色图像的所述第二掌部区域的质量参数小于预设阈值的情况下,调整所述第二掌部区域的曝光参数,获取第i+1帧所述彩色图像的所述第二掌部区域;对第i+1帧所述红外图像的所述第一掌部区域和第i+1帧所述彩色图像的所述第二掌部区域进行掌部对比识别处理,根据权重值融合所述第一掌部区域的掌部对比识别结果和所述第二掌部区域的掌部对比识别结果,确定所述掌部图像对应的目标对象标识,i为正整数。
在一种可能的实现方式中,识别模块,还用于对所述红外图像中的手指缝点进行检测,基于所述手指缝点确定所述红外图像上的所述第一掌部区域。
在一种可能的实现方式中,识别模块,还用于通过红外图像处理器对所述红外图像的所述第一掌部区域进行掌部对比识别处理,确定所述掌部图像对应的第一对象标识;通过彩色图像处理器对所述彩色图像的所述第二掌部区域进行掌部对比识别处理,确定所述掌部图像对应的第二对象标识;
基于所述红外图像处理器和所述彩色图像处理器的权重值,将所述第一对象标识和所述第二对象标识进行融合,得到所述掌部图像对应的目标对象标识。
在一种可能的实现方式中,识别模块,还用于根据所述彩色图像的所述第二掌部区域的质量参数,确定所述红外图像处理器和所述彩色图像处理器的权重值;基于所述红外图像处理器和所述彩色图像处理器的权重值,将所述第一对象标识和所述第二对象标识进行融合,得到所述掌部图像对应的目标对象标识。
所述红外光的波长为940nm。
在一种可能的实现方式中,识别模块,还用于通过近距离传感器获取待识别掌部的识别距离,所述识别距离是指所述待识别掌部与所述彩色相机、所述红外相机之间的距离;基于所述识别距离,确定所述彩色相机和所述红外相机的曝光参数;根据所述曝光参数,获取待识别掌部的彩色图像和红外图像;对所述彩色图像和所述红外图像进行掌部对比识别处理,在识别时间段内得到所述待识别掌部对应的目标对象标识,所述识别时间段是指通过所述近距离传感器测量所述识别距离并进行掌部对比识别处理的整个过程所对应的时间;在所述识别时间段大于时间阈值的情况下,执行掌部图像的识别方法,得到所述掌部图像对应的目标对象标识。
根据本申请的另一方面,提供了一种计算机设备,该计算机设备包括:处理器和存储器,存储器中存储有至少一条计算机程序,至少一条计算机程序由处理器加载并执行以实现如上方面所述的掌部图像的识别方法。
根据本申请的另一方面,提供了一种计算机存储介质,计算机可读存储介质中存储有至少一条计算机程序,至少一条计算机程序由处理器加载并执行以实现如上方面所述的掌部图像的识别方法。
根据本申请的另一方面,提供了一种计算机程序产品,上述计算机程序产品包括计算机程序,所述计算机程序存储在计算机可读存储介质中;所述计算机程序由计算机设备的处理器从所述计算机可读存储介质读取并执行,使得所述计算机设备执行如上方面所述的掌部图像的识别方法。
本申请提供的技术方案带来的有益效果至少包括:
通过获取同一掌部图像的彩色图像和红外图像;将彩色图像和红外图像进行对齐处理,得到彩色图像和红外图像之间的对齐关系;对红外图像进行区域识别处理,确定红外图像上的第一掌部区域;基于彩色图像和红外图像之间的对齐关系,在彩色图像上确定与第一掌部区域相对应的第二掌部区域;对红外图像的第一掌部区域和彩色图像的第二掌部区域进行掌部对比识别处理,确定掌部图像对应的目标对象标识。本申请通过将红外图像与彩色图像对齐,在红外图像上确定掌部区域,基于红外图像和彩色图像的对齐关系,在彩色图像上确定对应的掌部区域,并分别对红外图像和彩色图像对应的掌部区域进行掌部对比识别,从而确定目标对象标识,基于上述方法,可辅助彩色图像快速确定掌部区域,使得掌部图像的识别方法可以适应于复杂环境,提高了掌部识别的准确性。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请一个示例性实施例提供的一种掌部图像的识别方法的示意图;
图2是本申请一个示例性实施例提供的计算机系统的架构示意图;
图3是本申请一个示例性实施例提供的掌部图像的识别方法的流程图;
图4是本申请一个示例性实施例提供的掌部图像的识别方法的流程图;
图5是本申请一个示例性实施例提供的彩色图像和红外图像时间对齐的示意图;
图6是本申请一个示例性实施例提供的手掌中手指缝点的示意图;
图7是本申请一个示例性实施例提供的摄像头模组中的图像处理示意图;
图8是本申请一个示例性实施例提供的掌部图像的识别方法的流程图;
图9是本申请一个示例性实施例提供的基于掌部图像的识别方法的跨设备支付的示意图;
图10是本申请一个示例性实施例提供的掌部图像的识别方法的流程图;
图11是本申请一个示例性实施例提供的彩色图像和红外图像空间对齐的流程图;
图12是本申请一个示例性实施例提供的获取彩色图像和红外图像的流程图;
图13是本申请一个示例性实施例提供的基于掌部图像的识别方法的跨设备身份验证的示意图;
图14是本申请一个示例性实施例提供的掌部图像的识别装置的框图;
图15是本申请一个示例性实施例提供的计算机设备的结构示意图。
具体实施方式
为使本申请的目的、技术方案和优点更加清楚,下面将结合附图对本申请实施方式作进一步地详细描述。
首先对本申请实施例涉及的若干个名词进行简介:
人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。换句话说,人工智能是计算机科学的一个综合技术,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器。人工智能也就是研究各种智能机器的设计原理与实现方法,使机器具有感知、推理与决策的功能。
人工智能技术是一门综合学科,涉及领域广泛,既有硬件层面的技术也有软件层面的技术。人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
云技术(Cloud technology)是指在广域网或局域网内将硬件、软件、网络等系列资源统一起来,实现数据的计算、储存、处理和共享的一种托管技术。
云技术(Cloud technology)基于云计算商业模式应用的网络技术、信息技术、整合技术、管理平台技术、应用技术等的总称,可以组成资源池,按需所用,灵活便利。云计算技术将变成重要支撑。技术网络系统的后台服务需要大量的计算、存储资源,如视频网站、图片类网站和更多的门户网站。伴随着互联网行业的高度发展和应用,将来每个物品都有可能存在自己的识别标志,都需要传输到后台系统进行逻辑处理,不同程度级别的数据将会分开处理,各类行业数据皆需要强大的系统后盾支撑,只能通过云计算来实现。
云计算(Cloud computing)是一种计算模式,它将计算任务分布在大量计算机构成的资源池上,使各种应用系统能够根据需要获取计算力、存储空间和信息服务。提供资源的网络被称为“云”。“云”中的资源在使用者看来是可以无限扩展的,并且可以随时获取,按需使用,随时扩展,按使用付费。
作为云计算的基础能力提供商,会建立云计算资源池(简称云平台,一般称为IaaS(Infrastructure as a Service,基础设施即服务)平台,在资源池中部署多种类型的虚拟资源,供外部客户选择使用。云计算资源池中主要包括:计算设备(为虚拟化机器,包含操作系统)、存储设备、网络设备。
按照逻辑功能划分,在IaaS(Infrastructure as a Service,基础设施即服务)层上可以部署PaaS(Platform as a Service,平台即服务)层,PaaS层之上再部署SaaS(Software as a Service,软件即服务)层,也可以直接将SaaS部署在IaaS上。PaaS为软件运行的平台,如数据库、Web(World Wide Web,全球广域网)容器等。SaaS为各式各样的业务软件,如web门户网站、短信群发器等。一般来说,SaaS和PaaS相对于IaaS是上层。
计算机视觉技术(Computer Vision,CV)是一门研究如何使机器“看”的科学,更进一步的说,就是指用摄影机和电脑代替人眼对目标进行识别和测量等机器视觉,并进一步做图形处理,使电脑处理成为更适合人眼观察或传送给仪器检测的图像。作为一个科学学科,计算机视觉研究相关的理论和技术,试图建立能够从图像或者多维数据中获取信息的人工智能系统。计算机视觉技术通常包括图像处理、图像识别、图像语义理解、图像检索、视频处理、视频语义理解、视频内容/行为识别、三维物体重建、3D技术、虚拟现实、增强现实、同步定位与地图构建等技术,还包括常见的生物特征识别技术。
本申请实施例提供了一种掌部图像的识别方法的示意图,如图1所示,该方法可以由计算机设备执行,计算机设备可以是终端或服务器。
示例性地,计算机设备获取同一手掌的彩色图像103和红外图像104,并将彩色图像103和红外图像104进行空间对齐处理和/或时间对齐处理,得到彩色图像103与红外图像104之间的对齐关系。
彩色图像103是指彩色相机基于自然光对掌部成像所得到的图像,红外图像104是指红外相机基于红外光对掌部成像所得到的图像。
示例性地,计算机设备获取红外图像104的像素坐标系中掌部的坐标参数;计算机设备基于红外相机的相机内参,使用红外相机坐标系表示红外图像104中掌部的坐标参数;计算机设备基于相机外参,使用彩色相机坐标系表示红外图像104中掌部的坐标参数;计算机设备基于彩色相机的相机内参,使用彩色图像103的像素坐标系表示红外图像104中掌部的坐标参数,得到彩色图像103和红外图像104的之间的空间对齐关系。
相机内参用以描述世界坐标系中掌部的坐标参数与像素坐标系中掌部的坐标参数之间的转换关系的参数。
相机外参用以描述彩色相机坐标系与红外相机坐标系之间的转换关系的参数。
示例性地,计算机设备获取彩色图像103和红外图像104上标记的时间戳,计算机设备基于时间戳,得到彩色图像103和红外图像104之间的时间对齐关系。
时间戳是指在彩色相机101和红外相机102曝光时,在彩色图像103和红外图像104上标记的时间性数据;
例如,计算机设备获取彩色相机101拍摄的彩色图像103和红外相机102拍摄的同一掌部的红外图像104。计算机设备将同一掌部的彩色图像103和红外图像104进行空间对齐处理和/或时间对齐处理,实现彩色图像103与红外图像104对齐。
计算机设备对红外图像104中的手指缝点进行检测,并基于手指缝点确定红外图像104上的第一掌部区域。
计算机设备基于彩色图像103和红外图像104之间的对齐关系,在彩色图像103上确定与第一掌部区域相对应的第二掌部区域。
可选地,计算机设备基于彩色图像103和红外图像104之间的空间对齐关系,将红外图像104上的第一掌部区域映射至彩色图像103上,在彩色图像103上得到第二掌部区域。
可选地,计算机设备基于彩色图像103和红外图像104之间的时间对齐关系,将红外图像104上的第一掌部区域映射至彩色图像103上,在彩色图像103上得到第二掌部区域。
可选地,计算机设备基于彩色图像103和红外图像104之间的空间对齐关系和时间对齐关系,将红外图像104上的第一掌部区域映射至彩色图像103上,在彩色图像103上得到第二掌部区域。
可选地,在第i帧彩色图像的第二掌部区域的质量参数小于预设阈值的情况下,调整第二掌部区域的曝光亮度值,获取第i+1帧彩色图像的第二掌部区域;
计算机设备分别对第i+1帧红外图像的第一掌部区域和第i+1帧彩色图像的第二掌部区域进行掌部对比识别处理105,根据权重值融合第一掌部区域的掌部对比识别结果和第二掌部区域的掌部对比识别结果,从而确定掌部图像对应的目标对象标识,i为正整数。
可选的,红外光的波长为940nm。
综上所述,本实施例提供的方法,通过获取同一掌部图像的彩色图像和红外图像;对红外图像进行区域识别处理,确定红外图像上的第一掌部区域;基于彩色图像和红外图像之间的空间对齐处理和/或时间对齐关系,在彩色图像上确定第二掌部区域;对红外图像的第一掌部区域和彩色图像的第二掌部区域进行掌部对比识别处理,确定掌部图像对应的目标对象标识。本申请通过将红外图像与彩色图像对齐,在红外图像上确定掌部区域,基于红外图像和彩色图像的对齐关系,在彩色图像上确定出掌部区域,并分别对红外图像和彩色图像对应的掌部区域进行掌部对比识别,从而确定目标对象标识,基于上述方法,可辅助彩色图像快速确定掌部区域,使得掌部图像的识别方法适应于复杂环境,同时提高了掌部识别的准确性。
图2示出了本申请一个实施例提供的计算机系统的架构示意图。该计算机系统可以包括:终端100和服务器200。
终端100可以是诸如手机、平板电脑、车载终端(车机)、可穿戴设备、个人计算机(Personal Computer,PC)、智能语音交互设备、智能家电、车载终端、飞行器、无人售货终端等电子设备。终端100中可以安装运行目标应用程序的客户端,该目标应用程序可以是参考掌部图像识别的应用程序,也可以是提供有掌部图像识别功能的其他应用程序,本申请对此不作限定。另外,本申请对该目标应用程序的形式不作限定,包括但不限于安装在终端100中的应用程序(Application,App)、小程序等,还可以是网页形式。
服务器200可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群或者分布式系统,还可以是提供云计算服务的云服务器、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、内容分发网络(Content DeliveryNetwork,CDN)、以及大数据和人工智能平台等基础云计算服务的云服务器。服务器200可以是上述目标应用程序的后台服务器,用于为目标应用程序的客户端提供后台服务。
其中,云技术(Cloud technology)是指在广域网或局域网内将硬件、软件、网络等系列资源统一起来,实现数据的计算、储存、处理和共享的一种托管技术。云技术基于云计算商业模式应用的网络技术、信息技术、整合技术、管理平台技术、应用技术等的总称,可以组成资源池,按需所用,灵活便利。云计算技术将变成重要支撑。技术网络系统的后台服务需要大量的计算、存储资源,如视频网站、图片类网站和更多的门户网站。伴随着互联网行业的高度发展和应用,将来每个物品都有可能存在自己的识别标志,都需要传输到后台系统进行逻辑处理,不同程度级别的数据将会分开处理,各类行业数据皆需要强大的系统后盾支撑,只能通过云计算来实现。
在一些实施例中,上述服务器还可以实现为区块链系统中的节点。区块链(Blockchain)是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链,本质上是一个去中心化的数据库,是一串使用密码学方法相关联产生的数据块,每一个数据块中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层。
终端100和服务器200之间可以通过网络进行通信,如有线或无线网络。
本申请实施例提供的掌部图像的识别方法,各步骤的执行主体可以是计算机设备,所述计算机设备是指具备数据计算、处理和存储能力的电子设备。以图2所示的方案实施环境为例,可以由终端100执行掌部图像的识别方法(如终端100中安装运行的目标应用程序的客户端执行掌部图像的识别方法),也可以由服务器200执行该掌部图像的识别方法,或者由终端100和服务器200交互配合执行,本申请对此不作限定。
图3是本申请一个示例性实施例提供的掌部图像的识别方法的流程图。该方法可以由计算机设备执行,计算机设备可以是图2中的终端100或服务器200。该方法包括:
步骤302:获取同一掌部图像的彩色图像和红外图像。
彩色图像是指彩色相机基于自然光对掌部成像所得到的图像。
红外图像是指红外相机基于红外光对掌部成像所得到的图像。
掌部图像为待确定目标对象标识的掌部图像,该掌部图像中包含手掌,该手掌为待验证身份的目标对象的手掌,该掌部图像还可以包含其他的信息,如目标对象的手指、拍摄目标对象手掌时所处的场景等。该掌部图像可以是由该计算机设备对待验证身份的目标对象的手掌进行拍摄得到的,也可以是由其他设备发送的。
例如,计算机设备为商店支付设备,商店支付设备通过摄像头拍摄目标对象的手掌,得到该掌部图像;或者,计算机设备为掌部图像识别服务器,商店支付设备拍摄到目标对象的掌部图像后,将该掌部图像发送至该掌部图像识别服务器。
步骤304:将彩色图像和红外图像进行对齐处理,得到彩色图像和红外图像之间的对齐关系。
示例性地,计算机设备将同一掌部图像的彩色图像和红外图像进行对齐处理,得到彩色图像和红外图像之间的对齐关系。
对齐处理包括空间对齐处理和时间对齐处理。
空间对齐处理是指将彩色图像和红外图像通过转化采用同一坐标系表示的方法。
时间对齐处理是指根据时间戳选择同一时间戳对应的彩色图像和红外图像。
步骤306:对红外图像进行区域识别处理,确定红外图像上的第一掌部区域。
第一掌部区域是指红外图像中的掌部区域。
示例性地,计算机设备通过对红外图像进行区域识别,从红外图像中确定出第一掌部区域。
步骤308:基于彩色图像和红外图像之间的对齐关系,在彩色图像上确定与第一掌部区域相对应的第二掌部区域。
示例性地,计算机设备基于彩色图像和红外图像之间的对齐关系,在彩色图像上确定与第一掌部区域相对应的第二掌部区域。
例如,计算机设备基于彩色图像和红外图像之间的空间对齐关系,在彩色图像上确定与第一掌部区域相对应的第二掌部区域。
或,计算机设备基于彩色图像和红外图像之间的时间对齐关系,在彩色图像上确定与第一掌部区域相对应的第二掌部区域。
或,计算机设备基于彩色图像和红外图像之间的空间对齐关系和时间对齐关系,在彩色图像上确定与第一掌部区域相对应的第二掌部区域。
步骤310:对红外图像的第一掌部区域和彩色图像的第二掌部区域进行掌部对比识别处理,确定掌部图像对应的目标对象标识。
示例性地,掌部对比识别处理是指将掌部区域的特征与数据库中的预设掌部特征进行对比识别。
预设掌部特征为存储的对象标识掌部的掌部特征,每个预设掌部特征具有对应的对象标识,表示该预设掌部特征属于该对象标识,是该对象掌部的掌部特征。该对象标识可以为任意的对象标识,如,该对象标识为支付应用中注册的对象标识,或,该对象标识为企业中登记的对象标识。
在本申请实施例中,计算机设备中包括数据库,该数据库中包括多个预设掌部特征,及每个预设掌部特征对应的对象标识。在该数据库中,预设掌部特征与对象标识可以是一一对应,也可以是一个对象标识对应至少两个预设掌部特征。
例如,多个对象在支付应用中进行注册,通过将每个对象的预设掌部特征与对应的对象标识进行绑定,将多个对象的掌部特征与对应的对象标识对应存储于数据库中,后续对象使用支付应用时,通过对红外图像的第一掌部区域、彩色图像的第二掌部区域与数据库中的预设掌部特征进行掌部对比识别处理,来确定目标对象标识,实现对对象的身份验证。
示例性地,计算机设备对红外图像的第一掌部区域和彩色图像的第二掌部区域分别进行掌部对比识别处理,得到掌部图像对应的目标对象标识。
综上所述,本实施例提供的方法,获取同一掌部图像的彩色图像和红外图像;将彩色图像和红外图像进行对齐处理,得到彩色图像和红外图像之间的对齐关系;对红外图像进行区域识别处理,确定红外图像上的第一掌部区域;基于彩色图像和红外图像之间的对齐关系,在彩色图像上确定与第一掌部区域相对应的第二掌部区域;对红外图像的第一掌部区域和彩色图像的第二掌部区域进行掌部对比识别处理,确定掌部图像对应的目标对象标识。本申请通过在红外图像上确定掌部区域,基于红外图像和彩色图像的对齐关系,在彩色图像上确定对应的掌部区域,并分别对红外图像和彩色图像对应的掌部区域进行掌部对比识别,从而确定目标对象标识,基于上述方法,可辅助彩色图像快速确定掌部区域,使得掌部图像的识别方法可以适应于复杂环境,提高了掌部识别的准确性。
图4是本申请一个示例性实施例提供的掌部图像的识别方法的流程图。该方法可以由计算机设备执行,计算机设备可以是图2中的终端100或服务器200。该方法包括:
步骤402:获取同一掌部图像的彩色图像和红外图像。
彩色图像是指彩色相机基于自然光对掌部成像所得到的图像。
红外图像是指红外相机基于红外光对掌部成像所得到的图像。
掌部图像为待确定目标对象标识的掌部图像,该掌部图像中包含手掌,该手掌为待验证身份的目标对象的手掌,该掌部图像还可以包含其他的信息,如目标对象的手指、拍摄目标对象手掌时所处的场景等。该掌部图像可以是由该计算机设备对待验证身份的目标对象的手掌进行拍摄得到的,也可以是由其他设备发送的。
示例性地,计算机设备对对象的手掌进行拍摄,得到掌部图像。其中,该掌部图像中包含该手掌,该手掌可以为对象的左手掌,也可以为对象的右手掌。例如,该计算机设备为物联网设备,该物联网设备通过摄像头拍摄对象的左手掌,得到掌部图像,该物联网设备可以为商家支付终端。再例如,对象在商店购物进行交易时,对象将手掌伸向商店支付终端的摄像头,该商店支付终端通过该摄像头拍摄该对象的手掌,得到掌部图像。
在一种可能实现方式中,计算机设备与其他设备建立通信连接,通过该通信连接,接收其他设备发送的掌部图像。例如,该计算机设备为支付应用服务器,其他设备可以为支付终端,支付终端拍摄对象的手掌,得到掌部图像后,通过该支付终端与支付应用服务器之间的通信连接,将该掌部图像发送至支付应用服务器,以使该支付应用服务器能够确定该掌部图像的目标对象标识。
步骤404:将彩色图像和红外图像进行空间对齐处理和/或时间对齐处理,得到彩色图像和红外图像之间的对齐关系。
空间对齐处理是指将彩色图像和红外图像通过转化采用同一坐标系表示的方法。
时间对齐处理是指根据时间戳选择同一时间戳对应的彩色图像和红外图像。
示例性地,计算机设备将彩色图像和红外图像进行空间对齐处理和/或时间对齐处理,得到彩色图像和红外图像之间的对齐关系。
对齐关系包括空间对齐关系和时间对齐关系。
示例性地,计算机设备获取红外图像的像素坐标系中掌部的坐标参数;基于红外相机的相机内参,使用红外相机坐标系表示红外图像中掌部的坐标参数;计算机设备基于相机外参,使用彩色相机坐标系表示红外图像中掌部的坐标参数;计算机设备基于彩色相机的相机内参,使用彩色图像的像素坐标系表示红外图像中掌部的坐标参数,得到彩色图像和红外图像之间的空间对齐关系。
相机内参用以描述世界坐标系中掌部的坐标参数与像素坐标系中掌部的坐标参数之间的转换关系的参数。
相机外参用以描述所述彩色相机坐标系与所述红外相机坐标系之间的转换关系的参数。
示例性地,计算机设备获取彩色图像和红外图像上标记的时间戳,计算机设备基于时间戳,得到彩色图像和红外图像之间的时间对齐关系。
时间戳是指在彩色相机和红外相机曝光时,在彩色图像和红外图像上标记的时间性数据。
例如,如图5所示出的彩色图像和红外图像时间对齐的示意图,该方法涉及彩色相机补光灯501、彩色相机502、红外相机503和红外相机补光灯504。彩色相机补光灯501通过“常亮”方式为彩色相机502照明补光,彩色相机502在拍摄时发送帧同步信号(Frame Sync)至红外相机,实现彩色相机502、红外相机503同时曝光。同时,红外相机503发送频闪“Strobe”信号至红外相机补光灯504,控制红外相机补光灯504在红外相机503曝光的同时进行补光。
在彩色相机502、红外相机503完成拍摄后,在彩色图像和红外图像上标记的时间戳,计算机设备基于时间戳,得到时间对齐的彩色图像和红外图像。
步骤406:对红外图像进行区域识别处理,确定红外图像上的第一掌部区域。
第一掌部区域是指红外图像中的掌部区域。
示例性地,计算机设备通过对红外图像进行区域识别,从红外图像中确定出第一掌部区域。
示例性地,计算机设备对红外图像中的手指缝点进行检测,计算机设备基于手指缝点确定红外图像上的第一掌部区域。
示例性地,如图6所示出的手掌中手指缝点的示意图,手指缝点为食指与中指之间的第一手指缝点601,或,手指缝点为中指与无名指之间的第二手指缝点602,或,手指缝点为无名指与小指之间的第三手指缝点603。
由于在掌部图像中的掌部区域可能存在于该掌部图像中的任一区域,为了能够确定掌部区域在该掌部图像中的位置,通过对该掌部图像进行手指缝点检测,从而得到掌部图像的至少一个手指缝点,以便后续能够根据该至少一个手指缝点,确定第一掌部区域。
示例性地,如图7所示出的摄像头模组中的图像处理示意图,在彩色相机获取彩色图像701、红外相机获取红外图像703的情况下,彩色图像701在彩色相机的摄像头模组中的彩色图像处理器702进行图像处理;红外图像703在红外相机的摄像头模组中的红外图像处理器704中进行图像处理,在红外图像703中基于至少一个手指缝点,确定第一掌部区域705。
步骤408:基于彩色图像和红外图像之间的对齐关系,在彩色图像上确定与第一掌部区域相对应的第二掌部区域。
示例性地,计算机设备基于彩色图像和红外图像之间的对齐关系,在彩色图像上确定与第一掌部区域相对应的第二掌部区域。
例如,计算机设备基于彩色图像和红外图像之间的空间对齐关系,将红外图像上的第一掌部区域映射至彩色图像上,在彩色图像上得到第二掌部区域。
或,计算机设备基于彩色图像和红外图像之间的时间对齐关系,将红外图像上的第一掌部区域映射至彩色图像上,在彩色图像上得到第二掌部区域。
或,计算机设备基于彩色图像和红外图像之间的空间对齐关系和时间对齐关系,将红外图像上的第一掌部区域映射至彩色图像上,在彩色图像上确定与第一掌部区域相对应的第二掌部区域。
步骤410:对红外图像的第一掌部区域和彩色图像的第二掌部区域进行掌部对比识别处理,确定掌部图像对应的目标对象标识。
示例性地,掌部对比识别处理是指将掌部区域的特征与数据库中的预设掌部特征进行对比识别。
预设掌部特征为存储的对象标识掌部的掌部特征,每个预设掌部特征具有对应的对象标识,表示该预设掌部特征属于该对象标识,是该对象掌部的掌部特征。该对象标识可以为任意的对象标识,如,该对象标识为支付应用中注册的对象标识,或,该对象标识为企业中登记的对象标识。
示例性地,计算机设备对红外图像的第一掌部区域和彩色图像的第二掌部区域分别进行掌部对比识别处理,得到掌部图像对应的目标对象标识。
在一种可能的实现方式中,在第i帧彩色图像的第二掌部区域的质量参数小于预设阈值的情况下,调整第二掌部区域的曝光参数,获取第i+1帧彩色图像的第二掌部区域;计算机设备对第i+1帧红外图像的第一掌部区域和第i+1帧彩色图像的第二掌部区域进行掌部对比识别处理,根据权重值融合第一掌部区域的掌部对比识别结果和第二掌部区域的掌部对比识别结果,确定掌部图像对应的目标对象标识,i为正整数。
例如,计算机设备获取同一掌部图像的第一帧彩色图像和第一帧红外图像,计算机设备对第一帧彩色图像的第二掌部区域和第一帧红外图像的第一掌部区域进行掌部对比识别,在彩色图像的第二掌部区域的质量参数小于预设阈值的情况下,调整彩色相机对第二掌部区域的曝光参数,获取第二帧彩色图像和第二帧红外图像,计算机设备对第二帧彩色图像的第二掌部区域和第二帧红外图像的第一掌部区域进行掌部对比识别,以次类推,在彩色图像的第二掌部区域的质量参数大于或等于预设阈值的情况下,计算机设备根据权重值融合第一掌部区域的掌部对比识别结果和第二掌部区域的掌部对比识别结果,从而更加精确地确定掌部图像对应的目标对象标识。
在一种可能的实现方式中,计算机设备通过红外图像处理器对红外图像的第一掌部区域进行掌部对比识别处理,确定掌部图像对应的第一对象标识;计算机设备通过彩色图像处理器对彩色图像的所述第二掌部区域进行掌部对比识别处理,确定掌部图像对应的第二对象标识;计算机设备基于红外图像处理器和彩色图像处理器的权重值,将第一对象标识和第二对象标识进行融合,得到掌部图像对应的目标对象标识。
可选地,计算机设备根据彩色图像的第二掌部区域的质量参数,确定红外图像处理器和彩色图像处理器的权重值;计算机设备基于红外图像处理器和彩色图像处理器的权重值,将第一对象标识和第二对象标识进行融合,得到掌部图像对应的目标对象标识。
例如,计算机设备根据彩色图像的第二掌部区域的质量参数,确定红外图像处理器和彩色图像处理器的权重值,彩色图像的第二掌部区域的质量参数越高,则彩色图像处理器的权重值越高。
可选地,红外光的波长为940nm。
在一种可能的实现方式中,计算机设备通过近距离传感器获取待识别掌部的识别距离,计算机设备基于识别距离,确定彩色相机和红外相机的曝光参数;计算机设备根据曝光参数,获取待识别掌部的彩色图像和红外图像;计算机设备对彩色图像和红外图像进行掌部对比识别处理,在识别时间段内得到待识别掌部对应的目标对象标识;在识别时间段大于时间阈值的情况下,计算机设备执行掌部图像的识别方法(掌部图像的识别方法的具体步骤可参见前述实施例中描述,本处不再赘述),得到掌部图像对应的目标对象标识。
识别距离是指待识别掌部与彩色相机、红外相机之间的距离。
识别时间段是指通过所述近距离传感器测量所述识别距离并进行掌部对比识别处理的整个过程所对应的时间。
示例性地,如图8所示出的掌部图像的识别方法的流程图。步骤801:在对掌部图像进行识别时,首先采用“固定式曝光参数:对掌部图像进行识别,即,计算机设备通过近距离传感器获取待识别掌部与彩色相机、红外相机之间的识别距离;步骤802:计算机设备基于识别距离,通过对比识别距离表,对比识别距离表确定曝光参数,即,确定彩色相机和红外相机的曝光参数;计算机设备对彩色图像和红外图像进行掌部对比识别处理;步骤803:在1s内未得到待识别掌部对应的目标对象标识的情况下,计算机设备执行掌部图像的识别方法(掌部图像的识别方法的具体步骤可参见前述实施例中描述,本处不再赘述),得到掌部图像对应的目标对象标识。
需要说明的是,掌部作为生物特征的一种,具有生物唯一性与区分性。相对于目前被广泛应用于核身、支付、门禁、乘车等领域的面部识别,掌部不会受化妆、口罩、墨镜等影响,可以提高对象身份验证的准确率。在某些场景下,如疫情防控场景下,需要佩戴口罩遮住口鼻,这种情况下使用掌部图像进行身份验证可以作为一种更好的选择。
跨设备注册识别是一种对于对象体验非常重要的能力。对于关联的两种类型的设备,对象可以在一种类型的设备中进行注册,将对象的对象标识与该对象的掌部特征进行绑定,之后该对象可以在另一种类型的设备上进行身份验证。由于手机和物联网设备在图像风格和图像质量上差别大,通过跨设备注册识别,可以使对象在手机端注册后,直接可以在物联网设备端进行使用,无需对象在两种类型的设备上进行注册,例如,对象通过手机端进行注册后,可以在商店的设备上直接进行身份验证,无需对象在该商店的设备上进行注册,避免了对象的信息泄露。
综上所述,本实施例提供的方法,获取同一掌部图像的彩色图像和红外图像;将彩色图像和红外图像进行对齐处理,得到彩色图像和红外图像之间的对齐关系;对红外图像进行区域识别处理,确定红外图像上的第一掌部区域;基于彩色图像和红外图像之间的对齐关系,在彩色图像上确定与第一掌部区域相对应的第二掌部区域;在第i帧彩色图像的第二掌部区域的质量参数小于预设阈值的情况下,调整第二掌部区域的曝光参数,获取第i+1帧彩色图像的第二掌部区域;计算机设备对第i+1帧红外图像的第一掌部区域和第i+1帧彩色图像的第二掌部区域进行掌部对比识别处理,并根据权重值融合第一掌部区域的掌部对比识别结果和第二掌部区域的掌部对比识别结果,确定掌部图像对应的目标对象标识。本申请通过在红外图像上确定掌部区域,基于红外图像和彩色图像的对齐关系,在彩色图像上确定对应的掌部区域,并分别对红外图像和彩色图像对应的掌部区域进行掌部对比识别,从而确定目标对象标识,基于上述方法,可辅助彩色图像快速确定掌部区域,且可通过调整曝光参数获取较高质量的第二掌部区域,从而使得掌部图像的识别方法可以适应于复杂环境,提高了掌部识别的准确性。
图9是本申请一个示例性实施例提供的基于掌部图像的识别方法的跨设备支付的示意图。该方法涉及对象终端901、商户终端903及支付应用服务器902。
其中,对象终端901安装有支付应用,对象终端901基于对象标识登录支付应用,与支付应用服务器902建立通信连接,通过该通信连接,对象终端901与支付应用服务器902可以进行交互;商户终端903均安装有支付应用,商户终端903基于商户标识登录支付应用,与支付应用服务器902建立通信连接,通过该通信连接,商户终端903与支付应用服务器902可以进行交互。
该跨设备支付流程包括:
1、对象在家中手持对象终端901,通过该对象终端901拍摄对象自己的手掌,得到该对象的掌部图像,基于对象标识登录支付应用,向支付应用服务器902发送掌部图像注册请求,该掌部图像注册请求携带该对象标识及掌部图像。
2、支付应用服务器902接收到对象终端901发送的掌部图像注册请求,对掌部图像进行处理,得到该掌部图像的掌部特征,将该掌部特征与该对象标识进行对应存储,向对象终端901发送掌部图像绑定成功通知。
其中,支付应用服务器902将掌部特征与对象标识进行对应存储后,将该掌部特征作为预设掌部特征,后续可以通过存储的预设掌部特征,来确定对应的对象标识。
3、对象终端901接收到掌部图像绑定成功通知,显示该掌部图像绑定成功通知,提示对象掌部图像与对象标识绑定。
其中,对象通过自己的对象终端901与支付应用服务器902之间的交互,完成掌部图像注册,后续可以通过掌部图像来实现自动支付。
4、对象在商店购买商品进行交易时,商户终端903拍摄该对象的手掌,得到掌部图像,基于商户标识登录的支付应用,向支付应用服务器902发送支付请求,该支付请求携带该商户标识、消费金额及掌部图像。
5、支付应用服务器902接收到支付请求后,对掌部图像进行掌部对比识别处理,确定该掌部图像的对象标识,确定该对象标识在支付应用中的账号,通过该账号完成转账,在转账完成后,向商户终端903发送支付完成通知。
其中,对象在利用对象终端901进行掌部图像注册后,可以直接在商户终端903通过掌部进行支付,无需用户在商户终端903上进行掌部图像注册,从而实现了跨设备掌部图像识别的效果,提高了便捷性。
6、商户终端903接收到支付完成通知,显示该支付完成通知,提示对象支付完成,以使对象与商户完成物品的交易,对象可以将物品带走。
另外,上述实施例以通过对象终端901与商户终端903实现跨设备支付的过程,还可以将上述商户终端903替换为公交车上的支付设备,按照上述步骤,实现跨设备乘车支付的方案。
图10是本申请一个示例性实施例提供的掌部图像的识别方法的流程图。该方法可以由计算机设备执行,计算机设备可以是图2中的终端100或服务器200。该方法包括:
步骤1001:开始。
步骤1002:将彩色图像和红外图像进行对齐处理,达到像素级对齐。
计算机设备获取同一掌部图像的彩色图像和红外图像,彩色图像是指彩色相机基于自然光对掌部成像所得到的图像,红外图像是指红外相机基于红外光对掌部成像所得到的图像。
计算机设备将彩色图像和红外图像进行空间对齐处理和/或时间对齐处理,得到彩色图像和红外图像之间的对齐关系,实现彩色图像和红外图像的像素级对齐。
步骤1003:对红外图像进行手掌识别,确定第一掌部区域。
计算机设备对红外图像中的手指缝点进行检测,计算机设备基于手指缝点确定红外图像上的第一掌部区域。
步骤1004:基于彩色图像和红外图像之间的对齐关系,将红外图像上的第一掌部区域映射至彩色图像上,在彩色图像上得到第二掌部区域。
计算机设备基于彩色图像和红外图像之间的空间对齐关系,将红外图像上的第一掌部区域映射至彩色图像上,在彩色图像上得到第二掌部区域。
或,计算机设备基于彩色图像和红外图像之间的时间对齐关系,将红外图像上的第一掌部区域映射至彩色图像上,在彩色图像上得到第二掌部区域。
或,计算机设备基于彩色图像和红外图像之间的空间对齐关系和时间对齐关系,将红外图像上的第一掌部区域映射至彩色图像上,在彩色图像上确定与第一掌部区域相对应的第二掌部区域。
步骤1005:对红外图像的第一掌部区域和彩色图像的第二掌部区域进行掌部对比识别处理,确定掌部图像对应的目标对象标识。
计算机设备通过红外图像处理器对红外图像的第一掌部区域进行掌部对比识别处理,确定掌部图像对应的第一对象标识;计算机设备通过彩色图像处理器对彩色图像的第二掌部区域进行掌部对比识别处理,确定掌部图像对应的第二对象标识;计算机设备基于红外图像处理器和彩色图像处理器的权重值,将第一对象标识和第二对象标识进行融合,得到掌部图像对应的目标对象标识。
步骤1006:结束。
图11是本申请一个示例性实施例提供的彩色图像和红外图像空间对齐的流程图。该方法可以由计算机设备执行,计算机设备可以是图2中的终端100或服务器200。该方法包括:
步骤1101:开始。
步骤1102:获取红外图像的平面像素深度。
计算机设备获取红外图像的像素坐标系中掌部的坐标参数。
步骤1103:利用红外相机的相机内参,将红外图像中掌部的坐标参数转换至相机坐标系。
计算机设备基于红外相机的相机内参,使用红外相机坐标系表示红外图像中掌部的坐标参数。
相机内参用以描述世界坐标系中掌部的坐标参数与像素坐标系中掌部的坐标参数之间的转换关系的参数。
步骤1104:基于相机外参,将红外相机坐标系转换到彩色相机坐标系。
计算机设备基于相机外参,使用彩色相机坐标系表示红外图像中掌部的坐标参数。
相机外参用以描述彩色相机坐标系与红外相机坐标系之间的转换关系的参数。
步骤1105:基于彩色相机的相机内参,将彩色图像的像素坐标系中的红外图像转换至像素平面。
计算机设备基于彩色相机的相机内参,使用彩色图像的像素坐标系表示红外图像中掌部的坐标参数,得到彩色图像和红外图像之间的空间对齐关系。
步骤1106:结束。
图12是本申请一个示例性实施例提供的获取彩色图像和红外图像的流程图。该方法可以由计算机设备执行,计算机设备可以是图2中的终端100或服务器200。该方法包括:
步骤1201:开始。
步骤1202:将彩色图像的第二掌部区域发送至彩色图片处理器。
将彩色图像的第二掌部区域发送至彩色图片处理器,彩色图片处理器对彩色图像中的第二掌部区域进行处理。
步骤1203:彩色图像处理器计算第二掌部区域对应的亮度值。
步骤1204:当第二掌部区域对应的亮度值大于或小于预期亮度范围时,调节曝光参数。
当第二掌部区域对应的亮度值大于或小于预期亮度范围时,计算机设备调整彩色相机的曝光参数。
步骤1205:当第二掌部区域对应的亮度值符合预期亮度范围时,确定曝光参数。
当第二掌部区域对应的亮度值符合预期亮度范围时,计算机设备确定彩色相机的曝光参数。
彩色相机基于确定的曝光参数获取彩色图像。
步骤1206:将红外图像的第一掌部区域发送至红外图片处理器。
将红外图像的第一掌部区域发送至红外图片处理器,红外图片处理器对红外图像中的第一掌部区域进行处理。
步骤1207:红外图像处理器计算第一掌部区域对应的亮度值。
步骤1208:当第一掌部区域对应的亮度值大于或小于预期亮度范围时,调节曝光参数。
当第一掌部区域对应的亮度值大于或小于预期亮度范围时,计算机设备调节红外相机的曝光参数。
红外相机基于确定的曝光参数获取红外图像。
步骤1209:当第一掌部区域对应的亮度值符合预期亮度范围时,确定曝光参数。
步骤1210:结束。
图13是本申请一个示例性实施例提供的基于掌部图像的识别方法的跨设备身份验证的示意图。该方法涉及对象终端1301、门禁设备1303及门禁服务器1302。
其中,对象终端1301与门禁应用服务器1302建立通信连接,通过该通信连接,对象终端1301与门禁服务器1302可以进行交互;门禁设备1303与门禁服务器1302建立通信连接,通过该通信连接,门禁设备1303与门禁服务器1302可以进行交互。
该跨设备身份验证流程包括:
1、对象在家中手持对象终端1301,通过该对象终端1301拍摄对象自己的手掌,得到该对象的掌部图像,并向门禁服务器1302发送掌部注册请求,该掌部注册请求携带该对象标识及掌部图像。
2、门禁服务器1302接收到对象终端1301发送的掌部注册请求,对掌部图像进行处理,得到该掌部图像的掌部特征,将该掌部特征与该对象标识进行对应存储,向对象终端1301发送掌部绑定成功通知。
其中,门禁服务器1302将掌部特征与对象标识进行对应存储后,将该掌部特征可以作为预设掌部特征,后续可以通过存储的预设掌部特征,来确定对应的对象标识。
3、对象终端1301接收到掌部绑定成功通知,显示该掌部绑定成功通知,提示对象掌部图像与对象标识绑定。
其中,对象通过自己的对象终端1301与门禁服务器之间的交互,完成掌部图像注册,后续可以通过掌部图像来实现自动开门。
4、当对象外出回家时,门禁设备1303拍摄该对象的手掌,得到该对象的掌部图像,向门禁服务器1302发送身份验证请求,该身份验证请求携带该验证掌部图像。
5、门禁服务器1302接收门禁设备1303发送的身份验证请求,对该验证掌部图像进行识别处理,得到该掌部图像的对象标识,确定该对象为注册对象,向门禁设备1303发送验证通过通知。
6、门禁设备1303接收门禁服务器1302发送的验证通过通知,根据该验证通过通知,控制家门打开,以使对象能够进入到室内。
上述实施例是以通过对象终端1301与门禁设备1303实现跨设备身份验证的过程。
通过上述跨设备身份验证场景可知,无论是对象终端1301与门禁服务器1302之间交互的掌部注册阶段,还是在通过其他终端设备与服务器进行交互的掌部图像的识别阶段,均是在对象终端1301或其他终端设备在获取到掌部图像后,将掌部图像发送至服务器,由服务器进行掌部对比识别处理。且在掌部对比识别处理阶段,门禁服务器1302通过将该掌部特征与预设掌部特征进行比对,得到当前对象的识别结果。
示意性的,本申请实施例提供的掌部图像的识别方法的应用场景包括但不限于以下场景:
例如,智能支付场景下:
商户的计算机设备通过拍摄对象的手掌,获取到该对象的掌部图像,采用本申请实施例提供的掌部图像的识别方法,确定该掌部图像的目标对象标识,将该目标对象标识对应的资源账户中的部分资源,转入到商户资源账户中,实现通过掌部自动支付。
又如,跨设备支付场景下:
对象可以在家或其他私密空间使用个人手机完成身份注册,将该对象的账号与该对象的掌部图像进行绑定,之后可以到店内设备上对该对象的掌部图像进行识别,确定该对象的账号,通过该账号直接支付。
再例如,上班打卡场景下:
计算机设备通过拍摄对象的手掌,获取到该对象的掌部图像,采用本申请实施例提供的掌部图像的识别方法,确定该掌部图像的目标对象标识,为该目标用对象标识建立打卡标记,确定该目标对象标识在当前时间已完成上班打卡。
当然,除了应用于上述场景外,本申请实施例提供方法还可以应用于其他需要掌部图像的识别的场景,本申请实施例并不对具体的应用场景进行限定。
图14示出了本申请一个示例性实施例提供的掌部图像的识别装置的结构示意图。该装置可以通过软件、硬件或者两者的结合实现成为计算机设备的全部或一部分,该装置包括:
获取模块1401,用于获取同一掌部图像的彩色图像和红外图像,所述彩色图像是指彩色相机基于自然光对掌部成像所得到的图像,所述红外图像是指红外相机基于红外光对所述掌部成像所得到的图像;
对齐模块1402,用于将所述彩色图像和所述红外图像进行对齐处理,得到所述彩色图像和所述红外图像之间的对齐关系;
识别模块1403,用于对所述红外图像进行区域识别处理,确定所述红外图像上的第一掌部区域;
对齐模块1402,还用于基于所述彩色图像和所述红外图像之间的对齐关系,在所述彩色图像上确定与所述第一掌部区域相对应的第二掌部区域;
识别模块1403,还用于对所述红外图像的所述第一掌部区域和所述彩色图像的所述第二掌部区域进行掌部对比识别处理,确定所述掌部图像对应的目标对象标识。
在一种可能的实现方式中,对齐模块1402,还用于将所述彩色图像和所述红外图像进行空间对齐处理和/或时间对齐处理,得到所述彩色图像和所述红外图像之间的对齐关系。
在一种可能的实现方式中,对齐模块1402,还用于获取所述红外图像的像素坐标系中掌部的坐标参数;基于所述红外相机的相机内参,使用红外相机坐标系表示所述红外图像中所述掌部的坐标参数,所述相机内参用以描述世界坐标系中所述掌部的坐标参数与像素坐标系中所述掌部的坐标参数之间的转换关系的参数;基于相机外参,使用彩色相机坐标系表示所述红外图像中所述掌部的坐标参数,所述相机外参用以描述所述彩色相机坐标系与所述红外相机坐标系之间的转换关系的参数;基于所述彩色相机的相机内参,使用所述彩色图像的像素坐标系表示所述红外图像中所述掌部的坐标参数,得到所述彩色图像和所述红外图像之间的空间对齐关系。
在一种可能的实现方式中,识别模块1403,还用于基于所述彩色图像和所述红外图像之间的空间对齐关系,将所述红外图像上的所述第一掌部区域映射至所述彩色图像上,在所述彩色图像上得到所述第二掌部区域。
在一种可能的实现方式中,对齐模块1402,还用于获取所述彩色图像和所述红外图像上标记的时间戳,所述时间戳是指在彩色相机和红外相机曝光时,在所述彩色图像和所述红外图像上标记的时间性数据;基于所述时间戳,得到所述彩色图像和所述红外图像之间的时间对齐关系。
在一种可能的实现方式中,识别模块1403,还用于基于所述彩色图像和所述红外图像之间的时间对齐关系,将所述红外图像上的所述第一掌部区域映射至所述彩色图像上,在所述彩色图像上得到所述第二掌部区域。
在一种可能的实现方式中,识别模块1403,还用于在第i帧所述彩色图像的所述第二掌部区域的质量参数小于预设阈值的情况下,调整所述第二掌部区域的曝光参数,获取第i+1帧所述彩色图像的所述第二掌部区域;对第i+1帧所述红外图像的所述第一掌部区域和第i+1帧所述彩色图像的所述第二掌部区域进行掌部对比识别处理,根据权重值融合所述第一掌部区域的掌部对比识别结果和所述第二掌部区域的掌部对比识别结果,确定所述掌部图像对应的目标对象标识,i为正整数。
在一种可能的实现方式中,识别模块1403,还用于对所述红外图像中的手指缝点进行检测,基于所述手指缝点确定所述红外图像上的所述第一掌部区域。
在一种可能的实现方式中,识别模块1403,还用于基通过红外图像处理器对所述红外图像的所述第一掌部区域进行掌部对比识别处理,确定所述掌部图像对应的第一对象标识;通过彩色图像处理器对所述彩色图像的所述第二掌部区域进行掌部对比识别处理,确定所述掌部图像对应的第二对象标识;基于所述红外图像处理器和所述彩色图像处理器的权重值,将所述第一对象标识和所述第二对象标识进行融合,得到所述掌部图像对应的目标对象标识。
在一种可能的实现方式中,识别模块1403,还用于根据所述彩色图像的所述第二掌部区域的质量参数,确定所述红外图像处理器和所述彩色图像处理器的权重值;基于所述红外图像处理器和所述彩色图像处理器的权重值,将所述第一对象标识和所述第二对象标识进行融合,得到所述掌部图像对应的目标对象标识。
所述红外光的波长为940nm。
在一种可能的实现方式中,识别模块1403,还用于通过近距离传感器获取待识别掌部的识别距离,所述识别距离是指所述待识别掌部与所述彩色相机、所述红外相机之间的距离;基于所述识别距离,确定所述彩色相机和所述红外相机的曝光参数;根据所述曝光参数,获取待识别掌部的彩色图像和红外图像;对所述彩色图像和所述红外图像进行掌部对比识别处理,在识别时间段内得到所述待识别掌部对应的目标对象标识,所述识别时间段是指通过所述近距离传感器测量所述识别距离并进行掌部对比识别处理的整个过程所对应的时间;在所述识别时间段大于时间阈值的情况下,执行掌部图像的识别方法,得到所述掌部图像对应的目标对象标识。
图15示出了本申请一示例性实施例示出的计算机设备1500的结构框图。该计算机设备可以实现为本申请上述方案中的服务器。所述图像计算机设备1500包括中央处理单元(Central Processing Unit,CPU)1501、包括随机存取存储器(Random Access Memory,RAM)1502和只读存储器(Read-Only Memory,ROM)1503的系统存储器1504,以及连接系统存储器1504和中央处理单元1501的系统总线1505。所述图像计算机设备1500还包括用于存储操作系统1509、应用程序1510和其他程序模块1511的大容量存储设备1506。
所述大容量存储设备1506通过连接到系统总线1505的大容量存储控制器(未示出)连接到中央处理单元1501。所述大容量存储设备1506及其相关联的计算机可读介质为图像计算机设备1500提供非易失性存储。也就是说,所述大容量存储设备1506可以包括诸如硬盘或者只读光盘(Compact Disc Read-Only Memory,CD-ROM)驱动器之类的计算机可读介质(未示出)。
不失一般性,所述计算机可读介质可以包括计算机存储介质和通信介质。计算机存储介质包括以用于存储诸如计算机可读指令、数据结构、程序模块或其他数据等信息的任何方法或技术实现的易失性和非易失性、可移动和不可移动介质。计算机存储介质包括RAM、可擦除可编程只读寄存器(Erasable Programmable Read Only Memory,EPROM)、电子抹除式可复写只读存储器(Electrically-Erasable Programmable Read-Only Memory,EEPROM)闪存或其他固态存储其技术,CD-ROM、数字多功能光盘(Digital Versatile Disc,DVD)或其他光学存储、磁带盒、磁带、磁盘存储或其他磁性存储设备。当然,本领域技术人员可知所述计算机存储介质不局限于上述几种。上述的系统存储器1504和大容量存储设备1506可以统称为存储器。
根据本公开的各种实施例,所述图像计算机设备1500还可以通过诸如因特网等网络连接到网络上的远程计算机运行。也即图像计算机设备1500可以通过连接在所述系统总线1505上的网络接口单元1507连接到网络1508,或者说,也可以使用网络接口单元1507来连接到其他类型的网络或远程计算机系统(未示出)。
所述存储器还包括至少一段计算机程序,所述至少一段计算机程序存储于存储器中,中央处理器1501通过执行该至少一段程序来实现上述各个实施例所示的掌部图像的识别方法中的全部或部分步骤。
本申请实施例还提供一种计算机设备,该计算机设备包括处理器和存储器,该存储器中存储有至少一条程序,该至少一条程序由处理器加载并执行以实现上述各方法实施例提供的掌部图像的识别方法。
本申请实施例还提供一种计算机可读存储介质,该存储介质中存储有至少一条计算机程序,该至少一条计算机程序由处理器加载并执行以实现上述各方法实施例提供的掌部图像的识别方法。
本申请实施例还提供一种计算机程序产品,所述计算机程序产品包括计算机程序,所述计算机程序存储在计算机可读存储介质中;所述计算机程序由计算机设备的处理器从所述计算机可读存储介质读取并执行,使得所述计算机设备执行以实现上述各方法实施例提供的掌部图像的识别方法。
可以理解的是,在本申请的具体实施方式中,涉及到的数据,历史数据,以及画像等与用户身份或特性相关的用户数据处理等相关的数据,当本申请以上实施例运用到具体产品或技术中时,需要获得用户许可或者同意,且相关数据的收集、使用和处理需要遵守相关国家和地区的相关法律法规和标准。
应当理解的是,在本文中提及的“多个”是指两个或两个以上。“和/或”,描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。字符“/”一般表示前后关联对象是一种“或”的关系。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
以上所述仅为本申请的可选实施例,并不用以限制本申请,凡在本申请的精神和原则之内,所作的任何修改、等同切换、改进等,均应包含在本申请的保护范围之内。
Claims (15)
1.一种掌部图像的识别方法,其特征在于,所述方法包括:
获取同一掌部图像的彩色图像和红外图像,所述彩色图像是指彩色相机基于自然光对掌部成像所得到的图像,所述红外图像是指红外相机基于红外光对所述掌部成像所得到的图像;
将所述彩色图像和所述红外图像进行对齐处理,得到所述彩色图像和所述红外图像之间的对齐关系;
对所述红外图像进行区域识别处理,确定所述红外图像上的第一掌部区域;
基于所述彩色图像和所述红外图像之间的对齐关系,在所述彩色图像上确定与所述第一掌部区域相对应的第二掌部区域;
对所述红外图像的所述第一掌部区域和所述彩色图像的所述第二掌部区域进行掌部对比识别处理,确定所述掌部图像对应的目标对象标识。
2.根据权利要求1所述的方法,其特征在于,所述将所述彩色图像和所述红外图像进行对齐处理,得到所述彩色图像和所述红外图像之间的对齐关系,包括:
将所述彩色图像和所述红外图像进行空间对齐处理和/或时间对齐处理,得到所述彩色图像和所述红外图像之间的对齐关系。
3.根据权利要求2所述的方法,其特征在于,所述将所述彩色图像和所述红外图像进行空间对齐处理,得到所述彩色图像和所述红外图像之间的对齐关系,包括:
获取所述红外图像的像素坐标系中掌部的坐标参数;
基于所述红外相机的相机内参,使用红外相机坐标系表示所述红外图像中所述掌部的坐标参数,所述相机内参用以描述世界坐标系中所述掌部的坐标参数与像素坐标系中所述掌部的坐标参数之间的转换关系的参数;
基于相机外参,使用彩色相机坐标系表示所述红外图像中所述掌部的坐标参数,所述相机外参用以描述所述彩色相机坐标系与所述红外相机坐标系之间的转换关系的参数;
基于所述彩色相机的相机内参,使用所述彩色图像的像素坐标系表示所述红外图像中所述掌部的坐标参数,得到所述彩色图像和所述红外图像之间的空间对齐关系。
4.根据权利要求3所述的方法,其特征在于,所述基于所述彩色图像和所述红外图像之间的对齐关系,在所述彩色图像上确定与所述第一掌部区域相对应的第二掌部区域,包括:
基于所述彩色图像和所述红外图像之间的空间对齐关系,将所述红外图像上的所述第一掌部区域映射至所述彩色图像上,在所述彩色图像上得到所述第二掌部区域。
5.根据权利要求2所述的方法,其特征在于,所述将所述彩色图像和所述红外图像进行时间对齐处理,得到所述彩色图像和所述红外图像之间的对齐关系,包括:
获取所述彩色图像和所述红外图像上标记的时间戳,所述时间戳是指在所述彩色相机和所述红外相机曝光时,在所述彩色图像和所述红外图像上标记的时间性数据;
基于所述时间戳,得到所述彩色图像和所述红外图像之间的时间对齐关系。
6.根据权利要求5所述的方法,其特征在于,所述基于所述彩色图像和所述红外图像之间的对齐关系,在所述彩色图像上确定与所述第一掌部区域相对应的第二掌部区域,包括:
基于所述彩色图像和所述红外图像之间的时间对齐关系,将所述红外图像上的所述第一掌部区域映射至所述彩色图像上,在所述彩色图像上得到所述第二掌部区域。
7.根据权利要求1所述的方法,其特征在于,所述分别对所述红外图像的所述第一掌部区域和所述彩色图像的所述第二掌部区域进行掌部对比识别处理,确定所述掌部图像对应的目标对象标识,包括:
在第i帧所述彩色图像的所述第二掌部区域的质量参数小于预设阈值的情况下,调整所述第二掌部区域的曝光参数,获取第i+1帧所述彩色图像的所述第二掌部区域;
对第i+1帧所述红外图像的所述第一掌部区域和第i+1帧所述彩色图像的所述第二掌部区域进行掌部对比识别处理,根据权重值融合所述第一掌部区域的掌部对比识别结果和所述第二掌部区域的掌部对比识别结果,确定所述掌部图像对应的目标对象标识,i为正整数。
8.根据权利要求1所述的方法,其特征在于,所述对所述红外图像进行区域识别处理,确定所述红外图像上的第一掌部区域,包括:
对所述红外图像中的手指缝点进行检测,基于所述手指缝点确定所述红外图像上的所述第一掌部区域。
9.根据权利要求1所述的方法,其特征在于,所述对所述红外图像的所述第一掌部区域和所述彩色图像的所述第二掌部区域进行掌部对比识别处理,确定所述掌部图像对应的目标对象标识,包括:
通过红外图像处理器对所述红外图像的所述第一掌部区域进行掌部对比识别处理,确定所述掌部图像对应的第一对象标识;
通过彩色图像处理器对所述彩色图像的所述第二掌部区域进行掌部对比识别处理,确定所述掌部图像对应的第二对象标识;
基于所述红外图像处理器和所述彩色图像处理器的权重值,将所述第一对象标识和所述第二对象标识进行融合,得到所述掌部图像对应的目标对象标识。
10.根据权利要求9所述的方法,其特征在于,所述基于所述红外图像处理器和所述彩色图像处理器的权重值,将所述第一对象标识和所述第二对象标识进行融合,得到所述掌部图像对应的目标对象标识,包括:
根据所述彩色图像的所述第二掌部区域的质量参数,确定所述红外图像处理器和所述彩色图像处理器的权重值;
基于所述红外图像处理器和所述彩色图像处理器的权重值,将所述第一对象标识和所述第二对象标识进行融合,得到所述掌部图像对应的目标对象标识。
11.根据权利要求1至10任一所述的方法,其特征在于,所述方法还包括:
通过近距离传感器获取待识别掌部的识别距离,所述识别距离是指所述待识别掌部与所述彩色相机、所述红外相机之间的距离;
基于所述识别距离,确定所述彩色相机和所述红外相机的曝光参数;
根据所述曝光参数,获取所述待识别掌部的所述彩色图像和所述红外图像;
对所述彩色图像和所述红外图像进行掌部对比识别处理,在识别时间段内得到所述待识别掌部对应的所述目标对象标识,所述识别时间段是指通过所述近距离传感器测量识别距离并进行掌部对比识别处理的整个过程所对应的时间;
在所述识别时间段大于时间阈值的情况下,执行掌部图像的识别方法,得到所述掌部图像对应的目标对象标识。
12.一种掌部图像的识别装置,其特征在于,所述装置包括:
获取模块,用于获取同一掌部图像的彩色图像和红外图像,所述彩色图像是指彩色相机基于自然光对掌部成像所得到的图像,所述红外图像是指红外相机基于红外光对所述掌部成像所得到的图像;
对齐模块,用于将所述彩色图像和所述红外图像进行对齐处理,得到所述彩色图像和所述红外图像之间的对齐关系;
识别模块,用于对所述红外图像进行区域识别处理,确定所述红外图像上的第一掌部区域;
所述对齐模块,还用于基于所述彩色图像和所述红外图像之间的对齐关系,在所述彩色图像上确定与所述第一掌部区域相对应的第二掌部区域;
所述识别模块,还用于对所述红外图像的所述第一掌部区域和所述彩色图像的所述第二掌部区域进行掌部对比识别处理,确定所述掌部图像对应的目标对象标识。
13.一种计算机设备,其特征在于,所述计算机设备包括:处理器和存储器,所述存储器中存储有至少一条计算机程序,至少一条所述计算机程序由所述处理器加载并执行以实现如权利要求1至11中任一项所述的掌部图像的识别方法。
14.一种计算机存储介质,其特征在于,所述计算机可读存储介质中存储有至少一条计算机程序,至少一条计算机程序由处理器加载并执行以实现如权利要求1至11中任一项所述的掌部图像的识别方法。
15.一种计算机程序产品,其特征在于,所述计算机程序产品包括计算机程序,所述计算机程序存储在计算机可读存储介质中;所述计算机程序由计算机设备的处理器从所述计算机可读存储介质读取并执行,使得所述计算机设备执行如权利要求1至11中任一项所述的掌部图像的识别方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210552939.3A CN117133021A (zh) | 2022-05-19 | 2022-05-19 | 掌部图像的识别方法、装置、设备、存储介质及程序产品 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210552939.3A CN117133021A (zh) | 2022-05-19 | 2022-05-19 | 掌部图像的识别方法、装置、设备、存储介质及程序产品 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117133021A true CN117133021A (zh) | 2023-11-28 |
Family
ID=88861521
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210552939.3A Pending CN117133021A (zh) | 2022-05-19 | 2022-05-19 | 掌部图像的识别方法、装置、设备、存储介质及程序产品 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117133021A (zh) |
-
2022
- 2022-05-19 CN CN202210552939.3A patent/CN117133021A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3528156B1 (en) | Virtual reality environment-based identity authentication method and apparatus | |
CN111242097B (zh) | 一种人脸识别方法、装置、计算机可读介质及电子设备 | |
EP3567535A1 (en) | Virtual reality scene-based business verification method and device | |
WO2020134238A1 (zh) | 活体检测方法、装置以及存储介质 | |
CN108182412A (zh) | 用于检测图像类型的方法及装置 | |
CN110866977A (zh) | 增强现实处理方法及装置、系统、存储介质和电子设备 | |
CN111881740B (zh) | 人脸识别方法、装置、电子设备及介质 | |
CN112989308B (zh) | 账户的认证方法、装置、设备及介质 | |
CN111310567A (zh) | 一种多人场景下的人脸识别方法及装置 | |
CN110163794B (zh) | 图像的转换方法、装置、存储介质和电子装置 | |
CN117133021A (zh) | 掌部图像的识别方法、装置、设备、存储介质及程序产品 | |
CN114581978A (zh) | 人脸识别的方法和系统 | |
CN114387674A (zh) | 活体检测方法、系统、设备、存储介质及程序产品 | |
CN115482285A (zh) | 图像对齐方法、装置、设备及存储介质 | |
CN117456619A (zh) | 掌部图像的识别方法、装置、设备、存储介质及程序产品 | |
CN113065507B (zh) | 人脸认证的实现方法和装置 | |
CN114743277A (zh) | 活体检测方法、装置、电子设备、存储介质及程序产品 | |
US20210344491A1 (en) | System and method to generate a unique security proof for secure accessing of data | |
CN117826978A (zh) | 基于掌部的人机交互方法、装置、设备、介质及程序产品 | |
CN112906613A (zh) | 一种身份信息采集方法及装置 | |
CN116978081A (zh) | 图像处理方法及其装置、存储介质、程序产品 | |
CN116957114A (zh) | 预约核销的方法和装置、存储介质及电子设备 | |
CN113536249A (zh) | 基于双重认证的事件处理方法和装置 | |
CN115457615A (zh) | 深度图的校正方法、装置、计算机设备和存储介质 | |
CN116824314A (zh) | 信息获取方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
REG | Reference to a national code |
Ref country code: HK Ref legal event code: DE Ref document number: 40100464 Country of ref document: HK |