CN117456619A - 掌部图像的识别方法、装置、设备、存储介质及程序产品 - Google Patents
掌部图像的识别方法、装置、设备、存储介质及程序产品 Download PDFInfo
- Publication number
- CN117456619A CN117456619A CN202210840618.3A CN202210840618A CN117456619A CN 117456619 A CN117456619 A CN 117456619A CN 202210840618 A CN202210840618 A CN 202210840618A CN 117456619 A CN117456619 A CN 117456619A
- Authority
- CN
- China
- Prior art keywords
- palm
- image
- frame
- image recognition
- palm image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 134
- 238000012545 processing Methods 0.000 claims abstract description 57
- 238000003860 storage Methods 0.000 claims abstract description 39
- 238000001514 detection method Methods 0.000 claims abstract description 28
- 230000002452 interceptive effect Effects 0.000 claims description 75
- 230000004044 response Effects 0.000 claims description 35
- 230000001960 triggered effect Effects 0.000 claims description 33
- 238000004590 computer program Methods 0.000 claims description 21
- 230000008569 process Effects 0.000 claims description 16
- 230000008859 change Effects 0.000 claims description 6
- 230000001680 brushing effect Effects 0.000 abstract description 9
- 101100291369 Mus musculus Mip gene Proteins 0.000 description 1168
- 101150116466 PALM gene Proteins 0.000 description 1168
- 238000005516 engineering process Methods 0.000 description 39
- 238000010586 diagram Methods 0.000 description 28
- 210000003811 finger Anatomy 0.000 description 20
- 238000004364 calculation method Methods 0.000 description 12
- 238000004891 communication Methods 0.000 description 12
- 230000006870 function Effects 0.000 description 10
- 238000013473 artificial intelligence Methods 0.000 description 8
- 230000003993 interaction Effects 0.000 description 6
- 238000012795 verification Methods 0.000 description 4
- 238000011161 development Methods 0.000 description 3
- 238000004080 punching Methods 0.000 description 3
- 238000012546 transfer Methods 0.000 description 3
- 230000003247 decreasing effect Effects 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- 230000006855 networking Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 210000004932 little finger Anatomy 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/60—Static or dynamic means for assisting the user to position a body part for biometric acquisition
- G06V40/67—Static or dynamic means for assisting the user to position a body part for biometric acquisition by interactive indications to the user
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/12—Fingerprints or palmprints
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/12—Fingerprints or palmprints
- G06V40/1347—Preprocessing; Feature extraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/60—Static or dynamic means for assisting the user to position a body part for biometric acquisition
Abstract
本申请公开了一种掌部图像的识别方法、装置、设备、存储介质及程序产品,属于计算机技术领域。该方法包括:通过所述摄像头获取所述掌部图像;将所述掌部图像进行掌部检测处理,生成所述掌部图像中掌部的掌部框;基于所述掌部框和所述掌部图像,确定所述掌部相对于所述掌部图像识别设备的位置信息;基于所述位置信息在所述屏幕上显示所述掌部对应的掌部标识,并对所述摄像头在所述预设空间位置拍摄到的掌部图像进行对比识别处理,得到所述掌部图像对应的对象标识。通过上述方法,可根据掌部标识辅助对象将掌部移动至摄像头对应的预设空间位置,从而引导对象将掌部快速移动至合适的刷掌位置,提高了掌部图像识别的识别效率。
Description
技术领域
本申请实施例涉及计算机技术领域,特别涉及一种掌部图像的识别方法、装置、设备、存储介质及程序产品。
背景技术
随着计算机技术的发展,掌部识别技术应用越来越广泛,可以应用于多种场景下。例如,支付场景或上班打卡场景等,通过掌部识别,可以对用户身份进行验证。
相关技术中,用户在刷掌部时,计算机设备采集掌部图像,计算机设备将掌部图像通过网络传输到掌部识别服务器。掌部识别服务器对掌部图像进行识别,从而完成身份识别。
在用户面向带有摄像头的掌部图像识别设备进行刷掌部时,如何保证用户快速将掌部调节至合适的刷掌位置,是亟待解决的重要问题。
发明内容
本申请提供了一种掌部图像的识别方法、装置、设备、存储介质及程序产品,所述技术方案如下:
根据本申请的一方面,提供了一种掌部图像的识别方法,所述方法包括:
通过所述摄像头获取所述掌部图像;
将所述掌部图像进行掌部检测处理,生成所述掌部图像中掌部的掌部框;
基于所述掌部框和所述掌部图像,确定所述掌部相对于所述掌部图像识别设备的位置信息;
基于所述位置信息在所述屏幕上显示所述掌部对应的掌部标识,所述掌部标识用于指示所述掌部移动至所述摄像头对应的预设空间位置,并对所述摄像头在所述预设空间位置拍摄到的掌部图像进行对比识别处理,得到所述掌部图像对应的对象标识。
根据本申请的一方面,提供了一种掌部标识的显示方法,所述方法包括:
显示所述掌部图像识别设备的交互界面;
响应于所述掌部图像识别设备中触发的掌部图像识别操作,显示所述掌部图像对应的掌部标识及有效识别区域标识,所述掌部标识用于表示掌部相对于所述掌部图像识别设备的空间位置,所述有效识别区域标识用于指示所述摄像头对应的预设空间位置;
响应于所述掌部的移动,更新所述掌部标识在所述交互界面上的显示位置,所述显示位置与所述掌部在所述摄像头前方的位置对应;
响应于所述掌部标识移动至所述有效识别区域标识的位置,显示所述掌部图像正在进行掌部图像识别的第一提示信息。
根据本申请的一方面,提供了一种掌部图像的识别装置,所述装置包括:
获取模块,用于通过所述摄像头获取所述掌部图像;
掌部框检测模块,用于将所述掌部图像进行掌部检测处理,生成所述掌部图像中掌部的掌部框及所述掌部框的参数信息;
位置信息确定模块,用于基于所述掌部框和所述掌部图像,确定所述掌部相对于所述掌部图像识别设备的位置信息;
识别模块,用于基于所述位置信息在所述屏幕上显示所述掌部对应的掌部标识,所述掌部标识用于指示所述掌部移动至所述摄像头对应的所述预设空间位置,并对所述摄像头在所述预设空间位置拍摄到的掌部图像进行对比识别处理,得到所述掌部图像对应的对象标识。
在一种可能的实现方式中,掌部框检测模块,用于将所述掌部图像进行所述掌部检测处理,确定所述掌部的参数信息;基于所述掌部的参数信息确定所述掌部框的参数信息;基于所述掌部框的参数信息生成所述掌部图像中所述掌部的所述掌部框;其中,所述掌部框的参数信息包括所述掌部框的宽、高和掌部框中心点
在一种可能的实现方式中,所述位置信息包括方位信息;位置信息确定模块,用于基于掌部框中心点和所述掌部图像的图像中心点,确定所述掌部相对于所述摄像头的所述方位信息。
在一种可能的实现方式中,所述位置信息包括距离信息;位置信息确定模块,用于基于所述掌部框的宽和/或高,计算得到所述掌部相对于所述掌部图像识别设备的所述距离信息。
在一种可能的实现方式中,位置信息确定模块,用于基于所述掌部框的宽和高,计算所述掌部框的面积;将所述掌部框的面积与预设面积阈值进行对比处理,得到所述掌部相对于所述摄像头的所述距离信息。
在一种可能的实现方式中,位置信息确定模块,用于基于所述掌部框的宽和第一阈值进行计算处理,得到所述掌部相对于所述掌部图像识别设备的第一距离值,所述第一阈值是指预设的掌部框的宽的值。
在一种可能的实现方式中,位置信息确定模块,用于基于所述掌部框的高和第二阈值进行计算处理,得到所述掌部相对于所述掌部图像识别设备的第二距离值,所述第二阈值是指预设的掌部框的高的值。
在一种可能的实现方式中,位置信息确定模块,用于基于所述掌部框的宽和第一阈值进行计算处理,得到所述掌部相对于所述掌部图像识别设备的第一距离值;基于所述掌部对应的所述掌部框的高和第二阈值进行计算处理,得到所述掌部相对于所述掌部图像识别设备的第二距离值;基于所述第一距离值和所述第二距离值,得到所述掌部相对于所述掌部图像识别设备的所述距离信息。
在一种可能的实现方式中,掌部框检测模块,用于将所述掌部图像进行图像划分,得到至少两个格子;通过掌部框识别模型对每一个所述格子进行至少一个掌部框预测,得到每一个预测掌部框对应的置信度值;基于所述预测掌部框对应的置信度值,确定所述掌部图像中所述掌部的所述掌部框。
在一种可能的实现方式中,掌部框检测模块,用于获取样本掌部图像及所述样本掌部图像对应的样本掌部框;通过所述掌部框识别模型对所述样本掌部图像进行数据处理,得到预测掌部框;基于所述预测掌部框和所述样本掌部框之间的差值,对所述掌部框识别模型的模型参数进行更新。
根据本申请的一方面,提供了一种掌部标识的显示装置,所述装置包括:
显示模块,用于显示所述掌部图像识别设备的交互界面;
所述显示模块,还用于响应于所述掌部图像识别设备中触发的掌部图像识别操作,显示所述掌部图像对应的掌部标识及有效识别区域标识,所述掌部标识用于表示掌部相对于所述掌部图像识别设备的空间位置,所述有效识别区域标识用于指示所述摄像头对应的预设空间位置;
所述显示模块,还用于响应于所述掌部的移动,更新所述掌部标识在所述交互界面上的显示位置,所述显示位置与所述掌部在所述摄像头前方的位置对应;
所述显示模块,还用于响应于所述掌部标识移动至所述有效识别区域标识的位置,显示所述掌部图像正在进行掌部图像识别的第一提示信息。
在一种可能的实现方式中,显示模块,用于响应于所述掌部图像识别设备中触发的掌部图像识别操作,在所述摄像头拍摄所述掌部图像的过程中,通过所述掌部标识及所述有效识别区域标识显示所述掌部相对于所述掌部图像识别设备的位置信息。
在一种可能的实现方式中,所述位置信息包括方位信息;显示模块,用于响应于所述掌部图像识别设备中触发的掌部图像识别操作,通过显示所述掌部标识与所述有效识别区域标识之间的相对位置信息来表示所述掌部与所述摄像头之间的所述方位信息。
在一种可能的实现方式中,所述位置信息包括距离信息;显示模块,用于响应于所述掌部图像识别设备中触发的掌部图像识别操作,通过显示所述掌部标识的形状变化来表示所述掌部与所述摄像头之间的所述距离信息。
在一种可能的实现方式中,显示模块,用于响应于所述掌部图像识别设备中触发的掌部图像识别操作,显示第二提示信息,所述第二提示信息用以指示所述掌部标识移动至所述有效识别区域标识的位置。
根据本申请的另一方面,提供了一种计算机设备,该计算机设备包括:处理器和存储器,存储器中存储有至少一条计算机程序,至少一条计算机程序由处理器加载并执行以实现如上方面所述的掌部图像的识别方法。
根据本申请的另一方面,提供了一种计算机存储介质,计算机可读存储介质中存储有至少一条计算机程序,至少一条计算机程序由处理器加载并执行以实现如上方面所述的掌部图像的识别方法。
根据本申请的另一方面,提供了一种计算机程序产品,上述计算机程序产品包括计算机程序,所述计算机程序存储在计算机可读存储介质中;所述计算机程序由计算机设备的处理器从所述计算机可读存储介质读取并执行,使得所述计算机设备执行如上方面所述的掌部图像的识别方法。
本申请提供的技术方案带来的有益效果至少包括:
通过摄像头获取掌部图像;将掌部图像进行掌部检测处理,生成掌部图像中掌部的掌部框;基于掌部框和掌部图像,确定掌部相对于掌部图像识别设备的位置信息;基于位置信息在屏幕上显示掌部对应的掌部标识,掌部标识用于指示掌部移动至摄像头对应的预设空间位置,并对摄像头在预设空间位置拍摄到的掌部图像进行对比识别处理,得到掌部图像对应的对象标识。本申请通过掌部图像中的掌部框和掌部图像,确定出掌部相对于掌部图像识别设备的位置信息;并基于位置信息在屏幕上显示掌部对应的掌部标识,可根据掌部标识辅助对象将掌部移动至摄像头对应的预设空间位置,从而引导对象将掌部快速移动至合适的刷掌位置,提高了掌部图像识别的识别效率。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请一个示例性实施例提供的一种掌部图像的识别方法的示意图;
图2是本申请一个示例性实施例提供的计算机系统的架构示意图;
图3是本申请一个示例性实施例提供的掌部图像的识别方法的流程图;
图4是本申请一个示例性实施例提供的掌部图像的识别方法的流程图;
图5是本申请一个示例性实施例提供的手掌中掌部框的示意图;
图6是本申请一个示例性实施例提供的手掌中手指缝点的示意图;
图7是本申请一个示例性实施例提供的手掌中掌部框的示意图;
图8是本申请一个示例性实施例提供的基于掌部图像的识别方法的跨设备支付的示意图;
图9是本申请一个示例性实施例提供的基于掌部图像的识别方法的跨设备身份验证的示意图;
图10是本申请一个示例性实施例提供的掌部标识的显示方法的流程图;
图11是本申请一个示例性实施例提供的掌部标识的显示方法的流程图;
图12是本申请一个示例性实施例提供的掌部图像识别设备的交互界面的示意图;
图13是本申请一个示例性实施例提供的掌部相对于掌部图像识别设备的位置信息的示意图;
图14是本申请一个示例性实施例提供的掌部标识相对于有效识别区域标识的示意图;
图15是本申请一个示例性实施例提供的正在进行掌部图像识别的交互界面的示意图;
图16是本申请一个示例性实施例提供的掌部图像的识别方法的流程图;
图17是本申请一个示例性实施例提供的掌部图像的识别装置的框图;
图18是本申请一个示例性实施例提供的掌部标识的显示装置的框图;
图19是本申请一个示例性实施例提供的计算机设备的结构示意图。
具体实施方式
为使本申请的目的、技术方案和优点更加清楚,下面将结合附图对本申请实施方式作进一步地详细描述。
首先对本申请实施例涉及的若干个名词进行简介:
人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。换句话说,人工智能是计算机科学的一个综合技术,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器。人工智能也就是研究各种智能机器的设计原理与实现方法,使机器具有感知、推理与决策的功能。
人工智能技术是一门综合学科,涉及领域广泛,既有硬件层面的技术也有软件层面的技术。人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
云技术(Cloud technology)是指在广域网或局域网内将硬件、软件、网络等系列资源统一起来,实现数据的计算、储存、处理和共享的一种托管技术。
云技术(Cloud technology)基于云计算商业模式应用的网络技术、信息技术、整合技术、管理平台技术、应用技术等的总称,可以组成资源池,按需所用,灵活便利。云计算技术将变成重要支撑。技术网络系统的后台服务需要大量的计算、存储资源,如视频网站、图片类网站和更多的门户网站。伴随着互联网行业的高度发展和应用,将来每个物品都有可能存在自己的识别标志,都需要传输到后台系统进行逻辑处理,不同程度级别的数据将会分开处理,各类行业数据皆需要强大的系统后盾支撑,只能通过云计算来实现。
云计算(Cloud computing)是一种计算模式,它将计算任务分布在大量计算机构成的资源池上,使各种应用系统能够根据需要获取计算力、存储空间和信息服务。提供资源的网络被称为“云”。“云”中的资源在使用者看来是可以无限扩展的,并且可以随时获取,按需使用,随时扩展,按使用付费。
作为云计算的基础能力提供商,会建立云计算资源池(简称云平台,一般称为IaaS(Infrastructure as a Service,基础设施即服务)平台,在资源池中部署多种类型的虚拟资源,供外部客户选择使用。云计算资源池中主要包括:计算设备(为虚拟化机器,包含操作系统)、存储设备、网络设备。
按照逻辑功能划分,在IaaS(Infrastructure as a Service,基础设施即服务)层上可以部署PaaS(Platform as a Service,平台即服务)层,PaaS层之上再部署SaaS(Software as a Service,软件即服务)层,也可以直接将SaaS部署在IaaS上。PaaS为软件运行的平台,如数据库、Web(World Wide Web,全球广域网)容器等。SaaS为各式各样的业务软件,如web门户网站、短信群发器等。一般来说,SaaS和PaaS相对于IaaS是上层。
计算机视觉技术(Computer Vision,CV)是一门研究如何使机器“看”的科学,更进一步的说,就是指用摄影机和电脑代替人眼对目标进行识别和测量等机器视觉,并进一步做图形处理,使电脑处理成为更适合人眼观察或传送给仪器检测的图像。作为一个科学学科,计算机视觉研究相关的理论和技术,试图建立能够从图像或者多维数据中获取信息的人工智能系统。计算机视觉技术通常包括图像处理、图像识别、图像语义理解、图像检索、视频处理、视频语义理解、视频内容/行为识别、三维物体重建、3D技术、虚拟现实、增强现实、同步定位与地图构建等技术,还包括常见的生物特征识别技术。
本申请实施例提供了一种掌部图像的识别方法的示意图,如图1所示,该方法应用于具有摄像头的掌部图像识别设备,该方法可以由计算机设备执行,计算机设备可以是终端或服务器。
示例性地,计算机设备显示掌部图像识别设备的交互界面101;计算机设备响应于掌部图像识别设备中触发的掌部图像识别操作,显示掌部图像对应的掌部标识102及有效识别区域标识103;计算机设备响应于掌部的移动,更新掌部标识102在交互界面101上的显示位置,其中,显示位置与掌部在摄像头前方的位置对应;计算机设备响应于掌部标识102移动至有效识别区域标识103的位置,显示掌部图像正在进行掌部图像识别的第一提示信息105。
可选地,在计算机设备响应于掌部标识102移动至有效识别区域标识103的位置,显示掌部图像正在进行掌部图像识别的第一提示信息105,且取消显示掌部标识102。
掌部标识102用于表示掌部相对于掌部图像识别设备的空间位置,即,在摄像头拍摄掌部图像的过程中,掌部在交互界面101中显示的对应标识,掌部标识102随着掌部的移动而移动。
有效识别区域标识103用于指示摄像头对应的预设空间位置。在掌部移动至预设空间位置的情况下,摄像头拍摄到的掌部图像质量最佳,能够快速实现掌部图像的识别。
示例性地,计算机设备响应于掌部图像识别设备中触发的掌部图像识别操作,在摄像头拍摄掌部图像的过程中,显示掌部相对于掌部图像识别设备的位置信息。
可选地,计算机设备响应于掌部图像识别设备中触发的掌部图像识别操作,通过显示掌部标识102与有效识别区域标识103之间的相对位置信息来表示掌部与摄像头之间的方位信息。
例如,如图1中的(a)图所示,计算机设备在交互界面101中通过掌部标识102相对于有效识别区域标识103的位置信息显示掌部相对于摄像头的方位信息,在交互界面101中掌部标识102位于有效识别区域标识103的左下方,则可知掌部同样位于摄像头的左下方。在掌部标识102没有位于有效识别区域标识103的位置的情况下,在交互界面101中显示第二提示信息104“请移动掌部至目标区域”。
第二提示信息104用以指示掌部标识102移动至有效识别区域标识103的位置。
可选地,计算机设备响应于掌部图像识别设备中触发的掌部图像识别操作,通过显示掌部标识102的形状变化来表示掌部与摄像头之间的距离信息。
距离信息是指掌部相对于摄像头的距离。
例如,如图1中的(b)图所示,计算机设备在交互界面101中通过掌部标识102的形状变化来显示掌部与摄像头之间的距离信息,在交互界面101中掌部标识102位于有效识别区域标识103的位置且掌部离摄像头较近的情况下,计算机设备在交互界面101中通过增大掌部标识102的形状来表示掌部离摄像头的距离,并在交互界面101中显示第二提示信息104“请向后移动掌部”。
例如,如图1中的(c)图所示,在交互界面101中掌部标识102位于有效识别区域标识103的位置且掌部离摄像头较远的情况下,计算机设备在交互界面101中通过减小掌部标识102的形状来表示掌部离摄像头的距离,并在交互界面101中显示第二提示信息104“请向前移动掌部”。
可选地,当掌部离摄像头较近时,掌部标识102的形状变大;当掌部离摄像头较远时,掌部标识102的形状变小,但不限于此,本申请实施例对此不作具体限定。
示例性地,计算机设备响应于掌部标识102移动至有效识别区域标识103的位置,显示掌部图像正在进行掌部图像识别的第一提示信息105。
例如,如图1中的(d)图所示,在掌部标识102移动至有效识别区域标识103且掌部图像可以被识别的情况下,显示掌部图像正在进行掌部图像识别的第一提示信息105“正在进行掌部图像识别”。
综上所述,本实施例提供的方法,通过显示掌部图像识别设备的交互界面;响应于掌部图像识别设备中触发的掌部图像识别操作,显示掌部图像对应的掌部标识及有效识别区域标识;响应于掌部的移动,更新掌部标识在交互界面上的显示位置,显示位置与掌部在摄像头前方的位置对应;响应于掌部标识移动至有效识别区域标识的位置,显示掌部图像正在进行掌部图像识别的第一提示信息。本申请通过将对象对应的掌部显示为界面中的掌部标识,将摄像头对应的预设空间位置显示为交互界面中的有效识别区域标识,通过在交互界面上显示掌部标识与有效识别区域标识之间的相对位置信息来表示掌部与摄像头之间的方位信息、距离信息,从而引导对象将掌部快速移动至合适的刷掌位置,提高了掌部图像识别的识别效率。
图2示出了本申请一个实施例提供的计算机系统的架构示意图。该计算机系统可以包括:终端100和服务器200。
终端100可以是诸如手机、平板电脑、车载终端(车机)、可穿戴设备、个人计算机(Personal Computer,PC)、智能语音交互设备、智能家电、车载终端、飞行器、无人售货终端等电子设备。终端100中可以安装运行目标应用程序的客户端,该目标应用程序可以是参考掌部图像识别的应用程序,也可以是提供有掌部图像识别功能的其他应用程序,本申请对此不作限定。另外,本申请对该目标应用程序的形式不作限定,包括但不限于安装在终端100中的应用程序(Application,App)、小程序等,还可以是网页形式。
服务器200可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群或者分布式系统,还可以是提供云计算服务的云服务器、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、内容分发网络(Content DeliveryNetwork,CDN)、以及大数据和人工智能平台等基础云计算服务的云服务器。服务器200可以是上述目标应用程序的后台服务器,用于为目标应用程序的客户端提供后台服务。
其中,云技术(Cloud technology)是指在广域网或局域网内将硬件、软件、网络等系列资源统一起来,实现数据的计算、储存、处理和共享的一种托管技术。云技术基于云计算商业模式应用的网络技术、信息技术、整合技术、管理平台技术、应用技术等的总称,可以组成资源池,按需所用,灵活便利。云计算技术将变成重要支撑。技术网络系统的后台服务需要大量的计算、存储资源,如视频网站、图片类网站和更多的门户网站。伴随着互联网行业的高度发展和应用,将来每个物品都有可能存在自己的识别标志,都需要传输到后台系统进行逻辑处理,不同程度级别的数据将会分开处理,各类行业数据皆需要强大的系统后盾支撑,只能通过云计算来实现。
在一些实施例中,上述服务器还可以实现为区块链系统中的节点。区块链(Blockchain)是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链,本质上是一个去中心化的数据库,是一串使用密码学方法相关联产生的数据块,每一个数据块中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层。
终端100和服务器200之间可以通过网络进行通信,如有线或无线网络。
本申请实施例提供的掌部图像的识别方法,各步骤的执行主体可以是计算机设备,所述计算机设备是指具备数据计算、处理和存储能力的电子设备。以图2所示的方案实施环境为例,可以由终端100执行掌部图像的识别方法(如终端100中安装运行的目标应用程序的客户端执行掌部图像的识别方法),也可以由服务器200执行该掌部图像的识别方法,或者由终端100和服务器200交互配合执行,本申请对此不作限定。
图3是本申请一个示例性实施例提供的掌部图像的识别方法的流程图。该方法应用于具有摄像头和大屏幕的掌部图像识别设备,该方法可以由计算机设备执行,计算机设备可以是图2中的终端100或服务器200。该方法包括:
步骤302:通过摄像头获取掌部图像。
掌部图像为待确定对象标识的掌部图像,该掌部图像中包含手掌,该手掌为待验证身份的对象的手掌,该掌部图像还可以包含其他的信息,如对象的手指、摄像头拍摄对象手掌时所处的场景等。
示例性地,该掌部图像可以是由该计算机设备中的摄像头对待验证身份的对象的手掌进行拍摄得到的,也可以是由其他设备携带的摄像头拍摄得到并发送过来的。
例如,计算机设备为商店支付设备,商店支付设备通过摄像头拍摄对象的手掌,得到该掌部图像;或者,计算机设备为掌部图像识别服务器,商店支付设备通过摄像头拍摄到对象的掌部图像后,将该掌部图像发送至该掌部图像识别服务器。
步骤304:将掌部图像进行掌部检测处理,生成掌部图像中掌部的掌部框。
掌部检测处理是指在掌部图像中确定出掌部,并以掌部框的形式来表示掌部图像中的掌部。
步骤306:基于掌部框和掌部图像,确定掌部相对于掌部图像识别设备的位置信息。
示例性地,计算机设备通过对比掌部图像中的掌部框和掌部图像,确定出掌部与掌部图像识别设备之间的位置信息。
可选地,位置信息包括方位信息和距离信息。
方位信息是指掌部相对于掌部图像识别设备的方位关系。
距离信息是指掌部相对于掌部图像识别设备的距离关系。
步骤308:基于位置信息在屏幕上显示掌部对应的掌部标识,掌部标识用于指示掌部移动至摄像头对应的预设空间位置,并对摄像头在预设空间位置拍摄到的掌部图像进行对比识别处理,得到掌部图像对应的对象标识。
掌部标识用于指示掌部移动至摄像头对应的预设空间位置。
预设空间位置是指摄像头能够拍摄到的质量最佳的掌部图像的位置,即,在掌部移动至预设空间位置的情况下,摄像头拍摄到的掌部图像质量最佳,能够快速实现掌部图像的识别。
示例性地,掌部对比识别处理是指将掌部区域的特征与数据库中的预设掌部特征进行对比识别。
预设掌部特征为存储的对象标识掌部的掌部特征,每个预设掌部特征具有对应的对象标识,表示该预设掌部特征属于该对象标识,是该对象掌部的掌部特征。该对象标识可以为任意的对象标识,如,该对象标识为支付应用中注册的对象标识,或,该对象标识为企业中登记的对象标识。
在本申请实施例中,计算机设备中包括数据库,该数据库中包括多个预设掌部特征,及每个预设掌部特征对应的对象标识。在该数据库中,预设掌部特征与对象标识可以是一一对应,也可以是一个对象标识对应至少两个预设掌部特征。
例如,多个对象在支付应用中进行注册,通过将每个对象的预设掌部特征与对应的对象标识进行绑定,将多个对象的掌部特征与对应的对象标识对应存储于数据库中,后续对象使用支付应用时,通过对摄像头拍摄的掌部图像与数据库中的预设掌部特征进行掌部对比识别处理,来确定对象标识,实现对对象的身份验证。
综上所述,本实施例提供的方法,通过摄像头获取掌部图像;将掌部图像进行掌部检测处理,生成掌部图像中掌部的掌部框;基于掌部框和掌部图像,确定掌部相对于掌部图像识别设备的位置信息;基于位置信息在屏幕上显示掌部对应的掌部标识,掌部标识用于指示掌部移动至摄像头对应的预设空间位置,并对摄像头在预设空间位置拍摄到的掌部图像进行对比识别处理,得到掌部图像对应的对象标识。本申请通过掌部图像中的掌部框和掌部图像,确定出掌部相对于掌部图像识别设备的位置信息;并基于位置信息显示掌部对应的掌部标识,根据掌部标识指示掌部移动至摄像头对应的预设空间位置,从而引导对象将掌部快速移动至合适的刷掌位置,提高了掌部图像识别的识别效率。
图4是本申请一个示例性实施例提供的掌部图像的识别方法的流程图。该方法应用于具有摄像头和大屏幕的掌部图像识别设备,该方法可以由计算机设备执行,计算机设备可以是图2中的终端100或服务器200。该方法包括:
步骤402:通过摄像头获取掌部图像。
掌部图像为待确定对象标识的掌部图像,该掌部图像中包含手掌,该手掌为待验证身份的对象的手掌,该掌部图像还可以包含其他的信息,如对象的手指、摄像头拍摄对象手掌时所处的场景等。
示例性地,计算机设备对对象的手掌进行拍摄,得到掌部图像。其中,该掌部图像中包含该手掌,该手掌可以为对象的左手掌,也可以为对象的右手掌。例如,该计算机设备为物联网设备,该物联网设备通过摄像头拍摄对象的左手掌,得到掌部图像,该物联网设备可以为商家支付终端。再例如,对象在商店购物进行交易时,对象将手掌伸向商店支付终端的摄像头,该商店支付终端通过该摄像头拍摄该对象的手掌,得到掌部图像。
在一种可能实现方式中,计算机设备与其他设备建立通信连接,通过该通信连接,接收其他设备发送的掌部图像。例如,该计算机设备为支付应用服务器,其他设备可以为支付终端,支付终端拍摄对象的手掌,得到掌部图像后,通过该支付终端与支付应用服务器之间的通信连接,将该掌部图像发送至支付应用服务器,以使该支付应用服务器能够确定该掌部图像的对象标识。
步骤404:将掌部图像进行掌部检测处理,确定掌部的参数信息,基于掌部的参数信息确定掌部框的参数信息,基于掌部框的参数信息生成掌部图像中掌部的掌部框。
掌部检测处理是指在掌部图像中确定出掌部,并以掌部框的形式来表示掌部图像中的掌部。
掌部的参数信息包括掌部的宽、高和掌部中心点。
掌部框的参数信息包括掌部框的宽、高和掌部框中心点。
示例性地,计算机设备将将掌部图像输入至掌部框识别模型进行图像划分,得到至少两个格子;计算机设备通过掌部框识别模型对每一个格子进行至少一个掌部框预测,得到每一个预测掌部框对应的置信度值;计算机设备基于预测掌部框对应的置信度值,确定掌部图像中掌部的掌部框。
例如,计算机设备将掌部图像划分为7*7的格子,计算机设备对每个格子进行2个预测掌部框的预测,每个预测掌部框包括5个预测值,分别为:x、y、w、h和confidence,其中,x、y用以表示预测掌部框的左上角的像素点的位置坐标,w、h用以表示预测掌部框的宽和高,confidence用以表示预测掌部框的置信度值。
针对每个预测掌部框对应的置信度值,计算机设备基于每个预测掌部框对应的置信度值,确定出掌部图像中掌部的掌部框。
示例性地,如图5所示出的手掌中掌部框的示意图,其中,掌部框位置坐标点501为掌部框对应的像素位置,掌部框中心点502为掌部框的中心点,例如,掌部框位置坐标点501的坐标为(x,y),掌部框的宽为w,掌部框的高为h,则掌部框中心点502的坐标可表示为(x+w/2,y+h/2)。
在一种可能的实现方式中,如图6所示出的手掌中手指缝点的示意图,手指缝点为食指与中指之间的第一手指缝点601,或,手指缝点为中指与无名指之间的第二手指缝点602,或,手指缝点为无名指与小指之间的第三手指缝点603。
由于在掌部图像中的掌部可能存在于该掌部图像中的任一区域,为了能够确定掌部在该掌部图像中的位置,通过对该掌部图像进行手指缝点检测,从而得到掌部的至少一个手指缝点,以便后续能够根据该至少一个手指缝点,确定掌部框。
在一种可能的实现方式中,计算机设备将掌部图像进行图像划分,得到至少两个格子;计算机设备通过掌部框识别模型对每一个格子进行至少一个掌部框预测,得到每一个预测掌部框对应的置信度值;计算机设备基于预测掌部框对应的置信度值,确定掌部图像中掌部的掌部框。
可选地,计算机设备获取样本掌部图像及样本掌部图像对应的样本掌部框;计算机设备通过掌部框识别模型对样本掌部图像进行数据处理,得到预测掌部框;计算机设备基于预测掌部框和样本掌部框之间的差值,对掌部框识别模型的模型参数进行更新。
步骤406:基于掌部框中心点和掌部图像的图像中心点,确定掌部相对于摄像头的方位信息。
示例性地,计算机设备通过对比掌部图像中的掌部框和掌部图像,确定出掌部与掌部图像识别设备之间的位置信息。
可选地,位置信息包括方位信息和距离信息。
方位信息是指掌部相对于掌部图像识别设备的方位关系。
距离信息是指掌部相对于掌部图像识别设备的距离关系。
示例性地,计算机设备基于掌部框中心点和掌部图像的图像中心点,确定掌部相对于摄像头的方位信息。
例如,如图7所示出的手掌中掌部框的示意图,其中,掌部框位置坐标点701为掌部框对应的像素位置,掌部框中心点702为掌部框的中心点,图像中心点703为掌部图像的图像中心点,例如,图像中心点703的坐标为(W/2,H/2),其中,W为掌部图像的宽,H为掌部图像的高,掌部框位置坐标点701的坐标为(x,y),掌部框的宽为w,掌部框的高为h,则掌部框中心点702的坐标可表示为(x+w/2,y+h/2),则,掌部框中心点702相对于图像中心点703的偏移量可表示为:dx=x+w/2-W/2,dy=y+h/2-H/2。
步骤408:基于掌部框的宽和/或高,计算得到掌部相对于掌部图像识别设备的距离信息。
示例性地,计算机设备基于掌部框的宽和/或高,计算得到掌部相对于掌部图像识别设备的距离信息。
掌部相对于掌部图像识别设备的距离信息可通过如下四种方法得到:
方法一:计算机设备基于掌部框的宽和高,计算掌部框的面积;计算机设备将掌部框的面积与预设面积阈值进行对比处理,得到掌部相对于摄像头的距离信息。
例如,计算机设备预设的预设面积阈值为K,计算机设备将掌部框的面积与预设面积阈值K进行对比,在计算得到的掌部框的面积大于预设面积阈值K的情况下,掌部相对于掌部图像识别设备的距离较近;反之,在计算得到的掌部框的面积小于预设面积阈值K的情况下,掌部相对于掌部图像识别设备的距离较远。
方法二:计算机设备基于掌部框的宽和第一阈值进行计算处理,得到掌部相对于掌部图像识别设备的第一距离值,第一阈值是指预设的掌部框的宽的值。
例如,计算机设备设定的第一阈值为掌部在距离掌部图像识别设备50mm和300mm时预设的掌部框的宽的值,比如,掌部在距离掌部图像识别设备50mm时预设的掌部框的宽为w1,掌部在距离掌部图像识别设备300mm时预设的掌部框的宽为w2,计算机设备得到的掌部框的宽为w。
则,基于掌部框的宽计算第一距离值的公式可表示为:
式中,Sw为第一距离值,w1为掌部在距离掌部图像识别设备50mm时预设的掌部框的宽,w2为掌部在距离掌部图像识别设备300mm时预设的掌部框的宽,w为计算机设备得到的掌部框的宽。
方法三:计算机设备基于掌部框的高和第二阈值进行计算处理,得到掌部相对于掌部图像识别设备的第二距离值,第二阈值是指预设的掌部框的高的值。
例如,计算机设备设定的第二阈值为掌部在距离掌部图像识别设备50mm和300mm时预设的掌部框的高的值,比如,掌部在距离掌部图像识别设备50mm时预设的掌部框的高为h1,掌部在距离掌部图像识别设备300mm时预设的掌部框的高为h2,计算机设备得到的掌部框的高为h。
则,基于掌部框的宽计算第一距离值的公式可表示为:
式中,Sh为第二距离值,h1为掌部在距离掌部图像识别设备50mm时预设的掌部框的宽,h2为掌部在距离掌部图像识别设备300mm时预设的掌部框的宽,h为计算机设备得到的掌部框的高。
方法四:计算机设备基于掌部框的宽和第一阈值进行计算处理,得到掌部相对于掌部图像识别设备的第一距离值;计算机设备基于掌部对应的掌部框的高和第二阈值进行计算处理,得到掌部相对于掌部图像识别设备的第二距离值;计算机设备基于第一距离值和第二距离值,得到掌部相对于掌部图像识别设备的距离信息。
计算机设备基于第一距离值和第二距离值同时进行考虑,得到掌部相对于掌部图像识别设备的距离信息。第一距离值和第二距离的获取方式可通过方法二和方法三中的公式获得,本处不再赘述。
计算机设备通过min(Sw,Sh)来判断掌部相对于掌部图像识别设备是否超过预设最远距离,通过max(Sw,Sh)来判断掌部相对于掌部图像识别设备是否超过预设最近距离,当距离大于预设最远距离的情况下,提示掌部靠近;当距离小于预设最近距离的情况下,提示掌部远离。
步骤410:基于位置信息在屏幕上显示掌部对应的掌部标识,掌部标识用于指示掌部移动至摄像头对应的预设空间位置,并对摄像头在预设空间位置拍摄到的掌部图像进行对比识别处理,得到掌部图像对应的对象标识。
示例性地,掌部标识用于指示掌部移动至摄像头对应的预设空间位置,在掌部移动至预设空间位置且计算机设备能够对拍摄的掌部图像进行识别时,计算机设备对掌部图像进行对比识别处理,得到掌部图像对应的对象标识。
示例性地,掌部对比识别处理是指将掌部区域的特征与数据库中的预设掌部特征进行对比识别。
预设掌部特征为存储的对象标识掌部的掌部特征,每个预设掌部特征具有对应的对象标识,表示该预设掌部特征属于该对象标识,是该对象掌部的掌部特征。该对象标识可以为任意的对象标识,如,该对象标识为支付应用中注册的对象标识,或,该对象标识为企业中登记的对象标识。
需要说明的是,掌部作为生物特征的一种,具有生物唯一性与区分性。相对于目前被广泛应用于核身、支付、门禁、乘车等领域的面部识别,掌部不会受化妆、口罩、墨镜等影响,可以提高对象身份验证的准确率。在某些场景下,如疫情防控场景下,需要佩戴口罩遮住口鼻,这种情况下使用掌部图像进行身份验证可以作为一种更好的选择。
跨设备注册识别是一种对于对象体验非常重要的能力。对于关联的两种类型的设备,对象可以在一种类型的设备中进行注册,将对象的对象标识与该对象的掌部特征进行绑定,之后该对象可以在另一种类型的设备上进行身份验证。由于手机和物联网设备在图像风格和图像质量上差别大,通过跨设备注册识别,可以使对象在手机端注册后,直接可以在物联网设备端进行使用,无需对象在两种类型的设备上进行注册,例如,对象通过手机端进行注册后,可以在商店的设备上直接进行身份验证,无需对象在该商店的设备上进行注册,避免了对象的信息泄露。
在一种可能的实现方式中,计算机设备基于位置信息在屏幕上显示掌部对应的掌部标识,计算机设备基于掌部标识移动摄像头,将摄像头的预设空间位置移动至掌部所在位置并进行拍摄,对摄像头拍摄到的掌部图像进行对比识别处理,得到掌部图像对应的对象标识。
综上所述,本实施例提供的方法,通过摄像头获取掌部图像;将掌部图像进行掌部检测处理,得到掌部图像中掌部的掌部框;基于掌部框和掌部图像,确定掌部相对于掌部图像识别设备的方位信息和距离信息;基于方位信息和距离信息显示掌部对应的掌部标识,掌部标识用于指示掌部移动至摄像头对应的预设空间位置,并对摄像头在预设空间位置拍摄到的掌部图像进行对比识别处理,得到掌部图像对应的对象标识。本申请通过掌部图像中的掌部框和掌部图像,确定出掌部相对于掌部图像识别设备的方位信息和距离信息;并基于方位信息和距离信息显示掌部对应的掌部标识,根据掌部标识指示掌部移动至摄像头对应的预设空间位置,从而引导对象将掌部快速移动至合适的刷掌位置,提高了掌部图像识别的识别效率。
图8是本申请一个示例性实施例提供的基于掌部图像的识别方法的跨设备支付的示意图。该方法涉及对象终端801、商户终端803及支付应用服务器802。
其中,对象终端801安装有支付应用,对象终端801基于对象标识登录支付应用,与支付应用服务器802建立通信连接,通过该通信连接,对象终端801与支付应用服务器802可以进行交互;商户终端803均安装有支付应用,商户终端803基于商户标识登录支付应用,与支付应用服务器802建立通信连接,通过该通信连接,商户终端803与支付应用服务器802可以进行交互。
该跨设备支付流程包括:
1、对象在家中手持对象终端801,通过该对象终端801拍摄对象自己的手掌,得到该对象的掌部图像,基于对象标识登录支付应用,向支付应用服务器802发送掌部图像注册请求,该掌部图像注册请求携带该对象标识及掌部图像。
2、支付应用服务器802接收到对象终端801发送的掌部图像注册请求,对掌部图像进行处理,得到该掌部图像的掌部特征,将该掌部特征与该对象标识进行对应存储,向对象终端801发送掌部图像绑定成功通知。
其中,支付应用服务器802将掌部特征与对象标识进行对应存储后,将该掌部特征作为预设掌部特征,后续可以通过存储的预设掌部特征,来确定对应的对象标识。
3、对象终端801接收到掌部图像绑定成功通知,显示该掌部图像绑定成功通知,提示对象掌部图像与对象标识绑定。
其中,对象通过自己的对象终端801与支付应用服务器802之间的交互,完成掌部图像注册,后续可以通过掌部图像来实现自动支付。
4、对象在商店购买商品进行交易时,商户终端803拍摄该对象的手掌,得到掌部图像,基于商户标识登录的支付应用,向支付应用服务器802发送支付请求,该支付请求携带该商户标识、消费金额及掌部图像。
5、支付应用服务器802接收到支付请求后,对掌部图像进行掌部对比识别处理,确定该掌部图像的对象标识,确定该对象标识在支付应用中的账号,通过该账号完成转账,在转账完成后,向商户终端803发送支付完成通知。
其中,对象在利用对象终端801进行掌部图像注册后,可以直接在商户终端803通过掌部进行支付,无需用户在商户终端803上进行掌部图像注册,从而实现了跨设备掌部图像识别的效果,提高了便捷性。
6、商户终端803接收到支付完成通知,显示该支付完成通知,提示对象支付完成,以使对象与商户完成物品的交易,对象可以将物品带走。
另外,上述实施例以通过对象终端801与商户终端803实现跨设备支付的过程,还可以将上述商户终端803替换为公交车上的支付设备,按照上述步骤,实现跨设备乘车支付的方案。
图9是本申请一个示例性实施例提供的基于掌部图像的识别方法的跨设备身份验证的示意图。该方法涉及对象终端901、门禁设备903及门禁服务器902。
其中,对象终端901与门禁服务器902建立通信连接,通过该通信连接,对象终端901与门禁服务器902可以进行交互;门禁设备903与门禁服务器902建立通信连接,通过该通信连接,门禁设备903与门禁服务器902可以进行交互。
该跨设备身份验证流程包括:
1、对象在家中手持对象终端901,通过该对象终端901拍摄对象自己的手掌,得到该对象的掌部图像,并向门禁服务器902发送掌部注册请求,该掌部注册请求携带该对象标识及掌部图像。
2、门禁服务器902接收到对象终端901发送的掌部注册请求,对掌部图像进行处理,得到该掌部图像的掌部特征,将该掌部特征与该对象标识进行对应存储,向对象终端901发送掌部绑定成功通知。
其中,门禁服务器902将掌部特征与对象标识进行对应存储后,将该掌部特征可以作为预设掌部特征,后续可以通过存储的预设掌部特征,来确定对应的对象标识。
3、对象终端901接收到掌部绑定成功通知,显示该掌部绑定成功通知,提示对象掌部图像与对象标识绑定。
其中,对象通过自己的对象终端901与门禁服务器之间的交互,完成掌部图像注册,后续可以通过掌部图像来实现自动开门。
4、当对象外出回家时,门禁设备903拍摄该对象的手掌,得到该对象的掌部图像,向门禁服务器902发送身份验证请求,该身份验证请求携带该验证掌部图像。
5、门禁服务器902接收门禁设备903发送的身份验证请求,对该验证掌部图像进行识别处理,得到该掌部图像的对象标识,确定该对象为注册对象,向门禁设备903发送验证通过通知。
6、门禁设备903接收门禁服务器902发送的验证通过通知,根据该验证通过通知,控制家门打开,以使对象能够进入到室内。
上述实施例是以通过对象终端901与门禁设备903实现跨设备身份验证的过程。
通过上述跨设备身份验证场景可知,无论是对象终端901与门禁服务器902之间交互的掌部注册阶段,还是在通过其他终端设备与服务器进行交互的掌部图像的识别阶段,均是在对象终端901或其他终端设备在获取到掌部图像后,将掌部图像发送至服务器,由服务器进行掌部对比识别处理。且在掌部对比识别处理阶段,门禁服务器902通过将该掌部特征与预设掌部特征进行比对,得到当前对象的识别结果。
图10是本申请一个示例性实施例提供的掌部标识的显示方法的流程图。该方法应用于具有摄像头和大屏幕的掌部图像识别设备,该方法可以由计算机设备执行,计算机设备可以是图2中的终端100或服务器200。该方法包括:
步骤1002:显示掌部图像识别设备的交互界面。
掌部图像识别设备是指能够提供掌部图像识别功能的设备。
交互界面是指能够显示且能够提供交互功能的界面。
可选地,交互功能是指对象通过点击、滑动、双击、三级等操作实现对掌部图像识别设备中的功能性控制。
掌部图像为待确定对象标识的掌部图像,该掌部图像中包含手掌,该手掌为待验证身份的对象的手掌,该掌部图像还可以包含其他的信息,如对象的手指、摄像头拍摄对象手掌时所处的场景等。
示例性地,该掌部图像可以是由该计算机设备中的掌部图像识别设备的摄像头对待验证身份的对象的手掌进行拍摄得到的,也可以是由其他设备携带的摄像头拍摄得到并发送过来的。
例如,计算机设备为商店支付设备,商店支付设备通过摄像头拍摄对象的手掌,得到该掌部图像;或者,计算机设备为掌部图像识别服务器,商店支付设备通过摄像头拍摄到对象的掌部图像后,将该掌部图像发送至该掌部图像识别服务器。
步骤1004:响应于掌部图像识别设备中触发的掌部图像识别操作,显示掌部图像对应的掌部标识及有效识别区域标识。
掌部标识用于表示掌部相对于掌部图像识别设备的空间位置。
有效识别区域标识用于指示摄像头对应的预设空间位置。
预设空间位置是指摄像头能够拍摄到的质量最佳的掌部图像的位置,即,在掌部移动至预设空间位置的情况下,摄像头拍摄到的掌部图像质量最佳,能够快速实现掌部图像的识别。
步骤1006:响应于掌部的移动,更新掌部标识在交互界面上的显示位置。
示例性地,计算机设备响应于掌部的移动,更新掌部标识在交互界面上的显示位置。
例如,计算机设备在交互界面中通过掌部标识表示掌部,在交互界面中掌部标识位于有效识别区域标识的左下方,则可知掌部同样位于摄像头的左下方,在掌部发生移动时,掌部标识在交互界面上的显示位置也跟随移动。
步骤1008:响应于掌部标识移动至有效识别区域标识的位置,显示掌部图像正在进行掌部图像识别的第一提示信息。
示例性地,计算机设备响应于掌部标识移动至有效识别区域标识的位置,显示掌部图像正在进行掌部图像识别的第一提示信息。
可选地,计算机设备响应于掌部标识移动至有效识别区域标识的位置,显示掌部图像正在进行掌部图像识别的第一提示信息,且取消显示掌部标识。
例如,在掌部标识移动至有效识别区域标识且掌部图像可以被识别的情况下,显示掌部图像正在进行掌部图像识别的第一提示信息,且取消显示掌部标识,比如,显示第一提示信息为“正在进行掌部图像识别”。
综上所述,本实施例提供的方法,通过显示掌部图像识别设备的交互界面;响应于掌部图像识别设备中触发的掌部图像识别操作,显示掌部图像对应的掌部标识及有效识别区域标识;响应于掌部的移动,更新掌部标识在交互界面上的显示位置;响应于掌部标识移动至有效识别区域标识的位置,显示掌部图像正在进行掌部图像识别的第一提示信息。本申请通过将对象对应的掌部显示为界面中的掌部标识,将摄像头对应的预设空间位置显示为交互界面中的有效识别区域标识,通过在交互界面上显示掌部标识与有效识别区域标识之间的相对位置信息来表示掌部与摄像头之间的位置信息,从而引导对象将掌部快速移动至合适的刷掌位置,提高了掌部图像识别的识别效率。
图11是本申请一个示例性实施例提供的掌部标识的显示方法的流程图。该方法应用于具有摄像头和大屏幕的掌部图像识别设备,该方法可以由计算机设备执行,计算机设备可以是图2中的终端100或服务器200。该方法包括:
步骤1102:显示掌部图像识别设备的交互界面。
掌部图像识别设备是指能够提供掌部图像识别功能的设备。
交互界面是指能够显示且能够提供交互功能的界面。
掌部图像为待确定对象标识的掌部图像,该掌部图像中包含手掌,该手掌为待验证身份的对象的手掌,该掌部图像还可以包含其他的信息,如对象的手指、摄像头拍摄对象手掌时所处的场景等。
示例性地,计算机设备对对象的手掌进行拍摄,得到掌部图像。其中,该掌部图像中包含该手掌,该手掌可以为对象的左手掌,也可以为对象的右手掌。例如,该计算机设备为物联网设备,该物联网设备通过摄像头拍摄对象的左手掌,得到掌部图像,该物联网设备可以为商家支付终端。再例如,对象在商店购物进行交易时,对象将手掌伸向商店支付终端的摄像头,该商店支付终端通过该摄像头拍摄该对象的手掌,得到掌部图像。
在一种可能实现方式中,计算机设备与其他设备建立通信连接,通过该通信连接,接收其他设备发送的掌部图像。例如,该计算机设备为支付应用服务器,其他设备可以为支付终端,支付终端拍摄对象的手掌,得到掌部图像后,通过该支付终端与支付应用服务器之间的通信连接,将该掌部图像发送至支付应用服务器,以使该支付应用服务器能够确定该掌部图像的对象标识。
例如,如图12所示出的掌部图像识别设备的交互界面的示意图,如图12中的(a)图所示,以智能支付为例,在掌部图像识别设备的交互界面1201中显示有功能按钮刷掌支付按钮1202和刷脸支付按钮1203,在对象触发刷掌支付按钮1203的情况下,在掌部图像识别设备的交互界面1201中显示掌部图像识别的指导示意图,如图12中的(b)图所示,掌部图像识别的指导示意图包括掌部图像识别设备图1204、掌部图1205和指导信息1206。掌部图像识别的指导示意图直观显示出了在掌部图像识别时,掌部如何面对掌部图像识别设备及掌部相对于掌部图像识别设备的最佳位置,同时,通过指导信息1206示出了在掌部图像识别时,掌部相对于掌部图像识别设备的最佳位置。
在一种可能的实现方式中,计算机设备响应于掌部图像识别设备中触发的掌部图像识别操作,显示第二提示信息。
第二提示信息用以指示掌部标识移动至有效识别区域标识的位置。
步骤1104:响应于掌部图像识别设备中触发的掌部图像识别操作,在摄像头拍摄掌部图像的过程中,通过掌部标识及有效识别区域标识显示掌部相对于掌部图像识别设备的位置信息。
掌部标识包括掌部相对于掌部图像识别设备的位置信息。
有效识别区域标识用于指示摄像头对应的预设空间位置。
预设空间位置是指摄像头能够拍摄到的质量最佳的掌部图像的位置,即,在掌部移动至预设空间位置的情况下,摄像头拍摄到的掌部图像质量最佳,能够快速实现掌部图像的识别。
示例性地,计算机设备响应于掌部图像识别设备中触发的掌部图像识别操作,在摄像头拍摄掌部图像的过程中,通过掌部标识及有效识别区域标识显示掌部相对于掌部图像识别设备的位置信息。
可选地,位置信息包括方位信息;计算机设备响应于掌部图像识别设备中触发的掌部图像识别操作,通过显示掌部标识与有效识别区域标识之间的相对位置信息来表示掌部与摄像头之间的方位信息。
可选地,位置信息包括距离信息,计算机设备响应于掌部图像识别设备中触发的掌部图像识别操作,通过显示掌部标识的形状变化来表示掌部与摄像头之间的距离信息。
示例性地,如图13所示出的掌部相对于掌部图像识别设备的位置信息的示意图,如图13中的(a)图所示,计算机设备在交互界面1301中通过掌部标识1302相对于有效识别区域标识1303的位置信息显示掌部相对于摄像头的方位信息,在图13中的(a)图中,在交互界面1301中的掌部标识1302位于有效识别区域标识1303的中间位置,则可知掌部同样位于摄像头的正前方。
计算机设备在交互界面1301中通过掌部标识1302的形状变化来显示掌部与摄像头之间的距离信息,在交互界面1301中掌部标识1302位于有效识别区域标识1303的位置且掌部离摄像头较近的情况下,计算机设备在交互界面1301中通过增大掌部标识1302的形状来表示掌部离摄像头的距离,并在交互界面1301中显示第二提示信息1304“请向后移动掌部”。
如图13中的(b)图所示,在交互界面1301中掌部标识1302位于有效识别区域标识1303的位置且掌部离摄像头较远的情况下,计算机设备在交互界面1301中通过减小掌部标识1302的形状来表示掌部离摄像头的距离,并在交互界面1301中显示第二提示信息1304“请向前移动掌部”。
步骤1106:响应于掌部的移动,更新掌部标识在交互界面上的显示位置。
示例性地,计算机设备响应于掌部的移动,更新掌部标识在交互界面上的显示位置。
例如,计算机设备在交互界面中通过掌部标识表示掌部,在交互界面中掌部标识位于有效识别区域标识的左下方,则可知掌部同样位于摄像头的左下方,在掌部发生移动时,掌部标识在交互界面上的显示位置也跟随移动。
示例性地,如图14所示出的掌部标识相对于有效识别区域标识的示意图,如图14所示,计算机设备在交互界面1401中通过掌部标识1402相对于有效识别区域标识1403的位置信息显示掌部相对于摄像头的方位信息,在交互界面1401中,掌部标识1402位于有效识别区域标识1403的左下方,则可知掌部同样位于摄像头的左下方。在掌部标识1402没有位于有效识别区域标识1403的位置的情况下,在交互界面1401中显示第二提示信息1404“请移动掌部至目标区域”。
步骤1108:响应于掌部标识移动至有效识别区域标识的位置,显示掌部图像正在进行掌部图像识别的第一提示信息。
示例性地,计算机设备响应于掌部标识移动至有效识别区域标识的位置,显示掌部图像正在进行掌部图像识别的第一提示信息。
可选地,计算机设备响应于掌部标识移动至有效识别区域标识的位置,显示掌部图像正在进行掌部图像识别的第一提示信息,且取消显示掌部标识。
例如,在掌部标识移动至有效识别区域标识且掌部图像可以被识别的情况下,显示掌部图像正在进行掌部图像识别的第一提示信息,且取消显示掌部标识,比如,显示第一提示信息为“正在进行掌部图像识别”。
示例性地,如图15所示出的正在进行掌部图像识别的交互界面的示意图,在掌部标识移动至有效识别区域标识1502且掌部图像可以被识别的情况下,在交互界面1501上显示掌部图像正在进行掌部图像识别的第一提示信息1503“正在进行掌部图像识别”,且取消显示掌部标识。
综上所述,本实施例提供的方法,通过显示掌部图像识别设备的交互界面;响应于掌部图像识别设备中触发的掌部图像识别操作,在摄像头拍摄掌部图像的过程中,通过掌部标识及有效识别区域标识显示掌部相对于掌部图像识别设备的位置信息;响应于掌部的移动,更新掌部标识在交互界面上的显示位置;响应于掌部标识移动至有效识别区域标识的位置,显示掌部图像正在进行掌部图像识别的第一提示信息。本申请通过将对象对应的掌部显示为界面中的掌部标识,将摄像头对应的预设空间位置显示为交互界面中的有效识别区域标识,通过在交互界面上显示掌部标识与有效识别区域标识之间的相对位置信息来表示掌部与摄像头之间的位置信息,从而引导对象将掌部快速移动至合适的刷掌位置,提高了掌部图像识别的识别效率。
图16是本申请一个示例性实施例提供的掌部图像的识别方法的流程图。该方法可以由计算机设备执行,计算机设备可以是图2中的终端100或服务器200。该方法包括:
步骤1601:开始。
步骤1602:获取掌部框。
示例性地,计算机设备通过摄像头获取掌部图像,计算机设备将掌部图像进行掌部检测处理,确定掌部的参数信息,计算机设备基于掌部的参数信息确定掌部框的参数信息;计算机设备基于掌部框的参数信息生成掌部图像中掌部的掌部框。
其中,掌部框的参数信息包括掌部框的宽、高和掌部框中心点。
步骤1603:确定掌部框的掌部框中心点。
掌部的参数信息包括掌部的宽、高和掌部中心点,掌部框的参数信息与掌部的参数信息相对应。
计算机设备基于掌部的参数信息确定掌部框中心点。
示例性地,掌部框位置坐标点为掌部框对应的像素位置,掌部框中心点为掌部框的中心点,例如,掌部框位置坐标点的坐标为(x,y),掌部框的宽为w,掌部框的高为h,则掌部框中心点的坐标可表示为(x+w/2,y+h/2)。
步骤1604:判断掌部在x,y方向上的偏移。
示例性地,计算机设备基于掌部框中心点和掌部图像的图像中心点,确定出掌部在x,y方向上的偏移量,即,确定出掌部相对于摄像头的方位信息。
步骤1605:基于掌部框的大小确定掌部相对于掌部图像识别设备的距离信息。
示例性地,计算机设备基于掌部框的宽和/或高,计算得到掌部相对于掌部图像识别设备的距离信息。
可选地,计算机设备基于掌部框的宽和高,计算掌部框的面积;计算机设备将掌部框的面积与预设面积阈值进行对比处理,得到掌部相对于摄像头的距离信息。
步骤1606:基于位置信息显示掌部对应的掌部标识进行交互引导。
示例性地,计算机设备基于掌部相对于摄像头的方位信息和距离信息在屏幕上显示掌部对应的掌部标识,并根据掌部标识对对象进行交互指导。
步骤1607:结束。
综上所述,本实施例提供的方法,通过获取掌部图像中掌部的掌部框;基于掌部框和掌部图像,确定掌部相对于掌部图像掌部在x,y方向上的偏移以及基于掌部框的大小确定掌部相对于掌部图像识别设备的距离信息;基于方位信息和距离信息显示掌部对应的掌部标识并进行交互引导。本申请通过掌部图像中的掌部框和掌部图像,确定出掌部相对于掌部图像识别设备的方位信息和距离信息;并基于方位信息和距离信息显示掌部对应的掌部标识,根据掌部标识指示掌部移动至摄像头对应的预设空间位置,从而引导对象将掌部快速移动至合适的刷掌位置,提高了掌部图像识别的识别效率。
示意性的,本申请实施例提供的掌部图像的识别方法的应用场景包括但不限于以下场景:
例如,智能支付场景下:
商户的计算机设备通过拍摄对象的手掌,获取到该对象的掌部图像,采用本申请实施例提供的掌部图像的识别方法,确定该掌部图像的对象标识,将该对象标识对应的资源账户中的部分资源,转入到商户资源账户中,实现通过掌部自动支付。
又如,跨设备支付场景下:
对象可以在家或其他私密空间使用个人手机完成身份注册,将该对象的账号与该对象的掌部图像进行绑定,之后可以到店内设备上对该对象的掌部图像进行识别,确定该对象的账号,通过该账号直接支付。
再例如,上班打卡场景下:
计算机设备通过拍摄对象的手掌,获取到该对象的掌部图像,采用本申请实施例提供的掌部图像的识别方法,确定该掌部图像的对象标识,为该对象标识建立打卡标记,确定该对象标识在当前时间已完成上班打卡。
当然,除了应用于上述场景外,本申请实施例提供方法还可以应用于其他需要掌部图像的识别的场景,本申请实施例并不对具体的应用场景进行限定。
图17示出了本申请一个示例性实施例提供的掌部图像的识别装置的结构示意图。该装置可以通过软件、硬件或者两者的结合实现成为计算机设备的全部或一部分,该装置包括:
获取模块1701,用于通过所述摄像头获取所述掌部图像;
掌部框检测模块1702,用于将所述掌部图像进行掌部检测处理,生成所述掌部图像中掌部的掌部框及所述掌部框的参数信息;
位置信息确定模块1703,用于基于所述掌部框和所述掌部图像,确定所述掌部相对于所述掌部图像识别设备的位置信息;
识别模块1704,用于基于所述位置信息在所述屏幕上显示所述掌部对应的掌部标识,所述掌部标识用于指示所述掌部移动至所述摄像头对应的所述预设空间位置,并对所述摄像头在所述预设空间位置拍摄到的掌部图像进行对比识别处理,得到所述掌部图像对应的对象标识。
在一种可能的实现方式中,掌部框检测模块1702,用于将所述掌部图像进行所述掌部检测处理,确定所述掌部的参数信息;基于所述掌部的参数信息确定所述掌部框的参数信息;基于所述掌部框的参数信息生成所述掌部图像中所述掌部的所述掌部框;其中,所述掌部框的参数信息包括所述掌部框的宽、高和掌部框中心点。
在一种可能的实现方式中,所述位置信息包括方位信息;位置信息确定模块1703,用于基于掌部框中心点和所述掌部图像的图像中心点,确定所述掌部相对于所述摄像头的所述方位信息。
在一种可能的实现方式中,所述位置信息包括距离信息;位置信息确定模块1703,用于基于所述掌部框的宽和/或高,计算得到所述掌部相对于所述掌部图像识别设备的所述距离信息。
在一种可能的实现方式中,位置信息确定模块1703,用于基于所述掌部框的宽和高,计算所述掌部框的面积;将所述掌部框的面积与预设面积阈值进行对比处理,得到所述掌部相对于所述摄像头的所述距离信息。
在一种可能的实现方式中,位置信息确定模块1703,用于基于所述掌部框的宽和第一阈值进行计算处理,得到所述掌部相对于所述掌部图像识别设备的第一距离值,所述第一阈值是指预设的掌部框的宽的值。
在一种可能的实现方式中,位置信息确定模块1703,用于基于所述掌部框的高和第二阈值进行计算处理,得到所述掌部相对于所述掌部图像识别设备的第二距离值,所述第二阈值是指预设的掌部框的高的值。
在一种可能的实现方式中,位置信息确定模块1703,用于基于所述掌部框的宽和第一阈值进行计算处理,得到所述掌部相对于所述掌部图像识别设备的第一距离值;基于所述掌部对应的所述掌部框的高和第二阈值进行计算处理,得到所述掌部相对于所述掌部图像识别设备的第二距离值;基于所述第一距离值和所述第二距离值,得到所述掌部相对于所述掌部图像识别设备的所述距离信息。
在一种可能的实现方式中,掌部框检测模块1702,用于将所述掌部图像进行图像划分,得到至少两个格子;通过掌部框识别模型对每一个所述格子进行至少一个掌部框预测,得到每一个预测掌部框对应的置信度值;基于所述预测掌部框对应的置信度值,确定所述掌部图像中所述掌部的所述掌部框。
在一种可能的实现方式中,掌部框检测模块1702,用于获取样本掌部图像及所述样本掌部图像对应的样本掌部框;通过所述掌部框识别模型对所述样本掌部图像进行数据处理,得到预测掌部框;基于所述预测掌部框和所述样本掌部框之间的差值,对所述掌部框识别模型的模型参数进行更新。
图18示出了本申请一个示例性实施例提供的掌部标识的显示装置的结构示意图。该装置可以通过软件、硬件或者两者的结合实现成为计算机设备的全部或一部分,该装置包括:
显示模块1801,用于显示所述掌部图像识别设备的交互界面;
所述显示模块1801,还用于响应于所述掌部图像识别设备中触发的掌部图像识别操作,显示所述掌部图像对应的掌部标识及有效识别区域标识,所述掌部标识用于表示掌部相对于所述掌部图像识别设备的空间位置,所述有效识别区域标识用于指示所述摄像头对应的预设空间位置;
所述显示模块1801,还用于响应于所述掌部的移动,更新所述掌部标识在所述交互界面上的显示位置,所述显示位置与所述掌部在所述摄像头前方的位置对应;
所述显示模块1801,还用于响应于所述掌部标识移动至所述有效识别区域标识的位置,显示所述掌部图像正在进行掌部图像识别的第一提示信息。
在一种可能的实现方式中,显示模块1801,用于响应于所述掌部图像识别设备中触发的掌部图像识别操作,在所述摄像头拍摄所述掌部图像的过程中,通过所述掌部标识及所述有效识别区域标识显示所述掌部相对于所述掌部图像识别设备的位置信息。
在一种可能的实现方式中,所述位置信息包括方位信息;显示模块1801,用于响应于所述掌部图像识别设备中触发的掌部图像识别操作,通过显示所述掌部标识与所述有效识别区域标识之间的相对位置信息来表示所述掌部与所述摄像头之间的所述方位信息。
在一种可能的实现方式中,所述位置信息包括距离信息;显示模块1801,用于响应于所述掌部图像识别设备中触发的掌部图像识别操作,通过显示所述掌部标识的形状变化来表示所述掌部与所述摄像头之间的所述距离信息。
在一种可能的实现方式中,显示模块1801,用于响应于所述掌部图像识别设备中触发的掌部图像识别操作,显示第二提示信息,所述第二提示信息用以指示所述掌部标识移动至所述有效识别区域标识的位置。
图19示出了本申请一示例性实施例示出的计算机设备1900的结构框图。该计算机设备可以实现为本申请上述方案中的服务器。所述图像计算机设备1900包括中央处理单元(Central Processing Unit,CPU)1901、包括随机存取存储器(Random Access Memory,RAM)1902和只读存储器(Read-Only Memory,ROM)1903的系统存储器1904,以及连接系统存储器1904和中央处理单元1901的系统总线1905。所述图像计算机设备1900还包括用于存储操作系统1909、应用程序1910和其他程序模块1911的大容量存储设备1906。
所述大容量存储设备1906通过连接到系统总线1905的大容量存储控制器(未示出)连接到中央处理单元1901。所述大容量存储设备1906及其相关联的计算机可读介质为图像计算机设备1900提供非易失性存储。也就是说,所述大容量存储设备1906可以包括诸如硬盘或者只读光盘(Compact Disc Read-Only Memory,CD-ROM)驱动器之类的计算机可读介质(未示出)。
不失一般性,所述计算机可读介质可以包括计算机存储介质和通信介质。计算机存储介质包括以用于存储诸如计算机可读指令、数据结构、程序模块或其他数据等信息的任何方法或技术实现的易失性和非易失性、可移动和不可移动介质。计算机存储介质包括RAM、可擦除可编程只读寄存器(Erasable Programmable Read Only Memory,EPROM)、电子抹除式可复写只读存储器(Electrically-Erasable Programmable Read-Only Memory,EEPROM)闪存或其他固态存储其技术,CD-ROM、数字多功能光盘(Digital Versatile Disc,DVD)或其他光学存储、磁带盒、磁带、磁盘存储或其他磁性存储设备。当然,本领域技术人员可知所述计算机存储介质不局限于上述几种。上述的系统存储器1904和大容量存储设备1906可以统称为存储器。
根据本公开的各种实施例,所述图像计算机设备1900还可以通过诸如因特网等网络连接到网络上的远程计算机运行。也即图像计算机设备1900可以通过连接在所述系统总线1905上的网络接口单元1907连接到网络1908,或者说,也可以使用网络接口单元1907来连接到其他类型的网络或远程计算机系统(未示出)。
所述存储器还包括至少一段计算机程序,所述至少一段计算机程序存储于存储器中,中央处理单元1901通过执行该至少一段程序来实现上述各个实施例所示的掌部图像的识别方法或掌部标识的显示方法中的全部或部分步骤。
本申请实施例还提供一种计算机设备,该计算机设备包括处理器和存储器,该存储器中存储有至少一条程序,该至少一条程序由处理器加载并执行以实现上述各方法实施例提供的掌部图像的识别方法或掌部标识的显示方法。
本申请实施例还提供一种计算机可读存储介质,该存储介质中存储有至少一条计算机程序,该至少一条计算机程序由处理器加载并执行以实现上述各方法实施例提供的掌部图像的识别方法或掌部标识的显示方法。
本申请实施例还提供一种计算机程序产品,所述计算机程序产品包括计算机程序,所述计算机程序存储在计算机可读存储介质中;所述计算机程序由计算机设备的处理器从所述计算机可读存储介质读取并执行,使得所述计算机设备执行以实现上述各方法实施例提供的掌部图像的识别方法或掌部标识的显示方法。
可以理解的是,在本申请的具体实施方式中,涉及到的数据,历史数据,以及画像等与用户身份或特性相关的用户数据处理等相关的数据,当本申请以上实施例运用到具体产品或技术中时,需要获得用户许可或者同意,且相关数据的收集、使用和处理需要遵守相关国家和地区的相关法律法规和标准。
应当理解的是,在本文中提及的“多个”是指两个或两个以上。“和/或”,描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。字符“/”一般表示前后关联对象是一种“或”的关系。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
以上所述仅为本申请的可选实施例,并不用以限制本申请,凡在本申请的精神和原则之内,所作的任何修改、等同切换、改进等,均应包含在本申请的保护范围之内。
Claims (20)
1.一种掌部图像的识别方法,其特征在于,所述方法应用于具有摄像头和屏幕的掌部图像识别设备,所述方法包括:
通过所述摄像头获取所述掌部图像;
将所述掌部图像进行掌部检测处理,生成所述掌部图像中掌部的掌部框;
基于所述掌部框和所述掌部图像,确定所述掌部相对于所述掌部图像识别设备的位置信息;
基于所述位置信息在所述屏幕上显示所述掌部对应的掌部标识,所述掌部标识用于指示所述掌部移动至所述摄像头对应的预设空间位置,并对所述摄像头在所述预设空间位置拍摄到的掌部图像进行对比识别处理,得到所述掌部图像对应的对象标识。
2.根据权利要求1所述的方法,其特征在于,所述将所述掌部图像进行掌部检测处理,生成所述掌部图像中掌部的掌部框,包括:
将所述掌部图像进行所述掌部检测处理,确定所述掌部的参数信息;
基于所述掌部的参数信息确定所述掌部框的参数信息;基于所述掌部框的参数信息生成所述掌部图像中所述掌部的所述掌部框;
其中,所述掌部框的参数信息包括所述掌部框的宽、高和掌部框中心点。
3.根据权利要求2所述的方法,其特征在于,所述位置信息包括方位信息;
所述基于所述掌部框和所述掌部图像,确定所述掌部相对于所述掌部图像识别设备的位置信息,包括:
基于所述掌部框中心点和所述掌部图像的图像中心点,确定所述掌部相对于所述摄像头的所述方位信息。
4.根据权利要求2所述的方法,其特征在于,所述位置信息包括距离信息;
所述基于所述掌部框和所述掌部图像,确定所述掌部相对于所述掌部图像识别设备的位置信息,包括:
基于所述掌部框的宽和/或高,计算得到所述掌部相对于所述掌部图像识别设备的所述距离信息。
5.根据权利要求4所述的方法,其特征在于,所述基于所述掌部框的宽和/或高,计算得到所述掌部相对于所述掌部图像识别设备的所述距离信息,包括:
基于所述掌部框的宽和高,计算所述掌部框的面积;
将所述掌部框的面积与预设面积阈值进行对比处理,得到所述掌部相对于所述摄像头的所述距离信息。
6.根据权利要求4所述的方法,其特征在于,所述基于所述掌部框的宽,计算得到所述掌部相对于所述掌部图像识别设备的所述距离信息,包括:
基于所述掌部框的宽和第一阈值进行计算处理,得到所述掌部相对于所述掌部图像识别设备的第一距离值;
其中,所述第一阈值是指预设的掌部框的宽的值。
7.根据权利要求4所述的方法,其特征在于,所述基于所述掌部框的高,计算得到所述掌部相对于所述掌部图像识别设备的所述距离信息,包括:
基于所述掌部框的高和第二阈值进行计算处理,得到所述掌部相对于所述掌部图像识别设备的第二距离值;
其中,所述第二阈值是指预设的掌部框的高的值。
8.根据权利要求4所述的方法,其特征在于,所述基于所述掌部框的宽和高,计算得到所述掌部相对于所述掌部图像识别设备的所述距离信息,包括:
基于所述掌部框的宽和第一阈值进行计算处理,得到所述掌部相对于所述掌部图像识别设备的第一距离值;
基于所述掌部框的高和第二阈值进行计算处理,得到所述掌部相对于所述掌部图像识别设备的第二距离值;
基于所述第一距离值和所述第二距离值,得到所述掌部相对于所述掌部图像识别设备的所述距离信息。
9.根据权利要求1至8任一所述的方法,其特征在于,所述方法还包括:
将所述掌部图像进行图像划分,得到至少两个格子;
通过掌部框识别模型对每一个所述格子进行至少一个掌部框预测,得到每一个预测掌部框对应的置信度值;
基于所述预测掌部框对应的置信度值,确定所述掌部图像中所述掌部的所述掌部框。
10.根据权利要求9所述的方法,其特征在于,所述方法还包括:
获取样本掌部图像及所述样本掌部图像对应的样本掌部框;
通过所述掌部框识别模型对所述样本掌部图像进行数据处理,得到预测掌部框;
基于所述预测掌部框和所述样本掌部框之间的差值,对所述掌部框识别模型的模型参数进行更新。
11.一种掌部标识的显示方法,其特征在于,所述方法应用于具有摄像头和屏幕的掌部图像识别设备,所述方法包括:
显示所述掌部图像识别设备的交互界面;
响应于所述掌部图像识别设备中触发的掌部图像识别操作,显示所述掌部图像对应的掌部标识及有效识别区域标识,所述掌部标识用于表示掌部相对于所述掌部图像识别设备的空间位置,所述有效识别区域标识用于指示所述摄像头对应的预设空间位置;
响应于所述掌部的移动,更新所述掌部标识在所述交互界面上的显示位置,所述显示位置与所述掌部在所述摄像头前方的位置对应;
响应于所述掌部标识移动至所述有效识别区域标识的位置,显示所述掌部图像正在进行掌部图像识别的第一提示信息。
12.根据权利要求11所述的方法,其特征在于,所述掌部标识包括所述掌部相对于所述掌部图像识别设备的位置信息;
所述响应于所述掌部图像识别设备中触发的掌部图像识别操作,显示所述掌部图像对应的掌部标识及有效识别区域标识,包括:
响应于所述掌部图像识别设备中触发的掌部图像识别操作,在所述摄像头拍摄所述掌部图像的过程中,通过所述掌部标识及所述有效识别区域标识显示所述掌部相对于所述掌部图像识别设备的位置信息。
13.根据权利要求12所述的方法,其特征在于,所述位置信息包括方位信息;
所述响应于所述掌部图像识别设备中触发的掌部图像识别操作,在所述摄像头拍摄所述掌部图像的过程中,通过所述掌部标识及所述有效识别区域标识显示所述掌部相对于所述掌部图像识别设备的位置信息,包括:
响应于所述掌部图像识别设备中触发的掌部图像识别操作,通过显示所述掌部标识与所述有效识别区域标识之间的相对位置信息来表示所述掌部与所述摄像头之间的所述方位信息。
14.根据权利要求12所述的方法,其特征在于,所述位置信息包括距离信息;
所述响应于所述掌部图像识别设备中触发的掌部图像识别操作,在所述摄像头拍摄所述掌部图像的过程中,通过所述掌部标识及所述有效识别区域标识显示所述掌部相对于所述掌部图像识别设备的位置信息,包括:
响应于所述掌部图像识别设备中触发的掌部图像识别操作,通过显示所述掌部标识的形状变化来表示所述掌部与所述摄像头之间的所述距离信息。
15.根据权利要求11至14任一所述的方法,其特征在于,所述方法还包括:
响应于所述掌部图像识别设备中触发的掌部图像识别操作,显示第二提示信息,所述第二提示信息用以指示所述掌部标识移动至所述有效识别区域标识的位置。
16.一种掌部图像的识别装置,其特征在于,所述装置包括:
获取模块,用于通过所述摄像头获取所述掌部图像;
掌部框检测模块,用于将所述掌部图像进行掌部检测处理,生成所述掌部图像中掌部的掌部框及所述掌部框的参数信息;
位置信息确定模块,用于基于所述掌部框和所述掌部图像,确定所述掌部相对于所述掌部图像识别设备的位置信息;
识别模块,用于基于所述位置信息在所述屏幕上显示所述掌部对应的掌部标识,所述掌部标识用于指示所述掌部移动至所述摄像头对应的所述预设空间位置,并对所述摄像头在所述预设空间位置拍摄到的掌部图像进行对比识别处理,得到所述掌部图像对应的对象标识。
17.一种掌部标识的显示装置,其特征在于,所述装置包括:
显示模块,用于显示所述掌部图像识别设备的交互界面;
所述显示模块,还用于响应于所述掌部图像识别设备中触发的掌部图像识别操作,显示所述掌部图像对应的掌部标识及有效识别区域标识,所述掌部标识用于表示掌部相对于所述掌部图像识别设备的空间位置,所述有效识别区域标识用于指示所述摄像头对应的预设空间位置;
所述显示模块,还用于响应于所述掌部的移动,更新所述掌部标识在所述交互界面上的显示位置,所述显示位置与所述掌部在所述摄像头前方的位置对应;
所述显示模块,还用于响应于所述掌部标识移动至所述有效识别区域标识的位置,显示所述掌部图像正在进行掌部图像识别的第一提示信息。
18.一种计算机设备,其特征在于,所述计算机设备包括:处理器和存储器,所述存储器中存储有至少一条计算机程序,至少一条所述计算机程序由所述处理器加载并执行以实现如权利要求1至10中任一项所述的掌部图像的识别方法,或,如权利要求11至15中任一项所述的掌部标识的显示方法。
19.一种计算机存储介质,其特征在于,所述计算机可读存储介质中存储有至少一条计算机程序,至少一条计算机程序由处理器加载并执行以实现如权利要求1至10中任一项所述的掌部图像的识别方法,或,如权利要求11至15中任一项所述的掌部标识的显示方法。
20.一种计算机程序产品,其特征在于,所述计算机程序产品包括计算机程序,所述计算机程序存储在计算机可读存储介质中;所述计算机程序由计算机设备的处理器从所述计算机可读存储介质读取并执行,使得所述计算机设备执行如权利要求1至10中任一项所述的掌部图像的识别方法,或,如权利要求11至15中任一项所述的掌部标识的显示方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210840618.3A CN117456619A (zh) | 2022-07-18 | 2022-07-18 | 掌部图像的识别方法、装置、设备、存储介质及程序产品 |
PCT/CN2023/091970 WO2024016786A1 (zh) | 2022-07-18 | 2023-05-04 | 掌部图像的识别方法、装置、设备、存储介质及程序产品 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210840618.3A CN117456619A (zh) | 2022-07-18 | 2022-07-18 | 掌部图像的识别方法、装置、设备、存储介质及程序产品 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117456619A true CN117456619A (zh) | 2024-01-26 |
Family
ID=89593430
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210840618.3A Pending CN117456619A (zh) | 2022-07-18 | 2022-07-18 | 掌部图像的识别方法、装置、设备、存储介质及程序产品 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN117456619A (zh) |
WO (1) | WO2024016786A1 (zh) |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109960963A (zh) * | 2017-12-14 | 2019-07-02 | 红石生物特征科技有限公司 | 非接触式掌纹获取装置及其方法 |
CN109960964A (zh) * | 2017-12-14 | 2019-07-02 | 红石生物特征科技有限公司 | 非接触式掌纹获取装置及其方法 |
CN111178310A (zh) * | 2019-12-31 | 2020-05-19 | 广东灵机文化传播有限公司 | 手掌特征识别方法、装置、计算机设备和存储介质 |
CN112597785A (zh) * | 2020-06-24 | 2021-04-02 | 陕西利丰恒信生物科技发展有限公司 | 一种目标对象图像采集的引导方法及系统 |
WO2021254310A1 (zh) * | 2020-06-16 | 2021-12-23 | 陕西利丰恒信生物科技发展有限公司 | 一种目标对象图像采集的引导方法及系统 |
CN113095292A (zh) * | 2021-05-06 | 2021-07-09 | 广州虎牙科技有限公司 | 手势识别方法、装置、电子设备及可读存储介质 |
CN113609953A (zh) * | 2021-07-30 | 2021-11-05 | 浙江一掌通数字科技有限公司 | 一种非接触式的掌静脉区域识别方法、系统及存储介质 |
-
2022
- 2022-07-18 CN CN202210840618.3A patent/CN117456619A/zh active Pending
-
2023
- 2023-05-04 WO PCT/CN2023/091970 patent/WO2024016786A1/zh unknown
Also Published As
Publication number | Publication date |
---|---|
WO2024016786A1 (zh) | 2024-01-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3567535A1 (en) | Virtual reality scene-based business verification method and device | |
US11670058B2 (en) | Visual display systems and method for manipulating images of a real scene using augmented reality | |
EP3528156A1 (en) | Virtual reality environment-based identity authentication method and apparatus | |
CN107038361B (zh) | 基于虚拟现实场景的业务实现方法及装置 | |
EP2842075B1 (en) | Three-dimensional face recognition for mobile devices | |
TW201814439A (zh) | 基於虛擬實境場景的業務實現方法及裝置 | |
WO2020134238A1 (zh) | 活体检测方法、装置以及存储介质 | |
CN108174152A (zh) | 一种目标监控方法及目标监控系统 | |
CN107622246B (zh) | 人脸识别方法及相关产品 | |
CN108958573B (zh) | 基于虚拟现实场景的身份认证方法及装置 | |
CN111881740A (zh) | 人脸识别方法、装置、电子设备及介质 | |
CN117456619A (zh) | 掌部图像的识别方法、装置、设备、存储介质及程序产品 | |
CN114581978A (zh) | 人脸识别的方法和系统 | |
CN113518061A (zh) | 人脸识别中的数据传输方法、设备、装置、系统及介质 | |
CN117133021A (zh) | 掌部图像的识别方法、装置、设备、存储介质及程序产品 | |
CN117826978A (zh) | 基于掌部的人机交互方法、装置、设备、介质及程序产品 | |
CN113065507B (zh) | 人脸认证的实现方法和装置 | |
CN115604008A (zh) | 职业身份验证方法和系统 | |
CN115828205A (zh) | 一种业务资源的共享方法、装置、电子设备及存储介质 | |
CN112541175A (zh) | 工控终端的参数设定方法、装置、工控终端和存储介质 | |
CN116958306A (zh) | 图像合成方法和装置、存储介质及电子设备 | |
CN117576245A (zh) | 一种图像的风格转换方法、装置、电子设备及存储介质 | |
CN117077100A (zh) | 信息验证方法、装置、设备及存储介质 | |
CN114331449A (zh) | 人脸支付方法、装置和设备及计算机存储介质 | |
KR20220107363A (ko) | 인증된 증강 현실 콘텐츠의 제공 시스템 및 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |