CN110163615A - 刷脸支付的方法、装置、设备及存储介质 - Google Patents
刷脸支付的方法、装置、设备及存储介质 Download PDFInfo
- Publication number
- CN110163615A CN110163615A CN201910439738.0A CN201910439738A CN110163615A CN 110163615 A CN110163615 A CN 110163615A CN 201910439738 A CN201910439738 A CN 201910439738A CN 110163615 A CN110163615 A CN 110163615A
- Authority
- CN
- China
- Prior art keywords
- facial image
- target
- image
- face
- classification results
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q20/00—Payment architectures, schemes or protocols
- G06Q20/38—Payment protocols; Details thereof
- G06Q20/40—Authorisation, e.g. identification of payer or payee, verification of customer or shop credentials; Review and approval of payers, e.g. check credit lines or negative lists
- G06Q20/401—Transaction verification
- G06Q20/4014—Identity check for transactions
- G06Q20/40145—Biometric identity checks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/22—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/166—Detection; Localisation; Normalisation using acquisition arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
Landscapes
- Engineering & Computer Science (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Business, Economics & Management (AREA)
- Human Computer Interaction (AREA)
- Accounting & Taxation (AREA)
- General Business, Economics & Management (AREA)
- Strategic Management (AREA)
- Finance (AREA)
- Computer Security & Cryptography (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本申请公开了刷脸支付的方法、装置、设备及存储介质,属于计算机技术领域。该方法应用于自助支付终端,方法包括:获取图像采集装置所采集的第一目标人脸图像;基于第一目标人脸图像的脸部特征信息获取第一目标人脸图像的分类结果;响应于第一目标人脸图像的分类结果不满足要求,根据第一目标人脸图像的分类结果确定目标焦距;获取图像采集装置在目标焦距下所采集的第二目标人脸图像;响应于第二目标人脸图像的分类结果满足要求,基于第二目标人脸图像进行刷脸支付。当人脸图像包含的脸部区域不满足要求时,通过调整图像采集装置的焦距,使拍摄范围增加,从而能够采集到身高过高或者身高过矮的刷脸对象的完整人脸图像,提高刷脸支付的成功率。
Description
技术领域
本申请实施例涉及计算机技术领域,特别涉及一种刷脸支付的方法、装置、设备及存储介质。
背景技术
随着科技的发展,支付方式越来越多样化,从最初的现金支付,到刷卡支付,到手机移动支付,再到现在的自助支付终端刷脸支付,支付方式越来越方便快捷。自助支付终端是指实现自助购物的固定电子设备,一般设置于超市、卖场等场所,能够让用户以自助的方式扫描商品、结账付款。在自助支付终端进行刷脸支付的过程中,图像采集装置采集进入图像采集区域的用户的人脸图像,然后基于人脸图像进行刷脸支付。
相关技术在刷脸支付的过程中,在图像采集区域内,自助支付终端的图像采集装置采集固定拍摄范围内的人脸图像,然后基于采集到的人脸图像进行刷脸支付。
在实现本申请的过程中,发明人发现相关技术至少存在以下问题:
自助支付终端的图像采集装置的拍摄范围固定,采集人脸图像的方式不灵活;图像采集装置在固定拍摄范围内采集的人脸图像,可能为不完整人脸图像,从而降低基于采集到的人脸图像进行刷脸支付的成功率,刷脸支付的效率较低,用户体验感较差。
发明内容
本申请实施例提供了一种刷脸支付的方法、装置、设备及存储介质,可用于解决相关技术中的问题。所述技术方案如下:
一方面,本申请实施例提供了一种刷脸支付的方法,所述方法应用于自助支付终端,所述方法包括:
获取图像采集装置所采集的第一目标人脸图像;
基于所述第一目标人脸图像的脸部特征信息获取所述第一目标人脸图像的分类结果,所述分类结果用于指示所述第一目标人脸图像包含的脸部区域;
响应于所述第一目标人脸图像的分类结果不满足要求,根据所述第一目标人脸图像的分类结果确定目标焦距;
将所述图像采集装置的初始焦距调整至所述目标焦距,获取所述图像采集装置在所述目标焦距下所采集的第二目标人脸图像;
响应于基于所述第二目标人脸图像的脸部特征信息获取的所述第二目标人脸图像的分类结果满足要求,基于所述第二目标人脸图像进行刷脸支付。
可选地,所述响应于所述第一目标人脸图像的分类结果不满足要求,根据所述第一目标人脸图像的分类结果确定目标焦距,包括:
根据所述第一目标人脸图像的分类结果,确定目标拍摄范围,所述目标拍摄范围用于获取分类结果满足要求的目标人脸图像;根据所述目标拍摄范围,确定目标视场角;根据所述目标视场角,确定目标焦距。
可选地,所述脸部特征信息,包括:
眼部特征信息、鼻子特征信息、嘴部特征信息、前额特征信息、下巴特征信息中的一种或多种;
所述基于所述第一目标人脸图像的脸部特征信息获取所述第一目标人脸图像的分类结果之后,还包括:
响应于所述第一目标人脸图像的分类结果指示所述第一目标人脸图像未包含脸部完整区域,所述第一目标人脸图像的分类结果不满足要求,所述脸部完整区域包括眼部特征信息、鼻子特征信息、嘴部特征信息、前额特征信息和下巴特征信息。
可选地,所述根据所述第一目标人脸图像的分类结果,确定目标拍摄范围,包括:
根据所述第一目标人脸图像的分类结果指示的所述第一目标人脸图像包含的脸部区域,确定所述第一目标人脸图像包含的脸部区域占脸部完整区域的比例;根据所述第一目标人脸图像包含的脸部区域占脸部完整区域的比例,确定目标拍摄范围。
可选地,所述基于所述第一目标人脸图像的脸部特征信息获取所述第一目标人脸图像的分类结果,包括:
基于神经网络获取所述第一目标人脸图像的脸部特征信息;
根据所述第一目标人脸图像的脸部特征信息获取所述第一目标人脸图像包含各个脸部区域的概率值,根据所述第一目标人脸图像包含的各个脸部区域的概率值得到所述第一目标人脸图像的分类结果。
可选地,所述方法,还包括:
响应于所述第一目标人脸图像的分类结果不满足要求,检测图像采集装置是否支持改变焦距;
响应于所述图像采集装置不支持改变焦距,显示提示信息,所述提示信息用于指示所述第一目标人脸图像的分类结果不满足要求。
可选地,所述基于所述第二目标人脸图像进行刷脸支付之后,还包括:
将所述图像采集装置的目标焦距恢复至所述图像采集装置的初始焦距。
另一方面,提供了一种刷脸支付的装置,所述装置应用于自助支付终端,所述装置包括:
第一获取模块,用于获取图像采集装置所采集的第一目标人脸图像;
第二获取模块,用于基于所述第一目标人脸图像的脸部特征信息获取所述第一目标人脸图像的分类结果,所述分类结果用于指示所述第一目标人脸图像包含的脸部区域;
第一确定模块,用于响应于所述第一目标人脸图像的分类结果不满足要求,根据所述第一目标人脸图像的分类结果确定目标焦距;
调整模块,用于将所述图像采集装置的初始焦距调整至所述目标焦距;
第三获取模块,用于获取所述图像采集装置在所述目标焦距下所采集的第二目标人脸图像;
支付模块,用于响应于基于所述第二目标人脸图像的脸部特征信息获取的所述第二目标人脸图像的分类结果满足要求,基于所述第二目标人脸图像进行刷脸支付。
可选地,所述第一确定模块,包括:
第一确定单元,用于根据所述第一目标人脸图像的分类结果,确定目标拍摄范围,所述目标拍摄范围用于获取分类结果满足要求的目标人脸图像;
第二确定单元,用于根据所述目标拍摄范围,确定目标视场角;
第三确定单元,用于根据所述目标视场角,确定目标焦距。
可选地,所述脸部特征信息,包括:
眼部特征信息、鼻子特征信息、嘴部特征信息、前额特征信息、下巴特征信息中的一种或多种;
所述装置,还包括:
第二确定模块,用于当所述第一目标人脸图像的分类结果指示所述第一目标人脸图像未包含脸部完整区域时,确定所述第一目标人脸图像的分类结果不满足要求,所述脸部完整区域包括眼部特征信息、鼻子特征信息、嘴部特征信息、前额特征信息和下巴特征信息。
可选地,所述第一确定单元,用于根据所述第一目标人脸图像的分类结果指示的所述第一目标人脸图像包含的脸部区域,确定所述第一目标人脸图像包含的脸部区域占脸部完整区域的比例;根据所述第一目标人脸图像包含的脸部区域占脸部完整区域的比例,确定目标拍摄范围。
可选地,所述第二获取模块,用于基于神经网络获取所述第一目标人脸图像的脸部特征信息;根据所述第一目标人脸图像的脸部特征信息获取所述第一目标人脸图像包含各个脸部区域的概率值,根据所述第一目标人脸图像包含的各个脸部区域的概率值得到所述第一目标人脸图像的分类结果。
可选地,所述装置,还包括:
检测模块,用于响应于所述第一目标人脸图像的分类结果不满足要求,检测图像采集装置是否支持改变焦距;
显示模块,用于当所述图像采集装置不支持改变焦距时,显示提示信息,所述提示信息用于指示所述第一目标人脸图像的分类结果不满足要求。
可选地,所述装置,还包括:
恢复模块,用于将所述图像采集装置的目标焦距恢复至所述图像采集装置的初始焦距。
另一方面,提供了一种计算机设备,所述计算机设备包括处理器和存储器,所述存储器中存储有至少一条指令,所述至少一条指令在被所述处理器执行时实现上述任一所述的刷脸支付的方法。
另一方面,还提供了一种计算机可读存储介质,所述计算机可读存储介质中存储有至少一条指令,所述至少一条指令在被执行时实现上述任一所述的刷脸支付的方法。
本申请实施例提供的技术方案至少带来如下有益效果:
当自助支付终端的图像采集装置所采集的人脸图像包含的脸部区域不满足要求时,通过调整图像采集装置的焦距,使图像采集装置的拍摄范围增加,采集人脸图像的方式灵活,能够采集到身高过高或者身高过矮的刷脸对象的完整人脸图像,提高基于采集到的人脸图像进行刷脸支付的成功率,提高刷脸支付的效率,提升用户体验感。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例提供的一种实施环境的示意图;
图2是本申请实施例提供的一种刷脸支付的方法流程图;
图3是本申请实施例提供的一种刷脸支付的方法流程图;
图4是本申请实施例提供的一种确定第一目标人脸图像包含的脸部区域占脸部完整区域的比例的示意图;
图5是本申请实施例提供的一种确定目标拍摄范围的示意图;
图6是本申请实施例提供的一种刷脸支付的方法流程图;
图7是本申请实施例提供的一种刷脸支付的装置示意图;
图8是本申请实施例提供的一种第一确定模块的结构示意图;
图9是本申请实施例提供的一种刷脸支付的装置示意图;
图10是本申请实施例提供的一种刷脸支付的装置示意图;
图11是本申请实施例提供的一种刷脸支付的设备结构示意图。
具体实施方式
为使本申请的目的、技术方案和优点更加清楚,下面将结合附图对本申请实施方式作进一步地详细描述。
随着科技的发展,支付方式越来越多样化,从最初的现金支付,到刷卡支付,到手机移动支付,再到现在的自助支付终端刷脸支付,支付方式越来越方便快捷。自助支付终端是指实现自助购物的固定电子设备,一般设置于超市、卖场等场所,能够让用户以自助的方式扫描商品、结账付款。在自助支付终端进行刷脸支付的过程中,图像采集装置采集进入图像采集区域的用户的人脸图像,然后基于人脸图像进行刷脸支付。
对此,本申请实施例提供了一种刷脸支付的方法,请参考图1,其示出了本申请实施例提供的方法实施环境的示意图。该实施环境可以包括:自助支付终端11和服务器12。
其中,自助支付终端11安装有刷脸支付系统,当该刷脸支付系统启动时,可应用本申请实施例提供的方法进行刷脸支付。刷脸支付系统安装有图像采集装置,自助支付终端11可以通过图像采集装置采集人脸图像,然后将采集的人脸图像发送至服务器12上进行存储。当然,自助支付终端11也可以对采集的人脸图像进行存储。从而在需要对刷脸对象进行刷脸支付时,采用本申请实施例提供的方法基于采集的人脸图像实现刷脸支付。
可选地,图1所示的自助支付终端11可以是设置于超市、卖场等实现自助购物的固定电子设备,比如自助收银机、自助售货机等。服务器12可以是一台服务器,也可以是由多台服务器组成的服务器集群,或者是一个云计算服务中心。自助支付终端11与服务器12通过有线或无线网络建立通信连接。
本领域技术人员应能理解上述自助支付终端11和服务器12仅为举例,其他现有的或今后可能出现的终端或服务器如可适用于本申请,也应包含在本申请保护范围以内,并在此以引用方式包含于此。
基于上述图1所示的实施环境,本申请实施例提供的刷脸支付的方法可如图2所示,该方法应用于自助支付终端11。如图2所示,本申请实施例提供的方法可以包括如下几个步骤:
在步骤201中,获取图像采集装置所采集的第一目标人脸图像。
对于安装有刷脸支付系统的自助支付终端,在刷脸支付系统中,安装有图像采集装置,用于采集刷脸对象的人脸图像。在自助支付终端的屏幕上显示有多种可选地支付方式。例如,现金支付、某应用支付、刷脸支付等。当刷脸对象登录自助支付终端并触发刷脸支付的启动选项时,自助支付终端获取刷脸支付的触发指令。基于刷脸支付的触发指令,刷脸支付系统启动,图像采集装置采集拍摄范围内的人脸图像,自助支付终端获取图像采集装置所采集的人脸图像。需要说明的是,在本申请实施例中,自助支付终端是固定的电子设备,自助支付终端的刷脸系统中的图像采集装置内嵌在自助支付终端中,未安装陀螺仪等额外硬件设备,图像采集装置不能改变角度和方向。
在图像采集装置采集人脸图像之前,刷脸对象会主动进入图像采集区域。图像采集区域是指根据图像采集装置的规格设置的建议刷脸对象进入的区域,在日常生活中,图像采集区域一般指地面上的区域,通常用明显的标识指示图像采集区域,例如,文字标识、颜色标识等。本申请实施例的应用场景为刷脸对象进入图像采集区域后,保持位置不动的场景。
当刷脸对象进入图像采集区域后,由于图像采集装置的视场角的限制,图像采集装置的拍摄范围有限。一般而言,由于刷脸对象正面朝向图像采集装置,并且不同刷脸对象的脸部宽度差距较小,所以对于进入图像采集区域的刷脸对象,刷脸对象的脸部在宽度方向一般都能进入拍摄范围。但是由于不同刷脸对象的身高差距较大,所以对于进入图像采集区域的刷脸对象,身高过高(例如190厘米以上)或者身高过矮(例如150厘米以下)的刷脸对象的脸部在高度方向可能只有部分人脸区域进入拍摄范围。例如,对于身高过高(例如190厘米以上)的刷脸对象,可能只有鼻子和下巴区域进入拍摄范围;对于身高过矮(例如150厘米以下)的刷脸对象,可能只有前额和眼部区域进入拍摄范围。
对于同一图像采集装置,得到的人脸图像的尺寸是固定的,例如,人脸图像的尺寸为640×480(像素)。对于同一刷脸对象,将图像采集装置第一次采集的人脸图像作为第一目标人脸图像。
在步骤202中,基于第一目标人脸图像的脸部特征信息获取第一目标人脸图像的分类结果,分类结果用于指示第一目标人脸图像包含的脸部区域。
在获取图像采集装置所采集的第一目标人脸图像之后,可以将第一目标人脸图像输入神经网络,基于神经网络获取第一目标人脸图像的脸部特征信息。可选地,神经网络为卷积神经网络。将第一目标人脸图像输入卷积神经网络,卷积神经网络对第一目标人脸图像进行脸部特征提取,得到第一目标人脸图像的脸部特征信息。脸部特征信息,包括眼部特征信息、鼻子特征信息、嘴部特征信息、前额特征信息、下巴特征信息中的一种或多种。
在得到第一目标人脸图像的脸部特征信息之后,基于第一目标人脸图像的脸部特征信息获取第一目标人脸图像的分类结果,分类结果用于指示第一目标人脸图像包含的脸部区域。根据第一目标人脸图像的脸部特征信息的不同,第一目标人脸图像包含的脸部区域也不同。例如,当第一目标人脸图像的脸部特征信息为前额特征信息时,第一目标人脸图像包含的脸部区域为前额区域;当第一目标人脸图像的脸部特征信息为前额特征信息和眼部特征信息时,第一目标人脸图像包含的脸部区域为前额和眼部组成的区域;当第一目标人脸图像的脸部特征信息为前额特征信息、眼部特征信息和鼻子特征信息时,第一目标人脸图像包含的脸部区域为前额、眼部和鼻子组成的区域。
具体而言,基于第一目标人脸图像的脸部特征信息获取第一目标人脸图像的分类结果的方式可以是:根据第一目标人脸图像的脸部特征信息获取第一目标人脸图像包含各个脸部区域的概率值,根据第一目标人脸图像包含的各个脸部区域的概率值得到第一目标人脸图像的分类结果。
其中,根据刷脸对象的身高的不同,各个脸部区域一般是指以下九种区域:前额区域;下巴区域;前额和眼部组成的区域;嘴部和下巴组成的区域;前额、眼部和鼻子组成的区域;鼻子、嘴部和下巴组成的区域;前额、眼部、鼻子和嘴部组成的区域;眼部、鼻子、嘴部和下巴组成的区域;以及前额、眼部、鼻子、嘴部和下巴组成的区域。根据第一目标人脸图像的脸部特征信息即可获取第一目标人脸图像包含的以上九种区域中的每种区域的概率值。
可选地,根据第一目标人脸图像的脸部特征信息获取第一目标人脸图像包含各个脸部区域的概率值,包括:
将第一目标人脸图像的脸部特征信息输入分类器,分类器根据获取的第一目标人脸图像的脸部特征信息进行计算,输出第一目标人脸图像包含各个脸部区域的概率值。例如,将第一目标人脸图像的脸部特征信息输入Softmax分类器,Softmax分类器根据获取的第一目标人脸图像的脸部特征信息进行计算,输出一组(0,1)范围内的概率值,这一组概率值是指第一目标人脸图像包含各个脸部区域的概率值,每个概率值均对应一种第一目标人脸图像包含的脸部区域的情况,所有概率值的和为1。概率值越高,说明第一目标人脸图像包含与该概率值对应的脸部区域的可能性越大。
在得到第一目标人脸图像包含各个脸部区域的概率值之后,将概率值超过参考阈值的脸部区域作为第一目标人脸图像包含的脸部区域,由此得到第一目标人脸图像的分类结果。例如,假设对应于九种脸部区域情况输出的一组概率值为(0.01,0.09,0.05,0.1,0.05,0.03,0.60,0.04,0.03),假设参考阈值为0.5,若概率值0.60对应的情况为第一目标人脸图像包含的脸部区域为前额、眼部、鼻子和嘴部组成的区域,则将前额、眼部、鼻子和嘴部组成的区域作为第一目标人脸图像包含的脸部区域。第一目标人脸图像的分类结果即为第一目标人脸图像包含的脸部区域为前额、眼部、鼻子和嘴部组成的区域。
基于第一目标人脸图像的脸部特征信息获取第一目标人脸图像的分类结果之后,判断第一目标人脸图像的分类结果指示的第一目标人脸图像是否满足要求。当第一目标人脸图像的分类结果指示第一目标人脸图像未包含脸部完整区域时,第一目标人脸图像的分类结果不满足要求。可选地,脸部完整区域包括眼部特征信息、鼻子特征信息、嘴部特征信息、前额特征信息和下巴特征信息,也就是说脸部完整区域为前额、眼部、鼻子、嘴部和下巴组成的区域。例如,对于身高过高的刷脸对象,当第一目标人脸图像包含的脸部区域为嘴部和下巴组成的区域时,该第一目标人脸图像的分类结果不满足要求;对于身高过矮的刷脸对象,当第一目标人脸图像包含的脸部区域为前额和眼部组成的区域时,该第一目标人脸图像的分类结果不满足要求;对于身高合适的刷脸对象,当第一目标人脸图像包含的脸部区域为前额、眼部、鼻子、嘴部和下巴组成的区域时,该第一目标人脸图像的分类结果满足要求。
当第一目标人脸图像的分类结果满足要求时,基于第一目标人脸图像进行刷脸支付。
当第一目标人脸图像的分类结果不满足要求时,检测图像采集装置是否支持改变焦距。例如,对于Android(安卓)系统,检测图像采集装置的特征中的LENS INFO MINIMUMFOCUS DISTANCE(镜头信息最小焦距)值是否为空,若为空,则说明该图像采集装置不支持改变焦距;若不为空,则说明该图像采集装置支持改变焦距。可选地,根据图像采集装置是否支持改变焦距,后续步骤分为两种情况:
情况一:当图像采集装置不支持改变焦距时,在自助支付终端的屏幕上显示提示信息,提示信息用于指示第一目标人脸图像的分类结果不满足要求。本申请实施例对显示提示信息的方式以及提示信息的内容不加以限定,只要能够起到提示刷脸对象第一目标人脸图像的分类结果不满足要求的作用即可。例如,以弹窗的方式显示提示信息,提示信息的内容为“您的人脸图像不符合要求,请移动位置”。当接收到提示信息后,刷脸对象根据提示信息移动位置。当自助支付终端显示提示信息的时间达到参考时间时,自助支付终端的图像采集装置在固定焦距下采集刷脸对象的第二目标人脸图像。当基于第二目标人脸图像的脸部特征信息获取的第二目标人脸图像的分类结果满足要求时,也就是当第二目标人脸图像包含的脸部区域为脸部完整区域时,基于第二目标人脸图像进行刷脸支付,该方法流程图如图3所示。
情况二:当图像采集装置支持改变焦距时,执行步骤203。
在步骤203中,响应于第一目标人脸图像的分类结果不满足要求,根据第一目标人脸图像的分类结果确定目标焦距。
此步骤发生在图像采集装置支持改变焦距的情况下,根据第一目标人脸图像的分类结果即可确定能够获得完整脸部区域所需的焦距,将该焦距作为目标焦距。可选地,响应于第一目标人脸图像的分类结果不满足要求,根据第一目标人脸图像的分类结果确定目标焦距,包括以下步骤:
步骤一:根据第一目标人脸图像的分类结果,确定目标拍摄范围,目标拍摄范围用于获取分类结果满足要求的目标人脸图像。
可选地,根据第一目标人脸图像的分类结果,确定目标拍摄范围,包括:根据第一目标人脸图像的分类结果指示的第一目标人脸图像包含的脸部区域,确定第一目标人脸图像包含的脸部区域占脸部完整区域的比例;根据第一目标人脸图像包含的脸部区域占脸部完整区域的比例,确定目标拍摄范围。具体的实现方式包括但不限于以下两种:
方式1:在第一目标人脸图像中,根据第一目标人脸图像的分类结果指示的第一目标人脸图像包含的脸部区域,推测脸部完整区域的大小,然后计算第一目标人脸图像包含的脸部区域占脸部完整区域的比例。例如,如图4(1)所示,在第一目标人脸图像中,第一目标人脸图像包含的脸部区域为前额、眼部和鼻子组成的区域;根据图4(1)的第一目标人脸图像,可以推测出脸部完整区域,如图4(2)所示。由于一般情况下,刷脸对象的脸部在宽度方向都能进入拍摄范围,所以可以将第一目标人脸图像包含的脸部区域的高度占脸部完整区域的高度的比例作为第一目标人脸图像包含的脸部区域占脸部完整区域的比例。例如,如图4所示,假设第一目标人脸图像包含的脸部区域的高度为3a/5,脸部完整区域的高度为a,则第一目标人脸图像包含的脸部区域占脸部完整区域的比例为3/5。
对于图像采集装置而言,拍摄范围的高度和宽度的比例固定不变,所以只需确定拍摄范围在高度方向应该变化的数值,就能确定目标拍摄范围。一般而言,图像采集装置所采集的图像的形状与拍摄范围的形状相似,也就是图像采集装置所采集的图像的宽度和高度的比例与拍摄范围的宽度和高度的比例相同,以保证图像采集装置所采集的图像中的人脸不发生形变。
假设焦距调整之前,图像采集装置的拍摄范围的高度为A,图像采集装置所采集的第一目标人脸图像的高度为P(固定不变,例如P=480像素)。第一目标人脸图像包含的脸部区域的高度为B,第一目标人脸图像包含的脸部区域的高度占脸部完整区域的高度的比例为1/b。则对应到拍摄范围,进入拍摄范围的脸部区域的实际高度为AB/P,进入拍摄范围的脸部区域的高度占脸部完整区域的高度的比例为1/b。由于图像采集装置的位置固定,所以要想获取包含脸部完整区域的目标人脸图像,目标拍摄范围的高度C的计算公式如下所示:
由于对于同一图像采集装置,拍摄范围的高度和宽度的比例固定不变,所以根据目标拍摄范围的高度C即可得到目标拍摄范围的宽度,由此得到目标拍摄范围,如图5所示。
方式2:预先设置第一目标人脸图像包含的脸部区域、第一目标人脸图像包含的脸部区域占脸部完整区域的比例以及拍摄范围的高度需增大的距离的对应表,然后根据对应表,得到目标拍摄范围。例如,对应表如表1所示。在已知第一目标人脸图像包含的脸部区域的情况下,根据表1即可得到第一目标人脸图像包含的脸部区域占脸部完整区域的比例。然后根据第一目标人脸图像包含的脸部区域占脸部完整区域的比例,由表1即可确定能够获取分类结果满足要求的目标人脸图像所需的目标拍摄范围的高度需要增大的距离。在已知初始拍摄范围的情况下,在得到拍摄范围的高度需增大的距离之后,即可得到目标拍摄范围的高度。
表1
由于对于同一图像采集装置,拍摄范围的高度和宽度的比例固定不变,所以根据目标拍摄范围的高度即可得到目标拍摄范围的宽度,由此得到目标拍摄范围。例如,假设初始的拍摄范围高度为A,当第一目标人脸图像包含的脸部区域为前额和眼部组成的区域,或者嘴部和下巴组成的区域时,第一目标人脸图像包含的脸部区域占脸部完整区域的比例为2/5,相应地,拍摄范围的高度需增加的距离为c2,则目标拍摄范围的高度为(A+c2)。
步骤二:根据目标拍摄范围,确定目标视场角。
视场角是衡量图像采集装置的最大拍摄范围的标度,常以角度作为单位。在图像采集装置中,将以图像采集装置的镜头为顶点,以可通过镜头的最大拍摄范围的两条边缘构成的夹角称为视场角。图像采集装置的拍摄范围由图像采集装置的视场角决定,视场角越大,拍摄范围越大,视场角越小,拍摄范围越小。可选地,根据得到的目标拍摄范围,确定目标视场角的方式包括但不限于以下两种:
方式1:一般而言,图像采集装置的可视拍摄范围为矩形,根据目标拍摄范围,即可得到目标拍摄范围所形成的矩形的对角线长度。假设目标拍摄范围所形成的矩形的对角线长度为M,假设图像采集装置的拍摄距离为L,拍摄距离即为图像采集装置的中心到目标拍摄范围所形成的矩形的中心的直线距离,则目标视场角α与M和L的关系为:
则目标视场角α的可以根据以下公式计算得到:
方式2:对于同一图像采集装置,图像采集装置的视场角与图像采集装置的拍摄距离和图像采集装置的拍摄范围相关。预先设置图像采集装置的视场角与图像采集装置的拍摄距离和图像采集装置的拍摄范围之间的对应表。由于图像采集装置的拍摄距离不变,所以在得到目标拍摄范围之后,根据图像采集装置的拍摄距离和图像采集装置的目标拍摄范围,即可在对应表查找到与拍摄距离和目标拍摄范围对应的目标视场角。若没有相同的拍摄范围,则将对应表中在对应拍摄距离下比目标拍摄范围稍大一些的拍摄范围对应的视场角作为目标视场角。
例如,假设拍摄距离为5米,在拍摄距离为5米时,拍摄范围与视场角的对应表如表2所示,若目标拍摄范围为8米×6米,则将8米×6米的拍摄范围对应的视场角69.9°作为目标视场角;若目标拍摄范围为7.5米×5.6米,则将对应表中在5米的拍摄距离下比7.5米×5.6米稍大一些的拍摄范围,也就是8米×6米的拍摄范围对应的视场角69.9°作为目标视场角。
表2
拍摄范围(拍摄距离为5米) | 视场角 |
13米×9.8米 | 89.9° |
8.5米×6.4米 | 75.7° |
8米×6米 | 69.9° |
5.5米×4.1米 | 50.0° |
3.5米×2.6米 | 38.5° |
步骤三:根据目标视场角,确定目标焦距。
对于同一图像采集装置,图像采集装置的视场角和图像采集装置的焦距是一一对应的。预先设置图像采集装置的视场角和图像采集装置的焦距的对应表,如表3所示。当得到目标视场角后,在对应表中查找目标视场角对应的焦距,将该焦距作为目标焦距。例如,当目标视场角为α3时,将与α3对应的f3作为目标焦距。
表3
视场角 | 焦距 |
α<sub>1</sub> | f<sub>1</sub> |
α<sub>2</sub> | f<sub>2</sub> |
α<sub>3</sub> | f<sub>3</sub> |
α<sub>4</sub> | f<sub>4</sub> |
α<sub>5</sub> | f<sub>5</sub> |
在步骤204中,将图像采集装置的初始焦距调整至目标焦距,获取图像采集装置在目标焦距下所采集的第二目标人脸图像。
将图像采集装置的初始焦距调整至目标焦距,图像采集装置第二次采集同一刷脸对象的人脸图像,将该人脸图像作为第二目标人脸图像,自助支付终端获取图像采集装置在目标焦距下所采集的第二目标人脸图像。第二目标人脸图像的尺寸与第一目标人脸图像的尺寸相同,例如,均为640×480(像素)。
在获取到第二目标人脸图像之后,基于第二目标人脸图像的脸部特征信息获取第二目标人脸图像的分类结果。一般而言在,在目标焦距下采集的人脸图像应该包含脸部完整区域,但是也不排除在采集第一目标人脸图像时,刷脸对象站立姿势不正常的等特殊情况,在这种特殊情况下,第二目标人脸图像的分类结果仍可能不满足要求。所以在获取第二目标人脸图像的分类结果之后,判断分类结果是否满足要求,若满足要求,执行步骤205,若不满足要求,重复步骤203-204。
在步骤205中,响应于基于第二目标人脸图像的脸部特征信息获取的第二目标人脸图像的分类结果满足要求,基于第二目标人脸图像进行刷脸支付。
当基于第二目标人脸图像的脸部特征信息获取第二目标人脸图像的分类结果指示第二目标人脸图像包括脸部完整区域时,第二目标人脸图像的分类结果满足要求,基于第二目标人脸图像进行刷脸支付。
目标人脸图像是与刷脸对象的支付账户相互关联的,刷脸对象的目标人脸图像相当于刷脸对象的支付账户的图像密码。也就是说,每一个刷脸对象的目标人脸图像都唯一关联一个支付账户,基于获取的刷脸对象的目标人脸图像,就可以从与目标人脸图像唯一关联的支付账户中扣除相应金额,完成刷脸支付。
在刷脸支付之前,需要首先将刷脸对象的目标人脸图像与基准人脸图像进行特征对比。当判断为同一刷脸对象的人脸图像时,基于该刷脸对象的人脸图像进行刷脸支付,当判断为不同对象的人脸图像时,刷脸支付失败。可选地,基准人脸图像,可以是自助支付终端的图像采集装置预先采集并存储的刷脸对象的人脸图像,也可以是基于实名认证信息,通过公安系统人口数据得到的刷脸对象的身份证件对应的人脸图像。
可选地,基于第二目标人脸图像进行刷脸支付之后,还包括:将图像采集装置的目标焦距恢复至图像采集装置的初始焦距。
由于大多数刷脸对象的身高在正常范围内(例如150厘米-190厘米),图像采集装置在初始焦距下即可获取分类结果满足要求的目标人脸图像,所以在基于第二目标人脸图像进行刷脸支付之后,需要将图像采集装置的焦距由目标焦距恢复至初始焦距,以方便采集下一个刷脸对象的目标人脸图像,该流程图如图6所示。
在本申请实施例中,当自助支付终端的图像采集装置所采集的人脸图像包含的脸部区域不满足要求时,通过调整图像采集装置的焦距,使图像采集装置的拍摄范围增加,采集人脸图像的方式灵活,能够采集到身高过高或者身高过矮的刷脸对象的完整人脸图像,提高基于采集到的人脸图像进行刷脸支付的成功率,提高刷脸支付的效率,提升用户体验感。
基于相同技术构思,参见图7,本申请实施例提供了一种刷脸支付的装置,该装置应用于自助支付终端,该装置包括:
第一获取模块701,用于获取图像采集装置所采集的第一目标人脸图像;
第二获取模块702,用于基于第一目标人脸图像的脸部特征信息获取第一目标人脸图像的分类结果,分类结果用于指示第一目标人脸图像包含的脸部区域;
第一确定模块703,用于响应于第一目标人脸图像的分类结果不满足要求,根据第一目标人脸图像的分类结果确定目标焦距;
调整模块704,用于将图像采集装置的初始焦距调整至目标焦距;
第三获取模块705,用于获取图像采集装置在目标焦距下所采集的第二目标人脸图像;
支付模块706,用于响应于基于第二目标人脸图像的脸部特征信息获取的第二目标人脸图像的分类结果满足要求,基于第二目标人脸图像进行刷脸支付。
可选地,参见图8,第一确定模块703,包括:
第一确定单元7031,用于根据第一目标人脸图像的分类结果,确定目标拍摄范围,目标拍摄范围用于获取分类结果满足要求的目标人脸图像;
第二确定单元7032,用于根据目标拍摄范围,确定目标视场角;
第三确定单元7033,用于根据目标视场角,确定目标焦距。
可选地,脸部特征信息,包括:
眼部特征信息、鼻子特征信息、嘴部特征信息、前额特征信息、下巴特征信息中的一种或多种;
可选地,参见图9,该装置还包括:
第二确定模块707,用于响应于第一目标人脸图像的分类结果指示第一目标人脸图像未包含脸部完整区域,确定第一目标人脸图像的分类结果不满足要求,脸部完整区域包括眼部特征信息、鼻子特征信息、嘴部特征信息、前额特征信息和下巴特征信息。
可选地,第一确定单元7031,用于根据第一目标人脸图像的分类结果指示的第一目标人脸图像包含的脸部区域,确定第一目标人脸图像包含的脸部区域占脸部完整区域的比例;根据第一目标人脸图像包含的脸部区域占脸部完整区域的比例,确定目标拍摄范围。
可选地,第二获取模块702,用于基于神经网络获取第一目标人脸图像的脸部特征信息;根据第一目标人脸图像的脸部特征信息获取第一目标人脸图像包含各个脸部区域的概率值,根据第一目标人脸图像包含的各个脸部区域的概率值得到第一目标人脸图像的分类结果。
可选地,参见图9,该装置还包括:
检测模块708,用于响应于第一目标人脸图像的分类结果不满足要求,检测图像采集装置是否支持改变焦距;
显示模块709,用于响应于图像采集装置不支持改变焦距,显示提示信息,提示信息用于指示第一目标人脸图像的分类结果不满足要求。
可选地,参见图10,该装置还包括:
恢复模块710,用于将图像采集装置的目标焦距恢复至图像采集装置的初始焦距。
在本申请实施例中,当自助支付终端的图像采集装置所采集的人脸图像包含的脸部区域不满足要求时,通过调整图像采集装置的焦距,使图像采集装置的拍摄范围增加,采集人脸图像的方式灵活,能够采集到身高过高或者身高过矮的刷脸对象的完整人脸图像,提高基于采集到的人脸图像进行刷脸支付的成功率,提高刷脸支付的效率,提升用户体验感。
需要说明的是,上述实施例提供的装置在实现其功能时,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将设备的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的装置与方法实施例属于同一构思,其具体实现过程详见方法实施例,这里不再赘述。
图11是本申请实施例提供的一种刷脸支付的设备结构示意图。该设备可以为终端,尤其是自助支付终端,例如可以是:自助收银机、自助售货机等。
通常,终端包括有:处理器1101和存储器1102。
处理器1101可以包括一个或多个处理核心,比如4核心处理器、8核心处理器等。处理器1101可以采用DSP(Digital Signal Processing,数字信号处理)、FPGA(Field-Programmable Gate Array,现场可编程门阵列)、PLA(Programmable Logic Array,可编程逻辑阵列)中的至少一种硬件形式来实现。处理器1101也可以包括主处理器和协处理器,主处理器是用于对在唤醒状态下的数据进行处理的处理器,也称CPU(Central ProcessingUnit,中央处理器);协处理器是用于对在待机状态下的数据进行处理的低功耗处理器。在一些实施例中,处理器1101可以集成有GPU(Graphics Processing Unit,图像处理器),GPU用于负责显示屏所需要显示的内容的渲染和绘制。一些实施例中,处理器1101还可以包括AI(Artificial Intelligence,人工智能)处理器,该AI处理器用于处理有关机器学习的计算操作。
存储器1102可以包括一个或多个计算机可读存储介质,该计算机可读存储介质可以是非暂态的。存储器1102还可包括高速随机存取存储器,以及非易失性存储器,比如一个或多个磁盘存储设备、闪存存储设备。在一些实施例中,存储器1102中的非暂态的计算机可读存储介质用于存储至少一个指令,该至少一个指令用于被处理器1101所执行以实现本申请中方法实施例提供的刷脸支付的方法。
在一些实施例中,终端还可选包括有:外围设备接口1103和至少一个外围设备。处理器1101、存储器1102和外围设备接口1103之间可以通过总线或信号线相连。各个外围设备可以通过总线、信号线或电路板与外围设备接口1103相连。具体地,外围设备包括:射频电路1104、触摸显示屏1105、摄像头组件1106、音频电路1107、定位组件1108和电源1109中的至少一种。
外围设备接口1103可被用于将I/O(Input/Output,输入/输出)相关的至少一个外围设备连接到处理器1101和存储器1102。在一些实施例中,处理器1101、存储器1102和外围设备接口1103被集成在同一芯片或电路板上;在一些其他实施例中,处理器1101、存储器1102和外围设备接口1103中的任意一个或两个可以在单独的芯片或电路板上实现,本实施例对此不加以限定。
射频电路1104用于接收和发射RF(Radio Frequency,射频)信号,也称电磁信号。射频电路1104通过电磁信号与通信网络以及其他通信设备进行通信。射频电路1104将电信号转换为电磁信号进行发送,或者,将接收到的电磁信号转换为电信号。可选地,射频电路1104包括:天线系统、RF收发器、一个或多个放大器、调谐器、振荡器、数字信号处理器、编解码芯片组、用户身份模块卡等等。射频电路1104可以通过至少一种无线通信协议来与其它终端进行通信。该无线通信协议包括但不限于:城域网、各代移动通信网络(2G、3G、4G及5G)、无线局域网和/或WiFi(Wireless Fidelity,无线保真)网络。在一些实施例中,射频电路1104还可以包括NFC(Near Field Communication,近距离无线通信)有关的电路,本申请对此不加以限定。
显示屏1105用于显示UI(User Interface,用户界面)。该UI可以包括图形、文本、图标、视频及其它们的任意组合。当显示屏1105是触摸显示屏时,显示屏1105还具有采集在显示屏1105的表面或表面上方的触摸信号的能力。该触摸信号可以作为控制信号输入至处理器1101进行处理。此时,显示屏1105还可以用于提供虚拟按钮和/或虚拟键盘,也称软按钮和/或软键盘。在一些实施例中,显示屏1105可以为一个,设置在终端的前面板;在另一些实施例中,显示屏1105可以为至少两个,分别设置在终端的不同表面或呈折叠设计;在再一些实施例中,显示屏1105可以是柔性显示屏,设置在终端的弯曲表面上或折叠面上。甚至,显示屏1105还可以设置成非矩形的不规则图形,也即异形屏。显示屏1105可以采用LCD(Liquid Crystal Display,液晶显示屏)、OLED(Organic Light-Emitting Diode,有机发光二极管)等材质制备。
摄像头组件1106用于采集图像或视频。可选地,摄像头组件1106包括前置摄像头和后置摄像头。通常,前置摄像头设置在终端的前面板,后置摄像头设置在终端的背面。在一些实施例中,后置摄像头为至少两个,分别为主摄像头、景深摄像头、广角摄像头、长焦摄像头中的任意一种,以实现主摄像头和景深摄像头融合实现背景虚化功能、主摄像头和广角摄像头融合实现全景拍摄以及VR(Virtual Reality,虚拟现实)拍摄功能或者其它融合拍摄功能。在一些实施例中,摄像头组件1106还可以包括闪光灯。闪光灯可以是单色温闪光灯,也可以是双色温闪光灯。双色温闪光灯是指暖光闪光灯和冷光闪光灯的组合,可以用于不同色温下的光线补偿。
音频电路1107可以包括麦克风和扬声器。麦克风用于采集用户及环境的声波,并将声波转换为电信号输入至处理器1101进行处理,或者输入至射频电路1104以实现语音通信。出于立体声采集或降噪的目的,麦克风可以为多个,分别设置在终端的不同部位。麦克风还可以是阵列麦克风或全向采集型麦克风。扬声器则用于将来自处理器1101或射频电路1104的电信号转换为声波。扬声器可以是传统的薄膜扬声器,也可以是压电陶瓷扬声器。当扬声器是压电陶瓷扬声器时,不仅可以将电信号转换为人类可听见的声波,也可以将电信号转换为人类听不见的声波以进行测距等用途。在一些实施例中,音频电路1107还可以包括耳机插孔。
定位组件1108用于定位终端的当前地理位置,以实现导航或LBS(Location BasedService,基于位置的服务)。定位组件1108可以是基于美国的GPS(Global PositioningSystem,全球定位系统)、中国的北斗系统、俄罗斯的格雷纳斯系统或欧盟的伽利略系统的定位组件。
电源1109用于为终端中的各个组件进行供电。电源1109可以是交流电、直流电、一次性电池或可充电电池。当电源1109包括可充电电池时,该可充电电池可以支持有线充电或无线充电。该可充电电池还可以用于支持快充技术。
在一些实施例中,终端还包括有一个或多个传感器1110。该一个或多个传感器1110包括但不限于:加速度传感器1111、陀螺仪传感器1112、压力传感器1113、指纹传感器1114、光学传感器1115以及接近传感器1116。
加速度传感器1111可以检测以终端建立的坐标系的三个坐标轴上的加速度大小。比如,加速度传感器1111可以用于检测重力加速度在三个坐标轴上的分量。处理器1101可以根据加速度传感器1111采集的重力加速度信号,控制触摸显示屏1105以横向视图或纵向视图进行用户界面的显示。加速度传感器1111还可以用于游戏或者用户的运动数据的采集。
陀螺仪传感器1112可以检测终端的机体方向及转动角度,陀螺仪传感器1112可以与加速度传感器1111协同采集用户对终端的3D动作。处理器1101根据陀螺仪传感器1112采集的数据,可以实现如下功能:动作感应(比如根据用户的倾斜操作来改变UI)、拍摄时的图像稳定、游戏控制以及惯性导航。
压力传感器1113可以设置在终端的侧边框和/或触摸显示屏1105的下层。当压力传感器1113设置在终端的侧边框时,可以检测用户对终端的握持信号,由处理器1101根据压力传感器1113采集的握持信号进行左右手识别或快捷操作。当压力传感器1113设置在触摸显示屏1105的下层时,由处理器1101根据用户对触摸显示屏1105的压力操作,实现对UI界面上的可操作性控件进行控制。可操作性控件包括按钮控件、滚动条控件、图标控件、菜单控件中的至少一种。
指纹传感器1114用于采集用户的指纹,由处理器1101根据指纹传感器1114采集到的指纹识别用户的身份,或者,由指纹传感器1114根据采集到的指纹识别用户的身份。在识别出用户的身份为可信身份时,由处理器1101授权该用户执行相关的敏感操作,该敏感操作包括解锁屏幕、查看加密信息、下载软件、支付及更改设置等。指纹传感器1114可以被设置在终端的正面、背面或侧面。当终端上设置有物理按键或厂商Logo时,指纹传感器1114可以与物理按键或厂商Logo集成在一起。
光学传感器1115用于采集环境光强度。在一个实施例中,处理器1101可以根据光学传感器1115采集的环境光强度,控制触摸显示屏1105的显示亮度。具体地,当环境光强度较高时,调高触摸显示屏1105的显示亮度;当环境光强度较低时,调低触摸显示屏1105的显示亮度。在另一个实施例中,处理器1101还可以根据光学传感器1115采集的环境光强度,动态调整摄像头组件1106的拍摄参数。
接近传感器1116,也称距离传感器,通常设置在终端的前面板。接近传感器1116用于采集用户与终端的正面之间的距离。在一个实施例中,当接近传感器1116检测到用户与终端的正面之间的距离逐渐变小时,由处理器1101控制触摸显示屏1105从亮屏状态切换为息屏状态;当接近传感器1116检测到用户与终端的正面之间的距离逐渐变大时,由处理器1101控制触摸显示屏1105从息屏状态切换为亮屏状态。
本领域技术人员可以理解,图11中示出的结构并不构成对终端的限定,可以包括比图示更多或更少的组件,或者组合某些组件,或者采用不同的组件布置。
在示例性实施例中,还提供了一种计算机设备,所述计算机设备包括处理器和存储器,所述存储器中存储有至少一条指令、至少一段程序、代码集或指令集。所述至少一条指令、至少一段程序、代码集或指令集经配置以由一个或者一个以上处理器执行,以实现上述任一种刷脸支付的方法。
在示例性实施例中,还提供了一种计算机可读存储介质,所述存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或所述指令集在被计算机设备的处理器执行时实现上述任一种刷脸支付的方法。
可选地,上述计算机可读存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。
应当理解的是,在本文中提及的“多个”是指两个或两个以上。“和/或”,描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。字符“/”一般表示前后关联对象是一种“或”的关系。
上述本申请实施例序号仅仅为了描述,不代表实施例的优劣。
以上所述仅为本申请的示例性实施例,并不用以限制本申请,凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。
Claims (10)
1.一种刷脸支付的方法,其特征在于,所述方法应用于自助支付终端,所述方法包括:
获取图像采集装置所采集的第一目标人脸图像;
基于所述第一目标人脸图像的脸部特征信息获取所述第一目标人脸图像的分类结果,所述分类结果用于指示所述第一目标人脸图像包含的脸部区域;
响应于所述第一目标人脸图像的分类结果不满足要求,根据所述第一目标人脸图像的分类结果确定目标焦距;
将所述图像采集装置的初始焦距调整至所述目标焦距,获取所述图像采集装置在所述目标焦距下所采集的第二目标人脸图像;
响应于基于所述第二目标人脸图像的脸部特征信息获取的所述第二目标人脸图像的分类结果满足要求,基于所述第二目标人脸图像进行刷脸支付。
2.根据权利要求1所述的方法,其特征在于,所述响应于所述第一目标人脸图像的分类结果不满足要求,根据所述第一目标人脸图像的分类结果确定目标焦距,包括:
根据所述第一目标人脸图像的分类结果,确定目标拍摄范围,所述目标拍摄范围用于获取分类结果满足要求的目标人脸图像;
根据所述目标拍摄范围,确定目标视场角;
根据所述目标视场角,确定目标焦距。
3.根据权利要求1所述的方法,其特征在于,所述脸部特征信息,包括:
眼部特征信息、鼻子特征信息、嘴部特征信息、前额特征信息、下巴特征信息中的一种或多种;
所述基于所述第一目标人脸图像的脸部特征信息获取所述第一目标人脸图像的分类结果之后,还包括:
响应于所述第一目标人脸图像的分类结果指示所述第一目标人脸图像未包含脸部完整区域,所述第一目标人脸图像的分类结果不满足要求,所述脸部完整区域包括眼部特征信息、鼻子特征信息、嘴部特征信息、前额特征信息和下巴特征信息。
4.根据权利要求2所述的方法,其特征在于,所述根据所述第一目标人脸图像的分类结果,确定目标拍摄范围,包括:
根据所述第一目标人脸图像的分类结果指示的所述第一目标人脸图像包含的脸部区域,确定所述第一目标人脸图像包含的脸部区域占脸部完整区域的比例;
根据所述第一目标人脸图像包含的脸部区域占脸部完整区域的比例,确定目标拍摄范围。
5.根据权利要求1所述的方法,其特征在于,所述基于所述第一目标人脸图像的脸部特征信息获取所述第一目标人脸图像的分类结果,包括:
基于神经网络获取所述第一目标人脸图像的脸部特征信息;
根据所述第一目标人脸图像的脸部特征信息获取所述第一目标人脸图像包含各个脸部区域的概率值,根据所述第一目标人脸图像包含的各个脸部区域的概率值得到所述第一目标人脸图像的分类结果。
6.根据权利要求1所述的方法,其特征在于,所述方法,还包括:
响应于所述第一目标人脸图像的分类结果不满足要求,检测图像采集装置是否支持改变焦距;
响应于所述图像采集装置不支持改变焦距,显示提示信息,所述提示信息用于指示所述第一目标人脸图像的分类结果不满足要求。
7.根据权利要求1-6任一所述的方法,其特征在于,所述基于所述第二目标人脸图像进行刷脸支付之后,还包括:
将所述图像采集装置的目标焦距恢复至所述图像采集装置的初始焦距。
8.一种刷脸支付的装置,其特征在于,所述装置应用于自助支付终端,所述装置包括:
第一获取模块,用于获取图像采集装置所采集的第一目标人脸图像;
第二获取模块,用于基于所述第一目标人脸图像的脸部特征信息获取所述第一目标人脸图像的分类结果,所述分类结果用于指示所述第一目标人脸图像包含的脸部区域;
第一确定模块,用于响应于所述第一目标人脸图像的分类结果不满足要求,根据所述第一目标人脸图像的分类结果确定目标焦距;
第三获取模块,用于将所述图像采集装置的初始焦距调整至所述目标焦距,获取所述图像采集装置在所述目标焦距下所采集的第二目标人脸图像;
支付模块,用于响应于基于所述第二目标人脸图像的脸部特征信息获取的所述第二目标人脸图像的分类结果满足要求,基于所述第二目标人脸图像进行刷脸支付。
9.一种计算机设备,其特征在于,所述计算机设备包括处理器和存储器,所述存储器中存储有至少一条指令,所述至少一条指令在被所述处理器执行时实现如权利要求1至7任一所述的刷脸支付的方法。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有至少一条指令,所述至少一条指令在被执行时实现如权利要求1至7任一所述的刷脸支付的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910439738.0A CN110163615A (zh) | 2019-05-24 | 2019-05-24 | 刷脸支付的方法、装置、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910439738.0A CN110163615A (zh) | 2019-05-24 | 2019-05-24 | 刷脸支付的方法、装置、设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110163615A true CN110163615A (zh) | 2019-08-23 |
Family
ID=67632594
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910439738.0A Pending CN110163615A (zh) | 2019-05-24 | 2019-05-24 | 刷脸支付的方法、装置、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110163615A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111539740A (zh) * | 2020-05-15 | 2020-08-14 | 支付宝(杭州)信息技术有限公司 | 一种支付方法、装置及设备 |
CN113673426A (zh) * | 2021-08-20 | 2021-11-19 | 支付宝(杭州)信息技术有限公司 | 目标用户确定方法及装置 |
-
2019
- 2019-05-24 CN CN201910439738.0A patent/CN110163615A/zh active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111539740A (zh) * | 2020-05-15 | 2020-08-14 | 支付宝(杭州)信息技术有限公司 | 一种支付方法、装置及设备 |
CN111539740B (zh) * | 2020-05-15 | 2022-11-18 | 支付宝(杭州)信息技术有限公司 | 一种支付方法、装置及设备 |
CN113673426A (zh) * | 2021-08-20 | 2021-11-19 | 支付宝(杭州)信息技术有限公司 | 目标用户确定方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110795236B (zh) | 调整服务器容量的方法、装置、电子设备及介质 | |
CN109948586B (zh) | 人脸验证的方法、装置、设备及存储介质 | |
CN108900858A (zh) | 一种赠送虚拟礼物的方法和装置 | |
CN109522863B (zh) | 耳部关键点检测方法、装置及存储介质 | |
CN109829864A (zh) | 图像处理方法、装置、设备及存储介质 | |
CN110059652A (zh) | 人脸图像处理方法、装置及存储介质 | |
CN111144365A (zh) | 活体检测方法、装置、计算机设备及存储介质 | |
CN110163160A (zh) | 人脸识别方法、装置、设备及存储介质 | |
CN111062248A (zh) | 图像检测的方法、装置、电子设备及介质 | |
CN111028071A (zh) | 账单处理方法、装置、电子设备及存储介质 | |
CN110503416B (zh) | 数值转移方法、装置、计算机设备及存储介质 | |
CN111915305B (zh) | 支付方法、装置、设备以及存储介质 | |
CN110163615A (zh) | 刷脸支付的方法、装置、设备及存储介质 | |
CN110659895A (zh) | 支付方法、装置、电子设备及介质 | |
CN112396076A (zh) | 车牌图像生成方法、装置及计算机存储介质 | |
CN111127541A (zh) | 车辆尺寸的确定方法、装置及存储介质 | |
CN110782602A (zh) | 资源转移方法、装置、系统、设备及存储介质 | |
CN111047328A (zh) | 移动支付方法、装置、系统及存储介质 | |
CN111695981A (zh) | 资源转移方法、装置及存储介质 | |
CN113591514B (zh) | 指纹活体检测方法、设备及存储介质 | |
CN113344617A (zh) | 资源核销方法、装置、终端及存储介质 | |
CN111325083B (zh) | 记录考勤信息的方法和装置 | |
CN110717365B (zh) | 一种获取图片的方法及装置 | |
CN109118213B (zh) | 在线支付方法、装置、终端及存储介质 | |
CN110672036A (zh) | 确定投影区域的方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |