CN112116355A - 一种基于意愿识别确认是否完成支付的方法、系统及装置 - Google Patents
一种基于意愿识别确认是否完成支付的方法、系统及装置 Download PDFInfo
- Publication number
- CN112116355A CN112116355A CN202010988243.6A CN202010988243A CN112116355A CN 112116355 A CN112116355 A CN 112116355A CN 202010988243 A CN202010988243 A CN 202010988243A CN 112116355 A CN112116355 A CN 112116355A
- Authority
- CN
- China
- Prior art keywords
- user
- facial
- payment
- facial image
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q20/00—Payment architectures, schemes or protocols
- G06Q20/38—Payment protocols; Details thereof
- G06Q20/40—Authorisation, e.g. identification of payer or payee, verification of customer or shop credentials; Review and approval of payers, e.g. check credit lines or negative lists
- G06Q20/401—Transaction verification
- G06Q20/4014—Identity check for transactions
- G06Q20/40145—Biometric identity checks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q20/00—Payment architectures, schemes or protocols
- G06Q20/38—Payment protocols; Details thereof
- G06Q20/42—Confirmation, e.g. check or permission by the legal debtor of payment
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/166—Detection; Localisation; Normalisation using acquisition arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
Landscapes
- Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Business, Economics & Management (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- General Health & Medical Sciences (AREA)
- Accounting & Taxation (AREA)
- Finance (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Security & Cryptography (AREA)
- Collating Specific Patterns (AREA)
- Image Analysis (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本说明书实施例提供一种基于意愿识别确定是否完成支付的方法、系统及装置,其中,所述方法包括:生成交互信息,所述交互信息用于提示用户做出特定面部动作以确定用户意愿;获取预设时间段内出现在摄像头内的面部图像;识别所述用户是否在所述面部图像中;当识别结果为所述用户在所述面部图像中,基于所述面部图像识别所述用户是否做出所述特定面部动作;当识别结果为所述用户做出所述特定面部动作,确定所述用户为有意愿用户,完成支付;否则,确定所述用户为无意愿用户,支付失败。
Description
技术领域
本说明书涉及电子支付领域,特别涉及一种基于意愿识别确认是否完成支付的方法、系统、及装置。
背景技术
随着互联网技术的不断发展,人脸识别技术近年来已经被广泛应用到了支付领域。同时,用户也对人脸识别系统的安全和隐私问题存在担忧。其中,刷脸支付的“意愿确认”问题是近年来出现的新课题。具体来说,刷脸支付时,刷脸设备应该在得到用户明确“意愿确认”的前提下,才能进行扣款。目前用户的“意愿确认”主要通过用户点击确认按钮进行。但是点击按钮的方法存在以下问题:(1)用户购物时一般手上有货物,点击按钮体验较差;(2) 用户刷脸后容易发生没有看到确认按钮,而漏过确认环节的情况,造成用户体验较差。
因此,期望一种更高效和安全的基于意愿识别确认是否完成支付的方法。
发明内容
本说明书实施例的一个方面提供一种基于意愿识别确认是否完成支付的方法。所述方法可以包括:生成交互信息,所述交互信息用于提示用户做出特定面部动作以确定用户意愿;获取预设时间段内出现在摄像头内的面部图像;识别所述用户是否在所述面部图像中;当识别结果为所述用户在所述面部图像中,基于所述面部图像识别所述用户是否做出所述特定面部动作;当识别结果为所述用户做出所述特定面部动作,确定所述用户为有意愿用户,完成支付;否则,确定所述用户为无意愿用户,支付失败。
本说明书实施例的一个方面提供一种基于意愿识别确认是否完成支付的系统。所述系统包括:生成模块、获取模块、识别模块以及确定模块。所述生成模块,用于生成交互信息,所述交互信息用于提示用户做出特定面部动作以确认用户意愿。所述获取模块,用于获取预设时间段内出现在摄像头内的面部图像。所述识别模块,用于识别所述用户是否在所述面部图像中,当识别所述用户在所述面部图像中,基于所述面部图像识别所述用户是否做出所述特定面部动作。所述确定模块,用于当识别结果为所述用户做出所述特定面部动作,确定所述用户为有意愿用户,完成支付;否则,确定所述用户为无意愿用户,支付失败。
本说明书实施例的一个方面提供一种装置。所述装置包括处理器,所述处理器用于执行如上所述的基于意愿识别确认是否完成支付的方法。
附图说明
本说明书将以示例性实施例的方式进一步说明,这些示例性实施例将通过附图进行详细描述。这些实施例并非限制性的,在这些实施例中,相同的编号表示相同的结构,其中:
图1是根据本说明书的一些实施例所示的示例性的一种刷脸支付的流程图;
图2是根据本说明书的一些实施例所示的示例性的一种基于意愿识别确认是否完成支付的流程图;
图3是根据本说明书的一些实施例所示的示例性的一种识别用户是否做出特定面部动作的流程图;
图4是根据本说明书的一些实施例所示的示例性的一种刷脸支付装置的示意图;
图5是根据本说明书的一些实施例所示的示例性的一种刷脸支付系统的模块图。
具体实施方式
为了更清楚地说明本说明书实施例的技术方案,下面将对实施例描述中所需要使用的附图作简单的介绍。显而易见地,下面描述中的附图仅仅是本说明书的一些示例或实施例,对于本领域的普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图将本说明书应用于其它类似情景。除非从语言环境中显而易见或另做说明,图中相同标号代表相同结构或操作。
应当理解,本文使用的“系统”、“装置”、“单元”和/或“模组”是用于区分不同级别的不同组件、元件、部件、部分或装配的一种方法。然而,如果其他词语可实现相同的目的,则可通过其他表达来替换所述词语。
如本说明书和权利要求书中所示,除非上下文明确提示例外情形,“一”、“一个”、“一种”和/或“该”等词并非特指单数,也可包括复数。一般说来,术语“包括”与“包含”仅提示包括已明确标识的步骤和元素,而这些步骤和元素不构成一个排它性的罗列,方法或者设备也可能包含其它的步骤或元素。
虽然本说明书对根据本说明书的实施例的系统中的某些模块或单元做出了各种引用,然而,任何数量的不同模块或单元可以被使用并运行在客户端和/或服务器上。所述模块仅是说明性的,并且所述系统和方法的不同方面可以使用不同模块。
本说明书中使用了流程图用来说明根据本说明书的实施例的系统所执行的操作。应当理解的是,前面或后面操作不一定按照顺序来精确地执行。相反,可以按照倒序或同时处理各个步骤。同时,也可以将其他操作添加到这些过程中,或从这些过程移除某一步或数步操作。
图1是根据本说明书的一些实施例所示的示例性的一种刷脸支付的示意图。在一些实施例中,流程100可以由刷脸支付装置400(简称“装置400”)的处理器设备410执行。例如,流程100可以以程序或指令的形式存储在存储装置(如刷脸支付装置400的存储设备450或外接存储设备)中,所述程序或指令在被执行时,可以实现流程100。在一些实施例中,流程 100可以由刷脸支付系统500(简称“系统500”)的模块执行。系统500的模块是处理器设备410的示例性实施例。如图1所示,流程100可以包括下述步骤。
步骤110,接收刷脸指令并获取刷脸图像。具体地,该步骤可以由获取模块510执行。
在一些实施例中,所述刷脸指令为用户(例如,装置400的操作者)希望通过刷脸来执行特定操作的指令。所述特定操作可以与电子支付、远程开户(例如,银行卡开户)、接收快递、远程开门等相关。本说明书实施例以刷脸指令与电子支付相关为例进行描述,并不旨在限制本说明书的范围。在一些实施例中,用户可以通过按钮、语音、手势等中的一种或多种方式生成刷脸指令,从而处理器设备410可以接收刷脸指令。例如,装置400可以具有显示设备420、摄像头430和/或输入/输出(I/O)设备440,用以实现与用户的交互来获取刷脸指令。当用户希望通过装置400完成支付时,用户可以点击显示设备420的“刷脸开始”按钮,从而处理器设备410可以获取刷脸指令。可选地,用户可以通过I/O设备440输入与“刷脸开始”相关的语音,从而处理器设备410可以识别输入的语音以获取刷脸指令。可选地,用户可以做出特定的手势,摄像头430可以捕获用户的手势,从而处理器设备410可以识别用户特定的手势以获取刷脸指令。
在一些实施例中,获取刷脸指令后,显示设备420可以显示人脸识别框以提示用户将人脸移到识别框内。可以通过摄像头430在获取刷脸指令后预设时间段(例如,1s)内获取人脸识别框内出现的画面。如果检测到所述画面中有人脸图像,则将所述画面指定为刷脸图像;否则,刷脸失败,可以提示用户重新刷脸。
步骤120,基于所述刷脸图像识别用户身份(也称为“第一用户身份”)。具体地,该步骤由识别模块530执行。
在一些实施例中,可以对刷脸图像进行预处理。例如,可以检测刷脸图像中的人脸区域并对人脸区域进行人脸剪裁和对齐操作。所述人脸裁剪操作可以将人脸区域从刷脸图像中分离出来(例如,将刷脸图像中的非人脸区域裁剪掉或做背景化处理)。所述对齐操作可以定位人脸区域的关键点(例如,双眼、鼻尖、双嘴角)并进行矫正得到正脸图像。所述正脸图像中的人脸区域处于正脸的姿势。基于所述预处理后的刷脸图像可以提取面部特征。这里所述的面部特征是人脸区域的整体特征。例如,如果预处理后的刷脸图像是一个M×N大小的图像,则面部特征可以表示成一个维度为M×N的向量。进一步地,可以基于提取的面部特征识别第一用户身份。在一些实施例中,存在一个存储有多个面部特征的特征库,其中每个面部特征对应一个已知用户身份。可以将提取的面部特征和特征库中的面部特征进行对比获得比对分列表。例如,可以基于相似度算法确定提取的面部特征对应的向量和特征库中的面部特征对应的向量的相似度,并将相似度作为比对分。相似度越高,则比对分越高。示例性的相似度算法可以包括余弦相似度算法、欧几里得距离算法、皮尔逊相关系数算法、Tanimoto 系数算法、曼哈顿距离算法、马氏距离算法、兰氏距离算法、切比雪夫距离算法等。可以将比对分按照一定顺序(从大到小或从小到大)进行排序获得比对分列表。如果最高比对分低于设定阈值(例如,99%、95%等),则刷脸失败,可以提示用户重新刷脸。如果比对分高于设定阈值,则指定最高比对分对应的已知用户身份第一用户身份。识别用户身份后,可以进一步基于第一用户身份登录与第一用户身份对应的支付账号。
步骤130,提示用户做出特定面部动作并确认用户支付意愿。具体地,该步骤可以由获取模块510、生成模块520、识别模块530和确定模块540执行。
在一些实施例中,可以生成交互信息以提示用户做出特定面部动作。可以获取预设时间段内出现在摄像头430内的面部图像。识别所述用户是否在所述面部图像中。当识别结果为所述用户不在所述面部图像中,支付失败;否则,基于所述面部图像识别所述用户是否做出所述特定面部动作。当识别结果为所述用户做出所述特定面部动作,确定所述用户为有意愿用户,完成支付,否则;确定所述用户为无意愿用户,支付失败。在一些实施例中,基于所述面部图像识别所述用户是否做出所述特定面部动作,可以进一步基于面部图像进行用户身份识别。具体基于用户的面部动作确认用户支付意愿的内容可以参见图2和3及其相关描述。
相较于需要用户再次点击按钮来确认用户支付意愿的方法,本说明书实施例的方法通过用户的面部动作确认用户支付意愿,用户在整个支付流程中只需要点击一次按钮(即步骤110 中的点击“开始刷脸”按钮),通过交互信息提示用户做出特定面部动作,可以减少用户没有看到确认按钮而漏过确认环节或用户误触发点击确认按钮的情况,使得用户支付体验更好。此外,通过用户的面部动作识别用户支付意愿并基于面部图像再次识别用户身份,可以确保刷脸的用户和确认支付意愿的用户为同一个人,使得支付过程更加安全。
步骤140,基于用户支付意愿,提示支付成功或提示支付尚未成功。具体地,该步骤可以由生成模块520执行。
在一些实施例中,如果用户为有意愿用户,生成交互信息以提示支付成功。提示支付成功的交互信息可以是文本信息和/或语音信息。例如,支付成功的交互信息可以通过显示设备420 和/或I/O设备440展示给用户。提示支付成功的交互信息可以包括扣款信息、广告信息等。例如,可以通过显示设备420显示扣款信息和/或广告信息。又例如,可以通过I/O设备440 输出例如“成功扣款特定金额”的语音。在一些实施例中,用户还可以通过显示设备420和/ 或I/O设备440提交扣款异常的反馈。
如果用户为无意愿用户,可以生成交互信息以提示支付失败(或支付尚未成功)和/或提示用户尝试重新刷脸。提示支付失败的交互信息可以是文本信息和/或语音信息,并通过显示设备420和/或I/O设备440展示给用户。提示支付失败的交互信息可以包括支付失败信息、提示用户尝试重新刷脸的信息等。例如,可以通过显示设备420显示“支付失败”和/或“请尝试重新刷脸”的文本信息。又例如,可以通过I/O设备440输出“请尝试重新刷脸”的语音。在一些实施例中,可以通过闪屏等方式来提示用户进入摄像头430可以拍摄到的位置以尝试重新刷脸。
应当注意的是,上述有关流程100的描述仅仅是为了示例和说明,而不限定本说明书的适用范围。对于本领域技术人员来说,在本说明书的指导下可以对流程100进行各种修正和改变。然而,这些修正和改变仍在本说明书的范围之内。在一些实施例中,步骤110和120 可以忽略,可以通过用户输入直接确定用户身份。例如,可以通过用户输入的账号和密码信息来确认用户身份。在一些实施例中,步骤110中,刷脸图像可以为静态图像或动态图像。例如,可以通过显示设备420提示用户做出特定面部动作,获取预设时间段内出现在人脸识别框内的动态图像作为刷脸图像。该步骤中的特定动作可以和步骤130中的特定面部动作相同或不同,在此不做限制。在一些实施例中,可以在对刷脸图像进行预处理前,对刷脸图像进行活体检测。例如,可以将刷脸图像输入活体检测模型以确定刷脸图像是否是活体图像。如果测刷脸图像为活体图像,则对刷脸图像进行预处理;否则,刷脸失败。
图2是根据本说明书的一些实施例所示的示例性的一种基于意愿识别确认是否完成支付的流程图。在一些实施例中,流程200可以由装置400的处理器设备410执行。例如,流程 200可以以程序或指令的形式存储在存储装置(如装置400的存储设备450或外接存储设备) 中,所述程序或指令在被执行时,可以实现流程200。在一些实施例中,流程200可以由系统 500的模块执行。在一些实施例中,图1中的步骤130可以通过流程200实现。如图2所示,流程200可以包括下述步骤。
步骤210,生成交互信息以提示用户做出特定面部动作。具体地,该步骤可以由生成模块 520执行。
在一些实施例中,所述交互信息可以包括文本信息、语音信息、动画信息、图片信息等中的一种或多种组合。例如,可以通过显示设备420呈现文本信息和/或图片信息以提示用户做出特定面部动作。又例如,可以通过I/O设备440输出语音信息以提示用户做出特定面部动作。再例如,可以通过显示设备420展示动画信息以提示用户根据动画信息做出特定面部动作。在一些实施例中,所述交互信息可以包括特定面部动作信息和预设时间段信息,以提示用户在预设时间段内做出特定面部动作。预设时间段可以为展示交互信息开始后的任意时间段,例如,1s、2s、3s等。在一些实施例中,交互信息还包括人脸识别框。例如,可以通过显示设备420呈现人脸识别框以提示用户将脸移入人脸识别框中以便更好进行人脸识别。在一些实施例中,所述特定面部动作可以包括张嘴、眨眼(例如,眨眼1~2次)、摇头(例如,向左摇头或向右摇头)、微笑(例如,抿嘴笑或露齿笑)、吐舌、嘟嘴、点头、注视(例如,注视1s)等。在一些实施例中,特定面部动作可以随机生成或个性化选择。例如,可以生成交互信息以提示用户做出随机生成的面部动作。又例如,可以生成交互信息包含多个面部动作。用户可以从交互信息给出的多个面部动作中选择特定面部动作以确认用户意愿。通过交互信息的方式,可以引导用户确认支付意愿,养成用户确认支付意愿的习惯,从而减少通过按钮确认支付意愿时用户容易忽略的情况。
步骤220,获取预设时间段内出现在摄像头430内的面部图像。具体地,该步骤由获取模块510执行。
在一些实施例中,从显示设备420显示交互信息提示用户做出特定面部动作开始,可以通过摄像头430获取预设时间段内出现在人脸识别框内的面部图像。所述面部图像为动态图像。所述面部图像可以包括预设时间段内至少两帧图像。例如,所述面部图像可以包括预设时间段内的15帧图像、20帧图像、35帧图像、40帧图像等。在一些实施例中,所述至少两帧图像可以是连续的图像,也可以是不连续的图像。
步骤230,识别所述用户是否出现在面部图像中。具体地,该步骤由识别模块530执行。
在一些实施例中,可以检测面部图像中是否有人脸区域。如果检测面部图像中有人脸区域,则识别结果为所述用户出现在面部图像中,可以指定该人脸区域为用户对应的人脸区域。如果检测面部图像中没有人脸区域,则识别结果为所述用户没有出现在面部图像中。在一些实施例中,如果检测到面部图像有至少两个人脸区域,可以识别至少两个人脸区域中靠近摄像头430的人脸区域为用户对应的人脸区域。
在一些实施例中,可以基于面部图像识别第二用户身份。例如,可以对面部图像进行预处理。基于所述预处理后的面部图像可以提取面部特征。进一步地,可以基于提取的面部特征识别第二用户身份。识别第二用户身份的过程和步骤120中识别第一用户身份的过程可以相同或相似,在此不再赘述。可以确定所述第二用户身份和所述第一用户身份是否相同。如果确定所述第二用户身份和所述第一用户身份相同,则确定所述用户出现在所述面部图像中;否则,确定所述用户没有出现在所述面部图像中。在支付过程中,有可能出现刷脸的用户和意愿确认的用户不是同一个人,从而导致误扣款的情况,通过按钮确认的方式不能避免这种误扣款的情况,而通过本说明书中实施例的方法比较第一用户身份和第二用户身份,可以保证确认用户意愿的用户和刷脸的用户为同一个人,从而有效避免产生误扣款的情况,使得刷脸支付更安全。
当识别结果是用户没有出现在面部图像中,执行步骤260,支付失败,可以提示用户尝试重新刷脸;否则,执行步骤240,基于所述面部图像识别所述用户是否做出所述特定面部动作。具体地,步骤240由识别模块530执行。
在一些实施例中,可以通过任何面部动作识别算法(或模型)来识别用户是否做出特定面部动作。例如,针对不同的面部动作,有不同的面部动作识别模型(例如,眨眼识别模型、嘟嘴识别模型、摇头识别模型、吐舌识别模型等)。可以将所述特定面部图像输入到对应的面部动作识别模型中,基于所述面部动作识别模型的输出可以确定所述用户是否做出所述特定面部动作。所述面部动作识别模型可以基于大量的训练数据训练得到。以吐舌识别模型为例,可以基于大量的正样本(例如,真实的用户吐舌图像)和大量的负样本(例如,真实的用户没有吐舌的图像、人造的模体(例如,头模)吐舌的图像)训练得到吐舌识别模型,吐舌识别模型可以包括特征提取层、特征融合层和预测分类层,所述特征提取层用于将吐舌的正负样本图像转化为特征向量,所述特征融合层用于将所述特征向量进行融合,初始融合参数可以为模型的初始参数,所述预测分类层用于基于所述融合后的向量给出预测分类结果,根据正负样本的标签调整模型的初始参数,直到吐舌识别模型的正确识别率达到预设阈值或者迭代次数达到预设阈值。在一些实施例中,面部动作识别模型可以包括动作检测模型。动作检测模型可以基于面部图像确定是否做出特定面部动作。例如,可以将面部图像输入到动作检测模型以输出动作概率,例如:吐舌(0.8)、眨眼(0.1)。判断动作概率是否大于预设动作概率。当判断结果为动作概率大于预设动作概率,则可以是被所述用户做出所述特定面部动作。以吐舌为例,吐舌动作识别模型可以包括吐舌检测模型。吐舌检测模型可以只基于用户面部图像的一帧图像确定该用户是否做出吐舌动作。具体关于识别用户是否做出特定面部动作的描述可以参见图3及其描述。通过使用面部动作识别模型,可以实现基于面部动作确认用户支付意愿,减少了通过按钮确认支付意愿时,容易发生用户误触而导致误扣款的情况。相较于眨眼,用户在正常支付时较少会做出吐舌的动作,吐舌动作与用户常规表情的特征区别大,识别起来效率更高,也更少会出现误判的情形。还可以在初始注册时采集用户的吐舌动作,基于所述采集的该用户的吐舌动作,则只需要匹配两张图片中吐舌的特征点是否匹配,这样识别效果就更高,还可以判断出是否是当前用户做出吐舌的动作,从而更准确地确定用户的意愿,避免误判。
当识别结果为所述用户做出所述特定面部动作,执行步骤250,确认所述用户为有意愿用户,完成支付;否则,执行步骤260,确定所述用户为无意愿用户,支付失败。具体地,步骤 250和260由确定模块540执行。
应当注意的是,上述有关流程200的描述仅仅是为了示例和说明,而不限定本说明书的适用范围。对于本领域技术人员来说,在本说明书的指导下可以对流程 200进行各种修正和改变。然而,这些修正和改变仍在本说明书的范围之内。在一些实施例中,步骤230和240可以合并到一个步骤完成。在一些实施例中,面部动作识别模型可以包括动作检测模型和活体检测模型两个部分。动作检测模型可以基于面部图像确定是否做出特定面部动作。活体检测模型可以基于面部图像确定特定面部动作是否是由活体做出。例如,可以将面部图像(例如,一帧图像或至少两帧图像)输入到动作检测模型以输出动作概率。将面部图像(例如,至少两帧连续的图像)输入到活体检测模型以输出活体概率。基于所述动作概率和所述活体概率(例如,所述动作概率和所述活体概率的均值) 确定用户是否做出特定面部动作。相较于基于面部动作识别用于活体检测需要至少两帧连续的图像,基于面部动作识别用于意愿确认可以只需要一帧图像。在基于至少两帧图像进行面部动作识别确认用户意愿的情况下,至少两帧图像可以是连续的或者不连续的,意愿识别过程的面部图像采集和处理过程可以更简单和高效。
图3是根据本说明书的一些实施例所示的示例性的一种识别用户是否做出特定面部动作的流程图。在一些实施例中,流程300可以由装置400的处理器设备410执行。例如,流程 300可以以程序或指令的形式存储在存储装置(如装置400的存储设备450或外接存储设备) 中,所述程序或指令在被执行时,可以实现流程300。在一些实施例中,流程300可以由系统 500的识别模块530执行。在一些实施例中,图2中的步骤240可以通过流程300实现。如图3所示,流程300可以包括下述步骤。
步骤310,将至少面部图像输入到动作检测模型以输出动作概率。具体地,该步骤由识别模块530执行。
在一些实施例中,如步骤220所述,面部图像可以包括至少两帧图像。可以将至少两帧图像分别输入到动作检测模型以生成对应的至少两个子动作概率。基于至少两个子动作概率确定面部图像对应的动作概率。以吐舌为例,可以将所述至少两帧图像分别输入到吐舌检测模型以输出对应的至少两个子吐舌概率。将至少两个子吐舌概率的均值指定为面部图像对应的吐舌概率。在一些实施例中,可以将至少两帧图像一起输入到动作检测模型从而直接生成吐舌概率。在一些实施例中,可以将至少两帧图像中的一帧图像(例如,采集时间靠近预设时间段的中点的图像)输入到动作检测模型从而生成吐舌概率。
步骤320,基于所述动作概率确定所述用户是否做出特定面部动作。具体地,该步骤由识别模块530执行。
在一些实施例中,可以确定所述动作概率是否大于预设的动作概率阈值。如果所述动作概率大于预设的动作概率阈值,则确定所述用户做出特定面部动作;否则,确定所述用户没有做出特定面部动作。以吐舌为例,可以判断吐舌概率是否大于预设的吐舌概率阈值和。当吐舌概率大于预设的吐舌概率阈值,则确定所述用户做出吐舌动作;否则,确定所述用户没有做出吐舌动作。在一些实施例中,可以分别判断至少两个子动作概率是否大于预设的动作概率阈值。如果至少两个动作概率中有预设数量的动作概率大于预设的动作概率阈值,则确定所述用户做出特定面部动作;否则,确定所述用户没有做出特定面部动作。预设数量可以设定为占比至少两个动作概率的总数量的80%、90%、95%、100%等,在此不做限制。
应当注意的是,上述有关流程300的描述仅仅是为了示例和说明,而不限定本说明书的适用范围。对于本领域技术人员来说,在本说明书的指导下可以对流程300进行各种修正和改变。然而,这些修正和改变仍在本说明书的范围之内。
图4是根据本说明书的一些实施例所示的示例性的一种刷脸支付装置的示意图。刷脸支付装置400可以用于实现本说明书所述的刷脸支付方法。如图4所示,刷脸支付装置400可以包括处理器设备(也称为“处理器”)410、显示设备420、摄像头430、I/O设备440以及存储设备450。装置400中的组件可以以各种方式中的一种或多种进行连接。仅作为示例,摄像头430可以直接连接到处理器设备410,或通过网络(例如,任何类型的有限或无线网络或其组合)连接到处理器设备410。作为另一个示例,处理器设备410可以直接连接到I/O 设备440,或通过网络连接到终端设备I/O设备440。作为又一个示例,存储设备450可以直接连接到处理器设备410,或通过网络连接到处理器设备410。
处理器设备410可以处理与刷脸支付相关的信息和/或数据,以执行本说明书中所描述的一个或多个功能。例如,处理器设备410可以基于刷脸图像和/或面部图像识别用户身份。又例如,处理器设备410可以生成交互信息以与用户交互。再例如,处理器设备410可以基于面部图像识别用户是否做出特定面部动作以确定用户意愿。还例如,处理器设备410可以基于用户意愿确定是否完成支付。在一些实施例中,处理器设备410可以包括一个或多个处理引擎(例如,单核处理引擎或多核处理器)。仅作为示例,处理设备112可以包括中央处理单元(CPU)、专用集成电路(ASIC)、专用指令集处理器(ASIP)、图形处理单元(GPU)、物理处理单元(PPU)、数字信号处理器(DSP)、现场可编程门阵列(FPGA)、可编程逻辑器件(PLD)、控制器、微控制器单元、精简指令集计算机(RISC)、微处理器等,或其任意组合。
显示设备420可以显示交互信息以与用户交互。例如,显示设备420可以显示文本信息和/或动画信息以提示用户做出特定面部动作。又例如,显示设备420可以显示人脸识别框以提示用户将人脸移到人脸识别框内以便于更好获取刷脸图像和/或面部图像。再例如,显示器可以显示文本信息以展示扣款信息和/或广告信息。在一些实施例中,显示设备420可以是I/O 设备的一部分。
摄像头430可以获取与刷脸支付相关的图像。例如,摄像头430可以获取用户同意刷脸支付的刷脸图像。又例如,摄像头430可以获取用户做出特定面部动作的面部图像。
I/O设备440可以支持装置400与其中其他组件的输入/输出和/或装置400与用户之间的交互。例如,用户可以通过I/O设备440输入刷脸指令并传输到处理器设备410。又例如,处理器设备410可以通过I/O设备将生成的交互信息以语音、文本和/或动画的形式呈现。再例如,用户可以通过I/O设备440提交扣款异常的反馈。在一些实施例中,I/O设备440包括输入设备、输出设备等。输入设备可以包括字母数字和其他按钮,这些按钮可以通过键盘、触摸屏(例如,带有触觉或触觉反馈)、语音输入、眼球跟踪输入、大脑监控系统或任何其他类似的输入机制输入。输出设备可以包括显示器、扬声器、打印机等,或其任意组合。
存储设备450可以存储数据、指令和/或任何其他信息。例如,存储设备450可以存储处理器设备410、摄像头430和/或I/O设备440获得的数据。在一些实施例中,存储设备450可以存储数据和/或指令,处理器设备410可以执行或使用这些数据和/或指令来执行本说明书中描述的示例性方法。在一些实施例中,存储设备450可以包括大容量存储设备、可移动存储设备、基于云的存储设备、易失性读写内存、只读内存(ROM)等,或其任何组合。示例性大容量存储器可以包括磁盘、光盘、固态驱动器等。示例性可移动存储器可以包括闪光驱动器、软盘、光盘、内存卡、压缩盘、磁带等。示例性易失性读写内存可以包括随机访问内存(RAM)。示例性RAM可以包括动态RAM(DRAM)、双倍速率同步动态RAM(DDR SDRAM)、静态RAM(SRAM)、晶闸管RAM(T-RAM)、零电容器RAM(Z-RAM)等。示例性ROM可以包括掩模ROM(MROM)、可编程ROM(PROM)、可擦除可编程ROM (EPROM)、电可擦除可编程ROM(EEPROM)、光盘ROM(CD-ROM)、数字多功能磁盘ROM等。在一些实施例中,存储设备450可以是处理器设备410的一部分。
需要注意的是,以上对于装置400的描述,仅为描述方便,并不能把本说明书限制在所举实施例范围之内。可以理解,对于本领域的技术人员来说,在了解该装置的原理后,可能在不背离这一原理的情况下,对本说明书描述的示例性实施方式的特征、结构、方法和特性可以以各种方式组合以获得另外的和/或替代的示例性实施方式。诸如此类的变形,均在本说明书的保护范围之内。例如,存储设备450可以是包括云计算平台的数据存储,诸如公云等。
图5是根据本说明书的一些实施例所示的示例性的一种刷脸支付系统的模块图。刷脸支付系统500可以用于实现本说明书所述的刷脸支付方法。如图5所示,系统500可以包括获取模块510、生成模块520、识别模块530以及确定模块540。在一些实施例中,装置400的处理器设备410的功能可以通过系统500中的模块来实现。
获取模块510可以用于获取和刷脸支付相关的信息/数据。例如,获取模块510可以通过I/O设备440接收刷脸指令。又例如,获取模块510可以通过摄像头430获取用户的刷脸图像和/或面部图像。再例如,获取模块510可以获得用户提交的支付异常的反馈。关于刷脸指令、刷脸图像和/面部图像的描述可以参见本说明书的流程图部分(例如,图1和图2中的相关描述)。
生成模块520可以用于生成交互信息以与用户交互。交互信息可以包括文本信息、语音信息、动画信息图片信息等中的一种或多种的组合。例如,生成模块520可以生成交互信息以提示用户做出特定面部动作。所述特定面部动作可以包括张嘴、眨眼(例如,眨眼1~2次)、摇头(例如,向左摇头或向右摇头)、微笑(例如,抿嘴笑或露齿笑)、吐舌、嘟嘴、点头、注视(例如,注视1s)等。又例如,生成模块520可以生成交互信息以提示用户支付成功。提示用户支付成功的交互信息可以包括扣款信息和/或广告信息。再例如,生成模块可以生成交互信息以提示用户支付失败。提示用户支付失败的交互信息可以包括提示用户尝试重新刷脸的信息。
识别模块530可以识别用户身份和/或用户是否做出特定面部动作。例如,识别模块530 可以基于刷脸图像识别第一用户身份。又例如,识别模块530可以基于面部图像识别用户是否在所述面部图像中。再例如,当识别结果为用户在所述面部图像中,是被模块530可以基于面部图像识别用户是否做出特定面部动作。关于识别操作的具体描述可以参见本说明书的流程图部分(例如,图1-3中的相关描述)。
确定模块540可以确定用户是否是有意愿用户和/或确定是否完成支付。例如,当识别结果为用户做出特定面部动作,确定模块540可以确定用户是有意愿用户并完成支付。当识别结果为用户没有做出特定面部动作,确定模块540可以确定用户是无意愿用户,支付失败。又例如,当识别结果为用户没有在面部图像中,确定模块可以确定支付失败。
应当理解,图5所示的系统及其模块可以利用各种方式来实现。例如,系统及其模块可以通过硬件、软件或者软件和硬件的结合来实现。其中,硬件部分可以利用专用逻辑来实现;软件部分则可以存储在存储器中,由适当的指令执行系统,例如微处理器或者专用设计硬件来执行。本领域技术人员可以理解上述的方法和系统可以使用计算机可执行指令和/或包含在处理器控制代码中来实现,例如在诸如磁盘、CD或DVD-ROM的载体介质、诸如只读存储器(固件)的可编程的存储器或者诸如光学或电子信号载体的数据载体上提供了这样的代码。本说明书的设备及其模块不仅可以有诸如超大规模集成电路或门阵列、诸如逻辑芯片、晶体管等的半导体、或者诸如现场可编程门阵列、可编程逻辑设备等的可编程硬件设备的硬件电路实现,也可以用例如由各种类型的处理器所执行的软件实现,还可以由上述硬件电路和软件的结合(例如,固件)来实现。
需要注意的是,以上对于系统500的描述,仅为描述方便,并不能把本说明书限制在所举实施例范围之内。可以理解,对于本领域的技术人员来说,在了解该系统的原理后,可能在不背离这一原理的情况下,对各个模块进行任意组合,或者构成子系统与其他模块连接。例如,系统500中各个模块可以共用一个存储模块,各个模块也可以分别具有各自的存储模块。诸如此类的变形,均在本说明书的保护范围之内。
本说明书实施例可能带来的有益效果包括但不限于:(1)本说明书的其中一些实施例使用的方法通过交互信息引导用户确认意愿,交互信息可以图文并茂,用户可以更容易记住刷脸支付流程,减少出现漏过确认环节的情况;(2)本说明书的其中一些实施例使用的方法通过用户做出特定的面部动作以确认用户意愿,用户不用点击按钮确认意愿,从而可以获得更好的使用体验;(3)本申请的其中一些实施例使用的方法在意愿识别过程中可以再次进行身份识别,可以确保刷脸的用户和确认支付意愿的用户是同一个人,从而减少了误触发按钮导致误刷的情况,进一步提高了基于面部动作确认支付意愿的安全性。需要说明的是,不同实施例可能产生的有益效果不同,在不同的实施例里,可能产生的有益效果可以是以上任意一种或几种的组合,也可以是其他任何可能获得的有益效果。
上文已对基本概念做了描述,显然,对于本领域技术人员来说,上述详细披露仅仅作为示例,而并不构成对本说明书的限定。虽然此处并没有明确说明,本领域技术人员可能会对本说明书进行各种修改、改进和修正。该类修改、改进和修正在本说明书中被建议,所以该类修改、改进、修正仍属于本说明书示范实施例的精神和范围。
同时,本说明书使用了特定词语来描述本说明书的实施例。如“一个实施例”、“一实施例”、和/或“一些实施例”意指与本说明书至少一个实施例相关的某一特征、结构或特点。因此,应强调并注意的是,本说明书中在不同位置两次或多次提及的“一实施例”或“一个实施例”或“一个替代性实施例”并不一定是指同一实施例。此外,本说明书的一个或多个实施例中的某些特征、结构或特点可以进行适当的组合。
此外,本领域技术人员可以理解,本说明书的各方面可以通过若干具有可专利性的种类或情况进行说明和描述,包括任何新的和有用的工序、机器、产品或物质的组合,或对他们的任何新的和有用的改进。相应地,本说明书的各个方面可以完全由硬件执行、可以完全由软件(包括固件、常驻软件、微码等)执行、也可以由硬件和软件组合执行。以上硬件或软件均可被称为“数据块”、“模块”、“引擎”、“单元”、“组件”或“系统”。此外,本说明书的各方面可能表现为位于一个或多个计算机可读介质中的计算机产品,该产品包括计算机可读程序编码。
计算机存储介质可能包含一个内含有计算机程序编码的传播数据信号,例如在基带上或作为载波的一部分。该传播信号可能有多种表现形式,包括电磁形式、光形式等,或合适的组合形式。计算机存储介质可以是除计算机可读存储介质之外的任何计算机可读介质,该介质可以通过连接至一个指令执行系统、装置或设备以实现通讯、传播或传输供使用的程序。位于计算机存储介质上的程序编码可以通过任何合适的介质进行传播,包括无线电、电缆、光纤电缆、RF、或类似介质,或任何上述介质的组合。
本说明书各部分操作所需的计算机程序编码可以用任意一种或多种程序语言编写,包括面向对象编程语言如Java、Scala、Smalltalk、Eiffel、JADE、Emerald、C++、C#、VB.NET、 Python等,常规程序化编程语言如C语言、VisualBasic、Fortran2003、Perl、COBOL2002、 PHP、ABAP,动态编程语言如Python、Ruby和Groovy,或其他编程语言等。该程序编码可以完全在用户计算机上运行、或作为独立的软件包在用户计算机上运行、或部分在用户计算机上运行部分在远程计算机运行、或完全在远程计算机或处理设备上运行。在后种情况下,远程计算机可以通过任何网络形式与用户计算机连接,比如局域网(LAN)或广域网(WAN),或连接至外部计算机(例如通过因特网),或在云计算环境中,或作为服务使用如软件即服务(Software as a Service,SaaS)。
此外,除非权利要求中明确说明,本说明书所述处理元素和序列的顺序、数字字母的使用、或其他名称的使用,并非用于限定本说明书流程和方法的顺序。尽管上述披露中通过各种示例讨论了一些目前认为有用的发明实施例,但应当理解的是,该类细节仅起到说明的目的,附加的权利要求并不仅限于披露的实施例,相反,权利要求旨在覆盖所有符合本说明书实施例实质和范围的修正和等价组合。例如,虽然以上所描述的系统组件可以通过硬件设备实现,但是也可以只通过软件的解决方案得以实现,如在现有的处理设备或移动设备上安装所描述的系统。
同理,应当注意的是,为了简化本说明书披露的表述,从而帮助对一个或多个发明实施例的理解,前文对本说明书实施例的描述中,有时会将多种特征归并至一个实施例、附图或对其的描述中。但是,这种披露方法并不意味着本说明书对象所需要的特征比权利要求中提及的特征多。实际上,实施例的特征要少于上述披露的单个实施例的全部特征。
一些实施例中使用了描述成分、属性数量的数字,应当理解的是,此类用于实施例描述的数字,在一些示例中使用了修饰词“大约”、“近似”或“大体上”来修饰。除非另外说明,“大约”、“近似”或“大体上”表明所述数字允许有±20%的变化。相应地,在一些实施例中,说明书和权利要求中使用的数值参数均为近似值,该近似值根据个别实施例所需特点可以发生改变。在一些实施例中,数值参数应考虑规定的有效数位并采用一般位数保留的方法。尽管本说明书一些实施例中用于确认其范围广度的数值域和参数为近似值,在具体实施例中,此类数值的设定在可行范围内尽可能精确。
针对本说明书引用的每个专利、专利申请、专利申请公开物和其他材料,如文章、书籍、说明书、出版物、文档等,特此将其全部内容并入本说明书作为参考。与本说明书内容不一致或产生冲突的申请历史文件除外,对本说明书权利要求最广范围有限制的文件(当前或之后附加于本说明书中的)也除外。需要说明的是,如果本说明书附属材料中的描述、定义、和/或术语的使用与本说明书所述内容有不一致或冲突的地方,以本说明书的描述、定义和/或术语的使用为准。
最后,应当理解的是,本说明书中所述实施例仅用以说明本说明书实施例的原则。其他的变形也可能属于本说明书的范围。因此,作为示例而非限制,本说明书实施例的替代配置可视为与本说明书的教导一致。相应地,本说明书的实施例不仅限于本说明书明确介绍和描述的实施例。
Claims (10)
1.一种基于意愿识别确定是否完成支付的方法,其中,所述方法包括:
生成交互信息,所述交互信息用于提示用户做出特定面部动作以确定用户意愿;
获取预设时间段内出现在摄像头内的面部图像;
识别所述用户是否在所述面部图像中;
当识别结果为所述用户在所述面部图像中,基于所述面部图像识别所述用户是否做出所述特定面部动作;
当识别结果为所述用户做出所述特定面部动作,确定所述用户为有意愿用户,完成支付;否则,确定所述用户为无意愿用户,支付失败。
2.根据权利要求1所述的方法,其中,所述交互信息包括文本信息、语音信息和/或动画信息。
3.根据权利要求1所述的方法,其中,所述特定面部动作包括张嘴、眨眼、摇头、微笑或吐舌。
4.根据权利要求1所述的方法,其中,所述面部图像包括至少两帧图像。
5.根据权利要求4所述的方法,其中,所述基于所述面部图像识别所述用户是否做出所述特定面部动作,包括:
将所述至少两帧图像输入到动作检测模型以输出动作概率;
基于所述动作概率确定所述用户是否做出所述特定面部动作。
6.根据权利要求1所述的方法,其中,在生成交互信息前,所述方法还包括:
接收刷脸指令;
获取刷脸图像;
基于所述刷脸图像识别第一用户身份。
7.根据权利要求6所述的方法,其中,所述识别所述用户是否出现在所述面部图像中,包括:
基于所述面部图像识别第二用户身份;
确定所述第二用户身份和所述第一用户身份是否相同;
如果确定所述第二用户身份和所述第一用户身份相同,确定所述用户出现所述面部图像中;否则,确定所述用户没有出现在所述面部图像中。
8.根据权利要求1所述的方法,其中,支付完成后,所述方法还包括:
生成第二交互信息以提示所述用户支付成功。
9.一种基于意愿识别确定是否完成支付的系统,其中,所述系统包括:
生成模块,用于生成交互信息,所述交互信息用于提示用户做出特定面部动作以确认用户意愿;
获取模块,用于获取预设时间段内出现在摄像头内的面部图像;
识别模块,用于识别所述用户是否在所述面部图像中,当识别所述用户在所述面部图像中基于所述面部图像识别所述用户是否做出所述特定面部动作;
确定模块,用于当识别结果为所述用户做出所述特定面部动作,确定所述用户为有意愿用户,完成支付;否则,确定所述用户为无意愿用户,支付失败。
10.一种装置,其中,所述装置包括处理器,所述处理器用于执行如权利要求1-8中任意一项所述的基于意愿识别确定是否完成支付的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010988243.6A CN112116355A (zh) | 2020-09-18 | 2020-09-18 | 一种基于意愿识别确认是否完成支付的方法、系统及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010988243.6A CN112116355A (zh) | 2020-09-18 | 2020-09-18 | 一种基于意愿识别确认是否完成支付的方法、系统及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112116355A true CN112116355A (zh) | 2020-12-22 |
Family
ID=73800729
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010988243.6A Pending CN112116355A (zh) | 2020-09-18 | 2020-09-18 | 一种基于意愿识别确认是否完成支付的方法、系统及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112116355A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112766973A (zh) * | 2021-01-19 | 2021-05-07 | 湖南校智付网络科技有限公司 | 人脸支付终端 |
CN114240444A (zh) * | 2021-12-17 | 2022-03-25 | 支付宝(杭州)信息技术有限公司 | 刷脸支付方法、装置和刷脸支付设备 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109461003A (zh) * | 2018-11-30 | 2019-03-12 | 阿里巴巴集团控股有限公司 | 基于多视角的多人脸场景刷脸支付风险防控方法和设备 |
CN110570200A (zh) * | 2019-08-16 | 2019-12-13 | 阿里巴巴集团控股有限公司 | 一种支付方法及装置 |
CN111539740A (zh) * | 2020-05-15 | 2020-08-14 | 支付宝(杭州)信息技术有限公司 | 一种支付方法、装置及设备 |
CN111539389A (zh) * | 2020-06-22 | 2020-08-14 | 腾讯科技(深圳)有限公司 | 人脸防伪识别方法、装置、设备及存储介质 |
CN111597884A (zh) * | 2020-04-03 | 2020-08-28 | 平安科技(深圳)有限公司 | 面部动作单元识别方法、装置、电子设备及存储介质 |
-
2020
- 2020-09-18 CN CN202010988243.6A patent/CN112116355A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109461003A (zh) * | 2018-11-30 | 2019-03-12 | 阿里巴巴集团控股有限公司 | 基于多视角的多人脸场景刷脸支付风险防控方法和设备 |
CN110570200A (zh) * | 2019-08-16 | 2019-12-13 | 阿里巴巴集团控股有限公司 | 一种支付方法及装置 |
CN111597884A (zh) * | 2020-04-03 | 2020-08-28 | 平安科技(深圳)有限公司 | 面部动作单元识别方法、装置、电子设备及存储介质 |
CN111539740A (zh) * | 2020-05-15 | 2020-08-14 | 支付宝(杭州)信息技术有限公司 | 一种支付方法、装置及设备 |
CN111539389A (zh) * | 2020-06-22 | 2020-08-14 | 腾讯科技(深圳)有限公司 | 人脸防伪识别方法、装置、设备及存储介质 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112766973A (zh) * | 2021-01-19 | 2021-05-07 | 湖南校智付网络科技有限公司 | 人脸支付终端 |
CN114240444A (zh) * | 2021-12-17 | 2022-03-25 | 支付宝(杭州)信息技术有限公司 | 刷脸支付方法、装置和刷脸支付设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109815924B (zh) | 表情识别方法、装置及系统 | |
Zhang et al. | Facial expression analysis under partial occlusion: A survey | |
US10339402B2 (en) | Method and apparatus for liveness detection | |
US10810409B2 (en) | Identifying facial expressions in acquired digital images | |
EP3286679B1 (en) | Method and system for identifying a human or machine | |
WO2016172872A1 (zh) | 用于验证活体人脸的方法、设备和计算机程序产品 | |
CN111292092B (zh) | 刷脸支付方法、装置及电子设备 | |
JP2005202653A (ja) | 動作認識装置及び方法、動物体認識装置及び方法、機器制御装置及び方法、並びにプログラム | |
Saeed | New directions in behavioral biometrics | |
CN112116355A (zh) | 一种基于意愿识别确认是否完成支付的方法、系统及装置 | |
Ilyas et al. | Facial expression recognition for traumatic brain injured patients | |
CN113657903A (zh) | 一种刷脸支付方法、装置、电子设备和存储介质 | |
CN113536262A (zh) | 基于面部表情的解锁方法、装置、计算机设备和存储介质 | |
US20210264008A1 (en) | Method, apparatus and system for authenticating a user based on eye data and/or facial data | |
KR102253757B1 (ko) | 얼굴 영상의 생체 감지 장치 및 방법 | |
CN112270747A (zh) | 一种人脸识别方法、装置及电子设备 | |
Sebe et al. | Towards authentic emotion recognition | |
KR20230007249A (ko) | 부정행위를 방지하는 안면윤곽선 인식 인공지능을 사용한 ubt 시스템 및 그 방법 | |
CN114415830A (zh) | 隔空输入方法及设备、计算机可读存储介质 | |
Lee et al. | Develop a hybrid human face recognition system based on a dual deep neural network by interactive correction training | |
Wilson et al. | Towards mitigating uncann (eye) ness in face swaps via gaze-centric loss terms | |
US11250242B2 (en) | Eye tracking method and user terminal performing same | |
AlMazrouei | Using Eye Gaze For The Interaction With Natural Environments | |
Kaushal et al. | Mood Detection Using Face Recognition | |
Zhang | Talking Human Synthesis: Learning Photorealistic Co-Speech Motions and Visual Appearances From Videos |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20201222 |
|
RJ01 | Rejection of invention patent application after publication |