CN106875191A - 一种扫描支付处理方法、装置及终端 - Google Patents
一种扫描支付处理方法、装置及终端 Download PDFInfo
- Publication number
- CN106875191A CN106875191A CN201710107554.5A CN201710107554A CN106875191A CN 106875191 A CN106875191 A CN 106875191A CN 201710107554 A CN201710107554 A CN 201710107554A CN 106875191 A CN106875191 A CN 106875191A
- Authority
- CN
- China
- Prior art keywords
- payment
- face
- user
- code
- setting
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 11
- 238000000034 method Methods 0.000 claims abstract description 50
- 230000001815 facial effect Effects 0.000 claims abstract description 44
- 230000009191 jumping Effects 0.000 claims abstract description 6
- 210000000056 organ Anatomy 0.000 claims description 54
- 238000012545 processing Methods 0.000 claims description 18
- 230000009977 dual effect Effects 0.000 claims description 2
- 230000003213 activating effect Effects 0.000 claims 2
- 238000004891 communication Methods 0.000 description 26
- 230000008569 process Effects 0.000 description 22
- 238000010586 diagram Methods 0.000 description 18
- 230000036544 posture Effects 0.000 description 17
- 238000001514 detection method Methods 0.000 description 10
- 238000005516 engineering process Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 8
- 238000012549 training Methods 0.000 description 8
- 238000010295 mobile communication Methods 0.000 description 7
- 230000004044 response Effects 0.000 description 6
- 230000005236 sound signal Effects 0.000 description 4
- 238000007726 management method Methods 0.000 description 3
- 238000005192 partition Methods 0.000 description 3
- 238000007781 pre-processing Methods 0.000 description 3
- 238000000513 principal component analysis Methods 0.000 description 3
- 238000012795 verification Methods 0.000 description 3
- 230000003044 adaptive effect Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000002441 reversible effect Effects 0.000 description 2
- 238000010008 shearing Methods 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 238000013468 resource allocation Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
- 239000010409 thin film Substances 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 239000013598 vector Substances 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q20/00—Payment architectures, schemes or protocols
- G06Q20/38—Payment protocols; Details thereof
- G06Q20/40—Authorisation, e.g. identification of payer or payee, verification of customer or shop credentials; Review and approval of payers, e.g. check credit lines or negative lists
- G06Q20/401—Transaction verification
- G06Q20/4014—Identity check for transactions
- G06Q20/40145—Biometric identity checks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
- G06F18/2132—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on discrimination criteria, e.g. discriminant analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
- G06F18/2135—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on approximation criteria, e.g. principal component analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/60—Rotation of whole images or parts thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/32—Normalisation of the pattern dimensions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/165—Detection; Localisation; Normalisation using facial parts and geometric relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/467—Encoded features or binary features, e.g. local binary patterns [LBP]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Business, Economics & Management (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Accounting & Taxation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Business, Economics & Management (AREA)
- Strategic Management (AREA)
- Computer Security & Cryptography (AREA)
- Finance (AREA)
- Geometry (AREA)
- Telephone Function (AREA)
Abstract
本发明公开了一种扫描支付处理方法,包括:检测到通过后置摄像头扫描支付码时,启动前置摄像头对用户的面部进行识别,启动并跳转到所述支付码对应的应用中,判断通过所述支付码对应的应用接收到的支付密码与预先存储的支付密码是否匹配,在面部识别通过且判断结果为是的情况下,完成对所述支付码的支付,解决了相关技术中在密码泄露的情况下容易对用户造成较大损失的问题,通过前置摄像头采集用户的面部特征,根据采集的面部特征确定用户为合法用户且用户密码输入正确之后完成扫描支付,提高了账户的安全性,提高了用户体验。
Description
技术领域
本发明涉及终端技术领域,尤其涉及一种扫描支付处理方法、装置及终端。
背景技术
随着互联网的发展和终端的普及,终端的用户群越来越大,同时也对软件提出了更多智能,人性化的需求。
在现有的技术中,其实终端,虽然被用户作为一个游戏机或电视机,还可能是一个学习机,还可能成为小宝宝的乐园等等,给我们的生活带来更多的乐趣。
随着电子商务的普及,数字化系统支付方式受到越来越多消费者和商家的青睐,消费者进行支付时无需使用现金,商家也无需进行找零,简化了交易过程。但是现有技术所公开的数字化支付系统都需要消费者持有实体的身份认证工具,例如:进行刷卡消费时,消费者需要提供银行卡,使用网上银行进行支付时,消费者需要提供U盾或其它客户证书。这些实体认证工具容易丢失,而且使用过程较为繁琐。
人脸识别技术是生物识别技术的一种,由于每个人的人脸面相都具有独一无二性,并且人脸是人类视觉中最为自然和普遍的身份识别特征,所以基于人脸识别技术的身份验证系统得到广泛应用。
目前对于支付,比较受广大用户欢迎的便是扫描支付,商家将需要支付的金额生成支付码,用户仅仅需要扫描该支付便可读取需要支付的金额,之后在通过绑定的银行卡便可完成支付,但是,支付的时候为了确保支付的安全,需要用户舒服预先设置好的密码。由于通过支付码支付的方式越来越普遍,故,用户在购买很多商品时一般都采用了这种支付方式,不要找零,给用户带来了很大的便利。同时由于支付的次数可能会很多,每次支付都需要输入密码,在公共场合多次输入密码,如果不小心将密码泄露,将会对用户造成很大的损失。
针对相关技术中在密码泄露的情况下容易对用户造成较大损失的问题,目前尚未提出解决方案。
发明内容
本发明的主要目的在于提出一种扫描支付处理方法、装置及终端,旨在解决相关技术中在密码泄露的情况下容易对用户造成较大损失的问题。
为实现上述目的,本发明提供了一种扫码支付处理方法,包括:
检测到通过后置摄像头扫描支付码时,启动前置摄像头对用户的面部进行识别;
启动并跳转到所述支付码对应的应用中,判断通过所述支付码对应的应用接收到的支付密码与预先存储的支付密码是否匹配;
在面部识别通过且判断结果为是的情况下,完成对所述支付码的支付。
可选的,在启动前置摄像头对用户的面部进行识别之前,所述方法还包括:
通过所述前置摄像头采集所述用户的面部特征;
采集所述用户的支付密码;
将所述用户的面部特征和支付密码与所述用户已注册账户进行关联。
可选的,通过所述前置摄像头采集所述用户的面部特征包括:
采用立体识别方式对所述用户的面部进行识别,采集所述用户的面部特征。
可选的,在所述前置摄像头为双摄像头的情况下,启动前置摄像头对用户的面部进行识别包括:
通过所述双摄像头获取面部图像,并获取所述面部图像中器官点的深度信息;
确定所述面部图像的人脸姿态;
判断所述面部图像中器官点的深度信息与所述人脸姿态是否符合预设规则;
在判断结果为是的情况下,确定所述面部图像为活体人脸,对所述活体人脸进行识别。
可选的,在通过所述前置摄像头采集所述用户的面部特征之前,所述方法还包括:
接收设置所述账户的参数的设置指令,其中,所述设置指令包括:设置支付类型的类型设置指令,设置支付额度的额度设置指令;
根据所述设置指令设置所述账户的参数。
可选的,在完成对所述支付码的支付之前,所述方法还包括:
判断所述支付码对应的支付额度是否大于或等于所述账户中设置的支付额度;
在判断结果为是的情况下,提示所述用户超出支付额度;
接收继续完成支付的继续支付指令。
根据本发明的另一方面,还提供了一种扫码支付处理装置,包括:
识别模块,用于检测到通过后置摄像头扫描支付码时,启动前置摄像头对用户的面部进行识别;
第一判断模块,用于启动并跳转到所述支付码对应的应用中,判断通过所述支付码对应的应用接收到的支付密码与预先存储的支付密码是否匹配;
完成支付模块,用于在面部识别通过且判断结果为是的情况下,完成对所述支付码的支付。
可选的,所述装置还包括:
采集模块,用于通过所述前置摄像头采集所述用户的面部特征,采集所述用户的支付密码;
关联模块,用于将所述用户的面部特征和支付密码与所述用户已注册账户进行关联。
可选的,所述采集模块,还用于
采用立体识别方式对所述用户的面部进行识别,采集所述用户的面部特征。
可选的,所述识别模块包括:
获取单元,用于在所述前置摄像头为双摄像头的情况下,通过所述双摄像头获取面部图像,并获取所述面部图像中器官点的深度信息;
确定单元,用于确定所述面部图像的人脸姿态;
判断单元,用于判断所述面部图像中器官点的深度信息与所述人脸姿态是否符合预设规则;
识别单元,用于在判断结果为是的情况下,确定所述面部图像为活体人脸,对所述活体人脸进行识别。
可选的,所述装置还包括:
接收模块,用于接收设置所述账户的参数的设置指令,其中,所述设置指令包括:设置支付类型的类型设置指令,设置支付额度的额度设置指令;
设置模块,用于根据所述设置指令设置所述账户的参数。
可选的,所述装置还包括:
第二判断模块,用于判断所述支付码对应的支付额度是否大于或等于所述账户中设置的支付额度;
提示模块,用于在判断结果为是的情况下,提示所述用户超出支付额度;
接收模块,用于接收继续完成支付的继续支付指令。
根据本发明的另一方面,还提供了一种终端,包括上述的装置之一。
通过本发明,检测到通过后置摄像头扫描支付码时,启动前置摄像头对用户的面部进行识别,启动并跳转到所述支付码对应的应用中,判断通过所述支付码对应的应用接收到的支付密码与预先存储的支付密码是否匹配,在面部识别通过且判断结果为是的情况下,完成对所述支付码的支付,解决了相关技术中在密码泄露的情况下容易对用户造成较大损失的问题,通过前置摄像头采集用户的面部特征,根据采集的面部特征确定用户为合法用户且用户密码输入正确之后完成扫描支付,提高了账户的安全性,提高了用户体验。
附图说明
图1为实现本发明各个实施例一可选的移动终端的硬件结构示意图;
图2为如图1所示的移动终端的无线通信系统示意图;
图3是根据本发明实施例的扫描支付处理方法的流程图;
图4是根据本发明实施例的扫码支付的示意图一;
图5是根据本发明实施例的扫码支付的示意图二;
图6是根据本发明实施例的扫码支付的示意图三;
图7是根据本发明实施例的扫码支付的示意图四;
图8是根据本发明实施例的扫码支付的示意图五;
图9是根据本发明实施例的扫码支付处理装置的框图;
图10是根据本发明优选实施例的扫码支付处理装置的框图一;
图11是根据本发明优选实施例的扫码支付处理装置的框图二。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
现在将参考附图描述实现本发明各个实施例的移动终端。在后续的描述中,使用用于表示元件的诸如“模块”、“部件”或“单元”的后缀仅为了有利于本发明的说明,其本身并没有特定的意义。因此,"模块"与"部件"可以混合地使用。
移动终端可以以各种形式来实施。例如,本发明中描述的终端可以包括诸如移动电话、智能电话、笔记本电脑、数字广播接收器、PDA(个人数字助理)、PAD(平板电脑)、PMP(便携式多媒体播放器)、导航装置等等的移动终端以及诸如数字TV、台式计算机等等的固定终端。下面,假设终端是移动终端。然而,本领域技术人员将理解的是,除了特别用于移动目的的元件之外,根据本发明的实施方式的构造也能够应用于固定类型的终端。
图1为实现本发明各个实施例一可选的移动终端的硬件结构示意图。
移动终端100可以包括无线通信单元110、A/V(音频/视频)输入单元120、用户输入单元130、感测单元140、输出单元150、存储器160、接口单元170、控制器180和电源单元190等等。
图1示出了具有各种组件的移动终端100,但是应理解的是,并不要求实施所有示出的组件。可以替代地实施更多或更少的组件。将在下面详细描述移动终端100的元件。
无线通信单元110通常可以包括一个或多个组件,其允许移动终端100与无线通信系统或网络之间的无线电通信。例如,无线通信单元110可以包括广播接收模块111、移动通信模块112、无线互联网模块113、短程通信模块114和位置信息模块115中的至少一个。
广播接收模块111经由广播信道从外部广播管理服务器接收广播信号和/或广播相关信息。广播信道可以包括卫星信道和/或地面信道。广播管理服务器可以是生成并发送广播信号和/或广播相关信息的服务器或者接收之前生成的广播信号和/或广播相关信息并且将其发送给终端的服务器。广播信号可以包括TV广播信号、无线电广播信号、数据广播信号等等。而且,广播信号可以进一步包括与TV或无线电广播信号组合的广播信号。广播相关信息也可以经由移动通信网络提供,并且在该情况下,广播相关信息可以由移动通信模块112来接收。广播信号可以以各种形式存在,例如,其可以以数字多媒体广播(DMB)的电子节目指南(EPG)、数字视频广播手持(DVB-H)的电子服务指南(ESG)等等的形式而存在。广播接收模块111可以通过使用各种类型的广播系统接收信号广播。特别地,广播接收模块111可以通过使用诸如多媒体广播-地面(DMB-T)、数字多媒体广播-卫星(DMB-S)、数字视频广播-手持(DVB-H),前向链路媒体(MediaFLO@)的数据广播系统、地面数字广播综合服务(ISDB-T)等等的数字广播系统接收数字广播。广播接收模块111可以被构造为适合提供广播信号的各种广播系统以及上述数字广播系统。经由广播接收模块111接收的广播信号和/或广播相关信息可以存储在存储器160(或者其它类型的存储介质)中。
移动通信模块112将无线电信号发送到基站(例如,接入点、节点B等等)、外部终端以及服务器中的至少一个和/或从其接收无线电信号。这样的无线电信号可以包括语音通话信号、视频通话信号、或者根据文本和/或多媒体消息发送和/或接收的各种类型的数据。
无线互联网模块113支持移动终端的无线互联网接入。该模块可以内部或外部地耦接到终端。该模块所涉及的无线互联网接入技术可以包括WLAN(无线LAN)(Wi-Fi)、Wibro(无线宽带)、Wimax(全球微波互联接入)、HSDPA(高速下行链路分组接入)等等。
短程通信模块114是用于支持短程通信的模块。短程通信技术的一些示例包括蓝牙TM、射频识别(RFID)、红外数据协会(IrDA)、超宽带(UWB)、紫蜂TM等等。
位置信息模块115是用于检查或获取移动终端的位置信息的模块。位置信息模块115的典型示例是GPS(全球定位系统)。根据当前的技术,GPS计算来自三个或更多卫星的距离信息和准确的时间信息并且对于计算的信息应用三角测量法,从而根据经度、纬度和高度准确地计算三维当前位置信息。当前,用于计算位置和时间信息的方法使用三颗卫星并且通过使用另外的一颗卫星校正计算出的位置和时间信息的误差。此外,GPS能够通过实时地连续计算当前位置信息来计算速度信息。
A/V输入单元120用于接收音频或视频信号。A/V输入单元120可以包括相机121和麦克风122,相机121对在视频捕获模式或图像捕获模式中由图像捕获装置获得的静态图片或视频的图像数据进行处理。处理后的图像帧可以显示在显示单元151上。经相机121处理后的图像帧可以存储在存储器160(或其它存储介质)中或者经由无线通信单元110进行发送,可以根据移动终端100的构造提供两个或更多相机121。麦克风122可以在电话通话模式、记录模式、语音识别模式等等运行模式中经由麦克风122接收声音(音频数据),并且能够将这样的声音处理为音频数据。处理后的音频(语音)数据可以在电话通话模式的情况下转换为可经由移动通信模块112发送到移动通信基站的格式输出。麦克风122可以实施各种类型的噪声消除(或抑制)算法以消除(或抑制)在接收和发送音频信号的过程中产生的噪声或者干扰。
用户输入单元130可以根据用户输入的命令生成键输入数据以控制移动终端100的各种操作。用户输入单元130允许用户输入各种类型的信息,并且可以包括键盘、锅仔片、触摸板(例如,检测由于被接触而导致的电阻、压力、电容等等的变化的触敏组件)、滚轮、摇杆等等。特别地,当触摸板以层的形式叠加在显示单元151上时,可以形成触摸屏。
感测单元140检测移动终端100的当前状态,(例如,移动终端100的打开或关闭状态)、移动终端100的位置、用户对于移动终端100的接触(即,触摸输入)的有无、移动终端100的取向、移动终端100的加速或减速移动和方向等等,并且生成用于控制移动终端100的操作的命令或信号。例如,当移动终端100实施为滑动型移动电话时,感测单元140可以感测该滑动型电话是打开还是关闭。另外,感测单元140能够检测电源单元190是否提供电力或者接口单元170是否与外部装置耦接。感测单元140可以包括接近传感器141。
接口单元170用作至少一个外部装置与移动终端100连接可以通过的接口。例如,外部装置可以包括有线或无线头戴式耳机端口、外部电源(或电池充电器)端口、有线或无线数据端口、存储卡端口、用于连接具有识别模块的装置的端口、音频输入/输出(I/O)端口、视频I/O端口、耳机端口等等。识别模块可以是存储用于验证用户使用移动终端100的各种信息并且可以包括用户识别模块(UIM)、客户识别模块(SIM)、通用客户识别模块(USIM)等等。另外,具有识别模块的装置(下面称为"识别装置")可以采取智能卡的形式,因此,识别装置可以经由端口或其它连接装置与移动终端100连接。接口单元170可以用于接收来自外部装置的输入(例如,数据信息、电力等等)并且将接收到的输入传输到移动终端100内的一个或多个元件或者可以用于在移动终端100和外部装置之间传输数据。
另外,当移动终端100与外部底座连接时,接口单元170可以用作允许通过其将电力从底座提供到移动终端100的路径或者可以用作允许从底座输入的各种命令信号通过其传输到移动终端100的路径。从底座输入的各种命令信号或电力可以用作识别移动终端100是否准确地安装在底座上的信号。输出单元150被构造为以视觉、音频和/或触觉方式提供输出信号(例如,音频信号、视频信号、警报信号、振动信号等等)。输出单元150可以包括显示单元151、音频输出模块152、警报单元153等等。
显示单元151可以显示在移动终端100中处理的信息。例如,当移动终端100处于电话通话模式时,显示单元151可以显示与通话或其它通信(例如,文本消息收发、多媒体文件下载等等)相关的用户界面(UI)或图形用户界面(GUI)。当移动终端100处于视频通话模式或者图像捕获模式时,显示单元151可以显示捕获的图像和/或接收的图像、示出视频或图像以及相关功能的UI或GUI等等。
同时,当显示单元151和触摸板以层的形式彼此叠加以形成触摸屏时,显示单元151可以用作输入装置和输出装置。显示单元151可以包括液晶显示器(LCD)、薄膜晶体管LCD(TFT-LCD)、有机发光二极管(OLED)显示器、柔性显示器、三维(3D)显示器等等中的至少一种。这些显示器中的一些可以被构造为透明状以允许用户从外部观看,这可以称为透明显示器,典型的透明显示器可以例如为TOLED(透明有机发光二极管)显示器等等。根据特定想要的实施方式,移动终端100可以包括两个或更多显示单元(或其它显示装置),例如,移动终端100可以包括外部显示单元(未示出)和内部显示单元(未示出)。触摸屏可用于检测触摸输入压力以及触摸输入位置和触摸输入面积。
音频输出模块152可以在移动终端100处于呼叫信号接收模式、通话模式、记录模式、语音识别模式、广播接收模式等等模式下时,将无线通信单元110接收的或者在存储器160中存储的音频数据转换音频信号并且输出为声音。而且,音频输出模块152可以提供与移动终端100执行的特定功能相关的音频输出(例如,呼叫信号接收声音、消息接收声音等等)。音频输出模块152可以包括扬声器、蜂鸣器等等。
警报单元153可以提供输出以将事件的发生通知给移动终端100。典型的事件可以包括呼叫接收、消息接收、键信号输入、触摸输入等等。除了音频或视频输出之外,警报单元153可以以不同的方式提供输出以通知事件的发生。例如,警报单元153可以以振动的形式提供输出,当接收到呼叫、消息或一些其它进入通信(incoming communication)时,警报单元153可以提供触觉输出(即,振动)以将其通知给用户。通过提供这样的触觉输出,即使在用户的移动电话处于用户的口袋中时,用户也能够识别出各种事件的发生。警报单元153也可以经由显示单元151或音频输出模块152提供通知事件的发生的输出。
存储器160可以存储由控制器180执行的处理和控制操作的软件程序等等,或者可以暂时地存储己经输出或将要输出的数据(例如,电话簿、消息、静态图像、视频等等)。而且,存储器160可以存储关于当触摸施加到触摸屏时输出的各种方式的振动和音频信号的数据。
存储器160可以包括至少一种类型的存储介质,所述存储介质包括闪存、硬盘、多媒体卡、卡型存储器(例如,SD或DX存储器等等)、随机访问存储器(RAM)、静态随机访问存储器(SRAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、可编程只读存储器(PROM)、磁性存储器、磁盘、光盘等等。而且,移动终端100可以与通过网络连接执行存储器160的存储功能的网络存储装置协作。
控制器180通常控制移动终端的总体操作。例如,控制器180执行与语音通话、数据通信、视频通话等等相关的控制和处理。另外,控制器180可以包括用于再现(或回放)多媒体数据的多媒体模块181,多媒体模块181可以构造在控制器180内,或者可以构造为与控制器180分离。控制器180可以执行模式识别处理,以将在触摸屏上执行的手写输入或者图片绘制输入识别为字符或图像。
电源单元190在控制器180的控制下接收外部电力或内部电力并且提供操作各元件和组件所需的适当的电力。
这里描述的各种实施方式可以以使用例如计算机软件、硬件或其任何组合的计算机可读介质来实施。对于硬件实施,这里描述的实施方式可以通过使用特定用途集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理装置(DSPD)、可编程逻辑装置(PLD)、现场可编程门阵列(FPGA)、处理器、控制器、微控制器、微处理器、被设计为执行这里描述的功能的电子单元中的至少一种来实施,在一些情况下,这样的实施方式可以在控制器180中实施。对于软件实施,诸如过程或功能的实施方式可以与允许执行至少一种功能或操作的单独的软件模块来实施。软件代码可以由以任何适当的编程语言编写的软件应用程序(或程序)来实施,软件代码可以存储在存储器160中并且由控制器180执行。
至此,己经按照其功能描述了移动终端100。另外,本发明实施例中的移动终端100可以是诸如折叠型、直板型、摆动型、滑动型以及其他各种类型的移动终端,具体此处不做限定。
如图1中所示的移动终端100可以被构造为利用经由帧或分组发送数据的诸如有线和无线通信系统以及基于卫星的通信系统来操作。
现在将参考图2描述其中根据本发明的移动终端能够操作的通信系统。
这样的通信系统可以使用不同的空中接口和/或物理层。例如,由通信系统使用的空中接口包括例如频分多址(FDMA)、时分多址(TDMA)、码分多址(CDMA)和通用移动通信系统(UMTS)(特别地,长期演进(LTE))、全球移动通信系统(GSM)等等。作为非限制性示例,下面的描述涉及CDMA通信系统,但是这样的教导同样适用于其它类型的系统。
参考图2,CDMA无线通信系统可以包括多个智能终端100、多个基站(BS)270、基站控制器(BSC)275和移动交换中心(MSC)280。MSC 280被构造为与公共电话交换网络(PSTN)290形成接口。MSC 280还被构造为与可以经由回程线路耦接到基站270的BSC 275形成接口。回程线路可以根据若干己知的接口中的任一种来构造,所述接口可以包括例如欧洲标准高容量数字线路/美国标准高容量数字线路(E1/T1)、异步传输模式(ATM),网络协议(IP)、点对点协议(PPP)、帧中继、高速率数字用户线路(HDSL)、非对称数字用户线路(ADSL)或各种类型数字用户线路(xDSL)。将理解的是,如图2中所示的系统可以包括多个BSC 275。
每个BS 270可以服务一个或多个分区(或区域),由多向天线或指向特定方向的天线覆盖的每个分区放射状地远离BS 270。或者,每个分区可以由用于分集接收的两个或更多天线覆盖。每个BS 270可以被构造为支持多个频率分配,并且每个频率分配具有特定频谱(例如,1.25MHz,5MHz等等)。
分区与频率分配的交叉可以被称为CDMA信道。BS 270也可以被称为基站收发器子系统(BTS)或者其它等效术语。在这样的情况下,术语"基站"可以用于笼统地表示单个BSC275和至少一个BS 270。基站也可以被称为"蜂窝站"。或者,特定BS 270的各分区可以被称为多个蜂窝站。
如图2中所示,广播发射器(BT)295将广播信号发送给在系统内操作的移动终端100。如图1中所示的广播接收模块111被设置在移动终端100处以接收由BT 295发送的广播信号。在图2中,示出了几个全球定位系统(GPS)卫星300。卫星300帮助定位多个移动终端100中的至少一个。
在图2中,描绘了多个卫星300,但是理解的是,可以利用任何数目的卫星获得有用的定位信息。如图1中所示的位置信息模块115(如:GPS)通常被构造为与卫星300配合以获得想要的定位信息。替代GPS跟踪技术或者在GPS跟踪技术之外,可以使用可以跟踪移动终端的位置的其它技术。另外,至少一个GPS卫星300可以选择性地或者额外地处理卫星DMB传输。
作为无线通信系统的一个典型操作,BS 270接收来自各种移动终端100的反向链路信号。移动终端100通常参与通话、消息收发和其它类型的通信。特定基站接收的每个反向链路信号被在特定BS 270内进行处理。获得的数据被转发给相关的BSC 275。BSC提供通话资源分配和包括BS 270之间的软切换过程的协调的移动管理功能。BSC 275还将接收到的数据路由到MSC 280,其提供用于与PSTN 290形成接口的额外的路由服务。类似地,PSTN290与MSC 280形成接口,MSC与BSC 275形成接口,并且BSC 275相应地控制BS 270以将正向链路信号发送到移动终端100。
基于上述的移动终端,本发明实施例提供了一种扫描支付处理方法,图3是根据本发明实施例的扫描支付处理方法的流程图,如图3所示,该方法包括以下步骤:
步骤S302,检测到通过后置摄像头扫描支付码时,启动前置摄像头对用户的面部进行识别;
步骤S304,启动并跳转到所述支付码对应的应用中,判断通过所述支付码对应的应用接收到的支付密码与预先存储的支付密码是否匹配;
步骤S306,在面部识别通过且判断结果为是的情况下,完成对所述支付码的支付。
通过上述步骤,检测到通过后置摄像头扫描支付码时,启动前置摄像头对用户的面部进行识别,根据所述支付码启动并跳转到所述支付码对应的应用中,同时启动面部识别和密码输入流程,在进行面部识别的过程中,接收用户输入的密码,判断通过所述支付码对应的应用接收到的支付密码与预先存储的支付密码是否匹配,在面部识别通过且判断结果为是的情况下,直接对所述支付码进行支付,解决了相关技术中在密码泄露的情况下容易对用户造成较大损失的问题,通过前置摄像头采集用户的面部特征,根据采集的面部特征确定用户为合法用户且用户密码输入正确之后完成扫描支付,提高了账户的安全性,提高了用户体验。
可选的,在启动前置摄像头对用户的面部进行识别之前,通过所述前置摄像头采集所述用户的面部特征,采集所述用户的支付密码,将所述用户的面部特征和支付密码与所述用户已注册账户进行关联。通过所述前置摄像头采集所述用户的面部特征可以包括:采用立体识别方式对所述用户的面部进行识别,采集所述用户的面部特征。
下面以实施例对如何通过前置摄像头采集用户的面部特征以及对采集到的面部特征进行验证进行具体说明。
实施例1
本发明实施例提供的人脸识别方法,所述方法包括以下步骤:
步骤S11,对通过前置摄像头拍摄的图像中检测出人脸,并分离出人脸区域。
基于局部二进制模式逐行扫描原始图像,得到一响应图像;采用AdaBoost算法对所述响应图像进行人脸检测,检测出人脸的存在;采用AdaBoost算法进行人眼检测,分离出人脸区域。
局部二进制模式(LBP)作为一种有效的纹理描述算子,其对图像局部纹理特征具有卓越描绘能力。应用LBP算子过程类似于滤波过程中的模板操作,逐行扫描原始图像;对于原始图像中的每一个像素点,以该点的灰度值为阈值,对其周围3×3的8领域进行二值化;按照一定的顺序将二值化的结果组成一个8位二进制数,以此二进制数的值(0~255)作为该点响应。
如表1所示一实施例中原始图像对应灰度值,对于表1中的3×3区域的中心点,以其灰度值88作为阈值,对其8领域进行二值化,并从左上点开始按照顺时针方向(顺序可以任意,但要统一)将二值化的结果组成一个二进制数10001011,即十进制的139,作为中心的响应。在整个逐行扫描过程结束后,得到一个LBP响应图像,这个响应图像可以作为后续工作的特征;所得响应图像对应灰度值如表2所示。
表1
180 | 52 | 5 |
213 | 88 | 79 |
158 | 84 | 156 |
表2
1 | 0 | 0 |
1 | 139 | 0 |
1 | 0 | 1 |
AdaBoost算法是Freund和Schapire根据在线分配算法提出的,AdaBoost算法允许设计者不断地加入新的弱分类器,直到达到某个预订的足够小的误差率。在AdaBoost算法中每个训练样本都被赋予一个权重,表面它被某个分量分类器选入训练集的概率。如果某个样本点已经被准确地分类,那么在构造下一个训练集中,它被选中的概率就被降低;相反,如果某个样本点没有被正确分类,那么它的权重就得到提高。通过T轮这样的训练,AdaBoost算法能够聚焦于那些较困难的样本上,综合得出用于目标检测的强分类器。
AdaBoost算法描述如下:
1)给定标定的训练样本集(x1,y1),(x2,y2),……,(xL,yL)。其中,gj(xi)代表第i个训练图像的第j个Haar-Like特征,xi∈X,表示输入的训练样本,yi∈Y={1,-1}分别表示真假样本。
2)初始化权重w1,i=1/2m,1/2n,其中m,n分别表示真、假样本的数据,总样本数L=m+n。
3)对于T轮训练,For t=1,2,…,T。
对于所有样本的权重进行归一化:
对于每个样本中的第j个Haar-Like特征,可以得到一个简单分类器,也就是确定阈值θj和偏置Pj,使得误差εj达到最小:
其中,
偏置Pj决定不等式方向,只有±1两种情况。
在确定的简单分类器中,找出一个具有最小误差εt的弱分类器ht。
4)对所有的样本的权重进行更新:
其中,βt=εt/(1-εt),如果xi被hi正确分类,则ei=0,反之ei=1。
5)最后得到的强分类器为:
其中,αt=ln(1/βt)是根据ht的预测错误衡量的。
至此,通过上述步骤就可以对人脸进行检测了。在检测过程中可以按照1.25-0.9进行多尺度检测,最后合并窗口,输出结果。
在检测到人脸的基础上,将AdaBoost算法用于人眼检测。人眼检测的基本原理与人脸检测相同,此处不再赘述。在人眼检测过程中,可以按照1.25-0.9进行多尺度检测,并建立剔除机制(可根据人眼的位置,大小等特征建立)。
步骤S12,对分离出的人脸区域图像进行预处理,得到统一特征的归一化人脸图像。
具体地,预处理即校正人脸尺度、光照以及旋转等方面的变化,得到规范化的人脸图像。
作为优选的实施方式,步骤S12进一步可以采用下述步骤完成:根据缩放公式对分离出的人脸区域图像进行计算得到目标图像;对目标图像进行图像旋转校正;对旋转校正图像进行剪切,得到统一特征的归一化人脸图像;通过伽马变换、高斯差分滤波和对比度均衡化对归一化人脸图像进行光照预处理。
为了能够统一特征便于进行识别,需要对图像进行归一化的预处理。图像归一化主要涉及到三个内容:缩放、旋转、剪切。
直接根据缩放公式计算得到的目标图像中,某些映射源坐标可能不是整数,从而找不到对应的像素位置,因此需要进一步进行近似处理。近似处理方法主要有:最邻近插值、双线性插值、高阶插值、lagrange插值、Newton插值等。
采用先缩放后旋转的方式,可以节省处理时间。旋转方式包括绕原点旋转、以任意点为中心进行图像旋转。
1)绕原点旋转:
假设点P(x0,y0)绕原点逆时针旋转角度θ到点P1(x1,y1),那么旋转公式为:
2)以任意点为中心进行图像旋转,一般要以下三个步骤:
a、将现有坐标系A转换成以该中心点为圆点的坐标系B;
b、将该中心点顺时针旋转θ角度;
c、将坐标系B转换回坐标系A。
旋转之后,图像某些像素会超出界外,使图像变大,所以要对图像进行剪切,保持大小一致。本实施例中,所述归一化人脸图像为64×80像素。
步骤S13,从归一化人脸图像中提取出面部特征信息。
特征提取即从归一化后的人脸图像中提取出人脸具有代表性的特征信息。作为优选的实施方式,步骤S13进一步可以采用Gabor小波变换提取归一化人脸图像区域内的面部特征信息。
由于Gabor小波变换可以提取图像特定区域内的多尺度、多方向空间频率特征,像显微镜一样放大灰度的变化,这样人脸图像中的眼睛、鼻子和嘴以及其它局部特征被放大。因此,采用Gabor小波变换来处理人脸图像,可以增强一些关键特征,区分不同的人脸图像。
二维Gabor小波变换的核函数定义为:
其中kv分别定义了波向量kv,μ的方向和尺度,z=(x,y),||·||表示范数运算。kv=kmax/fv,f为频率域中的采样步长。
用I(z)=I(x,y)表示图像的灰度分布,则图像与Gabor小波ψv,μ的卷积为:符号表示二维卷积。
采用Gabor小波变换提取出的面部特征信息的维数一般较高,可以利用主成分分析以及线性判别分析降低采用Gabor小波变换提取出的面部特征信息的维数后,保存面部特征信息,用于人脸识别。
在本实施例中,利用Gabor小波变换进行特征提取后可以得到12800维度特征,接着利用主成分分析(PCA)将维数降低到600维度特征,再运用线性判别分析(LDA)方法将维数降低到300维度特征,最后保存特征,用于人脸识别。
步骤S14,根据提取的面部特征信息,将通过前置摄像头采集的面部特征信息与预先存储的数据库中的人脸数据进行比较,如果匹配的程度大于或等于98%,则说明为同一人脸,实现人脸识别。
实施例2
在一个优选的实施例中,在密码泄露的情况下,由于只要通过了人脸特征的验证,为了避免被有心人利用,在手机丢失或被他人恶意使用的情况下,他人拿出用户的照片用于前置摄像头进行扫描,如果通过了验证,他人便可以刷走用户银行卡中的钱,故要求前置摄像头采集的人脸为活体,而不是图像,本发明实施例提出了活体人脸识别方法用于前置摄像头的人脸识别中,只有在确保前置摄像头采集的人脸为活体的情况下,才对比用户的面部特征与预先设置的面部特征是否相同,可选的,在所述前置摄像头为双摄像头的情况下,启动前置摄像头对用户的面部进行识别包括:通过所述双摄像头获取面部图像,并获取所述面部图像中器官点的深度信息,确定所述面部图像的人脸姿态,判断所述面部图像中器官点的深度信息与所述人脸姿态是否符合预设规则,在判断结果为是的情况下,确定所述面部图像为活体人脸,对所述活体人脸进行识别。判断人脸为活体具体包括以下步骤:
步骤21,通过配置的双摄像头,获取人脸图像。
通过开启前置摄像头,此时需要前置摄像头为双摄像头,并通过双摄像头进行拍摄,得到原始图像。该原始图像中可能会包括人脸、身体、建筑物等多个部分的图像,则为了便于对人脸进行识别,人脸识别可以对该原始图像中的人脸进行检测,获取该原始图像中的人脸图像,并忽略掉其他部分的图像。
其中,人脸识别可以在接收到人脸识别指令时开启双摄像头,以进行人脸识别。人脸识别指令可以为对识别按键的点击指令。登录指令或者解锁指令等,本实施例对此不做限定。另外,人脸识别可以采用基于Haar特征的自适应增强(Adaptive Boosting,简称为Adaboost)算法对原始图像中的人脸进行检测,或者采用其他算法对原始图像中的人脸进行检测,本实施例对此也不做限定。
步骤22,通过该双摄像头,获取该人脸图像中的器官点的深度信息。
其中,器官点是指人脸器官上的轮廓点,每个人脸器官可以包括一个或多个轮廓点。该人脸图像中可以包括多个器官点,如鼻子轮廓点、脸部轮廓点、嘴巴轮廓点、眼睛轮廓点等等,本实施例对此不做限定。
人脸识别获取到人脸图像之后,可以对该人脸图像中的器官点进行定位,得到至少一个器官点。其中,进行器官点定位时,人脸识别可以采用动态形状模型(Active ShapeModel,简称为ASM)、动态表观模型(Active Appearance Model,简称为AAM)或者监督下降算法(Supervised Descent Method,简称为SDM)等,本实施例对进行器官点定位的具体方式不做限定。
得到人脸图像中的器官点之后,人脸识别即可通过该双摄像头,获取定位得到的每个器官点的深度信息。其中,器官点的深度信息用于指示该器官点到人脸识别的距离,与器官点到人脸识别的距离呈负相关关系,也即是,器官点的深度信息越大,表示该器官点距离人脸识别越近,器官点的深度信息越小,表示该器官点距离人脸识别越远。
实际应用时,人脸识别通过双摄像头拍摄该器官点时,由于器官点与两个摄像头之间的角度不同,则采用三角定位法,可以确定该器官点与人脸识别之间的距离,根据该器官点与人脸识别之间的距离,即可确定该器官点的深度信息。
步骤23,确定该人脸图像的人脸姿态。
其中,该人脸姿态可以为正面姿态、左侧姿态、右侧姿态、抬头姿态、低头姿态等,正面姿态表示人脸面向人脸识别的姿态,该左侧姿态表示人脸向左转动的姿态,该右侧姿态表示人脸向右转动的姿态,抬头姿态表示人脸向上抬起的姿态,低头姿态表示人脸向下低头的姿态,本实施例对该人脸姿态不做限定。
在本实施例中,人脸识别可以采用姿态分类器,确定该人脸图像的人脸姿态,该姿态分类器可以为Adaboost姿态分类器,或者基于Gabor特征的SVM(Support VectorMachine,支持向量机)姿态分类器等,本实施例对此不做限定。
步骤24,判断该人脸图像中的器官点的深度信息与该人脸姿态是否符合预设规则,如果是,确定该人脸图像为活体人脸,如果否,确定该人脸图像为伪造人脸。
在日常生活中,若以人脸识别作为参照物,伪造人脸通常为人脸照片或者人脸视频中截取的人脸图像等,这些伪造人脸上的不同器官点到人脸识别的距离相同,不符合人脸器官的分布规律。而活体人脸上的不同器官点到人脸识别的距离不同,且任两个器官点到人脸识别的距离之间的大小关系符合人脸器官的分布规律,如用户鼻子到人脸识别的距离通常要比用户眼睛到人脸识别的距离大。
另外,虽然活体人脸的姿态变化时,器官点到人脸识别的距离会发生变化,但此时任两个器官点到人脸识别的距离之间的大小关系仍然符合在该人脸姿态下人脸器官的分布规律。
考虑到伪造人脸与活体人脸的上述区别,人脸识别可以根据不同姿态下人脸器官的分布规律,确定预设规则,该预设规则用于对不同人脸姿态下不同器官点的深度信息之间的大小关系进行限制。那么,当人脸识别获取到人脸图像中器官点的深度信息以及该人脸姿态时,判断器官点的深度信息与该人脸姿态是否符合预设规则,如果器官点的深度信息与该人脸姿态符合该预设规则时,可以确定该人脸图像为活体人脸,如果器官点的深度信息与该人脸姿态不符合该预设规则时,可以确定该人脸图像为伪造人脸。
根据人脸姿态的不同,上述判断过程可以包括以下步骤(1)-(3)中的任一项:
(1)当该人脸姿态为正面姿态时,判断鼻子轮廓点的深度信息是否小于脸部轮廓点的深度信息,当鼻子轮廓点的深度信息大于脸部轮廓点的深度信息时,确定该人脸图像为活体人脸,当鼻子轮廓点的深度信息不大于脸部轮廓点的深度信息时,确定该人脸图像为伪造人脸。
按照人脸器官的分布规律,活体人脸的鼻子通常要突出脸部两侧的边缘,那么当用户面向人脸识别时,鼻子轮廓点距离人脸识别更近,而脸部轮廓点距离人脸识别更远。相应地,正面姿态下的预设规则可以包括:鼻子轮廓点的深度信息大于脸部轮廓点的深度信息。
因此,人脸识别判断鼻子轮廓点的深度信息是否大于脸部轮廓点的深度信息,当鼻子轮廓点的深度信息大于脸部轮廓点的深度信息时,表示鼻子轮廓点距离人脸识别更近,而脸部轮廓点距离人脸识别更远,符合该预设规则,则可以确定该人脸图像为活体人脸。而当鼻子轮廓点的深度信息不大于脸部轮廓点的深度信息时,确定该人脸图像不符合该预设规则,则可以确定该人脸图像为伪造人脸。
需要说明的是,本实施例仅以一个鼻子轮廓点与一个脸部轮廓点为例进行说明,实际上,人脸识别可以获取到多个鼻子轮廓点和多个脸部轮廓点,此时,人脸识别可以获取多个鼻子轮廓点的平均深度信息,并获取多个脸部轮廓点的平均深度信息,对获取到的两个器官点的平均深度信息进行比较,以判断该人脸图像是否符合该预设规则。或者,人脸识别还可以将多个鼻子轮廓点和多个脸部轮廓点两两对比,当任一鼻子轮廓点的深度信息大于对应脸部轮廓点的深度信息时,为鼻子轮廓点投票,当任一鼻子轮廓点的深度信息不大于脸部轮廓点的深度时,为脸部轮廓点投票,全部对比完成时,如果鼻子轮廓点的投票数目大于脸部轮廓点的投票数目,则确定鼻子轮廓点的深度信息大于脸部轮廓点的深度信息,该人脸图像符合该预设规则。而如果鼻子轮廓点的投票数目不大于脸部轮廓点的投票数目,则确定鼻子轮廓点的深度信息不大于脸部轮廓点的深度信息,该人脸图像不符合该预设规则。本实施例对此不做限定。
(2)当该人脸姿态为左侧姿态时,判断左侧脸部轮廓点的深度信息是否小于右侧脸部轮廓点的深度信息,该左侧姿态是指人脸向左转动的姿态,当左侧脸部轮廓点的深度信息小于右侧脸部轮廓点的深度信息时,确定该人脸图像为活体人脸,当左侧脸部轮廓点的深度信息不小于右侧脸部轮廓点的深度信息时,确定该人脸图像为伪造人脸。
按照人脸器官的分布规律,用户人脸向左转动时,左脸到人脸识别的距离通常要大于右脸到人脸识别的距离。相应地,左侧姿态下的预设规则可以包括:左侧脸部轮廓点的深度信息小于右侧脸部轮廓点的深度信息。
因此,人脸识别判断左侧脸部轮廓点的深度信息是否小于右侧脸部轮廓点的深度信息,当左侧脸部轮廓点的深度信息小于右侧脸部轮廓点的深度信息时,表示左脸距离人脸识别更远,右脸距离人脸识别更近,符合该预设规则,则可以确定该人脸图像为活体人脸。而当左侧脸部轮廓点的深度信息不小于右侧脸部轮廓点的深度信息时,确定该人脸图像不符合该预设规则,则可以确定该人脸图像为伪造人脸。
需要说明的是,本实施例仅以一个左侧脸部轮廓点与一个右侧脸部轮廓点为例进行说明,实际上,人脸识别可以获取到多个左侧脸部轮廓点和多个右侧脸部轮廓点,此时,人脸识别可以获取多个左侧脸部轮廓点的平均深度信息,并获取多个右侧脸部轮廓点的平均深度信息,对获取到的两个器官点的平均深度信息进行比较,以判断该人脸图像是否符合该预设规则。或者,人脸识别还可以将多个左侧脸部轮廓点和多个右侧脸部轮廓点两两对比,当任一左侧脸部轮廓点的深度信息小于对应的右侧脸部轮廓点的深度信息时,为左侧脸部轮廓点投票,当任一左侧脸部轮廓点的深度信息不小于对应的右侧脸部轮廓点的深度时,为右侧脸部轮廓点投票,全部对比完成时,如果左侧脸部轮廓点的投票数目大于右侧脸部轮廓点的投票数目,则确定左侧脸部轮廓点的深度信息小于右侧脸部轮廓点的深度信息,该人脸图像符合该预设规则。而如果左侧脸部轮廓点的投票数目不大于右侧脸部轮廓点的投票数目,则确定左侧脸部轮廓点的深度信息不小于脸部轮廓点的深度信息,该人脸图像不符合该预设规则。本实施例对此不做限定。
(3)当该人脸姿态为右侧姿态时,判断左侧脸部轮廓点的深度信息是否大于右侧脸部轮廓点的深度信息,该左侧姿态是指人脸向右转动的姿态,当左侧脸部轮廓点的深度信息大于右侧脸部轮廓点的深度信息时,确定该人脸图像为活体人脸,当左侧脸部轮廓点的深度信息不大于右侧脸部轮廓点的深度信息时,确定该人脸图像为伪造人脸。
按照人脸器官的分布规律,用户人脸向右转动时,左脸到人脸识别的距离通常要小于右脸到人脸识别的距离。相应地,左侧姿态下的预设规则可以包括:左侧脸部轮廓点的深度信息大于右侧脸部轮廓点的深度信息。
该步骤(3)的具体过程与上述步骤(2)类似,在此不再赘述。
需要说明的是,本实施例仅以上述步骤(1)-(3)中的三种姿态下的预设规则为例进行说明,实际上,人脸识别还可以根据人脸器官的分布规律,在上述三种姿态下采用其他形式的预设规则,且人脸识别还可以设定除上述三种姿态以外的其他姿态下的预设规则,本实施例对此不做限定。
另外,人脸识别对人脸进行拍摄后得到的人脸图像的左右方向与人脸真实的左右方向相反,本实施例可以按照人脸图像的左右方向来区分左侧姿态与左侧姿态以及左侧脸部轮廓点与右侧脸部轮廓点,也可以按照人脸真实的左右方向来区分左侧姿态与右侧姿态以及左侧脸部轮廓点与右侧脸部轮廓点,只需保证活体人脸识别过程中采用的左右方向一致即可。
步骤25,在确定前置摄像头采集的人脸为活体之后,将采集到面部特征与预先保存的面部特征进行对比,在匹配度大于或等于98%的情况下,确定为同一面部特征。
图4是根据本发明实施例的扫码支付的示意图一,如图4所示,当用户需要支付时,使用后置摄像头进行扫描支付(如扫描支付二维码或条形码),此时移动终端检测到用户即将进行支付,启动对用户的身份进行验证的流程,图5是根据本发明实施例的扫码支付的示意图二,如图5所示,立刻开启前置摄像头,对当前使用手机的用户进行人脸识别。如果前置摄像头获取的图像,通过手机的人脸识别系统识别后为已注册用户(用户可以使用该手机提前注册用户:注册人脸识别数据,拍摄自己的照片,然后输入对应的支付密码、支付类型、支付账户、最大支付额度等参数),则对后置摄像头扫描获取的支付码进行支付,输入该用户注册时填写的密码、账户等信息。图6是根据本发明实施例的扫码支付的示意图三,如图6所示,如果支付额度超过该用户注册时填写的额度,则提示用户超出额度,无法进行支付。人脸识别可以采用立体识别方式进行识别,从而增强系统的可靠性。
一般在进行扫码支付时,都是开启后摄像头识别支付二维码后输入密码进行支付的,这样串行流程效率不高。利用前后双摄像头同时进行身份认证和扫码支付,在进行支付二维码扫描支付时,同时开启前置摄像头进行脸部识别,识别通过后既可进行免密码支付,这样并行的支付流程提升了效率,提升用户体验。
可选的,在通过所述前置摄像头采集所述用户的面部特征之前,接收设置所述账户的参数的设置指令,其中,所述设置指令包括:设置支付类型的类型设置指令,支付类型可以为指纹支付方式,也可以为数字密码支付方式,设置支付额度的额度设置指令;根据所述设置指令设置所述账户的参数。
如图6所示,在完成对所述支付码的支付之前,判断所述支付码对应的支付额度是否大于或等于所述账户中设置的支付额度,在判断结果为是的情况下,提示所述用户超出支付额度,接收继续完成支付的继续支付指令,之后在完成支付。
在一个优选的实施例中,图7是根据本发明实施例的扫码支付的示意图四,如图7所示,在支付码对应的支付额度超过预先设置的支付额度的情况下,还可以提示用户是否继续支付,提示用户选择是或否,如果用户选择“是”,即移动终端接收到用户继续支付的指令后,图8是根据本发明实施例的扫码支付的示意图五,如图8所示,弹出输入支付密码的界面,之后接收用户输入的支付密码,判断用户输入的支付密码是否正确,在支付密码正确的情况下,完成超过支付金额的账单支付。如果用户选择“否”,即移动终端接收到中断支付的指令,则退出支付界面。
根据本发明实施例的另一方面,还提供了一种扫码支付处理装置,图9是根据本发明实施例的扫码支付处理装置的框图,如图9所示,包括:识别模块92,第一判断模块94以及完成支付模块96,其中,识别模块92与第一判断模块94连接,第一判断模块94与完成支付模块96连接,下面对各个模块进行详细说明。
识别模块92,用于检测到通过后置摄像头扫描支付码时,启动前置摄像头对用户的面部进行识别;
第一判断模块94,用于启动并跳转到所述支付码对应的应用中,判断通过所述支付码对应的应用接收到的支付密码与预先存储的支付密码是否匹配;
完成支付模块96,用于面部识别通过且在判断结果为是的情况下,直接对所述支付码进行支付。
图10是根据本发明优选实施例的扫码支付处理装置的框图一,如图10所示,所述装置还包括:
采集模块102,用于通过所述前置摄像头采集所述用户的面部特征,采集所述用户的支付密码;
关联模块104,用于将所述用户的面部特征与所述用户已注册账户进行关联。
可选的,所述采集模块102,还用于采用立体识别方式对所述用户的面部进行识别,采集所述用户的面部特征。
可选的,所述识别模块92包括:
获取单元,用于在所述前置摄像头为双摄像头的情况下,通过所述双摄像头获取面部图像,并获取所述面部图像中器官点的深度信息;
确定单元,用于确定所述面部图像的人脸姿态;
判断单元,用于判断所述面部图像中器官点的深度信息与所述人脸姿态是否符合预设规则;
识别单元,用于在判断结果为是的情况下,确定所述面部图像为活体人脸,对所述活体人脸进行识别。
可选的,所述装置还包括:
接收模块,用于接收设置所述账户的参数的设置指令,其中,所述设置指令包括:设置支付类型的类型设置指令,设置支付额度的额度设置指令;
设置模块,用于根据所述设置指令设置所述账户的参数。
图11是根据本发明优选实施例的扫码支付处理装置的框图二,如图11所示,所述装置还包括:
第二判断模块112,用于判断所述支付码对应的支付额度是否大于或等于所述账户中设置的支付额度;
提示模块114,用于在判断结果为是的情况下,提示所述用户超出支付额度;
接收模块116,用于接收继续完成支付的继续支付指令。
根据本发明实施例的另一方面,还提供了一种终端,包括上述的装置之一。
本发明实施例,检测到通过后置摄像头扫描支付码时,启动前置摄像头对用户的面部进行识别,启动并跳转到所述支付码对应的应用中,判断通过所述支付码对应的应用接收到的支付密码与预先存储的支付密码是否匹配,在面部识别通过且判断结果为是的情况下,完成对所述支付码的支付,解决了相关技术中在密码泄露的情况下容易对用户造成较大损失的问题,通过前置摄像头采集用户的面部特征,根据采集的面部特征确定用户为合法用户且用户密码输入正确之后完成扫描支付,提高了账户的安全性,提高了用户体验。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者装置不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者装置所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者装置中还存在另外的相同要素。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本发明各个实施例该的方法。
显然,本领域的技术人员应该明白,上述的本发明的各模块或各步骤可以用通用的计算装置来实现,它们可以集中在单个的计算装置上,或者分布在多个计算装置所组成的网络上,可选地,它们可以用计算装置可执行的程序代码来实现,从而,可以将它们存储在存储装置中由计算装置来执行,并且在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤,或者将它们分别制作成各个集成电路模块,或者将它们中的多个模块或步骤制作成单个集成电路模块来实现。这样,本发明不限制于任何特定的硬件和软件结合。
以上仅为本发明的优选实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。
Claims (10)
1.一种扫码支付处理方法,其特征在于,包括:
检测到通过后置摄像头扫描支付码时,启动前置摄像头对用户的面部进行识别;
启动并跳转到所述支付码对应的应用中,判断通过所述支付码对应的应用接收到的支付密码与预先存储的支付密码是否匹配;
在面部识别通过且判断结果为是的情况下,完成对所述支付码的支付。
2.根据权利要求1所述的方法,其特征在于,在启动前置摄像头对用户的面部进行识别之前,所述方法还包括:
通过所述前置摄像头采集所述用户的面部特征;
采集所述用户的支付密码;
将所述用户的面部特征和支付密码与所述用户已注册账户进行关联。
3.根据权利要求2所述的方法,其特征在于,通过所述前置摄像头采集所述用户的面部特征包括:
采用立体识别方式对所述用户的面部进行识别,采集所述用户的面部特征。
4.根据权利要求1至3中任一项所述的方法,其特征在于,在所述前置摄像头为双摄像头的情况下,启动前置摄像头对用户的面部进行识别包括:
通过所述双摄像头获取面部图像,并获取所述面部图像中器官点的深度信息;
确定所述面部图像的人脸姿态;
判断所述面部图像中器官点的深度信息与所述人脸姿态是否符合预设规则;
在判断结果为是的情况下,确定所述面部图像为活体人脸,对所述活体人脸进行识别。
5.根据权利要求4所述的方法,其特征在于,在通过所述前置摄像头采集所述用户的面部特征之前,所述方法还包括:
接收设置所述账户的参数的设置指令,其中,所述设置指令包括:设置支付类型的类型设置指令,设置支付额度的额度设置指令;
根据所述设置指令设置所述账户的参数。
6.根据权利要求5所述的方法,其特征在于,在完成对所述支付码的支付之前,所述方法还包括:
判断所述支付码对应的支付额度是否大于或等于所述账户中设置的支付额度;
在判断结果为是的情况下,提示所述用户超出支付额度;
接收继续完成支付的继续支付指令。
7.一种扫码支付处理装置,其特征在于,包括:
识别模块,用于检测到通过后置摄像头扫描支付码时,启动前置摄像头对用户的面部进行识别;
第一判断模块,用于启动并跳转到所述支付码对应的应用中,判断通过所述支付码对应的应用接收到的支付密码与预先存储的支付密码是否匹配;
完成支付模块,用于在面部识别通过且判断结果为是的情况下,完成对所述支付码的支付。
8.根据权利要求7所述的装置,其特征在于,所述装置还包括:
采集模块,用于通过所述前置摄像头采集所述用户的面部特征,采集所述用户的支付密码;
关联模块,用于将所述用户的面部特征和支付密码与所述用户已注册账户进行关联。
9.根据权利要求8所述的装置,其特征在于,所述装置还包括:
接收模块,用于接收设置所述账户的参数的设置指令,其中,所述设置指令包括:设置支付类型的类型设置指令,设置支付额度的额度设置指令;
设置模块,用于根据所述设置指令设置所述账户的参数。
10.一种终端,其特征在于,包括权利要求7至9中任一项所述的装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710107554.5A CN106875191A (zh) | 2017-02-27 | 2017-02-27 | 一种扫描支付处理方法、装置及终端 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710107554.5A CN106875191A (zh) | 2017-02-27 | 2017-02-27 | 一种扫描支付处理方法、装置及终端 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN106875191A true CN106875191A (zh) | 2017-06-20 |
Family
ID=59168887
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710107554.5A Withdrawn CN106875191A (zh) | 2017-02-27 | 2017-02-27 | 一种扫描支付处理方法、装置及终端 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106875191A (zh) |
Cited By (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107273875A (zh) * | 2017-07-18 | 2017-10-20 | 广东欧珀移动通信有限公司 | 人脸活体检测方法及相关产品 |
CN107392142A (zh) * | 2017-07-19 | 2017-11-24 | 广东工业大学 | 一种真伪人脸识别方法及其装置 |
CN107423703A (zh) * | 2017-07-21 | 2017-12-01 | 山东大学 | 基于人脸、指纹和指静脉特征的多模态识别装置及方法 |
CN107644188A (zh) * | 2017-09-30 | 2018-01-30 | 联想(北京)有限公司 | 一种信息识别方法及电子设备 |
CN107657245A (zh) * | 2017-10-16 | 2018-02-02 | 维沃移动通信有限公司 | 一种人脸识别方法和终端设备 |
CN108009496A (zh) * | 2017-11-30 | 2018-05-08 | 西安科锐盛创新科技有限公司 | 面部遮挡识别方法 |
CN108712602A (zh) * | 2018-04-24 | 2018-10-26 | Oppo广东移动通信有限公司 | 摄像头控制方法、装置、移动终端以及存储介质 |
CN108711048A (zh) * | 2018-05-10 | 2018-10-26 | 珠海格力电器股份有限公司 | 一种数据交互方法、装置、存储介质及移动终端 |
CN108805555A (zh) * | 2018-05-07 | 2018-11-13 | 珠海格力电器股份有限公司 | 一种扫码支付方法及电子设备 |
WO2019052418A1 (en) * | 2017-09-12 | 2019-03-21 | Guangdong Oppo Mobile Telecommunications Corp., Ltd. | FACIAL RECOGNITION METHOD AND RELATED PRODUCT |
CN109598479A (zh) * | 2018-10-25 | 2019-04-09 | 北京奇虎科技有限公司 | 一种账单提取方法、装置、电子设备及介质 |
CN109598515A (zh) * | 2018-11-29 | 2019-04-09 | 阿里巴巴集团控股有限公司 | 一种支付方法、支付装置及终端设备 |
CN109800643A (zh) * | 2018-12-14 | 2019-05-24 | 天津大学 | 一种活体人脸多角度的身份识别方法 |
CN110175827A (zh) * | 2018-11-06 | 2019-08-27 | 广东小天才科技有限公司 | 一种无人商店支付方法及可穿戴设备 |
CN110516488A (zh) * | 2018-05-22 | 2019-11-29 | 维沃移动通信有限公司 | 一种扫码方法及移动终端 |
WO2020007191A1 (zh) * | 2018-07-06 | 2020-01-09 | 北京三快在线科技有限公司 | 活体识别检测方法、装置、介质及电子设备 |
WO2020018416A1 (en) * | 2018-07-16 | 2020-01-23 | Alibaba Group Holding Limited | Payment method, apparatus, and system |
CN111274565A (zh) * | 2020-01-18 | 2020-06-12 | 温州大学大数据与信息技术研究院 | 一种基于身份识别的计算机登陆系统 |
CN111327888A (zh) * | 2020-03-04 | 2020-06-23 | 广州腾讯科技有限公司 | 摄像头控制方法、装置、计算机设备和存储介质 |
CN111325560A (zh) * | 2020-02-28 | 2020-06-23 | 维沃移动通信有限公司 | 一种支付方法及电子设备 |
CN111476577A (zh) * | 2020-04-03 | 2020-07-31 | 深圳合纵富科技有限公司 | 一种基于小波变换和sm4的人脸图像加密识别支付方法 |
CN111754221A (zh) * | 2019-03-29 | 2020-10-09 | 广东小天才科技有限公司 | 一种基于智能手表的支付方法、智能手表 |
US11087327B2 (en) | 2017-08-30 | 2021-08-10 | Advanced New Technologies Co., Ltd. | Resource transfer method, fund payment method, and electronic device |
CN115130491A (zh) * | 2022-08-29 | 2022-09-30 | 荣耀终端有限公司 | 一种自动扫码方法和终端 |
US11568411B2 (en) | 2018-05-03 | 2023-01-31 | Huawei Technologies Co., Ltd. | Facial recognition-based payment method, apparatus, and terminal |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104732396A (zh) * | 2015-03-24 | 2015-06-24 | 广东欧珀移动通信有限公司 | 一种支付控制方法及装置 |
CN106327185A (zh) * | 2016-08-26 | 2017-01-11 | 维沃移动通信有限公司 | 一种支付应用的启动方法及移动终端 |
-
2017
- 2017-02-27 CN CN201710107554.5A patent/CN106875191A/zh not_active Withdrawn
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104732396A (zh) * | 2015-03-24 | 2015-06-24 | 广东欧珀移动通信有限公司 | 一种支付控制方法及装置 |
CN106327185A (zh) * | 2016-08-26 | 2017-01-11 | 维沃移动通信有限公司 | 一种支付应用的启动方法及移动终端 |
Cited By (40)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107273875A (zh) * | 2017-07-18 | 2017-10-20 | 广东欧珀移动通信有限公司 | 人脸活体检测方法及相关产品 |
CN107392142A (zh) * | 2017-07-19 | 2017-11-24 | 广东工业大学 | 一种真伪人脸识别方法及其装置 |
CN107392142B (zh) * | 2017-07-19 | 2020-11-13 | 广东工业大学 | 一种真伪人脸识别方法及其装置 |
CN107423703A (zh) * | 2017-07-21 | 2017-12-01 | 山东大学 | 基于人脸、指纹和指静脉特征的多模态识别装置及方法 |
CN107423703B (zh) * | 2017-07-21 | 2020-12-08 | 山东大学 | 基于人脸、指纹和指静脉特征的多模态识别装置及方法 |
US11087327B2 (en) | 2017-08-30 | 2021-08-10 | Advanced New Technologies Co., Ltd. | Resource transfer method, fund payment method, and electronic device |
US10769464B2 (en) | 2017-09-12 | 2020-09-08 | Guangdong Oppo Mobile Telecommunications Corp., Ltd. | Facial recognition method and related product |
WO2019052418A1 (en) * | 2017-09-12 | 2019-03-21 | Guangdong Oppo Mobile Telecommunications Corp., Ltd. | FACIAL RECOGNITION METHOD AND RELATED PRODUCT |
CN107644188A (zh) * | 2017-09-30 | 2018-01-30 | 联想(北京)有限公司 | 一种信息识别方法及电子设备 |
CN107657245A (zh) * | 2017-10-16 | 2018-02-02 | 维沃移动通信有限公司 | 一种人脸识别方法和终端设备 |
CN108009496A (zh) * | 2017-11-30 | 2018-05-08 | 西安科锐盛创新科技有限公司 | 面部遮挡识别方法 |
CN108712602A (zh) * | 2018-04-24 | 2018-10-26 | Oppo广东移动通信有限公司 | 摄像头控制方法、装置、移动终端以及存储介质 |
US11568411B2 (en) | 2018-05-03 | 2023-01-31 | Huawei Technologies Co., Ltd. | Facial recognition-based payment method, apparatus, and terminal |
CN108805555A (zh) * | 2018-05-07 | 2018-11-13 | 珠海格力电器股份有限公司 | 一种扫码支付方法及电子设备 |
US11373052B2 (en) | 2018-05-10 | 2022-06-28 | Gree Electric Appliances, Inc. Of Zhuhai | Data interaction method and device, storage medium, and mobile terminal |
WO2019214238A1 (zh) * | 2018-05-10 | 2019-11-14 | 珠海格力电器股份有限公司 | 一种数据交互方法、装置、存储介质及移动终端 |
CN108711048A (zh) * | 2018-05-10 | 2018-10-26 | 珠海格力电器股份有限公司 | 一种数据交互方法、装置、存储介质及移动终端 |
CN108711048B (zh) * | 2018-05-10 | 2020-06-23 | 珠海格力电器股份有限公司 | 一种数据交互方法、装置、存储介质及移动终端 |
CN110516488A (zh) * | 2018-05-22 | 2019-11-29 | 维沃移动通信有限公司 | 一种扫码方法及移动终端 |
WO2020007191A1 (zh) * | 2018-07-06 | 2020-01-09 | 北京三快在线科技有限公司 | 活体识别检测方法、装置、介质及电子设备 |
WO2020018416A1 (en) * | 2018-07-16 | 2020-01-23 | Alibaba Group Holding Limited | Payment method, apparatus, and system |
US10769417B2 (en) | 2018-07-16 | 2020-09-08 | Alibaba Group Holding Limited | Payment method, apparatus, and system |
US10747990B2 (en) | 2018-07-16 | 2020-08-18 | Alibaba Group Holding Limited | Payment method, apparatus, and system |
CN109598479A (zh) * | 2018-10-25 | 2019-04-09 | 北京奇虎科技有限公司 | 一种账单提取方法、装置、电子设备及介质 |
CN109598479B (zh) * | 2018-10-25 | 2024-04-05 | 三六零科技集团有限公司 | 一种账单提取方法、装置、电子设备及介质 |
CN110175827A (zh) * | 2018-11-06 | 2019-08-27 | 广东小天才科技有限公司 | 一种无人商店支付方法及可穿戴设备 |
US11132669B2 (en) | 2018-11-29 | 2021-09-28 | Advanced New Technologies Co., Ltd. | Method, device and terminal for payment |
CN109598515B (zh) * | 2018-11-29 | 2020-08-04 | 阿里巴巴集团控股有限公司 | 一种支付方法、支付装置及终端设备 |
US10803444B2 (en) | 2018-11-29 | 2020-10-13 | Alibaba Group Holding Limited | Method, device and terminal for payment |
CN109598515A (zh) * | 2018-11-29 | 2019-04-09 | 阿里巴巴集团控股有限公司 | 一种支付方法、支付装置及终端设备 |
CN109800643A (zh) * | 2018-12-14 | 2019-05-24 | 天津大学 | 一种活体人脸多角度的身份识别方法 |
CN109800643B (zh) * | 2018-12-14 | 2023-03-31 | 天津大学 | 一种活体人脸多角度的身份识别方法 |
CN111754221A (zh) * | 2019-03-29 | 2020-10-09 | 广东小天才科技有限公司 | 一种基于智能手表的支付方法、智能手表 |
CN111274565A (zh) * | 2020-01-18 | 2020-06-12 | 温州大学大数据与信息技术研究院 | 一种基于身份识别的计算机登陆系统 |
CN111325560A (zh) * | 2020-02-28 | 2020-06-23 | 维沃移动通信有限公司 | 一种支付方法及电子设备 |
CN111327888B (zh) * | 2020-03-04 | 2022-09-30 | 广州腾讯科技有限公司 | 摄像头控制方法、装置、计算机设备和存储介质 |
CN111327888A (zh) * | 2020-03-04 | 2020-06-23 | 广州腾讯科技有限公司 | 摄像头控制方法、装置、计算机设备和存储介质 |
CN111476577A (zh) * | 2020-04-03 | 2020-07-31 | 深圳合纵富科技有限公司 | 一种基于小波变换和sm4的人脸图像加密识别支付方法 |
CN115130491A (zh) * | 2022-08-29 | 2022-09-30 | 荣耀终端有限公司 | 一种自动扫码方法和终端 |
CN115130491B (zh) * | 2022-08-29 | 2023-01-31 | 荣耀终端有限公司 | 一种自动扫码方法和终端 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106875191A (zh) | 一种扫描支付处理方法、装置及终端 | |
US20210141887A1 (en) | Electronic device and method for controlling the same | |
AU2022201107B2 (en) | Methods and systems for capturing biometric data | |
AU2020314553B2 (en) | System and method for guiding card positioning using phone sensors | |
US10430679B2 (en) | Methods and systems for detecting head motion during an authentication transaction | |
WO2021011304A1 (en) | System and method for using image data to trigger contactless card transactions | |
CN107145839B (zh) | 一种指纹图像补全模拟方法及其系统 | |
CN105160530A (zh) | 一种移动终端及信息处理方法 | |
CN109255620B (zh) | 加密支付方法、移动终端及计算机可读存储介质 | |
CN105096107B (zh) | 一种通过指纹识别进行安全转账的方法及系统 | |
US10803159B2 (en) | Electronic device and method for controlling the same | |
CN112990909A (zh) | 一种语音支付方法和电子设备 | |
US20220130019A1 (en) | Electronic device and method for processing image by same | |
CN112818979B (zh) | 文本识别方法、装置、设备及存储介质 | |
KR102514036B1 (ko) | 전자 장치 및 그 제어 방법 | |
CN107180178A (zh) | 一种指纹解锁的识别装置及其方法、移动终端 | |
EP2863337B1 (en) | Methods and systems for detecting biometric characteristics in an image | |
CN105468945A (zh) | 一种用户验证方法及终端 | |
CN104715262A (zh) | 一种利用拍照实现智能标签功能的方法、装置及移动终端 | |
CN114140839B (zh) | 用于人脸识别的图像发送方法、装置、设备及存储介质 | |
CN108322519B (zh) | 一种页面推送处理方法、移动终端以及计算机可读存储介质 | |
KR102663389B1 (ko) | 전자 장치 및 그것의 제어 방법 | |
CN107145773A (zh) | 一种基于全屏指纹识别的信息提示方法及其装置 | |
CN106066952B (zh) | 身份验证装置及方法 | |
US11961315B1 (en) | Methods and systems for enhancing detection of a fraudulent identity document in an image |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20170620 |
|
WW01 | Invention patent application withdrawn after publication |