CN110363048A - 人脸识别方法及装置 - Google Patents

人脸识别方法及装置 Download PDF

Info

Publication number
CN110363048A
CN110363048A CN201810301816.6A CN201810301816A CN110363048A CN 110363048 A CN110363048 A CN 110363048A CN 201810301816 A CN201810301816 A CN 201810301816A CN 110363048 A CN110363048 A CN 110363048A
Authority
CN
China
Prior art keywords
equipment
face
angle
recognition
percent
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810301816.6A
Other languages
English (en)
Other versions
CN110363048B (zh
Inventor
曾岳伟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Advanced New Technologies Co Ltd
Advantageous New Technologies Co Ltd
Original Assignee
Alibaba Group Holding Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alibaba Group Holding Ltd filed Critical Alibaba Group Holding Ltd
Priority to CN201810301816.6A priority Critical patent/CN110363048B/zh
Priority to US16/959,642 priority patent/US20210019543A1/en
Priority to PCT/CN2019/073829 priority patent/WO2019192256A1/zh
Priority to TW108104571A priority patent/TWI709914B/zh
Publication of CN110363048A publication Critical patent/CN110363048A/zh
Application granted granted Critical
Publication of CN110363048B publication Critical patent/CN110363048B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/445Program loading or initiating
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/445Program loading or initiating
    • G06F9/44505Configuring for program initiating, e.g. using registry, configuration files
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • G06V10/242Aligning, centring, orientation detection or correction of the image by image rotation, e.g. by 90 degrees
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本说明书实施例提供一种人脸识别方法及装置,在人脸识别方法中,接收客户端的人脸识别请求。根据人脸识别请求中的设备的设备型号,从零通过率机型配置表中查找该设备。若查找到该设备,则从零通过率机型配置表中获取对应于该设备型号的角度配置信息。向客户端返回角度配置信息,以使客户端根据角度配置信息,对该设备进行配置,并通过配置后的设备对人脸进行识别。

Description

人脸识别方法及装置
技术领域
本说明书一个或多个实施例涉及计算机技术领域,尤其涉及一种人脸识别方法及装置。
背景技术
传统技术中,在用户通过设备对人脸进行识别时,可能会由于设备通过摄像头所捕获图像的显示角度错误,或者人脸识别算法的识别角度不正确,而导致部分设备无法对人脸进行识别的问题,也即会出现部分设备的人脸识别通过率为零的问题。
发明内容
本说明书一个或多个实施例描述了一种人脸识别方法及装置,可以提高人脸识别方法的成功率。
第一方面,提供了一种人脸识别方法,包括:
接收客户端的人脸识别请求,所述人脸识别请求包括所述客户端所在设备的设备型号;
根据所述设备型号,从零通过率机型配置表中查找所述设备;所述零通过率机型配置表用于存储人脸识别通过率为零的设备的设备型号以及角度配置信息的对应关系;所述角度配置信息是根据所述客户端的埋点在捕获用户的人脸识别行为时所记录的数据确定的;
若查找到所述设备,则获取对应于所述设备型号的角度配置信息;
向所述客户端返回所述角度配置信息,以使所述客户端根据所述角度配置信息,对所述设备进行配置,并通过配置后的设备对人脸进行识别。
第二方面,提供了一种人脸识别方法,包括:
向服务器发送人脸识别请求,所述人脸识别请求包括所述客户端所在设备的设备型号;所述人脸识别请求用于指示所述服务器根据所述设备型号,从零通过率机型配置表中查找所述设备;
接收所述服务器返回的响应结果;
若所述响应结果包括用于表示已查找到所述设备和对应的角度配置信息,则根据所述角度配置信息,对所述设备进行配置;
通过配置后的设备对人脸进行识别。
第三方面,提供了一种人脸识别装置,包括:
接收单元,用于接收客户端的人脸识别请求,所述人脸识别请求包括所述客户端所在设备的设备型号;
查找单元,用于根据所述接收单元接收的所述设备型号,从零通过率机型配置表中查找所述设备;所述零通过率机型配置表用于存储人脸识别通过率为零的设备的设备型号以及角度配置信息的对应关系;所述角度配置信息是根据所述客户端的埋点在捕获用户的人脸识别行为时所记录的数据确定的;
获取单元,用于若所述查找单元查找到所述设备,则获取对应于所述设备型号的角度配置信息;
发送单元,用于向所述客户端返回所述获取单元获取的所述角度配置信息,以使所述客户端根据所述角度配置信息,对所述设备进行配置,并通过配置后的设备对人脸进行识别。
第四方面,提供了一种人脸识别装置,包括:
发送单元,用于向服务器发送人脸识别请求,所述人脸识别请求包括所述人脸识别装置所在设备的设备型号;所述人脸识别请求用于指示所述服务器根据所述设备型号,从零通过率机型配置表中查找所述设备;
接收单元,用于接收所述服务器返回的响应结果;
配置单元,用于若所述接收单元接收的所述响应结果包括用于表示已查找到所述设备和对应的角度配置信息,则根据所述角度配置信息,对所述设备进行配置;
识别单元,用于通过所述配置单元配置后的设备对人脸进行识别。
本说明书一个或多个实施例提供的人脸识别方法及装置,接收客户端的人脸识别请求。根据人脸识别请求中的设备的设备型号,从零通过率机型配置表中查找该设备。若查找到该设备,则从零通过率机型配置表中获取对应于该设备型号的角度配置信息。向客户端返回角度配置信息,以使客户端根据角度配置信息,对该设备进行配置,并通过配置后的设备对人脸进行识别。由此,可以提高人脸识别方法的成功率。
附图说明
为了更清楚地说明本说明书实施例的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本说明书的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。
图1为本说明书提供的人脸识别方法的应用场景示意图;
图2为本说明书提供的零通过率机型配置表的生成方法流程图;
图3为本说明书一个实施例提供的人脸识别方法流程图;
图4为本说明书另一个实施例提供的人脸识别方法流程图;
图5为本说明书一个实施例提供的人脸识别装置示意图;
图6为本说明书另一个实施例提供的人脸识别装置示意图。
具体实施方式
下面结合附图,对本说明书提供的方案进行描述。
本说明书提供的人脸识别方法可以应用于如图1所示的场景中,图1中,客户端具有对应的摄像头,该摄像头可以内置于客户端所在设备,也可以连接在该设备的外部。上述设备例如可以为手机、平板电脑等,其可以具有对应的操作系统,该操作系统可以为安卓(android)系统。android系统具有默认的窗口(view),该窗口也可以称为设备的内置窗口。上述内置窗口指的是一般的视图。此外,该设备还可以具有对应的外部窗口,该外部窗口也可以称为显示窗口(display)。该显示窗口可以是指摄像头渲染的界面。对设备的内置窗口,通常不可以重新配置,其由android系统进行操控。对设备的显示窗口,则可以重新配置。如,可以配置显示窗口的显示旋转角度等。
需要说明的是,客户端所在的设备还可以具有对应的传感器。根据该传感器所感应的数据,可以确定设备的摆放方向。该摆放方向包括:正常方向和倒置方向。此外,该设备还可以内置人脸识别算法,该人脸识别算法具有对应的算法识别角度。具体地,设备通过内置的人脸识别算法来对人脸进行识别。
图1中,服务器可以预先生成零通过率机型配置表,该零通过率机型配置表用于存储人脸识别通过率为零的设备的设备型号以及角度配置信息的对应关系。上述人脸识别通过率为零的设备也可以称为零通过率机型。具体地,在对人脸进行识别时,若客户端所在的设备为零通过率机型,则可以从零通过率机型配置表中获取对应的角度配置信息。并将该角度配置信息返回给客户端。由客户端根据角度配置信息,对设备进行配置,并通过配置后的设备对人脸进行识别。
上述角度配置信息可以包括:显示旋转角度和算法识别角度。显示旋转角度是指设备的显示窗口的旋转角度,其可以根据内置窗口的旋转角度来确定。内置窗口的旋转角度则可以通过调用android系统提供的应用程序编程接口(Application ProgrammingInterface,API)函数来获取。显示旋转角度的确定方法为传统常规技术,在此不复赘述。算法识别角度是指设备的人脸识别算法所使用的角度。在一种实现方式中,其可以根据如下公式来确定:abs(360度-显示旋转角度)。
可以理解的是,当角度配置信息可以包括:显示旋转角度和算法识别角度时,上述对设备进行配置的过程可以为:根据显示旋转角度,对设备的显示窗口的显示旋转角度进行配置;根据算法识别角度,对设备的人脸识别算法的算法识别角度进行配置。
从图1可以看出,为使零通过率机型也可以对人脸进行识别,则可以先生成零通过率机型配置表。图2为本说明书提供的零通过率机型配置表的生成方法流程图。如图2所示,该方法可以包括:
步骤210,获取人脸识别通过率为零、可调角度的设备。
此处的人脸识别通过率可以包括次数通过率和账户通过率。本说明书实施例中,可以基于多个用户,来统计设备的次数通过率和账户通过率。具体地,可以根据多个用户中通过该设备进行人脸识别的总次数以及成功次数,来确定次数通过率。举例来说,50个用户,通过该设备进行人脸识别的总次数为:100次,其中,成功次数为:60次,那么该设备的次数通过率为:60%。可以根据通过该设备进行人脸识别的总用户数以及识别成功的用户数,来确定账户通过率。举例来说,通过该设备进行人脸识别的总用户数为:50个,其中,识别成功的用户数为:30个,那么该设备的账户通过率为:60%。需要说明的是,在确定账户通过率时,对某个用户,当其通过设备识别多次进行人脸识别时,只要有一次识别成功,那么该用户即为识别成功的用户。
在一种实现方式中,获取人脸识别通过率为零的设备的过程可以为:预先收集多个设备;对多个设备中的每个设备,获取该设备对应的用户行为数据。此处的用户行为数据可以是由客户端的埋点(一种记录数据的方式)在捕获用户通过该设备开始人脸识别行为以及完成人脸识别行为和/或放弃人脸识别行为时记录。根据各个设备对应的用户行为数据,确定各个设备的人脸识别通过率。此处的用户行为数据可以包括:账户标识、设备型号以及时间等信息。人脸识别通过率可以是指次数通过率和/或账户通过率。具体地,可以根据账户标识、设备型号以及时间等信息,统计使用各个设备进行人脸识别的总次数为以及成功次数。然后针对每个设备,计算对应的次数通过率。或者,针对每个设备,统计通过该设备进行人脸识别的总用户数以及识别成功的用户数,然后计算对应的账户通过率。之后,从多个设备中选取人脸识别通过率(次数通过率和/或账户通过率)为零的设备。
步骤210中的可调角度的设备可以是指有前、后置摄像头和/或记录在白名单中的设备。此处,白名单中的设备可以是人为预先收集的。
步骤220,确定设备是否有对应的算法输出值。
此处的算法输出值可以是在设备识别到人脸时输出,其可以包括:人脸质量分,位置,人脸坐标等信息。具体地,可以由客户端的埋点在捕获用户通过该设备识别到人脸时记录上述算法输出值。可以理解的是,若算法识别角度是错误的,那么人脸识别算法就会失效,从而设备就会识别不到人脸。当设备识别不到人脸时,就不会有对应的算法输出值。
综上,可以通过判断设备是否有对应的算法输出值,来确定当前所使用的算法识别角度是否正确。
步骤230,若是,则获取设备的当前识别角度,将当前识别角度作为算法识别角度。
此处的当前识别角度可以是指设备在通过人脸识别算法识别人脸时所使用的算法识别角度。其也可以由客户端的埋点记录。如,可以是由埋点在捕获用户通过设备识别人脸时记录。
步骤240,若否,则获取设备的当前识别角度,对当前识别角度进行更正,得到算法识别角度。
在一个例子中,可以根据如下公式来更正当前识别角度:abs(360度-当前识别角度)。更正之后,得到正确的算法识别角度。
步骤250,确定设备的显示窗口所显示的人脸是否倒置。
在一种实现方式中,确定设备的显示窗口所显示的人脸是否倒置的过程可以为:获取设备的传感器数据以及设备的摄像头所捕获的人脸的显示数据,传感器数据和显示数据可以是由客户端的埋点在捕获用户通过默认配置的设备识别到人脸的行为时记录。根据传感器数据以及显示数据,确定设备的显示窗口所显示的人脸是否倒置。
举例来说,上述传感器数据例如可以为三维坐标:x、y和z。根据该三维坐标,可以确定设备的摆放方向。该摆放方向包括:正常方向和倒置方向。上述显示数据可以是指人脸的左上角的点坐标和右下角的点坐标。具体地,当设备的摆放方向为正常方向时,如果左上角的点坐标小于右下角的点坐标,则设备的显示窗口所显示的人脸不倒置;否则倒置。当设备的摆放方向为倒置方向时,不执行上述确定过程。也即,本说明书实施例只关心设备的摆放方向为正常方向的情况。
步骤260,若是,则获取显示窗口的当前旋转角度,对当前旋转角度进行更正,得到显示旋转角度。
当前旋转角度也可以由客户端的埋点记录。如,可以是由埋点在捕获用户通过设备识别人脸时记录。具体地,如果人脸倒置,则说明当前旋转角度是错误的,需要对其更正。在一个例子中,可以根据如下公式来更正当前旋转角度:abs(360度-当前旋转角度)。更正之后,得到正确的显示旋转角度。
步骤270,若否,则获取显示窗口的当前旋转角度,将当前旋转角度作为显示旋转角度。
如果人脸不倒置,则说明当前旋转角度是正确的,不需要更正。
步骤280,根据人脸识别通过率为零、可调角度的设备的设备型号、算法识别角度以及显示旋转角度,生成零通过率机型配置表。
可以理解的是,针对人脸识别通过率为零、可调角度的设备,在确定对应的算法识别角度以及显示旋转角度之后,就可以生成零通过率机型配置表。
当然,在实际应用中,针对部分人脸识别通过率为零的设备,如果客户端的埋点未捕获或者捕获用户的人脸识别行为失败,则服务器无法确定该设备的角度配置信息。从而零通过率机型配置表不记录该部分设备的角度配置信息。
在一个例子中,生成的零通过率机型配置表可以如表1所示。
表1
零通过率机型 显示旋转角度 算法识别角度
X9S X 360-X
V9 play Y 360-Y
R11s Plus NULL NULL
... ... ...
表1中,X、Y、Z为90度或者270度。“NULL”表示该设备型号的设备的角度配置信息为空。
在生成上述零通过率机型配置表之后,就可以对人脸进行识别。
图3为本说明书一个实施例提供的人脸识别方法流程图。所述方法的执行主体可以为服务器。如图3所示,所述方法可以包括:
步骤310,接收客户端的人脸识别请求。
该人脸识别请求可以包括客户端所在设备的设备型号。
以客户端为支付宝客户端为例来说,可以是在用户在支付宝客户端的登录页面点击“刷脸登录”的beta按钮时,客户端向服务器发送上述人脸识别请求。
步骤320,根据设备型号,从零通过率机型配置表中查找该设备。
如,可以将上述设备型号与表1中的各个设备型号进行比对,若与表1中的任一设备型号比对一致,则查找到该设备。可以理解的是,在查找到的情况下,说明上述设备型号的设备为零通过率机型的设备。否则,未查找到该设备。
步骤330,若查找到该设备,则获取对应于该设备型号的角度配置信息。
如前述例子,假设上述设备型号与表1中第2行的设备型号比对一致,则可以获取对应于该设备型号的角度配置信息:Y和360-Y。
步骤340,向客户端返回角度配置信息。
客户端在接收到服务器返回的角度配置信息之后,根据角度配置信息,对设备进行配置,并通过配置后的设备对人脸进行识别。如前述例子,对设备进行配置的过程可以为:将设备的显示窗口的显示旋转角度配置为:Y,将设备的人脸识别算法的算法识别角度配置为:360-Y。
需要说明的是,如果服务器查找到该设备,但对应的角度配置信息为空,则客户端启用默认配置的设备对人脸进行识别。此处的默认配置可以是指该设备的角度配置信息由android系统设定。
此外,如果服务器未查找到该设备,则客户端获取该设备的内置窗口的旋转角度。根据内置窗口的旋转角度,确定显示旋转角度。之后,根据显示旋转角度,确定算法识别角度。根据确定的显示旋转角度和算法识别角度,对设备进行配置。通过配置后的设备对人脸进行识别。需要说明的是,此处的显示旋转角度和算法识别角度的确定过程为传统常规技术,在此不复赘述。
本实施例中,通过服务器生成零通过率配置表,并将角度配置信息下发至客户端的方式,可以大大提高人脸识别的成功率。
图4为本说明书另一个实施例提供的人脸识别方法流程图。所述方法的执行主体可以为客户端。如图4所示,所述方法可以包括:
步骤410,客户端接收人脸识别指令。
以客户端为支付宝客户端为例来说,上述人脸识别指令可以是由用户在支付宝客户端的登录页面点击“刷脸登录”的beta按钮触发。
步骤420,判断客户端所在设备是否是零通过率机型。若否,则执行步骤430-步骤450;若是,则执行步骤460。
具体地,客户端可以向服务器发送人脸识别请求,该人脸识别请求可以包括客户端所在设备的设备型号。服务器根据设备型号,从零通过率机型配置表中查找该设备。向客户端返回响应结果。如果该响应结果包括用于表示已查找到该设备的信息,则确定该设备是零通过率机型。否则,确定该设备不是零通过率机型。
步骤430,获取设备的内置窗口的旋转角度。
步骤440,根据内置窗口的旋转角度,确定设备的角度配置信息。
该角度配置信息可以包括:显示旋转角度和算法识别角度。具体地,根据内置窗口的旋转角度,确定显示旋转角度,并自动对显示旋转角度设置埋点。可以理解的是,此处的埋点与步骤260中的埋点相对应。上述显示旋转角度的确定方法为传统常规技术,在此不复赘述。之后,根据显示旋转角度,确定算法识别角度,并自动对算法识别角度设置埋点。可以理解的是,此处的埋点与步骤230中的埋点相对应。在一种实现方式中,算法识别角度的确定方式如下:abs(360度-显示旋转角度)。
步骤450,根据确定的角度配置信息,对设备进行配置。
步骤460,判断是否可以获取到对应的角度配置信息。若否,则执行步骤470;若是,则执行步骤480。
此处,可以根据响应结果,判断是否可以获取到对应的角度配置信息。具体地,如果响应结果还包括对应的角度配置信息,则确定可以获取到对应的角度配置信息。该角度配置信息可以包括:显示旋转角度和算法识别角度。
步骤470,启用默认配置的设备对人脸进行识别。
此处,默认配置的设备对人脸识别的过程可以为:a,执行截屏操作。b,通过设备内置的人脸识别算法识别截屏中是否有人脸。c,如果未识别到人脸,则重复执行上述步骤a和步骤b。如果识别到人脸,则执行步骤d。步骤d,自动对设备的传感器数据以及设备的摄像头捕获的人脸的显示数据设置埋点。之后,客户端可以向服务器上传该传感器数据和显示数据。
可以理解的是,此处的埋点与步骤250中的埋点相对应。
步骤480,根据获取到的角度配置信息,对设备进行配置。
步骤490,自动对用户的开始人脸识别行为的用户行为数据设置埋点。
具体地,埋点捕获用户的开始人脸识别行为,之后记录对应的用户行为数据。可以理解的是,此处的埋点与步骤210中的埋点相对应。
步骤4100,通过配置后的设备对人脸进行识别。
步骤4110,判断是否通过人脸识别,若否,则执行步骤4120;若是,则执行步骤4140。
步骤4120,判断是否结束人脸识别,若否,则执行步骤4100;若是,则执行步骤4130。
步骤4130,自动对用户的放弃人脸识别行为的用户行为数据设置埋点。
具体地,埋点捕获用户的放弃人脸识别行为,之后记录对应的用户行为数据。可以理解的是,此处的埋点与步骤210中的埋点相对应。
步骤4140,自动对用户的完成人脸识别行为的用户行为数据设置埋点。
具体地,埋点捕获用户的完成人脸识别行为,之后记录对应的用户行为数据。可以理解的是,此处的埋点与步骤210中的埋点相对应。
此外,自动对用户的完成人脸识别行为的算法输出值设置埋点。也即自动对生效的人脸识别算法设置埋点。该埋点捕获用户的完成人脸识别行为,记录人脸识别算法对应的算法输出值。此处的埋点与步骤220中的埋点相对应。
步骤4150,结束人脸识别。
本实施例中,通过自动对客户端的数据设置埋点的方式,来计算出零通过率机型的正确的角度配置信息,由此达到了针对所有android系统的设备均可以对人脸进行识别的目的。此外,由于上述设置以及计算的过程是零人工参与的,从而在不会影响人脸识别方法效率的情况下,大大提高了人脸识别的成功率。
与上述人脸识别方法对应地,本说明书一个实施例还提供的一种人脸识别装置,如图5所示,该装置包括:
接收单元501,用于接收客户端的人脸识别请求,该人脸识别请求包括客户端所在设备的设备型号。
查找单元502,用于根据接收单元501接收的设备型号,从零通过率机型配置表中查找该设备;零通过率机型配置表用于存储人脸识别通过率为零的设备的设备型号以及角度配置信息的对应关系;角度配置信息是根据客户端的埋点在捕获用户的人脸识别行为时所记录的数据确定的;
获取单元503,用于若查找单元502查找到该设备,则获取对应于该设备型号的角度配置信息。
发送单元504,用于向客户端返回获取单元503获取的角度配置信息,以使客户端根据角度配置信息,对该设备进行配置,并通过配置后的设备对人脸进行识别。
可选地,上述角度配置信息可以包括:显示旋转角度和算法识别角度。该装置还可以包括:生成单元505。
生成单元505可以用于:
获取人脸识别通过率为零、可调角度的设备。
确定设备是否有对应的算法输出值,算法输出值是在设备识别到人脸时输出的。
若是,则获取设备的当前识别角度,当前识别角度是指设备在通过人脸识别算法识别人脸时所使用的角度;将当前识别角度作为算法识别角度。
若否,则获取设备的当前识别角度,对当前识别角度进行更正,得到算法识别角度。
确定设备的显示窗口所显示的人脸是否倒置。
若是,则获取显示窗口的当前旋转角度,对当前旋转角度进行更正,得到显示旋转角度。
若否,则获取显示窗口的当前旋转角度,将当前旋转角度作为显示旋转角度。
根据人脸识别通过率为零、可调角度的设备的设备型号、算法识别角度以及显示旋转角度,生成零通过率机型配置表。
可选地,生成单元505具体可以用于:
预先收集多个设备。
对多个设备中的每个设备,获取设备对应的用户行为数据,用户行为数据是由客户端的埋点在捕获用户通过设备开始人脸识别行为以及完成人脸识别行为和/或放弃人脸识别行为时记录。
根据各个设备对应的用户行为数据,确定各个设备的人脸识别通过率。
从多个设备中选取人脸识别通过率为零的设备。
可选地,生成单元505还可以具体用于:
获取设备的传感器数据以及设备的摄像头所捕获的人脸的显示数据,传感器数据和显示数据是由客户端的埋点在捕获用户通过默认配置的设备识别到人脸时记录。
根据传感器数据以及显示数据,确定设备的显示窗口所显示的人脸是否倒置。
本说明书上述实施例装置的各功能模块的功能,可以通过上述方法实施例的各步骤来实现,因此,本说明书一个实施例提供的装置的具体工作过程,在此不复赘述。
本说明书一个实施例提供的人脸识别装置,接收单元501接收客户端的人脸识别请求。查找单元502根据设备型号,从零通过率机型配置表中查找该设备。若查找到该设备,获取单元503获取对应于该设备型号的角度配置信息。发送单元504向客户端返回角度配置信息,以使客户端根据角度配置信息,对设备进行配置,并通过配置后的设备对人脸进行识别。由此,可以提高人脸识别的成功率。
需要说明的是,本说明书实施例提供的人脸识别装置可以为图1中服务器的一个模块或者单元。
与上述人脸识别方法对应地,本说明书一个实施例还提供的一种人脸识别装置,如图6所示,该装置包括:
发送单元601,用于向服务器发送人脸识别请求,该人脸识别请求包括人脸识别装置所在设备的设备型号;人脸识别请求用于指示服务器根据设备型号,从零通过率机型配置表中查找该设备。
接收单元602,用于接收服务器返回的响应结果。
配置单元603,用于若接收单元602接收的响应结果包括用于表示已查找到该设备的信息和对应的角度配置信息,则根据角度配置信息,对该设备进行配置。
识别单元604,用于通过配置单元603配置后的设备对人脸进行识别。
可选地,识别单元604,还用于若接收单元602接收的响应结果只包括用于表示已查找到设备的信息,则通过默认配置的设备对人脸进行识别。
可选地,该装置还可以包括:
获取单元605,用于若接收单元602接收的响应结果包括用于表示未查找到设备的信息,则获取设备的内置窗口的旋转角度。
确定单元606,用于根据获取单元605获取的内置窗口的旋转角度,确定该设备的角度配置信息。
配置单元603,还用于根据确定单元606确定的角度配置信息,对该设备进行配置。
识别单元604,还用于通过配置单元603配置后的设备对人脸进行识别。
本说明书上述实施例装置的各功能模块的功能,可以通过上述方法实施例的各步骤来实现,因此,本说明书一个实施例提供的装置的具体工作过程,在此不复赘述。
本说明书一个实施例提供的人脸识别装置,发送单元601向服务器发送人脸识别请求。接收单元602接收服务器返回的响应结果。若响应结果包括用于表示已查找到设备的信息和对应的角度配置信息,配置单元603根据角度配置信息,对设备进行配置。识别单元604通过配置后的设备对人脸进行识别。由此,可以提高人脸识别的成功率。
需要说明的是,本说明书实施例提供的人脸识别装置可以为图1中客户端的一个模块或者单元。
本领域技术人员应该可以意识到,在上述一个或多个示例中,本说明书所描述的功能可以用硬件、软件、固件或它们的任意组合来实现。当使用软件实现时,可以将这些功能存储在计算机可读介质中或者作为计算机可读介质上的一个或多个指令或代码进行传输。
以上所述的具体实施方式,对本说明书的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本说明书的具体实施方式而已,并不用于限定本说明书的保护范围,凡在本说明书的技术方案的基础之上,所做的任何修改、等同替换、改进等,均应包括在本说明书的保护范围之内。

Claims (14)

1.一种人脸识别方法,包括:
接收客户端的人脸识别请求,所述人脸识别请求包括所述客户端所在设备的设备型号;
根据所述设备型号,从零通过率机型配置表中查找所述设备;所述零通过率机型配置表用于存储人脸识别通过率为零的设备的设备型号以及角度配置信息的对应关系;所述角度配置信息是根据所述客户端的埋点在捕获用户的人脸识别行为时所记录的数据确定的;
若查找到所述设备,则获取对应于所述设备型号的角度配置信息;
向所述客户端返回所述角度配置信息,以使所述客户端根据所述角度配置信息,对所述设备进行配置,并通过配置后的设备对人脸进行识别。
2.根据权利要求1所述的方法,所述角度配置信息包括:显示旋转角度和算法识别角度;所述方法还包括:生成所述零通过率机型配置表的步骤,包括:
获取人脸识别通过率为零、可调角度的设备;
确定所述设备是否有对应的算法输出值,所述算法输出值是在所述设备识别到人脸时输出的;
若是,则获取所述设备的当前识别角度,当前识别角度是指所述设备在通过人脸识别算法识别人脸时所使用的角度;将当前识别角度作为所述算法识别角度;
若否,则获取所述设备的当前识别角度,对当前识别角度进行更正,得到所述算法识别角度;
确定所述设备的显示窗口所显示的人脸是否倒置;
若是,则获取所述显示窗口的当前旋转角度,对当前旋转角度进行更正,得到所述显示旋转角度;
若否,则获取所述显示窗口的当前旋转角度,将当前旋转角度作为所述显示旋转角度;
根据所述人脸识别通过率为零、可调角度的设备的设备型号、所述算法识别角度以及所述显示旋转角度,生成所述零通过率机型配置表。
3.根据权利要求2所述的方法,所述获取人脸识别通过率为零的设备,包括:
预先收集多个设备;
对所述多个设备中的每个设备,获取所述设备对应的用户行为数据,所述用户行为数据是由客户端的埋点在捕获用户通过所述设备开始人脸识别行为以及完成人脸识别行为和/或放弃人脸识别行为时记录;
根据各个设备对应的用户行为数据,确定所述各个设备的人脸识别通过率;
从所述多个设备中选取人脸识别通过率为零的设备。
4.根据权利要求2或3所述的方法,所述确定所述设备的显示窗口所显示的人脸是否倒置,包括:
获取所述设备的传感器数据以及所述设备的摄像头所捕获的人脸的显示数据,所述传感器数据和所述显示数据是由客户端的埋点在捕获所述设备通过默认配置的设备识别到人脸时记录;
根据所述传感器数据以及所述显示数据,确定所述显示窗口所显示的人脸是否倒置。
5.一种人脸识别方法,包括:
向服务器发送人脸识别请求,所述人脸识别请求包括所述客户端所在设备的设备型号;所述人脸识别请求用于指示所述服务器根据所述设备型号,从零通过率机型配置表中查找所述设备;
接收所述服务器返回的响应结果;
若所述响应结果包括用于表示已查找到所述设备和对应的角度配置信息,则根据所述角度配置信息,对所述设备进行配置;
通过配置后的设备对人脸进行识别。
6.根据权利要求5所述的方法,还包括:
若所述响应结果只包括用于表示已查找到所述设备的信息,则通过默认配置的设备对人脸进行识别。
7.根据权利要求5或6所述的方法,还包括:
若所述响应结果包括用于表示未查找到所述设备的信息,则获取所述设备的内置窗口的旋转角度;
根据所述内置窗口的旋转角度,确定所述设备的角度配置信息;
根据确定的角度配置信息,对所述设备进行配置;
通过配置后的设备对人脸进行识别。
8.一种人脸识别装置,包括:
接收单元,用于接收客户端的人脸识别请求,所述人脸识别请求包括所述客户端所在设备的设备型号;
查找单元,用于根据所述接收单元接收的所述设备型号,从零通过率机型配置表中查找所述设备;所述零通过率机型配置表用于存储人脸识别通过率为零的设备的设备型号以及角度配置信息的对应关系;所述角度配置信息是根据所述客户端的埋点在捕获用户的人脸识别行为时所记录的数据确定的;
获取单元,用于若所述查找单元查找到所述设备,则获取对应于所述设备型号的角度配置信息;
发送单元,用于向所述客户端返回所述获取单元获取的所述角度配置信息,以使所述客户端根据所述角度配置信息,对所述设备进行配置,并通过配置后的设备对人脸进行识别。
9.根据权利要求8所述的装置,所述角度配置信息包括:显示旋转角度和算法识别角度;所述装置还包括:生成单元;
所述生成单元用于:
获取人脸识别通过率为零、可调角度的设备;
确定所述设备是否有对应的算法输出值,所述算法输出值是在所述设备识别到人脸时输出的;
若是,则获取所述设备的当前识别角度,当前识别角度是指所述设备在通过人脸识别算法识别人脸时所使用的角度;将当前识别角度作为所述算法识别角度;
若否,则获取所述设备的当前识别角度,对当前识别角度进行更正,得到所述算法识别角度;
确定所述设备的显示窗口所显示的人脸是否倒置;
若是,则获取所述显示窗口的当前旋转角度,对当前旋转角度进行更正,得到所述显示旋转角度;
若否,则获取所述显示窗口的当前旋转角度,将当前旋转角度作为所述显示旋转角度;
根据所述人脸识别通过率为零、可调角度的设备的设备型号、所述算法识别角度以及所述显示旋转角度,生成所述零通过率机型配置表。
10.根据权利要求9所述的装置,所述生成单元具体用于:
预先收集多个设备;
对所述多个设备中的每个设备,获取所述设备对应的用户行为数据,所述用户行为数据是由客户端的埋点在捕获用户通过所述设备开始人脸识别行为以及完成人脸识别行为和/或放弃人脸识别行为时记录;
根据各个设备对应的用户行为数据,确定所述各个设备的人脸识别通过率;
从所述多个设备中选取人脸识别通过率为零的设备。
11.根据权利要求9或10所述的装置,所述生成单元还具体用于:
获取所述设备的传感器数据以及所述设备的摄像头所捕获的人脸的显示数据,所述传感器数据和所述显示数据是由客户端的埋点在捕获用户通过默认配置的设备识别到人脸时记录;
根据所述传感器数据以及所述显示数据,确定所述显示窗口所显示的人脸是否倒置。
12.一种人脸识别装置,包括:
发送单元,用于向服务器发送人脸识别请求,所述人脸识别请求包括所述人脸识别装置所在设备的设备型号;所述人脸识别请求用于指示所述服务器根据所述设备型号,从零通过率机型配置表中查找所述设备;
接收单元,用于接收所述服务器返回的响应结果;
配置单元,用于若所述接收单元接收的所述响应结果包括用于表示已查找到所述设备和对应的角度配置信息,则根据所述角度配置信息,对所述设备进行配置;
识别单元,用于通过所述配置单元配置后的设备对人脸进行识别。
13.根据权利要求12所述的装置,
所述识别单元,还用于若所述接收单元接收的所述响应结果只包括用于表示已查找到所述设备的信息,则通过默认配置的设备对人脸进行识别。
14.根据权利要求12或13所述的装置,还包括:
获取单元,用于若所述接收单元接收的所述响应结果包括用于表示未查找到所述设备的信息,则获取所述设备的内置窗口的旋转角度;
确定单元,用于根据所述获取单元获取的所述内置窗口的旋转角度,确定所述设备的角度配置信息;
所述配置单元,还用于根据所述确定单元确定的角度配置信息,对所述设备进行配置;
所述识别单元,还用于通过所述配置单元配置后的设备对人脸进行识别。
CN201810301816.6A 2018-04-04 2018-04-04 人脸识别方法及装置 Active CN110363048B (zh)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN201810301816.6A CN110363048B (zh) 2018-04-04 2018-04-04 人脸识别方法及装置
US16/959,642 US20210019543A1 (en) 2018-04-04 2019-01-30 Method and apparatus for face recognition
PCT/CN2019/073829 WO2019192256A1 (zh) 2018-04-04 2019-01-30 人脸识别方法及装置
TW108104571A TWI709914B (zh) 2018-04-04 2019-02-12 人臉識別方法及裝置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810301816.6A CN110363048B (zh) 2018-04-04 2018-04-04 人脸识别方法及装置

Publications (2)

Publication Number Publication Date
CN110363048A true CN110363048A (zh) 2019-10-22
CN110363048B CN110363048B (zh) 2020-04-24

Family

ID=68099925

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810301816.6A Active CN110363048B (zh) 2018-04-04 2018-04-04 人脸识别方法及装置

Country Status (4)

Country Link
US (1) US20210019543A1 (zh)
CN (1) CN110363048B (zh)
TW (1) TWI709914B (zh)
WO (1) WO2019192256A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113139809A (zh) * 2021-04-30 2021-07-20 中国银行股份有限公司 手机银行信息保护方法及装置

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010072826A (ja) * 2008-09-17 2010-04-02 Ricoh Co Ltd 画像処理装置、画像処理方法、プログラムおよびコンピュータ読み取り可能な記憶媒体
US20120155718A1 (en) * 2010-12-21 2012-06-21 Samsung Electronics Co. Ltd. Face recognition apparatus and method
CN104036237A (zh) * 2014-05-28 2014-09-10 南京大学 基于在线预测的旋转人脸的检测方法
CN105760836A (zh) * 2016-02-17 2016-07-13 厦门美图之家科技有限公司 基于深度学习的多角度人脸对齐方法、系统及拍摄终端
KR101718244B1 (ko) * 2015-12-14 2017-03-20 이우균 얼굴 인식을 위한 광각 영상 처리 장치 및 방법
CN107229892A (zh) * 2016-03-24 2017-10-03 阿里巴巴集团控股有限公司 一种基于人脸识别产品的识别调整方法和设备
CN107370713A (zh) * 2016-05-11 2017-11-21 中兴通讯股份有限公司 一种人脸识别的登录认证方法、装置、终端及服务器
CN107563337A (zh) * 2017-09-12 2018-01-09 广东欧珀移动通信有限公司 人脸识别的方法及相关产品
CN107832730A (zh) * 2017-11-23 2018-03-23 高域(北京)智能科技研究院有限公司 提高人脸识别准确率的方法和人脸识别系统

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100714724B1 (ko) * 2005-08-17 2007-05-07 삼성전자주식회사 얼굴 포즈 추정 장치와 추정 방법 그리고 상기 방법에 의한얼굴 인식 시스템
CN202120280U (zh) * 2011-06-30 2012-01-18 汉王科技股份有限公司 一种可调节角度的人脸识别设备
CN102930257B (zh) * 2012-11-14 2016-04-20 汉王科技股份有限公司 人脸识别装置
CN104853096B (zh) * 2015-04-30 2018-03-27 广东欧珀移动通信有限公司 一种基于旋转摄像头的拍摄参数的确定方法及终端

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010072826A (ja) * 2008-09-17 2010-04-02 Ricoh Co Ltd 画像処理装置、画像処理方法、プログラムおよびコンピュータ読み取り可能な記憶媒体
US20120155718A1 (en) * 2010-12-21 2012-06-21 Samsung Electronics Co. Ltd. Face recognition apparatus and method
CN104036237A (zh) * 2014-05-28 2014-09-10 南京大学 基于在线预测的旋转人脸的检测方法
KR101718244B1 (ko) * 2015-12-14 2017-03-20 이우균 얼굴 인식을 위한 광각 영상 처리 장치 및 방법
CN105760836A (zh) * 2016-02-17 2016-07-13 厦门美图之家科技有限公司 基于深度学习的多角度人脸对齐方法、系统及拍摄终端
CN107229892A (zh) * 2016-03-24 2017-10-03 阿里巴巴集团控股有限公司 一种基于人脸识别产品的识别调整方法和设备
CN107370713A (zh) * 2016-05-11 2017-11-21 中兴通讯股份有限公司 一种人脸识别的登录认证方法、装置、终端及服务器
CN107563337A (zh) * 2017-09-12 2018-01-09 广东欧珀移动通信有限公司 人脸识别的方法及相关产品
CN107832730A (zh) * 2017-11-23 2018-03-23 高域(北京)智能科技研究院有限公司 提高人脸识别准确率的方法和人脸识别系统

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113139809A (zh) * 2021-04-30 2021-07-20 中国银行股份有限公司 手机银行信息保护方法及装置

Also Published As

Publication number Publication date
US20210019543A1 (en) 2021-01-21
CN110363048B (zh) 2020-04-24
TW202001666A (zh) 2020-01-01
TWI709914B (zh) 2020-11-11
WO2019192256A1 (zh) 2019-10-10

Similar Documents

Publication Publication Date Title
CN110310326B (zh) 一种视觉定位数据处理方法、装置、终端及计算机可读存储介质
KR102036978B1 (ko) 라이브니스 검출 방법 및 디바이스, 및 아이덴티티 인증 방법 및 디바이스
US20200116498A1 (en) Visual assisted distance-based slam method and mobile robot using the same
CN110287772B (zh) 平面手掌掌心区域提取方法及装置
KR20170047255A (ko) 신원 인증 방법 및 장치, 단말기 및 서버
WO2021027540A1 (zh) 走失人员信息匹配方法、装置、计算机设备和存储介质
CN110334746B (zh) 一种图像检测方法和装置
CN111866468B (zh) 对象跟踪分配方法、装置、存储介质及电子装置
CN110379017B (zh) 一种场景构建方法、装置、电子设备及存储介质
JP2009157767A (ja) 顔画像認識装置、顔画像認識方法、顔画像認識プログラムおよびそのプログラムを記録した記録媒体
CN111771227B (zh) 用于识别三维物体的方法、系统、电子装置和存储介质
WO2021169704A1 (zh) 手势深度确定方法、装置、设备及存储介质
CN110296686A (zh) 基于视觉的定位方法、装置及设备
CN103984931B (zh) 一种信息处理方法及第一电子设备
US9075826B2 (en) Image matching
CN205540781U (zh) 身份的识别系统
CN109816543A (zh) 一种图像查找方法及装置
US12115685B2 (en) Fast and robust initialization method for feature-based monocular visual SLAM using inertial odometry assistance
CN110363048A (zh) 人脸识别方法及装置
US10878228B2 (en) Position estimation system
CN107733874B (zh) 信息处理方法、装置、计算机设备和存储介质
CN112907657A (zh) 一种机器人重定位方法、装置、设备及存储介质
CN111444253A (zh) 数据导入方法、装置、计算机可读存储介质和计算机设备
CN111507289A (zh) 视频匹配方法、计算机设备和存储介质
CN111079521A (zh) 三维建模人脸识别方法、存储介质、嵌入式设备及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
REG Reference to a national code

Ref country code: HK

Ref legal event code: DE

Ref document number: 40016247

Country of ref document: HK

TR01 Transfer of patent right

Effective date of registration: 20201022

Address after: Cayman Enterprise Centre, 27 Hospital Road, George Town, Grand Cayman Islands

Patentee after: Innovative advanced technology Co.,Ltd.

Address before: Cayman Enterprise Centre, 27 Hospital Road, George Town, Grand Cayman Islands

Patentee before: Advanced innovation technology Co.,Ltd.

Effective date of registration: 20201022

Address after: Cayman Enterprise Centre, 27 Hospital Road, George Town, Grand Cayman Islands

Patentee after: Advanced innovation technology Co.,Ltd.

Address before: A four-storey 847 mailbox in Grand Cayman Capital Building, British Cayman Islands

Patentee before: Alibaba Group Holding Ltd.

TR01 Transfer of patent right