CN113826110A - 利用移动设备检测面部识别的欺骗 - Google Patents

利用移动设备检测面部识别的欺骗 Download PDF

Info

Publication number
CN113826110A
CN113826110A CN202080035642.9A CN202080035642A CN113826110A CN 113826110 A CN113826110 A CN 113826110A CN 202080035642 A CN202080035642 A CN 202080035642A CN 113826110 A CN113826110 A CN 113826110A
Authority
CN
China
Prior art keywords
data representation
data
user
predictive model
software module
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202080035642.9A
Other languages
English (en)
Other versions
CN113826110B (zh
Inventor
吕峰俊
杜什扬特·戈亚尔
阳·王
亚当·佩罗德
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Element Inc
Original Assignee
Element Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Element Inc filed Critical Element Inc
Publication of CN113826110A publication Critical patent/CN113826110A/zh
Application granted granted Critical
Publication of CN113826110B publication Critical patent/CN113826110B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • G06V10/235Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition based on user input or interaction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/40Spoof detection, e.g. liveness detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/40Spoof detection, e.g. liveness detection
    • G06V40/45Detection of the body part being alive
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L63/00Network architectures or network communication protocols for network security
    • H04L63/08Network architectures or network communication protocols for network security for authentication of entities
    • H04L63/0861Network architectures or network communication protocols for network security for authentication of entities using biometrical features, e.g. fingerprint, retina-scan
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L63/00Network architectures or network communication protocols for network security
    • H04L63/14Network architectures or network communication protocols for network security for detecting or protecting against malicious traffic
    • H04L63/1441Countermeasures against malicious traffic
    • H04L63/1483Countermeasures against malicious traffic service impersonation, e.g. phishing, pharming or web spoofing

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Computer Security & Cryptography (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Hardware Design (AREA)
  • Signal Processing (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Collating Specific Patterns (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

描述了用于通过使用移动设备的相机来检测生物特征身份识别的欺骗和/或确认身份识别匹配的方法、系统和介质,处理用户在第一距离和第二距离处的面部图像或图像集以生成第一数据表示和第二数据表示,将第一数据表示处理成预测模型,并将数据表示与预测模型进行比较。

Description

利用移动设备检测面部识别的欺骗
交叉引用
本申请要求于2019年3月12日提交的美国临时申请第62/817,554号的权益,该申请的全部内容通过引用并入本文。
背景技术
“欺骗”安全系统通常被定义为通过提交虚假数据伪装成经过身份确认的用户的行为。在这种情况下,可以采用活体检测方法来确定生物特征模态,例如面部、手掌(掌纹)、手指(指纹)或耳朵,是否载有原始三维生物特征模态的独特结构特性,或者是否是二维复制。
发明内容
在一个方面,本文公开了一种使用移动设备的相机检测生物特征身份识别的欺骗(spoofing of biometric identity recognition)的计算机实现方法,所述方法包括:(a)通过相机在第一距离处记录用户的面部图像或图像集;(b)使用算法处理在所述第一距离处的所述用户的面部图像或图像集,以生成所述用户的图像或图像集的第一数据表示;(c)将所述第一数据表示处理成预测模型,所述预测模型估计所述用户的面部图像或图像集在所述用户的面部与所述相机之间的其他距离或方向上的所述数据表示;(d)改变所述用户的面部与所述相机之间的所述距离,其中改变所述距离包括增加所述用户的面部与所述相机之间的所述距离,减小所述用户的面部与所述相机之间的所述距离,改变所述相机相对于所述用户的面部的方向,改变所述用户的面部相对于所述相机的所述方向,或其任意组合;(e)通过所述相机在第二距离处记录所述用户的面部图像或图像集;(f)使用算法处理在所述第二距离处的所述用户的面部图像或图像集以生成所述用户的第二图像或图像集的第二数据表示;(g)将所述第二数据表示与从所述第一数据表示生成的所述预测模型进行比较以确定它们是否匹配;以及(h)如果所述第二数据表示匹配从所述第一数据表示生成的所述预测模型,则确认身份识别匹配。在一些实施方式中,所述方法还包括如果在将所述第二数据表示与从所述第一数据表示生成的所述预测模型进行比较之后所述第二数据表示与从所述第一数据表示生成的所述预测模型不匹配,则拒绝所述身份识别匹配。在一些实施方式中,所述方法还包括如果所述一个或多个附加数据表示匹配从所述第一数据表示生成的所述预测模型,则确认附加数据表示身份识别匹配。在一些实施方式中,所述方法还包括如果所述一个或多个附加数据表示与从所述第一数据表示生成的所述预测模型不匹配,则拒绝附加数据表示身份识别匹配。在一些实施方式中,所述方法还包括如果所述第二数据表示与从所述第一数据表示生成的所述预测模型不匹配,则比较附加数据以确定在所述第一距离处呈现所述面部图像或图像集的所述用户是否与在所述第二距离处呈现所述面部图像或图像集的所述用户匹配。在一些实施方式中,附加数据包括姓名、密码、身份号码、地址、地理位置、设备ID、在所述移动设备上所述用户的软件环境的唯一数据特征、其他生物特征数据、用户数据的预测模型或生物特征数据、其他数据或其任何组合。在一些实施方式中,所述方法还包括:(a)将所述第二数据表示处理成预测模型,所述预测模型估计所述用户的面部图像或图像集在所述用户的面部与所述相机之间的其他距离或方向上的所述数据表示;(b)将所述第一数据表示与从所述第二数据表示生成的所述预测模型进行比较以确定它们是否匹配;(c)如果所述第一数据表示匹配从所述第二数据表示生成的所述预测模型,则确认身份识别匹配。在一些实施方式中,预测模型与数据表示的所述比较包括配置匹配架构。在一些实施方式中,预测模型与数据表示的所述比较包括将从第一数据表示生成的预测模型与第二数据表示进行比较,将从第二数据表示生成的预测模型与第一数据表示进行比较,或其任何组合。在一些实施方式中,匹配架构的所述配置随着连续匹配练习而改变,或者随着某些连续匹配练习而不是其他而改变,其中改变能够在匹配练习之间随机化,或者基于非随机化的确定数据或协议,或者可能不会改变。在一些实施方式中,对匹配架构的所述配置的改变基于在匹配练习之间随机化的改变、基于非随机化确定数据或协议的改变或其任何组合。在一些实施方式中,匹配架构的所述配置不改变。在一些实施方式中,使用引导用户界面来捕获所述第一数据表示和/或第二数据表示。在一些实施方式中,从所述引导用户界面捕获的信息用于匹配练习。所述方法还包括:(a)从所述移动设备上的一个或多个传感器记录所述用户的面部图像或图像集在所述第一距离处被所述相机记录时的运动和/或位置数据;(b)从所述移动设备上的一个或多个传感器记录所述用户的面部图像或图像集在所述第二距离处被所述相机记录时的运动和/或位置数据;(c)将在所述第一距离处记录的所述运动和/或位置数据和来自所述第二距离的运动和/或位置数据与从所述第一数据表示生成的所述预测模型和所述第二数据表示进行比较;以及(d)如果(I)所述第二数据表示与从所述第一数据表示预测建模生成的所述预测模型匹配;(II)所述运动和/或位置数据与归因于所述移动设备相对于所述用户的面部的位置的预期运动和/或位置数据相匹配,则确认身份识别匹配。在一些实施方式中,在所述第一数据表示的记录时间和所述第二数据表示的记录时间之间连续地或以多个间隔记录所述运动和/或位置数据。在一些实施方式中,所述方法还包括比较(I)在所述第一数据表示的记录时间和所述第二数据表示的记录时间之间连续地或以多个间隔记录所述运动和/或位置数据与(II)从所述第一数据表示生成的所述预测模型和所述第二数据表示。在一些实施方式中,所述方法还包括如果(I)所述第二数据表示与从所述第一数据表示生成的所述预测模型相匹配;以及(II)连续或以多个间隔记录的所述运动和/或位置数据与归因于所述移动设备相对于所述用户的面部的位置的预期运动和/或位置数据相匹配,则确认身份识别匹配。
在另一方面,本文公开了一种计算机实现的系统,包括计算设备,所述计算设备包括至少一个处理器、被配置为执行可执行指令的操作系统、存储器、以及包括可由所述计算设备执行以创建用于使用移动设备的相机检测生物特征身份识别的欺骗的应用的指令的计算机程序,所述应用包括:(a)软件模块,其被配置为记录用户在第一距离处的面部图像或图像集;(b)软件模块,其被配置为使用算法处理在所述第一距离处的所述用户的面部图像或图像集,以生成所述用户的图像或图像集的第一数据表示;(c)软件模块,其被配置为将所述第一数据表示处理成预测模型,所述预测模型估计所述用户的面部图像或图像集在所述用户的面部与所述相机之间的其他距离或方向上的所述数据表示;(d)软件模块,其被配置为改变所述用户的面部与所述相机之间的所述距离,其中改变所述距离包括增加所述用户的面部与所述相机之间的所述距离,减小所述用户的面部与所述相机之间的所述距离,改变所述相机相对于所述用户的面部的方向,改变所述用户的面部相对于所述相机的所述方向,或其任意组合;(e)软件模块,其被配置为记录所述用户在第二距离处的面部图像或图像集;(f)软件模块,其被配置为使用算法处理在所述第二距离处的所述用户的面部图像或图像集以生成所述用户的第二图像或图像集的第二数据表示;(g)软件模块,其被配置为将所述第二数据表示与从所述第一数据表示生成的所述预测模型进行比较以确定它们是否匹配;和(h)软件模块,其被配置为如果所述第二数据表示匹配从所述第一数据表示生成的所述预测模型,则确认身份识别匹配。在一些实施方式中,所述系统还包括软件模块,所述软件模块被配置为如果在所述软件模块配置为将所述第二数据表示与从所述第一数据表示生成的所述预测模型进行比较之后所述第二数据表示与从所述第一数据表示生成的所述预测模型不匹配,则拒绝所述身份识别匹配。在一些实施方式中,所述系统还包括软件模块,所述软件模块被配置为如果在将所述第二数据表示与从所述第一数据表示生成的所述预测模型进行比较之后,所述第二数据表示与从所述第一数据表示生成的所述预测模型不匹配,则从来自所述第一距离或第二距离的所述用户的面部图像或图像集捕获一个或多个附加数据表示,并将所述捕获的一个或多个附加数据表示与从所述第一数据表示生成的所述预测模型进行比较以确定它们是否匹配。在一些实施方式中,所述系统还包括软件模块,所述软件模块被配置为如果所述一个或多个附加数据表示匹配从所述第一数据表示生成的所述预测模型,则确认附加数据表示身份识别匹配。在一些实施方式中,所述系统还包括软件模块,所述软件模块被配置为如果所述一个或多个附加数据表示与从所述第一数据表示生成的所述预测模型不匹配,则拒绝附加数据表示身份识别匹配。在一些实施方式中,所述系统还包括软件模块,所述软件模块被配置为如果所述第二数据表示与从所述第一数据表示生成的所述预测模型不匹配,则比较附加数据以确定在所述第一距离处呈现所述面部图像或图像集的所述用户是否与在所述第二距离处呈现所述面部图像或图像集的所述用户匹配。在一些实施方式中,附加数据包括姓名、密码、身份号码、地址、地理位置、设备ID、在所述移动设备上所述用户的软件环境的唯一数据特征、其他生物特征数据、用户数据的预测模型或生物特征数据、其他数据或其任何组合。在一些实施方式中,所述系统还包括:(a)软件模块,其被配置为将所述第二数据表示处理成预测模型,所述预测模型估计所述用户的面部图像或图像集在所述用户的面部与所述相机之间的其他距离或方向上的所述数据表示;(b)软件模块,其被配置为将所述第一数据表示与从所述第二数据表示生成的所述预测模型进行比较以确定它们是否匹配;和(c)软件模块,其被配置为如果所述第一数据表示匹配从所述第二数据表示生成的所述预测模型,则确认身份识别匹配。在一些实施方式中,被配置为将所述第一数据表示与从所述第二数据表示生成的所述预测模型进行比较的所述软件模块包括匹配架构配置。在一些实施方式中,被配置为将预测模型与数据表示进行比较的任何软件模块包括将从第一数据表示生成的预测模型与第二数据表示进行比较,将从第二数据表示生成的预测模型与第一数据表示进行比较,或其任何组合。在一些实施方式中,匹配架构的所述配置随着连续匹配练习而改变,或者随着某些连续匹配练习而不是其他而改变,其中改变能够在匹配练习之间随机化,或者基于非随机化的确定数据或协议,或者可能不会改变。在一些实施方式中,对匹配架构的所述配置的改变基于在匹配练习之间随机化的改变、基于非随机化确定数据或协议的改变或其任何组合。在一些实施方式中,所述匹配架构配置不改变。在一些实施方式中,所述系统还包括用于捕获所述第一数据表示和/或第二数据表示的引导用户界面。在一些实施方式中,从所述引导用户界面捕获的信息用于匹配练习。在一些实施方式中,所述系统还包括:(a)软件模块,其被配置为从所述移动设备上的一个或多个传感器记录所述用户的面部图像或图像集在所述第一距离处被所述相机记录时的运动和/或位置数据;(b)软件模块,其被配置为从所述移动设备上的一个或多个传感器记录所述用户的面部图像或图像集在所述第二距离处被所述相机记录时的运动和/或位置数据;(c)软件模块,其被配置为将在所述第一距离处记录的所述运动和/或位置数据和来自所述第二距离的运动和/或位置数据与从所述第一数据表示生成的所述预测模型和所述第二数据表示进行比较;和(d)软件模块,其被配置为如果(I)所述第二数据表示与从所述第一数据表示预测建模生成的所述预测模型匹配;(II)所述运动和/或位置数据与归因于所述移动设备相对于所述用户的面部的位置的预期运动和/或位置数据相匹配,则确认身份识别匹配。在一些实施方式中,在所述第一数据表示的记录时间和所述第二数据表示的记录时间之间连续地或以多个间隔记录所述运动和/或位置数据。在一些实施方式中,所述系统还包括软件模块,所述软件模块被配置为比较(I)在所述第一数据表示的记录时间和所述第二数据表示的记录时间之间连续地或以多个间隔记录所述运动和/或位置数据与(II)从所述第一数据表示生成的所述预测模型和所述第二数据表示。在一些实施方式中,所述系统还包括软件模块,所述软件模块被配置为如果(I)所述第二数据表示与从所述第一数据表示生成的所述预测模型相匹配;以及(II)连续或以多个间隔记录的所述运动和/或位置数据与归因于所述移动设备相对于所述用户的面部的位置的预期运动和/或位置数据相匹配,则确认身份识别匹配。在一些实施方式中,所述系统还包括:(a)软件模块,其被配置为从所述移动设备上的一个或多个传感器记录在所述用户的面部图像或图像集在所述第一距离处被所述相机记录时的运动和/或位置数据;(b)软件模块,其被配置为从所述移动设备上的一个或多个传感器记录在所述用户的面部图像或图像集在所述第二距离处被所述相机记录时的运动和/或位置数据;(c)软件模块,其被配置为将在所述第一距离处记录的所述运动和/或位置数据和来自所述第二距离的运动和/或位置数据与从所述第二数据表示生成的所述预测模型和所述第一数据表示进行比较;和(d)软件模块,其被配置为如果(I)所述第一数据表示与从所述第二数据表示预测建模生成的所述预测模型相匹配;(II)所述运动和/或位置数据与归因于所述移动设备相对于所述用户的面部的位置的预期运动和/或位置数据相匹配,则确认身份识别匹配。在一些实施方式中,在所述第一数据表示的记录时间和所述第二数据表示的记录时间之间连续地或以多个间隔记录所述运动和/或位置数据。在一些实施方式中,所述系统还包括软件模块,所述软件模块被配置为比较(I)在所述第一数据表示的记录时间和所述第二数据表示的记录时间之间连续地或以多个间隔记录所述运动和/或位置数据与(II)从所述第二数据表示生成的所述预测模型和所述第一数据表示。在一些实施方式中,所述系统还包括软件模块,所述软件模块被配置为如果(I)所述第一数据表示与从所述第二数据表示生成的所述预测模型相匹配;以及(II)连续或以多个间隔记录的所述运动和/或位置数据与归因于所述移动设备相对于所述用户的面部的位置的预期运动和/或位置数据相匹配,则确认身份识别匹配。
在又一方面,本文公开了一种使用计算机程序编码的非暂时性计算机可读存储介质,所述计算机程序包括可由一个或多个处理器执行以创建用于使用移动设备的相机检测生物特征身份识别的欺骗的应用的指令,所述应用包括:(a)软件模块,其被配置为记录用户在第一距离处的面部图像或图像集;(b)软件模块,其被配置为使用算法处理在所述第一距离处的所述用户的面部图像或图像集,以生成所述用户的图像或图像集的第一数据表示;(c)软件模块,其被配置为将所述第一数据表示处理成预测模型,所述预测模型估计所述用户的面部图像或图像集在所述用户的面部与所述相机之间的其他距离或方向上的所述数据表示;(d)软件模块,其被配置为改变所述用户的面部与所述相机之间的所述距离,其中改变所述距离包括增加所述用户的面部与所述相机之间的所述距离,减小所述用户的面部与所述相机之间的所述距离,改变所述相机相对于所述用户的面部的方向,改变所述用户的面部相对于所述相机的所述方向,或其任意组合;(e)软件模块,其被配置为记录所述用户在第二距离处的面部图像或图像集;(f)软件模块,其被配置为使用算法处理在所述第二距离处的所述用户的面部图像或图像集以生成所述用户的第二图像或图像集的第二数据表示;(g)软件模块,其被配置为将所述第二数据表示与从所述第一数据表示生成的所述预测模型进行比较以确定它们是否匹配;和(h)软件模块,其被配置为如果所述第二数据表示匹配从所述第一数据表示生成的所述预测模型,则确认身份识别匹配。在一些实施方式中,所述介质还包括软件模块,所述软件模块被配置为如果在所述软件模块配置为将所述第二数据表示与从所述第一数据表示生成的所述预测模型进行比较之后所述第二数据表示与从所述第一数据表示生成的所述预测模型不匹配,则拒绝所述身份识别匹配。在一些实施方式中,所述介质还包括软件模块,所述软件模块被配置为如果在将所述第二数据表示与从所述第一数据表示生成的所述预测模型进行比较之后,所述第二数据表示与从所述第一数据表示生成的所述预测模型不匹配,则从来自所述第一距离或第二距离的所述用户的面部图像或图像集捕获一个或多个附加数据表示,并将所述捕获的一个或多个附加数据表示与从所述第一数据表示生成的所述预测模型进行比较以确定它们是否匹配。在一些实施方式中,所述介质还包括软件模块,所述软件模块被配置为如果所述一个或多个附加数据表示匹配从所述第一数据表示生成的所述预测模型,则确认附加数据表示身份识别匹配。在一些实施方式中,所述介质还包括软件模块,所述软件模块被配置为如果所述一个或多个附加数据表示与从所述第一数据表示生成的所述预测模型不匹配,则拒绝附加数据表示身份识别匹配。在一些实施方式中,所述介质还包括软件模块,所述软件模块被配置为如果所述第二数据表示与从所述第一数据表示生成的所述预测模型不匹配,则比较附加数据以确定在所述第一距离处呈现所述面部图像或图像集的所述用户是否与在所述第二距离处呈现所述面部图像或图像集的所述用户匹配。在一些实施方式中,附加数据包括姓名、密码、身份号码、地址、地理位置、设备ID、在所述移动设备上所述用户的软件环境的唯一数据特征、其他生物特征数据、用户数据的预测模型或生物特征数据、其他数据或其任何组合。在一些实施方式中,所述介质还包括:(a)软件模块,其被配置为将所述第二数据表示处理成预测模型,所述预测模型估计所述用户的面部图像或图像集在所述用户的面部与所述相机之间的其他距离或方向上的所述数据表示;(b)软件模块,其被配置为将所述第一数据表示与从所述第二数据表示生成的所述预测模型进行比较以确定它们是否匹配;和(c)软件模块,其被配置为如果所述第一数据表示匹配从所述第二数据表示生成的所述预测模型,则确认身份识别匹配。在一些实施方式中,被配置为将所述第一数据表示与从所述第二数据表示生成的所述预测模型进行比较的所述软件模块包括匹配架构配置。在一些实施方式中,被配置为将预测模型与数据表示进行比较的任何软件模块包括将从第一数据表示生成的预测模型与第二数据表示进行比较,将从第二数据表示生成的预测模型与第一数据表示进行比较,或其任何组合。在一些实施方式中,匹配架构的所述配置随着连续匹配练习而改变,或者随着某些连续匹配练习而不是其他而改变,其中改变能够在匹配练习之间随机化,或者基于非随机化的确定数据或协议,或者可能不会改变。在一些实施方式中,对匹配架构的所述配置的改变基于在匹配练习之间随机化的改变、基于非随机化确定数据或协议的改变或其任何组合。在一些实施方式中,所述匹配架构配置不改变。在一些实施方式中,所述介质还包括用于捕获所述第一数据表示和/或第二数据表示的引导用户界面。在一些实施方式中,从所述引导用户界面捕获的信息用于匹配练习。在一些实施方式中,所述介质还包括:(a)软件模块,其被配置为从所述移动设备上的一个或多个传感器记录所述用户的面部图像或图像集在所述第一距离处被所述相机记录时的运动和/或位置数据;(b)软件模块,其被配置为从所述移动设备上的一个或多个传感器记录所述用户的面部图像或图像集在所述第二距离处被所述相机记录时的运动和/或位置数据;(c)软件模块,其被配置为将在所述第一距离处记录的所述运动和/或位置数据和来自所述第二距离的运动和/或位置数据与从所述第一数据表示生成的所述预测模型和所述第二数据表示进行比较;和(d)软件模块,其被配置为如果(I)所述第二数据表示与从所述第一数据表示预测建模生成的所述预测模型匹配;(II)所述运动和/或位置数据与归因于所述移动设备相对于所述用户的面部的位置的预期运动和/或位置数据相匹配,则确认身份识别匹配。在一些实施方式中,在所述第一数据表示的记录时间和所述第二数据表示的记录时间之间连续地或以多个间隔记录所述运动和/或位置数据。在一些实施方式中,所述介质还包括软件模块,所述软件模块被配置为比较(I)在所述第一数据表示的记录时间和所述第二数据表示的记录时间之间连续地或以多个间隔记录所述运动和/或位置数据与(II)从所述第一数据表示生成的所述预测模型和所述第二数据表示。在一些实施方式中,所述介质还包括软件模块,所述软件模块被配置为如果(I)所述第二数据表示与从所述第一数据表示生成的所述预测模型相匹配;以及(II)连续或以多个间隔记录的所述运动和/或位置数据与归因于所述移动设备相对于所述用户的面部的位置的预期运动和/或位置数据相匹配,则确认身份识别匹配。在一些实施方式中,所述介质还包括:a)软件模块,其被配置为从所述移动设备上的一个或多个传感器记录在所述用户的面部图像或图像集在所述第一距离处被所述相机记录时的运动和/或位置数据;b)软件模块,其被配置为从所述移动设备上的一个或多个传感器记录在所述用户的面部图像或图像集在所述第二距离处被所述相机记录时的运动和/或位置数据;c)软件模块,其被配置为将在所述第一距离处记录的所述运动和/或位置数据和来自所述第二距离的运动和/或位置数据与从所述第二数据表示生成的所述预测模型和所述第一数据表示进行比较;和d)软件模块,其被配置为如果(I)所述第一数据表示与从所述第二数据表示预测建模生成的所述预测模型相匹配;(II)所述运动和/或位置数据与归因于所述移动设备相对于所述用户的面部的位置的预期运动和/或位置数据相匹配,则确认身份识别匹配。在一些实施方式中,在所述第一数据表示的记录时间和所述第二数据表示的记录时间之间连续地或以多个间隔记录所述运动和/或位置数据。在一些实施方式中,所述介质还包括软件模块,所述软件模块被配置为比较(I)在所述第一数据表示的记录时间和所述第二数据表示的记录时间之间连续地或以多个间隔记录所述运动和/或位置数据与(II)从所述第二数据表示生成的所述预测模型和所述第一数据表示。在一些实施方式中,所述介质还包括软件模块,所述软件模块被配置为如果(I)所述第一数据表示与从所述第二数据表示生成的所述预测模型相匹配;以及(II)连续或以多个间隔记录的所述运动和/或位置数据与归因于所述移动设备相对于所述用户的面部的位置的预期运动和/或位置数据相匹配,则确认身份识别匹配。
附图说明
通过参考以下阐述示例性实施方式和附图的详细描述,将获得对本主题的特征和优点的更好理解,其中:
图1示出了计算设备的非限制性示例;在这种情况下,根据本文的实施方式,设备具有一个或多个处理器、存储器、存储装置和网络接口;
图2示出了网络/移动应用供应系统的非限制性示例;在这种情况下,根据本文的实施方式,系统提供基于浏览器和/或本地移动用户界面;
图3示出了基于云的网络/移动应用供应系统的非限制性示例;在这种情况下,根据本文的实施方式,系统包括弹性负载平衡、自动缩放的网络服务器和应用服务器资源以及同步复制的数据库;
图4示出了根据本文的实施方式的第一和第二数据预测匹配架构的非限制性示例;
图5示出了根据本文的实施方式的连续数据预测匹配架构的非限制性示例;以及
图6示出了连续数据预测匹配架构的非限制性示例;在这种情况下,根据本文的实施方式,架构使用多个过去的帧。
具体实施方式
在一个方面,本文公开了一种使用移动设备的相机检测生物特征身份识别的欺骗的计算机实现方法,所述方法包括:(a)通过相机在记录用户第一距离处的面部图像或图像集;(b)使用算法处理在所述第一距离处的所述用户的面部图像或图像集,以生成所述用户的图像或图像集的第一数据表示;(c)将所述第一数据表示处理成预测模型,所述预测模型估计所述用户的面部图像或图像集在所述用户的面部与所述相机之间的其他距离或方向上的所述数据表示;(d)改变所述用户的面部与所述相机之间的所述距离,其中改变所述距离包括增加所述用户的面部与所述相机之间的所述距离,减小所述用户的面部与所述相机之间的所述距离,改变所述相机相对于所述用户的面部的方向,改变所述用户的面部相对于所述相机的所述方向,或其任意组合;(e)通过所述相机记录所述用户在第二距离处的面部图像或图像集;(f)使用算法处理在所述第二距离处的所述用户的面部图像或图像集以生成所述用户的第二图像或图像集的第二数据表示;(g)将所述第二数据表示与从所述第一数据表示生成的所述预测模型进行比较以确定它们是否匹配;以及(h)如果所述第二数据表示匹配从所述第一数据表示生成的所述预测模型,则确认身份识别匹配。在一些实施方式中,所述方法还包括如果在将所述第二数据表示与从所述第一数据表示生成的所述预测模型进行比较之后所述第二数据表示与从所述第一数据表示生成的所述预测模型不匹配,则拒绝所述身份识别匹配。在一些实施方式中,所述方法还包括如果所述一个或多个附加数据表示匹配从所述第一数据表示生成的所述预测模型,则确认附加数据表示身份识别匹配。在一些实施方式中,所述方法还包括如果所述一个或多个附加数据表示与从所述第一数据表示生成的所述预测模型不匹配,则拒绝附加数据表示身份识别匹配。在一些实施方式中,所述方法还包括如果所述第二数据表示与从所述第一数据表示生成的所述预测模型不匹配,则比较附加数据以确定在所述第一距离处呈现所述面部图像或图像集的所述用户是否与在所述第二距离处呈现所述面部图像或图像集的所述用户匹配。在一些实施方式中,附加数据包括姓名、密码、身份号码、地址、地理位置、设备ID、在所述移动设备上所述用户的软件环境的唯一数据特征、其他生物特征数据、用户数据的预测模型或生物特征数据、其他数据或其任何组合。在一些实施方式中,所述方法还包括:(a)将所述第二数据表示处理成预测模型,所述预测模型估计所述用户的面部图像或图像集在所述用户的面部与所述相机之间的其他距离或方向上的所述数据表示;(b)将所述第一数据表示与从所述第二数据表示生成的所述预测模型进行比较以确定它们是否匹配;(c)如果所述第一数据表示匹配从所述第二数据表示生成的所述预测模型,则确认身份识别匹配。在一些实施方式中,预测模型与数据表示的所述比较包括配置匹配架构。在一些实施方式中,预测模型与数据表示的所述比较包括将从第一数据表示生成的预测模型与第二数据表示进行比较,将从第二数据表示生成的预测模型与第一数据表示进行比较,或其任何组合。在一些实施方式中,匹配架构的所述配置随着连续匹配练习而改变,或者随着某些连续匹配练习而不是其他而改变,其中改变能够在匹配练习之间随机化,或者基于非随机化的确定数据或协议,或者可能不会改变。在一些实施方式中,对匹配架构的所述配置的改变基于在匹配练习之间随机化的改变、基于非随机化确定数据或协议的改变或其任何组合。在一些实施方式中,匹配架构的所述配置不改变。在一些实施方式中,使用引导用户界面来捕获所述第一数据表示和/或第二数据表示。在一些实施方式中,从所述引导用户界面捕获的信息用于匹配练习。所述方法还包括:(a)从所述移动设备上的一个或多个传感器记录所述用户的面部图像或图像集在所述第一距离处被所述相机记录时的运动和/或位置数据;(b)从所述移动设备上的一个或多个传感器记录所述用户的面部图像或图像集在所述第二距离处被所述相机记录时的运动和/或位置数据;(c)将在所述第一距离处记录的所述运动和/或位置数据和来自所述第二距离的运动和/或位置数据与从所述第一数据表示生成的所述预测模型和所述第二数据表示进行比较;以及(d)如果(I)所述第二数据表示与从所述第一数据表示预测建模生成的所述预测模型匹配;(II)所述运动和/或位置数据与归因于所述移动设备相对于所述用户的面部的位置的预期运动和/或位置数据相匹配,则确认身份识别匹配。在一些实施方式中,在所述第一数据表示的记录时间和所述第二数据表示的记录时间之间连续地或以多个间隔记录所述运动和/或位置数据。在一些实施方式中,所述方法还包括比较(I)在所述第一数据表示的记录时间和所述第二数据表示的记录时间之间连续地或以多个间隔记录所述运动和/或位置数据与(II)从所述第一数据表示生成的所述预测模型和所述第二数据表示。在一些实施方式中,所述方法还包括如果(I)所述第二数据表示与从所述第一数据表示生成的所述预测模型相匹配;以及(II)连续或以多个间隔记录的所述运动和/或位置数据与归因于所述移动设备相对于所述用户的面部的位置的预期运动和/或位置数据相匹配,则确认身份识别匹配。
在另一方面,本文公开了一种计算机实现的系统,包括计算设备,所述计算设备包括至少一个处理器、被配置为执行可执行指令的操作系统、存储器、以及包括可由所述计算设备执行以创建用于使用移动设备的相机检测生物特征身份识别的欺骗的应用的指令的计算机程序,所述应用包括:(a)软件模块,其被配置为记录用户在第一距离处的面部图像或图像集;(b)软件模块,其被配置为使用算法处理在所述第一距离处的所述用户的面部图像或图像集,以生成所述用户的图像或图像集的第一数据表示;(c)软件模块,其被配置为将所述第一数据表示处理成预测模型,所述预测模型估计所述用户的面部图像或图像集在所述用户的面部与所述相机之间的其他距离或方向上的所述数据表示;(d)软件模块,其被配置为改变所述用户的面部与所述相机之间的所述距离,其中改变所述距离包括增加所述用户的面部与所述相机之间的所述距离,减小所述用户的面部与所述相机之间的所述距离,改变所述相机相对于所述用户的面部的方向,改变所述用户的面部相对于所述相机的所述方向,或其任意组合;(e)软件模块,其被配置为记录所述用户在第二距离处的面部图像或图像集;(f)软件模块,其被配置为使用算法处理在所述第二距离处的所述用户的面部图像或图像集以生成所述用户的第二图像或图像集的第二数据表示;(g)软件模块,其被配置为将所述第二数据表示与从所述第一数据表示生成的所述预测模型进行比较以确定它们是否匹配;和(h)软件模块,其被配置为如果所述第二数据表示匹配从所述第一数据表示生成的所述预测模型,则确认身份识别匹配。在一些实施方式中,所述系统还包括软件模块,所述软件模块被配置为如果在所述软件模块配置为将所述第二数据表示与从所述第一数据表示生成的所述预测模型进行比较之后所述第二数据表示与从所述第一数据表示生成的所述预测模型不匹配,则拒绝所述身份识别匹配。在一些实施方式中,所述系统还包括软件模块,所述软件模块被配置为如果在将所述第二数据表示与从所述第一数据表示生成的所述预测模型进行比较之后,所述第二数据表示与从所述第一数据表示生成的所述预测模型不匹配,则从来自所述第一距离或第二距离的所述用户的面部图像或图像集捕获一个或多个附加数据表示,并将所述捕获的一个或多个附加数据表示与从所述第一数据表示生成的所述预测模型进行比较以确定它们是否匹配。在一些实施方式中,所述系统还包括软件模块,所述软件模块被配置为如果所述一个或多个附加数据表示匹配从所述第一数据表示生成的所述预测模型,则确认附加数据表示身份识别匹配。在一些实施方式中,所述系统还包括软件模块,所述软件模块被配置为如果所述一个或多个附加数据表示与从所述第一数据表示生成的所述预测模型不匹配,则拒绝附加数据表示身份识别匹配。在一些实施方式中,所述系统还包括软件模块,所述软件模块被配置为如果所述第二数据表示与从所述第一数据表示生成的所述预测模型不匹配,则比较附加数据以确定在所述第一距离处呈现所述面部图像或图像集的所述用户是否与在所述第二距离处呈现所述面部图像或图像集的所述用户匹配。在一些实施方式中,附加数据包括姓名、密码、身份号码、地址、地理位置、设备ID、在所述移动设备上所述用户的软件环境的唯一数据特征、其他生物特征数据、用户数据的预测模型或生物特征数据、其他数据或其任何组合。在一些实施方式中,所述系统还包括:(a)软件模块,其被配置为将所述第二数据表示处理成预测模型,所述预测模型估计所述用户的面部图像或图像集在所述用户的面部与所述相机之间的其他距离或方向上的所述数据表示;(b)软件模块,其被配置为将所述第一数据表示与从所述第二数据表示生成的所述预测模型进行比较以确定它们是否匹配;和(c)软件模块,其被配置为如果所述第一数据表示匹配从所述第二数据表示生成的所述预测模型,则确认身份识别匹配。在一些实施方式中,被配置为将所述第一数据表示与从所述第二数据表示生成的所述预测模型进行比较的所述软件模块包括匹配架构配置。在一些实施方式中,被配置为将预测模型与数据表示进行比较的任何软件模块包括将从第一数据表示生成的预测模型与第二数据表示进行比较,将从第二数据表示生成的预测模型与第一数据表示进行比较,或其任何组合。在一些实施方式中,匹配架构的所述配置随着连续匹配练习而改变,或者随着某些连续匹配练习而不是其他而改变,其中改变能够在匹配练习之间随机化,或者基于非随机化的确定数据或协议,或者可能不会改变。在一些实施方式中,对匹配架构的所述配置的改变基于在匹配练习之间随机化的改变、基于非随机化确定数据或协议的改变或其任何组合。在一些实施方式中,所述匹配架构配置不改变。在一些实施方式中,所述系统还包括用于捕获所述第一数据表示和/或第二数据表示的引导用户界面。在一些实施方式中,从所述引导用户界面捕获的信息用于匹配练习。在一些实施方式中,所述系统还包括:(a)软件模块,其被配置为从所述移动设备上的一个或多个传感器记录所述用户的面部图像或图像集在所述第一距离处被所述相机记录时的运动和/或位置数据;(b)软件模块,其被配置为从所述移动设备上的一个或多个传感器记录所述用户的面部图像或图像集在所述第二距离处被所述相机记录时的运动和/或位置数据;(c)软件模块,其被配置为将在所述第一距离处记录的所述运动和/或位置数据和来自所述第二距离的运动和/或位置数据与从所述第一数据表示生成的所述预测模型和所述第二数据表示进行比较;和(d)软件模块,其被配置为如果(I)所述第二数据表示与从所述第一数据表示预测建模生成的所述预测模型匹配;(II)所述运动和/或位置数据与归因于所述移动设备相对于所述用户的面部的位置的预期运动和/或位置数据相匹配,则确认身份识别匹配。在一些实施方式中,在所述第一数据表示的记录时间和所述第二数据表示的记录时间之间连续地或以多个间隔记录所述运动和/或位置数据。在一些实施方式中,所述系统还包括软件模块,所述软件模块被配置为比较(I)在所述第一数据表示的记录时间和所述第二数据表示的记录时间之间连续地或以多个间隔记录所述运动和/或位置数据与(II)从所述第一数据表示生成的所述预测模型和所述第二数据表示。在一些实施方式中,所述系统还包括软件模块,所述软件模块被配置为如果(I)所述第二数据表示与从所述第一数据表示生成的所述预测模型相匹配;以及(II)连续或以多个间隔记录的所述运动和/或位置数据与归因于所述移动设备相对于所述用户的面部的位置的预期运动和/或位置数据相匹配,则确认身份识别匹配。在一些实施方式中,所述系统还包括:(a)软件模块,其被配置为从所述移动设备上的一个或多个传感器记录在所述用户的面部图像或图像集在所述第一距离处被所述相机记录时的运动和/或位置数据;(b)软件模块,其被配置为从所述移动设备上的一个或多个传感器记录在所述用户的面部图像或图像集在所述第二距离处被所述相机记录时的运动和/或位置数据;(c)软件模块,其被配置为将在所述第一距离处记录的所述运动和/或位置数据和来自所述第二距离的运动和/或位置数据与从所述第二数据表示生成的所述预测模型和所述第一数据表示进行比较;和(d)软件模块,其被配置为如果(I)所述第一数据表示与从所述第二数据表示预测建模生成的所述预测模型相匹配;(II)所述运动和/或位置数据与归因于所述移动设备相对于所述用户的面部的位置的预期运动和/或位置数据相匹配,则确认身份识别匹配。在一些实施方式中,在所述第一数据表示的记录时间和所述第二数据表示的记录时间之间连续地或以多个间隔记录所述运动和/或位置数据。在一些实施方式中,所述系统还包括软件模块,所述软件模块被配置为比较(I)在所述第一数据表示的记录时间和所述第二数据表示的记录时间之间连续地或以多个间隔记录所述运动和/或位置数据与(II)从所述第二数据表示生成的所述预测模型和所述第一数据表示。在一些实施方式中,所述系统还包括软件模块,所述软件模块被配置为如果(I)所述第一数据表示与从所述第二数据表示生成的所述预测模型相匹配;以及(II)连续或以多个间隔记录的所述运动和/或位置数据与归因于所述移动设备相对于所述用户的面部的位置的预期运动和/或位置数据相匹配,则确认身份识别匹配。
在又一方面,本文公开了一种使用计算机程序编码的非暂时性计算机可读存储介质,所述计算机程序包括可由一个或多个处理器执行以创建用于使用移动设备的相机检测生物特征身份识别的欺骗的应用的指令,所述应用包括:(a)软件模块,其被配置为记录用户在第一距离处的面部图像或图像集;(b)软件模块,其被配置为使用算法处理在所述第一距离处的所述用户的面部图像或图像集,以生成所述用户的图像或图像集的第一数据表示;(c)软件模块,其被配置为将所述第一数据表示处理成预测模型,所述预测模型估计所述用户的面部图像或图像集在所述用户的面部与所述相机之间的其他距离或方向上的所述数据表示;(d)软件模块,其被配置为改变所述用户的面部与所述相机之间的所述距离,其中改变所述距离包括增加所述用户的面部与所述相机之间的所述距离,减小所述用户的面部与所述相机之间的所述距离,改变所述相机相对于所述用户的面部的方向,改变所述用户的面部相对于所述相机的所述方向,或其任意组合;(e)软件模块,其被配置为记录所述用户在第二距离处的面部图像或图像集;(f)软件模块,其被配置为使用算法处理在所述第二距离处的所述用户的面部图像或图像集以生成所述用户的第二图像或图像集的第二数据表示;(g)软件模块,其被配置为将所述第二数据表示与从所述第一数据表示生成的所述预测模型进行比较以确定它们是否匹配;和(h)软件模块,其被配置为如果所述第二数据表示匹配从所述第一数据表示生成的所述预测模型,则确认身份识别匹配。在一些实施方式中,所述介质还包括软件模块,所述软件模块被配置为如果在所述软件模块配置为将所述第二数据表示与从所述第一数据表示生成的所述预测模型进行比较之后所述第二数据表示与从所述第一数据表示生成的所述预测模型不匹配,则拒绝所述身份识别匹配。在一些实施方式中,所述介质还包括软件模块,所述软件模块被配置为如果在将所述第二数据表示与从所述第一数据表示生成的所述预测模型进行比较之后,所述第二数据表示与从所述第一数据表示生成的所述预测模型不匹配,则从来自所述第一距离或第二距离的所述用户的面部图像或图像集捕获一个或多个附加数据表示,并将所述捕获的一个或多个附加数据表示与从所述第一数据表示生成的所述预测模型进行比较以确定它们是否匹配。在一些实施方式中,所述介质还包括软件模块,所述软件模块被配置为如果所述一个或多个附加数据表示匹配从所述第一数据表示生成的所述预测模型,则确认附加数据表示身份识别匹配。在一些实施方式中,所述介质还包括软件模块,所述软件模块被配置为如果所述一个或多个附加数据表示与从所述第一数据表示生成的所述预测模型不匹配,则拒绝附加数据表示身份识别匹配。在一些实施方式中,所述介质还包括软件模块,所述软件模块被配置为如果所述第二数据表示与从所述第一数据表示生成的所述预测模型不匹配,则比较附加数据以确定在所述第一距离处呈现所述面部图像或图像集的所述用户是否与在所述第二距离处呈现所述面部图像或图像集的所述用户匹配。在一些实施方式中,附加数据包括姓名、密码、身份号码、地址、地理位置、设备ID、在所述移动设备上所述用户的软件环境的唯一数据特征、其他生物特征数据、用户数据的预测模型或生物特征数据、其他数据或其任何组合。在一些实施方式中,所述介质还包括:(a)软件模块,其被配置为将所述第二数据表示处理成预测模型,所述预测模型估计所述用户的面部图像或图像集在所述用户的面部与所述相机之间的其他距离或方向上的所述数据表示;(b)软件模块,其被配置为将所述第一数据表示与从所述第二数据表示生成的所述预测模型进行比较以确定它们是否匹配;和(c)软件模块,其被配置为如果所述第一数据表示匹配从所述第二数据表示生成的所述预测模型,则确认身份识别匹配。在一些实施方式中,被配置为将所述第一数据表示与从所述第二数据表示生成的所述预测模型进行比较的所述软件模块包括匹配架构配置。在一些实施方式中,被配置为将预测模型与数据表示进行比较的任何软件模块包括将从第一数据表示生成的预测模型与第二数据表示进行比较,将从第二数据表示生成的预测模型与第一数据表示进行比较,或其任何组合。在一些实施方式中,匹配架构的所述配置随着连续匹配练习而改变,或者随着某些连续匹配练习而不是其他而改变,其中改变能够在匹配练习之间随机化,或者基于非随机化的确定数据或协议,或者可能不会改变。在一些实施方式中,对匹配架构的所述配置的改变基于在匹配练习之间随机化的改变、基于非随机化确定数据或协议的改变或其任何组合。在一些实施方式中,所述匹配架构配置不改变。在一些实施方式中,所述介质还包括用于捕获所述第一数据表示和/或第二数据表示的引导用户界面。在一些实施方式中,从所述引导用户界面捕获的信息用于匹配练习。在一些实施方式中,所述介质还包括:(a)软件模块,其被配置为从所述移动设备上的一个或多个传感器记录所述用户的面部图像或图像集在所述第一距离处被所述相机记录时的运动和/或位置数据;(b)软件模块,其被配置为从所述移动设备上的一个或多个传感器记录所述用户的面部图像或图像集在所述第二距离处被所述相机记录时的运动和/或位置数据;(c)软件模块,其被配置为将在所述第一距离处记录的所述运动和/或位置数据和来自所述第二距离的运动和/或位置数据与从所述第一数据表示生成的所述预测模型和所述第二数据表示进行比较;和(d)软件模块,其被配置为如果(I)所述第二数据表示与从所述第一数据表示预测建模生成的所述预测模型匹配;(II)所述运动和/或位置数据与归因于所述移动设备相对于所述用户的面部的位置的预期运动和/或位置数据相匹配,则确认身份识别匹配。在一些实施方式中,在所述第一数据表示的记录时间和所述第二数据表示的记录时间之间连续地或以多个间隔记录所述运动和/或位置数据。在一些实施方式中,所述介质还包括软件模块,所述软件模块被配置为比较(I)在所述第一数据表示的记录时间和所述第二数据表示的记录时间之间连续地或以多个间隔记录所述运动和/或位置数据与(II)从所述第一数据表示生成的所述预测模型和所述第二数据表示。在一些实施方式中,所述介质还包括软件模块,所述软件模块被配置为如果(I)所述第二数据表示与从所述第一数据表示生成的所述预测模型相匹配;以及(II)连续或以多个间隔记录的所述运动和/或位置数据与归因于所述移动设备相对于所述用户的面部的位置的预期运动和/或位置数据相匹配,则确认身份识别匹配。在一些实施方式中,所述介质还包括:a)软件模块,其被配置为从所述移动设备上的一个或多个传感器记录在所述用户的面部图像或图像集在所述第一距离处被所述相机记录时的运动和/或位置数据;b)软件模块,其被配置为从所述移动设备上的一个或多个传感器记录在所述用户的面部图像或图像集在所述第二距离处被所述相机记录时的运动和/或位置数据;c)软件模块,其被配置为将在所述第一距离处记录的所述运动和/或位置数据和来自所述第二距离的运动和/或位置数据与从所述第二数据表示生成的所述预测模型和所述第一数据表示进行比较;和d)软件模块,其被配置为如果(I)所述第一数据表示与从所述第二数据表示预测建模生成的所述预测模型相匹配;(II)所述运动和/或位置数据与归因于所述移动设备相对于所述用户的面部的位置的预期运动和/或位置数据相匹配,则确认身份识别匹配。在一些实施方式中,在所述第一数据表示的记录时间和所述第二数据表示的记录时间之间连续地或以多个间隔记录所述运动和/或位置数据。在一些实施方式中,所述介质还包括软件模块,所述软件模块被配置为比较(I)在所述第一数据表示的记录时间和所述第二数据表示的记录时间之间连续地或以多个间隔记录所述运动和/或位置数据与(II)从所述第二数据表示生成的所述预测模型和所述第一数据表示。在一些实施方式中,所述介质还包括软件模块,所述软件模块被配置为如果(I)所述第一数据表示与从所述第二数据表示生成的所述预测模型相匹配;以及(II)连续或以多个间隔记录的所述运动和/或位置数据与归因于所述移动设备相对于所述用户的面部的位置的预期运动和/或位置数据相匹配,则确认身份识别匹配。
本文提供了一种使用移动设备的相机检测生物特征身份识别的欺骗的方法,其中:通过相机记录用户在第一距离处的面部图像或图像集;使用算法在第一距离处处理用户的面部图像或图像集,以生成用户的图像或图像集的第一数据表示;将第一数据表示处理成预测模型,所述预测模型估计所述用户的面部图像或图像集在所述用户的面部与所述相机之间的其他距离或方向上的数据表示;用户脸部和相机之间的距离会发生变化,无论是靠近还是远离,和/或随着脸部相对于相机的方向发生变化;通过相机记录用户在第二距离处的面部图像或图像集;使用算法在第二距离处处理用户的面部图像或图像集以生成用户的第二图像或图像集的第二数据表示;将第二数据表示与从第一数据表示生成的预测模型进行比较以确定它们是否匹配;如果第二数据表示与从第一数据表示生成的预测模型相匹配,则确认身份识别匹配。
在该方法的一些实施方式中,在将所述第二数据表示与从所述第一数据表示生成的所述预测模型进行比较之后如果所述第二数据表示与从所述第一数据表示生成的所述预测模型不匹配,则拒绝所述身份识别匹配。
在该方法的一些实施方式中,其中在将所述第二数据表示与从所述第一数据表示生成的所述预测模型进行比较之后,如果所述第二数据表示与从所述第一数据表示生成的所述预测模型不匹配,则允许从所述用户的面部图像或图像集捕获一个或多个附加数据表示,并将所述捕获的一个或多个附加数据表示与从所述第一数据表示生成的所述预测模型进行比较以确定它们是否匹配;以及如果所述一个或多个附加数据表示匹配从所述第一数据表示生成的所述预测模型,则确认附加数据表示身份识别匹配。
在该方法的一些实施方式中,其中在将所述第二数据表示与从所述第一数据表示生成的所述预测模型进行比较之后,如果所述第二数据表示与从所述第一数据表示生成的所述预测模型不匹配,则比较附加数据,例如姓名、密码、身份号码、地址、地理位置、设备ID、在所述移动设备上所述用户的软件环境的唯一数据特征、其他生物特征数据、用户数据的预测模型或生物特征数据、其他数据,以确定在所述第一距离处呈现所述面部图像或图像集的所述用户是否与在所述第二距离处呈现所述面部图像或图像集的所述用户匹配。
在该方法的一些实施方式中,从第二数据表示生成预测模型,并且根据从第二数据表示生成的预测模型和第一数据表示的比较来确定身份识别匹配的确认。
改变数据和软件架构以进行匹配提供了安全优势,其中包括系统并获得对部分或全部软件和/或数据的访问权限的专用攻击者不太能够理解匹配是如何进行,并且不太可能或不能破坏系统和/或重放攻击代表一个或多个用户的用户身份匹配练习,这可能是访问信息或资源的努力的一部分,或导致信息或资源的改变。
在该方法的一些实施方式中,匹配架构的配置,可以来自(a)从第一数据表示生成的预测模型与第二数据表示的比较,或(b)从第二数据表示生成的预测模型与第一数据表示的比较、随着连续匹配练习而改变,或者随着某些连续匹配练习而不是其他而改变,其中改变能够在匹配练习之间随机化,或者基于非随机化的确定数据或协议,或者可能不会改变。
在该方法的一些实施方式中,使用引导用户界面来捕获所述第一数据表示和/或第二数据表示。引导信息用于匹配练习。
在该方法的一些实施方式中,预测建模架构的配置可以来自(a)来自给定数据或数据表示的预测建模以生成和匹配另一数据或数据表示,或(b)来自多于一个的捕获数据或数据表示的预测建模以生成多个预测以匹配多个其他数据或数据表示,其具有第一数据、第二数据和/或用于预测建模以匹配其他数据或数据表示的附加数据。
在该方法的一些实施方式中,可以基于安全级别和执行速度优化预测建模架构的配置,例如在解决数据消耗、文件大小、处理步骤以及其他数据和软件架构特性方面以改变执行速度,在某些情况下,这可能取决于相关的实现安全规范。
在该方法的一些实施方式中,使用包括机器学习、图像分析、深度学习和其他方法的方法训练生成一个或多个预测数据的预测模型。基于从用户收集的真实数据和/或通过图像渲染或本领域已知的图像数据表示的其他技术生成的合成数据来训练预测模型。
在该方法的一些实施方式中,在第一距离处的相机记录用户的面部图像或图像集时,从移动设备上的传感器记录运动和/或位置数据;在第二距离处的相机记录用户的面部图像或图像集时,从移动设备上的传感器记录运动和/或位置数据;将在第一距离处记录的运动和/或位置数据和在第二距离处记录的运动和/或位置数据与从第一数据表示生成的预测模型和第二数据表示进行比较;如果第二数据表示与从第一数据表示生成的预测模型相匹配,并且如果运动和/或位置数据与归因于移动设备相对于用户面部的位置的预期运动和/或位置数据匹配,则确认身份识别匹配,因为在第一数据表示的记录时间和第二数据表示的记录时间之间,所述位置可以随着移动设备的移动和/或用户面部的移动而改变。
在该方法的一些实施例中,在第一数据表示的记录时间和第二数据表示的记录时间之间连续地或以多个间隔记录运动和/或位置数据;将在第一数据表示的记录时间和第二数据表示的记录时间之间连续或以多个间隔记录的运动和/或位置数据与从第一数据表示以及第二数据表示生成的预测模型进行比较;如果第二数据表示与从第一数据表示生成的预测模型相匹配,并且如果连续或以多个间隔记录的运动和/或位置数据与归因于移动设备相对于用户面部的位置的预期的运动和/或位置数据相匹配,则确认身份识别匹配,因为在第一数据表示的记录时间和第二数据表示的记录时间之间,所述位置可以随着移动设备的移动和/或用户面部的移动而改变。
在该方法的一些实施方式中,在第一距离处的相机记录用户的面部图像或图像集时,从移动设备上的传感器记录运动和/或位置数据;在第二距离处的相机记录用户的面部图像或图像集时,从移动设备上的传感器记录运动和/或位置数据;将在第一距离处记录的运动和/或位置数据和在第二距离处记录的运动和/或位置数据与从第二数据表示生成的预测模型和第一数据表示进行比较;如果第一数据表示与从第二数据表示生成的预测模型相匹配,并且如果运动和/或位置数据与归因于移动设备相对于用户面部的位置的预期运动和/或位置数据匹配,则确认身份识别匹配,因为在第一数据表示的记录时间和第二数据表示的记录时间之间,所述位置可以随着移动设备的移动和/或用户面部的移动而改变。
在该方法的一些实施方式中,在第一数据表示的记录时间和第二数据表示的记录时间之间连续地或以多个间隔记录运动和/或位置数据;将在第一数据表示的记录时间和第二数据表示的记录时间之间连续或以多个间隔记录的运动和/或位置数据与从第一数据表示以及第二数据表示生成的预测模型进行比较;如果第一数据表示与从第二数据表示生成的预测模型相匹配,并且如果连续或以多个间隔记录的运动和/或位置数据与归因于移动设备相对于用户面部的位置的预期的运动和/或位置数据相匹配,则确认身份识别匹配,因为在第一数据表示的记录时间和第二数据表示的记录时间之间,所述位置可以随着移动设备的移动和/或用户面部的移动而改变。
术语和定义
除非另有定义,本文使用的所有技术术语与本公开内容所属领域的普通技术人员通常理解的含义相同。
除非另有定义,本文使用的所有技术术语与本发明所属领域的普通技术人员通常理解的含义相同。在本说明书和所附权利要求书中使用的单数形式“一”、“一个”和“该”包括复数形式,除非上下文另有明确规定。除非另有说明,本文中对“或”的任何引用均旨在涵盖“和/或”。
如本文所用,术语“约”是指接近所述量10%、5%或1%的量,包括其中的增量。
如本文所用,关于百分比的术语“约”是指大于或小于所述百分比的量的10%、5%或1%,包括其中的增量。
如本文所用,短语“至少一个”、“一个或多个”和“和/或”是开放式表达,在操作中既是连接的又是分离的。例如,每个表述“A、B和C中的至少一个”、“A、B或C中的至少一个”、“A、B和C中的一个或多个”、“A、B或C中的一个或多个”和“A、B和/或C中的一个或多个”是指单独的A、单独的B、单独的C、A和B一起、A和C一起、B和C一起,或A、B和C一起。
计算系统
参考图1,示出了描绘示例性机器的框图,该示例性机器包括计算机系统100(例如,处理或计算系统),在该计算机系统100中可以执行一组指令以使得设备执行或运行本公开的静态代码调度的任何一个或多个方面和/或方法。图1中的组件仅是示例,并不限制任何硬件、软件、嵌入式逻辑组件或实现特定实施方式的两个或更多个此类组件的组合的使用范围或功能。
计算机系统100可以包括一个或多个处理器101、存储器103和存储108,它们经由总线140彼此通信并与其他组件通信。总线140还可以链接显示器132、一个或多个输入设备133(例如,其可以包括小键盘、键盘、鼠标、触笔等)、一个或多个输出设备134、一个或多个存储设备135和各种有形存储介质136。所有这些元件可以直接或经由一个或多个接口或适配器连接到总线140。例如,各种有形存储介质136可以经由存储介质接口126与总线140对接。计算机系统100可以具有任何合适的物理形式,包括但不限于一个或多个集成电路(IC)、印刷电路板(PCB)、移动手持设备(例如,移动电话或PDA)、膝上型或笔记本计算机、分布式计算机系统、计算网格或服务器。
计算机系统100包括执行功能的一个或多个处理器101(例如,中央处理单元(CPU)或通用图形处理单元(GPGPU))。处理器101可选地包含用于指令、数据或计算机地址的临时本地存储的高速缓存存储器单元102。处理器101被配置为辅助计算机可读指令的执行。作为处理器101执行包含在一个或多个有形计算机可读存储介质(例如,存储器103、存储108、存储设备135和/或存储介质136)中的非暂时性、处理器可执行指令的结果,计算机系统100可以为图1中描绘的组件提供功能。计算机可读介质可以存储实现特定实施方式的软件,并且处理器101可以执行该软件。存储器103可以从一个或多个其他计算机可读介质(例如,大容量存储设备135、136)或通过合适的接口(例如,网络接口120)从一个或多个其他源读取软件。该软件可以导致处理器101执行本文描述或示出的一个或多个进程或一个或多个进程的一个或多个步骤。执行这样的进程或步骤可以包括定义存储在存储器103中的数据结构并按照软件的指示修改数据结构。
存储器103可以包括各种组件(例如,机器可读介质),包括但不限于随机存取存储器组件(例如,RAM 104)(例如,静态RAM(SRAM)、动态RAM(DRAM)、铁电随机存取存储器(FRAM)、相变随机存取存储器(PRAM)等)、只读存储器组件(例如,ROM105)以及它们的任何组合。ROM 105可以用于将数据和指令单向传送到处理器101,并且RAM 104可以用于与处理器101双向传送数据和指令。ROM 105和RAM 104可以包括以下描述的任何合适的有形计算机可读介质。在一个示例中,基本输入/输出系统106(BIOS),包括帮助在计算机系统100内的元件之间传输信息的基本例程,例如在启动期间,可以存储在存储器103中。
固定存储108可选地通过存储控制单元107双向连接到处理器101。固定存储108提供额外的数据存储容量,并且还可以包括本文描述的任何合适的有形计算机可读介质。存储108可用于存储操作系统109、可执行文件110、数据111、应用112(应用程序)等。存储108还可以包括光盘驱动器、固态存储器设备(例如,基于闪存的系统)或以上任何的组合。在适当的情况下,存储108中的信息可以作为虚拟存储器并入存储器103中。
在一个示例中,存储设备135可以经由存储设备接口125与计算机系统100可拆卸地对接(例如,经由外部端口连接器(未示出))。特别地,存储设备135和相关联的机器可读介质可以为计算机系统100提供机器可读指令、数据结构、程序模块和/或其他数据的非易失性和/或易失性存储。在一个示例中,软件可以完全或部分驻留在存储设备135上的机器可读介质内。在另一示例中,软件可以完全或部分驻留在处理器101内。
总线140连接各种子系统。在本文中,在适当的情况下,对总线的引用可包括服务公共功能的一条或多条数字信号线。总线140可以是使用多种总线架构中的任一种的多种类型的总线结构中的任一种,包括但不限于存储器总线、存储器控制器、外围总线、本地总线及其任何组合。作为示例而非限制,此类架构包括工业标准架构(ISA)总线、增强型ISA(EISA)总线、微通道架构(MCA)总线、视频电子标准协会本地总线(VLB)、外围组件互连(PCI)总线、PCI-Express(PCI-X)总线、加速图形端口(AGP)总线、HyperTransport(HTX)总线、串行高级技术附件(SATA)总线及其任意组合。
计算机系统100还可以包括输入设备133。在一个示例中,计算机系统100的用户可以经由输入设备133将命令和/或其他信息输入到计算机系统100中。输入设备的示例133包括但不限于字母数字输入设备(例如,键盘)、定点设备(例如,鼠标或触摸板)、触摸板、触摸屏、多点触摸屏、操纵杆、手写笔、游戏手柄、音频输入设备(例如,麦克风、语音响应系统等)、光学扫描仪、视频或静止图像捕获设备(例如,相机)以及它们的任何组合。在一些实施方式中,输入设备是Kinect、LeapMotion等。输入设备133可以经由各种输入接口123(例如,输入接口123)中的任何一个连接到总线140,包括但不限于串行、并行、游戏端口、USB、FIREWIRE、THUNDERBOLT或以上的任何组合。
在特定实施方式中,当计算机系统100连接到网络130时,计算机系统100可以与连接到网络130的其他设备通信,特别是移动设备和企业系统、分布式计算系统、云存储系统、云计算系统等。去往和来自计算机系统100的通信可以通过网络接口120发送。例如,网络接口120可以以一个或多个分组(例如,互联网协议(IP)分组)从网络130接收传入的通信(例如,来自其他设备的请求或响应),并且计算机系统100可以将传入的通信存储在存储器103中以用于处理。计算机系统100可以类似地在存储器103中以一个或多个分组的形式存储传出的通信(例如,对其他设备的请求或响应)并且将其从网络接口120传送到网络130。处理器101可以访问存储在存储器103中的这些通信分组以用于处理。
网络接口120的示例包括但不限于网络接口卡、调制解调器及其任何组合。网络130或网段130的示例包括但不限于分布式计算系统、云计算系统、广域网(WAN)(例如,因特网、企业网络)、局域网(LAN)(例如,与办公室、建筑物、校园或其他相对较小的地理空间相关联的网络)、电话网络、两个计算设备之间的直接连接、对等网络及其任何组合。网络(例如,网络130)可以采用有线和/或无线通信模式。通常,可以使用任何网络拓扑。
信息和数据可以通过显示器132显示。显示器132的示例包括但不限于阴极射线管(CRT)、液晶显示器(LCD)、薄膜晶体管液晶显示器(TFT-LCD)、有机液晶显示器(OLED),例如无源矩阵OLED(PMOLED)或有源矩阵OLED(AMOLED)显示器、等离子显示器、以及它们的任何组合。显示器132可以经由总线140连接到处理器101、存储器103和固定存储108以及其他设备,例如输入设备133。显示器132经由视频接口122链接到总线140,显示器132和总线140之间的数据传输可以经由图形控制121来控制。在一些实施方式中,显示器是视频投影仪。在一些实施方式中,显示器是头戴式显示器(HMD),例如VR耳机。在进一步的实施方式中,作为非限制性示例,合适的VR耳机包括HTC Vive、Oculus Rift、Samsung GearVR、MicrosoftHoloLens、RazerOSVR、FOVEVR、Zeiss VR One、Avegant Glyph、Freefly VR耳机等。在更进一步的实施方式中,显示器是例如本文公开的那些设备的组合。
除了显示器132之外,计算机系统100可以包括一个或多个其他外围输出设备134,包括但不限于音频扬声器、打印机、存储设备以及它们的任何组合。这样的外围输出设备可以经由输出接口124连接到总线140。输出接口124的示例包括但不限于串行端口、并行连接、USB端口、FIREWIRE端口、THUNDERBOLT端口以及它们的任何组合。
此外,或作为替代,计算机系统100可提供作为硬连线或以其他方式体现在电路中的逻辑的结果的功能,其可代替软件运行或与软件一起运行以执行本文描述或示出的一个或多个进程或一个或多个进程的一个或多个步骤。在本公开中对软件的引用可以包括逻辑,并且对逻辑的引用可以包括软件。此外,在适当的情况下,对计算机可读介质的引用可包括存储用于执行的软件的电路(例如,IC)、包含用于执行的逻辑的电路或两者。本公开包括硬件、软件或两者的任何合适的组合。
本领域技术人员将理解,结合本文公开的实施方式描述的各种示例性逻辑块、模块、电路和算法步骤可以实现为电子硬件、计算机软件或两者的组合。为了清楚地示出硬件和软件的这种可互换性,上面已经根据它们的功能大体描述了各种示例性组件、块、模块、电路和步骤。
结合本文公开的实施方式描述的各种示例性逻辑块、模块和电路可以用旨在执行本文所述的功能的通用处理器、数字信号处理器(DSP)、专用集成电路(ASIC)、现场可编程门阵列(FPGA)或其他可编程逻辑器件、离散门或晶体管逻辑、离散硬件组件或其任何组合实现或执行。通用处理器可以是微处理器,但在替代方案中,处理器可以是任何常规处理器、控制器、微控制器或状态机。处理器还可以实现为计算设备的组合,例如DSP和微处理器的组合、多个微处理器、一个或多个微处理器与DSP核结合,或者任何其他这样的配置。
结合本文所公开的实施方式描述的方法或算法的步骤可以直接体现在硬件中、由一个或多个处理器执行的软件模块中、或者两者的组合中。软件模块可以驻留在RAM存储器、闪存、ROM存储器、EPROM存储器、EEPROM存储器、寄存器、硬盘、可移动磁盘、CD-ROM或本领域已知的任何其他形式的存储介质中。示例性存储介质耦合到处理器,使得处理器可以从存储介质读取信息和向存储介质写入信息。或者,存储介质可以与处理器集成在一起。处理器和存储介质可以驻留在ASIC中。ASIC可以驻留在用户终端中。或者,处理器和存储介质可以作为分立的组件驻留在用户终端中。
依据本文的描述,举非限制性示例而言,合适的计算设备包括服务器计算机、台式计算机、膝上型计算机、笔记本计算机、小型笔记本计算机、上网本计算机、上网平板计算机、机顶盒计算机、媒体串流设备、手持式计算机、因特网设备、移动智能电话、平板计算机、个人数字助理、视频游戏控制台以及载具。本领域技术人员还将认识到,具有可选的计算机网络连通性的选定电视机、视频播放器和数字音乐播放器适合于在本文所描述的系统中使用。在各种实施方式中,合适的平板计算机包括具有本领域中技术人员已知的小册子、平板和可转换配置的那些平板计算机。
在一些实施方式中,计算设备包括被配置用于执行可执行指令的操作系统。操作系统是例如包含程序和数据的软件,其管理设备的硬件并提供用于执行应用程序的服务。本领域技术人员将认识到,举非限制性示例而言,合适的服务器操作系统包括FreeBSD、OpenBSD、
Figure BDA0003351181060000322
Linux、
Figure BDA00033511810600003212
Mac OS X
Figure BDA00033511810600003213
Windows
Figure BDA0003351181060000323
以及
Figure BDA00033511810600003214
本领域技术人员将认识到,举非限制性示例而言,合适的个人计算机操作系统包括
Figure BDA00033511810600003215
Figure BDA0003351181060000324
Mac OS
Figure BDA00033511810600003216
以及诸如GNU/
Figure BDA00033511810600003217
等类UNIX操作系统。在一些实施方式中,操作系统由云计算提供。本领域技术人员还将认识到,举非限制性示例而言,合适的移动智能电话操作系统包括
Figure BDA0003351181060000325
OS、
Figure BDA00033511810600003218
Research In
Figure BDA00033511810600003219
BlackBerry
Figure BDA0003351181060000326
Windows
Figure BDA00033511810600003220
OS、
Figure BDA00033511810600003221
Windows
Figure BDA0003351181060000327
OS、
Figure BDA00033511810600003223
以及
Figure BDA00033511810600003222
本领域技术人员还将认识到,作为非限制性示例,合适的媒体串流设备操作系统包括
Figure BDA0003351181060000328
Google
Figure BDA00033511810600003224
Google
Figure BDA00033511810600003225
Figure BDA0003351181060000329
以及
Figure BDA00033511810600003226
本领域技术人员还将认识到,作为非限制性示例,合适的视频游戏控制台操作系统包括:
Figure BDA00033511810600003230
Figure BDA00033511810600003227
Xbox
Figure BDA00033511810600003228
Xbox One、
Figure BDA00033511810600003211
Figure BDA00033511810600003229
非暂时性计算机可读存储介质
在一些实施方式中,本文所公开的平台、系统、介质和方法包括被编码有程序的一个或多个非暂时性计算机可读存储介质,所述程序包含可由可选地联网的计算设备的操作系统执行的指令。在进一步的实施方式中,计算机可读存储介质是计算设备的有形组件。在更进一步的实施方式中,计算机可读存储介质可选地是可从计算设备移除的。在一些实施方式中,举非限制性示例而言,计算机可读存储介质包括CD-ROM、DVD、闪速存储器设备、固态存储器、磁盘驱动器、磁带驱动器、光盘驱动器、包括云计算系统和服务的分布式计算系统等。在一些情况下,程序和指令永久地、基本上永久地、半永久地或非暂时性地编码在介质上。
计算机程序
在一些实施方式中,本文所公开的平台、系统、介质和方法包括至少一个计算机程序或其使用。计算机程序包含可在计算设备的CPU的一个或多个处理器中执行、被编写以执行指定任务的指令序列。计算机可读指令可被实现为执行特定任务或实现特定抽象数据类型的程序模块,诸如函数、对象、应用编程接口(API)、计算数据结构等。鉴于本文所提供的公开内容,本领域技术人员将认识到,计算机程序能够以各种版本的各种语言编写。
在各种环境中,可以根据需要对计算机可读指令的功能进行组合或分配。在一些实施方式中,计算机程序包括一个指令序列。在一些实施方式中,计算机程序包括多个指令序列。在一些实施方式中,计算机程序由一个位置提供。在其他实施方式中,计算机程序由多个位置提供。在各个实施方式中,计算机程序包括一个或多个软件模块。在各个实施方式中,计算机程序部分地或整体地包括一个或多个网络应用、一个或多个移动应用、一个或多个独立应用、一个或多个网络浏览器插件、扩展、加载项或附加项,或者它们的组合。
Web应用
内容,本领域技术人员将认识到,在各个实施方式中,网络应用利用一个或多个软件框架以及一个或多个数据库系统。在一些实施方式中,在诸如
Figure BDA0003351181060000331
.NET或Rubyon Rails(RoR)的软件框架上创建网络应用。在一些实施方式中,网络应用利用一个或多个数据库系统,举非限制性示例而言,数据库系统包括关系数据库系统、非关系数据库系统、面向对象的数据库系统、关联数据库系统以及XML数据库系统。在进一步的实施方式中,举非限制性示例而言,合适的关系数据库系统包括
Figure BDA0003351181060000341
SQL Server、mySQLTM
Figure BDA0003351181060000342
本领域技术人员还将认识到,在各个实施方式中,网络应用以一种或多种版本的一种或多种语言编写。网络应用能够以一种或多种标识语言、表示定义语言、客户端脚本语言、服务器端编码语言、数据库查询语言或其组合来编写。在一些实施方式中,网络应用在某种程度上以诸如超文本标记语言(HTML)、可扩展超文本标记语言(XHTML)或可扩展标记语言(XML)等标记语言来编写。在一些实施方式中,网络应用在某种程度上以诸如层叠样式表(CSS)等表示定义语言编写。在一些实施方式中,网络应用在某种程度上以诸如Asynchronous Javascript和XML(AJAX)、
Figure BDA0003351181060000343
Actionscript、Javascript或
Figure BDA0003351181060000344
等客户端脚本语言来编写。在一些实施方式中,网络应用在某种程度上以诸如活动服务器页面(Active Server Pages,ASP)、
Figure BDA0003351181060000345
Perl、JavaTM、JavaServerPages(JSP)、超文本预处理器(Hypertext Preprocessor,PHP)、PythonTM、Ruby、Tcl、Smalltalk、
Figure BDA0003351181060000346
或Groovy等服务器端编码语言来编写。在一些实施方式中,网络应用在某种程度上以诸如结构化查询语言(SQL)等数据库查询语言编写。在一些实施方式中,网络应用集成了诸如
Figure BDA0003351181060000347
Lotus
Figure BDA0003351181060000348
等企业服务器产品。在一些实施方式中,网络应用包括媒体播放器元件。在各个进一步的实施方式中,媒体播放器元件利用许多合适的多媒体技术中的一个或多个,举非限制性示例而言,所述多媒体技术包括
Figure BDA0003351181060000349
HTML 5、
Figure BDA00033511810600003410
Figure BDA00033511810600003411
JavaTM以及
Figure BDA00033511810600003412
参照图2,在特定实施方式中,应用程序供应系统包括一个或多个由关系数据库管理系统(RDBMS)210访问的数据库200。适用的RDBMS包括Firebird、MySQL、PostgreSQL、SQLite、Oracle数据库、Microsoft SQL Server、IBM DB2、IBM Informix、SAP Sybase、SAPSybase、Teradata,等等。在本实施方式中,应用程序供应系统还包括一个或多个应用程序服务器220(如Java服务器、.NET服务器、PHP服务器,等等)和一个或多个web服务器230(如Apache、IIS、GWS等)。web服务器可以选择经由应用程序编程接口(API)240公开一个或多个web服务。经由网络,例如Internet,系统提供基于浏览器和/或移动本机的用户界面。
参照图3,在特定实施方式中,应用程序供应系统可选地具有分布式的、基于云的架构300,并包括弹性负载平衡的、自动缩放的web服务器源310和应用服务器源320以及同步复制的数据库330。
移动应用
在一些实施方式中,计算机程序包括提供给移动计算设备的移动应用。在一些实施方式中,移动应用在制造的时候被提供给移动计算设备。在其他实施方式中,移动应用经由本文所描述的计算机网络提供给移动计算设备。
鉴于本文所提供的公开内容,通过本领域技术人员已知的技术使用本领域已知的硬件、语言和开发环境来创建移动应用。本领域技术人员将认识到,移动应用是以若干语言编写的。举非限制性示例而言,合适的编程语言包括C、C++、C#、Objective-C、JavaTM、Javascript、Pascal、Object Pascal、PythonTM、Ruby、VB.NET、WML以及具有或不具有CSS的XHTML/HTML或者其组合。
合适的移动应用开发环境可从若干来源获得。举非限制性示例而言,市售的开发环境包括AirplaySDK、alcheMo、
Figure BDA0003351181060000351
Celsius、Bedrock、Flash Lite、.NET精简框架、Rhomobile以及WorkLight移动平台。其他开发环境可免费获得,举非限制性示例而言包括Lazarus、MobiFlex、MoSync和Phonegap。另外,移动设备制造商分发软件开发工具包,举非限制性示例而言包括iPhone和iPad(iOS)SDK、AndroidTMSDK、
Figure BDA0003351181060000352
SDK、BREWSDK、
Figure BDA0003351181060000353
OS SDK、Symbian SDK、webOS SDK以及
Figure BDA0003351181060000354
Mobile SDK。
本领域技术人员将认识到,若干商业论坛可用于分发移动应用,举非限制性示例而言,包括
Figure BDA0003351181060000355
应用商店、
Figure BDA0003351181060000356
Play、Chrome网络商店、
Figure BDA0003351181060000357
应用世界、Palm设备的应用商店、webOS应用目录、
Figure BDA0003351181060000361
移动市场、
Figure BDA0003351181060000362
设备Ovi商店、
Figure BDA0003351181060000363
应用以及
Figure BDA0003351181060000364
DSi商城。
独立应用
在一些实施方式中,计算机程序包括独立应用,该应用是作为独立计算机进程运行的程序,而不是现有进程的附加组件,例如,不是插件。本领域技术人员将认识到独立应用经常被编译。编译器是一种计算机程序,它将以编程语言编写的源代码转换为二进制目标代码,例如汇编语言或机器代码。作为非限制性示例,合适的编译编程语言包括C、C++、Objective-C、COBOL、Delphi、Eiffel、
Figure BDA0003351181060000365
Lisp、
Figure BDA0003351181060000366
Visual Basic和VB.NET或其组合。通常至少部分地执行编译以创建可执行程序。在一些实施方式中,计算机程序包括一个或多个可执行的编译应用。
Web浏览器插件
在一些实施方式中,计算机程序包括Web浏览器插件(例如,扩展等)。在计算中,插件是一个或多个软件组件,其可将特定功能添加到更大的软件应用中。软件应用的制造商支持插件,以使第三方开发人员能够创建扩展应用的能力,以支持轻松添加新功能,并减小应用的大小。在支持时,插件可以自定义软件应用的功能。例如,插件通常在Web浏览器中用于播放视频、生成交互、扫描病毒和显示特定文件类型。本领域技术人员将熟悉若干Web浏览器插件,包括
Figure BDA0003351181060000367
Figure BDA0003351181060000368
Player、
Figure BDA0003351181060000369
Figure BDA00033511810600003610
在一些实施方式中,工具栏包括一个或多个Web浏览器扩展、插件或附件。在一些实施方式中,工具栏包括一个或多个浏览器栏、工具带或桌面带。
鉴于本文提供的公开内容,本领域技术人员将认识到,可以使用多种插件框架来以各种编程语言开发插件,作为非限制性示例包括,C++、Delphi、
Figure BDA00033511810600003611
PHP、
Figure BDA00033511810600003612
和VB.NET或其组合。
Web浏览器(也称为因特网浏览器)是软件应用,其设计用于连接网络的计算设备,用于检索、呈现和遍历万维网上的信息资源。作为非限制性示例,合适的网络浏览器包括
Figure BDA0003351181060000371
Internet
Figure BDA0003351181060000372
Figure BDA0003351181060000373
Chrome、
Figure BDA0003351181060000374
Opera
Figure BDA0003351181060000375
和KDE Konqueror。在一些实施方式中,Web浏览器是移动Web浏览器。移动Web浏览器(也称为微型浏览器、迷你浏览器和无线浏览器)设计用于移动计算设备,包括但不限于手持计算机、平板计算机、上网本计算机、小笔记本计算机、智能电话、音乐播放器、个人数字助理(PDA)和手持视频游戏系统。作为非限制性示例,合适的移动Web浏览器包括
Figure BDA0003351181060000376
浏览器、RIM
Figure BDA0003351181060000377
浏览器、
Figure BDA0003351181060000378
Blazer、
Figure BDA0003351181060000379
浏览器、
Figure BDA00033511810600003710
formobile、
Figure BDA00033511810600003711
Internet
Figure BDA00033511810600003712
Mobile、
Figure BDA00033511810600003713
Basic Web、
Figure BDA00033511810600003714
Browser、Opera
Figure BDA00033511810600003715
Mobile和
Figure BDA00033511810600003716
浏览器。
软件模块
在一些实施方式中,本文所公开的平台、系统、介质和方法包括软件、服务器和/或数据库模块或者其使用。鉴于本文所提供的公开内容,使用本领域已知的机器、软件和语言,通过本领域技术人员已知的技术来创建软件模块。本文所公开的软件模块是以多种方式实现的。在各种实施方式中,软件模块包括文件,代码段,编程对象,程序结构或其组合。在进一步实施方式中,软件模块包括多个文件、多个代码段、多个编程对象、多个程序结构或其组合。在各种实施方式中,作为非限制性示例,一个或多个软件模块包括网络应用、移动应用和独立应用。在一些实施方式中,软件模块在一个计算机程序或应用程序中。在一些实施方式中,软件模块在多于一个计算机程序或应用程序中。在一些实施方式中,软件模块被托管在一台机器上。在一些实施方式中,软件模块被托管在多于一台机器上。在进一步的实施方式中,软件模块被托管在诸如云计算平台的分布式计算平台上。在一些实施方式中,软件模块被托管在一个地点中的一个或多个机器上。在一些实施方式中,软件模块被托管在多于一个地点中的一个或多个机器上。
数据库
在一些实施方式中,本文所公开的平台、系统、介质和方法包括一个或多个数据库或其使用。鉴于本文所提供的公开内容,本领域技术人员将认识到,许多数据库适合于储存和检索信息。在各个实施方式中,举非限制性示例而言,合适的数据库包括关系数据库、非关系数据库、面向对象的数据库、对象数据库、实体-关系模型数据库、关联数据库以及XML数据库。进一步的非限制示例包括SQL、PostgreSQL、MySQL、Oracle、DB2和Sybase。在一些实施方式中,数据库是基于因特网的。在进一步的实施方式中,数据库是基于网络的。在更进一步的实施方式中,数据库是基于云计算的。在特定的实施方式中,数据库是分布式数据库。在其他实施方式中,数据库是基于一个或多个本地计算机存储设备的。
用于检测与移动设备相关的面部识别的欺骗的方法和系统
用于检测欺骗尝试的新颖且独特的数据和软件架构可提供安全益处,例如阻止专门的攻击者。本文的此类系统和方法包括特定的识别匹配和确认算法,即使已获得对安全软件和/或数据的至少一部分的访问权的任何这种攻击者也不能直接访问和/或篡改该特定的识别匹配和确认算法。
本文根据图4至图6提供使用移动设备的相机检测生物特征身份识别的欺骗的方法。在一些实施方式中,该方法包括:通过移动设备的相机记录用户面部的第一图像;从第一图像生成用户面部的第一数据表示401A;从第一数据表示401A形成403预测模型402A;通过移动设备的相机记录用户面部的第二图像;从第二图像生成用户面部的第二数据表示401B;并且确定404第二数据表示401B是否匹配预测模型402A。
当相机距用户第一距离时,可以捕获用户面部的第一图像。当相机距用户第二距离时,可以捕获用户面部的第二图像。第一距离可以大于第二距离。第二距离可以大于第一距离。第一距离可以比第二距离大5%、10%、15%、20%、25%、30%、35%、40%、45%、50%、60%、70%、80%、90%、100%或更多,包括其中的增量。第二距离可以比第一距离大5%、10%、15%、20%、25%、30%、35%、40%、45%、50%、60%、70%、80%、90%、100%或更多,包括其中的增量。第一距离和第二距离中的至少一个可以被测量为到用户面部的最小距离、到用户面部的正常距离、到用户鼻子的最小距离或到用户鼻子的正常距离。
当相机处于相对于用户的第一方向时,可以捕获用户面部的第一图像。当相机处于相对于用户的第二方向时,可以捕获用户面部的第二图像。第一方向可以包括相对于用户的第一俯仰角、第一偏航角、第一滚转角或其任何组合。第二方向可以包括相对于用户的第二俯仰角、第二偏航角、第二滚转角或其任何组合。第一俯仰角、第二俯仰角或两者可以围绕平行于地面且平行于用户的向前方向的轴测量。第一偏航角、第二偏航角或两者可以围绕垂直于地面的轴测量。第一滚转角、第二滚转角或两者可以围绕平行于地面且垂直于用户的向前方向的轴测量。第一俯仰角、第一偏航角和第一滚转角中的至少一个可以大于第二俯仰角、第二偏航角和第二滚转角中的一个或多个。第一俯仰角、第一偏航角和第一滚转角中的至少一个可以比第二俯仰角、第二偏航角和第二滚转角中的一个或多个大5%、10%、15%、20%、25%、30%、35%、40%、45%、50%、60%、70%、80%、90%、100%或更多,包括其中的增量。第二俯仰角、第二偏航角和第二滚转角中的至少一个可以大于第一俯仰角、第一偏航角和第一滚转角中的一个或多个。第二俯仰角、第二偏航角和第二滚转角中的至少一个可以比第一俯仰角、第一偏航角和第一滚转角中的一个或多个大5%、10%、15%、20%、25%、30%、35%、40%、45%、50%、60%、70%、80%、90%、100%或更多,包括其中的增量。
确定404第二数据表示401B是否与预测模型402A匹配可以通过将第二数据表示401B与预测模型402A进行比较来执行。如果第二数据表示401B与预测模型402A不匹配,则可以拒绝用户的身份匹配。被拒绝的身份匹配可以指示欺骗尝试。如果第二数据表示401B与预测模型402A匹配,则可以确认用户的身份匹配。确认的身份匹配可以指示没有欺骗尝试。
附加地或替代地,该方法还可以包括捕获用户面部的第三图像,从第三图像生成用户面部的第三数据表示401C,以及确定404第三数据表示401C是否匹配预测模型402A。附加地或替代地,如果第二数据表示401B与预测模型402A不匹配,则该方法还可以包括捕获用户面部的第三图像,从第三图像生成用户面部的第三数据表示401C,并且确定404第三数据表示401C是否匹配预测模型402A。
附加地或替代地,如果第二数据表示401B与预测模型402A不匹配,则该方法可以进一步包括接受用户提供的输入匹配与用户相关联的附加数据。附加地或替代地,如果第三数据表示401C与预测模型402A不匹配,则该方法可以进一步包括接受用户提供的输入匹配与用户相关联的附加数据。
该方法还可以包括捕获用户的运动数据、用户的位置数据或两者。在这种情况下,该方法还可以包括:如果用户的运动数据在距设置运动的预定范围内,则接受用户,如果用户的位置数据在距设置位置的预定范围内,则接受用户,或两者。在这种情况下,该方法还可以包括:如果用户的运动数据不在设定运动的预定范围内,则拒绝用户;如果用户的位置数据不在设定位置的预定范围内,则拒绝用户,或两者。
用户可以经由移动设备上的引导用户界面捕获第一图像、第二图像、第三图像或其任何组合。
如果第二数据表示401B匹配从第一数据表示401A生成的预测模型402A和/或如果运动和/或位置数据匹配归因于移动设备相对于用户面部的位置的预期运动和/或位置数据,则可以执行确认身份识别匹配。在第一数据表示401A的记录时间和第二数据表示401B的记录时间之间所述位置可以随着移动设备的移动和/或用户面部的移动而改变。
附加地或替代地,如果第二数据表示401B与预测模型402A不匹配,则该方法可以进一步包括接受由用户提供的附加数据,并且确定404附加数据是否与关联于用户的附加数据匹配。附加地或替代地,如果第三数据表示401C与预测模型402A不匹配,则该方法可以进一步包括接受用户提供的附加数据,并且确定404附加数据是否与关联于用户的附加数据匹配。
附加地或替代地,如果第一数据表示401A匹配从第二数据表示401B生成的预测模型402A,并且如果运动和/或位置数据匹配归因于移动设备位置的预期运动和/或位置数据,则可以进行身份识别匹配的确认。在第一数据表示401A的记录时间和第二数据表示401B的记录时间之间,所述位置可以随着移动设备的移动和/或用户面部的移动而改变。
第一数据表示
在一些实施方式中,本文的方法和系统通过移动设备的相机记录用户面部的第一图像,并且从第一图像生成用户面部的第一数据表示。
第一数据表示可以包括:用户面部的至少一部分的三维图、用户面部的第一特征和第二特征之间的距离、多个面部特征的位置、用户面部的至少一部分的计算体积、用户面部的一部分的轮廓曲线、用户面部的至少一部分的表面的斜率图,或其任何组合。
第二数据表示
在一些实施方式中,本文的方法和系统通过移动设备的相机记录用户面部的第二图像,并且从第二图像生成用户面部的第二数据表示。
第二数据表示可以包括:用户面部的至少一部分的三维图、用户面部的第二特征和第二特征之间的距离、多个面部特征的位置、用户面部的至少一部分的计算体积、用户面部的一部分的轮廓曲线、用户面部的至少一部分的表面的斜率图,或其任何组合。
运动和位置数据
运动数据、位置数据或两者可以在第一图像的记录时间、第一图像时间记录时间、或两者从移动设备上的传感器记录。
可以在单个时间点记录运动、位置数据或两者。可以连续记录运动、位置数据或两者。可以记录运动、位置数据或两者的序列。可以以设置的重复间隔记录运动、位置数据或两者的重复序列。可以在第一图像的记录时间、在第一图像的记录时间或两者开始运动、位置数据或两者的序列。设置的重复间隔可以是0.1秒、0.5秒、1秒、2秒、3秒、4秒、5秒或更多,包括其中的增量。
预测模型
在某些情况下,预测模型是从第一数据表示生成的。在某些情况下,预测模型是从第二数据表示生成的。在一些情况下,预测模型是从第一数据表示和第二数据表示生成的。
预测模型可以由机器学习算法、图像分析算法、深度学习算法或其任何组合生成。可以使用多个用户图像来训练机器学习算法、图像分析算法或深度学习算法中的至少一种。机器学习算法、图像分析算法或深度学习算法中的至少一种可以使用多个用户图像和多个欺骗用户图像来训练。用户图像可以包括公共用户图像。可以对从用户收集的真实数据和/或通过图像渲染或本领域已知的图像数据表示的其他技术生成的合成数据训练预测模型。
预测模型可以由第一数据表示以及位置数据和运动数据中的至少一个形成。
在第一数据表示的记录时间和第二数据表示的记录时间之间连续地或以多个间隔记录运动和/或位置数据。
匹配架构
预测建模架构的配置可以包括:(a)从给定数据集或数据表示集导出的预测建模架构,以生成和匹配另一个数据或数据表示;或(b)从多于一个捕获的数据或数据表示导出的预测建模架构,以生成与多个其他数据或数据表示相匹配的多个预测。在任一架构中,多个数据集可以用于预测建模以将匹配数据或数据表示进行匹配。
替代地或附加地,预测建模架构的配置可以包括:(a)从第一数据表示生成的预测模型和从第二数据表示生成的预测模型之间的比较;或(b)从第二数据表示生成的预测模型与从第一数据表示生成的预测模型的比较。在连续匹配练习之间的架构变化中,或者在某些连续匹配练习而不是其他之间的变化,可以在匹配练习之间随机化。在连续匹配练习之间的架构变化中,或者某些连续匹配练习而不是其他之间的变化可以基于非随机确定的数据或协议,或者可能不会改变。
预测建模架构的配置可以基于安全级别和执行速度进行优化。例如,可以基于数据消耗、文件大小、处理步骤或其任何组合来优化预测建模架构。这种架构特性可以根据相关的安全规范改变执行速度。
附加数据表示
该方法还可以包括将附加数据与用户提交给移动设备的数据进行比较。附加数据可以包括姓名、密码、身份号码、地址、地理位置、设备ID、移动设备上用户软件环境的唯一数据特性、生物特征数据、预测生物特征数据,或其任何组合。
附加地或替代地,如果第二数据表示与预测模型不匹配,则该方法还可以包括接受用户提供的输入匹配与用户相关联的附加数据。附加地或替代地,如果第三数据表示与预测模型不匹配,则该方法还可以包括接受用户提供的输入匹配与用户相关联的附加数据。

Claims (69)

1.一种计算机实现方法,用于使用移动设备的相机检测生物特征身份识别的欺骗,所述方法包括:
a)通过所述相机记录用户在第一距离处的面部图像或图像集;
b)使用算法处理在所述第一距离处的所述用户的面部图像或图像集,以生成所述用户的图像或图像集的第一数据表示;
c)将所述第一数据表示处理成预测模型,所述预测模型估计所述用户的面部图像或图像集在所述用户的面部与所述相机之间的其他距离或方向上的所述数据表示;
d)改变所述用户的面部与所述相机之间的所述距离,其中改变所述距离包括增加所述用户的面部与所述相机之间的所述距离、减小所述用户的面部与所述相机之间的所述距离、改变所述相机相对于所述用户的面部的所述方向、改变所述用户的面部相对于所述相机的所述方向、或其任意组合;
e)通过所述相机记录所述用户在第二距离处的面部图像或图像集;
f)使用算法处理在所述第二距离处的所述用户的面部图像或图像集,以生成所述用户的第二图像或图像集的第二数据表示;
g)将所述第二数据表示与从所述第一数据表示生成的所述预测模型进行比较,以确定它们是否匹配;以及
h)如果所述第二数据表示匹配从所述第一数据表示生成的所述预测模型,则确认身份识别匹配。
2.根据权利要求1所述的方法,所述方法还包括:如果在将所述第二数据表示与从所述第一数据表示生成的所述预测模型进行比较之后,所述第二数据表示与从所述第一数据表示生成的所述预测模型不匹配,则拒绝所述身份识别匹配。
3.根据权利要求1所述的方法,所述方法还包括:如果在将所述第二数据表示与从所述第一数据表示生成的所述预测模型进行比较之后,所述第二数据表示与从所述第一数据表示生成的所述预测模型不匹配,则从来自所述第一距离或第二距离的所述用户的面部图像或图像集捕获一个或多个附加数据表示,并将所述捕获的一个或多个附加数据表示与从所述第一数据表示生成的所述预测模型进行比较,以确定它们是否匹配。
4.根据权利要求3所述的方法,所述方法还包括:如果所述一个或多个附加数据表示与从所述第一数据表示生成的所述预测模型相匹配,则确认附加数据表示身份识别匹配。
5.根据权利要求3所述的方法,所述方法还包括:如果所述一个或多个附加数据表示与从所述第一数据表示生成的所述预测模型不匹配,则拒绝附加数据表示身份识别匹配。
6.根据权利要求1所述的方法,所述方法还包括:如果所述第二数据表示与从所述第一数据表示生成的所述预测模型不匹配,则比较附加数据以确定在所述第一距离处呈现所述面部图像或图像集的所述用户是否与在所述第二距离处呈现所述面部图像或图像集的所述用户匹配。
7.根据权利要求6所述的方法,其中附加数据包括姓名、密码、身份号码、地址、地理位置、设备ID、在所述移动设备上所述用户的软件环境的唯一数据特征、其他生物特征数据、用户数据的预测模型或生物特征数据、其他数据或其任何组合。
8.根据权利要求1所述的方法,所述方法还包括:
a)将所述第二数据表示处理成预测模型,所述预测模型估计所述用户的面部图像或图像集在所述用户的面部与所述相机之间的其他距离或方向上的所述数据表示;
b)将所述第一数据表示与从所述第二数据表示生成的所述预测模型进行比较,以确定它们是否匹配;以及
c)如果所述第一数据表示与从所述第二数据表示生成的所述预测模型相匹配,则确认身份识别匹配。
9.根据权利要求8所述的方法,其中预测模型与数据表示的所述比较包括配置匹配架构。
10.根据权利要求8所述的方法,其中预测模型与数据表示的所述比较包括将从第一数据表示生成的预测模型与第二数据表示进行比较,将从第二数据表示生成的预测模型与第一数据表示进行比较,或其任何组合。
11.根据权利要求9所述的方法,其中匹配架构的所述配置随着连续匹配练习而改变,或者随着某些连续匹配练习而不是其他而改变,其中改变能够在匹配练习之间随机化,或者基于非随机化的确定数据或协议,或者可能不会改变。
12.根据权利要求11所述的方法,其中对匹配架构的所述配置的改变基于在匹配练习之间随机化的改变、基于非随机化确定数据或协议的改变或其任何组合。
13.根据权利要求9所述的方法,其中匹配架构的所述配置不改变。
14.根据权利要求1所述的方法,其中使用引导用户界面来捕获所述第一数据表示和/或第二数据表示。
15.根据权利要求14所述的方法,其中从所述引导用户界面捕获的信息用于匹配练习。
16.根据权利要求1所述的方法,所述方法还包括:
a)从所述移动设备上的一个或多个传感器记录由所述相机在所述第一距离处记录所述用户的面部图像或图像集时的运动和/或位置数据;
b)从所述移动设备上的一个或多个传感器记录由所述相机在所述第二距离处记录所述用户的面部图像或图像集时的运动和/或位置数据;
c)将在所述第一距离处记录的所述运动和/或位置数据和来自所述第二距离的运动和/或位置数据与从所述第一数据表示生成的所述预测模型和所述第二数据表示进行比较;以及
d)如果(I)所述第二数据表示与从所述第一数据表示预测建模生成的所述预测模型匹配;并且(II)所述运动和/或位置数据与归因于所述移动设备相对于所述用户的面部的所述位置的预期运动和/或位置数据相匹配,则确认身份识别匹配。
17.根据权利要求16所述的方法,其中在所述第一数据表示的所述记录时间和所述第二数据表示的所述记录时间之间连续地或以多个间隔记录所述运动和/或位置数据。
18.根据权利要求17所述的方法,所述方法还包括比较(I)在所述第一数据表示的所述记录时间和所述第二数据表示的所述记录时间之间连续地或以多个间隔记录所述运动和/或位置数据与(II)从所述第一数据表示生成的所述预测模型和所述第二数据表示。
19.根据权利要求18所述的方法,所述方法还包括如果(I)所述第二数据表示与从所述第一数据表示生成的所述预测模型相匹配;以及(II)连续或以多个间隔记录的所述运动和/或位置数据与归因于所述移动设备相对于所述用户的面部的所述位置的预期运动和/或位置数据相匹配,则确认身份识别匹配。
20.根据权利要求8所述的方法,所述方法还包括:
a)从所述移动设备上的一个或多个传感器记录由所述相机在所述第一距离处记录所述用户的面部图像或图像集时的运动和/或位置数据;
b)从所述移动设备上的一个或多个传感器记录由所述相机在所述第二距离处记录所述用户的面部图像或图像集时的运动和/或位置数据;
c)将在所述第一距离处记录的所述运动和/或位置数据和来自所述第二距离的运动和/或位置数据与从所述第二数据表示生成的所述预测模型和所述第一数据表示进行比较;以及
d)如果(I)所述第一数据表示与从所述第二数据表示预测建模生成的所述预测模型相匹配;并且(II)所述运动和/或位置数据与归因于所述移动设备相对于所述用户的面部的所述位置的预期运动和/或位置数据相匹配,则确认身份识别匹配。
21.根据权利要求20所述的方法,其中在所述第一数据表示的所述记录时间和所述第二数据表示的所述记录时间之间连续地或以多个间隔记录所述运动和/或位置数据。
22.根据权利要求21所述的方法,所述方法还包括比较(I)在所述第一数据表示的所述记录时间和所述第二数据表示的所述记录时间之间连续地或以多个间隔记录所述运动和/或位置数据与(II)从所述第二数据表示生成的所述预测模型和所述第一数据表示。
23.根据权利要求22所述的方法,所述方法还包括如果(I)所述第一数据表示与从所述第二数据表示生成的所述预测模型相匹配;以及(II)连续或以多个间隔记录的所述运动和/或位置数据与归因于所述移动设备相对于所述用户的面部的所述位置的预期运动和/或位置数据相匹配,则确认身份识别匹配。
24.一种计算机实现的系统,包括计算设备,所述计算设备包括至少一个处理器、被配置为执行可执行指令的操作系统、存储器、以及包括可由所述计算设备执行以创建用于使用移动设备的相机检测生物特征身份识别的欺骗的应用的指令的计算机程序,所述应用包括:
a)软件模块,其被配置为在第一距离处记录用户的面部图像或图像集;
b)软件模块,其被配置为使用算法处理在所述第一距离处的所述用户的面部图像或图像集,以生成所述用户的图像或图像集的第一数据表示;
c)软件模块,其被配置为将所述第一数据表示处理成预测模型,所述预测模型估计所述用户的面部图像或图像集在所述用户的面部与所述相机之间的其他距离或方向上的所述数据表示;
d)软件模块,其被配置为改变所述用户的面部与所述相机之间的所述距离,其中改变所述距离包括增加所述用户的面部与所述相机之间的所述距离,减小所述用户的面部与所述相机之间的所述距离,改变所述相机相对于所述用户的面部的所述方向,改变所述用户的面部相对于所述相机的所述方向,或其任意组合;
e)软件模块,其被配置为在第二距离处记录所述用户的面部图像或图像集;
f)软件模块,其被配置为使用算法处理在所述第二距离处的所述用户的面部图像或图像集以生成所述用户的第二图像或图像集的第二数据表示;
g)软件模块,其被配置为将所述第二数据表示与从所述第一数据表示生成的所述预测模型进行比较以确定它们是否匹配;以及
h)软件模块,其被配置为如果所述第二数据表示匹配从所述第一数据表示生成的所述预测模型,则确认身份识别匹配。
25.根据权利要求24所述的系统,其中所述系统还包括软件模块,所述软件模块被配置为如果在所述软件模块配置为将所述第二数据表示与从所述第一数据表示生成的所述预测模型进行比较之后,所述第二数据表示与从所述第一数据表示生成的所述预测模型不匹配,则拒绝所述身份识别匹配。
26.根据权利要求24所述的系统,所述系统还包括软件模块,所述软件模块被配置为如果在将所述第二数据表示与从所述第一数据表示生成的所述预测模型进行比较之后,所述第二数据表示与从所述第一数据表示生成的所述预测模型不匹配,则从来自所述第一距离或第二距离的所述用户的面部图像或图像集捕获一个或多个附加数据表示,并将所述捕获的一个或多个附加数据表示与从所述第一数据表示生成的所述预测模型进行比较,以确定它们是否匹配。
27.根据权利要求26所述的系统,所述系统还包括软件模块,所述软件模块被配置为如果所述一个或多个附加数据表示与从所述第一数据表示生成的所述预测模型相匹配,则确认附加数据表示身份识别匹配。
28.根据权利要求26所述的系统,所述系统还包括软件模块,所述软件模块被配置为如果所述一个或多个附加数据表示与从所述第一数据表示生成的所述预测模型不匹配,则拒绝附加数据表示身份识别匹配。
29.根据权利要求24所述的系统,所述系统还包括软件模块,所述软件模块被配置为如果所述第二数据表示与从所述第一数据表示生成的所述预测模型不匹配,则比较附加数据以确定在所述第一距离处呈现所述面部图像或图像集的所述用户是否与在所述第二距离处呈现所述面部图像或图像集的所述用户匹配。
30.根据权利要求29所述的系统,其中附加数据包括姓名、密码、身份号码、地址、地理位置、设备ID、在所述移动设备上所述用户的软件环境的唯一数据特征、其他生物特征数据、用户数据的预测模型或生物特征数据、其他数据或其任何组合。
31.根据权利要求24所述的系统,其中所述系统还包括:
a)软件模块,其被配置为将所述第二数据表示处理成预测模型,所述预测模型估计所述用户的面部图像或图像集在所述用户的面部与所述相机之间的其他距离或方向上的所述数据表示;
b)软件模块,其被配置为将所述第一数据表示与从所述第二数据表示生成的所述预测模型进行比较以确定它们是否匹配;以及
c)软件模块,其被配置为如果所述第一数据表示与从所述第二数据表示生成的所述预测模型相匹配,则确认身份识别匹配。
32.根据权利要求31所述的系统,其中被配置为将所述第一数据表示与从所述第二数据表示生成的所述预测模型进行比较的所述软件模块包括匹配架构配置。
33.根据权利要求31所述的系统,其中被配置为将预测模型与数据表示进行比较的任何软件模块包括将从第一数据表示生成的预测模型与第二数据表示进行比较,将从第二数据表示生成的预测模型与第一数据表示进行比较,或其任何组合。
34.根据权利要求32所述的系统,其中匹配架构的所述配置随着连续匹配练习而改变,或者随着某些连续匹配练习而不是其他而改变,其中改变能够在匹配练习之间随机化,或者基于非随机化的确定数据或协议,或者可能不会改变。
35.根据权利要求34所述的系统,其中对匹配架构的所述配置的改变基于在匹配练习之间随机化的改变、基于非随机化确定数据或协议的改变或其任何组合。
36.根据权利要求32所述的系统,其中所述匹配架构配置不改变。
37.根据权利要求24所述的系统,其中所述系统还包括用于捕获所述第一数据表示和/或第二数据表示的引导用户界面。
38.根据权利要求37所述的系统,其中从所述引导用户界面捕获的信息用于匹配练习。
39.根据权利要求24所述的系统,所述系统还包括:
a)软件模块,其被配置为从所述移动设备上的一个或多个传感器记录由所述相机在所述第一距离处记录所述用户的面部图像或图像集时的运动和/或位置数据;
b)软件模块,其被配置为从所述移动设备上的一个或多个传感器记录由所述相机在所述第二距离处记录所述用户的面部图像或图像集时的运动和/或位置数据;
c)软件模块,其被配置为将在所述第一距离处记录的所述运动和/或位置数据和来自所述第二距离的运动和/或位置数据与从所述第一数据表示生成的所述预测模型和所述第二数据表示进行比较;以及
d)软件模块,其被配置为如果(I)所述第二数据表示与从所述第一数据表示预测建模生成的所述预测模型相匹配;(II)所述运动和/或位置数据与归因于所述移动设备相对于所述用户的面部的所述位置的预期运动和/或位置数据相匹配,则确认身份识别匹配。
40.根据权利要求39所述的系统,其中在所述第一数据表示的所述记录时间和所述第二数据表示的所述记录时间之间连续地或以多个间隔记录所述运动和/或位置数据。
41.根据权利要求40所述的系统,所述系统还包括软件模块,所述软件模块被配置为比较(I)在所述第一数据表示的所述记录时间和所述第二数据表示的所述记录时间之间连续地或以多个间隔记录所述运动和/或位置数据与(II)从所述第一数据表示生成的所述预测模型和所述第二数据表示。
42.根据权利要求41所述的系统,所述系统还包括软件模块,所述软件模块被配置为如果(I)所述第二数据表示与从所述第一数据表示生成的所述预测模型相匹配;以及(II)连续或以多个间隔记录的所述运动和/或位置数据与归因于所述移动设备相对于所述用户的面部的所述位置的预期运动和/或位置数据相匹配,则确认身份识别匹配。
43.根据权利要求31所述的系统,所述系统还包括:
a)软件模块,其被配置为从所述移动设备上的一个或多个传感器记录由所述相机在所述第一距离处记录所述用户的面部图像或图像集时的运动和/或位置数据;
b)软件模块,其被配置为从所述移动设备上的一个或多个传感器记录由所述相机在所述第二距离处记录所述用户的面部图像或图像集时的运动和/或位置数据;
c)软件模块,其被配置为将在所述第一距离处记录的所述运动和/或位置数据和来自所述第二距离的运动和/或位置数据与从所述第二数据表示生成的所述预测模型和所述第一数据表示进行比较;以及
d)软件模块,其被配置为如果(I)所述第一数据表示与从所述第二数据表示预测建模生成的所述预测模型相匹配;(II)所述运动和/或位置数据与归因于所述移动设备相对于所述用户的面部的所述位置的预期运动和/或位置数据相匹配,则确认身份识别匹配。
44.根据权利要求43所述的系统,其中在所述第一数据表示的所述记录时间和所述第二数据表示的所述记录时间之间连续地或以多个间隔记录所述运动和/或位置数据。
45.根据权利要求44所述的系统,所述系统还包括软件模块,所述软件模块被配置为比较(I)在所述第一数据表示的所述记录时间和所述第二数据表示的所述记录时间之间连续地或以多个间隔记录所述运动和/或位置数据与(II)从所述第二数据表示生成的所述预测模型和所述第一数据表示。
46.根据权利要求45所述的系统,所述系统还包括软件模块,所述软件模块被配置为如果(I)所述第一数据表示与从所述第二数据表示生成的所述预测模型相匹配;以及(II)连续或以多个间隔记录的所述运动和/或位置数据与归因于所述移动设备相对于所述用户的面部的所述位置的预期运动和/或位置数据相匹配,则确认身份识别匹配。
47.一种使用计算机程序编码的非暂时性计算机可读存储介质,所述计算机程序包括可由一个或多个处理器执行以创建用于使用移动设备的相机检测生物特征身份识别的欺骗的应用的指令,所述应用包括:
a)软件模块,其被配置为记录用户在第一距离处的面部图像或图像集;
b)软件模块,其被配置为使用算法处理在所述第一距离处的所述用户的面部图像或图像集,以生成所述用户的图像或图像集的第一数据表示;
c)软件模块,其被配置为将所述第一数据表示处理成预测模型,所述预测模型估计所述用户的面部图像或图像集在所述用户的面部与所述相机之间的其他距离或方向上的所述数据表示;
d)软件模块,其被配置为改变所述用户的面部与所述相机之间的所述距离,其中改变所述距离包括增加所述用户的面部与所述相机之间的所述距离,减小所述用户的面部与所述相机之间的所述距离,改变所述相机相对于所述用户的面部的所述方向,改变所述用户的面部相对于所述相机的所述方向,或其任意组合;
e)软件模块,其被配置为记录所述用户在第二距离处的面部图像或图像集;
f)软件模块,其被配置为使用算法处理在所述第二距离处的所述用户的面部图像或图像集以生成所述用户的第二图像或图像集的第二数据表示;
g)软件模块,其被配置为将所述第二数据表示与从所述第一数据表示生成的所述预测模型进行比较以确定它们是否匹配;以及
h)软件模块,其被配置为如果所述第二数据表示与从所述第一数据表示生成的所述预测模型相匹配,则确认身份识别匹配。
48.根据权利要求47所述的介质,其中所述介质还包括软件模块,所述软件模块被配置为如果在所述软件模块配置为将所述第二数据表示与从所述第一数据表示生成的所述预测模型进行比较之后所述第二数据表示与从所述第一数据表示生成的所述预测模型不匹配,则拒绝所述身份识别匹配。
49.根据权利要求47所述的介质,所述介质还包括软件模块,所述软件模块被配置为如果在将所述第二数据表示与从所述第一数据表示生成的所述预测模型进行比较之后,所述第二数据表示与从所述第一数据表示生成的所述预测模型不匹配,则从来自所述第一距离或第二距离的所述用户的面部图像或图像集捕获一个或多个附加数据表示,并将所述捕获的一个或多个附加数据表示与从所述第一数据表示生成的所述预测模型进行比较以确定它们是否匹配。
50.根据权利要求49所述的介质,所述介质还包括软件模块,所述软件模块被配置为如果所述一个或多个附加数据表示与从所述第一数据表示生成的所述预测模型相匹配,则确认附加数据表示身份识别匹配。
51.根据权利要求49所述的介质,所述介质还包括软件模块,所述软件模块被配置为如果所述一个或多个附加数据表示与从所述第一数据表示生成的所述预测模型不匹配,则拒绝附加数据表示身份识别匹配。
52.根据权利要求47所述的介质,所述介质还包括软件模块,所述软件模块被配置为如果所述第二数据表示与从所述第一数据表示生成的所述预测模型不匹配,则比较附加数据以确定在所述第一距离处呈现所述面部图像或图像集的所述用户是否与在所述第二距离处呈现所述面部图像或图像集的所述用户相匹配。
53.根据权利要求52所述的介质,其中附加数据包括姓名、密码、身份号码、地址、地理位置、设备ID、在所述移动设备上所述用户的软件环境的唯一数据特征、其他生物特征数据、用户数据的预测模型或生物特征数据、其他数据或其任何组合。
54.根据权利要求47所述的介质,其中所述介质还包括:
a)软件模块,其被配置为将所述第二数据表示处理成预测模型,所述预测模型估计所述用户的面部图像或图像集在所述用户的面部与所述相机之间的其他距离或方向上的所述数据表示;
b)软件模块,其被配置为将所述第一数据表示与从所述第二数据表示生成的所述预测模型进行比较以确定它们是否匹配;和
c)软件模块,其被配置为如果所述第一数据表示匹配从所述第二数据表示生成的所述预测模型,则确认身份识别匹配。
55.根据权利要求54所述的介质,其中被配置为将所述第一数据表示与从所述第二数据表示生成的所述预测模型进行比较的所述软件模块包括匹配架构配置。
56.根据权利要求54所述的介质,其中被配置为将预测模型与数据表示进行比较的任何软件模块包括将从第一数据表示生成的预测模型与第二数据表示进行比较,将从第二数据表示生成的预测模型与第一数据表示进行比较,或其任何组合。
57.根据权利要求55所述的介质,其中匹配架构的所述配置随着连续匹配练习而改变,或者随着某些连续匹配练习而不是其他而改变,其中改变能够在匹配练习之间随机化,或者基于非随机化的确定数据或协议,或者可能不会改变。
58.根据权利要求57所述的介质,其中对匹配架构的所述配置的改变基于在匹配练习之间随机化的改变、基于非随机化确定数据或协议的改变或其任何组合。
59.根据权利要求55所述的介质,其中所述匹配架构配置不改变。
60.根据权利要求47所述的介质,其中所述介质还包括用于捕获所述第一数据表示和/或第二数据表示的引导用户界面。
61.根据权利要求60所述的介质,其中从所述引导用户界面捕获的信息用于匹配练习。
62.根据权利要求47所述的介质,所述介质还包括:
a)软件模块,其被配置为从所述移动设备上的一个或多个传感器记录由所述相机在所述第一距离处记录所述用户的面部图像或图像集时的运动和/或位置数据;
b)软件模块,其被配置为从所述移动设备上的一个或多个传感器记录由所述相机在所述第二距离处记录所述用户的面部图像或图像集时的运动和/或位置数据;
c)软件模块,其被配置为将在所述第一距离处记录的所述运动和/或位置数据和来自所述第二距离的运动和/或位置数据与从所述第一数据表示生成的所述预测模型和所述第二数据表示进行比较;和
d)软件模块,其被配置为如果(I)所述第二数据表示与从所述第一数据表示预测建模生成的所述预测模型相匹配;(II)所述运动和/或位置数据与归因于所述移动设备相对于所述用户的面部的所述位置的预期运动和/或位置数据相匹配,则确认身份识别匹配。
63.根据权利要求62所述的介质,其中在所述第一数据表示的所述记录时间和所述第二数据表示的所述记录时间之间连续地或以多个间隔记录所述运动和/或位置数据。
64.根据权利要求63所述的介质,所述介质还包括软件模块,所述软件模块被配置为比较(I)在所述第一数据表示的所述记录时间和所述第二数据表示的所述记录时间之间连续地或以多个间隔记录所述运动和/或位置数据与(II)从所述第一数据表示生成的所述预测模型和所述第二数据表示。
65.根据权利要求64所述的介质,所述介质还包括软件模块,所述软件模块被配置为如果(I)所述第二数据表示与从所述第一数据表示生成的所述预测模型相匹配;以及(II)连续或以多个间隔记录的所述运动和/或位置数据与归因于所述移动设备相对于所述用户的面部的所述位置的预期运动和/或位置数据相匹配,则确认身份识别匹配。
66.根据权利要求54所述的介质,所述介质还包括:
a)软件模块,其被配置为从所述移动设备上的一个或多个传感器记录在由所述相机在所述第一距离处记录所述用户的面部图像或图像集时的运动和/或位置数据;
b)软件模块,其被配置为从所述移动设备上的一个或多个传感器记录在由所述相机在所述第二距离处记录所述用户的面部图像或图像集时的运动和/或位置数据;
c)软件模块,其被配置为将在所述第一距离处记录的所述运动和/或位置数据和来自所述第二距离的运动和/或位置数据与从所述第二数据表示生成的所述预测模型和所述第一数据表示进行比较;和
d)软件模块,其被配置为如果(I)所述第一数据表示与从所述第二数据表示预测建模生成的所述预测模型相匹配;(II)所述运动和/或位置数据与归因于所述移动设备相对于所述用户的面部的所述位置的预期运动和/或位置数据相匹配,则确认身份识别匹配。
67.根据权利要求66所述的介质,其中在所述第一数据表示的所述记录时间和所述第二数据表示的所述记录时间之间连续地或以多个间隔记录所述运动和/或位置数据。
68.根据权利要求67所述的介质,所述介质还包括软件模块,所述软件模块被配置为比较(I)在所述第一数据表示的所述记录时间和所述第二数据表示的所述记录时间之间连续地或以多个间隔记录所述运动和/或位置数据与(II)从所述第二数据表示生成的所述预测模型和所述第一数据表示。
69.根据权利要求68所述的介质,所述介质还包括软件模块,所述软件模块被配置为如果(I)所述第一数据表示与从所述第二数据表示生成的所述预测模型相匹配;以及(II)连续或以多个间隔记录的所述运动和/或位置数据与归因于所述移动设备相对于所述用户的面部的所述位置的预期运动和/或位置数据相匹配,则确认身份识别匹配。
CN202080035642.9A 2019-03-12 2020-03-11 利用移动设备检测生物特征身份识别的欺骗的方法、系统和介质 Active CN113826110B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201962817554P 2019-03-12 2019-03-12
US62/817,554 2019-03-12
PCT/US2020/022168 WO2020185948A1 (en) 2019-03-12 2020-03-11 Detecting spoofing of facial recognition with mobile devices

Publications (2)

Publication Number Publication Date
CN113826110A true CN113826110A (zh) 2021-12-21
CN113826110B CN113826110B (zh) 2023-06-20

Family

ID=72424323

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202080035642.9A Active CN113826110B (zh) 2019-03-12 2020-03-11 利用移动设备检测生物特征身份识别的欺骗的方法、系统和介质

Country Status (11)

Country Link
US (1) US11343277B2 (zh)
EP (1) EP3938953A4 (zh)
JP (1) JP7464619B2 (zh)
KR (1) KR20220004628A (zh)
CN (1) CN113826110B (zh)
AU (1) AU2020237108B2 (zh)
BR (1) BR112021018149B1 (zh)
CA (1) CA3133229C (zh)
SG (1) SG11202109983RA (zh)
TW (1) TWI781383B (zh)
WO (1) WO2020185948A1 (zh)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
MX2020002941A (es) 2017-09-18 2022-05-31 Element Inc Métodos, sistemas y medios para la detección de suplantación de identidad en la autenticación móvil.
EP3938953A4 (en) 2019-03-12 2022-12-28 Element, Inc. FACIAL RECOGNITION SPOOFING DETECTION WITH MOBILE DEVICES
US11507248B2 (en) 2019-12-16 2022-11-22 Element Inc. Methods, systems, and media for anti-spoofing using eye-tracking
AU2021203821B2 (en) * 2020-12-31 2022-08-18 Sensetime International Pte. Ltd. Methods, devices, apparatuses and storage media of detecting correlated objects involved in images
US11922731B1 (en) 2021-06-30 2024-03-05 Jumio Corporation Liveness detection
FR3127610A1 (fr) * 2021-09-27 2023-03-31 Idemia Identity & Security France Procédé d’imagerie d’une partie de corps d’un utilisateur, procédé anti-rejeu d’un déplacement d’une partie de corps et produit programme d’ordinateur associé
ES2957496A1 (es) * 2022-06-09 2024-01-19 Fenomatch S L Procedimiento para la seleccion entre un grupo de donantes mediante matching facial (pareo facial), a traves de una imagen facial 2d del sujeto donante

Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100287053A1 (en) * 2007-12-31 2010-11-11 Ray Ganong Method, system, and computer program for identification and sharing of digital images with face signatures
CN102013011A (zh) * 2010-12-16 2011-04-13 重庆大学 基于正脸补偿算子的多姿态人脸识别方法
CN102034097A (zh) * 2010-12-21 2011-04-27 中国科学院半导体研究所 综合利用正面与侧面图像的人脸识别的方法
CN102103689A (zh) * 2011-03-07 2011-06-22 北京大学 基于正脸图像合成的人脸识别方法
US20120288166A1 (en) * 2011-05-13 2012-11-15 Microsoft Corporation Association and prediction in facial recognition
CN104054091A (zh) * 2011-12-09 2014-09-17 视德公司 用于图像识别的面部印记生成
CN105023010A (zh) * 2015-08-17 2015-11-04 中国科学院半导体研究所 一种人脸活体检测方法及系统
CN105389491A (zh) * 2014-08-28 2016-03-09 凯文·艾伦·杜西 包括路径参数的面部识别认证系统
CN106503687A (zh) * 2016-11-09 2017-03-15 合肥工业大学 融合人脸多角度特征的监控视频人物身份识别系统及其方法
CN107609471A (zh) * 2017-08-02 2018-01-19 深圳元见智能科技有限公司 一种人脸活体检测方法
CN107622227A (zh) * 2017-08-25 2018-01-23 深圳依偎控股有限公司 一种3d人脸识别的方法、终端设备及可读存储介质
CN107800964A (zh) * 2017-10-26 2018-03-13 武汉大学 一种基于双摄像头实现人脸自动检测与抓拍的方法
CN108154099A (zh) * 2017-12-20 2018-06-12 北京奇艺世纪科技有限公司 一种人物识别方法、装置及电子设备
CN108596135A (zh) * 2018-04-26 2018-09-28 上海诚数信息科技有限公司 身份识别方法及系统

Family Cites Families (171)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3733861A (en) 1972-01-19 1973-05-22 Recognition Devices Electronic recognition door lock
US4371951A (en) 1980-09-29 1983-02-01 Control Data Corporation Apparatus for converting serial input sparse vector format to parallel unpacked format for input to tandem arithmetic logic units
US5067164A (en) 1989-11-30 1991-11-19 At&T Bell Laboratories Hierarchical constrained automatic learning neural network for character recognition
US5058179A (en) 1990-01-31 1991-10-15 At&T Bell Laboratories Hierarchical constrained automatic learning network for character recognition
US5450523A (en) 1990-11-15 1995-09-12 Matsushita Electric Industrial Co., Ltd. Training module for estimating mixture Gaussian densities for speech unit models in speech recognition systems
US5774059A (en) 1995-07-20 1998-06-30 Vindicator Corporation Programmable electronic lock
CA2156236C (en) 1995-08-16 1999-07-20 Stephen J. Borza Biometrically secured control system for preventing the unauthorized use of a vehicle
JP2815045B2 (ja) 1996-12-16 1998-10-27 日本電気株式会社 画像特徴抽出装置,画像特徴解析装置,および画像照合システム
US6152563A (en) 1998-02-20 2000-11-28 Hutchinson; Thomas E. Eye gaze direction tracker
US6178255B1 (en) 1998-04-28 2001-01-23 Cross Match Technologies, Inc. Individualized fingerprint scanner
EP1038877B1 (en) 1999-03-24 2004-03-10 Tosoh Corporation Binaphthol monophosphoric acid derivative and its use
JP4727065B2 (ja) 2000-05-11 2011-07-20 株式会社半導体エネルギー研究所 認証装置および通信システム
WO2001088857A1 (de) 2000-05-16 2001-11-22 Swisscom Mobile Ag Biometrisches identifizierungs- und authentifizierungsverfahren
US6956608B1 (en) 2000-08-11 2005-10-18 Identix Incorporated Fingerprint imaging device including an optical plate having microreflectors
US6819219B1 (en) 2000-10-13 2004-11-16 International Business Machines Corporation Method for biometric-based authentication in wireless communication for access control
JP2002259345A (ja) 2001-02-27 2002-09-13 Nec Corp 身体的特徴データの不正使用を防止する認証方法、認証装置、及びプログラム
US6633090B2 (en) 2001-09-07 2003-10-14 Delphi Technologies, Inc. Starting system for an automotive vehicle using fingerprint recognition
JP2003148017A (ja) 2001-11-08 2003-05-21 Sharp Corp 錠装置、錠制御システム及び錠制御方法
JP2003178306A (ja) 2001-12-12 2003-06-27 Toshiba Corp 個人認証装置および個人認証方法
US6873714B2 (en) 2002-02-19 2005-03-29 Delphi Technologies, Inc. Auto calibration and personalization of eye tracking system using larger field of view imager with higher resolution
US8590013B2 (en) 2002-02-25 2013-11-19 C. S. Lee Crawford Method of managing and communicating data pertaining to software applications for processor-based devices comprising wireless communication circuitry
US7616784B2 (en) 2002-07-29 2009-11-10 Robert William Kocher Method and apparatus for contactless hand recognition
GB2396001B (en) 2002-10-09 2005-10-26 Canon Kk Gaze tracking system
US20040114785A1 (en) 2002-12-06 2004-06-17 Cross Match Technologies, Inc. Methods for obtaining print and other hand characteristic information using a non-planar prism
US20060133651A1 (en) 2002-12-31 2006-06-22 Polcha Andrew J Recoverable biometric identity system and method
EP1594085A4 (en) 2003-02-13 2008-02-27 Nec Corp DEVICE AND METHOD FOR DETECTING UNEMPLOYED PERSONS
DE10315923A1 (de) 2003-04-08 2004-10-28 Tbs Holding Ag Verfahren und Anordnung zur berührungslosen Detektion von Daten unebener Flächen
US6923370B2 (en) 2003-05-20 2005-08-02 Bradley L. Gotfried Access system
US6992562B2 (en) 2003-06-10 2006-01-31 Visteon Global Technologies, Inc. Biometric keyless entry system
US7317815B2 (en) * 2003-06-26 2008-01-08 Fotonation Vision Limited Digital image processing composition using face detection information
US8948468B2 (en) * 2003-06-26 2015-02-03 Fotonation Limited Modification of viewing parameters for digital images using face detection information
US8181017B2 (en) 2004-10-22 2012-05-15 Nds Limited Certificate renewal
US20060120568A1 (en) 2004-12-06 2006-06-08 Mcconville Patrick J System and method for tracking individuals
JP2008536197A (ja) 2005-02-22 2008-09-04 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 所定の条件下でメディア権利を転送するためのシステム及び方法
JP4696610B2 (ja) 2005-03-15 2011-06-08 オムロン株式会社 被写体認証装置、顔認証装置、携帯電話、及び被写体認証方法
US8151358B1 (en) 2005-04-07 2012-04-03 Aol Inc. Annotation of digital items in a shared list
US20060294393A1 (en) 2005-06-24 2006-12-28 Mc Call Clark E Remote biometric registration for vehicles
WO2007000504A1 (fr) 2005-06-27 2007-01-04 France Telecom Procede de reconnaissance biometrique d'une main, systeme et dispositif associes
US8026840B2 (en) 2005-10-28 2011-09-27 Raytheon Company Biometric radar system and method for identifying persons and positional states of persons
JP4793179B2 (ja) * 2005-11-14 2011-10-12 オムロン株式会社 認証装置及び携帯端末
US8290220B2 (en) 2006-03-01 2012-10-16 Nec Corporation Face authenticating apparatus, face authenticating method, and program
DE102006018956A1 (de) 2006-04-24 2007-10-25 Robert Bosch Gmbh Abgassensor
US7983451B2 (en) 2006-06-30 2011-07-19 Motorola Mobility, Inc. Recognition method using hand biometrics with anti-counterfeiting
JP4807167B2 (ja) * 2006-07-06 2011-11-02 オムロン株式会社 なりすまし検知装置
US7660442B2 (en) 2006-09-01 2010-02-09 Handshot, Llc Method and system for capturing fingerprints, palm prints and hand geometry
US7986816B1 (en) 2006-09-27 2011-07-26 University Of Alaska Methods and systems for multiple factor authentication using gaze tracking and iris scanning
US8285648B2 (en) 2006-09-29 2012-10-09 Dan Scammell System and method for verifying a user's identity in electronic transactions
JP2008242631A (ja) 2007-03-26 2008-10-09 Oki Electric Ind Co Ltd 虹彩登録装置および虹彩認証装置
US20080284726A1 (en) 2007-05-17 2008-11-20 Marc Boillot System and Method for Sensory Based Media Control
US8126788B2 (en) 2007-05-29 2012-02-28 Exaktime Innovations, Inc. Method for tracking time attendance of either a dedicated user or multiple non-dedicated users, interchangeably, using a single multi-function electronic hand-held device
CA2636304C (en) 2007-06-27 2014-12-30 Research In Motion Limited System and method for improving smart card reader reconnections
JP4693818B2 (ja) 2007-07-09 2011-06-01 株式会社エヌ・ティ・ティ・ドコモ 認証システム及び認証方法
GB0714344D0 (en) 2007-07-24 2007-09-05 Univ Wales Swansea Biometric attendance verification
US10169646B2 (en) * 2007-12-31 2019-01-01 Applied Recognition Inc. Face authentication to mitigate spoofing
JP5186929B2 (ja) 2008-01-21 2013-04-24 日本電気株式会社 認証用撮像装置
EP2263190A2 (en) * 2008-02-13 2010-12-22 Ubisoft Entertainment S.A. Live-action image capture
US9286742B2 (en) 2008-03-31 2016-03-15 Plantronics, Inc. User authentication system and method
US8358856B2 (en) 2008-06-02 2013-01-22 Eastman Kodak Company Semantic event detection for digital content records
US20100042940A1 (en) 2008-08-14 2010-02-18 Caterpillar Inc. Geofence system with integrated user interface
US8175379B2 (en) 2008-08-22 2012-05-08 Adobe Systems Incorporated Automatic video image segmentation
CN102197412B (zh) 2008-10-28 2014-01-08 日本电气株式会社 伪装检测系统和伪装检测方法
US8345932B2 (en) 2008-11-24 2013-01-01 International Business Machines Corporation Support vector machine for biometric data processing
JP5098973B2 (ja) 2008-11-27 2012-12-12 富士通株式会社 生体認証装置、生体認証方法及び生体認証プログラム
JP4636171B2 (ja) 2008-12-17 2011-02-23 トヨタ自動車株式会社 車両用生体認証システム
JP2010146502A (ja) 2008-12-22 2010-07-01 Toshiba Corp 認証処理装置および認証処理方法
EP2386097A4 (en) 2009-01-06 2013-02-20 Xped Holdings Pty Ltd ARRANGEMENT FOR MANAGING MOBILE DEVICE ACCESS TO DISTRICT REGIONS CONTAINING SERVICES, PRODUCTS, AND INFORMATION
US20100191551A1 (en) 2009-01-26 2010-07-29 Apple Inc. Systems and methods for accessing hotel services using a portable electronic device
JP5436876B2 (ja) 2009-02-02 2014-03-05 株式会社ディスコ 研削方法
US20100246902A1 (en) 2009-02-26 2010-09-30 Lumidigm, Inc. Method and apparatus to combine biometric sensing and other functionality
US8194938B2 (en) 2009-06-02 2012-06-05 George Mason Intellectual Properties, Inc. Face authentication using recognition-by-parts, boosting, and transduction
US8472681B2 (en) 2009-06-15 2013-06-25 Honeywell International Inc. Iris and ocular recognition system using trace transforms
US8638939B1 (en) 2009-08-20 2014-01-28 Apple Inc. User authentication on an electronic device
US8447119B2 (en) 2010-03-16 2013-05-21 Nec Laboratories America, Inc. Method and system for image classification
US8326001B2 (en) 2010-06-29 2012-12-04 Apple Inc. Low threshold face recognition
WO2012020591A1 (ja) 2010-08-09 2012-02-16 日本電気株式会社 個体識別システム、特徴量特定装置、特徴量特定方法および記録媒体
US8670935B2 (en) 2010-08-17 2014-03-11 Blackberry Limited Tagging a location by pairing devices
JP5565285B2 (ja) 2010-11-19 2014-08-06 コニカミノルタ株式会社 ガラス光学素子の製造方法
US20120137137A1 (en) 2010-11-30 2012-05-31 Brickell Ernest F Method and apparatus for key provisioning of hardware devices
KR101816170B1 (ko) 2010-12-22 2018-01-09 한국전자통신연구원 3차원 깊이 정보 획득 장치 및 그 방법
US8457370B2 (en) 2011-01-20 2013-06-04 Daon Holdings Limited Methods and systems for authenticating users with captured palm biometric data
US8675543B2 (en) 2011-02-24 2014-03-18 Verizon Patent And Licensing Inc. Route limiting in border gateway protocol over satellite networks
WO2012135861A1 (en) 2011-04-01 2012-10-04 Tony Lam Battery powered passive keyless entry system for premise entry
US8718327B2 (en) 2011-04-11 2014-05-06 Intel Corporation Gesture recognition using depth images
US9082235B2 (en) 2011-07-12 2015-07-14 Microsoft Technology Licensing, Llc Using facial data for device authentication or subject identification
US8548207B2 (en) 2011-08-15 2013-10-01 Daon Holdings Limited Method of host-directed illumination and system for conducting host-directed illumination
EP2590140A1 (en) 2011-09-05 2013-05-08 Morpho, Inc. Facial authentication system, facial authentication method, and facial authentication program
CN102426715A (zh) 2011-09-30 2012-04-25 华为技术有限公司 一种电子门锁开锁方法、电子门锁及电子门锁系统
US8947202B2 (en) 2011-10-20 2015-02-03 Apple Inc. Accessing a vehicle using portable devices
US9111402B1 (en) 2011-10-31 2015-08-18 Replicon, Inc. Systems and methods for capturing employee time for time and attendance management
US8235529B1 (en) 2011-11-30 2012-08-07 Google Inc. Unlocking a screen using eye tracking information
TW201327413A (zh) 2011-12-21 2013-07-01 Xid Technologies Pte Ltd 臉部認證或辨識系統及方法
WO2013100898A1 (en) 2011-12-27 2013-07-04 Intel Corporation Turing test based user authentication and user presence verification system, device, and method
KR101242390B1 (ko) 2011-12-29 2013-03-12 인텔 코오퍼레이션 사용자를 인증하기 위한 방법, 장치, 및 컴퓨터 판독 가능한 기록 매체
US9519769B2 (en) 2012-01-09 2016-12-13 Sensible Vision, Inc. System and method for disabling secure access to an electronic device using detection of a predetermined device orientation
JP5866216B2 (ja) 2012-01-31 2016-02-17 株式会社東海理化電機製作所 電子キー登録システム
US8705070B2 (en) 2012-02-24 2014-04-22 Canon Kabushiki Kaisha Systems and methods for managing use of an imaging device
US9323912B2 (en) 2012-02-28 2016-04-26 Verizon Patent And Licensing Inc. Method and system for multi-factor biometric authentication
US20130268418A1 (en) 2012-04-04 2013-10-10 Accu-Time Systems, Inc. Methods and apparatus for wireless communication of time and attendance information
HK1160574A2 (en) 2012-04-13 2012-07-13 King Hei Francis Kwong Secure electronic payment system and process
US9070162B2 (en) 2012-04-25 2015-06-30 ZR Investments, LLC Time tracking device and method
US20130286161A1 (en) 2012-04-25 2013-10-31 Futurewei Technologies, Inc. Three-dimensional face recognition for mobile devices
US9047376B2 (en) 2012-05-01 2015-06-02 Hulu, LLC Augmenting video with facial recognition
WO2013180044A1 (ja) 2012-05-29 2013-12-05 株式会社村田製作所 電子キーシステム
US20130342672A1 (en) 2012-06-25 2013-12-26 Amazon Technologies, Inc. Using gaze determination with device input
US8396265B1 (en) * 2012-06-26 2013-03-12 Google Inc. Facial recognition
US8542879B1 (en) * 2012-06-26 2013-09-24 Google Inc. Facial recognition
US8869053B2 (en) 2012-07-06 2014-10-21 Sap Ag Organizer for managing employee time and attendance
US8437513B1 (en) 2012-08-10 2013-05-07 EyeVerify LLC Spoof detection for biometric authentication
US20140195974A1 (en) 2012-08-29 2014-07-10 Identity Validation Products, Llc Method and apparatus for using a finger swipe interface to control a system
EA201590485A1 (ru) 2012-09-05 2015-12-30 Элемент, Инк. Система и способ биометрической аутентификации с использованием устройств, снабженных камерами
US9740917B2 (en) 2012-09-07 2017-08-22 Stone Lock Global, Inc. Biometric identification systems and methods
US9002586B2 (en) 2012-12-03 2015-04-07 Honda Motor Co., Ltd. Integrated biometric switch
US8856541B1 (en) 2013-01-10 2014-10-07 Google Inc. Liveness detection
US9355612B1 (en) 2013-01-22 2016-05-31 Amazon Technologies, Inc. Display security using gaze tracking
US9244529B2 (en) 2013-01-27 2016-01-26 Dmitri Model Point-of-gaze estimation robust to head rotations and/or device rotations
US20140294257A1 (en) 2013-03-28 2014-10-02 Kevin Alan Tussy Methods and Systems for Obtaining Information Based on Facial Identification
US9313200B2 (en) 2013-05-13 2016-04-12 Hoyos Labs Ip, Ltd. System and method for determining liveness
US9003196B2 (en) 2013-05-13 2015-04-07 Hoyos Labs Corp. System and method for authorizing access to access-controlled environments
CN104166835A (zh) 2013-05-17 2014-11-26 诺基亚公司 用于识别活体用户的方法和装置
US20140351163A1 (en) 2013-05-21 2014-11-27 Kevin Alan Tussy System and method for personalized delivery verification
US9014452B2 (en) 2013-08-21 2015-04-21 Seiko Epson Corporation Orientation-aware average intensity histogram to indicate object boundary depth in ultrasound images
AR097974A1 (es) 2013-10-11 2016-04-20 Element Inc Sistema y método para autenticación biométrica en conexión con dispositivos equipados con cámara
KR101556599B1 (ko) 2013-10-30 2015-10-02 연세대학교 산학협력단 패턴 입력 장치 및 방법과 이를 이용한 기록 매체
US20150227735A1 (en) 2014-02-13 2015-08-13 Robert Chappell System and method for eye tracking authentication
US20150227780A1 (en) 2014-02-13 2015-08-13 FacialNetwork, Inc. Method and apparatus for determining identity and programing based on image features
US10027884B2 (en) 2014-03-05 2018-07-17 Disney Enterprises, Inc. Method for capturing photographs and videos on a handheld client device without continually observing the device's screen
US9913135B2 (en) 2014-05-13 2018-03-06 Element, Inc. System and method for electronic key provisioning and access management in connection with mobile devices
US9408076B2 (en) * 2014-05-14 2016-08-02 The Regents Of The University Of California Sensor-assisted biometric authentication for smartphones
US20150348214A1 (en) 2014-05-28 2015-12-03 Shailendra Jain Messaging service for geofence-based automatic time clocking
US20150347833A1 (en) 2014-06-03 2015-12-03 Mark Ries Robinson Noncontact Biometrics with Small Footprint
JP6415607B2 (ja) 2014-06-03 2018-10-31 エレメント,インク. モバイル・デバイスに関連する出退認証および管理
US10803160B2 (en) 2014-08-28 2020-10-13 Facetec, Inc. Method to verify and identify blockchain with user question data
US10698995B2 (en) * 2014-08-28 2020-06-30 Facetec, Inc. Method to verify identity using a previously collected biometric image/data
US10614204B2 (en) * 2014-08-28 2020-04-07 Facetec, Inc. Facial recognition authentication system including path parameters
US11256792B2 (en) * 2014-08-28 2022-02-22 Facetec, Inc. Method and apparatus for creation and use of digital identification
US10915618B2 (en) * 2014-08-28 2021-02-09 Facetec, Inc. Method to add remotely collected biometric images / templates to a database record of personal information
US9405967B2 (en) * 2014-09-03 2016-08-02 Samet Privacy Llc Image processing apparatus for facial recognition
JP6809226B2 (ja) 2014-10-15 2021-01-06 日本電気株式会社 生体検知装置、生体検知方法、および、生体検知プログラム
GB2532075A (en) 2014-11-10 2016-05-11 Lego As System and method for toy recognition and detection based on convolutional neural networks
US9672415B2 (en) 2014-11-13 2017-06-06 Intel Corporation Facial liveness detection in image biometrics
US9928603B2 (en) 2014-12-31 2018-03-27 Morphotrust Usa, Llc Detecting facial liveliness
USD763872S1 (en) 2015-01-07 2016-08-16 Facetec, Inc. Display screen or portion thereof with graphical user interface
EP3284016B1 (en) 2015-04-16 2023-11-22 Tobii AB Authentication of a user of a device
US10678897B2 (en) 2015-04-16 2020-06-09 Tobii Ab Identification, authentication, and/or guiding of a user using gaze information
RU2715521C2 (ru) 2015-06-16 2020-02-28 Айверифай Инк. Системы и способы для обнаружения обманных объектов и анализа жизненности
US10094655B2 (en) * 2015-07-15 2018-10-09 15 Seconds of Fame, Inc. Apparatus and methods for facial recognition and video analytics to identify individuals in contextual video streams
US20170053175A1 (en) 2015-08-17 2017-02-23 Facetec, Inc. System and method for validating three-dimensional objects
CN105184246B (zh) 2015-08-28 2020-05-19 北京旷视科技有限公司 活体检测方法和活体检测系统
KR102377182B1 (ko) 2015-09-01 2022-03-22 엘지전자 주식회사 이동 단말기 및 그 제어방법
US20170186170A1 (en) 2015-12-24 2017-06-29 Thomas A. Nugraha Facial contour recognition for identification
US10102358B2 (en) 2015-12-29 2018-10-16 Sensory, Incorporated Face-controlled liveness verification
US10733275B1 (en) 2016-04-01 2020-08-04 Massachusetts Mutual Life Insurance Company Access control through head imaging and biometric authentication
US10063560B2 (en) 2016-04-29 2018-08-28 Microsoft Technology Licensing, Llc Gaze-based authentication
KR102471916B1 (ko) 2016-06-03 2022-11-29 엘지전자 주식회사 모바일 디바이스 및 그 제어 방법
KR20180006133A (ko) 2016-07-08 2018-01-17 삼성전자주식회사 전자 장치 및 그의 동작 방법
US10089521B2 (en) * 2016-09-02 2018-10-02 VeriHelp, Inc. Identity verification via validated facial recognition and graph database
CN107886032B (zh) 2016-09-30 2021-12-14 阿里巴巴集团控股有限公司 终端设备、智能手机、基于脸部识别的认证方法和系统
CN110114777B (zh) 2016-12-30 2023-10-20 托比股份公司 使用注视信息进行的用户的识别、认证和/或导引
US10747859B2 (en) 2017-01-06 2020-08-18 International Business Machines Corporation System, method and computer program product for stateful instruction-based dynamic man-machine interactions for humanness validation
US9983687B1 (en) 2017-01-06 2018-05-29 Adtile Technologies Inc. Gesture-controlled augmented reality experience using a mobile communications device
GB2560340A (en) 2017-03-07 2018-09-12 Eyn Ltd Verification method and system
KR102185854B1 (ko) * 2017-09-09 2020-12-02 애플 인크. 생체측정 인증의 구현
JP6736686B1 (ja) 2017-09-09 2020-08-05 アップル インコーポレイテッドApple Inc. 生体認証の実施
MX2020002941A (es) 2017-09-18 2022-05-31 Element Inc Métodos, sistemas y medios para la detección de suplantación de identidad en la autenticación móvil.
CN109583285B (zh) * 2017-09-29 2023-03-07 阿里巴巴集团控股有限公司 对象识别方法
CN111492373A (zh) * 2017-10-30 2020-08-04 纽约州州立大学研究基金会 与基于声学的回声签名的用户认证相关联的系统和方法
JP7070588B2 (ja) 2018-02-01 2022-05-18 日本電気株式会社 生体認証装置、システム、方法およびプログラム
CA3125586A1 (en) * 2018-06-11 2019-12-11 Laurence Hamid Liveness detection
EP3938953A4 (en) 2019-03-12 2022-12-28 Element, Inc. FACIAL RECOGNITION SPOOFING DETECTION WITH MOBILE DEVICES
US10997396B2 (en) * 2019-04-05 2021-05-04 Realnetworks, Inc. Face liveness detection systems and methods
US11507248B2 (en) 2019-12-16 2022-11-22 Element Inc. Methods, systems, and media for anti-spoofing using eye-tracking

Patent Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100287053A1 (en) * 2007-12-31 2010-11-11 Ray Ganong Method, system, and computer program for identification and sharing of digital images with face signatures
CN102016882A (zh) * 2007-12-31 2011-04-13 应用识别公司 利用脸部签名来标识和共享数字图像的方法、系统和计算机程序
CN102013011A (zh) * 2010-12-16 2011-04-13 重庆大学 基于正脸补偿算子的多姿态人脸识别方法
CN102034097A (zh) * 2010-12-21 2011-04-27 中国科学院半导体研究所 综合利用正面与侧面图像的人脸识别的方法
CN102103689A (zh) * 2011-03-07 2011-06-22 北京大学 基于正脸图像合成的人脸识别方法
US20120288166A1 (en) * 2011-05-13 2012-11-15 Microsoft Corporation Association and prediction in facial recognition
CN104054091A (zh) * 2011-12-09 2014-09-17 视德公司 用于图像识别的面部印记生成
CN105389491A (zh) * 2014-08-28 2016-03-09 凯文·艾伦·杜西 包括路径参数的面部识别认证系统
CN105023010A (zh) * 2015-08-17 2015-11-04 中国科学院半导体研究所 一种人脸活体检测方法及系统
CN106503687A (zh) * 2016-11-09 2017-03-15 合肥工业大学 融合人脸多角度特征的监控视频人物身份识别系统及其方法
CN107609471A (zh) * 2017-08-02 2018-01-19 深圳元见智能科技有限公司 一种人脸活体检测方法
CN107622227A (zh) * 2017-08-25 2018-01-23 深圳依偎控股有限公司 一种3d人脸识别的方法、终端设备及可读存储介质
CN107800964A (zh) * 2017-10-26 2018-03-13 武汉大学 一种基于双摄像头实现人脸自动检测与抓拍的方法
CN108154099A (zh) * 2017-12-20 2018-06-12 北京奇艺世纪科技有限公司 一种人物识别方法、装置及电子设备
CN108596135A (zh) * 2018-04-26 2018-09-28 上海诚数信息科技有限公司 身份识别方法及系统

Also Published As

Publication number Publication date
JP7464619B2 (ja) 2024-04-09
CN113826110B (zh) 2023-06-20
US11343277B2 (en) 2022-05-24
JP2022525138A (ja) 2022-05-11
EP3938953A4 (en) 2022-12-28
US20200296132A1 (en) 2020-09-17
EP3938953A1 (en) 2022-01-19
BR112021018149A2 (pt) 2022-01-18
BR112021018149B1 (pt) 2023-12-26
AU2020237108B2 (en) 2022-12-15
CA3133229C (en) 2023-04-04
WO2020185948A1 (en) 2020-09-17
CA3133229A1 (en) 2020-09-17
AU2020237108A1 (en) 2021-11-04
KR20220004628A (ko) 2022-01-11
TW202040427A (zh) 2020-11-01
SG11202109983RA (en) 2021-10-28
TWI781383B (zh) 2022-10-21

Similar Documents

Publication Publication Date Title
CN113826110B (zh) 利用移动设备检测生物特征身份识别的欺骗的方法、系统和介质
US10902034B2 (en) Method for populating a map with a plurality of avatars through the use of a mobile technology platform
TWI781226B (zh) 用於偵測行動認證中之欺騙之方法、系統及媒體
WO2017185630A1 (zh) 基于情绪识别的信息推荐方法、装置和电子设备
US11507248B2 (en) Methods, systems, and media for anti-spoofing using eye-tracking
CN113343951A (zh) 人脸识别对抗样本生成方法及相关设备
WO2023034597A1 (en) Methods and systems for improving blockchain technology
US20230325798A1 (en) Systems and methods for regulating access and ticketing with non-fungible tokens

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
REG Reference to a national code

Ref country code: HK

Ref legal event code: DE

Ref document number: 40062335

Country of ref document: HK

GR01 Patent grant
GR01 Patent grant