CN108664880A - 活性测试方法和设备 - Google Patents
活性测试方法和设备 Download PDFInfo
- Publication number
- CN108664880A CN108664880A CN201810209257.6A CN201810209257A CN108664880A CN 108664880 A CN108664880 A CN 108664880A CN 201810209257 A CN201810209257 A CN 201810209257A CN 108664880 A CN108664880 A CN 108664880A
- Authority
- CN
- China
- Prior art keywords
- active testing
- activity value
- activity
- human face
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/169—Holistic features and representations, i.e. based on the facial image taken as a whole
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/40—Spoof detection, e.g. liveness detection
- G06V40/45—Detection of the body part being alive
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20112—Image segmentation details
- G06T2207/20132—Image cropping
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Landscapes
- Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Collating Specific Patterns (AREA)
- Image Analysis (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
公开了一种活性测试方法和设备。所述活性测试方法包括:针对测试目标检测输入图像中的人脸区域;实现第一活性测试,以基于与检测到的人脸区域对应的第一图像确定第一活性值;实现第二活性测试,以基于与检测到的人脸区域的局部人脸区域对应的第二图像确定第二活性值;实现第三活性测试,以基于输入图像的整体或输入图像的全区域确定第三活性值,其中,输入图像的整体或输入图像的全区域包括检测到的人脸区域以及检测到的人脸区域之外的区域;基于第一活性值、第二活性值和第三活性值,确定活性测试的结果。
Description
本申请要求于2017年3月27日提交到韩国知识产权局的第10-2017-0038347号韩国专利申请的权益,所述专利申请的全部公开出于所有目的通过引用包含于此。
技术领域
以下描述涉及一种用于对对象执行活性测试(liveness test)以确定对象是否有生命的活性测试方法和设备。
背景技术
在用户验证系统中,计算设备可基于由用户提供的验证信息来确定是否允许访问计算设备。验证信息可包括由用户输入的密码或生物测量学信息。生物测量学信息可包括与用户的指纹、虹膜或脸部相关联的信息。
近来,人脸反欺骗技术随着用于用户验证系统的安全性方法而吸引越来越多的关注,其中,例如,人脸欺骗可以是一种使用图片、视频或面具的攻击,因此在人脸验证时辨别这种攻击是重要的。人脸反欺骗技术可用于确定输入到计算设备的用户的脸部是冒充的人脸还是真实的人脸。人脸反欺骗技术可包括:提取特征(诸如,例如,局部二进制模式(LBP)、方向梯度直方图(HOG)和高斯差分(DoG));基于提取的特征确定输入的人脸是冒充的人脸还是真实的人脸。然而,目前这样的方法对于活性检测可能具有相对低的准确性,因此,执行用户验证的计算设备可能非常容易地被欺骗,而导致对计算设备的未经允许的访问。
发明内容
提供本发明内容用于以简化的形式介绍对在以下的具体实施方式中进一步描述的构思的选择。本发明内容不意在标识要求保护的主题的关键特征或必要特征,也不意在作为帮助确定要求保护的主题的范围而被使用。
在一个总体的方面,一种处理器实现的活性测试方法包括:针对测试目标检测输入图像中的人脸区域;实施第一活性测试,以基于与检测到的人脸区域对应的第一图像确定第一活性值;实施第二活性测试,以基于与检测到的人脸区域的局部人脸区域对应的第二图像确定第二活性值;实施第三活性测试,以基于输入图像的整体或输入图像的全区域确定第三活性值,其中,输入图像的整体或输入图像的全区域包括检测到的人脸区域以及检测到的人脸区域之外的区域;基于第一活性值、第二活性值和第三活性值,确定活性测试的结果。
第一活性值可基于在第一活性测试中从第一图像提取的所提取的人脸形状信息,第二活性值可基于在第二活性测试中从第二图像提取的所提取的纹理信息,第三活性值可基于在第三活性测试中从输入图像或输入图的全区域提取的所提取的情境信息。
确定活性测试的结果的步骤可包括:基于第一活性值、第二活性值和第三活性值,确定最终活性值;基于最终活性值是否满足预设条件,确定测试目标是否有生命。
确定最终活性值的步骤可包括:将各个权重施加到第一活性值、第二活性值或第三活性值中的至少一个,并且基于施加的结果,确定最终活性值。
可基于确定的检测到的人脸区域的大小、确定的在输入图像中描绘的人脸姿态、确定的人脸在输入图像中的位置、确定的检测到的人脸区域中的遮挡区域的存在或不存在或确定的检测到的人脸区域的照明状态中的至少一个,来确定各个权重。
各个权重可基于各个预定的函数,其中,各个预定的函数不同地考虑确定的检测到的人脸区域的大小、确定的在输入图像中描绘的人脸姿态、确定的人脸在输入图像中的位置、确定的检测到的人脸区域中的遮挡区域的存在或不存在和确定的检测到的人脸区域的照明状态中的一个或多个。
确定最终活性值的步骤可包括以下项中的至少一个:响应于第一活性值被确定为小于第一阈值,将第一权重施加到第一活性值,并且基于将第一权重施加到第一活性值,来执行确定活性测试的结果的步骤;响应于第二活性值被确定为小于第二阈值,将第二权重施加到第二活性值,并且基于将第二权重施加到第二活性值,来执行确定活性测试的结果的步骤;或响应于第三活性值被确定为小于第三阈值,将第三权重施加到第三活性值,并且基于将第三权重施加到第三活性值,来执行确定活性测试的结果的步骤。
可通过由第一活性测试模型实施第一活性测试,来确定第一活性值,可通过由第二活性测试模型实施第二活性测试,来确定第二活性值,可通过由第三活性测试模型实施第三活性测试,来确定第三活性值。
所述活性测试方法还可包括:实施单个的活性测试模型来执行第一活性测试、第二活性测试和第三活性测试。
第一图像的图像信息、第二图像的图像信息和输入图像或输入图像的全区域的图像信息可输入到活性测试模型的至少一个输入层,可从活性测试模型的至少一个输出层输出第一活性值、第二活性值和第三活性值。
所述活性测试方法还可包括:选择性地实施第一活性测试、第二活性测试和/或第二活性测试。
选择性地实施的步骤可包括:响应于检测到的人脸区域的大小被确定为小于阈值人脸区域大小,确定不实施第一活性测试、第二活性测试和第二活性测试。
所述活性测试方法还可包括:将第一图像进行标准化;通过使用第一活性测试模型从标准化的第一图像的图像信息确定第一活性值,来实施第一活性测试。
所述活性测试方法还可包括:通过从检测到的人脸区域裁剪局部人脸区域,来获得第二图像;通过使用第二活性测试模型从第二图像的图像信息确定第二活性值,来实施第二活性测试。
获得第二图像的步骤可包括:在检测到的人脸区域内随机地确定将被裁剪的区域,并且针对确定的将被裁剪的区域执行裁剪。
所述活性测试方法还可包括:将输入图像或输入图像的全区域进行标准化;通过使用第三活性测试模型从标准化的输入图像的图像信息确定第三活性值,来实施第三活性测试。
可使用训练的第一活性测试模型来执行确定第一活性值的步骤,第一活性测试模型被训练为从输入的人脸区域提取人脸形状信息,并且基于提取的人脸形状信息确定第一活性值,可使用训练的第二活性测试模型来执行确定第二活性值的步骤,第二活性测试模型被训练为从输入的局部人脸区域提取纹理信息,和/或可使用训练的第三活性测试模型来执行确定第三活性值的步骤,第三活性测试模型被训练为从输入的包括人脸的图像提取情境信息。
第一活性测试模型可被训练为提取由于一个或多个欺骗材料的各个弯曲或褶皱部分而出现的光反射和/或形状变形的特征。
第二活性测试模型可被训练为提取表示人类皮肤与一个或多个可能材料之间的精细纹理差异的特征。
第三活性测试模型可被训练为提取指示欺骗材料的深度和/或握住欺骗材料的对象或人类肢体的特征。
在一个总体方面,提供一种存储指令的非暂时性计算机可读存储介质,当所述指令由计算硬件执行时使得计算硬件执行在此描述的一个或多个或所有操作。
在一个总体方面,一种处理器实现的活性测试方法包括:针对测试目标从输入图像检测人脸区域;实施第一活性测试,以基于与检测到的人脸区域对应的第一图像确定第一活性值;实施第二活性测试,以基于与检测到的人脸区域的局部人脸区域对应的第二图像确定第二活性值;实施第三活性测试,以基于输入图像的整体或输入图像的全区域确定第三活性值,其中,输入图像的整体或输入图像的全区域包括检测到的人脸区域以及检测到的人脸区域之外的区域;基于第一活性值、第二活性值或第三活性值中的至少一个,确定活性测试的结果。
确定活性测试的结果的步骤可包括:基于第一活性值、第二活性值或第三活性值中的至少一个,确定最终活性值;基于最终活性值是否满足预设条件,确定测试目标是否有生命。
可通过由第一活性测试模型实施第一活性测试,来确定第一活性值,可通过由第二活性测试模型实施第二活性测试,来确定第二活性值,可通过由第三活性测试模型实施第三活性测试,来确定第三活性值。
在一个总体方面,一种处理器实现的活性测试方法包括:针对测试目标从输入图像检测人脸区域;实施第一活性测试,以基于检测到的人脸区域或检测到的人脸区域的局部人脸区域确定第一活性值;实施第二活性测试,以基于输入图像的整体或输入图像的全区域确定第二活性值,其中,输入图像的整体或输入图像的全区域包括检测到的人脸区域以及检测到的人脸区域之外的区域;基于第一活性值和第二活性值,确定活性测试的结果。
确定活性测试的结果的步骤可包括:基于第一活性值和第二活性值,确定最终活性值;基于最终活性值是否满足预设条件,确定测试目标是否有生命。
确定最终活性值的步骤可包括:将各个权重施加到第一活性值或第二活性值中的至少一个,并且基于施加的结果,确定最终活性值。
在一个总体方面,一种用于对测试目标执行活性测试的活性测试设备包括:处理器,被配置为:从输入图像检测人脸区域;实施第一活性测试,以基于与检测到的人脸区域对应的第一图像确定第一活性值;实施第二活性测试,以基于与检测到的人脸区域的局部人脸区域对应的第二图像确定第二活性值;实施第三活性测试,以基于输入图像的整体或输入图像的全区域确定第三活性值,其中,输入图像的整体或输入图像的全区域包括检测到的人脸区域以及检测到的人脸区域之外的区域;基于第一活性值、第二活性值和第三活性值,确定活性测试的结果。
处理器可被配置为:基于第一活性值、第二活性值和第三活性值,确定最终活性值;基于最终活性值是否满足预设条件,确定测试目标是否有生命。
处理器可被配置为:将各个权重施加到第一活性值、第二活性值或第三活性值中的至少一个,并且基于施加的结果,确定最终活性值。
在一个总体方面,一种用于对测试目标执行活性测试的活性测试设备包括:处理器,被配置为:实施训练的第一活性测试模型输入与检测到的人脸区域对应的第一图像,第一活性测试模型被训练为从输入的人脸区域提取人脸形状信息,并且基于提取的人脸形状信息确定第一活性值;实施训练的第二活性测试模型输入与检测到的人脸区域的局部人脸区域对应的第二图像,第二活性测试模型被训练为从输入的局部人脸区域提取纹理信息,并且基于提取的纹理信息确定第二活性值;实施训练的第三活性测试模型输入包括检测到的人脸区域以及检测到的人脸区域之外的区域的输入图像的整体或输入图像的全区域,第三活性测试模型被训练为从输入的包括人脸的图像提取情境信息,并且基于提取的情境信息确定第三活性值;基于由第一活性测试模型确定的第一活性值、由第二活性测试模型确定的第二活性值以及由第三活性测试模型确定的第三活性值,确定输入图像的活性。
第一活性测试模型可被训练为提取由于一个或多个欺骗材料的各个弯曲或褶皱部分而出现的光反射和/或形状变形的特征。
第二活性测试模型可被训练为提取表示人类皮肤与一个或多个欺骗材料之间的精细纹理差异的特征。
第三活性测试模型可被训练为提取指示欺骗材料的深度和/或握住欺骗材料的对象或人类肢体的特征。
活性测试设备还可包括:第一权重确定器,被配置为:基于第一活性值、第二活性值和第三活性值是否分别满足第一活性阈值、第二活性阈值和第三活性阈值的各个确定,确定将被施加到第一活性值、第二活性值和第三活性值中的一个或多个的各个第一权重;和/或第二权重确定器,被配置为:基于确定的一个或多个关于检测到的人脸区域的条件,确定将被施加到第一活性值、第二活性值和第三活性值中的一个或多个的各个第二权重,其中,确定输入图像的活性的步骤可基于将施加到第一活性值的第一权重施加到第一活性值和/或将施加到第一活性值值的第二权重施加到第一活性值,基于将施加到第二活性值的第一权重施加到第二活性值和/或将施加到第二活性值的第二权重施加到第二活性值,将施加到第三活性值的第一权重施加到第三活性值和/或将施加到第三活性值的第二权重施加到第三活性值,以确定输入图像的活性所基于的最终活性值。
确定的一个或多个关于检测到的人脸区域的条件可包括:到测试目标的确定的距离、确定的图像质量、确定的检测到的人脸区域的大小、确定的在输入图像中描绘的人脸姿态、确定的检测到的人脸区域在输入图像中的位置、确定的检测到的人脸区域中的遮挡区域的存在或不存在和确定的检测到的人脸区域的照明状态。
所述活性测试设备还可包括:存储器,包括第一活性测试模型、第二活性测试模型和第三活性测试模型的各个训练的参数,其中,第一活性测试模型、第二活性测试模型和第三活性测试模型可以是各个的一个或多个神经网络层,其中,处理器还可被配置为统一神经网络,其中,通过实现各个训练的参数来生成统一神经网络中的各个的一个或多个神经网络层。
统一神经网络还可包括:被训练为执行基于第一活性值、第二活性值和第三活性值确定输入图像的活性的另外的一个或多个神经网络层,其中,第一活性值、第二活性值和第三活性值被提供给所述另外的一个或多个神经网络层。
在第一活性测试模型、第二活性测试模型和第三活性测试模型中的两个被配置为串行地实施的情况下,第一活性测试模型、第二活性测试模型和第三活性测试模型中的至少两个可被配置为并行地实施。
在第一图像、第二图像和输入图像的整体或输入图像的全区域中的每个输入到统一神经网络的相应的分开的输入层的情况下,第一活性测试模型、第二活性测试模型和第三活性测试模型可被配置为并行地实施。
根据下面的具体实施方式、附图以及权利要求,其他特征和方面将是清楚的。
附图说明
图1是示出活性测试的示例的示图。
图2A是示出活性测试方法的示例的流程图。
图2B是示出活性测试方法的另一示例的流程图。
图3A和图3B是示出活性测试方法的示例的示图。
图4和图5是示出活性测试方法的示例的流程图。
图6是示出活性测试方法的另一示例的示图。
图7是示出活性测试设备的示例的示图。
图8是示出计算设备的示例的示图。
贯穿附图和具体实施方式,除非另有描述或提供,否则相同的附图参考标号将被理解为表示相同或相似的元件、特征和结构。附图可不成比例,并且为了清楚、说明和方便,附图中的元件的相对大小、比例和描绘可被夸大。
具体实施方式
提供下面的详细描述以帮助读者获得对在此描述的方法、设备和/或系统的全面理解。然而,在理解本申请的公开之后,在此描述的方法、设备和/或系统的各种改变、修改和等同物将变得清楚。例如,在此描述的操作的顺序仅是示例,并且不限于在此阐述的那些顺序,而是除了必须以特定次序发生的操作之外,可如在理解本申请的公开之后将清楚的那样改变。另外,为了更加清楚和简洁,可省略对本领域已知的特征的描述。
在此描述的特征可以以不同的形式实现,并且不被解释为受限于在此描述的示例。相反,已提供在此描述的示例仅为示出实施在此描述的在理解本申请的公开之后将是清楚的方法、设备和/或系统的许多可能的方式中的一些方式。
在此可使用诸如第一、第二、A、B、(a)、(b)等术语来描述组件。这些术语中的每个不用于限定相应组件的实质、次序或顺序,而仅用于将相应组件与其他组件进行区分。例如,第一组件可被称为第二组件,类似地,第二组件也可被称为第一组件。
应注意,如果在本说明书中描述了一个组件被“连接”、“耦合”或“联接”到另一组件,则尽管第一组件可直接地连接、耦合或联接到第二组件,但是第三组件可“连接”、“耦合”或“联接”在第一组件与第二组件之间。此外,应注意,如果在本说明书中描述了一个组件被“直接连接”、“直接耦合”或“直接联接”到另一组件,则在第一组件与第二组件之间不存在第三组件。同样地,例如,“在……之间”和“直接在……之间”、“邻近于”和“直接邻近于”的表述也可如上所述地被解释。
在此使用的术语仅是为了描述具体实施例的目的,而不意在限制。如在此使用的,除非上下文另外清楚地指示,否则单数形式也意图包括复数形式。还将理解,除非本公开的上下文和理解另外指示,否则当在此使用术语“包括”、“包含”和/或“具有”时,表明在示例实施例中存在阐述的特征、整数、操作、元件、组件或它们的组合/组,但不排除在可选实施例中存在或添加一个或多个其他特征、整数、操作、元件、组件和/或它们的组合/组,也不排除在另外可选实施例中缺少这样阐述的特征、整体、操作、元件、组件和/或它们的组合/组。此外,在此针对示例或实施例的术语“可”的使用(例如,关于示例或实施例可包括或者可实现什么)表示存在包括或实现这样的特征的至少一个示例或实施例,然而所有的示例和实施例不限于此。
除非在此另外定义,否则在此使用的所有术语(包括技术术语和科学术语)具有与本公开所属领域的普通技术人员基于本公开的理解而通常理解的含义相同的含义。除非在此清楚地定义,否则诸如通用字典中定义的术语应被解释为具有与相关领域和本公开的上下文中的它们的含义一致的含义,而不应被解释为理想化的或过于正式的意义。
图1是示出活性测试的示例的示图。
活性测试可被执行以确定作为测试目标的对象是否有生命。例如,活性测试可被执行以确定由相机捕获的图像中的人脸是真实的人脸还是冒充的人脸。这里,术语“活性”用于在无生命的对象(例如,作为冒充工具的照片、图片和复制品)与有生命的对象(例如,有生命的人)之间进行区分。在一个示例中,活性测试可用于确定为了用户登录、支付服务、访问控制等进一步执行的用户验证的目标是否有生命。此外,活性测试可用于通过检测对验证的尝试(例如,使用替代物(诸如,例如,图片、视频、面具、复制品等)进行的欺骗攻击)来防止不期望的验证结果(例如,错误拒绝或错误接受)。
参照图1,活性检测设备可包括在计算设备120中或者可由计算设备120来表示。在示例中,诸如,这里的计算设备120、图7的活性测试设备700和图8的计算设备200中的每个可单独地或共同地被称为各个活性测试设备,例如,每个活性测试设备包括一个或多个处理器,例如,所述一个或多个处理器被配置为执行两个或更多个不同的活性测试操作,并且基于一个或多个验证图像以及活性测试操作的结果来执行人脸验证,从而输出验证结果。例如,当确定输入图像的活性时,活性测试设备然后可执行人脸验证,或者可将活性测试的结果并入到人脸验证操作中。例如,计算设备120可以是智能电话、可穿戴装置、平板计算机、上网本、膝上型计算机、台式计算机、个人数字助理(PDA)、机顶盒、家庭电器、生物测量学的门锁、安全装置或车辆启动装置。
如所提及的,在一个示例中,计算设备120对尝试通过人脸验证访问计算设备120的用户110执行用户验证。例如,在用户110尝试用户验证以取消计算设备120的锁定状态的情况下,计算设备120使用图像获取器(例如,相机130)获得用户110的脸部图像140、分析获得的脸部图像140并且确定是否取消计算设备110的锁定状态。
用户110使用相机130捕获用户110的脸部的图像,以取消计算设备120的锁定状态。这里,无效用户可能通过使用欺骗技术在计算设备120中引起不期望的验证结果(例如,错误拒绝或错误接受)来尝试取消锁定状态。例如,无效用户向相机130呈现打印了有效用户的脸部的照片或者有效用户的脸部形状的复制品,以引起不期望的验证结果。因此,活性测试设备可用于防止由于欺骗技术而发生的这样的不期望的结果。在一个示例中,还可通过计算设备120的显示器125来提供活性测试或人脸验证的结果。
在一个示例中,在活性测试设备确定测试目标有生命或测试目标是真实的情况下,计算设备120执行用户验证。响应于用户验证被确定为成功的结果,计算设备120取消计算设备120的锁定状态,并且,例如,通过显示器120使得用户获得访问计算设备的更多能力或功能。相反,响应于用户验证被确定为不成功的结果,计算设备120可不允许用户110取消计算设备120的锁定状态,并且计算设备120将控制其自己继续在锁定状态下操作。在活性测试设备确定测试目标没有生命或测试目标是冒充的情况下,计算设备120可不进行用于执行用户验证的下一阶段,而继续在锁定状态下操作。在另一示例中,锁定状态可不被消除,直到活性测试和验证操作二者是成功的并且用户被确定为计算设备120的活的有效用户。此外,在额外的实施例中,活性测试和/或验证操作可额外地或可选择地执行,以根据活性测试结果或基于活性测试和人脸验证二者的结果来控制或指示外部装置允许用户进入限制区,或者,相似地,活性测试和/或验证操作可选择性地授权进行或发起金融或支付交易以及根据实施例的可选的操作或处理。
活性测试设备可基于从由相机130捕获的图像检测的各种因素来执行活性测试。例如,活性测试设备基于捕获的图像的情境信息、整体人脸形状信息和局部人脸纹理信息,来确定测试目标是否有生命。在测试目标位于远离相机处时捕获的图像可包括用于确定测试目标是否为电子装置的显示器或纸张的线索。例如,考虑图像包括握着电子装置或纸张的用户的手的情况的示例,该图像可用作用于确定测试目标是冒充的线索。使用示例中的这种示例的情境信息,这样的欺骗尝试可被有效地检测。此外,在使用整体人脸形状信息的示例中,光反射和形状变形可被考虑以确定活性测试的结果。例如,在示例中,作为欺骗工具的照片或纸张中的光反射用作用于确定人脸不是人类的真实脸部的线索,并且,在示例中,由于照片或纸张的弯曲或褶皱部分而发生的形状变形可被确定。基于这样的因素,可在不同的示例中执行活性测试。此外,可使用示例中的纹理信息来检测人类皮肤与纸张或电子装置的显示器之间的精细纹理差异。因此,基于示例中的这样相结合的各种因素,测试目标是否有生命可比以前的方法更加准确地被确定。
图2A是示出活性测试方法的示例的流程图。
参照图2A,在操作210中,活性测试设备接收输入图像。输入图像表示输入到活性测试设备的作为用于活性测试的测试目标的图像。可通过图像获取器(例如,数字照相机和摄像机)来获得输入图像。活性测试设备的一个或多个处理器可被配置为对接收的输入图像执行图像预处理。例如,图像预处理可包括用于将输入图像处理为更加适合于活性测试的多个操作中的一个或多个或任意组合。仅作为示例,图像预处理可包括:调整输入图像的大小的操作、旋转输入图像的操作、从输入图像去除噪声的操作、增强输入图像的对比度的操作、对输入图像进行去模糊的操作、去除背景区域的操作、弯曲包括在输入图像中的失真以校正失真的操作、从输入图像裁剪区域的操作、和/或对输入图像执行二值化的操作。在下文中,不管这样的图像预处理是否被执行,当在一个示例中预处理被执行时,对“输入图像”的参考可被理解为指已经执行了图像预处理的输入图像,当在一个示例中预处理未被执行时,对“输入图像”的参考可被理解为指未进行图像预处理的输入图像。
在操作220中,活性测试设备从输入图像检测人脸区域。例如,活性测试设备使用基于哈尔(Haar)级联的adaboost分类器或Viola-Jones检测器从输入图像检测人脸区域。然而,示例的范围不限于以上描述的示例,活性测试设备可使用各种人脸区域检测方法从输入图像检测人脸区域。例如,活性测试设备从输入图像检测颅面特征点(faciallandmark),并且将包括检测到的颅面特征点的边界区域检测为人脸区域。例如,仅作为示例,活性测试设备可使用基于主动轮廓模型(ACM)、主动形状模型(ASM)、主动外观模型(AAM)、监督下降方法(SDM)的特征点检测方案,从人脸区域检测人脸的特征点。
为了执行活性测试,活性测试设备使用活性测试神经网络。活性测试神经网络表示被训练为实施用于提供信息(例如,概率值和特征值)的活性模型的神经网络,其中,活性模型可基于输入到活性测试神经网络的信息来决定对象是否有生命,或用于基于输入到活性测试神经网络的信息确定对象是否有生命。例如,活性模型提供的特征值(或在此讨论的一个或多个活性测试模型的各个特征值)还可均为可与预先定义的多维向量空间进行比较的合成特征向量(resultant feature vector),其中,有生命的对象的多维向量而不是人脸对象的多维向量被预先确定为在多维向量空间中不同地分布。如下面讨论的,诸如,可由活性测试设备或服务器或另一计算设备或系统,通过基于训练数据的有监督的学习,预先训练活性测试神经网络。活性测试神经网络可执行非线性映射,从而在活性测试中具有在冒充的对象与真实的对象之间进行区分的较强的能力。
例如,这里,活性测试神经网络包括多个层,每个层包括多个节点,并且每个层由活性测试设备的一个或多个处理器来实现。例如,可存在输入层、至少一个隐藏层以及输出层。当存在多个隐藏层时,神经网络可被视为深度神经网络(DNN)。根据神经网络的架构,包括在邻近层中的节点可根据各个训练的连接权重被选择性地连接。例如,可由活性测试设备的这样的处理器(即,所述一个或多个处理器)来实现神经网络,其中,这样的处理器被配置为生成具有这样的均包括多个节点的多个层的神经网络结构/架构,并且被配置为在神经网络结构的邻近层中的邻近节点之间施加这样的加权的连接,以解释施加到神经网络结构的输入数据。仅作为示例,这里的这样的输入数据的“解释”可包括:诸如针对示例的活性确定所执行的特征提取、识别、验证或拒绝,以及通过这里的活性测试设备或计算设备的进一步的图像识别或验证,以及各个层、层的连接和/或整个神经网络的任意其他训练的(多个)对象。因此,基于训练数据和期望的(多个)解释对象,架构、邻近节点之间的选择性连接和相应的连接权重可在训练期间改变,直到神经网络被训练为对期望的(多个)解释对象具有期望的可接受性。例如,在训练神经网络用于针对在此描述的活性测试操作的特征提取或解释,以及通过在此描述的活性测试设备和计算设备进一步训练神经网络用于图像验证或拒绝的示例中,神经网络可包括卷积层或者可由卷积神经网络(CNN)代表,因此,例如,为了通过多个特征内核改变多个特征提取,各个卷积连接权重可被训练为对诸如由图1的计算设备120、图7的活性测试设备700和图8的计算设备800执行的特征提取、活性确定以及人脸验证、拒绝或辨识操作具有期望的可接受性。例如,除了CNN之外,神经网络还可以是不同类型的神经网络,并且,例如,针对选择性的特征提取,可仅包括一个或多个卷积层,还可针对另外的对象来训练或配置不同类型的神经网络。返回到神经网络的训练,训练的神经网络的连接权重可被称为神经网络的参数,例如,至少可被表现为卷积层或示例的CNN的操作的训练的多个内核值。例如,可诸如通过考虑损失的反向传播或模拟退火算法,基于有标签的输入图像信息或者期望的相应的输出图像、分类、或几何学参数,来训练神经网络。例如,神经网络可被训练为提取训练数据的特征。因此,在训练中,卷积层的不同隐藏层或内核的节点之间的连接权重被递归地调整,例如,直到相应的神经网络模型被训练为具有期望的准确率或小于最大错误率。训练的神经网络可被存储在活性测试设备(例如,在此描述的任意的活性测试设备/计算设备)的存储器中。在示例中,可以以训练的矢量、一个矩阵或多个矩阵、或者其他格式来存储训练的神经网络,例如,仅作为示例,矢量、矩阵或其他格式中的元素将相应的训练的参数表示为或表明为相应的神经网络结构的加权的连接或内核。存储的训练的神经网络还可包括超参数信息,其中,超参数信息可定义与示例存储的训练参数对应的相应的神经网络的特定结构或架构。仅作为示例,超参数可定义输入层和输出层的架构或结构以及存在多少隐藏层、各个隐藏层的功能和结构/架构,诸如,各个布置以及哪些层是全连接层、哪些层是循环层、哪些层是卷积层、哪些层是去卷积层或哪些层是池化层。超参数还可包括神经网络中的任意偏置节点(bias node)和/或上下文节点(contextualnode)的配置和值、节点的相应的激活函数、节点的类型(诸如,长短期记忆节点)的信息,并且超参数还可定义可根据实施例或训练的神经网络的解释对象而改变的神经网络的任意的或任意另外的循环结构。
因此,在图2A至图6的操作之前或期间,仅作为示例,验证设备可获取这样的训练的参数,以被专门配置为:使用获取的训练的参数作为一个或多个训练的活性测试神经网络来执行描述的相应操作,其中,描述的相应操作用于基于输入的各个图像执行图2A至图6的一个或多个或所有操作,并且输出用于确定输入图像是否为有生命的图像的活性确定的结果。此外,在一个示例中,活性测试神经网络还可被训练和配置为包括循环节点,因此活性测试神经网络被训练为还考虑输入到活性测试神经网络的多个图像的顺序以确定输入的多个图像中的一个或多个的活性。
还可仅通过专门配置的硬件模块或者通过硬件和存储在(例如)活性测试设备的或活性测试设备的外部的非暂时性介质中/非暂时性介质上的指令,来实现这里在图2A至图6中参考的活性测试神经网络操作中的一个或多个或者这样的操作的其他活性测试机器学习实施方式,其中,当由硬件的一个或多个处理器执行该指令时,例如,使得处理器实现在此描述的任意操作、任意组合操作或全部操作。
因此,仅作为示例,活性测试神经网络是深度卷积神经网络(DCNN)。DCNN可包括一个或多个卷积层、一个或多个池化层以及一个或多个全连接层或密集层(dense layer),并且通过由DCNN的每个层分别执行的多个操作来提供从输入到活性测试神经网络的图像信息决定活性或用于从输入到活性测试神经网络的图像信息确定活性的信息。图像信息可表示包括在图像中的每个像素的像素值(例如,颜色值和亮度值),然而,实施例不限于此。例如,提供DCNN仅作为图2A至图6的多个操作的各个实施方式的示例,因此活性测试神经网络可实现具有与DCNN模型不同的结构的另一神经网络模型、或者可选地实现除了示例神经网络之外的示例其他机器学习模型。
此外,返回到图2A和图2B,仅作为示例,针对以下描述的操作230、操作240和操作250中的每个,活性测试设备可确定与输入到活性测试神经网络的相应的分开的部分/层或分开的多个活性测试神经网络的每个图像对应的各自的活性值。此外,还可通过可具有分别被训练为执行操作230、操作240和操作250的这样的示例的至少三个分开的活性测试神经网络部分/层的统一活性测试神经网络,来实施操作210、操作220和操作260。例如,在接收的输入图像被转发到被训练为执行操作230和操作240的各个并行布置的神经网络部分/层之前,在接收的输入图像可被提供给被训练为执行操作250的神经网络部分/层的同时,接收的输入图像还可被提供给被训练为操作220的检测人脸区域的一个或多个层。在这样的示例中,各个操作230、240和250的结果可输入到相同的示例后续层或者具有例如被训练为执行操作260的一个或多个全连接层或密集层的神经网络部分/层,各个操作230、240和250的输出结果可以是讨论的操作260的输出。在这样的示例中,代替输出第一活性值至第三活性值,用于执行操作230至操作250的各个网络部分/层均可将特征向量或映射输出到示例后续层。在另一示例中,示例的这样的至少三个分开的活性测试神经网络部分/层中的两个或更多个可被串行地配置(诸如,对应于下面图2B的讨论),并且还跟随用于输出描述的最终活性结果的这样的一个或多个全连接层或密集层。因此,可通过各个这样的活性测试神经网络部分/层或它们的不同组合以及共同地作为统一活性测试神经网络,来实施图2A的操作230至操作250和图2B的操作270至280的各个活性测试操作中的每个、图3A和图6的活性测试模型340至活性测试模型360的各个活性测试模型中的每个以及图3B的活性测试模型380,其中,统一活性测试网络包括全部这样的活性测试神经网络部分/层以及被训练用于在此描述的任意额外训练的多个对象的另外的层。为了便于解释,再次注意,可通过其他机器学习方法来选择性地实施这样的神经网络实施方式,实施各个活性确定(诸如,图2A的操作230至操作250)的各个活性测试神经网络将在下文均被称为活性测试模型。此外,为了便于解释,仅作为示例,下面讨论的活性值可以是用于确定或指示测试目标是否有生命的参考值。
因此,在操作230中,活性测试设备基于与检测到的人脸区域对应的第一图像来确定第一活性值。在一个示例中,第一图像的图像信息输入到第一活性测试模型,第一活性测试模型输出与通过第一活性测试模型的第一图像的图像信息的分析对应的第一活性值。第一图像可被选择和/或被生成以表现或包括与检测到的人脸区域的整体形状相关联的形状信息。基于第一图像确定的第一活性值还可表示基于考虑的或提取的特征(诸如,第一图像的光反射和/或形状变形中的任一个)的活性确定。因此,这样的考虑的特征可以是用于检测欺骗工具的特征。还如上所述,这样的示例的提取的特征可以是多维矢量的形式。第一活性值还可被输出为与提取的特征对应的这样的多维矢量,或者从由第一活性测试模型对这样的示例提取的特征进行组合的差异、组合和/或其他考虑获得的其他多维矢量。
在操作240,活性测试设备基于与检测到的人脸区域的局部人脸区域对应的第二图像来确定第二活性值。在一个示例中,可通过从检测到的人脸区域提取检测到的人脸区域的局部部分或小于检测到的人脸区域的区域,来获得局部人脸区域。在一个示例中,可从检测到的人脸区域内随机确定或选择将被提取作为局部人脸区域的区域,或者基于检测到的人脸区域的中心预设的大小的区域可被提取作为局部人脸区域。在另一示例中,响应于检测到的人脸区域的大小被确定为不满足阈值人脸区域大小或者被确定为小于或等于阈值人脸区域大小,检测到的人脸区域可被确定为局部人脸区域,例如,在这个示例中,如果检测到的人脸的大小不满足这样的阈值人脸区域大小,则第一图像可输入到第二活性测试模型并在操作240中被考虑。
因此,在一个示例中,第二图像的图像信息输入到第二活性测试模型,第二活性测试模型输出与通过第二活性测试模型的第二图像的图像信息的分析对应的第二活性值。第二图像可被选择和/或被生成以表现或包括局部人脸区域的纹理信息。基于第二图像确定的第二活性值还可表示基于考虑的或提取的(多个)特征(诸如,精细纹理差异)的活性确定,考虑的或提取的特征的考虑可用于检测欺骗工具。与上面相似,这样的示例提取的特征可以是多维矢量的形式。第二活性值还可被输出为与这些提取的特征对应的这样的多维矢量,或者从由第二活性测试模型对这样的示例提取的特征的组合产生的差异、组合和/或其他考虑获得的其他多维矢量。在一个示例中,第一活性测试模型被训练为提取表示由于一个或多个欺骗材料的各个弯曲或褶皱部分而出现的光反射和/或形状变形的特征;第二活性测试模型被训练为提取表示人类皮肤与一个或多个可能材料之间的精细纹理差异的特征;第三活性测试模型被训练为提取指示欺骗材料的深度和/或握住欺骗材料的对象或人类肢体的特征。此外,例如,该示例中的欺骗材料或可能材料可以是作为冒充工具的照片、图片和复制品等的材料。
在操作250中,活性测试设备基于输入图像或者输入图像的比检测到的人脸区域包括更多信息的部分,来确定第三活性值。因此,在一个示例中,输入图像的图像信息输入到第三活性测试模型,第三活性测试模型输出与通过第三活性测试模型的输入图像的图像信息的分析对应的第三活性值。基于输入图像确定的第三活性值还可表示基于考虑的或提取的(多个)特征(诸如,情境特征)的活性确定,考虑的或提取的特征的考虑可用于检测欺骗工具。与上面相似,这样的示例提取的特征还可以是多维矢量的形式。第三活性值还可被输出为与这些提取的特征对应的这样的多维矢量,或者从由第三活性测试模型对这样的示例提取的特征的组合产生的差异、组合和/或其他考虑获得的其他多维矢量。
因此,使用示例的多个不同的特征考虑(诸如,通过各个第一活性测试模型至第三活性测试模型),各个与人脸区域的形状相关联的形状信息、人脸区域或局部人脸区域的纹理信息和更大的或全局的图像情境可被共同地考虑,因此,整体的活性检测准确性可比人脸的形状或纹理的各个的单个考虑有所提高,并且在相对长的距离下还具有更高的准确性,并且比传统的技术方法更加准确,因此,可导致对活性测试设备的更加安全的访问控制(例如,更加安全的金融或支付访问以及更加安全的区域访问)。
在一个示例中,如上所述,通过各个活性测试模型来确定第一活性值、第二活性值和第三活性值。例如,各个活性测试模型可被布置为作为分开的多个活性测试模型并行地操作。
在另一示例中,通过单个活性测试模型来确定第一活性值、第二活性值和第三活性值。例如,第一图像的图像信息、第二图像的图像信息和输入图像的图像信息输入到活性测试模型的至少一个输入层,从活性测试模型的至少一个输出层输出第一活性值、第二活性值和第三活性值。在这样的示例中,如上所提及的,可在示例统一活性测试模型中或者在统一活性测试模型内的并行局部布置、串行局部布置或全布置中,布置各个活性测试模型,统一活性测试模型还可包括表示为后续的或并行布置的神经网络部分/层的额外的模型(诸如,神经网络验证或辨识神经网络模型)。这样的额外的模型还可被配置为与示例的活性测试模型分开,并仅基于活性测试模型的活性测试结果进行操作。
在操作260中,活性测试设备基于第一活性值、第二活性值和第三活性值来确定活性测试的结果,即,测试目标是否有生命。简而言之,在关于分开的或统一活性测试模型示例的以上示例的情况下,可与活性测试模型分开地、与包括两个或更多个活性测试模型的示例统一活性测试模型分开地、或与包括示例第一活性测试模型至第三活性测试模型的示例统一活性测试模型结合地执行操作260。还可在任意这样的模型方法之外实现操作260,因此,活性测试设备的一个或多个处理器可基于各个的第一活性值至第三活性值来确定最终活性值。
在一个示例中,在操作260中,活性测试设备基于全部的第一活性值、第二活性值和第三活性值,来确定最终活性值。例如,活性测试设备将第一活性值、第二活性值和第三活性值的和或平均值确定为最终活性值。再例如,活性测试设备将选择的权重施加到第一活性值、第二活性值和第三活性值中的至少一个,并且基于施加权重的结果(例如,加权和或加权平均)来确定最终活性值。例如,权重可以是预设的常数,可施加到第一活性值、第二活性值和第三活性值的各个权重可不同。每个权重可以是选择的或可变的条件权重,其中,例如,仅作为示例,基于以下条件中的任意一个或任意组合来确定条件权重:确定的到测试目标的距离、确定的图像质量、确定的人脸区域的大小、确定的在人脸区域中描绘的人脸姿态、确定的人脸区域在输入图像中的位置、确定的人脸区域中的遮挡区域的存在或不存在以及确定的人脸区域的照明状态。针对第一活性值、第二活性值和第三活性值中的每个,在每个这样的条件权重分别基于针对相应的确定的条件的相应的预定函数被定义的情况下,存在多个这样的条件权重,其中,例如,针对这样的确定的条件中的每个施加一个条件权重。例如,针对确定的到测试目标的距离的条件权重可基于预定函数,其中,为了依赖于确定的条件设置相应的条件权重,预定函数可以是线性或非线性的。同样地,针对确定的图像质量、确定的人脸区域的大小、确定的在人脸区域中描绘的人脸姿态、确定的人脸区域在输入图像中的位置、确定的人脸区域中的(多个)遮挡区域的存在或不存在以及确定的人脸区域的照明状态中的每个,相应的线性或非线性函数可针对每个条件被分别预先确定,因此由活性测试设备用于针对每个具体的确定的条件来设置相应的条件权重。在一个示例中,还可在相应的(多个)神经网络的训练期间确定这样的权重和/或函数,和/或诸如由制造商在训练之前或训练之后设置这样的权重和/或函数。
在这样的示例中,活性测试设备可基于第一活性值、第二活性值和第三活性值中的至少一个来确定最终活性值。例如,通过第一活性值、第二活性值、第三活性值和它们的任意组合来确定最终活性值。
活性测试设备基于最终活性值是否满足预设条件,来确定测试目标是否有生命。例如,响应于最终活性值满足预设条件(例如,最终活性值满足或大于预设阈值),活性测试设备确定测试目标有生命(即,测试目标是真实的)。相反,响应于最终活性值不满足预设条件,活性测试设备确定测试目标没有生命(即,测试目标是冒充的)。这里,在一个示例中,可通过由可执行操作230至操作250的第一活性测试操作至第三活性测试操作的各个模型层中的最后层生成的一个或多个概率值,来表示任意的第一活性值至第三活性值以及最终活性值。在一个示例中,第一活性值至第三活性值中的每个可由一个或两个概率输出值来表示,例如,第一概率输出值指示输入图像是有生命的图像的可能性,和/或第二概率输出值指示输入图像是冒充的图像的可能性。作为另一示例,针对下面图5和图6的讨论,当由任意的第一活性模型至第三活性模型来生成这样的第一概率输出值和第二概率输出值二者,和/或基于分别输出这样的单个概率值或这样的第一活性概率值至第三活性概率值的各个的第一活性模型至第三活性模型的任意组合的考虑来生成这样的第一概率输出值和第二概率输出值二者时,第一概率输出值和第二概率输出值可均被施加针对图5讨论的这样的权重和/或针对图6讨论的条件权重,还注意,这样的权重和/或条件权重可被不同地施加到这样的第一概率输出值和第二概率输出值。因此,仅作为示例,基于提取的特征、图5的确定和图6的条件权重,一个或多个特定权重可被施加到指示输入图像是冒充的图像的示例概率值是可行的,因此使得目标或对象可在这样的多个第二概率值的加权和大于这样的多个第一概率值的加权和时被确定为没有生命。在另一示例中,如果这样的多个第二概率值的这样的加权和大于阈值,则不管指示输入图像是有生命的图像的多个第一概率值的加权和如何,目标或对象可被确定为没有生命。
因此,活性测试设备可基于第一活性值至第三活性值中的无论哪些被生成来确定最终活性值。
图2B是示出活性测试方法的另一示例的流程图。
参照图2B,操作210和操作220与上面参照图2A描述的操作210和操作220相同,为了简明这里不重复其讨论。在操作270中,活性测试设备基于检测到的人脸区域或检测到的人脸区域的局部人脸区域,来确定第一活性值。在基于检测到的人脸区域确定第一活性值的情况下,操作270可包括上面参照图2A描述的操作230的操作的实施方式,为了简明,这里不重复其讨论。然而,在基于局部人脸区域确定第一活性值的情况下,操作270可包括上面参照图2A描述的操作240的操作的实施方式,为了简明,这里不重复其讨论。活性测试设备还可在检测到的人脸区域的使用与局部人脸区域的使用之间进行选择。
在操作280中,活性测试设备基于输入图像确定第二活性值。第二活性值的确定与上面参照图2A描述的操作250中的第三活性值的确定相同,因此为了简明,这里省略其重复描述。
在操作290中,活性测试设备基于在操作270确定的第一活性值和在操作280确定的第二活性值,确定测试目标是否有生命。例如,活性测试设备基于第一活性值和第二活性值确定最终活性值,基于确定的最终活性值是否满足与上面针对图2A的操作260的描述的相同或相似的预设条件,来确定测试目标是否有生命,为了简明,在此不重复其讨论。因此,根据示例,选择权重可被施加到第一活性值和第二活性值中的一个或二者,选择权重在第一活性值与第二活性值之间可相同或不同。同样地,可基于权重的施加的结果(诸如,基于加权的第一活性值和加权的第二活性值的和或者平均),来确定最终活性值。
图3A和图3B是示出活性测试方法的示例的示图。
参照图3A,例如,从包括测试目标或主体的图像310检测整个人脸区域320,并且确定包括人脸区域320的部分的局部人脸区域330。与人脸区域320对应的第一图像325的图像信息输入到第一活性测试模型340,并且第一活性测试模型340输出与第一图像325对应的第一活性值。在一个示例中,第一图像325是从对人脸区域320执行的图像标准化(例如,大小调整和仿射变换)获得的图像。因此,活性测试设备可执行图像310的图像标准化(例如,大小调整和/或仿射变换),并生成或获取第一图像325的图像信息。与局部人脸区域330对应的第二图像335的图像信息输入到第二活性测试模型350,并且第二活性测试模型350输出与第二图像335对应的第二活性值。在一个示例中,第二图像335是从对局部人脸区域330执行的图像标准化获得的图像,例如,活性测试设备执行图像310的这样的标准化以生成或获取第二图像335的图像信息。在一个示例中,例如,用于第二图像335的图像信息的生成或获取的这样的图像310的处理可不包括图像大小调整。例如,依赖于已经对图像310执行标准化,第二图像335可以仅是具有标准化的图像310的裁剪的版本。与图像310的整体区域对应的第三图像315的图像信息输入到第三活性测试模型360,并且第三活性测试模型360输出与第三图像315对应的第三活性值。第三图像315可与图像310相同,或者可以是从对图像310执行的用于生成或获取第三图像315的图像信息的图像标准化获得的图像信息。在另一示例中,可通过上面这样的示例处理来生成或获取第三图像315,同时第三图像315表示大于图像310的在第一图像325中的图像区域并且小于图像310的整个图像。此外,这里,虽然图像315、325和335被讨论为被生成或这样的图像的信息被生成或获取,但是实施例不限于此,作为这样的标准化、大小调整、仿射变换等的结果,图像315、图像325和图像335还可由活性测试设备直接提供给各个第三活性模型360、第一活性模型340和第二活性模型350,而没有作为图像的各个图像信息的组合、存储或记忆。此外,在活性测试模型是各个(多个)活性测试神经网络的示例中,第一活性测试模型340至第三活性测试模型360中的每个可包括一个或多个卷积层、池化层或采样层、反卷积层和/或上采样层,或者第一活性测试模型340至第三活性测试模型360中的每个可由一个或多个卷积层、池化层或采样层、反卷积层和/或上采样层来表示,仅作为示例,根据针对第一活性测试模型340至第三活性测试模型360的各个对象的训练的参数来分别配置一个或多个卷积层、池化层或采样层、反卷积层和/或上采样层。
活性确定器370基于第一活性值、第二活性值和第三活性值来确定最终活性值,并且基于确定的最终活性值是否满足预设条件来确定测试目标是否有生命。例如,最终活性值可以是第一活性值、第二活性值和第三活性值的和、平均值、加权和或加权平均。此外,在活性测试模型是各个活性测试神经网络的示例中,活性确定器370可包括一个或多个全连接层或密集前馈层,或者可由一个或多个全连接层或密集前馈层来表示,仅作为示例,根据针对活性确定器370的各个对象的训练的参数来分别配置一个或多个全连接层或密集前馈层。
可以以图3B中所示的单个统一活性测试模型380来实施图3A中示出的第一活性测试模型340、第二活性测试模型350和第三活性测试模型360。如图3B中所示,第一图像325的图像信息、第二图像335的图像信息和第三图像315的图像信息输入到活性测试模型380的至少一个输入层。例如,第一图像325的图像信息、第二图像335的图像信息和第三图像315的图像信息输入到活性测试模型380的不同的输入层,其中,活性测试模型380的不同的输入层分别供给后续并行的相应的一个或多个层,其中,所述一个或多个层与统一活性测试模型380的第一活性测试模型340、第二活性测试模型350和第三活性测试模型360中的每个对应,例如,其结果可分别提供给活性确定器390的全连接层或密集层。在这个示例中,并行的各个的一个或多个层均可包括一个或多个卷积层以及池化层或采样层。在另一示例中,第一图像325的图像信息、第二图像335的图像信息和第三图像315的图像信息组合地输入到活性测试模型380的单个输入层。
活性测试模型380基于输入的图像信息,来输出分别与第一图像325、第二图像335和第三图像315对应的活性值。活性确定器390基于活性值来确定测试目标是否有生命。与图3A的活性确定器370相似,在活性测试模型是各个活性测试神经网络或各个活性测试神经网络的各个层的示例中,活性确定器390可包括一个或多个全连接层或密集前馈层,或者可由一个或多个全连接层或密集前馈层来表示,仅作为示例,根据针对活性确定器390的各个对象的训练的参数来分别配置一个或多个全连接层或密集前馈层。在统一活性测试神经网络的示例中,与活性确定器370和活性确定器390对应的一个或多个层还可包括在各个示例统一活性测试神经网络中。
图4和图5是示出活性测试方法的示例的流程图。
参照图4,在操作410中,活性测试设备(诸如,在此讨论的任意的活性测试设备)接收包括测试目标的输入图像,在操作420中,活性测试设备从输入图像检测人脸区域。前述的操作410和操作420与参照图2A描述的操作210和操作220相同,因此,为了简明,这里省略更加详细且重复的描述。
在操作430中,活性测试设备确定检测到的人脸区域的大小是否不满足(或小于)阈值人脸区域大小。响应于检测到的人脸区域的大小被确定为不满足(或小于)阈值人脸区域大小,活性测试设备确定不对测试目标执行进一步的活性测试操作。例如,活性测试设备可确定不将关于人脸区域的图像信息转发到前述的活性测试模型中的一个或多个,并且还可基于未执行的活性测试操作,不实施示例活性测试模型或任意相应的后续的最终活性确定。在另一示例中,操作430可不被包括,或者可被选择性地不实施,因此活性测试设备可仅进行与前述的图2A至图3B中的任意实施例相似地操作。
当操作430被实施或者被选择性地实施时,在操作440中,响应于检测到的人脸区域的大小不小于阈值人脸区域大小,活性测试设备,诸如,通过实施上面参照图2A至图3B描述的一个或多个活性测试模型或者全部的活性测试模型以及如下面参照图5更加详细地描述的那样,对测试目标执行活性测试。就此而言,之前的关于图2A至图3B的操作、元件和组件的讨论也可分别应用于针对图5和图6描述的操作、元件和组件,因此,为了简明的目的,下面不单独进行全部的这样的讨论的重复。
参照图5,在操作510中,活性测试设备将与检测到的人脸区域对应的第一图像的大小进行标准化。例如,图像预处理操作(例如,缩放)可被执行,以将检测到的人脸区域的大小设置为预先定义的大小,或者根据示例预先定义的大小控制来自检测到的人脸区域的图像信息的选择。在一个示例中,操作510可不被包括,或者可被选择性的实施。在操作515中,活性测试设备使用诸如上面参照图2A至图3B讨论的第一活性测试模型,从标准化的第一图像(或者,可选地,原始的第一图像)的图像信息,来确定第一活性值。在操作520中,活性测试设备确定第一活性值是否不满足(或者小于)第一阈值。在操作525中,响应于第一活性值不满足(或者小于)第一阈值,活性测试设备将第一权重施加到第一活性值。例如,活性测试设备从第一活性值减去第一权重,或者将第一活性值乘以第一权重。作为示例,与在操作535和操作555中获得的其他确定的活性值相比,对第一活性值的权重的施加可对最终活性值具有降低第一活性值的最终重要性或意义的影响。
在操作530中,活性测试设备通过预处理检测到的人脸区域(诸如,从检测到的人脸区域裁剪局部人脸区域)来获得第二图像。例如,可在检测到的人脸区域内随机地确定将被裁剪的区域,可从人脸区域内的一个或多个进一步确定的或预定的人脸部分随机地选择将被裁剪的区域,或者将被裁剪的区域可被选择为一个或多个预定的人脸部分。根据示例,还可对第二图像进一步执行图像处理方法(例如,缩放),以将第二图像的大小缩放为预先定义的大小,或者根据示例预先定义的大小控制来自第二图像的图像信息的选择。在操作535中,活性测试设备使用诸如上面参照图2A至图3B讨论的第二活性测试模型,从第二图像的图像信息确定第二活性值。在操作540中,活性测试设备确定第二活性值是否不满足(或者小于)第二阈值。在操作545中,响应于第二活性值不满足(或者小于)第二阈值,活性测试设备将第二权重施加到第二活性值。例如,活性测试设备从第二活性值减去第二权重,或者将第二活性值乘以第二权重。作为示例,与在操作515和操作555中获得的其他确定的活性值相比,对第二活性值的权重的施加可对最终活性值具有降低第二活性值的最终重要性或意义的影响。
在操作550中,活性测试设备将输入图像的大小进行标准化。例如,活性测试设备可实施图像预处理操作,以将输入图像的大小调整为预先定义的大小,或者根据示例预先定义的大小控制来自输入图像的图像信息的选择。根据示例,操作550可被省略。在操作555中,活性测试设备使用诸如上面参照图2A至图3B讨论的第三活性测试模型,从标准化的输入图像(或者,可选地,原始的输入图像)的图像信息,来确定第三活性值。在操作560中,活性测试设备确定第三活性值是否小于第三阈值。在操作565中,响应于第三活性值小于第三阈值,活性测试设备将第三权重施加到第三活性值。例如,活性测试设备从第三活性值减去第三权重,或者将第三活性值乘以第三权重。作为示例,与在操作515和操作535中获得的其他确定的活性值相比,对第三活性值的权重的施加可对最终活性值具有降低第三活性值的最终重要性或意义的影响。
在可用的不同的示例中,操作525、操作545和操作565中的任意一个、组合或全部可被省略,或被选择性地省略。
在操作570中,诸如上面参照图2A至图3B所讨论的,活性测试设备确定最终活性值。例如,活性测试设备将例如依赖于相应的阈值比较的各个结果而已施加或未施加相应的权重的活性值(例如,第一活性值至第三活性值)的和、平均值、加权和或加权的平均确定为最终活性值。第一权重至第三权重中的一个或多个或者全部可以是不同的,第一阈值至第三阈值中的一个或多个或者全部可以是不同的。
在操作580中,活性测试设备可基于最终活性值,来确定测试目标是否有生命。例如,响应于最终活性值满足预设条件,活性测试设备确定测试目标有生命(即,测试目标是真实的)。响应于最终活性值不满足条件,活性测试设备确定测试目标没有生命(即,测试目标是冒充的)。操作580还可包括在活性测试设备的人脸识别、验证或拒绝处理中使用测试目标是否有生命的确定的结果的步骤,例如,以控制是否发起这样的识别、验证或拒绝处理,或者作为影响测试目标是否被识别、验证或拒绝的最终确定的一个或多个确定器,在识别、验证或拒绝处理内是否可信。
例如,返回参照图4,在操作450中,活性测试设备可因此基于活性测试的结果来执行控制操作。在一个示例中,响应于确定测试目标有生命,活性测试设备生成用于请求实施通过活性测试设备对用户验证的处理的的控制信号。相反,仅作为非限制示例,响应于确定测试目标没有生命,活性测试设备在不请求实施对用户验证的处理的情况下生成用于阻止用户的访问的控制信号,或者在不实施对用户验证的处理的情况下生成用于保持活性测试设备的示例锁定状态的控制信号。
图6是示出活性测试方法的另一示例的示图。针对图6,之前的关于图2A至图3B的操作、元件和组件的讨论也可应用于针对图6描述的操作、元件和组件,因此,为了简明的目的,下面不单独进行全部这样的讨论的重复。
参照图6,与图3A中示出的示例相似,可使用各个活性测试模型340、350和360,来确定与第一图像325、第二图像335和第三图像315分别对应的第一活性值、第二活性值和第三活性值。然而,除了图3A中示出的示例之外,条件权重确定器610还可用于(或选择性地用于)确定将分别施加到第一活性值、第二活性值和第三活性值中的一个或多个或者全部的条件权重。条件权重确定器610基于确定的条件(仅作为示例,例如,确定的到测试目标的距离、确定的图像质量、确定的人脸区域320的大小、确定的在人脸区域320中描绘的人脸姿态、确定的人脸区域320的位置、确定的人脸区域320中的遮挡区域的存在或不存在和确定的人脸区域320的照明状态或任意组合)来确定各个条件权重。例如,在人脸区域320的大小的情况下,可根据各个预定的函数来预先定义确定的人脸区域320的大小与任意的条件权重之间的关系,其中,各个预定的函数中的每个可以是线性函数或非线性函数,诸如,用于可施加到第一活性值的条件权重的预定函数是非线性或线性,同时,用于可施加到第二活性值和第三活性值的条件权重的预定的函数中的一个或二者是线性函数或非线性函数。这里,因此,可基于各个条件权重将被施加到第一活性值、第二活性值和第三活性中的哪一个,来改变各个将被施加的条件权重。此外,例如,可针对第一活性值至第三活性值中的每个,针对不同的示例可确定的条件中的每个,例如,根据这样的相应的预定的函数,预先定义这样的关系。作为替代,一个或多个确定的条件中的每个的多个方面或者这样的确定的条件之中的预定的选择可被合并为特征,其中,基于特征随着用于定义合并的确定的条件的多个方面与将被施加的条件权重之间的相应的关系的示例预定的线性函数或示例预定的非线性函数下降,特征可相似地定义不同的条件权重,再次注意,这样的哪个条件将被考虑的选择可在第一活性值应用至第三活性值应用之间改变,定义合并的多个方面与条件权重之间的关系的相应的预定函数也可在第一活性值应用至第三活性值应用之间改变。在另一示例中,还可基于用于合并的全部确定的条件的多个方面的单个函数,来定义单个条件权重,例如,在操作620中,单个条件权重可在合适时施加到全部的第一活性值至第三活性值。
活性确定器620基于由条件确定器610确定的以上示例条件权重中的一个或多个以及由活性测试模型340、活性测试模型350和活性测试模型360确定的活性值,来确定最终活性值,并且基于最终活性值是否满足预设条件来确定测试目标是否有生命。在一个示例中,条件权重确定器610将这样的以上示例条件权重中的一个或多个对应地施加到每个活性值。作为非限制示例,活性确定器620可获得单个条件权重的施加到第一活性值至第三活性值的和的算术乘积,或者获得条件权重的分别施加到第一活性值至第三活性值中的每个的和,并且基于施加的结果来确定最终活性值。在一个示例中,以神经网络或前述的统一活性测试神经网络的层或部分/层来实现条件权重确定器610,其中,神经网络或前述的统一活性测试神经网络的层或部分/层被配置为/训练为接收,例如,从第一活性测试模型340至第三活性测试模型360获得的示例第一活性值至第三活性值以及各个的一个或多个条件权重作为输入,并且响应于输入来输出最终活性值。图6的示例还可包含图5的操作,活性确定器620可考虑针对图5和图6讨论的全部的分别施加的权重。
图7是示出活性测试设备的示例的示图。活性测试设备700可被配置为执行上述的任意一个操作、或者组合操作或者所有操作,注意,实施例也不限于此。
因此,活性测试设备700可对包括在输入图像中的测试目标执行活性测试,并且输出活性测试的结果,或者将活性测试的结果用于控制是否执行人脸识别、验证或拒绝的进一步操作,或者针对相应的识别、验证或拒绝在人脸识别操作、验证操作或拒绝操作内使用活性测试的结果。活性测试设备700还可执行针对活性测试操作、识别操作、验证操作或拒绝操作在此示出或描述的一个或多个操作、任意组合操作或所有操作,并且诸如通过图1的活性测试设备120的显示器125将活性测试的结果提供给活性测试设备的用户,和/或诸如在此讨论的活性测试操作、人脸识别操作、验证操作和/或拒绝操作在没有(多个)目标的启发或知识的情况下被自动地执行或远程地控制的示例实施例中,将结果提供给另一终端。
参照图7,活性测试设备700包括至少一个处理器710和存储器720。存储器720是连接到处理器710的非暂时性计算机可读介质或装置,并可存储指令,其中,所述指令在由处理器710执行时使得处理器710实现在此描述的一个或多个或所有操作。存储器还可存储将由处理器710处理的数据或由处理器710处理的数据。存储器720还可存储一个或多个模型或神经网络的训练参数,其中,所述参数当被应用时如在此描述的那样配置处理器710。例如,存储器720可包括高速随机存取存储器(RAM)和非易失性计算机可读存储介质(例如,至少一个磁盘存储装置或闪存装置,或者其他非易失性固态存储器装置)。
处理器710可被配置为执行在此参照图1至图8描述的一个或多个或所有操作。例如,处理器710可被配置为:控制相机或其他图像传感器捕获图像,从输入图像检测人脸区域并且基于与检测到的人脸区域对应的第一图像来确定第一活性值。处理器710可被配置为基于与检测到的人脸区域或捕获的另一图像的确定的局部人脸区域对应的第二图像来确定第二活性值,并且被配置为基于捕获的图像、捕获的另一图像或捕获的再一图像来确定第三活性值。处理器710可被配置为基于第一活性值、第二活性值和第三活性值来确定最终活性值,并且基于最终活性值是否满足预设条件来确定测试目标是否有生命。在另一示例中,处理器710还被配置为将权重或者各自的一个或多个权重施加到第一活性值、第二活性值和第三活性值中的一个或多个,并且基于施加(多个)权重的结果来确定最终权重值。处理器710还可被配置为获取一个或多个活性测试神经网络或统一活性测试神经网络的参数,并且实施在此参照图1至图8描述的一个或多个或所有操作。
图8是示出计算设备的示例的示图。
计算设备800可对包括在输入图像或捕获的图像中的测试目标执行活性测试,并且基于活性测试的结果或者基于对活性测试的结果的考虑来执行人脸识别操作、验证操作和拒绝操作中的一个或多个。如上提及的,计算设备800可对应于图1中示出的计算设备120、图7中示出的活性测试设备700以及在此讨论的参考的任意其他活性测试设备,因此,计算设备800可被配置为执行在此描述的任意一个操作、或任意组合操作、或所有操作,注意,实施例也不限于此。
参照图8,计算设备800包括:处理器810、存储器820、相机830、存储装置840、输入装置850、输出装置860和网络接口870。处理器810、存储器820、相机830、存储装置840、输入装置850、输出装置860和网络接口870可通过通信总线880相互通信。
处理器810可实现如在此描述的那样在计算设备800中进行操作的功能和指令。例如,处理器810可执行存储在存储器820或存储装置840中的指令,所述指令被配置为使得处理器810实现在此参照图1至图8描述的一个或多个操作、任意组合操作或所有操作。此外,处理器810被配置为控制计算设备800的其他功能。例如,计算设备800可以是移动装置(诸如,移动电话、平板或个人计算机),因此,处理器810还被配置为实现计算设备800的其他典型的功能。在一个示例中,处理器810可被配置为:根据捕获的用户的脸部图像的成功验证来实现解锁操作以仅允许用户访问或实现这样的其他典型的功能,或者可被配置为:在通过处理器810的活性操作的实施方式中,例如,基于活性阈值,或响应于通过处理器的足够高的活性图像指示来实现人脸识别或拒绝,和/或被配置为在通过处理器810的人脸识别操作、验证操作或拒绝操作期间,通过处理器810利用这样的活性图像指示。处理器810还被配置为获取(多个)相应的活性测试模型的参数,并且例如,应用这些参数将处理器810配置为如上讨论的(多个)活性测试神网络或统一活性测试神经网络,并且将使用如此配置的处理器810的这样的活性测试操作实现为(多个)活性测试神经网络或统一活性测试神经网络。
存储器820是非暂时性计算机可读介质或装置,其中,例如,非暂时性计算机可读介质或装置存储用于包括定义(多个)活性测试神经网络或统一活性测试神经网络的示例训练的参数的活性测试操作、人脸识别操作、验证操作和/或拒绝操作的信息。此外,存储器820还代表多个这种类型的存储器。存储器820可包括计算机可读存储介质或计算机可读存储装置。存储器820存储将由处理器810实现或执行的指令,并存储在由计算设备800执行软件或应用期间的相关信息。
相机830获得包括将执行活性测试的测试目标的静止图像、视频或二者。例如,处理器810可控制相机830捕获尝试人脸识别、验证或拒绝的用户的包括人脸区域的图像,或者,例如,可在没有用户启动的情况下控制相机830自动地捕获图像并自动地验证用户或目标。此外,还可在计算设备800的其他功能期间(诸如,当作为个人相机操作时)由处理器810来控制相机830。
存储装置840可包括计算机可读存储介质或计算机可读存储装置。存储装置840可存储包括用于人脸识别操作、验证操作或拒绝操作的在面部登记处理中登记的信息(例如,登记特征)的数据库。在一个示例中,与存储器820相比,存储装置840可存储更大量的信息,并且将信息存储很长一段时间。例如,存储装置840可包括:磁性硬盘、光盘、闪存、可擦除编程只读存储器(EPROM)、软盘或在本公开所属的技术领域中公知的其他形式的非易失性存储器。
输入装置850通过触觉、视频、音频或触摸输入从用户接收输入。例如,输入装置850可包括键盘、鼠标、触摸屏、麦克风或检测来自用户的输入并且将检测到的输入传送到计算设备800的其他装置。
输出装置860通过视觉、听觉或触觉通道向用户提供计算设备800的输出。例如,输出装置860可包括显示器、触摸屏、扬声器、振动生成器或将输出提供给用户的其他装置。网络接口870通过有线或无线网络与外部装置进行通信。例如,网络接口870包括:以太网卡、光收发器、射频收发器或被配置为发送或接收信息的另一网络接口卡。网络接口870使用蓝牙、WiFi或者第三代(3G)、第四代(4G)或第五代(5G)通信方法与外部装置进行通信。网络接口870还可包括近场收发器等。例如,通过处理器810的控制,并且在捕获的图像的活性的成功确定,或通过活性确定的使用,以及用户或目标的成功辨识或验证之后,近场收发器可诸如使用由近场收发器发送的适当的移动支付指令来将支付授权发送到外部终端。此外,例如,处理器810可控制网络接口870例行地检查用于登记数据和/或验证数据以及用于活性测试模型的训练的参数(例如,各个训练的(多个)活性测试神经网络或训练的统一活性测试神经网络的参数)的更新,并请求、接收并在存储器820和/或存储装置840中存储这样的更新。例如,当通过以上示例(多个)活性测试神经网络或统一活性测试神经网络来实现活性测试模型时,处理器810可请求、接收并存储用于任意或全部的(多个)活性测试神经网络或统一活性测试神经网络的更新的加权矩阵以及用于被训练为执行人脸识别操作、验证操作或拒绝操作的另外的神经网络或神经网络层的任意参数。此外,还可请求、接收并在存储器820或存储装置840中的任意一个中存储可控制或改变这样的神经网络示例的配置或架构的更新的超参数以及对应的加权矩阵。
通过硬件组件来实现执行在本申请中描述的操作的图1至图8中的活性测试设备、计算设备120、相机130、显示器125、第一活性测试模型340、第二活性测试模型350、第三活性测试模型360、活性确定器370、活性测试模型380、活性确定器390、条件权重确定器610、活性确定器620、活性测试设备700、处理器710、存储器720、计算设备800、处理器810、存储器820、相机830、存储设备840、输入装置850、输出装置860以及网络装置870,其中,硬件组件被配置为执行由硬件组件执行的在本申请中描述的操作。可被用于执行本申请中描述的操作的硬件组件的示例在适当的情况下包括:控制器、传感器、生成器、驱动器、存储器、比较器、算术逻辑单元、加法器、减法器、乘法器、除法器、积分器以及被配置为执行本申请中描述的操作的任何其他电子组件。在其他示例中,通过计算硬件(例如,通过一个或多个处理器或计算机)来实现执行本申请中描述的操作的硬件组件中的一个或多个硬件组件。可通过一个或多个处理元件(诸如,逻辑门阵列、控制器和算术逻辑单元、数字信号处理器、微型计算机、可编程逻辑控制器、现场可编程门阵列、可编程逻辑阵列、微处理器或被配置为以定义的方式响应并执行指令以实现期望的结果的任何其他装置或装置的组合)来实现处理器或计算机。在一个示例中,处理器或计算机包括或连接到存储由处理器或计算机执行的指令或软件的一个或多个存储器。通过处理器或计算机实现的硬件组件可执行用于执行本申请中描述的操作的指令或软件(诸如,操作系统(OS)和在OS上运行的一个或多个软件应用)。硬件组件还可响应于指令或软件的执行来访问、操控、处理、创建并存储数据。为了简单起见,单数术语“处理器”或“计算机”可用于本申请中所述的示例的描述,但是在其他的示例中,多个处理器或计算机可被使用,或者一个处理器或计算机可包括多个处理元件或多种类型的处理元件或二者。例如,单个硬件组件或者两个或更多个硬件组件可通过单个处理器,或者两个或更多个处理器,或者一个处理器和一个控制器来实现。一个或多个硬件组件可通过一个或多个处理器,或者一个处理器和一个控制器来实现,一个或多个其他硬件组件可通过一个或多个其他处理器,或者另一个处理器和另一个控制器来实现。一个或多个处理器或者一个处理器和一个控制器可实现单个硬件组件或者两个或更多个硬件组件。硬件组件可具有任何一个或多个不同的处理配置,其中,一个或多个不同的处理配置的示例包括:单个处理器、独立处理器、并行处理器、单指令单数据(SISD)多处理、单指令多数据(SIMD)多处理、多指令单数据(MISD)多处理以及多指令多数据(MIMD)多处理。
图1至图8中示出的执行本申请中描述的操作的方法通过计算硬件(例如,通过一个或多个处理器或计算机)来执行,其中,计算硬件如上所述地被实现为执行用于执行本申请中描述的通过该方法执行的操作的指令或软件。例如,单个操作或者两个或更多个操作可通过单个处理器或者两个或更多个处理器或者一个处理器和一个控制器来执行。一个或多个操作可通过一个或多个处理器或者一个处理器和一个控制器来执行,并且一个或多个其他操作可通过一个或多个其他处理器或者另一个处理器和另一个控制器来执行。一个或多个处理器或者一个处理器和一个控制器可执行单个操作或者两个或更多个操作。
用于控制计算硬件(例如,一个或多个处理器或计算机)实现硬件组件并执行如上所述的方法的指令或软件可被编写为计算机程序、代码段、指令或它们的任何组合,以单独地或共同地指示或配置一个或多个处理器或者计算机作为机器或专用计算机进行操作,以执行由硬件组件执行的操作和如上所述的方法。在一个示例中,指令或软件包括由一个或多个处理器或者计算机直接执行的机器代码(诸如,由编译器生成的机器代码)。在另一个示例中,指令或软件包括由一个或多个处理器或者计算机使用解释器执行的高级代码。可基于附图中所示的框图和流程图以及说明书中的对应描述,使用任何编程语言来编写指令或软件,其中,附图中所示的框图和流程图以及说明书中的对应描述公开了用于执行由硬件组件执行的操作和如上所述的方法的算法。
用于控制计算硬件(例如,一个或多个处理器或者计算机)实现硬件组件并执行如上所述的方法的指令或软件以及任何相关联的数据、数据文件和数据结构可被记录、存储或固定在一个或多个非暂时性计算机可读存储介质中,或者可被记录、存储或固定在一个或多个非暂时性计算机可读存储介质上。非暂时性计算机可读存储介质的示例包括:只读存储器(ROM)、随机存取存储器(RAM)、闪存、CD-ROM、CD-R、CD+R、CD-RW、CD+RW、DVD-ROM、DVD-R、DVD+R、DVD-RW、DVD+RW、DVD-RAM、BD-ROM、BD-R、BD-R LTH、BD-RE、磁带、软盘、磁光数据存储装置、光学数据存储装置、硬盘、固态盘以及任何其它装置,其中,该任何其它装置被配置为:以非暂时性方式存储指令或软件以及任何相关联的数据、数据文件和数据结构,并且向一个或多个处理器或者计算机提供指令或软件以及任何相关联的数据、数据文件和数据结构,使得一个或多个处理器或者计算机能够执行指令。在一个示例中,指令或软件以及任何相关联的数据、数据文件和数据结构分布在联网的计算机系统上,使得指令和软件以及任何相关联的数据、数据文件和数据结构通过一个或多个处理器或者计算机以分布式方式被存储、访问和执行。
虽然本公开包括特定的示例,但是在理解了本申请的公开之后将清楚,在不脱离权利要求和它们的等同物的精神和范围的情况下,可在这些示例中进行形式和细节的各种改变。在此描述的示例仅在描述性意义上被考虑,而不是为了限制的目的。每一个示例中的特征或方面的描述被认为可应用于其他示例中的相似特征或方面。如果描述的技术以不同的顺序被执行,和/或如果描述的系统、结构、装置或电路中的组件以不同方式被组合,和/或被其他组件或它们的等同物替换或补充,则可实现适当的结果。因此,本公开的范围不是由具体实施方式限定,而是由权利要求和它们的等同物限定,并且在权利要求和它们的等同物的范围内的所有变化将被解释为包括在本公开内。
Claims (40)
1.一种活性测试方法,所述活性测试方法包括:
针对测试目标检测输入图像中的人脸区域;
实施第一活性测试,以基于与检测到的人脸区域对应的第一图像确定第一活性值;
实施第二活性测试,以基于与检测到的人脸区域的局部人脸区域对应的第二图像确定第二活性值;
实施第三活性测试,以基于输入图像的整体或输入图像的全区域确定第三活性值,其中,输入图像的整体或输入图像的全区域包括检测到的人脸区域以及检测到的人脸区域之外的区域;
基于第一活性值、第二活性值和第三活性值,确定活性测试的结果。
2.如权利要求1所述的活性测试方法,
其中,第一活性值基于在第一活性测试中从第一图像提取的人脸形状信息,
其中,第二活性值基于在第二活性测试中从第二图像提取的纹理信息,和/或
其中,第三活性值基于在第三活性测试中从输入图像的整体或输入图的全区域提取的情境信息。
3.如权利要求1所述的活性测试方法,其中,确定活性测试的结果的步骤包括:
基于第一活性值、第二活性值和第三活性值,确定最终活性值;
基于最终活性值是否满足预设条件,确定测试目标是否有生命。
4.如权利要求3所述的活性测试方法,其中,确定最终活性值的步骤包括:
将各个权重施加到第一活性值、第二活性值和第三活性值中的至少一个,并且基于施加的结果确定最终活性值。
5.如权利要求4所述的活性测试方法,其中,基于确定的检测到的人脸区域的大小、确定的在输入图像中描绘的人脸姿态、确定的人脸在输入图像中的位置、确定的检测到的人脸区域中的遮挡区域的存在或不存在以及确定的检测到的人脸区域的照明状态中的至少一个,来确定各个权重。
6.如权利要求5所述的活性测试方法,其中,各个权重基于各个预定的函数,其中,各个预定的函数不同地考虑确定的检测到的人脸区域的大小、确定的在输入图像中描绘的人脸姿态、确定的人脸在输入图像中的位置、确定的检测到的人脸区域中的遮挡区域的存在或不存在和确定的检测到的人脸区域的照明状态中的一个或多个。
7.如权利要求3所述的活性测试方法,其中,确定最终活性值的步骤包括以下项中的至少一个:
响应于第一活性值被确定为小于第一阈值,将第一权重施加到第一活性值,并且基于将第一权重施加到第一活性值,来执行确定活性测试的结果的步骤;
响应于第二活性值被确定为小于第二阈值,将第二权重施加到第二活性值,并且基于将第二权重施加到第二活性值,来执行确定活性测试的结果的步骤;
响应于第三活性值被确定为小于第三阈值,将第三权重施加到第三活性值,并且基于将第三权重施加到第三活性值,来执行确定活性测试的结果的步骤。
8.如权利要求1所述的活性测试方法,其中,
通过由第一活性测试模型实施第一活性测试,来确定第一活性值,
通过由第二活性测试模型实施第二活性测试,来确定第二活性值,
通过由第三活性测试模型实施第三活性测试,来确定第三活性值。
9.如权利要求1所述的活性测试方法,所述活性测试方法还包括:实施单个的活性测试模型来执行第一活性测试、第二活性测试和第三活性测试。
10.如权利要求9所述的活性测试方法,其中,第一图像的图像信息、第二图像的图像信息和输入图像的整体或输入图像的全区域的图像信息输入到所述活性测试模型的至少一个输入层,从所述活性测试模型的至少一个输出层输出第一活性值、第二活性值和第三活性值。
11.如权利要求1所述的活性测试方法,所述活性测试方法还包括:
选择性地实施第一活性测试、第二活性测试和/或第三活性测试。
12.如权利要求11所述的活性测试方法,其中,选择性地实施的步骤包括:响应于检测到的人脸区域的大小被确定为小于阈值人脸区域大小,确定不实施第一活性测试、第二活性测试和第三活性测试。
13.如权利要求1所述的活性测试方法,所述活性测试方法还包括:
将第一图像进行标准化;
通过使用第一活性测试模型从标准化的第一图像的图像信息确定第一活性值,来实施第一活性测试。
14.如权利要求1所述的活性测试方法,所述活性测试方法还包括:
通过从检测到的人脸区域裁剪局部人脸区域,来获得第二图像;
通过使用第二活性测试模型从第二图像的图像信息确定第二活性值,来实施第二活性测试。
15.如权利要求14所述的活性测试方法,其中,获得第二图像的步骤包括:在检测到的人脸区域内随机地确定将被裁剪的区域,并且针对确定的将被裁剪的区域执行裁剪。
16.如权利要求1所述的活性测试方法,所述活性测试方法还包括:
将输入图像的整体或输入图像的全区域进行标准化;
通过使用第三活性测试模型从标准化的输入图像的图像信息确定第三活性值,来实施第三活性测试。
17.如权利要求1所述的活性测试方法,
其中,使用训练的第一活性测试模型来执行确定第一活性值的步骤,第一活性测试模型被训练为:从人脸区域提取人脸形状信息,并且基于提取的人脸形状信息确定第一活性值,
其中,使用训练的第二活性测试模型来执行确定第二活性值的步骤,第二活性测试模型被训练为从局部人脸区域提取纹理信息,和/或
其中,使用训练的第三活性测试模型来执行确定第三活性值的步骤,第三活性测试模型被训练为从包括人脸的图像提取情境信息。
18.如权利要求17所述的活性测试方法,其中,第一活性测试模型被训练为提取表示由于一个或多个欺骗材料的各个弯曲或褶皱部分而出现的光反射和/或形状变形的特征。
19.如权利要求17所述的活性测试方法,其中,第二活性测试模型被训练为提取表示人类皮肤与一个或多个可能材料之间的精细纹理差异的特征。
20.如权利要求17所述的活性测试方法,其中,第三活性测试模型被训练为提取指示欺骗材料的深度和/或握住欺骗材料的对象或人类肢体的特征。
21.一种存储指令的非暂时性计算机可读存储介质,当所述指令由计算硬件执行时,使得计算硬件执行权利要求1所述的活性测试方法。
22.一种活性测试方法,所述活性测试方法包括:
针对测试目标从输入图像检测人脸区域;
实施第一活性测试,以基于与检测到的人脸区域对应的第一图像确定第一活性值;
实施第二活性测试,以基于与检测到的人脸区域的局部人脸区域对应的第二图像确定第二活性值;
实施第三活性测试,以基于输入图像的整体或输入图像的全区域确定第三活性值,其中,输入图像的整体或输入图像的全区域包括检测到的人脸区域以及检测到的人脸区域之外的区域;
基于第一活性值、第二活性值和第三活性值中的至少一个,确定活性测试的结果。
23.如权利要求22所述的活性测试方法,其中,确定活性测试的结果的步骤包括:
基于第一活性值、第二活性值和第三活性值中的至少一个,确定最终活性值;
基于最终活性值是否满足预设条件,确定测试目标是否有生命。
24.如权利要求22所述的活性测试方法,其中,
通过由第一活性测试模型实施第一活性测试,来确定第一活性值,
通过由第二活性测试模型实施第二活性测试,来确定第二活性值,
通过由第三活性测试模型实施第三活性测试,来确定第三活性值。
25.一种活性测试方法,所述活性测试方法包括:
针对测试目标从输入图像检测人脸区域;
实施第一活性测试,以基于检测到的人脸区域或检测到的人脸区域的局部人脸区域确定第一活性值;
实施第二活性测试,以基于输入图像的整体或输入图像的全区域确定第二活性值,其中,输入图像的整体或输入图像的全区域包括检测到的人脸区域以及检测到的人脸区域之外的区域;
基于第一活性值和第二活性值,确定活性测试的结果。
26.如权利要求25所述的活性测试方法,其中,确定活性测试的结果的步骤包括:
基于第一活性值和第二活性值,确定最终活性值;
基于最终活性值是否满足预设条件,确定测试目标是否有生命。
27.如权利要求26所述的活性测试方法,其中,确定最终活性值的步骤包括:
将各个权重施加到第一活性值和第二活性值中的至少一个,并且基于施加的结果确定最终活性值。
28.一种用于对测试目标执行活性测试的活性测试设备,所述活性测试设备包括:
处理器,被配置为:
从输入图像检测人脸区域;
实施第一活性测试,以基于与检测到的人脸区域对应的第一图像确定第一活性值;
实施第二活性测试,以基于与检测到的人脸区域的局部人脸区域对应的第二图像确定第二活性值;
实施第三活性测试,以基于输入图像的整体或输入图像的全区域确定第三活性值,其中,输入图像的整体或输入图像的全区域包括检测到的人脸区域以及检测到的人脸区域之外的区域;
基于第一活性值、第二活性值和第三活性值,确定活性测试的结果。
29.如权利要求28所述的活性测试设备,其中,处理器被配置为:
基于第一活性值、第二活性值和第三活性值,确定最终活性值;
基于最终活性值是否满足预设条件,确定测试目标是否有生命。
30.如权利要求29所述的活性测试设备,其中,处理器被配置为:
将各个权重施加到第一活性值、第二活性值和第三活性值中的至少一个,并且基于施加的结果确定最终活性值。
31.一种用于对测试目标执行活性测试的活性测试设备,所述活性测试设备包括:
处理器,被配置为:
实施输入了与输入图像的检测到的人脸区域对应的第一图像的训练的第一活性测试模型,其中,第一活性测试模型被训练为:从人脸区域提取人脸形状信息,并且基于提取的人脸形状信息确定第一活性值;
实施输入了与检测到的人脸区域的局部人脸区域对应的第二图像的训练的第二活性测试模型,其中,第二活性测试模型被训练为:从局部人脸区域提取纹理信息,并且基于提取的纹理信息确定第二活性值;
实施输入了包括检测到的人脸区域以及检测到的人脸区域之外的区域的输入图像的整体或输入图像的全区域的训练的第三活性测试模型,其中,第三活性测试模型被训练为:从包括人脸的图像提取情境信息,并且基于提取的情境信息确定第三活性值;
基于由第一活性测试模型确定的第一活性值、由第二活性测试模型确定的第二活性值以及由第三活性测试模型确定的第三活性值,确定输入图像的活性。
32.如权利要求31所述的活性测试设备,其中,第一活性测试模型被训练为提取表示由于一个或多个欺骗材料的各个弯曲或褶皱部分而出现的光反射和/或形状变形的特征。
33.如权利要求31所述的活性测试设备,其中,第二活性测试模型被训练为提取表示人类皮肤与一个或多个欺骗材料之间的精细纹理差异的特征。
34.如权利要求31所述的活性测试设备,其中,第三活性测试模型被训练为提取指示欺骗材料的深度和/或握住欺骗材料的对象或人类肢体的特征。
35.如权利要求31所述的活性测试设备,还包括:
第一权重确定器,被配置为:基于第一活性值、第二活性值和第三活性值是否分别满足第一活性阈值、第二活性阈值和第三活性阈值的各个确定,确定将被施加到第一活性值、第二活性值和第三活性值中的一个或多个的各个第一权重;和/或
第二权重确定器,被配置为:基于确定的一个或多个关于检测到的人脸区域的条件,确定将被施加到第一活性值、第二活性值和第三活性值中的一个或多个的各个第二权重,
其中,确定输入图像的活性的步骤基于将施加到第一活性值的第一权重施加到第一活性值和/或将施加到第一活性值的第二权重施加到第一活性值,基于将施加到第二活性值的第一权重施加到第二活性值和/或将施加到第二活性值的第二权重施加到第二活性值,以及将施加到第三活性值的第一权重施加到第三活性值和/或将施加到第三活性值的第二权重施加到第三活性值,来确定输入图像的活性所基于的最终活性值。
36.如权利要求35所述的活性测试设备,其中,确定的一个或多个关于检测到的人脸区域的条件包括:确定的到测试目标的距离、确定的图像质量、确定的检测到的人脸区域的大小、确定的在输入图像中描绘的人脸姿态、确定的检测到的人脸区域在输入图像中的位置、确定的检测到的人脸区域中的遮挡区域的存在或不存在和确定的检测到的人脸区域的照明状态。
37.如权利要求31所述的活性测试设备,还包括:存储器,存储第一活性测试模型、第二活性测试模型和第三活性测试模型的各个训练的参数,
其中,第一活性测试模型、第二活性测试模型和第三活性测试模型是一个或多个神经网络层,
其中,处理器还被配置为统一神经网络,其中,通过实现各个训练的参数来生成统一神经网络中的一个或多个神经网络层。
38.如权利要求37所述的活性测试设备,其中,统一神经网络还包括:被训练为执行基于第一活性值、第二活性值和第三活性值确定输入图像的活性的另外的一个或多个神经网络层,其中,第一活性值、第二活性值和第三活性值被提供给所述另外的一个或多个神经网络层。
39.如权利要求37所述的活性测试设备,其中,第一活性测试模型、第二活性测试模型和第三活性测试模型中的至少两个被配置为并行地实施,并且第一活性测试模型、第二活性测试模型和第三活性测试模型中的两个被配置为串行地实施。
40.如权利要求37所述的活性测试设备,其中,在第一图像、第二图像和输入图像的整体或输入图像的全区域中的每个输入到统一神经网络的相应的输入层的情况下,第一活性测试模型、第二活性测试模型和第三活性测试模型被配置为并行地实施。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170038347A KR102387571B1 (ko) | 2017-03-27 | 2017-03-27 | 라이브니스 검사 방법 및 장치 |
KR10-2017-0038347 | 2017-03-27 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108664880A true CN108664880A (zh) | 2018-10-16 |
CN108664880B CN108664880B (zh) | 2023-09-05 |
Family
ID=61749939
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810209257.6A Active CN108664880B (zh) | 2017-03-27 | 2018-03-14 | 活性测试方法和设备 |
Country Status (4)
Country | Link |
---|---|
US (2) | US11176392B2 (zh) |
EP (1) | EP3382598A3 (zh) |
KR (1) | KR102387571B1 (zh) |
CN (1) | CN108664880B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109829434A (zh) * | 2019-01-31 | 2019-05-31 | 杭州创匠信息科技有限公司 | 基于活体纹理的防伪方法和装置 |
CN109977867A (zh) * | 2019-03-26 | 2019-07-05 | 厦门瑞为信息技术有限公司 | 一种基于机器学习多特征融合的红外活体检测方法 |
CN110569808A (zh) * | 2019-09-11 | 2019-12-13 | 腾讯科技(深圳)有限公司 | 活体检测方法、装置及计算机设备 |
CN111881429A (zh) * | 2019-05-02 | 2020-11-03 | 三星电子株式会社 | 活性检测方法和设备以及面部验证方法和设备 |
Families Citing this family (38)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102483642B1 (ko) * | 2016-08-23 | 2023-01-02 | 삼성전자주식회사 | 라이브니스 검사 방법 및 장치 |
CN108229326A (zh) * | 2017-03-16 | 2018-06-29 | 北京市商汤科技开发有限公司 | 人脸防伪检测方法和系统、电子设备、程序和介质 |
KR102387571B1 (ko) * | 2017-03-27 | 2022-04-18 | 삼성전자주식회사 | 라이브니스 검사 방법 및 장치 |
CN107358157B (zh) * | 2017-06-07 | 2020-10-02 | 创新先进技术有限公司 | 一种人脸活体检测方法、装置以及电子设备 |
EP3447684A1 (en) * | 2017-08-22 | 2019-02-27 | Eyn Limited | Verification method and system |
DE112018005610T5 (de) * | 2017-10-18 | 2020-07-02 | Sony Semiconductor Solutions Corporation | Identifikationseinrichtung und elektronische einrichtung |
KR102374747B1 (ko) * | 2017-12-15 | 2022-03-15 | 삼성전자주식회사 | 객체를 인식하는 장치 및 방법 |
KR102455633B1 (ko) | 2017-12-21 | 2022-10-17 | 삼성전자주식회사 | 라이브니스 검사 방법 및 장치 |
US11265168B2 (en) | 2018-03-07 | 2022-03-01 | Private Identity Llc | Systems and methods for privacy-enabled biometric processing |
US11489866B2 (en) | 2018-03-07 | 2022-11-01 | Private Identity Llc | Systems and methods for private authentication with helper networks |
US11502841B2 (en) | 2018-03-07 | 2022-11-15 | Private Identity Llc | Systems and methods for privacy-enabled biometric processing |
US11210375B2 (en) * | 2018-03-07 | 2021-12-28 | Private Identity Llc | Systems and methods for biometric processing with liveness |
US11394552B2 (en) | 2018-03-07 | 2022-07-19 | Private Identity Llc | Systems and methods for privacy-enabled biometric processing |
US11392802B2 (en) | 2018-03-07 | 2022-07-19 | Private Identity Llc | Systems and methods for privacy-enabled biometric processing |
US10938852B1 (en) | 2020-08-14 | 2021-03-02 | Private Identity Llc | Systems and methods for private authentication with helper networks |
US11170084B2 (en) | 2018-06-28 | 2021-11-09 | Private Identity Llc | Biometric authentication |
US11789699B2 (en) | 2018-03-07 | 2023-10-17 | Private Identity Llc | Systems and methods for private authentication with helper networks |
US10721070B2 (en) | 2018-03-07 | 2020-07-21 | Private Identity Llc | Systems and methods for privacy-enabled biometric processing |
US11138333B2 (en) | 2018-03-07 | 2021-10-05 | Private Identity Llc | Systems and methods for privacy-enabled biometric processing |
US11074434B2 (en) * | 2018-04-27 | 2021-07-27 | Microsoft Technology Licensing, Llc | Detection of near-duplicate images in profiles for detection of fake-profile accounts |
CN110473311B (zh) * | 2018-05-09 | 2021-07-23 | 杭州海康威视数字技术股份有限公司 | 防范非法攻击方法、装置及电子设备 |
US10929516B2 (en) | 2018-10-08 | 2021-02-23 | Advanced New Technologies Co., Ltd. | Dynamic grip signature for personal authentication |
CN109711243B (zh) * | 2018-11-01 | 2021-02-09 | 长沙小钴科技有限公司 | 一种基于深度学习的静态三维人脸活体检测方法 |
US10275589B1 (en) * | 2018-11-06 | 2019-04-30 | Capital One Services, Llc | Identity verification using autonomous vehicles |
CN111767760A (zh) * | 2019-04-01 | 2020-10-13 | 北京市商汤科技开发有限公司 | 活体检测方法和装置、电子设备及存储介质 |
CN110189249B (zh) * | 2019-05-24 | 2022-02-18 | 深圳市商汤科技有限公司 | 一种图像处理方法及装置、电子设备和存储介质 |
EP4022474A2 (en) | 2019-08-29 | 2022-07-06 | PXL Vision AG | Id verification with a mobile device |
US11250282B2 (en) * | 2019-11-14 | 2022-02-15 | Nec Corporation | Face spoofing detection using a physical-cue-guided multi-source multi-channel framework |
KR20210071410A (ko) | 2019-12-06 | 2021-06-16 | 삼성전자주식회사 | 센서 특화 이미지 인식 장치 및 방법 |
KR20210074749A (ko) * | 2019-12-12 | 2021-06-22 | 삼성전자주식회사 | 라이브니스 검사 방법 및 라이브니스 검사 장치 |
CN111507262B (zh) * | 2020-04-17 | 2023-12-08 | 北京百度网讯科技有限公司 | 用于检测活体的方法和装置 |
KR102288509B1 (ko) * | 2020-05-04 | 2021-08-10 | 주식회사 핀샷 | 외국인을 대상으로 한 금융서비스 제공장치, 금융서비스 제공방법 및 이를 기록한 컴퓨터 판독 가능 기록매체 |
WO2021229659A1 (ja) * | 2020-05-11 | 2021-11-18 | 日本電気株式会社 | 判定装置、判定方法および記録媒体 |
CN112507831B (zh) * | 2020-05-22 | 2022-09-23 | 支付宝(杭州)信息技术有限公司 | 活体检测方法、装置、设备和存储介质 |
CN112631896B (zh) * | 2020-12-02 | 2024-04-05 | 武汉旷视金智科技有限公司 | 设备性能测试方法、装置、存储介质及电子设备 |
CN113627233B (zh) * | 2021-06-17 | 2024-08-13 | 中国科学院自动化研究所 | 基于视觉语义信息的人脸伪造检测方法和装置 |
KR20230105986A (ko) * | 2022-01-05 | 2023-07-12 | 삼성전자주식회사 | 라이브니스 검사 방법 및 라이브니스 검사 장치 |
CN114373218B (zh) * | 2022-03-21 | 2022-06-14 | 北京万里红科技有限公司 | 一种用于检测活体对象的卷积网络的生成方法 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0526197A2 (en) * | 1991-07-30 | 1993-02-03 | Xerox Corporation | Image processing |
CN101702198A (zh) * | 2009-11-19 | 2010-05-05 | 浙江大学 | 基于背景比对的视频和活体人脸的鉴别方法 |
CN104915649A (zh) * | 2015-06-04 | 2015-09-16 | 南京理工大学 | 一种应用于人脸识别的活体检测方法 |
CN105740780A (zh) * | 2016-01-25 | 2016-07-06 | 北京天诚盛业科技有限公司 | 人脸活体检测的方法和装置 |
CN105740779A (zh) * | 2016-01-25 | 2016-07-06 | 北京天诚盛业科技有限公司 | 人脸活体检测的方法和装置 |
WO2016197297A1 (zh) * | 2015-06-08 | 2016-12-15 | 北京旷视科技有限公司 | 活体检测方法、活体检测系统以及计算机程序产品 |
WO2017025573A1 (en) * | 2015-08-10 | 2017-02-16 | Yoti Ltd | Liveness detection |
WO2017025575A1 (en) * | 2015-08-10 | 2017-02-16 | Yoti Ltd | Liveness detecton |
Family Cites Families (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7848566B2 (en) | 2004-10-22 | 2010-12-07 | Carnegie Mellon University | Object recognizer and detector for two-dimensional images using bayesian network based classifier |
US8098906B2 (en) | 2006-10-10 | 2012-01-17 | West Virginia University Research Corp., Wvu Office Of Technology Transfer & Wvu Business Incubator | Regional fingerprint liveness detection systems and methods |
ES2495425T3 (es) * | 2011-07-11 | 2014-09-17 | Accenture Global Services Limited | Detección de vida |
US9025830B2 (en) | 2012-01-20 | 2015-05-05 | Cyberlink Corp. | Liveness detection system based on face behavior |
US8457367B1 (en) * | 2012-06-26 | 2013-06-04 | Google Inc. | Facial recognition |
EP2713307B1 (en) | 2012-09-28 | 2018-05-16 | Accenture Global Services Limited | Liveness detection |
RU2651070C2 (ru) | 2012-11-02 | 2018-04-18 | Конинклейке Филипс Н.В. | Устройство и способ для извлечения физиологической информации |
CN104683302A (zh) | 2013-11-29 | 2015-06-03 | 国际商业机器公司 | 认证方法、认证装置、终端设备、认证服务器及系统 |
KR20150069799A (ko) | 2013-12-16 | 2015-06-24 | 삼성전기주식회사 | 얼굴 인증 방법 및 그 장치 |
KR102257897B1 (ko) | 2014-05-09 | 2021-05-28 | 삼성전자주식회사 | 라이브니스 검사 방법과 장치,및 영상 처리 방법과 장치 |
KR101606351B1 (ko) | 2014-06-20 | 2016-03-25 | 주식회사 슈프리마 | 모조생체 판별 방법 및 장치 |
CA3186147A1 (en) * | 2014-08-28 | 2016-02-28 | Kevin Alan Tussy | Facial recognition authentication system including path parameters |
EP3218845A4 (en) * | 2014-11-13 | 2018-07-11 | Intel Corporation | Facial liveness detection in image biometrics |
KR102462818B1 (ko) * | 2015-07-08 | 2022-11-04 | 주식회사 케이티 | 모션벡터 및 특징벡터 기반 위조 얼굴 검출 방법 및 장치 |
CN105389554B (zh) | 2015-11-06 | 2019-05-17 | 北京汉王智远科技有限公司 | 基于人脸识别的活体判别方法和设备 |
EP3403217A4 (en) * | 2016-01-12 | 2019-08-21 | Princeton Identity, Inc. | SYSTEMS AND METHODS FOR BIOMETRIC ANALYSIS |
CN105956572A (zh) | 2016-05-15 | 2016-09-21 | 北京工业大学 | 一种基于卷积神经网络的活体人脸检测方法 |
KR102387571B1 (ko) * | 2017-03-27 | 2022-04-18 | 삼성전자주식회사 | 라이브니스 검사 방법 및 장치 |
CA3125586A1 (en) * | 2018-06-11 | 2019-12-11 | Laurence Hamid | Liveness detection |
-
2017
- 2017-03-27 KR KR1020170038347A patent/KR102387571B1/ko active IP Right Grant
-
2018
- 2018-02-02 US US15/886,875 patent/US11176392B2/en active Active
- 2018-03-14 CN CN201810209257.6A patent/CN108664880B/zh active Active
- 2018-03-21 EP EP18163142.5A patent/EP3382598A3/en active Pending
-
2021
- 2021-09-08 US US17/468,995 patent/US11721131B2/en active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0526197A2 (en) * | 1991-07-30 | 1993-02-03 | Xerox Corporation | Image processing |
CN101702198A (zh) * | 2009-11-19 | 2010-05-05 | 浙江大学 | 基于背景比对的视频和活体人脸的鉴别方法 |
CN104915649A (zh) * | 2015-06-04 | 2015-09-16 | 南京理工大学 | 一种应用于人脸识别的活体检测方法 |
WO2016197297A1 (zh) * | 2015-06-08 | 2016-12-15 | 北京旷视科技有限公司 | 活体检测方法、活体检测系统以及计算机程序产品 |
WO2017025573A1 (en) * | 2015-08-10 | 2017-02-16 | Yoti Ltd | Liveness detection |
WO2017025575A1 (en) * | 2015-08-10 | 2017-02-16 | Yoti Ltd | Liveness detecton |
CN105740780A (zh) * | 2016-01-25 | 2016-07-06 | 北京天诚盛业科技有限公司 | 人脸活体检测的方法和装置 |
CN105740779A (zh) * | 2016-01-25 | 2016-07-06 | 北京天诚盛业科技有限公司 | 人脸活体检测的方法和装置 |
Non-Patent Citations (6)
Title |
---|
GAHYUN KIM 等: "face liveness detection based on texture and frequency analyses", 《2012 5TH IAPR INTERNATIONAL CONFERENCE ON BIOMETRICS (ICB)》 * |
GAHYUN KIM 等: "face liveness detection based on texture and frequency analyses", 《2012 5TH IAPR INTERNATIONAL CONFERENCE ON BIOMETRICS (ICB)》, 29 March 2012 (2012-03-29), pages 67 - 72, XP032215531, DOI: 10.1109/ICB.2012.6199760 * |
GAHYUN KIM 等: "face liveness detection based on texture and frequency analyses", 《2012 5TH IAPR INTERNATIONAL CONFERENCE ON BIOMETRICS(ICB)》, pages 67 - 72 * |
MURALI MOHAN CHAKKA 等: "Competition on counter measures to 2-D facial spoofing attacks", 《IEEE 2011 INTERNATIONAL JOINT CONFERENCE ON BIOMETRICS (IJCB)》 * |
MURALI MOHAN CHAKKA 等: "Competition on counter measures to 2-D facial spoofing attacks", 《IEEE 2011 INTERNATIONAL JOINT CONFERENCE ON BIOMETRICS (IJCB)》, 11 October 2011 (2011-10-11), pages 1 - 6, XP032081574, DOI: 10.1109/IJCB.2011.6117509 * |
MURALI MOHAN CHAKKA 等: "Competition on counter measures to 2-D facial spoofing attacks", 《IEEE 2011 INTERNATIONAL JOINT CONFERENCE ON BIOMETRICS(IJCB)》, pages 1 - 6 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109829434A (zh) * | 2019-01-31 | 2019-05-31 | 杭州创匠信息科技有限公司 | 基于活体纹理的防伪方法和装置 |
CN109977867A (zh) * | 2019-03-26 | 2019-07-05 | 厦门瑞为信息技术有限公司 | 一种基于机器学习多特征融合的红外活体检测方法 |
CN111881429A (zh) * | 2019-05-02 | 2020-11-03 | 三星电子株式会社 | 活性检测方法和设备以及面部验证方法和设备 |
CN110569808A (zh) * | 2019-09-11 | 2019-12-13 | 腾讯科技(深圳)有限公司 | 活体检测方法、装置及计算机设备 |
Also Published As
Publication number | Publication date |
---|---|
EP3382598A3 (en) | 2018-12-19 |
KR102387571B1 (ko) | 2022-04-18 |
CN108664880B (zh) | 2023-09-05 |
US11176392B2 (en) | 2021-11-16 |
US11721131B2 (en) | 2023-08-08 |
EP3382598A2 (en) | 2018-10-03 |
US20210406569A1 (en) | 2021-12-30 |
US20180276488A1 (en) | 2018-09-27 |
KR20180109171A (ko) | 2018-10-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108664880A (zh) | 活性测试方法和设备 | |
US11783639B2 (en) | Liveness test method and apparatus | |
CN108664782A (zh) | 面部验证方法和设备 | |
CN108629168A (zh) | 脸部验证方法、设备以及计算设备 | |
CN109948408B (zh) | 活性测试方法和设备 | |
CN109117700A (zh) | 脸部验证方法和设备 | |
CN108351961B (zh) | 以图像为基础的生物识别系统及计算机实施方法 | |
CN110069970A (zh) | 活性测试方法和设备 | |
CN108664879A (zh) | 脸部验证方法和设备 | |
US10275672B2 (en) | Method and apparatus for authenticating liveness face, and computer program product thereof | |
AU2011254040B2 (en) | Method, apparatus and system for determining a saliency map for an input image | |
CN108073889A (zh) | 虹膜区域提取的方法和设备 | |
US20140337949A1 (en) | System and method for generating a biometric identifier | |
CN107438854A (zh) | 使用移动设备捕获的图像执行基于指纹的用户认证的系统和方法 | |
CN106599872A (zh) | 用于验证活体人脸图像的方法和设备 | |
KR101955919B1 (ko) | 딥러닝 기반의 영상데이터 내 관심영역 설정방법 및 프로그램 | |
EP2148295A1 (en) | Vein pattern management system, vein pattern registration device, vein pattern authentication device, vein pattern registration method, vein pattern authentication method, program, and vein data structure | |
CN106169075A (zh) | 身份验证方法及装置 | |
CN113614731A (zh) | 使用软生物特征的认证验证 | |
CN108875338A (zh) | 解锁方法、装置和系统及存储介质 | |
CN107609463A (zh) | 活体检测方法、装置、设备及存储介质 | |
CN109074482A (zh) | 用于生物活性检测的用户特定分类器 | |
EP4088205B1 (en) | System and method for disentangling features specific to users, actions and devices recorded in motion sensor data | |
CN106228133A (zh) | 用户验证方法及装置 | |
CN109543635A (zh) | 活体检测方法、装置、系统、解锁方法、终端及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |