CN111723636B - 利用视动反应的欺骗检测 - Google Patents

利用视动反应的欺骗检测 Download PDF

Info

Publication number
CN111723636B
CN111723636B CN202010139646.3A CN202010139646A CN111723636B CN 111723636 B CN111723636 B CN 111723636B CN 202010139646 A CN202010139646 A CN 202010139646A CN 111723636 B CN111723636 B CN 111723636B
Authority
CN
China
Prior art keywords
stimulus
video
subject
determining
speed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010139646.3A
Other languages
English (en)
Other versions
CN111723636A (zh
Inventor
J·洛
C·洛弗莱斯
R·R·德拉克希尼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jumio Inc
Original Assignee
Advanced New Technologies Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Advanced New Technologies Co Ltd filed Critical Advanced New Technologies Co Ltd
Publication of CN111723636A publication Critical patent/CN111723636A/zh
Application granted granted Critical
Publication of CN111723636B publication Critical patent/CN111723636B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/40Spoof detection, e.g. liveness detection
    • G06V40/45Detection of the body part being alive
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Collating Specific Patterns (AREA)

Abstract

本文中描述的技术可以体现为一种用于基于将捕获的视频确定为活人的替代表示来阻止访问安全系统的方法。该方法包括在设备的用户界面上呈现刺激。在刺激的呈现之后,捕获位于视频捕获设备的视场内的对象的视频。分析所捕获的视频以提取包括对象对刺激的反应的眼部数据。通过将眼部数据与一个或多个参考模式进行比较来确定所捕获的视频中的对象是活人的替代表示。响应于确定所捕获的视频中的对象是活人的替代表示,阻止对安全系统的访问。

Description

利用视动反应的欺骗检测
技术领域
本公开涉及图像捕获设备。
背景技术
生物特征允许基于一组可识别且可验证的数据来对人进行识别和认证,这些数据对于生物特征是唯一且特定的。生物特征认证包括将一个人的特征数据与该人的生物特征“模板”进行比较以确定相似性的处理。可以基于用于认证用户的物理特征对生物特征认证系统进行分组。这种系统的示例包括基于指纹、手形、手掌静脉、视网膜扫描、虹膜扫描、面部识别、签名和语音分析的认证。
发明内容
在一个方面,本文的特征在于一种用于基于将捕获的视频确定为活人的替代表示来阻止访问安全系统的方法。该方法包括在设备的用户界面上呈现刺激。在刺激的呈现之后,捕获位于视频捕获设备的视场内的对象的视频。分析所捕获的视频以提取包括对象对刺激的反应的眼部数据。通过将眼部数据与一个或多个参考模式进行比较来确定所捕获的视频中的对象是活人的替代表示。响应于确定所捕获的视频中的对象是活人的替代表示,阻止对安全系统的访问。
在另一方面,本文的特征在于一种系统,该系统包括视频采集设备和包括一个或多个处理器的视频分析引擎。视频采集设备被配置为在呈现刺激之后捕获位于视频捕获设备的视场内的对象的视频。视频分析引擎被配置为:分析所捕获的视频以提取包括对象对刺激的反应的眼部数据;以及通过将眼部数据与一个或多个参考模式进行比较来确定所捕获的视频中的对象是活人的替代表示;以及响应于确定所捕获的视频中的对象是活人的替代表示,阻止访问安全系统。
在另一方面,本文的特征在于一种或多种机器可读存储设备,其包括被配置为使一个或多个处理设备执行各种操作的机器可读指令。这些操作包括:在设备的用户界面上呈现刺激;在呈现刺激之后,捕获位于视频捕获设备的视场内的对象的视频;分析所捕获的视频以提取包括对象对刺激的反应的眼部数据;通过将眼部数据与一个或多个参考模式进行比较确定所捕获的视频中的对象是活人的替代表示;以及响应于确定所捕获的视频中的对象是活人的替代表示,阻止访问安全系统。
以上各方面的实施方式可以包括以下特征中的一个或多个。在呈现刺激后,可以捕获第二对象的第二视频。可以分析第二视频以提取包括第二对象对刺激的反应的第二组眼部数据。通过将第二组眼部数据与一个或多个参考模式进行比较,可以确定第二对象是活人。响应于确定第二对象是活人,可以发起认证过程以确定该活人是否被授权访问安全系统。可以从多种刺激中选择要呈现的一种刺激。可以确定呈现刺激的速度。呈现刺激可以包括以确定的速度呈现刺激。刺激可以是高对比度刺激。分析捕获的视频可以包括在呈现刺激之后跟踪眼睛的运动。参考模式可包括对应于视动眼球震颤的第一模式。比较眼部数据可以包括将跟踪的眼睛运动与对应于视动眼球震颤的第一模式进行比较。分析捕获的视频可以包括在呈现刺激之后跟踪瞳孔动态的变化。参考模式可包括与期望的瞳孔动力学的变化相对应的第二模式。比较眼部数据可包括将跟踪的瞳孔动力学的变化与对应于期望的瞳孔动力学的变化的第二模式进行比较。比较眼部数据可以包括确定所捕获的视频是活人的替代表示。确定是否准予访问可以包括基于所捕获的视频是活人的替代表示确定不准予访问。比较眼部数据可以包括确定所捕获的视频是活人。确定是否准予访问可以包括基于所捕获的视频是活人而确定准予访问。
本文描述的各种实施方式可以提供以下优点中的一个或多个。可以通过允许生物特征认证系统区分活人和替代表示(例如,在显示设备上显示的视频)提高生物特征认证系统的可靠性和/或安全性。通过允许生物特征认证系统区分活人的视频和欺骗性替代表示的视频,可以抢先终止其他处理,从而创建了额外的安全层。在某些情况下,本文描述的技术允许实施欺骗检测系统,同时减少对其他硬件的需求。在某些情况下,这又可以减少与底层的生物特征认证系统相关联的成本。由于透明、易于集成以及独立于用户依从性,本文所述的被动识别方法比交互式方法可具有巨大优势。
附图说明
图1示出了其中可以使用本文描述的技术的示例环境。
图2示出了用于存活性评估的系统。
图3示出了用于刺激呈现和反应收集的系统。
图4是用于基于将捕获的视频确定为活人的替代表示来阻止访问安全系统的示例过程的流程图。
图5示出了眼睛跟踪技术。
图6示出了其中可以使用本文描述的技术的示例系统。
图7是表示计算设备的示例的框图。
在本说明书和附图中重复使用附图标记旨在表示相同或相似的特征或元件。
具体实施方式
本文提出了一种视频分析方法,其中,对使用生物特征认证系统的图像采集设备捕获的视频和/或图像进行分析,以确定该视频或图像是对应于真实的活人,还是对应于活人的替代表示(例如,活人的视频记录。如果未确定捕获的视频或图像对应于活人,则可以停止由生物特征认证系统对捕获的视频或图像的任何进一步处理,并且可以立即阻止任何相应的访问尝试。
许多生物特征认证系统涉及基于识别用户的面部、眼纹、虹膜等来认证安全系统的用户。这种生物特征认证系统涉及捕获用户的一个或多个视频或图像,并在捕获的图像上执行相应的识别过程。破坏此类生物特征认证系统安全性的恶意尝试可包括呈现活人的替代表示,以获取对与相应活人的身份相关联的账户或其他特权的访问。这种攻击通常被称为欺骗攻击,并且生物特征认证系统的可靠性/安全性可以通过系统区分活人和相应的替代表示(也称为欺骗)的能力来确定。本文所述的技术提高了依赖于基于面部识别、眼纹识别、虹膜识别等识别用户的生物特征认证系统的安全性/可靠性。特别地,本文描述了预处理步骤,该步骤允许确定捕获的视频或图像是否对应于真实的活人或欺骗的替代表示,例如活人的视频记录。在检测到所捕获的视频或图像是欺骗时,可以阻止对该视频或图像进行任何进一步处理以允许访问相应的安全系统,从而为该系统增加了附加的安全层。
在无处不在且本质上复杂的移动设备安全世界中,设备制造商一直在不懈努力以应对盗窃、欺诈和解决隐私问题。随着新一代设备的推出,开发人员已经引入了新的传感器、方法和特征,这些新的传感器、方法和特征可能导致设计和成本上的极大复杂化。尽管有高级工程师做出了最大的努力,但设备可能仍会遭受故障的困扰,机智和坚定的不良行为者可能会利用这些故障来获取敏感材料。例如,如所描述的,活人的视频记录可以用作活人的欺骗。
利用大多数移动设备中已经存在的通用传感器阵列,可以开发平台无关的解决方案。图像处理和机器学习方面的重大创新促进了处理从移动设备收集的行为数据的方法。这些创新使得能够以相对较高的准确度从移动设备上的前置相机提取移动签名。前置相机被认为是大多数移动设备上的标准附件,就生物识别的吸引力而言,这些传感器具有巨大的前景。图像和视频可以提供与用户身份和行为有关的大量数据,其使用对用户体验而言可以是透明的。在典型使用移动设备的过程中,可以在相机的视场中看到用户的脸部和部分用户的上半身,从而增加了通过面部和/或眼部形态模式识别用户的选项。
与具有行为特征的生物识别的实施相关的一个主要问题是用户依从性的复杂化,这可能导致可用性和整体用户体验的显著降低。对于移动设备而言,理想的最佳生物识别可以是使用侵入性最小、成本最低且准确度最高的方法在最大可能的人群之间进行区分的生物识别。因此,由于透明、易于集成以及独立于用户依从性,被动式识别方法比交互式方法具有巨大优势。
眼部方法可用于利用对规定刺激的无意识路径反应,以确保对刺激的生物特征反应起源于授权请求时。视动眼球震颤是眼睛运动系统对特定模式的运动视觉信息的独特生理反应。如本文所述,视动反应通常可以是一致的和可表征的,并且因此可以被用于生物特征认证,作为不依赖于用户依从性的被动方法。
当观看静态场景时,大多数视觉搜索活动包括短暂的停留时间,也称为凝视或注视,然后进行将中央视场定向到新兴趣点的快速(生理学上称为弹道)运动。对动态环境的视觉反应通常与对静态场景的反应显著不同。例如,对于运动目标,视觉系统通常使跟踪优先于详细分析方法优。对运动目标的视动反应是非自主的慢阶段和快阶段眼动的组合。例如,一个人可以通过其眼睛利用平滑的追踪来跟随运动物体,直到该物体移出视场之外,此时眼睛移回其首次看到该物体时的位置(例如,使用称为扫视的眼睛运动)。平滑的追踪运动的特征可以是速度相对一致,视场中心穿过视觉空间的大弧线。尽管扫视可以通过高级过程在一定程度上受到控制(调制),但平滑的追踪通常独立于有意识的控制。实际上,在没有运动目标的情况下,大多数人都无法产生平滑的追踪运动。
图1示出了示例环境100a和100b,其中可以使用本文所述的技术。本文描述的技术可以例如与各种设备(诸如移动设备102)一起使用。移动设备102可以包括例如前置相机。当用户103使用移动设备102时,用户103的面部(包括用户的眼睛104a和104b)可以位于前置相机的视场105中。
一体机106可以是其中可以使用本文描述的技术的另一示例环境。一体机106可以用于需要经由一个或多个生物特征认证过程对用户进行认证的各种目的。例如,一体机106可以包括允许用户从银行账户取款的自动柜员机(ATM)。通常,一体机106可以被部署在各种位置以交互方式认证用户,或者甚至无需用户的任何主动参与。
一体机106可以包括相机108,相机108被配置为捕获位于相机108的视场112内、与一体机106交互的用户(例如,用户110)的视频和图像。所捕获的视频和图像可以被处理以识别/认证有效用户,和/或允许或拒绝对通过一体机106提供的服务/产品的访问。如下所述,基于视动反应,捕获的视频可以用于认证用户。
用户110可以在对一体机106进行认证之前参与刺激呈现和反应捕获阶段114。类似地,用户103可以在针对移动设备102上的特定应用进行认证之前参与刺激呈现和反应捕获阶段116。在刺激呈现和反应捕获阶段114和116中,可以在一体机106或移动设备102上的相应用户界面上呈现刺激(例如,运动目标),并且可以跟踪用户110或用户103的实时反应(例如,眼部反应,诸如眼睛运动)。这样做,可以在相应的用户界面上的特定视觉事件与可以通过相应设备(例如,分别为相机108或移动设备102的前置相机)上的视觉系统进行测量的反应之间创建时间锁定关系。
在反应比较和访问决策阶段118或120中,可以执行存活性评估以确定是否准许访问相应设备。例如,在反应比较阶段,可以将捕获的反应与期望反应进行比较,以分别确定用户110或用户103的存活性。如果正在积极地捕获用户110或用户103,则可以期望用户110或103表现出对所呈现的刺激的某种反应。作为另一个示例,如果将视频欺骗呈现给相应的相机设备并由其捕获,则视频中人的眼睛将不会对所呈现的刺激做出反应。因此,视频欺骗可以被检测为活的用户的替代表示,而不是用户110或用户103的真实视频捕获。如果检测到欺骗,则可以拒绝对相应设备的访问。如果检测到用户110或用户103的存活性,则基于捕获的反应与期望反应相匹配,可以准许对相应设备的访问(例如,执行可能的其他类型的认证)。
基于检测对所呈现的刺激的期望反应的存活性检测可以是认证的被动形式。对刺激的眼部反应可以是无意识的,并且可以被捕获而无需用户110或103响应于提示而提供的明确用户输入。该反应可以是基于非自主生理路径的反应,其不需要用户110或用户103的有意识努力。减少所需的用户输入可以为用户110或用户103提高可用性。
可以在各种设备上执行视频捕获和分析,而不需要先进的传感器硬件、结构化的照明等。例如,可以使用包括相机或具有对相机的访问权限的任何设备执行利用基于刺激开始的时间锁定反应参数的存活性评估。
图2示出了用于存活性评估的系统200。诸如动画的高对比度阵列202之类的刺激201被呈现在移动设备204上。如曲线图205所示,刺激201可以以特定的速度被呈现并且可以重复。参数调整可以允许刺激方向(例如,从右到左或从左到右的动画)和大小的随机化,这可以生成不同的用户反应。
可以跟踪观察到的反应206,例如用户的眼睛208的眼睛运动。分析引擎可以确定观察到的反应206是否与期望反应相匹配(例如,基于标准化的反应模型)。例如,如曲线图210所示,期望反应可以包括较慢的阶段平滑追踪时间段212,其后是较快的阶段返回扫视214。曲线图216表示观察到的反应206,并且在该示例中,观察到的反应206还包括平滑的追踪,然后进行扫视。分析引擎可以确定观察到的反应206(在该示例中是刺激引起的眼球震颤)与期望反应相匹配。因此,可以准许访问移动设备204(例如,移动设备104上的特定应用)。
图3示出了用于刺激呈现和反应收集的系统300。在导入阶段302中,在刺激开始之前可选地显示导入图像304。导入图像304可以是预定图像,或者可以是空白屏幕。可以在刺激之前呈现导入图像,以改善基于刺激开始的动力学反应。
刺激阶段以刺激(例如308a,308b)的开始点306开始,并以刺激结束点310结束。在刺激阶段,跟踪眼睛运动(例如,由右眼运动图312和右眼运动图314表示)。例如,用户可能表现出不同的平滑追踪周期,然后是扫视。
在一些实施方式中,可以在刺激后阶段312中显示空白屏幕。在一些实施方式中,重新初始化阶段包括在显示器的边界区域(例如,上角)中显示项目(例如,点),以在呈现下一个刺激之前重新初始化用户的焦点(例如,重新初始化阶段可以由点起始时间点314和点终止时间点316定义)。例如,在某些示例中,可以呈现多个刺激并跟踪多个相应的反应,例如,可以呈现多个刺激以为用户收集多个反应样本,以提高存活性评估的准确性和置信度。
图4是用于基于将捕获的视频确定为活人的替代表示来阻止访问安全系统的示例过程400的流程图。在一些实施方式中,过程400的至少一部分可以由设置在诸如一体机106之类的一体机内或诸如移动设备102之类的移动设备之内的一个或多个处理设备执行,每一个都参考图1进行了描述。在一些实施方式中,过程400的至少一部分可以由下面参照图6描述的认证引擎605执行,认证引擎605可以被设置在一体机内、移动设备内、或一个或多个服务器上。
过程400的操作包括在设备的用户界面上呈现刺激(410)。例如,刺激可以被呈现为认证过程的一部分。刺激可以被设计成触发用户的有意注视方向。例如,可以通过播放预渲染的视频文件来呈现刺激。作为另一个例子,刺激可以是通过执行编程指令呈现的动画。在一些实施方式中,重复呈现刺激。
刺激可以包括例如包括高对比度的运动动画。响应于运动的高对比度刺激,用户的眼睛通常会以平滑追踪跟随刺激,失去兴趣,然后通过扫视返回到先前的凝视位置。高对比度项目可以是规则的网格图案,规则的阵列(例如,明暗相间的竖直条)或一些其他类型的生成高对比度的方法。
可以确定刺激的参数,并将其用于定制刺激的呈现。例如,对于高对比度的光栅刺激,可以选择两度的视觉周期。可视周期为两度的高对比度光栅可以进行渲染,使得在全屏显示时在例如移动设备上占据例如十度的视场。可以在预期特定屏幕尺寸(例如,五英寸)和特定设备到面部距离(例如,20-25厘米)的情况下考虑十度来设计刺激。可以将刺激设计为使得刺激所占据的用户视场内的视觉空间(例如,假设特定的屏幕尺寸和设备到面部的距离)对应于用户视网膜的主要高视敏度区域,称为中央凹,是视网膜最稠密的区域。
可以选择其他刺激参数,以改善用户反应的及时性和/或一致性。例如,可以选择取向(例如,肖像,风景)或动画方向。对于以波浪形式呈现的刺激,可以选择正弦曲线或方波。对于某些刺激,可以配置运动角度。作为另一个示例,可以将刺激的运动设置为以特定的速度而保持恒定,或者可以将刺激的运动配置为包括刺激加速度。
可以配置和选择特定的刺激速度。例如,可以选择每秒一到六度的速度。在速度较慢的情况下,实现一致的平滑追踪模式可能会成问题。在速度较快的情况下,用户返回扫视可能会出现较大的眼睛运动误差,这对于检测平滑的追踪/返回扫视模式可能会造成问题。可以选择通常已在整个用户群体中确定的特定速度,以产生最高程度的可预测且可重复的用户反应。
通常,可以选择参数以获得响应于刺激的最大眼位移。眼睛位移的增加可以实现在更大的眼睛到屏幕的距离处进行反应检测。随着眼睛到屏幕的距离增加,眼睛的相对比例(例如,相对于跟踪区域的每个像素体积)减小,这可以使反应检测更困难。当视动眼球震颤的平滑阶段的长度增加时,可能会出现增加的眼睛位移。眼睛位移增加会导致在较大的屏幕到眼睛距离,较低的帧速率和较低的分辨率下成功检测到位移。
在一些实施方式中,从多种刺激中选择一种刺激。例如,可以随机选择特定的刺激类型。其他刺激类型可以是包括翘曲、会聚、波浪、若隐若现的幻觉、畸变、褪色、模糊、颜色、面部图像、照明强度变化或其他方面的刺激。
中央凹包含比眼睛的其他部分更多的颜色受体,并且运动跟踪的某些方面依赖中央凹数据。视觉元素的某些特定颜色的图案或颜色的纹理可能导致比其他颜色或图案更大的位移。可以选择导致较大眼睛位移的颜色或图案。
可以使用不同类型的模糊方法。例如,用户界面中除了选定的未模糊部分之外的其他部分可以被模糊化。模糊动作可以将用户的焦点移到期望的未模糊区域。作为另一个示例,可以配置用户界面,使得未模糊的部分在屏幕上移动。由于人眼和大脑趋向于发现并跟随较不模糊的区域,因此模糊可以用作刺激。例如,大脑通常会决定将目光集中在信息量较高的区域。
作为类似示例,某些类型的图案具有比其他类型更高的亲和力,并且可以被选择。例如,面部图像比其他类型的刺激具有更高的跟踪亲和力,并且即使存在其他背景元素也可以导致用户跟踪。刺激的呈现可以包括例如呈现面部图像以吸引初始用户的注视。
刺激可以被配置为认证过程的明显的、独立的部分,或者可以以与用户的其他交互无缝的方式呈现。在一些示例中,刺激可以是在用户与用户界面元素进行交互之前动态地重新定位标准用户界面(例如,登录屏幕)的用户界面元素,而不是呈现单独的用户界面。对于某些应用,可以基于可用性或视觉外观问题来选择刺激类型或方法,以减少对用户的视觉震撼,同时仍然产生可检测的反应。
过程400的操作包括在呈现刺激之后在视频捕获设备的视场内捕获对象的视频(420)。视频捕获设备可以被包括在设备中或与设备相关联。视频捕获设备可以例如使用GPGPU(通用图形处理单元)相机管线处理连续视频流,以进行有效处理。在一些实施方式中,将相机放置成与设备的中心偏离以产生角度差异,这与对于居中的相机可能发生的更小角度差异相比,可以导致更容易的计算。可以在刺激开始后的一时间段内捕获视频,以收集实时数据来生成分类样本。视频捕获可以包括实时眼睛跟踪,以收集对所呈现刺激的眼部反应信息。
过程400的操作包括分析所捕获的视频以提取包括对象对刺激的反应的眼部数据(430)。该反应是对刺激的生理/对称反射反应。眼部数据表示刺激开始后基本眼部特征的近实时定位。
分析视频可以包括识别刺激物在屏幕上移动时出现的眼睛角度和其他眼部数据。在一些实施方式中,跟踪瞳孔动力学的变化(例如,瞳孔直径的变化)(例如,由于某些刺激的照明强度的变化和/或当向用户呈现特别有趣或刺激性的刺激时,会发生这种变化)。
刺激被呈现之前所记录的原始眼睛位置可以用作参考位置。可以使用二维和/或三维计算来计算眼睛的运动和位移。眼部特征可以包括作为位移速度和加速度的顺序导数(sequential derivative)。作为另一示例,可以将总位移量值作为总量值向量中的竖直和水平运动的组合来计算。计算眼睛的运动和位移可以包括对头部的转动和倾斜(例如,侧倾和横摆)加以考虑。通常,眼睛运动跟踪可以对头部位置、眼睛与头部的关系以及头部/眼睛与屏幕的关系加以考虑。下面参照图5更详细地描述眼睛跟踪。
收集眼部数据时可能会出现其他难题,并且可能涉及特定的处理。例如,分辨率问题、设备的稳定性(或缺乏)、不同的用户到屏幕距离、不同的房间照明以及不同的屏幕亮度水平都可能带来难题。例如,关于眼睛张开检测的眼部数据跟踪可能提出特定的难题。
例如,眼睛运动跟踪可以包括对瞳孔的识别和跟踪。然而,不足的(例如,部分的)眼睛张开会引起识别和跟踪点的问题,因为它们与眼睛张开和瞳孔边界的椭圆有关。竖直眼睑运动在上眼睑运动方面(例如相对闭眼)会最明显地显现。跟踪竖直眼睑运动可以是一种在较大距离上跟踪竖直凝视分量的方法。如果用户在数据收集时间段期间持续下垂眼睑,则可能会出现难题。例如,下垂增加可由于注意力因素和/或重复性刺激疲劳而出现。Gabor滤镜虹膜分割可用于补偿因闭眼而出现的跟踪问题。当仅虹膜的较小部分可见时,可以使用光流方法(例如,短暂时间段)。
眨眼与眼睛张开有关,但可能具有独特的难题。例如,在刺激的开始和/或结束时,视觉空间内容的变化可以触发作为一种“视觉重置”的眨眼事件。由于眨眼事件,需要连续跟踪区域的建模可能具有较小的跟踪置信度。此外,鉴于眨眼事件可能会触发一些视觉动作,眨眼事件可能会覆盖视动眼球震颤反射。例如,由于眨眼后动作潜伏期,在眨眼周期中视动眼球震颤反射可实质上被去电位增强(例如,缓冲可被实质上“冲洗掉”)。在高对比度视觉刺激后,可以增强眨眼反射。
作为眨眼问题的解决方案,可以减少刺激周期的持续时间,以避免将眨眼事件混入反应信号中。但是,缩短刺激时间段可能会降低检测到完整的视动眼球震颤周期的可能性,因此减少刺激长度的方法可以考虑反应检测的可能性。作为另一种解决方案,可以将眨眼事件确定为在特定刺激速度和周期配置下是可预测的,因此眨眼事件可以是期望(和观察到的)反应的一部分并可用于比较。例如,在眨眼事件之后,通常存在重新获取运动信号的时间段,与第一检测周期大致相同。期望反应模式可以包括眨眼事件和重新获取。
可使用特定方法解决来稳定性问题。例如,重要的运动因素会影响正面眼部运动数据的记录。在实际应用中,来自相机路径和分开的头部运动二者的运动分量会使眼睛运动与帧运动的清晰分离变得复杂。基于连续性的跟踪度量(例如,补丁和特征跟踪)以及帧到帧的光流估计可用于稳定视频帧运动失真的某些方面。在一些实施方式中,距离度量(如下所述)可用于考虑感知的屏幕空间运动之间的相互作用,因为它与位移速度有关。
通常将移动设备焦距设计为生成具有最大景深的宽视场。因此,移动设备相机可具有很大的失真。在正常使用情况下,用户通常在20到30厘米范围内与移动设备互动。在配备完整高密度前置相机的设备中,典型的设备范围可以在录制的视频中生成例如大约200x130像素的眼部区域。眼睛位置的快速定位和近似的方法可以利用比例归一化过程。距离问题可以通过基于实时(例如,帧到帧)观看距离估计的自适应刺激速度和视觉比例调整来解决。在一些实施方式中,执行对设备运动的考虑,使得尽管设备运动,但从跟踪的角度看,刺激仍呈现为具有相同的比例、位置和速度。
眼部数据收集可以利用比例归一化方法或重新投影/缩小以拟合识别模型。这样的拟合可以随不同的帧而变化,尽管对于模板匹配任务是足够的,但所述拟合可能无法建立运动流的必要连续性以建立关键的“平滑”运动区域。在时间序列的情况下,另一种分辨率是采样率。考虑到给定持续时间内眼睛位置的可能变化率,采样率可以是关键因素。前置相机可以以特定帧速率(例如,每秒30帧)捕获视频,该帧速率可以不同于眼睛跟踪平台或库使用的帧速率。眼睛跟踪平台可以使用例如更高的帧速率(例如,每秒60帧或更高)准确跟踪扫视和运动开始。
为了解决比例和分辨率问题,使用重投影位置的关注区域可以减小全比例分辨率下的样本阵列的比例。使用低比例下的估计来通知全分辨率下的外部拟合可加速关键边界检测(例如眼睑、外部虹膜等)。由于眼睛运动遵循模式,因此可以将基于模型的方法用于模式检测,这可以允许对平滑事件进行可靠的插值。在一些实施方式中,可以执行特征(例如位置、加速度和位移)的放大。
过程400的操作包括将眼部数据与一个或多个参考模式进行比较(440)。参考模式可包括例如视动眼球震颤模式、瞳孔动力学的期望变化或其他类型的模式。一种模式通常对应于特定的刺激。因此,可以识别与所呈现的刺激相关联的参考模式。将眼部数据与所识别的参考模式进行比较可以包括将跟踪的眼睛运动与视动眼球震颤模式进行比较。作为另一示例,将眼部数据与所识别的参考模式进行比较可以包括将跟踪的瞳孔动力学变化与期望的瞳孔动力学变化进行比较。期望(和观察到的)模式可能取决于刺激的速度。
可以将收集的眼部数据与归一化数据进行比较,并且可以确定匹配程度。匹配程度可以对应于所观察到的眼部反应与期望的眼部反应相匹配的置信度水平。匹配程度可以以确定程度指示存活性评估。
作为特定示例,对于眼睛运动,可以识别与期望的视动眼球震颤相对应的角度的正态分布。可以将收集的眼睛角度与角度的正态分布进行比较。可以确定收集的角度与角度的正态分布之间的匹配程度。换句话说,匹配程度可以指示观察到的运动模式是否与期望的运动模式相匹配。对于视动眼球震颤,该比较可以确定在看到刺激之后的短暂时间窗口(例如3-500毫秒)后,用户的眼睛是否(或在多大程度上)移动,随后进行平滑追踪并最后迅速扫视返回到刺激之前眼睛所看的地方。
在一些实施方式中,使用一系列分类器。例如,可以使用一个或多个神经网络。在一些实施方式中,使用LSTM(长短期记忆)神经网络。
过程400的操作包括通过将眼部数据与一个或多个参考模式进行比较来确定所捕获的视频是否是活人的替代表示(450)。可以确定匹配程度是否超过预定的阈值匹配程度。如果匹配程度不超过阈值匹配程度,则可以确定视频是活人的替代表示而不是实际活人(例如,由于缺少期望的反应)。阈值匹配程度可以是与所观察到的眼部反应与期望的眼部反应相匹配的最小置信度水平相对应的匹配程度。对于眼睛运动,可以确定匹配程度是否足够(例如,处于阈值或阈值以上)以指示所收集的眼睛角度代表观察到的视动眼球震颤。在一些实施方式中,匹配程度是可用于存活性评估的其他信号中的一个信号。存活性评估可以例如基于匹配程度和其他信号的集合。
过程400的操作包括:通过将眼部数据与一个或多个参考模式进行比较来确定所捕获的视频是活人的替代表示(例如,在450处为“是”确定)。响应于确定所捕获的视频中的对象是活人的替代表示,阻止对安全系统的访问(460)。
作为另一示例,当所捕获的视频不是活人的替代表示时(例如,所捕获的视频是活人的),则可以准许对安全系统的访问(470)。例如,在呈现刺激之后可以捕获第二对象的第二视频。可以分析第二视频以提取包括第二对象对刺激的反应的第二组眼部数据。认证引擎可以通过将第二组眼部数据与一个或多个参考模式进行比较来确定第二对象是活人。响应于确定第二对象是活人,认证引擎可以发起确定该活人是否被授权访问安全系统的认证过程。
在一些实施方式中,可以将参考眼部数据与收集到的眼部数据进行比较以确定该用户是否是特定用户(例如,以验证特定用户的身份)。例如,可以将眼部数据与多个用户的参考数据进行比较。可以确定所收集的眼部数据是否与特定用户的参考模式匹配。如果所收集的眼部数据与特定用户的参考数据匹配,则可以准许作为特定用户对安全系统的访问。如果所收集的眼部数据与任何已知参考数据都不匹配,则可以拒绝作为特定用户访问安全系统(例如,可以执行另一种认证过程)。
图5示出了眼睛跟踪技术。眼睛跟踪可以涉及识别眼睛的各种参考点。例如,带注释的眼睛500包括用于检测到的眼睛特征的注释。每个注释具有整数标识符(例如,一个值介于一到二十七之间)。例如,标识符在零和十五之间的注释对应于检测到的眼睑特征。标识符在十六和二十四之间的注释对应于眼窝的折痕特征。具有标识符25的注释对应于标识的瞳孔中心特征。具有标识符26的注释对应于标识的巩膜特征。具有标识符27的注释对应于标识的虹膜特征。所示的注释方案是右眼注释方案。可以使用Y轴镜像生成左眼注释方案。
其他跟踪度量可以包括识别外部角膜缘和内部角膜缘(例如,具有从外部角或内部角到虹膜中心的射线的相应角膜缘相交)、虹膜椭圆和瞳孔椭圆。多余的角膜缘点可以是有用的,因为相交点相对于斜视而言可以是稳定的,并且可以为提出的索引特征提供有效的锚点。这可以是有用的,因为精确的点到椭圆距离可能不容易,而且计算上也会成本高。
图6示出了示例系统600,其中可以使用本文描述的技术。系统600包括视频采集设备605,其被配置为捕获对象的视频记录。可以在设备的显示器上显示刺激后捕获视频记录。在一些实施方式中,视频采集设备605包括红外相机。在一些实施方式中,视频采集设备605包括一个或多个处理设备,其被配置为从捕获的视频记录生成数字数据。
系统600还包括视频分析引擎610,其可以被配置为分析由视频采集设备605捕获的视频记录。在一些实施方式中,视频分析引擎610驻留在计算设备(例如,服务器)上,该计算设备相对于视频采集设备605和/或认证引擎615处于远程位置。例如,视频采集设备605可以设置在通过网络与在其上执行视频分析引擎610的远程服务器进行通信的一体机或移动设备处。视频分析引擎610可以继而将分析的输出提供给位于一体机或移动设备上的认证引擎615。在一些实施方式中,认证引擎615也可以驻留在远程服务器上(例如,视频分析引擎610所驻留的同一服务器上,或者在不同的服务器上),并且将认证过程的结果传达给一体机或移动设备。
视频分析引擎610可以配置为以各种方式分析捕获的视频记录,以便确定捕获的视频记录的可用于存活性评估的特征。例如,视频分析引擎610可以分析捕获的视频以提取包括对象对刺激的反应的眼部数据。视频分析引擎610可以被配置为以各种方式分析捕获的视频记录,以便确定捕获的视频记录是否对应于活人。例如,视频分析引擎610可以将眼部数据与参考模式进行比较,以基于眼部数据和参考模式之间的匹配程度来确定捕获的视频是否是活人的替代表示。
响应于将视频记录中的对象识别为活人的替代表示,认证引擎610可以阻止对安全系统的访问。如果认证引擎610确定匹配程度满足指示视频记录是活人的阈值条件,则可以发起用于确定活人是否被授权访问安全系统的认证过程。换句话说,如果捕获的视频记录包括指示活人的期望反应的足够的眼部数据,则可以将图像中的对象识别为活人,并且可以发起认证过程。认证引擎610可以认证活人以访问安全系统(例如,与访问尝试相关联的用户账户或特权),并且可以允许活人继续与相应的用户界面(例如,在一体机或移动设备上)进行交互。
图7示出了可以使用本文描述的技术的计算设备700和移动设备750的示例。例如,参考图1,一体机106可以部分地或全部地包括计算设备700或移动设备750中的一个或多个。例如,移动设备106可以是移动设备750。计算设备700旨在表示各种形式的数字计算机,例如膝上型计算机、台式计算机、工作站、个人数字助理、服务器、刀锋型服务器、主机和其他适当的计算机。移动设备750旨在代表各种形式的移动设备,例如个人数字助理、蜂窝电话、智能电话以及其他类似的移动设备。本文所示的组件,它们的连接和关系以及它们的功能仅是示例,并无意限制本文描述的和/或要求保护的技术的实施方式。
计算设备700包括处理器702、存储器704、存储设备706、连接到存储器704和高速扩展端口710的高速接口708以及连接到低速总线714和存储设备706的低速接口712。组件702、704、706、708、710和712中的每一个使用各种总线互连,并且可以被安装在通用主板上或以其他适当方式安装。处理器702可以处理用于在计算设备700内执行的指令,包括存储在存储器704中或存储在存储设备706上的指令,以在诸如耦接到高速接口708的显示器716的外部输入/输出设备上显示用于图形用户界面(GUI)的图形信息。在其他实施方式中,根据情况,可以使用多个处理器和/或多个总线,以及多个存储器和多个类型的存储器。另外,可以连接多个计算设备700,每个计算设备提供部分的必要操作(例如,作为服务器库、刀锋型服务器组或多处理器系统)。
存储器704将信息存储在移动设备700内。在一个实施方式中,存储器704是一个或多个易失性存储器单元。在另一实施方式中,存储器704是一个或多个非易失性存储器单元。存储器704也可以是另一种形式的计算机可读介质,例如磁盘或光盘。
存储设备706能够为计算设备700提供大容量存储。在一个实施方式中,存储设备706可以是计算机可读介质或包括计算机可读介质,例如软盘设备、硬盘设备、光盘设备,或者磁带设备、闪存或其他类似的固态存储器设备或设备的阵列,包括存储区域网络或其他配置中的设备。计算机程序产品可以有形地体现在信息载体中。该计算机程序产品还可以包含指令,当所述指令被执行时执行例如以上所描述的一个或多个方法。信息载体是计算机可读介质或机器可读介质,例如存储器704、存储设备706、处理器702上的存储器、或者是传播的信号。
高速控制器708管理计算设备700的带宽密集型操作,而低速控制器712管理较低带宽密集型操作。这种对功能的分配仅是示例。在一个实施方式中,高速控制器708耦接到存储器704、显示器716(例如,通过图形处理器或加速器)以及可以接受各种扩展卡(未示出)的高速扩展端口710。在该实施方式中,低速控制器712耦接到存储设备706和低速扩展端口714。可以包括各种通信端口(例如,USB、蓝牙、以太网、无线以太网)的低速扩展端口可以耦接至一个或多个输入/输出设备,例如键盘、指针设备、扫描仪,或例如通过网络适配器耦接至诸如交换机或路由器之类的网络设备。
如附图中所示,计算设备700可以以多种不同的形式实现。例如,它可以被实现为标准服务器720,或者在一组这样的服务器中多次实现。它也可以被实现为机架服务器系统724的一部分。另外,它可以在诸如膝上型计算机722的个人计算机中实现。可选地,来自计算设备700的组件可以与诸如设备750的移动设备(未示出)中的其他组件组合。每个这样的设备可以包含计算设备700、750中的一个或多个,并且整个系统可以由彼此通信的多个计算设备700、750组成。
除了其他组件之外,移动设备750包括处理器752、存储器764、例如显示器754的输入/输出设备、通信接口766和收发器768。设备750还可以具有存储设备,例如微驱动器或其他设备,以提供附加的存储。组件750、752、764、754、766和768中的每一个使用各种总线互连,并且若干个组件可以被安装在通用主板上或以其他适当方式安装。
处理器752可以在移动设备750内执行指令,包括存储在存储器764中的指令。处理器可以被实现为包括单独的多个模拟和数字处理器的芯片的芯片组。处理器可以提供例如对设备750的其他组件的协调,例如对用户界面、由设备750运行的应用和由设备750进行的无线通信的控制。
处理器752可以通过耦接到显示器754的控制接口758和显示接口756与用户通信。显示器754可以是例如薄膜晶体管液晶显示器(TFTLCD)或有机发光二极管(OLED)显示器或其他适当的显示技术。显示接口756可以包括用于驱动显示器754以向用户呈现图形和其他信息的适当电路。控制接口758可以从用户接收命令并将它们转换以提交给处理器752。另外,外部接口762可以提供与处理器752的通信,以便实现设备750与其他设备的近场通信。外部接口762可以在一些实施方式中提供例如有线通信或者在其他实施方式中提供无线通信,并且也可以使用多个接口。
存储器764将信息存储在移动设备750内。存储器764可以被实现为以下中的一个或多个:一个或多个计算机可读介质、一个或多个易失性存储器单元或一个或多个非易失性存储器单元。还可以提供扩展存储器774,并通过扩展接口772将其连接到设备750,扩展接口772可以包括例如单列直插式存储器模块(SIMM)卡接口。这样的扩展存储器774可以为设备750提供额外的存储空间,或者还可以为设备750存储应用或其他信息。具体地,扩展存储器774可以包括用于执行或补充上述过程的指令,并且还可以包括安全信息。因此,例如,扩展存储器774可以被提供为用于设备750的安全模块,并且可以被编程有允许安全使用设备750的指令。此外,安全应用可以由SIMM卡提供,与附加信息一起,例如以不可破解的方式将标识信息置于SIMM卡上。
存储器可以包括例如闪存和/或非易失性随机存取存储器(NVRAM),如下所述。在一个实施方式中,计算机程序产品有形地体现在信息载体中。该计算机程序产品包含指令,当所述指令被执行时执行例如以上所描述的一个或多个方法。信息载体是计算机可读介质或机器可读介质,例如存储器764、扩展存储器774、处理器752上的存储器、或可以通过例如收发器768或外部接口762接收的传播信号。
设备750可以通过通信接口766进行无线通信,通信接口766在需要时可以包括数字信号处理电路。通信接口766可以提供各种模式或协议下的通信,例如GSM语音呼叫、SMS、EMS或MMS消息收发、CDMA、TDMA、PDC、WCDMA、CDMA2000或GPRS等等。例如,可以通过射频收发器768进行这种通信。另外,可以诸如使用蓝牙、WiFi或其他此类收发器(未示出)进行短程通信。此外,全球定位系统(GPS)接收器模块770可以向设备750提供附加的与导航和位置相关的无线数据,这些数据可以由运行在设备750上的应用适当使用。
设备750还可以使用音频编解码器760进行音频通信,音频编解码器760可以从用户接收语音信息并将其转换为可用的数字信息。音频编解码器760可类似地例如通过扬声器在例如设备750的手持设备中生成用户可听见的声音。这样的声音可以包括来自语音电话呼叫的声音,可以包括录制的声音(例如,语音消息、音乐文件等),并且还可以包括由在设备750上运行的应用生成的声音。
如附图中所示,移动设备750可以以多种不同的形式实现。例如,它可以被实现为蜂窝电话780。它也可以被实现为智能电话782、个人数字助理、平板计算机或其他类似移动设备的一部分。
可以在数字电子电路、集成电路、特殊设计的专用集成电路(ASIC)、计算机硬件、固件、软件和/或它们的组合中实现本文描述的系统和技术的各种实施方式。这些各种实施方式可以包括在可编程系统上可执行和/或可编译的一个或多个计算机程序中的实现,所述可编程系统包括至少一个可编程处理器,其可为专用或通用的,耦合以从存储系统、至少一个输入设备和至少一个输出设备接收数据和指令,并将数据和指令发送到所述存储系统、至少一个输入设备和至少一个输出设备。
这些计算机程序(也称为程序、软件、软件应用程序或代码)包括用于可编程处理器的机器指令,并且可以以高级程序和/或面向对象的编程语言和/或汇编/机器语言来实现。如本文所使用的,术语“机器可读介质”和“计算机可读介质”是指用于向可编程处理器提供机器指令和/或数据的任何计算机程序产品、装置和/或设备(例如磁盘、光盘、存储器、可编程逻辑设备(PLD)),包括接收机器指令的机器可读介质。
为了提供与用户的交互,本文所描述的系统和技术可以在计算机上实现,该计算机具有用于向用户显示信息的显示设备(例如,阴极射线管(CRT)或液晶显示(LCD)监视器)以及用户可用以向该计算机提供输入的键盘和指针设备(例如,鼠标或轨迹球)。其他种类的设备也可以用于提供与用户的交互。例如,提供给用户的反馈可以是任何形式的感觉反馈(例如,视觉反馈、听觉反馈或触觉反馈)。可以接收来自用户的任何形式的输入,包括声音、语音或触觉输入。
本文描述的系统和技术可以在计算系统中实现,该计算系统包括后端组件(例如,数据服务器),或包括中间件组件(例如,应用服务器),或包括前端组件(例如,具有图形用户界面或网页浏览器的客户端计算机,用户可以通过所述GUI或网页浏览器与本文所述的系统和技术的实施方式交互),或包括这样的后端、中间件、或前端组件的组合。系统的组件可以通过任何形式或介质的数字数据通信(例如,通信网络)连接。通信网络的示例包括局域网(LAN)、广域网(WAN)以及因特网。
计算系统可以包括客户端和服务器。客户端和服务器通常彼此远离并且通常通过通信网络交互。客户端和服务器的关系借助运行在各自的计算机上并且彼此具有客户端-服务器关系的计算机程序产生。
尽管上面已经详细描述了一些实施方式,但是在不脱离本文描述的发明构思的范围的情况下,可以进行其他修改,因此,其他实施方式在所附权利要求的范围内。

Claims (16)

1.一种用于基于将捕获的视频确定为活人的替代表示来阻止访问安全系统的方法,所述方法包括:
确定要在设备的用户界面上向对象呈现刺激的第一刺激速度,其中,所述第一刺激速度基于所述对象与所述用户界面之间的观看距离为第一距离;
以所述第一刺激速度向所述对象呈现在所述设备的所述用户界面上运动的所述刺激;
确定所述对象与所述用户界面之间的观看距离已从所述第一距离改变为第二距离;
基于所述第二距离选择第二刺激速度;
以所述第二刺激速度呈现在所述设备的所述用户界面上运动的所述刺激;
在以所述第二刺激速度呈现所述刺激之后,当所述对象位于视频捕获设备的视场内时,捕获所述对象的视频;
分析所述视频以提取包括以所述第二刺激速度呈现所述刺激时所述对象对所述刺激的反应的眼部数据;
通过将所述眼部数据与一个或多个参考模式进行比较来确定所捕获的视频中的对象是活人的替代表示,其中,基于所述第二刺激速度选择所述一个或多个参考模式;以及
响应于确定所捕获的视频中的对象是活人的替代表示,阻止访问安全系统,
其中,所述参考模式包括与视动眼球震颤相对应的第一模式或与期望的瞳孔动力学的变化相对应的第二模式中的至少一个。
2.根据权利要求1所述的方法,还包括:
在以所述第二刺激速度向第二对象进行所述刺激的第二呈现之后,捕获所述第二对象的第二视频;
分析所述第二视频以提取包括所述第二对象对所述刺激的反应的第二组眼部数据;
通过将所述第二组眼部数据与所述一个或多个参考模式进行比较来确定所述第二对象是活人;以及
响应于确定所述第二对象是活人,发起认证过程以确定所述活人是否被授权访问所述安全系统。
3.根据权利要求1所述的方法,还包括:从多种刺激中选择要呈现的一种刺激。
4.根据权利要求1所述的方法,其中,所述刺激是高对比度刺激。
5.根据权利要求1所述的方法,其中,分析所捕获的视频包括在呈现所述刺激之后跟踪眼睛运动。
6.根据权利要求1所述的方法,其中,比较所述眼部数据包括:将跟踪的眼睛运动与对应于视动眼球震颤的所述第一模式进行比较。
7.根据权利要求1所述的方法,其中,分析所捕获的视频包括:在呈现所述刺激之后,跟踪瞳孔动力学的变化。
8.根据权利要求7所述的方法,其中,比较所述眼部数据包括将所跟踪的瞳孔动力学的变化与对应于期望的瞳孔动力学的变化的所述第二模式进行比较。
9.根据权利要求1所述的方法,包括以吸引所述对象注意的方式呈现所述刺激,包括以下至少一种:
模糊化所述用户界面中不包含所述刺激的部分,或
呈现面部图像作为所述刺激。
10.一种用于基于将捕获的视频确定为活人的替代表示来阻止访问安全系统的系统,包括:
视频采集设备,被配置为捕获位于视频捕获设备的视场内的对象的视频;
处理设备,被配置为:
确定要在设备的用户界面上向对象呈现刺激的第一刺激速度,其中所述第一刺激速度基于所述对象与所述用户界面之间的观看距离为第一距离,
以所述第一刺激速度向所述对象呈现在所述设备的所述用户界面上运动的所述刺激,
确定所述对象与所述用户界面之间的观看距离已从所述第一距离改变为第二距离,
基于所述第二距离选择第二刺激速度,以及
以所述第二刺激速度呈现在所述设备的所述用户界面上运动的所述刺激;以及
视频分析引擎,包括一个或多个处理设备,所述视频分析引擎被配置为:
在以所述第二刺激速度呈现所述刺激之后,分析当所述对象位于所述视频捕获设备的视场内时由所述视频采集设备捕获的所述对象的视频,以提取包括在以所述第二刺激速度呈现所述刺激时所述对象对所述刺激的反应的眼部数据;
通过将所述眼部数据与一个或多个参考模式进行比较来确定所捕获的视频中的对象是活人的替代表示,其中,基于所述第二刺激速度选择所述一个或多个参考模式;以及
响应于确定所捕获的视频中的对象是活人的替代表示,阻止访问安全系统,
其中,所述参考模式包括与视动眼球震颤相对应的第一模式或与期望的瞳孔动力学的变化相对应的第二模式中的至少一个。
11.根据权利要求10所述的系统:
其中,所述视频采集设备被配置为在以所述第二刺激速度向第二对象进行所述刺激的第二呈现之后捕获所述第二对象的第二视频;以及
其中,所述视频分析引擎被配置为:
分析所述第二视频以提取包括所述第二对象对所述刺激的反应的第二组眼部数据;
通过将所述第二组眼部数据与所述一个或多个参考模式进行比较,确定所述第二对象是活人;以及
响应于确定所述第二对象是活人,发起认证过程以确定所述活人是否被授权访问所述安全系统。
12.根据权利要求11所述的系统,其中,所述刺激是高对比度刺激。
13.根据权利要求11所述的系统,其中,分析所捕获的视频包括:在呈现所述刺激之后跟踪眼睛运动。
14.一个或多个机器可读的非暂时性存储设备,包括被配置为使一个或多个处理设备执行包括以下操作的机器可读指令:
确定要在设备的用户界面上向对象呈现刺激的第一刺激速度,其中,所述第一刺激速度基于所述对象与所述用户界面之间的观看距离为第一距离;
以所述第一刺激速度向所述对象呈现在所述设备的所述用户界面上运动的所述刺激;
确定所述对象与所述用户界面之间的观看距离已从所述第一距离改变为第二距离;
基于所述第二距离选择第二刺激速度;
以所述第二刺激速度呈现在所述设备的所述用户界面上运动的所述刺激;
在以所述第二刺激速度呈现所述刺激之后,当所述对象位于视频捕获设备的视场内时,捕获所述对象的视频;
分析所述视频以提取包括以所述第二刺激速度呈现所述刺激时所述对象对所述刺激的反应的眼部数据;
通过将所述眼部数据与一个或多个参考模式进行比较来确定所捕获的视频中的对象是活人的替代表示,其中,基于所述第二刺激速度选择所述一个或多个参考模式;以及
响应于确定所捕获的视频中的所述对象是活人的替代表示,阻止访问安全系统,
其中,所述参考模式包括与视动眼球震颤相对应的第一模式或与期望的瞳孔动力学的变化相对应的第二模式中的至少一个。
15.根据权利要求14所述的机器可读的非暂时性存储设备,所述操作还包括:
在以所述第二刺激速度向第二对象进行所述刺激的第二呈现之后,捕获所述第二对象的第二视频;
分析所述第二视频以提取包括所述第二对象对所述刺激的反应的第二组眼部数据;
通过将所述第二组眼部数据与所述一个或多个参考模式进行比较,确定所述第二对象是活人;以及
响应于确定所述第二对象是活人,发起认证过程以确定所述活人是否被授权访问所述安全系统。
16.根据权利要求14所述的机器可读的非暂时性存储设备,所述操作还包括从多种刺激中选择要呈现的一种刺激。
CN202010139646.3A 2019-03-21 2020-03-03 利用视动反应的欺骗检测 Active CN111723636B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US16/361,078 US10599934B1 (en) 2019-03-21 2019-03-21 Spoof detection using optokinetic response
US16/361,078 2019-03-21

Publications (2)

Publication Number Publication Date
CN111723636A CN111723636A (zh) 2020-09-29
CN111723636B true CN111723636B (zh) 2022-06-03

Family

ID=69902506

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010139646.3A Active CN111723636B (zh) 2019-03-21 2020-03-03 利用视动反应的欺骗检测

Country Status (4)

Country Link
US (1) US10599934B1 (zh)
CN (1) CN111723636B (zh)
PH (1) PH12020000003A1 (zh)
SG (1) SG10201913320VA (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11087577B2 (en) * 2018-12-14 2021-08-10 Johnson Controls Tyco IP Holdings LLP Systems and methods of secure pin code entry
US11922731B1 (en) * 2021-06-30 2024-03-05 Jumio Corporation Liveness detection

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6785406B1 (en) * 1999-07-19 2004-08-31 Sony Corporation Iris authentication apparatus
CN102842040A (zh) * 2012-08-13 2012-12-26 高艳玲 运用眼球跟踪进行活体化检测的方法
CN103383723A (zh) * 2012-08-10 2013-11-06 眼验有限责任公司 用于生物特征验证的电子欺骗检测的方法和系统
US8856541B1 (en) * 2013-01-10 2014-10-07 Google Inc. Liveness detection
CN107710221A (zh) * 2015-06-12 2018-02-16 北京释码大华科技有限公司 一种用于检测活体对象的方法、装置和移动终端

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9082011B2 (en) * 2012-03-28 2015-07-14 Texas State University—San Marcos Person identification using ocular biometrics with liveness detection
WO2015164807A1 (en) * 2014-04-25 2015-10-29 Texas State University Detection of brain injury and subject state with eye movement biometrics
GB2544906B (en) * 2014-07-04 2020-11-11 Libra At Home Ltd Devices for treating vestibular and other medical impairments.
WO2016081852A1 (en) * 2014-11-20 2016-05-26 The Trustees Of The Universtiy Of Pennsylvania Methods and systems for testing opticokinetic nystagmus
US9836643B2 (en) * 2015-09-11 2017-12-05 EyeVerify Inc. Image and feature quality for ocular-vascular and facial recognition
WO2017205543A1 (en) * 2016-05-24 2017-11-30 Brown Timothy J Liveness detection for face capture
US11544359B2 (en) * 2016-11-08 2023-01-03 Proprius Technolgies S.A.R.L Unique patterns extracted from involuntary eye motions to identify individuals

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6785406B1 (en) * 1999-07-19 2004-08-31 Sony Corporation Iris authentication apparatus
CN103383723A (zh) * 2012-08-10 2013-11-06 眼验有限责任公司 用于生物特征验证的电子欺骗检测的方法和系统
CN102842040A (zh) * 2012-08-13 2012-12-26 高艳玲 运用眼球跟踪进行活体化检测的方法
US8856541B1 (en) * 2013-01-10 2014-10-07 Google Inc. Liveness detection
CN107710221A (zh) * 2015-06-12 2018-02-16 北京释码大华科技有限公司 一种用于检测活体对象的方法、装置和移动终端

Also Published As

Publication number Publication date
US10599934B1 (en) 2020-03-24
SG10201913320VA (en) 2020-10-29
PH12020000003A1 (en) 2021-03-01
CN111723636A (zh) 2020-09-29

Similar Documents

Publication Publication Date Title
US10546183B2 (en) Liveness detection
KR101356358B1 (ko) 눈의 이미지에 기초한 바이오메트릭 인증을 위한 기기 및 컴퓨터 구현 방법
EP3332403B1 (en) Liveness detection
JP6878572B2 (ja) 顔認識に基づいた認証
EP3362946B1 (en) Eye pose identification using eye features
US11580203B2 (en) Method and apparatus for authenticating a user of a computing device
Tang et al. Face flashing: a secure liveness detection protocol based on light reflections
John et al. The security-utility trade-off for iris authentication and eye animation for social virtual avatars
US10885171B2 (en) Authentication verification using soft biometric traits
Li et al. Empirical study of face authentication systems under OSNFD attacks
CN111723636B (zh) 利用视动反应的欺骗检测
Wang et al. Your eyes reveal your secrets: An eye movement based password inference on smartphone
Ali et al. Gaze stability for liveness detection
US11507646B1 (en) User authentication using video analysis
CN114967128B (zh) 一种应用于vr眼镜的视线追踪系统及方法
Mehta et al. Regenerating vital facial keypoints for impostor identification from disguised images using CNN
CN114299569A (zh) 一种基于眼球运动的安全人脸认证方法
US20230306789A1 (en) Spoof detection using head pose to eye gaze correspondence
US11948402B2 (en) Spoof detection using intraocular reflection correspondences
US20230084760A1 (en) Spoof detection using catadioptric spatiotemporal corneal reflection dynamics
CN116563927A (zh) 一种基于视线特征的人脸识别认证方法
CN114677746A (zh) 活体人脸检测方法、装置、存储介质及电子设备
CA3143843A1 (en) Systems and methods for face and object tracking and monitoring
CN109829434A (zh) 基于活体纹理的防伪方法和装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right

Effective date of registration: 20201012

Address after: Cayman Enterprise Centre, 27 Hospital Road, George Town, Grand Cayman Islands

Applicant after: Innovative advanced technology Co.,Ltd.

Address before: Cayman Enterprise Centre, 27 Hospital Road, George Town, Grand Cayman Islands

Applicant before: Advanced innovation technology Co.,Ltd.

Effective date of registration: 20201012

Address after: Cayman Enterprise Centre, 27 Hospital Road, George Town, Grand Cayman Islands

Applicant after: Advanced innovation technology Co.,Ltd.

Address before: A four-storey 847 mailbox in Grand Cayman Capital Building, British Cayman Islands

Applicant before: Alibaba Group Holding Ltd.

TA01 Transfer of patent application right
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20231122

Address after: California, USA

Patentee after: JUMIO Inc.

Address before: Ky1-9008 Cayman Enterprise Centre, 27 Hospital Road, George Town, Grand Cayman Islands, ky1-9008

Patentee before: Innovative advanced technology Co.,Ltd.

TR01 Transfer of patent right