ES2859554T3 - Detección de suplantación para autenticación biométrica - Google Patents

Detección de suplantación para autenticación biométrica Download PDF

Info

Publication number
ES2859554T3
ES2859554T3 ES13729197T ES13729197T ES2859554T3 ES 2859554 T3 ES2859554 T3 ES 2859554T3 ES 13729197 T ES13729197 T ES 13729197T ES 13729197 T ES13729197 T ES 13729197T ES 2859554 T3 ES2859554 T3 ES 2859554T3
Authority
ES
Spain
Prior art keywords
images
eye
glare
rating
implementations
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES13729197T
Other languages
English (en)
Inventor
Reza Derakhshani
Casey Hughlett
Jeremy Paben
Joel Teply
Toby Rush
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
EyeVerify Inc
Original Assignee
EyeVerify Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by EyeVerify Inc filed Critical EyeVerify Inc
Application granted granted Critical
Publication of ES2859554T3 publication Critical patent/ES2859554T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/40Spoof detection, e.g. liveness detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/40Spoof detection, e.g. liveness detection
    • G06V40/45Detection of the body part being alive
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2221/00Indexing scheme relating to security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F2221/21Indexing scheme relating to G06F21/00 and subgroups addressing additional information or applications relating to security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F2221/2141Access rights, e.g. capability lists, access control lists, access tables, access matrices

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Ophthalmology & Optometry (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Security & Cryptography (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Collating Specific Patterns (AREA)

Abstract

Un método implementado por ordenador (600) que comprende: obtener (602, 702) dos o más imágenes (310) de un sujeto, incluyendo una vista de un ojo (410), en donde las imágenes (310) incluyen colectivamente una pluralidad de distancias de enfoque; determinar (712) una métrica de comportamiento en base a, al menos, un movimiento detectado del ojo (410) cuando el ojo (410) aparece en una pluralidad de imágenes (310), en donde la métrica de comportamiento es una medición de la desviación del movimiento detectado y la sincronización del movimiento esperado del ojo (410); determinar (714) una métrica espacial en base a, al menos, una distancia desde un sensor (420) a un punto de referencia que aparece en una pluralidad de imágenes (310), teniendo cada una una distancia de enfoque respectiva diferente; determinar (716) una métrica de reflectancia en base a, ya sea (i) cambios detectados en el deslumbramiento de superficie en una superficie del ojo cuando el ojo aparece en una pluralidad de imágenes, midiendo una diferencia de tiempo entre (i) la aparición de un pulso de flash capturado por una o más de las imágenes (310) y (ii) la aparición de un deslumbramiento correspondiente detectado en el ojo (410) en una o más de las imágenes (310); o (ii) cambios detectados en los patrones de reflexión especular midiendo la uniformidad de un patrón de deslumbramiento en una superficie exterior del ojo (410) visible en una o más de las imágenes (310) provocados por uno o más pulsos de flash capturados por una o más de las imágenes (310), en donde la uniformidad de un patrón de deslumbramiento en el ojo (410) se mide como una relación entre la circunferencia y un área del deslumbramiento; en donde la métrica de reflectancia es una medición de cambios en el deslumbramiento o patrones de reflexión especular en la superficie del ojo, determinar (604, 730) una valoración de vivacidad en base a la métrica de comportamiento, espacial y de reflectancia, reflejando la valoración de vivacidad la probabilidad de que las imágenes (310) representen un ojo en vivo (410); y rechazar (608) o aceptar (610) las dos o más imágenes (310) en base a la valoración de vivacidad, en donde las dos o más imágenes (310) se rechazan (608) cuando la valoración de vivacidad indica una probabilidad baja de un ojo en vivo (410).

Description

DESCRIPCIÓN
Detección de suplantación para autenticación biométrica
CAMPO TÉCNICO
La presente descripción se refiere a la autenticación biométrica en base a imágenes del ojo.
ANTECEDENTES
A menudo, es deseable restringir el acceso a una propiedad o a recursos a individuos concretos. Los sistemas biométricos se pueden emplear para autenticar la identidad de un individuo para otorgar o denegar el acceso a un recurso. Por ejemplo, los escáneres de iris pueden ser empleados por un sistema de seguridad biométrico para identificar a un individuo en base a estructuras únicas en el iris del individuo.
B. Toth: "Liveness Detection: Iris” ("Detección de vivacidad: iris", en: Stan Z. Li: "Enciclopedia of biometrics” ("Enciclopedia de biometría''), 1 de enero de 2009, Springer, Nueva York, Vol. 2, páginas 931 a 938) analiza las técnicas de detección de la vivacidad del iris para contrarrestar los ataques de suplantación física llevados a cabo contra los sistemas de reconocimiento del iris. Los mecanismos de detección de la vivacidad del iris tienen como objetivo determinar que las imágenes del iris adquiridas se adquirieron de un usuario en vivo autorizado presente en el momento de la transacción.
El documento US 2010/158319 describe un método de detección de rostros falsos que emplea información de intervalo que incluye: detectar información de intervalo de rostros y características de rostros a partir de una imagen de rostro de entrada; hacer coincidir la imagen de rostro con la información de intervalo; y distinguir un rostro falso analizando la información de intervalo coincidente.
Kollreider K. et al., "Verifying Liveness by Múltiple Experts in Face Biometrics" (''Verificación de la vivacidad por parte de múltiples expertos en biometría facial", Computer Vision and Pattern Recognition Workshops 2008 (Talleres de visión informática y reconocimiento de patrones 2008, Conferencia del IEEE Computer Society (Sociedad informática del instituto de ingenieros eléctricos y electrónicos) en, IEEE, Piscataway, Nueva Jersey, Estados Unidos, miércoles, 23 de enero de 2008, páginas 1 a 6) describe la evaluación de las trayectorias de una parte seleccionada del rostro a partir de una secuencia corta de imágenes empleando un análisis de flujo óptico simplificado seguido de un clasificador heurístico.
COMPENDIO
Es un objeto de la presente invención identificar un intento de suplantación que presenta algo diferente a un ojo en vivo. Este objeto se resuelve mediante un método implementado por ordenador y un sistema como se define en las reivindicaciones independientes, respectivamente. Las realizaciones preferentes se exponen en las reivindicaciones dependientes.
Los detalles de una o más realizaciones de la invención se exponen en los dibujos adjuntos y en la descripción a continuación. Otras características, aspectos y ventajas de la invención resultarán evidentes a partir de la descripción, de los dibujos y de las reivindicaciones.
BREVE DESCRIPCIÓN DE LOS DIBUJOS
La figura 1 es un diagrama de la anatomía de un ojo humano.
La figura 2 es un diagrama de una imagen de ejemplo que incluye porciones que muestran la vasculatura del blanco de un ojo.
La figura 3 es un diagrama de una imagen de ejemplo que está segmentada para su análisis.
La figura 4 es un diagrama de bloques de un sistema de seguridad de ejemplo que está configurado para autenticar a un individuo en base a, en parte, en imágenes del blanco de un ojo.
La figura 5 es un diagrama de bloques de un entorno en línea de ejemplo.
La figura 6 es un organigrama de un proceso de ejemplo para autenticar a un individuo en base a imágenes del blanco de un ojo, donde se comprueba la vivacidad del ojo en las imágenes obtenidas para su autenticación. La figura 7 es un organigrama de un proceso de ejemplo para determinar una valoración de vivacidad para dos o más imágenes de un ojo.
La figura 8A es un organigrama de un proceso de ejemplo para determinar una métrica de comportamiento en base a la constricción de una pupila en respuesta a un estímulo fótico.
La figura 8B es un organigrama de un proceso de ejemplo para determinar una métrica de comportamiento en base a la transición de la mirada de un iris en respuesta a un estímulo externo.
La figura 9 muestra un ejemplo de un dispositivo informático y un dispositivo informático móvil que se pueden emplear para implementar las técnicas descritas en esta memoria.
DESCRIPCIÓN DETALLADA
Las características distintivas de la vasculatura visible de un individuo en los blancos de los ojos se pueden emplear para identificar o autenticar al individuo. Por ejemplo, se pueden obtener y analizar imágenes del blanco del ojo de un usuario para comparar las características del ojo con el registro de referencia con el fin de autenticar al usuario y otorgarle o denegarle el acceso a un recurso. Los adversarios o intrusos podrían intentar suplantar un sistema de seguridad empleando tal método de autenticación presentando algo que no sea un ojo en vivo (p. ej., una foto del rostro de un usuario autorizado o un modelo de plástico del ojo de un usuario autorizado) al sensor de luz del sistema de seguridad. Algunos intentos de suplantación pueden verse frustrados configurando un sistema de seguridad para analizar las imágenes obtenidas para discriminar imágenes de ojos en vivo de imágenes de accesorios.
Se calcula una pluralidad de métricas de vivacidad que reflejan las propiedades que se espera que muestre un ojo en vivo que pueden no ser exhibidas por ciertos intentos de suplantación. Por ejemplo, se pueden aplicar estímulos a un usuario durante el proceso de adquisición de imágenes y la respuesta de un ojo representado en las imágenes se puede cuantificar con una métrica en comparación con una respuesta esperada de un ojo en vivo a esos estímulos. Específicamente, se determina una métrica relacionada con la reflectancia del ojo. Un ojo en vivo tiene propiedades de reflectancia únicas provocadas por su forma tridimensional y su textura de superficie clara y humedad que pueden no ser exhibidas por muchos accesorios de ataque de suplantación. Se puede emplear un dispositivo de flash para iluminar al sujeto durante una porción del proceso de adquisición de imágenes y se analiza la sincronización y la calidad de la reflexión del pulso de flash en el ojo del sujeto para determinar si realmente se trata de un globo ocular en vivo que se está visualizando en tiempo real.
Se combina una pluralidad de métricas de vivacidad para determinar una valoración o decisión de vivacidad que refleja la probabilidad de que las imágenes representen un ojo en vivo, a diferencia de, por ejemplo, una imagen de modelo o una foto bidimensional de un ojo. Por ejemplo, un aproximador de función entrenado (p. ej., una red neuronal) se puede emplear para determinar, en base a una pluralidad de métricas de vivacidad, una valoración de vivacidad. Las imágenes obtenidas se pueden entonces aceptar o rechazar en base a la valoración de vivacidad. En algunas implementaciones, se puede informar acerca de un intento de suplantación cuando la valoración de vivacidad indica que las imágenes no representan un ojo en vivo.
La figura 1 es un diagrama de la anatomía de un ojo humano 100. El diagrama es una sección transversal del ojo con una ampliación 102 de la anatomía cerca del límite del limbo corneal del ojo que separa el iris 110 coloreado del blanco circundante del ojo. El blanco del ojo incluye una estructura vascular compleja que no solo es fácilmente visible y escaneable desde el exterior del ojo, sino que, además, esa estructura vascular es única y varía entre individuos. De este modo, estas estructuras vasculares del blanco del ojo, principalmente debido a la vasculatura de la conjuntiva y la epiesclerótica, se pueden escanear y emplear ventajosamente como información biométrica. Esta información biométrica se puede emplear para autenticar a un individuo concreto o para identificar a un individuo desconocido.
El blanco del ojo tiene una serie de capas. La esclerótica 120 es una capa protectora opaca y fibrosa del ojo que contiene colágeno y fibra elástica. La esclerótica 120 está cubierta por la epiesclerótica 130, que tiene una gran cantidad de vasos sanguíneos y venas que lo atraviesan y recorren. La epiesclerótica 130 está cubierta por la conjuntiva bulbar 140, que es una membrana delgada y transparente que interactúa con el párpado 150 o con el entorno cuando se abre el párpado. Los vasos sanguíneos y las venas atraviesan todas estas capas del blanco del ojo y pueden detectarse en imágenes del ojo. El ojo también incluye pestañas 160 que, a veces, pueden oscurecer porciones del blanco del ojo en una imagen.
La figura 2 es un diagrama de una imagen 200 de ejemplo que incluye porciones que muestran la vasculatura del blanco de un ojo. Tal imagen 200 se puede capturar con un sensor (p. ej., una cámara) que esté integrado en un dispositivo informático, tal como, por ejemplo, un teléfono inteligente, una tableta, una televisión, un ordenador portátil o un ordenador personal. Por ejemplo, es posible que se le solicite a un usuario a través de una pantalla o un mensaje de audio que mire hacia la izquierda mientras se captura la imagen, exponiendo así un área más grande del blanco del ojo a la derecha del iris a la vista del sensor. De manera similar, se le puede pedir a un usuario que mire hacia la derecha, hacia arriba, hacia abajo, recto, etc. mientras se captura una imagen. La imagen de ejemplo incluye una vista de un iris 220 con una pupila 210 en su centro. El iris 220 se extiende hasta el límite del limbo corneal 225 del ojo. El blanco 230 del ojo es externo al límite del limbo corneal 225 del ojo. Una vasculatura extensa 240 del blanco del ojo es visible en la imagen 100. Esta vasculatura 240 puede ser distintiva para un individuo. En algunas implementaciones, las características distintivas de la vasculatura 240 se pueden emplear como base para identificar, verificar o autenticar a un usuario individuo.
La figura 3 es un diagrama de una imagen 300 de ejemplo, incluidas las porciones que muestran la vasculatura de los blancos de dos ojos, que está segmentado para su análisis. Una imagen capturada 310 se puede obtener de diversas maneras. La imagen capturada 310 se puede preprocesar y segmentar para aislar regiones de interés dentro de la imagen y mejorar la vista de la vasculatura en los blancos de los ojos. Por ejemplo, las regiones de interés pueden ser porciones en mosaico que forman cuadrículas que cubren parte o la totalidad de los blancos de los ojos. Se puede aislar una porción 320 del correspondiente al blanco del ojo derecho a la izquierda del iris, por ejemplo, identificando el límite del limbo corneal y los bordes de los párpados. De manera similar, se puede aislar una porción 322 correspondiente al blanco del ojo izquierdo a la izquierda del iris. El preprocesamiento se puede emplear para mejorar la vista de la vasculatura en esta región, por ejemplo, seleccionando un componente cromático a partir de los datos de imagen que maximiza el contraste entre la vasculatura y las porciones blancas circundantes de los blancos de los ojos. En algunas implementaciones, estas porciones 320, 322 de la imagen se pueden segmentar adicionalmente en mosaicos que forman cuadrículas 330, 332 que dividen un área de superficie expuesta de los blancos de los ojos en regiones más pequeñas con fines de análisis. Las características de la vasculatura en estas regiones de interés se pueden emplear para la identificación, verificación o autenticación de un individuo.
La figura 4 es un diagrama de bloques del sistema de seguridad 400 de ejemplo que está configurado para autenticar a un individuo en base a, en parte, en imágenes del blanco de un ojo 410. Un usuario del sistema de seguridad 400 puede presentar su ojo 410 a un sensor de luz 420. De esta manera, se pueden capturar imágenes del blanco del ojo 410. Una cámara digital, una cámara tridimensional (3D) y un sensor de campo de luz son ejemplos de sensores de luz que se pueden emplear. El sensor de luz 420 puede emplear una variedad de tecnologías, p. ej., dispositivos digitales de carga acoplada (CCD) o semiconductores complementarios de óxido metálico (CMOS). En algunas implementaciones, el usuario puede recibir indicaciones a través de mensajes que se muestran en la pantalla 424 para que haga ciertas poses para exponer porciones del blanco del ojo 410 y facilitar la adquisición de imágenes. Por ejemplo, se le puede pedir al usuario que dirija su mirada con el fin de girar el iris de su ojo 410 hacia la izquierda, hacia la derecha, hacia arriba, hacia arriba y hacia la izquierda, y mirar hacia arriba y hacia la derecha. En algunas implementaciones, que no se muestran, se le puede pedir al usuario que haga poses a través de mensajes que se reproducen a través de un altavoz, a través de luces indicadoras (p. ej., LEDs), o puede que no se le pida nada.
En algunas implementaciones, el sensor 420 se puede configurar para detectar cuándo el ojo 410 se ha colocado correctamente en el campo de visión del sensor. De manera alternativa, el software o firmware implementado en un dispositivo informático 430 puede analizar imágenes producidas por el sensor de luz 420 para determinar si el ojo 410 se ha colocado correctamente. En algunas implementaciones, el usuario puede indicar manualmente cuándo el ojo 410 está correctamente colocado a través de una interfaz de usuario (p. ej., un botón, un teclado, un teclado numérico, un panel táctil o una pantalla táctil).
Un módulo de autenticación 440 implementado en el dispositivo informático 430 puede obtener imágenes del blanco del ojo a través del sensor de luz 420. En algunas implementaciones, el dispositivo informático 430 está integrado o acoplado eléctricamente al sensor de luz 420. En algunas implementaciones, el dispositivo informático 430 se puede comunicar con el sensor de luz 420 a través de una interfaz inalámbrica (p. ej., una antena).
El módulo de autenticación 440 procesa imágenes obtenidas a través del sensor de luz 420 para controlar el acceso a un dispositivo protegido 450. Por ejemplo, el módulo de autenticación 440 puede implementar procesos de autenticación descritos en relación con la figura 6. En algunas implementaciones, el dispositivo protegido 450 puede incluir un accionador 460 (p. ej., un mecanismo de bloqueo) que afecta a las instrucciones de control de acceso del módulo de autenticación 440.
El dispositivo informático puede integrarse o interactuar con el dispositivo protegido 450 de diversas maneras. Por ejemplo, el dispositivo protegido 450 puede ser un automóvil, el sensor de luz 420 puede ser una cámara integrada en el volante o en el salpicadero del automóvil, y el dispositivo informático 430 puede estar integrado en el automóvil y conectado eléctricamente a la cámara y un sistema de bloqueo de encendido que sirve como accionador de seguridad 460. Un usuario puede presentar vistas de los blancos de sus ojos a la cámara con el fin de ser autenticado como conductor autorizado del automóvil y arrancar el motor.
En algunas implementaciones, el dispositivo protegido 450 puede ser una caja de bloqueo de inmobiliaria, el sensor de luz 420 puede ser una cámara integrada con el dispositivo móvil del usuario (p. ej., un teléfono inteligente o una tableta), y el procesamiento del módulo de autenticación 440 puede ser realizado en parte por el dispositivo móvil del usuario y en parte por un dispositivo informático integrado con la caja de bloqueo que controla un mecanismo de bloqueo de encendido. Los dos dispositivos informáticos pueden comunicarse a través de una interfaz inalámbrica. Por ejemplo, el usuario (p. ej., un agente inmobiliario que muestra una propiedad) puede emplear la cámara en su dispositivo móvil para obtener imágenes y enviar datos en base a las imágenes a la caja de bloqueo con el fin de ser autenticado como usuario autorizado y conceder acceso a las llaves almacenadas en la caja de bloqueo.
En algunas implementaciones, el dispositivo protegido 450 es un portón o una puerta que controla el acceso a una propiedad. El sensor de luz 420 puede estar integrado en el portón o puerta o estar colocado en una pared o valla cerca de la puerta o portón. El dispositivo informático 430 puede estar colocado cerca y se puede comunicar a través de una interfaz inalámbrica con el sensor de luz 420 y un mecanismo de bloqueo eléctrico en la puerta o portón que sirve como accionador 460. En algunas implementaciones, el dispositivo protegido 450 puede ser un rifle y el sensor de luz 420 puede estar integrado con una mira fijada al rifle. El dispositivo informático 430 puede estar integrado en la culata del rifle y se puede conectar electrónicamente al sensor de luz 420 y un mecanismo de bloqueo de gatillo o martillo que sirve como accionador 460. En algunas implementaciones, el dispositivo protegido 450 puede ser una pieza de equipo de alquiler (p. ej., una bicicleta).
El dispositivo informático 430 puede incluir un dispositivo de procesamiento 432 (p. ej., como se describe en relación con la figura 9) y un repositorio o base de datos legible por máquina 434. En algunas implementaciones, el repositorio legible por máquina puede incluir una memoria flash. El repositorio legible por máquina 434 se puede emplear para almacenar uno o más registros de referencia. Un registro de referencia puede incluir datos derivados de una o más imágenes del blanco de un ojo para un usuario registrado o autorizado del dispositivo protegido 450. En algunas implementaciones, el registro de referencia incluye imágenes de referencia completas. En algunas implementaciones, el registro de referencia incluye características extraídas de las imágenes de referencia. En algunas implementaciones, el registro de referencia incluye características cifradas extraídas de las imágenes de referencia. En algunas implementaciones, el registro de referencia incluye claves de identificación cifradas por características extraídas de las imágenes de referencia. Para crear un registro de referencia para un nuevo usuario se puede realizar un proceso de inscripción o registro. Un proceso de inscripción puede incluir la captura de una o más imágenes de referencia del blanco del ojo de un nuevo usuario registrado. En algunas implementaciones, el proceso de inscripción se puede realizar empleando el sensor de luz 420 y el dispositivo de procesamiento 430 del sistema de autenticación 400.
La figura 5 es un diagrama de bloques que muestra un ejemplo de un entorno de red 500 en el que se pueden implementar las técnicas descritas en esta memoria. El entorno de red 500 incluye dispositivos informáticos 502, 504, 506, 508, 510 que están configurados para comunicarse con un primer sistema de servidor 512 y/o un segundo sistema de servidor 514 a través de una red 511. Los dispositivos informáticos 502, 504, 506, 508, 510 tienen usuarios 522, 524, 526, 528, 530 respectivos asociados con estos. El primer y el segundo sistemas de servidor 512, 514 incluyen cada uno un dispositivo informático 516, 517 y un repositorio o base de datos legible por máquina 518, 519. El entorno 500 de ejemplo puede incluir muchos miles de sitios web, dispositivos y servidores informáticos, que no se muestran.
La red 511 puede incluir una gran red informática, ejemplos de la cual incluyen una red de área local (LAN), una red de área amplia (WAN), la red de internet, una red celular, o una combinación de estas que conecta una serie de dispositivos informáticos móviles, dispositivos informáticos fijos y sistemas de servidor. La red o redes incluidas en la red 511 pueden proporcionar comunicaciones en diversos modos o protocolos, ejemplos de los cuales incluyen el protocolo de control de transmisión/protocolo de internet (TCP/IP), las llamadas de voz del sistema global para las comunicaciones móviles (GSM), los mensajes del servicio de mensajes electrónicos cortos (SMS), el servicio de mensajería mejorado (EMS) o el servicio de mensajería multimedia (MMS), Ethernet, el acceso múltiple por división de código (CDMA), el acceso múltiple por división de tiempo (TDMA), el celular digital personal (PDC), el acceso múltiple por división de código de banda ancha (WCDMA), el CDMA2000, o el sistema general de paquetes vía radio (GPRS), entre otros. La comunicación se puede producir a través de un transceptor de radiofrecuencia. Así mismo, se puede producir una comunicación de corto alcance, p. ej., utilizando un sistema BLUETOOTH, WiFi u otro sistema de transceptor similar.
Los dispositivos informáticos 502, 504, 506, 508, 510 permiten a los usuarios 522, 524, 526, 528, 530 respectivos acceder y ver documentos, p. ej., páginas web incluidas en sitios web. Por ejemplo, el usuario 522 del dispositivo informático 502 puede ver una página web empleando un navegador web. La página web puede ser proporcionada al dispositivo informático 502 por el sistema de servidor 512, el sistema de servidor 514 u otro sistema de servidor (que no se muestra).
En el entorno 500 de ejemplo, los dispositivos informáticos 502, 504, 506 se ilustran como dispositivos informáticos de tipo escritorio, el dispositivo informático 508 se ilustra como un dispositivo informático de tipo portátil 508 y el dispositivo informático 510 se ilustra como un dispositivo informático móvil. Cabe destacar, sin embargo, que los dispositivos informáticos 502, 504, 506, 508, 510 pueden incluir, p. ej., un ordenador de escritorio, un ordenador portátil, un ordenador de mano, un televisor con uno o más procesadores incorporados en este y/o acoplados a este, un dispositivo informático de tipo tableta, un asistente digital personal (PDA), un teléfono celular, un artefacto de red, una cámara, un teléfono inteligente, un teléfono móvil con servicio general de paquetes vía radio mejorado (EGPRS), un reproductor multimedia, un dispositivo de navegación, un dispositivo de mensajería electrónica, una consola de juegos o una combinación de dos o más de estos dispositivos de procesamiento de datos u otros dispositivos de procesamiento de datos apropiados. En algunas implementaciones, un dispositivo informático se puede incluir como parte de un vehículo de motor (p. ej., un automóvil, un vehículo de emergencia (p. ej., un camión de bomberos, una ambulancia), un autobús).
Los usuarios que interactúan con los dispositivos informáticos 502, 504, 506, 508, 510 pueden interactuar con un servicio de transacciones seguras 523 alojado, p. ej., por el sistema de servidor 512, autenticándose y emitiendo instrucciones u órdenes a través de la red 511. Las transacciones seguras pueden incluir, p. ej., compras de comercio electrónico, transacciones financieras (p. ej., transacciones bancarias en línea, transacciones con tarjeta de crédito o bancaria, canje de puntos de recompensa de fidelización) o votación en línea. El servicio de transacciones seguras puede incluir un módulo de autenticación 525 que coordina la autenticación de los usuarios desde el lado de la interacción del servidor protegido. En algunas implementaciones, el módulo de autenticación 525 puede recibir datos de imagen de un dispositivo de usuario (p. ej., los dispositivos informáticos 502, 504, 506, 508, 510) que incluye una o más imágenes del ojo de un usuario (p. ej., los usuarios 522, 524, 526, 528, 530). El módulo de autenticación puede entonces procesar los datos de imagen para autenticar al usuario determinando si los datos de imagen coinciden con un registro de referencia para una identidad de usuario reconocida que se ha creado previamente en base a los datos de imagen recopilados durante una sesión de inscripción.
En algunas implementaciones, un usuario que ha enviado una solicitud de servicio puede ser redirigido a un módulo de autenticación 540 que se ejecuta en un sistema de servidor individual 514.
El módulo de autenticación 540 puede mantener registros de referencia para usuarios registrados o inscritos del servicio de transacciones seguras 523 y también puede incluir registros de referencia para usuarios de otros servicios de transacciones seguras. El módulo de autenticación 540 puede establecer sesiones seguras con diversos servicios de transacciones seguras (p. ej., el servicio de transacciones seguras 523) empleando comunicaciones de red cifradas (p. ej., utilizando un protocolo de cifrado de clave pública) para indicar al servicio de transacciones seguras si el usuario ha sido autenticado como usuario registrado o inscrito. Al igual que el módulo de autenticación 525, el módulo de autenticación 540 puede recibir datos de imagen del dispositivo informático del usuario solicitante (p. ej., los dispositivos informáticos 502, 504, 506, 508, 510) y puede procesar los datos de imagen para autenticar al usuario. En algunas implementaciones, el módulo de autenticación puede determinar las valoraciones de vivacidad para las imágenes recibidas de un usuario y puede aceptar o rechazar las imágenes en base a las valoraciones de vivacidad. Cuando se rechaza una imagen como un intento de suplantación que presenta algo que no sea un ojo en vivo, el módulo de autenticación 540 puede enviar mensajes de comunicación de red para informar acerca del intento de suplantación al servicio de transacciones seguras 523 o una autoridad pertinente.
El módulo de autenticación 540 se puede implementar como software, hardware o una combinación de software y hardware que se ejecuta en un aparato de procesamiento, tal como uno o más dispositivos informáticos (p. ej., un sistema informático como se ilustra en la figura 9).
Un dispositivo de usuario (p. ej., el dispositivo informático 510) puede incluir una aplicación de autenticación 550. La aplicación de autenticación 550 puede facilitar la autenticación del usuario como una identidad de usuario registrada o inscrita con el fin de acceder a servicios seguros (p. ej., el servicio de transacciones seguras 523) a través de una red 511. Por ejemplo, la aplicación de autenticación 550 puede ser una aplicación móvil u otro tipo de aplicación de cliente para interactuar con un módulo de autenticación del lado del servidor (p. ej., el módulo de autenticación 540). La aplicación de autenticación 550 puede activar un sensor (p. ej., una cámara conectada o integrada con un dispositivo informático de usuario) para capturar imágenes de un usuario (p. ej., el usuario 530) que incluyen vistas del blanco del ojo del usuario. La aplicación de autenticación 550 puede pedir (p. ej., a través de una pantalla o altavoces) al usuario que pose para la captura de imágenes. Por ejemplo, se le puede pedir al usuario que mire hacia el sensor y dirija su mirada hacia la izquierda o hacia la derecha para exponer grandes porciones del blanco de un ojo al sensor.
En algunas implementaciones, la aplicación de autenticación 550 transmite datos de imagen capturada a un módulo de autenticación (p. ej., los módulos de autenticación 525 o 540) en un servidor remoto (p. ej., los sistemas de servidor 512 o 514) a través de la red 511. La recopilación de datos de imagen del usuario puede facilitar la inscripción y la creación de un registro de referencia para el usuario. La recopilación de datos de imagen del usuario también puede facilitar la autenticación contra un registro de referencia para la identidad de un usuario.
En algunas implementaciones, la aplicación de autenticación 550 puede realizar un procesamiento adicional de los datos de imagen con fines de autenticación y los resultados de ese procesamiento pueden transmitirse a un módulo de autenticación (p. ej., los módulos de autenticación 525 o 540). De esta manera, las funciones de autenticación pueden distribuirse entre los procesos del lado del cliente y del servidor en una manera adecuada para una aplicación concreta. Por ejemplo, en algunas implementaciones, la aplicación de autenticación 550 determina las valoraciones de vivacidad de las imágenes capturadas y rechaza cualquier imagen con valoraciones de vivacidad que indiquen un ataque de suplantación. Si una valoración de vivacidad indica un ojo en vivo, los datos de imagen, en base a las imágenes aceptadas, pueden transmitirse a un módulo de autenticación del lado del servidor (p. ej., los módulos de autenticación 525 o 540) para un análisis adicional.
En algunas implementaciones, la aplicación de autenticación accede a un registro de referencia para la identidad de un usuario y lleva a cabo un proceso de autenticación completo, antes de informar acerca del resultado (p. ej., usuario aceptado o rechazado) a un módulo de autenticación del lado del servidor.
La aplicación de autenticación 550 se puede implementar como software, hardware o una combinación de software y hardware que se ejecuta en un aparato de procesamiento, tal como uno o más dispositivos informáticos (p. ej., un sistema informático como se ilustra en la figura 9).
La figura 6 es un organigrama de un proceso 600 de ejemplo para autenticar a un individuo en base a imágenes del blanco de un ojo. Se determina una valoración de vivacidad para las imágenes obtenidas y se emplea para aceptar o rechazar las imágenes. Cuando se detecta y acepta una imagen de un ojo en vivo, la imagen se analiza adicionalmente para determinar una valoración de coincidencia extrayendo características a partir de la imagen y comparando las características con un registro de referencia. Luego, el usuario es aceptado o rechazado en base a la valoración de coincidencia. El proceso 600 puede ser implementado, por ejemplo, por el módulo de autenticación 440 en el dispositivo informático 430 de la figura 4. En algunas implementaciones, el dispositivo informático 430 es un aparato de procesamiento de datos que incluye uno o más procesadores que están configurados para realizar acciones del proceso 600. Por ejemplo, el aparato de procesamiento de datos puede ser un dispositivo informático (p. ej., como se ilustra en la figura 9). En algunas implementaciones, el proceso 600 se puede implementar en su totalidad o en parte por la aplicación de autenticación 550 que es ejecutada por un dispositivo informático de usuario (p. ej., el dispositivo informático 510). Por ejemplo, el dispositivo informático de usuario puede ser un dispositivo informático móvil (p. ej., el dispositivo informático móvil 950 de la figura 9). En algunas implementaciones, el proceso 600 puede ser implementado en su totalidad o en parte por el módulo de autenticación 540 que es ejecutado por un sistema de servidor de usuario (p. ej., el sistema de servidor 514). En algunas implementaciones, el sistema de servidor 514 es un aparato de procesamiento de datos que incluye uno o más procesadores que están configurados para realizar acciones del proceso 600. Por ejemplo, el aparato de procesamiento de datos puede ser un dispositivo informático (p. ej., como se ilustra en la figura 9). En algunas implementaciones, un medio legible por ordenador puede incluir instrucciones que, cuando son ejecutadas por un dispositivo informático (p. ej., un sistema informático) hacen que el dispositivo realice acciones del proceso 600.
Se obtienen 602 dos o más imágenes de un ojo. Las imágenes incluyen una vista de una porción de una vasculatura del ojo externa al límite del limbo corneal del ojo. Las imágenes obtenidas pueden ser monocromas o representadas en diversos espacios de color (p. ej., RGB, SRGB, HSV, HSL o YCbCr). En algunas implementaciones, una imagen puede obtenerse empleando un sensor de luz (p. ej., una cámara digital, una cámara 3D o un sensor de campo de luz). El sensor puede ser sensible a la luz en diversos intervalos de longitud de onda. Por ejemplo, el sensor puede ser sensible al espectro visible de luz. En algunas implementaciones, el sensor está emparejado con un flash que se puede pulsar para iluminar objetos a la vista del sensor. La captura de imágenes se puede sincronizar o bloquear en el tiempo con la pulsación de un flash. En algunas implementaciones, el sensor captura una secuencia de imágenes que se pueden emplear para rastrear el movimiento de los objetos dentro del campo de visión del sensor. El sensor puede incluir uno o más ajustes que controlen la captura de imágenes (p. ej., la distancia de enfoque, la intensidad del flash, la exposición y el balance de blancos). Las imágenes incluyen colectivamente una pluralidad de distancias de enfoque. Por ejemplo, se puede capturar una secuencia de imágenes, capturándose cada imagen con unos ajustes de distancia de enfoque diferentes para el sensor y/o algunos sensores (p. ej., un sensor de campo de luz) pueden capturar una imagen que está enfocada a una pluralidad de distancias del sensor. En algunas implementaciones, las dos o más imágenes pueden obtenerse 502 mediante recepción a través de una interfaz de red (p. ej., una interfaz de red del sistema de servidor 514).
A continuación, se determina 604 una valoración de vivacidad para las dos o más imágenes. La valoración de vivacidad se determina 604 en base a las métricas de vivacidad que, a su vez, se determinan en base a las imágenes obtenidas. Algunos ejemplos de tal proceso se describen en relación con la figura 7.
Por ejemplo, la valoración de vivacidad se puede determinar 604 mediante el módulo de autenticación 440, la aplicación de autenticación 550, módulo de autenticación 525 o el módulo de autenticación 540.
La valoración de vivacidad se comprueba 606 para determinar si es probable que las imágenes incluyan una vista de un ojo en vivo. En algunas implementaciones, la valoración de vivacidad se puede comparar con un umbral.
Si la valoración de vivacidad indica una probabilidad baja de un ojo en vivo y, por lo tanto, una probabilidad alta de un ataque de suplantación, las dos o más imágenes se rechazan 608. En algunas implementaciones, entonces se puede informar acerca de un ataque de suplantación 610. En algunas implementaciones, el ataque de suplantación 610 se informa a través de una pantalla o altavoz (p. ej., con un sonido de alarma o una pantalla parpadeante). En algunas implementaciones, el ataque de suplantación se informa 610 transmitiendo uno o más mensajes a través de una red empleando una interfaz de red. El usuario puede entonces ser rechazado 630 y denegado el acceso al dispositivo o servicio protegido.
En algunas implementaciones (que no se muestran), se puede realizar una comprobación para verificar que las imágenes obtenidas fueron capturadas desde un sensor concreto y que el sensor concreto no se ha pasado por alto mediante el envío de datos de imagen de suplantación. Por ejemplo, durante la captura de imágenes, se pueden ajustar uno o más ajustes de configuración de sensor para que adopten ajustes diferentes durante la captura de dos o más de las imágenes. Se espera que estos ajustes diferentes se reflejen en los datos de imagen obtenidos. Si cambia en los datos de imagen entre imágenes con ajustes diferentes, puede indicar que el sensor ha sido pasado por alto por un ataque de suplantación. Por ejemplo, los ajustes de configuración del sensor que controlan el enfoque, el tiempo de exposición o el balance de blancos se pueden ajustar de esta manera. Si no se detectan los cambios correspondientes en los datos de imagen obtenidos, las imágenes obtenidas pueden ser rechazadas 608.
Si la valoración de vivacidad indica una alta probabilidad de que se muestre un ojo en vivo en las imágenes, las dos o más imágenes se aceptan 616 y se someten a un análisis adicional para completar el proceso de autenticación.
Las imágenes se pueden segmentar 620 para identificar regiones de interés que incluyen las mejores vistas de la vasculatura en el blanco de un ojo. En algunas implementaciones, los puntos de referencia anatómicos (p. ej., un iris, su centro y el límite del limbo corneal, las comisuras de los ojos y los bordes de los párpados) se pueden identificar en las imágenes. Las regiones de interés dentro de la imagen se pueden identificar y seleccionar en base a su ubicación en relación con los puntos de referencia anatómicos identificados. Por ejemplo, las regiones de interés pueden estar ubicadas en el blanco del ojo a la izquierda, a la derecha, por encima o por debajo del iris. En algunas implementaciones, las regiones de interés seleccionadas se colocan en mosaico para formar una cuadrícula que cubre una mayor porción del blanco del ojo. En algunas implementaciones, las regiones seleccionadas de la imagen no son contiguas (p. ej., las regiones vecinas pueden superponerse o las regiones vecinas pueden tener espacio entre ellas). Las regiones de interés seleccionadas pueden corresponder a regiones de interés seleccionadas de una imagen de referencia en la que se basan los datos de un registro de referencia.
En algunas implementaciones, las comisuras de los ojos se encuentran ajustando curvas en las porciones detectadas del párpado sobre la esclerótica y, luego, extrapolando y encontrando la intersección de esas curvas. Si no se puede encontrar una intersección (esquina) debido a que el iris estaba demasiado cerca (p. ej., debido a la dirección de la mirada), entonces se puede derivar una plantilla de la misma área de la comisura, pero de la foto de la dirección de la mirada opuesta y aplicarla a la vecindad de la comisura problemática en la imagen en cuestión, y la ubicación de correlación máxima se puede etiquetar como la comisura.
En algunas implementaciones, los párpados se encuentran mediante métodos de umbral adaptativo que encuentran el blanco del ojo a partir de la imagen, que bordean los párpados. La propia máscara de la esclerótica puede corregirse mediante operaciones morfológicas (p. ej., casco convexo) para eliminar las aberraciones.
En algunas implementaciones, el límite límbico se encuentra en la máscara de la esclerótica donde termina la esclerótica debido a su terminación en el límite límbico del iris.
En algunas implementaciones, el centro del iris se encuentra a través de múltiples métodos. Si el color de los ojos es claro, el centro de la pupila se puede encontrar como el centro del iris. Si el iris es demasiado oscuro, entonces se encuentra el centro del elipsoide ajustado al límite límbico y su centro, o se determina como el punto focal de los rayos normales (es decir, líneas perpendiculares a las tangentes al límite límbico) que convergen alrededor del centro del iris, o una combinación de los métodos anteriores.
Las regiones de imagen se pueden procesar 622 para mejorar la vista de una vasculatura dentro de una imagen. En algunas implementaciones, el preprocesamiento 622 incluye mejora de imagen en color y ecualización de histograma adaptativo de contraste limitado (CLAHE) que mejora el contraste de la imagen de intensidad. La CLAHE funciona en pequeñas regiones de la imagen llamadas mosaicos. El contraste de cada mosaico se mejora de tal manera que el histograma de la salida coincida aproximadamente con el histograma especificado por una distribución concreta (p. ej., una distribución uniforme, exponencial o de Rayleigh). Los mosaicos vecinos se combinan luego mediante interpolación bilineal para eliminar los límites inducidos artificialmente. En algunas implementaciones, las imágenes se pueden mejorar seleccionando uno de los componentes cromáticos rojo, verde o azul que tenga el mejor contraste entre los vasos sanguíneos y el fondo. El componente verde puede ser preferente porque puede proporcionar el mejor contraste entre los vasos sanguíneos y el fondo.
En algunas implementaciones, el preprocesamiento 622 incluye la aplicación de un esquema de filtrado de mejora de múltiples escalas para mejorar la intensidad de las imágenes facilitando de esta manera la detección y las características de extracción posteriores de la estructura vascular. Los parámetros del filtro se pueden determinar empíricamente de modo que se tengan en cuenta las variaciones en el contorno de los vasos sanguíneos. El algoritmo empleado puede tener una buena sensibilidad, una buena especificidad para curvas y suprime objetos de otras formas. El algoritmo se puede basar en las segundas derivadas de la imagen. En primer lugar, dado que las segundas derivadas son sensibles al ruido, un segmento de imagen se convoluciona con una función gaussiana. El parámetro o de la función gaussiana puede corresponder al grosor de un vaso sanguíneo. A continuación, para cada elemento de datos de imagen, se puede construir una matriz hessiana y se pueden calcular valores propios A1 y A2. En cada matriz hessiana, las crestas se definen como puntos donde la imagen tiene un extremo en la dirección de la curvatura. La dirección de la curvatura es el vector propio de las derivadas de segundo orden de la imagen que corresponde al valor propio absoluto mayor A. El signo del valor propio determina si es un mínimo A> 0 o máximo A <0 local. Los valores propios calculados se emplean para filtrar la línea de vasos sanguíneos con las ecuaciones:
I línea(A1, A2) = | A1 | - | A2 | si A1 <0 y I_línea(Al, A2) = 0 si A1 > 0
El diámetro de los vasos sanguíneos varía, pero el algoritmo asume que el diámetro está dentro de un intervalo, [d0, d1]. Los filtros de suavizado gaussiano se pueden emplear en el intervalo de escala de [d0 / 4, d1 / 4]. Este filtrado puede repetirse N veces en base a las escalas de suavizado:
o1= d0 / 4, o2 = r * o1, o 2 = r2 * o1,... o2 = rA(N-1) * o1 = d1 / 4
Esta salida final puede ser el valor máximo de la salida de todos los filtros individuales de N escalas.
Las características se determinan 624 para cada región de imagen que reflejan la estructura o propiedades de la vasculatura visible en esa región del ojo del usuario. En algunas implementaciones, se pueden emplear métodos de detección de minucias para extraer características de la vasculatura del usuario. Se describen ejemplos de procesos de detección de minucias en la patente de los Estados Unidos n.° 7.327.860.
En algunas implementaciones, las características se pueden determinar 624 en parte aplicando un conjunto de filtros a las regiones de imagen que corresponden a las características de textura de esas regiones de imagen. Por ejemplo, las características se pueden determinar en parte aplicando un conjunto de filtros de Gabor complejos en diversos ángulos a la imagen. Los parámetros del filtro se pueden determinar empíricamente de modo que se tengan en cuenta las variaciones en el espaciado, la orientación y el contorno de los vasos sanguíneos. Las características de textura de una imagen se pueden medir como la cantidad de vasculatura visible nítida en la región de interés. Esta calidad se puede determinar con la relación entre el área de vasculatura visible nítida y el área de la región de interés. La fase de la imagen filtrada por Gabor, cuando se binariza empleando un umbral, puede facilitar la detección y revelar vasculatura visible y nítida.
La fase de imagen filtrada por Gabor compleja refleja los patrones vasculares en diferentes ángulos cuando el núcleo de filtro de Gabor está configurado con Sigma = 2,5 píxeles, Frecuencia = 6; y Gamma = 1. La elección de la frecuencia puede depender de la distancia entre los vasos sanguíneos, que a su vez depende de la resolución y la distancia entre el sistema de adquisición de imágenes y el sujeto. Estos parámetros pueden ser invariables con las imágenes. Por ejemplo, los parámetros de núcleo pueden derivarse para imágenes oculares capturadas a una distancia de 6 a 12 centímetros del ojo empleando un sensor concreto (p. ej., una cámara trasera en un teléfono inteligente) y la región de esclerótica segmentada se puede cambiar de tamaño a una resolución de (p.ej., 401x501 píxeles) para el análisis. La vasculatura visible de la superficie del ojo se puede extender en todas las direcciones en el blanco del ojo. Por ejemplo, los núcleos de Gabor pueden alinearse a través de seis ángulos diferentes (ángulo = 0, 30, 60, 90, 120 y 150 grados). La fase de las imágenes filtradas por Gabor puede variar de - n a n radianes. Los valores de fase por encima de 0,25 y por debajo de -0,25 radianes pueden corresponder a estructuras vasculares. Para binarizar la imagen de fase empleando el umbral, todos los valores de fase por encima de 0,25 o por debajo de -0,25 pueden establecerse en uno y los valores restantes en cero. Esto puede dar como resultado una estructura de vasculatura nítida en la imagen de fase correspondiente. Esta operación se puede realizar para imágenes resultantes de aplicaciones de todos los seis núcleos de Gabor en diferentes ángulos. Se pueden agregar las seis imágenes binarizadas, para revelar una estructura vascular clara y nítida. En algunas implementaciones, se puede emplear un vector de los elementos de las imágenes de fase binarizadas como vector de características para comparar la imagen con un registro de referencia. En algunas implementaciones, las diferencias en las características de textura entre las regiones de imagen de interés se pueden emplear como vector de características. La suma de todos los 1 en un área de imagen binarizada dividida por el área de la región de interés puede reflejar la extensión de la vasculatura visible.
Se determina 626 una valoración de coincidencia en base a las características y las características correspondientes de un registro de referencia. El registro de referencia puede incluir datos en base a, al menos en parte, una o más imágenes de referencia capturadas durante un proceso de inscripción o registro para un usuario. En algunas implementaciones, una valoración de vivacidad se puede determinar 626 como una distancia (p. ej., una distancia euclidiana, un coeficiente de correlación, una distancia de Hausdorff modificada, una distancia de Mahalanobis, una divergencia de Bregman, una similitud de coseno, una distancia de Kullback-Leibler y una divergencia de Jensen-Shannon) entre un vector de características extraídas de una o más imágenes obtenidas y un vector de características del registro de referencia. En algunas implementaciones, la valoración de coincidencia se puede determinar 626 introduciendo características extraídas de una o más imágenes y características obtenidas del registro de referencia en un aproximador de función entrenado.
En algunas implementaciones, una valoración de coincidencia de fusión en base a la calidad se determina 626 en base a las valoraciones de coincidencia para múltiples imágenes de la misma vasculatura. En algunas implementaciones, las valoraciones de coincidencia de varias imágenes se combinan sumando las valoraciones de coincidencia en una combinación lineal ponderada con ponderaciones que dependen respectivamente de las valoraciones de calidad determinadas para cada una de las múltiples imágenes. Otros ejemplos de técnicas que se pueden emplear para combinar valoraciones de coincidencia para múltiples imágenes en base a sus respectivas valoraciones de calidad incluyen mezclas jerárquicas, el principio de la suma, el principio del producto, fusión cerrada, Combinación Dempster-Shafer y generalización apilada, entre otros.
En algunas implementaciones, la valoración de coincidencia se determina 626 mediante un módulo de autenticación (p. ej., el módulo de autenticación 440 que se ejecuta en el dispositivo informático 430).
La valoración de coincidencia se puede comprobar 628 para determinar si existe una coincidencia entre una o más imágenes obtenidas y el registro de referencia. Por ejemplo, la valoración de coincidencia se puede comparar con un umbral. Una coincidencia puede reflejar una alta probabilidad de que el usuario cuyo ojo se representa en una o más imágenes obtenidas sea el mismo que un individuo asociado con el registro de referencia.
Si no hay coincidencia, entonces el usuario puede ser rechazado 630. Como resultado, al usuario se le puede negar el acceso a un dispositivo o servicio seguro (p. ej., el dispositivo protegido 450 o el servicio de transacciones seguras 523). En algunas implementaciones, el usuario puede ser informado acerca del rechazo 630 a través de un mensaje que se muestra en una pantalla o se reproduce a través de un altavoz. En algunas implementaciones, el rechazo se puede ver afectado por la transmisión de un mensaje a través de una red que refleje el estado del usuario como rechazado. Por ejemplo, el módulo de autenticación 540, al rechazar al usuario 530, puede transmitir un mensaje de rechazo al servidor de transacciones seguras 523 empleando una interfaz de red del sistema de servidor 514. El módulo de autenticación 540 también puede enviar un mensaje de rechazo al dispositivo informático de usuario 510 en esta situación.
Si hay una coincidencia, entonces el usuario puede ser aceptado 632. Como resultado, el usuario puede tener concedido el acceso a un dispositivo o servicio seguro (p. ej., el dispositivo protegido 450 o el servicio de transacciones seguras 523). En algunas implementaciones, el usuario puede ser informado acerca de la aceptación 632 a través de un mensaje que se muestra en una pantalla o se reproduce a través de un altavoz. En algunas implementaciones, la aceptación se puede ver afectada por la transmisión de un mensaje a través de una red que refleje el estado del usuario como aceptado. Por ejemplo, el módulo de autenticación 540, al aceptar al usuario 530, puede transmitir un mensaje de aceptación al servidor de transacciones seguras 523 empleando una interfaz de red del sistema de servidor 514. El módulo de autenticación 540 también puede enviar un mensaje de aceptación al dispositivo informático de usuario 510 en esta situación. La figura 7 es un organigrama de un proceso 700 de ejemplo para determinar una valoración de vivacidad para dos o más imágenes de un ojo. Se determinan 710 una o más métricas de vivacidad para las imágenes y la valoración de vivacidad se determina 730 en base a una o más métricas de vivacidad.
El proceso 700 puede ser implementado, por ejemplo, por el módulo de autenticación 440 en el dispositivo informático 430 de la figura 4. En algunas implementaciones, el dispositivo informático 430 es un aparato de procesamiento de datos que incluye uno o más procesadores que están configurados para realizar acciones del proceso 700. Por ejemplo, el aparato de procesamiento de datos puede ser un dispositivo informático (p. ej., como se ilustra en la figura 9). En algunas implementaciones, el proceso 700 se puede implementar en su totalidad o en parte por la aplicación de autenticación 550 que es ejecutada por un dispositivo informático de usuario (p. ej., el dispositivo informático 510). Por ejemplo, el dispositivo informático de usuario puede ser un dispositivo informático móvil (p. ej., el dispositivo informático móvil 950 de la figura 9). En algunas implementaciones, el proceso 700 puede ser implementado en su totalidad o en parte por el módulo de autenticación 540 que es ejecutado por un sistema de servidor de usuario (p. ej., el sistema de servidor 514). En algunas implementaciones, el sistema de servidor 514 es un aparato de procesamiento de datos que incluye uno o más procesadores que están configurados para realizar acciones del proceso 700. Por ejemplo, el aparato de procesamiento de datos puede ser un dispositivo informático (p. ej., como se ilustra en la figura 9). En algunas implementaciones, un medio legible por ordenador puede incluir instrucciones que, cuando son ejecutadas por un dispositivo informático (p. ej., un sistema informático) hacen que el dispositivo realice acciones del proceso 700.
El proceso 700 comienza 702 cuando se reciben dos o más imágenes para su procesamiento. Por ejemplo, las dos o más imágenes se pueden codificar como matrices de dos, tres o cuatro dimensiones de elementos de imagen de datos (p. ej., un píxel, un vóxel, un rayo o un valor de canal rojo, verde o azul).
A continuación, se determinan 710 métricas de vivacidad en base a las dos o más imágenes. Específicamente, una métrica de comportamiento se determina 712 en base al movimiento detectado del ojo cuando el ojo aparece en una pluralidad de imágenes. La métrica de comportamiento es una medición de la desviación del movimiento detectado y la sincronización del movimiento esperado del ojo.
La métrica de comportamiento se puede determinar 712 aplicando estímulos fóticos (p. ej., un pulso de flash, un cambio de brillo de una pantalla LCD) a un sujeto mientras se capturan las imágenes. En respuesta a estos estímulos fóticos, se espera que la pupila de un ojo en vivo se contraiga para adaptarse al cambio de iluminación. Además, se espera que la pupila se contraiga de cierta manera a lo largo del tiempo con, un tiempo de inicio que depende del tiempo de reacción de un usuario, una duración del movimiento de constricción requerido para alcanzar un diámetro de pupila en estado estable nuevo, una velocidad media de constricción y una curva de aceleración concreta para el movimiento de constricción. Al examinar una secuencia de imágenes capturadas antes y después del comienzo de un estímulo fótico, se pueden determinar uno o más parámetros de un movimiento detectado y compararse con uno o más parámetros del movimiento esperado. Una desviación sustancial del movimiento esperado en respuesta a los estímulos fóticos puede indicar que el sujeto a la vista de la cámara no es un ojo en vivo y se está produciendo un ataque de suplantación. Un ejemplo de esta implementación se describe en relación con la figura 8A.
De manera alternativa, la métrica de comportamiento se puede determinar 712 aplicando estímulos externos (p. ej., indicaciones que le indican al usuario que dirija su mirada o una pantalla que muestra un objeto en movimiento que el usuario sigue con los ojos) hacia un sujeto durante la captura de imagen y el seguimiento de las transiciones de mirada que pueden resultar. En respuesta a estos estímulos externos, se espera que un ojo en vivo se mueva de cierta manera a lo largo del tiempo. Algunos parámetros de un movimiento de transición de la mirada esperado pueden incluir un tiempo de inicio que depende del tiempo de reacción de un usuario, una duración del movimiento de transición de la mirada requerida para alcanzar una nueva dirección de la mirada en estado estable, una velocidad media y una curva de aceleración concreta para el movimiento de transición de la mirada. Al examinar una secuencia de imágenes capturadas antes y después del comienzo de un estímulo externo, se pueden determinar uno o más parámetros de un movimiento detectado y compararse con uno o más parámetros del movimiento esperado. Una desviación sustancial del movimiento esperado en respuesta a los estímulos externos puede indicar que el sujeto a la vista de la cámara no es un ojo en vivo y se está produciendo un ataque de suplantación. Un ejemplo de esta implementación se describe en relación con la figura 8B.
En algunas implementaciones, los parámetros de movimiento esperados son específicos de un usuario concreto y se determinan durante una sesión de inscripción y se almacenan como parte de un registro de referencia para el usuario concreto. En algunas implementaciones, los parámetros de movimiento esperados se determinan para una población en base a una gran recopilación de datos de usuario o estudios fuera de línea.
Por ejemplo, una métrica de comportamiento se puede determinar 712 mediante un módulo o aplicación de autenticación (p. ej., el módulo de autenticación 440).
Se determina 714 una métrica espacial en base a una distancia desde un sensor hasta un punto de referencia que aparece en una pluralidad de imágenes, teniendo cada una una distancia de enfoque respectiva diferente. La distancia de enfoque es la distancia desde un sensor hasta un punto en su campo de visión que está perfectamente enfocado. Para algunos sensores, la distancia de enfoque se puede ajustar para diferentes imágenes ajustando una configuración de enfoque para el sensor. Por ejemplo, un punto de referencia (p. ej., un iris, una comisura del ojo, una nariz, una oreja o un objeto de fondo) se puede identificar y ubicar en la pluralidad de imágenes con diferentes distancias de enfoque. La representación de un punto de referencia en una imagen concreta tiene un grado de enfoque que depende de lo lejos que esté el objeto correspondiente al punto de referencia de un punto de enfoque en el campo de visión del sensor. El grado de enfoque es una medición de la extensión en que la imagen del punto de referencia se ve borrosa por los efectos ópticos en el sensor de luz (p. ej., debido a la difracción y convolución con la forma de apertura). El grado de enfoque de un punto de referencia en una imagen concreta se puede estimar determinando los componentes de alta frecuencia de la señal de imagen en las proximidades del punto de referencia. Cuando el punto de referencia está enfocado, se esperan más componentes de alta frecuencia en sus proximidades. Cuando el grado de enfoque es bajo para un punto de referencia, se esperan componentes de alta frecuencia más pequeños. Al comparar el grado de enfoque de un punto de referencia en imágenes con diferentes distancias de enfoque, se puede estimar la distancia desde el sensor al punto de referencia. En algunas implementaciones, las distancias desde el sensor (p. ej., una cámara) para múltiples puntos de referencia se estiman para formar un mapa topológico (que consiste en un conjunto de posiciones de puntos de referencia tridimensionales) del sujeto en la vista del sensor. Las posiciones de estos puntos de referencia en el espacio visto por la cámara se pueden comparar con un modelo determinando una métrica espacial (p. ej., la diferencia cuadrática media entre la ubicación detectada de uno o más puntos de referencia y las ubicaciones modeladas correspondientes de uno o más puntos de referencia) que refleja la desviación del modelo.
Por ejemplo, una métrica espacial puede ser determinada 714 por un módulo o aplicación de autenticación (p. ej., el módulo de autenticación 440).
Se determina 716 una métrica de reflectancia en base al cambio detectado en el deslumbramiento de superficie o los patrones de reflexión especular en una superficie del ojo cuando el ojo aparece en una pluralidad de imágenes. La métrica de reflectancia puede ser una medición de cambios en el deslumbramiento o parches de reflexión especular en la superficie del ojo. A medida que cambia la iluminación de un ojo en la vista del sensor, debido al movimiento relativo del ojo y una fuente de luz o a cambios en una fuente de luz dinámica (p. ej., un flash, una pantalla LCD u otro elemento de iluminación), se espera que los patrones de deslumbramiento y reflexión especular visibles en el ojo cambien al aparecer, desaparecer, crecer, disminuir o moverse. Los cambios en la iluminación se inducen durante la captura de imágenes mediante estímulos fóticos (p. ej., un pulso de flash). Por ejemplo, un deslumbramiento, incluyendo sus límites, se puede detectar mediante el umbral de una imagen con contraste mejorado para encontrar los puntos más blancos. Los cambios detectados en el deslumbramiento o los patrones de reflexión especular en el ojo en las imágenes se pueden comparar con los cambios esperados en estos patrones determinando 716 una métrica de reflectancia que mide la desviación del cambio detectado de un cambio esperado.
Se buscan cambios en el área y la forma de este deslumbramiento. También se puede observar la relación entre la circunferencia y el área del parche de deslumbramiento.
En algunas implementaciones, se pulsa un flash para iluminar al sujeto mientras se capturan una o más de las imágenes. El deslumbramiento del flash se puede detectar en el ojo tal como aparece en las imágenes. El pulso de flash se puede sincronizar con la captura de imagen de manera que se pueda medir la diferencia de tiempo entre el momento en que se pulsa el flash y cuándo aparece el deslumbramiento correspondiente en las imágenes. La métrica de reflectancia se puede basar en esta diferencia de tiempo. Las grandes desviaciones de la sincronización esperada o el bloqueo de tiempo del pulso de flash y la aparición de un deslumbramiento o reflexión especular correspondiente pueden indicar un ataque de suplantación. Por ejemplo, un ataque de repetición emplea un vídeo pregrabado de una situación de captura. Es poco probable que los cambios de deslumbramiento en el vídeo pregrabado estén bloqueados en el tiempo a un evento de flash en tiempo real durante la sesión actual. Otro ejemplo es presentar una imagen impresa de un ojo al sensor, en cuyo caso el deslumbramiento se puede extender a través de la imagen impresa de una manera anormalmente uniforme o puede no cambiar perceptiblemente debido a la ausencia de humedad en la superficie vista. Si no se detecta ningún deslumbramiento o reflexión especular correspondiente, se puede determinar que la métrica de reflectancia es un gran número arbitrario correspondiente a una sincronización deficiente o una ausencia de bloqueo de tiempo entre el flash y el deslumbramiento detectado o la reflexión especular.
En algunas implementaciones alternativas, los cambios en la iluminación se detectan como cambios en la uniformidad de un patrón de deslumbramiento provocado por mayores cantidades de textura clara tridimensional de un blanco de un ojo que se revela a medida que aumenta la intensidad de la iluminación. Específicamente, se pulsa un flash para iluminar al sujeto con mayor intensidad mientras se capturan una o más de las imágenes. La textura clara tridimensional del blanco del ojo se puede detectar midiendo la uniformidad de un patrón de deslumbramiento en el ojo en las imágenes antes y después del inicio del pulso de flash. La uniformidad del deslumbramiento del patrón de reflexión especular se mide como la relación entre la circunferencia y el área del deslumbramiento. Cuanto mayor sea este número en comparación con 2/R, más no circular y no uniforme será el deslumbramiento (R es el radio estimado del parche de deslumbramiento). En algunas implementaciones, un aproximador de función (p. ej., una red neuronal) está entrenado para distinguir entre patrones de reflexión especular registrados de globos oculares en vivo frente a globos oculares sintetizados, tales como globos oculares impresos en 3D, utilizando un sensor con un elemento de iluminación (p. ej., un flash).
Por ejemplo, una métrica de reflectancia puede ser determinada 716 por un módulo o aplicación de autenticación (p. ej., el módulo de autenticación 440).
En algunas implementaciones, las métricas de vivacidad se determinan 710 en paralelo. En algunas implementaciones, las métricas de vivacidad se determinan 710 en serie. La valoración de vivacidad puede entonces determinarse 730 en base a las métricas de vivacidad. En algunas implementaciones, la valoración de vivacidad se determina ingresando las métricas de vivacidad a un aproximador de función entrenado.
El aproximador de función se puede entrenar empleando datos correspondientes a imágenes de entrenamiento de ojos en vivo y diversos ataques de suplantación que se han etiquetado correctamente para proporcionar una señal de salida deseada. El aproximador de función modela el mapeo a partir de datos de entrada (es decir, las métricas de vivacidad de la imagen de entrenamiento) para generar datos (es decir, una valoración de vivacidad) con un conjunto de parámetros de modelo. Los valores de los parámetros de modelo se seleccionan mediante un algoritmo de entrenamiento que se aplica a los datos de entrenamiento. Por ejemplo, el aproximador de función se puede basar en los siguientes modelos: regresión lineal, serie Volterra, serie Wiener, funciones de base radial, métodos de núcleo, métodos polinomiales; modelos lineales por partes, clasificadores bayesianos, clasificadores de k vecinos más próximos, redes neuronales, máquinas de vectores soporte o un aproximador de función difusa. En algunas implementaciones, la valoración de vivacidad puede ser binaria.
Por ejemplo, la valoración de vivacidad se puede determinar 730 en base a las métricas de vivacidad mediante un módulo o aplicación de autenticación (p. ej., el módulo de autenticación 440).
La valoración de vivacidad resultante puede devolverse 740 y puede ser empleada por un sistema de autenticación (p. ej., el sistema de autenticación 400) de diversas maneras. Por ejemplo, la valoración de vivacidad se puede emplear para aceptar o rechazar una o más imágenes.
La figura 8A es un organigrama de un proceso 800 de ejemplo para determinar una métrica de comportamiento en base a la constricción de una pupila en respuesta a un estímulo fótico. Se aplican 810 uno o más estímulos fóticos a la escena vista por un sensor (p. ej., el sensor de luz 420). Por ejemplo, los estímulos fóticos pueden incluir un pulso de flash o un cambio en el brillo de una pantalla (p. ej., una pantalla LCD). El sensor captura 812 una secuencia de imágenes antes y después del comienzo de los estímulos fóticos. Por ejemplo, la secuencia de imágenes se puede capturar en tiempos regularmente espaciados (p. ej., a 10, 30 o 60 Hz) en un intervalo (p. ej., 2, 5 o 10 segundos) que incluye el comienzo de los estímulos fóticos.
En algunas implementaciones, se marca una pupila con un punto de referencia en cada una de las imágenes capturadas y el diámetro de la pupila se determina 814 en cada imagen capturada. El diámetro se puede determinar 814 con respecto a un diámetro de comienzo para la pupila que se mide en una o más imágenes capturadas antes del comienzo de los estímulos fóticos. La secuencia resultante de diámetros de pupila medidos en respuesta a los estímulos fóticos se puede analizar para determinar 816 uno o más parámetros de movimiento para la constricción de la pupila en respuesta a los estímulos fóticos. En algunas implementaciones, los parámetros de movimiento de la constricción de la pupila pueden incluir un tiempo de comienzo del movimiento de constricción con respecto al comienzo de los estímulos fóticos. El inicio es el tiempo de retardo entre el comienzo de los estímulos fóticos y el comienzo del movimiento de constricción. En algunas implementaciones, los parámetros de movimiento de la constricción de la pupila pueden incluir una duración del movimiento de constricción. La duración es el período de tiempo entre el comienzo del movimiento de constricción y el final del movimiento de constricción, cuando el diámetro de pupila alcanza un nuevo valor de estado estable (p. ej., después de lo cual el diámetro no cambia durante un intervalo mínimo de tiempo). En algunas implementaciones, los parámetros de movimiento de la constricción de la pupila pueden incluir una velocidad de constricción de la pupila. Por ejemplo, la velocidad se puede determinar como la diferencia en los diámetros de pupila entre dos puntos en el tiempo dividida por la longitud del intervalo de tiempo entre ellos.
En algunas implementaciones, los parámetros de movimiento de la constricción de la pupila pueden incluir una aceleración de la constricción de la pupila en diferentes segmentos de tiempo del período de constricción. Por ejemplo, la aceleración se puede determinar como una diferencia de velocidades entre dos intervalos.
La métrica de comportamiento se puede determinar 818 como una distancia entre uno o más parámetros de movimiento determinados y uno o más parámetros de movimiento esperados. Por ejemplo, la métrica de comportamiento puede incluir una diferencia entre un tiempo de inicio detectado y un tiempo de inicio esperado para un ojo en vivo. Por ejemplo, la métrica de comportamiento puede incluir una diferencia entre una duración detectada y una duración esperada de la constricción de la pupila para un ojo en vivo. En algunas implementaciones, una secuencia de diámetros de pupila se compara con una secuencia esperada de diámetros de pupila determinando una distancia (p. ej., una distancia euclidiana, un coeficiente de correlación, una distancia de Hausdorff modificada, una distancia de Mahalanobis, una divergencia de Bregman, una distancia de Kullback-Leibler y una divergencia de Jensen-Shannon) entre las dos secuencias. En algunas implementaciones, una secuencia de velocidades de constricción de la pupila para el movimiento de constricción se compara con una secuencia esperada de velocidades de constricción de la pupila determinando una distancia entre las dos secuencias de velocidades. En algunas implementaciones, una secuencia de aceleraciones de constricción de la pupila para el movimiento de constricción se compara con una secuencia esperada de aceleraciones de constricción de la pupila determinando una distancia entre las dos secuencias de aceleraciones. Por ejemplo, el proceso 800 puede ser implementado por un módulo o aplicación de autenticación (p. ej., el módulo de autenticación 440) que controla un sensor de luz (p. ej., un sensor de luz 420) y un elemento de iluminación.
La figura 8B es un organigrama de un proceso 820 de ejemplo para determinar una métrica de comportamiento en base a la transición de la mirada de un iris en respuesta a un estímulo externo. Se aplican 830 uno o más estímulos externos a un usuario visto por un sensor (p. ej., el sensor de luz 420). Por ejemplo, los estímulos externos pueden incluir indicaciones que indiquen al usuario que dirija su mirada (p. ej., mirar hacia la derecha, hacia la izquierda, hacia arriba, hacia abajo o recto hacia delante) durante la captura de imagen. Las indicaciones pueden ser visuales, auditivas y/o táctiles. En algunas implementaciones, los estímulos externos pueden incluir un objeto que se mueve dentro de una pantalla para que los ojos del usuario lo sigan.
El sensor captura 832 una secuencia de imágenes antes y después del comienzo de los estímulos externos. Por ejemplo, la secuencia de imágenes se puede capturar en tiempos regularmente espaciados (p. ej., a 10, 30 o 60 Hz) en un intervalo (p. ej., 2, 5 o 10 segundos) que incluye el comienzo de los estímulos externos.
En algunas implementaciones, se marca un iris con un punto de referencia en cada una de las imágenes capturadas y la posición o el diámetro del iris se determina 834 en cada imagen capturada. La posición se puede determinar 834 con respecto a una posición de comienzo para el iris que se mide en una o más imágenes capturadas antes del comienzo de los estímulos externos.
La secuencia resultante de posiciones del iris medidas en respuesta a los estímulos externos se puede analizar para determinar 836 uno o más parámetros de movimiento para la transición de la mirada en respuesta a los estímulos externos. En algunas implementaciones, los parámetros de movimiento de la transición de la mirada pueden incluir un tiempo de inicio del movimiento de transición de la mirada con respecto al comienzo de los estímulos externos. El inicio es el tiempo de retardo entre el comienzo de los estímulos externos y el comienzo del movimiento de transición de la mirada. En algunas implementaciones, los parámetros de movimiento de la transición de la mirada pueden incluir una duración del movimiento de transición de la mirada. La duración es el período de tiempo entre el comienzo del movimiento de transición de la mirada y el final del movimiento de transición de la mirada, cuando el iris alcanza una nueva posición de estado estable (p. ej., después de lo cual el iris no se mueve durante un intervalo mínimo de tiempo). En algunas implementaciones, los parámetros de movimiento de la transición de la mirada pueden incluir una velocidad de la transición de la mirada. Por ejemplo, la velocidad se puede determinar como la diferencia en las posiciones del iris entre dos puntos en el tiempo dividida por la longitud del intervalo de tiempo entre ellos. En algunas implementaciones, los parámetros de movimiento de la transición de la mirada pueden incluir una aceleración de la transición de la mirada. Por ejemplo, la aceleración se puede determinar como una diferencia de velocidades entre dos intervalos.
La métrica de comportamiento se puede determinar 838 como una distancia entre uno o más parámetros de movimiento determinados y uno o más parámetros de movimiento esperados. Por ejemplo, la métrica de comportamiento puede incluir una diferencia entre un tiempo de inicio detectado y un tiempo de inicio esperado para un ojo en vivo. Por ejemplo, la métrica de comportamiento puede incluir una diferencia entre una duración detectada y una duración esperada de la constricción de la pupila para un ojo en vivo. En algunas implementaciones, una secuencia de posiciones del iris se compara con la secuencia esperada de posiciones del iris determinando una distancia (p. ej., una distancia euclidiana, un coeficiente de correlación, una distancia de Hausdorff modificada, una distancia de Mahalanobis, una divergencia de Bregman, una distancia de Kullback-Leibler y una divergencia de Jensen-Shannon) entre las dos secuencias. En algunas implementaciones, una secuencia de velocidades de transición para el movimiento de transición de la mirada se compara con la secuencia esperada de velocidades de transición determinando una distancia entre las dos secuencias de velocidades. En algunas implementaciones, una secuencia de aceleraciones de transición de la mirada para el movimiento de constricción se compara con una secuencia esperada de aceleraciones de transición de la mirada determinando una distancia entre las dos secuencias de aceleraciones.
Por ejemplo, el proceso 820 puede ser implementado por un módulo o aplicación de autenticación (p. ej., el módulo de autenticación 440) que controla un sensor de luz (p. ej., el sensor de luz 420) y un dispositivo de indicación (p. ej., una pantalla, un altavoz o un dispositivo de retroalimentación háptica).
La figura 9 muestra un ejemplo de un dispositivo informático genérico 900 y un dispositivo informático móvil genérico 950, que se pueden emplear con las técnicas descritas en esta memoria. El dispositivo informático 900 está destinado a representar diversas formas de ordenadores digitales, tales como ordenadores portátiles, de escritorio, estaciones de trabajo, asistentes digitales personales, servidores, servidores blade, unidades centrales y otros ordenadores apropiados. El dispositivo informático 950 está destinado a representar diversas formas de dispositivos móviles, tales como asistentes digitales personales, teléfonos celulares, teléfonos inteligentes y otros dispositivos informáticos similares. Los componentes que se muestran en esta memoria, sus conexiones y relaciones, y sus funciones, pretenden ser únicamente a modo de ejemplo y no pretenden limitar las implementaciones de las invenciones descritas y/o reivindicadas en este documento.
El dispositivo informático 900 incluye un procesador 902, una memoria 904, un dispositivo de almacenamiento 906, una interfaz de alta velocidad 908 que se conecta a la memoria 904 y los puertos de expansión de alta velocidad 910, y una interfaz de baja velocidad 912 que se conecta al bus de baja velocidad 914 y al dispositivo de almacenamiento 906. Cada uno de los componentes 902, 904, 906, 908, 910 y 912, están interconectados mediante diversos buses y pueden montarse en una placa base común o de otras maneras, según corresponda. El procesador 902 puede procesar instrucciones para su ejecución dentro del dispositivo informático 900, incluyendo instrucciones almacenadas en la memoria 904 o en el dispositivo de almacenamiento 906 para mostrar información gráfica para una GUI en un dispositivo de entrada/salida externo, tal como la pantalla 916 acoplada a la interfaz de alta velocidad 908. En otras implementaciones, se pueden emplear múltiples procesadores y/o múltiples buses, según sea apropiado, junto con múltiples memorias y tipos de memoria. Es más, múltiples dispositivos informáticos 900 pueden estar conectados, proporcionando cada dispositivo porciones de las operaciones necesarias (p. ej., como banco de servidores, un grupo de servidores blade o un sistema multiprocesador).
La memoria 904 almacena información dentro del dispositivo informático 900. En una implementación, la memoria 904 es una unidad o unidades de memoria volátil. En otra implementación, la memoria 904 es una unidad o unidades de memoria no volátil. La memoria 904 también puede ser otra forma de medio legible por ordenador, tal como un disco óptico o magnético.
El dispositivo de almacenamiento 906 es capaz de proporcionar almacenamiento masivo para el dispositivo informático 900. En una implementación, el dispositivo de almacenamiento 906 puede ser o contener un medio legible por ordenador, tal como un dispositivo de disquete, un dispositivo de disco duro, un dispositivo de disco óptico o un dispositivo de cinta, una memoria flash u otro dispositivo de memoria de estado sólido similar, o una matriz de dispositivos, incluidos dispositivos en una red de área de almacenamiento u otras configuraciones. Un producto de programa informático puede incorporarse de manera tangible en un portador de información. El producto de programa informático también puede contener instrucciones que, cuando se ejecutan, realizan uno o más métodos, tales como los descritos anteriormente. El portador de información es un medio legible por ordenador o máquina, tal como la memoria 904, el dispositivo de almacenamiento 906 o una memoria en el procesador 902, por ejemplo.
El controlador de alta velocidad 908 gestiona operaciones de ancho de banda intensivo para el dispositivo informático 900, mientras que el controlador de baja velocidad 912 gestiona operaciones de ancho de banda intensivo más bajo. Tal distribución de funciones es únicamente a modo de ejemplo. En una implementación, el controlador de alta velocidad 908 está acoplado a la memoria 904, a la pantalla 916 (p. ej., a través de un procesador o acelerador de gráficos) y a los puertos de expansión de alta velocidad 910, que pueden aceptar diversas tarjetas de expansión (que no se muestran). En la implementación, el controlador de baja velocidad 912 está acoplado al dispositivo de almacenamiento 906 y al puerto de expansión de baja velocidad 914. El puerto de expansión de baja velocidad, que puede incluir diversos puertos de comunicación (p. ej., USB, Bluetooth, Ethernet, Ethernet inalámbrica) se puede acoplar a uno o más dispositivos de entrada/salida, tales como un teclado, un dispositivo de puntero, un escáner o un dispositivo de red, tal como un conmutador o enrutador, p. ej., a través de un adaptador de red.
El dispositivo informático 900 se puede implementar de varias maneras diferentes, como se muestra en la figura. Por ejemplo, se puede implementar como un servidor estándar 920 o múltiples veces en un grupo de tales servidores. También se puede implementar como parte de un sistema de servidor en bastidor 924. Así mismo, se puede implementar en un ordenador personal, tal como un ordenador portátil 922. De manera alternativa, los componentes del dispositivo informático 900 se pueden combinar con otros componentes en un dispositivo móvil (que no se muestra), tal como el dispositivo 950. Cada uno de tales dispositivos puede contener uno o más de los dispositivos informáticos 900, 950, y un sistema completo puede estar formado por múltiples dispositivos informáticos 900, 950 que se comunican entre sí.
El dispositivo informático 950 incluye un procesador 952, una memoria 964, un dispositivo de entrada/salida, tal como una pantalla 954, una interfaz de comunicación 966 y un transceptor 968, entre otros componentes. El dispositivo 950 también puede estar provisto de un dispositivo de almacenamiento, tal como una unidad de microdisco u otro dispositivo, para proporcionar almacenamiento adicional. Cada uno de los componentes 950, 952, 964, 954, 966 y 968, están interconectados empleando diversos buses y varios de los componentes pueden montarse en una placa base común o de otras maneras, según corresponda.
El procesador 952 puede ejecutar instrucciones dentro del dispositivo informático 950, incluyendo instrucciones almacenadas en la memoria 964. El procesador se puede implementar como un conjunto de chips que incluye procesadores analógicos y digitales múltiples e individuales. El procesador puede proporcionar, por ejemplo, la coordinación de los otros componentes del dispositivo 950, tal como el control de interfaces de usuario, las aplicaciones ejecutadas por el dispositivo 950 y la comunicación inalámbrica por el dispositivo 950.
El procesador 952 se puede comunicar con un usuario a través de la interfaz de control 958 y la interfaz de pantalla 956 acoplada a una pantalla 954. La pantalla 954 puede ser, por ejemplo, una pantalla LCD TFT
(pantalla de cristal líquido de transistor de película delgada) o una pantalla OLED (diodo orgánico de emisión de luz) u otra tecnología de pantalla adecuada. La interfaz de pantalla 956 puede comprender un circuito apropiado para impulsar la pantalla 954 para presentar información gráfica y de otro tipo a un usuario. La interfaz de control 958 puede recibir órdenes por parte de un usuario y convertirlas para enviarlas al procesador 952. Así mismo, puede estar provista una interfaz externa 962 en comunicación con el procesador 952, de modo que se permita la comunicación de área cercana del dispositivo 950 con otros dispositivos. La interfaz externa 962 puede proporcionar, por ejemplo, una comunicación por cable en algunas implementaciones, o una comunicación inalámbrica en otras implementaciones, y también se pueden emplear múltiples interfaces.
La memoria 964 almacena información dentro del dispositivo informático 950. La memoria 964 se puede implementar como uno o más de un medio o medios legibles por ordenador, una unidad o unidades de memoria volátil, o una unidad o unidades de memoria no volátil. La memoria de expansión 974 también puede estar provista y conectada al dispositivo 950 a través de la interfaz de expansión 972, que puede incluir, por ejemplo, una interfaz de tarjeta SIMM (módulo de memoria en-línea simple). Tal memoria de expansión 974 puede proporcionar espacio de almacenamiento adicional para el dispositivo 950 o también puede almacenar aplicaciones u otra información para el dispositivo 950. Específicamente, la memoria de expansión 974 puede incluir instrucciones para llevar a cabo o complementar los procesos descritos anteriormente, y también puede incluir información segura. De este modo, por ejemplo, la memoria de expansión 974 puede estar provista como un módulo de seguridad para el dispositivo 950 y se puede programar con instrucciones que permitan el uso seguro del dispositivo 950. Así mismo, se pueden proporcionar aplicaciones seguras a través de las tarjetas SIMM, junto con información adicional, tal como ubicar información de identificación en la tarjeta SIMM de una manera que no se pueda piratear.
La memoria puede incluir, por ejemplo, una memoria flash y/o una memoria NVRAM, como se analiza a continuación. En una implementación, un producto de programa informático está incorporado de manera tangible en un portador de información. El producto de programa informático contiene instrucciones que, cuando se ejecutan, realizan uno o más métodos, tales como los descritos anteriormente. El portador de información es un medio legible por ordenador o máquina, tal como la memoria 964, la memoria de expansión 974, la memoria en el procesador 952 o una señal propagada que pueda ser recibida, por ejemplo, por el transceptor 968 o la interfaz externa 962.
El dispositivo 950 se puede comunicar de manera inalámbrica a través de la interfaz de comunicación 966, que puede incluir circuitos de procesamiento de señales digitales cuando sea necesario. La interfaz de comunicación 966 puede proporcionar comunicaciones en diversos modos o protocolos, tales como llamadas de voz GSM, mensajería SMS, EMS o MMS, CDMA, TDMA, PDC, WCDMA, CDMA2000 o GPRS, entre otros. Tal comunicación se puede producir, por ejemplo, a través del transceptor de radiofrecuencia 968. Así mismo, se puede producir una comunicación de corto alcance, tal como emplear un transceptor Bluetooth, WiFi u otro similar (que no se muestra). Así mismo, el módulo receptor GPS (sistema de posicionamiento global) 970 puede proporcionar datos inalámbricos adicionales relacionados con la navegación y la ubicación al dispositivo 950, que pueden ser empleados según corresponda por las aplicaciones que se ejecutan en el dispositivo 950.
El dispositivo 950 también se puede comunicar de manera audible mediante el códec de audio 960, que puede recibir información hablada de un usuario y convertirla en información digital que se pueda emplear. El códec de audio 960 también puede generar sonido audible para un usuario, tal como a través de un altavoz, p. ej., en un micrófono del dispositivo 950. Tal sonido puede incluir el sonido de llamadas telefónicas de voz, puede incluir sonido grabado (p. ej., mensajes de voz, archivos de música, etc.) y también puede incluir sonido generado por aplicaciones que funcionan en el dispositivo 950.
El dispositivo informático 950 se puede implementar de varias maneras diferentes, como se muestra en la figura. Por ejemplo, se puede implementar como un teléfono celular 980. También se puede implementar como parte de un teléfono inteligente 982, un asistente digital personal u otro dispositivo móvil similar.
Diversas implementaciones de los sistemas y técnicas descritos en esta memoria se pueden realizar en circuitos electrónicos digitales, circuitos integrados, ASIC (circuitos integrados de aplicación específica) especialmente diseñados, hardware, firmware, software informáticos y/o combinaciones de estos. Estas diversas implementaciones pueden incluir la implementación en uno o más programas informáticos que son ejecutables y/o interpretables en un sistema programable que incluye al menos un procesador programable, que puede ser de uso especial o general, acoplado para recibir datos e instrucciones desde, y para transmitir datos e instrucciones a, un sistema de almacenamiento, al menos un dispositivo de entrada y al menos un dispositivo de salida.
Estos programas informáticos (también conocidos como programas, software, aplicaciones de software o código) incluyen instrucciones de máquina para un procesador programable y se pueden implementar en un lenguaje de programación orientado a objetos y/o de procedimiento de alto nivel y/o en un lenguaje de conjunto/máquina. Como se emplea en esta memoria, las expresiones "medio legible por máquina" y "medio legible por ordenador" se refieren a cualquier producto de programa informático, aparato y/o dispositivo (p. ej., discos magnéticos, discos ópticos, memorias, dispositivos de lógica programables (PLD) empleados para proporcionar instrucciones de máquina y/o datos a un procesador programable, incluyendo un medio legible por máquina que recibe instrucciones de máquina como una señal legible por máquina. La expresión "señal legible por máquina" se refiere a cualquier señal empleada para proporcionar instrucciones y/o datos de máquina a un procesador programable. Para facilitar la interacción con un usuario, los sistemas y técnicas descritos en esta memoria se pueden implementar en un ordenador que tenga un dispositivo de visualización (p. ej., un monitor CRT (tubo de rayos catódicos) o LCD (pantalla de cristal líquido) para mostrar información al usuario y un teclado y un dispositivo de puntero (p. ej., un ratón o una bola de control del cursor) mediante el cual el usuario puede proporcionar información al ordenador. También se pueden emplear otros tipos de dispositivos para proporcionar interacción con un usuario; por ejemplo, la retroalimentación proporcionada al usuario puede ser cualquier forma de retroalimentación sensorial (p. ej., retroalimentación visual, retroalimentación auditiva o retroalimentación táctil); y la información del usuario se puede recibir en cualquier forma, incluida la acústica, la voz o la información táctil.
Los sistemas y técnicas descritos en esta memoria se pueden implementar en un sistema informático que incluye un componente de back-end (p. ej., como un servidor de datos), o que incluye un componente de middleware (p. ej., un servidor de aplicaciones), o que incluye un componente de front-end (p. ej., un ordenador de cliente que tiene una interfaz gráfica de usuario o un navegador web a través del cual un usuario puede interactuar con una implementación de los sistemas y técnicas descritos en esta memoria), o cualquier combinación de tales componentes de back-end, de middleware o de front-end. Los componentes del sistema se pueden interconectar mediante cualquier forma o medio de comunicación de datos digitales (p. ej., una red de comunicación). Los ejemplos de redes de comunicación incluyen una red de área local ("LAN"), una red de área amplia ("WAN") y la red de internet.
El sistema informático puede incluir clientes y servidores. Por lo general, un cliente y un servidor son remotos entre sí y normalmente interactúan a través de una red de comunicación.
La relación de cliente y servidor surge en virtud de programas informáticos que se ejecutan en los ordenadores respectivos y que tienen una relación cliente-servidor entre sí.

Claims (7)

REIVINDICACIONES
1. Un método implementado por ordenador (600) que comprende:
obtener (602, 702) dos o más imágenes (310) de un sujeto, incluyendo una vista de un ojo (410), en donde las imágenes (310) incluyen colectivamente una pluralidad de distancias de enfoque;
determinar (712) una métrica de comportamiento en base a, al menos, un movimiento detectado del ojo (410) cuando el ojo (410) aparece en una pluralidad de imágenes (310), en donde la métrica de comportamiento es una medición de la desviación del movimiento detectado y la sincronización del movimiento esperado del ojo (410);
determinar (714) una métrica espacial en base a, al menos, una distancia desde un sensor (420) a un punto de referencia que aparece en una pluralidad de imágenes (310), teniendo cada una una distancia de enfoque respectiva diferente;
determinar (716) una métrica de reflectancia en base a, ya sea
(i) cambios detectados en el deslumbramiento de superficie en una superficie del ojo cuando el ojo aparece en una pluralidad de imágenes, midiendo una diferencia de tiempo entre (i) la aparición de un pulso de flash capturado por una o más de las imágenes (310) y (ii) la aparición de un deslumbramiento correspondiente detectado en el ojo (410) en una o más de las imágenes (310); o
(ii) cambios detectados en los patrones de reflexión especular midiendo la uniformidad de un patrón de deslumbramiento en una superficie exterior del ojo (410) visible en una o más de las imágenes (310) provocados por uno o más pulsos de flash capturados por una o más de las imágenes (310), en donde la uniformidad de un patrón de deslumbramiento en el ojo (410) se mide como una relación entre la circunferencia y un área del deslumbramiento;
en donde la métrica de reflectancia es una medición de cambios en el deslumbramiento o patrones de reflexión especular en la superficie del ojo,
determinar (604, 730) una valoración de vivacidad en base a la métrica de comportamiento, espacial y de reflectancia, reflejando la valoración de vivacidad la probabilidad de que las imágenes (310) representen un ojo en vivo (410); y
rechazar (608) o aceptar (610) las dos o más imágenes (310) en base a la valoración de vivacidad, en donde las dos o más imágenes (310) se rechazan (608) cuando la valoración de vivacidad indica una probabilidad baja de un ojo en vivo (410).
2. El método (600) de la reivindicación 1, en el que determinar la métrica de comportamiento comprende, además, una de:
determinar un inicio, una duración, una velocidad o una aceleración de la constricción de la pupila en respuesta a estímulos fóticos; o
determinar un inicio, una duración o una aceleración de la transición de la mirada en respuesta a estímulos externos.
3. El método (600) de la reivindicación 1, que comprende, además:
ajustar un ajuste de sensor que controla el enfoque a una pluralidad de ajustes diferentes durante la captura de dos o más de las imágenes (310); y
comparar las imágenes (310) capturadas con diferentes ajustes de enfoque para determinar si estas imágenes (310) reflejan sus ajustes de enfoque respectivos.
4. Un sistema (400, 900), que comprende:
un aparato de procesamiento de datos (430, 900); y
una memoria (904, 906) acoplada al aparato de procesamiento de datos que tiene instrucciones almacenadas en esta, las cuales, cuando son ejecutadas por el aparato de procesamiento de datos, hacen que el aparato de procesamiento de datos realice el método (600) de acuerdo con una cualquiera de las reivindicaciones 1 a 3.
5. Un sistema (400), que comprende:
un sensor (420) configurado para capturar (602, 702) dos o más imágenes (310) de un sujeto que incluye una vista de un ojo (410), en donde las imágenes (310) incluyen colectivamente una pluralidad de distancias de enfoque;
un elemento de iluminación proporciona estímulos fóticos en sincronización con la captura de una o más imágenes (310) por el sensor (420);
un medio para determinar (712) una métrica de comportamiento en base a, al menos, un movimiento detectado del ojo (410) cuando el ojo (410) aparece en una pluralidad de imágenes (310), en donde la métrica de comportamiento es una medición de la desviación del movimiento detectado y la sincronización del movimiento esperado del ojo (410);
un módulo configurado para determinar (714) una métrica espacial en base a, al menos, una distancia desde el sensor (420) a un punto de referencia que aparece en una pluralidad de imágenes (310), teniendo cada una una distancia de enfoque respectiva diferente;
un módulo configurado para determinar (716) una métrica de reflectancia en base a, ya sea
(i) cambios detectados en el deslumbramiento de superficie en una superficie del ojo cuando el ojo aparece en una pluralidad de imágenes, midiendo una diferencia de tiempo entre (i) la aparición de un pulso de flash capturado por una o más de las imágenes (310) y (ii) la aparición de un deslumbramiento correspondiente detectado en el ojo (410) en una o más de las imágenes (310); o
(ii) cambios detectados en los patrones de reflexión especular midiendo la uniformidad de un patrón de deslumbramiento en una superficie exterior del ojo (410) visible en una o más de las imágenes (310) provocados por uno o más pulsos de flash capturados por una o más de las imágenes (310), en donde la uniformidad de un patrón de deslumbramiento en el ojo (410) se mide como una relación entre la circunferencia y un área del deslumbramiento;
en donde la métrica de reflectancia es una medición de cambios en el deslumbramiento o patrones de reflexión especular en la superficie del ojo,
un módulo configurado para determinar (604, 730) una valoración de vivacidad en base a la métrica de comportamiento, espacial y de reflectancia, reflejando la valoración de vivacidad la probabilidad de que las imágenes (310) representen un ojo en vivo (410); y
una interfaz configurada para rechazar (608) o aceptar (610) las dos o más imágenes (310) en base a la valoración de vivacidad, en donde las dos o más imágenes (310) se rechazan (608) cuando la valoración de vivacidad indica una probabilidad baja de un ojo en vivo (410).
6. El sistema (400) de la reivindicación 5, en el que determinar (712) la métrica de comportamiento comprende, además, una de:
determinar un inicio, una duración, una velocidad o una aceleración de la constricción de la pupila en respuesta a estímulos fóticos, o
determinar un inicio, una duración o una aceleración de la transición de la mirada en respuesta a estímulos externos.
7. El sistema (400) de la reivindicación 5, que comprende, además, un módulo configurado para:
ajustar un ajuste de sensor que controla el enfoque a una pluralidad de ajustes diferentes durante la captura de dos o más de las imágenes (310); y
comparar las imágenes (310) capturadas con diferentes configuraciones de enfoque para determinar si estas imágenes (310) reflejan sus configuraciones de enfoque respectivas.
ES13729197T 2012-08-10 2013-06-03 Detección de suplantación para autenticación biométrica Active ES2859554T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US13/572,097 US8437513B1 (en) 2012-08-10 2012-08-10 Spoof detection for biometric authentication
PCT/US2013/043905 WO2014025448A1 (en) 2012-08-10 2013-06-03 Spoof detection for biometric authentication

Publications (1)

Publication Number Publication Date
ES2859554T3 true ES2859554T3 (es) 2021-10-04

Family

ID=48183297

Family Applications (1)

Application Number Title Priority Date Filing Date
ES13729197T Active ES2859554T3 (es) 2012-08-10 2013-06-03 Detección de suplantación para autenticación biométrica

Country Status (8)

Country Link
US (6) US8437513B1 (es)
EP (1) EP2883189B1 (es)
KR (1) KR101356358B1 (es)
CN (3) CN103383723B (es)
ES (1) ES2859554T3 (es)
HK (3) HK1211721A1 (es)
PL (1) PL2883189T3 (es)
WO (1) WO2014025448A1 (es)

Families Citing this family (208)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10037408B2 (en) 2013-03-15 2018-07-31 Jeffrey A. Matos Apparatus for preventing unauthorized access to computer files and for securing medical records
KR100840023B1 (ko) * 2007-11-13 2008-06-20 (주)올라웍스 셀프 촬영 시 얼굴의 구도를 잡도록 도와주는 방법 및시스템
KR101884337B1 (ko) * 2012-04-26 2018-08-01 삼성전자주식회사 영상 인식 방법 및 장치
US8437513B1 (en) 2012-08-10 2013-05-07 EyeVerify LLC Spoof detection for biometric authentication
US9230158B1 (en) * 2012-12-18 2016-01-05 Amazon Technologies, Inc. Fraud detection for facial recognition systems
US8856541B1 (en) * 2013-01-10 2014-10-07 Google Inc. Liveness detection
US9530052B1 (en) * 2013-03-13 2016-12-27 University Of Maryland System and method for sensor adaptation in iris biometrics
EP4060940A1 (en) 2013-03-15 2022-09-21 Socure Inc. Risk assessment using social networking data
WO2014192001A2 (en) * 2013-05-30 2014-12-04 Umoove Services Ltd. Smooth pursuit gaze tracking
EP3010392A4 (en) 2013-06-18 2017-01-25 Delta ID Inc. Iris imaging apparatus and methods for configuring an iris imaging apparatus
EP3055693B1 (en) * 2013-10-11 2022-12-14 HID Global Corporation Miniaturized optical biometric sensing
US9305225B2 (en) * 2013-10-14 2016-04-05 Daon Holdings Limited Methods and systems for determining user liveness
US9202119B2 (en) * 2013-10-18 2015-12-01 Daon Holdings Limited Methods and systems for determining user liveness
CN104683302A (zh) 2013-11-29 2015-06-03 国际商业机器公司 认证方法、认证装置、终端设备、认证服务器及系统
US20160026862A1 (en) * 2013-12-09 2016-01-28 Intel Corporation Eye reflected content for verification of user liveliness
US9875393B2 (en) * 2014-02-12 2018-01-23 Nec Corporation Information processing apparatus, information processing method, and program
US20150227735A1 (en) * 2014-02-13 2015-08-13 Robert Chappell System and method for eye tracking authentication
JP6417676B2 (ja) * 2014-03-06 2018-11-07 ソニー株式会社 情報処理装置、情報処理方法、アイウェア端末および認証システム
WO2015157021A1 (en) 2014-04-07 2015-10-15 Eyeverify, Llc Bio leash for user authentication
KR20170019366A (ko) 2014-05-16 2017-02-21 디버전트 테크놀로지스, 인크. 차량 섀시용 모듈형 성형 접속체 및 그 사용 방법
WO2015181729A1 (en) 2014-05-30 2015-12-03 University Of Johannesburg Method of determining liveness for eye biometric authentication
US9147117B1 (en) 2014-06-11 2015-09-29 Socure Inc. Analyzing facial recognition data and social network data for user authentication
SG10201806531QA (en) 2014-07-02 2018-09-27 Divergent Technologies Inc Systems and methods for fabricating joint members
US20160005050A1 (en) * 2014-07-03 2016-01-07 Ari Teman Method and system for authenticating user identity and detecting fraudulent content associated with online activities
US10614204B2 (en) 2014-08-28 2020-04-07 Facetec, Inc. Facial recognition authentication system including path parameters
US10698995B2 (en) 2014-08-28 2020-06-30 Facetec, Inc. Method to verify identity using a previously collected biometric image/data
US11256792B2 (en) 2014-08-28 2022-02-22 Facetec, Inc. Method and apparatus for creation and use of digital identification
CA3186147A1 (en) 2014-08-28 2016-02-28 Kevin Alan Tussy Facial recognition authentication system including path parameters
US10803160B2 (en) 2014-08-28 2020-10-13 Facetec, Inc. Method to verify and identify blockchain with user question data
US10915618B2 (en) 2014-08-28 2021-02-09 Facetec, Inc. Method to add remotely collected biometric images / templates to a database record of personal information
US9405967B2 (en) * 2014-09-03 2016-08-02 Samet Privacy Llc Image processing apparatus for facial recognition
EP3198913A4 (en) 2014-09-24 2018-05-23 Princeton Identity, Inc. Control of wireless communication device capability in a mobile device with a biometric key
US9672341B2 (en) * 2014-10-30 2017-06-06 Delta ID Inc. Systems and methods for spoof detection in iris based biometric systems
US10198645B2 (en) * 2014-11-13 2019-02-05 Intel Corporation Preventing face-based authentication spoofing
US9672415B2 (en) * 2014-11-13 2017-06-06 Intel Corporation Facial liveness detection in image biometrics
US20180034852A1 (en) * 2014-11-26 2018-02-01 Isityou Ltd. Anti-spoofing system and methods useful in conjunction therewith
KR20170092545A (ko) 2014-12-03 2017-08-11 프린스톤 아이덴티티, 인크. 모바일 디바이스 생체측정 애드-온을 위한 시스템 및 방법
US9886639B2 (en) 2014-12-31 2018-02-06 Morphotrust Usa, Llc Detecting facial liveliness
US9928603B2 (en) 2014-12-31 2018-03-27 Morphotrust Usa, Llc Detecting facial liveliness
CA2972821A1 (en) * 2014-12-31 2016-07-07 Morphotrust Usa, Llc Detecting facial liveliness
CN107111755B (zh) * 2015-01-13 2020-07-03 摩福公司 基于活跃度评价的视频假冒检测方法和系统
US9934443B2 (en) * 2015-03-31 2018-04-03 Daon Holdings Limited Methods and systems for detecting head motion during an authentication transaction
JP2016208438A (ja) * 2015-04-28 2016-12-08 ソニー株式会社 画像処理装置及び画像処理方法
CN106295287B (zh) 2015-06-10 2019-04-09 阿里巴巴集团控股有限公司 活体检测方法和装置以及身份认证方法和装置
CN104951769B (zh) * 2015-07-02 2018-11-30 京东方科技集团股份有限公司 活体识别装置、活体识别方法和活体认证系统
KR102407133B1 (ko) 2015-08-21 2022-06-10 삼성전자주식회사 전자 장치 및 이의 콘텐트 변형 방법
US9857871B2 (en) 2015-09-04 2018-01-02 Sony Interactive Entertainment Inc. Apparatus and method for dynamic graphics rendering based on saccade detection
RU2711050C2 (ru) 2015-09-11 2020-01-14 Айверифай Инк. Качество изображения и признака, улучшение изображения и выделение признаков для распознавания по сосудам глаза и лицам и объединение информации о сосудах глаза с информацией о лицах и/или частях лиц для биометрических систем
US10049272B2 (en) * 2015-09-24 2018-08-14 Microsoft Technology Licensing, Llc User authentication using multiple capture techniques
CN106557726B (zh) * 2015-09-25 2020-06-09 北京市商汤科技开发有限公司 一种带静默式活体检测的人脸身份认证系统及其方法
DE102015116627A1 (de) * 2015-09-30 2017-03-30 Friedrich Kisters Verfahren und Vorrichtung zur Authentifikation eines Objekts oder einer Person über ein modulartig aufgebautes Sicherheitselement
CN108475109B (zh) * 2015-12-28 2022-02-01 光程研创股份有限公司 眼睛姿态跟踪
KR20180102637A (ko) * 2016-01-12 2018-09-17 프린스톤 아이덴티티, 인크. 바이오메트릭 분석의 시스템 및 방법
KR101729959B1 (ko) * 2016-01-15 2017-05-12 한국과학기술원 눈동자 반응을 이용한 사용자 인증 시스템
US10372889B2 (en) * 2016-02-19 2019-08-06 At&T Mobility Ii Llc Event characteristic analysis for event input discrimination
US10111103B2 (en) 2016-03-02 2018-10-23 EyeVerify Inc. Spoof detection using proximity sensors
CN109074484B (zh) 2016-03-02 2022-03-01 蒂诺克股份有限公司 用于有效率的面部识别的系统和方法
KR102556320B1 (ko) 2016-03-04 2023-07-14 매직 립, 인코포레이티드 Ar/vr 디스플레이 시스템들에서의 전류 드레인 감소
EP3427240A4 (en) 2016-03-08 2019-10-30 Tinoq Inc. SYSTEMS AND METHOD FOR A COMPOSITE SENSOR SYSTEM
NZ746514A (en) 2016-03-25 2020-03-27 Magic Leap Inc Virtual and augmented reality systems and methods
US10303930B2 (en) 2016-03-30 2019-05-28 Tinoq Inc. Systems and methods for user detection and recognition
US10366296B2 (en) 2016-03-31 2019-07-30 Princeton Identity, Inc. Biometric enrollment systems and methods
US10372205B2 (en) * 2016-03-31 2019-08-06 Sony Interactive Entertainment Inc. Reducing rendering computation and power consumption by detecting saccades and blinks
US10373008B2 (en) 2016-03-31 2019-08-06 Princeton Identity, Inc. Systems and methods of biometric analysis with adaptive trigger
US10192528B2 (en) 2016-03-31 2019-01-29 Sony Interactive Entertainment Inc. Real-time user adaptive foveated rendering
US10401952B2 (en) 2016-03-31 2019-09-03 Sony Interactive Entertainment Inc. Reducing rendering computation and power consumption by detecting saccades and blinks
US10169846B2 (en) 2016-03-31 2019-01-01 Sony Interactive Entertainment Inc. Selective peripheral vision filtering in a foveated rendering system
USD987653S1 (en) 2016-04-26 2023-05-30 Facetec, Inc. Display screen or portion thereof with graphical user interface
US10643212B2 (en) 2016-05-15 2020-05-05 Bank Of America Corporation Linking channel-specific systems with a user authentication hub to provide omni-channel user authentication
US10666654B2 (en) 2016-05-15 2020-05-26 Bank Of America Corporation Linking channel-specific systems with a user authentication hub to provide omni-channel user authentication
KR102471916B1 (ko) * 2016-06-03 2022-11-29 엘지전자 주식회사 모바일 디바이스 및 그 제어 방법
SG11201810626YA (en) 2016-06-09 2018-12-28 Divergent Technologies Inc Systems and methods for arc and node design and manufacture
CN106096657B (zh) * 2016-06-13 2019-04-30 第四范式(北京)技术有限公司 基于机器学习来预测数据审核目标的方法及系统
SG11201900117PA (en) * 2016-07-05 2019-02-27 Yecheng Wu Spoofing attack detection during live image capture
US10289822B2 (en) * 2016-07-22 2019-05-14 Nec Corporation Liveness detection for antispoof face recognition
KR102483642B1 (ko) 2016-08-23 2023-01-02 삼성전자주식회사 라이브니스 검사 방법 및 장치
CN106529423A (zh) * 2016-10-20 2017-03-22 鹄誉医疗科技(上海)有限公司 一种基于安卓系统的能量条人眼测距方法
US10430638B2 (en) * 2016-11-10 2019-10-01 Synaptics Incorporated Systems and methods for spoof detection relative to a template instead of on an absolute scale
US10452826B2 (en) * 2016-11-10 2019-10-22 EyeVerify Inc. Verified and private portable identity
US11205103B2 (en) 2016-12-09 2021-12-21 The Research Foundation for the State University Semisupervised autoencoder for sentiment analysis
SE1651684A1 (sv) * 2016-12-20 2018-06-21 Fingerprint Cards Ab Fingerprint sensing system configured to determine if a finger contacts a fingerprint sensor
WO2018125563A1 (en) * 2016-12-30 2018-07-05 Tobii Ab Identification, authentication, and/or guiding of a user using gaze information
US11155005B2 (en) 2017-02-10 2021-10-26 Divergent Technologies, Inc. 3D-printed tooling and methods for producing same
US10759090B2 (en) 2017-02-10 2020-09-01 Divergent Technologies, Inc. Methods for producing panels using 3D-printed tooling shells
CN116687336A (zh) 2017-02-27 2023-09-05 托比股份公司 用眼睛追踪装置确定眼睛睁开度
GB2560340A (en) * 2017-03-07 2018-09-12 Eyn Ltd Verification method and system
US10817722B1 (en) 2017-03-20 2020-10-27 Cross Match Technologies, Inc. System for presentation attack detection in an iris or face scanner
WO2018175616A1 (en) * 2017-03-21 2018-09-27 Sri International Robust biometric access control based on dynamic structural changes in tissue
WO2018187337A1 (en) 2017-04-04 2018-10-11 Princeton Identity, Inc. Z-dimension user feedback biometric system
US10898968B2 (en) 2017-04-28 2021-01-26 Divergent Technologies, Inc. Scatter reduction in additive manufacturing
US10703419B2 (en) 2017-05-19 2020-07-07 Divergent Technologies, Inc. Apparatus and methods for joining panels
US11358337B2 (en) 2017-05-24 2022-06-14 Divergent Technologies, Inc. Robotic assembly of transport structures using on-site additive manufacturing
CN107358157B (zh) * 2017-06-07 2020-10-02 创新先进技术有限公司 一种人脸活体检测方法、装置以及电子设备
US11123973B2 (en) 2017-06-07 2021-09-21 Divergent Technologies, Inc. Interconnected deflectable panel and node
US10919230B2 (en) 2017-06-09 2021-02-16 Divergent Technologies, Inc. Node with co-printed interconnect and methods for producing same
US10380418B2 (en) * 2017-06-19 2019-08-13 Microsoft Technology Licensing, Llc Iris recognition based on three-dimensional signatures
US10781846B2 (en) 2017-06-19 2020-09-22 Divergent Technologies, Inc. 3-D-printed components including fasteners and methods for producing same
CN107358183B (zh) * 2017-06-30 2020-09-01 Oppo广东移动通信有限公司 虹膜活体检测方法及相关产品
US10994876B2 (en) 2017-06-30 2021-05-04 Divergent Technologies, Inc. Automated wrapping of components in transport structures
US11022375B2 (en) 2017-07-06 2021-06-01 Divergent Technologies, Inc. Apparatus and methods for additively manufacturing microtube heat exchangers
US10895315B2 (en) 2017-07-07 2021-01-19 Divergent Technologies, Inc. Systems and methods for implementing node to node connections in mechanized assemblies
EP3430973A1 (en) * 2017-07-19 2019-01-23 Sony Corporation Mobile system and method
US10940609B2 (en) 2017-07-25 2021-03-09 Divergent Technologies, Inc. Methods and apparatus for additively manufactured endoskeleton-based transport structures
US10751800B2 (en) 2017-07-25 2020-08-25 Divergent Technologies, Inc. Methods and apparatus for additively manufactured exoskeleton-based transport structures
CA3071100A1 (en) 2017-07-26 2019-01-31 Princeton Identity, Inc. Biometric security systems and methods
WO2019027503A1 (en) * 2017-08-01 2019-02-07 Apple Inc. BIOMETRIC AUTHENTICATION TECHNIQUES
US11151235B2 (en) 2017-08-01 2021-10-19 Apple Inc. Biometric authentication techniques
US10605285B2 (en) 2017-08-08 2020-03-31 Divergent Technologies, Inc. Systems and methods for joining node and tube structures
US10357959B2 (en) 2017-08-15 2019-07-23 Divergent Technologies, Inc. Methods and apparatus for additively manufactured identification features
US11306751B2 (en) 2017-08-31 2022-04-19 Divergent Technologies, Inc. Apparatus and methods for connecting tubes in transport structures
US10960611B2 (en) 2017-09-06 2021-03-30 Divergent Technologies, Inc. Methods and apparatuses for universal interface between parts in transport structures
US11292058B2 (en) 2017-09-12 2022-04-05 Divergent Technologies, Inc. Apparatus and methods for optimization of powder removal features in additively manufactured components
CN107590463A (zh) * 2017-09-12 2018-01-16 广东欧珀移动通信有限公司 人脸识别方法及相关产品
EP3685185A4 (en) * 2017-09-18 2021-06-16 Element, Inc. METHODS, SYSTEMS AND MEDIA FOR DETECTING MYSTIFICATION DURING MOBILE AUTHENTICATION
CN109583285B (zh) * 2017-09-29 2023-03-07 阿里巴巴集团控股有限公司 对象识别方法
US10668816B2 (en) 2017-10-11 2020-06-02 Divergent Technologies, Inc. Solar extended range electric vehicle with panel deployment and emitter tracking
US10814564B2 (en) 2017-10-11 2020-10-27 Divergent Technologies, Inc. Composite material inlay in additively manufactured structures
CN107491775A (zh) * 2017-10-13 2017-12-19 理光图像技术(上海)有限公司 人脸活体检测方法、装置、存储介质及设备
US11786971B2 (en) 2017-11-10 2023-10-17 Divergent Technologies, Inc. Structures and methods for high volume production of complex structures using interface nodes
CN107992866B (zh) * 2017-11-15 2018-06-29 上海聚虹光电科技有限公司 基于视频流眼部反光点的活体检测方法
US10926599B2 (en) 2017-12-01 2021-02-23 Divergent Technologies, Inc. Suspension systems using hydraulic dampers
US11110514B2 (en) 2017-12-14 2021-09-07 Divergent Technologies, Inc. Apparatus and methods for connecting nodes to tubes in transport structures
US11085473B2 (en) 2017-12-22 2021-08-10 Divergent Technologies, Inc. Methods and apparatus for forming node to panel joints
US11534828B2 (en) 2017-12-27 2022-12-27 Divergent Technologies, Inc. Assembling structures comprising 3D printed components and standardized components utilizing adhesive circuits
US11420262B2 (en) 2018-01-31 2022-08-23 Divergent Technologies, Inc. Systems and methods for co-casting of additively manufactured interface nodes
US10751934B2 (en) 2018-02-01 2020-08-25 Divergent Technologies, Inc. Apparatus and methods for additive manufacturing with variable extruder profiles
US10944767B2 (en) 2018-02-01 2021-03-09 International Business Machines Corporation Identifying artificial artifacts in input data to detect adversarial attacks
US11224943B2 (en) 2018-03-07 2022-01-18 Divergent Technologies, Inc. Variable beam geometry laser-based powder bed fusion
US11267236B2 (en) 2018-03-16 2022-03-08 Divergent Technologies, Inc. Single shear joint for node-to-node connections
US11254381B2 (en) 2018-03-19 2022-02-22 Divergent Technologies, Inc. Manufacturing cell based vehicle manufacturing system and method
US11872689B2 (en) 2018-03-19 2024-01-16 Divergent Technologies, Inc. End effector features for additively manufactured components
US11408216B2 (en) 2018-03-20 2022-08-09 Divergent Technologies, Inc. Systems and methods for co-printed or concurrently assembled hinge structures
US11613078B2 (en) 2018-04-20 2023-03-28 Divergent Technologies, Inc. Apparatus and methods for additively manufacturing adhesive inlet and outlet ports
US11214317B2 (en) 2018-04-24 2022-01-04 Divergent Technologies, Inc. Systems and methods for joining nodes and other structures
US11020800B2 (en) 2018-05-01 2021-06-01 Divergent Technologies, Inc. Apparatus and methods for sealing powder holes in additively manufactured parts
US10682821B2 (en) 2018-05-01 2020-06-16 Divergent Technologies, Inc. Flexible tooling system and method for manufacturing of composite structures
WO2019216498A1 (en) * 2018-05-08 2019-11-14 Lg Electronics Inc. Electronic device and method for controlling the same
WO2019216499A1 (ko) * 2018-05-08 2019-11-14 엘지전자 주식회사 전자 장치 및 그 제어 방법
US11389816B2 (en) 2018-05-09 2022-07-19 Divergent Technologies, Inc. Multi-circuit single port design in additively manufactured node
US10803159B2 (en) 2018-05-14 2020-10-13 Lg Electronics Inc. Electronic device and method for controlling the same
US10691104B2 (en) 2018-05-16 2020-06-23 Divergent Technologies, Inc. Additively manufacturing structures for increased spray forming resolution or increased fatigue life
US11590727B2 (en) 2018-05-21 2023-02-28 Divergent Technologies, Inc. Custom additively manufactured core structures
US11441586B2 (en) 2018-05-25 2022-09-13 Divergent Technologies, Inc. Apparatus for injecting fluids in node based connections
US11035511B2 (en) 2018-06-05 2021-06-15 Divergent Technologies, Inc. Quick-change end effector
WO2019241834A1 (en) * 2018-06-18 2019-12-26 Seeing Machines Limited High frame rate image pre-processing system and method
WO2020007495A1 (en) * 2018-07-06 2020-01-09 Veridas Digital Authentication Solutions, S.L. Authenticating a user
US11292056B2 (en) 2018-07-06 2022-04-05 Divergent Technologies, Inc. Cold-spray nozzle
US10943348B2 (en) * 2018-07-18 2021-03-09 Case Western Reserve University Predicting response to anti-vascular endothelial growth factor therapy with computer-extracted morphology and spatial arrangement features of leakage patterns on baseline fluorescein angiography in diabetic macular edema
WO2020018938A1 (en) 2018-07-19 2020-01-23 Magic Leap, Inc. Content interaction driven by eye metrics
US11269311B2 (en) 2018-07-26 2022-03-08 Divergent Technologies, Inc. Spray forming structural joints
US11386719B2 (en) * 2018-08-16 2022-07-12 Samsung Electronics Co.. Ltd. Electronic device and operating method therefor
US11263418B2 (en) 2018-08-21 2022-03-01 Tinoq Inc. Systems and methods for member facial recognition based on context information
WO2020046815A1 (en) * 2018-08-26 2020-03-05 The Research Foundation For The State University Of New York System and method for inter-individual discrimination based on oculomotor kinematics
US10836120B2 (en) 2018-08-27 2020-11-17 Divergent Technologies, Inc . Hybrid composite structures with integrated 3-D printed elements
US11433557B2 (en) 2018-08-28 2022-09-06 Divergent Technologies, Inc. Buffer block apparatuses and supporting apparatuses
US11826953B2 (en) 2018-09-12 2023-11-28 Divergent Technologies, Inc. Surrogate supports in additive manufacturing
CN109376595B (zh) * 2018-09-14 2023-06-23 杭州宇泛智能科技有限公司 基于人眼注意力的单目rgb摄像头活体检测方法及系统
CN109344763A (zh) * 2018-09-26 2019-02-15 汕头大学 一种基于卷积神经网络的斜眼检测方法
US11072371B2 (en) 2018-10-05 2021-07-27 Divergent Technologies, Inc. Apparatus and methods for additively manufactured structures with augmented energy absorption properties
US11260582B2 (en) 2018-10-16 2022-03-01 Divergent Technologies, Inc. Methods and apparatus for manufacturing optimized panels and other composite structures
US10885363B2 (en) * 2018-10-25 2021-01-05 Advanced New Technologies Co., Ltd. Spoof detection using structured light illumination
US11504912B2 (en) 2018-11-20 2022-11-22 Divergent Technologies, Inc. Selective end effector modular attachment device
USD911222S1 (en) 2018-11-21 2021-02-23 Divergent Technologies, Inc. Vehicle and/or replica
US11449021B2 (en) 2018-12-17 2022-09-20 Divergent Technologies, Inc. Systems and methods for high accuracy fixtureless assembly
US11529741B2 (en) 2018-12-17 2022-12-20 Divergent Technologies, Inc. System and method for positioning one or more robotic apparatuses
US10663110B1 (en) 2018-12-17 2020-05-26 Divergent Technologies, Inc. Metrology apparatus to facilitate capture of metrology data
US11885000B2 (en) 2018-12-21 2024-01-30 Divergent Technologies, Inc. In situ thermal treatment for PBF systems
EP3915045A2 (en) * 2019-02-21 2021-12-01 Next Biometrics Group ASA Method of detecting replay attacks in a fingerprint sensor system
SG11202109983RA (en) 2019-03-12 2021-10-28 Element Inc Detecting spoofing of facial recognition with mobile devices
US10985951B2 (en) 2019-03-15 2021-04-20 The Research Foundation for the State University Integrating Volterra series model and deep neural networks to equalize nonlinear power amplifiers
US10599934B1 (en) * 2019-03-21 2020-03-24 Alibaba Group Hoding Limited Spoof detection using optokinetic response
US20200314411A1 (en) 2019-03-29 2020-10-01 Alibaba Group Holding Limited Synchronizing an illumination sequence of illumination sources with image capture in rolling shutter mode
US11203240B2 (en) 2019-04-19 2021-12-21 Divergent Technologies, Inc. Wishbone style control arm assemblies and methods for producing same
CN110210321B (zh) * 2019-05-08 2020-11-24 华南理工大学 基于多维尺度变换网络与分块加权法的欠样本人脸识别方法
IT201900011403A1 (it) * 2019-07-10 2021-01-10 Ambarella Int Lp Detecting illegal use of phone to prevent the driver from getting a fine
EP4028940A1 (en) * 2019-09-12 2022-07-20 Identy Inc. A method for obtaining data from an image of an object of a user that has a biometric characteristic of the user
US11348375B2 (en) 2019-10-15 2022-05-31 Assa Abloy Ab Systems and methods for using focal stacks for image-based spoof detection
US11294996B2 (en) 2019-10-15 2022-04-05 Assa Abloy Ab Systems and methods for using machine learning for image-based spoof detection
US11507248B2 (en) 2019-12-16 2022-11-22 Element Inc. Methods, systems, and media for anti-spoofing using eye-tracking
US10928904B1 (en) 2019-12-31 2021-02-23 Logitech Europe S.A. User recognition and gaze tracking in a video system
US11163995B2 (en) * 2019-12-31 2021-11-02 Logitech Europe S.A. User recognition and gaze tracking in a video system
US11912339B2 (en) 2020-01-10 2024-02-27 Divergent Technologies, Inc. 3-D printed chassis structure with self-supporting ribs
US11590703B2 (en) 2020-01-24 2023-02-28 Divergent Technologies, Inc. Infrared radiation sensing and beam control in electron beam additive manufacturing
KR20210101049A (ko) * 2020-02-07 2021-08-18 삼성전자주식회사 전자 장치 및 객체 인식 방법
US11884025B2 (en) 2020-02-14 2024-01-30 Divergent Technologies, Inc. Three-dimensional printer and methods for assembling parts via integration of additive and conventional manufacturing operations
US11479015B2 (en) 2020-02-14 2022-10-25 Divergent Technologies, Inc. Custom formed panels for transport structures and methods for assembling same
US11421577B2 (en) 2020-02-25 2022-08-23 Divergent Technologies, Inc. Exhaust headers with integrated heat shielding and thermal syphoning
US11535322B2 (en) 2020-02-25 2022-12-27 Divergent Technologies, Inc. Omni-positional adhesion device
US11413686B2 (en) 2020-03-06 2022-08-16 Divergent Technologies, Inc. Methods and apparatuses for sealing mechanisms for realizing adhesive connections with additively manufactured components
CN111860563A (zh) * 2020-04-17 2020-10-30 北京嘀嘀无限科技发展有限公司 一种车辆验证方法、装置、电子设备和介质
SG10202005118QA (en) * 2020-06-01 2021-08-30 Alipay Labs Singapore Pte Ltd Authentication method and system
EP3933666A1 (en) * 2020-07-01 2022-01-05 Smart Eye AB Anti-spoofing system
US11275959B2 (en) 2020-07-07 2022-03-15 Assa Abloy Ab Systems and methods for enrollment in a multispectral stereo facial recognition system
US11850804B2 (en) 2020-07-28 2023-12-26 Divergent Technologies, Inc. Radiation-enabled retention features for fixtureless assembly of node-based structures
US11806941B2 (en) 2020-08-21 2023-11-07 Divergent Technologies, Inc. Mechanical part retention features for additively manufactured structures
US11995808B2 (en) 2020-09-04 2024-05-28 Abova, Inc Method for X-ray dental image enhancement
US11872626B2 (en) 2020-12-24 2024-01-16 Divergent Technologies, Inc. Systems and methods for floating pin joint design
US11947335B2 (en) 2020-12-30 2024-04-02 Divergent Technologies, Inc. Multi-component structure optimization for combining 3-D printed and commercially available parts
US11928966B2 (en) 2021-01-13 2024-03-12 Divergent Technologies, Inc. Virtual railroad
US11845130B2 (en) 2021-03-09 2023-12-19 Divergent Technologies, Inc. Rotational additive manufacturing systems and methods
CN112990373B (zh) * 2021-04-28 2021-08-03 四川大学 基于多尺度特征融合的卷积孪生点网络叶片轮廓拼接系统
US11865617B2 (en) 2021-08-25 2024-01-09 Divergent Technologies, Inc. Methods and apparatuses for wide-spectrum consumption of output of atomization processes across multi-process and multi-scale additive manufacturing modalities
CN113729708B (zh) * 2021-09-10 2023-06-20 上海理工大学 一种基于眼动技术的谎言评判方法
CN113780239B (zh) * 2021-09-27 2024-03-12 上海聚虹光电科技有限公司 虹膜识别方法、装置、电子设备和计算机可读介质
CN114756848B (zh) * 2022-06-15 2022-09-02 国网浙江省电力有限公司 基于基础数据采集模型的工程数字化审计数据处理方法
GB202210043D0 (en) * 2022-07-08 2022-08-24 Rewire Holding Ltd System and method
WO2024103084A1 (en) * 2022-11-15 2024-05-23 Cerman Eren Process and system for determining an eye position data set
US12008089B1 (en) * 2023-07-14 2024-06-11 Thirdwave Systems Inc. Securely isolating one or more qualified digital identifiers associated with a user when accessing a digital service

Family Cites Families (58)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5291560A (en) 1991-07-15 1994-03-01 Iri Scan Incorporated Biometric personal identification system based on iris analysis
US5303709A (en) 1991-12-16 1994-04-19 Dreher Andreas W Retinal eye disease diagnostic system
US6095989A (en) 1993-07-20 2000-08-01 Hay; Sam H. Optical recognition methods for locating eyes
US5632282A (en) 1993-07-20 1997-05-27 Hay; S. Hutson Ocular disease detection apparatus
US6707484B1 (en) 1994-07-28 2004-03-16 Semiconductor Energy Laboratory Co., Ltd. Information processing system
JP3315648B2 (ja) * 1998-07-17 2002-08-19 沖電気工業株式会社 アイリスコード生成装置およびアイリス認識システム
KR100320188B1 (ko) 1999-03-23 2002-01-10 구자홍 홍채인식 시스템의 위조 판별방법
US6839151B1 (en) 2000-02-02 2005-01-04 Zoran Corporation System and method for color copy image processing
IL152756A0 (en) * 2000-05-16 2003-06-24 Swisscom Mobile Ag Biometric identification and authentication method
FR2831302A1 (fr) 2001-10-19 2003-04-25 St Microelectronics Sa Codage d'informations concentriques
WO2003105678A2 (en) 2002-06-12 2003-12-24 Advanced Research And Technology Institute, Inc. Method and apparatus for improving both lateral and axial resolution in ophthalmoscopy
JP2004023733A (ja) 2002-06-20 2004-01-22 Canon Inc 画像撮影装置及びその制御方法
US7668351B1 (en) 2003-01-17 2010-02-23 Kestrel Corporation System and method for automation of morphological segmentation of bio-images
US7474407B2 (en) 2003-02-20 2009-01-06 Applied Science Innovations Optical coherence tomography with 3d coherence scanning
US7336806B2 (en) 2004-03-22 2008-02-26 Microsoft Corporation Iris-based biometric identification
US20050281440A1 (en) 2004-06-18 2005-12-22 Pemer Frederick A Iris feature detection and sensor-based edge detection
US7155040B2 (en) 2004-06-29 2006-12-26 Bio-Key International, Inc. Generation of quality field information in the context of image processing
EP1815309A2 (en) 2004-11-19 2007-08-08 Triad Biometrics, LLC Methods and systems for use in biomeiric authentication and/or identification
GB0427205D0 (en) 2004-12-11 2005-01-12 Ncr Int Inc Biometric system
CA2594592A1 (en) 2005-01-14 2006-07-27 Ultra-Scan Corporation Multimodal fusion decision logic system
JPWO2006088042A1 (ja) * 2005-02-16 2008-07-03 松下電器産業株式会社 生体判別装置および認証装置ならびに生体判別方法
US7327860B2 (en) 2005-05-04 2008-02-05 West Virginia University Conjunctival scans for personal identification
US8260008B2 (en) 2005-11-11 2012-09-04 Eyelock, Inc. Methods for performing biometric recognition of a human eye and corroboration of same
US7801335B2 (en) * 2005-11-11 2010-09-21 Global Rainmakers Inc. Apparatus and methods for detecting the presence of a human eye
US8345945B2 (en) 2006-04-21 2013-01-01 The Trustees Of The University Of Pennsylvania Motion artifact compensation
US20070286462A1 (en) 2006-04-28 2007-12-13 David Usher System and method for biometric retinal identification
KR100852629B1 (ko) * 2006-06-02 2008-08-18 연세대학교 산학협력단 다초점 영상 시퀀스를 이용한 홍채인식 시스템 및 방법
US20070291277A1 (en) 2006-06-20 2007-12-20 Everett Matthew J Spectral domain optical coherence tomography system
PL380581A1 (pl) * 2006-09-07 2008-03-17 Naukowa I Akademicka Sieć Komputerowa Sposób testowania żywotności oka i urządzenie do testowania żywotności oka
US20080298642A1 (en) 2006-11-03 2008-12-04 Snowflake Technologies Corporation Method and apparatus for extraction and matching of biometric detail
WO2008124832A1 (en) 2007-04-10 2008-10-16 University Of Rochester Structured illumination for imaging of stationary and non-stationary, fluorescent and non-flourescent objects
FI20070501A0 (fi) * 2007-06-21 2007-06-21 Timo Tapani Lehto Menetelmä ja järjestelmä ihmisen tunnistamiseksi
US8553948B2 (en) * 2007-09-01 2013-10-08 Eyelock, Inc. System and method for iris data acquisition for biometric identification
US8345935B2 (en) * 2008-03-17 2013-01-01 International Business Machines Corporation Detecting behavioral deviations by measuring eye movements
JP5277365B2 (ja) * 2008-04-06 2013-08-28 国立大学法人九州工業大学 個人認証方法及びそれに使用する個人認証装置
US8079711B2 (en) 2008-04-24 2011-12-20 Carl Zeiss Meditec, Inc. Method for finding the lateral position of the fovea in an SDOCT image volume
ES2337866B2 (es) 2008-07-24 2011-02-14 Universidad Complutense De Madrid Reconocimiento biometrico mediante estudio del mapa de superficie delsegundo dioptrio ocular.
US8090246B2 (en) * 2008-08-08 2012-01-03 Honeywell International Inc. Image acquisition system
CN101404059B (zh) * 2008-09-24 2010-09-29 中国科学院自动化研究所 基于块状纹理采样的虹膜图像数据库合成方法
US9226798B2 (en) 2008-10-10 2016-01-05 Truevision Systems, Inc. Real-time surgical reference indicium apparatus and methods for surgical applications
TWI394085B (zh) * 2008-10-28 2013-04-21 Asustek Comp Inc 辨識被攝主體之維度形態的方法
US8514277B2 (en) 2008-11-05 2013-08-20 Dyer Holdings, Llc Video infrared retinal image scanner
US8280119B2 (en) 2008-12-05 2012-10-02 Honeywell International Inc. Iris recognition system using quality metrics
KR20100073191A (ko) * 2008-12-22 2010-07-01 한국전자통신연구원 거리 정보를 이용한 위조 얼굴 검출 방법 및 장치
WO2010129074A1 (en) 2009-01-14 2010-11-11 Indiana University Research & Technology Corporation System and method for identifying a person with reference to a sclera image
CN101540890A (zh) * 2009-04-28 2009-09-23 南京航空航天大学 一种获得监控视频中运动人体清晰人脸图像的方法
GB2471192B (en) 2009-06-15 2011-08-17 Honeywell Int Inc An iris and ocular recognition system using trace transforms
CN102238370A (zh) * 2010-04-30 2011-11-09 鸿富锦精密工业(深圳)有限公司 摄像装置及利用其获取清晰图像的方法
CN101923640B (zh) * 2010-08-04 2013-03-20 北京中科虹霸科技有限公司 基于鲁棒纹理特征和机器学习对伪造虹膜图像判别的方法
CN102446270A (zh) * 2010-10-15 2012-05-09 汉王科技股份有限公司 基于人脸识别的监测装置及监测方法
US8659697B2 (en) * 2010-11-11 2014-02-25 DigitalOptics Corporation Europe Limited Rapid auto-focus using classifier chains, MEMS and/or multiple object focusing
CN102436591B (zh) * 2011-11-15 2013-09-25 中国科学院自动化研究所 伪造虹膜图像的判别方法
US8235529B1 (en) 2011-11-30 2012-08-07 Google Inc. Unlocking a screen using eye tracking information
CN102592136B (zh) * 2011-12-21 2013-10-16 东南大学 基于几何图像中中频信息的三维人脸识别方法
US8457367B1 (en) 2012-06-26 2013-06-04 Google Inc. Facial recognition
US8437513B1 (en) 2012-08-10 2013-05-07 EyeVerify LLC Spoof detection for biometric authentication
US8369595B1 (en) 2012-08-10 2013-02-05 EyeVerify LLC Texture features for biometric authentication
US9672341B2 (en) * 2014-10-30 2017-06-06 Delta ID Inc. Systems and methods for spoof detection in iris based biometric systems

Also Published As

Publication number Publication date
CN104537292B (zh) 2018-06-05
US20150193666A1 (en) 2015-07-09
US9971920B2 (en) 2018-05-15
KR101356358B1 (ko) 2014-01-27
EP2883189B1 (en) 2021-02-17
US8787628B1 (en) 2014-07-22
HK1189673A1 (en) 2014-06-13
EP2883189A1 (en) 2015-06-17
PL2883189T3 (pl) 2021-09-20
US20160132735A1 (en) 2016-05-12
HK1211716A1 (en) 2016-05-27
CN103383723A (zh) 2013-11-06
CN104537292A (zh) 2015-04-22
WO2014025448A1 (en) 2014-02-13
US20140044318A1 (en) 2014-02-13
US9104921B2 (en) 2015-08-11
CN103383723B (zh) 2015-02-11
US8675925B2 (en) 2014-03-18
CN104598882A (zh) 2015-05-06
US20140044321A1 (en) 2014-02-13
US20140198959A1 (en) 2014-07-17
CN104598882B (zh) 2019-06-14
US8437513B1 (en) 2013-05-07
HK1211721A1 (en) 2016-05-27

Similar Documents

Publication Publication Date Title
ES2859554T3 (es) Detección de suplantación para autenticación biométrica
ES2959438T3 (es) Características de textura para autenticación biométrica
JP6938697B2 (ja) 認証システムにおいてユーザを登録および認証するための方法、顔認証システム、ならびに認証システムにおいてユーザを認証するための方法
US10095927B2 (en) Quality metrics for biometric authentication
EP2680191B1 (en) Facial recognition
EP2680192B1 (en) Facial recognition
US20200311238A1 (en) Systems and methods of multi-modal biometric analysis
US20230306790A1 (en) Spoof detection using intraocular reflection correspondences