ES2959438T3 - Características de textura para autenticación biométrica - Google Patents

Características de textura para autenticación biométrica Download PDF

Info

Publication number
ES2959438T3
ES2959438T3 ES13732665T ES13732665T ES2959438T3 ES 2959438 T3 ES2959438 T3 ES 2959438T3 ES 13732665 T ES13732665 T ES 13732665T ES 13732665 T ES13732665 T ES 13732665T ES 2959438 T3 ES2959438 T3 ES 2959438T3
Authority
ES
Spain
Prior art keywords
image
implementations
images
eye
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES13732665T
Other languages
English (en)
Inventor
Reza Derakhshani
Vikas Gottemukkula
Casey Hughlett
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jumio Corp
Original Assignee
Jumio Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jumio Corp filed Critical Jumio Corp
Application granted granted Critical
Publication of ES2959438T3 publication Critical patent/ES2959438T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/14Vascular patterns

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Ophthalmology & Optometry (AREA)
  • Data Mining & Analysis (AREA)
  • Quality & Reliability (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Collating Specific Patterns (AREA)
  • Image Analysis (AREA)

Abstract

Esta especificación describe tecnologías relacionadas con la autenticación biométrica basada en imágenes del ojo. En general, un aspecto del tema descrito en esta especificación se puede materializar en métodos que incluyen la obtención de una o más regiones de imagen a partir de una primera imagen de un ojo. Cada una de las regiones de la imagen puede incluir una vista de una porción respectiva del blanco del ojo. El método puede incluir además la aplicación de varios filtros distintos a cada una de las regiones de la imagen para generar una pluralidad de descriptores respectivos para la región. Los diversos filtros distintos pueden incluir filtros convolucionales, cada uno de los cuales está configurado para describir uno o más aspectos de una vasculatura ocular y, en combinación, describen una vasculatura ocular visible en un espacio de características. Se puede determinar una puntuación de coincidencia basándose en los descriptores generados y basándose en uno o más descriptores asociados con una segunda imagen de la vasculatura ocular. (Traducción automática con Google Translate, sin valor legal)

Description

DESCRIPCIÓN
Características de textura para autenticación biométrica
CAMPO TÉCNICO
La presente divulgación se refiere a la autenticación biométrica basada en imágenes del ojo.
ANTECEDENTES
A menudo es deseable restringir el acceso a propiedades o recursos a personas concretas. Los sistemas biométricos se pueden utilizar para autenticar la identidad de una persona para otorgar o denegar el acceso a un recurso. Por ejemplo, un sistema de seguridad biométrico puede utilizar escáneres de iris para identificar a una persona basándose en estructuras únicas en el iris de la persona.
El documento WO2010/129074 A1 divulga un método para obtener una característica de identificación adquiriendo una imagen de un ojo y extrayendo características en una región de la esclerótica de la imagen del ojo. El área de la esclerótica se determina dentro de una imagen HSV utilizando mapas de distancia en color. El filtrado de Gabor del área de la esclerótica de la imagen se utiliza para diferenciar las características dentro del área de la esclerótica del área circundante. Además, la imagen filtrada se convierte en una imagen binaria usando un umbral adaptativo, en el que la imagen binaria mejorada tiene un valor de 1 cuando la imagen excede el umbral y es 0 en caso contrario. ZHI ZHOU ET AL: "A New Human Identification Method: Sclera Recognition'', IEEE TRANSACTIONS ON SYSTEMS, MAN, AND CYBERNETICS - PART A: SYSTEMS AND HUMANS, vol. 42, n.23, 1 de mayo 2012 (2012-05-01), páginas 571 -583, XP055082577, ISSN: 1083-4427, DOI: 10.1109/TSMCA.2011.2170416 divulga un método para la identificación humana basado en la obtención de la estructura de los vasos sanguíneos de la esclerótica. En particular, se utiliza un método de mejora de la esclerótica basado en ondas de Gabor para enfatizar y binarizar los patrones de los vasos de la esclerótica. Se utiliza una magnitud mayor de los valores de píxeles de los patrones vasculares que el fondo para binarizar la imagen filtrada de Gabor. SRIRAM PAVAN TAN<k>A<s>ALA ET AL: "Biometric recognition of conjunctival vasculature using GLCM features", IMAGE INFORMATION PROCESSING (ICIIP), 2011 INTERNATIONAL CONFERENCE ON, IEEE, 3 de noviembre de 2011 (2011-11-03), páginas 1-6, XP032078347, DOI: 10.1109/ICIIP.2011.6108974 ISBN: 978-1-61284-859-4 divulga un método para el reconocimiento biométrico ocular basado en la vasculatura conjuntival. Se utiliza un método de matriz de coocurrencia de nivel de grises (GLCM) para la extracción de características.
SUMARIO
La invención se refiere a un método que tiene las características divulgadas en la reivindicación 1, un sistema que tiene las características divulgadas en la reivindicación 4.
En las reivindicaciones dependientes se definen algunas realizaciones preferidas.
Se pueden implementar realizaciones particulares de la invención para lograr ninguna, una o más de las siguientes ventajas. Algunas implementaciones pueden brindar seguridad al autenticar personas de manera fiable. Algunas implementaciones pueden reducir la sensibilidad al ruido de un sistema de autenticación en comparación con los sistemas basados en detección de minucias. Algunas implementaciones pueden facilitar el almacenamiento y la recuperación eficientes de los perfiles de inscripción utilizados para la autenticación.
Los detalles de una o más realizaciones de la invención se exponen en los dibujos adjuntos y en la siguiente descripción. Otras características, aspectos y ventajas de la invención resultarán evidentes a partir de la descripción, los dibujos y las reivindicaciones.
BREVE DESCRIPCIÓN DE LOS DIBUJOS
La figura 1 es un diagrama de la anatomía de un ojo humano.
La figura 2 es un diagrama de una imagen de ejemplo que incluye porciones que muestran la vasculatura del blanco de un ojo.
La figura 3 es un diagrama de una imagen de ejemplo que está segmentada para su análisis.
La figura 4 es un diagrama de bloques de un sistema de seguridad de ejemplo que está configurado para autenticar a una persona basándose en parte en una o más imágenes del blanco de un ojo.
La figura 5 es un diagrama de bloques de un ejemplo de entorno en línea;
La figura 6 es un diagrama de flujo de un proceso de ejemplo para autenticar a una persona basándose en una o más imágenes del blanco de un ojo.
La figura 7 es un diagrama de flujo de un proceso de ejemplo para determinar una puntuación de coincidencia para una o más imágenes de un ojo.
Las figuras 8A-8B son un diagrama de flujo de un proceso de ejemplo para determinar una puntuación de coincidencia para una o más imágenes de un ojo.
La figura 9 muestra un ejemplo de un dispositivo informático y un dispositivo informático móvil que se pueden utilizar para implementar las técnicas aquí descritas.
DESCRIPCIÓN DETALLADA
Las características distintivas de la vasculatura visible de una persona en el blanco de los ojos pueden usarse para identificar o autenticar a la persona. Por ejemplo, se pueden obtener y analizar imágenes del blanco del ojo de un usuario para comparar las características del ojo con el registro de referencia con el fin de autenticar al usuario y otorgarle o denegarle acceso a un recurso.
La estructura única de la vasculatura visible de una persona puede reflejarse en las características de textura de las imágenes del blanco del ojo de la persona. Las imágenes se pueden segmentar para identificar regiones en la parte blanca del ojo (por ejemplo, un conjunto de pequeños mosaicos dispuestos en una cuadrícula para cubrir un área izquierda o derecha del iris) para el análisis de textura. Se puede aplicar un conjunto de filtros para determinar los descriptores de las características de textura de la vasculatura individual en estas pequeñas regiones. Por ejemplo, algunos de los filtros aplicados pueden ser filtros convolucionales que forman una base para un espacio de características que puede usarse para describir características texturales significativas de la vasculatura de una persona. Un vector de descriptores derivados de las salidas del filtro se puede ensamblar en un vector de descriptor.
Durante una operación de autenticación o identificación, el vector descriptor determinado para un usuario puede compararse con un vector descriptor correspondiente del registro de referencia para una persona inscrita. Los vectores de descriptores se pueden comparar determinando una puntuación de coincidencia que refleje la probabilidad de coincidencia entre el usuario y la persona inscrita. Por ejemplo, la puntuación de coincidencia puede determinarse como una distancia entre los dos vectores descriptores. En algunas implementaciones, la puntuación de coincidencia se determina como la salida de un aproximador de función entrenado (por ejemplo, una red neuronal) en respuesta al paso de los dos vectores descriptores como entradas. La puntuación de coincidencia se puede comparar con uno o más umbrales para determinar si se acepta o rechaza al usuario.
La figura 1 es un diagrama de la anatomía de un ojo humano 100. El diagrama es una sección transversal del ojo con una ampliación 102 de la anatomía cerca del límite del limbo corneal del ojo que separa el iris coloreado 110 del blanco circundante del ojo. La parte blanca del ojo incluye una estructura vascular compleja que no solo es fácilmente visible y escaneable desde fuera del ojo, sino que además esa estructura vascular es única y varía entre individuos. Por lo tanto, estas estructuras vasculares de la parte blanca del ojo, debidas principalmente a la vasculatura de la conjuntiva y la epiesclera, pueden escanearse y usarse ventajosamente como datos biométricos. Esta biometría se puede utilizar para autenticar a una persona en particular o identificar a una persona desconocido.
El blanco del ojo tiene varias capas. La esclerótica 120 es una capa protectora, fibrosa y opaca del ojo que contiene colágeno y fibra elástica. La esclerótica 120 está cubierta por la epiesclera 130, que tiene un número particularmente grande de vasos sanguíneos y venas que la atraviesan y la recorren. La epiesclera 130 está cubierta por la conjuntiva bulbar 140, que es una membrana transparente delgada que interactúa con el párpado 150 o el entorno cuando se abre el párpado. Los vasos sanguíneos y las venas recorren todas estas capas de la parte blanca del ojo y se pueden detectar en las imágenes del ojo. El ojo también incluye pestañas 160 que a veces pueden oscurecer porciones del blanco del ojo en una imagen.
La figura 2 es un diagrama de una imagen 200 de ejemplo que incluye partes que muestran la vasculatura del blanco de un ojo. Dicha imagen 200 puede capturarse con un sensor (por ejemplo, una cámara) que está integrado en un dispositivo informático tal como, por ejemplo, un teléfono inteligente, una tableta, un televisor, un ordenador portátil o un ordenador personal. Por ejemplo, se puede solicitar a un usuario a través de una pantalla o un mensaje de audio que mire hacia la izquierda mientras se captura la imagen, exponiendo así un área más grande de la parte blanca del ojo a la derecha del iris a la vista del sensor. De manera similar, se le puede pedir al usuario que mire hacia la derecha, hacia arriba, hacia abajo, en línea recta, etc. mientras se captura una imagen. La imagen de ejemplo incluye una vista de un iris 220 con una pupila 210 en su centro. El iris 220 se extiende hasta el límite del limbo corneal 225 del ojo. El blanco 230 del ojo es externo a un límite del limbo corneal 225 del ojo. En la imagen 100 es visible una vasculatura extensa 240 del blanco del ojo. Esta vasculatura 240 puede ser distintiva para una persona. En algunas implementaciones, se pueden usar características distintivas de la vasculatura 240 como base para identificar, verificar o autenticar a un usuario individual.
La figura 3 es un diagrama de una imagen 300 de ejemplo, que incluye partes que muestran la vasculatura de la parte blanca de dos ojos, que está segmentada para su análisis. Una imagen capturada 310 se puede obtener de diversas formas. La imagen capturada 310 puede preprocesarse y segmentarse para aislar regiones de interés dentro de la imagen y mejorar la visión de la vasculatura en el blanco de los ojos. Por ejemplo, las regiones de interés pueden ser porciones en mosaico que forman rejillas que cubren parte o todo el blanco de los ojos. Una porción 320 de la parte blanca del ojo derecho correspondiente al lado izquierdo del iris puede aislarse, por ejemplo, identificando el límite del limbo corneal y los bordes de los párpados. De manera similar, se puede aislar una porción 322 correspondiente al blanco del ojo izquierdo a la izquierda del iris. Se puede usar preprocesamiento para mejorar la vista de la vasculatura en esta región, por ejemplo, seleccionando un color componente de los datos de la imagen que maximice el contraste entre la vasculatura y las porciones blancas circundantes de la parte blanca de los ojos. En algunas implementaciones, estas porciones 320, 322 de la imagen pueden segmentarse además en mosaicos que forman rejillas 330, 332 que dividen un área de superficie expuesta del blanco de los ojos en regiones más pequeñas para fines de análisis. Las características de la vasculatura en estas regiones de interés pueden usarse para la identificación o autenticación de una persona.
La figura 4 es un diagrama de bloques de un sistema de seguridad 400 de ejemplo que está configurado para autenticar a una persona basándose en parte en una o más imágenes del blanco de un ojo 410. Un usuario del sistema de seguridad 400 puede presentar su ojo 410 a un sensor de luz 420. De esta manera, se pueden capturar una o más imágenes del blanco del ojo 410. Una cámara digital, una cámara tridimensional (3D) y un sensor de campo luminoso son ejemplos de sensores de luz que pueden emplearse. El sensor de luz 420 puede emplear una variedad de tecnologías, por ejemplo, dispositivos digitales de carga acoplada (CCD) o semiconductores de óxido metálico complementarios (CMOS). En algunas implementaciones, se puede solicitar al usuario mediante mensajes mostrados en la pantalla 424 que realice ciertas poses para exponer porciones del blanco del ojo 410 y facilitar la adquisición de imágenes. Por ejemplo, se le puede solicitar al usuario que dirija su mirada para girar el iris de su ojo 410 hacia la izquierda, derecha, arriba, arriba a la izquierda y girar hacia arriba a la derecha. En algunas implementaciones, que no se muestran, se le puede solicitar al usuario que adopte poses a través de mensajes reproducidos a través de un altavoz, a través de luces indicadoras (por ejemplo, LED) o no se le solicita ninguna indicación.
En algunas implementaciones, el sensor 420 puede configurarse para detectar cuándo el ojo 410 se ha colocado correctamente en el campo de visión del sensor. Alternativamente, el software o firmware implementado en un dispositivo informático 430 puede analizar una o más imágenes producidas por el sensor de luz 420 para determinar si el ojo 410 se ha colocado correctamente. En algunas implementaciones, el usuario puede indicar manualmente cuándo el ojo 410 está colocado correctamente a través de una interfaz de usuario (por ejemplo, botón, teclado, teclado numérico, panel táctil o pantalla táctil).
Un módulo de autenticación 440 implementado en el dispositivo informático 430 puede obtener una o más imágenes del blanco del ojo a través del sensor de luz 420. En algunas implementaciones, el dispositivo informático 430 está integrado o acoplado eléctricamente al sensor de luz 420. En algunas implementaciones, el dispositivo informático 430 puede comunicarse con el sensor de luz 420 a través de una interfaz inalámbrica (por ejemplo, una antena).
El módulo de autenticación 440 procesa imágenes obtenidas a través del sensor de luz 420 para controlar el acceso a un dispositivo asegurado 450. Por ejemplo, el módulo de autenticación 440 puede implementar procesos de autenticación descritos en relación con la figura 6. En algunas implementaciones, el dispositivo asegurado 450 puede incluir un accionador 460 (por ejemplo, un mecanismo de bloqueo) que afecta las instrucciones de control de acceso desde el módulo de autenticación 440.
El dispositivo informático puede integrarse o interactuar con el dispositivo asegurado 450 de diversas formas. Por ejemplo, el dispositivo asegurado 450 puede ser un automóvil, el sensor de luz 420 puede ser una cámara integrada en el volante o tablero del automóvil, y el dispositivo informático 430 puede estar integrado en el automóvil y conectado eléctricamente a la cámara y a un sistema de bloqueo de encendido que sirve como actuador de seguridad 460. Un usuario puede presentar vistas del blanco de sus ojos a la cámara para autenticarse como conductor autorizado del automóvil y arrancar el motor.
En algunas implementaciones, el dispositivo asegurado 450 puede ser una caja de seguridad de bienes raíces, el sensor de luz 420 puede ser una cámara integrada con el dispositivo móvil del usuario (por ejemplo, un teléfono inteligente o tableta), y el procesamiento del módulo de autenticación 440 puede ser realizado en parte por el dispositivo móvil del usuario y en parte por un dispositivo informático integrado con la caja de seguridad que controla un mecanismo de bloqueo eléctrico. Los dos dispositivos informáticos pueden comunicarse a través de una interfaz inalámbrica. Por ejemplo, el usuario (por ejemplo, un agente inmobiliario que muestra una propiedad) puede usar la cámara de su dispositivo móvil para obtener una o más imágenes y enviar datos basados en las imágenes a la caja de seguridad para autenticarse como usuario autorizado y se le concedió acceso a las llaves almacenadas en la caja de seguridad.
En algunas implementaciones, el dispositivo asegurado 450 es un portón o puerta que controla el acceso a una propiedad. El sensor de luz 420 puede integrarse en la puerta o portón o colocarse en una pared o valla cerca de la puerta o portón. El dispositivo informático 430 puede colocarse cerca y puede comunicarse a través de una interfaz inalámbrica con el sensor de luz 420 y un mecanismo de bloqueo eléctrico en la puerta o portón que sirve como actuador 460. En algunas implementaciones, el dispositivo asegurado 450 puede ser un rifle y el sensor de luz 420 puede estar integrado con una mira fijada al rifle. El dispositivo informático 430 puede estar integrado en la culata del rifle y puede conectarse electrónicamente al sensor de luz 420 y a un gatillo o mecanismo de bloqueo de martillo que sirve como actuador 460. En algunas implementaciones, el dispositivo asegurado 450 puede ser una pieza de equipo de alquiler (por ejemplo, una bicicleta).
El dispositivo informático 430 puede incluir un dispositivo de procesamiento 432 (por ejemplo, como se describe en relación con la figura 9) y un repositorio legible por máquina, o base de datos 434. En algunas implementaciones, el repositorio legible por máquina puede incluir memoria flash. El depósito legible por máquina 434 puede usarse para almacenar uno o más registros de referencia. Un registro de referencia puede incluir datos derivados de una o más imágenes del blanco del ojo para un usuario registrado nuestro autorizado del dispositivo asegurado 450. En algunas implementaciones, el registro de referencia incluye imágenes de referencia completas. En algunas implementaciones, el registro de referencia incluye características extraídas de las imágenes de referencia. En algunas implementaciones, el registro de referencia incluye características cifradas extraídas de las imágenes de referencia. En algunas implementaciones, el registro de referencia incluye claves de identificación cifradas por características extraídas de las imágenes de referencia. Para crear un registro de referencia para un nuevo usuario y se podrá realizar el proceso de inscripción o registro. Un proceso de inscripción puede incluir la captura de una o más imágenes de referencia del blanco del ojo de un nuevo usuario registrado. En algunas implementaciones, el proceso de inscripción se puede realizar usando el sensor de luz 420 y el dispositivo de procesamiento 430 del sistema de autenticación 400.
La figura 5 es un diagrama de bloques que muestra un ejemplo de un entorno de red 500 en el que se pueden implementar las técnicas descritas en el presente documento. El entorno de red 500 incluye dispositivos informáticos 502, 504, 506, 508, 510 que están configurados para comunicarse con un primer sistema de servidor 512 y/o un segundo sistema de servidor 514 a través de una red 511. Los dispositivos informáticos 502, 504, 506, 508, 510 tienen respectivos usuarios 522, 524, 526, 528, 530 asociados con ellos. El primer y segundo sistemas de servidor 512, 514 incluyen cada uno un dispositivo informático 516, 517 y un depósito legible por máquina, o base de datos 518, 519. El entorno 500 de ejemplo puede incluir muchos miles de sitios web, dispositivos informáticos y servidores, que no se muestran.
La red 511 puede incluir una gran red informática, ejemplos de los cuales incluyen una red de área local (LAN), una red de área amplia (WAN), Internet, una red celular o una combinación de las mismas que conectan varios dispositivos informáticos móviles, dispositivos informáticos fijos. y sistemas de servidores. La(s) red(es) incluida(s) en la red 511 pueden proporcionar comunicaciones bajo varios modos o protocolos, ejemplos de los cuales incluyen Protocolo de control de transmisión/Protocolo de Internet (TCP/IP), llamadas de voz del Sistema global para comunicaciones móviles (GSM), Servicio de mensajes electrónicos cortos (SMS), mensajería de servicio mejorado (EMS) o servicio de mensajería multimedia (MMS), Ethernet, acceso múltiple por división de código (CDMA), acceso múltiple por división de tiempo (TDMA), celular digital personal (PDC), acceso múltiple por división de código de banda ancha (WCDMA), CDMA2000 o sistema de radio de paquetes generales (GPRS), entre otros. La comunicación puede realizarse a través de un transceptor de radiofrecuencia. Además, es posible que se produzcan comunicaciones de corto alcance, por ejemplo, mediante BLUETOOTH, WiFi u otro sistema transceptor similar.
Los dispositivos informáticos 502, 504, 506, 508, 510 permiten a los respectivos usuarios 522, 524, 526, 528, 530 acceder y ver documentos, por ejemplo, páginas web incluidas en sitios web. Por ejemplo, el usuario 522 del dispositivo informático 502 puede ver una página web usando un navegador web. La página web puede ser proporcionada al dispositivo informático 502 mediante el sistema de servidor 512, el sistema de servidor 514 u otro sistema de servidor (no mostrado).
En el entorno de ejemplo 500, los dispositivos informáticos 502, 504, 506 se ilustran como dispositivos informáticos de tipo escritorio, el dispositivo informático 508 se ilustra como un dispositivo informático 508 de tipo portátil y el dispositivo informático 510 se ilustra como un dispositivo informático móvil. Cabe señalar, sin embargo, que los dispositivos informáticos 502, 504, 506, 508, 510 pueden incluir, por ejemplo, un ordenador de escritorio, un ordenador portátil, un ordenador manual, un televisor con uno o más procesadores integrados en el mismo y/o acoplados al mismo, un dispositivo de tableta, un asistente digital personal (PDA), un teléfono celular, un dispositivo de red, una cámara, un teléfono inteligente, un teléfono móvil con servicio general mejorado de radio por paquetes (EGPRS), un reproductor multimedia, un dispositivo de navegación, un dispositivo electrónico de mensajería, una consola de juegos o una combinación de dos o más de estos dispositivos de procesamiento de datos u otros dispositivos de procesamiento de datos apropiados. En algunas implementaciones, se puede incluir un dispositivo informático como parte de un vehículo motorizado (por ejemplo, un automóvil, un vehículo de emergencia (por ejemplo, un camión de bomberos, una ambulancia), un autobús).
Los usuarios que interactúan con los dispositivos informáticos 502, 504, 506, 508, 510 pueden interactuar con un servicio de transacciones seguras 523 alojado, por ejemplo, en el sistema servidor 512, autenticándose y emitiendo instrucciones u órdenes a través de la red 511. Las transacciones seguras pueden incluir, por ejemplo, compras de comercio electrónico, transacciones financieras (por ejemplo, transacciones bancarias en línea, transacciones con tarjetas de crédito o bancarias, canjes de puntos de recompensa por fidelidad) o votaciones en línea. El servicio de transacciones seguras puede incluir un módulo de autenticación 525 que coordina la autenticación de los usuarios desde el lado de la interacción del servidor seguro. En algunas implementaciones, el módulo de autenticación 525 puede recibir datos de imágenes desde un dispositivo de usuario (por ejemplo, dispositivos informáticos 502, 504, 506, 508, 510) que incluye una o más imágenes del ojo de un usuario (por ejemplo, usuarios 522, 524, 526, 528, 530). Luego, el módulo de autenticación puede procesar los datos de la imagen para autenticar al usuario determinando si los datos de la imagen coinciden con un registro de referencia para una identidad de usuario reconocida que se ha creado previamente en base a los datos de la imagen recopilados durante una sesión de inscripción.
En algunas implementaciones, un usuario que ha enviado una solicitud de servicio puede ser redirigido a un módulo de autenticación 540 que se ejecuta en un sistema de servidor independiente 514. El módulo de autenticación 540 puede mantener registros de referencia para usuarios registrados o inscritos del servicio de transacciones seguras 523 y también puede incluir registros de referencia para usuarios de otros servicios de transacciones seguras. El módulo de autenticación 540 puede establecer sesiones seguras con diversos servicios de transacciones seguras (por ejemplo, el servicio de transacciones seguras 523) usando comunicaciones de red cifradas (por ejemplo, usando un protocolo de cifrado de clave pública) para indicar al servicio de transacciones seguras si el usuario ha sido autenticado como usuario registrado o anotado. Al igual que el módulo de autenticación 525, el módulo de autenticación 540 puede recibir datos de imágenes del dispositivo informático del usuario solicitante (por ejemplo, los dispositivos informáticos 502, 504, 506, 508, 510) y puede procesar los datos de imágenes para autenticar al usuario. En algunas implementaciones, el módulo de autenticación puede determinar características de textura para imágenes recibidas de un usuario y puede aceptar o rechazar las imágenes basándose en las características de textura.
El módulo de autenticación 540 puede implementarse como software, hardware o una combinación de software y hardware que se ejecuta en un aparato de procesamiento, tal como uno o más dispositivos informáticos (por ejemplo, un sistema informático como se ilustra en la figura 9).
Un dispositivo de usuario (por ejemplo, el dispositivo informático 510) puede incluir una aplicación de autenticación 550. La aplicación de autenticación 550 puede facilitar la autenticación del usuario como una identidad de usuario registrada o inscrita con el fin de acceder a servicios seguros (por ejemplo, servicio de transacciones seguras 523) a través de una red 511. Por ejemplo, la aplicación de autenticación 550 puede ser una aplicación móvil u otro tipo de aplicación de cliente para interactuar con un módulo de autenticación del lado del servidor (por ejemplo, el módulo de autenticación 540). La aplicación de autenticación 550 puede controlar un sensor (por ejemplo, una cámara conectada o integrada con un dispositivo informático de usuario) para capturar una o más imágenes de un usuario (por ejemplo, el usuario 530) que incluyen vistas del blanco del ojo del usuario. La aplicación de autenticación 550 puede solicitar (por ejemplo, a través de una pantalla o altavoces) al usuario que pose para la captura de imágenes. Por ejemplo, se le puede solicitar al usuario que mire hacia el sensor y dirija su mirada hacia la izquierda o hacia la derecha para exponer grandes porciones del blanco de un ojo al sensor.
En algunas implementaciones, la aplicación de autenticación 550 transmite datos de imágenes capturadas a un módulo de autenticación (por ejemplo, módulos de autenticación 525 o 540) en un servidor remoto (por ejemplo, sistemas de servidor 512 o 514) a través de la red 511. La recopilación de datos de imágenes del usuario puede facilitar la inscripción y la creación de un registro de referencia para el usuario. La recopilación de datos de imágenes del usuario también puede facilitar la autenticación frente a un registro de referencia para la identidad de un usuario.
En algunas implementaciones, la aplicación de autenticación 550 puede realizar un procesamiento adicional de los datos de imagen con fines de autenticación y los resultados de ese procesamiento pueden transmitirse a un módulo de autenticación (por ejemplo, los módulos de autenticación 525 o 540). De esta manera, las funciones de autenticación pueden distribuirse entre los procesos del lado del cliente y del servidor de una manera adecuada para una aplicación particular. Por ejemplo, en algunas implementaciones, la aplicación de autenticación 550 determina características de textura para imágenes capturadas y rechaza cualquier imagen. Las características de textura pueden transmitirse a un módulo de autenticación del lado del servidor (por ejemplo, módulos de autenticación 525 o 540) para su posterior análisis.
En algunas implementaciones, la aplicación de autenticación accede a un registro de referencia para la identidad de un usuario y lleva a cabo un proceso de autenticación completo, antes de informar el resultado (por ejemplo, usuario aceptado o rechazado) a un módulo de autenticación del lado del servidor.
El aplicación de autenticación 550 puede implementarse como software, hardware o una combinación de software y hardware que se ejecuta en un aparato de procesamiento, tal como uno o más dispositivos informáticos (por ejemplo, un sistema informático como se ilustra en la figura 9).
La figura 6 es un diagrama de flujo de un proceso 600 de ejemplo para autenticar a una persona basándose en una o más imágenes del blanco de un ojo. Las características o descriptores de textura se determinan para las imágenes obtenidas aplicando un conjunto de filtros a las imágenes. Se determina una puntuación de coincidencia que compara las características determinadas con un registro de referencia. Luego, el individuo es aceptado o rechazado según la puntuación de coincidencia.
El proceso 600 puede implementarse, por ejemplo, mediante el módulo de autenticación 440 en el dispositivo informático 430 de la figura 4. En algunas implementaciones, el dispositivo informático 430 es un aparato de procesamiento de datos que incluye uno o más procesadores que están configurados para realizar acciones del proceso 600. Por ejemplo, el aparato de procesamiento de datos puede ser un dispositivo informático (por ejemplo, como se ilustra en la figura 9). En algunas implementaciones, el proceso 600 puede implementarse total o parcialmente mediante la aplicación de autenticación 550 que es ejecutada por un dispositivo informático de usuario (por ejemplo, el dispositivo informático 510). Por ejemplo, el dispositivo informático del usuario puede ser un dispositivo informático móvil (por ejemplo, el dispositivo informático móvil 950 de la figura 9). En algunas implementaciones, el proceso 600 puede implementarse total o parcialmente mediante el módulo de autenticación 540 que es ejecutado por un sistema servidor de usuario (por ejemplo, el sistema servidor 514). En algunas implementaciones, el sistema servidor 514 es un aparato de procesamiento de datos que incluye uno o más procesadores que están configurados para realizar acciones del proceso 600. Por ejemplo, el aparato de procesamiento de datos puede ser un dispositivo informático (por ejemplo, como se ilustra en la figura 9). En algunas implementaciones, un medio legible por computadora puede incluir instrucciones que cuando se ejecutan por un dispositivo informático (por ejemplo, un sistema informático) hacen que el dispositivo realice acciones del proceso 600.
Se obtienen una o más imágenes de un ojo 602. Las imágenes incluyen una vista de una porción de una vasculatura del ojo externa al límite del limbo corneal del ojo. Las imágenes obtenidas pueden ser monocromáticas o estar representadas en varios espacios de color (por ejemplo, RGB, SRGB, HSV, HSL o YCbCr). En algunas implementaciones, se puede obtener una imagen usando un sensor de luz (por ejemplo, una cámara digital, una cámara 3D o un sensor de campo de luz). El sensor puede ser sensible a la luz en diversos intervalos de longitud de onda. Por ejemplo, el sensor puede ser sensible al espectro de luz visible. En algunas implementaciones, el sensor está emparejado con un flash o antorcha que puede pulsarse para iluminar objetos a la vista del sensor. La captura de imágenes se puede sincronizar o bloquear en el tiempo con la pulsación de un flash. En algunas implementaciones, el sensor captura una secuencia de imágenes que pueden usarse para rastrear el movimiento de objetos dentro del campo de visión del sensor. El sensor puede incluir una configuración más que controle la captura de imágenes (por ejemplo, distancia de enfoque, intensidad del flash, exposición y balance de blancos). Las imágenes pueden incluir colectivamente una pluralidad de distancias de enfoque. Por ejemplo, se puede capturar una secuencia de imágenes, cada imagen capturada con una configuración de distancia de enfoque diferente para el sensor y/o algunos sensores (por ejemplo, un sensor de campo luminoso) pueden capturar una imagen que está enfocada a una pluralidad de distancias desde el sensor. En algunas implementaciones, la una o más imágenes se pueden obtener 502 mediante recepción a través de una interfaz de red (por ejemplo, una interfaz de red del sistema de servidor 514).
La una o más imágenes pueden segmentarse 604 para identificar regiones de interés que incluyen las mejores vistas de la vasculatura en el blanco de un ojo. En algunas implementaciones, se pueden identificar puntos de referencia anatómicos (por ejemplo, un iris, su centro y el límite del limbo corneal, las esquinas de los ojos y los bordes de los párpados) en una o más imágenes. Las regiones de interés dentro de la imagen pueden identificarse y seleccionarse en función de su ubicación en relación con los puntos de referencia anatómicos identificados. Por ejemplo, las regiones de interés pueden estar ubicadas en la parte blanca del ojo a la izquierda, derecha, encima o debajo del iris. En algunas implementaciones, las regiones de interés seleccionadas se colocan en mosaico para formar una cuadrícula que cubre una porción mayor del blanco del ojo. Los mosaicos se pueden registrar (es decir, sus ubicaciones se alinearán) con respecto al centro del iris y al límite del iris para que se puedan comparar las mismas ubicaciones de mosaicos en todas las imágenes. En algunas implementaciones, las regiones seleccionadas de la imagen no son contiguas (por ejemplo, las regiones vecinas pueden superponerse o las regiones vecinas pueden tener espacio entre ellas). Las regiones de interés seleccionadas pueden corresponder a regiones de interés seleccionadas de una imagen de referencia en la que se basan los datos de un registro de referencia.
En algunas implementaciones, las esquinas de los ojos se encuentran ajustando curvas en las porciones detectadas del párpado sobre la esclerótica y luego extrapolando y encontrando la intersección de esas curvas. Si no se puede encontrar una intersección (esquina) debido a que el iris estaba demasiado cerca (por ejemplo, debido a la dirección de la mirada), entonces se puede derivar y aplicar a la imagen una plantilla de la misma área de la esquina, pero de la foto en la dirección de la mirada opuesta en la proximidad de la esquina problemática en la imagen en cuestión, y la ubicación de máxima correlación se puede etiquetar como la esquina.
En algunas implementaciones, los párpados se encuentran mediante métodos de umbral adaptativo que encuentran el blanco del ojo a partir de la imagen, que bordea los párpados. La propia máscara de la esclerótica se puede corregir mediante operaciones morfológicas (por ejemplo, casco convexo) para eliminar aberraciones.
En algunas implementaciones, el límite límbico se encuentra desde la máscara de la esclerótica donde termina la esclerótica debido a su terminación en el límite límbico del iris.
En algunas implementaciones, el centro del iris se encuentra mediante múltiples métodos. Si el color de ojos es claro, el centro de la pupila se puede encontrar como el centro del iris. Si el iris es demasiado oscuro, entonces se encuentra el centro del elipsoide ajustado al límite límbico y se encuentra su centro, o se determina como el punto focal de los rayos normales (es decir, líneas perpendiculares a las tangentes al límite límbico) que convergen alrededor del centro del iris, o una combinación de los métodos anteriores.
Las regiones de la imagen pueden preprocesarse 606 para mejorar la vista de una vasculatura dentro de una imagen. En algunas implementaciones, el preprocesamiento 606 incluye mejora de la imagen en color y ecualización de histograma adaptativa limitada por contraste (CLAHE) que mejora el contraste de la imagen de intensidad. CLAHE opera en pequeñas regiones de la imagen llamadas mosaicos. El contraste de cada mosaico se mejora de modo que el histograma de la salida coincida aproximadamente con el histograma especificado por una distribución particular (por ejemplo, distribución uniforme, exponencial o de Rayleigh). Luego, los mosaicos vecinos se combinan mediante interpolación bilineal para eliminar los límites inducidos artificialmente. En algunas implementaciones, las imágenes se pueden mejorar seleccionando uno de los componentes de color rojo, verde o azul que tenga el mejor contraste entre los vasos y el fondo. Puede preferirse el componente verde porque puede proporcionar el mejor contraste entre los vasos y el fondo.
En algunas implementaciones, el preprocesamiento 606 incluye la aplicación de un esquema de filtrado de mejora de múltiples escalas para mejorar la intensidad de las imágenes, facilitando así la detección y las características de extracción posterior de la estructura vascular. Los parámetros del filtro pueden determinarse empíricamente para tener en cuenta las variaciones en la circunferencia de los vasos sanguíneos. El algoritmo utilizado puede tener buena sensibilidad, buena especificidad para curvas y suprime objetos de otras formas. El algoritmo puede basarse en las segundas derivadas de la imagen. Primero, dado que las segundas derivadas son sensibles al ruido, un segmento de imagen está convolucionado con una función gaussiana. El parámetro o de la función gaussiana puede corresponder al espesor de un vaso sanguíneo. A continuación, para cada elemento de datos de la imagen, se puede construir una matriz de Hesse y pueden calcularse valores propios A1 y A2. En cada matriz de Hesse, las crestas se definen como puntos donde la imagen tiene un extremo en la dirección de la curvatura. La dirección de la curvatura es el vector propio de las derivadas de segundo orden de la imagen que corresponde al valor propio absoluto más grande A. El signo del valor propio determina si es un mínimo local A>0 o máximo A<0. Los valores propios calculados se utilizan luego para filtrar la línea de vasos sanguíneos con las ecuaciones:
I_línea(A1, A2) = lA1l - lA2l si A1 < 0 e I_línea(A1, A2) = 0 si A1 > 0
El diámetro de los vasos sanguíneos varía pero el algoritmo supone que el diámetro está dentro de un intervalo, [d0,d1]. Se pueden emplear filtros de suavizado gaussianos en el intervalo de escala de [d0 / 4, d1 / 4]. Este filtrado se puede repetir N veces según las escalas de suavizado:
el = dO / 4, e2 = r * el, e 2 = rA2 * e l , ... e2 = rA(N-l) * e l = di / 4
Esta salida final puede ser el valor máximo de la salida de todos los filtros individuales de N escalas.
Los descriptores se determinan aplicando un conjunto de filtros a las regiones de la imagen que corresponden a las características de textura de esas regiones de la imagen. Se aplican varios filtros distintos a cada una de las regiones de la imagen para generar una pluralidad de descriptores respectivos para la región. Los distintos filtros incluyen un conjunto de filtros convolucionales, cada uno de los cuales está configurado para describir uno o más aspectos de la vasculatura ocular. El conjunto de filtros de convolución en combinación describe una vasculatura ocular visible en un espacio de características. Los distintos filtros pueden incluir filtros que extraen estadísticas de píxeles (por ejemplo, media, mediana, desviación estándar y entropía) para las regiones de la imagen.
Los descriptores se determinan aplicando un conjunto de filtros de Gabor complejos en varios ángulos a la imagen. Los parámetros del filtro se pueden determinar empíricamente (por ejemplo, usando un análisis de componentes independientes de un corpus de imágenes de vasculatura ocular) para tener en cuenta las variaciones en el espaciado, orientación y circunferencia de los vasos sanguíneos. La fase de la imagen filtrada de Gabor, cuando se binariza utilizando un umbral, facilita la detección y revela una vasculatura visible nítida.
La fase de la compleja imagen filtrada de Gabor refleja los patrones vasculares en diferentes ángulos. La fase de las imágenes filtradas por Gabor puede variar de -n a n radianes. Los valores de fase superiores a 0,25 e inferiores a -0,25 radianes corresponden a estructuras vasculares. Para binarizar la imagen de fase mediante umbrales, todos los valores de fase superiores a 0,25 o inferiores a -0,25 se establecen en uno y los valores restantes en cero. Esto puede dar como resultado una estructura vascular nítida (es decir, bien definida o de alto contraste) en la imagen de fase correspondiente. Esta operación se puede realizar para imágenes resultantes de aplicaciones de múltiples núcleos de Gabor en diferentes ángulos. Todas las imágenes binarizadas resultantes se agregan para revelar una estructura vascular fina y nítida. En algunas implementaciones, se puede utilizar un vector de los elementos de las imágenes de fase binarizadas como vector descriptor para comparar la imagen con un registro de referencia. En algunas implementaciones, se pueden utilizar como vector descriptor las diferencias en los descriptores que reflejan características de textura entre regiones de interés de la imagen. La suma de todos los 1 en un área de imagen binarizada dividida por el área de la región de interés puede reflejar la extensión de la vasculatura visible.
En algunas implementaciones, se pueden aplicar otros filtros convolucionales a las imágenes para determinar 608 descriptores de la textura para regiones (por ejemplo, mosaicos) en las imágenes. Por ejemplo, se puede aplicar una transformada de ondícula o una transformada de Fourier a regiones de las imágenes. Son posibles otros filtros convolucionales. En algunas implementaciones, la determinación 608 de los descriptores puede incluir la determinación de magnitudes o fases de salidas de filtro complejas para una región de una imagen.
En algunas implementaciones, la vasculatura del ojo visible se describe mediante algunos de los 608 descriptores determinados que se basan en estadísticas de coocurrencia de elementos de datos de imagen en una o más de las regiones de la imagen. Por ejemplo, se puede determinar una Matriz de Coocurrencia de Nivel de Grises (GLCM) para cada una de una o más de las regiones (por ejemplo, mosaicos) identificadas mediante la segmentación de la imagen. Se puede determinar una GLCM para un componente de color (por ejemplo, verde, azul o luminancia) de una región en una de las imágenes. A partir de la GLCM se pueden derivar varias estadísticas (por ejemplo, contraste, correlación, energía u homogeneidad).
En algunas implementaciones, utilizando un conjunto de datos de los ojos de diferentes sujetos, se produce un gran conjunto de diversos descriptores estadísticos de GLCM. Para cada región de interés, se producen matrices de GLCM en diferentes niveles de gris, orientaciones, desplazamientos, tamaños de mosaicos y escalas de imágenes. Para cada combinación, las cuatro estadísticas de GLCM antes mencionadas (energía, contraste, correlación y homogeneidad) se pueden calcular para cada mosaico y en diferentes ángulos, y los resultados se pueden concatenar en vectores descriptores (por ejemplo, se producen y concatenan cuatro estadísticas de GLCM de cada mosaico en diferentes conjuntos de ángulos (por ejemplo, 0°, 30°, 60°, 90°, 120° y 150°). Este proceso de extracción de vectores de descriptores se puede repetir para diferentes niveles de gris, desplazamientos, tamaños de mosaico y escalas de imagen. Los vectores de descriptores para coincidencias verdaderas y no coincidentes (regiones de interés del mismo ojo frente a ojos diferentes) se comparan utilizando una métrica de similitud (por ejemplo, correlación o error cuadrático medio). Se producen las curvas ROC para cada combinación (vectores descriptores en diferente escala de imagen, desplazamiento, nivel de gris y tamaño de mosaico utilizados para comparar puntuaciones de coincidencias genuinas e impostoras) y se separan las mejores características (por ejemplo, aquellas con mayor área bajo la curva ROC). Si hay varios conjuntos de descriptores buenos en diferentes configuraciones, sus puntuaciones de coincidencia resultantes se pueden fusionar mediante una regla de suma ponderada.
En algunas implementaciones, la vasculatura del ojo visible se describe mediante algunos de los descriptores determinados 608 que se basan en estadísticas teóricas de la información (por ejemplo, entropía, autosimilitud, dimensión fractal) de elementos de datos de imagen en una o más de las regiones de la imagen. Por ejemplo, la entropía de una región (por ejemplo, un mosaico) de una imagen se puede determinar generando un histograma de los valores de los elementos de datos de la imagen dentro de la región y calculando la entropía para esta distribución como:
I¡ [ -i * ln(h(i)) ]
Donde i es un índice que toma los posibles niveles de elementos de datos de la imagen, h(i) es un recuento de los elementos de datos de la imagen en el contenedor del histograma para ese nivel i, ln() es un logaritmo natural. En algunas implementaciones, se puede determinar una dimensión fractal para la vasculatura en una región usando un algoritmo de recuento de cajas. Por ejemplo, después de aplicar un conjunto de filtros de Gabor y establecer un umbral en las imágenes de fase resultantes para generar una imagen binarizada de la vasculatura en la región, se puede aplicar un análisis de conteo de cajas a la imagen binarizada para determinar la dimensión fractal de la vasculatura.
En algunas implementaciones, la vasculatura del ojo visible se describe local y globalmente mediante algunos de los descriptores determinados 608 que se basan en una o más derivadas estadísticas no convolucionales de elementos de datos de imagen. La vasculatura ocular se describe localmente determinando estadísticas para elementos de imagen de datos en una región pequeña (por ejemplo, un mosaico) de una imagen. La vasculatura ocular se describe globalmente determinando estadísticas para elementos de imagen de datos en una región de interés más grande (por ejemplo, un área izquierda o derecha del iris) o una imagen completa. Por ejemplo, se puede determinar 608 la media o varianza de los valores de los elementos de datos de imagen en una región o imagen.
En algunas implementaciones, los descriptores se determinan 608 aplicando un filtro no lineal. Por ejemplo, se puede aplicar una red neuronal entrenada u otro aproximador de funciones no lineales a las imágenes o regiones (por ejemplo, mosaicos) de las imágenes.
En algunas implementaciones, se aplican varios filtros distintos a cada una de las regiones de la imagen (por ejemplo, mosaicos) y las salidas de estos filtros se combinan para generar una pluralidad de descriptores para la región. Por ejemplo, las salidas (por ejemplo, el cuadrado de la magnitud de cada elemento de datos de imagen de la salida) de múltiples filtros de Gabor aplicados a una región se pueden sumar para revelar imágenes nítidas de las características de la vasculatura del blanco del ojo y las estadísticas pueden determinarse para esta señal de salida combinada para la región.
En algunas implementaciones, los descriptores se determinan 608 basándose en las salidas de una cascada de bancos de filtros que se aplican condicionalmente a las imágenes obtenidas. Algunos ejemplos de dicho proceso se describen en relación con la figura 7 y las figuras 8A-8B.
Por ejemplo, los descriptores pueden determinarse 608 mediante el módulo de autenticación 440, la aplicación de autenticación 550, el módulo de autenticación 525 o el módulo de autenticación 540.
Se determina una puntuación de coincidencia 610 basándose en las características y las características correspondientes de un registro de referencia. El registro de referencia puede incluir datos basados al menos en parte en una o más imágenes de referencia capturadas durante un proceso de inscripción o registro para un usuario. En algunas implementaciones, una puntuación de coincidencia puede determinarse 610 como una distancia (por ejemplo, una distancia euclidiana, un coeficiente de correlación, distancia de Hausdorff modificada, distancia de Mahalanobis, divergencia de Bregman, similitud de coseno, distancia de Kullback-Leibler y divergencia de Jensen-Shannon) entre un vector de características extraídas de una o más imágenes obtenidas y un vector de características del registro de referencia. En algunas implementaciones, la puntuación de coincidencia se puede determinar 610 ingresando características extraídas de una o más imágenes obtenidas y características del registro de referencia en un aproximador de funciones entrenado.
El aproximador de funciones modela el mapeo desde los datos de entrada (es decir, los datos de la imagen de entrenamiento) hasta los datos de salida (es decir, la puntuación de coincidencia resultante) con un conjunto de parámetros del modelo. Los valores de los parámetros del modelo se seleccionan mediante un algoritmo de entrenamiento que se aplica a los datos de entrenamiento. Por ejemplo, el aproximador de funciones puede basarse en los siguientes modelos: regresión lineal, series de Volterra, series de Wiener, funciones de base radial, métodos de núcleo, métodos polinomiales; modelos lineales por partes, redes neuronales, máquinas de vectores de soporte o aproximadores de funciones difusas. Otros modelos son posibles.
En algunas implementaciones, determinar 610 una puntuación de coincidencia puede incluir combinar los descriptores respectivos para cada una de las regiones (por ejemplo, mosaicos) en un vector respectivo para la región y comparar el vector respectivo para la región con un vector derivado de descriptores para una región correspondiente de una imagen de un registro de referencia para generar una puntuación de similitud para la región. La puntuación de coincidencia puede determinarse en parte basándose en puntuaciones de similitud para una o más regiones analizadas.
En algunas implementaciones, se determina una puntuación de coincidencia de fusión basada en la calidad 610 en función de puntuaciones de coincidencia para múltiples imágenes de la misma vasculatura. En algunas implementaciones, las puntuaciones de coincidencia para múltiples imágenes se combinan sumando las puntuaciones de coincidencia en una combinación lineal ponderada con ponderaciones que dependían respectivamente de las puntuaciones de calidad determinadas para cada una de las múltiples imágenes. Otros ejemplos de técnicas que se pueden utilizar para combinar puntuaciones de coincidencia para múltiples imágenes en función de sus respectivas puntuaciones de calidad incluyen mezclas jerárquicas, regla de suma, regla de producto, fusión cerrada, combinación de Dempster-Shafer y generalización apilada, entre otras.
En algunas implementaciones, la puntuación de coincidencia se determina 610 mediante un módulo de autenticación (por ejemplo, el módulo de autenticación 440 que se ejecuta en el dispositivo informático 430).
La puntuación de coincidencia se puede comprobar 612 para determinar si existe una coincidencia entre una o más imágenes obtenidas y el registro de referencia. Por ejemplo, la puntuación de coincidencia se puede comparar con un umbral. Una coincidencia puede reflejar una alta probabilidad de que el usuario cuyo ojo se representa en una o más imágenes obtenidas sea el mismo que una persona asociado con el registro de referencia. Por ejemplo, se puede utilizar un umbral robusto que corresponda a un punto en una vecindad de una curva operativa de receptor tridimensional generada a partir de un análisis de sensibilidad.
Si no hay coincidencia, entonces el usuario puede ser rechazado 614. Como resultado, al usuario se le puede negar el acceso a un dispositivo o servicio seguro (por ejemplo, el dispositivo asegurado 450 o el servicio de transacción segura 523). En algunas implementaciones, se puede informar al usuario del rechazo 614 a través de un mensaje que se muestra en una pantalla o se reproduce a través de un altavoz. En algunas implementaciones, el rechazo puede verse afectado transmitiendo un mensaje a través de una red que refleje el estado del usuario como rechazado. Por ejemplo, el módulo de autenticación 540, al rechazar al usuario 530, puede transmitir un mensaje de rechazo al servidor de transacciones seguras 523 usando una interfaz de red del sistema de servidor 514. El módulo de autenticación 540 también puede enviar un mensaje de rechazo al dispositivo informático del usuario 510 en este escenario.
Si hay una coincidencia, entonces se puede aceptar al usuario 616. Como resultado, al usuario se le puede conceder acceso a un dispositivo o servicio seguro (por ejemplo, el dispositivo asegurado 450 o el servicio de transacción segura 523). En algunas implementaciones, se puede informar al usuario de la aceptación 616 a través de un mensaje que se muestra en una pantalla o se reproduce a través de un altavoz. En algunas implementaciones, la aceptación puede verse afectada transmitiendo un mensaje a través de una red que refleje el estado del usuario como aceptado. Por ejemplo, el módulo de autenticación 540, al aceptar al usuario 530, puede transmitir un mensaje de aceptación al servidor de transacciones seguras 523 usando una interfaz de red del sistema de servidor 514. El módulo de autenticación 540 también puede enviar un mensaje de aceptación al dispositivo informático del usuario 510 en este escenario.
La figura 7 es un diagrama de flujo de un proceso de ejemplo 700 para determinar una puntuación de coincidencia para una o más imágenes de un ojo. Se aplican conjuntos de filtros de Gabor en cada una de una secuencia de escalas de resolución 704 a una o más imágenes que incluyen vistas de regiones de interés en el blanco de un ojo. Los descriptores se determinan 706 basándose en las salidas del filtro y se determina una puntuación de coincidencia parcial comparando los descriptores con los descriptores correspondientes de un registro de referencia. En cada nivel de resolución, se verifica que la puntuación de coincidencia parcial tenga una aceptación de confianza alta o un rechazo de confianza alta para determinar si la puntuación parcial se devolverá como puntuación de coincidencia final o para aplicar el siguiente conjunto de filtros de Gabor en la siguiente escala de resolución más alta. Este proceso se repite hasta que se hayan aplicado resultados de puntuación de coincidencia de alta confianza o la resolución más alta disponible de los filtros de Gabor.
El proceso 700 puede implementarse, por ejemplo, mediante el módulo de autenticación 440 en el dispositivo informático 430 de la figura 4. En algunas implementaciones, el dispositivo informático 430 es un aparato de procesamiento de datos que incluye uno o más procesadores que están configurados para realizar acciones del proceso 700. Por ejemplo, el aparato de procesamiento de datos puede ser un dispositivo informático (por ejemplo, como se ilustra en la figura 9). En algunas implementaciones, el proceso 700 puede implementarse total o parcialmente mediante la aplicación de autenticación 550 que es ejecutada por un dispositivo informático de usuario (por ejemplo, el dispositivo informático 510). Por ejemplo, el dispositivo informático del usuario puede ser un dispositivo informático móvil (por ejemplo, el dispositivo informático móvil 950 de la figura 9). En algunas implementaciones, el proceso 700 puede implementarse total o parcialmente mediante el módulo de autenticación 540 que es ejecutado por un sistema servidor de usuario (por ejemplo, el sistema servidor 514). En algunas implementaciones, el sistema servidor 514 es un aparato de procesamiento de datos que incluye uno o más procesadores que están configurados para realizar acciones del proceso 700. Por ejemplo, el aparato de procesamiento de datos puede ser un dispositivo informático (por ejemplo, como se ilustra en la figura 9). En algunas implementaciones, un medio legible por computadora puede incluir instrucciones que cuando se ejecutan por un dispositivo informático (por ejemplo, un sistema informático) hacen que el dispositivo realice acciones del proceso 700.
Se selecciona 702 un primer conjunto de filtros de Gabor con escala de baja resolución para su uso en la extracción de descriptores de una o más imágenes que incluyen una vista del blanco de un ojo. Los filtros de Gabor tienen núcleos complejos que se utilizan para convolucionar imágenes de entrada. La parte real del núcleo de Gabor está dada por
Y la parte imaginaria viene dada por
Donde X e y son las coordenadas de píxeles de la imagen, A es la frecuencia espacial, 0 es la orientación del núcleo, o es la dispersión del núcleo (desviación estándar), y<y>es la relación de aspecto espacial, y
La escala de resolución de los filtros de Gabor está controlada principalmente por el parámetro de dispersión del núcleo (o). En algunas implementaciones, el primer conjunto de filtros de Gabor se selecciona con 0 = {0°, 30°, 60°, 90°, 120°, 150°}, s = 20 píxeles, A = 6; y y = 1. Los parámetros del filtro de Gabor se pueden seleccionar para que coincidan con los filtros de Gabor correspondientes que se utilizaron para derivar descriptores almacenados en un registro de referencia.
La elección de la frecuencia puede depender de la distancia entre los vasos, que a su vez depende de la resolución y la distancia entre el sistema de adquisición de imágenes y el sujeto. Estos parámetros pueden ser invariantes para las imágenes. Por ejemplo, los parámetros del núcleo se pueden derivar para imágenes oculares capturadas a una distancia de 6 a 12 centímetros del ojo usando un sensor particular (por ejemplo, una cámara trasera en un teléfono inteligente) y la región de la esclerótica segmentada se puede cambiar de tamaño a una resolución de (por ejemplo, 401x501 píxeles) para el análisis. La vasculatura visible de la superficie del ojo puede extenderse en todas las direcciones de la parte blanca del ojo.
El conjunto seleccionado de filtros de Gabor se aplica 704 a cada una de las regiones de la imagen que se ha seleccionado para el análisis por segmentación. Por ejemplo, una o más imágenes pueden codificarse como matrices de dos, tres o cuatro dimensiones de elementos de datos de imagen (por ejemplo, un píxel, un vóxel, un rayo o un valor de canal rojo, verde o azul). Como se analizó anteriormente, las imágenes se pueden segmentar identificando regiones de interés (por ejemplo, áreas del blanco del ojo izquierdo o derecho del iris) en las imágenes obtenidas y segmentando aún más estas regiones de interés en regiones más pequeñas llamadas mosaicos. En algunas implementaciones, los mosaicos se analizan utilizando los filtros de Gabor y los descriptores se derivan de las salidas del filtro correspondientes a cada mosaico. Los filtros se pueden aplicar 704 convolucionando cada núcleo de Gabor con las imágenes de entrada o cada mosaico u otras regiones seleccionadas de las imágenes de entrada. En algunas implementaciones, la operación de convolución se puede llevar a cabo multiplicando las representaciones en el dominio de la frecuencia de las imágenes de entrada y los núcleos de Gabor y luego transformando el resultado nuevamente al dominio espacial. Por ejemplo, los filtros de Gabor pueden aplicarse 704 mediante un módulo o aplicación de autenticación (por ejemplo, el módulo de autenticación 440).
Los descriptores se determinan 706 a partir de las salidas de los filtros de Gabor para cada región seleccionada de las imágenes. Las salidas de los filtros de Gabor pueden ser complejas. En algunas implementaciones, la magnitud promedio o mediana de los elementos de datos de imagen en un mosaico de salida de un filtro de Gabor se toma como descriptor. En algunas implementaciones, la fase promedio o mediana de los elementos de datos de la imagen en un mosaico de la salida de un filtro de Gabor se toma como descriptor. En algunas implementaciones, el conjunto de descriptores para cada mosaico u otra región seleccionada se ensambla para formar un vector de descriptores. El vector de descriptores puede describir una vasculatura ocular visible en un espacio de características. Por ejemplo, los descriptores pueden determinarse 706 mediante un módulo o aplicación de autenticación (por ejemplo, el módulo de autenticación 440).
Se determina una puntuación de coincidencia parcial 708 basándose en un subconjunto de descriptores para la(s) escala(s) de baja resolución que se han procesado hasta el momento y los descriptores correspondientes de un registro de referencia. En la primera iteración, los descriptores de los filtros de escala de resolución más baja se comparan con los descriptores correspondientes de un registro de referencia. En cada iteración sucesiva, se agregan al análisis descriptores adicionales para los siguientes filtros de escala de resolución más alta junto con sus descriptores correspondientes del archivo de referencia. En algunas implementaciones, el número de elementos en un vector descriptor se expande en cada iteración y el vector descriptor se compara con un vector descriptor correspondiente del registro de referencia. Los elementos del vector del registro de referencia se pueden seleccionar de un conjunto posiblemente mayor de descriptores almacenados usando descriptores para mosaicos que están registrados conjuntamente (es decir, correspondientes a la misma área local del blanco del ojo con una posición que es especificado en relación con el iris u otros puntos de referencia) con los mosaicos para los descriptores correspondientes en el vector de descriptor determinado. En algunas implementaciones, una puntuación de coincidencia parcial puede determinarse 708 como una distancia (por ejemplo, una distancia euclidiana, un coeficiente de correlación, una distancia de Hausdorff modificada, una distancia de Mahalanobis, una divergencia de Bregman, una similitud de coseno, una distancia de Kullback-Leibler y una divergencia de Jensen-Shannon) entre el vector determinado de descriptores extraídos de las imágenes y un vector de descriptores del registro de referencia. En algunas implementaciones, la puntuación de coincidencia parcial se puede determinar 807 ingresando el vector descriptor determinado y el vector descriptor del registro de referencia en un aproximador de función entrenado.
El aproximador de funciones se puede entrenar usando datos correspondientes a imágenes de entrenamiento de los ojos de una persona registrado asociado con un registro de referencia y otros individuos no registrados que han sido etiquetados correctamente para proporcionar una señal de salida deseada que refleja si existe una coincidencia con el registro de referencia. El aproximador de funciones modela el mapeo desde los datos de entrada (es decir, los descriptores de imágenes de entrenamiento) hasta los datos de salida (es decir, una puntuación de coincidencia parcial) con un conjunto de parámetros del modelo. Los valores de los parámetros del modelo se seleccionan mediante un algoritmo de entrenamiento que se aplica a los datos de entrenamiento. Por ejemplo, el aproximador de funciones puede basarse en los siguientes modelos: regresión lineal, series de Volterra, series de Wiener, funciones de base radial, métodos de núcleo, métodos polinomiales; modelos lineales por partes, redes neuronales, máquinas de vectores de soporte o aproximadores de funciones difusas.
En algunas implementaciones, el vector de descriptor determinado se compara con múltiples vectores de descriptor alternativos de un registro de referencia y se utiliza la puntuación de coincidencia parcial promedio o mejor.
Por ejemplo, la puntuación de coincidencia parcial puede determinarse 708 mediante un módulo o aplicación de autenticación (por ejemplo, el módulo de autenticación 440).
La puntuación de coincidencia parcial se puede comprobar 710 para detectar un rechazo de alta confianza. En algunas implementaciones, la puntuación de coincidencia parcial se compara con un umbral (por ejemplo, 0,3) que corresponde a un alto nivel de confianza al rechazar al usuario o una probabilidad muy baja de coincidencia entre el usuario y el registro de referencia. Por ejemplo, el umbral se puede establecer en un valor obtenido usando un punto de operación en una curva característica de operación del receptor (ROC) de un clasificador (generada usando datos de entrenamiento para los descriptores seleccionados) en 0 puntos de falso rechazo. Si la puntuación de coincidencia parcial es peor que el umbral, la puntuación de coincidencia parcial se devuelve 712, posiblemente después de la traducción a una escala diferente, y puede ser utilizada por un proceso de llamada para rechazar al usuario.
En algunas implementaciones, se puede tolerar una mayor probabilidad de error y el umbral se puede obtener usando un punto diferente en la curva ROC correspondiente a un nivel de error distinto de cero pero aceptablemente pequeño.
De lo contrario, se puede comprobar la puntuación de coincidencia parcial 714 para una aceptación de confianza alta. En algunas implementaciones, la puntuación de coincidencia parcial se compara con un umbral (por ejemplo, 0,65) que corresponde a un alto nivel de confianza en la aceptación del usuario o una probabilidad muy alta de una coincidencia entre el usuario y el registro de referencia. Por ejemplo, el umbral se puede establecer en un valor obtenido usando un punto operativo en una curva ROC de un clasificador (generada usando datos de entrenamiento para los descriptores seleccionados) en 0 punto de aceptación falsa. Si la puntuación de coincidencia parcial es mejor que el umbral, la puntuación de coincidencia parcial se devuelve 712 y puede ser utilizada por un proceso de llamada para aceptar al usuario.
De lo contrario, si aún no se han aplicado 716 filtros de Gabor de escala de resolución más alta a las imágenes, entonces se selecciona 718 un conjunto de los siguientes filtros de Gabor de escala de resolución más alta. Por ejemplo, las escalas de resolución disponibles pueden corresponder a o = {20, 10, 5, 2,5} píxeles. También se pueden variar otros parámetros de los filtros de Gabor. El siguiente conjunto seleccionado de filtros de Gabor se aplica 704 entonces en la siguiente iteración del proceso 700.
Si 716 filtros de Gabor de escala de mayor resolución no están disponibles (es decir, no hay datos de descriptor correspondientes en el registro de referencia), entonces la última puntuación de coincidencia parcial se devuelve 720 como puntuación de coincidencia, posiblemente después de la traducción a una escala diferente, y puede ser utilizado por un proceso de llamada para aceptar o rechazar al usuario.
Las figuras 8A y 8B son un diagrama de flujo de un proceso 800 de ejemplo para determinar una puntuación de coincidencia para una o más imágenes de un ojo. El proceso de ejemplo aplica una cascada de filtros de tres capas ejecutada condicionalmente para determinar puntuaciones de coincidencia basadas en descriptores derivados de las salidas del filtro. Por ejemplo, el proceso 800 puede implementarse mediante un módulo o aplicación de autenticación (por ejemplo, el módulo de autenticación 440).
El componente de color verde de una o más imágenes se recupera 802. El componente verde puede presentar un nivel de contraste particularmente alto para la vasculatura de la parte blanca del ojo. Es posible que las imágenes hayan sido segmentadas previamente para identificar una o más regiones de interés (por ejemplo, áreas de la parte blanca del ojo a la izquierda y a la derecha del iris). El componente de color verde en estas regiones de interés se extrae y se pasa a un primer banco de filtros en cascada.
Se aplica 804 un banco de filtros de Gabor complejos a las imágenes verdes en las regiones de interés. Los filtros se pueden aplicar 804 convolucionando cada núcleo de Gabor con las imágenes de entrada. En algunas implementaciones, la operación de convolución se puede llevar a cabo multiplicando las representaciones en el dominio de la frecuencia de las imágenes de entrada y los núcleos de Gabor y luego transformando el resultado nuevamente al dominio espacial. En algunas implementaciones, se utilizan seis filtros de Gabor, cada uno con una orientación de núcleo diferente 0. Por ejemplo, los filtros de Gabor con 0 = {0°, 30°, 60°, 90°, 120°, 150°}, o = 2,5 píxeles, A = 6; y<y>= 1 se puede aplicar 804 a las regiones de interés en las imágenes. En algunas implementaciones, la fase de las salidas del filtro complejo se determina para cada elemento de datos de la imagen (por ejemplo, cada píxel) usando una función arcotangente.
Las regiones de interés en las imágenes de fase resultantes están dispuestas en mosaico 806 en pequeñas subregiones. Por ejemplo, una región de interés correspondiente al blanco del ojo a la izquierda del iris puede dividirse en mosaico 806 en aproximadamente 80 mosaicos dispuestos en una cuadrícula de 8 por 10, donde cada mosaico puede tener 50 píxeles por 50 píxeles. En algunas implementaciones, algunos de estos mosaicos cerca de los bordes de la región de la esclerótica expuesta pueden eliminarse. Por ejemplo, se pueden eliminar mosaicos con menos del 80 % de sus elementos de datos de imagen dentro de la región de la esclerótica. En algunos casos, partes del área de la losa pueden quedar obstruidas por reflejos o artefactos en las pestañas, que, si son lo suficientemente graves, pueden provocar la eliminación del mosaico.
A continuación, se establece un umbral 808 para la fase de las imágenes de fase en mosaico para convertir las imágenes de fase en imágenes binarias (es decir, imágenes con elementos de datos que adoptan uno de dos valores posibles). La fase de las imágenes filtradas por Gabor puede variar de - n a n radianes. Por ejemplo, los valores de fase superiores a 0,25 e inferiores a -0,25 radianes pueden corresponder a estructuras vasculares. Para binarizar la imagen de fase usando umbrales, todos los valores de fase por encima de 0,25 o por debajo de -0,25 se pueden establecer en uno y los valores restantes en cero. Esto puede dar como resultado una estructura vascular nítida en la imagen de fase correspondiente. Esta operación se puede realizar para imágenes resultantes de aplicaciones de los seis núcleos de Gabor en diferentes ángulos.
Se determina 810 un vector de descriptores basándose en las imágenes de fase filtradas binarizadas de cada uno de los filtros de Gabor. La suma de todos los unos en un área de imagen binarizada (por ejemplo, un mosaico) dividida por el área de la región de interés puede reflejar la extensión de la vasculatura visible. En algunas implementaciones, la media de los valores de los elementos de datos de imagen binarizados en cada mosaico se determina y se toma como descriptor. El conjunto de valores medios para cada mosaico se puede combinar para formar un vector descriptor. Por ejemplo, las imágenes de un solo ojo pueden incluir dos regiones de interés (por ejemplo, izquierda y derecha del iris), cada una con seis ángulos de orientación (0), cada uno con 80 mosaicos (cuadrícula de 8x10), lo que da como resultado un vector descriptor con 960 elementos o descriptores.
Una puntuación de coincidencia se determina 812 comparando el vector descriptor determinado con un vector descriptor de referencia de un registro de referencia. Los elementos del vector del registro de referencia se pueden seleccionar de un conjunto posiblemente mayor de descriptores almacenados usando descriptores para mosaicos que están registrados conjuntamente (es decir, correspondientes a la misma área local del blanco del ojo con una posición que es especificado en relación con el iris u otros puntos de referencia) con los mosaicos para los descriptores correspondientes en el vector de descriptor determinado. En algunas implementaciones, una puntuación de coincidencia puede determinarse 812 como una distancia (por ejemplo, una distancia euclidiana, un coeficiente de correlación, una distancia de Hausdorff modificada, una distancia de Mahalanobis, una divergencia de Bregman, una similitud de coseno, una distancia de Kullback-Leibler y una divergencia de Jensen-Shannon) entre el vector determinado de descriptores extraídos de las imágenes y un vector de descriptores del registro de referencia. En algunas implementaciones, la puntuación de coincidencia se puede determinar 812 ingresando el vector descriptor determinado y el vector descriptor del registro de referencia en un aproximador de función entrenado. En algunas implementaciones, el vector de descriptor determinado se compara con múltiples vectores de descriptor alternativos de un registro de referencia y se utiliza la puntuación de coincidencia promedio o mejor.
Esta primera puntuación de coincidencia se puede comprobar 814 para detectar un rechazo de alta confianza. En algunas implementaciones, la primera puntuación de coincidencia se compara con un umbral (por ejemplo, 0,3) que corresponde a un alto nivel de confianza al rechazar al usuario o una probabilidad muy baja de coincidencia entre el usuario y el registro de referencia. Por ejemplo, el umbral se puede establecer en un valor obtenido usando un punto de operación en una curva característica de operación del receptor (ROC) de un clasificador (generada usando datos de entrenamiento para la primera capa de la cascada) en 0 puntos de falso rechazo. Si la primera puntuación de coincidencia es peor que el umbral, la primera puntuación de coincidencia se devuelve 816, posiblemente después de la traducción a una escala diferente, y puede ser utilizada por un proceso de llamada para rechazar al usuario.
De lo contrario, se puede comprobar la primera puntuación de coincidencia 818 para una aceptación de confianza alta. En algunas implementaciones, la primera puntuación de coincidencia se compara con un umbral (por ejemplo, 0,65) que corresponde a un alto nivel de confianza en la aceptación del usuario o una probabilidad muy alta de una coincidencia entre el usuario y el registro de referencia. Por ejemplo, el umbral se puede establecer en un valor obtenido usando un punto operativo en una curva ROC de un clasificador (generada usando datos de entrenamiento para la primera capa de la cascada) en 0 puntos de aceptación falsa. Si la primera puntuación de coincidencia es mejor que el umbral, la primera puntuación de coincidencia se devuelve 816, posiblemente después de la traducción a una escala diferente, y puede ser utilizada por un proceso de llamada para aceptar al usuario. De lo contrario, se aplica la segunda capa de la cascada de filtros ejecutada condicionalmente.
En este ejemplo, la segunda capa utiliza los mismos filtros de Gabor que operan en las mismas imágenes de entrada del componente de color verde, por lo que las imágenes de fase filtradas determinadas previamente se pueden reutilizar. En general, se pueden utilizar diferentes bancos de filtros en cada capa de la cascada.
En la segunda capa de la cascada, se determina un segundo vector descriptor 830 basándose en las imágenes de fase filtradas que no han sido binarizadas, es decir, los elementos de datos de la imagen adoptan más de dos valores posibles. Se determina un descriptor para cada mosaico de cada salida de filtro para cada región de interés determinando una media de los valores de fase dentro del mosaico. El segundo vector de descriptores se forma a partir del conjunto de descriptores de cada uno de estos mosaicos.
Se determina una segunda puntuación de coincidencia 832 comparando el vector descriptor determinado con un vector descriptor de referencia de un registro de referencia. Los elementos del vector del registro de referencia se pueden seleccionar de un conjunto posiblemente mayor de descriptores almacenados usando descriptores para mosaicos que están registrados conjuntamente (es decir, correspondientes a la misma área local del blanco del ojo con una posición que es especificado en relación con el iris u otros puntos de referencia) con los mosaicos para los descriptores correspondientes en el vector de descriptor determinado. En algunas implementaciones, una segunda puntuación de coincidencia puede determinarse 812 como una distancia (por ejemplo, una distancia euclidiana, un coeficiente de correlación, una distancia de Hausdorff modificada, una distancia de Mahalanobis, una divergencia de Bregman, una similitud de coseno, una distancia de Kullback-Leibler y una divergencia de Jensen-Shannon) entre el vector determinado de descriptores extraídos de las imágenes y un vector de descriptores del registro de referencia. En algunas implementaciones, la segunda puntuación de coincidencia se puede determinar 832 ingresando el vector descriptor determinado y el vector descriptor del registro de referencia en un aproximador de función entrenado. En algunas implementaciones, el vector de descriptor determinado se compara con múltiples vectores de descriptor alternativos de un registro de referencia y se utiliza la puntuación de coincidencia promedio o mejor.
La segunda puntuación de coincidencia se puede comprobar 834 para detectar un rechazo de alta confianza. En algunas implementaciones, la segunda puntuación de coincidencia se compara con un umbral (por ejemplo, 0,45) que corresponde a un alto nivel de confianza al rechazar al usuario o una probabilidad muy baja de coincidencia entre el usuario y el registro de referencia. Por ejemplo, el umbral se puede establecer en un valor obtenido usando un punto operativo en una curva ROC de un clasificador (generada usando datos de entrenamiento para la segunda capa de la cascada) en 0 puntos de falso rechazo. Si la segunda puntuación de coincidencia es peor que el umbral, la segunda puntuación de coincidencia se devuelve 836, posiblemente después de la traducción a una escala diferente, y puede ser utilizada por un proceso de llamada para rechazar al usuario.
De lo contrario, se puede comprobar la segunda puntuación de coincidencia 838 para una aceptación de confianza alta. En algunas implementaciones, la segunda puntuación de coincidencia se compara con un umbral (por ejemplo, 0,8) que corresponde a un alto nivel de confianza en la aceptación del usuario o una probabilidad muy alta de una coincidencia entre el usuario y el registro de referencia. Por ejemplo, el umbral se puede establecer en un valor obtenido usando un punto operativo en una curva ROC de un clasificador (generada usando datos de entrenamiento para la segunda capa de la cascada) en 0 puntos de falsa aceptación. Si la segunda puntuación de coincidencia es mejor que el umbral, la segunda puntuación de coincidencia se devuelve 816, posiblemente después de la traducción a una escala diferente, y puede ser utilizada por un proceso de llamada para aceptar al usuario. De lo contrario, se aplica la tercera capa de la cascada de filtros ejecutada condicionalmente.
Con referencia ahora a la figura 8B, se aplica filtrado CLAHE 850 a los componentes de color verde para cada una de las regiones de interés en las imágenes obtenidas. Las imágenes verdes mejoradas están divididas en mosaico 852 en pequeñas subregiones. Por ejemplo, una región de interés correspondiente al blanco del ojo a la izquierda del iris puede dividirse en mosaico 806 en aproximadamente 80 mosaicos dispuestos en una cuadrícula de 8 por 10, donde cada mosaico puede tener 50 píxeles por 50 píxeles. En algunas implementaciones, algunos de estos mosaicos cerca de los bordes de la región de la esclerótica expuesta pueden eliminarse. Por ejemplo, se pueden eliminar mosaicos con menos del 80 % de sus elementos de datos de imagen dentro de la región de la esclerótica. En algunos casos, partes del área de la losa pueden quedar obstruidas por reflejos o artefactos en las pestañas, que, si son lo suficientemente graves, pueden provocar la eliminación del mosaico.
Se determina un vector de descriptores 854 basándose en las imágenes verdes mejoradas. La intensidad promedio de las imágenes verdes mejoradas en un mosaico puede reflejar la extensión de la vasculatura visible en el mosaico. En algunas implementaciones, la media de los valores de los elementos de datos de imagen en cada mosaico se determina y se toma como descriptor. El conjunto de valores medios para cada mosaico se puede combinar para formar un vector descriptor. Por ejemplo, las imágenes de un solo ojo pueden incluir dos regiones de interés (por ejemplo, izquierda y derecha del iris), cada una con 80 mosaicos (cuadrícula de 8x10), lo que da como resultado un vector descriptor con 160 elementos o descriptores.
Se determina una tercera puntuación de coincidencia 856 comparando el vector descriptor determinado con un vector descriptor de referencia de un registro de referencia. Los elementos del vector del registro de referencia se pueden seleccionar de un conjunto posiblemente mayor de descriptores almacenados usando descriptores para mosaicos que están registrados conjuntamente (es decir, correspondientes a la misma área local del blanco del ojo con una posición que es especificado en relación con el iris u otros puntos de referencia) con los mosaicos para los descriptores correspondientes en el vector de descriptor determinado. En algunas implementaciones, una tercera puntuación de coincidencia puede determinarse 856 como una distancia (por ejemplo, una distancia euclidiana, un coeficiente de correlación, una distancia de Hausdorff modificada, una distancia de Mahalanobis, una divergencia de Bregman, una similitud de coseno, una distancia de Kullback-Leibler y una divergencia de Jensen-Shannon) entre el vector determinado de descriptores extraídos de las imágenes y un vector de descriptores del registro de referencia. En algunas implementaciones, la tercera puntuación de coincidencia se puede determinar 856 ingresando el vector descriptor determinado y el vector descriptor del registro de referencia en un aproximador de función entrenado.
La tercera puntuación de coincidencia se puede comprobar 858 para detectar un rechazo de alta confianza. En algunas implementaciones, la tercera puntuación de coincidencia se compara con un umbral (por ejemplo, 0,82) que corresponde a un alto nivel de confianza al rechazar al usuario o una probabilidad muy baja de coincidencia entre el usuario y el registro de referencia. Por ejemplo, el umbral se puede establecer en un valor obtenido usando un punto operativo en una curva ROC de un clasificador (generada usando datos de entrenamiento para la tercera capa de la cascada) en 0 puntos de falso rechazo. Si la tercera puntuación de coincidencia es peor que el umbral, la tercera puntuación de coincidencia se devuelve 860, posiblemente después de la traducción a una escala diferente, y puede ser utilizada por un proceso de llamada para rechazar al usuario. En algunas implementaciones, el vector de descriptor determinado se compara con múltiples vectores de descriptor alternativos de un registro de referencia y se utiliza la puntuación de coincidencia promedio o mejor.
De lo contrario, se puede comprobar la tercera puntuación de coincidencia 862 para una aceptación de confianza alta. En algunas implementaciones, la tercera puntuación de coincidencia se compara con un umbral (por ejemplo, 0,86) que corresponde a un alto nivel de confianza en la aceptación del usuario o una probabilidad muy alta de una coincidencia entre el usuario y el registro de referencia. Por ejemplo, el umbral se puede establecer en un valor obtenido usando un punto operativo en una curva ROC de un clasificador (generada usando datos de entrenamiento para la tercera capa de la cascada) en 0 puntos de falsa aceptación. Si la tercera puntuación de coincidencia es mejor que el umbral, la tercera puntuación de coincidencia se devuelve 860, posiblemente después de la traducción a una escala diferente, y puede ser utilizada por un proceso de llamada para aceptar al usuario.
De lo contrario, se solicitan imágenes adicionales 864 y la primera capa de la cascada de filtros ejecutada condicionalmente se aplica a las imágenes adicionales. En algunas implementaciones, es posible que se hayan capturado previamente imágenes adicionales y se recuperen de un proceso de llamada o de un dispositivo remoto (por ejemplo, el dispositivo informático del usuario 510). En algunas implementaciones, se pueden capturar imágenes adicionales solicitando a un usuario (por ejemplo, usando la pantalla 424) que envíe más imágenes a través de un sensor (por ejemplo, el sensor de luz 420).
En algunas implementaciones, que no se muestran, la cascada condicional de filtros puede incluir capas adicionales con diferentes filtros, y cada capa utiliza umbrales de confianza establecidos en 0 puntos de falso rechazo y 0 puntos de falsa aceptación en las curvas ROC para esa etapa.
La figura 9 muestra un ejemplo de un dispositivo informático genérico 900 y un dispositivo informático móvil genérico 950, que pueden usarse con las técnicas aquí descritas. El dispositivo informático 900 está destinado a representar diversas formas de ordenadores digitales, tales como portátiles, ordenadores de sobremesa, estaciones de trabajo, asistentes digitales personales, servidores, servidores blade, ordenadores centrales y otros ordenadores apropiados. El dispositivo informático 950 está destinado a representar diversas formas de dispositivos móviles, tales como asistentes inteligentes, teléfonos celulares, teléfonos inteligentes y otros dispositivos informáticos similares. Los componentes mostrados aquí, sus conexiones y relaciones, y sus funciones, están destinados a ser únicamente ejemplares, y no están destinados a limitar las implementaciones de las invenciones descritas y/o reivindicadas en este documento.
El dispositivo informático 900 incluye un procesador 902, una memoria 904, un dispositivo de almacenamiento 906, una interfaz de alta velocidad 908 que se conecta a la memoria 904 y puertos de expansión de alta velocidad 910 y una interfaz de baja velocidad 912 que se conecta al bus de baja velocidad 914 y al dispositivo de almacenamiento 906. Cada uno de los componentes 902, 904, 906, 908, 910 y 912 están interconectados usando varios buses y pueden montarse en una placa base común o de otras maneras según sea apropiado. El procesador 902 puede procesar instrucciones para su ejecución dentro del dispositivo informático 900, incluyendo instrucciones almacenadas en la memoria 904 o en el dispositivo de almacenamiento 906 para mostrar información gráfica para una GUI en un dispositivo de entrada/salida externo, tal como la pantalla 916 acoplada a la interfaz de alta velocidad 908. En otras implementaciones, pueden usarse múltiples procesadores y/o múltiples buses, según sea apropiado, junto con múltiples memorias y tipos de memoria. Además, se pueden conectar múltiples dispositivos informáticos 900, con cada dispositivo proporcionando porciones de las operaciones necesarias (por ejemplo, como un banco de servidores, un grupo de servidores blade o un sistema multiprocesador).
La memoria 904 almacena información dentro del dispositivo informático 900. En una implementación, la memoria 904 es una unidad o unidades de memoria volátil. En otra implementación, la memoria 904 es una unidad o unidades de memoria no volátil. La memoria 904 puede ser también otra forma de medio legible por ordenador, tal como un disco magnético u óptico.
El dispositivo de almacenamiento 906 es capaz de proporcionar almacenamiento masivo para el dispositivo informático 900. En una implementación, el dispositivo de almacenamiento 906 puede ser o contener un medio legible por ordenador, tal como un dispositivo de disquete, un dispositivo de disco duro, un dispositivo de disco óptico o un dispositivo de cinta, una memoria flash u otro dispositivo similar de memoria de estado sólido, o una matriz de dispositivos, incluyendo dispositivos en una red de área de almacenamiento u otras configuraciones. Un producto de programa informático puede realizarse de forma tangible en un soporte de información. El producto del programa informático también puede contener instrucciones que, cuando se ejecutan, realizan uno o más métodos, tal como los descritos anteriormente. El soporte de información es un medio legible por ordenador o máquina, tal como la memoria 904, el dispositivo de almacenamiento 906 o una memoria en el procesador 902, por ejemplo.
El controlador de alta velocidad 908 gestiona las operaciones intensivas de ancho de banda para el dispositivo informático 900, mientras que el controlador de baja velocidad 912 gestiona operaciones de intensidad de banda más baja. Esta asignación de funciones es solamente ejemplar. En una implementación, el controlador de alta velocidad 908 está acoplado a la memoria 904, pantalla 916 (por ejemplo, a través de un procesador gráfico o acelerador), y a puertos de expansión de alta velocidad 910, que pueden aceptar varias tarjetas de expansión (no mostradas). En la implementación, el controlador de baja velocidad 912 está acoplado al dispositivo de almacenamiento 906 y al puerto de expansión de baja velocidad 914. El puerto de expansión de baja velocidad, que puede incluir varios puertos de comunicación (por ejemplo, USB, Bluetooth, Ethernet, Ethernet inalámbrica) puede acoplarse a uno o más dispositivos de entrada/salida, tal como un teclado, un dispositivo señalador, un escáner o un dispositivo de red, tal como un conmutador o enrutador, por ejemplo, a través de un adaptador de red.
El dispositivo de cálculo 900 puede implementarse en una serie de formas diferentes, como se muestra en la figura. Por ejemplo, puede implementarse como un servidor estándar 920, o varias veces en un grupo de tales servidores. También se puede implementar como parte de un sistema de servidor de bastidor 924. Además, puede implementarse en un ordenador personal, tal como un ordenador portátil 922. Alternativamente, los componentes del dispositivo informático 900 pueden combinarse con otros componentes en un dispositivo móvil (no mostrado), tal como el dispositivo 950. Cada uno de tales dispositivos puede contener uno o más dispositivos informáticos 900, 950, y un sistema completo puede estar constituido por múltiples dispositivos informáticos 900, 950 que se comunican entre sí.
El dispositivo informático 950 incluye un procesador 952, una memoria 964, un dispositivo de entrada/salida tal como una pantalla 954, una interfaz de comunicación 966 y un transceptor 968, entre otros componentes. El dispositivo 950 también puede estar provisto de un dispositivo de almacenamiento, tal como un microcontrolador u otro dispositivo, para proporcionar almacenamiento adicional. Cada uno de los componentes 950, 952, 964, 954, 966 y 968 están interconectados usando varios buses y varios de los componentes pueden montarse en una placa base común o de otras maneras según sea apropiado.
El procesador 952 puede ejecutar instrucciones dentro del dispositivo informático 950, incluyendo instrucciones almacenadas en la memoria 964. El procesador puede implementarse como un chipset de chips que incluyen procesadores analógicos y digitales separados y múltiples. El procesador puede proporcionar, por ejemplo, la coordinación de los otros componentes del dispositivo 950, tales como el control de las interfaces de usuario, las aplicaciones ejecutadas por el dispositivo 950 y la comunicación inalámbrica por el dispositivo 950.
El procesador 952 puede comunicarse con un usuario a través de la interfaz de control 958 y la interfaz de visualización 956 acoplada a un visualizador 954. La pantalla 954 puede ser, por ejemplo, una pantalla LCD TFT (pantalla de cristal líquido de transistor de película delgada) o una pantalla OLED (diodo orgánico emisor de luz) u otra tecnología de pantalla apropiada. La interfaz de visualización 956 puede comprender circuitos apropiados para accionar la pantalla 954 para presentar información gráfica y de otro tipo a un usuario. La interfaz de control 958 puede recibir órdenes de un usuario y convertirlas para su presentación al procesador 952. Además, puede proporcionarse una interfaz externa 962 en comunicación con el procesador 952, para permitir la comunicación cercana al área del dispositivo 950 con otros dispositivos. La interfaz externa 962 puede proporcionar, por ejemplo, comunicación por cable en algunas implementaciones, o para comunicación inalámbrica en otras implementaciones, y también se pueden usar múltiples interfaces.
La memoria 964 almacena información dentro del dispositivo informático 950. La memoria 964 puede implementarse como una o más de un medio o medios legibles por ordenador, una unidad o unidades de memoria volátil, o una unidad o unidades de memoria no volátil. La memoria de expansión 974 también puede proporcionarse y conectarse al dispositivo 950 a través de la interfaz de expansión 972, que puede incluir, por ejemplo, una interfaz de tarjeta SIMM (módulo de memoria en línea simple). Dicha memoria de expansión 974 puede proporcionar un espacio de almacenamiento adicional para el dispositivo 950, o también puede almacenar aplicaciones u otra información para el dispositivo 950. Específicamente, la memoria de expansión 974 puede incluir instrucciones para realizar o complementar los procesos descritos anteriormente, y puede incluir también información segura. Así, por ejemplo, la memoria de expansión 974 se puede proporcionar como un módulo de seguridad para el dispositivo 950 y puede programarse con instrucciones que permitan el uso seguro del dispositivo 950. Además, se pueden proporcionar aplicaciones seguras a través de las tarjetas SIMM, junto con información adicional, como colocar la información de identificación en la tarjeta SIMM de una manera no se puede piratear.
La memoria puede incluir, por ejemplo, memoria flash y/o memoria NVRAM, como se describe a continuación. En una implementación, un producto de programa informático se realiza de forma tangible en un soporte de información. El producto del programa informático también contiene instrucciones que, cuando se ejecutan, realizan uno o más métodos, tal como los descritos anteriormente. El soporte de información es un medio legible por ordenador o máquina, tal como la memoria 964, memoria de expansión 974, memoria en el procesador 952, o una señal propagada que puede recibirse, por ejemplo, sobre el transceptor 968 o la interfaz externa 962.
El dispositivo 950 puede comunicarse de forma inalámbrica a través de la interfaz de comunicación 966, que puede incluir circuitos de procesamiento de señales digitales cuando sea necesario. La interfaz de comunicación 966 puede proporcionar comunicaciones bajo diversos modos o protocolos, tales como llamadas de voz GSM, mensajes SMS, EMS o MMS, CDMA, TDMA, PDC, WCDMA, CDMA2000 o GPRS, entre otros. Esta comunicación puede producirse, por ejemplo, a través de transceptor 968 de radiofrecuencia. Además, puede producirse una comunicación de corto alcance, tal como el uso de un Bluetooth, WiFi u otro transceptor de este tipo (no mostrado). Además, el módulo receptor GPS (sistema de posicionamiento global) 970 puede proporcionar datos inalámbricos relacionados con la navegación y la localización adicionales al dispositivo 950, que pueden ser utilizados según corresponda por aplicaciones que funcionan en el dispositivo 950.
El dispositivo 950 también puede comunicarse audiblemente usando códec de audio 960, que puede recibir información hablada de un usuario y convertirla a información digital utilizable. El códec de audio 960 también puede generar sonido audible para un usuario, tal como a través de un altavoz, por ejemplo, en un auricular del dispositivo 950. Este sonido puede incluir sonido de llamadas telefónicas de voz, puede incluir sonido grabado (por ejemplo, mensajes de voz, archivos de música, etc.) y también puede incluir sonido generado por aplicaciones que operan en el dispositivo 950.
El dispositivo de cálculo 950 puede implementarse en una serie de formas diferentes, como se muestra en la figura. Por ejemplo, puede implementarse como un teléfono celular 980. También se puede implementar como parte de un teléfono inteligente 982, asistente digital personal u otro dispositivo móvil similar.
Diversas implementaciones de los sistemas y técnicas descritos en el presente documento pueden realizarse en circuitos electrónicos digitales, circuitos integrados, ASIC (circuitos integrados específicos de aplicación) especialmente diseñados, hardware de ordenador, firmware, software y/o combinaciones de los mismos. Estas diversas implementaciones pueden incluir la implementación en uno o más programas de ordenador que son ejecutables y/o interpretables en un sistema programable que incluye al menos un procesador programable, que puede ser especial o de uso general, acoplado para recibir datos e instrucciones de, y para transmitir datos e instrucciones para, un sistema de almacenamiento, al menos un dispositivo de entrada, y al menos un dispositivo de salida.
Estos programas informáticos (también conocidos como programas, software, aplicaciones de software o código) incluyen instrucciones de máquina para un procesador programable, y pueden implementarse en un lenguaje de programación de alto nivel procedimental y/u orientado a objetos, y/o en lenguaje de ensamblaje/máquina. Tal como se usa en el presente documento, los términos "medio legible por máquina" y "medio legible por ordenador" se refieren a cualquier producto, aparato y/o dispositivo de programa informático (por ejemplo, discos magnéticos, discos ópticos, memoria, dispositivos lógicos programables (PLD)) usados para proporcionar instrucciones de máquina y/o datos a un procesador programable, incluyendo un medio legible por máquina que recibe instrucciones de máquina como una señal legible por máquina. El término "señal legible por máquina" se refiere a cualquier señal usada para proporcionar instrucciones de máquina y/o datos a un procesador programable.
Para proporcionar la interacción con un usuario, los sistemas y técnicas descritos en este documento pueden implementarse en un ordenador que tiene un dispositivo de visualización (por ejemplo, un tubo CRT (tubo de rayos catódicos) o un monitor LCD (pantalla de cristal líquido)) para mostrar información al usuario y un teclado y un dispositivo señalador (por ejemplo, un ratón o una bola de seguimiento) mediante el cual el usuario puede proporcionar información al ordenador. Otros tipos de dispositivos se pueden utilizar para proporcionar la interacción con un usuario también; por ejemplo, la retroalimentación proporcionada al usuario puede ser cualquier forma de retroalimentación sensorial (por ejemplo, retroalimentación visual, retroalimentación auditiva o realimentación táctil); y la entrada del usuario se puede recibir en cualquier forma, incluyendo entrada acústica, por voz, o táctil.
Los sistemas y técnicas descritos aquí pueden implementarse en un sistema informático que incluye un componente de extremo posterior (por ejemplo, como un servidor de datos) o que incluye un componente de middleware (por ejemplo, un servidor de aplicaciones) o que incluye un componente de extremo delantero (por ejemplo, un ordenador cliente que tiene una interfaz gráfica de usuario o un navegador web a través del cual un usuario puede interactuar con una implementación de los sistemas y técnicas aquí descritos), o cualquier combinación de tales componentes de extremo posterior, middleware o extremo delantero. Los componentes del sistema pueden estar interconectados por cualquier forma o medio de comunicación de datos digitales (por ejemplo, una red de comunicación). Ejemplos de redes de comunicación incluyen una red de área local ("LAN"), una red de área amplia ("WAN") e Internet.
El sistema informático puede incluir clientes y servidores. Un cliente y un servidor están generalmente alejados entre sí y normalmente interactúan a través de una red de comunicación. La relación de cliente y servidor surge en virtud de programas de ordenador que se ejecutan en los ordenadores respectivos y que tienen una relación cliente-servidor entre sí.

Claims (4)

REIVINDICACIONES
1. Un método implementado por ordenador para autenticar la identidad de una persona estableciendo una puntuación de coincidencia con referencia a una imagen de la vasculatura ocular, comprendiendo el método:
obtener (602) una o más regiones de imagen a partir de una primera imagen (200) de un ojo (100), en el que cada una de las regiones de imagen incluye una vista de una porción respectiva de vasculatura (240) del ojo (100) externa a un límite del limbo corneal (225) del ojo (100);
aplicar un conjunto de filtros de Gabor complejos en diferentes ángulos 0 a cada una de las regiones de la imagen para generar un descriptor respectivo para la región, en el que aplicar un filtro de Gabor respectivo comprende convolucionar cada una de las regiones de la imagen con un núcleo complejo del filtro de Gabor respectivo,
en el que generar el descriptor respectivo para la región incluye binarizar las imágenes de fase resultantes de la aplicación de los filtros de Gabor estableciendo un umbral en las imágenes de fase, comprendiendo el umbral establecer valores de fase por encima de 0,25 radianes o por debajo de -0,25 radianes a uno, y establecer valores en el intervalo de 0,25 radianes a -0,25 radianes a cero, y sumando las imágenes binarizadas resultantes; y
<determinar (>610<) la puntuación de coincidencia basándose en los descriptores generados y basándose en uno>o más descriptores asociados con una imagen de referencia (200) de la vasculatura ocular (240).
2. El método de la reivindicación 1, que comprende además determinar si la puntuación de coincidencia excede un valor, en el que el valor se basa en, al menos, un umbral robusto en una vecindad de una curva operativa de receptor tridimensional generada a partir de un análisis de sensibilidad.
3. El método de la reivindicación 1, en el que obtener una o más regiones de imagen comprende formar un mosaico de una región para obtener regiones más pequeñas.
4. Un sistema, que comprende:
un aparato de procesamiento de datos (902); y
una memoria (904) acoplada al aparato de procesamiento de datos (902) que tiene instrucciones almacenadas en la misma que, cuando son ejecutadas por el aparato de procesamiento de datos (902), hacen que el aparato de procesamiento de datos (902) realice el método según cualquiera de las reivindicaciones anteriores.
ES13732665T 2012-08-10 2013-05-28 Características de textura para autenticación biométrica Active ES2959438T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US13/572,188 US8369595B1 (en) 2012-08-10 2012-08-10 Texture features for biometric authentication
PCT/US2013/042889 WO2014025445A1 (en) 2012-08-10 2013-05-28 Texture features for biometric authentication

Publications (1)

Publication Number Publication Date
ES2959438T3 true ES2959438T3 (es) 2024-02-26

Family

ID=47604638

Family Applications (1)

Application Number Title Priority Date Filing Date
ES13732665T Active ES2959438T3 (es) 2012-08-10 2013-05-28 Características de textura para autenticación biométrica

Country Status (7)

Country Link
US (4) US8369595B1 (es)
EP (1) EP2883190B1 (es)
KR (1) KR101309889B1 (es)
CN (2) CN105787454B (es)
ES (1) ES2959438T3 (es)
HK (1) HK1189685A1 (es)
WO (1) WO2014025445A1 (es)

Families Citing this family (82)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010129074A1 (en) * 2009-01-14 2010-11-11 Indiana University Research & Technology Corporation System and method for identifying a person with reference to a sclera image
TWI455062B (zh) * 2011-04-26 2014-10-01 Univ Nat Cheng Kung 三維視訊內容產生方法
US8369595B1 (en) 2012-08-10 2013-02-05 EyeVerify LLC Texture features for biometric authentication
US8437513B1 (en) 2012-08-10 2013-05-07 EyeVerify LLC Spoof detection for biometric authentication
US8483450B1 (en) 2012-08-10 2013-07-09 EyeVerify LLC Quality metrics for biometric authentication
US8988663B2 (en) * 2013-01-22 2015-03-24 Raytheon Company Laser range finding
US9530052B1 (en) * 2013-03-13 2016-12-27 University Of Maryland System and method for sensor adaptation in iris biometrics
GB201316372D0 (en) 2013-09-13 2013-10-30 Eip Image processing
US9053365B2 (en) 2013-09-16 2015-06-09 EyeVerify, Inc. Template update for biometric authentication
US8965066B1 (en) 2013-09-16 2015-02-24 Eye Verify LLC Biometric template security and key generation
US9305225B2 (en) 2013-10-14 2016-04-05 Daon Holdings Limited Methods and systems for determining user liveness
WO2015056210A2 (en) 2013-10-16 2015-04-23 University Of Johannesburg Method of authenticating a person
US9838388B2 (en) 2014-08-26 2017-12-05 Veridium Ip Limited System and method for biometric protocol standards
EP3111421A1 (en) 2014-02-25 2017-01-04 EyeVerify Inc. Eye gaze tracking
US9092691B1 (en) 2014-07-18 2015-07-28 Median Technologies System for computing quantitative biomarkers of texture features in tomographic images
CN105678137A (zh) * 2014-11-19 2016-06-15 中兴通讯股份有限公司 一种身份识别的方法和装置
JPWO2016088415A1 (ja) * 2014-12-05 2017-09-14 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
CN105825102A (zh) * 2015-01-06 2016-08-03 中兴通讯股份有限公司 一种基于眼纹识别的终端解锁方法和装置
KR101626835B1 (ko) * 2015-04-07 2016-06-02 주식회사 나르테크놀로지 지정맥 영상의 혈관증강처리 방법 및 그 장치
WO2016161481A1 (en) * 2015-04-08 2016-10-13 Wavefront Biometric Technologies Pty Limited Multi-biometric authentication
US10515304B2 (en) 2015-04-28 2019-12-24 Qualcomm Incorporated Filter specificity as training criterion for neural networks
CN104778396B (zh) * 2015-04-29 2019-01-29 惠州Tcl移动通信有限公司 一种基于环境筛选帧的眼纹识别解锁方法及系统
CA2983749C (en) 2015-05-11 2021-12-28 Magic Leap, Inc. Devices, methods and systems for biometric user recognition utilizing neural networks
US9979748B2 (en) * 2015-05-27 2018-05-22 Cisco Technology, Inc. Domain classification and routing using lexical and semantic processing
CN104951769B (zh) * 2015-07-02 2018-11-30 京东方科技集团股份有限公司 活体识别装置、活体识别方法和活体认证系统
US10255040B2 (en) 2017-05-11 2019-04-09 Veridium Ip Limited System and method for biometric identification
US11329980B2 (en) 2015-08-21 2022-05-10 Veridium Ip Limited System and method for biometric protocol standards
SG10202001382XA (en) 2015-09-11 2020-04-29 Eyeverify Inc Image and feature quality, image enhancement and feature extraction for ocular-vascular and facial recognition, and fusing ocular-vascular with facial and/or sub-facial information for biometric syste
CN105893923A (zh) * 2015-10-22 2016-08-24 乐视致新电子科技(天津)有限公司 用于手持设备的眼纹创建方法和装置
US10275684B2 (en) * 2015-11-04 2019-04-30 Samsung Electronics Co., Ltd. Authentication method and apparatus, and method and apparatus for training a recognizer
US10043075B2 (en) * 2015-11-19 2018-08-07 Microsoft Technology Licensing, Llc Eye feature identification
CN105744061B (zh) * 2016-01-28 2020-07-17 努比亚技术有限公司 一种眼纹识别交互装置及方法
EP3427192A4 (en) 2016-03-11 2019-03-27 Magic Leap, Inc. STRUCTURAL LEARNING IN NEURAL FOLDING NETWORKS
EP3465536A1 (en) 2016-05-27 2019-04-10 Jeff B. Pelz System and method for eye tracking
CN109661194B (zh) 2016-07-14 2022-02-25 奇跃公司 使用角膜曲率的虹膜边界估计
JP7001672B2 (ja) 2016-07-14 2022-01-19 マジック リープ, インコーポレイテッド 虹彩識別のためのディープニューラルネットワーク
KR102529137B1 (ko) 2016-08-22 2023-05-03 매직 립, 인코포레이티드 딥 러닝 센서들을 갖는 증강 현실 디스플레이 디바이스
CN106899567B (zh) * 2016-08-24 2019-12-13 阿里巴巴集团控股有限公司 用户核身方法、装置及系统
US10354468B2 (en) * 2016-08-29 2019-07-16 Aminata Paye Lockable receptacle having plural security features
US10425232B2 (en) * 2016-09-07 2019-09-24 Bank Of America Corporation Encrypted biometric registration
US10425408B2 (en) * 2016-09-07 2019-09-24 Bank Of America Corporation Encrypted biometric authenication
RU2016138608A (ru) 2016-09-29 2018-03-30 Мэджик Лип, Инк. Нейронная сеть для сегментации изображения глаза и оценки качества изображения
EP3523751A4 (en) 2016-10-04 2020-05-06 Magic Leap, Inc. EFFICIENT DATA ARRANGEMENTS FOR CONVOLUTIONAL NEURAL NETWORKS
KR102267553B1 (ko) 2016-11-15 2021-06-22 매직 립, 인코포레이티드 큐보이드 검출을 위한 딥 러닝 시스템
JP7112399B2 (ja) 2016-12-05 2022-08-03 マジック リープ, インコーポレイテッド 複合現実環境における仮想ユーザ入力制御
US11205103B2 (en) 2016-12-09 2021-12-21 The Research Foundation for the State University Semisupervised autoencoder for sentiment analysis
CN109923368A (zh) * 2016-12-13 2019-06-21 金泰克斯公司 用于枪的生物统计识别系统
SE1651684A1 (sv) * 2016-12-20 2018-06-21 Fingerprint Cards Ab Fingerprint sensing system configured to determine if a finger contacts a fingerprint sensor
AU2018236433B2 (en) 2017-03-17 2022-03-03 Magic Leap, Inc. Room layout estimation methods and techniques
IL293424A (en) 2017-07-26 2022-07-01 Magic Leap Inc Neural network training with displays of user interface devices
US10521661B2 (en) 2017-09-01 2019-12-31 Magic Leap, Inc. Detailed eye shape model for robust biometric applications
US10719951B2 (en) 2017-09-20 2020-07-21 Magic Leap, Inc. Personalized neural network for eye tracking
EP3704592A4 (en) 2017-10-26 2022-03-16 Magic Leap, Inc. GRADIENT NORMALIZATION SYSTEMS AND METHODS FOR ADAPTIVE LOSS COMPENSATION IN DEEP MULTITASK NETWORKS
US11227214B2 (en) 2017-11-14 2022-01-18 Advanced Micro Devices, Inc. Memory bandwidth reduction techniques for low power convolutional neural network inference applications
CN107981842B (zh) * 2017-11-20 2019-02-05 珠海伊斯佳科技股份有限公司 一种用于转录皮肤纹理的复膜套件及其使用方法和应用
CN108009495A (zh) * 2017-11-30 2018-05-08 西安科锐盛创新科技有限公司 疲劳驾驶预警方法
EP3557485B1 (en) * 2018-04-19 2021-05-26 Aimotive Kft. Method for accelerating operations and accelerator apparatus
US11948073B2 (en) 2018-04-20 2024-04-02 Advanced Micro Devices, Inc. Machine learning inference engine scalability
US10872221B2 (en) * 2018-06-21 2020-12-22 Amazon Technologies, Inc Non-contact biometric identification system
KR102466215B1 (ko) * 2018-07-19 2022-11-11 (주)세림테크 딥러닝 기반 비문 인식 시스템 및 방법
US11775799B2 (en) 2018-08-02 2023-10-03 Advanced Micro Devices, Inc. Runtime extension for neural network training with heterogeneous memory
CN108537213A (zh) * 2018-08-09 2018-09-14 上海聚虹光电科技有限公司 增强虹膜识别精度的系统和方法
CN109165587B (zh) * 2018-08-11 2022-12-09 国网福建省电力有限公司厦门供电公司 智能图像信息抽取方法
KR102604016B1 (ko) 2018-10-24 2023-11-22 삼성전자주식회사 전자 장치 및 이의 제어방법
US11769041B2 (en) 2018-10-31 2023-09-26 Advanced Micro Devices, Inc. Low latency long short-term memory inference with sequence interleaving
CN111338974A (zh) 2018-12-19 2020-06-26 超威半导体公司 用于矩阵数学指令集的图块化算法
CN111353575A (zh) * 2018-12-20 2020-06-30 超威半导体公司 用于卷积神经网络的图块化格式
US10985951B2 (en) 2019-03-15 2021-04-20 The Research Foundation for the State University Integrating Volterra series model and deep neural networks to equalize nonlinear power amplifiers
CN111723918A (zh) 2019-03-18 2020-09-29 超威半导体公司 用于卷积内核的自动生成和调谐工具
JP7385681B2 (ja) 2019-05-21 2023-11-22 マジック リープ, インコーポレイテッド 手姿勢推定
US11610142B2 (en) 2019-05-28 2023-03-21 Ati Technologies Ulc Safety monitor for image misclassification
US11580392B2 (en) 2019-05-30 2023-02-14 Samsung Electronics Co., Ltd. Apparatus for deep representation learning and method thereof
US11210199B2 (en) 2019-05-31 2021-12-28 Ati Technologies Ulc Safety monitor for invalid image transform
US10892784B2 (en) * 2019-06-03 2021-01-12 Western Digital Technologies, Inc. Memory device with enhanced error correction via data rearrangement, data partitioning, and content aware decoding
US11109010B2 (en) * 2019-06-28 2021-08-31 The United States of America As Represented By The Director Of The National Geospatial-Intelligence Agency Automatic system for production-grade stereo image enhancements
CN110310282B (zh) * 2019-07-31 2021-05-18 广西壮族自治区人民医院 一种利用活体共聚焦显微镜图像智能分析角膜神经纤维的系统
US11366979B2 (en) 2019-11-14 2022-06-21 Alibaba Group Holding Limited Using selected components of frequency domain image data in artificial intelligence tasks
US11170260B2 (en) 2019-11-14 2021-11-09 Alibaba Group Holding Limited Techniques for determining importance of encoded image components for artificial intelligence tasks
US11403783B2 (en) 2019-11-14 2022-08-02 Alibaba Group Holding Limited Techniques to dynamically gate encoded image components for artificial intelligence tasks
EP3828816A1 (en) * 2019-11-28 2021-06-02 Siemens Healthcare GmbH Patient follow-up analysis
WO2021124293A1 (en) * 2019-12-19 2021-06-24 Alcon Inc. Deep learning for optical coherence tomography segmentation
WO2023133072A2 (en) 2022-01-07 2023-07-13 Jumio Corporation Biometric authentication using head-mounted devices

Family Cites Families (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5291560A (en) * 1991-07-15 1994-03-01 Iri Scan Incorporated Biometric personal identification system based on iris analysis
US5303709A (en) 1991-12-16 1994-04-19 Dreher Andreas W Retinal eye disease diagnostic system
US6095989A (en) 1993-07-20 2000-08-01 Hay; Sam H. Optical recognition methods for locating eyes
US5632282A (en) 1993-07-20 1997-05-27 Hay; S. Hutson Ocular disease detection apparatus
US6707484B1 (en) 1994-07-28 2004-03-16 Semiconductor Energy Laboratory Co., Ltd. Information processing system
US6193660B1 (en) * 1999-03-31 2001-02-27 Acuson Corporation Medical diagnostic ultrasound system and method for region of interest determination
JP3586431B2 (ja) * 2001-02-28 2004-11-10 松下電器産業株式会社 個人認証方法および装置
FR2831302A1 (fr) * 2001-10-19 2003-04-25 St Microelectronics Sa Codage d'informations concentriques
WO2003105678A2 (en) * 2002-06-12 2003-12-24 Advanced Research And Technology Institute, Inc. Method and apparatus for improving both lateral and axial resolution in ophthalmoscopy
JP2004023733A (ja) 2002-06-20 2004-01-22 Canon Inc 画像撮影装置及びその制御方法
US7668351B1 (en) 2003-01-17 2010-02-23 Kestrel Corporation System and method for automation of morphological segmentation of bio-images
WO2004073501A2 (en) * 2003-02-20 2004-09-02 Gutin Mikhail Optical coherence tomography with 3d coherence scanning
JP2005044330A (ja) * 2003-07-24 2005-02-17 Univ Of California San Diego 弱仮説生成装置及び方法、学習装置及び方法、検出装置及び方法、表情学習装置及び方法、表情認識装置及び方法、並びにロボット装置
US7336806B2 (en) * 2004-03-22 2008-02-26 Microsoft Corporation Iris-based biometric identification
CN1271559C (zh) * 2004-06-15 2006-08-23 沈阳工业大学 一种人眼虹膜识别方法
US20050281440A1 (en) * 2004-06-18 2005-12-22 Pemer Frederick A Iris feature detection and sensor-based edge detection
US7287013B2 (en) * 2005-01-14 2007-10-23 Ultra-Scan Corporation Multimodal fusion decision logic system
US7327860B2 (en) * 2005-05-04 2008-02-05 West Virginia University Conjunctival scans for personal identification
US7949186B2 (en) * 2006-03-15 2011-05-24 Massachusetts Institute Of Technology Pyramid match kernel and related techniques
KR100852629B1 (ko) 2006-06-02 2008-08-18 연세대학교 산학협력단 다초점 영상 시퀀스를 이용한 홍채인식 시스템 및 방법
US20070291277A1 (en) * 2006-06-20 2007-12-20 Everett Matthew J Spectral domain optical coherence tomography system
US20080298642A1 (en) * 2006-11-03 2008-12-04 Snowflake Technologies Corporation Method and apparatus for extraction and matching of biometric detail
US8279329B2 (en) * 2007-04-10 2012-10-02 University Of Rochester Structured illumination for imaging of stationary and non-stationary, fluorescent and non-fluorescent, objects
US8553948B2 (en) 2007-09-01 2013-10-08 Eyelock, Inc. System and method for iris data acquisition for biometric identification
CN101539991B (zh) * 2008-03-20 2011-07-06 中国科学院自动化研究所 用于虹膜识别的有效图像区域检测和分割方法
JP5277365B2 (ja) 2008-04-06 2013-08-28 国立大学法人九州工業大学 個人認証方法及びそれに使用する個人認証装置
US8079711B2 (en) * 2008-04-24 2011-12-20 Carl Zeiss Meditec, Inc. Method for finding the lateral position of the fovea in an SDOCT image volume
EP2321787B1 (en) * 2008-06-06 2017-01-11 Google, Inc. Annotating images
ES2337866B2 (es) 2008-07-24 2011-02-14 Universidad Complutense De Madrid Reconocimiento biometrico mediante estudio del mapa de superficie delsegundo dioptrio ocular.
US8090246B2 (en) 2008-08-08 2012-01-03 Honeywell International Inc. Image acquisition system
US9226798B2 (en) 2008-10-10 2016-01-05 Truevision Systems, Inc. Real-time surgical reference indicium apparatus and methods for surgical applications
US8514277B2 (en) 2008-11-05 2013-08-20 Dyer Holdings, Llc Video infrared retinal image scanner
WO2010129074A1 (en) * 2009-01-14 2010-11-11 Indiana University Research & Technology Corporation System and method for identifying a person with reference to a sclera image
GB2471192B (en) 2009-06-15 2011-08-17 Honeywell Int Inc An iris and ocular recognition system using trace transforms
US20110196236A1 (en) * 2010-02-08 2011-08-11 Gokul Swamy System and method of automated gestational age assessment of fetus
KR101049928B1 (ko) * 2011-02-21 2011-07-15 (주)올라웍스 파노라마 이미지를 생성하기 위한 방법, 사용자 단말 장치 및 컴퓨터 판독 가능한 기록 매체
CN102496007B (zh) * 2011-12-02 2014-06-11 陈中山 人体身份识别仪
US8369595B1 (en) * 2012-08-10 2013-02-05 EyeVerify LLC Texture features for biometric authentication

Also Published As

Publication number Publication date
CN103390153A (zh) 2013-11-13
US9311535B2 (en) 2016-04-12
KR101309889B1 (ko) 2013-09-17
HK1189685A1 (zh) 2014-06-13
CN105787454B (zh) 2019-12-20
US20160259960A1 (en) 2016-09-08
US10108858B2 (en) 2018-10-23
CN105787454A (zh) 2016-07-20
EP2883190B1 (en) 2023-09-06
CN103390153B (zh) 2016-03-30
EP2883190A1 (en) 2015-06-17
US20140270405A1 (en) 2014-09-18
US8369595B1 (en) 2013-02-05
US20140044320A1 (en) 2014-02-13
US8744141B2 (en) 2014-06-03
WO2014025445A1 (en) 2014-02-13

Similar Documents

Publication Publication Date Title
ES2959438T3 (es) Características de textura para autenticación biométrica
ES2859554T3 (es) Detección de suplantación para autenticación biométrica
US10095927B2 (en) Quality metrics for biometric authentication
US11188734B2 (en) Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices
WO2016010724A1 (en) Multispectral eye analysis for identity authentication
CN111695099A (zh) 安全系统及相应的访问方法、机器可读存储设备
Gottemukkula Biometrics for smartphones using eyeprints