ES2791776T3 - Sistema y método para la autenticación biométrica en conexión con dispositivos equipados con cámara - Google Patents

Sistema y método para la autenticación biométrica en conexión con dispositivos equipados con cámara Download PDF

Info

Publication number
ES2791776T3
ES2791776T3 ES13834699T ES13834699T ES2791776T3 ES 2791776 T3 ES2791776 T3 ES 2791776T3 ES 13834699 T ES13834699 T ES 13834699T ES 13834699 T ES13834699 T ES 13834699T ES 2791776 T3 ES2791776 T3 ES 2791776T3
Authority
ES
Spain
Prior art keywords
image
flash
user
images
spoofing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES13834699T
Other languages
English (en)
Inventor
Yann Lecun
Adam Perold
Yang Wang
Sagar Waghmare
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Element Inc
Original Assignee
Element Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Element Inc filed Critical Element Inc
Application granted granted Critical
Publication of ES2791776T3 publication Critical patent/ES2791776T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L63/00Network architectures or network communication protocols for network security
    • H04L63/08Network architectures or network communication protocols for network security for authentication of entities
    • H04L63/0861Network architectures or network communication protocols for network security for authentication of entities using biometrical features, e.g. fingerprint, retina-scan
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • G06V10/464Salient features, e.g. scale invariant feature transforms [SIFT] using a plurality of salient features, e.g. bag-of-words [BoW] representations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/762Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
    • G06V10/763Non-hierarchical techniques, e.g. based on statistics of modelling distributions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/13Sensors therefor
    • G06V40/1312Sensors therefor direct reading, e.g. contactless acquisition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L63/00Network architectures or network communication protocols for network security
    • H04L63/10Network architectures or network communication protocols for network security for controlling access to devices or network resources
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L9/00Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols
    • H04L9/32Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols including means for verifying the identity or authority of a user of the system or for message authentication, e.g. authorization, entity authentication, data integrity or data verification, non-repudiation, key authentication or verification of credentials
    • H04L9/3226Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols including means for verifying the identity or authority of a user of the system or for message authentication, e.g. authorization, entity authentication, data integrity or data verification, non-repudiation, key authentication or verification of credentials using a predetermined code, e.g. password, passphrase or PIN
    • H04L9/3231Biological data, e.g. fingerprint, voice or retina

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Security & Cryptography (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Human Computer Interaction (AREA)
  • Collating Specific Patterns (AREA)
  • Image Analysis (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Input (AREA)

Abstract

Un sistema antisuplantación para detectar y usar características tridimensionales de una huella de la palma humana con el fin de proporcionar acceso selectivo a los recursos disponibles en conexión con un teléfono inteligente basado en un método de aprendizaje, comprendiendo el sistema: (a) un teléfono inteligente que comprende un procesador digital, un módulo de memoria, un sistema operativo y medios de almacenamiento no transitorios que comprenden instrucciones ejecutables por el procesador digital; (b) al menos una cámara asociada con el teléfono inteligente y configurada para capturar una pluralidad de imágenes que comprenden una imagen con flash y una imagen sin flash de una huella de la palma humana de un primer usuario, en donde la pluralidad de imágenes se captura sin que la palma humana toque físicamente el teléfono inteligente; y (c) al menos un componente de flash asociado con el teléfono inteligente y configurado para emitir un flash durante la captura de la imagen con flash y no emitir un flash durante la captura de la imagen sin flash, en donde el procesador digital está configurado para realizar lo siguiente: (1) utilizar clasificadores locales basados en ventanas deslizantes y clasificadores formados por características locales discriminatorias aprendidas de una colección de imágenes de ejemplo para analizar la imagen con flash y la imagen sin flash de la huella de la palma humana para etiquetar los píxeles de la palma y los que no son de la palma mediante puntajes de clasificación; (2) usar un detector para localizar y segmentar una región de interés de la huella de la palma humana dentro de la imagen con flash y la imagen sin flash; (3) usar pequeñas ventanas de muestreo dentro de la región de interés para identificar parches de imágenes que abarcan rasgos biométricos característicos de la huella de la palma humana; (4) extraer una firma de datos a nivel de píxel de los parches de imagen, en donde la firma es única para el primer usuario y se usa para distinguir al primer usuario de un segundo usuario, y en donde la extracción de la firma comprende crear un histograma de orientaciones de borde en una pluralidad de parches de imagen; (5) determinar un intento de suplantación con base en una característica tridimensional de la huella de la palma humana y una pluralidad de modelos de usuario almacenados determinando si la imagen con flash representa un objeto tridimensional o una representación bidimensional de una palma humana, en donde la característica tridimensional se basa en una comparación entre la imagen con flash y la imagen sin flash, y en donde la comparación entre la imagen con flash y la imagen sin flash comprende determinar una región resaltada y una región de sombra en al menos una de la imagen con flash y la imagen sin flash; (6) denegar el acceso a uno o más de los recursos al primer usuario, basado en la determinación del intento de suplantación de identidad; y (7) almacenar al menos una de la pluralidad de imágenes de la huella de la palma humana y la característica tridimensional en la colección de imágenes de ejemplo.

Description

DESCRIPCIÓN
Sistema y método para la autenticación biométrica en conexión con dispositivos equipados con cámara.
Referencia cruzada a aplicaciones relacionadas
Esta solicitud se basa en, y reivindica el beneficio de la fecha de presentación de la solicitud de patente provisional U.S. número 61/696,.820, presentada el 5 de septiembre de 2012.
Antecedentes de la invención
Campo de la invención
La presente invención se refiere en general al uso de tecnología biométrica para autenticación e identificación, y más particularmente a soluciones sin contacto para autenticar e identificar usuarios, a través de ordenadores, tales como dispositivos móviles, para permitir o denegar selectivamente el acceso a diversos recursos. En la presente invención, la autenticación y/o identificación se realiza usando una imagen o un conjunto de imágenes de la palma de un individuo a través de un proceso que involucra las siguientes etapas clave: (1) detectar el área de la palma usando clasificadores locales; (2) extraer características de las regiones de interés; y (3) calcular el puntaje de comparación contra los modelos de usuario almacenados en una base de datos, que pueden aumentarse dinámicamente a través de un proceso de aprendizaje.
Discusión de la técnica relacionada
Los dispositivos móviles, tales como teléfonos inteligentes, tabletas y ordenadores portátiles, han sido ampliamente adoptados y utilizados por muchas personas a diario. Estos dispositivos se han vuelto cada vez más potentes y, a medida que los desarrolladores crean más y más aplicaciones y servicios que se ejecutan en ellos, se vuelven aún más arraigados en nuestra vida cotidiana. Estos dispositivos móviles no solo proporcionan una poderosa plataforma informática por derecho propio, sino que también brindan conectividad a un conjunto prácticamente ilimitado de servicios, aplicaciones y datos disponibles en plataformas remotas a las que típicamente se accede a través de un enlace inalámbrico a un sitio celular y luego se devuelven a la columna vertebral de internet. Además de acceder a estas plataformas remotas, los dispositivos móviles también tienen la capacidad de conectarse a otros dispositivos móviles a través de conexiones inalámbricas de corto y largo alcance.
Quizás lo más importante es que la penetración cada vez mayor de estos dispositivos, combinada con la reducción continua de los costes asociados con las partes componentes de estos dispositivos, ha dado como resultado que los dispositivos estén disponibles con mayores capacidades sin dejar de ser asequibles para muchos usuarios. Por ejemplo, como resultado de la reducción en los costes de las partes componentes y el desarrollo de un software más potente, un número sustancial de teléfonos inteligentes ahora incluye cámaras potentes, que pueden tomar fotos extraordinariamente detalladas del orden de ocho megapíxeles o más.
Una cuestión importante que surge en el contexto de los dispositivos móviles y su uso generalizado en relación con tanta funcionalidad y su necesidad de interactuar con tantos recursos diferentes es la necesidad de controlar el acceso a cada uno de estos recursos para que solamente aquellos individuos o dispositivos que deben estar autorizados para acceder a los recursos aplicables, realmente puedan hacerlo. En el caso típico, el acceso a los recursos se controla mediante la entrada de cadenas de texto/numéricas, tales como ID de usuario y contraseñas. Por ejemplo, se le puede solicitar al usuario de un teléfono inteligente que ingrese un código de cuatro dígitos antes de que se le permita acceder a cualquier funcionalidad en el dispositivo. Además, cada aplicación local u otro recurso en el dispositivo puede requerir que el usuario ingrese una o más cadenas de texto/numéricas antes de obtener acceso al recurso. En este caso, los datos correctos (ID de usuario, contraseña, etc.) pueden almacenarse en la memoria del dispositivo. Alternativamente, para el acceso a los recursos (aplicaciones, datos, capacidades de comunicación, etc.) que se encuentran remotamente desde el dispositivo, el usuario y/o el dispositivo podrían tener que transmitir un conjunto correcto de cadenas de texto/numéricas al recurso remoto que, a su vez, verifica que los datos transmitidos coincidan con los datos correctos antes de permitir el acceso al recurso.
Como se podría imaginar, para un usuario típico de un teléfono inteligente, por ejemplo, hay un número de inconvenientes con las técnicas anteriores para la autenticación e identificación. Por un lado, la necesidad de recordar identificaciones de usuario y contraseñas para tantas aplicaciones, servicios y otros recursos diferentes, teniendo cada uno sus propios requisitos sobre cómo deben construirse esas identificaciones y contraseñas, puede ser bastante desalentador y los usuarios a menudo olvidan sus identificaciones y contraseñas para recursos a los que no acceden con frecuencia. Otra desventaja es que existen problemas de seguridad con el uso de cadenas de texto/numéricas para controlar el acceso a los recursos. Hay, por ejemplo, potentes programas de software que pueden usarse para provocar intrusión en estas cadenas para obtener acceso no autorizado a los recursos.
Además, el método típico con base en contacto de un usuario que usa sus dedos para ingresar contraseñas e ID de usuario en la pantalla del teléfono inteligente se presta a riesgos de seguridad. Los intrusos informáticos experimentados a menudo pueden "levantar" el patrón de huellas digitales de la pantalla con base en el residuo de aceite que deja el dedo para obtener acceso no autorizado. Esto es particularmente cierto en el contexto de ingresar una cadena numérica corta tal como un número de cuatro dígitos para desbloquear el dispositivo. Una vez que se desbloquea el dispositivo, es posible que muchos de los recursos del dispositivo ni siquiera estén asegurados, lo que conlleva graves riesgos de seguridad.
Una solución que se ha dirigido para eliminar o reducir los inconvenientes discutidos anteriormente implica el uso de tecnología biométrica para controlar el acceso a los recursos disponibles a través de dispositivos móviles. Si bien estas soluciones, en algunos casos, han eliminado algunos de los inconvenientes discutidos anteriormente, todavía sufren un número de desventajas. Por ejemplo, algunas soluciones con base en contactos requieren que un usuario coloque su dedo en el sensor del dispositivo, el cual tiene la capacidad de capturar la huella digital del usuario, la cual es luego comparada contra los datos de huellas digitales locales o ubicadas remotamente para determinar si hay una coincidencia suficiente para permitir que el usuario o el dispositivo accedan a uno o más recursos. En este caso, como se mencionó anteriormente, un intruso informático puede levantar una huella digital del sensor del dispositivo y utilizarla para obtener acceso no autorizado a uno o más recursos en un momento más adelante utilizando esa huella digital apropiada. Estas soluciones típicamente también sufren del inconveniente de que el tiempo para realizar el procesamiento necesario para determinar si la huella digital es una coincidencia puede ser inaceptable en el contexto de un usuario ocupado que intenta obtener acceso a muchos recursos diferentes en el dispositivo durante el transcurso de un día típico.
Existen problemas de salud adicionales asociados con los métodos con base en contacto que implican la transmisión de gérmenes, virus u otros peligros biológicos, particularmente en el caso de dispositivos compartidos entre usuarios. Como se sabe en la técnica, las yemas de los dedos de un individuo, y las manos de un individuo más en general, son a menudo uno de los medios principales para transferir gérmenes, virus u otros peligros biológicos entre las personas. En el caso de dispositivos individuales que se comparten entre múltiples personas, métodos de autenticación e identificación con base en contacto en los que un usuario escribe una cadena de identificación con la punta de sus dedos, o se autentica o se identifica a sí mismo a través de métodos biométricos con base en contacto, tal como el reconocimiento de huellas digitales o huellas de la palma, entre otros, crea el riesgo de transferir dichos riesgos biológicos a través del medio de contacto compartido.
El documento EP2192526 A2 divulga un dispositivo y método de autenticación biométrica que incluye extraer información de movimiento que representa la flexión y el estiramiento de un objeto de imagen a partir de una pluralidad de imágenes obtenidas, y determinar si el objeto de imagen es o no un objeto biológico, con base en la información de movimiento.
Resumen de la invención
Es por lo tanto, un objeto de la invención proporcionar un sistema biométrico y metodología sin contacto que admita la autenticación e identificación precisa, segura y rápida de usuarios y dispositivos para proporcionar acceso selectivo a recursos accesibles a través de dispositivos equipados con cámara.
En una realización de la presente invención, los usuarios de tales dispositivos equipados con cámara (en lo sucesivo denominados en ocasiones "teléfonos inteligentes" por conveniencia, aunque debe entenderse que los dispositivos incluyen todos los dispositivos con capacidad de cámara, incluidos tanto dispositivos móviles como dispositivos estacionarios, tales como ordenadores de escritorio) que deben identificarse o autenticarse a sí mismos como condición para obtener acceso a uno o más recursos, tomar una o una serie de fotos de su palma o ambas palmas usando la cámara del teléfono inteligente. El sistema de la presente invención emplea entonces tecnología de visión por ordenador para analizar la imagen de la huella de la palma de la mano y verificar bien sea que la firma de la huella de la palma coincida con el modelo del usuario en una base de datos (autenticación del usuario) o encontrar el modelo de usuario que coincida entre muchos modelos en una base de datos (identificación de usuario).
Características y aspectos adicionales de la presente invención se harán evidentes a partir de la siguiente descripción detallada de realizaciones de ejemplo en relación con la referencia a las figuras adjuntas.
Breve descripción de los dibujos
La figura 1 es un diagrama que representa los componentes principales del sistema de la presente invención en una realización preferida de la misma;
La figura 2 es un diagrama de bloques, que es útil para ilustrar la metodología de la presente invención en una realización preferida de la misma;
La Figura 3 es un diagrama que ilustra la conectividad segura entre un dispositivo móvil y uno o más servidores remotos de acuerdo con una realización preferida de la presente invención;
La Figura 4 es un diagrama de flujo que ilustra las etapas clave en la autenticación de un usuario o dispositivo de acuerdo con la presente invención en una realización preferida de la misma; y
La figura 5 es un diagrama de flujo que ilustra las etapas clave en la autenticación de un usuario o dispositivo de acuerdo con la presente invención en una realización preferida de la misma.
Descripción detallada de realizaciones de ejemplo
Ahora se hará referencia en detalle a diversas realizaciones de ejemplo de la invención. Debe entenderse que la siguiente discusión de realizaciones de ejemplo no pretende ser una limitación de la invención, como se divulga ampliamente aquí. Más bien, la siguiente discusión se proporciona para proporcionar al lector una comprensión más detallada de ciertos aspectos y características de la invención.
Antes de que las realizaciones de la presente invención se describan en detalle, debe entenderse que la terminología utilizada en este documento tiene el propósito de describir solamente realizaciones particulares, y no pretende ser limitante. A menos que se defina otra cosa, todos los términos técnicos utilizados en este documento tienen el mismo significado que comúnmente entiende un experto en la técnica a la que pertenece el término. Aunque cualquier método y material similar o equivalente a los descritos en este documento se puede usar en la práctica de la presente invención, ahora se describen los métodos y materiales preferidos. Todas las publicaciones mencionadas aquí se incorporan aquí como referencia para divulgar y describir los métodos y/o materiales en relación con los cuales se citan las publicaciones. La presente divulgación controla en la medida en que entre en conflicto con cualquier publicación incorporada.
Como se usa en este documento y en las reivindicaciones adjuntas, las formas singulares "un", "uno, una" y "el, la" incluyen referentes plurales a menos que el contexto indique claramente otra cosa. Así, por ejemplo, la referencia a "una palma" incluye una sola palma o ambas palmas de un individuo y la referencia a "una imagen" incluye referencia a una o más imágenes. Adicionalmente, el uso de términos que pueden describirse usando términos equivalentes incluye el uso de esos términos equivalentes. Así, por ejemplo, debe entenderse que el uso del término "cámara" incluye cualquier dispositivo capaz de obtener una imagen de un objeto. Como otro ejemplo, y como se mencionó anteriormente, el término "teléfono inteligente" incluye todos los dispositivos con una capacidad de cámara.
A continuación se presenta una descripción de la presente invención en realizaciones preferidas de la misma. Con referencia a la Figura 1, ahora sigue una discusión de los componentes clave del sistema de la presente invención, así como el contexto en el que cada uno de estos componentes interactúa entre sí para obtener las ventajas de la presente invención. El Dispositivo 100 puede ser cualquier dispositivo que contenga una cámara capaz de tomar fotografías de alta calidad. Preferiblemente, la cámara del Dispositivo 100 también contiene un elemento de flash capaz de activarse y desactivarse selectiva y rápidamente para iluminar el área que se va a fotografiar. Ejemplos de tales Dispositivos 100 incluyen teléfonos inteligentes, tabletas, ordenadores portátiles y cualquier otro dispositivo que pueda llevar un usuario y que proporcione una plataforma informática que permita que la funcionalidad de la presente invención sea operativa, así como ordenadores de escritorio o un variedad de dispositivos estacionarios integrados. Ejemplos de tales dispositivos integrados estacionarios incluyen equipos de cámara fijos a las entradas de las instalaciones u otras ubicaciones estratégicas que proporcionan acceso seguro a espacios físicos u otros recursos, o equipos de cámara fijos a ubicaciones estratégicas para fines tales como protocolos de tiempo y asistencia, así como otras aplicaciones. Aunque no es obligatorio, el Dispositivo 100 también puede contener otras diversas características, tales como una pantalla de visualización (que también puede ser una pantalla táctil), un teclado, un acelerómetro, capacidades de GPS, capacidad de almacenamiento y una unidad central de procesamiento (CPU).
El Dispositivo 100 incluye al menos una Cámara 105, que es preferiblemente capaz de producir fotografías de alta calidad de, por ejemplo, dos megapíxeles o más, tal como cuatro megapíxeles, seis megapíxeles u ocho megapíxeles. El Procesador de Datos de Cámara 110 recibe los datos de imagen de la Cámara 105 y los procesa como se conoce en la técnica para crear datos de píxeles representativos de la fotografía, que pueden usarse de diversas maneras, incluso para los fines descritos en relación con la presente invención como se describe ahora. Los datos del Procesador de Datos de Cámara 110 alimentan al Detector de Región de Interés 115, que sirve para ubicar el área de la palma dentro de la imagen más amplia y delinear el área con un alto nivel de precisión y consistencia, tal como para proporcionar máscaras de área de la palma de sustancialmente la misma forma y posición en la palma a través de una variedad de imágenes independientes con diferentes condiciones de iluminación y orientaciones de la palma hacia la cámara.
En una realización de Detector de Región de Interés 115, la región de interés se detecta usando clasificadores locales con base en ventanas deslizantes para etiquetar los píxeles de la palma y los que no son de la palma por los puntajes de clasificación, seguido de una etapa de segmentación para agrupar los píxeles de la palma vecinos en componentes conectados en la imagen de entrada. Se puede lograr un alto nivel de precisión y robustez con respecto al ruido de la imagen porque se aprende un número significativo de características locales discriminatorias a partir de una gran colección de imágenes de ejemplo para capturar las características estables de la apariencia de la palma para formar clasificadores fuertes. Como resultado, el detector entrenado puede localizar y delinear con precisión las regiones de interés en las imágenes de entrada tomadas de forma libre con diversas orientaciones manuales y condiciones de iluminación.
En una realización del Detector de Región de Interés 115, se usan clasificadores locales basados en Haar Wavelets y AdaBoost (referencia 1) para detectar la región de interés en el área de la palma de la mano de un usuario. En otra realización del Detector de Región de Interés 115, se usan clasificadores locales basados en máquinas de vectores de soporte (referencia 2) para detectar la región de interés en el área de la palma de la mano de un usuario. En otra realización del Detector de Región de Interés 115, se usa una red neuronal convolucional para detectar la región de interés en el área de la palma de la mano de un usuario, tal como las descritas en las Patentes U.S. Nos. 5,067,164 y 5,058,179, y en (referencias 3 y 4).
El Detector de Región de Interés 115 alimenta entonces los datos de la imagen, incluida la máscara del área de la palma, al Procesador de Conversión 120, que sirve para extraer una Firma 125 de los parches de imagen que representan los rasgos característicos del área de la palma del individuo que puede usarse para distinguir al individuo del otro usuario, en el que dichos parches son pequeñas ventanas de muestreo dentro de la máscara del área de la palma.
En una realización, la Firma 125 es un vector calculado de la siguiente manera. Primero, se calcula un histograma de orientaciones de bordes en un número de regiones bien elegidas de la imagen. Esto se puede realizar utilizando uno de los métodos bien conocidos de visión por ordenador para extraer descriptores de imágenes locales, tales como la Transformación de Características Invariables de Escala (SIFT) (véase, por ejemplo, referencia 5), Histograma de Gradientes Orientados (HOG) (véase, por ejemplo, referencia 6), y otras referencias conocidas en la técnica. En segundo lugar, cada histograma de orientación se compara con un número de prototipos que se han calculado a partir de datos de entrenamiento, por ejemplo, utilizando el bien conocido algoritmo de agrupamiento de K-medias. Finalmente, el vector de firma se forma de tal manera que el componente k del vector corresponde al prototipo k-ésimo mencionado anteriormente. El componente k contiene el número de regiones para las cuales el histograma estaba más cerca del prototipo k que de todos los demás prototipos. Esta secuencia de operaciones se conoce en la literatura como una representación de "Bolsa de características" (véase la referencia 7, por ejemplo). Debería ser evidente a partir de las enseñanzas actuales que en otra realización de la presente invención, se pueden usar múltiples Bolsas de Características para preservar la relación geométrica entre regiones locales.
La Firma 125 es entonces alimentada al Motor de Autenticación e Identificación (Motor AID) 130, el cual sirve para implementar muchos de los procesos clave de la presente invención como se describe aquí más adelante. El Motor AID 130 se comunica con la Base de datos de los Modelos de Usuario 135, si está presente, para almacenar una copia local de un modelo de usuario. Por lo tanto, en el caso de aplicaciones o servicios que residen localmente en el Dispositivo 100 y no requieren comunicación externa con, por ejemplo, servidores remotos o dispositivos remotos, una firma del usuario resultante de las imágenes de huella de la palma tomadas por la Cámara 105 se puede comparar con los modelos de usuario conocidos, almacenados en la Base de Datos de Modelos de Usuario 135 para autenticación o identificación. Los modelos de usuario son modelos estadísticos calculados a partir de una colección de imágenes de la palma de un individuo, con las firmas derivadas de esas imágenes que definen el modelo. En una realización, el modelo de usuario consiste en un denominado modelo de densidad Gaussiana de las firmas calculadas a partir de las imágenes de referencia del usuario. Dada la firma de la imagen de consulta S, el modelo de usuario se utiliza para calcular una puntuación coincidente. Se considera que la firma coincide con el modelo de usuario si la puntuación coincidente
Figure imgf000005_0001
donde Mi y Vi son la media y la varianza del componente i-ésimo de los vectores de firma de todas las imágenes de referencia del usuario dado, y u es una pequeña constante. Se considera que la firma es coincidente con el modelo de usuario si la puntuación de coincidencia R es mayor que un umbral preseleccionado para este modelo de usuario. El Motor de Autenticación e Identificación 130, el Motor de Construcción de Modelos 155 y la Base de datos de Modelos de Usuario 135 forman una unidad AID 160.
La Firma 125 también se alimenta al Motor de Construcción de Modelos 155 para inicializar el modelo de usuario durante la primera vez que se inscribe o incorpora selectivamente la información de la firma para refinar el modelo de usuario almacenado en la Base de datos de Modelos de Usuario 135 si el modelo ya está presente. En una realización de la presente invención, el Motor de Construcción de Modelos 155 actualiza las medias y varianzas Mi y Vi mencionados anteriormente usando la firma extraída de nuevas imágenes del usuario.
El Dispositivo 100 también contiene preferiblemente una Interfaz de Recursos Remotos 145, que se comunica con el Motor AID 130. La Interfaz de Recursos Remotos 145 sirve como interfaz entre las funcionalidades de autenticación e identificación implementadas en el Dispositivo 100 y esas mismas funcionalidades que ocurren en recursos externos/remotos, tales como servidores remotos y dispositivos remotos. Así, por ejemplo, la Interfaz de Recursos Remotos 145 interactúa con aplicaciones residentes en servidores remotos para coordinar la autenticación o identificación según lo requieran las aplicaciones remotas. Esto puede incluir gestionar y responder a solicitudes de recursos externos para la autenticación o identificación de un usuario que opera el Dispositivo 100 o para la autenticación o identificación del Dispositivo 100 en sí mismo.
La Interfaz de Recursos Remotos 145 puede comunicarse con la Interfaz de Red 150 para transmitir y recibir datos en relación con las actividades de autenticación e identificación. Se pueden utilizar diversos protocolos de comunicación inalámbrica, incluida la radiofrecuencia, así como otros, incluidos, y sin limitación, Bluetooth y otras tecnologías de comunicaciones de campo cercano. En una realización preferida de la presente invención, los datos comunicados de un lado a otro desde el Dispositivo 100 a través del enlace inalámbrico abierto se aseguran como se conoce en la técnica mediante, por ejemplo, encriptación y/u otras metodologías, que reducen o eliminan el posibilidad de que los datos del usuario y otros datos asociados con las metodologías de autenticación e identificación de la presente invención puedan ser interceptados por partes no autorizadas. La Interfaz de Red 150 típicamente comprende un módulo transceptor de radiofrecuencia como se conoce en la técnica y permite que el Dispositivo 100 se comunique a través de un enlace inalámbrico con la Red Inalámbrica 400. La Red Inalámbrica 400, a su vez, típicamente hace retroceder los datos que son transmitidos por o para ser recibidos por Dispositivo 100 a la Red de Datos 500, nuevamente como se conoce en la técnica.
Solo a manera de ejemplo, la presente invención permite a los usuarios del Dispositivo 100 o el Dispositivo 100 en sí mismo autenticarse o identificarse mediante servidores remotos y aplicaciones y otros recursos que residen en servidores remotos. Como se ilustra en la Figura 1, el Servidor Remoto 200 puede comunicarse con el Dispositivo 100 a través de la ruta de comunicación discutida anteriormente. De esta manera y según lo controlado por la Interfaz de Recursos Remotos 145 que reside en el Dispositivo 100, la Unidad AID 205 que reside en el Servidor Remoto 200 puede solicitar y recibir datos de autenticación e identificación del Dispositivo 100 para compararlos con modelos de usuarios conocidos y validados que residen en o son accesibles por el Servidor Remoto 200 como se describe más detalladamente a continuación. Esta capacidad de autenticación e identificación proporciona acceso selectivo a una o más Aplicaciones 210, Datos 215 y otros recursos que residen en el Servidor Remoto 200. La misma capacidad también puede proporcionar acceso selectivo a los Recursos Locales 140, incluidas aplicaciones, datos y/o otros recursos que residen en el Dispositivo 100, así como en los casos en que tales recursos locales buscan acceso a datos u otros recursos que son remotos al Dispositivo 100.
En otra realización de la presente invención, la comunicación como se discutió anteriormente puede ocurrir entre el Dispositivo 100 y uno o más Dispositivos Remotos 300. Los Dispositivos Remotos 300 pueden ser los mismos o diferentes tipos de dispositivos que el Dispositivo 100 y la funcionalidad de autenticación/identificación de acuerdo con las enseñanzas de la presente invención puede ocurrir en ambos sentidos. En otras palabras, el Dispositivo 100 puede responder a las solicitudes de autenticación/identificación del Dispositivo Remoto 300 para acceder, por ejemplo, a una o más Aplicaciones 310 y/o Datos 315 que residen en el Dispositivo Remoto 300 a través de la Unidad AID 305 en el Dispositivo Remoto 300. Pero también, el Dispositivo Remoto 300 puede recibir y responder a las solicitudes de autenticación e identificación iniciadas por el Dispositivo 100 con el fin de que el Dispositivo Remoto 300 (o un usuario que lo opera) acceda a los recursos residentes en el Dispositivo 100. En algunos casos, tanto el Dispositivo 100 como el Dispositivo Remoto 300 requerirá autenticación y/o identificación del otro antes de compartir los recursos. Esto puede ocurrir, por ejemplo, en el contexto de una comunicación segura deseada entre los usuarios del Dispositivo 100 y el Dispositivo Remoto 300.
Volviendo ahora a la Figura 2, se describe a continuación la metodología de autenticación y/o identificación de usuario/dispositivo de acuerdo con una realización preferida de la presente invención. A modo de discusión inicial, se describe primero la diferencia entre autenticación e identificación en el contexto de las enseñanzas de la presente invención.
En el caso de la autenticación, el usuario presenta una identidad en forma de una ID de usuario o nombre de usuario y el sistema de la presente invención verifica que el usuario es realmente quien dice ser. Luego, el sistema compara la firma derivada de una imagen o imágenes de la palma del usuario con el modelo correspondiente en la base de datos de modelos de usuario. Si coinciden, el usuario se autentica. Si no coinciden, el usuario es rechazado.
El diagrama de flujo para la autenticación de usuario de acuerdo con las enseñanzas de la presente invención, en una realización preferida, se muestra en la Figura 4. Como primera etapa, el usuario en el Dispositivo 100 puede ingresar su nombre u otra información de identificación en el Dispositivo 100, o la identidad del usuario ya puede estar precargada en el Dispositivo 100. Por separado, el usuario toma una imagen o un conjunto de imágenes de la palma de su mano o manos usando la Cámara 105 del Dispositivo 100. A continuación, el Procesador de Datos de Cámara 110 envía los datos de píxeles sin procesar al Detector de Región de Interés 115 el cual determina el área de la palma dentro de la imagen. El área de la palma enmascarada del Detector de Región de Interés 115 se alimenta al Procesador de Conversión 120, el cual deriva la firma única del usuario. Esta función de conversión puede procesarse alternativamente en un recurso remoto o parcialmente en un recurso remoto y parcialmente en el Dispositivo 100. Sin contacto directo entre el área de la palma de la imagen y el Dispositivo 100, utilizando imágenes de alta resolución de la mano, tomadas en forma libre y en cualquier orientación por parte del usuario final sin ningún hardware especial más allá de una cámara digital común, el sistema de la presente invención identifica al individuo utilizando una solución de software multietapas que involucra extracción de características, procesamiento de características en firmas de usuario y la coincidencia de firmas de usuario con firmas de usuario almacenadas o modelos de usuario en los que: (i) se detectan y segmentan una o varias regiones de interés de la imagen de entrada para eliminar datos de píxeles extraños y aislar el área de la palma; (ii) se extraen de la imagen un número de vectores de características dispersas de alta dimensión (véase, por ejemplo, la referencia 8); (iii) se crea una única firma para cada imagen en un proceso en el que los vectores de características cercanos se agrupan en una representación de imagen más compacta y robusta; y (iv) múltiples firmas de imágenes se combinan en un modelo de identidad para cada usuario individual.
El Motor de Autenticación e Identificación 130 luego busca el modelo del usuario (basado en los datos de identificación del usuario presentados previamente) en la Base de datos de Modelos de Usuario 135. En este punto, si la firma del usuario derivada coincide con el modelo de usuario almacenado, el usuario se autentica y se permite el acceso al recurso o conjunto de recursos deseado. Alternativamente, si la firma y el modelo del usuario no coinciden, entonces se le denegará al usuario el acceso al recurso o conjunto de recursos deseado. La funcionalidad anterior con respecto a la búsqueda y la coincidencia puede realizarse alternativamente de forma remota al Dispositivo 100.
En caso de identificación, el usuario presenta solo una imagen de huella de la palma o un conjunto de imágenes, y el Motor de Autenticación e Identificación 130 compara la firma derivada de la imagen o imágenes de huella de la palma con todos los modelos o un subconjunto de modelos en la Base de datos de Modelos de Usuario 135. Si se encuentra una coincidencia, entonces el usuario es identificado. Si no se encuentra ninguna coincidencia, el usuario es desconocido.
El diagrama de flujo para la identificación del usuario se muestra en la Figura 5. En este caso, como en el caso de la autenticación, el usuario toma una fotografía o un conjunto de fotografías de la palma de su mano. Estos datos son procesados nuevamente en forma de píxeles por el Procesador de Datos de Cámara 110 y enviados al Detector de Región de Interés 115 para determinar el área de la palma dentro de la imagen. El área de la palma enmascarada del Detector de Región de Interés 115 se alimenta al Procesador de Conversión 120, lo cual deriva la firma única del usuario y luego el Motor AID 130 compara la firma derivada con todos los modelos o un subconjunto de modelos almacenados en la Base de datos de Modelos de Usuario 135. Las funciones de conversión y comparación mencionadas anteriormente podrían procesarse alternativamente en un recurso remoto o parcialmente en un recurso remoto y parcialmente en el Dispositivo 100. En cualquier caso, si se encuentra una coincidencia, entonces el usuario es identificado y se le puede otorgar acceso a un recurso o conjunto de recursos. Si no se encuentra ninguna coincidencia, el usuario no puede ser identificado y no se otorgará acceso al recurso o conjunto de recursos deseado.
El modo (autenticación o identificación) utilizado depende de la aplicación. En general, la autenticación proporciona un mayor grado de precisión, pero un menor nivel de experiencia del usuario debido a la etapa adicional que un usuario debe tomar para ingresar un factor adicional de su identidad. El segundo factor de identidad puede tomar cualquiera de las formas comunes, tales como un nombre de usuario, ID de usuario, contraseña, ID de empleado único, número de seguro social, dirección de correo electrónico, una variedad de otras modalidades biométricas, entre otras. En una realización de la presente invención, el segundo factor de identidad es la firma derivada de las imágenes de huella de la palma de la segunda mano del individuo, con las firmas individuales de cada una de las imágenes o conjuntos de imágenes de la palma del individuo utilizadas en conjunto para autenticación o identificación.
Es importante tener en cuenta que en cada caso descrito anteriormente (autenticación o identificación), en lugar de comparar una firma de usuario con un modelo dentro de la Base de datos de Modelos de Usuario 135 localmente ubicada dentro del Dispositivo 100, una firma generada por una imagen o conjunto de imágenes de una palma del usuario tomada en el Dispositivo 100 podría coincidir con un modelo o modelos contenidos en una base de datos ubicada en uno o ambos del Servidor Remoto 200 o uno o más Dispositivos Remotos 300. En este caso, el usuario del Dispositivo 100 típicamente buscaría acceso a uno o más recursos residentes en estas plataformas remotas en lugar de un recurso ubicado localmente dentro del Dispositivo 100. A modo de ejemplo, en el caso de desbloquear, por ejemplo, un teléfono inteligente, el procesamiento podría realizarse localmente en el teléfono inteligente/Dispositivo 100, mientras que si la autenticación se está llevando a cabo, por ejemplo, en relación con una aplicación con base remota, alguna porción del procesamiento podría realizarse en un Servidor Remoto 200 con modelos de usuario para compararlos con el posible almacenamiento en el Servidor Remoto 200 en lugar de localmente en el teléfono inteligente. Además, debería ser evidente a partir de las enseñanzas actuales que los modelos de usuario, las firmas y/u otros datos biométricos pueden sincronizarse entre cualquiera de las Unidades AID 160, 205, 305 para permitir la autenticación o identificación local en uno cualquiera de los Dispositivos 100, Servidor Remoto 200, Dispositivo Remoto 300 sin dicho Dispositivo 100, el Servidor Remoto 200 o el Dispositivo Remoto 300 han generado ese modelo de usuario, firma y/u otros datos biométricos localmente.
Volviendo ahora a la Figura 2, se puede ver que en una realización preferida de la presente invención, en la etapa (1), el Dispositivo 100 se usa para tomar una imagen o serie de imágenes de la palma del usuario a identificar (etapa (2)) con la Cámara 105 (etapa (3)). Se puede integrar un componente de flash (etapa (4)) en el Dispositivo 100 para proporcionar el preprocesamiento necesario de la imagen, particularmente en lo que se refiere a proporcionar una luz mínima suficiente para la detección de la región de interés, la extracción de características y el procesamiento de la firma de la imagen de la palma del individuo. A continuación, la región de la palma de la imagen se enmascara mediante el Detector de Región de Interés 115 (etapa (5)) y se alimenta al Procesador de Conversión 120 (etapa (6)) para convertir píxeles sin procesar en una firma de usuario de identificación única, la Firma 125. La firma de usuario es un código compacto que contiene información de identificación relevante asociada con la imagen de huella de la palma del usuario y puede coincidir de manera rápida y precisa con una gran base de datos de modelos de usuario tal como la Base de datos de Modelos de Usuario 135 o una base de datos en una plataforma remota (etapa (7)) Un beneficio de la firma de usuario derivada es que hace que sea esencialmente imposible reconstruir la imagen de la palma de un usuario a partir de una base de datos de modelos de usuario. En la etapa (8), el Motor AID 130 compara la firma de usuario a partir de la imagen de la palma o el conjunto de imágenes con las de la base de datos de modelos de usuario para identificar o autenticar al usuario según corresponda. Las funciones de conversión y comparación mencionadas anteriormente podrían procesarse alternativamente en un recurso remoto o parcialmente en un recurso remoto y parcialmente en el Dispositivo 100.
Volviendo ahora a la Figura 3, se puede ver que en los casos en que se realiza la autenticación o identificación con respecto a un recurso remoto, la comunicación entre el Dispositivo 100 y ese recurso remoto se produce preferiblemente a través de una conexión segura como se conoce en la técnica. Esto puede implicar una o más técnicas, como se sabe en la técnica, que incluyen, por ejemplo, encriptación segura, encriptación de clave pública o privada, certificados digitales y/o firmas digitales, entre otras.
Ahora que se han descrito el sistema y las metodologías principales de la presente invención, se discutirán novedosas características adicionales, tales como diversas metodologías para evitar la suplantación de identidad en relación con la autenticación/identificación, así como una novedosa metodología para codificar e intercambiar información de transacciones con recursos remotos.
La protección contra la suplantación es un aspecto importante de esta invención. Evita que los adversarios, por ejemplo, usen una fotografía impresa de una palma en lugar de una mano real para la autenticación. Un aspecto novedoso de la presente invención que está dirigida a la protección contra la suplantación implica detectar y usar las características tridimensionales de una mano humana para proporcionar seguridad contra la suplantación de identidad.
En un ejemplo de detección de suplantación, para distinguir entre una fotografía y una mano real, el sistema de la presente invención toma una serie de imágenes en secuencia rápida, utilizando el flash de la cámara de manera intermitente y en diferentes períodos de tiempo. Las imágenes de un objeto tridimensional (una mano real) tomadas con el flash tendrán ciertas regiones resaltadas y sombras creadas por el flash, mientras que en las posiciones de la mano en las que una representación bidimensional de la mano (por ejemplo, un la fotografía impresa de una palma o una imagen de la palma que se muestra en la pantalla de visualización de otro dispositivo móvil) no mostraría tales regiones y sombras resaltadas. Esto permite que el sistema de la presente invención utilice una comparación de las regiones y sombras resaltadas en la mano creada entre las fotos con flash y sin flash para distinguir entre una fotografía impresa y una mano real. De esta manera, una parte no autorizada que haya obtenido una imagen de la palma de un usuario autorizado no puede usar esa imagen para obtener acceso no autorizado a recursos locales o remotos.
Métodos adicionales para detectar una mano real incluyen el modelado tridimensional de la mano. En este caso, el sistema de la presente invención puede incitar al usuario a girar la mano mientras se toman una serie de imágenes múltiples. Un verdadero objeto 3-D revelará diferentes partes de la mano con cada imagen sucesiva, mientras que un objeto 2-D siempre mostrará exactamente la misma parte de la mano, solo con diferentes grados de distorsión. Esto permite que el sistema de la presente invención distinga entre una fotografía impresa y una mano real. Del mismo modo, en lugar de girar la mano, se le puede solicitar al usuario que cierre la mano en puño o que la abra desde el puño mientras se toma la serie de imágenes. También son posibles otros métodos para distinguir una mano real de la fotografía de una mano.
Otro aspecto novedoso de la presente invención es una metodología en la que se pueden detectar y prevenir ataques de repetición. En este caso, un adversario modifica un dispositivo móvil de modo que envía una o una serie de imágenes grabadas previamente de la mano real de un usuario legítimo a la red para autenticación o identificación en lugar de enviar las imágenes tomadas por la cámara. Aquí se supone que el adversario podría tomar fotografías de la mano de un usuario autorizado sin que el usuario autorizado sea consciente o pueda evitarlo. Si esto es de hecho un riesgo (por ejemplo, un caso en el que un usuario autorizado está durmiendo o inconsciente), entonces es preferible para el sistema que se use de tal manera que se requieran uno o más factores de identidad adicionales, tales como ID de usuario u otra forma de datos independiente de la imagen de huella de la palma para autenticar a un usuario.
Para detectar y defenderse contra un ataque de repetición, el sistema de la presente invención emite una serie de imágenes y flashes en una variedad de intervalos, es decir, graba una serie de imágenes, algunas con el flash apagado y otras con el flash encendido. Las imágenes específicas y la secuencia de encendido/apagado del flash se pueden elegir al azar o de acuerdo con una secuencia predeterminada y pueden cambiar para cada solicitud de autenticación o identificación. El sistema de la presente invención puede detectar fácilmente si un adversario usa una serie de imágenes previamente grabadas porque el patrón de activación/desactivación de las imágenes y los flashes no coincidirán con el que realmente se envió al dispositivo móvil.
Otro método para detectar un ataque de repetición implica almacenar todas las imágenes utilizadas anteriormente y comparar nuevas imágenes con esa base de datos. Debido a que los datos de píxeles subyacentes a las imágenes de dos palmas diferentes nunca pueden ser exactamente iguales o sustancialmente iguales a un cierto nivel de tolerancia, el sistema puede detectar cuándo se usa nuevamente una imagen tomada previamente. También son concebibles otros métodos para detectar un ataque de repetición.
Otro aspecto novedoso de la presente invención es la capacidad de integrar información de transacciones u otros datos dentro del tiempo de una serie de fotografías y/o patrones de flash . Este patrón de tiempo se puede utilizar además para codificar información sobre la transacción en sí misma. Entonces se puede aplicar un código de direccionamiento criptográfico a esta información. El código de direccionamiento hace que el código resultante sea compacto (corto) y también evita que cualquier persona que observe el patrón flash obtenga información sobre el contenido original del código. En una realización de la presente invención, la sincronización de la secuencia de imágenes y/o patrones de flash se utiliza como parte de un mecanismo antisuplantación de identidad para determinar si la secuencia de imágenes proporcionada para autenticación o identificación coincide con la información de la transacción misma. Una implementación específica puede incluir:
1. Un vídeo de baja resolución del área de la palma con los patrones de flash.
2. Una o varias imágenes fijas de alta resolución del área de la palma.
3. Tecnología de visión por ordenador para garantizar que las imágenes de alta resolución provengan del mismo objeto que las del vídeo.
Con base en la descripción anterior del sistema y las metodologías de la presente invención, se puede entender que son posibles diversas aplicaciones. Ejemplos incluyen, sin limitación, acceso a uno o más dispositivos, acceso a una o más aplicaciones residentes en esos dispositivos o ubicadas de forma remota en un servidor u otros dispositivos remotos, una variedad de aplicaciones transaccionales (tales como votación electoral, distribución de beneficios sociales del Estado), pagos financieros) y cualquier otro tipo de transacción que requiera la validación de la identidad del usuario.
En resumen, en realizaciones de ejemplo, la presente invención proporciona sistemas informáticos (que incluyen una combinación de software que se ejecuta en hardware adecuado), métodos implementados por ordenador y dispositivos para autenticación o identificación de un individuo que incluye el uso de una imagen o un conjunto de imágenes de la palma de una persona a través de un proceso que involucra las siguientes etapas: (1) detectar el área de la palma usando clasificadores locales; (2) extraer características de las regiones de interés; y (3) calcular el puntaje de coincidencia contra modelos de usuario almacenados en una base de datos, que pueden aumentarse dinámicamente a través de un proceso de aprendizaje. Por lo tanto, la invención incluye un sistema para proporcionar acceso selectivo a los recursos disponibles en conexión con un dispositivo que comprende software ejecutado en hardware informático adecuado, en el que el sistema comprende: (a) al menos una cámara asociada con dicho dispositivo, siendo dicha cámara capaz de tomar al menos una fotografía de una huella de la palma humana; (b) un módulo detector que utiliza clasificadores locales para localizar y segmentar la región de interés de la palma sin contacto físico; (c) un procesador de conversión que convierte los datos de píxeles sin procesar asociados con dicha región de interés de una huella de la palma humana en una firma única asociada con dicha huella de la palma; y (d) un motor de autenticación e identificación, determinando dicho motor de autenticación e identificación si el acceso a uno o más de dichos recursos debe otorgarse con base en dicha firma única y al menos una base de datos que contiene una pluralidad de modelos de usuario. El sistema puede comprender además un procesador de aprendizaje que mejora los modelos de usuario con nuevos datos, en el que el procesador de aprendizaje incluye selectivamente dicha imagen de huella de la palma para aumentar dicha base de datos y dicho motor de autenticación e identificación. En realizaciones, el dispositivo es un dispositivo móvil, mientras que en otras realizaciones, el dispositivo es un dispositivo de escritorio o un dispositivo integrado estacionario. El sistema puede incluir un componente de flash que se activa selectivamente en el momento de la captura de imágenes para proporcionar luz mínima suficiente para la detección de la región de interés, la extracción de características y el procesamiento de firma de la imagen de la palma de humano. En realizaciones, el procesador de conversión del sistema usa descriptores extraídos de parches sobre la región de interés. Los descriptores se pueden codificar en vectores dispersos de alta dimensión, que se pueden agrupar en al menos un grupo.
El sistema de la invención puede tener, como parte del método implementado dentro del sistema, la característica de calcular una firma de una Bolsa de Características o múltiples representaciones de Bolsas de Características. Además, el módulo detector del sistema puede usar los algoritmos Haar Wavelets y AdaBoost. En diversas realizaciones, el sistema incluye un módulo detector que utiliza máquinas de vectores de soporte o una red neuronal convolucional. El módulo de usuario del sistema puede ser un modelo estadístico calculado a partir de una colección de imágenes de la palma de un humano. Del mismo modo, el modelo de usuario puede ser un modelo de densidad gaussiana o una mezcla de modelo de densidad gaussiana.
El sistema de la invención puede configurarse de tal manera que al menos uno de los recursos esté alejado del dispositivo. Alternativamente, al menos uno de los recursos puede residir en el dispositivo. En algunas realizaciones, al menos uno de los recursos es una aplicación o una base de datos.
En realizaciones del sistema de la invención, las firmas individuales de cada una de las dos imágenes de huella de la palma de un humano, si están disponibles, se utilizan en conjunto para la autenticación o identificación del humano.
En algunas realizaciones del sistema de la invención, la autenticación o identificación de huellas de la palmas se combina con otras modalidades, tales como una o más de las siguientes: claves de acceso, preguntas de seguridad, reconocimiento de huellas digitales, reconocimiento facial, reconocimiento de iris, reconocimiento de firma escrita y otras modalidades biométricas y no biométricas.
El sistema de la invención puede implementarse de tal manera que una aplicación permita selectivamente que uno o más usuarios realicen una o más transacciones.
El sistema de la invención también puede incluir el uso de una secuencia de imágenes con flash y sin flash de la palma de la mano de un humano, que se pueden usar, entre otras cosas, como parte de un mecanismo antisuplantación para determinar si la mano presentada es objeto tridimensional o una representación bidimensional de una mano. Además, el sistema de la invención puede implementarse de tal manera que los datos de imagen capturados durante el movimiento de la palma del humano se utilicen como parte de un mecanismo antisuplantación para determinar si la mano presentada es un objeto en representación 3-D o en 2-D de una mano. En algunas realizaciones, la secuencia de imágenes flash y no flash de la palma del humano, así como los intervalos de tiempo entre imágenes sucesivas, se utilizan como parte de un mecanismo antisuplantación para determinar si un adversario está intentando utilizar una secuencia previamente grabada de imágenes para autenticación o identificación.
En algunas realizaciones de la invención, todas las imágenes previamente utilizadas de un humano se almacenan, tal como en una base de datos residente en un dispositivo informático, para compararlas contra nuevas imágenes como parte de un mecanismo antisuplantación para determinar si un adversario está intentando utilizar imágenes previamente grabadas para autenticación o identificación. Y aún además, en ciertas realizaciones, el sistema de la invención se implementa de tal manera que la información de la transacción u otros datos se integran dentro del tiempo de una secuencia de imágenes y/o patrones de flash como parte de un mecanismo antisuplantación para determinar si la secuencia de imagen proporcionada para la autenticación o identificación coincide con la información de la transacción misma.
Si bien se han mostrado y descrito realizaciones particulares de la presente invención, será obvio para los expertos en la técnica que, basándose en las enseñanzas de la presente, se pueden hacer cambios y modificaciones sin apartarse de esta invención y sus aspectos más amplios.
Referencias citadas
(1) Paul Viola and Michael Jones, Rapid Object Detection using a Boosted Cascade of Simple Features, Proceedings of IEEE Computer Vision and Pattern Recognition, 2001, pages 1:511-518.
(2) Corinna Cortes and Vladimir N.Vapnik, Support-Vector Networks, Machine Learning, 20, 1995.
(3) Yann LeCun, Léon Bottou, Yoshua Bengio, Patrick Haffner: Gradient-Based Learning Applied to Document Recognition, Proceedings of the IEEE, 86(11):2278-2324, November 1998.
(4) Pierre Sermanet, Koray Kavukcuoglu, Soumith Chintala and Yann LeCun: Pedestrian Detection with Unsupervised Multi-Stage Feature Learning, Proc. International Conference on Computer Vision and Pattern Recognition (CVPR'13), IEEE, June 2013.
(5) David G. Lowe, "Distinctive image features from scale-invariant keypoints," International Journal of Computer Vision, 60, 2 (2004), pp. 91-110.
(6) N. Dalal and B. Triggs. Histograms of oriented gradients for human detection. In Proceedings of Computer Vision and Pattern Recognition, 2005.
(7) Y-Lan Boureau, Jean Ponce and Yann LeCun: A theoretical analysis of feature pooling in vision algorithms, Proc. International Conference on Machine learning (ICML'10), 2010.
(8) Yann LeCun, Koray Kavukvuoglu and Clément Farabet: Convolutional Networks and Applications in Vision, Proc. International Symposium on Circuits and Systems (ISCAS'10), IEEE, 2010.

Claims (15)

REIVINDICACIONES
1. Un sistema antisuplantación para detectar y usar características tridimensionales de una huella de la palma humana con el fin de proporcionar acceso selectivo a los recursos disponibles en conexión con un teléfono inteligente basado en un método de aprendizaje, comprendiendo el sistema:
(a) un teléfono inteligente que comprende un procesador digital, un módulo de memoria, un sistema operativo y medios de almacenamiento no transitorios que comprenden instrucciones ejecutables por el procesador digital;
(b) al menos una cámara asociada con el teléfono inteligente y configurada para capturar una pluralidad de imágenes que comprenden una imagen con flash y una imagen sin flash de una huella de la palma humana de un primer usuario, en donde la pluralidad de imágenes se captura sin que la palma humana toque físicamente el teléfono inteligente; y
(c) al menos un componente de flash asociado con el teléfono inteligente y configurado para emitir un flash durante la captura de la imagen con flash y no emitir un flash durante la captura de la imagen sin flash,
en donde el procesador digital está configurado para realizar lo siguiente:
(1) utilizar clasificadores locales basados en ventanas deslizantes y clasificadores formados por características locales discriminatorias aprendidas de una colección de imágenes de ejemplo para analizar la imagen con flash y la imagen sin flash de la huella de la palma humana para etiquetar los píxeles de la palma y los que no son de la palma mediante puntajes de clasificación;
(2) usar un detector para localizar y segmentar una región de interés de la huella de la palma humana dentro de la imagen con flash y la imagen sin flash ;
(3) usar pequeñas ventanas de muestreo dentro de la región de interés para identificar parches de imágenes que abarcan rasgos biométricos característicos de la huella de la palma humana;
(4) extraer una firma de datos a nivel de píxel de los parches de imagen, en donde la firma es única para el primer usuario y se usa para distinguir al primer usuario de un segundo usuario, y en donde la extracción de la firma comprende crear un histograma de orientaciones de borde en una pluralidad de parches de imagen;
(5) determinar un intento de suplantación con base en una característica tridimensional de la huella de la palma humana y una pluralidad de modelos de usuario almacenados determinando si la imagen con flash representa un objeto tridimensional o una representación bidimensional de una palma humana, en donde la característica tridimensional se basa en una comparación entre la imagen con flash y la imagen sin flash , y en donde la comparación entre la imagen con flash y la imagen sin flash comprende determinar una región resaltada y una región de sombra en al menos una de la imagen con flash y la imagen sin flash ;
(6) denegar el acceso a uno o más de los recursos al primer usuario, basado en la determinación del intento de suplantación de identidad; y
(7) almacenar al menos una de la pluralidad de imágenes de la huella de la palma humana y la característica tridimensional en la colección de imágenes de ejemplo.
2. El sistema antisuplantación de la reivindicación 1, en donde el procesador digital está configurado además para mejorar la pluralidad de modelos de usuario con nuevos datos incluyendo selectivamente al menos una imagen de la huella de la palma humana, los datos a nivel de píxel de parches de imagen y la firma para aumentar la al menos una base de datos y la determinación del intento de suplantación.
3. El sistema antisuplantación de la reivindicación 1 o la reivindicación 2, en donde el procesador digital está configurado además para funcionar usando descriptores extraídos de los parches de imagen sobre la región de interés, en donde los descriptores están codificados en vectores dispersos de alta dimensión, y en donde los vectores dispersos se agrupan en al menos un grupo.
4. El sistema antisuplantación de cualquiera de las reivindicaciones precedentes, en donde la firma se calcula a partir de una Bolsa de Características o múltiples representaciones de Bolsas de Características.
5. El sistema antisuplantación de cualquiera de las reivindicaciones precedentes, en donde el procesador digital, para analizar la imagen con flash y la imagen sin flash de la huella de la palma humana, está configurado además para funcionar usando uno o más de los siguientes: Algoritmos Haar Wavelets y AdaBoost, máquinas de vectores de soporte y una red neuronal convolucional; y los modelos de usuario comprenden uno o más de los siguientes: un modelo estadístico calculado a partir de una colección de imágenes de la palma humana del primer usuario, un modelo de densidad gaussiana y una mezcla de modelos de densidad gaussiana.
6. El sistema antisuplantación de una cualquiera de las reivindicaciones precedentes, en donde al menos uno de los recursos está alejado del teléfono inteligente, es residente en el teléfono inteligente, es una aplicación o es una base de datos.
7. El sistema antisuplantación de una cualquiera de las reivindicaciones precedentes, en donde las firmas individuales de ambas imágenes de huella de la palma de la mano del primer usuario se utilizan juntas para la determinación del intento de suplantación.
8. El sistema antisuplantación de una cualquiera de las reivindicaciones precedentes, en donde la denegación de acceso a uno o más de los recursos al primer usuario se combina con una o más otras modalidades biométricas, comprendiendo la una o más otras modalidades biométricas una o más más de lo siguiente: códigos de acceso, preguntas de seguridad, reconocimiento de huellas digitales, reconocimiento facial, reconocimiento de iris y reconocimiento de firma escrita.
9. El sistema antisuplantación de una cualquiera de las reivindicaciones precedentes, en donde denegar el acceso a uno o más de los recursos se basa además en denegar selectivamente a uno o más usuarios realizar una o más transacciones.
10. El sistema antisuplantación de cualquiera de las reivindicaciones precedentes, en donde al menos dos de la pluralidad de imágenes se capturan durante un movimiento de la palma humana, y en donde la característica tridimensional se basa además en el movimiento.
11. El sistema antisuplantación de una cualquiera de las reivindicaciones precedentes, en donde la pluralidad de imágenes comprende una secuencia de imágenes con flash e imágenes sin flash, y en donde la determinación del intento de suplantación se basa además en una comparación entre la secuencia de imágenes con flash y sin flash y una secuencia previamente grabada de imágenes con flash y sin flash .
12. El sistema antisuplantación de cualquiera de las reivindicaciones precedentes, en donde la determinación del intento de suplantación se basa además en una comparación entre al menos una de la pluralidad de imágenes y al menos una imagen de la primera huella de la palma del usuario en la colección de imágenes de ejemplo.
13. El sistema antisuplantación de la reivindicación 12, en donde una información de transacción u otros datos se integran dentro de uno o más intervalos de tiempo entre imágenes subsecuentes, y en donde la determinación del intento de suplantación se basa además en una comparación entre la información de la transacción y el transacción.
14. El sistema antisuplantación de una cualquiera de las reivindicaciones precedentes, en donde la captura de al menos una de la pluralidad de imágenes está separada de la captura de una imagen subsecuente por un intervalo de tiempo, y en donde la determinación del intento de suplantación está basado además en una comparación entre el intervalo de tiempo y un intervalo de tiempo anterior entre imágenes consecutivas previamente grabadas.
15. El sistema antisuplantación de una cualquiera de las reivindicaciones precedentes, en donde el sistema está configurado además para obtener en una serie de imágenes en secuencia rápida, con el flash de la cámara siendo usado de manera intermitente y en períodos de tiempo variables.
ES13834699T 2012-09-05 2013-09-05 Sistema y método para la autenticación biométrica en conexión con dispositivos equipados con cámara Active ES2791776T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201261696820P 2012-09-05 2012-09-05
PCT/US2013/058343 WO2014039732A2 (en) 2012-09-05 2013-09-05 System and method for biometric authentication in connection with camera-equipped devices

Publications (1)

Publication Number Publication Date
ES2791776T3 true ES2791776T3 (es) 2020-11-05

Family

ID=50189413

Family Applications (1)

Application Number Title Priority Date Filing Date
ES13834699T Active ES2791776T3 (es) 2012-09-05 2013-09-05 Sistema y método para la autenticación biométrica en conexión con dispositivos equipados con cámara

Country Status (19)

Country Link
US (3) US20140068740A1 (es)
EP (2) EP3657389A1 (es)
JP (3) JP2015529365A (es)
KR (1) KR101938033B1 (es)
CN (1) CN104756135B (es)
AP (1) AP2015008348A0 (es)
AU (2) AU2013312495B2 (es)
BR (1) BR112015004867B1 (es)
CA (1) CA2884096C (es)
EA (1) EA201590485A1 (es)
ES (1) ES2791776T3 (es)
HK (1) HK1212494A1 (es)
IL (2) IL237556B (es)
MX (1) MX346218B (es)
MY (1) MY181564A (es)
PH (2) PH12015500481A1 (es)
SG (1) SG11201501691VA (es)
WO (1) WO2014039732A2 (es)
ZA (1) ZA201502207B (es)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022219217A1 (es) * 2021-04-14 2022-10-20 Gimeno Valero Jose Sistema y un método de certificación de resultados de análisis de muestras biológicas en remoto mediante visión artificial

Families Citing this family (74)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101615472B1 (ko) 2007-09-24 2016-04-25 애플 인크. 전자 장치 내의 내장형 인증 시스템들
US8600120B2 (en) 2008-01-03 2013-12-03 Apple Inc. Personal computing device control using face detection and recognition
US9002322B2 (en) 2011-09-29 2015-04-07 Apple Inc. Authentication with secondary approver
US8769624B2 (en) 2011-09-29 2014-07-01 Apple Inc. Access control utilizing indirect authentication
MY181564A (en) * 2012-09-05 2020-12-29 Element Inc System and method for biometric authentication in connection with camera-equipped devices
US20140253711A1 (en) * 2013-03-07 2014-09-11 Advanced Optical Systems, Inc. Agile non-contact biometric sensor
US9898642B2 (en) 2013-09-09 2018-02-20 Apple Inc. Device, method, and graphical user interface for manipulating user interfaces based on fingerprint sensor inputs
CN105531709B (zh) 2013-09-27 2019-08-20 迈克菲股份有限公司 可执行对象在本地设备上的受信任的执行
US9400925B2 (en) * 2013-11-15 2016-07-26 Facebook, Inc. Pose-aligned networks for deep attribute modeling
US20150278499A1 (en) * 2013-11-21 2015-10-01 Yevgeny Levitov Motion-Triggered Biometric System for Access Control
US20150242840A1 (en) * 2014-02-25 2015-08-27 Jpmorgan Chase Bank, N.A. Systems and methods for dynamic biometric configuration compliance control
US9510196B2 (en) 2014-03-17 2016-11-29 Qualcomm Incorporated Method and apparatus for authenticating a user on a mobile device
CN111628870B (zh) * 2014-05-13 2022-03-18 埃利蒙特公司 用于电子钥匙供应、用户验证和访问管理的系统和方法
US10043185B2 (en) 2014-05-29 2018-08-07 Apple Inc. User interface for payments
JP6415607B2 (ja) 2014-06-03 2018-10-31 エレメント,インク. モバイル・デバイスに関連する出退認証および管理
US10032011B2 (en) * 2014-08-12 2018-07-24 At&T Intellectual Property I, L.P. Method and device for managing authentication using an identity avatar
US20160191512A1 (en) * 2014-12-27 2016-06-30 Mcafee, Inc. Predictive user authentication
US10339440B2 (en) 2015-02-19 2019-07-02 Digital Reasoning Systems, Inc. Systems and methods for neural language modeling
US11526885B2 (en) 2015-03-04 2022-12-13 Trusona, Inc. Systems and methods for user identification using graphical barcode and payment card authentication read data
US9940637B2 (en) 2015-06-05 2018-04-10 Apple Inc. User interface for loyalty accounts and private label accounts
US20160358133A1 (en) 2015-06-05 2016-12-08 Apple Inc. User interface for loyalty accounts and private label accounts for a wearable device
KR102429865B1 (ko) * 2015-06-17 2022-08-05 한국전자통신연구원 사용자 인증 장치
CN105654093B (zh) 2015-11-25 2018-09-25 小米科技有限责任公司 特征提取方法及装置
CN105654092B (zh) 2015-11-25 2019-08-30 小米科技有限责任公司 特征提取方法及装置
WO2017093294A1 (en) * 2015-11-30 2017-06-08 Koninklijke Philips N.V. Pulse oximetry and contactless patient biometric monitoring system
US10397208B2 (en) * 2015-12-11 2019-08-27 Paypal, Inc. Authentication via item recognition
CN105741375B (zh) * 2016-01-20 2018-09-18 华中师范大学 一种大视场双目视觉的红外图像考勤方法
US9858340B1 (en) 2016-04-11 2018-01-02 Digital Reasoning Systems, Inc. Systems and methods for queryable graph representations of videos
DK179186B1 (en) 2016-05-19 2018-01-15 Apple Inc REMOTE AUTHORIZATION TO CONTINUE WITH AN ACTION
CN109313759B (zh) 2016-06-11 2022-04-26 苹果公司 用于交易的用户界面
US10621581B2 (en) 2016-06-11 2020-04-14 Apple Inc. User interface for transactions
DK201670622A1 (en) 2016-06-12 2018-02-12 Apple Inc User interfaces for transactions
US10303865B2 (en) 2016-08-31 2019-05-28 Redrock Biometrics, Inc. Blue/violet light touchless palm print identification
US9842330B1 (en) 2016-09-06 2017-12-12 Apple Inc. User interfaces for stored-value accounts
US10496808B2 (en) 2016-10-25 2019-12-03 Apple Inc. User interface for managing access to credentials for use in an operation
US10303961B1 (en) * 2017-04-13 2019-05-28 Zoox, Inc. Object detection and passenger notification
US20200332364A1 (en) * 2017-05-12 2020-10-22 Laboratory Corporation Of America Holdings Compositions and methods for detection of diseases related to exposure to inhaled carcinogens
WO2019005257A2 (en) * 2017-06-07 2019-01-03 Hrl Laboratories, Llc NEUROMORPHIC SYSTEM FOR REAL-TIME VISUAL ACTIVITY RECOGNITION
US10643051B2 (en) 2017-07-13 2020-05-05 Samsung Electronics Co., Ltd. Optics-based fingerprint sensor, electric device including optics-based fingerprint sensor, and operation method of electric device
US20200193068A1 (en) * 2017-08-31 2020-06-18 Yeo Messaging Ltd Method Of Displaying Content On A Screen Of An Electronic Processing Device
KR102185854B1 (ko) 2017-09-09 2020-12-02 애플 인크. 생체측정 인증의 구현
EP4156129A1 (en) 2017-09-09 2023-03-29 Apple Inc. Implementation of biometric enrollment
EP3685185A4 (en) * 2017-09-18 2021-06-16 Element, Inc. METHODS, SYSTEMS AND MEDIA FOR DETECTING MYSTIFICATION DURING MOBILE AUTHENTICATION
EP3484164B1 (en) * 2017-11-13 2023-08-16 Nagravision Sàrl A method to control the display of at least one content on a screen
CN109960964A (zh) 2017-12-14 2019-07-02 红石生物特征科技有限公司 非接触式掌纹获取装置及其方法
CN108307113B (zh) * 2018-01-26 2020-10-09 北京图森智途科技有限公司 图像采集方法、图像采集控制方法及相关装置
US10867159B2 (en) * 2018-03-09 2020-12-15 Apple Inc. Electronic device including palm biometric sensor layer and related methods
EP3540635B1 (en) * 2018-03-16 2020-08-26 Identy Inc. Method for identifying an object within an image and mobile device for executing the method
FR3079333B1 (fr) * 2018-03-21 2021-05-14 Idemia Identity & Security France Procede d'enrolement de donnees pour controler une identite, et procede de controle d'identite
US11170085B2 (en) 2018-06-03 2021-11-09 Apple Inc. Implementation of biometric authentication
US10872221B2 (en) * 2018-06-21 2020-12-22 Amazon Technologies, Inc Non-contact biometric identification system
US11354692B2 (en) * 2018-08-01 2022-06-07 Motional Ad Llc System and method for keeping an automated-taxi clean
US10873577B2 (en) * 2018-08-17 2020-12-22 Evgeny Chereshnev Identifying and authorizing user data over a network based on biometric and statistical data
US10860096B2 (en) 2018-09-28 2020-12-08 Apple Inc. Device control using gaze information
US11100349B2 (en) 2018-09-28 2021-08-24 Apple Inc. Audio assisted enrollment
ES2943287T3 (es) 2019-02-26 2023-06-12 Identy Inc Método para verificar la identidad de un usuario identificando un objeto dentro de una imagen que tiene una característica biométrica del usuario y separando una porción de la imagen que comprende la característica biométrica de otras porciones de la imagen
JP7464619B2 (ja) 2019-03-12 2024-04-09 エレメント インク. モバイルデバイスによる顔認識のなりすまし検知
US11200313B2 (en) 2019-03-18 2021-12-14 Visa International Service Association Defense mechanism against component wise hill climbing using synthetic face generators
US11328352B2 (en) 2019-03-24 2022-05-10 Apple Inc. User interfaces for managing an account
CN110084224B (zh) * 2019-05-08 2022-08-05 电子科技大学 一种云上的指纹安全认证系统及方法
US10915725B2 (en) * 2019-07-01 2021-02-09 Thales Dis Usa Inc. Method to generate a slap/fingers foreground mask
US11283937B1 (en) 2019-08-15 2022-03-22 Ikorongo Technology, LLC Sharing images based on face matching in a network
US11507248B2 (en) 2019-12-16 2022-11-22 Element Inc. Methods, systems, and media for anti-spoofing using eye-tracking
US11687778B2 (en) 2020-01-06 2023-06-27 The Research Foundation For The State University Of New York Fakecatcher: detection of synthetic portrait videos using biological signals
KR20210145458A (ko) 2020-05-25 2021-12-02 삼성전자주식회사 위조 지문 검출 장치 및 위조 지문 방지를 위한 모델 업데이트 방법
CN112287903A (zh) * 2020-06-05 2021-01-29 神盾股份有限公司 屏下式指纹感测装置
US11816194B2 (en) 2020-06-21 2023-11-14 Apple Inc. User interfaces for managing secure operations
US11509833B2 (en) * 2021-03-04 2022-11-22 Ford Global Technologies, Llc Illumination control for vehicle sensors
US11663805B1 (en) * 2021-03-23 2023-05-30 Amazon Technologies, Inc. Utilizing sensor data for automated user identification
US11816932B1 (en) * 2021-06-29 2023-11-14 Amazon Technologies, Inc. Updating identification data in automated user-identification systems
KR20230063894A (ko) * 2021-10-26 2023-05-10 주식회사 카카오브이엑스 딥러닝 기반 비접촉식 장문 인식 시스템 및 방법
US11688204B1 (en) * 2022-01-28 2023-06-27 Armatura Llc System and method for robust palm liveness detection using variations of images
US11941911B2 (en) 2022-01-28 2024-03-26 Armatura Llc System and method for detecting liveness of biometric information
US11721132B1 (en) 2022-01-28 2023-08-08 Armatura Llc System and method for generating region of interests for palm liveness detection

Family Cites Families (105)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3733861A (en) 1972-01-19 1973-05-22 Recognition Devices Electronic recognition door lock
US4371951A (en) * 1980-09-29 1983-02-01 Control Data Corporation Apparatus for converting serial input sparse vector format to parallel unpacked format for input to tandem arithmetic logic units
US5067164A (en) 1989-11-30 1991-11-19 At&T Bell Laboratories Hierarchical constrained automatic learning neural network for character recognition
US5058179A (en) 1990-01-31 1991-10-15 At&T Bell Laboratories Hierarchical constrained automatic learning network for character recognition
US5450523A (en) * 1990-11-15 1995-09-12 Matsushita Electric Industrial Co., Ltd. Training module for estimating mixture Gaussian densities for speech unit models in speech recognition systems
US5774059A (en) 1995-07-20 1998-06-30 Vindicator Corporation Programmable electronic lock
CA2156236C (en) 1995-08-16 1999-07-20 Stephen J. Borza Biometrically secured control system for preventing the unauthorized use of a vehicle
JP2815045B2 (ja) * 1996-12-16 1998-10-27 日本電気株式会社 画像特徴抽出装置,画像特徴解析装置,および画像照合システム
US6178255B1 (en) 1998-04-28 2001-01-23 Cross Match Technologies, Inc. Individualized fingerprint scanner
EP1038877B1 (en) 1999-03-24 2004-03-10 Tosoh Corporation Binaphthol monophosphoric acid derivative and its use
JP4727065B2 (ja) * 2000-05-11 2011-07-20 株式会社半導体エネルギー研究所 認証装置および通信システム
US6956608B1 (en) 2000-08-11 2005-10-18 Identix Incorporated Fingerprint imaging device including an optical plate having microreflectors
US6819219B1 (en) 2000-10-13 2004-11-16 International Business Machines Corporation Method for biometric-based authentication in wireless communication for access control
JP2002259345A (ja) * 2001-02-27 2002-09-13 Nec Corp 身体的特徴データの不正使用を防止する認証方法、認証装置、及びプログラム
US6633090B2 (en) 2001-09-07 2003-10-14 Delphi Technologies, Inc. Starting system for an automotive vehicle using fingerprint recognition
JP2003148017A (ja) 2001-11-08 2003-05-21 Sharp Corp 錠装置、錠制御システム及び錠制御方法
US8590013B2 (en) 2002-02-25 2013-11-19 C. S. Lee Crawford Method of managing and communicating data pertaining to software applications for processor-based devices comprising wireless communication circuitry
US7616784B2 (en) 2002-07-29 2009-11-10 Robert William Kocher Method and apparatus for contactless hand recognition
US7218761B2 (en) * 2002-12-06 2007-05-15 Cross Match Technologies, Inc. System for obtaining print and other hand characteristic information using a non-planar prism
US20060133651A1 (en) * 2002-12-31 2006-06-22 Polcha Andrew J Recoverable biometric identity system and method
DE10315923A1 (de) 2003-04-08 2004-10-28 Tbs Holding Ag Verfahren und Anordnung zur berührungslosen Detektion von Daten unebener Flächen
US6923370B2 (en) 2003-05-20 2005-08-02 Bradley L. Gotfried Access system
US6992562B2 (en) 2003-06-10 2006-01-31 Visteon Global Technologies, Inc. Biometric keyless entry system
CA2529033A1 (en) * 2003-06-21 2005-01-06 Aprilis, Inc. Method and apparatus for processing biometric images
JP2005063172A (ja) * 2003-08-13 2005-03-10 Toshiba Corp 顔照合装置および通行制御装置
US8181017B2 (en) 2004-10-22 2012-05-15 Nds Limited Certificate renewal
US20060120568A1 (en) 2004-12-06 2006-06-08 Mcconville Patrick J System and method for tracking individuals
US20080263681A1 (en) 2005-02-22 2008-10-23 Koninklijke Philips Electronics, N.V. System and Method for Transferring Media Rights Under Predetermined Conditions
JP4696610B2 (ja) * 2005-03-15 2011-06-08 オムロン株式会社 被写体認証装置、顔認証装置、携帯電話、及び被写体認証方法
US8151358B1 (en) 2005-04-07 2012-04-03 Aol Inc. Annotation of digital items in a shared list
US20060294393A1 (en) 2005-06-24 2006-12-28 Mc Call Clark E Remote biometric registration for vehicles
WO2007000504A1 (fr) 2005-06-27 2007-01-04 France Telecom Procede de reconnaissance biometrique d'une main, systeme et dispositif associes
US8026840B2 (en) * 2005-10-28 2011-09-27 Raytheon Company Biometric radar system and method for identifying persons and positional states of persons
JP4826234B2 (ja) * 2005-11-30 2011-11-30 オムロン株式会社 顔認証装置、セキュリティ強度変更方法およびプログラム
DE102006018956A1 (de) * 2006-04-24 2007-10-25 Robert Bosch Gmbh Abgassensor
US7983451B2 (en) * 2006-06-30 2011-07-19 Motorola Mobility, Inc. Recognition method using hand biometrics with anti-counterfeiting
US7660442B2 (en) * 2006-09-01 2010-02-09 Handshot, Llc Method and system for capturing fingerprints, palm prints and hand geometry
WO2008037062A1 (en) 2006-09-29 2008-04-03 Scammell, Dan A system and method for verifying a user's identity in electronic transactions
JP2008242631A (ja) * 2007-03-26 2008-10-09 Oki Electric Ind Co Ltd 虹彩登録装置および虹彩認証装置
US20080284726A1 (en) * 2007-05-17 2008-11-20 Marc Boillot System and Method for Sensory Based Media Control
US8126788B2 (en) 2007-05-29 2012-02-28 Exaktime Innovations, Inc. Method for tracking time attendance of either a dedicated user or multiple non-dedicated users, interchangeably, using a single multi-function electronic hand-held device
US8091785B2 (en) 2007-06-27 2012-01-10 Research In Motion Limited System and method for improving smart card reader reconnections
JP4693818B2 (ja) 2007-07-09 2011-06-01 株式会社エヌ・ティ・ティ・ドコモ 認証システム及び認証方法
GB0714344D0 (en) 2007-07-24 2007-09-05 Univ Wales Swansea Biometric attendance verification
US10169646B2 (en) 2007-12-31 2019-01-01 Applied Recognition Inc. Face authentication to mitigate spoofing
JP5186929B2 (ja) * 2008-01-21 2013-04-24 日本電気株式会社 認証用撮像装置
US9286742B2 (en) 2008-03-31 2016-03-15 Plantronics, Inc. User authentication system and method
US8358856B2 (en) * 2008-06-02 2013-01-22 Eastman Kodak Company Semantic event detection for digital content records
US20100042940A1 (en) 2008-08-14 2010-02-18 Caterpillar Inc. Geofence system with integrated user interface
US8175379B2 (en) * 2008-08-22 2012-05-08 Adobe Systems Incorporated Automatic video image segmentation
US8860795B2 (en) 2008-10-28 2014-10-14 Nec Corporation Masquerading detection system, masquerading detection method, and computer-readable storage medium
US8345932B2 (en) 2008-11-24 2013-01-01 International Business Machines Corporation Support vector machine for biometric data processing
JP5098973B2 (ja) * 2008-11-27 2012-12-12 富士通株式会社 生体認証装置、生体認証方法及び生体認証プログラム
JP4636171B2 (ja) 2008-12-17 2011-02-23 トヨタ自動車株式会社 車両用生体認証システム
JP2010146502A (ja) * 2008-12-22 2010-07-01 Toshiba Corp 認証処理装置および認証処理方法
US20110270712A1 (en) 2009-01-06 2011-11-03 X-Ped Hodings Pty Ltd Arrangement for managing mobile device access to precinct regions containing services and products and information
US20100191551A1 (en) 2009-01-26 2010-07-29 Apple Inc. Systems and methods for accessing hotel services using a portable electronic device
JP5436876B2 (ja) 2009-02-02 2014-03-05 株式会社ディスコ 研削方法
US20100246902A1 (en) 2009-02-26 2010-09-30 Lumidigm, Inc. Method and apparatus to combine biometric sensing and other functionality
US8194938B2 (en) * 2009-06-02 2012-06-05 George Mason Intellectual Properties, Inc. Face authentication using recognition-by-parts, boosting, and transduction
US8638939B1 (en) 2009-08-20 2014-01-28 Apple Inc. User authentication on an electronic device
US8447119B2 (en) * 2010-03-16 2013-05-21 Nec Laboratories America, Inc. Method and system for image classification
US8326001B2 (en) 2010-06-29 2012-12-04 Apple Inc. Low threshold face recognition
WO2012020591A1 (ja) * 2010-08-09 2012-02-16 日本電気株式会社 個体識別システム、特徴量特定装置、特徴量特定方法および記録媒体
US8670935B2 (en) 2010-08-17 2014-03-11 Blackberry Limited Tagging a location by pairing devices
JP5565285B2 (ja) * 2010-11-19 2014-08-06 コニカミノルタ株式会社 ガラス光学素子の製造方法
US20120137137A1 (en) 2010-11-30 2012-05-31 Brickell Ernest F Method and apparatus for key provisioning of hardware devices
KR101816170B1 (ko) * 2010-12-22 2018-01-09 한국전자통신연구원 3차원 깊이 정보 획득 장치 및 그 방법
US8457370B2 (en) * 2011-01-20 2013-06-04 Daon Holdings Limited Methods and systems for authenticating users with captured palm biometric data
US8675543B2 (en) 2011-02-24 2014-03-18 Verizon Patent And Licensing Inc. Route limiting in border gateway protocol over satellite networks
US8965287B2 (en) 2011-04-01 2015-02-24 Tony Lam Battery powered passive keyless entry system for premise entry
EP2697743A4 (en) * 2011-04-11 2014-09-24 Intel Corp GESTURE DETECTION USING DEPTH PICTURES
US9082235B2 (en) 2011-07-12 2015-07-14 Microsoft Technology Licensing, Llc Using facial data for device authentication or subject identification
US8548207B2 (en) 2011-08-15 2013-10-01 Daon Holdings Limited Method of host-directed illumination and system for conducting host-directed illumination
CN102426715A (zh) 2011-09-30 2012-04-25 华为技术有限公司 一种电子门锁开锁方法、电子门锁及电子门锁系统
US8947202B2 (en) 2011-10-20 2015-02-03 Apple Inc. Accessing a vehicle using portable devices
US9111402B1 (en) 2011-10-31 2015-08-18 Replicon, Inc. Systems and methods for capturing employee time for time and attendance management
US9081947B2 (en) 2011-12-27 2015-07-14 Intel Corporation Turing test based user authentication and user presence verification system, device, and method
JP5866216B2 (ja) 2012-01-31 2016-02-17 株式会社東海理化電機製作所 電子キー登録システム
US8705070B2 (en) * 2012-02-24 2014-04-22 Canon Kabushiki Kaisha Systems and methods for managing use of an imaging device
US9323912B2 (en) 2012-02-28 2016-04-26 Verizon Patent And Licensing Inc. Method and system for multi-factor biometric authentication
US20130268418A1 (en) 2012-04-04 2013-10-10 Accu-Time Systems, Inc. Methods and apparatus for wireless communication of time and attendance information
US20130286161A1 (en) 2012-04-25 2013-10-31 Futurewei Technologies, Inc. Three-dimensional face recognition for mobile devices
US9070162B2 (en) 2012-04-25 2015-06-30 ZR Investments, LLC Time tracking device and method
US9047376B2 (en) * 2012-05-01 2015-06-02 Hulu, LLC Augmenting video with facial recognition
WO2013180044A1 (ja) 2012-05-29 2013-12-05 株式会社村田製作所 電子キーシステム
US8869053B2 (en) 2012-07-06 2014-10-21 Sap Ag Organizer for managing employee time and attendance
US20140195974A1 (en) 2012-08-29 2014-07-10 Identity Validation Products, Llc Method and apparatus for using a finger swipe interface to control a system
MY181564A (en) 2012-09-05 2020-12-29 Element Inc System and method for biometric authentication in connection with camera-equipped devices
US9740917B2 (en) 2012-09-07 2017-08-22 Stone Lock Global, Inc. Biometric identification systems and methods
US9002586B2 (en) 2012-12-03 2015-04-07 Honda Motor Co., Ltd. Integrated biometric switch
US9003196B2 (en) 2013-05-13 2015-04-07 Hoyos Labs Corp. System and method for authorizing access to access-controlled environments
US9014452B2 (en) 2013-08-21 2015-04-21 Seiko Epson Corporation Orientation-aware average intensity histogram to indicate object boundary depth in ultrasound images
KR101556599B1 (ko) 2013-10-30 2015-10-02 연세대학교 산학협력단 패턴 입력 장치 및 방법과 이를 이용한 기록 매체
US10027884B2 (en) 2014-03-05 2018-07-17 Disney Enterprises, Inc. Method for capturing photographs and videos on a handheld client device without continually observing the device's screen
CN111628870B (zh) 2014-05-13 2022-03-18 埃利蒙特公司 用于电子钥匙供应、用户验证和访问管理的系统和方法
US20150348214A1 (en) 2014-05-28 2015-12-03 Shailendra Jain Messaging service for geofence-based automatic time clocking
JP6415607B2 (ja) 2014-06-03 2018-10-31 エレメント,インク. モバイル・デバイスに関連する出退認証および管理
US20150347833A1 (en) 2014-06-03 2015-12-03 Mark Ries Robinson Noncontact Biometrics with Small Footprint
US10614204B2 (en) 2014-08-28 2020-04-07 Facetec, Inc. Facial recognition authentication system including path parameters
US9928603B2 (en) 2014-12-31 2018-03-27 Morphotrust Usa, Llc Detecting facial liveliness
RU2725413C2 (ru) 2015-06-16 2020-07-02 Айверифай Инк. Системы и способы для обнаружения обманных объектов и анализа жизненности
KR102377182B1 (ko) 2015-09-01 2022-03-22 엘지전자 주식회사 이동 단말기 및 그 제어방법
US20170186170A1 (en) 2015-12-24 2017-06-29 Thomas A. Nugraha Facial contour recognition for identification
US9983687B1 (en) 2017-01-06 2018-05-29 Adtile Technologies Inc. Gesture-controlled augmented reality experience using a mobile communications device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022219217A1 (es) * 2021-04-14 2022-10-20 Gimeno Valero Jose Sistema y un método de certificación de resultados de análisis de muestras biológicas en remoto mediante visión artificial
ES2926354A1 (es) * 2021-04-14 2022-10-25 Valero Jose Gimeno Sistema y un metodo de certificacion de resultados de analisis de muestras biologicas en remoto mediante vision artificial

Also Published As

Publication number Publication date
JP2018200716A (ja) 2018-12-20
HK1212494A1 (en) 2016-06-10
WO2014039732A2 (en) 2014-03-13
US20140068740A1 (en) 2014-03-06
IL237556A0 (en) 2015-04-30
IL272998A (en) 2020-04-30
PH12021551836A1 (en) 2022-01-10
JP2020061171A (ja) 2020-04-16
CN104756135A (zh) 2015-07-01
JP6634127B2 (ja) 2020-01-22
PH12015500481B1 (en) 2015-04-27
US10728242B2 (en) 2020-07-28
MX346218B (es) 2017-03-09
MY181564A (en) 2020-12-29
MX2015002841A (es) 2015-10-29
KR20150079583A (ko) 2015-07-08
SG11201501691VA (en) 2015-04-29
EA201590485A1 (ru) 2015-12-30
EP3657389A1 (en) 2020-05-27
AU2013312495A1 (en) 2015-04-23
IL237556B (en) 2020-03-31
AU2013312495B2 (en) 2019-03-21
US20190124079A1 (en) 2019-04-25
EP2893489B1 (en) 2020-02-19
AU2019203766A1 (en) 2019-06-20
AU2019203766B2 (en) 2021-05-13
PH12015500481A1 (en) 2015-04-27
BR112015004867B1 (pt) 2022-07-12
US20140366113A1 (en) 2014-12-11
JP2015529365A (ja) 2015-10-05
WO2014039732A3 (en) 2014-05-08
EP2893489A4 (en) 2016-04-20
BR112015004867A2 (pt) 2020-04-22
IL272998B (en) 2021-06-30
CA2884096C (en) 2021-01-26
ZA201502207B (en) 2016-06-29
US10135815B2 (en) 2018-11-20
AP2015008348A0 (en) 2015-04-30
EP2893489A2 (en) 2015-07-15
CN104756135B (zh) 2018-11-23
KR101938033B1 (ko) 2019-01-11
CA2884096A1 (en) 2014-03-13

Similar Documents

Publication Publication Date Title
ES2791776T3 (es) Sistema y método para la autenticación biométrica en conexión con dispositivos equipados con cámara
TWI727329B (zh) 用於基於深度學習方法提供對資源之選擇性存取之防欺騙系統及方法
RU2589344C2 (ru) Способ, устройство и система аутентификации на основе биологических характеристик
Schouten et al. Biometrics and their use in e-passports
Uddin et al. A survey of biometrics security system
Ibrahim et al. Performance analysis of biometric recognition modalities
Abdullah et al. Smart card with iris recognition for high security access environment
Gururaj et al. Threats, consequences and issues of various attacks on online social networks
Wojciechowska et al. The overview of trends and challenges in mobile biometrics
Methani Camera based palmprint recognition
Sahana et al. Multi Biometric Recognition System
Sumalatha et al. A Comprehensive Review of Unimodal and Multimodal Fingerprint Biometric Authentication Systems: Fusion, Attacks, and Template Protection
Suresh et al. Nature inspired hybrid algorithms for binding shared key with user trait
Dhakal MULTI-BIOMETRIC SYSTEMS THEIR APPLICATION AND SECURITY
Singh et al. Adapted Facial Recognition And Spoofing Detection For Management Decision Making System: A Visually Impaired People Perspective
Patil et al. Multimodal biometric identification system: Fusion of Iris and fingerprint
Bennet et al. Performance & analysis of biometric security system & palm print steganographic techniques
Ayyagari et al. A pose invariant 3D face recognition method
Abouzakhar et al. A fingerprint matching model using unsupervised learning approach
El Nahal Mobile Multimodal Biometric System for Security
Sheeba et al. Data Mining Applications in Biometrics: Multimodel Scheme with Facial and Iris Recognition Based on Gabor Filter