ES2348248T3 - Sistema y procedimiento multibiometricos basados en una unica imagen. - Google Patents

Sistema y procedimiento multibiometricos basados en una unica imagen. Download PDF

Info

Publication number
ES2348248T3
ES2348248T3 ES05810155T ES05810155T ES2348248T3 ES 2348248 T3 ES2348248 T3 ES 2348248T3 ES 05810155 T ES05810155 T ES 05810155T ES 05810155 T ES05810155 T ES 05810155T ES 2348248 T3 ES2348248 T3 ES 2348248T3
Authority
ES
Spain
Prior art keywords
digital image
facial
skin
score
iris
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES05810155T
Other languages
English (en)
Inventor
Hartmut Neven
Adam Hartwig
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Google LLC
Original Assignee
Google LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Google LLC filed Critical Google LLC
Application granted granted Critical
Publication of ES2348248T3 publication Critical patent/ES2348248T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/254Fusion techniques of classification results, e.g. of results related to same input data
    • G06F18/256Fusion techniques of classification results, e.g. of results related to same input data of results relating to different input data, e.g. multimodal recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/809Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data
    • G06V10/811Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data the classifiers operating on different input data, e.g. multi-modal recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Ophthalmology & Optometry (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Collating Specific Patterns (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Abstract

Un procedimiento de reconocimiento de una cara en una imagen digital, comprendiendo el procedimiento: seleccionar una única imagen digital de una cara; localizar características faciales en la única imagen digital; comparar características faciales localizadas en la única imagen digital con características faciales de una imagen digital de referencia para producir una puntuación de las características faciales; comparar características del iris en la única imagen digital con las características del iris en la imagen digital de referencia para producir una puntuación de las características del iris; calcular una puntuación de semejanza entre la única imagen digital y la imagen de referencia en base a la puntuación de las características faciales y a la puntuación de las características del iris; y determinar en base a la puntuación de semejanza si la cara en la única imagen digital se corresponde con una cara asociada con la imagen digital de referencia o no.

Description

REFERENCIA A SOLICITUD RELACIONADA
La presente solicitud reivindica el beneficio de la solicitud de patente U.S. nº 60/581.496, presentada el 21 de junio de 2004, que está incorporada en el presente documento por referencia.
ANTECEDENTES DE LA INVENCIÓN
La presente invención versa acerca de procedimientos para integrar un reconocimiento de cara, piel e iris para proporcionar un sistema biométrico con un nivel de precisión sin precedentes para identificar a individuos. Una característica de peso del presente enfoque es que solo requiere una única imagen digital que muestre una cara humana como datos fuente.
RESUMEN DE LA INVENCIÓN
La presente invención está materializada en un procedimiento y un aparato según se definen en las reivindicaciones 1 y 10.
En aspectos más detallados de la invención, la única imagen puede tener una resolución de la distancia entre ojos de al menos 600 píxeles, y puede tener al menos aproximadamente 5 mega píxeles. Se puede llevar a cabo un análisis de la textura de la piel comparando las características de la piel de la cara en la única imagen con características de la piel de una cara en una imagen de referencia, y la puntuación de semejanza puede estar basada adicionalmente en el análisis de la textura de la piel. El análisis de la textura de la piel puede incluir localizar áreas de la piel en la cara adecuadas para un análisis de la textura de la piel, deformar, alinear y normalizar las áreas localizadas de la piel, y extraer características de la piel de las áreas localizadas de la piel. Las características de la piel pueden consistir en poros, arrugas y lunares.
En otros aspectos más detallados de la invención, la única imagen puede estar seleccionada de un vídeo, y las características faciales están localizadas en base a un seguimiento de características faciales de las características faciales en el vídeo. Además, las características faciales pueden localizarse utilizando una correspondencia entre grafos elásticos de racimo. De forma alternativa, las características faciales pueden localizarse utilizando trenes de ondas de Gabor.
BREVE DESCRIPCIÓN DE LOS DIBUJOS
Los dibujos adjuntos ilustran realizaciones de la presente invención y, junto con la descripción, sirven para explicar los principios de la invención.
La Figura 1 es un diagrama de flujo que ilustra un procedimiento para reconocer una persona a partir de una única imagen digital utilizando un enfoque multibiométrico, según la presente invención.
La Figura 2 es un diagrama de flujo que ilustra un procedimiento de establecer una correspondencia para un análisis de textura de la piel.
La Figura 3 es un dibujo de una imagen de una cara que muestra nodos de un gráfico localizados en las características faciales de interés.
La Figura 4 es un diagrama de bloques de un motor de reconocimiento visual que puede ser reglado para llevar a cabo un reconocimiento de cara, piel e iris.
DESCRIPCIÓN DETALLADA
La presente invención versa acerca de procedimientos para integrar un reconocimiento de cara, piel e iris para proporcionar un sistema biométrico con un nivel sin precedentes de precisión para identificar individuos. Una característica de peso de este enfoque es que solo requiere una única imagen digital que muestre una cara humana como datos fuente. La tasa de rechazos indebidos puede ser inferior a 0,001 con una tasa de aceptación indebida de 0,01 para una amplia gama de condiciones operativas, superando, por lo tanto, la precisión de identificación por huellas dactilares, preferida tradicionalmente. La presente invención permite una búsqueda eficaz de grandes bases de datos utilizando una biométrica no invasiva que solo requiere una mínima cooperación por parte del individuo que deba ser identificado.
Las cámaras digitales se están volviendo más frecuentes y baratas cada día. Además, la resolución del CCD y de sensores de formación de imágenes similares utilizados por las cámaras digitales de consumo ha ido aumentando continuamente. La mayoría de las cámaras disponibles en la actualidad tienen capacidad para cinco o más mega píxeles, lo que permite una calidad de impresión comparable a las cámaras analógicas basadas en carrete para tamaños habituales de impresión. Recientemente, la venta mundial de cámaras digitales de consumo ha superado la de las cámaras analógicas más baratas. Pronto, las cámaras económicas tales como cámaras de web y aquellas incorporadas en teléfonos móviles soportarán grandes resoluciones.
Esta disponibilidad de imágenes de alta resolución puede ser explotada para ir más allá de las técnicas existentes de reconocimiento facial para aumentar la precisión de tales sistemas biométricos. Las técnicas existentes dependen más de procedimientos de establecer una correspondencia integral, es decir, basados en imágenes, o en la correspondencia de características locales extraídas de puntos de referencia faciales prominentes, tales como la nariz, los ojos o la boca. Un ejemplo de gran éxito es una tecnología de reconocimiento facial, que utiliza una correspondencia entre grafos elásticos de racimo para localizar de forma precisa las localizaciones de características faciales, y calcula plantillas compuestas de coeficientes de trenes de onda de Gabor de diversas escalas y orientaciones, que forman una plantilla facial única para un individuo. Véase la patente U.S. nº 6.301.370, FACE RECOGNITION FROM VIDEO IMAGES, publicada el 9 de octubre de 2001.
El uso de una imagen de mayor resolución permite un análisis facial con un nivel más detallado, tal como utilizando parches cutáneos extraídos de áreas sin pelo en la cara, o a un nivel aún mayor de detalle al analizar los patrones únicos en el iris de un individuo. La resolución de una imagen que contiene una cara no es por sí misma una medición fiable para indicar la resolución de píxeles a la que se capturó la cara. Por ejemplo, una imagen de muy alta resolución puede contener una cara que se encuentra tan lejos en la escena que se representa con muy pocos píxeles. O una imagen de una resolución bastante baja puede contener una cara que está tan en primer plano que la mayoría de la resolución de la imagen se utiliza para representar la cara. Una medición más útil de la resolución es una “resolución de la distancia entre ojos” definida en el presente documento como la resolución de píxeles entre las pupilas izquierda y derecha en una cara. Para técnicas típicas de un reconocimiento facial tradicional, se necesita una resolución de la distancia entre ojos de aproximadamente 25 a 80 píxeles (por ejemplo, 40 píxeles), mientras que para un análisis de parche cutáneo, se necesita una resolución de la distancia entre ojos de aproximadamente 120 a 150 píxeles, y para un análisis del iris se necesita una resolución de la distancia entre ojos de aproximadamente 600 a 650 píxeles.
Además, es importante que la imagen no esté borrosa, de lo contrario se reduce la resolución efectiva de la imagen. Utilizar procedimientos de Fourier en la región de una cara detectada permite valorar si se ha alcanzado efectivamente la “resolución eficaz de la distancia entre ojos” necesaria. Finalmente, es importante comprobar que se ha alcanzado la profundidad eficaz de píxeles. Esto se puede conseguir fácilmente utilizando histogramas de valor de gris, tomados de nuevo del área de una cara detectada. De forma ventajosa, la profundidad de píxeles se acerca a al menos 8 bits.
Si se captura una cara a una distancia razonable con una cámara de 5 o 6 mega píxeles con un ángulo visual suficientemente estrecho, la resolución de la distancia entre ojos puede encontrarse dentro de la gama de las técnicas de análisis de iris, y, por lo tanto, se vuelve factible extraer plantillas biométricas para tres procedimientos biométricos completamente distintos a partir de una fuente de datos. Además, se pueden emplear procedimientos bien conocidos para obtener una súper resolución para aumentar la resolución eficaz de la imagen (por ejemplo, súper resolución en imágenes utilizando un flujo óptico y un muestreo irregular, Marc Rumo1, Patrick Vandewalle, LCAV – School of Computer and Communication Sciences, Ecole Polytechnique Fédérale de Lausanne).
Una combinación de distintos procedimientos biométricos puede aumentar la precisión de verificación, y también mejorar el grado general de utilización del sistema biométrico. Son ejemplos de éxito la fusión de la voz y la cara, y de la huella dactilar y la cara. Lo que tienen estos procedimientos en común es que requieren distintos dispositivos de detección. El procedimiento de la presente invención permite la combinación de los procedimientos biométricos descritos anteriormente, el análisis facial, de la textura de la piel y el reconocimiento del iris, en un sistema multibiométrico basado en una única imagen de un único sensor.
Se describe el procedimiento del Análisis multibiométrico de una única imagen (SIMBA) 10 con referencia a la Figura 1. Se selecciona una imagen de entrada de una cara 12 para un análisis (etapa 14). Después de que se han localizado la cara y sus características faciales (etapas 16 y 18) se procesan distintas porciones de la cara en tres canales semiortogonales 20, 22 y 24, que analizan las características faciales, de textura de la piel y del iris, respectivamente (etapa 26). Se comparan las características faciales localizadas con valores correspondientes de imágenes faciales en una base 27 de datos. Un módulo 28 de fusión integra los resultados de los tres canales en una única puntuación de semejanza. En base a la puntuación de semejanza (etapa 30), se reconoce (etapa 32) a la persona en la imagen o no se encuentra la persona en la base de datos (etapa 34).
Se puede llevar a cabo la detección facial (etapa 16) por medio de cualquiera de varios buscadores faciales existentes. Un enfoque ventajoso utiliza un árbol de decisión de autoaprendizaje mediante el algoritmo Adaboost y utiliza trenes de ondas de Gabor como características. Este enfoque consigue una tasa de detección facial en un conjunto de imágenes representativas del 99,7% con una tasa de falsa alarma de 0,001. Supera enfoques tales como los sugeridos por Viola y Jones, “Rapid Object Detection using a Boosted Cascade of Simple Features, Proc. Of IEEE Conf. on Computer Vision and Pattern Recognition”, diciembre de 2001, y Rowley et al. 1998.
Se puede llevar a cabo la detección de características faciales (etapa 18) utilizando un módulo de alta velocidad de búsqueda y de seguimiento de características faciales basado en tecnología de correspondencia de grafos elásticos. Véase la patente U.S. nº 6.272.231, titulada WAVELET-BASED FACIAL MOTION CAPTURE FOR AVATAR ANIMATION. De forma ventajosa, se detectan y se realiza el seguimiento de cincuenta y cinco (55) localizaciones de características en la cara en tiempo real. Este módulo es único en su precisión y velocidad. El seguimiento de características faciales mejora mucho la tecnología SIMBA en el sentido de que permite la localización con exactitud de las características faciales incluyendo las pupilas en cada fotograma de una secuencia de vídeo. La localización con exactitud de las características faciales es un requisito previo para comparar características faciales, parches cutáneos y los detalles del iris.
Se puede llevar a cabo la comparación de las características faciales (etapa 20) utilizando uno de entre diversos motores en el mercado, particularmente el motor de reconocimiento facial disponible en Neven Vision de Santa Mónica, California, EE. UU. en la patente U.S. nº 6.301.370, titulada FACE RECOGNITION FROM VIDEO IMAGES, se describe similarmente una buena elección, patente que está incorporada en el presente documento por referencia.
El análisis de la textura de la piel (etapa 22) puede estar basado en el análisis de las características individuales de la piel como los poros, las arrugas, los lunares, etc. Son adecuadas las regiones lisas, sin pelo de las caras como, por ejemplo, las mejillas, la barbilla, la nariz y la frente. Dependiendo de factores como el peinado o el sexo (vello facial), qué áreas pueden ser utilizadas puede diferir entre persona y persona.
Con referencia a la Figura 2, el procedimiento 210 de establecer una correspondencia del sistema de análisis de la textura de la piel puede dividirse en las siguientes etapas de procesamiento:
1.
detección de la cara (etapa 212);
2.
detección de las características faciales (etapa 214);
3.
localización de las áreas de la piel en la cara adecuadas para un análisis de la textura de la piel (etapa 216);
4.
deformar, alinear y normalizar y parches cutáneos (etapa 218);
5.
extraer características que describen áreas locales de la piel (etapa 220);
6.
comparar estas características con la imagen de referencia, y calcular la puntuación de semejanza (etapa 222).
Una solución reciente dada a conocer por Bruno Delean divide el área por debajo de los ojos en bloques rectangulares y utiliza algoritmos de correspondencia simple de bloques y una evaluación heurística de la localización relativa de los bloques colindantes para calcular la puntuación de semejanza. (Bruno Delean, Method and apparatus for probabilistic image analysis, solicitud de patente US nº de publicación 2004/0052418). Los enfoques descritos anteriormente empleaban procedimientos más sofisticados basados en una correspondencia de grafos elásticos utilizando trenes de ondas de Gabor (Buhmann et al. 1990, y Wiskott et al. 1997).
Dado que la tecnología actual de reconocimiento facial y de detección facial (por ejemplo, la patente U.S. nº 6.301.370) depende de localizar con exactitud de forma precisa la localización de las características faciales prominentes, está adecuada idealmente para su aplicación a una identificación biométrica basada en un análisis de la textura de la piel. Una opción es utilizar la tecnología de correspondencia de grafos elásticos. La tecnología de correspondencia de grafos elásticos representa caras como un gráfico marcado cuyos nodos se corresponden con puntos de referencia faciales como el rabillo del ojo o la punta de la nariz, y es capaz de colocar este gráfico con una precisión elevada sobre una cara en una imagen presentada. En base a estos puntos de referencia hallados, es posible localizar de forma precisa las áreas en la cara utilizadas para un análisis de la textura de la piel. Esta tecnología de reconocimiento facial puede determinar características locales de la cara, por ejemplo, si hay presentes o no pelo facial o gafas. Se puede derivar un mapa facial individualizado más fiable de áreas adecuadas para un análisis de la piel utilizando esta información.
Con referencia a la Figura 3, se pueden adaptar nodos de un grafo elástico para imágenes de alta resolución. Se colocan densidades más elevadas de nodo que las utilizadas habitualmente en las áreas de la piel sin pelo y en las áreas del iris. Los parámetros del vector de rasgos extraídos en cada nodo están adaptados para explicar, de forma óptima, el contenido esperado de la señal. Las posiciones de los nodos en la Figura 3 son conceptuales. Las densidades reales de los nodos —en particular— en el iris, pueden ser mayores.
Además, dado que se pueden derivar la posición y la expresión de las características faciales, se puede normalizar o quitar la deformidad de un parche cutáneo extraído antes de ser analizado. Un ejemplo de tal escenario sería uno en el que se captura la cara del usuario que va a ser identificado con una expresión exagerada, tal como una sonrisa o un ceño marcado, lo que provoca que se deforme el área debajo del ojo donde se captura el parche cutáneo. Si, en una situación de captura en directo, se detecta una expresión exagerada, se le podría dar información de resultado al usuario para presente una expresión neutral o menos exagerada. Otra situación en la que se mejora mucho un análisis de mayor resolución mediante una búsqueda precisa de puntos de referencia es el caso en el que la cara se encuentra en una posición no frontal. Tras la detección de una cara no frontal se puede deformar la imagen facial a la frontal por medio de procedimientos descritos y a los que se hace referencia en el informe de la prueba de reconocimiento facial por parte del vendedor 2002 (FRVT 2002).
Después de que se han identificado las áreas de piel que van a ser utilizadas para establecer una correspondencia, una forma de comparar parches cutáneos es representar las áreas identificadas como un subgráfico marcado, en el que los nodos se corresponden con parches cutáneos locales. Se escoge la densidad de los nodos para conseguir el equilibrio óptimo de precisión y de velocidad de procesamiento. En las posiciones de estos nodos, se extrae un vector de característica adecuada que describe el parche cutáneo (por ejemplo, chorro de Gabor, parche de píxeles). Durante la etapa de establecer una correspondencia para cada parche cutáneo seleccionado de esta manera, se establece una correspondencia individualmente entre el vector de característica y la región facial de la imagen de referencia y se identifica el parche cutáneo más similar. El resultado es una versión más o menos distorsionada del gráfico en la imagen original. A partir de la semejanza y la distorsión entre el gráfico original y el gráfico de correspondencia, se calcula una puntuación de semejanza que incorpora restricciones geométricas locales. Véase la patente U.S. nº 6.301.370.
En lo que concierne al análisis del iris, una búsqueda precisa de características puede localizar con exactitud la localización de las pupilas y, por lo tanto, el iris circundante. Además, se puede detectar el estado del ojo (por ejemplo, abierto o cerrado). Naturalmente, para el análisis del iris, el ojo necesita estar abierto para mostrar el iris. Todas las técnicas de análisis de la piel descritas anteriormente se aplican al análisis del iris.
Se pueden utilizar las técnicas existentes de escaneo y de reconocimiento del iris para el análisis del iris (etapa 24). La mejora de las técnicas existentes puede estribar en una integración estrecha de la detección y el seguimiento de rasgos faciales con un reconocimiento facial, de la piel y del iris, y permitirá una implementación ultrarrápida y eficaz de recursos del motor completo de reconocimiento como se requiere para dispositivos móviles. Es importante notar que el análisis del patrón del iris es, en muchos sentidos, menos complejo que analizar una cara que está sometida a considerablemente más variación.
Con referencia a la Figura 4, se puede reglar un motor de reconocimiento visual para llevar a cabo un reconocimiento facial, de la piel y del iris. Los principios macroalgorítmicos de reconocimiento visual son: extraer vectores de características de puntos clave de interés, comparar vectores correspondientes de características, derivar una medida de semejanza y compararla con un umbral para determinar si los objetos son idénticos o no. En el caso del reconocimiento de clases, tal como una detección facial, se emplean una red neural, una amplificación o una máquina vectorial de soporte para generalizar los ejemplos específicos. Sin embargo, al observar más de cerca, se notaría que se emplean los submódulos para llevar a cabo ciertas etapas mejor que las técnicas existentes descritas en la bibliografía. Más en particular:
1) Operador de interés: el uso de la congruencia de fase y de la simetría de fase de trenes de ondas de Gabor es superior a muchos otros operadores de puntos de interés sugeridos en la bibliografía, tales como Affine Harris, DOG, y Affine Laplace.
2) Vectores de características: la presente invención hace amplio uso de los trenes de ondas de Gabor como un formato potente de datos de uso general para describir una estructura local de imagen. Cuando es apropiado, los trenes de ondas de Gabor están incrementados con características aprendidas que guardan semejanza con el enfoque del que Viola y Jones fueron pioneros. Finalmente, es prometedor el uso de un diccionario de conjuntos parametrizados de vectores de características extraídos de conjuntos masivos de datos de imagen que muestran variaciones de parches superficiales genéricos: “Locons”. Este enfoque tiene el potencial de realizar una aportación significativa para conseguir una mejor pose y una invariancia de la iluminación.
3) Correspondencia: casi todas las rutinas de establecer una correspondencia descritas en la bibliografía solo consideran la semejanza entre los vectores de características. Se puede obtener una mejora al estimar explícitamente los vectores de desplazamiento al igual que conjuntos de parámetros que describen condiciones medioambientales tales como el punto de vista y las condiciones de iluminación que pueden permitir un aprendizaje más rápido de nuevos objetos, y reconocerlos bajo una gama más amplia de condiciones.
Cuando se realiza la determinación de si el individuo visto en diversas imágenes es el mismo
o no, se necesita integrar las puntuaciones de semejanza del gráfico de puntos de referencia faciales y de los subgráficos de la piel y del iris. Existen múltiples procedimientos descritos en la bibliografía acerca de cómo lograr esto. Se puede hacer una referencia al informe de extensión de la prueba de reconocimiento facial del vendedor 2002, NISTIR 2004, que enseña procedimientos de cómo integrar distintos enfoques de reconocimiento facial al igual que el siguiente artículo que muestra cómo integrar de forma óptima el reconocimiento facial y del iris: Yun HongWang, Tieniu Tan1, y Anil K. Jain, “Combining Face and Iris Biometrics for Identity Verification” AVBPA 2003.
La experiencia empírica con diversas normas de fusión ha descubierto que en el caso de integrar un análisis de características del iris, de la piel y faciales, se pueden conseguir el mejor resultado con un procedimiento de fusión del sensor que iguala en primer lugar las puntuaciones de correspondencia para cada canal de reconocimiento de forma individual con un intervalo [0, 1] antes de fusionarlos al formar la media.
Dada una imagen con una resolución de 4 a 5 mega píxeles, y particularmente una resolución de 6 mega píxeles y superiores, una combinación de análisis facial, de parche cutáneo y del iris pueden operar en etapas en la misma imagen fuente para mejorar drásticamente la precisión y la fiabilidad del sistema de reconocimiento facial. Una característica atractiva permitida por la etapa inicial de búsqueda de características faciales es que modula un análisis refinado de la piel y del iris que requiere una mayor resolución que puede ser activada o desactivada de forma automática dependiendo de la determinación inicial cuánta resolución de píxeles hay disponible entre los ojos.
5 Otra ventaja de la biométrica de fusión en SIMBA es que aborda muy elegantemente el problema denominado “comprobación en directo”. Llevar a cabo una comprobación en directo aborda el problema de cómo determinar si la biométrica actual está originándose a partir de un individuo vivo o más bien a partir de un artefacto tal como un dibujo. Se puede utilizar un seguimiento de características faciales para analizar movimientos faciales internos y puede
10 evitar, por lo tanto, que un impostor utilice imágenes fijas. De forma similar, un análisis del iris puede medir la contracción o dilatación cambiantes de la pupila (finalmente, incluso provocada al proyectar una luz en la pupila) para determinar que se está observando un individuo vivo. Finalmente, se puede utilizar una búsqueda precisa de puntos de referencia para determinar si las características faciales detectadas se encuentran todas en un plano o no. Además, esto
15 permite descartar imágenes de vídeo que un impostor podría mostrar al sistema biométrico. El enfoque SIMBA evita el problema de suponer que es permisible pedir al usuario exponerlo secuencialmente a distintos sensores biométricos, muchos de los cuales son bien invasivos o bien difíciles de usar. Un sistema multibiométrico eficaz necesita ser cómodo de utilizar. Los usos existentes del reconocimiento del iris y de la huella dactilar muestran que la facilidad de
20 uso no ha sido una prioridad elevada en el diseño. En cambio, el enfoque SIMBA depende únicamente de un único sensor de imagen bidimensional y emplea la multibiométrica únicamente de forma interna en el sentido de que los canales semiortogonales de reconocimiento aprovechan la información biométrica contenida en diversos aspectos de la imagen. Es importante hacer notar el uso de una técnica robusta para hacer un seguimiento de
25 características faciales en tiempo real.

Claims (19)

  1. Reivindicaciones
    1.
    Un procedimiento de reconocimiento de una cara en una imagen digital, comprendiendo el procedimiento:
    seleccionar una única imagen digital de una cara; localizar características faciales en la única imagen digital; comparar características faciales localizadas en la única imagen digital con características faciales de una imagen digital de referencia para producir una puntuación de las características faciales; comparar características del iris en la única imagen digital con las características del iris en la imagen digital de referencia para producir una puntuación de las características del iris; calcular una puntuación de semejanza entre la única imagen digital y la imagen de referencia en base a la puntuación de las características faciales y a la puntuación de las características del iris; y determinar en base a la puntuación de semejanza si la cara en la única imagen digital se corresponde con una cara asociada con la imagen digital de referencia o no.
  2. 2.
    Un procedimiento de reconocimiento facial como se define en la reivindicación 1, en el que la única imagen digital tiene una resolución de la distancia entre ojos de al menos aproximadamente 600 píxeles.
  3. 3.
    Un procedimiento de reconocimiento facial como se define en la reivindicación 1, en el que la única imagen digital comprende al menos aproximadamente 5 mega píxeles.
  4. 4.
    Un procedimiento de reconocimiento facial como se define en la reivindicación 1, que comprende, además, llevar a cabo un análisis de textura de la piel comparando características de la piel de la cara en la única imagen digital con características de la piel de una cara en la imagen digital de referencia para producir una puntuación de las características de la piel, en el que la puntuación de semejanza está basada adicionalmente en la puntuación de las características de la piel.
  5. 5.
    Un procedimiento de reconocimiento facial como se define en la reivindicación 4, en el
    que el análisis de la textura de la piel comprende: localizar una pluralidad de áreas de la piel en la cara adecuadas para un análisis de la textura de la piel; deformar, alinear, y normalizar las áreas de la piel localizadas, y extraer las características de la piel de las áreas de la piel localizadas.
  6. 6.
    Un procedimiento de reconocimiento facial como se define en la reivindicación 5, en el que las características de la piel pueden consistir en poros, arrugas y lunares.
  7. 7.
    Un procedimiento de reconocimiento facial como se define en la reivindicación 1, en el que la única imagen digital es un fotograma seleccionado de un vídeo; las características faciales se localizan en el fotograma en base a un seguimiento de las características faciales de las características faciales en el vídeo.
  8. 8.
    Un procedimiento de reconocimiento facial como se define en la reivindicación 1, en el que las características faciales se localizan utilizando una correspondencia entre grafos elásticos de racimo.
  9. 9.
    Un procedimiento de reconocimiento facial como se define en la reivindicación 1, en el que las características faciales se localizan utilizando trenes de ondas de Gabor.
  10. 10.
    Un aparato de reconocimiento facial, que comprende:
    medios para seleccionar una única imagen digital de una cara; medios para localizar características faciales en la única imagen digital; medios para comparar características faciales localizar en la única imagen digital con características faciales de una imagen digital de referencia para producir una puntuación de las características faciales; medios para comparar las características del iris en la única imagen digital con la característica del iris en la imagen digital de referencia para producir una puntuación de las características del iris; y medios para calcular una puntuación de semejanza entre la única imagen digital y la imagen digital de referencia en base a la puntuación de las características faciales y a la puntuación de las características del iris.
  11. 11.
    Un aparato de reconocimiento facial como se define en la reivindicación 10, en el que la
    única imagen digital tiene una resolución de la distancia entre ojos de al menos aproximadamente 600 píxeles.
  12. 12.
    Un aparato de reconocimiento facial como se define en la reivindicación 10, en el que la única imagen digital comprende al menos aproximadamente 5 mega píxeles.
  13. 13.
    Un aparato de reconocimiento facial como se define en la reivindicación 10, que comprende, además, medios para llevar a cabo un análisis de la textura de la piel comparando las características de la piel de la cara en la única imagen digital con características de la piel de una cara en la imagen de referencia para producir una puntuación de las características de la piel, en el que la puntuación de semejanza está basada en la puntuación de las características de la piel.
  14. 14.
    Un aparato de reconocimiento facial como se define en la reivindicación 13, en el que el medio para llevar a cabo un análisis de la textura de la piel comprende: medios para localizar una pluralidad de áreas de la piel en la cara adecuadas para un análisis de la textura de la piel; medios para deformar, alinear, y normalizar las áreas de la piel localizadas; y medios para extraer características de la piel de las áreas de la piel localizadas.
  15. 15.
    Un aparato de reconocimiento facial como se define en la reivindicación 14, en el que las características de la piel pueden consistir en poros, arrugas y lunares.
  16. 16.
    Un procedimiento de reconocimiento facial como se define en la reivindicación 1, que comprende además:
    almacenar las características faciales de la única imagen digital y la imagen de referencia en vectores correspondientes de características faciales; almacenar las características del iris de la única imagen digital y la imagen de referencia en vectores correspondientes de características del iris; determinar un vector de desplazamiento entre el vector de la característica facial de la única imagen digital y el vector de la característica facial de la imagen de referencia; y determinar un vector de desplazamiento entre el vector de la característica del iris de la única imagen digital y el vector de la característica del iris de la imagen digital de referencia.
  17. 17.
    Un procedimiento de reconocimiento facial como se define en la reivindicación 1, que comprende además:
    estimar un conjunto de parámetros que describe un punto de vista para la única imagen digital; y estimar un conjunto de parámetros que describe un punto de vista para la imagen digital de referencia.
  18. 18.
    Un procedimiento de reconocimiento facial como se define en la reivindicación 1, que comprende además:
    estimar un conjunto de parámetros que describe una condición de iluminación para la única imagen digital; y estimar un conjunto de parámetros que describe una condición de iluminación para la imagen digital de referencia.
  19. 19.
    Un procedimiento de reconocimiento facial como se define en la reivindicación 4, en el que calcular una puntuación de semejanza comprende además:
    igualar la puntuación de las características faciales con un intervalo [0, 1]; igualar la puntuación de las características del iris con un intervalo [0, 1]; igualar la puntuación de las características de la piel con un intervalo [0, 1]; y calcular la puntuación de semejanza en base a la puntuación igualada de las características faciales, a la puntuación igualada de las características del iris, y a la puntuación igualada de las características de la piel.
ES05810155T 2004-06-21 2005-06-21 Sistema y procedimiento multibiometricos basados en una unica imagen. Active ES2348248T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US58149604P 2004-06-21 2004-06-21
US581496P 2004-06-21

Publications (1)

Publication Number Publication Date
ES2348248T3 true ES2348248T3 (es) 2010-12-02

Family

ID=35520844

Family Applications (1)

Application Number Title Priority Date Filing Date
ES05810155T Active ES2348248T3 (es) 2004-06-21 2005-06-21 Sistema y procedimiento multibiometricos basados en una unica imagen.

Country Status (12)

Country Link
US (1) US7697735B2 (es)
EP (1) EP1766555B1 (es)
JP (1) JP4610614B2 (es)
KR (1) KR100982197B1 (es)
CN (1) CN101027678B (es)
AT (1) ATE476715T1 (es)
AU (2) AU2005278003B8 (es)
BR (1) BRPI0512354A (es)
CA (1) CA2571643C (es)
DE (1) DE602005022718D1 (es)
ES (1) ES2348248T3 (es)
WO (1) WO2006023046A1 (es)

Families Citing this family (153)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8330831B2 (en) 2003-08-05 2012-12-11 DigitalOptics Corporation Europe Limited Method of gathering visual meta data using a reference image
US7269292B2 (en) * 2003-06-26 2007-09-11 Fotonation Vision Limited Digital image adjustable compression and resolution using face detection information
US7844076B2 (en) 2003-06-26 2010-11-30 Fotonation Vision Limited Digital image processing using face detection and skin tone information
US8948468B2 (en) * 2003-06-26 2015-02-03 Fotonation Limited Modification of viewing parameters for digital images using face detection information
US8593542B2 (en) * 2005-12-27 2013-11-26 DigitalOptics Corporation Europe Limited Foreground/background separation using reference images
US7574016B2 (en) 2003-06-26 2009-08-11 Fotonation Vision Limited Digital image processing using face detection information
US7620218B2 (en) * 2006-08-11 2009-11-17 Fotonation Ireland Limited Real-time face tracking with reference images
US8494286B2 (en) 2008-02-05 2013-07-23 DigitalOptics Corporation Europe Limited Face detection in mid-shot digital images
US7440593B1 (en) 2003-06-26 2008-10-21 Fotonation Vision Limited Method of improving orientation and color balance of digital images using face detection information
US8989453B2 (en) 2003-06-26 2015-03-24 Fotonation Limited Digital image processing using face detection information
US8896725B2 (en) * 2007-06-21 2014-11-25 Fotonation Limited Image capture device with contemporaneous reference image capture mechanism
US9692964B2 (en) 2003-06-26 2017-06-27 Fotonation Limited Modification of post-viewing parameters for digital images using image region or feature information
US7565030B2 (en) * 2003-06-26 2009-07-21 Fotonation Vision Limited Detecting orientation of digital images using face detection information
US8682097B2 (en) * 2006-02-14 2014-03-25 DigitalOptics Corporation Europe Limited Digital image enhancement with reference images
US7471846B2 (en) * 2003-06-26 2008-12-30 Fotonation Vision Limited Perfecting the effect of flash within an image acquisition devices using face detection
US8498452B2 (en) 2003-06-26 2013-07-30 DigitalOptics Corporation Europe Limited Digital image processing using face detection information
US7362368B2 (en) * 2003-06-26 2008-04-22 Fotonation Vision Limited Perfecting the optics within a digital image acquisition device using face detection
US9129381B2 (en) * 2003-06-26 2015-09-08 Fotonation Limited Modification of post-viewing parameters for digital images using image region or feature information
US8155397B2 (en) * 2007-09-26 2012-04-10 DigitalOptics Corporation Europe Limited Face tracking in a camera processor
US7792970B2 (en) 2005-06-17 2010-09-07 Fotonation Vision Limited Method for establishing a paired connection between media devices
JP2005346806A (ja) * 2004-06-02 2005-12-15 Funai Electric Co Ltd Dvdレコーダおよび記録再生装置
KR100982197B1 (ko) * 2004-06-21 2010-09-14 구글 인코포레이티드 얼굴 인식 방법, 얼굴 인식 장치 및 컴퓨터 판독 가능한 기록 매체
US8019801B1 (en) * 2004-06-23 2011-09-13 Mayo Foundation For Medical Education And Research Techniques to rate the validity of multiple methods to process multi-dimensional data
US8320641B2 (en) 2004-10-28 2012-11-27 DigitalOptics Corporation Europe Limited Method and apparatus for red-eye detection using preview or other reference images
US7315631B1 (en) * 2006-08-11 2008-01-01 Fotonation Vision Limited Real-time face tracking in a digital image acquisition device
US8503800B2 (en) 2007-03-05 2013-08-06 DigitalOptics Corporation Europe Limited Illumination detection using classifier chains
US7765231B2 (en) 2005-04-08 2010-07-27 Rathus Spencer A System and method for accessing electronic data via an image search engine
US7646916B2 (en) * 2005-04-15 2010-01-12 Mississippi State University Linear analyst
US8311294B2 (en) 2009-09-08 2012-11-13 Facedouble, Inc. Image classification and information retrieval over wireless digital networks and the internet
US7587070B2 (en) * 2005-09-28 2009-09-08 Facedouble, Inc. Image classification and information retrieval over wireless digital networks and the internet
US7450740B2 (en) * 2005-09-28 2008-11-11 Facedouble, Inc. Image classification and information retrieval over wireless digital networks and the internet
US8369570B2 (en) 2005-09-28 2013-02-05 Facedouble, Inc. Method and system for tagging an image of an individual in a plurality of photos
US7599527B2 (en) * 2005-09-28 2009-10-06 Facedouble, Inc. Digital image search system and method
US8600174B2 (en) 2005-09-28 2013-12-03 Facedouble, Inc. Method and system for attaching a metatag to a digital image
US8326775B2 (en) * 2005-10-26 2012-12-04 Cortica Ltd. Signature generation for multimedia deep-content-classification by a large-scale matching system and method thereof
US9330246B2 (en) * 2005-11-09 2016-05-03 Paul J. Munyon System and method for inhibiting access to a computer
US8260008B2 (en) * 2005-11-11 2012-09-04 Eyelock, Inc. Methods for performing biometric recognition of a human eye and corroboration of same
WO2007103833A1 (en) * 2006-03-03 2007-09-13 Honeywell International, Inc. A combined face and iris recognition system
US7965875B2 (en) 2006-06-12 2011-06-21 Tessera Technologies Ireland Limited Advances in extending the AAM techniques from grayscale to color images
US20070297653A1 (en) * 2006-06-22 2007-12-27 Rudolf Maarten Bolle Fingerprint representation using localized texture features
US7751599B2 (en) * 2006-08-09 2010-07-06 Arcsoft, Inc. Method for driving virtual facial expressions by automatically detecting facial expressions of a face image
US7916897B2 (en) 2006-08-11 2011-03-29 Tessera Technologies Ireland Limited Face tracking for controlling imaging parameters
US7403643B2 (en) * 2006-08-11 2008-07-22 Fotonation Vision Limited Real-time face tracking in a digital image acquisition device
US7773779B2 (en) * 2006-10-19 2010-08-10 I.Q.S. Shalev Ltd. Biometric systems
JP2008118383A (ja) * 2006-11-02 2008-05-22 Matsushita Electric Ind Co Ltd デジタルカメラ
JP2008152530A (ja) * 2006-12-18 2008-07-03 Sony Corp 顔認識装置及び顔認識方法、ガボア・フィルタ適用装置、並びにコンピュータ・プログラム
US7707162B2 (en) * 2007-01-08 2010-04-27 International Business Machines Corporation Method and apparatus for classifying multimedia artifacts using ontology selection and semantic classification
US8055067B2 (en) 2007-01-18 2011-11-08 DigitalOptics Corporation Europe Limited Color segmentation
EP2115662B1 (en) * 2007-02-28 2010-06-23 Fotonation Vision Limited Separating directional lighting variability in statistical face modelling based on texture space decomposition
KR101247147B1 (ko) * 2007-03-05 2013-03-29 디지털옵틱스 코포레이션 유럽 리미티드 디지털 영상 획득 장치에서의 얼굴 탐색 및 검출
US8027541B2 (en) * 2007-03-15 2011-09-27 Microsoft Corporation Image organization based on image content
US20080263040A1 (en) * 2007-04-02 2008-10-23 Nikhilesh Talreja System and method for making a face call
US8111879B2 (en) 2007-04-05 2012-02-07 Honeywell International Inc. Face and iris imaging system and method
US7916971B2 (en) * 2007-05-24 2011-03-29 Tessera Technologies Ireland Limited Image processing method and apparatus
US9794348B2 (en) * 2007-06-04 2017-10-17 Todd R. Smith Using voice commands from a mobile device to remotely access and control a computer
US7844085B2 (en) * 2007-06-07 2010-11-30 Seiko Epson Corporation Pairwise feature learning with boosting for use in face detection
US9117119B2 (en) 2007-09-01 2015-08-25 Eyelock, Inc. Mobile identity platform
US8553948B2 (en) 2007-09-01 2013-10-08 Eyelock, Inc. System and method for iris data acquisition for biometric identification
US20090060286A1 (en) * 2007-09-04 2009-03-05 General Electric Company Identification system and method utilizing iris imaging
KR101347598B1 (ko) * 2007-10-12 2014-01-07 삼성전자주식회사 영상 변환 방법 및 장치
US8558663B2 (en) 2007-11-30 2013-10-15 Bank Of America Corporation Integration of facial recognition into cross channel authentication
US9721148B2 (en) 2007-12-31 2017-08-01 Applied Recognition Inc. Face detection and recognition
US8750574B2 (en) * 2007-12-31 2014-06-10 Applied Recognition Inc. Method, system, and computer program for identification and sharing of digital images with face signatures
US9639740B2 (en) 2007-12-31 2017-05-02 Applied Recognition Inc. Face detection and recognition
US8532344B2 (en) * 2008-01-09 2013-09-10 International Business Machines Corporation Methods and apparatus for generation of cancelable face template
US8538096B2 (en) * 2008-01-09 2013-09-17 International Business Machines Corporation Methods and apparatus for generation of cancelable fingerprint template
WO2009096475A1 (ja) 2008-01-29 2009-08-06 Kabushiki Kaisha Dds ハイブリッド生体認証装置、ハイブリッド生体認証方法、ハイブリッド生体認証用コンピュータプログラムを記憶したコンピュータ読み取り可能な記憶媒体
US7855737B2 (en) * 2008-03-26 2010-12-21 Fotonation Ireland Limited Method of making a digital camera image of a scene including the camera user
US8442279B2 (en) 2008-06-27 2013-05-14 Lockheed Martin Corporation Assessing biometric sample quality using wavelets and a boosted classifier
US8600121B2 (en) * 2008-07-02 2013-12-03 C-True Ltd. Face recognition system and method
CN102027505A (zh) * 2008-07-30 2011-04-20 泰塞拉技术爱尔兰公司 使用脸部检测的自动脸部和皮肤修饰
GB0818089D0 (en) 2008-10-03 2008-11-05 Eastman Kodak Co Interactive image selection method
US9002120B2 (en) 2008-10-03 2015-04-07 Intellectual Ventures Fund 83 Llc Interactive image selection method
US8284267B2 (en) * 2009-03-11 2012-10-09 O2Micro Inc. Virtual camera for sharing a physical camera
US8538093B2 (en) * 2009-04-20 2013-09-17 Mark Kodesh Method and apparatus for encouraging social networking through employment of facial feature comparison and matching
US8379917B2 (en) 2009-10-02 2013-02-19 DigitalOptics Corporation Europe Limited Face recognition performance using additional image features
JP2011090466A (ja) * 2009-10-21 2011-05-06 Sony Corp 情報処理装置及び方法、並びにプログラム
US8238671B1 (en) 2009-12-07 2012-08-07 Google Inc. Scene classification for place recognition
US8189964B2 (en) 2009-12-07 2012-05-29 Google Inc. Matching an approximately located query image against a reference image set
US8774527B1 (en) 2009-12-07 2014-07-08 Google Inc. Matching an approximately located query image against a reference image set using cellular base station and wireless access point information
KR101185243B1 (ko) * 2009-12-15 2012-09-21 삼성전자주식회사 얼굴 인식을 위한 복수의 얼굴 이미지를 등록하기 위한 장치 및 방법
US8634596B2 (en) * 2009-12-22 2014-01-21 Honeywell International Inc. Three-dimensional multilayer skin texture recognition system and method
CN101751559B (zh) * 2009-12-31 2012-12-12 中国科学院计算技术研究所 人脸皮肤斑痣点检测及利用皮肤斑痣识别人脸的方法
US8908928B1 (en) 2010-05-31 2014-12-09 Andrew S. Hansen Body modeling and garment fitting using an electronic device
US8655053B1 (en) 2010-05-31 2014-02-18 Andrew S Hansen Body modeling and garment fitting using an electronic device
US9141150B1 (en) * 2010-09-15 2015-09-22 Alarm.Com Incorporated Authentication and control interface of a security system
KR20120052636A (ko) * 2010-11-16 2012-05-24 한국전자통신연구원 온톨로지 기반의 품목분류코드 추천 시스템 및 방법
CN103477351B (zh) 2011-02-17 2019-06-28 眼锁有限责任公司 用于采用单个传感器采集场景图像和虹膜图像的高效方法和系统
US8509525B1 (en) 2011-04-06 2013-08-13 Google Inc. Clustering of forms from large-scale scanned-document collection
US20120287163A1 (en) * 2011-05-10 2012-11-15 Apple Inc. Scaling of Visual Content Based Upon User Proximity
US9552376B2 (en) 2011-06-09 2017-01-24 MemoryWeb, LLC Method and apparatus for managing digital files
ES2495425T3 (es) 2011-07-11 2014-09-17 Accenture Global Services Limited Detección de vida
CN102266241B (zh) * 2011-08-05 2013-04-17 上海交通大学 融合人脸和指纹视觉信息的协同性别识别方法
US8548207B2 (en) 2011-08-15 2013-10-01 Daon Holdings Limited Method of host-directed illumination and system for conducting host-directed illumination
US8903138B1 (en) 2011-09-06 2014-12-02 Google Inc. Face recognition using pre-templates
CN104427960B (zh) 2011-11-04 2017-11-24 马萨诸塞眼科耳科诊所 自适应视觉辅助装置
US9082004B2 (en) 2011-12-15 2015-07-14 The Nielsen Company (Us), Llc. Methods and apparatus to capture images
US9202105B1 (en) 2012-01-13 2015-12-01 Amazon Technologies, Inc. Image analysis for user authentication
US9177130B2 (en) * 2012-03-15 2015-11-03 Google Inc. Facial feature detection
JP6044633B2 (ja) * 2012-03-27 2016-12-14 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
JP2013207356A (ja) * 2012-03-27 2013-10-07 Sony Corp 情報処理装置、情報処理方法およびプログラム
KR101357581B1 (ko) * 2012-06-21 2014-02-05 안양대학교 산학협력단 깊이 정보 기반 사람의 피부 영역 검출 방법
US8396265B1 (en) 2012-06-26 2013-03-12 Google Inc. Facial recognition
US20140003674A1 (en) * 2012-06-27 2014-01-02 Christopher D. Coley Skin-Based User Recognition
US8769557B1 (en) 2012-12-27 2014-07-01 The Nielsen Company (Us), Llc Methods and apparatus to determine engagement levels of audience members
US8885925B2 (en) 2013-03-12 2014-11-11 Harris Corporation Method for 3D object identification and pose detection using phase congruency and fractal analysis
EP2987099A4 (en) * 2013-04-16 2017-10-04 ImageWare Systems, Inc. Real-time biometric database and template management
JP2015018400A (ja) * 2013-07-10 2015-01-29 グローリー株式会社 顔照合装置、顔照合方法及び顔照合プログラム
US9147061B1 (en) 2013-11-22 2015-09-29 Google Inc. Multi-level authentication
US9396177B1 (en) * 2014-02-10 2016-07-19 Jpmorgan Chase Bank, N.A. Systems and methods for document tracking using elastic graph-based hierarchical analysis
WO2015137645A1 (ko) * 2014-03-13 2015-09-17 엘지전자 주식회사 이동 단말기 및 그 제어 방법
US9239957B2 (en) 2014-04-04 2016-01-19 Fotonation Limited Image processing method and apparatus
KR101640014B1 (ko) * 2014-07-17 2016-07-15 크루셜텍 (주) 허위 안면 이미지 분류가 가능한 홍채 인식 장치
US11256792B2 (en) 2014-08-28 2022-02-22 Facetec, Inc. Method and apparatus for creation and use of digital identification
US10803160B2 (en) 2014-08-28 2020-10-13 Facetec, Inc. Method to verify and identify blockchain with user question data
CA3186147A1 (en) 2014-08-28 2016-02-28 Kevin Alan Tussy Facial recognition authentication system including path parameters
US10698995B2 (en) 2014-08-28 2020-06-30 Facetec, Inc. Method to verify identity using a previously collected biometric image/data
US10614204B2 (en) 2014-08-28 2020-04-07 Facetec, Inc. Facial recognition authentication system including path parameters
US10915618B2 (en) 2014-08-28 2021-02-09 Facetec, Inc. Method to add remotely collected biometric images / templates to a database record of personal information
EP3017755A1 (en) 2014-11-04 2016-05-11 Samsung Electronics Co., Ltd. Electronic device, and method for analyzing face information in electronic device
JP6572537B2 (ja) * 2014-12-15 2019-09-11 富士通コネクテッドテクノロジーズ株式会社 認証装置、方法及びプログラム
RU2596062C1 (ru) 2015-03-20 2016-08-27 Автономная Некоммерческая Образовательная Организация Высшего Профессионального Образования "Сколковский Институт Науки И Технологий" Способ коррекции изображения глаз с использованием машинного обучения и способ машинного обучения
JP6664163B2 (ja) * 2015-08-05 2020-03-13 キヤノン株式会社 画像識別方法、画像識別装置及びプログラム
US9749317B2 (en) 2015-08-28 2017-08-29 At&T Intellectual Property I, L.P. Nullifying biometrics
KR102401170B1 (ko) 2015-10-21 2022-05-24 삼성전자주식회사 복합 인증 장치 및 방법
CN105554385B (zh) * 2015-12-18 2018-07-10 天津中科智能识别产业技术研究院有限公司 一种远距离多模态生物特征识别方法及其系统
EP3400706B1 (en) 2016-01-05 2022-04-13 RealD Spark, LLC Gaze correction of multi-view images
USD987653S1 (en) 2016-04-26 2023-05-30 Facetec, Inc. Display screen or portion thereof with graphical user interface
CN105959121B (zh) * 2016-07-08 2018-12-14 江苏心灵鸡汤信息技术有限公司 一种具有身份验证功能的移动终端
CN106899567B (zh) * 2016-08-24 2019-12-13 阿里巴巴集团控股有限公司 用户核身方法、装置及系统
KR102458241B1 (ko) 2016-12-13 2022-10-24 삼성전자주식회사 사용자 인식 장치 및 방법
CN106599841A (zh) * 2016-12-13 2017-04-26 广东工业大学 一种基于全脸匹配的身份验证方法及装置
US10430644B2 (en) 2017-06-06 2019-10-01 Global Bionic Optics Ltd. Blended iris and facial biometric system
CN109325988B (zh) * 2017-07-31 2022-11-11 腾讯科技(深圳)有限公司 一种面部表情合成方法、装置及电子设备
ES2967691T3 (es) 2017-08-08 2024-05-03 Reald Spark Llc Ajuste de una representación digital de una región de cabeza
CN113205040A (zh) * 2017-08-09 2021-08-03 北京市商汤科技开发有限公司 人脸图像处理方法、装置和电子设备
RU2670798C9 (ru) 2017-11-24 2018-11-26 Самсунг Электроникс Ко., Лтд. Способ аутентификации пользователя по радужной оболочке глаз и соответствующее устройство
US11017575B2 (en) 2018-02-26 2021-05-25 Reald Spark, Llc Method and system for generating data to provide an animated visual representation
JP7165909B2 (ja) 2018-02-28 2022-11-07 パナソニックIpマネジメント株式会社 画像合成装置、虹彩認証システム、画像合成方法及び虹彩認証方法
JP2019152929A (ja) 2018-02-28 2019-09-12 パナソニックIpマネジメント株式会社 認証装置及び認証方法
CN108596814A (zh) * 2018-04-20 2018-09-28 聊城农村商业银行股份有限公司 基于人脸识别的社保认证系统
KR102177453B1 (ko) * 2018-10-16 2020-11-11 서울시립대학교 산학협력단 얼굴 인식 방법 및 얼굴 인식 장치
US10936178B2 (en) 2019-01-07 2021-03-02 MemoryWeb, LLC Systems and methods for analyzing and organizing digital photos and videos
US10726246B1 (en) 2019-06-24 2020-07-28 Accenture Global Solutions Limited Automated vending machine with customer and identification authentication
USD963407S1 (en) 2019-06-24 2022-09-13 Accenture Global Solutions Limited Beverage dispensing machine
US11874906B1 (en) * 2020-01-15 2024-01-16 Robert William Kocher Skin personal identification (Skin-PIN)
EP3869395A1 (en) 2020-02-21 2021-08-25 Accenture Global Solutions Limited Identity and liveness verification
US11711638B2 (en) 2020-06-29 2023-07-25 The Nielsen Company (Us), Llc Audience monitoring systems and related methods
CN113111808B (zh) * 2021-04-20 2022-03-29 山东大学 基于机器视觉的异常行为检测方法及系统
CN113468961A (zh) * 2021-05-28 2021-10-01 郑州轻工业大学 一种针对特定对象使用的图像信息处理方法及系统
US11860704B2 (en) 2021-08-16 2024-01-02 The Nielsen Company (Us), Llc Methods and apparatus to determine user presence
US11758223B2 (en) 2021-12-23 2023-09-12 The Nielsen Company (Us), Llc Apparatus, systems, and methods for user presence detection for audience monitoring
US11985411B2 (en) * 2022-06-24 2024-05-14 Dell Products L.P. Detection of image sensor shutter state

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63223974A (ja) * 1987-03-13 1988-09-19 Toshiba Corp 画像処理装置
US5291560A (en) * 1991-07-15 1994-03-01 Iri Scan Incorporated Biometric personal identification system based on iris analysis
US5835616A (en) * 1994-02-18 1998-11-10 University Of Central Florida Face detection using templates
BR9507142A (pt) * 1994-03-24 1997-09-30 Minnesota Mining & Mfg Sistema de identificação pessoal biométrico processo para identificar uma pessoa e equipamento
US5572596A (en) * 1994-09-02 1996-11-05 David Sarnoff Research Center, Inc. Automated, non-invasive iris recognition system and method
US6714665B1 (en) * 1994-09-02 2004-03-30 Sarnoff Corporation Fully automated iris recognition system utilizing wide and narrow fields of view
US5729619A (en) * 1995-08-08 1998-03-17 Northrop Grumman Corporation Operator identity, intoxication and drowsiness monitoring system and method
JP3626301B2 (ja) * 1996-11-15 2005-03-09 沖電気工業株式会社 個人識別装置
US6301370B1 (en) * 1998-04-13 2001-10-09 Eyematic Interfaces, Inc. Face recognition from video images
US6272231B1 (en) 1998-11-06 2001-08-07 Eyematic Interfaces, Inc. Wavelet-based facial motion capture for avatar animation
EP1020811A2 (en) * 1999-01-15 2000-07-19 Citicorp Development Center, Inc. Fast matching systems and methods for personal identification
US6944318B1 (en) * 1999-01-15 2005-09-13 Citicorp Development Center, Inc. Fast matching systems and methods for personal identification
JP2001034754A (ja) * 1999-07-19 2001-02-09 Sony Corp 虹彩認証装置
US6697502B2 (en) * 2000-12-14 2004-02-24 Eastman Kodak Company Image processing method for detecting human figures in a digital image
JP2002251380A (ja) * 2001-02-22 2002-09-06 Omron Corp 利用者照合システム
US6920236B2 (en) * 2001-03-26 2005-07-19 Mikos, Ltd. Dual band biometric identification system
JP2005503619A (ja) * 2001-09-14 2005-02-03 エステーミクロエレクトロニクス ソシエテ アノニム リング位置の特定方法
US20040052418A1 (en) * 2002-04-05 2004-03-18 Bruno Delean Method and apparatus for probabilistic image analysis
US7369685B2 (en) * 2002-04-05 2008-05-06 Identix Corporation Vision-based operating method and system
JP4078117B2 (ja) * 2002-05-23 2008-04-23 日本放送協会 被写体判別方法、被写体判別装置、及び被写体判別プログラム
DE10245900A1 (de) 2002-09-30 2004-04-08 Neven jun., Hartmut, Prof.Dr. Bildbasiertes Anfragesystem für Suchmaschinen für mobile Endgeräte mit eingebauter Kamera
CN101064004B (zh) * 2003-02-13 2010-05-26 日本电气株式会社 伪装检测装置及伪装检测方法
WO2005052765A2 (en) * 2003-11-25 2005-06-09 Ultra-Scan Corporation Biometric authorization method and system
US8421872B2 (en) 2004-02-20 2013-04-16 Google Inc. Image base inquiry system for search engines for mobile telephones with integrated camera
US7565139B2 (en) 2004-02-20 2009-07-21 Google Inc. Image-based search engine for mobile phones with camera
KR100982197B1 (ko) * 2004-06-21 2010-09-14 구글 인코포레이티드 얼굴 인식 방법, 얼굴 인식 장치 및 컴퓨터 판독 가능한 기록 매체
US7440929B2 (en) * 2005-01-14 2008-10-21 Ultra-Scan Corporation Multimodal authorization method, system and device
JP4734980B2 (ja) * 2005-03-15 2011-07-27 オムロン株式会社 顔認証装置およびその制御方法、顔認証装置を備えた電子機器、顔認証装置制御プログラム、ならびに該プログラムを記録した記録媒体
US7860280B2 (en) * 2006-06-09 2010-12-28 Samsung Electronics Co., Ltd. Facial feature detection method and device
US20080298643A1 (en) * 2007-05-30 2008-12-04 Lawther Joel S Composite person model from image collection

Also Published As

Publication number Publication date
WO2006023046A1 (en) 2006-03-02
EP1766555B1 (en) 2010-08-04
AU2005278003B2 (en) 2011-02-24
DE602005022718D1 (de) 2010-09-16
US20060050933A1 (en) 2006-03-09
EP1766555A1 (en) 2007-03-28
BRPI0512354A (pt) 2008-05-13
ATE476715T1 (de) 2010-08-15
KR100982197B1 (ko) 2010-09-14
AU2005278003B8 (en) 2011-06-23
AU2005278003A1 (en) 2006-03-02
CN101027678B (zh) 2011-09-21
US7697735B2 (en) 2010-04-13
AU2011202268A1 (en) 2011-06-09
KR20070070151A (ko) 2007-07-03
JP4610614B2 (ja) 2011-01-12
CA2571643C (en) 2011-02-01
CA2571643A1 (en) 2006-03-02
AU2011202268B2 (en) 2012-09-13
CN101027678A (zh) 2007-08-29
JP2008504606A (ja) 2008-02-14

Similar Documents

Publication Publication Date Title
ES2348248T3 (es) Sistema y procedimiento multibiometricos basados en una unica imagen.
Burge et al. Ear biometrics
KR102561723B1 (ko) 모바일 디바이스를 사용하여 캡처된 화상을 사용하여 지문 기반 사용자 인증을 수행하기 위한 시스템 및 방법
Burge et al. Ear biometrics in computer vision
Zhou et al. A new human identification method: Sclera recognition
KR100944247B1 (ko) 얼굴 인식 방법 및 시스템
JP5517858B2 (ja) 画像処理装置、撮像装置、画像処理方法
Burge et al. Ear biometrics for machine vision
KR20190016733A (ko) 얼굴 특징점 기반 부분 영역 지정을 통한 부분 가림 얼굴 인식 방법, 이를 수행하기 위한 기록 매체 및 장치
KR101464446B1 (ko) 얼굴 인식과 자세 추정을 이용한 개인 인증 방법 및 그 장치
CN110929570B (zh) 虹膜快速定位装置及其定位方法
Burge et al. Using ear biometrics for passive identification
Boodoo et al. Robust multi biometric recognition using face and ear images
Barra et al. Unconstrained ear processing: What is possible and what must be done
KR100862526B1 (ko) 얼굴동영상 데이터베이스 구축 방법 및 시스템과 이를이용한 얼굴 인식 방법 및 시스템.
Campadelli et al. A face recognition system based on local feature characterization
Kurniawan et al. A review on 2D ear recognition
Arca et al. Face recognition based on 2d and 3d features
Rokita et al. Cell phones personal authentication systems using multimodal biometrics
Marval-Pérez et al. Phase-Based Periocular Recognition with Texture Enhancement
Jain et al. Face recognition
Burge et al. 13EAR BIOMETRICS
UDROIU et al. USABLE SECURITY IN BIOMETRIC AUTHENTICATION SYSTEMS
Ram Smart Attendance Registration For Future Classrooms
Rohil et al. Adjacency Matrix based Face Recognition Approach