ES2348248T3 - Sistema y procedimiento multibiometricos basados en una unica imagen. - Google Patents
Sistema y procedimiento multibiometricos basados en una unica imagen. Download PDFInfo
- Publication number
- ES2348248T3 ES2348248T3 ES05810155T ES05810155T ES2348248T3 ES 2348248 T3 ES2348248 T3 ES 2348248T3 ES 05810155 T ES05810155 T ES 05810155T ES 05810155 T ES05810155 T ES 05810155T ES 2348248 T3 ES2348248 T3 ES 2348248T3
- Authority
- ES
- Spain
- Prior art keywords
- digital image
- facial
- skin
- score
- iris
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/254—Fusion techniques of classification results, e.g. of results related to same input data
- G06F18/256—Fusion techniques of classification results, e.g. of results related to same input data of results relating to different input data, e.g. multimodal recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/809—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data
- G06V10/811—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data the classifiers operating on different input data, e.g. multi-modal recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/193—Preprocessing; Feature extraction
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Human Computer Interaction (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Ophthalmology & Optometry (AREA)
- Bioinformatics & Computational Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Collating Specific Patterns (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Measuring And Recording Apparatus For Diagnosis (AREA)
Abstract
Un procedimiento de reconocimiento de una cara en una imagen digital, comprendiendo el procedimiento: seleccionar una única imagen digital de una cara; localizar características faciales en la única imagen digital; comparar características faciales localizadas en la única imagen digital con características faciales de una imagen digital de referencia para producir una puntuación de las características faciales; comparar características del iris en la única imagen digital con las características del iris en la imagen digital de referencia para producir una puntuación de las características del iris; calcular una puntuación de semejanza entre la única imagen digital y la imagen de referencia en base a la puntuación de las características faciales y a la puntuación de las características del iris; y determinar en base a la puntuación de semejanza si la cara en la única imagen digital se corresponde con una cara asociada con la imagen digital de referencia o no.
Description
La presente solicitud reivindica el beneficio de la solicitud de patente U.S. nº 60/581.496, presentada el 21 de junio de 2004, que está incorporada en el presente documento por referencia.
La presente invención versa acerca de procedimientos para integrar un reconocimiento de cara, piel e iris para proporcionar un sistema biométrico con un nivel de precisión sin precedentes para identificar a individuos. Una característica de peso del presente enfoque es que solo requiere una única imagen digital que muestre una cara humana como datos fuente.
La presente invención está materializada en un procedimiento y un aparato según se definen en las reivindicaciones 1 y 10.
En aspectos más detallados de la invención, la única imagen puede tener una resolución de la distancia entre ojos de al menos 600 píxeles, y puede tener al menos aproximadamente 5 mega píxeles. Se puede llevar a cabo un análisis de la textura de la piel comparando las características de la piel de la cara en la única imagen con características de la piel de una cara en una imagen de referencia, y la puntuación de semejanza puede estar basada adicionalmente en el análisis de la textura de la piel. El análisis de la textura de la piel puede incluir localizar áreas de la piel en la cara adecuadas para un análisis de la textura de la piel, deformar, alinear y normalizar las áreas localizadas de la piel, y extraer características de la piel de las áreas localizadas de la piel. Las características de la piel pueden consistir en poros, arrugas y lunares.
En otros aspectos más detallados de la invención, la única imagen puede estar seleccionada de un vídeo, y las características faciales están localizadas en base a un seguimiento de características faciales de las características faciales en el vídeo. Además, las características faciales pueden localizarse utilizando una correspondencia entre grafos elásticos de racimo. De forma alternativa, las características faciales pueden localizarse utilizando trenes de ondas de Gabor.
Los dibujos adjuntos ilustran realizaciones de la presente invención y, junto con la descripción, sirven para explicar los principios de la invención.
La Figura 1 es un diagrama de flujo que ilustra un procedimiento para reconocer una persona a partir de una única imagen digital utilizando un enfoque multibiométrico, según la presente invención.
La Figura 2 es un diagrama de flujo que ilustra un procedimiento de establecer una correspondencia para un análisis de textura de la piel.
La Figura 3 es un dibujo de una imagen de una cara que muestra nodos de un gráfico localizados en las características faciales de interés.
La Figura 4 es un diagrama de bloques de un motor de reconocimiento visual que puede ser reglado para llevar a cabo un reconocimiento de cara, piel e iris.
La presente invención versa acerca de procedimientos para integrar un reconocimiento de cara, piel e iris para proporcionar un sistema biométrico con un nivel sin precedentes de precisión para identificar individuos. Una característica de peso de este enfoque es que solo requiere una única imagen digital que muestre una cara humana como datos fuente. La tasa de rechazos indebidos puede ser inferior a 0,001 con una tasa de aceptación indebida de 0,01 para una amplia gama de condiciones operativas, superando, por lo tanto, la precisión de identificación por huellas dactilares, preferida tradicionalmente. La presente invención permite una búsqueda eficaz de grandes bases de datos utilizando una biométrica no invasiva que solo requiere una mínima cooperación por parte del individuo que deba ser identificado.
Las cámaras digitales se están volviendo más frecuentes y baratas cada día. Además, la resolución del CCD y de sensores de formación de imágenes similares utilizados por las cámaras digitales de consumo ha ido aumentando continuamente. La mayoría de las cámaras disponibles en la actualidad tienen capacidad para cinco o más mega píxeles, lo que permite una calidad de impresión comparable a las cámaras analógicas basadas en carrete para tamaños habituales de impresión. Recientemente, la venta mundial de cámaras digitales de consumo ha superado la de las cámaras analógicas más baratas. Pronto, las cámaras económicas tales como cámaras de web y aquellas incorporadas en teléfonos móviles soportarán grandes resoluciones.
Esta disponibilidad de imágenes de alta resolución puede ser explotada para ir más allá de las técnicas existentes de reconocimiento facial para aumentar la precisión de tales sistemas biométricos. Las técnicas existentes dependen más de procedimientos de establecer una correspondencia integral, es decir, basados en imágenes, o en la correspondencia de características locales extraídas de puntos de referencia faciales prominentes, tales como la nariz, los ojos o la boca. Un ejemplo de gran éxito es una tecnología de reconocimiento facial, que utiliza una correspondencia entre grafos elásticos de racimo para localizar de forma precisa las localizaciones de características faciales, y calcula plantillas compuestas de coeficientes de trenes de onda de Gabor de diversas escalas y orientaciones, que forman una plantilla facial única para un individuo. Véase la patente U.S. nº 6.301.370, FACE RECOGNITION FROM VIDEO IMAGES, publicada el 9 de octubre de 2001.
El uso de una imagen de mayor resolución permite un análisis facial con un nivel más detallado, tal como utilizando parches cutáneos extraídos de áreas sin pelo en la cara, o a un nivel aún mayor de detalle al analizar los patrones únicos en el iris de un individuo. La resolución de una imagen que contiene una cara no es por sí misma una medición fiable para indicar la resolución de píxeles a la que se capturó la cara. Por ejemplo, una imagen de muy alta resolución puede contener una cara que se encuentra tan lejos en la escena que se representa con muy pocos píxeles. O una imagen de una resolución bastante baja puede contener una cara que está tan en primer plano que la mayoría de la resolución de la imagen se utiliza para representar la cara. Una medición más útil de la resolución es una “resolución de la distancia entre ojos” definida en el presente documento como la resolución de píxeles entre las pupilas izquierda y derecha en una cara. Para técnicas típicas de un reconocimiento facial tradicional, se necesita una resolución de la distancia entre ojos de aproximadamente 25 a 80 píxeles (por ejemplo, 40 píxeles), mientras que para un análisis de parche cutáneo, se necesita una resolución de la distancia entre ojos de aproximadamente 120 a 150 píxeles, y para un análisis del iris se necesita una resolución de la distancia entre ojos de aproximadamente 600 a 650 píxeles.
Además, es importante que la imagen no esté borrosa, de lo contrario se reduce la resolución efectiva de la imagen. Utilizar procedimientos de Fourier en la región de una cara detectada permite valorar si se ha alcanzado efectivamente la “resolución eficaz de la distancia entre ojos” necesaria. Finalmente, es importante comprobar que se ha alcanzado la profundidad eficaz de píxeles. Esto se puede conseguir fácilmente utilizando histogramas de valor de gris, tomados de nuevo del área de una cara detectada. De forma ventajosa, la profundidad de píxeles se acerca a al menos 8 bits.
Si se captura una cara a una distancia razonable con una cámara de 5 o 6 mega píxeles con un ángulo visual suficientemente estrecho, la resolución de la distancia entre ojos puede encontrarse dentro de la gama de las técnicas de análisis de iris, y, por lo tanto, se vuelve factible extraer plantillas biométricas para tres procedimientos biométricos completamente distintos a partir de una fuente de datos. Además, se pueden emplear procedimientos bien conocidos para obtener una súper resolución para aumentar la resolución eficaz de la imagen (por ejemplo, súper resolución en imágenes utilizando un flujo óptico y un muestreo irregular, Marc Rumo1, Patrick Vandewalle, LCAV – School of Computer and Communication Sciences, Ecole Polytechnique Fédérale de Lausanne).
Una combinación de distintos procedimientos biométricos puede aumentar la precisión de verificación, y también mejorar el grado general de utilización del sistema biométrico. Son ejemplos de éxito la fusión de la voz y la cara, y de la huella dactilar y la cara. Lo que tienen estos procedimientos en común es que requieren distintos dispositivos de detección. El procedimiento de la presente invención permite la combinación de los procedimientos biométricos descritos anteriormente, el análisis facial, de la textura de la piel y el reconocimiento del iris, en un sistema multibiométrico basado en una única imagen de un único sensor.
Se describe el procedimiento del Análisis multibiométrico de una única imagen (SIMBA) 10 con referencia a la Figura 1. Se selecciona una imagen de entrada de una cara 12 para un análisis (etapa 14). Después de que se han localizado la cara y sus características faciales (etapas 16 y 18) se procesan distintas porciones de la cara en tres canales semiortogonales 20, 22 y 24, que analizan las características faciales, de textura de la piel y del iris, respectivamente (etapa 26). Se comparan las características faciales localizadas con valores correspondientes de imágenes faciales en una base 27 de datos. Un módulo 28 de fusión integra los resultados de los tres canales en una única puntuación de semejanza. En base a la puntuación de semejanza (etapa 30), se reconoce (etapa 32) a la persona en la imagen o no se encuentra la persona en la base de datos (etapa 34).
Se puede llevar a cabo la detección facial (etapa 16) por medio de cualquiera de varios buscadores faciales existentes. Un enfoque ventajoso utiliza un árbol de decisión de autoaprendizaje mediante el algoritmo Adaboost y utiliza trenes de ondas de Gabor como características. Este enfoque consigue una tasa de detección facial en un conjunto de imágenes representativas del 99,7% con una tasa de falsa alarma de 0,001. Supera enfoques tales como los sugeridos por Viola y Jones, “Rapid Object Detection using a Boosted Cascade of Simple Features, Proc. Of IEEE Conf. on Computer Vision and Pattern Recognition”, diciembre de 2001, y Rowley et al. 1998.
Se puede llevar a cabo la detección de características faciales (etapa 18) utilizando un módulo de alta velocidad de búsqueda y de seguimiento de características faciales basado en tecnología de correspondencia de grafos elásticos. Véase la patente U.S. nº 6.272.231, titulada WAVELET-BASED FACIAL MOTION CAPTURE FOR AVATAR ANIMATION. De forma ventajosa, se detectan y se realiza el seguimiento de cincuenta y cinco (55) localizaciones de características en la cara en tiempo real. Este módulo es único en su precisión y velocidad. El seguimiento de características faciales mejora mucho la tecnología SIMBA en el sentido de que permite la localización con exactitud de las características faciales incluyendo las pupilas en cada fotograma de una secuencia de vídeo. La localización con exactitud de las características faciales es un requisito previo para comparar características faciales, parches cutáneos y los detalles del iris.
Se puede llevar a cabo la comparación de las características faciales (etapa 20) utilizando uno de entre diversos motores en el mercado, particularmente el motor de reconocimiento facial disponible en Neven Vision de Santa Mónica, California, EE. UU. en la patente U.S. nº 6.301.370, titulada FACE RECOGNITION FROM VIDEO IMAGES, se describe similarmente una buena elección, patente que está incorporada en el presente documento por referencia.
El análisis de la textura de la piel (etapa 22) puede estar basado en el análisis de las características individuales de la piel como los poros, las arrugas, los lunares, etc. Son adecuadas las regiones lisas, sin pelo de las caras como, por ejemplo, las mejillas, la barbilla, la nariz y la frente. Dependiendo de factores como el peinado o el sexo (vello facial), qué áreas pueden ser utilizadas puede diferir entre persona y persona.
Con referencia a la Figura 2, el procedimiento 210 de establecer una correspondencia del sistema de análisis de la textura de la piel puede dividirse en las siguientes etapas de procesamiento:
- 1.
- detección de la cara (etapa 212);
- 2.
- detección de las características faciales (etapa 214);
- 3.
- localización de las áreas de la piel en la cara adecuadas para un análisis de la textura de la piel (etapa 216);
- 4.
- deformar, alinear y normalizar y parches cutáneos (etapa 218);
- 5.
- extraer características que describen áreas locales de la piel (etapa 220);
- 6.
- comparar estas características con la imagen de referencia, y calcular la puntuación de semejanza (etapa 222).
Una solución reciente dada a conocer por Bruno Delean divide el área por debajo de los ojos en bloques rectangulares y utiliza algoritmos de correspondencia simple de bloques y una evaluación heurística de la localización relativa de los bloques colindantes para calcular la puntuación de semejanza. (Bruno Delean, Method and apparatus for probabilistic image analysis, solicitud de patente US nº de publicación 2004/0052418). Los enfoques descritos anteriormente empleaban procedimientos más sofisticados basados en una correspondencia de grafos elásticos utilizando trenes de ondas de Gabor (Buhmann et al. 1990, y Wiskott et al. 1997).
Dado que la tecnología actual de reconocimiento facial y de detección facial (por ejemplo, la patente U.S. nº 6.301.370) depende de localizar con exactitud de forma precisa la localización de las características faciales prominentes, está adecuada idealmente para su aplicación a una identificación biométrica basada en un análisis de la textura de la piel. Una opción es utilizar la tecnología de correspondencia de grafos elásticos. La tecnología de correspondencia de grafos elásticos representa caras como un gráfico marcado cuyos nodos se corresponden con puntos de referencia faciales como el rabillo del ojo o la punta de la nariz, y es capaz de colocar este gráfico con una precisión elevada sobre una cara en una imagen presentada. En base a estos puntos de referencia hallados, es posible localizar de forma precisa las áreas en la cara utilizadas para un análisis de la textura de la piel. Esta tecnología de reconocimiento facial puede determinar características locales de la cara, por ejemplo, si hay presentes o no pelo facial o gafas. Se puede derivar un mapa facial individualizado más fiable de áreas adecuadas para un análisis de la piel utilizando esta información.
Con referencia a la Figura 3, se pueden adaptar nodos de un grafo elástico para imágenes de alta resolución. Se colocan densidades más elevadas de nodo que las utilizadas habitualmente en las áreas de la piel sin pelo y en las áreas del iris. Los parámetros del vector de rasgos extraídos en cada nodo están adaptados para explicar, de forma óptima, el contenido esperado de la señal. Las posiciones de los nodos en la Figura 3 son conceptuales. Las densidades reales de los nodos —en particular— en el iris, pueden ser mayores.
Además, dado que se pueden derivar la posición y la expresión de las características faciales, se puede normalizar o quitar la deformidad de un parche cutáneo extraído antes de ser analizado. Un ejemplo de tal escenario sería uno en el que se captura la cara del usuario que va a ser identificado con una expresión exagerada, tal como una sonrisa o un ceño marcado, lo que provoca que se deforme el área debajo del ojo donde se captura el parche cutáneo. Si, en una situación de captura en directo, se detecta una expresión exagerada, se le podría dar información de resultado al usuario para presente una expresión neutral o menos exagerada. Otra situación en la que se mejora mucho un análisis de mayor resolución mediante una búsqueda precisa de puntos de referencia es el caso en el que la cara se encuentra en una posición no frontal. Tras la detección de una cara no frontal se puede deformar la imagen facial a la frontal por medio de procedimientos descritos y a los que se hace referencia en el informe de la prueba de reconocimiento facial por parte del vendedor 2002 (FRVT 2002).
Después de que se han identificado las áreas de piel que van a ser utilizadas para establecer una correspondencia, una forma de comparar parches cutáneos es representar las áreas identificadas como un subgráfico marcado, en el que los nodos se corresponden con parches cutáneos locales. Se escoge la densidad de los nodos para conseguir el equilibrio óptimo de precisión y de velocidad de procesamiento. En las posiciones de estos nodos, se extrae un vector de característica adecuada que describe el parche cutáneo (por ejemplo, chorro de Gabor, parche de píxeles). Durante la etapa de establecer una correspondencia para cada parche cutáneo seleccionado de esta manera, se establece una correspondencia individualmente entre el vector de característica y la región facial de la imagen de referencia y se identifica el parche cutáneo más similar. El resultado es una versión más o menos distorsionada del gráfico en la imagen original. A partir de la semejanza y la distorsión entre el gráfico original y el gráfico de correspondencia, se calcula una puntuación de semejanza que incorpora restricciones geométricas locales. Véase la patente U.S. nº 6.301.370.
En lo que concierne al análisis del iris, una búsqueda precisa de características puede localizar con exactitud la localización de las pupilas y, por lo tanto, el iris circundante. Además, se puede detectar el estado del ojo (por ejemplo, abierto o cerrado). Naturalmente, para el análisis del iris, el ojo necesita estar abierto para mostrar el iris. Todas las técnicas de análisis de la piel descritas anteriormente se aplican al análisis del iris.
Se pueden utilizar las técnicas existentes de escaneo y de reconocimiento del iris para el análisis del iris (etapa 24). La mejora de las técnicas existentes puede estribar en una integración estrecha de la detección y el seguimiento de rasgos faciales con un reconocimiento facial, de la piel y del iris, y permitirá una implementación ultrarrápida y eficaz de recursos del motor completo de reconocimiento como se requiere para dispositivos móviles. Es importante notar que el análisis del patrón del iris es, en muchos sentidos, menos complejo que analizar una cara que está sometida a considerablemente más variación.
Con referencia a la Figura 4, se puede reglar un motor de reconocimiento visual para llevar a cabo un reconocimiento facial, de la piel y del iris. Los principios macroalgorítmicos de reconocimiento visual son: extraer vectores de características de puntos clave de interés, comparar vectores correspondientes de características, derivar una medida de semejanza y compararla con un umbral para determinar si los objetos son idénticos o no. En el caso del reconocimiento de clases, tal como una detección facial, se emplean una red neural, una amplificación o una máquina vectorial de soporte para generalizar los ejemplos específicos. Sin embargo, al observar más de cerca, se notaría que se emplean los submódulos para llevar a cabo ciertas etapas mejor que las técnicas existentes descritas en la bibliografía. Más en particular:
1) Operador de interés: el uso de la congruencia de fase y de la simetría de fase de trenes de ondas de Gabor es superior a muchos otros operadores de puntos de interés sugeridos en la bibliografía, tales como Affine Harris, DOG, y Affine Laplace.
2) Vectores de características: la presente invención hace amplio uso de los trenes de ondas de Gabor como un formato potente de datos de uso general para describir una estructura local de imagen. Cuando es apropiado, los trenes de ondas de Gabor están incrementados con características aprendidas que guardan semejanza con el enfoque del que Viola y Jones fueron pioneros. Finalmente, es prometedor el uso de un diccionario de conjuntos parametrizados de vectores de características extraídos de conjuntos masivos de datos de imagen que muestran variaciones de parches superficiales genéricos: “Locons”. Este enfoque tiene el potencial de realizar una aportación significativa para conseguir una mejor pose y una invariancia de la iluminación.
3) Correspondencia: casi todas las rutinas de establecer una correspondencia descritas en la bibliografía solo consideran la semejanza entre los vectores de características. Se puede obtener una mejora al estimar explícitamente los vectores de desplazamiento al igual que conjuntos de parámetros que describen condiciones medioambientales tales como el punto de vista y las condiciones de iluminación que pueden permitir un aprendizaje más rápido de nuevos objetos, y reconocerlos bajo una gama más amplia de condiciones.
Cuando se realiza la determinación de si el individuo visto en diversas imágenes es el mismo
o no, se necesita integrar las puntuaciones de semejanza del gráfico de puntos de referencia faciales y de los subgráficos de la piel y del iris. Existen múltiples procedimientos descritos en la bibliografía acerca de cómo lograr esto. Se puede hacer una referencia al informe de extensión de la prueba de reconocimiento facial del vendedor 2002, NISTIR 2004, que enseña procedimientos de cómo integrar distintos enfoques de reconocimiento facial al igual que el siguiente artículo que muestra cómo integrar de forma óptima el reconocimiento facial y del iris: Yun HongWang, Tieniu Tan1, y Anil K. Jain, “Combining Face and Iris Biometrics for Identity Verification” AVBPA 2003.
La experiencia empírica con diversas normas de fusión ha descubierto que en el caso de integrar un análisis de características del iris, de la piel y faciales, se pueden conseguir el mejor resultado con un procedimiento de fusión del sensor que iguala en primer lugar las puntuaciones de correspondencia para cada canal de reconocimiento de forma individual con un intervalo [0, 1] antes de fusionarlos al formar la media.
Dada una imagen con una resolución de 4 a 5 mega píxeles, y particularmente una resolución de 6 mega píxeles y superiores, una combinación de análisis facial, de parche cutáneo y del iris pueden operar en etapas en la misma imagen fuente para mejorar drásticamente la precisión y la fiabilidad del sistema de reconocimiento facial. Una característica atractiva permitida por la etapa inicial de búsqueda de características faciales es que modula un análisis refinado de la piel y del iris que requiere una mayor resolución que puede ser activada o desactivada de forma automática dependiendo de la determinación inicial cuánta resolución de píxeles hay disponible entre los ojos.
5 Otra ventaja de la biométrica de fusión en SIMBA es que aborda muy elegantemente el problema denominado “comprobación en directo”. Llevar a cabo una comprobación en directo aborda el problema de cómo determinar si la biométrica actual está originándose a partir de un individuo vivo o más bien a partir de un artefacto tal como un dibujo. Se puede utilizar un seguimiento de características faciales para analizar movimientos faciales internos y puede
10 evitar, por lo tanto, que un impostor utilice imágenes fijas. De forma similar, un análisis del iris puede medir la contracción o dilatación cambiantes de la pupila (finalmente, incluso provocada al proyectar una luz en la pupila) para determinar que se está observando un individuo vivo. Finalmente, se puede utilizar una búsqueda precisa de puntos de referencia para determinar si las características faciales detectadas se encuentran todas en un plano o no. Además, esto
15 permite descartar imágenes de vídeo que un impostor podría mostrar al sistema biométrico. El enfoque SIMBA evita el problema de suponer que es permisible pedir al usuario exponerlo secuencialmente a distintos sensores biométricos, muchos de los cuales son bien invasivos o bien difíciles de usar. Un sistema multibiométrico eficaz necesita ser cómodo de utilizar. Los usos existentes del reconocimiento del iris y de la huella dactilar muestran que la facilidad de
20 uso no ha sido una prioridad elevada en el diseño. En cambio, el enfoque SIMBA depende únicamente de un único sensor de imagen bidimensional y emplea la multibiométrica únicamente de forma interna en el sentido de que los canales semiortogonales de reconocimiento aprovechan la información biométrica contenida en diversos aspectos de la imagen. Es importante hacer notar el uso de una técnica robusta para hacer un seguimiento de
25 características faciales en tiempo real.
Claims (19)
- Reivindicaciones
- 1.
- Un procedimiento de reconocimiento de una cara en una imagen digital, comprendiendo el procedimiento:
seleccionar una única imagen digital de una cara; localizar características faciales en la única imagen digital; comparar características faciales localizadas en la única imagen digital con características faciales de una imagen digital de referencia para producir una puntuación de las características faciales; comparar características del iris en la única imagen digital con las características del iris en la imagen digital de referencia para producir una puntuación de las características del iris; calcular una puntuación de semejanza entre la única imagen digital y la imagen de referencia en base a la puntuación de las características faciales y a la puntuación de las características del iris; y determinar en base a la puntuación de semejanza si la cara en la única imagen digital se corresponde con una cara asociada con la imagen digital de referencia o no. -
- 2.
- Un procedimiento de reconocimiento facial como se define en la reivindicación 1, en el que la única imagen digital tiene una resolución de la distancia entre ojos de al menos aproximadamente 600 píxeles.
-
- 3.
- Un procedimiento de reconocimiento facial como se define en la reivindicación 1, en el que la única imagen digital comprende al menos aproximadamente 5 mega píxeles.
-
- 4.
- Un procedimiento de reconocimiento facial como se define en la reivindicación 1, que comprende, además, llevar a cabo un análisis de textura de la piel comparando características de la piel de la cara en la única imagen digital con características de la piel de una cara en la imagen digital de referencia para producir una puntuación de las características de la piel, en el que la puntuación de semejanza está basada adicionalmente en la puntuación de las características de la piel.
-
- 5.
- Un procedimiento de reconocimiento facial como se define en la reivindicación 4, en el
que el análisis de la textura de la piel comprende: localizar una pluralidad de áreas de la piel en la cara adecuadas para un análisis de la textura de la piel; deformar, alinear, y normalizar las áreas de la piel localizadas, y extraer las características de la piel de las áreas de la piel localizadas. -
- 6.
- Un procedimiento de reconocimiento facial como se define en la reivindicación 5, en el que las características de la piel pueden consistir en poros, arrugas y lunares.
-
- 7.
- Un procedimiento de reconocimiento facial como se define en la reivindicación 1, en el que la única imagen digital es un fotograma seleccionado de un vídeo; las características faciales se localizan en el fotograma en base a un seguimiento de las características faciales de las características faciales en el vídeo.
-
- 8.
- Un procedimiento de reconocimiento facial como se define en la reivindicación 1, en el que las características faciales se localizan utilizando una correspondencia entre grafos elásticos de racimo.
-
- 9.
- Un procedimiento de reconocimiento facial como se define en la reivindicación 1, en el que las características faciales se localizan utilizando trenes de ondas de Gabor.
-
- 10.
- Un aparato de reconocimiento facial, que comprende:
medios para seleccionar una única imagen digital de una cara; medios para localizar características faciales en la única imagen digital; medios para comparar características faciales localizar en la única imagen digital con características faciales de una imagen digital de referencia para producir una puntuación de las características faciales; medios para comparar las características del iris en la única imagen digital con la característica del iris en la imagen digital de referencia para producir una puntuación de las características del iris; y medios para calcular una puntuación de semejanza entre la única imagen digital y la imagen digital de referencia en base a la puntuación de las características faciales y a la puntuación de las características del iris. -
- 11.
- Un aparato de reconocimiento facial como se define en la reivindicación 10, en el que la
única imagen digital tiene una resolución de la distancia entre ojos de al menos aproximadamente 600 píxeles. -
- 12.
- Un aparato de reconocimiento facial como se define en la reivindicación 10, en el que la única imagen digital comprende al menos aproximadamente 5 mega píxeles.
-
- 13.
- Un aparato de reconocimiento facial como se define en la reivindicación 10, que comprende, además, medios para llevar a cabo un análisis de la textura de la piel comparando las características de la piel de la cara en la única imagen digital con características de la piel de una cara en la imagen de referencia para producir una puntuación de las características de la piel, en el que la puntuación de semejanza está basada en la puntuación de las características de la piel.
-
- 14.
- Un aparato de reconocimiento facial como se define en la reivindicación 13, en el que el medio para llevar a cabo un análisis de la textura de la piel comprende: medios para localizar una pluralidad de áreas de la piel en la cara adecuadas para un análisis de la textura de la piel; medios para deformar, alinear, y normalizar las áreas de la piel localizadas; y medios para extraer características de la piel de las áreas de la piel localizadas.
-
- 15.
- Un aparato de reconocimiento facial como se define en la reivindicación 14, en el que las características de la piel pueden consistir en poros, arrugas y lunares.
-
- 16.
- Un procedimiento de reconocimiento facial como se define en la reivindicación 1, que comprende además:
almacenar las características faciales de la única imagen digital y la imagen de referencia en vectores correspondientes de características faciales; almacenar las características del iris de la única imagen digital y la imagen de referencia en vectores correspondientes de características del iris; determinar un vector de desplazamiento entre el vector de la característica facial de la única imagen digital y el vector de la característica facial de la imagen de referencia; y determinar un vector de desplazamiento entre el vector de la característica del iris de la única imagen digital y el vector de la característica del iris de la imagen digital de referencia. -
- 17.
- Un procedimiento de reconocimiento facial como se define en la reivindicación 1, que comprende además:
estimar un conjunto de parámetros que describe un punto de vista para la única imagen digital; y estimar un conjunto de parámetros que describe un punto de vista para la imagen digital de referencia. -
- 18.
- Un procedimiento de reconocimiento facial como se define en la reivindicación 1, que comprende además:
estimar un conjunto de parámetros que describe una condición de iluminación para la única imagen digital; y estimar un conjunto de parámetros que describe una condición de iluminación para la imagen digital de referencia. -
- 19.
- Un procedimiento de reconocimiento facial como se define en la reivindicación 4, en el que calcular una puntuación de semejanza comprende además:
igualar la puntuación de las características faciales con un intervalo [0, 1]; igualar la puntuación de las características del iris con un intervalo [0, 1]; igualar la puntuación de las características de la piel con un intervalo [0, 1]; y calcular la puntuación de semejanza en base a la puntuación igualada de las características faciales, a la puntuación igualada de las características del iris, y a la puntuación igualada de las características de la piel.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US58149604P | 2004-06-21 | 2004-06-21 | |
US581496P | 2004-06-21 |
Publications (1)
Publication Number | Publication Date |
---|---|
ES2348248T3 true ES2348248T3 (es) | 2010-12-02 |
Family
ID=35520844
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES05810155T Active ES2348248T3 (es) | 2004-06-21 | 2005-06-21 | Sistema y procedimiento multibiometricos basados en una unica imagen. |
Country Status (12)
Country | Link |
---|---|
US (1) | US7697735B2 (es) |
EP (1) | EP1766555B1 (es) |
JP (1) | JP4610614B2 (es) |
KR (1) | KR100982197B1 (es) |
CN (1) | CN101027678B (es) |
AT (1) | ATE476715T1 (es) |
AU (2) | AU2005278003B8 (es) |
BR (1) | BRPI0512354A (es) |
CA (1) | CA2571643C (es) |
DE (1) | DE602005022718D1 (es) |
ES (1) | ES2348248T3 (es) |
WO (1) | WO2006023046A1 (es) |
Families Citing this family (153)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8330831B2 (en) | 2003-08-05 | 2012-12-11 | DigitalOptics Corporation Europe Limited | Method of gathering visual meta data using a reference image |
US7269292B2 (en) * | 2003-06-26 | 2007-09-11 | Fotonation Vision Limited | Digital image adjustable compression and resolution using face detection information |
US7844076B2 (en) | 2003-06-26 | 2010-11-30 | Fotonation Vision Limited | Digital image processing using face detection and skin tone information |
US8948468B2 (en) * | 2003-06-26 | 2015-02-03 | Fotonation Limited | Modification of viewing parameters for digital images using face detection information |
US8593542B2 (en) * | 2005-12-27 | 2013-11-26 | DigitalOptics Corporation Europe Limited | Foreground/background separation using reference images |
US7574016B2 (en) | 2003-06-26 | 2009-08-11 | Fotonation Vision Limited | Digital image processing using face detection information |
US7620218B2 (en) * | 2006-08-11 | 2009-11-17 | Fotonation Ireland Limited | Real-time face tracking with reference images |
US8494286B2 (en) | 2008-02-05 | 2013-07-23 | DigitalOptics Corporation Europe Limited | Face detection in mid-shot digital images |
US7440593B1 (en) | 2003-06-26 | 2008-10-21 | Fotonation Vision Limited | Method of improving orientation and color balance of digital images using face detection information |
US8989453B2 (en) | 2003-06-26 | 2015-03-24 | Fotonation Limited | Digital image processing using face detection information |
US8896725B2 (en) * | 2007-06-21 | 2014-11-25 | Fotonation Limited | Image capture device with contemporaneous reference image capture mechanism |
US9692964B2 (en) | 2003-06-26 | 2017-06-27 | Fotonation Limited | Modification of post-viewing parameters for digital images using image region or feature information |
US7565030B2 (en) * | 2003-06-26 | 2009-07-21 | Fotonation Vision Limited | Detecting orientation of digital images using face detection information |
US8682097B2 (en) * | 2006-02-14 | 2014-03-25 | DigitalOptics Corporation Europe Limited | Digital image enhancement with reference images |
US7471846B2 (en) * | 2003-06-26 | 2008-12-30 | Fotonation Vision Limited | Perfecting the effect of flash within an image acquisition devices using face detection |
US8498452B2 (en) | 2003-06-26 | 2013-07-30 | DigitalOptics Corporation Europe Limited | Digital image processing using face detection information |
US7362368B2 (en) * | 2003-06-26 | 2008-04-22 | Fotonation Vision Limited | Perfecting the optics within a digital image acquisition device using face detection |
US9129381B2 (en) * | 2003-06-26 | 2015-09-08 | Fotonation Limited | Modification of post-viewing parameters for digital images using image region or feature information |
US8155397B2 (en) * | 2007-09-26 | 2012-04-10 | DigitalOptics Corporation Europe Limited | Face tracking in a camera processor |
US7792970B2 (en) | 2005-06-17 | 2010-09-07 | Fotonation Vision Limited | Method for establishing a paired connection between media devices |
JP2005346806A (ja) * | 2004-06-02 | 2005-12-15 | Funai Electric Co Ltd | Dvdレコーダおよび記録再生装置 |
KR100982197B1 (ko) * | 2004-06-21 | 2010-09-14 | 구글 인코포레이티드 | 얼굴 인식 방법, 얼굴 인식 장치 및 컴퓨터 판독 가능한 기록 매체 |
US8019801B1 (en) * | 2004-06-23 | 2011-09-13 | Mayo Foundation For Medical Education And Research | Techniques to rate the validity of multiple methods to process multi-dimensional data |
US8320641B2 (en) | 2004-10-28 | 2012-11-27 | DigitalOptics Corporation Europe Limited | Method and apparatus for red-eye detection using preview or other reference images |
US7315631B1 (en) * | 2006-08-11 | 2008-01-01 | Fotonation Vision Limited | Real-time face tracking in a digital image acquisition device |
US8503800B2 (en) | 2007-03-05 | 2013-08-06 | DigitalOptics Corporation Europe Limited | Illumination detection using classifier chains |
US7765231B2 (en) | 2005-04-08 | 2010-07-27 | Rathus Spencer A | System and method for accessing electronic data via an image search engine |
US7646916B2 (en) * | 2005-04-15 | 2010-01-12 | Mississippi State University | Linear analyst |
US8311294B2 (en) | 2009-09-08 | 2012-11-13 | Facedouble, Inc. | Image classification and information retrieval over wireless digital networks and the internet |
US7587070B2 (en) * | 2005-09-28 | 2009-09-08 | Facedouble, Inc. | Image classification and information retrieval over wireless digital networks and the internet |
US7450740B2 (en) * | 2005-09-28 | 2008-11-11 | Facedouble, Inc. | Image classification and information retrieval over wireless digital networks and the internet |
US8369570B2 (en) | 2005-09-28 | 2013-02-05 | Facedouble, Inc. | Method and system for tagging an image of an individual in a plurality of photos |
US7599527B2 (en) * | 2005-09-28 | 2009-10-06 | Facedouble, Inc. | Digital image search system and method |
US8600174B2 (en) | 2005-09-28 | 2013-12-03 | Facedouble, Inc. | Method and system for attaching a metatag to a digital image |
US8326775B2 (en) * | 2005-10-26 | 2012-12-04 | Cortica Ltd. | Signature generation for multimedia deep-content-classification by a large-scale matching system and method thereof |
US9330246B2 (en) * | 2005-11-09 | 2016-05-03 | Paul J. Munyon | System and method for inhibiting access to a computer |
US8260008B2 (en) * | 2005-11-11 | 2012-09-04 | Eyelock, Inc. | Methods for performing biometric recognition of a human eye and corroboration of same |
WO2007103833A1 (en) * | 2006-03-03 | 2007-09-13 | Honeywell International, Inc. | A combined face and iris recognition system |
US7965875B2 (en) | 2006-06-12 | 2011-06-21 | Tessera Technologies Ireland Limited | Advances in extending the AAM techniques from grayscale to color images |
US20070297653A1 (en) * | 2006-06-22 | 2007-12-27 | Rudolf Maarten Bolle | Fingerprint representation using localized texture features |
US7751599B2 (en) * | 2006-08-09 | 2010-07-06 | Arcsoft, Inc. | Method for driving virtual facial expressions by automatically detecting facial expressions of a face image |
US7916897B2 (en) | 2006-08-11 | 2011-03-29 | Tessera Technologies Ireland Limited | Face tracking for controlling imaging parameters |
US7403643B2 (en) * | 2006-08-11 | 2008-07-22 | Fotonation Vision Limited | Real-time face tracking in a digital image acquisition device |
US7773779B2 (en) * | 2006-10-19 | 2010-08-10 | I.Q.S. Shalev Ltd. | Biometric systems |
JP2008118383A (ja) * | 2006-11-02 | 2008-05-22 | Matsushita Electric Ind Co Ltd | デジタルカメラ |
JP2008152530A (ja) * | 2006-12-18 | 2008-07-03 | Sony Corp | 顔認識装置及び顔認識方法、ガボア・フィルタ適用装置、並びにコンピュータ・プログラム |
US7707162B2 (en) * | 2007-01-08 | 2010-04-27 | International Business Machines Corporation | Method and apparatus for classifying multimedia artifacts using ontology selection and semantic classification |
US8055067B2 (en) | 2007-01-18 | 2011-11-08 | DigitalOptics Corporation Europe Limited | Color segmentation |
EP2115662B1 (en) * | 2007-02-28 | 2010-06-23 | Fotonation Vision Limited | Separating directional lighting variability in statistical face modelling based on texture space decomposition |
KR101247147B1 (ko) * | 2007-03-05 | 2013-03-29 | 디지털옵틱스 코포레이션 유럽 리미티드 | 디지털 영상 획득 장치에서의 얼굴 탐색 및 검출 |
US8027541B2 (en) * | 2007-03-15 | 2011-09-27 | Microsoft Corporation | Image organization based on image content |
US20080263040A1 (en) * | 2007-04-02 | 2008-10-23 | Nikhilesh Talreja | System and method for making a face call |
US8111879B2 (en) | 2007-04-05 | 2012-02-07 | Honeywell International Inc. | Face and iris imaging system and method |
US7916971B2 (en) * | 2007-05-24 | 2011-03-29 | Tessera Technologies Ireland Limited | Image processing method and apparatus |
US9794348B2 (en) * | 2007-06-04 | 2017-10-17 | Todd R. Smith | Using voice commands from a mobile device to remotely access and control a computer |
US7844085B2 (en) * | 2007-06-07 | 2010-11-30 | Seiko Epson Corporation | Pairwise feature learning with boosting for use in face detection |
US9117119B2 (en) | 2007-09-01 | 2015-08-25 | Eyelock, Inc. | Mobile identity platform |
US8553948B2 (en) | 2007-09-01 | 2013-10-08 | Eyelock, Inc. | System and method for iris data acquisition for biometric identification |
US20090060286A1 (en) * | 2007-09-04 | 2009-03-05 | General Electric Company | Identification system and method utilizing iris imaging |
KR101347598B1 (ko) * | 2007-10-12 | 2014-01-07 | 삼성전자주식회사 | 영상 변환 방법 및 장치 |
US8558663B2 (en) | 2007-11-30 | 2013-10-15 | Bank Of America Corporation | Integration of facial recognition into cross channel authentication |
US9721148B2 (en) | 2007-12-31 | 2017-08-01 | Applied Recognition Inc. | Face detection and recognition |
US8750574B2 (en) * | 2007-12-31 | 2014-06-10 | Applied Recognition Inc. | Method, system, and computer program for identification and sharing of digital images with face signatures |
US9639740B2 (en) | 2007-12-31 | 2017-05-02 | Applied Recognition Inc. | Face detection and recognition |
US8532344B2 (en) * | 2008-01-09 | 2013-09-10 | International Business Machines Corporation | Methods and apparatus for generation of cancelable face template |
US8538096B2 (en) * | 2008-01-09 | 2013-09-17 | International Business Machines Corporation | Methods and apparatus for generation of cancelable fingerprint template |
WO2009096475A1 (ja) | 2008-01-29 | 2009-08-06 | Kabushiki Kaisha Dds | ハイブリッド生体認証装置、ハイブリッド生体認証方法、ハイブリッド生体認証用コンピュータプログラムを記憶したコンピュータ読み取り可能な記憶媒体 |
US7855737B2 (en) * | 2008-03-26 | 2010-12-21 | Fotonation Ireland Limited | Method of making a digital camera image of a scene including the camera user |
US8442279B2 (en) | 2008-06-27 | 2013-05-14 | Lockheed Martin Corporation | Assessing biometric sample quality using wavelets and a boosted classifier |
US8600121B2 (en) * | 2008-07-02 | 2013-12-03 | C-True Ltd. | Face recognition system and method |
CN102027505A (zh) * | 2008-07-30 | 2011-04-20 | 泰塞拉技术爱尔兰公司 | 使用脸部检测的自动脸部和皮肤修饰 |
GB0818089D0 (en) | 2008-10-03 | 2008-11-05 | Eastman Kodak Co | Interactive image selection method |
US9002120B2 (en) | 2008-10-03 | 2015-04-07 | Intellectual Ventures Fund 83 Llc | Interactive image selection method |
US8284267B2 (en) * | 2009-03-11 | 2012-10-09 | O2Micro Inc. | Virtual camera for sharing a physical camera |
US8538093B2 (en) * | 2009-04-20 | 2013-09-17 | Mark Kodesh | Method and apparatus for encouraging social networking through employment of facial feature comparison and matching |
US8379917B2 (en) | 2009-10-02 | 2013-02-19 | DigitalOptics Corporation Europe Limited | Face recognition performance using additional image features |
JP2011090466A (ja) * | 2009-10-21 | 2011-05-06 | Sony Corp | 情報処理装置及び方法、並びにプログラム |
US8238671B1 (en) | 2009-12-07 | 2012-08-07 | Google Inc. | Scene classification for place recognition |
US8189964B2 (en) | 2009-12-07 | 2012-05-29 | Google Inc. | Matching an approximately located query image against a reference image set |
US8774527B1 (en) | 2009-12-07 | 2014-07-08 | Google Inc. | Matching an approximately located query image against a reference image set using cellular base station and wireless access point information |
KR101185243B1 (ko) * | 2009-12-15 | 2012-09-21 | 삼성전자주식회사 | 얼굴 인식을 위한 복수의 얼굴 이미지를 등록하기 위한 장치 및 방법 |
US8634596B2 (en) * | 2009-12-22 | 2014-01-21 | Honeywell International Inc. | Three-dimensional multilayer skin texture recognition system and method |
CN101751559B (zh) * | 2009-12-31 | 2012-12-12 | 中国科学院计算技术研究所 | 人脸皮肤斑痣点检测及利用皮肤斑痣识别人脸的方法 |
US8908928B1 (en) | 2010-05-31 | 2014-12-09 | Andrew S. Hansen | Body modeling and garment fitting using an electronic device |
US8655053B1 (en) | 2010-05-31 | 2014-02-18 | Andrew S Hansen | Body modeling and garment fitting using an electronic device |
US9141150B1 (en) * | 2010-09-15 | 2015-09-22 | Alarm.Com Incorporated | Authentication and control interface of a security system |
KR20120052636A (ko) * | 2010-11-16 | 2012-05-24 | 한국전자통신연구원 | 온톨로지 기반의 품목분류코드 추천 시스템 및 방법 |
CN103477351B (zh) | 2011-02-17 | 2019-06-28 | 眼锁有限责任公司 | 用于采用单个传感器采集场景图像和虹膜图像的高效方法和系统 |
US8509525B1 (en) | 2011-04-06 | 2013-08-13 | Google Inc. | Clustering of forms from large-scale scanned-document collection |
US20120287163A1 (en) * | 2011-05-10 | 2012-11-15 | Apple Inc. | Scaling of Visual Content Based Upon User Proximity |
US9552376B2 (en) | 2011-06-09 | 2017-01-24 | MemoryWeb, LLC | Method and apparatus for managing digital files |
ES2495425T3 (es) | 2011-07-11 | 2014-09-17 | Accenture Global Services Limited | Detección de vida |
CN102266241B (zh) * | 2011-08-05 | 2013-04-17 | 上海交通大学 | 融合人脸和指纹视觉信息的协同性别识别方法 |
US8548207B2 (en) | 2011-08-15 | 2013-10-01 | Daon Holdings Limited | Method of host-directed illumination and system for conducting host-directed illumination |
US8903138B1 (en) | 2011-09-06 | 2014-12-02 | Google Inc. | Face recognition using pre-templates |
CN104427960B (zh) | 2011-11-04 | 2017-11-24 | 马萨诸塞眼科耳科诊所 | 自适应视觉辅助装置 |
US9082004B2 (en) | 2011-12-15 | 2015-07-14 | The Nielsen Company (Us), Llc. | Methods and apparatus to capture images |
US9202105B1 (en) | 2012-01-13 | 2015-12-01 | Amazon Technologies, Inc. | Image analysis for user authentication |
US9177130B2 (en) * | 2012-03-15 | 2015-11-03 | Google Inc. | Facial feature detection |
JP6044633B2 (ja) * | 2012-03-27 | 2016-12-14 | ソニー株式会社 | 情報処理装置、情報処理方法およびプログラム |
JP2013207356A (ja) * | 2012-03-27 | 2013-10-07 | Sony Corp | 情報処理装置、情報処理方法およびプログラム |
KR101357581B1 (ko) * | 2012-06-21 | 2014-02-05 | 안양대학교 산학협력단 | 깊이 정보 기반 사람의 피부 영역 검출 방법 |
US8396265B1 (en) | 2012-06-26 | 2013-03-12 | Google Inc. | Facial recognition |
US20140003674A1 (en) * | 2012-06-27 | 2014-01-02 | Christopher D. Coley | Skin-Based User Recognition |
US8769557B1 (en) | 2012-12-27 | 2014-07-01 | The Nielsen Company (Us), Llc | Methods and apparatus to determine engagement levels of audience members |
US8885925B2 (en) | 2013-03-12 | 2014-11-11 | Harris Corporation | Method for 3D object identification and pose detection using phase congruency and fractal analysis |
EP2987099A4 (en) * | 2013-04-16 | 2017-10-04 | ImageWare Systems, Inc. | Real-time biometric database and template management |
JP2015018400A (ja) * | 2013-07-10 | 2015-01-29 | グローリー株式会社 | 顔照合装置、顔照合方法及び顔照合プログラム |
US9147061B1 (en) | 2013-11-22 | 2015-09-29 | Google Inc. | Multi-level authentication |
US9396177B1 (en) * | 2014-02-10 | 2016-07-19 | Jpmorgan Chase Bank, N.A. | Systems and methods for document tracking using elastic graph-based hierarchical analysis |
WO2015137645A1 (ko) * | 2014-03-13 | 2015-09-17 | 엘지전자 주식회사 | 이동 단말기 및 그 제어 방법 |
US9239957B2 (en) | 2014-04-04 | 2016-01-19 | Fotonation Limited | Image processing method and apparatus |
KR101640014B1 (ko) * | 2014-07-17 | 2016-07-15 | 크루셜텍 (주) | 허위 안면 이미지 분류가 가능한 홍채 인식 장치 |
US11256792B2 (en) | 2014-08-28 | 2022-02-22 | Facetec, Inc. | Method and apparatus for creation and use of digital identification |
US10803160B2 (en) | 2014-08-28 | 2020-10-13 | Facetec, Inc. | Method to verify and identify blockchain with user question data |
CA3186147A1 (en) | 2014-08-28 | 2016-02-28 | Kevin Alan Tussy | Facial recognition authentication system including path parameters |
US10698995B2 (en) | 2014-08-28 | 2020-06-30 | Facetec, Inc. | Method to verify identity using a previously collected biometric image/data |
US10614204B2 (en) | 2014-08-28 | 2020-04-07 | Facetec, Inc. | Facial recognition authentication system including path parameters |
US10915618B2 (en) | 2014-08-28 | 2021-02-09 | Facetec, Inc. | Method to add remotely collected biometric images / templates to a database record of personal information |
EP3017755A1 (en) | 2014-11-04 | 2016-05-11 | Samsung Electronics Co., Ltd. | Electronic device, and method for analyzing face information in electronic device |
JP6572537B2 (ja) * | 2014-12-15 | 2019-09-11 | 富士通コネクテッドテクノロジーズ株式会社 | 認証装置、方法及びプログラム |
RU2596062C1 (ru) | 2015-03-20 | 2016-08-27 | Автономная Некоммерческая Образовательная Организация Высшего Профессионального Образования "Сколковский Институт Науки И Технологий" | Способ коррекции изображения глаз с использованием машинного обучения и способ машинного обучения |
JP6664163B2 (ja) * | 2015-08-05 | 2020-03-13 | キヤノン株式会社 | 画像識別方法、画像識別装置及びプログラム |
US9749317B2 (en) | 2015-08-28 | 2017-08-29 | At&T Intellectual Property I, L.P. | Nullifying biometrics |
KR102401170B1 (ko) | 2015-10-21 | 2022-05-24 | 삼성전자주식회사 | 복합 인증 장치 및 방법 |
CN105554385B (zh) * | 2015-12-18 | 2018-07-10 | 天津中科智能识别产业技术研究院有限公司 | 一种远距离多模态生物特征识别方法及其系统 |
EP3400706B1 (en) | 2016-01-05 | 2022-04-13 | RealD Spark, LLC | Gaze correction of multi-view images |
USD987653S1 (en) | 2016-04-26 | 2023-05-30 | Facetec, Inc. | Display screen or portion thereof with graphical user interface |
CN105959121B (zh) * | 2016-07-08 | 2018-12-14 | 江苏心灵鸡汤信息技术有限公司 | 一种具有身份验证功能的移动终端 |
CN106899567B (zh) * | 2016-08-24 | 2019-12-13 | 阿里巴巴集团控股有限公司 | 用户核身方法、装置及系统 |
KR102458241B1 (ko) | 2016-12-13 | 2022-10-24 | 삼성전자주식회사 | 사용자 인식 장치 및 방법 |
CN106599841A (zh) * | 2016-12-13 | 2017-04-26 | 广东工业大学 | 一种基于全脸匹配的身份验证方法及装置 |
US10430644B2 (en) | 2017-06-06 | 2019-10-01 | Global Bionic Optics Ltd. | Blended iris and facial biometric system |
CN109325988B (zh) * | 2017-07-31 | 2022-11-11 | 腾讯科技(深圳)有限公司 | 一种面部表情合成方法、装置及电子设备 |
ES2967691T3 (es) | 2017-08-08 | 2024-05-03 | Reald Spark Llc | Ajuste de una representación digital de una región de cabeza |
CN113205040A (zh) * | 2017-08-09 | 2021-08-03 | 北京市商汤科技开发有限公司 | 人脸图像处理方法、装置和电子设备 |
RU2670798C9 (ru) | 2017-11-24 | 2018-11-26 | Самсунг Электроникс Ко., Лтд. | Способ аутентификации пользователя по радужной оболочке глаз и соответствующее устройство |
US11017575B2 (en) | 2018-02-26 | 2021-05-25 | Reald Spark, Llc | Method and system for generating data to provide an animated visual representation |
JP7165909B2 (ja) | 2018-02-28 | 2022-11-07 | パナソニックIpマネジメント株式会社 | 画像合成装置、虹彩認証システム、画像合成方法及び虹彩認証方法 |
JP2019152929A (ja) | 2018-02-28 | 2019-09-12 | パナソニックIpマネジメント株式会社 | 認証装置及び認証方法 |
CN108596814A (zh) * | 2018-04-20 | 2018-09-28 | 聊城农村商业银行股份有限公司 | 基于人脸识别的社保认证系统 |
KR102177453B1 (ko) * | 2018-10-16 | 2020-11-11 | 서울시립대학교 산학협력단 | 얼굴 인식 방법 및 얼굴 인식 장치 |
US10936178B2 (en) | 2019-01-07 | 2021-03-02 | MemoryWeb, LLC | Systems and methods for analyzing and organizing digital photos and videos |
US10726246B1 (en) | 2019-06-24 | 2020-07-28 | Accenture Global Solutions Limited | Automated vending machine with customer and identification authentication |
USD963407S1 (en) | 2019-06-24 | 2022-09-13 | Accenture Global Solutions Limited | Beverage dispensing machine |
US11874906B1 (en) * | 2020-01-15 | 2024-01-16 | Robert William Kocher | Skin personal identification (Skin-PIN) |
EP3869395A1 (en) | 2020-02-21 | 2021-08-25 | Accenture Global Solutions Limited | Identity and liveness verification |
US11711638B2 (en) | 2020-06-29 | 2023-07-25 | The Nielsen Company (Us), Llc | Audience monitoring systems and related methods |
CN113111808B (zh) * | 2021-04-20 | 2022-03-29 | 山东大学 | 基于机器视觉的异常行为检测方法及系统 |
CN113468961A (zh) * | 2021-05-28 | 2021-10-01 | 郑州轻工业大学 | 一种针对特定对象使用的图像信息处理方法及系统 |
US11860704B2 (en) | 2021-08-16 | 2024-01-02 | The Nielsen Company (Us), Llc | Methods and apparatus to determine user presence |
US11758223B2 (en) | 2021-12-23 | 2023-09-12 | The Nielsen Company (Us), Llc | Apparatus, systems, and methods for user presence detection for audience monitoring |
US11985411B2 (en) * | 2022-06-24 | 2024-05-14 | Dell Products L.P. | Detection of image sensor shutter state |
Family Cites Families (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS63223974A (ja) * | 1987-03-13 | 1988-09-19 | Toshiba Corp | 画像処理装置 |
US5291560A (en) * | 1991-07-15 | 1994-03-01 | Iri Scan Incorporated | Biometric personal identification system based on iris analysis |
US5835616A (en) * | 1994-02-18 | 1998-11-10 | University Of Central Florida | Face detection using templates |
BR9507142A (pt) * | 1994-03-24 | 1997-09-30 | Minnesota Mining & Mfg | Sistema de identificação pessoal biométrico processo para identificar uma pessoa e equipamento |
US5572596A (en) * | 1994-09-02 | 1996-11-05 | David Sarnoff Research Center, Inc. | Automated, non-invasive iris recognition system and method |
US6714665B1 (en) * | 1994-09-02 | 2004-03-30 | Sarnoff Corporation | Fully automated iris recognition system utilizing wide and narrow fields of view |
US5729619A (en) * | 1995-08-08 | 1998-03-17 | Northrop Grumman Corporation | Operator identity, intoxication and drowsiness monitoring system and method |
JP3626301B2 (ja) * | 1996-11-15 | 2005-03-09 | 沖電気工業株式会社 | 個人識別装置 |
US6301370B1 (en) * | 1998-04-13 | 2001-10-09 | Eyematic Interfaces, Inc. | Face recognition from video images |
US6272231B1 (en) | 1998-11-06 | 2001-08-07 | Eyematic Interfaces, Inc. | Wavelet-based facial motion capture for avatar animation |
EP1020811A2 (en) * | 1999-01-15 | 2000-07-19 | Citicorp Development Center, Inc. | Fast matching systems and methods for personal identification |
US6944318B1 (en) * | 1999-01-15 | 2005-09-13 | Citicorp Development Center, Inc. | Fast matching systems and methods for personal identification |
JP2001034754A (ja) * | 1999-07-19 | 2001-02-09 | Sony Corp | 虹彩認証装置 |
US6697502B2 (en) * | 2000-12-14 | 2004-02-24 | Eastman Kodak Company | Image processing method for detecting human figures in a digital image |
JP2002251380A (ja) * | 2001-02-22 | 2002-09-06 | Omron Corp | 利用者照合システム |
US6920236B2 (en) * | 2001-03-26 | 2005-07-19 | Mikos, Ltd. | Dual band biometric identification system |
JP2005503619A (ja) * | 2001-09-14 | 2005-02-03 | エステーミクロエレクトロニクス ソシエテ アノニム | リング位置の特定方法 |
US20040052418A1 (en) * | 2002-04-05 | 2004-03-18 | Bruno Delean | Method and apparatus for probabilistic image analysis |
US7369685B2 (en) * | 2002-04-05 | 2008-05-06 | Identix Corporation | Vision-based operating method and system |
JP4078117B2 (ja) * | 2002-05-23 | 2008-04-23 | 日本放送協会 | 被写体判別方法、被写体判別装置、及び被写体判別プログラム |
DE10245900A1 (de) | 2002-09-30 | 2004-04-08 | Neven jun., Hartmut, Prof.Dr. | Bildbasiertes Anfragesystem für Suchmaschinen für mobile Endgeräte mit eingebauter Kamera |
CN101064004B (zh) * | 2003-02-13 | 2010-05-26 | 日本电气株式会社 | 伪装检测装置及伪装检测方法 |
WO2005052765A2 (en) * | 2003-11-25 | 2005-06-09 | Ultra-Scan Corporation | Biometric authorization method and system |
US8421872B2 (en) | 2004-02-20 | 2013-04-16 | Google Inc. | Image base inquiry system for search engines for mobile telephones with integrated camera |
US7565139B2 (en) | 2004-02-20 | 2009-07-21 | Google Inc. | Image-based search engine for mobile phones with camera |
KR100982197B1 (ko) * | 2004-06-21 | 2010-09-14 | 구글 인코포레이티드 | 얼굴 인식 방법, 얼굴 인식 장치 및 컴퓨터 판독 가능한 기록 매체 |
US7440929B2 (en) * | 2005-01-14 | 2008-10-21 | Ultra-Scan Corporation | Multimodal authorization method, system and device |
JP4734980B2 (ja) * | 2005-03-15 | 2011-07-27 | オムロン株式会社 | 顔認証装置およびその制御方法、顔認証装置を備えた電子機器、顔認証装置制御プログラム、ならびに該プログラムを記録した記録媒体 |
US7860280B2 (en) * | 2006-06-09 | 2010-12-28 | Samsung Electronics Co., Ltd. | Facial feature detection method and device |
US20080298643A1 (en) * | 2007-05-30 | 2008-12-04 | Lawther Joel S | Composite person model from image collection |
-
2005
- 2005-06-21 KR KR1020077001408A patent/KR100982197B1/ko active IP Right Grant
- 2005-06-21 WO PCT/US2005/022037 patent/WO2006023046A1/en active Application Filing
- 2005-06-21 BR BRPI0512354-2A patent/BRPI0512354A/pt active Search and Examination
- 2005-06-21 US US11/158,906 patent/US7697735B2/en active Active
- 2005-06-21 AU AU2005278003A patent/AU2005278003B8/en active Active
- 2005-06-21 JP JP2007518230A patent/JP4610614B2/ja active Active
- 2005-06-21 EP EP05810155A patent/EP1766555B1/en active Active
- 2005-06-21 ES ES05810155T patent/ES2348248T3/es active Active
- 2005-06-21 CA CA2571643A patent/CA2571643C/en active Active
- 2005-06-21 AT AT05810155T patent/ATE476715T1/de not_active IP Right Cessation
- 2005-06-21 DE DE602005022718T patent/DE602005022718D1/de active Active
- 2005-06-21 CN CN2005800260898A patent/CN101027678B/zh active Active
-
2011
- 2011-05-17 AU AU2011202268A patent/AU2011202268B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
WO2006023046A1 (en) | 2006-03-02 |
EP1766555B1 (en) | 2010-08-04 |
AU2005278003B2 (en) | 2011-02-24 |
DE602005022718D1 (de) | 2010-09-16 |
US20060050933A1 (en) | 2006-03-09 |
EP1766555A1 (en) | 2007-03-28 |
BRPI0512354A (pt) | 2008-05-13 |
ATE476715T1 (de) | 2010-08-15 |
KR100982197B1 (ko) | 2010-09-14 |
AU2005278003B8 (en) | 2011-06-23 |
AU2005278003A1 (en) | 2006-03-02 |
CN101027678B (zh) | 2011-09-21 |
US7697735B2 (en) | 2010-04-13 |
AU2011202268A1 (en) | 2011-06-09 |
KR20070070151A (ko) | 2007-07-03 |
JP4610614B2 (ja) | 2011-01-12 |
CA2571643C (en) | 2011-02-01 |
CA2571643A1 (en) | 2006-03-02 |
AU2011202268B2 (en) | 2012-09-13 |
CN101027678A (zh) | 2007-08-29 |
JP2008504606A (ja) | 2008-02-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ES2348248T3 (es) | Sistema y procedimiento multibiometricos basados en una unica imagen. | |
Burge et al. | Ear biometrics | |
KR102561723B1 (ko) | 모바일 디바이스를 사용하여 캡처된 화상을 사용하여 지문 기반 사용자 인증을 수행하기 위한 시스템 및 방법 | |
Burge et al. | Ear biometrics in computer vision | |
Zhou et al. | A new human identification method: Sclera recognition | |
KR100944247B1 (ko) | 얼굴 인식 방법 및 시스템 | |
JP5517858B2 (ja) | 画像処理装置、撮像装置、画像処理方法 | |
Burge et al. | Ear biometrics for machine vision | |
KR20190016733A (ko) | 얼굴 특징점 기반 부분 영역 지정을 통한 부분 가림 얼굴 인식 방법, 이를 수행하기 위한 기록 매체 및 장치 | |
KR101464446B1 (ko) | 얼굴 인식과 자세 추정을 이용한 개인 인증 방법 및 그 장치 | |
CN110929570B (zh) | 虹膜快速定位装置及其定位方法 | |
Burge et al. | Using ear biometrics for passive identification | |
Boodoo et al. | Robust multi biometric recognition using face and ear images | |
Barra et al. | Unconstrained ear processing: What is possible and what must be done | |
KR100862526B1 (ko) | 얼굴동영상 데이터베이스 구축 방법 및 시스템과 이를이용한 얼굴 인식 방법 및 시스템. | |
Campadelli et al. | A face recognition system based on local feature characterization | |
Kurniawan et al. | A review on 2D ear recognition | |
Arca et al. | Face recognition based on 2d and 3d features | |
Rokita et al. | Cell phones personal authentication systems using multimodal biometrics | |
Marval-Pérez et al. | Phase-Based Periocular Recognition with Texture Enhancement | |
Jain et al. | Face recognition | |
Burge et al. | 13EAR BIOMETRICS | |
UDROIU et al. | USABLE SECURITY IN BIOMETRIC AUTHENTICATION SYSTEMS | |
Ram | Smart Attendance Registration For Future Classrooms | |
Rohil et al. | Adjacency Matrix based Face Recognition Approach |