MX2012010602A - Aparato para el reconocimiento de la cara y metodo para el reconocimiento de la cara. - Google Patents

Aparato para el reconocimiento de la cara y metodo para el reconocimiento de la cara.

Info

Publication number
MX2012010602A
MX2012010602A MX2012010602A MX2012010602A MX2012010602A MX 2012010602 A MX2012010602 A MX 2012010602A MX 2012010602 A MX2012010602 A MX 2012010602A MX 2012010602 A MX2012010602 A MX 2012010602A MX 2012010602 A MX2012010602 A MX 2012010602A
Authority
MX
Mexico
Prior art keywords
face
detection
detected
region
information
Prior art date
Application number
MX2012010602A
Other languages
English (en)
Inventor
Hiroshi Sukegawa
Osamu Yamaguchi
Hiroo Saito
Original Assignee
Toshiba Kk
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2011202454A external-priority patent/JP5787686B2/ja
Priority claimed from JP2011202455A external-priority patent/JP5766564B2/ja
Application filed by Toshiba Kk filed Critical Toshiba Kk
Publication of MX2012010602A publication Critical patent/MX2012010602A/es

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/98Detection or correction of errors, e.g. by rescanning the pattern or by human intervention; Evaluation of the quality of the acquired patterns
    • G06V10/993Evaluation of the quality of the acquired pattern

Abstract

De acuerdo con una modalidad, un aparato para reconocer la cara incluye: una unidad de almacenamiento; una unidad de entrada; un detector de la cara; un extractor; y una unidad de reconocimiento. La unidad de almacenamiento almacena la información de las características de la cara sobre una característica de la cara de cada persona. La unidad de entrada recibe la información de la imagen que incluye al menos una cara de una persona. El detector de la cara detecta una región de la cara, de la cara de una persona a partir de la información de la imagen recibida por la unidad de entrada. El extractor extrae la información de las características de la cara sobre una característica de la cara a partir de la región de la cara detectada por el detector de la cara. La unidad de reconocimiento reconoce a la persona en la información de la imagen recibida por la unidad de entrada, basada en la información de las características extraídas por la unidad de extracción y la información de las características de la cara almacenadas en la unidad de almacenamiento.

Description

APARATO PARA EL RECONOCIMIENTO DE LA CARA Y MÉTODO PARA EL RECONOCIMIENTO DE LA CARA REFERENCIA CRUZADA A SOLICITUDES RELACIONADAS Esta solicitud está basada y reivindica el beneficio de prioridad de: la solicitud de patente japonesa No. 2011-202454, presentada el 15 de septiembre del 2011; y la solicitud de patente japonesa No. 2011-202455, presentada el 15 de septiembre del 2011, los contenidos completos de las cuales se incorporan en la presente como referencia.
CAMPO DE LA INVENCIÓN Las modalidades se refieren a un aparato para reconocimiento de la cara y un aparato para el reconocimiento de la cara.
ANTECEDENTES DE LA INVENCIÓN Convencionalmente se ha propuesto una tecnología para autentificar a las personas con base en la información de las características almacenada preliminarmente de una imagen de la cara, de una región de la cara de una persona incluida en los datos de video capturados por una cámara de monitoreo o las similares. En este caso, la información de las características se extrae de la región de la cara incluida en los datos de video, y la información sobre las características extraída se compara con la información de las características almacenada preliminarmente, para llevar a cabo la autentificación de la persona .
En general, cuando se lleva a cabo el fotografiado por medio de una cámara de monitoreo o las similares, la precisión de la identificación o el reconocimiento de las personas mejora cuando aumenta la resolución de una región de la cara fotografiada .
También, ya que la resolución de una región de la cara varia de acuerdo con las condiciones del fotografiado por una cámara de monitoreo o las similares, pueden haber casos donde la resolución de la región de la cara se reduce. Recientemente, se han propuesto tecnologías para mejorar la precisión del reconocimiento en los casos donde la resolución de una región de la cara es baja.
Sin embargo, frecuentemente, el tamaño de la cara de una persona observada en los datos de video capturados, varia dependiendo de cómo se usa la cámara de monitoreo. Cuando hay diferentes tamaños de las regiones de la cara observadas en los datos de video, obviamente habrá diferencias en la resolución de estas caras de personas, degradándose por lo tanto la precisión de la autentificación .
Por ejemplo, cuando la resolución de una región de la cara de una persona es baja, existe el problema de que pueden no ser obtenidos los resultados de reconocimiento apropiados por medio de una técnica de reconocimiento de alta resolución que por lo general se considera de una precisión de reconocimiento alta. Por lo tanto, se puede usar una técnica de reconocimiento aplicable a baja resolución. Sin embargo, en este caso, existe el problema de que no se puede obtener una precisión de reconocimiento alta cuando la resolución de una región de la cara es alta.
Una cámara de monitoreo instalada en un lugar alto captura una imagen cuando mira hacia abajo desde el lugar alto. Por lo tanto, cuando una persona está cerca de la cámara de monitoreo, el tamaño (resolución) de la cara capturada es grande pero es difícil que la dirección de la cara sea la dirección frontal. Cuando una persona está añejada de la cámara de monitoreo, es probable que la dirección de la cara sea una dirección frontal pero el tamaño de la cara tiende a reducirse. Por lo tanto, aun cuando una cámara de monitoreo captura la cara de una persona a través de una pluralidad de cuadros de imagen, todos los cuadros de imagen capturados no son necesariamente cuadros de imagen que pueden ser usados para llevar a cabo la autentificación de una persona con alta precisión, y los cuadros de imagen capturados también pueden incluir cuadros de imagen que reducen la precisión de la autentificación .
BREVE DESCRIPCIÓN DE LOS DIBUJOS La FIG. 1 es un diagrama ejemplar de una configuración de bloques de un aparato para reconocimiento de la cara de acuerdo con una primera modalidad; la FIG. 2 es un diagrama que ilustra un ejemplo de la entrada de datos de imagen de una cámara en la primera modalidad; la FIG. 3 es un diagrama ejemplar gue ilustra las técnicas para detección de los puntos característicos de la cara retenidos por una unidad de retención de técnicas- en la primera modalidad; la FIG. 4 es un diagrama que ilustra un ejemplo de los puntos característicos detectados a través de varias técnicas para detectar puntos característicos de la cara por un detector de puntos característicos, en la primera modalidad; la FIG. 5 es un diagrama que ilustra un ejemplo de una imagen mostrada por una pantalla en la primera modalidad; la FIG. 6 es un diagrama que ilustra un ejemplo de una imagen mostrada por una pantalla de acuerdo con una modificación a la primera modalidad; la FIG. 7 es un diagrama de flujo ejemplar que ilustra una secuencia del proceso del reconocimiento de la cara de una persona en el aparato para el reconocimiento de la cara en la primera modalidad; la FIG. 8 es un diagrama de flujo ejemplar que ilustra una secuencia del proceso de reconocimiento de la cara de una persona en un aparato para el reconocimiento de la cara de acuerdo con la modificación de la primera modalidad; la FIG. 9 es un diagrama de bloques ejemplar que ilustra la configuración de un aparato para el reconocimiento de la cara de acuerdo con una segunda modalidad; la FIG. 10 es un diagrama de flujo ejemplar que ilustra una secuencia del proceso de reconocimiento de la cara de una persona en el aparato para el reconocimiento de la cara en la segunda modalidad; la FIG. 11 es un diagrama de bloques que ilustra un ejemplo de la configuración de un aparato para reconocimiento de la cara de acuerdo con una tercera modalidad; la FIG. 12 es un diagrama conceptual que ilustra un ejemplo de la entrada de datos de video de una cámara, en la tercera modalidad; la FIG. 13 es un diagrama de flujo que ilustra un ejemplo de la operación de un aparato para el reconocimiento de la cara, en la tercera modalidad; la FIG. 14 es un diagrama conceptual que ilustra un ejemplo de la detección de una región de la cara a partir de un cuadro de imagen, en la tercera modalidad; la FIG. 15 es un diagrama conceptual que ilustra un ejemplo de detección de un punto característico de la cara a partir de la imagen de la región de la cara detectada, en la tercera modalidad; la FIG. 16 es un diagrama conceptual que ilustra un ejemplo de un punto característico de la cara detectado en cada cuadro de imagen, en la tercera modalidad; la FIG. 17 es un diagrama de flujo que ilustra un ejemplo del procesamiento de corrección del resultado de detección en la tercera modalidad; la FIG. 18 es un diagrama de flujo que ilustra un ejemplo del procesamiento de corrección del resultado de la detección den la tercera modalidad; la FIG. 19 es un diagrama conceptual que ilustra un ejemplo de un punto característico de la cara detectado en cada cuadro de imagen en la tercera modalidad; la FIG. 20 es un diagrama de flujo que ilustra un ejemplo del procesamiento de corrección del resultado de detección en la tercera modalidad; la FIG. 21 es un diagrama conceptual que ilustra un ejemplo del caso de la corrección de un punto característico de la cara detectado en cada cuadro de imagen por un promedio móvil en la tercera modalidad; la FIG. 22 es un diagrama de flujo que ilustra un ejemplo del procesamiento de corrección del resultado de detección en el caso de la corrección por un promedio móvil en la tercera modalidad; la FIG. 23 es un diagrama conceptual que ilustra un ejemplo del caso de cambio del valor de ponderación de acuerdo con la dirección de una cara detectada en cada cuadro de imagen en la tercera modalidad; la FIG. 24 es un diagrama de flujo que ilustra un ejemplo del procesamiento de corrección del resultado de detección en el caso de cambio de un valor de ponderación en la tercera modalidad; la FIG. 25 es un diagrama de bloques que ilustra un ejemplo de la configuración de un aparato para el reconocimiento de la cara de acuerdo con una cuarta modalidad; la FIG. 26 es un diagrama de flujo que ilustra un ejemplo de la operación de un aparato para reconocimiento de la cara en la cuarta modalidad; y la FIG. 27 es un diagrama de bloques ejemplar que ilustra la configuración de los componentes de un aparato para el reconocimiento de la cara en la primera, la segunda, tercera y cuarta modalidades.
DESCRIPCIÓN DETALLADA DE LA INVENCIÓN De acuerdo con una modalidad, un aparato para reconocer la cara comprende: una unidad de almacenamiento; una unidad de entrada; un detector de la cara; un extractor; y una unidad de reconocimiento. La unidad de almacenamiento almacena la información de las características de la cara sobre una característica de la cara de cada persona. La unidad de almacenamiento reciba la información de la imagen que incluye al menos una cara de una persona. El detector de la cara detecta una región de la cara de la cara de la persona a partir de la información de la imagen recibida por la unidad de entrada. El extractor extrae la información de las características sobre una característica de la región de la cara detectada por el detector de la cara. La unidad de reconocimiento reconoce a la persona en la información de la imagen recibida por la unidad de entrada, basada en la información de las características extraídas por la unidad de extracción y la información de las características de la cara almacenada en la unidad de almacenamiento.
A partir de aquí, se describirá en detalle un aparato para el reconocimiento de la cara y un método para el reconocimiento de la cara de acuerdo con las modalidades, con referencia a los dibujos anexos. El aparato para el reconocimiento de la cara y el método para el reconocimiento de la cara de acuerdo con las modalidades identifican a una persona. En particular, el aparato para el reconocimiento de la cara y un método para el reconocimiento de la cara detectan una región de una cara capturada de un objetivo fotografiado, extrae la información de la persona usando una posición de la cara o una característica de la cara, determina si la información extraída de la persona, corresponde a la información pre-registrada de la persona, y lleva a cabo un reconocimiento de la persona de acuerdo con el resultado de la determinación. Aunque el proceso para implementar el reconocimiento de personas detectando una región de la cara como una región de la persona y usando la información de las características de la cara se describe en la presente modalidad, el reconocimiento de personas también puede ser implementado usando una tecnología para detectar una región completa de la persona además de la cara y usando el tamaño de la misma (Watanabe et al., "Co-occurence Histograms of Oriented Gradients for Pedestrian Detection, En Proceedings of the 3rd Pacific-Rim Symposium on Imagen and Video Technology" (PSIVT2009), pp. 37-47). Será aparente que la presente descripción no se limita a la tecnología descrita en la presente modalidad, siempre y cuando esta sea una tecnología para detectar una región de la persona y una tecnología para medir la información de las características en la región de la persona .
La FIG. 1 es un diagrama que ilustra una configuración de bloques de un aparato 100 para el reconocimiento de la cara de acuerdo con una primera modalidad. Como se ilustra en la FIG. 1, el aparato 100 para el reconocimiento de la cara incluye una unidad 101 de entrada de imágenes, un detector 102 de la región de la cara, una unidad 103 de retención de técnicas, un selector 104 de la técnica, un detector de puntos 105 característicos, un extractor 106 de características, una unidad 107 de administración de la información de las personas, una unidad 108 de reconocimiento, y una pantalla 109. También, el aparato 100 para el reconocimiento de la cara lleva a cabo la autentificación de las personas con base en una imagen capturada por una cámara 150.
En el aparato 100 para el reconocimiento de la cara de acuerdo con la presente modalidad, una persona es reconocida a partir de los datos de imagen capturados por la cámara 150 o las similares, con base en la información de las características de la cara manejada preliminarmente . En este caso, del aparato para el reconocimiento de la cara de acuerdo con la presente modalidad, una técnica apropiada para la detección de puntos característicos de la cara se selecciona de acuerdo con el tamaño (resolución) de una región de la cara de los datos de imagen de entrada. Por consiguiente, la precisión de reconocimiento del reconocimiento de la cara puede ser mantenida, correspondiendo a una diferencia de resolución de una región de la cara.
La cámara 150 lleva a cabo las capturas de una región predeterminada. Por ejemplo, la cámara 150 es una cámara de monitoreo que captura un área de entrada y de salida de una vía de paso, o las similares, y genera los datos de imagen correspondientes al resultado capturado. Después, la unidad 101 de entrada de imágenes introduce los datos de imagen de la cámara 150.
La cámara 150 puede ser instalada en al menos un lugar o en una pluralidad de puntos. También la cámara se usa para recibir una imagen de la cara de una persona presente en una región predeterminada, y se llama, por ejemplo, una cámara ITV (televisión industrial) . La cámara 150 genera datos de imagen al digitalizar la información óptica obtenida a través de lente de la cámara por un convertidor A/D, y transmite los datos de imagen al aparato 100 para reconocimiento de la cara.
También, en el caso de datos de imagen digital que incluyen una región de la cara, ya que esta es un objetivo de la autentificación de la cara, el aparato 100 para el reconocimiento de la cara pueden llevar a cabo la autentificación de la cara al importar los datos de imagen fija capturados por una cámara digital fija a través de un medio, o puede llevara a cabo la autentificación de la cara sobre una imagen digital explorada desde un medio impreso o una imagen usando un explorador.
Después, el aparato 100 para el reconocimiento de la cara de acuerdo con la presente modalidad lleva a cabo la autentificación de la cara sobre una persona con base en los datos de imagen generados, y determina si la persona está pre-registrada en la unidad 107 de administración de la información de personas. De acuerdo con el resultado de la autentificación, el aparato 100 para el reconocimiento de la cara puede llevar a cabo la detección de personas sospechosas, o puede controlar la autorización/prohibición del acceso.
El aparato 100 para el reconocimiento de la cara de acuerdo con la presente modalidad puede ser usado para detectar apersonas sospechosas o controlar la autorización/prohibición del acceso de acuerdo con la autentificación de las personas. Sin embargo, el aparato 100 para el reconocimiento de la cara no se limita a tales controles, y puede llevar a cabo cualquier control siempre y cuando este use el resultado del reconocimiento de las personas. Por ejemplo, el aparato 100 para el reconocimiento de la cara puede ser usado para buscar clientes entre los datos de los clientes, buscar a personas sospechosas de entre una base de datos de personas sospechosas, llevar a cabo la identificación de personas especificas para la actualización de tarjetas de identificación, o evitar una emisión doble en una nueva emisión. También, el aparato 100 para el reconocimiento de la cara puede ser aplicable a un teléfono portátil o una cámara digital fija que detecta una cara a partir de una señal de imagen y controla el enfoque o los similares .
La FIG. 2 es un diagrama que ilustra un ejemplo de la entrada de datos 201 de imagen desde la cámara 150. Como se ilustra en al FIG. 2, los datos de imagen pueden incluir regiones de la cara de varios tamaños (por ejemplo, las regiones 211, 212, y 213) . Cuando se observa una cara pequeña en una imagen (por ejemplo en el caso de la región 211) , la resolución de la imagen correspondiente a la región de la cara es muy baja. Por lo tanto, cuando se usa una técnica convencional adecuada para aumentar la resolución, para llevar a cabo el reconocimiento de la imagen, sobre una imagen que tiene un tamaño de cara pequeño y una resolución baja, existe el problema de que no se puede detectar la posición precisa por detección de los puntos característicos de la cara y la posición de los puntos característicos puede ser propensa a desviarse. También, cuando se lleva a cabo el procesamiento de puntos característicos, la información de las características, necesaria puede no ser adquirida en el caso de algunas resoluciones y todas las caras de un objetivo de identificación se convierten en información de las características similar, degradándose por lo tanto la precisión de la identificación.
Por lo tanto, el aparato 100 para el reconocimiento de la cara de acuerdo con la presente invención usa diferentes técnicas de detección de puntos característicos de la cara de acuerdo con loa tamaños de las regiones de la cara incluidas en los datos de imagen. En la presente modalidad, es necesario realizar la detección de una región que representa la cara de. una persona (llamada de aquí en adelante una región de la cara) , la cual se incluye en los datos de imagen, antes de llevar a cabo la detección de un punto característico de la cara .
El detección 102 de la región de la cara detecta una región de la cara de una persona, a partir de los datos de imagen introducidos por la unidad 101 de entrada. El detector 102 de la región de la cara de acuerdo con la presente modalidad obtiene las coordenadas de una región de la cara en los datos de imagen recibidos usando la información de luminancia sobre los datos de imagen. Cualquier técnica puede ser usada como una técnica para la detección de la región de la cara. La presente modalidad lleva a cabo la detección de la región de la cara usando, por ejemplo, una técnica descrita en la literatura (MITA, Takeshi, et al.: "Joint Haar-like Features Based on Concurrence Suitable for Face Detection", the institute of electronics information and communication engineers Journal (D), vol. J89-D, 8, pp. 1791-1801 (2006)) . Como un ejemplo de otra técnica de detección, puede haber una técnica para obtener valores de correlación mientras que se desplaza una plantilla preparada entro de los datos de la imagen de entrada, y detectar una posición que proporciona el valor de correlación más alto, como una región de la cara, o una técnica en la cual se usa un método de extracción de la cara usando un método eigenespacial , un método de subespacial, o los similares.
También, la forma de una región de la cara detectada puede ser de cualquier forma, y la forma de una región de la cara puede variar de acuerdo con el resultado de la detección de la dirección o el tamaño de la cara. Con el propósito de facilidad de descripción, la presente modalidad detecta una región de cara rectangular. Después, las coordenadas de los vértices de la forma rectangular se toman como los resultados de la detección de una región de la cara.
En el caso de los datos de imagen capturados por una cámara de monitoreo o las similares, se asume que una cara detectada de la misma persona será observada continuamente durante una pluralidad de cuadros. Por esta razón, es necesario seguir la cara de la persona de modo tal que estos puedan corresponder a la misma persona. Este rastreo o seguimiento puede ser implementado usando, por ejemplo, una técnica para estimar en cual posición cuadro se presenta la cara detectada en el siguiente cuadro usando un flujo óptico, e igualando la misma a esta. Entonces, con el fin de reconocer a una persona, el extractor 106 de características puede seleccionar al menos una imagen apropiada de entre las regiones de la cara de una pluralidad de cuadros correspondientes a la misma persona, y extrae la información de las características de la cara de la región seleccionada de la cara. También, el extractor 106 de características puede extraer la información de las características de la cara siempre que se aumente el tamaño de una región de la cara, de modo tal que se puede usar cualquier número de fragmentos de los datos de imagen para la detección hasta que se detecte una región de la cara de tamaño máximo.
La unidad 103 de retención de técnicas retiene una pluralidad de detección para detectar una característica de la cara de una región de la cara detectada por el detector 102 de la región de la cara. Aquí, las técnicas de detección difieren entre si en la rudeza del proceso de detección. La unidad 203 de retención de técnicas de acuerdo con la presente modalidad retiene tres tipos de técnicas para la detección de puntos característicos de la cara; sin embargo, el número de técnicas de detección retenidas no se limita a estas. Por ejemplo, la unidad 103 de retención de técnicas puede retener cuatro o más tipos de técnicas de detección y puede detener dos tipos de técnicas de detección.
La FIG. 3 es un diagrama que ilustra las características de las técnicas de detección de puntos característicos de la cara, retenidas por la unidad 103 de retención de técnicas. Como se ilustra en la FIG. 2, la unidad 103 de retención de técnicas de acuerdo con la presente modalidad retiene una primera técnica de detección de puntos característicos de la cara, una segunda técnica de detección de puntos característicos de la cara, y una tercera técnica de detección de puntos característicos de la cara. También, las técnicas de detección de puntos característicos de la cara respectivas tienen diferentes características como se ilustra en la FIG. 3.
Ya que la primera técnica para detección de los puntos característicos de la cara es el más burdo en el procesamiento de detección entre los tres tipos de técnicas de detección, la primera técnica de detección de puntos característicos de la cara es robusta contra una resolución baja pero tiene una la precisión de reconocimiento más baja. La segunda técnica de detección de puntos característicos de la cara es la segunda más burda en el procesamiento de detección entre los tres tipos de técnicas de detección, es la segunda más robusta contra la resolución baja, y tiene la segunda precisión de reconocimiento más alta. Ya que la tercera técnica de detección de puntos característicos de la cara es la mejor en el procesamiento de detección entre los tres tipos de técnicas de detección, la tercera técnica de detección de puntos característicos de la cara es débil contra una baja resolución pero tiene la precisión de reconocimiento más alta cuando la resolución es alta. En la presente modalidad, se asume que una técnica de detección de puntos característicos de la cara óptima, entre los tres tipos de técnicas de detección de puntos característicos de la cara se usa de acuerdo con el tamaño de la región de la cara detectada.
El selector 104 de la técnica selecciona una técnica de detección de puntos característicos de la cara a ser usada por el detector 105 de puntos característicos a ser descrito posteriormente, de entre las técnicas de detección de puntos característicos de la cara, retenidas en la unidad 103 de retención de técnicas, con base en el tamaño de la imagen de una región de la cara detectada por el detector 102 de la región de la cara. Cualquier técnica puede ser usada para seleccionar una técnica de detección de puntos característicos de la cara. En la presente modalidad, el número de pixeles que representan la anchura horizontal y la anchura vertical se calcula a partir de las coordenadas de los vértices de una formas rectangular que representa una región de la cara, y una técnica de detección de puntos característicos se selecciona con base en si el número de pixeles calculado es igual o mayor a un valor umbral predeterminado. Por consiguiente una técnica de detección de los puntos característicos de la cara puede ser seleccionada fácilmente.
Cuando se retienen tres tipos de técnicas de detección de puntos característicos, el selector 104 de la técnica selecciona una técnica de detección de puntos característicos de la cara usando dos tipos de valores umbrales de resolución. Dos tipos de valores umbrales de resolución son a y B (B < A) . Entonces, si la anchura horizontal calculada (o la anchura vertical) es menor que B, el selector 104 de la técnica selecciona la primera técnica de detección de puntos característicos. Además, si la anchura horizontal calculada (o la anchura vertical) es igual o mayor que B y meno que As, el selector 104 de la técnica selecciona la segunda técnica de detección de puntos característicos; y si la anchura horizontal calculada (o la anchura vertical) es igual o mayor que A, el selector 104 de la técnica selecciona la tercera técnica de detección de puntos característicos de la cara. La presente modalidad no se limita a la sección por medio de un valor umbral, y también puede usar una técnica la cual consiste en prender cual técnica seleccionar estadísticamente usando un cambio del tamaño de la cara en la dirección de eje del tiempo.
Usando una técnica de detección de puntos característicos de la cara seleccionada por el selector 104 de la técnica, el detector 105 de puntos característico detecta la posición de una parte de la cara tal como un ojo, la nariz, o los similares, como un punto característico de la cara, de una región de la cara detectada por el detector 102 de la región de la cara.
De acuerdo con la presente modalidad, la primera técnica de detección de puntos característicos de la cara, la segunda técnica de detección de puntos característicos de la cara, y la tercera técnica de detección de puntos característicos de la cara son diferentes entre si en términos de la rudeza de la detección pero son iguales en términos de los puntos característicos a ser detectados (por ejemplo, la esquina interna de un ojo, la esquina de un ojo, y los similares) y el número de puntos característicos. La FIG. 4 es un diagrama que ilustra un ejemplo de los puntos característicos detectados a través de varias técnicas de detección de puntos característicos de la cara por el detector 105 de puntos característicos. En la FIG. 4, un punto representado por "x" es un ejemplo de los puntos característicos. Como se ilustra en la FIG. 4, el detector 105 de puntos característicos de acuerdo con la presente modalidad, detecta quince puntos característicos .
Por consiguiente, aun cuando la información de las características de la cara se extrae usando cualquiera de la primera técnica de detección de puntos característicos de la cara, la segunda técnica de detección de puntos característicos de la cara, y la tercera técnica de detección de puntos característicos, la unidad 108 de reconocimiento puede llevar a cabo la autentificación de las personas por comparación con la información de las características de la cara de cada persona, almacenada en la unidad 107 de administración de la información personal. Enseguida se describirá en detalle cada una de las técnicas de detección de puntos característicos de la cara.
Se asume que la primera técnica de detección de puntos característicos de la cara se usará cuando la región de la cara tiene resolución baja de modo tal que la información de la estructura fina de la cara no puede ser observada. La primera técnica de detección de puntos característicos de la cara prepara una pluralidad de modelos promedio de las coordenadas de los puntos característicos de la cara a ser detectados (malla de alambre) de acuerdo con las direcciones de la cara. Entonces, cuando el detector 105 de puntos característicos lleva a cabo el procesamiento de detección, la primera técnica de detección de puntos característicos de la cara compara un valor de luminancia incluido en una región de la cara con los modelos promedio preparados (malla de alambre) y los ajusta a la malla de alambre con el grado de correspondencia más alto. En este caso, la primera técnica de detección de puntos característicos de la cara ajusta la malla de alambre a un punto que más probablemente será una cara, considerando también la dirección de una cara y los similares. Entonces, el detector 205 de puntos característicos detecta un punto característico de una cara de acuerdo con la malla de alambre ajustada.
El procedimiento en el caso donde el detector 105 de puntos característicos usa la primera técnica de detección de puntos característicos de la cara se describirá en detalla. Por ejemplo, una pluralidad de imágenes de la cara de baja resolución se extrae con respecto a cada dirección de la cara, y se lleva a cabo el agrupamiento con respecto a cada dirección de la cara antes del desarrollo de KL, de modo tal que se crea un subespacio por un patrón de la cara para cada dirección de la cara. La primera técnica de detección de los puntos característicos de la cara retiene el subespacio por el patrón de la cara como un modelo promedio de la cara. Entonces, cuando se lleva a cabo la detección por medio de la primera técnica de detección de los puntos característicos de la cara, el detector 105 de puntos característicos usa un método subespacial para determinar a cuál de los patrones retenidos de la cara es más similar la región de la cara producida a partir de la imagen de entrada. En este caso, ya que los patrones de la cara son retenidos con respecto a las direcciones respectivas, el detector 105 de puntos característicos también puede determinar a cuál de las direcciones de la cara es más similar la dirección. De este modo, el detector 105 de puntos característicos determina la dirección de la cara con base en un subespacio al que se asigna la mayor similitud por un método subespacial, y detecta la posición de un punto característico de la cara de acuerdo con la malla de alambre ajustada a la dirección determinada. Además, ya que no se considera la información de la estructura detallada, puede ser preferible que la primera técnica de detección de puntos característicos de la cara se ejecute solo en el caso de una resolución baja.
La segunda técnica de detección de puntos característicos de la cara tiene la precisión de la posición de detección alta de los puntos característicos de la cara en comparación con la primera técnica de detección de puntos característicos de la cara, pero no tiene una precisión de correspondencia de la posición detallada para cada parte de la cara, en comparación con la tercera técnica de detección de puntos característicos de la cara, la cual se describirá más tarde. Como la segunda técnica de detección de puntos característicos de la cara, el rastreo de una expresión facial por un así llamado AAM (modelo de apariencia activa) al que se hace referencia en la literatura (Cootes. T. F, Walker. K, Taylor. C. J, "View-based active appearamce raodels", Image and Vision Computing 20, pp. 227-232, 2002) puede ser considerado. El detector 105 de puntos característicos puede detectar la posición de un puntos característico de la cara rastreando la expresión facial, usando la segunda técnica de detección de puntos característicos de la cara.
La tercera técnica de detección de puntos característicos de la cara puede ser usada cuando la resolución de una región de la cara es suficientemente alta. La tercera técnica de detección de puntos característicos de la cara detecta un punto característico de la cara usando la información de la distribución de luminancia o la información de la forma de un punto característico de la cara. La tercera técnica de detección de puntos característicos de la cara proporciona la precisión de la posición de detección más alta entre los tres tipos de técnicas de detección de puntos característicos de la cara cuando la resolución de una región de la cara es suficientemente alta.
Como la tercera técnica de detección de puntos característicos de la cara se aplica una técnica descrita en la literatura (FUKUI Kazuhiro, YAMAGUCHI Osamu: "Face Feature Point Extraction by Combination of Shape Extraction and Pattern Check", The Institute of Electronics Information and Communication Engineers Journal (D) , vol . J80-D-II, No. 8, pp. 2170-2177 (1997)) . Por consiguiente, se pueden detectar los puntos característicos tales como un ojo, una cavidad nasal, la comisura de la boca y los similares. También para la detección de un punto característico que representa una región de la boca, se puede aplicar una técnica descrita en la literatura (YUASA Mayumi, NAKAJIMA Akiko: "Digital Make System Base on High-accuracy Face Feature Point Detection", Proceedings of the 10th Symposium on Image Sensing, pp. 219-224 (2004)) . Aun cuando se usa cualquier tecnología como la tercera técnica de detección de puntos característicos de la cara, la información que puede ser tratada como una imagen de arreglo bidimensional puede ser adquirida y un punto característico de la cara puede ser detectado a partir de la información obtenida.
También, con el fin de detectar un punto característico de la cara aun en el caso de vestir una máscara, lentes de sol o un sombrero, el detector 105 de puntos característicos de acuerdo con la presente invención puede usar las varias técnicas de detección de puntos característicos anteriores para aprender preliminarmente una plantilla con un patrón de la cara en el caso donde una porción de la cara está cubierta con lentes de sol, una máscara, o un sombrero. También, aun cuando el detector 105 de puntos característicos puede no detectar todos los puntos característicos de la cara, si se detectan algunos puntos característicos de la cara con suficientes valores de evaluación, el detecto 105 de puntos característicos pronostica los otros puntos característicos con base en los puntos característicos detectados usando un modelo bidimensional o tridimensional de la cara. También, cuando un punto característico se cubre con una máscara, un sombrero, o lentes de sol de modo tal que el punto característico puede no ser detectado en absoluto, el detector 105 de puntos característicos puede aprender previamente el patrón completo de una cara cubierta con una máscara, un sombrero, o lentes de sol, y pronostica la posición de un punto característico de la cara en una región de la cara detectada con base en el patrón completo de la cara. También, cuando una pluralidad de caras está presente en los datos de imagen, el detector 105 de puntos característicos puede ser configurado para llevar a cabo el mismo procesamiento sobre cada región de la cara.
A partir del punto característico de la cara detectado por el detector 105 de puntos característicos, el extractor 106 de características extra la información de las características (llamada de aquí en adelante la información de las características de la cara) que indica las características de la cara por las cuales puede ser identificada la cara capturada de un individuo. Por consiguiente, el extractor 106 de características puede extraer la información de las características usando cualquiera de las varias técnicas de detección de puntos característicos.
El extractor 106 de características produce una secuencia que representa cada una de las características de la cara como la información de las características de la cara. El extractor 106 de características de acuerdo con la presente modalidad extrae una región de la cara con un tamaño y forma predeterminados con base en las coordenadas del punto característico de la cara (la posición de una parte característica de la cara) detectado por el detector 105 de puntos característicos, y extrae la información de sombreado de la misma como una cantidad característica que representa una característica de una cara. En la presente modalidad, un valor de sombreado de una región de m*n pixeles se usa como la información, y la información m*n-direccional se extrae como un vector de la cantidad característica.
El extractor 106 de características normaliza el vector de cantidad característico y la longitud del vector de cantidad característico a 1, por un simple método de similitud, calcula el producto interno, y obtiene un grado de similitud que representa la similitud entre los vectores característicos. La técnica relevante se implementa usando un método subespacial descrito en la literatura (escrito por Erkki Oja y Traducido por OGAWA Hidemitsu y SATO Makoto, "Pattern Recognition and Subspace Method", Industrial Book (Sangyotosho) , 1996) . También, se puede aplicar una técnica para mejorar la precisión por generación de datos de imagen al cambiar intencionalmente la dirección o el estado de una cara usando un modelo con respecto a un fragmento de la información de imagen de la cara, el cual se describe en la literatura (TOSHIBA (KOZAK YA Tatsuo) : "Image Recognizing Apparatus, Method and Program", Solicitud de Patente Japonesa Abierta a Inspección Pública No. 2007-4767) . Al usar estas técnicas, la información de las características de la cara puede ser extraída de un fragmento de los datos de imagen.
Por otro lado, el extractor 106 de características puede llevar a cabo el procesamiento de reconocimiento con mayor precisión al llevar a cabo el cálculo basado en los datos de video, usando una pluralidad de fragmentos de datos de imágenes consecutivas con respecto a la misma persona. Por ejemplo, se puede usar un método subespacial mutuo descrito en la literatura (FUKUI Kazuhiro, YAMAGUCHI Osamu, MAEDA Kenichi: "Face Recognizing System Using Video Image", The Institute of Electronics Information and Communication Engineers Research Report PRMU, vol. 97, No. 113, pp. 17-24 (1997)) o la literatura (MAEDA Kenichi, WATANABE Sataichi: "Pattern Matching Method Using Local Structure", the Institute of Electronics Information and Communication Engineers Journal (D) , vol. J68-D, No. 3, pp. 345-352 (2985)). Cuando se usa el método subespacial mutuo descrito en estas literaturas, el detector 105 de puntos característicos extrae datos de imagen de mxn pixeles de los datos de imagen introducidos secuencialmente por la unidad 101 de entrada de imágenes, calcula una matriz de correlaciones de un vector de cantidad característico de los datos de imagen extraídos, obtiene un vector ortogonal por desarrollo de K-L, y calcula un subespacio que representa la información de las características de la cara, adquirida de los datos de imágenes consecutivas .
En el método de cálculo del subespacio, el subespacio puede ser calculado obteniendo una matriz de correlaciones (o una matriz de covarianza) del vector de cantidad de características y obteniendo un vector ortogonal (eigenvector) por desarrollo de K-L del mismo. Un número k. de eigenvectores correspondientes a los eigenvalores se selecciona en orden descendente de los eigenvalores, y el subespacio se expresa usando un conjunto de eigenvectores seleccionados. En la presente modalidad, una matriz de correlación Cd se obtiene a partir de un vector de características y se diagonaliza con una matriz de correlación Cd=3>dAdOdT, por lo cual se obtiene una matriz F de un eigenvector. La matriz F de un eigenvector es el subespacio que representa una característica de la cara de una persona a ser reconocida actualmente. En la presente modalidad, el subespacio se usa como la información de las características de la cara de una persona detectada a partir de los datos de imagen de entrada.
Después que se detecta un punto característico por el detector 105 de puntos característicos, el extractor 106 de características lleva a cabo la corrección de la dirección (tridimensional) , la corrección del tamaño, y la corrección de brillantez con aspecto al punto característico detectado. Por ejemplo, si la cara detectada está mirando hacia la izquierda, la corrección de la dirección cambia la dirección hacia la cual está mirando la cara a la dirección frontal al ajustar un modelo tridimensional de una cara de una persona preparado, a una cara en la dirección hacia la izquierda. La corrección de tamaño es una corrección que lleva a cabo la reducción y el agrandamiento con el fin de lograr un ajuste con un tamaño estándar predeterminado de la cara. Después que se llevan a cabo estas correcciones, se extrae la información de las características de la cara. Por consiguiente, la información de las características de la cara, extraída por el extractor 106 de características puede ser unificada independientemente de la dirección o el tamaño de una cara detectada. Por consiguiente, se puede llevar a cabo fácilmente una comparación con la un formación de las características de la cara de una persona, administrada por la unidad 107 de administración de la información de las personas.
La unidad 107 de administración de la información de las personas administra la información de las características de la cara registrada preliminarmente para cada persona. La unidad 107 de administración de la información de las personas es una base de datos que se usa para llevar a cabo el reconocimiento de las personas por medio de la unidad 108 de reconocimiento a ser descrita más tarde. Con respecto a cada persona a ser buscada, la unidad 107 de administración de la información de las personas de acuerdo con la presente modalidad, administra la información de las características de la cara extraída por el extractor 106 de características, la información de atributos tales como el sexo, la edad, la altura de las personas, y la identificación o el nombre de las personas en una manera correspondiente.
La información de las características de la cara extraída por el extractor 106 de características, a ser administrada, puede ser un vector de cantidad de características de m*n, un subespacio, o una matriz de correlación inmediatamente antes de la realización del desarrollo de KL. Además, la información de las características de la cara extraída por el extractor 106 de características se administra junto con ,los datos de imagen introducidos por la unidad 101 de entrada de imágenes, de modo tal que la búsqueda de una persona o el despliegue de la búsqueda pueden ser llevados a cabo fácilmente.
La unidad 108 de reconocimiento reconoce a las personas incluidas en los datos de imagen introducidos por la unidad 101 de enterada de imágenes, con base en la información de las características de la cara extraída por el extractor 106 de características, y la información de las características de la cara almacenada en la unidad 107 de administración de la información de las personas. La unidad 108 de reconocimiento de acuerdo con la presente modalidad extrae la información de las características de la cara almacenada en la unidad 107 de administración de la información de las personas, la cual es similar a la información de las características de la cara extraída por el extractor 106 de características, y reconoce a la personas representada por la información de las características de la cara, extraída, como un candidato fotografiado por la cámara 150.
La unidad 108 de reconocimiento de acuerdo con la presente modalidad, calcula la similitud entre la información de las características de la cara extraída por el extractor 106 de características y la información de las características de la cara almacenada en la unidad 107 de administración de la información de las personas, y transmite la información sobre una persona " representada por la información de las características de la cara, a la pantalla 109 en orden descendente de similitud de la información de las características de la cara.
Como el resultado del procesamiento, en orden descendente de similitud de la información de identificación de la cara, la unidad 108 de reconocimiento produce la ID de una persona correspondiente a la información de identificación de la cara o la información que representa la similitud calculada por la unidad 107 de administración de la información de las personas. También se puede producir una variedad de otros elementos de información sobre una persona correspondiente a la ID de la persona.
También, la unidad 108 de reconocimiento adquiere la técnica de detección de puntos característicos usados para la detección por el detector 105 de puntos característicos, correspondiente a la información de las características de la cara extraída por el extractor 106 de características, del detector 105 de puntos característicos, a través del extractor 106 de características. Entonces, la unidad 108 de reconocimiento transmite a la pantalla 109 la información adquirida que identifica la técnica de detección de puntos característicos de la cara, correspondiente a la información de las características de la cara detectada por la técnica relevante .
En la presente modalidad, la información que representa la similitud es una similitud entre los subespacios manejados como la información de las características de la cara. Un método de cálculo de la similitud puede usar técnicas de cálculo tales como un método subespacial y un método de similitud múltiple. En estos métodos de cálculo, la información de las características de la cara, almacenada en la unidad 107 de administración de la información de las personas y la información de las características de la cara, extraída por el extractor 106 de características, se representan como un subespacio. Entonces, en la presente modalidad, el ángulo entre dos subespacios se identifica como un grado de similitud. Entonces, la unidad 108 de reconocimiento obtiene una matriz de correlación Cin basada en estos dos subespacios, diagonaliza la misma con Cin =F?????F???, y obtiene un eigenvector F??. Después, la unidad 108 de reconocimiento obtiene una similitud (0.0 a 1.0) entre dos subespacios representados por F?? y F???, y usa los mismos como una similitud para el reconocimiento. También, para un método de cálculo especifico, la técnica descrita en la literatura (Escrito por Erkki Oja y Traducido por OGAWA Hidemitsu y SATO Makoto, "Pattern Recognition and Subspace Method", Industrial Book (Sangyotosho) , 1986) puede ser usada. También, una pluralidad de imágenes de la cara correspondientes a la misma persona, pueden ser re arregladas y proyectadas sobre un subespacio para la identificación de la persona objetivo, para mejorar la precisión de la identificación. También, puede ser usado un método de búsqueda que usa una estructura de ÁRBOL, para búsquedas de alta velocidad.
La pantalla 109 muestra la información sobre un candidato reconocido y transmitido por la unidad 108 de reconocimiento. También, la pantalla 109 no se limita a desplegar solamente el resultado del reconocimiento de las caras, y puede realizar el despliegue en combinación con el resultado del reconocimiento basado en la información de los atributos administrada por la unidad 107 de administración de la información de las personas .
También, la pantalla 109 puede desplegar solamente la información sobre una persona de acuerdo con una condición designada, en tiempo real, entre los resultados reconocidos por la unidad 108 de reconocimiento. Entonces, la información sobre una persona que no está de acuerdo con la condición designada puede se almacenada como la información histórica en una unida de almacenamiento histórica (no se ilustra) . Por consiguiente, al designar una condición de búsqueda posteriormente, la información histórica de acuerdo con la condición de búsqueda puede ser desplegada. Además, en el aparato para el reconocimiento de la cara, se puede incluir un despliegue en tiempo real o un despliegue de búsqueda o ambos.
También, cuando se despliega la información sobre un candidato, la pantalla 109 de acuerdo con la modalidad despliega la información que representa la conflabilidad de la autentificación de la cara, basada en la técnica de detección de puntos característicos de la cara, usada por el detector 105 de puntos característicos. El aparato 100 para el reconocimiento de la cara de acuerdo con la presente modalidad tiene una pluralidad de tipos de técnicas de detección de puntos característicos de la cara, pero la precisión de la detección es diferente entre las técnicas. Por lo tanto, la pantalla 109 de acuerdo con la presente modalidad despliega la información que representa la conflabilidad basada en la técnica de detección de puntos característicos de la cara, junto con la información sobre el candidato.
La FIG. 5 es un diagrama que ilustra un ejemplo de la imagen desplegada por la pantalla 109. Como se ilustra en la FIG. 5, la pantalla 109 despliega un grupo de datos de imagen introducidos por la unidad 101 de entrada de imágenes y la información sobre un candidato que se ha determinado con alta similitud por el reconocimiento con base en la región de la cara incluida en los datos de imagen relevantes. Como se ilustra en la columna del lado derecho de la FIG. 5, la pantalla 109 despliega la información sobre cinco candidatos en orden descendente de similitud. También, en la columna del lado izquierdo, la pantalla 109 despliega los datos de imagen incluidos en la cara de una persona, entre los datos de imagen capturados por la cámara 150.
También, cuando se despliegan los resultados de autentificación de las personas, la pantalla despliega símbolos que representan la conflabilidad de la detección, basada en las técnicas de detección de los puntos característicos de la cara. En la presente modalidad, cuando la cara se observa con un tamaño grande en los datos de imagen, ya que puede ser usada la tercera técnica de detección de puntos característicos de la cara, puede ser esperada una precisión alta de las coordenadas de los puntos característicos detectados. Por lo tanto, se despliega "0" (503) indica una precisión de detección alta. También, cuando la cara se observa con un tamaño medio en los datos de imagen, ya que se puede usar la segunda técnica de detección de puntos característicos de la cara, se despliega "?" (502, 501) que representa una precisión de detección media. También, cuando la cara se observa de tamaño pequeño en los datos de imagen, ya que se usa la primera técnica de detección de puntos característicos, se despliega que representa que la precisión de la detección de las coordenadas de los puntos característicos detectados es menor que aquellas de las otras dos técnicas. En los ejemplos de una imagen ilustrada en la FIG. 5 y la FIG. 9 a ser descritos a continuación, solo se despliega la región de la cara de la cara de cada persona, y no se despliegan los puntos característicos. Esto es para detectar fácilmente una parte de la cara, los puntos característicos pueden ser desplegados cuando se requiera.
Como se describe anteriormente, en la presente modalidad, cuando la pantalla 109 realiza el despliegue, se despliega un carácter o un símbolo que representa la conflabilidad de la detección correspondiente a la técnica de detección de los punto característicos de la cara, por lo cual el usuario puede determinar fácilmente si la precisión de la posición de un punto característico de la cara detectado es alta. También, ya que se mejora la precisión de la posición de un punto característico de la cara, la precisión de la búsqueda de un candidato de mejora. Por lo tanto, es fácil determinar si la conflabilidad de una lista de candidatos desplegada es alta.
También, un criterio basado en la técnica de detección de los puntos característicos de la cara puede ser predeterminado, y se puede realizar el control de modo tal que la pantalla 109 despliega una lista de candidatos solo cuando se cumple el criterio. Por ejemplo, la pantalla 109 puede no desplegar una lista de candidatos con base en la técnica de detección de puntos característicos de la cara que usa la primera técnica de detección de puntos característicos de la cara que tiene una menor conflabilidad que las otras dos técnicas, y puede desplegar una lista de candidatos con base en las otras dos técnicas. Por consiguiente, ya que se despliega una lista de candidatos que tiene alta conflabilidad, la conflabilidad puede ser mejorada.
También, la presente modalidad no se limita al modo de despliegue ilustrado en la FIG. 5. Por ejemplo, después de desplegar el resultado de la detección la cara en la pantalla, el aparato 100 para el reconocimiento de la cara puede desplegar los datos de la imagen capturada por la cámara 150, al tiempo que superpone la región de la cara y la conflabilidad de la detección.
La FIG. 6 es un diagrama que ilustra un ejemplo de una imagen desplegada por la pantalla 109 de acuerdo con una modificación. Como se ilustra en la FIG. 6, entre los datos de la imagen de entrada, con aspecto a la región de la cara detectada, la pantalla 109 despliega la conflabilidad de la detección basada en la técnica de detección de puntos característicos de la cara usada (por ejemplo, "0" (601) y (602)) . Por consiguiente, el usuario puede reconocer si la conflabilidad en la precisión de la detección de un punto característico de la cara detectado en cada región de la cara es alta. Por consiguiente, el usuario puede reconocer si la conflabilidad de una lista de candidatos para cada región de la cara almacenada como un historial de detección es alta.
A partir de aquí, se describirá un proceso para el reconocimiento de la cara de una persona en el aparato 100 para el reconocimiento de la cara de acuerdo con la presente modalidad. La FIG. 7 es un diagrama de flujo que ilustra el proceso anterior en el aparato 100 para el reconocimiento de lacara de acuerdo con la presente modalidad.
La unidad 101 de entrada de imágenes introduce los datos de imagen desde la cámara 150 (S701) . Después, el detector 102 de la región de la cara detecta una región de la cara a partir de los datos de imagen de entrada (S702) .
Después, el selector 104 de la técnica determina si el tamaño de la región de la cara detectada es igual o mayor que un valor umbral predeterminado B (S703) . Si se determina que el tamaño de la región de la cara detectada es menor que el valor umbral predeterminado B (No en S703), el selector 104 de la técnica selecciona la primera técnica de detección de puntos característicos de la cara (S704) . Después, el detector 105 de puntos característicos detecta un punto característico de la cara de la región de la cara detectada, usando la primera técnica de detección de puntos característicos de la cara seleccionada (S705) .
Por otro lado, si se determina que el tamaño de la región de la cara detectada es igual o mayor que el valor umbral predeterminado B (Sí en S703) , el selector 104 de la técnica determina si el tamaño de la región de la cara detectada es ' igual o mayor que un valor umbral predeterminado A (S706) . Aquí, el valor umbral A < el valor umbral B. Si se determina que el tamaño de la región de la cara detectada es menor que el valor umbral predeterminado A (No en S706) , el selector 104 de la técnica selecciona la segunda técnica de detección de puntos característicos de la cara (S707) . Después, el detector 105 de puntos característicos detecta un punto característico de la cara de la región de la cara detectada, usando la segunda técnica de detección de puntos característicos de la cara (S708) .
Por otro lado, si el selector 104 de la técnica determina que el tamaño de la región de la cara detectada es igual o mayor que el valor umbral predeterminado A (Sí en S706) , el selector 104 de la técnica selecciona la tercera técnica de detección de puntos característicos (S709) . Después el detector 105 de puntos característicos detecta un punto característico de la cara de la región de la cara detectada, usando la tercera técnica de detección de puntos característicos de la cara (S710) .
Después, el extractor 106 de características extrae la información de las características de la cara basado en el unto característico de la cara detectada. En este caso, el extractor 106 de características lleva a cabo la corrección de la dirección (tridimensional) , la corrección del tamaño, y la corrección de la brillantez con respecto al punto característico detectado. Por consiguiente, un tamaño, brillantez y dirección diferentes se corrigen con respecto a cada región de la cara de los datos de imagen.
Después, la unidad 108 de reconocimiento lleva a cabo el reconocimiento con base en la información de las características de la cara extraída por el extractor 106 de características y la información de características de la cara almacenada en la unidad 107 de administración de la información de las personas, y extrae un candidato para la persona observada en los datos de imagen (S712) .
Después, la pantalla 109 despliega una lista de candidatos extraídos y la conflabilidad, con base en la técnica de detección de puntos característicos de la cara (S713) .
La primera modalidad describe el ejemplo de selección de uno de tres tipos de técnicas de detección de puntos característicos de la cara de acuerdo con el tamaño de la región de la cara detectada. Sin embargo, la presente modalidad no se limita a la selección de acuerdo con el tamaño, y una técnica para cambiar a otra técnica de detección de puntos característicos de la cara de acuerdo con el resultado de la detección de puntos característicos usando cualquier técnica de detección de puntos característicos de la cara, puede ser usada en una manera combinada.
Como se describe anteriormente, la técnica de detección de puntos característicos de la cara con alta precisión es débil contra las resoluciones bajas. Por lo tanto, en una modificación, la técnica de detección de puntos característicos de la cara con alta precisión de detección (por ejemplo, la tercera técnica de detección de puntos característicos de la cara) se usa primero para un punto característico de la cara y se determina si la posición del punto característico de la cara es apropiada. Si la posición no es apropiada se determina que el tamaño (resolución) de una región de la cara a ser detectada no es apropiada. Después, la técnica de detección de puntos característicos de la cara, robusta contra resoluciones bajas (por ejemplo, la segunda técnica de detección de puntos característicos) se usa para detectar un punto característico de la cara.
A partir de aquí, se describirá un proceso para reconocer la cara de una persona en el aparato 100 para el reconocimiento de la cara de acuerdo con la modificación. La FIG. 8 es un diagrama de flujo que ilustra el proceso anterior en el aparato 100 para el reconocimiento de la cara de acuerdo con una modificación de la primera modalidad.
La unidad 101 de entrada de imágenes recibe los datos de imagen de la cámara 150 (S801) . Después, el detecto 102 de la región de la cara detecta una región de la cara a partir de los datos de imagen de entrada (S802) .
Después, el selector 104 de la técnica determina si el tamaño de la región de la cara detectada es igual o mayor que un valor umbral predeterminado A' (S803) . Si se determina que el tamaño de la región de la cara detectada se igual o mayor que el valor umbral predeterminado A' (Sí en S803), el selector 104 de la técnica selecciona la tercera técnica de detección de puntos característicos de la cara (S804). Después, el detector 105 de puntos característicos detecta un punto característico de la cara de la región de la cara detectada, usando la tercera técnica de detección de puntos característicos seleccionada (S805) .
Después, el extractor 106 de características lleva a cabo la normalización del punto característico detectado en S805, y genera datos de imagen extraídos con base en la región de la cara (S806) .
Entonces, el extractor 106 de características evalúa la posición de un punto característico de la cara con respecto a los datos de la imagen extraídos. Después, del extractor 106 de características determina si el valor de evaluación de la detección es igual o mayor que un valor de referencia C con base en un patrón promedio de la cara de una persona (S807). Además, el valor umbral C se ajusta de acuerdo con una modalidad. Después, si el valor de evaluación de la detección es igual o mayor que el valor umbral C (Sí en S807) , el proceso procede a S814.
Por otro lado, si el extractor 106 de características determina en S807 que el valor del resultado de la detección es menor que el valor de referencia C (No en S807), o si el selector 104 de la técnica determina en S803 que el tamaño de la región de la cara detectada es menor que el valor umbral predeterminado A' (No en S803) , el selector 104 de la técnica selecciona la segunda técnica de detección de pintos característicos de la cara (S808) . Entonces, el detecto 105 de puntos característicos de la cara detecta un punto característico de la cara de la región de la cara detectada, usando la segunda técnica de detección de puntos característicos de la cara seleccionada (S809) .
Después, el extractor 106 de características lleva a cabo la normalización al punto característico detectado en S809, y genera los datos de imagen extraídos basados en la región de la cara (S810) . Después, el extractor 106 de características evalúa la posición de un punto característico de la cara con respecto a los datos de imagen extraídos generado. Después, el extractor 106 de características determina si el valor de evaluación de la detección es igual o mayor que un valor de referencia C basado en un patrón promedio de la cara de una persona (S811) . Después, si el valor de evaluación de la detección es igual o mayor que el valor de referencia C (Sí en S811) , el proceso procede a S814.
Por otro lado, si el extractor 106 de características determina en S811 que el valor del resultado de la detección es menor que el valor de referencia C (No en S811), el selector 104 de la técnica selecciona la primera técnica de detección de puntos característicos de la cara (S812). Después, el detector 105 de puntos característicos de la cara detecta un punto característico de la cara de la región de la cara detectada, usando la primera técnica de detección de puntos característicos de la cara (S813) .
Después, el extractor 106 de características extrae la información de las características de la cara con base en el punto característico de la cara detectado (S814) . En este caso, el extractor 106 de características lleva a cabo la corrección de la dirección (tridimensional), a corrección de tamaño, y la corrección de brillantez con respecto al punto característico detectado. Por consiguiente, un tamaño, brillantes, y dirección de la cara diferentes, se corrigen con respecto a cada región de la cara de los datos de imagen.
Después, la unidad 108 de reconocimiento extrae un candidato para una persona observada en los datos de imagen, llevando a cabo el reconocimiento basado en la información de las características de la cara extraída por el extractor 106 de las características y la información de las características de la cara almacenadas en la unidad 107 de administración de la información de las personas (S815) .
Después, la pantalla 109 despliega una lista de candidatos extraídos y la conflabilidad basada en la técnica de detección de puntos característicos de la cara (S816) .
De acuerdo con el proceso anterior, un punto característico de la cara puede ser detectado usando una técnica de detección de puntos característicos de la cara adecuada para una región de la cara detectada. Por consiguiente, la precisión del reconocimiento de las personas puede ser mejorada. o En la primera modalidad, se ha descrito el ejemplo de detección de un unto característico de la cara usando la técnica de detección de puntos característicos de 0 la cara seleccionada. Sin embargo, en lugar de usar una técnica de detección de puntos característicos de la cara seleccionada, se puede usar una combinación de una pluralidad de técnicas de detección de puntos característicos de la cara. Por lo tanto, en una segunda modalidad, se describirá un ejemplo del uso de una combinación de una pluralidad de técnicas de detección de puntos característicos de la cara.
La FIG. 9 es un diagrama de bloques que ilustra una configuración de un aparato 900 para el reconocimiento de la cara de acuerdo con una segunda modalidad. El aparato 900 para el reconocimiento de la cara de acuerdo con la presente modalidad es diferente del aparato 100 para el reconocimiento de la cara de acuerdo con la primera modalidad descrita anteriormente, en que el selector 901 de la técnica lleva a cabo un proceso diferente al del selector 104 de la técnica y el detector 902 de puntos característicos lleva a cabo un proceso diferente al del detector 105 de puntos característicos. En la siguiente descripción, los elementos similares a aquellos de la primera modalidad se denotarán por los mismos números de referencia, y no se proporcionará la descripción redundante de los mismos.
El selector 901 de la técnica selecciona una combinación de la primera técnica de detección de puntos característicos de la cara y la segunda técnica de detección de puntos característicos de la cara o una combinación de la segunda técnica de detección de puntos característicos de la cara y la tercera técnica de detección de puntos característicos de la cara, con base en el tamaño de la imagen de una región de la cara detectada por el detector 102 de la región de la cara, para la detección de un punto característico de la cara. En la presente modalidad, el número de pixeles que representan la anchura horizontal y la anchura vertical se calcula a partir de las coordenadas de los vértices de una forma rectangular que presenta una región de la cara, y la técnica de detección de las características de la cara se selecciona con base den si el número calculado de pixeles es igual o mayor que un valor umbral predeterminado A' ' .
Al usar una combinación de técnicas de detección de puntos característicos de la cara seleccionada por el selector 901 de la técnica, el detector 902 de puntos característicos detecta una posición de una parte de la cara, como por ejemplo un ojo, la nariz, o los similares, como un punto característico de la cara, de la región de la cara detectada por el detector 102 de la región de la cara.
Con el fin de detectar una parte de la cara de una región de la cara detectada, como un punto característico de la cara, el detector 902 de puntos característicos usa una combinación de una pluralidad de diferentes técnicas de detección de puntos característicos de la cara de acuerdo con las diferencias de tamaño de la región de la cara.
También, el detector 902 de puntos característicos lleva a cabo la detección de los puntos característicos de la cada usando una técnica de detección de puntos característicos de la cara que puede detectar fácilmente un punto característico de la cara aun a baja resolución, y después corrige la posición de un punto característico de la cara usando una técnica de detección de puntos característicos de la cara que tiene la mayor precisión de la posición de la detección con un límite superior de la región predeterminada alrededor de cada punto característico. Esto hace posible suprimir la degradación de la precisión del reconocimiento para identificar a las personas y llevar a cabo el reconocimiento de la cara con alta precisión aun cuando se introducen una imagen de cara de baja resolución.
El detector 902 de puntos característicos incluye un primer detector 911 de puntos característicos, un segundo post-detector 912 de puntos característicos, un segundo pre-detector 913 de puntos característicos, y un tercer postdetector 914 de puntos característicos.
El primer pre-detector 911 de puntos característicos usa la primera técnica de detección de puntos característicos de la cara como el pre-procesamiento para detectar un punto característico de la cara de la región de la cara detectada por el detector 102 de la región de la cara.
El segundo post-detector 912 de puntos característicos usa la segunda técnica de detección de puntos característicos de la cara como el post-procesamiento para detectar un punto característico de la cara en una región predeterminada alrededor del punto característico de la cara detectado por el primer pre-detector 911 de puntos característicos.
El segundo detector 913 de puntos característicos usa la segunda técnica de detección de puntos característicos como el pre-procesamiento para detectar un punto característico de la cara, de la región de la cara detectada por el detector 102 de la región de la cara.
El tercer post-detector 914 de puntos característicos usa la tercera técnica de detección de puntos característicos como post-procesamiento para detectar un punto característico de la cara en una región predeterminada alrededor del punto característico de la cara detectado por el primer detector 911 de puntos característicos.
Por ejemplo, la tercera técnica de detección de puntos característicos detecta un punto característico de la cara con base en la información de distribución de luminancia o la información de forma de una región de la cara, pero requiere una carga de procesamiento intensa para llevar a cabo el procesamiento de detección detallado. Por lo tanto, en el detector 902 de puntos característicos, el segundo pre-detector 913 de puntos característicos usa la segunda técnica de detección de puntos característicos para detectar un punto característico de la cara, y el tercer post-detector 914 de puntos característicos usa la tercera técnica de detección de puntos característicos de la cara para llevar a cabo la detección de puntos característicos de la cara solo en una región predeterminada alrededor del punto característico de la cara detectado. Por consiguiente, se puede reducir la carga de procesamiento, y la precisión de la identificación de la posición de un punto característico de la cara puede ser aumentada. Además, la región predeterminada alrededor de del punto característico será determinada preliminarmente de acuerdo con cada modalidad.
Igualmente, el primer pre-detector 911 de puntos característicos usa la primera técnica de detección de puntos característicos para detectar un punto característico, la dirección de la cara, o los similares, y el segundo postdetector 912 de puntos característicos ajusta la posición por defecto del punto característico de la cara con base en la dirección detectada de la cara y usa la segunda técnica de detección de puntos característicos de la cara para llevar a cabo la detección de puntos característicos de la cara solo en una región predeterminada alrededor de la posición por defecto. Por consiguiente, se puede reducir la carga de procesamiento, y la precisión de la identificación de la posición de un punto característico de la cara puede ser aumentada.
Además, aunque la presente modalidad describe un ejemplo en el cual se combinan dos tipos de técnicas de detección de puntos característicos de la cara como un ejemplo de una combinación de una pluralidad de técnicas de detección de puntos característicos de la cara, tres o más tipos de técnicas de detección de puntos característicos pueden ser combinados para llevar a cabo la detección de los puntos característicos .
Además, el detector 902 de puntos característicos del aparato 900 para el reconocimiento de la cara de acuerdo con la presente modalidad puede usar una técnica de pre-detección de puntos característicos de la cara para llevar a cabo la detección de los puntos característicos de la cara, y después verifica si es necesaria la corrección de la posición por post-detección del punto característico de la cara. Después, como resultado de la verificación, si se determina que es necesaria la corrección de posición por post-detección de los puntos característicos de la cara, el detector 902 de puntos característicos usa una técnica de post-detección de puntos característicos para llevar a cabo la corrección. En la presente modalidad, el detector 902 de puntos característicos genera una imagen extraída normalizada de una región de la cara compuesta de M*N pixeles basada en los resultados de la detección de los puntos característicos de la cara por las técnicas de pre-detección/post-detección de los puntos característicos, calcula la similitud entre un patrón de la imagen extraída normalizada y un patrón aprendido preliminarmente como un patrón promedio de la cara de una persona, y lleva a cabo la corrección de la posición de los puntos característicos de la cara mediante la técnica de postdetección de los puntos característicos de la cara si la similitud calculada es menor que una similitud predeterminada.
A partir de aquí, se describirá un proceso para reconocer la cara de una persona en el aparato 900 para el reconocimiento de la cara de acuerdo con la presente modalidad. La FIG. 10 es un diagrama de flujo que ilustra el proceso anterior en el aparato 900 para el reconocimiento de la cara de acuerdo con la presente modalidad.
La unidad 101 de entrada de imágenes introduce los datos de imagen de la cámara 150 (S1001) . Después, el detecto 102 de la región de la cara detecta una región de la cara de los datos de imagen de entrada (S1002) .
Después, el selector 901 de la técnica determina así el tamaño de la región de la cara detectada es igual o mayor a un valor umbral predeterminado A'' (S1003) . Si se determina que el tamaño de la región detectada de la cara es menor que el valor umbral predeterminado A'' (No en S1003) , el selector 901 de la técnica selecciona una combinación de la primera técnica de detección de puntos característicos de la cara y la segunda técnica de detección de puntos característicos de la cara (51004) . Después, el primer pre-detector 911 de puntos característicos de la cara detecta un punto característico de la cara de la región detectada de la cara usando la primera técnica de de detección de puntos característicos seleccionada (51005) .
Después, el detector 902 de puntos característicos determina si es necesario corregir la posición de los puntos característicos detectados de la cara (S1006) . Cualquier técnica puede ser usada para determinar si es necesario corregir la posición de los puntos característicos detectados de la cara. En la presente modalidad, si es necesaria la corrección de la posición se determina con base en la similitud, calculada con respecto a un patrón aprendido preliminarmente como se describe anteriormente. Si se determina que no es necesaria la corrección de la posición (No en S1006) , el proceso procede a S1012.
Por otro lado, si el detector 902 de puntos característicos determina que es necesaria la corrección de la posición (Sí en S1006) , el segundo post-detector 912 de puntos característicos usa la segunda técnica de detección de puntos característicos de la cara para llevar a cabo la detección de los puntos característicos de la cara, es decir, la corrección de la posición con respecto a una región predeterminada alrededor de los puntos característicos detectados en S1005 (S1007) .
Por otro lado, si el selector 901 de la técnica determina en S1003 que el tamaño de la región detectada de la cara es igual o mayor que el valor umbral predeterminado A'' (Sí en S1003) , el selector 901 de la técnica selecciona una combinación de la segunda técnica de detección de puntos característicos de la cara y la tercera técnica de detección de puntos característicos de la cara (S1008) . Después, el segundo pre-detector 913 de puntos característicos detecta un punto característico de la cara de la región detectada de la cara, usando la segunda técnica de detección de puntos característicos de la cara seleccionada (S1009) .
Después, el detector 902 de puntos característicos determina si es necesario corregir la posición del punto característico detectado de la cara (S1010) . Si se determina que no es necesaria la corrección de la posición (No en S1010), el proceso procede a S1012.
Por otro lado, si el detector 902 de puntos característicos determina que es necesaria la corrección de la posición (Sí en S1010), el tercer post-detector 914 de puntos característicos usa la tercera técnica de detección de puntos característicos para llevar a cabo la detección del punto característico de la cara, es decir, la corrección de la posición con respecto a una región predeterminada alrededor del punto característico detectado en S1009 (S1011) .
Después, el extractor 106 de características extrae la información de las características de la cara basado en el punto característico de la cara detectado (S1012) . En este caso, el extractor 106 de características lleva a cabo la corrección de la dirección (tridimensional) , la corrección del tamaño, y la corrección de la brillantez, con respecto al punto característico de la cara detectado. Por consiguiente, un tamaño, brillantes, y dirección de la cara diferentes, se corrigen con respecto a cada región de la cara de los datos de imagen .
Después, la unidad 108 de reconocimiento lleva a cabo el reconocimiento con base en la información de las características de la cara extraída por el extractor 106 de características y la información de las características de la cara almacenada en la unidad 107 de administración de la información de las personas, y extrae un candidato para la persona observada en los datos de imagen (S1013) .
Después, la pantalla 109 despliega una lista de candidatos extraídos y la conflabilidad basada en la técnica de detección de puntos característicos (S1014) .
Mediante el proceso anterior, se pueden aplicar diferentes técnicas de detección de puntos característicos de la cara de acuerdo con los tamaños de las regiones de la cara, y una pluralidad de técnicas de detección de puntos característicos de la cara se puede combinar para llevar a cabo la detección de los puntos característicos de la cara. Por consiguiente, la precisión de detección de la posición de un punto característico de la cara puede ser aumentada. También, se puede reducir la carga de procesamiento debido a que la técnica de detección de puntos característicos que proporciona una precisión alta pero requiere una carga de procesamiento alta se aplica solo a una región predeterminada.
También, al desplegar la información sobre un candidato, la pantalla 109 de acuerdo con la presente modalidad despliega la información que representa la conflabilidad de la autentificación de la cara basada en la técnica de detección de puntos característicos de la cara usada por el detector 902 de puntos característicos de la cara. Por ejemplo, cuando se lleva a cabo el procesamiento de post-detección, la pantalla 109 despliega la información que representa la conflabilidad basada en la técnica de post-detección de puntos característicos de la cara. Si solo se lleva a cabo el procesamiento de pre-detección, la pantalla 109 puede desplegar la conflabilidad basada en la técnica de pre-detección de los puntos característicos de la cara, y si se detecta que no es necesaria la corrección de la posición, la pantalla 109 puede desplegar la conflabilidad igual a aquella basada en la técnica de post-detección de puntos característicos .
También, aunque la presente modalidad describe un ejemplo de cambio de una combinación de técnicas de detección de puntos característicos de la cara de acuerdo con el tamaño (resolución) de una región de la cara, el cambio de acuerdo con el tamaño de una región de la cara no debe ser llevado a cabo necesariamente. Por ejemplo, el procesamiento de detección de puntos característicos de la cara puede ser llevado a cabo usando las técnicas de detección de puntos característicos de la cara secuencialmente a partir de la técnica de detección de puntos característicos de la cara correspondiente a la baja resolución, independientemente del tamaño de una región de la cara.
De esta forma, el aparato 900 para el reconocimiento de la cara de acuerdo con la segunda modalidad puede suprimir la aparición de errores extremos en la posición de detección de los puntos característicos de la cara aun en el caso de una imagen de baja resolución, y puede aumentar la precisión de la posición al máximo.
Además, la técnica de combinar las técnicas de detección de puntos característicos de la cara no se limita a la aplicación de la técnica de post-detección de los puntos característicos de la cara solo a una región predeterminada basada en la posición de un punto característico de la cara por la técnica de pre-detección de puntos característicos de la cara, como se ilustra en la segunda modalidad.
Por ejemplo, la detección de los puntos característicos de la cara puede ser llevada a cabo en una región más amplia que la región predeterminada (por ejemplo, la región de la cara completa) por la técnica de post-detección de puntos característicos de la cara. En este caso, las coordenadas de la detección, adquiridas por la técnica de post-detección de puntos característicos de la cara pueden ser comparadas con las coordenadas de la detección adquiridas por la técnica de pre-detección de los puntos característicos de la cara. Después, si las coordenadas de la post-detección se desvían en menos que una región predeterminada de las coordenadas de -a pre-detección, el resultado de la post-detección puede ser usado; y si las coordenadas de la post-detección se desvía en más que la región predeterminada con relación a las coordenadas de la pre-detección, de la técnica de pre-detección de los puntos característicos puede ser mantenida.
Mediante la primera y la segunda modalidades descritas anteriormente, se selecciona una técnica de detección de puntos característicos apropiada, de acuerdo con el tamaño de una región de la cara en los datos de imagen, de modo tal que se puede suprimir la degradación de la precisión de reconocimiento de la cara.
La FIG. 11 es un diagrama de bloques que ilustra un ejemplo de una configuración de un aparato 1000 para el reconocimiento de la cara de acuerdo con una tercera modalidad. Como se ilustra en la FIG. 11, el aparato 1000 para el reconocimiento de la cara incluye una unidad 1010 de entrada de imagen, un detector 1020 de la cara, un detector 1030 de puntos característicos de la cara, una unidad 1040 de administración del resultado de la detección, una unidad 1050 de corrección del resultado de la detección, y una unidad 1060 de salida. También, el aparato 1000 para el reconocimiento de la cara lleva a cabo la autentificación de una persona H con base en una imagen de video capturada por una cámara 1500.
La cámara 1500 lleva a cabo el fotografiado de una región predeterminada. Por ejemplo, la cámara 1500 es una cámara de monitoreo que lleva a cabo el fotografiado en un área de entrada y salida de un camino de acceso, o los similares, y genera los datos de video correspondientes al resultado del fotografiado. Después, la unidad 1010 de entrada de imagen introduce los datos de video de la cámara 1500.
La cámara 1500 puede ser instalada en al menos un lugar, o en una pluralidad de puntos. También, la cámara 1500 se usa para introducir una imagen de la cara de una persona presente en una región predeterminada, y por ejemplo, es una ITV (televisión industrial), la cámara 1500 genera datos de imagen en cuadros a una velocidad de cuadro predeterminada, al digitalizar la información óptica capturada a través de la lente de la cámara por medio de un convertidor A/D, y transmite los datos de imagen en cuadros al aparato 1000 para el reconocimiento de la cara.
La FIG. 12 es un diagrama conceptual que ilustra un ejemplo de la entrada de datos de video de la cámara 1500. Como se ilustra en la FIG. 12, cuando la persona H camina hacia la cámara 1500, la cámara 1500 captura una serie de cuadros de imagen Gl a G4. Los cuadros Gl a G4 de imagen capturados por la cámara 1500 se introducen a la unidad 1010 de entrada de imágenes en el aparato 1000 para el reconocimiento de la cara. Además, en la presente modalidad, una entrada de datos de video capturados por la cámara 1500 se ilustra como un ejemplo. Sin embargo, no es necesario decir que la entrada de datos de video a la unidad 1010 de entrada de imágenes puede corresponder a datos de video registrados en una DVR (grabadora de video digital) o los similares.
La FIG. 13 es un diagrama de flujo que ilustra un ejemplo de una operación del aparato 100 para el reconocimiento de la cara de acuerdo con una tercera modalidad. A partir de aquí se describirá en detalle la operación con referencia al diagrama de flujo ilustrado en la FIG. 13, en orden del detector 1020 de la cara, el detector 1030 de puntos característicos de la cara, la unidad 1040 de administración el resultado de la detección, la unidad 1050 de corrección del resultado de la detección, y la unidad 1060 de salida ilustradas en la FIG. 11.
El detector 1020 de la cara detecta una región de la cara que representa la cara de la misma persona a través de una pluralidad de cuadros de imagen, a partir de los datos de ideo introducidos por la unidad 1010 de entrada de imagen (SI de la FIG. 13) . Específicamente, el detector 1020 de la cara detecta una región de la cara de la siguiente manera. Primero, el detector 1020 de la cara obtiene las coordenadas que representan una región de la cara, usando la información de luminancia en los datos de video en los datos de video de entrada (cada cuadro de imagen) . Cualquier técnica puede ser usada como una técnica para detectar la región de la cara. La presente modalidad lleva a cabo la detección de la región de la cara usando, por ejemplo, la técnica descrita en la literatura (MITA, Takeshi, et al.: "Joint Haar-like Features Based on Concurrence Suitable for Face Detection", the Institute of Electronics Information and Communication Engineers Journal (D), vol. J89-D, 8, pp. 1791-1801 (2006)) . Como un ejemplo de otra técnica de detección, puede haber una técnica de obtención de valores de correlación mientras se cambia una plantilla preparada dentro de los datos de imagen de entrada, y detectar una posición que proporciona el valor de correlación más alto, como una región de la cara, o una técnica de uso de un método de extracción usando un método eigenespacial , un método subespacial, o los similares.
También, la forma de la región de la cara detectada puede ser cualquier forma, y la forma de una región de la cara puede variar de acuerdo con el resultado de la detección de la dirección o el tamaño de la cara. Con el propósito de facilitar la descripción, la presente modalidad detecta una región de cara rectangular. La FIG. 14 es un diagrama conceptual que ilustra un ejemplo de la detección de una región de la cara a partir de un cuadro de imagen GIO. Como se ilustra en la FIG. 14, las coordenadas que representan los vértices de las regiones de cara rectangulares Rl a R3 en el cuadro de imagen GIO se toman como los resultados de la detección de una región de la cara.
Por cierto, en el caso de los datos de imagen capturados por una cámara de monitoreo o las similares, es probable que se observe la cara detectada de la misma persona continuamente durante una pluralidad de cuadros. Por esta razón es necesario rastrear la cara de una persona de modo tal que estas puedan corresponder a la misma persona. Este rastreo puede ser implementado usando, por ejemplo, una técnica para estimar en cual posición en un cuadro siguiente está presente la cara detectada, usando un flujo óptico, de igualando la misma a este. Este rastreo se continúa hasta que se lleve a cabo la determinación del final del rastreo (Si en S3 de la FIG. 13) . Ya que la región de la cara correspondiente a la misma persona no se detecta en el detector 1020 de la cara. Entonces, con el fin de reconocer a una persona, el extractor 1061 de características a ser descrito a continuación, puede seleccionar al menso una imagen apropiada de entre una región de la cara de una pluralidad de cuadros correspondientes a la misma persona, y extrae la información de las características de la cara de una región seleccionada de la cara. También, el extractor 1061 de características puede extraer la información de las características de la cara siempre que el tamaño de la región de la cara se incremente, de modo tal que cualquier número de datos de imagen puede ser usado para la detección hasta que se detecte una región de la cara de tamaño máximo.
El detector 1030 de puntos característicos de la cara lleva a cabo un proceso de detección de los puntos característicos de la cara, para la detección de un puntos característico de la cara, como por ejemplo un ojo, la nariz, o los similares, para cada cuadro de imagen de una región de la cara detectada durante una pluralidad de cuadros de imagen por el detector 1020 de la cara a través del proceso de rastreo (S2 de la FIG. 13) . La FIG. 15 es un diagrama conceptual que ilustra un ejemplo de la detección de los puntos característicos de la cara Rll a R14 a partir de un cuadro de imagen Gil de una región detectada de la cara. Como se ilustra en la FIG. 15, los puntos característicos Rll a R14 que corresponden a las pupilas de ambos ojos y ambas esquinas de la boca se detectan en el cuadro de imagen Gil de la región de la cara detectada por el detector 1020 de la cara. Además, los puntos característicos de la cara a ser detectados pueden variar al azar de acuerdo con los ajustes.
Un método para detectar un punto característico de la cara mediante el detector 1030 de puntos característicos de la cara puede ser implementado, por ejemplo, mediante un método descrito en la literatura (FUKUI Kazuhiro, YAMAGUCHI Osamu: "Face Feature Point Extraction by Combination of Shape Extraction and Pattern Check", the Institute of Electronics Information and Communication Engineers Journal (D), vol. J80-D-II, No. 8, pp. 2170-2177 (1997)). En la presente modalidad se describe un ejemplo del uso de una característica de una región de la cara. Sin embargo, aun en el caso de un aparato para determinar si un objetivo es una cara, con base en una imagen de un iris/retina/ojo, la detección se puede llevar a cabo, por ejemplo, haciendo un acercamiento de la cámara con base en una región del ojo detectada mediante el proceso anterior. También, además, de la detección del ojo/nariz, la detección de una región de la boca puede ser implementada fácilmente usando la técnica descrita en la literatura (YUASA Mayumi, NAKAJIMA Akiko: "Digital Make System Base on High-accuracy Face Feature Point Detection", Proceedings of the 10th Symposium on Image Sensing, pp. 219-224 (2004)). En cualquier caso, la información capaz de ser tratada como una imagen de arreglo bidimensional puede ser adquirida, y puede ser detectada una región característica de la cara a partir de la información.
También, con el fin de extraer solo una característica de la cara a partir de una imagen, el proceso de detección puede obtener un valor de correlación de una imagen completa con respecto a una plantilla y transmite la posición y el tamaño máximos. Con el fin de extraer una pluralidad de características de la cara, el proceso de detección puede obtener un valor local máximo de un valor de correlación de una imagen completa, contra una posición candidata de la cara en consideración de un traslape en una imagen, y finalmente encuentra una pluralidad de características de la cara simultáneamente, en consideración de su relación con las imágenes previamente introducidas de forma continua.
También, con el fin de llevar a cabo la detección aun en el caso de personas que llevan a una máscara, lentes de sol o un sombrero, una plantilla puede ser aprendida previamente con un patrón de la cara en el caso donde una porción de la cara este cubierta con lentes de sol, una máscara, o un sombrero. Aun si todos los puntos característicos de la cara no pueden ser detectados, si algunos puntos característicos de la cara se detectan con valores de evaluación suficientes, los otros puntos característicos pueden ser pronosticados a partir de un punto característico detectado usando un modelo bidimensional o tridimensional de la cara. Si un punto característico está cubierto con una máscara, un sombrero, o lentes para el sol de modo tal que el punto característico no puede ser detectado en absoluto, la detección puede ser implementada aprendiendo previamente el patrón completo de la cara, detectando la posición de la cara completa, y pronosticando un punto característico a partir de la posición de la cara completa. También, aun si una pluralidad de caras está presente en una imagen, la detección puede ser implementada llevando a cabo el mismo proceso sobre cada cara.
La unidad 1040 de administración del resultado de la detección es una base de datos que almacena la información sobre la posición de una cara y la posición de un punto característico de la cara obtenidas por el detector 1020 de la cara y el detector 1030 de puntos característicos de la cara, la información coincidente de la misma persona entre los cuadros obtenidos mediante un proceso de rastreo, la información de imagen de la cara, la información de imagen del fondo, y otra información, como por ejemplo, el horario y el lugar. La unidad 1050 de corrección del resultado de la detección corrige la información de posición de un punto característico de la cara con referencia a la base de datos de la unidad 1040 de administración del resultado de la detección. La unidad 1040 de administración del resultado de la detección puede almacenar los datos después de la aplicación de la unidad 1050 de corrección del resultado de la detección (información de posición de un punto característico de la cara después de la corrección) .
La unidad 1050 de corrección el resultado de la corrección verifica la precisión de la detección de un punto característico de la cara detectado para cada cuadro de imagen, al comparar las coordenadas de un punto característico de la cara detectado para cada cuadro de imagen entre los cuadros de imagen. La unidad 1050 de corrección del resultado de la corrección lleva a cabo un proceso de corrección del resultado de la detección para corregir el resultado de la detección de un punto característico de la cara detectado por el detector 1030 de puntos característicos de la cara, al llevar a cabo al menos una exclusión de un punto característico de la cara que no satisface la precisión de detección predeterminada del resultado de la detección y la corrección de las coordenadas de un punto característico de la cara que no satisfacen una precisión de detección predeterminada (S4 de la FIG. 13) .
A partir de aquí se describirá un método de implementación detallado de un proceso de corrección del resultado de la detección llevado a cabo por la unidad 1050 de corrección del resultado de la detección. El proceso de corrección del resultado de la detección puede ser dividido ampliamente en la Etapa de verificación de la precisión de la detección y la Etapa de exclusión o corrección de los cuadros que se determinan con precisión baja, como resultado de la verificación .
Primero se describirá un método de verificación de la precisión de la detección. Se asume que cuando una persona H es rastreada por cuadros, se proporcionan una cadena de resultado de detección de la cara (x_l, y_l),..., (x_t, y_t) y una cadena de resultado de detección del punto característico p(l), p(2), p(t). Aquí, p(l), p(2), p(t) es un vector de 2M elementos correspondiente a un arreglo de x/y valores coordenados de M partes de la cara. En este momento, un desplazamiento d(p(t), p(t-l)) se calcula con respecto a los cuadros adyacentes. Cuando el desplazamiento es mayor que un valor umbral T, este se considera como una falla de o detección y el resultado de la detección se elimina. En este caso, además de los cuadros adyacentes, pueden ser seleccionados dos o más cuadros distintos a los cuadros adyacentes. Para cada parte, se calcula un valor promedio y un valor medio con respecto a los cuadros consecutivos r (r=l, t) . Cuando el valor es mayor que un valor umbral predeterminado, esto se considera una variación diferente de un factor por el movimiento de una persona, y se determinan como coordenadas que tienen precisión de detección baja. Además, el desplazamiento, aun cuando es una norma Euclidiana, inclusiva la norma 1, puede ser cualquier distancia. La escala puede ser ajustada de acuerdo con el tamaño de la cara.
La FIG. 16 es un diagrama conceptual que ilustra un ejemplo de un punto característico de la cara detectado de cada uno de los cuadros de imagen G21 a G23. En los cuadros de imagen G21 a G23 ilustrados en la FIG. 16, ya que el desplazamiento de un punto característico Rll de x(t) en un punto característico Rll de x(t-2) a x(t) es grande, se considera como una falla de detección.
Con respecto al cuadro que se ha determinado con precisión de detección baja en la etapa previa, se lleva a cabo la exclusión o la corrección del resultado de la detección. Para la exclusión del resultado de la detección, una o ambas coordenadas de la detección de la región de la cara y las coordenadas de detección de un punto característico de la cara no se detectan, la información se excluye, y estas no se transmiten a la unidad 1060 de salida.
La FIG. 17 es un diagrama de lujo que ilustra un ejemplo del proceso de corrección del resultado de la detección. Más específicamente, en el proceso de corrección del resultado de la detección de la FIG. 17, si la diferencia entre las coordenadas de un punto característico de la cara detectado en cada cuadro de imagen y un valor promedio de las coordenadas de los puntos característicos de la cara detectados de una pluralidad de imágenes es mayor que un valor predeterminado, el punto característico de la cara se determina como un punto característico de la cara que no satisface una precisión de detección predeterminada.
Como se ilustra en la FIG. 17, si el punto característico de la cara se detecta mediante el detector 1030 de puntos característicos de la cara (S2) , la unidad 1050 de corrección del resultado de la detección calcula un promedio entre los cuadros con respecto a las coordenadas de los puntos característicos de la cara detectados de una pluralidad de cuadros de imagen (S41) . Después, la unidad 1050 de corrección del resultado de la detección calcula una diferencia entre las coordenadas de un punto característico de la cara detectado en cada cuadro de imagen y el promedio calculado en S41 (S42), y determina so la diferencia es igual o mayor que un valor umbral predeterminado (S43) .
Si la diferencia es menor que el valor umbral predeterminado (No en S43) , la unidad 1050 de corrección del resultado de la detección determina que la detección de un punto característico de la cara se ha llevado a cabo de forma exitosa, y transmite el resultado de la detección del punto característico de la cara a la unidad 1060 de salida. Si la diferencia es igual o mayor que el valor umbral predeterminado (Sí en S43) , la unidad 1050 de corrección del resultado de la detección determina del punto característico de la cara como una falla de la detección, y excluye el resultado de la detección del punto característico de la cara (S45) .
La FIG. 18 es un diagrama de flujo que ilustra un ejemplo del proceso de corrección del resultado de la detección. Más específicamente, en el proceso de corrección del resultado de la detección de la FIG. 18, si el movimiento entre las coordenadas de un punto característico de la cara detectado en cada cuadro de imagen y las coordenadas de un punto característico de la cara detectado del cuadro de imagen más cercano es mayor que un valor predeterminado, un punto característico de la cara mayor que un valor predeterminado se determina como un punto característico de la cara que no satisface la precisión de detección predeterminada.
Como se ilustra en la FIG. 18, si un punto característico de la cara se detecta por el detector 1030 de puntos característicos de la cara (S2), la unidad 1050 de corrección del resultado de la detección inicializa un parámetro 1 para contabilizar el número de partes de la cara correspondientes a los puntos característicos de la cara (i =1) (S51) y lleva a cabo las etapas S2 a S7 en cada cuadro de imagen hasta que del conteo sea mayor que el número (N) de todas las partes de la cara (i > N) .
Específicamente, la unidad 1050 de corrección del resultado de la detección calcula un movimiento (d(t) = ||x(t) - x(t—1) II) del cuadro más cercano con respecto a una parte (i) de un punto característico de la cara (S53), y calcula un promedio de los movimientos de las otras partes distintas a la parte (i) (S54) . Después, la unidad 1050 de corrección del resultado de la detección determina si la diferencia entre los valores calculada en S53 y S54 es igual o mayor que un valor umbral predeterminado (S55) . Si la diferencia es menor que el valor umbral predeterminado (No en S55) , la detección del punto característico de la cara se lleva a cabo de forma exitosa. Después, el parámetro i se incrementa (S56) , y el proceso regresa a S52. Si la diferencia es igual o mayor que el valor umbral predeterminado (Sí en S55) , se determina que la detección de un punto característico de la cara ha fallado. Después, el resultado de la detección del punto característico de la cara se excluye, el parámetro i se incrementa (S57) y el proceso regresa a S523. Después de la ejecución del procesamiento de S52 a S57 (Sí en S52), la unidad 1050 de corrección del resultado de la detección transmite los resultados de la detección distintos al resultado de la detección excluido en S57 a la unidad 1060 de salida (S58) .
Además, en el proceso de corrección del resultado de la detección descrito anteriormente, en un cuadro de imagen, si el número de puntos característicos de la cara determinados como una falla de detección es igual o mayor que un valor umbral predeterminado, todos los puntos característicos de la cara detectados del cuadro de imagen pueden ser corregidos o excluidos del resultado de la detección. La FIG. 19 es un diagrama conceptual que ilustra un ejemplo de un punto característico de la cara detectado de cada cuadro de imagen G31 a G32. Como se ilustra en la FIG. 19, si dios puntos característicos Rll y R14 en el cuadro "de imagen G32 se determinan como una falla de detección, ya que la imagen de la cara en el cuadro de imagen G32 es poco confiable debido a mezclado del ruido, el punto característico de la cara en el cuadro de imagen G32 se corrige o se excluye del resultado de la detección.
La FIG. 20 es un diagrama de flujo que ilustra un ejemplo del proceso de corrección del resultado de la corrección.
En el proceso de corrección del resultado de la detección de la FIG. 20, si el número de puntos característicos de la cara determinados como una falla de detección es igual o mayor que un valor umbral predeterminado, todos los puntos característicos de la cara detectados del cuadro de imagen se excluyen del resultado de la detección.
Como se ilustra en la FIG. 20, si un punto característico de la cara es detectado por el detector 1030 de puntos característicos de la cara (S2), la unidad 1050 de corrección del resultado de la detección inicializa un parámetro i para contabilizar el número de partes de la cara correspondientes a los puntos característicos de la cara ( i = 1) e inicializa un parámetro C para contabilizar el número de puntos característicos de la cara determinados como una falla de detección (C =0) (S61) , y lleva a cabo las etapas S62 a S66 en cada cuadro de imagen hasta que el conteo es mayor que el número (N) de todas las partes de la cara (i > N) .
Específicamente, la unidad 1050 de corrección del resultado de la detección calcula un movimiento (d(t) = ||x(t) - x ( t—1 ) II ) desde el cuadro más cercano con respecto a una parte (i) de un punto característico de la cara (S63) , incrementa el parámetro i (S64), y determina si el movimiento calculado en S63 es igual o mayor que un valor umbral predeterminado T (S65) . Si el movimiento es igual o mayor que el valor umbral predeterminado T (Si en S65) , el punto característico de la cara se determina como una falla de detección. Entonces el parámetro C se incrementa (S66) , y el proceso regresa a S62. Si el movimiento es menor que el valor umbral predeterminado T (No en S65) , la detección del punto característico de la cara se determina como llevada a cabo de forma exitosa. Entonces el parámetro C no se incrementa, y el proceso regresa a S62.
Después de ejecutar el procesamiento de las etapas S62 a S66 (Sí en S62), la unidad 1050 de corrección del resultado de la detección determina si el parámetro C es igual o mayor que un valor umbral predeterminado O, es decir, si el número de puntos característicos de la cara determinados como una falla de detección en un cuadro de imagen es igual o mayor que el valor umbral predeterminado O (S67) . Si el parámetro C es menor que el valor umbral predeterminado O (No en S67) , la unidad 1050 de corrección del resultado de la detección transmite el punto característico de la cara detectado del cuadro de imagen a la unidad 1060 de° salida (S68) . Si el parámetro C es igual o mayor que el valor umbral predeterminado O (Si en S67), la unidad 1050 de corrección del resultado de la detección excluye el punto característico de la cara detectado del cuadro de imagen, del resultado de la detección (S69) .
Por otro lado, para la corrección del resultado de la detección, la corrección se lleva a cabo usando la información sobre las coordenadas de los puntos característicos de la cara o las coordenadas de la región de la cara y otros cuadros correspondientes a la misma persona. Específicamente, con el fin de corregir un valor coordenado de un cuadro T, el cuadro T se pronostica agregando un movimiento de un cuadro (T-2) a un cuadro (T-l) al cuadro (T-l) , o este puede ser implementado por un método simple para el cálculo de un valor promedio de los cuadros (T-l) y (T+l) (promedio móvil) y obtener las coordenadas del cuadro T. además, si se observa un movimiento desde el cuadro (t-2) al cuadro (t-l), se puede pronosticar que se presenta en el cuadro t en el caso de una operación similar. Si la cara se detecta en el cuadro t en la forma correspondiente a las coordenadas, la corrección es innecesaria. Si la cara se detecta en una posición extremadamente desviada, se determina que hay una posibilidad de que la precisión sea baja. Además, aunque el uso de dos cuadros distintos al cuadro T se ilustra en esta descripción, la precisión puede ser aumentada al aumentar el número de cuadros o llevando a cabo una predicción no linean en lugar de la predicción lineal.
La FIG. 21 es un diagrama conceptual que ilustra un ejemplo de la corrección de un punto característico de la cara detectado en cada uno de los cuadros de imagen G21 a G23 por un promedio del movimiento. En los cuadros de imagen G21 a G23 ilustrados en la FIG. 21, ya que el desplazamiento de un punto característico Rll de x(t) en un punto característico Rll de x(t-2) a x(t) es grande, esto se considera como una falla de detección. El punto característico Rll se corrige como un punto característico Rila calculado con base en el promedio del movimiento del punto característico Rll detectado en los cuadros de imagen G21 y G22.
La FIG. 22 es un diagrama de flujo que ilustra un ejemplo del procesamiento de corrección del resultado de la detección en el caso de la corrección por un promedio móvil. Como se ilustra en la FIG. 22, si un punto característico de la cara se detecta por el detector 1030 de puntos característicos de la cara (S2) , la unidad 1050 de corrección del resultado de la detección inicializa un parámetro i para contabilizar el número de cuadros de retorno (i = 1) y obtiene un punto característico de la cara x(t) (S71) , y lleva a cabo las etapas S72 a S75 hasta que devuelve el número (T) de cuadros (i > T) .
Específicamente, la unidad 1050 de corrección del resultado de la detección calcula c(i) = 1/T (S73) , calcula un promedio móvil (x(t) = x(t) + c(t) -x(t-l)) de un punto característico de la cara entre los cuadros de retorno (S74), e incrementa del parámetro i (S75) . Entonces, el proceso regresa a S72.
Después de la ejecución del procesamiento de las etapas S72 a S75 (Sí en S72), la unidad 1050 de corrección del resultado de la corrección transmite el punto característico de la cara calculado por el promedio móvil a la unidad 1060 de salida (S76) .
También esto se puede materializar en un modo para pronosticar la posición de la cara en una serie de instantes al encontrar la diferencia entre un modelo que sume que la persona está en movimiento. Específicamente, esto se puede implementar usando una técnica de predicción en una serie de instantes tal como un filtro de partículas (D. ???7???, K. Otsuka, J. Yamato, Memory-based Particle Filter for Face Pose Tracking Robust under Complex Dynamics, CVPR 2009, pp. 999-1006), y el modelo ARMA (M. H. Ghaeminia, A. H. Shabani, S. B. Shokpuhi, Adaptive Motion Model for Human Tracking Using Particle Filter, ICPR 2010, pp. 2073-2076) .
Se ha descrito anteriormente que el proceso de coordenadas de los puntos característicos se ejecuta independientemente del estado de la cara. Sin embargo el peso de una imagen usada en el proceso de corrección puede variar de acuerdo con la dirección de la cara o el tamaño de la cara. Por ejemplo, se puede preparar por adelantado una pluralidad de patrones de la cara con diferentes direcciones, y estos se pueden implementar mediante un método simple para determinar la dirección usando la correspondencia con un patrón de la cara introducido. Si se requiere la dirección con mayor precisión, un arreglo tridimensional de la cara original puede ser obtenido a partir de un arreglo en una imagen bidimensional de un punto característico de la cara detectado, y la dirección de la cara puede ser obtenida con una técnica similar .
Cuando se corrigen las coordenadas del punto característico anterior, las coordenadas de una región que muestra la cara es usan con prioridad alta, y un lugar que no muestra la cara se usa con prioridad baja, haciendo posible por esto aumentar la calidad de la imagen. La FIG. 23 es un diagrama conceptual que ilustra un ejemplo del caso de cambio de de cada uno de los cuadros de imagen G41 a G43. Por ejemplo, como se ilustra en la FIG. 23, ya que existe el caso donde la cara está orientada hacia abajo como en el cuadro de imagen G42 de acuerdo con una posición de andadura durante un paso de andadura, la región visible de la cara es diferente. En este caso, si la persona viene hacia el frente o se presenta, la región superior de la cara puede ser usada preferiblemente, pero la región inferior de la cara, la cual es difícil de observar debido a la influencia de un ángulo de depresión (tal como la boca, la mandíbula, y las fosas nasales) puede no ser usada activamente. En otras palabras, la ponderación de un punto característico Rll detectado en el cuadro de imagen G41 se incrementa, y la ponderación de un punto característico Rll detectado en el cuadro de imagen G42 se reduce. Entonces, un punto característico Rll del cuadro de imagen G43 determinado como una falla de la detección se corrige como un punto característico Rllb obtenido por un promedio ponderado. También, además de la influencia del ángulo de depresión, siempre que la dirección de la cara de una persona cambia mientras la persona observa alrededor, una región de alta prioridad y una región de baja prioridad pueden ser cambiadas, evitándose por ello la degradación de la precisión de detección de las coordenadas. En la descripción anterior esto se puede implementar promediando el peso y cambiando el cálculo a un promedio ponderado.
La FIG. 24 es un diagrama de flujo que ilustra un ejemplo del procesamiento de corrección del resultado de la detección en el caso del cambio de un valor de ponderación. Como se ilustra en la FIG. 24, después del "No" de la etapa S72, mencionado anteriormente, la unidad 1050 de corrección del resultado de la detección calcula el ángulo de la cara f del cuadro (t-i) con base en las coordenadas del punto característico de la cara incluido en el cuadro (S72a) . Después, la unidad 1050 de corrección del resultado de la detección determina si el ángulo de la cara f calculado en S72a es igual o mayor que el valor umbral predeterminado F, por ejemplo si la cara está mirando hacia abajo (S72b) .
Cuando el ángulo de la cara f es menor que el valor umbral predeterminado F (No en S72b) , por ejemplo, ya que la cara está mirando hacia el frente, la unidad 1050 de corrección del resultado de la detección calcula un promedio móvil con un valor original (peso: 1) (S73 a S75) , por ejemplo, ya que la cara está mirando hacia abajo, la unidad 1050 de corrección del resultado de la detección determina que c(i)=0 (peso: 0) (s72C) y calcula el promedio móvil (S74 y S75) .
Regresando a la descripción con referencia a las FIGS. 11 y 13. En la presente modalidad, con relación al resultado obtenido de la unidad 1050 de corrección del resultado de la detección con respecto a una imagen de la cámara 1500 que muestra el resultado en una pantalla 1064 tal como un monitor de cristal liquido o un monitor CRT, la unidad 1060 de salida transmite el resultado de detección de la cara al sobreponer-desplegar la información rectangular que presenta una región de la cara. También, como un sistema, junto con la información de la posición en una imagen de detección de la cara o la detección del punto característico de la cara, la región que incluye una imagen de la cara o una imagen de entrada completa puede ser extraída y almacenada.
También, aunque se ha descrito una aplicación para detectar la cara a partir de una imagen y desplegar y almacenar la misma, el sistema puede ser extendido y aplicado para mejorar la precisión de la correspondencia de una imagen de la cara de una persona, la configuración básica del mismo comprende el extractor 1061 de características, la unidad 1062 de administración de la información de las personas, una unidad 1063 de reconocimiento, y la pantalla 1064.
El extractor 1061 de características produce la información de las características (de aquí en adelante "características de la cara" se refiere a la información de las características para la identificación de una persona) para la identificación de una persona, a parte de la información de la región de la cara (el punto característico de la cara producid a través de la unidad 1050 de corrección del resultado de la detección) como valore numéricos. Primero, se extrae una región de la cara a un tamaño predeterminado y en una forma predeterminada con base en la posición de una parte de la cara detectada por el detector 1020 de la cara, y el sombreado de la información de la misma se usa como una cantidad característica. Aquí el valor de sombreado de una región de m*n pixeles se usa como la información, y la información m*n dimensional se usa como un vector característico. Específicamente, el vector y la longitud del vector se normalizan a 1 mediante un método de similitud simple, y el producto interno se calcula para obtener un grado de similitud que representa la similitud entre los vectores característicos. En detalle, esto se implementa usando un método subespacial como se describe en la literatura (escrito por Erkki Oja y Traducido por OGA A Hidemitsu y SATO Makoto, "Pattern Recognition and Subspace Method", Industrial Book (Sangyotosho) , 1996) .
Una técnica para mejora la precisión al generar una imagen cambiando intencionalmente la dirección o el estado de la cara usando un modelo con respecto a un fragmento de la información de la imagen de la cara, del cual se describe en la' literatura (TOSHIBA (KOZAKAYA Tatsuo) : "Image Recognizing Apparatus, Method and Program", Solicitud de Patente Japonesa Abierta a Inspección Pública No. 2007-4767 A), también puede ser aplicado. Cuando se obtiene una característica de la cara a partir de una imagen, la extracción de las características de la cara se completa por el proceso anterior, . Por otro lado, el procesamiento de reconocimiento con mayor precisión puede ser ejecutado llevando a cabo el cálculo con base en una imagen de video usando una pluralidad de imágenes consecutivas con respecto a la misma persona. Específicamente, puede ser usado un método subespacial mutuo descrito en la literatura (FUKUI Kazuhiro, YAMAGUCHI Osamu, MAEDA Kenichi: "Face Recognizing System Using Video Image", The Institute of Electronics Information and Communication Engineers Research Report PRMU, vol. 97, No. - 113, pp. 17-24 (1997)) o la literatura (MAEDA Kenichi, WATANABE Sataichi: "Pattern Matching Method Using Local Structure", the Institute of Electronics Information and Communication Engineers Journal (D), vol. J68-D, No. 3, pp. 345-352 (1985)).
Al igual que el detector 1030 de puntos característicos de la cara, el extractor 1061 de características extrae una imagen de m*n pixeles de una imagen obtenida secuencialmente por la unidad 1010 de entrada de imagen, calcula una matriz de correlación de un vector característico a partir de los datos, obtiene un vector ortonormal por desarrollo K-L, y calcula un subespacio que representa una característica de la cara obtenida a partir de imágenes consecutivas. El subespacio puede ser calculado obteniendo una matriz de correlación (o una matriz de covarianza) del vector característico y obteniendo un vector ortonormal (eigen vector) por desarrollo K-L del mismo. Un número k de eigenvectores se correspondientes a los eigen valores se selecciona en orden descendente de eigen valor, y el subespacio se expresa usando un conjunto de eigen vectores seleccionados. En la presente modalidad, una matriz de correlación Cd se obtiene a partir de un vector característico y se diagonaliza con una matriz de correlación Cd = dAd dT, por lo cual se obtiene una matriz F de un eigen vector. Esta información es un subespacio que representa una característica de la cara de una persona a ser reconocida concurrentemente. La información de las características tal como el subespacio producido mediante tal método se refiere a la información de las características de una persona sobre una cara detectada a parto de una imagen de entrada .
La unidad 1062 de administración de la información de las personas es una base de datos que se usa para realizar búsquedas por la unidad 1063 de reconocimiento a ser descrita más adelante. La unidad 1062 de administración de la información de las personas administra la información de las características de la cara producida por el extractor 106 de características en cada persona que es un objetivo a ser buscado, y la información adicional sobre una persona tal como la información de los atributos tales como el sexo, la edad, la altura de una persona, la cual puede ser determinada por medios para la determinación de los atributos, correspondientes a la misma persona. Los contenidos que son administrados realmente como la información de las características de la cara y la información de las características de los atributos pueden ser los datos producidos desde el extractor 1061 de características, o pueden ser un vector característico de mxn, un subespacio, o una matriz de correlación inmediatamente antes de la ejecución del desarrollo KL. Además, la información de las características producida por el extractor 1061 de características se administra junto con una imagen de la cara introducida desde la unidad 1010 de entrada de imagen para su registro, de modo tal que esta se puede usar para la búsqueda de una persona o el despliegue de la búsqueda. Además, también es posible especificar la prioridad de los resultados de la búsqueda al especificar la presencia o la ausencia del manejo cuidadoso, lo cual se describirá más adelante.
La unidad 1063 de reconocimiento calcula la similitud entre la información de las características de la cara de la imagen de entrada obtenida por el extractor 1061 de características y la información de las características de la cara almacenada en la unidad 1062 de administración de la información de las personas correspondiente, y devuelve los resultados en orden descendente de similitud. También, como se describe en la unidad 1062 de administración de la información de las personas, también es posible buscar solo una porción de la unidad 1062 de administración de la información de las personas, estrechando la información de los atributos predeterminada. En este caso, como los resultados del procesamiento de búsqueda, se devuelve un ID de las persona, manejado por la unidad 1062 de administración de la información de las personas en orden descendente de similitud para la identi icación de una persona, y un índice que indica la similitud que es el resultado del cálculo. Además, la información administrada para cada persona por la unidad 1062 de administración de la información de las personas puede ser devuelta de forma conjunta. Sin embargo, ya que esta puede ser igualada básicamente por un ID de identificación, el procesamiento de búsqueda puede ser implementado sin el intercambio de información adicional.
Un índice que indica la similitud es un grado de similitud entre los subespacios administrados como la información de las características de la cara. Como el método de cálculo se puede usar un método subespacial, un método de similitud múltiple o los similares. En este método, los datos de reconocimiento entre la información de registro pre-almacenada y los datos de entrada pueden ser representados por un subespacio calculado a partir de una pluralidad de imágenes, y el ángulo entre dos subespacios se define como el grado de similitud. Aquí, un subespacio de entrada se llama el espacio de medios de entrada. Con respecto a un flujo de datos de entrada, igualmente una matriz de correlación Cin se calcula y se diagonaliza con Cin = F?????F???, y se calcula un eigen vector F??. La similitud (0.0 a 1.0) entre dos subespacios representados por F?? y <$>d se calcula y se usa como la similitud para el reconocimiento.
Un método de cálculo específico puede ser implementado por la literatura (Erkki Oja) descrito con respecto al extractor 1061 de características. También, una pluralidad de imágenes de la cara, correspondientes a la misma persona pueden ser pre-arreglados y proyectados sobre un subespacio para la identificación, para mejorar la precisión de la identificación, y el mismo procesamiento puede ser llevado a cabo por la literatura (FUKUI -KOZAKAYA) . Un método de búsqueda que usa una estructura de ÁRBOL puede ser usado para búsquedas de alta velocidad.
La pantalla 1064 puede incluir tanto un despliegue de los resultados de búsqueda de caras en tiempo real para desplegar el resultado en tiempo real de acuerdo con una condición designada entre los resultados buscados por la unidad 1063 de reconocimiento, y el despliegue de resultados de búsqueda fuera de linea para retener el resultado buscado por la unidad 1063 de reconocimiento como un historial de búsquedas, designando una condición más tarde, y desplegar solo el historial de búsqueda o ambos.
De los párrafos anteriores, cuando la cara de una persona H se detecta a partir de una imagen capturada por la carama 1500 instalada en un lugar alto para el monitoreo, el aparato 1000 para el reconocimiento de la cara de acuerdo con la presente modalidad verifica la precisión de la detección de un punto característico de la cara detectado en cada cuadro de imagen al comparar las coordenadas de un punto característico detectado en cada cuadro de imagen entre los cuadros de imagen, y corrige el resultado de la detección de un punto característico de la cara detectado al ejecutar al menos la exclusión de un punto característico de la cara que no satisface una precisión de detección predeterminada, del resultado de la detección y corregir las coordenadas de un punto característico de la cara que nos satisface una precisión de detección predeterminada. Por consiguiente, la precisión de la detección de la cara o la detección de los puntos característicos de la cara puede ser mejorada.
La FIG. 25 es un diagrama de bloques que ilustra un ejemplo de la configuración de un aparato 2000 para el reconocimiento de la cara de acuerdo con una cuarta modalidad. Como se ilustra en la FIG. 25, el aparato 2000 para el reconocimiento de la cara comprende una unidad 2010 de administración de la región de la cara detectada y una unidad 2020 de corrección de la imagen de la región de la cara que se configura para llevar a cabo el procesamiento entre el detector 1020 de la cara y el detector 1030 de puntos característicos de la cara.
La unidad 2010 de administración de la región de la cara detectada es una base de datos que es usada por la unidad 2020 de corrección imagen de la región de la cara a ser descrita más tarde, y es una base de datos que almacena la información de la posición de la cara obtenida por el detector 1020 de la cara, la información que corresponde al caminar de la misma persona entre los cuadros obtenidos por un proceso de rastreo, la información de la imagen de la cara, la información de la imagen de fondo, y otra información, tal como la hora y el lugar. Como la información administrada, se puede almacenar una cantidad de características después de la aplicación del procesamiento de extracción de características para el proceso de igualación o los similares. También, cuando una persona está cubierta con una máscara, lentes de sol, y otras personas, la información de las mismas puede ser almacenada.
Con referencia a la unidad 2010 de administración de la región de la cara detectada, con base en una pluralidad de imágenes de la cara correspondientes a las regiones de la cara detectadas a través de una pluralidad de imágenes de la cara, la unidad 2020 de corrección de imagen de la región de la cara corrige la calidad de la imagen de una región de la cara detectada a partir de un cuadro de imagen predeterminado. Específicamente, la unidad 2020 de corrección de imagen de la región de la cara selecciona uno o más cuadros de imagen de acuerdo a cada imagen a ser procesada a partir de una serie de imágenes de la cara y el resultado de la detección de la cara igualado y rastreado a través de una pluralidad de cuadros generados al capturar una serie de pasos de la misma persona por el detector 1020 de la cara, y corrige la calidad de la imagen usando diferentes cuadros de imagen capturados de la misma forma.
Específicamente, como se ilustra en la FIG. 12, el procesamiento, tal como la corrección o la combinación de imagen se ejecuta usando las características de la cara observada en un tamaño pequeño, en un lugar remoto de la cámara 1500 y las características de una cara observada en un tamaño grande en y un lugar cercano a la cámara. Aquí, el objetivo del procesamiento pueden ser todos los cuadros de imagen, o puede ser al menso un cuadro de imagen seleccionado del grupo de los cuadros de imagen que son más fáciles de observar como una imagen de la región de la cara de entre una pluralidad de imágenes con la cara orientada hacia el frente, y se determina si es necesaria la corrección de los cuadros de imagen extraídas.
Los objetivos de la determinación de la calidad de los cuadros de imagen son la brillantez de una imagen de la región de la cara, el contraste de una imagen de la región de la cara, la presencia/ausencia de ruido en una imagen de la región de la cara, el tamaño (resolución) de una imagen de la región de la cara y el grado de desenfoque de una imagen de la región de la cara. La brillantez puede ser determinada tomando un histograma del valor de luminancia de una región de la cara para encontrar un valor promedio de la misma o tomando un valor promedio de la luminancia incluida dentro de una desviación estándar predeterminada de un valor promedio. Cuando el valor promedio es mayo que un valor umbral del límite superior predeterminado, se determina como ^muy brillante' ; y cuando el valor anterior es menor que un valor umbral de límite inferior predeterminado, se determina como xmuy oscura'; y se realiza la corrección. Igualmente, el contraste puede ser obtenido creando un histograma de un valor de luminancia de una región de la cara y calculando una varianza de un valor de luminancia. La diferencia de los valores de luminancia puede ser obtenida tomando el valor de la brillantez y los valores de oscuridad al tiempo que se eliminan los valores marginales. Con relación al ruido, un componente de la frecuencia de una imagen de la región de la cara se obtiene por FFT, y se determina que el ruido es alto cuando el componente de frecuencia es igual o mayor que un valor umbral predeterminado es intenso. El tamaño puede ser el tamaño de una imagen de la región de la cara. Con elación al grado de desenfoque, al contrario de la determinación el ruido, la imagen de la región de la cara se procesa por FFT, y puede ser determinado como un desenfoque cuando la intensidad del componente de alta frecuencia es menor que un valor umbral predeterminado. Al calcular y obtener la distribución de varios valores de luminancia de esta manera, puede ser determinado si es necesaria la corrección, y esta determinación puede ser realizada en al menos una o todas ellas .
Como el procesamiento de corrección de la imagen llevado a cabo cuando es necesario como resultado de la determinación de la calidad anterior, se puede aplicar cualquier procesamiento siempre y cuando este sea un procesamiento corregible usando una pluralidad de imágenes. Específicamente, los procesamientos tales como la mejora de la resolución de la imagen de la región de la cara (procesamiento de alta resolución ( super-resolución) ) , eliminación del ruido, expansión de la graduación de la luminancia, y corrección de un estado de desenfoque pueden ser aplicados. En la presente modalidad, será aparente que al menos uno de estos procesamientos puede ser aplicable o todos estos procesamientos pueden ser aplicables simultáneamente.
El procesamiento de alta resolución (super-resolución) es un procesamiento que iguala un punto correspondiente entre una pluralidad de cuadros que no están separados temporalmente entre si, y después combinan las imágenes con mayor resolución más suavemente usando la información del valor de luminancia de los pixeles considerados como correspondientes a la misma o posición. Específicamente, esto puede ser implementado aplicando procesamiento de alta resolución, como por ejemplo, S.C. Park, .K. Park, y M. G. Kang., "Super-resolution image reconstruction : a technical overview", IEEE Signal Processing Magazine, 20(3):21-36, Mayo de 2003. También, en este caso, un proceso de emparejamiento de posicionamiento entre una pluralidad de cuadros es información importante. Por lo tanto, cuando se determina un cuadro usado en el procesamiento de alta resolución, se usa la información de la posición de la detección de la cara, . Cuando la cantidad de movimiento de la cara entre lo cuadros es igual o menor que un valor umbral predeterminado f, este no se usa en la superposición. Por otro lado, cuando, la cantidad de movimiento es igual o mayor que el valor umbral predeterminado F, la variación es grande. En este caso, ya que la detección es una detección falsa o el error en la superposición es grande, se determina que será usada en el procesamiento de alta resolución.
Al igual que el procesamiento de alta resolución, la eliminación del ruido puede ser realizada emparejando las coordenadas sobre una pluralidad de cuadros para emparejar los pixeles correspondientes al mismo lugar de una región de la imagen de una persona, y tomando tal información tal como un valor promedio y un valor medio después de la eliminación de un valor promedio o de los valores marginales entre una pluralidad de cuadros con base en la suposición de que la información de luminancia o de color es casi equivalente en la misma parte de la región de la cara.
Con relación a la expansión de la gradación de la luminancia, cuando las exposiciones de una pluralidad de imágenes son diferentes, estas pueden ser combinadas para llevar a cabo el procesamiento de alta gradación (por ejemplo, Paul E. Debevec Jitendra Malik: Recovering High Dynamic Range Radiance Maps from Photographs, SIGGRAPH 1997) .
Con relación a la corrección de la brillantez, después de llevar a cabo el mismo procesamiento como en la expansión de la gradación de la luminancia, cuando esta es demasiado brillante, se usa la información de la luminancia de un lado de gradación oscura; y cuando esta es demasiado oscura, se usa la información de luminancia de un lado de gradación brillante. Igualmente, con relación a la corrección del desenfoque después de llevar a cabo el emparejamiento de la posición en una pluralidad de cuadros, cuando es una región de información de borde débil (cuando la intensidad del borde es menor que un valor umbral predeterminado) , se usa el valor sin cambio o se toma un valor promedio de la información de luminancia o de color a través de una pluralidad de cuadros. Por consiguiente, el desenfoque de una imagen borrosa puede ser reducido usando una pluralidad de cuadros.
Se ha descrito anteriormente que estos procesamientos de corrección se llevan a cabo independientemente del estado de la cara. Sin embargo, el peso de una imagen usada en los procesamientos de corrección puede variar de acuerdo con la dirección de la cara o el tamaño de la cara, de forma similar a la segunda modalidad. Cuando la calidad de la imagen anterior se corrige, las coordenadas de una región que muestra la cara, se usan con baja prioridad, haciendo posible por ello aumentar la calidad de la imagen. Por ejemplo, durante un paso del caminado, como se ilustra en la FIG. 12, la región visible en la cara varia de acuerdo con las posiciones del andar. En este caso, cuando una persona avanza, la región superior de la cara puede ser usada preferiblemente, pero la región inferior de la cara, la cual es difícil de observar debido a la influencia del ángulo de depresión (como por ejemplo, la boca, la mandíbula, y las fosas nasales) puede no ser usada activamente. También, además de la influencia del ángulo de depresión, siempre que la dirección de la cara de una persona cambia cuando la persona mira alrededor, una región de alta prioridad y una región de baja prioridad pueden ser cambiadas, evitándose por ello la degradación de la calidad.
También, en estos procesamientos de corrección, la determinación sobre si se lleva a cabo la corrección puede ser cambiada al determinar la calidad de una imagen de entrada, y una región de la cara que tiene una mayor calidad que la imagen de entrada puede ser obtenida de acuerdo con la imagen de entrada.
La FIG. 26 se un diagrama de flujo que ilustra un ejemplo de una operación del aparato 2000 para el reconocimiento de la cara de acuerdo con la cuarta modalidad. Como se ilustra en la FIG. 26, la unidad 2020 de corrección de la imagen de la región de la cara determina si hay una cobertura de la cara, con base en el resultado de la detección del detector 1020 de la cara (Sla) . Cuando hay una cobertura de la cara (Sí en Sla) , de cuadro de imagen de excluye del procesamiento de corrección de la región de la cara descrito anteriormente (Slb) . Cuando no hay una cobertura de la cara (No en Sla) , la unidad 2020 de corrección de la imagen de la región de la cara lleva a cabo el procesamiento de corrección de la región de la cara (Slc) , descrito anteriormente. Después, el detector 1030 de los puntos característicos de la cara detecta un punto característico de la cara usando un cuadro de imagen en el cual la región de la cara está corregida (S2), y lleva a cabo el procesamiento transmisión a la unidad 1060 de salida (S5) . Por consiguiente, la detección de los puntos característicos con alta precisión puede ser llevada a cabo y la calidad de la imagen de una imagen almacenada puede ser mejorada.
La FIG. 27 es un diagrama que ilustra la configuración de los componentes físicos de los aparatos 100, 900, 1000, y 2000 para el reconocimiento de la cara de acuerdo con la primera, la segunda, tercera y cuarta modalidades. Como se ilustra en la FIG. 27, los aparatos 100, 900, 1000, y 2000 para el reconocimiento de la cara comprende una CPU 1101, una ROM (memoria de solo lectura) 1102, una RAM (memoria de acceso aleatorio) 1103, un I/F de comunicación 1104, una HDD 1105, un aparato 1106 de pantalla, un dispositivo 1107 de entrada tales como un teclado y un ratón, y una linera común de transmisiones conectada entre estos, y tiene una configuración de componentes basados en una computadora general.
Un programa para el reconocimiento de la cara ejecutado en los aparatos 100, 900, 1000, y 2000 para el reconocimiento de la cara de acuerdo con la presente modalidad puede ser registrado y proporcionado en forma de un archivo instalable o un archivo ejecutable en un medio de registro legible por computadora tales como un CD-ROM, discos flexibles (FD), o DVD (disco versátil digital) .
También, el programa para el reconocimiento de la cara en los aparatos 100, 900, 1000 y 2000 para el reconocimiento de la cara de acuerdo con la presente modalidad, puede ser proporcionado al ser almacenado en una computadora conectada a una red, tal como la Red internacional y después descargado a través de la red. También, el programa para el reconocimiento de la cara ejecutado en los aparatos 100, 900, 1000 y 2000 para el reconocimiento de la cara de acuerdo con la presente modalidad puede ser proporcionado o distribuido a través de una red, tal como la Red internacional. También, el programa para el reconocimiento de la cara de acuerdo con la presente modalidad puede ser proporcionado al ser pre-almacenado en una ROM o las similares.
El programa para el reconocimiento de la cara ejecutado en los aparatos 100, 900, 1000 y 2000 para el reconocimiento de la cara de acuerdo con la presente modalidad tiene una configuración de módulos gue incluye las configuraciones respectivas descritas anteriormente. En una configuración actual de los componentes físicos, cuando la CPU 1101 lee el programa para el reconocimiento de la cara desde el medio de almacenamiento anterior y ejecuta el mismo, las configuraciones respectivas se cargan y se crean en la RAM 1103.
Aunque se han descrito ciertas modalidades, estas modalidades han sido presentadas a manera de ejemplo solamente, y no tienen la intención de limitar el ámbito de las invenciones. En realidad, los métodos y los sistemas novedosos descritos aquí pueden ser implementados en una variedad de formas distintas; además, se pueden hacer varias omisiones, sustituciones y cambios en la forma de los métodos y los sistemas descritos aquí, sin apartarse del espíritu de las invenciones. Las reivindicaciones anexas y sus equivalentes tienen la intención de cubrir tales formar o modificaciones ya que estarían dentro del ámbito y el espíritu de las invenciones.

Claims (15)

REIVINDICACIONES
1. Un aparato para el reconocimiento de la cara, caracterizado porque comprende: una unidad de almacenamiento que almacena la información de las características de la cara sobre una característica de la cara de cara persona; una unidad de entrada que recibe la información de la imagen que incluye al menos la cara de una persona; un detector de la cara que detecta una región de la cara de la cara de la persona, a partir de la información de la imagen recibida por la unidad de entrada; un extractor que extrae la información de las características de la cara sobre una característica de la región de la cara detectada por el detector de la cara; y una unidad de reconocimiento que reconoce a las personas en la información de la imagen recibida por la unidad de entrada, con base en la información de las características extraída por la unidad de extracción y la información de las características de la cara almacenada en la unidad de almacenamiento.
2. El aparato para el reconocimiento de la cara de acuerdo con la Reivindicación 1, caracterizado porque, la unidad de entrada recibe datos de video, el detector de la cara detecta, a partir de los datos de video de entrada, una región de la cara, de la cara de una misma persona a través de una pluralidad de imágenes, el extractor detecta un punto característico de la cara para cada uno de los cuadros de imagen de la región de la cara detectada a través de los cuadros de imagen, el aparato para el reconocimiento de la cara comprende además una unidad de corrección configurada para verificar la precisión de la detección del punto característico de la cara detectado para cada uno de los cuadros de imagen comparando las coordenadas del punto característico de la cara detectado para uno de los cuadros de imagen y las coordenadas del punto característico de la cara detectado para otro de los cuadros de imagen, y corregir un resultado de la detección de los puntos característicos de la cara detectada al llevar a cabo al menos uno de la exclusión de un punto característico de la cara que no satisface una precisión de detección predeterminada, a partir del resultado de la detección y la corrección de las coordenadas del punto característico de la cara que no satisface la precisión de detección predeterminada; y la unidad de reconocimiento reconoce a la misma persona con referencia a la información de las características de la cara basada en el resultado de la detección corregido del punto característico de la cara.
3. El aparato para el reconocimiento de la cara de acuerdo con la Reivindicación 2, caracterizado porque, si una diferencia entre las coordenadas del punto característico de la cara detectado para uno de los cuadros de imagen y un valor promedio de las coordenadas de los puntos característicos de la cara detectados para los cuadros de imagen, es mayor que un valor predeterminado, la unidad de corrección determina que el punto característico de la cara no satisface una precisión de detección predeterminada.
4. El aparato para el reconocimiento de la cara de acuerdo con la Reivindicación 2, caracterizado porque, si la cantidad de movimiento entre las coordenadas del punto característico de la cara detectado para uno de los cuadros de imagen y las coordenadas de un punto característico de la cara detectado para el cuadro de imagen más cercano, es mayor que un valor predeterminado, la unidad de corrección determina que el punto característico de la cara no satisface una precisión de detección predeterminada.
5. El aparato para el reconocimiento de la cara de acuerdo con la Reivindicación 2, caracterizado porque, la unidad de corrección calcula un promedio móvil de las coordenadas de los puntos característicos de la cara detectados para los cuadros de imagen, y corrige las coordenadas de un punto característico que no satisface la precisión de detección predeterminada con base en el promedio de movimiento calculado.
6. El aparato para el reconocimiento de la cara de acuerdo con la Reivindicación 5, caracterizado porque, la unidad de corrección calcula la dirección de la cara detectada con base en el punto característico de la cara detectado para "cada uno de los cuadros de imagen, y cambia un valor de ponderación usado para calcular el promedio de movimiento por el punto característico de la cara con la dirección de la cara calculada, no orientada hacia una dirección predeterminada y el punto característico de la cara con la dirección de la cara calculada orientada hacia la dirección predeterminada.
7. El aparato para el reconocimiento de la cara de acuerdo con la Reivindicación 1, caracterizado porque, la unidad de entrada recibe datos de video, el detector de la cara detecta, a partir de los datos de video de entrada, una región de la cara de una misma persona a través de una pluralidad de cuadros de imagen, el aparato para el reconocimiento de la cara comprende además una unidad de corrección de la calidad de la imagen que corrige la calidad de la imagen de una región de la cara detectada a partir de un cuadro de imagen predeterminado con base en una pluralidad de imágenes de la cara, de las regiones de la cara detectadas a través de los cuadros de imagen, el extractor detecta un punto característico de la cara para cada uno de los cuadros de imagen con base en la región de la cara detectada a través de los cuadros de imagen y la región de la cara de la cual se corrige la calidad de la imagen, y la unidad de reconocimiento reconoce a la misma persona con referencia a la información de las características de la cara con base en el punto característico de la cara, detectado.
8. El aparato para el reconocimiento de la cara de acuerdo con la Reivindicación 7, caracterizado porque, la unidad de corrección de la calidad de la imagen lleva a cabo al menos la mejora de la resolución de una región de la cara detectada a partir del cuadro de imagen predeterminado, la eliminación del ruido, la corrección de la luminancia, la corrección de la brillantez, y la mejora de los bordes.
9. El aparato para el reconocimiento de la cara de la Reivindicación 1, carcaterizado porque comprende además una unidad de retención que retiene una pluralidad de técnicas de detección que difieren entre sí en la aspereza o carácter aproximado del procesamiento de detección, cada una de las técnicas de detección que sirve para detectar una característica de la cara, de la región de la cara detectada por el detector de la cara, en donde la unidad de extracción extrae, mediante al menos una de las técnicas de detección retenidas en la unidad de retención, la información de las características de la cara sobre las características de la cara de la región de la cara detectada por el detector de la cara.
10. El aparato para el reconocimiento de la cara de la Reivindicación 9, caracterizado porque comprende además, un selector que selecciona al menos una de las técnicas de detección retenidas en la unidad de retención, con base en la resolución de la región de la cara detectada por el detector de la cara, en donde la unidad de extracción extrae, mediante al menos una de las técnicas de detección seleccionada por el selector, la información de las características de la cara de la región de la cara detectada por el detector de la cara.
11. El aparato para el reconocimiento de la cara de la Reivindicación 9, caracterizado porque, el extractor determina si las características de la cara detectadas mediante una de las técnicas de detección retenidas en la unidad de retención, satisface una condición, con base en un patrón promedio de la cara, y si se determina que la característica detectada de la cara no satisface la condición, extrae la información de las características de la cara mediante otra de las técnicas de detección la cual es más burda en la el procesamiento de detección que la técnica de detección anterior.
12. El aparato para el reconocimiento de la cara de la Reivindicación 1, caracterizado porque, el extractor extrae una posición de la característica de la cara a partir de la región de la cara detectada por el detector de la cara, mediante una primera técnica de detección de las técnicas de detección retenidas en la unidad de retención, y extrae la información de las características de la cara de una región alrededor de la posición detectada, por medio de una segunda técnica de detección de las técnicas de detección, la cual es más fina en el procesamiento de detección que la primera técnica de detección.
13. El aparato para el reconocimiento de la cara de la Reivindicación 12, caracterizado porque, el extractor detecta la posición de las características de la cara mediante la primera técnica de detección, determina si la posición detectada satisface una condición predeterminada, y, si se determina que la posición detectada no satisface la condición predeterminada, lleva a cabo el procesamiento de detección mediante la segunda técnica de detección. 1 . El aparato para el reconocimiento de la cara de la
Reivindicación 9, caracterizado porque, comprende además una pantalla que despliega, tras desplegar la información de la persona reconocida por la unidad de reconocimiento, la información sobre la conflabilidad del reconocimiento de la cara, la cual se basa en al menos una de las técnicas de detección usadas por el extractor.
15. Un método para el reconocimiento de la cara, caracterizado porque comprende: recibir la información de la imagen que incluye al menos la cara de una persona; detectar una región de la cara, de la cara de la persona, a partir de la información de la imagen recibida; extraer la información de las características de la cara, sobre las características de la cara, de la región de la cara detectada; y reconocer a la persona en la información de la imagen recibida, con base en la información de las características extraída y la información de las características de la cara que indica una característica de la cara de cara persona.
MX2012010602A 2011-09-15 2012-09-13 Aparato para el reconocimiento de la cara y metodo para el reconocimiento de la cara. MX2012010602A (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011202454A JP5787686B2 (ja) 2011-09-15 2011-09-15 顔認識装置、及び顔認識方法
JP2011202455A JP5766564B2 (ja) 2011-09-15 2011-09-15 顔認証装置及び顔認証方法

Publications (1)

Publication Number Publication Date
MX2012010602A true MX2012010602A (es) 2013-03-15

Family

ID=47880692

Family Applications (1)

Application Number Title Priority Date Filing Date
MX2012010602A MX2012010602A (es) 2011-09-15 2012-09-13 Aparato para el reconocimiento de la cara y metodo para el reconocimiento de la cara.

Country Status (3)

Country Link
US (1) US9098760B2 (es)
KR (1) KR101381439B1 (es)
MX (1) MX2012010602A (es)

Families Citing this family (58)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IL197996A (en) * 2009-04-05 2014-07-31 Rafael Advanced Defense Sys A method for locating people
JP5740972B2 (ja) * 2010-09-30 2015-07-01 ソニー株式会社 情報処理装置および情報処理方法
US8705812B2 (en) * 2011-06-10 2014-04-22 Amazon Technologies, Inc. Enhanced face recognition in video
US9236024B2 (en) 2011-12-06 2016-01-12 Glasses.Com Inc. Systems and methods for obtaining a pupillary distance measurement using a mobile computing device
US10130782B2 (en) * 2011-12-13 2018-11-20 Koninklijke Philips N.V. Parametric approach to mask customization
US8854481B2 (en) * 2012-05-17 2014-10-07 Honeywell International Inc. Image stabilization devices, methods, and systems
US9286715B2 (en) 2012-05-23 2016-03-15 Glasses.Com Inc. Systems and methods for adjusting a virtual try-on
US9483853B2 (en) 2012-05-23 2016-11-01 Glasses.Com Inc. Systems and methods to display rendered images
US9311746B2 (en) * 2012-05-23 2016-04-12 Glasses.Com Inc. Systems and methods for generating a 3-D model of a virtual try-on product
US9158970B2 (en) 2012-11-16 2015-10-13 Canon Kabushiki Kaisha Devices, systems, and methods for visual-attribute refinement
TW201445454A (zh) 2013-05-22 2014-12-01 Asustek Comp Inc 提升人臉辨識率的影像處理系統及影像處理方法
US9251405B2 (en) * 2013-06-20 2016-02-02 Elwha Llc Systems and methods for enhancement of facial expressions
WO2015025249A2 (en) * 2013-08-23 2015-02-26 Dor Givon Methods, systems, apparatuses, circuits and associated computer executable code for video based subject characterization, categorization, identification, tracking, monitoring and/or presence response
JP6398979B2 (ja) 2013-08-23 2018-10-03 日本電気株式会社 映像処理装置、映像処理方法および映像処理プログラム
JP6025690B2 (ja) * 2013-11-01 2016-11-16 ソニー株式会社 情報処理装置および情報処理方法
CN103699893A (zh) * 2013-12-10 2014-04-02 柳州译海网络科技有限公司 一种人脸特征信息采集装置
JP5830706B2 (ja) * 2014-01-29 2015-12-09 パナソニックIpマネジメント株式会社 店員作業管理装置、店員作業管理システムおよび店員作業管理方法
WO2015122789A1 (en) * 2014-02-11 2015-08-20 3Divi Company Facial recognition and user authentication method
US9571785B2 (en) * 2014-04-11 2017-02-14 International Business Machines Corporation System and method for fine-grained control of privacy from image and video recording devices
JP6362085B2 (ja) * 2014-05-21 2018-07-25 キヤノン株式会社 画像認識システム、画像認識方法およびプログラム
US9367897B1 (en) * 2014-12-11 2016-06-14 Sharp Laboratories Of America, Inc. System for video super resolution using semantic components
US9703805B2 (en) * 2015-05-29 2017-07-11 Kabushiki Kaisha Toshiba Individual verification apparatus, individual verification method and computer-readable recording medium
US10582125B1 (en) * 2015-06-01 2020-03-03 Amazon Technologies, Inc. Panoramic image generation from video
KR101781358B1 (ko) 2015-07-29 2017-09-26 대한민국 디지털 영상 내의 얼굴 인식을 통한 개인 식별 시스템 및 방법
JP2017033358A (ja) 2015-08-03 2017-02-09 富士ゼロックス株式会社 認証装置
CN105426833A (zh) * 2015-11-13 2016-03-23 小米科技有限责任公司 用于游戏的图像识别方法及装置
CN105760826B (zh) * 2016-02-03 2020-11-13 歌尔股份有限公司 一种人脸跟踪方法、装置和智能终端
IL299710A (en) * 2016-06-03 2023-03-01 Magic Leap Inc Identity verification in augmented reality
WO2018033137A1 (zh) * 2016-08-19 2018-02-22 北京市商汤科技开发有限公司 在视频图像中展示业务对象的方法、装置和电子设备
CN107865473B (zh) * 2016-09-26 2019-10-25 华硕电脑股份有限公司 人体特征测距装置及其测距方法
US10198626B2 (en) 2016-10-19 2019-02-05 Snap Inc. Neural networks for facial modeling
US10891502B1 (en) * 2017-01-19 2021-01-12 State Farm Mutual Automobile Insurance Company Apparatuses, systems and methods for alleviating driver distractions
CN110168601B (zh) * 2017-04-20 2023-05-26 韩国斯诺有限公司 通过分析校正模式的影像校正方法及系统
US11169661B2 (en) * 2017-05-31 2021-11-09 International Business Machines Corporation Thumbnail generation for digital images
JP6835223B2 (ja) * 2017-06-26 2021-02-24 日本電気株式会社 顔認証装置、顔認証方法およびプログラム
US20190080065A1 (en) * 2017-09-12 2019-03-14 Synaptics Incorporated Dynamic interface for camera-based authentication
JP7056055B2 (ja) * 2017-09-27 2022-04-19 富士フイルムビジネスイノベーション株式会社 情報処理装置、情報処理システム及びプログラム
WO2019078310A1 (ja) 2017-10-20 2019-04-25 日本電気株式会社 顔三次元形状推定装置、顔三次元形状推定方法、及び、非一時的なコンピュータ可読媒体
US11250246B2 (en) * 2017-11-27 2022-02-15 Mitsubishi Electric Corporation Expression recognition device
US11068741B2 (en) 2017-12-28 2021-07-20 Qualcomm Incorporated Multi-resolution feature description for object recognition
CN108416253A (zh) * 2018-01-17 2018-08-17 深圳天珑无线科技有限公司 基于人脸图像的体重监测方法、系统及移动终端
JP7075237B2 (ja) * 2018-02-23 2022-05-25 ラピスセミコンダクタ株式会社 操作判定装置及び操作判定方法
JP2019185384A (ja) * 2018-04-10 2019-10-24 キヤノン株式会社 画像認証装置、画像認証方法、コンピュータプログラムおよび記憶媒体
KR102152006B1 (ko) * 2018-06-29 2020-09-04 한양대학교 산학협력단 동일인 인식 방법, 이를 이용하는 컴퓨팅 시스템, 및 프로그램
KR102202654B1 (ko) 2018-07-25 2021-01-13 상명대학교산학협력단 안면 움직임 정보 추출 방법 및 장치
KR102141040B1 (ko) * 2018-08-14 2020-08-04 서강대학교 산학협력단 샷 단위 주요 인물 검출 시스템 및 그 방법
KR102072089B1 (ko) * 2018-09-11 2020-03-02 전상민 얼굴 사진을 이용한 게임 아이템 제공 시스템 및 그 방법
CN111277816A (zh) * 2018-12-05 2020-06-12 北京奇虎科技有限公司 一种视频检测系统的测试方法和装置
EP3893192A4 (en) 2018-12-07 2021-12-15 NEC Corporation INFORMATION PROCESSING SYSTEM, INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING PROCESS AND PROGRAM
JP2021114111A (ja) * 2020-01-17 2021-08-05 Necソリューションイノベータ株式会社 撮像支援装置、撮像支援方法、及びプログラム
RU2741412C1 (ru) * 2020-03-19 2021-01-25 Общество с ограниченной ответственностью «Арсенал 67» Система распознавания лиц для сравнения с базами данных с помощью мобильных терминалов
KR20210142342A (ko) * 2020-05-18 2021-11-25 주식회사 엘지생활건강 나이 추정 장치 및 나이를 추정하는 방법
US11941913B2 (en) * 2020-07-14 2024-03-26 Corsight.Ai. Ltd. High resolution face matching
CN112036317A (zh) * 2020-08-31 2020-12-04 成都新潮传媒集团有限公司 一种人脸图像截取方法、装置及计算机设备
US11520871B2 (en) 2020-09-09 2022-12-06 International Business Machines Corporation Authentication with face covering
KR102441102B1 (ko) * 2020-09-21 2022-09-07 (주) 아하 인공지능을 이용한 안면 인식 방법 및 시스템
KR20230007019A (ko) * 2021-07-05 2023-01-12 주식회사 아이티스노우볼 얼굴 감정 인식 장치 및 그 동작방법
WO2023111624A1 (en) * 2021-12-13 2023-06-22 Extramarks Education India Pvt Ltd. An end-to-end proctoring system and method for conducting a secure online examination

Family Cites Families (51)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3279913B2 (ja) 1996-03-18 2002-04-30 株式会社東芝 人物認証装置、特徴点抽出装置及び特徴点抽出方法
DE69910757T2 (de) * 1998-04-13 2004-06-17 Eyematic Interfaces, Inc., Santa Monica Wavelet-basierte gesichtsbewegungserfassung für avataranimation
JP4086422B2 (ja) 1999-07-21 2008-05-14 日本放送協会 被写体認識装置
TWI278782B (en) * 2001-08-24 2007-04-11 Toshiba Corp Personal recognition apparatus
KR100438418B1 (ko) * 2001-09-03 2004-07-02 주식회사 테크스피어 개인식별을 위한 손등 혈관패턴 인식 시스템 및 그 방법
US7197165B2 (en) * 2002-02-04 2007-03-27 Canon Kabushiki Kaisha Eye tracking using image data
JP4079690B2 (ja) 2002-05-23 2008-04-23 株式会社東芝 物体追跡装置及び方法
KR100455294B1 (ko) * 2002-12-06 2004-11-06 삼성전자주식회사 감시 시스템에서의 사용자 검출 방법, 움직임 검출 방법및 사용자 검출 장치
JP4277534B2 (ja) 2003-02-12 2009-06-10 オムロン株式会社 画像編集装置および画像編集方法
US7920725B2 (en) * 2003-09-09 2011-04-05 Fujifilm Corporation Apparatus, method, and program for discriminating subjects
GB2414616A (en) * 2004-05-28 2005-11-30 Sony Uk Ltd Comparing test image with a set of reference images
US7542592B2 (en) * 2004-03-29 2009-06-02 Siemesn Corporate Research, Inc. Systems and methods for face detection and recognition using infrared imaging
JP4650669B2 (ja) * 2004-11-04 2011-03-16 富士ゼロックス株式会社 動体認識装置
US20060120571A1 (en) * 2004-12-03 2006-06-08 Tu Peter H System and method for passive face recognition
JP2006178651A (ja) 2004-12-21 2006-07-06 Toshiba Corp 人物認識装置、人物認識方法および通行制御装置
KR100647322B1 (ko) * 2005-03-02 2006-11-23 삼성전자주식회사 객체의 모양모델 생성장치 및 방법과 이를 이용한 객체의특징점 자동탐색장치 및 방법
JP4628882B2 (ja) * 2005-06-16 2011-02-09 富士フイルム株式会社 判別器の学習方法、顔判別方法および装置並びにプログラム
JP4624889B2 (ja) * 2005-08-30 2011-02-02 富士フイルム株式会社 顔検出方法および装置並びにプログラム
US8542928B2 (en) * 2005-09-26 2013-09-24 Canon Kabushiki Kaisha Information processing apparatus and control method therefor
JP2007148988A (ja) * 2005-11-30 2007-06-14 Toshiba Corp 顔認証装置、顔認証方法および入退場管理装置
JP4532419B2 (ja) * 2006-02-22 2010-08-25 富士フイルム株式会社 特徴点検出方法および装置並びにプログラム
JP2007243335A (ja) 2006-03-06 2007-09-20 Fujifilm Corp 手振れ補正方法、手振れ補正装置および撮像装置
US8599267B2 (en) * 2006-03-15 2013-12-03 Omron Corporation Tracking device, tracking method, tracking device control program, and computer-readable recording medium
JP4795864B2 (ja) 2006-06-21 2011-10-19 富士フイルム株式会社 特徴点検出装置および方法並びにプログラム
JP4793120B2 (ja) 2006-06-21 2011-10-12 ソニー株式会社 手振れ補正方法、手振れ補正方法のプログラム、手振れ補正方法のプログラムを記録した記録媒体及び手振れ補正装置
JP4800163B2 (ja) 2006-09-29 2011-10-26 株式会社トプコン 位置測定装置及びその方法
JP2008287399A (ja) 2007-05-16 2008-11-27 Toshiba Corp 人物認証装置および方法
JP2009000367A (ja) 2007-06-22 2009-01-08 Omron Corp 監視装置および方法、並びにプログラム
JP4946730B2 (ja) 2007-08-27 2012-06-06 ソニー株式会社 顔画像処理装置及び顔画像処理方法、並びにコンピュータ・プログラム
JP5109564B2 (ja) * 2007-10-02 2012-12-26 ソニー株式会社 画像処理装置、撮像装置、これらにおける処理方法およびプログラム
JP4518131B2 (ja) * 2007-10-05 2010-08-04 富士フイルム株式会社 撮像方法及び装置
EP2263190A2 (en) * 2008-02-13 2010-12-22 Ubisoft Entertainment S.A. Live-action image capture
JP5202037B2 (ja) * 2008-02-29 2013-06-05 キヤノン株式会社 特徴点位置決定方法及び装置
JP5429445B2 (ja) * 2008-04-08 2014-02-26 富士フイルム株式会社 画像処理システム、画像処理方法、およびプログラム
JP2010021943A (ja) * 2008-07-14 2010-01-28 Sanyo Electric Co Ltd 撮像装置
JP5116608B2 (ja) 2008-08-20 2013-01-09 キヤノン株式会社 情報処理装置、制御方法、及びプログラム
US8538072B2 (en) * 2008-08-27 2013-09-17 Imprivata, Inc. Systems and methods for operator detection
JP4720880B2 (ja) * 2008-09-04 2011-07-13 ソニー株式会社 画像処理装置、撮像装置、画像処理方法およびプログラム
JP2010108200A (ja) 2008-10-30 2010-05-13 Mitsubishi Electric Corp 個人認証装置及び個人認証方法
JP5285401B2 (ja) 2008-11-20 2013-09-11 パナソニック株式会社 顔認証システム
JP2010231350A (ja) * 2009-03-26 2010-10-14 Toshiba Corp 人物識別装置、そのプログラム、及び、その方法
JP5390322B2 (ja) 2009-09-28 2014-01-15 株式会社東芝 画像処理装置、及び画像処理方法
EP2355492B1 (en) * 2009-10-07 2018-04-11 Panasonic Intellectual Property Corporation of America Device, method, program, and circuit for selecting subject to be tracked
JP5644097B2 (ja) 2009-12-08 2014-12-24 ソニー株式会社 画像処理装置、画像処理方法及びプログラム
JP5642410B2 (ja) * 2010-03-30 2014-12-17 パナソニック株式会社 顔認識装置及び顔認識方法
US9143843B2 (en) * 2010-12-09 2015-09-22 Sealed Air Corporation Automated monitoring and control of safety in a production area
US8737697B2 (en) * 2010-05-26 2014-05-27 Nec Corporation Facial feature point position correction device, facial feature point position correcting method, and facial feature point position correcting program
EP2727533A1 (en) * 2010-09-08 2014-05-07 Fujifilm Corporation Body motion detection device, as well as radiographic imaging apparatus
US8711210B2 (en) * 2010-12-14 2014-04-29 Raytheon Company Facial recognition using a sphericity metric
JP5787845B2 (ja) * 2012-08-24 2015-09-30 株式会社東芝 画像認識装置、方法、及びプログラム
JP5992276B2 (ja) * 2012-09-20 2016-09-14 株式会社東芝 人物認識装置、及び方法

Also Published As

Publication number Publication date
US9098760B2 (en) 2015-08-04
KR20130029723A (ko) 2013-03-25
KR101381439B1 (ko) 2014-04-04
US20130070973A1 (en) 2013-03-21

Similar Documents

Publication Publication Date Title
MX2012010602A (es) Aparato para el reconocimiento de la cara y metodo para el reconocimiento de la cara.
KR102596897B1 (ko) 모션벡터 및 특징벡터 기반 위조 얼굴 검출 방법 및 장치
JP5766564B2 (ja) 顔認証装置及び顔認証方法
US11527105B2 (en) System and method for scalable cloud-robotics based face recognition and face analysis
JP5629803B2 (ja) 画像処理装置、撮像装置、画像処理方法
US9235751B2 (en) Method and apparatus for image detection and correction
JP4743823B2 (ja) 画像処理装置、撮像装置、画像処理方法
US8184914B2 (en) Method and system of person identification by facial image
JP6544900B2 (ja) オブジェクト識別装置、オブジェクト識別方法及びプログラム
JP2008152789A (ja) 顔映像の類似度の算出方法及び装置とこれを利用した顔映像の検索方法及び装置、並びに顔合成方法
JP2007213378A (ja) 特定表情顔検出方法、撮像制御方法および装置並びにプログラム
JP6822482B2 (ja) 視線推定装置、視線推定方法及びプログラム記録媒体
WO2020195732A1 (ja) 画像処理装置、画像処理方法、およびプログラムが格納された記録媒体
KR20170015639A (ko) 디지털 영상 내의 얼굴 인식을 통한 개인 식별 시스템 및 방법
JP4803214B2 (ja) 画像認識システム及びその認識方法並びにプログラム
JP5787686B2 (ja) 顔認識装置、及び顔認識方法
JP5971712B2 (ja) 監視装置及び方法
CN114270417A (zh) 能够更新注册人脸模板的人脸识别系统及方法
Pauca et al. Challenging ocular image recognition
JP4789526B2 (ja) 画像処理装置、画像処理方法
Park Face Recognition: face in video, age invariance, and facial marks
JP5625196B2 (ja) 特徴点検出装置、特徴点検出方法、特徴点検出プログラム及び記録媒体
JP7103443B2 (ja) 情報処理装置、情報処理方法、およびプログラム
Bandrabur et al. Automatic robust localization of eye related landmarks

Legal Events

Date Code Title Description
FG Grant or registration