MX2012010637A - Procesador de informacion biologica. - Google Patents

Procesador de informacion biologica.

Info

Publication number
MX2012010637A
MX2012010637A MX2012010637A MX2012010637A MX2012010637A MX 2012010637 A MX2012010637 A MX 2012010637A MX 2012010637 A MX2012010637 A MX 2012010637A MX 2012010637 A MX2012010637 A MX 2012010637A MX 2012010637 A MX2012010637 A MX 2012010637A
Authority
MX
Mexico
Prior art keywords
information
feature
unit
feature information
face
Prior art date
Application number
MX2012010637A
Other languages
English (en)
Inventor
Hiroshi Sukegawa
Hiroo Saito
Original Assignee
Toshiba Kk
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Kk filed Critical Toshiba Kk
Publication of MX2012010637A publication Critical patent/MX2012010637A/es

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/98Detection or correction of errors, e.g. by rescanning the pattern or by human intervention; Evaluation of the quality of the acquired patterns
    • G06V10/993Evaluation of the quality of the acquired pattern
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • G06F18/2135Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on approximation criteria, e.g. principal component analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/7715Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Quality & Reliability (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • Human Computer Interaction (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Collating Specific Patterns (AREA)
  • Image Analysis (AREA)

Abstract

De conformidad con una modalidad, un procesador de información biológica incluye: una unidad de detección de área configurada para detectar un área en la cual una persona es desplegada a partir de información de imagen; una unidad de extracción de rasgos configurada para extraer información de rasgos basada en una porción característica de una persona del área detectada por la unidad de detección de área a partir de la información de imagen; y una unidad de determinación configurada para determinar una precisión de extracción que indica si la porción característica de la persona puede o no ser extraída, con respecto a la información de rasgos extraída por la unidad de extracción de rasgos basada en una posición de la porción característica.

Description

PROCESADOR DE INFORMACIÓN BIOLÓGICA Referencia cruzada a solicitudes relacionadas Esta solicitud está basada en, y reclama el beneficio de, la prioridad de solicitud de patente japonesa No. 2012-061976, presentada el 19 de marzo 2012, cuyo contenido es incorporado aquí por referencia en su totalidad.
Campo Las modalidades descritas se refieren generalmente a un procesador de información biológica.
Antecedentes Hasta ahora, las técnicas para realizar coincidencia de una persona con base en rasgos y estado de información biológica (por ejemplo, el estado de un rostro o una mano) de una persona autenticada han sido desarrolladas.
Para llevar a cabo la autenticación, si los puntos de rasgos no son apropiadamente detectados a partir de datos de imagen que representan la información biológica de la persona autenticada, existe una posibilidad de que la precisión de coincidencia sea afectada de manera adversa.
Por esta razón, una técnica para mejorar la precisión de extracción de puntos de rasgos se ha propuesto en años recientes. embargo, aun cuando la precisión exacta es mejorada en la técnica relacionada, existe una posibilidad de que ocurra error en la detección de puntos de rasgos. Por consiguiente, es deseable verificar si la detección de puntos de rasgos es apropiada y confirmar si la calidad de la detección es apropiada para procesamiento de coincidencia.
Breve descripción de los dibujos La figura 1 es un diagrama de bloque ilustrativo que ilustra una configuración de un procesador de información biológica de conformidad con una primera modalidad; la figura 2 es un diagrama de flujo ilustrativo que ilustra un procedimiento para procesamiento de detección de rostros en el procesador de información biológica de conformidad con la primera modalidad; la figura 3 es un diagrama de flujo ilustrativo que ilustra un procedimiento para procesar el cálculo de un valor de evaluación en una unidad de determinación de información de rasgos de conformidad con la primera modalidad; la figura 4 es un diagrama ilustrativo que ilustra una desalineación de detección de rostro; la figura 5 es un diagrama ilustrativo que ilustra un ejemplo en el cual ocurre desalineación en puntos de rasgos detectados de ambos ojos; la figura 6 es un diagrama de flujo ilustrativo que ilustra un procedimiento para procesamiento de corrección en una unidad de corrección de conformidad con la primera modalidad; la figura 7 es un diagrama ilustrativo que ilustra un ejemplo de una pantalla de interfaz para corregir un resultado de detección; la figura 8 es un diagrama ilustrativo que ilustra un método de extracción de punto de rasgos de una unidad de extracción de información de rasgos de rostro de conformidad con un ejemplo modificado; la figura 9 es un diagrama de bloques ilustrativo que ilustra una configuración de un procesador de información biológica de conformidad con una segunda modalidad; la figura 10 es un diagrama ilustrativo que ilustra perturbación de puntos de rasgos por una unidad de perturbación de puntos de rasgos de conformidad con la segunda modalidad; la figura 11 es un diagrama de flujo ilustrativo que ilustra un procedimiento para procesar la determinación de una similitud entre elementos de información de rasgos en el procesador de información de conformidad con la segunda modalidad; la figura 12 es un diagrama de bloques ilustrativo que ilustra una configuración de un procesador de información biológica de conformidad con una tercera modalidad; la figura 13 es un diagrama de flujo ilustrativo que ilustra un procedimiento para procesar la determinación de una precisión de extracción de información de rasgos en el procesador de información biológica de conformidad con la tercera modalidad; la figura 14 es un diagrama de bloques ilustrativo que ilustra una configuración de un procesador de información biológica de conformidad con una cuarta modalidad; la figura 15 es un diagr-ama de flujo ilustrativo que ilustra un procedimiento para procesar la determinación de una precisión de extracción de información de rasgos en el procesador de información biológica de conformidad con la cuarta modalidad; y la figura 16 es un diagrama ilustrativo que ilustra una configuración de hardware de un procesador de información biológica de conformidad con la primera a cuarta modalidades.
Descripción detallada Un procesador de información biológica de conformidad con una modalidad incluye una unidad de detección de área, una unidad de extracción de rasgos y una unidad de determinación .
La unidad de detección de área detecta un área en la cual una persona es desplegada a partir de información de imagen. La unidad de extracción de rasgos extrae información de rasgos basada en una porción característica de una persona del área detectada por la unidad de detección de área a partir de la información de imagen. La unidad de determinación determina una precisión- de extracción que indica si la porción característica de la persona puede o no ser extraída, con respecto a la información de rasgos extraída por la unidad de extracción de rasgos, basada en la posición de la porción característica.
El procesador de información biológica de conformidad con una modalidad incluye una unidad de almacenamiento y una unidad de determinación de similitud. La unidad de almacenamiento almacena información de rasgos para autenticación basada en la posición que representa la porción característica de la persona extraída a partir de información de imagen preparada. La unidad de determinación de similitud calcula una similitud entre la información de rasgos basada en la posición que representa la porción característica de la persona incluida en la información de imagen y la información de rasgos para autenticación almacenada en la unidad de almacenamiento, y determina la precisión de extracción de la información de características para autenticación a partir de la similitud.
La figura 1 es un' diagrama de bloques que ilustra la configuración de un procesador de información biológica de conformidad con una primera modalidad. Un procesador de información biológica 100 de conformidad con esta modalidad incluye una unidad de entrada 101, una unidad de fijación de parámetros 102, una unidad de detección de rostros 103, una unidad de extracción de información de rasgos de rostro 104, una unidad de determinación de información de rasgos 105, una unidad de corrección 106, una unidad de salida 107, y una unidad de determinación de similitud 108, y está conectada a una cámara 150. Los datos de imagen capturados por la cámara pueden ser datos de imagen en movimiento o datos de imagen quieta.
El procesador de información biológica 100 de conformidad con esa modalidad extrae información de rasgos de rostro a partir de los datos de imagen recibidos de la cámara 150, y registra la información de rasgos en una base de datos de información de rostro para coincidencia usada en coincidencias. Aunque esta modalidad ilustra un ejemplo para extraer información de rasgos de un rostro, la modalidad no está limitada a la extracción de información de rasgos de un rostro y también se puede aplicar a datos de imagen que representan información biológica distinta a un rostro. Ej.emplos de la información biológica que se han de aplicar incluyen estados de un iris, una retina, un patrón de venas de una mano o un dedo, ' un patrón de huellas digitales, un ojo, un oído y una boca. Una pluralidad de estos estados se puede usar, o cualquiera de estos estados se puede usar para autenticación.
El procesador de información biológica 100 de conformidad con esta modalidad se puede aplicar en el caso de búsqueda una persona especifica a partir de un gran número de elementos de datos de imagen personales almacenados en una base de datos de información de rostros para, por ejemplo, coincidencias. Por ejemplo, el procesador de información biológica 100 registra la información de rasgos basada en un gran número de elementos de datos de imagen de rostro recopilados de video de monitoreo capturado por la cámara 150, en la. base de datos de coincidencias de información de rostros, permitiendo asi la coincidencia y búsqueda de una persona especifica usando la base de datos de coincidencia de información de rostros.
Incidentalmente, en el caso de detectar puntos de rasgos como información de rasgos del rostro a partir de los datos de imagen incluidos en el video de monitoreo, los puntos de rasgos pueden ser desplazados o no pueden ser detectados durante el procesamiento. Si dicha información de rasgos es registrada directamente, puede ocurrir un error durante la coincidencia. Por consiguiente, es deseable confirmar la validez de la detección de puntos de rasgos al registrar y corregir los puntos de rasgos según sea necesario. Sin embargo, la corrección manual es tediosa. A este respecto, el procesador de información biológica 100 de conformidad con esta modalidad ejecuta la confirmación de la validez y la corrección según es necesario.
La unidad de entrada 101 realiza procesamiento de introducción de datos de imagen incluyendo el rostro de una persona a partir de los medios de captura de imagen tales como la cámara 150. Esta modalidad ilustra un ejemplo de introducción de datos de imagen desde la cámara 150. Sin embargo, el medio de captura de imagen no está limitado a la cámara 150, pero un explorador o similar se puede usar, por ejemplo. Los datos de imagen sometidos al procesamiento de entrada por la unidad de entrada 101 son convertidos a datos digitales por un convertidor A/D (no ilustrado), y los datos digitales son emitidos a la unidad de detección de rostros 103 y la unidad de extracción de información de rasgos de rostro 104.
La unidad de fijación de parámetros 102 fija los parámetros para la unidad de detección de rostros 103, que se describe más adelante, para detectar el área del rostro.
La unidad ,de fijación de parámetros 102 fija los parámetros para la unidad de extracción de información de rasgos de rostro 104, que se describe más adelante, para detectar puntos de rasgos de un rostro. En esta modalidad, una pluralidad de puntos de características de rostro para un rostro es detectada (por ejemplo, 14).
. En esta, modalidad, varios tipos de parámetros con diferentes condiciones se fijan a cada una de la unidad de detección de rostros 103 y la unidad de extracción de información de rasgos de rostro 104. Esto permite la extracción de información de rasgos de varios tipos de rostros. En esta modalidad, por ejemplo, entre los elementos de información de rasgos extraídos de una pluralidad de rostros, la información de rasgos determinada para tener precisión de extracción más alta es registrada.
En esta modalidad, por lo menos una del número de repeticiones de procesamiento para buscar una posición de una porción de rostro, una amplificación de imagen, un diccionario para detección de componentes, un tamaño de filtro y un modelo de trazo para cada dirección de rostro se usa como varios tipos de parámetros que se han de fijar. Entonces, una fijación de f?, ..., f? que incluye varios valores de parámetro se obtiene. La unidad de fijación de parámetros 102 fija f?, f? a la unidad de detección de rostros 103 y la unidad de extracción de información de rasgos de rostro 104, generando así n tipos de elementos de información de rasgos de rostro. Cabe notar que los parámetros que han de ser fijados se ilustran a manera de ejemplo únicamente y se pueden usar otros parámetros.
Además, la unidad de fijación de parámetros 102 fija un umbral para la unidad de determinación de información de rasgos 105 para determinar la información de rasgos del rostro. Como el umbral que se ha de fijar, dos tipos de umbrales (un umbral para fijación automática y un umbral para fijación manual) se pueden fijar. Cabe notar que un umbral para fijación automática T1 > un umbral para fijación manual T2. En el caso de fijar dos tipos de umbrales, cuando el resultado de determinación excede el umbral para fijación automático T1, los umbrales son emitidos desde la unidad de salida 107 y registrados automáticamente en una base de datos de coincidencia de información de rostro 160. Cuando el resultado de determinación es igual a o menor que el umbral para fijación automática T1 y excede el umbral para fijación manual T2, el registro manual en la base de datos de coincidencia de información de rostro 160 después de observación visual por una persona, detección repetida de la información de rasgos de rostro, o similar se lleva a cabo. El umbral para fijación automática T1 asi como el umbral para fijación manual T2 se fija, suprimiendo asi la no detección de un rostro.
La unidad de detección de rostros 103 detecta un área en la cual el rostro de una persona es desplegado a partir de los datos de imagen de entrada. La unidad de detección de rostros 103 de conformidad con esta modalidad detecta el área de uno o más rostros a partir de los datos de imagen de entrada.
La unidad de detección de rostros 103 de conformidad con esta modalidad almacena preliminarmente una plantilla para detectar el rostro en una unidad de almacenamiento que no es ilustrada. Además, la unidad de detección de rostros 103 calcula un valor de correlación mientras mueve una plantilla preparada dentro de los datos de imagen de entrada, y detecta el área del rostro basada en el valor de correlación calculado. Como un método de detección de conformidad con e°sta modalidad, la posición en donde el valor de correlación se vuelve un valor máximo local es detectada como un punto de rasgos en esta modalidad. Cabe notar que el método de detección del área de rostro no está limitado y la detección se puede llevar a cabo usando, por ejemplo, un método de espacio de valor propio o un método de subespacio.
La unidad de extracción de información de rasgos de rostro 104 extrae información de rasgos basada en una porción característica de una persona del área detectada por la unidad de detección de rostros 103. La unidad de extracción de información de rasgos de rostro 104 de conformidad con esta modalidad extrae la posición de una porción de rostro, tal como un ojo o una nariz, como la información de rasgos de rostro .
La' unidad de extracción de información de rasgos de rostro 104 de conformidad con esta modalidad extrae la posición de una porción de rostro, tal como un ojo o una nariz, del área de rostro detectada. Como el método de detección, se puede utilizar cualquier método. Por ejemplo, se puede utilizar un método propuesto en el documento (Kazuhiro Fukui, Osamu Yamaguchi: "Método de extracción de punto de rasgos faciales basado en combinación de extracción de forma y coincidencia de patrón", Journal of the Institute of Electronics, information and communication (D) , vol. J80-D-II, No. 8, pp. 2170-2177 (1997)).
Esta modalidad ilustra un ejemplo de rasgos de área de, pero se pueden usar otras rasgos biológicos. Por ejemplo, imágenes de un iris, una retina y un ojo se pueden extraer como información de rasgos. En este caso, la cámara es acercada al área del ojo detectada por el procesamiento descrito anteriormente, habilitando asi la detección de información de rasgos. o La unidad de extracción de información de rasgos de rostro 104 de conformidad con esta modalidad extrae el área (posición) de la boca del área de rostro detectada. Como el método de extracción del área (posición) de una boca, se puede utilizar, por ejemplo, un método propuesto en el documento ( ayumi Yuasa, Akiko N.akajima: "Sistema de construcción digital basado en detección de punto de rasgo facial de alta precisión", los procedimientos del 10°. simposio de detección de imagen, pp. 219-224 (2004) ) .
Como el método de detección de una porción de rasgos, un área que representa un rasgo biológico puede ser extraída de datos de imagen de la forma de disposición bidimensional en cualquiera de los casos anteriormente descritos .
A diferencia de esta modalidad, cuando la unidad de extracción de información de rasgos de rostro 104 extrae sólo el área que representa un rasgo biológico de un elemento de datos de imagen, un valor de correlación con una plantilla preparada se puede obtener para todas las áreas de los datos de imagen, y el área que tiene la posición y tamaño donde el valor de correlación se vuelve máximo puede ser extraída. En el caso de extraer una pluralidad de rasgos biológicos, el valor máximo local del valor de correlación se obtienen para todas las áreas de los datos de imagen, posiciones candidatas del rostro son estrechadas en consideración de la sobreposición en una imagen. En este caso, una pluralidad de rasgos biológicos también pueden ser extraídos en consideración de la relación (transición temporal) con otros datos de imagen consecutivos en la secuencia de tiempo. En particular, cuando una pluralidad de rasgos biológicos es detectada simultáneamente, probablemente se obtienen más efectos.
La unidad de extracción de información de rasgos de rostro 104 corta el área del rostro con un cierto tamaño y forma basados en la posición del rasgo biológico extraído, y la información de escala de grises se usa como la información de rasgos. En esta modalidad, un valor de escala de grises de un área que tiene m pixeles y n pixeles se usa como la información de rasgos. De manera especifica, se usa información mxn-dimensional como el vector de rasgos. Por ejemplo, en el caso de utilizar el método de similitud simple como el método, la normalización se lleva a cabo suponiendo que el vector y la longitud del vector se fijan a "1" y un producto interno es calculado, calculando de esta manera la similitud que representa la similitud entre vectores de rasgos.
Cuando el resultado de reconocimiento obtenido de una imagen es satisfactorio, la extracción de rasgos es completada. Sin embargo, un procesamiento de reconocimiento altamente preciso se puede llevar a cabo calculando a partir de una imagen en movimiento usando una pluralidad de imágenes consecutivas. Por consiguiente, en esta modalidad, se lleva a cabo el siguiente procedimiento.
La unidad de extracción de información de rasgos de rostro 104 de conformidad con esta modalidad corta una imagen que tiene mxn-pixeles por el método anteriormente descrito a partir de los datos de imagen sucesivamente obtenidos de la unidad de entrada 101. Después de eso, la unidad de extracción de información de rasgos de rostro 104 obtiene una matriz de correlación de los vectores de rasgos para los datos, y obtiene un vector ortogonal normal por desarrollo de K-L. Por lo tanto, la unidad de extracción de información de rasgos de rostro 104 calcula el subespacio que representa el rasgo del rostro obtenido por datos de imagen sucesivos. Como el método de cálculo de subespacio, se obtiene una matriz de correlación (o matriz de covarianza) de los vectores de rasgos, y un vector ortogonal normal (eigenvector) se obtiene por el desarrollo de K-L. Por lo tanto se calcula el subespacio. El subespacio es expresado por un- conjunto de eigenvectores después de seleccionar K eigenvectores correspondientes a los valores propios en orden descendente de los valores propios. En · esta modalidad, una matriz de correlación Cd se calcula a partir del vector de rasgos, y una matriz de correlación Cd=<j)d Ad <|>d T es diagonalizada para obtener una matriz de eigenvector f. Esta matriz ? sirve como un subespacio que indica un rasgo de un rostro de una persona que ha de ser reconocido concurrentemente.
Cuando una pluralidad de rostros han sido detectados, un procedimiento similar se puede repetir para cada uno de cuatro A a D personas para calcular asi los subespacios A a D . los subespacios A a D calculados pueden ser registrados en la base de datos de coincidencias de información de rostros 160 como la información de rasgos de rostro .
La unidad de extracción de información de rasgos de rostro 104 de conformidad con esta modalidad extrae la información de rasgos basada en una porción característica de una persona por el método descrito anteriormente. Sin embargo, también se pueden utilizar otros métodos.
La unidad de extracción de información de rasgos de rostro 104 de conformidad con esta modalidad extrae N tipos de elementos de información rasgos (incluyendo una pluralidad de puntos de rasgos de una boca, una nariz, un ojo y similares para cada información de rasgos) para cada persona detectada a partir de los datos de imagen de conformidad con el parámetro fijado por la unidad de fijación de parámetros 102.
La unidad de determinación de información' de rasgos 105 determina la precisión de extracción de la información de rasgos extraída por la unidad de extracción de información de rasgos de rostro 104, basada en la posición en donde una porción característica de una persona es detectada. Por lo tanto, en esta modalidad, la calidad de la información de rasgos es evaluada. Cabe notar que la precisión de extracción representa un grado que indica si una porción característica de una persona puede o no ser detectada en la información de rasgos .
La unidad de determinación de información de rasgos 105 de conformidad con esta modalidad determina la precisión de extracción de cada uno de los N tipos de elementos de información de rasgos extraídos para cada persona. Por lo tanto, la información de rasgos que tiene la precisión de extracción más alta puede ser especificada. En esta modalidad, la información de rasgos que tiene la precisión de extracción más alta es registrada en la base de datos de coincidencias de información de rostro 160.
Cuando la unidad de determinación de información de rasgos 105 determina que la precisión de extracción es determinada como inapropiada, la unidad de corrección 106 corrige por lo menos uno de los datos de imagen, el área de rostro, y la información de rasgos.
La unidad de salida 107 emite, de una manera asociada con otra, la información de . rasgos de rostro extraída por la unidad de extracción de información de rasgos e rostro 104 y los datos de imagen a partir de los cuales se extrae la información de rasgos, a la base de datos de coincidencia de información de rostro 160. Posteriormente, la unidad de salida 107 puede desplegar los datos de imagen a partir de los cuales se extrae la información de rasgos, como una lista. En este caso, una lista de candidatos exitosos o no exitosos del registro se puede desplegar con base en el resultado de determinación obtenido por . la unidad de determinación de información de rasgos 105. Posteriormente, la unidad de salida 107 puede desplegar un valor que representa una precisión de extracción, desplegar un registro de trabajo de corrección, o emitir video o sonido en dispositivos vecinos o distantes.
La base de datos de coincidencia de información de rostro 160 almacena, de una manera asociada con otra, información idéntica con la entrada de información de rasgos para identificar a una persona y los datos de imagen a partir de los cuales se extrae la información de rasgos. La base de datos de coincidencias de información de rostro 160 de conformidad con esta modalidad almacena un vector mxn de rasgos como la información de rasgos. Alternativamente, también se pueden utilizar datos de imagen del área de rostro antes de la extracción de rasgos, o una matriz de correlación obtenida inmediatamente antes del subespacio o desarrollo de K-L que se ha de usar.
La base de datos de coincidencia de información de rostro 160 almacena, de una manera asociada con otra, la información de rasgos y datos de imagen y la ID de identificación individual. Esto permite buscar la información de rasgos y datos de imagen usando una ID de identificación individual como una clave. La base de datos de coincidencias de información de rostros 160 puede almacenar uno o más elementos de información de rasgos para una persona. En el caso de almacenar una pluralidad de elementos de información de rasgos, la misma persona puede ser reconocida en el tiempo de desplazamiento de la cámara o similar dependiendo del estado (por ejemplo, movimiento de una persona) .
En esta modalidad, es difícil controlar las condiciones de registro, y más efectos se pueden obtener en diferentes condiciones. Por consiguiente, se describe un ejemplo en el cual un elemento de información de rasgos es manejado para cada usuario. Sin embargo, en esta modalidad, no hay limitación sobre el almacenamiento de una pluralidad de elementos de información de rasgos para cada persona, y es obvio que el almacenamiento de una pluralidad de elementos de información de rasgos para cada persona es efectivo para la autenticación de imágenes de los rostros de personas que están caminando por separado.
Se puede utilizar cualquier método de registro. Por ejemplo, la unidad de salida 107 puede, desplegar de una manera asociada con otra, información de rasgos de rostro capturada en cada área de monitoreo y datos de imagen de cada rostro, como una lista de historias, y puede registrar la información en la base de datos de coincidencia de información de rostro 160 cuando la selección de una persona que ha de ser registrada de la lista es aceptada desde el usuario.
La unidad de determinación de similitud 108 determina si la persona incluida en los datos de imagen capturados por la cámara 150 es ' similar a la persona registrada en la base de datos de coincidencia de información de rostro 160.
Por ejemplo, la unidad de determinación de similitud 108 de conformidad con esta modalidad compara la similitud del subespacio de entrada obtenido por la unidad de detección de rostros 103 y por lo menos uno de la pluralidad de subespacios registrados en la base de datos de coincidencias de información de rostros 160, permitiendo asi la determinación de si personas preliminarmente registradas están presentes en la imagen actual. Cuando una pluralidad de personas está presente, la unidad de determinación de similitud 108 puede reconocer a todas las personas presentes en la pantalla repitiendo el proceso por el número correspondiente al número de personas detectadas.
Como un método de cálculo para obtener la similitud •entre subespacio, se puede utilizar un método tal como un método de subespacio o un método de similitud múltiple. Como el método de reconocimiento en esta modalidad, se utilizan métodos de subespacio mutuos descritos en los documentos (Kazuhiro Fukui, Osamu Yamaguchi, Kenichi Maeda : "Sistema de reconocimiento de rostros usando secuencia de imagen temporal", the Institute of Electronics, information and communication Technical Report PRMU, vol . 97, No. 113, pp. 17-24 (1997); Kenichi Maeda, Sadakazu Watanabe: "Método de coincidencia de patrón con estructura local", Proceedings of the Institute of Electronics, information and communication (D) , vol. J68-D, No. 3, pp. 345-352 (1985)).
En el método, datos de reconocimiento incluidos en información de registro preliminarmente almacenada y datos de entrada también son expresados como subespacios calculados a partir de una pluralidad de imágenes y un "ángulo" formado entre dos subespacios es definido como una similitud. Cabe notar que los subespacios de entrada son referidos como subespacios de medias de entrada. Una matriz de correlación Cin se obtiene de la misma manera para una cadena de datos introducidos, y es diagonalizada como ???=f?????f???, obteniendo asi un eigenvector f??. Una similitud (0.0 a 1.0) entre los subespacios presentados por dos valores f?? y fd se obtienen, . y esto se define como la similitud para reconocimiento. Cuando hay una pluralidad de rostros en la imagen, la similitud a cada imagen de rostro almacenada en los medios de manejo de rasgos de rostros registrados se calcula para todas las personas en orden, obteniendo asi resultados para todas las personas.
En el caso en donde Y personas son registradas en la base de datos de coincidencia de información de rostro 160 cuando X personas caminan, la unidad de determinación de similitud 108 calcula los tiempos de similitud X*Y haciendo asi posible emitir resultados de todas las X personas. Además, cuando el resultado de reconocimiento no puede ser emitido con el resultado de cálculo obtenido al introducir m elementos de datos de imagen (cuando se determina que ningún registro coincide, y el marco subsiguiente es adguirido y calculado) la unidad de determinación de similitud 108 añade la' matriz de corrección que ha de ser introducida a los subespacios anteriormente descritos, a la suma dé matrices de correlación obtenidas al producir un marco por una pluralidad de marcos previos, permitiendo asi el cálculo nuevamente de eigenvectores, creación de subespacios y actualización de los subespacios en el lado de entrada es decir, en el caso de continuamente capturar y recopilar imágenes de rostro de personas, la coincidencia se calcula mientras se obtienen datos de imagen uno por uno y actualizando el subespacio, permitiendo asi cálculos con precisión cada vez mayor.
Esta modalidad se ha descrito suponiendo que una pluralidad de elementos de datos de imagen es introducida. Sin embargo, como se describe en el documento (TOSHIBA CORPORATIO (Tatsuo Kozakaya) : "Aparato, método y programa de reconocimiento de imagen" JP-A-2007-4767 ) , los datos de imagen son creados variando intencionalmente la dirección o estado de un rostro al usar un modelo para un elemento de datos de imagen de rostro, haciendo asi posible realizar el proceso de manera similar al método de subespacio mutuo usando en el primer sistema de coincidencia.
Enseguida, el procesamiento de detección de rostros en el procesador de información biológica 100 de conformidad con esta modalidad se describirá. La figura 2 es un diagrama de flujo que ilustra un procedimiento del proceso descrito anteriormente del procesador de información biológica 100 de conformidad con esta modalidad.
Primero, la unidad de entrada 101 realiza procesamiento de entrada sobre los datos de imagen capturados por la cámara 150 (S201) .
Cabe notar que para una variable i ,"1" es fijado como un valor por omisión. Entonces, la unidad de parámetro 102 determina que la variable i es igual a o menor que el número de candidatos de parámetro "N" (S202).
Entonces, cuando se determina que la variable i es igual a o menor que el número de candidatos de parámetro "N" (S202: S'i), la unidad de fijación de parámetros 102 fija el parámetro (s) de detección correspondiente a la variable i para cada una de la unidad de detección de rostros 103 y la unidad de detección de información de rasgos de rostro 104 (S203) .
Después de eso, la unidad de detección de rostros 103 detecta el área de rostro a partir de los datos de imagen basados en el parámetro(s) de detección fijado (S204).
Enseguida, la unidad de extracción de información de rasgos de rostro 104 extrae la información de rasgos de rostro a partir de los datos de imagen (S205) . Después de eso, la unidad de determinación de información de rasgos 105 determina la precisión de extracción de la información de rasgos extraída (S206) . En esta modalidad, un valor de evaluación que representa una precisión de extracción se calcula para cada elemento. Como el valor de evaluación, una varianza de coordenadas de punto de rasgo se puede usar, por ejemplo. Cabe notar que un método de determinación específico se describirá más adelante.
Después de que "1" se añade a la variable i, el proceso regresa al procesamiento en S202. Después, en S202, cuando se determina que la variable i es mayor que el número de candidatos de parámetro "N" (S202: No), la unidad de determinación de información de rasgos 105 compara los resultados de determinación de N tipos de elementos de información de rasgos (S207) .
Después de eso, la unidad de determinación de información de rasgos 105 selecciona la información de rasgos que tiene el resultado de determinación más alto de entre los N tipos de elementos de información de rasgos (S208) .
Después, la unidad de determinación de información de rasgos 105 determina si todos los valores de evaluación de la información de rasgos seleccionada son o no iguales a o mayores que un umbral predeterminado "B" · (S209) . Suponiendo que un valor apropiado es fijado como el umbral "B" de conformidad con la modalidad, la descripción del mismo es omitida. Cuando no hay valor de evaluación igual a o menor que el umbral predeterminado "B" (S209: Si), el proceso procede a S211.
Cuando hay por lo menos un valor de evaluación igual a o menor que el umbral predeterminado "B" ('S209: No), la unidad de corrección 106 realiza corrección para incrementar el valor de determinación (S210) .
Después de eso, la unidad de salida 107 registra, de una manera asociada una con otra, la información de rasgos y los datos de imagen de la base de datos de coincidencia de información de rostro (S211) .
Enseguida, el procesamiento de cálculo del valor de evaluación en la unidad de determinación de información de rasgos 105 de conformidad con esta modalidad se describirá. La figura 3 es un diagrama de flujo que ilustra un procedimiento para el procesamiento en la unidad de determinación de información de rasgos 105 de conformidad con esta modalidad.
Primero, la unidad de determinación de información de rasgos 105 realiza procesamiento de entrada sobre la información de rasgos de rostro y los datos de imagen a partir de los cuales la información de rasgos es extraída, de la unidad de extracción de información de rasgos de rostro 104 (S301) . El área de rostro detectada por la unidad de detección de rostros 103 de entre los elementos de datos de imagen sometidos al procesamiento de entrada es también sometida al procesamiento de. entrada.
La unidad de determinación de información de rasgos 105 calcula un valor de evaluación de calidad de imagen para los datos de imagen (S302). En esta modalidad, un contraste y una distribución de color se usan como un criterio de evaluación para calcular el valor de evaluación de calidad de imagen. Por ejemplo, la unidad de determinación de información de rasgos 105 determina -si la relación de contraste satisface o no la siguiente expresión (1) para evaluar el contraste.
Gcontl' < (Lmáx-Lmin) / (Lmáx+Lmin) < 9cont2... (1) Cabe notar que Lmáx representa un valor de brillantez máximo incluido en el área de rostro; Lmin representa un valor de brillantez mínimo incluido en el área de rostro; y 6contl y 9cont2 son umbrales predeterminados.
Como otro ejemplo de una evaluación de calidad de imagen, la unidad de determinación de información de rasgos 105 extrae la frecuencia de colores del área de rostro, y determina si la frecuencia satisface o no el rango de umbrales incluyendo un promedio o varianza. Además, se puede determinar si la pantalla total es o no negra debido a una iluminación extremadamente insuficiente. Entonces, la unidad de determinación de información de rasgos 105 emite los resultados de determinación como el valor de evaluación de calidad de imagen.
Enseguida, la unidad de determinación de información de rasgos 105 calcula un valor de evaluación de detección de rostros (S303) . En esta modalidad, se determina si ocurre o no desalineación en la detección de rostros, como evaluación de la detección de rostros. La figura 4 es un diagrama que ilustra una desalineación de detección de rostros. En el ejemplo ilustrado en la figura 4, se supone que el área 401 es erróneamente detectada como un área de rostro.
En esta modalidad, la unidad de determinación de información de rasgos 105 determina la información de rasgos basada en si la posición (punto de rasgo) de la porción característica de rostro extraída por la unidad de extracción de información de rasgos de rostro 104 es o no incluida en el área de rostro detectada por la unidad de detección de rostros 103. Cuando el número de puntos de rasgos detectados es mayor que el umbral, . se determinada que la posición detectada como el área de rostro es desplazada. La unidad de determinación de información de rasgos 105 emite el resultado de determinación como el valor de evaluación de detección de rostros.
Posteriormente, la unidad de determinación de información de rasgos 105 calcula un valor de evaluación de simetría y un valor de evaluación de alineación (S304).
El término "valor de evaluación de simetría" se refiere a un valor obtenido al determinar si componentes simétricos, como ambos ojos, son apropiadamente extraídos de una manera simétrica por la unidad de extracción de información de rasgos de rostro 104. La figura 5 es un diagrama que ilustra un ejemplo en el cual ocurre una desalineación en los puntos de rasgos detectados de ambos ojos. En esta modalidad, la unidad de determinación de información de rasgos 105 confirma si los componentes izquierdo y derecho están dispuestos simétricamente en línea con una línea recta 503 que pasa a través del centro de un marco de detección de rostros como una referencia. También en el ejemplo ilustrado en la figura 5, se puede confirmar que un punto de rasgo 501 representa el ojo derecho, un punto de rasgo 502 representa el ojo izquierdo; y la distancia entre el ojo derecho de la línea recta 503 es diferente de aquella entre el ojo izquierdo de la línea recta 503. De manera específica, la unidad de determinación de información de rasgos 105 determina la información de rasgos usando la siguiente expresión (2) . Cabe notar que una variable n representa el número de puntos de rasgos de rostro detectados del rostro, y w_l, w_n son parámetros ponderados. w_l| |x_l-y_l| G2+ ... +w_n | | x_n-y_n | G 2 < 9mirr ··· (2) Cada uno de x_l, ···, y x_n representa una coordenada de puntos de rasgos en un primer lado (por ejemplo, lado izquierdo) cuando la rostro es dividida en dos partes por la linea recta 503 como se describió antes. Cada uno de y_l, y y_n representa una coordenada de puntos de rasgo en un segundo lado (por ejemplo, lado derecho) cuando el rostro es dividido en dos partes por la linea recta 503 descrita anteriormente, como una coordenada sometida a reflexión en el primer lado con respecto a la linea recta 503. De manera especifica, cuando los puntos de rasgo derecho e izquierdo están dispuestos de manera simétrica, por ejemplo, se sostiene x_l-y_l="0". Supóngase que Gmirr representa un umbral predeterminado.
Cabe notar que una desviación de coordenadas se puede medir por la distancia euclidiana o por otras distancias tales como una norma. Como el parámetro de ponderación, un valor se puede fijar únicamente a componentes (por ejemplo, ojos) que son fácilmente detectados. De esta manera, la ejecución de la ponderación apropiada puede mejorar la precisión de la determinación.
La unidad de determinación de información de rasgos 105 puede confirmar la consistencia que indica si una desviación de cada punto de rasgo del valor medio cae dentro del umbral, usando el valor promedio m de las posiciones de los puntos de rasgos en los datos de imagen. El valor promedio m se calcula a partir de la siguiente expresión (3) . m=(x_l + ... + x_n)/n ··· (3) Entonces, la unidad de determinación de información de rasgos 105 confirma la consistencia que indica si la desviación del promedio cae dentro de un cierto umbral usando la siguiente expresión (4).
Máx{ I |x_l-m| | · · · | |x_n-m| | } < Gprom · · · (4) La unidad de determinación de información de rasgos 105 puede confirmar la consistencia de una relación de posición relativa entre los puntos de rasgos. A partir de n puntos de rasgos, k (k=l,- ···, n) puntos de rasgos se seleccionan (los puntos de k rasgos seleccionados se definen como x_l a x_k para facilidad de explicación) , y un vector que representa la relación de posición relativa se calcula para todas las combinaciones de los puntos de rasgos seleccionados en la siguiente expresión (5) . x_l-x_2, x_l-x_k, x_k-x_{k-l} ··· (5) El número de vectores calculados en la expresión (5) está representado por k(k-l)/2. Una distribución de probabilidades usando el valor, de vector como la variable de probabilidad se estima con base en datos de aprendizaje preparados, y un umbral Gprob es fijado con base en los resultados de estimación. Posteriormente, la unidad de determinación de información de rasgos 105 determina si hay una desalineación, usando la siguiente expresión (6), y la emite como un valor de evaluación de consistencia.
Pr(x_l-x_2, x_l-x_k, x_k-x_{k-l}) < 9prob ··· (6) Como resultado de la expresión (6), cuando las posiciones relativas de los puntos de rasgos están dispuestas en posiciones no similares, se determina que hay una desalineación, y el valor de evaluación basado en el resultado de determinación es emitido.
Enseguida, la unidad de determinación de información de rasgos 105 calcula el valor de evaluación de similitud con base en la similitud a un modelo de rostro promedio (S305) . En el cálculo de la similitud de conformidad con esta modalidad, h modelos promedio (rostros promedio) de una imagen de rostro típica se obtienen. La unidad de determinación de información de rasgos 105 calcula similitudes s_l, y s_h entre estos modelos promedio.
Después de eso, la unidad de determinación de información de rasgos 105 realiza determinación de la siguiente expresión (7) . máx{s_l, s_k} < 9s · · · (7) Cuando la expresión (7) es satisfecha, el rostro- no es similar a alguno de los rostros promedio. Por consiguiente, la unidad de determinación de información de rasgos 105 determina que el procesamiento de detección no se lleva a cabo apropiadamente, y emite el valor de evaluación de similitud.
La unidad de determinación de información de rasgos 105 de conformidad con esta modalidad fija los valores de evaluación, que son calculados por evaluación de calidad, evaluación de detección de rostros, evaluación dé simetría, evaluación de alineación, evaluación de alineación relativa, y evaluación de similitud, como A_l, A_m. Después, un valor de evaluación final z del procesamiento de detección es calculado a partir de la siguiente expresión (8) con base n el valor de evaluación fijado. z=c_l»A_l+...+c_m*A_m · · · (8) Las ponderaciones c_l, y c_m se pueden determinar mediante un método, tal como análisis de regresión, sobre la base de datos de aprendizaje preparados tales como un resultado de detección de una imagen de rostro que tiene un punto de rasgos detectado como correcto y un resultado de detección de una imagen de rostro que tiene un punto de rasgos detectado como falso. Cuando sólo una parte de los elementos son enfocados, "0" se puede fijar a- la ponderación c_i correspondiente al valor del elemento pasado por alto i.
Cuando el umbral en cada elemento no es satisfecho, se establece como el valor de evaluación z.
Cuando se determina que el valor de evaluación z no excede un umbral ??, la unidad de determinación de información de rasgos 105 requiere que la unidad de corrección 106 corrija el punto de rasgo, la calidad de imagen, o similar.
Enseguida, se describirá el procesamiento de corrección en la unidad de corrección 106 de conformidad con esta modalidad. La figura 6 es un diagrama de flujo que ilustra un procedimiento para el procesamiento en la unidad de corrección 106 de conformidad con esta modalidad.
En el procedimiento para el procesamiento ilustrado en la figura 6, se describe un ejemplo de realizar automáticamente la determinación y corrección.
Alternativamente, la determinación y corrección pueden ser realizadas manualmente. Posteriormente, sólo la corrección de una desviación en la detección de rostros puede realizarse manualmente, y otras correcciones pueden ser realizadas, por ejemplo, automáticamente. La figura 7 es un diagrama que ilustra un ejemplo de una pantalla de interfaz para corrección del resultado de detección. El usuario puede realizar la corrección mientras se refiere a la pantalla ilustrada en la figura 7. En este caso, el punto de rasgo que causa una disminución en el valor de evaluación puede ser desplegado como una guia de entrada 701. Cada vez que el usuario realiza corrección, la unidad de determinación de información de rasgos 105 determina la precisión de extracción, el resultado de determinación es desplegado en un campo 702. Por lo tanto, en el caso de realizar la corrección manualmente, cuando el usuario manipula un ratón o un teclado para realizar la corrección, el usuario puede realizar el trabajo de corrección mientras observa visualmente el valor numérico del resultado de determinación desplegado en la pantalla.
Haciendo referencia nuevamente a la figura 6, se describirá un ejemplo en el cual la unidad de corrección 106 realiza corrección automáticamente. Primero, la unidad de corrección 106 determina si el valor de evaluación de calidad de imagen es igual a o menor que el umbral (S601). Cuando el valor de evaluación de calidad de imagen es mayor que el umbral (S601: No), ningún procesamiento particular se lleva a cabo antes de S603.
Cuando la unidad de corrección 106 determina que el valor de evaluación de calidad de imagen es igual a o menor que el umbral (S601: Si), los datos de imagen son corregidos (S602)-. Ejemplos del método de corrección incluyen ajuste de graduación, alargamiento de contraste y cambio de brillantez de datos de imagen. Como corrección de otras calidades de imagen, también se puede realizar la corrección de rotación y el procesamiento de escalamiento.
Después de eso, la unidad de corrección 106 determina si el valor de evaluación de detección de rostros es o no igual a o menor que el umbral (S603) . Cuando se determina que el valor de evaluación de detección de rostros es mayor que el umbral (S603: No),. . no se realiza procesamiento antes de S605.
Entonces, cuando la unidad de corrección 106 determina que el valor de evaluación de detección de rostros es igual a o menor que el umbral (S603: Si), la unidad de corrección 106 corrige el área del rostro (S604).
Después de eso, la unidad de corrección 106 determina si por lo menos uno de un valor de evaluación de simetría, un valor de evaluación de alineación y un valor de evaluación de similitud es igual a o menor que un umbral (S605) . Cuando se determina que todos los valores son mayores que el umbral (S605: No), el procesamiento se termina.
Después, cuando la unidad de corrección 106 determina que por lo menos uno del valor de evaluación de similitud, el valor de evaluación de alineación y el valor de evaluación de similitud es igual a o menor que el umbral (S605: Sí), la unidad de corrección 106 corrige el punto de rasgos de rostro (S606) .
Varias correcciones son llevadas a cabo por el procedimiento de procesamiento descrito anteriormente. En el procesamiento de corrección automática, después de que todas las correcciones son terminadas, cuando la unidad de determinación de información de rasgos 105 determina que la información de rasgos es apropiada, el punto de rasgo es registrado en la base de datos de coincidencia de información de rostro 160. Cuando se determina como inapropiado, el usuario realiza procesamiento de corrección manualmente.
La unidad de salida 107 del procesador de información biológica 100 de conformidad con esta modalidad puede emitir, uno o más elementos de datos de imagen de un rostro capturado, o una imagen en movimiento que ha de estar asociado con la información de rasgos de rostro de modo que el resultado de identificación se puede determinar visualmente .
Ejemplo modificado de la primera modalidad En esta modalidad, la información de rasgos que tiene el valor de evaluación más alto se selecciona de entre los elementos de información de rasgos extraídos usando n tipos de parámetros de detección. Sin embargo, el método de extracción de la información de rasgos no está limitado a dicho método. La figura 8 es un diagrama que ilustra un método de extracción de punto de rasgos a partir de la unidad de extracción de información de rasgos de rostro 104 de conformidad con un ejemplo modificado.
Como se ilustra en la figura 8, la unidad de extracción de información de rasgos de rostro 104 extrae n tipos de elementos de información de rasgos usando n tipos de parámetros de detección. Después de eso, la unidad de extracción de información de rasgos de rostro 104 realiza procesamiento promedio sobre los N tipos extraídos de elementos de información de rasgos, y extrae información de rasgos promediada.
Más aún, como un método diferente del método de esta modalidad para especificar la posición de la porción, se puede utilizar un método de estimación de otras posiciones componentes al aplicar un modelo de componente de un rostro de una parte de puntos de rasgo.
Como se describió antes, en el caso de registrar un gran número de elementos de información de rasgo basado en la información biológica, tal como una imagen para autenticación de rostro, en una base de datos, el procesador de información biológica 100 de conformidad con esta modalidad determina la precisión de extracción de la información de rasgos. Esto permite el registro de información de rasgos excelente, con alta eficiencia. Esto alivia una reducción en la precisión de coincidencia debido a información de rasgos registrada.
Segunda modalidad Una segunda modalidad ilustra un ejemplo en el cual los datos de imagen de rostro para prueba son introducidos y la información de rasgos de la base de datos de coincidencia de información de rostro es verificada usando los datos de imagen de rostro de entrada.
La figura 9 es un diagrama de bloques que ilustra una configuración de un procesador de información biológica de conformidad con una segunda modalidad. Un procesador de información biológica 900 de conformidad con esta modalidad difiere del procesador de información biológica 100 de conformidad con la primera modalidad descrita anteriormente en los siguientes aspectos. Es decir, se añaden una unidad de entrada de imagen de prueba 901 y una unidad de perturbación de punto de rasgo 902. La unidad de determinación de información de rasgos 105 es reemplazada por una unidad de determinación dé similitud 905 que ejecuta un procesamiento diferente de aquel de la unidad de determinación de información de rasgos 105. La unidad de detección de rostros 103 y la unidad de extracción de información de rasgos de rostro 104 son respectivamente reemplazadas por una unidad de detección de rostros 903 y una unidad de extracción de información de rasgos de rostro 904 que ejecutan procesamiento diferentes de aquellos de la unidad de detección de rostros 103, y la unidad extracción de información de rasgos de rostro 104. En la siguiente descripción, los componentes idénticos con aquellos de la primera modalidad descrita anteriormente son denotados por los mismos números de referencia, y se omite la descripción de los mismos.
La unidad de detección de rostros 903 y la unidad de extracción de información de rasgos de rostro 904 son similares a la unidad de detección de rostros 103 y la unidad de extracción de información de rasgos de rostro 104 de conformidad con la primera modalidad, excepto que la fijación de parámetros no es realizada por la unidad de fijación de parámetros 102.
De manera específica, la unidad de entrada 101 introduce los datos de imagen capturados por la cámara 150, y la unidad de detección de rostros 903 detecta el área de rostro. Posteriormente, la unidad de extracción de información de rasgos de rostro 104 extrae información de rasgos y la unidad de corrección 106 realiza corrección manualmente o automáticamente según sea necesario. Después de eso, la unidad de salida 107 registra la información de rasgos en la base de datos de coincidencia de información de rostro 160 Esta modalidad ilustra un ejemplo en el cual un tipo de información de rasgos es generado sin generar los N tipos de información de rasgo. Más bien, el procesador de información biológica 900 de conformidad con esta modalidad genera intencionalmente información de rasgos errónea a partir de datos de imagen de rostro para prueba, y compara la información de rasgos con la información de rasgos ya registrada, determinando así la precisión de extracción de la información de rasgos ya registrada.
Esta modalidad ilustra un ejemplo de extracción de la información de rasgos de rostro. No sólo el procesamiento especializado en un rostro, sino también un método de búsqueda de una persona a partir de datos de imagen que representan varios elementos de información biológica es también aplicable. Ejemplos de la información biológica incluyen un iris, una retina, un patrón de venas de una mano o un dedo, un patrón de huellas digitales, . o un estado de un ojo, un oído o una boca. Lo mismo es cierto para las siguientes modalidades.
La unidad de entrada de imagen de prueba 901 realiza procesamiento de entrada en los datos de imagen de rostro para prueba.
La unidad de perturbación de puntos de rasgos 902 permite que la posición del punto de rasgos, que es detectada automáticamente o a partir de los datos de imagen de rostro para prueba, sea perturbada. La figura 10 es un diagrama que ilustra la perturbación de puntos de rasgos por la unidad de perturbación de puntos de rasgos 902. Como se ilustra en la figura 10, la unidad de perturbación de puntos de rasgos 902 fija varios tipos de conjuntos de puntos de rasgo incluyendo puntos de rasgos que tienen diferentes posiciones diferentes de la posición, basada en un conjunto de puntos de rasgo correctamente detectados 1001 (en el ejemplo ilustrado en la figura' 10, P tipos) .
Como el método de perturbación, las coordenadas de punto de rasgos de entrada Xn pueden ser aleatoriamente perturbado's a Xn+En por una variable de probabilidad En que sigue una distribución de probabilidad tal como una distribución Gaussiana. Posteriormente, se pueden usar otras distribuciones de probabilidad, y se puede realizar perturbación manual.
La unidad de extracción de rasgos de rostro 904 posteriormente extrae la información de rasgos para cada conjunto de puntos de rasgos perturbado por la unidad de perturbación de puntos de rasgos 902.
La unidad de determinación de similitud 905 compara la información de rasgos registrada en la base de datos de coincidencia de información de rostro 160 con la información de rasgos generada basada en el punto de rasgos perturbado, y determina la precisión de extracción de la información de rasgos registrada en la base de datos . de coincidencia de información de rostro 160.
En la unidad de determinación de similitud 905 de conformidad con esta modalidad, la información de rasgos registrada en la base de datos de coincidencia de información de rostro 160 se compara con la información de rasgos basada en el punto de rasgos perturbado. Cuando la similitud es igual a o mayor que un umbral predeterminado, se determina que la información de rasgos es erróneamente extraída. En otras palabras, puesto que la información de rasgos es similar a la información de rasgos errónea, se puede considerar que un error probablemente ocurre también en la información de rasgos registrada en la base de datos de coincidencia de información de rostro 160.
La información de rasgos que es determinada como errónea y registrada en la base de datos de coincidencia de información de rostro 160 es corregida por la unidad de corrección 106.
Enseguida, el procesamiento de determinación de similitud entre elementos de información de rasgos en el procesador de información biológica 900 de conformidad con esta modalidad se describirá. La figura 11 es un diagrama de flujo que ilustra un procedimiento para el procesamiento en el procesador de información biológica 900 de conformidad con esta modalidad.
Primero, la unidad de entrada de imagen de prueba 901 realiza procesamiento de entrada sobre los datos de imagen de rostro para prueba (S1101) . Enseguida, la unidad de perturbación de punto de rostro 902 realiza perturbación de los puntos de rasgos detectados a partir de los datos de imagen de rostro para prueba sometidos al procesamiento de entrada (S1102) .
Después de eso, la unidad de extracción de información de rasgos de rostro 904 genera información de rasgos basada en el punto de rasgos perturbado (S1103) .
Después, la unidad de determinación de similitud 905 determina si la variable i es o no igual a o menor que el número de personas registradas en la base de datos de coincidencia de información de rostro 160 (S1104). Cabe notar que el valor por omisión de la. variable i es "0".
Después, cuando la unidad de determinación de similitud 905 determina que la variable i es igual o menor que el número de personas registradas (S1104: Si), la similitud entre la información de rasgos de la i-ésima persona registrada y la información de rasgos basada en el punto de rasgos perturbado se calcula (S1105) . Cuando p tipos de elementos de información de rasgos basados en punto de rasgos perturbados son generados, la similitud para cada información de rasgos se calcula.
Después de eso, la unidad de determinación de similitud 905 determina si la similitud calculada es o no igual a o menor que el umbral predeterminado A (S1106) . Cuando se determina que la similitud es igual a' o menor que el umbral A (S1106: Si), el procesamiento se lleva a cabo nuevamente a partir de S1104.
Por otra parte, cuando la unidad de determinación de similitud 905 determina que la similitud es mayor que el umbral A (S1106: No), la unidad de corrección 106 realiza procesamiento de corrección (S1107) . Cabe notar que el procesamiento de corrección es similar al de la primera modalidad, por lo que la descripción de la misma es omitida.
En S1104, cuando la unidad de determinación de similitud 905 determina que la variable i es mayor que el número de personas registradas (S1104: No), la unidad de salida 107 actualiza la base de datos de coincidencia de información de rostro 160 usando la información de rasgos corregida por la unidad de corrección 106 (S1108) .
El procedimiento de procesamiento descrito anteriormente permite la detección y corrección de información de rasgos erróneamente extraída de los elementos de información de rasgos registrada en la base de datos de coincidencia de información de rostro 160. Esto permite una mejora en la precisión de coincidencia.
De conformidad con una primera y segunda modalidades, la provisión de la configuración descrita anteriormente permite el reconocimiento de la precisión de extracción de la información de rasgos de rostro. Esto permite corrección para mejorar la precisión de extracción, por ejemplo.
Tercera modalidad La figura 12 es un diagrama de bloques que ilustra una configuración de un procesador de información bilógica 1200 de conformidad con una tercera modalidad. El procesador de información biológica 1200 de conformidad con esta modalidad difiere del procesador de información biológica 900 de conformidad con la segunda modalidad descrita anteriormente en que- la unidad de entrada 101, la unidad de perturbación de puntos de rasgos 902, la unidad de detección de rostros 903 y la unidad de determinación de similitud 905 son removidas y se agrega una unidad de determinación de historia' de coincidencias 1201. En la siguiente descripción, componentes idénticos a aquellos de la segunda modalidad descrita anteriormente son denotados por los mismos números de referencia, y la descripción de los mismos es omitida.
La unidad de entrada de imagen de prueba 901 realiza procesamiento de entrada sobre los datos de imagen de rostro usados para una prueba de coincidencia.
La unidad de determinación de historia de coincidencias 1201 determina la precisión de extracción de la información de rasgos basada en la historia de rangos de búsqueda .
Enseguida, el procesamiento de determinación de la precisión de extracción de la información de rasgos en el procesador de información biológica 1200 de conformidad con esta modalidad se describirá. La figura 13 es un diagrama de flujo que ilustra el procedimiento descrito anteriormente para el procesamiento en el procesador de información biológica 1200 de conformidad con esta modalidad. Cabe notar que el valor por omisión del número de coincidencias i es "0".
Primero, la unidad de entrada de imagen de prueba 901 realiza procesamiento de entrada sobre los datos de imagen de rostro (S1301) . Enseguida, la unidad de determinación de historia de coincidencias 1201 determina si el número de coincidencias i es o no igual a o menor que el umbral (S1302) .
Cuando la unidad de determinación de historia de coincidencias 1201 determina que el número de coincidencias i es igual o menor que el umbral (S1302: Si), la unidad de extracción de información de rasgos de rostro 904 extrae la información de rasgos de los datos de imagen de rostros sometidos al procesamiento de entrada (S1303) .
Enseguida, la unidad de determinación de historia de coincidencias 1201 calcula la similitud a la información de rasgos extraída en S1303 para cada información de rasgos registrada por la base de datos de coincidencia de información de rostro 160 (S1304) .
Después, la unidad de determinación de historia de coincidencias 1201 especifica un rango de similitud de cada información de rangos registrada en la base de datos de coincidencia de información de rostro 160, de conformidad con la similitud calculada (S1305) .
Más aún, la unidad de determinación de historia de coincidencias 1201 almacena el rango de similitud para la información de rasgos que tiene un rango de similitud igual a o menor que el umbral predeterminado A (S1306) . Después de eso, el procesamiento se lleva a cabo a partir de S1301 nuevamente .
Por otra parte, en S1302, cuando la unidad de determinación de historia de coincidencias 1201 determina que el número de coincidencias i es mayor que el umbral (S1302: No) , el procesamiento especifico del rango de similitud es terminado, y el proceso procede a S1307.
La unidad de determinación de historia de coincidencias 1201 determina si una variable k es igual a o menor que el número de registros en la base de datos de coincidencia de información de rostro 160 (S1307) . Cabe notar que el valor por omisión de la variable k es "0".
Cuando se determina ' que la variable k es igual a o menor que el número de registros en la base de datos de coincidencias de información de rostro 160 (S1307: Si), la unidad de determinación de historia de coincidencias 1201 determina si el número de veces en donde los rangos de coincidencia para datos k son iguales a o menores que el umbral A es o no igual a o mayor que un umbral B (S1308) . Cuando se determina que el número de veces no es igual al umbral B (S1308: No), "1" se agrega a la variable k y el procesamiento se lleva a cabo a partir de S1307.
Cuando la unidad de determinación de historia de coincidencias 1201 determina que el número de veces es igual a o mayor qué el umbral B (S1308: Si), la unidad de corrección 106 lleva a cabo la corrección (S1309) .
Por otra parte, cuando la unidad de determinación de historia de coincidencias 1201 determina que la variable k es mayor que el número de registros en la base de datos de coincidencias de información de rostro 160 (S1307: No), el procesamiento es terminado.
El procesador de información biológica 1200 de conformidad con esta modalidad tiene la configuración descrita anteriormente, que permite la detección y corrección de datos anormales en la base de datos de coincidencias de información 160 y mejora de la precisión de coincidencias.
Cuarta modalidad La figura 14 es un diagrama de bloques que ilustra una configuración de un procesador de información biológica 1400 de conformidad con una cuarta modalidad. El procesador de información biológica 1400 de conformidad con esta modalidad difiere del procesador de información biológica 900 de conformidad con la segunda modalidad descrita anteriormente en los siguientes aspectos. Es decir, la unidad de entrada de imagen de prueba 901 es remplazada por una unidad de entrada de información de rasgos 1401 que ejecuta un procesamiento diferente de aquel de la unidad de entrada de imagen de prueba 901. La unidad de determinación de historia de coincidencias 1201 es remplazada por una unidad de determinación de resultados de coincidencias 1402 que ejecuta procesamiento diferente de aquel de la unidad de determinación de historia de coincidencias 1201. La unidad de extracción de información de rasgos de rostro 904 es removida. En la siguiente descripción, los componentes idénticos con aquellos de la segunda modalidad descrita anteriormente son denotados por los mismos números de referencia y la descripción de los mismos es omitida.
Esta modalidad ilustra un ejemplo en el cual la determinación se realiza con base en la similitud entre elementos de información de rasgos de los datos de imagen registrados en la base de datos de coincidencia de información de rostro 160.
La unidad de entrada de información de rasgos 1401 realiza procesamiento de datos de imagen de entrada e información de rasgos de la base de datos de coincidencia de información de rostro 160.
Después, la unidad de determinación de resultado de coincidencias 1402 calcula una similitud entre los elementos de información de rasgos de los datos de imagen de la base de datos de coincidencia de información de rostro 160, y determinan la precisión de extracción de la información de rostro basada en la similitud. Supóngase que la todos o una parte de pares en la base de datos de coincidencia de información de rostro 160 son comparados unos con otros.
Enseguida, el procesamiento de determinación de la precisión de extracción de la información de rasgos en el procesador de información biológica 1400 de conformidad con esta modalidad se describirá. La figura 15 es un diagrama de flujo que ilustra un procedimiento- para el procesador de información biológica 1400 de conformidad con esta modalidad. Cabe notar que el valor por omisión del número de coincidencias i es "0".
Primero, la unidad de entrada de información de rasgos 1401 realiza procesamiento de entrada sobre los datos de imagen y la información de rasgos asociada con los datos de imagen a partir de la base de datos de coincidencia de información de rostro 160 (S1501) . Cabe notar que esta modalidad ilustra un ejemplo en el cual procesador de información biológica 1400 incluye una base de datos de coincidencia de información de rostro 160, y la base de datos de coincidencia de información de rostro 160 se puede proveer fuera del procesador de información biológica 1400. Cabe botar que el valor por omisión de la variable i es "0".
Enseguida, la unidad de determinación de resultado de coincidencias 1402 determina si la variable i es o no igual a o menor que el número de registros en la base de datos de coincidencia de información de rostro 160 (S1502) .
Cuando se determina que la variable i es igual a o menor que el número de registros en la base de datos de coincidencia de información de rostro 160 (S1502: Si), la unidad de determinación de resultado de coincidencias 1402 determina si la variable j es o no igual a o menor que el número de registros en la base de datos de coincidencia de información de rostro 160 (S1503) .
Cuando la unidad de determinación de resultado de coincidencias 1402 determina que la variable j es igual a o menor que el número de registros en la base de datos de coincidencia de información de rostro 160 (S1503: Si), una similitud entre la información de rasgos de los i-ésimos datos de imagen de la base de datos de coincidencia de información de rostro 160 e información de rasgos de los j-ésimos datos de imagen de la base de datos de coincidencia de información de rostro 160 es calculada (S1504) .
Después de eso, la unidad de determinación de resultado de coincidencias 1402 determina si la similitud calculada es o no igual a o mayor que el umbral predeterminado B (S1505) . Cuando se determina que la similitud es menor que el umbral B (S1505: No), "1" se agrega a la variable j y el procesamiento se lleva a cabo a partir de S1503.
Por otra parte, cuando la unidad de determinación de resultado de coincidencias 1402 determina que la similitud calculada es igual a o mayor que el umbral predeterminado B (S1505: Si), "1" se agrega al número de similitudes de los i-ésimos datos de imagen y al número de similitudes de los j-ésimos datos de imagen (S1506) . Después de eso, "1" se agrega a la variable j y el procesamiento se lleva a cabo a partir de S1503. Cabe notar que el número de similitudes es sostenido para cada dato de imagen y el valor por omisión del mismo es "0".
Después, en S1503, cuando la unidad de determinación de resultados de coincidencias 1402 determina que la variable j es mayor que el número de registros en la base de datos de coincidencia de información de rostro 160 (S1503: No), "1", se agrega a la variable i y el procesamiento de S1502 se lleva a cabo.
Posteriormente, en S1502, cuando la unidad de determinación de resultados de coincidencias 1402 determina que la variable i es mayor que el número de registros en la base de datos de coincidencia de información de rostro 160 (S1502: No), el número de similitudes calculadas para cada dato de imagen es referido y los datos de imagen que tienen el número de similitudes iguales a o menores que un umbral C. es corregido por la unidad de corrección 106 (S1507).
El procedimiento de procesamiento descrito anteriormente permite la detección y corrección de datos anormales en la base de datos de coincidencias de información de rostro 160 y mejora en la precisión de coincidencias.
Cabe notar que esta modalidad ilustra el caso de determinación de la similitud de la información de rasgos dentro de una base de datos, pero la similitud de la información de rasgos puede ser determinada entre una pluralidad de bases de datos.
Como se describió antes, de conformidad con la primera a cuarta modalidades, al registrarse un gran número de elementos de información biológica tales como imágenes para autenticación de rostro en una base de datos, la confirmación y corrección del resultado de detección de la información de rasgos son automáticamente realizados, permitiendo asi el registro satisfactorio en la base de datos con eficiencia y reducción en información errónea durante la coincidencia. La confirmación y corrección del resultado de detección de la información de rasgos se realizan automáticamente también en un gran número de elementos de información biológica ya registrados en la base de datos, permitiendo asi la reducción en información errónea durante la coincidencia.
La figura 16 es un diagrama que ilustra una configuración de hardware de un procesador de información biológica de conformidad con la modalidad descrita anteriormente. Como se ilustra en la figura 16, el procesador de información biológica de la modalidad descrita anteriormente incluye una CPU 1601, una ROM (memoria de sólo lectura) 1602, una RAM 1603, una HDD 1604, un dispositivo de pantalla 1605 tal como un dispositivo de pantalla, y un dispositivo de entrada 1606 tal como ún teclado o un ratón, y tiene una configuración de hardware que usa una computadora típica .
El programa de procesamiento de información biológica que ha de ser ejecutado por el procesador de información biológica de la modalidad descrita anteriormente se provee en una forma registrada en un medio de registro legible por computadora, tal como un CD-ROM, disco flexible (FD), un CD-R, o un DVD (Disco Versátil Digital) con un formato instalable o archivo de formato ejecutable.
El programa de procesamiento de información biológica que ha de ser ejecutado por el procesador de información biológica de la modalidad descrita anteriormente puede estar configurado para ser almacenado en una computadora conectada a una red, tal como la Internet, y para ser provisto al ser descargado por la red. Alternativamente, el programa de procesamiento de información biológica que ha de ser ejecutado por el procesador de información biológica de la modalidad descrita anteriormente puede estar configurado para ser provisto o distribuido por una red tal como la Internet.
Además, un programa de procesamiento de información biológica que ha de ser ejecutado por el procesador de información biológica de la modalidad descrita anteriormente puede ser configurado y provisto para ser incorporado en una ROM o similar.
El programa de procesamiento de información biológica que ha de ser ejecutado por el procesador de información biológica de la modalidad descrita, anteriormente tiene una configuración de módulo que incluye las unidades descritas anteriormente. Como hardware real, la CPU 1601 lee el programa de procesamiento de información biológica del medio de registro descrito anteriormente y ejecuta el programa de procesamiento de información biológica, por lo que cada unidad es cargada en un dispositivo de almacenamiento principal y cada componente es generado en la RAM 1603.
Un procesador de información biológica expuesto en la nota complementaria 1 incluye una unidad de detección de área que detecta un área en la cual una persona es desplegada, a partir de información de imagen; una unidad de extracción . de rasgos que extrae información de rasgos basada en una porción característica de la persona del área detectada por la unidad de detección de área a partir de la información de imagen; y una unidad de determinación que determina una precisión de extracción que indica si la porción característica de la persona puede o no ser extraída, con respecto a la información de rasgos extraída por la unidad de extracción de rasgos, basada en una posición de la porción característica.
El procesador de información biológica expuesto en la nota complementaria 1, la unidad de determinación además calcula una simetría a partir de una referencia predeterminada de una pluralidad de posiciones que representan la porción característica de la persona, y determina la previsión de extracción basada en la simetría.
El procesador de información biológica expuesto en la nota complementaria 1 además incluye una unidad de corrección que corrige la información de imagen cuando la precisión de extracción determinada por la unidad de determinación es menor que un umbral predeterminado. La unidad de extracción de rasgos extrae información de rasgos a partir de la información de imagen corregida, y la unidad de determinación realiza determinación basada en la información de rasgos corregida por la unidad de corrección.
En el procesador de información biológica expuesto en la nota complementaria 3, la unidad de corrección realiza alargamiento de contraste, escalamiento, o corrección de rotación de la información de imagen, o corrección de la posición de la porción característica de la persona incluida en la información de imagen.
Aunque se han descrito ciertas modalidades, estas modalidades han sido presentadas a manera de ejemplo únicamente, y no pretenden limitar el alcance de las invenciones. De hecho, los métodos y sistemas novedosos descritos aquí pueden ser modalizados en una variedad de otras formas; además, varias omisiones, sustituciones y cambios en la forma de los métodos y sistemas descritos aquí se pueden hacer sin apartarse de la esencia de las invenciones. Las reivindicaciones anexas y sus equivalentes están diseñadas para cubrir todas aquellas formas o modificaciones que caen dentro del alcance y esencia de las invenciones .

Claims (11)

REIVINDICACIONES
1. Un procesador de información biológica, que comprende : una unidad de detección de área configurada para detectar un área en la cual una persona es desplegada a partir de información de imagen un unidad de extracción de rasgos configurada para extraer información de rasgos basada en una porción característica de una persona del área detectada por la unidad de detección de área a partir de la información de imagen; y una unidad de determinación configurada para determinar una precisión de extracción que indica si la porción característica de la persona puede o no ser extraída, con respecto a la información de rasgos extraída por la unidad de extracción de rasgos basada en la posición de la porción característica.
2. El procesador de información biológica de conformidad con la reivindicación 1, que comprende además una unidad de almacenamiento de imagen de persona configurada para almacenar información de imagen preparada para comparación en la cual una persona es desplegada, en donde la unidad de determinación está configurada para generar información de imagen normalizada obtenida mediante la extracción del área en la cual la persona es mostrada a partir de la información de imagen con la posición de la porción característica de la persona como una referencia, y comparar la información generada por imagen normalizada con la información de imagen normalizada generada con la información de imagen para comparación almacenada en la unidad de almacenamiento de imágenes persona para determinar la precisión de extracción.
3. El procesador de información biológica de conformidad con la reivindicación 1, en donde la unidad de determinación está configurada para calcular por lo menos uno de un centroide de la información de imagen con base en una pluralidad de las posiciones de una pluralidad de las porciones características de la persona y una distancia entre las posiciones, y determinar la precisión de extracción con base en si o no por lo menos uno del centroide y la distancia calculada es mayor que un umbral predeterminado.
4. El procesador de información biológica de conformidad con la reivindicación 1, en donde la unidad' de determinación está configurada para determinar la precisión de extracción de la información de rasgo extraída por la unidad de extracción de rasgos, en comparación con información de rasgos para comparación generada usando una posición diferente de la posición en donde la porción característica' es detectada como un rasgo.
5. El procesador de información biológica de conformidad con la reivindicación 1, en donde la unidad de extracción de rasgos está configurada para extraer información de rasgos con base en una posición que representa una de un rostro, una boca, un iris, retina, una oreja, una forma de una vena de una parte del humano cuerpo, una huella digital, y una huella de la palma de la persona incluida en el área detectada por la unidad de detección de área.
6. El procesador de información biológica de conformidad con la reivindicación 1, en donde la información de imagen que ha de ser detectada por la unidad de detección de área es una de información de imagen capturada por una unidad de captura de imagen y la información de imagen almacenada en una unidad de almacenamiento usada para autenticación de una persona.
7. Un procesador de información biológica, que comprende: una unidad de almacenamiento configurada para almacenar información de rasgos para autenticación extraída a partir de información de imagen preparada, la información de rasgos para autenticación estando basada en una posición que representa una porción característica de una persona; y una unidad de determinación de similitud configurada para calcular una similitud entre la información de rasgo basada en la posición que representa la porción característica de la persona incluida en la información de imagen y la información de rasgos para la autenticación almacenada en la unidad de almacenamiento, y determinar una precisión de extracción de la información de rasgos para autenticación de la similitud.
8. El procesador de información biológica de conformidad con la reivindicación 7, que además comprende una unidad de extracción . de rasgos configurada para extraer la información de rasgos basada en la posición que representa la porción característica de la persona incluida en la información de imagen recibida, en donde la unidad de determinación de similitud está configurada para calcular la similitud entre la información de rasgos extraída por la unidad de extracción de rasgos y la información de rasgos para autenticación almacenada en la unidad de almacenamiento.
9. El procesador de información biológica de conformidad con la reivindicación 7, en donde, la unidad de determinación de similitud está configurada para calcular similitudes entre cada una de la información de rasgos para la autenticación almacenada en la unidad de almacenamiento y la información de rasgos extraída por la unidad de extracción de rasgos, especificar un orden de similitudes entre la información de rasgo para autenticación almacenada en la unidad de almacenamiento y la información de rasgo extraída, a partir de las similitudes calculadas, y determinar la precisión de extracción de la información de rasgo para autenticación del orden de similitudes.
10. El procesador de información biológica de conformidad con la reivindicación 9, en donde la unidad de determinación de similitud está configurada para determinar la precisión de extracción de la información de rasgo para autenticación con base en si el número de veces el orden de las similitudes de la información de rasgos para autenticación se vuelve igual a o menor que un umbral predeterminado es igual a o mayor que un número predeterminado de veces.
11. El procesador de información biológica de conformidad con la reivindicación 7, en donde la unidad de determinación de similitud está configurada para calcular una similitud entre la información de rasgos para autenticación almacenada en la unidad de almacenamiento y la información de rasgos para autenticación almacenada en la unidad de almacenamiento, y determinar la precisión de extracción de la información de rasgo para autenticación a partir de la similitud.
MX2012010637A 2012-03-19 2012-09-14 Procesador de informacion biologica. MX2012010637A (es)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012061976A JP6026119B2 (ja) 2012-03-19 2012-03-19 生体情報処理装置

Publications (1)

Publication Number Publication Date
MX2012010637A true MX2012010637A (es) 2013-09-18

Family

ID=49157698

Family Applications (1)

Application Number Title Priority Date Filing Date
MX2012010637A MX2012010637A (es) 2012-03-19 2012-09-14 Procesador de informacion biologica.

Country Status (4)

Country Link
US (1) US9684850B2 (es)
JP (1) JP6026119B2 (es)
KR (1) KR101381455B1 (es)
MX (1) MX2012010637A (es)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120118383A (ko) * 2011-04-18 2012-10-26 삼성전자주식회사 이미지 보정 장치 및 이를 이용하는 이미지 처리 장치와 그 방법들
WO2013136484A1 (ja) * 2012-03-15 2013-09-19 Necディスプレイソリューションズ株式会社 画像表示装置及び画像表示方法
JP2014139734A (ja) * 2013-01-21 2014-07-31 Sony Corp 情報処理装置および方法、並びにプログラム
JP6025690B2 (ja) 2013-11-01 2016-11-16 ソニー株式会社 情報処理装置および情報処理方法
RU2014111792A (ru) * 2014-03-27 2015-10-10 ЭлЭсАй Корпорейшн Процессор изображений, содержащий систему распознавания лиц на основании преобразования двухмерной решетки
KR102077260B1 (ko) * 2014-08-08 2020-02-13 삼성전자주식회사 확룔 모델에 기반한 신뢰도를 이용하여 얼굴을 인식하는 방법 및 장치
US9703805B2 (en) * 2015-05-29 2017-07-11 Kabushiki Kaisha Toshiba Individual verification apparatus, individual verification method and computer-readable recording medium
CN106484704A (zh) * 2015-08-25 2017-03-08 中兴通讯股份有限公司 一种图片处理方法及装置
EP3499455A4 (en) * 2016-08-08 2019-07-10 Panasonic Intellectual Property Management Co., Ltd. INTERCLASSE AND METHOD FOR DISPLAYING COLLATION RESULT
WO2018033137A1 (zh) * 2016-08-19 2018-02-22 北京市商汤科技开发有限公司 在视频图像中展示业务对象的方法、装置和电子设备
JP6725381B2 (ja) 2016-09-20 2020-07-15 株式会社東芝 画像照合装置および画像照合方法
CN106446831B (zh) * 2016-09-24 2021-06-25 江西欧迈斯微电子有限公司 一种人脸识别方法及装置
EP3553737A4 (en) 2016-12-12 2019-11-06 Nec Corporation INFORMATION PROCESSING DEVICE, METHOD FOR GENETIC INFORMATION AND PROGRAM GENERATION
KR102524674B1 (ko) * 2016-12-14 2023-04-21 삼성전자주식회사 전자 장치 및 그의 알림 서비스 제공 방법
FR3060170B1 (fr) * 2016-12-14 2019-05-24 Smart Me Up Systeme de reconnaissance d'objets base sur un modele generique 3d adaptatif
WO2018128015A1 (ja) * 2017-01-05 2018-07-12 日本電気株式会社 不審度推定モデル生成装置
WO2019003973A1 (ja) * 2017-06-26 2019-01-03 日本電気株式会社 顔認証装置、顔認証方法およびプログラム記録媒体
US10475222B2 (en) * 2017-09-05 2019-11-12 Adobe Inc. Automatic creation of a group shot image from a short video clip using intelligent select and merge
US11804070B2 (en) 2019-05-02 2023-10-31 Samsung Electronics Co., Ltd. Method and apparatus with liveness detection
WO2021131029A1 (ja) * 2019-12-27 2021-07-01 日本電気株式会社 フィルタ生成装置、推定装置、顔認証システム、フィルタ生成方法および記録媒体
JP7332037B2 (ja) * 2020-03-31 2023-08-23 日本電気株式会社 表示制御装置、方法及びプログラム
JP7279685B2 (ja) * 2020-04-23 2023-05-23 トヨタ自動車株式会社 情報処理システム

Family Cites Families (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01158579A (ja) * 1987-09-09 1989-06-21 Aisin Seiki Co Ltd 像認識装置
JPH05225344A (ja) 1992-02-07 1993-09-03 Nippon Telegr & Teleph Corp <Ntt> 物体の画像認識処理方法
JP3735893B2 (ja) * 1995-06-22 2006-01-18 セイコーエプソン株式会社 顔画像処理方法および顔画像処理装置
JP3279913B2 (ja) * 1996-03-18 2002-04-30 株式会社東芝 人物認証装置、特徴点抽出装置及び特徴点抽出方法
GB2341231A (en) * 1998-09-05 2000-03-08 Sharp Kk Face detection in an image
JP2000259278A (ja) * 1999-03-12 2000-09-22 Fujitsu Ltd 生体情報を用いて個人認証を行う認証装置および方法
US6580821B1 (en) * 2000-03-30 2003-06-17 Nec Corporation Method for computing the location and orientation of an object in three dimensional space
US6567765B1 (en) * 2000-08-17 2003-05-20 Siemens Corporate Research, Inc. Evaluation system and method for fingerprint verification
JP2004118627A (ja) 2002-09-27 2004-04-15 Toshiba Corp 人物認証装置および人物認証方法
JP3846582B2 (ja) * 2002-09-27 2006-11-15 日本電気株式会社 指紋認証方法/プログラム/装置
JP4314016B2 (ja) * 2002-11-01 2009-08-12 株式会社東芝 人物認識装置および通行制御装置
JP3954484B2 (ja) * 2002-12-12 2007-08-08 株式会社東芝 画像処理装置およびプログラム
AU2003289116A1 (en) * 2002-12-16 2004-07-09 Canon Kabushiki Kaisha Pattern identification method, device thereof, and program thereof
JP4546168B2 (ja) * 2004-06-28 2010-09-15 富士通株式会社 生体認証システムの登録方法、生体認証システム及びそのプログラム
JP4601380B2 (ja) * 2004-10-08 2010-12-22 富士通株式会社 生体認証システムの登録方法、生体認証システム及びそのプログラム
JP4180027B2 (ja) * 2004-08-27 2008-11-12 株式会社豊田中央研究所 顔部品位置検出装置及び方法並びにプログラム
JP4501937B2 (ja) * 2004-11-12 2010-07-14 オムロン株式会社 顔特徴点検出装置、特徴点検出装置
DE602005012672D1 (de) 2005-02-21 2009-03-26 Mitsubishi Electric Corp Verfahren zum Detektieren von Gesichtsmerkmalen
JP4653606B2 (ja) * 2005-05-23 2011-03-16 株式会社東芝 画像認識装置、方法およびプログラム
JP4696778B2 (ja) * 2005-08-23 2011-06-08 コニカミノルタホールディングス株式会社 認証装置、認証方法及びプログラム
JP2007087253A (ja) * 2005-09-26 2007-04-05 Fujifilm Corp 画像補正方法および装置
JP4800724B2 (ja) * 2005-09-29 2011-10-26 富士フイルム株式会社 人物画像補正装置、人物画像補正方法および人物画像補正プログラム
EP1821237B1 (en) * 2006-02-15 2010-11-17 Kabushiki Kaisha Toshiba Person identification device and person identification method
KR100780957B1 (ko) * 2006-08-21 2007-12-03 삼성전자주식회사 영상선택 장치 및 방법
KR100909540B1 (ko) * 2006-09-22 2009-07-27 삼성전자주식회사 영상인식 오류 통보 방법 및 장치
JP2008117333A (ja) * 2006-11-08 2008-05-22 Sony Corp 情報処理装置、情報処理方法、個人識別装置、個人識別装置における辞書データ生成・更新方法および辞書データ生成・更新プログラム
JP4594945B2 (ja) * 2007-02-13 2010-12-08 株式会社東芝 人物検索装置および人物検索方法
JP4946730B2 (ja) * 2007-08-27 2012-06-06 ソニー株式会社 顔画像処理装置及び顔画像処理方法、並びにコンピュータ・プログラム
KR101460130B1 (ko) * 2007-12-11 2014-11-10 삼성전자주식회사 휴대 단말기의 화상 통화 방법 및 장치
JP2009163555A (ja) * 2008-01-08 2009-07-23 Omron Corp 顔照合装置
JP5202037B2 (ja) * 2008-02-29 2013-06-05 キヤノン株式会社 特徴点位置決定方法及び装置
JP2010040011A (ja) 2008-08-08 2010-02-18 Mitsubishi Electric Corp 指紋特徴情報生成装置、指紋情報登録装置および指紋照合システム
TWI405143B (zh) * 2009-11-27 2013-08-11 Altek Corp 用於辨識的物件影像校正裝置與其方法
CN102906786B (zh) * 2010-05-26 2015-02-18 日本电气株式会社 脸部特征点位置校正设备和脸部特征点位置校正方法
JP5560976B2 (ja) * 2010-07-09 2014-07-30 オムロン株式会社 情報処理装置および方法、並びにプログラム
JP5792985B2 (ja) * 2011-04-20 2015-10-14 キヤノン株式会社 情報処理装置、情報処理装置の制御方法、およびプログラム
JP5793353B2 (ja) 2011-06-20 2015-10-14 株式会社東芝 顔画像検索システム、及び顔画像検索方法

Also Published As

Publication number Publication date
KR101381455B1 (ko) 2014-04-04
JP6026119B2 (ja) 2016-11-16
US9684850B2 (en) 2017-06-20
JP2013196295A (ja) 2013-09-30
KR20130106256A (ko) 2013-09-27
US20130243278A1 (en) 2013-09-19

Similar Documents

Publication Publication Date Title
MX2012010637A (es) Procesador de informacion biologica.
US11157760B2 (en) Liveness test method and apparatus
EP2523149B1 (en) A method and system for association and decision fusion of multimodal inputs
JP4606779B2 (ja) 画像認識装置、画像認識方法およびその方法をコンピュータに実行させるプログラム
US9092662B2 (en) Pattern recognition method and pattern recognition apparatus
US8498454B2 (en) Optimal subspaces for face recognition
Puhan et al. Efficient segmentation technique for noisy frontal view iris images using Fourier spectral density
KR102554391B1 (ko) 홍채 인식 기반 사용자 인증 장치 및 방법
CN110688901A (zh) 一种人脸识别方法及装置
KR20150143304A (ko) 화상 인식 장치 및 화상 인식 장치에의 특징량 데이터 등록 방법
JP5787686B2 (ja) 顔認識装置、及び顔認識方法
JP5480532B2 (ja) 画像処理装置、画像処理方法、及び同方法をコンピュータに実行させるプログラム
Rasool Feature-level vs. score-level fusion in the human identification system
KR101016758B1 (ko) 인물 식별 방법 및 그 시스템
JP6977345B2 (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
JP5812505B2 (ja) マルチモーダル情報に基づく人口学的分析方法及びシステム
CN117333908A (zh) 基于姿态特征对齐的跨模态行人重识别方法
EP3639197B1 (en) Template matching of a biometric object
JP4187494B2 (ja) 画像認識装置、画像認識方法およびその方法をコンピュータに実行させるプログラム
KR20140004126A (ko) 텍스처화된 영역들의 지능형 선택에 의해 홍채들의 이미지들을 비교하는 방법
US20230230277A1 (en) Object position estimation device, object position estimation method, and recording medium
JP4270842B2 (ja) 指紋照合装置
TW202217611A (zh) 身份驗證方法
CN114373091A (zh) 基于深度学习融合svm的步态识别方法
CN111937005A (zh) 生物特征识别方法、装置、设备及存储介质

Legal Events

Date Code Title Description
FG Grant or registration