MX2014002827A - Aparato de reconocimiento de personas y metodo de reconocimiento de personas. - Google Patents

Aparato de reconocimiento de personas y metodo de reconocimiento de personas.

Info

Publication number
MX2014002827A
MX2014002827A MX2014002827A MX2014002827A MX2014002827A MX 2014002827 A MX2014002827 A MX 2014002827A MX 2014002827 A MX2014002827 A MX 2014002827A MX 2014002827 A MX2014002827 A MX 2014002827A MX 2014002827 A MX2014002827 A MX 2014002827A
Authority
MX
Mexico
Prior art keywords
unit
face
facial
person
similarity
Prior art date
Application number
MX2014002827A
Other languages
English (en)
Other versions
MX344941B (es
Inventor
Hiroshi Sukegawa
Hiroo Saito
Original Assignee
Toshiba Kk
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Kk filed Critical Toshiba Kk
Publication of MX2014002827A publication Critical patent/MX2014002827A/es
Publication of MX344941B publication Critical patent/MX344941B/es

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/40Software arrangements specially adapted for pattern recognition, e.g. user interfaces or toolboxes therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/94Hardware or software architectures specially adapted for image or video understanding
    • G06V10/945User interactive design; Environments; Toolboxes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/197Matching; Classification

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Collating Specific Patterns (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)

Abstract

De acuerdo con una modalidad, un aparato de reconocimiento de personas incluye una unidad de entrada para ingresar datos de imágenes, una unidad de detección de caras para detectar un área de la cara en la cual una cara de una persona se expresa desde los datos de imágenes ingresados y para proporcionar una clasificación que toma un gran valor de acuerdo con la probabilidad facial, una unidad de detección por puntos característicos faciales para detectar un ángulo de una dirección de la cara desde un punto característico del área de la cara detectada, una unidad de extracción de características para calcular una primera cantidad de características para identificación personal desde el punto característico detectado por la unidad de detección de puntos característicos faciales, una unidad administrativa de datos de características para almacenar una segunda cantidad de características de cada persona incluyendo información que indica una característica de una cara de la persona relevante, para cada persona, una unidad de identificación de personas para calcular una similitud entre la primera cantidad de características calculada por la unidad de extracción de características y la segunda cantidad de características almacenada en la unidad administrativa de datos de características, un número de unidad de cálculo de candidatos que exhibe las imágenes faciales almacenadas en la unidad administrativa de datos de características en orden descendiente de la similitud calculada por la unidad de identificación de personas y calcula un número de imágenes faciales que serán exhibidas de acuerdo con la clasificación proporcionada de la unidad de detección de caras y el ángulo de la dirección de caras producido desde la unidad de detección de puntos de características faciales, una unidad de confirmación de candidatos en la cual la recuperación de candidatos de las imágenes faciales exhibidas en orden descendiente de la similitud se someten a inspección visual y que calcula de nuevo el número de las imágenes faciales exhibidas por el número de unidad de cálculo de candidatos de acuerdo con el incremento o disminución del número de candidatos que será confirmado y una unidad de salida para proporcionar si los datos de imágenes ingresados por la unidad de entrada se han almacenado o no en la unidad administrativa de datos de características, como resultado de la confirmación de la unidad de confirmación de candidatos.

Description

APARATO DE RECONOCIMIENTO DE PERSONAS Y MÉTODO DE RECONOCIMIENTO DE PERSONAS REFERENCIA CRUZADA A LA SOLICITUD RELACIONADA Esta solicitud se basa en, y reivindica el beneficio de prioridad de la solicitud de patente japonesa No. 2013-055377, presentada el 18 de marzo de 2013; todo el contenido de las cuales se incorporan aquí por referencia.
CAMPO Las modalidades descritas en el presente documento se refieren en general a un aparato de reconocimiento de persona y un método de reconocimiento de persona.
ANTECEDENTES Convencionalmente, se ha propuesto la tecnología para reconocer a una persona a partir de un área de la cara de una persona incluida en el movimiento de los datos de imagen fotografiada por una cámara de vigilancia y así sucesivamente, sobre la base de imágenes faciales de la información de características almacenadas previamente y para recuperar una imagen facial de una persona en concreto. En este caso, la función de información se extrae de un área de la cara incluida en los datos de la imagen en movimiento y una imagen de la cara que tiene un alto índice (similitud) que indica la similitud entre la información de la característica extraída y la información de las características previamente almacenada se recupera de las imágenes de la cara almacenadas previamente, y se emitirá.
Sin embargo, en la tecnología anteriormente descrita, que ha sido difícil de entender hasta qué imágenes faciales serán confirmadas, de las imágenes faciales que han sido obtenidas como imágenes faciales que tiene una alta similitud. Por ejemplo, cuando la condición tal como una dirección de la cara de una persona fotografiada por una cámara de vigilancia es desventajoso para su cotejo con la información de la característica almacenada previamente, una imagen facial de una persona diferente de la persona de captación de imagen puede ser emitida como resultado de un un rango más alto y una imagen de la cara que va a ser esencialmente recuperada puede llegar a ser un rango inferior. Por consiguiente, es fácil de entender hasta qué imágenes faciales deberán ser conformadas, de las imágenes faciales que han sido obtenidas y de este modo se puede prevenir la revisión superficial.
BREVE DESCRIPCIÓN DE LOS DIBUJOS La Figura 1 es un diagrama de bloques para ilustrar una configuración de un aparato de reconocimiento de personas de acuerdo con una modalidad; La Figura 2 es un diagrama conceptual para ejemplificar una dirección de la cara de una persona; La Figura 3 es un diagrama para e emplificar las distribuciones de frecuencia de una persona por similitud a si mismo y similitud a otra persona; La Figura 4 es un diagrama para ejemplificar las distribuciones de frecuencia de una persona por similitud a si mismo y similitud a otra persona; La Figura 5 es un diagrama de flujo para ilustrar un proceso de cálculo del número de candidatos; La Figura 6 es un diagrama conceptual para ejemplificar las imágenes faciales dispuestas en orden descendente de la semejanza; La Figura 7 es un diagrama conceptual para ejemplificar una pantalla de visualización; La Figura 8 es un diagrama conceptual para ejemplificar una pantalla de visualización; La Figura 9 es un diagrama conceptual para ejemplificar una pantalla de visualización; La Figura 10 es un diagrama de flujo para ilustrar un proceso de distribución; y La Figura 11 es un diagrama de bloques que muestra una configuración de hardware del aparato de reconocimiento de personas.
DESCRIPCIÓN DETALLADA De acuerdo con una modalidad, se proporciona un aparato de reconocimiento de personas, incluyendo: una unidad de entrada de datos de imagen de entrada; una unidad de detección de rostros para detectar un área de la cara en la que una cara de una persona se expresa a partir de los datos de imagen introducidos y da una puntuación que toma un valor grande de conformidad con la semejanza facial; una unidad de detección de punto de características faciales para detectar un ángulo de una dirección de la cara de un punto de la zona de la cara detectada característica; una unidad de extracción de características para calcular una primera cantidad de características para identificación personal desde el punto características detectadas por la unidad de entidad de puntos de detección facial, una unidad administrativa de datos función para almacenar una segunda cantidad de características de cada persona, incluyendo información que indica una característica de la cara de la persona competente, para cada persona, una unidad de identificación de la persona para calcular la similitud entre la primera cantidad de características calculada por la unidad de extracción de características y la segunda cantidad de características almacenada en la unidad administrativa de datos de características, un número de unidad de cálculo de candidatos que muestra las imágenes faciales almacenadas en la unidad administrativa de datos de características en orden decreciente de la similitud calculada por la unidad de identificación de la persona, y calcula un número de imágenes faciales que se visualizan de acuerdo con la puntuación emitida desde la unidad de detección de caras y el ángulo de la dirección de la cara emitida desde el punto de característica unidad de detección facial, una unidad de confirmación de candidatos en la que la recuperación de las imágenes faciales de los candidatos se muestran en orden descendente de la similitud son sometidos a inspección visual y calcula de nuevo el número de las imágenes faciales que se muestran por el número de unidad de cálculo de candidatos de acuerdo con el aumento o disminución del número de candidatos para ser confirmada y una unidad de salida a la salida si los datos de imagen introducidos por la unidad de entrada han sido o no almacenados en la unidad administrativa datos de función, como resultado de la confirmación de la unidad de confirmación de candidatos.
Además, de acuerdo con una modalidad, se proporciona un método de reconocimiento de personas, incluyendo: introducir datos de imagen; detección de un área de la cara en la que una cara de una persona se expresa a partir de los datos de imagen introducidos y generar a una puntuación que tiene una gran valor de acuerdo con la semejanza facial; detectar un ángulo de una dirección de la cara de un punto de la zona de la cara detectada característica; el cálculo de una primera magnitud característica para la identificación personal desde el punto de característica detectado; almacenar una segunda cantidad de características de cada persona, incluyendo información que indica una característica de una cara de la persona competente, para cada persona, en una unidad administrativa de datos de características; calcular la similitud entre la primera cantidad de características y la segunda cantidad de características almacenada en la unidad administrativa de datos de características; visualización de las imágenes faciales almacenadas en los datos de función de unidad administrativa con el fin de la similitud calculada descendentemente y el cálculo de una serie de imágenes de la cara que se mostrarán de acuerdo con la puntuación emitida y el ángulo de la dirección emitida de la cara, los candidatos de recuperación de las imágenes de la cara que se muestran en orden descendente de la similitud son sometidos a la inspección visual, y el cálculo de nuevo del número de las imágenes de la cara que se muestran de acuerdo con el aumento o disminución del número de candidatos a ser confirmados y la salida de si los datos de imagen introducida se han almacenado o no en la unidad administrativa de datos de características, como resultado de la inspección visual.
En lo sucesivo, un aparato de reconocimiento de personas y un método de una modalidad se describirá en detalle con referencia a los dibujos anexos. El aparato de reconocimiento de personas y el método de la modalidad suponen un sistema que recupera una persona proyectada en una imagen de una cámara de seguridad (en lo sucesivo, una cámara) instalada en una calle, edificio, área pública y asi sucesivamente, con referencia a la información que indica la característica de una cara de cada una de las personas previamente almacenada. Además, en la modalidad descrita a continuación, se ejemplifica la inserción de una imagen de una cámara, pero no hace falta decir pueden ser introducida que una imagen leída por un escáner o similares.
Además, en la presente modalidad, se describirá un proceso para detectar un área de la cara de una persona y usar la información característica de una cara, para afrontar así el problema, pero se puede utilizar la tecnología para discriminar una persona utilizando un área de imagen, excepto para una cara, mediante el uso de tecnología conocida públicamente para detectar también un área de cuerpo entero excepto por una cara, sin ser limitado a la tecnología descrita en la presente modalidad.
La Figura 1 es un diagrama de bloques para ilustrar una configuración de un aparato de reconocimiento de persona 100 según una modalidad. Como se muestra en la Figura 1, el aparato de reconocimiento de personas 100 se proporciona con una unidad de entrada 101, una unidad de detección de caras 102, un punto de función de unidad de detección facial 103, una unidad de extracción de características 104, una unidad administrativa de datos de características 105, una unidad de identificación de personas 106, un número de los candidatos de la unidad de cálculo 107, una unidad de confirmación de candidatos 108 y una unidad de salida 109. Además, el aparato de reconocimiento de personas 100 realiza el reconocimiento de una persona H, basado en una imagen en movimiento fotografiada por una cámara 150.
La cámara 150 realiza la fotografía de un área prescrita. Por ejemplo, la cámara 100 es una cámara de vigilancia o similares para realizar la fotografía de un área de entrada/salida de objetos de un pasaje, y genera datos de imágenes móviles que son el resultado de la fotografía. Y la unidad de entrada 101 realiza el proceso de entrada de los datos de imagen en movimiento de la cámara 150.
La cámara 150 se puede instalar en por lo menos una posición, o en una pluralidad de puntos. Además, la cámara 150 introduce una imagen facial de una persona que está presente en un área prescrita y es un ITV (Televisión Industrial) de la cámara, por ejemplo. La cámara 150 digitaliza la información óptica obtenida a través de una lente óptica por un convertidor A/D, para generar datos de imagen de marco de una velocidad de fotogramas prescrita, y la envía al aparato de reconocimiento de personas 100. Además, ya que los datos de imagen de una persona que se convierte en un objeto de recuperación sólo para ser introducida en el aparato de reconocimiento de personas 100 como datos de imagen digitales, como resultado, un archivo de imágenes y un archivo de imágenes en movimiento fotografiadas por una cámara fotográfica digital puede ser tomada a través de un medio de almacenamiento tal como una USB (Colector en Serie Universal) .
La unidad de detección de caras 102 detecta un área de la cara que indica una cara de un ser humano a partir de los datos de imagen introducidos desde la unidad de entrada 101. En concreto, la unidad de detección de caras 102 obtiene las coordenadas que indican un área de una cara utilizando información de brillo en la imagen dentro de la imagen introducida. En este caso, ya que la detección se realiza mediante un método conocido públicamente de la función conjunta similar a Joint Haar en adecuada para la detección de rostros, se presupone el uso del presente método. La imagen del rostro está segmentada de la imagen introducida, para realizar la identificación personal. En este momento, es posible dar generar una puntuación que toma un valor grande de acuerdo con la semejanza de la cara de la imagen. El área de la imagen con una puntuación más alta es detectada como una cara.
Además, la información que indica el resultado detectado por una dirección y tamaño de una cara puede ser de una forma opcional, pero, en la presente modalidad, un área de la cara se muestra por información rectangular, por simplificación, y las coordenadas de sus esquinas se utilizan como resultado de la detección. Además, la detección se puede realizar por un método que determina una posición para dar el valor de correlación más alto como un área de la cara, mediante la obtención de un valor de correlación, mientras que una plantilla preparada previamente se mueve dentro de una imagen y un método de extracción de la cara usando un método inherente espacio, un método de subespacio y asi sucesivamente .
Además, en el caso de una imagen en movimiento fotografiada por la cámara 150, que se supone que los rostros detectados de la misma persona se muestran de forma continua a través de una pluralidad de cuadros, es necesario realizar el proceso de seguimiento de una cara de una persona para que se correlacionen con la misma persona. Este proceso de seguimiento se puede realizar usando un método que se correlaciona una cara detectada utilizando un flujo óptico con lo que la posición de la cara está presente en la trama siguiente, y en la unidad de extracción de características 104 describe más adelante, un método para seleccionar por lo menos una imagen apropiada adecuado para la recuperación de las imágenes de las áreas de la cara de una pluralidad de tramas que se correlacionan con la misma persona puede ser utilizado, o es posible utilizar las imágenes de un número opcional de hasta el número de tramas detectadas.
Además, el punto de característica unidad de detección facial 103 detecta las posiciones de partes de la cara tales como ojos y la nariz, de las porciones del área de la cara detectada, como puntos de característica de una cara. Específicamente, la detección se puede realizar por un método conocido públicamente tal como extracción punto de característica facial por la combinación de la extracción de la forma y el patrón de intercalación. Además, la detección de un área de la boca, a excepción de las detecciones descritas anteriormente de los ojos y la nariz, puede fácilmente ser realizado mediante el uso de tecnología conocida públicamente de un sistema de marca digital basada en la detección del punto característica facial de alta precisión. En cualquier caso, la información que puede ser tratada como una imagen de matriz de dos dimensiones se adquiere, y un área de una característica facial puede ser detectado de la misma. Además, con respecto a estos procesos, con el fin de extraer un solo rasgo facial de una imagen, se obtienen valores de correlación con una plantilla para el conjunto de imágenes, y la posición y el tamaño en el que el valor de correlación se convierte en el máximo puede ser emitida, y con el fin para extraer una pluralidad de características faciales, se obtiene un valor máximo local de valores de correlación para el conjunto de las imágenes, una posición de cara candidato se estrecha hacia abajo en la consideración de la superposición dentro de una imagen, y finalmente, en consideración de la relación basarse en el tiempo (transición) con las últimas imágenes que han sido introducidos de forma continua, y de ese modo es posible detectar simultáneamente una pluralidad de características faciales finalmente.
En cuanto a la estimación de una dirección de la cara, una dirección de la cara puede ser estimada usando una matriz de rotación de una cara, o una pluralidad de clases ( subespacios ) que han sido estudiados para las direcciones respectivas de la cara.
La Figura 2 es un diagrama conceptual para ejemplificar una dirección de la cara de la persona H. Para comenzar con, con respecto a una dirección de la cara, como se muestra en la Figura 2, se determinan una dirección de giro (una dirección horizontal) 21, una dirección de paso (una dirección hacia arriba y hacia abajo) 22, un rodillo de dirección (una dirección de rotación) , respectivamente, como, ?, f, ? [Radian] . En la estimación de una dirección de la cara, se deberán obtener estos valores de ?, f, ?.
La unidad de extracción de características 104 normaliza la imagen facial, utilizando la información de los puntos de característica detectados por el punto de característica unidad de detección facial 103, de manera que la imagen facial se convierte en una condición definida con respecto a una inclinación y el tamaño de los mismos. Y, la unidad de extracción de características 104 calcula la información característica facial que indica la individualidad de una cara utilizando la imagen normalizada.
Además, como se describe en la descripción de la detección de caras, en el caso de la forma de caminar de una persona, es posible obtener imágenes de la cara de una pluralidad de tramas que se correlacionan con la misma persona. Para el cálculo de similitud entre los puntos característicos de las caras, con un cuadro o una pluralidad de tramas de una serie de imágenes de la cara, en el momento de la selección de las imágenes, por lo general, se discrimina si la persona es una persona registrada, por la selección con imágenes prioritarios cuya similitud es fácil llegar a ser alta.
Como un índice en el que es fácil que la similitud llegue a ser alta, hay un método para seleccionar un índice basado en índices, tales como, que una dirección de cara esté en un estado de frente a aproximadamente frontal, se refleja una cara grande, estando en un estado aproximadamente inexpresivo, no para estar en un estado con ojos cerrados o la vista lateral, que no hay nada que ocultar una cara, y que la sombra de una cara no está presente. En cuanto a la estimación de una dirección de la cara, es posible estimar la dirección de la cara usando una matriz de rotación de una cara, una pluralidad de clases ( subespacios ) que han sido estudiados para las direcciones respectivas de la cara. Puesto que el ángulo de una cara se encuentra por este medio, es posible estimar si un ángulo está presente o no de tal manera que una parte de la característica facial no puede ser vista. Con respecto a un tamaño de una cara, el tamaño de la imagen facial detectada puede ser utilizado como un índice sin cambio. En cuanto a la discriminación de una expresión, ojos cerrados, mirada de reojo, presencia o ausencia de ocultamiento de un rostro, la presencia o ausencia de una sombra, una gran cantidad de las imágenes correspondientes se recogen, respectivamente, las imágenes se ordenan en función de si las imágenes están en un estado ideal, para formar una imagen promedio de la clase correspondiente y una imagen promedio de la clase no relevante, y por lo tanto la discriminación del mismo puede ser hecha mediante el cálculo del valor de correlación con respecto a que la imagen introducida está cerca, y por lo tanto se puede hacer la discriminación, o la descripción de los mismos puede ser hecha con la tecnología de discriminación tal como una máquina de vectores de soporte. Es posible seleccionar un marco adecuado para su cotejo con prioridad mediante la modalidad de estos índices, por ejemplo, agregando peso. Además, previamente se han obtenido similitudes entre las imágenes faciales en los todos los marcos y la información característica facial registrada de la persona pertinente, y se calcula el peso dado que los índices afectan a las similitudes, mediante la obtención de un coeficiente de una expresión de un lineal ponderada suma por regresión lineal, y de ese modo es posible seleccionar un marco apropiado con mayor precisión.
Un método para detectar un punto tal como ojos y una nariz de una cara como un punto de característica facial se puede realizar por un método conocido públicamente tal como extracción de punto de característica facial por la combinación de la extracción de la forma y el patrón de intercalación. Además, como el proceso para normalizar una imagen facial basado en un punto de característica facial, se puede aplicar un método para formar una imagen en la que una dirección y un estado de una cara se cambian intencionalmente utilizando un modelo en tres dimensiones promedio de una cara, para de ese modo formar una imagen en la que la dirección de una cara se corrige en una dirección opcional.
En este caso, es posible aumentar la precisión de la normalización, no por el método públicamente conocido descrito anteriormente, sino al aumentar el número de puntos de características faciales para ser detectados.
Como un método para extraer información de la característica facial que indica una característica de un individuo a partir de la imagen normalizada, es posible obtener información de la característica facial, mediante la formación de una imagen en la que una dirección y un estado de una cara se cambia intencionadamente utilizando un modelo, para obtener la información de una imagen de la persona de una lámina. Por otro lado, también es posible ejecutar el proceso de reconocimiento con una precisión más alta, mediante la modalidad de cálculo por una imagen en movimiento usando una pluralidad de imágenes continuas para la misma persona. Específicamente, la descripción se hará con un método que utiliza un método de subespacio mutuo.
Las imágenes con (m x n) píxeles son segmentadas a partir de imágenes (cuadros) obtenidos de forma continua desde la unidad de entrada 101, se obtiene una matriz de correlación de vectores de características de estos datos, y se obtienen vectores ortogonales normales por transformación de K - L, y por lo tanto se calcula un subespacio que indica la función de una cara obtenida a partir de las imágenes continuas. En cuanto a un método de cálculo del subespacio, se obtiene una matriz de correlación (o una matriz de covarianza) de los vectores de características, se obtienen los vectores ortogonales normales (vectores propios) por la transformada K - L, y de ese modo se calcula el subespacio. Los vectores propios correspondientes a valores propios son seleccionados por piezas K en orden descendente del valor propio, y el subespacio se expresa utilizando su conjunto de vectores propios. En la presente modalidad, se obtiene una matriz correlación de Cd a partir de los vectores de características y la matriz de correlación de Cd diagonalizado como Cd = C d A d O d T, para obtener la matriz de un vector propio. Esta información se convierte en un subespacio que indica la función de una cara de una persona que es un objeto de reconocimiento en la actualidad. La información característica como un subespacio emitida por el método como este en que la información característica de una persona es para un rostro detectado en las imágenes introducidas .
La unidad administrativa de datos de características de 105 almacena información de personas, incluida la información que indica la función de una cara de una persona, para cada persona. En concreto, la unidad administrativa de datos de características 105 es una base de datos que se convierte en un objeto que la unidad 106 de identificación de persona utiliza en el cálculo de la similitud, y administra la información característica facial que indica un rasgo facial, para que cada persona se convierta en un objeto de recuperación. Es posible administrar una imagen facial y la información asociada a la persona competente, como el nombre, sexo, edad, altura, en correlación con la información de cada característica facial, de modo que un usuario pueda comprender fácilmente el resultado. El contenido que será realmente administrado como la información característica facial puede ser los propios datos emitidos por la unidad de extracción de características 104, y pueden ser los vectores de características de (m x n) , el subespacio, o la matriz de correlación de inmediato antes de realizar la transformación de K - L.
La unidad de identificación de personas 106, extrae (recupera) personas con el fin de la similitud entre las características de los rostros de las personas almacenadas en la unidad administrativa de datos de características 105 y los puntos característicos de una cara detectada por la unidad de extracción descendente de características 104, sobre la base de la información almacenada en la unidad administrativa de datos de características 105. Específicamente, la unidad de identificación de personas 106 realiza el cálculo de la similitud entre la información de la característica facial de la imagen de entrada obtenida por la unidad de extracción de características 104 y la correspondiente información de la característica facial almacenada en la unidad administrativa de datos de características 105, y envía el resultado a la salida de la unidad 109 en orden descendente de similitud.
La unidad de identificación de personas 106, como resultado de este proceso de recuperación, emite identificaciones personales que se administran con el fin de identificar a las personas en la unidad administrativa de datos de características 105, y las similitudes que son el resultado del cálculo, en orden descendente de las similitudes. La unidad de identificación de personas 106 puede proporcionar, además, información administrada para las personas respectivas en la unidad administrativa de datos de características 105, pero dado que, básicamente, la correlación puede ser realizada por la identificación personal, es posible realizar el mismo proceso de recuperación sin transferir la información adjunta.
La similitud se hace un valor que indica la similitud entre los subespacios que se administran como la información de la característica facial. Como su método de cálculo, un método tal como un método de subespacio, o un método de similitud complejo puede ser utilizado. En este método, los datos que indican las características faciales almacenados previamente en la unidad administrativa de datos de características 105, y los datos introducidos desde la unidad 104 de extracción de características se expresan como subespacios calculados a partir de una pluralidad de imágenes, y "un ángulo" formado por los dos subespacios se define como la similitud. Aquí, el subespacio que será introducido se llama una entrada significa subespacio.
La unidad de identificación de personas 106 obtiene de manera similar una matriz de correlación Cin para las cadenas de datos de entrada, y la matriz de correlación Cin se diagonaliza como Cin = F?? ??? F?? T, para obtener un vector propio F??. Se obtiene una similitud entre subespacios (0.0 a 1.0) de los subespacios expresados por los dos F??, F?, y esto se hizo una similitud para el reconocimiento. El método específico de cálculo se puede realizar por el método conocido públicamente descrito anteriormente. Además, si una persona en cuestión es la misma persona se discrimina, al proyectar colectivamente una pluralidad de imágenes de personas de las que la misma persona se puede identificar al subespacio de antemano, y por lo tanto es posible mejorar la precisión. Además, como un índice de similitud, excepto la similitud, es evidente que se pueden utilizar una distancia en el espacio de características y una distancia tal como una distancia de ahalanobis . En caso de que se utilice una distancia, dado que mientras más grande es el valor, menor es la similitud, como un método para comparar con un valor de umbral, se muestra que mientras es menor el valor de umbral, mayor es la similitud con la persona almacenada en la unidad administrativa de datos de características 105.
La unidad de salida 109 exhibe las imágenes faciales incluidas en la unidad administrativa de datos de características 105 en orden descendente de la similitud calculada por la unidad de identificación de personas 106. En este momento, el número de unidad de cálculo de candidatos 107 controla el número de imágenes faciales que se visualizan de acuerdo con las puntuaciones y los ángulos obtenidos a partir de la unidad de detección de caras 102 y la unidad de detección de puntos de características faciales 103. Cuando una puntuación expresa que la semejanza facial es baja por el efecto de la calidad de imagen, o cuando es grande una parte de una cara se oculta desde el ángulo, ya que la similitud podría disminuir, se incrementa el número de los candidatos a ser confirmados, para no perder por este modo el candidato. El número de unidad de cálculo de los candidatos 107 calcula el número de candidatos que se conforman a un candidato de un rango superior de las personas extraídos por la unidad de identificación de personas 106 en orden descendente de la similitud, en base a la condición de imagen del área de la cara detectada por la unidad de detección de caras 102. En este caso, el número de candidatos es "c", y su valor inicial es "n". Cuando la condición de formación de imágenes de un área de la cara contenida en la imagen introducida desde la cámara 150 es desventajoso para el proceso de recuperación de la unidad de identificación de personas 106, una similitud de la misma persona se hace más baja en el caso de la comparación con el punto de la persona misma función, y en muchos casos, la distribución de la persona misma similitud se superpone con la distribución de una similitud otra persona en el caso de la comparación con el punto de característica de otra persona.
La Figura 3, la Figura 4 son diagramas que ejemplifica cada uno las distribuciones de frecuencia de una similitud de la misma persona y la similitud a otra persona. Aquí, una gráfica Bl muestra una distribución de frecuencias de la persona misma similitud, y una gráfica B2 muestra una distribución de frecuencias de la similitud otra persona. Además, se supone que las condiciones de fotografía de la Figura 4 con peores que la condiciones de fotografía de la Figura 3. Como es evidente a partir de la comparación entre la Figura 3 y la Figura 4, cuando las condiciones de fotografía son desventajosas para el proceso de recuperación de la unidad de identificación de personas 106, se hace mayor la porción traslapada de la gráfica Bl y la gráfica B2.
En la presente, como índices de evaluación para reflejar el estado de fotografía, hay una dirección de la cara en un área de la cara, una puntuación en el momento de la detección de caras, una resolución de una cara, y así sucesivamente. La unidad de detección de caras 102 puede emitir una puntuación que toma un valor mayor de conformidad con semejanza facial de una imagen. Un área de una imagen con una puntuación más alta es detectada como una cara. Dentro de la unidad de detección de caras 102, se utiliza una función que da salida a un valor mayor en el caso de una cara, y genera un valor pequeño en el caso de que no sea una cara, basado en el valor de brillo de cada pixel de una imagen de entrada. Además, si se prepara una gran cantidad de datos de imagen en la que se conoce la imagen que es (no) de una cara, la función de este tipo puede ser obtenida por un método estadístico. Con respecto a una dirección de la cara, los rasgos de las caras de las personas almacenados en la unidad administrativa de datos de características 105 mira hacia una dirección frontal, una cara que mira hacia un punto de entrada a la cámara 150 se convierte en la condiciones de fotografía adecuadas para su cotejo. Además, en relación con una resolución de una cara, un caso en el que la resolución de una cara sea alta (es grande el número de píxeles de un área de la cara) se convierte en las condiciones de fotografía adecuadas para su cotejo. En consecuencia, el número de unidad de cálculo 107 calcula más candidatos del número de candidatos c de conformidad con el caso en el que una dirección de la cara se separa de una dirección frontal, o la resolución de una cara disminuye, y calcula menos el número de candidatos c de conformidad con el caso en el que una dirección de la cara se convierte en una dirección frontal, o la resolución de una cara aumenta. Específicamente, el número de unidad de cálculo de candidatos 107 determina adaptablemente un valor de umbral en relación con el cálculo del número de candidatos c para cada entrada, basado en el valor de la condición de formación de imágenes (tal como una dirección de la cara, una resolución de una cara) de un área de la cara detectada por la unidad de detección de caras 102. Además, el siguiente procedimiento de manera similar se puede aplicar a otras magnitudes características de la imagen que tienen correlación con la similitud .
Para empezar, con respecto a la dirección de la cara de la persona H, como se muestra en la Figura 2, se determinan la dirección de giro (dirección horizontal) 21, la dirección de paso (dirección hacia arriba y hacia abajo) 22, la dirección del rollo (dirección rotacional) 23, se determinan respectivamente como ?, f, ? [Radian] . Y, los tamaños de una cara que la unidad de detección de caras 102 genera se determinan, respectivamente, como x, y [píxeles] en la dirección longitudinal y en la dirección lateral. En este momento, cuando una dirección de cara es grande (por ejemplo, cuando una dirección de cara separa de una dirección frontal) , y cuando el tamaño de una cara es pequeña (cuando se convierte en una resolución baja), la similitud a veces puede ser disminuida. Los datos se prepararon anteriormente en donde se normalizan las direcciones y tamaños de las caras a las respectivas imágenes faciales almacenadas en la unidad administrativa de datos de características 105, de modo que T=?1, T2, ..., T?, f=f1, f2, ..., f?, ? = ??, ?2, ..., ??, (?, y) = (xl, yl),..., (??, yN) . El número de unidad de cálculo de candidatos 107 obtiene distribuciones de frecuencia de una similitud de la misma persona y una similitud otra persona cuando se introducen, y determina un valor de umbral T (?, f, ?, x, y) para cada uno de estos parámetros. En el caso de la Figura 3, por ejemplo, el valor umbral T (T1, f?, ?, XI, Yl) se determina cuando ? = ??, f = f 1, ? = ??, (?, y) = (xl, yl) · El valor umbral T (?, f, ?, x, y) se puede determinar mediante la designación de una proporción de los datos en el que la similitud excede el valor umbral T (?, f, ?, x, y) . En el proceso de recuperación, se calculan los parámetros (?, f, ?, x, y) con respecto a la imagen facial introducida, para obtener el valor umbral de T (?, f, ?, x, y) . El valor umbral T (?, f, ?, , y) se puede hacer un hash con respecto a cada uno de T=?1, T2, ..., ??, f=f1, f2, ..., f?, ? = ??, ?2, ..., ??, (?, y) = (xl, yl),..., (??, yN) , con respecto a los parámetros (?, f, ?, x, y) . Además, el valor umbral T (?, f, ?, x, y) se pueden volver una función calculada con el análisis de regresión por un modelo lineal como se muestra en la siguiente expresión (1) .
T (?, f, ?, x, y)= al0 + a2cp + a3i|/ + a4x + a5y + b... (1) Con este valor de umbral T (?, f, ?, , y) , el número de candidatos de confirmación c = n (?, f, ?, x, y) se obtiene como sigue. n (?, f, ?, x, y)= n (cuando el número de personas con la similitud que supera el valor umbral T (?, f, ?, , y) no es más que el valor predeterminado n) n (?, f, ?, x, y)= el número de personas con la similitud superior al valor de umbral T (?, f, ?, x, y) (el caso diferente al mismo) .
En la unidad 108 de confirmación de candidatos, los candidatos de recuperación de las imágenes de la cara que se muestran en orden descendente de la similitud se comprueban con los ojos. En el caso de aumentar o disminuir el número de los candidatos a ser confirmados, el proceso vuelve a la unidad de cálculo de número de candidatos 107, para hacer que los candidatos de recuperación se emitan de nuevo.
La Figura 5 es un diagrama de flujo para ilustrar un proceso de cálculo del número de candidatos, y un diagrama de flujo que muestra un proceso para obtener el número anteriormente descrito de los candidatos de confirmación C = N (?, f, ?, , y) . Como se muestra en la Figura 5, cuando se inicia el tratamiento, el número de unidad de cálculo de los candidatos 107 determina si o no cada uno de ?, f, ?, indica una dirección de la cara es de un valor umbral predeterminado (por ejemplo, una dirección hacia adelante) (SI). Además, cuando cada uno de ?, f, ?, que indica la cara dirección está dentro del valor umbral predeterminado (SI: SÍ), el número de unidad de cálculo de candidatos 107 determina si o no la resolución (x, y) de un rostro no es menor que un valor umbral predeterminado (S2) .
Cuando cada uno de ?, f, ?, indica la dirección de la cara no está dentro del valor umbral predeterminado (SI: NO) , o cuando la resolución de la cara es menor que el valor umbral predeterminado (S2: NO), como se muestra en la Figura 4, otras personas con la similitud superior al valor umbral T se vuelve grande, y ya que el número de los mismos es más de n, el número de unidad de cálculo de candidatos 107 determina el número de candidatos c = n (?, f, ?, x, y) dado (el número de personas con la similitud superior al valor de umbral T (?, f, ?, x, y) (S4) .
Cuando cada uno de ?, f, ?, indica la dirección de la cara está dentro del valor umbral predeterminado (SI: SI), y la resolución de la cara no es menor que el valor umbral predeterminado (S2: SI), como se muestra en la Figura 3, el número de otras personas con la similitud superior al valor de umbral T (?, f, ?, x, y) se vuelven pequeños, y puesto que el número de los mismos no es más que n, el número de unidad de cálculo de candidatos 107 determina la número de candidatos c = n (S3) .
La Figura 6 es un diagrama para ejemplificar las imágenes faciales Gl a Gn dispuestos en orden descendente de la similitud. Como se muestra en la Figura 6, cuando las imágenes faciales Fl a Gn se obtienen en orden descendente de similitud, de personas el número de candidatos (c = 3) calculado por el número de unidad de cálculo de candidatos 107 del rango superior se hacen a personas por confirmar.
Después de que la unidad de confirmación candidatos 108 realiza la inspección visual de los candidatos de recuperación de las imágenes de la cara, del rango superior de las personas extraídas por la unidad de identificación de personas 106 en orden descendente de la similitud, basado en el número de candidatos (c) calculado por el número de unidad de cálculo de candidatos 107, la unidad de salida 109 genera información de las personas de la número correspondiente al número de los candidatos. Específicamente, la unidad de salida 109 muestra el resultado obtenido por el número de unidad de cálculo de candidatos 107 en una pantalla, o lo almacena en un medio de almacenamiento tal como una memoria USB. La unidad de salida 109 también muestra una advertencia, o muestra un mensaje a un guardia.
De la Figura 7 a la Figura 9 son diagramas conceptuales que cada uno ejemplifica una pantalla de visualización de 200. Como se muestra en la Figura 7, la unidad de salida 109 muestra una imagen de entrada (es preferible una imagen en la que una porción alrededor de un área de la cara está segmentada por la unidad de detección de caras 102) 201, y las imágenes de candidatos 211 a 213 que son imágenes faciales de las personas del número de candidatos calculado por la unidad de cálculo de número de candidatos 107, del rango superior de las personas extraídas por la unidad de identificación de personas 106 en orden descendente de similitud, en la pantalla de visualización 200. Por esta razón, en la pantalla de exhibición 200, se convierte fácil de entender hasta qué imágenes de las imágenes de la cara han de ser confirmadas de las personas extraídas en orden descendente de similitud. Y, un usuario puede realizar ajustes y así sucesivamente a la imagen facial confirmada por botones que operan 221, 222 y así sucesivamente de la pantalla de exhibición 200.
Además, como se muestra en la Figura 8, la pantalla de visualización 200 puede tener un área de visualización de la confirmación 230, un área de visualización de la imagen reservada 240, un área de visualización de los datos de progreso 250, además del área de visualización de la imagen de un candidato 210 para mostrar la imagen de entrada 201, y las imágenes de candidatos 211-219 de las personas que del número de candidatos calculados por el número de unidad de cálculo de candidatos 107, del rango superior de las personas extraídos por la unidad de identificación de personas 106 en orden descendente de similitud. El área de visualización de confirmación 230 es un área para mostrar la imagen seleccionada de candidatos 218 de las imágenes de candidatos 211-219 por una operación de una imagen de marca MI que es un puntero, y se dispone en una posición alineada con la imagen de entrada 201. Por esta razón, un usuario selecciona una imagen candidata deseada de las imágenes de candidatos 211-219 por el funcionamiento de la imagen de marca MI, y de ese modo puede comparar la imagen de candidatos seleccionada y la imagen de entrada 201 de lado a lado.
El área de visualización de imágenes reservada 240 es un área para mostrar la imagen que muestra la imagen de un candidato 212 de imagen de marca M2 para reservar las imágenes de candidatos 211-219. Un usuario selecciona una imagen de candidatos deseada de las imágenes de candidatos 211-219 por el funcionamiento de la imagen de marca MI, y realiza una operación de instrucción para reserva, y de este modo puede reservar la imagen de candidatos.
El área de visualización de datos de progreso 250 es un área para mostrar un estado de progreso del candidato que está en la confirmación de las imágenes de candidatos 211-219 mostradas en el área de visualización de imágenes de candidatos 210. Específicamente, en el área de visualización de los datos de progreso 250, fuera de las imágenes de candidatos 211-219 con la similitud no menos de una imagen de la marca 4 que indica la posición de la imagen de candidatos 218 que es seleccionado por el valor de umbral T de la imagen de marca MI, y es menor de confirmación, y se visualiza una imagen de marca M3 que indica la posición de la imagen de candidatos 212 que se indica por la imagen de marca M2 y es bajo reserva. Un usuario confirma la visualización de la zona de visualización de los datos de progreso 250, y de ese modo puede captar el estado de progreso para confirmar la operación .
Además, como se muestra en la Figura 9, imágenes de candidatos 261-266 en el área de visualización de imagen candidato 210 se pueden mostrar no sólo en descendente orden de la similitud, pero se pueden mostrar al lado del otro a lo largo de las filas, tales como una dirección de la cara, y una edad. Aquí, con respecto a una dirección de la cara, la unidad de salida 109 hace que las imágenes de candidatos 263-265 que se mostrarán al lado del otro en el orden de una cara mirando hacia la derecha a una cara mirando a la izquierda, por ejemplo, sobre la base de los valores calculados como T, f, ?. Además, con respecto a una edad, la unidad de salida 109 hace que las imágenes de candidatos 261-266 se muestren una al lado de la otra en el orden de la edad, usando una tecnología conocida públicamente de análisis de edad. Por este medio, un usuario puede confirmar las imágenes de los candidatos 261-266 que están dispuestos a lo largo de las filas como una dirección de la cara, y una de edad.
Además, la unidad de salida 109 acepta una entrada de un número de distribución con el fin de distribuir la información al número de confirmadores para llevar a cabo la confirmación, basado en una entrada de funcionamiento de un dispositivo de entrada tal como un teclado, y la unidad de salida 109 puede distribuir la información de las personas de la número correspondiente al número de candidatos, a partir del rango superior de las personas extraídas por la unidad de identificación de personas 106 en orden descendente de similitud, por el número de distribución introducida, y puede emitir la información.
La Figura 10 es un diagrama de flujo para ilustrar un proceso de distribución. Como se muestra en la Figura 10, la unidad de salida 109 acepta el número de confirmador (k) , sobre la base de una entrada de funcionamiento de un dispositivo de entrada tal como un teclado (Sil) . A continuación, la unidad de salida 109 distribuye los candidatos de confirmación del rango superior de las personas extraídos por la unidad de identificación de personas 106 con el fin de la similitud con k piezas (n (1), n (2),..., n (descendiendo k) ) (S12) . A continuación, la unidad de salida 109 genera la distribuido n (1), n (2),..., n (k) a las direcciones del número establecido para el número de los confirmadores (S13) . Por este medio, puede ser llevada a cabo la operación de confirmación distribuida por el número de los confirmadores (k).
Este método compartido puede ser una simple división en k partes iguales, o puede ser configurado para distribuir el candidato de la confirmación del rango superior de las personas extraídas por la unidad de identificación de personas 106 en orden descendente de similitud de acuerdo con una solicitud de un confirmante. Por ejemplo, la unidad de salida 109 puede secuencialmente salida de uno de cada n (1), n (2),..., n (k), de acuerdo con una solicitud de distribución de un terminal que opera un confirmador. Uno de n (1), n (2),..., n (k) se emite de forma secuencial de acuerdo con la solicitud de distribución, como de esta manera, y por lo tanto la distribución se puede realizar de acuerdo con la eficiencia de la confirmación funcionamiento del confirmante.
La Figura 11 es un diagrama de bloques que muestra una configuración de hardware del aparato de reconocimiento de persona 100. Como se muestra en la Figura 11, el aparato de reconocimiento de persona 100 se proporciona con una CPU (Unidad Central de Proceso) 1101, una ROM (Memoria de Sólo Lectura) 1102, una memoria RAM (Memoria de Acceso Aleatorio) 1102, una comunicación I/F 1104, un HDD 1105, una pantalla dispositivo 1106, un dispositivo de entrada 1107 tal como un teclado y un ratón, y un bus 1108 para conectarlos, y es una configuración de hardware utilizando un ordenador habitual. En el aparato de reconocimiento de persona 100, la CPU desarrolla un programa almacenado en la ROM en la RAM y secuencialmente ejecuta el programa, y de ese modo da cuenta de la configuración de la función se ejemplifica en la Figura 1.
Además, el programa para ser ejecutado en el aparato de reconocimiento de personas 100 de la presente modalidad se presenta incorporada previamente en una ROM y asi sucesivamente. El programa para ser ejecutado en el aparato de reconocimiento de personas 100 de la presente modalidad puede estar configurado de tal manera que el programa con el que se presenta será almacenada en una legible por ordenador medio de grabación, tal como un CD -ROM, un disco flexible (FD) , una CD- R, un DVD (disco versátil digital) en forma de archivo de un formato instalable o un formato ejecutable.
Además, el programa para ser ejecutado en el aparato de reconocimiento de persona 100 de la presente modalidad puede estar configurado de tal manera que el programa se almacena en un ordenador conectado a una red, como Internet, y se presenta al ser descargado a través de la red. Además, el programa para ser ejecutado en el aparato de reconocimiento de persona 100 de la presente modalidad puede configurarse de manera que el programa se proporciona o distribuido a través de una red como Internet.
El programa para ser ejecutado en el aparato de reconocimiento de persona 100 de la presente modalidad se compone de una configuración del módulo incluyendo la configuración de la función descrita anteriormente, y como un hardware real, la CPU (procesador) lee el programa de lo anterior - descrito ROM y ejecuta el programa, y de este modo la configuración de la función anteriormente descrita se carga en el dispositivo de almacenamiento principal, y se genera en el dispositivo de almacenamiento principal.
Aunque se han descrito ciertas modalidades, estas modalidades se han presentado a modo de ejemplo solamente, y no están destinados a limitar el alcance de las invenciones. De hecho, las nuevas modalidades descritas en el presente documento pueden ser incluidas en una variedad de otras formas, además, diversas omisiones, sustituciones y cambios en la forma de las modalidades descritas en el presente documento pueden realizarse sin apartarse del espíritu de las invenciones. Las reivindicaciones adjuntas y sus equivalentes se destinan a cubrir la forma o las modificaciones que caerían dentro del alcance y espíritu de las invenciones.

Claims (9)

REIVINDICACIONES
1.- Un aparato de reconocimiento de personas, que comprende : una unidad de entrada de datos para ingresar imagen; una unidad de detección de caras para detectar un área de la cara en la que una cara de una persona se expresa a partir de los datos de imagen introducidos y generar una puntuación que toma un valor grande de acuerdo con la semejanza facial; una unidad de detección de punto de caracteristicas faciales para detectar un ángulo de una dirección de la cara de un punto de caracteristicas de la zona de la cara detectada; una unidad de extracción de caracteristicas para calcular una primera cantidad de caracteristicas para la identificación personal desde el punto de características detectado por la unidad de detección de puntos de características faciales; una unidad administrativa de datos característicos para almacenar una segunda cantidad de características de cada persona, incluyendo información que indica una característica de una cara de la persona competente, para cada persona; una unidad de identificación de personas para calcular la similitud entre la primera cantidad de características calculada por la unidad de extracción de características y la segunda cantidad de características almacenada en la unidad administrativa de datos de características ; un número de unidad de cálculo de candidatos que muestra las imágenes faciales almacenadas en la unidad administrativa de datos de características en orden descendente de la similitud calculada por la unidad de identificación de personas y calcula una serie de imágenes de la cara que se mostrarán de acuerdo con la puntuación que se envía desde la unidad de detección de caras y el ángulo de la dirección de la cara emitida desde el punto de característica unidad de detección facial; una unidad de confirmación de candidatos en la que los candidatos de recuperación de las imágenes faciales que aparecen en orden descendente de la similitud se sometió a inspección visual y que calcula de nuevo el número de las imágenes faciales que se muestran por el número de unidad de cálculo de candidatos de acuerdo con el aumento o disminución del número de candidatos a ser confirmados; y una unidad de salida a de salida si los datos de imagen introducidos por la unidad de entrada han sido o no almacenados en la unidad administrativa de datos de características, como resultado de la confirmación de la unidad de confirmación de candidatos.
2. - El aparato de la reivindicación 1, en donde: el número de unidad de cálculo de candidatos realiza una dirección de la cara en el área de la cara detectada, o una resolución de una cara de un valor de índice de evaluación que indica una condición de formación de imágenes adecuada para su cotejo con la segunda magnitud característica de, y calcula la número de candidatos correspondientes al valor de índice de evaluación.
3. - El aparato de la reivindicación 2, en donde: el número de unidad de cálculo calcula candidatos más el número de candidatos de acuerdo con la disminución del valor de índice de evaluación y calcula menos el número de candidatos de acuerdo con el aumento del valor de índice de evaluación.
4. - El aparato de la reivindicación 1, en donde: la segunda cantidad de características incluye la imagen facial de la persona, y la unidad de salida muestra y da salida a una imagen facial correspondiente al área de la cara detectada a partir de los datos de imagen introducidos, y las imágenes faciales de las personas del número correspondiente al número de candidatos de un rango superior de las personas con el fin de extraer la similitud descendente.
5. - El aparato de la reivindicación 4, que comprende además: una unidad de selección para seleccionar una imagen facial prescrita de las imágenes faciales de las personas de la número correspondiente al número de candidatos, en donde la unidad de salida muestra y da salida a la imagen facial correspondiente a la área de la cara detectada a partir de los datos de imagen introducidos, y la imagen facial seleccionada por la unidad de selección, de lado a lado.
6. - El aparato de la reivindicación 4, en donde: la unidad de generación exhibe y genera las imágenes de la cara de las personas de la cantidad correspondiente al número de candidatos en el orden de la edad de la persona extraída, de lado a lado.
7. - El aparato de la reivindicación 4, en donde: La unidad de generación exhibe y genera las imágenes faciales de las personas del número correspondiente al número de candidatos en el orden de la dirección de la cara de la persona extraída, de lado a lado.
8. - El aparato de la reivindicación 1, gue comprende además: una unidad de aceptación para aceptar una entrada de un número de distribución; en donde la unidad de salida distribuye la información de personas de las personas del número correspondiente al número de candidatos de un rango más alto de las personas extraídas en orden descendente de la similitud, por el número de distribución introducido, y emite la información de personas distribuida.
9.- Un método de reconocimiento de personas, que com rende : introducción de datos de imagen; detección de un área de la cara en la que una cara de una persona se expresa a partir de los datos de imagen introducidos, y genera una puntuación que toma un valor grande de conformidad con semejanza facial; detectar un ángulo de una dirección de la cara de un punto de la zona de la cara detectada característica; calcular una primera cantidad de características para la identificación personal desde el punto característica detectada; almacenar una segunda cantidad de características de cada persona, incluyendo información que indica una característica de una cara de la persona competente, para cada persona, en una unidad administrativa de datos de características ; calcular la similitud entre la primera cantidad de características y la segunda cantidad de características almacenada en la unidad administrativa de datos de características; visualizar las imágenes faciales almacenadas en la unidad administrativa de datos de características en orden descendente de la similitud calculada; y calcular una serie de imágenes de la cara que se mostrarán de acuerdo con la puntuación emitida y el ángulo de la dirección emitida cara; recuperar candidatos de las imágenes de la cara que se muestran en orden descendente de la similitud son sometidos a una inspección visual y calcular de nuevo el número de la imágenes faciales que se muestran en conformidad con el aumento o disminución del número de candidatos a ser confirmados; y predecir si los datos de imagen introducidos se han almacenado o no en la unidad administrativa datos de función, como resultado de la inspección visual. RESUMEN De acuerdo con una modalidad, un aparato de reconocimiento de personas incluye una unidad de entrada para ingresar datos de imágenes, una unidad de detección de caras para detectar un área de la cara en la cual una cara de una persona se expresa desde los datos de imágenes ingresados y para proporcionar una clasificación que toma un gran valor de acuerdo con la probabilidad facial, una unidad de detección por puntos característicos faciales para detectar un ángulo de una dirección de la cara desde un punto característico del área de la cara detectada, una unidad de extracción de características para calcular una primera cantidad de características para identificación personal desde el punto característico detectado por la unidad de detección de puntos característicos faciales, una unidad administrativa de datos de características para almacenar una segunda cantidad de características de cada persona incluyendo información que indica una característica de una cara de la persona relevante, para cada persona, una unidad de identificación de personas para calcular una similitud entre la primera cantidad de características calculada por la unidad de extracción de características y la segunda cantidad de características almacenada en la unidad administrativa de datos de características, un número de unidad de cálculo de candidatos que exhibe las imágenes faciales almacenadas en la unidad administrativa de datos de características en orden descendiente de la similitud calculada por la unidad de identificación de personas y calcula un número de imágenes faciales que serán exhibidas de acuerdo con la clasificación proporcionada de la unidad de detección de caras y el ángulo de la dirección de caras producido desde la unidad de detección de puntos de características faciales, una unidad de confirmación de candidatos en la cual la recuperación de candidatos de las imágenes faciales exhibidas en orden descendiente de la similitud se someten a inspección visual y que calcula de nuevo el número de las imágenes faciales exhibidas por el número de unidad de cálculo de candidatos de acuerdo con el incremento o disminución del número de candidatos que será confirmado y una unidad de salida para proporcionar si los datos de imágenes ingresados por la unidad de entrada se han almacenado o no en la unidad administrativa de datos de características, como resultado de la confirmación de la unidad de confirmación de candidatos.
MX2014002827A 2013-03-18 2014-03-07 Aparato de reconocimiento de personas y método de reconocimiento de personas. MX344941B (es)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013055377A JP6013241B2 (ja) 2013-03-18 2013-03-18 人物認識装置、及び方法

Publications (2)

Publication Number Publication Date
MX2014002827A true MX2014002827A (es) 2014-10-01
MX344941B MX344941B (es) 2017-01-12

Family

ID=51527225

Family Applications (1)

Application Number Title Priority Date Filing Date
MX2014002827A MX344941B (es) 2013-03-18 2014-03-07 Aparato de reconocimiento de personas y método de reconocimiento de personas.

Country Status (3)

Country Link
US (1) US9530078B2 (es)
JP (1) JP6013241B2 (es)
MX (1) MX344941B (es)

Families Citing this family (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9514355B2 (en) * 2009-01-05 2016-12-06 Apple Inc. Organizing images by correlating faces
GB201219261D0 (en) * 2012-10-26 2012-12-12 Jaguar Cars Vehicle access system and method
KR102121529B1 (ko) * 2013-08-30 2020-06-10 삼성전자주식회사 디지털 영상 처리 방법 및 디지털 영상 처리 장치
JP5500303B1 (ja) * 2013-10-08 2014-05-21 オムロン株式会社 監視システム、監視方法、監視プログラム、ならびに該プログラムを記録した記録媒体
KR102222318B1 (ko) * 2014-03-18 2021-03-03 삼성전자주식회사 사용자 인식 방법 및 장치
JP6470503B2 (ja) * 2014-05-20 2019-02-13 キヤノン株式会社 画像照合装置、画像検索システム、画像照合方法、画像検索方法およびプログラム
JP6149015B2 (ja) * 2014-09-10 2017-06-14 富士フイルム株式会社 画像処理装置、画像処理方法、プログラムおよび記録媒体
JP6383639B2 (ja) * 2014-10-29 2018-08-29 日本電信電話株式会社 画像処理装置及びプログラム
CN104966046B (zh) * 2015-05-20 2017-07-21 腾讯科技(深圳)有限公司 一种人脸关键点位定位结果的评估方法,及评估装置
JP6548998B2 (ja) 2015-09-07 2019-07-24 株式会社東芝 人物検索システムおよび人物検索方法
JP6204957B2 (ja) * 2015-10-15 2017-09-27 ヤフー株式会社 情報処理装置、情報処理方法および情報処理プログラム
JP6700791B2 (ja) * 2016-01-05 2020-05-27 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
JP6474919B2 (ja) * 2016-01-12 2019-02-27 株式会社日立国際電気 混雑状況監視システム及び混雑状況監視方法
WO2017154136A1 (ja) * 2016-03-09 2017-09-14 日立マクセル株式会社 携帯情報端末及びそれに用いる情報処理方法
US11207478B2 (en) 2016-03-25 2021-12-28 Rai Strategic Holdings, Inc. Aerosol production assembly including surface with micro-pattern
JP6975882B2 (ja) * 2016-08-08 2021-12-01 パナソニックIpマネジメント株式会社 照合装置および照合結果表示方法
GB2553775A (en) * 2016-09-09 2018-03-21 Snell Advanced Media Ltd Method and apparatus for ordering images
CN106503686A (zh) * 2016-10-28 2017-03-15 广州炒米信息科技有限公司 检索人脸图像的方法和系统
DE112017007011B4 (de) * 2017-03-10 2021-11-04 Mitsubishi Electric Corporation Gesichtsrichtungsschätzvorrichtung und Gesichtsrichtungsschätzverfahren
US11269892B2 (en) * 2017-11-01 2022-03-08 Adobe Inc. Ranking images based on image effects
CN109993039A (zh) * 2018-01-02 2019-07-09 上海银晨智能识别科技有限公司 人像识别方法及装置、计算机可读存储介质
JP7224817B2 (ja) * 2018-09-06 2023-02-20 キヤノンメディカルシステムズ株式会社 信号データ処理装置
US11367305B2 (en) * 2018-09-28 2022-06-21 Apple Inc. Obstruction detection during facial recognition processes
US20210383098A1 (en) * 2018-11-08 2021-12-09 Nec Corporation Feature point extraction device, feature point extraction method, and program storage medium
US10685457B2 (en) * 2018-11-15 2020-06-16 Vision Service Plan Systems and methods for visualizing eyewear on a user
JP7314509B2 (ja) * 2018-12-27 2023-07-26 日本電気株式会社 情報処理装置、情報処理方法及びプログラム
SG11202106468QA (en) * 2018-12-27 2021-07-29 Nec Corp Information processing apparatus, information processing method, and program
JP7392264B2 (ja) * 2019-02-26 2023-12-06 沖電気工業株式会社 情報処理装置及び顔認識システム
CN110751022B (zh) * 2019-09-03 2023-08-22 平安科技(深圳)有限公司 基于图像识别的城市宠物活动轨迹监测方法及相关设备
CN111160263B (zh) * 2019-12-30 2023-09-05 中国电子科技集团公司信息科学研究院 一种获取人脸识别阈值的方法及系统
CN111353473B (zh) * 2020-03-30 2023-04-14 浙江大华技术股份有限公司 一种人脸检测方法、装置、电子设备及存储介质
WO2023281903A1 (ja) * 2021-07-09 2023-01-12 パナソニックIpマネジメント株式会社 画像照合装置、画像照合方法、及びプログラム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003346149A (ja) * 2002-05-24 2003-12-05 Omron Corp 顔照合装置および生体情報照合装置
JP3809823B2 (ja) * 2003-02-24 2006-08-16 日本電気株式会社 人物情報管理システムおよび人物情報管理装置
KR100571826B1 (ko) * 2003-12-02 2006-04-17 삼성전자주식회사 대용량 얼굴 인식 장치 및 방법
JP4577410B2 (ja) * 2008-06-18 2010-11-10 ソニー株式会社 画像処理装置、画像処理方法およびプログラム
JP4710978B2 (ja) * 2009-01-09 2011-06-29 ソニー株式会社 対象物検出装置、撮像装置、対象物検出方法およびプログラム
JP5438436B2 (ja) 2009-08-27 2014-03-12 株式会社日立国際電気 画像検索装置
JP5451302B2 (ja) * 2009-10-19 2014-03-26 キヤノン株式会社 画像処理装置及び方法、プログラム及び記憶媒体
JP5444137B2 (ja) * 2010-06-18 2014-03-19 株式会社東芝 顔画像検索装置および顔画像検索方法
JP5740210B2 (ja) * 2011-06-06 2015-06-24 株式会社東芝 顔画像検索システム、及び顔画像検索方法
JP5793353B2 (ja) * 2011-06-20 2015-10-14 株式会社東芝 顔画像検索システム、及び顔画像検索方法

Also Published As

Publication number Publication date
US9530078B2 (en) 2016-12-27
US20140270370A1 (en) 2014-09-18
JP6013241B2 (ja) 2016-10-25
JP2014182480A (ja) 2014-09-29
MX344941B (es) 2017-01-12

Similar Documents

Publication Publication Date Title
MX2014002827A (es) Aparato de reconocimiento de personas y metodo de reconocimiento de personas.
KR102596897B1 (ko) 모션벡터 및 특징벡터 기반 위조 얼굴 검출 방법 및 장치
CN105335722B (zh) 一种基于深度图像信息的检测系统及方法
JP5629803B2 (ja) 画像処理装置、撮像装置、画像処理方法
US8811726B2 (en) Method and system for localizing parts of an object in an image for computer vision applications
JP4743823B2 (ja) 画像処理装置、撮像装置、画像処理方法
JP6112801B2 (ja) 画像認識装置及び画像認識方法
CN108985210A (zh) 一种基于人眼几何特征的视线追踪方法及系统
US20180075291A1 (en) Biometrics authentication based on a normalized image of an object
JP2006293644A (ja) 情報処理装置、情報処理方法
MX2013002904A (es) Aparato de proceso de imagenes de personas y metodo para procesar imagenes de personas.
JP6548998B2 (ja) 人物検索システムおよび人物検索方法
JP6351243B2 (ja) 画像処理装置、画像処理方法
CN105912126B (zh) 一种手势运动映射到界面的增益自适应调整方法
JP6410450B2 (ja) オブジェクト識別装置、オブジェクト識別方法及びプログラム
WO2020195732A1 (ja) 画像処理装置、画像処理方法、およびプログラムが格納された記録媒体
WO2022009301A1 (ja) 画像処理装置、画像処理方法、及びプログラム
JP5971712B2 (ja) 監視装置及び方法
JP2013218605A (ja) 画像認識装置、画像認識方法及びプログラム
CN112801038A (zh) 一种多视点的人脸活体检测方法及系统
JP2009289210A (ja) 重要物体認識装置および重要物体認識方法ならびにそのプログラム
JP7374632B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP7152651B2 (ja) プログラム、情報処理装置、及び情報処理方法
JP2013218604A (ja) 画像認識装置、画像認識方法及びプログラム
JP7302741B2 (ja) 画像選択装置、画像選択方法、およびプログラム

Legal Events

Date Code Title Description
FG Grant or registration