ES2260476T3 - Sistema de imagenes faciales para registro y confirmacion automatizad a de identidad. - Google Patents

Sistema de imagenes faciales para registro y confirmacion automatizad a de identidad.

Info

Publication number
ES2260476T3
ES2260476T3 ES02767029T ES02767029T ES2260476T3 ES 2260476 T3 ES2260476 T3 ES 2260476T3 ES 02767029 T ES02767029 T ES 02767029T ES 02767029 T ES02767029 T ES 02767029T ES 2260476 T3 ES2260476 T3 ES 2260476T3
Authority
ES
Spain
Prior art keywords
facial
face
images
data
imaging system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
ES02767029T
Other languages
English (en)
Inventor
Gary A. Van Beek
Andrew James Adler
Marius Daniel Cordea
Simion Adrian Moica
William R. Ross
Joel F. Shaw
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Cryptometrics Inc
Original Assignee
Cryptometrics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Cryptometrics Inc filed Critical Cryptometrics Inc
Application granted granted Critical
Publication of ES2260476T3 publication Critical patent/ES2260476T3/es
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • H04N7/186Video door telephones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0062Arrangements for scanning
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • A61B5/1077Measuring of profiles
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/117Identification of persons
    • A61B5/1171Identification of persons based on the shapes or appearances of their bodies or parts thereof
    • A61B5/1176Recognition of faces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/98Detection or correction of errors, e.g. by rescanning the pattern or by human intervention; Evaluation of the quality of the acquired patterns
    • G06V10/993Evaluation of the quality of the acquired pattern
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C9/00Individual registration on entry or exit
    • G07C9/30Individual registration on entry or exit not involving the use of a pass
    • G07C9/32Individual registration on entry or exit not involving the use of a pass in combination with an identity check
    • G07C9/37Individual registration on entry or exit not involving the use of a pass in combination with an identity check using biometric data, e.g. fingerprints, iris scans or voice recognition
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • G08B13/19608Tracking movement of a target, e.g. by detecting an object predefined as a target, using target direction and or velocity to predict its new position
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19617Surveillance camera constructional details
    • G08B13/1963Arrangements allowing camera rotation to change view, e.g. pivoting camera, pan-tilt and zoom [PTZ]
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19678User interface
    • G08B13/19689Remote control of cameras, e.g. remote orientation or image zooming control for a PTZ camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof

Abstract

Un sistema de imágenes faciales para registro y/o confirmación automatizada de identidad de un objetivo dentro de un área de seguridad, comprendiendo dicho sistema de imágenes faciales: una unidad de cámara, que comprende: un controlador de unidad de cámara, una unidad de alcance para detectar la presencia del objetivo dentro del área de seguridad y para proporcionar datos de alcance respecto al objetivo a dicho controlador de la unidad de cámara; y una videocámara para capturar imágenes del objetivo y enviar dichas imágenes del objetivo a dicho controlador de la unidad de cámara; comprendiendo dicho controlador de la unidad de cámara: un sistema de detección de caras configurado para detectar una imagen facial dentro de dichas imágenes del objetivo; un sistema de captura de caras configurado para capturar dicha imagen facial cuando se determina que dicha imagen facial es de una calidad suficiente para el reconocimiento de caras.

Description

Sistema de imágenes faciales para registro y confirmación automatizada de identidad.
Esta invención se refiere al campo del registro de imágenes faciales y de la confirmación de identidad usando imágenes faciales y en particular a los medios por los cuales se pueden registrar las caras y se puede confirmar la identidad usando imágenes faciales que se obtienen de manera automática (es decir, sin intervención humana) en áreas de seguridad en las cuales no se puede restringir el movimiento de la gente dentro de unos límites definidos.
Antecedentes de la invención
En un mundo en el que las posibilidades de terrorismo constituyen una amenaza siempre creciente, existe necesidad de revisar y registrar o identificar los individuos que acceden a determinadas áreas restringidas tales como aeropuertos, estadios deportivos, convenciones políticas, asambleas legislativas, reuniones corporativas, etc. También existe necesidad de revisar y registrar o identificar los individuos que acceden a un país a través de sus diversos puertos de entrada. Una de las maneras de identificar tales individuos es a través de la identificación biométrica, usando técnicas de reconocimiento facial, las cuales utilizan diversas medidas de los rasgos faciales únicos de una persona como medio de identificación. Alguno de los problemas asociados a usar el reconocimiento facial como un medio para revisar e identificar rápidamente los individuos que intentan acceder a un área de seguridad son la lentitud de la adquisición de imágenes, la mala calidad de las imágenes adquiridas, y la necesidad de la operación humana de tales sistemas.
Los intentos por resolver estos problemas en el pasado han empleado una videocámara única de alta resolución, la cual se usa para monitorizar un área de seguridad que conduce a una entrada. Típicamente, se emplea en la cámara una lente de alcance focal fija. Se usa un software para analizar la imagen de vídeo a fin de detectar y rastrear las imágenes faciales de los objetivos que entran en el área de seguridad. Estas imágenes son capturadas, registradas y enviadas al software de reconocimiento y comparación facial en un intento por identificar los individuos y verificar su derecho a acceder al área. Uno de los principales problemas de tales sistemas es que los datos de vídeo son de baja resolución y con demasiado "ruido" para proporcionar consistentemente buenos resultados. Los sistemas de este tipo trabajan razonablemente bien sólo cuando el área de seguridad es pequeña y las distancias entre objetivos que entran en el área de seguridad y la cámara de monitorización son relativamente constantes. La ampliación del área de seguridad y/o el intento de adaptarse a objetivos a distancias variables respecto a la cámara da lugar a que algunos objetivos tengan una resolución demasiado pequeña en la imagen de vídeo para ser analizados adecuadamente en cuanto a un reconocimiento preciso de la cara. La principal desventaja de tales sistemas, por tanto, es que funcionan ventajosamente sólo sobre un intervalo angular y de profundidad muy estrecho. La calidad de la imagen capturada y por tanto el éxito del reconocimiento facial en base a esas imágenes es inconsistente.
Otros sistemas existentes usan dos cámaras, una cámara estacionaria de campo de visión amplio, y una segunda cámara dirigible de campo de visión estrecho a apuntar por medio de funciones de giro horizontal, inclinación y zoom, a las caras identificadas por la primera cámara con fines de capturar una imagen facial y enviarla a distancia para reconocimiento y comparación de la cara en una base de datos. En este método, la segunda cámara es capaz de obtener las imágenes de alta resolución necesarias para un reconocimiento preciso de la cara. La principal desventaja de estos sistemas es que, conforme aumenta el alcance de la primera cámara, se hace más difícil reconocer que un objetivo dentro del campo de visión contiene una cara. En segundo lugar, las funciones motorizadas de giro horizontal, inclinación y zoom de la segunda cámara son relativamente lentas. Como resultado, el sistema sólo es capaz de rastrear una persona a la vez.
El documento EEUU 6.122.455 describe una cámara asociada a un dispositivo separado de detección de alcance.
Otra solución es usar cámaras con giro horizontal, inclinación y zoom motorizados, controladas a distancia por un operador humano para monitorizar un área de seguridad. Los sistemas de seguridad de este tipo se emplean rutinariamente para monitorizar grandes áreas o edificios. Se puede usar una multitud de cámaras y normalmente cada una funciona en el modo de gran ángulo. Cuando el operador observa algo de interés, lo puede ampliar con el zoom usando los controles motorizados y obtener una imagen de la cara de una persona para fines de reconocimiento facial. La desventaja de tales sistemas es que requieren la presencia de un operador para detectar y decidir cuando obtener las imágenes faciales. Un sistema de este tipo es típicamente tan lento que no se puede rastrear más de una persona a la vez.
Otra solución todavía es requerir a las personas que buscan entrar en un área de seguridad que pasen en una fila única, a un paso restringido, en gran medida como si pasaran a través de un detector de metales en un aeropuerto. Se coloca una cámara única de foco fijo a una distancia establecida para capturar todas las imágenes de las caras de las personas para la comparación de caras y reconocimiento facial. Un sistema de este tipo restringiría severamente el flujo de personas al área segura, y en muchos casos, como en los estadios deportivos, sería totalmente imposible de llevar a la práctica. Además, el sistema requeriría todavía un operador para asegurarse de que la cámara está apuntada directamente a la cara de la persona, y no incluye medios algunos para asegurarse de obtener una pose
adecuada.
A partir de lo anterior, está claro que existe necesidad de un sistema automatizado de imágenes faciales que supere las desventajas de la técnica anterior proporcionando la capacidad de capturar y registrar rápidamente imágenes faciales de alta calidad de las personas que entran en un área de seguridad y opcionalmente de hacer disponibles esas imágenes para comparación facial e identificación. Sería ventajoso si un sistema de este tipo incluyera un sistema automatizado, de gran precisión, rápido para la detección de caras y el rastreo de caras a fin de facilitar la captura de imágenes faciales con fines de registro y/o de comparación de caras y de reconocimiento de caras.
Breve resumen de la invención
Un objeto de un aspecto de la presente invención es superar los inconvenientes anteriores proporcionando un sistema de imágenes faciales para detectar rápidamente imágenes faciales de personas objetivo dentro de un área de seguridad y capturar imágenes de alta calidad de esas caras para registro y/o para su uso en sistemas de reconocimiento facial con fines de verificación de caras, reconocimiento de caras, y comparación de caras.
Un objeto de otro aspecto de la invención es proporcionar un sistema de imágenes faciales que pueda suministrar imágenes faciales de suficiente tamaño y resolución, de acuerdo con los requisitos de los sistemas conocidos de reconocimiento de caras y comparación de caras para permitir a esos sistemas funcionar a eficiencia pico y proporcionar consistentemente buenos resultados para la identificación y comparación de caras.
Un objeto de otro aspecto todavía de la invención es proporcionar un sistema de imágenes faciales que utilice los datos de alcance de una unidad de alcance u otro dispositivo y los datos de imágenes de vídeo para asistir en la detección de imágenes faciales y en el rastreo de imágenes faciales.
Un objeto de otro aspecto todavía de la invención es proporcionar un sistema de imágenes faciales que utiliza un registro histórico de datos de alcance de una unidad de alcance u otro dispositivo para asistir en la detección de imágenes faciales y en el rastreo de imágenes faciales.
Según un aspecto de la presente invención se proporciona un sistema de imágenes faciales para registro y/o confirmación automatizada de la identidad de un objetivo dentro de un área de seguridad, comprendiendo el sistema de imágenes faciales: una unidad de cámara, que comprende: un controlador de unidad de cámara, una unidad de alcance para detectar la presencia del objetivo dentro del área de seguridad y para proporcionar datos de alcance respecto al objetivo al controlador de la unidad de cámara y una videocámara para capturar imágenes del objetivo y enviar las imágenes del objetivo al controlador de la unidad de cámara, comprendiendo el controlador de la unidad de cámara: un sistema de detección de cara configurado para detectar una imagen facial dentro de las imágenes del objetivo; un sistema de captura de cara configurado para capturar la imagen facial cuando se determina que la imagen facial es de suficiente calidad para el reconocimiento facial.
La videocámara, a su vez, puede ser accionada, bien total o bien parcialmente, para efectuar el rastreo de un objetivo, por ejemplo, por giro horizontal, inclinación y enfoque. O bien la videocámara puede visionar la escena a través de unos medios de reflector accionados, por ejemplo un espejo, que puede variar rápidamente el campo de visión. El apuntamiento de la cámara puede ser asistido también, al menos inicialmente, por datos de alcance proporcionados por un detector de presencia.
La velocidad de captura de imágenes a lo largo del tiempo se basa en el tiempo consumido en cada una de las etapas específicas de la detección de imágenes, rastreo de imágenes y, finalmente, captura de imágenes. La decisión para efectuar la captura de imágenes se basa en la presencia de una imagen que satisfaga un umbral de calidad predeterminado. Una vez ha tenido lugar la captura de la imagen, se libera el sistema para que repita el ciclo. Un objeto de la invención es reducir al mínimo el tiempo del ciclo.
En las realizaciones preferidas, el sistema de imágenes faciales descrito aquí usa una videocámara dirigible de alta resolución y un localizador de alcance de alta resolución basado en láser. El localizador de alcance barre el área de seguridad monitorizada, típicamente con un campo de visión de 45 grados, aproximadamente cada 100 milisegundos y anota los emplazamientos angulares, distancias y anchuras de todos los objetivos potenciales situados en el mismo. La profundidad del área de seguridad monitorizada es típicamente de 15 metros, pero puede ser modificada para acomodarse a la instalación determinada. Los emplazamientos angulares, distancias y anchuras de los objetivos potenciales situados dentro del área de seguridad monitorizada son presentados a un ordenador de controlador de la unidad de cámara que procesa los datos y envía órdenes de apuntar la videocámara a los objetivos de interés. Las órdenes corresponden a las funciones de giro horizontal, inclinación y zoom de la videocámara. En base a el alcance al objetivo, se activa la función de zoom de la videocámara al grado requerido para obtener una imagen de vídeo de una cara humana media que llene al menos un 20% del área de imagen. Un software de detección facial, asistido por los datos de alcance que especifican el alcance, el emplazamiento angular y la anchura de un objetivo potencial, se usa para analizar la imagen y determinar si contiene una cara humana. Si se detecta una cara, se calculan las coordenadas de los rasgos principales de la cara y se usan por la videocámara para ampliar con el zoom la cara de manera que ocupe la casi totalidad del campo de visión de la videocámara. Estas coordenadas, con referencia a los datos de alcance y a la imagen de video, son actualizados constantemente y se pueden utilizar también para facilitar el rastreo de la cara objetivo conforme se mueve. Una vez se ha determinado que la calidad de la cara es suficiente, según unos criterios predeterminados basados en los sistemas de reconocimiento facial usados, las imágenes faciales son capturadas y registradas y/o puestas a disposición del software de reconocimiento facial para la identificación biométrica y la identificación y comparación con bases externas de datos.
La videocámara usada en la presente invención es de un diseño único que permite una operación precisa de apuntamiento a alta velocidad. La capacidad de la presente invención para apuntar rápidamente la videocámara permite el rastreo de muchas personas dentro del área de seguridad a la vez de un modo auténticamente multiplexado. La videocámara es capaz de apuntar rápidamente de una persona a otra y retroceder nuevamente. A diferencia de otras videocámaras con giro horizontal, inclinación y zoom motorizados, la videocámara de la presente invención no se mueve en una plataforma para realizar la operación de giro horizontal. En su lugar, se monta un espejo de peso liviano directamente sobre un motor lineal de bobina móvil y se usa para dirigir una imagen de un segmento del área de seguridad a la videocámara. Moviendo el espejo, se puede hacer girar horizontalmente el campo de visión de la videocámara con rapidez a través del área de seguridad en un tiempo muy breve, del orden de decenas de milisegundos, permitiendo que el sistema funcione de un modo auténticamente multiplexado. La inclinación se realiza todavía moviendo la propia videocámara, pero en las distancias normales de funcionamiento, los ángulos sobre los cuales debe ser inclinada la videocámara para adquirir una imagen facial son pequeños y se puede ajustar a ellos con facilidad mediante los mecanismos de inclinación existentes. El funcionamiento del zoom se logra también de manera normal moviendo los elementos de lente de la videocámara.
El sistema de la invención puede incorporar una lógica de análisis de imágenes que está o "abordo", en el emplazamiento de la unidad de cámara, o en un emplazamiento remoto. Así, el sistema de cámara puede ser programado para obtener imágenes adicionales de individuos especiales. Se puede usar los datos de rastreo de caras de la imagen de vídeo para mejorar las prestaciones de las operaciones de lógica de reconocimiento de caras. Se pueden combinar los datos de imagen con los datos de un detector de presencia para asegurarse de una confirmación de identidad y/o permitir que el sistema mantenga una norma de consistencia preestablecida.
Los beneficios del enfoque aquí descrito son muchos. Se eliminan los daños a la videocámara puesto que ya no tiene que ser movida rápidamente hacia atrás y hacia delante para girar horizontalmente a través del área de seguridad. También se eliminan los problemas de cables asociados. No se requiere un motor de giro horizontal poderoso ni engranajes asociados para efectuar el movimiento rápido de la videocámara, y se eliminan los problemas de juego entre dientes. El uso de los datos de alcance del objetivo junto con los datos de vídeo del objetivo permite que el sistema detecte con mayor precisión y rastree las caras en el área de seguridad y permite el rastreo de múltiples caras de objetivo. Los datos de vídeo y distancia del objetivo se usan de modo complementario para eliminar la ambigüedad inherente a la detección y al rastreo de caras cuando sólo se dispone de una fuente de datos. Los algoritmos actuales de software de reconocimiento facial sufren cuando las imágenes de entrada se han tomado con una pose pobre, una iluminación pobre, o una recogida pobre. El uso de datos de distancia de objetivo conjuntamente con los datos de vídeo de objetivo permite una selección más precisa de imágenes correctamente centradas, con buena iluminación y una sincronización correcta de la captura de imagen para asegurarse de la pose correcta. La calidad mejorada de imagen mejora significativamente las prestaciones de reconocimiento de caras.
Resultarán obvios los objetos adicionales y ventajas de la presente invención a partir de la descripción siguiente y de los dibujos anexos, donde se describen y muestran claramente las realizaciones preferidas de la invención.
Breve descripción de los dibujos
Se entenderá mejor la presente invención a partir de la descripción siguiente haciendo referencia a los dibujos, en los cuales:
La Figura 1 es una vista en planta desde arriba hacia abajo de la presente invención instalada dentro de un área de seguridad.
La Figura 2 es una vista en alzado lateral de una posible posición de instalación de la videocámara, sistema de espejo giratorio y unidad de alcance de la presente invención dentro de un área de seguridad.
La Figura 3 es un diagrama de bloques de la unidad de cámara de la presente invención mostrada en la Figura 1.
La Figura 4 es un diagrama de bloques que muestra la arquitectura de la red de la presente invención incluyendo múltiples unidades de cámara y un controlador externo.
Descripción detallada de las realizaciones preferidas de la presente invención
Haciendo referencia a las Figuras 1 y 2, se muestra un sistema 10 automatizado de confirmación de identidad para monitorizar objetivos 1 y obtener imágenes de caras 2 de objetivos que entran en un área de seguridad 4. Como también se muestra en el diagrama de bloques de arquitectura de la Figura 4, el sistema 10 automatizado de confirmación de identidad comprende una o más unidades de cámara 20 y un controlador externo 50. Las unidades de cámara 20 incluyen una videocámara 21, un sistema de espejo rotatorio 25, una unidad de alcance 30, y un controlador 40 de unidad de cámara.
Se entenderá a través de esta exposición que el área de seguridad 4 es un espacio tridimensional. La dirección vertical se mide desde la parte inferior a la parte superior del área de seguridad de la manera normal, mientras que desde el punto de vista de la unidad de cámara 20, la dirección horizontal se mide de un lado a otro, y la profundidad se mide desde la unidad de cámara 20 hacia fuera, también de la manera normal. Así, para una persona que esté de pie dentro del área de seguridad 4 y de cara a la unidad de cámara 20, la dirección vertical se extiende desde los pies de la persona a la cabeza de la persona, la dirección horizontal se extiende desde el lado izquierdo de la persona al derecho, y la profundidad se extiende desde la parte delantera de la persona hasta la trasera.
Unidad de cámara - Videocámara
La unidad de cámara 20 incluye una videocámara 21 normal del tipo frecuentemente usado en los sistemas de visión de máquina. Aunque existe cierto número de modelos de cámara, fabricados por diferentes compañías, que serían adecuados, en el caso concreto aquí descrito, el solicitante ha usado una videocámara de color fabricada por Sony® modelo EVI-400. Esta cámara tiene capacidad de zoom, control automático de exposición y enfoque automático. La videocámara 21 incluye una salida de vídeo para enviar señales de vídeo al controlador 40 de la unidad de cámara y una interfaz de serie entrada/salida (I/O) para conectar al controlador 40 de la unidad de cámara a fin de controlar y monitorizar las diversas funciones de la cámara tales como el zoom, el enfoque y la exposición. Para prolongar el alcance sobre la cual funciona la videocámara 21, se ha añadido una lente teleconvertidora 23 a fin de permitir la captura de una imagen de una cara humana 2 a una distancia máxima de tal manera que la cara llene la totalidad de la imagen de vídeo. En el presente caso, se ha establecido arbitrariamente el alcance máximo en 15 metros, sin embargo, aumentando la sensibilidad de la unidad de alcance 30 y ampliando la distancia focal de la lente 23, se puede prolongar el alcance máximo. La unidad de cámara 20 incluye un motor 24 de inclinación, y la electrónica de accionamiento del motor, para inclinar la videocámara 21 hacia arriba y hacia abajo a fin de que barra en la dirección vertical. El grado hasta el cual se tiene que inclinar la videocámara 21 en la dirección vertical es pequeño, puesto que sólo es necesario para compensar las diferencias en la altura vertical de la cara de las personas a partir de un punto de referencia común, el cual es normalmente la altura media del ojo humano.
Como se observó anteriormente, la unidad de cámara 20 incluye capacidades de enfoque, inclinación y zoom, que permiten un movimiento rápido de la videocámara 21 para adquirir imágenes faciales de alta calidad del objetivo 1. Estas características son controladas por señales del controlador 40 de la unidad de cámara a través de la interfaz de serie. El enfoque sobre un objetivo particular seleccionado por la unidad de alcance 30 es automático y requiere simplemente que la videocámara 21 apunte a un objetivo. El zoom es controlado hasta un ajuste en que permitirá inicialmente que el campo de visión de la videocámara 21 sea sustancialmente mayor que lo que representaría una cara humana media a la distancia del objetivo. Típicamente, se ajusta el zoom de manera que la cara humana media llene el 20% del campo de visión. Se afina el zoom con señales adicionales del controlador 40 de unidad de cámara en base a los datos de la unidad de alcance 30 y de la videocámara 21. En la presente disposición, la función de inclinación es proporcionada por el motor externo 24 de inclinación montado a la videocámara 21, pero en otras configuraciones puede estar incorporado como parte de la videocámara 21. La cuantía de la inclinación requerida para obtener una alta calidad de imagen facial de un objetivo 1 se basa en los datos de la unidad de alcance 30 y de la videocámara 21 y es controlada por señales del controlador 40 de la unidad de cámara. Los datos de alcance son importantes, puesto que la distancia del objetivo ayuda a determinar la cuantía de inclinación
requerida.
En los casos en los que el campo de visión de la videocámara 21 es rectangular, que tiene una dimensión mayor que la otra, el solicitante ha encontrado ventajoso orientar la videocámara de manera que la mayor dimensión del campo de visión sea paralela a la dirección vertical del área de seguridad 4, aumentando de esta manera la captura de objetivos verticales, tales como personas, dentro del área de seguridad 4. Aumentando el área de captura para objetivos verticales, el solicitante reduce la cuantía de la inclinación de la videocámara requerida para obtener una imagen facial de alta calidad del objetivo.
Unidad de cámara - Sistema de Espejo Rotativo
La unidad de cámara 20 incluye un sistema 25 de espejo situado directamente delante de la videocámara 21, como se muestra en la Figura 1. El sistema 25 de espejo rotativo incluye un espejo 26 de peso liviano montado directamente en un eje 27 de motor vertical de un motor lineal 28. El motor lineal 28 es del tipo de los usados en el disco duro de los ordenadores, e incluye accionadores servo electrónicos suficientes para hacer girar el espejo rotativo 26 rápidamente y con precisión a la posición de que se pretende. También se incluye un sistema de retroalimentación de posición normal, montado directamente en el eje 27, que comprende la circuitería que lee la posición exacta del espejo 26 y da como salida una señal de retroalimentación de posición a los accionadores servo. Haciendo coincidir la señal de retroalimentación de posición con una señal de mando recibida del controlador 40 de la unidad de cámara, que representa la posición que se pretende del espejo 26, el motor 26 puede accionar el espejo 26 para apuntar directamente al emplazamiento que se pretende.
En la disposición de las Figuras 1 y 2, la unidad de alcance 30 determina la distancia (profundidad), la posición angular y anchura del objetivo 1 dentro del área de seguridad 4 y proporciona esas coordenadas al controlador 40 de la unidad de cámara. El controlador 40 de la unidad de cámara envía una señal de mando de espejo al sistema 25 de espejo, para hacer que el motor lineal 28 haga girar el espejo 26 al emplazamiento adecuado, proporcionando de esta manera una característica de giro horizontal para la unidad de cámara 20. La imagen del objetivo 1 incidente en el espejo 26 es dirigida a la videocámara 21 para captura de imagen. Girando rápidamente el espejo 21, se puede hacer girar horizontalmente la videocámara 21 a través de toda la extensión horizontal del área de seguridad 4 en una fracción del tiempo que le costaría a una videocámara normal, con una característica de giro horizontal accionado por motor, cumplir la misma tarea. El tiempo de respuesta es tal que el giro horizontal desde cualquier objetivo dentro del área de seguridad 4 a cualquier otro objetivo dentro del área de seguridad 4 se puede cumplir en menos de 100 milisegundos. Se puede lograr una precisión de giro horizontal dentro de una décima de grado.
El sistema 25 de espejo puede incluir un freno de espejo (no representado), el cual mantiene y enclava el espejo 26 en su sitio una vez se ha adquirido el objetivo 1 deseado. El freno de espejo impide las vibraciones del espejo 26, con lo cual se mejora la estabilidad de la imagen, y por tanto se mejora la calidad de la imagen. En una realización preferida, el freno de espejo es un electroimán situado sobre el eje 27.
Se podría adaptar el sistema 25 de espejo para incluir un segundo grado de libertad de rotación para proporcionar también a la videocámara 21 una característica de inclinación vertical, reemplazando la característica de inclinación proporcionada por el motor 24 de inclinación exterior. En la variante, se proporciona un segundo sistema de espejo rotativo que incluiría un segundo espejo, rotativo sobre un eje colocado a 90 grados con respecto al eje de rotación del espejo 26. En combinación, los dos sistemas de espejos rotativos proporcionarían a la videocámara 21 características tanto de inclinación vertical como de giro horizontal.
Unidad de cámara - Control de Cámara/Sistema de Espejo
Haciendo referencia a la Figura 3, se conecta un control 39 de cámara/sistema de espejo a la videocámara 21 y al sistema 25 de espejo rotativo y comprende componentes de hardware y software para recibir las órdenes de control de la cámara y el sistema de espejo procedentes del controlador 40 de la unidad de cámara y para controlar las diversas funciones de la videocámara 21 y del sistema de espejo 25. Estas funciones incluyen exposición, zoom, enfoque, inclinación, giro horizontal (rotación del espejo), encendido/apagado, velocidad de cuadro de la videocámara, brillo y contraste. El control 39 de la cámara/sistema de espejo es también responsable de leer hacia atrás el estado de las diversas funciones de la videocámara 21 y del sistema 25 de espejo e informar de las mismas al controlador 40 de la unidad de cámara
Unidad de cámara - Unidad de Alcance
Haciendo referencia a las Figuras 1-4, la unidad de cámara 20 incluye una unidad de alcance 30 para localizar los objetivos 1 dentro del área de seguridad 4. En un aspecto de la invención, la unidad 30 de alcance es de un diseño común bien conocido, que usa un dispositivo de medición de la distancia basado en diodo de láser que opera conjuntamente con un espejo de alcance rotativo y un sistema de recepción de lente de alcance para barrer el área de seguridad 4. Se usa un principio de tiempo de vuelo para calcular la distancia al objetivo 1. En la presente configuración, el diodo de láser envía impulso, con un periodo del orden de 10 nanosegundos, una vez cada ¼ grado de rotación del espejo de alcance. El haz de láser es reflejado por el espejo rotativo de alcance en el área de seguridad 4 y se mide cualquier impulso de retorno reflejado por el objetivo 1 por el sistema receptor de la lente de alcance. Conociendo el valor constante de la velocidad de la luz y el intervalo de tiempo entre la emisión del impulso de láser y la reflexión de retorno, se puede calcular la distancia al objetivo 1. La unidad de alcance 30 registra la distancia (profundidad), la posición angular y la anchura del objetivo detectado dentro del área 4 y envía esta información al controlador 40 de la unidad de cámara. Debido a que la unidad de alcance 30 es capaz de registrar los datos de alcance por cada ¼ grado, los datos de alcance pueden proporcionar un perfil de objetivo que se puede analizar para determinar si coincide con el perfil de una persona (relativamente suave). Se puede realizar un barrido completo del área de seguridad 4 durante cada rotación del espejo de alcance, lo cual ocurre cada 100 milisegundos, permitiendo así una detección extremadamente rápida y la localización de los objetivos en la misma. La velocidad de barrido del área 4 se denomina velocidad secuencial de la unidad de alcance y puede ser variada según los requisitos de la instalación o el modo de funcionamiento.
La unidad de alcance 30 está situada generalmente debajo de la videocámara 21 a un nivel igual a la altura media del pecho de una persona. La videocámara 21 está situada generalmente al nivel medio de los ojos de una persona. Sin embargo, son posibles otras disposiciones para la unidad de alcance 30 y la videocámara 21 dependiendo de la instalación concreta.
Se entenderá por el lector, que se podrían usar otras configuraciones para la unidad de alcance 30 en la presente invención. Por ejemplo, se podría emplear un sistema de alcance basado en sonar, o uno basado en radar de alta frecuencia o en paralaje binocular diferencial.
Unidad de cámara - Control de la Unidad de Alcance
La unidad de alcance 30 incluye un control 41 de la unidad de alcance que comprende componentes de hardware y software para gestionar las diversas funciones de la unidad de alcance 30, incluyendo mantener la velocidad de rotación del espejo de alcance dentro de los parámetros previsibles, regular los modos de ahorro de potencia del diodo de láser, incluyendo un modo "dormir" en el cual se reduce la velocidad de impulsos en los tiempos "muertos" cuando no existe actividad en el área de seguridad, aceptar las funciones de control del controlador 40 de la unidad de cámara, y enviar información de estado concerniente a la unidad de alcance 30 al controlador 40 de la unidad de cámara a solicitud. El control 41 de la unidad de alcance preprocesa los datos de alcance realizando diversas funciones que incluyen funciones de filtración de ruidos para eliminar los datos dispersos que comprenden puntos de barrido únicos no relacionados, promediar los movimientos y promediar los barridos sobre líneas múltiples de barrido para suavizar los datos de alcance, cálculos de conjuntos de muestras para determinar si los objetos detectados representan objetivos de interés que tienen la anchura necesaria a una distancia dada, extraer la información de coordenadas procedente de los objetivos de interés en forma de ángulo, radio (distancia) y anchura, y construir un perfil en forma de vector de los datos de alcance de cada objetivo. El hardware 41 de control de la unidad de alcance envía bien los datos de alcance en bruto o bien el perfil preprocesado de datos de alcance en forma de vector al controlador 40 de la unidad de cámara para su posterior procesamiento. Los datos de alcance en forma de vector se envían en el formato n(a1, r1, w1)(a2, r2, w2)..., donde n representa el número de objetivos en el área de seguridad barrida, ax representa el emplazamiento angular del objetivo número x dentro del área de seguridad, rx representa el radio (distancia) al objetivo x, y wx representa la anchura del objetivo x. Los datos de alcance se envían al controlador 40 de la unidad de cámara a solicitud desde el control 41 de la unidad de alcance o de modo continuo a una velocidad de refrescamiento seleccionable (programable).
Unidad de Cámara - Controlador de la Unidad de Cámara
La unidad de cámara 20 incluye también un controlador 40 de la unidad de cámara como se muestra con mayor detalle en el diagrama de bloques de la Figura 3. El controlador 40 de la unidad de cámara incluye todo el hardware y software para proporcionar una interfaz entre de la videocámara 21, la unidad de alcance 30, el sistema 25 de espejo rotativo, y el controlador externo 50. La finalidad del controlador 40 de la unidad de cámara es controlar la detección, rastreo y captura de imágenes de vídeo de alta calidad de caras 2 de objetivos 1 de interés dentro del área de seguridad 4. Esto se logra procesando los datos de entrada de la unidad de alcance 30 y de la videocámara 21 y usando estos datos para calcular las señales adecuadas de orden de apuntamiento para ser devueltas a la videocámara 21 y al sistema 25 de espejo rotativo. Esto se describe con mayor detalle a continuación, cuando se trata de los diversos componentes del controlador 40 de la unidad de cámara. El controlador 40 de la unidad de cámara tiene interfaz también con el controlador externo 50 para recibir las órdenes externas de control y enviar las imágenes de vídeo capturadas. Las órdenes externas de control se usan tanto para configurar los componentes de las unidades de cámara 20 como para modificar su comportamiento, por ejemplo, para centrarse en un objetivo concreto dentro del área de seguridad y rastrearlo.
Unidad de Cámara - Hardware de Control de la Unidad de Cámara
El controlador 40 de la unidad de cámara incluye un hardware que comprende un ordenador con CPU, RAM, y almacenamiento, con conexiones de interfaz para entrada de vídeo, interfaces de serie e I/O de alta velocidad, e interfaz Ethernet. La salida de la videocámara 21 es recibida en la entrada de vídeo. La salida de la videocámara 21 es recibida en la entrada de vídeo. La salida de la unidad de alcance 30 y las señales de control a la misma se reciben en uno de los puertos de serie. Las señales de control de la videocámara 21 y del sistema 25 de espejo rotativo se envían en uno de los otros puertos de serie. La interfaz de red se usa para conectar con el controlador externo 50. También son posibles otras configuraciones de hardware para el controlador 40 de la unidad de cámara, por ejemplo, se podría usar CPU múltiples de baja potencia en vez de una CPU única de alta potencia, la entrada de vídeo de la videocámara 21 podría ser una entrada digital directa o la interfaz al controlador externo 50 podrá ser una de serie de alta velocidad o de red inalámbrica, en vez de Ethernet.
Unidad de Cámara - Software de Control de la Unidad de Cámara
El controlador 40 de la unidad de cámara incluye un software del controlador de la unidad de cámara que incluye un sistema operativo multitarea capaz de red de modem a fin de controlar el funcionamiento y programación de los múltiples componentes independientes del software de intercomunicación. Los componentes del software del controlador de la unidad de cámara incluyen: procesamiento 43 de los datos de la videocámara; procesamiento 44 de los datos de la unidad de alcance; control 45 de cámara/unidad de alcance; detección 46 de caras; rastreo 47 de caras; captura 48 de imágenes faciales; control 49 del sistema del controlador de la unidad de cámara y comunicaciones 60 del controlador de la unidad de cámara.
Las tramas de vídeo que llegan de la videocámara 21 son digitalizadas de manera asíncrona en un panel de hardware de captura de vídeo. Se presenta estos datos al procesamiento 43 de datos de la videocámara, el cual comprende un software para realizar las operaciones básicas de procesamiento de imágenes a fin de normalizar, poner en escala y corregir los datos de entrada. Las correcciones en cuanto a color y geometría de imagen se hacen en base a los datos normales de calibración. Se realiza la mejora de imagen y el filtrado de ruido, y se los datos de la imagen de vídeo procesados se ponen a disposición del control 49 del sistema del controlador de la unidad de cámara, donde se usan para realizar un número de funciones que incluyen la detección de caras, el rastreo de caras, o la captura de imágenes faciales (véase a continuación).
Los datos de alcance llegan al controlador 40 de la unidad de cámara desde la unidad de alcance 30 bien continuamente o bien en respuesta a una solicitud del controlador 40 de la unidad de cámara. Los datos de alcance toman la forma de una tabla de valores de distancia (profundidad o radio), ángulo y anchura. Los datos de alcance son procesados por el procesamiento 44 de datos de la unidad de alcance, el cual comprende un software para determinar la posición y el emplazamiento de los objetivos 1 dentro del área 4 de seguridad. Se usan métodos heurísticos para restar el fondo y eliminar el "ruido" de pequeño diámetro dejando sólo los objetos mayores o de tamaño similar al de los objetivos pretendidos, que son las personas. Estos elementos heurísticos son módulos de software inteligente que usan la probabilidad y el análisis estadístico de los datos para determinar las características de los objetos dentro del área de seguridad. Por ejemplo, si se detectó un objeto en un barrido solo de la unidad de alcance 30 y no en los barridos previos o subsiguientes, se puede suponer con seguridad que ha ocurrido un acontecimiento espurio que puede ser ignorado. Similarmente, se puede establecer límites sobre la velocidad de los objetos que se desplazan en el área de seguridad. Si se mueve un objeto cinco metros entre barridos se puede suponer con seguridad que el objeto no es una persona. Adicionalmente, se usan los datos de calibración tomados cuando el área de seguridad 4 está totalmente vacía para separar los objetivos potenciales de los objetos fijos en el área de seguridad, tales como los postes de soporte y análogos (eliminación del fondo).
Los datos de alcance procesados se ponen a disposición del control 49 del sistema del controlador de la unidad de cámara donde se usan para asistir en la detección de caras y en el rastreo de caras. El procesamiento 44 de los datos de la unidad de alcance mantiene una memoria intermedia de historia de los datos de alcance previos para cada objetivo 1 dentro del área de seguridad 4 durante un intervalo de tiempo predeterminado. La memoria intermedia de historia se usa por la detección 46 de caras y por el rastreo 47 de caras para asistir en la detección de caras y en el rastreo de caras. Por ejemplo, un único objeto grande puede ser una persona grande o pueden ser dos personas que están de pie muy juntas. Si las caras de las dos personas están muy juntas, puede ser difícil distinguir entre las dos situaciones. Sin embargo, usando los datos de la memoria intermedia de historia, es posible determinar que dos personas únicas más pequeñas fueron previamente objetivos separados y se han movido juntándose. Así se pueden aclarar los datos ambiguos recibidos de la unidad de alcance 30 y de la videocámara 26.
El control 45 de cámara/unidad de alcance comprende el software para gestionar todas las señales enviadas a través de los puertos I/O de serie del controlador de la unidad de cámara a la videocámara 21, la unidad de alcance 30 y el sistema 25 de espejo rotativo. Estas órdenes de control van al control 41 de la unidad de alcance y al control 39 de la cámara/ sistema de espejo, y se basan en la entrada recibida del control 49 del sistema de controlador de la unidad de cámara. Se determinan los cambios de posición del objetivo, en base a los cambios en los datos de alcance de la unidad de alcance 30 y en los cambios en la forma geométrica de la imagen de vídeo del objetivo de la videocámara 21 por el control 49 del sistema de controlador de la unidad de cámara. Las órdenes de control para controlar el encendido/apagado de la videocámara; el enfoque de la videocámara; la inclinación de la videocámara; la rotación del espejo (giro horizontal); el zoom de la videocámara; la velocidad de cuadro de la vídeo cámara; el brillo y el contraste de la videocámara; el encendido/apagado de la unidad de alcance; y la velocidad de cuadro de la unidad de alcance son enviados a través del control 45 de la cámara/unidad de alcance para facilitar tanto la detección de caras como el rastreo de caras. La finalidad de las señales de órdenes es asegurarse de que el objetivo ha sido adecuadamente rastreado y que se obtiene una imagen de vídeo de alta calidad de la cara del objetivo para fines de reconocimiento de caras. Adicionalmente, el control 45 de la cámara/unidad de alcance gestiona la sincronización adecuada de las órdenes enviadas, se asegura de la entrega fiable y de la ejecución de esas órdenes, alerta a la control 49 del sistema del controlador de la unidad de cámara de cualquier problema con esas órdenes u otras situaciones problemáticas que pudieran surgir dentro de la videocámara 21, la unidad de alcance 30 o el sistema rotativo 25 de espejo. Por ejemplo, si el sistema rotativo 25 de espejo no está respondiendo a las órdenes de control, se supondrá que el motor 28 está roto o que el espejo 26 está pegado y se enviará una alarma para señalar que se necesita mantenimiento.
La detección 46 de caras comprende un software para detectar las imágenes de caras dentro de la imagen de vídeo que llega de la videocámara 21. Inicialmente, la detección 46 de caras usa la imagen de vídeo de toda la entrada para la finalidad de detección de caras. Se usa cierto número de estrategias algorítmicas de software conocidas diferentes para procesar los datos de entrada y se emplean métodos heurísticos para combinar estos datos de una manera que reduzca al mínimo la ambigüedad inherente al proceso de detección de caras. La ambigüedad puede resultar de factores tales como: variaciones de la imagen debidas a las variaciones en la expresión de la cara (no rigidez) y diferencias de textura entre las imágenes de la cara de las mismas personas; características cosméticas tales como gafas o un bigote; y condiciones impredecibles de imagen en un ambiente no limitado, tal como la iluminación. Debido a que las caras son tridimensionales, cualquier cambio en la distribución de la luz puede dar lugar a cambios de sombras significativos, los cuales se trasladan a una variabilidad aumentada de la imagen facial bidimensional. Los elementos heurísticos empleados por la detección 46 de caras comprenden un conjunto de reglas estructuradas para determinar que algoritmos de software son más fiables en determinadas situaciones. Por ejemplo, en condiciones de iluminación ideales, los algoritmos de color y forma de volumen de cara proporcionarán la precisión deseada a gran velocidad. Los datos de alcance de la unidad de alcance 30 se añaden para estrechar la búsqueda y asistir en determinar las áreas específicas de la imagen de vídeo que contengan más probablemente una cara humana basada en las características de anchura del objetivo y el movimiento histórico de los objetivos dentro del área de seguridad 4.
Los siguientes son algunos de los algoritmos conocidos en este campo, que se usan por el solicitante en la detección de caras:
Estimación del color y de la forma de la mayor parte de la cara;
Detección de rasgos individuales de la cara (en cuanto a ojos, nariz, boca, etc.) usando limitaciones geométricas para eliminar los rasgos improbables;
Análisis artificial de las redes neurales basado en aplicar el algoritmo en un gran conjunto de datos de caras y no de caras; y
Análisis bayesiano usando el Análisis de Componentes de Principios (PCA) o la descomposición de Eigenface de la imagen facial.
La detección 46 de caras de la presente invención lleva a cabo las siguientes etapas adicionales, las cuales utilizan los datos de alcance de la unidad 30 de alcance y según ha encontrado el solicitante aumentan la capacidad de la presente invención para detectar una cara dentro de la imagen de vídeo.
Análisis de los datos de alcance para aislar objetivos del tamaño de las personas. Como se trató anteriormente, esto incluye unos módulos de software inteligente que usan análisis histórico, de probabilidades y estadístico de los datos de alcance para determinar las características de los objetos dentro del área de seguridad y para eliminar el ruido resultante de los objetos pequeños o que se mueven rápidamente que probablemente no son personas. Se puede usar los datos de alcance de la unidad de alcance 30 para determinar los objetivos de una anchura apropiada (30 cm a 100 cm) y de una forma (superficie frontal lisa). Conocer exactamente donde está situado el objetivo de tamaño de persona dentro de la imagen de vídeo proporciona un punto de partida para comenzar la detección de caras.
Análisis de los datos históricos de alcance para determinar la presencia de grupos de gente. Esto se hace aislando los objetivos del tamaño de las personas en cada trama de vídeo usando la técnica anteriormente descrita basada en un análisis de los datos de alcance. Se usa un software de estimación de movimiento, tal como el filtrado de Kalman, para estimar la trayectoria de los objetivos de este tipo e identificar los objetivos ambiguos como aquellos que se ajustan pobremente a la estimación de trayectoria de Kalman. Finalmente, se clasifican los objetivos ambiguos y se usa la clasificación para asistir en la detección de caras. Por ejemplo, será posible determinar si una ambigüedad concreta es el resultado de dos o más personas que están muy juntas.
En una realización preferida de la invención, la detección 46 de caras identifica una imagen como correspondiente a una cara basada en el color, la forma y la estructura. Se localizan las regiones elípticas en base a algoritmos de crecimiento de región aplicados con una resolución basta de la imagen segmentada. Se refuerza un algoritmo de color por una técnica de evaluación de forma de cara, Se etiqueta la región de la imagen como "cara" o "no cara" después de hacer coincidir los límites de la región con una forma elíptica (que imita la forma de la cabeza), con una relación fija de aspecto de altura a anchura (habitualmente 1,2).
En una realización preferida adicional de la invención, se puede usar un método de detección de los ojos que usa iluminación por rayos infrarrojos (IR) para situar los ojos en una cara humana normal y así asistir en la detección 46 de caras. En este método se ilumina el objetivo con ráfagas de rayos infrarrojos de un estrobo de IR, que se origina coaxialmente o casi coaxialmente del eje óptico de la videocámara 21. Los IR aumentan el brillo de la pupila del ojo humano en la imagen de vídeo. Situando estas áreas de brillo aumentado, la detección 46 de caras es capaz de identificar rápidamente y de situar una cara potencial dentro de la imagen de vídeo. Si el estrobo de IR es disparado sólo durante unas tramas de vídeo identificadas específicas, se puede usar una técnica de resta de tramas para identificar más fácilmente las áreas de brillo aumentado, que corresponden posiblemente al emplazamiento de los ojos humanos. Identificar con precisión el emplazamiento de los ojos tiene una ventaja adicional, en cuanto a que una información de este tipo puede mejorar en gran medida la precisión del software de reconocimiento
facial.
La detección facial es intrínsecamente una tarea informáticamente intensiva. Con las velocidades de los procesadores actuales, es imposible realizar una detección de toda la cara en cada trama nueva de imágenes de vídeo 21. Por tanto, sólo se activa el proceso de detección de caras por el control 49 del sistema del controlador de la unidad de cámara cuando se requiere, es decir, cuando no se ha detectado ninguna cara dentro de la imagen que llega. Una vez se ha detectado una cara, se desconecta la detección de caras y es sustituida por el rastreo 47 de caras. La calidad del rastreo 47 de caras se caracteriza por un parámetro de confianza del rastreo. Cuando el parámetro de confianza del rastreo alcanza un umbral predeterminado de captura de imágenes faciales, las imágenes faciales son adquiridas por el módulo 48 de captura de imágenes faciales. Una vez se ha adquirido un número suficiente de imágenes faciales de alta calidad, se abandona el objetivo y se reanuda la detección de caras en otros
objetivos.
Una vez se ha detectado una cara dentro de la imagen de vídeo, se activa el rastreo 47 de caras, que comprende el software de rastreo de caras y procesa los datos introducidos del procesamiento 43 de los datos de la videocámara y del procesamiento 44 de los datos de la unidad de alcance con la finalidad de determinar la velocidad y la dirección del movimiento de la cara detectada, tanto en las direcciones vertical como horizontal y en profundidad. El rastreo 47 de caras se inicializa con la posición y la puesta en escala de la cara de objetivo detectada y usa una región de interés (ROI) limitada a la encuadre alrededor de la cara de objetivo detectada. Se informa de cualquier movimiento al control 49 del sistema controlador de la unidad de cámara, donde se usa para dirigir el giro horizontal del sistema 25 de espejo rotativo y las funciones de zoom, enfoque e inclinación de la videocámara 21, de manera que se rastrea la cara de objetivo y se mantiene dentro del campo de visión. La cara de objetivo es rastreada hasta que baja la confianza de rastreo por debajo de un umbral establecido. En este caso se considera perdido el objetivo, y el sistema retrocede conmutando al modo de detección. El control 49 del sistema controlador de la unidad de cámara determinará cuando activar la captura 48 de imágenes faciales.
El rastreo 47 de imágenes faciales usa cierto número de estrategias algorítmicas conocidas de software para procesar los datos de entrada de vídeo y de alcance y se emplean métodos heurísticos para combinar los resultados. Los métodos heurísticos empleados comprenden un conjunto de reglas estructuradas para determinar que software y algoritmos son loa más fiables en algunas situaciones. Los siguientes son algunos algoritmos de software, conocidos en el campo, que se usan por el solicitante en el rastreo de caras:
Diferenciación trama a trama para detectar el movimiento;
Técnicas de flujo óptico en la corriente de vídeo;
Color y estimación de forma de la mayor parte de la cara;
Análisis de filtro de Kalman para filtrar el movimiento presente y predecir el movimiento futuro a partir de la estimación del movimiento pasado; y
Análisis de red neural artificial basado en aplicar el algoritmo en un gran conjunto de secuencias de vídeo.
Se realiza la etapa adicional siguiente por el rastreo 47 de caras de la presente invención, el cual utiliza los datos de alcance de la unidad 30 de alcance y se ha encontrado por el solicitante que aumenta la capacidad de la presente invención para rastrear una cara:
Análisis de los datos de alcance y de la historia de los datos de alcance. Como se detalló anteriormente, se puede usar una memoria intermedia de los datos previos de alcance para cada objetivo a fin de determinar si un objeto grande es una persona grande, o dos personas que están de pie muy juntas, o posiblemente no es una persona en absoluto.
En una realización preferida de la invención, se ajusta una línea marco elíptica al contorno de la cara detectada. Cada vez que se hace disponible una nueva imagen, el rastreo 47 de caras ajusta la elipse de la imagen previa de tal manera que se aproxime del mejor modo a la posición de la cara en la nueva imagen. Se devuelve un valor de confianza que refleja el ajuste del modelo. Se analiza secuencialmente las posiciones de la cara usando un filtro de Kalman para determinar la trayectoria de movimiento de la cara dentro de un rango de error determinado. Esta trayectoria de movimiento es utilizada para facilitar el rastreo de la cara.
Muchos de los algoritmos de rastreo de caras se apoyan en parte en el color y en la textura del color para realizar el rastreo de caras. Debido a los cambios en la iluminación tanto del fondo como del campo delantero, el color de la imagen es frecuentemente inestable, lo cual conduce a errores de rastreo y a "objetivos perdidos". Para compensar los cambios en las condiciones de iluminación, se adopta un enfoque estadístico en el cual se estiman las distribuciones de color en toda el área de la imagen a lo largo del tiempo. De este modo, suponiendo que las condiciones de iluminación cambian suavemente a lo largo del tiempo, se puede adaptar un modelo dinámico para reflejar la apariencia cambiante del objetivo que se rastrea. Conforme llega cada imagen de la videocámara 21, se muestrea un nuevo conjunto de pixeles de la región de la cara y se usa para actualizar el modelo de color. Durante el rastreo con éxito, se adapta dinámicamente el modelo de color sólo si la confianza del rastreador es mayor que un cierto umbral de rastreo predeterminado. Se suspende la adaptación dinámica en el caso de fallos del rastreo, y se reinicia cuando se recupera el objetivo.
El rastreo 47 de caras es activado por el control 49 del sistema controlador de la unidad de cámara sólo cuando la detección 46 de caras ha detectado una cara dentro de una imagen de vídeo, y los parámetros operativos del sistema piden que la cara sea rastreada. Estos parámetros operativos dependerán de los requisitos de la instalación individual. Por ejemplo, en algunas situaciones, se puede capturar unas pocas imágenes buenas de cada objetivo que entra en el área de seguridad. En otras situaciones, se puede identificar determinados objetivos y rastrearlos más cuidadosamente para obtener imágenes de superior calidad con la finalidad de reconocer las caras o almacenarlas para archivo.
La captura 48 de imágenes faciales comprende el software de captura, el cual analiza los datos recibidos de la videocámara 21 y de la unidad de alcance 30 para determinar con precisión cuando capturar una imagen facial de forma que se obtenga imágenes faciales de alta calidad, bien iluminadas, frontales, del objetivo. La captura 48 de imágenes faciales usa métodos heurísticos para determinar la pose de la cara y la mejor iluminación. La pose correcta se determina identificando los rasgos principales de la cara tales como ojos, nariz, y boca y asegurándose de que están en la posición correcta. Se determina la calidad de iluminación por un análisis general del color de la cara.
En una realización preferida, la videocámara 21 está dotada de un sistema de exposición programable de medición por puntos que se puede ajustar en tamaño y emplazamiento en la imagen de vídeo. Una vez se ha localizado una cara, se ajusta el sistema de medición de puntos respecto al tamaño de la imagen facial y se centra en la imagen facial. El resultado es una imagen facial capturada que se encuentra expuesta correctamente y es más adecuada para el análisis de imagen y de reconocimiento y comparación de caras.
La captura 48 de imágenes faciales es activada por el control 49 del sistema controlador de la unidad de cámara cuando se ha detectado una cara por la detección 46 de caras, y los parámetros operativos del sistema piden que se capture una imagen facial. Los parámetros que afectan a la captura de imágenes incluyen: el número de imágenes requeridas, el umbral de calidad requerido de esas imágenes, y el espaciamiento temporal entre imágenes requerido. La calidad de la imagen se basa en la pose y la iluminación y se compara con un umbral preestablecido. El espaciamiento en el tiempo se refiere a la rapidez de la captura de imágenes. Capturar múltiples imágenes sobre un periodo corto no proporciona más información que capturar una imagen sobre el mismo periodo de tiempo. Se requiere un espaciamiento mínimo en el tiempo para asegurarse de que se capturan imágenes suficientemente diferentes para garantizar que se obtiene una buena pose. Una vez se ha obtenido una imagen de alta calidad, se envía al controlador externo 50.
Las características de la imagen final capturada se determinan en gran parte por los algoritmos concretos del software de reconocimiento de cara que se usan. Una de las principales ventajas de la presente invención es la capacidad para ajustar los parámetros operativos del sistema a fin de proporcionar imágenes faciales de alta calidad, consistentes, de manera que se logra un reconocimiento de cara preciso y consistente. Por ejemplo, se sabe que determinado software de reconocimiento de cara requiere una pose frontal, una resolución de pixeles mínima entre los ojos, y una calidad concreta de iluminación. Se puede programar la presente invención para capturar sólo imágenes que satisfagan estos criterios, y para rastrear una cara dada hasta que se obtengan imágenes de este tipo, asegurando de esta forma unas prestaciones de alta calidad consistentes del sistema de reconocimiento de cara.
El controlador 40 de la unidad de cámara incluye un sistema 60 de comunicaciones del controlador de la unidad de cámara que tiene una interfaz por medio de una conexión de red para conectar el controlador 40 de la unidad de cámara al controlador externo 50 a fin de recibir las instrucciones de configuración y funcionamiento o de enviar las imágenes de vídeo o los datos solicitados por el controlador externo 50.
El sistema 60 de comunicaciones del controlador de la unidad de cámara acepta los siguientes tipos de instrucciones de configuración y funcionamiento:
Configuración de parámetros para la detección de caras, rastreo de caras y captura de imágenes faciales, tales como, durante cuanto tiempo seguir a cada objetivo, el número de imágenes a capturar, la calidad y la resolución de las imágenes requeridas, el espaciamiento de las imágenes en el tiempo, y cuantos objetivos seguir;
Instrucciones de calibración para determinar la corrección necesaria de imágenes en función de las condiciones de iluminación dentro del área de seguridad;
Instrucciones para capturar los datos de calibración para la unidad de alcance 30.
Instrucciones de configuración que dan la colocación en el espacio de la cámara 21 y de la unidad de alcance 30;
Instrucciones de funcionamiento para conmutación encendido/apagado, pasar al modo "dormir" o entrar en diversos modos de rastreo operativo. Los modos "dormir" para los diversos componentes pueden ser útiles para prolongar la vida de los componentes y ahorrar energía. Por ejemplo, se puede instruir a la unidad 30 de alcance para reducir su velocidad de emisión de impulsos láser a un barrido del área por segundo una vez cese la actividad en el área de seguridad durante un cierto periodo de tiempo. Tan pronto se detecta un objetivo, la unidad de alcance 30 se "despertará" y comenzará el barrido normal. Esto puede prolongar significativamente la vida del diodo de láser.
Son posibles diversas configuraciones del sistema 60 de comunicación del controlador de la unidad de cámara. Las unidades de cámara 20 podrían intercomunicar entre sí; las unidades de cámara 20 podrían aceptar órdenes de ordenadores distintos al controlador externo 50 y enviar datos a los mismos. Adicionalmente, se podría usar diferentes infraestructuras de comunicaciones, tales como redes de punto a punto, I/O de serie de alta velocidad, redes en anillo con pase de testigo, o redes inalámbricas, o cualquier otro sistema adecuado de comunicación.
El control 49 del sistema del controlador de la unidad de cámara comprende un software que supervisa todas las funciones dentro del controlador 40 de la unidad de cámara. Todos los datos adquiridos por el procesamiento 43 de datos de videocámara, el procesamiento 44 de datos de la unidad de alcance y el sistema 60 de comunicaciones del controlador de la unidad de cámara se ponen a disposición del control 49 del sistema del controlador de la unidad de cámara, el cual determina cual de los módulos de detección 46 de caras, rastreo 47 de caras, captura 48 de imágenes activar. Estas decisiones se basan en los requisitos concretos del sistema, tales como, por ejemplo, el número de imágenes requerido, el umbral de calidad de imágenes y el espaciamiento de las imágenes en el tiempo. También se toma en consideración el modo particular de funcionamiento. Por ejemplo, en un modo de funcionamiento, sólo se sigue el objetivo más cercano. En otro modo de funcionamiento, se puede seguir los tres objetivos más cercanos durante tres segundos, sucesivamente. Los modos de funcionamiento son completamente programables y dependen de la aplicación concreta.
El control 49 del sistema del controlador de la unidad de cámara determina también que órdenes enviar a la videocámara 21, al sistema 25 de espejo rotativo, y a la unidad 30 de alcance para controlar sus diversas funciones. Adicionalmente, cualesquiera modos excepcionales de funcionamiento, tales como los que responden a errores del sistema, son coordinados por el control 49 del sistema del controlador de la unidad de cámara.
El control 49 del sistema del controlador de la unidad de cámara combina la información de la detección 46 de caras (que indica que el área de imagen es probablemente una cara), con la información de rastreo del rastreo 47 de caras (que indica que el área de imagen pertenece a un objetivo que se mueve como una persona), y con los datos de alcance del procesamiento 44 de la unidad de alcance (que indica que el área de imagen tiene la forma de una única persona) para seleccionar que pixeles en la imagen de vídeo tienen probabilidad de estar ocupados por caras. Para hacer esto, los datos de alcance deben ser registrados estrechamente en el tiempo y en el espacio con los datos de vídeo. La precisión en el rastreo de caras aumenta usando un análisis probabilístico que combina mediciones múltiples de la información de detección de caras, información de rastreo de caras y datos de alcance a lo largo del tiempo.
El control 49 del sistema del controlador de la unidad de cámara usó una combinación de datos de alcance y de imagen para construir un archivo de historia de movimiento, guardando las trayectorias de los objetivos individuales dentro del área de seguridad 4. Esto permite el rastreo de los objetivos de caras individuales y la captura de un número predeterminado de imágenes faciales por persona.
Controlador Externo
La Figura 4 es un diagrama de bloques que muestra la arquitectura de la red de la presente invención. Se muestra múltiples unidades de cámara 20 conectadas al controlador externo 50. También se muestran las aplicaciones 70 de base de datos / búsqueda y las aplicaciones externas 80 conectadas a través de una interfaz de red. La Figura 4 muestra el flujo de comunicaciones y de datos entre los diversos componentes de la invención. Se apreciará que la invención no requiere que exista una única conexión de red entre todos los componentes. Realmente, muchas aplicaciones de seguridad requieren el uso de redes separadas para cada aplicación. El uso de múltiples unidades de cámara 20 permitirá la cooperación entre las unidades de cámara para cumplir tareas tales como seguir a un objetivo desde un área de seguridad a otra, o cubrir una gran área de seguridad con muchos objetivos potenciales.
El controlador externo 50 comprende un ordenador con conectividad de red a una interfaz con las unidades de cámara 20, las bases de datos / aplicaciones de búsqueda 70 y las aplicaciones externas 80, las cuales pueden proporcionar búsqueda de imágenes de caras almacenadas y fuentes adicionales entrada de datos al sistema. Por ejemplo, una aplicación externa de control de pasaportes puede proporcionar imágenes de la fotografía de la página de datos al controlador externo 50, las cuales pueden ser combinadas y comparadas con las imágenes capturadas de las unidades 20 de cámara para realizar un reconocimiento automático de cara a fin de verificar que la imagen de la cara del pasaporte corresponde a la imagen de la cara de la persona que presenta el pasaporte.
El controlador externo 50 incluye un software que comprende un sistema operativo de tareas múltiples de red de modem que es capaz de controlar el funcionamiento de múltiples componentes de software de intercomunicación independientes, que incluyen: la interfaz 51 de la unidad de cámara; el control 52 del sistema externo; la interfaz 53 de búsqueda, la interfaz 54 de aplicación de configuración de cámara; y la interfaz 55 de aplicaciones externas. Todas las comunicaciones de red están hechas seguras usando encriptación avanzada de red de modem y tecnologías de autenticación para proporcionar intercomunicaciones seguras y fiables entre los componentes.
La interfaz 51 de la unidad de cámara incluye un software que controla las comunicaciones con los controladores 40 de la unidad de cámara. Se aceptan órdenes del control 52 del sistema externo y se envían a las unidades 20 de cámara. La interfaz 51 de la unidad de cámara asegura una entrega fiable y una sincronización adecuada de todas las comunicaciones de este tipo. Las imágenes de caras que llegan de las unidades de cámara 20 son almacenadas y secuenciadas para ser procesadas posteriormente por otros módulos de software dentro de los controladores externos 50.
El control 52 del sistema externo incluye un software que supervisa todas las funciones del controlador externo 50. Todos los datos adquiridos por la interfaz 51 de la unidad de cámara, la interfaz 53 de búsqueda, la interfaz 54 de aplicación de configuración de cámara, y la interfaz 55 de aplicaciones externas se ponen a disposición del control 52 del sistema externo. Todas las actividades que requieran la coordinación de las unidades de cámara 20 son controladas por el control 52 del sistema externo. Adicionalmente, todos los modos de operación excepcionales, tales como los que responden a errores del sistema, son coordinados por el control 52 del sistema externo.
La interfaz 53 de búsqueda incluye un software que proporciona una interfaz entre el controlador externo 50 y las aplicaciones 70 de base de datos / búsqueda, como se describirá a continuación, asegurando una entrega fiable y una sincronización adecuada de todas las comunicaciones de entre los mismos.
La interfaz 54 de aplicación de configuración de cámara incluye un software que acepta la entrada de datos de una aplicación de configuración de cámara. Se puede disponer una aplicación de configuración de cámara en el controlador externo 50 ó en otro ordenador situado externamente y conectado a través de una red. Los datos de configuración de cámara se usan para enviar las órdenes a las unidades de cámara 20 para controlar las diversas funciones operativas y de configuración, tales como la exposición, el modo de color, el sistema de vídeo, etc., para instruir a las unidades de cámara 20 a fin de tomar datos de calibración, o para cambiar al modo operativo y comenzar a seguir un objetivo específico.
La interfaz 55 de aplicaciones externas incluye un software que proporciona una interfaz entre el controlador externo 50 y las aplicaciones externas 80, como se describirá a continuación, asegurando una entrega fiable y una sincronización adecuada de todas las comunicaciones de entre los mismos.
Aplicaciones de Base de Datos / Búsqueda
Las aplicaciones 70 de base de datos / búsqueda son un término general usado para describir todas las diversas funciones de búsqueda que pueden interactuar con la presente invención. Estas aplicaciones aceptan datos del controlador externo 50, y posiblemente de otras fuentes de datos, tales como las aplicaciones de control de pasaportes, para realizar búsquedas, y devolver una lista de candidatos de posibles coincidencias con los datos introducidos.
Los ejemplo de aplicaciones de base de datos/búsqueda incluyen los siguientes, pero sin limitarse a ellos:
Verificación de caras: se compara una imagen de cara recibida de la unidad de cámara 20 con una imagen de cara tomada de un documento de identificación presentado, tal como un pasaporte u otro documento de identificación con foto. El software de reconocimiento de cara y de comparación se ocupa de determinar si existe coincidencia o no y se devuelven los resultados como informe.
Identificación de cara: se comparan las imágenes de caras recibidas de las unidades de cámara 20 con una alerta o lista de "busca y captura" que contiene proscritos. Se devuelve como informe una lista de candidatos con cero o más posibles coincidencias.
Búsqueda en base de datos: los datos de identificación de un documento de identificación tales como un nombre, número de identificación, sexo, edad, y nacionalidad se comparan con una lista de alerta. Se devuelve como informe una lista de candidatos con cero o más posibles coincidencias respecto a la lista de alerta.
Aplicaciones externas
Las aplicaciones externas 80 son un término general usado para describir otros posibles sistemas de identificación que son monitorizar los mismos objetivos o áreas de seguridad como aquí se describe para la presente invención. Se pueden introducir los datos de las aplicaciones externas al presente sistema para mejorar su funcionalidad. Se apreciará que los detalles de la interacción entre la presente invención y las aplicaciones externas 80 dependerán de la naturaleza especifica de las aplicaciones externas.
Un ejemplo de una aplicación externa es un sistema de control de pasaportes. Los viajeros presentan documentos de identificación que contienen datos de identificación e imágenes faciales a los funcionarios de control de pasaportes. Los datos de identificación y las imágenes faciales procedentes de los documentos de identificación se introducen a través del controlador externo 50 para proporcionar una funcionalidad mejorada, especialmente en las aplicaciones de base de datos / búsqueda. Por ejemplo, se puede comparar una imagen del viajero obtenida de los documentos de identificación con imágenes del viajero capturadas por la unidad de cámara 20 para asegurarse de una coincidencia (verificación). En otro ejemplo, se puede usar los datos de identificación del documento de identificación tales como sexo, edad, y nacionalidad para filtrar la lista de candidatos de las imágenes faciales devueltas por una búsqueda de reconocimiento de cara de la imagen facial capturada por la unidad de cámara 20 contra una base de datos de alerta.
Adicionalmente, el controlador externo 50 puede enviar información obtenida de las unidades de cámara 20 a aplicaciones externas 80 para permitir una funcionalidad mejorada dentro de estas aplicaciones. Por ejemplo, las imágenes faciales capturadas desde las unidades de cámara 20 pueden ser enviadas a una aplicación de control de pasaportes para proporcionar al funcionario de control de pasaportes una comparación lado a lado de la imagen facial del documento de identificación del viajero. En otro ejemplo, se puede usar las imágenes faciales de la unidad de cámara 20 para permitir que las aplicaciones de búsqueda en base de datos empiecen el proceso previamente a la presentación de los documentos de identificación a un funcionario de control de pasaportes.
Colocación y Calibración
Haciendo referencia a la Figura 2, en una instalación típica, la unidad de alcance 30 se coloca para barrer el área de seguridad 4 horizontalmente aproximadamente a la altura del pecho de la persona media. La videocámara 21 y el sistema 25 de espejo rotativo están colocados aproximadamente al nivel de los ojos para la persona media de manera que el campo de visión de la videocámara 21 cubre el área de seguridad 4. Las posiciones exactas de la unidad de alcance 30, la videocámara 21, y el espejo rotativo 25 son medidas con precisión y se introducen sus posiciones dentro del área de seguridad 4 al controlador 40 de la unidad de cámara como datos de calibración. Opcionalmente, como se muestra en la Figura 4, se puede usar muchas unidades de cámara 20 para cubrir una gran área de seguridad, o se pueden monitorizar múltiples áreas relacionadas. Dependiendo de la naturaleza de la instalación y de los requisitos de la aplicación, pueden ser necesarios ajustes en el modo de funcionamiento y en los protocolos de intercomunicación entre los diversos componentes del sistema.
La unidad de alcance 30 es calibrada obteniendo y almacenando los datos de alcance del área de seguridad 4 que no contienen objetivos transitorios. Más adelante, se compara los datos de alcance obtenidos durante el funcionamiento con los datos de calibración para diferenciar los objetos estáticos de los objetivos transitorios de interés. La videocámara 21 proporciona imágenes de muestras de objetivos conocidos bajo las condiciones de iluminación existentes. Estas imágenes permiten la calibración de la detección 46 de caras y del rastreo 47 de caras.
Funcionamiento
Durante el funcionamiento, la unidad de alcance 30 barre continuamente el área de seguridad 4 monitorizada para detectar la presencia de objetivos. Los datos de alcance, que comprenden la posición angular, la distancia y la anchura de todos los objetivos potenciales, son transmitidos al controlador 40 de la unidad de cámara. El controlador 40 de la unidad de cámara procesa los datos de alcance e identifica los objetivos con mayor probabilidad de ser personas en base al emplazamiento de los objetivos (el más próximo primero), al tamaño (tamaño de persona) y a la historia de movimiento. Una vez es identificado un objetivo para una inspección más próxima, se envían órdenes por la unidad 40 controladora de cámara a la videocámara 21 y al sistema 25 de espejo haciendo que éstos ejecuten las funciones de giro horizontal y zoom de manera que se obtenga una vista más detallada del objetivo. Estas órdenes hacen que el espejo 26 gire de forma que el objetivo es llevado al campo de visión de la videocámara 21 y el zoom de la videocámara 21 es activado de acuerdo con la distancia medida de manera que la cara humana media llenará el 20% del campo de visión. Entra en servicio la detección 46 de caras y usa los datos obtenidos de la imagen de vídeo combinados con los datos de alcance para ejecutar los algoritmos de detección de caras a fin de determinar si la imagen de la videocámara 21 contiene una cara humana. Si se detecta una cara humana, es extraen las características de la cara y se calcula las coordenadas espaciales del centro de la cara. Se devuelve esta información de emplazamiento al control 49 del sistema controlador de la unidad de cámara habilitándolo para enviar órdenes refinadas de giro horizontal (rotación del espejo), inclinación y zoom a la videocámara 21 y al sistema 25 de espejo para hacer que la cara detectada llene en su totalidad la imagen de vídeo.
Normalmente, en este punto, el controlador 40 de la unidad de cámara iniciará un modo de rastreo de caras, para seguir la persona de interés usando los datos de alcance y de vídeo para calcular las órdenes aproximadas de giro horizontal (rotación del espejo), inclinación y zoom que es preciso emitir para mantener la videocámara 21 apuntada con precisión a la cara del objetivo y para conservar el tamaño de cara deseado. Durante el rastreo del objetivo se usan métodos heurísticos para determinar los momentos apropiados en los que capturar imágenes de la cara del objetivo de alta calidad, en pose frontal. También se considera el umbral preestablecido de calidad de imagen, el número de imágenes requerido y el espaciamiento en el tiempo entre imágenes. Una vez obtenidas, las imágenes son enviadas al controlador externo 50 mediante una conexión de red. En este punto, el controlador 40 de la unidad de cámara, bien continuará siguiendo al objetivo, o bien cambiará su atención a rastrear otro objetivo de interés que pudiera haber entrado dentro del área de seguridad 4, como se determine por la lógica específica de flujo de trabajo de la aplicación.
El controlador externo 50 recibe las imágenes de vídeo de caras capturadas y la información sobre el movimiento del objetivo de la unidad de cámara 20. También recibe información de las aplicaciones externas 80, tales como el software de control de pasaportes que pueden estar monitorizando las mismas personas objetivo. Como se observó antes brevemente, un ejemplo de información externa es una imagen de foto capturada de un documento de identificación presentado por una persona objetivo. El controlador externo 50 tiene interfaz con el reconocimiento de caras y con otro software de base de datos y búsqueda para realizar la verificación y la identificación de las personas objetivo.
Adicionalmente, el controlador externo 50 puede coordinar el funcionamiento entre múltiples unidades de cámara 20 para habilitar las siguientes funciones:
1)
Rastreo de una sola persona de interés conforme pasa de un área monitorizada a otra.
2)
Coordinación de múltiples unidades de cámara 20 que monitorizan una única sala. En esta situación, se identifican los objetivos de interés y se permite a las diversas unidades de cámara 20 proceder al rastreo de caras y a la captura de imágenes faciales.
Otras Aplicaciones
Además de las aplicaciones anteriormente descritas, otras aplicaciones de la presente invención incluyen las siguientes, pero no se limitan a ellas:
1.
Capturar la imagen facial de una persona que recibe un documento de identificación tal como un pasaporte o visado y guardar esa imagen en una base de datos para su uso en un momento posterior cuando se requiera una confirmación de identidad asistida por máquina para verificar la identidad de la persona que presenta el documento de identidad.
2.
Realizar una "verificación de busca y captura" de cualquier persona que solicite un documento oficial de identidad capturando imágenes faciales de la persona y enviando esas imágenes a una aplicación de búsqueda en base de datos para el reconocimiento de cara, identificación y comparación con una base de datos de proscritos.
3.
Capturar las imágenes faciales de la persona que recoge un documento de identidad y comparación con la imagen facial de la persona en el documento de identidad, para verificar que se emite el documento a su legítimo titular.
4.
Capturar y almacenar en una base de datos la imagen facial de una persona cuando esa persona recibe la aprobación para viajar o entrar en un país. La captura de esas imágenes faciales puede basarse en un perfil de riesgo o no. Luego se usa la base de datos para comparar con las imágenes faciales registradas de personas detenidas no cooperativas, o de personas no autorizadas que entran en determinadas áreas de seguridad, para determinar si la persona ha sido vista anteriormente y en tal caso, que documentos de identidad presentó en ese momento.
5.
Capturar y almacenar en una base de datos las imágenes faciales de las personas que se registran para un viaje aéreo a fin de crear una base de datos de "Información Adelantada de Pasajeros" ("API"). Los registros API se envían a las autoridades del destino de llegada donde se usan para realizar verificaciones adelantadas de busca y captura antes de que llegue el vuelo para identificar cualesquiera personas que deban ser sometidas a una inspección detallada a la llegada.
6.
Usar los datos API reunidos en el ejemplo anterior para dar apoyo a la inspección automatizada de los pasajeros en el destino de llegada. Se capturan las imágenes faciales de los pasajeros que llegan y son comparadas con los datos API para asegurarse de que las personas que llegan son las mismas personas que se embarcaron en el avión. Esto permite un proceso rápido de clasificación en el que los pasajeros pueden literalmente atravesar marchando un área de seguridad y aquellos que deben ser sometidos a una inspección detallada pueden ser fácilmente identificados y seleccionados.
7.
Capturar imágenes faciales de las personas que toman cualquier medio de transporte público, tales como aviones, trenes o autobuses, o cuando intentan entrar en cualquier área de seguridad incluyendo puertos de entrada en países o estadios deportivos, y enviar esas imágenes a una aplicación de búsqueda en base de datos para el reconocimiento facial, identificación y comparación con una base de datos de proscritos, para impedir a tales proscritos el uso del medio de transporte público o la entrada en el área de seguridad.
8.
Capturar imágenes faciales de las personas que se registran para un medio público de transporte y comparar esas imágenes con una imagen facial contenida en un documento de identidad presentado al hacer el registro, para verificar que la persona correcta está presentando el documento de identidad.
9.
Capturar las imágenes faciales de las personas al aproximarse al área de inspección del puerto de entrada de un país y enviar esas imágenes a una aplicación de búsqueda en base de datos para la identificación facial y comparación con una base de datos de proscritos, para asistir a la autoridad de inspección en determinar si se debe permitir entrar a la persona que se aproxima.
10.
Capturar las imágenes faciales de las personas que están siendo atendidas en las máquina de inspección de autoservicio a su llegada a un puerto de entrada de un país y enviar esas imágenes a una aplicación de búsqueda en base de datos para la identificación facial y comparación con una base de datos de proscritos, a fin de impedir la entrada de tales personas en el país.
11.
Capturar las imágenes faciales de todos los pasajeros que llegan a las puertas de llegada y almacenar esas imágenes en una base de datos de llegadas junto con los detalles del vuelo de llegada. Se usa la base de datos de llegadas para comparar con las imágenes faciales obtenidas de las personas que aparecen en los mostradores de inspección sin identificación adecuada y que se niegan a proporcionar los detalles del vuelo de llegada. Esto permite a las autoridades de control de fronteras identificar la línea aérea y el origen de la persona de forma que se puede multar a la línea aérea y obligarla a transportar la persona detenida de vuelta al punto de origen.
12.
Realizar una "verificación de busca y captura" en cualquier persona que entra en un área de seguridad capturando imágenes faciales de la persona y enviando esas imágenes a una aplicación de búsqueda en base de datos para la identificación de la cara y su comparación con una base de datos de proscritos y alertar a la seguridad.
13.
Mejorar los procedimientos de facturación de las líneas aéreas capturando las imágenes faciales de los pasajeros conformen se aproximan a las diferentes áreas de seguridad y comparar esas imágenes con las imágenes faciales de los pasajeros registrados. Por ejemplo, la imagen facial del viajero puede haber sido obtenida en el registro inicial, o en la facturación, y usada para verificar la identidad de la persona que entra en otras áreas de seguridad dentro del aeropuerto y y eventualmente que embarca en el avión. Esto puede aumentar en gran medida la velocidad de la facturación y del embarque.
14.
Se puede comparar las imágenes faciales de las personas que embarcan en un avión con las imágenes faciales de las personas en la facturación para verificar que la persona que facturó es la misma persona que se embarcó en el avión y para hacer coincidir esa persona con el equipaje cargado en el avión.
15.
Se puede usar las imágenes faciales tomadas continuamente por múltiples unidades de cámara 20 situadas en muchas áreas de seguridad a través de un emplazamiento dado, tal como un aeropuerto, para localizar a cualquier persona en cualquier momento dado. De esta manera, un pasajero que falla en presentarse para un vuelo puede ser localizado y dirigido al área de embarque apropiada. Se pueden reducir los retrasos de los vuelos que han sido necesarios para localizar los pasajeros extraviados. Los sistemas de vigilancia de este tipo pueden ser también valiosos en un entorno carcelario para localizar a los internos.
16.
En situaciones que implican transacciones financieras, tales como los cajeros bancarios automáticos (ATM), se pueden usar las imágenes faciales capturadas para compararlas con los datos de la tarjeta de ATM para verificar que la persona que está usando la tarjeta es la correcta.
17.
Capturar las imágenes faciales de todas las personas que entran en un área de seguridad para comparar con una aplicación de base de datos / búsqueda, a fin de asegurarse de que la persona está en una lista previamente aprobada de personas a las que se permite entrar.
Lo anterior es una descripción detallada de las realizaciones particulares preferidas de la invención. Los expertos en la técnica deberían apreciar, a la luz de la presente descripción, que se pueden hacer modificaciones obvias de las realizaciones aquí descritas sin apartarse del espíritu de la invención. Todas las realizaciones aquí descritas y reivindicadas se pueden hacer y ejecutar sin experimentación indebida a la luz de la presente descripción. El objeto total de la invención se establece en las reivindicaciones siguientes y en sus equivalentes. Por consiguiente, no se debería considerar las reivindicaciones y la especificación de forma que indebidamente estrechen el objeto pleno de la protección a la cual la presente invención tiene derecho.

Claims (35)

1. Un sistema de imágenes faciales para registro y/o confirmación automatizada de identidad de un objetivo dentro de un área de seguridad, comprendiendo dicho sistema de imágenes faciales:
una unidad de cámara, que comprende:
un controlador de unidad de cámara,
una unidad de alcance para detectar la presencia del objetivo dentro del área de seguridad y para proporcionar datos de alcance respecto al objetivo a dicho controlador de la unidad de cámara; y
una videocámara para capturar imágenes del objetivo y enviar dichas imágenes del objetivo a dicho controlador de la unidad de cámara; comprendiendo dicho controlador de la unidad de cámara:
un sistema de detección de caras configurado para detectar una imagen facial dentro de dichas imágenes del objetivo;
un sistema de captura de caras configurado para capturar dicha imagen facial cuando se determina que dicha imagen facial es de una calidad suficiente para el reconocimiento de caras.
2. El sistema de imágenes faciales de la reivindicación 1, en el que dicho controlador de unidad de cámara incluye un sistema de rastreo de caras configurado para rastrear dicha imagen facial.
3. El sistema de imágenes faciales de la reivindicación 2, en el que dicho controlador de unidad de cámara incluye un software de procesamiento de los datos de la videocámara configurado para procesar dichas imágenes de objetivos y proporcionar unos datos de imágenes de vídeo y donde dicho sistema de detección de caras y dicho sistema de rastreo de caras están configurados para usar dichos datos de imágenes de vídeo para asistir en dicha detección y dicho rastreo de caras de dichas imágenes faciales.
4. El sistema de imágenes faciales de cualquiera de las reivindicaciones 1 a 3, en el que dicha unidad de cámara incluye un sistema de espejo rotativo para reflejar dichas imágenes de objetivos y dichas imágenes faciales a dicha videocámara.
5. El sistema de imágenes faciales de cualquiera de las reivindicaciones 1 a 4, en el que dicho sistema de detección de caras está configurado para usar dichos datos de alcance para asistir en detectar dichas imágenes faciales, comprendiendo dichos datos de alcance una distancia y un emplazamiento angular.
6. El sistema de imágenes faciales de la reivindicación 5, en el que dichos datos de alcance incluyen una anchura de dicho objetivo.
7. El sistema de imágenes faciales de la reivindicación 2, en el que dicho sistema de rastreo de caras está configurado para usar dichos datos de alcance a fin de asistir en el rastreo de dichas imágenes faciales, comprendiendo dichos datos de alcance una distancia y un emplazamiento angular.
8. El sistema de imágenes faciales de la reivindicación 7, en el que dichos datos de alcance incluyen una anchura de dicho objetivo.
9. El sistema de imágenes faciales de cualquiera de las reivindicaciones 1 a 8, que incluye un sistema de comunicaciones de la unidad de camara para enviar dichas imágenes faciales capturadas a un controlador externo con fines de verificación de caras y/o reconocimiento de caras.
10. El sistema de imágenes faciales de cualquiera de las reivindicaciones 1 a 9, en el que dicho sistema de detección de caras está configurado para usar el color, la forma y el emplazamiento de las características estructurales de dichas imágenes de objetivos para identificar dicha imagen facial.
11. El sistema de imágenes faciales de cualquiera de las reivindicaciones 1 a 10, en el que dicho sistema de detección de caras incluye la detección de rasgos individuales de la cara para localizar y confirmar los rasgos de la cara dentro de dichas imágenes de objetivo.
12. El sistema de imágenes faciales de cualquiera de las reivindicaciones 1 a 11, en el que dicho sistema de detección de caras incluye un sistema de detección de ojos que usa iluminación por infrarrojos de dichos objetivo para localizar la posición de los ojos dentro de dichas imágenes de objetivo.
13. El sistema de imágenes faciales de cualquiera de las reivindicaciones 1 a 12, en el que dicho sistema de detección de caras está configurado para apagarse cuando se detecta dicha imagen facial dentro de dichas imágenes de objetivo.
14. El sistema de imágenes faciales de cualquiera de las reivindicaciones 1 a 13, en el que dicho sistema de captura de caras incluye un sistema de evaluación de pose configurado para evaluar una pose de dicha imagen facial, con la finalidad de determinar si dicha imagen facial es de dicha calidad suficiente para el reconocimiento de caras.
15. El sistema de imágenes faciales de la reivindicación 14, en el que dicho sistema de evaluación de pose es capaz de determinar si dicha pose de dicha imagen facial es una pose frontal.
16. El sistema de imágenes faciales de cualquiera de las reivindicaciones 1 a 15, en el que dicho sistema de captura de caras incluye un sistema de evaluación de la iluminación configurado para evaluar la iluminación de dicha imagen facial, con la finalidad de determinar si dicha imagen facial es de dicha calidad suficiente para el reconocimiento de caras.
17. El sistema de imágenes faciales de la reivindicación 14, en el que dicho sistema de evaluación de pose incluye un sistema de identificación de rasgos faciales y un sistema de localización de rasgos faciales.
18. El sistema de imágenes faciales de la reivindicación 16, en el que dicho sistema de evaluación de iluminación incluye un sistema de análisis de color.
19. El sistema de imágenes faciales de cualquiera de las reivindicaciones 1 a 18, en el que dicho sistema de captura de caras incluye un sistema de exposición configurado para medir una exposición de dicha imagen facial, para controlar dicho sistema de captura de caras a fin de determinar si dicha imagen facial es de dicha calidad suficiente para el reconocimiento de caras, estando basado dicho sistema de exposición en un área, siendo dicha área ajustable en tamaño y emplazamiento sobre dicha imagen facial.
20. El sistema de imágenes faciales de cualquiera de las reivindicaciones 1 a 19, en el que dicho sistema de detección de caras incluye una detección individual de rasgos de cara configurada para localizar la posición de los ojos dentro de dichas imágenes de objetivos, y donde dicho sistema de captura de caras incluye un sistema de evaluación de resolución de pixeles para determinar una resolución de pixeles mínima de dicha imagen facial entre dichos ojos para determinar si dicha imagen facial es de dicha calidad suficiente para el reconocimiento de caras.
21. El sistema de imágenes faciales de la reivindicación 1, en el que dichos datos de alcance se usan para asistir a dicho sistema de detección de caras en la detección de dicha imagen facial.
22. El sistema de imágenes faciales de la reivindicación 1, en el que dichos datos de alcance se usan para asistir a dicho sistema de captura de caras en la captura de dicha imagen facial.
23. El sistema de imágenes faciales de la reivindicación 2, en el que dichos datos de alcance se usan para asistir a dicho sistema de rastreo de caras en el rastreo de dicha imagen facial.
24. El sistema de imágenes faciales de la reivindicación 1, en el que dicho controlador de unidad de cámara incluye un software de procesamiento de datos de videocámara configurado para procesar dichas imágenes de objetivo y para proporcionar los datos procesados de imagen de video, y en el que dicho sistema de detección de caras está configurado para usar dichos datos procesados de imagen de vídeo para asistir en dicha detección de dicha imagen facial.
25. El sistema de imágenes faciales de la reivindicación 1, en el que dicho controlador de unidad de cámara incluye un software de procesamiento de datos de videocámara configurado para procesar dichas imágenes de objetivo y para proporcionar los datos procesados de imagen de video, y en el que dicho sistema de captura de caras está configurado para usar dichos datos procesados de imagen de vídeo para asistir en dicha captura de dicha imagen de cara.
26. El sistema de imágenes faciales de la reivindicación 2, en el que dicho controlador de unidad de cámara incluye un software de procesamiento de datos de videocámara configurado para procesar dichas imágenes de objetivo y para proporcionar los datos procesados de imagen de video, y en el que dicho sistema de rastreo de caras está configurado para usar dichos datos procesados de imagen de vídeo para asistir en dicho rastreo de dicha imagen facial.
27. El sistema de imágenes faciales de cualquiera de las reivindicaciones 24, 25 ó 26, en el que dichos datos procesados de imagen de vídeo están organizados y almacenados en un archivo de historia de movimiento.
28. El sistema de imágenes faciales de la reivindicación 1, en el que dicha unidad de cámara incluye características automatizadas de giro horizontal, zoom e inclinación vertical.
29. El sistema de imágenes faciales de la reivindicación 28, en el que dicha característica de giro horizontal es proporcionada por un primer sistema espejo rotativo en una dirección horizontal para reflejar dichas imágenes de objetivo en dicha videocámara.
30. El sistema de imágenes faciales de cualquiera de las reivindicaciones 28 ó 29, en el que dicho controlador de unidad de cámara está configurado para usar dichos datos de alcance para asistir en controlar automáticamente las características de dicho giro horizontal, dicho zoom y dicha inclinación vertical.
31. El sistema de imágenes faciales de cualquiera de las reivindicaciones 28 a 30, en el que dicha característica de inclinación vertical es proporcionada por dicho primer sistema de espejo el cual es también rotativo en una dirección vertical.
32. El sistema de imágenes faciales de cualquiera de las reivindicaciones 28 a 30, en el que dicha característica de inclinación vertical es proporcionada por un segundo sistema espejo rotativo en una dirección vertical para reflejar dichas imágenes de objetivo en dicha videocámara.
33. El sistema de imágenes faciales de cualquiera de las reivindicaciones 28 a 32, en el que dicho controlador de unidad de cámara incluye un software de procesamiento de datos de cámara para procesar dichas imágenes de objetivo y proporcionar datos de imágenes de vídeo, y donde dicho controlador de unidad de cámara está configurado para usar dichos datos de imágenes de vídeo para asistir en controlar automáticamente las características de dicho giro horizontal, dicho zoom y dicha inclinación vertical.
34. El sistema de imágenes faciales de cualquiera de las reivindicaciones 28 a 33, en el que dicho sistema de detección de caras genera datos de imágenes faciales y dicho controlador de unidad de cámara está configurado para asistir en controlar automáticamente las características de dicho giro horizontal, dicho zoom y dicha inclinación vertical.
35. El sistema de imágenes faciales de la reivindicación 2, en el que dicha unidad de cámara incluye características automatizadas de giro horizontal, zoom e inclinación vertical, y en el que dicho sistema de rastreo de caras genera datos de rastreo de caras y dicho controlador de unidad de cámara está configurado para usar dichos datos de rastreo de caras para asistir en controlar automáticamente las características de dicho giro horizontal, dicho zoom y dicha inclinación vertical.
ES02767029T 2001-10-17 2002-10-17 Sistema de imagenes faciales para registro y confirmacion automatizad a de identidad. Expired - Lifetime ES2260476T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CA2359269 2001-10-17
CA002359269A CA2359269A1 (en) 2001-10-17 2001-10-17 Face imaging system for recordal and automated identity confirmation

Publications (1)

Publication Number Publication Date
ES2260476T3 true ES2260476T3 (es) 2006-11-01

Family

ID=4170284

Family Applications (1)

Application Number Title Priority Date Filing Date
ES02767029T Expired - Lifetime ES2260476T3 (es) 2001-10-17 2002-10-17 Sistema de imagenes faciales para registro y confirmacion automatizad a de identidad.

Country Status (13)

Country Link
US (2) US20050063566A1 (es)
EP (2) EP1444667B1 (es)
JP (1) JP2005505871A (es)
CN (1) CN100418112C (es)
AT (1) ATE320054T1 (es)
CA (1) CA2359269A1 (es)
DE (1) DE60209760T2 (es)
DK (1) DK1444667T3 (es)
ES (1) ES2260476T3 (es)
HK (1) HK1070167A1 (es)
NZ (1) NZ532315A (es)
PT (1) PT1444667E (es)
WO (1) WO2003034361A1 (es)

Families Citing this family (215)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7442629B2 (en) 2004-09-24 2008-10-28 President & Fellows Of Harvard College Femtosecond laser-induced formation of submicrometer spikes on a semiconductor substrate
US7057256B2 (en) 2001-05-25 2006-06-06 President & Fellows Of Harvard College Silicon-based visible and near-infrared optoelectric devices
US7298412B2 (en) 2001-09-18 2007-11-20 Ricoh Company, Limited Image pickup device, automatic focusing method, automatic exposure method, electronic flash control method and computer program
JP2003296711A (ja) * 2002-03-29 2003-10-17 Nec Corp 顔画像識別方法、装置およびプログラム
US20070201694A1 (en) * 2002-06-18 2007-08-30 Bolle Rudolf M Privacy management in imaging system
JP2004062565A (ja) * 2002-07-30 2004-02-26 Canon Inc 画像処理装置及び方法並びにプログラム記憶媒体
JP4218348B2 (ja) * 2003-01-17 2009-02-04 オムロン株式会社 撮影装置
JP4277534B2 (ja) * 2003-02-12 2009-06-10 オムロン株式会社 画像編集装置および画像編集方法
CA2435424C (en) * 2003-07-29 2010-04-27 Jack Gin Rotatable bay window switch box surveillance camera and illuminator for facial recognition
US7756322B2 (en) * 2003-08-18 2010-07-13 Honda Motor Co., Ltd. Picture taking mobile robot
JP4339762B2 (ja) * 2003-09-02 2009-10-07 富士フイルム株式会社 認証システム、及びプログラム
JP4476744B2 (ja) * 2003-09-02 2010-06-09 富士フイルム株式会社 撮像システム、及びプログラム
US20050110634A1 (en) * 2003-11-20 2005-05-26 Salcedo David M. Portable security platform
CN100448267C (zh) * 2004-02-06 2008-12-31 株式会社尼康 数码相机
IL161082A (en) * 2004-03-25 2008-08-07 Rafael Advanced Defense Sys System and method for automatically acquiring a target with a narrow field-of-view gimbaled imaging sensor
DE602004016115D1 (de) * 2004-04-08 2008-10-09 Accenture Global Services Gmbh Verfahren und Vorrichtung zur entfernten Überwachung eines Messgerät
AT501370B1 (de) * 2004-06-03 2007-03-15 X Pin Com Gmbh Vorrichtung zur biometrischen steuerung von anlagen
US8681100B2 (en) 2004-07-30 2014-03-25 Extreme Realty Ltd. Apparatus system and method for human-machine-interface
KR101295471B1 (ko) 2004-07-30 2013-08-09 익스트림 리얼리티 엘티디. 이미지 프로세싱을 기반으로 한 3d 공간 차원용 시스템 및 방법
US8872899B2 (en) * 2004-07-30 2014-10-28 Extreme Reality Ltd. Method circuit and system for human to machine interfacing by hand gestures
JP2006236244A (ja) * 2005-02-28 2006-09-07 Toshiba Corp 顔認証装置および入退場管理装置
JP2006259930A (ja) * 2005-03-15 2006-09-28 Omron Corp 表示装置およびその制御方法、表示装置を備えた電子機器、表示装置制御プログラム、ならびに該プログラムを記録した記録媒体
ES2296443B1 (es) * 2005-04-15 2009-03-01 Universidad Rey Juan Carlos Sistema de verificacion facial.
US8964029B2 (en) * 2005-04-29 2015-02-24 Chubb Protection Corporation Method and device for consistent region of interest
JP2007052770A (ja) * 2005-07-21 2007-03-01 Omron Corp 監視装置
JP4856409B2 (ja) 2005-08-12 2012-01-18 株式会社リコー 画像処理システム、認証方法
JP2007072520A (ja) * 2005-09-02 2007-03-22 Sony Corp 映像処理装置
US20070064208A1 (en) * 2005-09-07 2007-03-22 Ablaze Development Corporation Aerial support structure and method for image capture
US8026840B2 (en) * 2005-10-28 2011-09-27 Raytheon Company Biometric radar system and method for identifying persons and positional states of persons
US20070285554A1 (en) * 2005-10-31 2007-12-13 Dor Givon Apparatus method and system for imaging
US9046962B2 (en) 2005-10-31 2015-06-02 Extreme Reality Ltd. Methods, systems, apparatuses, circuits and associated computer executable code for detecting motion, position and/or orientation of objects within a defined spatial region
GB2432064B (en) * 2005-10-31 2011-01-19 Hewlett Packard Development Co Method of triggering a detector to detect a moving feature within a video stream
WO2011033519A1 (en) 2009-09-21 2011-03-24 Extreme Reality Ltd. Methods circuits apparatus and systems for human machine interfacing with an electronic appliance
US20070162761A1 (en) * 2005-12-23 2007-07-12 Davis Bruce L Methods and Systems to Help Detect Identity Fraud
US7668346B2 (en) * 2006-03-21 2010-02-23 Microsoft Corporation Joint boosting feature selection for robust face recognition
JP4836633B2 (ja) * 2006-03-31 2011-12-14 株式会社東芝 顔認証装置、顔認証方法および入退場管理装置
JP4751776B2 (ja) * 2006-06-19 2011-08-17 オリンパスイメージング株式会社 電子撮像装置及び個人特定システム
US20080004892A1 (en) * 2006-06-30 2008-01-03 Jerry Zucker Biometric aid for customer relations
JP4979289B2 (ja) * 2006-07-21 2012-07-18 日立オートモティブシステムズ株式会社 画像処理装置
US8296808B2 (en) * 2006-10-23 2012-10-23 Sony Corporation Metadata from image recognition
MXPA06013614A (es) * 2006-11-24 2007-12-06 Global Sight S A De C V Sistemas de transmision de datos en forma remota y digital y localizacion satelital desde terminales moviles o fijas con camaras de vigilancia urbana para reconocimiento facial, detector de disparos, captura de personal de seguridad publica y persona
US8694792B2 (en) * 2007-02-16 2014-04-08 Honeywell International Inc. Biometric based repeat visitor recognition system and method
JP4668220B2 (ja) * 2007-02-20 2011-04-13 ソニー株式会社 画像処理装置および画像処理方法、並びにプログラム
GB2447246B (en) * 2007-03-07 2012-04-18 Aurora Comp Services Ltd Controlled high resolution sub-image capture with time domain multiplexed high speed full field of view reference video stream for image biometric application
JP4289415B2 (ja) * 2007-03-27 2009-07-01 セイコーエプソン株式会社 画像変形のための画像処理
WO2008120395A1 (ja) * 2007-03-29 2008-10-09 Fujitsu Limited 撮影装置、および撮影方法、ならびに撮影プログラム
JP4858849B2 (ja) * 2007-05-18 2012-01-18 カシオ計算機株式会社 撮像装置及びそのプログラム
JP2009033369A (ja) * 2007-07-26 2009-02-12 Sony Corp 記録装置、再生装置、記録再生装置、撮像装置、記録方法およびプログラム
GB0717019D0 (en) * 2007-09-01 2007-10-10 Rixen Uk Ltd Audiovisual Terminal
US20100162285A1 (en) * 2007-09-11 2010-06-24 Yossef Gerard Cohen Presence Detector and Method for Estimating an Audience
US20090103909A1 (en) * 2007-10-17 2009-04-23 Live Event Media, Inc. Aerial camera support structure
CN101465961B (zh) * 2007-12-19 2013-10-30 神基科技股份有限公司 以特征影像辨识控制快门的摄像装置及方法
US20090207121A1 (en) * 2008-02-19 2009-08-20 Yung-Ho Shih Portable electronic device automatically controlling back light unit thereof and method for the same
US8325976B1 (en) * 2008-03-14 2012-12-04 Verint Systems Ltd. Systems and methods for adaptive bi-directional people counting
JP5132445B2 (ja) * 2008-06-25 2013-01-30 キヤノン株式会社 画像処理装置および画像処理方法並びにコンピュータプログラムおよび記憶媒体
WO2010026587A1 (en) * 2008-09-04 2010-03-11 Extreme Reality Ltd. Method system and software for providing image sensor based human machine interfacing
JP2010117487A (ja) * 2008-11-12 2010-05-27 Fujinon Corp オートフォーカスシステム
TW201025190A (en) * 2008-12-30 2010-07-01 Altek Corp Image capture device used for monitoring and a monitor method thereof
US8452599B2 (en) 2009-06-10 2013-05-28 Toyota Motor Engineering & Manufacturing North America, Inc. Method and system for extracting messages
US8269616B2 (en) * 2009-07-16 2012-09-18 Toyota Motor Engineering & Manufacturing North America, Inc. Method and system for detecting gaps between objects
JP5227911B2 (ja) * 2009-07-22 2013-07-03 株式会社日立国際電気 監視映像検索装置及び監視システム
JP5356162B2 (ja) * 2009-09-07 2013-12-04 株式会社ザクティ 物体像探索装置
US9673243B2 (en) 2009-09-17 2017-06-06 Sionyx, Llc Photosensitive imaging devices and associated methods
US8878779B2 (en) 2009-09-21 2014-11-04 Extreme Reality Ltd. Methods circuits device systems and associated computer executable code for facilitating interfacing with a computing platform display screen
US8908033B2 (en) * 2009-09-29 2014-12-09 Avaya Inc. Utilizing presence information for the purpose of enhanced surveillance
US8337160B2 (en) * 2009-10-19 2012-12-25 Toyota Motor Engineering & Manufacturing North America, Inc. High efficiency turbine system
US8237792B2 (en) * 2009-12-18 2012-08-07 Toyota Motor Engineering & Manufacturing North America, Inc. Method and system for describing and organizing image data
KR101082159B1 (ko) 2010-02-02 2011-11-09 대전대학교 산학협력단 얼굴 이미지 분석용 촬영장치
US9377778B2 (en) * 2010-02-17 2016-06-28 The Boeing Company Integration of manufacturing control functions using a multi-functional vision system
JP5642410B2 (ja) * 2010-03-30 2014-12-17 パナソニック株式会社 顔認識装置及び顔認識方法
US8692198B2 (en) 2010-04-21 2014-04-08 Sionyx, Inc. Photosensitive imaging devices and associated methods
TW201137765A (en) * 2010-04-29 2011-11-01 Hon Hai Prec Ind Co Ltd Image capturing device and method for obtaining clear images using the image capturing device
US20190034706A1 (en) * 2010-06-07 2019-01-31 Affectiva, Inc. Facial tracking with classifiers for query evaluation
US11430260B2 (en) 2010-06-07 2022-08-30 Affectiva, Inc. Electronic display viewing verification
CN101908236B (zh) * 2010-06-08 2012-03-21 上海理工大学 公交客流统计方法
US20120146172A1 (en) 2010-06-18 2012-06-14 Sionyx, Inc. High Speed Photosensitive Devices and Associated Methods
US8424621B2 (en) 2010-07-23 2013-04-23 Toyota Motor Engineering & Manufacturing North America, Inc. Omni traction wheel system and methods of operating the same
US20130163833A1 (en) * 2010-09-17 2013-06-27 Utc Fire & Security Corporation Security device with security image update capability
CN102466800B (zh) * 2010-11-09 2014-05-14 亚洲光学股份有限公司 具自动启动测距功能的雷射测距装置及其自动启动方法
KR20140030138A (ko) 2011-01-23 2014-03-11 익스트림 리얼리티 엘티디. 입체 화상 및 비디오를 생성하는 방법, 시스템, 장치 및 관련 프로세스 로직
US8908034B2 (en) * 2011-01-23 2014-12-09 James Bordonaro Surveillance systems and methods to monitor, recognize, track objects and unusual activities in real time within user defined boundaries in an area
US8988087B2 (en) 2011-01-24 2015-03-24 Microsoft Technology Licensing, Llc Touchscreen testing
US8725443B2 (en) 2011-01-24 2014-05-13 Microsoft Corporation Latency measurement
US9542092B2 (en) 2011-02-12 2017-01-10 Microsoft Technology Licensing, Llc Prediction-based touch contact tracking
US8982061B2 (en) 2011-02-12 2015-03-17 Microsoft Technology Licensing, Llc Angular contact geometry
US8773377B2 (en) 2011-03-04 2014-07-08 Microsoft Corporation Multi-pass touch contact tracking
DE102011102744A1 (de) * 2011-05-28 2012-11-29 Connaught Electronics Ltd. Verfahren zum Betreiben eines Kamerasystems eines Kraftfahrzeugs, Kraftfahrzeug sowie System mit einem Kraftfahrzeug und einer separaten Recheneinrichtung
FR2976106B1 (fr) 2011-06-01 2015-07-17 Morpho Systeme et methode pour le controle de l'acces d'un individu a une zone a acces controle
US9020207B2 (en) 2011-06-07 2015-04-28 Accenture Global Services Limited Biometric authentication technology
US9496308B2 (en) 2011-06-09 2016-11-15 Sionyx, Llc Process module for increasing the response of backside illuminated photosensitive imagers and associated methods
US8705812B2 (en) * 2011-06-10 2014-04-22 Amazon Technologies, Inc. Enhanced face recognition in video
US10007330B2 (en) 2011-06-21 2018-06-26 Microsoft Technology Licensing, Llc Region of interest segmentation
EP2546782B1 (en) 2011-07-11 2014-06-25 Accenture Global Services Limited Liveness detection
US20130016203A1 (en) * 2011-07-13 2013-01-17 Saylor Stephen D Biometric imaging devices and associated methods
US8913019B2 (en) 2011-07-14 2014-12-16 Microsoft Corporation Multi-finger detection and component resolution
DE102011079285A1 (de) * 2011-07-15 2013-01-17 Bundesdruckerei Gmbh Vorrichtung zur Erfassung biometrischer Merkmale
US20130027561A1 (en) * 2011-07-29 2013-01-31 Panasonic Corporation System and method for improving site operations by detecting abnormalities
US8832805B1 (en) * 2011-08-08 2014-09-09 Amazon Technologies, Inc. Verifying user information
US10089327B2 (en) 2011-08-18 2018-10-02 Qualcomm Incorporated Smart camera for sharing pictures automatically
US20130201344A1 (en) * 2011-08-18 2013-08-08 Qualcomm Incorporated Smart camera for taking pictures automatically
CN102298801A (zh) * 2011-08-23 2011-12-28 苏州盛世华安智能科技有限公司 访客智能安全管理装置
US9378389B2 (en) 2011-09-09 2016-06-28 Microsoft Technology Licensing, Llc Shared item account selection
FR2979873B1 (fr) * 2011-09-12 2013-10-04 Valeo Securite Habitacle Procede d'ouverture d'un ouvrant de vehicule automobile
TWI439967B (zh) * 2011-10-31 2014-06-01 Hon Hai Prec Ind Co Ltd 安全監控系統及安全監控方法
US9785281B2 (en) 2011-11-09 2017-10-10 Microsoft Technology Licensing, Llc. Acoustic touch sensitive testing
WO2013069023A2 (en) * 2011-11-13 2013-05-16 Extreme Reality Ltd. Methods systems apparatuses circuits and associated computer executable code for video based subject characterization, categorization, identification and/or presence response
US8971574B2 (en) * 2011-11-22 2015-03-03 Ulsee Inc. Orientation correction method for electronic device used to perform facial recognition and electronic device thereof
US8941561B1 (en) 2012-01-06 2015-01-27 Google Inc. Image capture
US9197864B1 (en) 2012-01-06 2015-11-24 Google Inc. Zoom and image capture based on features of interest
AU2013200450B2 (en) * 2012-01-30 2014-10-02 Accenture Global Services Limited System and method for face capture and matching
US20130194406A1 (en) * 2012-01-31 2013-08-01 Kai Liu Targeted Delivery of Content
US8914254B2 (en) 2012-01-31 2014-12-16 Microsoft Corporation Latency measurement
WO2013118491A1 (ja) 2012-02-06 2013-08-15 パナソニック株式会社 カメラ装置、サーバ装置、画像監視システム、画像監視システム制御方法及び画像監視システム制御プログラム
US9558332B1 (en) * 2012-04-09 2017-01-31 Securus Technologies, Inc. Virtual communication device interfaces
US8948465B2 (en) 2012-04-09 2015-02-03 Accenture Global Services Limited Biometric matching technology
US8929596B2 (en) 2012-06-04 2015-01-06 International Business Machines Corporation Surveillance including a modified video data stream
US8855369B2 (en) * 2012-06-22 2014-10-07 Microsoft Corporation Self learning face recognition using depth based tracking for database generation and update
DE102012214148A1 (de) * 2012-08-09 2014-02-13 Siemens Aktiengesellschaft Bildgebungseinrichtung
CN103679745B (zh) * 2012-09-17 2016-08-17 浙江大华技术股份有限公司 一种运动目标检测方法及装置
US11083344B2 (en) 2012-10-11 2021-08-10 Roman Tsibulevskiy Partition technologies
US9286509B1 (en) 2012-10-19 2016-03-15 Google Inc. Image optimization during facial recognition
US9317147B2 (en) 2012-10-24 2016-04-19 Microsoft Technology Licensing, Llc. Input testing tool
GB2508227B (en) * 2012-11-27 2015-02-25 Bae Systems Plc Imaging system and process
EP2736249A1 (en) * 2012-11-27 2014-05-28 BAE Systems PLC Imaging system and process
WO2014083321A1 (en) * 2012-11-27 2014-06-05 Bae Systems Plc Imaging system and process
BR112015014945A2 (pt) * 2012-12-21 2017-07-11 Koninklijke Philips Nv sistema de monitoramento remoto de fotoplestimografia, método de monitoramento remoto de fotoplestimografia, e programa de computador
US9563955B1 (en) * 2013-05-15 2017-02-07 Amazon Technologies, Inc. Object tracking techniques
WO2014209421A1 (en) 2013-06-29 2014-12-31 Sionyx, Inc. Shallow trench textured regions and associated methods
KR102153539B1 (ko) * 2013-09-05 2020-09-08 한국전자통신연구원 영상 처리 장치 및 방법
JP6025690B2 (ja) * 2013-11-01 2016-11-16 ソニー株式会社 情報処理装置および情報処理方法
US9672649B2 (en) * 2013-11-04 2017-06-06 At&T Intellectual Property I, Lp System and method for enabling mirror video chat using a wearable display device
CN105011903B (zh) * 2014-04-30 2018-06-29 上海华博信息服务有限公司 一种智能健康诊断系统
US20150356802A1 (en) * 2014-06-10 2015-12-10 Center For Integrated Smart Sensors Foundation Low Power Door-Lock Apparatus Based On Battery Using Face Recognition
US11615663B1 (en) * 2014-06-17 2023-03-28 Amazon Technologies, Inc. User authentication system
US9526896B2 (en) * 2014-08-12 2016-12-27 Second Sight Medical Products, Inc. Pattern detection and location indication for a visual prosthesis
JP2016053896A (ja) * 2014-09-04 2016-04-14 グローリー株式会社 ゲートシステムおよびゲート通過の制御方法
JP6205073B2 (ja) * 2014-09-10 2017-09-27 富士フイルム株式会社 撮像装置、撮像方法、及びプログラム
US9953187B2 (en) 2014-11-25 2018-04-24 Honeywell International Inc. System and method of contextual adjustment of video fidelity to protect privacy
JP6483485B2 (ja) * 2015-03-13 2019-03-13 株式会社東芝 人物認証方法
US10853625B2 (en) 2015-03-21 2020-12-01 Mine One Gmbh Facial signature methods, systems and software
WO2016183380A1 (en) * 2015-05-12 2016-11-17 Mine One Gmbh Facial signature methods, systems and software
US10551913B2 (en) 2015-03-21 2020-02-04 Mine One Gmbh Virtual 3D methods, systems and software
CN104778726A (zh) * 2015-04-29 2015-07-15 深圳市保千里电子有限公司 一种基于人体特征进行运动轨迹跟踪的方法及系统
CN104902233B (zh) * 2015-05-22 2018-03-09 辽宁玖鼎金盛计算机技术有限公司 综合安全监控系统
US10146797B2 (en) * 2015-05-29 2018-12-04 Accenture Global Services Limited Face recognition image data cache
WO2017002511A1 (ja) 2015-06-29 2017-01-05 富士フイルム株式会社 撮像装置及び撮像方法
US20210390246A1 (en) * 2015-07-11 2021-12-16 Thinxtream Technologies Ptd. Ltd. System and method for contextual service delivery via mobile communication devices
US10803229B2 (en) * 2015-07-16 2020-10-13 Thinxtream Technologies Pte. Ltd. Hybrid system and method for data and file conversion across computing devices and platforms
CN105426833A (zh) * 2015-11-13 2016-03-23 小米科技有限责任公司 用于游戏的图像识别方法及装置
US10579863B2 (en) 2015-12-16 2020-03-03 Global Tel*Link Corporation Unmanned aerial vehicle with biometric verification
US10229324B2 (en) 2015-12-24 2019-03-12 Intel Corporation Video summarization using semantic information
US20170300742A1 (en) * 2016-04-14 2017-10-19 Qualcomm Incorporated Systems and methods for recognizing an object in an image
US9892335B2 (en) * 2016-06-05 2018-02-13 International Business Machines Corporation Real-time system for determining current video scale
CN109414221B (zh) * 2016-06-29 2021-08-17 视觉探索工业股份有限公司 用于矫正装置的测量和定制系统
CN106054278B (zh) * 2016-07-07 2018-06-12 王飞 一种头部三维数据采集及身份识别的安检门及方法
US20180091730A1 (en) * 2016-09-21 2018-03-29 Ring Inc. Security devices configured for capturing recognizable facial images
EP3301476B1 (en) * 2016-09-28 2023-03-15 STMicroelectronics (Research & Development) Limited Apparatus having a camera and a time of flight single photon avalanche diode based range detecting module for controlling the camera and corresponding method
KR102559745B1 (ko) 2016-10-13 2023-07-26 엘지전자 주식회사 공항 로봇 및 그를 포함하는 공항 로봇 시스템
WO2018109869A1 (ja) * 2016-12-14 2018-06-21 三菱電機株式会社 監視カメラシステム、監視カメラ
IT201700021559A1 (it) * 2017-02-27 2018-08-27 St Microelectronics Srl Procedimento per il controllo di raggi laser, dispositivo, apparecchiatura e prodotto informatico corrispondenti
WO2018182053A1 (ko) * 2017-03-27 2018-10-04 스노우 주식회사 오브젝트의 형상에 대한 정보를 획득하는 방법 및 장치
US10762353B2 (en) * 2017-04-14 2020-09-01 Global Tel*Link Corporation Inmate tracking system in a controlled environment
US10949940B2 (en) * 2017-04-19 2021-03-16 Global Tel*Link Corporation Mobile correctional facility robots
US10690466B2 (en) 2017-04-19 2020-06-23 Global Tel*Link Corporation Mobile correctional facility robots
US10181192B1 (en) * 2017-06-30 2019-01-15 Canon Kabushiki Kaisha Background modelling of sport videos
US20190031145A1 (en) * 2017-07-28 2019-01-31 Alclear, Llc Biometric identification system connected vehicle
RU2667790C1 (ru) 2017-09-01 2018-09-24 Самсунг Электроникс Ко., Лтд. Способ автоматической регулировки экспозиции для инфракрасной камеры и использующее этот способ вычислительное устройство пользователя
JP6409929B1 (ja) * 2017-09-19 2018-10-24 日本電気株式会社 照合システム
US10679082B2 (en) * 2017-09-28 2020-06-09 Ncr Corporation Self-Service Terminal (SST) facial authentication processing
US10521651B2 (en) * 2017-10-18 2019-12-31 Global Tel*Link Corporation High definition camera and image recognition system for criminal identification
NO343993B1 (en) * 2017-10-30 2019-08-12 Hypervig As A security system
US11538257B2 (en) 2017-12-08 2022-12-27 Gatekeeper Inc. Detection, counting and identification of occupants in vehicles
CN107944422B (zh) * 2017-12-08 2020-05-12 业成科技(成都)有限公司 三维摄像装置、三维摄像方法及人脸识别方法
US10601491B2 (en) 2017-12-15 2020-03-24 Google Llc Performance-based antenna selection for user devices
US10657782B2 (en) 2017-12-21 2020-05-19 At&T Intellectual Property I, L.P. Networked premises security
CN108241853A (zh) * 2017-12-28 2018-07-03 深圳英飞拓科技股份有限公司 一种视频监控方法、系统及终端设备
JP6973258B2 (ja) * 2018-04-13 2021-11-24 オムロン株式会社 画像解析装置、方法およびプログラム
US11010597B1 (en) 2018-05-10 2021-05-18 Ism Connect, Llc Entry prevention of persons of interest from venues and events using facial recognition
US11132532B1 (en) 2018-05-10 2021-09-28 Ism Connect, Llc System and method for facial recognition accuracy
US11544965B1 (en) 2018-05-10 2023-01-03 Wicket, Llc System and method for access control using a plurality of images
US10839200B2 (en) * 2018-05-16 2020-11-17 Gatekeeper Security, Inc. Facial detection and recognition for pedestrian traffic
US11087119B2 (en) * 2018-05-16 2021-08-10 Gatekeeper Security, Inc. Facial detection and recognition for pedestrian traffic
EP3803796A4 (en) 2018-05-29 2021-06-23 Curiouser Products Inc. REFLECTIVE VIDEO DISPLAY DEVICE FOR INTERACTIVE TRAINING AND DEMONSTRATION AND METHOD OF USE
US11053729B2 (en) * 2018-06-29 2021-07-06 Overhead Door Corporation Door system and method with early warning sensors
CN108877011A (zh) * 2018-07-06 2018-11-23 安徽超清科技股份有限公司 一种基于人脸识别的门禁系统
CN109714521B (zh) * 2018-08-20 2020-11-03 浙江禾记电子科技有限公司 会议场所现场登记平台
DE102018121256A1 (de) * 2018-08-30 2020-03-05 Bundesdruckerei Gmbh Zugangskontrollsystem zum Erfassen eines Gesichtsbildes einer Person
JP7204421B2 (ja) * 2018-10-25 2023-01-16 キヤノン株式会社 検知装置およびその制御方法
WO2020176008A1 (ru) * 2019-02-28 2020-09-03 Публичное Акционерное Общество "Сбербанк России" Способ и система распознования лиц и построения маршрута
RU2694140C1 (ru) * 2019-04-04 2019-07-09 Общество с ограниченной ответственностью "Скайтрэк" (ООО "Скайтрэк") Способ идентификации человека в режиме одновременной работы группы видеокамер
USD963407S1 (en) 2019-06-24 2022-09-13 Accenture Global Solutions Limited Beverage dispensing machine
US10726246B1 (en) 2019-06-24 2020-07-28 Accenture Global Solutions Limited Automated vending machine with customer and identification authentication
US10867193B1 (en) 2019-07-10 2020-12-15 Gatekeeper Security, Inc. Imaging systems for facial detection, license plate reading, vehicle overview and vehicle make, model, and color detection
US11283937B1 (en) * 2019-08-15 2022-03-22 Ikorongo Technology, LLC Sharing images based on face matching in a network
US11157722B2 (en) * 2019-10-10 2021-10-26 Unisys Corporation Systems and methods for facial recognition in a campus setting
US11196965B2 (en) 2019-10-25 2021-12-07 Gatekeeper Security, Inc. Image artifact mitigation in scanners for entry control systems
CN112788227B (zh) * 2019-11-07 2022-06-14 富泰华工业(深圳)有限公司 目标追踪拍摄方法、装置、计算机装置及存储介质
US11275928B2 (en) * 2019-12-12 2022-03-15 Realnetworks, Inc. Methods and systems for facial recognition using motion vector trained model
US11373322B2 (en) 2019-12-26 2022-06-28 Stmicroelectronics, Inc. Depth sensing with a ranging sensor and an image sensor
CN111179477B (zh) * 2020-02-20 2021-01-05 广东创宇信息工程有限公司 一种通用型人脸识别安全门
EP3869395A1 (en) 2020-02-21 2021-08-25 Accenture Global Solutions Limited Identity and liveness verification
EP3879478A1 (en) * 2020-03-10 2021-09-15 Mastercard International Incorporated A method, computer program and apparatus
EP4143809A1 (en) 2020-04-30 2023-03-08 Curiouser Products Inc. Reflective video display apparatus for interactive training and demonstration and methods of using same
US11151390B1 (en) 2020-05-21 2021-10-19 Ism Connect, Llc Self-correcting face detection pipeline-based method and apparatus for censusing a crowd
JP7188417B2 (ja) * 2020-06-25 2022-12-13 横河電機株式会社 装置、方法およびプログラム
CN112017346B (zh) * 2020-08-25 2023-08-18 杭州海康威视数字技术股份有限公司 门禁管理方法、门禁终端、门禁系统及存储介质
US11167172B1 (en) 2020-09-04 2021-11-09 Curiouser Products Inc. Video rebroadcasting with multiplexed communications and display via smart mirrors
US11553248B2 (en) 2020-09-25 2023-01-10 Arris Enterprises Llc System and method for the access and routing of content on the basis of facial recognition
CN112614264B (zh) * 2020-12-30 2022-12-09 无锡嘉利信科技有限公司 一种人脸识别与指纹解锁一体式小区门禁系统
CN112949505A (zh) * 2021-03-05 2021-06-11 浙江工商大学 基于mcu的离线式人脸识别智能门锁以及控制方法
US11482088B1 (en) * 2021-06-22 2022-10-25 Motorola Solutions, Inc. System and method for context aware access control with weapons detection
US11770623B2 (en) * 2021-07-29 2023-09-26 Lenovo (Singapore) Pte. Ltd. Single camera image data collection
JP7266071B2 (ja) * 2021-08-02 2023-04-27 株式会社日立ソリューションズ西日本 オンライン認証装置、方法、およびプログラム
TWI827028B (zh) * 2022-04-29 2023-12-21 新加坡商鴻運科股份有限公司 一種目標追蹤方法與裝置
CN116363817B (zh) * 2023-02-02 2024-01-02 淮阴工学院 一种化工厂危险区域入侵预警方法及系统

Family Cites Families (56)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4337482A (en) * 1979-10-17 1982-06-29 Coutta John M Surveillance system
JPS5783971A (en) * 1980-11-13 1982-05-26 Asahi Optical Co Ltd Spot exposure control circuit
US4326218A (en) * 1980-11-14 1982-04-20 Coutta John M Surveillance system
US5339163A (en) * 1988-03-16 1994-08-16 Canon Kabushiki Kaisha Automatic exposure control device using plural image plane detection areas
US4963962A (en) * 1989-01-25 1990-10-16 Visual Methods, Inc. Optical surveillance assembly and camera
GB9019538D0 (en) * 1990-09-07 1990-10-24 Philips Electronic Associated Tracking a moving object
US5296945A (en) * 1991-03-13 1994-03-22 Olympus Optical Co., Ltd. Video ID photo printing apparatus and complexion converting apparatus
US5581625A (en) * 1994-01-31 1996-12-03 International Business Machines Corporation Stereo vision system for counting items in a queue
US5852669A (en) * 1994-04-06 1998-12-22 Lucent Technologies Inc. Automatic face and facial feature location detection for low bit rate model-assisted H.261 compatible coding of video
US6714665B1 (en) * 1994-09-02 2004-03-30 Sarnoff Corporation Fully automated iris recognition system utilizing wide and narrow fields of view
US5572596A (en) * 1994-09-02 1996-11-05 David Sarnoff Research Center, Inc. Automated, non-invasive iris recognition system and method
US5629752A (en) * 1994-10-28 1997-05-13 Fuji Photo Film Co., Ltd. Method of determining an exposure amount using optical recognition of facial features
US5699449A (en) * 1994-11-14 1997-12-16 The University Of Connecticut Method and apparatus for implementation of neural networks for face recognition
JP3452685B2 (ja) * 1995-05-10 2003-09-29 三菱電機株式会社 顔画像の処理装置
US5805745A (en) * 1995-06-26 1998-09-08 Lucent Technologies Inc. Method for locating a subject's lips in a facial image
US5715325A (en) * 1995-08-30 1998-02-03 Siemens Corporate Research, Inc. Apparatus and method for detecting a face in a video image
US6320610B1 (en) * 1998-12-31 2001-11-20 Sensar, Inc. Compact imaging device incorporating rotatably mounted cameras
US5717512A (en) * 1996-05-15 1998-02-10 Chmielewski, Jr.; Thomas A. Compact image steering and focusing device
US6173068B1 (en) * 1996-07-29 2001-01-09 Mikos, Ltd. Method and apparatus for recognizing and classifying individuals based on minutiae
US6184926B1 (en) * 1996-11-26 2001-02-06 Ncr Corporation System and method for detecting a human face in uncontrolled environments
US5991429A (en) * 1996-12-06 1999-11-23 Coffin; Jeffrey S. Facial recognition system for security access and identification
US6118888A (en) * 1997-02-28 2000-09-12 Kabushiki Kaisha Toshiba Multi-modal interface apparatus and method
US6188777B1 (en) * 1997-08-01 2001-02-13 Interval Research Corporation Method and apparatus for personnel detection and tracking
US5892837A (en) * 1997-08-29 1999-04-06 Eastman Kodak Company Computer program product for locating objects in an image
US6108437A (en) * 1997-11-14 2000-08-22 Seiko Epson Corporation Face recognition apparatus, method, system and computer readable medium thereof
JP2962295B2 (ja) 1997-11-14 1999-10-12 日本電気株式会社 自動情報処理装置の内蔵カメラの自動姿勢制御方法および自動姿勢制御システム
US6215519B1 (en) * 1998-03-04 2001-04-10 The Trustees Of Columbia University In The City Of New York Combined wide angle and narrow angle imaging system and method for surveillance and monitoring
US6301370B1 (en) * 1998-04-13 2001-10-09 Eyematic Interfaces, Inc. Face recognition from video images
GB2341231A (en) * 1998-09-05 2000-03-08 Sharp Kk Face detection in an image
US6757422B1 (en) * 1998-11-12 2004-06-29 Canon Kabushiki Kaisha Viewpoint position detection apparatus and method, and stereoscopic image display system
US6289113B1 (en) * 1998-11-25 2001-09-11 Iridian Technologies, Inc. Handheld iris imaging apparatus and method
US6298145B1 (en) * 1999-01-19 2001-10-02 Hewlett-Packard Company Extracting image frames suitable for printing and visual presentation from the compressed image data
US7038715B1 (en) * 1999-01-19 2006-05-02 Texas Instruments Incorporated Digital still camera with high-quality portrait mode
JP2000259814A (ja) * 1999-03-11 2000-09-22 Toshiba Corp 画像処理装置及びその方法
US7039221B1 (en) * 1999-04-09 2006-05-02 Tumey David M Facial image verification utilizing smart-card with integrated video camera
US6526161B1 (en) * 1999-08-30 2003-02-25 Koninklijke Philips Electronics N.V. System and method for biometrics-based facial feature extraction
EP1085366B1 (en) * 1999-09-14 2004-09-15 Kabushiki Kaisha Toshiba Face image photographing apparatus and face image photographing method
US6757008B1 (en) * 1999-09-29 2004-06-29 Spectrum San Diego, Inc. Video surveillance system
US6642955B1 (en) * 2000-01-10 2003-11-04 Extreme Cctv Inc. Surveillance camera system with infrared and visible light bandpass control circuit
US6940545B1 (en) * 2000-02-28 2005-09-06 Eastman Kodak Company Face detecting camera and method
JP4526639B2 (ja) * 2000-03-02 2010-08-18 本田技研工業株式会社 顔認識装置およびその方法
JP2001331799A (ja) * 2000-03-16 2001-11-30 Toshiba Corp 画像処理装置および画像処理方法
DE60119418T2 (de) * 2000-03-22 2007-05-24 Kabushiki Kaisha Toshiba, Kawasaki Gesichtsbildaufnehmendes Erkennungsgerät und Passüberprüfungsgerät
EP1290571A4 (en) * 2000-04-17 2005-11-02 Igt Reno Nev SYSTEM AND METHOD FOR DETECTING THE PICTURE OF A PLAYER TO INTEGRATE IT INTO A GAME
US6766035B1 (en) * 2000-05-03 2004-07-20 Koninklijke Philips Electronics N.V. Method and apparatus for adaptive position determination video conferencing and other applications
AU2001282483A1 (en) * 2000-08-29 2002-03-13 Imageid Ltd. Indexing, storage and retrieval of digital images
JP4374759B2 (ja) * 2000-10-13 2009-12-02 オムロン株式会社 画像比較システムおよび画像比較装置
US6680745B2 (en) * 2000-11-10 2004-01-20 Perceptive Network Technologies, Inc. Videoconferencing method with tracking of face and dynamic bandwidth allocation
JP2002170112A (ja) * 2000-12-04 2002-06-14 Minolta Co Ltd 解像度変換プログラムを記録したコンピュータ読取可能な記録媒体、解像度変換装置および解像度変換方法
US6525663B2 (en) * 2001-03-15 2003-02-25 Koninklijke Philips Electronics N.V. Automatic system for monitoring persons entering and leaving changing room
US6920236B2 (en) * 2001-03-26 2005-07-19 Mikos, Ltd. Dual band biometric identification system
US6985179B2 (en) * 2001-03-30 2006-01-10 Intel Corporaiton Determining image quality for improving object trackability
US7020345B2 (en) * 2001-04-26 2006-03-28 Industrial Technology Research Institute Methods and system for illuminant-compensation
US7027620B2 (en) * 2001-06-07 2006-04-11 Sony Corporation Method of recognizing partially occluded and/or imprecisely localized faces
US7068841B2 (en) * 2001-06-29 2006-06-27 Hewlett-Packard Development Company, L.P. Automatic digital image enhancement
US7027619B2 (en) * 2001-09-13 2006-04-11 Honeywell International Inc. Near-infrared method and system for use in face detection

Also Published As

Publication number Publication date
NZ532315A (en) 2005-08-26
CN100418112C (zh) 2008-09-10
DE60209760D1 (de) 2006-05-04
DE60209760T2 (de) 2007-01-18
ATE320054T1 (de) 2006-03-15
US20090080715A1 (en) 2009-03-26
US20050063566A1 (en) 2005-03-24
EP1444667A1 (en) 2004-08-11
EP1667080A1 (en) 2006-06-07
PT1444667E (pt) 2006-07-31
CA2359269A1 (en) 2003-04-17
DK1444667T3 (da) 2006-07-17
CN1568489A (zh) 2005-01-19
HK1070167A1 (en) 2005-06-10
WO2003034361A1 (en) 2003-04-24
EP1444667B1 (en) 2006-03-08
JP2005505871A (ja) 2005-02-24

Similar Documents

Publication Publication Date Title
ES2260476T3 (es) Sistema de imagenes faciales para registro y confirmacion automatizad a de identidad.
ES2739036T3 (es) Cámara de análisis de vídeo de resolución dual sacádica
JP6461406B1 (ja) 車両検査セキュリティシステムにおける改善された顔検出および認識のための装置、システムおよび方法
US7806604B2 (en) Face detection and tracking in a wide field of view
US7574021B2 (en) Iris recognition for a secure facility
ES2647738T3 (es) Dispositivo, sistema y método para punto de control de entrada
US8433103B2 (en) Long distance multimodal biometric system and method
US10248194B2 (en) Methods and apparatus for retinal retroreflection imaging
US20130215228A1 (en) Method and apparatus for robustly collecting facial, ocular, and iris images using a single sensor
JP2002514098A (ja) 虹彩取得用イメージのための装置
JP2008523475A (ja) 目からの反射を用いる虹彩撮像
CN102551655A (zh) 3d凝视跟踪器
EP4033400A1 (en) System for acquiring iris image to enlarge iris recognition range
Boehnen et al. A multi-sample standoff multimodal biometric system
Wallhoff et al. Multimodal face detection, head orientation and eye gaze tracking
CA2463836A1 (en) Face imaging system for recordal and automated identity confirmation
AU2002331511B2 (en) Face imaging system for recordal and automated identity confirmation
JP3342810B2 (ja) 虹彩画像取得装置
AU2002331511A1 (en) Face imaging system for recordal and automated identity confirmation
KR102367118B1 (ko) 디스플레이 장치 및 그의 제어 방법
KR20210101928A (ko) 홍채인식범위 확장을 위한 홍채 영상 획득시스템
Boehnen et al. A standoff multimodal biometric system
CN112489078A (zh) 一种智能人像跟踪全景摄像头
KR20220163895A (ko) 다중카메라 연계추적을 위한 연계추적기능을 제공하는 영상감시시스템