ES2260476T3 - Sistema de imagenes faciales para registro y confirmacion automatizad a de identidad. - Google Patents
Sistema de imagenes faciales para registro y confirmacion automatizad a de identidad.Info
- Publication number
- ES2260476T3 ES2260476T3 ES02767029T ES02767029T ES2260476T3 ES 2260476 T3 ES2260476 T3 ES 2260476T3 ES 02767029 T ES02767029 T ES 02767029T ES 02767029 T ES02767029 T ES 02767029T ES 2260476 T3 ES2260476 T3 ES 2260476T3
- Authority
- ES
- Spain
- Prior art keywords
- facial
- face
- images
- data
- imaging system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/183—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
- H04N7/186—Video door telephones
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0059—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0059—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
- A61B5/0062—Arrangements for scanning
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/107—Measuring physical dimensions, e.g. size of the entire body or parts thereof
- A61B5/1077—Measuring of profiles
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/117—Identification of persons
- A61B5/1171—Identification of persons based on the shapes or appearances of their bodies or parts thereof
- A61B5/1176—Recognition of faces
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/98—Detection or correction of errors, e.g. by rescanning the pattern or by human intervention; Evaluation of the quality of the acquired patterns
- G06V10/993—Evaluation of the quality of the acquired pattern
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/166—Detection; Localisation; Normalisation using acquisition arrangements
-
- G—PHYSICS
- G07—CHECKING-DEVICES
- G07C—TIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
- G07C9/00—Individual registration on entry or exit
- G07C9/30—Individual registration on entry or exit not involving the use of a pass
- G07C9/32—Individual registration on entry or exit not involving the use of a pass in combination with an identity check
- G07C9/37—Individual registration on entry or exit not involving the use of a pass in combination with an identity check using biometric data, e.g. fingerprints, iris scans or voice recognition
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B13/00—Burglar, theft or intruder alarms
- G08B13/18—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
- G08B13/189—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
- G08B13/194—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
- G08B13/196—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
- G08B13/19602—Image analysis to detect motion of the intruder, e.g. by frame subtraction
- G08B13/19608—Tracking movement of a target, e.g. by detecting an object predefined as a target, using target direction and or velocity to predict its new position
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B13/00—Burglar, theft or intruder alarms
- G08B13/18—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
- G08B13/189—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
- G08B13/194—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
- G08B13/196—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
- G08B13/19617—Surveillance camera constructional details
- G08B13/1963—Arrangements allowing camera rotation to change view, e.g. pivoting camera, pan-tilt and zoom [PTZ]
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B13/00—Burglar, theft or intruder alarms
- G08B13/18—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
- G08B13/189—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
- G08B13/194—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
- G08B13/196—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
- G08B13/19678—User interface
- G08B13/19689—Remote control of cameras, e.g. remote orientation or image zooming control for a PTZ camera
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/181—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/107—Measuring physical dimensions, e.g. size of the entire body or parts thereof
Abstract
Un sistema de imágenes faciales para registro y/o confirmación automatizada de identidad de un objetivo dentro de un área de seguridad, comprendiendo dicho sistema de imágenes faciales: una unidad de cámara, que comprende: un controlador de unidad de cámara, una unidad de alcance para detectar la presencia del objetivo dentro del área de seguridad y para proporcionar datos de alcance respecto al objetivo a dicho controlador de la unidad de cámara; y una videocámara para capturar imágenes del objetivo y enviar dichas imágenes del objetivo a dicho controlador de la unidad de cámara; comprendiendo dicho controlador de la unidad de cámara: un sistema de detección de caras configurado para detectar una imagen facial dentro de dichas imágenes del objetivo; un sistema de captura de caras configurado para capturar dicha imagen facial cuando se determina que dicha imagen facial es de una calidad suficiente para el reconocimiento de caras.
Description
Sistema de imágenes faciales para registro y
confirmación automatizada de identidad.
Esta invención se refiere al campo del registro
de imágenes faciales y de la confirmación de identidad usando
imágenes faciales y en particular a los medios por los cuales se
pueden registrar las caras y se puede confirmar la identidad usando
imágenes faciales que se obtienen de manera automática (es decir,
sin intervención humana) en áreas de seguridad en las cuales no se
puede restringir el movimiento de la gente dentro de unos límites
definidos.
En un mundo en el que las posibilidades de
terrorismo constituyen una amenaza siempre creciente, existe
necesidad de revisar y registrar o identificar los individuos que
acceden a determinadas áreas restringidas tales como aeropuertos,
estadios deportivos, convenciones políticas, asambleas legislativas,
reuniones corporativas, etc. También existe necesidad de revisar y
registrar o identificar los individuos que acceden a un país a
través de sus diversos puertos de entrada. Una de las maneras de
identificar tales individuos es a través de la identificación
biométrica, usando técnicas de reconocimiento facial, las cuales
utilizan diversas medidas de los rasgos faciales únicos de una
persona como medio de identificación. Alguno de los problemas
asociados a usar el reconocimiento facial como un medio para
revisar e identificar rápidamente los individuos que intentan
acceder a un área de seguridad son la lentitud de la adquisición de
imágenes, la mala calidad de las imágenes adquiridas, y la necesidad
de la operación humana de tales sistemas.
Los intentos por resolver estos problemas en el
pasado han empleado una videocámara única de alta resolución, la
cual se usa para monitorizar un área de seguridad que conduce a una
entrada. Típicamente, se emplea en la cámara una lente de alcance
focal fija. Se usa un software para analizar la imagen de vídeo a
fin de detectar y rastrear las imágenes faciales de los objetivos
que entran en el área de seguridad. Estas imágenes son capturadas,
registradas y enviadas al software de reconocimiento y comparación
facial en un intento por identificar los individuos y verificar su
derecho a acceder al área. Uno de los principales problemas de tales
sistemas es que los datos de vídeo son de baja resolución y con
demasiado "ruido" para proporcionar consistentemente buenos
resultados. Los sistemas de este tipo trabajan razonablemente bien
sólo cuando el área de seguridad es pequeña y las distancias entre
objetivos que entran en el área de seguridad y la cámara de
monitorización son relativamente constantes. La ampliación del área
de seguridad y/o el intento de adaptarse a objetivos a distancias
variables respecto a la cámara da lugar a que algunos objetivos
tengan una resolución demasiado pequeña en la imagen de vídeo para
ser analizados adecuadamente en cuanto a un reconocimiento preciso
de la cara. La principal desventaja de tales sistemas, por tanto,
es que funcionan ventajosamente sólo sobre un intervalo angular y de
profundidad muy estrecho. La calidad de la imagen capturada y por
tanto el éxito del reconocimiento facial en base a esas imágenes es
inconsistente.
Otros sistemas existentes usan dos cámaras, una
cámara estacionaria de campo de visión amplio, y una segunda cámara
dirigible de campo de visión estrecho a apuntar por medio de
funciones de giro horizontal, inclinación y zoom, a las caras
identificadas por la primera cámara con fines de capturar una imagen
facial y enviarla a distancia para reconocimiento y comparación de
la cara en una base de datos. En este método, la segunda cámara es
capaz de obtener las imágenes de alta resolución necesarias para un
reconocimiento preciso de la cara. La principal desventaja de estos
sistemas es que, conforme aumenta el alcance de la primera cámara,
se hace más difícil reconocer que un objetivo dentro del campo de
visión contiene una cara. En segundo lugar, las funciones
motorizadas de giro horizontal, inclinación y zoom de la segunda
cámara son relativamente lentas. Como resultado, el sistema sólo es
capaz de rastrear una persona a la vez.
El documento EEUU 6.122.455 describe una cámara
asociada a un dispositivo separado de detección de alcance.
Otra solución es usar cámaras con giro
horizontal, inclinación y zoom motorizados, controladas a distancia
por un operador humano para monitorizar un área de seguridad. Los
sistemas de seguridad de este tipo se emplean rutinariamente para
monitorizar grandes áreas o edificios. Se puede usar una multitud de
cámaras y normalmente cada una funciona en el modo de gran ángulo.
Cuando el operador observa algo de interés, lo puede ampliar con el
zoom usando los controles motorizados y obtener una imagen de la
cara de una persona para fines de reconocimiento facial. La
desventaja de tales sistemas es que requieren la presencia de un
operador para detectar y decidir cuando obtener las imágenes
faciales. Un sistema de este tipo es típicamente tan lento que no se
puede rastrear más de una persona a la vez.
Otra solución todavía es requerir a las personas
que buscan entrar en un área de seguridad que pasen en una fila
única, a un paso restringido, en gran medida como si pasaran a
través de un detector de metales en un aeropuerto. Se coloca una
cámara única de foco fijo a una distancia establecida para capturar
todas las imágenes de las caras de las personas para la comparación
de caras y reconocimiento facial. Un sistema de este tipo
restringiría severamente el flujo de personas al área segura, y en
muchos casos, como en los estadios deportivos, sería totalmente
imposible de llevar a la práctica. Además, el sistema requeriría
todavía un operador para asegurarse de que la cámara está apuntada
directamente a la cara de la persona, y no incluye medios algunos
para asegurarse de obtener una pose
adecuada.
adecuada.
A partir de lo anterior, está claro que existe
necesidad de un sistema automatizado de imágenes faciales que supere
las desventajas de la técnica anterior proporcionando la capacidad
de capturar y registrar rápidamente imágenes faciales de alta
calidad de las personas que entran en un área de seguridad y
opcionalmente de hacer disponibles esas imágenes para comparación
facial e identificación. Sería ventajoso si un sistema de este tipo
incluyera un sistema automatizado, de gran precisión, rápido para la
detección de caras y el rastreo de caras a fin de facilitar la
captura de imágenes faciales con fines de registro y/o de
comparación de caras y de reconocimiento de caras.
Un objeto de un aspecto de la presente invención
es superar los inconvenientes anteriores proporcionando un sistema
de imágenes faciales para detectar rápidamente imágenes faciales de
personas objetivo dentro de un área de seguridad y capturar imágenes
de alta calidad de esas caras para registro y/o para su uso en
sistemas de reconocimiento facial con fines de verificación de
caras, reconocimiento de caras, y comparación de caras.
Un objeto de otro aspecto de la invención es
proporcionar un sistema de imágenes faciales que pueda suministrar
imágenes faciales de suficiente tamaño y resolución, de acuerdo con
los requisitos de los sistemas conocidos de reconocimiento de caras
y comparación de caras para permitir a esos sistemas funcionar a
eficiencia pico y proporcionar consistentemente buenos resultados
para la identificación y comparación de caras.
Un objeto de otro aspecto todavía de la
invención es proporcionar un sistema de imágenes faciales que
utilice los datos de alcance de una unidad de alcance u otro
dispositivo y los datos de imágenes de vídeo para asistir en la
detección de imágenes faciales y en el rastreo de imágenes
faciales.
Un objeto de otro aspecto todavía de la
invención es proporcionar un sistema de imágenes faciales que
utiliza un registro histórico de datos de alcance de una unidad de
alcance u otro dispositivo para asistir en la detección de imágenes
faciales y en el rastreo de imágenes faciales.
Según un aspecto de la presente invención se
proporciona un sistema de imágenes faciales para registro y/o
confirmación automatizada de la identidad de un objetivo dentro de
un área de seguridad, comprendiendo el sistema de imágenes faciales:
una unidad de cámara, que comprende: un controlador de unidad de
cámara, una unidad de alcance para detectar la presencia del
objetivo dentro del área de seguridad y para proporcionar datos de
alcance respecto al objetivo al controlador de la unidad de cámara y
una videocámara para capturar imágenes del objetivo y enviar las
imágenes del objetivo al controlador de la unidad de cámara,
comprendiendo el controlador de la unidad de cámara: un sistema de
detección de cara configurado para detectar una imagen facial
dentro de las imágenes del objetivo; un sistema de captura de cara
configurado para capturar la imagen facial cuando se determina que
la imagen facial es de suficiente calidad para el reconocimiento
facial.
La videocámara, a su vez, puede ser accionada,
bien total o bien parcialmente, para efectuar el rastreo de un
objetivo, por ejemplo, por giro horizontal, inclinación y enfoque. O
bien la videocámara puede visionar la escena a través de unos medios
de reflector accionados, por ejemplo un espejo, que puede variar
rápidamente el campo de visión. El apuntamiento de la cámara puede
ser asistido también, al menos inicialmente, por datos de alcance
proporcionados por un detector de presencia.
La velocidad de captura de imágenes a lo largo
del tiempo se basa en el tiempo consumido en cada una de las etapas
específicas de la detección de imágenes, rastreo de imágenes y,
finalmente, captura de imágenes. La decisión para efectuar la
captura de imágenes se basa en la presencia de una imagen que
satisfaga un umbral de calidad predeterminado. Una vez ha tenido
lugar la captura de la imagen, se libera el sistema para que repita
el ciclo. Un objeto de la invención es reducir al mínimo el tiempo
del ciclo.
En las realizaciones preferidas, el sistema de
imágenes faciales descrito aquí usa una videocámara dirigible de
alta resolución y un localizador de alcance de alta resolución
basado en láser. El localizador de alcance barre el área de
seguridad monitorizada, típicamente con un campo de visión de 45
grados, aproximadamente cada 100 milisegundos y anota los
emplazamientos angulares, distancias y anchuras de todos los
objetivos potenciales situados en el mismo. La profundidad del área
de seguridad monitorizada es típicamente de 15 metros, pero puede
ser modificada para acomodarse a la instalación determinada. Los
emplazamientos angulares, distancias y anchuras de los objetivos
potenciales situados dentro del área de seguridad monitorizada son
presentados a un ordenador de controlador de la unidad de cámara que
procesa los datos y envía órdenes de apuntar la videocámara a los
objetivos de interés. Las órdenes corresponden a las funciones de
giro horizontal, inclinación y zoom de la videocámara. En base a el
alcance al objetivo, se activa la función de zoom de la videocámara
al grado requerido para obtener una imagen de vídeo de una cara
humana media que llene al menos un 20% del área de imagen. Un
software de detección facial, asistido por los datos de alcance que
especifican el alcance, el emplazamiento angular y la anchura de un
objetivo potencial, se usa para analizar la imagen y determinar si
contiene una cara humana. Si se detecta una cara, se calculan las
coordenadas de los rasgos principales de la cara y se usan por la
videocámara para ampliar con el zoom la cara de manera que ocupe la
casi totalidad del campo de visión de la videocámara. Estas
coordenadas, con referencia a los datos de alcance y a la imagen de
video, son actualizados constantemente y se pueden utilizar también
para facilitar el rastreo de la cara objetivo conforme se mueve. Una
vez se ha determinado que la calidad de la cara es suficiente, según
unos criterios predeterminados basados en los sistemas de
reconocimiento facial usados, las imágenes faciales son capturadas y
registradas y/o puestas a disposición del software de reconocimiento
facial para la identificación biométrica y la identificación y
comparación con bases externas de datos.
La videocámara usada en la presente invención es
de un diseño único que permite una operación precisa de apuntamiento
a alta velocidad. La capacidad de la presente invención para apuntar
rápidamente la videocámara permite el rastreo de muchas personas
dentro del área de seguridad a la vez de un modo auténticamente
multiplexado. La videocámara es capaz de apuntar rápidamente de una
persona a otra y retroceder nuevamente. A diferencia de otras
videocámaras con giro horizontal, inclinación y zoom motorizados, la
videocámara de la presente invención no se mueve en una plataforma
para realizar la operación de giro horizontal. En su lugar, se monta
un espejo de peso liviano directamente sobre un motor lineal de
bobina móvil y se usa para dirigir una imagen de un segmento del
área de seguridad a la videocámara. Moviendo el espejo, se puede
hacer girar horizontalmente el campo de visión de la videocámara con
rapidez a través del área de seguridad en un tiempo muy breve, del
orden de decenas de milisegundos, permitiendo que el sistema
funcione de un modo auténticamente multiplexado. La inclinación se
realiza todavía moviendo la propia videocámara, pero en las
distancias normales de funcionamiento, los ángulos sobre los cuales
debe ser inclinada la videocámara para adquirir una imagen facial
son pequeños y se puede ajustar a ellos con facilidad mediante los
mecanismos de inclinación existentes. El funcionamiento del zoom se
logra también de manera normal moviendo los elementos de lente de la
videocámara.
El sistema de la invención puede incorporar una
lógica de análisis de imágenes que está o "abordo", en el
emplazamiento de la unidad de cámara, o en un emplazamiento remoto.
Así, el sistema de cámara puede ser programado para obtener imágenes
adicionales de individuos especiales. Se puede usar los datos de
rastreo de caras de la imagen de vídeo para mejorar las prestaciones
de las operaciones de lógica de reconocimiento de caras. Se pueden
combinar los datos de imagen con los datos de un detector de
presencia para asegurarse de una confirmación de identidad y/o
permitir que el sistema mantenga una norma de consistencia
preestablecida.
Los beneficios del enfoque aquí descrito son
muchos. Se eliminan los daños a la videocámara puesto que ya no
tiene que ser movida rápidamente hacia atrás y hacia delante para
girar horizontalmente a través del área de seguridad. También se
eliminan los problemas de cables asociados. No se requiere un motor
de giro horizontal poderoso ni engranajes asociados para efectuar el
movimiento rápido de la videocámara, y se eliminan los problemas de
juego entre dientes. El uso de los datos de alcance del objetivo
junto con los datos de vídeo del objetivo permite que el sistema
detecte con mayor precisión y rastree las caras en el área de
seguridad y permite el rastreo de múltiples caras de objetivo. Los
datos de vídeo y distancia del objetivo se usan de modo
complementario para eliminar la ambigüedad inherente a la detección
y al rastreo de caras cuando sólo se dispone de una fuente de datos.
Los algoritmos actuales de software de reconocimiento facial sufren
cuando las imágenes de entrada se han tomado con una pose pobre, una
iluminación pobre, o una recogida pobre. El uso de datos de
distancia de objetivo conjuntamente con los datos de vídeo de
objetivo permite una selección más precisa de imágenes correctamente
centradas, con buena iluminación y una sincronización correcta de la
captura de imagen para asegurarse de la pose correcta. La calidad
mejorada de imagen mejora significativamente las prestaciones de
reconocimiento de caras.
Resultarán obvios los objetos adicionales y
ventajas de la presente invención a partir de la descripción
siguiente y de los dibujos anexos, donde se describen y muestran
claramente las realizaciones preferidas de la invención.
Se entenderá mejor la presente invención a
partir de la descripción siguiente haciendo referencia a los
dibujos, en los cuales:
La Figura 1 es una vista en planta desde arriba
hacia abajo de la presente invención instalada dentro de un área de
seguridad.
La Figura 2 es una vista en alzado lateral de
una posible posición de instalación de la videocámara, sistema de
espejo giratorio y unidad de alcance de la presente invención dentro
de un área de seguridad.
La Figura 3 es un diagrama de bloques de la
unidad de cámara de la presente invención mostrada en la Figura
1.
La Figura 4 es un diagrama de bloques que
muestra la arquitectura de la red de la presente invención
incluyendo múltiples unidades de cámara y un controlador
externo.
Haciendo referencia a las Figuras 1 y 2, se
muestra un sistema 10 automatizado de confirmación de identidad para
monitorizar objetivos 1 y obtener imágenes de caras 2 de objetivos
que entran en un área de seguridad 4. Como también se muestra en el
diagrama de bloques de arquitectura de la Figura 4, el sistema 10
automatizado de confirmación de identidad comprende una o más
unidades de cámara 20 y un controlador externo 50. Las unidades de
cámara 20 incluyen una videocámara 21, un sistema de espejo
rotatorio 25, una unidad de alcance 30, y un controlador 40 de
unidad de cámara.
Se entenderá a través de esta exposición que el
área de seguridad 4 es un espacio tridimensional. La dirección
vertical se mide desde la parte inferior a la parte superior del
área de seguridad de la manera normal, mientras que desde el punto
de vista de la unidad de cámara 20, la dirección horizontal se mide
de un lado a otro, y la profundidad se mide desde la unidad de
cámara 20 hacia fuera, también de la manera normal. Así, para una
persona que esté de pie dentro del área de seguridad 4 y de cara a
la unidad de cámara 20, la dirección vertical se extiende desde los
pies de la persona a la cabeza de la persona, la dirección
horizontal se extiende desde el lado izquierdo de la persona al
derecho, y la profundidad se extiende desde la parte delantera de
la persona hasta la trasera.
La unidad de cámara 20 incluye una videocámara
21 normal del tipo frecuentemente usado en los sistemas de visión de
máquina. Aunque existe cierto número de modelos de cámara,
fabricados por diferentes compañías, que serían adecuados, en el
caso concreto aquí descrito, el solicitante ha usado una videocámara
de color fabricada por Sony® modelo EVI-400. Esta
cámara tiene capacidad de zoom, control automático de exposición y
enfoque automático. La videocámara 21 incluye una salida de vídeo
para enviar señales de vídeo al controlador 40 de la unidad de
cámara y una interfaz de serie entrada/salida (I/O) para conectar al
controlador 40 de la unidad de cámara a fin de controlar y
monitorizar las diversas funciones de la cámara tales como el zoom,
el enfoque y la exposición. Para prolongar el alcance sobre la cual
funciona la videocámara 21, se ha añadido una lente
teleconvertidora 23 a fin de permitir la captura de una imagen de
una cara humana 2 a una distancia máxima de tal manera que la cara
llene la totalidad de la imagen de vídeo. En el presente caso, se ha
establecido arbitrariamente el alcance máximo en 15 metros, sin
embargo, aumentando la sensibilidad de la unidad de alcance 30 y
ampliando la distancia focal de la lente 23, se puede prolongar el
alcance máximo. La unidad de cámara 20 incluye un motor 24 de
inclinación, y la electrónica de accionamiento del motor, para
inclinar la videocámara 21 hacia arriba y hacia abajo a fin de que
barra en la dirección vertical. El grado hasta el cual se tiene que
inclinar la videocámara 21 en la dirección vertical es pequeño,
puesto que sólo es necesario para compensar las diferencias en la
altura vertical de la cara de las personas a partir de un punto de
referencia común, el cual es normalmente la altura media del ojo
humano.
Como se observó anteriormente, la unidad de
cámara 20 incluye capacidades de enfoque, inclinación y zoom, que
permiten un movimiento rápido de la videocámara 21 para adquirir
imágenes faciales de alta calidad del objetivo 1. Estas
características son controladas por señales del controlador 40 de
la unidad de cámara a través de la interfaz de serie. El enfoque
sobre un objetivo particular seleccionado por la unidad de alcance
30 es automático y requiere simplemente que la videocámara 21 apunte
a un objetivo. El zoom es controlado hasta un ajuste en que
permitirá inicialmente que el campo de visión de la videocámara 21
sea sustancialmente mayor que lo que representaría una cara humana
media a la distancia del objetivo. Típicamente, se ajusta el zoom
de manera que la cara humana media llene el 20% del campo de visión.
Se afina el zoom con señales adicionales del controlador 40 de
unidad de cámara en base a los datos de la unidad de alcance 30 y de
la videocámara 21. En la presente disposición, la función de
inclinación es proporcionada por el motor externo 24 de inclinación
montado a la videocámara 21, pero en otras configuraciones puede
estar incorporado como parte de la videocámara 21. La cuantía de la
inclinación requerida para obtener una alta calidad de imagen facial
de un objetivo 1 se basa en los datos de la unidad de alcance 30 y
de la videocámara 21 y es controlada por señales del controlador 40
de la unidad de cámara. Los datos de alcance son importantes, puesto
que la distancia del objetivo ayuda a determinar la cuantía de
inclinación
requerida.
requerida.
En los casos en los que el campo de visión de la
videocámara 21 es rectangular, que tiene una dimensión mayor que la
otra, el solicitante ha encontrado ventajoso orientar la videocámara
de manera que la mayor dimensión del campo de visión sea paralela a
la dirección vertical del área de seguridad 4, aumentando de esta
manera la captura de objetivos verticales, tales como personas,
dentro del área de seguridad 4. Aumentando el área de captura para
objetivos verticales, el solicitante reduce la cuantía de la
inclinación de la videocámara requerida para obtener una imagen
facial de alta calidad del objetivo.
La unidad de cámara 20 incluye un sistema 25 de
espejo situado directamente delante de la videocámara 21, como se
muestra en la Figura 1. El sistema 25 de espejo rotativo incluye un
espejo 26 de peso liviano montado directamente en un eje 27 de motor
vertical de un motor lineal 28. El motor lineal 28 es del tipo de
los usados en el disco duro de los ordenadores, e incluye
accionadores servo electrónicos suficientes para hacer girar el
espejo rotativo 26 rápidamente y con precisión a la posición de que
se pretende. También se incluye un sistema de retroalimentación de
posición normal, montado directamente en el eje 27, que comprende la
circuitería que lee la posición exacta del espejo 26 y da como
salida una señal de retroalimentación de posición a los accionadores
servo. Haciendo coincidir la señal de retroalimentación de posición
con una señal de mando recibida del controlador 40 de la unidad de
cámara, que representa la posición que se pretende del espejo 26, el
motor 26 puede accionar el espejo 26 para apuntar directamente al
emplazamiento que se pretende.
En la disposición de las Figuras 1 y 2, la
unidad de alcance 30 determina la distancia (profundidad), la
posición angular y anchura del objetivo 1 dentro del área de
seguridad 4 y proporciona esas coordenadas al controlador 40 de la
unidad de cámara. El controlador 40 de la unidad de cámara envía una
señal de mando de espejo al sistema 25 de espejo, para hacer que el
motor lineal 28 haga girar el espejo 26 al emplazamiento adecuado,
proporcionando de esta manera una característica de giro horizontal
para la unidad de cámara 20. La imagen del objetivo 1 incidente en
el espejo 26 es dirigida a la videocámara 21 para captura de imagen.
Girando rápidamente el espejo 21, se puede hacer girar
horizontalmente la videocámara 21 a través de toda la extensión
horizontal del área de seguridad 4 en una fracción del tiempo que le
costaría a una videocámara normal, con una característica de giro
horizontal accionado por motor, cumplir la misma tarea. El tiempo de
respuesta es tal que el giro horizontal desde cualquier objetivo
dentro del área de seguridad 4 a cualquier otro objetivo dentro del
área de seguridad 4 se puede cumplir en menos de 100 milisegundos.
Se puede lograr una precisión de giro horizontal dentro de una
décima de grado.
El sistema 25 de espejo puede incluir un freno
de espejo (no representado), el cual mantiene y enclava el espejo 26
en su sitio una vez se ha adquirido el objetivo 1 deseado. El freno
de espejo impide las vibraciones del espejo 26, con lo cual se
mejora la estabilidad de la imagen, y por tanto se mejora la calidad
de la imagen. En una realización preferida, el freno de espejo es un
electroimán situado sobre el eje 27.
Se podría adaptar el sistema 25 de espejo para
incluir un segundo grado de libertad de rotación para proporcionar
también a la videocámara 21 una característica de inclinación
vertical, reemplazando la característica de inclinación
proporcionada por el motor 24 de inclinación exterior. En la
variante, se proporciona un segundo sistema de espejo rotativo que
incluiría un segundo espejo, rotativo sobre un eje colocado a 90
grados con respecto al eje de rotación del espejo 26. En
combinación, los dos sistemas de espejos rotativos proporcionarían a
la videocámara 21 características tanto de inclinación vertical como
de giro horizontal.
Haciendo referencia a la Figura 3, se conecta un
control 39 de cámara/sistema de espejo a la videocámara 21 y al
sistema 25 de espejo rotativo y comprende componentes de hardware y
software para recibir las órdenes de control de la cámara y el
sistema de espejo procedentes del controlador 40 de la unidad de
cámara y para controlar las diversas funciones de la videocámara 21
y del sistema de espejo 25. Estas funciones incluyen exposición,
zoom, enfoque, inclinación, giro horizontal (rotación del espejo),
encendido/apagado, velocidad de cuadro de la videocámara, brillo y
contraste. El control 39 de la cámara/sistema de espejo es también
responsable de leer hacia atrás el estado de las diversas funciones
de la videocámara 21 y del sistema 25 de espejo e informar de las
mismas al controlador 40 de la unidad de cámara
Haciendo referencia a las Figuras
1-4, la unidad de cámara 20 incluye una unidad de
alcance 30 para localizar los objetivos 1 dentro del área de
seguridad 4. En un aspecto de la invención, la unidad 30 de alcance
es de un diseño común bien conocido, que usa un dispositivo de
medición de la distancia basado en diodo de láser que opera
conjuntamente con un espejo de alcance rotativo y un sistema de
recepción de lente de alcance para barrer el área de seguridad 4. Se
usa un principio de tiempo de vuelo para calcular la distancia al
objetivo 1. En la presente configuración, el diodo de láser envía
impulso, con un periodo del orden de 10 nanosegundos, una vez cada
¼ grado de rotación del espejo de alcance. El haz de láser es
reflejado por el espejo rotativo de alcance en el área de seguridad
4 y se mide cualquier impulso de retorno reflejado por el objetivo 1
por el sistema receptor de la lente de alcance. Conociendo el valor
constante de la velocidad de la luz y el intervalo de tiempo entre
la emisión del impulso de láser y la reflexión de retorno, se puede
calcular la distancia al objetivo 1. La unidad de alcance 30
registra la distancia (profundidad), la posición angular y la
anchura del objetivo detectado dentro del área 4 y envía esta
información al controlador 40 de la unidad de cámara. Debido a que
la unidad de alcance 30 es capaz de registrar los datos de alcance
por cada ¼ grado, los datos de alcance pueden proporcionar un perfil
de objetivo que se puede analizar para determinar si coincide con el
perfil de una persona (relativamente suave). Se puede realizar un
barrido completo del área de seguridad 4 durante cada rotación del
espejo de alcance, lo cual ocurre cada 100 milisegundos, permitiendo
así una detección extremadamente rápida y la localización de los
objetivos en la misma. La velocidad de barrido del área 4 se
denomina velocidad secuencial de la unidad de alcance y puede ser
variada según los requisitos de la instalación o el modo de
funcionamiento.
La unidad de alcance 30 está situada
generalmente debajo de la videocámara 21 a un nivel igual a la
altura media del pecho de una persona. La videocámara 21 está
situada generalmente al nivel medio de los ojos de una persona. Sin
embargo, son posibles otras disposiciones para la unidad de alcance
30 y la videocámara 21 dependiendo de la instalación concreta.
Se entenderá por el lector, que se podrían usar
otras configuraciones para la unidad de alcance 30 en la presente
invención. Por ejemplo, se podría emplear un sistema de alcance
basado en sonar, o uno basado en radar de alta frecuencia o en
paralaje binocular diferencial.
La unidad de alcance 30 incluye un control 41 de
la unidad de alcance que comprende componentes de hardware y
software para gestionar las diversas funciones de la unidad de
alcance 30, incluyendo mantener la velocidad de rotación del espejo
de alcance dentro de los parámetros previsibles, regular los modos
de ahorro de potencia del diodo de láser, incluyendo un modo
"dormir" en el cual se reduce la velocidad de impulsos en los
tiempos "muertos" cuando no existe actividad en el área de
seguridad, aceptar las funciones de control del controlador 40 de la
unidad de cámara, y enviar información de estado concerniente a la
unidad de alcance 30 al controlador 40 de la unidad de cámara a
solicitud. El control 41 de la unidad de alcance preprocesa los
datos de alcance realizando diversas funciones que incluyen
funciones de filtración de ruidos para eliminar los datos dispersos
que comprenden puntos de barrido únicos no relacionados, promediar
los movimientos y promediar los barridos sobre líneas múltiples de
barrido para suavizar los datos de alcance, cálculos de conjuntos de
muestras para determinar si los objetos detectados representan
objetivos de interés que tienen la anchura necesaria a una
distancia dada, extraer la información de coordenadas procedente de
los objetivos de interés en forma de ángulo, radio (distancia) y
anchura, y construir un perfil en forma de vector de los datos de
alcance de cada objetivo. El hardware 41 de control de la unidad de
alcance envía bien los datos de alcance en bruto o bien el perfil
preprocesado de datos de alcance en forma de vector al controlador
40 de la unidad de cámara para su posterior procesamiento. Los datos
de alcance en forma de vector se envían en el formato n(a1,
r1, w1)(a2, r2, w2)..., donde n representa el número de objetivos en
el área de seguridad barrida, ax representa el emplazamiento
angular del objetivo número x dentro del área de seguridad, rx
representa el radio (distancia) al objetivo x, y wx representa la
anchura del objetivo x. Los datos de alcance se envían al
controlador 40 de la unidad de cámara a solicitud desde el control
41 de la unidad de alcance o de modo continuo a una velocidad de
refrescamiento seleccionable (programable).
La unidad de cámara 20 incluye también un
controlador 40 de la unidad de cámara como se muestra con mayor
detalle en el diagrama de bloques de la Figura 3. El controlador 40
de la unidad de cámara incluye todo el hardware y software para
proporcionar una interfaz entre de la videocámara 21, la unidad de
alcance 30, el sistema 25 de espejo rotativo, y el controlador
externo 50. La finalidad del controlador 40 de la unidad de cámara
es controlar la detección, rastreo y captura de imágenes de vídeo de
alta calidad de caras 2 de objetivos 1 de interés dentro del área de
seguridad 4. Esto se logra procesando los datos de entrada de la
unidad de alcance 30 y de la videocámara 21 y usando estos datos
para calcular las señales adecuadas de orden de apuntamiento para
ser devueltas a la videocámara 21 y al sistema 25 de espejo
rotativo. Esto se describe con mayor detalle a continuación, cuando
se trata de los diversos componentes del controlador 40 de la unidad
de cámara. El controlador 40 de la unidad de cámara tiene interfaz
también con el controlador externo 50 para recibir las órdenes
externas de control y enviar las imágenes de vídeo capturadas. Las
órdenes externas de control se usan tanto para configurar los
componentes de las unidades de cámara 20 como para modificar su
comportamiento, por ejemplo, para centrarse en un objetivo concreto
dentro del área de seguridad y rastrearlo.
El controlador 40 de la unidad de cámara incluye
un hardware que comprende un ordenador con CPU, RAM, y
almacenamiento, con conexiones de interfaz para entrada de vídeo,
interfaces de serie e I/O de alta velocidad, e interfaz Ethernet. La
salida de la videocámara 21 es recibida en la entrada de vídeo. La
salida de la videocámara 21 es recibida en la entrada de vídeo. La
salida de la unidad de alcance 30 y las señales de control a la
misma se reciben en uno de los puertos de serie. Las señales de
control de la videocámara 21 y del sistema 25 de espejo rotativo se
envían en uno de los otros puertos de serie. La interfaz de red se
usa para conectar con el controlador externo 50. También son
posibles otras configuraciones de hardware para el controlador 40 de
la unidad de cámara, por ejemplo, se podría usar CPU múltiples de
baja potencia en vez de una CPU única de alta potencia, la entrada
de vídeo de la videocámara 21 podría ser una entrada digital directa
o la interfaz al controlador externo 50 podrá ser una de serie de
alta velocidad o de red inalámbrica, en vez de Ethernet.
El controlador 40 de la unidad de cámara incluye
un software del controlador de la unidad de cámara que incluye un
sistema operativo multitarea capaz de red de modem a fin de
controlar el funcionamiento y programación de los múltiples
componentes independientes del software de intercomunicación. Los
componentes del software del controlador de la unidad de cámara
incluyen: procesamiento 43 de los datos de la videocámara;
procesamiento 44 de los datos de la unidad de alcance; control 45 de
cámara/unidad de alcance; detección 46 de caras; rastreo 47 de
caras; captura 48 de imágenes faciales; control 49 del sistema del
controlador de la unidad de cámara y comunicaciones 60 del
controlador de la unidad de cámara.
Las tramas de vídeo que llegan de la videocámara
21 son digitalizadas de manera asíncrona en un panel de hardware de
captura de vídeo. Se presenta estos datos al procesamiento 43 de
datos de la videocámara, el cual comprende un software para realizar
las operaciones básicas de procesamiento de imágenes a fin de
normalizar, poner en escala y corregir los datos de entrada. Las
correcciones en cuanto a color y geometría de imagen se hacen en
base a los datos normales de calibración. Se realiza la mejora de
imagen y el filtrado de ruido, y se los datos de la imagen de vídeo
procesados se ponen a disposición del control 49 del sistema del
controlador de la unidad de cámara, donde se usan para realizar un
número de funciones que incluyen la detección de caras, el rastreo
de caras, o la captura de imágenes faciales (véase a
continuación).
Los datos de alcance llegan al controlador 40 de
la unidad de cámara desde la unidad de alcance 30 bien continuamente
o bien en respuesta a una solicitud del controlador 40 de la unidad
de cámara. Los datos de alcance toman la forma de una tabla de
valores de distancia (profundidad o radio), ángulo y anchura. Los
datos de alcance son procesados por el procesamiento 44 de datos de
la unidad de alcance, el cual comprende un software para determinar
la posición y el emplazamiento de los objetivos 1 dentro del área 4
de seguridad. Se usan métodos heurísticos para restar el fondo y
eliminar el "ruido" de pequeño diámetro dejando sólo los
objetos mayores o de tamaño similar al de los objetivos pretendidos,
que son las personas. Estos elementos heurísticos son módulos de
software inteligente que usan la probabilidad y el análisis
estadístico de los datos para determinar las características de los
objetos dentro del área de seguridad. Por ejemplo, si se detectó un
objeto en un barrido solo de la unidad de alcance 30 y no en los
barridos previos o subsiguientes, se puede suponer con seguridad que
ha ocurrido un acontecimiento espurio que puede ser ignorado.
Similarmente, se puede establecer límites sobre la velocidad de los
objetos que se desplazan en el área de seguridad. Si se mueve un
objeto cinco metros entre barridos se puede suponer con seguridad
que el objeto no es una persona. Adicionalmente, se usan los datos
de calibración tomados cuando el área de seguridad 4 está totalmente
vacía para separar los objetivos potenciales de los objetos fijos en
el área de seguridad, tales como los postes de soporte y análogos
(eliminación del fondo).
Los datos de alcance procesados se ponen a
disposición del control 49 del sistema del controlador de la unidad
de cámara donde se usan para asistir en la detección de caras y en
el rastreo de caras. El procesamiento 44 de los datos de la unidad
de alcance mantiene una memoria intermedia de historia de los datos
de alcance previos para cada objetivo 1 dentro del área de seguridad
4 durante un intervalo de tiempo predeterminado. La memoria
intermedia de historia se usa por la detección 46 de caras y por el
rastreo 47 de caras para asistir en la detección de caras y en el
rastreo de caras. Por ejemplo, un único objeto grande puede ser una
persona grande o pueden ser dos personas que están de pie muy
juntas. Si las caras de las dos personas están muy juntas, puede
ser difícil distinguir entre las dos situaciones. Sin embargo,
usando los datos de la memoria intermedia de historia, es posible
determinar que dos personas únicas más pequeñas fueron previamente
objetivos separados y se han movido juntándose. Así se pueden
aclarar los datos ambiguos recibidos de la unidad de alcance 30 y de
la videocámara 26.
El control 45 de cámara/unidad de alcance
comprende el software para gestionar todas las señales enviadas a
través de los puertos I/O de serie del controlador de la unidad de
cámara a la videocámara 21, la unidad de alcance 30 y el sistema 25
de espejo rotativo. Estas órdenes de control van al control 41 de la
unidad de alcance y al control 39 de la cámara/ sistema de espejo, y
se basan en la entrada recibida del control 49 del sistema de
controlador de la unidad de cámara. Se determinan los cambios de
posición del objetivo, en base a los cambios en los datos de alcance
de la unidad de alcance 30 y en los cambios en la forma geométrica
de la imagen de vídeo del objetivo de la videocámara 21 por el
control 49 del sistema de controlador de la unidad de cámara. Las
órdenes de control para controlar el encendido/apagado de la
videocámara; el enfoque de la videocámara; la inclinación de la
videocámara; la rotación del espejo (giro horizontal); el zoom de la
videocámara; la velocidad de cuadro de la vídeo cámara; el brillo y
el contraste de la videocámara; el encendido/apagado de la unidad de
alcance; y la velocidad de cuadro de la unidad de alcance son
enviados a través del control 45 de la cámara/unidad de alcance para
facilitar tanto la detección de caras como el rastreo de caras. La
finalidad de las señales de órdenes es asegurarse de que el objetivo
ha sido adecuadamente rastreado y que se obtiene una imagen de vídeo
de alta calidad de la cara del objetivo para fines de reconocimiento
de caras. Adicionalmente, el control 45 de la cámara/unidad de
alcance gestiona la sincronización adecuada de las órdenes enviadas,
se asegura de la entrega fiable y de la ejecución de esas órdenes,
alerta a la control 49 del sistema del controlador de la unidad de
cámara de cualquier problema con esas órdenes u otras situaciones
problemáticas que pudieran surgir dentro de la videocámara 21, la
unidad de alcance 30 o el sistema rotativo 25 de espejo. Por
ejemplo, si el sistema rotativo 25 de espejo no está respondiendo a
las órdenes de control, se supondrá que el motor 28 está roto o que
el espejo 26 está pegado y se enviará una alarma para señalar que se
necesita mantenimiento.
La detección 46 de caras comprende un software
para detectar las imágenes de caras dentro de la imagen de vídeo que
llega de la videocámara 21. Inicialmente, la detección 46 de caras
usa la imagen de vídeo de toda la entrada para la finalidad de
detección de caras. Se usa cierto número de estrategias algorítmicas
de software conocidas diferentes para procesar los datos de entrada
y se emplean métodos heurísticos para combinar estos datos de una
manera que reduzca al mínimo la ambigüedad inherente al proceso de
detección de caras. La ambigüedad puede resultar de factores tales
como: variaciones de la imagen debidas a las variaciones en la
expresión de la cara (no rigidez) y diferencias de textura entre las
imágenes de la cara de las mismas personas; características
cosméticas tales como gafas o un bigote; y condiciones impredecibles
de imagen en un ambiente no limitado, tal como la iluminación.
Debido a que las caras son tridimensionales, cualquier cambio en la
distribución de la luz puede dar lugar a cambios de sombras
significativos, los cuales se trasladan a una variabilidad aumentada
de la imagen facial bidimensional. Los elementos heurísticos
empleados por la detección 46 de caras comprenden un conjunto de
reglas estructuradas para determinar que algoritmos de software son
más fiables en determinadas situaciones. Por ejemplo, en
condiciones de iluminación ideales, los algoritmos de color y forma
de volumen de cara proporcionarán la precisión deseada a gran
velocidad. Los datos de alcance de la unidad de alcance 30 se añaden
para estrechar la búsqueda y asistir en determinar las áreas
específicas de la imagen de vídeo que contengan más probablemente
una cara humana basada en las características de anchura del
objetivo y el movimiento histórico de los objetivos dentro del área
de seguridad 4.
Los siguientes son algunos de los algoritmos
conocidos en este campo, que se usan por el solicitante en la
detección de caras:
- Estimación del color y de la forma de la mayor parte de la cara;
- Detección de rasgos individuales de la cara (en cuanto a ojos, nariz, boca, etc.) usando limitaciones geométricas para eliminar los rasgos improbables;
- Análisis artificial de las redes neurales basado en aplicar el algoritmo en un gran conjunto de datos de caras y no de caras; y
- Análisis bayesiano usando el Análisis de Componentes de Principios (PCA) o la descomposición de Eigenface de la imagen facial.
La detección 46 de caras de la presente
invención lleva a cabo las siguientes etapas adicionales, las cuales
utilizan los datos de alcance de la unidad 30 de alcance y según ha
encontrado el solicitante aumentan la capacidad de la presente
invención para detectar una cara dentro de la imagen de vídeo.
- Análisis de los datos de alcance para aislar objetivos del tamaño de las personas. Como se trató anteriormente, esto incluye unos módulos de software inteligente que usan análisis histórico, de probabilidades y estadístico de los datos de alcance para determinar las características de los objetos dentro del área de seguridad y para eliminar el ruido resultante de los objetos pequeños o que se mueven rápidamente que probablemente no son personas. Se puede usar los datos de alcance de la unidad de alcance 30 para determinar los objetivos de una anchura apropiada (30 cm a 100 cm) y de una forma (superficie frontal lisa). Conocer exactamente donde está situado el objetivo de tamaño de persona dentro de la imagen de vídeo proporciona un punto de partida para comenzar la detección de caras.
- Análisis de los datos históricos de alcance para determinar la presencia de grupos de gente. Esto se hace aislando los objetivos del tamaño de las personas en cada trama de vídeo usando la técnica anteriormente descrita basada en un análisis de los datos de alcance. Se usa un software de estimación de movimiento, tal como el filtrado de Kalman, para estimar la trayectoria de los objetivos de este tipo e identificar los objetivos ambiguos como aquellos que se ajustan pobremente a la estimación de trayectoria de Kalman. Finalmente, se clasifican los objetivos ambiguos y se usa la clasificación para asistir en la detección de caras. Por ejemplo, será posible determinar si una ambigüedad concreta es el resultado de dos o más personas que están muy juntas.
En una realización preferida de la invención, la
detección 46 de caras identifica una imagen como correspondiente a
una cara basada en el color, la forma y la estructura. Se localizan
las regiones elípticas en base a algoritmos de crecimiento de región
aplicados con una resolución basta de la imagen segmentada. Se
refuerza un algoritmo de color por una técnica de evaluación de
forma de cara, Se etiqueta la región de la imagen como "cara" o
"no cara" después de hacer coincidir los límites de la región
con una forma elíptica (que imita la forma de la cabeza), con una
relación fija de aspecto de altura a anchura (habitualmente
1,2).
En una realización preferida adicional de la
invención, se puede usar un método de detección de los ojos que usa
iluminación por rayos infrarrojos (IR) para situar los ojos en una
cara humana normal y así asistir en la detección 46 de caras. En
este método se ilumina el objetivo con ráfagas de rayos infrarrojos
de un estrobo de IR, que se origina coaxialmente o casi coaxialmente
del eje óptico de la videocámara 21. Los IR aumentan el brillo de la
pupila del ojo humano en la imagen de vídeo. Situando estas áreas de
brillo aumentado, la detección 46 de caras es capaz de identificar
rápidamente y de situar una cara potencial dentro de la imagen de
vídeo. Si el estrobo de IR es disparado sólo durante unas tramas de
vídeo identificadas específicas, se puede usar una técnica de resta
de tramas para identificar más fácilmente las áreas de brillo
aumentado, que corresponden posiblemente al emplazamiento de los
ojos humanos. Identificar con precisión el emplazamiento de los ojos
tiene una ventaja adicional, en cuanto a que una información de este
tipo puede mejorar en gran medida la precisión del software de
reconocimiento
facial.
facial.
La detección facial es intrínsecamente una tarea
informáticamente intensiva. Con las velocidades de los procesadores
actuales, es imposible realizar una detección de toda la cara en
cada trama nueva de imágenes de vídeo 21. Por tanto, sólo se activa
el proceso de detección de caras por el control 49 del sistema del
controlador de la unidad de cámara cuando se requiere, es decir,
cuando no se ha detectado ninguna cara dentro de la imagen que
llega. Una vez se ha detectado una cara, se desconecta la detección
de caras y es sustituida por el rastreo 47 de caras. La calidad del
rastreo 47 de caras se caracteriza por un parámetro de confianza
del rastreo. Cuando el parámetro de confianza del rastreo alcanza un
umbral predeterminado de captura de imágenes faciales, las imágenes
faciales son adquiridas por el módulo 48 de captura de imágenes
faciales. Una vez se ha adquirido un número suficiente de imágenes
faciales de alta calidad, se abandona el objetivo y se reanuda la
detección de caras en otros
objetivos.
objetivos.
Una vez se ha detectado una cara dentro de la
imagen de vídeo, se activa el rastreo 47 de caras, que comprende el
software de rastreo de caras y procesa los datos introducidos del
procesamiento 43 de los datos de la videocámara y del procesamiento
44 de los datos de la unidad de alcance con la finalidad de
determinar la velocidad y la dirección del movimiento de la cara
detectada, tanto en las direcciones vertical como horizontal y en
profundidad. El rastreo 47 de caras se inicializa con la posición y
la puesta en escala de la cara de objetivo detectada y usa una
región de interés (ROI) limitada a la encuadre alrededor de la cara
de objetivo detectada. Se informa de cualquier movimiento al control
49 del sistema controlador de la unidad de cámara, donde se usa para
dirigir el giro horizontal del sistema 25 de espejo rotativo y las
funciones de zoom, enfoque e inclinación de la videocámara 21, de
manera que se rastrea la cara de objetivo y se mantiene dentro del
campo de visión. La cara de objetivo es rastreada hasta que baja la
confianza de rastreo por debajo de un umbral establecido. En este
caso se considera perdido el objetivo, y el sistema retrocede
conmutando al modo de detección. El control 49 del sistema
controlador de la unidad de cámara determinará cuando activar la
captura 48 de imágenes faciales.
El rastreo 47 de imágenes faciales usa cierto
número de estrategias algorítmicas conocidas de software para
procesar los datos de entrada de vídeo y de alcance y se emplean
métodos heurísticos para combinar los resultados. Los métodos
heurísticos empleados comprenden un conjunto de reglas estructuradas
para determinar que software y algoritmos son loa más fiables en
algunas situaciones. Los siguientes son algunos algoritmos de
software, conocidos en el campo, que se usan por el solicitante en
el rastreo de caras:
- Diferenciación trama a trama para detectar el movimiento;
- Técnicas de flujo óptico en la corriente de vídeo;
- Color y estimación de forma de la mayor parte de la cara;
- Análisis de filtro de Kalman para filtrar el movimiento presente y predecir el movimiento futuro a partir de la estimación del movimiento pasado; y
- Análisis de red neural artificial basado en aplicar el algoritmo en un gran conjunto de secuencias de vídeo.
Se realiza la etapa adicional siguiente por el
rastreo 47 de caras de la presente invención, el cual utiliza los
datos de alcance de la unidad 30 de alcance y se ha encontrado por
el solicitante que aumenta la capacidad de la presente invención
para rastrear una cara:
- Análisis de los datos de alcance y de la historia de los datos de alcance. Como se detalló anteriormente, se puede usar una memoria intermedia de los datos previos de alcance para cada objetivo a fin de determinar si un objeto grande es una persona grande, o dos personas que están de pie muy juntas, o posiblemente no es una persona en absoluto.
En una realización preferida de la invención, se
ajusta una línea marco elíptica al contorno de la cara detectada.
Cada vez que se hace disponible una nueva imagen, el rastreo 47 de
caras ajusta la elipse de la imagen previa de tal manera que se
aproxime del mejor modo a la posición de la cara en la nueva imagen.
Se devuelve un valor de confianza que refleja el ajuste del modelo.
Se analiza secuencialmente las posiciones de la cara usando un
filtro de Kalman para determinar la trayectoria de movimiento de la
cara dentro de un rango de error determinado. Esta trayectoria de
movimiento es utilizada para facilitar el rastreo de la cara.
Muchos de los algoritmos de rastreo de caras se
apoyan en parte en el color y en la textura del color para realizar
el rastreo de caras. Debido a los cambios en la iluminación tanto
del fondo como del campo delantero, el color de la imagen es
frecuentemente inestable, lo cual conduce a errores de rastreo y a
"objetivos perdidos". Para compensar los cambios en las
condiciones de iluminación, se adopta un enfoque estadístico en el
cual se estiman las distribuciones de color en toda el área de la
imagen a lo largo del tiempo. De este modo, suponiendo que las
condiciones de iluminación cambian suavemente a lo largo del tiempo,
se puede adaptar un modelo dinámico para reflejar la apariencia
cambiante del objetivo que se rastrea. Conforme llega cada imagen de
la videocámara 21, se muestrea un nuevo conjunto de pixeles de la
región de la cara y se usa para actualizar el modelo de color.
Durante el rastreo con éxito, se adapta dinámicamente el modelo de
color sólo si la confianza del rastreador es mayor que un cierto
umbral de rastreo predeterminado. Se suspende la adaptación dinámica
en el caso de fallos del rastreo, y se reinicia cuando se recupera
el objetivo.
El rastreo 47 de caras es activado por el
control 49 del sistema controlador de la unidad de cámara sólo
cuando la detección 46 de caras ha detectado una cara dentro de una
imagen de vídeo, y los parámetros operativos del sistema piden que
la cara sea rastreada. Estos parámetros operativos dependerán de los
requisitos de la instalación individual. Por ejemplo, en algunas
situaciones, se puede capturar unas pocas imágenes buenas de cada
objetivo que entra en el área de seguridad. En otras situaciones, se
puede identificar determinados objetivos y rastrearlos más
cuidadosamente para obtener imágenes de superior calidad con la
finalidad de reconocer las caras o almacenarlas para archivo.
La captura 48 de imágenes faciales comprende el
software de captura, el cual analiza los datos recibidos de la
videocámara 21 y de la unidad de alcance 30 para determinar con
precisión cuando capturar una imagen facial de forma que se obtenga
imágenes faciales de alta calidad, bien iluminadas, frontales, del
objetivo. La captura 48 de imágenes faciales usa métodos heurísticos
para determinar la pose de la cara y la mejor iluminación. La pose
correcta se determina identificando los rasgos principales de la
cara tales como ojos, nariz, y boca y asegurándose de que están en
la posición correcta. Se determina la calidad de iluminación por un
análisis general del color de la cara.
En una realización preferida, la videocámara 21
está dotada de un sistema de exposición programable de medición por
puntos que se puede ajustar en tamaño y emplazamiento en la imagen
de vídeo. Una vez se ha localizado una cara, se ajusta el sistema de
medición de puntos respecto al tamaño de la imagen facial y se
centra en la imagen facial. El resultado es una imagen facial
capturada que se encuentra expuesta correctamente y es más adecuada
para el análisis de imagen y de reconocimiento y comparación de
caras.
La captura 48 de imágenes faciales es activada
por el control 49 del sistema controlador de la unidad de cámara
cuando se ha detectado una cara por la detección 46 de caras, y los
parámetros operativos del sistema piden que se capture una imagen
facial. Los parámetros que afectan a la captura de imágenes
incluyen: el número de imágenes requeridas, el umbral de calidad
requerido de esas imágenes, y el espaciamiento temporal entre
imágenes requerido. La calidad de la imagen se basa en la pose y la
iluminación y se compara con un umbral preestablecido. El
espaciamiento en el tiempo se refiere a la rapidez de la captura de
imágenes. Capturar múltiples imágenes sobre un periodo corto no
proporciona más información que capturar una imagen sobre el mismo
periodo de tiempo. Se requiere un espaciamiento mínimo en el tiempo
para asegurarse de que se capturan imágenes suficientemente
diferentes para garantizar que se obtiene una buena pose. Una vez se
ha obtenido una imagen de alta calidad, se envía al controlador
externo 50.
Las características de la imagen final capturada
se determinan en gran parte por los algoritmos concretos del
software de reconocimiento de cara que se usan. Una de las
principales ventajas de la presente invención es la capacidad para
ajustar los parámetros operativos del sistema a fin de proporcionar
imágenes faciales de alta calidad, consistentes, de manera que se
logra un reconocimiento de cara preciso y consistente. Por ejemplo,
se sabe que determinado software de reconocimiento de cara requiere
una pose frontal, una resolución de pixeles mínima entre los ojos, y
una calidad concreta de iluminación. Se puede programar la presente
invención para capturar sólo imágenes que satisfagan estos
criterios, y para rastrear una cara dada hasta que se obtengan
imágenes de este tipo, asegurando de esta forma unas prestaciones de
alta calidad consistentes del sistema de reconocimiento de cara.
El controlador 40 de la unidad de cámara incluye
un sistema 60 de comunicaciones del controlador de la unidad de
cámara que tiene una interfaz por medio de una conexión de red para
conectar el controlador 40 de la unidad de cámara al controlador
externo 50 a fin de recibir las instrucciones de configuración y
funcionamiento o de enviar las imágenes de vídeo o los datos
solicitados por el controlador externo 50.
El sistema 60 de comunicaciones del controlador
de la unidad de cámara acepta los siguientes tipos de instrucciones
de configuración y funcionamiento:
- Configuración de parámetros para la detección de caras, rastreo de caras y captura de imágenes faciales, tales como, durante cuanto tiempo seguir a cada objetivo, el número de imágenes a capturar, la calidad y la resolución de las imágenes requeridas, el espaciamiento de las imágenes en el tiempo, y cuantos objetivos seguir;
- Instrucciones de calibración para determinar la corrección necesaria de imágenes en función de las condiciones de iluminación dentro del área de seguridad;
- Instrucciones para capturar los datos de calibración para la unidad de alcance 30.
- Instrucciones de configuración que dan la colocación en el espacio de la cámara 21 y de la unidad de alcance 30;
- Instrucciones de funcionamiento para conmutación encendido/apagado, pasar al modo "dormir" o entrar en diversos modos de rastreo operativo. Los modos "dormir" para los diversos componentes pueden ser útiles para prolongar la vida de los componentes y ahorrar energía. Por ejemplo, se puede instruir a la unidad 30 de alcance para reducir su velocidad de emisión de impulsos láser a un barrido del área por segundo una vez cese la actividad en el área de seguridad durante un cierto periodo de tiempo. Tan pronto se detecta un objetivo, la unidad de alcance 30 se "despertará" y comenzará el barrido normal. Esto puede prolongar significativamente la vida del diodo de láser.
Son posibles diversas configuraciones del
sistema 60 de comunicación del controlador de la unidad de cámara.
Las unidades de cámara 20 podrían intercomunicar entre sí; las
unidades de cámara 20 podrían aceptar órdenes de ordenadores
distintos al controlador externo 50 y enviar datos a los mismos.
Adicionalmente, se podría usar diferentes infraestructuras de
comunicaciones, tales como redes de punto a punto, I/O de serie de
alta velocidad, redes en anillo con pase de testigo, o redes
inalámbricas, o cualquier otro sistema adecuado de comunicación.
El control 49 del sistema del controlador de la
unidad de cámara comprende un software que supervisa todas las
funciones dentro del controlador 40 de la unidad de cámara. Todos
los datos adquiridos por el procesamiento 43 de datos de
videocámara, el procesamiento 44 de datos de la unidad de alcance y
el sistema 60 de comunicaciones del controlador de la unidad de
cámara se ponen a disposición del control 49 del sistema del
controlador de la unidad de cámara, el cual determina cual de los
módulos de detección 46 de caras, rastreo 47 de caras, captura 48
de imágenes activar. Estas decisiones se basan en los requisitos
concretos del sistema, tales como, por ejemplo, el número de
imágenes requerido, el umbral de calidad de imágenes y el
espaciamiento de las imágenes en el tiempo. También se toma en
consideración el modo particular de funcionamiento. Por ejemplo, en
un modo de funcionamiento, sólo se sigue el objetivo más cercano. En
otro modo de funcionamiento, se puede seguir los tres objetivos más
cercanos durante tres segundos, sucesivamente. Los modos de
funcionamiento son completamente programables y dependen de la
aplicación concreta.
El control 49 del sistema del controlador de la
unidad de cámara determina también que órdenes enviar a la
videocámara 21, al sistema 25 de espejo rotativo, y a la unidad 30
de alcance para controlar sus diversas funciones. Adicionalmente,
cualesquiera modos excepcionales de funcionamiento, tales como los
que responden a errores del sistema, son coordinados por el control
49 del sistema del controlador de la unidad de cámara.
El control 49 del sistema del controlador de la
unidad de cámara combina la información de la detección 46 de caras
(que indica que el área de imagen es probablemente una cara), con la
información de rastreo del rastreo 47 de caras (que indica que el
área de imagen pertenece a un objetivo que se mueve como una
persona), y con los datos de alcance del procesamiento 44 de la
unidad de alcance (que indica que el área de imagen tiene la forma
de una única persona) para seleccionar que pixeles en la imagen de
vídeo tienen probabilidad de estar ocupados por caras. Para hacer
esto, los datos de alcance deben ser registrados estrechamente en el
tiempo y en el espacio con los datos de vídeo. La precisión en el
rastreo de caras aumenta usando un análisis probabilístico que
combina mediciones múltiples de la información de detección de
caras, información de rastreo de caras y datos de alcance a lo largo
del tiempo.
El control 49 del sistema del controlador de la
unidad de cámara usó una combinación de datos de alcance y de imagen
para construir un archivo de historia de movimiento, guardando las
trayectorias de los objetivos individuales dentro del área de
seguridad 4. Esto permite el rastreo de los objetivos de caras
individuales y la captura de un número predeterminado de imágenes
faciales por persona.
La Figura 4 es un diagrama de bloques que
muestra la arquitectura de la red de la presente invención. Se
muestra múltiples unidades de cámara 20 conectadas al controlador
externo 50. También se muestran las aplicaciones 70 de base de datos
/ búsqueda y las aplicaciones externas 80 conectadas a través de una
interfaz de red. La Figura 4 muestra el flujo de comunicaciones y de
datos entre los diversos componentes de la invención. Se apreciará
que la invención no requiere que exista una única conexión de red
entre todos los componentes. Realmente, muchas aplicaciones de
seguridad requieren el uso de redes separadas para cada aplicación.
El uso de múltiples unidades de cámara 20 permitirá la cooperación
entre las unidades de cámara para cumplir tareas tales como seguir a
un objetivo desde un área de seguridad a otra, o cubrir una gran
área de seguridad con muchos objetivos potenciales.
El controlador externo 50 comprende un ordenador
con conectividad de red a una interfaz con las unidades de cámara
20, las bases de datos / aplicaciones de búsqueda 70 y las
aplicaciones externas 80, las cuales pueden proporcionar búsqueda de
imágenes de caras almacenadas y fuentes adicionales entrada de datos
al sistema. Por ejemplo, una aplicación externa de control de
pasaportes puede proporcionar imágenes de la fotografía de la página
de datos al controlador externo 50, las cuales pueden ser combinadas
y comparadas con las imágenes capturadas de las unidades 20 de
cámara para realizar un reconocimiento automático de cara a fin de
verificar que la imagen de la cara del pasaporte corresponde a la
imagen de la cara de la persona que presenta el pasaporte.
El controlador externo 50 incluye un software
que comprende un sistema operativo de tareas múltiples de red de
modem que es capaz de controlar el funcionamiento de múltiples
componentes de software de intercomunicación independientes, que
incluyen: la interfaz 51 de la unidad de cámara; el control 52 del
sistema externo; la interfaz 53 de búsqueda, la interfaz 54 de
aplicación de configuración de cámara; y la interfaz 55 de
aplicaciones externas. Todas las comunicaciones de red están hechas
seguras usando encriptación avanzada de red de modem y tecnologías
de autenticación para proporcionar intercomunicaciones seguras y
fiables entre los componentes.
La interfaz 51 de la unidad de cámara incluye un
software que controla las comunicaciones con los controladores 40 de
la unidad de cámara. Se aceptan órdenes del control 52 del sistema
externo y se envían a las unidades 20 de cámara. La interfaz 51 de
la unidad de cámara asegura una entrega fiable y una sincronización
adecuada de todas las comunicaciones de este tipo. Las imágenes de
caras que llegan de las unidades de cámara 20 son almacenadas y
secuenciadas para ser procesadas posteriormente por otros módulos de
software dentro de los controladores externos 50.
El control 52 del sistema externo incluye un
software que supervisa todas las funciones del controlador externo
50. Todos los datos adquiridos por la interfaz 51 de la unidad de
cámara, la interfaz 53 de búsqueda, la interfaz 54 de aplicación de
configuración de cámara, y la interfaz 55 de aplicaciones externas
se ponen a disposición del control 52 del sistema externo. Todas las
actividades que requieran la coordinación de las unidades de cámara
20 son controladas por el control 52 del sistema externo.
Adicionalmente, todos los modos de operación excepcionales, tales
como los que responden a errores del sistema, son coordinados por el
control 52 del sistema externo.
La interfaz 53 de búsqueda incluye un software
que proporciona una interfaz entre el controlador externo 50 y las
aplicaciones 70 de base de datos / búsqueda, como se describirá a
continuación, asegurando una entrega fiable y una sincronización
adecuada de todas las comunicaciones de entre los mismos.
La interfaz 54 de aplicación de configuración de
cámara incluye un software que acepta la entrada de datos de una
aplicación de configuración de cámara. Se puede disponer una
aplicación de configuración de cámara en el controlador externo 50 ó
en otro ordenador situado externamente y conectado a través de una
red. Los datos de configuración de cámara se usan para enviar las
órdenes a las unidades de cámara 20 para controlar las diversas
funciones operativas y de configuración, tales como la exposición,
el modo de color, el sistema de vídeo, etc., para instruir a las
unidades de cámara 20 a fin de tomar datos de calibración, o para
cambiar al modo operativo y comenzar a seguir un objetivo
específico.
La interfaz 55 de aplicaciones externas incluye
un software que proporciona una interfaz entre el controlador
externo 50 y las aplicaciones externas 80, como se describirá a
continuación, asegurando una entrega fiable y una sincronización
adecuada de todas las comunicaciones de entre los mismos.
Las aplicaciones 70 de base de datos / búsqueda
son un término general usado para describir todas las diversas
funciones de búsqueda que pueden interactuar con la presente
invención. Estas aplicaciones aceptan datos del controlador externo
50, y posiblemente de otras fuentes de datos, tales como las
aplicaciones de control de pasaportes, para realizar búsquedas, y
devolver una lista de candidatos de posibles coincidencias con los
datos introducidos.
Los ejemplo de aplicaciones de base de
datos/búsqueda incluyen los siguientes, pero sin limitarse a
ellos:
- Verificación de caras: se compara una imagen de cara recibida de la unidad de cámara 20 con una imagen de cara tomada de un documento de identificación presentado, tal como un pasaporte u otro documento de identificación con foto. El software de reconocimiento de cara y de comparación se ocupa de determinar si existe coincidencia o no y se devuelven los resultados como informe.
- Identificación de cara: se comparan las imágenes de caras recibidas de las unidades de cámara 20 con una alerta o lista de "busca y captura" que contiene proscritos. Se devuelve como informe una lista de candidatos con cero o más posibles coincidencias.
- Búsqueda en base de datos: los datos de identificación de un documento de identificación tales como un nombre, número de identificación, sexo, edad, y nacionalidad se comparan con una lista de alerta. Se devuelve como informe una lista de candidatos con cero o más posibles coincidencias respecto a la lista de alerta.
Las aplicaciones externas 80 son un término
general usado para describir otros posibles sistemas de
identificación que son monitorizar los mismos objetivos o áreas de
seguridad como aquí se describe para la presente invención. Se
pueden introducir los datos de las aplicaciones externas al presente
sistema para mejorar su funcionalidad. Se apreciará que los detalles
de la interacción entre la presente invención y las aplicaciones
externas 80 dependerán de la naturaleza especifica de las
aplicaciones externas.
Un ejemplo de una aplicación externa es un
sistema de control de pasaportes. Los viajeros presentan documentos
de identificación que contienen datos de identificación e imágenes
faciales a los funcionarios de control de pasaportes. Los datos de
identificación y las imágenes faciales procedentes de los documentos
de identificación se introducen a través del controlador externo 50
para proporcionar una funcionalidad mejorada, especialmente en las
aplicaciones de base de datos / búsqueda. Por ejemplo, se puede
comparar una imagen del viajero obtenida de los documentos de
identificación con imágenes del viajero capturadas por la unidad de
cámara 20 para asegurarse de una coincidencia (verificación). En
otro ejemplo, se puede usar los datos de identificación del
documento de identificación tales como sexo, edad, y nacionalidad
para filtrar la lista de candidatos de las imágenes faciales
devueltas por una búsqueda de reconocimiento de cara de la imagen
facial capturada por la unidad de cámara 20 contra una base de datos
de alerta.
Adicionalmente, el controlador externo 50 puede
enviar información obtenida de las unidades de cámara 20 a
aplicaciones externas 80 para permitir una funcionalidad mejorada
dentro de estas aplicaciones. Por ejemplo, las imágenes faciales
capturadas desde las unidades de cámara 20 pueden ser enviadas a una
aplicación de control de pasaportes para proporcionar al funcionario
de control de pasaportes una comparación lado a lado de la imagen
facial del documento de identificación del viajero. En otro ejemplo,
se puede usar las imágenes faciales de la unidad de cámara 20 para
permitir que las aplicaciones de búsqueda en base de datos empiecen
el proceso previamente a la presentación de los documentos de
identificación a un funcionario de control de pasaportes.
Haciendo referencia a la Figura 2, en una
instalación típica, la unidad de alcance 30 se coloca para barrer el
área de seguridad 4 horizontalmente aproximadamente a la altura del
pecho de la persona media. La videocámara 21 y el sistema 25 de
espejo rotativo están colocados aproximadamente al nivel de los ojos
para la persona media de manera que el campo de visión de la
videocámara 21 cubre el área de seguridad 4. Las posiciones exactas
de la unidad de alcance 30, la videocámara 21, y el espejo rotativo
25 son medidas con precisión y se introducen sus posiciones dentro
del área de seguridad 4 al controlador 40 de la unidad de cámara
como datos de calibración. Opcionalmente, como se muestra en la
Figura 4, se puede usar muchas unidades de cámara 20 para cubrir una
gran área de seguridad, o se pueden monitorizar múltiples áreas
relacionadas. Dependiendo de la naturaleza de la instalación y de
los requisitos de la aplicación, pueden ser necesarios ajustes en el
modo de funcionamiento y en los protocolos de intercomunicación
entre los diversos componentes del sistema.
La unidad de alcance 30 es calibrada obteniendo
y almacenando los datos de alcance del área de seguridad 4 que no
contienen objetivos transitorios. Más adelante, se compara los datos
de alcance obtenidos durante el funcionamiento con los datos de
calibración para diferenciar los objetos estáticos de los objetivos
transitorios de interés. La videocámara 21 proporciona imágenes de
muestras de objetivos conocidos bajo las condiciones de iluminación
existentes. Estas imágenes permiten la calibración de la detección
46 de caras y del rastreo 47 de caras.
Durante el funcionamiento, la unidad de alcance
30 barre continuamente el área de seguridad 4 monitorizada para
detectar la presencia de objetivos. Los datos de alcance, que
comprenden la posición angular, la distancia y la anchura de todos
los objetivos potenciales, son transmitidos al controlador 40 de la
unidad de cámara. El controlador 40 de la unidad de cámara procesa
los datos de alcance e identifica los objetivos con mayor
probabilidad de ser personas en base al emplazamiento de los
objetivos (el más próximo primero), al tamaño (tamaño de persona) y
a la historia de movimiento. Una vez es identificado un objetivo
para una inspección más próxima, se envían órdenes por la unidad 40
controladora de cámara a la videocámara 21 y al sistema 25 de
espejo haciendo que éstos ejecuten las funciones de giro horizontal
y zoom de manera que se obtenga una vista más detallada del
objetivo. Estas órdenes hacen que el espejo 26 gire de forma que el
objetivo es llevado al campo de visión de la videocámara 21 y el
zoom de la videocámara 21 es activado de acuerdo con la distancia
medida de manera que la cara humana media llenará el 20% del campo
de visión. Entra en servicio la detección 46 de caras y usa los
datos obtenidos de la imagen de vídeo combinados con los datos de
alcance para ejecutar los algoritmos de detección de caras a fin de
determinar si la imagen de la videocámara 21 contiene una cara
humana. Si se detecta una cara humana, es extraen las
características de la cara y se calcula las coordenadas espaciales
del centro de la cara. Se devuelve esta información de emplazamiento
al control 49 del sistema controlador de la unidad de cámara
habilitándolo para enviar órdenes refinadas de giro horizontal
(rotación del espejo), inclinación y zoom a la videocámara 21 y al
sistema 25 de espejo para hacer que la cara detectada llene en su
totalidad la imagen de vídeo.
Normalmente, en este punto, el controlador 40 de
la unidad de cámara iniciará un modo de rastreo de caras, para
seguir la persona de interés usando los datos de alcance y de vídeo
para calcular las órdenes aproximadas de giro horizontal (rotación
del espejo), inclinación y zoom que es preciso emitir para mantener
la videocámara 21 apuntada con precisión a la cara del objetivo y
para conservar el tamaño de cara deseado. Durante el rastreo del
objetivo se usan métodos heurísticos para determinar los momentos
apropiados en los que capturar imágenes de la cara del objetivo de
alta calidad, en pose frontal. También se considera el umbral
preestablecido de calidad de imagen, el número de imágenes
requerido y el espaciamiento en el tiempo entre imágenes. Una vez
obtenidas, las imágenes son enviadas al controlador externo 50
mediante una conexión de red. En este punto, el controlador 40 de la
unidad de cámara, bien continuará siguiendo al objetivo, o bien
cambiará su atención a rastrear otro objetivo de interés que pudiera
haber entrado dentro del área de seguridad 4, como se determine por
la lógica específica de flujo de trabajo de la aplicación.
El controlador externo 50 recibe las imágenes de
vídeo de caras capturadas y la información sobre el movimiento del
objetivo de la unidad de cámara 20. También recibe información de
las aplicaciones externas 80, tales como el software de control de
pasaportes que pueden estar monitorizando las mismas personas
objetivo. Como se observó antes brevemente, un ejemplo de
información externa es una imagen de foto capturada de un documento
de identificación presentado por una persona objetivo. El
controlador externo 50 tiene interfaz con el reconocimiento de
caras y con otro software de base de datos y búsqueda para realizar
la verificación y la identificación de las personas objetivo.
Adicionalmente, el controlador externo 50 puede
coordinar el funcionamiento entre múltiples unidades de cámara 20
para habilitar las siguientes funciones:
- 1)
- Rastreo de una sola persona de interés conforme pasa de un área monitorizada a otra.
- 2)
- Coordinación de múltiples unidades de cámara 20 que monitorizan una única sala. En esta situación, se identifican los objetivos de interés y se permite a las diversas unidades de cámara 20 proceder al rastreo de caras y a la captura de imágenes faciales.
Además de las aplicaciones anteriormente
descritas, otras aplicaciones de la presente invención incluyen las
siguientes, pero no se limitan a ellas:
- 1.
- Capturar la imagen facial de una persona que recibe un documento de identificación tal como un pasaporte o visado y guardar esa imagen en una base de datos para su uso en un momento posterior cuando se requiera una confirmación de identidad asistida por máquina para verificar la identidad de la persona que presenta el documento de identidad.
- 2.
- Realizar una "verificación de busca y captura" de cualquier persona que solicite un documento oficial de identidad capturando imágenes faciales de la persona y enviando esas imágenes a una aplicación de búsqueda en base de datos para el reconocimiento de cara, identificación y comparación con una base de datos de proscritos.
- 3.
- Capturar las imágenes faciales de la persona que recoge un documento de identidad y comparación con la imagen facial de la persona en el documento de identidad, para verificar que se emite el documento a su legítimo titular.
- 4.
- Capturar y almacenar en una base de datos la imagen facial de una persona cuando esa persona recibe la aprobación para viajar o entrar en un país. La captura de esas imágenes faciales puede basarse en un perfil de riesgo o no. Luego se usa la base de datos para comparar con las imágenes faciales registradas de personas detenidas no cooperativas, o de personas no autorizadas que entran en determinadas áreas de seguridad, para determinar si la persona ha sido vista anteriormente y en tal caso, que documentos de identidad presentó en ese momento.
- 5.
- Capturar y almacenar en una base de datos las imágenes faciales de las personas que se registran para un viaje aéreo a fin de crear una base de datos de "Información Adelantada de Pasajeros" ("API"). Los registros API se envían a las autoridades del destino de llegada donde se usan para realizar verificaciones adelantadas de busca y captura antes de que llegue el vuelo para identificar cualesquiera personas que deban ser sometidas a una inspección detallada a la llegada.
- 6.
- Usar los datos API reunidos en el ejemplo anterior para dar apoyo a la inspección automatizada de los pasajeros en el destino de llegada. Se capturan las imágenes faciales de los pasajeros que llegan y son comparadas con los datos API para asegurarse de que las personas que llegan son las mismas personas que se embarcaron en el avión. Esto permite un proceso rápido de clasificación en el que los pasajeros pueden literalmente atravesar marchando un área de seguridad y aquellos que deben ser sometidos a una inspección detallada pueden ser fácilmente identificados y seleccionados.
- 7.
- Capturar imágenes faciales de las personas que toman cualquier medio de transporte público, tales como aviones, trenes o autobuses, o cuando intentan entrar en cualquier área de seguridad incluyendo puertos de entrada en países o estadios deportivos, y enviar esas imágenes a una aplicación de búsqueda en base de datos para el reconocimiento facial, identificación y comparación con una base de datos de proscritos, para impedir a tales proscritos el uso del medio de transporte público o la entrada en el área de seguridad.
- 8.
- Capturar imágenes faciales de las personas que se registran para un medio público de transporte y comparar esas imágenes con una imagen facial contenida en un documento de identidad presentado al hacer el registro, para verificar que la persona correcta está presentando el documento de identidad.
- 9.
- Capturar las imágenes faciales de las personas al aproximarse al área de inspección del puerto de entrada de un país y enviar esas imágenes a una aplicación de búsqueda en base de datos para la identificación facial y comparación con una base de datos de proscritos, para asistir a la autoridad de inspección en determinar si se debe permitir entrar a la persona que se aproxima.
- 10.
- Capturar las imágenes faciales de las personas que están siendo atendidas en las máquina de inspección de autoservicio a su llegada a un puerto de entrada de un país y enviar esas imágenes a una aplicación de búsqueda en base de datos para la identificación facial y comparación con una base de datos de proscritos, a fin de impedir la entrada de tales personas en el país.
- 11.
- Capturar las imágenes faciales de todos los pasajeros que llegan a las puertas de llegada y almacenar esas imágenes en una base de datos de llegadas junto con los detalles del vuelo de llegada. Se usa la base de datos de llegadas para comparar con las imágenes faciales obtenidas de las personas que aparecen en los mostradores de inspección sin identificación adecuada y que se niegan a proporcionar los detalles del vuelo de llegada. Esto permite a las autoridades de control de fronteras identificar la línea aérea y el origen de la persona de forma que se puede multar a la línea aérea y obligarla a transportar la persona detenida de vuelta al punto de origen.
- 12.
- Realizar una "verificación de busca y captura" en cualquier persona que entra en un área de seguridad capturando imágenes faciales de la persona y enviando esas imágenes a una aplicación de búsqueda en base de datos para la identificación de la cara y su comparación con una base de datos de proscritos y alertar a la seguridad.
- 13.
- Mejorar los procedimientos de facturación de las líneas aéreas capturando las imágenes faciales de los pasajeros conformen se aproximan a las diferentes áreas de seguridad y comparar esas imágenes con las imágenes faciales de los pasajeros registrados. Por ejemplo, la imagen facial del viajero puede haber sido obtenida en el registro inicial, o en la facturación, y usada para verificar la identidad de la persona que entra en otras áreas de seguridad dentro del aeropuerto y y eventualmente que embarca en el avión. Esto puede aumentar en gran medida la velocidad de la facturación y del embarque.
- 14.
- Se puede comparar las imágenes faciales de las personas que embarcan en un avión con las imágenes faciales de las personas en la facturación para verificar que la persona que facturó es la misma persona que se embarcó en el avión y para hacer coincidir esa persona con el equipaje cargado en el avión.
- 15.
- Se puede usar las imágenes faciales tomadas continuamente por múltiples unidades de cámara 20 situadas en muchas áreas de seguridad a través de un emplazamiento dado, tal como un aeropuerto, para localizar a cualquier persona en cualquier momento dado. De esta manera, un pasajero que falla en presentarse para un vuelo puede ser localizado y dirigido al área de embarque apropiada. Se pueden reducir los retrasos de los vuelos que han sido necesarios para localizar los pasajeros extraviados. Los sistemas de vigilancia de este tipo pueden ser también valiosos en un entorno carcelario para localizar a los internos.
- 16.
- En situaciones que implican transacciones financieras, tales como los cajeros bancarios automáticos (ATM), se pueden usar las imágenes faciales capturadas para compararlas con los datos de la tarjeta de ATM para verificar que la persona que está usando la tarjeta es la correcta.
- 17.
- Capturar las imágenes faciales de todas las personas que entran en un área de seguridad para comparar con una aplicación de base de datos / búsqueda, a fin de asegurarse de que la persona está en una lista previamente aprobada de personas a las que se permite entrar.
Lo anterior es una descripción detallada de las
realizaciones particulares preferidas de la invención. Los expertos
en la técnica deberían apreciar, a la luz de la presente
descripción, que se pueden hacer modificaciones obvias de las
realizaciones aquí descritas sin apartarse del espíritu de la
invención. Todas las realizaciones aquí descritas y reivindicadas se
pueden hacer y ejecutar sin experimentación indebida a la luz de la
presente descripción. El objeto total de la invención se establece
en las reivindicaciones siguientes y en sus equivalentes. Por
consiguiente, no se debería considerar las reivindicaciones y la
especificación de forma que indebidamente estrechen el objeto pleno
de la protección a la cual la presente invención tiene derecho.
Claims (35)
1. Un sistema de imágenes faciales para
registro y/o confirmación automatizada de identidad de un objetivo
dentro de un área de seguridad, comprendiendo dicho sistema de
imágenes faciales:
una unidad de cámara, que comprende:
- un controlador de unidad de cámara,
- una unidad de alcance para detectar la presencia del objetivo dentro del área de seguridad y para proporcionar datos de alcance respecto al objetivo a dicho controlador de la unidad de cámara; y
- una videocámara para capturar imágenes del objetivo y enviar dichas imágenes del objetivo a dicho controlador de la unidad de cámara; comprendiendo dicho controlador de la unidad de cámara:
- un sistema de detección de caras configurado para detectar una imagen facial dentro de dichas imágenes del objetivo;
- un sistema de captura de caras configurado para capturar dicha imagen facial cuando se determina que dicha imagen facial es de una calidad suficiente para el reconocimiento de caras.
2. El sistema de imágenes faciales de la
reivindicación 1, en el que dicho controlador de unidad de cámara
incluye un sistema de rastreo de caras configurado para rastrear
dicha imagen facial.
3. El sistema de imágenes faciales de la
reivindicación 2, en el que dicho controlador de unidad de cámara
incluye un software de procesamiento de los datos de la videocámara
configurado para procesar dichas imágenes de objetivos y
proporcionar unos datos de imágenes de vídeo y donde dicho sistema
de detección de caras y dicho sistema de rastreo de caras están
configurados para usar dichos datos de imágenes de vídeo para
asistir en dicha detección y dicho rastreo de caras de dichas
imágenes faciales.
4. El sistema de imágenes faciales de
cualquiera de las reivindicaciones 1 a 3, en el que dicha unidad de
cámara incluye un sistema de espejo rotativo para reflejar dichas
imágenes de objetivos y dichas imágenes faciales a dicha
videocámara.
5. El sistema de imágenes faciales de
cualquiera de las reivindicaciones 1 a 4, en el que dicho sistema de
detección de caras está configurado para usar dichos datos de
alcance para asistir en detectar dichas imágenes faciales,
comprendiendo dichos datos de alcance una distancia y un
emplazamiento angular.
6. El sistema de imágenes faciales de la
reivindicación 5, en el que dichos datos de alcance incluyen una
anchura de dicho objetivo.
7. El sistema de imágenes faciales de la
reivindicación 2, en el que dicho sistema de rastreo de caras está
configurado para usar dichos datos de alcance a fin de asistir en el
rastreo de dichas imágenes faciales, comprendiendo dichos datos de
alcance una distancia y un emplazamiento angular.
8. El sistema de imágenes faciales de la
reivindicación 7, en el que dichos datos de alcance incluyen una
anchura de dicho objetivo.
9. El sistema de imágenes faciales de
cualquiera de las reivindicaciones 1 a 8, que incluye un sistema de
comunicaciones de la unidad de camara para enviar dichas imágenes
faciales capturadas a un controlador externo con fines de
verificación de caras y/o reconocimiento de caras.
10. El sistema de imágenes faciales de
cualquiera de las reivindicaciones 1 a 9, en el que dicho sistema de
detección de caras está configurado para usar el color, la forma y
el emplazamiento de las características estructurales de dichas
imágenes de objetivos para identificar dicha imagen facial.
11. El sistema de imágenes faciales de
cualquiera de las reivindicaciones 1 a 10, en el que dicho sistema
de detección de caras incluye la detección de rasgos individuales de
la cara para localizar y confirmar los rasgos de la cara dentro de
dichas imágenes de objetivo.
12. El sistema de imágenes faciales de
cualquiera de las reivindicaciones 1 a 11, en el que dicho sistema
de detección de caras incluye un sistema de detección de ojos que
usa iluminación por infrarrojos de dichos objetivo para localizar la
posición de los ojos dentro de dichas imágenes de objetivo.
13. El sistema de imágenes faciales de
cualquiera de las reivindicaciones 1 a 12, en el que dicho sistema
de detección de caras está configurado para apagarse cuando se
detecta dicha imagen facial dentro de dichas imágenes de
objetivo.
14. El sistema de imágenes faciales de
cualquiera de las reivindicaciones 1 a 13, en el que dicho sistema
de captura de caras incluye un sistema de evaluación de pose
configurado para evaluar una pose de dicha imagen facial, con la
finalidad de determinar si dicha imagen facial es de dicha calidad
suficiente para el reconocimiento de caras.
15. El sistema de imágenes faciales de la
reivindicación 14, en el que dicho sistema de evaluación de pose es
capaz de determinar si dicha pose de dicha imagen facial es una pose
frontal.
16. El sistema de imágenes faciales de
cualquiera de las reivindicaciones 1 a 15, en el que dicho sistema
de captura de caras incluye un sistema de evaluación de la
iluminación configurado para evaluar la iluminación de dicha imagen
facial, con la finalidad de determinar si dicha imagen facial es de
dicha calidad suficiente para el reconocimiento de caras.
17. El sistema de imágenes faciales de la
reivindicación 14, en el que dicho sistema de evaluación de pose
incluye un sistema de identificación de rasgos faciales y un sistema
de localización de rasgos faciales.
18. El sistema de imágenes faciales de la
reivindicación 16, en el que dicho sistema de evaluación de
iluminación incluye un sistema de análisis de color.
19. El sistema de imágenes faciales de
cualquiera de las reivindicaciones 1 a 18, en el que dicho sistema
de captura de caras incluye un sistema de exposición configurado
para medir una exposición de dicha imagen facial, para controlar
dicho sistema de captura de caras a fin de determinar si dicha
imagen facial es de dicha calidad suficiente para el reconocimiento
de caras, estando basado dicho sistema de exposición en un área,
siendo dicha área ajustable en tamaño y emplazamiento sobre dicha
imagen facial.
20. El sistema de imágenes faciales de
cualquiera de las reivindicaciones 1 a 19, en el que dicho sistema
de detección de caras incluye una detección individual de rasgos de
cara configurada para localizar la posición de los ojos dentro de
dichas imágenes de objetivos, y donde dicho sistema de captura de
caras incluye un sistema de evaluación de resolución de pixeles para
determinar una resolución de pixeles mínima de dicha imagen facial
entre dichos ojos para determinar si dicha imagen facial es de dicha
calidad suficiente para el reconocimiento de caras.
21. El sistema de imágenes faciales de la
reivindicación 1, en el que dichos datos de alcance se usan para
asistir a dicho sistema de detección de caras en la detección de
dicha imagen facial.
22. El sistema de imágenes faciales de la
reivindicación 1, en el que dichos datos de alcance se usan para
asistir a dicho sistema de captura de caras en la captura de dicha
imagen facial.
23. El sistema de imágenes faciales de la
reivindicación 2, en el que dichos datos de alcance se usan para
asistir a dicho sistema de rastreo de caras en el rastreo de dicha
imagen facial.
24. El sistema de imágenes faciales de la
reivindicación 1, en el que dicho controlador de unidad de cámara
incluye un software de procesamiento de datos de videocámara
configurado para procesar dichas imágenes de objetivo y para
proporcionar los datos procesados de imagen de video, y en el que
dicho sistema de detección de caras está configurado para usar
dichos datos procesados de imagen de vídeo para asistir en dicha
detección de dicha imagen facial.
25. El sistema de imágenes faciales de la
reivindicación 1, en el que dicho controlador de unidad de cámara
incluye un software de procesamiento de datos de videocámara
configurado para procesar dichas imágenes de objetivo y para
proporcionar los datos procesados de imagen de video, y en el que
dicho sistema de captura de caras está configurado para usar dichos
datos procesados de imagen de vídeo para asistir en dicha captura de
dicha imagen de cara.
26. El sistema de imágenes faciales de la
reivindicación 2, en el que dicho controlador de unidad de cámara
incluye un software de procesamiento de datos de videocámara
configurado para procesar dichas imágenes de objetivo y para
proporcionar los datos procesados de imagen de video, y en el que
dicho sistema de rastreo de caras está configurado para usar dichos
datos procesados de imagen de vídeo para asistir en dicho rastreo de
dicha imagen facial.
27. El sistema de imágenes faciales de
cualquiera de las reivindicaciones 24, 25 ó 26, en el que dichos
datos procesados de imagen de vídeo están organizados y almacenados
en un archivo de historia de movimiento.
28. El sistema de imágenes faciales de la
reivindicación 1, en el que dicha unidad de cámara incluye
características automatizadas de giro horizontal, zoom e inclinación
vertical.
29. El sistema de imágenes faciales de la
reivindicación 28, en el que dicha característica de giro horizontal
es proporcionada por un primer sistema espejo rotativo en una
dirección horizontal para reflejar dichas imágenes de objetivo en
dicha videocámara.
30. El sistema de imágenes faciales de
cualquiera de las reivindicaciones 28 ó 29, en el que dicho
controlador de unidad de cámara está configurado para usar dichos
datos de alcance para asistir en controlar automáticamente las
características de dicho giro horizontal, dicho zoom y dicha
inclinación vertical.
31. El sistema de imágenes faciales de
cualquiera de las reivindicaciones 28 a 30, en el que dicha
característica de inclinación vertical es proporcionada por dicho
primer sistema de espejo el cual es también rotativo en una
dirección vertical.
32. El sistema de imágenes faciales de
cualquiera de las reivindicaciones 28 a 30, en el que dicha
característica de inclinación vertical es proporcionada por un
segundo sistema espejo rotativo en una dirección vertical para
reflejar dichas imágenes de objetivo en dicha videocámara.
33. El sistema de imágenes faciales de
cualquiera de las reivindicaciones 28 a 32, en el que dicho
controlador de unidad de cámara incluye un software de procesamiento
de datos de cámara para procesar dichas imágenes de objetivo y
proporcionar datos de imágenes de vídeo, y donde dicho controlador
de unidad de cámara está configurado para usar dichos datos de
imágenes de vídeo para asistir en controlar automáticamente las
características de dicho giro horizontal, dicho zoom y dicha
inclinación vertical.
34. El sistema de imágenes faciales de
cualquiera de las reivindicaciones 28 a 33, en el que dicho sistema
de detección de caras genera datos de imágenes faciales y dicho
controlador de unidad de cámara está configurado para asistir en
controlar automáticamente las características de dicho giro
horizontal, dicho zoom y dicha inclinación vertical.
35. El sistema de imágenes faciales de la
reivindicación 2, en el que dicha unidad de cámara incluye
características automatizadas de giro horizontal, zoom e inclinación
vertical, y en el que dicho sistema de rastreo de caras genera datos
de rastreo de caras y dicho controlador de unidad de cámara está
configurado para usar dichos datos de rastreo de caras para asistir
en controlar automáticamente las características de dicho giro
horizontal, dicho zoom y dicha inclinación vertical.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CA2359269 | 2001-10-17 | ||
CA002359269A CA2359269A1 (en) | 2001-10-17 | 2001-10-17 | Face imaging system for recordal and automated identity confirmation |
Publications (1)
Publication Number | Publication Date |
---|---|
ES2260476T3 true ES2260476T3 (es) | 2006-11-01 |
Family
ID=4170284
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES02767029T Expired - Lifetime ES2260476T3 (es) | 2001-10-17 | 2002-10-17 | Sistema de imagenes faciales para registro y confirmacion automatizad a de identidad. |
Country Status (13)
Country | Link |
---|---|
US (2) | US20050063566A1 (es) |
EP (2) | EP1444667B1 (es) |
JP (1) | JP2005505871A (es) |
CN (1) | CN100418112C (es) |
AT (1) | ATE320054T1 (es) |
CA (1) | CA2359269A1 (es) |
DE (1) | DE60209760T2 (es) |
DK (1) | DK1444667T3 (es) |
ES (1) | ES2260476T3 (es) |
HK (1) | HK1070167A1 (es) |
NZ (1) | NZ532315A (es) |
PT (1) | PT1444667E (es) |
WO (1) | WO2003034361A1 (es) |
Families Citing this family (215)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7442629B2 (en) | 2004-09-24 | 2008-10-28 | President & Fellows Of Harvard College | Femtosecond laser-induced formation of submicrometer spikes on a semiconductor substrate |
US7057256B2 (en) | 2001-05-25 | 2006-06-06 | President & Fellows Of Harvard College | Silicon-based visible and near-infrared optoelectric devices |
US7298412B2 (en) | 2001-09-18 | 2007-11-20 | Ricoh Company, Limited | Image pickup device, automatic focusing method, automatic exposure method, electronic flash control method and computer program |
JP2003296711A (ja) * | 2002-03-29 | 2003-10-17 | Nec Corp | 顔画像識別方法、装置およびプログラム |
US20070201694A1 (en) * | 2002-06-18 | 2007-08-30 | Bolle Rudolf M | Privacy management in imaging system |
JP2004062565A (ja) * | 2002-07-30 | 2004-02-26 | Canon Inc | 画像処理装置及び方法並びにプログラム記憶媒体 |
JP4218348B2 (ja) * | 2003-01-17 | 2009-02-04 | オムロン株式会社 | 撮影装置 |
JP4277534B2 (ja) * | 2003-02-12 | 2009-06-10 | オムロン株式会社 | 画像編集装置および画像編集方法 |
CA2435424C (en) * | 2003-07-29 | 2010-04-27 | Jack Gin | Rotatable bay window switch box surveillance camera and illuminator for facial recognition |
US7756322B2 (en) * | 2003-08-18 | 2010-07-13 | Honda Motor Co., Ltd. | Picture taking mobile robot |
JP4339762B2 (ja) * | 2003-09-02 | 2009-10-07 | 富士フイルム株式会社 | 認証システム、及びプログラム |
JP4476744B2 (ja) * | 2003-09-02 | 2010-06-09 | 富士フイルム株式会社 | 撮像システム、及びプログラム |
US20050110634A1 (en) * | 2003-11-20 | 2005-05-26 | Salcedo David M. | Portable security platform |
CN100448267C (zh) * | 2004-02-06 | 2008-12-31 | 株式会社尼康 | 数码相机 |
IL161082A (en) * | 2004-03-25 | 2008-08-07 | Rafael Advanced Defense Sys | System and method for automatically acquiring a target with a narrow field-of-view gimbaled imaging sensor |
DE602004016115D1 (de) * | 2004-04-08 | 2008-10-09 | Accenture Global Services Gmbh | Verfahren und Vorrichtung zur entfernten Überwachung eines Messgerät |
AT501370B1 (de) * | 2004-06-03 | 2007-03-15 | X Pin Com Gmbh | Vorrichtung zur biometrischen steuerung von anlagen |
US8681100B2 (en) | 2004-07-30 | 2014-03-25 | Extreme Realty Ltd. | Apparatus system and method for human-machine-interface |
KR101295471B1 (ko) | 2004-07-30 | 2013-08-09 | 익스트림 리얼리티 엘티디. | 이미지 프로세싱을 기반으로 한 3d 공간 차원용 시스템 및 방법 |
US8872899B2 (en) * | 2004-07-30 | 2014-10-28 | Extreme Reality Ltd. | Method circuit and system for human to machine interfacing by hand gestures |
JP2006236244A (ja) * | 2005-02-28 | 2006-09-07 | Toshiba Corp | 顔認証装置および入退場管理装置 |
JP2006259930A (ja) * | 2005-03-15 | 2006-09-28 | Omron Corp | 表示装置およびその制御方法、表示装置を備えた電子機器、表示装置制御プログラム、ならびに該プログラムを記録した記録媒体 |
ES2296443B1 (es) * | 2005-04-15 | 2009-03-01 | Universidad Rey Juan Carlos | Sistema de verificacion facial. |
US8964029B2 (en) * | 2005-04-29 | 2015-02-24 | Chubb Protection Corporation | Method and device for consistent region of interest |
JP2007052770A (ja) * | 2005-07-21 | 2007-03-01 | Omron Corp | 監視装置 |
JP4856409B2 (ja) | 2005-08-12 | 2012-01-18 | 株式会社リコー | 画像処理システム、認証方法 |
JP2007072520A (ja) * | 2005-09-02 | 2007-03-22 | Sony Corp | 映像処理装置 |
US20070064208A1 (en) * | 2005-09-07 | 2007-03-22 | Ablaze Development Corporation | Aerial support structure and method for image capture |
US8026840B2 (en) * | 2005-10-28 | 2011-09-27 | Raytheon Company | Biometric radar system and method for identifying persons and positional states of persons |
US20070285554A1 (en) * | 2005-10-31 | 2007-12-13 | Dor Givon | Apparatus method and system for imaging |
US9046962B2 (en) | 2005-10-31 | 2015-06-02 | Extreme Reality Ltd. | Methods, systems, apparatuses, circuits and associated computer executable code for detecting motion, position and/or orientation of objects within a defined spatial region |
GB2432064B (en) * | 2005-10-31 | 2011-01-19 | Hewlett Packard Development Co | Method of triggering a detector to detect a moving feature within a video stream |
WO2011033519A1 (en) | 2009-09-21 | 2011-03-24 | Extreme Reality Ltd. | Methods circuits apparatus and systems for human machine interfacing with an electronic appliance |
US20070162761A1 (en) * | 2005-12-23 | 2007-07-12 | Davis Bruce L | Methods and Systems to Help Detect Identity Fraud |
US7668346B2 (en) * | 2006-03-21 | 2010-02-23 | Microsoft Corporation | Joint boosting feature selection for robust face recognition |
JP4836633B2 (ja) * | 2006-03-31 | 2011-12-14 | 株式会社東芝 | 顔認証装置、顔認証方法および入退場管理装置 |
JP4751776B2 (ja) * | 2006-06-19 | 2011-08-17 | オリンパスイメージング株式会社 | 電子撮像装置及び個人特定システム |
US20080004892A1 (en) * | 2006-06-30 | 2008-01-03 | Jerry Zucker | Biometric aid for customer relations |
JP4979289B2 (ja) * | 2006-07-21 | 2012-07-18 | 日立オートモティブシステムズ株式会社 | 画像処理装置 |
US8296808B2 (en) * | 2006-10-23 | 2012-10-23 | Sony Corporation | Metadata from image recognition |
MXPA06013614A (es) * | 2006-11-24 | 2007-12-06 | Global Sight S A De C V | Sistemas de transmision de datos en forma remota y digital y localizacion satelital desde terminales moviles o fijas con camaras de vigilancia urbana para reconocimiento facial, detector de disparos, captura de personal de seguridad publica y persona |
US8694792B2 (en) * | 2007-02-16 | 2014-04-08 | Honeywell International Inc. | Biometric based repeat visitor recognition system and method |
JP4668220B2 (ja) * | 2007-02-20 | 2011-04-13 | ソニー株式会社 | 画像処理装置および画像処理方法、並びにプログラム |
GB2447246B (en) * | 2007-03-07 | 2012-04-18 | Aurora Comp Services Ltd | Controlled high resolution sub-image capture with time domain multiplexed high speed full field of view reference video stream for image biometric application |
JP4289415B2 (ja) * | 2007-03-27 | 2009-07-01 | セイコーエプソン株式会社 | 画像変形のための画像処理 |
WO2008120395A1 (ja) * | 2007-03-29 | 2008-10-09 | Fujitsu Limited | 撮影装置、および撮影方法、ならびに撮影プログラム |
JP4858849B2 (ja) * | 2007-05-18 | 2012-01-18 | カシオ計算機株式会社 | 撮像装置及びそのプログラム |
JP2009033369A (ja) * | 2007-07-26 | 2009-02-12 | Sony Corp | 記録装置、再生装置、記録再生装置、撮像装置、記録方法およびプログラム |
GB0717019D0 (en) * | 2007-09-01 | 2007-10-10 | Rixen Uk Ltd | Audiovisual Terminal |
US20100162285A1 (en) * | 2007-09-11 | 2010-06-24 | Yossef Gerard Cohen | Presence Detector and Method for Estimating an Audience |
US20090103909A1 (en) * | 2007-10-17 | 2009-04-23 | Live Event Media, Inc. | Aerial camera support structure |
CN101465961B (zh) * | 2007-12-19 | 2013-10-30 | 神基科技股份有限公司 | 以特征影像辨识控制快门的摄像装置及方法 |
US20090207121A1 (en) * | 2008-02-19 | 2009-08-20 | Yung-Ho Shih | Portable electronic device automatically controlling back light unit thereof and method for the same |
US8325976B1 (en) * | 2008-03-14 | 2012-12-04 | Verint Systems Ltd. | Systems and methods for adaptive bi-directional people counting |
JP5132445B2 (ja) * | 2008-06-25 | 2013-01-30 | キヤノン株式会社 | 画像処理装置および画像処理方法並びにコンピュータプログラムおよび記憶媒体 |
WO2010026587A1 (en) * | 2008-09-04 | 2010-03-11 | Extreme Reality Ltd. | Method system and software for providing image sensor based human machine interfacing |
JP2010117487A (ja) * | 2008-11-12 | 2010-05-27 | Fujinon Corp | オートフォーカスシステム |
TW201025190A (en) * | 2008-12-30 | 2010-07-01 | Altek Corp | Image capture device used for monitoring and a monitor method thereof |
US8452599B2 (en) | 2009-06-10 | 2013-05-28 | Toyota Motor Engineering & Manufacturing North America, Inc. | Method and system for extracting messages |
US8269616B2 (en) * | 2009-07-16 | 2012-09-18 | Toyota Motor Engineering & Manufacturing North America, Inc. | Method and system for detecting gaps between objects |
JP5227911B2 (ja) * | 2009-07-22 | 2013-07-03 | 株式会社日立国際電気 | 監視映像検索装置及び監視システム |
JP5356162B2 (ja) * | 2009-09-07 | 2013-12-04 | 株式会社ザクティ | 物体像探索装置 |
US9673243B2 (en) | 2009-09-17 | 2017-06-06 | Sionyx, Llc | Photosensitive imaging devices and associated methods |
US8878779B2 (en) | 2009-09-21 | 2014-11-04 | Extreme Reality Ltd. | Methods circuits device systems and associated computer executable code for facilitating interfacing with a computing platform display screen |
US8908033B2 (en) * | 2009-09-29 | 2014-12-09 | Avaya Inc. | Utilizing presence information for the purpose of enhanced surveillance |
US8337160B2 (en) * | 2009-10-19 | 2012-12-25 | Toyota Motor Engineering & Manufacturing North America, Inc. | High efficiency turbine system |
US8237792B2 (en) * | 2009-12-18 | 2012-08-07 | Toyota Motor Engineering & Manufacturing North America, Inc. | Method and system for describing and organizing image data |
KR101082159B1 (ko) | 2010-02-02 | 2011-11-09 | 대전대학교 산학협력단 | 얼굴 이미지 분석용 촬영장치 |
US9377778B2 (en) * | 2010-02-17 | 2016-06-28 | The Boeing Company | Integration of manufacturing control functions using a multi-functional vision system |
JP5642410B2 (ja) * | 2010-03-30 | 2014-12-17 | パナソニック株式会社 | 顔認識装置及び顔認識方法 |
US8692198B2 (en) | 2010-04-21 | 2014-04-08 | Sionyx, Inc. | Photosensitive imaging devices and associated methods |
TW201137765A (en) * | 2010-04-29 | 2011-11-01 | Hon Hai Prec Ind Co Ltd | Image capturing device and method for obtaining clear images using the image capturing device |
US20190034706A1 (en) * | 2010-06-07 | 2019-01-31 | Affectiva, Inc. | Facial tracking with classifiers for query evaluation |
US11430260B2 (en) | 2010-06-07 | 2022-08-30 | Affectiva, Inc. | Electronic display viewing verification |
CN101908236B (zh) * | 2010-06-08 | 2012-03-21 | 上海理工大学 | 公交客流统计方法 |
US20120146172A1 (en) | 2010-06-18 | 2012-06-14 | Sionyx, Inc. | High Speed Photosensitive Devices and Associated Methods |
US8424621B2 (en) | 2010-07-23 | 2013-04-23 | Toyota Motor Engineering & Manufacturing North America, Inc. | Omni traction wheel system and methods of operating the same |
US20130163833A1 (en) * | 2010-09-17 | 2013-06-27 | Utc Fire & Security Corporation | Security device with security image update capability |
CN102466800B (zh) * | 2010-11-09 | 2014-05-14 | 亚洲光学股份有限公司 | 具自动启动测距功能的雷射测距装置及其自动启动方法 |
KR20140030138A (ko) | 2011-01-23 | 2014-03-11 | 익스트림 리얼리티 엘티디. | 입체 화상 및 비디오를 생성하는 방법, 시스템, 장치 및 관련 프로세스 로직 |
US8908034B2 (en) * | 2011-01-23 | 2014-12-09 | James Bordonaro | Surveillance systems and methods to monitor, recognize, track objects and unusual activities in real time within user defined boundaries in an area |
US8988087B2 (en) | 2011-01-24 | 2015-03-24 | Microsoft Technology Licensing, Llc | Touchscreen testing |
US8725443B2 (en) | 2011-01-24 | 2014-05-13 | Microsoft Corporation | Latency measurement |
US9542092B2 (en) | 2011-02-12 | 2017-01-10 | Microsoft Technology Licensing, Llc | Prediction-based touch contact tracking |
US8982061B2 (en) | 2011-02-12 | 2015-03-17 | Microsoft Technology Licensing, Llc | Angular contact geometry |
US8773377B2 (en) | 2011-03-04 | 2014-07-08 | Microsoft Corporation | Multi-pass touch contact tracking |
DE102011102744A1 (de) * | 2011-05-28 | 2012-11-29 | Connaught Electronics Ltd. | Verfahren zum Betreiben eines Kamerasystems eines Kraftfahrzeugs, Kraftfahrzeug sowie System mit einem Kraftfahrzeug und einer separaten Recheneinrichtung |
FR2976106B1 (fr) | 2011-06-01 | 2015-07-17 | Morpho | Systeme et methode pour le controle de l'acces d'un individu a une zone a acces controle |
US9020207B2 (en) | 2011-06-07 | 2015-04-28 | Accenture Global Services Limited | Biometric authentication technology |
US9496308B2 (en) | 2011-06-09 | 2016-11-15 | Sionyx, Llc | Process module for increasing the response of backside illuminated photosensitive imagers and associated methods |
US8705812B2 (en) * | 2011-06-10 | 2014-04-22 | Amazon Technologies, Inc. | Enhanced face recognition in video |
US10007330B2 (en) | 2011-06-21 | 2018-06-26 | Microsoft Technology Licensing, Llc | Region of interest segmentation |
EP2546782B1 (en) | 2011-07-11 | 2014-06-25 | Accenture Global Services Limited | Liveness detection |
US20130016203A1 (en) * | 2011-07-13 | 2013-01-17 | Saylor Stephen D | Biometric imaging devices and associated methods |
US8913019B2 (en) | 2011-07-14 | 2014-12-16 | Microsoft Corporation | Multi-finger detection and component resolution |
DE102011079285A1 (de) * | 2011-07-15 | 2013-01-17 | Bundesdruckerei Gmbh | Vorrichtung zur Erfassung biometrischer Merkmale |
US20130027561A1 (en) * | 2011-07-29 | 2013-01-31 | Panasonic Corporation | System and method for improving site operations by detecting abnormalities |
US8832805B1 (en) * | 2011-08-08 | 2014-09-09 | Amazon Technologies, Inc. | Verifying user information |
US10089327B2 (en) | 2011-08-18 | 2018-10-02 | Qualcomm Incorporated | Smart camera for sharing pictures automatically |
US20130201344A1 (en) * | 2011-08-18 | 2013-08-08 | Qualcomm Incorporated | Smart camera for taking pictures automatically |
CN102298801A (zh) * | 2011-08-23 | 2011-12-28 | 苏州盛世华安智能科技有限公司 | 访客智能安全管理装置 |
US9378389B2 (en) | 2011-09-09 | 2016-06-28 | Microsoft Technology Licensing, Llc | Shared item account selection |
FR2979873B1 (fr) * | 2011-09-12 | 2013-10-04 | Valeo Securite Habitacle | Procede d'ouverture d'un ouvrant de vehicule automobile |
TWI439967B (zh) * | 2011-10-31 | 2014-06-01 | Hon Hai Prec Ind Co Ltd | 安全監控系統及安全監控方法 |
US9785281B2 (en) | 2011-11-09 | 2017-10-10 | Microsoft Technology Licensing, Llc. | Acoustic touch sensitive testing |
WO2013069023A2 (en) * | 2011-11-13 | 2013-05-16 | Extreme Reality Ltd. | Methods systems apparatuses circuits and associated computer executable code for video based subject characterization, categorization, identification and/or presence response |
US8971574B2 (en) * | 2011-11-22 | 2015-03-03 | Ulsee Inc. | Orientation correction method for electronic device used to perform facial recognition and electronic device thereof |
US8941561B1 (en) | 2012-01-06 | 2015-01-27 | Google Inc. | Image capture |
US9197864B1 (en) | 2012-01-06 | 2015-11-24 | Google Inc. | Zoom and image capture based on features of interest |
AU2013200450B2 (en) * | 2012-01-30 | 2014-10-02 | Accenture Global Services Limited | System and method for face capture and matching |
US20130194406A1 (en) * | 2012-01-31 | 2013-08-01 | Kai Liu | Targeted Delivery of Content |
US8914254B2 (en) | 2012-01-31 | 2014-12-16 | Microsoft Corporation | Latency measurement |
WO2013118491A1 (ja) | 2012-02-06 | 2013-08-15 | パナソニック株式会社 | カメラ装置、サーバ装置、画像監視システム、画像監視システム制御方法及び画像監視システム制御プログラム |
US9558332B1 (en) * | 2012-04-09 | 2017-01-31 | Securus Technologies, Inc. | Virtual communication device interfaces |
US8948465B2 (en) | 2012-04-09 | 2015-02-03 | Accenture Global Services Limited | Biometric matching technology |
US8929596B2 (en) | 2012-06-04 | 2015-01-06 | International Business Machines Corporation | Surveillance including a modified video data stream |
US8855369B2 (en) * | 2012-06-22 | 2014-10-07 | Microsoft Corporation | Self learning face recognition using depth based tracking for database generation and update |
DE102012214148A1 (de) * | 2012-08-09 | 2014-02-13 | Siemens Aktiengesellschaft | Bildgebungseinrichtung |
CN103679745B (zh) * | 2012-09-17 | 2016-08-17 | 浙江大华技术股份有限公司 | 一种运动目标检测方法及装置 |
US11083344B2 (en) | 2012-10-11 | 2021-08-10 | Roman Tsibulevskiy | Partition technologies |
US9286509B1 (en) | 2012-10-19 | 2016-03-15 | Google Inc. | Image optimization during facial recognition |
US9317147B2 (en) | 2012-10-24 | 2016-04-19 | Microsoft Technology Licensing, Llc. | Input testing tool |
GB2508227B (en) * | 2012-11-27 | 2015-02-25 | Bae Systems Plc | Imaging system and process |
EP2736249A1 (en) * | 2012-11-27 | 2014-05-28 | BAE Systems PLC | Imaging system and process |
WO2014083321A1 (en) * | 2012-11-27 | 2014-06-05 | Bae Systems Plc | Imaging system and process |
BR112015014945A2 (pt) * | 2012-12-21 | 2017-07-11 | Koninklijke Philips Nv | sistema de monitoramento remoto de fotoplestimografia, método de monitoramento remoto de fotoplestimografia, e programa de computador |
US9563955B1 (en) * | 2013-05-15 | 2017-02-07 | Amazon Technologies, Inc. | Object tracking techniques |
WO2014209421A1 (en) | 2013-06-29 | 2014-12-31 | Sionyx, Inc. | Shallow trench textured regions and associated methods |
KR102153539B1 (ko) * | 2013-09-05 | 2020-09-08 | 한국전자통신연구원 | 영상 처리 장치 및 방법 |
JP6025690B2 (ja) * | 2013-11-01 | 2016-11-16 | ソニー株式会社 | 情報処理装置および情報処理方法 |
US9672649B2 (en) * | 2013-11-04 | 2017-06-06 | At&T Intellectual Property I, Lp | System and method for enabling mirror video chat using a wearable display device |
CN105011903B (zh) * | 2014-04-30 | 2018-06-29 | 上海华博信息服务有限公司 | 一种智能健康诊断系统 |
US20150356802A1 (en) * | 2014-06-10 | 2015-12-10 | Center For Integrated Smart Sensors Foundation | Low Power Door-Lock Apparatus Based On Battery Using Face Recognition |
US11615663B1 (en) * | 2014-06-17 | 2023-03-28 | Amazon Technologies, Inc. | User authentication system |
US9526896B2 (en) * | 2014-08-12 | 2016-12-27 | Second Sight Medical Products, Inc. | Pattern detection and location indication for a visual prosthesis |
JP2016053896A (ja) * | 2014-09-04 | 2016-04-14 | グローリー株式会社 | ゲートシステムおよびゲート通過の制御方法 |
JP6205073B2 (ja) * | 2014-09-10 | 2017-09-27 | 富士フイルム株式会社 | 撮像装置、撮像方法、及びプログラム |
US9953187B2 (en) | 2014-11-25 | 2018-04-24 | Honeywell International Inc. | System and method of contextual adjustment of video fidelity to protect privacy |
JP6483485B2 (ja) * | 2015-03-13 | 2019-03-13 | 株式会社東芝 | 人物認証方法 |
US10853625B2 (en) | 2015-03-21 | 2020-12-01 | Mine One Gmbh | Facial signature methods, systems and software |
WO2016183380A1 (en) * | 2015-05-12 | 2016-11-17 | Mine One Gmbh | Facial signature methods, systems and software |
US10551913B2 (en) | 2015-03-21 | 2020-02-04 | Mine One Gmbh | Virtual 3D methods, systems and software |
CN104778726A (zh) * | 2015-04-29 | 2015-07-15 | 深圳市保千里电子有限公司 | 一种基于人体特征进行运动轨迹跟踪的方法及系统 |
CN104902233B (zh) * | 2015-05-22 | 2018-03-09 | 辽宁玖鼎金盛计算机技术有限公司 | 综合安全监控系统 |
US10146797B2 (en) * | 2015-05-29 | 2018-12-04 | Accenture Global Services Limited | Face recognition image data cache |
WO2017002511A1 (ja) | 2015-06-29 | 2017-01-05 | 富士フイルム株式会社 | 撮像装置及び撮像方法 |
US20210390246A1 (en) * | 2015-07-11 | 2021-12-16 | Thinxtream Technologies Ptd. Ltd. | System and method for contextual service delivery via mobile communication devices |
US10803229B2 (en) * | 2015-07-16 | 2020-10-13 | Thinxtream Technologies Pte. Ltd. | Hybrid system and method for data and file conversion across computing devices and platforms |
CN105426833A (zh) * | 2015-11-13 | 2016-03-23 | 小米科技有限责任公司 | 用于游戏的图像识别方法及装置 |
US10579863B2 (en) | 2015-12-16 | 2020-03-03 | Global Tel*Link Corporation | Unmanned aerial vehicle with biometric verification |
US10229324B2 (en) | 2015-12-24 | 2019-03-12 | Intel Corporation | Video summarization using semantic information |
US20170300742A1 (en) * | 2016-04-14 | 2017-10-19 | Qualcomm Incorporated | Systems and methods for recognizing an object in an image |
US9892335B2 (en) * | 2016-06-05 | 2018-02-13 | International Business Machines Corporation | Real-time system for determining current video scale |
CN109414221B (zh) * | 2016-06-29 | 2021-08-17 | 视觉探索工业股份有限公司 | 用于矫正装置的测量和定制系统 |
CN106054278B (zh) * | 2016-07-07 | 2018-06-12 | 王飞 | 一种头部三维数据采集及身份识别的安检门及方法 |
US20180091730A1 (en) * | 2016-09-21 | 2018-03-29 | Ring Inc. | Security devices configured for capturing recognizable facial images |
EP3301476B1 (en) * | 2016-09-28 | 2023-03-15 | STMicroelectronics (Research & Development) Limited | Apparatus having a camera and a time of flight single photon avalanche diode based range detecting module for controlling the camera and corresponding method |
KR102559745B1 (ko) | 2016-10-13 | 2023-07-26 | 엘지전자 주식회사 | 공항 로봇 및 그를 포함하는 공항 로봇 시스템 |
WO2018109869A1 (ja) * | 2016-12-14 | 2018-06-21 | 三菱電機株式会社 | 監視カメラシステム、監視カメラ |
IT201700021559A1 (it) * | 2017-02-27 | 2018-08-27 | St Microelectronics Srl | Procedimento per il controllo di raggi laser, dispositivo, apparecchiatura e prodotto informatico corrispondenti |
WO2018182053A1 (ko) * | 2017-03-27 | 2018-10-04 | 스노우 주식회사 | 오브젝트의 형상에 대한 정보를 획득하는 방법 및 장치 |
US10762353B2 (en) * | 2017-04-14 | 2020-09-01 | Global Tel*Link Corporation | Inmate tracking system in a controlled environment |
US10949940B2 (en) * | 2017-04-19 | 2021-03-16 | Global Tel*Link Corporation | Mobile correctional facility robots |
US10690466B2 (en) | 2017-04-19 | 2020-06-23 | Global Tel*Link Corporation | Mobile correctional facility robots |
US10181192B1 (en) * | 2017-06-30 | 2019-01-15 | Canon Kabushiki Kaisha | Background modelling of sport videos |
US20190031145A1 (en) * | 2017-07-28 | 2019-01-31 | Alclear, Llc | Biometric identification system connected vehicle |
RU2667790C1 (ru) | 2017-09-01 | 2018-09-24 | Самсунг Электроникс Ко., Лтд. | Способ автоматической регулировки экспозиции для инфракрасной камеры и использующее этот способ вычислительное устройство пользователя |
JP6409929B1 (ja) * | 2017-09-19 | 2018-10-24 | 日本電気株式会社 | 照合システム |
US10679082B2 (en) * | 2017-09-28 | 2020-06-09 | Ncr Corporation | Self-Service Terminal (SST) facial authentication processing |
US10521651B2 (en) * | 2017-10-18 | 2019-12-31 | Global Tel*Link Corporation | High definition camera and image recognition system for criminal identification |
NO343993B1 (en) * | 2017-10-30 | 2019-08-12 | Hypervig As | A security system |
US11538257B2 (en) | 2017-12-08 | 2022-12-27 | Gatekeeper Inc. | Detection, counting and identification of occupants in vehicles |
CN107944422B (zh) * | 2017-12-08 | 2020-05-12 | 业成科技(成都)有限公司 | 三维摄像装置、三维摄像方法及人脸识别方法 |
US10601491B2 (en) | 2017-12-15 | 2020-03-24 | Google Llc | Performance-based antenna selection for user devices |
US10657782B2 (en) | 2017-12-21 | 2020-05-19 | At&T Intellectual Property I, L.P. | Networked premises security |
CN108241853A (zh) * | 2017-12-28 | 2018-07-03 | 深圳英飞拓科技股份有限公司 | 一种视频监控方法、系统及终端设备 |
JP6973258B2 (ja) * | 2018-04-13 | 2021-11-24 | オムロン株式会社 | 画像解析装置、方法およびプログラム |
US11010597B1 (en) | 2018-05-10 | 2021-05-18 | Ism Connect, Llc | Entry prevention of persons of interest from venues and events using facial recognition |
US11132532B1 (en) | 2018-05-10 | 2021-09-28 | Ism Connect, Llc | System and method for facial recognition accuracy |
US11544965B1 (en) | 2018-05-10 | 2023-01-03 | Wicket, Llc | System and method for access control using a plurality of images |
US10839200B2 (en) * | 2018-05-16 | 2020-11-17 | Gatekeeper Security, Inc. | Facial detection and recognition for pedestrian traffic |
US11087119B2 (en) * | 2018-05-16 | 2021-08-10 | Gatekeeper Security, Inc. | Facial detection and recognition for pedestrian traffic |
EP3803796A4 (en) | 2018-05-29 | 2021-06-23 | Curiouser Products Inc. | REFLECTIVE VIDEO DISPLAY DEVICE FOR INTERACTIVE TRAINING AND DEMONSTRATION AND METHOD OF USE |
US11053729B2 (en) * | 2018-06-29 | 2021-07-06 | Overhead Door Corporation | Door system and method with early warning sensors |
CN108877011A (zh) * | 2018-07-06 | 2018-11-23 | 安徽超清科技股份有限公司 | 一种基于人脸识别的门禁系统 |
CN109714521B (zh) * | 2018-08-20 | 2020-11-03 | 浙江禾记电子科技有限公司 | 会议场所现场登记平台 |
DE102018121256A1 (de) * | 2018-08-30 | 2020-03-05 | Bundesdruckerei Gmbh | Zugangskontrollsystem zum Erfassen eines Gesichtsbildes einer Person |
JP7204421B2 (ja) * | 2018-10-25 | 2023-01-16 | キヤノン株式会社 | 検知装置およびその制御方法 |
WO2020176008A1 (ru) * | 2019-02-28 | 2020-09-03 | Публичное Акционерное Общество "Сбербанк России" | Способ и система распознования лиц и построения маршрута |
RU2694140C1 (ru) * | 2019-04-04 | 2019-07-09 | Общество с ограниченной ответственностью "Скайтрэк" (ООО "Скайтрэк") | Способ идентификации человека в режиме одновременной работы группы видеокамер |
USD963407S1 (en) | 2019-06-24 | 2022-09-13 | Accenture Global Solutions Limited | Beverage dispensing machine |
US10726246B1 (en) | 2019-06-24 | 2020-07-28 | Accenture Global Solutions Limited | Automated vending machine with customer and identification authentication |
US10867193B1 (en) | 2019-07-10 | 2020-12-15 | Gatekeeper Security, Inc. | Imaging systems for facial detection, license plate reading, vehicle overview and vehicle make, model, and color detection |
US11283937B1 (en) * | 2019-08-15 | 2022-03-22 | Ikorongo Technology, LLC | Sharing images based on face matching in a network |
US11157722B2 (en) * | 2019-10-10 | 2021-10-26 | Unisys Corporation | Systems and methods for facial recognition in a campus setting |
US11196965B2 (en) | 2019-10-25 | 2021-12-07 | Gatekeeper Security, Inc. | Image artifact mitigation in scanners for entry control systems |
CN112788227B (zh) * | 2019-11-07 | 2022-06-14 | 富泰华工业(深圳)有限公司 | 目标追踪拍摄方法、装置、计算机装置及存储介质 |
US11275928B2 (en) * | 2019-12-12 | 2022-03-15 | Realnetworks, Inc. | Methods and systems for facial recognition using motion vector trained model |
US11373322B2 (en) | 2019-12-26 | 2022-06-28 | Stmicroelectronics, Inc. | Depth sensing with a ranging sensor and an image sensor |
CN111179477B (zh) * | 2020-02-20 | 2021-01-05 | 广东创宇信息工程有限公司 | 一种通用型人脸识别安全门 |
EP3869395A1 (en) | 2020-02-21 | 2021-08-25 | Accenture Global Solutions Limited | Identity and liveness verification |
EP3879478A1 (en) * | 2020-03-10 | 2021-09-15 | Mastercard International Incorporated | A method, computer program and apparatus |
EP4143809A1 (en) | 2020-04-30 | 2023-03-08 | Curiouser Products Inc. | Reflective video display apparatus for interactive training and demonstration and methods of using same |
US11151390B1 (en) | 2020-05-21 | 2021-10-19 | Ism Connect, Llc | Self-correcting face detection pipeline-based method and apparatus for censusing a crowd |
JP7188417B2 (ja) * | 2020-06-25 | 2022-12-13 | 横河電機株式会社 | 装置、方法およびプログラム |
CN112017346B (zh) * | 2020-08-25 | 2023-08-18 | 杭州海康威视数字技术股份有限公司 | 门禁管理方法、门禁终端、门禁系统及存储介质 |
US11167172B1 (en) | 2020-09-04 | 2021-11-09 | Curiouser Products Inc. | Video rebroadcasting with multiplexed communications and display via smart mirrors |
US11553248B2 (en) | 2020-09-25 | 2023-01-10 | Arris Enterprises Llc | System and method for the access and routing of content on the basis of facial recognition |
CN112614264B (zh) * | 2020-12-30 | 2022-12-09 | 无锡嘉利信科技有限公司 | 一种人脸识别与指纹解锁一体式小区门禁系统 |
CN112949505A (zh) * | 2021-03-05 | 2021-06-11 | 浙江工商大学 | 基于mcu的离线式人脸识别智能门锁以及控制方法 |
US11482088B1 (en) * | 2021-06-22 | 2022-10-25 | Motorola Solutions, Inc. | System and method for context aware access control with weapons detection |
US11770623B2 (en) * | 2021-07-29 | 2023-09-26 | Lenovo (Singapore) Pte. Ltd. | Single camera image data collection |
JP7266071B2 (ja) * | 2021-08-02 | 2023-04-27 | 株式会社日立ソリューションズ西日本 | オンライン認証装置、方法、およびプログラム |
TWI827028B (zh) * | 2022-04-29 | 2023-12-21 | 新加坡商鴻運科股份有限公司 | 一種目標追蹤方法與裝置 |
CN116363817B (zh) * | 2023-02-02 | 2024-01-02 | 淮阴工学院 | 一种化工厂危险区域入侵预警方法及系统 |
Family Cites Families (56)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4337482A (en) * | 1979-10-17 | 1982-06-29 | Coutta John M | Surveillance system |
JPS5783971A (en) * | 1980-11-13 | 1982-05-26 | Asahi Optical Co Ltd | Spot exposure control circuit |
US4326218A (en) * | 1980-11-14 | 1982-04-20 | Coutta John M | Surveillance system |
US5339163A (en) * | 1988-03-16 | 1994-08-16 | Canon Kabushiki Kaisha | Automatic exposure control device using plural image plane detection areas |
US4963962A (en) * | 1989-01-25 | 1990-10-16 | Visual Methods, Inc. | Optical surveillance assembly and camera |
GB9019538D0 (en) * | 1990-09-07 | 1990-10-24 | Philips Electronic Associated | Tracking a moving object |
US5296945A (en) * | 1991-03-13 | 1994-03-22 | Olympus Optical Co., Ltd. | Video ID photo printing apparatus and complexion converting apparatus |
US5581625A (en) * | 1994-01-31 | 1996-12-03 | International Business Machines Corporation | Stereo vision system for counting items in a queue |
US5852669A (en) * | 1994-04-06 | 1998-12-22 | Lucent Technologies Inc. | Automatic face and facial feature location detection for low bit rate model-assisted H.261 compatible coding of video |
US6714665B1 (en) * | 1994-09-02 | 2004-03-30 | Sarnoff Corporation | Fully automated iris recognition system utilizing wide and narrow fields of view |
US5572596A (en) * | 1994-09-02 | 1996-11-05 | David Sarnoff Research Center, Inc. | Automated, non-invasive iris recognition system and method |
US5629752A (en) * | 1994-10-28 | 1997-05-13 | Fuji Photo Film Co., Ltd. | Method of determining an exposure amount using optical recognition of facial features |
US5699449A (en) * | 1994-11-14 | 1997-12-16 | The University Of Connecticut | Method and apparatus for implementation of neural networks for face recognition |
JP3452685B2 (ja) * | 1995-05-10 | 2003-09-29 | 三菱電機株式会社 | 顔画像の処理装置 |
US5805745A (en) * | 1995-06-26 | 1998-09-08 | Lucent Technologies Inc. | Method for locating a subject's lips in a facial image |
US5715325A (en) * | 1995-08-30 | 1998-02-03 | Siemens Corporate Research, Inc. | Apparatus and method for detecting a face in a video image |
US6320610B1 (en) * | 1998-12-31 | 2001-11-20 | Sensar, Inc. | Compact imaging device incorporating rotatably mounted cameras |
US5717512A (en) * | 1996-05-15 | 1998-02-10 | Chmielewski, Jr.; Thomas A. | Compact image steering and focusing device |
US6173068B1 (en) * | 1996-07-29 | 2001-01-09 | Mikos, Ltd. | Method and apparatus for recognizing and classifying individuals based on minutiae |
US6184926B1 (en) * | 1996-11-26 | 2001-02-06 | Ncr Corporation | System and method for detecting a human face in uncontrolled environments |
US5991429A (en) * | 1996-12-06 | 1999-11-23 | Coffin; Jeffrey S. | Facial recognition system for security access and identification |
US6118888A (en) * | 1997-02-28 | 2000-09-12 | Kabushiki Kaisha Toshiba | Multi-modal interface apparatus and method |
US6188777B1 (en) * | 1997-08-01 | 2001-02-13 | Interval Research Corporation | Method and apparatus for personnel detection and tracking |
US5892837A (en) * | 1997-08-29 | 1999-04-06 | Eastman Kodak Company | Computer program product for locating objects in an image |
US6108437A (en) * | 1997-11-14 | 2000-08-22 | Seiko Epson Corporation | Face recognition apparatus, method, system and computer readable medium thereof |
JP2962295B2 (ja) | 1997-11-14 | 1999-10-12 | 日本電気株式会社 | 自動情報処理装置の内蔵カメラの自動姿勢制御方法および自動姿勢制御システム |
US6215519B1 (en) * | 1998-03-04 | 2001-04-10 | The Trustees Of Columbia University In The City Of New York | Combined wide angle and narrow angle imaging system and method for surveillance and monitoring |
US6301370B1 (en) * | 1998-04-13 | 2001-10-09 | Eyematic Interfaces, Inc. | Face recognition from video images |
GB2341231A (en) * | 1998-09-05 | 2000-03-08 | Sharp Kk | Face detection in an image |
US6757422B1 (en) * | 1998-11-12 | 2004-06-29 | Canon Kabushiki Kaisha | Viewpoint position detection apparatus and method, and stereoscopic image display system |
US6289113B1 (en) * | 1998-11-25 | 2001-09-11 | Iridian Technologies, Inc. | Handheld iris imaging apparatus and method |
US6298145B1 (en) * | 1999-01-19 | 2001-10-02 | Hewlett-Packard Company | Extracting image frames suitable for printing and visual presentation from the compressed image data |
US7038715B1 (en) * | 1999-01-19 | 2006-05-02 | Texas Instruments Incorporated | Digital still camera with high-quality portrait mode |
JP2000259814A (ja) * | 1999-03-11 | 2000-09-22 | Toshiba Corp | 画像処理装置及びその方法 |
US7039221B1 (en) * | 1999-04-09 | 2006-05-02 | Tumey David M | Facial image verification utilizing smart-card with integrated video camera |
US6526161B1 (en) * | 1999-08-30 | 2003-02-25 | Koninklijke Philips Electronics N.V. | System and method for biometrics-based facial feature extraction |
EP1085366B1 (en) * | 1999-09-14 | 2004-09-15 | Kabushiki Kaisha Toshiba | Face image photographing apparatus and face image photographing method |
US6757008B1 (en) * | 1999-09-29 | 2004-06-29 | Spectrum San Diego, Inc. | Video surveillance system |
US6642955B1 (en) * | 2000-01-10 | 2003-11-04 | Extreme Cctv Inc. | Surveillance camera system with infrared and visible light bandpass control circuit |
US6940545B1 (en) * | 2000-02-28 | 2005-09-06 | Eastman Kodak Company | Face detecting camera and method |
JP4526639B2 (ja) * | 2000-03-02 | 2010-08-18 | 本田技研工業株式会社 | 顔認識装置およびその方法 |
JP2001331799A (ja) * | 2000-03-16 | 2001-11-30 | Toshiba Corp | 画像処理装置および画像処理方法 |
DE60119418T2 (de) * | 2000-03-22 | 2007-05-24 | Kabushiki Kaisha Toshiba, Kawasaki | Gesichtsbildaufnehmendes Erkennungsgerät und Passüberprüfungsgerät |
EP1290571A4 (en) * | 2000-04-17 | 2005-11-02 | Igt Reno Nev | SYSTEM AND METHOD FOR DETECTING THE PICTURE OF A PLAYER TO INTEGRATE IT INTO A GAME |
US6766035B1 (en) * | 2000-05-03 | 2004-07-20 | Koninklijke Philips Electronics N.V. | Method and apparatus for adaptive position determination video conferencing and other applications |
AU2001282483A1 (en) * | 2000-08-29 | 2002-03-13 | Imageid Ltd. | Indexing, storage and retrieval of digital images |
JP4374759B2 (ja) * | 2000-10-13 | 2009-12-02 | オムロン株式会社 | 画像比較システムおよび画像比較装置 |
US6680745B2 (en) * | 2000-11-10 | 2004-01-20 | Perceptive Network Technologies, Inc. | Videoconferencing method with tracking of face and dynamic bandwidth allocation |
JP2002170112A (ja) * | 2000-12-04 | 2002-06-14 | Minolta Co Ltd | 解像度変換プログラムを記録したコンピュータ読取可能な記録媒体、解像度変換装置および解像度変換方法 |
US6525663B2 (en) * | 2001-03-15 | 2003-02-25 | Koninklijke Philips Electronics N.V. | Automatic system for monitoring persons entering and leaving changing room |
US6920236B2 (en) * | 2001-03-26 | 2005-07-19 | Mikos, Ltd. | Dual band biometric identification system |
US6985179B2 (en) * | 2001-03-30 | 2006-01-10 | Intel Corporaiton | Determining image quality for improving object trackability |
US7020345B2 (en) * | 2001-04-26 | 2006-03-28 | Industrial Technology Research Institute | Methods and system for illuminant-compensation |
US7027620B2 (en) * | 2001-06-07 | 2006-04-11 | Sony Corporation | Method of recognizing partially occluded and/or imprecisely localized faces |
US7068841B2 (en) * | 2001-06-29 | 2006-06-27 | Hewlett-Packard Development Company, L.P. | Automatic digital image enhancement |
US7027619B2 (en) * | 2001-09-13 | 2006-04-11 | Honeywell International Inc. | Near-infrared method and system for use in face detection |
-
2001
- 2001-10-17 CA CA002359269A patent/CA2359269A1/en not_active Abandoned
-
2002
- 2002-10-17 AT AT02767029T patent/ATE320054T1/de not_active IP Right Cessation
- 2002-10-17 PT PT02767029T patent/PT1444667E/pt unknown
- 2002-10-17 CN CNB028201493A patent/CN100418112C/zh not_active Expired - Fee Related
- 2002-10-17 DK DK02767029T patent/DK1444667T3/da active
- 2002-10-17 DE DE60209760T patent/DE60209760T2/de not_active Expired - Lifetime
- 2002-10-17 JP JP2003537015A patent/JP2005505871A/ja active Pending
- 2002-10-17 ES ES02767029T patent/ES2260476T3/es not_active Expired - Lifetime
- 2002-10-17 EP EP02767029A patent/EP1444667B1/en not_active Expired - Lifetime
- 2002-10-17 EP EP06004553A patent/EP1667080A1/en not_active Ceased
- 2002-10-17 US US10/492,951 patent/US20050063566A1/en not_active Abandoned
- 2002-10-17 NZ NZ532315A patent/NZ532315A/en not_active IP Right Cessation
- 2002-10-17 WO PCT/CA2002/001566 patent/WO2003034361A1/en active IP Right Grant
-
2005
- 2005-04-04 HK HK05102793.0A patent/HK1070167A1/xx not_active IP Right Cessation
-
2008
- 2008-08-13 US US12/228,497 patent/US20090080715A1/en not_active Abandoned
Also Published As
Publication number | Publication date |
---|---|
NZ532315A (en) | 2005-08-26 |
CN100418112C (zh) | 2008-09-10 |
DE60209760D1 (de) | 2006-05-04 |
DE60209760T2 (de) | 2007-01-18 |
ATE320054T1 (de) | 2006-03-15 |
US20090080715A1 (en) | 2009-03-26 |
US20050063566A1 (en) | 2005-03-24 |
EP1444667A1 (en) | 2004-08-11 |
EP1667080A1 (en) | 2006-06-07 |
PT1444667E (pt) | 2006-07-31 |
CA2359269A1 (en) | 2003-04-17 |
DK1444667T3 (da) | 2006-07-17 |
CN1568489A (zh) | 2005-01-19 |
HK1070167A1 (en) | 2005-06-10 |
WO2003034361A1 (en) | 2003-04-24 |
EP1444667B1 (en) | 2006-03-08 |
JP2005505871A (ja) | 2005-02-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ES2260476T3 (es) | Sistema de imagenes faciales para registro y confirmacion automatizad a de identidad. | |
ES2739036T3 (es) | Cámara de análisis de vídeo de resolución dual sacádica | |
JP6461406B1 (ja) | 車両検査セキュリティシステムにおける改善された顔検出および認識のための装置、システムおよび方法 | |
US7806604B2 (en) | Face detection and tracking in a wide field of view | |
US7574021B2 (en) | Iris recognition for a secure facility | |
ES2647738T3 (es) | Dispositivo, sistema y método para punto de control de entrada | |
US8433103B2 (en) | Long distance multimodal biometric system and method | |
US10248194B2 (en) | Methods and apparatus for retinal retroreflection imaging | |
US20130215228A1 (en) | Method and apparatus for robustly collecting facial, ocular, and iris images using a single sensor | |
JP2002514098A (ja) | 虹彩取得用イメージのための装置 | |
JP2008523475A (ja) | 目からの反射を用いる虹彩撮像 | |
CN102551655A (zh) | 3d凝视跟踪器 | |
EP4033400A1 (en) | System for acquiring iris image to enlarge iris recognition range | |
Boehnen et al. | A multi-sample standoff multimodal biometric system | |
Wallhoff et al. | Multimodal face detection, head orientation and eye gaze tracking | |
CA2463836A1 (en) | Face imaging system for recordal and automated identity confirmation | |
AU2002331511B2 (en) | Face imaging system for recordal and automated identity confirmation | |
JP3342810B2 (ja) | 虹彩画像取得装置 | |
AU2002331511A1 (en) | Face imaging system for recordal and automated identity confirmation | |
KR102367118B1 (ko) | 디스플레이 장치 및 그의 제어 방법 | |
KR20210101928A (ko) | 홍채인식범위 확장을 위한 홍채 영상 획득시스템 | |
Boehnen et al. | A standoff multimodal biometric system | |
CN112489078A (zh) | 一种智能人像跟踪全景摄像头 | |
KR20220163895A (ko) | 다중카메라 연계추적을 위한 연계추적기능을 제공하는 영상감시시스템 |