ES2364915T3 - Cable trampa de video. - Google Patents

Cable trampa de video. Download PDF

Info

Publication number
ES2364915T3
ES2364915T3 ES02773727T ES02773727T ES2364915T3 ES 2364915 T3 ES2364915 T3 ES 2364915T3 ES 02773727 T ES02773727 T ES 02773727T ES 02773727 T ES02773727 T ES 02773727T ES 2364915 T3 ES2364915 T3 ES 2364915T3
Authority
ES
Spain
Prior art keywords
video
detection device
trap cable
cable
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
ES02773727T
Other languages
English (en)
Inventor
Peter L. Venetianer
Mark C. Allmen
Paul C. Brewer
Andrew J. Chosak
John I. W. Clark
Matthew F. Frazier
Niels Haering
Tasuki Hirata
Caspar Horne
Alan J. Lipton
William E. Severson
James S. Sfekas
Thomas E. Slowe
Thomas M. Strat
John F. Tilki
Zhong Zhang
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Objectvideo Inc
Original Assignee
Objectvideo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=25519079&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=ES2364915(T3) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Objectvideo Inc filed Critical Objectvideo Inc
Application granted granted Critical
Publication of ES2364915T3 publication Critical patent/ES2364915T3/es
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/19Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using infrared-radiation detection systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/53Recognition of crowd images, e.g. recognition of crowd congestion
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • G08B13/19608Tracking movement of a target, e.g. by detecting an object predefined as a target, using target direction and or velocity to predict its new position
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19639Details of the system layout
    • G08B13/19652Systems using zones in a single scene defined for different treatment, e.g. outer zone gives pre-alarm, inner zone gives alarm
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19665Details related to the storage of video surveillance data
    • G08B13/19671Addition of non-video data, i.e. metadata, to video stream
    • G08B13/19673Addition of time stamp, i.e. time metadata, to video stream
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19678User interface
    • G08B13/1968Interfaces for setting up or customising the system

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Library & Information Science (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Glass Compositions (AREA)
  • Aiming, Guidance, Guns With A Light Source, Armor, Camouflage, And Targets (AREA)
  • Liquid Crystal (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

Un sistema de cable trampa de video que comprende un dispositivo de detección para producir una salida de video; y un sistema informático para calibrar el dispositivo de detección y para reunir y procesar datos en base a la salida de video recibida del dispositivo de detección, para mostrar los datos procesados y que incluye software que comprende instrucciones para permitir a un usuario introducir al menos un cable trampa virtual en una interfaz del usuario, y una dirección de cruce del al menos un cable trampa virtual.

Description

CAMPO DE LA INVENCIÓN
Esta invención se refiere a sistemas de vigilancia. Específicamente, la invención se refiere a un sistema de vigilancia basado en video que implementa un cable trampa virtual.
ANTECEDENTES DE LA INVENCIÓN
En su forma original, un cable trampa era un arreglo en el cual un cable, cordel, o similar se extendía atravesando un camino, y si alguien o algo tropezaba con el cable o tiraba de él de otro modo, se desencadenaba alguna respuesta. Por ejemplo, dicha respuesta podía ser detonar una mina terrestre, hacer sonar una alarma, o grabar un evento (por ejemplo, activar un contador, una cámara, etc.). Actualmente, los cables trampa se implementan a menudo, por ejemplo, como haces de luz (por ejemplo, láser, infrarroja, o visible); cuando alguien o algo interrumpe el haz, se desencadena una respuesta.
Un ejemplo de un cable trampa convencional que usa un haz de luz se muestra esquemáticamente en la figura
1. Una fuente genera un haz de luz, el cual se transmite cruzando un camino hasta un receptor. Si el haz se rompe, entonces el receptor ya no lo recibe. Esto da como resultado el desencadenamiento de alguna respuesta, como se ha descrito anteriormente.
Los cables trampa convencionales son ventajosos en que son al menos conceptualmente sencillos de usar. También requieren un mínimo de intervención humana, una vez que han sido instalados.
Los cables trampa convencionales, sin embargo, tienen una serie de desventajas. Por ejemplo, no pueden discriminar entre objetos activadores de interés y aquellos que no son de interés. Como ejemplo, se puede estar interesado en cuantas personas, pero no perros, pasean por un camino; sin embargo, una persona o un perro activarían el cable trampa. También es problemático si un grupo de personas caminan juntas, dando como resultado una única activación del cable trampa, en lugar de una para cada persona.
Además, los arreglos de cable trampa convencionales implican generalmente la instalación de equipo dedicado. Por ejemplo, considerando el ejemplo de un cable trampa láser, una fuente de láser y un detector de láser deben instalarse cruzando un camino de interés. Adicionalmente, dicho equipo dedicado puede ser difícil de instalar de tal manera que no sea fácilmente detectable.
Adicionalmente, un cable trampa convencional no ofrece un elevado grado de flexibilidad. Los cables trampa convencionales típicamente detectan si alguien o algo los cruzan, solamente, independientemente de la dirección de cruce. Además, dado que se extienden en líneas rectas, solamente, los cables trampa convencionales están limitados a las regiones a través de las que pueden tenderse.
Los sistemas de videovigilancia convencionales son hoy en día también de uso común. Son, por ejemplo, prevalentes en tiendas, bancos, y muchos otros establecimientos. Los sistemas de videovigilancia generalmente implican el uso de una o más videocámaras, y la salida de video de la cámara o cámaras es grabada para una revisión posterior o es monitorizada por un observador humano, o ambas. Dicho sistema se representa en la figura 2, donde una videocámara 1 está enfocada al camino. La videocámara 1 genera señales de video, las cuales son transmitidas por un medio de comunicación, mostrado en este caso como un cable 2. El cable 2 alimenta a uno o a ambos de un dispositivo de pantalla visual 3 y un dispositivo de grabación 4.
Al contrario que con cables trampa convencionales, los sistemas de videovigilancia pueden diferenciar entre personas y animales (es decir, entre objetos de interés y objetos no de interés) y pueden diferenciar los individuos dentro de un grupo de personas que caminan juntas. Proporcionan además flexibilidad respecto a los cables trampa, en términos de la forma de las regiones que pueden monitorizar. Además, dado que los sistemas de videovigilancia se usan tan ampliamente, no es necesario instalar ningún equipo adicional. Sin embargo, los sistemas de videovigilancia también presentan algunas desventajas.
Quizás la desventaja más significativa de los sistemas de videovigilancia convencionales es que requieren un alto grado de intervención humana para extraer información del video generado. Es decir, alguien tiene que estar viendo el video a medida que se genera, o alguien tiene que revisar el video almacenado.
Un ejemplo de un sistema de vigilancia basado en video de la técnica anterior puede encontrarse en las Patentes de Estados Unidos Nº 6.097.429 y 6.091.771 de Seeley y col. (denominadas colectivamente más adelante como “Seeley y col.”). Seeley y col. se refieren a un sistema de seguridad de video que incluye tomar fotos instantáneas cuando se detecta una intrusión. Seeley y col. abordan algunos de los problemas relacionados con falsas alarmas y la necesidad de detectar algunas intrusiones/intrusos pero no otros. En este trabajo se usan técnicas de diferenciación de imágenes y técnicas de reconocimiento de objetos. Sin embargo, existen muchas diferencias entre Seeley y col. y la presente invención, como se describe a continuación. Entre las más importantes desventajas de Seeley y col. está una falta de descripción de cómo se realizan la detección y el reconocimiento. Lo que se describe en estas áreas contrasta con lo que se presenta con respecto a la presente invención.
Otro ejemplo de un sistema de vigilancia basado en un video y en otros sensores se describe en las Patentes de Estados Unidos Nº 5.696.503 y 5.801.943 de Nasburg (denominadas colectivamente más adelante como “Nasburg”). Nasburg trata del seguimiento de vehículos usando múltiples sensores, incluyendo sensores de video. Se desarrollan “huellas dactilares” para vehículos a seguir y se usan para detectar posteriormente a los vehículos individuales. Aunque Nasburg menciona el concepto de un cable trampa de video, no existe ninguna descripción sobre cómo se implementa dicho cable trampa de video. Nasburg difiere además de la presente invención en que se centra exclusivamente en la detección y el seguimiento de vehículos. Por el contrario, la presente invención, como se describe y se reivindica a continuación, está orientada en la detección de objetos en movimiento arbitrarios, tanto rígidos (como un vehículo) como no rígidos (como un ser humano). Otro ejemplo más de sistema de videovigilancia puede encontrarse en el documento “A smart camera application: DSP-based people detection and tracking”, CHENG v. y col., Journal of Electronic Imaging, Vol. 9, nº 3, julio de 2000, págs. 336-346.
imagen1
RESUMEN DE LA INVENCIÓN
En vista de lo anterior, sería ventajoso tener un sistema de vigilancia que combine las ventajas de los cables trampa con las de los sistemas de videovigilancia, y éste es el objetivo de la presente invención.
La presente invención es como se indica en las reivindicaciones. La presente invención implementa un sistema de cable trampa de video, en el que un cable trampa virtual, de forma arbitraria, se coloca en el video digital usando técnicas de procesamiento de video por ordenador. El cable trampa virtual se monitoriza a continuación, usando de nuevo técnicas de procesamiento de video por ordenador. Como resultado del proceso de monitorización, pueden compilarse estadísticas, detectarse intrusiones, registrarse eventos, desencadenarse respuestas, etc. Por ejemplo, en una realización de la invención, el evento de una persona que cruza un cable trampa virtual en una dirección puede desencadenar la captura de una instantánea de esa persona, para una futura identificación.
El sistema de la invención puede implementarse usando equipo de video existente junto con equipo informático. Tiene la ventaja, por lo tanto, de que no requiere una importante instalación de equipo de monitorización. El sistema de la invención puede estar realizado, en parte, en forma de un medio legible por ordenador que contiene un software que implementa diversas etapas de un procedimiento correspondiente, o como un sistema informático, el cual puede incluir una red informática, que ejecute dicho software.
El sistema de la invención también puede usarse junto con dispositivos de captura de imágenes diferentes de un video convencional, incluyendo sistemas de captura de imágenes térmicas o cámaras de infrarrojos.
Una realización de la invención comprende un procedimiento para implementar un sistema de cable trampa de video, que comprende las etapas de: instalar un dispositivo de detección (el cual puede ser una videocámara u otro dispositivo semejante), si no existe ya uno; calibrar el dispositivo de detección; establecer un límite como un cable trampa virtual; y reunir datos.
Objetivos y ventajas adicionales serán evidentes a partir de una consideración de la descripción, los dibujos y los ejemplos.
DEFINICIONES
En la descripción de la invención, las siguientes definiciones son aplicables en toda ella (incluyendo lo anteriormente indicado).
Un “ordenador” se refiere a cualquier aparato que es capaz de aceptar una entrada estructurada, procesar la entrada estructurada según normas pre-establecidas, y producir resultados del procesamiento como salida. Los ejemplos de un ordenador incluyen un ordenador; un ordenador de uso general; un superordenador; una unidad principal; un super mini-ordenador; un mini-ordenador; una estación de trabajo; un microordenador; un servidor; una televisión interactiva; una combinación híbrida de un ordenador y una televisión interactiva; y hardware específico de la aplicación para emular un ordenador y/o software. Un ordenador puede tener un único procesador o múltiples procesadores, que pueden funcionar en paralelo y/o no en paralelo. Un ordenador también se refiere a dos o más ordenadores conectados entre sí mediante una red para transmitir o recibir información entre los ordenadores. Un ejemplo de dicho ordenador incluye un sistema informático distribuido para procesar información mediante ordenadores conectados por una red.
Un “medio legible por ordenador” se refiere a cualquier dispositivo de almacenamiento usado para almacenar datos accesibles por un ordenador. Los ejemplos de un medio legible por ordenador incluyen un disco duro magnético; un disquete; un disco óptico, tal como un CD-ROM o un DVD; una cinta magnética; un chip de memoria; y una onda portadora usada para portar datos electrónicos legibles por ordenador, tales como los usados en la transmisión y recepción de e-mails o en el acceso a una red.
“Software” se refiere a normas prescritas para accionar un ordenador. Los ejemplos de software incluyen software; segmentos de código; instrucciones; programas informáticos; y lógica programada.
Un “sistema informático” se refiere a un sistema que tiene un ordenador, en el que el ordenador comprende un medio legible por ordenador que contiene un software para accionar el ordenador.
Una “red” se refiere a una serie de ordenadores y dispositivos asociados que están conectados mediante instalaciones de comunicación. Una red implica conexiones permanentes tales como cables o conexiones temporales tales como las establecidas mediante teléfono u otros enlaces de comunicación. Los ejemplos de una red incluyen una internet, tal como el Internet; una intranet; una red de área local (LAN); una red de área amplia (WAN); y una combinación de redes, tal como una internet y una intranet.
“Video” se refiere a fotografías en movimiento representadas en forma analógica y/o digital. Los ejemplos de video incluyen la televisión, películas, secuencias de imágenes desde una cámara u otro observador, y secuencias de imágenes generadas por ordenador. Éstas pueden obtenerse de, por ejemplo, una fuente en vivo, un dispositivo de almacenamiento, una interfaz a base de IEEE 1394, un videodigitalizador, un motor gráfico informático, o una conexión a una red.
imagen2
“Procesamiento de video” se refiere a cualquier manipulación de video, incluyendo, por ejemplo, compresión y edición.
Un “fotograma” se refiere a una imagen particular u otra unidad distinta en un video.
BREVE DESCRIPCIÓN DE LOS DIBUJOS
La invención se entiende mejor leyendo la siguiente descripción detallada con referencia a las figuras adjuntas, en las cuales números de referencia similares se refieren a elementos similares en toda ella, y en los que: La figura 1 muestra un sistema de cable trampa de la técnica anterior; La figura 2 muestra un sistema de videovigilancia de la técnica anterior; La figura 3 muestra un sistema de cable trampa de video según una realización de la invención; La figura 4 muestra un diagrama de bloques de una realización de un sistema de análisis según una realización de la invención; La figura 5 muestra un diagrama de flujo que representa un procedimiento según una realización de la invención; La figura 6 muestra un diagrama de flujo que representa una primera realización de la etapa de calibrado mostrada en la figura 5; La figura 7 muestra un diagrama de flujo que representa una segunda realización de la etapa de calibrado mostrada en la figura 5; La figura 8 muestra un diagrama de flujo que representa una tercera realización de la etapa de calibrado mostrada en la figura 5; La figura 9 ilustra una realización de un ejemplo de la etapa de formación del histograma mostrada en la figura 8; La figura 10 muestra un diagrama de flujo que representa una realización de la etapa de segmentación mostrada en las figuras 7 y 8; La figura 11 muestra un diagrama de flujo que representa una realización de un ejemplo de una etapa de detección del cruce de un cable trampa; Las figuras 12 y 13 muestran “capturas de pantalla” que representan realizaciones de ejemplos ejemplares de formatos de información; y La figura 14 muestra un diagrama de flujo que representa una aplicación de un ejemplo de la invención.
DESCRIPCIÓN DETALLADA DE LAS REALIZACIONES PREFERIDAS
En la descripción de realizaciones preferidas de la presente invención ilustradas en los dibujos, se emplea una terminología específica en aras de la claridad. Sin embargo, la invención no pretende limitarse a la terminología específica seleccionada de este modo. Debe entenderse que cada elemento específico incluye todos los equivalentes técnicos que funcionan de manera similar para conseguir un propósito similar. Cada referencia mencionada en este documento se incorpora como referencia como si cada una se incorporara individualmente como referencia.
Además, las realizaciones descritas a continuación se describen generalmente en términos de detección de personas. Sin embargo, no debe entenderse que la invención está limitada a la detección de personas. Por el contrario, el sistema de cable trampa de video en las realizaciones descritas a continuación puede usarse para detectar objetos de todas clases, animados o inanimados. Los ejemplos incluyen vehículos, animales, crecimiento vegetal (por ejemplo, un sistema que detecta cuando es el momento de podar los setos), objetos que caen (por ejemplo, un sistema que detecta cuando ha caído una lata reciclable en una bajante de basura), y entes microscópicos (por ejemplo, un sistema que detecta cuando un microbio ha permeado una pared celular).
La figura 3 muestra una vista general de una realización de un sistema de cable trampa de video. Como en la figura 2, el dispositivo de detección 1 está enfocado en el camino y genera señales de salida. El dispositivo de detección 1 puede ser una videocámara, tal como se describe en relación con la figura 2; sin embargo, también puede ser cualquier otro tipo de dispositivo de detección que genere una salida de tipo video, por ejemplo, un dispositivo a base de calor, a base de sonido (por ejemplo, sonograma) o un dispositivo a base de infrarrojos. La salida del dispositivo de detección 1 es transmitida por el medio de comunicación 2. El medio de comunicación 2 puede ser un cable, por ejemplo; sin embargo, también puede ser cualquier otro medio de comunicación, por ejemplo, RF, una red (por ejemplo, Internet), o una onda luminosa. Si la comunicación a través del medio de comunicación 2 requiere modulación, codificación, compresión, u otro procesamiento de la señal relacionado con la comunicación, se proporcionan medios para realizar dicho procesamiento de la señal tal como parte del dispositivo de detección 1 o como un medio separado acoplado al dispositivo de detección 1 (no se muestra). El medio de comunicación 2 porta las señales de salida desde el dispositivo de detección 1 al sistema de análisis 5. El sistema de análisis 5 recibe entrada de y envía salida a una interfaz del usuario 6. La interfaz del usuario 6 puede incluir, por ejemplo, un monitor, un ratón, un teclado, una pantalla táctil, una impresora, u otros dispositivos de entrada/salida. Usando la interfaz del usuario 6, un usuario es capaz de proporcionar entradas al sistema, incluyendo aquellas necesarias para inicializar (incluyendo crear un cable trampa virtual, tal como se describirá a continuación) y para proporcionar órdenes al sistema de análisis 5. La interfaz del usuario 6 también puede incluir una alarma u otro dispositivo de alerta; puede incluir además o estar conectada a medios para implementar cualquier otra respuesta a un evento desencadenante, por ejemplo, como se ha descrito anteriormente. La interfaz del usuario 6 también incluirá generalmente un dispositivo de visualización como el dispositivo de monitorización 3 en la figura 2.
imagen3
El sistema de análisis 5 realiza tareas de análisis, incluyendo el procesamiento necesario para implementar el cable trampa de video. Una realización del sistema de análisis 5 se muestra con más detalle en la figura 4.
La figura 4 muestra el sistema de análisis 5 acoplado al medio de comunicación 2 y a la interfaz del usuario 6, como se muestra también en la figura 3. En la figura 4, se muestra el sistema de análisis 5 que comprende el receptor 51, el sistema informático 52 y la memoria 53. El receptor 51 recibe las señales de salida del dispositivo de detección 1 del medio de comunicación 2. Si las señales han sido moduladas, codificadas, etc., el receptor 51 contiene medios para realizar la desmodulación, la descodificación, etc. Además, si las señales recibidas del medio de comunicación 2 están en forma analógica, el receptor 51 incluye medios para convertir las señales analógicas en señales digitales adecuadas para el procesamiento por el sistema informático 52. El receptor 51 puede implementarse como un bloque diferente, tal como se muestra, o puede estar integrado en el sistema informático 52, en una realización alternativa. Además, si no es necesario realizar ningún procesamiento de la señal antes de enviar las señales desde el medio de comunicación 2 al sistema informático 52, el receptor 51 puede omitirse por completo.
El sistema informático 52 está provisto de la memoria 53, que puede ser externa a, como se muestra, o estar incorporada en el sistema informático 52, o una combinación de ambas. La memoria 53 incluye todos los recursos de memoria requeridos por el sistema de análisis 52 y también puede incluir uno o más dispositivos de grabación para almacenar señales recibidas del medio de comunicación 2.
En una realización adicional de la invención, el dispositivo de detección 1 puede implementarse en forma de más de un dispositivo de detección que monitoriza la misma ubicación. En este caso, la salida de datos mediante cada dispositivo de detección puede integrarse antes de transmitir datos a través del medio de comunicación 2, o las salidas de todos los dispositivos de detección pueden transmitirse al sistema de análisis 5 y ser procesadas en él.
En otra realización más de la invención, el dispositivo de detección 1 puede comprender una serie de dispositivos de detección que monitorizan diferentes ubicaciones y que envían sus datos a un único sistema de análisis
5. De esta manera, puede usarse un único sistema para la vigilancia de múltiples lugares. Los procesos realizados por los componentes mostrados en las figuras 3 y 4 quedarán más claros a la luz de la siguiente descripción de los procedimientos de la invención. La figura 5 muestra un diagrama de flujo de una visión general de una realización del procedimiento de la invención. Si aún no se ha instalado un dispositivo de detección 1, debe instalarse uno 71. En muchos casos, sin embargo, dichos dispositivos de detección pueden ya existir. Por ejemplo, la mayoría de los bancos ya usan sistemas de videovigilancia, así que no existe la necesidad de instalar nuevas videocámaras. En una realización preferida del sistema, el dispositivo (o dispositivos) de detección se instala para ser estacionario. Idealmente, se instala con orientación “natural” (es decir, la parte superior de las imágenes correspondiendo a la parte superior en el mundo real). Una vez que se ha instalado el dispositivo de detección 1, es necesario calibrarlo con el sistema de análisis 5. El calibrado del sistema puede realizarse, en términos generales, mediante calibrado explícito, en el que al sistema se le dice (o éste determina automáticamente) los parámetros de calibrado necesarios del dispositivo de detección 1, o mediante calibración implícita, en la que al sistema se le dice (o éste determina automáticamente) el tamaño de un objeto de interés en diversas ubicaciones en el campo de visión del dispositivo de detección 1. El propósito del calibrado es proporcionar información a escala, es decir, de modo que el sistema conozca cual debe ser el tamaño de una persona u otro objeto de interés en diferentes áreas de la imagen. Esta información es especialmente importante para la etapa de análisis de datos 74. El calibrado puede realizarse en una de, o en una combinación de dos o más de, tres maneras: calibrado numérico manual, calibrado por segmentación asistida, y calibrado completamente automático. Los diagramas de flujo de realizaciones de estos procedimientos se muestran en las figuras 6, 7 y 8, respectivamente. La figura 6 muestra un diagrama de flujo de una realización del procedimiento de calibrado manual, que implica el calibrado explícito, como se ha descrito anteriormente. Un usuario introduce los parámetros 721, a través de la interfaz del usuario 6, relacionados con el dispositivo de detección 1. Estos parámetros pueden incluir, por ejemplo, la distancia focal del dispositivo de detección 1, la altura del dispositivo de detección 1 desde el suelo, y el ángulo del dispositivo de detección 1 con respecto al suelo. El sistema de análisis 5 genera a continuación una retroalimentación visual 722; por ejemplo, el sistema puede superponer una persona u otro objeto de interés en un fotograma de video real. La retroalimentación visual se presenta al usuario en la interfaz del usuario 6. La retroalimentación visual proporciona información a escala (por ejemplo, el tamaño de la persona u otro objeto de interés con respecto a sus alrededores), lo cual ayuda a comprobar que el calibrado es correcto. El usuario decide a continuación si el aspecto de la retroalimentación visual es aceptable o si es necesario ajustar los parámetros 723. Si ésta es aceptable, el proceso finaliza; en caso contrario, el proceso vuelve a la introducción de nuevos parámetros 721. Una realización del procedimiento de calibrado por segmentación asistida, que usa calibrado implícito y también puede implicar al menos cierto grado de calibrado explícito (véase a continuación), se muestra en la figura 7.
En esta realización, una persona camina (o algún otro objeto de interés se mueve; la descripción posterior se referirá a una persona pero debe entenderse que puede aplicarse también a otro tipos de objetos de interés) a través del campo de visión del dispositivo de detección 1 (Etapa 721A). Esto es para permitir al sistema determinar el tamaño esperado de una persona promedio en diferentes áreas de la imagen. La persona que camina debe ser el único objeto en movimiento en el campo de visión durante el calibrado. El sistema segmenta a continuación a la persona en movimiento 722A. Los tamaños de la persona en diferentes regiones de la imagen se usan a continuación para calibrar (es decir, para determinar los parámetros tal como se ha descrito anteriormente) 723A. Se proporciona retroalimentación visual 724A, como en el calibrado manual, y el usuario evalúa a continuación si el aspecto de la imagen es aceptable 725A. En caso negativo, entonces el usuario puede ajustar los parámetros 726A, o, como alternativa, el calibrado puede realizarse de nuevo completamente, con el proceso volviendo a la Etapa 721A (flecha discontinua). Por cual de estas opciones se opta puede hacerse seleccionable por el usuario. Si el aspecto es aceptable, por otro lado, entonces el proceso está completo.
imagen4
Una realización del procedimiento de calibrado completamente automático, que implica calibrado implícito, se muestra en la figura 8. En primer lugar, la información (la información de video se muestra en la figura 8) es reunida por el dispositivo de detección 1 durante un prolongado periodo de tiempo, digamos de varias horas a unos pocos días 721B. Una vez que se han reunido los datos, los objetos se segmentan a continuación para el análisis 722B. A continuación se generan histogramas para los diversos objetos en diversas regiones de la imagen 723B. Los detalles de esta etapa se ilustran adicionalmente en la figura 9.
La figura 9 muestra la etapa de generación de histogramas 723B realizada como un proceso de dos etapas, aunque la invención no está limitada a este proceso. En la Etapa 1, el sistema determina regiones de imagen “no salientes”, es decir, regiones en las cuales hay demasiados objetos confusos para seguir a los objetos de forma fiable. Como resultado, solamente se usan objetos que pueden ser seguidos con alta confianza; en una realización de la invención, estos son los únicos objetos que se almacenan. En la Etapa 2, el sistema usa solamente las regiones de imagen restantes y forma histogramas de objetos detectados en esas regiones. Como se indica en la Etapa 2, y como se muestra en la figura 8, el sistema utiliza a continuación los histogramas para determinar el tamaño promedio de una persona en cada región de la imagen 724B. Esta información se usa entonces para calibrar el sistema 725B. Este último proceso puede implementarse análogamente a la etapa 723A de la figura 7.
La etapa de determinar el tamaño promedio de una persona en una región de la imagen 724B se realiza solamente si se registran un número suficiente de objetos para dar como resultado una determinación coherente en una región dada. El número de determinaciones necesarias para un histograma coherente puede determinarse empíricamente y puede depender, por ejemplo, de la cantidad y del tipo de actividad a la cual estará expuesto el cable trampa. Para tales regiones, se detectan picos en los histogramas. Se supone que el pico más alto en cada región de la imagen, es decir, el suceso más frecuente, es una única persona. Si se determina esta información, entonces el calibrado se realiza con éxito 725B, y el sistema es capaz de señalar que está preparado para el funcionamiento real.
El proceso de la figura 8 se realiza normalmente sin intervención humana. Sin embargo, es posible para un usuario proporcionar marcos temporales durante los cuales se espera que la mayoría de los objetos sean personas individuales, para reducir el problema de intentar diferenciar grupos de personas. Dichos marcos temporales pueden imponerse en la etapa de obtención de información 721B o en las etapas de procesamiento adicionales.
Cada uno de los procedimientos de calibrado automatizados (asistido y completamente automático) requiere la segmentación de imágenes en objetos de primer plano y de fondo (véase las etapas 722A y 722B en las figuras 7 y 8, respectivamente). Una realización de este proceso se ilustra en la figura 10. El ejemplo de realización consiste en tres etapas: modelización del fondo a nivel de píxeles 7221; detección y seguimiento del primer plano 7222; y análisis del objeto 7223.
El objetivo de la modelización del fondo a nivel de píxeles 7221 es mantener una representación precisa del fondo de la imagen y diferenciar píxeles del fondo (BG) de píxeles del primer plano (FG). En un ejemplo de realización, esta etapa implementa el proceso descrito en la solicitud de patente de Estados Unidos de asignación conjunta Nº 09/815, 385, titulada, “Video Segmentation Using Statistical Pixel Modeling,” presentada el 23 de marzo de 2001.
La idea general del ejemplo del procedimiento es que se mantiene un historial de todos los píxeles durante varios fotogramas, incluyendo valores de píxel y sus estadísticas. Un píxel estable, sin cambios es tratado como BG. Si las estadísticas de un píxel cambian de forma significativa, se considerará que es FG. Si el píxel se estabiliza de nuevo, volverá a ser considerado como un píxel de BG. Este procedimiento sirve para aliviar el ruido del sensor y para abordar automáticamente cambios del fondo (por ejemplo, en una tienda, cuando una persona coge un artículo de una estantería, la estantería será tratada automáticamente como FG pero volverá a BG una vez que la situación se estabilice de nuevo).
El objetivo de la detección y seguimiento del primer plano 7222 es combinar los píxeles de FG en objetos de FG y seguirlos en una serie de fotogramas, para garantizar la coherencia espacio-temporal. Esto obtiene conjuntos de píxeles que se determina que son píxeles de FG, así como sus propiedades estadísticas, a partir de la modelización del fondo a nivel de píxeles 7221. En un ejemplo de realización, los píxeles de FG se funden espacialmente en objetos de FG más grandes usando morfología simple y técnicas de detección de componentes conectadas que son bien conocidos en la técnica anterior. Estos objetos son seguidos usando procedimientos de correlación en varios fotogramas para obtener información del tamaño fiable. Técnicas de seguimiento ejemplares se describen, por ejemplo, en la solicitud de patente de Estados Unidos pendiente de tramitación de asignación conjunta Nº 09/694.712, titulada, “Interactive Video Manipulation”, presentada el 24 de octubre de 2000, e incorporada en este documento como referencia en su totalidad. Véase, también, por ejemplo, Wren, C. R. y col., “Pfinder: Real-Time Tracking of the Human Body”, IEEE Trans. on Pattern Matching and Machine Intelligence, Vol. 19, págs. 780-784, 1997; Grimson, W. E. L. y col.,”Using Adaptive Tracking to Classify and Monitor Activities in a Site”, CVPR, págs. 22-29, junio de 1998; y Olson, T.
imagen5
J. y Brill, F. Z., “Moving Object Detection and Event Recognition Algorithm for Smart Cameras”, IUW, págs. 159-175, mayo de 1997.
La tercera etapa, el análisis del objeto 7223, tiene una serie de funciones. El análisis del objeto 7223 puede servir para separar y contar objetos; para discriminar entre objetos de interés (por ejemplo, personas) y “elementos que generan confusión” (por ejemplo, carros de la compra); para determinar la dirección del movimiento de un objeto; y para explicar oclusiones de objetos. En una realización ilustrativa, las determinaciones respecto a un objeto se realizan en base a uno o más de su tamaño; su movimiento interno; el número de protuberancias similares a una cabeza (por ejemplo, si son personas los objetos de interés); y detección de rostros (por ejemplo, de nuevo, en el caso en el cual las personas son los objetos de interés). En la técnica se conocen técnicas para realizar dichas funciones, y ejemplos de dichas técnicas se describen en, por ejemplo, los documentos Allmen, M., y Dyer, C., “Long-range Spatiotemporal Motion Understanding Using Spatiotemporal Flow Curves”, Proc. IEEE CVPR, Lahaina, Maui, Hawai, págs. 303-309, 1991; Gavrila, D. M., “The Visual Analysis of Human Movement: A Survey”, CVIU, Vol. 73, No. 1, págs. 82-98, enero de 1999; Collins, Lipton, y col., “A System for Video Surveillance and Monitoring: VSAM Final Report”, Robotics Institute, Carnegie-Mellon University, Tech. Rept. No. CMU-RI-TR-00-12, mayo de 2000; Lipton, A. J., y col., “Moving Target Classification and Tracking from Real-Time Video”, 1998 DARPA IUW, 20-23 de nov. de 1998; y Haering, N., y col., “Visual Event Detection”, Video Computing Series, M. Shah, Ed., 2001.
Volviendo ahora a la figura 5, la etapa de calibrado 72 viene seguida por una etapa de inicialización del sistema
73. Esta etapa permite al usuario introducir diversos parámetros relacionados con la manera en la que el sistema reunirá, responderá a, y presentará los datos. En primer lugar, un usuario puede superponer una o más líneas de interés en la imagen; estas líneas servirán como uno o más cables trampa. Las líneas pueden tener cualquier orientación y pueden estar colocadas casi en cualquier parte de la imagen; la excepción es que las líneas no pueden estar demasiado cerca de los límites de la imagen, porque el objeto (por ejemplo, la persona) que cruza la línea debe ser al menos parcialmente visible a ambos lados de la línea para que se produzca la detección. En una realización ilustrativa, se supone que el cable trampa está en el suelo en la imagen; es decir, la detección se produce cuando la parte inferior de un objeto (por ejemplo, las piernas de una persona) cruza la línea. En una realización más general, el usuario puede establecer una altura por encima del suelo para cada línea.
Otros parámetros que pueden inicializarse incluyen un intervalo de tiempo de detección activa; una dirección de cruce de cada línea como criterio para la detección de un evento (por ejemplo, para determinar cuando entra una persona en un área, en oposición a cuando se desea determinar cuando entra o sale una persona del área); y sensibilidad de la detección.
Otra función de la inicialización 73 es para que el usuario seleccione diversas opciones de registro. Estas opciones determinan que datos se recogen y pueden incluir, aunque no se limitan a:
 registrar solamente cuando cruzan personas (o, en general, objetos de interés);
 registrar solamente cuando cruzan dos o más personas;
 registrar todos los cruces;
 registrar solamente cuando hay un elevado grado de confianza en la detección de un cruce;
 registrar solamente estadísticas de detección;
 tomar una “instantánea” o crear un video completo alrededor de un evento de detección. Por una “instantánea” se entiende que se crea una imagen fija, la cual puede ser simplemente un fotograma de un video particular (u otro dispositivo de detección), o que puede generarse independientemente. Después de la inicialización 73, el sistema opera para recoger y analizar datos 74. Si el usuario ha introducido un marco temporal, el sistema comienza a procesar cuando está dentro de este marco temporal. Cuando detecta un evento de cable trampa (de un tipo particular, si ha sido especificado por el usuario), éste se registra junto con información adjunta; los tipos de información adjunta se volverán evidentes a continuación en la descripción del informe de datos. En el contexto de algunas aplicaciones, un evento de cable trampa puede activar una alarma u otra respuesta 76 (por ejemplo, la toma de una instantánea). Una realización de un ejemplo técnico para realizar el análisis y detectar eventos de cable trampa se muestra en la figura 11. Los objetos de FG se determinan en primer lugar a partir del video usando la segmentación de objetos
740. La segmentación de objetos 740 puede comprender, por ejemplo, las etapas 7221, 7222 y 7223 mostradas en la figura 10 y descritas anteriormente. La ubicación de un objeto de FG se ensaya a continuación 741 para determinar si se solapa con una línea que representa un cable trampa 742. Como se ha descrito anteriormente, en un ejemplo de realización en la que siempre se supone que las líneas de cable trampa están en el suelo, se determina que un objeto cruza un cable trampa si la parte inferior del objeto se solapa con una línea de cable trampa. Si se determina que no se produce solapamiento, no hay evento de cable trampa 743. Si se produce un solapamiento, entonces, si se considera que solamente los cruces en una dirección especificada son eventos de cable trampa, se prueba la dirección de cruce 744, y aquellos cruces que no se producen en la dirección especificada no se consideran eventos de cable trampa 745. Si los cruces en cualquier dirección representan eventos de cable trampa, entonces el proceso se salta la prueba de la etapa 744. Si la etapa 744 se ha realizado y da un resultado positivo, o si la etapa 744 no se ha realizado, entonces también pueden realizarse exámenes adicionales 746. Dichos exámenes podrían incluir, por ejemplo, determinar una característica particular de un objeto de interés (por ejemplo, un coche, un camión, un coche azul, una camioneta azul, un coche más pequeño que cierto tamaño, etc.) o un objeto particular (por ejemplo, el rostro de una persona particular, un número de matrícula, etc.). Si dichos exámenes 746 dan resultados positivos, o si no se realizan exámenes, entonces el proceso determina que se ha producido un evento de cable trampa 747. Por supuesto, si dichos exámenes 746 se hicieran y dieran resultados negativos, entonces se determinaría que no se ha producido ningún evento de cable trampa.
imagen6
Son posibles varios procedimientos para implementar la determinación de la dirección de un cruce 744. Como primer ejemplo, ésta puede implementarse a través del uso de procedimientos de flujo óptico para objetos detectados cruzando el cable trampa; el uso de procedimiento de flujo óptico también podría servir para obviar la necesidad de segmentación de objetos. Como segundo ejemplo, puede usarse información de la trayectoria del seguimiento del objeto (en la etapa 7222 de la figura 10). Como tercer ejemplo, ésta puede implementarse estableciendo cables trampa secundarios (falsos) a cada lado de cada cable trampa real introducido por el usuario y determinando en que orden son cruzados los cables trampa secundarios cuando se cruza el cable trampa real.
El calibrado 72 es de particular importancia en la ejecución de la etapa 74, particularmente si solamente un tipo de objeto particular es de interés. Por ejemplo, si las personas son los objetos de interés, el calibrado 72 permite que la etapa 74 discrimine entre, por ejemplo, personas y objetos que son o más pequeños (por ejemplo, gatos y ratones) o más grandes (por ejemplo, grupos de personas y coches) que las personas.
Cuando se han reunido los datos, estos pueden presentarse a un usuario 75. En un ejemplo de realización de la invención, un usuario puede pedir al sistema resultados usando una interfaz del usuario gráfica (GUI). En esta realización, pueden visualizarse información resumida y/o datos detallados sobre una o más detecciones individuales. La información resumida puede incluir uno o más de los siguientes: número de detecciones, número de personas (u otros objetos de interés) detectadas, número de detecciones de múltiples personas (múltiples objetos) (es decir, cuando múltiples personas (u otros objetos de interés) cruzan simultáneamente), número de personas (objetos) que cruzan en cada dirección, cualquiera o todos los anteriores en un marco temporal seleccionado por el usuario, y uno o más histogramas temporales de cualquiera o todos de los anteriores. Los detalles sobre una única detección pueden incluir uno o más de los siguientes: tiempo, dirección, número de personas (objetos) que cruzan, tamaño del objeto u objetos que cruzan, y una o más instantáneas o videos tomados alrededor del momento de la detección.
Las figuras 12 y 13 muestran capturas de pantalla de muestra de pantallas informativas ilustrativas, en un ejemplo de realización. La figura 12 muestra una información resumida 121 sobre los cruces de un cable trampa 124 que abarca un pasillo. En esta ilustración particular, la pantalla muestra el video en directo 123 del área que incluye el cable trampa 124. También se incluye una leyenda 125 que da el periodo durante el cual se ha realizado la vigilancia (es decir, un marco temporal) y durante el cual se han registrado eventos de cruce. La información resumida 121 incluye números de cruces y sus direcciones. En este caso, el usuario ha especificado además que deben mostrarse las horas y fechas de cruce específicas 122.
La figura 13 muestra información individual sobre eventos de cruce particulares; estos eventos de cruce se corresponden a las horas y fechas de cruce específicas 122 de la figura 12. En la pantalla de la figura 13, el usuario ha seleccionado mostrar una instantánea de cada evento de cruce, junto con su hora y fecha. En particular, las instantáneas 131 y 132 corresponden a eventos de cruce en el área mostrada en el video 123 de la figura 12. En una realización adicional, el usuario puede ser capaz de hacer clic en una instantánea o un botón asociado a una instantánea para ver un video correspondiente tomado alrededor del momento del evento de cruce.
Un ejemplo de una aplicación del cable trampa de video de la invención es la detección de “entrada sin autorización”. La “entrada sin autorización” describe un evento en el cual un cierto número de personas (a menudo una persona) se le permite entrar en un área (o similar) y una o más personas intentan seguirlas de cerca para entrar también. La figura 14 representa un diagrama de flujo de un procedimiento para implementar un sistema de detección de entrada sin autorización. En esta realización, se supone que una cámara de videovigilancia está instalada en una posición para ser capaz de grabar entradas a través de una entrada, por ejemplo, una puerta o un torniquete. Además, la cámara tiene que estar calibrada como se ha descrito anteriormente. El sistema comienza detectando que una persona está entrando, o está a punto de entrar, a través de la entrada 141. Esto puede conseguirse mediante una serie de medios; por ejemplo, puede deberse introducir dinero, introducir un código en un teclado numérico, o pasar una tarjeta por un lector de tarjetas, o el sistema puede usar un procedimiento de detección a base de video para detectar de forma visual la apertura de la entrada (esto tendría la ventaja de no requerir una interfaz con equipo externo (lector de tarjetas, teclado numérico, o similar), lo cual podría facilitar la instalación e implementación en algunos entornos). Cuando se detecta una entrada, comienza la vigilancia 142. Durante esta vigilancia, el sistema detecta los objetos que se mueven a través de la entrada y los analiza para determinar cuantas personas han entrado. Esto puede implicar la detección de rostros, como se ha mencionado anteriormente, si la cámara está situada para ser capaz de grabar rostros. El sistema determina a continuación si el número de personas que entraron es admisible 143. En la realización ilustrada, solamente se permite entrar a una persona cada vez; sin embargo, en realizaciones más generales, esto podría ser cualquier número seleccionado. Si una persona (el número admisible) entra, entonces no es necesaria ninguna respuesta 144. Por otro lado, si entrara más de una persona (más del número admisible), se desencadena una respuesta 145. Dicha respuesta puede incluir, por ejemplo, hacer sonar una alarma, tomar una instantánea, o grabar un video alrededor de la entrada. Una ventaja añadida de un sistema que usa cualquiera de las dos últimas respuestas es que puede proporcionar una prueba útil para localizar a una persona que use una tarjeta robada, en el caso de un sistema con un lector de tarjetas.
Las realizaciones ilustradas y descritas en esta memoria descriptiva pretenden solamente enseñar a los expertos en la materia la mejor manera conocida por los inventores de realizar y usar la invención. Nada en esta memoria descriptiva debe considerarse como limitante del alcance de la presente invención. Las realizaciones de la invención descritas anteriormente pueden modificarse o cambiarse, y pueden añadirse u omitirse elementos, sin alejarse de la invención, como apreciarán los expertos en la materia a la luz de las anteriores enseñanzas. Por lo tanto, debe entenderse que, dentro del alcance de las reivindicaciones y sus equivalentes, la invención puede ponerse en práctica de una manera diferente a la descrita específicamente.
imagen7
imagen8

Claims (41)

  1. R E I V I N D I C AC I O N E S
    1.
    Un sistema de cable trampa de video que comprende
    un dispositivo de detección para producir una salida de video; y un sistema informático para calibrar el dispositivo de detección y para reunir y procesar datos en base a la salida de video recibida del dispositivo de detección, para mostrar los datos procesados y que incluye software que comprende instrucciones para permitir a un usuario introducir al menos un cable trampa virtual en una interfaz del usuario, y una dirección de cruce del al menos un cable trampa virtual.
  2. 2.
    El sistema de cable trampa de video de la reivindicación 1, que comprende además: medios para transmitir la salida de video desde el dispositivo de detección; un medio de comunicación a través del cual la salida de video es transmitida por los medios para su
    transmisión; y medios para recibir la salida de video del medio de comunicación.
  3. 3.
    El sistema de cable trampa de video de la reivindicación 2, en el que el medio de comunicación incluye un cable.
  4. 4.
    El sistema de cable trampa de video de la reivindicación 2, en el que el medio de comunicación incluye una red de comunicación.
  5. 5.
    El sistema de cable trampa de video de cualquier reivindicación anterior, en el que la interfaz del usuario comprende al menos uno de medios para comunicar una alarma visible o medios para comunicar una alarma audible.
  6. 6.
    El sistema de cable trampa de video de cualquier reivindicación anterior, en el que la interfaz del usuario comprende un dispositivo de pantalla visual.
  7. 7.
    El sistema de cable trampa de video de la reivindicación 6, en el que el dispositivo de pantalla visual es capaz de mostrar al menos uno de un video, una o más instantáneas, o información alfanumérica.
  8. 8.
    El sistema de cable trampa de video de cualquier reivindicación anterior, que comprende además:
    al menos un dispositivo de memoria para almacenar al menos uno de un dato de video o un dato alfanumérico.
  9. 9.
    El sistema de cable trampa de video de cualquier reivindicación anterior, en el que el dispositivo de detección comprende al menos un dispositivo de memoria para almacenar al menos uno de una videocámara, una cámara de infrarrojos, un dispositivo sonográfico o un dispositivo de captura de imágenes térmicas.
  10. 10.
    El sistema de cable trampa de video de cualquier reivindicación anterior, que comprende además:
    al menos un dispositivo de detección adicional para producir salida de video, en el que el sistema informático recibe y procesa además la salida de video del sistema de detección adicional.
  11. 11.
    Un procedimiento de implementación de un sistema de cable trampa de video que comprende:
    calibrar un dispositivo de detección de video para determinar los parámetros del dispositivo de detección de video destinados a ser usados por el sistema; inicializar el sistema, incluyendo introducir al menos un cable trampa virtual y una dirección de cruce de al
    menos un cable trampa virtual en una interfaz del usuario; obtener datos del dispositivo de detección de video; analizar los datos obtenidos del dispositivo de detección de video para determinar si una dirección de
    cualquier cruce del cable trampa virtual coincide con la dirección de cruce virtual introducida por un usuario; y desencadenar una respuesta al cruce de un cable trampa virtual.
  12. 12.
    El procedimiento de la reivindicación 11, en el que el calibrado comprende: introducir parámetros de forma manual, por parte de un usuario;
    generar retroalimentación visual para el usuario; y permitir que el usuario re-introduzca los parámetros si el aspecto de la retroalimentación visual no es aceptable para el usuario.
  13. 13.
    El procedimiento de la reivindicación 11, en el que el calibrado comprende:
    (a)
    hacer que una persona se mueva a través de un campo de visión del dispositivo de detección de video
    (b)
    segmentar a la persona en movimiento
    (c)
    usar el tamaño de la persona en diferentes regiones del campo de visión para determinar parámetros;
    (d)
    proporcionar retroalimentación visual para un usuario, y
    (e)
    permitir el ajuste de los parámetros si el aspecto de la retroalimentación visual no es aceptable para el usuario.
  14. 14.
    El procedimiento de la reivindicación 13, en el que permitir el ajuste comprende: permitir que el usuario ajuste los parámetros de forma manual.
  15. 15.
    El procedimiento de la reivindicación 13, en el que permitir el ajuste comprende: reiniciar el calibrado repitiendo las etapas (a)-(e).
  16. 16.
    El procedimiento de la reivindicación 13, en el que permitir el ajuste comprende: permitir que el usuario seleccione al menos uno de ajustar los parámetros de forma manual o reiniciar el calibrado repitiendo las etapas (a)-(e).
  17. 17.
    El procedimiento de una cualquiera de las reivindicaciones 13 a 16, en el que la segmentación comprende: realizar una modelización del fondo a nivel de los píxeles realizar una detección y un seguimiento del primer plano y analizar los objetos del primer plano.
  18. 18.
    El procedimiento de una cualquiera de las reivindicaciones 11 ó 14 a 17, en el que el calibrado comprende: reunir información de video sobre un periodo de tiempo utilizando el dispositivo de detección de video; segmentar los objetos provinentes de la información de video; analizar los objetos segmentados para determinar el tamaño promedio de una persona en diversas
    regiones de una imagen de video correspondiente a un campo de visión del dispositivo de detección de video; y utilizar los tamaños promedio de una persona en las diversas regiones para determinar los parámetros.
  19. 19.
    El procedimiento de la reivindicación 18, en el que la segmentación comprende: realizar una modelización del fondo a nivel de píxeles realizar una detección y un seguimiento del primer plano y analizar los objetos del primer plano.
  20. 20.
    El procedimiento de la reivindicación 18 o la reivindicación 19, en el que analizar comprende: determinar regiones no salientes de la imagen de video; y formar histogramas de objetos del primer plano detectados en regiones salientes de la imagen de video.
  21. 21.
    El procedimiento de la reivindicación 20, en el que la determinación del tamaño promedio de una persona en una región particular de la imagen de video se realiza solamente si un número de objetos del primer plano detectados en esa región supera un número predeterminado.
  22. 22.
    El procedimiento de la reivindicación 20 o la reivindicación 20, en el que un pico más alto en un histograma se toma como correspondiente a una única persona.
  23. 23.
    El procedimiento de una cualquiera de las reivindicaciones 18 a 22, que comprende además: introducir, por parte del usuario, uno o más marcos temporales para ser usados para el calibrado.
  24. 24.
    El procedimiento de una cualquiera de las reivindicaciones 11 a 23, en el que inicializar el sistema incluye
    además: seleccionar al menos una opción de registro.
  25. 25.
    El procedimiento de la reivindicación 11, en el que analizar comprende: determinar si un objeto se solapa con cualquier cable trampa virtual.
  26. 26.
    El procedimiento de la reivindicación 25, en el que calibrar comprende: realizar segmentación del objeto; y detectar el objeto en base a la segmentación realizada del objeto.
  27. 27.
    El procedimiento de la reivindicación 26, en el que realizar la segmentación del objeto comprende: realizar una modelización del fondo a nivel de píxeles realizar una detección y un seguimiento del primer plano y analizar los objetos del primer plano.
  28. 28.
    El procedimiento de la reivindicación 25, en el que analizar comprende además:
    realizar segmentación del objeto, en el que el objeto detectado se detecta en base a la segmentación realizada del objeto.
  29. 29.
    El procedimiento de la reivindicación 28, en el que realizar la segmentación del objeto comprende: realizar una modelización del fondo a nivel de píxeles realizar una detección y un seguimiento del primer plano y analizar los objetos del primer plano.
  30. 30.
    El procedimiento de una cualquiera de las reivindicaciones 25 a 29, en el que analizar comprende además: si se determina que el objeto se solapa con cualquier cable trampa virtual, determinar si una dirección de
    cruce del cable trampa virtual coincide con una dirección de cruce del cable trampa virtual introducida por un usuario.
  31. 31.
    El procedimiento de la reivindicación 30, en el que analizar comprende además: si se determina que la dirección de cruce del cable trampa virtual coincide con la dirección de cruce del
    cable trampa virtual introducida por el usuario, realizar al menos un examen adicional sobre la naturaleza del objeto.
  32. 32.
    El procedimiento de una cualquiera de las reivindicaciones 25 a 29, en el que analizar comprende además:
    si se determina que el objeto se solapa con cualquier cable trampa virtual, realizar al menos un examen adicional sobre la naturaleza del objeto.
  33. 33.
    El procedimiento de una cualquiera de las reivindicaciones 11 a 32, en el que desencadenar una respuesta comprende al menos una de: activar una alarma de audio; activar una alarma visual;
    tomar una instantánea; o grabar un video.
  34. 34.
    Un procedimiento de detección de “entrada sin autorización” que incluye el procedimiento de una cualquiera de las reivindicaciones 11 a 33 y que comprende además: detectar que una persona está entrando en un área de interés;
    imagen1
    imagen2
    comenzar la vigilancia del área de interés en respuesta a la detección; determinar si un número de personas que entran en el área de interés es mayor que un número permisible; y
    si la etapa de determinación da un resultado positivo, desencadenar una respuesta.
    imagen3
  35. 35.
    Un medio legible por ordenador, que incluye instrucciones para realizar el procedimiento de una cualquiera de las reivindicaciones 11 a 33, cuando se ejecuta en un sistema informático.
  36. 36.
    Un sistema informático diseñado para ejecutar instrucciones para realizar el procedimiento de una cualquiera de las reivindicaciones 11 a 33.
  37. 37.
    Un sistema de cable trampa de video que comprende: un dispositivo de detección para proporcionar una salida de video; y un sistema informático para recibir los datos de salida de video y que comprende:
    una interfaz del usuario; al menos un procesador; y un medio legible por ordenador que incluye instrucciones para realizar el procedimiento de una cualquiera
    de las reivindicaciones 11 a 33 cuando son ejecutadas por dicho al menos un procesador.
  38. 38.
    El sistema de cable trampa de video de la reivindicación 1 o la reivindicación 37, en el que el sistema informático comprende la aplicación de hardware específico adaptado para calibrar el dispositivo de detección y reunir datos del proceso.
  39. 39.
    Un medio legible por ordenador para implementar un sistema de cable trampa de video, comprendiendo el
    medio legible por ordenador:
    instrucciones para calibrar un dispositivo de detección de video para determinar los parámetros del
    dispositivo de detección de video destinados a ser usados por el sistema;
    instrucciones para recibir de una interfaz del usuario al menos un cable trampa virtual para superponer en una imagen provinente de un dispositivo de detección y una dirección de cruce de al menos un cable trampa virtual; e instrucciones para desencadenar una respuesta a un cruce del cable trampa virtual en dicha dirección, cuando dichas instrucciones son ejecutadas por un sistema informático.
  40. 40.
    El medio legible por ordenador de la reivindicación 39, que comprende además:
    instrucciones para recibir de la interfaz del usuario un momento o intervalo de detección para el cruce del cable trampa virtual.
  41. 41.
    El medio legible por ordenador de una cualquiera de las reivindicaciones 39 a 40, que comprende además:
    instrucciones para recibir de la interfaz del usuario una sensibilidad de detección para el cruce del cable trampavirtual.
ES02773727T 2001-10-09 2002-10-09 Cable trampa de video. Expired - Lifetime ES2364915T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US09/972,039 US6696945B1 (en) 2001-10-09 2001-10-09 Video tripwire
US972039 2001-10-09

Publications (1)

Publication Number Publication Date
ES2364915T3 true ES2364915T3 (es) 2011-09-16

Family

ID=25519079

Family Applications (1)

Application Number Title Priority Date Filing Date
ES02773727T Expired - Lifetime ES2364915T3 (es) 2001-10-09 2002-10-09 Cable trampa de video.

Country Status (15)

Country Link
US (1) US6696945B1 (es)
EP (1) EP1435170B2 (es)
JP (1) JP2005506740A (es)
KR (1) KR100905504B1 (es)
CN (1) CN100337253C (es)
AT (1) ATE507543T1 (es)
AU (1) AU2002337829A1 (es)
CA (1) CA2460426A1 (es)
DE (1) DE60239882D1 (es)
DK (1) DK1435170T3 (es)
ES (1) ES2364915T3 (es)
HK (1) HK1071956A1 (es)
IL (1) IL160996A0 (es)
MX (1) MXPA04003441A (es)
WO (1) WO2003032622A2 (es)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10452922B2 (en) 2015-06-15 2019-10-22 Davantis Technologies Sl IR or thermal image enhancement method based on background information for video analysis
US10740623B2 (en) 2015-09-25 2020-08-11 Sony Corporation Representative image generation device and representative image generation method

Families Citing this family (90)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6940998B2 (en) * 2000-02-04 2005-09-06 Cernium, Inc. System for automated screening of security cameras
US7868912B2 (en) 2000-10-24 2011-01-11 Objectvideo, Inc. Video surveillance system employing video primitives
US9892606B2 (en) * 2001-11-15 2018-02-13 Avigilon Fortress Corporation Video surveillance system employing video primitives
US20050146605A1 (en) * 2000-10-24 2005-07-07 Lipton Alan J. Video surveillance system employing video primitives
US8711217B2 (en) 2000-10-24 2014-04-29 Objectvideo, Inc. Video surveillance system employing video primitives
US8564661B2 (en) * 2000-10-24 2013-10-22 Objectvideo, Inc. Video analytic rule detection system and method
US20050162515A1 (en) * 2000-10-24 2005-07-28 Objectvideo, Inc. Video surveillance system
US7424175B2 (en) 2001-03-23 2008-09-09 Objectvideo, Inc. Video segmentation using statistical pixel modeling
JP4612779B2 (ja) * 2001-06-14 2011-01-12 キヤノン株式会社 通信装置及び通信装置の映像表示制御方法
US6970083B2 (en) * 2001-10-09 2005-11-29 Objectvideo, Inc. Video tripwire
US7088846B2 (en) * 2003-11-17 2006-08-08 Vidient Systems, Inc. Video surveillance system that detects predefined behaviors based on predetermined patterns of movement through zones
US7127083B2 (en) * 2003-11-17 2006-10-24 Vidient Systems, Inc. Video surveillance system with object detection and probability scoring based on object class
US7136507B2 (en) * 2003-11-17 2006-11-14 Vidient Systems, Inc. Video surveillance system with rule-based reasoning and multiple-hypothesis scoring
US7148912B2 (en) * 2003-11-17 2006-12-12 Vidient Systems, Inc. Video surveillance system in which trajectory hypothesis spawning allows for trajectory splitting and/or merging
US7646401B2 (en) * 2004-01-30 2010-01-12 ObjectVideo, Inc Video-based passback event detection
US20050281417A1 (en) * 2004-06-18 2005-12-22 Gregory Toprover Media device
AU2006230361A1 (en) * 2005-03-30 2006-10-05 Cernium Corporation Intelligent video behavior recognition with multiple masks and configurable logic inference module
US20060232673A1 (en) * 2005-04-19 2006-10-19 Objectvideo, Inc. Video-based human verification system and method
US20070122000A1 (en) * 2005-11-29 2007-05-31 Objectvideo, Inc. Detection of stationary objects in video
US7822224B2 (en) 2005-06-22 2010-10-26 Cernium Corporation Terrain map summary elements
US7796780B2 (en) 2005-06-24 2010-09-14 Objectvideo, Inc. Target detection and tracking from overhead video streams
US7801330B2 (en) * 2005-06-24 2010-09-21 Objectvideo, Inc. Target detection and tracking from video streams
US8027512B2 (en) * 2005-09-30 2011-09-27 Robert Bosch Gmbh Method and software program for searching image information
US9240051B2 (en) * 2005-11-23 2016-01-19 Avigilon Fortress Corporation Object density estimation in video
JP4321541B2 (ja) * 2006-04-03 2009-08-26 ソニー株式会社 監視装置と監視方法
EP2013817A2 (en) * 2006-04-17 2009-01-14 Objectvideo, Inc. Video segmentation using statistical pixel modeling
TW200745996A (en) 2006-05-24 2007-12-16 Objectvideo Inc Intelligent imagery-based sensor
JP4201025B2 (ja) 2006-06-30 2008-12-24 ソニー株式会社 監視装置、監視システム及びフィルタ設定方法、並びに監視プログラム
TW200822751A (en) * 2006-07-14 2008-05-16 Objectvideo Inc Video analytics for retail business process monitoring
US20080074496A1 (en) * 2006-09-22 2008-03-27 Object Video, Inc. Video analytics for banking business process monitoring
US20080129844A1 (en) * 2006-10-27 2008-06-05 Cusack Francis J Apparatus for image capture with automatic and manual field of interest processing with a multi-resolution camera
JP4318724B2 (ja) 2007-02-14 2009-08-26 パナソニック株式会社 監視カメラ及び監視カメラ制御方法
US20080232688A1 (en) * 2007-03-20 2008-09-25 Senior Andrew W Event detection in visual surveillance systems
DE102007033391A1 (de) 2007-07-18 2009-01-22 Robert Bosch Gmbh Informationsvorrichtung, Verfahren zur Information und/oder Navigation von einer Person sowie Computerprogramm
US8619140B2 (en) * 2007-07-30 2013-12-31 International Business Machines Corporation Automatic adjustment of area monitoring based on camera motion
TW200926011A (en) * 2007-09-04 2009-06-16 Objectvideo Inc Background modeling with feature blocks
US8624733B2 (en) * 2007-11-05 2014-01-07 Francis John Cusack, JR. Device for electronic access control with integrated surveillance
US8108055B2 (en) * 2007-12-28 2012-01-31 Larry Wong Method, system and apparatus for controlling an electrical device
US8686854B2 (en) 2008-03-31 2014-04-01 The Boeing Company System and method for forming optimized perimeter surveillance
US8370111B2 (en) * 2008-03-31 2013-02-05 The Boeing Company System and method for forming optimized perimeter surveillance
US20110033087A1 (en) * 2008-04-09 2011-02-10 Finn Alan M Video content analysis
US9019381B2 (en) 2008-05-09 2015-04-28 Intuvision Inc. Video tracking systems and methods employing cognitive vision
EP2164043A1 (en) 2008-09-12 2010-03-17 March Networks Corporation Video camera calibration and perspective calculation
US8165348B2 (en) * 2008-11-17 2012-04-24 International Business Machines Corporation Detecting objects crossing a virtual boundary line
US9520040B2 (en) * 2008-11-21 2016-12-13 Raytheon Company System and method for real-time 3-D object tracking and alerting via networked sensors
US8571261B2 (en) * 2009-04-22 2013-10-29 Checkvideo Llc System and method for motion detection in a surveillance video
KR101586700B1 (ko) * 2009-07-03 2016-01-20 한화테크윈 주식회사 감지장치, 이벤트 감지방법 및 촬영시스템
CN101872524B (zh) * 2009-08-14 2012-07-18 杭州海康威视数字技术股份有限公司 基于虚拟墙的视频监控方法、系统及装置
US9030555B2 (en) * 2009-11-25 2015-05-12 Lg Electronics Inc. Surveillance system
DE102009058765A1 (de) * 2009-12-15 2011-06-16 Hella Kgaa Hueck & Co. System und Verfahren zum Kontrollieren von Bewegungen von Objekten
TWI400670B (zh) * 2009-12-16 2013-07-01 Ind Tech Res Inst 多層次侵入事件偵測系統與方法及其電腦程式產品
US8890936B2 (en) 2010-10-12 2014-11-18 Texas Instruments Incorporated Utilizing depth information to create 3D tripwires in video
US20130096831A1 (en) * 2011-10-18 2013-04-18 International Business Machines Corporation Automatic, adaptive and optimized sensor selection and virtualization
US11470285B2 (en) * 2012-02-07 2022-10-11 Johnson Controls Tyco IP Holdings LLP Method and system for monitoring portal to detect entry and exit
JP6057562B2 (ja) 2012-06-28 2017-01-11 キヤノン株式会社 情報処理装置およびその制御方法
US10645345B2 (en) * 2012-07-03 2020-05-05 Verint Americas Inc. System and method of video capture and search optimization
US9582671B2 (en) 2014-03-06 2017-02-28 Sensity Systems Inc. Security and data privacy for lighting sensory networks
US9374870B2 (en) 2012-09-12 2016-06-21 Sensity Systems Inc. Networked lighting infrastructure for sensing applications
US9197861B2 (en) 2012-11-15 2015-11-24 Avo Usa Holding 2 Corporation Multi-dimensional virtual beam detection for video analytics
EP2976856B1 (en) 2013-03-26 2019-08-14 Sensity Systems Inc. Sensor nodes with multicast transmissions in lighting sensory network
US9933297B2 (en) 2013-03-26 2018-04-03 Sensity Systems Inc. System and method for planning and monitoring a light sensory network
JP5438859B1 (ja) * 2013-05-30 2014-03-12 パナソニック株式会社 客層分析装置、客層分析システムおよび客層分析方法
TWI507661B (zh) 2013-07-03 2015-11-11 Faraday Tech Corp 影像監控系統及其方法
US9746370B2 (en) 2014-02-26 2017-08-29 Sensity Systems Inc. Method and apparatus for measuring illumination characteristics of a luminaire
US10152864B2 (en) * 2014-02-28 2018-12-11 Tyco Fire & Security Gmbh Distributed rules engines for robust sensor networks
US10417570B2 (en) 2014-03-06 2019-09-17 Verizon Patent And Licensing Inc. Systems and methods for probabilistic semantic sensing in a sensory network
US10362112B2 (en) 2014-03-06 2019-07-23 Verizon Patent And Licensing Inc. Application environment for lighting sensory networks
CN105450918B (zh) * 2014-06-30 2019-12-24 杭州华为企业通信技术有限公司 一种图像处理方法和摄像机
US10110856B2 (en) 2014-12-05 2018-10-23 Avigilon Fortress Corporation Systems and methods for video analysis rules based on map data
US9760792B2 (en) * 2015-03-20 2017-09-12 Netra, Inc. Object detection and classification
US9922271B2 (en) 2015-03-20 2018-03-20 Netra, Inc. Object detection and classification
JP6229816B2 (ja) 2015-03-27 2017-11-15 日本電気株式会社 モバイル監視装置、プログラム、及び制御方法
US10044988B2 (en) 2015-05-19 2018-08-07 Conduent Business Services, Llc Multi-stage vehicle detection in side-by-side drive-thru configurations
US9996749B2 (en) * 2015-05-29 2018-06-12 Accenture Global Solutions Limited Detecting contextual trends in digital video content
US9313556B1 (en) 2015-09-14 2016-04-12 Logitech Europe S.A. User interface for video summaries
US10299017B2 (en) 2015-09-14 2019-05-21 Logitech Europe S.A. Video searching for filtered and tagged motion
WO2017046704A1 (en) 2015-09-14 2017-03-23 Logitech Europe S.A. User interface for video summaries
US9805567B2 (en) 2015-09-14 2017-10-31 Logitech Europe S.A. Temporal video streaming and summaries
WO2017051499A1 (en) * 2015-09-25 2017-03-30 Sony Corporation Representative image generation device, representative image generation method, and program
US10139281B2 (en) 2015-12-04 2018-11-27 Amazon Technologies, Inc. Motion detection for A/V recording and communication devices
US10325625B2 (en) 2015-12-04 2019-06-18 Amazon Technologies, Inc. Motion detection for A/V recording and communication devices
EP3203447B1 (en) * 2016-02-04 2019-05-01 Holding Assessoria I Lideratge, S.L. (HAL SL) Detection of fraudulent access at control gates
JP2017182441A (ja) * 2016-03-30 2017-10-05 富士通株式会社 業務実態処理装置、方法、及びプログラム
US9779302B1 (en) 2016-03-31 2017-10-03 Intel Corporation System for optimizing storage location arrangement
US20200380252A1 (en) 2019-05-29 2020-12-03 Walmart Apollo, Llc Systems and methods for detecting egress at an entrance of a retail facility
US10904446B1 (en) 2020-03-30 2021-01-26 Logitech Europe S.A. Advanced video conferencing systems and methods
US10965908B1 (en) 2020-03-30 2021-03-30 Logitech Europe S.A. Advanced video conferencing systems and methods
US10972655B1 (en) 2020-03-30 2021-04-06 Logitech Europe S.A. Advanced video conferencing systems and methods
US10951858B1 (en) 2020-03-30 2021-03-16 Logitech Europe S.A. Advanced video conferencing systems and methods
KR102441599B1 (ko) * 2020-05-29 2022-09-07 주식회사 아이티엑스에이아이 재실 인원 통제 장치

Family Cites Families (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3812287A (en) * 1969-05-12 1974-05-21 J Lemelson Video detection system
CA1116286A (en) * 1979-02-20 1982-01-12 Control Data Canada, Ltd. Perimeter surveillance system
US4257063A (en) * 1979-03-23 1981-03-17 Ham Industries, Inc. Video monitoring system and method
US4737837A (en) 1985-11-27 1988-04-12 Honeywell Inc. Ring topology for an integrated circuit logic cell
JPH0335399A (ja) * 1989-06-30 1991-02-15 Toshiba Corp 変化領域統合装置
JPH03242592A (ja) 1990-02-21 1991-10-29 Toshiba Corp 画像監視装置
JPH05284501A (ja) * 1992-04-06 1993-10-29 Mitsubishi Electric Corp 侵入監視画像装置
JP3218521B2 (ja) 1992-09-30 2001-10-15 清水建設株式会社 画像センサによる移動体検知システム
US5696503A (en) * 1993-07-23 1997-12-09 Condition Monitoring Systems, Inc. Wide area traffic surveillance using a multisensor tracking system
US5801943A (en) * 1993-07-23 1998-09-01 Condition Monitoring Systems Traffic surveillance and simulation apparatus
US5491511A (en) * 1994-02-04 1996-02-13 Odle; James A. Multimedia capture and audit system for a video surveillance network
IL113434A0 (en) * 1994-04-25 1995-07-31 Katz Barry Surveillance system and method for asynchronously recording digital data with respect to video data
US5623249A (en) * 1995-01-26 1997-04-22 New Product Development, Inc. Video monitor motion sensor
US5926210A (en) * 1995-07-28 1999-07-20 Kalatel, Inc. Mobile, ground-based platform security system which transmits images that were taken prior to the generation of an input signal
US6016161A (en) * 1996-01-25 2000-01-18 Medar, Inc. Method and system for automatically calibrating a color-based machine vision system
JP3200663B2 (ja) * 1996-03-29 2001-08-20 技研トラステム株式会社 移動体検出方法,移動体検出装置,及び移動体計数装置
US5956081A (en) * 1996-10-23 1999-09-21 Katz; Barry Surveillance system having graphic video integration controller and full motion video switcher
GB9702849D0 (en) * 1997-02-12 1997-04-02 Trafficmaster Plc Traffic monitoring
US6091771A (en) * 1997-08-01 2000-07-18 Wells Fargo Alarm Services, Inc. Workstation for video security system
US6097429A (en) * 1997-08-01 2000-08-01 Esco Electronics Corporation Site control unit for video security system
GB2329542B (en) * 1997-09-17 2002-03-27 Sony Uk Ltd Security control system and method of operation
DE69921237T2 (de) 1998-04-30 2006-02-02 Texas Instruments Inc., Dallas Automatische Videoüberwachungsanlage
JPH11355759A (ja) * 1998-06-03 1999-12-24 Kokusai Electric Co Ltd 遠隔監視システム
US6359560B1 (en) * 1998-11-12 2002-03-19 Smith Micro Software Computer system with motion-triggered alarm procedure
US6226388B1 (en) * 1999-01-05 2001-05-01 Sharp Labs Of America, Inc. Method and apparatus for object tracking for automatic controls in video devices
JP2000268173A (ja) * 1999-03-17 2000-09-29 Hitachi Denshi Ltd 物体認識画像処理方法
JP2000295600A (ja) * 1999-04-08 2000-10-20 Toshiba Corp 監視装置
US6201473B1 (en) * 1999-04-23 2001-03-13 Sensormatic Electronics Corporation Surveillance system for observing shopping carts
US6297844B1 (en) * 1999-11-24 2001-10-02 Cognex Corporation Video safety curtain
JP2001175868A (ja) * 1999-12-22 2001-06-29 Nec Corp 人物検出方法及び装置
JP2001189925A (ja) 1999-12-28 2001-07-10 Glowing Shinko:Kk 移動物体監視システム
US20020082769A1 (en) * 2000-11-21 2002-06-27 Gary Church Airport auditing and information system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10452922B2 (en) 2015-06-15 2019-10-22 Davantis Technologies Sl IR or thermal image enhancement method based on background information for video analysis
US10740623B2 (en) 2015-09-25 2020-08-11 Sony Corporation Representative image generation device and representative image generation method

Also Published As

Publication number Publication date
IL160996A0 (en) 2004-08-31
CA2460426A1 (en) 2003-04-17
AU2002337829A1 (en) 2003-04-22
US6696945B1 (en) 2004-02-24
JP2005506740A (ja) 2005-03-03
EP1435170B1 (en) 2011-04-27
DE60239882D1 (de) 2011-06-09
DK1435170T3 (da) 2011-08-15
CN1568487A (zh) 2005-01-19
WO2003032622A2 (en) 2003-04-17
EP1435170B2 (en) 2020-12-09
MXPA04003441A (es) 2005-02-17
ATE507543T1 (de) 2011-05-15
KR20040050907A (ko) 2004-06-17
EP1435170A4 (en) 2006-05-03
HK1071956A1 (en) 2005-08-05
EP1435170A2 (en) 2004-07-07
US20040027242A1 (en) 2004-02-12
CN100337253C (zh) 2007-09-12
WO2003032622A3 (en) 2003-12-24
KR100905504B1 (ko) 2009-07-01

Similar Documents

Publication Publication Date Title
ES2364915T3 (es) Cable trampa de video.
KR101085578B1 (ko) 비디오 트립와이어
Elharrouss et al. A review of video surveillance systems
Wickramasuriya et al. Privacy protecting data collection in media spaces
Fleck et al. Smart camera based monitoring system and its application to assisted living
US7646401B2 (en) Video-based passback event detection
Porikli et al. Video surveillance: past, present, and now the future [DSP Forum]
Alshammari et al. Intelligent multi-camera video surveillance system for smart city applications
TW200806035A (en) Video surveillance system employing video primitives
KR20070101401A (ko) 비디오 프리미티브를 사용하는 비디오 감시 시스템
WO2006031988A9 (en) Privacy protection of data collection in pervasive environments
US20170300751A1 (en) Smart history for computer-vision based security system
US10878245B2 (en) Video content activity regions
Chan A robust target tracking algorithm for FLIR imagery
Kim et al. 3D fall detection for single camera surveillance systems on the street
Fleck et al. Towards secure and privacy sensitive surveillance
Hesse The transition from video motion detection to intelligent scene discrimination and target tracking in automated video surveillance systems
Sigaravelu et al. Image based theft detection with live streaming
Ramli et al. Human motion detection framework Suzaimah Bt Ramli
Akutsu et al. Hierarchical Image Gathering Technique for Browsing Surveillance Camera Images
Soundarya et al. Unusual event detection in ATM using machine learning
Das et al. Intelligent surveillance system
Kadim et al. Video analytics algorithm for detecting objects crossing lines in specific direction using blob-based analysis
Olufade et al. A Model for Intelligent Motion Detection in Live Video Streaming Systems
Flores Guerra Homography based multiple camera detection of camouflaged targets