ES2364915T3 - Cable trampa de video. - Google Patents
Cable trampa de video. Download PDFInfo
- Publication number
- ES2364915T3 ES2364915T3 ES02773727T ES02773727T ES2364915T3 ES 2364915 T3 ES2364915 T3 ES 2364915T3 ES 02773727 T ES02773727 T ES 02773727T ES 02773727 T ES02773727 T ES 02773727T ES 2364915 T3 ES2364915 T3 ES 2364915T3
- Authority
- ES
- Spain
- Prior art keywords
- video
- detection device
- trap cable
- cable
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
- 238000000034 method Methods 0.000 claims abstract description 71
- 230000004044 response Effects 0.000 claims abstract description 13
- 238000001514 detection method Methods 0.000 claims description 83
- 238000004891 communication Methods 0.000 claims description 20
- 230000008569 process Effects 0.000 claims description 17
- 230000011218 segmentation Effects 0.000 claims description 16
- 230000000007 visual effect Effects 0.000 claims description 15
- 238000012544 monitoring process Methods 0.000 claims description 8
- 230000003213 activating effect Effects 0.000 claims description 2
- 230000005540 biological transmission Effects 0.000 claims description 2
- 230000035945 sensitivity Effects 0.000 claims description 2
- 238000004458 analytical method Methods 0.000 description 19
- 238000012545 processing Methods 0.000 description 14
- 230000008901 benefit Effects 0.000 description 5
- 230000033001 locomotion Effects 0.000 description 5
- 230000001960 triggered effect Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 238000009434 installation Methods 0.000 description 3
- 230000002452 interceptive effect Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 241000282472 Canis lupus familiaris Species 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 241000408659 Darpa Species 0.000 description 1
- 241000282326 Felis catus Species 0.000 description 1
- 241000699666 Mus <mouse, genus> Species 0.000 description 1
- 241000699670 Mus sp. Species 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000013475 authorization Methods 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 210000002421 cell wall Anatomy 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000001427 coherent effect Effects 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 238000001595 flow curve Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000012806 monitoring device Methods 0.000 description 1
- 239000010813 municipal solid waste Substances 0.000 description 1
- 230000008635 plant growth Effects 0.000 description 1
- 230000002035 prolonged effect Effects 0.000 description 1
- 238000012552 review Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B13/00—Burglar, theft or intruder alarms
- G08B13/18—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
- G08B13/189—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
- G08B13/19—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using infrared-radiation detection systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
- G06V20/53—Recognition of crowd images, e.g. recognition of crowd congestion
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B13/00—Burglar, theft or intruder alarms
- G08B13/18—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
- G08B13/189—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
- G08B13/194—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
- G08B13/196—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B13/00—Burglar, theft or intruder alarms
- G08B13/18—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
- G08B13/189—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
- G08B13/194—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
- G08B13/196—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
- G08B13/19602—Image analysis to detect motion of the intruder, e.g. by frame subtraction
- G08B13/19608—Tracking movement of a target, e.g. by detecting an object predefined as a target, using target direction and or velocity to predict its new position
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B13/00—Burglar, theft or intruder alarms
- G08B13/18—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
- G08B13/189—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
- G08B13/194—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
- G08B13/196—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
- G08B13/19639—Details of the system layout
- G08B13/19652—Systems using zones in a single scene defined for different treatment, e.g. outer zone gives pre-alarm, inner zone gives alarm
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B13/00—Burglar, theft or intruder alarms
- G08B13/18—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
- G08B13/189—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
- G08B13/194—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
- G08B13/196—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
- G08B13/19665—Details related to the storage of video surveillance data
- G08B13/19671—Addition of non-video data, i.e. metadata, to video stream
- G08B13/19673—Addition of time stamp, i.e. time metadata, to video stream
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B13/00—Burglar, theft or intruder alarms
- G08B13/18—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
- G08B13/189—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
- G08B13/194—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
- G08B13/196—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
- G08B13/19678—User interface
- G08B13/1968—Interfaces for setting up or customising the system
Landscapes
- Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Library & Information Science (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
- Closed-Circuit Television Systems (AREA)
- Glass Compositions (AREA)
- Aiming, Guidance, Guns With A Light Source, Armor, Camouflage, And Targets (AREA)
- Liquid Crystal (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
Un sistema de cable trampa de video que comprende un dispositivo de detección para producir una salida de video; y un sistema informático para calibrar el dispositivo de detección y para reunir y procesar datos en base a la salida de video recibida del dispositivo de detección, para mostrar los datos procesados y que incluye software que comprende instrucciones para permitir a un usuario introducir al menos un cable trampa virtual en una interfaz del usuario, y una dirección de cruce del al menos un cable trampa virtual.
Description
CAMPO DE LA INVENCIÓN
Esta invención se refiere a sistemas de vigilancia. Específicamente, la invención se refiere a un sistema de vigilancia basado en video que implementa un cable trampa virtual.
En su forma original, un cable trampa era un arreglo en el cual un cable, cordel, o similar se extendía atravesando un camino, y si alguien o algo tropezaba con el cable o tiraba de él de otro modo, se desencadenaba alguna respuesta. Por ejemplo, dicha respuesta podía ser detonar una mina terrestre, hacer sonar una alarma, o grabar un evento (por ejemplo, activar un contador, una cámara, etc.). Actualmente, los cables trampa se implementan a menudo, por ejemplo, como haces de luz (por ejemplo, láser, infrarroja, o visible); cuando alguien o algo interrumpe el haz, se desencadena una respuesta.
Un ejemplo de un cable trampa convencional que usa un haz de luz se muestra esquemáticamente en la figura
1. Una fuente genera un haz de luz, el cual se transmite cruzando un camino hasta un receptor. Si el haz se rompe, entonces el receptor ya no lo recibe. Esto da como resultado el desencadenamiento de alguna respuesta, como se ha descrito anteriormente.
Los cables trampa convencionales son ventajosos en que son al menos conceptualmente sencillos de usar. También requieren un mínimo de intervención humana, una vez que han sido instalados.
Los cables trampa convencionales, sin embargo, tienen una serie de desventajas. Por ejemplo, no pueden discriminar entre objetos activadores de interés y aquellos que no son de interés. Como ejemplo, se puede estar interesado en cuantas personas, pero no perros, pasean por un camino; sin embargo, una persona o un perro activarían el cable trampa. También es problemático si un grupo de personas caminan juntas, dando como resultado una única activación del cable trampa, en lugar de una para cada persona.
Además, los arreglos de cable trampa convencionales implican generalmente la instalación de equipo dedicado. Por ejemplo, considerando el ejemplo de un cable trampa láser, una fuente de láser y un detector de láser deben instalarse cruzando un camino de interés. Adicionalmente, dicho equipo dedicado puede ser difícil de instalar de tal manera que no sea fácilmente detectable.
Adicionalmente, un cable trampa convencional no ofrece un elevado grado de flexibilidad. Los cables trampa convencionales típicamente detectan si alguien o algo los cruzan, solamente, independientemente de la dirección de cruce. Además, dado que se extienden en líneas rectas, solamente, los cables trampa convencionales están limitados a las regiones a través de las que pueden tenderse.
Los sistemas de videovigilancia convencionales son hoy en día también de uso común. Son, por ejemplo, prevalentes en tiendas, bancos, y muchos otros establecimientos. Los sistemas de videovigilancia generalmente implican el uso de una o más videocámaras, y la salida de video de la cámara o cámaras es grabada para una revisión posterior o es monitorizada por un observador humano, o ambas. Dicho sistema se representa en la figura 2, donde una videocámara 1 está enfocada al camino. La videocámara 1 genera señales de video, las cuales son transmitidas por un medio de comunicación, mostrado en este caso como un cable 2. El cable 2 alimenta a uno o a ambos de un dispositivo de pantalla visual 3 y un dispositivo de grabación 4.
Al contrario que con cables trampa convencionales, los sistemas de videovigilancia pueden diferenciar entre personas y animales (es decir, entre objetos de interés y objetos no de interés) y pueden diferenciar los individuos dentro de un grupo de personas que caminan juntas. Proporcionan además flexibilidad respecto a los cables trampa, en términos de la forma de las regiones que pueden monitorizar. Además, dado que los sistemas de videovigilancia se usan tan ampliamente, no es necesario instalar ningún equipo adicional. Sin embargo, los sistemas de videovigilancia también presentan algunas desventajas.
Quizás la desventaja más significativa de los sistemas de videovigilancia convencionales es que requieren un alto grado de intervención humana para extraer información del video generado. Es decir, alguien tiene que estar viendo el video a medida que se genera, o alguien tiene que revisar el video almacenado.
Un ejemplo de un sistema de vigilancia basado en video de la técnica anterior puede encontrarse en las Patentes de Estados Unidos Nº 6.097.429 y 6.091.771 de Seeley y col. (denominadas colectivamente más adelante como “Seeley y col.”). Seeley y col. se refieren a un sistema de seguridad de video que incluye tomar fotos instantáneas cuando se detecta una intrusión. Seeley y col. abordan algunos de los problemas relacionados con falsas alarmas y la necesidad de detectar algunas intrusiones/intrusos pero no otros. En este trabajo se usan técnicas de diferenciación de imágenes y técnicas de reconocimiento de objetos. Sin embargo, existen muchas diferencias entre Seeley y col. y la presente invención, como se describe a continuación. Entre las más importantes desventajas de Seeley y col. está una falta de descripción de cómo se realizan la detección y el reconocimiento. Lo que se describe en estas áreas contrasta con lo que se presenta con respecto a la presente invención.
Otro ejemplo de un sistema de vigilancia basado en un video y en otros sensores se describe en las Patentes de Estados Unidos Nº 5.696.503 y 5.801.943 de Nasburg (denominadas colectivamente más adelante como “Nasburg”). Nasburg trata del seguimiento de vehículos usando múltiples sensores, incluyendo sensores de video. Se desarrollan “huellas dactilares” para vehículos a seguir y se usan para detectar posteriormente a los vehículos individuales. Aunque Nasburg menciona el concepto de un cable trampa de video, no existe ninguna descripción sobre cómo se implementa dicho cable trampa de video. Nasburg difiere además de la presente invención en que se centra exclusivamente en la detección y el seguimiento de vehículos. Por el contrario, la presente invención, como se describe y se reivindica a continuación, está orientada en la detección de objetos en movimiento arbitrarios, tanto rígidos (como un vehículo) como no rígidos (como un ser humano). Otro ejemplo más de sistema de videovigilancia puede encontrarse en el documento “A smart camera application: DSP-based people detection and tracking”, CHENG v. y col., Journal of Electronic Imaging, Vol. 9, nº 3, julio de 2000, págs. 336-346.
En vista de lo anterior, sería ventajoso tener un sistema de vigilancia que combine las ventajas de los cables trampa con las de los sistemas de videovigilancia, y éste es el objetivo de la presente invención.
La presente invención es como se indica en las reivindicaciones. La presente invención implementa un sistema de cable trampa de video, en el que un cable trampa virtual, de forma arbitraria, se coloca en el video digital usando técnicas de procesamiento de video por ordenador. El cable trampa virtual se monitoriza a continuación, usando de nuevo técnicas de procesamiento de video por ordenador. Como resultado del proceso de monitorización, pueden compilarse estadísticas, detectarse intrusiones, registrarse eventos, desencadenarse respuestas, etc. Por ejemplo, en una realización de la invención, el evento de una persona que cruza un cable trampa virtual en una dirección puede desencadenar la captura de una instantánea de esa persona, para una futura identificación.
El sistema de la invención puede implementarse usando equipo de video existente junto con equipo informático. Tiene la ventaja, por lo tanto, de que no requiere una importante instalación de equipo de monitorización. El sistema de la invención puede estar realizado, en parte, en forma de un medio legible por ordenador que contiene un software que implementa diversas etapas de un procedimiento correspondiente, o como un sistema informático, el cual puede incluir una red informática, que ejecute dicho software.
El sistema de la invención también puede usarse junto con dispositivos de captura de imágenes diferentes de un video convencional, incluyendo sistemas de captura de imágenes térmicas o cámaras de infrarrojos.
Una realización de la invención comprende un procedimiento para implementar un sistema de cable trampa de video, que comprende las etapas de: instalar un dispositivo de detección (el cual puede ser una videocámara u otro dispositivo semejante), si no existe ya uno; calibrar el dispositivo de detección; establecer un límite como un cable trampa virtual; y reunir datos.
Objetivos y ventajas adicionales serán evidentes a partir de una consideración de la descripción, los dibujos y los ejemplos.
En la descripción de la invención, las siguientes definiciones son aplicables en toda ella (incluyendo lo anteriormente indicado).
Un “ordenador” se refiere a cualquier aparato que es capaz de aceptar una entrada estructurada, procesar la entrada estructurada según normas pre-establecidas, y producir resultados del procesamiento como salida. Los ejemplos de un ordenador incluyen un ordenador; un ordenador de uso general; un superordenador; una unidad principal; un super mini-ordenador; un mini-ordenador; una estación de trabajo; un microordenador; un servidor; una televisión interactiva; una combinación híbrida de un ordenador y una televisión interactiva; y hardware específico de la aplicación para emular un ordenador y/o software. Un ordenador puede tener un único procesador o múltiples procesadores, que pueden funcionar en paralelo y/o no en paralelo. Un ordenador también se refiere a dos o más ordenadores conectados entre sí mediante una red para transmitir o recibir información entre los ordenadores. Un ejemplo de dicho ordenador incluye un sistema informático distribuido para procesar información mediante ordenadores conectados por una red.
Un “medio legible por ordenador” se refiere a cualquier dispositivo de almacenamiento usado para almacenar datos accesibles por un ordenador. Los ejemplos de un medio legible por ordenador incluyen un disco duro magnético; un disquete; un disco óptico, tal como un CD-ROM o un DVD; una cinta magnética; un chip de memoria; y una onda portadora usada para portar datos electrónicos legibles por ordenador, tales como los usados en la transmisión y recepción de e-mails o en el acceso a una red.
“Software” se refiere a normas prescritas para accionar un ordenador. Los ejemplos de software incluyen software; segmentos de código; instrucciones; programas informáticos; y lógica programada.
Un “sistema informático” se refiere a un sistema que tiene un ordenador, en el que el ordenador comprende un medio legible por ordenador que contiene un software para accionar el ordenador.
Una “red” se refiere a una serie de ordenadores y dispositivos asociados que están conectados mediante instalaciones de comunicación. Una red implica conexiones permanentes tales como cables o conexiones temporales tales como las establecidas mediante teléfono u otros enlaces de comunicación. Los ejemplos de una red incluyen una internet, tal como el Internet; una intranet; una red de área local (LAN); una red de área amplia (WAN); y una combinación de redes, tal como una internet y una intranet.
“Video” se refiere a fotografías en movimiento representadas en forma analógica y/o digital. Los ejemplos de video incluyen la televisión, películas, secuencias de imágenes desde una cámara u otro observador, y secuencias de imágenes generadas por ordenador. Éstas pueden obtenerse de, por ejemplo, una fuente en vivo, un dispositivo de almacenamiento, una interfaz a base de IEEE 1394, un videodigitalizador, un motor gráfico informático, o una conexión a una red.
“Procesamiento de video” se refiere a cualquier manipulación de video, incluyendo, por ejemplo, compresión y edición.
Un “fotograma” se refiere a una imagen particular u otra unidad distinta en un video.
La invención se entiende mejor leyendo la siguiente descripción detallada con referencia a las figuras adjuntas, en las cuales números de referencia similares se refieren a elementos similares en toda ella, y en los que: La figura 1 muestra un sistema de cable trampa de la técnica anterior; La figura 2 muestra un sistema de videovigilancia de la técnica anterior; La figura 3 muestra un sistema de cable trampa de video según una realización de la invención; La figura 4 muestra un diagrama de bloques de una realización de un sistema de análisis según una realización de la invención; La figura 5 muestra un diagrama de flujo que representa un procedimiento según una realización de la invención; La figura 6 muestra un diagrama de flujo que representa una primera realización de la etapa de calibrado mostrada en la figura 5; La figura 7 muestra un diagrama de flujo que representa una segunda realización de la etapa de calibrado mostrada en la figura 5; La figura 8 muestra un diagrama de flujo que representa una tercera realización de la etapa de calibrado mostrada en la figura 5; La figura 9 ilustra una realización de un ejemplo de la etapa de formación del histograma mostrada en la figura 8; La figura 10 muestra un diagrama de flujo que representa una realización de la etapa de segmentación mostrada en las figuras 7 y 8; La figura 11 muestra un diagrama de flujo que representa una realización de un ejemplo de una etapa de detección del cruce de un cable trampa; Las figuras 12 y 13 muestran “capturas de pantalla” que representan realizaciones de ejemplos ejemplares de formatos de información; y La figura 14 muestra un diagrama de flujo que representa una aplicación de un ejemplo de la invención.
En la descripción de realizaciones preferidas de la presente invención ilustradas en los dibujos, se emplea una terminología específica en aras de la claridad. Sin embargo, la invención no pretende limitarse a la terminología específica seleccionada de este modo. Debe entenderse que cada elemento específico incluye todos los equivalentes técnicos que funcionan de manera similar para conseguir un propósito similar. Cada referencia mencionada en este documento se incorpora como referencia como si cada una se incorporara individualmente como referencia.
Además, las realizaciones descritas a continuación se describen generalmente en términos de detección de personas. Sin embargo, no debe entenderse que la invención está limitada a la detección de personas. Por el contrario, el sistema de cable trampa de video en las realizaciones descritas a continuación puede usarse para detectar objetos de todas clases, animados o inanimados. Los ejemplos incluyen vehículos, animales, crecimiento vegetal (por ejemplo, un sistema que detecta cuando es el momento de podar los setos), objetos que caen (por ejemplo, un sistema que detecta cuando ha caído una lata reciclable en una bajante de basura), y entes microscópicos (por ejemplo, un sistema que detecta cuando un microbio ha permeado una pared celular).
La figura 3 muestra una vista general de una realización de un sistema de cable trampa de video. Como en la figura 2, el dispositivo de detección 1 está enfocado en el camino y genera señales de salida. El dispositivo de detección 1 puede ser una videocámara, tal como se describe en relación con la figura 2; sin embargo, también puede ser cualquier otro tipo de dispositivo de detección que genere una salida de tipo video, por ejemplo, un dispositivo a base de calor, a base de sonido (por ejemplo, sonograma) o un dispositivo a base de infrarrojos. La salida del dispositivo de detección 1 es transmitida por el medio de comunicación 2. El medio de comunicación 2 puede ser un cable, por ejemplo; sin embargo, también puede ser cualquier otro medio de comunicación, por ejemplo, RF, una red (por ejemplo, Internet), o una onda luminosa. Si la comunicación a través del medio de comunicación 2 requiere modulación, codificación, compresión, u otro procesamiento de la señal relacionado con la comunicación, se proporcionan medios para realizar dicho procesamiento de la señal tal como parte del dispositivo de detección 1 o como un medio separado acoplado al dispositivo de detección 1 (no se muestra). El medio de comunicación 2 porta las señales de salida desde el dispositivo de detección 1 al sistema de análisis 5. El sistema de análisis 5 recibe entrada de y envía salida a una interfaz del usuario 6. La interfaz del usuario 6 puede incluir, por ejemplo, un monitor, un ratón, un teclado, una pantalla táctil, una impresora, u otros dispositivos de entrada/salida. Usando la interfaz del usuario 6, un usuario es capaz de proporcionar entradas al sistema, incluyendo aquellas necesarias para inicializar (incluyendo crear un cable trampa virtual, tal como se describirá a continuación) y para proporcionar órdenes al sistema de análisis 5. La interfaz del usuario 6 también puede incluir una alarma u otro dispositivo de alerta; puede incluir además o estar conectada a medios para implementar cualquier otra respuesta a un evento desencadenante, por ejemplo, como se ha descrito anteriormente. La interfaz del usuario 6 también incluirá generalmente un dispositivo de visualización como el dispositivo de monitorización 3 en la figura 2.
El sistema de análisis 5 realiza tareas de análisis, incluyendo el procesamiento necesario para implementar el cable trampa de video. Una realización del sistema de análisis 5 se muestra con más detalle en la figura 4.
La figura 4 muestra el sistema de análisis 5 acoplado al medio de comunicación 2 y a la interfaz del usuario 6, como se muestra también en la figura 3. En la figura 4, se muestra el sistema de análisis 5 que comprende el receptor 51, el sistema informático 52 y la memoria 53. El receptor 51 recibe las señales de salida del dispositivo de detección 1 del medio de comunicación 2. Si las señales han sido moduladas, codificadas, etc., el receptor 51 contiene medios para realizar la desmodulación, la descodificación, etc. Además, si las señales recibidas del medio de comunicación 2 están en forma analógica, el receptor 51 incluye medios para convertir las señales analógicas en señales digitales adecuadas para el procesamiento por el sistema informático 52. El receptor 51 puede implementarse como un bloque diferente, tal como se muestra, o puede estar integrado en el sistema informático 52, en una realización alternativa. Además, si no es necesario realizar ningún procesamiento de la señal antes de enviar las señales desde el medio de comunicación 2 al sistema informático 52, el receptor 51 puede omitirse por completo.
El sistema informático 52 está provisto de la memoria 53, que puede ser externa a, como se muestra, o estar incorporada en el sistema informático 52, o una combinación de ambas. La memoria 53 incluye todos los recursos de memoria requeridos por el sistema de análisis 52 y también puede incluir uno o más dispositivos de grabación para almacenar señales recibidas del medio de comunicación 2.
En una realización adicional de la invención, el dispositivo de detección 1 puede implementarse en forma de más de un dispositivo de detección que monitoriza la misma ubicación. En este caso, la salida de datos mediante cada dispositivo de detección puede integrarse antes de transmitir datos a través del medio de comunicación 2, o las salidas de todos los dispositivos de detección pueden transmitirse al sistema de análisis 5 y ser procesadas en él.
En otra realización más de la invención, el dispositivo de detección 1 puede comprender una serie de dispositivos de detección que monitorizan diferentes ubicaciones y que envían sus datos a un único sistema de análisis
5. De esta manera, puede usarse un único sistema para la vigilancia de múltiples lugares. Los procesos realizados por los componentes mostrados en las figuras 3 y 4 quedarán más claros a la luz de la siguiente descripción de los procedimientos de la invención. La figura 5 muestra un diagrama de flujo de una visión general de una realización del procedimiento de la invención. Si aún no se ha instalado un dispositivo de detección 1, debe instalarse uno 71. En muchos casos, sin embargo, dichos dispositivos de detección pueden ya existir. Por ejemplo, la mayoría de los bancos ya usan sistemas de videovigilancia, así que no existe la necesidad de instalar nuevas videocámaras. En una realización preferida del sistema, el dispositivo (o dispositivos) de detección se instala para ser estacionario. Idealmente, se instala con orientación “natural” (es decir, la parte superior de las imágenes correspondiendo a la parte superior en el mundo real). Una vez que se ha instalado el dispositivo de detección 1, es necesario calibrarlo con el sistema de análisis 5. El calibrado del sistema puede realizarse, en términos generales, mediante calibrado explícito, en el que al sistema se le dice (o éste determina automáticamente) los parámetros de calibrado necesarios del dispositivo de detección 1, o mediante calibración implícita, en la que al sistema se le dice (o éste determina automáticamente) el tamaño de un objeto de interés en diversas ubicaciones en el campo de visión del dispositivo de detección 1. El propósito del calibrado es proporcionar información a escala, es decir, de modo que el sistema conozca cual debe ser el tamaño de una persona u otro objeto de interés en diferentes áreas de la imagen. Esta información es especialmente importante para la etapa de análisis de datos 74. El calibrado puede realizarse en una de, o en una combinación de dos o más de, tres maneras: calibrado numérico manual, calibrado por segmentación asistida, y calibrado completamente automático. Los diagramas de flujo de realizaciones de estos procedimientos se muestran en las figuras 6, 7 y 8, respectivamente. La figura 6 muestra un diagrama de flujo de una realización del procedimiento de calibrado manual, que implica el calibrado explícito, como se ha descrito anteriormente. Un usuario introduce los parámetros 721, a través de la interfaz del usuario 6, relacionados con el dispositivo de detección 1. Estos parámetros pueden incluir, por ejemplo, la distancia focal del dispositivo de detección 1, la altura del dispositivo de detección 1 desde el suelo, y el ángulo del dispositivo de detección 1 con respecto al suelo. El sistema de análisis 5 genera a continuación una retroalimentación visual 722; por ejemplo, el sistema puede superponer una persona u otro objeto de interés en un fotograma de video real. La retroalimentación visual se presenta al usuario en la interfaz del usuario 6. La retroalimentación visual proporciona información a escala (por ejemplo, el tamaño de la persona u otro objeto de interés con respecto a sus alrededores), lo cual ayuda a comprobar que el calibrado es correcto. El usuario decide a continuación si el aspecto de la retroalimentación visual es aceptable o si es necesario ajustar los parámetros 723. Si ésta es aceptable, el proceso finaliza; en caso contrario, el proceso vuelve a la introducción de nuevos parámetros 721. Una realización del procedimiento de calibrado por segmentación asistida, que usa calibrado implícito y también puede implicar al menos cierto grado de calibrado explícito (véase a continuación), se muestra en la figura 7.
En esta realización, una persona camina (o algún otro objeto de interés se mueve; la descripción posterior se referirá a una persona pero debe entenderse que puede aplicarse también a otro tipos de objetos de interés) a través del campo de visión del dispositivo de detección 1 (Etapa 721A). Esto es para permitir al sistema determinar el tamaño esperado de una persona promedio en diferentes áreas de la imagen. La persona que camina debe ser el único objeto en movimiento en el campo de visión durante el calibrado. El sistema segmenta a continuación a la persona en movimiento 722A. Los tamaños de la persona en diferentes regiones de la imagen se usan a continuación para calibrar (es decir, para determinar los parámetros tal como se ha descrito anteriormente) 723A. Se proporciona retroalimentación visual 724A, como en el calibrado manual, y el usuario evalúa a continuación si el aspecto de la imagen es aceptable 725A. En caso negativo, entonces el usuario puede ajustar los parámetros 726A, o, como alternativa, el calibrado puede realizarse de nuevo completamente, con el proceso volviendo a la Etapa 721A (flecha discontinua). Por cual de estas opciones se opta puede hacerse seleccionable por el usuario. Si el aspecto es aceptable, por otro lado, entonces el proceso está completo.
Una realización del procedimiento de calibrado completamente automático, que implica calibrado implícito, se muestra en la figura 8. En primer lugar, la información (la información de video se muestra en la figura 8) es reunida por el dispositivo de detección 1 durante un prolongado periodo de tiempo, digamos de varias horas a unos pocos días 721B. Una vez que se han reunido los datos, los objetos se segmentan a continuación para el análisis 722B. A continuación se generan histogramas para los diversos objetos en diversas regiones de la imagen 723B. Los detalles de esta etapa se ilustran adicionalmente en la figura 9.
La figura 9 muestra la etapa de generación de histogramas 723B realizada como un proceso de dos etapas, aunque la invención no está limitada a este proceso. En la Etapa 1, el sistema determina regiones de imagen “no salientes”, es decir, regiones en las cuales hay demasiados objetos confusos para seguir a los objetos de forma fiable. Como resultado, solamente se usan objetos que pueden ser seguidos con alta confianza; en una realización de la invención, estos son los únicos objetos que se almacenan. En la Etapa 2, el sistema usa solamente las regiones de imagen restantes y forma histogramas de objetos detectados en esas regiones. Como se indica en la Etapa 2, y como se muestra en la figura 8, el sistema utiliza a continuación los histogramas para determinar el tamaño promedio de una persona en cada región de la imagen 724B. Esta información se usa entonces para calibrar el sistema 725B. Este último proceso puede implementarse análogamente a la etapa 723A de la figura 7.
La etapa de determinar el tamaño promedio de una persona en una región de la imagen 724B se realiza solamente si se registran un número suficiente de objetos para dar como resultado una determinación coherente en una región dada. El número de determinaciones necesarias para un histograma coherente puede determinarse empíricamente y puede depender, por ejemplo, de la cantidad y del tipo de actividad a la cual estará expuesto el cable trampa. Para tales regiones, se detectan picos en los histogramas. Se supone que el pico más alto en cada región de la imagen, es decir, el suceso más frecuente, es una única persona. Si se determina esta información, entonces el calibrado se realiza con éxito 725B, y el sistema es capaz de señalar que está preparado para el funcionamiento real.
El proceso de la figura 8 se realiza normalmente sin intervención humana. Sin embargo, es posible para un usuario proporcionar marcos temporales durante los cuales se espera que la mayoría de los objetos sean personas individuales, para reducir el problema de intentar diferenciar grupos de personas. Dichos marcos temporales pueden imponerse en la etapa de obtención de información 721B o en las etapas de procesamiento adicionales.
Cada uno de los procedimientos de calibrado automatizados (asistido y completamente automático) requiere la segmentación de imágenes en objetos de primer plano y de fondo (véase las etapas 722A y 722B en las figuras 7 y 8, respectivamente). Una realización de este proceso se ilustra en la figura 10. El ejemplo de realización consiste en tres etapas: modelización del fondo a nivel de píxeles 7221; detección y seguimiento del primer plano 7222; y análisis del objeto 7223.
El objetivo de la modelización del fondo a nivel de píxeles 7221 es mantener una representación precisa del fondo de la imagen y diferenciar píxeles del fondo (BG) de píxeles del primer plano (FG). En un ejemplo de realización, esta etapa implementa el proceso descrito en la solicitud de patente de Estados Unidos de asignación conjunta Nº 09/815, 385, titulada, “Video Segmentation Using Statistical Pixel Modeling,” presentada el 23 de marzo de 2001.
La idea general del ejemplo del procedimiento es que se mantiene un historial de todos los píxeles durante varios fotogramas, incluyendo valores de píxel y sus estadísticas. Un píxel estable, sin cambios es tratado como BG. Si las estadísticas de un píxel cambian de forma significativa, se considerará que es FG. Si el píxel se estabiliza de nuevo, volverá a ser considerado como un píxel de BG. Este procedimiento sirve para aliviar el ruido del sensor y para abordar automáticamente cambios del fondo (por ejemplo, en una tienda, cuando una persona coge un artículo de una estantería, la estantería será tratada automáticamente como FG pero volverá a BG una vez que la situación se estabilice de nuevo).
El objetivo de la detección y seguimiento del primer plano 7222 es combinar los píxeles de FG en objetos de FG y seguirlos en una serie de fotogramas, para garantizar la coherencia espacio-temporal. Esto obtiene conjuntos de píxeles que se determina que son píxeles de FG, así como sus propiedades estadísticas, a partir de la modelización del fondo a nivel de píxeles 7221. En un ejemplo de realización, los píxeles de FG se funden espacialmente en objetos de FG más grandes usando morfología simple y técnicas de detección de componentes conectadas que son bien conocidos en la técnica anterior. Estos objetos son seguidos usando procedimientos de correlación en varios fotogramas para obtener información del tamaño fiable. Técnicas de seguimiento ejemplares se describen, por ejemplo, en la solicitud de patente de Estados Unidos pendiente de tramitación de asignación conjunta Nº 09/694.712, titulada, “Interactive Video Manipulation”, presentada el 24 de octubre de 2000, e incorporada en este documento como referencia en su totalidad. Véase, también, por ejemplo, Wren, C. R. y col., “Pfinder: Real-Time Tracking of the Human Body”, IEEE Trans. on Pattern Matching and Machine Intelligence, Vol. 19, págs. 780-784, 1997; Grimson, W. E. L. y col.,”Using Adaptive Tracking to Classify and Monitor Activities in a Site”, CVPR, págs. 22-29, junio de 1998; y Olson, T.
J. y Brill, F. Z., “Moving Object Detection and Event Recognition Algorithm for Smart Cameras”, IUW, págs. 159-175, mayo de 1997.
La tercera etapa, el análisis del objeto 7223, tiene una serie de funciones. El análisis del objeto 7223 puede servir para separar y contar objetos; para discriminar entre objetos de interés (por ejemplo, personas) y “elementos que generan confusión” (por ejemplo, carros de la compra); para determinar la dirección del movimiento de un objeto; y para explicar oclusiones de objetos. En una realización ilustrativa, las determinaciones respecto a un objeto se realizan en base a uno o más de su tamaño; su movimiento interno; el número de protuberancias similares a una cabeza (por ejemplo, si son personas los objetos de interés); y detección de rostros (por ejemplo, de nuevo, en el caso en el cual las personas son los objetos de interés). En la técnica se conocen técnicas para realizar dichas funciones, y ejemplos de dichas técnicas se describen en, por ejemplo, los documentos Allmen, M., y Dyer, C., “Long-range Spatiotemporal Motion Understanding Using Spatiotemporal Flow Curves”, Proc. IEEE CVPR, Lahaina, Maui, Hawai, págs. 303-309, 1991; Gavrila, D. M., “The Visual Analysis of Human Movement: A Survey”, CVIU, Vol. 73, No. 1, págs. 82-98, enero de 1999; Collins, Lipton, y col., “A System for Video Surveillance and Monitoring: VSAM Final Report”, Robotics Institute, Carnegie-Mellon University, Tech. Rept. No. CMU-RI-TR-00-12, mayo de 2000; Lipton, A. J., y col., “Moving Target Classification and Tracking from Real-Time Video”, 1998 DARPA IUW, 20-23 de nov. de 1998; y Haering, N., y col., “Visual Event Detection”, Video Computing Series, M. Shah, Ed., 2001.
Volviendo ahora a la figura 5, la etapa de calibrado 72 viene seguida por una etapa de inicialización del sistema
73. Esta etapa permite al usuario introducir diversos parámetros relacionados con la manera en la que el sistema reunirá, responderá a, y presentará los datos. En primer lugar, un usuario puede superponer una o más líneas de interés en la imagen; estas líneas servirán como uno o más cables trampa. Las líneas pueden tener cualquier orientación y pueden estar colocadas casi en cualquier parte de la imagen; la excepción es que las líneas no pueden estar demasiado cerca de los límites de la imagen, porque el objeto (por ejemplo, la persona) que cruza la línea debe ser al menos parcialmente visible a ambos lados de la línea para que se produzca la detección. En una realización ilustrativa, se supone que el cable trampa está en el suelo en la imagen; es decir, la detección se produce cuando la parte inferior de un objeto (por ejemplo, las piernas de una persona) cruza la línea. En una realización más general, el usuario puede establecer una altura por encima del suelo para cada línea.
Otros parámetros que pueden inicializarse incluyen un intervalo de tiempo de detección activa; una dirección de cruce de cada línea como criterio para la detección de un evento (por ejemplo, para determinar cuando entra una persona en un área, en oposición a cuando se desea determinar cuando entra o sale una persona del área); y sensibilidad de la detección.
Otra función de la inicialización 73 es para que el usuario seleccione diversas opciones de registro. Estas opciones determinan que datos se recogen y pueden incluir, aunque no se limitan a:
registrar solamente cuando cruzan personas (o, en general, objetos de interés);
registrar solamente cuando cruzan dos o más personas;
registrar todos los cruces;
registrar solamente cuando hay un elevado grado de confianza en la detección de un cruce;
registrar solamente estadísticas de detección;
tomar una “instantánea” o crear un video completo alrededor de un evento de detección. Por una “instantánea” se entiende que se crea una imagen fija, la cual puede ser simplemente un fotograma de un video particular (u otro dispositivo de detección), o que puede generarse independientemente. Después de la inicialización 73, el sistema opera para recoger y analizar datos 74. Si el usuario ha introducido un marco temporal, el sistema comienza a procesar cuando está dentro de este marco temporal. Cuando detecta un evento de cable trampa (de un tipo particular, si ha sido especificado por el usuario), éste se registra junto con información adjunta; los tipos de información adjunta se volverán evidentes a continuación en la descripción del informe de datos. En el contexto de algunas aplicaciones, un evento de cable trampa puede activar una alarma u otra respuesta 76 (por ejemplo, la toma de una instantánea). Una realización de un ejemplo técnico para realizar el análisis y detectar eventos de cable trampa se muestra en la figura 11. Los objetos de FG se determinan en primer lugar a partir del video usando la segmentación de objetos
740. La segmentación de objetos 740 puede comprender, por ejemplo, las etapas 7221, 7222 y 7223 mostradas en la figura 10 y descritas anteriormente. La ubicación de un objeto de FG se ensaya a continuación 741 para determinar si se solapa con una línea que representa un cable trampa 742. Como se ha descrito anteriormente, en un ejemplo de realización en la que siempre se supone que las líneas de cable trampa están en el suelo, se determina que un objeto cruza un cable trampa si la parte inferior del objeto se solapa con una línea de cable trampa. Si se determina que no se produce solapamiento, no hay evento de cable trampa 743. Si se produce un solapamiento, entonces, si se considera que solamente los cruces en una dirección especificada son eventos de cable trampa, se prueba la dirección de cruce 744, y aquellos cruces que no se producen en la dirección especificada no se consideran eventos de cable trampa 745. Si los cruces en cualquier dirección representan eventos de cable trampa, entonces el proceso se salta la prueba de la etapa 744. Si la etapa 744 se ha realizado y da un resultado positivo, o si la etapa 744 no se ha realizado, entonces también pueden realizarse exámenes adicionales 746. Dichos exámenes podrían incluir, por ejemplo, determinar una característica particular de un objeto de interés (por ejemplo, un coche, un camión, un coche azul, una camioneta azul, un coche más pequeño que cierto tamaño, etc.) o un objeto particular (por ejemplo, el rostro de una persona particular, un número de matrícula, etc.). Si dichos exámenes 746 dan resultados positivos, o si no se realizan exámenes, entonces el proceso determina que se ha producido un evento de cable trampa 747. Por supuesto, si dichos exámenes 746 se hicieran y dieran resultados negativos, entonces se determinaría que no se ha producido ningún evento de cable trampa.
Son posibles varios procedimientos para implementar la determinación de la dirección de un cruce 744. Como primer ejemplo, ésta puede implementarse a través del uso de procedimientos de flujo óptico para objetos detectados cruzando el cable trampa; el uso de procedimiento de flujo óptico también podría servir para obviar la necesidad de segmentación de objetos. Como segundo ejemplo, puede usarse información de la trayectoria del seguimiento del objeto (en la etapa 7222 de la figura 10). Como tercer ejemplo, ésta puede implementarse estableciendo cables trampa secundarios (falsos) a cada lado de cada cable trampa real introducido por el usuario y determinando en que orden son cruzados los cables trampa secundarios cuando se cruza el cable trampa real.
El calibrado 72 es de particular importancia en la ejecución de la etapa 74, particularmente si solamente un tipo de objeto particular es de interés. Por ejemplo, si las personas son los objetos de interés, el calibrado 72 permite que la etapa 74 discrimine entre, por ejemplo, personas y objetos que son o más pequeños (por ejemplo, gatos y ratones) o más grandes (por ejemplo, grupos de personas y coches) que las personas.
Cuando se han reunido los datos, estos pueden presentarse a un usuario 75. En un ejemplo de realización de la invención, un usuario puede pedir al sistema resultados usando una interfaz del usuario gráfica (GUI). En esta realización, pueden visualizarse información resumida y/o datos detallados sobre una o más detecciones individuales. La información resumida puede incluir uno o más de los siguientes: número de detecciones, número de personas (u otros objetos de interés) detectadas, número de detecciones de múltiples personas (múltiples objetos) (es decir, cuando múltiples personas (u otros objetos de interés) cruzan simultáneamente), número de personas (objetos) que cruzan en cada dirección, cualquiera o todos los anteriores en un marco temporal seleccionado por el usuario, y uno o más histogramas temporales de cualquiera o todos de los anteriores. Los detalles sobre una única detección pueden incluir uno o más de los siguientes: tiempo, dirección, número de personas (objetos) que cruzan, tamaño del objeto u objetos que cruzan, y una o más instantáneas o videos tomados alrededor del momento de la detección.
Las figuras 12 y 13 muestran capturas de pantalla de muestra de pantallas informativas ilustrativas, en un ejemplo de realización. La figura 12 muestra una información resumida 121 sobre los cruces de un cable trampa 124 que abarca un pasillo. En esta ilustración particular, la pantalla muestra el video en directo 123 del área que incluye el cable trampa 124. También se incluye una leyenda 125 que da el periodo durante el cual se ha realizado la vigilancia (es decir, un marco temporal) y durante el cual se han registrado eventos de cruce. La información resumida 121 incluye números de cruces y sus direcciones. En este caso, el usuario ha especificado además que deben mostrarse las horas y fechas de cruce específicas 122.
La figura 13 muestra información individual sobre eventos de cruce particulares; estos eventos de cruce se corresponden a las horas y fechas de cruce específicas 122 de la figura 12. En la pantalla de la figura 13, el usuario ha seleccionado mostrar una instantánea de cada evento de cruce, junto con su hora y fecha. En particular, las instantáneas 131 y 132 corresponden a eventos de cruce en el área mostrada en el video 123 de la figura 12. En una realización adicional, el usuario puede ser capaz de hacer clic en una instantánea o un botón asociado a una instantánea para ver un video correspondiente tomado alrededor del momento del evento de cruce.
Un ejemplo de una aplicación del cable trampa de video de la invención es la detección de “entrada sin autorización”. La “entrada sin autorización” describe un evento en el cual un cierto número de personas (a menudo una persona) se le permite entrar en un área (o similar) y una o más personas intentan seguirlas de cerca para entrar también. La figura 14 representa un diagrama de flujo de un procedimiento para implementar un sistema de detección de entrada sin autorización. En esta realización, se supone que una cámara de videovigilancia está instalada en una posición para ser capaz de grabar entradas a través de una entrada, por ejemplo, una puerta o un torniquete. Además, la cámara tiene que estar calibrada como se ha descrito anteriormente. El sistema comienza detectando que una persona está entrando, o está a punto de entrar, a través de la entrada 141. Esto puede conseguirse mediante una serie de medios; por ejemplo, puede deberse introducir dinero, introducir un código en un teclado numérico, o pasar una tarjeta por un lector de tarjetas, o el sistema puede usar un procedimiento de detección a base de video para detectar de forma visual la apertura de la entrada (esto tendría la ventaja de no requerir una interfaz con equipo externo (lector de tarjetas, teclado numérico, o similar), lo cual podría facilitar la instalación e implementación en algunos entornos). Cuando se detecta una entrada, comienza la vigilancia 142. Durante esta vigilancia, el sistema detecta los objetos que se mueven a través de la entrada y los analiza para determinar cuantas personas han entrado. Esto puede implicar la detección de rostros, como se ha mencionado anteriormente, si la cámara está situada para ser capaz de grabar rostros. El sistema determina a continuación si el número de personas que entraron es admisible 143. En la realización ilustrada, solamente se permite entrar a una persona cada vez; sin embargo, en realizaciones más generales, esto podría ser cualquier número seleccionado. Si una persona (el número admisible) entra, entonces no es necesaria ninguna respuesta 144. Por otro lado, si entrara más de una persona (más del número admisible), se desencadena una respuesta 145. Dicha respuesta puede incluir, por ejemplo, hacer sonar una alarma, tomar una instantánea, o grabar un video alrededor de la entrada. Una ventaja añadida de un sistema que usa cualquiera de las dos últimas respuestas es que puede proporcionar una prueba útil para localizar a una persona que use una tarjeta robada, en el caso de un sistema con un lector de tarjetas.
Las realizaciones ilustradas y descritas en esta memoria descriptiva pretenden solamente enseñar a los expertos en la materia la mejor manera conocida por los inventores de realizar y usar la invención. Nada en esta memoria descriptiva debe considerarse como limitante del alcance de la presente invención. Las realizaciones de la invención descritas anteriormente pueden modificarse o cambiarse, y pueden añadirse u omitirse elementos, sin alejarse de la invención, como apreciarán los expertos en la materia a la luz de las anteriores enseñanzas. Por lo tanto, debe entenderse que, dentro del alcance de las reivindicaciones y sus equivalentes, la invención puede ponerse en práctica de una manera diferente a la descrita específicamente.
Claims (41)
- R E I V I N D I C AC I O N E S
- 1.
- Un sistema de cable trampa de video que comprende
un dispositivo de detección para producir una salida de video; y un sistema informático para calibrar el dispositivo de detección y para reunir y procesar datos en base a la salida de video recibida del dispositivo de detección, para mostrar los datos procesados y que incluye software que comprende instrucciones para permitir a un usuario introducir al menos un cable trampa virtual en una interfaz del usuario, y una dirección de cruce del al menos un cable trampa virtual. -
- 2.
- El sistema de cable trampa de video de la reivindicación 1, que comprende además: medios para transmitir la salida de video desde el dispositivo de detección; un medio de comunicación a través del cual la salida de video es transmitida por los medios para su
transmisión; y medios para recibir la salida de video del medio de comunicación. -
- 3.
- El sistema de cable trampa de video de la reivindicación 2, en el que el medio de comunicación incluye un cable.
-
- 4.
- El sistema de cable trampa de video de la reivindicación 2, en el que el medio de comunicación incluye una red de comunicación.
-
- 5.
- El sistema de cable trampa de video de cualquier reivindicación anterior, en el que la interfaz del usuario comprende al menos uno de medios para comunicar una alarma visible o medios para comunicar una alarma audible.
-
- 6.
- El sistema de cable trampa de video de cualquier reivindicación anterior, en el que la interfaz del usuario comprende un dispositivo de pantalla visual.
-
- 7.
- El sistema de cable trampa de video de la reivindicación 6, en el que el dispositivo de pantalla visual es capaz de mostrar al menos uno de un video, una o más instantáneas, o información alfanumérica.
-
- 8.
- El sistema de cable trampa de video de cualquier reivindicación anterior, que comprende además:
al menos un dispositivo de memoria para almacenar al menos uno de un dato de video o un dato alfanumérico. -
- 9.
- El sistema de cable trampa de video de cualquier reivindicación anterior, en el que el dispositivo de detección comprende al menos un dispositivo de memoria para almacenar al menos uno de una videocámara, una cámara de infrarrojos, un dispositivo sonográfico o un dispositivo de captura de imágenes térmicas.
-
- 10.
- El sistema de cable trampa de video de cualquier reivindicación anterior, que comprende además:
al menos un dispositivo de detección adicional para producir salida de video, en el que el sistema informático recibe y procesa además la salida de video del sistema de detección adicional. -
- 11.
- Un procedimiento de implementación de un sistema de cable trampa de video que comprende:
calibrar un dispositivo de detección de video para determinar los parámetros del dispositivo de detección de video destinados a ser usados por el sistema; inicializar el sistema, incluyendo introducir al menos un cable trampa virtual y una dirección de cruce de almenos un cable trampa virtual en una interfaz del usuario; obtener datos del dispositivo de detección de video; analizar los datos obtenidos del dispositivo de detección de video para determinar si una dirección decualquier cruce del cable trampa virtual coincide con la dirección de cruce virtual introducida por un usuario; y desencadenar una respuesta al cruce de un cable trampa virtual. -
- 12.
- El procedimiento de la reivindicación 11, en el que el calibrado comprende: introducir parámetros de forma manual, por parte de un usuario;
generar retroalimentación visual para el usuario; y permitir que el usuario re-introduzca los parámetros si el aspecto de la retroalimentación visual no es aceptable para el usuario. -
- 13.
- El procedimiento de la reivindicación 11, en el que el calibrado comprende:
- (a)
- hacer que una persona se mueva a través de un campo de visión del dispositivo de detección de video
- (b)
- segmentar a la persona en movimiento
- (c)
- usar el tamaño de la persona en diferentes regiones del campo de visión para determinar parámetros;
- (d)
- proporcionar retroalimentación visual para un usuario, y
- (e)
- permitir el ajuste de los parámetros si el aspecto de la retroalimentación visual no es aceptable para el usuario.
-
- 14.
- El procedimiento de la reivindicación 13, en el que permitir el ajuste comprende: permitir que el usuario ajuste los parámetros de forma manual.
-
- 15.
- El procedimiento de la reivindicación 13, en el que permitir el ajuste comprende: reiniciar el calibrado repitiendo las etapas (a)-(e).
-
- 16.
- El procedimiento de la reivindicación 13, en el que permitir el ajuste comprende: permitir que el usuario seleccione al menos uno de ajustar los parámetros de forma manual o reiniciar el calibrado repitiendo las etapas (a)-(e).
-
- 17.
- El procedimiento de una cualquiera de las reivindicaciones 13 a 16, en el que la segmentación comprende: realizar una modelización del fondo a nivel de los píxeles realizar una detección y un seguimiento del primer plano y analizar los objetos del primer plano.
-
- 18.
- El procedimiento de una cualquiera de las reivindicaciones 11 ó 14 a 17, en el que el calibrado comprende: reunir información de video sobre un periodo de tiempo utilizando el dispositivo de detección de video; segmentar los objetos provinentes de la información de video; analizar los objetos segmentados para determinar el tamaño promedio de una persona en diversas
regiones de una imagen de video correspondiente a un campo de visión del dispositivo de detección de video; y utilizar los tamaños promedio de una persona en las diversas regiones para determinar los parámetros. -
- 19.
- El procedimiento de la reivindicación 18, en el que la segmentación comprende: realizar una modelización del fondo a nivel de píxeles realizar una detección y un seguimiento del primer plano y analizar los objetos del primer plano.
-
- 20.
- El procedimiento de la reivindicación 18 o la reivindicación 19, en el que analizar comprende: determinar regiones no salientes de la imagen de video; y formar histogramas de objetos del primer plano detectados en regiones salientes de la imagen de video.
-
- 21.
- El procedimiento de la reivindicación 20, en el que la determinación del tamaño promedio de una persona en una región particular de la imagen de video se realiza solamente si un número de objetos del primer plano detectados en esa región supera un número predeterminado.
-
- 22.
- El procedimiento de la reivindicación 20 o la reivindicación 20, en el que un pico más alto en un histograma se toma como correspondiente a una única persona.
-
- 23.
- El procedimiento de una cualquiera de las reivindicaciones 18 a 22, que comprende además: introducir, por parte del usuario, uno o más marcos temporales para ser usados para el calibrado.
-
- 24.
- El procedimiento de una cualquiera de las reivindicaciones 11 a 23, en el que inicializar el sistema incluye
además: seleccionar al menos una opción de registro. -
- 25.
- El procedimiento de la reivindicación 11, en el que analizar comprende: determinar si un objeto se solapa con cualquier cable trampa virtual.
-
- 26.
- El procedimiento de la reivindicación 25, en el que calibrar comprende: realizar segmentación del objeto; y detectar el objeto en base a la segmentación realizada del objeto.
-
- 27.
- El procedimiento de la reivindicación 26, en el que realizar la segmentación del objeto comprende: realizar una modelización del fondo a nivel de píxeles realizar una detección y un seguimiento del primer plano y analizar los objetos del primer plano.
-
- 28.
- El procedimiento de la reivindicación 25, en el que analizar comprende además:
realizar segmentación del objeto, en el que el objeto detectado se detecta en base a la segmentación realizada del objeto. -
- 29.
- El procedimiento de la reivindicación 28, en el que realizar la segmentación del objeto comprende: realizar una modelización del fondo a nivel de píxeles realizar una detección y un seguimiento del primer plano y analizar los objetos del primer plano.
-
- 30.
- El procedimiento de una cualquiera de las reivindicaciones 25 a 29, en el que analizar comprende además: si se determina que el objeto se solapa con cualquier cable trampa virtual, determinar si una dirección de
cruce del cable trampa virtual coincide con una dirección de cruce del cable trampa virtual introducida por un usuario. -
- 31.
- El procedimiento de la reivindicación 30, en el que analizar comprende además: si se determina que la dirección de cruce del cable trampa virtual coincide con la dirección de cruce del
cable trampa virtual introducida por el usuario, realizar al menos un examen adicional sobre la naturaleza del objeto. -
- 32.
- El procedimiento de una cualquiera de las reivindicaciones 25 a 29, en el que analizar comprende además:
si se determina que el objeto se solapa con cualquier cable trampa virtual, realizar al menos un examen adicional sobre la naturaleza del objeto. -
- 33.
- El procedimiento de una cualquiera de las reivindicaciones 11 a 32, en el que desencadenar una respuesta comprende al menos una de: activar una alarma de audio; activar una alarma visual;
tomar una instantánea; o grabar un video. -
- 34.
- Un procedimiento de detección de “entrada sin autorización” que incluye el procedimiento de una cualquiera de las reivindicaciones 11 a 33 y que comprende además: detectar que una persona está entrando en un área de interés;
imagen1 imagen2 comenzar la vigilancia del área de interés en respuesta a la detección; determinar si un número de personas que entran en el área de interés es mayor que un número permisible; ysi la etapa de determinación da un resultado positivo, desencadenar una respuesta.imagen3 -
- 35.
- Un medio legible por ordenador, que incluye instrucciones para realizar el procedimiento de una cualquiera de las reivindicaciones 11 a 33, cuando se ejecuta en un sistema informático.
-
- 36.
- Un sistema informático diseñado para ejecutar instrucciones para realizar el procedimiento de una cualquiera de las reivindicaciones 11 a 33.
-
- 37.
- Un sistema de cable trampa de video que comprende: un dispositivo de detección para proporcionar una salida de video; y un sistema informático para recibir los datos de salida de video y que comprende:
una interfaz del usuario; al menos un procesador; y un medio legible por ordenador que incluye instrucciones para realizar el procedimiento de una cualquierade las reivindicaciones 11 a 33 cuando son ejecutadas por dicho al menos un procesador. -
- 38.
- El sistema de cable trampa de video de la reivindicación 1 o la reivindicación 37, en el que el sistema informático comprende la aplicación de hardware específico adaptado para calibrar el dispositivo de detección y reunir datos del proceso.
-
- 39.
- Un medio legible por ordenador para implementar un sistema de cable trampa de video, comprendiendo el
medio legible por ordenador:instrucciones para calibrar un dispositivo de detección de video para determinar los parámetros deldispositivo de detección de video destinados a ser usados por el sistema;instrucciones para recibir de una interfaz del usuario al menos un cable trampa virtual para superponer en una imagen provinente de un dispositivo de detección y una dirección de cruce de al menos un cable trampa virtual; e instrucciones para desencadenar una respuesta a un cruce del cable trampa virtual en dicha dirección, cuando dichas instrucciones son ejecutadas por un sistema informático. -
- 40.
- El medio legible por ordenador de la reivindicación 39, que comprende además:
instrucciones para recibir de la interfaz del usuario un momento o intervalo de detección para el cruce del cable trampa virtual. -
- 41.
- El medio legible por ordenador de una cualquiera de las reivindicaciones 39 a 40, que comprende además:
instrucciones para recibir de la interfaz del usuario una sensibilidad de detección para el cruce del cable trampavirtual.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US09/972,039 US6696945B1 (en) | 2001-10-09 | 2001-10-09 | Video tripwire |
US972039 | 2001-10-09 |
Publications (1)
Publication Number | Publication Date |
---|---|
ES2364915T3 true ES2364915T3 (es) | 2011-09-16 |
Family
ID=25519079
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES02773727T Expired - Lifetime ES2364915T3 (es) | 2001-10-09 | 2002-10-09 | Cable trampa de video. |
Country Status (15)
Country | Link |
---|---|
US (1) | US6696945B1 (es) |
EP (1) | EP1435170B2 (es) |
JP (1) | JP2005506740A (es) |
KR (1) | KR100905504B1 (es) |
CN (1) | CN100337253C (es) |
AT (1) | ATE507543T1 (es) |
AU (1) | AU2002337829A1 (es) |
CA (1) | CA2460426A1 (es) |
DE (1) | DE60239882D1 (es) |
DK (1) | DK1435170T3 (es) |
ES (1) | ES2364915T3 (es) |
HK (1) | HK1071956A1 (es) |
IL (1) | IL160996A0 (es) |
MX (1) | MXPA04003441A (es) |
WO (1) | WO2003032622A2 (es) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10452922B2 (en) | 2015-06-15 | 2019-10-22 | Davantis Technologies Sl | IR or thermal image enhancement method based on background information for video analysis |
US10740623B2 (en) | 2015-09-25 | 2020-08-11 | Sony Corporation | Representative image generation device and representative image generation method |
Families Citing this family (90)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6940998B2 (en) * | 2000-02-04 | 2005-09-06 | Cernium, Inc. | System for automated screening of security cameras |
US7868912B2 (en) | 2000-10-24 | 2011-01-11 | Objectvideo, Inc. | Video surveillance system employing video primitives |
US9892606B2 (en) * | 2001-11-15 | 2018-02-13 | Avigilon Fortress Corporation | Video surveillance system employing video primitives |
US20050146605A1 (en) * | 2000-10-24 | 2005-07-07 | Lipton Alan J. | Video surveillance system employing video primitives |
US8711217B2 (en) | 2000-10-24 | 2014-04-29 | Objectvideo, Inc. | Video surveillance system employing video primitives |
US8564661B2 (en) * | 2000-10-24 | 2013-10-22 | Objectvideo, Inc. | Video analytic rule detection system and method |
US20050162515A1 (en) * | 2000-10-24 | 2005-07-28 | Objectvideo, Inc. | Video surveillance system |
US7424175B2 (en) | 2001-03-23 | 2008-09-09 | Objectvideo, Inc. | Video segmentation using statistical pixel modeling |
JP4612779B2 (ja) * | 2001-06-14 | 2011-01-12 | キヤノン株式会社 | 通信装置及び通信装置の映像表示制御方法 |
US6970083B2 (en) * | 2001-10-09 | 2005-11-29 | Objectvideo, Inc. | Video tripwire |
US7088846B2 (en) * | 2003-11-17 | 2006-08-08 | Vidient Systems, Inc. | Video surveillance system that detects predefined behaviors based on predetermined patterns of movement through zones |
US7127083B2 (en) * | 2003-11-17 | 2006-10-24 | Vidient Systems, Inc. | Video surveillance system with object detection and probability scoring based on object class |
US7136507B2 (en) * | 2003-11-17 | 2006-11-14 | Vidient Systems, Inc. | Video surveillance system with rule-based reasoning and multiple-hypothesis scoring |
US7148912B2 (en) * | 2003-11-17 | 2006-12-12 | Vidient Systems, Inc. | Video surveillance system in which trajectory hypothesis spawning allows for trajectory splitting and/or merging |
US7646401B2 (en) * | 2004-01-30 | 2010-01-12 | ObjectVideo, Inc | Video-based passback event detection |
US20050281417A1 (en) * | 2004-06-18 | 2005-12-22 | Gregory Toprover | Media device |
AU2006230361A1 (en) * | 2005-03-30 | 2006-10-05 | Cernium Corporation | Intelligent video behavior recognition with multiple masks and configurable logic inference module |
US20060232673A1 (en) * | 2005-04-19 | 2006-10-19 | Objectvideo, Inc. | Video-based human verification system and method |
US20070122000A1 (en) * | 2005-11-29 | 2007-05-31 | Objectvideo, Inc. | Detection of stationary objects in video |
US7822224B2 (en) | 2005-06-22 | 2010-10-26 | Cernium Corporation | Terrain map summary elements |
US7796780B2 (en) | 2005-06-24 | 2010-09-14 | Objectvideo, Inc. | Target detection and tracking from overhead video streams |
US7801330B2 (en) * | 2005-06-24 | 2010-09-21 | Objectvideo, Inc. | Target detection and tracking from video streams |
US8027512B2 (en) * | 2005-09-30 | 2011-09-27 | Robert Bosch Gmbh | Method and software program for searching image information |
US9240051B2 (en) * | 2005-11-23 | 2016-01-19 | Avigilon Fortress Corporation | Object density estimation in video |
JP4321541B2 (ja) * | 2006-04-03 | 2009-08-26 | ソニー株式会社 | 監視装置と監視方法 |
EP2013817A2 (en) * | 2006-04-17 | 2009-01-14 | Objectvideo, Inc. | Video segmentation using statistical pixel modeling |
TW200745996A (en) | 2006-05-24 | 2007-12-16 | Objectvideo Inc | Intelligent imagery-based sensor |
JP4201025B2 (ja) | 2006-06-30 | 2008-12-24 | ソニー株式会社 | 監視装置、監視システム及びフィルタ設定方法、並びに監視プログラム |
TW200822751A (en) * | 2006-07-14 | 2008-05-16 | Objectvideo Inc | Video analytics for retail business process monitoring |
US20080074496A1 (en) * | 2006-09-22 | 2008-03-27 | Object Video, Inc. | Video analytics for banking business process monitoring |
US20080129844A1 (en) * | 2006-10-27 | 2008-06-05 | Cusack Francis J | Apparatus for image capture with automatic and manual field of interest processing with a multi-resolution camera |
JP4318724B2 (ja) | 2007-02-14 | 2009-08-26 | パナソニック株式会社 | 監視カメラ及び監視カメラ制御方法 |
US20080232688A1 (en) * | 2007-03-20 | 2008-09-25 | Senior Andrew W | Event detection in visual surveillance systems |
DE102007033391A1 (de) | 2007-07-18 | 2009-01-22 | Robert Bosch Gmbh | Informationsvorrichtung, Verfahren zur Information und/oder Navigation von einer Person sowie Computerprogramm |
US8619140B2 (en) * | 2007-07-30 | 2013-12-31 | International Business Machines Corporation | Automatic adjustment of area monitoring based on camera motion |
TW200926011A (en) * | 2007-09-04 | 2009-06-16 | Objectvideo Inc | Background modeling with feature blocks |
US8624733B2 (en) * | 2007-11-05 | 2014-01-07 | Francis John Cusack, JR. | Device for electronic access control with integrated surveillance |
US8108055B2 (en) * | 2007-12-28 | 2012-01-31 | Larry Wong | Method, system and apparatus for controlling an electrical device |
US8686854B2 (en) | 2008-03-31 | 2014-04-01 | The Boeing Company | System and method for forming optimized perimeter surveillance |
US8370111B2 (en) * | 2008-03-31 | 2013-02-05 | The Boeing Company | System and method for forming optimized perimeter surveillance |
US20110033087A1 (en) * | 2008-04-09 | 2011-02-10 | Finn Alan M | Video content analysis |
US9019381B2 (en) | 2008-05-09 | 2015-04-28 | Intuvision Inc. | Video tracking systems and methods employing cognitive vision |
EP2164043A1 (en) | 2008-09-12 | 2010-03-17 | March Networks Corporation | Video camera calibration and perspective calculation |
US8165348B2 (en) * | 2008-11-17 | 2012-04-24 | International Business Machines Corporation | Detecting objects crossing a virtual boundary line |
US9520040B2 (en) * | 2008-11-21 | 2016-12-13 | Raytheon Company | System and method for real-time 3-D object tracking and alerting via networked sensors |
US8571261B2 (en) * | 2009-04-22 | 2013-10-29 | Checkvideo Llc | System and method for motion detection in a surveillance video |
KR101586700B1 (ko) * | 2009-07-03 | 2016-01-20 | 한화테크윈 주식회사 | 감지장치, 이벤트 감지방법 및 촬영시스템 |
CN101872524B (zh) * | 2009-08-14 | 2012-07-18 | 杭州海康威视数字技术股份有限公司 | 基于虚拟墙的视频监控方法、系统及装置 |
US9030555B2 (en) * | 2009-11-25 | 2015-05-12 | Lg Electronics Inc. | Surveillance system |
DE102009058765A1 (de) * | 2009-12-15 | 2011-06-16 | Hella Kgaa Hueck & Co. | System und Verfahren zum Kontrollieren von Bewegungen von Objekten |
TWI400670B (zh) * | 2009-12-16 | 2013-07-01 | Ind Tech Res Inst | 多層次侵入事件偵測系統與方法及其電腦程式產品 |
US8890936B2 (en) | 2010-10-12 | 2014-11-18 | Texas Instruments Incorporated | Utilizing depth information to create 3D tripwires in video |
US20130096831A1 (en) * | 2011-10-18 | 2013-04-18 | International Business Machines Corporation | Automatic, adaptive and optimized sensor selection and virtualization |
US11470285B2 (en) * | 2012-02-07 | 2022-10-11 | Johnson Controls Tyco IP Holdings LLP | Method and system for monitoring portal to detect entry and exit |
JP6057562B2 (ja) | 2012-06-28 | 2017-01-11 | キヤノン株式会社 | 情報処理装置およびその制御方法 |
US10645345B2 (en) * | 2012-07-03 | 2020-05-05 | Verint Americas Inc. | System and method of video capture and search optimization |
US9582671B2 (en) | 2014-03-06 | 2017-02-28 | Sensity Systems Inc. | Security and data privacy for lighting sensory networks |
US9374870B2 (en) | 2012-09-12 | 2016-06-21 | Sensity Systems Inc. | Networked lighting infrastructure for sensing applications |
US9197861B2 (en) | 2012-11-15 | 2015-11-24 | Avo Usa Holding 2 Corporation | Multi-dimensional virtual beam detection for video analytics |
EP2976856B1 (en) | 2013-03-26 | 2019-08-14 | Sensity Systems Inc. | Sensor nodes with multicast transmissions in lighting sensory network |
US9933297B2 (en) | 2013-03-26 | 2018-04-03 | Sensity Systems Inc. | System and method for planning and monitoring a light sensory network |
JP5438859B1 (ja) * | 2013-05-30 | 2014-03-12 | パナソニック株式会社 | 客層分析装置、客層分析システムおよび客層分析方法 |
TWI507661B (zh) | 2013-07-03 | 2015-11-11 | Faraday Tech Corp | 影像監控系統及其方法 |
US9746370B2 (en) | 2014-02-26 | 2017-08-29 | Sensity Systems Inc. | Method and apparatus for measuring illumination characteristics of a luminaire |
US10152864B2 (en) * | 2014-02-28 | 2018-12-11 | Tyco Fire & Security Gmbh | Distributed rules engines for robust sensor networks |
US10417570B2 (en) | 2014-03-06 | 2019-09-17 | Verizon Patent And Licensing Inc. | Systems and methods for probabilistic semantic sensing in a sensory network |
US10362112B2 (en) | 2014-03-06 | 2019-07-23 | Verizon Patent And Licensing Inc. | Application environment for lighting sensory networks |
CN105450918B (zh) * | 2014-06-30 | 2019-12-24 | 杭州华为企业通信技术有限公司 | 一种图像处理方法和摄像机 |
US10110856B2 (en) | 2014-12-05 | 2018-10-23 | Avigilon Fortress Corporation | Systems and methods for video analysis rules based on map data |
US9760792B2 (en) * | 2015-03-20 | 2017-09-12 | Netra, Inc. | Object detection and classification |
US9922271B2 (en) | 2015-03-20 | 2018-03-20 | Netra, Inc. | Object detection and classification |
JP6229816B2 (ja) | 2015-03-27 | 2017-11-15 | 日本電気株式会社 | モバイル監視装置、プログラム、及び制御方法 |
US10044988B2 (en) | 2015-05-19 | 2018-08-07 | Conduent Business Services, Llc | Multi-stage vehicle detection in side-by-side drive-thru configurations |
US9996749B2 (en) * | 2015-05-29 | 2018-06-12 | Accenture Global Solutions Limited | Detecting contextual trends in digital video content |
US9313556B1 (en) | 2015-09-14 | 2016-04-12 | Logitech Europe S.A. | User interface for video summaries |
US10299017B2 (en) | 2015-09-14 | 2019-05-21 | Logitech Europe S.A. | Video searching for filtered and tagged motion |
WO2017046704A1 (en) | 2015-09-14 | 2017-03-23 | Logitech Europe S.A. | User interface for video summaries |
US9805567B2 (en) | 2015-09-14 | 2017-10-31 | Logitech Europe S.A. | Temporal video streaming and summaries |
WO2017051499A1 (en) * | 2015-09-25 | 2017-03-30 | Sony Corporation | Representative image generation device, representative image generation method, and program |
US10139281B2 (en) | 2015-12-04 | 2018-11-27 | Amazon Technologies, Inc. | Motion detection for A/V recording and communication devices |
US10325625B2 (en) | 2015-12-04 | 2019-06-18 | Amazon Technologies, Inc. | Motion detection for A/V recording and communication devices |
EP3203447B1 (en) * | 2016-02-04 | 2019-05-01 | Holding Assessoria I Lideratge, S.L. (HAL SL) | Detection of fraudulent access at control gates |
JP2017182441A (ja) * | 2016-03-30 | 2017-10-05 | 富士通株式会社 | 業務実態処理装置、方法、及びプログラム |
US9779302B1 (en) | 2016-03-31 | 2017-10-03 | Intel Corporation | System for optimizing storage location arrangement |
US20200380252A1 (en) | 2019-05-29 | 2020-12-03 | Walmart Apollo, Llc | Systems and methods for detecting egress at an entrance of a retail facility |
US10904446B1 (en) | 2020-03-30 | 2021-01-26 | Logitech Europe S.A. | Advanced video conferencing systems and methods |
US10965908B1 (en) | 2020-03-30 | 2021-03-30 | Logitech Europe S.A. | Advanced video conferencing systems and methods |
US10972655B1 (en) | 2020-03-30 | 2021-04-06 | Logitech Europe S.A. | Advanced video conferencing systems and methods |
US10951858B1 (en) | 2020-03-30 | 2021-03-16 | Logitech Europe S.A. | Advanced video conferencing systems and methods |
KR102441599B1 (ko) * | 2020-05-29 | 2022-09-07 | 주식회사 아이티엑스에이아이 | 재실 인원 통제 장치 |
Family Cites Families (32)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US3812287A (en) * | 1969-05-12 | 1974-05-21 | J Lemelson | Video detection system |
CA1116286A (en) * | 1979-02-20 | 1982-01-12 | Control Data Canada, Ltd. | Perimeter surveillance system |
US4257063A (en) * | 1979-03-23 | 1981-03-17 | Ham Industries, Inc. | Video monitoring system and method |
US4737837A (en) † | 1985-11-27 | 1988-04-12 | Honeywell Inc. | Ring topology for an integrated circuit logic cell |
JPH0335399A (ja) * | 1989-06-30 | 1991-02-15 | Toshiba Corp | 変化領域統合装置 |
JPH03242592A (ja) † | 1990-02-21 | 1991-10-29 | Toshiba Corp | 画像監視装置 |
JPH05284501A (ja) * | 1992-04-06 | 1993-10-29 | Mitsubishi Electric Corp | 侵入監視画像装置 |
JP3218521B2 (ja) † | 1992-09-30 | 2001-10-15 | 清水建設株式会社 | 画像センサによる移動体検知システム |
US5696503A (en) * | 1993-07-23 | 1997-12-09 | Condition Monitoring Systems, Inc. | Wide area traffic surveillance using a multisensor tracking system |
US5801943A (en) * | 1993-07-23 | 1998-09-01 | Condition Monitoring Systems | Traffic surveillance and simulation apparatus |
US5491511A (en) * | 1994-02-04 | 1996-02-13 | Odle; James A. | Multimedia capture and audit system for a video surveillance network |
IL113434A0 (en) * | 1994-04-25 | 1995-07-31 | Katz Barry | Surveillance system and method for asynchronously recording digital data with respect to video data |
US5623249A (en) * | 1995-01-26 | 1997-04-22 | New Product Development, Inc. | Video monitor motion sensor |
US5926210A (en) * | 1995-07-28 | 1999-07-20 | Kalatel, Inc. | Mobile, ground-based platform security system which transmits images that were taken prior to the generation of an input signal |
US6016161A (en) * | 1996-01-25 | 2000-01-18 | Medar, Inc. | Method and system for automatically calibrating a color-based machine vision system |
JP3200663B2 (ja) * | 1996-03-29 | 2001-08-20 | 技研トラステム株式会社 | 移動体検出方法,移動体検出装置,及び移動体計数装置 |
US5956081A (en) * | 1996-10-23 | 1999-09-21 | Katz; Barry | Surveillance system having graphic video integration controller and full motion video switcher |
GB9702849D0 (en) * | 1997-02-12 | 1997-04-02 | Trafficmaster Plc | Traffic monitoring |
US6091771A (en) * | 1997-08-01 | 2000-07-18 | Wells Fargo Alarm Services, Inc. | Workstation for video security system |
US6097429A (en) * | 1997-08-01 | 2000-08-01 | Esco Electronics Corporation | Site control unit for video security system |
GB2329542B (en) * | 1997-09-17 | 2002-03-27 | Sony Uk Ltd | Security control system and method of operation |
DE69921237T2 (de) † | 1998-04-30 | 2006-02-02 | Texas Instruments Inc., Dallas | Automatische Videoüberwachungsanlage |
JPH11355759A (ja) * | 1998-06-03 | 1999-12-24 | Kokusai Electric Co Ltd | 遠隔監視システム |
US6359560B1 (en) * | 1998-11-12 | 2002-03-19 | Smith Micro Software | Computer system with motion-triggered alarm procedure |
US6226388B1 (en) * | 1999-01-05 | 2001-05-01 | Sharp Labs Of America, Inc. | Method and apparatus for object tracking for automatic controls in video devices |
JP2000268173A (ja) * | 1999-03-17 | 2000-09-29 | Hitachi Denshi Ltd | 物体認識画像処理方法 |
JP2000295600A (ja) * | 1999-04-08 | 2000-10-20 | Toshiba Corp | 監視装置 |
US6201473B1 (en) * | 1999-04-23 | 2001-03-13 | Sensormatic Electronics Corporation | Surveillance system for observing shopping carts |
US6297844B1 (en) * | 1999-11-24 | 2001-10-02 | Cognex Corporation | Video safety curtain |
JP2001175868A (ja) * | 1999-12-22 | 2001-06-29 | Nec Corp | 人物検出方法及び装置 |
JP2001189925A (ja) † | 1999-12-28 | 2001-07-10 | Glowing Shinko:Kk | 移動物体監視システム |
US20020082769A1 (en) * | 2000-11-21 | 2002-06-27 | Gary Church | Airport auditing and information system |
-
2001
- 2001-10-09 US US09/972,039 patent/US6696945B1/en not_active Expired - Lifetime
-
2002
- 2002-10-09 WO PCT/US2002/032091 patent/WO2003032622A2/en active Application Filing
- 2002-10-09 DK DK02773727.9T patent/DK1435170T3/da active
- 2002-10-09 KR KR1020047005183A patent/KR100905504B1/ko active IP Right Review Request
- 2002-10-09 ES ES02773727T patent/ES2364915T3/es not_active Expired - Lifetime
- 2002-10-09 DE DE60239882T patent/DE60239882D1/de not_active Expired - Lifetime
- 2002-10-09 CA CA002460426A patent/CA2460426A1/en not_active Abandoned
- 2002-10-09 JP JP2003535453A patent/JP2005506740A/ja active Pending
- 2002-10-09 IL IL16099602A patent/IL160996A0/xx unknown
- 2002-10-09 CN CNB028199855A patent/CN100337253C/zh not_active Expired - Lifetime
- 2002-10-09 AT AT02773727T patent/ATE507543T1/de not_active IP Right Cessation
- 2002-10-09 EP EP02773727.9A patent/EP1435170B2/en not_active Expired - Lifetime
- 2002-10-09 MX MXPA04003441A patent/MXPA04003441A/es active IP Right Grant
- 2002-10-09 AU AU2002337829A patent/AU2002337829A1/en not_active Abandoned
-
2005
- 2005-06-15 HK HK05105007A patent/HK1071956A1/xx not_active IP Right Cessation
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10452922B2 (en) | 2015-06-15 | 2019-10-22 | Davantis Technologies Sl | IR or thermal image enhancement method based on background information for video analysis |
US10740623B2 (en) | 2015-09-25 | 2020-08-11 | Sony Corporation | Representative image generation device and representative image generation method |
Also Published As
Publication number | Publication date |
---|---|
IL160996A0 (en) | 2004-08-31 |
CA2460426A1 (en) | 2003-04-17 |
AU2002337829A1 (en) | 2003-04-22 |
US6696945B1 (en) | 2004-02-24 |
JP2005506740A (ja) | 2005-03-03 |
EP1435170B1 (en) | 2011-04-27 |
DE60239882D1 (de) | 2011-06-09 |
DK1435170T3 (da) | 2011-08-15 |
CN1568487A (zh) | 2005-01-19 |
WO2003032622A2 (en) | 2003-04-17 |
EP1435170B2 (en) | 2020-12-09 |
MXPA04003441A (es) | 2005-02-17 |
ATE507543T1 (de) | 2011-05-15 |
KR20040050907A (ko) | 2004-06-17 |
EP1435170A4 (en) | 2006-05-03 |
HK1071956A1 (en) | 2005-08-05 |
EP1435170A2 (en) | 2004-07-07 |
US20040027242A1 (en) | 2004-02-12 |
CN100337253C (zh) | 2007-09-12 |
WO2003032622A3 (en) | 2003-12-24 |
KR100905504B1 (ko) | 2009-07-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ES2364915T3 (es) | Cable trampa de video. | |
KR101085578B1 (ko) | 비디오 트립와이어 | |
Elharrouss et al. | A review of video surveillance systems | |
Wickramasuriya et al. | Privacy protecting data collection in media spaces | |
Fleck et al. | Smart camera based monitoring system and its application to assisted living | |
US7646401B2 (en) | Video-based passback event detection | |
Porikli et al. | Video surveillance: past, present, and now the future [DSP Forum] | |
Alshammari et al. | Intelligent multi-camera video surveillance system for smart city applications | |
TW200806035A (en) | Video surveillance system employing video primitives | |
KR20070101401A (ko) | 비디오 프리미티브를 사용하는 비디오 감시 시스템 | |
WO2006031988A9 (en) | Privacy protection of data collection in pervasive environments | |
US20170300751A1 (en) | Smart history for computer-vision based security system | |
US10878245B2 (en) | Video content activity regions | |
Chan | A robust target tracking algorithm for FLIR imagery | |
Kim et al. | 3D fall detection for single camera surveillance systems on the street | |
Fleck et al. | Towards secure and privacy sensitive surveillance | |
Hesse | The transition from video motion detection to intelligent scene discrimination and target tracking in automated video surveillance systems | |
Sigaravelu et al. | Image based theft detection with live streaming | |
Ramli et al. | Human motion detection framework Suzaimah Bt Ramli | |
Akutsu et al. | Hierarchical Image Gathering Technique for Browsing Surveillance Camera Images | |
Soundarya et al. | Unusual event detection in ATM using machine learning | |
Das et al. | Intelligent surveillance system | |
Kadim et al. | Video analytics algorithm for detecting objects crossing lines in specific direction using blob-based analysis | |
Olufade et al. | A Model for Intelligent Motion Detection in Live Video Streaming Systems | |
Flores Guerra | Homography based multiple camera detection of camouflaged targets |