ES2397720T3 - Procedimiento para coordinar una pluralidad de sensores - Google Patents

Procedimiento para coordinar una pluralidad de sensores Download PDF

Info

Publication number
ES2397720T3
ES2397720T3 ES08750911T ES08750911T ES2397720T3 ES 2397720 T3 ES2397720 T3 ES 2397720T3 ES 08750911 T ES08750911 T ES 08750911T ES 08750911 T ES08750911 T ES 08750911T ES 2397720 T3 ES2397720 T3 ES 2397720T3
Authority
ES
Spain
Prior art keywords
computers
network
sensors
services
service
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES08750911T
Other languages
English (en)
Inventor
Giambattista Gennari
Giorgio Raccanelli
Ruggero Frezza
Angelo Genedese
Fabio D'alessi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Videotec SpA
Original Assignee
Videotec SpA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Videotec SpA filed Critical Videotec SpA
Application granted granted Critical
Publication of ES2397720T3 publication Critical patent/ES2397720T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19639Details of the system layout
    • G08B13/19645Multiple cameras, each having view on one of a plurality of scenes, e.g. multiple cameras for multi-room surveillance or for tracking an object by view hand-over
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19654Details concerning communication with a camera
    • G08B13/19656Network used to communicate with a camera, e.g. WAN, LAN, Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/12Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Abstract

Un procedimiento para la coordinación de una pluralidad de sensores usados para la vigilancia de un entorno, enel que una pluralidad de ordenadores conectados en red controlan dichos sensores a fin de ejecutar uno o másservicios solicitados a través de la red, caracterizado porque, para coordinarse entre sí, dichos ordenadoresrealizan las siguientes etapas: formación de equipos de ordenadores que participan en la ejecución de los diversosservicios solicitados a la red intercambio de información sobre la red, de modo que cada ordenador de dicha pluralidad conoce las característicasy los servicios proporcionados por los otros ordenadores de dicha pluralidad, estando el procedimientocaracterizado porque los ordenadores de un equipo que proporcionan el mismo servicio ejecutan el mismo algoritmo de configuración, quedevuelve las tareas a realizar por cada ordenador como una función de las características de los ordenadores queproporcionan dicho mismo servicio, de modo que todos los ordenadores que proporcionan el mismo serviciodetectan la misma configuración óptima del equipo y, por lo tanto, las tareas a realizar por cada uno de losordenadores del equipo, los ordenadores controlan los sensores en base a las tareas definidas por dicho algoritmo de configuración.

Description

Procedimiento para coordinar una pluralidad de sensores
La presente invención se refiere a un procedimiento para coordinar una pluralidad de sensores de acuerdo con el preámbulo de la reivindicación 1.
La invención también se refiere a un sistema de sensores, en particular un sistema de detección que comprende una pluralidad de sensores que se coordinan entre sí para ejecutar uno o más servicios solicitados al sistema de detección.
En particular, la invención es aplicable preferible y ventajosamente a un sistema de vigilancia de video, en el que una pluralidad de cámaras de video y sensores de diversos tipos (por ejemplo sensores de infrarrojos o de microondas) permiten detectar eventos, tal como la presencia de intrusos o un fuego, y señalizarlos a una o más estaciones de monitorización donde operadores humanos pueden tomar las medidas apropiadas dependiendo del evento detectado; por ejemplo, un operario puede tomar el control de una cámara de video para cubrir un cierto área donde se ha detectado un intruso o un fuego.
Mediante la estación de monitorización, el operador puede enviar de este modo comandos a las diferentes cámaras de video o, de forma más general, la petición de servicios al sistema de vigilancia de video, por ejemplo una vista secuencial de todas las imágenes tomadas por cámaras de video (esta función se denomina usualmente como Patrol) o funciones de seguimiento automático en donde las cámaras de video se coordinan por la estación de monitorización para el propósito de seguimiento de un cierto objetivo.
De acuerdo con las soluciones conocidas, la tarea del operador se hace más sencilla por la ejecución de guiones a nivel de la estación de monitorización, guiones que pueden por ejemplo posicionar las cámaras de video en ciertas posiciones prefijadas (anteriormente predefinidas cuando se instaló el sistema) en respuesta a una alarma detectada por un sensor.
En estos sistemas conocidos, los sensores se coordinan en un modo centralizado por una unidad central que envía instrucciones a los sensores.
Sin embargo, tales sistemas sufren del inconveniente de que no usan algoritmos de coordinación avanzados, y por lo tanto no pueden gestionar adecuadamente situaciones complejas que requieren que el sistema se comporte dinámicamente.
En estos sistemas, la coordinación de diversos dispositivos no tiene en cuenta todos los servicios solicitados, ya que simplemente se realizan servicio por servicio, por ejemplo, si la señal de una cámara de video se requiere para dos servicios diferentes, el terminal central intentará ejecutar ambos servicios como si no hubiese ningún conflicto, teniendo cuidado de dedicar la cámara de video solo al servicio prioritario, de este modo el servicio que tiene menos prioridad se ejecutará incompletamente.
Además, estos sistemas también sufren del inconveniente de que, si el sistema de detección se usa por múltiples operarios, pueden surgir conflictos entre las diferentes peticiones de los operadores.
También se encuentran similares problemas de conflicto para estos sistemas cuando hay múltiples eventos que tienen lugar o múltiples objetivos a seguir.
En general, se sabe que, como una alternativa al control centralizado, los dispositivos a coordinar se pueden equipar con agentes capaces de coordinarse de forma autónoma negociando las únicas tareas a realizar para conseguir un cierto resultado del equipo. Esta solución, que se adopta típicamente en campos muy específicos tales como el de la robótica (véase por ejemplo el documento US 6.636.781) no ha probado ser muy eficaz en los sistemas de detección (en particular, en sistemas de vigilancia) donde la reactividad y la estabilidad son lo más importante.
El tiempo necesario para la negociación de las tareas entre los diversos dispositivos puede ser de hecho muy largo cuando hay un gran número de dispositivos y las posibles configuraciones de los mismos, como consecuencia, un sistema de esta clase, en el que la coordinación está basada en la negociación entre dispositivos, resulta ser no muy reactivo y potencialmente inestable. Por ejemplo, consideremos el caso de un fuego: en respuesta a una alarma, los agentes que gestionan los diferentes dispositivos comenzarán la negociación de las tareas a realizar por cada uno de ellos.
Si el tiempo requerido para la coordinación es muy largo, habrá el riesgo de que las cámaras de video se coordinen y solo muestren el área sobre el fuego cuando el fuego ya se ha expandido ampliamente.
Además, a medida que el fuego se extiende, otros sensores señalarán una alarma de fuego en otras áreas adyacentes a la primera donde se inició el fuego; de este modo, habrá peticiones adicionales para representar dichas otras áreas. Si el procedimiento de toma de decisiones es más lento que el progreso del fuego, los agentes continuarán la negociación de las tareas a realizar (que cambiarán de acuerdo con los servicios solicitados) sin cumplir realmente las peticiones; por lo tanto, el sistema se volverá inestable.
Problemas similares o peores de reactividad pueden surgir si se necesitan largas negociaciones entre los agentes que tienen que ejecutar un servicio de seguimiento de un objetivo. Cuando el objetivo sale del campo visual de un sensor, los sensores vecinos se coordinarán para cubrir las áreas donde se puede localizar el objetivo. Por lo tanto, los sensores deberían cubrir dichas áreas rápidamente y apropiadamente, de modo que el servicio de seguimiento pueda continuar, si el objetivo sale del rango del sensor que lo está siguiendo antes de que los agentes lleguen a un acuerdo como de que tareas deben realizarse, el servicio de seguimiento ya no puede continuar.
Se sigue que los sistemas de detección necesitan fuertemente una coordinación efectiva de los sensores, lo que permite optimizar los recursos del sistema ejecutando del mejor modo los servicios solicitados, por ejemplo compensando reactivamente la imposibilidad de usar una cierta cámara de video para un servicio determinado con el uso de otras cámaras de video en las posiciones apropiadas.
El artículo científico "Coorperative management of netted surveillance sensors" de LOPEZ J M M y otros (SISTEMAS, HOMBRES, CIBERNÉTICA ANO, 1997, CIBERNÉTICA DE CÁLCULO Y SIMULACIÓN, 1997, CONFERENCIA INTERNACIONAL IEEE EN ORLANDO, FL, USA, 12 - 15 OCT. 1997, NUEVA YORK, NY, USA, IEEE, US, volumen 1, 12 Octubre 1997 0997 - 10 - 12)) desvela un procedimiento para la coordinación de una pluralidad de sensores.
El artículo "on the use of limited autonomous mobility for dynamic coverage maintenance in sensor networks" De Manoj. B.S. y otros (redes de ordenadores, Elsevier Sciencie, vol. 51, nº 8 páginas (2126 - 2143) desvela un procedimiento para la coordinación de una pluralidad de sensores de acuerdo con el preámbulo de la reivindicación
1.
El objeto de la presente invención es resolver los problemas de la técnica anterior y proporcionar un procedimiento alternativo para la coordinación de una pluralidad de sensores, así como un sistema de vigilancia relacionado.
Este objeto se consigue mediante un procedimiento y un sistema que incorpora las características mostradas en las reivindicaciones adjuntas, que se consideran como una parte integrante de la presente descripción.
La presente invención se basa en la idea general de usar una pluralidad de ordenadores conectados en red para controlar una pluralidad de sensores en respuesta a una o más peticiones de servicio recibidas sobre la red.
Los ordenadores intercambian información, de modo que cada ordenador conoce las características y los servicios proporcionados por los otros ordenadores; de este modo, todos los ordenadores conocen el estado actual del sistema, y en particular qué ordenadores pertenecen a qué equipo encargado de ejecutar un servicio determinado.
Para coordinarse entre sí, los ordenadores que participan en el mismo servicio ejecutan el mismo algoritmo de configuración que devuelve las tareas a realizar por cada uno de los ordenadores.
Como todos los ordenadores que pertenecen a un equipo ejecutan el mismo algoritmo de configuración, todos ellos detectarán la misma configuración óptima de sensores y controlarán los sensores en consecuencia.
De hecho, la coordinación de los sensores se obtiene de este modo por medio de una lógica distribuida, sin tener que recurrir a largas y complejas negociaciones entre los diversos ordenadores.
De acuerdo con una realización preferida y ventajosa, los ordenadores ejecutan el algoritmo de configuración periódicamente; de este modo, el sistema se puede reconfigurar por si mismo dinámicamente y tener en cuenta cualesquiera cambios en el conjunto de servicios solicitados o en el conjunto de sensores disponibles para el sistema en la ejecución de los diversos servicios. Esto prueba ser muy ventajoso porque, en el caso de un mal funcionamiento de un sensor o manipulación de un sensor, los otros sensores se coordinarán para cubrir la pérdida de ese sensor.
Además, los ordenadores pueden ejecutar ventajosamente el algoritmo de respuesta a una nueva petición, asegurando de este modo una buena reactividad del sistema a una petición de servicio.
Objetos adicionales y ventajas de la presente invención serán evidentes a partir de la siguiente descripción y de los dibujos adjuntos, que se suministran a modo de ejemplo, no de limitación, en donde:
-
la Fig. 1 muestra un sistema de vigilancia de video de acuerdo con la presente invención;
-
la Fig. 2 es un diagrama de flujo de un procedimiento para la coordinación de una pluralidad de sensores de acuerdo con la presente invención;
-
las Fig. 3a, 3b y 3c muestran un modelo de entorno usado por el sistema para la activación de las cámaras de video;
-
las Fig. 4a y 4b muestran un modelo de entorno usado por el sistema para la activación de las cámaras de video.
En la Fig. 1, el número de referencia 1 designa esquemáticamente un entorno a monitorizar. El entorno 1 consiste de un edificio 11 y un patio al aire libre 12.
Se identifican las áreas de particular interés dentro del entorno 1;
-
una entrada al edificio: área C1
-
un estacionamiento P1: área C2;
-
un estacionamiento P2: área C3;
-
un puerta de entrada: área C4;
El entorno 1 se monitoriza por medio de un sistema de vigilancia de video que comprende un par de estaciones de monitorización 3 y una pluralidad de sensores S1 - S5 a través de los cuales los operadores del sistema pueden monitorizar el entorno 1.
En la presente descripción, el término "sensor" se referirá a cualquier dispositivo que permite detectar una cantidad física (por ejemplo, la intensidad de señales electromagnéticas tales como la luz o las ondas de radio) y procesar una señal electrónica correspondiente.
En este sentido, los sensores pueden incluir detectores de humo (por ejemplo, los basados en el efecto Tyndall usan un fotodiodo para detectar una difusión de la señal luminosa en el lugar de detección en presencia de humo) así como cámaras de video, que transmiten una señal de video que es proporcional a la radiación electromagnética que entra en la lente del objetivo y que incide en un CCD (Dispositivo Acoplado de Carga).
En el ejemplo de la Fig. 1, las áreas C1 - C4 se monitorizan por cuatro cámaras de video S1-S4 y un sensor volumétrico S5 dispuesto dentro del entorno a monitorizar.
El número de áreas en el que se divide el entorno y el número de sensores (cámaras de video y otros sensores) no son factores limitantes de la invención, sino que dependen de las elecciones del instalador.
Las cámaras de video S1 - S4 pueden ser fijas o movibles, en particular del tipo PTZ (desplazamiento / elevación / aumento).
En el ejemplo de la Fig. 1, las cámaras de video S1 y S3 son cámaras de video fijas y solo cubren las áreas respectivas C1 y C3, mientras que las cámaras de video S2 y S4 son cámaras de video PTZ capaces de cubrir las áreas C1 - C2 y C3 - C4, respectivamente.
El sensor volumétrico S5 es un sensor fijo y envía una señal de alarma cuando detecta el movimiento dentro del edificio 11, por ejemplo porque la puerta de entrada C1 se está abriendo.
Los sensores se controlan por una pluralidad de ordenadores capaces de comunicar entre sí sobre una red de datos 2 para enviar o recibir información a/desde otros ordenadores o la estación de monitorización 3.
Para dicho fin, los ordenadores se proveen con un agente adecuado, en lo sucesivo este término se referirá a una entidad software o firmware capaz de actuar autónomamente en el lugar de un usuario y tomar decisiones acerca de las tareas a realizar.
El agente es por lo tanto software o firmware que se ejecuta en los ordenadores que controlan los sensores, y que de hecho determina qué datos se envían por un ordenador sobre la red o a los sensores controlados, por esta razón en la presente descripción se hará referencia sin distinción bien a agentes conectados en red o a ordenadores conectados en red.
Los ordenadores se pueden integrar dentro de los sensores, como en el caso de las cámaras de video S3 y S4, o de otro modo ser unidades de servidor 4 a los cuales se conectan los sensores.
Las unidades de servidor 4 se equipan con una interfaz de red 41, que permite al agente recibir y enviar datos sobre la red 2, y una interfaz de control 42 para la comunicación con uno o más sensores a controlar.
Cuando el ordenador y el agente asociado se disponen a bordo de un sensor, ese sensor también se proveerá con una interfaz de red que permite al agente comunicar sobre la red 2.
La red de datos 2 puede ser una LAN cableada (Red de Área Local), pero por supuesto dicha red de datos también puede comprender elementos inalámbricos que pueden facilitar la instalación de los sensores.
En la realización preferida, cada uno de los nodos de red (las estaciones de monitorización 3 o los ordenadores que controlan los sensores S1 - S5) pueden comunicar con cualesquiera otros nodos de red; la red 2 también puede estar subdividida en una pluralidad de redes virtuales (VPN, Red Privada Virtual), y la comunicación entre dos nodos que pertenecen a diferentes VPN podrá estar sujeta a limitaciones.
La estación de monitorización 3 comprende un ordenador 31 que recibe imágenes desde las cámaras de video y las representa sobre un medio de visualización adecuado 32 adaptado para representar una pluralidad de imágenes 33 simultáneamente.
Dicho medio de visualización preferiblemente comprende una pluralidad de pantallas o una pantalla única que representa diversas imágenes una junto a otra (esta solución se conoce como multiplexación).
La estación de monitorización 3 comprende también otros componentes conocidos por si mismos, tales como un teclado 34, un ratón 35 y un mando de control 36 usado por el operario para controlar las cámaras de video PTZ cambiando los ángulos de desplazamiento, y de elevación y la ampliación de las mismas.
Como los medios de visualización, estos componentes también se conectan al ordenador 31, que está equipado con interfaces adecuadas, por ejemplo una interfaz para el mando de control 36, las interfaces de video para el envío de las imágenes recibidas desde las cámaras de video S1 - S4 al medio de visualización 32, y una interfaz de red a través de al cual se envían los datos de control a las cámaras de video.
Esta interfaz de usuario, junto con el teclado, el mando de control y el ratón permiten al usuario seleccionar y controlar las cámaras de video, activando de este modo la transferencia de una imagen desde una o más cámaras de video al medio de visualización 32.
Cuando se selecciona cualquiera de las áreas C1 - C4, por ejemplo el estacionamiento P2, se transfiere una imagen desde una cámara de video, por ejemplo S2, que se asocia automáticamente con el área seleccionada de acuerdo con una proposición de criterio predeterminado, como se describe más adelante, maximizando la probabilidad de detección de un evento anómalo dentro de un área de interés.
Para ejecutar los servicios solicitados al sistema por el operario (por ejemplo, el control de la cámara de video S2 o la cobertura de la célula C3), la estación de monitorización envía una petición de servicio sobre la red, cuya petición se procesa a continuación por los agentes de ordenador de acuerdo con una estrategia como se describe más adelante, que conducirá a la determinación de qué ordenadores deben participar en el servicio y cómo deben tales ordenadores controlar los sensores respectivos para cumplir con las peticiones del operario.
Para proporcionar coordinación, por lo tanto el sistema de vigilancia de la Fig. 1 usa una arquitectura distribuida sin ningún nodo de coordinación central: todos los nodos de red (los ordenadores que controlan los sensores y las estaciones de monitorización) son nodos pares es decir nodos en relación de igualdad entre sí.
Para coordinarse entre sí (y consecuentemente también coordinar los sensores), todos los agentes conectados a la red 2 intercambian información, de modo que cada uno de los agentes conoce el estado del sistema de vigilancia de video.
En particular, desde cada uno de los agentes se hace disponible la información a los otros agentes acerca del estado del ordenador y las actividades realizadas actualmente por ese agente; por ejemplo:
los datos generales con respecto a la operación del ordenador: por ejemplo la presencia de actividades, la carga de la CPU, el número de accesos al ordenador, etc.;
los datos relativos a los servicios en los que está trabajando actualmente el agente: por ejemplo el tipo de servicio, el identificador de la estación de monitorización que solicitó ese servicio, el estado del servicio, el estado del sensor usado para la ejecución del servicio, etc.;
los eventos detectados.
En una realización preferida, las peticiones de servicio se envían indiscriminadamente a todos los nodos de la red 2, aunque también son posibles diferentes soluciones, que se describirán en detalle más adelante.
Las peticiones de servicio se pueden enviar bien por los agentes de control de los sensores o por las estaciones de monitorización 3, de este modo, los agentes de control de los sensores responderán a las peticiones del operario así como las peticiones de otros agentes.
Por ejemplo, si el agente que controla el sensor volumétrico S5 envía una petición para cubrir con las cámaras de video un área donde se ha detectado una intrusión, los agentes que controlan las cámaras de video S1 - S4 se coordinarán para cubrir dicha área permitiendo otras peticiones pendientes de servicio.
Periódicamente o cuando se recibe una petición, los agentes implementan una estrategia de coordinación descrita más adelante, de acuerdo con cuáles agentes que participan en el mismo servicio implementan el mismo algoritmo de configuración que produce la configuración óptima de los agentes involucrados en la ejecución del servicio, esta configuración es la que permite ejecutar los servicios solicitados del mejor modo, posiblemente optimizando la utilización de los recursos del sistema.
Como los agentes implementan el mismo algoritmo comenzando desde las mismas variables de entrada (relativas al estado del sistema) obtendrán las mismas conclusiones que con la configuración óptima de los sensores controlados; en particular, los agentes saben, por ejemplo, cómo se debe posicionar una cierta cámara de video y qué valor de aumento se debe fijar, qué cámara de video debe transmitir el video adquirido a una estación de monitorización determinada, qué cámara de video debe almacenar la señal de video adquirida, etc.
Estrategia
La estrategia de la coordinación preferida se implementa periódicamente por todos los agentes y se estructura en dos etapas:
la formación de equipos de agentes que participan en la ejecución de los diversos servicios solicitados a la red;
la definición y la aplicación de la estrategia del equipo para un servicio determinado.
Dicha estrategia se realiza refiriéndose a un algoritmo, llamado 'algoritmo de coordinación', la primera parte del cual (formación del equipo) es idéntica para todos los agentes conectados en red, mientras que la segunda parte (definición de la estrategia de equipo) es idéntica para todos los agentes que pertenecen a un equipo.
El algoritmo de coordinación (es decir el conjunto de operaciones a realizar para alcanzar la coordinación de los sensores) se describirá ahora con referencia a la Fig. 2.
Después de que ha comenzado el algoritmo (etapa 100), el agente que está ejecutando el algoritmo de coordinación en primer lugar verifica (etapa 101) si uno de sus dispositivos controlados puede estar involucrado en la ejecución de uno o más servicios solicitados al sistema.
Con referencia al ejemplo mostrado en la Fig. 1, si solo hay una petición que requiere monitorizar la entrada al edificio 11 (célula C1), el agente que controla la cámara de video S4 determinará que no puede participar en el servicio solicitado ya que la cámara de video S4 no puede cubrir esa área desde ninguna posición.
Si el agente no participa en ningún servicio, a continuación enviará sobre la red la información que indica su estado y que no participará en ningún servicio (etapa 105).
Por el contrario, si el agente puede estar involucrado en la ejecución de uno o más servicios, determinará (etapa 102) si tiene suficientes recursos para la ejecución de todos los servicios en los que puede estar involucrado; si es que si, informará a los otros agentes conectados en red enviando la información actualizada sobre su estado, indicando que participará en cualquier servicio (etapa 105).
Si los recursos disponibles del agente no son suficientes, clasificará los servicios solicitados (etapa 103) en los que puede estar involucrado de acuerdo con un plan de prioridades adecuado.
Tal plan prioritario puede referirse, por ejemplo, a los niveles de prioridad asignados a los operarios, a las estaciones de monitorización 3, a los diferentes servicios, etc.
De este modo, para los operarios ya servidos que tienen la misma prioridad y que solicitan diferentes servicios, se hará referencia a la prioridad asignada a los diversos tipos de servicios. Por ejemplo, los servicios que requieren la cobertura de áreas tienen más baja prioridad que otros servicios que requieren el control de un cierto sensor. De hecho, el primero se puede proporcionar de forma más libre por los diferentes subconjuntos de agentes, mientras que el último no permite la libertad de elección (la petición concierte a un sensor específico).
Después de que se ha completado la clasificación, el agente selecciona (104) los servicios en los cuales participará comenzando desde el que tiene la mayor prioridad, hasta que se agotan los recursos disponibles.
El conjunto de servicios elegidos de este modo por el agente se hacen disponibles a continuación a todos los agentes conectados en red (105).
El algoritmo de coordinación espera a continuación un periodo de tiempo prefijado T (etapa 106) hasta que recibe la información actualizada acerca del estado de los otros agentes sobre la red.
Al final de esta primera etapa del algoritmo de coordinación, cada uno de los agentes sabe qué agentes se han asignado a los mismos servicios, es decir los componentes del equipo.
En este punto, debería remarcarse que en esta realización el procedimiento de formación del equipo (etapas (100 106) no requiere ninguna colaboración entre los agentes, ya que cada uno de los agentes elige los servicios de acuerdo con un plan prioritario, independientemente de los otros agentes.
Como una cuestión práctica, la segunda etapa de esta estrategia solo se realiza por los agentes que participan en un servicio de alguna clase.
En la etapa 107 se verifica si el agente debe participar o no en algún servicio.
Si es que no, el agente terminará el algoritmo de cooperación (etapa 110); de lo contrario, cada uno de los agentes que participan en al menos un servicio ejecutarán un algoritmo de configuración específico (etapa 108) para cada uno de los servicios en los que debe participar.
Por ejemplo, todos los agentes que deben participar en un servicio de cobertura solicitado para un área de un entorno particular ejecutarán el mismo algoritmo para una cobertura óptima que, usando como entradas las
características de los agentes que pertenecen al equipo, devolverán la configuración óptima del equipo que especifica las tareas que cada uno de los agentes tendrá que realizar para proporcionar la mejor cobertura de un área determinada.
De este modo, los agentes del equipo llegarán a las mismas conclusiones y controlarán los sensores respectivos en un modo coordinado, de acuerdo con una lógica (definida por el algoritmo de configuración) que es común para todos los agentes.
Algunos ejemplos de algoritmos de configuración se proporcionarán al final de la presente descripción.
Una vez que se han ejecutado los diversos algoritmos de configuración (por ejemplo, la cobertura óptima o los algoritmos de elección del líder), la salida del cual es el conjunto de tareas a realizar por cada uno de los agentes, los agentes controlarán los sensores respectivos en consecuencia (etapa 109); el algoritmo de coordinación terminará a continuación (etapa 110).
Aunque en la realización descrita anteriormente el algoritmo de coordinación se ejecuta periódicamente (por ejemplo, cada vez que vence un temporizador), de acuerdo con otra posible realización, el algoritmo también se ejecuta (o como alternativa solo se ejecuta) en respuesta a un cambio en el conjunto de servicios solicitados al sistema. Dicho cambio se conoce por todos los agentes que siempre son conscientes de todos los servicios solicitados al sistema.
Procedimientos de comunicación de red
En la realización preferida se usan diferentes protocolos de comunicación para la comunicación entre los nodos de red dependiendo del tipo de información a enviar, en particular:
-
para la información a compartir entre todos los nodos de la red (por ejemplo la información de estado de un agente y las peticiones de servicio), se usa una comunicación de difusión pulsada;
-
para la información dirigida a una estación de monitorización específica (por ejemplo la reproducción directa de audio/video y el control de los datos de la reproducción directa), se usa una comunicación punto a punto o de un punto a multipunto;
Comunicación pulsada
Con este tipo de comunicación pulsada, los paquetes de datos se envían simultáneamente y repetidamente a múltiples nodos; tales paquetes de datos se llaman "latido" (porque la repetición / pulsación de los datos se asemeja a un latido).
La pulsación del latido generalmente tiene lugar sobre la red a una frecuencia predeterminada en el rango de unos pocos hercios, sin que se requiera ningún sincronismo entre los latidos de los diferentes agentes.
La frecuencia se determina durante la etapa de planificación del sistema de vigilancia, y se fija durante la etapa de establecimiento del sistema de vigilancia.
El valor de la frecuencia afecta a cuán rápidamente los agentes conectados en red recibirán la información de estatus de cada uno de los otros agentes: por ejemplo con una frecuencia de 0,1 Hz, un cambio de estado que ocurre inmediatamente después de la generación de un latido, es decir no enviado por medio de ese latido, solo se comunicará sobre la red cuando se genere el siguiente latido, esto es, con un retardo de casi diez segundos.
Desde un punto de vista puramente teórico, si el latido se pulsa a muy alta frecuencia, en teoría a una frecuencia infinita, la información del estado de la red estaría actualizada en tiempo real; sin embargo, desde un punto de vista práctico, en un sistema de vigilancia real, una alta frecuencia de transmisión causaría un incremento excesivo en el número de paquetes transmitidos, con dos consecuencias negativas:
una carga de trabajo aumentada de cada uno de los nodos de red, que por una parte debe generar un mayor número de latidos y por otra parte se deben recibir y analizar muchos más paquetes (un nodo recibe los latidos de diversos otros nodos, que a su vez generan muchos más latidos durante la misma unidad de tiempo).
tráfico de red aumentado
Las pruebas experimentales han mostrado que, para aplicaciones de vigilancia de video en donde el estado de red también incluye la posición de los dispositivos de panorámica que se mueven a una velocidad de varios grados por segundo, una buena frecuencia de pulsación está entre 1 Hz y 5 Hz, más preferiblemente entre 1 Hz y 2 Hz.
Con la comunicación pulsada de acuerdo con la invención, un agente puede generar paquetes asíncrono de latido, es decir que se añaden a los que normalmente se pulsarían repetidamente por el agente.
Los paquetes asíncronos son particularmente importantes, ya que aseguran que los datos críticos, tales como los datos acerca de la detección de eventos anómalos, se difunden sobre la red en un modo oportuno.
Tal procedimiento para la generación asíncrona de paquetes de latido preferiblemente solo se activa cuando es necesario (por ejemplo, cuando se detecta un evento), de modo que el sistema no está afectado por problemas como los causados por una frecuencia de generación de latidos excesiva.
La comunicación pulsada, que se basa en la retransmisión de datos, es robusta para los errores de transmisión.
Preferiblemente la comunicación pulsada también incluye una transmisión de difusión del latido a todos los nodos de la red.
Esta comunicación de difusión permite a la red de nodos pares alcanzar una redundancia de la información sobre múltiples nodos: la selección de la información útil a analizar o registrar está bajo la responsabilidad de cada nodo único. Este procedimiento asegura la redundancia de datos optimizada. En el caso de una comunicación de difusión, es incluso posible dejar el conocimiento de la estructura de red y de la dirección de red de los otros nodos así como el procesamiento de la selección compleja de nodos de redundancia y estrategias de comunicación completamente fuera de consideración.
Información enviada a través de una comunicación pulsada
La siguiente información se envía mediante la comunicación pulsada:
1.
información acerca del estado de la red: comprende la información de estado de cada uno de los agentes y los eventos detectados; este tipo de información se debe actualizar siempre, es decir debe concernir al estado actual del nodo; por lo tanto, la pulsación de estado continúa a lo largo de la vida del sistema;
2.
petición de servicios a la red: la pulsación de este tipo de información comienza cuando se debe proveer el servicio y termina cuando se debe terminar el servicio;
3.
muestras de audio / video enviadas por un agente a los otros nodos de red.
Esta información se codifica dentro del latido;
En lo que concierne a la información del estado de la red, la comunicación basada en la pulsación permite distribuir la información de actualización mientras que se impide que un nodo tenga que enviar peticiones específicas para actualizar su propio conocimiento de la red.
En lo que concierne a las peticiones de servicio, por otra parte, la comunicación pulsada permite implementar un protocolo de comunicación que no incluye ningún mensaje de parada: un servicio se arranca desde el primer paquete de petición, y se termina a continuación tan pronto como cesa la pulsación de petición respectiva. Un protocolo en el cual la terminación de un servicio se basa en la transmisión de un mensaje de parada no sería muy robusto a los errores de comunicación, requiriendo de este modo la implementación de bloques de control de la comunicación para asegurar la retransmisión en el caso de pérdidas de paquetes: tales bloques de control son a menudo muy complejos y requieren que las direcciones del mensaje de parada sean conocidas.
Además, la pulsación de la petición de servicio proporciona la ventaja de que la petición se hace persistente: un agente que no puede responder inmediatamente a una petición será capaz de hacerlo después de unirse a los agentes que ya están funcionando en el servicio solicitado.
Entre las peticiones de servicio, son particularmente dignas de mencionar las peticiones de control de un sensor (por ejemplo, una petición de control de una cámara de video) y las consultas (peticiones de datos desde una base de datos, por ejemplo una información de registro en el sistema del operador).
El procedimiento de comunicación pulsada también se usa para transmitir muestras de una señal de audio / video que son adecuadas para reconstruir parcialmente la señal original (pero no para reproducción): tales muestras se obtienen por lo tanto mediante un muestreo de baja frecuencia de la señal de audio / video.
Este último tipo de información se ha añadido para permitir que otros agentes la registren, de modo que la señal de video se pueda recuperar incluso cuando el agente que la origina se dañe o se retire de forma irreversible.
La baja frecuencia del muestreo y la transmisión de datos sobre la red están de acuerdo con la necesidad de minimización de la banda usada por cada uno de los agentes así como la recepción de muestras y la carga de trabajo de almacenamiento.
Protocolo para las peticiones de servicio
Como se ha mencionado anteriormente, las peticiones de servicio se envían a través de una comunicación pulsada.
En este caso, el protocolo de comunicaciones incluye las siguientes etapas.
Un nodo de red (cliente) pulsa la petición (tarea) de servicio sobre la red a todos los otros nodos de la red en el modo de difusión.
Dicha petición solo contiene información que describe cual es la tarea a obtener, sin que sea necesario conocer qué agente contestará a la petición: la información a suministrar por el cliente solo especifica la tarea a obtener.
Como se ha descrito anteriormente con referencia a la Fig. 2, los agentes que cumplen las necesidades del cliente y que pueden ejecutar el servicio aceptarán la petición y comunicarán su aceptación de la petición de servicio a través del latido.
Esto es cómo se implementa el comando 'arrancar' para el servicio en cuestión.
Como el protocolo no proporciona un comando explícito de parada, el cliente mantendrá pulsando la misma petición de servicio siempre que esté interesado en la misma.
Cuando el cliente quiere parar el servicio, parará la pulsación de la petición relevante. Los agentes que analizan los paquetes pulsados registrarán el tiempo de llegada (Sello de Tiempo) de cada uno de los paquetes aceptados y eliminará todos los paquetes que tienen un sello de tiempo que no es suficientemente reciente, de acuerdo con la siguiente fórmula:
Si (t - Sello de Tiempo) > Tiempo de Espera, entonces se eliminará la tarea
donde t es el tiempo actual y el Tiempo de Espera es un valor de tiempo predeterminado. En consecuencia, un agente mantendrá su participación en un servicio durante un tiempo al menos igual al Tiempo de Espera desde la última petición pulsada.
Este procedimiento impide cualesquiera problemas de comunicación que pueden causar la pérdida de algunos paquetes de petición desde la conducción a la interrupción del servicio. Preferiblemente, el Tiempo de Espera es inversamente proporcional a la frecuencia de pulsación de acuerdo con la siguiente fórmula:
Tiempo de Espera = K/f
donde f es la frecuencia de pulsación.
Esto implica que, cuando la comunicación tiene lugar normalmente durante un intervalo de tiempo igual al Tiempo de Espera, deberían llegar un número de paquetes K al servidor; por lo tanto el servicio se parará si ninguno de dichos K paquetes alcanza el destino.
Cuando mayor sea el valor de K, menos probable es que la recepción no satisfactoria de todos los paquetes sea debida a errores de comunicación: por lo tanto el agente puede inferir que es una parada intencional comandada por el cliente.
Obsérvese que el Tiempo de Espera es directamente proporcional a K: se sigue que un mayor valor de K causará un tiempo mínimo aumentado durante el cual un agente queda a disposición del cliente después de la última pulsación, impidiendo de este modo la realización de otras tareas. Por lo tanto, la elección de K y de este modo del Tiempo de Espera, involucra una negociación entre la robustez frente a los errores de comunicación y el tiempo de liberación de recursos.
Pruebas experimentales han mostrado que K = 3 es un buen valor que está particularmente adaptado a los sistemas de vigilancia.
Protocolo para las peticiones de control
En este caso, el protocolo de comunicación incluye las siguientes etapas.
Una estación de monitorización pulsa una petición para la obtención del control directo de un dispositivo particular sobre la red.
Dicha petición solo contiene información que describe el sensor a controlar, sin que sea necesario saber qué agente contestará a la petición: la estación de monitorización solo debe proporcionar la identidad del sensor, tal como un etiqueta (por ejemplo "CAMARA DE VIDEO 5") introducida en la configuración del sistema.
La petición se recibe por todos los otros agentes conectados en red, los cuales ejecutan el algoritmo de coordinación descrito anteriormente.
Siguiendo dicho algoritmo, solo el agente que controla el sensor determina poder participar en el servicio (etapa 101 de la Fig. 2) y comunica su aceptación de la petición del servicio a través del latido (etapa 105).
Como el servicio solicitado es el control de un sensor determinado, el equipo que participa en el servicio consiste de un único agente cuya única función es habilitar (etapas 108 y 109 de la Fig. 2) el módulo de comunicaciones dedicadas normalmente deshabilitado para establecer un canal para la comunicación con la estación de monitorización.
Analizando los latidos recibidos desde cada agente, la estación de monitorización puede determinar qué agente se ha habilitado y puede extraer la información que es útil para el establecimiento de una conexión de punto a punto con tal agente. En este punto, el protocolo requiere que la estación de monitorización establezca una conexión punto a punto con el agente seleccionado que recibirá la señal de control sobre un canal de comunicación establecido de nuevo.
Mientras que el operario está controlando el sensor, el agente mantendrá la recepción de los latidos desde la red; cuando el cliente para la pulsación de peticiones de control, el agente cerrará la conexión con el cliente.
Protocolo de consulta respuesta
En este caso, el protocolo de comunicaciones incluye las siguientes etapas. El cliente (es decir el nodo solicitante) pulsa la petición de consulta sobre la red.
Dicha petición solo contiene indicaciones acerca de la información de estado que el cliente desea obtener, sin que sea necesario conocer qué agente contestará a la petición.
Los agentes evaluarán si pueden responder o no a una petición de consulta respuesta, y comunican sus decisiones a los otros agentes sobre la red.
Gracias al algoritmo de elección de líder, se determina un agente líder que habilita un módulo de comunicaciones dedicadas normalmente deshabilitado.
Analizando los latidos recibidos, el cliente puede determinar qué agente ha habilitado el módulo de comunicaciones dedicadas y puede extraer la información que sea útil para el establecimiento de una conexión punto a punto con tal agente. En este punto, el protocolo requiere que el cliente establezca una conexión punto a punto con el agente seleccionado. Las preguntas específicas y las respuestas asociadas se encaminarán sobre el canal de comunicaciones establecido de nuevo.
Cuando el cliente para la pulsación de peticiones de preguntas, el agente cerrará la conexión con el cliente.
Comunicación de un punto a multipunto
Este tipo de comunicación se usa para la transmisión de información desde un agente a uno o más agentes predeterminados o solo estaciones de monitorización; en esta sección, las direcciones de tal información se denominarán como clientes.
Este tipo de información se usa para enviar señales como un flujo de bits que codifica el flujo de audio / video para que sea adecuado para la reproducción de la señal original.
En este caso, cada uno de los agentes conectados en red actúa como un servidor de audio / video, de modo que uno o más clientes pueden conectar con el agente y pedir la transmisión de dicho flujo de bits.
En este caso, el protocolo de comunicaciones incluye las siguientes etapas.
Si el cliente pulsa una petición para la obtención de la señal de audio / video sobre la red; dicha petición solo contiene información que describe qué señal se va a obtener, sin que sea necesario saber qué agente contestará a la petición.
Como cada agente se conecta a áreas de monitorización de sensores de audio y/o video, la información a suministrar por el cliente es el identificador del sensor a contactar o el área a monitorizar.
La petición se recibe por todos los agentes, que a continuación decidirán (dependiendo de las características de los sensores respectivos y de los planes de prioridad adecuados) si participar en el servicio solicitado o no (etapas 101 104 de la Fig. 2).
Loa agentes que cumplen con las necesidades del cliente contestarán a la petición del servicio y comunicarán su aceptación de la misma por un latido (etapa 105 de la Fig. 2).
Si la petición concierne a un sensor particular, a continuación solo podrá contestar un agente; en cambio, si la petición es con respecto a la adquisición de la imagen de un área determinada, a continuación varios sensores podrán responder y se tendrá que ejecutar un algoritmo para la cobertura óptima (etapa 108) para determinar qué sensor se debe usar para servir al operario del mejor modo.
El agente que controla el sensor seleccionado de este modo a continuación habilitará el módulo de comunicaciones normalmente deshabilitado dedicado al flujo de bits de audio / video.
Analizando los latidos recibidos, el cliente puede determinar qué agentes han habilitado el módulo de transmisión del flujo de bits dedicado y puede extraer la información que sea útil para el establecimiento de una conexión punto a punto con tales servidores. En este punto, el protocolo requiere que el cliente establezca una conexión punto a punto
con los servidores seleccionados, que enviarán el flujo de bits de audio / video sobre el canal de comunicaciones establecido de nuevo.
Cuando el cliente para la pulsación de peticiones de reproducción directa, el servidor parará el flujo de bits y cerrará la conexión con el cliente.
Variantes
De acuerdo con la solución preferida, la comunicación pulsada se usa para difundir información a los nodos de red.
Esta solución sin embargo implica poner una carga considerable sobre la red, tanto en términos de la carga de trabajo a manejar por cada uno de los nodos (por ejemplo la recepción y el análisis de los latidos de entrada) como en términos del tráfico de red.
Este problema se siente especialmente cuando el número de nodos (agentes y estaciones de monitorización) y de servicios solicitados es muy grande.
En una realización alternativa, los agentes se agrupan sobre la base de sus características de vecindad o afinidad para ejecutar servicios específicos.
En esta realización, los agentes de un equipo solo envían su información de estado a los otros agentes que pertenecen al mismo equipo, usando de este modo una comunicación pulsada multi destino o, hablando más en general, una comunicación de un punto a multipunto.
En este caso, el latido también contiene información acerca de las direcciones de los agentes objetivos.
De acuerdo con esta realización, un agente puede pertenecer a varios equipos adyacentes, permitiendo de este modo que la información acerca de un evento detectado se propague desde un equipo a otro: el agente de un equipo que ha detectado un evento comunicará la misma información a todos los equipos a los que pertenece, permitiendo de este modo que los agentes del equipo adyacente estén preparados, por ejemplo, para monitorizar un área adyacente al área donde se ha detectado el evento.
Está claro que también son concebibles otras variantes del sistema de vigilancia descrito anteriormente y el procedimiento de cooperación entre los agentes.
Por ejemplo, el procedimiento de formación de equipos (primera etapa de la estrategia descrita anteriormente con referencia al ejemplo de la realización preferida) también puede ser cooperativo, en lugar de realizarse independientemente por cada agente, de modo que cada ordenador sabe qué otros ordenadores están también realizando un cierto servicio.
En esta realización, cada ordenador (gracias al agente respectivo) evalúa el conjunto de peticiones de servicio recibidas sobre la red y selecciona los servicios en los que puede participar. Posteriormente, cada uno de los ordenadores informa a los otros ordenadores acerca de los servicios en los que participará, y recibe sobre la red la lista de servicios que se pueden ejecutar por cada uno de los ordenadores.
En este punto, cada ordenador tiene una lista completa de los servicios que son ejecutables por cada uno de los ordenadores conectados en red, y ejecuta un algoritmo de asignación de servicios que devuelve los servicios en los que debe participar cada uno de los agentes.
Como cada agente ejecuta el mismo algoritmo, todos los agentes de los diversos ordenadores obtendrán las mismas conclusiones respecto a los servicios a ejecutar por cada uno de ellos; la segunda etapa de la estrategia se realizará a continuación, ejecutando el algoritmo de configuración como se ha descrito anteriormente con referencia a la Fig.
2.
De acuerdo con la invención, el problema de selección del servicio cooperativo se enfrenta preferiblemente como una clase de problema de cobertura óptima (véase el algoritmo descrito más adelante), siendo el objetivo del cual, en lugar de la determinación de las posiciones óptimas de los sensores para cubrir un área determinada del entorno, determinar qué servicios se seleccionaran por cada uno de los agentes para proporcionar la mejor cobertura del conjunto de servicios.
De este modo el algoritmo de asignación de servicios será una clase de algoritmo para la cobertura óptima, las entradas del cual serán el conjunto de servicios solicitados (en lugar del área a monitorizar) y el conjunto de sensores.
Para completar la analogía con el algoritmo de cobertura óptima, la probabilidad de detección de un evento a través de un sensor en un área determinada corresponde a la probabilidad (igual a 1 o a 0) de que un sensor realizará una tarea determinada.
De este modo en base a esta información, el algoritmo optimizará la probabilidad de realización del conjunto de
tareas usando los sensores disponibles.
Ejemplos de algoritmos de configuración
Elección de líder
En el algoritmo de 'elección de líder', el agente elige un representante (líder) para contestar a las preguntas del operario, es decir las peticiones para acceder a la información contenida en un banco de datos de la red.
La elección del agente líder se basa en el criterio de mínima carga para la CPU, y conduce a una selección unívoca.
El algoritmo de 'selección de líder' usa como entradas la información de carga de la CPU de los agentes que participan en la elección de líder (que como mucho pueden ser todos los agentes conectados en red); esta información se hace disponible sobre la red a través de los latidos enviados sobre la red al final de la primera etapa del algoritmo de coordinación descrito anteriormente (formación de equipo).
A continuación el algoritmo compara las cargas de las CPU de todos los ordenadores participantes en la elección de líder, y se elige como líder el ordenador que tiene una menor carga de la CPU.
Si hay varios ordenadores que tienen la mima carga mínima de CPU, el algoritmo elegirá como líder el que tiene el menor identificador: esto significa que, dados dos ordenadores A1 y A2 que tienen la misma carga de la CPU, el algoritmo seleccionará el ordenador A1 como líder.
Preferiblemente, el algoritmo también compara la menor carga de la CPU con la carga de la CPU del ordenador que fue el líder antes de que se ejecutase el algoritmo, y seleccionará el ordenador que tiene la menor carga solo si tal menor carga de la CPU es menor que la del líder anterior en una cantidad umbral predeterminada.
En el caso ideal en el que todos los ordenadores reciben la misma información y ejecutan el algoritmo simultáneamente, la salida de todos los ordenadores será idéntica.
En la práctica, sin embargo, el estatus de red se propaga de forma asíncrona y el algoritmo se ejecuta independientemente, es decir en momentos diferentes por los agentes; esto puede conducir potencialmente a los diferentes agentes a diferentes conclusiones.
Para hacer robusto al algoritmo, los datos de entrada preferiblemente se procesan previamente ejecutando una media móvil sobre un intervalo de tiempo
= k / f
donde k es un número entero y f es la frecuencia a la cual cada uno de los agentes ejecuta el algoritmo de elección de líder.
Simulaciones experimentales han mostrado que el intervalo óptimo que asegura la operación apropiada del algoritmo es 5 < k < 10.
Algoritmos de cobertura
Los algoritmos de cobertura descritos a continuación requieren que el entorno a monitorizar se subdivida en células adyacentes asociadas con los sensores (y por lo tanto con los agentes que las controlan) que permiten monitorizar dichas células.
El modelo basado en células de un entorno se almacena en cada ordenador y cada estación de monitorización al final de una etapa de establecimiento del sistema.
A continuación se describirá un ejemplo de establecimiento del sistema, a través de varias soluciones que también son posibles para la configuración del sistema de vigilancia.
Establecimiento del sistema
De acuerdo con la invención, durante la etapa de establecimiento del sistema de vigilancia se crea un modelo de entorno definiendo las áreas de interés C1 - C4 del entorno y las adyacencias de las mismas.
En la siguiente descripción, las áreas de dicho modelo se llamarán "células" para evitar cualquier confusión con las áreas físicas del entorno.
Posteriormente, cada una de las células C1 - C4 se asocia con uno o más sensores capaces de monitorizar al menos una porción del área correspondiente a esa célula.
En particular, como las cámaras de video PTZ pueden tomar una pluralidad de posiciones, cada una de las células está asociada no solo con una cámara de video, sino con una cámara de video en una posición determinada
(llamada "prefijación").
Por supuesto, para los sensores o las cámaras de video fijas solo hay una posición predeterminada que se fija cuando se instala el sensor.
Durante la etapa de establecimiento, los sensores se activan en secuencia.
Para cada uno de los sensores o cámaras de video móviles, el operario define las posiciones prefijadas del sensor móvil que mejor cumplen las necesidades de vigilancia del operario.
Para cada una de las posiciones prefijadas, el operador asocia el sensor con un área de un entorno a través de un medio de selección, y asigna unos juicios de monitorización (por ejemplo expresados como un valor entre 0 y 1) que representa la calidad de la imagen tomada. Los juicios de monitorización corresponden a una estimación de la probabilidad de detección a través de dicho sensor de un evento que ocurre dentro de la célula con la que se ha asociado el sensor en una cierta posición prefijada.
En la etapa operativa, esto permite controlar los sensores por el posicionamiento de los mismos en las posiciones prefijadas que maximizan la probabilidad de monitorización del entorno.
Los ejemplos de las Fig. 3a - 3c y 4a - 4b ilustran dos modelos de entornos diferentes, que se usan por la interfaz de usuario para mostrar el entorno a monitorizar al instalador y para permitirle seleccionar un área.
Con referencia al ejemplo de las Fig. 3a, 3b y 3c, el programa que proporciona la interfaz de usuario permite definir una lista de células y las conexiones de las mismas a través de una interfaz gráfica que permite dibujar un gráfico en el cual las células se representan como nodos conectados por arcos.
Ventajosamente, la disposición espacial de los nodos es libre, de modo que durante la etapa de establecimiento el operario puede disponerlos de tal modo que reflejen la disposición geográfica de las áreas a monitorizar, permitiendo de este modo al vigilante encontrar inmediatamente el área a monitorizar durante la etapa operativa.
De acuerdo con una solución alternativa que es menos compleja desde el punto de vista del cálculo pero ligeramente menos fácil de usar, la definición de las áreas y las conexiones de las mismas se puede hacer en un modo de texto.
Refiriéndonos de nuevo al ejemplo de las Fig. 3a - 3c, en la etapa de establecimiento el operario crea el modelo del entorno y a continuación activa los sensores de forma secuencial (por ejemplo, ciclos de las cámaras de video). Para cada uno de los sensores, el operario verifica el área monitorizada (por ejemplo, ve la imagen tomada por una cámara de video sobre la pantalla) y crea una conexión con las áreas del modelo mientras que asigna un juicio de monitorización.
La conexión de sensores / áreas se puede proporcionar dibujando un enlace entre el icono que representa el sensor y el bloque que representa el área enmarcada.
De esta manera, se crea un gráfico de células / sensores como el mostrado en la Fig. 3c.
La prefijación de los sensores y el juicio de monitorización se almacenan en una base de datos del sistema de control por el software.
En el ejemplo de las Fig. 4a - 4b, el modelo de entorno consiste de un mapa del área a monitorizar.
El mapa, mostrado en la Fig. 4a, se puede construir electrónicamente por el operario usando programas gráficos comunes o puede ser un fichero gráfico importado.
En la solución de las Fig. 4a -4b, durante la etapa de establecimiento el operario selecciona un sensor y, para cada una de las posiciones prefijadas, marca el área monitorizada en el mapa, como se muestra en la Fig. 4b, y asocia un juicio de monitorización, por ejemplo tecleando un valor sobre el teclado 34 o seleccionando un valor representado con el ratón 35.
Cuando se selecciona un grupo de píxel correspondiente al área monitorizada por el sensor, el software creará automáticamente las células del modelo y las adyacencias respectivas. En una realización de la invención, cada una de las selecciones de píxel corresponde a una célula del modelo.
Los grupos de píxel vecinos son células adyacentes.
En una realización preferida, los grupos de píxel que se solapan entre sí, en una extensión suficiente se agrupan dentro de una célula única.
El criterio usado para decidir si dos grupos de píxel deberían agruparse juntos en una célula única o no, se define durante la etapa de programación: si dos grupos de píxel solo se tocan, puede ser preferible de hecho mantener las dos células separadas.
La información geométrica asociada con cada una de las células (área, forma) y la información acerca de la
dirección de tránsito entre las células se extraen automáticamente. Se pueden incluir barreras en el mapa que se tendrá en cuenta cuando se calculan las adyacencias, por ejemplo, dos habitaciones que no se comunican no son adyacentes entre sí.
Se puede añadir otra información (etiquetas de células, movilidad del área, barreras dependientes del tiempo,
orientación de arcos, etc.) por el usuario una vez que se ha construido el modelo. Cuando se ha terminado el establecimiento, el sistema de control dibujará una gráfico de células / sensores como el mostrado en la Fig. 3c.
Heurísticas para la cobertura
Un primer ejemplo de algoritmo de cobertura utiliza una heurística que permite definir una configuración óptima de sensores con un esfuerzo de cálculo limitado. Inicialmente, la heurística elige el sensor que tiene el menor número de grados de libertad (menor número de
posibles posiciones); si el número de grados de libertad es igual, se elegirá el sensor que tiene el menor
identificador. Entre las posibles posiciones de este sensor, la heurística elige la que tiene la mejor visibilidad; si la visibilidad es la misma, la posición seleccionada será la que ve la célula que tiene el menor identificador, por ejemplo la célula C1 se preferirá sobre C2.
Una vez que se ha elegido el primer sensor en la posición respectiva, los grados de libertad de los sensores no seleccionados se recalcularán sin tener en cuenta las células ya asignadas. Las etapas anteriores se repetirán hasta que todos los sensores se asignen a las células respectivas.
Algoritmo para la cobertura óptima El algoritmo para la cobertura óptima recibe como entrada un área de interés (obtenida a partir de la petición del servicio) y un conjunto de sensores (obtenido a partir de los latidos), y saca la configuración óptima de los sensores para cubrir el área de interés. Esto se traduce en la maximización de la probabilidad de detección de un evento anómalo que ocurre dentro de un área de interés determinado.
En particular, se asume que el área de interés es un conjunto de N células del modelo de entorno construido durante la etapa de establecimiento. Ci designa el evento anómalo que ocurre en la célula i
El sistema de vigilancia comprende M sensores, designando xj la posición del sensor j. En particular, para los sensores PTZ (Desplazamiento, Elevación, Ampliación) la posición puede tomar valores dentro de un conjunto discreto finito de valores llamados prefijaciones.
Un sensor fijo se puede tratar como un sensor PTZ particular con solo una prefijación.
En general, la posición de un sensor puede tomar valores dentro de un dominio continuo y puede comprender las coordenadas geográficas para los sensores localizados sobre un medio móvil (coche patrulla, robot, etc.). La detección de un evento que se designa D, la expresión
p(D C1 U C2 U …U CN, x1,…, xM) (1)
indica la probabilidad de detección de un evento anómalo sobre la condición de que el evento ocurre solo en una de las N células asociadas con la porción de entorno a monitorizar y que M sensores están en cierta prefijación xj.
El problema de la cobertura óptima de un área determinada por lo tanto se traduce en encontrar la configuración óptima de sensores que maximiza dicha probabilidad. Dicha configuración se puede expresar como:
La probabilidad de detección se puede expresar como: 5
La expresión anterior se obtiene por la explotación de la observación inmediata de que la ocurrencia de un evento en la célula i es independiente de la posición de los M sensores, es decir p (Ci lxi,… xM) = p(Ci).
La probabilidad p(Ci) de que un evento ocurra en una célula determinada i puede ser proporcional al tamaño del área correspondiente y a la criticidad que caracteriza la célula desde el punto de vista de la vigilancia.
En bien de la simplicidad, asumiremos a continuación que todas las áreas del modelo tienen las mismas probabilidades, de este modo la expresión de la probabilidad de detección será:
donde p (D lCi, xi… xM) es la probabilidad de detección de un evento , ocurriendo el último en la célula i y estando los sensores en una cierta prefijación xj.
Consideremos ahora el caso en el que la célula determinada se observa por un único sensor del sistema de vigilancia, por ejemplo, el sensor 1.
De este modo se obtiene que p (DlCi, x1, …xM) = p (DlCi, x1), es decir la detección en la célula i no depende de la posición de los sensores que no están monitorizando la célula i.
Se asume que p (DlCi, x1), es el juicio de monitorización asignado por el instalador cuando configura el sistema de vigilancia. Con más detalle, dicho juicio de monitorización es el que se asignó al sensor 1 en la posición x, cuando se asoció con la célula i.
Bastante razonablemente, si el juicio de monitorización es alto, entonces la probabilidad de detección de un evento en el área determinada del modelo será también alta. Y viceversa, si el juicio fuese cero, sería imposible (de probabilidad nula) realizar una detección en una célula determinada con el sensor 1 en la prefijación x1.
Consideremos el caso en el que la célula i se observa por múltiples sensores en una prefijación apropiada.
Intentando ayudar al instalador, el procedimiento de establecimiento descrito anteriormente no proporciona una información de monitorización combinada.
Por esta razón, en ausencia de tal información se tendrá en cuenta el caso peor: se encuentra el sensor que tiene la mayor visibilidad y se asume que los otros sensores no pueden añadir ninguna información que pueda aumentar la visibilidad del área determinada del modelo. De este modo se obtiene que
Consideremos ahora el siguiente ejemplo. Dos sensores s1 y s2 posicionados en x1 y x2 ven una célula determinada Ci con juicios de visibilidad 0,8 y 0,6 respectivamente.
Se asume que los otros sensores no ven la célula determinada en ninguna prefijación, o que están posicionados en prefijaciones donde no pueden ver la célula determinada.
De este modo se obtiene que p(DlCix1) = 0,8, p(DlCix2) = 0,6, p(DlCixj) = 0 para j > 2 y que, a partir de la expresión anterior p(DlCi, x1, x2, …, XM) = 0,8.
Desarrollando (4) en base a esta suposición, se obtendrá de este modo que:
donde p(D lCi, xj) es el juicio de monitorización con el sensor j en la prefijación xj que está monitorizando la célula Ci. La expresión anterior cuantifica de una forma rigurosa la calidad de la cobertura de un área determinada, permitiendo de este modo comparar diferentes configuraciones de sensores usados para este propósito.
La configuración óptima
se puede buscar entre todas las posibles configuraciones como se explica más adelante.
El algoritmo que permite buscar la configuración óptima comienza a partir de la información contenida en el gráfico de células / sensores (Fig. 2c) dibujado cuando se configura el sistema de vigilancia.
Para cada una de las células hay uno o más arcos que unen la célula con los sensores que la monitorizan.
Para cada uno de los arcos hay un elemento de información que indica la prefijación del sensor. Teniendo en cuenta todas las células del área a cubrir, es posible construir el conjunto de sensores a usar para obtener dicha cobertura, con la prefijación respectiva.
La configuración óptima de los sensores
es la que maximiza la probabilidad de detección, por lo tanto en una solución preferida el algoritmo procede a calcular (6) para cada combinación de sensores, y a continuación elige la combinación de sensores que tiene la mayor probabilidad de detección.
Esto resultará evidente a partir del siguiente ejemplo: dadas tres células C1, C2 y C3; la célula C1 se observa por el sensor 1 en la prefijación x11, la célula C2 se observa por el sensor 2 en la prefijación x21 y la prefijación x22, y la célula C3 se observa por el sensor 2 en la prefijación x23.
El intervalo de posibles configuraciones consiste de los pares (x11, x21) y (x11, x22).
Por supuesto, una configuración como (x11, x21, x22) no es aceptable porque en cualquier instante en el tiempo un sensor determinado puede estar solo en una posición.
Una vez que se han determinado las dos posibles configuraciones, el algoritmo calcula las probabilidades de detección correspondientes a dichas dos configuraciones.
Asumamos ahora que todos los juicios de monitorización son iguales a 1, excepto el de la prefijación x22, que es 0,8 (esta prefijación ve 2 células, pero con calidad inferior).
En estas condiciones, la primera configuración (x11, x21) tiene una probabilidad de detección de un evento anómalo que ocurre dentro del entorno que es igual a
p (D lC1 U C2 U C3, x11, x21) = 2 / 3
Mientras que la segunda configuración (x11, x22) tiene una probabilidad de detección de un evento anómalo que ocurre dentro del entorno que es igual a
p (D lC1 U C2 U C3, x11, x22) = 2,6 / 3
El algoritmo compara a continuación las dos probabilidades de detección calculadas y elige la configuración (x11, x22), es decir la que maximiza la probabilidad de detección de un evento en un área determinada, lo que en este caso corresponde a todo el entorno.
Es evidente a partir de la descripción anterior que si el número de posibles configuraciones es grande, la búsqueda de la configuración óptima puede ser una difícil tarea de cálculo. En tal caso, se pueden aplicar los procedimientos de búsqueda operativa para obtener una solución sub-optima.
Estos procedimientos, aunque están basados en los juicios de monitorización y en el gráfico de células / sensor, minimizan una función de coste adecuada obtenida a partir de la probabilidad de detección.
Como alternativa, la complejidad de cálculo se puede reducir también introduciendo metodologías heurísticas; por ejemplo, se puede elegir fijar cada sensor en la posición que tiene el máximo juicio de monitorización, de modo que se monitorizan una o más células que se observan solo por ese sensor.
Una vez establecidas, estas metodologías heurísticas son independientes del cálculo de la probabilidad de detección incluso aunque esta probabilidad se pueda usar comparando el funcionamiento de las diferentes metodologías heurísticas cuando se diseña el algoritmo. Si se proponen varias metodologías heurísticas, el cálculo de la probabilidad de detección permitirá establecer qué configuración entre las propuestas por las metodologías heurísticas es más apropiada para la detección de eventos.
Cobertura óptima con el menor número de sensores
El problema de la cobertura óptima tratado en la sección anterior se puede suplementar por la restricción de tener
que usar el menor número posible de sensores.
El algoritmo que calcula la cobertura óptima con el menor número de sensores también se basa en la suposición de que la probabilidad de detectar un evento en una célula no aumenta con el número de sensores usados para cubrir esa célula, de este modo se asume que:
Por lo tanto, el algoritmo solo considera el sensor que tiene el juicio de monitorización más alto de entre todos los sensores que observan la misma célula.
Los sensores que tienen un menor juicio se considera que son redundantes. Aunque desde un punto de vista práctico puede ser útil añadir información desde más sensores (por ejemplo para añadir encuadres de un área) para mejorar el funcionamiento de la monitorización en alguna medida, hay sin embargo situaciones en las que es importante que no se reciba información redundante: un operario que recibe información redundante evaluará lo que está ocurriendo en la escena monitorizada más lentamente y con más dificultad.
No menos importante es que el uso del mínimo número de recursos en un sistema multi usuario y multi tareas aumentará la posibilidad de servir a más operarios y tareas simultáneamente.
La solución óptima en presencia de la restricción mencionada anteriormente se encuentra considerando todos los posibles subconjuntos del conjunto global de sensores a usar para la cobertura óptima.
Para cada uno de los subconjuntos, la configuración prefijada óptima se encuentra como se describe en la sección anterior 'Algoritmo para la cobertura óptima'.
La solución al problema actual se representa por el mínimo número cardinal del conjunto que tiene la mayor probabilidad de detección.
Debería remarcarse que no es necesario tomar en consideración todos los posibles subconjuntos de sensores: cuando la probabilidad de detección de la solución óptima buscada en los subconjuntos de sensores que tienen un número cardinal N es igual a la probabilidad de detección óptima buscada en los subconjuntos que tienen un número cardinal N - 1, entonces la solución óptima será una configuración con N - 1 sensores.
Por lo tanto, el procedimiento proporciona ventajosamente la búsqueda de solución al problema de cobertura óptima aumentando el número cardinal de los subconjuntos de sensores.
Cobertura óptima de bordes
Los sistemas de vigilancia proporcionan una función llamada 'seguimiento de objetivo', es decir el seguimiento de un objetivo en movimiento dentro del entorno monitorizado.
La célula ocupada por el objetivo se llama 'célula activa', mientras que las células adyacentes se llaman 'células de borde'.
Las adyacencias entre las células se definen en el gráfico de células / sensores dibujado en la configuración del sistema.
Para no perder el objetivo, aunque un sensor se posiciona sobre la célula activa los otros sensores se configuran de modo que proporcionan una cobertura óptima del área de borde.
El propósito del algoritmo de cobertura óptima de borde es maximizar la siguiente probabilidad:
p(D , C1 U C2 U …U CN, X1, …, XM) (8)
Dicha probabilidad corresponde a la probabilidad de detección de un evento en la condición de que el evento procede de la célula k y ocurre en una de las N células de borde Ci de la célula k, y que M sensores están en ciertas posiciones xj.
Bajo condiciones similares a las descritas para el cálculo de la cobertura óptima, la probabilidad de detección se da por la siguiente relación:
donde p(DlCi, xj) es el juicio de monitorización del sensor j en la prefijación xj observando la célula Ci, mientras que p(Cil ) es la probabilidad de que el objetivo se mueva desde la célula activa a la célula de borde i presumiblemente existente. De acuerdo con una realización preferida, cuando se crea el modelo del entorno durante la etapa de establecimiento es necesario especificar las probabilidades de transición de una célula a otra.
Estas probabilidades corresponden a los términos p(Cil ) de la fórmula anterior.
Si la información acerca de la probabilidad de transición desde una célula a una célula adyacente no se especifica, como en el ejemplo de la realización descrito con referencia a las Fig. 2a - 2c y 3a - 3b, entonces todos los términos p(Cil ) son iguales y la relación para el cálculo de la probabilidad de detección de un evento en la célula de borde estará dada por:
Cobertura óptima a través de agrupamientos de agentes
Para reducir la complejidad de cálculo del algoritmo para la cobertura óptima, una estrategia realizable proporciona la formación de grupos de agentes (agrupamientos) teniendo que resolver cada uno de los agrupamientos el problema de cobertura óptima independientemente de todos los otros agrupamientos.
Por lo tanto, el algoritmo de cobertura óptima a través de agrupamientos de agentes incluye una primera etapa en la que los agentes deben tomar una decisión compartida acerca de la composición de los grupos.
En una primera realización, cada uno de los agentes determina el grupo de agentes de su agrupamiento eligiendo un número prefijado de agentes vecinos, refiriéndose el término 'agentes vecinos' a los agentes que controlan los sensores que cubren las mimas áreas del entorno cubiertas por los sensores bajo su propio control.
En otras palabras, dos agentes son agentes vecinos si tienen dos sensores respectivos que cubre la misma área.
En base a este principio, un agente determinado puede formar un agrupamiento eligiendo sus vecinos y a continuación los vecinos de sus vecinos, y así sucesivamente hasta un agrupamiento con un número cardinal máximo. Como alternativa, para formar los agrupamientos cada uno de los agentes elige los agentes vecinos comenzando por el que tiene el identificador más bajo (por ejemplo, etiqueta) y a continuación determina a que agrupamiento pertenece.
En otra realización, el agrupamiento de agentes se puede realizar sobre un gráfico ponderado adecuado, en el que los nodos son los agentes y los arcos ponen en relación entre sí a agentes que tienen células en común. La ponderación de los arcos indica el número de células compartidas. Los agrupamientos se obtienen usando 'cortes mínimos' que van a través de los arcos de ponderación mínima para separar los agentes que 'casi' no tienen ninguna célula en común entre ellos.
Una vez que se han determinado los agentes que pertenecen al agrupamiento, cada uno de los agentes aplicará el algoritmo descrito anteriormente para una cobertura óptima.
Este enfoque es estable y ventajoso desde el punto de vista computacional.

Claims (13)

  1. REIVINDICACIONES
    1. Un procedimiento para la coordinación de una pluralidad de sensores usados para la vigilancia de un entorno, en el que una pluralidad de ordenadores conectados en red controlan dichos sensores a fin de ejecutar uno o más servicios solicitados a través de la red, caracterizado porque, para coordinarse entre sí, dichos ordenadores realizan las siguientes etapas: formación de equipos de ordenadores que participan en la ejecución de los diversos servicios solicitados a la red intercambio de información sobre la red, de modo que cada ordenador de dicha pluralidad conoce las características y los servicios proporcionados por los otros ordenadores de dicha pluralidad, estando el procedimiento
    caracterizado porque
    los ordenadores de un equipo que proporcionan el mismo servicio ejecutan el mismo algoritmo de configuración, que devuelve las tareas a realizar por cada ordenador como una función de las características de los ordenadores que proporcionan dicho mismo servicio, de modo que todos los ordenadores que proporcionan el mismo servicio detectan la misma configuración óptima del equipo y, por lo tanto, las tareas a realizar por cada uno de los ordenadores del equipo, los ordenadores controlan los sensores en base a las tareas definidas por dicho algoritmo de configuración.
  2. 2.
    El procedimiento de acuerdo con la reivindicación 1, en el que los ordenadores ejecutan dicho algoritmo de configuración periódicamente.
  3. 3.
    El procedimiento de acuerdo con la reivindicación 1 o 2, en el que los ordenadores ejecutan dicho algoritmo en respuesta a una variación en el conjunto de dichos servicios solicitados a través de la red.
  4. 4.
    El procedimiento de acuerdo con cualquiera de las reivindicaciones anteriores, en el que cada uno de los ordenadores decide independientemente qué servicios ejecutar e informa a los otros ordenadores de su decisión, de modo que cada uno de los ordenadores conoce que otros ordenadores están también realizando un cierto servicio.
  5. 5.
    El procedimiento de acuerdo con cualquiera de las reivindicaciones 1 a 3, en el que los ordenadores deciden qué servicios realizar en un modo cooperativo, de modo que cada uno de los ordenadores conoce que otros ordenadores están también realizando un cierto servicio.
  6. 6.
    El procedimiento de acuerdo con la reivindicación 5, en el que para decidir qué servicios realizar, cada uno de los ordenadores:
    -
    evalúa el conjunto de peticiones de servicio recibidas por la red,
    -
    selecciona los servicios en los que puede participar,
    -
    informa a los otros ordenadores acerca de los servicios en los que participará,
    -
    recibe sobre la red una lista de servicios que se pueden ejecutar por cada uno de los ordenadores,
    -
    ejecuta un algoritmo de asignación de servicios que devuelve los servicios en los cuales debe participar cada uno de los ordenadores.
  7. 7.
    El procedimiento de acuerdo con cualquiera de las reivindicaciones anteriores, en el que al menos un ordenador y al menos un sensor de dicha pluralidad están comprendidos dentro de la misma unidad electrónica, en particular una cámara de video.
  8. 8.
    El procedimiento de acuerdo con cualquiera de las reivindicaciones anteriores, en el que los ordenadores comunican por la red usando diferentes procedimientos de comunicaciones para diferentes tipos de información.
    9 El procedimiento de acuerdo con cualquiera de las reivindicaciones anteriores, en el que dichos ordenadores intercambian información en el modo de difusión.
  9. 10.
    El procedimiento de acuerdo con cualquiera de las reivindicaciones 1 a 8, en el que dichos ordenadores están agrupados en base a sus características de vecindad o afinidad para la ejecución de servicios específicos, y en el que un ordenador que pertenece a uno o más equipos solo comunica con otros ordenadores de dichos uno o más equipos usando una comunicación de multi-difusión o de un punto a multi-punto.
  10. 11.
    El procedimiento de acuerdo con cualquiera de las reivindicaciones anteriores, en el que dichos ordenadores transmiten dicha información de estado periódicamente.
    12 El procedimiento de acuerdo con cualquiera de las reivindicaciones anteriores, en el que se transmite una petición de servicio por la red hasta que el servicio correspondiente ya no se solicita.
  11. 13.
    El procedimiento de acuerdo con cualquiera de las reivindicaciones anteriores, en el que se envía al menos una petición de servicio por un ordenador de dicha pluralidad.
  12. 14.
    El procedimiento de acuerdo con cualquiera de las reivindicaciones anteriores, en el que se envía al menos una petición de servicio por un operario a través de una estación de monitorización (3).
  13. 15.
    Un sistema de detección, en particular un sistema de vigilancia de video, que comprende una pluralidad de
    ordenadores conectados en red, estando adaptados dichos ordenadores para controlar una pluralidad de sensores en respuesta a una o más peticiones de servicio recibidas por la red, caracterizado porque dichos ordenadores están adaptados para implementar un procedimiento de acuerdo con cualquiera de las reivindicaciones 1 a 14.
ES08750911T 2007-05-19 2008-05-09 Procedimiento para coordinar una pluralidad de sensores Active ES2397720T3 (es)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
ITMI20071016 2007-05-19
IT001016A ITMI20071016A1 (it) 2007-05-19 2007-05-19 Metodo e sistema per sorvegliare un ambiente
PCT/IB2008/001169 WO2008142502A2 (en) 2007-05-19 2008-05-09 Method for coordinating a plurality of sensors

Publications (1)

Publication Number Publication Date
ES2397720T3 true ES2397720T3 (es) 2013-03-11

Family

ID=39816862

Family Applications (2)

Application Number Title Priority Date Filing Date
ES08750913T Active ES2398929T3 (es) 2007-05-19 2008-05-09 Procedimiento y sistema para la monitorización de un entorno
ES08750911T Active ES2397720T3 (es) 2007-05-19 2008-05-09 Procedimiento para coordinar una pluralidad de sensores

Family Applications Before (1)

Application Number Title Priority Date Filing Date
ES08750913T Active ES2398929T3 (es) 2007-05-19 2008-05-09 Procedimiento y sistema para la monitorización de un entorno

Country Status (16)

Country Link
US (2) US8370421B2 (es)
EP (3) EP2533535A1 (es)
JP (2) JP5285066B2 (es)
CN (2) CN101755432B (es)
BR (1) BRPI0811738A2 (es)
CA (2) CA2687768C (es)
DK (2) DK2163094T3 (es)
ES (2) ES2398929T3 (es)
HK (2) HK1142193A1 (es)
HR (2) HRP20130032T1 (es)
IT (1) ITMI20071016A1 (es)
PL (2) PL2163094T3 (es)
PT (2) PT2163094E (es)
RU (2) RU2510147C2 (es)
SI (2) SI2163094T1 (es)
WO (2) WO2008142504A1 (es)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ES2895415A1 (es) * 2020-08-19 2022-02-21 Ceballos Arroyo Jose Maria Dispositivo de seguridad urbana

Families Citing this family (50)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ITMI20071016A1 (it) * 2007-05-19 2008-11-20 Videotec Spa Metodo e sistema per sorvegliare un ambiente
US8571745B2 (en) * 2008-04-10 2013-10-29 Robert Todd Pack Advanced behavior engine
WO2010098268A1 (ja) * 2009-02-24 2010-09-02 日本電気株式会社 演算資源割当装置、演算資源割当システム、それらの演算資源割当方法及びプログラム
US20100245583A1 (en) * 2009-03-25 2010-09-30 Syclipse Technologies, Inc. Apparatus for remote surveillance and applications therefor
US20110317017A1 (en) * 2009-08-20 2011-12-29 Olympus Corporation Predictive duty cycle adaptation scheme for event-driven wireless sensor networks
ITMI20100741A1 (it) * 2010-04-29 2011-10-30 March Networks Corp Configurazione e comunicazione di elementi di rete video
CN102222157B (zh) * 2011-04-28 2013-10-30 华南理工大学 一种基于人工势场法的动态预警域生成方法
US9143703B2 (en) * 2011-06-10 2015-09-22 Flir Systems, Inc. Infrared camera calibration techniques
US8953039B2 (en) 2011-07-01 2015-02-10 Utc Fire & Security Corporation System and method for auto-commissioning an intelligent video system
US20130015968A1 (en) * 2011-07-13 2013-01-17 Honeywell International Inc. System and method of alarm installation and configuration
JP6032283B2 (ja) * 2012-05-23 2016-11-24 ソニー株式会社 監視カメラ管理装置、監視カメラ管理方法およびプログラム
DE102012222661A1 (de) * 2012-12-10 2014-06-12 Robert Bosch Gmbh Überwachungsanlage für einen Überwachungsbereich, Verfahren sowie Computerprogramm
US20140184803A1 (en) * 2012-12-31 2014-07-03 Microsoft Corporation Secure and Private Tracking Across Multiple Cameras
KR20140091343A (ko) * 2013-01-11 2014-07-21 삼성테크윈 주식회사 영상 감시 시스템 및 그의 동작 방법
KR101871941B1 (ko) * 2013-03-12 2018-07-02 한화에어로스페이스 주식회사 카메라의 동작 방법, 카메라, 및 감시 시스템
US9614898B1 (en) * 2013-05-27 2017-04-04 Surround.IO Distributed event engine
US9116137B1 (en) 2014-07-15 2015-08-25 Leeo, Inc. Selective electrical coupling based on environmental conditions
US9372894B2 (en) 2013-08-15 2016-06-21 International Business Machines Corporation Scoring relationships between entities based on proximity in space and time
HUP1300560A2 (en) * 2013-09-27 2015-03-30 Peter Wolf Protecting system for biosphere asset
US20150134379A1 (en) * 2013-11-14 2015-05-14 International Business Machines Corporation Singularity of Presence
CN104239594A (zh) * 2014-06-13 2014-12-24 中国人民解放军装备学院 人工环境模型、Agent模型及其建模方法
CN104079881B (zh) * 2014-07-01 2017-09-12 中磊电子(苏州)有限公司 监控装置与其相关的监控方法
KR20160014242A (ko) * 2014-07-29 2016-02-11 삼성전자주식회사 모니터링 장치를 이용한 센서의 위치 및 이벤트 동작의 매핑 방법 및 장치
US10102566B2 (en) 2014-09-08 2018-10-16 Leeo, Icnc. Alert-driven dynamic sensor-data sub-contracting
US10026304B2 (en) 2014-10-20 2018-07-17 Leeo, Inc. Calibrating an environmental monitoring device
TWI578781B (zh) * 2014-10-21 2017-04-11 群暉科技股份有限公司 藉助於全景地圖來管理一監視系統之方法與裝置
SG10201407100PA (en) 2014-10-30 2016-05-30 Nec Asia Pacific Pte Ltd System For Monitoring Event Related Data
US10277869B2 (en) * 2014-12-11 2019-04-30 Sensormatic Electronics, LLC Efficient process for camera call-up
CN104796923B (zh) * 2014-12-22 2018-04-13 齐玉田 无线传感网络的网络拓扑构建方法
TWI522760B (zh) 2015-01-08 2016-02-21 晶睿通訊股份有限公司 馬達控制方法、馬達控制裝置及相機
JP6229816B2 (ja) * 2015-03-27 2017-11-15 日本電気株式会社 モバイル監視装置、プログラム、及び制御方法
JP6809455B2 (ja) * 2015-06-11 2021-01-06 日本電気株式会社 サービス制御装置、サービス制御方法及びプログラム
CN104994356A (zh) * 2015-07-22 2015-10-21 宜昌泛海巨涛科技有限公司 监控设备智能联动装置及方法
US10620802B1 (en) * 2015-08-10 2020-04-14 Cadence Design Systems, Inc. Algorithmic modeling interface process
US10805775B2 (en) 2015-11-06 2020-10-13 Jon Castor Electronic-device detection and activity association
US9801013B2 (en) 2015-11-06 2017-10-24 Leeo, Inc. Electronic-device association based on location duration
CN106856558B (zh) * 2015-12-09 2019-09-20 台达电子工业股份有限公司 具有摄影机自动调派功能的3d影像监控系统及其监控方法
US10761495B2 (en) * 2015-12-18 2020-09-01 International Business Machines Corporation Dynamic and reconfigurable system management
CN108024088B (zh) * 2016-10-31 2020-07-03 杭州海康威视系统技术有限公司 一种视频轮巡方法及装置
US10860012B2 (en) 2016-11-09 2020-12-08 Yokogawa Engineering Asia Pte. Ltd KPI calculation rule builder for advance plant monitoring and diagnostics
RU2663884C1 (ru) * 2017-03-29 2018-08-13 ООО "Ай Ти Ви групп" Способ эмуляции по меньшей мере двух стационарных виртуальных видеокамер при использовании одной поворотной (PTZ) видеокамеры
EP3487175A1 (en) * 2017-11-21 2019-05-22 Reliance Core Consulting LLC Methods and systems for detecting motion corresponding to a field of interest
GB2569573A (en) * 2017-12-20 2019-06-26 Canon Kk Video surveillance method and system
US10317216B1 (en) 2018-03-16 2019-06-11 Microsoft Technology Licensing, Llc Object and location tracking with a graph-of-graphs
CN109375851B (zh) * 2018-10-26 2022-04-08 珠海格力电器股份有限公司 感知器绑定方法、装置、计算机设备和存储介质
CN109544194B (zh) * 2018-12-07 2021-09-17 河南智信锅炉技术创新有限公司 一种用于智能化工厂的锅炉防伪方法及装置
US11351682B2 (en) * 2019-06-19 2022-06-07 International Business Machines Corporation Environment monitoring and associated monitoring device
RU2718223C1 (ru) * 2019-07-18 2020-03-31 ООО "Ай Ти Ви групп" Система и способ определения потенциально опасных ситуаций по видеоданным
US11881993B2 (en) * 2020-10-13 2024-01-23 Eoh Limited Liability Company Method and deep reinforcement neural network (DRNN) management system for an intelligent plug-and-play point-to-multipoint internet of things (IoT) platform
PL440508A1 (pl) 2022-02-28 2023-09-04 Uniwersytet Morski W Gdyni Urządzenie do inwentaryzacji stanu technicznego stalowych części podwodnych nabrzeży portowych

Family Cites Families (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2140721C1 (ru) * 1984-12-27 1999-10-27 Войсковая часть 11135 Телевизионное устройство для обнаружения перемещений объектов
US4992866A (en) * 1989-06-29 1991-02-12 Morgan Jack B Camera selection and positioning system and method
US6097429A (en) * 1997-08-01 2000-08-01 Esco Electronics Corporation Site control unit for video security system
GB2329539B (en) * 1997-09-17 2002-05-15 Sony Uk Ltd Security System
WO1999035850A1 (en) * 1997-12-31 1999-07-15 Koninklijke Philips Electronics N.V. Multiple camera system
AU3249600A (en) 1999-03-18 2000-10-04 Showbites, Inc. Method for optimization of video coverage
CA2371750A1 (en) * 1999-05-24 2000-11-30 Aprisma Management Technologies, Inc. Service level management
US6437819B1 (en) 1999-06-25 2002-08-20 Rohan Christopher Loveland Automated video person tracking system
GB2354090B (en) * 1999-09-08 2004-03-17 Sony Uk Ltd Distributed service provider
US7522186B2 (en) * 2000-03-07 2009-04-21 L-3 Communications Corporation Method and apparatus for providing immersive surveillance
JP2002034032A (ja) * 2000-07-13 2002-01-31 Asahi Optical Co Ltd 監視カメラシステム用コントローラ
US20050146605A1 (en) * 2000-10-24 2005-07-07 Lipton Alan J. Video surveillance system employing video primitives
EP1288757A1 (de) * 2001-08-07 2003-03-05 Siemens Aktiengesellschaft Verfahren und Prozessleitsystem zum Betrieb einer technischen Anlage
CN1561640A (zh) 2001-09-27 2005-01-05 皇家飞利浦电子股份有限公司 用于基本计算机的视觉监视的最佳多摄像机设置
GB2384128A (en) * 2001-12-13 2003-07-16 Invideo Ltd Schematic mapping of surveillance area
US20030212587A1 (en) * 2002-05-13 2003-11-13 International Business Machines Corporation Apparatus and methods for coordinating Web services using role based interpretation of coordination plans
GB0211644D0 (en) * 2002-05-21 2002-07-03 Wesby Philip B System and method for remote asset management
CN1206862C (zh) * 2002-08-13 2005-06-15 舒富喜 一种远程视频图像监控系统
CN1198415C (zh) * 2003-01-08 2005-04-20 广东科龙电器股份有限公司 基于制造现场的智能化远程网络监控系统
CN1186923C (zh) * 2003-04-03 2005-01-26 上海交通大学 异常目标自动发现及跟踪摄像机系统
US20050012817A1 (en) * 2003-07-15 2005-01-20 International Business Machines Corporation Selective surveillance system with active sensor management policies
EP1505796A1 (en) * 2003-08-06 2005-02-09 STMicroelectronics Limited Method for controlling services
US7433327B2 (en) * 2003-10-09 2008-10-07 Hewlett-Packard Development Company, L.P. Method and system for coordinating communication devices to create an enhanced representation of an ongoing event
JP4157015B2 (ja) * 2003-11-05 2008-09-24 積水ハウス株式会社 セキュリティー巡回サービスシステム
JP2005323229A (ja) * 2004-05-11 2005-11-17 Yamatake Corp 巡回方法および巡回システム
JP2008502228A (ja) 2004-06-01 2008-01-24 エル‐3 コミュニケーションズ コーポレイション ビデオフラッシュライトを実行する方法およびシステム
US20060004579A1 (en) * 2004-07-01 2006-01-05 Claudatos Christopher H Flexible video surveillance
US20060007308A1 (en) * 2004-07-12 2006-01-12 Ide Curtis E Environmentally aware, intelligent surveillance device
RU2275750C2 (ru) * 2004-07-21 2006-04-27 Федеральное Государственное Унитарное Предприятие "Научно-Исследовательский Институт Промышленного Телевидения "РАСТР" (ФГУП "НИИ ПТ "РАСТР") Способ юстировки направления визирной оси двухкамерной телевизионной системы и устройство для его осуществления
WO2006030444A2 (en) * 2004-09-16 2006-03-23 Raycode Ltd. Imaging based identification and positioning system
US7123169B2 (en) * 2004-11-16 2006-10-17 Northrop Grumman Corporation Method and apparatus for collaborative aggregate situation awareness
JP3886524B2 (ja) 2004-12-21 2007-02-28 松下電器産業株式会社 カメラ端末および監視システム
ATE500580T1 (de) * 2005-03-25 2011-03-15 Sensormatic Electronics Llc Intelligente kameraauswahl und objektverfolgung
JP2006311025A (ja) * 2005-04-27 2006-11-09 Mitsubishi Electric Corp 表示装置及び表示方法及びプログラム
US20070043803A1 (en) * 2005-07-29 2007-02-22 Microsoft Corporation Automatic specification of semantic services in response to declarative queries of sensor networks
US7468970B2 (en) * 2005-10-24 2008-12-23 Honeywell International Inc. Routing of mobile agents in a network
US8266697B2 (en) * 2006-03-04 2012-09-11 21St Century Technologies, Inc. Enabling network intrusion detection by representing network activity in graphical form utilizing distributed data sensors to detect and transmit activity data
US8131838B2 (en) * 2006-05-31 2012-03-06 Sap Ag Modular monitor service for smart item monitoring
ITMI20071016A1 (it) * 2007-05-19 2008-11-20 Videotec Spa Metodo e sistema per sorvegliare un ambiente
CA2690506C (en) * 2009-01-20 2016-05-10 Parata Systems, Llc Methods, systems, and apparatus for determining and automatically programming network addresses for devices operating in a network

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ES2895415A1 (es) * 2020-08-19 2022-02-21 Ceballos Arroyo Jose Maria Dispositivo de seguridad urbana

Also Published As

Publication number Publication date
BRPI0811738A2 (pt) 2014-11-11
ITMI20071016A1 (it) 2008-11-20
EP2163094B1 (en) 2012-11-07
EP2160883A2 (en) 2010-03-10
RU2494567C2 (ru) 2013-09-27
CA2687768A1 (en) 2008-11-27
CN101755457A (zh) 2010-06-23
DK2163094T3 (da) 2013-02-04
JP5371962B2 (ja) 2013-12-18
PL2163094T3 (pl) 2013-03-29
EP2163094A1 (en) 2010-03-17
US8350911B2 (en) 2013-01-08
PT2163094E (pt) 2013-02-11
CN101755432B (zh) 2016-08-24
ES2398929T3 (es) 2013-03-22
HK1142201A1 (en) 2010-11-26
HRP20130081T1 (hr) 2013-02-28
JP5285066B2 (ja) 2013-09-11
SI2160883T1 (sl) 2013-02-28
US20100214417A1 (en) 2010-08-26
RU2009147287A (ru) 2011-06-27
JP2010528359A (ja) 2010-08-19
WO2008142504A1 (en) 2008-11-27
US20100293220A1 (en) 2010-11-18
EP2533535A1 (en) 2012-12-12
US8370421B2 (en) 2013-02-05
WO2008142502A3 (en) 2009-02-19
CA2687724C (en) 2015-07-14
CN101755432A (zh) 2010-06-23
JP2010528515A (ja) 2010-08-19
PL2160883T3 (pl) 2013-03-29
CA2687724A1 (en) 2008-11-27
HK1142193A1 (en) 2010-11-26
DK2160883T3 (da) 2013-02-04
EP2160883B1 (en) 2012-10-17
CN101755457B (zh) 2013-04-03
RU2510147C2 (ru) 2014-03-20
WO2008142502A2 (en) 2008-11-27
CA2687768C (en) 2016-01-05
RU2009147286A (ru) 2011-06-27
HRP20130032T1 (hr) 2013-02-28
PT2160883E (pt) 2013-01-25
SI2163094T1 (sl) 2013-02-28

Similar Documents

Publication Publication Date Title
ES2397720T3 (es) Procedimiento para coordinar una pluralidad de sensores
Kim et al. Adaptive data rate control in low power wide area networks for long range IoT services
Akkaya et al. Clustering of wireless sensor and actor networks based on sensor distribution and connectivity
Wu et al. From wireless sensor networks towards cyber physical systems
US10893108B2 (en) Maintaining application state of mobile endpoint device moving between virtualization hosts based on sharing connection-based metadata
US7562123B2 (en) Systems and methods for distributed group formation and maintenance in geographically based networks
Reich et al. Connectivity maintenance in mobile wireless networks via constrained mobility
US20210258767A1 (en) Dynamic cell boundary roaming management using client feedback
De Rosa et al. Disconnection prediction in mobile ad hoc networks for supporting cooperative work
Shah et al. An effective and robust two-phase resource allocation scheme for interdependent tasks in mobile ad hoc computational Grids
Tyagi et al. Role of IOT and blockchain in achieving a vision of metropolitan’s digital transformation
Silva et al. A symbiotic resources sharing IoT platform in the smart cities context
Pirmagomedov et al. Facilitating mmWave mesh reliability in PPDR scenarios utilizing artificial intelligence
Goussevskaia et al. Data dissemination based on the energy map
Li et al. Architecture and protocol design for a pervasive robot swarm communication networks
Benzerbadj et al. Redundancy and criticality based scheduling in wireless video sensor networks for monitoring critical areas
Razafindralambo et al. Spread and shrink: Point of interest discovery and coverage with mobile wireless sensors
Gupta et al. Fog computing& IoT: Overview, architecture and applications
Das et al. Coordination based motion control in mobile wireless sensor network
Rashidibajgan et al. Opportunistic Tracking in Cyber-Physical Systems
Sumathi et al. Ambient Intelligence-Based Fish Swarm Optimization Routing Protocol for Congestion Avoidance in Mobile Ad-Hoc Network
Ramanathan et al. Model-based provisioning and management of adaptive distributed communication in mobile cooperative systems
Alassery (EERSM): Energy-Efficient Multi-Hop Routing Technique in Wireless Sensor Networks Based on Combination between Stationary and Mobile Nodes
FRANK IMPROVING THE PERFORMANCE AND EFFICIENCY OF DATA ROUTING IN A MOBILE AD–HOC NETWORK (MANET)
Derdour et al. Data collection in WSNs with a mobile sink for a supervision application