ITMI20071016A1 - Metodo e sistema per sorvegliare un ambiente - Google Patents

Metodo e sistema per sorvegliare un ambiente Download PDF

Info

Publication number
ITMI20071016A1
ITMI20071016A1 IT001016A ITMI20071016A ITMI20071016A1 IT MI20071016 A1 ITMI20071016 A1 IT MI20071016A1 IT 001016 A IT001016 A IT 001016A IT MI20071016 A ITMI20071016 A IT MI20071016A IT MI20071016 A1 ITMI20071016 A1 IT MI20071016A1
Authority
IT
Italy
Prior art keywords
sensors
surveillance
area
cells
configuration
Prior art date
Application number
IT001016A
Other languages
English (en)
Inventor
Angelo Cenedese
Fabio D'alessi
Ruggero Frezza
Giambattista Gennari
Giorgio Raccanelli
Original Assignee
Videotec Spa
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Videotec Spa filed Critical Videotec Spa
Priority to IT001016A priority Critical patent/ITMI20071016A1/it
Priority to US12/600,887 priority patent/US8370421B2/en
Priority to SI200830868T priority patent/SI2163094T1/sl
Priority to PL08750913T priority patent/PL2163094T3/pl
Priority to ES08750911T priority patent/ES2397720T3/es
Priority to US12/600,868 priority patent/US8350911B2/en
Priority to PCT/IB2008/001169 priority patent/WO2008142502A2/en
Priority to CA2687724A priority patent/CA2687724C/en
Priority to EP12182711A priority patent/EP2533535A1/en
Priority to DK08750911.3T priority patent/DK2160883T3/da
Priority to CA2687768A priority patent/CA2687768C/en
Priority to PT87509113T priority patent/PT2160883E/pt
Priority to JP2010508919A priority patent/JP5371962B2/ja
Priority to PCT/IB2008/001172 priority patent/WO2008142504A1/en
Priority to PT87509139T priority patent/PT2163094E/pt
Priority to SI200830865T priority patent/SI2160883T1/sl
Priority to BRPI0811738-1A2A priority patent/BRPI0811738A2/pt
Priority to EP08750911A priority patent/EP2160883B1/en
Priority to RU2009147287/07A priority patent/RU2494567C2/ru
Priority to JP2010508918A priority patent/JP5285066B2/ja
Priority to ES08750913T priority patent/ES2398929T3/es
Priority to RU2009147286/07A priority patent/RU2510147C2/ru
Priority to CN2008800253084A priority patent/CN101755457B/zh
Priority to EP08750913A priority patent/EP2163094B1/en
Priority to PL08750911T priority patent/PL2160883T3/pl
Priority to DK08750913.9T priority patent/DK2163094T3/da
Priority to CN200880025318.8A priority patent/CN101755432B/zh
Publication of ITMI20071016A1 publication Critical patent/ITMI20071016A1/it
Priority to HK10108479.1A priority patent/HK1142193A1/xx
Priority to HK10108523.7A priority patent/HK1142201A1/xx
Priority to HRP20130032AT priority patent/HRP20130032T1/hr
Priority to HRP20130081AT priority patent/HRP20130081T1/hr

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19639Details of the system layout
    • G08B13/19645Multiple cameras, each having view on one of a plurality of scenes, e.g. multiple cameras for multi-room surveillance or for tracking an object by view hand-over
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19654Details concerning communication with a camera
    • G08B13/19656Network used to communicate with a camera, e.g. WAN, LAN, Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/12Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Description

Descrizione dell'Invenzione Industriale dal titolo:
“METODO E SISTEMA PER SORVEGLIARE UN AMBIENTE”
RIASSUNTO
Viene descritto un metodo per la sorveglianza di un ambiente mediante una pluralità di sensori, in cui un sistema di controllo riceve ed utilizza informazioni da uno o più sensori di detta pluralità per sorvegliare detto ambiente. Il metodo comprendere una fase di configurazione in cui un operatore crea un modello dell’ambiente individuando una pluralità di celle corrispondenti ad aree dell’ambiente, e crea delle relazioni celle/sensori individuando per ogni sensore almeno una posizione assumibile che viene associata ad almeno una cella. Per ogni posizione l’operatore assegna al sensore un giudizio di sorveglianza della cella associata. Il metodo comprende poi una fase operativa in cui il sistema di controllo, per eseguire una funzione di sorveglianza, individua i sensori utilizzabili per eseguire la funzione di sorveglianza richiesta e li controlla sulla base dei giudizi di sorveglianza e delle relazioni celle/sensori.
DESCRIZIONE
La presente invenzione si riferisce ad un metodo per la sorveglianza di un ambiente secondo il preambolo della rivendicazione 1.
L’invenzione si riferisce inoltre ad un sistema per implementare il suddetto metodo di sorveglianza.
In molte situazioni, dai luoghi pubblici alle aziende private, vi è la necessità di sorvegliare un ambiente al fine di rilevare eventi anomali come furti, atti vandalici, aggressioni, rapine, e in generale pericolosi per la sicurezza di persone e cose.
A tale scopo vengono utilizzati dei sistemi di sorveglianza in cui una molteplicità di sensori, come apparecchi di ripresa video (es. telecamere) o sensori di movimento (ad esempio sensori infra-rosso o volumetrici), monitorizzano diverse aree dell’ambiente da sorvegliare. I segnali di informazione trasmessi dai sensori (ad es. un video di una stanza o un segnale di allarme di un sensore) vengono ricevuti da una postazione di controllo presieduta da una guardia.
I sistemi di sorveglianza noti prevedono una fase di configurazione che mette al centro della configurazione i sensori.
In questa fase di configurazione viene creato un modello del sistema in cui per ogni sensore viene individuata l’area dell’ambiente monitorata e i sensori adiacenti, ossia i sensori che monitorizzano la frontiera dell’area. In questo modo durante le procedure di tracciamento (‘tracking’ in inglese) il sistema insegue il soggetto tracciato commutando da un sensore a quello adiacente indicato in fase di configurazione.
Nei sistemi di video sorveglianza più evoluti, come quelli noti dalle domande di brevetto US2003/0085992 e WO2005/120071, questo tipo di configurazione fa si che selezionando un’area dell’ambiente attraverso un monitor, il sistema richiama automaticamente il segnale video della telecamera associata all’area.
In tutti i casi, nei sistemi di sorveglianza noti si pone il problema che l’eventuale rottura di un sensore non permette al sistema di sopperire automaticamente all’assenza del sensore.
Ad esempio se si sta eseguendo un algoritmo di tracking, quando il sistema commuta su una telecamera rotta allora si perde il soggetto tracciato e l’algoritmo si ferma. Altro problema dei sistemi di sorveglianza noti si presenta quando due utenti del sistema (ad esempio due guardie che utilizzando due diverse postazioni di controllo) desiderano visionare una medesima area dell’ambiente sorvegliato. Mentre il segnale video può essere trasmesso ad entrambe le postazioni di controllo, il controllo della telecamera principale può essere concesso solo ad un utente (tipicamente scelto in base a criteri di priorità). In questo caso il secondo utente deve individuare autonomamente una diversa telecamera e controllarla manualmente.
In sistemi di grandi dimensioni, con una molteplicità di sensori e di telecamere, la ricerca della telecamera può rivelarsi un compito complesso.
Altro svantaggio dei sistemi di sorveglianza noti risiede nella complessità della fase di configurazione, in cui l’installatore deve indicare al sistema quale sensore sta monitorando una certa area dell’ambiente e quali sono i sensori adiacenti che coprono la frontiera dell’area monitorata. Un esempio di tale procedura è noto dalla domanda di brevetto US2003/0085992, secondo la quale per ogni scena ripresa da una telecamera, l’installatore deve indicare al sistema il nome della camera che sta effettuando la ripresa e costruire una tabella indicando quale telecamera copre la frontiera a nord, quale telecamera copre la frontiera a sud, e così via.
Una tale configurazione risulta svantaggiosa e di difficile implementazione nel caso di sistemi di sorveglianza di grandi dimensioni con un notevole numero di sensori.
Per superare tale inconveniente, è noto dal brevetto US 6,437,819, una procedura di set-up che permette di evitare l’inserimento manuale (e quindi soggetto ad errori) dei nomi dei sensori e delle adiacenze tra i sensori.
La procedura di setup prevista dal brevetto US 6,437,819 presenta tuttavia lo svantaggio di richiedere la presenza di un installatore che compia un opportuno percorso nell’area monitorata. Questo risulta svantaggioso in scenari in cui l’area da sorvegliare è molto estesa (si pensi a parcheggi, terminal di aereo porti). Inoltre tale procedura non è applicabile nel caso in cui alcune aree non siano accessibili agli installatori, ad esempio nel caso in cui si voglia fare un aggiornamento dei vecchi impianti di sorveglianza di carceri o stabilimenti che lavorano sostanze pericolose.
Scopo della presente invenzione è quello di superare i problemi dei sistemi di video sorveglianza noti.
In particolare, scopo della presente invenzione è quello di migliorare l’affidabilità dei sistemi di sorveglianza, in particolare quelli di videosorveglianza, che permetta un adattamento dinamico del sistema nel caso in cui un sensore non possa essere utilizzato dal sistema.
Questo scopo è raggiunto mediante un metodo ed un sistema di sorveglianza incorporante le caratteristiche delle rivendicazioni allegate, le quali formano parte integrante della presente descrizione.
L’idea alla base della presente invenzione prevede una fase di configurazione che mette al centro del sistema l’ambiente, non i sensori.
La fase di configurazione secondo l’invenzione prevede che inizialmente l’installatore crei un modello dell’ambiente individuando una pluralità di aree dell’ambiente, ad esempio parcheggio, ingresso principale, ecc…
Ad ogni area l’installatore associa almeno un sensore in una o più delle posizioni che questo può assumere (posizioni di pre-set) ed assegna ad ogni posizione un giudizio di sorveglianza dell’area.
Il giudizio di sorveglianza corrisponde preferibilmente ad una stima della probabilità di rilevare mediante il sensore un evento nell’area associata e permette, nella fase operativa, una selezione intelligente dei sensori per il monitoraggio dell’ambiente. Nel caso di telecamere il giudizio di sorveglianza corrisponde sostanzialmente ad un giudizio di visibilità dell’area ripresa nella posizione di preset considerata.
Durante la fase operativa, per eseguire una funzione di sorveglianza di un area da monitorare, il sistema di controllo del sistema di sorveglianza individua tra i sensori installati quelli utilizzabili (ad esempio perché non rotti o non impegnati da altri utenti) per eseguire la funzione di sorveglianza.
Verificati i sensori utilizzabili, il sistema di controllo controlla uno o più dei sensori utilizzabili basandosi sul modello creato in fase di configurazione del sistema e sui giudizi di sorveglianza assegnati dall’operatore alle varie posizioni di preset dei sensori.
In questo modo si rende possibile una associazione dinamica tra aree da monitorare e sensori: se un sensore che insiste sull’area d’interesse non è disponibile (perché rotto od impegnato da un altro utente), tale sensore non viene preso in considerazione e il sistema di controllo seleziona di un secondo sensore nella configurazione che meglio permette di monitorare l’area d’interesse.
Anche in caso di guasto di un sensore, il sistema riorganizza i rimanenti sensori posizionandoli in modo tale da ottimizzare la probabilità di rilevare un evento nell’ambiente con i sensori a disposizione. Ciò in particolare è reso possibile perché la scelta del sensore non dipende solo dalla sua associazione all’area d’interesse, ma anche dai giudizi di sorveglianza che, come detto, sono rappresentativi della probabilità di rilevare un evento mediante il sensore.
In particolare tali giudizi di sorveglianza possono essere utilizzati per la selezione del sensore secondo una metodologia euristica, ad esempio che prevede di assegnare al task di sorveglianza di una cella il sensore disponibile con giudizio di sorveglianza più alto.
Queste soluzioni permettono di ridurre la complessità computazionale degli algoritmi utilizzati per gestire i sensori.
Alternativamente il metodo secondo l’invenzione prevede che i sensori vengano configurati in modo tale da massimizzare una probabilità di rilevare un evento fissata l’area da monitorare o i vincoli sui sensori disponibili.
Ciò permette di ottimizzare la sorveglianza.
Preferibilmente poi il sistema di sorveglianza ha un’architettura distribuita con una pluralità di calcolatori che si parlano attraverso una rete. Ad ogni calcolatore è associato un insieme di sensori.
Questo riduce (statisticamente) il numero di algoritmi che un singolo calcolatore si trova a dover eseguire simultaneamente, ad esempio per gestire più task richiesti a differenti sensori da lui gestiti.
Nella soluzione preferita i calcolatori sono integrati nei sensori, che diventano quindi intelligenti ed in grado di comunicare tra loro per selezionare automaticamente la loro configurazione ottimale per eseguire i task richiesti dall’operatore.
Ulteriori scopi e vantaggi risulteranno maggiormente dalla descrizione che segue e dai disegni allegati, forniti a puro titolo esemplificativo e non limitativo, in cui:
- la figura 1 mostra un sistema di video sorveglianza secondo la presente invenzione;
- le figure 2a , 2b e 2c mostrano un modello dell’ambiente utilizzato dal sistema per l’attivazione delle telecamere.
- le figure 3a e 3b mostrano un modello dell’ambiente utilizzato dal sistema per l’attivazione delle telecamere.
Architettura del sistema di sorveglianza
In figura 1, con il numero di riferimento 1 è mostrato schematicamente un’ ambiente da sorvegliare. L’ambiente 1 è costituito da un edificio 100 e da un cortile esterno 200.
All’interno dell’ambiente 1, sono individuate delle aree di particolare interesse:
- un ingresso dell’edificio: area C1;
- un parcheggio P1: area C2;
- un parcheggio P2: area C3;
- un cancello d’ingresso: area C4;
Le aree C1-C4, sono sorvegliate mediante quattro telecamere S1-S4 ed un sensore volumetrico S5 disposti nell’ambiente da sorvegliare.
Il numero di aree in cui è diviso l’ambiente ed il numero di sensori (telecamere e non) non è limitativo dell’invenzione, ma dipende dalle scelte dell’installatore.
Le telecamere S1-S4 possono essere di tipo fisso o di tipo mobile, in particolare di tipo PTZ (pan/tilt/zoom). Nell’esempio di figura 1, le telecamere S1 e S3 sono fisse e riprendono solo le rispettive aree C1 ed C3, mentre le telecamere S2 e S4 sono PTZ in grado di riprendere rispettivamente le aree C1-C2 ed C3-C4.
Il sensore volumetrico S5 è fisso e trasmette un segnale di allarme nel caso in cui rileva un movimento all’interno dell’edificio 100, ad esempio perché si apre la porta dell’ingresso C1.
I sensori sono collegati ad una rete dati 2 attraverso la quale scambiano segnali con la postazione di controllo 3, ad esempio le telecamere S1-S4 trasmettono le immagini riprese.
La rete dati 2 può essere una rete LAN di tipo cablato, ma chiaramente tale rete dati può comprendere elementi di tipo Wireless in modo da rendere più semplice l’installazione delle telecamere.
La postazione di controllo 3 comprende un elaboratore 31 che riceve le immagini trasmesse dalle telecamere e le visualizza su opportuni mezzi di visualizzazione 32 atti a visualizzare simultaneamente una pluralità di immagini 33.
Preferibilmente i suddetti mezzi di visualizzazione possono comprendere una pluralità di schermi, oppure un unico schermo sul quale vengono visualizzate più immagini accostate una all’altra (soluzione nota come multiplexing).
La postazione di controllo 3 comprende poi componenti di per sé noti, come una tastiera 34, un mouse 35 ed un joistick 36 utilizzato dalla guardia per controllare le telecamere PTZ variandone angoli di orientamento, direzione e zoom.
Questi componenti, così come i mezzi di visualizzazione, sono collegati all’elaboratore 31 il quale è quindi provvisto di opportune interfacce per la loro connessione, come ad esempio un’interfaccia per il joistick 36, interfacce video per trasmettere ai mezzi di visualizzazione 32 le immagini ricevute dalle telecamere S1-S4, e una interfaccia di rete attraverso la quale trasmettere i dati di controllo alle telecamere.
Tale interfaccia d’utente, insieme con la tastiera, il joistick ed il mouse, permettono all’utente di selezionare e controllare le telecamere, attivando così il trasferimento di una immagine da una o più telecamere ai mezzi di visualizzazione 32.
Attraverso la selezione di una delle aree C1-C4, ad esempio il parcheggio P2, viene attivato il trasferimento di una immagine da una telecamera, ad es. S2, la quale viene associata automaticamente all’area selezionata secondo un criterio predeterminato che, come descritto nel seguito, è volto a massimizzare la probabilità di individuare un evento anomalo in un’area di interesse. I dettagli dell’interfaccia che permette il richiamo delle telecamere è descritto più avanti in un capitolo dedicato.
Nell’esempio di figura 1 l’architettura del sistema è del tipo concentrato, con un unico elaboratore 31 che esegue l’algoritmo di calcolo necessario per il controllo dei sensori e l’esecuzione di funzioni di sorveglianza quali tracking di soggetti in movimento nell’ambiente, registrazione di porzioni video, rilevazione automatica di eventi. Altre soluzioni sono comunque possibili come ad esempio una realizzazione del sistema di sorveglianza secondo un sistema distribuito come quello descritto più avanti nel capitolo “Variante con architettura distribuita del sistema di controllo”.
Configurazione del sistema
Secondo l’invenzione, durante la fase di configurazione del sistema di sorveglianza, si crea un modello dell’ambiente individuando le aree C1-C4 di interesse dell’ambiente e le adiacenze tra queste ultime.
Nel seguito le aree del modello verranno anche chiamate celle per evitare confusione con le aree fisiche dell’ambiente.
Successivamente, ad ogni cella C1-C4 si associa uno o più sensori in grado di monitorare almeno una porzione dell’area corrispondente alla cella.
In particolare, dato che per le telecamere PTZ possono assumere una pluralità di posizioni, ad ogni cella viene associata non solo una telecamera, bensì una telecamera in una data posizione (detta ‘preset’).
Chiaramente nel caso di telecamere o sensori fissi è prevista un’unica posizione predeterminata fissata in fase di installazione del sensore.
In fase di configurazione, i sensori vengono attivati sequenzialmente.
Per ogni telecamera o sensore mobile, l’operatore definisce quelle che saranno le posizioni di pre-set del sensore mobile che meglio soddisfano le sue esigenze di sorveglianza dell’ambiente.
Per ogni posizione di pre-set l’operatore associa, attraverso i mezzi di selezione, il sensore ad un area dell’ambiente ed assegna un giudizio di sorveglianza (ad esempio espresso mediante un valore compreso tra 0 a 1) indicativo della bontà dell’immagine ripresa.
Il giudizio di sorveglianza corrisponde ad una stima della probabilità di rilevare mediante detto sensore un evento nella cella cui è associato il sensore in una determinata posizione di pre-set.
Questo consente, nella fase operativa, di controllare i sensori posizionandoli nelle posizioni di pre-set che massimizzano la probabilità di sorvegliare l’ambiente. Gli esempi delle figure 2a-2c e 3a-3b mostrano due modelli diversi dell’ambiente che vengono utilizzati dall’interfaccia d’utente per presentare all’installatore l’ambiente da sorvegliare e permettere la selezione dell’area.
Con riferimento all’esempio delle figure 2a, 2b e 2c, il programma che realizza l’interfaccia d’utente permette di definire una lista di celle e i relativi collegamenti tramite una interfaccia grafica che permette di disegnare un grafo in cui le celle sono rappresentate come dei nodi collegati da archi.
Vantaggiosamente la disposizione dei nodi nello spazio è libera, quindi in fase di configurazione l’operatore può disporli in modo tale da ricordare la dislocazione geografica delle aree da monitorare, così che in fase operativa risulti immediato per la guardia il ritrovare l’area da sorvegliare.
Alternativamente, in una soluzione meno pesante dal punto di vista computazionale, ma leggermente meno userfriendly, la definizione delle aree e dei relativi collegamenti può avvenire in modalità testo.
Tornando all’esempio di figura 2a-2c, in fase di configurazione l’operatore realizza il modello dell’ambiente, dopo di che attiva sequenzialmente i sensori (ad esempio attiva una ciclata delle telecamere). Per ogni sensore l’operatore verifica l’area monitorata (ad esempio vede a video l’immagine ripresa da una telecamera) e crea un collegamento con le aree del modello, assegnando un giudizio di sorveglianza.
Il collegamento sensore area può essere realizzato disegnando un link tra l’icona che rappresenta il sensore e il blocco che rappresenta l’area inquadrata.
In questo modo si crea un grafo celle sensori come mostrato in figura 2c.
Il preset del sensore e il giudizio di sorveglianza vengono memorizzati dal software in un database del sistema di controllo.
Nell’esempio di figura 3a-3b, il modello dell’ambiente è costituito da una mappa dell’area da sorvegliare.
La mappa, mostrata in figura 3a, può essere costruita elettronicamente dall’operatore attraverso comuni programmi di grafica, oppure può essere un file di grafica importato.
Nella soluzione di figura 3a-3b, in fase di configurazione l’operatore seleziona un sensore e, per ogni posizione di pre-set, segna sulla mappa l’area monitorata, come mostrato in figura 3b, e associa un giudizio di sorveglianza, ad esempio tramite la tastiera 34 o selezionando un valore a video attraverso il mouse 35.
Selezionando a video un gruppo di pixel corrispondenti all’area monitorata dal sensore, il software crea automaticamente le celle del modello e le relative adiacenze.
In una forma di realizzazione, ad ogni selezione di pixel corrisponde una cella del modello.
I gruppi di pixel vicini sono celle adiacenti.
In una forma di realizzazione preferita, gruppi di pixel sufficientemente sovrapposti sono raggruppati in un’unica cella.
Il criterio per stabilire se raggruppare o meno in un’unica cella i due grppi di pixel viene stabilito in fase di programmazione: se due gruppi di pixel si sfiorano può infati essere preferibile mantenere separate le due celle.
L’informazione geometrica associata a ogni cella (area, forma) e l’informazione di direzione di transito tra le celle sono estratte automaticamente.
Nella mappa possono essere inserite barriere che vengono considerate nel calcolo delle adiacenze; per esempio due stanze non comunicanti non sono adiacenti.
Altre informazioni (etichette delle celle, mobilità delle aree, barriere dipendenti dalle fasce orarie, orientazione degli archi…) possono essere aggiunte dall’utente una volta che il modello è costruito.
Al termine della configurazione il sistema di controllo elabora un grafico celle/sensori come quello di figura 2c.
Algoritmo di copertura ottima
Terminata la configurazione, il sistema di controllo è pronto ad iniziare la fase operativa di sorveglianza dell’ambiente.
Data un’area di interesse e un insieme di sensori, si vuole monitorare tale area selezionando i sensori opportuni e controllandoli in modo ottimo.
Ciò si traduce in termini di massimizzazione della probabilità di rilevare un evento anomalo che si verifica in una data area d’interesse.
In particolare si suppone ora che l’area d’interesse sia un insieme di N celle del modello dell’ambiente costruito in fase di configurazione.
Si indica con Ciil verificarsi dell’evento anomalo nella cella i.
L’impianto di sorveglianza è composto da M sensori e si indica con xjla posizione del sensore j.
In particolare per sensori PTZ (Pan Tilt Zoom), la posizione assume valori in un insieme discreto finito di valori detti preset.
Un sensore fisso può essere trattato come un particolare sensore PTZ con un unico preset.
In generale la posizione di un sensore può assumere valori in un dominio continuo e comprendere coordinate geografiche per sensori collocati su mezzi mobili (auto pattuglia, robot…).
Detto D il rilevamento di un evento, con la seguente espressione
(1)
si indica la probabilità di rilevamento di un evento anomalo condizionata al fatto che l’evento si verifichi in una (e una sola) delle N celle associate alla porzione d’ambiente da monitorare e al fatto che gli M sensori si trovino in determinati preset xj.
Il problema della copertura ottima di una data area si traduce quindi nel voler cercare la configurazione ottima di sensori che massimizza la suddetta probabilità. Tale configurazione è esprimibile come:
(2)La probabilità di rilevamento si può scrivere nella seguente forma:
(3)
Nel ricavare l’espressione precedente si sfrutta l’osservazione immediata che il verificarsi di un evento nella cella i è indipendente dalla posizione degli M sensori ovvero p(Ci|x1,KxM) = p( Ci) .
La probabilità p(Ci) che l’evento si verifichi in una data cella i può essere proporzionale alle dimensioni dell’ area corrispondente e alla criticità che caratterizza la cella dal punto di vista della sorveglianza.
Nel seguito per semplicità si assume che tutte le aree del modello siano equi probabili e l’espressione per la probabilità di rilevamento diventa:
(4)
Dove p(D|Ci,x1, K xM) è la probabilità di detection di un evento dato che l’evento si verifica nella cella i e che i sensori si trovano in determinati preset . x j.
Si consideri il caso in cui la data cella sia vista da un unico sensore dell’impianto di sorveglianza, sia questo per esempio il sensore 1.
Si ha allora ovvero il rilevamento nella cella i non dipende dalla posizione dei sensori che non monitorizzano la cella i.
si assume essere il giudizio di sorveglianza assegnato dall’installatore in fase di configurazione del sistema di sorveglianza. Nel dettaglio, tale giudizio di sorveglianza sarà quello assegnato al sensore 1 in posizione x1nell’associarlo alla cella i.
Ragionevolmente, se il giudizio di sorveglianza è alto allora è alta la probabilità di rilevare un evento nella data area del modello. Viceversa, se il voto fosse zero, sarebbe impossibile (probabilità nulla) fare detection nella data cella con il sensore 1 nel preset x1.
Si consideri ora il caso in cui una cella i sia vista da molteplici sensori in opportuni preset.
Al fine di agevolare il più possibile l’installatore, la procedura di configurazione prima descritta non fornisce informazioni di sorveglianza congiunte.
Per questo motivo, in assenza di tali informazioni si considera il caso peggiore: si individua il sensore con la massima visibilità e si assume che gli altri sensori non aggiungano informazione in grado di aumentare la visibilità della data area del modello. Si ha quindi:
(5)
Si consideri il seguente esempio. Si hanno due sensori s1 e s2 che posizionati in x1ex vedono una data cella 2 Cicon voti di visibilità 0.8 e 0.6 rispettivamente.
Si assume che gli altri sensori non vedano la data cella in nessun preset oppure siano posizionati in preset che non vedono la data cella.
Si ha quindi
e quindi dall’espressione precedente
Sviluppando la (4) sulla base di questa ipotesi, si ha quindi:
(6)
con p(D|Ci, xj) giudizio di sorveglianza con cui il sensore j nel preset xjmonitorizza la cella Ci. L’espressione appena ricavata quantifica in modo rigoroso la qualità della copertura di una data area e permette quindi di confrontare diverse configurazioni di sensori utilizzati a tale scopo.
La configurazione ottima x<ˆ>1,x<ˆ>2,...,x<ˆ>Mpuò essere cercata tra tutte le configurazioni possibili come spiegato di seguito.
L’algoritmo che permette di trovare la configurazione ottima parte dall’informazione contenuta nel grafo celle sensori (fig. 2c) elaborato in fase di configurazione del sistema di sorveglianza.
Per ogni cella vi sono uno più archi che legano la cella ai sensori che la monitorano.
Per ogni arco si ha l’informazione di preset del sensore. Considerando tutte le celle dell’area da coprire si può costruire quindi l’insieme di sensori da utilizzare per la copertura con i relativi preset.
La configurazione ottima x<ˆ>1,x<ˆ>2,...,x<ˆ>Mdei sensori è quella che massimizza la probabilità di detection, quindi in una soluzione preferita l’algoritmo procede calcolando la (6) per ogni combinazione dei sensori e sceglie quella con probabilità di detection più alta.
Questo risulterà chiaro dal seguente esempio: sono date tre celle C1,C2eC3; la cella C1è vista dal sensore 1 nel 1
preset x1, la cella C2è vista dal sensore 2 nel preset x 1
2e nel preset x 2
2e la cella C3dal sensore 2 nel preset x 2
2.
Lo spazio delle possibili configurazioni è formato dalle coppie
1 Chiaramente una configurazione come (x 1
1,x 2, x<2>
2) non è accettabile in quanto in un certo istante temporale un dato sensore si può trovare in una e una sola posizione. Determinate le due configurazioni possibili, l’algoritmo calcola le probabilità di detection corrispondenti alle due configurazioni.
Si assuma che tutti i giudizi di sorveglianza siano tutti 2
uguali ad 1 tranne quello del preset x2pari a 0.8 (che vede 2 celle ma con qualità minore).
In queste condizioni la prima configurazione (x 1<1>
1, x2) ha una probabilità di rilevare un evento anomalo nell’ambiente pari a
La seconda configurazione (x 1,<2>
1x2) ha invece una probabilità di rilevare un evento anomalo nell’ambiente pari a
L’algoritmo confronta quindi le due probabilità di detection calcolate e sceglie la configurazione (x 1
1, x<2>2), ossia quella che massimizza la probabilità di rilevare un evento in un’area data, che in questo caso corrisponde all’intero ambiente.
Per quanto sopra appare chiaro che nel caso il numero di possibili configurazioni sia molto elevato, la ricerca della configurazione ottima può risultare computazionalmente molto pesante.
In questo caso si possono applicare metodi di ricerca operativa per ottenere una soluzione sub ottima.
Questi metodi, pur basandosi sui giudizi di sorveglianza e sul grafo celle sensori, minimizzano una opportuna funzione costo ricavata dalla probabilità di detection. Alternativamente per ridurre la complessità computazionale, si possono anche introdurre delle metodologie euristiche, per esempio si può scegliere di posizionare i sensori nella posizione che presenta il giudizio di sorveglianza più alto o in modo da monitorare una o più celle che sono viste solamente da quel sensore. Una volta fissate, queste metodologie euristiche prescindono dal calcolo della probabilità di detection, anche se questa probabilità può essere utilizzata per comparare le performance delle diverse metodologie euristiche durante la fase di progettazione dell’algoritmo: nel caso siano proposte più metodologie euristiche, il calcolo della probabilità di detection permette di stabilire quale tra le configurazioni propste dalle metodologie euristiche è più adatta alla rilevazione di eventi.
Copertura ottima con il numero minimo di sensori Al problema della copertura ottima visto nel capitolo precedente può essere aggiunto il vincolo di utilizzare il minimo numero di sensori possibile.
L’algoritmo di calcolo della copertura ottima con il numero minimo di sensori, si basa anch’esso sull’ipotesi che la probabilità di rilevare un evento in una cella non aumenta all’aumentare del numero di sensori impiegati per la copertura della cella. Si assume cioè che:
(7) L’algoritmo considera quindi solamente il sensore con giudizio di sorveglianza massimo tra tutti quelli che vedono la stessa cella.
I sensori con voto inferiore sono considerati ridondanti. Nonostante dal punto di vista pratico aggiungere informazioni da più sensori (ad esempio aggiungere inquadrature di un’area) possa invece migliorare in qualche modo la sorveglianza, vi sono situazioni in cui è importante evitare di ricevere informazioni ridondanti: un operatore al quale viene presentata informazione ridondante valuta con maggiore difficoltà e lentezza ciò che accade nella scena monitorata.
Non meno importante, in un sistema multi utente e multi task l’impiego del numero minimo di risorse aumenta la possibilità di servire più operatori e task contemporaneamente.
Per trovare la soluzione ottima in presenza del vincolo appena discusso si considerano tutti i possibili sotto insiemi dell’insieme complessivo di sensori da utilizzare per la copertura ottima.
Per ogni sotto insieme si ricerca la configurazione di preset ottima come esposto nel precedente capitolo “Algoritmo di copertura ottima”.
La soluzione al problema corrente è costituita dall’insieme a cardinalità minima a cui corrisponde la massima probabilità di detection.
Si osserva che non è necessario considerare tutti i possibili sotto insiemi di sensori: quando la probabilità di detection della soluzione ottima cercata nei sotto insiemi di sensori di cardinalità N è uguale alla probabilità di detection ottima cercata nei sotto insiemi di cardinalità N-1 allora la soluzione ottima è una configurazione di N-1 sensori.
Vantaggiosamente, quindi, il metodo prevede che la soluzione al problema della copertura ottima venga cercata per sotto insiemi di sensori a cardinalità crescente.
Copertura ottima tempo variante
Si consideri la situazione in cui la soluzione ottima non fornisca la copertura di tutto l’ambiente, ad esempio perché il numero di sensori disponibili è piuttosto ridotto.
Per sorvegliare tutto l’ambiente, si procede con un task detto ‘patrol’ che prevede le fasi qui di seguito descritte.
Inizialmente viene calcolata la configurazione che massimizza la probabilità di rilevare un evento nell’ambiente; ciò viene ottenuto mediante l’algoritmo di copertura ottima di cui all’omonimo capitolo.
Per effetto di tale algoritmo i sensori si posizionano in modo da monitorare un numero X di celle inferiore alla totalità delle celle (ipoteticamente in numero N).
Questa configurazione viene mantenuta per un tempo predeterminato, dopo di che si procede ad applicare l’algoritmo di copertura ottima alle N-X celle che non erano monitorate con i sensori nella configurazione precedentemente calcolata.
La nuova configurazione dei sensori viene mantenuta per un tempo predeterminato, preferibilmente impostato dall’operatore.
Nel caso in cui la nuova configurazione non copra tutte le celle, allora il metodo prevede di applicare nuovamente l’algoritmo di copertura ottima alle celle rimanenti e mantenere la nuova configurazione per un tempo predeterminato.
La procedura viene ripetuta fino alla copertura di tutte le celle.
E’ possibile che nel massimizzare la probabilità di rilevare un evento in un numero via via decrescente di celle, ci siano delle configurazioni in cui alcuni sensori sono ridondanti, per questo motivo può essere vantaggioso utilizzare l’algoritmo di copertura ottima col vincolo di utilizzare il numero minimo di sensori. In questo modo i sensori ridondanti per la copertura delle celle selezionate vengono usati per la copertura delle celle già viste in qualche step precedente, così da massimizzare la probabilità di detection nell’ambiente. Come esposto in dettaglio nel seguito, negli impianti di video sorveglianza tradizionali il patrol funziona a sensori indipendenti che ciclano sui rispettivi preset e non cooperano per coprire l’area monitorata.
Copertura ottima di frontiera
Nei sistemi di sorveglianza, una funzione utilizzata è quella del target tracking, ossia dell’inseguimento (‘tracking’) di un obiettivo (‘target’) in movimento nell’ambiente sorvegliato.
La cella occupata dal target è detta attiva e le celle adiacenti sono chiamate celle di frontiera.
L’adiacenza tra le celle è definita dal grafo celle sensori costruito in fase di configurazione del sistema. Per non perdere il target, mentre un sensore è posizionato sulla cella attiva gli altri vengono configurati per eseguire la copertura ottima dell’area di frontiera.
L’algoritmo di copertura ottima della frontiera ha lo scopo di massimizzare la seguente probabilità:
(8)
Tale probabilità corrisponde alla probabilità di rilevare un evento condizionata al fatto che l’evento proviene dalla cella k e si verifica in una delle N celle di frontiera Cidella cella k e al fatto che gli M sensori si trovino in determinate posizioni xj.
Fatte le analoghe premesse esposte per il calcolo della copertura ottima, la probabilità di detection è data dalla seguente relazione:
<(9)>dove p(D|Ci, xj) è il giudizio di sorveglianza del sensore j nel preset xjche guarda la cella Ci, mentre p(Ci| Ck) è la probabilità che il target transiti dalla cella attiva alla cella i di frontiera che si assume esistente.
Secondo una forma di realizzazione preferita, quando si crea il modello dell’ambiente nella fase di configurazione, si indicano le probabilità di transizione da una cella ad un altra.
Queste probabilità corrispondono alle p(Ci| Ck) della formula sopra riportata.
Se l’informazione sulla probabilità di transitare da una cella ad una adiacente non viene fornita, come nell’esempio di realizzazione descritto con riferimento alle figure 2a-2c e 3a-3b, allora le p(Ci| Ck) sono tutte uguali e la relazione per il calcolo della probabilità di rilevare l’evento nelle celle di frontiera è data da:
(10)
Infine, essendo la copertura di frontiera un particolare problema di copertura ottima, anche questa può essere affrontato con metodologie di copertura tempo variante affini a quella descritta nel capitolo “Copertura ottima tempo variante”.
Cooperazione e riconfigurabilità dinamica dei sensori In un dato impianto di sorveglianza, l’insieme di sensori che possono partecipare a un task di copertura ottima di una data area varia nel tempo per le diverse priorità dei task che devono essere eseguiti e dei molteplici operatori che li richiedono.
A titolo di esempio, è possibile che, mentre il sistema sta eseguendo una funzione ‘patrol’ per il controllo dell’ambiente, un operatore richieda il controllo di una telecamera; se l’operatore ha priorità sulla procedura automatizzata di patrol, è chiaro che tale procedura deve essere eseguita facendo a meno della telecamera controllata dall’operatore.
Inoltre è possibile che alcuni sensori si rompano e che quindi il set di sensori a disposizione vari nel tempo. Per far fronte a queste situazioni il sistema calcola la configurazione ottima per la copertura di una data area ogni qualvolta l’insieme di sensori che partecipano alla copertura varia.
Quando ad esempio il numero di telecamere utilizzabili per un task diminuisce, le telecamere rimaste a coprire la data area verranno controllate in modo da avere inquadrature con zoom più ampi, oppure verranno controllate secondo una procedura di copertura tempo variante (sopra esposta) variando nel tempo le inquadrature in modo da coprire tutte le celle.
In quest’ultimo caso, il tempo di permanenza dei sensori in una data configurazione può essere ridotto in modo da garantire una adeguata copertura.
Viceversa, nel caso i sensori aumentino ci saranno invece configurazioni dei sensori volte a coprire aree più ristrette, es. telecamere con zoom più spinti, ed aumenta il tempo di permanenza di ogni sensore in un determinato preset.
Il metodo di sorveglianza secondo l’invenzione permette quindi la riconfigurazione dinamica dei sensori.
Il sistema di controllo del sistema di sorveglianza, sia esso di tipo concentrato (come in figura 1) o di tipo distribuito (come descritto nel seguito nel capitolo “Variante con architettura distribuita del sistema di controllo”) verifica quali sensori sono disponibili per eseguire dei task e decide a quale task devono partecipare.
Ad esempio nel caso si stia eseguendo il tracking di un evento, una volta individuato il target nella cella attiva, i sensori che monitorizzano la frontiera vengono configurati in modo tale da coprire al meglio la frontiera. Questi sensori vengono quindi controllati secondo un algoritmo di copertura ottima della frontiera. I rimanenti sensori vengono invece dedicati al task di copertura ottima delle rimanenti celle e vengono quindi configurati in modo tale da massimizzare la probabilità di rilevare un evento nelle celle rimanenti.
La configurazione dinamica dei sensori è resa possibile dal fatto che si formula il problema della copertura in funzione dell’ambiente e del grafo celle sensori, non sulle adiacenze tra sensori.
Questo approccio introduce dei gradi di libertà nella scelta dei sensori in quanto ci sono diversi modi di coprire un’area utilizzando diversi sensori in diverse configurazioni.
Questi gradi di libertà permettono di gestire le situazioni in cui i sensori partecipanti al task di copertura variano.
La copertura di frontiera è una forma di cooperazione più ampia che oltre alla cooperazione per la copertura ottima di frontiera comprende la cooperazione tra il sensore attivo e i sensori di frontiera. Al variare del sensore attivo o della posizione di un dato sensore attivo varia la frontiera e con essa i sensori che la coprono con la relativa configurazione. Questa funzionalità è detta navigazione assistita e viene presentata nel dettaglio nel paragrafo successivo.
NAVIGAZIONE ASSISTITA
Il sistema di sorveglianza secondo l’invenzione esegue una funzione detta ‘navigazione assistita’ che permette un semplice ed efficace inseguimento di obiettivi in movimento all’interno dell’ambiente.
Il problema di inseguire gli spostamenti di un obiettivo, noto come target tracking, è di difficile soluzione e come noto presenta una serie di problematiche legate alla selezione della camera attiva (quella che inquadra l’obiettivo) e alla commutazione dalla camera attiva a quella che deve essere attivata per continuare l’inseguimento dell’obiettivo.
La funzione di navigazione assistita si presenta come soluzione ai suddetti problemi.
Una volta che viene individuato un evento (automaticamente o dall’operatore), l’operatore seleziona la camera che riprende l’evento ed attiva la funzione di navigazione.
L'algoritmo di navigazione assistita rileva il sensore scelto dall'operatore (sensore attivo) identificandolo e ricavandone i dati di posizionamento (orientazione nello spazio).
Tramite il grafo celle/sensori costruito in fase di configurazione, l'algoritmo di navigazione determina la porzione dell’ambiente monitorata al momento corrente dal sensore attivo (regione attiva) calcolando l'insieme delle celle che formano la regione attiva.
Nel caso in cui il sensore che monitorizza la cella attiva sia controllato manualmente dall’operatore, ad esempio è il caso di un sensore PTZ, questo può trovarsi in una posizione diversa da quelle di preset registrate in fase di configurazione; questo perché il PTZ può muoversi sostanzialmente tra un continuo di posizioni, mentre il metodo secondo l’invenzione prevede (in fase di configurazione) la registrazione di un numero discreto di posizioni.
Basandosi su un’opportuna metrica, l’algoritmo stima la posizione di preset più vicina alla posizione impostata dall’operatore.
A partire dalla posizione di preset così calcolata, l’algoritmo ricava poi la frontiera della regione attiva, cioè l'insieme delle celle non appartenenti alla regione attiva e adiacenti ad essa.
Il calcolo delle celle attive e della frontiera è dinamico, quindi se il sensore attivo varia la sua posizione l'algoritmo di navigazione assistita ripete il calcolo e aggiorna di conseguenza la frontiera.
Utilizzando l'algoritmo di copertura ottima della frontiera, l'algoritmo di navigazione assistita sceglie i sensori più adatti e li posiziona in modo da massimizzare il monitoraggio della frontiera della regione attiva. Questa procedura seleziona tra tutti i sensori dell'impianto solo quelli che potenzialmente possono rilevare il target quando questo uscisse dalla regione attiva, cioè dal campo di azione del sensore attivo. Nel caso in cui i sensori sono telecamere, la funzionalità di navigazione assistita prevede la visualizzazione contemporanea della vista della camera attiva e delle viste delle camere che monitorano la frontiera (camere adiacenti).
Quando il target esce dal campo di visibilità della camera attiva se la frontiera è totalmente monitorata esso apparirà in una delle viste delle camere adiacenti. L'individuazione del target in una delle viste adiacenti è una operazione semplice per un operatore, che può quindi facilmente individuare la nuova telecamera attiva ed eventualmente prenderne il controllo.
Vantaggiosamente le immagini riprese dalle telecamere vengono visualizzate su un touch screen.
In questa forma di realizzazione, l'operatore toccando sullo schermo la vista contenente il target genera un segnale che viene utilizzato dall'algoritmo di navigazione assistita per identificare la telecamera responsabile della vista selezionata ed utilizzare tale informazione per eseguire i passi dell’algoritmo sopra esposti.
Nel caso in cui la frontiera non sia monitorata completamente, la probabilità che il target venga perso viene minimizzata facendo in modo che i sensori non impegnati nel task di navigazione siano invece impegnati in un task di copertura ottima delle rimanenti celle.
CICLATA PER AREA
Un’altra funzione offerta dal sistema di sorveglianza della presente invenzione è quella della ciclata per area.
Questa funzione permette di superare gli inconvenienti delle sequenze di ciclata note, le quali prevedono di mostrare una alla volta le immagini riprese dalle telecamere dell’impianto secondo una sequenza fissata da un operatore in fase di configurazione.
Il metodo secondo l’invenzione prevede che in fase di configurazione l’operatore scelga l'area da monitorare con la ciclata.
La scelta dell'area può avvenire evidenziando parte di una mappa elettronica oppure indicando l'insieme di celle che formano l'area di interesse.
In questa fase l'operatore indicherà solo l'area da monitorare, la durata delle viste e opzionalmente la direzione di copertura.
Preferibilmente l’operatore non darà indicazioni sui sensori che devono formare la sequenza; è tuttavia ammesso che l'operatore dia dei vincoli sulla scelta di uno o più sensori.
Sulla base di queste informazioni il metodo prevede l’esecuzione dell'algoritmo di copertura ottima con il vincolo di utilizzare solamente telecamere e preferibilmente con il vincolo di utilizzare il minimo numero di telecamere, individuando così una configurazione di telecamere che copre l'area indicata dall'operatore.
L’algoritmo di copertura ottima, come precedentemente discusso, tiene conto delle priorità e della disponibilità dei sensori: se un sensore è impegnato in un altro task l'algoritmo esegue i calcoli considerando solo i sensori disponibili.
Il calcolo dei sensori è dinamico e funzione delle attività in cui i sensori sono utilizzati.
Dopo aver selezionato l’insieme dei sensori che parteciperanno alla ciclata, è necessario determinare l’ordinamento temporale della sequenza di immagini che devono essere visualizzate.
In una forma di realizzazione l’operatore indica un ordine di ripresa delle celle associate all’area da monitorare con la ciclata.
Nella forma di realizzazione preferita, l’algoritmo di ciclata per area prevede un’ultima fase di calcolo per determinare l’ordinamento temporale secondo il quale i sensori devono essere attivati.
Quest’ultimo calcolo viene effettuato utilizzando le informazioni sulle posizioni dei sensori contenute nel grafo celle/sensori.
Preferibilmente l'algoritmo prevede di dare continuità spaziale alle diverse viste e quindi sensori che puntano a celle adiacenti saranno sensori contigui nella sequenza di ciclata.
Il metodo di ciclata per area sopra descritto consente un calcolo automatico della sequenza di sensori coinvolti nella ciclata, quindi permettendo di superare i limiti di efficienza delle sequenze impostate manualmente dall’operatore.
Inoltre il metodo di ciclata sopra descritto prevede una selezione dinamica dei sensori, per cui si rende possibile eseguire una ciclata sub-ottima che copre l’area d’interesse anche in presenza di conflitti causati dalla multi-utenza e dal multi-tasking, ad es. richiesta contemporanea di due utenti o di due task di un medesimo sensore.
INTERFACCIA D’UTENTE
Per la sorveglianza dell’ambiente, l’invenzione prevede l’uso di un’interfaccia avanzata che permette all’operatore di sorvegliare in modo rapido ed efficace l’intero ambiente.
L’interfaccia presenta all’operatore un modello dell’ambiente sotto forma di grafo celle/sensori (figura 2c) o sotto forma di una mappa elettronica.
Questo consente all’operatore di richiamare le immagini di un’area semplicemente selezionando la corrispondente cella dal grafo celle/sensori o indicandola sulla mappa elettronica mediante il mouse o mediante pressione sullo schermo se si usufruisce di un touch screen.
Questo permette una sorveglianza molto rapida perché la guardia riesce con rapidità ed in modo molto intuitivo a concentrarsi sull’immagine dell’area di interesse.
La selezione dell’utente viene letta dall’interfaccia e trasmessa al sistema di controllo che richiama le immagini (o in generale le informazioni) di uno o più sensori che monitorizzano l’area selezionata.
I sensori vengono selezionati in base all’area selezionata ed in base a delle preferenze dell’operatore, il quale può ad esempio decidere di volere un’inquadratura unica dell’area oppure di voler eseguire una copertura ottima dell’area.
Queste preferenze possono essere impostate ad esempio mediante un menù a tendina che si apre cliccando col tasto destro del mouse sull’area d’interesse.
Variante con architettura distribuita del sistema di controllo
Il sistema ed il metodo di sorveglianza sopra descritti permettono una sorveglianza multi utente e multi task. E’ quindi possibile che in un dato istante temporale vengono richiesti contemporaneamente molteplici task quali la copertura ottima di differenti aree dell’ambiente o che vengano attivate le funzioni sopra descritte di navigazione e di ciclata per area.
E’ chiaro quindi che il sistema deve essere dimensionato in modo tale da avere una potenza di calcolo sufficiente per sostenere la complessità computazionale derivante dall’attivazione simultanea di una molteplicità di algoritmi.
Nel caso di grandi sistemi di sorveglianza con numero elevato di sensori, una tale complessità computazionale può non essere gestibile da un sistema di controllo ad architettura centralizzata come quello descritto in figura 1.
In una forma di realizzazione vantaggiosa, il sistema di controllo che esegue gli algoritmi dei differenti task è quindi di tipo distribuito, ossia è costituito da una pluralità di calcolatori che comunicano tramite una rete dati.
La molteplicità di calcolatori fornisce inoltre un opportuno livello di ridondanza in caso di guasti.
Preferibilmente i calcolatori vengono posizionati in luoghi diversi e distanti per assicurare una maggiore sicurezza contro attacchi mirati alla distruzione fisica dei calcolatori stessi.
Secondo questa forma di realizzazione, il modello dell’ambiente ed il grafo celle/sensori costruito in fase di configurazione viene memorizzato su ogni calcolatore il quale è così in grado di eseguire autonomamente gli algoritmi di copertura sopra descritti.
Ogni calcolatore è associato ad un sotto insieme di sensori (preferibilmente uno) e quindi, tramite il grafo celle/sensori, è in relazione con un sotto insieme di aree dell’ambiente monitorato.
Un calcolatore partecipa ad un task (ad. es. una ciclata o un task di navigazione) relativo ad una data area se uno dei sensori da lui gestiti vede in almeno un preset almeno una delle celle dell’area.
L’elaboratore decide inoltre se uno dei suoi sensori deve partecipare al task anche in funzione delle priorità dei diversi task richiesti. Ad esempio se viene richiesta una ciclata di un’area ed il sensore coinvolto è già impegnato in un task di navigazione, il calcolatore può decidere di non partecipare al nuovo task perché la navigazione ha priorità superiore rispetto alla ciclata. Una volta decisa la partecipazione ad un determinato task un calcolatore ha la necessità di conoscere quali altri sensori parteciperanno al task per eseguire il calcolo della copertura ottima.
Questo è reso possibile per il fatto che ogni calcolatore trasmette attraverso la rete dati a ogni altro calcolatore una informazione riguardante i task sui quali stanno lavorando i sensori da lui controllati.
Ogni calcolatore è così a conoscenza dell’insieme completo dei sensori partecipanti al task ed è in grado di calcolare la configurazione dei sensori da lui controllati per la copertura ottima.
Ogni calcolatore viene dimensionato per eseguire almeno un algoritmo di copertura ottima di tutto l’ambiente.
Tuttavia il numero di task nei quali viene coinvolto simultaneamente un calcolatore si riduce col ridursi dei sensori a lui associati, quindi la potenza di calcolo del singolo elaboratore di un sistema distribuito può essere ridotta rispetto a quella che si deve prevedere nel caso il sistema di controllo sia centralizzato.
La soluzione ottima consisterebbe quindi nel prevedere un calcolatore per sensore, o, ancora meglio, nell’integrare i calcolatori all’interno dei sensori rendendoli intelligenti.
Altre Varianti del sistema di sorveglianza
Dalla descrizione qui sopra, risultano chiari i vantaggi del sistema di video sorveglianza ed è chiaro che molte varianti possono essere apportate al sistema, ad esempio concentrando o distribuendo le risorse del sistema di controllo o utilizzando forme equivalenti per la gestione delle medesime informazioni richieste ed elaborate dai metodi di sorveglianza sopra descritti.
Ad esempio il grafo celle/sensore costruito al termine della fase di configurazione è stato proposto in quanto permette all’operatore una facile lettura dei legami celle/sensori. Tuttavia, ai fini dell’elaborazione numerica, il grafo celle/sensori può essere sostituito da una tabella celle/sensori contenente le medesime informazioni circa i legami tra le celle ed i sensori.

Claims (36)

  1. RIVENDICAZIONI 1. Metodo per la sorveglianza di un ambiente (1) mediante una pluralità di sensori (S1-S5), in cui un sistema di controllo (31) riceve ed utilizza informazioni da uno o più sensori di detta pluralità per sorvegliare detto ambiente (1), caratterizzato dal fatto di comprendere una fase di configurazione in cui un operatore di detto sistema di controllo: - crea un modello dell’ambiente individuando una pluralità di celle corrispondenti ad aree di detto ambiente, - crea delle relazioni celle/sensori tra detta pluralità di celle e detta pluralità di sensori, individuando per ogni sensore di detta pluralità almeno una posizione assumibile (xi) ed associando detta almeno una posizione assumibile (xi) ad almeno una cella di detta pluralità, e - per ogni posizione assumibile (xi) individuata assegna un giudizio di sorveglianza della cella associata, e dal fatto di comprendere una fase operativa in cui detto sistema di controllo per eseguire una funzione di sorveglianza di un’area da monitorare: - individua tra detta pluralità i sensori utilizzabili per eseguire detta funzione di sorveglianza, e - controlla almeno uno di detti sensori utilizzabili posizionandolo in una posizione assumibile (xi) selezionata sulla base di dette relazioni celle/sensori e dei giudizi di sorveglianza associati alle posizioni assumibili (xi) di detta pluralità di sensori.
  2. 2. Metodo secondo la rivendicazione 1, in cui detto giudizio di sorveglianza corrisponde ad una stima della probabilità di rilevare un evento nella cella associata.
  3. 3. Metodo secondo la rivendicazione 1 o 2, in cui detta pluralità di sensori comprende almeno una telecamera ed in cui un giudizio di sorveglianza assegnato ad almeno una posizione di detta telecamera corrisponde ad un voto di visibilità della cella associata.
  4. 4. Metodo secondo una qualsiasi delle rivendicazioni precedenti, in cui nel creare detto modello dell’ambiente detto operatore indica al sistema di controllo le adiacenze tra dette celle.
  5. 5. Metodo secondo una qualsiasi delle rivendicazioni precedenti, in cui detta posizione assumibile selezionata (xi) massimizza una probabilità di rilevare un evento in detta area da monitorare.
  6. 6. Metodo secondo una qualsiasi delle rivendicazioni precedenti in cui detto sistema di controllo controlla un gruppo di sensori di detta pluralità di sensori utilizzabili posizionandoli in rispettive posizioni assumibili (xi) secondo una configurazione scelta tra le possibili combinazioni delle posizioni assumibili (xi) da detto gruppo di sensori.
  7. 7. Metodo secondo la rivendicazione 6 in cui detta configurazione massimizza una probabilità di rilevare un evento in detta area da monitorare.
  8. 8. Metodo secondo la rivendicazione 7, in cui detta probabilità è vincolata all’uso del numero minimo di sensori per eseguire detta funzione di sorveglianza.
  9. 9. Metodo secondo la rivendicazione 7 o 8, in cui detta area da monitorare è associata ad un primo insieme di celle di detta pluralità ed in cui detta configurazione di sensori copre un sottoinsieme delle celle da monitorare, il metodo prevedendo le fasi di: a. individuare detta configurazione di sensori, b. mantenere detti sensori utilizzabili in detta configurazione per un tempo predeterminato, c. individuare un secondo sottoinsieme di celle non coperte da detta prima configurazione, d. determinare una seconda configurazione di sensori che massimizza una probabilità di rilevare un evento in detto secondo sottoinsieme,
  10. 10. Metodo secondo la rivendicazione 9, in cui se detta seconda configurazione non copre tutte le celle di detto secondo sottoinsieme, allora si eseguono nuovamente i passi da c) a d) fino a quando detto secondo sottoinsieme di celle è nullo.
  11. 11. Metodo secondo la rivendicazione 9 o 10, in cui detto tempo predeterminato è fissato da detto operatore.
  12. 12. Metodo secondo la rivendicazione 10 o 11, in cui detto tempo predeterminato è determinato da detto sistema di controllo.
  13. 13. Metodo secondo una qualsiasi delle rivendicazioni da 9 a 12, in cui ad ogni calcolo di detta seconda configurazione il sistema di controllo individua tra detta pluralità di sensori i sensori utilizzabili per eseguire detta funzione di sorveglianza su detto secondo insieme di celle.
  14. 14. Metodo secondo una qualsiasi delle rivendicazioni da 9 a 13 quando dipendenti dalla rivendicazione 8, in cui i sensori di detta pluralità che non sono utilizzati per eseguire detta funzione di sorveglianza, sono utilizzati per eseguire una seconda funzione di sorveglianza di una seconda area da monitorare.
  15. 15. Metodo secondo una qualsiasi delle rivendicazioni da 6 a 8, in cui detta pluralità di sensori comprende una pluralità di telecamere ed in cui detta funzione di sorveglianza prevede di sorvegliare detta area da monitorare mediante una sequenza di immagini riprese da detta pluralità di telecamere, ed in cui detta configurazione essendo determinata sotto il vincolo di utilizzare solo telecamere.
  16. 16. Metodo secondo la rivendicazione 15, in cui detto operatore indica un ordine di ripresa delle celle associate a detta area da monitorare ed in cui detta sequenza di immagini è determinata da detto ordine di ripresa.
  17. 17. Metodo secondo la rivendicazione 15 quando dipendente dalla rivendicazione 4, in cui detta sequenza di immagini segue un ordine dipendente dalle adiacenze tra le celle associate a detta area da monitorare.
  18. 18. Metodo secondo una qualsiasi delle rivendicazioni da 15 a 17, in cui detta configurazione è vincolata da vincoli imposti da detto operatore sulle telecamere utilizzabili per detta funzione.
  19. 19. Metodo secondo una qualsiasi delle rivendicazioni da 6 a 8 quando dipendenti dalla rivendicazione 4, in cui è individuato un evento in una cella attiva ed in cui detta area da monitorare corrisponde alla frontiera di detta cella.
  20. 20. Metodo secondo la rivendicazione 19, in cui detta detto operatore indica al sistema di controllo un’area dell’ambiente dove è individuato detto evento ed in cui detto sistema di controllo individua detta cella attiva.
  21. 21. Metodo secondo la rivendicazione 20, in cui detta area dell’ambiente dove è individuato detto evento corrisponde alla porzione dell’ambiente ripresa da una telecamera selezionata da detto operatore.
  22. 22. Metodo secondo la rivendicazione 21, in cui detta telecamera selezionata è una telecamera mobile ed in cui detto operatore controlla detta telecamera mobile. 23. Metodo secondo la rivendicazione 22, in cui detto sistema di controllo determina detta configurazione considerando detta telecamera mobile in una posizione assumibile (xi) individuata da detto operatore.
  23. 23. Metodo secondo la rivendicazione 22, in cui detta posizione assumibile (xi) considerata è determinata confrontando detta almeno una posizione assumibile (xi) da detta telecamera mobile, con la posizione di detta telecamera mobile al momento dell’esecuzione di detta funzione di sorveglianza.
  24. 24. Metodo secondo una qualsiasi delle rivendicazioni da 19 a 23, in cui detta configurazione è determinata sotto il vincolo di utilizzare solo telecamere, ed in cui detto metodo comprende ulteriormente le operazioni di mostrare a video le immagini riprese dalle telecamere controllate da detto sistema di controllo per eseguire detta funzione di sorveglianza.
  25. 25. Metodo secondo la rivendicazione 24, in cui dette immagini mostrate a video sono visualizzate in prossimità di un’immagine ripresa da detta telecamera selezionata.
  26. 26. Metodo secondo la rivendicazione 25, in cui dette immagini visualizzate a video e detta immagine ripresa da detta telecamera selezionata sono visualizzate su un touch screen.
  27. 27. Metodo secondo la rivendicazione 26, in cui detto operatore attiva una funzione di sorveglianza toccando un’area di detto touchscreen.
  28. 28. Metodo secondo una qualsiasi delle rivendicazioni da 1 a 4, in cui per eseguire detta funzione di sorveglianza, detto sistema di controllo seleziona la posizione assumibile (xi) cui è associato il giudizio di sorveglianza dell’area da monitorare più alto e controlla il corrispondente sensore posizionandolo in detta posizione assumibile (xi) con giudizio di sorveglianza più alto.
  29. 29. Metodo secondo una qualsiasi delle rivendicazioni da 1 a 5, in cui detto sistema di controllo utilizza metodi di ricerca operativa per determinare i sensori da controllare per eseguire detta funzione di sorveglianza e le posizioni dei sensori da controllare.
  30. 30. Metodo secondo la rivendicazione 29, in cui detti metodi di sorveglianza minimizzano una funzione costo dipendente da detti giudizi di sorveglianza.
  31. 31. Metodo secondo una qualsiasi delle rivendicazioni precedenti, in cui detto modello è costruito graficamente mediante rappresentazione grafica di dette celle.
  32. 32. Metodo secondo una qualsiasi delle rivendicazioni da 1 a 30, in cui detto operatore individua dette celle mediante selezione di un gruppo di pixel da una mappa elettronica di detto ambiente.
  33. 33. Metodo secondo la rivendicazione 32, in cui gruppi di pixel parzialmente sovrapposti sono raggruppati in un’unica cella.
  34. 34. metodo secondo una qualsiasi delle rivendicazioni precedenti, in cui le posizioni assumibili (xi) da detti sensori sono associate a dette celle mediante una procedura grafica.
  35. 35. Sistema di videosorveglianza comprendente una pluralità di sensori atti a monitorare un ambiente ed un sistema di controllo atto a ricevere ed utilizzare informazioni da uno o più sensori di detta pluralità per sorvegliare detto ambiente, caratterizzato dal fatto che detto sistema di controllo è atto a ricevere comandi da un operatore e ad implementare un metodo di sorveglianza secondo una qualsiasi delle rivendicazioni da 1 a 24.
  36. 36. Programma per computer comprendente porzioni di codice atte ad essere memorizzate in un’area di memoria e atte ad essere eseguite da detto computer in modo da implementare un metodo secondo una qualsiasi delle rivendicazioni da 1 a 34.
IT001016A 2007-05-19 2007-05-19 Metodo e sistema per sorvegliare un ambiente ITMI20071016A1 (it)

Priority Applications (31)

Application Number Priority Date Filing Date Title
IT001016A ITMI20071016A1 (it) 2007-05-19 2007-05-19 Metodo e sistema per sorvegliare un ambiente
PL08750913T PL2163094T3 (pl) 2007-05-19 2008-05-09 Sposób i system do monitorowania środowiska
EP08750911A EP2160883B1 (en) 2007-05-19 2008-05-09 Method for coordinating a plurality of sensors
SI200830865T SI2160883T1 (sl) 2007-05-19 2008-05-09 Postopek za koordiniranje mnoĹľice senzorjev
ES08750911T ES2397720T3 (es) 2007-05-19 2008-05-09 Procedimiento para coordinar una pluralidad de sensores
US12/600,868 US8350911B2 (en) 2007-05-19 2008-05-09 Method and system for monitoring an environment
PCT/IB2008/001169 WO2008142502A2 (en) 2007-05-19 2008-05-09 Method for coordinating a plurality of sensors
CA2687724A CA2687724C (en) 2007-05-19 2008-05-09 Method for coordinating a plurality of sensors
EP12182711A EP2533535A1 (en) 2007-05-19 2008-05-09 Method and system for monitoring an environment
DK08750911.3T DK2160883T3 (da) 2007-05-19 2008-05-09 Fremgangsmåde til koordinering af en flerhed af sensorer
CA2687768A CA2687768C (en) 2007-05-19 2008-05-09 Method and system for monitoring an environment
PT87509113T PT2160883E (pt) 2007-05-19 2008-05-09 Método para coordenar uma pluralidade de sensores
JP2010508919A JP5371962B2 (ja) 2007-05-19 2008-05-09 環境をモニタするための方法及びシステム
PCT/IB2008/001172 WO2008142504A1 (en) 2007-05-19 2008-05-09 Method and system for monitoring an environment
PT87509139T PT2163094E (pt) 2007-05-19 2008-05-09 Método e sistema para monitorizar um ambiente
US12/600,887 US8370421B2 (en) 2007-05-19 2008-05-09 Method for coordinating a plurality of sensors
BRPI0811738-1A2A BRPI0811738A2 (pt) 2007-05-19 2008-05-09 Método para a coordenação de uma pluralidade de sensores
EP08750913A EP2163094B1 (en) 2007-05-19 2008-05-09 Method and system for monitoring an environment
RU2009147287/07A RU2494567C2 (ru) 2007-05-19 2008-05-09 Способ и система для контроля окружающей среды
JP2010508918A JP5285066B2 (ja) 2007-05-19 2008-05-09 複数のセンサを協働させるための方法
ES08750913T ES2398929T3 (es) 2007-05-19 2008-05-09 Procedimiento y sistema para la monitorización de un entorno
RU2009147286/07A RU2510147C2 (ru) 2007-05-19 2008-05-09 Способ координации множества датчиков
CN2008800253084A CN101755457B (zh) 2007-05-19 2008-05-09 用于监控环境的方法和系统
SI200830868T SI2163094T1 (sl) 2007-05-19 2008-05-09 Postopek in sistem za nadzorovanje okolja
PL08750911T PL2160883T3 (pl) 2007-05-19 2008-05-09 Sposób koordynacji wielu czujników
DK08750913.9T DK2163094T3 (da) 2007-05-19 2008-05-09 Fremgangsmåde og system til monitorering af et miljø
CN200880025318.8A CN101755432B (zh) 2007-05-19 2008-05-09 用于协调多个传感器的方法及检测系统
HK10108479.1A HK1142193A1 (en) 2007-05-19 2010-09-07 Method for coordinating a plurality of sensors
HK10108523.7A HK1142201A1 (en) 2007-05-19 2010-09-08 Method and system for monitoring an environment
HRP20130032AT HRP20130032T1 (hr) 2007-05-19 2013-01-16 Postupak koordinacije više senzora
HRP20130081AT HRP20130081T1 (hr) 2007-05-19 2013-01-30 Postupak i sustav za nadzor prostora

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
IT001016A ITMI20071016A1 (it) 2007-05-19 2007-05-19 Metodo e sistema per sorvegliare un ambiente

Publications (1)

Publication Number Publication Date
ITMI20071016A1 true ITMI20071016A1 (it) 2008-11-20

Family

ID=39816862

Family Applications (1)

Application Number Title Priority Date Filing Date
IT001016A ITMI20071016A1 (it) 2007-05-19 2007-05-19 Metodo e sistema per sorvegliare un ambiente

Country Status (16)

Country Link
US (2) US8370421B2 (it)
EP (3) EP2533535A1 (it)
JP (2) JP5285066B2 (it)
CN (2) CN101755432B (it)
BR (1) BRPI0811738A2 (it)
CA (2) CA2687768C (it)
DK (2) DK2163094T3 (it)
ES (2) ES2398929T3 (it)
HK (2) HK1142193A1 (it)
HR (2) HRP20130032T1 (it)
IT (1) ITMI20071016A1 (it)
PL (2) PL2163094T3 (it)
PT (2) PT2163094E (it)
RU (2) RU2510147C2 (it)
SI (2) SI2163094T1 (it)
WO (2) WO2008142504A1 (it)

Families Citing this family (51)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ITMI20071016A1 (it) * 2007-05-19 2008-11-20 Videotec Spa Metodo e sistema per sorvegliare un ambiente
US8571745B2 (en) * 2008-04-10 2013-10-29 Robert Todd Pack Advanced behavior engine
WO2010098268A1 (ja) * 2009-02-24 2010-09-02 日本電気株式会社 演算資源割当装置、演算資源割当システム、それらの演算資源割当方法及びプログラム
US20100245583A1 (en) * 2009-03-25 2010-09-30 Syclipse Technologies, Inc. Apparatus for remote surveillance and applications therefor
US20110317017A1 (en) * 2009-08-20 2011-12-29 Olympus Corporation Predictive duty cycle adaptation scheme for event-driven wireless sensor networks
ITMI20100741A1 (it) * 2010-04-29 2011-10-30 March Networks Corp Configurazione e comunicazione di elementi di rete video
CN102222157B (zh) * 2011-04-28 2013-10-30 华南理工大学 一种基于人工势场法的动态预警域生成方法
US9143703B2 (en) * 2011-06-10 2015-09-22 Flir Systems, Inc. Infrared camera calibration techniques
US8953039B2 (en) 2011-07-01 2015-02-10 Utc Fire & Security Corporation System and method for auto-commissioning an intelligent video system
US20130015968A1 (en) * 2011-07-13 2013-01-17 Honeywell International Inc. System and method of alarm installation and configuration
JP6032283B2 (ja) * 2012-05-23 2016-11-24 ソニー株式会社 監視カメラ管理装置、監視カメラ管理方法およびプログラム
DE102012222661A1 (de) * 2012-12-10 2014-06-12 Robert Bosch Gmbh Überwachungsanlage für einen Überwachungsbereich, Verfahren sowie Computerprogramm
US20140184803A1 (en) * 2012-12-31 2014-07-03 Microsoft Corporation Secure and Private Tracking Across Multiple Cameras
KR20140091343A (ko) * 2013-01-11 2014-07-21 삼성테크윈 주식회사 영상 감시 시스템 및 그의 동작 방법
KR101871941B1 (ko) * 2013-03-12 2018-07-02 한화에어로스페이스 주식회사 카메라의 동작 방법, 카메라, 및 감시 시스템
US9614898B1 (en) * 2013-05-27 2017-04-04 Surround.IO Distributed event engine
US9116137B1 (en) 2014-07-15 2015-08-25 Leeo, Inc. Selective electrical coupling based on environmental conditions
US9372894B2 (en) 2013-08-15 2016-06-21 International Business Machines Corporation Scoring relationships between entities based on proximity in space and time
HUP1300560A2 (en) * 2013-09-27 2015-03-30 Peter Wolf Protecting system for biosphere asset
US20150134379A1 (en) * 2013-11-14 2015-05-14 International Business Machines Corporation Singularity of Presence
CN104239594A (zh) * 2014-06-13 2014-12-24 中国人民解放军装备学院 人工环境模型、Agent模型及其建模方法
CN104079881B (zh) * 2014-07-01 2017-09-12 中磊电子(苏州)有限公司 监控装置与其相关的监控方法
KR20160014242A (ko) * 2014-07-29 2016-02-11 삼성전자주식회사 모니터링 장치를 이용한 센서의 위치 및 이벤트 동작의 매핑 방법 및 장치
US10102566B2 (en) 2014-09-08 2018-10-16 Leeo, Icnc. Alert-driven dynamic sensor-data sub-contracting
US10026304B2 (en) 2014-10-20 2018-07-17 Leeo, Inc. Calibrating an environmental monitoring device
TWI578781B (zh) * 2014-10-21 2017-04-11 群暉科技股份有限公司 藉助於全景地圖來管理一監視系統之方法與裝置
SG10201407100PA (en) 2014-10-30 2016-05-30 Nec Asia Pacific Pte Ltd System For Monitoring Event Related Data
US10277869B2 (en) * 2014-12-11 2019-04-30 Sensormatic Electronics, LLC Efficient process for camera call-up
CN104796923B (zh) * 2014-12-22 2018-04-13 齐玉田 无线传感网络的网络拓扑构建方法
TWI522760B (zh) 2015-01-08 2016-02-21 晶睿通訊股份有限公司 馬達控制方法、馬達控制裝置及相機
JP6229816B2 (ja) * 2015-03-27 2017-11-15 日本電気株式会社 モバイル監視装置、プログラム、及び制御方法
JP6809455B2 (ja) * 2015-06-11 2021-01-06 日本電気株式会社 サービス制御装置、サービス制御方法及びプログラム
CN104994356A (zh) * 2015-07-22 2015-10-21 宜昌泛海巨涛科技有限公司 监控设备智能联动装置及方法
US10620802B1 (en) * 2015-08-10 2020-04-14 Cadence Design Systems, Inc. Algorithmic modeling interface process
US10805775B2 (en) 2015-11-06 2020-10-13 Jon Castor Electronic-device detection and activity association
US9801013B2 (en) 2015-11-06 2017-10-24 Leeo, Inc. Electronic-device association based on location duration
CN106856558B (zh) * 2015-12-09 2019-09-20 台达电子工业股份有限公司 具有摄影机自动调派功能的3d影像监控系统及其监控方法
US10761495B2 (en) * 2015-12-18 2020-09-01 International Business Machines Corporation Dynamic and reconfigurable system management
CN108024088B (zh) * 2016-10-31 2020-07-03 杭州海康威视系统技术有限公司 一种视频轮巡方法及装置
US10860012B2 (en) 2016-11-09 2020-12-08 Yokogawa Engineering Asia Pte. Ltd KPI calculation rule builder for advance plant monitoring and diagnostics
RU2663884C1 (ru) * 2017-03-29 2018-08-13 ООО "Ай Ти Ви групп" Способ эмуляции по меньшей мере двух стационарных виртуальных видеокамер при использовании одной поворотной (PTZ) видеокамеры
EP3487175A1 (en) * 2017-11-21 2019-05-22 Reliance Core Consulting LLC Methods and systems for detecting motion corresponding to a field of interest
GB2569573A (en) * 2017-12-20 2019-06-26 Canon Kk Video surveillance method and system
US10317216B1 (en) 2018-03-16 2019-06-11 Microsoft Technology Licensing, Llc Object and location tracking with a graph-of-graphs
CN109375851B (zh) * 2018-10-26 2022-04-08 珠海格力电器股份有限公司 感知器绑定方法、装置、计算机设备和存储介质
CN109544194B (zh) * 2018-12-07 2021-09-17 河南智信锅炉技术创新有限公司 一种用于智能化工厂的锅炉防伪方法及装置
US11351682B2 (en) * 2019-06-19 2022-06-07 International Business Machines Corporation Environment monitoring and associated monitoring device
RU2718223C1 (ru) * 2019-07-18 2020-03-31 ООО "Ай Ти Ви групп" Система и способ определения потенциально опасных ситуаций по видеоданным
ES2895415A1 (es) * 2020-08-19 2022-02-21 Ceballos Arroyo Jose Maria Dispositivo de seguridad urbana
US11881993B2 (en) * 2020-10-13 2024-01-23 Eoh Limited Liability Company Method and deep reinforcement neural network (DRNN) management system for an intelligent plug-and-play point-to-multipoint internet of things (IoT) platform
PL440508A1 (pl) 2022-02-28 2023-09-04 Uniwersytet Morski W Gdyni Urządzenie do inwentaryzacji stanu technicznego stalowych części podwodnych nabrzeży portowych

Family Cites Families (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2140721C1 (ru) * 1984-12-27 1999-10-27 Войсковая часть 11135 Телевизионное устройство для обнаружения перемещений объектов
US4992866A (en) * 1989-06-29 1991-02-12 Morgan Jack B Camera selection and positioning system and method
US6097429A (en) * 1997-08-01 2000-08-01 Esco Electronics Corporation Site control unit for video security system
GB2329539B (en) * 1997-09-17 2002-05-15 Sony Uk Ltd Security System
WO1999035850A1 (en) * 1997-12-31 1999-07-15 Koninklijke Philips Electronics N.V. Multiple camera system
AU3249600A (en) 1999-03-18 2000-10-04 Showbites, Inc. Method for optimization of video coverage
CA2371750A1 (en) * 1999-05-24 2000-11-30 Aprisma Management Technologies, Inc. Service level management
US6437819B1 (en) 1999-06-25 2002-08-20 Rohan Christopher Loveland Automated video person tracking system
GB2354090B (en) * 1999-09-08 2004-03-17 Sony Uk Ltd Distributed service provider
US7522186B2 (en) * 2000-03-07 2009-04-21 L-3 Communications Corporation Method and apparatus for providing immersive surveillance
JP2002034032A (ja) * 2000-07-13 2002-01-31 Asahi Optical Co Ltd 監視カメラシステム用コントローラ
US20050146605A1 (en) * 2000-10-24 2005-07-07 Lipton Alan J. Video surveillance system employing video primitives
EP1288757A1 (de) * 2001-08-07 2003-03-05 Siemens Aktiengesellschaft Verfahren und Prozessleitsystem zum Betrieb einer technischen Anlage
CN1561640A (zh) 2001-09-27 2005-01-05 皇家飞利浦电子股份有限公司 用于基本计算机的视觉监视的最佳多摄像机设置
GB2384128A (en) * 2001-12-13 2003-07-16 Invideo Ltd Schematic mapping of surveillance area
US20030212587A1 (en) * 2002-05-13 2003-11-13 International Business Machines Corporation Apparatus and methods for coordinating Web services using role based interpretation of coordination plans
GB0211644D0 (en) * 2002-05-21 2002-07-03 Wesby Philip B System and method for remote asset management
CN1206862C (zh) * 2002-08-13 2005-06-15 舒富喜 一种远程视频图像监控系统
CN1198415C (zh) * 2003-01-08 2005-04-20 广东科龙电器股份有限公司 基于制造现场的智能化远程网络监控系统
CN1186923C (zh) * 2003-04-03 2005-01-26 上海交通大学 异常目标自动发现及跟踪摄像机系统
US20050012817A1 (en) * 2003-07-15 2005-01-20 International Business Machines Corporation Selective surveillance system with active sensor management policies
EP1505796A1 (en) * 2003-08-06 2005-02-09 STMicroelectronics Limited Method for controlling services
US7433327B2 (en) * 2003-10-09 2008-10-07 Hewlett-Packard Development Company, L.P. Method and system for coordinating communication devices to create an enhanced representation of an ongoing event
JP4157015B2 (ja) * 2003-11-05 2008-09-24 積水ハウス株式会社 セキュリティー巡回サービスシステム
JP2005323229A (ja) * 2004-05-11 2005-11-17 Yamatake Corp 巡回方法および巡回システム
JP2008502228A (ja) 2004-06-01 2008-01-24 エル‐3 コミュニケーションズ コーポレイション ビデオフラッシュライトを実行する方法およびシステム
US20060004579A1 (en) * 2004-07-01 2006-01-05 Claudatos Christopher H Flexible video surveillance
US20060007308A1 (en) * 2004-07-12 2006-01-12 Ide Curtis E Environmentally aware, intelligent surveillance device
RU2275750C2 (ru) * 2004-07-21 2006-04-27 Федеральное Государственное Унитарное Предприятие "Научно-Исследовательский Институт Промышленного Телевидения "РАСТР" (ФГУП "НИИ ПТ "РАСТР") Способ юстировки направления визирной оси двухкамерной телевизионной системы и устройство для его осуществления
WO2006030444A2 (en) * 2004-09-16 2006-03-23 Raycode Ltd. Imaging based identification and positioning system
US7123169B2 (en) * 2004-11-16 2006-10-17 Northrop Grumman Corporation Method and apparatus for collaborative aggregate situation awareness
JP3886524B2 (ja) 2004-12-21 2007-02-28 松下電器産業株式会社 カメラ端末および監視システム
ATE500580T1 (de) * 2005-03-25 2011-03-15 Sensormatic Electronics Llc Intelligente kameraauswahl und objektverfolgung
JP2006311025A (ja) * 2005-04-27 2006-11-09 Mitsubishi Electric Corp 表示装置及び表示方法及びプログラム
US20070043803A1 (en) * 2005-07-29 2007-02-22 Microsoft Corporation Automatic specification of semantic services in response to declarative queries of sensor networks
US7468970B2 (en) * 2005-10-24 2008-12-23 Honeywell International Inc. Routing of mobile agents in a network
US8266697B2 (en) * 2006-03-04 2012-09-11 21St Century Technologies, Inc. Enabling network intrusion detection by representing network activity in graphical form utilizing distributed data sensors to detect and transmit activity data
US8131838B2 (en) * 2006-05-31 2012-03-06 Sap Ag Modular monitor service for smart item monitoring
ITMI20071016A1 (it) * 2007-05-19 2008-11-20 Videotec Spa Metodo e sistema per sorvegliare un ambiente
CA2690506C (en) * 2009-01-20 2016-05-10 Parata Systems, Llc Methods, systems, and apparatus for determining and automatically programming network addresses for devices operating in a network

Also Published As

Publication number Publication date
BRPI0811738A2 (pt) 2014-11-11
EP2163094B1 (en) 2012-11-07
EP2160883A2 (en) 2010-03-10
RU2494567C2 (ru) 2013-09-27
CA2687768A1 (en) 2008-11-27
CN101755457A (zh) 2010-06-23
DK2163094T3 (da) 2013-02-04
JP5371962B2 (ja) 2013-12-18
PL2163094T3 (pl) 2013-03-29
EP2163094A1 (en) 2010-03-17
US8350911B2 (en) 2013-01-08
PT2163094E (pt) 2013-02-11
CN101755432B (zh) 2016-08-24
ES2398929T3 (es) 2013-03-22
HK1142201A1 (en) 2010-11-26
HRP20130081T1 (hr) 2013-02-28
JP5285066B2 (ja) 2013-09-11
SI2160883T1 (sl) 2013-02-28
US20100214417A1 (en) 2010-08-26
RU2009147287A (ru) 2011-06-27
JP2010528359A (ja) 2010-08-19
WO2008142504A1 (en) 2008-11-27
US20100293220A1 (en) 2010-11-18
EP2533535A1 (en) 2012-12-12
US8370421B2 (en) 2013-02-05
ES2397720T3 (es) 2013-03-11
WO2008142502A3 (en) 2009-02-19
CA2687724C (en) 2015-07-14
CN101755432A (zh) 2010-06-23
JP2010528515A (ja) 2010-08-19
PL2160883T3 (pl) 2013-03-29
CA2687724A1 (en) 2008-11-27
HK1142193A1 (en) 2010-11-26
DK2160883T3 (da) 2013-02-04
EP2160883B1 (en) 2012-10-17
CN101755457B (zh) 2013-04-03
RU2510147C2 (ru) 2014-03-20
WO2008142502A2 (en) 2008-11-27
CA2687768C (en) 2016-01-05
RU2009147286A (ru) 2011-06-27
HRP20130032T1 (hr) 2013-02-28
PT2160883E (pt) 2013-01-25
SI2163094T1 (sl) 2013-02-28

Similar Documents

Publication Publication Date Title
ITMI20071016A1 (it) Metodo e sistema per sorvegliare un ambiente
SanMiguel et al. Self-reconfigurable smart camera networks
RU2551128C1 (ru) Устройство содействия в отслеживании, система содействия в отслеживании и способ содействия в отслеживании
US20230304823A1 (en) Navigation Method, Apparatus, and System
EP1968321A2 (en) Intruding object monitoring method and intruding object monitoring system
US20130123981A1 (en) Swarm intelligence routing robot device and movement path control system using the same
GB2455837A (en) Co-operative camera surveillance method
KR102050424B1 (ko) 주차관리 시스템 및 주차관리 방법
JP2019219736A (ja) 監視システム
CN106506589A (zh) 一种机器人集群方法及系统
KR20190050113A (ko) 이동 물체 자동 추적 영상 감시 시스템
JP2001319279A (ja) 侵入物体監視方法及び侵入物体監視システム
KR101780929B1 (ko) 움직이는 물체를 추적하는 영상감시 시스템
KR101084597B1 (ko) 감시카메라의 실시간 영상 관제 방법
JP2018098574A (ja) 映像監視システム及び監視映像表示方法
KR20210060275A (ko) 영상분석 기반의 차량객체 인식 및 추적을 이용한 주차관리 시스템 및 방법
CN116194348A (zh) 一种自动代客泊车方法及装置
KR101332820B1 (ko) 객체 추적 시스템 및 방법, 객체관리장치 및 그 장치의 구동방법, 촬영장치 및 그 장치의 구동방법
KR101822534B1 (ko) 프리셋 정보와 투망 감시지 정보를 이용한 cctv 통합 관리 시스템 및 방법
KR20200073374A (ko) 감시 카메라 시스템 및 그 제어 방법
JP3259027B2 (ja) 広域監視装置
KR20240036368A (ko) 차량 충돌 방지 방법 및 주차 관제 시스템
Touko Tcheumadjeu et al. Automated Valet Parking enabled by Internet of Things: A pilot site realization and validation at Brainport, the Netherlands
Bustamante et al. Autonomous active-camera control architecture based on multi-agent systems for surveillance scenarios
CN117727147A (zh) 一种用于巡逻调度平台的报警方法及系统