ITMI20101327A1 - Sistema per il controllo di cancelli automatici - Google Patents

Sistema per il controllo di cancelli automatici Download PDF

Info

Publication number
ITMI20101327A1
ITMI20101327A1 IT001327A ITMI20101327A ITMI20101327A1 IT MI20101327 A1 ITMI20101327 A1 IT MI20101327A1 IT 001327 A IT001327 A IT 001327A IT MI20101327 A ITMI20101327 A IT MI20101327A IT MI20101327 A1 ITMI20101327 A1 IT MI20101327A1
Authority
IT
Italy
Prior art keywords
images
module
image
influence
subject
Prior art date
Application number
IT001327A
Other languages
English (en)
Inventor
Luca Bombini
Stefano Debattisti
Paolo Medici
Original Assignee
Vislab S R L
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Vislab S R L filed Critical Vislab S R L
Priority to ITMI2010A001327A priority Critical patent/IT1401301B1/it
Priority to EP11174409.0A priority patent/EP2410115B1/en
Publication of ITMI20101327A1 publication Critical patent/ITMI20101327A1/it
Application granted granted Critical
Publication of IT1401301B1 publication Critical patent/IT1401301B1/it

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Processing (AREA)
  • Selective Calling Equipment (AREA)

Description

DESCRIZIONE
“SISTEMA PER IL CONTROLLO DI CANCELLI AUTOMATICIâ€
La presente invenzione si riferisce ad un sistema per il controllo di cancelli automatici.
In particolare, l’invenzione si riferisce ad un sistema per il controllo di cancelli automatici realizzato tramite almeno due dispositivi di acquisizione d’immagini. TECNICA NOTA
Come Å ben noto, l’utilizzo di cancelli automatizzati Å ormai di uso comune nella gestione del traffico, dei passaggi pedonali e dei passaggi carrai.
Questi dispositivi fanno uso di pistoni idraulici per l’apertura e la chiusura e sono generalmente pilotati attraverso un’apposita centralina di controllo che gestisce tutti i parametri per il movimento del cancello stesso.
Uno degli aspetti di maggiore importanza emersi a seguito dell’introduzione del comando automatico per il movimento di questi dispositivi riguarda la sicurezza: l’automatizzazione comporta dei pericoli, poichà ̃ vi Å il rischio che persone o cose presenti nell’area di lavoro del cancello possano essere urtate durante l’apertura o chiusura di quest’ultimo; per questo motivo sono stati introdotti vari dispositivi di sicurezza che monitorano il funzionamento del cancello.
Attualmente, esistono due tipologie di cancelli automatici:
• Cancelli scorrevoli: presentano una singola anta e l’apertura viene eseguita facendo scorrere l’anta parallelamente al lato pià ̧ lungo del cancello.
• Cancelli a battenti: sono dotati di una o due ante (battenti) e l’apertura viene eseguita ruotando ogni battente attorno ad un rispettivo asse di una rispettiva struttura d’incernieramento del cancello.
I cancelli a battenti presentano molti pià ̧ problemi di sicurezza rispetto ai cancelli scorrevoli e le caratteristiche intrinseche, come per esempio l’occlusione dei battenti, li rendono particolarmente difficili da gestire tramite visione artificiale.
Il cancello di pià ̧ difficile gestione Å , sicuramente, rappresentato da un cancello a battente doppio con battente totalmente occluso.
In altre parole, il battente, in questo caso, non consente di poter vedere da una parte all’altra del cancello, impedendo, quindi, anche l’utilizzo di un qualsiasi sistema di visione che sfrutti questa caratteristica.
Un’installazione tipica di un cancello automatico a battente doppio sfrutta due coppie di fotocellule: una prima coppia all’altezza del varco e una seconda coppia poco dopo la linea di massima apertura del cancello.
Queste fotocellule hanno lo scopo principale di interrompere il movimento di chiusura del cancello nel caso in cui sia presente un qualche oggetto sulla linea di rilevazione; di contro il movimento di apertura non viene, solitamente, influenzato da alcun evento.
Nella realtà dei fatti questi sistemi di sicurezza presentano varie problematiche: • Dimensione degli oggetti: le fotocellule hanno un’altezza fissa e rilevano su una sola linea; di conseguenza oggetti troppo piccoli non vengono rilevati da questi sensori.
• Staticità della rilevazione: i sensori sono fissi, guardano su una sola linea a coordinate fisse, essi sono quindi adatti alla rilevazione di corpi in movimento di adeguate dimensioni; si può facilmente intuire come la presenza di oggetti o persone bloccati all’interno dell’area di lavoro non possa essere rilevata; di conseguenza essi si trovano in una situazione di pericolo in caso di apertura/chiusura del sistema.
• Posizionamento dei sensori: le fotocellule possono essere posizionate solamente al di fuori dell’area di azione del cancello, lavorano quindi esternamente ad essa e non direttamente sulla zona di pericolo: ancora una volta questo Å un approccio non Å soddisfacente per oggetti che già si trovano all’interno della zona di pericolo.
Lo scopo dell’invenzione Å realizzare un sistema per il controllo di un cancello automatico in grado di far operare il cancello in piena sicurezza.
SOMMARIO DELL’INVENZIONE
Questi ed altri scopi ancora sono raggiunti da un sistema di controllo per un cancello automatico, secondo quanto descritto nelle unite rivendicazioni.
Il sistema secondo l’invenzione consegue i seguenti vantaggi rispetto alla tecnica nota:
- impedisce il movimento del cancello in presenza di ostacoli di ogni natura e forma ed in qualunque posizione nel raggio di azione del cancello;
- impedisce il movimento del cancello in presenza di ostacoli fermi e/o in movimento.
- permette la registrazione di immagini
- permette di inviare immagini o sequenze di immagini ad utente/operatore per monitoraggio area da remoto
Questi ed altri vantaggi dell’invenzione risulteranno pià ̧ dettagliatamente dalla descrizione, fatta qui di seguito, di un suo esempio di realizzazione dato a titolo indicativo e non limitativo con riferimento ai disegni allegati.
BREVE DESCRIZIONE DEI DISEGNI
La fig. 1 mostra uno schema a blocchi del sistema per il controllo per un cancello automatico, secondo l’invenzione.
Le fig. 2a, 2b e 2c mostrano schematicamente diverse tipologie di cancelli automatici, secondo l’invenzione.
Le fig. 3a e 3b mostrano schematicamente l’area d’influenza del cancello automatico delle fig. 2a, 2b e 2c.
DESCRIZIONE DETTAGLIATA
Un sistema per il controllo di cancelli automatici, secondo l’invenzione Å in grado di identificare aree d’influenza del cancello e di riconoscere la presenza di soggetti in un raggio d’azione del cancello stesso.
In particolare, il cancello automatico può essere classificato in ragione del tipo di movimento delle sue componenti mobili.
I cancelli automatici, quindi, possono essere del tipo ad uno o pià ̧ battenti, in cui il cancello automatico 30 Å configurato per l’apertura/chiusura tramite rotazione controllata dei battenti.
In alternativa, I cancelli automatici possono essere a movimento traslatorio lungo il loro asse longitudinale, configurati per l’apertura/chiusura tramite traslazione controllata delle sue componenti mobili. E’ questo il caso dei cancelli scorrevoli.
In ulteriore alternativa, i cancelli automatici possono essere del tipo a sbarra. Si possono individuare anche altri tipi di cancelli automatici che, dal punto di vista del controllo, rientrano nelle categorie elencate.
Il riconoscimento di soggetti nei pressi del cancello avviene sulla base di immagini, opportunamente elaborate, acquisite in prossimità del cancello.
Il sistema prevede almeno due dispositivi di acquisizione di immagini che riprendono immagini di soggetti nel raggio d’azione del cancello.
Il sistema Å in grado di comandare l’apertura/chiusura del cancello in base alla presenza di soggetti nel suo raggio d’azione.
Con il termine “soggetto” intenderemo, nel corso della descrizione, qualsiasi oggetto o persona, ferma o in movimento, nel raggio d’azione del cancello. Con riferimento alla figura 1, un sistema 100 per il controllo di cancelli automatici 30 comprende almeno due dispositivi di acquisizione 10, 10a, per l’acquisizione di immagini A, A1.
In una forma di realizzazione preferita dell’invenzione, sono previsti due dispositivi di acquisizione d’immagini.
Preferibilmente, i dispositivi di acquisizione 10 e 10a sono telecamere.
Con particolare riferimento ai gruppi di figure 2 e 3, i due dispositivi di acquisizione 10 e 10a sono associati al cancello automatico 30 che, a sua volta, Å associato ad un’area di riferimento 40 dello stesso cancello.
L’area di riferimento 40 Å definibile come l’area di possibile rilevamento di un soggetto nei pressi del cancello automatico 30 da parte del sistema dell’invenzione.
Il cancello automatico 30 sarà supportato da almeno una struttura di sostegno 33, 34.
In figura 2a Å mostrata una prima forma di realizzazione dell’invenzione in cui Å mostrato, a titolo d’esempio, un cancello automatico 30 a due battenti.
In altre parole, come già detto, il cancello automatico 30 Å configurato per l’apertura/chiusura tramite rotazione controllata delle sue componenti mobili (battenti).
Si noti che a partire dagli insegnamenti relativi al cancello a doppio battente, il tecnico del ramo Å in grado di trasporre l’insegnamento ai cancelli a singolo battente.
In questa forma di realizzazione, il cancello automatico 30 comprende due strutture di sostegno 33, 34.
Esso comprende, inoltre, un primo battente 31 ed un secondo battente 32.
Preferibilmente, i due battenti 31, 32 sono incernierati alle strutture di sostegno 33, 34 e sono atti a ruotare attorno ad esse determinando l’apertura/chiusura del cancello 30.
Preferibilmente i dispositivi di acquisizione 10 e 10a sono vincolati alle rispettive strutture di sostegno 33, 34, e disposti superiormente al cancello automatico 30, inclinati verso il basso in modo da poter riprendere tutta l’area di riferimento 40.
Tuttavia, il posizionamento dei dispositivi di acquisizione 10 e 10 a può variare a seconda della strutturazione del cancello e dell’ambiente circostanza al fine di migliorarne il campo visivo.
In condizioni operative, i due battenti 31, 32 sono atti suddividere l’area di riferimento 40 in una pluralità di regioni d’influenza 41, 42, 43, 44, 45 a superficie variabile (fig.3a).
In altre parole, una volta posti in movimento, tali battenti 31, 32 spazzano l’area di riferimento 40 determinando regioni d’influenza con superfici variabili in funzione di un angolo di apertura dei battenti e/o della presenza di un soggetto nell’area di riferimento 40.
Il rilevamento della presenza del soggetto sarà discusso in seguito, in riferimento al modulo di rilevamento 22.
Come mostrato in fig. 3a, per l’identificazione dell’area di riferimento 40 vengono definiti:
- due punti di riferimento P1 e P1’ costituenti punti di estremità di una zona in cui entrambe le telecamere 10, 10a hanno visuale;
- due punti di ripresa P2, P2’ situati rispettivamente nei centri delle ottiche delle telecamere 10a, 10;
- una prima estremità libera L1 del primo battente 31;
- una seconda estremità libera L2 del secondo battente 32.
Sempre con riferimento alla fig. 3a, l’area di riferimento 40 Å delimitata da quattro linea ideali di confine:
- una prima linea di confine 411, coincidente con la linea di giacitura dei battenti 31, 32 in condizioni di chiusura;
- una seconda linea di confine 421 che collega idealmente i due punti di riferimento P1, P1’;
- una terza e quarta linea di confine 431 e 441 coincidenti rispettivamente con le linee di giacitura dei battenti 31 e 32 in condizioni di massima apertura, ed estendentisi fino a raggiungere i rispettivi punti di riferimento P1, P1’.
In dettaglio, quindi, le regioni d’influenza 41, 42, 43, 44 sono individuate come segue:
- la prima regione 41 Å identificabile anteriormente al cancello 30, vale a dire dal lato opposto a quello di apertura, e solo in condizione di battenti 31, 32 almeno parzialmente aperti.
Essa Šdelimitata dai battenti stessi, dalla prima linea di confine 411, e da una quinta linea di confine 412 idealmente congiungente estremità libere L1, L2 dei battenti 31, 32.
Tale regione Šconfigurata in modo da aumentare in superficie all’aumentare dell’ampiezza dell’angolo di apertura dei battenti 31, 32.
- la seconda regione d’influenza 42 Šidentificabile posteriormente al cancello 30 vale a dire dal lato dell’apertura del cancello stesso.
Essa Å delimitata dalla quinta linea di confine 412, dalla seconda linea di confine 421 e da segmenti di retta congiungenti le estremità libere L1, L2 dei battenti 31, 32 con i corrispondenti punti di riferimento P1’, P1.
Tale regione Šconfigurata in modo da diminuire in superficie all’aumentare dell’ampiezza dell’angolo di apertura dei battenti 31, 32.
- la terza regione 43 Šidentificabile posteriormente al cancello 30, vale a dire dal lato dell’apertura del cancello stesso.
Essa Šdelimitata dal primo battente 31, dalla terza linea di confine 431 e da un segmento di retta congiungente la prima estremità libera L1 con il punto di riferimento P1.
- la quarta regione 44 Šidentificabile anch’essa posteriormente al cancello 30 vale a dire dal lato dell’apertura del cancello stesso.
Essa Šdelimitata dal secondo battente 32, dalla quarta linea di confine 441 e da un segmento di retta congiungente la seconda estremità libera L2 con il punto di riferimento estremo P1’.
Le terza regione 43 e la quarta regione 44 sono configurate in modo da diminuire in superficie all’aumentare dell’ampiezza dell’angolo di apertura dei battenti 31, 32.
Preferibilmente, con particolare riferimento alla fig.3a, Å identificata una quinta regione 45, appartenente all’area di riferimento 40, contigua alla seconda regione 42, ma dal lato opposto della seconda linea di confine 421;tale regione Å delimitata lateralmente dalla prosecuzione delle terza e quarta linea di confine 431, 441 oltre i punti di riferimento P1, P1’.
Secondo l’invenzione, il sistema rileva soggetti anche in questa regione per garantire una maggior sicurezza di risposta anche nel caso siano presenti soggetti non nell’immediata prossimità del cancello 30.
In figura 2b Å mostrata una seconda forma di realizzazione dell’invenzione in cui il cancello automatico 30 Å a movimento traslatorio lungo il suo asse longitudinale.
In altre parole, il cancello automatico 30 Å configurato per l’apertura/chiusura tramite traslazione controllata delle sue componenti mobili.
In questa forma di realizzazione, il cancello automatico 30 comprende, come componente mobile, un’anta scorrevole 131.
In questa forma di realizzazione, i componenti mobili del cancello automatico 30 determinano una variazione di superficie della sola area d’influenza 41.
In altre parole, in condizioni operative, i componenti mobili 131, 231 sono atti suddividere l’area di riferimento 40 in una regione d’influenza 41.
Pià ̧ precisamente, l’anta 131 Å atta a suddividere l’area di riferimento 40 in una regione d’influenza 41, in funzione di una misura di traslazione dell’anta 131, e/o della presenza di un soggetto nell’area di riferimento 40.
In figura 2c Å mostrata una terza forma di realizzazione dell’invenzione.
In questa forma di realizzazione, il cancello automatico 30 comprende, come componente mobile, una sbarra 231 incernierata ad una delle strutture di sostegno 33, 34.
La sbarra 231 Å atta a suddividere l’area di riferimento 40 in una regione d’influenza 41, in funzione di un angolo di rotazione della sbarra 131 (rispetto ad un asse ortogonale alla direzione longitudinale della sbarra stessa), e/o della presenza di un soggetto nell’area di riferimento 40.
Il rilevamento della presenza del soggetto sarà discusso in seguito in riferimento al modulo di rilevamento 22.
In tutte le forme di realizzazione dell’invenzione il sistema 100 comprende un’unità di elaborazione di immagini 20, collegata ai due dispositivi di acquisizione 10, 10a.
Tale unità di elaborazione di immagini 20 riceve immagini acquisite A, A1 dai dispositivi di acquisizione 10, 10a, ed elabora tali immagini in modo da estrarre informazioni sull’area di riferimento 40 e sulla posizione dei soggetti ritratti. In generale va notato che nel presente contesto e nelle successive rivendicazioni, l’unità di elaborazione di immagini 20 Å presentata come suddivisa in moduli di memoria e moduli operativi distinti al solo scopo di descrivere in maniera chiara e completa le funzionalità dell’unità stessa.
In realtà tali funzionalità possono essere svolte da un singolo dispositivo elettronico, opportunamente programmato, e i diversi moduli possono corrispondere a entità hardware e/o a routine software facenti parte del dispositivo programmato.
In alternativa o in aggiunta, tali funzionalità possono essere svolte da una pluralità di dispositivi elettronici su cui i moduli possono essere distribuiti.
I dispositivi coinvolti, inoltre, possono avvalersi di uno o pià ̧ processori per l’esecuzione delle istruzioni contenute nella memoria.
Ulteriormente, i moduli di memoria ed operativi possono essere distribuiti su calcolatori diversi in locale o remoto in base all’architettura della rete in cui risiedono.
L’unità di elaborazione di immagini 20 comprende un primo modulo di rilevamento 522 configurato per rilevare un’immagine di una o pià ̧ tra le regione d’influenza 41,42,43,44,45 in un’area di riferimento 40.
Le immagini rilevate, quindi, sono ottenute come funzione delle immagini acquisite A, A1 e indicate in figura 1, rispettivamente come (41…45)=f(A) e (41…45)=f(A1) .
I componenti mobili 31, 32, 131, 231, introducono un disturbo N nelle immagini rilevate in quanto coprono una parte della scena che deve essere elaborata per controllare la presenza di soggetti.
Un modulo di rilevamento di disturbo 524 Šconfigurato per rilevare tale disturbo N con due possibili modalità:
1) tramite un dispositivo dedicato (encoder di posizione), applicato ai motori del cancello, che può restituire:
a) l’esatto angolo di apertura/chiusura del battente, in relazione all’asse di rotazione del cancello, rapportato al modello 3D del cancello ottenibile in fase d’installazione;
b) l’esatta misura di traslazione dell’anta, in relazione alla direzione di scorrimento del cancello, rapportata al modello 3D del cancello ottenibile in fase d’installazione
c) l’esatto angolo di apertura/chiusura della sbarra, in relazione all’asse di rotazione della sbarra, (ortogonale all’asse longitudinale della sbarra stessa) rapportato al modello 3D del cancello (sbarra) ottenibile in fase d’installazione.
2) nel caso non sia disponibile l’encoder descritto al punto precedente, la posizione dei battenti Å rilevata con tecniche di visione artificiale.
Una volta rilevato il disturbo N, viene filtrato dalle immagini delle corrispondenti regioni d’influenza 41, 42, 43, 44, 45.
A questo scopo, l’unità di elaborazione di immagini 20 comprende un primo modulo di filtraggio 523 configurato per rimuovere il disturbo N del cancello automatico 30, dall’immagine rilevata di una o pià ̧ regioni d’influenza 41, 42, 43, 44, 45.
Pià ̧ precisamente, il primo modulo di filtraggio 523 confronta l’immagine rilevata dal primo modulo di rilevamento 522 con il disturbo N rilevato dal modulo di rilevamento di disturbo 524.
Le immagini delle regioni d’influenza risultanti rappresentano la scena ripulita dalla presenza dei componenti mobili 31, 32, 131, 231.
Preferibilmente, il confronto viene effettuato tra immagini rimappate IPM (Inverse Perspective Mapping), cioÅ elaborate con una nota tecnica di rimappatura dell’immagine che, a partire da un’immagine reale distorta e vista in prospettiva di una scena, produce un’immagine della scena dall’alto senza distorsione.
Per rimuovere contemporaneamente l’effetto della distorsione radiale introdotta dall’ottica e l’effetto della prospettiva, si possono utilizzare modelli matematici noti che consentono un’associazione dei punti dell’immagine IPM (o immagine corretta) e dei rispettivi punti che si trovano sull’immagine reale.
L’utilizzo della tecnica IPM sarà pià ̧ dettagliatamente descritto in seguito.
Tale tecnica viene usata in riferimento alla presente invenzione per determinare una corrispondenza geometrica tra i pixel dell’immagine ed i punti reali del mondo.
La tecnica IPM non Å la sola tecnica che svolge questa funzione.
Essa, infatti, potrà essere sostituita con altre tecniche similari di trasformazione geometrica presenti in letteratura.
L’unità di elaborazione di immagini 20 comprende inoltre un secondo modulo di rilevamento 22 configurato per rilevare un soggetto, nell’area di riferimento 40, in funzione delle immagini acquisite A, A1.
Preferibilmente, il secondo modulo di rilevamento 22 Å configurato per rilevare un soggetto, nell’area di riferimento 40, in funzione delle immagini acquisite A, A1ripulite dal disturbo N, tramite il primo modulo di filtraggio 523.
Nella prima forma di realizzazione dell’invenzione, cioÅ nel caso in cui il cancello automatico 30 comprenda, come componenti mobili, due battenti 31, 32, l’eventuale soggetto nell’area di riferimento 40 viene identificato come qui descritto.
Per il rilevamento di un soggetto in ognuna delle regioni 43 e 44, il secondo modulo di rilevamento 22 Å configurato per ricevere immagini A o A1 da un solo dispositivo di rilevamento 10 o 10a.
In altre parole, il rilevamento Å monoscopico.
Per il rilevamento di un soggetto in ognuna delle regioni 41 e 42, il secondo modulo di rilevamento 22 Å configurato per ricevere immagini A ed A1 dai due dispositivi di rilevamento 10 e 10a.
In altre parole, il rilevamento Å stereoscopico, cioÅ dotato di due dispositivi di acquisizione di immagini che inquadrano la stessa scena da due posizioni differenti, acquisendo rispettive immagini A ed A1.
Le telecamere sono configurate per riprendere scene composte da una pluralità di immagini, o fotogrammi, in sequenza.
Il soggetto da rilevare può essere, fermo o in movimento, in una qualsiasi delle regioni 41, 42, 43, 44, 45 che compongono l’area di riferimento 40.
In altre parole, il secondo modulo di rilevamento 22 comprende un modulo di selezione 21 configurato per selezionare, dalle immagini acquisite A, A1, aree rappresentative AR di un soggetto nell’area di riferimento 40.
Preferibilmente, la selezione viene effettuata a partire dalle immagini acquisite A, A1 ripulite, tramite il primo modulo di filtraggio 523, dalle immagini di disturbo N create dai componenti mobili 31, 32, 131, 231.
Preferibilmente, dopo la pulizia, nella prima forma di realizzazione dell’invenzione, cioÅ nel caso in cui i componenti mobili sono costituiti da almeno un battente 31, 32, le immagini sono rilevate ed elaborate con tecniche di elaborazione grafica differenti a secondo della dislocazione delle regioni d’influenza 41, 42, 43, 44, rispetto ai battenti 31, 32,
Le due tecniche utilizzate, qui di seguito descritte, sono:
- Rilevamento monoscopico effettuato sulle regioni d’influenza 43 e 44;
- Rilevamento stereoscopico effettuato sulle regioni d’influenza 41 e 42.
Rilevamento monoscopico e regioni d’influenza 43 e 44
Nel caso in cui non vi siano soggetti in transito nei pressi del cancello automatico 30, le immagini acquisite A o A1 sono solitamente immagini di sfondo invariate rispettivamente delle regioni d’influenza 43 e 44 nel raggio d’azione dei rispettivi dispositivi d’acquisizione 10 e 10a.
Nel caso, invece, vi siano soggetti in movimento all’interno delle aree 43, 44, la selezione delle immagini di tale soggetto viene realizzata tramite una nota tecnica grafica di sottrazione di sfondo (background subtraction), qui di seguito descritto.
In tale tecnica, per selezionare le immagini di un soggetto in movimento, viene utilizzata, preferibilmente, un’elaborazione ricorsiva in cui ogni immagine partecipa alla stima dell’immagine di sfondo.
Ciò Šdettato dalla mancanza di informazioni a priori delle possibili variazioni dello sfondo e della frequenza con cui queste variazioni avvengono.
In tale stima, l’influenza delle immagini acquisite A, A1 precedenti viene ridotta applicando due diversi pesi ai punti dello sfondo ed alle immagini acquisite A,A1 correnti.
Le quattro fasi principali di un algoritmo di background subtraction sono:
(a) Preelaborazione;
(b) Modellazione dello sfondo;
(c) Individuazione del potenziale soggetto (foreground);
(d) Validazione dei dati.
(a) Preelaborazione
La preelaborazione Å composta da una serie di semplici processi che convertono l’ingresso video, vale a dire la sequenza d’immagini acquisite A,A1 in un formato che può essere processato nelle fasi successive.
Nella fase di inizializzazione la prima immagine acquisita A,A1 viene copiata nell’immagine dello sfondo, che coincide con l’immagine della rispettiva terza regione d’influenza 43 e quarta regione d’influenza 44, che dal quel momento, verrà aggiornata continuamente da ogni successiva immagine acquisita A,A1. (b) Modellazione dello sfondo
La modellazione dello sfondo utilizza immagini acquisite A,A1 nuove per calcolare ed aggiornare il modello dello sfondo. Questo modello fornisce una descrizione statistica dell’intera scena osservata.
Ad ogni nuova acquisizione viene generata un’immagine di confronto C1, C2 del soggetto in movimento che Å ottenuta come confronto tra ogni rispettiva immagine acquisita A,A1 e la corrispondente immagine di sfondo.
L’immagine di sfondo viene acquisita finchà ̃ il sistema non genera un comando di apertura/chiusura del cancello 30.
Pià ̧ specificamente, a questo scopo, il modulo di selezione 21 comprende un primo modulo di confronto d’immagini 1000 configurato per generare immagini di confronto C1, C2 ottenute come confronto tra le rispettive immagini acquisite A,A1 nell’area di riferimento 40, ed una o pià ̧ immagini di riferimento.
Preferibilmente, il modulo di confronto d’immagini 1000 comprende un primo modulo operativo 121 configurato per confrontare le immagini acquisite A,A1 con corrispondenti immagini di sfondo, l’immagine di sfondo costituendo il suddetto riferimento, il confronto generando le rispettive immagini di confronto C1, C2.
In particolare, in questo caso, il confronto Å realizzato tra le immagini acquisite A,A1 nelle rispettive regioni d’influenza 43 e 44 ed una o pià ̧ rispettive immagini di riferimento nelle regioni d’influenza 43 e 44.
Pià ̧ specificamente, il modulo operativo 121 Å configurato per effettuare il confronto tramite un’elaborazione ricorsiva apportando un peso differente alle immagini acquisite A,A1 ed alle rispettive immagini di sfondo.
In altre parole, il peso delle immagini acquisite A,A1 in fase di elaborazione Å superiore al peso delle corrispondente immagine di sfondo, in modo da semplificare l’estrazione dell’immagine del soggetto in movimento rispetto allo sfondo costante.
Il modulo di selezione 21 comprende, inoltre, mezzi di filtraggio d’immagine 421 configurati per identificare le aree rappresentative AR, del soggetto nell’area di riferimento 40, dalle immagini di confronto C1, C2.
Preferibilmente, tali mezzi di filtraggio d’immagine 421 comprendono un filtro passa basso.
I mezzi di filtraggio selezionano le aree rappresentative AR delle immagini di confronto C1,C2 attraverso la manipolazione di due parametri:
- una dimensione della finestra di filtraggio
- una soglia di filtraggio con la quale vengono valutate le aree selezionate dalla finestra di filtraggio.
In altre parole, i mezzi di filtraggio sono configurati in base ad una predefinita finestra di filtraggio ed a una predefinita soglia di filtraggio.
Preferibilmente, la finestra di filtraggio “inquadra”, in successione, diverse parti delle immagini di confronto C1,C2.
Preferibilmente, la soglia di filtraggio consente l’impostazione del numero di pixel minimo che consente di identificare un soggetto in movimento rispetto allo sfondo.
In altre parole, la soglia di filtraggio consente l’impostazione del valore di densità spaziale minima di pixel che consente di identificare un soggetto in movimento rispetto allo sfondo.
(c) Individuazione del potenziale soggetto (foreground)
Nell’individuazione del potenziale soggetto, dopo la fase di modellazione dello sfondo, l’immagine in ingresso viene confrontata con il modello dello sfondo generato, identificando i pixel che potenzialmente rappresentano soggetti in movimento.
Le aree rappresentative AR sono identificate, tra quelle selezionate dalla finestra di filtraggio, come le aree con densità spaziale in pixel maggiore di quella impostata tramite la predefinita soglia di filtraggio.
Le aree rappresentative AR sono graficamente identificate da “blob” (Binary Large OBject), vale a dire grandi quantità di dati binari utilizzati per la memorizzazione e la manipolazione di informazioni, in particolare in relazione a immagini e filmati video.
In altre parole, il blob Å una maschera di rappresentazione binaria di un potenziale soggetto, quest’ultimo identificato da una densità spaziale in pixel maggiore di quella impostata tramite la soglia di filtraggio predefinita.
(d) Validazione dei dati
Infine, la validazione dei dati esamina la maschera del potenziale soggetto eliminando i pixel che non corrispondono ad un effettivo soggetto in movimento ed estrae la maschera finale del soggetto.
Utilizzando direttamente le immagini sorgenti nell’algoritmo di sottrazione dello sfondo, la distorsione prodotta dalle lenti del dispositivo di acquisizione 10,10a e la distorsione prospettica agiscono sulle forme delle aree rappresentative AR alterandone l’informazione essenziale.
La deformazione dell’immagine riprodotta ha grosse ripercussioni nel calcolo della maschera dei soggetti in quanto i mezzi di filtraggio precedentemente descritti sono molto sensibili ai parametri di dimensionamento del rettangolo di filtraggio.
Se il rettangolo Å troppo piccolo, molto rumore ambientale (piccole ombre o riflessi) non viene filtrato e alcune aree del potenziale soggetto non trovano corrispondenza nella maschera del soggetto e partecipano come punti di sfondo nell’aggiornamento dello stesso.
Al contrario se viene scelto un rettangolo troppo grande, i potenziali soggetti in movimento nelle zone periferiche dell’immagine possono venire scartati dalla maschera degli ostacoli.
Per ovviare a questo problema Å necessario utilizzare una dimensione fissa del rettangolo per l’intera area dell’immagine.
In altre parole, la finestra di filtraggio ha una dimensione fissa per l’intera area dell’immagine.
Per permettere ciò, le immagini acquisite A,A1 sono atte ad essere rimappate preferibilmente con una tecnica di Inverse Perspective Mapping (IPM), accennata in precedenza, benchà ̃ altre tecniche possano essere utilizzate per determinare una corrispondenza geometrica tra i pixel dell’immagine ed i punti reali del mondo.
A questo scopo, l’unità di elaborazione 20 comprende un modulo di rimappatura d’immagine 321 configurato per rimappare in immagini IPM le immagini acquisite A,A1 nell’area di riferimento 40, in modo che le immagini in ingresso al primo modulo di rilevamento 522 siano immagini rimappate IPM.
Sempre con riferimento alla prima forma di realizzazione dell’invenzione, cioÅ nel caso in cui i componenti mobili sono costituiti da almeno un battente 31, 32, in questo caso, il modulo di rimappatura d’immagine 321 Å configurato per rimappare in immagini IPM le immagini acquisite A,A1 nelle rispettive regioni d’influenza 43 e 44.
Al termine della rimappatura IPM, le immagini IPM vengono opportunamente filtrate tramite i mezzi di filtraggio 421 già descritti in relazione alla tecnica di background substraction.
In immagini di confronto successive, vale a dire ottenute come confronto tra ogni immagine acquisita A,A1 e l’immagine di sfondo, l’area rappresentativa AR identifica il potenziale soggetto in posizioni differenti a seguito dello spostamento del soggetto stesso rispetto allo sfondo.
Rilevamento stereoscopico e regioni d’influenza 41 e 42.
In questo secondo caso, all’interno del modulo di selezione 21, il modulo di confronto d’immagini 1000, differentemente dal caso monoscopico, Å configurato per generare immagini di confronto C3, C4 ottenute come confronto tra le immagini acquisite A,A1 ed una o pià ̧ immagini di riferimento.
In particolare, il modulo di confronto 1000 comprende un secondo modulo operativo 221 configurato per confrontare una prima immagine acquisita A, dal primo dispositivo di acquisizione 10 nella prima regione d’influenza 41, ed una seconda immagine acquisita A1, dal secondo dispositivo di acquisizione 10a, nella stessa prima regione d’influenza 41.
Analogamente, il secondo modulo operativo 221 Å configurato per confrontare una prima immagine acquisita A, dal primo dispositivo di acquisizione 10 nella seconda regione d’influenza 42, ed una seconda immagine acquisita A1, dal secondo dispositivo di acquisizione 10a, nella stessa seconda regione d’influenza 42.
Preferibilmente, le immagini A, A1 sono acquisite contemporaneamente e la seconda immagine acquisita A1 costituisce il riferimento.
Con riferimento alla prima forma di realizzazione dell’invenzione, il confronto genera immagini di confronto C3 (per la prima regione 41) e C4 (per la seconda regione 42).
Preferibilmente l’immagine di confronto C3,C4 Å ricavata come immagine differenza tra le immagini rilevate.
In altre parole, per l’estrazione delle immagini della prima regione d’influenza 41 e della seconda regione d’influenza 42, e per l’estrazione dell’immagine del soggetto in movimento non Å pià ̧ necessario mantenere un modello dello sfondo, come invece Å previsto per la terza 43 e quarta 44 regione d’influenza con rilevamento monoscopico.
Il confronto tra le immagini rilevate dai due dispositivi di acquisizione avviene preferibilmente tramite sottrazione pixel a pixel tra le due immagini rilevate. Per la generazione delle immagini di confronto C3, C4 le immagini acquisite A ed A1 possono essere anch’esse immagini rimappate IPM.
Le elaborazioni successive sono ottenute a partire dalle immagini di confronto C3, C4.
In dettaglio, i mezzi di filtraggio d’immagine 421 sono configurati per identificare aree rappresentative AR dalle immagini di confronto C3, C4 ad un dato istante.
Nella seconda forma di realizzazione dell’invenzione, cioÅ nel caso in cui i componenti mobili sono ante 131 o sbarre 231, l’area di riferimento 40, come già detto, Å suddivisa in una sola regione d’influenza 41.
Le immagini sono rilevate ed elaborate con una tecnica di elaborazione grafica di rilevamento stereoscopico effettuato sulla regione d’influenza 41.
L’unità di elaborazione di immagini 20 comprende un modulo di correlazione di aree 25 configurato per riconoscere le aree rappresentative AR di uno stesso soggetto in movimento in successive immagini di confronto C1,C2,C3,C4.
In altre parole, il modulo di correlazione di aree 25 Å configurato per riconoscere blob, rappresentativi di uno stesso soggetto in movimento, in successive immagini di confronto C1,C2,C3,C4.
L’ipotesi di base Å che, acquisendo le immagini con una frequenza sufficientemente alta, la posizione di un soggetto e quindi della relativa area rappresentativa AR in immagini successive non vari di molto.
Sotto questa ipotesi e per la finalità del sistema Å sufficiente identificare un’area di associazione AS delle aree rappresentative AR per valutare la correlazione. L’operazione di correlazione comprende due fasi :
-labelling
- calcolo parametri geometrici ed aree di sovrapposizione AS Labelling
La procedura di labelling prevede l’etichettatura di differenti aree rappresentative AR di un’immagine per consentirne un’univoca distinzione. Tale operazione si applica ad un’immagine binarizzata dell’area rappresentativa AR per generare in uscita un’altra immagine in cui, ad ogni area rappresentativa AR etichettata, viene associato un differente colore di riempimento.
Questa operazione viene eseguita sulle maschere dei soggetti sopra citate in modo da poter poi calcolare per ogni soggetto tutti i parametri geometrici ad esso associati.
In altre parole, il modulo di correlazione di aree 25 Å configurato per etichettare in maniera identica aree rappresentative AR di uno stesso soggetto in successive immagini di confronto C1,C2,C3,C4.
Il modulo di correlazione di aree 25 Å configurato, inoltre, per identificare aree di associazione AS tra le aree rappresentative AR etichettate in maniera identica nell’area di riferimento 40.
L’associazione può essere identificata:
- tramite sovrapposizione delle aree rappresentative AR etichettate in maniera identica;
- tramite contiguità delle aree rappresentative AR etichettate in maniera identica.
In entrambi i casi, l’associazione Å successiva ad una fase di filtraggio in cui un ulteriore modulo di filtraggio Å configurato per eliminare le aree rappresentative AR con un’area inferiore ad un’area prestabilita.
In altre parole, Il filtraggio basato su di un’area minima delle aree rappresentative AR elimina dall’immagine tutte le aree rappresentative il cui valore di area Å inferiore ad una soglia prefissata dall’utente.
Questo primo filtraggio ha lo scopo di eliminare tutte le componenti dell’immagine che sono state generate da rumore oppure da qualche errore nell’elaborazione delle immagini stesse.
Nel primo caso di associazione, il modulo di correlazione di aree 25 Å configurato per identificare le aree di associazione AS tramite sovrapposizione tra le aree rappresentative AR etichettate in maniera identica.
Il calcolo della sovrapposizione/intersezione tra aree Šnoto al tecnico del ramo. Nel secondo caso di associazione, il modulo di correlazione di aree 25 Šconfigurato per identificare le aree di associazione AS tramite contiguità tra le aree rappresentative AR etichettate in maniera identica.
In particolare, la contiguità può essere valutata in base alla:
- distanza tra le coordinate del baricentro in entrambe le direzioni proporzionale alla dimensione dell’area rappresentativa AR;
- distanza euclidea fra i baricentri delle aree rappresentative AR proporzionale alla diagonale maggiore della area rappresentativa AR con superficie maggiore tra quelle delle due aree rappresentative confrontate. Un ultimo filtraggio sulle dimensioni delle aree rappresentative AR viene effettuato poichà ̃ delle aree rappresentative, quelle di effettivo interesse avranno dimensioni molto maggiori rispetto a quelle imputabili ad errori di elaborazione. Conseguentemente, questo secondo filtraggio può usare una soglia molto pià ̧ alta senza il pericolo di eliminare aree rappresentative contenenti informazioni utili.
Altre tecniche note equivalenti, o derivabili da ottimizzazioni della tecnica mostrata, consentono di calcolare l’area di sovrapposizione AS .
Il secondo modulo di rilevamento 22 comprende inoltre un modulo di posizione 26 che Å configurato per determinare parametri principali P identificativi di successive posizioni delle aree rappresentative AR di uno stesso soggetto nell’area di riferimento 40.
Il modulo 26 opera dopo che il modulo di correlazione 25 ha riconosciuto aree rappresentative AR di uno stesso soggetto in movimento in successive immagini di confronto C1, C2.
Preferibilmente, il modulo di posizione 26 determina i parametri principali P in funzione delle aree di associazione AS identificate dal modulo di correlazione di aree 25.
In altre parole, i parametri principali P sono rappresentativi di un’eventuale sovrapposizione tra le aree rappresentative AR.
In altri termini, i parametri principali P sono rappresentativi dell’eventuale presenza continuata di uno stesso soggetto nell’area di riferimento.
Preferibilmente i parametri principali P sono il baricentro o il punto pià ̧ basso associati ad ogni area rappresentativa AR.
Preferibilmente, il percorso delle varie aree rappresentative AR viene costruito tenendo traccia delle tappe percorse dal corrispondente baricentro in immagini successive.
Se i parametri principali P sono rappresentativi di un soggetto rilevato in immagini successive, allora il soggetto rappresenta un effettivo ostacolo.
In altre parole, le aree di sovrapposizione AS tra successive aree rappresentative AR saranno non nulle.
Questo situazione può essere assimilata al caso reale in cui una persona, un animale o un oggetto si trovi nell’area d’influenza del cancello.
Se, invece, i parametri principali P non sono rappresentativi di un soggetto rilevato in immagini successive, allora il soggetto non rappresenta un effettivo ostacolo.
In questo caso, il modulo di correlazione di aree 25 non avrà rilevato aree di associazione AS tra successive aree rappresentative AR del soggetto.
Questo situazione può essere assimilata al caso reale in cui ad un istante viene rilevato, nell’area d’influenza del cancello, un soggetto di facile movimento, quale ad esempio una foglia, ed all’istante successivo non viene pià ̧ rilevato. L’unità di elaborazione d’immagini 20 comprende ulteriormente un modulo d’azione 23.
Il modulo d’azione 23 Å configurato per comandare un’azione AZ del cancello automatico 30 quando Å rilevato il soggetto all’interno dell’area di riferimento 40.
In altre parole, il modulo d’azione 23 Å configurato per comandare un’azione AZ del cancello automatico 30 quando riceve dal modulo di posizione 26 parametri principali P rappresentativi di aree di associazione AS non nulle.
Il modulo d’azione 23 Å configurato per eseguire almeno una tra le seguenti azioni (AZ) sul cancello automatico: attivazione (START), arresto (STOP), ripresa convenzionale (RSTART), rallentamento (SLOW) ed accelerazione (FAST).Il secondo modulo di rilevamento 22 genera, quindi, un’uscita rappresentata dai parametri principali P suddetti.
In altre parole, il modulo d’azione 23 Å configurato per comandare un’azione sulle componenti mobili 31, 32, 131, 231 quando viene rilevato in successive immagini un soggetto all’interno dell’area di riferimento 40.
Nel caso di rilevamento di un ostacolo durante la chiusura del cancello automatico, ad esempio, il modulo d’azione 23 Šconfigurato per comandare un arresto delle componenti mobili 31, 32, 131, 231 quando viene rilevato, in successive immagini, un soggetto all’interno dell’area di riferimento 40.
Una volta che l’ostacolo non sia pià ̧ presente, il modulo d’azione 23 può comandare un ripresa convenzionale RSTART del funzionamento delle componenti mobili 31, 32, 131, 231.
In base ad ulteriori parametri decisionali ricevibili dal modulo 23, all’azione di arresto STOP può essere preferita un’azione di rallentamento SLOW del funzionamento delle componenti mobili 31, 32, 131, 231; ciò può verificarsi, ad esempio nel caso in cui l’ostacolo sia di dimensioni trascurabili e facilmente spostabile dal cancello in movimento (insieme di foglie o simili).
In base ad ulteriori parametri decisionali ricevibili dal modulo 23, all’azione di ripresa convenzionale RSTART può essere preferita un’azione di accelerazione FAST del funzionamento delle componenti mobili 31, 32, 131, 231 per completare l’azione nel pià ̧ breve lasso di tempo possibile.
In base ad altri parametri decisionali ricevibili dal modulo 23, ulteriori esempi di comando sono: ALERT, cioÅ un messaggio rivolto ad operatore per segnalare l’avvenuto intervento del dispositivo di sicurezza del cancello e REC, cioÅ un messaggio di sistema che comanda la registrazione di un sequenza temporale inquadrante una potenziale situazione di pericolo.

Claims (15)

  1. RIVENDICAZIONI 1. Sistema (100) per il controllo di un cancello automatico (30) comprendente: • almeno due dispositivi di acquisizione (10,10a), per l’acquisizione di immagini (A,A1), detti dispositivi essendo associati a detto cancello automatico (30), associato, a sua volta, ad un’area di riferimento (40) di detto cancello automatico (30); • un’unità di elaborazione di immagini (20), collegata a detti almeno due dispositivi di acquisizione (10,10a), detta unità comprendendo: - un primo modulo di rilevamento (522) configurato per rilevare un’immagine di una o pià ̧ regioni d’influenza (41,42,43,44,45) in un’area di riferimento (40); - un secondo modulo di rilevamento (22) configurato per rilevare, in detta una o pià ̧ regione d’influenza (41,42,43,44,45) rilevata, un soggetto in funzione di dette immagini acquisite (A,A1); - un modulo di azionamento (23) configurato per comandare un’azione (AZ) di detto cancello automatico (30) quando viene rilevato detto soggetto all’interno di detta area di riferimento (40).
  2. 2. Sistema (100) secondo la rivendicazione 1 in cui detta unità di elaborazione di immagini (20) comprende ulteriormente: - un primo modulo di filtraggio (523) configurato per rimuovere un disturbo (N) di detto cancello automatico (30) da detta immagine rilevata da detto primo modulo di rilevamento (522).
  3. 3. Sistema (100) secondo una qualsiasi delle rivendicazioni precedenti in cui detto secondo modulo di rilevamento (22) comprende ulteriormente: - un modulo di selezione (21) configurato per selezionare aree rappresentative (AR) di detto soggetto in funzione di dette immagini acquisite (A,A1) in detta area di riferimento (40); - un modulo di posizione (26) configurato per determinare parametri principali (P) identificativi di successive posizioni di dette aree rappresentative (AR) di uno stesso soggetto, in detta area di riferimento (40).
  4. 4. Sistema (100) secondo una qualsiasi delle rivendicazioni precedenti in cui detto modulo di selezione (21) comprende un modulo di confronto d’immagini (1000) configurato per generare immagini di confronto (C1,C2,C3,C4), ottenute come confronto tra dette immagini acquisite (A,A1) in detta area di riferimento (40), ed una o pià ̧ immagini di riferimento.
  5. 5. Sistema (100) secondo la rivendicazione e 4 in cui detto modulo di confronto d’immagini (1000) comprende un primo modulo operativo (121) configurato per confrontare dette immagini acquisite (A,A1) in dette rispettive terza regione d’influenza (43) e quarta regione d’influenza (44) con corrispondenti immagini di sfondo di dette rispettive terza regione d’influenza (43) e quarta regione d’influenza (44), dette immagini di sfondo costituendo detto riferimento, detto confronto generando rispettive dette immagini di confronto (C1, C2).
  6. 6. Sistema (100) secondo la rivendicazione 4 in cui detto modulo di confronto (1000) comprende un secondo modulo operativo (221) configurato per confrontare una prima immagine acquisita (A), da detto primo dispositivo di acquisizione (10) in detta prima o seconda regione d’influenza (41,42), ed una seconda immagine acquisita (A1), da detto secondo dispositivo di acquisizione (10a), nella stessa prima o seconda regione d’influenza (41,42) dette immagini essendo acquisite contemporaneamente, detta seconda immagine acquisita (A1) costituendo detto riferimento, detto confronto generando detta immagine di confronto (C3,C4).
  7. 7. Sistema (100) secondo una qualsiasi delle rivendicazioni da 3 a 6 in cui detto modulo di selezione (21) comprende mezzi di filtraggio d’immagine (421) configurati, in base ad una predefinita finestra di filtraggio ed a una predefinita soglia di filtraggio, per identificare dette aree rappresentative (AR) da dette immagini di confronto (C1,C2,C3,C4).
  8. 8. Sistema (100) secondo la rivendicazione 1 in cui detta unità di elaborazione di immagini (20) comprende un modulo di rimappatura d’immagine (321), configurato per rimappare in ingresso dette immagini acquisite (A, A1) in detta area di riferimento (40), in modo che le immagini in ingresso a detto primo modulo di rilevamento (522) siano immagini rimappate mediante una tecnica di determinazione di una corrispondenza geometrica tra i pixel dell’immagine ed i punti reali del mondo.
  9. 9. Sistema (100) secondo la rivendicazione 8 in cui detta tecnica di determinazione di una corrispondenza geometrica tra i pixel dell’immagine ed i punti reali del mondo comprende una tecnica di Inverse Perspective Mapping (IPM).
  10. 10. Sistema (100) secondo una qualsiasi delle rivendicazioni precedenti in cui detto cancello (30) comprende componenti mobili (31, 32, 131, 231) atte a suddividere detta area di riferimento (40) in una o pià ̧ di dette regioni d’influenza (41, 42, 43, 44, 45).
  11. 11. Sistema (100) secondo la rivendicazione 10 in cui dette componenti mobili comprendono almeno un battente (31, 32) atto a suddividere detta area di riferimento (40) in una pluralità di dette regioni d’influenza (41, 42, 43, 44,45) a superficie variabile, in funzione di un angolo di apertura ( ) di detti battenti (31, 32), e/o della presenza di detto soggetto in detta area di riferimento (40).
  12. 12. Sistema (100) secondo la rivendicazione 10 in cui dette componenti mobili comprendono un’anta (131) atta a suddividere detta area di riferimento (40) in una detta regione d’influenza (41), in funzione di una misura di traslazione di detta anta (131), e/o della presenza di detto soggetto in detta area di riferimento (40).
  13. 13. Sistema (100) secondo la rivendicazione 10 in cui dette componenti mobili comprendono una sbarra (132) atta a suddividere detta area di riferimento (40) in una detta regione d’influenza (41), in funzione di un angolo d’innalzamento di detta sbarra (131), e/o della presenza di detto soggetto in detta area di riferimento (40).
  14. 14. Sistema (100) secondo una qualsiasi delle rivendicazioni precedenti in cui detto secondo modulo di rilevamento 22 comprende un modulo di correlazione di aree (25) configurato per riconoscere aree rappresentative (AR) di uno stesso soggetto in movimento in successive dette immagini di confronto (C1, C2,C3,C4).
  15. 15. Sistema (100) secondo la rivendicazione 14 in cui detto modulo di correlazione di aree (25) Å configurato per - etichettare in maniera identica aree rappresentative (AR) di uno stesso soggetto in dette successive immagini di confronto (C1,C2,C3,C4); - identificare aree di associazione (AS) tra dette aree rappresentative (AR) etichettate in maniera identica in detta area di riferimento (40), detto modulo di posizione (26) essendo configurato per determinare detti parametri principali (P) in funzione di dette aree di associazione (AS) e per spedire detti parametri (P) a detto modulo d’azione (23).
ITMI2010A001327A 2010-07-19 2010-07-19 Sistema per il controllo di cancelli automatici IT1401301B1 (it)

Priority Applications (2)

Application Number Priority Date Filing Date Title
ITMI2010A001327A IT1401301B1 (it) 2010-07-19 2010-07-19 Sistema per il controllo di cancelli automatici
EP11174409.0A EP2410115B1 (en) 2010-07-19 2011-07-18 System for controlling automatic gates

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
ITMI2010A001327A IT1401301B1 (it) 2010-07-19 2010-07-19 Sistema per il controllo di cancelli automatici

Publications (2)

Publication Number Publication Date
ITMI20101327A1 true ITMI20101327A1 (it) 2012-01-20
IT1401301B1 IT1401301B1 (it) 2013-07-18

Family

ID=43666145

Family Applications (1)

Application Number Title Priority Date Filing Date
ITMI2010A001327A IT1401301B1 (it) 2010-07-19 2010-07-19 Sistema per il controllo di cancelli automatici

Country Status (2)

Country Link
EP (1) EP2410115B1 (it)
IT (1) IT1401301B1 (it)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102013224376A1 (de) * 2013-11-28 2015-05-28 Robert Bosch Gmbh Verfahren zur Videoüberwachung
CN108198333A (zh) * 2018-02-02 2018-06-22 江西辰锐信息科技有限公司 一种安全自动取款装置、系统及方法
US10837215B2 (en) 2018-05-21 2020-11-17 Otis Elevator Company Zone object detection system for elevator system

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20010030689A1 (en) * 1999-12-10 2001-10-18 Spinelli Vito A. Automatic door assembly with video imaging device
WO2005067424A2 (en) * 2003-12-31 2005-07-28 Cognex Technology And Investment Corporation Method and apparatus for monitoring a passageway using 3d images
US20050169367A1 (en) * 2000-10-24 2005-08-04 Objectvideo, Inc. Video surveillance system employing video primitives
US20060244403A1 (en) * 2003-06-16 2006-11-02 Secumanagement B.V. Sensor arrangements, systems and method in relation to automatic door openers
DE102008061910A1 (de) * 2008-12-15 2009-09-03 Daimler Ag Verfahren zur Erfassung und Vorhersage von Aktionen eines oder meherer bewegter Objekte

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20010030689A1 (en) * 1999-12-10 2001-10-18 Spinelli Vito A. Automatic door assembly with video imaging device
US20050169367A1 (en) * 2000-10-24 2005-08-04 Objectvideo, Inc. Video surveillance system employing video primitives
US20060244403A1 (en) * 2003-06-16 2006-11-02 Secumanagement B.V. Sensor arrangements, systems and method in relation to automatic door openers
WO2005067424A2 (en) * 2003-12-31 2005-07-28 Cognex Technology And Investment Corporation Method and apparatus for monitoring a passageway using 3d images
DE102008061910A1 (de) * 2008-12-15 2009-09-03 Daimler Ag Verfahren zur Erfassung und Vorhersage von Aktionen eines oder meherer bewegter Objekte

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
KA KEUNG LEE ET AL: "Boundary modeling in human walking trajectory analysis for surveillance", ROBOTICS AND AUTOMATION, 2004. PROCEEDINGS. ICRA '04. 2004 IEEE INTERN ATIONAL CONFERENCE ON NEW ORLEANS, LA, USA APRIL 26-MAY 1, 2004, PISCATAWAY, NJ, USA,IEEE, US, vol. 5, 26 April 2004 (2004-04-26), pages 5201 - 5206, XP010768218, ISBN: 978-0-7803-8232-9 *

Also Published As

Publication number Publication date
EP2410115A1 (en) 2012-01-25
IT1401301B1 (it) 2013-07-18
EP2410115B1 (en) 2014-12-17

Similar Documents

Publication Publication Date Title
ES2522589T3 (es) Sistema de reconocimiento conductual
CN109657581A (zh) 基于双目相机行为检测的城市轨道交通闸机通行控制方法
KR100879623B1 (ko) Ptz 카메라를 이용한 자동화된 광역 감시 시스템 및 그방법
US20110116684A1 (en) System and method for visually tracking with occlusions
CN104700430A (zh) 机载显示器的运动检测方法
CN105590309A (zh) 前景图像分割方法和装置
KR20150021526A (ko) 데이터베이스 생성 및 업데이트를 위한 심도 기반 추적을 이용하는 자기 학습 얼굴 인식 기법
WO2007027324A2 (en) Detecting non-people objects in revolving doors
CN112669497A (zh) 基于立体视觉技术的人行通道感知系统及方法
CN106006266A (zh) 一种应用于电梯安全监控的机器视觉建立方法
ITMI20101327A1 (it) Sistema per il controllo di cancelli automatici
BR112021017728B1 (pt) Veículo e método para operar um sistema de detecção de colisão de veículo
CN108280445A (zh) 一种车辆周围运动物体和凸起障碍物的检测方法
Verma et al. Analysis of moving object detection and tracking in video surveillance system
IT201900001833A1 (it) Un procedimento per rilevare oggetti in movimento mediante una telecamera in movimento, e relativo sistema di elaborazione, dispositivo e prodotto informatico
Radzi et al. Extraction of moving objects using frame differencing, ghost and shadow removal
Wedel et al. Warpcut–fast obstacle segmentation in monocular video
US20190180597A1 (en) Person recognition by way of a camera
IT201900007815A1 (it) Metodo per il rilevamento di oggetti in movimento
CN105793868B (zh) 用于视频监视的方法
Bravo et al. Outdoor vacant parking space detector for improving mobility in smart cities
Lalchandani et al. Smart iot based people counting system
Motwani et al. Towards benchmarking of video motion tracking algorithms
Humphreys et al. Multiple object tracking using a neural cost function
Yang et al. Dual frame differences based background extraction algorithm