ITBO20120543A1 - METHOD TO CHECK THE TRANSIT OF VEHICLES IN A ROAD TRAIL WITH AT LEAST ONE TRAIL, STURDY COMPARED TO THE FALSE TRANSITS DUE TO SHADOWS ON THE MOVE - Google Patents

METHOD TO CHECK THE TRANSIT OF VEHICLES IN A ROAD TRAIL WITH AT LEAST ONE TRAIL, STURDY COMPARED TO THE FALSE TRANSITS DUE TO SHADOWS ON THE MOVE Download PDF

Info

Publication number
ITBO20120543A1
ITBO20120543A1 IT000543A ITBO20120543A ITBO20120543A1 IT BO20120543 A1 ITBO20120543 A1 IT BO20120543A1 IT 000543 A IT000543 A IT 000543A IT BO20120543 A ITBO20120543 A IT BO20120543A IT BO20120543 A1 ITBO20120543 A1 IT BO20120543A1
Authority
IT
Italy
Prior art keywords
road
area
lane
movement
coordinates
Prior art date
Application number
IT000543A
Other languages
Italian (it)
Inventor
Dario Maio
Davide Maltoni
Original Assignee
Itata
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Itata filed Critical Itata
Priority to IT000543A priority Critical patent/ITBO20120543A1/en
Priority to EP13792479.1A priority patent/EP2904598A1/en
Priority to PCT/IB2013/059097 priority patent/WO2014054019A1/en
Publication of ITBO20120543A1 publication Critical patent/ITBO20120543A1/en

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/065Traffic control systems for road vehicles by counting the vehicles in a section of the road or in a parking area, i.e. comparing incoming count with outgoing count
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/54Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/048Detecting movement of traffic to be counted or controlled with provision for compensation of environmental or other condition, e.g. snow, vehicle stopped at detector

Description

DESCRIZIONE DESCRIPTION

“METODO PER CONTARE I TRANSITI DI VEICOLI IN UN TRATTO DI STRADA CON ALMENO UNA CORSIA, ROBUSTO RISPETTO AI FALSI TRANSITI DOVUTI A OMBRE IN MOVIMENTO†⠀ œMETHOD TO COUNT VEHICLE TRANSITS IN A SECTION OF ROAD WITH AT LEAST ONE LANE, STURDY COMPARED TO FALSE TRANSITS DUE TO MOVING SHADOWSâ €

La presente invenzione à ̈ relativa ad un metodo per contare i transiti di veicoli in un tratto di strada con almeno una corsia di marcia e ad un corrispondente dispositivo di controllo. The present invention relates to a method for counting the transits of vehicles in a stretch of road with at least one lane and to a corresponding control device.

In particolare, la presente invenzione trova vantaggiosa, ma non esclusiva applicazione nel monitoraggio del traffico stradale, cui la descrizione che segue farà esplicito riferimento senza per questo perdere in generalità. In particular, the present invention finds advantageous, but not exclusive application in the monitoring of road traffic, to which the following description will make explicit reference without thereby losing generality.

La metodologia più conosciuta e diffusa per monitorare il traffico stradale consiste nell’affogare delle spire induttive nell’asfalto delle corsie in un certo tratto di strada e elaborare le variazioni di segnali elettrici forniti dalle spire induttive per contare il numero di veicoli che transitano in quel tratto di strada. L’uso di spire induttive ha notevoli svantaggi: occorre intervenire sul manto stradale per installare le spire induttive e sono praticamente inamovibili, se non si vuole di nuovo rifare il manto stradale. The best known and most widespread methodology for monitoring road traffic consists in drowning inductive loops in the asphalt of the lanes in a certain stretch of road and processing the variations of electrical signals provided by inductive loops to count the number of vehicles passing through in that stretch of road. The use of inductive loops has considerable disadvantages: it is necessary to intervene on the road surface to install the inductive loops and they are practically immovable, if you do not want to redo the road surface again.

Una tecnica che non richiede interventi sul manto stradale, prevede l’impiego di sensori a onde riflesse (ultrasuoni, radar, ecc.). Lo svantaggio principale di questa tecnica à ̈ dovuto al fatto che i sensori devono essere orientati secondo il senso di marcia dei veicoli e pertanto devono essere montati su ponti o portali sulla strada. Inoltre, il posizionamento di tali sensori deve essere realizzato in maniera ottimale e in genere un sensore à ̈ in grado di coprire una sola corsia. A technique that does not require interventions on the road surface, involves the use of reflected wave sensors (ultrasound, radar, etc.). The main disadvantage of this technique is due to the fact that the sensors must be oriented according to the direction of travel of the vehicles and therefore must be mounted on bridges or portals on the road. Furthermore, the positioning of these sensors must be optimally realized and generally a sensor is able to cover only one lane.

Un’ulteriore metodologia non invasiva per il manto stradale prevede di registrare immagini video del tratto di strada da monitorare mediante una videocamera posta in prossimità del tratto stradale, trasmettere le immagini video ad un server remoto, il quale à ̈ configurato per elaborare le immagini video per fornire statistiche sul traffico stradale. Il principale svantaggio di questa metodologia à ̈ rappresentato dalla necessità di una rete di telecomunicazione con elevata capacità di banda progetta ed installata ad hoc per trasmettere le immagini video registrate al server remoto. A further non-invasive methodology for the road surface involves recording video images of the stretch of road to be monitored by means of a video camera placed near the road section, transmitting the video images to a remote server, which is configured to process the images videos to provide road traffic statistics. The main disadvantage of this methodology is represented by the need for a telecommunication network with high bandwidth capacity designed and installed ad hoc to transmit the recorded video images to the remote server.

E’ noto anche un dispositivo di controllo del traffico stradale installabile su un palo della illuminazione stradale e comprendente, a bordo, una video camera digitale per acquisire immagini video, una unità di elaborazione configurata per elaborare le immagini video sostanzialmente in tempo reale in modo da fornire statistiche sul traffico, ed un modulo di comunicazione per trasmettere le statistiche calcolate ad un server remoto. Le immagini video non vengono né memorizzate localmente, né trasmesse al server remoto e quindi non servono canali di trasmissione con bande elevate. Per tale motivo, si può fare ricorso ad un modulo di comunicazione del tipo ad onde convogliate (“Power Line Communication†). A road traffic control device is also known that can be installed on a street lighting pole and comprises, on board, a digital video camera to acquire video images, a processing unit configured to process the video images substantially in real time in a to provide traffic statistics, and a communication module to transmit the calculated statistics to a remote server. The video images are neither stored locally, nor transmitted to the remote server and therefore no transmission channels with high bands are required. For this reason, it is possible to use a communication module of the conveyed wave type (â € œPower Line Communicationâ €).

L’unità di elaborazione, nel caso di una soluzione embedded, comprende usualmente un microprocessore configurato per implementare algoritmi di elaborazione delle immagini ottimizzati per il tipo di hardware utilizzato. Gli algoritmi noti per tali applicazioni permettono bassi errori di conteggio dei veicoli anche nei casi di condizioni ambientali difficili, quali la scarsa luminosità, la nebbia o le ombre di alberi proiettate sulle corsie della strada. Tuttavia, gli algoritmi noti non consentono di filtrare la gran parte dei falsi transiti dovuti alle ombre in movimento su una corsia prodotte dai veicoli in transito nelle corsie adiacenti o lungo il bordo esterno della corsia, senza filtrare anche veri transiti. Questo inconveniente si manifesta soprattutto durante le prime ore del mattino e verso il tramonto, quando le ombre dei veicoli si allungano e invadono le corsie adiacenti. The processing unit, in the case of an embedded solution, usually comprises a microprocessor configured to implement image processing algorithms optimized for the type of hardware used. Algorithms known for such applications allow low vehicle counting errors even in cases of difficult environmental conditions, such as low light, fog or tree shadows projected on the road lanes. However, the known algorithms do not allow to filter most of the false transits due to the shadows moving on a lane produced by the vehicles passing in the adjacent lanes or along the outer edge of the lane, without also filtering real transits. This problem occurs especially during the early hours of the morning and towards sunset, when the shadows of the vehicles lengthen and invade the adjacent lanes.

Scopo della presente invenzione fornire un metodo ed un dispositivo di controllo del traffico in grado di contare i transiti di veicoli in un tratto di strada, i quali metodo e dispositivo siano esente dagli inconvenienti sopra descritti e, nello stesso tempo, siano di facile ed economica realizzazione. The purpose of the present invention is to provide a method and a traffic control device capable of counting the transits of vehicles in a stretch of road, which method and device are free from the drawbacks described above and, at the same time, are easy and economical. realization.

In accordo con la presente invenzione vengono forniti un metodo ed un dispositivo di controllo per contare i transiti di veicoli in un tratto di strada con almeno una corsia di marcia, secondo quanto definito nelle rivendicazioni allegate. In accordance with the present invention, a method and a control device are provided for counting the transits of vehicles in a stretch of road with at least one lane, as defined in the attached claims.

Per una migliore comprensione della presente invenzione, viene ora descritta una forma di realizzazione applicata al caso di una strada a due corsie adiacenti, a puro titolo di esempio non limitativo e con riferimento ai disegni allegati, nei quali: For a better understanding of the present invention, an embodiment applied to the case of a road with two adjacent lanes is now described, purely by way of non-limiting example and with reference to the attached drawings, in which:

- la figura 1 illustra un palo per l’illuminazione stradale posto al lato di una strada a due corsie e provvisto del dispositivo di controllo per il monitoraggio del traffico realizzato e funzionante secondo i dettami della presente invenzione; - figure 1 illustrates a pole for street lighting placed at the side of a two-lane road and equipped with the control device for monitoring the traffic built and operating according to the dictates of the present invention;

- la figura 2 illustra, mediante uno schema a blocchi, l’hardware del dispositivo di controllo della figura 1; Figure 2 illustrates, by means of a block diagram, the hardware of the control device of Figure 1;

- la figura 3 illustra, in maniera schematica, il posizionamento del dispositivo di controllo della figura 1 rispetto ad un sistema di riferimento mondo; e Figure 3 schematically illustrates the positioning of the control device of Figure 1 with respect to a world reference system; And

- le figure 4 e 5 illustrano un esempio del campo di inquadratura di immagini video acquisite con il dispositivo di controllo della figura 1. - Figures 4 and 5 illustrate an example of the framing field of video images acquired with the control device of Figure 1.

Nella figura 1, con 1 à ̈ genericamente indicato un palo che sorregge una lampada per l’illuminazione stradale e che à ̈ disposto a lato di una strada 2 avente due corsie di marcia 3 adiacenti. Sul palo 1 à ̈ montato un dispositivo di controllo 4 per il monitoraggio del traffico stradale nel tratto di strada 2a vicino al palo 1, il quale dispositivo di controllo 4 à ̈ realizzato secondo la presente invenzione. In figure 1, 1 generically indicates a pole which supports a lamp for street lighting and which is arranged on the side of a road 2 with two adjacent lanes 3. On the pole 1 there is mounted a control device 4 for monitoring the road traffic in the stretch of road 2a near the pole 1, which control device 4 is made according to the present invention.

Con riferimento alla figura 2, il dispositivo di controllo 4 comprende, montati a bordo, un sensore di immagini digitale 5 costituito, per esempio, da un sensore CMOS per acquisire immagini video con una frame rate predefinita, per esempio compresa tra 25 e 35 frame/sec, un orologio in tempo reale (“Real Time Clock†) 6 per fornire ora locale e data del tratto di strada 2a, un microprocessore 7 avente una potenza di calcolo sufficiente per elaborare in tempo reale le immagini acquisite dal sensore di immagini 5 in modo da fornire statistiche di traffico relative al tratto di strada 2a, per esempio un microprocessore RISC a 32 bit di tipo ARM9 con clock di 200 MHz, una memoria volatile 8 (RAM) utilizzata per le elaborazioni eseguite dal microprocessore 7, una memoria non volatile 9 (NVM) per memorizzare firmware e dati di configurazione del dispositivo di controllo 4, ed uno o più moduli di comunicazione per permettere di configurare il dispositivo di controllo 4 dall’esterno e permettere la trasmissione delle statistiche di traffico verso un server remoto (non illustrato). With reference to Figure 2, the control device 4 comprises, mounted on board, a digital image sensor 5 consisting, for example, of a CMOS sensor for acquiring video images with a predefined frame rate, for example between 25 and 35 frames. / sec, a real time clock (â € œReal Time Clockâ €) 6 to provide local time and date of the stretch of road 2a, a microprocessor 7 with sufficient computing power to process the images acquired by the image sensor in real time 5 so as to provide traffic statistics relating to the stretch of road 2a, for example a 32-bit RISC microprocessor of the ARM9 type with a clock of 200 MHz, a volatile memory 8 (RAM) used for the processing performed by the microprocessor 7, a memory non-volatile 9 (NVM) to store firmware and configuration data of the control device 4, and one or more communication modules to allow configuring the control device 4 from the outside and p allow the transmission of traffic statistics to a remote server (not shown).

I moduli di comunicazione comprendono un modulo di comunicazione wireless 10, per esempio un modulo di comunicazione bluetooth, per permettere ad un tecnico installatore di effettuare la prima configurazione del dispositivo di controllo 4, ed almeno un modulo di comunicazione wired 11, per esempio un modulo di comunicazione ad onde convogliate e/o un modulo di comunicazione ethernet, per permettere la trasmissione delle statistiche di traffico calcolate sulla base delle immagini video acquisite. The communication modules comprise a wireless communication module 10, for example a bluetooth communication module, to allow an installation technician to carry out the first configuration of the control device 4, and at least one wired communication module 11, for example a module of conveyed wave communication and / or an Ethernet communication module, to allow the transmission of traffic statistics calculated on the basis of the acquired video images.

Con riferimento figura 3, il dispositivo di controllo 4 à ̈ montato ad una certa altezza H dal suolo, cioà ̈ dalla superficie del tratto di strada 2a, in modo da orientare la direzione di inquadratura DF del sensore di immagini 5 verso il tratto di strada 2a da monitorare per permettere l’acquisizione di immagini video del tratto di strada 2a. La direzione di inquadratura DF avrà una generica inclinazione α rispetto alla direzione dell’orizzonte DO e la posizione del dispositivo di controllo 4, e quindi del sensore di immagini 5, rispetto alla verticale formerà, con la direzione Nord, un angolo β. With reference to Figure 3, the control device 4 is mounted at a certain height H from the ground, i.e. from the surface of the road section 2a, so as to orient the direction of framing DF of the image sensor 5 towards the road section 2a to be monitored to allow the acquisition of video images of the stretch of road 2a. The direction of framing DF will have a generic inclination Î ± with respect to the direction of the horizon DO and the position of the control device 4, and therefore of the image sensor 5, with respect to the vertical will form, with the North direction, an angle β.

Con riferimento di nuovo alla figura 2, il dispositivo di controllo 4 comprende inoltre un accelerometro 12 per fornire un segnale SA indicativo della inclinazione α ed una magnetometro 13 per fornire un segnale SB indicativo dell’angolo β. In aggiunta, il dispositivo di controllo 4 comprende un ricevitore GPS 14 per acquisire le coordinate geostazionarie del punto del tratto di strada 2a in cui à ̈ montato il dispositivo di controllo 4. With reference again to Figure 2, the control device 4 further comprises an accelerometer 12 to supply a signal SA indicative of the inclination Î ± and a magnetometer 13 to supply a signal SB indicative of the angle β. In addition, the control device 4 comprises a GPS receiver 14 for acquiring the geostationary coordinates of the point of the stretch of road 2a in which the control device 4 is mounted.

I dati di configurazione nella memoria 9 comprendono dati pre-installati, tra cui dati vettoriali che descrivono forma e dimensioni di un’area di rilevamento da replicare in uno più punti del campo di inquadratura del sensore immagini 5 per definire delle porzioni di immagini “sensibili†al movimento che permettono di riconoscere il transito di un veicolo sopra di esse, secondo tecniche note nel campo della visione artificiale per applicazioni nel monitoraggio del traffico stradale. In altre parole, i dati vettoriali memorizzati nella memoria 9 costituiscono il modello di una cosiddetta “spira virtuale†da posizionare nel campo di inquadratura del sensore ottico 5 per rilevare il transito di veicolo dalle immagini acquisite. I dati pre-installati comprendono anche parametri intrinseci del sensore ottico 5. The configuration data in memory 9 includes pre-installed data, including vector data describing the shape and size of a detection area to be replicated in one or more points of the field of view of the image sensor 5 to define portions of images â € œsensitiveâ € to movement that allow to recognize the transit of a vehicle over them, according to known techniques in the field of artificial vision for applications in road traffic monitoring. In other words, the vector data stored in the memory 9 constitute the model of a so-called â € œvirtual breathâ € to be positioned in the field of view of the optical sensor 5 to detect vehicle transit from the acquired images. The pre-installed data also includes intrinsic parameters of the optical sensor 5.

Il firmware memorizzato nella memoria 9 comprende porzioni di codice software progettati per implementare, quando vengono caricati nella memoria 8 ed eseguiti dal microcontrollore 7, il metodo di conteggio dei veicoli della presente invenzione, che viene descritto in dettaglio qui di seguito. The firmware stored in memory 9 comprises portions of software code designed to implement, when loaded into memory 8 and executed by microcontroller 7, the vehicle counting method of the present invention, which is described in detail below.

Il metodo comprende in generale tre macro-funzioni che si differenziano, oltre che per lo scopo, anche per il momento in cui vengono eseguite. Una prima macro-funzione à ̈ relativa alla configurazione del dispositivo di controllo 4 e viene eseguita una tantum su richiesta del tecnico installatore per calcolare e acquisire dati invarianti necessari per le elaborazioni delle due successive macrofasi. Con la prima macro-funzione vengono definite prime aree di rilevamento, cioà ̈ spire virtuali, all’interno delle corsie, da sovrapporre alla immagini video acquisite per rilevare il transito dei veicoli. Una seconda macrofunzione viene eseguita periodicamente ed à ̈ relativa alla definizione e all’aggiornamento di seconde aree di rilevamento legate alle prime aree di rilevamento tramite le direzioni e lunghezza d’ombra correnti per la verifica della presenza di falsi transiti su una certa corsia dovuti alle ombre di veicoli transitati sulla corsia adiacente. Le seconde aree di rilevamento costituiscono ulteriori porzioni di immagini sensibili al movimento, qui di seguito chiamate “zone di previsione†, che permettono di stimare la presenza di veicoli che sono la causa delle ombre in movimento rilevate sulle spirali virtuali. Una terza macrofunzione à ̈ relativa al rilevamento dei movimenti sulle spire virtuali, al filtraggio dei movimenti rilevati tramite le zone di previsione ed al conteggio dei veicoli transitati. The method generally includes three macro-functions which differ not only for the purpose but also for the moment in which they are performed. A first macro-function relates to the configuration of the control device 4 and is performed one-off at the request of the installation technician to calculate and acquire invariant data necessary for the processing of the two subsequent macro-phases. The first macro-function defines the first detection areas, ie virtual loops, inside the lanes, to be superimposed on the video images acquired to detect the transit of vehicles. A second macro-function is performed periodically and is related to the definition and updating of second detection areas linked to the first detection areas through the current directions and length of shadow to check for the presence of false transits on a certain lane due to the shadows of vehicles passing in the adjacent lane. The second detection areas constitute further portions of motion-sensitive images, hereinafter called â € œprediction zonesâ €, which allow to estimate the presence of vehicles that are the cause of the moving shadows detected on the virtual spirals. A third macro-function is related to the detection of movements on the virtual loops, to the filtering of the movements detected through the forecast areas and to the counting of vehicles passed through.

La prima macro-funzione comprende un primo gruppo di passi eseguiti automaticamente, tra cui calibrare il sensore ottico 5 in funzione di propri parametri intrinseci, acquisire, tramite il sensore di immagini 5, una immagine campione del tratto di strada 2a e, sulla base dell’immagine campione, ed effettuare una separazione logica tra la carreggiata e le aree fuori dalla carreggiata e individuare l’area all’interno di ciascuna corsia. Inoltre, il microcontrollore 7 comanda l’accelerometro 12 ed il magnetometro 13 per acquisire l’inclinazione α e l’angolo β della direzione di inquadratura DF ed il ricevitore GPS 14 per acquisire le coordinate geostazionarie. The first macro-function comprises a first group of steps performed automatically, including calibrating the optical sensor 5 according to its intrinsic parameters, acquiring, through the image sensor 5, a sample image of the stretch of road 2a and, on the basis of the Sample image, and make a logical separation between the carriageway and the areas outside the carriageway and identify the area inside each lane. Furthermore, the microcontroller 7 controls the accelerometer 12 and the magnetometer 13 to acquire the inclination Î ± and the angle β of the direction of framing DF and the GPS receiver 14 to acquire the geostationary coordinates.

La prima macro-funzione comprende, inoltre, una serie di passi interattivi che permettono al tecnico installatore di immettere, tramite il modulo di comunicazione wireless 10, l’altezza dal suolo H e la posizione delle prime aree di rilevamento, ossia delle spire virtuali, all’interno dei tratti delle corsie 3 visibili nell’immagine campione. The first macro-function also includes a series of interactive steps that allow the installation technician to enter, via the wireless communication module 10, the height from the ground H and the position of the first detection areas, i.e. virtual loops. , inside the sections of the lanes 3 visible in the sample image.

Con riferimento alla figura 4, che illustra un esempio del campo di inquadratura di una immagine video del tratto di strada 2a da monitorare, all’interno di ciascuna delle due corsie, quella a destra indicata con 3a e quella di sinistra indicata con 3b, viene posizionata una rispettiva spira virtuale 30. Ciascuna spira virtuale 30 può avere le stesse forma e dimensioni del modello di spira virtuale memorizzato nella memoria 9. La forma e le dimensioni della spira virtuale 30 possono essere modificate dal tecnico installatore a partire dalle forma e dimensioni del modello di spira virtuale. Come il modello, ciascuna spira virtuale 30 ha una struttura che permette di rilevare, oltre alla presenza di movimento sopra di essa, anche gli istanti di ingresso e uscita del movimento sulla spira virtuale 30 e quindi la direzione del movimento. Per esempio, ciascuna spira virtuale 30 à ̈ suddivisa in due semiporzioni longitudinali 31 e 32 speculari rispetto ad un asse longitudinale 30a ed à ̈ disposta con l’asse 30a trasversale alla rispettiva corsia 3a, 3b in modo tale da poter rilevare distintamente gli istanti di ingresso e di uscita di un veicolo sulla spira virtuale 30. With reference to figure 4, which illustrates an example of the framing field of a video image of the stretch of road 2a to be monitored, inside each of the two lanes, the one on the right indicated with 3a and the one on the left indicated with 3b, a respective virtual loop 30 is positioned. Each virtual loop 30 can have the same shape and size as the virtual loop model stored in memory 9. The shape and dimensions of the virtual loop 30 can be modified by the installation technician starting from the shape and dimensions of the virtual loop model. Like the model, each virtual loop 30 has a structure which allows to detect, in addition to the presence of movement above it, also the instants of entry and exit of the movement on the virtual loop 30 and therefore the direction of the movement. For example, each virtual loop 30 is divided into two longitudinal half-portions 31 and 32 specular with respect to a longitudinal axis 30a and is arranged with the axis 30a transversal to the respective lane 3a, 3b in such a way as to be able to detect the instants distinctly vehicle entry and exit on the virtual loop 30.

Una volta posizionate, le spire virtuali 30 vengono rasterizzate per poter essere sovrapposte a tutte le immagini video che verranno successivamente acquisite. Quindi, le spire virtuali 30 sono definite in coordinate immagine, cioà ̈ rispetto ad un sistema di riferimento bidimensionale solidale con il campo di inquadratura del sensore immagine 5. Once positioned, the virtual coils 30 are rasterized in order to be superimposed on all the video images that will be subsequently acquired. Hence, the virtual loops 30 are defined in image coordinates, i.e. with respect to a two-dimensional reference system integral with the framing field of the image sensor 5.

La prima macro-funzione comprende, infine, una sequenza di passi di calcolo, tra cui calcolare, in funzione dell’altezza H e dell’inclinazione α, una matrice di trasformazione omografica necessaria per la conversione delle dimensioni e direzioni da coordinate mondo a coordinate immagine e viceversa, e convertire i punti delle spire virtuali 30 da coordinate immagine a coordinate mondo tramite la matrice di trasformazione omografica e tenendo conto dell’angolo β. Infatti, in generale le conversioni tra coordinate mondo e coordinate immagine vengono eseguite tramite la matrice di trasformazione omografica e tenendo conto dell’angolo β. Finally, the first macro-function includes a sequence of calculation steps, including calculating, as a function of the height H and the inclination Î ±, a homographic transformation matrix necessary for the conversion of dimensions and directions from coordinates world to image coordinates and vice versa, and converting the points of the virtual coils 30 from image coordinates to world coordinates using the homographic transformation matrix and taking into account the angle β. In fact, in general the conversions between world coordinates and image coordinates are performed through the homographic transformation matrix and taking into account the angle β.

I dati invarianti calcolati e acquisiti durante la configurazione vengono memorizzati nella memoria 9. The invariant data calculated and acquired during configuration are stored in memory 9.

La seconda macro-funzione comprende un gruppo di passi eseguite periodicamente, tra cui acquisire ora locale e data correnti tramite l’orologio in tempo reale 6, calcolare la direzione d’ombra D e la lunghezza d’ombra L in funzione di ora locale e data, delle coordinate geostazionarie e di una altezza di veicolo R prestabilita, e definire, sulle immagini video acquisite, due seconde aree di rilevamento, ossia due zone di previsione, ciascuna delle quali à ̈ associata ad una rispettiva corsia ed à ̈ ottenuta in funzione di forma e posizione della rispettiva spira virtuale 30 e delle direzione d’ombra D e lunghezza d’ombra L. L’altezza di veicolo R à ̈ per esempio pari a 1.5 metri. I passi della seconda macro-funzione vengono eseguiti ogni periodo di tempo T di valore compreso, per esempio, tra 1 e 5 minuti. The second macro-function includes a group of steps performed periodically, including acquiring the current local time and date using the real-time clock 6, calculating the shadow direction D and the shadow length L as a function of local time and date, geostationary coordinates and a predetermined vehicle height R, and define, on the acquired video images, two second detection areas, i.e. two forecast zones, each of which is associated with a respective lane and is obtained as a function of the shape and position of the respective virtual loop 30 and of the shadow direction D and shadow length L. The vehicle height R is for example equal to 1.5 meters. The steps of the second macro-function are carried out every time period T with a value ranging, for example, between 1 and 5 minutes.

Le coordinate geostazionarie comprendono, com’à ̈ noto, la longitudine e la latitudine. Il calcolo della direzione d’ombra D e della lunghezza d’ombra L viene eseguito utilizzando formule per il calcolo di: Geostationary coordinates include, as is known, longitude and latitude. The calculation of the shadow direction D and the shadow length L is performed using formulas for the calculation of:

- fattori di correzione che tengono conto della eccentricità della terra, dell’inclinazione dell’asse terrestre e della differenza tra la longitudine corrente e la longitudine del meridiano di riferimento per il fuso orario locale; - correction factors that take into account the eccentricity of the earth, the inclination of the earth's axis and the difference between the current longitude and the longitude of the reference meridian for the local time zone;

- elevazione solare in funzione di ora locale e data, della latitudine corrente e di alcuni di tali fattori di correzione; - solar elevation as a function of local time and date, current latitude and some of these correction factors;

- lunghezza d’ombra L in funzione della elevazione solare e dell’altezza di veicolo R; - shadow length L as a function of solar elevation and vehicle height R;

- azimuth solare in funzione di ora locale e data, della latitudine corrente, della elevazione solare e di alcuni di detti fattori di correzione; e - solar azimuth as a function of local time and date, current latitude, solar elevation and some of said correction factors; And

- la direzione d’ombra D come direzione opposta all’azimuth solare. - the shadow direction D as the opposite direction to the solar azimuth.

Le formule utilizzate sono di per sé note e quindi non vengono descritte con ulteriore dettaglio. The formulas used are known per se and therefore are not described in further detail.

Con riferimento alla figura 5, che illustra lo stesso campo di inquadratura della figura 4, ma con solo la spira virtuale 30 sulla corsia di destra 3a per semplicità, la zona di previsione 40 associata alla spira virtuale 30 comprende almeno una porzione 42 di una “spira fantasma†41 che à ̈ ottenuta per traslazione, in una direzione DP opposta alla direzione d’ombra D e per una distanza pari alla lunghezza d’ombra L, della spira virtuale 30. La spira fantasma 41 ha stessa forma e dimensioni della spira virtuale 30, e quindi à ̈ suddivisa in due semiporzioni longitudinali 43 e 44 speculari rispetto ad un asse longitudinale 41a della spira fantasma 41. With reference to Figure 5, which illustrates the same field of view as Figure 4, but with only the virtual loop 30 in the right lane 3a for simplicity, the forecast area 40 associated with the virtual loop 30 comprises at least a portion 42 of a € œphantom breathâ € 41 which is obtained by translation, in a direction DP opposite to the shadow direction D and for a distance equal to the shadow length L, of the virtual coil 30. The ghost coil 41 has the same shape and dimensions of the virtual loop 30, and therefore it is divided into two longitudinal half portions 43 and 44 specular with respect to a longitudinal axis 41a of the phantom loop 41.

Vantaggiosamente, la porzione di area 42 à ̈ ottenuta escludendo quelle porzioni della spira fantasma 41 che cadono nella corsia 3a. In altre parole, la porzione di area 42 à ̈ quella porzione della spira fantasma 41 che rimane esterna all’area della corsia 3a, in quanto si à ̈ interessati solamente ad identificare le ombre provenienti da veicoli che circolano al di fuori della corsia 3a. Advantageously, the portion of the area 42 is obtained by excluding those portions of the phantom loop 41 which fall into the lane 3a. In other words, the portion of area 42 is that portion of the phantom loop 41 that remains outside the area of lane 3a, as we are only interested in identifying the shadows coming from vehicles circulating outside lane 3a .

Vantaggiosamente, la zona di previsione 40 comprende almeno una porzione 46 di una ulteriore area intermedia 45 che à ̈ disposta tra la rispettiva spira virtuale 30 e la rispettiva spira fantasma 41 e che à ̈ coperta dal movimento di traslazione nelle direzione DP che genera la spira fantasma 41. In questo modo, la zona di previsione 40 permette di rilevare un veicolo che transita nella corsia 3b ad una distanza dalla dal centro della spira virtuale 30 inferiore alla lunghezza d’ombra L. La porzione di area 46 à ̈ ottenuta escludendo quelle porzioni di area intermedia 45 che cadono nella corsia 3a. In altre parole, la porzione di area 46 à ̈ quella porzione dell’area intermedia 45 che rimane esterna all’area della corsia 3a. Advantageously, the forecast area 40 comprises at least a portion 46 of a further intermediate area 45 which is arranged between the respective virtual loop 30 and the respective phantom loop 41 and which is covered by the translation movement in the direction DP which generates the loop ghost 41. In this way, the prediction zone 40 allows to detect a vehicle passing in the lane 3b at a distance from the center of the virtual loop 30 less than the shadow length L. The portion of the area 46 is obtained by excluding those portions of intermediate area 45 which fall into lane 3a. In other words, the portion of area 46 is that portion of the intermediate area 45 that remains outside the area of lane 3a.

Dunque, la zona di previsione 40 comprende quelle aree indicate con tratti obliqui nella figura 5. Ovviamente, la creazione della zona di previsione 40 associata ad una eventuale spira virtuale 30 posizionata sulla corsia di sinistra 3b sarà analoga a quella sopra descritta per la corsia di destra 3a. Therefore, the forecasting zone 40 includes those areas indicated with oblique lines in Figure 5. Obviously, the creation of the forecasting zone 40 associated with a possible virtual loop 30 positioned on the left lane 3b will be similar to that described above for the driving lane. right 3a.

Il calcolo della direzione d’ombra D e della lunghezza d’ombra L e la determinazione delle zone di previsione 40 avviene in coordinate mondo in funzione delle spire virtuali 30 in coordinate mondo precedentemente memorizzate nella memoria 9 e delle coordinate geostazionarie che sono per definizione riferite alle sistema di riferimento mondo. A questo punto, i punti delle zone di previsione 40 vengono convertiti in coordinate immagine per le elaborazioni della terza macro-funzione. The calculation of the shadow direction D and the shadow length L and the determination of the forecast zones 40 takes place in world coordinates as a function of the virtual coils 30 in world coordinates previously stored in memory 9 and of the geostationary coordinates which are for definition referring to the world reference system. At this point, the points of the forecast zones 40 are converted into image coordinates for the processing of the third macro-function.

La terza macro-funzione comprende innanzitutto il passo di processare in tempo reale quelle porzioni di ciascuna immagine video che sono individuate dalle spire virtuali 30 e dalle zone di previsione 40 per rilevare presenza di movimenti nelle spire virtuali 30 e nelle zone di previsione 40 e per registrare i tempi di ingresso e uscita dei movimenti nelle spire virtuali 30 e nelle zone di previsione 40, utilizzando tecniche di elaborazione note e quindi non descritte in dettaglio. The third macro-function first of all comprises the step of processing in real time those portions of each video image which are identified by the virtual loops 30 and by the prediction areas 40 to detect the presence of movements in the virtual loops 30 and in the prediction areas 40 and for recording the entry and exit times of the movements in the virtual loops 30 and in the prediction zones 40, using known processing techniques and therefore not described in detail.

Inoltre, la terza macro-funzione comprende i seguenti passi di elaborazione che vengono eseguiti per ciascuna corsia soltanto quando viene rilevato un movimento sulla spira virtuale 30 di tale corsia. Furthermore, the third macro-function comprises the following processing steps which are performed for each lane only when a movement is detected on the virtual loop 30 of that lane.

Quando un primo movimento viene rilevato su una spira virtuale 30, si verifica se à ̈ stato rilevato un secondo movimento sulla rispettiva zona di previsione 40 che ha tempi di ingresso e uscita sulla spira fantasma 41 molto simili o paragonabili ai tempi di ingresso e uscita del primo movimento sulla spira virtuale 30. Per tempi molto simili o paragonabili si intende che gli istanti di rilevamento sulle semiporzioni 31 e 32 differiscono dagli istanti di rilevamento sulle semiporzioni 43 e, rispettivamente, 44 per un periodo di tempo compreso tra 1 e 5 decimi di secondo. Inoltre, si verifica se il secondo movimento ha la medesima direzione del primo movimento. Le direzioni dei movimenti sulla spira virtuale 30 e sulla zona di previsione 40 vengono determinate in funzione dei tempi di ingresso e uscita di tali movimenti. When a first movement is detected on a virtual loop 30, it is checked whether a second movement has been detected on the respective forecast area 40 which has entry and exit times on the phantom loop 41 very similar or comparable to the entry and exit times of the first movement on the virtual loop 30. By very similar or comparable times it is meant that the detection instants on the half portions 31 and 32 differ from the detection instants on the half portions 43 and, respectively, 44 for a period of time between 1 and 5 tenths of a according to. Furthermore, it occurs if the second movement has the same direction as the first movement. The directions of the movements on the virtual loop 30 and on the forecast area 40 are determined as a function of the entry and exit times of these movements.

Se le verifiche sui tempi di ingresso e uscita e sulle direzioni dei movimenti sono positive, allora il primo movimento à ̈ considerato un falso transito di veicolo, cioà ̈ à ̈ considerato causato dall’ombra di un veicolo, ed in particolare di un veicolo transitante nell’altra corsia; altrimenti il primo movimento à ̈ considerato come un vero transito di veicolo. Quindi, se le verifiche sono positive, allora viene contato un transito di un veicolo; altrimenti non viene contato alcun transito. If the checks on the entry and exit times and on the directions of the movements are positive, then the first movement is considered a false vehicle transit, that is, it is considered caused by the shadow of a vehicle, and in particular of a vehicle. transiting in the other lane; otherwise the first movement is considered as a true vehicle transit. Therefore, if the checks are positive, then a transit of a vehicle is counted; otherwise no transit is counted.

Vantaggiosamente, per aumentare l’affidabilità della stima del transito di un veicolo su una corsia si fa una valutazione probabilistica, cioà ̈ la probabilità di un falso transito dovuto ad un ombra in movimento à ̈ calcolata combinando il responso del confronto tra i rilevamenti sulle relative spira virtuale 30 e zona di previsione 40 con il risultato di un classificatore di ombre operante su una o più caratteristiche di immagine selezionate da un gruppo consistente di: Advantageously, to increase the reliability of the estimate of the transit of a vehicle on a lane, a probabilistic evaluation is made, i.e. the probability of a false transit due to a moving shadow is calculated by combining the response of the comparison between the measurements on the relative virtual loop 30 and prediction zone 40 with the result of a shadow classifier operating on one or more image characteristics selected from a group consisting of:

- intensità dei pixel della spira virtuale 30 coperti dall’ombra, tale intensità non potendo essere superiore all’intensità del corrispondente background dell’immagine video; - intensity of the pixels of the virtual loop 30 covered by the shadow, this intensity cannot be higher than the intensity of the corresponding background of the video image;

- correlazione tra l’intensità dei pixel della spira virtuale 30 coperti dall’ombra ed il corrispondente background (effetto “trasparenza†dell’ombra); - correlation between the intensity of the pixels of the virtual coil 30 covered by the shadow and the corresponding background (â € œtransparencyâ € effect of the shadow);

- spazio colore nel caso in cui il sensore di immagini 5 sia un sensore a colori; - color space in case the image sensor 5 is a color sensor;

- assenza di bordi nelle zone in ombra; e - absence of edges in shaded areas; And

- variazioni graduali di luminosità dei pixel nelle zone d’ombra. - gradual variations in the brightness of the pixels in the shadow areas.

Secondo ulteriori forme di attuazione non illustrate della presente invenzione, il dispositivo di controllo 4 à ̈ privo dell’accelerometro 12, e/o del magnetometro 13, e/o del ricevitore GPS 14. In altre parole, l’accelerometro, il magnetometro 13 e il ricevitore GPS 14 sono dispositivi opzionali, in quanto forniscono dati (inclinazione α, l’angolo β e le coordinate geostazionarie) che sono invarianti durante il funzionamento del dispositivo di controllo 4 e che quindi, in linea di principio, possono essere immessi manualmente dal tecnico installatore durante la fase di configurazione per essere poi memorizzati nella memoria 9. Inoltre, il ricevitore GPS 14 à ̈ relativamente costoso, e quindi il dispositivo di controllo 4 che ne à ̈ privo risulterebbe più economico. According to further not illustrated embodiments of the present invention, the control device 4 is without the accelerometer 12, and / or the magnetometer 13, and / or the GPS receiver 14. In other words, the accelerometer, the magnetometer 13 and GPS receiver 14 are optional devices, as they provide data (inclination Î ±, angle β and geostationary coordinates) which are invariant during the operation of the control device 4 and which therefore, in principle, they can be entered manually by the installer during the configuration phase to be then stored in memory 9. Furthermore, the GPS receiver 14 is relatively expensive, and therefore the control device 4 which does not have it would be cheaper.

Secondo una ulteriore forma di attuazione non illustrata delle presente invenzione, i punti delle spire virtuali 30 non vengono convertiti in coordinate mondo al termine della configurazione del dispositivo di controllo 4 e la determinazione delle zone di previsione 40 avviene direttamente in coordinate immagine dopo avere convertito la direzione d’ombra D e la lunghezza d’ombra L in coordinate immagine. Tuttavia, tale forma di attuazione à ̈ più complessa dal punto di vista delle trasformazioni geometriche da implementare e dunque può richiede un microcontrollore 7 più potente e, quindi, più costoso. According to a further not illustrated embodiment of the present invention, the points of the virtual coils 30 are not converted into world coordinates at the end of the configuration of the control device 4 and the determination of the forecast zones 40 takes place directly in image coordinates after having converted the shadow direction D and shadow length L in image coordinates. However, this form of implementation is more complex from the point of view of the geometric transformations to be implemented and therefore may require a more powerful and therefore more expensive microcontroller 7.

Vale la pena di osservare che il metodo di conteggio dei veicoli à ̈ stato descritto, a titolo di esempio, facendo riferimento ad una strada con due corsie adiacenti, ma funziona correttamente per strade aventi un qualsiasi numero di corsie (anche una o più di due), tra loro adiacenti o non adiacenti, e qualunque sia il senso di marcia delle corsie. It is worth noting that the vehicle counting method has been described, by way of example, by referring to a road with two adjacent lanes, but it works correctly for roads having any number of lanes (even one or more than two ), adjacent or not adjacent to each other, and whatever the direction of travel of the lanes.

Il principale vantaggio del metodo di conteggio dei veicoli sopra descritto à ̈ quindi di filtrare correttamente i falsi transiti dovuti alle ombre in movimento prodotte dai veicoli in transito in prossimità della corsia considerata senza filtrare anche veri transiti. In altre parole, il metodo di conteggio dei veicoli sopra descritto risulta particolarmente robusto rispetto ai falsi transiti generati dalle ombre in movimento sulla corsia considerata. Inoltre, il metodo dell’invenzione à ̈ meno pesante dal punto di vista computazionale della maggior parte dei metodi noti in letteratura aventi lo stesso scopo, cioà ̈ ridurre gli errori da falsi transiti dovuti alle ombre dei veicoli, rilevando ed eliminando le ombre dalle immagini video acquisite prima di effettuare il conteggio dei transiti. The main advantage of the vehicle counting method described above is therefore to correctly filter the false transits due to the moving shadows produced by the vehicles in transit near the lane in question without also filtering real transits. In other words, the vehicle counting method described above is particularly robust with respect to the false transits generated by the shadows moving on the lane in question. Furthermore, the method of the invention is less computationally heavy than most of the methods known in the literature with the same purpose, that is to reduce the errors from false transits due to vehicle shadows, by detecting and eliminating the shadows from the video images acquired before counting the transits.

Claims (13)

RIVENDICAZIONI 1. Metodo per contare i transiti di veicoli in un tratto di strada (2a) con almeno una corsia di marcia (3a, 3b), il metodo comprendendo: - acquisire immagini video di detto tratto di strada (2a) tramite mezzi di acquisizione di immagini (5) montati a bordo di un dispositivo di controllo (4) fissato in corrispondenza del tratto di strada (2a); e - definire, sulle immagini video acquisite, almeno una prima area di rilevamento (30) posizionata all’interno della corsia (3a, 3b); - acquisire ora locale e data correnti del tratto di strada (2a) tramite un orologio in tempo reale (6); - calcolare direzione e lunghezza d’ombra (D, L) in funzione dell’ora locale e della data acquisite, delle coordinate geostazionarie del tratto di strada (2a) e di una altezza di veicolo (R) prestabilita; - definire, sulle immagini video acquisite, almeno una seconda aree di rilevamento (40), la quale à ̈ associata alla corsia (3a, 3b) ed à ̈ ottenuta in funzione di forma e posizione della prima area di rilevamento (30) ed in funzione di dette direzione e lunghezza d’ombra (D, L); - rilevare la presenza di movimenti e registrare tempi di ingresso e uscita dei movimenti nelle prima e seconda area di rilevamento (30, 40); e - contare il transito di un veicolo nella corsia (3a, 3b) in funzione di un confronto tra i tempi di ingresso ed uscita di un primo movimento rilevato nella prima area di rilevamento (30) e quelli di un secondo movimento eventualmente rilevato nella seconda area di rilevamento (40). CLAIMS 1. Method for counting vehicle transits in a stretch of road (2a) with at least one lane (3a, 3b), the method comprising: - acquiring video images of said road section (2a) by means of image acquisition means (5) mounted on board a control device (4) fixed in correspondence with the road section (2a); And - define, on the acquired video images, at least a first detection area (30) positioned inside the lane (3a, 3b); - acquire current local time and date of the stretch of road (2a) by means of a real-time clock (6); - calculate direction and length of shadow (D, L) as a function of the local time and date acquired, of the geostationary coordinates of the stretch of road (2a) and of a predetermined vehicle height (R); - define, on the acquired video images, at least a second detection area (40), which is associated with the lane (3a, 3b) and is obtained according to the shape and position of the first detection area (30) and in function of said direction and length of shadow (D, L); - detect the presence of movements and record the entry and exit times of the movements in the first and second detection areas (30, 40); And - count the transit of a vehicle in the lane (3a, 3b) as a function of a comparison between the entry and exit times of a first movement detected in the first detection area (30) and those of a second movement possibly detected in the second area detection (40). 2. Metodo secondo la rivendicazione 1, in cui contare il transito di un veicolo nella corsia (3a, 3b) comprende: - determinare le direzioni di detto primo movimento e di detto eventuale secondo movimento in funzione dei relativi tempi di ingresso e uscita registrati; - contare il transito di un veicolo in funzione del verificarsi del fatto che non viene rilevato alcun detto secondo movimento avente la medesima direzione di detto primo movimento e tempi di ingresso e uscita paragonabili a quelli del primo movimento. Method according to claim 1, wherein counting the transit of a vehicle in the lane (3a, 3b) comprises: - determining the directions of said first movement and of said possible second movement as a function of the relative recorded entry and exit times; - counting the transit of a vehicle as a function of the occurrence of the fact that no said second movement is detected having the same direction as said first movement and entry and exit times comparable to those of the first movement. 3. Metodo secondo la rivendicazione 1 o 2, in cui detta seconda area di rilevamento (40) comprende almeno una prima porzione di area (42) di una prima ulteriore area (41) che à ̈ ottenuta per traslazione, in una direzione (DP) opposta a detta direzione d’ombra (D) e per una distanza pari a detta lunghezza d’ombra (L), della rispettiva prima area di rilevamento (30). Method according to claim 1 or 2, wherein said second detection area (40) comprises at least a first area portion (42) of a first further area (41) which is obtained by translation, in a direction (DP ) opposite to said shadow direction (D) and for a distance equal to said shadow length (L), of the respective first detection area (30). 4. Metodo secondo la rivendicazione 3, in cui detta prima porzione di area (42) à ̈ costituita da quella parte di detta prima ulteriore area (41) che rimane esterna a detta corsia (3a, 3b). Method according to claim 3, wherein said first portion of area (42) is constituted by that part of said first further area (41) which remains external to said lane (3a, 3b). 5. Metodo secondo la rivendicazione 3 o 4, in cui detta seconda area di rilevamento (40) comprende almeno una seconda porzione di area (46) di una seconda ulteriore area (45) che à ̈ disposta tra la prima area di rilevamento (30) e la prima ulteriore area (41) e che à ̈ coperta dal movimento di detta traslazione della prima area di rilevamento (30). Method according to claim 3 or 4, wherein said second detection area (40) comprises at least a second area portion (46) of a second further area (45) which is disposed between the first detection area (30 ) and the first further area (41) and which is covered by the movement of said translation of the first detection area (30). 6. Metodo secondo la rivendicazione 5, in cui detta seconda porzione di area (46) à ̈ costituita da quella parte di detta seconda ulteriore area (45) che rimane esterna a detta corsia (3a, 3b). Method according to claim 5, wherein said second portion of area (46) is constituted by that part of said second further area (45) which remains external to said lane (3a, 3b). 7. Metodo secondo una delle rivendicazioni da 1 a 6, e comprendente: - aggiornare, ogni certo periodo di tempo, il calcolo di dette direzione e lunghezza d’ombra (D, L) e la determinazione di dette seconde aree di rilevamento (40). Method according to one of claims 1 to 6, and comprising: - updating, every certain period of time, the calculation of said direction and length of shadow (D, L) and the determination of said second detection areas (40). 8. Metodo secondo una delle rivendicazioni da 1 a 7, e comprendente: - convertire forma e posizione di detta prima area di rilevamento (30) da coordinate immagine a coordinate mondo tramite una trasformazione omografica; dette direzione e lunghezza d’ombra (D, L) essendo calcolate in coordinate mondo e detta seconda area di rilevamento (40) essendo determinata in coordinate mondo e poi convertita in coordinate immagine tramite detta trasformazione omografica; detti tempi di ingresso e uscita dei movimenti essendo registrati nella prima e seconda area di rilevamento (30, 40) espresse in coordinate immagine. Method according to one of claims 1 to 7, and comprising: - converting the shape and position of said first detection area (30) from image coordinates to world coordinates by means of a homographic transformation; said direction and shadow length (D, L) being calculated in world coordinates and said second detection area (40) being determined in world coordinates and then converted into image coordinates by means of said homographic transformation; said movement entry and exit times being recorded in the first and second detection areas (30, 40) expressed in image coordinates. 9. Metodo secondo la direzione 8, in cui detta trasformazione omografica à ̈ funzione dell’altezza (H) rispetto al suolo a cui si trovano detti mezzi di acquisizione di immagini (5) e della inclinazione (α), rispetto all’orizzonte, della direzione di inquadratura (DF) di detti mezzi di acquisizione di immagini (5) e dette conversioni tra coordinate mondo e coordinate immagine à ̈ anche funzione dell’angolo (β) che la posizione dei mezzi di acquisizione di immagini (5) rispetto alla verticale forma con la direzione Nord. 9. Method according to direction 8, in which said homographic transformation is a function of the height (H) with respect to the ground at which said image acquisition means (5) are located and of the inclination (Î ±), with respect to the Horizon, of the framing direction (DF) of said image acquisition means (5) and said conversions between world coordinates and image coordinates is also a function of the angle (β) that the position of the image acquisition means ( 5) with respect to the vertical form with the North direction. 10. Dispositivo di controllo per contare i transiti di veicoli in un tratto di strada (2a) con almeno una corsia di marcia (3a, 3b), il dispositivo di controllo (4) comprendendo mezzi di acquisizione di immagini (5) per acquisire immagini video di detto tratto di strada (2a), un orologio in tempo reale (6) per fornire ora locale e data, mezzi di memoria (9) per memorizzare almeno le coordinate geostazionarie di detto tratto di strada (2a) e mezzi di elaborazione (7) configurati per implementare il metodo secondo una delle rivendicazioni da 1 a 9. 10. Control device for counting the transits of vehicles in a stretch of road (2a) with at least one driving lane (3a, 3b), the control device (4) comprising image acquisition means (5) for acquiring images video of said stretch of road (2a), a real-time clock (6) to provide local time and date, memory means (9) to store at least the geostationary coordinates of said stretch of road (2a) and processing means ( 7) configured to implement the method according to one of claims 1 to 9. 11. Dispositivo di controllo secondo la rivendicazione 10, e comprendente un accelerometro (12) per fornire un primo segnale (SA) che à ̈ indicativo dell’inclinazione (α), rispetto all’orizzonte, della direzione di inquadratura (DF) di detti mezzi di acquisizione di immagini (5). 11. Control device according to claim 10, and comprising an accelerometer (12) for providing a first signal (SA) which is indicative of the inclination (Î ±), with respect to the horizon, of the direction of framing (DF ) of said image acquisition means (5). 12. Dispositivo di controllo secondo la rivendicazione 10 o 11, e comprendente un magnetometro (13) per fornire un secondo segnale (SB) che à ̈ indicativo dell’angolo (β) che la posizione dei mezzi di acquisizione di immagini (5) rispetto alla verticale forma con la direzione Nord. Control device according to claim 10 or 11, and comprising a magnetometer (13) for providing a second signal (SB) which is indicative of the angle (β) that the position of the imaging means (5) with respect to the vertical it forms with the North direction. 13. Dispositivo di controllo secondo una delle rivendicazioni da 10 a 12, e comprendente un ricevitore GPS (14) per acquisire dette coordinate geostazionarie di detto tratto di strada (2a).Control device according to one of claims 10 to 12, and comprising a GPS receiver (14) for acquiring said geostationary coordinates of said stretch of road (2a).
IT000543A 2012-10-03 2012-10-03 METHOD TO CHECK THE TRANSIT OF VEHICLES IN A ROAD TRAIL WITH AT LEAST ONE TRAIL, STURDY COMPARED TO THE FALSE TRANSITS DUE TO SHADOWS ON THE MOVE ITBO20120543A1 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
IT000543A ITBO20120543A1 (en) 2012-10-03 2012-10-03 METHOD TO CHECK THE TRANSIT OF VEHICLES IN A ROAD TRAIL WITH AT LEAST ONE TRAIL, STURDY COMPARED TO THE FALSE TRANSITS DUE TO SHADOWS ON THE MOVE
EP13792479.1A EP2904598A1 (en) 2012-10-03 2013-10-03 Method for counting vehicle transits on a stretch of road with at least one lane, that is not affected by false transits due to moving shadows
PCT/IB2013/059097 WO2014054019A1 (en) 2012-10-03 2013-10-03 Method for counting the vehicle transits in a stretch of road with at least one lane, which method is not affected by false transits due to moving shadows

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
IT000543A ITBO20120543A1 (en) 2012-10-03 2012-10-03 METHOD TO CHECK THE TRANSIT OF VEHICLES IN A ROAD TRAIL WITH AT LEAST ONE TRAIL, STURDY COMPARED TO THE FALSE TRANSITS DUE TO SHADOWS ON THE MOVE

Publications (1)

Publication Number Publication Date
ITBO20120543A1 true ITBO20120543A1 (en) 2014-04-04

Family

ID=47222193

Family Applications (1)

Application Number Title Priority Date Filing Date
IT000543A ITBO20120543A1 (en) 2012-10-03 2012-10-03 METHOD TO CHECK THE TRANSIT OF VEHICLES IN A ROAD TRAIL WITH AT LEAST ONE TRAIL, STURDY COMPARED TO THE FALSE TRANSITS DUE TO SHADOWS ON THE MOVE

Country Status (3)

Country Link
EP (1) EP2904598A1 (en)
IT (1) ITBO20120543A1 (en)
WO (1) WO2014054019A1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105654737B (en) * 2016-02-05 2017-12-29 浙江浙大中控信息技术有限公司 A kind of video car flow quantity measuring method of block background modeling
CN111275408A (en) * 2020-02-26 2020-06-12 榆林学院 Mine vehicle transportation frequency automatic extraction method based on trajectory vector diagram

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001033503A1 (en) * 1999-11-03 2001-05-10 Cet Technologies Pte Ltd Image processing techniques for a video based traffic monitoring system and methods therefor
JP2001297397A (en) * 2000-04-17 2001-10-26 Nagoya Electric Works Co Ltd Method and device for counting vehicle
JP2011065442A (en) * 2009-09-17 2011-03-31 Hitachi Automotive Systems Ltd Vehicle shadow recognition device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001033503A1 (en) * 1999-11-03 2001-05-10 Cet Technologies Pte Ltd Image processing techniques for a video based traffic monitoring system and methods therefor
JP2001297397A (en) * 2000-04-17 2001-10-26 Nagoya Electric Works Co Ltd Method and device for counting vehicle
JP2011065442A (en) * 2009-09-17 2011-03-31 Hitachi Automotive Systems Ltd Vehicle shadow recognition device

Also Published As

Publication number Publication date
EP2904598A1 (en) 2015-08-12
WO2014054019A1 (en) 2014-04-10
WO2014054019A8 (en) 2015-04-09

Similar Documents

Publication Publication Date Title
CA3027921C (en) Integrated sensor calibration in natural scenes
CN103942959B (en) A kind of lane detection method and device
US8022987B2 (en) Information-based self-organization of sensor nodes of a sensor network
ES2259180T3 (en) PROCEDURE AND APPLIANCE TO DETECT THE MOVEMENT OF OBJECTS IN A SEQUENCE OF IMAGES.
EP3983931A1 (en) Systems and methods for traffic violation detection
CN1448886A (en) Apparatus and method for measuring vehicle queue length
CA2970911C (en) Method and system for categorization of a scene
EP2302564A1 (en) Real-time dynamic reference image generation for range imaging system
ES2954091T3 (en) Dual stereoscopic sensor
CN102316307A (en) Road traffic video detection method and apparatus thereof
JP2018180772A (en) Object detection device
JP5365792B2 (en) Vehicle position measuring device
GB2562018A (en) A method and system for analyzing the movement of bodies in a traffic system
CN111448601A (en) Lane network data generating device, lane network data generating program, and storage medium
US10636305B1 (en) Systems and methods for determining parking availability on floors of multi-story units
CN102222265A (en) Binocular vision and laterally mounted video camera-based passenger flow counting method
US20230046840A1 (en) Vehicular access control based on virtual inductive loop
ITBO20120543A1 (en) METHOD TO CHECK THE TRANSIT OF VEHICLES IN A ROAD TRAIL WITH AT LEAST ONE TRAIL, STURDY COMPARED TO THE FALSE TRANSITS DUE TO SHADOWS ON THE MOVE
US20230177724A1 (en) Vehicle to infrastructure extrinsic calibration system and method
WO2021005659A1 (en) Information processing system, sensor system, information processing method, and program
US11544918B2 (en) Vehicle to infrastructure system and method with long wave infrared capability
CN110390814A (en) Monitoring system and method
CN104091450A (en) Video tachymeter and video speed measurement method
US20210125009A1 (en) Automotive sensor integration module 100
CN110661984A (en) High-precision V2X perception camera system