IT202000010300A1 - Sistema e metodo di comunicazione tra un veicolo ed un altro agente - Google Patents

Sistema e metodo di comunicazione tra un veicolo ed un altro agente Download PDF

Info

Publication number
IT202000010300A1
IT202000010300A1 IT102020000010300A IT202000010300A IT202000010300A1 IT 202000010300 A1 IT202000010300 A1 IT 202000010300A1 IT 102020000010300 A IT102020000010300 A IT 102020000010300A IT 202000010300 A IT202000010300 A IT 202000010300A IT 202000010300 A1 IT202000010300 A1 IT 202000010300A1
Authority
IT
Italy
Prior art keywords
agent
sensor
data
vehicle
unit
Prior art date
Application number
IT102020000010300A
Other languages
English (en)
Inventor
Umberto Spagnolini
Marouan Mizmizi
Original Assignee
Milano Politecnico
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Milano Politecnico filed Critical Milano Politecnico
Priority to IT102020000010300A priority Critical patent/IT202000010300A1/it
Priority to EP21736681.4A priority patent/EP4147465A1/en
Priority to US17/923,932 priority patent/US20230269566A1/en
Priority to PCT/IB2021/053966 priority patent/WO2021224896A1/en
Publication of IT202000010300A1 publication Critical patent/IT202000010300A1/it

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/38Services specially adapted for particular environments, situations or purposes for collecting sensor information
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/003Transmission of data between radar, sonar or lidar systems and remote stations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/40Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P]
    • H04W4/46Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P] for vehicle-to-vehicle communication [V2V]
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9316Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles combined with communication equipment with other vehicles or with base stations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9323Alternative operation using light waves

Description

SISTEMA E METODO DI COMUNICAZIONE TRA UN VEICOLO ED UN
ALTRO AGENTE
DESCRIZIONE
CAMPO TECNICO
La presente invenzione si riferisce ad un sistema di guida autonoma, ed in particolare ad un metodo di comunicazione tra un veicolo ed almeno un dispositivo di sorveglianza stradale dotato di sensori.
STATO DELL'ARTE
La guida autonoma ? una delle pi? grandi sfide tecnologiche dei nostri tempi e ci si aspetta che migliori significativamente la sicurezza e l'efficienza delle nostre reti di trasporto.
Le auto del futuro devono avere cognizione del contesto in cui si trovano, la posizione precisa del veicolo potrebbe essere stimata attraverso la combinazione di Mappe Digitali (DM), sistema di navigazione satellitare GPS (Global Navigation System) e unit? di misura inerziali (Inertial Measurement Unit, IMU), mentre le informazioni sull'ambiente circostante sono ottenute con i sensori di bordo, come le telecamere multiple, LIght Detection And Ranging (LIDAR) e RAdio Detection And Ranging (RADAR). Ognuna di queste unit? di rilevamento (SU) contribuisce ad un parziale rilevamento dell'ambiente circostante, e la fusione di pi? SU contribuisce ad aumentare la percezione dell'ambiente circostante necessaria per la sicurezza e il controllo della guida. In genere, tutte queste SU sono raccolte nel cosiddetto Livello di Percezione (Perception Layer, PL) del veicolo per la percezione aumentata [1] [2].
Tuttavia, i sensori di bordo hanno un campo visivo limitato e possono fallire in presenza di ostacoli o di particolari condizioni meteorologiche, causando gravi incidenti. L'incidente di Tesla nel 2016 [3] e il pi? recente incidente di Uber nel 2018 [4] sono un tragico esempio di inaffidabilit? dei sensori.
Una parziale contromisura adottata finora ? quella di dotare i veicoli di pi? sensori, ad esempio l'auto di Uber ha 7 LIDAR, 7 Radar e 20 telecamere; l'auto autonoma di Volvo ha un LIDAR, 10 Radar e 7 telecamere [5]. Tuttavia, il costo di installazione del veicolo autonomo sta aumentando, ad esempio [6] ha lanciato il LIDAR HDL-64E a 75.000 dollari e il LIDAR VLS-128 a prestazioni pi? elevate, che dovrebbe essere ancora pi? costoso. Di conseguenza, la scelta di utilizzare sensori ad alta precisione e/o in numero crescente risulta costosa e poco efficiente.
In alternativa ad aumentare il numero di sensori per auto, ? possibile sfruttare i vantaggi delle nuove tecnologie di comunicazione tra veicoli per permettere la cooperazione tra veicoli al fine di migliore la percezione dell?ambiente circostante senza incrementare il numero di sensori a bordo.
In generale, le applicazioni esistenti per la condivisione cooperativa della percezione seguono lo schema concettuale di figura 1, dove due veicoli 1000 e 2000 utilizzano rispettivi sensori 1001 e 2001 per rilevare oggetti nell'ambiente circostante. Ogni veicolo ? dotato di un?unit? di elaborazione (1002, 2002) ed accede ai propri sensori mediante un bus di comunicazione interno al veicolo. L?unit? di elaborazione elabora i dati e scambia i risultati aggregati del rilevamento come occupazione di un ostacolo (p.e., bicicletta, pedone) nello spazio, talvolta con un indice di affidabilit?, velocit? e direzione degli oggetti in movimento nel campo di guida all?altro veicolo mediante un?unit? di comunicazione (1003,2003). Nell?esempio di figura 1, il veicolo A riceve queste informazioni in un messaggio di percezione cooperativa (CPM, Cooperative Perception Message) 3000. Il veicolo 1000 utilizza algoritmi di fusione dati di alto livello 1005 per fondere il CPM ricevuto dal veicolo B con i dati degli oggetti rilevati dai sensori interni 1001 e fornire l?informazione aggregata al livello percettivo 1006 (Perception Layer) in base al quale vengono prese le decisioni per controllare il veicolo 1000.
Queste soluzioni che effettuano una fusione di CPM presentano diversi problemi. Ad esempio, ciascun veicolo raccoglie i voluminosi dati dai propri sensori e produce una categorizzazione degli oggetti e ostacoli, questi ultimi vengono scambiati con altri veicoli in forma di occupazioni nello spazio, e la preclassificazione locale permette di ridurre almeno di un fattore 1/1000 il volume di dati scambiati. Inoltre, a causa di errori fisiologici negli algoritmi di rilevamento, se lo stesso oggetto viene osservato da veicoli diversi, potrebbe risultare in posizioni diverse, potrebbe essere percepito da alcuni veicoli e non da altri, oltre ad avere velocit? diverse. Ancora, potrebbero essere omesse informazioni sulla topologia stradale o su oggetti statici, come edifici, auto parcheggiate o alberi. Il principale limite di queste soluzioni ? dunque dato dal fatto che ogni unit? di elaborazione fa un'elaborazione locale, con un'affidabilit? ed una precisione dipendenti dal sistema di rilevamento specifico.
Qi Chen et al. [7], descrivono un esempio di percezione cooperativa in cui veicoli collegati in DSRC (Dedicated Short-Range Communication) cooperano scambiandosi i dati senza alcuna preliminare classificazione acquisiti dai rispettivi sensori. Pertanto, un veicolo intelligente pu? combinare i propri dati con quelli di altri veicoli per migliorare la capacit? percettiva, e quindi migliorare la precisione di rilevamento e la sicurezza di guida. Per far fronte ai limiti di banda della comunicazione DSRC, viene adottata una strategia di estrazione dei dati basata su di una regione d?interesse (ROI, Region of Interest). In funzione dello scenario incontrato dal veicolo, viene definita una ROI ed estratti i dati relativi alla stessa. Perch? il sistema possa funzionare in modo efficiente, tuttavia, il sistema richiederebbe una moltitudine di categorie di ROI del mondo reale che forniscano una linea guida per decidere quanti dati devono essere trasmessi al fine di ottenere un bilanciamento ottimale tra la dimensione dei dati trasmessa e la precisione di rilevamento necessaria.
La percezione cooperativa tra veicoli appare dunque come una soluzione al problema dei costi e numerosit? dei sensori che devono essere montati a bordo di un singolo veicolo, ma si scontra con la banda disponibile. Tanto per fare un esempio, un veicolo dotato di telecamere, LIDAR e radar pu? generare un data rate di 10 Gbps, mentre la tecnologia DSRC basata su standard IEEE 802.11p opera con banda a 5,9 GHz [8] e consente un data rate dell?ordine dei 100 Mbps. Parimenti, neppure il nuovo sistema 5G veicolare (C-V2X), che opera nelle bande di frequenza sotto i 6GHz, ha possibilit? di trasportare questo elevato traffico dati.
Le bande ad alta frequenza (per esemplificare, onde millimetriche nel range 24-28GHz, o 37-42GHz, o 76-80GHz, o 120GHz-140GHz, o superiori fino alle frequenze THz) sono ora in fase di sviluppo per le comunicazioni V2X [9], [10], [11] come soluzione interessante per integrare le tecnologie V2X esistenti, come C-V2X e/o DSRC, per le frequenze pi? basse. Grazie alle grandi larghezze di banda (fino ad alcuni GHz) delle bande ad alta frequenza, queste si prevede supporteranno applicazioni V2X avanzate ad alta velocit? di trasmissione dati. Infatti, la banda 24-28GHz ? una delle tecnologie chiave nella nuova rete radio 5G (New Radio, NR), con il V2X che ne ? il principale caso d'uso [12], [13].
Le bande ad alta frequenza risultano per? instabili e permettono, allo stato attuale, comunicazioni per brevi intervalli di tempo.
? dunque sentita l?esigenza di un sistema di comunicazione tra veicoli che permetta una Percezione Cooperativa in modo efficiente. L?Ente di standardizzazione 3GPP [documento TR22.886] ha gi? evidenziato la necessit? di una fusione dei dati da sensor units non preventivamente elaborati, al fine di garantire una Percezione Cooperativa del contesto dove si muove il/i veicolo/i, definendo un set di valori minimi, tra cui velocit? di trasmissione, tempo di latenza e affidabilit?. Pertanto il 3GPP ? orientato a definire sistemi efficienti per abilitare la comunicazione V2X ad alta velocit? (>1Gbps/link).
US10194264 B2 descrive sistemi e metodi per la raccolta di dati in una rete che pu? avere nodi di comunicazione fissi ed in movimento. Ad esempio, i veicoli possono essere utilizzati come hotspots Wi-Fi.
US2020068434 descrive metodi e sistemi per elaborare immagini in condizioni di larghezza di banda limitata. Un apparato controllore rileva la velocit? di trasmissione dati di un segnale ricevuto da un veicolo, tale segnale comprendendo un dato di stato, ad es. un dato di un sensore di bordo, del veicolo. Se le velocit? di trasferimento dati non soddisfa un determinato criterio, ad esempio scende sotto una soglia, allora l?apparato controllore invia dei comandi al veicolo come, ad esempio comandi per fermare o far rallentare il veicolo. Ancora, il controllore pu? inviare al veicolo un messaggio con una lista di priorit? per i sensori richiedendo al veicolo di inviare i dati dei sensori di bordo secondo la lista di priorit? indicata.
SCOPI E RIASSUNTO DELL'INVENZIONE
? scopo della presente invenzione quello di superare gli inconvenienti dell?arte nota.
In particolare ? scopo della presente invenzione permettere uno scambio efficiente di dati dei sensori tra almeno due agenti, in cui almeno uno ? un veicolo. Ad esempio uno scambio di dati tra un veicolo ed un altro veicolo o un sistema di rilevamento aereo (come ad esempio droni di sorveglianza) o un agente fisso con sensori di visione, ad esempio una o pi? telecamere, posizionato su di un edificio, su un semaforo, o una stazione di rete, o co-locate con un sistema di sorveglianza stradale.
Questi ed altri scopi della presente invenzione sono raggiunti mediante metodi, dispositivi e sistemi di comunicazione incorporanti le caratteristiche delle rivendicazioni allegate, le quali formano parte integrante della presente descrizione.
Secondo un primo aspetto, la presente invenzione ? diretta ad un metodo di comunicazione tra due agenti di cui almeno uno ? veicolo mobile, in cui un primo agente comunica con un secondo agente comprendente un sensore, in cui il secondo agente invia al primo agente, tramite un collegamento radio, caratteristiche e parametri di comando del sensore necessari per interrogare direttamente il sensore del secondo agente. Il primo agente utilizza i parametri di comando per richiedere al sensore del secondo agente dati prodotti dal sensore selezionati in base a un criterio di selezione dipendente da dette caratteristiche del sensore, e il secondo agente invia i dati richiesti.
Questa soluzione premette di migliorare la percezione ambientale di un agente veicolo, che pu? accedere a dati di sensori esterni, ottimizzando l?efficacia della fusione di bordo. Di fatto, si crea un bus virtuale tra agente veicolo e secondo agente che permette all?agente veicolo di richiedere solamente i dati prodotti dal sensore del secondo agente che gli servono.
Lo scambio dei dati dai sensori da un agente avviene preferibilmente senza alcuna elaborazione atta ad estrarre l?informazione in esso contenuta. In particolare i dati prodotti dal sensore interrogato vengono inviati all?agente che li richiede senza elaborazioni ulteriori rispetto a quelle necessarie per la comunicazione radio, quali ad esempio compressione e/o frammentazione al fine di ridurre il data-rate.
Vantaggiosamente, il secondo agente misura la qualit? del collegamento radio con il primo agente e, in funzione della qualit? misurata, regola la velocit? di trasmissione dei dati e/o la frammentazione con cui i dati vengono trasmessi e/o la loro priorit? di trasmissione. Ci? risulta particolarmente vantaggioso quando il collegamento radio utilizza alte frequenze, dell?ordine della decina di GHz ed oltre, che risultano molto suscettibili ad interferenze e possono interrompersi improvvisamente. In queste situazioni, valutare correttamente la qualit? del canale per richiedere una quantit? di dati che possa essere trasmessa prima che la comunicazione radio cada diventa molto importante.
Secondo un altro aspetto, l?invenzione ? diretta ad uno degli agenti che realizzano il metodo sopra indicato e meglio descritto nel seguito. In particolare, l?invenzione ? diretta ad un agente comprendente un?unit? di elaborazione e controllo configurata per controllare il funzionamento dell?agente, ed un?unit? di comunicazione radio operativamente connessa all?unit? di elaborazione e controllo ed atta a stabilire un collegamento radio con un secondo agente dotato di almeno un sensore. L?unit? di comunicazione radio ? configurata per ricevere dall?agente, tramite il collegamento radio, caratteristiche del sensore e parametri di comando necessari per interrogare il sensore, e per trasmettere le caratteristiche del sensore ed i parametri di comando ricevuti all?unit? di elaborazione e controllo. L?unit? di elaborazione e controllo ? configurata per utilizzare i parametri di comando del sensore per inviare al sensore una richiesta di dati selezionati in base a un criterio di selezione dipendente dalle caratteristiche del sensore.
Secondo un ulteriore aspetto, l?invenzione ? diretta ad un agente veicolo preferibilmente comprendente almeno un sensore locale, ad esempio un sensore ambientale locale atto a acquisire dati di un ambiente circostante il veicolo e/o un sensore di posizione locale atto a fornire una posizione del veicolo e/o un sensore telemetrico atto a fornire dati di telemetria del veicolo. Un?unit? di elaborazione e controllo ? operativamente connessa al sensore per ricevere da questi dati per controllare il veicolo. L?agente veicolo comprende poi un?unit? di comunicazione radio operativamente connessa all?unit? di elaborazione e controllo ed atta a stabilire un collegamento radio con un secondo agente dotato di almeno un secondo sensore. L?unit? di comunicazione radio ? configurata per ricevere dal secondo agente le caratteristiche del secondo sensore e parametri di comando necessari per interrogare il secondo sensore. La stessa unit? di comunicazione del primo agente ? poi configurata per trasmettere i parametri di comando ricevuti all?unit? di elaborazione e controllo. L?unit? di elaborazione e controllo ? configurata per utilizzare i parametri di comando per richiedere al secondo sensore dati selezionati in base a un criterio di selezione dipendente dalle caratteristiche del secondo sensore.
Secondo un ulteriore aspetto, l?invenzione ? diretta ad un agente fisso, in particolare un apparecchio di accesso ad una rete di telecomunicazioni, ad esempio una stazione base di una rete a 4G, 5G. L?agente comprende un?unit? di elaborazione e controllo configurata per controllare il funzionamento dell?agente, ed un?unit? di comunicazione radio operativamente connessa all?unit? di elaborazione e controllo ed atta a stabilire un collegamento radio con un secondo agente dotato di almeno un secondo sensore. L?apparecchio di accesso ? configurato per ricevere da un centro di controllo remoto ? ad esempio attraverso internet - una richiesta di interrogazione del secondo agente, per richiedere al secondo agente, mediante l?unit? di comunicazione radio, parametri di controllo e caratteristiche del sensore del secondo agente. L?unit? di comunicazione radio ? configurata per ricevere dall?agente, tramite il collegamento radio, le informazioni richieste e per trasmetterle all?unit? di elaborazione e controllo. L?unit? di elaborazione e controllo ? configurata per utilizzare i parametri di comando del secondo sensore per inviare al secondo sensore una richiesta di dati selezionati in base a un criterio di selezione dipendente da dette caratteristiche del secondo sensore. L?apparecchio di accesso ? quindi configurato per trasmettere al centro di controllo remoto i dati del secondo sensore ricevuti tramite l?unit? di comunicazione radio.
Secondo un ulteriore aspetto, l?invenzione ? diretta ad un agente comprendente un sensore. Un?unit? di comunicazione radio ? atta a stabilire un collegamento radio con un secondo agente ed ? configurata per trasmettere al secondo agente caratteristiche del sensore e parametri di comando necessari per interrogarlo al fine di trasmettere i dati prodotti dal sensore. L?unit? di comunicazione radio riceve dal secondo agente una richiesta di dati prodotti dal sensore, e trasmette tale richiesta di dati prodotti dal sensore al sensore opportunamente indirizzato. Come gi? esplicitato, i dati prodotti dal sensore sono compressi e/o frammentati.
Secondo un ulteriore aspetto, l?invenzione ? diretta ad un sistema di comunicazione tra due agenti di cui uno ? un veicolo e l?altro ? un veicolo o una stazione di rete, o un dispositivo di sorveglianza stradale, quale un semaforo, come sopra indicati e come meglio descritti nella descrizione che segue.
Ulteriori caratteristiche e scopi della presente invenzione appariranno maggiormente chiari dalla descrizione che segue.
BREVE DESCRIZIONE DEI DISEGNI
L?invenzione verr? descritta qui di seguito con riferimento ad alcuni esempi, forniti a scopo esplicativo e non limitativo, ed illustrati nei disegni annessi. Questi disegni illustrano differenti aspetti e forme di realizzazione della presente invenzione e, dove appropriato, numeri di riferimento illustranti strutture, componenti, materiali e/o elementi simili in differenti figure sono indicati da numeri di riferimento similari.
La Figura 1 illustra un sistema di comunicazione cooperativa tra veicoli secondo l?arte nota.
La Figura 2 illustra una prima fase di connessione tra due veicoli in grado di comunicare secondo la presente invenzione.
La Figura 3 illustra la creazione di un bus virtuale tra i due veicoli di figura 2.
La Figura 4 ? uno schema a blocchi dei veicoli di figura 2 e 3.
La Figura 5 illustra i componenti di figura 4 coinvolti nel trasferimento di dati da un veicolo di figura 2 all?altro.
La Figura 6 illustra le fasi del metodo di comunicazione diretta tra i veicoli di figura 2.
La Figura 7 illustra uno scenario cittadino in cui tre veicoli si trovano ad un incrocio.
La Figura 8 illustra le fasi del metodo di comunicazione diretta tra i veicoli di figura 2 nel caso in cui vi sia un?interruzione della comunicazione sul canale radio UHDLL.
La Figura 9 illustra uno schema di comunicazione tra due veicoli che coinvolge l?intermediazione di una terza unit?.
La Figura 10 illustra uno schema di comunicazione ibrida in cui vengono sfruttate due interfacce di comunicazione per implementare collegamenti da veicolo a veicolo (V2V) e/o da veicolo a infrastruttura (V2I).
DESCRIZIONE DETTAGLIATA DELL?INVENZIONE
Mentre l?invenzione ? suscettibile di varie modifiche e costruzioni alternative, alcune forme di realizzazione preferite sono mostrate nei disegni e saranno descritte qui di seguito in dettaglio. Si deve intendere, comunque, che non vi ? alcuna intenzione di limitare l?invenzione alla specifica forma di realizzazione illustrata, ma, al contrario, l?invenzione intende coprire tutte le modifiche, costruzioni alternative, ed equivalenti che ricadano nell?ambito dell?invenzione come definito nelle rivendicazioni.
L?uso di ?ad esempio?, ?ecc.?, ?oppure? indica alternative non esclusive senza limitazione a meno che non altrimenti indicato. L?uso di ?include? significa ?include, ma non limitato a? a meno che non sia altrimenti indicato.
Nella presente descrizione, il termine agente ? utilizzato per identificare un?entit? ? software e/o hardware ? in grado di scambiare dati mediante un sistema di comunicazione radio.
Con riferimento alle figure che seguono, viene illustrato un sistema per aumentare le capacit? di rilevamento di veicoli, ossia un sistema di Extended Perception (EP) in cui i sensori di bordo di un veicolo vengono trasformati in "sensori virtuali" accessibili ai veicoli vicini.
In figura 2 sono considerati due agenti rappresentati da due veicoli. I due veicoli, A e B, sono dotati ciascuno di un?unit? di rilevamento, indicata con 100 e 100?. In questa forma di realizzazione, l?unit? di rilevamento 100 del veicolo A comprende un radar 110, una camera 111 ed un LIDAR 112 (non mostrato in figura 2). Ugualmente l?unit? di rilevamento 100? del veicolo B comprende un radar 110? (non mostrato in figura 2), una camera 111? ed un LIDAR 112?. Il tipo ed il numero di sensori di ciascun veicolo possono variare da veicolo a veicolo e non ? limitativo della presente invenzione.
Ciascun sensore dell?unit? di rilevamento viene individuato nel proprio veicolo con un?etichetta ed un indirizzo (ad esempio un indirizzo IP), che sono parametri mediante i quali pu? essere interrogato dall?unit? di controllo ed elaborazione (PCU, Processing and Control Unit) 500 del rispettivo veicolo attraverso un bus di comunicazione interno 400.
Ciascun veicolo A e B ? poi dotato di un?unit? di comunicazione 200 in grado di stabilire un collegamento radio diretto con l?unit? di comunicazione dell?altro veicolo. Preferibilmente l?unit? di comunicazione 200 ? in grado di utilizzare una comunicazione ad alto data-rate tra cui quelle note nella tecnica come UHDLL (Ultra-High Data Low-Latency Link). In generale, ai fini della presente descrizione con ?alto data-rate? s?intende una comunicazione con un data rate di almeno 200Mbps.
In figura 2 viene illustrata schematicamente una situazione in cui il veicolo A e quello B si trovano nelle condizioni di stabilire una comunicazione diretta. Tale condizione pu? generarsi, ad esempio, nel caso in cui il veicolo A risponda ad un segnale broadcast inviato dal veicolo B per indicare la sua presenza e/o la ricerca di veicoli o, in generale, dispositivi esterni dotati di sensori ambientali, quali ad esempio semafori intelligenti, telecamere stradali etc.
Una volta che il veicolo B riceve la risposta di A al segnale di broadcast, i due veicoli ? in particolare, come spiegato in seguito, le rispettive unit? di comunicazione 200 ? iniziano lo scambio di messaggi radio necessari a instaurare un collegamento radio tra i due veicoli e permettere la realizzazione di un bus virtuale, illustrato in figura 3, mediante il quale un veicolo, B in questo caso, pu? accedere ad uno o pi? sensori dell?unit? di rilevamento 100 del veicolo A, cos? da interrogarli per richiedere i dati prodotti dal sensore selezionati secondo un criterio che li rende a lui necessari, ad esempio per rilevare oggetti nell?ambiente che lo circondano. Come meglio illustrato nel seguito, dopo aver instaurato il collegamento diretto, ciascun veicolo trasmette all?altro almeno un messaggio di inizializzazione contenente le caratteristiche dei propri sensori e parametri necessari a consentire all?altro veicolo di accedere ai propri sensori, in modo tale che un veicolo possa inviare comandi direttamente ai sensori dell?altro veicolo, come se i sensori dell?altro veicolo fossero sensori di bordo aggiuntivi. Laddove vengano inviati dati prodotti da sensori ambientali, come ad es. un LIDAR o una telecamera, ne consegue una virtualizzazione dei sensori che aumenta la capacit? di percezione del contesto, ad esempio permettendo ad un veicolo di accedere alle immagini, non-elaborate se non per compressione, codifica e/o segmentazione, di tutti i veicoli con cui ? stato creato un bus virtuale.
La figura 4, mostra uno schema a blocchi di alcune componenti di un agente mobile, in particolare un veicolo, secondo una prima forma di realizzazione della presente invenzione. Altre componenti, non essenziali ai fini della presente invenzione, non sono qui descritte, ma possono essere chiaramente presenti nel veicolo.
Le stesse componenti sono illustrate in figura 5 dove ? schematizzata una comunicazione tra due agenti, nel dettaglio una situazione in cui un agente mobile - il veicolo B - trasmette dati ad un secondo agente mobile, il veicolo A.
Nell?esempio di figura 4, l?agente comprende un?unit? di rilevamento 100 che comprende una pluralit? di sensori, tra cui sensori ambientali, sensori di posizione, e sensori telemetrici installati a bordo. I sensori ambientali sono atti a rilevare dati dell?ambiente circostante l?agente mobile e comprendono, ad esempio, dispositivi di telerilevamento come ad esempio Radar, telecamera e Lidar. I sensori di posizione sono atti a rilevare dati relativi alla posizione e/o velocit? del veicolo e possono comprendere, ad esempio un?unit? di misura inerziale (IMU), un accelerometro multiasse, un giroscopio, un contachilometri, un?unit? di localizzazione (ad esempio del tipo Global Navigation Systems come Global Positioning System e/o Galileo). I sensori telemetrici sono atti a rilevare parametri meccanici e elettronici inerenti la condotta dell?agente mobile. ? chiaro che nel caso di agenti fissi, come semafori o telecamere stradali, alcuni dei sensori sopra descritti possono non essere presenti, ad esempio i sensori telemetrici possono essere omessi. Nell?esempio di figura 4 sono indicati una telecamera 111, un LIDAR 112, un?unit? di misura inerziale 113 ed un sensore telemetrico 114.
L?unit? di rilevamento 100 ? collegata, tramite un bus di comunicazione 400 interno all?agente mobile, all?unit? di elaborazione e controllo 500. Il bus di comunicazione 400 pu? essere un bus di tipo ethernet, seriale, parallelo o di altro tipo.
L?unit? di elaborazione e controllo 500 comprende tutto l'hardware e il software per elaborare le informazioni ricevute dai sensori locali dell?unit? di rilevamento 100 e fonderle con quelle ricevute dai sensori dell?altro agente. L?unit? di elaborazione e controllo 500 ? configurata, pertanto, per elaborare i dati ricevuti dai sensori (locali o di altri veicoli), rilevare la presenza di oggetti e/o persone nell?ambiente circostante l?agente mobile e controllare attuatori 600, come sterzo 601, freni 602 ed acceleratore 603, al fine di evitare oggetti e persone che si trovino sulla sua traiettoria e/o per attivare segnalatori acustici e/o visivi per segnalare situazioni di allarme per il guidatore del veicolo. L?unit? di elaborazione e controllo 500 ? poi configurata per effettuare il controllo e la pianificazione della traiettoria, per implementare predizione di oggetti, e molte altre funzionalit? inerenti attuatori di veicoli autonomi.
L?agente mobile comprende poi un?unit? di comunicazione 200 che comprende un?interfaccia di comunicazione UHDLL 220 in grado di permettere una comunicazione con velocit? di trasmissione dati ultra-elevata e bassa latenza (al massimo 10ms, ma preferibilmente 5ms o inferiore), utilizzando bande di alta frequenza, tipicamente superiore a 6 GHz, ad esempio nel range 24-28GHz, o 37-42GHz, o 76-80GHz, o 120GHz-140GHz.
Preferibilmente, il veicolo comprende anche un?interfaccia di comunicazione a bassa latenza (LL) 230, che permette la comunicazione con frequenze operative e velocit? di trasmissione pi? basse rispetto all?interfaccia di comunicazione UHDLL. Ad esempio l?interfaccia 230 ? atta a permettere una comunicazione DSRC (ad esempio secondo lo standard 802.11p) o una comunicazione Cellular Vehicle to Everything (C-V2X) che operano a frequenze sotto i 6 GHz. Per la gestione delle due interfacce di comunicazione UHDLL e LL, che utilizzano due frequenze diverse, ? preferibilmente utilizzato il concetto di aggregazione di portanti ? descritto nel documento 3GPP TS138.101 v.15.2.0 relativo al sistema 5G NR, in cui si ha aggregazione di portanti inter-band tra le frequenze FR1 (450MHz-6GHz) che in questo caso ? l?interfaccia di comunicazione LL, e le frequenze FR2 (24.25GHz-52.GHz) che rappresentano le frequenze per l?interfaccia di comunicazione UHDLL.
L?unit? di comunicazione 200 comprende poi un?unit? di trasmissione 210 ed un?unit? di ricezione 250 operativamente connesse alle interfacce di comunicazione UHDLL 220 e LL 230.
L?unit? di trasmissione 210 a sua volta comprende un apparecchio di codifica (encoder) 211 configurato per comprimere ed eventualmente segmentare i dati ricevuti dai sensori (111-113) attraverso una rispettiva porta di trasmissione virtuale 212. Preferibilmente, l?encoder ? configurato per variare la compressione dei dati in base all'affidabilit?, stabilit? e continuit? del collegamento radio che le interfacce di comunicazione 220 e/o 230 hanno in essere con altri dispositivi esterni. L?encoder prende i dati dei sensori attraverso la porta virtuale, li codifica, in base alla qualit? del canale radio, in frame e pacchetti adatti per le interfacce di comunicazione 220 e 230, eventualmente organizzando i dati stessi in funzione di un elenco di priorit? dei sensori.
L?encoder 211 riceve i dati dai sensori attraverso le porte di trasmissione virtuali 212. Nell?esempio di figura 4, ciascuna porta virtuale ? configurata per consentire l'accesso ai dati di un rispettivo sensore, tuttavia secondo altre forme di realizzazione un sensore (100) pu? connettersi a pi? porte virtuali. Vantaggiosamente, le porte virtuali sono configurate per permettere l?accesso ai dati prodotti dal sensore anche in caso di richieste multiple, ad esempio richieste che provengono da una pluralit? di agenti esterni.
Nel caso pi? agenti esterni richiedano differenti dati prodotti da uno stesso sensore locale dell?agente , ad esempio diversi agenti richiedono diverse porzioni di una immagine ripresa da una telecamera, la porta virtuale 212 alloca per ciascuna richiesta una rispettiva area di memoria dove memorizzare temporaneamente i dati di risposta inviati dal sensore ? nell?esempio la telecamera - alla relativa richiesta. La porta virtuale 212 trasferisce all?encoder, dietro richiesta di quest?ultimo, i dati che devono essere trasmessi agli agenti esterni per rispondere a ciascuna richiesta di dati ricevuta dagli agenti esterni.
In una forma di realizzazione la porta di trasmissione virtuale 212 pu? essere una memoria a doppia porta che duplica i dati di ogni sensore per l?accesso da parte dell'encoder, tuttavia secondo altre forme di realizzazione la porta 212 pu? essere realizzata mediante configurazione software.
Un?unit? di elaborazione del bus virtuale 240 ? operativamente connessa all?encoder 211 e alle interfacce di comunicazione 220 e 230. L?unit? di elaborazione del bus virtuale 240 controlla lo stato e la qualit? del collegamento radio (020 e/o 030) con tutti gli altri agenti sulla base di messaggi di feedback ricevuti dalle interfacce di comunicazione 220 e 230. In funzione dei feedback ricevuti da queste interfacce, l?unit? di elaborazione del bus virtuale adatta la capacit? di codifica dell'encoder 211 e controlla le interfacce di comunicazione per inviare ad un rispettivo apparecchio di decodifica (decoder), di ciascuno degli agenti che ricevono i dati prodotti dal sensore, un messaggio, distinto per ciascuno degli agenti, che indica le informazioni necessarie per la decodifica.
L'unit? di elaborazione virtuale del bus 240 ? poi configurata per collegarsi all'unit? di elaborazione virtuale del bus di altri agenti attraverso le interfacce di comunicazione (220 e/o 230), in modo tale da creare una connessione di controllo virtuale (040) con l'altra unit? di elaborazione virtuale del bus.
Infine, l?unit? di comunicazione 200 comprende un?unit? di ricezione 250 che comprende un apparecchio di decodifica (decoder) 251 che decodifica i dati ricevuti in frames dall?interfaccia di comunicazione 220 o 230 estraendo dati prodotti dai sensori dell?agente o degli agenti interrogati e fornendoli all?unit? di elaborazione e controllo 500, ad esempio attraverso una porta di ricezione virtuale 252 che interfaccia il decoder al bus di comunicazione interno 400. Nell?esempio di figura 4, la porta di ricezione virtuale 252 ? un componente che crea una porta virtuale (R1, R2?RNs) per ogni flusso dati relativo ad una richiesta fatta dall?unit? di elaborazione e controllo 500 ad un sensore di un altro veicolo o dispositivo di sorveglianza stradale.
Encoder 211 e decoder 251 rendono dunque trasparente il canale di comunicazione, pertanto l?unit? di elaborazione e controllo 500 accede a dati prodotti dai sensori interni e ai dati prodotti dai sensori degli agenti esterni ricevuti attraverso il canale di comunicazione radio.
Con riferimento alle figure 5 e 6 viene ora illustrato il metodo di comunicazione tra due veicoli del tipo sopra descritto con riferimento alla figura 4. Per chiarezza, dove necessario le componenti di figura 4 sono indicate con l?aggiunta della lettera ?a? per il veicolo A e con l?aggiunta della lettera ?b? per il veicolo B. Quando un veicolo A individua la presenza di un veicolo B dotato di sensori, le unit? di elaborazione del bus virtuale 240 implementano una prima fase di inizializzazione (6100) comprendente, in modo di per s? noto, una prima ?stretta di mano? ed autenticazione (6110) che permette all?unit? di elaborazione del bus di un veicolo di conoscere e mettersi in contatto con l?unit? di elaborazione dell?altro veicolo. Nell?esempio di figura 6, inoltre, ? prevista una fase di sincronizzazione (6120) dei due veicoli, ad esempio mediante sincronizzazione di rispettivi segnali di orologio. Al fine di implementare questa fase, ciascuna unit? di elaborazione del bus virtuale 240 genera opportuni pacchetti dati da trasmettere che vengono passati al rispettivo encoder 211 con indicazione dell?interfaccia di comunicazione da utilizzare per la connessione radio e le eventuali impostazioni della stessa interfaccia di comunicazione. I pacchetti dati trasmessi vengono ricevuti mediante interfaccia di comunicazione 220 o 230, decodificati dal decoder 251 e passati all?unit? di elaborazione del bus virtuale 240.
Successivamente, il metodo di comunicazione prevede una fase 6200 di impostazione (Set-Up) del bus virtuale. Con riferimento all?esempio di figura 6, in questa fase l?unit? di elaborazione del bus virtuale 240a del veicolo A richiede (6210) informazioni sul veicolo B inviando un messaggio di richiesta informazioni veicolo con il quale il veicolo A verifica la disponibilit?/capacit? del veicolo B a istaurare un bus virtuale per lo scambio dei dati prodotti dai sensori. L?unit? di elaborazione del bus virtuale 240b del veicolo B risponde accettando o meno la negoziazione per l?instaurazione di un bus virtuale e inviando opzionalmente una Tabella di Caratterizzazione del Veicolo ? riportata sotto nella Tabella 1 - che contiene informazioni varie tra cui tipologia del veicolo, ed informazioni meccaniche e dinamiche sul veicolo, ad esempio: la posizione (espressa come latitudine, longitudine e altitudine), la direzione e la velocit? del veicolo, le dimensioni del veicolo, parametri inerziali e dinamici della posizione del baricentro rispetto al telaio o le ruote (per il riferimento della posizione dei sensori sul veicolo), la traiettoria prevista e la sua qualit? (per i veicoli autonomi), come illustrato di seguito:
Tabella 1
Secondo forme di realizzazione differenti da quella di figura 6, il veicolo A pu? evitare di inviare la richiesta di informazioni sul veicolo B (passo 6210). In queste forme di realizzazione, il veicolo A recupera le informazioni della Tabella 1 da un terzo agente, ad esempio una stazione base di rete o un semaforo intelligente, oppure possono essere stimate dal veicolo richiedente o in collaborazione con altri agenti presenti in strada. Ancora, tali informazioni potrebbero essere recuperate dal veicolo accedendo ad un database interno o ad uno remoto. Inoltre, ? possibile ottenere una misura della qualit? di ogni informazione inclusa nella Tabella 1. La qualit? ? una misura che rappresenta l?accuratezza dell?informazione.
Successivamente, passo 6230, l?unit? di elaborazione del bus virtuale 240a del veicolo A invia un messaggio in cui viene richiesta la capacit? dei sensori del veicolo B. A questo messaggio, l?unit? di elaborazione del bus virtuale 240b del veicolo B risponde (passo 6240) inviando una tabella delle capacit? di rilevamento del tipo illustrato qui di seguito:
Tabella 2
La Tabella 2 contiene l'elenco di tutti i sensori (ambientali, di posizione e telemetrici) disponibili a bordo, unitamente ad informazioni e parametri di comando necessari alla loro gestione, come, per esempio:
- il tipo di sensore, ad es. telecamera o radar o LIDAR o IMU;
- l'indirizzo del sensore all'interno del bus locale del veicolo, tale indirizzo potrebbe essere ad esempio un indirizzo IP;
- l?indirizzo del sensore all?interno del bus virtuale, o con riferimento all?esempio di figura 4, l'indirizzo delle istanze delle porte virtuali 212. Anche questi indirizzi potrebbero essere indirizzi IP;
- un flag che indica la disponibilit? del sensore ad essere visibile da altri veicoli e/o dispositivi esterni,
- la codifica dei dispositivi del sensore (tipicamente dei dispositivi del sensore (110) e/o dell'Encoder (211), per esemplificare la codifica video H264/MPEG-4 AVC),
- la posizione del sensore sul veicolo (ad esempio rispetto al baricentro), i suoi angoli di prua e la copertura (e. g., apertura della telecamera),
- i parametri di qualit? del sensore, che indicano la qualit? dei dati rilevati (ad esempio, la granularit? dei pixel)
Eventualmente possono poi essere inserite nella Tabella 2 anche altre informazioni come il numero di serie del sensore, il produttore, il modello, ecc... Nel caso di sensori video, la tabella 2 pu? comprendere parametri di comando necessari ad interrogare il sensore, quali ad esempio la frequenza di frame disponibile e la scalabilit?, la granularit? della segmentazione del dato (ad es. un?immagine ? estraibile a blocchi multipli di 64x64), colori/bn). Per sensori radar, i parametri di comando possono comprendere il tipo di radar, la forma d?onda (waveform) usata, la valutazione o meno del Doppler, se misura un imaging coerente (tipo SAR) o incoerente, se MIMO radar e quindi quanto ? la risoluzione del radar MIMO con array virtuale, etc?
Per semplicit?, nell?esempio di figura 6 ? solo il veicolo A che richiede ed ottiene le Tabelle 1 e 2 dal veicolo B, tuttavia in una forma di realizzazione preferita, queste due tabelle vengono inviate anche dal veicolo A al veicolo B in risposta a richieste analoghe a quelle sopra descritte con riferimento al veicolo A.
Preferibilmente, poi, a valle dello scambio delle tabelle 1 e 2, i due veicoli effettuano ciascuno una valutazione dell?utilit? di attivare il bus virtuale con l?altro veicolo. Ad esempio, se il veicolo B ha videocamere orientate a riprendere un?area gi? percorsa dal veicolo A, allora quest?ultimo potrebbe non avere interesse ad instaurare il bus virtuale con il veicolo B. Se la valutazione di opportunit? ? negativa, allora il veicolo che ha iniziato la procedura di instaurazione del bus virtuale pu? decidere di interromperla. Se la valutazione di opportunit? ?, invece, positiva, il metodo di comunicazione riprende come di seguito descritto con riferimento all?esempio di figura 6, ove la suddetta valutazione di opportunit? non ? prevista. La fase di inizializzazione termina quindi con una procedura di sincronizzazione dei sensori (6250) che identifica l?instaurarsi di un bus virtuale tra A e B e in cui vengono allineate le basi dei tempi (clock) e le frequenze di campionamento dei diversi sensori al fine di temporizzare le richieste di accesso ai dati prodotti da uno specifico sensore dell?altro veicolo.
Terminata la fase di inizializzazione, inizia la fase 6300 di scambio vero e proprio dei dati. Nell?esempio qui considerato, l?unit? di elaborazione e controllo 500a del veicolo A richiede dei dati al sensore SU1 del veicolo B (nel caso di specie una telecamera) inviando una richiesta di dati sul bus locale 400a all?indirizzo virtuale del sensore SU1, ovvero yy.yy.yy:1. Il messaggio di richiesta viene ricevuto dalla porta virtuale di trasmissione 212a associata al sensore virtuale, e da l? passata all?encoder 211a che lo trasmette attraverso l?interfaccia di comunicazione indicata dall?unit? di elaborazione del bus virtuale 240a. Nell?esempio qui considerato di figura 6, i messaggi di richiesta dati (6310, 6330), cos? come i messaggi scambiati per la fase 6100 di inizializzazione e per la fase 6200 di set-up del bus virtuale sono inviati mediante l?interfaccia LL 230a, mentre i dati dei sensori (6320, 6340) vengono scambiati mediante l?interfaccia UHDLL 220a. Tuttavia se la disponibilit? di banda lo consente, ? possibile trasmettere tutti o maggior parte dei messaggi, anche della fase di inizializzazione e di set-up del bus virtuale, mediante il canale 020 UHDLL. La tipologia di interfaccia usata per lo scambio dei messaggi pu? cambiare sulla base delle condizioni.
La richiesta di dati al sensore di indirizzo virtuale yy.yy.yy:1 viene ricevuta dal veicolo B attraverso l?interfaccia di comunicazione, in questo caso 230b, e fornita al decoder 251b che la decodifica e la trasmette sul bus locale 400b all?indirizzo xx.xx.xx:1 attraverso la porta 252b, associata al sensore SU1, che si occupa di convertire l?indirizzo da quello del bus virtuale a quello del bus locale.
A questo punto, il sensore SU1 del veicolo B riceve la richiesta e trasmette i dati prodotti dal sensore richiesti inviandoli sul bus locale 400b. I dati vengono ricevuti dalla porta virtuale 212b dedicata al sensore SU1 ed elaborati dall?encoder 211b del veicolo B che provvede a trasmetterli al veicolo A attraverso l?interfaccia UHDLL 220b, dove il decoder 251a provvede a decodificarli e trasmetterli sul bus locale 400a inviandoli all?indirizzo della PCU 500a del veicolo A.
Grazie alle informazioni delle tabelle 1 e 2 ricevute dal veicolo B, la PCU 500a del veicolo A pu? richiedere un sottoinsieme dei dati che un sensore del veicolo B potrebbe trasmettere. Ad esempio, se il veicolo B ? dotato di una telecamera con un angolo di ripresa orizzontale di 120? ed uno di ripresa verticale di 30?, sulla base della posizione e orientamento del veicolo B il veicolo A pu? richiedere solamente i dati relativi ad un particolare angolo di ripresa, ad esempio in orizzontale tra 10? e 30? e in verticale tra 2? e 20?, dove il veicolo A sa ? grazie ai suoi sensori locali o a dati ricevuti da altri agenti - essere presente una persona o un oggetto d?interesse.
Nonostante questo accorgimento, la quantit? di dati che il sensore del veicolo B deve trasmettere pu? essere molto elevata, cos? come pu? essere elevata la quantit? di dati che il veicolo A deve ricevere anche da altri veicoli o agenti. Sia l?encoder 211, che l?unit? di elaborazione del bus virtuale 240 sono quindi preferibilmente configurate per implementare strategie di gestione del canale.
L?encoder 211 (e in modo reciproco il decoder 251) ? configurato per adattare la velocit? di trasmissione dei dati in base a comandi ricevuti dall?unit? di elaborazione del bus virtuale 240. Tali comandi sono il risultato della variazione di qualit? del canale radio con cui si sta trasmettendo, ad esempio il canale UHDLL 020. In generale, l?encoder potr? seguire differenti strategie di frammentazione e prioritizzazione dei dati prodotti dal sensore che possono essere utilizzate per decidere l?ordine con cui trasmettere i dati stessi sul canale radio.
Ad esempio, nel caso di dati video, come ad esempio dati acquisiti da una telecamera, l?encoder pu? utilizzare una prima strategia di frammentazione dell'oggetto, in cui gli oggetti in movimento vengono rilevati nei frame video e viene loro assegnato un livello di priorit? in base alla velocit? dell'oggetto, ad esempio una persona che attraversa la strada avr? priorit? maggiore di un semaforo -fermo ? ma minore rispetto ad una macchina che viaggia a velocit? elevata. Pertanto, la porzione di dati video relativa all?oggetto in movimento avr? un?alta priorit? e sar? inviata per prima per ovviare alla perdita di qualit? in collegamento radio nel tempo.
Una seconda possibile strategia di compressione dei dati prodotti dal sensore telecamera e adottabile dall?encoder ? una strategia di frammentazione differenziale. Secondo questa seconda strategia, l?encoder calcola la differenza tra frame successivi e assegna una priorit? maggiore alle porzioni dei frame con differenza maggiore. L?encoder, dunque, trasmetter? il frame partendo dalle porzioni di frame con differenza maggiore e via via trasmettendo quelle con priorit? minore.
Un ulteriore esempio di strategia che pu? essere implementata dall?encoder su immagini video ? una strategia di frammentazione fissa. Secondo questa strategia, l?encoder suddivide il frame in aree e assegna un livello di priorit? a ciascuna di esse. La divisione pu? essere basata su una griglia, su un cerchio o su qualsiasi configurazione geometrica.
Per quanto gli esempi di strategia sopra esposti siano stati riferiti ad immagini video acquisite da una telecamera, le medesime strategie di frammentazioni possono essere usate in modo analogo per dati acquisiti da altri sensori ambientali - come radar, lidar, ecc? - o da sensori di posizionamento - come unit? inerziali, giroscopi, contachilometri, sensori di posizionamento - e sensori telemetrici.
Per comprendere meglio il funzionamento del sistema di Enhanced Perception, facciamo ora riferimento all?esempio di figura 7, dove tre veicoli (RU-A, RU-B ed RU-C) si trovano ad un incrocio dove sono presenti anche dei semafori (701-704) dotati di telecamere che riprendono l?incrocio. Ciascun semaforo ? dunque un agente fisso dotato di un?unit? di rilevamento 100 (in questo esempio comprendente una telecamera) e di un?unit? di comunicazione 200 come i veicoli, ed ? pertanto in grado di creare un bus virtuale con i veicoli e rendere direttamente accessibili ? eventualmente compressi e/o frammentati - i dati acquisiti dalla telecamera. In prossimit? dell?incrocio ? anche presente una stazione base 705 - anch?essa agente fisso - di una rete cellulare, ad es. una base station di una rete 3G o un node-B di una rete 4G o 5G o successiva. Come spiegato nel seguito, la stazione base 705 permette, in alcune forme di realizzazione, di mettere in collegamento due veicoli o un veicolo ed un dispositivo di sorveglianza stradale, che non sono in linea di vista (LoS).
Le unit? di elaborazione del bus virtuale 240 di ciascun veicolo ricevono segnali che indicano la presenza degli altri veicoli e agenti fissi di sorveglianza stradale, e, come descritto in precedenza, inizializzano un bus virtuale con alcuni o ognuno di essi. Per chiarire, il veicolo RU-A crea un bus virtuale con i veicoli RU-B ed RU-C e bus virtuali con i semafori 701, 702, 703 e 704. Il collegamento potr? essere un collegamento diretto tra veicoli (V2V - Vehicle to Vehicle) o uno diretto tra veicolo e semaforo (V2I - Vehicle to Infrastructure) o un collegamento indiretto (V2N ? Vehicle to Network) che sfrutta la rete di telecomunicazioni cui appartiene la stazione base 705 per mettere in comunicazione due veicoli o un veicolo ed un semaforo.
Nell?esempio di figura 7, il veicolo RU-A rileva la presenza di un pedone che attraversa le strisce pedonali alla sua destra e la presenza dei veicoli RU-B e RU-C. L?unit? di elaborazione e controllo 500 del veicolo RU-A, determina che il volume di spazio occupato dal pedone ? un?area di particolare interesse e richiede alle telecamere dei veicoli RU-B ed RU-C di trasmettere le immagini di quella porzione di spazio. Ugualmente l?unit? di elaborazione e controllo 500 del veicolo RU-A pu? richiedere al semaforo 703 di avere immagini della medesima porzione di spazio. Chiaramente le immagini riprese dalle diverse telecamere offriranno prospettive differenti dell?oggetto ripreso, in questo caso il pedone. Ci? permette all?unit? di elaborazione e controllo 500 del veicolo RU-A di ricostruire con maggior precisione la forma, la velocit? e la traiettoria dell?oggetto, cos? da poter prendere decisioni, come, nel caso di specie, proseguire dritto o fermarsi nel caso il percorso preimpostato preveda di svoltare a destra.
I messaggi di richiesta dati inviati dal veicolo A vengono ricevuti, decodificati e trasmessi, mediante una porta di ricezione virtuale 252, alle telecamere collegate al bus di comunicazione locale 400. Le telecamere interrogate trasmetteranno ciascuna i dati richiesti inviandoli sul bus locale alle porte virtuali di trasmissione 212 che, ricevuti i dati, li passano al rispettivo encoder 211.
L?encoder 211 di ciascun veicolo o semaforo codifica i dati ricevuti dalla porta 212 secondo impostazioni che vengono date dall?unit? di elaborazione del bus virtuale 240 che programma il modo con cui i dati devono essere prioritizzati e/o frammentati.
La programmazione da parte dell'unit? di elaborazione del bus virtuale 240 ? preferibilmente dipendente dalla stabilit? del collegamento radio UHDLL (020) che ? tipicamente dipendente dallo scenario. Nella situazione di figura 7, il veicolo A pu? richiedere 5000 frame dal LIDAR del veicolo RU-B i quali verranno trasmessi dal veicolo B al veicolo A con una certa priorit? che dipende dal contesto, ad esempio se il pedone cambia traiettoria spostandosi verso il veicolo A l?unit? di elaborazione del bus virtuale 240 del veicolo B potr? aumentare la priorit? con cui i frame devono essere trasmessi dal LIDAR al veicolo A.
Le unit? di elaborazione del bus virtuale 240 dei due dispositivi in collegamento, ad esempio veicolo RU-A e veicolo RU-B, monitorano la qualit? del collegamento, valutano le propriet? statistiche e la prevedibilit? delle interruzioni di collegamento, e si scambiano messaggi di segnalazione per definire la capacit? di codifica pi? appropriata. Ad esempio, la velocit? di trasmissione dati pu? essere prefissata e mantenuta fissa fintanto che la qualit? del canale 020 ? superiore ad una soglia prefissata; se la qualit? del canale 020 scende al di sotto di tale soglia, allora la comunicazione viene commutata sul collegamento LL di backup 030. In alternativa, la velocit? di trasmissione dati sul canale 020 viene variata in modo proporzionale alla qualit? del canale 020 fintanto che la qualit? non scenda sotto un valore prefissato, dopo di che la comunicazione viene commutata sul collegamento LL di backup 030. Il passaggio dalla comunicazione sul canale 020 a quella sul canale 030 ? illustrato in figura 8, dove in linea tratteggiata sono indicate le comunicazioni sul canale 030 LL, mentre con la freccia spessa sono indicate le comunicazioni sul canale 020 UHDLL.
Ancora, nel caso di un veicolo collegato con pi? dispositivi esterni, come nell?esempio sopra il veicolo RU-A, l?unit? di elaborazione del bus virtuale 240 potr? decidere se utilizzare o meno entrambe le interfacce di comunicazione 220 e 230 o solo una. Ad esempio potr? decidere di ricevere i dati del LIDAR del veicolo RU-B tramite l?interfaccia UHDLL 220 e i dati della telecamera del semaforo 703 attraverso l?interfaccia LL 230.
Senza perdita di generalit?, nell?esempio in Fig.7 il ruolo di ricostruzione della scena attraverso la virtualizzazione del bus di trasferimento dei dati prodotti dai vari sensori di diversi agenti sulla scena potrebbe essere svolto da un qualunque altro agente mobile (RU-A, RU-B, RU-C) come descritto, oppure da un agente fisso (701,702,703,704) predisposto ad effettuare una fusione dei dati prodotti dai vari sensori mediante un sistema di creazione di bus virtuali multipli verso ciascuno degli agenti (fissi e/o mobili). In una forma di realizzazione, laddove uno o pi? agenti avessero capacit? elaborativa insufficiente, la creazione del bus virtuale servir? ad un altro agente con capacit? elaborativa sufficiente, ad esempio un agente fisso, che raccoglier? i dati dai sensori di detti agenti e poi ne restituir? le elaborazioni di natura percettiva (p.e., ricostruzione 3D della scena o di parte della stessa), mediante un meccanismo detto di trasmissione a suddetti agenti, noto anche come broadcasting. In questo caso, dunque, un primo agente (ad es. RU-A) invia la richiesta di dati dal secondo sensore ad un terzo agente (ad es. RU-C) richiedendo all?agente terzo di processare i dati del secondo sensore per individuare oggetti nello spazio circostante il primo agente (ad es. RU-A). Il terzo agente, dunque, attiva un bus virtuale con il secondo agente, richiede i dati al secondo sensore sulla base della richiesta del primo agente, elabora i dati del secondo sensore per individuare oggetti nello spazio circostante il primo agente (A), e trasmette al primo agente (A) il risultato dell?elaborazione dei dati del secondo agente.
In una forma di realizzazione preferita, l?unit? di elaborazione del bus virtuale 240 decide inoltre se la comunicazione con altri veicoli o dispositivi esterni debba avvenire mediante comunicazione diretta in linea di vista (in Line of Sight - LoS) o sfruttando infrastrutture intermedie per una comunicazione indiretta Non-LoS (NLoS). Sono quindi possibili diversi schemi di comunicazione:
- Percezione Estesa Diretta (D-EP), in cui due veicoli, ad es. RU-A e RU-B in figura 7, stabiliscono un link di comunicazione da veicolo a veicolo (V2V).
- Multi-hops Extended Perception (M-EP), in cui due veicoli, ad es. RU-A e RU-C in fig. 7, stabiliscono un primo link di comunicazione veicolo-infrastruttura (V2I) e un secondo link di comunicazione infrastruttura-veicolo (I2V), utilizzando ad esempio l'unit? lato strada (RSU) che ha LoS per entrambi i veicoli.
- Hybrid Extended Perception (H-EP), in cui vengono sfruttate entrambe le interfacce di comunicazione 220 e 230 per implementare collegamenti V2V e/o V2I e/o V2N. Ad esempio l?RU-C pu? comunicare con l?RU-A tramite il semaforo 701 con un collegamento LowLatency attraverso l?interfaccia 230 e con il veicolo RU-B tramite interfaccia UHDLL. Tutte le possibili combinazioni sono incluse nello schema H-EP.
Lo schema di percezione diretta (D-EP) ? quello spiegato sopra con riferimento alla figura 6.
Lo schema di comunicazione M-EP ? illustrato in figura 9, dove in linea tratteggiata sono indicate le comunicazioni sul canale 030 LL, mentre con la freccia spessa sono indicate le comunicazioni sul canale 020 UHDLL. In questo schema, la comunicazione tra i veicoli RU-A ed RU-B ? facilitata da un agente fisso, qui indicato da un semaforo come ad es. il semaforo 701 di figura 7, ma potrebbe anche essere la base station 705 di figura 7. Tale semaforo potrebbe essere sostituito da altri dispositivi di sorveglianza stradale, quali ad esempio telecamere, in grado di realizzare un bus virtuale secondo i criteri precedentemente esposti con riferimento alla figura 6. Rispetto allo schema di figura 6, lo schema M-EP differisce per due importanti differenze. Innanzi tutto, la scoperta del veicolo vicino ? gestita dal dispositivo intermedio o da una rete, rappresentata dalla stazione base 705 in figura 7. In questo schema, dunque, il semaforo 701 svolge il ruolo di tramite tra pi? agenti. Come illustrato in figura 9, nella fase di inizializzazione 9100, tutti i veicoli in sua prossimit? (in questo caso RU-A ed RU-C) eseguono un?iniziale protocollo 9110 di autenticazione, handshake e sincronizazzione, dopo di che il veicolo RU-A, che potrebbe non essere a conoscenza di altri veicoli nelle vicinanze, chiede (passo 9120) al semaforo 701 se ci sono altri veicoli e/o agenti mobili (indicati con RU ? Road Units - in figura 9) nelle vicinanze. Il semaforo risponde (passo 9130) inviando la lista degli agenti mobili nelle vicinanze e di un loro indirizzo che deve essere utilizzato dal veicolo A per collegarsi con loro tramite il semaforo.
Le successive fasi di instaurazione del bus virtuale 9200 e di scambio dati 9300 tra due agenti avvengono in modo analogo al caso D-EP sopra descritto, con la differenza che l?agente fisso, il semaforo 701, svolge un ruolo di ripetitore o relay tra i due agenti. In dettaglio, nell?esempio di figura 9 il veicolo RU-A verifica dalla lista inviata al passo 9130 la presenza del veicolo RU-C ed invia una richiesta 9210 di informazioni del veicolo RU-C che viene ricevuta dal semaforo 701 ed inoltrata al veicolo RU-C, il quale risponde (9220) inviando la tabella 1, indicata in precedenza, al semaforo 701 che poi la inoltra al veicolo RU-A. Successivamente, il veicolo RU-A richiede (passo 9230) informazioni sui sensori del veicolo RU-C. Anche in questo caso la richiesta viene ricevuta dal semaforo 701 che la inoltra al veicolo RU-C, il quale risponde inviando la tabella 2 (passo 9240).
A questo punto, come descritto in precedenza per il caso D-EP, il veicolo RU-A sar? in grado di richiedere (passo 9310) dati direttamente ai sensori del veicolo RU-C inviando una richiesta all?indirizzo virtuale del sensore, ad es. yy.yy.yy.yy:1. La richiesta viene quindi inoltrata al sensore del veicolo RU-C che procede inviando i dati richiesti al semaforo che li inoltra al veicolo richiedente RU-A. Altre richieste possono essere inviate ad altri sensori, ad esempio la richiesta 9330 di figura 9 ? inviata al sensore yy.yy.yy.yy:2, che invier? i suoi dati.
Rispetto alla comunicazione D-EP, eventuali guasti e/o riduzioni di qualit? del collegamento UHDLL potrebbero intervenire tra il veicolo RU-A e il semaforo 701 o tra il veicolo RU-C ed il semaforo 701. Nel primo caso, il collegamento di backup LL viene utilizzato tra RU-A e semaforo 701 senza alcun impatto sul collegamento di comunicazione tra RU-C e semaforo, mentre nel secondo caso, dove il collegamento UHDLL tra RU-C e semaforo 701 si guasta, anche la velocit? di trasmissione dati tra RU-A e semaforo si riduce di conseguenza.
Lo schema H-EP, ? illustrato in figura 10, dove in linea tratteggiata sono indicate le comunicazioni sul canale 030 LL, mentre con la freccia spessa sono indicate le comunicazioni sul canale 020 UHDLL. Secondo questo schema ? possibile stabilire un collegamento V2V tra le interfacce di comunicazione LL 230 e un collegamento V2I, o V2N, tra le interfacce di comunicazione UHDLL 220 e viceversa. In altre parole, questo schema permette a due agenti di scambiarsi messaggi in parte mediante comunicazione diretta, ed in parte sfruttando un agente terzo che agisce da relay. Nell?esempio di figura 10, il veicolo RU-A ed RU-C si scambiano comunicazioni dirette mediante l?interfaccia LL, mentre utilizzano l?interfaccia UHDLL sfruttando il semaforo 701 come relay. In particolare, con riferimento all?esempio di figura 10, tutte le comunicazioni relative alla fase di inizializzazione (10100) e di set-up del bus virtuale (10200) avvengono in modo diretto mediante l?interfaccia LL. Con riferimento allo scambio di dati (10300), invece le richieste di dati ai sensori del veicolo RU-C (10310,10330) vengono inviate dal veicolo RU-A in modo diretto mediante l?interfaccia LL, mentre il sensore del veicolo RU-C invia i dati richiesti (10320,10340) al veicolo RU-A sfruttando il semaforo 701 come relay. Ovviamente altre combinazioni sono possibili, ad esempio il veicolo RU-A e quello RU-C potrebbero utilizzare il semaforo 701 come relay per la fase di inizializzazione, per poi passare ad un tipo di comunicazione diretta.
Dalla descrizione sopra riportata di alcuni esempi di realizzazione preferita dell?invenzione, ? chiaro come questa permetta di raggiungere gli scopi prefissati permettendo di realizzare una percezione cooperativa tra veicoli compatibile con gli attuali vincoli di banda.
? tuttavia chiaro che gli esempi sopra riportati non devono essere interpretati in senso limitativo e l?invenzione cos? concepita ? suscettibile di numerose modifiche e varianti tutte rientranti nell?ambito della presente invenzione quale risulta dalle rivendicazioni allegate.
Ad esempio ? chiaro che differenti blocchi circuitali possono essere differentemente accorpati o scomposti pur garantendo le medesime funzioni sopra descritte. Ugualmente, le informazioni che vengono trasmesse con i messaggi descritti negli esempi delle figure 1-10, possono essere diversamente organizzate e trasmesse, ad esempio le informazioni trasmesse con le Tabelle 1 e 2 possono essere trasmesse con un unico messaggio e/o essere organizzate diversamente per essere trasmesse con messaggi successivi, ad esempio uno per ogni sensore.
Ancora, nonostante nell?esempio sopra descritto i dispositivi di sorveglianza stradale sono fissi, ad esempio sono telecamere o semafori, ? tuttavia possibile che tali dispositivi di sorveglianza siano mobili, ad esempio potrebbero essere integrati in dispositivi indossabili da un pedone (ad es. uno zaino o uno smartphone) o, ancora, essere dei veicoli. Un dispositivo di sorveglianza stradale, dunque, pu? essere un veicolo dotato di sensori ambientali ed unit? di comunicazione come sopra descritto, ad esempio, con riferimento alla figura 4.
L?invenzione, dunque, trova applicazione alla comunicazione tra due agenti in grado di instaurare un bus virtuale per permettere un?acquisizione selettiva di informazioni di interesse. Come spiegato sopra, un?agente pu? richiedere dati ad un sensore di un altro agente (fisso o mobile) e i dati possono essere richiesti secondo un criterio che dipende dalle caratteristiche del sensore interrogato, ad esempio quest?ultimo ? una telecamera che riprende un certo volume di spazio, si pu? richiedere di ricevere solo i dati di una porzione d?interesse di tale spazio.
Il criterio di selezione pu? tuttavia dipendere anche da fattori esterni all?agente. Ad esempio, nell?esempio di figura 7, la stazione radio base 705 ? un apparecchio di accesso atto a consentire l?accesso ad una rete di telecomunicazioni, ed al contempo ? un agente in grado di stabilire un bus virtuale con uno degli altri agenti che si trovano nella sua area di copertura. Ad esempio la stazione radio base 705 ? in grado di collegarsi al veicolo RU-C per richiedere i dati di uno dei suoi sensori di bordo secondo le modalit? sopra descritte. Nell?esempio di figura 7, la stazione base 705 ? configurata per ricevere da un centro di controllo remoto 706 ? ad esempio attraverso la rete internet 707 - una richiesta di interrogazione del veicolo RU-C. La stazione base 705 richiede dunque al secondo agente i parametri di controllo e le caratteristiche dei sensori di bordo del veicolo RU-C, il quale risponder? inviando la tabella 2 ed opzionalmente la tabella 1 sopra descritte. A questo punto la stazione base 705 sar? in grado di interrogare direttamente i sensori di bordo del veicolo RU-C, ad esempio il sensore di telemetria, per ottenere dati che dipendono dalle caratteristiche del sensore e dalla richiesta ricevuta dal sistema di controllo remoto. Successivamente la stazione base 705 trasmette al centro di controllo i dati del sensore interrogato ricevuti tramite l?unit? di comunicazione radio 200 di cui ? provvista la stazione radio base.

Claims (23)

RIVENDICAZIONI
1. Metodo di comunicazione tra due agenti di cui almeno uno ? veicolo mobile, in cui un primo agente (A) comunica con un secondo agente (B,701) comprendente un sensore (110b,111b,112b,113b, 114b), in cui
il secondo agente (B,701) invia al primo agente (A), tramite un collegamento radio (020, 030), caratteristiche e parametri di comando del sensore (6240) necessari per interrogare direttamente il sensore (110b,111b,112b,113b, 114b), in cui
il primo agente (A) invia al sensore una richiesta di dati selezionati dal primo agente in base a un criterio di selezione dipendente da dette caratteristiche del sensore, detta richiesta essendo generata utilizzando i parametri di comando del sensore, ed in cui
il secondo agente (B) invia al primo agente (A) i dati del sensore richiesti con detta richiesta di dati.
2. Metodo secondo la rivendicazione 1, in cui i parametri di comando includono almeno un indirizzo virtuale del sensore,
in cui il primo agente (A) richiede i dati del sensore inviando detta richiesta attraverso il collegamento radio ed utilizzando l?indirizzo virtuale,
in cui il secondo agente (B) riceve la richiesta del primo agente (A) mediante un?interfaccia di comunicazione (250b) la quale invia la richiesta su un bus di comunicazione (400b) cui ? collegato il sensore.
3. Metodo secondo la rivendicazione 2, in cui il primo agente (A) comprende un?unit? di elaborazione e controllo (500a) ed un?unit? di comunicazione (200a),
in cui l?unit? di elaborazione e controllo (500a) richiede i dati del sensore inviando un messaggio di richiesta, su un bus di comunicazione locale (400a) cui ? collegata l?unit? di comunicazione (200a), utilizzando l?indirizzo virtuale del sensore,
ed in cui l?unit? di comunicazione (200a) trasmette il messaggio di richiesta mediante il collegamento radio.
4. Metodo secondo una qualsiasi delle rivendicazioni precedenti, in cui il secondo agente (B) valuta la qualit? del collegamento radio (020, 030) e varia la velocit? di trasmissione dei dati del sensore secondo la qualit? del collegamento radio.
5. Metodo secondo una qualsiasi delle rivendicazioni precedenti, in cui uno tra il primo agente (A) ed il secondo agente (A,B) assegna ai dati del sensore da trasmettere un ordine di priorit? ed in cui il secondo agente (B) trasmette i dati del sensore secondo tale ordine di priorit?.
6. Metodo secondo la rivendicazione 4 o 5, in cui il secondo agente (B) informa il primo agente (A) di un metodo di codifica utilizzata per comprimere i dati del sensore ed in cui il secondo agente (B) trasmette al primo agente (A) i dati del sensore codificati secondo detto metodo di codifica.
7. Metodo secondo una qualsiasi delle rivendicazioni precedenti, in cui il primo agente (A) ed il secondo agente (B) comprendono entrambi una prima interfaccia di comunicazione radio (220) ed una seconda interfaccia di comunicazione radio (230), la seconda interfaccia di comunicazione radio (230) essendo configurata per trasmettere dati ad una velocit? di trasmissione dati massima inferiore alla velocit? di trasmissione dati massima della prima interfaccia di comunicazione, ed in cui il primo agente (A) ed il secondo agente sono configurati per passare da una prima comunicazione con la prima interfaccia di comunicazione ad una seconda comunicazione con la seconda interfaccia di comunicazione.
8. Metodo secondo una qualsiasi delle rivendicazioni precedenti, in cui il secondo agente trasmette al primo agente dati generati dal sensore senza eseguire alcuna elaborazione dei dati ad eccezione di elaborazioni necessarie per la trasmissione sul collegamento radio, quali compressione e/o frammentazione.
9. Metodo secondo una qualsiasi delle rivendicazioni precedenti, in cui il sensore ? un una telecamera o un lidar o un radar atto a acquisire dati di uno spazio circostante il secondo agente, ed in cui il criterio di selezione adottato dal primo agente prevede di selezionare dati appartenenti ad una porzione di detto spazio.
10. Metodo secondo la rivendicazione 9, in cui il primo agente ? un veicolo comprendente un sensore locale, in cui il sensore locale ? una telecamera o un lidar o un radar, ed in cui il primo agente combina i dati del sensore con dati del sensore locale per definire o determinare la presenza di oggetti intorno al primo agente e comandare attuatori del veicolo per evitare detti oggetti e/o per attivare segnalatori acustici e/o visivi per segnalare situazioni di allarme per il guidatore del veicolo.
11. Metodo secondo una qualsiasi delle rivendicazioni precedenti, in cui il secondo agente invia al primo agente i parametri di comando e le caratteristiche del sensore all?interno di una tabella dei sensori, in cui il secondo agente comprende una pluralit? di sensori disponibili che possono essere interrogati dal primo agente, ed in cui detta tabella dei sensori comprende l?insieme dei sensori disponibili con l?insieme delle capacit? di rilevamento di detti sensori disponibili, e parametri di comando atti a interrogare ciascuno di detti sensori disponibili, detti parametri di comando comprendendo un indirizzo virtuale di ciascuno di detti sensori disponibili.
12. Metodo secondo una qualsiasi delle rivendicazioni precedenti, in cui il primo agente (A) invia la richiesta di dati del sensore ad un terzo agente (C) richiedendo all?agente terzo di processare i dati del sensore per individuare oggetti nello spazio circostante il primo agente (A), in cui il terzo agente
- attiva un bus virtuale con il secondo agente,
- richiede i dati al sensore sulla base della richiesta del primo agente,
- elabora i dati del sensore per individuare oggetti nello spazio circostante il primo agente (A), e
- trasmette al primo agente (A) il risultato dell?elaborazione dei dati del secondo sensore.
13. Agente (A) comprendente
un?unit? di elaborazione e controllo (500) configurata per controllare il funzionamento dell?agente,
ed un?unit? di comunicazione radio (200) operativamente connessa all?unit? di elaborazione e controllo (500) ed atta a stabilire un collegamento radio con un secondo agente (B) dotato di almeno un sensore,
caratterizzato dal fatto che l?unit? di comunicazione radio (200) ? configurata
per ricevere dall?agente (B), tramite il collegamento radio, caratteristiche del sensore e parametri di comando necessari per interrogare il sensore,
e per trasmettere le caratteristiche del sensore ed i parametri di comando ricevuti all?unit? di elaborazione e controllo (500),
ed in cui l?unit? di elaborazione e controllo (500) ? configurata per utilizzare i parametri di comando del sensore per inviare al sensore una richiesta di dati selezionati in base a un criterio di selezione dipendente da dette caratteristiche del sensore.
14. Agente secondo la rivendicazione 13, in cui
i parametri di comando includono un indirizzo virtuale del sensore, detto indirizzo virtuale identificando un indirizzo su un bus di comunicazione virtuale accessibile sia dal sensore, sia dall?unit? di elaborazione e controllo (500)
ed in cui l?unit? di comunicazione radio (200), comprende
un?interfaccia di comunicazione radio (220,230) atta a stabilire il collegamento radio per trasmettere e ricevere segnali radio,
un apparecchio di codifica (211) atto a codificare dati locali da trasmettere e trasferirli all?interfaccia di comunicazione,
un apparecchio di decodifica (251) atto a decodificare segnali ricevuti dall?interfaccia di comunicazione per decodificare dati contenuti nei segnali radio ricevuti dall?interfaccia di comunicazione,
una porta di trasmissione virtuale (212) atta a ricevere i dati locali da trasmettere da un bus di comunicazione locale (400) e a trasmettere detti dati locali da trasmettere all?apparecchio di codifica (211),
una porta di ricezione virtuale (252) atta a ricevere dati decodificati dall?apparecchio di decodifica e a trasmetterli sul bus di comunicazione locale (400),
un?unit? di elaborazione di un bus virtuale (240) configurata per impostare
la porta di trasmissione virtuale (212) per ricevere dal bus di comunicazione locale (400) richieste di dati indirizzate all?indirizzo virtuale del sensore e per trasmettere le richieste di dati ricevute all?apparecchio di codifica,
e la porta di ricezione virtuale (212) per ricevere dall?apparecchio di decodifica dati provenienti dall?indirizzo virtuale e trasmetterli sul bus di comunicazione locale.
15. Agente secondo la rivendicazione 14, in cui l?unit? di elaborazione di un bus virtuale (240) ? operativamente connessa all?apparecchio di codifica (211) e all?apparecchio di decodifica per variare la codifica utilizzata dall?apparecchio di codifica e all?apparecchio di decodifica (251).
16. Agente secondo la rivendicazione 15, in cui l?unit? di elaborazione del bus virtuale (240) ? operativamente connessa all?interfaccia di comunicazione radio (220,230) ed ? configurata per monitorare la qualit? del collegamento radio ed inviare comandi all?apparecchio di codifica per variare, in funzione della qualit? del collegamento radio, la velocit? di trasmissione dati sul collegamento radio e/o per cambiare collegamento radio.
17. Agente secondo una qualsiasi delle rivendicazioni da 13 a 16, in cui l?apparecchio di codifica (211) assegna ai dati da codificare un ordine di priorit? e fornisce i dati codificati all?interfaccia di comunicazione (220,230) secondo tale ordine di priorit?.
18. Agente secondo una qualsiasi delle rivendicazioni da 13 a 17, in cui l?unit? di elaborazione di un bus virtuale (240) ? configurata per ricevere informazioni di una codifica di frammentazione utilizzata dal secondo agente per frammentare i dati del sensore, ed ? altres? configurata per segnalare tale codifica di frammentazione all?apparecchio di decodifica per permettere la decodifica dei dati trasmessi sul collegamento radio dal secondo agente.
19. Agente secondo una qualsiasi delle rivendicazioni da 13 a 18, comprendente una seconda interfaccia di comunicazione radio (230), la seconda interfaccia di comunicazione radio (230) essendo configurata per trasmettere dati ad una velocit? di trasmissione dati massima inferiore alla velocit? di trasmissione dati massima di detta interfaccia di comunicazione, ed in cui l?unit? di elaborazione del bus virtuale ? configurata per passare da una prima comunicazione con l?interfaccia di comunicazione ad una seconda comunicazione con la seconda interfaccia di comunicazione.
20. Agente secondo una qualsiasi delle rivendicazioni da 13 a 19, in cui l?agente ? un veicolo, ed in cui l?unit? di elaborazione e controllo (500) ? configurata per
utilizzare i dati ricevuti dal sensore per identificare oggetti presenti nell?ambiente circostante il veicolo e per
controllare il veicolo in modo tale da evitare gli oggetti identificati.
21. Agente secondo una qualsiasi delle rivendicazioni da 13 a 20, in cui l?agente ? un apparecchio di accesso atto a consentire l?accesso ad una rete di telecomunicazioni, ed in cui l?apparecchio di accesso ? configurato per
ricevere da un centro di controllo una richiesta di interrogazione del secondo agente,
richiedere al secondo agente, mediante detto collegamento radio, i parametri di controllo e le caratteristiche del sensore,
trasmettere al centro di controllo i dati del sensore ricevuti tramite l?unit? di comunicazione radio (200).
22. Agente secondo una qualsiasi delle rivendicazioni da 13 a 21, in cui l?unit? di comunicazione radio (200) ? configurata per trasmettere una tabella dei sensori disponibili che possono essere interrogati da altri agenti, ed in cui detta tabella comprende l?insieme dei sensori disponibili con l?insieme delle capacit? di rilevamento di detti sensori disponibili, e parametri di comando atti a interrogare ciascuno di detti sensori disponibili, detti parametri di comando comprendendo un indirizzo virtuale di ciascuno di detti sensori disponibili.
23. Sistema di comunicazione comprendente almeno due agenti secondo una qualsiasi delle rivendicazioni da 13 a 22.
IT102020000010300A 2020-05-08 2020-05-08 Sistema e metodo di comunicazione tra un veicolo ed un altro agente IT202000010300A1 (it)

Priority Applications (4)

Application Number Priority Date Filing Date Title
IT102020000010300A IT202000010300A1 (it) 2020-05-08 2020-05-08 Sistema e metodo di comunicazione tra un veicolo ed un altro agente
EP21736681.4A EP4147465A1 (en) 2020-05-08 2021-05-10 System and method of communication between a vehicle and an agent
US17/923,932 US20230269566A1 (en) 2020-05-08 2021-05-10 System and method of communication between a vehicle and an agent
PCT/IB2021/053966 WO2021224896A1 (en) 2020-05-08 2021-05-10 System and method of communication between a vehicle and an agent

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
IT102020000010300A IT202000010300A1 (it) 2020-05-08 2020-05-08 Sistema e metodo di comunicazione tra un veicolo ed un altro agente

Publications (1)

Publication Number Publication Date
IT202000010300A1 true IT202000010300A1 (it) 2021-11-08

Family

ID=71784483

Family Applications (1)

Application Number Title Priority Date Filing Date
IT102020000010300A IT202000010300A1 (it) 2020-05-08 2020-05-08 Sistema e metodo di comunicazione tra un veicolo ed un altro agente

Country Status (4)

Country Link
US (1) US20230269566A1 (it)
EP (1) EP4147465A1 (it)
IT (1) IT202000010300A1 (it)
WO (1) WO2021224896A1 (it)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113022495A (zh) * 2021-04-16 2021-06-25 蔚来汽车科技(安徽)有限公司 无钥匙进入启动系统及其方法、以及车辆
KR102547524B1 (ko) * 2021-08-17 2023-06-27 (주)자스텍엠 데이터 보안성 및 데이터 신뢰성을 위한 실내외 연속측위 장치
US20230091064A1 (en) * 2021-09-20 2023-03-23 Qualcomm Incorporated Sensor data sharing for automotive vehicles
US11976940B2 (en) * 2021-09-30 2024-05-07 Woven By Toyota, Inc. Vehicle data collection system and method of using
US11936700B1 (en) * 2023-02-16 2024-03-19 GM Global Technology Operations LLC Vehicle video streaming system and method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180365909A1 (en) * 2017-06-19 2018-12-20 Qualcomm Incorporated Interactive sharing of vehicle sensor information
US10194264B2 (en) 2015-09-22 2019-01-29 Veniam, Inc. Systems and methods for collecting sensor data in a network of moving things
US20190130754A1 (en) * 2018-12-27 2019-05-02 Intel Corporation Sensor data sharing management
US20200068434A1 (en) 2016-12-06 2020-02-27 Nissan North America, Inc. Bandwidth Constrained Image Processing for Autonomous Vehicles

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10194264B2 (en) 2015-09-22 2019-01-29 Veniam, Inc. Systems and methods for collecting sensor data in a network of moving things
US20200068434A1 (en) 2016-12-06 2020-02-27 Nissan North America, Inc. Bandwidth Constrained Image Processing for Autonomous Vehicles
US20180365909A1 (en) * 2017-06-19 2018-12-20 Qualcomm Incorporated Interactive sharing of vehicle sensor information
US20190130754A1 (en) * 2018-12-27 2019-05-02 Intel Corporation Sensor data sharing management

Non-Patent Citations (17)

* Cited by examiner, † Cited by third party
Title
DRIVERLESS CARS, Retrieved from the Internet <URL:https://www.gearbrain.com/uber-autonomous-car-lidar-sensor-2554386301.html>
ETSI TR 102638: INTELLIGENT TRANSPORT SYSTEMS (ITS, Retrieved from the Internet <URL:http://www.etsi.org/deliver/etsLtr%5C102600_102699%5C102638%5C01.01.0I60%5Ctr_102638v010101p.pdf>
J. CHOIV. VAN. GONZALEZ-PRELCICR. DANIELSC. BHATR. HEATH: "Millimeter-Wave Vehicular Communication to Support massive Automotive Sensing", IEEE COMMUN. MAY., December 2016 (2016-12-01), pages 160 - 167
J. KENNEY: "dedicated short-Range Communications (DSRC) Standards in the United States", IEEE PROC., July 2011 (2011-07-01), pages 1162 - 1182, XP011367585, DOI: 10.1109/JPROC.2011.2132790
J. WANG ET AL.: "Networking and Communications in Autonomous driving: A Survey", IEEE COMMUNICATIONS SURVEYS & TUTORIALS, vol. 21, no. 2, 2019
K. SAKAGUCHI ET AL.: "where, when, and How mmWave is used in 5G and beyond", IEICE TRANS. ELECTRON, October 2017 (2017-10-01), pages 790 - 808
M. BONANM. IBRAHIMS. BAZZI: "Design aspects for 5G V2X physical layer", PROC. 2016 IEEE CONF. STANDARDS FOR COMMUN. & NETW. (CSCN, October 2016 (2016-10-01)
M. GIORDANIA. ZANELLAM. ZORZI: "Millimeter Wave Communication in Vehicular Networks: Challenges and opportunities", PROC. 2017 IEEE MOCAST, May 2017 (2017-05-01), pages 1 - 6, XP033100571, DOI: 10.1109/MOCAST.2017.7937682
NHTSA: VEHICLE-TO-VEHICLE COMMUNICATIONS: READINESS OF V2V TECHNOLOGY FOR APPLICATION, Retrieved from the Internet <URL:http://www.nhtsa.gov/staticfiles/rulemaking/pdfN2V/Readiness-of-V2V-Technology-for-Application-812014.pdf>
QI CHEN ET AL., COOPER: COOPERATIVE PERCEPTION FOR CONNECTED AUTONOMOUS VEHICLES BASED ON 3D POINT CLOUDS, Retrieved from the Internet <URL:https://arxiv.org/pdf/1905.05265.pdf>
S. CARLAW: "54 TECHNOLOGY TRENDS TO WATCH IN 2020 PREDICTIONS FOR WHAT WILL - AND WHAT WON'T - HAPPEN IN THE YEAR AHEAD", ABI WHITE PAPER
S. D. PENDLETON ET AL.: "perception, planning, control, and coordination for autonomous vehicles", MACHINES, 2017, pages 6
SAE J2945/X FAMILY OF STANDARDS, Retrieved from the Internet <URL:http://standards.sae.org/wip/j2945>
TESLA'S AUTOPILOT SYSTEM IS PARTIALLY TO BLAME FOR A FATAL CRASH, FEDERAL INVESTIGATORS SAY, Retrieved from the Internet <URL:http://www.businessinsider.com/tesla-autopilot-fatal-crash-ntsb-2017-9>
UBER FINDS DEADLY ACCIDENT LIKELY CAUSED BY SOFTWARE SET TO IGNORE OBJECTS ON ROAD, Retrieved from the Internet <URL:https://www.theinformation.com/articles/uber-finds-deadlyaccident-likely-caused-by-software-set-to-ignore-objects-on-road>
V. VAT. SHIMIZUG. BANSALR. J. HEATH: "Millimeter Wave Vehicular Communications: A Survey", FOUNDATIONS TRENDS NETW, no. 1-113, 2016
VELODYNE, Retrieved from the Internet <URL:https://velodynelidar.com/products/hdl-64e>

Also Published As

Publication number Publication date
US20230269566A1 (en) 2023-08-24
EP4147465A1 (en) 2023-03-15
WO2021224896A1 (en) 2021-11-11

Similar Documents

Publication Publication Date Title
IT202000010300A1 (it) Sistema e metodo di comunicazione tra un veicolo ed un altro agente
EP3791376B1 (en) Method and system for vehicle-to-pedestrian collision avoidance
CN112368755B (zh) 针对混合式集体感知和地图众包的方法和系统
CN109389832B (zh) 使用v2x通信系统提高障碍意识的系统和方法
KR102195939B1 (ko) 자율주행 차량의 배터리 충전 방법 및 이를 위한 장치
KR102234224B1 (ko) 자율 주행 시스템에서 차량의 주행을 관리하기 위한 방법 및 장치
US20200028736A1 (en) Method and apparatus for determining an error of a vehicle in autonomous driving system
KR102164188B1 (ko) 자율 주행 시스템에서 차량을 제어하기 위한 방법 및 장치
KR20190098094A (ko) 자율주행시스템에서 차량이 수신한 메시지의 유효성을 판단하는 방법 및 이를 위한 장치
KR20190098093A (ko) 자율주행시스템에서 가상 신호등 서비스 제공방법 및 이를 위한 장치
KR20190096873A (ko) 자율주행시스템에서 차량과 서버의 연결 설정방법 및 이를 위한 장치
KR20190103089A (ko) 자율주행시스템에서 응급차량을 위한 주차차량을 이동시키는 방법 및 이를 위한 장치
CN104584593A (zh) 用于传达安全消息信息的方法和装置
KR20190107277A (ko) 자율 주행 시스템에서 차량을 제어하는 방법 및 장치
US11287829B2 (en) Environment mapping for autonomous vehicles using video stream sharing
CN109196557A (zh) 图像处理装置、图像处理方法和车辆
KR20190100104A (ko) 자율주행시스템에서 차량에 구비된 v2x 통신 장치의 bsm 메시지 전송 방법
KR20190098092A (ko) 자율주행 시스템에서 해킹 차량 관리 방법 및 그 장치
KR102203475B1 (ko) 자율 주행 시스템에서 차량을 제어하기 위한 방법 및 장치
US11645913B2 (en) System and method for location data fusion and filtering
Ksouri et al. Data gathering for internet of vehicles safety
Vermesan et al. IoT technologies for connected and automated driving applications
JP7094901B2 (ja) 交通情報を管理するサーバ、システム、方法及びプログラム、並びに、サーバと通信可能な通信装置及び移動体
KR20190104275A (ko) 차량 내 센서를 갖는 자율 주행 시스템과 그 제어방법
US20210383684A1 (en) Virtual representation of non-connected vehicles in a vehicle-to-everything (v2x) system