IT202100020852A1 - Metodo di integrazione alla vista per un utente - Google Patents

Metodo di integrazione alla vista per un utente Download PDF

Info

Publication number
IT202100020852A1
IT202100020852A1 IT102021000020852A IT202100020852A IT202100020852A1 IT 202100020852 A1 IT202100020852 A1 IT 202100020852A1 IT 102021000020852 A IT102021000020852 A IT 102021000020852A IT 202100020852 A IT202100020852 A IT 202100020852A IT 202100020852 A1 IT202100020852 A1 IT 202100020852A1
Authority
IT
Italy
Prior art keywords
user
spatial perception
environment
sensors
personal
Prior art date
Application number
IT102021000020852A
Other languages
English (en)
Inventor
Alfredo Mensi
Original Assignee
X Ender S R L
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by X Ender S R L filed Critical X Ender S R L
Priority to IT102021000020852A priority Critical patent/IT202100020852A1/it
Publication of IT202100020852A1 publication Critical patent/IT202100020852A1/it

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Arrangement of adaptations of instruments
    • B60K35/23
    • B60K35/28
    • B60K35/285
    • B60K35/29
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • B60K2360/176
    • B60K2360/177
    • B60K2360/179
    • B60K2360/191
    • B60K2360/21
    • B60K2360/48
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • B60W2420/408

Description

Titolo: "Metodo di integrazione alla vista per un utente "
DESCRIZIONE
Campo Tecnico
La presente invenzione si riferisce ad un metodo per integrare la vista di uno o pi? utenti durante il movimento. Nello specifico, il metodo ed il relativo sistema permettono di integrare sovrapponendo alla vista naturale una visione alternativa e arricchita di un ambiente. Preferibilmente, la presente invenzione pu? essere applicata su veicoli, autocarri e trasporto di persone nonch? su indumenti per l?utente.
Stato della Tecnica
Sono noti dallo stato della tecnica sistemi e metodi integrativi alla vista dell?utente come, ad esempio, dispositivi di realt? aumentata che proiettano prontamente istruzioni per l?utente in funzione di alcuni elementi presenti nell?ambiente e rilevati da sensori. Inoltre, quando tali sistemi e metodi integrativi alla vista sono associati a veicoli in condizioni di scarsa visibilit?, il riconoscimento di un oggetto/elemento nell?ambiente ? segnalato all?utente mediante un allarme sonoro che ne avverte la presenza senza andare oltre.
Problemi della Tecnica Nota
I metodi ed i sistemi noti presentano numerosi svantaggi legati dunque alla difficolt? ed all?impossibilit? di associare un oggetto/elemento riconosciuto nell?ambiente alla posizione effettiva dell?utente nonch? alla direzione del suo sguardo. Nello specifico, i metodi noti forniscono un potenziamento indiretto per la guida di veicoli (movimentazione con indumenti come, ad esempio, tute spaziali) in condizioni di scarsa visibilit? per l?utente avvisando solo della presenza di eventuali pericoli. Inoltre, un ulteriore svantaggio di tali metodi e sistemi noti ? la loro incapacit? di rilevare un oggetto/elemento nell?ambiente associandogli una corretta collocazione spaziale nel mondo reale.
L?insieme di tali svantaggi comporta un conseguente peggioramento della sicurezza e del confort dell?utente durante la guida/movimento in condizioni di scarsa visibilit? nonch? in condizioni di distrazione.
Scopo dell?Invenzione
Scopo dell?invenzione in oggetto ? quello di realizzare un metodo di integrazione alla vista per un utente in grado di superare gli inconvenienti della tecnica nota sopra citati.
In particolare, ? scopo della presente invenzione quello di fornire un metodo di integrazione alla vista per un utente in grado di rendere sicuro e confortevole il movimento di un utente.
Inoltre, ? ulteriore scopo della presente invenzione fornire un metodo di integrazione alla vista per un utente in grado di integrare sensori con l?esteropercettibilit? del guidatore.
Il compito tecnico precisato e gli scopi specificati sono sostanzialmente raggiunti da un metodo di integrazione alla vista per un utente comprendente le caratteristiche tecniche esposte in una o pi? delle unite rivendicazioni.
Vantaggi dell?invenzione
Vantaggiosamente, il metodo in accordo alla presente invenzione permette di rendere sicura e confortevole la guida di un veicolo o la movimentazione dell?utente in un equipaggiamento (indossato come indumento) ad esempio in condizioni avverse di scarsa visibilit? quali nebbia, pioggia o presenza di polveri.
Vantaggiosamente, il metodo in accordo alla presente invenzione permette di integrare sensori con l?esteropercettibilit? del guidatore.
Vantaggiosamente, il metodo in accordo alla presente invenzione fornisce un potenziamento diretto alla vista dell?utente per la guida di un veicolo/movimentazione con indumenti, ad esempio, in condizioni di scarsa visibilit?.
BREVE DESCRIZIONE DELLE FIGURE
Ulteriori caratteristiche e vantaggi della presente invenzione appariranno maggiormente chiari dalla descrizione indicativa e pertanto non limitativa, di una forma di realizzazione preferita ma non esclusiva di un metodo di integrazione alla vista per un utente come illustrato negli uniti disegni:
- la figura 1 mostra un diagramma a blocchi del metodo di integrazione alla vista per un utente in accordo con una forma realizzativa della presente invenzione;
- la figura 2 mostra una vista schematica dall?alto di un sistema di integrazione alla vista di un utente con alcune parti rimosse per meglio mostrarne altre in accordo con una forma di realizzazione preferita della presente invenzione;
- la figura 3 mostra una vista schematica dall?alto di un sistema di integrazione alla vista di un utente con alcune parti rimosse per meglio mostrarne altre in accordo con la forma di realizzazione preferita della presente invenzione.
DESCRIZIONE DETTAGLIATA
Anche qualora non esplicitamente evidenziato, le singole caratteristiche descritte in riferimento alle specifiche realizzazioni dovranno intendersi come accessorie e/o intercambiabili con altre caratteristiche, descritte in riferimento ad altri esempi di realizzazione.
La presente invenzione ha per oggetto un metodo di integrazione alla vista per un utente indicato complessivamente con 1 nella figura 1. Giova rilevare che l?utente ? indicato con U nella figura 3.
Il metodo ? particolarmente indicato per l?applicazione a veicoli con autonomia ?plug-in? o attivabile che contano sulla possibilit? di passare ad una modalit? di guida manuale da parte dell?utente (guidatore). In accordo con una forma realizzativa della presenta invenzione, il metodo 1 pu? essere applicato a qualsiasi veicolo non solo con guida autonoma come anche a qualsiasi indumento o macchina volante. Infatti, una versione del suddetto sistema pu? essere adattata ed impiegata come equipaggiamento indossabile per missioni di esplorazione specifiche in caso di ridotta visibilit? o per utenti con ridotta capacit? visiva o in generale esteropercettiva. Giova rilevare che, come il metodo 1, anche i relativi sistema 1000 e kit, descritti nel seguito, possono essere applicati a qualsiasi veicolo 400 e/o indumento per determinate missioni.
Il metodo 1 oggetto della presente invenzione ? configurato per integrare e potenziare la vista dell?utente tenendo conto dell?ambiente in cui l?utente sia che si muova all?interno di un veicolo 400 che all?interno di un indumento.
Il metodo 1 oggetto della presente invenzione comprende una serie di fasi di seguito esposte e riportate schematicamente nel diagramma a blocchi di figura 1.
Nel seguito per semplicit? espositiva si fa riferimento all?applicazione del metodo quando applicato ad un veicolo 400 su cui l?utente si trova e tramite cui l?utente si muove all?interno dell?ambiente. Tale metodo e quanto descritto nel seguito pu? essere traslato su un indumento indossato dall?utente tramite cui l?utente si muove all?interno dell?ambiente.
Per gli scopi della presente invenzione per ambiente si intende qualsiasi luogo in cui l?utente pu? muoversi mediante veicolo 400 e/o indumento come ad esempio una strada, una foresta o un deserto.
Il metodo 1 comprende la fase di acquisire 10 mediante un set di dispositivi di acquisizione di immagini 100 flussi di immagini relativi all?ambiente per ogni istante temporale di acquisizione. Preferibilmente, la fase di acquisire 10 prevede di acquisire flussi di immagini concordi ad una direzione di movimento dell?utente all?interno dell?ambiente. Ad esempio, nel caso del veicolo 400 i dispositivi di acquisizione di immagini 100 permettono durante la fase di acquisire 10 di acquisire flussi di immagini concordi alla direzione di movimento del veicolo 400 (lungo una strada). La presente fase 10 prevede anche di definire mediante i flussi di immagini relativi all?ambiente acquisiti la direzione di movimento dell?utente nell?ambiente, ad esempio, quella del veicolo 400 ed una percezione spaziale generale dell?utente rispetto all?ambiente lungo la direzione di movimento. Nello specifico, la direzione di movimento del veicolo ? determinata mediante l?analisi del flusso di immagini acquisito. ? da notare che la determinazione della direzione di movimento pu? anche essere determinata in combinazione con sensori di movimento o di sterzo associati al veicolo 400.
Preferibilmente, i dispositivi di acquisizione di immagini 100 comprendono una o pi? telecamere. In accordo con una forma di realizzazione preferita, i dispositivi di acquisizione di immagine 100 comprendono due telecamere fisse rivolte verso il senso di marcia del veicolo 400.
Giova rilevare che per percezione spaziale si intende una visione dell?ambiente da un determinato sistema di riferimento, ad esempio, la seduta dell?utente o i dispositivi di acquisizione di immagini 100. Nello specifico la percezione spaziale ? relativa a ci? che ? visibile dal determinato sistema di riferimento in cui sono ad esempio disposti dispostivi di acquisizione di immagini e/o l?utente. ? da notare che il metodo 1 pu? comprendere una fase preliminare di determinare il sistema di riferimento rispetto al quale determinare la percezione spaziale.
Nel presente caso, la percezione spaziale generale dell?utente comprende la visione che l?utente ha dell?ambiente dal veicolo 400 lungo la direzione di movimento qualora lo sguardo sia concorde con la direzione di movimento nonch? con i dispositivi di acquisizione di immagini 100 (considerabili come sistema di riferimento per la presente percezione spaziale).
Il metodo 1 comprende la fase di acquisire 20 mediante un primo set di sensori 200 associati all?utente per ogni istante temporale di acquisizione un primo set di dati relativi all?utente. Preferibilmente, la fase di acquisire 20 prevede di acquisire informazioni relative alla visione dell?utente dell?ambiente e alla posizione dell?utente all?interno del veicolo 400. Come chiarito nel seguito, la fase di acquisire 20 prevede ad esempio di acquisire la posizione tridimensionale dell?utente, tracciare il movimento degli occhi nonch? eventuali momenti di distrazione dalla strada.
La presente fase 20 prevede anche di definire una direzione di osservazione dell?utente in funzione del primo set di dati per ogni istante temporale di acquisizione. Nello specifico, la fase 20 prevede di determinare l?effettiva direzione dello sguardo dell?utente per definire il suo campo visivo nonch? la direzione di osservazione. Infatti, la fase 20 prevede, successivamente, di definire una percezione spaziale personale dell?utente rispetto all?ambiente lungo la direzione di osservazione dell?utente in funzione del primo set di dati, della direzione di movimento dell?utente e della percezione spaziale generale dell?utente. Nello specifico, la fase 20 prevede di definire l?effettiva visione dell?ambiente dell?utente rispetto ad un sistema di riferimento ad esso associato (ad esempio la direzione dello sguardo dell?utente) che pu? coincidere o differire dal sistema di riferimento relativo al set di dispositivi di acquisizione delle immagini 100.
Giova rilevare che nel presente caso, la percezione spaziale personale dell?utente comprende l?effettiva visione che l?utente ha dell?ambiente dal veicolo 400 tenendo conto della direzione di osservazione. Nello specifico, la fase di acquisire 20 tenendo conto della posizione dell?utente (ad esempio sguardo e posizione degli occhi) permette di definire cosa l?utente stia effettivamente osservando dal relativo sistema di riferimento. Giova rilevare che la percezione spaziale personale dell?utente, come anche quella generale, pu? tenere conto di condizioni di scarsa visibilit? e/o della presenza di ostacoli alla vista. Ad esempio, in condizioni di nebbia la percezione spaziale personale dell?utente, nonch? quella generale, ? associata a livello di intensit? della nebbia e quanto questa consenta la vista. Pertanto, la visione dell?ambiente e dunque la percezione spaziale possono variare da ?muro di nebbia? (zero visibilit?) a scarsa visibilit? quando la nebbia ? meno intensa.
? da notare che la percezione spaziale generale dell?utente e la percezione personale dell?utente potrebbero coincidere qualora la direzione di movimento e di osservazione fossero coincidenti e discostarsi qualora la direzione di osservazione sia inclinata di un angolo diverso da zero rispetto alla direzione di movimento. Preferibilmente, il metodo pu? prevedere, come chiarito nel seguito, una fase di confronto tra la percezione spaziale generale e quella personale al fine di integrare la percezione spaziale mancante e migliorare la vista dell?ambiente.
In accordo con una forma di realizzazione preferita, il primo set di sensori 200 ? associato ad un dispositivo di realt? aumentata (AR) concorde con l?utente preferibilmente alla parte superiore del corpo dell?utente, pi? preferibilmente alla testa dell?utente. Il primo set di sensori 200 comprende almeno un dispositivo di acquisizione di immagini e sensori di sguardo configurati per seguire lo sguardo dell?utente (preferibilmente le pupille). In questo, modo la determinazione della direzione di osservazione e della percezione spaziale personale dell?utente possono tenere conto non solo della posizione dell?utente rispetto al veicolo 400 e relativo sistema di riferimento, ma anche del suo sguardo.
Il metodo 1 comprende la fase di acquisire 30 mediante un secondo set di sensori 300 per ogni istante temporale di acquisizione un secondo set di dati relativo all?ambiente attorno all?utente e definire una percezione spaziale generale dell?ambiente da parte del secondo set di sensori. Nello specifico, la fase di acquisire 30 prevede di acquisire informazioni sufficienti a descrive dettagliatamente l?ambiente attorno all?utente preferibilmente attorno al veicolo 400 in cui si trova l?utente. Nel dettaglio, il secondo set di dati permette di ricostruire tridimensionalmente l?ambiente attorno all?utente in modo da facilitare l?integrazione alla vista dell?utente. Tale ricostruzione pu? avvenire mediante l?integrazione dei dati acquisiti dal secondo set di sensori 300 ed un algoritmo di sincronizzazione. Giova rilevare che nelle fasi successive, tali algoritmi permettono di identificare target all?interno dell?ambiente come ad esempio oggetti, carreggiata, veicoli, persone, animali, ostacoli.
In questo caso, la percezione spaziale generale dell?ambiente comprende una visione tridimensionale dell?ambiente attorno all?utente, preferibilmente attorno al veicolo 400, ad ogni istante temporale di acquisizione.
In accordo con una forma di realizzazione preferita, il secondo set di sensori 300 comprende dispositivi di acquisizione di immagini (telecamere), sensori lidar, sensori radar e/o sensori ad ultrasuoni. Preferibilmente, il secondo set di sensori 300 comprende due telecamere solidali con il sensore lidar, posto nella porzione anteriore del veicolo 400, una telecamera al lato destro del veicolo 400 ed una al lato sinistro, tre sensori radar e quattro sensori ad ultrasuoni. Il numero dei sensori sopra elencato non ? limitante ma rappresenta una possibile configurazione.
Vantaggiosamente, mediante il secondo set di sensori 300 ed algoritmi di analisi ? possibile ricostruire tridimensionalmente l?ambiente intorno all?utente mediante flussi di immagini e dati di presenza di oggetti e della loro distanza dall?utente (o dal veicolo) nonch? dal sistema di riferimento considerato.
Il metodo 1 comprende la fase di sincronizzare 40 mediante un algoritmo di sincronizzazione residente in una prima unit? di elaborazione dati 600 la percezione spaziale personale dell?utente con la percezione spaziale generale dell?ambiente per ogni istante temporale di acquisizione.
Nello specifico, la fase prevede di inviare il secondo set di dati relativi all?ambiente alla prima unit? di elaborazione dati 600 in comunicazione di segnale con il secondo set di sensori 300 insieme ai flussi di immagini acquisiti mediante i dispositivi di acquisizione di immagine 100 in comunicazione di segnale con la prima unit? di elaborazione dati 600 ed il primo set di dati acquisito dal primo set di sensori 200 in comunicazione di segnale con la prima unit? di elaborazione dati.
Giova rilevare che le fasi di definire percezioni spaziali e direzione di movimento e di osservazione possono essere realizzate dalla prima unit? di elaborazione mediante algoritmi dedicati a monte della sincronizzazione tra percezione spaziale personale dell?utente e percezione spaziale generale dell?ambiente.
Preferibilmente, la fase sincronizzare 50 prevede di rendere concorde la percezione personale dell?utente con la percezione spaziale generale dell?ambiente mediante l?impiego di trasformate.
Vantaggiosamente, la fase di sincronizzare 50 permette di rendere il secondo set di sensori 300 e preferibilmente, come chiarito nel seguito, il set di dispositivi di acquisizione di immagini 100, uno strumento utile alla visione dell?ambiente per l?utente.
Giova rilevare che la fase di sincronizzare 50 prevede fasi di convalida e correzione mediante l?impiego di filtri Kalman nonch? la verifica della coerenza della sincronizzazione ottenuta a seguito dell?applicazione delle trasformate.
Il metodo 1 comprende la fase di riconoscere 50 dal secondo set di dati uno o pi? target presenti nell?ambiente per mezzo di un algoritmo di riconoscimento residente in una seconda unit? di elaborazione dati 700. Preferibilmente, la fase di riconoscere 50 prevede di analizzare ciascun dato del secondo set di dati comprendente sia immagini che dati relativi alla distanza da un sistema di riferimento e presenza ed estensione spaziale di target al fine di riconoscere uno o pi? target presenti nell?ambiente.
Giova rilevare che per target si intende qualsiasi oggetto ed entit? presente nell?ambiente come ad esempio persone, veicoli, elementi della strada (linee della carreggiata) etc. siano essi fermi o in movimento rispetto all?utente.
In accordo con una forma di realizzazione della presente invenzione, la fase di riconoscere 50 ? realizzata mediante l?impiego di algoritmi di machine learning e/o di deep learning addestrati per riconoscere target in movimento fissi e/o in movimento rispetto all?utente in funzione del secondo set di sensori. Tale addestramento pu? essere specifico per l?ambiente in cui ? disposto e si muove l?utente e/o generale. Giova rilevare che mentre l?algoritmo per il riconoscimento ? residente nella seconda unit? di elaborazione dati 700 i database per l?addestramento possono essere caricati in una unit? di archiviazione in remoto (cloud) in comunicazione di segnale con la seconda unit? di elaborazione dati 700.
Giova rilevare che la fase di riconoscere prevede fasi di convalida e correzione mediante l?impiego di filtri Kalman nonch? la verifica del riconoscimento e classificazione mediante l?impiego del set di dispositivi di acquisizione di immagini 100.
In accordo con una forma di realizzazione preferita, la fase di riconoscere 50 comprende la fase di catalogare uno o pi? target riconosciuti secondo categorie predefinite associando a ciascun target valori di riferimento di priorit? di attenzione in funzione percezione spaziale personale dell?utente. Nello specifico, la fase di catalogare prevede di associare ad ogni target riconosciuto una categoria che pu? essere ad esempio target in movimento e target fermo valutato rispetto all?utente. Successivamente, a seguito della categorizzazione, la fase 50 prevede di associare valori di riferimento di priorit? di attenzione a ciascun target in accordo con gli algoritmi residenti nella seconda unit? di elaborazione dati 700. Tali valori di riferimento di priorit? di attenzione possono essere associati ad una scala di pericolo impostata mediante i suddetti algoritmi per l?utente, ad esempio, alla scala di pericolo pu? essere associata ad un veicolo 400 in avvicinamento all?utente. Giova rilevare, come chiarito nel seguito, che la classificazione ed i valori di riferimento di priorit? di attenzione facilitano la fase di labeling di tali target per migliorare ulteriormente la percezione dell?utente alla vista in caso ad esempio di scarsa visibilit?.
Il metodo 1 comprende la fase di mostrare 60 su un?interfaccia utente 500 associata all?utente l?uno o pi? target riconosciuti in funzione della percezione spaziale personale dell?utente e della sincronizzazione tra la percezione spaziale personale dell?utente e la percezione spaziale generale dell?ambiente. Nello specifico, la fase di mostrare 60 integra la vista dell?utente (percezione spaziale personale dell?utente) con i target riconosciuti e classificati. In questo modo, il metodo permette di integrare la vista naturale dell?utente con target riconosciuti e classificati visibili ed invisibili nella percezione spaziale personale dell?utente.
Nel dettaglio, la fase di mostrare 60 prevede di proiettare sull?interfaccia utente 500, preferibilmente un dispositivo di realt? aumentata, i target riconosciuti integrando la percezione spaziale personale dell?utente con ulteriori dettagli relativi all?ambiente. Giova rilevare che la fase di sincronizzare 40 permette di proiettare i target nella corretta posizione spaziale nell?ambiente tenendo conto della posizione e dello sguardo dell?utente.
In accordo con una forma di realizzazione preferita, la fase di mostrare prevede di proiettare indicazioni di labeling sull?interfaccia utente 500 in funzione dei target riconosciuti e dei valori di riferimento di priorit? di attenzione. Nello specifico, la fase di proiettare indicazioni di labeling prevede di evidenziare tramite colori o altre tecniche note i target rilevanti all?interno della percezione spaziale personale dell?utente. Ad esempio, la fase di proiettare indicazioni di labeling prevede di evidenziare target da verde a rosso a seconda del valore di priorit? di attenzione associato al target in funzione delle condizioni di guida. In questo modo, il metodo 1 permette oltre ad integrare la vista dell?utente ad allertare l?utente stesso.
Giova rilevare che la proiezione di target sull?interfaccia utente 500 e la loro evidenziazione permette di integrare con maggior dettaglio, sicurezza e confort la percezione personale dell?utente nonch? la vista dell?utente anche in caso di condizioni di scarsa visibilit?. Ad esempio, nel caso di presenza di nebbia, il metodo a seguito delle fasi precedentemente descritte potrebbe proiettare sull?interfaccia utente 500, oltre a ulteriori veicoli presenti sulla strada anche le linee della carreggiata in modo da facilitare la guida all?interno della nebbia.
In accordo con una forma di realizzazione preferita, il metodo 1 comprende una fase di confrontare 70 la percezione spaziale generale dell?utente con la percezione spaziale personale dell?utente. Nello specifico, il confronto prevede, mediante gli algoritmi residenti nelle unit? di elaborazione dati, di sovrapporre per ogni istante temporale di acquisizione la percezione spaziale personale dell?utente con la percezione spaziale generale dell?utente. In questo modo ? possibile determinare l?effettiva visione dell?utente.
Giova rilevare che tale confronto tiene conto della direzione di movimento dell?utente sul veicolo 400 e la direzione di osservazione dell?utente. Quest?ultima preferibilmente tiene ulteriormente conto della posizione della testa dell?utente e dello sguardo (sensori di tracciamento delle pupille).
A seguito, del confronto, la presente fase 70 prevede di determinare una percezione spaziale mancante da integrare alla percezione spaziale personale dell?utente per ottenere la percezione spaziale generale dell?utente. Nello specifico, la fase 70 prevede di calcolare la differenza di percezione spaziale tra quella che l?utente dovrebbe avere (percezione spaziale generale dell?utente) e quella effettiva che l?utente ha (percezione spaziale personale dell?utente). Successivamente, se identificata una differenza tra le percezioni superiore ad una percentuale compresa in un range variabile dipendente dalle condizioni di operativit?, la fase 70 prevede di determinare la percezione spaziale mancante corrispondente alla differenza tra la percezione spaziale generale e personale dell?utente per colmare tale differenza. Nel dettaglio, la percezione spaziale mancante comprende immagini prese dal flusso di immagini del set di dispositivi di acquisizione di immagine 100 in funzione del confronto tra le percezioni.
Preferibilmente, fase di mostrare 60 prevede di proiettare sull?interfaccia utente 500 la percezione spaziale mancante in funzione della percezione spaziale personale dell?utente. Nello specifico, la fase di mostrare 60 prevede di proiettare le immagini della percezione spaziale mancate sull?interfaccia utente 500.
In questo modo, ? possibile integrare la vista dell?utente in qualsiasi condizione di posizione dell?utente (direzione di osservazione) rispetto alla direzione di movimento nonch? in condizioni di scarsa visibilit? o in condizioni di distrazione da parte dell?utente.
Ad esempio, il metodo 1 permette di proiettare sull?interfaccia utente la percezione spaziale mancante seguendo l?angolazione tra la direzione di osservazione e la direzione di movimento integrando man mano la differenza tra la percezione spaziale personale e generale. Nel specifico, se l?utente inizia a ruotare la testa a destra o a sinistra la sua percezione spaziale personale sar? sempre pi? ridotta fino ad arrivare a non avere pi? la visione dell?ambiente lungo la direzione di movimento (ad esempio un angolo di circa 90 gradi tra la direzione di movimento e quella di osservazione, cio? l?utente che guarda sostanzialmente a destra o sinistra non vedr? l?ambiente nella direzione di movimento), in tal caso la percezione spaziale mancante proiettata aumenter? durante la rotazione della direzione di osservazione. Nel dettaglio, tale percezione spaziale mancate proiettata aumenter? fino a proiettare completamente la percezione spaziale generale dell?utente quando la direzione di osservazione ? orientata in modo tale da ridurre a zero la percezione spaziale personale dell?utente lungo la direzione di movimento. In altre parole, il metodo 1 permette di mantenere una visione completa dell?ambiente lungo la direzione di movimento indipendentemente dalla direzione di osservazione dell?utente nonch? dello sguardo dell?utente. Tale integrazione ? applicabile anche quando l?utente direziona la direzione di osservazione verso l?alto o verso il basso o in una loro combinazione con il movimento a destra o a sinistra tale per cui la percezione spaziale personale differisca dalla percezione spaziale personale dell?utente.
? ulteriore oggetto della presente invenzione un sistema di integrazione alla vista 1000 (figure 2 e 3) di un utente configurato per eseguire il metodo precedentemente descritto.
Il sistema 1000 comprende un veicolo 400 o un indumento associato all?utente e configurato per movimentare l?utente in un ambiente come precedentemente descritto.
Il sistema 1000 comprende il primo set di sensori 200 associato all?utente e configurato per determinare un primo set di dati relativi all?utente. Nello specifico, il primo set di sensori 200 comprende sensori per determinare la posizione dell?utente rispetto al veicolo 400 o all?indumento, sensori per il tracciamento delle pupille e dispositivi di acquisizione di immagini per acquisire flussi di immagini concordi con la posizione dell?utente nonch? alla direzione di osservazione dell?utente stesso.
Il sistema 1000 comprende il secondo set di sensori 300 montato esternamente al veicolo 400 o all?indumento e configurato per acquisire il secondo set di dati relativo all?ambiente attorno all?utente. Come anticipato, precedentemente, il secondo set di sensori 300 comprende dispositivi di acquisizione di immagini, sensori lidar, radar e ad ultrasuoni. Tale secondo set di sensori 300 ? configurato per consentire di ricostruire tridimensionalmente l?ambiente attorno all?utente in modo da consentire una corretta integrazione alla vista dell?utente in qualsiasi condizione di visibilit?.
Il sistema 1000 comprende il set di dispositivi di acquisizione di immagini 100 montati internamente al veicolo 400 e configurati per acquisire flussi di immagini e definire la direzione di movimento. Preferibilmente, il set di dispositivi di acquisizione di immagini 100 comprende telecamere per acquisire flussi di immagini concordi alla direzione di movimento del veicolo 400 o dell?indumento.
Giova rilevare che i suddetti set di sensori permettono anche di definire la percezione spaziale personale e generale dell?utente nonch? la percezione spaziale generale dell?utente.
Il sistema 1000 comprende un?interfaccia utente 500 in comunicazione di segnale con il primo set di sensori 200 e configurata per mostrare informazioni sull?ambiente all?utente. Tale interfaccia utente 500 ? anche in comunicazione con una prima ed una seconda unit? di elaborazione configurate, come chiarito nel seguito, per elaborare i dati acquisiti ed integrare la vista dell?utente. Nello specifico, l?interfaccia utente 500 pu? comprende un dispositivo di realt? aumentata indossabile (ad esempio occhiali di realit? aumentata) e/o un parabrezza di realt? aumentata per i veicoli o un casco per gli indumenti. L?interfaccia utente 500 ? configurata per proiettare redendo visibili all?utente informazioni sull?ambiente nonch? integrare la vista dell?utente stesso.
Preferibilmente, la prima unit? di elaborazione dati 600 in comunicazione di segnale con il primo set di sensori, il secondo set di sensori, il set di dispositivi di acquisizione di immagini 100 e l?interfaccia utente 500 ? configurato per sincronizzare la percezione spaziale personale dell?utente con il secondo set di dati. Nello specifico, la prima unit? di elaborazione dati 600 permette di integrare il secondo set di sensori 300 alla vista dell?utente.
Invece, la seconda unit? di elaborazione dati 700 in comunicazione di segnale con il secondo set di sensori 300 e l?interfaccia utente 500 ? configurata per riconoscere uno o pi? target nel secondo set di dati e mostrarli all?interfaccia utente 500 insieme alla percezione spaziale mancante.
Giova rilevare che la prima unit? di elaborazione dati 600 pu? essere disposta sul veicolo 400 (o sull?indumento) o in un luogo remoto rispetto al veicolo 400 (cloud) ma in comunicazione con lo stesso per eseguire i calcoli. La seconda unit? di elaborazione dati 700 invece ? montata sul veicolo 400 (o sull?indumento) mentre, come anticipato, i database per l?addestramento degli algoritmi, possono essere anch?essi memorizzati in cloud in relative unit? di archiviazione.
? ulteriore oggetto della presente invenzione un kit di integrazione alla vista di un utente montabile su un veicolo 400 e/o un indumento associato all?utente configurato per movimentare l?utente in un ambiente. Il kit in accordo con quanto precedentemente descritto comprende il primo set di sensori, il secondo set di sensori, il set di dispositivi di acquisizione di immagini 100, l?interfaccia utente 500, la prima e la seconda unit? di elaborazione dati 700. Giova rilevare che la prima unit? di elaborazione dati 600 pu? essere montabile sul veicolo 400 (o sull?indumento) o in un luogo remoto (cloud) e posta in comunicazione di segnale con il veicolo 400. Invece la seconda unit? di elaborazione dati 700 ? montabile sul veicolo 400 mentre i database per l?addestramento degli algoritmi possono essere memorizzati in cloud in comunicazione di segnale con la seconda unit? di elaborazione dati 700.

Claims (10)

RIVENDICAZIONI
1. Metodo di integrazione alla vista per un utente (1) realizzato mediante un sistema di integrazione alla vista (1000), il metodo (1) comprendente le fasi di:
- acquisire (10) mediante un set di dispositivi di acquisizione di immagini (100) flussi di immagini relativi all?ambiente per ogni istante temporale di acquisizione e definire mediante i flussi di immagini relativi all?ambiente:
- una direzione di movimento dell?utente nell?ambiente;
- una percezione spaziale generale dell?utente rispetto all?ambiente lungo la direzione di movimento;
- acquisire (20) mediante un primo set di sensori (200) associati all?utente per ogni istante temporale di acquisizione un primo set di dati relativi all?utente e definire:
- una direzione di osservazione dell?utente in funzione del primo set di dati per ogni istante temporale di acquisizione;
- una percezione spaziale personale dell?utente rispetto all?ambiente lungo la direzione di osservazione dell?utente in funzione del primo set di dati, della direzione di movimento guidatore e della percezione spaziale generale dell?utente;
- acquisire (30) mediante un secondo set di sensori (300) per ogni istante temporale di acquisizione un secondo set di dati relativo all?ambiente attorno all?utente e definire una percezione spaziale generale dell?ambiente da parte del secondo set di sensori; - sincronizzare (40) mediante un algoritmo di sincronizzazione residente in una prima unit? di elaborazione (600) dati la percezione spaziale personale dell?utente con la percezione spaziale generale dell?ambiente per ogni istante temporale di acquisizione; - riconoscere (50) dal secondo set di dati uno o pi? target presenti nell?ambiente per mezzo di un algoritmo di riconoscimento residente in una seconda unit? di elaborazione dati (700);
- mostrare (60) su un?interfaccia utente (500) associata all?utente l?uno o pi? target riconosciuti in funzione della percezione spaziale personale dell?utente e della sincronizzazione tra la percezione spaziale personale dell?utente e la percezione spaziale generale dell?ambiente.
2. Il metodo (1) in accordo con la rivendicazione 1 in cui la fase sincronizzare (40) prevede di rendere concorde la percezione personale dell?utente con la percezione spaziale generale dell?ambiente mediante l?impiego di trasformate.
3. Il metodo (1) in accordo con la rivendicazione 1 o 2, in cui la fase di riconoscere (50) uno o pi? target ? realizzata mediante l?impiego di algoritmi di machine learning e/o di deep learning addestrati per riconoscere target in movimento fissi e/o in movimento rispetto all?utente in funzione del secondo set di sensori.
4. Il metodo (1) in accordo con una qualunque delle rivendicazioni da 1 a 3, in cui la fase di riconoscere (50) comprende la fase di catalogare uno o pi? target riconosciuti secondo categorie predefinite associando a ciascun target valori di riferimento di priorit? di attenzione in funzione percezione spaziale personale dell?utente.
5. Il metodo (1) in accordo con la rivendicazione 4, in cui la fase di mostrare prevede di proiettare indicazioni di labeling sull?interfaccia utente (500) in funzione dei target riconosciuti e dei valori di riferimento di priorit? di attenzione.
6. Il metodo (1) in accordo con una qualunque delle rivendicazioni da 1 a 5, in cui il metodo comprende una fase di confrontare (70) la percezione spaziale generale dell?utente con la percezione spaziale personale dell?utente e determinare una percezione spaziale mancante da integrare alla percezione spaziale personale dell?utente per ottenere la percezione spaziale generale dell?utente.
7. Il metodo (1) in accordo con la rivendicazione 6, in cui la fase di mostrare prevede di proiettare sull?interfaccia utente (500) la percezione spaziale mancante in funzione della percezione spaziale personale dell?utente.
8. Il metodo (1) in accordo con una qualunque delle rivendicazioni da 1 a 7, in cui il metodo comprende una fase di verificare la sincronizzazione e il riconoscimento di target mediante impiego di filtri Kalman.
9. Sistema di integrazione alla vista di un utente (1000) configurato per eseguire il metodo in accordo con una qualunque delle rivendicazioni da 1 a 8, il sistema comprendendo:
- un veicolo (400) o un indumento associato all?utente configurato per movimentare l?utente in un ambiente;
- un primo set di sensori (200) associato all?utente e configurato per determinare un primo set di dati relativi all?utente,
- un secondo set di sensori (300) montato esternamente al veicolo (400) o all?indumento e configurato per acquisire un secondo set di dati relativo all?ambiente attorno all?utente;
- un set di dispositivi di acquisizione di immagini (100) montati internamente al veicolo (400) o all?indumento e configurati per acquisire flussi di immagini e definire la direzione di movimento;
- un?interfaccia utente (500) in comunicazione di segnale con il primo set di sensori (200) e configurata per mostrare informazioni sull?ambiente all?utente;
- una prima unit? di elaborazione dati (600) in comunicazione di segnale con il primo set di sensori, il secondo set di sensori, il set di dispositivi di acquisizione di immagini (100) e l?interfaccia utente (500) e configurato per sincronizzare la percezione spaziale personale dell?utente con il secondo set di dati;
- una seconda unit? di elaborazione dati (700) in comunicazione di segnale con il secondo set di sensori (300) e l?interfaccia utente (500) ? configurata per riconoscere uno o pi? target nel secondo set di dati e mostrarli all?interfaccia utente (500) insieme alla percezione spaziale mancante.
10. Kit di integrazione alla vista di un utente montabile su un veicolo e/o un indumento associato all?utente configurato per movimentare l?utente in un ambiente, il kit comprendendo:
- un primo set di sensori (200) associabile all?utente e configurato per determinare un primo set di dati relativi all?utente,
- un secondo set di sensori (300) montabile esternamente al veicolo (400) o all?indumento e configurato per acquisire un secondo set di dati relativo all?ambiente attorno all?utente;
- un set di dispositivi di acquisizione di immagini (100) associabili internamente al veicolo (400) o all?indumento e configurati per acquisire flussi di immagini e definire la direzione di movimento;
- un?interfaccia utente (500) indossabile dall?utente o montabili sul veicolo (400) o sull?indumento in comunicazione di segnale con il primo set di sensori (200) e configurata per mostrare informazioni sull?ambiente all?utente;
- una prima unit? di elaborazione dati (600) in comunicazione di segnale con il primo set di sensori, il secondo set di sensori, il di dispositivi di acquisizione di immagini (100) e l?interfaccia utente (500) e configurato per sincronizzare la percezione spaziale personale dell?utente con il secondo set di dati;
- una seconda unit? di elaborazione dati (700) in comunicazione di segnale con il secondo set di sensori (300) e l?interfaccia utente (500) per riconoscere uno o pi? target nel secondo set di dati e mostrarli all?interfaccia utente (500) insieme alla percezione spaziale mancante.
IT102021000020852A 2021-08-03 2021-08-03 Metodo di integrazione alla vista per un utente IT202100020852A1 (it)

Priority Applications (1)

Application Number Priority Date Filing Date Title
IT102021000020852A IT202100020852A1 (it) 2021-08-03 2021-08-03 Metodo di integrazione alla vista per un utente

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
IT102021000020852A IT202100020852A1 (it) 2021-08-03 2021-08-03 Metodo di integrazione alla vista per un utente

Publications (1)

Publication Number Publication Date
IT202100020852A1 true IT202100020852A1 (it) 2023-02-03

Family

ID=78649600

Family Applications (1)

Application Number Title Priority Date Filing Date
IT102021000020852A IT202100020852A1 (it) 2021-08-03 2021-08-03 Metodo di integrazione alla vista per un utente

Country Status (1)

Country Link
IT (1) IT202100020852A1 (it)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160082840A1 (en) * 2013-09-13 2016-03-24 Hitachi Maxell, Ltd. Information display system and information display device
DE102017200337A1 (de) * 2017-01-11 2018-07-12 Volkswagen Aktiengesellschaft Kraftfahrzeug
DE102018209192B3 (de) * 2018-05-17 2019-05-09 Continental Automotive Gmbh Verfahren und Vorrichtung zum Betreiben eines Kamera-Monitor-Systems für ein Kraftfahrzeug
DE102020004215A1 (de) * 2020-07-13 2020-11-19 Daimler Ag Verfahren zur Darstellung einer Verkehrssituation in einem Fahrzeug

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160082840A1 (en) * 2013-09-13 2016-03-24 Hitachi Maxell, Ltd. Information display system and information display device
DE102017200337A1 (de) * 2017-01-11 2018-07-12 Volkswagen Aktiengesellschaft Kraftfahrzeug
DE102018209192B3 (de) * 2018-05-17 2019-05-09 Continental Automotive Gmbh Verfahren und Vorrichtung zum Betreiben eines Kamera-Monitor-Systems für ein Kraftfahrzeug
DE102020004215A1 (de) * 2020-07-13 2020-11-19 Daimler Ag Verfahren zur Darstellung einer Verkehrssituation in einem Fahrzeug

Similar Documents

Publication Publication Date Title
US10717447B2 (en) Visual perception assistance system and visual-perception target object detection system
EP1961622B1 (en) Safety-travel assistance device
JP5783471B2 (ja) 画像合成装置
KR20190028667A (ko) 화상 생성 장치, 화상 생성 방법, 및 프로그램
JP3855439B2 (ja) 夜間運転視界支援装置
US9773179B2 (en) Vehicle operator monitoring system and method
CN108460734A (zh) 车辆驾驶员辅助模块进行图像呈现的系统和方法
US20080068186A1 (en) Method and system for detecting operator alertness
CN109791739A (zh) 晕车估计装置、晕车防止装置和晕车估计方法
CN106471556A (zh) 驾驶员的驾驶不能状态检测装置
CN109760689A (zh) 驾驶员监视系统
KR101628394B1 (ko) 운전자 시선 거리 추적 방법
CN110448316A (zh) 数据处理装置及方法、监测系统、唤醒系统以及记录介质
EP3164756A1 (de) Lokalisierung eines hmd im fahrzeug
US20200034603A1 (en) Facial recognition device
CN105793909B (zh) 用于借助车辆周围环境的通过摄像机采集的两个图像产生警告的方法和设备
CN106828326B (zh) 一种智能后视镜系统
Kondyli et al. Computer assisted analysis of drivers' body activity using a range camera
DE102020213102A1 (de) Einrichtung und system bezüglich eines intelligenten helms
JP6834578B2 (ja) 車両用健康診断装置
WO2019176492A1 (ja) 算出システム、情報処理装置、運転支援システム、指標算出方法、コンピュータプログラム、及び記憶媒体
CN113316805A (zh) 使用红外线和可见光监视人的方法和系统
CN113276821B (zh) 驾驶员状态推断装置
WO2019155914A1 (ja) データ処理装置、モニタリングシステム、覚醒システム、データ処理方法、データ処理プログラム、及び記憶媒体
CN113276822B (zh) 驾驶员状态推断装置