ITTO20090058A1 - Visualizzazione di uno spazio virtuale tridimensionale generato da un sistema elettronico di simulazione - Google Patents

Visualizzazione di uno spazio virtuale tridimensionale generato da un sistema elettronico di simulazione Download PDF

Info

Publication number
ITTO20090058A1
ITTO20090058A1 IT000058A ITTO20090058A ITTO20090058A1 IT TO20090058 A1 ITTO20090058 A1 IT TO20090058A1 IT 000058 A IT000058 A IT 000058A IT TO20090058 A ITTO20090058 A IT TO20090058A IT TO20090058 A1 ITTO20090058 A1 IT TO20090058A1
Authority
IT
Italy
Prior art keywords
point
pointer
displacement plane
axis
virtual camera
Prior art date
Application number
IT000058A
Other languages
English (en)
Inventor
Marco Barbina
Pierpaolo Rosin
Original Assignee
Galileo Avionica Spa
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Galileo Avionica Spa filed Critical Galileo Avionica Spa
Priority to ITTO2009A000058A priority Critical patent/IT1396752B1/it
Priority to EP10152181.3A priority patent/EP2214092B1/en
Priority to CA2691320A priority patent/CA2691320C/en
Priority to US12/696,625 priority patent/US8780105B2/en
Priority to IL203629A priority patent/IL203629A/en
Publication of ITTO20090058A1 publication Critical patent/ITTO20090058A1/it
Application granted granted Critical
Publication of IT1396752B1 publication Critical patent/IT1396752B1/it

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Alarm Systems (AREA)

Description

DESCRIZIONE
“VISUALIZZAZIONE DI UNO SPAZIO VIRTUALE TRIDIMENSIONALE GENERATO DA UN SISTEMA ELETTRONICO DI SIMULAZIONEâ€
La presente invenzione à ̈ relativa alla visualizzazione di uno spazio virtuale tridimensionale generato da un sistema elettronico di simulazione.
In particolare, la presente invenzione trova vantaggiosa ma non esclusiva applicazione nel campo della rappresentazione grafica virtuale di uno spazio tridimensionale rappresentante un ambiente reale generato da un sistema elettronico di simulazione, il quale à ̈ configurato in modo tale da simulare il controllo dello spostamento di veicoli, quali ad esempio veicoli terrestri, e/o veicoli navali, e/o velivoli, all’interno dello spazio virtuale tridimensionale stesso; cui la trattazione che segue farà esplicito riferimento senza per questo perdere in generalità.
Come à ̈ noto, nel settore della simulazione grafica 3D (a tre dimensioni) del controllo dello spostamento di veicoli all’interno di un ambiente reale rappresentato da uno spazio grafico virtuale tridimensionale, esiste l’esigenza di poter osservare e monitorare gli eventi e le situazioni che si svolgono all’interno dello spazio virtuale tridimensionale nel corso della simulazione.
A questo scopo, sono stati realizzati degli apparecchi elettronici di visualizzazione che interagiscono con un sistema elettronico di simulazione virtuale in modo tale da permettere ad un operatore di prendere visione, attraverso una telecamera virtuale, dello scenario in cui avviene la simulazione virtuale e di poter contestualmente comandare lo spostamento della telecamera virtuale stessa all’interno dello spazio virtuale tridimensionale, così da poter osservare, ad esempio, gli oggetti coinvolti nella simulazione da un qualsiasi punto presente all’interno allo spazio tridimensionale e/o secondo un qualsiasi angolo di visione.
Alcuni degli apparecchi di visualizzazione del tipo sopra descritto, indicati tipicamente con il termine “dispositivo Stealth View†o “Tatical Situation Display†, trovano applicazione, ad esempio, nei sistemi di simulazione di volo di velivoli impiegati per l’addestramento dei piloti.
In particolare, i suddetti apparecchi di visualizzazione comprendono tipicamente: un display ed un calcolatore elettronico configurato per interagire con il sistema elettronico di simulazione così da rappresentare attraverso il display lo scenario tridimensionale rappresentante il volo simulato del velivolo controllato dal pilota.
Gli apparecchi di visualizzazione comprendono inoltre un sistema di comando manuale, provvisto a sua volta di un mouse e una tastiera di comando, attraverso i quali un operatore à ̈ in grado di “navigare†all’interno dello scenario tridimensionale e contestualmente di movimentare la telecamera virtuale, in modo tale da poter visionare il velivolo e/o l’ambiente che circonda il velivolo stesso secondo una qualsiasi angolazione spaziale.
È noto inoltre che nel corso della suddetta simulazione l’operatore, corrispondente tipicamente ad un istruttore di volo, deve necessariamente controllare, attraverso il suddetto sistema di comando manuale, la navigazione nell’ambiente virtuale tridimensionale in modo tale da poter osservare e controllare, istante per istante, la correttezza delle operazioni di comando impartite al velivolo dal pilota.
Nei sistemi sopra descritti esiste l’esigenza da parte dell’istruttore di poter comandare manualmente con una certa rapidità la propria navigazione nello spazio tridimensionale così da “inseguire†agevolmente il velivolo lungo la relativa traiettoria mantenendo la telecamera virtuale “puntata†costantemente su alcune parti del velivolo, quali ad esempio la parte anteriore o la parte posteriore, indipendentemente dallo spostamento del velivolo stesso.
In altri termini, à ̈ necessario che l’istruttore sia in grado di impartire in modo estremamente semplice, rapido ed intuitivo dei comandi per traslare la telecamera virtuale in modo tale da inseguire il velivolo e contestualmente dei comandi di rotazione della stessa nello spazio in modo tale da mantenere il puntamento di quest’ultima su alcune parti prestabilite del velivolo stesso.
A questo scopo numerosi sono stati gli sforzi da parte delle aziende produttrici di sistemi di simulazione di volo per sviluppare dei sistemi di visualizzazione provvisti di sistemi di comando strutturati per semplificare e rendere estremamente rapida ed intuitiva all’operatore l’esecuzione di comandi manuali per il controllo della traslazione e della rotazione della telecamera virtuale nello spazio tridimensionale di simulazione, ma numerosi ne rimangono ancora da fare.
Scopo della presente à ̈ pertanto quello di realizzare un sistema che consenta ad un operatore di comandare in modo semplice, rapido ed intuitivo lo spostamento della telecamera virtuale nello spazio tridimensionale rappresentante un ambiente di simulazione.
Secondo la presente invenzione viene realizzato un sistema elettronico di visualizzazione di uno scenario di simulazione tridimensionale, come licitato nella rivendicazione 1 e preferibilmente, ma non necessariamente, in una qualsiasi delle rivendicazioni dipendenti direttamente o indirettamente dalla rivendicazione 1.
Secondo la presente invenzione viene inoltre fornito un metodo di visualizzazione di uno scenario di simulazione tridimensionale, implementabile da un calcolatore secondo quanto licitato nella rivendicazione 18 e preferibilmente, ma non necessariamente, in una qualsiasi delle rivendicazioni dipendenti direttamente o indirettamente dalla rivendicazione 18.
Secondo la presente invenzione viene inoltre realizzato un dispositivo elettronico di visualizzazione di uno scenario di simulazione tridimensionale, come licitato nella rivendicazione 30.
Secondo la presente invenzione viene infine realizzato un prodotto informatico caricabile nella memoria di un calcolatore elettronico, come licitato nella rivendicazione 31.
La presente invenzione verrà ora descritta con riferimento ai disegni annessi, che ne illustrano un esempio di attuazione non limitativo, in cui:
- la figura 1 mostra schematicamente un sistema elettronico di visualizzazione di uno scenario di simulazione tridimensionale, realizzato secondo i dettami della presente invenzione;
- le figure 2 e 3 mostrano schematicamente un esempio di scenario di simulazione tridimensionale generato dal sistema mostrato in figura 1;
- le figure 4 e 5 mostrano altrettanti esempi della posizione dell’asse di puntamento della telecamera virtuale impiegata dal sistema rispetto ad un piano di spostamento;
- la figura 6 mostra schematicamente una possibile forma realizzativa del sistema mostrato in figura 1;
- la figura 7 mostra schematicamente un esempio del movimento di roto-traslazione dell’asse di puntamento della telecamera virtuale, in risposta ad una traslazione del puntatore sul piano di spostamento;
- la figura 8 Ã ̈ un diagramma di flusso delle operazioni eseguite dal metodo implementato dal sistema mostrato in figura 1;
- le figure 9 e 10 mostrano altrettanti esempi del movimento di roto-traslazione dell’asse di puntamento della telecamera virtuale sul piano di spostamento in risposta ad una traslazione del puntatore sul piano di spostamento stesso;
- la figura 11 mostra un’area di comando visualizzabile dal sistema mostrato in figura 1; mentre
- le figure 12, 13 e 14 mostrano altrettanti esempi della movimentazione della telecamera in funzione del posizionamento del puntatore nell’area di comando mostrata in figura 11.
Con riferimento alla figura 1, con il numero 1 à ̈ indicato nel suo complesso un sistema elettronico di visualizzazione configurato in modo tale da permettere ad un utente di “navigare†all’interno di uno spazio virtuale tridimensionale, rappresentante graficamente un ambiente o uno scenario di simulazione, così da poter osservare eventi e/o situazioni che si manifestano all’interno dello spazio virtuale tridimensionale stesso nel corso della simulazione.
Nell’esempio mostrato nella figura 1, il sistema elettronico di visualizzazione 1 comprende un sistema elettronico di simulazione 2 configurato per implementare un algoritmo generante uno “scenario di simulazione tridimensionale†indicato in seguito con il numero 3.
Ad esempio nella figura 2 à ̈ rappresentato uno scenario di simulazione tridimensionale 3, il quale à ̈ generato dall’algoritmo e comprende: un sistema di riferimento principale definito da tre assi ortogonali XA, YA, ZA; uno spazio grafico virtuale tridimensionale 4 prestabilito disposto secondo il sistema di riferimento principale ed associato ad un ambiente terrestre reale; preferibilmente, ma non necessariamente, uno o più veicoli 5 (uno solo dei quali mostrato nelle figure allegate) rappresentati in un formato grafico tridimensionale e mobili all’interno dello spazio grafico virtuale tridimensionale 4 sulla base di un programma di simulazione e/o di comandi di spostamento prestabiliti, e/o sulla base di comandi di spostamento impartiti da un utente al sistema elettronico di simulazione 2 attraverso una apposita interfaccia di comando (non illustrata). I veicoli 5 mobili impiegati nella simulazione possono corrispondere a veicoli terrestri di qualsiasi tipo, e/o veicoli navali, e/o velivoli, cui la trattazione che segue farà esplicito riferimento senza per questo perdere in generalità.
L’algoritmo di simulazione non rappresenta l’oggetto della presente invenzione e di conseguenza non verrà ulteriormente descritto.
Con riferimento alle figure 1, 2 e 3 il sistema elettronico di visualizzazione 1 comprende essenzialmente una interfaccia grafica provvista di almeno un display 6 atto a visualizzare lo scenario di simulazione tridimensionale 3 generato dal sistema elettronico di simulazione 2, una telecamera virtuale 7 disposta su un piano immaginario di spostamento 8 collocato all’interno dello scenario virtuale tridimensionale 3 (mostrato in figura 2), ed un puntatore 9 disposto sul piano di spostamento 8 stesso.
Il sistema elettronico di visualizzazione 1 comprende, inoltre, un sistema di comando 10 configurato per spostare il puntatore 9 sul piano immaginario di spostamento 8 in risposta di un’azione manuale dell’utente, ed una unità di elaborazione 11 configurata per comandare una rototraslazione della telecamera virtuale 7 sul piano immaginario di spostamento 8, in risposta ad una traslazione del puntatore 9 sul piano immaginario di spostamento 8 stesso.
In dettaglio, con riferimento alle figure 2 e 3, il piano immaginario di spostamento 8 à ̈ rappresentato tramite un piano cartesiano definito da due assi ortogonali X1e Y1ed orientabile a comando all’interno dello spazio grafico virtuale tridimensionale 4, mentre la telecamera virtuale 7 à ̈ rappresentata tramite un punto Pt(X1t,Y1t) indicante la posizione della stessa sul piano immaginario di spostamento 8.
In particolare, la telecamera virtuale 8 comprende un obiettivo virtuale avente un asse di puntamento 13 centrato sul punto Pt(X1t,Y1t), ed à ̈ configurata per ruotare con il proprio asse di puntamento 13 attorno ad un asse di rotazione 12, il quale à ̈ disposto ortogonale al piano immaginario di spostamento 8 ed interseca il punto Pt(X1t,Y1t).
Nella fattispecie, l’asse di puntamento 13 della telecamera virtuale 7 può giacere sul piano immaginario di spostamento 8 e ruotare quindi assieme alla telecamera virtuale 8 attorno all’asse di rotazione 12 mantenendosi sul piano immaginario di spostamento 8 secondo quanto mostrato nell’esempio di figura 4, oppure può essere inclinato di un angolo Î ̧ prestabilito rispetto al piano immaginario di spostamento 8 e ruotare, assieme alla telecamera virtuale 8, attorno all’asse di rotazione 12 mantenendo nel corso della rotazione la propria inclinazione Î ̧.
Con riferimento alle figure 2 e 3, la telecamera virtuale 7 à ̈ configurata in modo tale da acquisire delle immagini relative allo scenario di simulazione tridimensionale 3 attraverso una finestra virtuale di osservazione 14, la quale à ̈ disposta ortogonale all’asse di puntamento 13 in modo tale da essere vincolata a quest’ultimo così da essere sottoposta al medesimo movimento di roto-traslazione della telecamera virtuale 7.
Con riferimento alle figure 1, 2, e 3, il puntatore 9 à ̈ invece posizionato sul piano immaginario di spostamento 8 in un punto Pc(X1c,Y1c), il quale à ̈ disposto a sua volta ad una distanza Di dal punto Pt(X1t,Y1t), ossia dalla telecamera virtuale 7.
L’unità di elaborazione 11 à ̈ configurata in modo tale da traslare l’asse di rotazione 12 mantenendolo parallelo a se stesso sul piano immaginario di spostamento 8 e provvede contestualmente a ruotare l’asse di puntamento 13 attorno all’asse di rotazione 12 in risposta ad una traslazione del puntatore 9 sul piano immaginario di spostamento 8 stesso.
Per semplicità descrittiva, nella figura 3, l’asse di puntamento 13 giace sul piano immaginario di spostamento 8 e forma un angolo α di azimuth con una retta RT1 passante per il punto Pt(X1t,Y1t) ed un punto di riferimento PN1 fisso appartenente al sistema di riferimento dello spazio grafico virtuale tridimensionale 4 ed associato preferibilmente, ma non necessariamente, al NORD geografico del sistema di riferimento terra; mentre l’asse di puntamento 13 forma un angolo β con una retta RT2 passante per i punti Pt(X1t,Y1t) e Pc(X1c,Y1c).
Come verrà descritto dettagliatamente in seguito l’unità di elaborazione 11 à ̈ configurata per implementare un algoritmo di roto-traslazione dell’asse di puntamento 13 che prevede di determinare, istante per istante, lo spostamento da impartire al punto Pt(X1t,Y1t) e la variazione dell’angolo α in funzione della traslazione del punto Pc(X1c,Y1c) associato al puntatore 9 sul piano di spostamento 8.
Con riferimento alla figura 1, il sistema di comando 10 può comprendere un dispositivo manuale di puntamento 15 atto a generare un segnale di comando SC in risposta ad un movimento manuale da parte dell’utente; ed un modulo elettronico di controllo 16 che riceve il segnale di comando SC ed à ̈ in grado di spostare il puntatore 9 sul piano immaginario di spostamento 8 in funzione del segnale di comando SC, ossia in risposta del movimento manuale da parte dell’utente.
In particolare, il dispositivo manuale di puntamento 15 può corrispondere ad un qualsiasi dispositivo in grado di permettere ad un utente di controllare manualmente la posizione del puntatore 9 sul piano immaginario di spostamento 8 e può comprendere ad esempio un mouse, o un joystick, con rilevamento di moto 2D (a due dimensioni) o una manopola per gioco ("game pads"), trackballs, o un qualsiasi altro dispositivo di puntamento su uno schermo similare.
Nell’esempio mostrato in figura 1, il display 6 à ̈ uno schermo touch screen, il quale, oltre a svolgere le funzioni di visualizzazione sopra descritte à ̈ configurato per svolgere la funzione di un dispositivo manuale di puntamento 15, ossia genera il segnale di comando SC in funzione del rilevamento di un contatto tattile di un operatore sulla propria superficie di visualizzazione esterna. Nella fattispecie il contatto tattile dell’operatore sul display 6 à ̈ rappresentato in figura 1 attraverso il punto Pc(X1c,Y1c) che coincide appunto con il puntatore 9.
Nell’esempio mostrato in figura 1, il sistema 1 comprende inoltre uno schermo 19, il quale à ̈ in grado di visualizzare le immagini acquisite dalla telecamera virtuale 7 attraverso la finestra virtuale di osservazione 14.
Secondo una possibile forma realizzativa mostrata in figura 6, il sistema 1 Ã ̈ privo dello schermo 19 e le immagini acquisite dalla telecamera virtuale 7 attraverso la finestra virtuale di osservazione 14 sono mostrate in una porzione di visualizzazione 6a del display 6.
Nella figura 7 à ̈ mostrato un diagramma di flusso contenente le operazioni dell’algoritmo di roto-traslazione della telecamera virtuale 7 implementato dall’unità di elaborazione 5. L’algoritmo prevede di determinare la traslazione da impartire all’asse di rotazione 12 sul piano immaginario di spostamento 8 e contestualmente calcola la rotazione da impartire all’asse di puntamento 13 attorno all’asse di rotazione 12 in risposta della traslazione del puntatore 9 sul piano immaginario di spostamento 8.
In particolare con riferimento alle figure 7 e 8, l’algoritmo di roto-traslazione prevede di determinare, ad ogni traslazione manuale del puntatore 9, lo spostamento del punto Pc(X1c(t),Y1(t)) sul piano immaginario di spostamento 8 in due istanti successivi tie rispettivamente ti+1, così da determinare la variazione dell’angolo α di azimuth dell’asse di puntamento 13 e lo spostamento del punto Pt.
In particolare ad un istante iniziale ti=0 l’algoritmo di roto-traslazione calcola la distanza iniziale Di tra il punto Pc(X1c(ti),Y1c(ti)) ed il punto Pt(X1t(ti),Y1t(ti)), determina la retta RT1(ti) passante per i punti Pc(X1c(ti),Y1c(ti)) e Pt(X1t(ti),Y1t(ti)), e calcola l’angolo β associato all’asse di puntamento 13 (blocco 100).
Quando tra due istanti successivi tie ti+1si verifica uno spostamento del puntatore 9 sul piano immaginario di spostamento 8, l’algoritmo di roto-traslazione determina un corrispondente spostamento del punto Pc(X1c(ti+1),Y1c(ti+1)) (blocco 110).
A questo punto l’algoritmo di roto-traslazione calcola la nuova posizione del punto Pt(X1t(ti+1),Y1t(ti+1)), ossia la nuova posizione della telecamera virtuale 8 e del suo asse di rotazione 12, nello scenario di simulazione tridimensionale 4.
Tale calcolo prevede di individuare sul piano immaginario di spostamento 8, il punto Pt(X1t(ti+1),Y1t(ti+1)) che soddisfa una prima ed una seconda condizione, in cui la prima condizione à ̈ soddisfatta quando il punto Pt(X1t(ti+1),Y1t(ti+1)) à ̈ ad una distanza dal punto Pc(X1c(ti+1),Y1c(ti+1)) pari alla distanza iniziale Di; mentre la seconda condizione à ̈ soddisfatta quando il punto Pt(X1t(ti+1),Y1t(ti+1)) giace sulla retta RT1(ti) calcolata all’istante tiprecedente (blocco 120).
Una volta determinata la posizione del punto Pt(X1t(ti+1),Y1t(ti+1)), l’algoritmo di roto-traslazione provvede a determinare la retta RT2(ti+1) passante per i punti Pc(X1c(ti+1),Y1c(ti+1)), e Pt(X1t(ti+1),Y1t(ti+1)), e determina il nuovo angolo di azimuth α(ti+1) dell’asse di puntamento in modo tale che l’angolo β(ti+1) dell’asse di puntamento 13 rimanga costante, ossia pari all’angolo β(ti) calcolato all’istante tiprecedente (Blocco 130).
A questo punto l’algoritmo di roto-traslazione comanda la roto-traslazione dell’asse di puntamento 13 in funzione del punto Pt(X1t(ti+1),Y1t(ti+1)) e dell’angolo di azimuth α(ti+1). Nel corso della rotazione dell’asse di puntamento 13, la telecamera 7 provvede ad acquisire le immagini nello scenario di simulazione 3, le quali vengono visualizzate dal sistema 1 attraverso lo schermo 18. Se a questo punto lo spostamento del puntatore 9 si ripete, vengono implementate nuovamente le operazioni dei blocchi 110-130 sopra descritti.
Il controllo della roto-traslazione dell’asse di puntamento 13 determina una conseguente roto-traslazione della finestra virtuale di osservazione 14 della telecamera virtuale 7 all’interno dello scenario virtuale tridimensionale 3, che consente convenientemente ad un operatore di inseguire lo spostamento di un velivolo 5 e di mantenere l’osservazione su una porzione prestabilita del velivolo 5 stesso attraverso una semplice traslazione del puntatore 9 sul piano immaginario di spostamento 8 visualizzato dal display 6.
Nelle figure 9 e 10 sono mostrati due esempi di roto-traslazione dell’asse di puntamento 13 della telecamera virtuale 7 sul piano immaginario di spostamento 8 nel corso dello spostamento del puntatore 9 lungo una traiettoria T.
Nella fattispecie nell’esempio mostrato in figura 9, nel corso del trascinamento del puntatore 9 sul piano immaginario di spostamento 8, la finestra di osservazione virtuale 14 rimane costantemente puntata su una porzione laterale del velivolo 5; mentre nella figura 10, nel corso del trascinamento, ossia dello spostamento del puntatore 9 sul piano immaginario di osservazione 8, la finestra di osservazione virtuale 14 rimane costantemente puntata sulla porzione anteriore del velivolo 5.
Con riferimento alla figura 11, l’unità di elaborazione 11 può essere configurata per visualizzare sul display 6 un’area di comando 20, la quale à ̈ suddivisa in tre porzioni di comando 21, 22 e 23, in cui ciascuna porzione di comando 21, 22 e 23 à ̈ associata ad una corrispondente una funzione di controllo della movimentazione dell’asse di puntamento 13 della telecamera virtuale 7.
In particolare, l’unità di elaborazione 11 à ̈ configurata in modo tale da attivare una funzione di controllo della movimentazione dell’asse di puntamento 13 della telecamera virtuale 7 sulla base della posizione del puntatore 9 all’interno della porzione di comando 21, 22 e 23.
Nell’esempio mostrato in figura 11, l’area di comando 20 à ̈ suddivisa in una porzione di comando 21 definita dal punto Pt; in una porzione di comando 22 comprendente una corona circolare centrata nel punto Pt; ed in una porzione di comando 23, la quale comprende una corona circolare posizionata all’esterno della porzione di comando 22 ed à ̈ centrata nel punto Pt.
In dettaglio, il posizionamento del puntatore 9 al disopra del punto Pt e l’attivazione di un comando di selezione della porzione di comando 21 determina la selezione di una funzione di traslazione dell’asse di puntamento 12 sul piano di spostamento 8 da parte del dispositivo di elaborazione 11. In particolare, come mostrato in figura 12, in seguito alla selezione della funzione di traslazione e nel corso dello spostamento del puntatore 9, l’unità di elaborazione 11 provvede a traslare l’asse di puntamento 13 sul piano di spostamento 8 in modo tale da mantenere costante l’angolo di azimuth α e la distanza iniziale Di tra il punto Pc ed il punto Pt.
Se invece si verifica il posizionamento del puntatore all’esterno del punto Pt ma all’interno della porzione di comando 22, il dispositivo di elaborazione 11 rileva il comando di selezione di una funzione di rotazione dell’asse di puntamento 13 sul piano di spostamento 8.
In particolare, come mostrato in figura 13, in seguito alla selezione della funzione di rotazione e nel corso dello spostamento del puntatore 9 di comando, l’unità di elaborazione 5 provvede a ruotare l’asse di puntamento 13 sul piano di spostamento 8 in modo tale da variare l’angolo di azimuth α mantenendo contestualmente fisso il punto Pt.
Se infine si verifica il posizionamento del puntatore all’interno del settore di comando 23, l’unità di elaborazione 11 rileva la selezione della funzione di rototraslazione dell’asse di puntamento 13 sul piano di spostamento 8 attorno all’asse di rotazione 12. In particolare, come mostrato in figura 14, in seguito ad un comando di conferma della selezione della funzione di rototraslazione, l’unità di elaborazione 11 provvede a ruotare l’asse di puntamento 13 e contestualmente trasla l’asse di puntamento 13 stesso sul piano di spostamento 8 sulla base della traslazione del puntatore 9 sopra descritta.
Da quanto sopra descritto à ̈ opportuno precisare che il sistema elettronico di visualizzazione sopra descritto può trovare vantaggiosamente applicazione come dispositivo Stealth View o Tatical Situation Display, impiegabile quindi in un sistema di simulazione di volo di velivoli impiegati per l’addestramento dei piloti.
Il sistema elettronico di visualizzazione sopra descritto presenta i seguenti vantaggi: in primo luogo il sistema consente ad un operatore, quale ad esempio un istruttore di volo, di impartire alla telecamera virtuale 7 una roto-traslazione attraverso una semplice ed unica operazione di traslazione del puntatore sul display. Tale condizione consente infatti all’istruttore di occuparsi solamente dello spostamento del mouse o del contatto sulla superficie touch-sensitive per inseguire il velivolo da osservare, mentre l’operazione di visualizzazione di una porzione del velivolo stesso viene eseguita automaticamente dal sistema senza richiedere all’istruttore alcun comando manuale aggiuntivo alla traslazione del puntatore.
Come mostrato in figura 10, l’istruttore può vantaggiosamente mantenere la visione della porzione anteriore del velivolo lungo la traiettoria dello stesso semplicemente traslando il puntatore sulla traiettoria stessa.
In aggiunta la presenza dell’area di comando à ̈ estremamente vantaggiosa in quanto consente all’operatore di selezionare in modo semplice, rapido ed intuitivo una delle tre diverse funzioni di movimentazione della telecamera virtuale.
Risulta infine chiaro che al sistema sopra descritto possono essere apportate modifiche e varianti senza per questo uscire dall’ambito della presente invenzione definito dalle rivendicazioni allegate.

Claims (31)

  1. R I V E N D I C A Z I O N I 1. Sistema elettronico (1) configurato in modo tale da visualizzare uno scenario di simulazione tridimensionale (3); detto sistema elettronico (1) comprendendo: - mezzi elettronici di calcolo (2) configurati in modo da generare uno scenario di simulazione tridimensionale (3); - mezzi di visualizzazione (6) adatti a visualizzare detto scenario di simulazione tridimensionale (3); - una telecamera virtuale (7) disposta in un piano di spostamento (8) posizionato a sua volta all’interno del detto scenario di simulazione tridimensionale (3); - un puntatore (9) disposto nel detto piano di spostamento (8); - mezzi di comando (10) configurati in modo tale da spostare detto puntatore (9) su detto piano di spostamento (8) in risposta di un’azione manuale di un utente; detto sistema essendo caratterizzato dal fatto di comprendere mezzi di elaborazione (11) configurati in modo tale da comandare una roto-traslazione della detta telecamera virtuale (7) sul detto piano di spostamento (8) in risposta ad una traslazione del puntatore (9) sul piano di spostamento (8) stesso.
  2. 2. Sistema secondo la rivendicazione 1, in cui detta telecamera virtuale (7) presenta un asse di puntamento (13), il quale à ̈ disposto passante per un primo punto (Pt) giacente sul detto piano di spostamento (8), ed à ̈ ed atto a ruotare attorno ad un asse di rotazione (12) prestabilito, che passa, a sua volta, per il detto primo punto (Pt) ed à ̈ disposto ortogonale al piano di spostamento (8) stesso; detti mezzi di elaborazione (11) essendo configurati in modo tale da traslare il detto asse rotazione (12), mantenendolo parallelo a se stesso, sul detto piano di spostamento (8) e, contestualmente ruotare detto asse di puntamento (13) della detta telecamera virtuale (7) attorno al detto asse di rotazione (12) in risposta ad una traslazione di detto puntatore (9) sul detto piano di spostamento (8).
  3. 3. Sistema elettronico secondo la rivendicazione 2, in cui detta telecamera virtuale (7) à ̈ atta ad acquisire immagini attraverso una finestra di osservazione virtuale (14) disposta ortogonale al detto asse di puntamento (13); detta finestra di osservazione virtuale (14) essendo vincolata stabilmente al detto asse di puntamento (13) in modo tale da ruotare attorno al detto asse di rotazione (12) assieme all’asse di puntamento (13) stesso in funzione della traslazione di detto puntatore (9) sul detto sul detto piano di spostamento (8).
  4. 4. Sistema elettronico secondo una qualsiasi delle rivendicazioni precedenti, in cui detti mezzi di comando (10) sono configurati per permettere ad un utente di posizionare il detto puntatore (9) su un secondo punto (Pc) del detto piano di spostamento ad una distanza iniziale (Di) prestabilita dal detto primo punto (Pt), detti mezzi di elaborazione (11) essendo configurati per ruotare detto asse di puntamento (13) in modo tale da mantenere costante una distanza iniziale (Di) tra detto primo punto (Pt) e detto secondo punto (Pc).
  5. 5. Sistema elettronico secondo la rivendicazione 4, in cui detti mezzi di elaborazione (11) sono configurati in modo tale da ruotare detto asse di puntamento (13) in modo tale da mantenere costante l’angolo (β) presente tra l’asse di puntamento (13) della telecamera virtuale (8) ed una retta (RT1) giacente sul detto piano di spostamento (8) e passante per detti primo (Pt) e secondo punto (Pc).
  6. 6. Sistema elettronico secondo la rivendicazione 5, in cui in un primo istante temporale di calcolo (ti) detti mezzi di elaborazione (11) determinano una prima retta (RT1) giacente sul detto piano di spostamento (8) e passante per detti primo (Pt(X1t(ti),Y1t(ti))) e secondo punto (Pc(X1c(ti),Y1c(ti))); ed in cui nel corso di una traslazione del detto puntatore (9) tra una prima posizione (Pc(X1c(ti),Y1c(ti))), assunta nel primo istante temporale (ti), ed una seconda posizione (Pc(X1c(ti+1),Y1c(ti+1))), assunta in un secondo istante temporale (ti+1), detti mezzi di elaborazione (11) determinano una seconda retta (RT2), che giace su detto piano di spostamento (8), passa per il detto secondo punto (Pc(X1c(ti+1),Y1c(ti+1))) nella seconda posizione, ed interseca la detta prima retta (RT1) in un punto di intersezione avente detta distanza iniziale (Di) rispetto al detto primo punto (Pt(X1t(ti),Y1t(ti))) nella prima posizione; detti mezzi di elaborazione (11) essendo configurati in modo tale da assegnare al detto primo punto (Pt(X1t(ti+1),Y1t(ti+1))) nel detto secondo istante (ti+1) la posizione di detto punto di intersezione ed essendo in grado di spostare detta telecamera virtuale (7) nel punto di intersezione stesso.
  7. 7. Sistema elettronico secondo una qualsiasi delle rivendicazioni precedenti, in cui detti mezzi di visualizzazione (6) sono atti a visualizzare un’area di comando (20) la quale à ̈ suddivisa in tre distinte porzioni di comando (21),(22) e (23), in cui ciascuna porzione di comando (21),(22) e (23) à ̈ associata ad una rispettiva funzione di controllo della traslazione e/o rotazione della detta telecamera virtuale (7).
  8. 8. Sistema elettronico secondo la rivendicazione 7, in cui detti mezzi di elaborazione (11) sono configurati in modo da attivare una funzione di controllo della movimentazione dell’asse di puntamento (13) della detta telecamera virtuale (7) sulla base della posizione del puntatore (9) all’interno di dette porzioni di comando (21),(22) e (23).
  9. 9. Sistema secondo la rivendicazione 8, in cui detta area di comando (20) Ã ̈ suddivisa in: una prima porzione di comando (21) corrispondente al detto primo punto (Pt); una seconda porzione di comando (22) comprendente una corona circolare centrata nel detto primo punto (Pt); ed una terza porzione di comando (23) comprendente una corona circolare esterna alla detta seconda porzione di comando (22) e centrata nel detto primo punto (Pt).
  10. 10. Sistema secondo la rivendicazione 9, in cui detti mezzi di elaborazione (11) sono configurati in modo tale da selezionare una funzione di traslazione del detto asse di puntamento (13) sul piano di spostamento (8) in risposta ad un posizionamento del detto puntatore (9) in detta prima porzione di comando (21).
  11. 11. Sistema secondo le rivendicazioni 9 o 10, in cui detti mezzi di elaborazione (11) sono configurati per selezionare una funzione di rotazione del detto asse di puntamento (13) sul detto piano di spostamento (8) attorno al detto asse di rotazione (12) in risposta ad un posizionamento, selezione e spostamento del detto puntatore (9) all’interno della detta seconda porzione di comando (22).
  12. 12. Sistema secondo una qualsiasi delle rivendicazioni 9, 10 o 11, in cui detti mezzi di elaborazione (11) sono configurati in modo tale da traslare detto asse di puntamento (13) sul detto piano di spostamento (8) e per ruotare contestualmente detto asse di puntamento (13) attorno al detto asse di rotazione (13) in risposta ad un posizionamento del detto puntatore (9) all’interno della detta terza porzione di comando (23).
  13. 13. Sistema secondo una qualsiasi delle rivendicazioni precedenti, in cui detti mezzi di comando (10) comprendono un dispositivo di puntamento (15) atto a generare un segnale di comando (SC) in risposta ad uno spostamento manuale da parte dell’utente; detti mezzi di elaborazione (11) essendo configurati per spostare detto puntatore (9) su detto piano di spostamento (8) sulla base del detto segnale di comando (SC).
  14. 14. Sistema secondo la rivendicazione 13, in cui detto dispositivo di puntamento (15) comprende un mouse, e/o un joystick, e/o trackballs.
  15. 15. Sistema secondo una qualsiasi delle rivendicazioni 13 o 14, in cui detto dispositivo di puntamento (15) comprende uno schermo provvisto di una superficie touchsensitive, ed un modulo elettronico di rilevamento del contatto tattile (16) in grado di generare detto segnale di comando (SC) in funzione della posizione di un contatto tattile di un utente sulla detta superficie touchsensitive.
  16. 16. Sistema secondo la rivendicazione 15, in cui detti mezzi di visualizzazione (16) comprendono detta superficie touch-sensitive.
  17. 17. Sistema secondo una qualsiasi delle rivendicazioni precedenti, in cui detti mezzi di elaborazione (11) sono configurati per visualizzare, istante per istante, attraverso detti mezzi di visualizzazione (6) le immagini acquisite attraverso detta finestra di osservazione virtuale (14) dalla detta telecamera virtuale (7).
  18. 18. Metodo implementabile tramite un calcolatore elettronico per visualizzare uno scenario di simulazione tridimensionale (3) comprendente le fasi di: a) generare uno scenario di simulazione tridimensionale (3); b) visualizzare detto scenario di simulazione tridimensionale (3) ad un utente, attraverso mezzi di visualizzazione (6); c) predisporre una telecamera virtuale (7) in un piano di spostamento (8) posizionato a sua volta all’interno del detto scenario di simulazione tridimensionale (3); d) predisporre un puntatore (9) nel detto piano di spostamento (8); e) spostare detto puntatore (9) su detto piano di spostamento (8) in risposta di un’azione manuale del detto utente; detto metodo essendo caratterizzato dal fatto di comprendere la fase di comandare una roto-traslazione della detta telecamera virtuale (7) sul detto piano di spostamento (8) in risposta ad una traslazione del detto puntatore (9) sul piano di spostamento (8) stesso.
  19. 19. Metodo secondo la rivendicazione 18, in cui detta telecamera virtuale (7) presenta un asse di puntamento (13), il quale à ̈ disposto passante per un primo punto (Pt) giacente sul detto piano di spostamento (8), ed à ̈ ed atto a ruotare attorno ad un asse di rotazione (12) prestabilito, che passa, a sua volta, per il detto primo punto (Pt) ed à ̈ disposto ortogonale al piano di spostamento stesso (8); detto metodo comprendendo la fase di traslare il detto asse rotazione (12) mantenendolo parallelo a se stesso sul detto piano di spostamento (8) e contestualmente ruotare detto asse di puntamento (13) della detta telecamera virtuale (7) attorno al detto asse di rotazione (12) in risposta ad una traslazione di detto puntatore (9) sul piano di spostamento (8) stesso.
  20. 20. Metodo secondo la rivendicazione 19, in cui detta telecamera virtuale (7) à ̈ atta ad acquisire immagini attraverso una finestra di osservazione virtuale (14) disposta ortogonale al detto asse di puntamento (13); detta finestra di osservazione virtuale (14) essendo vincolata stabilmente al detto asse di puntamento (13) in modo tale da ruotare attorno al detto asse di rotazione (12) assieme all’asse di puntamento (13) stesso in funzione della traslazione di detto puntatore (9) sul detto piano di spostamento (8).
  21. 21. Metodo secondo una qualsiasi delle rivendicazioni da 18 a 20, comprendente le fasi di: posizionare il detto puntatore (9) su un secondo punto (Pc) del detto piano di spostamento (8) ad una distanza iniziale (Di) prestabilita dal detto primo punto (Pt); e ruotare detto asse di puntamento (13) in modo tale da mantenere costante detta distanza iniziale (Di) tra detto primo punto (Pt) e detto secondo punto (Pc).
  22. 22. Metodo secondo la rivendicazione 21, comprendente la fase di ruotare detto asse di puntamento (13) in modo tale da mantenere costante l’angolo (β) presente tra l’asse di puntamento (13) della telecamera virtuale (8) ed una retta (RT1) giacente sul detto piano di spostamento (8) e passante per detto primo (Pt) e secondo punto (Pc).
  23. 23. Metodo secondo la rivendicazione 22, comprendente le fasi di: determinare, in un primo istante temporale (ti) di calcolo, una prima retta (RT1) giacente sul detto piano di spostamento (8) e passante per detti primo (Pt(X1t(ti),Y1t(ti))) e secondo punto (Pc(X1c(ti),Y1c(ti))); e nel corso di una traslazione del detto puntatore (9) tra una prima posizione (Pc(X1c(ti),Y1c(ti))) nel primo istante temporale (ti), ed una seconda posizione (Pc(X1c(ti+1),Y1c(ti+1))) in un secondo istante temporale (ti+1), detti mezzi di elaborazione (11) determinare una seconda retta (RT2), che giace su detto piano di spostamento (8), passa per il detto secondo punto (Pc(X1c(ti+1),Y1c(ti+1))) nella seconda posizione, ed interseca la detta prima retta (RT1) in un punto di intersezione avente detta distanza iniziale (Di) rispetto al detto primo punto (Pt(X1t(ti),Y1t(ti))) nella prima posizione; detto metodo comprendendo la fase di assegnare al detto primo punto (Pt(X1t(ti+1),Y1t(ti+1))) nel detto secondo istante (ti+1) la posizione di detto punto di intersezione e la fase di spostare detta telecamera virtuale (7) nel punto di intersezione stesso.
  24. 24. Metodo secondo una qualsiasi delle rivendicazioni da 18 a 23, comprendente la fase di visualizzare, attraverso detti mezzi di visualizzazione (6), un’area di comando (20) la quale à ̈ suddivisa in tre porzioni di comando (21),(22) e (23), in cui ciascuna porzione di comando (21),(22) e (23) à ̈ associata ad una rispettiva funzione di controllo della traslazione e/o rotazione della detta telecamera virtuale (7).
  25. 25. Metodo secondo la rivendicazione 24, comprendente la fase di attivare una funzione di controllo della movimentazione dell’asse di puntamento (13) della detta telecamera virtuale (7) sulla base della posizione del detto puntatore (9) all’interno di dette porzioni di comando (21),(22) e (23).
  26. 26. Metodo secondo la rivendicazione 25, in cui detta area di comando (20) Ã ̈ suddivisa in: una prima porzione di comando (21) corrisponde al detto primo punto (Pt); una seconda porzione di comando (22) comprendente una corona circolare centrata nel detto primo punto (Pt); ed una terza porzione di comando (23) comprende una corona circolare esterna alla detta seconda porzione di comando (21) e centrata nel detto primo punto (Pt).
  27. 27. Metodo secondo la rivendicazione 26, comprendente la fase di selezionare una funzione di traslazione del detto asse di puntamento (13) sul piano di spostamento (8) in risposta ad un posizionamento del detto puntatore (9) in detta prima porzione di comando (21).
  28. 28. Metodo secondo le rivendicazioni 26 o 27, comprendente la fase di selezionare una funzione di rotazione del detto asse di puntamento (13) sul detto piano di spostamento (8) attorno al detto asse di rotazione (12) in risposta ad un posizionamento, selezione e spostamento del detto puntatore (9) all’interno della detta seconda porzione di comando (22).
  29. 29. Metodo secondo una qualsiasi delle rivendicazioni 26, 27 o 28, comprendente la fase di traslare detto asse di puntamento (13) sul detto piano di spostamento (8) e ruotare contestualmente detto asse di puntamento (13) attorno al detto asse di rotazione (13) sulla base della detta traslazione, in risposta ad un posizionamento del detto puntatore (9) all’interno della detta terza porzione di comando (23).
  30. 30. Dispositivo elettronico di visualizzazione (6) di uno scenario di simulazione tridimensionale secondo una qualsiasi delle rivendicazioni da 1 a 17.
  31. 31. Prodotto informatico caricabile nella memoria di un calcolatore elettronico e progettato per implementare, quando eseguito, il metodo di visualizzazione secondo una qualsiasi delle rivendicazioni da 18 a 29.
ITTO2009A000058A 2009-01-30 2009-01-30 Visualizzazione di uno spazio virtuale tridimensionale generato da un sistema elettronico di simulazione IT1396752B1 (it)

Priority Applications (5)

Application Number Priority Date Filing Date Title
ITTO2009A000058A IT1396752B1 (it) 2009-01-30 2009-01-30 Visualizzazione di uno spazio virtuale tridimensionale generato da un sistema elettronico di simulazione
EP10152181.3A EP2214092B1 (en) 2009-01-30 2010-01-29 Display of a three-dimensional virtual space generated by an electronic simulation system
CA2691320A CA2691320C (en) 2009-01-30 2010-01-29 Display of a three-dimensional virtual space generated by an electronic simulation system
US12/696,625 US8780105B2 (en) 2009-01-30 2010-01-29 Display of a three-dimensional virtual space generated by an electronic simulation system
IL203629A IL203629A (en) 2009-01-30 2010-01-31 A view of a virtual 3D space produced by an electronic imaging system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
ITTO2009A000058A IT1396752B1 (it) 2009-01-30 2009-01-30 Visualizzazione di uno spazio virtuale tridimensionale generato da un sistema elettronico di simulazione

Publications (2)

Publication Number Publication Date
ITTO20090058A1 true ITTO20090058A1 (it) 2010-07-31
IT1396752B1 IT1396752B1 (it) 2012-12-14

Family

ID=41217562

Family Applications (1)

Application Number Title Priority Date Filing Date
ITTO2009A000058A IT1396752B1 (it) 2009-01-30 2009-01-30 Visualizzazione di uno spazio virtuale tridimensionale generato da un sistema elettronico di simulazione

Country Status (5)

Country Link
US (1) US8780105B2 (it)
EP (1) EP2214092B1 (it)
CA (1) CA2691320C (it)
IL (1) IL203629A (it)
IT (1) IT1396752B1 (it)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2481366B (en) * 2010-06-03 2014-05-28 Sony Comp Entertainment Europe Entertainment device and entertainment methods
FR2976681B1 (fr) * 2011-06-17 2013-07-12 Inst Nat Rech Inf Automat Systeme de colocalisation d'un ecran tactile et d'un objet virtuel et dispostif pour la manipulation d'objets virtuels mettant en oeuvre un tel systeme
US9563723B1 (en) 2011-10-30 2017-02-07 Lockheed Martin Corporation Generation of an observer view in a virtual environment
WO2013109266A1 (en) * 2012-01-18 2013-07-25 Environmental Tectonics Corporation Centrifuge-based-flight simulator
US8922557B2 (en) * 2012-06-29 2014-12-30 Embarcadero Technologies, Inc. Creating a three dimensional user interface
EP2911393B1 (en) * 2012-10-16 2018-06-06 Jae Woong Jeon Method and system for controlling virtual camera in virtual 3d space and computer-readable recording medium
USD822060S1 (en) 2014-09-04 2018-07-03 Rockwell Collins, Inc. Avionics display with icon

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040001110A1 (en) * 2002-06-28 2004-01-01 Azam Khan Push-tumble three dimensional navigation system
US20040085335A1 (en) * 2002-11-05 2004-05-06 Nicolas Burlnyk System and method of integrated spatial and temporal navigation
US20080094358A1 (en) * 2006-09-15 2008-04-24 Industrial Light & Magic Constrained Virtual Camera Control

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6144381A (en) * 1997-05-14 2000-11-07 International Business Machines Corporation Systems, methods and computer program products for compass navigation of avatars in three dimensional worlds
US6614452B1 (en) * 1999-11-15 2003-09-02 Xenogen Corporation Graphical user interface for in-vivo imaging
EP1125609A3 (en) * 2000-01-21 2005-03-30 Sony Computer Entertainment Inc. Entertainment apparatus, storage medium and object display method
US7199786B2 (en) * 2002-11-29 2007-04-03 Daniel Suraqui Reduced keyboards system using unistroke input and having automatic disambiguating and a recognition method using said system
US20070159497A1 (en) * 2006-01-09 2007-07-12 Apple Computer, Inc. Rotation control
US9327191B2 (en) * 2006-05-08 2016-05-03 Nintendo Co., Ltd. Method and apparatus for enhanced virtual camera control within 3D video games or other computer graphics presentations providing intelligent automatic 3D-assist for third person viewpoints
US20080252786A1 (en) * 2007-03-28 2008-10-16 Charles Keith Tilford Systems and methods for creating displays

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040001110A1 (en) * 2002-06-28 2004-01-01 Azam Khan Push-tumble three dimensional navigation system
US20040085335A1 (en) * 2002-11-05 2004-05-06 Nicolas Burlnyk System and method of integrated spatial and temporal navigation
US20080094358A1 (en) * 2006-09-15 2008-04-24 Industrial Light & Magic Constrained Virtual Camera Control

Also Published As

Publication number Publication date
CA2691320C (en) 2018-06-19
IT1396752B1 (it) 2012-12-14
EP2214092A1 (en) 2010-08-04
US20100194746A1 (en) 2010-08-05
US8780105B2 (en) 2014-07-15
IL203629A (en) 2015-03-31
CA2691320A1 (en) 2010-07-30
EP2214092B1 (en) 2017-11-22

Similar Documents

Publication Publication Date Title
US10290155B2 (en) 3D virtual environment interaction system
US11828939B2 (en) Method and apparatus for adjusting motion-based data space manipulation
ITTO20090058A1 (it) Visualizzazione di uno spazio virtuale tridimensionale generato da un sistema elettronico di simulazione
JP5876607B1 (ja) フローティング・グラフィカルユーザインターフェース
JP2020513957A5 (it)
WO2016089655A1 (en) Mixed-reality visualization and method
CA2969959C (en) Correction of vibration-induced error for touch screen display in an aircraft
JP5561092B2 (ja) 入力装置、入力制御システム、情報処理方法及びプログラム
KR101997298B1 (ko) 3차원 가상의 시나리오 내 물체의 선택
JP2011215956A (ja) カーソルの表示方法およびカーソルの表示プログラム
EP2741171A1 (en) Method, human-machine interface and vehicle
JP2023520765A (ja) 仮想および拡張現実のためのシステムおよび方法
US10895952B2 (en) Method and system for performing assessment of spatial ability of a user
RU2604430C2 (ru) Взаимодействие с трехмерным виртуальным динамическим отображением
CN101932981B (zh) 使包括一工件的一个自动化设备可视化的方法及装置
JP6174646B2 (ja) 仮想空間内のオブジェクトを3軸操作するためのコンピュータ・プログラム
JP2007506164A (ja) 双方向技術を使用するヴァーチャルリアリティグラフィックシステムを制御するための方法及び装置
Papa et al. A new interactive railway virtual simulator for testing preventive safety
KR20180031133A (ko) 모의 비행 훈련용 무선 조종 컨트롤 모듈
KR20120101878A (ko) 헤드 마운티드 디스플레이를 활용한 선박운항시뮬레이터용 망원경 장치 및 이를 이용한 선박운항시뮬레이터용 망원경 화면 구현방법
US20200285325A1 (en) Detecting tilt of an input device to identify a plane for cursor movement
JP6580373B2 (ja) ヘッドマウントディスプレイを制御するプログラム、システム、及び方法。
EP2813920A1 (en) A system and method for volumetric computing
JP2016121995A (ja) 表示されたビューを修正するための手段を含む合成ビジョンシステム
EP3023967A1 (en) Methods, systems, and computer readable media for cursor and text entry for aircraft interface simulation