ITRM20090153A1 - Modulo integrato di proiettore interattivo - Google Patents
Modulo integrato di proiettore interattivo Download PDFInfo
- Publication number
- ITRM20090153A1 ITRM20090153A1 IT000153A ITRM20090153A ITRM20090153A1 IT RM20090153 A1 ITRM20090153 A1 IT RM20090153A1 IT 000153 A IT000153 A IT 000153A IT RM20090153 A ITRM20090153 A IT RM20090153A IT RM20090153 A1 ITRM20090153 A1 IT RM20090153A1
- Authority
- IT
- Italy
- Prior art keywords
- module
- operator
- images
- projector
- image
- Prior art date
Links
- 230000002452 interceptive effect Effects 0.000 title claims description 14
- 238000001514 detection method Methods 0.000 claims description 22
- 238000002604 ultrasonography Methods 0.000 claims description 8
- 238000005516 engineering process Methods 0.000 claims description 3
- 230000000694 effects Effects 0.000 description 4
- 238000009434 installation Methods 0.000 description 3
- 238000000605 extraction Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000000873 masking effect Effects 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 238000010422 painting Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
- H04N9/3191—Testing thereof
- H04N9/3194—Testing thereof including sensor feedback
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
- H04N9/3179—Video signal processing therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Projection Apparatus (AREA)
Description
Descrizione per invenzione dal titolo:
MODULO INTEGRATO DI PROIETTORE INTERATTIVO
Descrizione
La presente invenzione si riferisce ad un modulo proiettore interattivo del tipo impiegato per proiettare immagini variabili su uno schermo e rende possibile ad un operatore di interagire con e di variare le immagini.
Questo modulo può essere impiegato in qualsiasi applicazione di realtà virtuale, dai videogiochi alle proiezioni didattiche, allo show business in genere, al teatro oppure al settore consumer con funzioni puramente decorative e pubblicitarie come show room, supermercati ecc.
Nei moduli noti, all’operatore viene richiesto di intervenire manovrando strumenti di comando quali tastiere, manopole, consolle o altro. Ciò richiede capacità manuali che non tutti posseggono.
Sono noti sistemi che impiegano il riconoscimento di immagini, ma in essi l’operatore può interferire con l’immagine proiettata, vanificando l’effetto di realtà virtuale.
Il problema tecnico che è alla base della presente invenzione consiste nel fornire un modulo proiettore interattivo in grado di ovviare agli inconvenienti sopra menzionati. Tale problema viene risolto da un modulo come definito nell’annessa rivendicazione 1.
Con questa configurazione, l’operatore rimane alle spalle del proiettore e non interferisce con la proiezione, pur trovandosi all’interno del campo di osservazione del rilevatore. Inoltre, l’impiego di un sistema di rilevamento attivo, con un emettitore ed un sensore, rende la rilevazione estremamente precisa, e può riguardare non solo l’operatore, ma anche oggetti inanimati posti nel campo di osservazione del sistema di rilevamento.
La presente invenzione verrà di seguito descritta con riferimento a tre esempi di realizzazione preferiti, forniti a titolo esclusivamente esemplificativo e non limitativo, con riferimento ai disegni allegati in cui:
• la figura 1 mostra una vista prospettica di un primo esempio di realizzazione di un modulo interattivo secondo la presente invenzione; • la figura 2 mostra il modulo di figura 1
rappresentato schematicamente, con un
suggerimento di impiego del modulo;
• la figura 3 mostra una vista prospettica in
parziale sezione del modulo di figura 1, in
cui viene evidenziato il ruolo dell’operatore; • la figura 4 mostra una vista prospettica di un
secondo esempio di realizzazione di un modulo
interattivo in accordo con la presente
invenzione;
• la figura 5 mostra una vista prospettica in
parziale sezione del modulo di figura 1, in
cui viene evidenziato il ruolo dell’operatore;
e
• la figura 6 mostra una vista prospettica di un
terzo esempio di realizzazione di un modulo
interattivo in accordo con la presente
invenzione, in cui viene evidenziato il ruolo
dell’operatore.
I moduli che verranno descritti di seguito sono
essenzialmente di due tipi: un primo tipo destinato
ad una proiezione a pavimento (figura 6) ed un
secondo tipo destinato ad una proiezione a parete
(figure da 1 a 5). Nel primo le immagini sono
visualizzate a pavimento mentre nel secondo esse sono visualizzate a parete.
Entrambe le suddette tipologie appartengono alla categoria dei sistemi interattivi “senza tocco”, ovvero essenzialmente sistemi che permettono alle immagini di reagire ai movimenti del corpo creando spettacolari effetti grafici come ad esempio, nel sistema a pavimento simulare l’acqua ed il suo relativo movimento al passaggio, oppure, come nel sistema a parete, comandare determinate operazioni come prelevare un libro da una biblioteca virtuale e sfogliarlo con semplici gesti della mano nell’aria.
Con riferimento alle figure da 1 a 3, un primo esempio di modulo proiettore interattivo è predisposto per proiettare immagini gestibili da un operatore ed è indicato con 1.
Esso comprende un proiettore 2 di tipo digitale, che proietta immagini su uno schermo 3 secondo una direzione di proiezione frontale 4. Il proiettore 2 è contenuto all’interno di un involucro 5, fornito di una finestra 6 che permette la proiezione.
L’involucro 5 è di tipo rigido, collegabile ad un’alimentazione di rete, e predisposto per fornire una protezione agli oggetti che contiene.
Il proiettore 2 è disposto vicino ad un supporto di tale involucro 5, in particolare una base di appoggio 7, e proietta le immagini dal basso verso l’alto.
All’interno dell’involucro 5, il modulo 1 comprende anche alcuni rilevatori di immagini, che verranno descritti con maggiore dettaglio nel seguito,
A tale proposito, il modulo 1 comprende un primo rilevatore di immagini 8, che è posizionato anch’esso nei pressi della base 7 tra il proiettore 2 e lo schermo 3.
Nel presente esempio di realizzazione, il primo rilevatore 8 è un sensore di rilevamento a raggi infrarossi, in grado di osservare un operatore P per contrasto con lo sfondo, e di produrre un flusso di informazioni digitali.
La posizione e l’orientamento del rilevatore 8 determinano un campo di osservazione 9 secondo una prima direzione di rilevazione 10 che si incrocia con detta direzione di proiezione 4.
Anche la prima direzione di rilevazione 10 è rivolta verso l’alto, allo scopo di non inquadrare nel campo di osservazione 9 il busto dell’operatore, ma soltanto le braccia protese verso lo schermo come ad indicare un punto qualsiasi della proiezione ed in particolare le sue mani e le sue braccia rilevando in tal modo l’oggetto della proiezione con il quale l’operatore vuole interagire.
All’interno dell’involucro 5, il modulo 1 comprende quindi secondi rilevatori di immagine che, in una versione preferita, operano secondo un principio di funzionamento diverso rispetto al primo rilevatore di immagini 8.
Nel presente esempio, tali secondi rilevatori di immagine comprendono una coppia di dispositivi emettitori 20, che emettono ciascuno un fascio di ultrasuoni.
In alternativa, tali dispositivi emettitori 20 potrebbero emettere onde elettromagnetiche, in particolare microonde o di tipo laser.
I dispositivi emettitori 20 proiettano ultrasuoni secondo una seconda direzione di emissione 10’ che non coincide con detta prima direzione di emissione 10, allo scopo di investire l’operatore sostanzialmente in detto campo di osservazione.
I secondi rilevatori di immagini comprendono poi, per completare la loro funzione, almeno un rispettivo sensore per il rilievo di detti un ultrasuoni e/o onde elettromagnetiche di ritorno da detto operatore P nel campo di osservazione 9 secondo una direzione di rilevazione che coincide sostanzialmente con detta seconda direzione di emissione 10’. In particolare, dette prime e seconde direzioni di rilevazione 10 e di emissione 10’ sono sostanzialmente concordi ma sono comunque sfalsate tra loro, allo scopo di fornire una rilevazione più efficiente secondo tre coordinate spaziali x, y, z, con l’aggiunta in particolare del senso della profondità, e non solamente secondo due coordinate di un piano frontale ad un unico rilevatore nel campo di osservazione 9.
La differente tipologia del primo e dei secondi rilevatori di immagini migliora ulteriormente la qualità dell’interpretazione dell’immagine, perché la scarsa efficienza dell’uno può essere compensato dall’altro.
Ad esempio, gli infrarossi rilevano bene parti del corpo umano, mentre gli ultrasuoni sono più adatti per oggetti inanimati e/o in movimento.
Il modulo 1 contiene quindi un elaboratore 11 che è connesso a detti rilevatori di immagini e a detto proiettore 2, e che contiene un apposito software di riconoscimento di immagini alimentato dal flusso di informazioni relative ai movimenti di quanto visualizzato nel campo di osservazione 9, ad esempio le mani e le braccia dell’operatore, il corpo dell’operatore, un oggetto sorretto dall’operatore e così via.
Tale software è quindi in grado, una volta riconosciute le immagini, di tradurle in una serie di comandi di ingresso che vengono usate per variare le immagini proiettate interattivamente ai movimenti dell’operatore.
L’involucro 5 mantiene rilevatori 8, 20 e proiettore 2 in una posizione reciproca prefissata, in modo tale che detto campo di osservazione 9 sia sostanzialmente fisso rispetto all’operatore P, che non può quindi interagire con il modulo 1 se non si trova nella posizione corretta.
A tale proposito, nel presente esempio di realizzazione l’involucro 5 presenta un’estensione verticale, sostanzialmente una parete, che costituisce un limite inferiore di mascheratura del campo di rilevamento del sensore ed allo stesso tempo impedisce all’operatore di interferire con il fascio luminoso delle immagini proiettate sulla parete.
Nel presente esempio di realizzazione, l’elaboratore 11 è compreso all’interno dell’involucro 5, affinché il modulo 1 sia fisicamente costituito da esso e dal suo contenuto. In particolare, nella memoria dell’elaboratore possono essere immagazzinate le sequenze di immagini da proiettare in base ai comandi dell’operatore P. A tale proposito, il proiettore 2 sarà di tipo digitale.
Nell’esempio, il rilevatore 8 sarà nascosto da un coperchio 13 adiacente a detta estensione 12, fornito di una finestrella 14 che definisce, assieme ad una speciale ottica, l’ampiezza del campo di osservazione.
Il modulo 1 sopra descritto potrà essere impiegato per realizzare un ambiente di realtà virtuale. Più moduli potranno essere affiancati per ampliare il loro effetto, con le aree di proiezione affiancate fino a costituire un’unica area.
Tale sistema si presta per la realizzazione di una biblioteca virtuale, di un espositore pubblicitario, di una mostra di quadri o fotografie virtuali di un videogioco ecc. a questo proposito il software verrà predisposto per riconoscere, in aggiunta o in alternativa a mani e braccia, anche un qualche attrezzo di gioco, come ad esempio una racchetta da tennis o da ping-pong.
In ogni caso, non è previsto alcun contatto tra operatore e modulo o tra operatore e area di proiezione. Inoltre, l’operatore non dovrà ne potrà interferire con il fascio luminoso che viene proiettato. Infine, l’operatore non dovrà essere addestrato all’uso di un qualche strumento di interazione o di comando, ma gli sarà semplicemente richiesto di compiere quei gesti che compirebbe nella realtà.
In figura 2, è illustrata un’ipotesi di impiego: il proiettore proietta l’immagine di una libreria virtuale, piena di libri pronti da consultare, con il titolo in evidenza sul frontespizio.
Per effettuare la consultazione, l’operatore potrà semplicemente allungare la mano verso il libro che desidera, è ritrarla.
Tali gesti verranno interpretati di conseguenza e, in base alla posizione della mano, verrà proiettata l’immagine dell’estrazione del libro scelto, e la sua apertura.
Dopodiché, l’operatore, muovendo le mani come per sfogliare le pagine, potrà effettivamente variare le immagini proiettate come se le pagine venissero effettivamente girate.
Con una sequenza naturale di movimenti, l’operatore potrà quindi riporre il libro e sceglierne un altro.
Tale sistema potrà essere quindi impiegato per utilizzare un qualunque ambiente a realtà virtuale, fornito di icone. I gesti dell’operatore semplicemente sostituiranno il puntatore e gli consentiranno di interagire con il sistema.
Ovviamente, possono essere immaginati innumerevoli contesti in cui questo modulo potrà essere impiegato.
Con riferimento alle figure 4, 5, viene ora descritto un secondo esempio di realizzazione di modulo interattivo 1, in cui i medesimi riferimenti numerici indicano parti analoghe o corrispondenti. In questo esempio, il modulo 1 è racchiuso in un involucro 30 destinato ad essere fissato a soffitto.
Esso racchiude un proiettore 2 di tipo digitale, che proietta l’immagine su uno schermo 3 secondo una direzione di proiezione frontale 4.
In posizione frontale sull’involucro 30, il modulo 1 comprende un primo rilevatore di immagini 8, ovvero un sensore di rilevamento a raggi infrarossi come nell’esempio precedente.
Nuovamente, la posizione e l’orientamento del rilevatore 8 determinano un campo di osservazione 9 secondo una direzione di rilevazione 10 al di sotto dell’involucro 30. In questo caso, la direzione di rilevazione 10 è rivolta verso il basso e può inquadrare quindi un’area arretrata rispetto allo schermo 3 dove incide il fascio di proiezione 4 del proiettore 2, in modo da inquadrare un operatore P in quest’area superiormente, in un campo di osservazione 9 che, in questo esempio, può anche contenere la figura intera dell’operatore P, cioè tutto il suo corpo.
In corrispondenza di detto primo rilevatore di immagini 8, il modulo 1 comprende anche secondi rilevatori di immagini, con funzione e dettagli analoghi a quelli dell’esempio precedente.
Tali secondi rilevatori comprendono quindi una coppia di dispositivi emettitori 20 che emettono rispettivamente un fascio di ultrasuoni o onde elettromagnetiche, in particolare microonde o di tipo laser, secondo una direzione di emissione 10’ allo scopo di investire l’operatore sostanzialmente in detto campo di osservazione.
Tali dispositivi emettitori 20 integrano almeno un rispettivo sensore per il rilievo di detti un ultrasuoni e/o onde elettromagnetiche di ritorno da detto operatore P nel campo di osservazione 9 secondo una direzione di rilevazione che coincide sostanzialmente con detta direzione di emissione 10’. In particolare, dette direzioni di rilevazione 10 e di emissione 10’ sono sostanzialmente concordi ma sfalsate, per lo stesso scopo descritto in precedenza.
Il modulo 1 contiene nell’involucro 30 un elaboratore 11 che è connesso a detto rilevatore di immagini 8, a detto sensore e a detto proiettore 2, e che contiene un software di riconoscimento di immagini alimentato dal flusso di informazioni relative ai movimenti del corpo dell’operatore, come descritto per l’esempio precedente.
Tale software è quindi in grado, una volta riconosciute le immagini, di tradurle in una serie di comandi di ingresso che vengono usate per variare le immagini proiettate interattivamente ai movimenti dell’operatore.
Rispetto al precedente esempio, l’operatore P si trova però in un’area sostanzialmente non delimitata, e può compiere quindi una vasta gamma di gesti che vengono interpretati dall’elaboratore 11.
Analogamente al precedente, anche questo modulo potrà essere impiegato per realizzare un ambiente di realtà virtuale. Più moduli potranno essere affiancati per ampliare il loro effetto, con le aree di proiezione affiancate fino a costituire un’unica area.
S’intende inoltre che il modulo 1 si presta ad essere disposto, in qualsiasi modalità, in una qualunque posizione sopraelevata rispetto all’operatore.
Inoltre, l’involucro 30 è costruito in modo da poter essere sospeso, in particolare a soffitto, e per contenere al suo interno tutte le componenti del modulo 1 integrate tra loro, da cui fuoriesce solamente il cavo dell’alimentazione elettrica.
In questo caso, tutto il sistema è integrato in un unico contenitore che racchiude in sé tutto il necessario e quindi non necessita di cablaggi ne di installazione da parte di personale specializzato. Il sistema può essere gestito a distanza mediante una apposita consolle di tipo wireless portatile. Questo comporta i seguenti vantaggi: il sistema è tutto integrato in un unico contenitore ed è molto più compatto ed elegante; e non ci sono antiestetici cablaggi esterni eccetto l’allaccio alla rete elettrica.
Il sistema quindi può essere del tipo plug and play, in quanto basta collegare la tensione di rete ed è già funzionante. Esso non richiede opere murarie né installazione e quindi può essere posizionato anche all’interno di musei storici. Inoltre, esso è molto flessibile in quanto in caso di necessità e possibilità tutto l’apparato può essere installato a soffitto lasciando libero da qualsiasi ingombro il pavimento e l’area sottostante.
L’installazione risulta molto più semplice e realizzabile anche da personale non esperto e non vengono richieste capacità manuali che non tutti posseggono.
Con riferimento alla figura 6, viene descritto un terzo ed ultimo esempio di modulo 1, anch’esso sospeso a soffitto ed in gran parte analogo al precedente.
Tuttavia, in questo esempio, il proiettore 2 proietta il suo fascio attraverso un specchio che riflette il fascio al suolo, che costituisce la superficie di destinazione della proiezione.
Per ciò che concerne l’impiego dell’ultimo esempio di modulo interattivo, se l’operatore cammino sotto di esso, questo sarà in grado di distinguere non solo il passaggio ma anche movimento con la mano oppure con il piede. Quindi, se prendiamo ad esempio un campo di fiori virtuali che si schiacciano al passaggio con il piede, un gesto con la mano potrebbe essere interpretato comprendendo la differenza di movimento, rappresentando quindi la simulazione della raccolta del fiore anziché lo schiacciamento. Quindi, integrando le diverse tecnologie di rilevazione potrà essere raggiunta la precisione di rilevamento voluta in base alle diverse esigenze.
Negli esempi precedenti e nell’ultimo, la soluzione adottata permetterà di distinguere l’altezza della mano, ad esempio che sceglie un libro e quindi distinguere meglio e più precisamente lo scaffale lungo l’asse y (altezza) e z (profondità), oppure individuare esattamente un pulsante virtuale da azionare sullo schermo.
Solo l’utilizzo della soluzione a doppia (o tripla) tecnologia di rilevazione di immagini potrà far capire al sistema a quale altezza di scaffale potrà trovarsi un libro da scegliere e potrà dare la possibilità di scegliere un libro piuttosto che quello soprastante in modo preciso.
Inoltre la differente tipologia di rilevamento permette ad un software sofisticato di discriminare eventuali disturbi individuando esattamente ed esclusivamente il movimento desiderato.
Tale sistema potrà essere quindi impiegato per utilizzare un qualunque ambiente a realtà virtuale, fornito d’icone. I gesti dell’operatore sostituiranno semplicemente il puntatore e gli consentiranno di interagire con il sistema.
Ovviamente, possono essere immaginati innumerevoli contesti in cui questi moduli potranno essere impiegati.
Si intende infine che uno dei due rilevatori di immagini potrebbe essere una telecamera digitale con funzione di riconoscimento dell’immagine.
Ai sopra descritti moduli proiettore interattivo un tecnico del ramo, allo scopo di soddisfare ulteriori e contingenti esigenze, potrà apportare numerose ulteriori modifiche e varianti, tutte peraltro comprese nell'ambito di protezione della presente invenzione, quale definito dalle rivendicazioni allegate.
Claims (8)
- RIVENDICAZIONI 1. Modulo (1) proiettore interattivo, in particolare per proiettare immagini gestibili da un operatore (P), comprendente: • un proiettore (2), che proietta immagini su uno schermo (3) secondo una direzione di proiezione (4); • almeno un primo rilevatore di immagini (8), che rileva immagini in un campo di osservazione (9) secondo una prima direzione di rilevazione (10) rispetto a detta direzione di proiezione (4); • almeno un secondo rilevatore di immagini (20) che rileva immagini in detto campo di osservazione (9) secondo una seconda direzione di rilevazione (10’) sfalsata rispetto a detta prima direzione di proiezione; e • un elaboratore (11), connesso a detti rilevatori di immagini (8, 20) e a detto proiettore (2), che contiene un software di riconoscimento di immagini, in modo tale che quanto rilevato in detto campo di osservazione (9) viene tradotto in un comando di ingresso per detto proiettore (2) che varia conseguentemente le immagini proiettate.
- 2. Modulo (1) secondo la rivendicazione 2, in cui detti primo e secondo rilevatore di immagini (8, 20) operano in base a tecnologie differenti.
- 3. Modulo (1) secondo una qualsiasi delle rivendicazioni precedenti, in cui detto primo rilevatore (8) è un sensore di rilevamento a raggi infrarossi.
- 4. Modulo (1) secondo una qualsiasi delle rivendicazioni precedenti, in cui il secondo rilevatore di immagini comprende un dispositivo emettitore (20) che emette ultrasuoni e/o onde elettromagnetiche destinate ad interferire attivamente con detto operatore (P) secondo una direzione di emissione (10’), operante in combinazione con almeno un sensore per il rilievo di detti un ultrasuoni e/o onde elettromagnetiche di ritorno da detto operatore (P) in un campo di osservazione (9).
- 5. Modulo (1) secondo la rivendicazione 1, che comprende un involucro (5; 30) rigido che presenta una base di supporto e che contiene il proiettore (2), il dispositivo emettitore (20), il rilevatore di immagini (8), mantenendoli in una posizione reciproca prefissata, e detto elaboratore (11).
- 6. Modulo (1) secondo la rivendicazione 1, in cui detto software di riconoscimento di immagini è predisposto per riconoscere immagini dinamiche come il movimento di mani e/o braccia e/o di altri oggetti.
- 7. Modulo (1) secondo la rivendicazione 1, in cui l’elaboratore (11) contiene una memoria in cui sono immagazzinate le immagini da proiettare, collegata a detto proiettore (8) di tipo digitale.
- 8. Modulo (1) secondo una qualsiasi delle rivendicazioni precedenti, in cui l’involucro (30) è predisposto per essere posizionato in posizione sopraelevata rispetto ad un operatore (P), detto software di riconoscimento di immagini essendo predisposto per riconoscere immagini dinamiche dell’intera figura dell’operatore (P) e/o di altri oggetti.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
IT000153A ITRM20090153A1 (it) | 2009-04-01 | 2009-04-01 | Modulo integrato di proiettore interattivo |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
IT000153A ITRM20090153A1 (it) | 2009-04-01 | 2009-04-01 | Modulo integrato di proiettore interattivo |
Publications (1)
Publication Number | Publication Date |
---|---|
ITRM20090153A1 true ITRM20090153A1 (it) | 2010-10-02 |
Family
ID=41170993
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
IT000153A ITRM20090153A1 (it) | 2009-04-01 | 2009-04-01 | Modulo integrato di proiettore interattivo |
Country Status (1)
Country | Link |
---|---|
IT (1) | ITRM20090153A1 (it) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5515079A (en) * | 1989-11-07 | 1996-05-07 | Proxima Corporation | Computer input system and method of using same |
EP1087327A2 (en) * | 1999-09-21 | 2001-03-28 | Seiko Epson Corporation | Interactive display presentation system |
US20020186221A1 (en) * | 2001-06-05 | 2002-12-12 | Reactrix Systems, Inc. | Interactive video display system |
EP1441514A2 (en) * | 2003-01-21 | 2004-07-28 | Hewlett-Packard Development Company, L.P. | Interactive image projector |
US20040183775A1 (en) * | 2002-12-13 | 2004-09-23 | Reactrix Systems | Interactive directed light/sound system |
-
2009
- 2009-04-01 IT IT000153A patent/ITRM20090153A1/it unknown
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5515079A (en) * | 1989-11-07 | 1996-05-07 | Proxima Corporation | Computer input system and method of using same |
EP1087327A2 (en) * | 1999-09-21 | 2001-03-28 | Seiko Epson Corporation | Interactive display presentation system |
US20020186221A1 (en) * | 2001-06-05 | 2002-12-12 | Reactrix Systems, Inc. | Interactive video display system |
US20040183775A1 (en) * | 2002-12-13 | 2004-09-23 | Reactrix Systems | Interactive directed light/sound system |
EP1441514A2 (en) * | 2003-01-21 | 2004-07-28 | Hewlett-Packard Development Company, L.P. | Interactive image projector |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11550401B2 (en) | Virtual or augmediated topological sculpting, manipulation, creation, or interaction with devices, objects, materials, or other entities | |
US10866632B2 (en) | Interaction engine for creating a realistic experience in virtual reality/augmented reality environments | |
US10921949B2 (en) | User interface for integrated gestural interaction and multi-user collaboration in immersive virtual reality environments | |
US20220277527A1 (en) | Rerendering a position of a hand to decrease a size of a hand to create a realistic virtual/augmented reality environment | |
US11875012B2 (en) | Throwable interface for augmented reality and virtual reality environments | |
Petrasova et al. | Tangible modeling with open source GIS | |
Lau et al. | Situated modeling: a shape-stamping interface with tangible primitives | |
JP6629528B2 (ja) | 仮想現実表示システム、仮想現実表示方法及びコンピュータプログラム | |
GB2554914A (en) | Virtual reality system and method | |
Thomas et al. | Spatial augmented reality—A tool for 3D data visualization | |
van Eck et al. | The augmented painting: playful interaction with multi-spectral images | |
Johnson et al. | Developing the paris: Using the cave to prototype a new vr display | |
Lapides et al. | The 3d tractus: A three-dimensional drawing board | |
Eriksson et al. | Movement-based interaction in camera spaces: a conceptual framework | |
ITRM20090153A1 (it) | Modulo integrato di proiettore interattivo | |
Kim et al. | SensorViz: Visualizing Sensor Data Across Different Stages of Prototyping Interactive Objects | |
Bonanni et al. | Handsaw: tangible exploration of volumetric data by direct cut-plane projection | |
Fjeld et al. | Design and evaluation of four ar navigation tools using scene and viewpoint handling | |
Apollonio et al. | Visualizing the smallest details: the digital replica of the Annunciation by Beato Angelico | |
Wöldecke et al. | RadarTHEREMIN-Creating musical expressions in a virtual studio environment | |
JP2020013584A (ja) | 仮想現実表示システム、仮想現実表示方法及びコンピュータプログラム | |
Cowden et al. | Home design in an immersive virtual environment | |
Ye et al. | PaperTouch: Tangible Interfaces through Paper Craft and Touchscreen Devices | |
CN108733200A (zh) | 一种ar屏幕体感控制权分配方法 | |
JP2004021848A (ja) | 建築物設計システム、プラント設計システム、及び3次元構造体観察システム。 |