ITRM20090153A1 - Modulo integrato di proiettore interattivo - Google Patents

Modulo integrato di proiettore interattivo Download PDF

Info

Publication number
ITRM20090153A1
ITRM20090153A1 IT000153A ITRM20090153A ITRM20090153A1 IT RM20090153 A1 ITRM20090153 A1 IT RM20090153A1 IT 000153 A IT000153 A IT 000153A IT RM20090153 A ITRM20090153 A IT RM20090153A IT RM20090153 A1 ITRM20090153 A1 IT RM20090153A1
Authority
IT
Italy
Prior art keywords
module
operator
images
projector
image
Prior art date
Application number
IT000153A
Other languages
English (en)
Inventor
Paolo Buroni
Original Assignee
Stark Srl
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Stark Srl filed Critical Stark Srl
Priority to IT000153A priority Critical patent/ITRM20090153A1/it
Publication of ITRM20090153A1 publication Critical patent/ITRM20090153A1/it

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3191Testing thereof
    • H04N9/3194Testing thereof including sensor feedback
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Projection Apparatus (AREA)

Description

Descrizione per invenzione dal titolo:
MODULO INTEGRATO DI PROIETTORE INTERATTIVO
Descrizione
La presente invenzione si riferisce ad un modulo proiettore interattivo del tipo impiegato per proiettare immagini variabili su uno schermo e rende possibile ad un operatore di interagire con e di variare le immagini.
Questo modulo può essere impiegato in qualsiasi applicazione di realtà virtuale, dai videogiochi alle proiezioni didattiche, allo show business in genere, al teatro oppure al settore consumer con funzioni puramente decorative e pubblicitarie come show room, supermercati ecc.
Nei moduli noti, all’operatore viene richiesto di intervenire manovrando strumenti di comando quali tastiere, manopole, consolle o altro. Ciò richiede capacità manuali che non tutti posseggono.
Sono noti sistemi che impiegano il riconoscimento di immagini, ma in essi l’operatore può interferire con l’immagine proiettata, vanificando l’effetto di realtà virtuale.
Il problema tecnico che è alla base della presente invenzione consiste nel fornire un modulo proiettore interattivo in grado di ovviare agli inconvenienti sopra menzionati. Tale problema viene risolto da un modulo come definito nell’annessa rivendicazione 1.
Con questa configurazione, l’operatore rimane alle spalle del proiettore e non interferisce con la proiezione, pur trovandosi all’interno del campo di osservazione del rilevatore. Inoltre, l’impiego di un sistema di rilevamento attivo, con un emettitore ed un sensore, rende la rilevazione estremamente precisa, e può riguardare non solo l’operatore, ma anche oggetti inanimati posti nel campo di osservazione del sistema di rilevamento.
La presente invenzione verrà di seguito descritta con riferimento a tre esempi di realizzazione preferiti, forniti a titolo esclusivamente esemplificativo e non limitativo, con riferimento ai disegni allegati in cui:
• la figura 1 mostra una vista prospettica di un primo esempio di realizzazione di un modulo interattivo secondo la presente invenzione; • la figura 2 mostra il modulo di figura 1
rappresentato schematicamente, con un
suggerimento di impiego del modulo;
• la figura 3 mostra una vista prospettica in
parziale sezione del modulo di figura 1, in
cui viene evidenziato il ruolo dell’operatore; • la figura 4 mostra una vista prospettica di un
secondo esempio di realizzazione di un modulo
interattivo in accordo con la presente
invenzione;
• la figura 5 mostra una vista prospettica in
parziale sezione del modulo di figura 1, in
cui viene evidenziato il ruolo dell’operatore;
e
• la figura 6 mostra una vista prospettica di un
terzo esempio di realizzazione di un modulo
interattivo in accordo con la presente
invenzione, in cui viene evidenziato il ruolo
dell’operatore.
I moduli che verranno descritti di seguito sono
essenzialmente di due tipi: un primo tipo destinato
ad una proiezione a pavimento (figura 6) ed un
secondo tipo destinato ad una proiezione a parete
(figure da 1 a 5). Nel primo le immagini sono
visualizzate a pavimento mentre nel secondo esse sono visualizzate a parete.
Entrambe le suddette tipologie appartengono alla categoria dei sistemi interattivi “senza tocco”, ovvero essenzialmente sistemi che permettono alle immagini di reagire ai movimenti del corpo creando spettacolari effetti grafici come ad esempio, nel sistema a pavimento simulare l’acqua ed il suo relativo movimento al passaggio, oppure, come nel sistema a parete, comandare determinate operazioni come prelevare un libro da una biblioteca virtuale e sfogliarlo con semplici gesti della mano nell’aria.
Con riferimento alle figure da 1 a 3, un primo esempio di modulo proiettore interattivo è predisposto per proiettare immagini gestibili da un operatore ed è indicato con 1.
Esso comprende un proiettore 2 di tipo digitale, che proietta immagini su uno schermo 3 secondo una direzione di proiezione frontale 4. Il proiettore 2 è contenuto all’interno di un involucro 5, fornito di una finestra 6 che permette la proiezione.
L’involucro 5 è di tipo rigido, collegabile ad un’alimentazione di rete, e predisposto per fornire una protezione agli oggetti che contiene.
Il proiettore 2 è disposto vicino ad un supporto di tale involucro 5, in particolare una base di appoggio 7, e proietta le immagini dal basso verso l’alto.
All’interno dell’involucro 5, il modulo 1 comprende anche alcuni rilevatori di immagini, che verranno descritti con maggiore dettaglio nel seguito,
A tale proposito, il modulo 1 comprende un primo rilevatore di immagini 8, che è posizionato anch’esso nei pressi della base 7 tra il proiettore 2 e lo schermo 3.
Nel presente esempio di realizzazione, il primo rilevatore 8 è un sensore di rilevamento a raggi infrarossi, in grado di osservare un operatore P per contrasto con lo sfondo, e di produrre un flusso di informazioni digitali.
La posizione e l’orientamento del rilevatore 8 determinano un campo di osservazione 9 secondo una prima direzione di rilevazione 10 che si incrocia con detta direzione di proiezione 4.
Anche la prima direzione di rilevazione 10 è rivolta verso l’alto, allo scopo di non inquadrare nel campo di osservazione 9 il busto dell’operatore, ma soltanto le braccia protese verso lo schermo come ad indicare un punto qualsiasi della proiezione ed in particolare le sue mani e le sue braccia rilevando in tal modo l’oggetto della proiezione con il quale l’operatore vuole interagire.
All’interno dell’involucro 5, il modulo 1 comprende quindi secondi rilevatori di immagine che, in una versione preferita, operano secondo un principio di funzionamento diverso rispetto al primo rilevatore di immagini 8.
Nel presente esempio, tali secondi rilevatori di immagine comprendono una coppia di dispositivi emettitori 20, che emettono ciascuno un fascio di ultrasuoni.
In alternativa, tali dispositivi emettitori 20 potrebbero emettere onde elettromagnetiche, in particolare microonde o di tipo laser.
I dispositivi emettitori 20 proiettano ultrasuoni secondo una seconda direzione di emissione 10’ che non coincide con detta prima direzione di emissione 10, allo scopo di investire l’operatore sostanzialmente in detto campo di osservazione.
I secondi rilevatori di immagini comprendono poi, per completare la loro funzione, almeno un rispettivo sensore per il rilievo di detti un ultrasuoni e/o onde elettromagnetiche di ritorno da detto operatore P nel campo di osservazione 9 secondo una direzione di rilevazione che coincide sostanzialmente con detta seconda direzione di emissione 10’. In particolare, dette prime e seconde direzioni di rilevazione 10 e di emissione 10’ sono sostanzialmente concordi ma sono comunque sfalsate tra loro, allo scopo di fornire una rilevazione più efficiente secondo tre coordinate spaziali x, y, z, con l’aggiunta in particolare del senso della profondità, e non solamente secondo due coordinate di un piano frontale ad un unico rilevatore nel campo di osservazione 9.
La differente tipologia del primo e dei secondi rilevatori di immagini migliora ulteriormente la qualità dell’interpretazione dell’immagine, perché la scarsa efficienza dell’uno può essere compensato dall’altro.
Ad esempio, gli infrarossi rilevano bene parti del corpo umano, mentre gli ultrasuoni sono più adatti per oggetti inanimati e/o in movimento.
Il modulo 1 contiene quindi un elaboratore 11 che è connesso a detti rilevatori di immagini e a detto proiettore 2, e che contiene un apposito software di riconoscimento di immagini alimentato dal flusso di informazioni relative ai movimenti di quanto visualizzato nel campo di osservazione 9, ad esempio le mani e le braccia dell’operatore, il corpo dell’operatore, un oggetto sorretto dall’operatore e così via.
Tale software è quindi in grado, una volta riconosciute le immagini, di tradurle in una serie di comandi di ingresso che vengono usate per variare le immagini proiettate interattivamente ai movimenti dell’operatore.
L’involucro 5 mantiene rilevatori 8, 20 e proiettore 2 in una posizione reciproca prefissata, in modo tale che detto campo di osservazione 9 sia sostanzialmente fisso rispetto all’operatore P, che non può quindi interagire con il modulo 1 se non si trova nella posizione corretta.
A tale proposito, nel presente esempio di realizzazione l’involucro 5 presenta un’estensione verticale, sostanzialmente una parete, che costituisce un limite inferiore di mascheratura del campo di rilevamento del sensore ed allo stesso tempo impedisce all’operatore di interferire con il fascio luminoso delle immagini proiettate sulla parete.
Nel presente esempio di realizzazione, l’elaboratore 11 è compreso all’interno dell’involucro 5, affinché il modulo 1 sia fisicamente costituito da esso e dal suo contenuto. In particolare, nella memoria dell’elaboratore possono essere immagazzinate le sequenze di immagini da proiettare in base ai comandi dell’operatore P. A tale proposito, il proiettore 2 sarà di tipo digitale.
Nell’esempio, il rilevatore 8 sarà nascosto da un coperchio 13 adiacente a detta estensione 12, fornito di una finestrella 14 che definisce, assieme ad una speciale ottica, l’ampiezza del campo di osservazione.
Il modulo 1 sopra descritto potrà essere impiegato per realizzare un ambiente di realtà virtuale. Più moduli potranno essere affiancati per ampliare il loro effetto, con le aree di proiezione affiancate fino a costituire un’unica area.
Tale sistema si presta per la realizzazione di una biblioteca virtuale, di un espositore pubblicitario, di una mostra di quadri o fotografie virtuali di un videogioco ecc. a questo proposito il software verrà predisposto per riconoscere, in aggiunta o in alternativa a mani e braccia, anche un qualche attrezzo di gioco, come ad esempio una racchetta da tennis o da ping-pong.
In ogni caso, non è previsto alcun contatto tra operatore e modulo o tra operatore e area di proiezione. Inoltre, l’operatore non dovrà ne potrà interferire con il fascio luminoso che viene proiettato. Infine, l’operatore non dovrà essere addestrato all’uso di un qualche strumento di interazione o di comando, ma gli sarà semplicemente richiesto di compiere quei gesti che compirebbe nella realtà.
In figura 2, è illustrata un’ipotesi di impiego: il proiettore proietta l’immagine di una libreria virtuale, piena di libri pronti da consultare, con il titolo in evidenza sul frontespizio.
Per effettuare la consultazione, l’operatore potrà semplicemente allungare la mano verso il libro che desidera, è ritrarla.
Tali gesti verranno interpretati di conseguenza e, in base alla posizione della mano, verrà proiettata l’immagine dell’estrazione del libro scelto, e la sua apertura.
Dopodiché, l’operatore, muovendo le mani come per sfogliare le pagine, potrà effettivamente variare le immagini proiettate come se le pagine venissero effettivamente girate.
Con una sequenza naturale di movimenti, l’operatore potrà quindi riporre il libro e sceglierne un altro.
Tale sistema potrà essere quindi impiegato per utilizzare un qualunque ambiente a realtà virtuale, fornito di icone. I gesti dell’operatore semplicemente sostituiranno il puntatore e gli consentiranno di interagire con il sistema.
Ovviamente, possono essere immaginati innumerevoli contesti in cui questo modulo potrà essere impiegato.
Con riferimento alle figure 4, 5, viene ora descritto un secondo esempio di realizzazione di modulo interattivo 1, in cui i medesimi riferimenti numerici indicano parti analoghe o corrispondenti. In questo esempio, il modulo 1 è racchiuso in un involucro 30 destinato ad essere fissato a soffitto.
Esso racchiude un proiettore 2 di tipo digitale, che proietta l’immagine su uno schermo 3 secondo una direzione di proiezione frontale 4.
In posizione frontale sull’involucro 30, il modulo 1 comprende un primo rilevatore di immagini 8, ovvero un sensore di rilevamento a raggi infrarossi come nell’esempio precedente.
Nuovamente, la posizione e l’orientamento del rilevatore 8 determinano un campo di osservazione 9 secondo una direzione di rilevazione 10 al di sotto dell’involucro 30. In questo caso, la direzione di rilevazione 10 è rivolta verso il basso e può inquadrare quindi un’area arretrata rispetto allo schermo 3 dove incide il fascio di proiezione 4 del proiettore 2, in modo da inquadrare un operatore P in quest’area superiormente, in un campo di osservazione 9 che, in questo esempio, può anche contenere la figura intera dell’operatore P, cioè tutto il suo corpo.
In corrispondenza di detto primo rilevatore di immagini 8, il modulo 1 comprende anche secondi rilevatori di immagini, con funzione e dettagli analoghi a quelli dell’esempio precedente.
Tali secondi rilevatori comprendono quindi una coppia di dispositivi emettitori 20 che emettono rispettivamente un fascio di ultrasuoni o onde elettromagnetiche, in particolare microonde o di tipo laser, secondo una direzione di emissione 10’ allo scopo di investire l’operatore sostanzialmente in detto campo di osservazione.
Tali dispositivi emettitori 20 integrano almeno un rispettivo sensore per il rilievo di detti un ultrasuoni e/o onde elettromagnetiche di ritorno da detto operatore P nel campo di osservazione 9 secondo una direzione di rilevazione che coincide sostanzialmente con detta direzione di emissione 10’. In particolare, dette direzioni di rilevazione 10 e di emissione 10’ sono sostanzialmente concordi ma sfalsate, per lo stesso scopo descritto in precedenza.
Il modulo 1 contiene nell’involucro 30 un elaboratore 11 che è connesso a detto rilevatore di immagini 8, a detto sensore e a detto proiettore 2, e che contiene un software di riconoscimento di immagini alimentato dal flusso di informazioni relative ai movimenti del corpo dell’operatore, come descritto per l’esempio precedente.
Tale software è quindi in grado, una volta riconosciute le immagini, di tradurle in una serie di comandi di ingresso che vengono usate per variare le immagini proiettate interattivamente ai movimenti dell’operatore.
Rispetto al precedente esempio, l’operatore P si trova però in un’area sostanzialmente non delimitata, e può compiere quindi una vasta gamma di gesti che vengono interpretati dall’elaboratore 11.
Analogamente al precedente, anche questo modulo potrà essere impiegato per realizzare un ambiente di realtà virtuale. Più moduli potranno essere affiancati per ampliare il loro effetto, con le aree di proiezione affiancate fino a costituire un’unica area.
S’intende inoltre che il modulo 1 si presta ad essere disposto, in qualsiasi modalità, in una qualunque posizione sopraelevata rispetto all’operatore.
Inoltre, l’involucro 30 è costruito in modo da poter essere sospeso, in particolare a soffitto, e per contenere al suo interno tutte le componenti del modulo 1 integrate tra loro, da cui fuoriesce solamente il cavo dell’alimentazione elettrica.
In questo caso, tutto il sistema è integrato in un unico contenitore che racchiude in sé tutto il necessario e quindi non necessita di cablaggi ne di installazione da parte di personale specializzato. Il sistema può essere gestito a distanza mediante una apposita consolle di tipo wireless portatile. Questo comporta i seguenti vantaggi: il sistema è tutto integrato in un unico contenitore ed è molto più compatto ed elegante; e non ci sono antiestetici cablaggi esterni eccetto l’allaccio alla rete elettrica.
Il sistema quindi può essere del tipo plug and play, in quanto basta collegare la tensione di rete ed è già funzionante. Esso non richiede opere murarie né installazione e quindi può essere posizionato anche all’interno di musei storici. Inoltre, esso è molto flessibile in quanto in caso di necessità e possibilità tutto l’apparato può essere installato a soffitto lasciando libero da qualsiasi ingombro il pavimento e l’area sottostante.
L’installazione risulta molto più semplice e realizzabile anche da personale non esperto e non vengono richieste capacità manuali che non tutti posseggono.
Con riferimento alla figura 6, viene descritto un terzo ed ultimo esempio di modulo 1, anch’esso sospeso a soffitto ed in gran parte analogo al precedente.
Tuttavia, in questo esempio, il proiettore 2 proietta il suo fascio attraverso un specchio che riflette il fascio al suolo, che costituisce la superficie di destinazione della proiezione.
Per ciò che concerne l’impiego dell’ultimo esempio di modulo interattivo, se l’operatore cammino sotto di esso, questo sarà in grado di distinguere non solo il passaggio ma anche movimento con la mano oppure con il piede. Quindi, se prendiamo ad esempio un campo di fiori virtuali che si schiacciano al passaggio con il piede, un gesto con la mano potrebbe essere interpretato comprendendo la differenza di movimento, rappresentando quindi la simulazione della raccolta del fiore anziché lo schiacciamento. Quindi, integrando le diverse tecnologie di rilevazione potrà essere raggiunta la precisione di rilevamento voluta in base alle diverse esigenze.
Negli esempi precedenti e nell’ultimo, la soluzione adottata permetterà di distinguere l’altezza della mano, ad esempio che sceglie un libro e quindi distinguere meglio e più precisamente lo scaffale lungo l’asse y (altezza) e z (profondità), oppure individuare esattamente un pulsante virtuale da azionare sullo schermo.
Solo l’utilizzo della soluzione a doppia (o tripla) tecnologia di rilevazione di immagini potrà far capire al sistema a quale altezza di scaffale potrà trovarsi un libro da scegliere e potrà dare la possibilità di scegliere un libro piuttosto che quello soprastante in modo preciso.
Inoltre la differente tipologia di rilevamento permette ad un software sofisticato di discriminare eventuali disturbi individuando esattamente ed esclusivamente il movimento desiderato.
Tale sistema potrà essere quindi impiegato per utilizzare un qualunque ambiente a realtà virtuale, fornito d’icone. I gesti dell’operatore sostituiranno semplicemente il puntatore e gli consentiranno di interagire con il sistema.
Ovviamente, possono essere immaginati innumerevoli contesti in cui questi moduli potranno essere impiegati.
Si intende infine che uno dei due rilevatori di immagini potrebbe essere una telecamera digitale con funzione di riconoscimento dell’immagine.
Ai sopra descritti moduli proiettore interattivo un tecnico del ramo, allo scopo di soddisfare ulteriori e contingenti esigenze, potrà apportare numerose ulteriori modifiche e varianti, tutte peraltro comprese nell'ambito di protezione della presente invenzione, quale definito dalle rivendicazioni allegate.

Claims (8)

  1. RIVENDICAZIONI 1. Modulo (1) proiettore interattivo, in particolare per proiettare immagini gestibili da un operatore (P), comprendente: • un proiettore (2), che proietta immagini su uno schermo (3) secondo una direzione di proiezione (4); • almeno un primo rilevatore di immagini (8), che rileva immagini in un campo di osservazione (9) secondo una prima direzione di rilevazione (10) rispetto a detta direzione di proiezione (4); • almeno un secondo rilevatore di immagini (20) che rileva immagini in detto campo di osservazione (9) secondo una seconda direzione di rilevazione (10’) sfalsata rispetto a detta prima direzione di proiezione; e • un elaboratore (11), connesso a detti rilevatori di immagini (8, 20) e a detto proiettore (2), che contiene un software di riconoscimento di immagini, in modo tale che quanto rilevato in detto campo di osservazione (9) viene tradotto in un comando di ingresso per detto proiettore (2) che varia conseguentemente le immagini proiettate.
  2. 2. Modulo (1) secondo la rivendicazione 2, in cui detti primo e secondo rilevatore di immagini (8, 20) operano in base a tecnologie differenti.
  3. 3. Modulo (1) secondo una qualsiasi delle rivendicazioni precedenti, in cui detto primo rilevatore (8) è un sensore di rilevamento a raggi infrarossi.
  4. 4. Modulo (1) secondo una qualsiasi delle rivendicazioni precedenti, in cui il secondo rilevatore di immagini comprende un dispositivo emettitore (20) che emette ultrasuoni e/o onde elettromagnetiche destinate ad interferire attivamente con detto operatore (P) secondo una direzione di emissione (10’), operante in combinazione con almeno un sensore per il rilievo di detti un ultrasuoni e/o onde elettromagnetiche di ritorno da detto operatore (P) in un campo di osservazione (9).
  5. 5. Modulo (1) secondo la rivendicazione 1, che comprende un involucro (5; 30) rigido che presenta una base di supporto e che contiene il proiettore (2), il dispositivo emettitore (20), il rilevatore di immagini (8), mantenendoli in una posizione reciproca prefissata, e detto elaboratore (11).
  6. 6. Modulo (1) secondo la rivendicazione 1, in cui detto software di riconoscimento di immagini è predisposto per riconoscere immagini dinamiche come il movimento di mani e/o braccia e/o di altri oggetti.
  7. 7. Modulo (1) secondo la rivendicazione 1, in cui l’elaboratore (11) contiene una memoria in cui sono immagazzinate le immagini da proiettare, collegata a detto proiettore (8) di tipo digitale.
  8. 8. Modulo (1) secondo una qualsiasi delle rivendicazioni precedenti, in cui l’involucro (30) è predisposto per essere posizionato in posizione sopraelevata rispetto ad un operatore (P), detto software di riconoscimento di immagini essendo predisposto per riconoscere immagini dinamiche dell’intera figura dell’operatore (P) e/o di altri oggetti.
IT000153A 2009-04-01 2009-04-01 Modulo integrato di proiettore interattivo ITRM20090153A1 (it)

Priority Applications (1)

Application Number Priority Date Filing Date Title
IT000153A ITRM20090153A1 (it) 2009-04-01 2009-04-01 Modulo integrato di proiettore interattivo

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
IT000153A ITRM20090153A1 (it) 2009-04-01 2009-04-01 Modulo integrato di proiettore interattivo

Publications (1)

Publication Number Publication Date
ITRM20090153A1 true ITRM20090153A1 (it) 2010-10-02

Family

ID=41170993

Family Applications (1)

Application Number Title Priority Date Filing Date
IT000153A ITRM20090153A1 (it) 2009-04-01 2009-04-01 Modulo integrato di proiettore interattivo

Country Status (1)

Country Link
IT (1) ITRM20090153A1 (it)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5515079A (en) * 1989-11-07 1996-05-07 Proxima Corporation Computer input system and method of using same
EP1087327A2 (en) * 1999-09-21 2001-03-28 Seiko Epson Corporation Interactive display presentation system
US20020186221A1 (en) * 2001-06-05 2002-12-12 Reactrix Systems, Inc. Interactive video display system
EP1441514A2 (en) * 2003-01-21 2004-07-28 Hewlett-Packard Development Company, L.P. Interactive image projector
US20040183775A1 (en) * 2002-12-13 2004-09-23 Reactrix Systems Interactive directed light/sound system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5515079A (en) * 1989-11-07 1996-05-07 Proxima Corporation Computer input system and method of using same
EP1087327A2 (en) * 1999-09-21 2001-03-28 Seiko Epson Corporation Interactive display presentation system
US20020186221A1 (en) * 2001-06-05 2002-12-12 Reactrix Systems, Inc. Interactive video display system
US20040183775A1 (en) * 2002-12-13 2004-09-23 Reactrix Systems Interactive directed light/sound system
EP1441514A2 (en) * 2003-01-21 2004-07-28 Hewlett-Packard Development Company, L.P. Interactive image projector

Similar Documents

Publication Publication Date Title
US11550401B2 (en) Virtual or augmediated topological sculpting, manipulation, creation, or interaction with devices, objects, materials, or other entities
US10866632B2 (en) Interaction engine for creating a realistic experience in virtual reality/augmented reality environments
US10921949B2 (en) User interface for integrated gestural interaction and multi-user collaboration in immersive virtual reality environments
US20220277527A1 (en) Rerendering a position of a hand to decrease a size of a hand to create a realistic virtual/augmented reality environment
US11875012B2 (en) Throwable interface for augmented reality and virtual reality environments
Petrasova et al. Tangible modeling with open source GIS
Lau et al. Situated modeling: a shape-stamping interface with tangible primitives
JP6629528B2 (ja) 仮想現実表示システム、仮想現実表示方法及びコンピュータプログラム
GB2554914A (en) Virtual reality system and method
Thomas et al. Spatial augmented reality—A tool for 3D data visualization
van Eck et al. The augmented painting: playful interaction with multi-spectral images
Johnson et al. Developing the paris: Using the cave to prototype a new vr display
Lapides et al. The 3d tractus: A three-dimensional drawing board
Eriksson et al. Movement-based interaction in camera spaces: a conceptual framework
ITRM20090153A1 (it) Modulo integrato di proiettore interattivo
Kim et al. SensorViz: Visualizing Sensor Data Across Different Stages of Prototyping Interactive Objects
Bonanni et al. Handsaw: tangible exploration of volumetric data by direct cut-plane projection
Fjeld et al. Design and evaluation of four ar navigation tools using scene and viewpoint handling
Apollonio et al. Visualizing the smallest details: the digital replica of the Annunciation by Beato Angelico
Wöldecke et al. RadarTHEREMIN-Creating musical expressions in a virtual studio environment
JP2020013584A (ja) 仮想現実表示システム、仮想現実表示方法及びコンピュータプログラム
Cowden et al. Home design in an immersive virtual environment
Ye et al. PaperTouch: Tangible Interfaces through Paper Craft and Touchscreen Devices
CN108733200A (zh) 一种ar屏幕体感控制权分配方法
JP2004021848A (ja) 建築物設計システム、プラント設計システム、及び3次元構造体観察システム。