DE10110487A1 - Eingabevorrichtung zur Interaktion mit und Navigation in einer mehrdimensionalen virtuellen Welt - Google Patents
Eingabevorrichtung zur Interaktion mit und Navigation in einer mehrdimensionalen virtuellen WeltInfo
- Publication number
- DE10110487A1 DE10110487A1 DE10110487A DE10110487A DE10110487A1 DE 10110487 A1 DE10110487 A1 DE 10110487A1 DE 10110487 A DE10110487 A DE 10110487A DE 10110487 A DE10110487 A DE 10110487A DE 10110487 A1 DE10110487 A1 DE 10110487A1
- Authority
- DE
- Germany
- Prior art keywords
- virtual
- movement
- virtual world
- interaction
- navigation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/02—Input arrangements using manually operated switches, e.g. using keyboards or dials
- G06F3/0202—Constructional details or processes of manufacture of the input device
- G06F3/0216—Arrangements for ergonomically adjusting the disposition of keys of a keyboard
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0354—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
- G06F3/03549—Trackballs
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Position Input By Displaying (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Die Erfindung betrifft eine Eingabevorrichtung zur Interaktion mit und Navigation in einer mehrdimensionalen virtuellen Welt, mit einer die mehrdimensionale virtuelle Welt generierenden und auf einem Anzeigegerät projizierenden Recheneinheit und mit zumindest einem die Navigation in und die Interaktion mit der mehrdimensionalen virtuellen Welt ermöglichenden Handgerät. Eine gleichzeitige Navigation und Interaktion mit nur einem Handgerät wird dadurch vereinfacht, daß das Handgerät mindestens zwei unterschiedliche Bewegungsarten in der virtuellen Welt unterstützt, wobei die unterstützte Bewegungsart abhängig von der genutzten Bedienseite des Handgerätes ist, und daß das Handgerät die Eingabe eines Benutzers unter Berücksichtigung der jeweils unterstützten Bewegungsart in Navigationsinformationen und Interaktionsinformationen umsetzt.
Description
Die Erfindung betrifft eine Eingabevorrichtung, ein Verfahren, sowie die Verwendung
derer zur Interaktion mit und Navigation in einer mehrdimensionalen virtuellen Welt, mit
einer die mehrdimensionale virtuelle Welt generierenden und auf einem Anzeigegerät
projizierenden Recheneinheit und mit zumindest einem die Navigation in und die
Interaktion mit der mehrdimensionalen virtuellen Welt ermöglichenden Handgerät.
Bekannte Eingabevorrichtungen ermöglichen sowohl die Navigation mit als auch die
Interaktion in mehrdimensionalen virtuellen Welten. Zur Navigation in mehrdimensionalen
virtuellen Welten wird vorzugsweise eine 3D-Maus genutzt. Diese 3D-Maus ermöglicht
dem Benutzer eine Navigation in der mehrdimensionalen virtuellen Welt in drei
translatorischen und drei rotatorischen Freiheitsgraden. Der Benutzer kann somit mit Hilfe
der 3D-Maus die virtuelle Position in der mehrdimensionalen virtuellen Welt verändern,
als auch die Blickrichtung in der virtuellen Welt beeinflussen. Entsprechend der Position
und der Blickrichtung in der virtuellen Welt wird auf einer Anzeigeeinheit ein Abbild der
virtuellen Welt projiziert. Die Anzeige der virtuellen Welt verändert sich entsprechend den
Bewegungen der 3D-Maus. Hierbei werden die realen Bewegungen der 3D-Maus in die
virtuelle Welt so umgesetzt, daß die Bewegungen der 3D-Maus den Bewegungen eines
virtuellen Betrachters entsprechen. Die Anzeige der virtuellen Welt wird bei der
Bewegung der 3D-Maus so umgesetzt, als bewege sich der virtuelle Beobachter in der
virtuellen Welt. Möchte der Benutzer in der virtuellen Welt interagieren, z. B. Objekte
bewegen, muß er sich selbst so bewegen, daß er sich entsprechend zum Objekt
positioniert. Dies ist für unerfahrene Benutzer schwierig. Bekannt ist, daß zur
Objektbewegung ein getrackter Stift genutzt wird.
Aus der beschriebenen Problematik ergibt sich für die Erfindung das technische Problem,
eine Eingabevorrichtung zur Verfügung zu stellen, welche die gleichzeitige Navigation
und Interaktion mit nur einem Handgerät vereinfacht.
Das aufgezeigte technische Problem wird erfindungsgemäß dadurch gelöst, daß das
Handgerät mindestens zwei unterschiedliche Bewegungsarten in der virtuellen Welt
unterstützt, wobei die unterstützte Bewegungsart abhängig von der genutzten
Bedienseite des Handgerätes ist und daß das Handgerät die Eingabe eines Benutzers
unter Berücksichtigung der jeweils unterstützten Bewegungsart in
Navigationsinformationen und Interaktionsinformationen umsetzt. Der Vorteil einer
erfindungsgemäßen Eingabevorrichtung ergibt sich nunmehr daraus, daß der Benutzer
anhand der von ihm genutzten Bedienseite des Handgerätes erkennt, welche
Bewegungsart unterstützt wird. Ihm fällt es somit leichter, die auf dem Anzeigegerät
projizierten Veränderungen der virtuellen Welt mit den von ihm vorgenommenen
Bewegungen des Handgerätes in Verbindung zu setzen.
In bevorzugter Weise bestimmen die Orientierung und die Positionierung des
Handgerätes im realen Raum auf einer Bedienseite die Orientierung und Blickrichtung in
der virtuellen Welt und die Recheneinheit projiziert die virtuelle Welt entsprechend der
Orientierung und Blickrichtung in der virtuellen Welt auf dem Anzeigegerät. Diese
sogenannte "CAMERA IN HAND" Bewegungsart vermittelt dem Benutzer den Eindruck,
afs schaue er durch den Sucher einer Kamera, welche durch das Handgerät repräsentiert
wird. Die Bewegung des Handgerätes verändert die Anzeige der virtuellen Welt so, als
bewege der Benutzer sich selber durch die virtuelle Welt. Der Benutzer kann das
Handgerät nun wie eine Kamera handhaben, wodurch ihm die Interpretation der von ihm
ausgelösten Veränderungen der Anzeige der virtuellen Welt erleichtert wird. Die
Tatsache, daß mit dieser genutzten Bedienseite nur diese eine Bewegungsart unterstützt
wird, erleichtert dem Benutzer zusätzlich die Interpretation der Anzeige der virtuellen
Welt, da er sich darauf verlassen kann, daß diese von ihm genutzte Bedienseite nur diese
eine Bewegungsart unterstützt.
Zur Interaktion mit virtuellen Objekten wird in bevorzugter Weise eine Eingabevorrichtung
genutzt, bei der das Handgerät auf einer Bedienseite ein Interaktionsbedienelement
aufweist, wobei die Recheneinheit die realen Bewegungen des
Interaktionsbedienelementes in virtuelle Bewegungen eines virtuellen Objekts umsetzt.
Diese sogenannte "OBJECT IN HAND" Bewegungsart vermittelt dem Benutzer den
Eindruck, er halte anstelle des Interaktionsbedienelementes das virtuelle Objekt in der
Hand. Bewegungen des Interaktionsbedienelementes werden in Bewegungen des
virtuellen Objektes umgesetzt und auf der Anzeigeeinheit angezeigt. Der Benutzer kann
so das virtuelle Objekt bewegen und in die von ihm gewünschte Position bringen. Da
diese Bedienseite nur diese eine Bewegungsart unterstützt, wird vom Benutzer nicht
mehr verlangt, die Kopplung zwischen realer Bewegung und virtueller Bewegung zu
interpretieren.
Zur Erleichterung der Navigation und Interaktion wird vorgeschlagen, daß die
Recheneinheit die reale Bewegung des Handgerätes unter Berücksichtigung zumindest
eines Freiheitsgrades in eine virtuelle Bewegung umsetzt. Ein ungeübter Benutzer wird
sicherlich überfordert sein, wenn die Bewegungen des Handgerätes in den drei
translatorischen als auch den drei rotatorischen Bewegungsfreiheitsgraden gleichzeitig
umgesetzt werden. Um ihm die Navigation zu erleichtern, filtert die Recheneinheit reale
Bewegungen in bestimmten Bewegungsfreiheitsgraden heraus und setzt diese nicht in
virtuelle Bewegungen um. Zwar werden dadurch die Möglichkeiten zur Navigation und
Interaktion in der virtuellen Welt eingeschränkt, jedoch fällt es dem Benutzer leichter, in
der virtuellen Welt zu navigieren und mit ihr zu interagieren. Die Recheneinheit kann reale
Bewegungen wahlweise in einem, bis hin zu sechs Bewegungsfreiheitsgraden in virtuelle
Bewegungen umsetzen.
Weiterhin wird zur Erleichterung der Navigation und Interaktion in der virtuellen Welt
vorgeschlagen, daß die Recheneinheit die reale Bewegung des Handgerätes entkoppelt
und in eine virtuelle Bewegung umsetzt. Die Entkopplung bewirkt, daß nur Bewegungen
in jeweils einem Bewegungsfreiheitsgrad möglich sind. Nachdem eine Bewegung in
einem Bewegungsfreiheitsgrad abgeschlossen ist, kann eine weitere Bewegung in einem
beliebigen anderen Freiheitsgrad durchgeführt werden. So kann beispielsweise zunächst
eine Bewegung in nur einem translatorischen Bewegungsfreiheitsgrad durchgeführt
werden und im Anschluß daran eine Bewegung in einem rotatorischen Freiheitsgrad
durchgeführt werden, was zunächst einer Änderung der Positionierung und im Anschluß
daran einer Änderung des Blickwinkels in der virtuellen Welt entspricht.
Es wird vorgeschlagen, daß die Recheneinheit die realen Bewegungen des Handgerätes
sowohl geschwindigkeitsgesteuert als auch weggesteuert umsetzt. Bei der
weggesteuerten Umsetzung der realen Bewegung in virtuelle Bewegungen entsprechen
die virtuellen Bewegungen der tatsächlichen Veränderung der Position und der
Orientierung des Handgerätes. Dadurch ist eine genaue und feinfühlige Navigation und
Interaktion in der virtuellen Welt möglich. Bei der geschwindigkeitsgesteuerten
Umsetzung der realen Bewegung in virtuelle Bewegungen wird die Auslenkung des
Handgerätes aus einer Ruhelage in eine virtuelle Bewegung mit konstanter oder
beschleunigter Geschwindigkeit umgesetzt. Die geschwindigkeitsgesteuerte Umsetzung
ermöglicht eine schnelle Navigation in der virtuellen Welt.
In einer vorteilhaften Ausgestaltung weist das Handgerät eine Anzeige auf, wobei die
Anzeige entsprechend der genutzten Bedienseite ein optisches Signal anzeigt. Dem
Benutzer wird
anhand des optischen Signals angezeigt, welche Bedienseite aktiviert ist. Dadurch hat
der Benutzer den Vorteil, stets darüber informiert zu sein, welche Bewegungsart vom
Handgerät unterstützt wird. Er muß nicht mehr aufgrund der Anzeige der virtuellen Welt
und der Interpretation seiner Bewegungen die unterstützte Bewegungsart erkennen.
Ein weiterer Gegenstand der Erfindung ist ein Verfahren zur Erfassung von
Benutzereingaben zur Interaktion mit und Navigation in einer mehrdimensionalen
virtuellen Welt, bei welchem mit Hilfe einer Recheneinheit die mehrdimensionale virtuelle
Welt generiert und auf eine Anzeigeeinheit projiziert wird und mit Hilfe eines Handgerätes
Interaktionseingaben und Navigationseingaben erfaßt werden, welches sich dadurch
kennzeichnet, daß durch das Handgerät mindestens zwei unterschiedliche
Bewegungsarten unterstützt werden und daß die Eingaben eines Benutzers in
Abhängigkeit der jeweils unterstützten Bewegungsart in Navigationsinformationen und
Interaktionsinformationen umgesetzt werden. Dieses Verfahren ermöglicht die
Unterstützung unterschiedlicher Bewegungsarten mit Hilfe nur eines einzelnen Gerätes.
Der Benutzer kann mit Hilfe eines einzelnen Gerätes nunmehr in der virtuellen Welt
navigieren und interagieren, ohne die jeweils aktuell unterstützte Bewegungsart
eigenständig interpretieren zu müssen. Hierzu wird ihm anhand der benutzten
Bedienseite eine Hilfestellung gegeben.
In bevorzugter Weise wird ein Verfahren angewandt, bei welchem bei einer
Bewegungsart aus der Positionierung und der Orientierung des Handgerätes die
Positionierung und Blickrichtung in die virtuelle Welt errechnet wird und auf die
Anzeigeeinheit projiziert wird. Diese Bewegungsart entspricht der sogenannten
"CAMERA IN HAND" Bewegungsart. Mit Hilfe dieses Verfahrens ist es dem Benutzer
möglich, die virtuelle Welt so zu erkunden, als schaue er durch den Sucher einer Kamera.
Auf der Anzeigeeinheit wird entsprechend der Positionierung und Orientierung des
Handgerätes ein Ausschnitt aus der virtuellen Welt angezeigt.
Eine Bewegungsart bei welcher mit Hilfe eines Interaktionsbedienelementes eine
Interaktion mit einem virtuellen Objekt ausgelöst wird und auf der Anzeigeeinheit
angezeigt wird, liegt einem weiteren bevorzugten Verfahren zugrunde. Dieses Verfahren,
welches bei der Verwendung einer Bedienseite des Handgerätes angewandt wird,
entspricht der sogenannten Bewegungsart "OBJECT IN HAND". Bei dieser
Bewegungsart kann der Benutzer mit Hilfe des Interaktionsbedienelementes ein virtuelles
Objekt in der virtuellen Welt bewegen, in dem er eine reale Bewegung mit dem
Interaktionsbedienelement durchführt. Mit Hilfe dieses Verfahrens ist es für den Benutzer
möglich, virtuelle Objekte aus verschiedenen Blickwinkeln und Entfernungen zu
betrachten.
Bei einem weiteren bevorzugten Verfahren, bei welchem mit Hilfe des Handgerätes ein
virtueller Punkt bestimmt wird und die virtuelle Position mit dem bestimmten virtuellen
Punkt in Übereinstimmung gebracht wird und entsprechend der virtuellen Position die
virtuelle Welt auf der Anzeigeeinheit angezeigt wird, ist es für den Benutzer möglich, von
einem Punkt in der virtuellen Welt zu einem zweiten Punkt in der virtuellen Welt zu
springen. Diese Navigation ermöglicht dem Benutzer ein unmittelbares Wechseln seiner
Betrachterposition, ohne zuvor die virtuelle Wegstrecke zurückgelegt zu haben. Diese
sogenannte Bewegungsart "Teleportation" ermöglicht eine schnelle Navigation in der
virtuellen Welt.
Ein weiterer Gegenstand der Erfindung ist die Verwendung einer Eingabevorrichtung
sowie eines Verfahrens nach einem der Ansprüche 1 bis 13 in der
Kraftfahrzeugentwicklung. Durch die Verwendung des erfindungsgemäßen Verfahrens
und der erfindungsgemäßen Vorrichtung ist es in der Kraftfahrzeugentwicklung möglich,
daß die verschiedensten Benutzer sehr leicht in einer virtuellen Welt navigieren können
und somit beispielsweise Design Reviews durchführen können. Es ist nicht notwendig,
daß ein Benutzer der virtuellen Welt ein Experte auf dem Gebiet der virtuellen Welt sein
muß. Nach einer kurzen Einweisung können beispielsweise Designer, Konstrukteure und
Marketingexperten in der virtuellen Welt mit Hilfe der erfindungsgemäßen
Eingabevorrichtung und des erfindungsgemäßen Verfahrens navigieren und interagieren.
Die vorliegende Erfindung wird im folgenden anhand von Ausführungsbeispielen näher
erläutert, wobei auf die Zeichnung bezug genommen wird. In der Zeichnung zeigen:
Fig. 1 die Kopplung zwischen Eingabevorrichtung und Anzeigeeinheit einer Mensch-
Maschine-Schnittstelle;
Fig. 2 schematische Darstellung eines erfindungsgemäßen Ortungsverfahrens;
Fig. 3 eine Seitenansicht eines erfindungsgemäßen Handgerätes;
Fig. 4-6 Seitenansichten eines erfindungsgemäßen Handgerätes;
Fig. 7a-e Seitenansichten eines erfindungsgemäßen Handgerätes sowie eine damit
verbundenen Basisstation;
Fig. 8 ein modularer Aufbau von erfindungsgemäßen Basisstationen;
Fig. 9 ein Aufbau eines erfindungsgemäßen Ortungssystems und
Fig. 10 eine Darstellung eines erfindungsgemäßen Verfahrens zur Markierung von
virtuellen Objekten.
Bei der Entwicklung von Kraftfahrzeugen ist es bisher üblich, tatsächliche Modelle von
Entwürfen herzustellen und die Entwürfe anhand der realen Modelle zu überprüfen. Jede
Änderung eines Entwurfs ist mit einer kostenintensiven Änderung des Modells
verbunden.
Die Entwicklung von Kraftfahrzeugprototypen mit Hilfe von virtuellen Modellen ermöglicht
eine einfache Veränderung der Prototypen und damit eine schnelle Entwicklung von
neuen Kraftfahrzeugen. Die virtuelle Welt stellt eine neue Generation von Mensch-
Maschine-Schnittstelle dar, die das sinnliche Erlebbarmachen von virtuellen Räumen und
Gegenständen ermöglicht. Mit Hilfe von geeigneten Eingabevorrichtungen sowie
geeigneter Eingabeverfahren ist es möglich, sich scheinbar real in der virtuellen Welt zu
bewegen und mit der virtuellen Welt zu interagieren.
Zwischen Eingabe von Navigationsinformationen und Interaktionsinformationen und der
damit verbundenen Ausgabe der Ansicht der virtuellen Welt besteht eine Kopplung, wie
sie in Fig. 1 dargestellt ist. Über die Mensch-Maschine-Schnittstelle 100 werden
Navigations- und Interaktionsinformationen zwischen einer Eingabevorrichtung 102 und
einer Recheneinheit 104 ausgetauscht. Eingaben eines Benutzers führen zu einer
Veränderung der virtuellen Welt, welche dem Benutzer über eine visuelle Rückkopplung
angezeigt wird. Entsprechend der visuellen Ausgabe 122 der virtuellen Welt wird vom
Benutzer eine Eingabe 108 ausgelöst. Die Benutzereingaben 108 werden mit Hilfe von
Bedienelementen 106 ausgelöst. Die Bedienelemente 106 ermöglichen sowohl eine
Navigation 106a als auch eine Interaktion 106b mit der virtuellen Welt. Entsprechend des
Kenntnisstandes eines Benutzers 107a bis 107d stehen verschiedene Navigations- und
Interaktionsmöglichkeiten mit Hilfe der Bedienelemente 106 zur Verfügung. In der
Kenntnisstufe 107a verfügt der Benutzer über einen begrenzten Satz an
Navigationsmöglichkeiten, welcher mit zunehmender Kenntnisstufe 107b bis 107d
erweitert wird.
Ein Anfänger kann beispielsweise nur in drei translatorischen Bewegungsrichtungen
navigieren, wobei die Bewegungsrichtungen voneinander entkoppelt sind, was bedeutet,
daß eine Navigation in mehr als eine Bewegungsrichtung gleichzeitig nicht möglich ist.
Auch werden die Benutzereingaben zur Navigation in der virtuellen Welt in den
Kenntnisstufen 107a und 107b nur weggesteuert in Navigationsinformation umgesetzt.
Die weggesteuerte Umsetzung bedeutet, daß die virtuelle Bewegung der realen
Bewegung der Eingabevorrichtung 102 proportional ist. Die virtuelle Bewegung erfolgt nur
solange, wie die reale Bewegung stattfindet. Die weggesteuerte Navigation ist für den
Anfänger leicht zu beherrschen.
In den Anfängerkenntnisstufen 107a, 107b stehen dem Benutzer nur die Bewegungsarten
"CAMERA IN HAND" und "OBJECT IN HAND" zur Verfügung. Bei der "OBJECT IN
HAND" Bewegungsart kann der Benutzer ein virtuelles Objekt mit Hilfe realer
Bewegungen der Eingabevorrichtungen 102 in der virtuellen Welt drehen. Bei der
Bewegungsart "CAMERA IN HAND" kann der Benutzer mit Hilfe der Eingabevorrichtung
102 die Ansicht 122 der virtuellen Welt so verändern, als schaue er durch den Sucher
einer Kamera, welche durch die Eingabevorrichtung 102 repräsentiert wird. Zwischen den
beiden Bewegungsarten kann der Benutzer umschalten, in dem er unterschiedliche
Geräteseiten benutzt. In den Expertenkenntnisstufen 107c, 107d stehen dem Benutzer
bis zu sechs Bewegungsrichtungen parallel zur Navigation zur Verfügung. Die Anzahl der
Navigationsfreiheitsgrade ist entsprechend der Kenntnisstufe 107c, 107d, wie auch in den
Kenntnisstufen 107a, 107b, über eine Software, die aus einer Datenbank ladbar ist, zu
bestimmen. In den Expertenkenntnisstufen 107c, 107d kann die Bewegung der
Eingabevorrichtung 102 geschwindigkeitsgesteuert in eine virtuelle Bewegung umgesetzt
werden. Dies ist abhängig von der in der Datenbank gespeicherten Software und kann für
jeden Benutzer individuell angepaßt sein. Bei der geschwindigkeitsgesteuerten
Navigation wird die Auslenkung eines Referenzkörpers, hier der Eingabevorrichtung 102,
in eine Bewegung in der virtuellen Welt mit entweder konstanter oder sich mit der Größe
der Auslenkung verändernden Geschwindigkeit umgesetzt.
Zur Bewegung in der virtuellen Welt stehen in den Kenntnisstufen 107c, 107d die
Bewegungsarten "CAMERA IN HAND" und "OBJECT IN HAND" sowie
"FLYING/DRIVING CART" zur Verfügung. Bei der "FLYING CART" Bewegungsart kann
der Benutzer sich frei im Raum bewegen. Er kann dadurch gezielt einzelne Punkte in der
virtuellen Welt ansteuern, ohne eine Beschränkung der Bewegung auf nur eine Ebene.
Zur Interaktion stehen dem Benutzer verschiedene Bedienelemente 106b zur Verfügung.
Auch bei der Interaktion wird zwischen verschiedenen Kenntnisstufen 107a bis 107d
unterschieden. In der Kenntnisstufe 107a kann der Benutzer mit Hilfe eines
Bedienelementes die "CAMERA IN HAND" Bewegungsart ein- und ausschalten. Mit
einem weiteren Bedienelement ist es möglich, einen virtuellen Zeigerstrahl auszulösen.
Weiterhin kann je nach Kenntnisstufe 107a bis 107d des Benutzers mit Hilfe einer
Software eine Zoomfunktion aktiviert werden, mit deren Hilfe sich der Benutzer ein
bestimmtes virtuelles Objekt in der Ansicht zu sich heranziehen kann.
Mit wachsendem Kenntnisstufe 107c, 107d des Benutzers können weitere Funktionen
freigegeben werden. So können z. B. die Funktionen der virtuellen Menüs, bei welchem
auf der Anzeige eine Vielzahl von verfügbaren Interaktionsmöglichkeiten zur Auswahl
gestellt werden, oder eine Schnappschußfunktion, bei welcher eine Ansicht der virtuellen
Welt eingefroren werden kann, freigeschaltet werden. In den Expertenkenntnisstufen
107c, 107d sind die Interaktionsbedienelemente 106b frei programmierbar. Der Benutzer
kann mit Hilfe der Navigationsbedienelemente 106a frei in der virtuellen Welt navigieren
und Drehungen von virtuellen Objekten sowie der ganzen virtuellen Szene initiieren.
Entsprechend der Interaktionseingaben 106b erhält der Benutzer ein visuelles Echo 126.
Dieses visuelle Echo wird über die Mensch-Maschine-Schnittstelle 100 mit Hilfe der
Anzeige 122 angezeigt. Entsprechend der Navigationseingaben 106a wird die Ansicht der
virtuellen Welt verändert und dem Benutzer mit Hilfe des visuellen Echos 124 vermittelt.
Auch dieses wird dem Benutzer mit Hilfe der Anzeige 122 angezeigt. Entsprechend der
Benutzereingaben 108 wird mit Hilfe einer Recheneinheit 120 das Bild der Anzeigeeinheit
122 berechnet. Weiterhin ist für das dargestellte Bild die Position und Orientierung der
Eingabevorrichtung 102, die mit Hilfe einer Positionsermittlungseinrichtung 110 ermittelt
wird, ausschlaggebend.
Die Positionsermittlung der Eingabevorrichtung 200 wird in Fig. 2 dargestellt. Die
Eingabevorrichtung 200 verfügt über einen Infrarotsensor 202b, einen akustischen
Trackingsensor sowie einen inertialen Trackingsensor (nicht dargestellt). Der inertiale
Trackingsensor sendet bei Bedarf ein Funksignal, daß Orientierung und Positionierung
sowie eine Gerätekennung enthält, aus. Mit Hilfe des inertialen Trackingsensors wird die
Beschleunigung und die Neigung der Eingabevorrichtung 200 erfaßt. Der akustische
Trackingsensor dient der Positionsbestimmung des Handgerätes und sendet dazu
Ultraschallsignale aus. Die Ortungsvorrichtung 212 sendet über die Luftschnittstelle 204
Infrarotsignale 209a mit Hilfe des Infrarotsensors 208a an die Eingabevorrichtung 200.
Bei Empfang eines Infrarotsignals 209a mit Hilfe des Infrarotsensors 202a sendet die
Eingabevorrichtung 200 über die Antenne 209b ein Funksignal des inertialen
Trackingsensors, sowie ein Ultraschallsignal der akustischen Trackingsensors aus. Die
Funksignale und die Ultraschallsignale sind unter anderem mit einer Endgerätekennung
versehen, mit deren Hilfe eine genaue Identifizierung der Eingabevorrichtung 200 möglich
ist. Über ein Antennensystem 208b, welches in Fig. 9 dargestellt ist, kann die
Ortungsvorrichtung 212 die Position der Eingabevorrichtung 200 eindeutig bestimmen.
Das Funksignal enthält Informationen über Orientierung und Positionierung der
Eingabevorrichtung 200 sowie Informationen über Zustände von
Interaktionsbedienelementen. Durch den inertialen Trackingsensor, der einen
Beschleunigungssensor, einen Kompaß sowie einen Kreisel aufweist, läßt sich die
horizontale Orientierung bestimmen. Auch läßt sich die Wegänderung des Handgerätes
in den drei Raumachsen ermitteln. Das Funksignal sowie das Ultraschallsignal wird von
der Basisstation 210 empfangen und die darin enthaltenen Informationen werden in der
Basisstation 210 extrahiert. Die mit Hilfe der Basisstation 210 erfaßten Daten werden an
eine zentrale Recheneinheit 216 übermittelt. Außerdem werden die mit Hilfe der
Ortungsvorrichtung 212 ermittelten Positionsdaten an die zentrale Recheneinheit 216
übermittelt. Unter Berücksichtigung der ermittelten Daten errechnet die zentrale
Recheneinheit 216 in nahezu Echtzeit eine aktuelle Ansicht der virtuellen Welt, die
daraufhin auf der Anzeigeeinheit 218 dargestellt wird.
In Fig. 3 ist eine Seitenansicht einer Eingabevorrichtung 300 zu erkennen. Die
Eingabevorrichtung 300 kann von einem Benutzer mit den Fingern einer Hand 302a bis
302e umfaßt werden. Die in Fig. 3 dargestellte Benutzung der Eingabevorrichtung 300
wird bei der Bewegungsart "CAMERA IN HAND" angewandt. Die Eingabevorrichtung 300
weist eine drehbar gelagerte Kugel 304 mit einer daran angeordneten Optik 304a auf, mit
deren Hilfe die Drehung der Kugel 304 ermittelt wird. Weiterhin weist die
Eingabevorrichtung 300 einen Bereich 314 auf, in dem ein inertialer Ortungssensor
untergebracht ist. Die Bedienelemente 310 und 312 sowie 308 ermöglichen die
Interaktion mit der virtuellen Welt. Die jeweiligen Funktionen der Bedienelemente 308 bis
312 sind frei programmierbar und abhängig vom Kenntnisstand der Benutzers. Der
Bereich 316 dient der Unterbringung des akustischen Ortungssensors 404, mit dessen
Hilfe ein Signalaustausch mit der Ortungsvorrichtung 212 möglich ist. Ein Zoomrad 306,
welches als selbstzentrierendes Rad ausgeführt ist, ist ebenfalls in die
Eingabevorrichtung 300 integriert. Im Bereich 317 ist die Energieversorgung der
kabellosen Eingabevorrichtung 300 untergebracht.
In den Fig. 4 bis 6 sind weitere Seitenansichten der Eingabevorrichtung 300 zu
erkennen. Der akustische Ortungssensor 404 weist eine Öffnung auf und ist oberhalb der
Sende- und Empfangsvorrichtung 408 angeordnet. Darunter befindet sich ein Fach für die
Energieversorgung 410, welche zur Aufnahme von Batterien geeignet ist.
Der inertiale Ortungssensor 402 ist vom akustischen Ortungssensor 404 beabstandet, so
daß eine Beeinflussung der beiden Sensoren vermieden wird. Zur Analog/Digital
Wandlung der Benutzereingaben und Position und der Orientierung dient die Platine 406.
Der akustische Ortungssensor 404 weist einen Abstrahlwinkel 602 von 160° auf. Über die
Anzeige 502 erhält der Benutzer Informationen über die aktive Bedienseite.
Die in den Fig. 3 bis 6 dargestellte Eingabevorrichtung 300 funktioniert wie folgt:
Die in Fig. 3 dargestellte Haltung der Eingabevorrichtung 300 wird bei der Bewegungsart
"CAMERA IN HAND" genutzt. Wird die Eingabevorrichtung 300 um die horizontale Achse
um 90° gedreht, befindet sich die drehbar gelagerte Kugel 304 auf der Oberseite. Diese
Geräteposition erlaubt dann die Bewegungsart "OBJECT IN HAND". Zwischen den
beiden Bewegungsarten wird mit Hilfe des Schalters 502 umgeschaltet. Außerdem gibt
der Schalter 502 dem Benutzer eine visuelle Rückkopplung, welche Geräteseite aktiv ist.
Bei der Bewegungsart "CAMERA IN HAND" bewegt der Benutzer sich durch den realen
Raum und die Ansicht der virtuellen Welt wird entsprechend der Position und
Orientierung der Eingabevorrichtung 300 verändert. Die Eingabevorrichtung 300 wird wie
eine Kamera genutzt und die Anzeige entspricht einem von einer Kamera in der Position
der Eingabevorrichtung 300 aufgenommenen Bild der virtuellen Welt. Mit dem
Bedienelement 308 läßt sich ein virtueller Zeigerstrahl aktivieren und das Bedienelement
306 aktiviert eine Zoomfunkion, um die Ansicht der virtuellen Welt zu vergrößern.
Bei der Bewegungsart "OBJECT IN HAND" befindet sich die drehbar gelagerte Kugel 304
auf der Oberseite. Der Benutzer kann ein virtuelles Objekt mit Hilfe der Kugel 304 beliebig
in der virtuellen Welt drehen. Die Ansicht der virtuellen Welt wird entsprechend verändert.
Die Bedienelemente 310 und 312 dienen der Aktivierung von Interaktionsfunktionen, wie
z. B. von virtuellen Menüs, die auf der Anzeigeeinheit angezeigt werden oder zum Greifen
von virtuellen Objekten. Die Kugel 304 läßt sich mit dem Daumen oder mit den Fingern
der zweiten Hand bedienen. Mit der Rollkugel ist eine feinfühlige Bewegung der virtuellen
Objekte möglich. In der Bewegungsart "OBJECT IN HAND" ist die Ortung der
Eingabevorrichtung 300 deaktiviert. Auch in der Bewegungsart "CAMERA IN HAND" läßt
sich die Ortung der Eingabevorrichtung 300 deaktivieren. Dadurch ist es möglich, die
Eingabevorrichtung 300 einem weiteren Benutzer zu übergeben, ohne die Ansicht der
virtuellen Welt zu verändern. Dabei wird die physikalische Ortung der Eingabevorrichtung
300 nicht ausgesetzt, sondern es werden lediglich die ermittelten Orientierungs- und
Positionierungsdaten nicht in eine Veränderung der Ansicht der virtuellen Welt umgesetzt.
In den Fig. 7a-e und 8 ist eine Basisstation 700 dargestellt, die eine
Eingabevorrichtung 300 aufgenommen hat. Die Basisstation 700 weist eine
Netzversorgung 702 auf. Währen die Eingabevorrichtung 300 in der Basisstation 700
gelagert ist, werden die Batterien der Eingabevorrichtung 300 geladen. Das Netzteil 708
wird über die Lüftungsschlitze 706 gekühlt. Auf der Basisstation 700 befinden sich
Leuchtdioden 704, die eine Kommunikation mit einer Eingabevorrichtung 300 anzeigen.
Zur Kommunikation mit den Eingabevorrichtungen 300 weist die Basisstation 700 einen
Sender/Empfänger 710 auf. Die Anzeige 712 zeigt den Ladezustand einer
Eingabevorrichtung 300 an. Über die Anzeige 714 wird der Benutzer über den
Einschaltzustand der Basisstation 700 informiert.
In Fig. 8 sind vier Basisstationen 700 über eine Schiene 800 miteinander verbunden. In
den vier Basisstationen 700 sind Eingabevorrichtungen 300 untergebracht. Nur eine erste
Basisstation 700 weist Vorrichtungen zur bidirektionalen Kommunikation mit den
Eingabevorrichtungen 300 auf. Die weiteren Basisstation 700 dienen lediglich als
Ladestation für die Eingabevorrichtungen 300. Über die Schiene 800 werden die
Basisstation 700 mit Strom versorgt.
Die in Fig. 9 dargestellte Antennenanordnung dient der Ermittlung der Position einer
Eingabevorrichtung 300. Die Basis 900 sendet abwechselnd an alle im
Beobachtungsraum befindlichen Eingabevorrichtungen 300 Infrarotsignale 209a. Bei
Empfang eines Infrarotsignals 209a wird von der Eingabevorrichtung ein Funksignal und
ein Ultraschallsignal generiert und über die Antenne 209b ausgesendet. Anhand der
Signallaufzeiten die das Ultraschallsignals zu den voneinander beabstandeten Antennen
902a bis d braucht, ist eine Ermittlung der Position der Eingabevorrichtung 300 innerhalb
des Beobachtungsraumes möglich. Auch wird ein Funksignal über die Antenne 209b
ausgesendet, das Informationen über die Orientierung und Positionierung, sowie von
Zuständen von Interaktionsbedienelementen enthält. Die Positionsangaben werden über
das Kabel 904 an eine Recheneinheit übermittelt.
In der Fig. 10 ist schematisch die Funktionsweise eines virtuellen Zeigerstrahls
dargestellt. Die Ansicht 1000 einer virtuellen Welt entspricht einer Ansicht eines
Benutzers auf die virtuelle Wett. In der virtuellen Welt befinden sich zwei virtuelle Objekte
1002 und 1004. Der Benutzer möchte nun das virtuelle Objekt 1002 markieren. Dafür
aktiviert er einen virtuellen Zeigerstrahl 1006 und richtet diesen auf das virtuelle Objekt
1002. Der virtuelle Zeigerstrahl 1006 endet im virtuellen Objekt 1002. Ein zweiter
Benutzer, der sich ebenfalls in der gleichen virtuellen Welt befindet, erkennt anhand des
virtuellen Zeigerstrahls 1006 das vom ersten Benutzer markierte virtuelle Objekt 1002.
100
Mensch-Maschine-Schnittstelle
102
Eingabevorrichtung
104
Recheneinheit
106
a Navigationsbedienelemente
106
b Interaktionsbedienelemente
107
a-d Kenntnisstufen
108
Benutzereingabe
110
Positionsermittelungseinrichtung
120
Recheneinheit
122
visuelle Ausgabe
124
,
126
visuelles Echo
200
Eingabevorrichtung
202
a Funksensor
202
b Infrarotsensor
204
Luftschnittstelle
208
Infrarotsensor
208
b Antennensystem
209
a Infrarotsignal
209
b Funksignal
210
Basisstation
212
Ortungsvorrichtung
216
zentrale Recheneinheit
300
Eingabevorrichtung
302
Finger einer Hand
304
drehbar gelagerte Kugel
304
a Optik
308
,
310
,
312
Interaktionsbedienelement
314
Orientierungssensorgehäuse
316
Ortungssensorgehäuse
317
Energieversorgungsgehäuse
402
inertialer Orientierungssensor
404
akustischer Ortungssensor
406
Platine
408
Sende-/Empfangseinrichtung
410
Energieversorgung
502
Anzeige/Schalter
602
Abstrahlwinkel
700
Basisstation
702
Netzversorgung
704
Leuchtdioden
706
Lüftungsschlitze
708
Netzteil
710
Sender/Empfänger
712
Ladezustandsanzeige
714
Anzeige Ein/Aus
800
Schiene
Claims (14)
1. Eingabevorrichtung zur Interaktion mit und Navigation in einer mehrdimensionalen
virtuellen Welt, mit einer die mehrdimensionale virtuelle Welt generierenden und
auf einem Anzeigegerät projizierenden Recheneinheit und mit zumindest einem
die Navigation in und die Interaktion mit der mehrdimensionalen virtuellen Welt
ermöglichenden Handgerät, dadurch gekennzeichnet, daß das Handgerät
mindestens zwei unterschiedliche Bewegungsarten in der virtuellen Welt
unterstützt, wobei die unterstütze Bewegungsart abhängig von der genutzten
Bedienseite des Handgerätes ist, und daß das Handgerät die Eingabe eines
Benutzers unter Berücksichtigung der jeweils unterstützen Bewegungsart in
Navigationsinformationen und Interaktionsinformationen umsetzt.
2. Eingabevorrichtung nach Anspruch 1, dadurch gekennzeichnet, daß auf einer
Bedienseite die Orientierung und die Positionierung des Handgerätes im realen
Raum die Orientierung und Blickrichtung in der virtuellen Welt bestimmen, und
daß die Recheneinheit die virtuelle Welt entsprechend der Orientierung und
Blickrichtung in der virtuellen Welt auf dem Anzeigegerät projiziert.
3. Eingabevorrichtung nach einem der Ansprüche 1 oder 2, dadurch
gekennzeichnet, daß auf einer Bedienseite das Handgerät ein
Interaktionsbedienelement aufweist, wobei die Recheneinheit die realen
Bewegungen des Interaktionsbedienelements in virtuelle Bewegungen eines
virtuellen Objektes umsetzt.
4. Eingabevorrichtung nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet,
daß die Recheneinheit die reale Bewegung des Handgerätes unter
Berücksichtigung zumindest eines Freiheitsgrades in eine virtuelle Bewegung
umsetzt.
5. Eingabevorrichtung nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet,
daß die Recheneinheit die reale Bewegung des Handgerätes entkoppelt und in
eine virtuelle Bewegung umsetzt.
6. Eingabevorrichtung nach einem der Ansprüch 1 bis 5, dadurch gekennzeichnet,
daß die Recheneinheit die realen Bewegungen des Handgerätes weggesteuert in
virtuelle Bewegungen umsetzt.
7. Eingabevorrichtung nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet,
daß die Recheneinheit die realen Bewegungen des Handgerätes
geschwindigkeitsgesteuert in virtuelle Bewegungen umsetzt.
8. Eingabevorrichtung nach einem der Ansprüche 1 bis 7, dadurch gekennzeichnet,
daß die Eingabeeinheit eine drehbar gelagerte Kugel ist, wobei die Kugeldrehung
einer Drehung eines virtuellen Objektes entspricht.
9. Eingabevorrichtung nach einem der Ansprüche 1 bis 8, dadurch gekennzeichnet,
daß das Handgerät eine Anzeige aufweist, wobei die Anzeige entsprechend der
genutzten Bedienseite ein optisches Signal anzeigt.
10. Verfahren zur Erfassung von Benutzereingaben zur Interaktion mit und Navigation
in einer mehrdimensionalen virtuellen Welt, bei welchem mit Hilfe einer
Recheneinheit die mehrdimensionale virtuelle Welt generiert und auf einer
Anzeigeeinheit projiziert wird und mit Hilfe eines Handgerätes
Interaktionseingaben und Navigationseingaben erfasst werden, dadurch
gekennzeichnet, daß durch das Handgerät mindestens zwei unterschiedliche
Bewegungsarten unterstützt werden und daß die Eingaben eines Benutzers in
Abhängigkeit der jeweils unterstützten Bewegungsart in Navigationsinformationen
und Interaktionsinformationen umgesetzt werden.
11. Verfahren nach Anspruch 10, dadurch gekennzeichnet, daß bei einer
Bewegungsart aus der Positionierung und der Orientierung des Handgerätes die
Positionierung und Blickrichtung in die virtuelle Welt errechnet wird und auf die
Anzeigeeinheit projiziert wird.
12. Verfahren nach einem der Ansprüche 10 oder 11, dadurch gekennzeichnet, daß
bei einer Bewegungsart mit Hilfe eines Interaktionsbedienelementes eine
Interaktion mit einem virtuellen Objekt ausgelöst wird und auf der Anzeigeeinheit
angezeigt wird.
13. Verfahren nach einem der Ansprüche 10 bis 12, dadurch gekennzeichnet, daß mit
Hilfe des Handgerätes ein virtueller Punkt bestimmt wird und daß die virtuelle
Position mit dem bestimmten virtuellen Punkt in Übereinstimmung gebracht wird
und daß entsprechend der virtuellen Position die virtuelle Welt auf der
Anzeigeeinheit angezeigt wird.
14. Verwendung einer Eingabevorrichtung oder eines Verfahrens nach einem der
Ansprüche 1 bis 13 in der Kraftfahrzeugentwicklung.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE10110487A DE10110487A1 (de) | 2000-03-11 | 2001-03-05 | Eingabevorrichtung zur Interaktion mit und Navigation in einer mehrdimensionalen virtuellen Welt |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE10011915 | 2000-03-11 | ||
DE10110487A DE10110487A1 (de) | 2000-03-11 | 2001-03-05 | Eingabevorrichtung zur Interaktion mit und Navigation in einer mehrdimensionalen virtuellen Welt |
Publications (1)
Publication Number | Publication Date |
---|---|
DE10110487A1 true DE10110487A1 (de) | 2001-09-13 |
Family
ID=7634362
Family Applications (5)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE10110484A Withdrawn DE10110484A1 (de) | 2000-03-11 | 2001-03-05 | Verfahren zur Markierung von virtuellen Objekten innerhalb einer mehrdimensionalen virtuellen Welt |
DE10110489A Withdrawn DE10110489A1 (de) | 2000-03-11 | 2001-03-05 | Eingabevorrichtung zur Interaktion mit und Navigation in einer mehrdimensionalen virtuellen Welt |
DE10110487A Withdrawn DE10110487A1 (de) | 2000-03-11 | 2001-03-05 | Eingabevorrichtung zur Interaktion mit und Navigation in einer mehrdimensionalen virtuellen Welt |
DE10110485A Withdrawn DE10110485A1 (de) | 2000-03-11 | 2001-03-05 | Eingabevorrichtung zur Interaktion mit und Navigation in einer mehrdimensionalen virtuellen Welt |
DE10110486A Withdrawn DE10110486A1 (de) | 2000-03-11 | 2001-03-05 | Verfahren zur Erfassung von Benutzereingabe zur Interaktion mit und Navigation in einer mehrdimensionalen virtuellen Welt |
Family Applications Before (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE10110484A Withdrawn DE10110484A1 (de) | 2000-03-11 | 2001-03-05 | Verfahren zur Markierung von virtuellen Objekten innerhalb einer mehrdimensionalen virtuellen Welt |
DE10110489A Withdrawn DE10110489A1 (de) | 2000-03-11 | 2001-03-05 | Eingabevorrichtung zur Interaktion mit und Navigation in einer mehrdimensionalen virtuellen Welt |
Family Applications After (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE10110485A Withdrawn DE10110485A1 (de) | 2000-03-11 | 2001-03-05 | Eingabevorrichtung zur Interaktion mit und Navigation in einer mehrdimensionalen virtuellen Welt |
DE10110486A Withdrawn DE10110486A1 (de) | 2000-03-11 | 2001-03-05 | Verfahren zur Erfassung von Benutzereingabe zur Interaktion mit und Navigation in einer mehrdimensionalen virtuellen Welt |
Country Status (1)
Country | Link |
---|---|
DE (5) | DE10110484A1 (de) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20220229499A1 (en) * | 2006-05-08 | 2022-07-21 | Sony Interactive Entertainment Inc. | Information output system and method |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102004036736B4 (de) * | 2004-07-29 | 2006-09-07 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Vorrichtung und Verfahren für die Mehrbenutzer-Interaktion mit Computeranwendungen an einer horizontalen Fläche - Interaktionstisch |
-
2001
- 2001-03-05 DE DE10110484A patent/DE10110484A1/de not_active Withdrawn
- 2001-03-05 DE DE10110489A patent/DE10110489A1/de not_active Withdrawn
- 2001-03-05 DE DE10110487A patent/DE10110487A1/de not_active Withdrawn
- 2001-03-05 DE DE10110485A patent/DE10110485A1/de not_active Withdrawn
- 2001-03-05 DE DE10110486A patent/DE10110486A1/de not_active Withdrawn
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20220229499A1 (en) * | 2006-05-08 | 2022-07-21 | Sony Interactive Entertainment Inc. | Information output system and method |
US11693490B2 (en) * | 2006-05-08 | 2023-07-04 | Sony Interactive Entertainment Inc. | Information output system and method |
Also Published As
Publication number | Publication date |
---|---|
DE10110486A1 (de) | 2001-09-13 |
DE10110484A1 (de) | 2001-09-13 |
DE10110489A1 (de) | 2001-09-13 |
DE10110485A1 (de) | 2001-09-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102019009313B4 (de) | Robotersteuerung, Verfahren und Computerprogramm unter Verwendung von erweiterter Realität und gemischter Realität | |
DE102005061211B4 (de) | Verfahren zum Erzeugen einer Mensch-Maschine-Benutzer-Oberfläche | |
EP2272055B1 (de) | Fernbedienung | |
EP1447770B1 (de) | Verfahren und Vorrichtung zur Visualisierung rechnergestützter Informationen | |
DE102019002898A1 (de) | Robotorsimulationsvorrichtung | |
DE102008011876B4 (de) | Anzeigevorrichtung | |
EP3458939A1 (de) | Interaktionssystem und -verfahren | |
DE112007000074T5 (de) | System zum Erfassen einer Gierrate unter Verwendung eines Magnetfeldsensors sowie tragbare elektronische Vorrichtungen unter Verwendung hiervon | |
DE19917660A1 (de) | Verfahren und Eingabeeinrichtung zum Steuern der Lage eines in einer virtuellen Realität graphisch darzustellenden Objekts | |
DE102013021834A1 (de) | Vorrichtung und Verfahren zum Navigieren innerhalb eines Menüs zur Fahrzeugsteuerung sowie Auswählen eines Menüeintrags aus dem Menü | |
WO1998007086A1 (de) | Körpersensorik | |
DE69710566T2 (de) | Vorrichtung zur interaktion und navigation in einer virtuellen umgebung | |
EP3695266B1 (de) | Verfahren zum betrieb einer anzeigeeinrichtung in einem kraftfahrzeug | |
DE69109542T2 (de) | Tragbare Vorrichtung zur Anzeige von Positionsinformation zwecks Bestimmung des Standortes eines Objekts. | |
CN116110270A (zh) | 一种基于混合现实的多自由度驾驶模拟器 | |
DE10110487A1 (de) | Eingabevorrichtung zur Interaktion mit und Navigation in einer mehrdimensionalen virtuellen Welt | |
DE102019201134B4 (de) | Verfahren, Computerprogramm mit Instruktionen und System zum Einmessen einer Augmented-Reality-Brille und Augmented-Reality-Brille zur Verwendung in einem Kraftfahrzeug | |
EP3812869B1 (de) | Verfahren zur erstellung einer umgebungskarte für ein sich selbsttätig fortbewegendes bodenbearbeitungsgerät, sowie system aus zwei sich selbsttätig fortbewegenden bodenbearbeitungsgeräten | |
EP3534240A1 (de) | Verfahren und vorrichtung zur daten-annotation | |
DE60108918T2 (de) | Interaktives Verfahren und Vorrichtung für Bildrundfunk einer beweglichen Videokamera | |
DE102019131640A1 (de) | Verfahren und Vorrichtung zum Betreiben eines Anzeigesystems mit einer Datenbrille | |
DE10027136C2 (de) | Mobiles System zur Erzeugung eines virtuellen Displays | |
DE102004017755A1 (de) | Verfahren zur satellitengestützten Navigation in einem realen Gelände und Anordnung hierfür | |
DE202017006316U1 (de) | Transportanordnung | |
DE19610756A1 (de) | Verfahren und Vorrichtung zur Vermessung, Markierung, Konstruktion, zur Dokumentation, Simulation und zum Scanning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8120 | Willingness to grant licences paragraph 23 | ||
8110 | Request for examination paragraph 44 | ||
8130 | Withdrawal |