DE10110487A1 - Eingabevorrichtung zur Interaktion mit und Navigation in einer mehrdimensionalen virtuellen Welt - Google Patents

Eingabevorrichtung zur Interaktion mit und Navigation in einer mehrdimensionalen virtuellen Welt

Info

Publication number
DE10110487A1
DE10110487A1 DE10110487A DE10110487A DE10110487A1 DE 10110487 A1 DE10110487 A1 DE 10110487A1 DE 10110487 A DE10110487 A DE 10110487A DE 10110487 A DE10110487 A DE 10110487A DE 10110487 A1 DE10110487 A1 DE 10110487A1
Authority
DE
Germany
Prior art keywords
virtual
movement
virtual world
interaction
navigation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE10110487A
Other languages
English (en)
Inventor
Birte Wasmund
Peter Zimmermann
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Volkswagen AG
Original Assignee
Volkswagen AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Volkswagen AG filed Critical Volkswagen AG
Priority to DE10110487A priority Critical patent/DE10110487A1/de
Publication of DE10110487A1 publication Critical patent/DE10110487A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/0202Constructional details or processes of manufacture of the input device
    • G06F3/0216Arrangements for ergonomically adjusting the disposition of keys of a keyboard
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03549Trackballs

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Die Erfindung betrifft eine Eingabevorrichtung zur Interaktion mit und Navigation in einer mehrdimensionalen virtuellen Welt, mit einer die mehrdimensionale virtuelle Welt generierenden und auf einem Anzeigegerät projizierenden Recheneinheit und mit zumindest einem die Navigation in und die Interaktion mit der mehrdimensionalen virtuellen Welt ermöglichenden Handgerät. Eine gleichzeitige Navigation und Interaktion mit nur einem Handgerät wird dadurch vereinfacht, daß das Handgerät mindestens zwei unterschiedliche Bewegungsarten in der virtuellen Welt unterstützt, wobei die unterstützte Bewegungsart abhängig von der genutzten Bedienseite des Handgerätes ist, und daß das Handgerät die Eingabe eines Benutzers unter Berücksichtigung der jeweils unterstützten Bewegungsart in Navigationsinformationen und Interaktionsinformationen umsetzt.

Description

Die Erfindung betrifft eine Eingabevorrichtung, ein Verfahren, sowie die Verwendung derer zur Interaktion mit und Navigation in einer mehrdimensionalen virtuellen Welt, mit einer die mehrdimensionale virtuelle Welt generierenden und auf einem Anzeigegerät projizierenden Recheneinheit und mit zumindest einem die Navigation in und die Interaktion mit der mehrdimensionalen virtuellen Welt ermöglichenden Handgerät.
Bekannte Eingabevorrichtungen ermöglichen sowohl die Navigation mit als auch die Interaktion in mehrdimensionalen virtuellen Welten. Zur Navigation in mehrdimensionalen virtuellen Welten wird vorzugsweise eine 3D-Maus genutzt. Diese 3D-Maus ermöglicht dem Benutzer eine Navigation in der mehrdimensionalen virtuellen Welt in drei translatorischen und drei rotatorischen Freiheitsgraden. Der Benutzer kann somit mit Hilfe der 3D-Maus die virtuelle Position in der mehrdimensionalen virtuellen Welt verändern, als auch die Blickrichtung in der virtuellen Welt beeinflussen. Entsprechend der Position und der Blickrichtung in der virtuellen Welt wird auf einer Anzeigeeinheit ein Abbild der virtuellen Welt projiziert. Die Anzeige der virtuellen Welt verändert sich entsprechend den Bewegungen der 3D-Maus. Hierbei werden die realen Bewegungen der 3D-Maus in die virtuelle Welt so umgesetzt, daß die Bewegungen der 3D-Maus den Bewegungen eines virtuellen Betrachters entsprechen. Die Anzeige der virtuellen Welt wird bei der Bewegung der 3D-Maus so umgesetzt, als bewege sich der virtuelle Beobachter in der virtuellen Welt. Möchte der Benutzer in der virtuellen Welt interagieren, z. B. Objekte bewegen, muß er sich selbst so bewegen, daß er sich entsprechend zum Objekt positioniert. Dies ist für unerfahrene Benutzer schwierig. Bekannt ist, daß zur Objektbewegung ein getrackter Stift genutzt wird.
Aus der beschriebenen Problematik ergibt sich für die Erfindung das technische Problem, eine Eingabevorrichtung zur Verfügung zu stellen, welche die gleichzeitige Navigation und Interaktion mit nur einem Handgerät vereinfacht.
Das aufgezeigte technische Problem wird erfindungsgemäß dadurch gelöst, daß das Handgerät mindestens zwei unterschiedliche Bewegungsarten in der virtuellen Welt unterstützt, wobei die unterstützte Bewegungsart abhängig von der genutzten Bedienseite des Handgerätes ist und daß das Handgerät die Eingabe eines Benutzers unter Berücksichtigung der jeweils unterstützten Bewegungsart in Navigationsinformationen und Interaktionsinformationen umsetzt. Der Vorteil einer erfindungsgemäßen Eingabevorrichtung ergibt sich nunmehr daraus, daß der Benutzer anhand der von ihm genutzten Bedienseite des Handgerätes erkennt, welche Bewegungsart unterstützt wird. Ihm fällt es somit leichter, die auf dem Anzeigegerät projizierten Veränderungen der virtuellen Welt mit den von ihm vorgenommenen Bewegungen des Handgerätes in Verbindung zu setzen.
In bevorzugter Weise bestimmen die Orientierung und die Positionierung des Handgerätes im realen Raum auf einer Bedienseite die Orientierung und Blickrichtung in der virtuellen Welt und die Recheneinheit projiziert die virtuelle Welt entsprechend der Orientierung und Blickrichtung in der virtuellen Welt auf dem Anzeigegerät. Diese sogenannte "CAMERA IN HAND" Bewegungsart vermittelt dem Benutzer den Eindruck, afs schaue er durch den Sucher einer Kamera, welche durch das Handgerät repräsentiert wird. Die Bewegung des Handgerätes verändert die Anzeige der virtuellen Welt so, als bewege der Benutzer sich selber durch die virtuelle Welt. Der Benutzer kann das Handgerät nun wie eine Kamera handhaben, wodurch ihm die Interpretation der von ihm ausgelösten Veränderungen der Anzeige der virtuellen Welt erleichtert wird. Die Tatsache, daß mit dieser genutzten Bedienseite nur diese eine Bewegungsart unterstützt wird, erleichtert dem Benutzer zusätzlich die Interpretation der Anzeige der virtuellen Welt, da er sich darauf verlassen kann, daß diese von ihm genutzte Bedienseite nur diese eine Bewegungsart unterstützt.
Zur Interaktion mit virtuellen Objekten wird in bevorzugter Weise eine Eingabevorrichtung genutzt, bei der das Handgerät auf einer Bedienseite ein Interaktionsbedienelement aufweist, wobei die Recheneinheit die realen Bewegungen des Interaktionsbedienelementes in virtuelle Bewegungen eines virtuellen Objekts umsetzt. Diese sogenannte "OBJECT IN HAND" Bewegungsart vermittelt dem Benutzer den Eindruck, er halte anstelle des Interaktionsbedienelementes das virtuelle Objekt in der Hand. Bewegungen des Interaktionsbedienelementes werden in Bewegungen des virtuellen Objektes umgesetzt und auf der Anzeigeeinheit angezeigt. Der Benutzer kann so das virtuelle Objekt bewegen und in die von ihm gewünschte Position bringen. Da diese Bedienseite nur diese eine Bewegungsart unterstützt, wird vom Benutzer nicht mehr verlangt, die Kopplung zwischen realer Bewegung und virtueller Bewegung zu interpretieren.
Zur Erleichterung der Navigation und Interaktion wird vorgeschlagen, daß die Recheneinheit die reale Bewegung des Handgerätes unter Berücksichtigung zumindest eines Freiheitsgrades in eine virtuelle Bewegung umsetzt. Ein ungeübter Benutzer wird sicherlich überfordert sein, wenn die Bewegungen des Handgerätes in den drei translatorischen als auch den drei rotatorischen Bewegungsfreiheitsgraden gleichzeitig umgesetzt werden. Um ihm die Navigation zu erleichtern, filtert die Recheneinheit reale Bewegungen in bestimmten Bewegungsfreiheitsgraden heraus und setzt diese nicht in virtuelle Bewegungen um. Zwar werden dadurch die Möglichkeiten zur Navigation und Interaktion in der virtuellen Welt eingeschränkt, jedoch fällt es dem Benutzer leichter, in der virtuellen Welt zu navigieren und mit ihr zu interagieren. Die Recheneinheit kann reale Bewegungen wahlweise in einem, bis hin zu sechs Bewegungsfreiheitsgraden in virtuelle Bewegungen umsetzen.
Weiterhin wird zur Erleichterung der Navigation und Interaktion in der virtuellen Welt vorgeschlagen, daß die Recheneinheit die reale Bewegung des Handgerätes entkoppelt und in eine virtuelle Bewegung umsetzt. Die Entkopplung bewirkt, daß nur Bewegungen in jeweils einem Bewegungsfreiheitsgrad möglich sind. Nachdem eine Bewegung in einem Bewegungsfreiheitsgrad abgeschlossen ist, kann eine weitere Bewegung in einem beliebigen anderen Freiheitsgrad durchgeführt werden. So kann beispielsweise zunächst eine Bewegung in nur einem translatorischen Bewegungsfreiheitsgrad durchgeführt werden und im Anschluß daran eine Bewegung in einem rotatorischen Freiheitsgrad durchgeführt werden, was zunächst einer Änderung der Positionierung und im Anschluß daran einer Änderung des Blickwinkels in der virtuellen Welt entspricht.
Es wird vorgeschlagen, daß die Recheneinheit die realen Bewegungen des Handgerätes sowohl geschwindigkeitsgesteuert als auch weggesteuert umsetzt. Bei der weggesteuerten Umsetzung der realen Bewegung in virtuelle Bewegungen entsprechen die virtuellen Bewegungen der tatsächlichen Veränderung der Position und der Orientierung des Handgerätes. Dadurch ist eine genaue und feinfühlige Navigation und Interaktion in der virtuellen Welt möglich. Bei der geschwindigkeitsgesteuerten Umsetzung der realen Bewegung in virtuelle Bewegungen wird die Auslenkung des Handgerätes aus einer Ruhelage in eine virtuelle Bewegung mit konstanter oder beschleunigter Geschwindigkeit umgesetzt. Die geschwindigkeitsgesteuerte Umsetzung ermöglicht eine schnelle Navigation in der virtuellen Welt.
In einer vorteilhaften Ausgestaltung weist das Handgerät eine Anzeige auf, wobei die Anzeige entsprechend der genutzten Bedienseite ein optisches Signal anzeigt. Dem Benutzer wird anhand des optischen Signals angezeigt, welche Bedienseite aktiviert ist. Dadurch hat der Benutzer den Vorteil, stets darüber informiert zu sein, welche Bewegungsart vom Handgerät unterstützt wird. Er muß nicht mehr aufgrund der Anzeige der virtuellen Welt und der Interpretation seiner Bewegungen die unterstützte Bewegungsart erkennen.
Ein weiterer Gegenstand der Erfindung ist ein Verfahren zur Erfassung von Benutzereingaben zur Interaktion mit und Navigation in einer mehrdimensionalen virtuellen Welt, bei welchem mit Hilfe einer Recheneinheit die mehrdimensionale virtuelle Welt generiert und auf eine Anzeigeeinheit projiziert wird und mit Hilfe eines Handgerätes Interaktionseingaben und Navigationseingaben erfaßt werden, welches sich dadurch kennzeichnet, daß durch das Handgerät mindestens zwei unterschiedliche Bewegungsarten unterstützt werden und daß die Eingaben eines Benutzers in Abhängigkeit der jeweils unterstützten Bewegungsart in Navigationsinformationen und Interaktionsinformationen umgesetzt werden. Dieses Verfahren ermöglicht die Unterstützung unterschiedlicher Bewegungsarten mit Hilfe nur eines einzelnen Gerätes. Der Benutzer kann mit Hilfe eines einzelnen Gerätes nunmehr in der virtuellen Welt navigieren und interagieren, ohne die jeweils aktuell unterstützte Bewegungsart eigenständig interpretieren zu müssen. Hierzu wird ihm anhand der benutzten Bedienseite eine Hilfestellung gegeben.
In bevorzugter Weise wird ein Verfahren angewandt, bei welchem bei einer Bewegungsart aus der Positionierung und der Orientierung des Handgerätes die Positionierung und Blickrichtung in die virtuelle Welt errechnet wird und auf die Anzeigeeinheit projiziert wird. Diese Bewegungsart entspricht der sogenannten "CAMERA IN HAND" Bewegungsart. Mit Hilfe dieses Verfahrens ist es dem Benutzer möglich, die virtuelle Welt so zu erkunden, als schaue er durch den Sucher einer Kamera. Auf der Anzeigeeinheit wird entsprechend der Positionierung und Orientierung des Handgerätes ein Ausschnitt aus der virtuellen Welt angezeigt.
Eine Bewegungsart bei welcher mit Hilfe eines Interaktionsbedienelementes eine Interaktion mit einem virtuellen Objekt ausgelöst wird und auf der Anzeigeeinheit angezeigt wird, liegt einem weiteren bevorzugten Verfahren zugrunde. Dieses Verfahren, welches bei der Verwendung einer Bedienseite des Handgerätes angewandt wird, entspricht der sogenannten Bewegungsart "OBJECT IN HAND". Bei dieser Bewegungsart kann der Benutzer mit Hilfe des Interaktionsbedienelementes ein virtuelles Objekt in der virtuellen Welt bewegen, in dem er eine reale Bewegung mit dem Interaktionsbedienelement durchführt. Mit Hilfe dieses Verfahrens ist es für den Benutzer möglich, virtuelle Objekte aus verschiedenen Blickwinkeln und Entfernungen zu betrachten.
Bei einem weiteren bevorzugten Verfahren, bei welchem mit Hilfe des Handgerätes ein virtueller Punkt bestimmt wird und die virtuelle Position mit dem bestimmten virtuellen Punkt in Übereinstimmung gebracht wird und entsprechend der virtuellen Position die virtuelle Welt auf der Anzeigeeinheit angezeigt wird, ist es für den Benutzer möglich, von einem Punkt in der virtuellen Welt zu einem zweiten Punkt in der virtuellen Welt zu springen. Diese Navigation ermöglicht dem Benutzer ein unmittelbares Wechseln seiner Betrachterposition, ohne zuvor die virtuelle Wegstrecke zurückgelegt zu haben. Diese sogenannte Bewegungsart "Teleportation" ermöglicht eine schnelle Navigation in der virtuellen Welt.
Ein weiterer Gegenstand der Erfindung ist die Verwendung einer Eingabevorrichtung sowie eines Verfahrens nach einem der Ansprüche 1 bis 13 in der Kraftfahrzeugentwicklung. Durch die Verwendung des erfindungsgemäßen Verfahrens und der erfindungsgemäßen Vorrichtung ist es in der Kraftfahrzeugentwicklung möglich, daß die verschiedensten Benutzer sehr leicht in einer virtuellen Welt navigieren können und somit beispielsweise Design Reviews durchführen können. Es ist nicht notwendig, daß ein Benutzer der virtuellen Welt ein Experte auf dem Gebiet der virtuellen Welt sein muß. Nach einer kurzen Einweisung können beispielsweise Designer, Konstrukteure und Marketingexperten in der virtuellen Welt mit Hilfe der erfindungsgemäßen Eingabevorrichtung und des erfindungsgemäßen Verfahrens navigieren und interagieren.
Die vorliegende Erfindung wird im folgenden anhand von Ausführungsbeispielen näher erläutert, wobei auf die Zeichnung bezug genommen wird. In der Zeichnung zeigen:
Fig. 1 die Kopplung zwischen Eingabevorrichtung und Anzeigeeinheit einer Mensch- Maschine-Schnittstelle;
Fig. 2 schematische Darstellung eines erfindungsgemäßen Ortungsverfahrens;
Fig. 3 eine Seitenansicht eines erfindungsgemäßen Handgerätes;
Fig. 4-6 Seitenansichten eines erfindungsgemäßen Handgerätes;
Fig. 7a-e Seitenansichten eines erfindungsgemäßen Handgerätes sowie eine damit verbundenen Basisstation;
Fig. 8 ein modularer Aufbau von erfindungsgemäßen Basisstationen;
Fig. 9 ein Aufbau eines erfindungsgemäßen Ortungssystems und
Fig. 10 eine Darstellung eines erfindungsgemäßen Verfahrens zur Markierung von virtuellen Objekten.
Bei der Entwicklung von Kraftfahrzeugen ist es bisher üblich, tatsächliche Modelle von Entwürfen herzustellen und die Entwürfe anhand der realen Modelle zu überprüfen. Jede Änderung eines Entwurfs ist mit einer kostenintensiven Änderung des Modells verbunden.
Die Entwicklung von Kraftfahrzeugprototypen mit Hilfe von virtuellen Modellen ermöglicht eine einfache Veränderung der Prototypen und damit eine schnelle Entwicklung von neuen Kraftfahrzeugen. Die virtuelle Welt stellt eine neue Generation von Mensch- Maschine-Schnittstelle dar, die das sinnliche Erlebbarmachen von virtuellen Räumen und Gegenständen ermöglicht. Mit Hilfe von geeigneten Eingabevorrichtungen sowie geeigneter Eingabeverfahren ist es möglich, sich scheinbar real in der virtuellen Welt zu bewegen und mit der virtuellen Welt zu interagieren.
Zwischen Eingabe von Navigationsinformationen und Interaktionsinformationen und der damit verbundenen Ausgabe der Ansicht der virtuellen Welt besteht eine Kopplung, wie sie in Fig. 1 dargestellt ist. Über die Mensch-Maschine-Schnittstelle 100 werden Navigations- und Interaktionsinformationen zwischen einer Eingabevorrichtung 102 und einer Recheneinheit 104 ausgetauscht. Eingaben eines Benutzers führen zu einer Veränderung der virtuellen Welt, welche dem Benutzer über eine visuelle Rückkopplung angezeigt wird. Entsprechend der visuellen Ausgabe 122 der virtuellen Welt wird vom Benutzer eine Eingabe 108 ausgelöst. Die Benutzereingaben 108 werden mit Hilfe von Bedienelementen 106 ausgelöst. Die Bedienelemente 106 ermöglichen sowohl eine Navigation 106a als auch eine Interaktion 106b mit der virtuellen Welt. Entsprechend des Kenntnisstandes eines Benutzers 107a bis 107d stehen verschiedene Navigations- und Interaktionsmöglichkeiten mit Hilfe der Bedienelemente 106 zur Verfügung. In der Kenntnisstufe 107a verfügt der Benutzer über einen begrenzten Satz an Navigationsmöglichkeiten, welcher mit zunehmender Kenntnisstufe 107b bis 107d erweitert wird.
Ein Anfänger kann beispielsweise nur in drei translatorischen Bewegungsrichtungen navigieren, wobei die Bewegungsrichtungen voneinander entkoppelt sind, was bedeutet, daß eine Navigation in mehr als eine Bewegungsrichtung gleichzeitig nicht möglich ist. Auch werden die Benutzereingaben zur Navigation in der virtuellen Welt in den Kenntnisstufen 107a und 107b nur weggesteuert in Navigationsinformation umgesetzt. Die weggesteuerte Umsetzung bedeutet, daß die virtuelle Bewegung der realen Bewegung der Eingabevorrichtung 102 proportional ist. Die virtuelle Bewegung erfolgt nur solange, wie die reale Bewegung stattfindet. Die weggesteuerte Navigation ist für den Anfänger leicht zu beherrschen.
In den Anfängerkenntnisstufen 107a, 107b stehen dem Benutzer nur die Bewegungsarten "CAMERA IN HAND" und "OBJECT IN HAND" zur Verfügung. Bei der "OBJECT IN HAND" Bewegungsart kann der Benutzer ein virtuelles Objekt mit Hilfe realer Bewegungen der Eingabevorrichtungen 102 in der virtuellen Welt drehen. Bei der Bewegungsart "CAMERA IN HAND" kann der Benutzer mit Hilfe der Eingabevorrichtung 102 die Ansicht 122 der virtuellen Welt so verändern, als schaue er durch den Sucher einer Kamera, welche durch die Eingabevorrichtung 102 repräsentiert wird. Zwischen den beiden Bewegungsarten kann der Benutzer umschalten, in dem er unterschiedliche Geräteseiten benutzt. In den Expertenkenntnisstufen 107c, 107d stehen dem Benutzer bis zu sechs Bewegungsrichtungen parallel zur Navigation zur Verfügung. Die Anzahl der Navigationsfreiheitsgrade ist entsprechend der Kenntnisstufe 107c, 107d, wie auch in den Kenntnisstufen 107a, 107b, über eine Software, die aus einer Datenbank ladbar ist, zu bestimmen. In den Expertenkenntnisstufen 107c, 107d kann die Bewegung der Eingabevorrichtung 102 geschwindigkeitsgesteuert in eine virtuelle Bewegung umgesetzt werden. Dies ist abhängig von der in der Datenbank gespeicherten Software und kann für jeden Benutzer individuell angepaßt sein. Bei der geschwindigkeitsgesteuerten Navigation wird die Auslenkung eines Referenzkörpers, hier der Eingabevorrichtung 102, in eine Bewegung in der virtuellen Welt mit entweder konstanter oder sich mit der Größe der Auslenkung verändernden Geschwindigkeit umgesetzt.
Zur Bewegung in der virtuellen Welt stehen in den Kenntnisstufen 107c, 107d die Bewegungsarten "CAMERA IN HAND" und "OBJECT IN HAND" sowie "FLYING/DRIVING CART" zur Verfügung. Bei der "FLYING CART" Bewegungsart kann der Benutzer sich frei im Raum bewegen. Er kann dadurch gezielt einzelne Punkte in der virtuellen Welt ansteuern, ohne eine Beschränkung der Bewegung auf nur eine Ebene.
Zur Interaktion stehen dem Benutzer verschiedene Bedienelemente 106b zur Verfügung. Auch bei der Interaktion wird zwischen verschiedenen Kenntnisstufen 107a bis 107d unterschieden. In der Kenntnisstufe 107a kann der Benutzer mit Hilfe eines Bedienelementes die "CAMERA IN HAND" Bewegungsart ein- und ausschalten. Mit einem weiteren Bedienelement ist es möglich, einen virtuellen Zeigerstrahl auszulösen. Weiterhin kann je nach Kenntnisstufe 107a bis 107d des Benutzers mit Hilfe einer Software eine Zoomfunktion aktiviert werden, mit deren Hilfe sich der Benutzer ein bestimmtes virtuelles Objekt in der Ansicht zu sich heranziehen kann.
Mit wachsendem Kenntnisstufe 107c, 107d des Benutzers können weitere Funktionen freigegeben werden. So können z. B. die Funktionen der virtuellen Menüs, bei welchem auf der Anzeige eine Vielzahl von verfügbaren Interaktionsmöglichkeiten zur Auswahl gestellt werden, oder eine Schnappschußfunktion, bei welcher eine Ansicht der virtuellen Welt eingefroren werden kann, freigeschaltet werden. In den Expertenkenntnisstufen 107c, 107d sind die Interaktionsbedienelemente 106b frei programmierbar. Der Benutzer kann mit Hilfe der Navigationsbedienelemente 106a frei in der virtuellen Welt navigieren und Drehungen von virtuellen Objekten sowie der ganzen virtuellen Szene initiieren. Entsprechend der Interaktionseingaben 106b erhält der Benutzer ein visuelles Echo 126. Dieses visuelle Echo wird über die Mensch-Maschine-Schnittstelle 100 mit Hilfe der Anzeige 122 angezeigt. Entsprechend der Navigationseingaben 106a wird die Ansicht der virtuellen Welt verändert und dem Benutzer mit Hilfe des visuellen Echos 124 vermittelt. Auch dieses wird dem Benutzer mit Hilfe der Anzeige 122 angezeigt. Entsprechend der Benutzereingaben 108 wird mit Hilfe einer Recheneinheit 120 das Bild der Anzeigeeinheit 122 berechnet. Weiterhin ist für das dargestellte Bild die Position und Orientierung der Eingabevorrichtung 102, die mit Hilfe einer Positionsermittlungseinrichtung 110 ermittelt wird, ausschlaggebend.
Die Positionsermittlung der Eingabevorrichtung 200 wird in Fig. 2 dargestellt. Die Eingabevorrichtung 200 verfügt über einen Infrarotsensor 202b, einen akustischen Trackingsensor sowie einen inertialen Trackingsensor (nicht dargestellt). Der inertiale Trackingsensor sendet bei Bedarf ein Funksignal, daß Orientierung und Positionierung sowie eine Gerätekennung enthält, aus. Mit Hilfe des inertialen Trackingsensors wird die Beschleunigung und die Neigung der Eingabevorrichtung 200 erfaßt. Der akustische Trackingsensor dient der Positionsbestimmung des Handgerätes und sendet dazu Ultraschallsignale aus. Die Ortungsvorrichtung 212 sendet über die Luftschnittstelle 204 Infrarotsignale 209a mit Hilfe des Infrarotsensors 208a an die Eingabevorrichtung 200. Bei Empfang eines Infrarotsignals 209a mit Hilfe des Infrarotsensors 202a sendet die Eingabevorrichtung 200 über die Antenne 209b ein Funksignal des inertialen Trackingsensors, sowie ein Ultraschallsignal der akustischen Trackingsensors aus. Die Funksignale und die Ultraschallsignale sind unter anderem mit einer Endgerätekennung versehen, mit deren Hilfe eine genaue Identifizierung der Eingabevorrichtung 200 möglich ist. Über ein Antennensystem 208b, welches in Fig. 9 dargestellt ist, kann die Ortungsvorrichtung 212 die Position der Eingabevorrichtung 200 eindeutig bestimmen.
Das Funksignal enthält Informationen über Orientierung und Positionierung der Eingabevorrichtung 200 sowie Informationen über Zustände von Interaktionsbedienelementen. Durch den inertialen Trackingsensor, der einen Beschleunigungssensor, einen Kompaß sowie einen Kreisel aufweist, läßt sich die horizontale Orientierung bestimmen. Auch läßt sich die Wegänderung des Handgerätes in den drei Raumachsen ermitteln. Das Funksignal sowie das Ultraschallsignal wird von der Basisstation 210 empfangen und die darin enthaltenen Informationen werden in der Basisstation 210 extrahiert. Die mit Hilfe der Basisstation 210 erfaßten Daten werden an eine zentrale Recheneinheit 216 übermittelt. Außerdem werden die mit Hilfe der Ortungsvorrichtung 212 ermittelten Positionsdaten an die zentrale Recheneinheit 216 übermittelt. Unter Berücksichtigung der ermittelten Daten errechnet die zentrale Recheneinheit 216 in nahezu Echtzeit eine aktuelle Ansicht der virtuellen Welt, die daraufhin auf der Anzeigeeinheit 218 dargestellt wird.
In Fig. 3 ist eine Seitenansicht einer Eingabevorrichtung 300 zu erkennen. Die Eingabevorrichtung 300 kann von einem Benutzer mit den Fingern einer Hand 302a bis 302e umfaßt werden. Die in Fig. 3 dargestellte Benutzung der Eingabevorrichtung 300 wird bei der Bewegungsart "CAMERA IN HAND" angewandt. Die Eingabevorrichtung 300 weist eine drehbar gelagerte Kugel 304 mit einer daran angeordneten Optik 304a auf, mit deren Hilfe die Drehung der Kugel 304 ermittelt wird. Weiterhin weist die Eingabevorrichtung 300 einen Bereich 314 auf, in dem ein inertialer Ortungssensor untergebracht ist. Die Bedienelemente 310 und 312 sowie 308 ermöglichen die Interaktion mit der virtuellen Welt. Die jeweiligen Funktionen der Bedienelemente 308 bis 312 sind frei programmierbar und abhängig vom Kenntnisstand der Benutzers. Der Bereich 316 dient der Unterbringung des akustischen Ortungssensors 404, mit dessen Hilfe ein Signalaustausch mit der Ortungsvorrichtung 212 möglich ist. Ein Zoomrad 306, welches als selbstzentrierendes Rad ausgeführt ist, ist ebenfalls in die Eingabevorrichtung 300 integriert. Im Bereich 317 ist die Energieversorgung der kabellosen Eingabevorrichtung 300 untergebracht.
In den Fig. 4 bis 6 sind weitere Seitenansichten der Eingabevorrichtung 300 zu erkennen. Der akustische Ortungssensor 404 weist eine Öffnung auf und ist oberhalb der Sende- und Empfangsvorrichtung 408 angeordnet. Darunter befindet sich ein Fach für die Energieversorgung 410, welche zur Aufnahme von Batterien geeignet ist.
Der inertiale Ortungssensor 402 ist vom akustischen Ortungssensor 404 beabstandet, so daß eine Beeinflussung der beiden Sensoren vermieden wird. Zur Analog/Digital Wandlung der Benutzereingaben und Position und der Orientierung dient die Platine 406. Der akustische Ortungssensor 404 weist einen Abstrahlwinkel 602 von 160° auf. Über die Anzeige 502 erhält der Benutzer Informationen über die aktive Bedienseite.
Die in den Fig. 3 bis 6 dargestellte Eingabevorrichtung 300 funktioniert wie folgt:
Die in Fig. 3 dargestellte Haltung der Eingabevorrichtung 300 wird bei der Bewegungsart "CAMERA IN HAND" genutzt. Wird die Eingabevorrichtung 300 um die horizontale Achse um 90° gedreht, befindet sich die drehbar gelagerte Kugel 304 auf der Oberseite. Diese Geräteposition erlaubt dann die Bewegungsart "OBJECT IN HAND". Zwischen den beiden Bewegungsarten wird mit Hilfe des Schalters 502 umgeschaltet. Außerdem gibt der Schalter 502 dem Benutzer eine visuelle Rückkopplung, welche Geräteseite aktiv ist. Bei der Bewegungsart "CAMERA IN HAND" bewegt der Benutzer sich durch den realen Raum und die Ansicht der virtuellen Welt wird entsprechend der Position und Orientierung der Eingabevorrichtung 300 verändert. Die Eingabevorrichtung 300 wird wie eine Kamera genutzt und die Anzeige entspricht einem von einer Kamera in der Position der Eingabevorrichtung 300 aufgenommenen Bild der virtuellen Welt. Mit dem Bedienelement 308 läßt sich ein virtueller Zeigerstrahl aktivieren und das Bedienelement 306 aktiviert eine Zoomfunkion, um die Ansicht der virtuellen Welt zu vergrößern.
Bei der Bewegungsart "OBJECT IN HAND" befindet sich die drehbar gelagerte Kugel 304 auf der Oberseite. Der Benutzer kann ein virtuelles Objekt mit Hilfe der Kugel 304 beliebig in der virtuellen Welt drehen. Die Ansicht der virtuellen Welt wird entsprechend verändert. Die Bedienelemente 310 und 312 dienen der Aktivierung von Interaktionsfunktionen, wie z. B. von virtuellen Menüs, die auf der Anzeigeeinheit angezeigt werden oder zum Greifen von virtuellen Objekten. Die Kugel 304 läßt sich mit dem Daumen oder mit den Fingern der zweiten Hand bedienen. Mit der Rollkugel ist eine feinfühlige Bewegung der virtuellen Objekte möglich. In der Bewegungsart "OBJECT IN HAND" ist die Ortung der Eingabevorrichtung 300 deaktiviert. Auch in der Bewegungsart "CAMERA IN HAND" läßt sich die Ortung der Eingabevorrichtung 300 deaktivieren. Dadurch ist es möglich, die Eingabevorrichtung 300 einem weiteren Benutzer zu übergeben, ohne die Ansicht der virtuellen Welt zu verändern. Dabei wird die physikalische Ortung der Eingabevorrichtung 300 nicht ausgesetzt, sondern es werden lediglich die ermittelten Orientierungs- und Positionierungsdaten nicht in eine Veränderung der Ansicht der virtuellen Welt umgesetzt.
In den Fig. 7a-e und 8 ist eine Basisstation 700 dargestellt, die eine Eingabevorrichtung 300 aufgenommen hat. Die Basisstation 700 weist eine Netzversorgung 702 auf. Währen die Eingabevorrichtung 300 in der Basisstation 700 gelagert ist, werden die Batterien der Eingabevorrichtung 300 geladen. Das Netzteil 708 wird über die Lüftungsschlitze 706 gekühlt. Auf der Basisstation 700 befinden sich Leuchtdioden 704, die eine Kommunikation mit einer Eingabevorrichtung 300 anzeigen. Zur Kommunikation mit den Eingabevorrichtungen 300 weist die Basisstation 700 einen Sender/Empfänger 710 auf. Die Anzeige 712 zeigt den Ladezustand einer Eingabevorrichtung 300 an. Über die Anzeige 714 wird der Benutzer über den Einschaltzustand der Basisstation 700 informiert.
In Fig. 8 sind vier Basisstationen 700 über eine Schiene 800 miteinander verbunden. In den vier Basisstationen 700 sind Eingabevorrichtungen 300 untergebracht. Nur eine erste Basisstation 700 weist Vorrichtungen zur bidirektionalen Kommunikation mit den Eingabevorrichtungen 300 auf. Die weiteren Basisstation 700 dienen lediglich als Ladestation für die Eingabevorrichtungen 300. Über die Schiene 800 werden die Basisstation 700 mit Strom versorgt.
Die in Fig. 9 dargestellte Antennenanordnung dient der Ermittlung der Position einer Eingabevorrichtung 300. Die Basis 900 sendet abwechselnd an alle im Beobachtungsraum befindlichen Eingabevorrichtungen 300 Infrarotsignale 209a. Bei Empfang eines Infrarotsignals 209a wird von der Eingabevorrichtung ein Funksignal und ein Ultraschallsignal generiert und über die Antenne 209b ausgesendet. Anhand der Signallaufzeiten die das Ultraschallsignals zu den voneinander beabstandeten Antennen 902a bis d braucht, ist eine Ermittlung der Position der Eingabevorrichtung 300 innerhalb des Beobachtungsraumes möglich. Auch wird ein Funksignal über die Antenne 209b ausgesendet, das Informationen über die Orientierung und Positionierung, sowie von Zuständen von Interaktionsbedienelementen enthält. Die Positionsangaben werden über das Kabel 904 an eine Recheneinheit übermittelt.
In der Fig. 10 ist schematisch die Funktionsweise eines virtuellen Zeigerstrahls dargestellt. Die Ansicht 1000 einer virtuellen Welt entspricht einer Ansicht eines Benutzers auf die virtuelle Wett. In der virtuellen Welt befinden sich zwei virtuelle Objekte 1002 und 1004. Der Benutzer möchte nun das virtuelle Objekt 1002 markieren. Dafür aktiviert er einen virtuellen Zeigerstrahl 1006 und richtet diesen auf das virtuelle Objekt 1002. Der virtuelle Zeigerstrahl 1006 endet im virtuellen Objekt 1002. Ein zweiter Benutzer, der sich ebenfalls in der gleichen virtuellen Welt befindet, erkennt anhand des virtuellen Zeigerstrahls 1006 das vom ersten Benutzer markierte virtuelle Objekt 1002.
BEZUGSZEICHENLISTE
100
Mensch-Maschine-Schnittstelle
102
Eingabevorrichtung
104
Recheneinheit
106
a Navigationsbedienelemente
106
b Interaktionsbedienelemente
107
a-d Kenntnisstufen
108
Benutzereingabe
110
Positionsermittelungseinrichtung
120
Recheneinheit
122
visuelle Ausgabe
124
,
126
visuelles Echo
200
Eingabevorrichtung
202
a Funksensor
202
b Infrarotsensor
204
Luftschnittstelle
208
Infrarotsensor
208
b Antennensystem
209
a Infrarotsignal
209
b Funksignal
210
Basisstation
212
Ortungsvorrichtung
216
zentrale Recheneinheit
300
Eingabevorrichtung
302
Finger einer Hand
304
drehbar gelagerte Kugel
304
a Optik
308
,
310
,
312
Interaktionsbedienelement
314
Orientierungssensorgehäuse
316
Ortungssensorgehäuse
317
Energieversorgungsgehäuse
402
inertialer Orientierungssensor
404
akustischer Ortungssensor
406
Platine
408
Sende-/Empfangseinrichtung
410
Energieversorgung
502
Anzeige/Schalter
602
Abstrahlwinkel
700
Basisstation
702
Netzversorgung
704
Leuchtdioden
706
Lüftungsschlitze
708
Netzteil
710
Sender/Empfänger
712
Ladezustandsanzeige
714
Anzeige Ein/Aus
800
Schiene

Claims (14)

1. Eingabevorrichtung zur Interaktion mit und Navigation in einer mehrdimensionalen virtuellen Welt, mit einer die mehrdimensionale virtuelle Welt generierenden und auf einem Anzeigegerät projizierenden Recheneinheit und mit zumindest einem die Navigation in und die Interaktion mit der mehrdimensionalen virtuellen Welt ermöglichenden Handgerät, dadurch gekennzeichnet, daß das Handgerät mindestens zwei unterschiedliche Bewegungsarten in der virtuellen Welt unterstützt, wobei die unterstütze Bewegungsart abhängig von der genutzten Bedienseite des Handgerätes ist, und daß das Handgerät die Eingabe eines Benutzers unter Berücksichtigung der jeweils unterstützen Bewegungsart in Navigationsinformationen und Interaktionsinformationen umsetzt.
2. Eingabevorrichtung nach Anspruch 1, dadurch gekennzeichnet, daß auf einer Bedienseite die Orientierung und die Positionierung des Handgerätes im realen Raum die Orientierung und Blickrichtung in der virtuellen Welt bestimmen, und daß die Recheneinheit die virtuelle Welt entsprechend der Orientierung und Blickrichtung in der virtuellen Welt auf dem Anzeigegerät projiziert.
3. Eingabevorrichtung nach einem der Ansprüche 1 oder 2, dadurch gekennzeichnet, daß auf einer Bedienseite das Handgerät ein Interaktionsbedienelement aufweist, wobei die Recheneinheit die realen Bewegungen des Interaktionsbedienelements in virtuelle Bewegungen eines virtuellen Objektes umsetzt.
4. Eingabevorrichtung nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, daß die Recheneinheit die reale Bewegung des Handgerätes unter Berücksichtigung zumindest eines Freiheitsgrades in eine virtuelle Bewegung umsetzt.
5. Eingabevorrichtung nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, daß die Recheneinheit die reale Bewegung des Handgerätes entkoppelt und in eine virtuelle Bewegung umsetzt.
6. Eingabevorrichtung nach einem der Ansprüch 1 bis 5, dadurch gekennzeichnet, daß die Recheneinheit die realen Bewegungen des Handgerätes weggesteuert in virtuelle Bewegungen umsetzt.
7. Eingabevorrichtung nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, daß die Recheneinheit die realen Bewegungen des Handgerätes geschwindigkeitsgesteuert in virtuelle Bewegungen umsetzt.
8. Eingabevorrichtung nach einem der Ansprüche 1 bis 7, dadurch gekennzeichnet, daß die Eingabeeinheit eine drehbar gelagerte Kugel ist, wobei die Kugeldrehung einer Drehung eines virtuellen Objektes entspricht.
9. Eingabevorrichtung nach einem der Ansprüche 1 bis 8, dadurch gekennzeichnet, daß das Handgerät eine Anzeige aufweist, wobei die Anzeige entsprechend der genutzten Bedienseite ein optisches Signal anzeigt.
10. Verfahren zur Erfassung von Benutzereingaben zur Interaktion mit und Navigation in einer mehrdimensionalen virtuellen Welt, bei welchem mit Hilfe einer Recheneinheit die mehrdimensionale virtuelle Welt generiert und auf einer Anzeigeeinheit projiziert wird und mit Hilfe eines Handgerätes Interaktionseingaben und Navigationseingaben erfasst werden, dadurch gekennzeichnet, daß durch das Handgerät mindestens zwei unterschiedliche Bewegungsarten unterstützt werden und daß die Eingaben eines Benutzers in Abhängigkeit der jeweils unterstützten Bewegungsart in Navigationsinformationen und Interaktionsinformationen umgesetzt werden.
11. Verfahren nach Anspruch 10, dadurch gekennzeichnet, daß bei einer Bewegungsart aus der Positionierung und der Orientierung des Handgerätes die Positionierung und Blickrichtung in die virtuelle Welt errechnet wird und auf die Anzeigeeinheit projiziert wird.
12. Verfahren nach einem der Ansprüche 10 oder 11, dadurch gekennzeichnet, daß bei einer Bewegungsart mit Hilfe eines Interaktionsbedienelementes eine Interaktion mit einem virtuellen Objekt ausgelöst wird und auf der Anzeigeeinheit angezeigt wird.
13. Verfahren nach einem der Ansprüche 10 bis 12, dadurch gekennzeichnet, daß mit Hilfe des Handgerätes ein virtueller Punkt bestimmt wird und daß die virtuelle Position mit dem bestimmten virtuellen Punkt in Übereinstimmung gebracht wird und daß entsprechend der virtuellen Position die virtuelle Welt auf der Anzeigeeinheit angezeigt wird.
14. Verwendung einer Eingabevorrichtung oder eines Verfahrens nach einem der Ansprüche 1 bis 13 in der Kraftfahrzeugentwicklung.
DE10110487A 2000-03-11 2001-03-05 Eingabevorrichtung zur Interaktion mit und Navigation in einer mehrdimensionalen virtuellen Welt Withdrawn DE10110487A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE10110487A DE10110487A1 (de) 2000-03-11 2001-03-05 Eingabevorrichtung zur Interaktion mit und Navigation in einer mehrdimensionalen virtuellen Welt

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE10011915 2000-03-11
DE10110487A DE10110487A1 (de) 2000-03-11 2001-03-05 Eingabevorrichtung zur Interaktion mit und Navigation in einer mehrdimensionalen virtuellen Welt

Publications (1)

Publication Number Publication Date
DE10110487A1 true DE10110487A1 (de) 2001-09-13

Family

ID=7634362

Family Applications (5)

Application Number Title Priority Date Filing Date
DE10110487A Withdrawn DE10110487A1 (de) 2000-03-11 2001-03-05 Eingabevorrichtung zur Interaktion mit und Navigation in einer mehrdimensionalen virtuellen Welt
DE10110486A Withdrawn DE10110486A1 (de) 2000-03-11 2001-03-05 Verfahren zur Erfassung von Benutzereingabe zur Interaktion mit und Navigation in einer mehrdimensionalen virtuellen Welt
DE10110485A Withdrawn DE10110485A1 (de) 2000-03-11 2001-03-05 Eingabevorrichtung zur Interaktion mit und Navigation in einer mehrdimensionalen virtuellen Welt
DE10110484A Withdrawn DE10110484A1 (de) 2000-03-11 2001-03-05 Verfahren zur Markierung von virtuellen Objekten innerhalb einer mehrdimensionalen virtuellen Welt
DE10110489A Withdrawn DE10110489A1 (de) 2000-03-11 2001-03-05 Eingabevorrichtung zur Interaktion mit und Navigation in einer mehrdimensionalen virtuellen Welt

Family Applications After (4)

Application Number Title Priority Date Filing Date
DE10110486A Withdrawn DE10110486A1 (de) 2000-03-11 2001-03-05 Verfahren zur Erfassung von Benutzereingabe zur Interaktion mit und Navigation in einer mehrdimensionalen virtuellen Welt
DE10110485A Withdrawn DE10110485A1 (de) 2000-03-11 2001-03-05 Eingabevorrichtung zur Interaktion mit und Navigation in einer mehrdimensionalen virtuellen Welt
DE10110484A Withdrawn DE10110484A1 (de) 2000-03-11 2001-03-05 Verfahren zur Markierung von virtuellen Objekten innerhalb einer mehrdimensionalen virtuellen Welt
DE10110489A Withdrawn DE10110489A1 (de) 2000-03-11 2001-03-05 Eingabevorrichtung zur Interaktion mit und Navigation in einer mehrdimensionalen virtuellen Welt

Country Status (1)

Country Link
DE (5) DE10110487A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220229499A1 (en) * 2006-05-08 2022-07-21 Sony Interactive Entertainment Inc. Information output system and method

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102004036736B4 (de) * 2004-07-29 2006-09-07 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren für die Mehrbenutzer-Interaktion mit Computeranwendungen an einer horizontalen Fläche - Interaktionstisch

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220229499A1 (en) * 2006-05-08 2022-07-21 Sony Interactive Entertainment Inc. Information output system and method
US11693490B2 (en) * 2006-05-08 2023-07-04 Sony Interactive Entertainment Inc. Information output system and method

Also Published As

Publication number Publication date
DE10110489A1 (de) 2001-09-13
DE10110484A1 (de) 2001-09-13
DE10110485A1 (de) 2001-09-13
DE10110486A1 (de) 2001-09-13

Similar Documents

Publication Publication Date Title
DE102005061211B4 (de) Verfahren zum Erzeugen einer Mensch-Maschine-Benutzer-Oberfläche
DE102019009313B4 (de) Robotersteuerung, Verfahren und Computerprogramm unter Verwendung von erweiterter Realität und gemischter Realität
EP2272055B1 (de) Fernbedienung
EP1447770B1 (de) Verfahren und Vorrichtung zur Visualisierung rechnergestützter Informationen
EP1588806B1 (de) Verfahren und handgeführte Vorrichtung zum Beeinflussen eines mehrachsigen Handhabungsgeräts
DE102013021834B4 (de) Vorrichtung und Verfahren zum Navigieren innerhalb eines Menüs zur Fahrzeugsteuerung sowie Auswählen eines Menüeintrags aus dem Menü
DE102019002898A1 (de) Robotorsimulationsvorrichtung
DE102008011876B4 (de) Anzeigevorrichtung
DE112007000074T5 (de) System zum Erfassen einer Gierrate unter Verwendung eines Magnetfeldsensors sowie tragbare elektronische Vorrichtungen unter Verwendung hiervon
DE102006037156A1 (de) Interaktive Bedienvorrichtung und Verfahren zum Betreiben der interaktiven Bedienvorrichtung
DE69710566T2 (de) Vorrichtung zur interaktion und navigation in einer virtuellen umgebung
EP3695266B1 (de) Verfahren zum betrieb einer anzeigeeinrichtung in einem kraftfahrzeug
DE69109542T2 (de) Tragbare Vorrichtung zur Anzeige von Positionsinformation zwecks Bestimmung des Standortes eines Objekts.
CN116110270A (zh) 一种基于混合现实的多自由度驾驶模拟器
DE10110487A1 (de) Eingabevorrichtung zur Interaktion mit und Navigation in einer mehrdimensionalen virtuellen Welt
EP3812869B1 (de) Verfahren zur erstellung einer umgebungskarte für ein sich selbsttätig fortbewegendes bodenbearbeitungsgerät, sowie system aus zwei sich selbsttätig fortbewegenden bodenbearbeitungsgeräten
DE102019201134B4 (de) Verfahren, Computerprogramm mit Instruktionen und System zum Einmessen einer Augmented-Reality-Brille und Augmented-Reality-Brille zur Verwendung in einem Kraftfahrzeug
EP3534240A1 (de) Verfahren und vorrichtung zur daten-annotation
DE102019131640A1 (de) Verfahren und Vorrichtung zum Betreiben eines Anzeigesystems mit einer Datenbrille
DE10027136C2 (de) Mobiles System zur Erzeugung eines virtuellen Displays
DE102013211046A1 (de) Verfahren und Vorrichtung zum Gewinnen eines Stellsignals aus einer Bediengeste
DE102004017755A1 (de) Verfahren zur satellitengestützten Navigation in einem realen Gelände und Anordnung hierfür
DE202017006316U1 (de) Transportanordnung
DE102004061842A1 (de) Tracking System für mobile Anwendungen
DE19610756A1 (de) Verfahren und Vorrichtung zur Vermessung, Markierung, Konstruktion, zur Dokumentation, Simulation und zum Scanning

Legal Events

Date Code Title Description
8120 Willingness to grant licences paragraph 23
8110 Request for examination paragraph 44
8130 Withdrawal