DE10132243C2 - Kabelloses Interaktionssystem für Anwendungen der virtuellen Realität - Google Patents
Kabelloses Interaktionssystem für Anwendungen der virtuellen RealitätInfo
- Publication number
- DE10132243C2 DE10132243C2 DE2001132243 DE10132243A DE10132243C2 DE 10132243 C2 DE10132243 C2 DE 10132243C2 DE 2001132243 DE2001132243 DE 2001132243 DE 10132243 A DE10132243 A DE 10132243A DE 10132243 C2 DE10132243 C2 DE 10132243C2
- Authority
- DE
- Germany
- Prior art keywords
- input device
- data
- frequency
- sensors
- sensor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04802—3D-info-object: information is displayed on the internal or external surface of a three dimensional manipulable object, e.g. on the faces of a cube that can be rotated by the user
Abstract
Die Erfindung betrifft eine handgehaltene, kabellose Eingabevorrichtung zur Erzeugung und Übermittlung von Orts-, Lage- und/oder Bewegungsdaten zur Navigation und Manipulation in Systemen der virtuellen Realität mit mindestens zwei Inertialsensoren zur Erfassung von analogen Werten der Beschleunigung und/oder der Winkelgeschwindigkeit der Eingabevorrichtung mit einer ersten Frequenz, einem integrierten Signalprozessor zum Auswerten der von den Inertialsensoren ausgegebenen analogen Daten und Erzeugung digitaler differentialer Daten bezüglich der Bewegung der Eingabevorrichtung mit einer zweiten Frequenz, die niedriger ist als die erste Frequenz, mit einer Kommunikationsvorrichtung zum kabellosen Senden der digitalen Daten niedriger Frequenz und einer Auslösevorrichtung als Teil der Eingabevorrichtung, die die Inertialsensoren einschaltet, wobei die zweite Frequenz der Bildfrequenz einer Bilddarstellungsvorrichtung entspricht.
Description
Die vorliegende Erfindung bezieht sich auf eine handgehaltene, kabellose Ein
gabevorrichtung zur Erzeugung und Übermittlung von
Orts-, Lage- und/oder Bewegungsdaten zur Navigation
und Manipulation in Systemen der virtuellen Realität.
Die zunehmende Verbreitung von immersiven Systemen in
industriellen Prozessen hat zur Folge, daß die Aspek
te der Arbeitsplatzgestaltung und der Mensch-
Maschine-Schnittstelle immer wichtiger werden vergli
chen mit den Anfangsjahren dieser noch jungen Techno
logie. Die Projektionstechnik der Head Mounted Dis
plays (BND) wird in letzter Zeit zugunsten von groß
räumigen Stereoprojektionen aufgegeben. Datenhand
schuhe, die noch vor einigen Jahren das Bild der vir
tuellen Realität bestimmten, werden zunehmend durch
tastenbasierte Eingabegeräte ersetzt.
Diese Visualisierungseinrichtungen werden verwendet,
um computergenerierte Daten naturgetreu zu visuali
sieren und subjektiv zu überprüfen. Die natürliche
Kommunikation und der geringe Aufwand zur Nutzung
dieser Technologie unterstützt dabei ihre Akzeptanz
und damit auch ihre Effizienz.
Herkömmliche Installationen erschweren jedoch die
Verwendung dieser Technologien durch den Einsatz ka
belgebundener Lagemeß- und Interaktionssysteme. Gera
de bei der gemeinsamen Nutzung von Systemen der vir
tuellen Realität wird das Interaktionsgerät und die
vermessene Brille häufig weitergegeben. Alle am Pro
zeß beteiligten Fachpersonen bringen dabei ihr spezi
fisches Fachwissen in die Beurteilung ein und müssen
dazu einen maßstäblichen und perspektivisch korrekten
Eindruck von den visualisierten Objekten bekommen.
Auch kann in manchen Fällen eine beidhändige Interak
tion nicht eingesetzt werden, weil die erforderlichen
Zuleitungen in kürzester Zeit ein unentwirrbares Ka
belbündel bilden.
Systeme der virtuellen Realität binden den Benutzer
stark in die visuelle Simulation durch das Computer
system ein. Dieses Eintauchen des Benutzers wird als
Immersion bezeichnet. Systeme der virtuellen Realität
werden deshalb auch als immersive Systeme bezeichnet.
Die Immersion des Benutzers in computergenerierte
Welten setzt spezielle Technologien voraus, die im
folgenden kurz skizziert werden. Die Visualisierung
muß die Objekte in einem korrekten Stereomodell dar
stellen. Neben der individuellen Meßgrößen dem Ab
stand der Augen müssen für die korrekte Stereodar
stellung, die Bewegungen des Benutzers in die jeweils
aktuelle Perspektive umgesetzt werden.
Für die Messung der aktuellen Lage werden verschiede
ne Meßtechniken wie z. B. Magnetfelder oder Bildbear
beitung eingesetzt. In manchen Fällen wird auf die
Lagemessung verzichtet und eine feste Sichtposition
angenommen. Bei dieser Darstellung werden die darge
stellten Objekte auch nur an diesem festgelegten
Punkt in ihren Dimensionen richtig wahrgenommen.
Die erforderliche Grafikleistung des eingesetzten
Rechnersystems wird von den darzustellenden Objektda
ten und den Funktionalitäten des Softwaresystems be
stimmt. Die Leistung und Güte einer immersiven Umge
bung hängt damit von einer optimalen Auslegung aller
Einzelkomponenten ab.
Eine typische Installation besteht aus:
- - Projektionssystem:
Auf der Basis unterschiedlicher Techniken wie z. B. Röhren- oder DLP-Projektoren werden die ge nierten Bildinformationen auf eine Projektions scheibe oder Leinwand projiziert. Es wird zwi schen aktivem und passivem Stereo unterschieden. Alternativ zu einem Projektionssystem werden Displaysysteme wie z. B. Datenhelm oder BOOM ein gesetzt. - - Projektionsscheibe oder Leinwand:
Die eingesetzten Projektionsscheiben oder -lein wände sind speziell bearbeitet, um einen guten Kontrast bei einer gleichmäßigen Helligkeitsver teilung zu gewährleisten. - - Grafikrechner:
Je nach Anwendung werden Grafikworkstations mit mehreren Grafiksubsystemen oder ein Verbund meh rerer Rechner eingesetzt, um die Bildinformatio nen aus den digitalen Objekten zu generieren. - - Tracking-System:
Typische Tracking-Systeme basieren auf der Ver messung künstlich generierter magnetischer Fel der. Diese Systeme können die Lage eines Sensors in einem räumlich begrenzten Bereich messen. - - Eingabesysteme:
Die Steuerung der Simulation erfolgt durch Ein gabegeräte, die neben Tastern über einen Lage sensor verfügen. Die Auswertung der Sensordaten ermöglicht z. B. das Greifen von visualisierten Objekten.
Die Eingabesysteme für immersive Anwendungen setzen
sich aus einem logischen und einem physischen Teil
der Benutzungsschnittstelle zusammen. Der logische
Teil ist die virtuelle räumliche Benutzungsschnitt
stelle. Dieser Teil beinhaltet z. B. die Darstellung
von Funktionen oder Menüs, die Methode der Selektion
von Objekten oder Funktionsmodi und die Art der Navi
gation. Der physische Teil faßt die gerätetechnische
Realisierung zusammen: die Gestaltung der Eingabesy
steme, die eingesetzte Projektionstechnologie und die
Gestaltung des gesamten Arbeitsbereiches.
Bei der Implementierung von immersiven Anwendungen
werden beide Aspekte der Benutzungsschnittstelle be
rücksichtigt und bilden in ihrem Verbund die Mensch-
Maschine Schnittstelle des immersiven Systems.
Die handgeführten Eingabegeräte für immersive Systeme
werden dabei als Interaktionssysteme bezeichnet. Ne
ben speziellen Interaktionssystemen für die jeweilige
Anwendung werden klassische Eingabegeräte aus dem Be
reich 3D-CAD eingesetzt. Derartige Geräte sind bei
spielsweise gestenbasierte Eingabesysteme wie Daten
handschuhe, tastenbasierte Eingabesysteme mit oder
ohne Lagemessung oder spezielle Eingabesysteme wie
beispielsweise spezielle Sitzkisten, Cockpits, etc.
Die ersten Eingabesysteme für Anwendungen der virtu
ellen Realität sind Datenhandschuhe. Die Sensoren
sind in einen Handschuh eingearbeitet, oder werden
direkt auf die Hand aufgesetzt. Die erforderlichen
Kabel werden zusammengeführt und gemeinsam an die
Auswerteelektronik geführt. Diese kommuniziert mit
dem Hostsystem über eine Standard RS232C Schnittstel
le.
Die absolute Position und Orientierung der Hand wird
über ein Tracking-System (Polhemus oder Ascension)
gemessen.
Eine eigene Klasse stellen die Systeme dar, bei denen
der Benutzer ein Gerät in der Hand hält, mit dem die
immersive Umgebung manipuliert werden kann. Diese Ge
räte beinhalten einen Sensor für die Position und
Orientierung (z. B. Polhemus oder Ascension) und haben
mehrere Schalter, Drehregler oder Taster, mit denen
der Benutzer Aktionen ausführen kann.
Die US 5,703,623 offenbart eine handgehaltene kabel
lose Eingabevorrichtung, die mit Hilfe von auf piezo
elektrischen dünnen Polymerfilmen beruhenden Sensoren
ihre translatorische Relativkoordinaten und die mit
Hilfe von auf den Hall-Effekt reagierenden Halbleitersensoren
ihre absoluten Winkelkoordinaten bestimmt
und als Kontrollsignal für einen Cursor oder ein ähn
liches Bildelement eines elektronischen abbildenden
Systems, z. B. eines Computermonitors, nutzt.
Die EP 457 541 A1 hat eine handgehaltene, kabellose,
eine Anordnung von Initialsensoren umschließende Ein
gabevorrichtung zum Inhalt, die ihre eigenen Bewe
gungskoordinaten erfaßt und als Signal an Computer
oder andere zu steuernde elektronische Gerätschaften
sendet.
Weiterhin sind tastenbasierte Systeme mit internem
Trackingsystem bekannt. So stellt beispielsweise Lo
giteck mit seinem Trackman ein kabelloses Präsentati
onssystem vor, bei dem die Bewegungen des Mauszeigers
auf einem Bildschirm in der Ebene durch eine Kugel
gesteuert wird.
Die DE 198 45 566 A1 beschreibt eine kabellose hand
gehaltene Eingabevorrichtung, deren räumliche Frei
heitsgrade mit einem Trackingsystem ermittelt werden
und eine Bewegung in virtuellen Welten umgesetzt
wird.
Die WO 97/50 029 A1 offenbart ein Trackingsystem, das
die Bewegungskoordinaten einer handgehaltenen Einga
bevorrichtung oder alternativ die eines Head-Mounted
Displays erfaßt und über einen Computer als Bewegung
eines den Benutzer in einer virtuellen Welt repräsen
tierten "icons" ermittelt und darstellt.
Nachteilig an den im Stand der Technik verfügbaren Inter
aktionsgeräten ist, daß diese großteils kabelgebunden
sind. Alle Trackingsysteme benötigen weiterhin externe
statische Referenzquellen, wie beispielsweise magnetische
Spulen oder Kamerasysteme. Die Installation und Ausrich
tung dieser Referenzquellen muß daher präzise und robust
durchgeführt werden.
Aufgrund der eingesetzten Technologie sind viele der In
teraktionsgeräte zu schwer und bei einer freihändigen
Nutzung in einer immersiven Umgebung nicht handgerecht.
Aus all diesen Nachteilen ergibt sich, daß eine mögliche
Weitergabe an beteiligte Personen erschwert wird, wobei
als wesentlich zerstörender Faktor hierbei das Kabel zur
Datenübertragung zu betrachten ist.
Aufgabe der vorliegenden Erfindung ist es daher, eine
Eingabevorrichtung zur Verfügung zu stellen, die in der
Hand gehalten werden kann und bei deren Weitergabe an
weitere Personen keine Probleme auftreten. Weiterhin ist
es die Aufgabe der vorliegenden Erfindung, eine Visuali
sierungseinrichtung mit einer entsprechenden Eingabevor
richtung zur Verfügung zu stellen.
Diese Aufgabe wird durch die handgehaltene kabellose Ein
gabevorrichtung nach Anspruch 1 und die Visualisierungs
einrichtung nach Anspruch 15 gelöst. Vorteilhafte Weiter
bildungen der erfindungsgemäßen Eingabevorrichtung und
der erfindungsgemäßen Visualisierungseinrichtung werden
in den jeweiligen abhängigen Ansprüchen gegeben.
Erfindungsgemäß können mit der hier vorgestellten
Eingabevorrichtung kabellose Systeme der virtuellen
Realität mit einer hohen Komplexität an Interaktions
möglichkeiten aufgebaut werden. Die erfindungsgemäße
Kombination von Inertialsensoren mit einem Software-
Konzept für die Übertragung der geschätzten realen
Bewegung der Eingabevorrichtung zu einer Bewegung der
visualisierten Objekte ermöglicht eine direkte Inter
aktion mit stereoskopisch visualisierten Objekten oh
ne Kabel und ohne ein zusätzliches Trackingsystem.
Erfindungsgemäß werden also differenziale Lagedaten
für isometrische Interaktionen in VE-Systemen (System
der virtuellen Realität) verwendet. Insbesondere ge
hört hierzu die Hardware des Interaktionsgerätes (der
Eingabevorrichtung) und die Auswertemethoden für die
Interaktionen und Funktionsselektionen.
Die erfindungsgemäße Eingabevorrichtung hat den Vor
teil, daß sie kabellos ist. Dies wird möglich, indem
die Daten der Inertialsensoren durch einen integrier
ten Signalprozessor ausgewertet werden. Die Daten
übertragung lediglich der ausgewerteten Daten erfolgt
dann auf einer Funkstrecke. Dadurch ist die Übertra
gung ohne eine Sichtverbindung über weite Strecken
hinweg problemlos möglich. Das System setzt dazu
stromsparende Komponenten in Verbindung mit einer La
deschale für die Akkumulatoren ein.
Weiterhin ist vorteilhaft, daß die Datenerfassung oh
ne eine externe Referenzquelle erfolgt. Denn die
Inertialsensoren messen die äußeren aufgebrachten
Kräfte und ermitteln die zurückgelegten Wege bzw.
Winkel durch eine einfache oder mehrfache Integration
der Meßwerte. Dieses Verfahren setzt daher systembe
dingt keine externen Referenzen voraus. Es ist pro
blemlos in bereits bestehende VE-Systeme zu integrieren
und benötigt keinen hohen Installations- oder
Vermessungsaufwand.
Aufgrund des Einsatzes lediglich leichtgewichtiger
und kleiner Bauelemente, wie beispielsweise Inertial
sensoren, Signalprozessor und Sender, ist eine weit
gehende Reduzierung des Gewichts bei einer möglichst
guten Gestaltung des Eingabegerätes möglich. Dadurch
kann das Eingabegerät handgerecht gestaltet werden,
gegebenenfalls auch für unterschiedliche Anwendungs
bereiche in unterschiedlicher Form.
Dadurch, daß das Eingabegerät kein Kabel zur Daten
übermittlung benötigt und eine günstige Gestaltung
möglich ist, kann die Eingabevorrichtung schnell und,
unkompliziert zwischen verschiedenen Personen weiter
gegeben werden.
Erfindungsgemäß werden Inertialsensoren eingesetzt,
mit denen eine differenziale Lagemessung durchgeführt
wird. Derartige Inertialsensoren, wie Beschleuni
gungskreisel und Erdmagnetfeldsensoren verbinden die
Vorteile einer geringen Größe mit dem Vorteil, daß
kein externes Resonanzfeld aufgebaut werden muß. Sie
sind robust und funktionieren in jedem Umfeld. Iner
tialsensoren zwingen jedoch dazu, die Meßwerte ein
fach bzw. doppelt zu integrieren, um die benötigten
Lagewerte für das VE-System zu erhalten. Dies ist je
doch, wie die Erfinder erkannt haben, kein Nachteil,
wenn entweder eine Modellgleichung für das Verhalten
des Systems bzw. der Eingabevorrichtung vorliegt oder
kurze Meßzeiten ausreichen.
Lediglich zusätzlich kann eine Lagemessung des Kopfes
mit einem optischen System durchgeführt werden. In
diesem Falle erfolgt also ein hybrider Ansatz für die
Lagemessung von Kopf- und Interaktionssystem.
Im folgenden werden Beispiele für erfindungsgemäße
Eingabevorrichtungen und Visualisierungeinrichtungen
beschrieben. Es zeigen:
Fig. 1 ein kartesisches Koordinatensystem mit Be
zeichnung der Achsen und Winkel;
Fig. 2 eine Funktionsskizze für ein erfindungsge
mäßes Visualisierungssystem;
Fig. 3 ein Blockdiagramm einer erfindungsgemäßen
Eingabevorrichtung;
Fig. 4 einen Querschnitt durch eine erfindungsge
mäße Eingabevorrichtung;
Fig. 5 die Anordnung von Inertialsensoren in einer
erfindungsgemäßen Eingabevorrichtung;
Fig. 6 eine Übersicht der möglichen Interaktionen
mit einer differenzialen Lagemessung;
Fig. 7 die Darstellung eines Kugelmenüs;
Fig. 8 die Darstellung eines ebenen Symbolmenüs;
Fig. 9 die Darstellung eines transparenten Textme
nüs; und
Fig. 10 den Algorithmus eines diskreten Kalmanfil
ters.
Fig. 1 zeigt ein kartesisches Koordinatensystem zur
Erläuterung der im vorliegenden verwendeten Koordinaten
x, y, z sowie der zugehörigen Drehwinkel um die
x-, y- oder z-Achse, ϕ, θ, ψ. Weiterhin ist die Rich
tung der Erdschwerkraft g eingezeichnet.
Fig. 2 zeigt nun eine Visualisierungseinrichtung ei
nes VR-Systems 1, wie es nach der vorliegenden Erfin
dung verwendet wird.
Das VR-System 1 weist einen Bildschirm 2 auf, vor dem
eine Person steht, um die dortigen über einen Projek
tor 3 erzeugten Bilder zu betrachten. Die Person hält
ein Eingabegerät 4 gemäß der vorliegenden Erfindung
in der Hand, um Lage-, Orts- oder Bewegungsdaten zu
erzeugen und zu übermitteln. Diese Daten werden als
differenziale Lagedaten 4" erzeugt. Die Messung er
folgt dabei während des Drückens eines Tasters 4',
wobei das Eingabegerät 4 noch weitere Taster aufwei
sen kann. Die differenzialen Lagedaten werden in ei
nem Signalprozessor erzeugt, der in das Eingabegerät
integriert ist. Sie werden anschließend an einen Mi
kroprozessor übertragen, in dem verschiedene Auswer
teprozesse 6 zur Erzeugung einer Graphikdarstellung
(Objektmanipulation, Navigation 8, Menüstrukturen 7)
durchgeführt werden. Das Eingabegerät 4 ist dabei mit
dem Mikroprozessor kabellos über eine Radiowellenver
bindung verbunden. Die differenzialen Lagedaten 4",
die in dem Eingabegerät 4 erzeugt werden, entsprechen
einer geschätzten realen Bewegung des Eingabegerätes.
Der Mikroprozessor berechnet hieraus eine Bewegung
der zu visualisierenden Objekte und ermöglicht damit
eine direkte Interaktion mit steroskopisch visuali
sierten Objekten ohne Kabel und ohne zusätzliches
Trackingsystem. Damit wird die Komplexität des VR-
Systems 1 für eine Reihe von Anwendungen der virtuel
len Realität reduziert, die Benutzungsschnittstelle
zu derartigen VR-Systemen wird einfacher und damit
leichter beherrschbar.
Fig. 3 zeigt den grundsätzlichen Aufbau der Elektro
nik und der Meßsensoren in einer erfindungsgemäßen
Eingabevorrichtung 4. Diese Eingabevorrichtung 4
weist bis zu drei Beschleunigungssensoren 11 und bis
zu drei Gyroskope 12 auf, um nach Integration der er
zeugten Meßdaten aus Koordinaten und Winkelkoordina
ten zu erhalten. Die erzeugten Meßwerte der Beschleu
nigungssensoren 11 und der Gyroskope 12 werden in ei
nen Signalprozessor 13 eingegeben, der zuerst eine
Analog-Digital-Wandlung der Meßwerte durchführt. An
schließend werden die Daten integriert und verarbei
tet. In dem Signalprozessor werden beispielsweise die
Daten so integriert, daß lediglich Lage-, Orts- und
Bewegungsdaten über ein RF-Modul 17 ausgegeben wer
den, die die Frequenz einer Bilddarstellung aufwei
sen, beispielsweise 20 bis 50 Hertz. Dadurch wird die
zu übertragende Datenmenge gegenüber dem Stand der
Technik sehr stark reduziert. Mit dem digitalen Si
gnalprozessor 13 ist ein Systemtakt 16 verbunden.
Weiterhin sind an dem Signalprozessor 13 Taster,
LED's und Piepser 14 oder Sensoren wie beispielsweise
Temperatursensoren 15 verbunden. Hier wie bei sämtli
chen Figuren werden für entsprechende Elemente ent
sprechende Bezugszeichen verwendet.
Durch die beschriebene Vorgehensweise, nämlich Über
tragung der bereits aufintegrierten digitalisierten
Daten werden Störeinflüsse durch die Signalübertra
gung reduziert und die zu übertragende Informations
menge wird an die erforderliche Frame Rate des VR-
Systems angepaßt. Als Folge kann für die Funkübertra
gung 5 eine geringere Übertragungsrate als die Rate
der Meßdaten aus den Sensoren 11, 12 eingesetzt wer
den.
Neben der differenzialen Lagemessung durch die Senso
ren 11, 12 können die Beschleunigungssensoren 11 auch
ohne aufwendige Auswertelogik für die Messung der
Orientierung der Eingabevorrichtungen, beispielsweise
in Ruhe gegenüber dem Schwerefeld genutzt werden. Die
möglichen Interaktionen werden dann auf ruhige Dreh-
bzw. Neigebewegungen reduziert. Die so erhaltenen ab
soluten Daten ermöglichen komplexe Interaktionen und
sind durch ihre unmittelbare Überdeckung der realen
Lage mit der virtuellen Repräsentation für viele An
wendungen in VR-Systemen gut geeignet.
Fig. 4 zeigt eine erfindungsgemäße Eingabevorrich
tung. Diese ist in Form eines handgehaltenen Stabes 4
ausgeführt, wobei dieser hier im Schnitt dargestellt
ist. Zu erkennen ist die Lage der drei Gyroskope 12',
12", 12''' sowie der Beschleunigungssensoren 11' und
11". Der Beschleunigungssensor 11" ist dabei für
die Beschleunigung in Richtung der X- und Y-Achse zu
ständig. Weiterhin weist diese Eingabevorrichtung ein
Gehäuse 18 auf, das an seiner Stirnfläche unter einem
Winkel α zur Längsachse der Vorrichtung 4 abgeschrägt
ist. Diese Fläche bildet eine Aktionsfläche 19, auf
der beispielsweise Taster zur Interaktion angeordnet
werden können. Daneben befinden sich in dem Gehäuse
18 auf dessen Umfangsfläche Taster 14 angeordnet.
Diese Taster können zur Interaktion sowie zur Festle
gung der Meßdauer durch die Beschleunigungssensoren
11', 11" bzw. die Gyroskope 12', 12", 12''' verwen
det werden.
Fig. 5 zeigt die Anordnung der Beschleunigungssenso
ren 11', 11" und der Gyroskope 12', 12", 12''' in
einer Eingabevorrichtung 4 aus Fig. 4. Mit einer
derartigen Eingabevorrichtung können sämtliche Drehwinkel
als auch sämtliche translatorischen Bewegungen
erfaßt werden.
Fig. 6 gibt eine Übersicht der möglichen Interaktio
nen mit einer differenzialen Lagemessung wider. Dabei
werden die differenzialen Lagedaten für die Selektion
in unterschiedliche Eignungsstufen eingeteilt, wobei
drei gefüllte Punkte bedeuten "sehr gut" geeignet,
zwei gefüllte Punkt "gut" geeignet, ein gefüllter
Punkt "bedingt" geeignet und ein ungefüllter Punkt
als "ungeeignet" beurteilt wird. Index a bedeutet die
Messungen beispielsweise mit Beschleunigungssensoren
für die Messung der Neigungswinkel, Index b die Ver
wendung einer Gyromaus mit einem zweiachsigen Vibra
tionskreisel, Index c die Verwendung von Beschleuni
gungssensoren für die Neigung und einen Kreiselsensor
und Index d bedeutet, daß die aktuelle Haltung gut
abgeschätzt werden kann und dieser Wert in die Lage
und Bewegungsberechnung eingehen kann. Im folgenden
werden einige Auswertekonzepte für die Interaktion
und die Exploration beschrieben.
Die Neigung der Interaktionsfläche wird hier durch
einen zweiachsigen Beschleunigungssensor gemessen.
Das System wird langsam und zielgenau gedreht. Die
Grundhaltung des Benutzers ist stehend mit leicht an
gewinkelten Armen vor der Stereoprojektion. Sobald
Interaktionen mit der Simulation durchgeführt werden,
werden die Arme auf ca. 90° angewinkelt. Die Rotati
onsbewegungen erfolgen aus der Hand bzw. Ellbogen und
Schultergelenk heraus. Die Wertebereiche für die Win
kel sind damit:
- - ϕ = [30°, -20°] Schwenken des Handgelenkes
- - θ = [130°, -120°] links und rechts drehen der Hand gegenüber dem Rumpf.
Die Orientierung in zwei Freiheitsgraden des Be
schleunigungssensors bestimmt sich aus den Meßwerten
ax und ay nach (5.2):
Zusätzlich zu dieser Sensorik verfügt das System über
drei Drucktaster. Sobald ein Taster gedrückt ist,
wird kontinuierlich die Orientierung des Systems be
stimmt und zusammen mit der Tasterstellung übertra
gen.
Die Übertragung finden in ASCII statt. Dadurch können
fehlerhafte Datenpakete aufgrund einer verrauschten
Funkübertragung einfach identifiziert werden.
Das Datenformat für ein Datenpaket ist:
"Tastenbyte" "Tab" ϕ i|k "Tab" θ i|k Oxa Oxd
Die Winkelwerte sind in Grad, Tastencodes sind dezi
mal und belegen den Wertebereich 0 bis 7. Binär ist
jedem Taster eine Bitposition zugeordnet, die beim
Schließen des Tasters auf 1 gesetzt wird und sonst 0
ist. Damit sind die Ereignisse Taster drücken und Ta
ster loslassen eindeutig identifiziert und können von
der VR Software ohne Prelleffekte ausgewertet werden.
Aufbauend auf dem Interaktionskonzept "Szene in der
Hand" sind folgende Interaktionen mit einem solchen
System möglich:
Aus der Änderung der Neigungswinkel ϕi und θi wird die
neue Position des Objektes in der Ebene linear nach
der Beziehung (5.3) bestimmt.
Die konstanten Faktoren Kx, Ky, Kz sind spezifisch für
die visualisierten Daten und können nicht generell
vorgegeben werden. Die Selektion der Translationsebe
ne wird über den gewählten Taster festgelegt.
Durch die Translation kann das Objekt absolut oder
relativ bewegt werden. Bei einer absoluten Translati
on kehrt das Objekt immer zum Ursprung zurück, bei
einer Relativbewegung bleibt das Objekt dort stehen,
wohin es bewegt wurde. Die Neigungsbewegungen summie
ren sich auf. Die Art der Anwendung entscheidet über
das zu realisierende Bewegungsmodell.
Die relative Translation speichert die Werte zum
Zeitpunkt t0 und bildet die Differenzen der aktuellen
Meßwerte zu diesem Referenzwert. Damit ist ein "Nach
fassen" des Objektes möglich und der Bewegungsraum
ist nicht mehr durch den Wertebereich der gemessenen
Winkel begrenzt. Die Bewegungsgleichungen gelten nach
(5.4).
Bei der Rotation werden die gemessenen Winkel in eine
Rotation des Objektes nach (5.5) umgesetzt. Das In
teraktionsgerät legt durch seine gemessene Lage im
Raum die Objektorientierung absolut fest. Das hat zur
Folge, daß sich das visualisierte Objekt auf Knopf
druck in die Lage bewegt, in der das Interaktionsge
rät gehalten wird.
Bei der konzipierten Winkelmessung kann die Rotation
um die z-Achse (ψi) nicht gemessen werden. Über einen
Taster wird alternativ die Drehung um die y-Achse
(θi) auf diese Rotation übertragen.
Analog zur relativen Translation kann die Rotation
ebenfalls auf differenzialen Daten (5.6) beruhen
Das konzipierte Interaktionsmodell ist mit Einschrän
kungen für ein Navigationsmodell auf der Basis von
Zeige und Fliege geeignet. Für dieses Navigations
prinzip werden die Daten des Kopftracking (xk yk zk ϕ
θ ψ) mit einbezogen. Das Bewegungsmodell entspricht
in etwa dem Maus-Bewegungsmodell von Performer.
Die Bewegungsrichtung wird von der Kopforientierung
vorgegeben. Es werden drei Taster benötigt, um die
Softwaremode zu schalten:
- - Modus 1: Vorwärtsflug mit Beschleunigung Solange der Taster gedrückt ist, wird die Ge schwindigkeit konstant erhöht.
- - Modus 2: Rückwärtsflug mit Beschleunigung wie bei Modus 1, nur wird die Geschwindigkeit negativ erhöht.
- - Modus 3: Stop Stehenbleiben an der aktuellen Position
Der Neigungswinkel ϕi des Interaktionsgerätes wird
für die Änderung des Azimutwinkels verwendet. Dabei
werden die absoluten Winkelwerte bezogen auf die
Schwerkraft eingesetzt. So hat der Benutzer durch die
visuelle Lage des Interaktionsgerätes eine unmittel
bare optische Kontrolle zu der virtuellen Navigation.
Die aktuelle Lage des Benutzers berechnet sich nach
(5.7).
Dabei wird die skalare Geschwindigkeit vk über die
Zeitdauer des gedrückten Tasters bestimmt.
Vk+1 = vk ± K (5.8)
Die Selektion von Funktionen oder Softwaremodi kann
mit diesem Interaktionsgerät über einen Taster für
die Funktionen und die Sensorik gesteuert werden. Die
Konzepte der Menüstrukturen werden im folgenden be
schrieben.
Fig. 7 zeigt ein Kugelmenü, das zur Selektion von
Funktionen oder Softwaremodi über einen Taster dienen
kann.
Bei einem derartigen Kugelmenü werden die Funktionen
durch die Neigung um die x-Achse
ϕ i|k
und die Neigung um die y-Achse
θ i|k
ausgewählt. Die Menükugel ermöglicht die Selektion von 5 verschiedenen Optionen:
ϕ i|k
und die Neigung um die y-Achse
θ i|k
ausgewählt. Die Menükugel ermöglicht die Selektion von 5 verschiedenen Optionen:
- - Klick ohne Neigung (M0)
- - Klick mit Neigung nach rechts bzw. links (M1, M2)
- - Klick mit Neigung nach oben bzw. unten (M3, M4)
Bei der Winkelauswertung wird immer nur eine Bewegung
berücksichtigt. Das System springt nach einer Verdre
hung von mindestens ±15° in die nächste Funktions
stufe.
Fig. 8 zeigt ein sogenanntes "Flat Icon Menü" (ebe
nes Symbol Menü).
Fig. 9 zeigt eine weitere Menüform, nämlich ein so
genanntes transparentes Textmenü. Die beiden Menüty
pen unterscheiden sich nur durch die Gestaltung und
den Ort der Darstellung voneinander. Beim Flat Icon
Menü werden die einzelnen Menüpunkte entlang einer
Reihe von Symbolflächen dargestellt, wobei die jewei
ligen Unterpunkte nach oben und nach unten als Sym
bolflächen aus der angewählten Symbolfläche heraus
klappen. Beim transparenten Text-Menü werden die mög
lichen Modi als Textleiste im oberen Bildrand darge
stellt. Die Selektion basiert auf den gemessenen Nei
gungswinkel. Dabei springt die horizontale Funktions
selektion
θ i|k
nach einer bestimmten Neigungsbewegung immer auf den nächsten Menüpunkt. Eine vertikale Neigung
ϕ i|k
wählt innerhalb des Funktionsblockes die Untermenüs aus.
θ i|k
nach einer bestimmten Neigungsbewegung immer auf den nächsten Menüpunkt. Eine vertikale Neigung
ϕ i|k
wählt innerhalb des Funktionsblockes die Untermenüs aus.
Der meßbare Winkelbereich von 90° wird auf die Anzahl
der horizontalen und vertikalen Funktionen
aufgeteilt. Der angezeigte Modus wechselt, sobald
dieser Winkelbereich überschritten wird.
Durch das Freigeben des Menütasters wird die markier
te Selektion aktiviert.
Zusätzlich zu dem zweiachsigen Beschleunigungssensor
aus dem vorigen Beispiel wird in diesem Beispiel ein
Kreiselsensor integriert. Mit dem Kreiselsensor wird
die Winkelgeschwindigkeit um die lokale z-Achse
ψ i|k
gemessen. Die Winkelgeschwindigkeiten ωz werden über die Zeitdauer des gehaltenen Tasters integriert und ausgegeben.
ψ i|k
gemessen. Die Winkelgeschwindigkeiten ωz werden über die Zeitdauer des gehaltenen Tasters integriert und ausgegeben.
Da der Anfangswinkel ψ i|k = t0 im Weltkoordinatensystem
nicht bekannt ist, muß eine Annahme getroffen werden.
In den meisten Anwendungen mit der Powerwall oder
CAVE können mit dem Anfangswert 0° gute Ergebnisse
erzielt werden. Die Interpretation der Winkeldaten
geht davon aus, daß der Benutzer senkrecht zur Pro
jektionsfläche steht, und das Interaktionsgerät in
der Nullage hält. Die Qualität der Integration hängt
vom Rauschverhalten und der zu erwartenden Bewegungen
ab. Das Konzept geht von langsamen und präzisen Bewe
gungen aus. Die zu erwartenden Winkelgeschwindigkei
ten sind daher sehr klein und liegen in der Nähe des
Eigenrauschens des Sensors. Damit erhöht sich für
diesen Sensor sowohl der hardwaretechnische Aufbau,
als auch die Software für die Filteralgorithmen, um
aus den Winkelgeschwindigkeiten korrekte Winkel zu
erhalten.
Zusätzlich kann ein Magnetfeldsensor integriert wer
den, der den Anfangswinkel im Bezug zum Erdmagnetfeld
mißt und in die Integration einfließen läßt. Für die
numerische Integration muß ein Verfahren gewählt wer
den, das die verfügbare Rechenkapazität des µC in be
zug auf Genauigkeit und Stromverbrauch optimiert.
Das Interaktionskonzept unterscheidet sich mit diesem
zusätzlichen Winkel nur geringfügig von dem vorigen
Konzept. Im folgenden werden die Bewegungsgleichungen
für die Navigation und Interaktion kurz vorgestellt.
Bei dem Interaktionskonzept "Szene in der Hand" wer
den die Objektdaten aus den Meßwerten des Interakti
onskonzeptes nach Gleichung (5.11) berechnet.
Die Selektion der Transformationsebene x-y oder x-z
bzw. die Unterscheidung zwischen Rotation und Trans
lation erfolgt durch zwei Taster.
Bei der Navigation nach dem angepaßten "Zeige und
Fliege" Modell kann durch den zusätzlichen Meßwert
ein verbessertes Navigationsmodell zum Einsatz kom
men. Hier gibt der Benutzer durch seine Blickdaten
zum Zeitpunkt t0 die Orientierung der Geschwindigkeit
ψ p|0
vor. Die Geschwindigkeit in der x- bzw. y-Achse wird vom jeweiligen Neigungswinkel
ϕ i|k bzw. θ i|k
bestimmt. Die Rotation um die eigene Achse wird eben falls vom Interaktionsgerät vorgegeben. Damit be stimmt sich die Position des Benutzers nach (5.12).
ψ p|0
vor. Die Geschwindigkeit in der x- bzw. y-Achse wird vom jeweiligen Neigungswinkel
ϕ i|k bzw. θ i|k
bestimmt. Die Rotation um die eigene Achse wird eben falls vom Interaktionsgerät vorgegeben. Damit be stimmt sich die Position des Benutzers nach (5.12).
Bei der Selektion von Funktionsmodi kann der Anfangs
winkel
ψ i|0
bei jedem Auslösen des Funktionstasters auf 0° ge setzt werden.
ψ i|0
bei jedem Auslösen des Funktionstasters auf 0° ge setzt werden.
Auch bei dieser Eingabevorrichtung können ein Kugel
menü oder ein transparentes Textmenü zur Selektion
von Funktionsmodi und dergleichen eingesetzt werden.
Bei einem Kugelmenü wie oben beschrieben, werden die
Funktionen durch die Neigung um die x-Achse
ϕ i|0
und die Verdrehung um die z-Achse
ψ i|0
ausgewählt. Die fünf Selektionsmöglichkeiten sind dann:
ϕ i|0
und die Verdrehung um die z-Achse
ψ i|0
ausgewählt. Die fünf Selektionsmöglichkeiten sind dann:
- - Klick ohne Rotation (M0)
- - Klick mit Rotation nach rechts bzw. nach links (M1, M2)
- - Klick mit Neigung nach oben bzw. unten (M3, M4).
Bei der Winkelauswertung wird immer nur eine Bewegung
berücksichtigt. Das System springt nach einer Verdre
hung von mindestens ±15° in die nächste Funktions
stufe.
Bei Verwendung eines transparenten Textmenüs kann die
horizontale Selektion durch die Rotation um die z-
Achse
ψ i|0
durchgeführt werden. Die vertikale Selektion funktio niert in derselben Weise wie in Kapitel 5.2.1 be schrieben.
ψ i|0
durchgeführt werden. Die vertikale Selektion funktio niert in derselben Weise wie in Kapitel 5.2.1 be schrieben.
Das am einfachsten zu benutzende Interaktionsgerät
verfügt über ein Meßsystem für alle sechs Freiheitsgrade,
wie es beispielsweise in Fig. 3 und 4 darge
stellt ist. Damit können translatorische und rotato
rische reale Bewegungen isometrisch in virtuelle Ak
tionen umgesetzt werden. Ein solches System auf der
Basis von Inertialsensoren verfügt über drei Kreisel
sensoren für die Winkelgeschwindigkeiten in allen
Achsen und drei Beschleunigungssensoren.
Die Zeitdauer der Messung ist durch die Auflösung der
Beschleunigungssensoren und die zu messenden Bewegun
gen begrenzt. Beim Einsatz von aktiven Beschleuni
gungssensoren muß die Erdbeschleunigung aus den Meß
werten nach Gleichung (5.14) herausgerechnet werden.
Die bei der Rotation auftretende Corioliskraft wird
vernachlässigt. Die Anfangsbedingungen für die nume
rische Integration werden aus den Meßwerten zum Zeit
punkt t0 nach (5.15) berechnet.
Die hier beschriebene Integration der Meßwerte ohne
die Berücksichtigung eines Systemverhaltens für die
Eingabevorrichtung führt in der Praxis zu einem an
wachsenden Fehler aufgrund des Sensorrauschens. Für
die Schätzung der Zustandsgrößen auf der Basis dieser
verrauschten Messungen haben sich Filtermethoden nach
Kalman bewährt, wie sie im folgenden beschrieben wer
den.
Das Systemverhalten der Eingabevorrichtung wird für
die diskreten Meßzeiten im zeitlichen Abstand h durch
(5.16) beschrieben:
den gemessenen Beschleunigungsdaten
und der vereinfachten Schreibweise
und der vereinfachten Schreibweise
wird die Modellgleichung durch (5.17) beschrieben.
Die Funktionen
werden als weißes Gauss'sches Rauschen mit folgenden
Randbedingungen angenommen:
mit der positiv definierten symmetrischen Matrix Qk
und rk < 0 für alle k. Es wird weiterhin vorausge
setzt, daß die Anfangsbedingungen
bekannt sind. Der Algorithmus für den Kalman Filter
berechnet sich dann mit der Kovarianzmatrix Pk,k-1 aus
den Elementen:
mit den Anfangswerten
Die Kalman Matrix G nach
berechnet sich dann zu:
damit wird die Matrix Pk,k der zweiten Momente der
Schätzfehler Pk,k = (I - GkCk)Pk,k-1 zu:
Der rekursive Kalman Algorithmus ist damit:
Da die Matrizen Pk,k, Pk,k-1 und Gk nicht von den Meß
werten abhängen, können sie off-line berechnet wer
den. Für die aktuelle Schätzung wird dann nur noch
die Gleichung (5.20) on-line berechnet.
Eine derartige on-line-Berechnung zur Ermittlung des
geschätzten Zustandes ist in Fig. 10 noch einmal
dargestellt, wobei die dort verwendeten Bezeichnungen
den in den obigen Gleichungen verwendeten Zeichnungen
entsprechen.
Zusammenfassend läßt sich feststellen, daß die erfin
dungsgemäße Visualisierungseinrichtung und die erfin
dungsgemäße Eingabevorrichtung für alle Navigations
konzepte eingesetzt werden kann, bei denen die Inter
aktionen auf Relativbewegungen zurückgeführt werden
können. Dieses System ermöglicht isometrische Inter
aktion in allen Freiheitsgraden. Wie bei allen diffe
renzialen Interaktionssystemen müssen für die Objekt
manipulation andere Metaphern, wie z. B. Spracheingabe
oder kombiniertes Kopf- und Handtracking eingesetzt
werden.
Ergänzend kann je nach eingesetztem Sensorverbund und
den damit erreichten Genauigkeiten eine differenziale
Objektselektion auf folgende Weise durchgeführt wer
den. Beim Einleiten einer Interaktion wird eine Re
präsentation des Interaktionsgerätes an einer ange
nommenen Position relativ zur Kopfposition eingeblen
det. Die Koordinaten dieses Objektes orientieren sich
an den antropometrischen Daten aus. Der Benutzer be
wegt diese Repräsentation dann mit einem konstanten
Offset zwischen der realen Hand und der visuellen
Darstellung. Die Interaktionen müssen dabei zeitlich
so kurz sein, daß die Meßwerte der Visualisierung
nicht davonlaufen.
Claims (15)
1. Handgehaltene, kabellose Eingabevorrichtung (4)
zur Erzeugung und Übermittlung von Orts-, Lage-
und/oder Bewegungsdaten zur Navigation und Mani
pulation in Systemen der virtuellen Realität mit
mindestens zwei Inertialsensoren (11, 12) zur
Erfassung von analogen Werten der Beschleunigung
und/oder der Winkelgeschwindigkeit der Eingabe
vorrichtung (4) mit einer ersten Frequenz,
einem integrierten Signalprozessor (13) zum Aus werten der von den Inertialsensoren (11, 12) ausgegebenen analogen Daten und Erzeugung digi taler differentialer Daten bezüglich der Bewe gung der Eingabevorrichtung (4) mit einer zwei ten Frequenz, sowie
einer Kommunikationsvorrichtung (17) zum kabel losen Senden der digitalen Daten,
dadurch gekennzeichnet, daß
eine Auslösevorrichtung (14) Teil der Eingabe vorrichtung ist, die die Inertialsensoren (11, 12) einschaltet,
die zweite Frequenz niedriger ist als die erste Frequenz,
und die zweite Frequenz der Bildfrequenz einer Bilddarstellungsvorrichtung entspricht.
einem integrierten Signalprozessor (13) zum Aus werten der von den Inertialsensoren (11, 12) ausgegebenen analogen Daten und Erzeugung digi taler differentialer Daten bezüglich der Bewe gung der Eingabevorrichtung (4) mit einer zwei ten Frequenz, sowie
einer Kommunikationsvorrichtung (17) zum kabel losen Senden der digitalen Daten,
dadurch gekennzeichnet, daß
eine Auslösevorrichtung (14) Teil der Eingabe vorrichtung ist, die die Inertialsensoren (11, 12) einschaltet,
die zweite Frequenz niedriger ist als die erste Frequenz,
und die zweite Frequenz der Bildfrequenz einer Bilddarstellungsvorrichtung entspricht.
2. Eingabevorrichtung (4) nach dem vorhergehenden
Anspruch, dadurch gekennzeichnet, daß die Auslö
sevorrichtung (14) die Inertialsensoren (11, 12)
für einen vorbestimmten Zeitraum einschaltet.
3. Eingabevorrichtung (4) nach Anspruch 1, dadurch
gekennzeichnet, daß die Auslösevorrichtung (14)
die Inertialsensoren (11, 12) im eingeschalteten
Zustand hält, solange sie betätigt wird.
4. Eingabevorrichtung (4) nach einem der vorherge
henden Ansprüche, dadurch gekennzeichnet, daß
als Inertialsensoren (11, 12)
ein bis drei Beschleunigungssensoren (11', 11", 11''') zum Erfassen und Ausgeben von Beschleuni gungswerten bezüglich einer oder mehrerer Achsen eines kartesischen Koordinatensystems mit einer bestimmten Frequenz und/oder
ein bis drei Winkelgeschwindigkeitssensoren (12 ', 12", 12''') zum Erfassen und Ausgeben von Winkelgeschwindigkeitswerten bezüglich einer oder mehrerer der Achsen des kartesischen Koor dinatensystems mit einer weiteren bestimmten Frequenz vorgesehen sind.
ein bis drei Beschleunigungssensoren (11', 11", 11''') zum Erfassen und Ausgeben von Beschleuni gungswerten bezüglich einer oder mehrerer Achsen eines kartesischen Koordinatensystems mit einer bestimmten Frequenz und/oder
ein bis drei Winkelgeschwindigkeitssensoren (12 ', 12", 12''') zum Erfassen und Ausgeben von Winkelgeschwindigkeitswerten bezüglich einer oder mehrerer der Achsen des kartesischen Koor dinatensystems mit einer weiteren bestimmten Frequenz vorgesehen sind.
5. Eingabevorrichtung (4) nach einem der Ansprüche
1 bis 3, dadurch gekennzeichnet, daß als Inerti
alsensor (11, 12) ein Kreiselsensor, ein Erdma
gnetfeldsensor oder ein Beschleunigungssensor
vorgesehen ist.
6. Eingabevorrichtung (4) nach einem der Ansprüche
1 bis 3, dadurch gekennzeichnet, daß als
Inertialsensor (11) ein Beschleunigungssenor
verwendet wird und der Signalprozessor (13) aus
den gemessenen Werten des Sensors in Ruhe der
Eingabevorrichtung (4) die Lage der Eingabevor
richtung (4) ermittelt.
7. Eingabevorrichtung (4) nach einem der vorherge
henden Ansprüche, dadurch gekennzeichnet, daß
der Signalprozessor (8) die von den Inertialsen
soren (11, 12) ausgegebenen analogen Daten ein
fach oder zweifach integriert.
8. Eingabevorrichtung (4) nach dem vorhergehenden
Anspruch, dadurch gekennzeichnet, daß die Inte
gration mit Beginn der Betätigung der Auslöse
vorrichtung (14) beginnt.
9. Eingabevorrichtung (4) nach einem der beiden
vorhergehenden Ansprüche, dadurch gekennzeich
net, daß die Anfangswerte der Winkel und der
Ortskoordinaten zu Beginn jeder Betätigung der
Auslösevorrichtung (14) zu 0 festgesetzt wird.
10. Eingabevorrichtung (4) nach einem der beiden
vorhergehenden Ansprüche, dadurch gekennzeich
net, daß der Signalprozessor (13) die Winkelge
schwindigkeit integriert und als Winkelwert aus
gibt.
11. Eingabevorrichtung (4) nach dem vorhergehenden
Anspruch, dadurch gekennzeichnet, daß für die
Integration der Anfangswert des Winkels zu 0°
festgesetzt wird.
12. Eingabevorrichtung (4) nach einem der vorherge
henden Ansprüche, gekennzeichnet durch einen Ma
gnetfeldsensor als Inertialsensor (11, 12), der
den Anfangswinkel mit Bezug auf das Erdmagnet
feld bestimmt.
13. Eingabevorrichtung (4) nach einem der vorherge
henden Ansprüche, dadurch gekennzeichnet, daß
die Kommunikationsvorrichtung (17) einen Radio
wellensender enthält.
14. Eingabevorrichtung (4) nach einem der vorherge
henden Ansprüche, dadurch gekennzeichnet, daß
die Kommunikationsvorrichtung (17) die Daten in
ASCII-Format sendet.
15. Visualisierungseinrichtung (1) zur Navigation
und Manipulation in Systemen der virtuellen Rea
lität mit einer Bilddarstellungsvorrichtung
(2, 3) zur Visualisierung von Daten und Bildern
in Abhängigkeit von vorgegebenen Orts-, Lage-
und/oder Bewegungsdaten sowie einer Eingabevor
richtung (4) zur Erzeugung und Übermittlung der
genannten Orts-, Lage- und/oder Bewegungsdaten
nach einem der vorhergehenden Ansprüche.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE2001132243 DE10132243C2 (de) | 2001-07-04 | 2001-07-04 | Kabelloses Interaktionssystem für Anwendungen der virtuellen Realität |
EP02013065A EP1276073A3 (de) | 2001-07-04 | 2002-06-13 | Kabelloses Interaktionssystem für Anwendungen der virtuellen Realität |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE2001132243 DE10132243C2 (de) | 2001-07-04 | 2001-07-04 | Kabelloses Interaktionssystem für Anwendungen der virtuellen Realität |
Publications (2)
Publication Number | Publication Date |
---|---|
DE10132243A1 DE10132243A1 (de) | 2003-01-23 |
DE10132243C2 true DE10132243C2 (de) | 2003-04-30 |
Family
ID=7690468
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE2001132243 Expired - Fee Related DE10132243C2 (de) | 2001-07-04 | 2001-07-04 | Kabelloses Interaktionssystem für Anwendungen der virtuellen Realität |
Country Status (2)
Country | Link |
---|---|
EP (1) | EP1276073A3 (de) |
DE (1) | DE10132243C2 (de) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102006055252B4 (de) | 2006-11-23 | 2019-03-28 | Deutsche Telekom Ag | Anordnung und Verfahren zur multimodalen Auswahl von Objekten in Telekommunikationsanwendungen |
Families Citing this family (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
IT1304768B1 (it) * | 1998-10-05 | 2001-03-29 | Esaote Spa | Lettino porta paziente o simili, e macchina, in particolare macchinaper il rilevamento d'immagini in risonanza magnetica nucleare in |
US7133563B2 (en) | 2002-10-31 | 2006-11-07 | Microsoft Corporation | Passive embedded interaction code |
US7262764B2 (en) | 2002-10-31 | 2007-08-28 | Microsoft Corporation | Universal computing device for surface applications |
US20040140962A1 (en) * | 2003-01-21 | 2004-07-22 | Microsoft Corporation | Inertial sensors integration |
DE10312154B4 (de) * | 2003-03-17 | 2007-05-31 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Verfahren und Vorrichtung zum Ausführen einer Objektverfolgung |
DE10343967A1 (de) * | 2003-09-19 | 2005-04-28 | Icido Ges Fuer Innovative Info | Räumliche Benutzungsschnittstelle zur Steuerung eines Graphiksystems der virtuellen Realität mittels einer Funktionsauswahl |
DE10343968A1 (de) * | 2003-09-19 | 2005-05-04 | Icido Ges Fuer Innovative Info | Verfahren und Vorrichtung zur Steuerung eines Graphiksystems der virtuellen Realität mittels Interaktionen |
EP1591873A3 (de) * | 2004-04-29 | 2006-12-06 | Samsung Electronics Co., Ltd. | Verfahren und Vorrichtung zur Eingabe von Informationen in ein tragbares elektronisches Gerät |
US20060032110A1 (en) * | 2004-08-16 | 2006-02-16 | Keng-Ming Yang | Trapping device |
FR2877113B1 (fr) * | 2004-10-22 | 2007-05-11 | Commissariat Energie Atomique | Dispositif autonome, systeme et procede de navigation dans un espace a au moins trois dimensions. |
DE102004057960A1 (de) * | 2004-12-01 | 2006-06-08 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Computer-Eingabegerät |
US7826074B1 (en) | 2005-02-25 | 2010-11-02 | Microsoft Corporation | Fast embedded interaction code printing with custom postscript commands |
US7421439B2 (en) | 2005-04-22 | 2008-09-02 | Microsoft Corporation | Global metadata embedding and decoding |
CN1870128B (zh) * | 2005-05-25 | 2011-11-23 | 光宝科技股份有限公司 | 混合乐曲的方法及装置 |
US7400777B2 (en) | 2005-05-25 | 2008-07-15 | Microsoft Corporation | Preprocessing for information pattern analysis |
US7729539B2 (en) | 2005-05-31 | 2010-06-01 | Microsoft Corporation | Fast error-correcting of embedded interaction codes |
US7817816B2 (en) | 2005-08-17 | 2010-10-19 | Microsoft Corporation | Embedded interaction code enabled surface type identification |
GB2477959A (en) * | 2010-02-19 | 2011-08-24 | Sony Europ | Navigation and display of an array of selectable items |
JP5143856B2 (ja) * | 2010-04-16 | 2013-02-13 | 株式会社ソニー・コンピュータエンタテインメント | 3次元画像表示装置、および3次元画像表示方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0457541A1 (de) * | 1990-05-18 | 1991-11-21 | British Aerospace Public Limited Company | Steuergeräte |
US5703623A (en) * | 1996-01-24 | 1997-12-30 | Hall; Malcolm G. | Smart orientation sensing circuit for remote control |
WO1997050029A1 (en) * | 1996-06-25 | 1997-12-31 | Philips Electronics N.V. | Virtual environment interaction and navigation device |
DE19845566A1 (de) * | 1998-09-04 | 2000-03-09 | Volkswagen Ag | Navigationsinterface zur Bewegung in virtuellen Welten |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5453758A (en) * | 1992-07-31 | 1995-09-26 | Sony Corporation | Input apparatus |
US5615132A (en) * | 1994-01-21 | 1997-03-25 | Crossbow Technology, Inc. | Method and apparatus for determining position and orientation of a moveable object using accelerometers |
US6727887B1 (en) * | 1995-01-05 | 2004-04-27 | International Business Machines Corporation | Wireless pointing device for remote cursor control |
US6148669A (en) * | 1998-06-29 | 2000-11-21 | U.S. Philips Corporation | Acceleration sensor with a spherical inductance influencing member |
-
2001
- 2001-07-04 DE DE2001132243 patent/DE10132243C2/de not_active Expired - Fee Related
-
2002
- 2002-06-13 EP EP02013065A patent/EP1276073A3/de not_active Withdrawn
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0457541A1 (de) * | 1990-05-18 | 1991-11-21 | British Aerospace Public Limited Company | Steuergeräte |
US5703623A (en) * | 1996-01-24 | 1997-12-30 | Hall; Malcolm G. | Smart orientation sensing circuit for remote control |
WO1997050029A1 (en) * | 1996-06-25 | 1997-12-31 | Philips Electronics N.V. | Virtual environment interaction and navigation device |
DE19845566A1 (de) * | 1998-09-04 | 2000-03-09 | Volkswagen Ag | Navigationsinterface zur Bewegung in virtuellen Welten |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102006055252B4 (de) | 2006-11-23 | 2019-03-28 | Deutsche Telekom Ag | Anordnung und Verfahren zur multimodalen Auswahl von Objekten in Telekommunikationsanwendungen |
Also Published As
Publication number | Publication date |
---|---|
EP1276073A2 (de) | 2003-01-15 |
EP1276073A3 (de) | 2006-11-15 |
DE10132243A1 (de) | 2003-01-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE10132243C2 (de) | Kabelloses Interaktionssystem für Anwendungen der virtuellen Realität | |
DE112018005530T5 (de) | IMU-basierter Handschuh | |
US5268998A (en) | System for imaging objects in alternative geometries | |
Fröhlich et al. | The cubic mouse: a new device for three-dimensional input | |
US5818424A (en) | Rod shaped device and data acquisition apparatus for determining the position and orientation of an object in space | |
CN103930854B (zh) | 借助指示器的姿态的测量控制光标的方法及实施所述方法的指示器 | |
CN104658012A (zh) | 一种基于惯性与光学测量融合的运动捕捉方法 | |
DE112007000074T5 (de) | System zum Erfassen einer Gierrate unter Verwendung eines Magnetfeldsensors sowie tragbare elektronische Vorrichtungen unter Verwendung hiervon | |
CN1380996A (zh) | 用于通过图象处理而不用三维建模来指示目标的设备和方法 | |
DE102016212236A1 (de) | Interaktionssystem und -verfahren | |
DE19632273A1 (de) | Körpersensorik | |
EP2325725A1 (de) | Verfahren zum reduzieren eines effekts auf virtuelle objekte | |
CN107782309A (zh) | 非惯性系视觉和双陀螺仪多速率ckf融合姿态测量方法 | |
CN109844600A (zh) | 信息处理设备、信息处理方法和程序 | |
EP1665023B1 (de) | Verfahren und vorrichtung zur steuerung eines graphiksystems der virtuellen realität mittels interaktionen | |
CN106774941B (zh) | 触屏终端3d虚拟角色与场景摄像机运动冲突的解决方法 | |
Murari et al. | Cross-platform immersive visualization and navigation with augmented reality | |
Menezes et al. | Touching is believing-Adding real objects to Virtual Reality | |
Boyali et al. | Real time six degree of freedom pose estimation using infrared light sources and wiimote IR camera with 3D TV demonstration | |
Abdullah et al. | A virtual environment with haptic feedback for better distance estimation | |
Clergeaud et al. | 3D collaborative interaction for aerospace industry | |
EP0716389A1 (de) | Stiftförmiges Gerät zur Erfassung von räumlichen Daten und Verfahren und zur Bestimmung der Position und Orientierung eines Gegenstandes im Raum | |
KR102256607B1 (ko) | 다중 콘텐츠 표현이 가능한 다중 가상현실 콘텐츠 제공 시스템 | |
Sukan | Augmented Reality Interfaces for Enabling Fast and Accurate Task Localization | |
Catarino | Development of Hand-Tracker: Wireless Solutation Based on Inertial Sensors |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8304 | Grant after examination procedure | ||
8364 | No opposition during term of opposition | ||
R119 | Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee | ||
R119 | Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee |
Effective date: 20150203 |