DE60114798T2 - Bewegungsbestimmung - Google Patents

Bewegungsbestimmung Download PDF

Info

Publication number
DE60114798T2
DE60114798T2 DE60114798T DE60114798T DE60114798T2 DE 60114798 T2 DE60114798 T2 DE 60114798T2 DE 60114798 T DE60114798 T DE 60114798T DE 60114798 T DE60114798 T DE 60114798T DE 60114798 T2 DE60114798 T2 DE 60114798T2
Authority
DE
Germany
Prior art keywords
inertial
moving
relative
orientation
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE60114798T
Other languages
English (en)
Other versions
DE60114798D1 (de
Inventor
Eric Foxlin
Yury Altshuler
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Intersense Inc Burlington
Intersense Inc a Massachusetts Corp
Original Assignee
Intersense Inc Burlington
Intersense Inc a Massachusetts Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=24220026&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=DE60114798(T2) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Intersense Inc Burlington, Intersense Inc a Massachusetts Corp filed Critical Intersense Inc Burlington
Application granted granted Critical
Publication of DE60114798D1 publication Critical patent/DE60114798D1/de
Publication of DE60114798T2 publication Critical patent/DE60114798T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1113Local tracking of patients, e.g. in a hospital or private home
    • A61B5/1114Tracking parts of the body
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2503/00Evaluating a particular growth phase or type of persons or animals
    • A61B2503/20Workers
    • A61B2503/22Motor vehicles operators, e.g. drivers, pilots, captains
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2562/00Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
    • A61B2562/04Arrangements of multiple sensors of the same type
    • A61B2562/046Arrangements of multiple sensors of the same type in a matrix array

Description

  • Diese Erfindung betrifft das Verfolgen einer Bewegung.
  • Eine auf Trägheit basierende Verfolgung mit einer automatischen Driftkorrektur hat sich als eine erfolgreiche Technik zum Verfolgen von Objekten gezeigt, wie beispielsweise Körpergliedern, Kameras, Eingabeeinrichtungen oder Head-Mounted-Displays (HMDs), die ein geringes Zittern, eine schnelle Antwort, eine größere Reichweite und weniger Probleme aufgrund einer Interferenz oder Sichtlinien-Versperrung bietet. Trägheitstracker wurden erfolgreich in einem breiten Feld von HMD-Anwendungen eingesetzt, einschließlich des Trainings in virtueller Umgebung (VE), bei virtueller Prototypherstellung, inaktiver Visualisierung und Gestaltung, VR-Spielen und sogar bei einer Fahrzeugsimulation auf feststehendem Sockel. Innerhalb dieses Umfangs von Anwendungen haben die Trägheitstracker eine weit verbreitete Akzeptanz als hoch leistungsfähige, robuste und kosteneffektive Alternativen zu magnetischen, optischen und akustischen Trackingsystemen erlangt. Die Firma InterSense aus Burlington, MA, hat bei der wirtschaftlichen Entwicklung von Bewegungsverfolgungssystemen unter Verwendung von auf MEMS basierenden Miniatur-Trägheitssensoren Pionierarbeit geleistet und bietet nun eine breite Produktlinie von hybriden Trägheitstrackern an.
  • Bis heute wurde Trägheitstracker nicht in Anwendungen verwendet, die eine verfolgende Bewegung relativ zu einer sich bewegenden Plattform statt relativ zur Erde erfordern. Dies umfasst solche wichtigen Anwendungen, wie auf Fahr- und Flugsimulatoren auf einem sich bewegenden Sockel, herkömmliche VE-Systeme, die an Bord von Schiffen eingesetzt werden, und ein Bereich von Life-Anwendungen in Fahrzeugen, wie die Sichtverbesserung von Fahrern oder Piloten, Cueing-Systeme und weiter entwickelte Schnittstellen zwischen Mensch/Maschine, um die situationsbedingte Wahrnehmung und Steuerfähigkeit eines Piloten zu verbessern. Die Leute, die eine Verwendung von Trägheitstrackern in diesen Anwendungsarten zu verwenden wünschen, haben erkannt, dass standardmäßige Trägheitsverfolgungssysteme, wie das InterSense IS-300, 600 oder 900 nicht korrekt funktionieren, wenn sie auf einer sich bewegenden Plattform betrieben werden, wie beispielsweise ein auf einem beweglichen Sockel arbeitender Simulator oder Fahrzeug. Die Trägheitssensoren würden eine Kopfbewegung relativ zum Boden messen, während die Drift-Korrekturbereichssensoren eine Kopflage relativ zu der Fahrzeugplattform messen würden, in welcher die Bezugsempfänger montiert sind. Obwohl sich das Fahrzeug dreht oder beschleunigt, würde der Kalman-Filter versuchen, widersprüchliche Daten abzusichern und unvorhersagbare Ergebnisse zu erzeugen.
  • Zwosta ( DE 198 30 359 ) ist eine solche ältere vorgeschlagene Anordnung, die nicht einmal versteht, dass dieses Problem existiert. Zwosta montiert sowohl die Positionssensoren als auch die Trägheitssensoren auf einen Körperteil (wie eine Hand) und auf den Körper als Ganzes. Während die Position des Körperteils in Bezug zum Körper durch drei Positionssensoren bestimmt wird, wird keine Erläuterung dazu gegeben, wie eine sinnvolle Bestimmung der Ausrichtung des Körperteils in Bezug zum Körper als Ganzem erreicht werden kann, wenn sich der Körper bewegt.
  • Wir erläutern unten im Detail, wie wir in der Lage sind, auf Trägheit basierende Kopf-Verfolgungssysteme an Bord von sich bewegenden Plattformen zu verwenden, indem die Bewegung einer „verfolgenden" Trägheitsmesseinheit (IMU) berechnet wird, die auf dem Objekt montiert ist, das in Bezug zu einer "Bezugs"-IMU verfolgt wird, welche an der sich bewegenden Plattform starr angebracht ist. Die Vorteile dieses Verfahrens lassen sich nicht nur auf Trägheitstracker mit Driftkorrektur unter Verwendung von Ultraschall-Messsensoren anwenden, sondern auch auf hybride Trägheitstracker, die eine optische, magnetische oder auch HF-Driftkorrektur beinhalten.
  • Im Allgemeinen liefert die Erfindung in einem Aspekt ein System zum Verfolgen der Bewegung eines Objekts relativ zu einem sich bewegenden Bezugssystem mit: einem ersten auf dem verfolgten Objekt montierten Trägheitssensor; einem zweiten auf dem sich bewegenden Bezugssystem montierten Trägheitssensor; und einem an den ersten und den zweiten Trägheitssensor gekoppeltes Element, dadurch gekennzeichnet, dass das Element so konfiguriert ist, dass dieses eine Orientierung des Objekts relativ zu dem sich bewegenden Bezugssystem auf der Basis von Signalen vom ersten und zweiten Trägheitssensor bestimmt, indem es ein Signal der relativen Drehrate integriert, die aus den durch den ersten und den zweiten Trägheitssensor gemessenen Drehratensignalen bestimmt wird.
  • In einem zweiten und alternativen Aspekt liefert die Erfindung ein System zum Verfolgen der Bewegung eines Objekts relativ zu einem sich bewegenden Bezugssystem, mit: einem ersten Trägheitssensor, der auf dem verfolgten Objekt angebracht ist; einem zweiten Trägheitssensor, der auf dem sich bewegenden Bezugssystem angebracht ist; und einem an den ersten und den zweiten Trägheitssensor gekoppelten Element, dadurch gekennzeichnet, dass das Element so konfiguriert ist, dass dieses eine Orientierung des Objekts relativ zu dem sich bewegenden Bezugssystem auf der Basis von Signalen vom ersten und zweiten Trägheitssensor bestimmt, indem die Orientierung des Objekts mit Bezug auf ein festes Trägheits-Bezugssystem durch Integrieren der durch den ersten Trägheitssensor gemessenen Drehratensignale bestimmt wird, die Orientierung des sich bewegenden Bezugssystems mit Bezug auf das gleiche feste Trägheits-Bezugssystem durch Integrieren von durch den zweiten Trägheitssensor gemessenen Drehratensignalen bestimmt wird und die relative Orientierung basierend auf den zweit besagten Orientierungen berechnet wird.
  • Gemäß einem dritten alternativen Aspekt der Erfindung, liefert diese ein Verfahren, das ein Bestimmen einer Orientierung eines Objekts relativ zu einem sich bewegenden Bezugssystem basierend auf Signalen von einem ersten und einem zweiten Trägersensor, die jeweils auf dem Objekt und auf dem sich bewegenden Bezugssystem angebracht sind, umfasst, indem ein Signal der relativen Drehrate integriert wird, das aus Drehratensignalen bestimmt wird, die durch den ersten und zweiten Trägheitssensor gemessen werden.
  • Die Erfindung liefert in einem vierten alternativen Aspekt derselben ein Verfahren, das ein Bestimmen einer Orientierung eines Objekts relativ zu einem sich bewegenden Bezugssystem basierend auf Signalen von einem ersten und einem zweiten Trägheitssensor, der jeweils auf dem Objekt und auf dem sich bewegenden Bezugssystem angebracht ist, umfasst, indem die Orientierung des Objekts in Bezug auf ein festen Trägheits-Bezugssystem durch Integrieren von Drehratensignalen, die durch den ersten Trägheitssensor gemessen werden, bestimmt wird, die Orientierung des sich bewegenden Bezugssystems in Bezug auf das gleiche feste Trägheits-Bezugssystem durch Integrieren von Drehratensignalen, die durch den zweiten Trägheitssensor gemessen werden, bestimmt wird und die relative Orientierung basierend auf den zwei besagten Orientierungen berechnet wird.
  • Implementierungen der Erfindung können ein oder mehrere der folgenden Merkmale umfassen. Der erste und zweite Trägheitssensor können drei Winkel-Trägheitssensoren umfassen, die aus der Gruppe von Winkelbeschleunigungsmessern, Winkelratensensoren und Winkelpositons-Gyroskope ausgewählt werden. Ein nicht auf Trägheitsbasis messendes Untersystem kann unabhängige Messungen in Bezug auf die Orientierung des Objekts relativ zu dem sich bewegenden Bezugssystem durchführen und diese zum Korrigieren einer Drift verwenden, die bei der Trägheits-Orientierungsintegration auftreten kann. Das nicht auf Trägheit basierende Mess-Untersystem kann ausgewählt werden aus der Gruppe optischer, akustischer, magnetischer, HF- oder elektromagnetischer Technologien.
  • Ein Drift-Korrekturglied kann verwendet werden, um eine Trägheitsdrift in der bestimmten Orientierung des Objekts in Bezug auf das Trägheits-Bezugssystem oder des sich be wegenden Bezugssystems in Bezug auf das Trägheits-Bezugssystem zu korrigieren. Das Drift-Korrekturglied kann Sensoren zum Bestimmen einer Schräglage in Bezug auf das Gravitationsfeld der Erde und eines Steuerkurses in Bezug auf das Magnetfeld der Erde enthalten. Ein Drift-Korrekturglied kann zum Korrigieren einer Trägheitsdrift in der bestimmten Orientierung des Objekts in Bezug auf das sich bewegende Bezugssystem unter Verwendung von unträgen Sensoren verwendet werden, um die relative Orientierung unabhängig zu messen.
  • Der erste und der zweite Trägheitssensor können jeder drei Linearbeschleuniger umfassen. Ein Element kann zum Berechnen der Position des Objekts relativ zu dem sich bewegenden Bezugssystem enthalten sein. Das Berechnungselement kann ein Signal der relativen Linearbeschleunigung, das aus den durch den ersten und den zweiten Trägersensor gemessenen Linearbeschleunigungssignalen berechnet wird, doppelt integrieren. Die Berechnung des Signals der relativen Linearbeschleunigung kann eine Kompensation von Tangential-, Coriolis- und Centripetal-Effekten, die durch die Winkelgeschwindigkeit und die Winkelbeschleunigung des sich bewegenden Bezugssystems verursacht werden, umfassen. Die Kompensationsglieder können unter Verwendung der durch den zweiten Trägheitssensor gemessenen Winkelgeschwindigkeit oder Winkelbeschleunigung des sich bewegenden Bezugssystems berechnet werden. In einigen Implementationen wird keine Kompensation für den Effekt der Schwerkraft auf die Beschleunigungsmesser durchgeführt.
  • Die Berechnung der Position des Objekts relativ zu dem sich bewegenden Bezugssystem kann ein Berechnen der Position der Objekts in Bezug auf ein festes Trägheits-Bezugssystem unter Verwendung der Signale vom ersten Trägheitssensor, der Position des sich bewegenden Bezugssystems in Bezug auf das gleiche feste Trägheits-Bezugssystem unter Verwendung der Signale vom zweiten Trägheitssensor und der relativen Position basieren auf den zwei individuellen Positionen umfassen. Ein Drift-Korrekturglied kann eine Trägheitsdrift in der bestimmten Position des Objekts in Bezug auf das Trägheits-Bezugssystem oder des sich bewegenden Bezugssystems in Bezug auf das Trägheits-Bezugssystem korrigieren. Das Drift-Korrekturglied kann Sensoren zum Messen einer Position sowohl des Objekts als auch des sich bewegenden Bezugssystems in Bezug auf Landmarken umfassen, die in einem gemeinsamen Trägheits-Bezugssystem fixiert sind. Das sich bewegende Bezugssystem kann mit einem Fahrzeug verbunden sein, und der zweite Trägheitssensor kann eine bereits bestehende Trägheits-Messeinheit an einem Fahrzeug umfassen, die zum Zwecke der Navigation installiert wurde. Der erste und der zweite Trägheitssensor können jeweils wenigstens sechs Linearbeschleuniger und zugehörige Prozessoren umfassen, um drei Winkelträgheits-Signale und drei Linearbeschleunigungen zu extrahieren.
  • Die Erfindung wird unten in größerem Detail mit Bezug auf die beigefügten Zeichnungen beschrieben, in welchen:
  • 1 eine Trägheitsverfolgung relativ zu einem festen Untergrund zeigt.
  • 2 eine Trägheitsnavigation relativ zur drehenden Erde zeigt.
  • 3a das Verfolgen einer Plattform und eines Kopfes relativ zum Untergrund unter Verwendung von absolut messenden Trägheits- und auf den Untergrund bezogene Sensoren zeigt.
  • 3b zeigt ein Verfolgen einer Plattform relativ zum Untergrund und eines Kopfes relativ zum Untergrund (Trägheit), unterstützt durch an der Plattform montierte Sensoren mit bekannter Position relativ zum Untergrund.
  • 3c zeigt ein Verfolgen eines Kopfes relativ zu einer Plattform unter Verwendung eines in sich geschlossenen Systems.
  • 3d zeigt Koordinatensystem-Konventionen für das Relativ-Verfolgungssystem aus 3c.
  • 4 zeigt eine IS-600 MPT Konfiguration und ein Blockdiagramm.
  • 5 zeigt simulierte Verfolgungsfehler und 1-Sigma Covarianzgrenzen für einen 6-Minuten-Lauf.
  • 6 zeigt simulierte IMU-Schrägstellung-Schätzfehler und 1-Sigma Corvarianzgrenzen für einen 6-Minuten-Lauf.
  • 1 HERLEITUNG DER BEWEGUNGSLEHRE
  • 1.1 Trägheitsverfolgung relativ zu einer festen Plattform
  • 1 zeigt den Fall, in dem ein Trägheitssystem verwendet wird, um die Haltung eines Körpers b in Bezug auf ein trägheitsfestes Navigationssystem n zu verfolgen. In dieser Situation, welche die Betriebsweise der bestehenden Verfolgungsprodukte von InterSense darstellt, werden nur zwei Koordinatensysteme verwendet. Nachfolgend werden Vektoren und Matrizen mit fett gedruckten Zeichen bezeichnet und Hochstellungen, falls vorhanden, zeigen an, in welchem System Vektoren koordinatisiert sind. Die Indizes an rnb geben an, dass es der Vektor vom n-Ursprungssystem zum b-Ursprungssystem ist. Ebenso repräsentiert ω b / nb den Winkelratenvektor des b-Systems mit Bezug auf (w.r.t.) dem im b-System koordinatisierten n-System, welcher derjenige ist, dem die mit den b-Systemachsen ausgerichtete, fahrzeugfeste Dreiergruppe von Wendekreisel misst. Die Dreier-Beschleunigungsmessergruppe erfasst f b / nb, die nicht gravitationsbedingte Beschleunigung (auch als spezifische Kraft bekannt) des b-Systems relativ zum Trägheits-Bezugssystem n, ausgedrückt im b-System.
  • Die Orientierung des b-Systems relativ zum n-System kann herkömmlich unter Verwendung einer Richtungskosinusmatrix C n / b dargestellt, werden, welche einfach die 3 × 3 Rotationsmatrix ist, welche Vektoren vom b-System in das n-System transformiert: vn = C n / bvb. Die Orientierung wird integriert, ausgehend von einer bekannten anfänglichen Orientierungsmatrix und unter Verwendung der Differentialgleichung: Ċnb = Cnb S(ωbnb ), (1)in welcher S(ω b / nb) ≡ [ω b / nbx] die schiefsymmetrische Matrix ist, die aus den Elementen von ω b / nb gebildet wird, um den in den eckigen Klammern angegebenen Kreuzprodukt-Operator zu implementieren. Die aktualisierte Rotationsmatrix wird dann dazu verwendet, die Ablesungen des Beschleunigungsmessers in das n-System aufzulösen, von dem aus sie leicht hinsichtlich des Gravitationseffektes korrigiert und doppelt integriert werden können, um die Kopfposition zu erhalten, und zwar unter Verwendung: ν .nnb = Cnb fnnb + gnnnb = vnnb (2)in welcher gn ≈ [0 0 9,8 m/s2]T der lokale Schein-Schwerkraftvektor ist, welcher definitionsge mäß im Navigations-(nav)-System nach unten zeigt und die Ableitungen werden beide in Bezug zu dem Navigationssystem berechnet.
  • Die Gleichungen (1) und (2) sind in dem Prozessor von InterSense IS-600 numerisch integriert, um die Verfolgung hinsichtlich Orientierung, Geschwindigkeit und Position zu halten. Sie mögen allzu einfach erscheinen, die Gyro-Sensoren in dem InertiaCubeTM IMU von InterSense sind jedoch nicht empfindlich genug, um die 15°/h Rotation der Erde zu erfassen, so dass es nicht nötig ist, Ausdrücke aufzunehmen, um deren Einfluss auf die Sensoren zu kompensieren. Die Drift, die sich aus der Verwendung solcher schwachen Winkelkreise ergibt und die Auswirkungen der Erdrotation vernachlässigt, muss häufig durch andere Mittel korrigiert werden, im Falle des IS-600 durch Ultraschall-Positionssensoren und einen für die Driftkorrektur erweiterten Klaman-Filter.
  • 1.2 Trägheitsverfolgung relativ zur rotierenden Erde
  • In diesem Abschnitt besprechen wir die grundlegenden Gleichungen der terrestrischen Navigation, primär als Quelle der Inspiration für die Herleitung in dem folgenden Abschnitt, welcher sich mit einem ähnlichen Problem der Verfolgung eines sich bewegenden Körpers relativ zu einem anderen sich bewegenden Körper beschäftigt.
  • Anders als im vorher gehenden Abschnitt werden wir nun drei Koordinatensysteme benötigen. Das Trägheitssystem oder i-System hat seinen Ursprung im Zentrum der Erde, seine Achsen drehen aber nicht mit der Erde, sondern stehen in Bezug zu den entfernten Sternen fest. Der Orbit dieses Systems um die Sonne ist so langsam, dass er perfekt geeignet ist, als ein Trägheits-Bezugssystem behandelt zu werden. Genauso wie vorher, als das Körpersystem als in dem zu verfolgenden Körper festgelegt definiert wurde, ist dies nun ein Flugzeug, mit der X-Achse nach vorne, der Y-Achse nach rechts und der Z-Achse nach unten. Das Navigationssystem (n-System) wird nun als ein Ortsniveau-System definiert, dessen X, Y, Z-Achsen jeweils zu der lokalen Nord-, Ost- und Abwärtsrichtung ausgerichtet sind, wie dies in 2 dargestellt ist. Die Abwärtsrichtung ist definiert durch den örtlichen Scheinschwerkraft-Vektor gl, die Richtung, in welcher ein Senkblei hängt, welcher der resultierende Vektor aus dem Massenanziehungsvektor in Richtung der Erde und dem Zentrifugalbeschleunigungsvektor weg von der Erdrotationsachse ist, der von einem stationären Objekt auf dem Boden gefühlt wird.
  • In der terrestrischen Echtzeit-Navigation folgt das n-System dem Flugzeug und hat seinen Ursprung immer an der gegenwärtigen Flugzeugposition. Deshalb können die Positionen und die Geschwindigkeit in Bezug zu dem n-System spezifiziert werden, und es ist notwendig, noch ein weiteres System, das so genannte e-System, einzuführen, dessen Achsen in der Erde festgelegt sind. Die übliche Strategie für eine Flugzeugnavigation besteht darin, die „Bodengeschwindigkeit" ve in Bezug zur Erde zu berechnen, diese aber in dem n-System zu koordinatisieren. Dies ist günstig, weil 1) es viel leichter ist, eine lokale Schwerkraft im n-System zu berechnen, und 2) die nördliche, östliche und nach unten gerichtete Geschwindigkeit direkt integriert werden kann, um die Verfolgung der Position hinsichtlich der Breite, der Länge und der Höhe beizubehalten, welches die gewünschten Koordinaten für eine globale Navigation sind. Für die vorliegenden Zwecke jedoch werden dadurch einige zusätzliche Ausdrücke hinzu gefügt, die für die Herleitung im nächsten Abschnitt nicht benötigt werden. Aus Gründen der Einfachheit werden wir das n-System an einem speziellen Punkt auf der Erde einfach „einfrieren" und annehmen, dass das Flugzeug herum fliegt und nahe genug an dem Ursprung des n-Systems bleibt, so dass wir die Krümmung der Erde über diesen Flugbereich vernachlässigen können.
  • Wir wollen das Flugzeug in Bezug zu dem n-System verfolgen, welches sich selbst relativ zu dem Trägheits-Bezugssystem bewegt. Die Trägheits-Messeinheit (IMU) in dem Flugzeug misst immer die Winkelgeschwindigkeit und die nicht-schwerkraftbezogene Beschleunigung des Flugzeugs relativ zum Trägheitsraum, ausgedrückt im b-System: ω b / ib und f b / ib. Da ωib = ωin + ωnb, haben wir ωbnb = ωbib – Cbn ωnin , (3)welche in Gleichung (1) eingesetzt und integriert werden kann, so dass der gegenwärtigen Orientierung gefolgt wird. ω b / ib bist direkt von den Winkelkreiseln erhältlich und ω n / in kann basierend auf der Geschwindigkeit der Erde und der Breite L berechnet werden. Im nächsten Abschnitt, in welchem sich das n-System ein wenig weniger vorhersagbar bewegt als die Rotation der Erde, kann ω n / in nicht berechnet werden, es kann aber durch Kreisel, die auf der sich bewegenden Plattform montiert sind, direkt gemessen werden.
  • Um die Geschwindigkeit und die Position des Flugzeugs relativ zu dem n-System zu finden, welches sich relativ zum Trägheitssystem dreht, müssen wir das Coriolis-Gesetz anwenden, welches in seiner allgemeinsten Form angegeben werden kann als Da = Db + ωabx (4)
  • In welcher Da einen Operator darstellt, der einen Vektor relativ zum a-System ableitet, und a und b beliebige zwei kartesische Koordinatensysteme sind, die sich einen gemeinsamen Ursprung teilen, aber mit einer relativen Winkelgeschwindigkeit ωab rotieren. Es beginnt mit den Bewegungsgleichungen in dem Trägheitssystem, welche ausnahmslos geradlinig sind: D2i rib = fib + gm (5)
  • Dies ist eine Vektorbeziehung, welche in jedem Koordinatensystem gültig sein wird, deshalb der Wegfall von Hochstellungen. gm repräsentiert einen reinen Massenanziehungs-Schwerkraftsvektor. Wir wollen nun diesen in ein n-System umwandeln. Wenn wird die linke Seite der Gleichung (5) mit dem Coriolis-Operator (4) erweitern, erhalten wir:
    Figure 00090001
    in welcher Ausdrücke, die Dnωin oder Dnrin enthalten, gestrichen werden, weil ωin und rin in dem n-System konstante Vektoren sind. Wenn dies mit der rechten Seite der Gleichung (5) gleich gesetzt wird, haben wir ν .nb = fib + gm – ωinx(ωinxrib) – 2(ωinxvnb) = fib + gl – 2(ωinxvnb) (7)in welcher gl ≡ gm – ωinx(ωinxrib) die lokale Scheinschwerkraft ist, die sowohl durch die Massenanziehung als auch die Zentrifugalbeschleunigung, die auf den Körper wegen der Erdrotation wirken. Wenn die Ergebnisse in einer Stelle zusammengefasst werden, sind die Navigationsgleichungen wie folgt: Ċnb = Cnb S(ωbib – Cbn ωnin ) ν .nnb = Cnb fbib + gnl – 2(ωinxvnb) ṙnnb = vnnb (8)welche ohne Weiteres unter Verwendung der Eingaben ω b / ib und f b / ib aus der Flugzeug IMU plus der Menge ω n / in, welche aus der Erdrotationsgeschwindigkeit und der bekannten Breite des n-Systems berechnet wird, integriert werden können. Wenn die Gleichungen (1) und (2) verglichen werden, unterscheiden sich diese nur durch die Hinzufügung einiger Extraausdrücke, um den Effekt der Rotationsgeschwindigkeit des n-Systems ω n / in an den Winkelkreiseln und Beschleunigungsmessern zu kompensieren. Diese Extraausdrücke sind winzig und verändern sich nur langsam im Vergleich zu den Ursprungsausdrücken. Es ist deshalb üblich, diese Ausdrücke mit einer viel geringeren Rate zu integrieren, als der numerischen Integrationsrate der größeren Ausdrücke, welche typischerweise mehrere Hundert Hz beträgt.
  • 1.3 Trägheitsverfolgung relativ zu einer zufällig manövrierenden Plattform
  • Wir verfolgen den Kopf eines Menschen relativ zu einer manövrierenden Plattform, indem die mathematischen Grundlagen übernommen werden, die von einem Trägheits-Navigationssystem verwendet werden, um ein Flugzeug relativ zu einer sich drehenden Erde zu verfolgen, wie dies im voraus gegangenen Abschnitt beschrieben wurde. Einige Modifikationen werden erforderlich sein, weil die Bewegung der Plattform dynamischer und weniger voraussagbar ist als die Erdrotation:
    • 1) Wir können nicht einfach ω n / in basierend auf der bekannten konstanten Erdrotation und Breite berechnen. Stattdessen werden wird eine Bezugs-IMU an der Plattform anbringen müssen und ihre Gyros dazu verwenden, ω n / in zu messen.
    • 2) Wir können nicht die Vereinfachungen Dnωin oder Dnrin = 0 verwenden.
    • 3) Anders als die Erde kann die Plattform beschleunigen und auch rotieren, so dass wir der Navigationsgleichung Ausdrücke basierend auf den Beschleunigungsmesser-Ablesungen der Bezugs-IMU hinzu fügen müssen.
    • 4) Eine Plattformbewegung kann nicht als langsam angesehen werden, so dass alle Ausdrücke in die m-Geschwindigkeit-Integrationsalgorithmen aufgenommen werden müssen.
    • 5) Die Bewegungsplattform manövriert unvorhersagbar und ist nicht länger Bezugssystem auf Ortniveau. Der Schein-Schwerkraftvektor weist in dem Plattformsystem nicht immer gerade nach unten.
  • Im Lichte dieser Komplikationen wäre es ein Ansatzpunkt, ein n-System auf Ortniveau zu verwenden, das an dem Untergrund angebracht ist, und den Verfolgungsalgorithmus relativ zum Untergrund aus Abschnitt 1.1 zu verwenden, um sowohl die Bewegungsplattform (p) als auch den Kopf (h) des Benutzers relativ zum Untergrund (n) zu verfolgen. Dann kann die Kopfhaltung des Nutzers relativ zur Bewegungsplattform berechnet werden unter Verwendung von C p / h = C p / nC n / h und r p / p→h = C p / n(r n / n→h – r n / n→p).
  • Mehrere mit dem Betrieb der IS-600 vertrauten Ingenieure haben diesen Ansatz vorgeschlagen. In vielen praktischen Situationen gibt es jedoch ein Problem. Der normale Verfolgungs-Algorithmus der IS-600, der im Abschnitt 1.1 beschrieben wurde, erfordert einen klaren akustischen Weg zwischen dem verfolgten Objekt und der X-Stange des Empfängers, um die Messungen zum Drift-Korrekturbereich durchzuführen. Dies ist gut für Simulatoren mit oben offener Bewegungsbasis, die manchmal mit Systemen auf HMD-Basis verwendet werden, wie dies in 3a dargestellt ist. Viele Simulatoren mit Bewegungsbasis haben jedoch geschlossene Simulatorkabinen, welche die Verwendung von akustischen, optischen oder magnetischen Einrichtungen zum Bereitstellen von Hilfsmessungen zur Kopfposition relativ zu einer Empfängereinheit, die an einer festen Stelle außerhalb der Simulatorkabine befestigt ist, wirksam verhindern würden. Eine mögliche Lösung dieses Problems ist in 3b dargestellt. Hier führen sowohl die Kopf- als auch Plattform-Trägheitssysteme relativ zum Untergrund unter Verwendung des Algorithmus aus Abschnitt 1.1 eine Verfolgung durch. Für den Plattform-Tracker werden die Messungen zum Drift-Korrekturbereich relativ zu einer externen X-Stange durchgeführt, die in der Umgebung in üblicher Weise befestigt ist. Für den Kopf-Tracker sind Hilfsmessungen relativ zum Untergrund erforderlich, um die Trägheitsmessungen zu korrigieren, die für den Kopf-Tracker sichtbare X-Stange ist aber auf der sich bewegenden Simulatorplattform montiert. Um virtuelle Messungen relativ zum Untergrund zu erzeugen. Könnten wir die bekannte Position der Simulatorplattform dazu verwenden, die Positionen der X-Stangen-Empfängergruppen in das feststehende Bezugssystem zu transformieren, bevor ihre Bereichmessungen bearbeitet werden. In einigen Fällen könnte die externe X-Stange weg gelassen werden, indem Daten von Kodiereinrichtungen auf Stellgliedern der Bewegungsbasis verwendet werden, wenn sie verfügbar wären und eine millimetergenaue Präzision in Echtzeit anbieten könnten.
  • Dies kann ein realisierbarer Ansatz für einige Simulatoren sein, er wird nicht für ein Verfolgen von sich bewegenden Fahrzeugen funktionieren, wo Fahrzeugpositionsdaten im Millimeterbereich im Allgemeinen nicht verfügbar sind. Bei Anwendungen für eine Fahrzeugverfolgung (und auch mit den meisten Simulatoren) ist das einzige was benötigt wird, die Kopfhaltung relativ zu der sich bewegenden Plattform. Es wäre wünschenswert, ein Verfahren zum direkten Messen dieser Haltung zu finden, ohne das Fahrzeug auch in Bezug zum Untergrund verfolgen zu müssen und der Unterschied in der Haltung im Nachhinein berechnen zu müssen. Dies würde zu einem Verfolgungssystem für allgemeine Zwecke führen, das mit jeder Art von einer sich bewegenden Plattform funktionieren würde, und die Installation wäre einfacher, da das gesamte System auf der Innenseite installiert werden würde. 3c zeigt die Hardware für ein solches System, die in einer Simulatorkabine auf einer Bewegungsbasis installiert ist. In dem verbleibenden Rest dieses Abschnitts wird ein Ansatz dafür entwickelt.
  • Der erste Schritt, um das in 3c dargestellte, erwünschte Verfolgungssystem zu erhalten, besteht darin, das an der sich bewegenden Plattform fixierte Navigationssystem zu wählen. 3d zeigt eine besonders günstige Wahl der n-Systemachsen, die an der Bezugs-IMU zentriert und mit deren Achsen ausgerichtet sind. Die Bezugs-IMU ist an das Zentrum einer IS-600 X-Stange geschraubt (oder an irgendeine andere Bezugs-Verfolgungseinrichtung), welche wiederum an das Kabinendach der Simulatorkabine des Cockpits geschraubt ist. Dies mag ein wenig seltsam klingen für diejenigen, die Trägheitsnavigationssysteme gewöhnt sind, bei welchen das n-System immer ein Ortsniveau-System ist, dessen vertikale Achse mit der Richtung der örtlichen Schwerkraft ausgerichtet ist. Der Hauptzweck des n-Systems ist in der Tat, ein digitales Äquivalent zu einem gewöhnlichen, mechanisch-kardanisch aufgehängten Trägheits-Navigationssystem (INS) zu schaffen, in welchem Kreisel auf den kardanischen Aufhängungen dazu verwendet werden, um eine Dreiergruppe von Beschleunigungsmessern auf einem Niveau und in einer Nordhaltung zu servo-stabilisieren, selbst dann, wenn das Fahrzeug herum manövriert. Wenn die Beschleunigungsmesser immer in der Nord-Ost-Abwärts-Orientierung gehalten wird, muss der Ausgabe des z-Beschleunigungsmessers lediglich 1 g hinzu addiert werden, dann die Beschleunigungsmesser-Ausgänge doppelt integriert werden, um die Position in dem Navigationssystem zu verfolgen. In fahrzeugfesten Systemen wird die gespeicherte C n / b-Matrix verwendet, um die Ablesungen vom Beschleunigungsmesser in das Navigationssystem zu transformieren, wobei dann genau das Gleiche getan wird, wie dies in Gleichung (2) beschrieben wurde. Um diese Technik mit dem tanzenden n-System zu verwenden, das in 3d dargestellt ist, kann es notwendig erscheinen, konstant die Verfolgung von C i / n beizubehalten (genau das, was wir zu vermeiden versuchen), um den Effekt der örtlichen Schwerkraft in dem n-System auszurechnen und zu kompensieren. In einem Aspekt der Erfindung schaffen wir jedoch eine Alternative.
  • Wir können die Bezugs-IMU dazu verwenden, das Schwerkraftfeld in dem n-System an jeder Zeitstufe zu messen, anstatt zu versuchen, dieses zu berechnen? Der Schlüssel, der diesen Ansatz möglich macht, ist die Erkenntnis, dass es nicht notwendig ist, den Effekt der Erdanziehung auf die b-System-Beschleunigungsmesser ausdrücklich zu kompensieren. Es ist der kombinierte Effekt der Schwerkraft und der Beschleunigung des n-Systems, welcher die b-System-Beschleunigungsmesser stört und vor der Integration beseitigt werden muss. Es passiert, dass dieser summierte Effekt genau dem entspricht, was die Beschleunigungsmesser der Bezugs-IMU messen. Unter Ausnutzung dieser Beobachtung zu unserem Vorteil, wiederholen wird nun die Ableitung aus Abschnitt 1.2, aber ohne den Luxus, Ausdrücke aufgrund einer Konstanz der n-Systemrotation zu beseitigen. Wieder mit der universellen Bewegungsgleichung (5) des i-Systems gelangen wird in ähnlicher Weise zu Gleichung (6), mit der Ausnahme, dass wir den Ausdruck D 2 / irin nicht erweitern: D2i rib = D2i rin + {D2i rnb} = D2i rin + {(Dn + ωinx)2rnb} = D2i rin + {(Dn + ωinx)(Dnrnb + ωinxrnb)} = D2i rin + {D2n rnb + Dnωinxrnb + ωinxDnrnb + ωinxDnrnb + ωinx(ωinxrnb)} = D2i rin + ν .nb + ω .inxrnb + 2(ωinxvnb) + ωinx(ωinxrnb) (9)
  • Unter Verwendung von Gleichung (5) zum Ersetzen von sowohl D 2 / irib = fib + gm und D 2 / irin = fin + gm und nach Neuordnung der Ausdrücke erhalten wir ν .nnb = Cnb fbib – ω .nin xrnnb – 2(ωnin xvnnb ) – ωnin x(ωnin xrnnb ) – fnin (10)in welcher die Orientierungsmatrix C n / b herrührt von der Integration von Ċnb = Cnb S(ωbib – Cbn ωnin ) (11)und die Position r n / nb erhalten wird durch Integrieren von nnb = vnnb (12)genau wie im Abschnitt 1.2.
  • Falls die Bezugs-IMU am Ursprung des n-Systems montiert ist, misst sie direkt f n / in und ω n / in, so dass (10) die vollständige Navigationsgleichung ist, welche unter Verwendung nur der Daten, die von den zwei IMUs erhältlich sind, integriert werden kann. (Eine numerische Annäherung an die Ableitung von ω n / in wird benötigt, wenn Winkelbeschleunigungsmesser auf der Bezugs-IMU nicht verfügbar sind.) Der zweite, dritte und vierte Ausdruck sind neue Hinzufügungen im Vergleich zu der Gleichung (2) für die stationäre Plattform. Sie repräsentieren Tangential-, Coriolis- bzw. Zentripetal-Beschleunigungen, welche sich aus der Rotation des n-Systems ergeben. Die Coriolis- und Zentripetal-Ausdrücke sind auch in der Gleichung (8) für die Erdrotationsnavigation vorhanden, wobei der letztere in der Definition der örtlichen Schwerkraft absorbiert wird. Der Ausdruck für die tangentiale Beschleunigung benötigt eine geräuschverstärkende numerische Differenzierung der Diskretzeit-Gyroausgänge, und könnte somit eine potentielle Quelle eines signifikanten Integrationsfehlers sein, wenn der Hebelarm r n / nb von der Bezugs-IMU zu der Verfolgungs-IMU zu lang ist.
  • Der fünfte Ausdruck – f n / in ersetzt g n / l und beinhaltet sowohl den Effekt von g l / m =[0 0 g)T, rotiert in das gekippte n-System, als auch die tatsächliche Beschleunigung der Plattform.
  • Durch Messung des Effekts der Schwerkraft direkt in dem n-System mit einer Bezugs-IMU müssen wir nichts über die Neigungswinkel der Plattform wissen, um den Schwerkraftvektor in dem n-System zu zerlegen. So arbeitet dieses System unabhängig, ohne Eingaben von dem Controller der Bewegungsbasis oder dem Fahrzeughaltungs-Bezugssystem und ohne dem Erfordernis, jemals die Orientierung oder Position der sich bewegenden Plattform zu kennen oder zu messen oder zu berechnen.
  • Falls die Bezugs-IMU an der versetzten Nicht-Null-Position r n / RIMU von dem n-Systemursprung angeordnet ist, wird sie messen f ~nin = fnin + D2i rnRIMU = fnin + ω .nin xrnRIMU + ωnin x(ωnin xrnRIMU )
  • Deshalb müssen wir zuerst die Effekte der tangentialen und zentripetalen Beschleunigung aus f ~ n / in beseitigen: fnin = f ~nin – ω .nin xrnRIMU – ωnin x(ωnin xrnRIMU )
  • Dann wird dieser wahre Wert f n / in in die Navigationsgleichung (10) überführt. Dies kann zusätzliche Berechnungen- und Zahlenfehler hinzufügen, welche vermieden werden könnten, indem der n-Systemursprung an der Bezugs-IMU (wie sie in 3d gezeigt ist) definiert wird und dann r n / RIMU von dem berechneten Endergebnis r n / nb subtrahiert wird.
  • 2. SIMULATIONSERGEBNISSE
  • 2.1 IS-600 MPT Konfigurationsbeschreibung
  • Als ein Beispiel eines Implementierungsansatzes definieren wir nun eine spezifische Konfiguration für ein Verfolgungssystem, den so genannten IS-600 MPT. Der IS-600 MPT ist eine Ableitung des InterSense IS-600 Mark 2 Bewegungs-Verfolgungssystems. Ähnlich wie der IS-600M2 hat der MPT eine X-Bezugsstange, welche vier Empfänger-Pods, eine Verfolgungs-"Station", bestehend aus der Verfolgungs-IMU und zwei SoniDisc-Ultraschallbaken, die starr auf einem 6 Inch langen Streifen montiert sind, und eine in einem Rack montierte Prozessoreinheit. Die Prozessoreinheit sammelt die Daten von den verschiedenen Sensoren, führt Integrations- und Sensorfusionsalgorithmen durch und gibt die entwickelten 6-DOF-Daten über einen seriellen Anschluss an einen Host aus. Zudem hat der IS-600 MPT eine zusätzliche Bezugs-IMU, die an das Zentrum der X-Stange montiert ist, dort, wo der Standardursprung für das Verfolgungs-Bezugssystem (n-System) liegt. 4 zeigt die Konfiguration des IS-600 MPT, wie sie im Abschnitt 2.3 simuliert wird, einschließlich des im Abschnitt 1.3 für die Trägheitsverfolgung relativ zu einer sich bewegenden Plattform abgeleiteten, verbesserten kinematischen Integrationsalgorithmus.
  • 2.2 Schräglage-Beobachtungsproblem
  • Eine sorgfältige Untersuchung von 4 offenbart ein mit dem vorgeschlagenen Ansatz einer relativen Trägheitsverfolgung verbundenes potentielles Problem. Eine der wichtigen Aufgaben der Fehler-Abschätzeinrichtung des erweiterten Kalman-Filters (EKF) besteht, die Schräglagen des Trägheitssensors abzuschätzen, so dass diese Information dazu verwendet werden kann, die IMUs vor dem Durchführen der numerischen Integration kinematischer Gleichungen (11), (10), (12) zu kompensieren. Es ist bekannt, dass für den Fall einer Verfolgung mit feststehender Platt unter Verwendung einer einzigen IMU die komplementäre EKF-Formulierung Schräglagen von Kreiseln erfolgreich abschätzen und kompensieren kann. Sie ist in der Lage, dies durch ein indirektes Beobachten des Effekts der Kreisesschräglagen an der Ausbreitung von Orientierungsfehlern über die Zeit zu tun. Da eine Kreiselschräglage eines speziellen Kreisels bewirkt, dass ein Orientierungsfehler in einer bestimmten Weise akkumuliert wird, kann der Filter den Orientierungsfehler eindeutig zu dem anstößigen Kreisel zurückverfolgen und dessen Schräglage korrigieren.
  • Für das relative Trägheits-Verfolgungssystem aus 4 gibt es eigentlich 6 Kreisel, die zu der Integration der 3-DOF-Orientierung mittels Gleichung (11) beitragen. Für jede spezielle Orientierung des b-Systems relativ zum n-System kann jede Anzahl von Kreisel-Schräglagenkombinationen zu dem gleichen Orientierungs-Driftmuster führen. Wenn zum Beispiel Gieren, Neigen und Rollen zwischen der Plattform und dem Kopf alle Null sind, C b / n = I3X3 und ω b / nb = ω b / ibω n / in. Gleiche Kreiselschräglagen der x-Kreisel beider IMUs würden deshalb n-System und das b-System dazu veranlassen, sich beide in der gleichen Richtung zu drehen, so dass sich die relative Orientierung nicht ändern würde. Deshalb wären diese Nicht-Null-Kreiselschräglagen von einer Zustands-Abschätzeinrichtung (EKF) nicht wahrnehmbar, die nur Messungen der relativen Orientierung der zwei Systeme erhält. Aufgrund von Platz beschränkungen werden wir nicht das Wahrnehmbarkeits-Grammion berechnen, um dies nachzuweisen, sondern dieses intuitiv akzeptieren. Ein ähnliches Problem besteht für die Wahrnehmbarkeit der Schräglage des Beschleunigungsmessers, wenn sich die zwei Systeme in beliebigen fest stehenden Positionen relativ zueinander befinden.
  • Glücklicherweise scheint es intuitiv realistisch zu sein, dass das Wahrnehmbarkeitsproblem solange nicht auftritt, wie sich das b-System relativ zum n-System bewegt. Angenommen wir beginnen mit der stetig gehaltenen relativen Orientierung [0 0 0]. Nach einem Augenblick wird die Zustands-Abschätzeinrichtung nun nicht alle der einzelnen Kreiselschräglagen spezifisch kennen, sie wird aber wissen, dass die Differenz zwischen den zwei X-Kreiselschräglagen einen bestimmten Wert hat. Nun vorausgesetzt, das b-System dreht sich plötzlich um einen Gierwinkel von 90° relativ zu dem n-System. Nun passt der X-Verfolgungskreisel mit dem Y-Bezugskreisel zusammen und umgekehrt und werden die X- und Y-Gyroschräglagen beider IMUs wahrnehmbar. In einer weiteren Drehung um eine andere Achse wird auch der Z-Kreisel wahrnehmbar. Deshalb scheint es, dass der Tracker solange funktionieren sollte, wie die Nutzerin gelegentlich den Kopf bewegt.
  • Ob dies akzeptabel ist oder nicht, hängt davon ab, wie häufig sie ihren Kopf bewegen muss, um das Verfolgungssystem innerhalb seiner angegebenen Leistungsbereiche zu halten. Falls der Tracker erst eine halbe Stunde später, nachdem die Nutzerin ganz aufgehört hat, sich zu bewegen, damit beginnt, sein Leistungsfähigkeit deutlich abzubauen, wird dies für die meisten realen Anwendungen kaum ein Problem darstellen. Im nächsten Abschnitt wird eine Simulation entwickelt und genutzt, um mit dem Effekt einer Nutzerbewegung oder einem Fehlen derselben auf die Verfolgungsqualität zu experimentieren.
  • 2.3 Simulationsergebnisse
  • Eine Simulation wurde geschrieben, um die Leistungsfähigkeit des vorgeschlagenen Algorithmus und die Ernsthaftigkeit des gerade beschriebenen Problems der Wahrnehmbarkeit einer Schräglage zu bewerten. Die Eingaben für die Simulation sind zwei "wahre" Bewegungsbahndateien, eine, welche die Bewegung der Plattform beschreibt (C i / n(t) und r i / n(t)), und eine andere, die die Bewegung des Kopfes relativ zu der Plattform beschreibt (C n / b(t) und r n / nb(t)). Die Simulation führt die folgenden Schritte durch:
    • 1) Berechnet sie „wahre" Bewegung des Kopfes relativ zu dem i-System aus den zwei Eingabedateien.
    • 2) Berechnet ideale Bezugs-IMU-Ausgaben f n / in und ω n / in aus der Plattform-Bewegungsbahn.
    • 3) Berechnet die idealen Verfolgungs-IMU-Ausgaben f b / ib und ω b / ib aus der i-System-Kopfbewegung, die sich im Schritt 1 ergeben hat.
    • 4) Verfälscht beide IMU-Ausgaben mit realistischen Geräuschpegeln und einem Schräglagenfehler, die für die Leistungsfähigkeit eines InertiaCube repräsentativ sind.
    • 5) Füttert diese simulierten IMU-Ausgaben sowie simulierten Bereichsmessungen (auch verfälscht mit einem geeigneten Geräuschpegel) mit den Algorithmen des IS-600 MPT-Prozessors, wie in 4 gezeigt.
    • 6) Plottet die Verfolgungssystemfehler (die Differenz zwischen der von dem simulierten IS-600 MPT-Prozessor berechneten Bewegungsbahn und der „wahren" Bewegungsbahn) zusammen mit den 1-Sigma Co-Varianzgrenzen, die durch die EKF berechnet wurden.
  • 5 zeigt Haltungs-Abschätzfehler des Verfolgungssystems (Roll-, Nick-, Gier-, X-, Y- und Z-Fehler) für einen 6-Minuten-Lauf, simuliert mit einer 30 Hz Aktualisierungsrate. Die Bewegungslinie der Plattform hatte keine Bewegung. Der Kopf relativ zur Plattform-Bewegungslinie hatte eine 30° Gierdrehung (Kopfschütteln), gefolgt von einer 30° Nickdrehung (Kopfnicken) 10 Sekunden nach dem Beginn der Simulation und keine Bewegung danach. Die Verfolgungsleistung, etwa 0,2° rms für die Orientierung und 1 mm rms für die Position, ist nur leicht verschlechtert gegenüber einer üblichen Simulation mit einer feststehenden Plattform IS-600 mit der gleichen X-Stangenkonfiguration und Aktualisierungsrate. Die interessante Sache ist, dass nach dem anfänglichen Schütteln und Nicken, die aufgenommen wurden, um eine „Ortung" der Schräglagen zu erhalten, die Verfolgung für weitere 5½ Minuten ohne irgendeine Bewegung fortgeführt wird und keine nennenswerte Zunahme für Positions- oder Orientierungsfehler auftritt.
  • 6 zeigt, was mit den Schrägstellungs-Abschätzfehlern passiert. Wie in 6 werden die Unterschiede zwischen den Filter-abgeschätzten Schrägstellung und den tatsächlichen Schrägstellungen, die verwendet wurden, um die idealen IMU-Ausgaben zu verfälschen, zu sammen mit den Filter-berechneten 1-Sigma-Kovarianzgrenzen der Schrägstellungs-Zustände geplottet. Wenn sie sich auf den Anfangsabschnitt der Kurven konzentrieren, können sie erkennen, dass die Schrägstellungs-Kovarianzen anfänglich in etwa dort stehen, wo sie anfänglich gesetzt wurden, da sie noch nicht wahrnehmbar sind. Nach der Gier-Drehung kommen die X- und Y-Gyro-Schrägstellungen für beide IMUs schnell herunter auf normale Betriebsniveaus. Nach der Nick-Drehung kommen auch die z-Schrägstellungen nach unten, alle so, wie wir das aus der Beschreibung im Abschnitt 2.2 zur Wahrnehmbarkeit erwartet hätten. Über die restlichen 51/2 Minuten sehen wir die Gyroschräglagen-Fehlerkovarianzen aufgrund der nicht möglichen Wahrnehmbarkeit während der bewegungsfreien Zeitspanne allmählich zurück nach oben klettern. Interessanterweise scheinen die zunehmenden Schrägstellungsfehler über diese Zeitspanne keinen signifikanten Einfluss auf die Haltungs-Abschätzfehler zu haben. Es scheint auch, dass die Beschleunigungsmesser-Schrägstellungen nicht deutlich zunehmen.
  • Ein weiterer Simulationslauf wurde durchgeführt, um zu sehen, wie lange eine qualitativ gute Verfolgung ohne Benutzer-Kopfbewegung beibehalten werden kann. Wieder begann die Kopf-Bewegungsbahn mit einem 30° Schütteln/Nicken, um die Schrägstellungen einzustellen, der sich dann aber eine halbstündige Ruhezeit anschloss, wobei diese Zeit bei 5 Hz abgetastet wurde, um die Dateigrößen handhabbar zu halben. Das gleiche Muster wurde hervor gebracht. Die Gyro-Schrägstellungen (aber nicht die Beschleunigungsmesser-Schrägstellungen) krochen von dem Niveau, auf das sie nach dem Anfangsschüttler eingestellt waren, langsam nach oben. Nach dem Ende einer halben Stunde hatten sie 0,5°/s erreicht, aber noch ohne deutliche Zunahme der Kovarianzen des Haltungs-Abschätzfehlers. An dieser Stelle erhielt die Bewegungsbahn einen zweiten Schüttler, dieses Mal nur mit einer Amplitude von 10°. Dieser kleine Schüttler des Kopfes war ausreichend, um die Schrägstellungen zurück nach unten auf 0,3°/s zu schicken. So scheint es wahrscheinlich, dass die Verfolgung solange gut arbeiten wird, wie der Benutzer seinen Kopf wenigstens alle halbe Stunde um wenigstens 10° schüttelt. Es gibt wenig Grund, den Kopf eines Menschen zu verfolgen, wenn dieser tot ist. so dass wir nicht annehmen, dass dies ein sehr beschränkendes Erfordernis ist. Zusätzliche Simulationsläufe wurden durchgeführt, welche die Bewegung der Plattform zum Inhalt hatten, um zu bestätigen, dass die kinematischen Algorithmen wirklich dahin gehend funktionieren, nur die relative Bewegung zu extrahieren. Tatsächlich hat sich heraus gestellt, dass die Fehler in der relativen Verfolgung des Kopfes relativ zur Plattform nur leicht zunehmen, wenn die Plattform enge 8-er Figuren fliegt. Dies bestätigt, dass die in Abschnitt 1.3 abgeleiteten Gleichungen der relativen Navigation korrekt sind und dass das um diese herum entwickelte Kalman-Filtermodell funktioniert.
  • Wir haben einen neuen Ansatz zur Kopf-Verfolgung in sich bewegenden Fahrzeugen oder Simulatorplattformen mit Bewegungsbasis basierend auf einer differentiellen Trägheitserfassung beschrieben. Dieser Ansatz erlaubt, die günstigen Eigenschaften einer Bewegungsverfolgung auf Trägheitsbasis bei sich bewegenden Plattformen zu realisieren, ohne dass die Genauigkeit der Kopfverfolgung durch unvorhersagbare Bewegungen der Plattform negativ beeinträchtigt wird. Ein Merkmal des beschriebenen Verfahrens ist, dass es unabhängig ist: Das Verfolgungssystem muss nicht mit einer externen Information zur Plattformbewegung versorgt werden und es kann lokal innerhalb des verfolgten Volumens installiert sein, genauso wie ein gewöhnliches Verfolgungssystem mit feststehender Basis.
  • Obwohl die Ergebnisse unter Verwendung eines Verfolgungssystems mit einer Akustik/Trägheits-Hybridkonfiguration auf der Basis des InterSense IS-600 dargestellt wurde, ist das Basiskonzept auch mit jedem anderen Typ von Hilfsmessungen für die Trägheitssensoren verwendbar, einschließlich den magnetischen oder optischen Verfolgungssystemen, die gegenwärtig in vielen Cockpit-Anwendungen mit Helm-Verfolgung verwendet werden.
  • Weitere Ausführungsformen liegen auch im Schutzbereich der folgenden Ansprüche. Figurenbeschreibung FIG. 1
    Inertial meas. unit outputs = Trägheitsmessungen Einheitsausgaben
    and = und
    FIG. 3d
    Acoustic receiver outputs = Akustikempfängerausgaben
    range meas'mts = Reichweitenmessungen
    Reference IMU = Bezugs-IMU
    outputs = Ausgaben
    and = und
    Tracking IMU = Verfolgungs-IMU
    FIG. 4
    X-bar = X-Stange
    Reference IMU = Bezugs-IMU
    Receiver-Pods = Empfänger-Pods
    Acoustic range measurements = akustische Reichweitenmessungen
    Tracking station = Verfolgungsstation
    tracking IMU = Verfolgungs-IMU
    SoniDiscs = Soni-Discs
    ranges = Reichweiten
    Processor Unit = Prozessoreinheit
    Compensate IMU biases = kompensiere IMU-Schräglagen
    Integrate orientation = integrierte Orientierung
    Integrate velocity = integriere Geschwindigkeit
    Integrate position = integrierte Position
    Motion Prediction = Bewegungsvorhersage
    Extended Kalman Filter Error Estimator = Fehler-Abschätzeinrichtung mittels erweitertem Kalman-Filter
    FIG. 5
    degrees = Grad
    seconds = Sekunden
    roll = Rollen
    pitch = Nicken
    yaw = Gieren
    FIG 6
    ibGyroBias = ib-Gyro-Schrägstellung
    inGyroBias = in-Gyro-Schrägstellung
    ibAccelBias = ib-Beschleunigungsmesser-Schrägstellung
    inAccelBias = in-Beschleunigungsmesser-Schrägstellung
    seconds = Sekunden
    const = konstant
    station = Station
    trajyaw = Bewegungsbahn Gieren
    pitch = Nicken
    trajstill6min = Bewegungsbahn noch 6 Minuten

Claims (46)

  1. System zum Verfolgen der Bewegung eines Objekt in Bezug zu einem sich bewegenden Bezugssystem, mit: einem ersten Trägheitssensor, der an dem verfolgten Objekt angebracht ist; einem zweiten Trägheitssensor, der an dem sich bewegenden Bezugssystem angebracht ist, und einem Element, dass an dem ersten und dem zweiten Trägheitssensor angekoppelt ist, dadurch gekennzeichnet, dass das Element so ausgebildet ist, dass dieses eine Orientierung des Objekts relativ zu dem sich bewegenden Bezugssystem auf der Basis von Signalen von dem ersten und dem zweiten Trägheitssensor bestimmt, indem ein Signal der relativen Drehrate integriert wird, die aus den durch den ersten und den zweiten Trägheitssensor gemessenen Drehratensignalen bestimmt wird.
  2. System nach Anspruch 1, gekennzeichnet ferner durch ein unträges Mess-Teilsystem zum Durchführen unabhängiger Messungen in Bezug auf die Orientierung des Objekts relativ zu dem sich bewegenden Bezugssystem und zum Verwenden derselben für die Korrektur einer Drift, die bei der Integration der Trägheitsorientierung auftreten kann.
  3. System nach Anspruch 2, ferner dadurch gekennzeichnet, dass das unträge Mess-Teilsystem ausgewählt wird aus der Reihe optischer, akustischer, magnetischer, Hochfrequenz- oder elektromagnetischer Technologien.
  4. System zum Verfolgen der Bewegung eines Objekt relativ zu einem sich bewegenden Bezugssystem, mit: einem ersten Trägheitssensor, der auf dem verfolgten Objekt angebracht ist, einem zweiten Trägheitssensor, der auf dem sich bewegenden Bezugssystem angebracht ist, und einem Element, das an den ersten und den zweiten Trägheitssensor angekoppelt ist, dadurch gekennzeichnet ist, dass das Element so ausgebildet ist, dass dieses eine Orientierung des Objekts relativ zu dem sich bewegenden Bezugssystem auf der Basis der Signale von dem ersten und dem zweiten Trägheitssensor bestimmt, indem die Orientierung des Objekts mit Bezug auf ein festes Trägheits-Bezugssystem durch Integrieren der durch den ersten Trägheitssensor gemessenen Drehratensignale bestimmt wird, indem die Orientierung des sich bewegenden Bezugssystems mit Bezug auf das gleiche feste Trägheits-Bezugssystem durch Integrieren von durch den zweiten Trägheitssensor gemessenen Drehratensignalen bestimmt wird und indem die relative Orientierung basierend auf den zwei besagten Orientierungen berechnet wird.
  5. System nach Anspruch 4, gekennzeichnet ferner durch ein Drift-Korrekturglied zum Korrigieren einer Trägheitsdrift in der bestimmten Orientierung des Objekts in Bezug auf das Trägheits-Bezugssystem oder des sich bewegenden Bezugssystems in Bezug auf das Trägheits-Bezugssystem.
  6. System nach Anspruch 5, ferner dadurch gekennzeichnet, dass das Drift-Korrekturglied Sensoren zum Bestimmen einer Schräglage in Bezug auf das Gravitationsfeld der Erde enthält.
  7. System nach Anspruch 5, ferner dadurch gekennzeichnet, dass das Drift-Korrekturglied Sensoren zum Bestimmen des Steuerkurses in Bezug auf das Magnetfeld der Erde enthält.
  8. System nach Anspruch 4, gekennzeichnet ferner durch ein Drift-Korrekturglied zum Korrigieren einer Trägheitsdrift in der bestimmten Orientierung des Objekts in Bezug auf das sich bewegende Bezugssystem unter Verwendung von unträgen Sensoren, um die relative Orientierung unabhängig zu messen.
  9. System nach den Ansprüchen 1 oder 4, ferner dadurch gekennzeichnet, dass der erste und der zweite Trägheitssensor jeweils ferner drei Linearbeschleuniger umfasst.
  10. System nach Anspruch 9, gekennzeichnet ferner durch ein Element zum Berechnen der Position des Objekts relativ zu dem sich bewegenden Bezugssystem.
  11. System nach Anspruch 10, ferner dadurch gekennzeichnet, dass das Rechenelement so ausgelegt ist, dass dieses ein relatives Linearbeschleunigungssignal, das aus den durch den ersten und den zweiten Trägheitssensor gemessenen Linearbeschleunigungssignalen berechnet wird, doppelt integriert.
  12. System nach Anspruch 11, ferner dadurch gekennzeichnet, dass die Berechnung des relativen Linearbeschleunigungssignals eine Kompensation von Tangential-, Coriolis- und Zentripetaleffekten, die durch die Winkelgeschwindigkeit und die Winkelbeschleunigung des sich bewegenden Bezugssystems verursacht werden, umfasst.
  13. System nach Anspruch 12, ferner dadurch gekennzeichnet, dass die Kompensationsterme unter Verwendung der durch den zweiten Trägheitssensor gemessenen Winkelgeschwindigkeit oder Winkelbeschleunigung des sich bewegenden Bezugssystems berechnet werden.
  14. System nach Anspruch 11, ferner dadurch gekennzeichnet, dass keine Kompensation für den Effekt der Schwerkraft auf die Beschleunigungsmesser durchgeführt wird.
  15. System nach Anspruch 10, ferner dadurch gekennzeichnet, dass die Berechnung der Position des Objekts relativ zu dem sich bewegenden Bezugssystem umfasst: Berechnen der Position des Objekts in Bezug auf ein festes Trägheits-Bezugssystem unter Verwendung der Signale vom ersten Trägheitssensor, Berechnen der Position des sich bewegenden Bezugssystems in Bezug auf das gleiche feste Trägheits-Bezugssystem unter Verwendung der Signale vom zweiten Trägheitssensor und Berechnen der relativen Position basierend auf den zwei individuellen Positionen.
  16. System nach Anspruch 15, gekennzeichnet ferner durch ein Drift-Korrekturglied zum Korrigieren einer Trägheitsdrift in der bestimmten Position des Objekt in Bezug auf das Trägheits-Bezugssystem oder des sich bewegenden Bezugssystems in Bezug auf das Trägheits-Bezugssystem.
  17. System nach Anspruch 16, in welchem das Drift-Korrekturglied Sensoren zum Messen einer Position sowohl des Objekts als auch des sich bewegenden Bezugssystems in Bezug auf Landmarken, die in einem gemeinsamen Trägheits-Bezugssystem fixiert sind.
  18. System nach Ansprüchen 1 oder 4, ferner dadurch gekennzeichnet, dass das sich bewegende Bezugssystem mit einem Fahrzeug verbunden ist und der zweite Trägheitssensor eine bereits bestehende Trägheits-Messeinheit an einem Fahrzeug umfasst, die zum Zwecke der Navigation installiert wurde.
  19. System nach den Ansprüchen 1 oder 4, ferner dadurch gekennzeichnet, dass der erste und der zweite Trägheitssensor wenigstens sechs Linearbeschleuniger und zugehörige Prozessoren umfassen, um drei Winkelträgheits-Signale und drei Linearbeschleunigungen zu extrahieren.
  20. Verfahren, das ein Bestimmen einer Orientierung eines Objekts relativ zu einem sich bewegenden Bezugssystem basierend auf Signalen von einem ersten und einem zweiten Trägheitssensor, die jeweils auf dem Objekt und auf dem sich bewegenden Bezugssystem angebracht sind, umfasst, indem ein Signal der relativen Drehrate integriert wird, das aus Drehratensignalen bestimmt wird, die durch den ersten und zweiten Trägheitssensor gemessen werden.
  21. Verfahren nach Anspruch 20, ferner mit einer Durchführung unabhängiger Messungen mit einem unträgen Mess-Teilsystem in Bezug auf die Orientierung des Objekts relativ zu dem sich bewegenden Bezugssystem und mit einer Verwendung solcher Messungen zum Korrigieren einer Drift, die bei der Integration einer Trägheitsorientierung auftreten kann.
  22. Verfahren nach Anspruch 21, in welchem das unträge Mess-Teilsystem ausgewählt wird aus der Reihe von optischen, akustischen, magnetischen, Hochfrequenz- oder elektromagnetischen Technologien.
  23. Verfahren, das ein Bestimmen einer Orientierung eines Objekt relativ zu einem sich bewegenden Bezugssystem basierend auf Signalen von einem ersten und einem zweiten Trägheitssensor, der jeweils auf dem Objekt und auf dem sich bewegenden Bezugssystem angebracht ist, umfasst, indem die Orientierung des Objekts in Bezug auf ein festes Trägheits-Bezugssystem durch Integrieren von Drehratensignalen, die durch den ersten Trägheitssensor gemessen werden, bestimmt wird, die Orientierung des sich bewegenden Bezugssystems in Bezug auf das gleiche feste Trägheits-Bezugssystem durch Integrieren von Drehratensignalen, die durch den zweiten Trägheitssensor gemessen werden, bestimmt wird und die relative Orientierung basierend auf den zwei besagten Orientierungen berechnet wird.
  24. Verfahren nach Anspruch 23, ferner mit einer Verwendung eines Drift-Korrekturglieds, um eine Trägheitsdrift in der bestimmten Orientierung des Objekts in Bezug auf das Trägheits-Bezugssystem oder des sich bewegenden Bezugssystems in Bezug auf das Trägheits-Bezugssystem zu korrigieren.
  25. Verfahren nach Anspruch 24, in welchem das Drift-Korrekturglied Sensoren zum Bestimmen einer Schräglage in Bezug auf das Schwerefeld der Erde umfasst.
  26. Verfahren nach Anspruch 24, in welchem das Drift-Korrekturglied Sensoren zum Bestimmen eines Steuerkurses in Bezug auf das Magnetfeld der Erde umfasst.
  27. Verfahren nach Anspruch 23, ferner mit einer Verwendung eines Drift-Korrekturgliedes, um eine Trägheitsdrift in der bestimmten Orientierung des Objekts in Bezug auf das sich bewegende Bezugssystem durch Verwenden von unträgen Sensoren zur unabhängigen Messung der relativen Orientierung zu korrigieren.
  28. Verfahren nach den Ansprüchen 20 oder 23, in welchem der erste und der zweite Trägheitssensor jeweils ferner drei Linearbeschleuniger umfasst.
  29. Verfahren nach Anspruch 28, ferner mit einem Berechnen der Position des Objekts relativ zu dem sich bewegenden Bezugssystem.
  30. Verfahren nach Anspruch 29, ferner mit einem Doppel-Integrieren eines Signals der relativen Linearbeschleunigung, das aus den Linearbeschleunigungssignalen berechnet wird, die durch den ersten und den zweiten Trägheitssensor gemessen werden.
  31. Verfahren nach Anspruch 30, in welchem das sich bewegende Bezugssystem eine Winkelgeschwindigkeit und eine Winkelbeschleunigung hat und wobei die Berechnung des Signals der relativen Linearbeschleunigung eine Kompensation von Tangential-, Coriolis- und Zentripetal-Beschleunigungseffekten, die durch die Winkelgeschwindigkeit und die Winkelbeschleunigung des sich bewegenden Bezugssystems verursacht werden, aufweist.
  32. Verfahren nach Anspruch 31, in welchem die Kompensation von Tangential-, Coriolis- und Zentripetal-Beschleunigungseffekten unter Verwendung der Winkelgeschwindigkeit und der Winkelbeschleunigung des sich bewegenden Bezugssystems berechnet wird, die durch den zweiten Trägheitssensor gemessen werden.
  33. Verfahren nach Anspruch 30, in welchem keine Kompensation des Effekts der Schwerkraft auf die Beschleunigungsmesser durchgeführt wird.
  34. Verfahren nach Anspruch 29, in welchem die Berechnung der Position des Objekts relativ zu dem sich bewegenden Bezugssystem umfasst: Berechnen der Position des Objekts in Bezug auf das feste Trägheits-Bezugssystem unter Verwendung der Signale von dem ersten Trägheitssensor, Berechnen der Position des sich bewegenden Bezugssystems in Bezug auf das gleiche feste Trägheits-Bezugssystem unter Verwendung der Signale von dem zweiten Trägheitssensor und Berechnen der relativen Position basierend auf der Position des Objekts und der Position des sich bewegenden Bezugssystems.
  35. Verfahren nach Anspruch 34, ferner mit einer Verwendung eines Drift-Korrekturgliedes, um eine Trägheitsdrift in der bestimmten Position des Objekts in Bezug auf das Trägheits-Bezugssystem oder des sich bewegenden Bezugssystems in Bezug auf das Trägheits-Bezugssystem zu korrigieren.
  36. Verfahren nach Anspruch 35, in welchem das Drift-Korrekturglied Sensoren zum Messen einer Position sowohl des Objekts als auch des sich bewegenden Bezugssystems in Bezug auf Landmarken, die in einem gemeinsamen Trägheits-Bezugssystem fixiert sind, umfasst.
  37. Verfahren nach den Ansprüchen 20 oder 23, in welchem das sich bewegende Bezugssystem mit einem Fahrzeug verbunden ist, und der zweite Trägheitssensor eine bereits vorhandene Trägheits-Messeinheit am Fahrzeug umfasst, die für den Zweck der Navigation installiert wurde.
  38. Verfahren nach den Ansprüchen 20 oder 23, in welchem der erste und der zweite Trägheitssensor jeweils wenigstens sechs Linearbeschleuniger und zugehörige Prozessoren umfasst, um drei Winkelträgheits-Signale und drei Linearbeschleunigungen zu extrahieren.
  39. System nach den Ansprüchen 1 oder 4, gekennzeichnet, ferner durch ein Drift-Korrekturglied zum Korrigieren einer Trägheitsdrift in der bestimmten Orientierung des Objekts in Bezug auf das sich bewegende Bezugssystem.
  40. System nach Anspruch 39, ferner dadurch gekennzeichnet, dass das Drift-Korrekturglied ein Kalman-Filter umfasst.
  41. System nach Anspruch 39, gekennzeichnet durch ein unträges Mess-Teilsystem zum Durchführen unabhängiger Messungen in Bezug auf die Position des Objekts gegenüber einem Trägheits-Bezugssystem oder der Position des sich bewegenden Bezugssystems gegenüber einem Trägheits-Bezugssystem.
  42. System nach Anspruch 41, ferner dadurch gekennzeichnet, dass das unträge Mess-Teilsystem ausgewählt wird aus der Reihe optischer, Hochfrequenz- oder elektromagnetischer Technologien.
  43. System nach den Ansprüchen 1 oder 4, gekennzeichnet ferner durch ein Element, das an den ersten und den zweiten Trägheitssensor angekoppelt ist und so ausgebildet ist, dass dieses eine Schätzung einer Relativgeschwindigkeit des verfolgten Objekts zu dem sich bewegenden Bezugssystem bestimmt, indem wenigstens eine Winkelbeschleunigung des sich bewegenden Bezugssystems bestimmt wird.
  44. System nach Anspruch 43, ferner dadurch gekennzeichnet, dass die Winkelbeschleunigung durch numerische Differenzierung eines Ausgangssignals wenigstens eines Gyroskops bestimmt wird.
  45. System nach Anspruch 43, ferner dadurch gekennzeichnet, dass die Winkelbeschleunigung unter Verwendung eines Winkel-Beschleunigungsmessers bestimmt wird.
  46. System nach den Ansprüchen 1 oder 4, gekennzeichnet ferner durch ein Element, das an den ersten und den zweiten Trägheitssensor gekoppelt ist und so ausgebildet ist, dass dieses eine Position des Objekts relativ zu dem sich bewegenden Bezugssystem basierend auf Signalen bestimmt, die von dem ersten und dem zweiten Trägheitssensor erhalten werden.
DE60114798T 2000-04-21 2001-04-20 Bewegungsbestimmung Expired - Lifetime DE60114798T2 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US556135 2000-04-21
US09/556,135 US6474159B1 (en) 2000-04-21 2000-04-21 Motion-tracking
PCT/US2001/012917 WO2001080736A1 (en) 2000-04-21 2001-04-20 Motion-tracking

Publications (2)

Publication Number Publication Date
DE60114798D1 DE60114798D1 (de) 2005-12-15
DE60114798T2 true DE60114798T2 (de) 2006-07-27

Family

ID=24220026

Family Applications (1)

Application Number Title Priority Date Filing Date
DE60114798T Expired - Lifetime DE60114798T2 (de) 2000-04-21 2001-04-20 Bewegungsbestimmung

Country Status (7)

Country Link
US (2) US6474159B1 (de)
EP (1) EP1280457B1 (de)
AT (1) ATE308920T1 (de)
AU (1) AU2001261040A1 (de)
DE (1) DE60114798T2 (de)
IL (2) IL152359A0 (de)
WO (1) WO2001080736A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017120741A1 (de) * 2017-09-08 2019-03-14 Tim Millhoff Vorrichtung, System und Verfahren zur Entkopplung eines VR-Systems von Infrastruktur und ortsgebundener Hardware

Families Citing this family (182)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7749089B1 (en) 1999-02-26 2010-07-06 Creative Kingdoms, Llc Multi-media interactive play system
US6757068B2 (en) * 2000-01-28 2004-06-29 Intersense, Inc. Self-referenced tracking
US6761637B2 (en) 2000-02-22 2004-07-13 Creative Kingdoms, Llc Method of game play using RFID tracking device
US7878905B2 (en) 2000-02-22 2011-02-01 Creative Kingdoms, Llc Multi-layered interactive play experience
US7445550B2 (en) 2000-02-22 2008-11-04 Creative Kingdoms, Llc Magical wand and interactive play experience
US7000469B2 (en) * 2000-04-21 2006-02-21 Intersense, Inc. Motion-tracking
US6474159B1 (en) * 2000-04-21 2002-11-05 Intersense, Inc. Motion-tracking
US7066781B2 (en) 2000-10-20 2006-06-27 Denise Chapman Weston Children's toy with wireless tag/transponder
US20020052724A1 (en) * 2000-10-23 2002-05-02 Sheridan Thomas B. Hybrid vehicle operations simulator
GB2370818B (en) * 2001-01-03 2004-01-14 Seos Displays Ltd A simulator
US6967566B2 (en) 2002-04-05 2005-11-22 Creative Kingdoms, Llc Live-action interactive adventure game
US20070066396A1 (en) 2002-04-05 2007-03-22 Denise Chapman Weston Retail methods for providing an interactive product to a consumer
US8797260B2 (en) 2002-07-27 2014-08-05 Sony Computer Entertainment Inc. Inertially trackable hand-held controller
US8947347B2 (en) * 2003-08-27 2015-02-03 Sony Computer Entertainment Inc. Controlling actions in a video game unit
US10086282B2 (en) 2002-07-27 2018-10-02 Sony Interactive Entertainment Inc. Tracking device for use in obtaining information for controlling game program execution
US7674184B2 (en) 2002-08-01 2010-03-09 Creative Kingdoms, Llc Interactive water attraction and quest game
US6922632B2 (en) 2002-08-09 2005-07-26 Intersense, Inc. Tracking, auto-calibration, and map-building system
US6651002B1 (en) * 2002-12-20 2003-11-18 Honeywell International Inc. Wavelet compression of gravity correction data
US9446319B2 (en) 2003-03-25 2016-09-20 Mq Gaming, Llc Interactive gaming toy
US20040243148A1 (en) * 2003-04-08 2004-12-02 Wasielewski Ray C. Use of micro- and miniature position sensing devices for use in TKA and THA
US20040204777A1 (en) * 2003-04-14 2004-10-14 Alon Harpaz Precision motion control using feed forward of acceleration
ITTO20030662A1 (it) 2003-08-29 2005-02-28 Fiat Ricerche Disposizione di visualizzazione virtuale per un quadro
US7355561B1 (en) 2003-09-15 2008-04-08 United States Of America As Represented By The Secretary Of The Army Systems and methods for providing images
BRPI0416441A (pt) * 2003-11-26 2007-02-27 Rafael Armament Dev Authority sistema de medição de posição de capacete, conjunto de capacete com tal sistema, e método de cálculo confiável em tempo real da direção de olhar da pupila
US7961909B2 (en) 2006-03-08 2011-06-14 Electronic Scripting Products, Inc. Computer interface employing a manipulated object with absolute pose detection component and a display
US9229540B2 (en) 2004-01-30 2016-01-05 Electronic Scripting Products, Inc. Deriving input from six degrees of freedom interfaces
BE1015914A6 (nl) * 2004-02-24 2005-11-08 Verhaert New Products & Servic Inrichting voor het bepalen van de weg afgelegd door een persoon te voet.
US7509216B2 (en) * 2004-03-29 2009-03-24 Northrop Grumman Corporation Inertial navigation system error correction
US20060038555A1 (en) * 2004-08-20 2006-02-23 Higgins Robert F Self-training AC magnetic tracking systems to cover large areas
EP1784787A4 (de) * 2004-08-23 2007-10-17 Gamecaster Inc Vorrichtungen, verfahren und systeme zum betrachten und manipulieren einer virtuellen umgebung
US7385684B2 (en) * 2004-09-21 2008-06-10 Lockheed Martin Corporation Angular position sensor
ITGE20050008A1 (it) 2005-02-08 2006-08-09 Scienza Ind Tecnologia S R L Metodo e apparato per il monitoraggio dei movimenti del corpo umano in ambito sportivo e medico.
EP1850803B1 (de) 2005-02-18 2014-03-26 Zimmer, Inc. Gelenkimplantat mit smart sensors
IL167648A (en) 2005-03-24 2011-01-31 Elbit Systems Ltd Hybrid tracker
WO2006104552A1 (en) * 2005-03-29 2006-10-05 Honeywell International Inc. Method and apparatus for high accuracy relative motion determinatation using inertial sensors
US7650238B2 (en) * 2005-05-09 2010-01-19 Northrop Grumman Corporation Environmental characteristic determination
US20060255795A1 (en) * 2005-05-13 2006-11-16 Higgins Robert F Six-degree-of-freedom, integrated-coil AC magnetic tracker
US7672781B2 (en) * 2005-06-04 2010-03-02 Microstrain, Inc. Miniaturized wireless inertial sensing system
JP4805633B2 (ja) 2005-08-22 2011-11-02 任天堂株式会社 ゲーム用操作装置
US8313379B2 (en) 2005-08-22 2012-11-20 Nintendo Co., Ltd. Video game system with wireless modular handheld controller
US7942745B2 (en) 2005-08-22 2011-05-17 Nintendo Co., Ltd. Game operating device
US7927216B2 (en) 2005-09-15 2011-04-19 Nintendo Co., Ltd. Video game system with wireless modular handheld controller
JP4262726B2 (ja) 2005-08-24 2009-05-13 任天堂株式会社 ゲームコントローラおよびゲームシステム
US8870655B2 (en) 2005-08-24 2014-10-28 Nintendo Co., Ltd. Wireless game controllers
US8308563B2 (en) 2005-08-30 2012-11-13 Nintendo Co., Ltd. Game system and storage medium having game program stored thereon
US8157651B2 (en) 2005-09-12 2012-04-17 Nintendo Co., Ltd. Information processing program
WO2007044301A2 (en) * 2005-10-04 2007-04-19 Intersense, Inc. Tracking objects with markers
NL1030440C2 (nl) * 2005-11-16 2007-05-21 Univ Twente Bewegingsvolgsysteem.
US7978081B2 (en) * 2006-01-09 2011-07-12 Applied Technology Holdings, Inc. Apparatus, systems, and methods for communicating biometric and biomechanical information
US8184367B2 (en) * 2006-02-15 2012-05-22 University Of Central Florida Research Foundation Dynamically focused optical instrument
JP4530419B2 (ja) 2006-03-09 2010-08-25 任天堂株式会社 座標算出装置および座標算出プログラム
JP4151982B2 (ja) 2006-03-10 2008-09-17 任天堂株式会社 動き判別装置および動き判別プログラム
JP4684147B2 (ja) 2006-03-28 2011-05-18 任天堂株式会社 傾き算出装置、傾き算出プログラム、ゲーム装置およびゲームプログラム
ES2569411T3 (es) 2006-05-19 2016-05-10 The Queen's Medical Center Sistema de seguimiento de movimiento para imágenes adaptativas en tiempo real y espectroscopia
US9323055B2 (en) * 2006-05-26 2016-04-26 Exelis, Inc. System and method to display maintenance and operational instructions of an apparatus using augmented reality
US7920071B2 (en) * 2006-05-26 2011-04-05 Itt Manufacturing Enterprises, Inc. Augmented reality-based system and method providing status and control of unmanned vehicles
AU2007348326B2 (en) * 2006-05-31 2012-03-08 Trx Systems, Inc. Method and system for locating and monitoring first responders
US8560047B2 (en) 2006-06-16 2013-10-15 Board Of Regents Of The University Of Nebraska Method and apparatus for computer aided surgery
DE102006032127B4 (de) 2006-07-05 2008-04-30 Aesculap Ag & Co. Kg Kalibrierverfahren und Kalibriervorrichtung für eine chirurgische Referenzierungseinheit
US20080071559A1 (en) * 2006-09-19 2008-03-20 Juha Arrasvuori Augmented reality assisted shopping
US20080211768A1 (en) * 2006-12-07 2008-09-04 Randy Breen Inertial Sensor Input Device
US8912899B2 (en) * 2007-01-10 2014-12-16 Integrity Tracking, Llc Wireless sensor network calibration system and method
JP5127242B2 (ja) 2007-01-19 2013-01-23 任天堂株式会社 加速度データ処理プログラムおよびゲームプログラム
US8615714B2 (en) * 2007-01-22 2013-12-24 Textron Innovations Inc. System and method for performing multiple, simultaneous, independent simulations in a motion capture environment
WO2008091869A2 (en) * 2007-01-22 2008-07-31 Bell Helicopter Textron, Inc. System and method for the interactive display of data in a motion capture environment
DE08713883T1 (de) * 2007-01-22 2010-04-15 Bell Helicopter Textron, Inc., Fort Worth System und verfahren zur steuerung einer virtuellen realität durch einen darsteller in der virtuellen realität
US20080218331A1 (en) * 2007-03-08 2008-09-11 Itt Manufacturing Enterprises, Inc. Augmented reality-based system and method to show the location of personnel and sensors inside occluded structures and provide increased situation awareness
EP1970005B1 (de) * 2007-03-15 2012-10-03 Xsens Holding B.V. System und Verfahren zur Bewegungsnachverfolgung über eine Kalibriereinheit
EP1983740A1 (de) * 2007-04-16 2008-10-22 STMicroelectronics (Research & Development) Limited Bildstabilisierungsverfahren und -vorrichtung
EP2152377A4 (de) * 2007-04-17 2013-07-31 Bell Helicopter Textron Inc Kollaboratives vr-system unter verwendung mehrerer bewegungsaufnahmesysteme und mehrerer interaktiver klienten
US20110046915A1 (en) * 2007-05-15 2011-02-24 Xsens Holding B.V. Use of positioning aiding system for inertial motion capture
US9395190B1 (en) 2007-05-31 2016-07-19 Trx Systems, Inc. Crowd sourced mapping with robust structural features
US9733091B2 (en) 2007-05-31 2017-08-15 Trx Systems, Inc. Collaborative creation of indoor maps
US20100332181A1 (en) * 2007-06-06 2010-12-30 Honeywell International Inc. System and method for determining angular differences on a potentially moving object
US8019538B2 (en) * 2007-07-25 2011-09-13 Honeywell International Inc. System and method for high accuracy relative navigation
WO2009021068A1 (en) 2007-08-06 2009-02-12 Trx Systems, Inc. Locating, tracking, and/or monitoring personnel and/or assets both indoors and outdoors
DK2231013T3 (da) 2008-01-16 2012-02-20 Univ Syddansk Integreret enhed til overvågning af rumlig bevægelse
US8696458B2 (en) * 2008-02-15 2014-04-15 Thales Visionix, Inc. Motion tracking system and method using camera and non-camera sensors
TWI374257B (en) * 2008-04-29 2012-10-11 Ind Tech Res Inst Method for modifying navigation information and navigation apparatus using the same
US8029566B2 (en) * 2008-06-02 2011-10-04 Zimmer, Inc. Implant sensors
US8589114B2 (en) 2008-08-19 2013-11-19 Angelo Gregory Papadourakis Motion capture and analysis
US20100045701A1 (en) * 2008-08-22 2010-02-25 Cybernet Systems Corporation Automatic mapping of augmented reality fiducials
US8761434B2 (en) * 2008-12-17 2014-06-24 Sony Computer Entertainment Inc. Tracking system calibration by reconciling inertial data with computed acceleration of a tracked object in the three-dimensional coordinate system
US20110050903A1 (en) * 2009-04-08 2011-03-03 Topcon Positioning Systems, Inc. Method for determining position and orientation of vehicle trailers
US9068847B2 (en) * 2009-04-22 2015-06-30 Honeywell International Inc. System and method for collaborative navigation
US9058063B2 (en) 2009-05-30 2015-06-16 Sony Computer Entertainment Inc. Tracking system calibration using object position and orientation
WO2011068184A1 (ja) * 2009-12-03 2011-06-09 独立行政法人産業技術総合研究所 移動体の測位装置
CA2826253A1 (en) * 2010-02-03 2011-08-11 Hoyt M. Layson, Jr. Location derived messaging system
KR101640767B1 (ko) * 2010-02-09 2016-07-29 삼성전자주식회사 이종 수행 환경을 위한 네트워크 기반의 실시간 가상 현실 입출력 시스템 및 가상 현실 입출력 방법
US9226799B2 (en) 2010-06-23 2016-01-05 Mako Surgical Corp. Inertially tracked objects
US8791901B2 (en) 2011-04-12 2014-07-29 Sony Computer Entertainment, Inc. Object tracking with projected reference patterns
US9498231B2 (en) 2011-06-27 2016-11-22 Board Of Regents Of The University Of Nebraska On-board tool tracking system and methods of computer assisted surgery
WO2013052187A2 (en) 2011-06-27 2013-04-11 Board Of Regents Of The University Of Nebraska On-board tool tracking system and methods of computer assisted surgery
US11911117B2 (en) 2011-06-27 2024-02-27 Board Of Regents Of The University Of Nebraska On-board tool tracking system and methods of computer assisted surgery
US9606209B2 (en) 2011-08-26 2017-03-28 Kineticor, Inc. Methods, systems, and devices for intra-scan motion correction
US9182211B2 (en) 2011-12-06 2015-11-10 Honeywell International Inc. Field interchangable boresight mounting system and calibration method
US20140164282A1 (en) * 2012-12-10 2014-06-12 Tibco Software Inc. Enhanced augmented reality display for use by sales personnel
US10327708B2 (en) 2013-01-24 2019-06-25 Kineticor, Inc. Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan
US9305365B2 (en) 2013-01-24 2016-04-05 Kineticor, Inc. Systems, devices, and methods for tracking moving targets
US9717461B2 (en) 2013-01-24 2017-08-01 Kineticor, Inc. Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan
CN105392423B (zh) 2013-02-01 2018-08-17 凯内蒂科尔股份有限公司 生物医学成像中的实时适应性运动补偿的运动追踪系统
US10134267B2 (en) 2013-02-22 2018-11-20 Universal City Studios Llc System and method for tracking a passive wand and actuating an effect based on a detected wand path
US11156464B2 (en) 2013-03-14 2021-10-26 Trx Systems, Inc. Crowd sourced mapping with robust structural features
US11268818B2 (en) 2013-03-14 2022-03-08 Trx Systems, Inc. Crowd sourced mapping with robust structural features
US10105149B2 (en) 2013-03-15 2018-10-23 Board Of Regents Of The University Of Nebraska On-board tool tracking system and methods of computer assisted surgery
CN106572810A (zh) 2014-03-24 2017-04-19 凯内蒂科尔股份有限公司 去除医学成像扫描的预期运动校正的系统、方法和装置
EP2933707B1 (de) * 2014-04-14 2017-12-06 iOnRoad Technologies Ltd. Darstellungseinstellung für kopfmontierte Anzeige
US20150302422A1 (en) * 2014-04-16 2015-10-22 2020 Ip Llc Systems and methods for multi-user behavioral research
US9626802B2 (en) 2014-05-01 2017-04-18 Microsoft Technology Licensing, Llc Determining coordinate frames in a dynamic environment
US9766075B2 (en) * 2014-05-02 2017-09-19 Thales Visionix, Inc. Registration for vehicular augmented reality using auto-harmonization
US9616350B2 (en) 2014-05-21 2017-04-11 Universal City Studios Llc Enhanced interactivity in an amusement park environment using passive tracking elements
US10025990B2 (en) 2014-05-21 2018-07-17 Universal City Studios Llc System and method for tracking vehicles in parking structures and intersections
US10207193B2 (en) 2014-05-21 2019-02-19 Universal City Studios Llc Optical tracking system for automation of amusement park elements
US9600999B2 (en) 2014-05-21 2017-03-21 Universal City Studios Llc Amusement park element tracking system
US9433870B2 (en) 2014-05-21 2016-09-06 Universal City Studios Llc Ride vehicle tracking and control system using passive tracking elements
US10061058B2 (en) 2014-05-21 2018-08-28 Universal City Studios Llc Tracking system and method for use in surveying amusement park equipment
US9429398B2 (en) 2014-05-21 2016-08-30 Universal City Studios Llc Optical tracking for controlling pyrotechnic show elements
DE102014213021A1 (de) * 2014-07-04 2016-01-07 Bayerische Motoren Werke Aktiengesellschaft Lokalisierung eines HMD im Fahrzeug
CN106714681A (zh) 2014-07-23 2017-05-24 凯内蒂科尔股份有限公司 用于在医学成像扫描期间追踪和补偿患者运动的系统、设备和方法
US10093967B2 (en) * 2014-08-12 2018-10-09 The Regents Of The University Of Michigan Detection of nucleic acids
US10238979B2 (en) 2014-09-26 2019-03-26 Universal City Sudios LLC Video game ride
US10264038B2 (en) 2014-12-04 2019-04-16 Qualcomm Incorporated Discovery and management of synchronous audio or video streaming service to multiple sinks in wireless display system
US10111620B2 (en) 2015-02-27 2018-10-30 Microsoft Technology Licensing, Llc Enhanced motion tracking using transportable inertial sensors to determine that a frame of reference is established
US10444018B2 (en) * 2015-02-27 2019-10-15 Microsoft Technology Licensing, Llc Computer-implemented method to test the sensitivity of a sensor for detecting movement of a tracking device within an established frame of reference of a moving platform
US10684485B2 (en) 2015-03-06 2020-06-16 Sony Interactive Entertainment Inc. Tracking system for head mounted display
US10212355B2 (en) 2015-03-13 2019-02-19 Thales Defense & Security, Inc. Dual-mode illuminator for imaging under different lighting conditions
US10296086B2 (en) 2015-03-20 2019-05-21 Sony Interactive Entertainment Inc. Dynamic gloves to convey sense of touch and movement for virtual objects in HMD rendered environments
GB2536650A (en) 2015-03-24 2016-09-28 Augmedics Ltd Method and system for combining video-based and optic-based augmented reality in a near eye display
US9489045B2 (en) * 2015-03-26 2016-11-08 Honeywell International Inc. Methods and apparatus for providing a snapshot truthing system for a tracker
US10187977B2 (en) 2015-06-29 2019-01-22 Microsoft Technology Licensing, Llc Head mounted computing device, adhesive joint system and method
US10869393B2 (en) 2015-06-29 2020-12-15 Microsoft Technology Licensing, Llc Pedestal mounting of sensor system
US20170003311A1 (en) * 2015-07-01 2017-01-05 Sheng-Chia Optical Co., Ltd. Method for Detecting Bicycle Pedaling Frequencies
US9943247B2 (en) 2015-07-28 2018-04-17 The University Of Hawai'i Systems, devices, and methods for detecting false movements for motion correction during a medical imaging scan
GB201516120D0 (en) 2015-09-11 2015-10-28 Bae Systems Plc Helmet tracker
GB201516122D0 (en) * 2015-09-11 2015-10-28 Bae Systems Plc Inertial sensor data correction
GB2542609A (en) 2015-09-25 2017-03-29 Nokia Technologies Oy Differential headtracking apparatus
FI3374737T3 (fi) 2015-11-10 2023-01-13 Robusti visuaalis-inertiaalinen jalankulkijoiden seuranta automaattisella kulkusuunnan kohdistamisella
US10716515B2 (en) 2015-11-23 2020-07-21 Kineticor, Inc. Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan
US10055948B2 (en) 2015-11-30 2018-08-21 Nike, Inc. Apparel with ultrasonic position sensing and haptic feedback for activities
US10215542B2 (en) 2015-12-09 2019-02-26 Virtual Clays, LLC System for analyzing performance of an activity involving using an implement to strike a moving target object effectively
US9874931B1 (en) * 2016-02-22 2018-01-23 Rockwell Collins, Inc. Head-tracking system and method
USD823315S1 (en) 2016-03-30 2018-07-17 Square, Inc. Display screen having a graphical user interface
JP6913326B2 (ja) 2016-05-02 2021-08-04 ウェイヴス オーディオ リミテッド 適応基準を用いた頭部追跡
US11182930B2 (en) 2016-05-02 2021-11-23 Waves Audio Ltd. Head tracking with adaptive reference
US11017610B2 (en) 2016-05-18 2021-05-25 Google Llc System and method for fault detection and recovery for concurrent odometry and mapping
US10802147B2 (en) 2016-05-18 2020-10-13 Google Llc System and method for concurrent odometry and mapping
US10890600B2 (en) 2016-05-18 2021-01-12 Google Llc Real-time visual-inertial motion tracking fault detection
US11577159B2 (en) 2016-05-26 2023-02-14 Electronic Scripting Products Inc. Realistic virtual/augmented/mixed reality viewing and interactions
WO2018002004A1 (en) * 2016-06-30 2018-01-04 Koninklijke Philips N.V. Intertial device tracking system and method of operation thereof
CN106092141B (zh) * 2016-07-19 2019-03-01 纳恩博(常州)科技有限公司 一种改善相对位置传感器性能的方法及装置
US11034145B2 (en) 2016-07-20 2021-06-15 Ball Corporation System and method for monitoring and adjusting a decorator for containers
EP3487706A4 (de) 2016-07-20 2020-04-08 Ball Corporation System und verfahren zur ausrichtung eines tintenmarkierers eines dekorateurs
US9891705B1 (en) 2016-08-25 2018-02-13 Rockwell Collins, Inc. Automatic boresighting of head-worn display
US9934530B1 (en) 2016-09-30 2018-04-03 Square, Inc. Application programming interfaces for courier services
US10162736B2 (en) 2016-11-17 2018-12-25 International Business Machines Corporation Smart emulator for wearable devices
DE102016225261A1 (de) * 2016-12-16 2018-06-21 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zum Betreiben eines Anzeigesystems mit einer Datenbrille
US10746815B2 (en) 2016-12-22 2020-08-18 Microsoft Technology Licensing, Llc Magnetic interference detection and correction
US10942252B2 (en) 2016-12-26 2021-03-09 Htc Corporation Tracking system and tracking method
US10782780B2 (en) 2016-12-31 2020-09-22 Vasuyantra Corp. Remote perception of depth and shape of objects and surfaces
DE102017100622A1 (de) * 2017-01-13 2018-07-19 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtungen und Verfahren zum Korrigieren von Ausrichtungsinformationen von einem oder mehreren Trägheitssensoren
DE102017203755A1 (de) * 2017-03-08 2018-09-13 Robert Bosch Gmbh Bestimmung einer räumlichen Ausrichtung
US10429926B2 (en) * 2017-03-15 2019-10-01 International Business Machines Corporation Physical object addition and removal based on affordance and view
CN107153369B (zh) * 2017-05-23 2019-08-20 北京小鸟看看科技有限公司 一种定位物体的定位方法、系统和头戴显示设备
US10216265B1 (en) 2017-08-07 2019-02-26 Rockwell Collins, Inc. System and method for hybrid optical/inertial headtracking via numerically stable Kalman filter
CN109506674B (zh) * 2017-09-15 2021-05-25 阿里巴巴(中国)有限公司 一种加速度的校正方法及装置
DE102018201509A1 (de) * 2018-02-01 2019-08-01 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zum Betreiben eines Anzeigesystems mit einer Datenbrille
CA3031276A1 (en) 2018-02-08 2019-08-08 Ascension Technology Corporation Compensating for distortion in an electromagnetic tracking system
US11244299B1 (en) 2018-03-16 2022-02-08 DoorDash, Inc. Location-based transaction completion
US11164476B2 (en) * 2018-05-29 2021-11-02 Cse Software Inc. Heavy equipment simulation system and methods of operating same
US10390581B1 (en) * 2019-01-29 2019-08-27 Rockwell Collins, Inc. Radio frequency head tracker
US10767997B1 (en) 2019-02-25 2020-09-08 Qualcomm Incorporated Systems and methods for providing immersive extended reality experiences on moving platforms
US11023957B1 (en) 2019-06-12 2021-06-01 DoorDash, Inc. Dynamically providing context-based notification and fulfillment
KR102476057B1 (ko) * 2019-09-04 2022-12-09 주식회사 윌러스표준기술연구소 클라우드 가상 현실을 위한 imu 센서 데이터를 활용한 비디오 인코딩 및 디코딩 가속 방법 및 장치
CN114286762B (zh) * 2019-10-29 2023-03-24 浩乐行 用于在交通工具中操作虚拟现实头戴设备的方法和控制设备
CN110956666B (zh) * 2019-11-12 2023-05-12 深圳市瑞立视多媒体科技有限公司 运动数据标定方法、装置、终端设备及存储介质
DE102019131640A1 (de) * 2019-11-22 2021-05-27 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zum Betreiben eines Anzeigesystems mit einer Datenbrille
US11382712B2 (en) 2019-12-22 2022-07-12 Augmedics Ltd. Mirroring in image guided surgery
US11360552B1 (en) 2020-06-02 2022-06-14 Rockwell Collins, Inc. High assurance headtracking via structured light projection for head worn display (HWD)
US11320650B1 (en) 2020-06-02 2022-05-03 Rockwell Collins, Inc. High assurance head tracking system incorporating ground truth fiducials
US20220092860A1 (en) * 2020-09-18 2022-03-24 Apple Inc. Extended reality for moving platforms
FR3118493B1 (fr) * 2020-12-28 2023-01-13 Thales Sa Procede et dispositif de contrôle de determination de positionnement d'un dispositif de visualisation d'informations porte
US11896445B2 (en) 2021-07-07 2024-02-13 Augmedics Ltd. Iliac pin and adapter

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5483259A (en) * 1994-04-12 1996-01-09 Digital Light & Color Inc. Color calibration of display devices
US5645077A (en) * 1994-06-16 1997-07-08 Massachusetts Institute Of Technology Inertial orientation tracker apparatus having automatic drift compensation for tracking human head and other similarly sized body
US5638117A (en) * 1994-11-14 1997-06-10 Sonnetech, Ltd. Interactive method and system for color characterization and calibration of display device
US6122002A (en) * 1996-05-16 2000-09-19 Brother Kogyo Kabushiki Kaisha Device and method for determining black point
JPH09305152A (ja) * 1996-05-16 1997-11-28 Brother Ind Ltd ディスプレイのブラックポイント決定方法及び決定装置
JPH1079020A (ja) * 1996-09-05 1998-03-24 Canon Inc 画像処理方法及び装置
CN1212023C (zh) * 1996-12-24 2005-07-20 三菱电机株式会社 彩色特性测量装置和彩色特性测量方法
US6176837B1 (en) * 1998-04-17 2001-01-23 Massachusetts Institute Of Technology Motion tracking system
US6078309A (en) * 1998-05-22 2000-06-20 Way Tech Development, Inc. System and method for visually measuring color characteristics of a display
DE19830359A1 (de) * 1998-07-07 2000-01-20 Helge Zwosta Räumliche Lage- und Bewegungsbestimmung von Körperteilen und Körpern, mittels einer Kombination von inertialen Orientierungs-Meßaufnehmern und Positionserfassungssensoriken
JP2001103518A (ja) * 1999-09-30 2001-04-13 Mitsubishi Electric Corp ビデオ信号作成装置及びビデオ信号作成方法
JP3403361B2 (ja) * 1999-09-30 2003-05-06 川崎重工業株式会社 ヘッド・マウント・ディスプレイ装置
US6259486B1 (en) * 1999-10-20 2001-07-10 A. Pascal Mahvi Sensor unit for controlling television set operation
US6686953B1 (en) * 2000-03-01 2004-02-03 Joseph Holmes Visual calibration target set method
US6474159B1 (en) * 2000-04-21 2002-11-05 Intersense, Inc. Motion-tracking

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017120741A1 (de) * 2017-09-08 2019-03-14 Tim Millhoff Vorrichtung, System und Verfahren zur Entkopplung eines VR-Systems von Infrastruktur und ortsgebundener Hardware

Also Published As

Publication number Publication date
AU2001261040A1 (en) 2001-11-07
IL152359A0 (en) 2003-05-29
IL152359A (en) 2007-07-24
ATE308920T1 (de) 2005-11-15
US6474159B1 (en) 2002-11-05
US20020194914A1 (en) 2002-12-26
WO2001080736A1 (en) 2001-11-01
EP1280457A1 (de) 2003-02-05
US6681629B2 (en) 2004-01-27
DE60114798D1 (de) 2005-12-15
EP1280457B1 (de) 2005-11-09
EP1280457A4 (de) 2004-06-23

Similar Documents

Publication Publication Date Title
DE60114798T2 (de) Bewegungsbestimmung
DE60014848T2 (de) Geländenavigationsgerät für tiere mit beinen
DE112009001766B4 (de) Systeme zur Erfassung und Analyse von Orts- und Wegeplan-Erzeugungsdaten
US7000469B2 (en) Motion-tracking
DE69929525T2 (de) Verfahren und vorrichtung zur erzeugung von navigationsdaten
DE10219861B4 (de) Verfahren und Vorrichtung zur Langzeitnavigation
DE10228639A1 (de) Hybrid-Trägheitsnavigationsverfahren und -Vorrichtung
DE102011080432A1 (de) Systeme und Verfahren zum Berechnen einer vertikalen Position
DE2801045A1 (de) Navigationsgeraet
DE112007000074T5 (de) System zum Erfassen einer Gierrate unter Verwendung eines Magnetfeldsensors sowie tragbare elektronische Vorrichtungen unter Verwendung hiervon
DE10350108A1 (de) Benutzerorientierung und Navigation auf INS-Basis
DE112015005691T5 (de) Flugsteuerrechner für ein Luftfahrzeug welcher einen darin integrierten Trägheitssensor enthält
EP3117183B1 (de) Verfahren und vorrichtung zum bestimmen von navigationsdaten
Foxlin Head tracking relative to a moving vehicle or simulator platform using differential inertial sensors
DE2818202C2 (de) Navigationsgerät für Land-, Luft- oder Seefahrzeuge
DE2922415C2 (de) Navigationsgerät für Landfahrzeuge
DE19919249A1 (de) Koppelnavigationssystem
DE4027393C2 (de)
DE60024835T2 (de) Integriertes inertial/fahrzeugbewegungssensor navigationssystem
DE19636425C1 (de) Verfahren zur Navigation unter Verwendung unterschiedlicher Meßmethoden
EP0184632B1 (de) Anordnung zur Initialisierung und/oder Rekalibrierung eines Tochter-Trägheitsnavigationssystems
EP0276663A2 (de) Einrichtung zur Bestimmung der zeitlich veränderlichen Lage und von Fehlern eines Tochternavigationssystems relativ zu einem Mutternavigationssystem
EP0416318B1 (de) Einrichtung zur Registrierung von Flugwegen und Flugmanövern von Flugzeugen
WO2007140979A1 (de) Tunnelvortriebsmaschine mit nordsucher
DE2923988C2 (de) Navigationseinrichtung für Oberflächenfahrzeuge

Legal Events

Date Code Title Description
8364 No opposition during term of opposition