DE10350108A1 - Benutzerorientierung und Navigation auf INS-Basis - Google Patents
Benutzerorientierung und Navigation auf INS-Basis Download PDFInfo
- Publication number
- DE10350108A1 DE10350108A1 DE10350108A DE10350108A DE10350108A1 DE 10350108 A1 DE10350108 A1 DE 10350108A1 DE 10350108 A DE10350108 A DE 10350108A DE 10350108 A DE10350108 A DE 10350108A DE 10350108 A1 DE10350108 A1 DE 10350108A1
- Authority
- DE
- Germany
- Prior art keywords
- mobile device
- signals
- sensor
- navigation
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
- G01C21/206—Instruments for performing navigational calculations specially adapted for indoor navigation
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3626—Details of the output of route guidance instructions
- G01C21/3647—Guidance involving output of stored or live camera images or video streams
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S19/00—Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
- G01S19/38—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
- G01S19/39—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
- G01S19/42—Determining position
- G01S19/48—Determining position by combining or switching between position solutions derived from the satellite radio beacon positioning system and position solutions derived from a further system
- G01S19/49—Determining position by combining or switching between position solutions derived from the satellite radio beacon positioning system and position solutions derived from a further system whereby the further system is an inertial position system, e.g. loosely-coupled
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S19/00—Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
- G01S19/38—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
- G01S19/39—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
- G01S19/53—Determining attitude
Abstract
Mobile Einrichtung zur verbesserten Navigation und Orientierung mit einer Visualisierungsschnittstelle, einem ersten Sensor zur Bereitstellung von Signalen, die eine Bewegung der mobilen Einrichtung anzeigen, einem zweiten Sensor zur Bereitstellung weiterer Signale, die eine Bewegung der mobilen Einrichtung anzeigen, und einem Prozessor, der Signale aus dem ersten und dem zweiten Sensor empfängt, eine Position und eine Orientierung der mobilen Einrichtung aus den empfangenen Signalen berechnet und über die Visualisierungsschnittstelle auf der Basis der Position und der Orientierung der mobilen Einrichtung eine Echtzeitsimulation einer Umgebung erzeugt. Gemäß einer Ausführungsform werden der erste und der zweite Sensor als ein Trägheitssensor bzw. ein GPS-Empfänger implementiert.
Description
- Technisches Gebiet
- Die vorliegende Erfindung betrifft visuelle Navigationssysteme und insbesondere, aber ohne Einschränkung, ein System und ein Verfahren zur Bereitstellung einer verbesserten Benutzerorientierung und Navigation für eine mobile Einrichtung unter Verwendung mehrerer Sensoren.
- Derzeitige Schnittstellensysteme für die visuelle Navigation („Visualisierungsschnittstellen") für mobile Einrichtungen haben in der Regel Nachteile im Hinblick auf ihre Zweckmäßigkeit der Benutzung und in bezug auf die Realistik der von ihnen bereitgestellten visuellen Simulation. Visualisierungsschnittstellen für mobile Einrichtungen erfordern gewöhnlich aktive Benutzereingaben zur Bereitstellung einer Orientierung für die Visualisierung. Der Benutzer kann die Eingabe über eine Hilfseinrichtung, wie zum Beispiel eine Maus, eine Tastatur oder einen Berührungsbildschirmcursor bereitstellen. Wenn in diesem Fall ein Benutzer visuelle Informationen erhalten möchte, die einer bestimmten Betrachtungsorientierung entsprechen, kann es notwendig sein, daß er oder sie einen Cursor oder eine Maus in die gewählte Richtung richtet. Diese aktive Eingabe erfordert die Benutzung einer freien Hand, was unzweckmäßig sein kann, wenn die Visualisierungsschnittstelle in eine in der Hand gehaltene Einrichtung, wie zum Beispiel einen Personal Digital Assistant (PDA) integriert ist, die bereits die Benutzung einer Hand in Anspruch nimmt.
- Sogar Visualisierungsschnittstellen, die mit GPS-Empfängern (Global Positioning System) ausgestattet sind und dadurch Positionskoordinaten erhalten, liefern im allgemeinen zweidimensionale „Karten"-Ansichten mit nur begrenzter Möglichkeit, die Kartenorientierung zu modifizieren. Bei diesen Systemen kann die Position des Benutzers auf der zweidimensionalen Karte hervorgehoben werden, und während sich die Position des Benutzers ändert, aktualisiert sich die Karte sequenziell, um die Positionsänderung wiederzugeben. Die sequenziellen Kartenbilder erscheinen in einer Konfiguration mit „Nord oben" oder in einer Konfiguration mit „Kurs oben", während sich der Benutzer in einer bestimmten Kursrichtung bewegt. Außerdem haben derzeitige auf GPS basierende Visualisierungsschnittstellen nur begrenzte Fähigkeiten für dreidimensionale Simulation, da das GPS-Empfangssystem gewöhnlich keine Lageinformationen (Winkelorientierung) bereitstellt.
- Es wäre also wünschenswert, eine manuell zweckmäßige Visualisierungsschnittstelle bereitzustellen, durch die ein Benutzer mit Flexibilität im Hinblick auf die Ansichtsorientierung in einer Karte navigieren oder eine Umgebung in drei Dimensionen bewegt oder ruhend visualisieren kann.
- Kurze Darstellung der Erfindung
- Gemäß diesem Ziel liefert die vorliegende Erfindung eine mobile Einrichtung zur verbesserten Navigation und Orientierung. mit einer Visualisierungsschnittstelle, einem ersten Sensor zum Bereitstellen von Signalen, die eine Bewegung der mobilen Einrichtung anzeigen, einem zweiten Sensor zur Bereitstellung weiterer Signale, die eine Bewegung der mobilen Einrichtung anzeigen, und einem Prozessor, der die Signale von dem ersten Sensor und dem zweiten Sensor empfängt, eine dreidimensionale Position und eine dreidimensionale Orientierung der mobilen Einrichtung aus den empfangenen Signalen berechnet und eine Echtzeitsimulation einer Umgebung über die Visualisierungsschnittstelle auf der Basis der berechneten Position und Orientierung erzeugt.
- Gemäß einer Ausführungsform der mobilen Einrichtung enthält der erste Sensor einen Trägheitssensor.
- Die mobile Einrichtung gemäß der vorliegenden Erfindung ermöglicht außerdem eine Benutzersteuerung der Navigation durch Ermöglichung, daß durch manuelle Bewegung der mobilen Einrichtung, die durch den ersten und den zweiten Sensor erfaßt wird, ein Benutzer einen Ansichtspunkt, eine Position und eine Lage entweder in einer zweidimensionalen oder in einer dreidimensionalen. Simulation der Umgebung steuern kann.
- Gemäß einer Implementierung enthält der Trägheitssensor Linearbeschleunigungssensoren, die Beschleunigungen der mobilen Einrichtung entlang der X-, der Y- bzw. der Z-Richtungsachse messen. Außerdem kann der Trägheitssensor Drehgeschwindigkeitssensoren enthalten, die Drehgeschwindigkeiten der mobilen Einrichtung um die jeweilige X-, Y- bzw. Z-Achse messen.
- Gemäß einer Ausführungsform enthält der zweite Sensor einen GPS-Empfänger. Vorteilhafterweise kann mit aus dem GPS-Empfänger abgeleiteten Navigationsinformationen ein Driften des Trägheitssensors bestimmt werden.
- Gemäß einem anderen Aspekt ist der Prozessor der mobilen Einrichtung so konfiguriert, daß er Signale aus dem Trägheitssensor zur Aktivierung/Deaktivierung von Benutzersteueroperationen verwendet. Zum Beispiel kann durch abrupte Bewegungen die Anzeige ein- oder ausgeschaltet oder eine Funktion wie etwa ein Heraus- oder Hereinzoomen aktiviert/deaktiviert werden.
- Die mobile Einrichtung kann außerdem mit Mitteln zum Empfangen und Aktualisieren von Navigationsinformationen bezüglich einer spezifischen Umgebung ausgestattet werden, damit eine große Menge an Daten erhalten wird, die zu umfangreich sein können, um kontinuierlich durch die internen Speicherbetriebsmittel gespeichert zu werden.
- Mit Hilfe der spezifischen Informationen kann die mobile Einrichtung als ein Navigationstourführer verwendet werden. In dieser Hinsicht können die Navigationsinformationen Karten- und Bilddaten für Messen, Ausstellungen, Museen, Konferenzen, öffentliche Gebäude und Universitätsgelände enthalten, um nur einige Umgebungen zu nennen. Zu verschiedenen spezialisierten Anwendungen, für die die mobile Einrichtung der vorliegenden Erfindung vorteilbringend angewandt werden kann, gehören die Seenavigation und das Simulieren (und Bereitstellen einer Reserve für) aeronautischer Navigationsgeräte.
- Gemäß einer zweiten Ausführungsform enthalten sowohl der erste als auch der zweite Sensor GPS-Empfänger.
- Gemäß einem anderen Aspekt liefert die vorliegende Erfindung eine mobile Einrichtung zur verbesserten Navigation und Orientierung mit einer Benutzerschnittstelle mit einer visuellen Anzeige und einem Trägheitssensor, der Bewegungen der mobilen Einrichtung erkennt und Rückmeldungssignale liefert, die zur Benutzersteuerung und zum Erzeugen eines Bildes in der visuellen Anzeige verwendet werden. Eine Position und eine Lage der mobilen Einrichtung kann aus dem Rückmeldesignalen abgeleitet werden.
- Gemäß einer Implementierung enthält die mobile Einrichtung einen Prozessor und ein Mittel zum Empfangen lokaler Navigationsbildinformationen, wobei der Prozessor die Position und Lage der mobilen Einrichtung aus den durch den Trägheitssensor erzeugten Signalen. und aus der Position, Lage und den Informationen, die über das Empfangsmittel empfangen werden, errechnet, ein Bild der lokalen Umgebung erzeugt, das die Umgebung von der berechneten Position und Lage der mobilen Einrichtung aus gesehen abbildet. Gemäß dieser Implementierung kann die mobile Einrichtung einen GPS-Empfänger enthalten. In diesem Fall berechnet der Prozessor die Position mit Hilfe von aus dem GPS-Empfänger abgeleiteten GPS-Informationen.
- Gemäß einer bestimmten Ausführungsform enthält der Trägheitssensor Linearbeschleunigungssensoren zum Erfassen der Beschleunigung in der X-, der Y- und der Z-Richtungsachse und Drehgeschwindigkeitssensoren zum Erfassen der Drehgeschwindigkeit um die X-, Y- und Z-Achse.
- Als Reaktion auf bestimmte aus dem Trägheitssensor empfangene Signale kann der Prozessor Steuerungen der Benutzerschnittstelle aktivieren oder deaktivieren. Zum Beispiel können vom Benutzer ausgeführte abrupte Bewegungen der mobilen Einrichtung, die die Erzeugung hochfrequenter Signale verursachen, auslösen, daß der Prozessor Steuerungen der Benutzerschnittstelle aktiviert oder deaktiviert, wodurch eine zweckmäßige manuelle Steuerung der Funktionalität der mobilen Einrichtung bereitgestellt wird.
- Gemäß einem weiteren Aspekt liefert die vorliegende Erfindung eine mobile Einrichtung zur verbesserten Navigation und Orientierung mit einer Visualisierungsschnittstelle und einem Sensor zur Erkennung einer Lage der mobilen Einrichtung und zum Erzeugen entsprechender Signale, die Rückmeldungen zur Benutzersteuerung und zur Erzeugung eines Bildes in der Visualisierungsschnittstelle, das dem Ansichtspunkt der erkannten Lage der mobilen Einrichtung entspricht, bereitstellen.
- Gemäß einer Implementierung enthält der Sensor mindestens einen Trägheitssensor, der eine Drehgeschwindigkeit der mobilen Einrichtung erkennt.
- Gemäß einer weiteren Implementierung enthält die mobile Einrichtung außerdem einen Positionssensor, ein Mittel zum Empfangen lokaler Navigationsbildinformationen und einen Prozessor, der die von dem Positionssensor gelieferten Signale, die Signale aus dem Lagesensor und empfangene lokale Navigationsbildinformationen zur Erzeugung einer zweidimensionalen Ansicht und einer dreidimensionalen Simulation einer navigierten Umgebung in Echtzeit verwendet.
- Die mobile Einrichtung des Anspruchs kann außerdem einen an den Prozessor angekoppelten GPS-Empfänger als Hilfe bei der Berechnung einer Position der mobilen Einrichtung enthalten.
- Die vorliegende Erfindung liefert außerdem ein Verfahren zum Navigieren unter Verwendung einer mobilen Einrichtung mit einer visuellen Anzeige. Dieses Verfahren umfaßt die folgenden Schritte: Erkennen einer ersten Menge von Signalen, die eine Bewegung der mobilen Einrichtung anzeigen, Erkennen einer zweiten Menge von Signalen, die eine Bewegung der mobilen Einrichtung anzeigen, Bestimmen einer Position der mobilen Einrichtung auf der Basis der ersten Menge von Signalen und/oder der zweiten Menge von Signalen, Bestimmen einer Orientierung der mobilen Einrichtung auf der Basis der ersten Menge von Signalen und/oder der zweiten Menge von Signalen und Erzeugen einer zweidimensionalen und/oder einer dreidimensionalen Ansicht einer Umgebung auf der Basis der Position und Orientierung der mobilen Einrichtung.
- Gemäß einer Ausführungsform des Verfahrens werden Benutzerfunktionen der mobilen Einrichtung auf der Basis der ersten Menge von Signalen gesteuert.
- Gemäß einer Implementierung des Verfahrens der vorliegenden Erfindung wird die erste Menge von Signalen durch einen Trägheitssensor erzeugt. Die erste Menge von Signalen kann eine Linearbeschleunigung der mobilen Einrichtung in der X-, der Y- und der Z-Richtungsachse und eine Drehgeschwindigkeit der mobilen Einrichtung um die X-, Y- und Z-Achse darstellen. Weiterhin kann die zweite Menge von Signalen durch einen GPS-Empfänger erzeugt werden. Diese Implementierung ermöglicht vorteilhafterweise eine Kalibrierung einer Position, die aus den Signalen bestimmt wird, die durch den Trägheitssensor bereitgestellt werden, unter Verwendung der Positionsinformationen, die aus den durch den GPS-Empfänger bereitgestellten Signalen abgeleitet werden.
- Um umfassende Daten zur Erzeugung ausführlicher Bilder während der Navigation zu erhalten, empfängt die mobile Einrichtung lokale Navigationsbildinformationen und erzeugt eine zweidimensionale und/oder eine dreidimensionale Ansicht der Umgebung auf der Basis der bestimmten Position und Orientierung der mobilen Einrichtung unter Verwendung der empfangenen lokalen Navigationsbildinformationen.
- Das Verfahren der vorliegenden Erfindung kann weitere Operationen enthalten, die auf spezifische Anwendungen abgestimmt sind. Solche Anwendungen sind zum Beispiel das Navigieren in einem virtuellen Raum unter Verwendung empfangener lokaler Navigationsbildinformationen, die graphische Einzelheiten des virtuellen Raums liefern, das Empfangen lokaler Seebildinformationen in einem Küstengebiet und das Erzeugen einer Kartenansicht des Küstengebiets und einer dreidimensionalen Ansicht der Küste, einschließlich Gefahrenstellen, unter Verwendung empfangener lokaler Seebildinformationen, und in einem aeronautischen Transportfahrzeug, das Simulieren von On-Board-Navigationsinstrumenten in einer Benutzerschnittstelle unter Verwendung der aus der ersten Menge von Signalen und der zweiten Menge von Signalen abgeleiteten Daten.
- Die vorliegende Erfindung liefert außerdem ein visuelles Navigationssystem mit einer Quelle von Navigationsinformationen, darunter Karteninformationen und Bildinformationen, und eine mobile Einrichtung. Die Quelle enthält ein Mittel zum Übertragen der Navigationsinformationen, und die mobile Einrichtung enthält ein Mittel zum Empfangen von Navigationsinformationen von der Quelle, einen Trägheitssensor, einen GPS-Empfänger und einen an den Trägheitssensor, den GPS-Empfänger und das Empfangsmittel angekoppelten Prozessor. Der Prozessor enthält weiterhin folgendes: i) ein Navigationsmodul, das ein Position der mobilen Einrichtung unter Verwendung von Daten aus dem Trägheitssensor und dem GPS-Empfänger berechnet und unter Verwendung der empfangenen Karteninformationen und der geschätzten Position Kartendaten erzeugt; und ii) ein Benutzerschnittstellengeneratormodul, das eine Orientierung der mobilen Einrichtung unter Verwendung von Daten aus dem Trägheitssensor berechnet, unter Verwendung der durch das Navigationsmodul berechneten Position, der berechneten Orientierung und empfangener Bildinformationen eine dreidimensionale Simulation erzeugt und Benutzerfunktionen gemäß über den Trägheitssensor empfangener Signale steuert.
-
1 ist ein Funktionsblockschaltbild einer mobilen Einrichtung mit verbesserter Benutzerorientierungs- und Navigationsfähigkeit gemäß der vorliegenden Erfindung. -
2 ist ein schematisches Blockschaltbild von Komponenten der mobilen Einrichtung gemäß einer ersten Ausführungsform der vorliegenden Erfindung. -
3 ist ein schematisches Blockschaltbild von Komponenten der mobilen Einrichtung gemäß einer zweiten Ausführungsform der vorliegenden Erfindung, die mehrere GPS-Empfänger enthält. -
4 zeigt ein Softwaremodell der mobilen Einrichtung gemäß einer ersten Ausführungsform der vorliegenden Erfindung. -
5 zeigt eine Tourführeranwendung der mobilen Einrichtung gemäß der vorliegenden Erfindung. -
6 zeigt die Seenavigation unter Verwendung der mobilen Einrichtung gemäß der vorliegenden Erfindung. -
7 zeigt eine weitere Anwendung der mobilen Einrichtung gemäß der vorliegenden Erfindung als aeronautisches Reserveinstrument. - Ausführliche Beschreibung
-
1 zeigt eine Funktionsansicht einer mobilen Einrichtung mit verbesserter Benutzerorientierungs- und Navigationsfähigkeit gemäß der vorliegenden Erfindung. Wie gezeigt, enthält die mobile Einrichtung10 eine Visualisierungsschnittstelle15 mit Anzeigebereichen17 ,18 , die als Flüssigkristallanzeigen (LCDs) implementiert werden können, zur Darstellung einer Umgebung, in der navigiert wird. Gemäß einer Ausführungsform bildet ein Anzeigebereich17 eine dreidimensionale Ansicht der Umgebung, in der navigiert wird, gemäß einer bestimmten Betrachterorientierung ab, und der Anzeigebereich18 bildet eine zweidimensionale Draufsicht auf der Anzeige gemäß derselben Betrachterorientierung ab. Die Anzeigen können auch Steuerungen der graphischen Benutzerschnittstelle abbilden, wie zum Beispiel Tasten zur Benutzersteuerung. Wie unten ausführlicher beschrieben wird, kann die Umgebung, in der navigiert wird, der eigentlichen Umgebung entsprechen, in der sich die mobile Einrichtung zu einem gegebenen Zeitpunkt befindet, kann aber auch einer anderen „virtuellen" Umgebung entsprechen, durch die sich ein Benutzer mittels der Bewegung der mobilen Einrichtung navigiert. - Eine solche Navigation wird unter Verwendung von Sensoren erzielt, die im Block
20 abgebildet sind und Signale zur Schätzung der Bewegung der mobilen Einrichtung liefern. Wie unten beschrieben wird, enthalten die Sensoren, gemäß einer ersten Ausführungsform Trägheitsbeschleunigungs- und Drehgeschwindigkeitssensoren, die ein Schätzung sowohl der relativen Translation als auch der Rotation der mobilen Einrichtung (in bezug auf ein Bezugskoordinatensystem) liefern, zusätzlich zu einem oder mehreren GPS-Empfängern zur Schätzung entweder der absoluten Position alleine (unter Verwendung eines GPS-Empfängers) oder sowohl der absoluten Position als auch der Orientierung (unter Verwendung von zwei oder mehr GPS-Empfängern). Gemäß einer anderen Ausführungsform enthalten die Sensoren mehrere GPS-Empfänger zum Schätzen der absoluten Position und Orientierung in drei Dimensionen ohne Verwendung von Trägheitssensoren. Die Trägheitssensoren liefern direkte Signale, die für bestimmte Arten von Benutzerdialog verwendet werden können, wie zum Beispiel zum Ändern des Zustands einer Steuerung der graphischen Benutzerschnittstelle. Wenn also der Benutzer die mobile Einrichtung abrupt bewegt oder verdreht, wodurch eine plötzliche Zunahme der Beschleunigung oder Drehgeschwindigkeit verursacht wird, können grundlegende Benutzerfunktionen, wie zum Beispiel ein/aus, Start, Laden usw. aktiviert werden. Langsamere oder sanftere Bewegungen können zur Navigation durch Verarbeiten der verschiedenen Beschleunigungs-, Drehgeschwindigkeits- und/oder GPS-Positionssignale im Block25 verwendet werden, um durch Integration eine Lage (definiert als die Orientierung der mobilen Einrichtung im Hinblick auf Richtungs-, Neigungs- und Rollwinkel in bezug auf die X-, Y- und Z-Achse) und eine Position zu erhalten. -
2 zeigt eine ausführlichere schematische Ansicht der mobilen Einrichtung gemäß einer ersten Ausführungsform der vorliegenden Erfindung. Wie gezeigt, enthält der Sensorblock20 sechs getrennte Sensoren: drei Linearbeschleunigungssensoren21a ,21b ,21c , die Linearbeschleunigung in der X-, der Y- und der Z-Richtung in einem kartesischen Koordinatensystem messen, und Drehgeschwindigkeitssensoren22a ,22b ,22c , die Drehgeschwindigkeiten um die jeweilige X-, Y- und Z-Achse messen. Die Trägheitssensoren können als integrierte Komponenten eines mikroelektromechanischen Systems (MEMS) mit einem akzeptablen Empfindlichkeitsgrad implementiert werden. Wenn sich ein Benutzer (zusammen mit der mobilen Einrichtung10 ) bewegt oder die mobile Einrichtung in Ruhe gezielt bewegt, erkennen die Sensoren21a ,b ,c und22a ,b ,c eine Relativbewegung und erzeugen entsprechende elektrische Signale, die den Betrag von Beschleunigungen oder Drehgeschwindigkeiten anzeigen. - Die Signale aus den Sensoren
21a ,b ,c und22a ,b ,c werden einem Analog/Digital-Umsetzer30 zugeführt, in dem die von den Sensoren erzeugten analogen Signale in digital Signale umgesetzt werden, die dann einem Filterelement35 zuführt werden. Das Filterelement35 kann als ein digitales Hochpaßfilter implementiert werden, das die Hochfrequenzkomponente der aus dem Analog/Digital-Umsetzer30 ausgegebenen digitalen Signale durchläßt. Die Ausgabe aus dem Filterelement35 wird dann zu einem Prozessor40 geleitet, der als ein Mikroprozessor implementiert werden kann. Der Prozessor40 bestimmt, ob die Hochfrequenzkomponente eines oder mehrerer der Sensoren eine hohe Amplitude aufweist, wodurch angezeigt wird, daß sich die mobile Einrichtung in eine bestimmte Richtung abrupt bewegt oder gedreht hat. Wie bereits erwähnt, können abrupte Bewegungen der Einrichtung10 zur Steuerung von Operationen verwendet werden, wie zum Beispiel des Ein- oder Ausschaltens der Einrichtung, des Aktivierens oder Deaktivierens einer Steuerung, des Herein- oder Herauszoomens in der visualisierten Umgebung usw. Auf diese Weise verwendet der Prozessor40 die Ausgabe des Filterelements35 zur Bestimmung, ob Steueroperationen aktiviert/deaktiviert worden sind. - Der Prozessor
40 empfängt außerdem eine Ausgabe aus einem GPS-Empfänger50 . Die Ausgabe aus dem GPS-Empfänger50 liefert ein Zeitsignal, durch das der Prozessor40 Ereignisse mit dem globalen GPS-Takt synchronisieren kann, und liefert außerdem eine Positionsprüfung für Kalibrierungszwecke. Gemäß einer zusätzlichen Ausführungsform kann die mobile Einrichtung einen oder mehrere (nicht gezeigte) zusätzliche GPS-Empfänger enthalten, die eine grobe Schätzung der absoluten Orientierung der mobilen Einrichtung liefern können. Die Kombination auf Trägheit basierender Sensoren mit einem GPS-Empfänger ist vorteilhaft, weil die Stärken jedes Detektionssystems das andere ergänzen. Trägheitssensoren liefern tendenziell über kürzere Zeiten und Distanzen hinweg genauere Bewegungs- und Orientierungsschätzungen als GPS-Navigationssysteme, da GPS-Systeme eine maximale Auflösung aufweisen und nur innerhalb einiger Fuß genau sind. Wie oben erwähnt, liefern außerdem GPS-Systeme im allgemeinen keine ausführlichen Schützungen der Orientierung, und der Empfang von GPS-Signalen von Satelliten kann sich mit veränderlicher Sichtbarkeit einer ausreichenden Anzahl von Satelliten oder Baken ändern. Trägheitssensoren sind besonders für Innenanwendungen nützlich, wo GPS-Signale im allgemeinen überhaupt nicht oder nur mit signifikanten Infrastrukturkosten verfügbar sind, während auf Trägheitssensoren basierende Navigationssysteme mit vernachlässigbarer Infrastruktur funktionieren. - Dagegen kommt es bei Trägheitssensoren zu Betonungen und Unbeständigkeiten zum Beispiel aufgrund von Temperaturfluktuationen, die systematische Drifts oder Offsets in den Werten für die Position und Orientierung, die gemäß den aus diesen Sensoren ausgegebenen Signalen berechnet werden, verursachen können. Durch Trägheitssensoren erzeugte Signale können deshalb über große Zeiträume hinweg weniger beständig als vergleichbare Signale aus GPS-Systemen sein. Folglich ist es vorteilhaft, die Trägheitssensoren im allgemeinen zur Schätzung der Bewegung zu verwenden und das Driften der berechneten Position und/oder Orientierung durch Kalibrieren der Sensoren
21a ,b ,c ,22a ,b ,c unter Verwendung der „Standard"-Koordinaten, -Zeiten und/oder -Orientierung, die durch den einen oder mehrere GPS-Empfänger50 bereitgestellt werden, periodisch zu korregieren. - Um diese Vorteile auszunutzen, berechnet der Prozessor
40 Position und Orientierung auf zwei Weisen durch Integrieren der Signale aus den Trägheitssensoren21a ,b ,c ,22a ,b ,c und durch Berechnen von Positionskoordinaten aus den über den GPS-Empfänger50 empfangenen Signalen gemäß bekannten GPS-Berechnungsprozeduren. Der Prozessor40 kann verschiedene GPS-Chipkomponenten enthalten oder an diese angekoppelt sein, um die letzteren Prozeduren auszuführen. Der Prozessor40 ist außerdem an eine lokale Speichereinheit44 angekoppelt, die Daten bezüglich geographischer Objekte, wie zum Beispiel Straßen, Gebäude, Wetter, Bilder usw, speichert, um die Umgebung in der zwei- und dreidimensionalen Ansicht in den jeweiligen Anzeigen17 ,18 graphisch wiederzugeben. Diese geographischen Daten können aus Dockstationen erhalten werden, an die die mobile Einrichtung von Zeit zu Zeit während der Reise angekoppelt werden kann. Zusätzlich oder als Alternative kann die mobile Einrichtung über einen Zellularempfänger48 Informationsaktualisierungen empfangen. - Um die Gesamttranslations- und Drehbewegung der mobilen Einrichtung
10 zu schätzen, integriert der Prozessor40 die erkannten Linearbeschleunigungsparameter ax, ay, az, die von den Trägheitssensoren21a ,b ,c ,22a ,b ,c geliefert werden, und die Drehgeschwindigkeiten wx, wy, wz. Jede Integration führt einen neuen Parameter ein, der die Startbedingungen, d.h. die Anfangsgeschwindigkeit, -position und -lage, bezeichnet. Diese Parameter sind der Mobileinrichtung10 gewöhnlich unbekannt und müssen deshalb engegeben oder geschätzt werden. In dieser Hinsicht kann eine Anzahl von Initialisierungstechniken verwendet werden. Gemäß einer Technik können Driftwerte während einer bewegungslosen Phase geschätzt werden. Dies läßt sich durch fixieren der Einrichtung auf bestimmte Weise (z.B. durch Legen in eine Halterung oder einfach auf einen Tisch) und Starten der Kalibrierung erreichen. Eine Anfangslagebedingung kann durch direktes Messen der Richtung der Erdanziehungskraft in den Linearbeschleunigungsmessern bestimmt werden, wodurch zwei der drei Lagewinkel definiert werden, und durch Wiederholen der Messung dann für verschiedene Neigungs- oder Rollwinkel, um die dritte Richtung zu bestimmen. Außerdem kann man Anfangsbedingungen sowohl für Lage als auch Position durch Annäherung an eine Bezugsposition und horizontales Halten der Einrichtung in Ausrichtung mit einer Kartenanzeige, die der tatsächlichen Umgebung ähnelt, erhalten. Durch Bestätigung stellt der Benutzer diese Anfangsbedingungen ein. Zur Bereitstellung von Anfangsbedingungen kann man auch eine Dockstation verwenden. Die Dockstation kann als eine montierte Station oder als eine Halterung mit einer Schnittstelle für die mobile Einrichtung angeordnet werden. Die Verwendung einer Dockstation hat insofern einen weiteren Vorteil, als standortspezifische Daten (z.B. Karten, Verzeichnisse usw.) von einer Off-Board-Datenbank über die Dockstationsschnittstelle in die mobile Einrichtung heruntergeladen werden können. - Nach der Berechnung der Position und Lage, einschließlich der Berücksichtigung von Anfangsbedingungen und der Korrektur des Sensordriftens, verwendet der Prozessor
40 diese Informationen zur Berechnung zweidimensionaler und dreidimensionaler Visualisierungen der abgebildeten Umgebung in den jeweiligen Anzeigen17 ,18 , wie unten weiter beschrieben werden wird. -
3 zeigt eine schematische Ansicht der mobilen Einrichtung gemäß einer zweiten Ausführungsform der vorliegenden Erfindung mit mehreren GPS-Empfängern. Wie in3 gezeigt, enthält die mobile Einrichtung10 einen ersten GPS-Empfänger50 und einen zweiten GPS-Empfänger55 . Der Prozessor40 verwendet die Eingabe, aus dem ersten GPS-Empfänger50 zur Berechnung einer Koordinatenposition im Hinblick auf Breitengrad, Längengrad und Höhe, die durch Triangulation unter Verwendung von Empfangszeitdifferenzen von aus mehreren GPS-Satelliten gesendeten GPS-Signalen geschätzt werden. Unter Verwendung der Eingabe aus dem zweiten GPS-Empfänger55 , der sich in einigem Abstand von dem ersten GPS-Empfänger50 auf der mobilen Einrichtung10 befindet, kann der Prozessor die Lage der mobilen Einrichtung durch Vergleichen der relativen Differenzen zwischen den Zeiten der von den jeweiligen GPS-Empfängern50 ,55 empfangenen GPS-Signale schätzen. Gemäß dieser Ausführungsform werden Position und Lage also ohne Verwendung von Trägheitssensoren unter Verwendung des GPS-Systems geschätzt. -
4 zeigt ein Softwaremodell der mobilen Einrichtung10 gemäß der ersten Ausführungsform der vorliegenden Erfindung. Wie gezeigt, geben der Trägheitssensor- und GPS-Sensor-Blöcke20 ,50 entsprechende Daten an einen (im Prozessor implementierten) Lokalisierungsblock60 aus, in dem die Position der mobilen Einrichtung im dreidimensionalen Raum bestimmt wird. Der Lokalisierungsblock führt die Positionsinformationen einem Navigationsblock70 zu. Unter Verwendung der berechneten Position kann der Navigationsblock70 auf spezifische Informationen in einer Kartendatenbank75 zugreifen, die die geographischen und lokalen Informationen der „interessierenden Punkte" (z.B. lokale Gebäude, Restaurants, Tankstellen usw.) in bezug auf die bereitgestellte Position enthalten. - Es wird betont, daß die von der Datenbank bereitgestellten Informationen nicht der tatsächlichen Position des Benutzers entsprechen müssen, sondern eine virtuelle Geographie betreffen können, durch die der Benutzer unter Verwendung der mobilen Einrichtung navigiert. Auf diese Weise wäre die „Position" der mobilen Einrichtung die Position in der virtuellen Umgebung, und während sich der Benutzer mit der mobilen Einrichtung bewegt, bewegt sich die Position in der virtuellen Umgebung mit der Geschwindigkeit und in der Richtung, in der sich der Benutzer bewegt. Weiterhin ändert sich die Visualisierung der virtuellen Umgebung, während der Benutzer die mobile Einrichtung dreht, wodurch effektiv der Ansichtspunkt bzw. die Orientierung in der Umgebung verändert wird. Wie bereits erwähnt, müssen diese lokalen Informationen möglicherweise aufgrund der Positionsänderung des Benutzers häufig aktualisiert werden. Da die notwendige Datenmenge zur Wiedergabe jeder Umgebung zu umfassend für die lokalen Speicherbetriebsmittel der mobilen Einrichtung sein kann, können die Daten in Abständen durch Herunterladen neuer Informationen (und Löschen „alter" Informationen) in Dockstationen an verschiedenen Positionen entlang dem Weg des Benutzers erhalten werden und/oder die Informationen können über einen (als ein drahtloser Konnektivitätsblock
90 gezeigten) Zellularempfänger erhalten werden, der Übertragungen von einem Navigationsdatenanbieter empfängt, der für eine Unterstützung der visuellen Navigation ausgelegt ist. - Unter Verwendung der erhaltenen geographischen Daten und lokalen interessierenden Punkte erzeugt der Navigationsblock eine Daten-„karte" der die bestimmte Position umgebenden Umgebung, in der navigiert wird. Der Navigationsblock
70 liefert die erzeugte Karte an einen Benutzerschnittstellengeneratorblock80 . Der Benutzerschnittstellengeneratorblock80 empfängt außerdem Eingaben von dem Trägheitssensorblock20 und einer Bilddatenbank85 . Die Eingabe aus dem Trägheitssensorblock20 enthält Orientierungsdaten, und die Eingabe aus der Bilddatenbank85 enthält dreidimensionale Modelle verschiedener Gebäude, Merkmale und Erkennungszeichen in der lokalen Umgebung und zweidimensionale Bilder, wie zum Beispiel Gebäudetexturen und Anschlagtafelbilder. Der Benutzerschnittstellengeneratorblock80 verwendet die Datenkarte, die eingegebenen Orientierungsdaten und die Daten aus der Bilddatenbank85 zur Erzeugung der graphischen Visualisierungen in den Anzeigebereichen17 ,18 der Visualisierungsschnittstelle15 gemäß sowohl der Position als auch der Orientierung der mobilen Einrichtung. Wie oben beschrieben, kann der Benutzerschnittstellengenerator80 außerdem die Anzeige aus Benutzerbefehlen modifizieren, die direkt über den Trägheitssensorblock20 empfangen werden. Zum Beispiel kann der Benutzerschnittstellengeneratorblock bewirken, daß die Anzeigen17 ,18 als Reaktion auf einen „Ausschalt"-Befehl, der durch den Benutzer durch eine plötzliche Bewegung der mobilen Einrichtung in einer bestimmten Richtung ausgeführt wird, leer werden. - Es gibt zahlreiche Anwendungen, für die die Verwendung einer mobilen Einrichtung mit verbesserter Benutzerorientierungs- und Navigationsfähigkeit sehr von Vorteil wären.
5 zeigt eine Tourführeranwendung, bei der die mobile Einrichtung dabei hilft, einen Benutzer, der ein Tour durch ein Museum unternimmt, zu orientieren, indem eine dreidimensionale Simulation101 der aktuellen Umgebung105 mit einer zweidimensionalen Draufsicht102 eines Teils des Museums dargestellt wird, wodurch eine klare Anzeige des Aufenthaltsorts des Benutzers in dem Museum gegeben und dem Benutzer ermöglicht wird, im voraus eine Route zu den verschiedenen Räumen, Ausstellungen, die er besuchen möchte, zu planen (wobei die Objekte in vereinfachten Blöcken dargestellt sind, die die Kunstobjekte darstellen, aber diese nicht unbedingt im Detail anzeigen). Zusätzlich kann die dreidimensionale Ansicht102 Text und Ton enthalten, die die verschiedenen ausgestellten Kunstobjekte und vorgehobene Verknüpfungen zu weiteren Informationen bezüglich jedes Objekts in der unmittelbaren Umgebung des Benutzers identifizieren. Da die mobile Einrichtung auch in virtuellen Umgebungen navigieren kann, können es die verbesserten Navigationsfähigkeiten der mobilen Einrichtung dem Benutzer erlauben, eine Tour durch das Museum von einer getrennten Position aus zu unternehmen, solange der mobilen Einrichtung die für die Erzeugung der Umgebung des Museums entsprechenden Karten-/Bilddaten zugeführt werden. Auf diese Weise kann der Benutzer die Objekte herausfinden, die das Museum enthält und die Zeit schätzen, die es dauert, zu verschiedenen Ausstellungsstücken zu laufen. - In einem ähnlichen Sinne kann die mobile Einrichtung gemäß der vorliegenden Erfindung auf die Orientierung und Navigation in Myriaden anderer komplexer Umgebungen angewandt werden, wie zum Beispiel Messen, Konferenzen, öffentliche oder militärische oder firmeneigene Gebäude, Universitätsgelände und Basen. Solche Touranwendungen können auf eine virtuelle Umgebung erweitert werden, wie zum Beispiel eine Visualisierung dreidimensionaler Modelle komplexer Maschinenteile, durch die ein Benutzer die Perspektive und den Sichtwinkel ändern kann, indem er die mobile Einrichtung dreht (oder deren Neigungs-/Rollwinkel verändert). Spielanwendungen sind eine weitere potentielle Anwendung der verbesserten Fähigkeiten der mobilen Einrichtung der vorliegenden Erfindung.
-
6 zeigt eine vorteilhafte Verwendung der mobilen Einrichtung gemäß der vorliegenden Erfindung bei der Ermöglichung einer Küstennavigation. Zur Zeit kann die Küstennavigation in stark befahrenen Bereichen oder Bereichen mit Navigationsgefahren eine schwierige Aufgabe sein. Wenn sich der Benutzer dem Küstenbereich nähert, wird unter Verwendung der mobilen Einrichtung eine zweidimensionale Kartenansicht201 des Küstenbereichs und eine dreidimensionale Ansicht202 der Küste angezeigt. Durch Drehen der mobilen Einrichtung wird die dreidimensionale Ansicht der Küste verändert, wodurch der Benutzer orientiert werden kann. Die virtuelle Ansicht kann ergänzt werden, indem vorgeschlagene Kursänderungen und auch Navigationsgefahren angegeben werden. Diese Anwendung ist besonders zweckmäßig, da die National Maritime Association (NIMA) bereits relativ genaue digitale Höhenmodelldaten und digitale Seekarten bereitstellt. -
7 zeigt eine weitere vorteilhafte Verwendung der mobilen Einrichtung der vorliegenden Erfindung im Kontext der aeronautischen Navigation. Im allgemeinen sind instrumentale Zertifizierungsanforderungen für Flugzeuge minimal, und dennoch kann ein einziger Ausfall eines Instruments katastrophale Auswirkungen haben. Da von der Federal Aviation Administration (FAA) empfohlene Fluginstrumente in der Regel kostspielig sind, kann die mobile Einrichtung der vorliegenden Erfindung als ein relativ kosteneffizientes Reserveinstrument in einem Flugzeug verwendet werden. Wie in6 gezeigt, emulieren die Anzeigebereiche der mobilen Einrichtung die Anzeigen der aeronautischen Instrumente301 ,302 , die die folgenden Informationen liefern können: Lage, Höhe, Kurs, Richtung, wahre Geschwindigkeit über dem Boden, Vertikalgeschwindigkeit usw. Eine solche Simulation ist machbar, da die Trägheits- und/oder GPS-Sensoren der mobilen Einrichtung auf die Bewegung des Flugzeugs reagieren und dadurch die Position und Orientierung des Flugzeugs während seines Flugs schätzen können. Auf diese Weise kann die mobile Einrichtung im Fall einer Fehlfunktion der primären aeronautischen Systeme mit einem Bruchteil der Kosten herkömmlicher Instrumente als ein wertvolles Reservesystem dienen. - In der obigen Beschreibung wurden das Verfahren und das System der vorliegenden Erfindung mit bezug auf eine Anzahl von Beispielen beschrieben, die nicht als Einschränkung betrachtet werden sollen. Stattdessen versteht sich und wird erwartet, daß Varianten der Prinzipien des hier offengelegten Verfahrens und der hier offengelegten Vorrichtung von Fachleuten hergestellt werden können, und es ist beabsichtigt, daß solche Modifikationen, Änderungen und/oder Substitutionen in den Schutzumfang der vorliegenden Erfindung fallen, der in den angefügten Ansprüchen definiert wird.
Claims (35)
- Mobile Einrichtung zur verbesserten Navigation und Orientierung, umfassend: eine Visualisierungsschnittstelle; einen ersten Sensor zur Bereitstellung von Signalen, die eine Bewegung der mobilen Einrichtung anzeigen; einen zweiten Sensor zur Bereitstellung weiterer Signale, die eine Bewegung der mobilen Einrichtung anzeigen; und einen Prozessor, der die Signale aus dem ersten Sensor und dem zweiten Sensor empfängt, wobei der Prozessor eine dreidimensionale Position und eine dreidimensionale Orientierung der mobilen Einrichtung aus den empfangenen Signalen berechnet und auf der Basis der berechneten Position und Orientierung über die Visualisierungsschnittstelle eine Echtzeitsimulation einer Umgebung erzeugt.
- Mobile Einrichtung nach Anspruch 1, wobei der erste Sensor einen Trägheitssensor enthält.
- Mobile Einrichtung nach Anspruch 1, wobei durch manuelle Bewegung der mobilen Einrichtung, die durch den ersten und den zweiten Sensor erfaßt wird, ein Benutzer einen Ansichtspunkt, eine Position und eine Lage in einer zweidimensionalen und/oder einer dreidimensionalen Simulation der Umgebung steuert.
- Mobile Einrichtung nach Anspruch 2, wobei der Trägheitssensor Linearbeschleunigungssensoren enthält, die Beschleunigungen der mobilen Einrichtung entlang der X-, der Y- bzw. der Z-Richtungsachse messen.
- Mobile Einrichtung nach Anspruch 4, wobei der Trägheitssensor weiterhin Drehgeschwindigkeitssensoren enthält, die Drehgeschwindigkeiten der mobilen Einrichtung um die X-, die Y- bzw. die Z-Achse messen.
- Mobile Einrichtung nach Anspruch 3, wobei der zweite Sensor ein GPS-Empfänger ist.
- Mobile Einrichtung nach Anspruch 6, wobei aus dem GPS-Empfänger abgeleitete Navigationsinformationen zur Bestimmung einer Vorspannung des Trägheitssensors verwendet werden.
- Mobile Einrichtung nach Anspruch 2, wobei der Prozessor Signale aus dem Trägheitssensor zur Aktivierung/Deaktivierung von Benutzersteueroperationen verwendet.
- Mobile Einrichtung nach Anspruch 2, weiterhin mit: einem Mittel zum Empfangen von Navigationsinformationen, die eine spezifische Umgebung betreffen.
- Mobile Einrichtung nach Anspruch 9, wobei die Navigationsinformationen Messen, Ausstellungsstücke, Museen, Konferenzen, öffentliche Gebäude und Universitätsgelände betreffen.
- Mobile Einrichtung nach Anspruch 9, wobei die Navigationsinformationen Küstenseebereiche und potentielle Navigationsgefahren betreffen.
- Mobile Einrichtung nach Anspruch 9, wobei die Navigationsinformationen die aeronautische Navigation betreffen.
- Mobile Einrichtung nach Anspruch 12, wobei die Visualisierungsschnittstelle so konfiguriert ist, daß sie simulierte aeronautische Instrumente als Reserve für installierte aeronautische On-Board-Instrumente anzeigt.
- Mobile Einrichtung nach Anspruch 1, wobei der erste und der zweite Sensor GPS-Empfänger enthalten.
- Mobile Einrichtung zur verbesserten Navigation und Orientierung, umfassend: eine Benutzerschnittstelle mit einer visuellen Anzeige; und einen Trägheitssensor, wobei der Trägheitssensor eine Bewegung der mobilen Einrichtung erkennt, wobei der Trägheitssensor Rückmeldungssignale zur Benutzersteuerung und zur Erzeugung eines Bildes in der visuellen Anzeige liefert.
- Mobile Einrichtung nach Anspruch 15, wobei der Trägheitssensor Signale erzeugt, aus denen eine Position und eine Lage der mobilen Einrichtung abgeleitet werden.
- Mobile Einrichtung nach Anspruch 16, weiterhin umfassend: einen Prozessor; und ein Mittel zum Empfangen lokaler Navigationsbildinformationen; wobei der Prozessor aus den durch den Trägheitssensor erzeugten Signalen und aus der Position, Lage und den Informationen aus dem Empfangsmittel eine Position und eine Lage der mobilen Einrichtung berechnet, wobei der Prozessor ein Bild einer lokalen Umgebung erzeugt, wobei das Bild einer Abbildung der von der berechneten Position und Lage der mobilen Einrichtung aus gesehenden lokalen Umgebung darstellt.
- Mobile Einrichtung nach Anspruch 17, weiterhin umfassend: einen GPS-Empfänger; wobei der Prozessor die Position mit Hilfe von aus dem GPS-Empfänger abgeleiteten GPS-Informationen berechnet.
- Mobile Einrichtung nach Anspruch 16, wobei der Trägheitssensor Linearbeschleunigungssensoren zur Erfassung einer Beschleunigung in der X-, der Yund der Z-Richtungsachse und Drehgeschwindigkeitssensoren zur Erfassung der Drehgeschwindigkeit um die X-, die Y- und die Z-Achse enthält.
- Mobile Einrichtung nach Anspruch 17, wobei als Reaktion auf aus dem Trägheitssensor empfangene bestimmte Signale der Prozessor Steuerungen der Benutzerschnittstelle aktiviert oder deaktiviert.
- Mobile Einrichtung zur verbesserten Navigation und Orientierung, umfassend: eine Visualisierungsschnittstelle; und einen Sensor zum Erkennen einer Lage der mobilen Einrichtung und zum Erzeugen entsprechender Signale, wobei die Signale aus dem Sensor als Rückmeldung für die Benutzersteuerung und zur Erzeugung eines Bildes in der Visualisierungsschnittstelle, das bezüglich des Ansichtspunkts der erkannten Lage der mobilen Einrichtung entspricht, verwendet werden.
- Mobile Einrichtung nach Anspruch 21, wobei der Sensor mindestens einen Trägheitssensor enthält, wobei der mindestens eine Trägheitssensor eine Drehgeschwindigkeit der mobilen Einrichtung erkennt.
- Mobile Einrichtung nach Anspruch 22, weiterhin umfassend: einen Positionssensor; ein Mittel zum Empfangen lokaler Navigationsbildinformationen; und einen Prozessor, wobei der Prozessor die von dem Positionssensor bereitgestellten Signale, von dem Sensor zur Erkennung einer Lage der mobilen Einrichtung bereitgestellte Signale und empfangene lokale Navigationsbildinformationen zur Erzeugung einer zweidimensionalen Ansicht und einer dreidimensionalen Simulation einer Umgebung, in der navigiert wird, in Echtzeit verwendet.
- Mobile Einrichtung nach Anspruch 23, weiterhin umfassend: einen an den Prozessor angekoppelten GPS-Empfänger als Hilfe bei der Berechnung einer Position der mobilen Einrichtung.
- Verfahren zum Navigieren unter Verwendung einer mobilen Einrichtung mit einer visuellen Anzeige, mit den folgenden Schritten: Erkennen einer ersten Menge von Signalen, die eine Bewegung der mobilen Einrichtung anzeigen; Erkennen einer zweiten Menge von Signalen, die eine Bewegung der mobilen Einrichtung anzeigen; Bestimmen einer Position der mobilen Einrichtung auf der Basis der ersten Menge von Signalen und/oder der zweiten Menge von Signalen; Bestimmen einer Orientierung der mobilen Einrichtung auf der Basis der ersten Menge von Signalen und/oder der zweiten Menge von Signalen; und Erzeugen einer zweidimensionalen und/oder einer dreidimensionalen Ansicht einer Umgebung auf der Basis der Position und Orientierung der mobilen Einrichtung.
- Verfahren nach Anspruch 25, weiterhin mit dem folgenden Schritt: Steuerung von Benutzerfunktionen der mobilen Einrichtung auf der Basis der ersten Menge von Signalen.
- Verfahren nach Anspruch 25, wobei die erste Menge von Signalen von einem Trägheitssensor erzeugt wird.
- Verfahren nach Anspruch 27, wobei die erste Menge von Signalen eine Linearbeschleunigung der mobilen Einrichtung in der X-, der Y- und der Z-Richtungsachse und eine Drehgeschwindigkeit der mobilen Einrichtung um die X-, die Y- und die Z-Achse darstellt.
- Verfahren nach Anspruch 27, wobei die zweite Menge von Signalen von einem GPS-Empfänger erzeugt wird.
- Verfahren nach Anspruch 29, weiterhin mit dem folgenden Schritt: Kalibrieren einer Position, die aus der ersten Menge von Signalen bestimmt wird, die durch den Trägheitssensor bereitgestellt wird, unter Verwendung von Positionsinformationen, die aus der zweiten Menge von Signalen, die durch den GPS-Empfänger bereitgestellt wird, abgeleitet werden.
- Verfahren nach Anspruch 25, weiterhin mit den folgenden Schritten: Empfangen lokaler Navigationsbildinformationen; und Erzeugen einer zweidimensionalen und/oder einer dreidimensionalen Ansicht der Umgebung auf der Basis der Position und Orientierung der mobilen Einrichtung unter Verwendung der empfangenen lokalen Navigationsbildinformationen.
- Verfahren nach Anspruch 31, weiterhin mit dem folgenden Schritt: Navigieren in einem virtuellen Raum unter Verwendung empfangener lokaler Navigationsbildinformationen, die graphische Details des virtuellen Raums bereitstellen.
- Verfahren nach Anspruch 31, weiterhin mit den folgenden Schritten: Empfangen lokaler Seebildinformationen in einem Küstenbereich; und Erzeugen einer Kartenansicht des Küstenbereichs und einer dreidimensionalen Ansicht der Küste, einschließlich Gefahren, unter Verwendung der empfangenen lokalen Seebildinformationen.
- Verfahren nach Anspruch 25, weiterhin mit dem folgenden Schritt: in einem aeronautischen Transportfahrzeug, Simulieren von On-Board-Navigationsinstrumenten in einer Benutzerschnittstelle unter Verwendung von Daten, die aus der ersten Menge von Signalen und der zweiten Menge von Signalen abgeleitet werden.
- Visuelles Navigationssystem, umfassend: eine Quelle von Navigationsinformationen, wobei die Informationen Karteninformationen und Bildinformationen enthalten, wobei die Quelle weiterhin ein Mittel zum Übertragen der Navigationsinformationen enthält; eine mobile Einrichtung, die folgendes enthält: ein Mittel zum Empfangen von Navigationsinformationen aus der Quelle, einen Trägheitssensor, einen GPS-Empfänger und einen an den Trägheitssensor, den GPS-Empfänger und das Mittel zum Empfangen angekoppelten Prozessor, wobei der Prozessor folgendes enthält: ein Navigationsmodul, wobei das Navigationsmodul eine Position der mobilen Einrichtung unter Verwendung von Daten aus dem Trägheitssensor und dem GPS-Empfänger berechnet und unter Verwendung der empfangenen Karteninformationen und der berechneten Position Kartendaten erzeugt; und ein Benutzerschnittstellengeneratormodul, wobei das Benutzerschnittstellengeneratormodul unter Verwendung von Daten aus dem Trägheitssensor eine Orientierung der mobilen Einrichtung berechnet, unter Verwendung der durch das Navigationsmodul berechneten Position, der berechneten Orientierung und der empfangenen Bildinformationen eine dreidimensionale Simulation erzeugt und Benutzerfunktionen gemäß über den Trägheitssensor empfangener Signale steuert.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US308730 | 2002-12-03 | ||
US10/308,730 US6975959B2 (en) | 2002-12-03 | 2002-12-03 | Orientation and navigation for a mobile device using inertial sensors |
Publications (1)
Publication Number | Publication Date |
---|---|
DE10350108A1 true DE10350108A1 (de) | 2004-06-24 |
Family
ID=32392822
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE10350108A Ceased DE10350108A1 (de) | 2002-12-03 | 2003-10-27 | Benutzerorientierung und Navigation auf INS-Basis |
Country Status (3)
Country | Link |
---|---|
US (1) | US6975959B2 (de) |
JP (1) | JP4439896B2 (de) |
DE (1) | DE10350108A1 (de) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102006006970A1 (de) * | 2006-02-14 | 2007-08-30 | Kmf Management Gmbh | Mobiles Computersystem zur Routenplanung |
WO2009106030A1 (de) * | 2008-02-29 | 2009-09-03 | Navigon Ag | Verfahren zum betrieb einer navigationseinrichtung |
WO2010043255A1 (de) * | 2008-10-15 | 2010-04-22 | Zuerrer Alper | Mobile vorrichtung zur benutzerbezogenen vermittlung von darstellungsdaten und entsprechendes verfahren |
CN103206952A (zh) * | 2012-01-16 | 2013-07-17 | 联想(北京)有限公司 | 定位方法及装置 |
WO2014117771A1 (de) * | 2013-01-29 | 2014-08-07 | Gürsan Acar | Ausstellungsführungssystem und ausstellungsführungsverfahren |
Families Citing this family (168)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8060389B2 (en) | 2000-06-07 | 2011-11-15 | Apple Inc. | System and method for anonymous location based services |
US6456234B1 (en) | 2000-06-07 | 2002-09-24 | William J. Johnson | System and method for proactive content delivery by situation location |
US7466992B1 (en) | 2001-10-18 | 2008-12-16 | Iwao Fujisaki | Communication device |
US7107081B1 (en) | 2001-10-18 | 2006-09-12 | Iwao Fujisaki | Communication device |
US7127271B1 (en) | 2001-10-18 | 2006-10-24 | Iwao Fujisaki | Communication device |
US8229512B1 (en) | 2003-02-08 | 2012-07-24 | Iwao Fujisaki | Communication device |
US8241128B1 (en) | 2003-04-03 | 2012-08-14 | Iwao Fujisaki | Communication device |
US20040259591A1 (en) * | 2003-06-17 | 2004-12-23 | Motorola, Inc. | Gesture-based interface and method for wireless device |
US9360990B1 (en) * | 2003-09-09 | 2016-06-07 | James A. Roskind | Location-based applications |
US7330112B1 (en) | 2003-09-09 | 2008-02-12 | Emigh Aaron T | Location-aware services |
US8090402B1 (en) | 2003-09-26 | 2012-01-03 | Iwao Fujisaki | Communication device |
US7917167B1 (en) | 2003-11-22 | 2011-03-29 | Iwao Fujisaki | Communication device |
US7663606B2 (en) * | 2004-03-19 | 2010-02-16 | Igt | Apparatus and method for configuring a touch screen |
US7855717B2 (en) * | 2004-03-19 | 2010-12-21 | Igt | Touch screen apparatus and method |
US8041348B1 (en) | 2004-03-23 | 2011-10-18 | Iwao Fujisaki | Communication device |
CA2559726C (en) | 2004-03-24 | 2015-10-20 | A9.Com, Inc. | System and method for displaying images in an online directory |
JP2005283428A (ja) * | 2004-03-30 | 2005-10-13 | Denso Corp | 力学量センサ装置 |
JP2007535773A (ja) | 2004-04-30 | 2007-12-06 | ヒルクレスト・ラボラトリーズ・インコーポレイテッド | 自由空間ポインティングデバイスおよびポインティング方法 |
US8629836B2 (en) | 2004-04-30 | 2014-01-14 | Hillcrest Laboratories, Inc. | 3D pointing devices with orientation compensation and improved usability |
US8453065B2 (en) | 2004-06-25 | 2013-05-28 | Apple Inc. | Preview and installation of user interface elements in a display environment |
US20060082543A1 (en) * | 2004-10-14 | 2006-04-20 | Van Lydegraf Curt N | Sensing dynamics associated with a device |
US7706977B2 (en) * | 2004-10-26 | 2010-04-27 | Honeywell International Inc. | Personal navigation device for use with portable device |
KR100668311B1 (ko) * | 2004-11-02 | 2007-01-12 | 삼성전자주식회사 | 이동 통신 단말기를 이용한 정보 처리 장치 및 방법 |
US8137195B2 (en) | 2004-11-23 | 2012-03-20 | Hillcrest Laboratories, Inc. | Semantic gaming and application transformation |
JP5127128B2 (ja) * | 2004-12-21 | 2013-01-23 | 韓國電子通信研究院 | カメラの位置及び姿勢情報補正方法及びその装置 |
US9182480B2 (en) * | 2005-01-28 | 2015-11-10 | Hewlett-Packard Development Company, L.P. | Information technology (IT) equipment positioning system |
WO2006094130A2 (en) * | 2005-03-02 | 2006-09-08 | Edward Edwards | Interactive educational device |
US7353034B2 (en) | 2005-04-04 | 2008-04-01 | X One, Inc. | Location sharing and tracking using mobile phones or other wireless devices |
US8208954B1 (en) | 2005-04-08 | 2012-06-26 | Iwao Fujisaki | Communication device |
FR2886501A1 (fr) * | 2005-05-31 | 2006-12-01 | France Telecom | Procede et dispositif de localisattion d'un terminal dans un reseau local sans fil |
FR2888643B1 (fr) * | 2005-07-18 | 2009-09-25 | Airbus France Sas | Procede et dispositif pour determiner la position au sol d'un mobile, particulier d'un avion sur un aeroport |
EP1788357A1 (de) * | 2005-11-16 | 2007-05-23 | Alcatel Lucent | System zur Lokalisierung von Fußgängerbenutzern |
US20070266177A1 (en) * | 2006-03-08 | 2007-11-15 | David Vismans | Communication device with indirect command distribution |
US9390229B1 (en) | 2006-04-26 | 2016-07-12 | Dp Technologies, Inc. | Method and apparatus for a health phone |
US20070282565A1 (en) * | 2006-06-06 | 2007-12-06 | Honeywell International Inc. | Object locating in restricted environments using personal navigation |
US7647195B1 (en) * | 2006-07-11 | 2010-01-12 | Dp Technologies, Inc. | Method and apparatus for a virtual accelerometer system |
US8902154B1 (en) | 2006-07-11 | 2014-12-02 | Dp Technologies, Inc. | Method and apparatus for utilizing motion user interface |
US8493323B2 (en) | 2006-08-02 | 2013-07-23 | Research In Motion Limited | System and method for adjusting presentation of moving images on an electronic device according to an orientation of the device |
US8139026B2 (en) * | 2006-08-02 | 2012-03-20 | Research In Motion Limited | System and method for adjusting presentation of text and images on an electronic device according to an orientation of the device |
TWI346494B (en) * | 2006-09-08 | 2011-08-01 | High Tech Comp Corp | Page movement controller and operating method thereof |
US7581188B2 (en) * | 2006-09-27 | 2009-08-25 | Hewlett-Packard Development Company, L.P. | Context-based user interface system |
US20080092083A1 (en) * | 2006-10-12 | 2008-04-17 | David Dutton | Personal viewing device |
US7941271B2 (en) * | 2006-11-21 | 2011-05-10 | Microsoft Corporation | Displaying images related to a requested path |
US7457719B1 (en) | 2006-11-21 | 2008-11-25 | Fullpower Technologies, Inc. | Rotational insensitivity using gravity-based adjustment |
US7653508B1 (en) | 2006-12-22 | 2010-01-26 | Dp Technologies, Inc. | Human activity monitoring device |
US8620353B1 (en) | 2007-01-26 | 2013-12-31 | Dp Technologies, Inc. | Automatic sharing and publication of multimedia from a mobile device |
US20080183385A1 (en) * | 2007-01-30 | 2008-07-31 | Horn Kyle R | System for the delivery of location-specific audio tours |
US8949070B1 (en) | 2007-02-08 | 2015-02-03 | Dp Technologies, Inc. | Human activity monitoring device with activity identification |
US7753861B1 (en) | 2007-04-04 | 2010-07-13 | Dp Technologies, Inc. | Chest strap having human activity monitoring device |
US8559983B1 (en) | 2007-05-03 | 2013-10-15 | Iwao Fujisaki | Communication device |
US7890089B1 (en) | 2007-05-03 | 2011-02-15 | Iwao Fujisaki | Communication device |
US20080280641A1 (en) * | 2007-05-11 | 2008-11-13 | Sony Ericsson Mobile Communications Ab | Methods and devices for generating multimedia content in response to simultaneous inputs from related portable devices |
US20100198509A1 (en) * | 2007-06-07 | 2010-08-05 | Qualcomm Incorporated | 3d maps rendering device and method |
US8311526B2 (en) | 2007-06-28 | 2012-11-13 | Apple Inc. | Location-based categorical information services |
US9066199B2 (en) | 2007-06-28 | 2015-06-23 | Apple Inc. | Location-aware mobile device |
US8762056B2 (en) | 2007-06-28 | 2014-06-24 | Apple Inc. | Route reference |
US8180379B2 (en) | 2007-06-28 | 2012-05-15 | Apple Inc. | Synchronizing mobile and vehicle devices |
US8463238B2 (en) | 2007-06-28 | 2013-06-11 | Apple Inc. | Mobile device base station |
US8385946B2 (en) | 2007-06-28 | 2013-02-26 | Apple Inc. | Disfavored route progressions or locations |
US9109904B2 (en) | 2007-06-28 | 2015-08-18 | Apple Inc. | Integration of map services and user applications in a mobile device |
US8332402B2 (en) | 2007-06-28 | 2012-12-11 | Apple Inc. | Location based media items |
US8774825B2 (en) | 2007-06-28 | 2014-07-08 | Apple Inc. | Integration of map services with user applications in a mobile device |
US8108144B2 (en) | 2007-06-28 | 2012-01-31 | Apple Inc. | Location based tracking |
US8290513B2 (en) | 2007-06-28 | 2012-10-16 | Apple Inc. | Location-based services |
US8275352B2 (en) | 2007-06-28 | 2012-09-25 | Apple Inc. | Location-based emergency information |
US8204684B2 (en) | 2007-06-28 | 2012-06-19 | Apple Inc. | Adaptive mobile device navigation |
US8555282B1 (en) | 2007-07-27 | 2013-10-08 | Dp Technologies, Inc. | Optimizing preemptive operating system with motion sensing |
US7797132B1 (en) | 2007-08-24 | 2010-09-14 | Nextel Communications Inc. | Benchmarking and testing GPS performance on communication devices |
US8676273B1 (en) | 2007-08-24 | 2014-03-18 | Iwao Fujisaki | Communication device |
US8127246B2 (en) | 2007-10-01 | 2012-02-28 | Apple Inc. | Varying user interface element based on movement |
US8977294B2 (en) | 2007-10-10 | 2015-03-10 | Apple Inc. | Securely locating a device |
US8639214B1 (en) | 2007-10-26 | 2014-01-28 | Iwao Fujisaki | Communication device |
US8472935B1 (en) | 2007-10-29 | 2013-06-25 | Iwao Fujisaki | Communication device |
US20090153490A1 (en) * | 2007-12-12 | 2009-06-18 | Nokia Corporation | Signal adaptation in response to orientation or movement of a mobile electronic device |
US8744720B1 (en) | 2007-12-27 | 2014-06-03 | Iwao Fujisaki | Inter-vehicle middle point maintaining implementer |
US8355862B2 (en) | 2008-01-06 | 2013-01-15 | Apple Inc. | Graphical user interface for presenting location information |
US8452529B2 (en) | 2008-01-10 | 2013-05-28 | Apple Inc. | Adaptive navigation system for estimating travel times |
US8239132B2 (en) * | 2008-01-22 | 2012-08-07 | Maran Ma | Systems, apparatus and methods for delivery of location-oriented information |
US8231465B2 (en) * | 2008-02-21 | 2012-07-31 | Palo Alto Research Center Incorporated | Location-aware mixed-reality gaming platform |
TWI374257B (en) * | 2008-04-29 | 2012-10-11 | Ind Tech Res Inst | Method for modifying navigation information and navigation apparatus using the same |
US8320578B2 (en) | 2008-04-30 | 2012-11-27 | Dp Technologies, Inc. | Headset |
US8543157B1 (en) | 2008-05-09 | 2013-09-24 | Iwao Fujisaki | Communication device which notifies its pin-point location or geographic area in accordance with user selection |
US9250092B2 (en) | 2008-05-12 | 2016-02-02 | Apple Inc. | Map service with network-based query for search |
US8644843B2 (en) | 2008-05-16 | 2014-02-04 | Apple Inc. | Location determination |
US8285344B2 (en) | 2008-05-21 | 2012-10-09 | DP Technlogies, Inc. | Method and apparatus for adjusting audio for a user environment |
EP2318897B1 (de) * | 2008-05-28 | 2018-05-16 | Google LLC | Bewegungsgesteuerte ansichten auf mobilen datenverarbeitungsgeräten |
US8678925B1 (en) | 2008-06-11 | 2014-03-25 | Dp Technologies, Inc. | Method and apparatus to provide a dice application |
US8700301B2 (en) | 2008-06-19 | 2014-04-15 | Microsoft Corporation | Mobile computing devices, architecture and user interfaces based on dynamic direction information |
US20090315766A1 (en) | 2008-06-19 | 2009-12-24 | Microsoft Corporation | Source switching for devices supporting dynamic direction information |
US20090319166A1 (en) * | 2008-06-20 | 2009-12-24 | Microsoft Corporation | Mobile computing services based on devices with dynamic direction information |
US20090315775A1 (en) * | 2008-06-20 | 2009-12-24 | Microsoft Corporation | Mobile computing services based on devices with dynamic direction information |
US20100009662A1 (en) | 2008-06-20 | 2010-01-14 | Microsoft Corporation | Delaying interaction with points of interest discovered based on directional device information |
US8996332B2 (en) | 2008-06-24 | 2015-03-31 | Dp Technologies, Inc. | Program setting adjustments based on activity identification |
US8340726B1 (en) | 2008-06-30 | 2012-12-25 | Iwao Fujisaki | Communication device |
US8369867B2 (en) | 2008-06-30 | 2013-02-05 | Apple Inc. | Location sharing |
US8452307B1 (en) | 2008-07-02 | 2013-05-28 | Iwao Fujisaki | Communication device |
US8847992B2 (en) * | 2008-08-22 | 2014-09-30 | Google Inc. | Navigation in a three dimensional environment using an orientation of a mobile device |
US8187182B2 (en) | 2008-08-29 | 2012-05-29 | Dp Technologies, Inc. | Sensor fusion for activity identification |
US8359643B2 (en) | 2008-09-18 | 2013-01-22 | Apple Inc. | Group formation using anonymous broadcast information |
US8682606B2 (en) * | 2008-10-07 | 2014-03-25 | Qualcomm Incorporated | Generating virtual buttons using motion sensors |
US8872646B2 (en) | 2008-10-08 | 2014-10-28 | Dp Technologies, Inc. | Method and system for waking up a device due to motion |
US8351910B2 (en) * | 2008-12-02 | 2013-01-08 | Qualcomm Incorporated | Method and apparatus for determining a user input from inertial sensors |
US20100156907A1 (en) * | 2008-12-23 | 2010-06-24 | Microsoft Corporation | Display surface tracking |
US8406961B2 (en) * | 2009-04-16 | 2013-03-26 | Panasonic Corporation | Reconfigurable vehicle user interface system |
US8666367B2 (en) | 2009-05-01 | 2014-03-04 | Apple Inc. | Remotely locating and commanding a mobile device |
US8670748B2 (en) | 2009-05-01 | 2014-03-11 | Apple Inc. | Remotely locating and commanding a mobile device |
US8660530B2 (en) | 2009-05-01 | 2014-02-25 | Apple Inc. | Remotely receiving and communicating commands to a mobile device for execution by the mobile device |
US9529437B2 (en) | 2009-05-26 | 2016-12-27 | Dp Technologies, Inc. | Method and apparatus for a motion state aware device |
US20100318257A1 (en) * | 2009-06-15 | 2010-12-16 | Deep Kalinadhabhotla | Method and system for automatically calibrating a three-axis accelerometer device |
US8872767B2 (en) | 2009-07-07 | 2014-10-28 | Microsoft Corporation | System and method for converting gestures into digital graffiti |
KR101648339B1 (ko) * | 2009-09-24 | 2016-08-17 | 삼성전자주식회사 | 휴대용 단말기에서 영상인식 및 센서를 이용한 서비스 제공 방법 및 장치 |
US20110115671A1 (en) * | 2009-11-17 | 2011-05-19 | Qualcomm Incorporated | Determination of elevation of mobile station |
US8319687B2 (en) * | 2009-12-09 | 2012-11-27 | Trimble Navigation Limited | System for determining position in a work space |
US9068844B2 (en) | 2010-01-08 | 2015-06-30 | Dp Technologies, Inc. | Method and apparatus for an integrated personal navigation system |
US8872889B2 (en) | 2010-01-14 | 2014-10-28 | Innovmetric Logiciels Inc. | Synchronization of the orientation of a 3D measurement device and the orientation of an intelligent guidance device |
US8436872B2 (en) | 2010-02-03 | 2013-05-07 | Oculus Info Inc. | System and method for creating and displaying map projections related to real-time images |
US8803660B2 (en) | 2010-04-06 | 2014-08-12 | Ebay Inc. | Handheld device for on-site datacenter management |
US10261408B2 (en) * | 2010-07-18 | 2019-04-16 | Spatial Cam Llc | Mobile and portable camera platform for tracking an object |
US11175375B2 (en) | 2010-11-12 | 2021-11-16 | Position Imaging, Inc. | Position tracking system and method using radio signals and inertial sensing |
US8700202B2 (en) | 2010-11-30 | 2014-04-15 | Trimble Navigation Limited | System for positioning a tool in a work space |
TW201227634A (en) * | 2010-12-29 | 2012-07-01 | Hon Hai Prec Ind Co Ltd | Electronic device and exhibition guide method using the electronic device |
WO2012093365A1 (en) * | 2011-01-04 | 2012-07-12 | Seenow Ltd | System for fusing geographic and locally acquired data for providing real world interoperability |
US8457654B1 (en) | 2011-03-31 | 2013-06-04 | Google Inc. | Directional feedback |
FR2978567B1 (fr) | 2011-07-29 | 2014-06-13 | Time2Ego | Procede de gestion d'une operation de sortie de veille d'une montre a affichage numerique |
US9374659B1 (en) | 2011-09-13 | 2016-06-21 | Dp Technologies, Inc. | Method and apparatus to utilize location data to enhance safety |
US9945940B2 (en) | 2011-11-10 | 2018-04-17 | Position Imaging, Inc. | Systems and methods of wireless position tracking |
GB2499776A (en) * | 2011-11-17 | 2013-09-04 | Thermoteknix Systems Ltd | Projecting secondary information into an optical system |
CN102589549B (zh) * | 2011-12-22 | 2017-09-29 | 中国人民解放军海军航空工程学院 | 地球坐标系空间中三站测向交叉定位跟踪算法 |
US8886449B2 (en) | 2012-01-13 | 2014-11-11 | Qualcomm Incorporated | Calibrated hardware sensors for estimating real-world distances |
US20130214970A1 (en) * | 2012-02-21 | 2013-08-22 | Robert Paul Stachow | Apparatus and method for enhancing wireless mesh network communications |
US10217130B1 (en) | 2012-11-27 | 2019-02-26 | Square, Inc. | Event information determination |
US10041798B2 (en) | 2012-12-06 | 2018-08-07 | Qualcomm Incorporated | Determination of position, velocity and/or heading by simultaneous use of on-device and on-vehicle information |
US20140168264A1 (en) | 2012-12-19 | 2014-06-19 | Lockheed Martin Corporation | System, method and computer program product for real-time alignment of an augmented reality device |
CN104937377B (zh) | 2013-01-17 | 2018-11-09 | 可信定位股份有限公司 | 用于处理无约束的便携式导航装置的垂直取向的方法和设备 |
US10856108B2 (en) | 2013-01-18 | 2020-12-01 | Position Imaging, Inc. | System and method of locating a radio frequency (RF) tracking device using a calibration routine |
US9250083B2 (en) | 2013-03-22 | 2016-02-02 | Qualcomm Incorporated | Heading, velocity, and position estimation with vehicle sensors, mobile device, and GNSS inputs |
JP5933824B2 (ja) * | 2013-04-16 | 2016-06-15 | 本田技研工業株式会社 | 車両用電子装置 |
EP2816522A1 (de) * | 2013-06-17 | 2014-12-24 | Spreadtrum Communications (Shanghai) Co., Ltd. | Anzeigeverfahren in Kombination mit der dreidimensionalen Einkaufsplattform und der geographischen Positionierungsvorrichtung |
CN104422948A (zh) * | 2013-09-11 | 2015-03-18 | 南京理工大学 | 一种嵌入式组合导航系统及其方法 |
US10634761B2 (en) | 2013-12-13 | 2020-04-28 | Position Imaging, Inc. | Tracking system with mobile reader |
US9497728B2 (en) | 2014-01-17 | 2016-11-15 | Position Imaging, Inc. | Wireless relay station for radio frequency-based tracking system |
US10200819B2 (en) | 2014-02-06 | 2019-02-05 | Position Imaging, Inc. | Virtual reality and augmented reality functionality for mobile devices |
US9439043B2 (en) * | 2014-05-16 | 2016-09-06 | Google Inc. | Running location provider processes |
US10943395B1 (en) | 2014-10-03 | 2021-03-09 | Virtex Apps, Llc | Dynamic integration of a virtual environment with a physical environment |
US11132004B2 (en) | 2015-02-13 | 2021-09-28 | Position Imaging, Inc. | Spatial diveristy for relative position tracking |
US10642560B2 (en) * | 2015-02-13 | 2020-05-05 | Position Imaging, Inc. | Accurate geographic tracking of mobile devices |
US10853757B1 (en) | 2015-04-06 | 2020-12-01 | Position Imaging, Inc. | Video for real-time confirmation in package tracking systems |
US10148918B1 (en) | 2015-04-06 | 2018-12-04 | Position Imaging, Inc. | Modular shelving systems for package tracking |
US11501244B1 (en) | 2015-04-06 | 2022-11-15 | Position Imaging, Inc. | Package tracking systems and methods |
US11416805B1 (en) | 2015-04-06 | 2022-08-16 | Position Imaging, Inc. | Light-based guidance for package tracking systems |
US10010129B2 (en) | 2015-05-28 | 2018-07-03 | Nike, Inc. | Lockout feature for a control device |
CN105160942A (zh) * | 2015-08-17 | 2015-12-16 | 武汉理工大学 | 面向船舶可视导航的通航环境可视化表示方法 |
US10088318B2 (en) * | 2015-08-27 | 2018-10-02 | Qualcomm Incorporated | Cradle rotation insensitive inertial navigation |
CN105928511B (zh) * | 2016-04-18 | 2018-11-23 | 哈尔滨工业大学 | 一种基于双磁信标的定位定向方法 |
US11436553B2 (en) | 2016-09-08 | 2022-09-06 | Position Imaging, Inc. | System and method of object tracking using weight confirmation |
US10673917B2 (en) | 2016-11-28 | 2020-06-02 | Microsoft Technology Licensing, Llc | Pluggable components for augmenting device streams |
US10634503B2 (en) | 2016-12-12 | 2020-04-28 | Position Imaging, Inc. | System and method of personalized navigation inside a business enterprise |
US10634506B2 (en) | 2016-12-12 | 2020-04-28 | Position Imaging, Inc. | System and method of personalized navigation inside a business enterprise |
US11120392B2 (en) | 2017-01-06 | 2021-09-14 | Position Imaging, Inc. | System and method of calibrating a directional light source relative to a camera's field of view |
CN106908060A (zh) * | 2017-02-15 | 2017-06-30 | 东南大学 | 一种基于mems惯性传感器的高精度室内定位方法 |
US9924313B1 (en) * | 2017-02-23 | 2018-03-20 | International Business Machines Corporation | Location based generation of pertinent information |
CN106840154B (zh) * | 2017-03-21 | 2023-07-07 | 江苏星月测绘科技股份有限公司 | 地下空间惯性测量与无线传感器组合定位系统与方法 |
GB2564406B (en) * | 2017-07-06 | 2022-09-07 | Focal Point Positioning Ltd | Method and system for correcting the frequency or phase of a local signal generated using a local oscillator |
US10462608B1 (en) | 2017-07-31 | 2019-10-29 | Agero, Inc. | Estimating orientation of a mobile device with respect to a vehicle using global displacement information and local motion information |
KR102009031B1 (ko) * | 2018-09-07 | 2019-08-08 | 네이버랩스 주식회사 | 증강현실을 이용한 실내 내비게이션을 위한 방법 및 시스템 |
MX2021003341A (es) | 2018-09-21 | 2021-08-16 | Position Imaging Inc | Sistema y metodo de identificacion de objetos automejorada asistida con aprendizaje automatico. |
WO2020146861A1 (en) | 2019-01-11 | 2020-07-16 | Position Imaging, Inc. | Computer-vision-based object tracking and guidance module |
WO2020226071A1 (ja) * | 2019-05-08 | 2020-11-12 | 日立オートモティブシステムズ株式会社 | 車両位置検出装置、及び、車両位置検出用パラメータセット作成装置 |
Family Cites Families (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5166789A (en) * | 1989-08-25 | 1992-11-24 | Space Island Products & Services, Inc. | Geographical surveying using cameras in combination with flight computers to obtain images with overlaid geographical coordinates |
JPH04250436A (ja) * | 1991-01-11 | 1992-09-07 | Pioneer Electron Corp | 撮像装置 |
US5388990A (en) * | 1993-04-23 | 1995-02-14 | The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration | Virtual reality flight control display with six-degree-of-freedom controller and spherical orientation overlay |
GB2278196A (en) * | 1993-05-18 | 1994-11-23 | William Michael Frederi Taylor | Information system using GPS |
US5764786A (en) * | 1993-06-10 | 1998-06-09 | Kuwashima; Shigesumi | Moving object measurement device employing a three-dimensional analysis to obtain characteristics of the moving object |
US5615132A (en) * | 1994-01-21 | 1997-03-25 | Crossbow Technology, Inc. | Method and apparatus for determining position and orientation of a moveable object using accelerometers |
US5566073A (en) * | 1994-07-11 | 1996-10-15 | Margolin; Jed | Pilot aid using a synthetic environment |
US5878356A (en) * | 1995-06-14 | 1999-03-02 | Agrometrics, Inc. | Aircraft based infrared mapping system for earth based resources |
US5894323A (en) * | 1996-03-22 | 1999-04-13 | Tasc, Inc, | Airborne imaging system using global positioning system (GPS) and inertial measurement unit (IMU) data |
US6199015B1 (en) * | 1996-10-10 | 2001-03-06 | Ames Maps, L.L.C. | Map-based navigation system with overlays |
US6154723A (en) * | 1996-12-06 | 2000-11-28 | The Board Of Trustees Of The University Of Illinois | Virtual reality 3D interface system for data creation, viewing and editing |
US6308134B1 (en) * | 1996-12-27 | 2001-10-23 | Magellan Dis, Inc. | Vehicle navigation system and method using multiple axes accelerometer |
US5936553A (en) * | 1997-02-28 | 1999-08-10 | Garmin Corporation | Navigation device and method for displaying navigation information in a visual perspective view |
US6061068A (en) * | 1998-06-30 | 2000-05-09 | Raytheon Company | Method and apparatus for providing synthetic vision using reality updated virtual image |
US6252544B1 (en) * | 1998-01-27 | 2001-06-26 | Steven M. Hoffberg | Mobile communication device |
AUPP299498A0 (en) * | 1998-04-15 | 1998-05-07 | Commonwealth Scientific And Industrial Research Organisation | Method of tracking and sensing position of objects |
US6130705A (en) * | 1998-07-10 | 2000-10-10 | Recon/Optical, Inc. | Autonomous electro-optical framing camera system with constant ground resolution, unmanned airborne vehicle therefor, and methods of use |
FR2783778B1 (fr) * | 1998-09-30 | 2001-02-16 | De Villeroche Gerard Jodon | Accessoire pour vehicule automobile comprenant un ecran d'affichage d'informations pour le conducteur |
DE19859078A1 (de) * | 1998-12-21 | 2000-06-29 | Bosch Gmbh Robert | Verfahren zur Leitung eines Führers eines Fahrzeugs von mindestens einem Start-zu mindestens einem Zielpunkt |
US6337688B1 (en) * | 1999-01-29 | 2002-01-08 | International Business Machines Corporation | Method and system for constructing a virtual reality environment from spatially related recorded images |
US6529827B1 (en) * | 1999-11-01 | 2003-03-04 | Garmin Corporation | GPS device with compass and altimeter and method for displaying navigation information |
JP2002098538A (ja) * | 2000-09-27 | 2002-04-05 | Alpine Electronics Inc | ナビゲーション装置および擬似三次元地図情報表示方法 |
US6665611B1 (en) * | 2001-06-19 | 2003-12-16 | Cisco Technology, Inc. | System for discovering and maintaining geographic location information in a computer network to enable emergency services |
GB2380793B (en) * | 2001-10-10 | 2005-03-09 | Roke Manor Research | Positioning system |
-
2002
- 2002-12-03 US US10/308,730 patent/US6975959B2/en not_active Expired - Lifetime
-
2003
- 2003-10-27 DE DE10350108A patent/DE10350108A1/de not_active Ceased
- 2003-12-03 JP JP2003404970A patent/JP4439896B2/ja not_active Expired - Lifetime
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102006006970A1 (de) * | 2006-02-14 | 2007-08-30 | Kmf Management Gmbh | Mobiles Computersystem zur Routenplanung |
WO2009106030A1 (de) * | 2008-02-29 | 2009-09-03 | Navigon Ag | Verfahren zum betrieb einer navigationseinrichtung |
WO2010043255A1 (de) * | 2008-10-15 | 2010-04-22 | Zuerrer Alper | Mobile vorrichtung zur benutzerbezogenen vermittlung von darstellungsdaten und entsprechendes verfahren |
CN103206952A (zh) * | 2012-01-16 | 2013-07-17 | 联想(北京)有限公司 | 定位方法及装置 |
WO2014117771A1 (de) * | 2013-01-29 | 2014-08-07 | Gürsan Acar | Ausstellungsführungssystem und ausstellungsführungsverfahren |
Also Published As
Publication number | Publication date |
---|---|
JP2004184418A (ja) | 2004-07-02 |
JP4439896B2 (ja) | 2010-03-24 |
US20040107072A1 (en) | 2004-06-03 |
US6975959B2 (en) | 2005-12-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE10350108A1 (de) | Benutzerorientierung und Navigation auf INS-Basis | |
Wickens | Frames of reference for navigation | |
US7215256B2 (en) | Method and apparatus for displaying attitude, heading, and terrain data | |
Mohammed et al. | Positional accuracy testing of Google Earth | |
US8484576B2 (en) | System and method for customizing multiple windows of information on a display | |
DE60029034T2 (de) | Flugverwaltungssystem | |
US20160171650A1 (en) | Methods and systems for displaying a vertical profile for an aircraft procedure with nonuniform scaling | |
DE102011119762A1 (de) | System und Verfahren zur Positionsbestimmung eines Kraftfahrzeugs | |
US5179385A (en) | Visual navigation aid with point of interest feature | |
CN110274588A (zh) | 基于无人机集群信息的双层嵌套因子图多源融合导航方法 | |
US7961116B2 (en) | Apparatus and method of displaying an aircraft's position | |
US7432828B2 (en) | Dynamic lateral deviation display | |
EP2769373A1 (de) | Übernahme von daten aus bilddatenbasierenden kartendiensten in ein assistenzsystem | |
US20100082186A1 (en) | Methods and systems for indicating whether an aircraft is below a minimum altitude criterion for a sector | |
CN110108318B (zh) | 一种水体环境的自动检测系统 | |
EP2204639A1 (de) | Systeme und Verfahren zur Verbesserung des Geländeanhebungsbewusstseins | |
DE69815940T2 (de) | Verfahren und Anordnung zur Informationsdarstellung in Form einer Landkarte für Fahrzeugsnavigationsgeräte | |
US6308132B1 (en) | Method and apparatus for displaying real time navigational information | |
CN101989177A (zh) | 用于选择要显示的图像的显示器和方法 | |
US6111525A (en) | Indicator for monitoring the path of an aircraft in a horizontal plane | |
AT502228A1 (de) | Tragbare navigationsvorrichtung und verfahren zum funknavigieren | |
DE102019216548A1 (de) | Verfahren und mobile Erfassungsvorrichtung zur Erfassung von Infrastrukturelementen eines unterirdischen Leitungsnetzwerks | |
US10473484B1 (en) | System and method for mapping aircraft position on a non-linear flight procedure chart | |
Boyer et al. | 3-D weather displays for aircraft cockpits | |
US20150073628A1 (en) | Helicopter system and method for integrating collective flight director cues |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8110 | Request for examination paragraph 44 | ||
R002 | Refusal decision in examination/registration proceedings | ||
R003 | Refusal decision now final |