DE69012278T2 - Navigationssysteme. - Google Patents

Navigationssysteme.

Info

Publication number
DE69012278T2
DE69012278T2 DE69012278T DE69012278T DE69012278T2 DE 69012278 T2 DE69012278 T2 DE 69012278T2 DE 69012278 T DE69012278 T DE 69012278T DE 69012278 T DE69012278 T DE 69012278T DE 69012278 T2 DE69012278 T2 DE 69012278T2
Authority
DE
Germany
Prior art keywords
aircraft
output signal
vehicle
navigation system
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE69012278T
Other languages
English (en)
Other versions
DE69012278D1 (de
Inventor
Roger Sean Fitzpatrick
Keith Charles Rawlings
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Smiths Group PLC
Original Assignee
Smiths Group PLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Smiths Group PLC filed Critical Smiths Group PLC
Publication of DE69012278D1 publication Critical patent/DE69012278D1/de
Application granted granted Critical
Publication of DE69012278T2 publication Critical patent/DE69012278T2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B9/00Simulators for teaching or training purposes
    • G09B9/02Simulators for teaching or training purposes for teaching control of vehicles or other craft
    • G09B9/08Simulators for teaching or training purposes for teaching control of vehicles or other craft for teaching control of aircraft, e.g. Link trainer
    • G09B9/24Simulators for teaching or training purposes for teaching control of vehicles or other craft for teaching control of aircraft, e.g. Link trainer including display or recording of simulated flight path
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/005Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Educational Technology (AREA)
  • Educational Administration (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Navigation (AREA)
  • Position Fixing By Use Of Radio Waves (AREA)
  • Traffic Control Systems (AREA)

Description

  • Die Erfindung bezieht sich auf Fahrzeugnavigationssysteme mit einem passiven Bildsensor zur Beobachtung der Umgebung des Fahrzeugs, zur Identifizierung von Merkmalen im Sichtfeld und zur Erzeugung eines entsprechenden Ausgangssignals und mit einer Eingabeeinheit zur Eingabe von Information über die anfängliche Position des Fahrzeugs.
  • Bei vielen Fahrzeugen ist eine möglichst genaue Angabe der momentanen Position entsprechend der Darstellung auf einer Karte erwünscht. Bei vielen Systemen, insbesondere bei Flugzeugen, ist es darüberhinaus erwünscht, möglichst viele, wenn nicht alle Werte orthogonaler Bewegung und Orientierung zu messen.
  • Vorzugsweise wird die momentane Position und Orientierung ohne Zusammenarbeit mit kooperierenden äußeren Stellen wie beispielsweise Funkfeuern gemessen und bestimmt. Durch die Unabhängigkeit von solchen äußeren Stellen entfällt das Risiko einer Leistungsverschlechterung bei zufälliger Störung oder bei Ausfall dieser äußeren Dienste.
  • Vorzugsweise arbeitet die von einem derartigen Fahrzeugnavigations- und Orientierungssystem verwendete Meßvorrichtung passiv, weil hierbei keine Signale emmitiert werden, welche außerhalb des Fahrzeugs detektierbar wären. Hierdurch kann eine Vielzahl derartiger Systeme in unmittelbarer Nachbarschaft zueinander arbeiten, ohne daß sich Interferenzstörungen oder zahlenmäßige Begrenzungen ergeben. Im militärischen Einsatz können derartige Systeme auch ohne ein Detektionsrisiko betrieben werden.
  • Bei bemannten Fahrzeugen ist es üblich, Landkarten mitzuführen mit deren Hilfe die Besatzung durch Beobachtung des Umfelds die momentane Position feststellen kann. Sowohl bei bemannten als auch bei unbemannten Fahrzeugen ist es darüberhinaus bekannt, Trägheitsnavigationssysteme mitzuführen, bei denen die momentane Position mathematisch aus der Akkumulation sämtlicher Beschleunigungen berechnet werden kann seit einer letzten Position, welche durch eine andere Navigationsmethode bekannt ist. Derartige Trägheitsnavigationssysteme summieren im Laufe der Zeit jedoch die auftretenden Fehler bis zur Unbestimmbarkeit der Position.
  • Die Trägheitsbezugselemente derartiger Systeme können auch ein Maß für die momentane Orientierung des Fahrzeugs geben, indem ein Vergleich mit einer bekannten Bezugsgröße stattfindet, welche beispielsweise ein Pendel für die vertikale Orientierung und ein magnetischer Kompaß für die Richtung sein kann.
  • Manche Fahrzeuge führen außerdem stellare Navigationssysteme mit sich, welche wiederholt die Positionen von Sternen bestimmen und deren relative Positionen mit einem Atlas vergleichen, wodurch die Orientierung des Fahrzeugs im Raum errechnet werden kann. Eine Messung der momentanen lokalen Erdvertikalen in der stellaren Kugel, kombiniert mit Information über die Erdwinkelgeschwindigkeit innerhalb der Sternkugel ermöglicht dann die Identifizierung der Position der lokalen Vertikalen auf einer Karte mit einer Genauigkeit, welche von der verwendeten Meßvorrichtung abhängt. Derartige Systeme haben den Nachteil, daß sie nur dann brauchbar sind, wenn das Sternenlicht nicht verdunkelt ist und können daher, wenn man darauf angewiesen ist, nur bei sehr hochfliegenden Flugzeugen und Raketen eingesetzt werden.
  • Bei Flugzeugen ist es auch bekannt, aktive Suchgeräte zu verwenden, beispielsweise Radargeräte, um Daten über den überflogenen Grund zu sammeln und diese Daten automatisch mit den vorher abgespeicherten Bodenkarten der Bodenoberfläche zu vergleichen und sodann die bestmögliche mathematische Korrelation vorzunehmen, was eine Aussage über die wahrscheinlichste momentane Position ergibt.
  • Bei computergestützten bildverarbeitenden Systemen ist es bekannt, serielle digitalisierte Eingangssignale von Matrixdetektoren von Bildsensoren zu verwenden, um Objekte automatisch zu identifizieren, welche von dem Sensor erfaßt wurden, was beispielsweise in der GB 2206270A beschrieben ist. Die Eingangsinformation kann aus einem oder mehreren Videobildern bestehen, welche digitalisiert oder in anderer Form vorliegen können. Die das Objekt charakterisierende Information befindet sich in diesen seriellen Eingangsdaten und kann durch rechnergestützte Verarbeitung unter Bezug auf eine digitale Bibliothek derartiger charakterisierender Informationen herausgearbeitet und erkannt werden.
  • Andere Systeme, bei welchen ein passiver Sensor die Umgebung beobachtet und die Beobachtungen mit einer abgespeicherten Landkarte korreliert, sind beschrieben in den Dokumenten GB-A-2116000; US-A-4,700,307; US-A-4,179,693; EP- A-139292; IEEE Transactions on Aerospace and Electronic Systems, vol AESI2 Nr. 2, Seiten 152 - 161; und GB-2060306.
  • Aus der GB-A-2228642 ist es auch bekannt, daß die Ausdehnung oder die Entfernung eines Objektes von dem Betrachtungssensor unmittelbar berechnet werden kann, wenn der Winkel gegenüber des Bildes eines so erkannten Objekts meßbar ist und die tatsächliche Größe dieses Objekts senkrecht zu der Betrachtungsrichtung aufgrund vorheriger Informationen ebenfalls bekannt ist.
  • Ein Ziel der vorliegenden Erfindung besteht darin, ein verbessertes passives Navigationssystem bereitzustellen.
  • Gegenstand der vorliegenden Erfindung ist daher ein Fahrzeugnavigationssystem der eingangs genannten Art, welches dadurch gekennzeichnet ist, daß es eine Indikation der Änderungsrate des Betrachtungswinkels eines Merkmals liefert und diese Indikation dazu verwendet eine spätere Position des Fahrzeugs durch Besteckrechnen aus der anfänglichen Position und der Änderung des Betrachtungswinkels zu identifizieren.
  • Das System kann eine Indikation der Fahrzeugbewegung gemäß der Änderungsrate des Betrachtungswinkels liefern. In einem Flugzeug kann das System eine Indikation des Rollens des Flugzeugs durch Überwachung von Änderungen in der Winkelposition des Horizonts seitlich des Flugzeugs liefern. Auf ähnliche Weise kann das System eine Indikation der Steigung des Flugzeugs durch Überwachung von Änderungen in der Winkelposition des Horizonts vor oder hinter dem Flugzeug liefern.
  • Das System kann ein Trägheitsnavigationssystem umfassen, wobei das Positionsausgangssignal dem Trägheitsnavigationssystem zugeführt wird, um die darin enthaltene Information auf den neuesten Stand zu bringen. Das System kann ein Ausgangssignal bezüglich der Bewegung des Fahrzeugs relativ zum Grund liefern, wobei das System ein Luftdatensystem umfaßt, welches ein Ausgangssignal erzeugt, das der Fahrzeugbewegung relativ zur umgebenden Luft entspricht und wobei das Navigationssystem ein Ausgangssignal erzeugt, das der Windgeschwindigkeit und -richtung gemäß der Differenz zwischen den die Bodenbewegung und die Luftbewegung angebenden Ausgangssignalen erzeugt. Das Luftdatensystem kann ein Ausgangssignal liefern, welches repräsentativ für die Luftgeschwindigkeit ist und das System kann ein Ausgangssignal liefern, welches die Höhe des Flugzeugs aus der Winkelverschiebungsrate eines Bodenmerkmals relativ zu dem Flugzeug liefert.
  • Ein passives Navigationssystem gemäß der vorliegenden Erfindung wird im folgenden anhand eines Ausführungsbeispiels unter Bezugnahme auf die begleitenden Zeichnungen näher beschrieben, welche zeigen:
  • Fig. 1 eine perspektivische Darstellung eines Flugzeugs mit dem System;
  • Fig. 2 eine Seitenansicht des Flugzeugs;
  • Fig. 3 eine schematische Darstellung der Konstruktion des Systems;
  • Fig. 4A und 4B Draufsichten auf das Flugzeug zu verschiedenen Zeiten;
  • Fig. 5 eine Draufsicht auf das Flugzeug; und
  • Fig. 6 eine Seitenansicht des Flugzeugs zu zwei verschiedenen Zeiten.
  • Das anhand der Figuren 1 bis 3 beschriebene Navigationssystem ist in einem Flugzeug P untergebracht und umfaßt drei Bildsensoren 1 bis 3 in Form von Infrarotfernsehkameras, welche auf Rasterhalterungen befestigt sind, um den Boden unterhalb des Flugzeugs zu beobachten. Im einzelnen beobachtet der Sensor 1 den Boden backbord und vor dem Flugzeug, der Sensor 2 den Boden steuerbord und vor dem Flugzeug und der Sensor 3 den Boden unterhalb des Flugzeugs. Wie in Figur 2 dargestellt, betrachtet die Kamera 1 während eines Teils ihres Rasterdurchgangs die Merkmale C und D. Die Kamera 2 sieht die Merkmale E bis H und die Kamera 3 sieht den Bereich zwischen den Punkten A und B. Der Rasterdurchlauf der Kameras 1 bis 3 wird von einer gemeinsamen Rasterkontrolleinheit 4 kontrolliert, welche den Kameras über die Leitungen 5 bis 7 Signale zuführt. Die Sensoren 1 bis 3 müssen keine Fernsehkameras sein, sondern es können auch andere Bildsensoren wie bildgebende Radiometer, Schalldetektionsarrays, Sensoren für Licht im visuellen, ultravioletten oder infraroten Bereich des Spektrums, Sterndetektionssensoren oder Sensoren für kosmische Strahlen oder Gammastrahlen sein.
  • Das Ausgangssignal jeder Kamera 1 bis 3 wird über ein entsprechendes Kabel 11 bis 13 in serieller, digitalisierter Form einem entsprechenden Bildprozessor 21 bis 23 zugeführt. Jeder Prozessor 21 bis 23 empfängt auch Eingangssginale aus einer Bildbibliothek oder einem Bildspeicher 24 über Leitungen 25 bis 27. Der Speicher 24 enthält eine Bibliothek der Formen verschiedener Merkmale, welche von den Kameras 1 bis 3 gesehen werden könnten, beispielsweise Gebäude, Straßen, Bäumen, Seen, Hügel und ähnliches. Im allgemeinen ist die Bibliothek speziell für die zu überfliegende Region ausgewählt, wobei jedoch auch einige Formen in verschiedenen Regionen gemeinsam vorkommen können. Der Speicher 24 erhält über die Leitung 28 die für den Betrachtungswinkel der Kameras repräsentativen Eingangssignale. Der Betrachtungswinkel wird unmittelbar aus der bekannten Flughöhe (wie sie in einem späteren Betriebszustand des Systems bestimmt wird) und aus den bekannten Abrastungswinkeln der Kameras auf dem Flugzeugrahmen bestimmt. Die Bildbibliothek 24 transformiert die abgespeicherten Bilder entsprechend der Betrachtungswinkelin formation, wodurch die Ausgangssignale auf den Leitungen 25 bis 27 der durch jede Kamera gesehenen Perspektive entsprechen. Die Bildprozessoren 21 bis 23 können Prozessoren umfassen wie sie in der Patentanmeldung GB 2206270A beschrieben sind.
  • Jeder Prozessor 21 bis 23 liefert sechs Sätze von Ausgangssignalen auf die Leitungen 211 bis 216, 221 bis 226 bzw. 231 bis 236. Die Ausgangssignale auf den Leitungen 211, 221 und 23l bezeichnen die Koordinaten jeglicher Merkmale der Bildbibliothek 24, welche von den entsprechenden Kameras 1, 2 oder 3 identifiziert wurden. Diese Information wird einem Kartenkorrelator 30 zugeführt, welcher auch ein Eingangssignal von einem digitalen Kartenspeicher 31 mit Information über die überflogene Region enthält sowie Informationen bezüglich der in der Bildbibliothek enthaltenen Merkmale. Der Kartenspeicher 31 erzeugt über die Leitung 32 ein Ausgangssignal zur Steuerung des Betriebs der Rasterkontrolleinheit, wodurch der Rastervorgang der Kameras auf Bereiche besonderen Interesses konzentriert werden kann, das heißt Bereiche mit Merkmalen die in der Bildbibliothek enthalten sind.
  • Der Kartenkorrelator 30 korreliert die digitalen Kartendaten mit den Informationen auf den Leitungen 211, 221 und 231 zur Identifizierung des Orts der Merkmale, welche von den Kameras wahrgenommen wurden bezüglich der digitalen Karten und liefert so eine Abschätzung der Position des Flugzeugs, welche über die Leitung 33 einem Navigationsrechner 40 zugeführt wird. Nachdem die Merkmale auf den Boden oder einer anderen Bezugsoberfläche, deren topografische Charakteristika in einem Kartenspeicher 31 enthalten sind, lokalisiert wurden kann die Distanz zu dem Merkmal wie in der GB 2228642A beschrieben, trigonometrisch unter der Voraussetzung berechnet werden, daß die Position und Höhe der Kamera über Grund und der Depressionswinkel des Merkmals relativ zu der Kamera bekannt sind.
  • Das zweite Ausgangssignal jeder Bildverarbeitungseinheit 21 bis 23 wird über die Leitungen 212, 222 bzw. 232 einem neuen Bildspeicher 50 zugeführt. Das zweite Ausgangssignal enthält Information über die Anwesenheit und räumliche Position ausgewählter Merkmale innerhalb des Sichtfeldes der entsprechenden Kamera, welche nicht mit irgendwelchen Merkmalen in der Bildbibliothek 24 korrelieren, aber in Übereinstimmung mit Regeln bezüglich der Abgrenzung geformt er Merkmale liegen. Derartige Merkmale können beispielsweise Vegetationsmuster, Wolken oder Wirkungen von Wind auf Wasser (Wellen und ähnliches) sein. Solche Merkmale können ihre Position oder Form langsam mit der Zeit oder in Abhängigkeit von verschiedenen Betrachtungswinkeln aus dem Flugzeug ändern. Wenn jedoch die Entfernung groß genug oder die Änderungsrate der Position oder der Form, verglichen mit den aufeinanderfolgenden Betrachtungsintervallen des Systems gering genug ist, sind die Objekte in aufeinanderfolgenden Bildern reidentifizierbar und die Änderung im scheinbaren Betrachtungswinkel ist meßbar und zur Ermittlung von Winkel- und Geschwindigkeitsparametern des Flugzeugs verwendbar. Diese nicht mit der Landkarte korrelierten Merkmale können zur Abschätzung von Winkeländerungsrate und Geschwindigkeitsinformation aus den Daten über die berechnete Positionsänderung verwendet werden, wenn die erhältlichen Informationen des Sensors zur unmittelbaren Berechnung dieser Parameter ungenügend sind, beispielsweise wenn ein einzelnes auf der Karte auffindbares Merkmal im Sichtfeld ist, aber nur unzureichend wenige weit verstreute Merkmale zur komplizierten Berechnung der Sechsachsenbewegung vorhanden sind.
  • Das zweite Ausgangssignal von den Bildverarbeitungseinheiten 21 bis 23 kann Information über die räumliche Position möglicher Ziele oder Angriffsstellungen umfassen. Diese können durch Vergleich mit dem digitalen Kartenspeicher 31 identifiziert werden, wobei das Vorhandensein eines Merkmals im Sichtfeld der Kamera bei Fehlen dieses Merkmals in dem Kartenspeicher als Indikation dafür herangezogen wird, daß dieses Merkmal vorübergehender Natur ist und damit eine mögliche Bedrohung oder ein mögliches Ziel. Alternativ hierzu können die spezifischen Merkmale in der Bildbibliothek 24 als von ausgewähltem Interesse markiert werden und Information hierüber kann dem neuen Bildspeicher 50 übertragen werden, wenn ein derartiges Merkmal von den Kameras erfaßt wird. Der Speicher 50 ist an einen Entfernungsrechner 51 angeschlossen, welcher die Entfernung der identifizierten ausgewählten Merkmale berechnet und ein Ausgangssignal auf der Leitung 52 erzeugt, welches beispielsweise einer (nicht dargestellten) Waffenzielvorrichtung zugeführt wird. Die Entfernung kann aus der bekannten Größe des identifizierten Merkmals trigonometrisch berechnet werden und zwar bezüglich des Winkels gegenüber des Bildes des Merkmals wie er von den Bildprozessoren 21 bis 23 gemessen wird. Weitere Einzelheiten eines derartigen Systems sind in der GB 2228642A beschrieben.
  • Das System umfaßt einen Horizontdetektor 80, welcher über die Leitungen 215, 225 bzw. 235 Eingangssignale von den Bildprozessoren 21 bis 23 empfängt und ständig eine Indikation der lokalen Erdvertikalen durch Erkennung des Erdhorizonts ableitet. Die Kameras 1 bis 3 des Flugzeugs können vorzugsweise nahezu gleichzeitig in mehrere nahezu horizontale Richtungen sehen und vorzugsweise in mehreren Bereichen des elektromagnetischen Spektrums, beispielsweise auch im ultravioletten, empfindlich sein. Vorzugsweise können sie auch Polarisationseffekte der umgebenden Strahlung erkennen. Die Bildprozessoren 21 bis 23 weisen die Rasterkontrolleinheit 4 an, die Kameras 1 bis 3 zur Suche des Linearbildes der Planeten- Atmosphäre-Grenzlinie am Horizont auszurichten. Weil diese Grenzlinie bei einer einzelnen Betrachtung schlecht definiert ist, werden multispektrale Beobachtungen zwischen mehreren aufeinanderfolgenden Bildern ausgeführt und sodann einer Bildverschärfungsprozedur unterworfen, wodurch ein definierter, momentaner mittlerer Horizont entsteht, und zwar bei Tag und bei Nacht und unabhängig von Wolken. Die momentane lokale vertikale Referenz kann aus dieser Geometrie definiert werden. Die momentane lokale vertikale Referenz kann in Fahrzeugen vielfach angewendet werden, insbesondere in Flugzeugen unter Blindflugbedingungen.
  • Das Ausgangssignal des Horizontdetektors 80 wird über die Leitung 71 als Vertikalreferenz einem Fluglagenkorrelator 70 zugeführt. Alternativ hierzu kann die vertikale Referenz von einem Kreisel 83 oder einem Trägheitsnavigationssystem 62 erzeugt werden; der Kreisel 83 kann eine Komponente eines Trägheitsnavigationssystems sein. Das Ausgangssignal des Kreisels 83 wird auch einem Integrator 85 zugeführt, welcher sein Ausgangssignal mit dem des Horizontdetektors integriert und ein entsprechendes Ausgangssignal einer Anzeigevorrichtung 86 oder einer anderen Vorrichtung zur Verwendung dieses Signals, welches eine Indikation der Fluglage gibt, zuführt. Der Fluglagenkorrelator 70 erhält auch Signale auf den Leitungen 214, 224 und 234 von den Bildprozessoren 21 bis 23, welche der Winkeländerungsrate entsprechen; darin sind enthalten Bildverschiebungsinformationen durch Winkel- und Linearbewegungen. Der Korrelator 70 führt auf der Grundlage dieser Informationen Berechnungen aus, um festzustellen, welcher Anteil durch Winkelbewegung und welcher durch Linearbewegung verursacht wird. Aus Figur 4A ist beispielsweise ersichtlich, daß sich das Flugzeug anfänglich in der Mitte zwischen zwei Objekten A&sub1; und B&sub1; auf einen Zielpunkt H&sub1; zu bewegt. Zu einer Zeit T später ist das Flugzeug in der in Figur 4B dargestellten Position, in welcher das Objekt A&sub2; horizontal um x&sup0; verdreht und das andere Objekt B&sub2; horizontal um y&sup0; verdreht erscheint. Durch Berechnung ergibt sich, daß hier eine gleichförmige Verschiebung aufgrund der Winkelgeschwindigkeit V&sup0; = (x + y)/2 vorliegt, welche durch eine Änderung der Zielrichtung des Flugzeuges von H&sub1; nach H&sub2; über einen Gierwinkel Y&sup0; = x - y gestört ist, was einer Gierrate Y = Y/T Grad/Sekunde entspricht. Die Entfernung des Objekts, wie sie von dem Entfernungsrechner 51, der Bildbibliothek 24, dem Kartenkorrelator 30 und dem Navigationsrechner 40 geliefert wird, beeinflußt das Ausmaß, zu welchem die Verschiebung durch eine Winkelbewegung anstelle einer Linearbewegung bewirkt wird. Je größer die Entfernung, desto mehr wird die Verschiebung durch eine Winkelbewegung und desto weniger durch eine Linearbewegung verursacht. Die Winkelrateninformation umfaßt drei Achsen, welche entweder relativ zu den Flugzeugachsen liegen können, und zwar Gieren, Steigen und Rollen oder relativ zu äußeren Achsen bezüglich der Vertikalreferenz. Diese Information wird über eine Leitung 72 einem Trägheitsnavigationssystem 62 und über eine Leitung 74 einem Integrator 75 zugeführt und bewirkt eine Anzeige 76 der Gier-, Steig- und Rollrate. Eine hiervon getrennte Anzeige 96 kann zudem für die Fluglage des Steigens und Rollens vorgesehen sein. Die dem Trägerheitsnavigationssystem 62 zugeführte Information wird zur Korrektur der sich dort akkumulierenden Fehler verwendet, welche auf der Leitung 74 ein Ausgangssignal zu einem Integrator 75 erzeugt, so daß die getrennt abgeleitete Fluglageninformation kombiniert wird und einen besseren Meßwert ergibt als es nur unter Verwendung eines Informationssatzes möglich wäre.
  • Der Fluglagenkorrelator 70 erzeugt auch ein Ausgangssignal, welches einem eigenen Bewegungsfilter 64 zugeführt wird und dessen Zweck darin besteht, einem Geschwindigkeitskorrelator 60 Information darüber zu geben, welche Verschiebungen von Winkeldrehungen bewirkt wurden. Der Geschwindigkeitskorrelator 60 erhält auch korroborative barometrische Höheninformationen aus einem Luftdatensystem 61 über eine Leitung 67 und Daten über die Bildverschiebungsrate von dem Bildprozessor 21 bis 23 über die Leitungen 213, 223 und 233. Der Geschwindigkeitskorrelator 60 führt Berechnungen unter Verwendung dieser Bildverschiebungen aus, welche nicht durch Winkelveränderungen, also zwangsläufig durch eine Linearbewegung verursacht wurden, und erzeugt ein Ausgangssignal, welches repräsentativ für die Geschwindigkeiten in den drei Achsen ist.
  • In Figur 5 ist beispielsweise ein Objekt A&sub1; nach Entfernung der durch die Rotation bewirkten Effekte dargestellt. Der Betrachtungswinkel zu diesem Objekt ändert sich durch D&sup0; während eines Zeitintervalls T, wobei seine Entfernung bei der ersten Beobachtung R&sub1; und bei der letzten Beobachtung R&sub2; betrug. Die Geschwindigkeit V beträgt demnach
  • Die höchste Genauigkeit wird erreicht, wenn naheliegende Objekte gewählt werden, weil dann der Verschiebungswinkel D größer ist.
  • Das Ausgangssignal aus dem Geschwindigkeitskorrelator 60 wird dem Trägheitsnavigationssystem 62 über die Leitung 63 zugeführt, um die sich dort anhäufenden Fehler zu korrigieren. Ein Ausgangssignal wird auch einem Integrator 65 zugeführt, der mit dem Integrator 75 die Geschwindigkeitsinformation unmittelbar von dem Korrelator 60 mit der gleichen Information aus dem Trägheitsnavigationssystem 62 integriert und einen Anzeigeausgang 66 liefert.
  • Die auf diese Weise gelieferte Geschwindigkeitsinformation betrifft die Geschwindigkeit über Grund. Die von dem Luftdatensystem 61 des Flugzeugs gelieferte Information betrifft dagegen die relativ zur Umgebungsluft gemessene Geschwindigkeit. Das Luftdatensystem 61 kann die Differenz zwischen beiden bestimmen, wobei die Zielrichtungsinformation aus dem Navigationsrechner 40 abgeleitet wird und die Geschwindigkeit über Grund aus dem Korrelator 60, um eine Indikation der Windgeschwindigkeit und Windrichtung zu erhalten, welche als separates (nicht dargestelltes) Ausgangssignal einem Flugmanagementsystem oder dem Trägheitsnavigationssystem 62 zugeführt wird. Wenn das System bei einem Landevorgang verwendet wird, beispielsweise zur Blindlandung, ist dieser Ausgang auch ein dreiachsiger Windscherungsdetektor.
  • Das System umfaßt auch eine Höheneinheit 90, welche Informationen von den Prozessoren 21 bis 23 über die Leitungen 216, 226 und 236 erhält. Obwohl die Höhe trigonometrisch berechnet werden kann, wenn ein kartenkorreliertes Objekt lokalisiert wird, benötigt man die Höheneinheit 90, wenn kein kartenkorreliertes Objekt identifizierbar ist, das heißt wenn die Entfernung von dem Objekt unbekannt ist. Die Höheneinheit 90, wie sie in Figur 6 dargestellt ist, beruht auf dem Vergleich der Winkelverschiebungsrate zu irgendeinem Objekt A, welches als auf dem Boden befindlich identifiziert wird. Dieses ergibt zusammen mit einer Indikation der Luftgeschwindigkeit aus dem Luftdatensystem 61, welche auf die letzte bekannte Windgeschwindigkeit korrigiert ist, die Höhe H gemäß der Gleichung H = L cos n cos m(sin(n + m))&supmin;¹.
  • Darin ist m der erste Betrachtungswinkel des Objekts A, n der zweite Betrachtungswinkel und L die zwischen den beiden Betrachtungen zurückgelegte Entfernung.
  • Die Genauigkeit, mit welcher die Höhe berechnet werden kann, ist umso größer, je näher man sich bei einer gegebenen Flugstrecke L am Boden befindet. Diese Höheninformation wird von der Einheit 90 einer Höhenanzeige 47 zugeführt, und zwar über den Navigationsrechner 40 oder eine andere Vorrichtung, beispielsweise ein grundbasiertes System, welches von niedrig fliegenden Militärflugzeugen zur Vermeidung von Radardetektoren verwendet wird. Eine Fluglagenindikation kann sich auch aus der bekannten Kartenposition des Flugzeugs und der Bodenhöhe an dieser Stelle ergeben.
  • Der Navigationsrechner 40 erhält Eingangssignale von dem Kartenkorrelator 30, einem magnetischen Kompaß 91, dem Geschwindigkeitskorrelator 60, dem Trägheitsnavigationssystem 62 und einer manuellen Eingabeeinheit 92. Beim Beginn der Reise oder zu anderen Zeiten, zu denen die genaue Position des Flugzeugs dem Navigator bekannt ist, kann dieser die Information über die Eingabeeinheit 92 eingeben, so daß der Navigationscomputer eine darauffolgende Navigationsberechnung durch Besteckrechnen von den bekannten Positionen durchführen kann. Auf diese Weise werden die Informationen über Flugzeugpeilung und Geschwindigkeit dem Rechner 40 von dem Geschwindigkeitskorrelator 60 und dem Kompaß 91 in üblicher Weise zugeführt. Abweichungen von diesen einfachen, herkömmlichen Berechnungen, beispielsweise durch Windeffekte auf das Flugzeug, werden über die Information von dem Kartenkorrelator 30 und dem Trägheitsnavigationssystem 62 ausgeglichen. Die Information über die momentane Position des Flugzeugs wird einer Anzeigevorrichtung 46 oder einer anderen Vorrichtung zugeführt. Wenn im Vergleich mit dem Kartenspeicher 31 kein Merkmal identifiziert werden kann, kann der Navigationsrechner 40 noch immer Informationen bezüglich der Winkelrate und der Lineargeschwindigkeit ableiten, indem er Merkmale aus dem neuen Bildspeicher 50 verwendet, die jedoch nicht im Kartenspeicher zu finden sind. Hierdurch können sich genügend Daten für den Navigationsrechner 40 ergeben, damit dieser Besteckrechnungen für die momentanen Positionen ausführen kann bis wieder kartenkorrelierte Merkmale in das Blickfeld kommen.
  • Das Ausgangssignal des Kompasses 91 wird an der Stelle 98 mit Information von dem Navigationsrechner 40 integriert und hierdurch ein Zielausgangssignal für die Anzeige 48 oder eine andere Vorrichtung erzeugt. Die Komponenten der Geschwindigkeitsvektoren, welche von dem Geschwindigkeitskorrelator 60 berechnet wurden, werden auf die kartenbezogenen Koordinaten der gegenwärtigen Position aus dem Kartenkorrelator 30 bezogen, um das Zielausgangssignal zu liefern. Wenn der Kompaß 91, beispielsweise in großen Höhen, nicht mehr funktioniert, übernimmt der Navigationsrechner 40 die Bereitstellung von Zielinformationen.
  • Die vorliegende Erfindung ist nicht nur in Flugzeugen verwendbar, sondern kann beispielsweise auch in Land- oder Wasserfahrzeugen eingesetzt werden, wenn die Kameras so angebracht sind, daß sie den Boden um das Fahrzeug herum betrachten können.
  • Es sei angemerkt, daß das System anstelle oder zusätzlich zu bestehenden Navigationssystemen verwendet werden kann und unabhängig von externen Vorrichtungen, beispielsweise Navigationsfunkfeuern, funktioniert. Aus diesem Grund weist das vorliegende System besondere Vorteile in Verbindung mit unbemannten Fahrzeugen, beispielsweise mit Marschflugkörpern auf, welche auf ihr Ziel gelenkt werden können, ohne daß es einer äußeren Steuerung oder eines Rückgriffs auf äußere Steuerungseinrichtungen bedarf.
  • Das System kann so ausgebildet sein, daß es seine eigene Informationskarte bei einem anfänglichen Flug über unbekanntes Gelände zum späteren Gebrauch für die Navigation über diesem Gelände erzeugt. Daher kann das System zur Verwendung in Raumfahrzeugen auf Flügen zu anderen Planeten oder Kometen eingesetzt werden, zu denen nur geringe Karteninformationen vorliegen. Das Fahrzeug würde dann einen anfänglichen Erkundungsflug über die Oberfläche des Planeten oder Kometen durchführen, während dessen Informationen in dem digitalen Kartenspeicher 31 und, oder alternativ hierzu, in dem neuen Bildspeicher 50 abgespeichert werden. Diese Informationen werden dann zur Navigation in bestimmten Bereichen besonderen Interesses bei darauffolgenden Flügen verwendet.

Claims (7)

1. Fahrzeugnavigationssystem mit einem passiven Bildsensor zur Beobachtung der Umgebung des Fahrzeugs, zur Identifizierung von Merkmalen in seinem Sichtfeld und zur Erzeugung eines entsprechenden Ausgangssignals und mit einer Eingabeeinheit (92) zur Eingabe von Information über die anfängliche Position des Fahrzeugs, dadurch gekennzeichnet, daß das System eine Indikation der Änderungsrate des Betrachtungswinkels eines Merkmals liefert und diese Indikation zur Identifizierung einer späteren Position des Fahrzeugs durch Besteckrechnen aus der anfänglichen Position und der Änderung des Betrachtungswinkels verwendet.
2. Fahrzeugnavigationssystem nach Anspruch 1, dadurch gekennzeichnet, daß das System eine Indikation der Fahrzeugbewegung entsprechend der Änderungsrate des Betrachtungswinkels liefert.
3. Fahrzeugnavigationssystem für ein Flugzeug nach einem der Ansprüche 1 oder 2, dadurch gekennzeichnet, daß das System eine Indikation der Rollbewegung des Flugzeugs liefert durch Überwachung von Änderungen der Winkelposition des Horizonts seitlich des Flugzeugs.
4. Fahrzeugnavigationssystem für ein Flugzeug nach einem der voranstehenden Ansprüche, dadurch gekennzeichnet, daß das System eine Indikation der Steigung des Flugzeugs liefert durch Überwachung von Änderungen der Winkelposition des Horizonts vor oder hinter dem Flugzeug.
5. Fahrzeugnavigationssystem nach einem der voranstehenden Ansprüche, dadurch gekennzeichnet, daß das System ein Trägheitsnavigationssystem (62) aufweist, welchem das Positionsausgangssignal zur Erneuerung der Information in dem Trägheitsnavigationssystem zugeführt wird.
6. Fahrzeugnavigationssystem nach einem der voranstehenden Ansprüche, dadurch gekennzeichnet, daß das System ein Ausgangssignal entsprechend der Fahrzeugbewegung relativ zum Boden erzeugt sowie ein Luftdatensystem (61) aufweist, welches ein Ausgangssginal erzeugt, das der Fahrzeugbewegung relativ zur Umgebungsluft entspricht und daß das Navigationssystem ein Ausgangssignal erzeugt, welches der Windgeschwindigkeit und -richtung entsprechend der Differenz zwischen dem Bodenbewegungsausgangssignal und dem Luftbewegungsausgangssignal entspricht.
7. Fahrzeugnavigationssystem für ein Flugzeug nach einem der voranstehenden Ansprüche, dadurch gekennzeichnet, daß es ein Luftdatensystem (61) aufweist, welches ein für die Luftgeschwindigkeit repräsentatives Ausgangssignal erzeugt und das System aus der Winkelverschiebungsrate eines Merkmals am Boden relativ zu dem Flugzeug ein der Höhe des Flugzeugs entsprechendes Ausgangssignal erzeugt.
DE69012278T 1989-11-08 1990-10-26 Navigationssysteme. Expired - Fee Related DE69012278T2 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
GB898925196A GB8925196D0 (en) 1989-11-08 1989-11-08 Navigation systems

Publications (2)

Publication Number Publication Date
DE69012278D1 DE69012278D1 (de) 1994-10-13
DE69012278T2 true DE69012278T2 (de) 1995-01-05

Family

ID=10665918

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69012278T Expired - Fee Related DE69012278T2 (de) 1989-11-08 1990-10-26 Navigationssysteme.

Country Status (5)

Country Link
US (1) US5072396A (de)
EP (1) EP0427431B1 (de)
DE (1) DE69012278T2 (de)
ES (1) ES2060062T3 (de)
GB (2) GB8925196D0 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10258545A1 (de) * 2002-09-23 2004-04-01 Stefan Reich Stabilisierungssystem für Flugkörper

Families Citing this family (67)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3021556B2 (ja) * 1990-06-20 2000-03-15 ソニー株式会社 映像情報処理装置とその方法
JPH04250436A (ja) * 1991-01-11 1992-09-07 Pioneer Electron Corp 撮像装置
AU2261292A (en) * 1991-06-21 1993-01-25 Unitech Research, Inc. Real time three dimensional geo-referenced digital orthophotograph-based positioning, navigation, collision avoidance and decision support system
DE69210930T2 (de) * 1991-09-27 1996-11-28 Nessim Igal Levy Positionsbestimmungsverfahren
JPH0731062B2 (ja) * 1992-02-10 1995-04-10 住友電気工業株式会社 ジャイロのオフセット補正方法及び装置
DE4204164C2 (de) * 1992-02-13 1994-09-08 Deutsche Aerospace Positions- und Missionsdatengerät zur Flugnavigations- und Flugdatenverarbeitung mit durch GPS gestütztem Display
US5576964A (en) * 1992-11-30 1996-11-19 Texas Instruments Incorporated System and method for relating a passive sensor to a geographic environment
DE4312310A1 (de) * 1993-04-15 1995-03-16 Dietrich Gerhard Ellsaeser Objekterkennungsgerät
US5566073A (en) * 1994-07-11 1996-10-15 Margolin; Jed Pilot aid using a synthetic environment
US5785281A (en) * 1994-11-01 1998-07-28 Honeywell Inc. Learning autopilot
JP2841028B2 (ja) * 1994-11-25 1998-12-24 ソニー株式会社 角速度検出装置
ITMI952613A1 (it) * 1995-01-11 1997-06-13 Aerospatiale Soc Nat Industrielle Procedimento e dispositivo per l'appaiamento di un'immagine e di un modello.
US6195122B1 (en) 1995-01-31 2001-02-27 Robert Vincent Spatial referenced photography
US5672820A (en) * 1995-05-16 1997-09-30 Boeing North American, Inc. Object location identification system for providing location data of an object being pointed at by a pointing device
US6073062A (en) * 1995-05-31 2000-06-06 Fujitsu Limited Mobile terminal and moving body operation management system
US5878356A (en) * 1995-06-14 1999-03-02 Agrometrics, Inc. Aircraft based infrared mapping system for earth based resources
DE19532104C1 (de) * 1995-08-30 1997-01-16 Daimler Benz Ag Verfahren und Vorrichtung zur Bestimmung der Position wenigstens einer Stelle eines spurgeführten Fahrzeugs
US6282362B1 (en) 1995-11-07 2001-08-28 Trimble Navigation Limited Geographical position/image digital recording and display system
JP3658659B2 (ja) * 1995-11-15 2005-06-08 カシオ計算機株式会社 画像処理装置
FR2743628B1 (fr) * 1996-01-17 1998-03-13 Aerospatiale Procede et dispositif pour determiner un decalage entre la position effective et une position prescrite d'un aeronef
US5904724A (en) * 1996-01-19 1999-05-18 Margolin; Jed Method and apparatus for remotely piloting an aircraft
US5850469A (en) * 1996-07-09 1998-12-15 General Electric Company Real time tracking of camera pose
US5883586A (en) * 1996-07-25 1999-03-16 Honeywell Inc. Embedded mission avionics data link system
AU700433B1 (en) * 1997-06-17 1999-01-07 Australian Thermal Imagery Pty Ltd Aircraft based infrared mapping system for earth based resources
EP0899580A3 (de) * 1997-08-29 2000-02-02 Kabushiki Kaisha Toshiba System zur Ortung eines Zieles und Anflug-Leitsystem
JP2001285894A (ja) * 2000-03-31 2001-10-12 Olympus Optical Co Ltd 3次元画像データの掲載方法
GB0019399D0 (en) * 2000-08-07 2001-08-08 Bae Systems Plc Height measurement enhancemsnt
DE10139846C1 (de) * 2001-08-14 2003-02-06 Daimler Chrysler Ag Geometrisches Matching zur Lösung von Lokalisationsproblemen
FR2830078B1 (fr) * 2001-09-25 2004-01-30 Sagem Procede de guidage d'une roquette
JP4174559B2 (ja) * 2001-10-26 2008-11-05 独立行政法人 宇宙航空研究開発機構 衛星画像を利用した高度視界情報提供システムとその方法及び飛行障害認識システムとその方法
WO2004027434A1 (de) * 2002-09-23 2004-04-01 Stefan Reich Mess- und stabilisierungsystem für maschinell steuerbare vehikel
JP4253239B2 (ja) * 2003-10-07 2009-04-08 富士重工業株式会社 画像認識を用いた航法装置
US7308342B2 (en) * 2004-01-23 2007-12-11 Rafael Armament Development Authority Ltd. Airborne reconnaissance system
EP1759173A4 (de) * 2004-06-02 2012-02-22 Rockwell Collins Control Technologies Inc Bildergänztes trägheitsnavigationssystem (iains) und verfahren
US7191056B2 (en) 2005-01-04 2007-03-13 The Boeing Company Precision landmark-aided navigation
DE102005018082A1 (de) * 2005-04-19 2006-10-26 Robert Bosch Gmbh Verfahren zur dreidimensionalen Darstellung einer digitalen Straßenkarte
JP4899351B2 (ja) * 2005-06-17 2012-03-21 株式会社デンソー 走行状況判定装置及び車載ナビゲーション装置
US7510142B2 (en) * 2006-02-24 2009-03-31 Stealth Robotics Aerial robot
US7631834B1 (en) 2006-02-24 2009-12-15 Stealth Robotics, Llc Aerial robot with dispensable conductive filament
US8666661B2 (en) 2006-03-31 2014-03-04 The Boeing Company Video navigation
US20080077284A1 (en) * 2006-04-19 2008-03-27 Swope John M System for position and velocity sense of an aircraft
EP1895318B1 (de) * 2006-08-28 2009-12-16 IBEO Automobile Sensor GmbH Verfahren zur Bestimmung der globalen Position
DE102006062061B4 (de) * 2006-12-29 2010-06-10 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung, Verfahren und Computerprogramm zum Bestimmen einer Position basierend auf einem Kamerabild von einer Kamera
US9262818B2 (en) 2007-05-01 2016-02-16 Pictometry International Corp. System for detecting image abnormalities
US8379087B1 (en) * 2007-05-01 2013-02-19 The United States Of America As Represented By The Secretary Of The Navy Attitude estimation using ground imagery
US8385672B2 (en) * 2007-05-01 2013-02-26 Pictometry International Corp. System for detecting image abnormalities
DE102007054950B4 (de) * 2007-11-17 2013-05-02 Mbda Deutschland Gmbh Verfahren zur Stützung der selbsttätigen Navigation eines niedrig fliegenden Flugkörpers
US8301374B2 (en) * 2009-08-25 2012-10-30 Southwest Research Institute Position estimation for ground vehicle navigation based on landmark identification/yaw rate and perception of landmarks
JP5625293B2 (ja) * 2009-09-14 2014-11-19 ソニー株式会社 速度算出装置、速度算出方法及びナビゲーション装置
US8102306B2 (en) 2010-05-13 2012-01-24 The United States Of America As Represented By The Secretary Of The Navy Active-radar-assisted passive composite imagery for aiding navigation or detecting threats
US8594932B2 (en) 2010-09-14 2013-11-26 The Boeing Company Management system for unmanned aerial vehicles
JP5690539B2 (ja) 2010-09-28 2015-03-25 株式会社トプコン 自動離着陸システム
US8929658B2 (en) 2010-12-17 2015-01-06 Qualcomm Incorporated Providing magnetic deviation to mobile devices
US8565528B2 (en) 2010-12-17 2013-10-22 Qualcomm Incorporated Magnetic deviation determination using mobile devices
JP5618840B2 (ja) 2011-01-04 2014-11-05 株式会社トプコン 飛行体の飛行制御システム
US8494553B2 (en) 2011-01-11 2013-07-23 Qualcomm Incorporated Position determination using horizontal angles
JP5775354B2 (ja) 2011-04-28 2015-09-09 株式会社トプコン 離着陸ターゲット装置及び自動離着陸システム
EP2824425B1 (de) * 2012-03-06 2017-05-17 Nissan Motor Co., Ltd Positions-/ausrichtungsschätzungsvorrichtung für ein bewegliches objekt und verfahren zur schätzung der position/ausrichtung eines beweglichen objekts
US9290269B2 (en) 2013-03-15 2016-03-22 CyPhy Works, Inc. Spooler for unmanned aerial vehicle system
US20150098079A1 (en) * 2013-10-09 2015-04-09 Hilti Aktiengesellschaft System and method for camera based position and orientation measurement
US9528834B2 (en) 2013-11-01 2016-12-27 Intelligent Technologies International, Inc. Mapping techniques using probe vehicles
US9557742B2 (en) 2013-11-27 2017-01-31 Aurora Flight Sciences Corporation Autonomous cargo delivery system
US9541387B2 (en) * 2014-02-07 2017-01-10 Goodrich Corporation Passive altimeter
US10001376B1 (en) * 2015-02-19 2018-06-19 Rockwell Collins, Inc. Aircraft position monitoring system and method
US9852645B2 (en) * 2015-08-17 2017-12-26 The Boeing Company Global positioning system (“GPS”) independent navigation system for a self-guided aerial vehicle utilizing multiple optical sensors
US10767996B2 (en) 2018-05-08 2020-09-08 Honeywell International Inc. System and methods for reducing the map search space requirements in a vision-inertial navigation system
CN113917939B (zh) * 2021-10-09 2022-09-06 广东汇天航空航天科技有限公司 飞行器的定位导航方法、系统及计算设备

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4179693A (en) * 1977-05-23 1979-12-18 Rockwell Internation Corporation Autonomous, check-pointing, navigational system for an airborne vehicle
EP0005918B1 (de) * 1979-05-09 1983-05-04 Hughes Aircraft Company Bildnachführsystem
DE2938853A1 (de) * 1979-09-26 1981-04-09 Vereinigte Flugtechnische Werke Gmbh, 2800 Bremen Flaechennavigationssystem fuer luftfahrzeuge
DE3047016A1 (de) * 1980-12-13 1982-07-22 Vereinigte Flugtechnische Werke Gmbh, 2800 Bremen Flaechennavigationssystem fuer luftfahrzeuge
GB2116000B (en) * 1982-03-02 1985-05-01 Elliott Bros Guidance system
US4489322A (en) * 1983-01-27 1984-12-18 The United States Of America As Represented By The Secretary Of The Air Force Radar calibration using direct measurement equipment and oblique photometry
US4700307A (en) * 1983-07-11 1987-10-13 General Dynamics Corp./Convair Division Feature navigation system and method
JPS6084610A (ja) * 1983-10-17 1985-05-14 Hitachi Ltd 誘導装置
DE3432892A1 (de) * 1984-09-07 1986-03-20 Messerschmitt-Bölkow-Blohm GmbH, 2800 Bremen Elektrooptisches zielgeraet
US4739401A (en) * 1985-01-25 1988-04-19 Hughes Aircraft Company Target acquisition system and method
JP2535927B2 (ja) * 1987-07-09 1996-09-18 アイシン精機株式会社 車上距離検出装置
JP2695414B2 (ja) * 1987-07-10 1997-12-24 アイシン・エィ・ダブリュ株式会社 車両用ナビゲーション装置
JP2680312B2 (ja) * 1987-07-10 1997-11-19 アイシン・エィ・ダブリュ株式会社 車両用ナビゲーション装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10258545A1 (de) * 2002-09-23 2004-04-01 Stefan Reich Stabilisierungssystem für Flugkörper
DE10258545B4 (de) * 2002-09-23 2008-01-24 Stefan Reich Verfahren und System zur Stabilisierung einer Translationsbewegungsgröße eines Flugkörpers

Also Published As

Publication number Publication date
ES2060062T3 (es) 1994-11-16
GB2237951B (en) 1994-04-27
DE69012278D1 (de) 1994-10-13
US5072396A (en) 1991-12-10
GB2237951A (en) 1991-05-15
GB9023821D0 (en) 1990-12-12
EP0427431A2 (de) 1991-05-15
GB8925196D0 (en) 1990-05-30
EP0427431B1 (de) 1994-09-07
EP0427431A3 (en) 1992-11-25

Similar Documents

Publication Publication Date Title
DE69012278T2 (de) Navigationssysteme.
DE69021354T2 (de) System zur Detektion eines Hindernisses.
DE69306069T2 (de) Bordnavigationssystem für ein Flugzeug mit einem Seitensichtradar mit synthetischer Apertur
DE69006709T2 (de) System zum Bestimmen der Position an Bord eines Luftfahrzeugs und seine Anwendungen.
DE19737592C2 (de) Lagebestimmungssystem für künstliche Satelliten
DE69703893T2 (de) Verfahren und gerät zur erdumfassenden positionsbestimmung mittels gps/trägheitsnavigation mit verarbeitung von integritätsverlust
DE69216766T2 (de) Flugzeugvorrichtungen zur Gelände - und Hindernisvermeidung
DE69836522T2 (de) Lagenerkennungssystem eines selbstbewegenden Kraftwagens
DE69929525T2 (de) Verfahren und vorrichtung zur erzeugung von navigationsdaten
DE112009001766T5 (de) Systeme zur Erfassung und Analyse von Orts- und Wegeplan-Erzeugungsdaten
EP0429952B1 (de) Autonomes Landesystem
DE3937427A1 (de) Bildverarbeitungsgeraet
EP0406879B1 (de) Verfahren zur Extraktion von Bewegungsfehlern eines ein kohärentes Abbildungsradarsystem mitführenden Trägers aus Radar-Rohdaten und Einrichtung zur Durchführung des Verfahrens
EP2527792A1 (de) Verfahren zur Pilotenunterstützung für die Landung eines Luftfahrzeugs unter Sichtbehinderungen
EP0406877A2 (de) Verfahren zur Extraktion von Bewegungsfehlern eines ein kohärentes Abbildungsradarsystem mit führenden Trägers aus Radar-Rohdaten und Einrichtung zur Durchführung des Verfahrens
DE2801045A1 (de) Navigationsgeraet
EP2446298A1 (de) Verfahren zur bestimmung der geographischen koordinaten von bildpunkten in sar bildern
WO2015000089A1 (de) Verfahren zur bestimmung von trajektorien beweglicher physischer objekte in einem raum, auf der basis von sensordaten mehrerer sensoren
DE69117896T2 (de) Verfahren und Vorrichtung zur Verbesserung der Zuverlässigkeit von Flugzeugflugdaten
EP2381208A1 (de) Verfahren zur Bestimmung von Positionsdaten eines Zielobjekts in einem Referenzsystem
Hill et al. Ground-to-air flow visualization using Solar Calcium-K line Background-Oriented Schlieren
DE10258545B4 (de) Verfahren und System zur Stabilisierung einer Translationsbewegungsgröße eines Flugkörpers
EP3894786A1 (de) Verfahren und vorrichtung zur positionsbestimmung mittels trägheitsnavigation, und kalibriersystem
EP3584536B1 (de) Terrestrisches beobachtungsgerät mit lagebestimmungsfunktionalität
DE4314742C2 (de) Verfahren und Anordnung zur hochgenauen Datengewinnung aus der Luft

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8339 Ceased/non-payment of the annual fee