DE4416557A1 - Verfahren und Vorrichtung zur Stützung der Trägheitsnavigation eines ein entferntes Ziel autonom ansteuernden Flugkörpers - Google Patents

Verfahren und Vorrichtung zur Stützung der Trägheitsnavigation eines ein entferntes Ziel autonom ansteuernden Flugkörpers

Info

Publication number
DE4416557A1
DE4416557A1 DE4416557A DE4416557A DE4416557A1 DE 4416557 A1 DE4416557 A1 DE 4416557A1 DE 4416557 A DE4416557 A DE 4416557A DE 4416557 A DE4416557 A DE 4416557A DE 4416557 A1 DE4416557 A1 DE 4416557A1
Authority
DE
Germany
Prior art keywords
terrain
missile
stored
image
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE4416557A
Other languages
English (en)
Inventor
Klaus Dr Hesse
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Diehl BGT Defence GmbH and Co KG
Original Assignee
Bodenseewerk Geratetechnik GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bodenseewerk Geratetechnik GmbH filed Critical Bodenseewerk Geratetechnik GmbH
Priority to DE4416557A priority Critical patent/DE4416557A1/de
Priority to FR9505188A priority patent/FR2719920A1/fr
Priority to GB9508451A priority patent/GB2289389B/en
Publication of DE4416557A1 publication Critical patent/DE4416557A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/12Target-seeking control
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G7/00Direction control systems for self-propelled missiles
    • F41G7/34Direction control systems for self-propelled missiles based on predetermined target position data
    • F41G7/343Direction control systems for self-propelled missiles based on predetermined target position data comparing observed and stored data of target position or of distinctive marks along the path towards the target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/005Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/16Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • General Engineering & Computer Science (AREA)
  • Combustion & Propulsion (AREA)
  • Chemical & Material Sciences (AREA)
  • Electromagnetism (AREA)
  • Navigation (AREA)
  • Image Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

Technisches Gebiet
Die Erfindung betrifft ein Verfahren zur Stützung der Trägheitsnavigation eines ein entferntes Ziel autonom ansteuernden Flugkörpers mittels eines unter einem endlichen Winkel seitwärts zur Flugrichtung blickenden, das überflogene Gelände erfassenden, bilderzeugenden Sensors, der Geländedaten liefert, aus denen durch Vergleich mit bekannten Geländedaten eine Position des Flugkörpers gewonnen wird, wobei wiederum diese Position mit der von der Trägheitsnavigation bestimmten Position verglichen und das Trägheitsnavigations-System nach Maßgabe dieses Vergleichs korrigiert wird.
Die Erfindung betrifft weiterhin eine Vorrichtung zur Stützung der Trägheitsnavigation eines ein entferntes Ziel autonom ansteuernden Flugkörpers zur Durchführung dieses Verfahrens.
Zugrundeliegender Stand der Technik
Niedrig fliegende, autonome Flugkörper sind beispielsweise sog. "Marschflugkörper". Die Navigation solcher Flugkörper basiert primär auf Trägheitsnavigation. Eine mit Kreiseln und Beschleunigungsmessern aufgebaute Trägheitssensor-Einheit liefert Daten über Position, Geschwindigkeit und Kurs des Flugkörpers. Solche Trägheitssensor-Einheiten weisen eine Drift auf. Die angezeigte Position und der Kurs des Flugkörpers ändern sich langsam. Die Fehler werden umso größer, je länger die Flugzeit dauert. Es ist daher erforderlich, von Zeit zu Zeit Position und Kurs des Flugkörpers zu kontrollieren und Korrekturen an der Trägheitssensor-Einheit anzubringen.
Es ist möglich, zur Positions-Bestimmung Signale von Navigations-Satelliten (GPS) zu empfangen und zu verarbeiten. Die darauf beruhende Positions-Bestimmung gewährleistet hohe Präzision. Es wird jedoch bei militärischem Gerät häufig gefordert, daß die Navigation absolut autonom erfolgt.
Es ist weiter bekannt, das überflogene Gelände mittels eines an Bord des Flugkörpers angeordneten Radargeräts abzutasten. Diese Art der Positions-Kontrolle erfüllt aber nicht die Forderung nach absoluter Passivität, also des Verbots der Emission verräterischer, aktiver Strahlung.
Es ist weiter bekannt, mittels eines passiven, bilderzeugenden Sensors schnappschußartig Einzelaufnahmen des überflogenen Geländes zu machen. Wenn mindestens drei bekannte und identifizierbare Objekte gleichzeitig im Bild sind, kann aus den im Bild auftretenden Winkeln zwischen diesen Objekten sowie den Winkeln zur Blickrichtung durch dreidimensionales Rückwärts-Einschneiden sowohl der Ort als auch die Orientierung des Sensors zum Zeitpunkt der Aufnahme des Bildes berechnet werden. Erfaßt der bilderzeugende Sensor weniger als drei Objekte, dann kann der mittels der Trägheitssensor- Einheit bestimmte Flugweg zwischen zwei Einzelaufnahmen in die Berechnung einbezogen werden (R. Koch, R. Bader, W. Hinding: "A Study of an Integrated Image and Inertial Sensor System" in "Agard Conference Proceedings" No. 474 (1990)).
Die Anwendbarkeit dieses Verfahrens hängt davon ab, daß in ausreichendem Maße identifizierbare Objekte im Gelände vorhanden sind. Die Fehler der Messung hängen stark von der Lage dieser Objekte zum Flugkörper ab. Das Erfordernis einer eindeutigen Identifizierbarkeit bedingt einen aufwendigen Erkennungsprozeß. Abhängig von der Blickrichtung kann es unmöglich sein, zum Zwecke der Identifizierung des Objekts den Bildinhalt unmittelbar mit einem gespeicherten Modell des Objekts zu vergleichen. Vielmehr muß bei schräger Blickrichtung über eine perspektivische Transformation des flugkörperintern gespeicherten Geländemodells in die Bildebene ein quantitativer Vergleich des erwarteten mit dem gesehenen Bildinhalt durchgeführt werden. Erst mit Hilfe dieses Vergleichs kann die Position und der Kurs bestimmt und ggf. korrigiert werden.
Zwischen den Stütz-Objekten muß der Flugkörper "blind" nur mit der Trägheitsnavigation navigieren. Wenn die Stütz-Objekte nahe beieinander angeordnet sind, kann infolge der driftbedingten Positions-Abweichung eine Verwechslung von ähnlich aussehenden Objekten stattfinden. Fällt ein Stütz- Objekt aus, dann kann die Positions-Abweichung so groß werden, daß das übernächste Stütz-Objekt nicht mehr gefunden wird.
Die DE-A-34 12 533 beschreibt einen abbildenden Sensor für dreidimensionale Szenenerfassung, insbesondere für die Anwendung in der Industrieautomation. Mit einem bewegten, bilderzeugenden Sensor wird eine Sequenz von Bildern aus verschiedenen Richtungen aufgenommen. Dabei werden Paare von Bildern erzeugt, aus denen ein stereoskopisches Bild der aufgenommenen Szene gewonnen werden kann. Die Bildverarbeitung erfolgt mittels eines parallelverarbeitenden, digitalen Netzwerkes zur Ausführung schneller Korrelations-Vergleiche von Bildausschnitten.
Die EP-A-0 122 048 beschreibt einen parallel arbeitenden Datenprozessor.
Offenbarung der Erfindung
Der Erfindung liegt die Aufgabe zugrunde, ein Verfahren der eingangs genannten Art zur Stützung der Trägheitsnavigation eines ein entferntes Ziel autonom ansteuernden Flugkörpers so auszugestalten, daß
  • - die von dem bilderzeugenden Sensor gelieferte Information über das Gelände bestmöglich ausgenutzt wird,
  • - die Stützung der Trägheitsnavigation durch diese Information quasi-kontinuierlich erfolgt, und
  • - die Stützung unabhängig von dem Vorhandensein markanter Stütz-Objekte in dem überflogenen Gelände ist.
Erfindungsgemäß wird diese Aufgabe bei einem Verfahren der eingangs genannten Art dadurch gelöst, daß
  • (a) durch den bilderzeugenden Sensor während der Bewegung des Flugkörpers über dem Gelände aus verschiedenen Flugkörperpositionen laufend Bilder des überflogenen Geländes zur Erzeugung einer Bildsequenz aufgenommen werden,
  • (b) diese Bilder elektronisch gespeichert werden,
  • (c) aus gespeicherten Bildern und den zugehörigen, aus der Trägheitsnavigation erhaltenen Positionsdifferenzen des Flugkörpers durch Stereobild-Auswertung eine eine dreidimensionale Darstellung des Geländes berechnet wird,
  • (d) die berechnete Darstellung des Geländes mit einem gespeicherten Modell des Geländes verglichen und daraus die Position und der Kurs des Flugkörpers bestimmt wird.
Eine Vorrichtung zur Durchführung des Verfahrens ist gekennzeichnet durch
  • (a) einen unter einem endlichen Winkel seitwärts zur Flugrichtung blickenden, das überflogene Gelände erfassenden, bilderzeugenden Sensor, durch den während der Bewegung des Flugkörpers über dem Gelände aus verschiedenen Flugkörperpositionen laufend Bilder des überflogenen Geländes zur Erzeugung einer Bildsequenz aufnehmbar sind,
  • (b) einen Speicher zum elektronischen Speichern der von dem bilderzeugenden Sensor aufgenommenen Bilder,
  • (c) Rechnermittel mit Mitteln zum Berechnen einer dreidimensionalen Darstellung des Geländes aus gespeicherten Bildern und den zugehörigen, aus der Trägheitsnavigation erhaltenen Positionsdifferenzen des Flugkörpers durch Stereobild-Auswertung,
  • (d) Mitteln zum Speichern eines dreidimensionalen Modells des überflogenen Geländes,
  • (e) Mittel zum Vergleichen der berechneten dreidimensionalen Darstellung der Landschaft mit dem gespeicherten, dreidimensionalen Modell der Landschaft und
  • (f) Mittel zum Bestimmen der Position und des Kurses des Flugkörpers aus dem Vergleich der berechneten Darstellung des Geländes und des gespeicherten Modells dieses Geländes.
Ausgestaltungen der Erfindung sind Gegenstand der Unteransprüche.
Ein Ausführungsbeispiel der Erfindung ist nachstehend unter Bezugnahme auf die zugehörigen Zeichnungen näher erläutert.
Kurze Beschreibung der Zeichnungen
Fig. 1 ist eine schematisch-perspektivische Darstellung und zeigt, wie ein Gelände nacheinander aus zwei Positionen eines Flugkörpers mittels eines am Flugkörper angebrachten, bilderzeugenden Sensors beobachtet wird.
Fig. 2 zeigt die von dem bilderzeugenden Sensor in den beiden Positionen erfaßten Bildinhalte.
Fig. 3 veranschaulicht die Positions-Bestimmung durch Muster­ vergleich des beobachteten Geländes mit einem gespeicherten Gelände.
Fig. 4 ist ein Blockdiagramm und zeigt eine Vorrichtung zur Stützung der Trägheitsnavigation eines ein entferntes Ziel autonom ansteuernden Flugkörpers mittels eines unter einem endlichen Winkel seitwärts zur Flugrichtung blickenden, die überflogene Landschaft erfassenden, bilderzeugenden Sensors.
Fig. 5 ist eine schematische Darstellung und veranschaulicht die Bildverarbeitung von Mikromustern im Bild des Geländes mittels eines Parallelrechners.
Bevorzugte Ausführung der Erfindung
In Fig. 1 ist mit 10 ein Gelände bezeichnet, das schematisch durch einen Baum 12, zwei Häuser 14 und 16 und einen dazwischen verlaufenden Weg 18 angedeutet ist. Ein Flugkörper fliegt auf einem Kurs 20 längs einer Bahn 22. Der Flugkörper weist einen bilderzeugenden Sensor in Form einer Fernsehkamera auf. Der bilderzeugende Sensor "blickt" unter einem endlichen Winkel seitwärts zur Flugrichtung des Flugkörpers. Der Sensor erfaßt in jeder Stellung ein Gesichtsfeld von rechteckigem Querschnitt. In Fig. 1 sind das Gesichtsfeld 24 des Sensors für eine erste Position 26 des Flugkörpers und das Gesichtsfeld 28 des Sensors für eine zweite Position 30 dargestellt.
Der Sensor liefert in den Positionen 26 und 30 Bilder 32 bzw. 34 des Geländes 10. In Bild 32 von Fig. 2 ist der Baum 12 vor dem Haus 16 angeordnet. In Bild 34 von Fig. 2 ist der Baum 12 zwischen den Häusern 16 und 14 sichtbar. Aus den beiden Bildern 32 und 34 kann eine stereoskopische Darstellung des Geländes 10 berechnet werden. Die Stereobasis ist dabei der Abstand 36 der beiden Positionen 26 und 30. Dieser Abstand kann von der Trägheitssensor-Einheit des Flugkörpers geliefert werden. Der durch die Drift der Trägheitssensor-Einheit bedingte Fehler der Stereobasis ist in der Regel klein, wenn die Bilder in nicht zu großen Zeitabständen erfaßt werden. Es ergibt sich eine dreidimensionale Darstellung des überflogenen Geländes. Diese dreidimensionale Darstellung des überflogenen Geländes wird mit einem gespeicherten Modell des Geländes verglichen. Durch eine Korrelations-Rechnung kann die Abweichung der von der Trägheitsnavigation gelieferten Position und des von der Trägheitsnavigation gelieferten Kurses von der tatsächlichen Position bzw. dem tatsächlichen Kurs bestimmt werden. Die Anzeige der Trägheitssensor-Einheit kann dementsprechend korrigiert und gestützt werden.
Das ist in Fig. 3 schematisch dargestellt. In Fig. 3 ist mit 38 eine Bahn des Flugkörpers bezeichnet, wie sie sich aus der Trägheitsnavigation ergibt. Demnach wäre der Flugkörper zu einem Zeitpunkt t₀ in einer Position 40 und in einem Zeitpunkt t₁ in einer Position 42, entsprechend den Positionen 26 und 30 in Fig. 1. Im Gesichtsfeld entsprechend dem Gesichtsfeld 28 von Fig. 1, beobachtet der Sensor ein Gelände, das in Fig. 3 als Straße 46 mit Einmündungen dargestellt ist. Die durch die Trägheitsnavigation angezeigte Bahn 38 (in einer Landkarte) und die beobachtete Straße 46, deren Lage in der Landkarte auf diese Bahn 38 bezogen ist, sind in Fig. 3 gestrichelt dargestellt. In der gespeicherten "Landkarte" liegt die Straße tatsächlich an der Stelle 48. Die Bahn 38 entspricht daher nicht der wahren Bahn - des Flugkörpers. Die von der Trägheitsnavigation gelieferte Bahn 38 muß zu einer "wahren" Bahn 50 mit den Positionen 52 zum Zeitpunkt t₀ und 54 zum Zeitpunkt t₁ korrigiert werden, die zu der in der Landkarte gespeicherten Straße 48 so liegt wie die Bahn 38 zu der gestrichelt dargestellten Straße 46.
Das kann auf folgende Weise geschehen:
In der dreidimensionalen Darstellung des Geländes werden kleine Fenster betrachtet, die sich durch deutliche Kontraste auszeichnen. Das seien beispielsweise die Bereiche um die Punkte A und B in Fig. 3. Für diese Fenster wird dann eine Korrelations-Funktion mit dem gespeicherten Modell der Landschaft (Landkarte) berechnet. Praktisch wird das Fenster jeweils auf der Landkarte verschoben, bis eine optimale Übereinstimmung vorliegt und die Korrelations-Funktion ein Maximum hat. Auf diese Weise werden die Punkte A′ und B′ auf der Landkarte bestimmt, die den von dem Sensor beobachteten,­ kontrastreichen Fenstern um die Punkte A bzw. B entsprechen. Hierzu bedarf es keiner Erkennung von Objekten. Im Bereich der relativ kleinen Fenster macht sich eine durch Ungenauigkeit der Stereobasis 36 bedingte Verzerrung der Darstellung des Geländes nicht so stark bemerkbar, wie das der Fall wäre, wenn die Korrelations-Funktion über den gesamten Bildinhalt hinweg gebildet würde. Der Rechenaufwand und die erforderliche Speicherkapazität werden gegenüber der letzteren Möglichkeit wesentlich verringert.
Die Lage der Punkte A und B zu der fehlerbehafteten Position 42 ist bekannt. Aus der Berechnung der dreidimensionalen Geländestruktur ergeben sich die Abstände der Position 42 von den Punkten A bzw. B des beobachteten Geländes. Aus den nunmehr bekannten, durch die Korrelations-Funktion bestimmten Punkten A′ und B′ auf der Landkarte kann dann der Punkt 54 auf der Landkarte, d. h. die wahre Position bestimmt werden. Die wahre Position 54 liegt zu den "landkartenfesten" Punkten A′ und B′ genau so wie die von der Trägheitsnavigation gelieferte Position 42 zu den Punkten A und B im beobachteten Gelände.
Wenn die Position des Flugkörpers auf die beschriebene Weise bestimmt und die Trägheitssensor-Einheit entsprechend gestützt ist, wird die weitere Bewegung der Bildpunkte quasi­ kontinuierlich verfolgt. Bildpunkte werden durch kleine, möglichst kontrastreiche "Mikromuster" von z. B. 3×3 Pixeln definiert. Durch den Sensor werden Bilder in schneller Folge erzeugt. In jedem Bild wird durch Bildung einer Korrelations- Funktion oder unmittelbaren Vergleich festgestellt, wohin sich ein in dem vorhergehenden Bild betrachtetes "Mikromuster" bewegt hat. Dazu braucht in dem Bild jeweils nur die nähere Umgebung der Stelle untersucht zu werden, an dem sich das jeweilige Mikromuster auf dem vorhergehenden Bild befunden hat. Man kann dafür sorgen, daß die Bewegung der Bildpunkte im wesentlichen in Zeilenrichtung des Bildrasters des bilderzeugenden Sensors erfolgt. Für jedes betrachtete Mikromuster ergeben sich dann Verschiebevektoren, welche die Bewegung des Mikromusters über das von dem Sensor erfaßte Gesichtsfeld wiedergeben. Dabei treten an dem vorderen Rand des Gesichtsfeldes ständig neue Mikromuster in das Gesichtsfeld ein, die ausgewählt werden und deren Bewegungen weiter verfolgt und gespeichert werden. Am rückwärtigen Rand treten Mikromuster aus dem Gesichtsfeld aus.
Aus den Lagen der Mikromuster in verschiedenen Bildern, die jeweils eine Zeitspanne auseinanderliegen, während welcher der Flugkörper eine Stereobasis durchflogen hat, wird eine dreidimensionale Darstellung des Geländes, soweit es durch die Mikromuster repräsentiert ist, berechnet. Da die Mikromuster bei ihrem Durchgang durch das Gesichtsfeld des Sensors ständig verfolgt werden, ist ihre Lage in jedem der Bilder der Sequenz bekannt. Es ist daher nicht erforderlich, Mikromuster in zeitlich auseinanderliegenden Bildern wiederzufinden. Zur Berechnung einer dreidimensionalen Darstellung des Geländes wird folgendermaßen vorgegangen: Wenn ein Mikromuster an dem vorderen Rand in das Gesichtsfeld des Sensors eintritt, wird die laufende Nummer des zugehörigen Bildes der Sequenz gespeichert und damit der Zeitpunkt des Eintritts dieses Mikromusters in das Gesichtsfeld des Sensors. Das Mikromuster wandert dann in den aufeinanderfolgenden Bildern der Sequenz durch das Gesichtsfeld hindurch und verläßt schließlich das Gesichtsfeld am gegenüberliegenden, hinteren Rand. Die laufende Nummer des hierzu zugehörigen Bildes wird ebenfalls gespeichert und damit der Zeitpunkt des Austritts des Mikromusters aus dem Gesichtsfeld. Aus der Zeitdifferenz und der Geschwindigkeit des Flugkörpers ergibt sich die Stereobasis. Damit kann der Ort des Mikromusters dreidimensional berechnet werden. In gleicher Weise wird für alle durch das Gesichtsfeld hindurchlaufenden, betrachteten Mikromuster verfahren. Dadurch wird ständig eine dreidimensionale Darstellung des vom Gesichtsfeld des Sensors überstrichenen Geländes erhalten.
Anhand der Mikromuster können kontrastreiche Fenster in dem beobachteten Gelände, die für die Stützung der Trägheitsnavigation benutzt werden, von Bild zu Bild ständig verfolgt werden. Die quasi-kontinuierlich berechnete dreidimensionale Darstellung des Geländes in dem Fenster wird laufend mit einem gespeicherten Geländemodell verglichen. Daraus kann wieder durch Bildung einer Korrelations-Funktion zwischen dieser Darstellung des Geländes und dem Geländemodell über das Fenster in der oben beschriebenen Weise ständig die wahre Position des Flugkörpers ermittelt werden. Dabei wechseln sich die Berechnung der dreidimensionalen Darstellung des Geländes und die Korrektur der von der Trägheitsnavigation gelieferten Position ständig ab. Die von der Trägheitsnavigation angegebene Flugbahn weicht dadurch nur geringfügig von der wahren Flugbahn ab. Dementsprechend kann sich die Berechnung der Korrelations-Funktion für die Bestimmung der Abweichung auch nur auf die unmittelbare Nachbarschaft des im Gesichtsfeld des Sensors festgelegten Fensters beschränken.
Die stetige Fortschreibung des Vergleichs zwischen dem akut beobachteten Gelände und dem mitgeführten Geländemodell (Landkarte) ermöglicht auch die Einbeziehung sonst als kleine Einzelobjekte schwer identifizierbarer Bildinhalte. Aus dem Geländemodell kann schon entnommen werden, was von dem Sensor in dem Bild beobachtet werden kann, da die Lage des Fensters in dem Geländemodell weitgehend bekannt ist. Es können dann solche Bildinhalte "gesucht" und mit verarbeitet werden. Damit wird die Ausnutzung von wenig charakteristischen Bilddetails möglich, die für sich genommen noch keine Ableitung einer Positions-Information zulassen würden. Hierdurch ergibt sich eine Redundanz, die insbesondere in strukturschwachem Gelände erforderlich ist.
Fig. 4 zeigt als Blockdiagramm eine Vorrichtung zur Durchführung des beschriebenen Verfahrens.
In Fig. 4 ist mit 56 ein bilderzeugender Sensor bezeichnet. Der bilderzeugende Sensor ist eine Videokamera. Der Sensor 56 liefert Bilder an einen Parallelrechner 58. Der Parallelrechner 58 vergleicht die Mikromuster mit der erforderlichen hohen Bearbeitungs-Geschwindigkeit. Der Parallelrechner 58 liefert zu jedem Mikromuster, das auf seiner Wanderung durch mehrere Bilder beobachtet wird, die Länge des Verschiebevektors des Mikromusters sowie die Bildnummern des ersten und des letzten Bildes, in welchem dieses Mikromuster beobachtet wurde.
Eine anschließende Rechnerstufe 60 ist aus Standard- Rechnerbausteinen, etwa den üblichen Signalprozessoren, aufgebaut. Die Rechnerstufe 60 erhält den Fluggeschwindigkeits-Vektor von der Trägheitssensor-Einheit und die Flugzeit zwischen demjenigen Bild der Sequenz von Bildern des Sensors 56, in welchem ein beobachtetes Mikromuster erstmals auftritt, und demjenigen Bild, in welchem das Mikromuster den hinteren Rand des Bildfeldes erreicht. Aus der Zeitdifferenz zwischen den Bildern und dem Fluggeschwindigkeits-Vektor wird eine Stereobasis berechnet. Durch Triangulation wird damit der Ort des durch das Mikromusters repräsentierten Geländedetails in der dreidimensionalen Geländedarstellung bestimmt. Die Rechnerstufe bewirkt weiterhin eine Projektion der aus den verschiedenen Mikromustern erhaltenen dreidimensionalen Geländedarstellung auf eine horizontale Ebene. Dadurch wird eine zweidimensionale Geländedarstellung ähnlich einer Landkarte erhalten zum Vergleich mit einem ebenfalls zweidimensionalen, landkartenartigen Geländemodell, das in dem Flugkörper gespeichert ist.
Eine dritte Rechnerstufe 62 bewirkt einen Vergleich der aus den Bildern des Sensors 56 in der beschriebenen Weise gewonnenen Geländedarstellung mit einem Geländemodell, das in einem Speicher 64 gespeichert ist. Die Rechnerstufe liefert die Verschiebung der aus den Bilden des Sensors 56 gewonnenen Geländedarstellung (im Koordinatensystem des Geländemodells) gegenüber dem Geländemodell. Daraus werden in einem Navigationsrechner 66 in der unter Bezugnahme auf Fig. 3 beschriebenen Weise die wahre Position und der wahre Kurs des Flugkörpers in dem Geländemodell (der Landkarte) bestimmt. Aus den Abweichungen von Position und Kurs des Flugkörpers werden Korrekturwerte für die Trägheitssensor-Einheit abgeleitet.
Fig. 5 veranschaulicht die Bildverarbeitung von Mikromustern im Bild des Geländes mittels des Parallelrechners 58.
In der schematischen Darstellung von Fig. 5 sind mit 68 Speicherelemente bezeichnet, in denen Bildelemente des von dem Sensor 56 erfaßten Bildes gespeichert sind. Fig. 5 zeigt drei Zeilen solcher Speicherelemente 68, in denen die Bildelemente dreier Zeilen des Bildes gespeichert sind. Der Parallelrechner 58, der die erste Rechnerstufe bildet, enthält eine eindimensionale Anordnung von Prozessor-Elementen 70. Jedem Prozessor-Element 70 ist ein lokaler Speicher 72 mit mehreren Speicherzellen zugeordnet.
Von den Bildelementen (Pixeln) eines (n-1)-ten Bildes ist ein "Mikromuster" 74 von 3×3 Pixeln an seinem Ort in dem (n-1)­ ten Bild gespeichert. Zu diesem Zweck ist das (n-1)-te Bild zeilenweise durch die Prozessor-Elemente 70 abgetastet worden. Die Pixel der verschiedenen Zeilen sind in den Speicherelementen in den verschiedenen Ebenen des lokalen Speichers 72 abgelegt, also "untereinander" in Fig. 5.
Im n-ten Bild erscheint das gleiche Mikromuster durch die Bewegung des Sensors 56 als Mikromuster 74A an einer anderen Stelle des Bildes, nämlich weiter links in Fig. 5. Es gilt, die Verschiebung zu bestimmen. Das geschieht mittels eines Korrelations-Verfahrens. Um die Länge des Verschiebevektors des Mikromusters 74 von Bild zu Bild zu bestimmen, werden für alle neun Pixel des Mikromusters und eines damit zu vergleichenden 3×3-Mikromusters die Betragsdifferenzen gebildet und aufsummiert:
K = Σ |Pixel(Bn) - Pixel (Bn-1)|.
Dadurch wird ein Maß für den Grad der Übereinstimmung zu vergleichender 3×3 Mikromuster erhalten. Nimmt man an, daß die Flugrichtung des Flugkörpers genau parallel zu den Zeilen der Bilder verläuft, dann braucht man das Mikromuster 74 nur innerhalb der Zeilen nach links in Fig. 5 zu verschieben, bis die Werte von K ein Minimum sind. Es wird das Minimum einer Korrelations-Funktion
K(θ) = Σ |Pixeln(x-θ,y) - Pixeln-1(x,y)|
mit θ als Verschiebe-Koordinate bestimmt. Die Lage des Minimums ist mit θmin bezeichnet. Die Summe wird dabei wieder über alle neun die ursprüngliche Position und die Suchposition umgebenden Pixel gebildet. Wird θ von der Lage des Mikromusters im (n-1)-ten Bild an gerechnet, so ist θmin die Länge des Verschiebevektors 76 für das betreffende Mikromuster zwischen zwei Bildern. K(θmin) ist ein Maß für die Güte der Übereinstimmung. Die Übereinstimmung ist umso besser, je kleiner K(θmin) ist.
Im einzelnen geht diese Prozedur folgendermaßen vor sich: Das n-te Bild wird zeilenweise verarbeitet. Durch die drei Prozessor-Elemente 80, 82 und 84 werden zunächst die drei Pixel 86, 88 und 90 der ersten Reihe des Mikromusters mit den Pixeln verglichen, die von dem (n-1)-ten Bild her in den Speicherelementen 92, 94 und 96 gespeichert sind. Es werden durch die Prozessor-Elemente 80, 82 und 84 die Differenzen der Pixelinhalte gebildet. Die Beträge dieser Differenzen werden addiert und in einem Speicherelement des lokalen Speichers des mittleren Prozessor-Elements 82 gespeichert. Dann werden in gleicher Weise die Pixel 98, 100, 102 der zweiten Reihe des Mikromusters 74A mit den Pixeln verglichen, die von dem (n-1)­ ten Bild her in den Speicherelementen 104, 106 und 108 der lokalen Speicher der Prozessor-Elemente 80, 82 bzw. 84 gespeichert sind. Es werden wieder die Differenzen der Pixelinhalte gebildet. Die Beträge dieser Differenzen werden addiert und zu der im lokalen Speicher des mittleren Speicherelements gespeicherten Differenzen-Summe addiert. Das gleiche geschieht mit den drei Pixeln der dritten Reihe des Mikromusters 74A und den in den Speicherelementen 110, 112 und 114 gespeicherten Pixeln. Auch hier werden die Differenzen der Pixelinhalte und die Summe der Beträge dieser Differenzen gebildet und wieder zu der im lokalen Speicher des Prozessor- Elements 82 von den anderen beiden Zeilen her gespeicherten Differenzen-Summe addiert. Im lokalen Speicher des in bezug auf das Mikromuster 74A mittleren Prozessor-Elements 82 ist daher die Korrelations-Funktion des Mikromusters 74A des Bildes (n-1) mit dem vom Bild n her "darunter" gespeicherten Mikromuster gebildet.
Anschließend wird das Mikromuster 74A "um einen Schritt verschoben", d. h. es wird in in gleicher Weise mit dem in den lokalen Speichern der Prozessor-Elemente 82, 84 und 116 gespeicherten 3×3-Mikromuster verglichen und die Korrelations- Funktion gebildet. Das geht schrittweise weiter, bis der Vergleich mit dem Mikromuster 74 erfolgt. Die Mikromuster 74 und 74A stimmen überein. Die Korrelations-Funktion wird ein Minimum, im Idealfall null. Damit ist das Mikromuster 74 des (n-1)-ten Bildes im Mikromuster 74A des n-ten Bildes "wiedergefunden" worden. Aus der Anzahl der hierzu erforderlichen Schritte, der Variablen θ, ergibt sich der Verschiebevektor 76, um den das Mikromuster 74 sich in dem Zeitinterval vom (n-1)-ten Bild zum n-ten Bild im Gesichtsfeld des Sensors 56 verschoben hat. Im vorliegenden Fall erstreckt sich dieser Verschiebevektor in Zeilenrichtung. Der Betrag des Zeilenvektors 76 wird zu der Summe vorher ermittelter Verschiebevektoren des betreffenden Mikromusters addiert. Die letztere Summe war in dem lokalen Speicher des mittleren Prozessorelements am Ort des Mikromusters 74 gespeichert. Die neue Summe wird in dem lokalen Speicher des Prozessor-Elements 82 gespeichert. Das Mikromuster 74A wird in den lokalen Speichern der Prozessor-Elemente 80, 82 und 84 gespeichert. Das Mikromuster 74 wird gelöscht.
Es wird jetzt die gleiche Operation mit dem (n+1)-ten Bild und dem n-ten Bild wiederholt. Dieser Vorgang wiederholt sich mit der Sequenz der Bilder.
Die beschriebene Prozedur kann parallel von allen Prozessor- Elementen 70 der Reihe für alle gültigen Mikromuster einer Zeile durchgeführt werden. In Fig. 5 sind nur drei Zeilen des laufenden Bildes dargestellt. Tatsächlich enthält das Bild wesentlich mehr Zeilen. Diese Zeilen werden nacheinander mittels der Prozessor-Elemente 70 in der beschriebenen Weise mit den darin enthaltenen Mikromustern abgearbeitet.
Zum fort laufenden Hinzunehmen von neuen Mikromustern aus jüngeren Bildern bedarf es eines Zulassungstests für Mikromuster. Nicht jede 3×3-Matrix des Bildes kann und sollte als Mikromuster in der beschriebenen Weise verarbeitet werden. Es gibt homogene oder - im Vergleich zum Bildrauschen - strukturschwache Bereiche im Bild, bei denen die beschriebene Prozedur versagen würde. Daher werden nur diejenigen 3×3- Bereiche als gültige Mikromuster zugelassen, die eine vorgegebene Mindest-Auffälligkeit aufweisen und damit hinreichend ausgeprägte und nicht durch Bildrauschen verfälschte Minima der Korrelations-Funktion erwarten lassen. Als Kriterium hierfür dient ein Varianzmaß.
Die Mikromuster wandern auf diese Weise über das Gesichtsfeld des Sensors 56. Für diejenigen Mikromuster, die den hinteren Rand des Gesichtsfeldes erreicht haben, werden die gespeicherten Kenndaten ausgelesen. Diese Kenndaten umfassen die zeitliche Länge des Gesamtweges des Mikromusters, die Länge der gesamten Verschiebestrecke und mindestens den Grauwert des mittleren Pixels. Die zeitliche Länge des Gesamtweges ist die Differenz zwischen dem ersten Auftauchen des Mikromusters und seinem letzten Verschiebevorgang. Diese zeitliche Länge ergibt sich als Differenz der zugehörigen Bildnummern dividiert durch die Bildfrequenz. Die Länge der Verschiebestrecke ergibt sich als Differenz der Spaltadressen von erster und letzter Position des Mikromusters. Dabei kann noch eine z. B. parabolische Interpolation zwischen den drei das theoretische Minimum der Korrelations-Funktion umgebenden Stützwerten der Korrelations-Funktion durchgeführt werden, um diese Länge auf Bruchteile von Pixeln genau zu bestimmen. Die Kenndaten werden an die Rechnerstufe 60 weitergegeben.
Aus den Kenndaten kann dann die jeweilige Stereobasis bestimmt werden. Durch einfache Triangulation ergibt sich der Ort des durch das Mikromuster repräsentierten Objektdetails.
Die zum Schluß durchzuführende Projektion der so gewonnenen dreidimensionalen Geländedarstellung in eine horizontale Ebene geschieht im einfachsten Fall durch Nullsetzen der Höhenkoordinate.
Zum Mustervergleich in der Rechnerstufe 62 zwischen der projizierten, zweidimensionalen Geländedarstellung und dem im Speicher 64 gespeicherten Geländeprofil wird zunächst zu Beginn der Navigations-Stützung ein gesuchtes Muster, z. B. eine Straßenkreuzung wie Punkt "A" in Fig. 3, als ein Satz von Regeln zum Zusammensetzen des Musters aus elementaren Bildelementen wie Strichen und Winkeln kodiert. Dieser Satz von Regeln bildet eine Art "Konstruktions-Vorschrift" für das gesuchte Muster. Läßt sich aus den in der projizierten Geländedarstellung enthaltenen Bildelementen das gesuchte Muster, so wie es die Konstruktions-Vorschrift beschreibt, wiederfinden, so gilt das Muster als gefunden. Dieses Verfahren entspricht etwa dem Verfahren in der oben angeführten Literaturstelle "Agard Conference Proceedings" No. 474 (1990). Der Vorteil dieses Verfahrens für das erste Suchen bei nur ungenauer Kenntnis von Lage, Orientierung und Größe des gesuchten Musters ist die weitgehende Toleranz gegenüber größeren Translations-, Rotations- und Maßstabsvariationen.
Wenn auf diese Weise ein Einstieg beim Mustervergleich zwischen aus den Sensorbildern gewonnener Geländedarstellung und gespeichertem Geländemodell (Landkarte) gefunden ist, kann die Lage weiterer, im Laufe des Fluges sichtbar werdender Objekte zunehmend genauer vorhergesagt werden. Die Suchbereiche werden klein. Maßstabs- und Rotationsabweichungen werden praktisch vernachlässigbar. Dann werden Musterkorrelations-Verfahren, wie sie oben im Zusammenhang mit den Mikromustern beschrieben wurden, angewandt.

Claims (13)

1. Verfahren zur Stützung der Trägheitsnavigation eines ein entferntes Ziel autonom ansteuernden Flugkörpers mittels eines unter einem endlichen Winkel seitwärts zur Flugrichtung blickenden, das überflogene Gelände erfassenden, bilderzeugenden Sensors, der Geländedaten liefert, aus denen durch Vergleich mit bekannten Geländedaten eine Position des Flugkörpers gewonnen wird, wobei wiederum diese Position mit der von der Trägheitsnavigation bestimmten Position verglichen und das Trägheitsnavigations-System nach Maßgabe dieses Vergleichs korrigiert wird dadurch gekennzeichnet, daß
  • (a) durch den bilderzeugenden Sensor während der Bewegung des Flugkörpers über dem Gelände aus verschiedenen Flugkörperpositionen laufend Bilder des überflogenen Geländes zur Erzeugung einer Bildsequenz aufgenommen werden,
  • (b) diese Bilder elektronisch gespeichert werden,
  • (c) aus gespeicherten Bildern und den zugehörigen, aus der Trägheitsnavigation erhaltenen Positionsdifferenzen des Flugkörpers durch Stereobild-Auswertung eine eine dreidimensionale Darstellung des Geländes berechnet wird,
  • (d) die berechnete Darstellung des Geländes mit einem gespeicherten Modell des Geländes verglichen und daraus die Position und der Kurs des Flugkörpers bestimmt wird.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß durch den bilderzeugenden Sensor Folgen von Bildern in kurzen Zeitintervallen erzeugt und gespeichert werden und die dreidimensionale Darstellungen des Geländes im Abstand der besagten Zeitintervalle jeweils aus Paaren von Bildern dieser Folge erzeugt werden, deren Aufnahmezeitpunkte sich um eine Mehrzahl von solchen Zeitintervallen unterscheiden.
3. Verfahren nach Anspruch 2, dadurch gekennzeichnet, daß in den Bildern des bilderzeugenden Sensors kontrastreiche Mikromuster laufend verfolgt und zur Berechnung der dreidimensionalen Darstellung der Stereobild-Auswertung unterworfen werden.
4. Verfahren nach Anspruch 3, dadurch gekennzeichnet, daß aus jedem Bild der Sequenz jeweils nur die kontrastreichen Mikromuster gespeichert und verarbeitet werden.
5. Verfahren nach Anspruch 4, dadurch gekennzeichnet, daß
  • - ein Mikromuster in einem Bild der Sequenz gespeichert wird,
  • - in dem nächstfolgenden Bild das inzwischen durch die Bewegung des Flugkörpers im Gesichtsfeld des Sensors um einen Verschiebevektor verschobene Mikromuster durch ein Korrelations-Verfahren aufgesucht wird, und
  • - das so aufgesuchte verschobene Mikromuster zusammen mit Kenndaten des Mikromusters neu gespeichert wird.
6. Verfahren nach Anspruch 5, dadurch gekennzeichnet, daß die Kenndaten jedes Mikromuster nach Durchlaufen des gesamten Gesichtsfeldes des Sensors zur Berechnung der Lage des Mikromusters in einer dreidimensionalen Geländedarstellung ausgelesen werden.
7. Verfahren nach Anspruch 6, dadurch gekennzeichnet, daß die gespeicherten Kenndaten jedes Mikromusters wenigstens folgende Informationen umfassen:
  • - die laufenden Nummern der Bilder, in denen das Mikromuster erstmalig und letztmalig im Bild auftrat,
  • - den Verschiebevektor zwischen den Lagen des Mikromusters bei erstmaligem und letztmaligem Auftreten und
  • - den Grauwert eines zentralen Pixels des Mikromusters.
8. Verfahren nach einem der Ansprüche 5 bis 7, dadurch gekennzeichnet, daß die Mikromuster zeilenweise und in jeder Zeile parallel verarbeitet werden.
9. Verfahren nach Anspruch 8, dadurch gekennzeichnet, daß alle in einer Zeile auftretenden Mikromuster parallel verarbeitet werden.
10. Verfahren nach einem der Ansprüche 1 bis 9, dadurch gekennzeichnet, daß die dreidimensionale Darstellung des Geländes durch rechnerische Projektion der Darstellung auf eine horizontale Ebene in eine zweidimensionale Darstellung umgesetzt und mit einem gespeicherten zweidimensionalen Geländemodell verglichen wird.
11. Verfahren nach Anspruch 10, dadurch gekennzeichnet, daß
  • - zum Einstieg in die Positionsstützung zunächst markante Punkte des Geländes gesucht werden, die nach bestimmten Regeln aus elementaren Bildbestandteilen aufgebaut sind und
  • - nach Auffinden dieser Punkte und Positionsstützung durch Vergleich der gefundenen Punkte mit dem gespeicherten Geländemodell die weitere Positionsstützung durch ein Musterkorrelations- Verfahren erfolgt.
12. Vorrichtung zur Stützung der Trägheitsnavigation eines ein entferntes Ziel autonom ansteuernden Flugkörpers zur Durchführung des Verfahrens nach Anspruch 1, gekennzeichnet durch
  • (a) einen unter einem endlichen Winkel seitwärts zur Flugrichtung blickenden, das überflogene Gelände (10) erfassenden, bilderzeugenden Sensor (56), durch den während der Bewegung des Flugkörpers über dem Gelände (10) aus verschiedenen Flugkörperpositionen (26, 30) laufend Bilder des überflogenen Geländes (10) zur Erzeugung einer Bildsequenz aufnehmbar sind,
  • (b) einen Speicher (68) zum elektronischen Speichern der von dem bilderzeugenden Sensor (56) aufgenommenen Bilder,
  • (c) Rechnermittel mit Mitteln (58, 60) zum Berechnen einer dreidimensionalen Darstellung des Geländes (10) aus gespeicherten Bildern (32, 34) und den zugehörigen, aus der Trägheitsnavigation erhaltenen Positionsdifferenzen des Flugkörpers durch Stereobild-Auswertung,
  • (d) Mittel zum Speichern eines dreidimensionalen Modells des überflogenen Geländes (10),
  • (e) Mittel (62) zum Vergleichen der berechneten dreidimensionalen Darstellung der Landschaft mit dem gespeicherten Modell der Landschaft (10) und
  • (f) Mittel (66) zum Bestimmen der Position und des Kurses des Flugkörpers aus dem Vergleich der berechneten Darstellung des Geländes und des gespeicherten Modells dieses Geländes.
13. Vorrichtung nach Anspruch 5, dadurch gekennzeichnet, daß die Rechnermittel eine Parallelrechner-Struktur (70, 72) enthalten.
DE4416557A 1994-05-11 1994-05-11 Verfahren und Vorrichtung zur Stützung der Trägheitsnavigation eines ein entferntes Ziel autonom ansteuernden Flugkörpers Withdrawn DE4416557A1 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE4416557A DE4416557A1 (de) 1994-05-11 1994-05-11 Verfahren und Vorrichtung zur Stützung der Trägheitsnavigation eines ein entferntes Ziel autonom ansteuernden Flugkörpers
FR9505188A FR2719920A1 (fr) 1994-05-11 1995-04-26 Procédé et dispositif destinés à soutenir la navigation inertielle d'un missile se dirigeant de façon autonome sur une cible éloignée.
GB9508451A GB2289389B (en) 1994-05-11 1995-04-26 Method and device of updating the inertial navigation of a missile autonomously heading for a remote target

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE4416557A DE4416557A1 (de) 1994-05-11 1994-05-11 Verfahren und Vorrichtung zur Stützung der Trägheitsnavigation eines ein entferntes Ziel autonom ansteuernden Flugkörpers

Publications (1)

Publication Number Publication Date
DE4416557A1 true DE4416557A1 (de) 1995-11-23

Family

ID=6517824

Family Applications (1)

Application Number Title Priority Date Filing Date
DE4416557A Withdrawn DE4416557A1 (de) 1994-05-11 1994-05-11 Verfahren und Vorrichtung zur Stützung der Trägheitsnavigation eines ein entferntes Ziel autonom ansteuernden Flugkörpers

Country Status (3)

Country Link
DE (1) DE4416557A1 (de)
FR (1) FR2719920A1 (de)
GB (1) GB2289389B (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004057263A1 (en) * 2002-12-19 2004-07-08 Rafael-Armament Development Authority Ltd. A personal rifle-launched reconnaissance system
DE102007018187A1 (de) * 2007-04-18 2008-10-30 Lfk-Lenkflugkörpersysteme Gmbh Verfahren zur Optimierung der bildgestützten automatischen Navigation eines unbemannten Flugkörpers
DE102007054950A1 (de) * 2007-11-17 2009-08-06 Lfk-Lenkflugkörpersysteme Gmbh Verfahren zur Stützung der selbsttätigen Navigation eines niedrig fliegenden Flugkörpers

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB9714720D0 (en) * 1997-07-14 2001-03-14 British Aerospace Inertial navigation accuracy enhancement
AU756108B2 (en) * 1998-04-15 2003-01-02 Commonwealth Scientific And Industrial Research Organisation Method of tracking and sensing position of objects
AUPP299498A0 (en) 1998-04-15 1998-05-07 Commonwealth Scientific And Industrial Research Organisation Method of tracking and sensing position of objects
US6577953B1 (en) * 2002-02-19 2003-06-10 Motorola, Inc. Device for use with a portable inertial navigation system (PINS) and method for processing PINS signals
US20040041999A1 (en) * 2002-08-28 2004-03-04 Hogan John M. Method and apparatus for determining the geographic location of a target
WO2005119178A1 (en) * 2004-06-02 2005-12-15 Athena Technologies, Inc. Image-augmented inertial navigation system (iains) and method
FR2897163B1 (fr) 2006-02-08 2008-04-11 Thales Sa Procede de geo-localisation d'une ou plusieurs cibles
US8213706B2 (en) 2008-04-22 2012-07-03 Honeywell International Inc. Method and system for real-time visual odometry
ATE544048T1 (de) * 2008-06-09 2012-02-15 Honeywell Int Inc Navigationsverfahren und -system unter verwendung von geländemerkmalen
DE102012224107A1 (de) 2012-12-20 2014-06-26 Continental Teves Ag & Co. Ohg Verfahren zum Bestimmen einer Referenzposition als Startposition für ein Trägheitsnavigationssystem
FR3071624B1 (fr) * 2017-09-22 2019-10-11 Thales Systeme d'affichage, procede d'affichage et programme d'ordinateur associes

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE2641447C2 (de) * 1976-09-15 1983-11-24 Vereinigte Flugtechnische Werke Gmbh, 2800 Bremen Anordnung zur navigatorischen Steuerung von Flugkörpern
US4144571A (en) * 1977-03-15 1979-03-13 E-Systems, Inc. Vehicle guidance system
DE2965307D1 (en) * 1979-05-09 1983-06-09 Hughes Aircraft Co Scene tracker system
DE2938853A1 (de) * 1979-09-26 1981-04-09 Vereinigte Flugtechnische Werke Gmbh, 2800 Bremen Flaechennavigationssystem fuer luftfahrzeuge
US4520445A (en) * 1981-03-30 1985-05-28 E-Systems, Inc. Method of determining the position and velocity of a vehicle
DE3133570C2 (de) * 1981-08-25 1983-06-30 Diehl GmbH & Co, 8500 Nürnberg Verfahren zum Aufnehmen und Verarbeiten von Detektor-Ausgangssignalen bei der optoelektronischen Geländeaufnahme und Anordnung zum Ausüben eines solchen Verfahrens
DE3219032C3 (de) * 1982-05-19 1988-07-07 Messerschmitt-Bölkow-Blohm GmbH, 8000 München Stereophotogrammetrisches aufnahme- und auswerteverfahren
FR2539867A1 (fr) * 1983-01-25 1984-07-27 Thomson Csf Appareil indicateur de donnees topographiques enregistrees sur film et son utilisation pour la navigation aerienne
US4635203A (en) * 1984-04-06 1987-01-06 Honeywell Inc. Passive range measurement apparatus and method
EP0381178A1 (de) * 1989-02-02 1990-08-08 Honeywell Inc. Methode und Gerät zur Flugzeugnavigation
US5146228A (en) * 1990-01-24 1992-09-08 The Johns Hopkins University Coherent correlation addition for increasing match information in scene matching navigation systems
FR2699666B1 (fr) * 1992-12-22 1995-02-24 Telecommunications Sa Procédé de navigation pour aéronef à l'aide d'un modèle numérique de terrain.

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004057263A1 (en) * 2002-12-19 2004-07-08 Rafael-Armament Development Authority Ltd. A personal rifle-launched reconnaissance system
US7679037B2 (en) 2002-12-19 2010-03-16 Rafael-Armament Development Authority Ltd. Personal rifle-launched reconnaisance system
DE102007018187A1 (de) * 2007-04-18 2008-10-30 Lfk-Lenkflugkörpersysteme Gmbh Verfahren zur Optimierung der bildgestützten automatischen Navigation eines unbemannten Flugkörpers
DE102007018187B4 (de) * 2007-04-18 2013-03-28 Lfk-Lenkflugkörpersysteme Gmbh Verfahren zur Optimierung der bildgestützten automatischen Navigation eines unbemannten Flugkörpers
DE102007054950A1 (de) * 2007-11-17 2009-08-06 Lfk-Lenkflugkörpersysteme Gmbh Verfahren zur Stützung der selbsttätigen Navigation eines niedrig fliegenden Flugkörpers
DE102007054950B4 (de) * 2007-11-17 2013-05-02 Mbda Deutschland Gmbh Verfahren zur Stützung der selbsttätigen Navigation eines niedrig fliegenden Flugkörpers

Also Published As

Publication number Publication date
FR2719920A1 (fr) 1995-11-17
FR2719920B1 (de) 1997-03-07
GB9508451D0 (en) 1995-06-14
GB2289389A (en) 1995-11-15
GB2289389B (en) 1998-06-24

Similar Documents

Publication Publication Date Title
DE69836522T2 (de) Lagenerkennungssystem eines selbstbewegenden Kraftwagens
EP0027168B1 (de) Stereo-photogrammetrische Vorrichtung für Fluggeräte und Raumflugkörper zur Erzeugung einer digitalen Geländedarstellung
EP1673589B1 (de) Verfahren und vorrichtung zur bestimmung der aktualposition eines geodätischen instrumentes
DE60308413T2 (de) Verfahren und vorrichtung zum bearbeiten und analysieren von digitalen gelände daten.
DE4006989C2 (de) Nachführende Abstandsmeßvorrichtung
DE19528465C2 (de) Verfahren und Vorrichtung zur schnellen Erfassung der Lage einer Zielmarke
DE3937427A1 (de) Bildverarbeitungsgeraet
WO2006075017A1 (de) Verfahren und geodätisches gerät zur vermessung wenigstens eines zieles
CH695120A5 (de) Anordnung und Verfahren zur Bestimmung der räumlichen Koordinaten mindestens eines Objekpunktes.
DE10308525A1 (de) Vermessungssystem
DE4416557A1 (de) Verfahren und Vorrichtung zur Stützung der Trägheitsnavigation eines ein entferntes Ziel autonom ansteuernden Flugkörpers
DE102007054950B4 (de) Verfahren zur Stützung der selbsttätigen Navigation eines niedrig fliegenden Flugkörpers
DE4130010A1 (de) Fahrzeugbeobachtungs-vorrichtung mit abstandsmess-funktion
DE3219032A1 (de) Stereophotogrammetrisches aufnahme- und auswerteverfahren sowie auswertevorrichtung
DE69829091T2 (de) Messungsgerät
DE69117896T2 (de) Verfahren und Vorrichtung zur Verbesserung der Zuverlässigkeit von Flugzeugflugdaten
DE102010018143A1 (de) Verfahren zur Bestimmung von Positionsdaten eines Zielobjekts in einem Referenzsystem
EP2350977B1 (de) Verfahren zur bildfusion von zumindest zwei bildern zu einem panoramabild
DE4109159A1 (de) Verfahren und vorrichtung zum verfolgen eines fahrzeugs
DE4218600C2 (de) Einrichtung zur Bestimmung von Bewegungsgrößen eines Flugkörpers
EP1098268A2 (de) Verfahren zur dreidimensionalen optischen Vermessung von Objektoberflächen
DE102017118993A1 (de) Verfahren zur Identifizierung eines Schiffes
DE10292353B4 (de) Vorrichtung zur autonomen Navigation von Satelliten
DE69310695T2 (de) Verfahren zur Steuerungshilfe eines tieffliegenden Flugkörpers
DE19627938B4 (de) Verfahren zur dynamischen Spurverfolgung in Bewegtbildsequenzen

Legal Events

Date Code Title Description
8110 Request for examination paragraph 44
8127 New person/name/address of the applicant

Owner name: DIEHL BGT DEFENCE GMBH & CO. KG, 88662 UBERLINGEN,

8139 Disposal/non-payment of the annual fee