DE4416557A1 - Verfahren und Vorrichtung zur Stützung der Trägheitsnavigation eines ein entferntes Ziel autonom ansteuernden Flugkörpers - Google Patents
Verfahren und Vorrichtung zur Stützung der Trägheitsnavigation eines ein entferntes Ziel autonom ansteuernden FlugkörpersInfo
- Publication number
- DE4416557A1 DE4416557A1 DE4416557A DE4416557A DE4416557A1 DE 4416557 A1 DE4416557 A1 DE 4416557A1 DE 4416557 A DE4416557 A DE 4416557A DE 4416557 A DE4416557 A DE 4416557A DE 4416557 A1 DE4416557 A1 DE 4416557A1
- Authority
- DE
- Germany
- Prior art keywords
- terrain
- missile
- stored
- image
- images
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000000034 method Methods 0.000 title claims abstract description 36
- 238000011156 evaluation Methods 0.000 claims abstract description 6
- 230000015654 memory Effects 0.000 claims description 22
- 238000003384 imaging method Methods 0.000 claims description 19
- 239000013598 vector Substances 0.000 claims description 12
- 238000006073 displacement reaction Methods 0.000 claims description 9
- 238000005314 correlation function Methods 0.000 description 14
- 238000004364 calculation method Methods 0.000 description 6
- 230000000007 visual effect Effects 0.000 description 6
- 238000012545 processing Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 4
- 238000012937 correction Methods 0.000 description 3
- 238000010276 construction Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 230000001154 acute effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 230000008685 targeting Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/12—Target-seeking control
-
- F—MECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
- F41—WEAPONS
- F41G—WEAPON SIGHTS; AIMING
- F41G7/00—Direction control systems for self-propelled missiles
- F41G7/34—Direction control systems for self-propelled missiles based on predetermined target position data
- F41G7/343—Direction control systems for self-propelled missiles based on predetermined target position data comparing observed and stored data of target position or of distinctive marks along the path towards the target
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/005—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S5/00—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
- G01S5/16—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Aviation & Aerospace Engineering (AREA)
- General Engineering & Computer Science (AREA)
- Combustion & Propulsion (AREA)
- Chemical & Material Sciences (AREA)
- Electromagnetism (AREA)
- Navigation (AREA)
- Image Processing (AREA)
- Length Measuring Devices By Optical Means (AREA)
Description
Die Erfindung betrifft ein Verfahren zur Stützung der
Trägheitsnavigation eines ein entferntes Ziel autonom
ansteuernden Flugkörpers mittels eines unter einem endlichen
Winkel seitwärts zur Flugrichtung blickenden, das überflogene
Gelände erfassenden, bilderzeugenden Sensors, der Geländedaten
liefert, aus denen durch Vergleich mit bekannten Geländedaten
eine Position des Flugkörpers gewonnen wird, wobei wiederum
diese Position mit der von der Trägheitsnavigation bestimmten
Position verglichen und das Trägheitsnavigations-System nach
Maßgabe dieses Vergleichs korrigiert wird.
Die Erfindung betrifft weiterhin eine Vorrichtung zur Stützung
der Trägheitsnavigation eines ein entferntes Ziel autonom
ansteuernden Flugkörpers zur Durchführung dieses Verfahrens.
Niedrig fliegende, autonome Flugkörper sind beispielsweise
sog. "Marschflugkörper". Die Navigation solcher Flugkörper
basiert primär auf Trägheitsnavigation. Eine mit Kreiseln und
Beschleunigungsmessern aufgebaute Trägheitssensor-Einheit
liefert Daten über Position, Geschwindigkeit und Kurs des
Flugkörpers. Solche Trägheitssensor-Einheiten weisen eine
Drift auf. Die angezeigte Position und der Kurs des
Flugkörpers ändern sich langsam. Die Fehler werden umso
größer, je länger die Flugzeit dauert. Es ist daher
erforderlich, von Zeit zu Zeit Position und Kurs des
Flugkörpers zu kontrollieren und Korrekturen an der
Trägheitssensor-Einheit anzubringen.
Es ist möglich, zur Positions-Bestimmung Signale von
Navigations-Satelliten (GPS) zu empfangen und zu verarbeiten.
Die darauf beruhende Positions-Bestimmung gewährleistet hohe
Präzision. Es wird jedoch bei militärischem Gerät häufig
gefordert, daß die Navigation absolut autonom erfolgt.
Es ist weiter bekannt, das überflogene Gelände mittels eines
an Bord des Flugkörpers angeordneten Radargeräts abzutasten.
Diese Art der Positions-Kontrolle erfüllt aber nicht die
Forderung nach absoluter Passivität, also des Verbots der
Emission verräterischer, aktiver Strahlung.
Es ist weiter bekannt, mittels eines passiven, bilderzeugenden
Sensors schnappschußartig Einzelaufnahmen des überflogenen
Geländes zu machen. Wenn mindestens drei bekannte und
identifizierbare Objekte gleichzeitig im Bild sind, kann aus
den im Bild auftretenden Winkeln zwischen diesen Objekten
sowie den Winkeln zur Blickrichtung durch dreidimensionales
Rückwärts-Einschneiden sowohl der Ort als auch die
Orientierung des Sensors zum Zeitpunkt der Aufnahme des Bildes
berechnet werden. Erfaßt der bilderzeugende Sensor weniger als
drei Objekte, dann kann der mittels der Trägheitssensor-
Einheit bestimmte Flugweg zwischen zwei Einzelaufnahmen in die
Berechnung einbezogen werden (R. Koch, R. Bader, W. Hinding: "A
Study of an Integrated Image and Inertial Sensor System" in
"Agard Conference Proceedings" No. 474 (1990)).
Die Anwendbarkeit dieses Verfahrens hängt davon ab, daß in
ausreichendem Maße identifizierbare Objekte im Gelände
vorhanden sind. Die Fehler der Messung hängen stark von der
Lage dieser Objekte zum Flugkörper ab. Das Erfordernis einer
eindeutigen Identifizierbarkeit bedingt einen aufwendigen
Erkennungsprozeß. Abhängig von der Blickrichtung kann es
unmöglich sein, zum Zwecke der Identifizierung des Objekts den
Bildinhalt unmittelbar mit einem gespeicherten Modell des
Objekts zu vergleichen. Vielmehr muß bei schräger
Blickrichtung über eine perspektivische Transformation des
flugkörperintern gespeicherten Geländemodells in die Bildebene
ein quantitativer Vergleich des erwarteten mit dem gesehenen
Bildinhalt durchgeführt werden. Erst mit Hilfe dieses
Vergleichs kann die Position und der Kurs bestimmt und ggf.
korrigiert werden.
Zwischen den Stütz-Objekten muß der Flugkörper "blind" nur mit
der Trägheitsnavigation navigieren. Wenn die Stütz-Objekte
nahe beieinander angeordnet sind, kann infolge der
driftbedingten Positions-Abweichung eine Verwechslung von
ähnlich aussehenden Objekten stattfinden. Fällt ein Stütz-
Objekt aus, dann kann die Positions-Abweichung so groß werden,
daß das übernächste Stütz-Objekt nicht mehr gefunden wird.
Die DE-A-34 12 533 beschreibt einen abbildenden Sensor für
dreidimensionale Szenenerfassung, insbesondere für die
Anwendung in der Industrieautomation. Mit einem bewegten,
bilderzeugenden Sensor wird eine Sequenz von Bildern aus
verschiedenen Richtungen aufgenommen. Dabei werden Paare von
Bildern erzeugt, aus denen ein stereoskopisches Bild der
aufgenommenen Szene gewonnen werden kann. Die Bildverarbeitung
erfolgt mittels eines parallelverarbeitenden, digitalen
Netzwerkes zur Ausführung schneller Korrelations-Vergleiche
von Bildausschnitten.
Die EP-A-0 122 048 beschreibt einen parallel arbeitenden
Datenprozessor.
Der Erfindung liegt die Aufgabe zugrunde, ein Verfahren der
eingangs genannten Art zur Stützung der Trägheitsnavigation
eines ein entferntes Ziel autonom ansteuernden Flugkörpers so
auszugestalten, daß
- - die von dem bilderzeugenden Sensor gelieferte Information über das Gelände bestmöglich ausgenutzt wird,
- - die Stützung der Trägheitsnavigation durch diese Information quasi-kontinuierlich erfolgt, und
- - die Stützung unabhängig von dem Vorhandensein markanter Stütz-Objekte in dem überflogenen Gelände ist.
Erfindungsgemäß wird diese Aufgabe bei einem Verfahren der
eingangs genannten Art dadurch gelöst, daß
- (a) durch den bilderzeugenden Sensor während der Bewegung des Flugkörpers über dem Gelände aus verschiedenen Flugkörperpositionen laufend Bilder des überflogenen Geländes zur Erzeugung einer Bildsequenz aufgenommen werden,
- (b) diese Bilder elektronisch gespeichert werden,
- (c) aus gespeicherten Bildern und den zugehörigen, aus der Trägheitsnavigation erhaltenen Positionsdifferenzen des Flugkörpers durch Stereobild-Auswertung eine eine dreidimensionale Darstellung des Geländes berechnet wird,
- (d) die berechnete Darstellung des Geländes mit einem gespeicherten Modell des Geländes verglichen und daraus die Position und der Kurs des Flugkörpers bestimmt wird.
Eine Vorrichtung zur Durchführung des Verfahrens ist
gekennzeichnet durch
- (a) einen unter einem endlichen Winkel seitwärts zur Flugrichtung blickenden, das überflogene Gelände erfassenden, bilderzeugenden Sensor, durch den während der Bewegung des Flugkörpers über dem Gelände aus verschiedenen Flugkörperpositionen laufend Bilder des überflogenen Geländes zur Erzeugung einer Bildsequenz aufnehmbar sind,
- (b) einen Speicher zum elektronischen Speichern der von dem bilderzeugenden Sensor aufgenommenen Bilder,
- (c) Rechnermittel mit Mitteln zum Berechnen einer dreidimensionalen Darstellung des Geländes aus gespeicherten Bildern und den zugehörigen, aus der Trägheitsnavigation erhaltenen Positionsdifferenzen des Flugkörpers durch Stereobild-Auswertung,
- (d) Mitteln zum Speichern eines dreidimensionalen Modells des überflogenen Geländes,
- (e) Mittel zum Vergleichen der berechneten dreidimensionalen Darstellung der Landschaft mit dem gespeicherten, dreidimensionalen Modell der Landschaft und
- (f) Mittel zum Bestimmen der Position und des Kurses des Flugkörpers aus dem Vergleich der berechneten Darstellung des Geländes und des gespeicherten Modells dieses Geländes.
Ausgestaltungen der Erfindung sind Gegenstand der
Unteransprüche.
Ein Ausführungsbeispiel der Erfindung ist nachstehend unter
Bezugnahme auf die zugehörigen Zeichnungen näher erläutert.
Fig. 1 ist eine schematisch-perspektivische Darstellung und
zeigt, wie ein Gelände nacheinander aus zwei Positionen
eines Flugkörpers mittels eines am Flugkörper
angebrachten, bilderzeugenden Sensors beobachtet wird.
Fig. 2 zeigt die von dem bilderzeugenden Sensor in den beiden
Positionen erfaßten Bildinhalte.
Fig. 3 veranschaulicht die Positions-Bestimmung durch Muster
vergleich des beobachteten Geländes mit einem
gespeicherten Gelände.
Fig. 4 ist ein Blockdiagramm und zeigt eine Vorrichtung zur
Stützung der Trägheitsnavigation eines ein entferntes
Ziel autonom ansteuernden Flugkörpers mittels eines
unter einem endlichen Winkel seitwärts zur Flugrichtung
blickenden, die überflogene Landschaft erfassenden,
bilderzeugenden Sensors.
Fig. 5 ist eine schematische Darstellung und veranschaulicht
die Bildverarbeitung von Mikromustern im Bild des
Geländes mittels eines Parallelrechners.
In Fig. 1 ist mit 10 ein Gelände bezeichnet, das schematisch
durch einen Baum 12, zwei Häuser 14 und 16 und einen
dazwischen verlaufenden Weg 18 angedeutet ist. Ein Flugkörper
fliegt auf einem Kurs 20 längs einer Bahn 22. Der Flugkörper
weist einen bilderzeugenden Sensor in Form einer Fernsehkamera
auf. Der bilderzeugende Sensor "blickt" unter einem endlichen
Winkel seitwärts zur Flugrichtung des Flugkörpers. Der Sensor
erfaßt in jeder Stellung ein Gesichtsfeld von rechteckigem
Querschnitt. In Fig. 1 sind das Gesichtsfeld 24 des Sensors für
eine erste Position 26 des Flugkörpers und das Gesichtsfeld 28
des Sensors für eine zweite Position 30 dargestellt.
Der Sensor liefert in den Positionen 26 und 30 Bilder 32 bzw.
34 des Geländes 10. In Bild 32 von Fig. 2 ist der Baum 12 vor
dem Haus 16 angeordnet. In Bild 34 von Fig. 2 ist der Baum 12
zwischen den Häusern 16 und 14 sichtbar. Aus den beiden
Bildern 32 und 34 kann eine stereoskopische Darstellung des
Geländes 10 berechnet werden. Die Stereobasis ist dabei der
Abstand 36 der beiden Positionen 26 und 30. Dieser Abstand
kann von der Trägheitssensor-Einheit des Flugkörpers geliefert
werden. Der durch die Drift der Trägheitssensor-Einheit
bedingte Fehler der Stereobasis ist in der Regel klein, wenn
die Bilder in nicht zu großen Zeitabständen erfaßt werden. Es
ergibt sich eine dreidimensionale Darstellung des überflogenen
Geländes. Diese dreidimensionale Darstellung des überflogenen
Geländes wird mit einem gespeicherten Modell des Geländes
verglichen. Durch eine Korrelations-Rechnung kann die
Abweichung der von der Trägheitsnavigation gelieferten
Position und des von der Trägheitsnavigation gelieferten
Kurses von der tatsächlichen Position bzw. dem tatsächlichen
Kurs bestimmt werden. Die Anzeige der Trägheitssensor-Einheit
kann dementsprechend korrigiert und gestützt werden.
Das ist in Fig. 3 schematisch dargestellt. In Fig. 3 ist mit 38
eine Bahn des Flugkörpers bezeichnet, wie sie sich aus der
Trägheitsnavigation ergibt. Demnach wäre der Flugkörper zu
einem Zeitpunkt t₀ in einer Position 40 und in einem Zeitpunkt
t₁ in einer Position 42, entsprechend den Positionen 26 und 30
in Fig. 1. Im Gesichtsfeld entsprechend dem Gesichtsfeld 28 von
Fig. 1, beobachtet der Sensor ein Gelände, das in Fig. 3 als
Straße 46 mit Einmündungen dargestellt ist. Die durch die
Trägheitsnavigation angezeigte Bahn 38 (in einer Landkarte)
und die beobachtete Straße 46, deren Lage in der Landkarte auf
diese Bahn 38 bezogen ist, sind in Fig. 3 gestrichelt
dargestellt. In der gespeicherten "Landkarte" liegt die Straße
tatsächlich an der Stelle 48. Die Bahn 38 entspricht daher
nicht der wahren Bahn - des Flugkörpers. Die von der
Trägheitsnavigation gelieferte Bahn 38 muß zu einer "wahren"
Bahn 50 mit den Positionen 52 zum Zeitpunkt t₀ und 54 zum
Zeitpunkt t₁ korrigiert werden, die zu der in der Landkarte
gespeicherten Straße 48 so liegt wie die Bahn 38 zu der
gestrichelt dargestellten Straße 46.
Das kann auf folgende Weise geschehen:
In der dreidimensionalen Darstellung des Geländes werden
kleine Fenster betrachtet, die sich durch deutliche Kontraste
auszeichnen. Das seien beispielsweise die Bereiche um die
Punkte A und B in Fig. 3. Für diese Fenster wird dann eine
Korrelations-Funktion mit dem gespeicherten Modell der
Landschaft (Landkarte) berechnet. Praktisch wird das Fenster
jeweils auf der Landkarte verschoben, bis eine optimale
Übereinstimmung vorliegt und die Korrelations-Funktion ein
Maximum hat. Auf diese Weise werden die Punkte A′ und B′ auf
der Landkarte bestimmt, die den von dem Sensor beobachteten,
kontrastreichen Fenstern um die Punkte A bzw. B entsprechen.
Hierzu bedarf es keiner Erkennung von Objekten. Im Bereich der
relativ kleinen Fenster macht sich eine durch Ungenauigkeit
der Stereobasis 36 bedingte Verzerrung der Darstellung des
Geländes nicht so stark bemerkbar, wie das der Fall wäre, wenn
die Korrelations-Funktion über den gesamten Bildinhalt hinweg
gebildet würde. Der Rechenaufwand und die erforderliche
Speicherkapazität werden gegenüber der letzteren Möglichkeit
wesentlich verringert.
Die Lage der Punkte A und B zu der fehlerbehafteten Position
42 ist bekannt. Aus der Berechnung der dreidimensionalen
Geländestruktur ergeben sich die Abstände der Position 42 von
den Punkten A bzw. B des beobachteten Geländes. Aus den
nunmehr bekannten, durch die Korrelations-Funktion bestimmten
Punkten A′ und B′ auf der Landkarte kann dann der Punkt 54 auf
der Landkarte, d. h. die wahre Position bestimmt werden. Die
wahre Position 54 liegt zu den "landkartenfesten" Punkten A′
und B′ genau so wie die von der Trägheitsnavigation gelieferte
Position 42 zu den Punkten A und B im beobachteten Gelände.
Wenn die Position des Flugkörpers auf die beschriebene Weise
bestimmt und die Trägheitssensor-Einheit entsprechend gestützt
ist, wird die weitere Bewegung der Bildpunkte quasi
kontinuierlich verfolgt. Bildpunkte werden durch kleine,
möglichst kontrastreiche "Mikromuster" von z. B. 3×3 Pixeln
definiert. Durch den Sensor werden Bilder in schneller Folge
erzeugt. In jedem Bild wird durch Bildung einer Korrelations-
Funktion oder unmittelbaren Vergleich festgestellt, wohin sich
ein in dem vorhergehenden Bild betrachtetes "Mikromuster"
bewegt hat. Dazu braucht in dem Bild jeweils nur die nähere
Umgebung der Stelle untersucht zu werden, an dem sich das
jeweilige Mikromuster auf dem vorhergehenden Bild befunden
hat. Man kann dafür sorgen, daß die Bewegung der Bildpunkte im
wesentlichen in Zeilenrichtung des Bildrasters des
bilderzeugenden Sensors erfolgt. Für jedes betrachtete
Mikromuster ergeben sich dann Verschiebevektoren, welche die
Bewegung des Mikromusters über das von dem Sensor erfaßte
Gesichtsfeld wiedergeben. Dabei treten an dem vorderen Rand
des Gesichtsfeldes ständig neue Mikromuster in das
Gesichtsfeld ein, die ausgewählt werden und deren Bewegungen
weiter verfolgt und gespeichert werden. Am rückwärtigen Rand
treten Mikromuster aus dem Gesichtsfeld aus.
Aus den Lagen der Mikromuster in verschiedenen Bildern, die
jeweils eine Zeitspanne auseinanderliegen, während welcher der
Flugkörper eine Stereobasis durchflogen hat, wird eine
dreidimensionale Darstellung des Geländes, soweit es durch die
Mikromuster repräsentiert ist, berechnet. Da die Mikromuster
bei ihrem Durchgang durch das Gesichtsfeld des Sensors ständig
verfolgt werden, ist ihre Lage in jedem der Bilder der Sequenz
bekannt. Es ist daher nicht erforderlich, Mikromuster in
zeitlich auseinanderliegenden Bildern wiederzufinden. Zur
Berechnung einer dreidimensionalen Darstellung des Geländes
wird folgendermaßen vorgegangen: Wenn ein Mikromuster an dem
vorderen Rand in das Gesichtsfeld des Sensors eintritt, wird
die laufende Nummer des zugehörigen Bildes der Sequenz
gespeichert und damit der Zeitpunkt des Eintritts dieses
Mikromusters in das Gesichtsfeld des Sensors. Das Mikromuster
wandert dann in den aufeinanderfolgenden Bildern der Sequenz
durch das Gesichtsfeld hindurch und verläßt schließlich das
Gesichtsfeld am gegenüberliegenden, hinteren Rand. Die
laufende Nummer des hierzu zugehörigen Bildes wird ebenfalls
gespeichert und damit der Zeitpunkt des Austritts des
Mikromusters aus dem Gesichtsfeld. Aus der Zeitdifferenz und
der Geschwindigkeit des Flugkörpers ergibt sich die
Stereobasis. Damit kann der Ort des Mikromusters
dreidimensional berechnet werden. In gleicher Weise wird für
alle durch das Gesichtsfeld hindurchlaufenden, betrachteten
Mikromuster verfahren. Dadurch wird ständig eine
dreidimensionale Darstellung des vom Gesichtsfeld des Sensors
überstrichenen Geländes erhalten.
Anhand der Mikromuster können kontrastreiche Fenster in dem
beobachteten Gelände, die für die Stützung der
Trägheitsnavigation benutzt werden, von Bild zu Bild ständig
verfolgt werden. Die quasi-kontinuierlich berechnete
dreidimensionale Darstellung des Geländes in dem Fenster wird
laufend mit einem gespeicherten Geländemodell verglichen.
Daraus kann wieder durch Bildung einer Korrelations-Funktion
zwischen dieser Darstellung des Geländes und dem Geländemodell
über das Fenster in der oben beschriebenen Weise ständig die
wahre Position des Flugkörpers ermittelt werden. Dabei
wechseln sich die Berechnung der dreidimensionalen Darstellung
des Geländes und die Korrektur der von der Trägheitsnavigation
gelieferten Position ständig ab. Die von der
Trägheitsnavigation angegebene Flugbahn weicht dadurch nur
geringfügig von der wahren Flugbahn ab. Dementsprechend kann
sich die Berechnung der Korrelations-Funktion für die
Bestimmung der Abweichung auch nur auf die unmittelbare
Nachbarschaft des im Gesichtsfeld des Sensors festgelegten
Fensters beschränken.
Die stetige Fortschreibung des Vergleichs zwischen dem akut
beobachteten Gelände und dem mitgeführten Geländemodell
(Landkarte) ermöglicht auch die Einbeziehung sonst als kleine
Einzelobjekte schwer identifizierbarer Bildinhalte. Aus dem
Geländemodell kann schon entnommen werden, was von dem Sensor
in dem Bild beobachtet werden kann, da die Lage des Fensters
in dem Geländemodell weitgehend bekannt ist. Es können dann
solche Bildinhalte "gesucht" und mit verarbeitet werden. Damit
wird die Ausnutzung von wenig charakteristischen Bilddetails
möglich, die für sich genommen noch keine Ableitung einer
Positions-Information zulassen würden. Hierdurch ergibt sich
eine Redundanz, die insbesondere in strukturschwachem Gelände
erforderlich ist.
Fig. 4 zeigt als Blockdiagramm eine Vorrichtung zur
Durchführung des beschriebenen Verfahrens.
In Fig. 4 ist mit 56 ein bilderzeugender Sensor bezeichnet. Der
bilderzeugende Sensor ist eine Videokamera. Der Sensor 56
liefert Bilder an einen Parallelrechner 58. Der
Parallelrechner 58 vergleicht die Mikromuster mit der
erforderlichen hohen Bearbeitungs-Geschwindigkeit. Der
Parallelrechner 58 liefert zu jedem Mikromuster, das auf
seiner Wanderung durch mehrere Bilder beobachtet wird, die
Länge des Verschiebevektors des Mikromusters sowie die
Bildnummern des ersten und des letzten Bildes, in welchem
dieses Mikromuster beobachtet wurde.
Eine anschließende Rechnerstufe 60 ist aus Standard-
Rechnerbausteinen, etwa den üblichen Signalprozessoren,
aufgebaut. Die Rechnerstufe 60 erhält den
Fluggeschwindigkeits-Vektor von der Trägheitssensor-Einheit
und die Flugzeit zwischen demjenigen Bild der Sequenz von
Bildern des Sensors 56, in welchem ein beobachtetes
Mikromuster erstmals auftritt, und demjenigen Bild, in welchem
das Mikromuster den hinteren Rand des Bildfeldes erreicht. Aus
der Zeitdifferenz zwischen den Bildern und dem
Fluggeschwindigkeits-Vektor wird eine Stereobasis berechnet.
Durch Triangulation wird damit der Ort des durch das
Mikromusters repräsentierten Geländedetails in der
dreidimensionalen Geländedarstellung bestimmt. Die
Rechnerstufe bewirkt weiterhin eine Projektion der aus den
verschiedenen Mikromustern erhaltenen dreidimensionalen
Geländedarstellung auf eine horizontale Ebene. Dadurch wird
eine zweidimensionale Geländedarstellung ähnlich einer
Landkarte erhalten zum Vergleich mit einem ebenfalls
zweidimensionalen, landkartenartigen Geländemodell, das in dem
Flugkörper gespeichert ist.
Eine dritte Rechnerstufe 62 bewirkt einen Vergleich der aus
den Bildern des Sensors 56 in der beschriebenen Weise
gewonnenen Geländedarstellung mit einem Geländemodell, das in
einem Speicher 64 gespeichert ist. Die Rechnerstufe liefert
die Verschiebung der aus den Bilden des Sensors 56 gewonnenen
Geländedarstellung (im Koordinatensystem des Geländemodells)
gegenüber dem Geländemodell. Daraus werden in einem
Navigationsrechner 66 in der unter Bezugnahme auf Fig. 3
beschriebenen Weise die wahre Position und der wahre Kurs des
Flugkörpers in dem Geländemodell (der Landkarte) bestimmt. Aus
den Abweichungen von Position und Kurs des Flugkörpers werden
Korrekturwerte für die Trägheitssensor-Einheit abgeleitet.
Fig. 5 veranschaulicht die Bildverarbeitung von Mikromustern im
Bild des Geländes mittels des Parallelrechners 58.
In der schematischen Darstellung von Fig. 5 sind mit 68
Speicherelemente bezeichnet, in denen Bildelemente des von dem
Sensor 56 erfaßten Bildes gespeichert sind. Fig. 5 zeigt drei
Zeilen solcher Speicherelemente 68, in denen die Bildelemente
dreier Zeilen des Bildes gespeichert sind. Der Parallelrechner
58, der die erste Rechnerstufe bildet, enthält eine
eindimensionale Anordnung von Prozessor-Elementen 70. Jedem
Prozessor-Element 70 ist ein lokaler Speicher 72 mit mehreren
Speicherzellen zugeordnet.
Von den Bildelementen (Pixeln) eines (n-1)-ten Bildes ist ein
"Mikromuster" 74 von 3×3 Pixeln an seinem Ort in dem (n-1)
ten Bild gespeichert. Zu diesem Zweck ist das (n-1)-te Bild
zeilenweise durch die Prozessor-Elemente 70 abgetastet worden.
Die Pixel der verschiedenen Zeilen sind in den
Speicherelementen in den verschiedenen Ebenen des lokalen
Speichers 72 abgelegt, also "untereinander" in Fig. 5.
Im n-ten Bild erscheint das gleiche Mikromuster durch die
Bewegung des Sensors 56 als Mikromuster 74A an einer anderen
Stelle des Bildes, nämlich weiter links in Fig. 5. Es gilt, die
Verschiebung zu bestimmen. Das geschieht mittels eines
Korrelations-Verfahrens. Um die Länge des Verschiebevektors
des Mikromusters 74 von Bild zu Bild zu bestimmen, werden für
alle neun Pixel des Mikromusters und eines damit zu
vergleichenden 3×3-Mikromusters die Betragsdifferenzen
gebildet und aufsummiert:
K = Σ |Pixel(Bn) - Pixel (Bn-1)|.
Dadurch wird ein Maß für den Grad der Übereinstimmung zu
vergleichender 3×3 Mikromuster erhalten. Nimmt man an, daß
die Flugrichtung des Flugkörpers genau parallel zu den Zeilen
der Bilder verläuft, dann braucht man das Mikromuster 74 nur
innerhalb der Zeilen nach links in Fig. 5 zu verschieben, bis
die Werte von K ein Minimum sind. Es wird das Minimum einer
Korrelations-Funktion
K(θ) = Σ |Pixeln(x-θ,y) - Pixeln-1(x,y)|
mit θ als Verschiebe-Koordinate bestimmt. Die Lage des
Minimums ist mit θmin bezeichnet. Die Summe wird dabei wieder
über alle neun die ursprüngliche Position und die Suchposition
umgebenden Pixel gebildet. Wird θ von der Lage des
Mikromusters im (n-1)-ten Bild an gerechnet, so ist θmin die
Länge des Verschiebevektors 76 für das betreffende Mikromuster
zwischen zwei Bildern. K(θmin) ist ein Maß für die Güte der
Übereinstimmung. Die Übereinstimmung ist umso besser, je
kleiner K(θmin) ist.
Im einzelnen geht diese Prozedur folgendermaßen vor sich: Das
n-te Bild wird zeilenweise verarbeitet. Durch die drei
Prozessor-Elemente 80, 82 und 84 werden zunächst die drei
Pixel 86, 88 und 90 der ersten Reihe des Mikromusters mit den
Pixeln verglichen, die von dem (n-1)-ten Bild her in den
Speicherelementen 92, 94 und 96 gespeichert sind. Es werden
durch die Prozessor-Elemente 80, 82 und 84 die Differenzen der
Pixelinhalte gebildet. Die Beträge dieser Differenzen werden
addiert und in einem Speicherelement des lokalen Speichers des
mittleren Prozessor-Elements 82 gespeichert. Dann werden in
gleicher Weise die Pixel 98, 100, 102 der zweiten Reihe des
Mikromusters 74A mit den Pixeln verglichen, die von dem (n-1)
ten Bild her in den Speicherelementen 104, 106 und 108 der
lokalen Speicher der Prozessor-Elemente 80, 82 bzw. 84
gespeichert sind. Es werden wieder die Differenzen der
Pixelinhalte gebildet. Die Beträge dieser Differenzen werden
addiert und zu der im lokalen Speicher des mittleren
Speicherelements gespeicherten Differenzen-Summe addiert. Das
gleiche geschieht mit den drei Pixeln der dritten Reihe des
Mikromusters 74A und den in den Speicherelementen 110, 112 und
114 gespeicherten Pixeln. Auch hier werden die Differenzen der
Pixelinhalte und die Summe der Beträge dieser Differenzen
gebildet und wieder zu der im lokalen Speicher des Prozessor-
Elements 82 von den anderen beiden Zeilen her gespeicherten
Differenzen-Summe addiert. Im lokalen Speicher des in bezug
auf das Mikromuster 74A mittleren Prozessor-Elements 82 ist
daher die Korrelations-Funktion des Mikromusters 74A des
Bildes (n-1) mit dem vom Bild n her "darunter" gespeicherten
Mikromuster gebildet.
Anschließend wird das Mikromuster 74A "um einen Schritt
verschoben", d. h. es wird in in gleicher Weise mit dem in den
lokalen Speichern der Prozessor-Elemente 82, 84 und 116
gespeicherten 3×3-Mikromuster verglichen und die Korrelations-
Funktion gebildet. Das geht schrittweise weiter, bis der
Vergleich mit dem Mikromuster 74 erfolgt. Die Mikromuster 74
und 74A stimmen überein. Die Korrelations-Funktion wird ein
Minimum, im Idealfall null. Damit ist das Mikromuster 74 des
(n-1)-ten Bildes im Mikromuster 74A des n-ten Bildes
"wiedergefunden" worden. Aus der Anzahl der hierzu
erforderlichen Schritte, der Variablen θ, ergibt sich der
Verschiebevektor 76, um den das Mikromuster 74 sich in dem
Zeitinterval vom (n-1)-ten Bild zum n-ten Bild im Gesichtsfeld
des Sensors 56 verschoben hat. Im vorliegenden Fall erstreckt
sich dieser Verschiebevektor in Zeilenrichtung. Der Betrag des
Zeilenvektors 76 wird zu der Summe vorher ermittelter
Verschiebevektoren des betreffenden Mikromusters addiert. Die
letztere Summe war in dem lokalen Speicher des mittleren
Prozessorelements am Ort des Mikromusters 74 gespeichert. Die
neue Summe wird in dem lokalen Speicher des Prozessor-Elements
82 gespeichert. Das Mikromuster 74A wird in den lokalen
Speichern der Prozessor-Elemente 80, 82 und 84 gespeichert.
Das Mikromuster 74 wird gelöscht.
Es wird jetzt die gleiche Operation mit dem (n+1)-ten Bild und
dem n-ten Bild wiederholt. Dieser Vorgang wiederholt sich mit
der Sequenz der Bilder.
Die beschriebene Prozedur kann parallel von allen Prozessor-
Elementen 70 der Reihe für alle gültigen Mikromuster einer
Zeile durchgeführt werden. In Fig. 5 sind nur drei Zeilen des
laufenden Bildes dargestellt. Tatsächlich enthält das Bild
wesentlich mehr Zeilen. Diese Zeilen werden nacheinander
mittels der Prozessor-Elemente 70 in der beschriebenen Weise
mit den darin enthaltenen Mikromustern abgearbeitet.
Zum fort laufenden Hinzunehmen von neuen Mikromustern aus
jüngeren Bildern bedarf es eines Zulassungstests für
Mikromuster. Nicht jede 3×3-Matrix des Bildes kann und sollte
als Mikromuster in der beschriebenen Weise verarbeitet werden.
Es gibt homogene oder - im Vergleich zum Bildrauschen -
strukturschwache Bereiche im Bild, bei denen die beschriebene
Prozedur versagen würde. Daher werden nur diejenigen 3×3-
Bereiche als gültige Mikromuster zugelassen, die eine
vorgegebene Mindest-Auffälligkeit aufweisen und damit
hinreichend ausgeprägte und nicht durch Bildrauschen
verfälschte Minima der Korrelations-Funktion erwarten lassen.
Als Kriterium hierfür dient ein Varianzmaß.
Die Mikromuster wandern auf diese Weise über das Gesichtsfeld
des Sensors 56. Für diejenigen Mikromuster, die den hinteren
Rand des Gesichtsfeldes erreicht haben, werden die
gespeicherten Kenndaten ausgelesen. Diese Kenndaten umfassen
die zeitliche Länge des Gesamtweges des Mikromusters, die
Länge der gesamten Verschiebestrecke und mindestens den
Grauwert des mittleren Pixels. Die zeitliche Länge des
Gesamtweges ist die Differenz zwischen dem ersten Auftauchen
des Mikromusters und seinem letzten Verschiebevorgang. Diese
zeitliche Länge ergibt sich als Differenz der zugehörigen
Bildnummern dividiert durch die Bildfrequenz. Die Länge der
Verschiebestrecke ergibt sich als Differenz der Spaltadressen
von erster und letzter Position des Mikromusters. Dabei kann
noch eine z. B. parabolische Interpolation zwischen den drei
das theoretische Minimum der Korrelations-Funktion umgebenden
Stützwerten der Korrelations-Funktion durchgeführt werden, um
diese Länge auf Bruchteile von Pixeln genau zu bestimmen. Die
Kenndaten werden an die Rechnerstufe 60 weitergegeben.
Aus den Kenndaten kann dann die jeweilige Stereobasis bestimmt
werden. Durch einfache Triangulation ergibt sich der Ort des
durch das Mikromuster repräsentierten Objektdetails.
Die zum Schluß durchzuführende Projektion der so gewonnenen
dreidimensionalen Geländedarstellung in eine horizontale Ebene
geschieht im einfachsten Fall durch Nullsetzen der
Höhenkoordinate.
Zum Mustervergleich in der Rechnerstufe 62 zwischen der
projizierten, zweidimensionalen Geländedarstellung und dem im
Speicher 64 gespeicherten Geländeprofil wird zunächst zu
Beginn der Navigations-Stützung ein gesuchtes Muster, z. B.
eine Straßenkreuzung wie Punkt "A" in Fig. 3, als ein Satz von
Regeln zum Zusammensetzen des Musters aus elementaren
Bildelementen wie Strichen und Winkeln kodiert. Dieser Satz
von Regeln bildet eine Art "Konstruktions-Vorschrift" für das
gesuchte Muster. Läßt sich aus den in der projizierten
Geländedarstellung enthaltenen Bildelementen das gesuchte
Muster, so wie es die Konstruktions-Vorschrift beschreibt,
wiederfinden, so gilt das Muster als gefunden. Dieses
Verfahren entspricht etwa dem Verfahren in der oben
angeführten Literaturstelle "Agard Conference Proceedings"
No. 474 (1990). Der Vorteil dieses Verfahrens für das erste
Suchen bei nur ungenauer Kenntnis von Lage, Orientierung und
Größe des gesuchten Musters ist die weitgehende Toleranz
gegenüber größeren Translations-, Rotations- und
Maßstabsvariationen.
Wenn auf diese Weise ein Einstieg beim Mustervergleich
zwischen aus den Sensorbildern gewonnener Geländedarstellung
und gespeichertem Geländemodell (Landkarte) gefunden ist, kann
die Lage weiterer, im Laufe des Fluges sichtbar werdender
Objekte zunehmend genauer vorhergesagt werden. Die
Suchbereiche werden klein. Maßstabs- und Rotationsabweichungen
werden praktisch vernachlässigbar. Dann werden
Musterkorrelations-Verfahren, wie sie oben im Zusammenhang mit
den Mikromustern beschrieben wurden, angewandt.
Claims (13)
1. Verfahren zur Stützung der Trägheitsnavigation eines ein
entferntes Ziel autonom ansteuernden Flugkörpers mittels
eines unter einem endlichen Winkel seitwärts zur
Flugrichtung blickenden, das überflogene Gelände
erfassenden, bilderzeugenden Sensors, der Geländedaten
liefert, aus denen durch Vergleich mit bekannten
Geländedaten eine Position des Flugkörpers gewonnen wird,
wobei wiederum diese Position mit der von der
Trägheitsnavigation bestimmten Position verglichen und das
Trägheitsnavigations-System nach Maßgabe dieses Vergleichs
korrigiert wird
dadurch gekennzeichnet, daß
- (a) durch den bilderzeugenden Sensor während der Bewegung des Flugkörpers über dem Gelände aus verschiedenen Flugkörperpositionen laufend Bilder des überflogenen Geländes zur Erzeugung einer Bildsequenz aufgenommen werden,
- (b) diese Bilder elektronisch gespeichert werden,
- (c) aus gespeicherten Bildern und den zugehörigen, aus der Trägheitsnavigation erhaltenen Positionsdifferenzen des Flugkörpers durch Stereobild-Auswertung eine eine dreidimensionale Darstellung des Geländes berechnet wird,
- (d) die berechnete Darstellung des Geländes mit einem gespeicherten Modell des Geländes verglichen und daraus die Position und der Kurs des Flugkörpers bestimmt wird.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß
durch den bilderzeugenden Sensor Folgen von Bildern in
kurzen Zeitintervallen erzeugt und gespeichert werden und
die dreidimensionale Darstellungen des Geländes im Abstand
der besagten Zeitintervalle jeweils aus Paaren von Bildern
dieser Folge erzeugt werden, deren Aufnahmezeitpunkte sich
um eine Mehrzahl von solchen Zeitintervallen
unterscheiden.
3. Verfahren nach Anspruch 2, dadurch gekennzeichnet, daß in
den Bildern des bilderzeugenden Sensors kontrastreiche
Mikromuster laufend verfolgt und zur Berechnung der
dreidimensionalen Darstellung der Stereobild-Auswertung
unterworfen werden.
4. Verfahren nach Anspruch 3, dadurch gekennzeichnet, daß aus
jedem Bild der Sequenz jeweils nur die kontrastreichen
Mikromuster gespeichert und verarbeitet werden.
5. Verfahren nach Anspruch 4, dadurch gekennzeichnet, daß
- - ein Mikromuster in einem Bild der Sequenz gespeichert wird,
- - in dem nächstfolgenden Bild das inzwischen durch die Bewegung des Flugkörpers im Gesichtsfeld des Sensors um einen Verschiebevektor verschobene Mikromuster durch ein Korrelations-Verfahren aufgesucht wird, und
- - das so aufgesuchte verschobene Mikromuster zusammen mit Kenndaten des Mikromusters neu gespeichert wird.
6. Verfahren nach Anspruch 5, dadurch gekennzeichnet, daß die
Kenndaten jedes Mikromuster nach Durchlaufen des gesamten
Gesichtsfeldes des Sensors zur Berechnung der Lage des
Mikromusters in einer dreidimensionalen Geländedarstellung
ausgelesen werden.
7. Verfahren nach Anspruch 6, dadurch gekennzeichnet, daß die
gespeicherten Kenndaten jedes Mikromusters wenigstens
folgende Informationen umfassen:
- - die laufenden Nummern der Bilder, in denen das Mikromuster erstmalig und letztmalig im Bild auftrat,
- - den Verschiebevektor zwischen den Lagen des Mikromusters bei erstmaligem und letztmaligem Auftreten und
- - den Grauwert eines zentralen Pixels des Mikromusters.
8. Verfahren nach einem der Ansprüche 5 bis 7, dadurch
gekennzeichnet, daß die Mikromuster zeilenweise und in
jeder Zeile parallel verarbeitet werden.
9. Verfahren nach Anspruch 8, dadurch gekennzeichnet, daß
alle in einer Zeile auftretenden Mikromuster parallel
verarbeitet werden.
10. Verfahren nach einem der Ansprüche 1 bis 9, dadurch
gekennzeichnet, daß die dreidimensionale Darstellung des
Geländes durch rechnerische Projektion der Darstellung auf
eine horizontale Ebene in eine zweidimensionale
Darstellung umgesetzt und mit einem gespeicherten
zweidimensionalen Geländemodell verglichen wird.
11. Verfahren nach Anspruch 10, dadurch gekennzeichnet, daß
- - zum Einstieg in die Positionsstützung zunächst markante Punkte des Geländes gesucht werden, die nach bestimmten Regeln aus elementaren Bildbestandteilen aufgebaut sind und
- - nach Auffinden dieser Punkte und Positionsstützung durch Vergleich der gefundenen Punkte mit dem gespeicherten Geländemodell die weitere Positionsstützung durch ein Musterkorrelations- Verfahren erfolgt.
12. Vorrichtung zur Stützung der Trägheitsnavigation eines ein
entferntes Ziel autonom ansteuernden Flugkörpers zur
Durchführung des Verfahrens nach Anspruch 1,
gekennzeichnet durch
- (a) einen unter einem endlichen Winkel seitwärts zur Flugrichtung blickenden, das überflogene Gelände (10) erfassenden, bilderzeugenden Sensor (56), durch den während der Bewegung des Flugkörpers über dem Gelände (10) aus verschiedenen Flugkörperpositionen (26, 30) laufend Bilder des überflogenen Geländes (10) zur Erzeugung einer Bildsequenz aufnehmbar sind,
- (b) einen Speicher (68) zum elektronischen Speichern der von dem bilderzeugenden Sensor (56) aufgenommenen Bilder,
- (c) Rechnermittel mit Mitteln (58, 60) zum Berechnen einer dreidimensionalen Darstellung des Geländes (10) aus gespeicherten Bildern (32, 34) und den zugehörigen, aus der Trägheitsnavigation erhaltenen Positionsdifferenzen des Flugkörpers durch Stereobild-Auswertung,
- (d) Mittel zum Speichern eines dreidimensionalen Modells des überflogenen Geländes (10),
- (e) Mittel (62) zum Vergleichen der berechneten dreidimensionalen Darstellung der Landschaft mit dem gespeicherten Modell der Landschaft (10) und
- (f) Mittel (66) zum Bestimmen der Position und des Kurses des Flugkörpers aus dem Vergleich der berechneten Darstellung des Geländes und des gespeicherten Modells dieses Geländes.
13. Vorrichtung nach Anspruch 5, dadurch gekennzeichnet, daß
die Rechnermittel eine Parallelrechner-Struktur (70, 72)
enthalten.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE4416557A DE4416557A1 (de) | 1994-05-11 | 1994-05-11 | Verfahren und Vorrichtung zur Stützung der Trägheitsnavigation eines ein entferntes Ziel autonom ansteuernden Flugkörpers |
FR9505188A FR2719920A1 (fr) | 1994-05-11 | 1995-04-26 | Procédé et dispositif destinés à soutenir la navigation inertielle d'un missile se dirigeant de façon autonome sur une cible éloignée. |
GB9508451A GB2289389B (en) | 1994-05-11 | 1995-04-26 | Method and device of updating the inertial navigation of a missile autonomously heading for a remote target |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE4416557A DE4416557A1 (de) | 1994-05-11 | 1994-05-11 | Verfahren und Vorrichtung zur Stützung der Trägheitsnavigation eines ein entferntes Ziel autonom ansteuernden Flugkörpers |
Publications (1)
Publication Number | Publication Date |
---|---|
DE4416557A1 true DE4416557A1 (de) | 1995-11-23 |
Family
ID=6517824
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE4416557A Withdrawn DE4416557A1 (de) | 1994-05-11 | 1994-05-11 | Verfahren und Vorrichtung zur Stützung der Trägheitsnavigation eines ein entferntes Ziel autonom ansteuernden Flugkörpers |
Country Status (3)
Country | Link |
---|---|
DE (1) | DE4416557A1 (de) |
FR (1) | FR2719920A1 (de) |
GB (1) | GB2289389B (de) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2004057263A1 (en) * | 2002-12-19 | 2004-07-08 | Rafael-Armament Development Authority Ltd. | A personal rifle-launched reconnaissance system |
DE102007018187A1 (de) * | 2007-04-18 | 2008-10-30 | Lfk-Lenkflugkörpersysteme Gmbh | Verfahren zur Optimierung der bildgestützten automatischen Navigation eines unbemannten Flugkörpers |
DE102007054950A1 (de) * | 2007-11-17 | 2009-08-06 | Lfk-Lenkflugkörpersysteme Gmbh | Verfahren zur Stützung der selbsttätigen Navigation eines niedrig fliegenden Flugkörpers |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB9714720D0 (en) * | 1997-07-14 | 2001-03-14 | British Aerospace | Inertial navigation accuracy enhancement |
AU756108B2 (en) * | 1998-04-15 | 2003-01-02 | Commonwealth Scientific And Industrial Research Organisation | Method of tracking and sensing position of objects |
AUPP299498A0 (en) | 1998-04-15 | 1998-05-07 | Commonwealth Scientific And Industrial Research Organisation | Method of tracking and sensing position of objects |
US6577953B1 (en) * | 2002-02-19 | 2003-06-10 | Motorola, Inc. | Device for use with a portable inertial navigation system (PINS) and method for processing PINS signals |
US20040041999A1 (en) * | 2002-08-28 | 2004-03-04 | Hogan John M. | Method and apparatus for determining the geographic location of a target |
WO2005119178A1 (en) * | 2004-06-02 | 2005-12-15 | Athena Technologies, Inc. | Image-augmented inertial navigation system (iains) and method |
FR2897163B1 (fr) | 2006-02-08 | 2008-04-11 | Thales Sa | Procede de geo-localisation d'une ou plusieurs cibles |
US8213706B2 (en) | 2008-04-22 | 2012-07-03 | Honeywell International Inc. | Method and system for real-time visual odometry |
ATE544048T1 (de) * | 2008-06-09 | 2012-02-15 | Honeywell Int Inc | Navigationsverfahren und -system unter verwendung von geländemerkmalen |
DE102012224107A1 (de) | 2012-12-20 | 2014-06-26 | Continental Teves Ag & Co. Ohg | Verfahren zum Bestimmen einer Referenzposition als Startposition für ein Trägheitsnavigationssystem |
FR3071624B1 (fr) * | 2017-09-22 | 2019-10-11 | Thales | Systeme d'affichage, procede d'affichage et programme d'ordinateur associes |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE2641447C2 (de) * | 1976-09-15 | 1983-11-24 | Vereinigte Flugtechnische Werke Gmbh, 2800 Bremen | Anordnung zur navigatorischen Steuerung von Flugkörpern |
US4144571A (en) * | 1977-03-15 | 1979-03-13 | E-Systems, Inc. | Vehicle guidance system |
DE2965307D1 (en) * | 1979-05-09 | 1983-06-09 | Hughes Aircraft Co | Scene tracker system |
DE2938853A1 (de) * | 1979-09-26 | 1981-04-09 | Vereinigte Flugtechnische Werke Gmbh, 2800 Bremen | Flaechennavigationssystem fuer luftfahrzeuge |
US4520445A (en) * | 1981-03-30 | 1985-05-28 | E-Systems, Inc. | Method of determining the position and velocity of a vehicle |
DE3133570C2 (de) * | 1981-08-25 | 1983-06-30 | Diehl GmbH & Co, 8500 Nürnberg | Verfahren zum Aufnehmen und Verarbeiten von Detektor-Ausgangssignalen bei der optoelektronischen Geländeaufnahme und Anordnung zum Ausüben eines solchen Verfahrens |
DE3219032C3 (de) * | 1982-05-19 | 1988-07-07 | Messerschmitt-Bölkow-Blohm GmbH, 8000 München | Stereophotogrammetrisches aufnahme- und auswerteverfahren |
FR2539867A1 (fr) * | 1983-01-25 | 1984-07-27 | Thomson Csf | Appareil indicateur de donnees topographiques enregistrees sur film et son utilisation pour la navigation aerienne |
US4635203A (en) * | 1984-04-06 | 1987-01-06 | Honeywell Inc. | Passive range measurement apparatus and method |
EP0381178A1 (de) * | 1989-02-02 | 1990-08-08 | Honeywell Inc. | Methode und Gerät zur Flugzeugnavigation |
US5146228A (en) * | 1990-01-24 | 1992-09-08 | The Johns Hopkins University | Coherent correlation addition for increasing match information in scene matching navigation systems |
FR2699666B1 (fr) * | 1992-12-22 | 1995-02-24 | Telecommunications Sa | Procédé de navigation pour aéronef à l'aide d'un modèle numérique de terrain. |
-
1994
- 1994-05-11 DE DE4416557A patent/DE4416557A1/de not_active Withdrawn
-
1995
- 1995-04-26 FR FR9505188A patent/FR2719920A1/fr active Granted
- 1995-04-26 GB GB9508451A patent/GB2289389B/en not_active Expired - Fee Related
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2004057263A1 (en) * | 2002-12-19 | 2004-07-08 | Rafael-Armament Development Authority Ltd. | A personal rifle-launched reconnaissance system |
US7679037B2 (en) | 2002-12-19 | 2010-03-16 | Rafael-Armament Development Authority Ltd. | Personal rifle-launched reconnaisance system |
DE102007018187A1 (de) * | 2007-04-18 | 2008-10-30 | Lfk-Lenkflugkörpersysteme Gmbh | Verfahren zur Optimierung der bildgestützten automatischen Navigation eines unbemannten Flugkörpers |
DE102007018187B4 (de) * | 2007-04-18 | 2013-03-28 | Lfk-Lenkflugkörpersysteme Gmbh | Verfahren zur Optimierung der bildgestützten automatischen Navigation eines unbemannten Flugkörpers |
DE102007054950A1 (de) * | 2007-11-17 | 2009-08-06 | Lfk-Lenkflugkörpersysteme Gmbh | Verfahren zur Stützung der selbsttätigen Navigation eines niedrig fliegenden Flugkörpers |
DE102007054950B4 (de) * | 2007-11-17 | 2013-05-02 | Mbda Deutschland Gmbh | Verfahren zur Stützung der selbsttätigen Navigation eines niedrig fliegenden Flugkörpers |
Also Published As
Publication number | Publication date |
---|---|
FR2719920A1 (fr) | 1995-11-17 |
FR2719920B1 (de) | 1997-03-07 |
GB9508451D0 (en) | 1995-06-14 |
GB2289389A (en) | 1995-11-15 |
GB2289389B (en) | 1998-06-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE69836522T2 (de) | Lagenerkennungssystem eines selbstbewegenden Kraftwagens | |
EP0027168B1 (de) | Stereo-photogrammetrische Vorrichtung für Fluggeräte und Raumflugkörper zur Erzeugung einer digitalen Geländedarstellung | |
EP1673589B1 (de) | Verfahren und vorrichtung zur bestimmung der aktualposition eines geodätischen instrumentes | |
DE60308413T2 (de) | Verfahren und vorrichtung zum bearbeiten und analysieren von digitalen gelände daten. | |
DE4006989C2 (de) | Nachführende Abstandsmeßvorrichtung | |
DE19528465C2 (de) | Verfahren und Vorrichtung zur schnellen Erfassung der Lage einer Zielmarke | |
DE3937427A1 (de) | Bildverarbeitungsgeraet | |
WO2006075017A1 (de) | Verfahren und geodätisches gerät zur vermessung wenigstens eines zieles | |
CH695120A5 (de) | Anordnung und Verfahren zur Bestimmung der räumlichen Koordinaten mindestens eines Objekpunktes. | |
DE10308525A1 (de) | Vermessungssystem | |
DE4416557A1 (de) | Verfahren und Vorrichtung zur Stützung der Trägheitsnavigation eines ein entferntes Ziel autonom ansteuernden Flugkörpers | |
DE102007054950B4 (de) | Verfahren zur Stützung der selbsttätigen Navigation eines niedrig fliegenden Flugkörpers | |
DE4130010A1 (de) | Fahrzeugbeobachtungs-vorrichtung mit abstandsmess-funktion | |
DE3219032A1 (de) | Stereophotogrammetrisches aufnahme- und auswerteverfahren sowie auswertevorrichtung | |
DE69829091T2 (de) | Messungsgerät | |
DE69117896T2 (de) | Verfahren und Vorrichtung zur Verbesserung der Zuverlässigkeit von Flugzeugflugdaten | |
DE102010018143A1 (de) | Verfahren zur Bestimmung von Positionsdaten eines Zielobjekts in einem Referenzsystem | |
EP2350977B1 (de) | Verfahren zur bildfusion von zumindest zwei bildern zu einem panoramabild | |
DE4109159A1 (de) | Verfahren und vorrichtung zum verfolgen eines fahrzeugs | |
DE4218600C2 (de) | Einrichtung zur Bestimmung von Bewegungsgrößen eines Flugkörpers | |
EP1098268A2 (de) | Verfahren zur dreidimensionalen optischen Vermessung von Objektoberflächen | |
DE102017118993A1 (de) | Verfahren zur Identifizierung eines Schiffes | |
DE10292353B4 (de) | Vorrichtung zur autonomen Navigation von Satelliten | |
DE69310695T2 (de) | Verfahren zur Steuerungshilfe eines tieffliegenden Flugkörpers | |
DE19627938B4 (de) | Verfahren zur dynamischen Spurverfolgung in Bewegtbildsequenzen |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8110 | Request for examination paragraph 44 | ||
8127 | New person/name/address of the applicant |
Owner name: DIEHL BGT DEFENCE GMBH & CO. KG, 88662 UBERLINGEN, |
|
8139 | Disposal/non-payment of the annual fee |