DE3523303C2 - Korrelationsprozessoranordnung - Google Patents

Korrelationsprozessoranordnung

Info

Publication number
DE3523303C2
DE3523303C2 DE3523303A DE3523303A DE3523303C2 DE 3523303 C2 DE3523303 C2 DE 3523303C2 DE 3523303 A DE3523303 A DE 3523303A DE 3523303 A DE3523303 A DE 3523303A DE 3523303 C2 DE3523303 C2 DE 3523303C2
Authority
DE
Germany
Prior art keywords
phase
data
target
navigation
scene
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE3523303A
Other languages
English (en)
Other versions
DE3523303A1 (de
Inventor
Christopher John Tucker
George Dr Brown
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
BAE Systems Electronics Ltd
Original Assignee
GEC Marconi Ltd
Marconi Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GEC Marconi Ltd, Marconi Co Ltd filed Critical GEC Marconi Ltd
Publication of DE3523303A1 publication Critical patent/DE3523303A1/de
Application granted granted Critical
Publication of DE3523303C2 publication Critical patent/DE3523303C2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G7/00Direction control systems for self-propelled missiles
    • F41G7/20Direction control systems for self-propelled missiles based on continuous observation of target position
    • F41G7/22Homing guidance systems
    • F41G7/2226Homing guidance systems comparing the observed data with stored target data, e.g. target configuration data
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G7/00Direction control systems for self-propelled missiles
    • F41G7/20Direction control systems for self-propelled missiles based on continuous observation of target position
    • F41G7/22Homing guidance systems
    • F41G7/2253Passive homing systems, i.e. comprising a receiver and do not requiring an active illumination of the target
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G7/00Direction control systems for self-propelled missiles
    • F41G7/20Direction control systems for self-propelled missiles based on continuous observation of target position
    • F41G7/22Homing guidance systems
    • F41G7/2273Homing guidance systems characterised by the type of waves
    • F41G7/2293Homing guidance systems characterised by the type of waves using electromagnetic waves other than radio waves
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G7/00Direction control systems for self-propelled missiles
    • F41G7/34Direction control systems for self-propelled missiles based on predetermined target position data
    • F41G7/343Direction control systems for self-propelled missiles based on predetermined target position data comparing observed and stored data of target position or of distinctive marks along the path towards the target

Description

Die Erfindung betrifft eine Korrelationsprozessoranordnung zum Leiten eines Körpers, mit einem Korrelator, der während einer ersten Leitphase bei bewegtem Körper gesammelte, für die betrachtete Umgebung des Kör­ pers repräsentative Szenendaten mit vorbestimmten gespeicherten Daten korreliert, die für ein erwartetes Gesichtsfeld repräsentativ sind.
Eine Korrelationsprozessoranordnung dieser Art ist aus der Zeitschrift "Wehrtechnik, 10, 1979", Seiten 23 bis 25, bekannt. Bei dieser der Navi­ gation und dem Zielanflug von Marschflugkörpern dienenden Anordnung werden während der Navigationsphase die während des Flugs gemessenen Scenendaten mit gespeicherten Daten korreliert, die zuvor anhand von Messungen während Aufklärungsflügen ermittelt wurden. Dasselbe Ver­ fahren wird, lediglich mit erhöhter Genauigkeit, auch in der Zielanflug­ phase angewandt.
Bei einem aus der DE 29 38 853 A1 bekannten Navigationssystem werden einem Korrelationsmittel sowohl von einem Bildsensor aufgenommene Bildsignale als auch von einem Speicher ausgegebene Referenzbildsignale zugeführt. Bildsignale und Referenzsignale werden im Korrelationsmittel in aufbereiteter Form verglichen, wobei der Übereinstimmungsgrad der beiden Signale berechnet und zur Positionsbestimmung verwendet wird.
Bei einem aus der DE 30 11 556 A1 bekannten Flächennavigationssystem werden aktuell erfaßte Höhendaten mit vor dem Flug abgespeicherten Hö­ henwerten des Operationsgebietes verglichen. Ein Vergleich von Bilddaten findet nicht statt.
In der Zeitschrift "Funkschau 1966", Heft 7, Seite 202, ist ein Spannungs- und Widerstandsmeßgerät mit automatischer Bereichsumschaltung be­ schrieben. Es bestehen keinerlei Berührungspunkte zur Anwendung ir­ gendwelcher Korrelationstechniken zur Überwachung und Steuerung ei­ ner Flugphase.
Der Erfindung liegt die Aufgabe zugrunde, eine Korrelationsprozessoran­ ornung der eingangs genannten Art zu schaffen, mit der auf möglichst einfache Weise eine präzisere Durchführung einer zweiten Leitphase ge­ währleistet ist.
Diese Aufgabe wird nach der Erfindung dadurch gelöst, daß der Korrelator während einer zweiten Leitphase bei bewegtem Körper gesammelte Sze­ nendaten mit Daten korreliert, die von zuvor bei bewegtem Körper ge­ sammelten Szenendaten abgeleitet wurden, und daß von der Position des Körpers abhängige Steuermittel vorgesehen sind, um einen Übergang von der ersten in die zweite Leitphase zu bewirken.
Die höhere Präzision während der zweiten Leitphase, bei der es sich ins­ besondere um die Zielanflugphase handeln kann, wird demnach durch eine Korrelationstechnik erreicht, die von der der ersten Phase verschie­ den ist, wobei jedoch weiterhin die für die erste Leitphase erforderlichen Komponenten wie Korrelator und dergleichen verwendet werden können.
Der Übergang von der ersten in die zweite Leitphase, d. h. das Umsteuern von der ersten Korrelationsart zur andersartigen zweiten Korrelationsart erfolgt über auf die Körperposition ansprechende Steuermittel.
Die Erfindung ist somit besonders geeignet zum Leiten des Durchlaufes eines bewegten Körpers unter Benutzung von Korrelationstechniken.
Bei einer vorteilhaften Ausführungsform der Erfindung ist vorgesehen, daß sie zum Leiten eines Flugkörpers entlang einer Flugbahn ausgelegt ist, wobei die erste Leitphase eine Navigationsphase ist, die vorbestimmten gespeicherten Daten für Geländeszenen repräsentativ sind, von denen an­ genommen wird, daß sie vom Flugkörper überflogen werden, und die zweite Leitphase eine Zielanflugphase ist, daß Zielpositionserfassungs­ mittel vorgesehen sind, um den Steuermitteln Zielpositionsdaten zur Be­ stimmung des Zeitpunkts des Übergangs von der Navigationsphase zu der Zielanflugphase zu liefern, und daß Leitmittel vorgesehen sind, um in der Navigationsphase die während dieser Navigationsphase erhaltenen Korre­ lationsergebnisse zur Navigation des Flugkörpers zu nutzen und in der Zielanflugphase die während dieser Zielanflugphase erhaltenen Korrelati­ onsergebnisse dazu zu nutzen, den Flugkörper zum Ziel zu leiten.
Bei einer weiteren vorteilhaften Ausführungsform der Erfindung ist vorge­ sehen, daß während der ersten Leitphase die Szenendaten und die vorbe­ stimmten gespeicherten Daten binäre Daten sind, daß während der zwei­ ten Leitphase die Szenendaten und die von zuvor gesammelten Szenen­ daten abgeleiteten Daten digitale Mehrpegeldaten sind und daß eine Er­ fassungeinrichtung vorgesehen ist, die während einer Zwischenleitphase auf die Erfassung des Ziels in der betrachteten Umgebung anspricht und ein Umsteuern des Korrelatorbetriebs von binären Daten auf digitale Mehrpegeldaten bewirkt.
Die Erfindung ist besonders zum Navigieren eines sich in der Lufthülle bwegenden Fahrzeugs über eine relativ große Entfernung zu einer genau spezifizierten Bestimmungsstelle längs eines vorbestimmten Pfades geeig­ net. Um dies zu erreichen, wird die Bewegung des Fahrzeuges längs des Pfades zu seiner Bestimmung in drei unterschiedliche Phasen unterteilt. Die erste dieser Pha­ sen kann üblicherweise die Navigationsphase genannt werden, die zum genauen Leiten des Fahrzeuges über sehr große Entfer­ nungen geeignet ist. Die Navigationsphase wird erfüllt auf Grundlage von Szenenanpassungs-Korrelationstechniken,d. h. die Szene des Bodens, über den das Fahrzeug fliegt, wird mit ge­ speicherten Daten verglichen, die an Bord mitgeführt werden und dem Terrain entsprechen, über das das Fahrzeug zu fliegen erwartet wird, falls es seinen korrekten Kurs beibehält. Zu diesem Zweck führt das Fahrzeug eine optische oder eine Infra­ rotkamera oder dergleichen mit sich, um Videosignale zu erzeu­ gen, die für das äußere Blickfeld repräsentativ sind. Durch peri­ odisches Vergleichen der externen Szene und des entsprechenden Abschnittes der an Bord mitgeführten Daten wird die tatsächliche Position des Fahrzeuges bestimmt und kleinere Korrekturen für das Navigationssystem können hergestellt werden, um so den Kurs einzuhalten, der zur Bewegung des Fahrzeuges längs des vorbestimm­ ten Pfades erforderlich ist. Diese Navigationsphase hält an, bis das sich im Luftraum bewegende Fahrzeug genügend dicht zum Be­ stimmungsort oder Ziel gekommen ist, wie man üblicherweise sagen kann, um das Ziel innerhalb seinem Blickfeld aufzunehmen und zu beobachten. Die Aufnahme des Zieles wird während einer Zeit durchgeführt, die als Zielerfassungsphase bezeichnet wird.
Sobald das Ziel positiv identifiziert wurde, wird die Steuerung des Leitens in die dritte und abschließende Phase übergeführt, die als Zielleitphase bezeichnet wird. In der Zielleitphase wer­ den ausgewählte Blickfelder des identifizierten Zieles als Re­ ferenzdaten für darauffolgend erzeugte Blickfelder zurückgehalten, während der Körper sich dichter an das Ziel hin bewegt. Dieser Betrieb benutzt eine unterschiedliche Art von Bearbeitungsfähig­ keit, da es notwendig ist, die Identität des Zieles aufrecht zu erhalten, während sich seine Form und Ausrichtung in bezug zu dem Blickfeld ändert, da das Fahrzeug sich nähert und Manöver relativ zum Ziel unternimmt. Damit ist klar ersichtlich, daß während der Zielleitphase eine fortgesetzte und sehr rasche Überprüfung der Position des Fahrzeuges erforderlich ist, auch wenn die das Blickfeld repräsentierenden Datenmengen relativ gering sind. Das steht im Gegensatz zur Navigationsphase, bei der sehr große Datenmengen, die ein großes Gesichtsfeld repräsentieren, mit relativ nicht sehr häufig auftretenden Abständen bearbei­ tet werden.
Die Erfindung wird weiter beispielsweise anhand der Zeichnung erläutert, in der die einzige Figur in schematischer Weise eine Korrelationsprozessoranordnung gemäß der Erfindung zeigt.
Mit Bezug auf die Zeichnung wird angenommen, daß das den Luft­ raum durchfliegende Fahrzeug ein solches ist, welches seine eigenen Flugparameter, wie Höhe, Zielrichtung und Geschwindig­ keit während des Fluges mißt. Diese Parameter werden in einen dafür bestimmten Steuerprozessor 1 eingeleitet, dessen Betrieb durch einen Systemüberwacher 2 bestimmt wird, der einen System­ speicher 3 benutzt, um den Flug des Körpers zu beeinflussen. Die drei Geräte Steuerprozessor 1, Systemüberwacher 2 und System­ speicher 3 können von ziemlich üblichem Aufbau sein. Das den Luftraum durchfliegende Fahrzeug überwacht sein Blickfeld typischerweise mittels einer Videokamera-Uberwachungsanordnung 4, die ein be­ arbeitetes Videosignal erzeugt, das über eine Sensorschnitt­ stelle 5 und ein Filter 6 zu einem Szenenspeicher 7 geführt und dort zeitweilig gespeichert wird. Damit werden die externe Szene, die das sich im Luftraum bewegende Fahrzeug überfliegt, betref­ fende Daten periodisch in den Szenenspeicher 7 eingebracht, und periodisch unter Beeinflussung durch einen Zuordner (sequencer) 8 mit ausgewählten Daten verglichen, die in einem Referenz­ speicher 9 gehalten sind.
Die Daten im Referenzspeicher 9 werden von einem Hauptspeicher 10 abgezogen, wenn und sobald es erforderlich ist. Typischerweise hält der Hauptspeicher 10 alle möglichen Referenzszenen, von denen angenommen wird, daß das Fahrzeug sie überfliegt, und die Referenz­ szene, die der gegenwärtigen Stellung des Fahrzeuges entspricht, wird herausgezogen, wenn und sobald benötigt, und über einen Geo­ metrie-Prozessor 11 zu dem Referenzspeicher 9 geleitet, so daß ein bequemer Vergleich mit dem entsprechenden Inhalt des Sze­ nenspeichers 7 möglich ist. Das Filter 6 modifiziert die ankom­ menden Daten so, daß hervorstechende geometrische Merkmale, wie Straßenkreuzungen, Kanäle, Eisenbahnlinien, Flußmündungen usw. identifiziert werden. Das wird durch Erfassung von "Kanten" in dem Datenmuster erreicht und ein solches Filter ist in der Pa­ tentanmeldung in Großbritannien Nr. 8219081 beschrieben. Dar Geometrie-Prozessor 11 ist zum Ausgleich der Höhe und Zielrich­ tung des sich im Luftraum bewegenden Körpers vorhanden. Er nimmt die in der Patentanmeldung in Großbritannien 8219082 beschriebene Form an. So kann er Vergrößerung und Winkelneigung bezüglich des überflogenen Terrains ausgleichen, so daß die in den Referenzspei­ cher 9 gelangenden Daten eine Größe und Ausrichtung besitzen, die denen der Daten im Szenenspeicher entspricht. Der Ähnlichkeitsgrad zwischen dem Inhalt des Szenenspeichers 7 und dem Inhalt des Refe­ renzspeichers 9 wird durch einen Korrelator 12 bestimmt, der sein Ausgangssignal an einen Analysator 13 weiterleitet, welcher ein Signal erzeugt, das den Ähnlichkeitsgrad repräsentiert und die Wahrscheinlichkeit bewertet, daß der sich im Luftraum bewegende Körper an einer bestimmten Stelle ist. Die Art in der die Daten in Ordnungsweise organisiert werden, so daß sie mit hoher Geschwin­ digkeit zu den beiden Eingängen des Zuordners geführt werden kön­ nen, ist in der Patentanmeldung P 34 47 930.9 beschrieben.
Während dieser Phase befinden sich die Szenendaten und die Refe­ renzdaten in Binärform, da die zu behandelnde Datenmenge sehr groß sein kann, weil sie ein beträchtliches geografisches Gebiet überdeckt. Binärdaten sind außerordentlich geeignet zum Identi­ fizieren unterschiedlicher geografischer Merkmale wie Straßen­ kreuzungen oder Eisenbahnlinien.
Während der anfänglichen Navigationsphase werden alle in den Szenenspeicher 7 eingegebenen Daten von dem Videokamerasystem 4 abgeleitet. Auf diese Weise kann das Durchlaufen des sich im Luft­ raum bewegenden Fahrzeuges relativ zu bestimmten Landkennzeichen überwacht werden. So enthält der Hauptspeicher 10 vorbereitete Binärdaten, die vor dem Beginn des Fluges zusammengestellt wurden und sich auf bestimmte Straßenkreuzungen, Eisenbahnknoten, Seen und Flüsse, Küstenlinien, Flußmündungen usw. beziehen, in einem binären Format. Je nach der Geschwindigkeit des sich im Luftraum bewegenden Fahrzeuges werden die entsprechenden Infor­ mationsbilder zum richtigen Zeitpunkt ausgezogen und in den Re­ ferenzspeicher 9 eingegeben, nachdem sie vorher zur Berücksichti­ gung der Ausrichtung und Höhe des sich im Luftraum bewegenden Fahrzeuges modifiziert wurden, wie bereits erwähnt. Diese ge­ speicherten Daten werden dann mit den Realzeitdaten verglichen, die in den Szenenspeicher 7 gelangten. Wenn ein Abschnitt des Szenenspeichers gefunden ist, der vorher gespeicherten Daten entspricht, zeigt der Korrelationsanalysator an, daß die gegen­ wärtige Stellung des sich im Luftraum bewegenden Fahrzeuges be­ stimmt wurde.
Irgendwelche kleinen Stellungsfehler, d. h. Abweichungen von dem vorbestimmten Pfad, werden durch das Ausgangssignal so ausgegli­ chen, daß die Richtung, Geschwindigkeit oder Höhe des sich im Luftraum bewegenden Körpers geringfügig geändert wird, um ihn zu der nächstbezeichneten Referenzszene hin zu richten. Dieser Vor­ gang hält an, möglicherweise über viele 100 km, während das sich im Luftraum bewegende Fahrzeug sich stetig seiner vorbestimmten Be­ stimmung nähert. Der Abstand der Stellen der Referenzszenen wird selbstverständlich ausgewählt mit Bezug auf das Ausmaß der mög­ licherweise auftretenden Navigationsabweichung. In jedem Fall muß die Größe des Referenzgebietes und die Größe des Realzeit-Blick­ feldes, wie es durch das Videosignal bestimmt wird, ausreichend sein, um diese Navigationsabweichung zu erlauben, und ein Ein­ fangen der gegenwärtigen Position auch dann zu ermöglichen, wenn sie geringfügig von dem vorbestimmten Flugpfad abweicht.
Dieser Vorgang wird fortgesetzt, bis die Bestimmung oder das Ziel im Blickfeld gefunden wird. Damit wird eines der Bilder im Haupt­ speicher 10 aus der Darstellung des Zieles bestehen, wie es durch das sich im Luftraum nähernde Fahrzeug gesehen wird. Aus der Kenntnis des geplanten Flugweges und der verstrichenen Flugzeit wird die Erfassung des Zieles vorhergesagt, und das Leitsteuer- System arbeitet in seiner zweiten, der Erfassungsphase.
Das Ziel kann eine geografische Gestaltung umfassen, in einer Weise, die analog zu den Daten ist, welche während der Navigations­ phase benutzt wurden, jedoch kann auch alternativ das Ziel ein Gehäuse oder Gebäude sein mit einem unterscheidungsfähigen ther­ mischen Kennzeichen. In diesem letzteren Falle wird ein nach vorne gerichteter Infrarotfühler zur Erfassung des Zieles benutzt. In weiter Sicht erscheint irgendein heißes Ziel als eine punktför­ mige Hitzequelle mit hohem Kontrast im Vergleich zu seiner Umge­ bung, und so kann sein Vorhandensein durch Verwendung einer ent­ sprechenden Filterausgestaltung hervorgehoben werden. Damit kann das Filter 6 benutzt werden, ein wahrscheinliches Ziel in großer Entfernung während der zweiten Leitphase zu identifizieren. Aus der Kenntnis der erwarteten Position des Zieles und der Höhe des sich im Luftraum bewegenden Körpers können unkorrekte Ziele ausgeschlossen werden, um ein Übergehen von der Navigationsphase als Reaktion auf Pseudorauschsignale zu vermeiden, die einem Ziel­ kennzeichen ähneln; es ist die Bestätigung wünschenswert, daß das Ziel an derselben Stelle in aufeinanderfolgenden Bildern des op­ tischen oder thermischen Fühlersystems erscheint.
Sobald ein Ziel erfaßt wurde, geht die Leitsteuerung in die dritte Betriebsphase über, und der Analysator 13 errechnet die Position der Zielflächenmitte und bestimmt einen Annäherungspfad. Während der dritten Phase, die als die Zielleitphase bezeichnet wird, muß der Körper seine eigene Position bezüglich des Zieles verfolgen, während er zur Erreichung des Zieles manövriert. Um dies zu er­ möglichen, wird eine Mehrpegeldaten-Bearbeitung benutzt, bei der die durch Graupegel gewährten Vorteile ausgenützt werden. Ein großes Gebiet des das Ziel umgebenden Geländes repräsentierende Videosignale werden vom Videoüberwachungssystem in den Szenen­ speicher eingebracht, und ein ebenfalls an dem Zielpunkt zentrier­ ter kleinerer Bereich wird unter Steuerung des Zuordners 8 in den Referenzspeicher 9 übertragen. Beide Sätze von Video­ signalen sind im Mehrpegelformat, und der Betrieb des Zuordners und des Korrealtionsanalysators geschieht viel schneller, da ir­ gendwelche kleinere Abweichungen von dem erforderlichen Flug­ pfad sehr schnell korrigiert werden müssen. Da jedoch die Größe der Szene relativ sehr gering ist, kann diese Bearbeitung durch den gleichen Zuordner und den gleichen Korrelationsanalysator ganz adäquat vorgenommen werden, auch wenn Mehrbit-Daten benutzt werden. Eine derartige Organisation des Korrelationsvorganges wird in der Patentanmeldung P 34 47 929,5 beschrieben.
Während dieser Phase bestimmt der Korrelatonsanalysator 13 Ziel­ bewegung relativ zum Körper durch Erfassen der Stellung der Spitze des termischen Kennzeichens des Zieles. Vorteilhafterweise sorgt er auch für die folgenden Funktionen:
  • 1. Die Erfüllung eines einfachen Vorhersagefilters, so daß, wenn das Ziel durch den Korrelationsvorgang innerhalb des Gesichts­ feldes des Überwachungssystemes nicht gefunden werden kann, seine Position vorhergesagt wird auf Grundlage der vorhergehen­ den Dynamik des Zieles.
  • 2. Die Erzeugung eines Fehlersignales für das Leitsystem des sich im Luftraum bewegenden Fahrzeuges.
  • 3. Die Bestimmung, wann die Inhalte des Referenzspeichers durch Übertragung von Daten vom Szenenspeicher erneuert werden - das ist periodisch notwendig, weil das Abbild des Zieles im Gesichtsfeld wächst, wenn das sich im Luftraum bewegende Fahr­ zeug näher zu dem Ziel gelangt, und, wenn der Speicher nicht nachgestellt würde, die Referenzdaten mehr und mehr dem realen Ziel unähnlicher wären, bis es nicht länger erfaßt werden könnte.
  • 4. Koordinaten für die Mitte des in den Szenenspeicher einzuge­ benden Bereiches zu schaffen für den darauffolgenden Betriebs­ bildrahmen.
Das in Funktion 2 erhaltene Fehlersignal wird dem Flugsteuersystem zugeführt, um den Flugpfad zu ändern. Die Referenz-Nachstell­ parameter werden zu dem Zuordner zurückgeführt, während die vorausgesagte oder wahre Zielposition zu der Sensorschnitt­ stelle zurückgeführt wird, um das Blickfeld für die Überwachung zu bestimmen.
Der Systemüberwacher 2 bewirkt eine Überwachung des Betriebes des Korrelationsanalysators 13 und seines Ausgangssignales, und stellt die Bearbeitungsanordnung so um, daß sie befähigt ist, nacheinander in den drei unterschiedlichen Leitphasen, die be­ schrieben wurden, zu arbeiten. Auf diese Weise kann eine relativ geringe Anzahl von Bearbeitungsblöcken benutzt werden, um die unterschiedlichen, jedoch analogen Funktionen während des FIu­ ges des sich im Luftraum bewegenden Fahrzeuges zu schaffen. Jeder Block ist von relativ einfacher und auf ein Ziel gerich­ teter Natur, und die Hauptblöcke sind in jedem Fall so aufgebaut, wie sie in den erwähnten vorherigen Patentanmeldungen beschrie­ ben sind.

Claims (3)

1. Korrelationsprozessoranordnung zum Leiten eines Körpers, mit einem Korrelator, der während einer ersten Leitphase bei bewegtem Körper gesammelte, für die betrachtete Umge­ bung des Körpers repräsentative Szenendaten mit vorbe­ stimmten gespeicherten Daten korreliert, die für ein er­ wartetes Gesichtsfeld repräsentativ sind, dadurch gekennzeichnet, daß der Korrelator während einer zweiten Leitphase bei bewegtem Körper gesammelte Szenendaten mit Daten korre­ liert, die von zuvor bei bewegtem Körper gesammelten Sze­ nendaten abgeleitet wurden, und daß von der Position des Körpers abhängige Steuermittel vorgesehen sind, um einen Übergang von der ersten in die zweite Leitphase zu bewir­ ken.
2. Korrelationsprozessoranordnung nach Anspruch 1, dadurch gekennzeichnet, daß sie zum Leiten eines Flugkörpers entlang einer Flug­ bahn ausgelegt ist, wobei die erste Leitphase eine Navi­ gationsphase ist, die vorbestimmten gespeicherten Daten für Geländeszenen repräsentativ sind, von denen angenom­ men wird, daß sie vom Flugkörper überflogen werden, und die zweite Leitphase eine Zielanflugphase ist, daß Ziel­ positionserfassungsmittel vorgesehen sind, um den Steuer­ mitteln Zielpositionsdaten zur Bestimmung des Zeitpunkts des Übergangs von der Navigationsphase zu der Zielanflug­ phase zu liefern, und daß Leitmittel vorgesehen sind, um in der Navigationsphase die während dieser Navigations­ phase erhaltenen Korrelationsergebnisse zur Navigation des Flugkörpers zu nutzen und in der Zielanflugphase die während dieser Zielanflugphase erhaltenen Korrelationser­ gebnisse dazu zu nutzen, den Flugkörper zum Ziel zu lei­ ten.
3. Korrelationsprozessoranordnung nach Anspruch 1, dadurch gekennzeichnet, daß während der ersten Leitphase die Szenendaten und die vorbestimmten gespeicherten Daten binäre Daten sind, daß während der zweiten Leitphase die Szenendaten und die von zuvor gesammelten Szenendaten abgeleiteten Daten digitale Mehrpegeldaten sind und daß eine Erfassungsein­ richtung vorgesehen ist, die während einer Zwischenleit­ phase auf die Erfassung des Ziels in der betrachteten Umgebung anspricht und ein Umsteuern des Korrelatorbe­ triebs von binären Daten auf digitale Mehrpegeldaten bewirkt.
DE3523303A 1984-06-29 1985-06-28 Korrelationsprozessoranordnung Expired - Fee Related DE3523303C2 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
GB8416616A GB2293067B (en) 1984-06-29 1984-06-29 Processor arrangement

Publications (2)

Publication Number Publication Date
DE3523303A1 DE3523303A1 (de) 1996-05-02
DE3523303C2 true DE3523303C2 (de) 1998-03-12

Family

ID=10563181

Family Applications (1)

Application Number Title Priority Date Filing Date
DE3523303A Expired - Fee Related DE3523303C2 (de) 1984-06-29 1985-06-28 Korrelationsprozessoranordnung

Country Status (6)

Country Link
US (1) US5564650A (de)
DE (1) DE3523303C2 (de)
FR (1) FR2726104B1 (de)
GB (1) GB2293067B (de)
IT (1) IT8548288A0 (de)
NL (1) NL194282C (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10139846C1 (de) * 2001-08-14 2003-02-06 Daimler Chrysler Ag Geometrisches Matching zur Lösung von Lokalisationsproblemen

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5801970A (en) * 1995-12-06 1998-09-01 Martin Marietta Corporation Model-based feature tracking system
US6079665A (en) * 1996-11-04 2000-06-27 Trw Inc. Hyperspectral air-to-air missile seeker
US5881969A (en) 1996-12-17 1999-03-16 Raytheon Ti Systems, Inc. Lock-on-after launch missile guidance system using three dimensional scene reconstruction
US6260759B1 (en) * 1998-08-11 2001-07-17 Northrop Grumman Corporation Method for tracking a target having substantially constrained movement
DE19849857C2 (de) * 1998-10-29 2003-08-21 Eads Deutschland Gmbh Fernlenkverfahren für ein unbemanntes Luftfahrzeug
DE10158666A1 (de) * 2001-11-28 2003-06-18 Lfk Gmbh Vorrichtung und Verfahren zur autarken Zielführung eines Flugkörpers mit Hilfe außerhalb des Zielpunktes liegender Orientierungsmerkmale
IL157098A (en) * 2003-07-24 2009-07-20 Rafael Advanced Defense Sys Spectral tracking of a target
US7512462B2 (en) * 2004-11-16 2009-03-31 Northrop Grumman Corporation Automatic contingency generator
JP2007033434A (ja) * 2005-06-20 2007-02-08 Denso Corp 車両用現在位置検出装置、及び車両制御装置
US8406464B2 (en) 2005-06-23 2013-03-26 Israel Aerospace Industries Ltd. System and method for tracking moving objects
CN1996194A (zh) * 2005-12-31 2007-07-11 清华大学 一种运动物体定位纠偏系统及其运动跟踪方法
US7970506B2 (en) * 2006-01-19 2011-06-28 Lockheed Martin Corporation System for maintaining communication between teams of vehicles
US8244455B2 (en) * 2008-09-09 2012-08-14 Honeywell International Inc. Apparatus and method for determining the position of a vehicle with respect to a terrain
DE102011010987A1 (de) * 2010-03-24 2011-09-29 Lfk-Lenkflugkörpersysteme Gmbh Navigationsverfahren für einen Flugkörper
US8525088B1 (en) * 2012-03-21 2013-09-03 Rosemont Aerospace, Inc. View-point guided weapon system and target designation method
IL219639A (en) 2012-05-08 2016-04-21 Israel Aerospace Ind Ltd Remote object tracking
US10212396B2 (en) 2013-01-15 2019-02-19 Israel Aerospace Industries Ltd Remote tracking of objects
IL224273B (en) 2013-01-17 2018-05-31 Cohen Yossi Delay compensation during remote sensor control
IL227982B (en) 2013-08-15 2018-11-29 Rafael Advanced Defense Systems Ltd A missile system with navigation capability based on image processing
US11371806B2 (en) * 2019-08-05 2022-06-28 Bae Systems Information And Electronic Systems Integration Inc. Midbody camera/sensor navigation and automatic target recognition

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE2938853A1 (de) * 1979-09-26 1981-04-09 Vereinigte Flugtechnische Werke Gmbh, 2800 Bremen Flaechennavigationssystem fuer luftfahrzeuge
DE3011556A1 (de) * 1980-03-26 1981-10-01 Vereinigte Flugtechnische Werke Gmbh, 2800 Bremen Flaechennavigationssystem fuer luft- und/oder wasserfahrzeuge
DE3447930C1 (de) * 1983-07-15 1996-04-25 Marconi Gec Ltd Datenprozessor

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3459392A (en) * 1959-09-24 1969-08-05 Goodyear Aerospace Corp Passive homing guidance system
US3416752A (en) * 1966-03-23 1968-12-17 Martin Marietta Corp Correlation guidance system having multiple switchable field of view
US3943277A (en) * 1969-02-20 1976-03-09 The United States Of America As Represented By The Secretary Of The Navy Digital memory area correlation tracker
GB1568058A (en) * 1975-11-21 1980-05-21 Emi Ltd Tracking and/or huidance systems
DE2831825C2 (de) * 1978-07-20 1986-05-07 Licentia Patent-Verwaltungs-Gmbh, 6000 Frankfurt Zielanflugverfahren für einen sich selbst lenkenden Flugkörper
DE2914693C2 (de) * 1979-04-11 1982-05-27 Messerschmitt-Bölkow-Blohm GmbH, 8000 München Vorrichtung zur Präzisionsnavigation
EP0069541A3 (de) * 1981-07-04 1985-12-27 Gec-Marconi Limited Datenverarbeitungsanordnung
US4546433A (en) * 1981-07-04 1985-10-08 Gec Avionics Limited Arrangement for processing data in a two-dimensional array
DE3241896A1 (de) * 1982-11-12 1984-05-17 Licentia Patent-Verwaltungs-Gmbh, 6000 Frankfurt Verfahren zur verbesserung der bildverarbeitung bei optronischen flugkoerpererfassungsgeraeten
US4602336A (en) * 1983-05-16 1986-07-22 Gec Avionics Limited Guidance systems

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE2938853A1 (de) * 1979-09-26 1981-04-09 Vereinigte Flugtechnische Werke Gmbh, 2800 Bremen Flaechennavigationssystem fuer luftfahrzeuge
DE3011556A1 (de) * 1980-03-26 1981-10-01 Vereinigte Flugtechnische Werke Gmbh, 2800 Bremen Flaechennavigationssystem fuer luft- und/oder wasserfahrzeuge
DE3447930C1 (de) * 1983-07-15 1996-04-25 Marconi Gec Ltd Datenprozessor

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Wehrtechnik 10, 1979, S. 23-25 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10139846C1 (de) * 2001-08-14 2003-02-06 Daimler Chrysler Ag Geometrisches Matching zur Lösung von Lokalisationsproblemen

Also Published As

Publication number Publication date
GB8416616D0 (en) 1995-11-22
FR2726104B1 (fr) 1998-01-02
NL194282C (nl) 2001-11-05
DE3523303A1 (de) 1996-05-02
NL194282B (nl) 2001-07-02
FR2726104A1 (fr) 1996-04-26
NL8501822A (nl) 1996-10-01
GB2293067B (en) 1996-07-10
IT8548288A0 (it) 1985-06-27
GB2293067A8 (en) 1999-03-25
US5564650A (en) 1996-10-15
GB2293067A (en) 1996-03-13

Similar Documents

Publication Publication Date Title
DE3523303C2 (de) Korrelationsprozessoranordnung
DE60202743T2 (de) Verfahren zur Erkennung einer Verkehrsumgebung und System zu dessen Durchführung
EP2963631B1 (de) Verfahren zum ermitteln eines parkplatzes aus einer anzahl von messpunkten
EP1418444A1 (de) Verfahren zur Bestimmung einer Eigenbewegung eines Fahrzeugs
DE102016209232B4 (de) Verfahren, Vorrichtung und computerlesbares Speichermedium mit Instruktionen zur Bestimmung der lateralen Position eines Fahrzeuges relativ zu den Fahrstreifen einer Fahrbahn
DE102007054950B4 (de) Verfahren zur Stützung der selbsttätigen Navigation eines niedrig fliegenden Flugkörpers
EP2033165B1 (de) Verfahren für die erfassung eines verkehrsraums
DE102018111935A1 (de) Bildverarbeitungssystem, Bildverarbeitungsverfahren, Informationsverarbeitungsvorrichtung und Aufzeichnungsmedium
DE4138270C2 (de) Verfahren zur Navigation eines selbstfahrenden Landfahrzeugs
EP2387017B1 (de) Verfahren und Vorrichtung zur Erfassung von Verkehrsdaten aus digitalen Luftbildsequenzen
DE102016205867A1 (de) Verfahren zur Bestimmung einer Pose eines wenigstens teilautomatisiert fahrenden Fahrzeugs mittels verschiedener Landmarkentypen
EP2799903B1 (de) Verfahren zur Erfassung von Geschwindigkeitsverstößen mit restriktiver Datenspeicherung
DE4416557A1 (de) Verfahren und Vorrichtung zur Stützung der Trägheitsnavigation eines ein entferntes Ziel autonom ansteuernden Flugkörpers
DE3626030C2 (de) Verfahren und Vorrichtung zur Entdeckung einer bevorstehenden Sichtverbindungsunterbrechung zwischen einem Flugzeug und einem Ziel, insbesondere in einem Laser-Feuerleitsystem
EP2394247B1 (de) Verfahren und vorrichtung zum betrieb eines videobasierten fahrerassistenzsystems in einem fahrzeug
EP0290633A1 (de) Verfahren zum Erkennen von Änderungen in Fahrraum eines unbemannten Fahrzeuges
DE102022202548B3 (de) Verfahren zum Trainieren eines Computerprogrammprodukts
DD241471A1 (de) Verfahren und anordnung zur automatischen steuerung von luftbildkameras
EP3594624B1 (de) Verfahren zur wegstreckenmessung sowie system zur wegstreckenmessung
Murashov et al. Method of determining vehicle speed according to video stream data
DE102011006629A1 (de) Verfahren zur Bestimmung der Kollisionszeit eines mit einem Videosystem ausgerüsteten Fahrzeuges und Fahrzeugführungssystem
EP1962245B1 (de) Verfahren und Vorrichtung zum Ermitteln des Bewegungszustands von Objekten
EP0125350A1 (de) Leitsystem für sich bewegenden Körper der seine Umgebung beobachtet und korreliert
DE102018213994A1 (de) Verfahren und System zur Bestimmung der Bewegung eines Kraftfahrzeuges
DE102016003360A1 (de) Verfahren zur Selbstlokalisierung eines Fahrzeugs

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
D2 Grant after examination
8364 No opposition during term of opposition
8327 Change in the person/name/address of the patent owner

Owner name: BAE SYSTEMS ELECTRONICS LTD., FARNBOROUGH, HAMPSHI

8339 Ceased/non-payment of the annual fee