DE69730733T2 - Flugkörperlenkungssystem mit verriegelung nach abschuss und rekonstruktion von dreidimensionalen szenen - Google Patents

Flugkörperlenkungssystem mit verriegelung nach abschuss und rekonstruktion von dreidimensionalen szenen Download PDF

Info

Publication number
DE69730733T2
DE69730733T2 DE69730733T DE69730733T DE69730733T2 DE 69730733 T2 DE69730733 T2 DE 69730733T2 DE 69730733 T DE69730733 T DE 69730733T DE 69730733 T DE69730733 T DE 69730733T DE 69730733 T2 DE69730733 T2 DE 69730733T2
Authority
DE
Germany
Prior art keywords
line
information
lines
die
der
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69730733T
Other languages
English (en)
Other versions
DE69730733D1 (de
Inventor
Keith Billy MILLER
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Raytheon Co
Original Assignee
Raytheon Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Raytheon Co filed Critical Raytheon Co
Publication of DE69730733D1 publication Critical patent/DE69730733D1/de
Application granted granted Critical
Publication of DE69730733T2 publication Critical patent/DE69730733T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G7/00Direction control systems for self-propelled missiles
    • F41G7/20Direction control systems for self-propelled missiles based on continuous observation of target position
    • F41G7/22Homing guidance systems
    • F41G7/2226Homing guidance systems comparing the observed data with stored target data, e.g. target configuration data
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G7/00Direction control systems for self-propelled missiles
    • F41G7/20Direction control systems for self-propelled missiles based on continuous observation of target position
    • F41G7/22Homing guidance systems
    • F41G7/2246Active homing systems, i.e. comprising both a transmitter and a receiver
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G7/00Direction control systems for self-propelled missiles
    • F41G7/20Direction control systems for self-propelled missiles based on continuous observation of target position
    • F41G7/22Homing guidance systems
    • F41G7/2273Homing guidance systems characterised by the type of waves
    • F41G7/2293Homing guidance systems characterised by the type of waves using electromagnetic waves other than radio waves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Electromagnetism (AREA)
  • Aiming, Guidance, Guns With A Light Source, Armor, Camouflage, And Targets (AREA)

Description

  • HINTERGRUND DER ERFINDUNG
  • FACHGEBIET DER ERFINDUNG
  • Die vorliegende Erfindung bezieht sich auf ein Leit- bzw. Lenksystem mit Zielerfassung nach dem Start (lock-on-after-launch, LOAL) und insbesondere auf ein solches Leitsystem, das eine dreidimensionale Szenenrekonstruktion für Zielerfassung nach dem Start (3D_LOAL) verwendet.
  • KURZBESCHREIBUNG DES STANDES DER TECHNIK
  • Ein großer Teil des Standes der Technik, der sich auf LOAL-Leitsysteme bezieht, bezieht sich auf Variationen des Themas des Projizierens dreidimensionaler (3D) Modelle in ihre zweidimensionalen (2D) Darstellungen und das darauf folgende Zurdeckungbringen bzw. Aufeinanderpassen dieser Darstellungen mit einem Bild. Solche Systeme sind von Ditzler, W. R. et al. auf dem Symposium "Low-Level and Nap of the Earth (N. O. E.) Night Operations", Rom, Italien, Oktober 1994 in einem Vortrag mit dem Titel "Multispectral Image Correlation for Air to Ground Targeting" beispielhaft beschrieben worden.
  • Bei dem gegenwärtigen Stand der autonomen LOAL-Algorithmen für das Leiten von Raketen ist eine mühsame Prozedur erforderlich, die als "Voranweisen" (Prebriefing) oder "Zielreferenzvorbereitung" (Target Reference Preparation) bekannt ist. "Voranweisen" ist die Handlung des Vorbereitens einer Zielbeschreibung, die der Algorithmus benötigt, um das Ziel aufzufinden, und "Voranweisung" ist das Ausgangsergebnis des Voranweisens. Bei der Voranweisungstätigkeit müssen die Missionsplaner einem regelbasierenden Ansatz folgen, in welchem sie einige hervorstechende Merkmale des Zielgebiets modellieren, welche sind: (1) einzigartig in der Form und (2) im Kontrast für die Rakete an ihrem vorgewählten Zielerfassungspunkt sichtbar. Somit müssen die Missionsplaner die "Geometrie" und die "Signatur" kennen. Geometrieinformation kann ziemlich leicht erhalten werden, aber die Signatur erfordert ferner das Identifizieren der Materialtypen der Zielobjekte und das Zerlegen in Wettereinflüsse (Wind, Wolkendecke, Atmosphäre, Sonnenwinkel usw.) und innere Wärmequellen (Erwärmung/Abkühlung, Generatoren, Kessel usw.). Auch wenn die Hauptsignaturfrage darin besteht, ob ein angemessener Kontrast für bestimmte Bereiche vorhanden ist, kann dies noch extrem zeitaufwändig sein.
  • Leistungsniveau-Prognosen (Performance level prediction) können ebenfalls äußerst zeitaufwändig sein, weil umfangreiche auf der Monte-Carlo-Methode basierende (randomisierte) Simulationen mit Rückkopplungsiteration bei dem Voranweisen durchgeführt werden müssen. Nachdem die Voranweisung vorbereitet ist, ist die Rakete startbereit.
  • Obwohl das aktuelle Voranweisungsmodell dreidimensionaler Natur und in einem Weltkoordinatensystem definiert ist, ist es nur auf einen eingeschränkten Satz von Raktenannäherungen und Sichtbereichen anwendbar. Sobald die Rakete in diesen "Korb" von Annäherungswinkeln und Annäherungsbereichen geflogen ist, wird das dreidimensionale Modell (template) in die zweidimensionalen Bildebenen projiziert, verborgene Flächen werden entfernt und das Modell wird mit dem Bild zur Deckung gebracht bzw. aufeinandergepasst. Hierbei wird der zweidimensionale Charakter dieses Aufeinanderpassungsprozesses bzw. Anpassungsprozesses zu einem beschränkenden Faktor bei der Genauigkeit der Positionierung des Zielpunkts (der Punkt in dem Zielgebiet, zu dem die Rakete hinzulenken versucht). Zum Beispiel können kleine Fehler bei Position oder Orientierung perspektivische Unterschiede verursachen, die das Aufeinanderpassen verschlechtern. Glücklicherweise gibt es bei diesem Verfahren eine gewissen Toleranz gegenüber Transformationsungenauigkeiten, jedoch stellt dieses Verfahren keinen mathematischen Mechanismus für das Korrigieren dieser Transformationsfehler zur Verfügung. Aus diesem Grunde müssen gegenüber dem Mittelpunkt dieses Modells versetzte Zielpunkte ebenfalls in kurzen Distanzen gehalten werden, weil selbst kleine Rotationsfehler zu relativ großen Zielpunktversatzfehlern führen können, die den gesamten wahrscheinlichen zirkularen Fehler (CEP), den minimalen Radius um den Zielpunkt, der 50 Prozent der tatsächlichen Raketeneinschlagpunkte enthält, verschlechtern. In vielen Fällen müssen mehrere Modelle für verschiedene Stufen der Mission definiert werden, um diese Fehler zu überwinden und Bildpunkte-auf-Ziel-Beschränkungen (pixel-on-target constraints) aufgrund der Zielgröße zu berücksichtigen.
  • MILGRAM D. L. et al. offenbart in "3-D model matching for missile guidance", IMAGE PROCESSING FOR MISSILE GUIDANCE, SAN DIEGO, USA, 29. Juli bis 1. August 1980, Band 238, Seiten 232–238, XP002076458 ISSN 0361–0748, Proceedings of the Society of Photo-Optical Instrumentation Engineers, 1980, USA, eine dreidimensionale Datenbank, welche eine Darstellung eines Bereiches enthält, der ein Ziel für eine Rakete enthält. Für Zielverfolgungszwecke hat die Rakete einen Sensor in Form eines Laserentfernungsmessers. Der Laserentfernungsmesser sendet einen Puls Laserlicht aus und wertet dann das sich ergebende Reflexionsmuster aus, um ein detektiertes Bild des Bereiches zu erhalten, welcher das Ziel enthält. Ein Laserentfernungsmesser dieses Typs kann nicht nur den Umstand erkennen, dass sich eine Reflexion ereignet hat, sondern auch die Entfernung zwischen der Rakete und der Quelle jeder Reflexion (sehr ähnlich der Art und Weise, in welcher ein Radarsystem die Entfernung zu Objekten ermitteln kann, die elektromagnetische Energie reflektieren). Auf diese Weise ist ein einzelnes Bild, das durch den Laserentfernungsmesser aus Reflexionen eines einzelnen Lichtimpulses entwickelt wird, effektiv ein "Schnappschuss" zu einem einzelnen Zeitpunkt und enthält dreidimensionale Information. Es gibt jedoch einen wesentlichen Nachteil. Insbesondere ist ein Laserentfernungsmesser ein "aktiver" Sensor, weil er einen Laserstrahl aussenden muss, um eine Reflexion zu erzeugen, die durch seinen Sensor detektiert werden kann. Auf diese Weise ist es für das Ziel möglich, die Anwesenheit der Rakete aufgrund der Pulse von Laserlicht zu erkennen und in einem Versuch, die Rakete abzulenken oder zu zerstören, Gegenmaßnahmen zu ergreifen.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • Die Erfindung bezieht sich auf ein Verfahren, wie es in Anspruch 1 beansprucht ist.
  • Das Vorstehende wird in Verbindung mit einem 3D_LOAL-Algorithmus erreicht, der aus zwei Teilen zusammengesetzt ist, von denen ein Teil 3D_Voranweisen ist (die Zielgebietsverarbeitung, die erfolgt, bevor die Rakete gestartet wird), und 3D_LOAL, der stattfindet, nachdem sich die Rakete im Flug befindet.
  • In Verbindung mit 3D_Voranweisen kann der Algorithmus verschiedene Arten von Information verwenden, um Zielpunkte zu gewinnen. Diese Arten von Information sind in der Reihenfolge der Erwünschtheit: (1) facettenbasierende, (2) drahtgitterbasierende Voranweisung und (3) aufklärungsphotobasierende Voranweisung.
  • Im Fall der facettenbasierenden Information werden einzelne Objekte im Zielgebiet durch 3D-Polygone (Facetten) beschrieben. Daher bestimmt der Algorithmus, welche Objekteigenschaften von jedem einzelnen Betrachtungspunkt sichtbar sind, und verhindert, dass verborgene Linien jemals bei dem Anpassungsprozess berücksichtigt werden. Diese Art von Information steht normalerweise für "hochwertige" Ziele zur Verfügung. Ein Zielpunkt und ein Zielverfolgungspunkt werden als 3D-Punkte beschrieben, die auf diesen Satz von 3D-Facetten bezogen sind. Der Zielverfolgungspunkt ist der Punkt an dem Ziel, den der Raketensensor zu finden versucht, und der Zielpunkt ist der Punkt, den sie zu treffen versucht. Die geodätischen Werte jeder 3D-Facette für jedes Objekt werden zusammen mit dem 3D-Zielpunkt als die Voranweisungsdatei gruppiert und gespeichert.
  • Im Fall drahtgitterbasierender Voranweisungsinformation stehen 3D-Endpunkte von Seiten von Polygonen zur Verfügung, jedoch keine Objektgruppierungsinformation. Daher können verborgene Linien nicht entfernt werden. Somit sind die Anpassungszeiten länger und die Unterscheidungsfähigkeit ist geringfügig verringert. Der Zielpunkt und der Zielverfolgungspunkt sind als 3D-Punkte beschrieben, die auf diesen Satz von 3D-Linien bezogen sind. Die geodätischen Werte der 3D-Linien-Endpunkte, des Zielpunktes und des Zielverfolgungspunktes werden als Voranweisungsdatei gespeichert.
  • Im Fall aufklärungsphotobasierender Voranweisungsinformation steht ein digitalisiertes Luftbildphoto zur Verfügung, das eine einzelne 2D-Beschreibung des Zielgebiets ergibt. Zuerst wird das Bild durch 2D_Linien_Auffindung in Bezug auf Linienmerkmale verarbeitet. Dann werden ein Zielverfolgungspunkt und ein Zielpunkt gewählt. Die extrahierten Linien mit einer Entfernung DA des Zielverfolgungspunktes werden dann berechnet. Diese Linien werden dann hervorgehoben, und die Zielpunkthöhe in Bezug auf die Linien wird in den Missionsplaner eingegeben. Die geodätischen Werte der 2D-Linien-Endpunkte, des Zielpunktes und des Zielverfolgungspunktes werden als die Voranweisungsdatei gespeichert.
  • Der während des Fluges relevante Teil des Algorithmus weist sechs Verarbeitungsstufen auf. Diese Stufen sind: (1) 3D_LOAL_MARSCHPHASE (3D_LOAL_MIDCOURSE), (2) 3D_LOAL_START, (3) 3-D_LOAL_ERMITTLE_3D_LINIEN (3D_LOAL_ACQUIRE_3D_LINES), (4) 3-D_LOAL_PASSE_PARAMETER_AN (3D_LOAL_MATCH_PARAMETERS), (5) 3-D_LOAL_ZIELERFASSUNG (3D_LOAL_LOCK_ON) und (6) 3D_LOAL_ZIELVERFOLGUNG (3D_LOAL_TRACK).
  • Während des 3D_LOAL_MARSCHPHASE-Teils (1) des Raketenfluges wird die Lenkung durch die Navigationshardware der Rakete bereitgestellt (GPS oder Trägheitsnavigation). Die Rakete wird zu einem Gebiet nahe dem Ziel geflogen. Sobald der Sichtlinienbereich (LOS) zwischen der geschätzten Rakete und dem geschätzten Zielpunkt unter den Start_Bereichs_Wert (start_range_value) abfällt, beginnt die 3D_LOAL_START-Stufe (2).
  • Wenn das facettenbasierende Voranweisungsmodell verwendet wird, läuft der 3D_LOAL-Algorithmus im Hintergrund, um verborgene Linien aus dem Voranweisungsmodell für die Betrachtungsbedingungen zu entfernen, die an dem 3D_LOAL_START-Punkt erwartet werden.
  • Wenn ein aufklärungsphotobasierendes Voranweisungsmodell verwendet wird und nur ein Zielpunkt, ein Zielverfolgungspunkt und ein Roh-Aufklärungsphoto zur Verfügung stehen, kann der 3D_LOAL-2D_Linien_Auffindung-Algorithmus im Hintergrund laufen, und das Aufklärungsphoto in Bezug auf 2D Linien verarbeitet werden, die in dem Modellanpassungsteil von 3D_LOAL zu verwenden sind. Diese Option ist für ein Operationsszenario enthalten, in dem ein Aufklärungsphoto mittels Datenfernübertragung an die Rakete nach ihrem Start übertragen worden ist.
  • Die 3D_LOAL_START-Stufe (2) sollte nur einen Rahmen lang dauern. Ihr Zweck ist es, ein 3D-Bezugssystem zu definieren, in dem die gesamte 3D-Linien-Extraktions- und -Anpassungsberech nungen und alle Zielverfolgungs-Fortschritts-Berechnungen (tracking propagation calculations) stattfinden.
  • Die Raketenorientierung wird verwendet, um das Endkoordinatensystem (terminal coordinate system) wie folgt zu definieren:
  • Der Raketen-Abwärtsvektor (der Vektor, der von dem Schwerpunkt der Rakete ausgeht und direkt auf den Erdmittelpunkt zeigt) wird auf den z-Vektor des Endkoordinatensystems abgebildet.
  • Die Komponente des Raketenkörper-Vektors (der Vektor, welcher von dem Schwerpunkt der Rakete ausgeht und durch den Nasenkegel der Rakete zeigt) parallel zu der Bodenebene (ground plane) wird in den x-Vektor des Endkoordinatensystems abgebildet.
  • Das Kreuzprodukt der Endkoordinatensystemvektoren (x × z) definiert den y-Vektor des Endkoordinatensystems.
  • Der Ursprung des Endkoordinatensystems wird als der vorgeplante Zielverfolgungspunkt berechnet.
  • Die Konvertierungstransformationen des Endkoordinatensystems zum erdzentrierten, erdfixierten Koordinatensystem (ECEF) (einem rechtshändigen, dreidimensionalen Koordinatensystem, das seinen Ursprung im Mittelpunkt der Erde, einen Z-Vektor durch den Nordpol und einen X-Vektor durch den Äquator/Greenwich-Meridian-Schnittpunkt hat) sowie die ECEF-Koordinate des Endkoordinatensystem-Ursprungs werden gespeichert. Diese Werte verändern sich für den Rest von 3D_LOAL nicht.
  • Weiterhin werden drei Bezugsebenen (Ph1 und Ph2 für horizontal ausgerichtete 3D_Linien und Pv für vertikal ausgerichtete Linien 3D_Linien) berechnet. Ph1 und Ph2 sind parallel zu dem Endkoordinaten-z-Vektor und bilden 45°-Winkel mit den x- und y-Richtungen. Pv ist die End-Bodenebene. Alle drei Ebenen schneiden den Endsystem-(0, 0, 0)-Punkt.
  • Der Zweck der 3D_LOAL_ERMITTLE_3D_LINIEN-Stufe besteht darin, eine Anzahl Ng von sich gut verhaltenden 3D_Linien (gute_3D_Linien) für das Anpassen an das gespeicherte Voranweisungsmodell oder Voranweisungsbild zu erzeugen. Es sind verschiedene Phasen der Verarbeitung erforderlich, um diese 3D-Linien zu erzeugen. Die Phasen sind: (1) 2D_Linien_Auffindung (2D_line_finding), (2) 2D_Linien_Verfolgung (2D_line_tracking), (3) 3D_Linien_Erzeugung (3D_line_creation) und (4) 3D_Linien_Filterung (3D_line_filtering).
  • In Phase (1) muss für jeden verarbeiteten Rahmen ein "2D_Linien_Sucher" (2D_line_finder) auf das eingehende Sensorbild angewendet werden. Es gibt in der offenen Literatur viele Liniensucher, die verwendet werden können, wobei Burns, Brian et al. "Extracting Straight Lines", IEEE Trans. on Pattern Analysis and Machine Intelligence, PAMI-8, Seiten 425–455, Juli 1986 und Shen, J. und Castan, S., "Further results of DRF Method for Edge Detection", 9th International Conference on Pattern Recognition, Rom, 1988 Beispiele sind. Der verwendete Liniensucher erfordert die folgenden Eigenschaften: (a) Extrahieren von 2D_Linien mit einer Genauigkeit besser als ein Bildpunkt, (b) Erzeugen eines definierten Phasenmerkmals, (c) Aufweisen eines Grades von Geradlinigkeitskontrolle und (4) Aufweisen einer Minimallängensteuerung. Der Satz der an jedem Rahmen erzeugten 2D_Linien wird an Phase (2) 2D_Linien-Verfolgung übergeben.
  • In Phase (2) wird der Satz von 2D_Linien aus jedem Rahmen korreliert und über die Zeit verfolgt. Um das zu tun, werden 2D_Linien aus Rahmen N unter Verwendung der Raketenposition und der Sensorzeigerichtungsparameter (sensor pointing parame ters) in die End-Bodenebene projiziert. Bei Rahmen N + 1 werden diese 2D_Linien-Endpositionen unter Verwendung der Raketenposition des Rahmens N + 1 und der Sensorzeigerichtungsparameter zurück in die Sensorbildebene projiziert. Wenn eine 2D_Linie aus Rahmen N + 1 mit der Position, Ausrichtung und Länge einer projizierten 2D_Linie aus Rahmen N innerhalb einer gewissen Toleranz übereinstimmt, tritt eine Korrelation auf. Eine 2D_Linie, die korreliert, wird als 2D_Verfolgung (2D_track) bezeichnet. Schließlich kann, wenn 2D_Verfolgungen über mehr und mehr Rahmen korreliert sind, zusätzliche Information, nämlich die Geschwindigkeit, für die Verfolgungen berechnet und in den Fortschritt von Rahmen zu Rahmen (frame-to-frame propagation) einbezogen werden. Es wird auch ein Kalman-Filter auf die Zustände der 2D_Verfolgungen angewendet werden, um diese Zustände weiter zu verfeinern.
  • Die 2D_Verfolgungen, die für die minimale Anzahl (Nbestätigt) von Rahmen korrelieren, werden als bestätigte_2D_Verfolgungen gekennzeichnet. Bestätigte_2D_Verfolgungen werden an die nächste Phase übergeben, in der ihre vollständigen Trajektorien für die 3D_Linien_Erzeugung-Verarbeitung aufgezeichnet werden. Diejenigen 2D_Linien, die nicht korrelieren, werden verwendet, um 2D_Verfolgungen auf dem N + 1-Rahmen zu initialisieren. Wenn diese neuen 2D_Verfolgungen nicht innerhalb einer geringen Anzahl von Rahmen (Nm von n) korrelieren, werden sie aus der Liste der 2D_Verfolgungen gelöscht. Darüber hinaus werden auch 2D_Verfolgungen gelöscht, die zu jeder beliebigen Zeit in dem 3D_LOAL-Prozess nicht über eine bestimmte Anzahl von Rahmen (Nlöschen) korrelieren.
  • In der Phase (3) 3D_Linien_Erzeugung, werden die bestätigte_2D_Verfolgung-Zustände zusammen mit der Raketenposition, der Raketenorientierung und der Sensorzeigerichtungsinformation auf jedem Rahmen gespeichert, auf dem eine bestätigte_2D_Verfolgung-Aktualisierung (Korrelation) auftritt. Der Algorithmus fährt fort, die bestätigte_2D_Verfolgung-Zustände zwischenzuspeichern, bis sich die Raketenposition hinreichend verändert hat, um einen ausreichenden Winkel zur Triangulation der realen 3D-Position der bestätigte_2D_Verfolgungen zu erzeugen. Die Länge dieses Zwischenspeicherns (Nwarten) wird für jede bestätigte_2D_Verfolgung speziell angepasst und ist eine Funktion der Raketenposition zu der Zeit, zu der die 2D_Verfolgung bestätigt wird, und der erwarteten Rahmennummer des ersten Triangulations-Schnappschusses. Im Allgemeinen ist der Wert (Nwarten) für 2D_Verfolgungen länger, die für größere Abstände erzeugt wurden. Der Warte-Wert wird unter Verwendung einer Nachschlagetabelle erzeugt, die eine Funktion des Raketen-Abwärts-Bereiches (mx), des Quer-Bereiches (my) und der Höhe (mz) in Bezug auf den erwarteten Zielpunkt ist. Eine bestätigte_2D-Verfolgung, die nicht mehr aktualisiert wird, wird nach einer Anzahl (Nlöschen-t) von Rahmen gelöscht.
  • Sobald eine bestätigte_2D_Verfolgung über ihre Warteperiode hinaus vorhanden gewesen ist, kann sie eine 3D_Linie werden. Es werden zwei Ebenen berechnet: Pjetzt-warten (Pnow-wait), die aus der Raketenposition bei Rahmen (Njetzt-warten) (Nnow-wait)) und den beiden Endpunkten der 2D_Linie aus Rahmen (Njetzt-warten) projiziert in die End-Bodenebene, zusammengesetzt ist, und Pjetzt (Pnow), die aus der Raketenposition bei Rahmen Njetzt (Nnow) und den beiden Endpunkten der 2D_Linie aus Rahmen Njetzt, projiziert in die End-Bodenebene, zusammengesetzt ist. Die Schnittlinie dieser beiden Ebenen definiert die 3D_Linie. Daraufhin wird der Schnittpunkt der 3D_Linie mit den drei Bezugsebenen berechnet. Die Bezugsebene, welche den größten Einfallswinkel erzeugt, wird für diese 3D_Linie als Bezugsebene zugeordnet. Der Schnittpunkt (intercept) der 3D_Linie ist in Bezug auf diese zugeordnete Bezugsebene über die Lebensdauer der 3D_Linie definiert. An diesem Punkt ist der Linienzustand als ein Neigungsvektor (sx, sy, sz) und ein Schnittpunkt (intercept) (ix, iy, iz) in dem Endkoordinatensystem definiert. Um ei ne 3D_Linien-Definition zu vervollständigen, müssen zwei Endpunktentfernungen d1 und d2 berechnet werden. Um diese Berechnung zur Verfügung zu stellen, werden erste Ebenen P1 und P2 berechnet, die aus der Raketenposition aus Rahmen Njetzt, der Raketenposition aus Rahmen Njetzt projiziert in die End-Bodenebene und jeweils den 2D_Linien-Endpunkten aus Rahmen Njetzt projiziert in die End-Bodenebene bestehen. Als Nächstes wird der Schnittpunkt der Ebenen P1 und P2 mit der Linie {(sx, sy, sz) (ix, iy, iz)} ermittelt, was die Punkte I1 und I2 ergibt. Schließlich werden die Entfernungen d1 und d2 der Punkte I1 und I2 von dem Punkt (ix, iy, iz) ermittelt. Die 3D_Linie wird dann als der Acht-Zustands-Vektor (sx, sy, sz, ix, iy, iz, d1, d2) initialisiert.
  • In der Phase (4) 3D_Linien_Filterung wird jede 3D_Linie auf jedem Rahmen aktualisiert, nachdem sie initialisiert wurde, wenn eine Historie für den Rahmen (Njetzt_jetzt_warten) (Nnow_now_wait)) existiert. Ein Aktualisierungszustand wird mit Ausnahme der verwendeten Historieninformation, die neuer ist, genau wie zuvor berechnet, und es ist nur der Schnittpunkt (intercept) mit der zugeordneten Bezugsebene erforderlich. Wenn sich ein 2D-Linien-Endpunkt aus dem neuen Rahmen innerhalb eines Pufferbereichs des Randes des Sensorbildes befindet, wird für diesen Endpunkt keine aktualisierte Entfernungszustandsberechnung berechnet. Der neue 3D_Linien-Zustand wird unter Verwendung eines Kalmanfilters mit dem vorherigen Zustand kombiniert. Die Varianzen der Zustände werden dann überprüft, um zu sehen, ob sie unter einen vorher festgelegten Schwellenwert (Tqc) fallen. Wenn eine 3D_Linie diese Qualitätskontrollenprüfung bestanden hat, wird sie zu einer guten_3D_Linie. Nachdem eine vorher festgelegte Anzahl (Ng) von guten_3D_Linien erhalten worden ist, geht der 3D_LOAL-Algorithmus in die 3D_LOAL_PASSE_PARAMETER_AN-Stufe über Eine 3D_Linie, die nicht mehr aktualisiert wird, bevor sie zu einer guten_3D_Linie wird, wird nach einer Anzahl (Nlöschen-t) von Rahmen gelöscht.
  • In der 3D_LOAL_PASSE_PARAMETER_AN-Stufe wird die gesamte Verarbeitung fortgesetzt, die in der früheren Stufe beschrieben wurde (d. h. 3D_LOAL fährt fort, 3D_Linien zu aktualisieren und neue zu finden). Darüber hinaus beginnt 3D_LOAL den Prozess der Anpassung des Satzes von guten_3D_Linien an einen Teilsatz der Voranweisungs-3D_Modell_Linien. Dies wird in vier Phasen erreicht, die folgendermaßen bezeichnet werden: (1) störe_Modell_Transformation (pertubate_model_transform), (2) analysiere_Modell_Linien (parse_model_lines), (3) suche_Linien_Übereinstimmungen (find_line_correspondences) und (4) Winkel_Fehler_Verarbeitung (angle_error_processing).
  • Weil die genaue Orientierung der Rakete zu der Zeit, in welcher das Endkoordinatensystem definiert wird, unbekannt sein kann, sind in der störe_Modell_Transformation-Phase (1) Rotationsfehler zwischen dem Voranweisungsmodell, wie es in das Endkoordinatensystem transformiert wird, und der wahren Orientierung des Zielgebiets vorhanden. Diese Fehler sollten auf ± wenige Bruchteile eines Grades beschränkt sein. Der 3D_LOAL-Algorithmus erzeugt Störungen an der ECEF_in_End-Richtungskosinusmatrix (ECEF_to_terminal direction cosine matrix, DCM) (eine 3 × 3 Matrix, die verwendet wird, um 3D-Vektoren aus einem dreidimensionalen Koordinatensystem in ein anderes zu tranformieren) auf jedem Rahmen, der den Bereich der Rotationstransformationsfehler abdeckt, die bei den Navigations- und Voranweisungssystemen aufgrund Neiung und Gieren (yaw) erwartet werden. Diese Störungen werden in systematischer Weise auf die Modelltransformation angewendet, so dass alle Bereiche des Rotationsunsicherheitsbereiches rechtzeitig abgedeckt werden. Eine akzeptable Suchstrategie für gleichförmige Neigungs- und Gierfehler von ±βp bzw. βy Grad, die 18 Bilder erfordert, ist.
    führe aus für αp = (–βp, 0, βp)
    führe aus für αy = (-βy, 0, βy)
    störe DCMecef_in_End mit (αp, αy). Der Zweck der Störung besteht darin, Linien nahe dem Rand der analysierten Voranweisung auszurichten. Wenn die Winkelfehler ausreichend klein sind, kann dieser Schritt vollständig ausgelassen werden, da die Phase (4) (Winkel_Fehler_Verarbeitung) noch akzeptable Ergebnisse erzeugt. Ansonsten können einige Kombinationen ausgeschlossen oder neu angeordnet werden, um die Zeitlinie zu verkürzen. Wenn zum Beispiel 2D-Übereinstimmung (siehe nachfolgend) verwendet werden soll, muss nur αy gestört werden (dies ist der Fall, wenn die Aufklärungsphoto-Voranweisungsoption verwendet wird).
  • In der analysiere_Modell_Linien-Phase (2) muss der 3D_LOAL-Algorithmus diejenigen Linien in dem 3D-Voranweisungs_Modell extrahieren, die dem Bereich entsprechen, der von dem Sucher-Sichtfeld (sensor footprint) abgedeckt wird. Um dies zu bewerkstelligen, werden alle Modelllinien zuerst unter Verwendung der gestörten Transformation in das Endkoordinatensystem transformiert. Als Nächstes wird das Sensor-Sichtfeld auf dem aktuellen Rahmen in die End-Bodenebene projiziert. Es werden alle Modelllinien gefunden, deren 2D-Projektionen in die End-Bodenebene (2D_Modell_Linien) alle oder teilweise in dem Sensor-Sichtfeld enthalten sind. Für diesen Rahmen werden die Modell_Linien als analysierte Modell_Linien gekennzeichnet.
  • Die suche_Linien_Übereinstimmungen-Phase (3) ist in einen Teil suche_2D_Linien_Übereinstimmung (find_2D_line_correspondence) und einen Teil suche_3D_Linien_Übereinstimmung (find_3-D_line_correspondence) unterteilt.
  • In dem Teil suche_2D_Linien_Übereinstimmung, wird jede gute_3D_Linie in die End-Bodenebene projiziert. Für jede proji zierte gute_3D_Linie werden alle projizierten analysierten_Modell_Linien gefunden, die den gleichen Winkel ± eine gewisse Winkeltoleranz Tα aufweisen. Für jedes Linienpaar, das durch den Winkelnähetest erzeugt wird, wird ein Positionsnähetest angewendet. Eine 2D-Suchbox wird um jede projizierte gute_3D_Linie herum durch Erweitern ihrer Endpunkte und ihrer Seiten um die Positionsunbestimmtheit der Raketennavigation und den Zielfehler erzeugt. Alle projizierten analysierten_Modell_Linien, die irgendeinen Teil dieses Bereiches schneiden, werden gefunden. Der Satz aller solcher Paare von projizierten guten_3D_Linien, die zu projizierten analysierten_Modell_Linien hinsichtlich des beschriebenen Winkel- und Entfernungstests passen, bilden die 2D_Linien_Übereinstimmungen für diesen Rahmen.
  • In dem Teil suche_3D_Linien_Übereinstimmung werden für jede gute_3D_Linie alle analysierten_Modell_Linien gefunden, die im 3D-Raum denselben Winkel ± eine gewisse Toleranz TΦ aufweisen. Für jedes Paar von Linien, das durch den Winkelnähetest erzeugt wird, wird ein Positionsnähetest angewendet. Ein 3D-Suchvolumen wird um jede projizierte gute_3D_Linie herum durch Erweitern ihrer Endpunkte und ihrer Seiten um die Positionsunbestimmtheit der Raketennavigation und den Zielfehler erzeugt. Alle analysierten_Modell_Linien, die irgendeinen Teil dieses Bereiches schneiden, werden gefunden. Der Satz aller solcher Paare von guten_3D_Linien, die zu analysierten_Modell_Linien hinsichtlich des beschriebenen Winkel- und Entfernungstests passen, bilden die 3D_Linien_Übereinstimmungen für diesen Rahmen.
  • Phase (4) Winkel Fehler_Verarbeitung wird in eine 2D_Winkel_Fehler_Verarbeitung und in eine 3D_Winkel-Fehler_Verarbeitung aufgeteilt.
  • Bei der 2D_Winkel_Fehler_Verarbeitung wird nur der Gierwinkel gestört. Für jede Störung werden die Winkeldifferenzen zwischen den 2D_Linien_Übereinstimmung-Paaren berechnet und in einem Gier_Winkel_Fehler_Histogramm (yaw_angle_error_histogram) gesammelt (der Störungsfehler muss von dieser Differenz subtrahiert werden, um einen systematischen Fehler zu vermeiden). Das Ende der Störungssequenz markiert das Ende für 3D_LOAL_PASSE_PARAMETER_AN. Auf dem letzten Rahmen wird das Gier_Winkel_Fehler_Histogramm geglättet und sein Spitzenwert abgeschätzt. Der Winkelfehlerkanal, für den dieser Spitzenwert auftritt, ist der geschätzte_Winkel_Fehler (estimated_yaw_error) zwischen dem Modell und der extrahierten Szene und wird für alle nachfolgenden Modelltransformationen in der 3D_LOAL_ZIELERFASSUNGS-Stufe verwendet.
  • Bei der 3D_Winkel_Fehler_Verarbeitung ist die Prozedur der 2D-Version mit Ausnahme dessen sehr ähnlich, dass die Winkeldifferenz zwischen 3D_Linien_Übereinstimmung-Paaren in eine Gier-, Neigungs- und Rollkomponente zerlegt und in einem Gier_Winkel_Fehler_Histogramm, einem Neigungs_Winkel_Fehler_Histogramm (pitch_angle_error_histogram) bzw. einem Roll_Winkel_Fehler_Histogramm (roll_angle_error_histogram) gespeichert werden. In diesem Fall müssen drei Sätze von Projektionen hergestellt und Übereinstimmungswinkelfehler angesammelt werden, je einer für jede Drehachse. Wiederum markiert das Ende der Störungssequenz das Ende von 3D_LOAL_PASSE_PARAMETER_AN. Die beiden Histogramme werden geglättet, und ihre Spitzenwerte werden zu dem geschätzten_Gier_Fehler und dem geschätzten_Neigungs_Fehler (estimated_pitch_error) zwischen dem Modell und der extrahierten Szene. Schließlich werden diese Schätzungen für alle nachfolgenden Modelltransformationen in der 3D_LOAL_ZIELERFASSUNGS-Stufe) verwendet.
  • Die 3D_LOAL_ZIELERFASSUNGS-Stufe ist in einen 2D_Vektor_Aufeinanderpass-Teil (2D_vector_registration) und in einen 2-1/2D-Vektor_Aufeinanderpass-Teil (2-1/2D_vector_registration) unterteilt.
  • In dem 2D_Vektor_Aufeinanderpass-Teil werden Operationen an den 2D_Linien_Übereinstimmungs-Paaren ausgeführt und nur ein 2D-Verfolgungspunkt_Korrektur_Vektor (2D track-point_correction_vector) oder Bodenebenen-xy-Versatz berechnet. Für jedes 2D_Linien_Übereinstimmungs-Paar wird (a) der 2D-Vektor bestimmt, der senkrecht zu der projizierten analysierten_Modell_Linie ist und den Mittelpunkt der projizierten guten_3D_Linie schneidet, und (b) die senkrechte 2D-Halbierende dieses 2D-Vektors ermittelt. Der Schnittpunkt aller senkrechten 2D-Halbierender mit jeder anderen senkrechten 2D-Halbierenden wird berechnet. Diese Schnittpunkte werden in einer 2D-Anordnung gesammelt, wobei der Ort in der Anordnung den 2D-Ort des Schnittpunkts angibt. Als Nächstes wird diese Anordnung mittelwert-gefiltert. Der Ort des maximalen Wertes in der mittelwert-gefilterten Anordnung mal 2 ist die Abschätzung des 2D_Verfolgungspunkt_Korrektur_Vektors.
  • In dem 2-1/2D_Vektor_Aufeinanderpass-Teil fügt der 2-1/2D_Vektor_Aufeinanderpass-Algorithmus die z-Komponente zu dem Verfolgungspunkt_Korrektur_Vektor hinzu. Die oben erzeugte 2D-Halbierenden-Schnittpunkt-Anordnung wird wird dann auf NSpitzen-werte (Npeaks) lokale Maxima hin gesucht. Für jede der Spitzenwerte werden alle 3D_Linien_Übereinstimmungen unter Verwendung eines viel kleineren Unbestimmtheitswertes (–10 Meter) und des xy-Versatzes, welcher diesem Spitzenwertort entspricht, berechnet. Für jede "nicht vertikale" gute_3D_Linie wird ein vertikaler Versatzvektor in Bezug auf die Mitte der entsprechenden analysierten_Modell_Linie berechnet. Diese vertikalen Werte werden in einem z_Vektor_Histogramm (z_vector_histogram) gesammelt, das eine nach vertikalen Z-Werten sortierte Anordnung ist, welche die Anzahl des Auftretens jedes vertikalen Wertes enthält. Es gibt NSpitzenwerte z_Vektor_Histogramme. Alle z_Vektor_Histogramme werden mittelwert-gefiltert, und der Maximalwert wird ermittelt. Der Kanal, der den Maximalwert enthält, ist die z-Komponente des Verfolgungspunkt_Korrektor_Vektors. Der (x, y)-Wert, der dieses Histogramm erzeugt, vervollständigt den 3D_Verfolgungspunkt_Korrektor_Vektor.
  • Wenn der maximale z-Wert einen bestimmten Minimalwert (TZielerfasung) (Tlock_on)) erreicht, geht 3D_LOAL zu der 3D_LOAL_ZIELERFASSUNG-Stufe über. Die folgenden Aktionen sind an diesem Übergang beteiligt:
    • (a) Der Verfolgungspunkts-Korrektor_Vektor wird zu dem Ort des Zielverfolgungspunkt der Rakete addiert.
    • (b) Dieser neue Zielpunkt wird zu dem Sensor-Starrpunkt (sensor staring point) kopiert.
    • (c) Der Verfolgungspunkt_Korrektor_Vektor wird in den Translationsteil der Voranweisungs_Modell-Transformation (prebrief_model transformation) abgebildet (wenn die Korrektur an dem Sensorzeigerichtungsvektor groß ist, kann der Sensorzeigerichtungsübergang allmählich erfolgen, um einen plötzlichen Verlust passender Linien und daher den Verlust von Aktualisierungen des Verfolgungspunkt_Korrektor_Vektors zu vermeiden).
    • (d) Die Zielortfehlerunbestimmtheit wird auf die Raketenträgheitsnavigationsunbestimmtheit für geringe Entfernungen zusammengeschrumpft.
    • (e) Da es sein kann, dass die Rakete nicht zu dem Zielverfolgungspunkt fliegt (Zielverfolgungspunkt und Zielpunkt), wird die Differenz zwischen dem vorangewiesenen Zielverfolgungspunkt und dem Zielpunkt zu dem korrigierten Ziel verfolgungspunkt addiert, um zu dem neuen Zielpunkt zu werden, zu dem die Rakete hinlenkt.
  • In der 3D_LOAL_ZIELERFASSUNG-Stufe fährt der 3D_LOAL-Algorithmus fort, alle Teile des Algorithmus auszuführen, die erforderlich sind, um gute_3D_Linien und einen Zielpunkt_Korrektur_Vektor (aimpoint_correction_vector) zu erzeugen. Als Option kann er auch fortfahren, Aktualisierungen an dem geschätzten_Gier_Fehler und/oder dem geschätzten_Neigungs_Fehler zu verarbeiten. In der Realität ist 3D_LOAL_VERFOLGUNG_3D_LOAL_ZIELERFASSUNG bei einer sehr hohen Rahmenrate. Die höhere Rahmenrate wird durch zwei Faktoren erreicht: (1) Die Navigations- und Zielfehler sind durch den (die) 3D_LOAL_ZIELERFASSUNGBS-Schnappschuss(-Schnappschüsse) beträchtlich verringert, und (2) das schrumpfende Sensor-Sichtfeld hat zur Folge, dass weniger Modell_Linien analysiert werden. Der einzige andere Unterschied besteht darin, dass der Satz von Parametern, d. h. Nwarten, Nlöschen, Ng, modifiziert ist. Diese Phase wird fortgesetzt, bis ein Blindabstand erreicht ist, wobei an diesem Zeitpunkt die Rakete ihren Flug mittels Trägheitsnavigation beendet.
  • Es ist darauf hinzuweisen, dass, obwohl die Erfindung unter Bezugnahme auf das Leiten einer Rakete beschrieben ist, auch für passive Navigation eines Flugzeugs, Echtzeit-Extraktion von 3D-Orts-Modellen aus Aufklärungsbildsequenzen, Mustererkennung, Robotersicht, usw. verwendet werden kann.
  • KURZBESCHREIBUNG DER ZEICHNUNGEN
  • 1 ist ein schematisches Diagramm, welches die beiden Hauptteile des 3DLOAL-Systems darstellt,
  • 2 ist ein schematisches Diagramm, welches die fünf Hauptverarbeitungsphasen des 3DLOAL-Teils des Systems darstellt,
  • 3 ist eine Ansicht von oben und eine Ansicht von der Seite der gewünschten Raketentrajektorie sobald die Rakete gestartet ist und wie sie auf die fünf Verarbeitungsstufen bezogen ist,
  • 4 ist ein Diagramm des Endkoordinatensystems und seiner Bezugsebenen, wie sie auf dem 3D_LOAL_START-Rahmen bestimmt werden,
  • 5 ist ein schematisches Diagramm der 3D_LOAL_ERMITTLE_3D_LINIEN-Verarbeitungsphase,
  • 6 ist ein schematisches Diagramm, welches die Prozeduren zeigt, die erforderlich sind, um 3D_Linien aus einem Rahmen des Sensorbildmaterials zu erzeugen,
  • 7(A) zeigt ein Beispielsensorbild, wobei die Teile (B), (C) und (D) die sich ergebenden Bilder und Linien nach dem Ausführen der Kantenextraktions-, Kanten-Schwellenwertoperations- und Liniensuch-Prozeduren zeigt,
  • 8 stellt die Berechnung des Phasenwinkels für eine einzelne Linie dar,
  • 9 zeigt eine 4-Quadranten-Phasenmerkmals-Implementierung,
  • 10 stellt die Linienvereinigungsberechnung dar, wobei in Teil (A) die Linie eine voreingestellte Entfernung vergrößert und in Teil (B) eine vereinigungsfähige Linie gefunden wird,
  • 11 ist ein schematisches Diagramm, welches die neun Prozeduren darstellt, die erforderlich sind, um aus 2D_Linien 2D_Verfolgungen zu erzeugen,
  • 12 stellt die Berechnung von aktualisierten Raketenpositionen und von Sensorzeigewinkeln im Endkoordinatensystem dar,
  • 13 stellt dar, wie die Veränderung aufgrund der Raketenposition und das Sensorzeigen verwendet wird, um eine 2D_Verfolgung fortzusetzen,
  • 14 ist eine Darstellung der 2D_Verfolgung/2D_Linien-Vereinigungskriterien, wobei (A) die normale Berechnung zwischen 2D_Verfolgung und 2D_Linie zeigt, (B) die Entfernungsberechnung zwischen den beiden zeigt und (C) die Berechnung des prozentualen Überlapps zeigt,
  • 15 ist ein schematisches Diagramm, welches die sieben Verarbeitungsprozeduren zeigt, die erforderlich sind, um 2D_Verfolgungen in 3D_Linien umzuwandeln,
  • 16 zeigt die Veränderung im perspektivischen Test, die verwendet wird, um zu bestimmen, wann eine 3D_Linie initialisiert werden kann,
  • 17(A) und (B) stellen die Berechnung der Initialebene für eine 3D_Linie unter Verwendung der Raketenposition und der Projektion der Linienendpunkte in die Bodenebene dar,
  • 18 ist ein schematisches Diagramm der drei Unterprozeduren, die erforderlich sind, um 3D_Linien so zu filtern, dass sie gute_3D_Linien werden und in der Modellanpassphase von 3D_LOAL verwendet werden können,
  • 19 ist ein schematisches Diagramm der 3D_LOAL_ZIELERFASSUNG-Phase, in der 3D_Linien aus der Szene an Linien in der Voranweisung angepasst werden und eine Raketenleitkorrektur zuerst erzeugt wird,
  • 20 stellt die Berechnung des Sensor-Sichtfeld-Analysebereichs dar, wobei (A) die direkte Sensor-Sichtfeld-Projektion und (B) die Sichfelderweiterung durch die Zielunbestimmtheit ist,
  • 21 ist ein schematisches Diagramm, welches die drei Unterprozeduren zeigt, die erforderlich sind, um Seitwärts- und Abwärts-Komponenten des Zielpunkt-/Zielverfolgungs-Korrekturvektors zu erzeugen,
  • 22(A) und (B) zeigen die Berechnung des 2D_Linien_Übereinstimmungs-Entfernungstests, wobei (A) die Pufferbox um die gute_3D_Linie und (B) die Schnittpunktsberechnung (intercept calculation) mit den analysierten_Modell_Linien zeigt,
  • 23 zeigt die Berechnung der senkrechten 2D-Halbierenden für ein 2D_Linien_Übereinstimmungs-Paar, wobei (A) die Berechnung der Normalen zwischen den beiden Linien und (B) die Berechnung der senkrechten Halbierenden der Normalen ist,
  • 24 zeigt eine beispielhafte 2D-Aufeinanderpass-Scoreoberfläche, wie sie durch Simulation erzeugt wird,
  • 25 ist ein schematisches Diagramm der drei Unterprozeduren, die erforderlich sind, um eine 2,5D-Aufeinanderpassung oder die Höhenkorrektur für den Zielpunkt/Zielverfolgungsvektor zu berechnen,
  • 26(A) und (B) zeigen die Berechnung des 2,5D_Linien_Übereinstimmungs-Entfernungstests, wobei (A) die Pufferbox um die gute_3D_Linie und (B) die Schnittpunktsberechnung (intercept calculation) mit den analysierten_Modell_Linien zeigt, und
  • 27 zeigt die Berechnung der z-Versatzkomponente für ein 2,5D_Linien_Übereinstimmungs-Paar.
  • BESCHREIBUNG DER BEVORZUGTEN AUSFÜHRUNG
  • Zunächst wird eine dreidimensionale Datenbank des Zielgebiets entwickelt, welches das Ziel enthält. Diese Datenbank wird zum Beispiel durch vorhergehende Aufklärungsphotographien des Zielgebiets aus so vielen Richtungen wie möglich entwickelt. Auf diese Weise wird ein 2D-Bild des Zielgebiets aus jeder Annäherungsrichtung an das Ziel zusammengefügt. Diese Datenbank wird zunächst an der Rakete zur Verfügung gestellt, wobei der Zielort in Verbindung mit der Datenbank sowie mit Standard-GPS- und/oder Trägheitsnavigationstechniken bereitgestellt wird. Dies wird nachfolgend als "Voranweisen" beschrieben.
  • Da der allgemeine Ort des Zielgebiets bekannt ist, kann die Rakete durch geeignete Programmierung des Raketennavigationssystems in Verbindung mit GPS und/oder Trägheitsnavigation in standardgemäßer Weise vor oder nach dem Abschießen der Rakete in das allgemeine Zielgebiet geleitet werden, wobei die bevorzugte Ausführung hierin eine solche Zielgebiets- Ortsinformation vor dem Abschießen bereitstellt. Das ist ebenfalls Teil des Voranweisungsschrittes.
  • Um die Erfindung in Verbindung mit der Voranweisungsoption (1) zu erläutern, wie sie oben beschrieben worden ist, wird zunächst ein 3D-Drahtgittermodell des Zielortes erzeugt. Das Drahtmodell des Zielgebiets, welches das Ziel enthält, wird vor dem Raketenstart mittels vorhergehender Luftaufklärung oder aus anderen Quellen bereitgestellt und erhalten und in einer Datenbank, vorzugsweise in der Rakete, gespeichert. Die während des 3D-LOAL-Schrittes aus 1 erzeugten Daten werden dann mit dieser Datenbank auf 3D-Übereinstimmungen hin verglichen, um letztendlich das Ziel zu erfassen, wenn die Übereinstimmung einen gewissen minimalen, vorbestimmten Grad von Zuverlässigkeit erfüllt.
  • Bei der 3D-LOAL-Operation, wie sie in einiger Ausführlichkeit unter Bezugnahme auf die 2, 5, 6, 11, 15, 18, 19, 21 und 25 gezeigt ist, wird nach dem Start der Rakete und während der 3D-LOAL Marschphasenstufe die Raketenflugleitung zu einem vorhereingestellten Ort im Gebiet des Ziels durch die Raketen-Navigationshardware durchgeführt, die in Abhängigkeit von dem globalen Positionierungssystem (GPS) oder auf Trägheitsbasis gesteuert wird. In der anfänglichen Flugbahn der Rakete zu einem Gebiet nahe dem Ziel beginnt der Raketensensor, zu dem geschätzten Zielpunkt/Zielverfolgungspunkt hin zu starren, wie es in 3 dargestellt ist, in der die durchgezogene Linie die Raketenrichtung beim Start von 3DLOAL und die gestrichelte Linie die letztendliche Raketenflugbahn anzeigt. In dieser Beschreibung wird angenommen, dass der Zielpunkt und der Zielverfolgungspunkt derselbe ist, jedoch kann ein versetzter Zielpunkt verwendet werden, indem man einfach das Delta zwischen dem vorangewiesenen Zielverfolgungspunkt und dem vorangewiesenen Zielpunkt addiert, bevor er an die Raketenlenkung und -steuerung weitergegeben wird. Dies ermöglicht es, auch kontrastarme Ziele zu verarbeiten.
  • Unter Bezugnahme auf 4 wird in der Endgebiet-Einrichtungs-Stufe, die nur einen Operationsrahmen lang dauern sollte, ein lokales 3D-Bezugssystem definiert, in dem alle 3D-Linien-Extraktions- und -Anpassungsberechnungen und alle Verfolgungsfortschrittsberechnungen (tracking propagation calculations) stattfinden. Die Raketenorientierung zur Zeit des Erhaltens des Rahmens, wie zum Beispiel mittels einer Kamera oder anderer Szenenreproduktionsmittel, wird verwendet, um das Endkoordinatensystem zu definieren. Weiterhin werden drei Bezugsebenen für das Berechnen von Linienschnittpunkten (line intercepts) definiert, wobei diese Bezugsebenen vorzugsweise, jedoch nicht darauf eingeschränkt, ein standardgemäßes Drei-Koordinaten-System mit Koordinaten sind, die gegenseitig senkrecht zueinander sind.
  • Unter Bezugnahme auf 5 wird in der 3D-Linien-Ermittlungsstufe eine Anzahl Ng für sich gut verhaltende 3D_Linien (gute_3D_Linien) für das Anpassen an das gespeicherte Voranweisungsmodell oder Voranweisungsbild erzeugt. Vier Phasen der Verarbeitung sind erforderlich, um diese 3D-Linien zu erzeugen, wobei diese Phasen sind: (1) 2D-Linien-Auffindung, (2) 2D-Linien-Verfolgung, (3) 3D-Linien-Erzeugung und (4) 3D-Linien-Filterung. Unter Bezugnahme auf die 7 bis 10 muss in der 2D-Linien-Suchen-Phase für jeden verarbeiteten Rahmen ein 2D_Linien_Sucher auf das eingehende Sensorbild angewendet werden. Es gibt viele bekannte Linien-Sucher, die verwendet werden können, wobei Burns, Brian et al., "Extracting Straight Lines", IEEE Trans. on Pattern Analysis and Machine Intelligence, PAMI-8, Seiten 425–455, Juli 1986 und Shen, J. und Castan, S., "Further results of DRF Method for Edge Detection", 9th International Conference on Pattern Recognition, Rom, 1988 Beispiele sind. Der Satz von 2D_Linien, der auf jedem Rahmen erzeugt wird, wird an die nächste Phase übergeben, welche die 2D-Linien-Verfolgung ist. Unter Bezugnahme auf die 11 bis 14 muss in der 2D-Linien-Verfolgungs-Phase der Satz von 2D_Linien aus jedem Rahmen korreliert und über die Zeit verfolgt werden, wie zum Beispiel durch den Algorithmus, der von Giles, Brent, Miller, Keith, Newton, Scott, "Advanced Tracker Algorithm Description", Mai, 1995 beschrieben wurde. Um dies zu tun, wird ein Fortschreiten der 2D_Linien aus Rahmen N unter Verwendung der Raketenposition des Rahmens N + 1 und der Sensorzeigerichtungsparameter in die Sensorbildebene bewerkstelligt. Wenn eine 2D_Linie aus Rahmen N + 1 zu der Position, Ausrichtung und Länge einer projizierten 2D_Linie aus Rahmen N innerhalb einer gewissen Toleranz passt, tritt eine Korrelation auf, die eine 2D_Verfolgung bildet. Auf die Zustände einer 2D_Verfolgung wird ein Kalman-Filter angewendet, um solche Verfolgungen weiter zu verfeinern. Eine 2D_Verfolgung, die für eine minimale Anzahl von Rahmen korreliert, wird als bestätigt gekennzeichnet und der nächsten Phase übergeben. Unter Bezugnahme auf die 15 bis 17, ist die nächste Phase die 3D-Linien-Erzeugung, in welcher die Zustände der bestätigten_2D_Verfolgungen zusammen mit der Raketenposition, der Raketenorientierung und der Sensorzeigerichtungsinformation auf jedem Rahmen gespeichert werden, auf dem eine Aktualisierung (Korrelation) einer bestätigten_2D_Verfolgung auftritt. Der Algorithmus fährt fort, die bestätigten_2D_Verfolgungs-Zustände zwischenzuspeichern, bis sich die Raketenposition hinreichend verändert hat, um einen ausreichenden Winkel für die Triangulation der realen 3D-Position der bestätigten_2D_Verfolgungen zu erzeugen. An diesem Punkt werden zwei Ebenen berechnet, um eine 3D_Linie zu definieren, Pjetzt, zusammengesetzt aus der Raketenposition bei Rahmen Njetzt und den beiden Endpunkten der 2D_Linie aus Rahmen Njetzt, projiziert in die End-Bodenebene, und Pjetzt-warten, zusammengesetzt aus der Raketenposition bei Rahmen Njetzt-warten und den beiden Endpunkten der 2D_Linie aus Rahmen Njetzt-warten, projiziert in die End-Bodenebene. Die Schnittlinie dieser beiden Ebenen definiert die 3D_Linie. Der beste Schnitt dieser 3D_Linie mit den drei Bezugsebenen definiert ihren Ursprung. Unter Bezugnahme auf 18 kann in der 3D-Linien-Filterungs-Phase jede 3D_Linie auf jedem Rahmen aktualisiert werden, nachdem sie initialisiert worden ist, wenn eine Historie für Rahmen Njetzt-warten existiert. Es wird ein Aktualisierungszustand berechnet, mit Ausnahme der Historieninformation, die neuer ist, und es ist nur der Schnittpunkt (intercept) mit der zugeordneten Bezugsebene erforderlich. Der neue 3D_Linien-Zustand wird mit dem vorherigen Zustand unter Verwendung eines Kalman-Filter kombiniert. Die Varianzen der Zustände werden dann überprüft, um zu sehen, ob sie unter einen vorher festgelegten Schwellenwert (Tqc) gefallen sind. Wenn eine 3D_Linie diese Qualitätskontrollprüfung passiert hat, wird sie zu einer guten_3D_Linie.
  • In der Rotationsfehlerkorrekturstufe wird die gesamte Verarbeitung fortgesetzt, die in Verbindung mit der 3D-Linien-Ermittlungsstufe beschrieben ist (d. h. 3DLOAL wird fortgesetzt, um 3D_Linien zu aktualisieren und um neue Linien zu finden). Darüber hinaus beginnt 3DLOAL den Prozess des Anpassens des Satzes von guten_3D_Linien und eines Teilsatz der Voranweisungs-3D_Modell_Linien (oder des Auflösens von Transformationsfehlern zwischen ihnen). Diese Stufe hat vier Verarbeitungsphasen, die sind: (1) störe Modelltransformation, (2) analysiere Voranweisungs-Modellinien, (3) suche Linienübereinstimmungen und (4) verarbeite Winkelfehlerhistogramme. Unter Bezugnahme auf die erste Phase, gibt es, weil die genaue Orientierung der Rakete zu der Zeit, zu der das Endkoordinatensystem definiert wird, unbekannt sein kann, Rotationsfehler zwischen dem vorangewiesenen Modell, wie es in das Endkoordinatensystem transformiert wird, und der tatsächlichen Orientierung des Zielgebiets. Der 3DLOAL-Algorithmus erzeugt während dieser Operationsstufe Störungen an der ECEF_zu_End- Richtungskosinusmatrix auf jedem Rahmen. Die Sequenz von Störungen sollte eine 99%ige Konfidenzgrenze für die erwarteten Rotationstransformationsfehler abdecken. Unter Bezugnahme auf die 20 und 21 muss der 3DLOAL-Algorithmus in der Phase des Analysierens von Voranweisungs-Modell-Linien diejenigen Linien in dem 3D-Voranweisungs_Modell extrahieren, welche dem Bereich entsprechen, der durch das Sucher-Sichtfeld abgedeckt wird. Um dies zu tun, werden zuerst unter Verwendung der gestörten Transformation alle Modelllinien in das Endkoordinatensystem transformiert. Als Nächstes wird das Sensor-Sichtfeld auf dem aktuellen Rahmen in die End-Bodenebene projiziert. Alle Modelllinien, deren 2D-Projektionen in die End-Bodenebene (2D_Modell_Linien) alle oder teilweise in dem Sensor-Sichtfeld enthalten sind, werden gefunden, und für diesen Rahmen werden diese Modell_Linien als analysierte_Modell_Linien gekennzeichnet. Bezug auf die 21 und 22 nehmend, werden in der Phase des Suchens von Linienübereinstimmungen sowohl 2D- als auch 2D-Linien-Übereinstimmungen berechnet, um effektiv ein Gesamtmodelll für die Szenenanpassung zu erhalten. Um 2D-Übereinstimmungen zu finden, wird jede gute_3D_Linie und jede analysierte_Modell_Linie in die End-Bodenebene projiziert. Für jede projizierte gute_3D_Linie werden alle projizierten analysierten_Modell_Linien ermittelt, die denselben Winkel ± eine gewisse Winkeltoleranz Tα haben. Als Nächstes wird eine 2D-Suchbox um jede projizierte gute 3D_Linie herum durch Erweitern ihrer Endpunkte und ihrer Seiten um die Positionsunbestimmtheit der Raketennavigation und den Zielfehler erzeugt. Alle projizierten analysierten_Modell_Linien gleichen Winkels, die einen Teil dieses Bereiches schneiden, werden ermittelt. Der Satz aller solcher Paare von projizierten guten_3D_Linien, die zu projizierten analysierten_Modell_Linien passen, stellt die 2D_Linien_Übereinstimmungen für diesen Rahmen dar. In ähnlicher Weise muss zum Suchen von 3D_Linie_Übereinstimmungen ein Zwei-Winkel-Test passiert und ein Suchvolumen überprüft werden. In der Phase der Verarbeitung eines Winkelfehlerhistogramms (von Winkelfehlerhistogrammen) kann jede 3D_Linien_Übereinstimmung gemäß ihrer Ausrichtung ein Winkeldifferenzmaß für zwei der drei Winkelfehlerhistogramme (Rollen, Neigung und Gieren) erzeugen. Daher werden diese Winkelfehlerhistogramme über die Transformations-Störungssequenz akkumuliert. Am Ende der Störungssequenz, welche das Ende dieser Stufe kennzeichnet, wird das Histogramm (werden die Histogramme) geglättet und ihre Spitze (Spitzen) wird (werden) ermittelt. Diese Spitzen werden dann zu dem geschätzten_Roll_Fehler, dem geschätzten_Neigungs_Fehler und dem geschätzten_Gier_Fehler zwischen dem Modell und der extrahierten Szene. Diese Abschätzungen werden für alle nachfolgenden Modelltransformationen in der Zielerfassungsstufe verwendet.
  • Unter Bezugnahme auf die 21 bis 27 kann in der Translationsfehlerkorrektur- oder Zielerfassungsstufe, sobald der Rotationsteil des Modelltransformationsfehlers eliminiert worden ist, der Translationsteil des Fehlers ermittelt werden. Um dies zu erreichen, führt 3DLOAL eine Zwei-Stufen-Vektor-Aufeinanderpassung (2 stage vector registration) durch. Zuerst operiert eine 2D-Vektoraufeinanderpassung auf den 2D_Linien_Übereinstimmungs-Paaren und berechnet nur einen 2D-Zielpunkt_Korrektur_Vektor oder Bodenebenen-xy-Versatz. Ein solcher Algorithmus ist von Lundgren, Jim unter dem Titel "Registration Algorithm", März, 1993 beschrieben worden. Daraufhin addiert ein 2-1/2D-Vektoraufeinanderpassungs-Algorithmus die z-Komponente zu dem Zielpunkt_Korrektur_Vektor. Es werden nur die oberen Spitzen, die durch die 2D-Vektor-Aufeinanderpassungsprozedur erzeugt werden, verarbeitet. Wenn der Wert der Aufeinanderpassung einen gewissen minimalen Wert erreicht, geht 3DLOAL in die End-Zielverfolgungsstufe über. Die folgenden Aktionen sind an dem Übergang zur Zielverfolgung beteiligt: (1) Der Zielpunkt_Korrektur_Vektor wird zu dem Raketenzielpunkt-Ort addiert, (2) dieser neue Zielpunkt wird zu dem Sensor-Starrpunkt kopiert, (3) der Zielpunkt_Korrektur_Vektor wird in den Translationsteil der Voranweisungs_Modell_Transformation abgebildet, und (4) die absolute Ortsunbestimmtheit wird auf die Raketennavigationsdrift plus der Sensorzeigefehlerunbestimmtheit zusammengeschrumpft.
  • In der End-Zielverfolgungsstufe fährt der 3DLOAL-Algorithmus fort, alle Teile des Algorithmus auszuführen, die erforderlich sind, um gute_3D_Linien und einen Zielpunkt_Korrektur_Vektor zu erzeugen. Er kann, als eine Option, auch fortfahren, Aktualisierungen an dem geschätzten_Gier_Fehler und/oder dem geschätzten_Neigungs_Fehler zu verarbeiten. In der Realität ist die End-Zielverfolgung eine Zielerfassung bei einer sehr hohen Rahmenrate. Die höhere Rahmenrate wird durch zwei Faktoren erreicht, wobei diese sind: (1) die Navigations- und Zielfehler (und daher die Übereinstimmungsbereiche) sind in hohem Maße durch den (die) Schnappschuss (Schnappschüsse) verringert, und (2) das schrumpfende Sensor-Sichtfeld führt dazu, dass weniger Modelllinien analysiert werden. Der einzige andere Unterschied besteht darin, dass der Satz von Parametern, d. h. Nwarten, Nlöschen, Ng modifiziert ist. Diese Phase wird fortgesetzt, bis ein Blindabstand erreicht ist, zu dessen Zeitpunkt die Rakete ihren Flug mittels Trägheitsnavigation beendet.
  • Die oben beschriebene Prozedur wurde in einer Computersimulation implementiert und in Bezug auf eine hochaufgelöste synthetische Datenbank getestet, die eine komplexe städtische Szene mit einem durchschnittlichen Zielpunktfehler von weniger als zwei Metern darstellt.
  • Der hierzu beigefügte Anhang ist ein 3DLOAL-Algorithmus gemäß der vorliegenden Erfindung, welcher die tatsächliche bevorzugte Ausführung ist.
  • ANHANG
  • Der 3DLOAL-Algorithmus setzt sich aus zwei Teilen zusammen: 3D_VORANWEISEN, oder die Zielgebietsverarbeitung, die erfolgt, bevor die Rakete gestartet wird, und 3D_LOAL, das ausgeführt wird, nachdem sich die Rakete im Flug befindet.
  • 1 – ist ein schematisches Diagramm, das die beiden Hauptteile des 3DLOAL-Systems darstellt, d. h. 3D_VORANWEISEN und 3D_LOAL.
  • 3D_VORANWEISEN
  • Eine Voranweisungsdatei oder ein Lademodul soll aus den folgenden Objekten bestehen:
    • 1) Der 3D-Bezugspunkt der Voranweisung in absoluten Erdkoordinaten (entweder ECEF oder geodätisch). Dies ist auch der Zielverfolgungspunkt [xT yT zT].
    • 2) Tranformation DCM zwischen dem lokalen Koordinatensystem und den wahren Erdkoordinaten, entweder DE→PR oder DNED→PR in Abhängigkeit von 1) oben.
    • 3) Entfernung (3D-Vektor: ⌊x PB / A y PB / A z PB / A⌋ )des Zielpunktes (in Metern) vom Voranweisungs-Bezugspunkt
    • 4) Anzahl der Modell-Linien (NMODELL_LINIEN)
    • 5) Anzahl der Höhen-Bezugslinien (NHÖHEN_LINIEN)
    • 6) Liste von 3D_Linien in der Form {⌊x PB / 1 y PB / 1 z PB / 1⌋, ⌊x PB / 2 y PB / 2 z PB / 2⌋}, wobei die beiden 3D-Vektoren die beiden Endpunkte der Linien relativ zu dem Voranweisungs-Bezugspunkt darstellen. Höhen-Bezugslinien befinden sich am Anfang der Liste.
    • 7) Drahtgitter-, Aufklärungs-Nadir-, Aufklärungs-Nicht-Nadir-Umschalter.
    • 8) Startbereich TBEREICH_START, Starthöhe und Annäherungskurs.
  • Sie bzw. es kann kann aus zwei verschiedenen Quellen abgeleitet werden:
  • Option (1) 3D-Modell
  • In dieser Beschreibung (3D_Drahtgitter_Voranweisung) wird jedes Objekt in dem Zielgebiet durch einen Satz von 3D-Facetten beschrieben, wobei jede Facette einen Teil eines Objektes darstellt. Dieses Drahtgittermodell wird dem Missionsplaner unter Verwendung von grafikbasierter Standardcomputersoftware angezeigt. Der Missionsplaner muss sich für einen 3D-Zielpunkt, einen 3D-Zielverfolgungspunktpunkt relativ zu diesem 3D-Drahtgittermodell und eine Annäherungsrichtung und -höhe für die Raketenflugbahn entscheiden.
  • Diese Information wird interaktiv unter Verwendung von Standard-Computersoftware-Schnittstellen, wie zum Beispiel Dialogboxen oder Mausklicks, eingegeben. Die Missionsplanungssoftware führt dann die folgenden Aufgaben aus.
    • – Sie erzeugt eine perspektivische Ansicht des 3D-Drahtgittermodells aus der geschätzten Position des ersten Sensorschnappschusses (TBEREICH_START) unter Verwendung des Sichtfeldes der Sucheinrichtung der Rakete [V].
    • – Sie entfernt verborgene Linien aus dieser perpektivischen Ansicht [V].
    • – Sie schneidet Linienendpunkte ab, welche den Rand des Sensorsichtfeldes schneiden [V].
    • – Sie erzeugt eine Liste von nicht-verborgenen, abgeschnittenen Linien in dieser Ansicht in der Form {⌊x PB / 1 y PB / 1 z PB / 1⌋, ⌊x PB / 2 y PB / 2 z PB / 2⌋}.
    • – Sie wandelt diese Linien als Entfernungen relativ zu dem 3D-Zielverfolgungspunkt (in Metern) um.
    • – Die Linienendpunkte, der Zielpunkt, der Zielverfolgungspunkt und die Transformation in Erdkoordinaten werden in die Voranweisungsdatei geschrieben.
  • Alle in dieser Weise erzeugten 3D-Linien werden als Höhenbezugslinien betrachtet, d. h. NHÖHEN_LINIEN = NMODELL_LINIEN.
  • Option 2) Aufklärungsphoto
  • In dieser Beschreibung (Aufklärungs_Voranweisungs-Nadir (recon_prebrief-nadir) und Aufklärungs_Voranweisungs-Nicht-Nadir (recon_prebrief-non-nadir)) steht ein digitalisiertes Luftbild zur Verfügung, das eine einzelne 2D-Beschreibung des Zielgebiets ergibt. Zusammen mit diesem digitalisierten Photo ist ein Kameramodell vorhanden, welches die Auflösung und Ausrichtung der Kamera zu der Zeit beschreibt, zu der das Photo auf genommen wurde. Das Bild wird dem Missionsplaner unter Verwendung von Standard-Computergraphik-Anzeigesoftware angezeigt.
    • 1) Zuerst wird das Bild in Bezug auf Linienmerkmale verarbeitet (siehe 2D_Linien_Auffindung).
    • 2) Daraufhin werden ein Zielverfolgungspunkt und ein Zielpunkt durch Anklicken von Punkten in dem Bild mit einer Maus gewählt.
    • 3) Die extrahierten Linien innerhalb einer Entfernung DCLIP werden dann auf dem Computer hervorgehoben. Diese Entfernung ist gleich der größten Querschnittsfläche des Sucher-Sichtfeldes, die bei TSTART_BEREICH erzeugt wird, plus 3 × der Standardabweichung der Raketenzielfindungsunbestimmtheit [σxM σyM σzM] (siehe Analysiere_Modell_Linien für ein Verfahren zur Berechnung dieser Entfernungen).
    • 4) Der Missionsplaner klickt dann auf Linien um den Zielpunkt herum, die als Höhenbezugslinien verwendet werden sollen. Die Zielpunkthöhe in Bezug auf diese Linien wird durch den Missionsplaner über eine Dialogbox eingegeben.
    • 5) Die Linienendpunkte, der Zielpunkt, der Zielverfolgungspunkt und die Transformation in Erdkoordinaten werden in die Voranweisungsdatei geschrieben.
  • 3D_LOAL
  • Der Teil des Algorithmus während des Fluges hat 5 Verarbeitungsphasen. Diese Phasen sind:
    • 1) 3D_LOAL_MARSCHPHASE
    • 2) 3D_LOAL_START
    • 3) 3D_LOAL_ERMITTLE_3D_LINIEN
    • 4) 3D_LOAL_ZIELERFASSUNG
    • 5) 3D_LOAL_VERFOLGUNG
  • 2 – ist ein schematisches Diagramm, welches die fünf Hauptverarbeitungsphasen des 3DLOAL-Teils des Systems darstellt. Diese Phasen sind: 3D_LOAL_MARSCHPHASE, 3D_LOAL_START, 3D_LOAL_ERMITTLE_3D_LINIEN, 3D_LOAL_ZIELERFASSUNG und 3D_LOAL_VERFOLGUNG).
  • 3D_LOAL_MARSCHPHASE
  • Während dieser Phase erfolgt die Flugleitung der Rakete durch die Navigationshardware der Rakete (GPS oder Trägheitsnavigation). Gelieferte Werte umfassen die geschätzte Raketenposition
    [xM yM zM]
    die geschätzte Raketenorientierung bezogen auf die absoluten Erdkoordinaten DKÖRPER→E und geschätzte Sensorzeigerichtungsinformationstransformation bezogen auf absolute Erdkoordinaten DPLAT→E. Die Rakete wird zu einem Punkt geflogen, der ein Annähern direkt zu dem geschätzten Zielverfolgungspunkt erlaubt, wie er durch die innere Leitung der Rakete bestimmt wird, und in der Höhe und mit dem Annäherungswinkel, die durch den Missionsplaner bestimmt werden. Dieser Punkt sollte jenseits TBEREICH_START erreicht werden. Von diesem Punkt an ist die Raketenflugbahn so geformt, dass die Rakete direkt zu dem Ort des geschätzten Zielverfolgungspunktes
    [xT yT zT]
    und bei einer konstanten Höhe fliegt. Der Raketensensor ist so ausgerichtet, dass seine Mittelachsensichtlinie mit dem geschätzten Sichtlinie-(LOS)Vektor
    Figure 00350001
    zu dem Zielverfolgungspunkt kolinear ist. Sobald der LOS-Bereich (RLOS), der sich berechnet als
    Figure 00350002
    zwischen der geschätzten Rakete und dem geschätzten Zielverfolgungspunkt, unter TBEREICH_START fällt, beginnt die 3DLOAL_START-Stufe.
  • 3 stellt die gewünschte Raketentrajektorie nach dem Start von 3D_LOAL und bezogen auf die fünf Verarbeitungsphasen dar.
  • 3D_LOAL_START
  • Diese Phase sollte nur einen Rahmen lang dauern. Ihr Zweck besteht darin, ein 3D-Bezugssystem zu definieren, in welchem alle 3D-Linien-Extraktions- und -Anpassungsberechnungen und alle Verfolgungs-Fortschrittberechnungen stattfinden.
  • Die Raketenorientierung ECEF zum Körper DCM (DKÖRPER→T') wird verwendet, um das Endkoordinatensystem wie folgt zu definieren:
    • – Der Raketen-Aufwärts-Vektor in ECEF-Koordinaten ⌊x E / AUFWÄRTS y E / AUFWÄRTS z E / AUFWÄRTS⌋ wird auf den z-Vektor des Endkoordinatensystems abgebildet.
    • – Die Komponente des Raketenkörpervektors parallel zu der Bodenebene oder der Abwärtsbereichs-Vektor (down range vector) in ECEF-Koordinaten ⌊x E / DR y E / DR z E / DR⌋ wird auf den x-Vektor des Endkoordinatensystems abgebildet.
    • – Das Kreuzprodukt der Endkoordinatensystemsvektoren (x × z) oder der Querbereichsvektor in ECEF-Koordinaten ⌊x E / CR y E / CR z E / CR⌋ definiert den dritten Endkoordinatensystem-y-Vektor.
  • Der Ursprung des Endkoordinatensystems
    ⌊x E / O y E / O z E / O⌋
    ist der Voranweisungs-Zielverfolgungspunkt in ECEF-Koordinaten
    ⌊x E / T y E / T z E / T⌋
  • Die Transformation des Endkoordinatensystems in ECEF DE→T sowie die Koordinate des Ursprungs des Endkoordinatensystems werden gespeichert. Diese Werte verändern sich während des Restes von 3D_LOAL nicht.
  • Die DE→T DCM wird wie folgt berechnet:
    Figure 00370001
    wobei dmag, cmag und umag die Größen der Abwärtsbereichs-, Querbereichs bzw. Aufwärts-Vektoren sind.
  • Weiterhin werden drei Bezugsebenen (PH1 und PH2 für horizontal ausgerichtete 3D_Linien und Pv für vertikal ausgerichtete 3D_Linien) berechnet. PH1 und PH2 sind zu dem z-Vektor des Endkoordinatensystems parallel und bilden 45°-Winkel mit den x- und y-Richtungen. Pv ist parallel zu der End-Bodenebene bei einer beliebigen Höhe. Alle drei Ebenen schneiden den Ursprung des Endsystems
    ⌊x E / O y E / O z E / O⌋.
  • Das Endkoordinatensystem und die Bezugsebenen sind graphisch in 4 dargestellt.
  • 4 stellt das Endkoordinatensystem und seine Bezugsebenen dar, wie sie auf dem 3D_LOAL_START-Rahmen bestimmt werden. Alle nachfolgende 3D_Linien-Erzeugungsverarbeitung erfolgt in diesem Koordinatensystem.
  • 3D_LOAL_ERMITTLE_3D_LINIEN
  • Der Zweck dieser Phase besteht darin, eine Anzahl TNUM_G_LINIEN von sich gut verhaltenden 3D_Linien (gute_3D_Linien) für das Anpassen an die gespeicherte Voranweisungsdatei zu erzeugen. Es sind vier Prozeduren erforderlich, um diese 3D-Linien zu erzeugen. Diese sind:
    • 1) 2D_Linien_Auffindung
    • 2) 2D_Linien_Verfolgung
    • 3) 3D_Linien-Erzeugung
    • 4) 3D_Linien-Filterung.
  • 5 ist ein schematisches Diagramm der 3D_LOAL_ERMITTLE_3D_LINIEN-Verarbeitungsphase. Diese Phase ist die Phase, in welcher 3D_Linien der Zielszene erzeugt und aktualisiert werden.
  • 2D_Linien_Auffindung
  • Die 2D_Linien_Sucher-Prozedur wird an jedem Feld des Sensorbildmaterials bei einer feststehenden Rahmenrate durchgeführt. Ihre Funktion besteht darin, lineare Objekte in der abgebildeten Szene zu finden. Es gibt in der offenen Literatur viele Linien-Sucher, die verwendet werden können [B][S]. Der verwendete Linien-Sucher muss die folgenden Eigenschaften aufweisen:
    • 1) Extrahieren von 2D_Linien mit einer Genauigkeit besser als ein Bildpunkt,
    • 2) Erzeugung eines definierten Phasenmerkmals,
    • 3) Aufweisen eines Grades von Geradlinigkeitskontrolle
    • 4) Aufweisen einer minimalen Längenkontrolle.
  • Die 2D_Linien_Auffindungs-Prozedur setzt sich aus den folgenden Unterprozeduren zusammen:
    • 1) Kanten_Filterung
    • 2) Kanten_Schwellenwertbildung
    • 3) Linien_Verfolgung (Live_tracing)
    • 4) Linien_Merkmals-Extraktion
    • 5) Linienvereinigung (Line_merging)
    • 6) 2D_Linien_Ausgabe
  • 6 ist ein schematisches Diagramm, welches die sechs Verarbeitungsprozeduren darstellt, die erforderlich sind, um 2D_Linien aus einem Bild des Sensor-Bildmaterials zu erzeugen.
    • 1) Die Kanten_Filterungs-Unterprozedur ist eine Standard-Bildverarbeitungstechnologie, die in jedem Bildverarbeitungstext gut beschrieben ist. Drei mögliche Technologien sind Roberts(J)-, Sobel(J)- und Prewitt(J)-Operatoren. Das Ergebnis dieser Operation ist eine Kantenabbildung des ursprünglichen Graustufenbildes (7 Teil A). Die bevorzugte Ausführung verwendet den Roberts-Operator. Eine beispielhafte Kantenabbildung ist in 7 Teil B dargestellt.
    • 2) Die Teilprozedur Kanten_Schwellenwertbildung ist ebenfalls eine Standard-Bildverarbeitungstechnologie. Ein Histogramm der Graustufen, die in der Bildausgabe aus dem Kanten-Filterungsschritt enthalten sind, wird berechnet. Daraufhin wird der Kanal ermittelt, der einem festgelegtem Prozentsatz von Kantengrauabstufung entspricht. Schließlich werden alle Bildpunkte, in dem Kantenbild über diesem Kanalwert auf einen "1"-Wert abgebildet und alle Bildpunkte unter diesem Wert werden auf einen "0"-Wert abgebildet. Dies erzeugt ein binäres oder "Schwarz-/Weiß-" Bild. Ein Beispiel des sich ergebenden binären Bildes ist in 7 Teil C dargestellt.
    • 3) Die Unterprozedur Linien_Verfolgung (live_tracing) erzeugt 2D_Linien aus dem Schwellenwert-Kantenbild. Es gibt viele Algorithmen im Public-Domain-Bereich, die diese Funktion erfüllen. Die vorliegende Ausführung verwendet eine Anpassung der VPolygon-Funktion von Khoros® Public Domain Software [K]. Zunächst wird die Kantenabbildung auf einen Kanten-"1"-Bildpunkt hin abgetastet. Unter Verwendung benachbarter "1"-Bildpunkte wird dann eine Linie ge bildet, und dann werden alle in dieser Linie verwendeten "1"-Bildpunkte aus der Kantenabbildung von der weiteren Berücksichtigung herausgenommen (tatsächlich wird ein Pfad entlang der Linie entfernt). Der Prozess wird für alle verbleibenden Kanten-"1"-Bildpunkte wiederholt. Wenn ein Kanten-"1"-Bildpunkt zuerst identifiziert wird, wird er als Startpunkt für das "Abstecken" eines Pfades durch die Kantenabbildung verwendet. Er wird zuerst überprüft, um zu sehen, ob es sich dabei um einen wahrscheinlichen Endpunkt für eine Linie handelt. Die Pfadverfolgung geht wie folgt weiter. Vom Startpunkt aus wird die Kantenabbildung in jeder Richtung auf benachbarte Kanten-"1"-Bildpunkt hin abgesucht. Wenn ein "1"-Bildpunkt gefunden wird, wird er einer Liste hinzugefügt, und der Prozess wird für den neuen Bildpunkt wiederholt. Diese Suche ist in die allgemeine Richtung gerichtet, die durch das Startbildpunkt angegeben wird. Die Suche wird fortgesetzt, während ein maximales Linienverzerrungskriterium, das als Fehler zwischen allen Bildpunkten in der Liste berechnet wird, und eine Linie überwacht wird, die durch die gegenwärtigen Linienendpunkte definiert wird (der Startbildpunkt und der letzte gefundene Bildpunkt). Der Prozess wird wiederholt, bis entweder diese Metrik überschritten oder ein Rand des Bildes erreicht wird. Nachdem die Linie bestimmt worden ist, wird ein festgelegter Prozentsatz von Bildpunkten von der Linie in einem Versuch entfernt, eine unerwünschte Eigenschaft des "Biegens um eine Ecke" abzuschwächen. Ein Beispiel der sich ergebenden Roh-Linien ist in 7 Teil D dargestellt. 7 Teil A zeigt ein beispielhaftes Sensorbild. Die 7 Teile (B), (C) und (D) zeigen die sich ergebenden Bilder und Linien nachdem die Kantendextraktions-, Kanten-Schwellenwertbildungs- und Linienauffindungs-Prozeduren durchgeführt wurden.
    • 4) Die Unterprozedur Linien_Merkmals_Extraktion erzeugt Phasen- oder "Richtungsinformation" für jede Linie, die durch die Unterprozedur der Linienverfolgung (line tracing) erzeugt wurde. Zunächst muss die Ausrichtung der Linie berechnet werden. Zunächst wird die mittlere Grauabstufung in einem parallelen Bereich auf jeder Seite der Linie berechnet. Dann werden die Start- und Stoppunkte so gewählt, dass die dunklere (oder hellere) Seite immer auf der rechten Seite der Richtung der Linie liegt. Der Phasenwinkel wird als der Winkel zwischen dem vertikalen Raster des Bildes und der Richtung der Linie berechnet. Dieser Winkel wird berechnet, um zwischen ±180° zu liegen. Die Berechnung der Richtung und des Phasenwinkels sind in 8 dargestellt. 8 stellt die Berechnung des Phasenwinkels für eine einzelne Linie dar. Weiterhin wird ein Linienberührungsmerkmal berechnet. Dieses Merkmal ist ein Wahr- oder Falsch-Kennzeichen, das an jedem Linienendpunkt angebracht ist und anzeigt, ob der Linienendpunkt sich Innerhalb TBERÜHRUNG_X und TBERÜHRUNG_Y Bildpunkten der Bildgrenze befindet. Diese Unterprozedur teilt die Liste durch den 2D_Linien_Winkel auch in NPHASEN. Die vorliegende Ausführung teilt die Linien in vier Phasen: Nord, Süd, Ost und West. 9 zeigt diese vier Phasen in Bildkoordinaten. 9 stellt eine Vier-Quadranten-Merkmals-Implementierung dar.
    • 5) Die Unterprozedur Linien_Vereinigung überprüft die Start- und Stoppunkte jeder Linie auf eine mögliche Vereinigung mit einer anderen Linie hin, um eine längere Linie herzustellen. Erweitere die Stop-Punkte jeder Linie in die Richtung ihres Phasenwinkels TGAP Bildpunkte, wie es in 10 Teil A dargestellt ist. Die Startpunkte aller anderen Linien werden überprüft, um zu sehen, ob sie sich genau mit diesem erweiterten Bereich schneiden, wie es in 10 Teil B dargestellt ist. Wenn es so ist, werden diese beiden Linien so vereinigt, dass der Start- und Stoppunkt der neuen Linie der Startpunkt der ersten Linie bzw. der Stoppunkt der zweiten Linie ist. Der Phasenwinkel und die Berührungswerte der neuen Linie werden neu berechnet, wie es vorher beschrieben worden ist. 10 stellt die Linienvereinigungsberechnung dar, wobei in 10 Teil A die Linie um eine vorher festgelegte Strecke verlängert und in Teil B eine vereinigungsfähige Linie gefunden wird.
    • 6) Die Unterprozedur 2D_Linien_Ausgabe sortiert die Linien nach Länge und gibt bis zu NMAN_2D_LINIEN mit Merkmalen an die 2D_Linien_Verfolgungs-Phase) aus. Die Liste von Merkmalen für jede Linie enthält: 2D_Linienstart_x (in Bildpunkten vom Bildmittelpunkt) 2D_Linienstart_y (in Bildpunkten vom Bildmittelpunkt) 2D_Linienstop_x (in Bildpunkten vom Bildmittelpunkt) 2D_Linienstop_y (in Bildpunkten vom Bildmittelpunkt) 2D_Linienberührungsstart 2D_Linienberührungsstop 2D_Linienwinkel 2D_Linienphase 2D_Linienlänge
  • 2D_Linien_Verfolgung
  • Die 2D_Linien_Verfolgungs-Prozedur akkumuliert die Trajektorien von 2D_Linien über mehrere Rahmen in der Form von 2D_Verfolgungen. Die 2D_Linien_Verfolgungs-Prozedur setzt sich aus den folgenden Unterprozeduren zusammen:
    • 1) 2D_Dynamik_Aktualisierung (2D_dynamics_update)
    • 2) 2D_Linie_zu_verfolgen (2D_line_to_track)
    • 3) 2D_Verfolgung_füge_Dynamik_hinzu (2D_track_add_dynamics)
    • 4) 2D_Verfolgung_Fortschritt (2D_track_propagate)
    • 5) 2D_Verfolgung_Assoziation (2D_track_association)
    • 6) 2D_Verfolgung_Messung_Aktualisierung (2D-track_measurement_update)
    • 7) 2D_VerfolgungLöschen (2D_track_delete)
    • 8) 2D_Verfolgung_füge_neue_Verfolgungen_hinzu (2D_track_add_new_tracks)
    • 9) 2D_Verfolgung_Ausgabe (2D_track_output)
  • 11 ist ein schematisches Diagramm, welches die 9 Verarbeitungsprozeduren zeigt, die erforderlich sind, um aus den 2D_Linien 2D_Verfolgungen zu erzeugen.
  • 1) Die Unterprozedur 2D_Dynamik_Aktualisierung aktualisiert die Raketenposition und die Zeigerichtungsparameter in Bezug auf das Endkoordinatensystem für den gerade bei der 2D_Linien_Auffindung verarbeiteten Rahmen. Die spezifischen aktualisierten Werte sind die Raketenendposition
    ⌊x T / M y T / M z T / M⌋
    und die Zeigerichtungswinkel der Rakete für Neigung (αp), Gieren (αY) bzw. Rollen (αR). Diese Parameter sind grafisch in 12 dargestellt (für diese Ausführung wird ein rollstabilisierter Sensor angenommen; somit ist αR immer gleich 0).
  • 12 stellt die Berechnung aktualisierter Raketenpositionen und Sensorzeigerichtungswinkel in dem Endkoordinatensystem dar.
  • Die Differenzen zwischen den oben angeführten Parametern
    ⌊Δx T / M Δy T / M Δz T / M⌋
    und ΔαP, ΔαY, ΔαR gegenüber ihren vorherigen Werten werden ebenfalls zusammen mit der Zeitdifferenz ΔT seit der Erzeugung der vorherigen Werte berechnet und gespeichert.
  • 2) Die Unterprozedur 2D_Linie_zu_verfolgen erzeugt zusätzliche Merkmale für die 2D_Linien, die bei ihrer Umwandlung in 2D_Verfolgungen verwendet werden. Diese Werte sind eine 2D_Linien-Position und eine 2D_Linien-Größe. Sie werden in einem Winkelraum berechnet, der auf den Null-Giervektor und den Null-Neigungsvektor bezogen ist. Die 2D_Linien-Start- und -Stoppunkte werden ebenfalls in eine Winkelraumdarstellung umgewandelt. Die folgenden Gleichungen beschreiben die oben angeführten Berechnungen: 2D_Linienstart_x = 2D_Linienstart_x*lxfov + αY 2D_Linienstart_y = 2D Linienstart_y*lyfov + αP 2D_Linienstop_x = 2D_Linienstop_x*lxfov + α 2D_Linienstop_y = 2D_Linienstop_y*lyfov + αP 2D_Linien_pos_x = (2D_Linienstop_x + 2D_Linienstart_x)/2 2D_Linien_pos_y = (2D_Linienstop_y + 2D_Linienstart_y)/2 2D_Liniengröße_x = |2D_Linienstop_x – 2D_Linienstart_x| 2D_Liniengröße_y = |2D_Linienstop_y–2D_Linienstart_y|wobei lyfov und lxfov das momentane vertikale und horizontale Sichtfeld (FOV) für einen Bildpunkt sind. 2D_Verfolgung_pos_Geschw_σ2 = 2D_Verfolgung_pos_Geschw_σ2 + (ΔT*2D_Verfolgung_Geschw_σ2) + (KσPOS_PROC 2*ΔT2)/2 2D_Verfolgung_Geschw_σ2 = 2D_Verfolgung_Geschw_σ2 + (KσPOS_PROC 2* ΔT) 2D_Verfolgungsgröße_σ2 = 2D_Verfolgungsgröße_σ2 + (KσSIZE_PROC 2* ΔT)
  • 5) Die Unterprozedur 2D_Verfolgung_Assoziation bestimmt, ob 2D_Linien aus dem neuesten Sensorbild zu den vorherigen 2D_Verfolgungen gehören, oder ob sie verwendet werden sollten, um neue 2D_Verfolgungen zu initialisieren. Dies wird wie folgt erreicht:
  • Für jede Phasengruppe von 2D_Verfolgungen wird die Liste von 2D_Linien gleicher Phase durchsucht, um mögliche Assoziationen bzw. Verbindungen zu finden. Es ist sicherzustellen, dass alle 2D_Verfolgungen und 2D_Linien überprüft werden. Eine möglicherweise verbundene bzw. assoziierte 2D_Linie muss die folgenden Kriterien erfüllen: |2D_Verfolgung_pos_x – 2D_Linien_pos_x| ≤ 2D_Verfolgungsgröße_x/2 + TΔ |2D_Verfolgung_pos_y – 2D_Linien_pos_y| ≤ 2D_Verfolgungsgröße_y/2 + TΔ 2D_Verfolgungswinkel – 2D_Linienwinkel| ≤ TΔα
  • Berechne für jedes 2D_Verfolgung/2D_Linien-Paar, welches die vorher angeführten Kriterien erfüllt, den Schnittpunkt des Normalvektors der 2D_Verfolgung, der von dem 2D_Verfolgung_pos-Punkt ausgeht, und der Linie, die durch die Gleichung der 2D_Linie definiert wird. Diese Berechnung ist
  • Figure 00460001
  • 4) Die Unterprozedur 2D_Verfolgung-Fortschritt bewegt 2D_Verfolgungen, die durch 2D_füge_Dynamik_hinzu verarbeitet wurden, wenn ihre gefilterten Geschwindigkeiten nicht Null werden. Die neuen 2D_Verfolgungs-Positions- und -Start- und -Stopwerte, werden wie folgt berechnet: 2D_Verfolgung_pos_x = 2D_Verfolgung_pos_x + 2D_Verfolgung_Geschw_x*ΔT 2D_Verfolgung_pos_y = 2D_Verfolgung_pos_y + 2D_Verfolgung_Geschw_y*ΔT 2D_Verfolgungsstart_x = 2D_Verfolgungsstart_x + 2D_Verfolgung_Geschw_x*ΔT 2D_Verfolgungsstart_y = 2D_Verfolgungsstart_y + 2D_Verfolgung_Geschw_y*ΔT 2D_Verfolgungsstop_x = 2D_Verfolgungsstop_x + 2D_Verfolgung_Geschw_x*ΔT 2D_Verfolgungsstop_y = 2D_Verfolgungsstop_y + 2D_Verfolgung_Geschw_y*ΔT
  • Auch die Varianzen werden zu dieser Zeit wie folgt einem Fortschreiten unterzogen: 2D_Verfolgung_pos_σ2 = 2D_Verfolgung_pos_σ2 + (2*ΔT*2D_Verfolgung_pos_Geschw_σ2) + (ΔT2* 2D_Verfolgung Geschw_σ2) + (KσPOS_PROC 2*ΔT2)/6
  • 3) Die Unterprozedur 2D_Verfolgung_füge_Dynamik hinzu bewegt 2D_Verfolgungen, die auf vorherigen Rahmen erzeugt wurden, unter Verwendung der Delta-Werte, die in 2D_Dynamik_Aktualisierung erzeugt wurden, in den neuen Rahmen. Zunbächst wird die Veränderung infolge der Sucherzeigerichtung für jede vorhandene 2D_Verfolgung addiert als: 2D_Verfolgung_pos_x = 2D_Verfolgung_pos_x + Δαy 2D_Verfolgung_pos_y = 2D_Verfolgung_pos_y + ΔαP 2D_Verfolgungsstart_x = 2D_Verfolgungsstart_x + Δαy 2D_Verfolgungsstart_y = 2D_Verfolgungsstart_y + ΔαP 2D_Verfolgungsstop_x = 2D_Verfolgungsstop_x + Δαy 2D_Verfolgungsstop_y = 2D_Verfolgungsstop_y + ΔαP.
  • Als Nächstes wird die Veränderung infolge der Raketenbewegung hinzugefügt. Die 2D_Verfolgungs-Position, -Start und -Stop werden in die Bodenebene bei der vorherigen Raketenposition projiziert. Die Raketenposition wird dann zu ihrem neuen Ort bewegt. Daraufhin werden neue Winkel relativ zu der neuen Raketenposition berechnet. Diese neuen Winkelwerte ersetzen die vorherigen 2D_Verfolgung_pos-, 2D_Verfolgungsstart- und 2D_Verfolgungsstop-Werte. Die 2D_Verfolgungsgröße wird durch ihr Multiplizieren mit dem Faktor Bereich_alt, dividiert durch Bereich_neu aktualisiert. Diese Berechnungen sind in 13 dargestellt.
  • 13 stellt dar, wie die Veränderung infolge der Raketenposition und der Sensorzeigerichtung verwendet wird, um eine 2D_Verfolgung fortschreiten zu lassen.
  • Weiterhin wird eine neue 2D_Verfolgungs_Winkel-Berechnung erzeugt als:
    graphisch in 14 Teil A dargestellt. Als Nächstes ist zu bestimmen, ob dieser Schnittpunkt tatsächlich auf der 2D_Linie liegt. Wenn er das tut, ist die Verarbeitung dieses möglichen Assoziationspaars fortzusetzen, wenn er es nicht tut, ist dieses Paar für die Assoziation nicht zu berücksichtigen. Berechne als Nächstes die Entfernung (2D_t21) von 2D_Verfolgung_pos zu dem Schnittpunkt (siehe 14 Teil B). Berechne als Nächstes für jedes Paar, dessen Verfolgungsnormalen-Schnittpunktentfernung die folgenden Kriterien erfüllt: 2D_t21_x ≤ TΔx und 2D_t21_y ≤ TΔy die prozentuale Überschneidung zwischen 2D_Verfolgung und 2D_Linie. Es gibt zwei Überschneidungsberechnungen: Eine ist die Projektion von 2D_Verfolgung auf die 2D_Linie und die andere die Projektion von 2D_Linie auf die 2D_Verfolgung. Sie werden als Überschneidung_t21 bzw. Überschneidung_12t bezeichnet. 14 Teil C stellt dieses Konzept dar.
  • 14 ist eine Darstellung der 2D_Verfolgung/2D_Linien-Vereinigungskriterien. Teil A zeigt die Berechnung der Normalen zwischen 2D_Verfolgung und 2D_Linie, Teil B zeigt die Entfernungsberechnung zwischen den beiden und Teil C zeigt die Berechnung der prozentualen Überschneidung.
  • Berechne nun ein Gesamtentfernungsmaß für das 2D_Verfolgung/2D_Linien-Paar als:
    Figure 00480001
    wobei Kn und Kd vorher festgelegte Wichtungen sind. Die 2D_Linie, welche den kleinsten Dist-Wert erzeugt, wird zu der "am besten assoziierten" 2D_Linie. Erzeuge die 2D_Verfolgungs-Werte unter Verwendung der am besten assoziierten 2D_Linie:
    2D_Verfolgung_pos_x_res = 2D_t21_x
    2D_Verfolgung_pos_y_res = 2D_t21_y
    2D_Verfolgungsüberschneidung_t21 = Überschneidung_t21
    2D_Verfolgungsüberschneidung_12t = Überschneidung_12t
  • Vervollständige die 2D_Verfolgungs_Assoziation durch die folgenden Aktionen:
    • – Markiere die 2D_Verfolgung als ASSOZIIERT und verknüpfe sie mit der "am besten assoziierten" 2D_Linie.
    • – Markiere alle 2D_Linien, die auf diesem Rahmen als ASSOZIIERT verbunden sind. Aktualisiere den 2D_Verknüpfung_Alter-Wert um einen Rahmen und aktualisiere den 2D_Verknüpfung-aktualisiere-Rahmen, um den gegenwärtigen Rahmen anzuzeigen.
    • – Wenn die 2D_Verfolgung als NEU markiert ist und in TN_bestätige der ersten TM_bestätigt Rahmen assoziiert ist, ist auch diese 2D_Verfolgung als BESTÄTIGT zu markieren. Alle 2D_Verfolgungen, die assoziieren und die auf dem vorhergehenden Rahmen als BESTÄTIGT markiert worden sind, sind auf dem vorliegenden Rahmen weiter als BESTÄTIGT zu markieren. Alle 2D_Verfolgungen, die auf dem vorhergehenden Rahmen als BESTÄTIGT markiert sind und auf dem vorliegenden Rahmen nicht assoziieren, sind als AUSLAUF (COASTING) zu markieren. Wenn die 2D_Linien- und die 2D_Verfolgungsgrößen sich innerhalb eines feststehenden Prozentsatzes TÜBERSCHNEIDUNG_PCT zueinander befinden, ist die 2D_Linie aus einer weiteren Bebrücksichtigung für die Assoziation mit anderen 2D_Verfolgungen zu entfernen.
    • – Für 2D_Verfolgungen, die auf dem vorliegenden Rahmen assoziiert sind, bleiben, wenn der Überschneidung_12-Wert gleich 1 ist, die Werte der 2D_Verfolgungsgröße x und y unverändert. Wenn die Überschneidung_12t kleiner als 1 ist, werden die Werte der 2D_Verfolgungsgröße x und y durch den Überschneidung_12t-Wert skaliert.
  • 6) Die Unterprozedur 2D_Verfolgung Messung Aktualisierung nimmt die neuen Messungen aus assoziierten 2D_Linien in die Zustände der assoziierten 2D_Verfolgungen auf. Die bevorzugte Ausführung verwendet eine Kalman-Filtermethode [M] für die Positions-, Geschwindigkeits- und Größenzustands-Aktualisierungen und eine Alpha-Filter-Methode für die Winkelzustands-Aktualisierungen. Eine Messungs-Aktualisierung wird nur an 2D_Verfolgungen durchgeführt, die auf dem vorliegenden Rahmen als ASSOZIIERT markiert sind. Die 2D_Linien-Messungen sind von den verknüpften "am besten assoziierten" 2D_Linien aus der Unterprozedur 2D_Verfolgungs Assoziation.
  • Kalman-Filter-Aktualisierungsmethode für die 2D_Verfolgungs-Position und -Geschwindigkeit:
  • Aktualisiere zuerst die Restvarianzen: σr 2 = 2D_Verfolgung_pos_σ2 + Kσ2 POS_MESS 2D_Verfolgung_pos_res_err = √σr2
  • Aktualisiere als Nächstes die Kalman-Verstärkungen: Kg1 = 2D_Verfolgung_pos_σ2r 2 Kg2 = 2D_Verfolgung_pos_Geschw_σ2r 2
  • Wende die Kalmanverstärkungen auf die Innovationen an, um neue Positions- und Geschwindigkeitswerte zu erhalten: 2D_Verfolgung_pos_x = 2D_Verfolgung_pos_x + Kg1* 2D_Verfolgung_pos_x_res 2D_Verfolgung_pos_y = 2D_Verfolgung_pos_y + Kg1* 2D_Verfolgung_pos_y_res 2D_Verfolgung_Geschw_x = 2D_Verfolgung_Geschw_x + Kg2* 2D_Verfolgung_pos_x_res 2D_Verfolgung_Geschw_y = 2D_Verfolgung_Geschw_y + Kg2* 2D_Verfolgung_pos_y_res
  • Aktualisiere schließlich die Positions- und Geschwindigkeitswerte: 2D_Verfolgung_pos_σ2 = Kg1*Kσ2 POS_MESS 2D_Verfolgung_Geschw_σ2 = 2D_Verfolgung_Geschw_σ2 – 2D_Verfolgung_pos_Geschw_σ2*Kg2 2D_Verfolgung_pos_Geschw_σ2 = Kg2*Kσ2 POS_MESS
  • Kalman-Filter-Aktualisierungsmethode für die Aktualisierung der 2D Verfolgung-Größe:
  • Aktualisiere zuerst die Restvarianz: σr 2 = 2D_Verfolgungsgröße_σ2 + Kσ2 POS_MESS 2D_Verfolgungsgröße_res_err = √σr 2
  • Berechne als Nächstes die Kalman-Verstärkung: Kg1 = 2D_Verfolgungsgröße_σ2r 2
  • Wende die Kalmanverstärkungen auf die Innovationen an, um die neuen Größenzustände zu erhalten: 2D_Verfolgungsgröße_x = 2D_Verfolgungsgröße_x + Kg1 *(2D_Verfolgungsgröße_x – 2D_Liniengröße_x) 2D_Verfolgungsgröße_y = 2D_Verfolgungsgröße_y + Kg1 *(2D_Verfolgungsgröße_y – 2D_Liniengröße_y)
  • Aktualisiere die Größenvarianzwerte: 2D_Verfolgungsgröße_σ2 = Kg1*Kσ2 POS_MESS
  • Die Winkelaktualisierung verwendet eine Alpha-Filter-Technik wie folgt: 2D_Verfolgungswinkel = 2D_Linienwinkel + Ka *(2D_Verfolgungswinkel – 2D_Linienwinkel),wobei Ka eine vorher festgelegte Konstante ist.
  • 7) Die Unterprozedur 2D_Verfolgung_löschen entfernt 2D-Verfolgungen aus der 2D_Verfolgungs-Liste. Es gibt drei Arten des Löschens: AUSLAUFEN (COAST), NEU und ERZWUNGEN.
    • – Lösche alle NEU-2D_Verfolgungen, die nach TM_BESTÄTIGT Rahmen nicht BESTÄTIGT sind, indem der Computerspei cher, in dem ihre Werte gespeichert sind, geleert wird.
    • – Lösche alle 2D_Verfolgungen die für TVERFOLGUNG_LÖSCHEN Rahmen mit AUSLAUFEN (COAST) markiert sind, indem der Computerspeicher, in dem ihre Werte gespeichert sind, geleert wird.
    • – Lösche alle 2D_Verfolgungen, wenn der 2D_LÖSCHE_ALLE- oder 3D_LOAL_NEUSTART-Wert auf WAHR gesetzt ist, indem der Computerspeicher, in dem ihre Werte gespeichert sind, geleert wird. Der 2D_LÖSCHE_ALLE-Wert wird normalerweise nur gesetzt, wenn eine große Sensorschwankung erwartet wird.
  • 8) Die Unterprozedur 2D_Verfolgung_füge_neue_Verfolgungen_hinzu erzeugt NEU-2D_Verfolgungen aus 2D_Linien, die nicht auf dem gegenwärtigen Rahmen assoziiert sind. Weise für jede nicht in der 2D_Verfolgung_Assoziation-Unterprozedur auf dem vorliegenden Rahmen assoziierten 2D_Linien einen Platz in dem Computerspeicher für eine 2D_Verfolgung zu und ordne die folgenden Messungen zu.
    2D_Verfolgungszustand = NEU
    2D_Verfolgungszähler = 1
    2D_Verfolgung_letzter_Aktualisierungsrahmen = aktueller_Rahmen
    2D_Verfolgunsgsindex = aktueller_Verfolgungsindex
    2D_Verfolgungscoastzähler = 0
    2D_Verfolgung_pos_x = 2D_Linie_pos_x
    2D_Verfolgung_pos_y = 2D_Linie_pos_y
    2D_Verfolgungsstart_x = 2D_Linienstart_x
    2D_Verfolgungsstart_y = 2D_Linienstart_y
    2D_Verfolgungsstop_x = 2D_Linienstop_x
    2D_Verfolgungsstop_y = 2D_Liniensstop_y
    2D_Verfolgungsgröße_x = 2D_Liniengröße_x
    2D_Verfolgungsgröße_y = 2D_Liniengröße_y
    2D_Verfolgungswinkel = 2D_Linienwinkel
    2D_Verfolgungsphase = 2D_Linienphase
    2D_Verfolgung_Geschw_x = 0
    2D_Verfolgung_Geschw_y = 0
    2D_Verfolgung_Geschw_σ = Kσ2 GESCHW_INIT
    2D_Verfolgung_pos_σ2 = Kσ2 POS_INIT 2D_Verfolgung_pos_Geschw_σ2 = 0
    2D_Verfolgungsgröße_σ2 = Kσ2 GRÖSSEN_INIT
  • Erhöhe den aktuellen Verfolgungsindex nach dem Zufügen jeder 2D_Verfolgung um 1.
  • 9) Die Unterprozedur 2D_Verfolgungs Ausgabe gibt NMAX_2D_VERFOLGUNGEN an die 3D_Linien_Erzeugungs-Prozedur aus.
  • 3D_Linien_Erzeugung
  • Die Prozedur 3D_Linien_Erzeugung wandelt 2D_Verfolgungen in 3D_Linien um und fährt dann fort, die 3D_Linien-Messungen zu aktualisieren, wenn die 2D_Verfolgungen aktualisiert werden. Die 3D_Linien_Erzeugungs-Prozedur setzt sich aus den folgenden Unterprozeduren zusammen:
    • 1) 3D_Parameter_speichern
    • 2) 3D_Init_Test
    • 3) 3D_Linien_Assoziierung
    • 4) 3D_Linie_Init_Ebenen
    • 5) 3D_Linie_Init_Linien
    • 6) 3D_Linie_lösche_Linien
    • 7) 3D_Linie_füge_neue_Linien_hinzu
  • 15 ist ein schematisches Diagramm, welches die 7 Verarbeitungsprozeduren darstellt, welche erforderlich sind, um 2D_Verfolgungen in 3D_Linien umzuwandeln.
    • 1) Die Unterprozedur 3D_Parameter_speichern puffert die Raketen- und Sucher-Zeigerichtungsparameter, wie sie relativ zu dem Endkoordinatensystem definiert sind, für jeden Rahmen, auf dem BESTÄTIGTE 2D_Verfolgungen an die 3D_Linien_Erzeugungs-Prozedur ausgegeben werden. Diese Werte werden durch einen Rahmen_Zähler_Index indiziert, der jedes Mal inkrementiert wird, wenn die 3D_Linien_Erzeugungs-Prozedur ausgeführt wird. Auch wird ein 3D_Init_Linien-Wert für jeden Rahmen reserviert, und ihm wird ein Wert von FALSCH zugewiesen.
    • 2) Die Unterprozedur 3D_Init_Test vergleicht den gegenwärtigen Sensor-Zeigerichtungsvektor mit den Zeigerichtungsvektoren aus vorhergehenden Rahmen, um zu sehen, ob eine minimale Veränderung bei den Betrachtungswinkelkriterien erfüllt worden ist. Für jeden vorhergehenden Rahmen, der diesen Test passiert, wird sein 3D_Init_Linien-Wert auf WAHR gesetzt und ein Rahmen_Δ_Index-Wert wird zugeordnet als (aktueller_Rahmen_Zähler-vorheriger_Rahmen_Zähler). Sobald ein 3D_Init_Linien-Wert eines Rahmens auf WAHR gesetzt worden ist, wird er nicht mehr geprüft. 16 stellt graphisch die Berechnung der Delta-Veränderung in dem Betrachtungswinkel zwischen zwei zufälligen Rahmen dar. 16 stellt die Veränderung im perspektivischen Test dar, der verwendet wird, um zu bestimmen, wann eine 3D_Linie initialisiert werden kann.
    • 3) Die Unterprozedur 3D_Linien_Assoziation assoziiert die ankommenden 2D_Verfolgungen mit den vorher vorhandenen 3D_Linien. Eine 3D_Linie erbt ihren Index von ihrer initiierenden 2D_Verfolgung. Daher ist die 3D_Linien_Assoziierung einfach ein Anpassungsprozess, welcher alle 2D_Verfolgung_Indizes an alle vorhandenen 3D_Linien-Indizes anpasst. 2D_Verfolgungen und 3D_Linien, die angepasst sind, werden für diesen Rahmen als BEANSPRUCHT (CLAIMED) markiert. Für jedes 2D_Verfolgung/3D_Linien-Anpassungspaar werden die Werte Start_x, Start_y, Stop_x und Stop_y aus der assoziierten 2D_Linie der 2D_Verfolgung in den 3D_Linien-Endpunkt-Puffer kopiert und dann mit dem Index des aktuellen Rahmens indiziert. Außerdem wird der Puffer für diesen Rahmen als VERWENDET markiert. Für alle 3D_Linien, die nicht assoziieren, werden ihre aktuellen Puffer als UNBENUTZT markiert. Alle 2D_Verfolgungen, die nicht assoziieren, werden als UNBEANSPRUCHT markiert.
    • 4) Die Unterprozedur 3D_Linie_Init_Ebenen berechnet eine Initialisierungs-Ebene PINIT für jede NEUE 3D_Linie. Diese Ebene setzt sich aus den folgenden 3 Punkten zusammen, die in Matrix-Form dargestellt sind:
      Figure 00560001
      wobei die Punkte GSTART und GSTOP die Schnittpunkte der Bodenebene mit der Projektion der 2D_Linien_Start- bzw. 2D_Linien_Stop-Punkte sind. Die Projektion ist grafisch in 17 dargestellt. PINIT wird für die spätere Verwendung in dem Init_Ebene_Puffer der 3D-Linie gespeichert. Jede NEUE 3D_Linie ist als P_INITTED gekennzeichnet, nachdem diese Prozedur ausgeführt worden ist. 17 stellt die Berechnung der Initialisierungsebene für eine 3D_Linie unter Verwendung der Raketenposition und der Projektion der Linienendpunkte in die Bodenebene dar.
    • 5) Die Unterprozedur 3D_Linien_Init überprüft BEANSPRUCHTE 3D_Linien, die P_INITTED sind, um zu sehen, ob ihr entsprechender 3D_Init_Wert (Rahmen, auf dem er zugefügt wurde) durch die 3D_Init_Test-Unterprozedur als WAHR markiert worden ist, und erzeugt, wenn dies der Fall ist, den anfänglichen vollständigen 3D-Linien-Wert für ihn. Um eine 3D-Linie zu berechnen, muss zuerst eine 3D-Ausrichtung oder Neigung berechnet werden. Um dies zu tun, wird eine andere Ebene PNEU berechnet, wie es für PINIT beschrieben ist, wobei die gegenwärtige Raketenposition und die gegenwärtigen 2D_Linien-Start- und Stoppunkte verwendet werden. Der geometrische Schnitt der neuen Ebene und der Initialisierungsebene ist eine 3D-Linie.
  • Um diesen Schnitt zu berechnen, müssen zuerst die Koeffizienten A, B, C und D jeder Ebene und die drei Bezugsebenen gefunden werden (dabei ist darauf hinzuweisen, dass die drei Sätze der Bezugsebenenkoeffizienten nur einmal berechnet und gespeichert werden müssen). Die PNEU-Koeffizienten
    [A B C D]NEU
    können wie folgt berechnet werden:
  • Figure 00570001
  • Finde als Nächstes die Normal-Vektoren für jede Ebene. So kann zum Beispiel der Normal-Vektor nNEU für die PNEU-Ebene wie folgt berechnet werden:
  • Finde als Nächstes die Normal-Vektoren für jede Ebene. So kann zum Beispiel der Normal-Vektor nNEU für die PNEU-Ebene wie folgt berechnet werden:
  • Figure 00580001
  • Finde als Nächstes die Neigung s3D_LINIE des 3D-Linien-Schnitts, die gleich dem normalisierten Kreuzprodukt von nNEU und nINIT ist. Berechne als Nächstes die Einfallswinkel zwischen der Neigung s3D_LINIE den drei Bezugsebenen-Normalvektoren wie folgt: αPH1 = arccos(|n PH1·s 3D_LINIE|) αPH2 = arccos(|n PH2·s 3D_LINIE|) αPV = arcoos(|n PV·s 3D_LINIE|)
  • Ermittle als Nächstes den Winkel mit dem minimalen Wert. Die Ebene, die diesen Winkel erzeugt, wird die Bezugsebene für diese spezielle 3D_Linie. Berechne als Nächstes den Schnittpunkt (intercept point) i3D_LINIE wie folgt: i 3D_LINIE = (AA–1)*(DD)wobei
  • Figure 00580002
  • Schließlich müssen, um die Definition der 3D-Linie abzuschließen, ihre 3D-Endpunkte berechnet werden. Diese Endpunkte werden durch zwei Entfernungen dSTART und dSTOP von dem Schnittpunkt in Richtung der 3D-Linienneigung dargestellt. Berechne zuerst 2 begrenzende Ebenen PSTART und PSTOP unter Verwendung der gegenwärtigen Raketenposition, der projizierten 2D_Linien-Endpunkte in die Bodenebene und der projizierten Raketenposition in die Bodenebene. In Matrixform sind diese Ebenen
  • Figure 00590001
  • Berechne auch die Koeffizienten
    [A B C D]START
    und
    [A B C D]STOP
    für diese zwei Ebenen wie oben. Die Ebenen Linien-Schnittpunktentfernung dSTART für die PSTART-Ebene wird wie folgt berechnet: dSTART = sign(t)*||s 3D_LINIE*t||wobei t = –(([A B C]START*i 3D_LINIE + DSTART)/([A B C]START*s3D_LINIE))
  • Der dSTOP-Wert für die PSTOP-Ebene wird in ähnlicher Weise berechnet. Schließlich wird der Acht-Zustands-Vektor {xs, Ys, zs, xs, ys, zs, dSTART, dSTOP}INIT zusammengesetzt aus s3D_LINIE, i3D_LINIE, dSTART bzw. dSTOP als die anfängliche 3D-Linien-Abschätzung für diese 3D_Linie gespeichert. Die 3D_Linie wird als L_INITTED markiert. Es ist zu bemerken, dass eine 3D_Linie auf dem gleichen Rahmen nicht P-INITTED und L_INITTED sein kann.
    • 6) Die Unterprozedur 3D_Linien_löschen entfernt 3D_Linien aus der Liste der 3D_Linien. Es gibt zwei Arten des Löschens: UNBEANSPRUCHT und ERZWUNGEN.
    • – Lösche alle 3D_Linien, die für T3D_LÖSCHEN Rahmen UNBEANSPRUCHT sind, indem der Computerspeicher geleert wird, der ihre Werte speichert.
    • – Lösche alle 3D_Linien, wenn der 3D_LÖSCHE_ALLE- oder der 3D_LOAL_NEUSTART-Wert auf WAHR gesetzt ist, indem der Computerspeicher geleert wird, der ihre Werte speichert. Der 3D_LÖSCHE_ALLE-Wert wird normalerweise nur gesetzt, wenn eine große Sensorschwenkung erwartet wird.
    • 7) Die Unterprozedur 3D_Linie_füge_neue_Linien_hinzu erzeugt NEUE 3D_Linien aus den 2D_Verfolgungen, die auf dem gegenwärtigen Rahmen nicht beansprucht sind. Für jede 2D_Verfolgung, der in der 3D_Linien_Assoziations-Unterprozedur auf diesem Rahmen nicht beansprucht ist, wird ein Platz im Computerspeicher für eine 3D_Linie zugewiesen und es werden ihr die folgenden Messungen zugewiesen: 3D_Linienindex = 2D_Verfolgungsindex 3D_Linienzustand = NEU 3D_Linienstatus = UNBEANSPRUCHT 3D_Linie_Init_Rahmen = aktueller_Rahmen 3D_Linie_aktualisiere_Zähler = 0 3D_Linie_letzter_Aktualisierungsrahmen = aktueller_Rahmen 3D_Linie_Ref_Ebene = UNBEKANNT 3D_Linienphase = 2D_Verfolgungsphase 3D_Linie_start_x = 2D_Linie_start_xbeste_assoziierte 3D_Linie_start_y = 2D_Linie_Start_ybeste_assoziierte 3D_Linie_stop_x = 2D_Linie_stop_xbeste_assoziierte 3D_Linie_stop_y = 2D_Linie_stop_ybeste_assoziierte 3D_Linie_Pcov = Kσ2 P 3D_Linie Qσ2 = Kσ2 Q 3D_Linie Rσ2 = Kσ2 R
  • 3D_Linien_Filterung
  • Die 3D_Linien_Filterungs-Prozedur schließt Aktualisierungen in die 3D-Linienzustände unter Verwendung von Kalman-Filterung ein. Sie führt auch eine Qualitätskontrollprüfung an den Zuständen durch, um zu sehen, ob die 3D-Linienwerte stabil genug sind, um zur 3D_LOAL_ZIELERFASSUNGS-Phase ausgegeben zu werden. Die 3D_Linien_Filterungs-Prozedur setzt sich aus den folgenden Unterprozeduren zusammen:
    • 1) 3D_Linien_Aktualisierung
    • 2) 3D_Linien_QK
    • 3) 3D_Linien_Ausgabe
  • 18 ist ein schematisches Diagramm der 3 Unterprozeduren, die erforderlich sind, um die 3D_Linien so zu filtern, dass sie gute_3D_Linien werden und in der Modellanpassungsphase von 3D_LOAL verwendet werden können.
    • 1) Die Unterprozedur 3D_Linien_Aktualisierung wird an 3D-Linien ausgeführt, die einen L_INITTED-Status haben und auf dem gegenwärtigen Rahmen BEANSPRUCHT sind (es ist darauf hinzuweisen, dass eine 3D_Linie auf dem gleichen Rahmen nicht L_INITTED und AKTUALISIERT sein kann). Berechne zuerst einen neuen Zustandsvektor {xs, ys, zs, xs, ys, zs, dSTART, d_STOP}NEU für die Ebene, die auf dem gegenwärtigen Rahmen definiert ist, und für die Ebene, die auf dem Rahmen gleich (aktueller_Rahmen-Rahmen_Δ_Index) definiert ist. Der Wert von Rahmen_Δ_Index, der für diese Linie ver wendet wird, wird aus dem Parameter-Pufferspeicher entsprechend dem 3D_Linie_Init_Rahmen-Wert abgerufen. Sobald die neuen 3D-Linienzustände berechnet sind, werden sie unter Verwendung eines Kalman-Filters den alten Zuständen zugefügt. Aktualisiere zuerst die konditionelle Kovarianz und die Kalman-Verstärkungswerte. In der vorliegenden Ausführung werden die Linienzustände als unabhängig behandelt, und es wird daher die gleiche Kovarianz und die gleiche Kalman-Verstärkung für jeden Zustand verwendet. Die Aktualisierungen sind wie folgt: PNEUCOV = 3D_Linie_PCOV + 3D_Linie_Q_σ2 und KNEUG = PNEUCOV /(PNEUCOV + 3D_Linie_R_σ2) Berechne als Nächstes die Innovationen oder die Fehlersequenz als:
      Figure 00620001
      Dieser Fehlervektor wird mit dem neuen Zustandswert wie folgt kombiniert. Er wird auch für die Verwendung in der 3D_Linie_QK-Unterprozedur gespeichert. Die neuen, gefilterten Zustandswerte werden wie folgt berechnet:
      Figure 00630001
      Es ist darauf hinzuweisen, dass die neuen dSTART- und dSTOP-Zustände nur berechnet werden, wenn die 2D_Linie_Berührung_Start- und 2D_Linie_Berührung_Stop-Werte aus dem gegenwärtigen Rahmen für die 2D_Linie, die mit diese 3D_Linie auf dem vorliegenden Rahmen assoziiert ist, nicht WAHR sind. Wenn die Berührungswerte nicht WAHR sind, werden dSTART und dSTOP wie folgt gefiltert: [dSTART]GEFILTERT = [dSTART]NEU + KG NEU*[dSTART]FEHLER [dSTOP]GEFILTERT = [dSTOP]NEU + KG NEU*[dSTOP]FEHLER Vervollständige die Filteraktualisierung durch Berechnung der Kovarianzaktualisierung: 3D_Linie_PCOV = (1 – KG NEU)*PCOV NEU Kopiere schließlich die neuen gefilterten Zustände in den 3D-Linienzustand für die mögliche Verwendung in der 3D_LOAL_ZIELERFASSUNGS-Phase und markiere die 3D_Linie als AKTUALISIERT. Speichere auch die Kovarianzaktualisierungswerte für die Verwendung bei der nächsten Aktualisierung.
    • (2) Die 3D_Linie_QK-Unterprozedur überprüft den für 3D_Linien, die aktualisiert worden sind, erzeugten Fehlervektor und entscheidet, ob sie gute_3D_Linien werden. Berechne für jede 3D_Linie, die als AKTUALISIERT markiert ist, die vier Prozent-Fehlerwerte: eS, eI, eN, eSTART und eSTOP für die Neigungs-, Schnittpunkts-, Normalen-, dSTART- bzw. dSTOP-Fehler. Diese Fehlerwerte werden wie folgt berechnet: eS = 100*||[xS yS zS]FEHLER|| eI = 100*||x1 y1 z1]FEHLER||/RLOS eN = 100*(1 – ||[xS yS sS]FEHLER||) eSTART = 100*[dSTART]FEHLER/RLOS eSTOP = 100*[dSTOP]FEHLER/RLOS Die Linie ist eine gute_3D_Linie, wenn die folgenden Bedingungen alle erfüllt sind. Für eine 3D_Linie unter Verwendung der PV-Bezugsebene: eS ≤ TSTEIGUNG_TEST_V eI ≤ TINTCPT_TEST_V eN ≤ TNORM_TEST_V eSTART ≤ TSTART_TEST_V eSTOP ≤ TSTOP_TEST_V Für eine 3D_Linie unter Verwendung der PH1- oder PH2-Bezugsebene: eS ≤ TSTEIGUNG_TEST_H eI ≤ TINTCPT_TEST_H eN ≤ TNORM_TEST_H eSTART ≤ TSTART_TEST_H eSTOP ≤ TSTOP_TEST_H Markiere jede Linie, die den vorher angeführten Test passiert, für diesen Rahmen als GUT.
    • 3) Die Unterprozedur 3D_Linien_Ausgabe gibt bis zu NMAX_GUTE_3D_LINIEN an die 3D_LOAL_ZIELERFASSUNGS-Phase aus. Nur die neueste "gut"-Aktualisierung der gute_3D_Linie wird ausgegeben.
  • 3D_LOAL_ZIELERFASSUNG
  • Der Zweck dieser Phase besteht darin, die guten_3D_Linien an die Voranweisungsdatei anzupassen und eine Grobkorrektur für den Raketennavigationsfehler in Bezug auf den vorangewiesenen Zielverfolgungspunkt/Zielpunkt zu erzeugen. Sie läuft zusätzlich zu der 3D_LOAL_ERMITTLE_LINIEN-Phase ab. Sie wird aktiv, sobald TNUM_G_LINIEN von guten_3D_Linien erzeugt sind. Sie muss nicht auf jedem Rahmen ablaufen, tut es aber in der vorliegenden Ausführung. Sie muss abgeschlossen sein, bevor RLOS unter die Raketen-Flugwerk-Manöver-Grenzen TBEREICH_VERFOLGUNG (TRANGE_TRACK) zur Korrektur des maximal möglichen Zielverfolgungspunkt/Zielpunkt-Fehlers abfällt. Dieser Wert ist vom Raketenflugwerk abhängig. Es sind fünf Prozeduren erforderlich, um die Anpassung zu erzeugen. Diese Prozeduren sind:
    • 1) Modell_Transformation (model_transform)
    • 2) analysiere_Modell_Linien (parse_model_lines)
    • 3) 2D_Vektor_Verarbeitung (2D_vector_processing)
    • 4) 2,5D_Vektor_Verarbeitung (2.5D_vector_processing)
    • 5) Zielpunkt_Verarbeitung (aimpoint_processing)
  • 19 ist ein schematisches Diagramm der 3D_LOAL_ZIELERFASSUNGS-Phase. Das ist die Phase, in welcher 3D_Linien von der Szene an Linien in der Voranweisung ange passt werden und zuerst eine Raketenleitkorrektur erzeugt wird.
  • Modell_Transformation
  • Die Modell_Transformation-Prozedur bildet die Voranweisungslinien in das Koordinatensystem ab, in welchem der Anpassungsprozess ausgeführt werden soll. Im Falle einer 3D_Drahtgitter_Voranweisung oder Aufklärungs_Voranweisungs-Nadir erfolgt dieses Anpassen in dem Endkoordinatensystem. Im Falle einer Aufklärungs_Voranweisungs-Nicht-Nadir erfolgt die Anpassung in der Voranweisungs-(oder Kamera-)Bildebene. Die Transformation von Modelllinien in das Anpassungs-Koordinatensystem muss nur einmal ausgeführt werden. Die Modell_Transformation-Prozedur setzt sich aus den folgenden Teilprozeduren zusammen:
    • 1. Modell_VA_zu_End_Transformation (model_pb_to_term_transform)
    • 2. gute_3D_Linie_zu_VA_Transformation (good_3D_line_to_pb_transform)
    • 3. Modell_Linie_Vorber (model_line_prep)
    • 1) Die Modell_VA_zu_End_Transformation wird für 3D_Draht_Rahmen-Voranweisungen und 2D_Nadir-Voranweisungen durchgeführt. Sie transformiert Zielpunkt und Modelllinien wie folgt in das Endkoordinatensystem: für den Zielpunkt:
      Figure 00660001
      für jede Modelllinie:
      Figure 00670001
      Da der Zielverfolgungspunkt, der Ursprung des Endkoordinatensystems und der Ursprung des Kamerasystems sich alle derselbe Punkt sind, müssen nur Drehungen berechnet werden.
    • 2) Die Teilprozedur gute_3D_Linie_zu_VA_Transformation wird für Aufklärungs_Voranweisungs_Nicht-Nadir-Missionen ausgeführt. Sie muss auf jedem 3D_LOAL_ZIELERFASSUNGS-Rahmen ausgeführt werden. Sie transformiert die aktuellen guten_3D_Linien in das Voranweisungs- oder Anpassungskoordinatensystem für jede gute_3D_Linie wie folgt:
      Figure 00670002
      Da der Zielverfolgungspunkt, der Ursprung des Endkoordinatensystems und der Ursprung des Kamerasystems alle derselbe Punkt sind, müssen wieder nur Drehungen berechnet werden. Nachdem entweder die Unterprozedur 1 oder 2 ausgeführt ist, befinden sich die analysierten_Modell_Linien und die guten_3D_Linien in dem richtigen Koordinatensystem zur Anpassung.
    • 3) Die Unterprozedur Modell_Vorber berechnet eine Länge m_LinieL und den Orientierungsrichtungskosinusvektor m_Liniea für jede Modelllinie wie folgt:
      Figure 00680001
      und
      Figure 00680002
  • analysiere_Modell_Linien
  • Die analysiere_Modell_Linien-Prozedur kürzt die Liste der m_Linien auf nur diejenigen, die sich in dem Sensor-Sichtfeld (FOV) befinden. Sie muss wenigstens einmal beim Start von 3D_LOAL_ZIELERFASSUNG ausgeführt werden, kann jedoch so oft wie möglich unter Berücksichtigung des Computerdurchsatzes aktualisiert werden. Sie muss weiterhin nach jedem Sensor-Drehvorgang ausgeführt werden.
  • Zunächst wird das projizierte Sensorsichtfeld in der Anpassungsebene unter Verwendung der vier Ecken des Bildrasters berechnet, wie es in 20 Teil A dargestellt ist. Dieses Sichtfeld wird dann um ein Mehrfaches des Zielfindungs-Unbestimmtheitsfaktors erweitert, wie es in 20 Teil B dargestellt ist. Schließlich werden alle projizierten m_Linien, die einen Teil dieses erweiterten Sichtfeldes überlappen, als ANALYSIERT gekennzeichnet.
  • 20 stellt die Berechnung des Sensorsichtfeld-Analysebereichs dar. Teil A zeigt die direkte Sensorsichtfeldprojektion und Teil B ist die Sichtfelderweiterung um die Zielfindungsunbestimmtheit.
  • 2D_Vektor_Verarbeitung
  • Die 2D_Vektor_Verarbeitung-Prozedur erzeugt eine Raketennavigationskorrektur in den zwei Achsen der Anpassungsebene. Die 2D_Vektor_Verarbeitung-Prozedur setzt sich aus den folgenden Unterprozeduren zusammen:
    • 1. 2D_Linien_Übereinstimmung (2D_line_correspondence)
    • 2. 2D_Vektor_Aufeinanderpassung (2D_vector_registration)
    • 3. 2D_Score_Flächen_Verarbeitung (2D_score_surface_processing)
  • 21 ist ein schematisches Diagramm, welches die 3 Unterprozeduren zeigt, die erforderlich sind, um die Querbereichs- und Abwärtsbereichskomponenten des Zielpunkt-/Zielverfolgungspunkt-Korrekturvektors zu erzeugen.
    • 1) Die Unterprozedur 2D_suche_Linien_Übereinstimmung erzeugt eine Liste von Linienpaaren aus der Liste der analysierten_Modell_Linien und der Liste der guten_3D_Linien. Sie berücksichtigt nur die x- und y-Größen der Linien, um diese Übereinstimmungen zu finden. Berechne zunächst eine projizierte 2D-Version jeder analysierten_Modell_Linie und jeder guten_3D_Linie wie folgt:
      Figure 00690001
      wenn LinieL ≠ 0, sonst
      Figure 00690002
      andernfalls, wobei
      Figure 00690003
      wobei Δx und Δy wie zuvor berechnet werden (dies ist auch äquivalent zu den Richtungskosinuswerte für die Linie). Prüfe als Nächstes alle Kombinationen von analysierten_Modell_Linien und guten_3D_Linien, um zu sehen, ob sie nahezu "parallel" sind, mit dem folgenden Test:
      Figure 00700001
      wobei TPARALLELI der Kosinus des zulässigen Winkelfehlers ist, der "parallel" definiert. Führe für jedes Paar, das diesen Test passiert, einen Entfernungstest (distance test) durch. Der Entfernungstest hat zwei Schritten. Schritt eins, berechne für jede gute_3D_Linie, die für ein 2D_Übereinstimmungs_Paar berücksichtigt wird, unter Verwendung der projizierten Raketen-Zielfindungsunbestimmtheit [σxM σyM] eine 2D-Pufferbox um sie herum, wie es in 22 Teil A dargestellt ist. Prüfe als Nächstes für jede analysierte_Modell_Linie, die den "parallel"-Test mit dieser guten_3D_Linie passiert hat, ob sich ihr Mittelpunkt innerhalb der 2D-Pufferbox befindet, wie es in 22 Teil B dargestellt ist. Wenn dies der Fall ist, füge die gute_3D_Linie/analysierte Modell_Linie-Paar-Indizes der 2D_Übereinstimmungs-Liste für diesen Rahmen hinzu. 22 Teile A und B zeigen die Berechnung des 2D_Linien_Übereinstimmung-Entfernungstests. Teil A zeigt die Pufferbox um die gute_3D_Linie herum, und Teil B zeigt die Schnittpunktberechnung (intercept calculation) mit den analysierten_Modell_Linien.
    • 2) Die Unterprozedur 2D_Vektor_Aufeinanderpassung berechnet eine beste Versatzabschätzung für den Satz von auf diesem Rahmen erzeugten 2D_Linien Übereinstimmung-Paaren. Der erste Schritt besteht darin, einen senkrechten Versatzvektor für jedes 2D_Linien_Übereinstimmung-Paar zu berechnen. Dieser Vektor ist der 2D-Vektor, der senkrecht zu der analysierten_Modell_Linie ist und den Mittelpunkt der guten_3D_Linie schneidet. Seine Berechnung ist grafisch in 23 Teil A dargestellt. Suche als Nächstes die senkrechte 2D-Halbierende des senkrechten 2D-Versatzvektors, wie es in 23 Teil B dargestellt ist. Diese Linie kann in den Ausdrücken der Richtungskosinus dargestellt werden als cij = [y2D]ij*x + [–x2D]ij*yfür eine gute_3D_Linie (i) und für eine analysierte_Modell_Linie (j), wobei cij = [v2D]ij*xmidi + [–y2D]ij*ymidi 23 zeigt die Berechnung der senkrechten 2D-Halbierenden für ein 2D_Linien_Übereinstimmung-Paar. Teil A ist die Berechnung der Normalen zwischen den 2 Linien, und Teil B ist die Berechnung der senkrechten Halbierenden der Normalen. Suche nun für jedes 2D_Linien_Übereinstimmung-Paar (ij) den Schnitt seiner senkrechten Halbierenden
      Figure 00710001
      mit jedem anderen 2D-Linien_Übereinstimmung-Paar (mn) und sammle sie in einem 2D_Aufeinanderpassungs_Score_Flächen-Array (2D_registration_score_surface array). Dies erfolgt durch Inkrementieren des Punktes
      Figure 00720001
      in dem Array um den Wert (min((LinieL)i, (LinieL)j) + min((LinieL)m, (LinieL)n))Die Gleichung für den Schnitt ist:
      Figure 00720002
      Wenn der Nenner dieser Gleichung gleich Null ist, sind die Halbierenden parallel und es erfolgt keine Sammlung für dieses (ij)/(mn)-Paar. Das Array ist in der Größe gleich der Raketen-Zielfindungs- und -Navigations-Unbestimmtheit, wie es in die Anpassungsebene projiziert ist. Die Schnittwerte, müssen gerundet werden, um die Arraygitterauflösung widerzuspiegeln. Die Auflösung kann für verschiedene Rahmen verschieden sein, d. h. 4 Meter pro Zelle bei großem Abstand, 2 Meter pro Zelle bei mittlerem Abstand und 1 Meter pro Zelle bei dichtem Abstand, solange der Skalierung auf jedem Rahmen korrekt Rechnung getragen wird. Ein beispielhafte Scorefläche (score surface) ist in 24 dargestellt. 24 zeigt ein Beispiel einer durch Simulation erzeugten 2D-Aufeinanderpassungs-Scorefläche (2D registration score surface).
    • 3) Die 2D_Score_Flächen_Verarbeitung-Prozedur findet bis zu N2D_SPITZEN Spitzenwert(e) in der 2D_Aufeinanderpassungs_Score_Fläche (wenn Aufklärungs_Voranweisung verwen det wird, ist N2D_SPITZEN = 1) und speichert die "besten" Werte über die Zeit. Eine Spitze ist als jeder Wert in der 2D_Aufeinanderpassungs_Score_Fläche definiert, der größer als alle seine acht Nachbarn ist. Wenn keine Spitzen auf irgendeinem bestimmten Rahmen vorhanden ist, dann wird die 2D_Aufeinanderpassungs_Score_Fläche über mehrere Rahmen gesammelt bis Spitzen gefunden werden. Die 2D_Aufeinanderpassungs_Score_Fläche kann auch mit der Anzahl der guten_3D_Linien oder der analysierten_Modell_Linien normalisiert werden, die auf einem bestimmtes Rahmen verwendet werden. Somit besteht die Spitze k aus dem Drei-Element-Vektor [x y s] SPITZE / k wobei s der 2D_Aufeinanderpassungs_Score_Flächen-Wert ist.
  • 2,5D_Vektor_Verarbeitung
  • Die 2,5D_Vektor_Verarbeitung-Prozedur erzeugt eine Raketennavigationskorrektur in der dritten Achse der Anpassungsebene. Die 2,5D_Vektor_Verarbeitung-Prozedur setzt sich aus den folgenden Unterprozeduren zusammen:
    • 1) 2,5D_suche_Linien_Übereinstimmung (2.5D_find_line_correspondence)
    • 2) 2,5D_Vektor_Aufeinanderpassung (2.5D_vector_registration)
    • 3) 2,5D_Histogramm_Verarbeitung (2.5D_histogram_processing)
  • 25 ist ein schematisches Diagramm der 3 Unterprozeduren, die erforderlich sind, um eine 2,5D-Aufeinanderpassung oder die Höhenkorrektur für den Zielpunkt-/Zielverfolgungspunkt-Vektor zu berechnen.
  • Diese Übereinstimmungen sind in Wirklichkeit 3D-Übereinstimmungen. Da jedoch nur einige wenige Punkte in dem gesamten 3D-Suchvolumen überprüft werden, wird sie als 2,5D bezeichnet.
    • 1) Die Unterprozedur 2,5D_suche_Linien_Übereinstimmung erzeugt eine Liste von 2,5D_Linien_Übereinstimmung-Paaren. Diese Liste wird aus der analysierte_Modell_Linien-Liste und den guten_3D_Linien bei jeder Spitze erzeugt, die aus der vorhergehenden Prozedur ausgegeben wurde. Die gesamte Anpassung für die 2,5D_Vektor_Verarbeitung-Prozedur wird in dem Endkoordinatensystem berechnet. Zunächst werden für jede Spitze k alle guten_3D_Linien um [x y] SPITZE / k verschoben. Für den 3D_Drahtgitter_Voranweisungs- oder den Aufklärungs_Voranweisungs-Nadir-Fall ist die Translation bereits in dem Endkoordinatensystem vorhanden. Für den Aufklärungs_Voranweisungs-Nicht-Nadir-Fall müssen der Translationswert [x y] SPITZE / k SPITZE und alle guten_3D_Linien unter Verwendung von DPB→T = DPB→E'*DE→T' in das Endkoordinatensystem zurück transformiert werden, bevor sie verarbeitet werden. Als Nächstes werden alle Kombinationen von analysierten_Modell_Linien und guten_3D_Linien mit dem folgenden Test überprüft, um zu sehen, ob sie nahezu "parallel" sind:
      Figure 00750001
      wobei TPARALLEL wieder der Kosinus des zulässigen Winkelfehlers ist, der "parallel" definiert, und
      Figure 00750002
      wenn LinieL ≠ 0, sonst
      Figure 00750003
      andernfalls, wobei
      Figure 00750004
      wobei Δx, Δy und Δz wie vorher berechnet werden (dies ist auch äquivalent mit den 3D_Richtungskosinuswerten für die Linie). Es ist darauf hinzuweisen, dass für den Fall Aufklärungs_Voranweisungs-Nicht-Nadir-Fall Δz gleich Null auf Modell_Linien zu verwenden ist, da Höhenbezugslinien bei der Missionsplanung als horizontal angenommen werden. Führe für jedes Paar, das diesen Test passiert, einen Entfernungstest durch. Der Entfernungstest hat zwei Schritte. Schritt eins, berechne für jede umgesetzte gute_3D_Linie, die für ein 3D_Übereinstimmung_Paar berücksichtigt wird, eine 3D-Pufferbox um sie herum unter Verwendung eines verringerten Skalenwertes der Raketen- Zielfindungs-Unbestimmtheit K2,5D*[σxM σyM] und den vollen Skalenwert der Raketen-z-Unbestimmtheit [σzM] (wie in die Anpassungsebene projiziert), wie es in 26 Teil A dargestellt ist. Überprüfe als Nächstes für jede analysierte_Modell_Linie, die den "parallel"-Test mit dieser guten_3D_Linie passiert, ob sich ihr Mittelpunkt innerhalb der 3D-Pufferbox befindet, wie es in 26 Teil B dargestellt ist. Wenn dies der Fall ist, füge die gute_3D_Linie/analysierte_Modell_Linie-Paar-Indizes der 2,5D_Übereinstimmungs-Liste für diesen Rahmen hinzu. 26 Teile A und B zeigen die Berechnung des 2,5D_Linien_Übereinstimmung-Entfernungstests. Teil A zeigt die Pufferbox um die gute_3D_Linie, und Teil B zeigt die Schnittberechnung (intercept calculation) mit den analysierten_Modell_Linien. Es ist darauf hinzuweisen, dass für alle Aufklärungs_Voranweisungen nur die analysierten_Modell_Linien bezüglich 2,5D verarbeitet werden, die in den ersten NALT_LINES liegen.
    • 2) Die Unterprozedur 2,5D_Vektor_Aufeinanderpassung berechnet ein Histogramm von Höhenversatz-Vektoren für jede Spitze dieses Rahmens. Die Berechnung erfolgt in dem Endkoordinatensystem. Das Histogramm setzt sich aus den gesammelten Δz-Komponenten jedes 3D_Linien_Übereinstimmung-Paares zusammen, das für eine gegebene Spitze erzeugt worden ist. Der Δz-Wert wird berechnet, indem zuerst das 3D_Linien_Übereinstimmung-Paar in die x, z- oder y, z-Ebene projiziert wird, gemäß derer sie "am meisten" parallel ist, und dann der 2D-Versatzvektor parallel zu der z-Achse berechnet wird, der von der projizierten analysierten_Modell_Linie ausgeht und den Mittelpunkt der guten_3D_Linie schneidet. Ein Beispiel ist in 27 dargestellt. 27 stellt die Berechnung der z-Versatz-Komponente für ein 2,5D_Linien_Übereinstimmung-Paar dar. Der z-Histogrammwert bei Δz wird um den Wert min((LinieL)M_LINIE, (LinieL)G_LINIE)inkrementiert.
    • 3) Die Unterprozedur 2,5D-Histogramm-Verarbeitung verfolgt die besten Gesamtanpassungswerte, während die 3D_LOAL_ZIELERFASSUNGS-Phase ausgeführt wird.
    • – Für den 3D_Drahtgitter_Voranweisungs-Fall wird die x, y-Position der Spitze, die den einzigen höchsten z-Histogrammwert erzeugt, als "beste" Abschätzung der Abwärtsbereichs- und Querbereichs-Komponenten des Zielverfolgungspunkt-/Zielpunkt-Korrekturvektors weitergetragen, und der z-Kanal dieser höchsten Spitze in dem z-Histogramm wird als die Höhenkomponente des Korrekturvektors verwendet, d. h.
      Figure 00770001
    • – Für eine Aufklärungs_Voranweisung wird die "beste" x, y-Position, wie sie in das Endkoorddinatensystem projiziert wird, aus der vorhergehenden Prozedur als Abwärtsbereichs- und Querbereichskomponente des Zielverfolgungspunkt-/Zielpunkt-Korrekturvektors verwendet, und der z-Kanal der höchsten Spitze in dem z-Histogramm wird als die Höhenkomponente des Korrekturvektors verwendet, d. h.
  • Figure 00780001
  • Zielpunkt_Verarbeitung
  • Wenn der maximale z-Wert einen gewissen Minimalwert TBEREICH_VERFOLGUNG (TRANGE_TRACK) erreicht, geht 3D_LOAL zu der 3D_LOAL_VERFOLGUNG-Stufe über. Die folgenden Aktionen sind an dem Übergang zur Verfolgung beteiligt:
    • – Der Zielverfolgungspunkt-/Zielpunkt-Korrekturvektor wird zu den Raketenzielpunkt- und Zielverfolgungspunkt-Positionen addiert.
    • – Der neue Zielpunkt wird zu dem Sensorstarrpunkt kopiert.
    • – Der Zielverfolgungspunkt-/Zielpunkt-Korrekturvektor wird verwendet, um das Voranweisungsmodell in die korrigierten Koordinaten für die Verwendung in der 3D_LOAL_VERFOLGUNG-Phase umzusetzen
    • – Der Zielort/Raketenlenkungs-Unbestimmtheitsfehler engt sich für kleine Entfernungen auf den Raketenträgheitsnavigationsunbestimmtheit ein, d. h. [σxM σyM σzM] = KVERFOLG*[σxM σyM σzM]
  • 3D_LOAL_VERFOLGUNG
  • Der Zweck dieser Phase besteht darin, "feine" oder kleine Korrekturen an dem Zielpunkt-Korrekturvektor bereitzustellen, um den endgültigen gewünschten CEP zu erhalten. In 3D_LOAL_VERFOLGUNG fährt der 3D_LOAL-Algorithmus fort, die 3D_LOAL_ERMITTLE_3D_LINIEN- und 3D_LOAL-Phasen des Algorithmus auszuführen. In der Realität ist 3D_LOAL_VERFOLGUNG das Ausführen von 3D_LOAL_ZIELERFASSUNG mit einer höheren Rahmenrate und einer reduzierten Liste von analysierten_Modell_Linien. Die höhere Rahmenrate wird durch zwei Faktoren erreicht:
    • 1) Die Navigations- und Zielfindungsfehler werden beträchtlich verringert, so dass ein 3D_LOAL_ZIELERFASSUNGS-Schnappschuss bzw. 3D_LOAL_ZIELERFASSUNGS-Schnappschüsse viel schneller erfolgen kann (können).
    • 2) Das schrumpfende Sensorsichtfeld führt dazu, dass weniger gute_3D_Linien erzeugt und weniger Modell_Linien analysiert werden.
  • Der einzige weitere Unterschied ist der Satz von Parametern, der während der Ausführung verwendet wird. Speziell sind diese:
  • Diese Phase wird weiter fortgesetzt, bis RLOS unter den Blindabstand TBEREICH_BLIND (TRANGE_BLIND) abfällt. Dies ist der Punkt, an dem die Rakete nicht länger effektiv ihren Einschlagpunkt über Lenkungsbefehle verändern kann und der von dem Raketenflugwerk abhängig ist.

Claims (11)

  1. Verfahren zum Leiten eines Projektils zu einem Ziel, das die folgenden Schritte umfaßt: Bereitstellen eine Projektils, das sich relativ zu einem Ziel bewegt, Bereitstellen einer Datenbank, die höchstens eine dreidimensionale Darstellung einzigartiger Merkmale des Ziels enthält, Verwenden eines Sensors an dem Projektil während seines Fluges, um mindestens ein Sensorbild eines Bereiches zu erzeugen, der das Ziel enthält, Vergleichen von Information aus der Datenbank mit Information aus dem mindestens einen Sensorbild, und Auffinden des Ziels in der Information aus dem mindestens einen Sensorbild in Reaktion auf eine vorbestimmte Übereinstimmung der Information aus der Datenbank und der Information aus dem mindestens einen Sensorbild, gekennzeichnet durch die folgenden Schritte: Verwenden eines zweidimensionalen Sensors als der Sensor, Ausführen des Schrittes des Verwendens des Sensors durch Erzeugen einer Sequenz zweidimensionaler Bilder von dem Bereich, der das Ziel enthält, und fortwährendes Bilden einer dreidimensionalen Darstellung des Bereiches, der das Ziel enthält, aus der Sequenz zweidimensionaler Bilder, wobei die Information aus dem mindestens einen Sensorbild, die in dem Vergleichsschritt verwendet wird, Information aus der dreidimensionalen Darstellung des Bereiches ist, und wobei das Ziel in der Information aus der dreidimensionalen Darstellung des Bereiches während des Auffindungsschrittes identifiziert wird.
  2. Verfahren nach Anspruch 1, bei dem das Projektil eine lenkbare Rakete ist.
  3. Verfahren nach Anspruch 1, bei dem der Schritt des fortwährenden Bildens der dreidimensionalen Darstellung an dem Projektil durchgeführt wird.
  4. Verfahren nach Anspruch 1, das ferner den Schritt umfaßt, daß der Vergleichsschritt ausgeführt wird, bis die vorbestimmte Übereinstimmung in dem Auffindungsschritt festgestellt wird.
  5. Verfahren nach Anspruch 1, das ferner den Schritt umfaßt, daß das Projektil zu dem Ziel gelenkt wird, nachdem das Ziel durch die vorbestimmte Übereinstimmung aufgefunden worden ist.
  6. Verfahren nach Anspruch 1, bei dem die Datenbank von dem Projektil entfernt angeordnet ist, und bei dem die Schritte des fortwährenden Bildens, Vergleichens und Auffindens an einem Ort durchgeführt werden, der von dem Projektil entfernt ist.
  7. Verfahren nach Anspruch 1, das den Schritt umfaßt, daß aus der dreidimensionalen Darstellung eine erste Information abgeleitet wird, die eine Darstellung des das Ziel enthaltenden Bereiches ist, wie er von einem bestimmten Betrachtungspunkt gesehen wird, und die die Information aus der dreidimensionalen Darstellung ist, die in dem Vergleichsschritt verwendet wird, und das den Schritt umfaßt, daß Daten aus der Datenbank angepaßt werden, um eine zweite Information zu erhalten, die eine Darstellung des Bereiches ist, wie er von dem bestimmten Betrachtungspunkt gesehen würde, und die die Information aus der Datenbank ist, die in dem Vergleichsschritt verwendet wird.
  8. Verfahren nach Anspruch 1, das die folgenden Schritte umfaßt: Konfigurieren der Information aus der Datenbank, um ein Vielzahl von Linien zu enthalten, die Merkmale des Bereiches darstellen, und Konfigurieren der Information aus der dreidimensionalen Darstellung, um eine Vielzahl von Linien zu enthalten, die Merkmale des Bereiches darstellen, wobei der Vergleichsschritt den Schritt umfaßt, daß die Linien in der Information aus der Datenbank mit den Linien in der Information aus der dreidimensionalen Darstellung verglichen werden.
  9. Verfahren nach Anspruch 1, bei dem die Information aus der Datenbank dreidimensionale Information ist und bei dem die Information aus der dreidimensionalen Darstellung dreidimensionale Information ist.
  10. Verfahren nach Anspruch 1, bei dem die Information aus der Datenbank zweidimensionale Information ist und bei dem die Information aus der dreidimensionalen Darstellung zweidimensionale Information ist.
  11. Verfahren nach Anspruch 1, bei dem die dreidimensionale Datenbank eine zweidimensionale Darstellung des Bereiches enthält, wie er von einem bestimmten Betrachtungspunkt gesehen wird, wobei die Information aus der Datenbank, die für den Vergleichsschritt verwendet wird, auf der zweidimensionalen Darstellung in der Datenbank beruht, und das den Schritt umfaßt, daß aus der dreidimensionalen Darstellung Information abgeleitet wird, die eine zweidimensionale Darstellung des Bereiches ist, wie er von dem bestimmten Betrachtungspunkt gesehen wird, und die die Information aus der dreidimensionalen Darstellung ist, die für den Vergleichsschritt verwendet wird.
DE69730733T 1996-12-17 1997-12-16 Flugkörperlenkungssystem mit verriegelung nach abschuss und rekonstruktion von dreidimensionalen szenen Expired - Lifetime DE69730733T2 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US3339796P 1996-12-17 1996-12-17
US33397P 1996-12-17
PCT/US1997/023309 WO1998030860A2 (en) 1996-12-17 1997-12-16 Lock-on-after launch missile guidance system using three-dimensional scene reconstruction

Publications (2)

Publication Number Publication Date
DE69730733D1 DE69730733D1 (de) 2004-10-21
DE69730733T2 true DE69730733T2 (de) 2005-09-29

Family

ID=21870184

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69730733T Expired - Lifetime DE69730733T2 (de) 1996-12-17 1997-12-16 Flugkörperlenkungssystem mit verriegelung nach abschuss und rekonstruktion von dreidimensionalen szenen

Country Status (5)

Country Link
US (1) US5881969A (de)
EP (1) EP0946851B1 (de)
AU (1) AU7243198A (de)
DE (1) DE69730733T2 (de)
WO (1) WO1998030860A2 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102010022728A1 (de) * 2010-06-04 2011-12-08 Diehl Bgt Defence Gmbh & Co. Kg Verfahren zum Einweisen eines Flugkörpers auf ein Ziel

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19718947B4 (de) * 1997-05-05 2005-04-28 Rheinmetall W & M Gmbh Pilotgeschoß
FR2830078B1 (fr) * 2001-09-25 2004-01-30 Sagem Procede de guidage d'une roquette
JP2003263104A (ja) * 2002-03-11 2003-09-19 Mitsubishi Electric Corp 撮像情報認識システム
US6796213B1 (en) * 2003-05-23 2004-09-28 Raytheon Company Method for providing integrity bounding of weapons
US6896220B2 (en) * 2003-05-23 2005-05-24 Raytheon Company Munition with integrity gated go/no-go decision
FR2918168B1 (fr) * 2007-06-27 2009-08-28 Nexter Munitions Sa Procede de commande du declenchement d'un module d'attaque et dispositif mettant en oeuvre un tel procede.
US8103056B2 (en) * 2008-10-15 2012-01-24 Honeywell International Inc. Method for target geo-referencing using video analytics
DE102010018143A1 (de) * 2010-04-24 2011-10-27 Lfk-Lenkflugkörpersysteme Gmbh Verfahren zur Bestimmung von Positionsdaten eines Zielobjekts in einem Referenzsystem
DE102010018144A1 (de) 2010-04-24 2011-10-27 Lfk-Lenkflugkörpersysteme Gmbh Verfahren zur automatischen Erzeugung eines dreidimensionalen Referenzmodells als Geländeinformation für eine bildgebende Einrichtung
US20120274922A1 (en) * 2011-03-28 2012-11-01 Bruce Hodge Lidar methods and apparatus
US8525088B1 (en) 2012-03-21 2013-09-03 Rosemont Aerospace, Inc. View-point guided weapon system and target designation method
DE102015009577A1 (de) * 2015-07-23 2017-01-26 Mbda Deutschland Gmbh Suchkopf für einen Lenkflugkörper
US10317852B1 (en) 2015-10-29 2019-06-11 National Technology & Engineering Solutions Of Sandia, Llc Predictive guidance flight
US10663260B2 (en) * 2017-11-20 2020-05-26 Bae Systems Information And Electronic Systems Integration Inc. Low cost seeker with mid-course moving target correction
KR102150569B1 (ko) * 2019-02-28 2020-09-01 국방과학연구소 유도탄 위치 추정 방법 및 장치

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3145374C2 (de) * 1981-11-14 1984-12-20 Messerschmitt-Bölkow-Blohm GmbH, 8000 München Verfahren und Einrichtung zur Bekämpfung von Bodenzielen mittels Flugkörper
GB2293067B (en) 1984-06-29 1996-07-10 Marconi Avionics Processor arrangement
CH675638A5 (en) * 1987-09-11 1990-10-15 Contraves Ag Opto-electronic aircraft identification system - uses comparison of actual two=dimensional image of aircraft with projection of aircraft model
US5052045A (en) * 1988-08-29 1991-09-24 Raytheon Company Confirmed boundary pattern matching
US5870486A (en) 1991-12-11 1999-02-09 Texas Instruments Incorporated Method of inferring sensor attitude through multi-feature tracking
US5275354A (en) * 1992-07-13 1994-01-04 Loral Vought Systems Corporation Guidance and targeting system
US5664386A (en) 1994-11-02 1997-09-09 Palmersten; Michael J. Point-to-point interlocking panels

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102010022728A1 (de) * 2010-06-04 2011-12-08 Diehl Bgt Defence Gmbh & Co. Kg Verfahren zum Einweisen eines Flugkörpers auf ein Ziel

Also Published As

Publication number Publication date
WO1998030860A2 (en) 1998-07-16
DE69730733D1 (de) 2004-10-21
EP0946851A2 (de) 1999-10-06
AU7243198A (en) 1998-08-03
EP0946851B1 (de) 2004-09-15
US5881969A (en) 1999-03-16
WO1998030860A3 (en) 1998-11-12

Similar Documents

Publication Publication Date Title
DE69730733T2 (de) Flugkörperlenkungssystem mit verriegelung nach abschuss und rekonstruktion von dreidimensionalen szenen
DE69021354T2 (de) System zur Detektion eines Hindernisses.
DE69333693T2 (de) Leit- und Zielführungssystem
DE112018001050T5 (de) System und verfahren zur virtuell erweiterten visuellen gleichzeitigen lokalisierung und kartographierung
DE60308413T2 (de) Verfahren und vorrichtung zum bearbeiten und analysieren von digitalen gelände daten.
EP3980968B1 (de) Detektion, 3d-rekonstruktion und nachverfolgung von mehreren relativ zueinander bewegten starren objekten
DE3937427A1 (de) Bildverarbeitungsgeraet
EP2369296A2 (de) Navigationsverfahren für einen Flugkörper
EP2381207B1 (de) 3D-Zielvermessung und Zieleinweisung aus IR-Daten
DE102019000804B4 (de) Verfahren und Vorrichtung zur präzisen Positionsbestimmung und Erstellung von hochaktuellen Karten mit Sensorfusion
DE102015003666A1 (de) Verfahren zur Verarbeitung von erfassten Messdaten eines Sensors
DE112021006101T5 (de) Systeme und Verfahren zur Objektdetektion mit LiDAR-Dekorrelation
DE102006039104A1 (de) Verfahren zur Entfernungsmessung von Objekten auf von Bilddaten eines Monokamerasystems
AT511460B1 (de) Verfahren zur bestimmung der position eines luftfahrzeugs
DE19645556A1 (de) Vorrichtung zur Erzeugung von Lenksignalen für zielverfolgende Flugkörper
DE102008008499B4 (de) Verfahren zur rechnergestützten Berechnung der Bewegung eines Objekts aus Sensordaten
DE102019132973A1 (de) Verfahren zur Umorganisation von Abtastpunkten in einer von einem Detektionssystem eines Fahrzeugs erzeugten Punktwolke
DE4205056A1 (de) Verfahren und system zum abtasten einer szene zu dem zweck des klassifizierens einer mehrzahl von sich bewegenden objekten
Gilmore Knowledge-based target recognition system evolution
DE102020127315A1 (de) System und Verfahren zum Annotieren von Automobilradardaten
EP1116962B1 (de) Verfahren zur autonomen Detektion von Hubschraubern
DE102021212632A1 (de) Prüfung der Umfeldsensorik und/oder Umfeldperzeption eines Fahrzeugs
DE102015004939A1 (de) Verfahren zum Lenken eines Flugkörpers
EP3284010B1 (de) Verfahren zum klassifizieren eines fahrzeugs
DE4327186C2 (de) Einrichtung zur Endphasenlenkung rohrverschossener Munition

Legal Events

Date Code Title Description
8364 No opposition during term of opposition