DE69322611T2 - Verfahren und Vorrichtung zur Verfolgang eines Zielpunktes mit beliebigen Unterbildern - Google Patents

Verfahren und Vorrichtung zur Verfolgang eines Zielpunktes mit beliebigen Unterbildern

Info

Publication number
DE69322611T2
DE69322611T2 DE69322611T DE69322611T DE69322611T2 DE 69322611 T2 DE69322611 T2 DE 69322611T2 DE 69322611 T DE69322611 T DE 69322611T DE 69322611 T DE69322611 T DE 69322611T DE 69322611 T2 DE69322611 T2 DE 69322611T2
Authority
DE
Germany
Prior art keywords
sub
image
target point
dimensional
subimage
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69322611T
Other languages
English (en)
Other versions
DE69322611D1 (de
Inventor
Joel K. Highland Village Tx 75067 Mcwilliams
Don R. Lewisville Tx 75067 Van Rheeden
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Raytheon Co
Original Assignee
Raytheon TI Systems Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Raytheon TI Systems Inc filed Critical Raytheon TI Systems Inc
Publication of DE69322611D1 publication Critical patent/DE69322611D1/de
Application granted granted Critical
Publication of DE69322611T2 publication Critical patent/DE69322611T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S3/00Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
    • G01S3/78Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using electromagnetic waves other than radio waves
    • G01S3/782Systems for determining direction or deviation from predetermined direction
    • G01S3/785Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system
    • G01S3/786Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system the desired condition being maintained automatically
    • G01S3/7864T.V. type tracking systems
    • G01S3/7865T.V. type tracking systems using correlation of the live video image with a stored image
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G7/00Direction control systems for self-propelled missiles
    • F41G7/20Direction control systems for self-propelled missiles based on continuous observation of target position
    • F41G7/22Homing guidance systems
    • F41G7/2226Homing guidance systems comparing the observed data with stored target data, e.g. target configuration data
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G7/00Direction control systems for self-propelled missiles
    • F41G7/20Direction control systems for self-propelled missiles based on continuous observation of target position
    • F41G7/22Homing guidance systems
    • F41G7/2253Passive homing systems, i.e. comprising a receiver and do not requiring an active illumination of the target
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G7/00Direction control systems for self-propelled missiles
    • F41G7/20Direction control systems for self-propelled missiles based on continuous observation of target position
    • F41G7/22Homing guidance systems
    • F41G7/2273Homing guidance systems characterised by the type of waves
    • F41G7/2293Homing guidance systems characterised by the type of waves using electromagnetic waves other than radio waves

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • General Engineering & Computer Science (AREA)
  • Electromagnetism (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Image Analysis (AREA)
  • Aiming, Guidance, Guns With A Light Source, Armor, Camouflage, And Targets (AREA)

Description

    TECHNISCHES GEBIET DER ERFINDUNG
  • Diese Erfindung bezieht sich auf Computersteuerung und insbesondere auf ein Verfahren zum Verfolgen eines Zielpunktes mit beliebigen Unterbildern.
  • HINTERGRUND DER ERFINDUNG
  • In bestimmten Computersteuerungsanwendungen ist es notwendig, daß Bild eines Objektes passiv zu verfolgen und zu messen. Es ist insbesondere wichtig in den Zuführsystemen der Waffen, daß ein Ziel derart verfolgt wird. Wenn ein solches Ziel aktiv verfolgt wurde (d. h. unter Verwendung von Radar- oder Laser- Bereichsauffindungstechniken) könnte das Ziel das Vorhandensein der Verfolgungseinrichtung erfassen. Wenn das Ziel einmal das Vorhandensein der Verfolgungseinrichtung erfaßt hat, kann es mit einer von verschiedenen Möglichkeiten reagieren, von denen alle für die Verfolgungseinrichtung vernichtend sind. Beispielsweise kann das Ziel die Verfolgungseinrichtung "stören", in dem es sie mit Signalen bombardiert, die vergleichbar mit jenen sind, die die Verfolgungseinrichtung aktiv verwendet, oder das Ziel kann seine eigene Waffe auf die Verfolgungseinrichtung abfeuern, auf die Quelle des Verfolgungssignals, oder sogar auf den Startort der Verfolgungseinrichtung. Auf diese Weise könnte das Ziel die Verfolgungseinrichtung besiegen, die Verfolgungseinrichtung zerstören oder sogar den Startort der Verfolgungseinrichtung einschließlich des Betriebspersonals zerstören.
  • Passives Verfolgen eines Ziels ergibt jedoch eine schwere Einschränkung für die Verfolgungseinrichtung. Eine Verfolgungseinrichtung kann nicht genau den Abstand oder den "Bereich" zu einem Target bestimmen, wenn sie nicht aktiv das Objekt erfassen kann. Eine aktive Verfolgungseinrichtung könnte beispielsweise den Abstand zu einem Ziel durch Messen der vergangenen Zeit von der Ausstrahlung eines Hochfrequenzsignals zu dem Empfang des von dem Ziel reflektierten Signals bestimmen. Die Abwesenheit einer Bereichsmessung von der Verfolgungsreinrichtung zu dem Ziel begrenzt die passive Fähigkeit der Verfolgungseinrichtung, eine sichtbare Veränderung in dem Zielbild zu kompensieren, wenn sich die Verfolgungseinrichtung relativ zu dem Ziel bewegt.
  • Ohne diese Fähigkeit wird eine Verfolgungseinrichtung versagen, einen konstanten Zielpunkt aufrecht zu erhalten.
  • In der Praxis profitiert eine Verfolgungseinrichtung von dem Verfolgen verschiedener Unterbilder ihres Zielbildes. Diese Unterbilder sind zweidimensionale Wiedergaben von Strukturen, die physikalisch zu dem genauen Zielort oder "Zielpunkt" in der realen, dreidimensionalen Welt in Beziehung stehen. Verschiedene Unterbilder werden zum Zwecke der Redundanz verwendet, und weil der tatsächliche Zielpunkt des Ziels oftmals nicht verfolgbar ist, aufgrund niedrigen Bildkontrastes, niedriger Helligkeit, oder aus anderen Gründen. Wenn sich die Verfolgungseinrichtung dem Ziel nähert, werden die Unterbilder jedoch erscheinen, als ob sie mit Bezug zueinander nach außen strahlen. Die Position der Unterbilder mit Bezug zueinander kann sich auch auf andere Arten in bestimmten Situationen verändern. Beispielsweise können zwei auf einem Ziel angeordnete Unterbilder erscheinen, als ob sie sich einander annähern, wenn sie auf einer Oberfläche eines Ziels angeordnet sind, die von der Verfolgungseinrichtung wegrotiert. Ein mit einer geradlinigen Struktur verbundenes Unterbild oder eine Linie erzeugt andere Probleme für eine passive Verfolgungseinrichtung. Ein derartiges Unterbild ist von anderen Unterbildern, die anderen Punkten auf der Linie entsprechen, nicht unterscheidbar. Diese Zweideutigkeit kann einen schweren Fehler in eine Verfolgungsspur einführen. Gerade Kanten erscheinen typischerweise beim Verfolgen von Strukturen, wie etwa Gebäuden, Brücken, Dämmen oder internen Details auf gepanzerten Fahrzeugen. Die Bewegung der Verfolgungseinrichtung kann weiter durch Hintergrundunterbilder verkompliziert werden, die fehlerhafterweise durch die Verfolgungseinrichtung verfolgt werden. Eine Verfolgungseinrichtung wird dann den Zielpunkt falsch orten und möglicherweise vollständig ihr Ziel verfehlen, wenn sie "schlechte" Unterbilder nicht identifizieren und kompensieren kann.
  • Frühere Versuche, ein Objekt passiv zu verfolgen, ergaben Lösungen mit begrenzter Flexibilität und schlechter Genauigkeit. Bisher wurde ein einmal als ein Zielpunkt identifiziertes Objekt durch Verfolgen einer vorbestimmten Anzahl von Unterbildern in einem bekannten Muster verfolgt. Typischerweise war das gewählte Muster ein Quadrat mit dem Zielpunkt in seiner Mitte und vier Unterbildern an den vier Ecken des Quadrates. Dieses System würde die vier Unterbilder, die sich an den Ecken des Quadrates befinden, verfolgen, und auf den tatsächlichen Zielpunkt unter Verwendung der einfachen Symmetrie des vorbestimmten Quadrates zurückschließen. Dieses Verfahren versagte, wenn die Geometrie des tatsächlichen Ziels weniger als vier passende Unterbilder, die sich in dem erforderlichen Muster befinden, ergibt, oder wenn das ausgewählte Unterbild nicht mit dem Zielpunkt verbunden war. Diesem System fehlte die Fähigkeit, schlechte Unterbilder zu identifizieren.
  • Daher kam ein Bedarf für einen passiven Unterbildverfolger auf, welcher in der Lage ist, verfolgbare Unterbilder in beliebigen Bildorten zu erkennen, und diese zum Verfolgen eines Zielpunktes zu verwenden.
  • Die EP-A-0 530 050, ein Dokument, welches dem Artikel 54(3) EPÜ unterfällt, offenbart ein Verfahren und eine Vorrichtung zum Verfolgen eines Zielpunktes. Ein Zielpunkt wird anfänglich auf dem Ziel durch einen Operator ausgewählt. Die Verfolgungseinrichtung erfaßt dann viele Unterbilder, die mit dem gewählten Zielpunkt gemäß internen Kriterien, wie etwa Bildkontrast oder Bildhelligkeit, verbunden sind. Die Verfolgungseinrichtung berechnet die normalisierten Abstände zwischen jedem Unterbild, welches er erfaßt hat, und dem ausgewählten Zielpunkt. Diese Werte werden für eine spätere Verwendung zu einer nachfolgenden Zeit gespeichert, wobei die Verfolgungseinrichtung die Unterbilder neu erfaßt und den Ort des Zielpunktes aus den zuvor berechneten, normalisierten Abständen abschätzt. Die Verfolgungseinrichtung kann dann die Sensormarkierung justieren, um den Zielpunkt in dem Zentrum seines Gesichtsfeldes zu halten. Diese abschließenden drei Schritte werden solange wiederholt, bis das Geschoß auf dem Ziel auftrifft oder die Verfolgungseinrichtung auf andere Weise sein Programm beendet.
  • Die EP-A-0 423 984 offenbart ein synergetisches Verfolgersystem, welches sowohl einen Korrelationsverfolger als auch einen Objektverfolger zum Verarbeiten von Sensordateneingaben beinhaltet, und zum Erzeugen von Verfolgungsfehlersignalen. Der Betrieb des synergetischen Verfolgersystems wird durch eine zentrale Verarbeitungseinheit kontrolliert. Das System arbeitet durch erste Korrelation eines Referenzbereichsbildes mit einem Abschnitt eines aktuellen, digitalisierten Bildes, welches durch einen Analog/Digital-Wandler zur Verfügung gestellt wird. Als zweites liefert der Objektverfolger einen präzise definierten Verfolgungspunkt für ein Objekt innerhalb des aktuellen Bildes. Der Korrelationsverfolger stabilisiert und begrenzt den Abschnitt des digitalisierten Bildes, auf welchem der Objektverfolger arbeiten muß. Der Objektverfolger liefert eine nicht rekursive Erneuerung für das Referenzbereichsbild der Korrelation. Der Korrelationsverfolger und der Objektverfolger werden gleichzeitig und kooperativ verwendet, so daß die Stärken der einen Verfolgungseinrichtung verwendet werden, um die Schwächen des anderen zu überwinden.
  • Die vorliegende Erfindung liefert ein Verfahren nach Anspruch 1 und einen Flugkörper nach Anspruch 13.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • In Übereinstimmung mit der vorliegenden Erfindung wird ein Verfahren und eine Vorrichtung zum Verfolgen eines Zielpunktes mit beliebigen Unterbildern zur Verfügung gestellt, welches im wesentlichen die Nachteile und Probleme, die mit Verfolgungseinrichtungen aus dem Stand der Technik verbunden waren, eliminiert oder reduziert.
  • Ein Verfahren zum Verfolgen eines Zielpunktes mit beliebigen Unterbildern. Das Verfahren enthält die Schritte des Erfassens eines Zielpunktes auf einem Ziel und eines Satzes von Unterbildern, die beliebig mit dem Zielpunkt verbunden sind, durch einen Sensor in einem Gesichtsfeld. Zu einem ersten Zeitpunkt werden die Abmessungen jedes Unterbildes und eines normalisierten Abstandes von jedem Unterbild zu dem Zielpunkt bestimmt. Zu einem zweiten Zeitpunkt wird mindestens eines der Unterbilder erneut erfaßt, und es wird der nachfolgende Ort des Zielpunktes basierend auf dem nachfolgenden Ort des Unterbildes und der normalisierten Abstände geschätzt. Wenn ein Unterbild als eindimensional bestimmt wird, wird ein maximaler Eigenvektor für das Unterbild berechnet, und es wird die Komponente des normalisierten Abstandes parallel zu dem Eigenvektor verwendet.
  • Es ist ein erster technischer Vorteil der Erfindung, daß der Zielpunktverfolger mit Linien verbundene Unterbilder erfassen und verwenden kann, sowie zweidimensionale, sich unterscheidende Unterbilder. Dies verbessert die Genauigkeit zweimal. Als erstes wird jedes Unterbild mit dem angemessenen (ein- oder zweidimensionalen) mathematischen Modell modelliert. Als zweites stehen mehr Unterbilder zur Verfolgung eines Zielpunktes zur Verfügung. Jede Folge beeinflußt die Verfolgergenauigkeit vorteilhaft.
  • Ein zweiter technischer Vorteil der Erfindung ist die Fähigkeit der Verfolgungseinrichtung, Unterbilder, die zu schlechten Ergebnissen führen, auszustoßen.
  • Typischerweise führen diese Unterbilder zu derartigen Ergebnissen, da sie Bildstörflecken darstellen, die mit dem Ziel physikalisch nicht verbunden sind. Dies verbessert das zukünftige Vertrauen in Zielpunktberechnungen.
  • Ein dritter technischer Vorteil der Erfindung ist ihre verstärkte Fähigkeit, den Zielpunkt basierend auf einem angepaßten Satz von Unterbildern neu zu bestimmen. Der angepaßte Satz von Unterbildern schließt nur jene Unterbilder ein, die sich so benehmen, als ob sie in der realen Welt mit dem Zielpunkt verbunden sind. Dies verbessert das unmittelbare Vertrauen in Zielpunktberechnungen und die Genauigkeit der Vorrichtung, wie etwa eines Flugkörpers, dessen Bewegungsweg basierend auf dem erkannten Zielpunkt aufgezeichnet wird.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • Für ein vollständigeres Verständnis der vorliegenden Erfindung und deren Vorteile wird nunmehr Bezug genommen auf die folgenden Beschreibungen, die in Verbindung mit den begleitenden Zeichnungen ausgeführt werden, in denen:
  • Fig. 1 eine schematische, perspektivische Ansicht der Verwendung eines Antipanzer-"Feuere und Vergiß"-Flugkörpersystems ist, welches vorteilhafterweise die offenbarte Erfindung beinhalten kann;
  • Fig. 2 ein schematischer, teilweiser Querschnitt des Antipanzer-Flugkörpers der Fig. 1 ist;
  • Fig. 3 eine Grauwertwiedergabe eines digitalisierten Bildes des Ziels zu einem bestimmten Zeitpunkt, wie es durch den "Feuere und Vergiß"-Flugkörper, welcher in der Fig. 1 dargestellt ist, gesehen wird;
  • Fig. 4 stellt verfolgbare Unterbilder dar, die mit dem in der Fig. 1 dargestellten Ziel verbunden sind, zu dem dem Zeitpunkt der Fig. 3 entsprechenden Zeitpunkt;
  • Fig. 5 und 6 sind schematische Seitenansichten, welche das Bild und die verfolgbaren Unterbilder des Ziels der Fig. 1 zu einem ersten Zeitpunkt bzw. einem nachfolgenden Zeitpunkt darstellen;
  • Fig. 7 stellt ein Flußdiagramm eines Unterbildverfolgers gemäß einer Ausführungsform der offenbarten Erfindung dar;
  • Fig. 8 stellt ein Ziel dar, welches durch vier Unterbilder verfolgt wird, wobei ein Unterbild sich nicht mit dem Zielpunkt bewegt;
  • Fig. 9 stellt mathematisch das Ziel der Fig. 3 in einem zweidimensionalen Koordinatensystem dar;
  • Fig. 10 stellt ein Flußdiagramm des offenbarten allgemeinen Verfahrens der Erfindung dar;
  • Fig. 11 stellt ein Ziel dar, welches ein Unterbild aufweist, welches mit mindestens einer Linie verbunden ist;
  • Fig. 12a und 12b stellen graphisch einen Korrelatortest dar, welcher mit einem zweidimensionalen bzw. einem eindimensionalen Unterbild verbunden ist;
  • Fig. 13a und 13b stellen die durch die Korrelatortests der Fig. 12a bzw. 12b erzeugten Oberflächen graphisch dar;
  • Fig. 14 stellt die Orientierung der Korrelatorpunkte, die in Verbindung mit den Oberflächen der Fig. 13a und 13b verwendet wurden, graphisch dar;
  • Fig. 15 stellt eine Matrix von Konstanten dar, die in Verbindung mit den Korrelatorpunkten der Fig. 14 verwendet wurden, dar;
  • Fig. 16 stellt ein eindimensionales Unterbild mathematisch dar, welches mit einer Linie verbunden ist, mit einem ersten und einem zweiten Koordinatensystem;
  • Fig. 17 stellt weiterhin das eindimensionale Unterbild, welches in der Fig. 16 dargestellt ist, dar; und
  • Fig. 18 stellt einen Teil eines Flußdiagrammes einer Ausführungsform der Erfindung dar, welcher ein- und zweidimensionale Unterbilder unterscheidet.
  • DETAILLIERTE BESCHREIBUNG DER ERFINDUNG
  • Die bevorzugte Ausführungsform der vorliegenden Erfindung und ihre Vorteile werden optimal durch Bezugnahme auf die Fig. 1 bis 18 der Zeichnungen verstanden, wobei gleiche Bezugszeichen für gleiche und entsprechende Teile der verschiedenen Zeichnungen verwendet werden.
  • Fig. 1 zeigt ein Antipanzer-"Feuere und Vergiß"-Flugkörpersystem, welches die offenbarte Erfindung beinhaltet. Ein Flugkörper 10 wird auf ein Ziel 12 durch einen Infanteristen 14 gefeuert. Der Infanterist 14 wählt einen Zielpunkt auf dem Ziel 12 aus, von dem er annimmt, daß er ihm den geringsten Widerstand gegen den Flugkörper 10 nach dem Einschlag bietet. Der Flugkörper 10 beinhaltet einen passiven Bildsensor 16 und einen Prozessor (nicht dargestellt) zum Erfassen und digitalisieren eines Bildes. Der Flugkörper 10 weist ebenfalls bewegliche Finnen 18 auf, welche durch den Prozessor kontrolliert werden, um die Richtung des Flugkörpers zu variieren. Der Flugkörper 10 erfaßt verfolgbare Unterbilder, die zu dem bestimmten Zielpunkt, welcher durch den Infanteristen 14 ausgewählt wurde, in Beziehung stehen, welche innerhalb des Gesichtsfeldes des Sensors 16 liegen. Der Flugkörper 10 berechnet eine anfängliche, geometrische Beziehung zwischen dem Zielpunkt und den Anfangsunterbildern und behält dies in einem Onboard-Speicher (nicht dargestellt). Der Flugkörper 10 erfaßt periodisch die Unterbilder neu und berechnet einen neuen Zielpunkt, wie unten noch vollständiger beschrieben werden wird. Der Flugkörper 10 kann dann seinen Weg anpassen, um das Ziel 12 aufzuhalten, unabhängig von einer anschließenden Bewegung des Ziels 12 relativ zu dem Infanteristen 14 oder dem Flugkörper 10.
  • Der Typ des in der Fig. 1 dargestellten Flugkörpers ist als ein "Feuere und Vergiß"-Flugkörper bekannt, da der Infanterist 14 den Flugkörper nach dem Start vergessen kann, und Deckung suchen oder sich mit anderen möglichen Zielen beschäftigen kann. Der Flugkörper 10 wird jedoch seine Spur verfolgen und das Ziel 12 aufhalten. Der Flugkörper 10 kann Unterbilder basierend auf einer beliebigen Anzahl von Kriterien auswählen, einschließlich, aber nicht darauf begrenzt, der "Heißer Punkt"- und "Korrelator"-Verfahren. In dem "Heißer Punkt"-Verfahren identifiziert ein Sensor Unterbilder gemäß dem heißesten (hellsten oder wärmsten) Punkt innerhalb einer spezifizierten Region. In dem Korrelatorverfahren sucht die Verfolgungseinrichtung nach einem zuvor identifizierten Unterbild.
  • Die Fig. 2 zeigt einen "Feuere und Vergiß"-Flugkörper 10, welcher die offenbarte Erfindung enthalten kann. Der Flugkörper 10 führt einen Gefechtskopf 20, welcher nach dem Einschlag auf dem Ziel 12 (Fig. 1) detoniert. Der Flugkörper 10 enthält einen Onboard-Sensor 16, wie etwa einen nach vorne sehenden Infrarotsensor ("FLIR"), welcher empfindlich auf durch das Ziel des Flugkörpers ausgesandte Strahlung ist. Ein Signalspeicher 22 speichert die von dem Sensor 16 empfangene Information temporär, so daß sie durch eine zentrale Verarbeitungseinheit ("CPU") 24 besser zugänglich ist. Die CPU 24 kann selbst verschiedene Untersysteme (nicht dargestellt) enthalten, welche durch Hardware oder Software implementiert sein können, einschließlich einen Zielpunktbestimmer zum anfänglichen etablieren des Zielpunktes auf dem Ziel, einen Berechner für den normalisierten Abstand zum Berechnen des Abstand zwischen jedem Unterbild und dem Zielpunkt, und einen Komparator zum. Vergleichen des aktuellen und der geschätzten Unterbildorte und zum Aussortieren der Unterbilder, die bei einem bestimmten statistischen Test versagen.
  • Die CPU 24 erfaßt periodisch Bilder während der Operation des Flugkörpers 10 innerhalb ihres Gesichtsfeldes. Mit der CPU 24 ist ein Speicher 26 verbunden. Der Speicher 26 enthält die Routinen, welche die CPU 24 abspielt, und speichert die Daten, die für die offenbarte Erfindung notwendig sind. Die CPU 24 kontrolliert die Richtung des Flugkörpers 10 durch eine Finnenkontrolleinheit 28. Die Finnenkontrolleinheit 28 manipuliert jede Finne 18 durch beispielsweise einen Servo 30. Der Flugkörper 10 wird durch einen Raketenmotor 32 angetrieben.
  • Die Fig. 3 zeigt eine Ansicht des Ziels 12 durch einen Sensor 16 des Flugkörpers 10. Der Zielpunkt, wie ursprünglich durch den Infanteristen 14 bestimmt, wird durch ein Fadenkreuz angezeigt. In dieser speziellen Ausführungsform weist der Flugkörper 10 einen Infrarotsensor auf. Der Motorraum und die Radlager des Ziels 12, welche am heißesten sind, werden daher durch die Farbe weiß angezeigt. Kühlere Strukturen, wie etwa der Hintergrund, werden durch graue Schatten oder durch schwarz angezeigt.
  • Die Fig. 4 stellt bestimmte, verfolgbare Unterbilder dar, die in der Fig. 3 enthalten sind. Jedes verfolgbare Unterbild wird durch ein kleines Quadrat identifiziert. Eine Verfolgungseinrichtung an Bord des Flugkörpers 10 selektiert anfänglich eine Anzahl dieser Unterbilder, um das Ziel an einer Anfangszeit zu verfolgen. Die Verfolgungseinrichtung berechnet ebenfalls einen normalisierten Abstand zwischen dem Zielpunkt, welcher durch den Infanteristen 14 ausgewählt wurde, und jedem Unterbild. Dieser Abstand kann die aktuelle Anzahl von Pixeln zwischen dem Zielpunkt und dem Unterbild sein, wie durch die Verfolgungseinrichtung erfaßt. Der Abstand kann weiterhin derart normalisiert werden, daß mindestens ein Unterbild in einem bestimmten Abstand, wie etwa "1", von dem Zielpunkt entfernt ist. Diese Abmessungen werden für zukünftige Verwendung durch die Verfolgungseinrichtung gespeichert.
  • Die Fig. 5 zeigt eine Ansicht eines Ziels 12 und 6 verfolgbare Unterbilder, die auf dieses überlagert sind. Die Fig. 6 zeigt die Ansicht des Ziels 12 und der verfolgbaren Unterbilder, wie sie in der Fig. 5 zu einem etwas späteren Zeitpunkt dargestellt sind. Das Bild des Ziels 12 scheint in der Größe zu wachsen, wenn der Flugkörper 10 (Fig. 1 und 2) sich dem Ziel 12 nähert. Als Folge scheinen die dargestellten Unterbilder ebenfalls in der Größe zu wachsen und sich radial nach außen von dem Zielpunkt zu bewegen. Drei Unterbilder, ursprünglich auf der rechten Seite der Fig. 5, sind in dem Gesichtsfeld nicht länger sichtbar. Die Verfolgungseinrichtung wird typischerweise ihren Kurs anpassen, um den Zielpunkt (Fadenkreuz) in dem Zentrum ihres Gesichtsfeldes zu halten. Diese scheinbare Bewegung der Unterbilder relativ zu dem Zielpunkt und der Verlust einiger Unterbilder muß durch die Verfolgungseinrichtung einberechnet werden, um eine erfolgreiche Führung des Flugkörpers 10 zu dem Ziel 12 sicherzustellen.
  • VERALLGEMEINERTES GEOMETRISCHES MODELL
  • Der Weg des Verfolgens vieler Unterbilder ohne Bereichsschätzungen basiert auf einem verallgemeinerten geometrischen Modell. Dieses Modell basiert auf der Tatsache, daß, obwohl das Target und damit die Unterbilder in dem Bild während der Annäherung an das Ziel wachsen werden, die relativen Abmessungen des Ziels sich nicht verändern. Dies setzt voraus, daß der Angriffswinkel zwischen der Verfolgungseinrichtung und dem Ziel einigermaßen konstant bleibt, was während dem Großteil der Endphase des Flugkörperfluges normal ist.
  • Bei der verallgemeinerten, geometrischen Annäherung steht jeder Ort der Verfolgungseinrichtung zu dem Ort des Zielpunktes unter Verwendung eines normalisierten Koordinatensystems in Beziehung. Ein individuelles Unterbild i an dem Bildort (xi, yi) kann zu dem Zielpunkt A an dem Bildpunkt (xA, yA) durch die folgenden Gleichungen in Beziehung gesetzt werden:
  • xi = xA + δxi + nxi (1)
  • yi = yA + δyi + nyi (2)
  • wobei (δxi, δi) die Versetzung in der Bildebene des Unterbildes i von dem Zielpunkt A darstellen und (nxi, nyi) zusätzliche Rauschterme sind, die die Messung des wirklichen Unterbild-Ortes verfälschen. Diese Gleichungen können unter Verwendung der Vektornotation in einer einzigen Gleichung kombiniert werden:
  • = A + + (3)
  • Der Schlüssel zum genauen Modellieren jeder Unterbildposition ist die genaue Darstellung des Verschiebungsvektors. Der Verschiebungsvektor kann ausgedrückt werden als:
  • wobei s der Zielbildverstärkungsfaktor ("TIMF") und (dxi, dyi) die in der Größe normalisierten Abstände zwischen einem Unterbild i und dem Zielpunkt A sind. Daher sind (dxi, dyi) bereichsunabhängige, normalisierte Abstände. Obwohl die Größe typischerweise als der Normalisierungsfaktor gewählt wird, da sie eine meßbare Quantität des Ziels darstellt, kann jeder Skalierfaktor verwendet werden. Dieses Modell führt zu der folgenden Matrixdarstellung für ein Unterbild i:
  • für N-Unterbilder kann die vorstehende Gleichung erweitert werden:
  • Gleichung (6) kann umgeschrieben werden als
  • = Hθ + (7)
  • wobei
  • θ = [xAyAs]T, (8)
  • x ist ein Vektor von Unterbild-Orten und H ist die 2 N · 3-Matrix von "1 "en, "0"en, und in der obigen Gleichung (6) dargestellten, normalisierten Abständen. Zu jedem aufeinanderfolgenden Zeitpunkt, zu welchem die Verfolgungseinrichtung die Unterbilder neu erfaßt, sind alle Variablen bekannt, außer jenen in θ und in dem Rauschvektor .
  • Der Vektor θ und somit der Zielpunkt können durch verschiedene Techniken geschätzt werden, einschließlich der Technik der kleinsten Quadrate, wobei:
  • θ = (HTH)&supmin;¹HT (19)
  • wobei θ eine Schätzung von θ ist. Dieses Verfahren wird den Effekt des Rauschvektors n minimieren.
  • Die Fig. 7 zeigt ein Flußdiagramm einer Unterbildverfolgungseinrichtung, die die verallgemeinerte, geometrische Annäherung beinhaltet. Ein Zielpunkt wird anfänglich auf dem Ziel in dem Block 50 durch einen Operator erfaßt. Die Verfolgungseinrichtung erfaßt dann mehrere mit dem gewählten Zielpunkt gemäß internen Kriterien assoziierte Unterbilder, wie etwa einen Bildkontrast oder eine Bildhelligkeit in dem Block 52. Die Verfolgungseinrichtung berechnet die normalisierten Abstände zwischen jedem Unterbild, die es erfaßt hat, und dem ausgewählten Zielpunkt in Block 54. Diese Abstände werden in einer Matrix gespeichert, dessen spezielle Form in der obigen Gleichung (6) dargestellt ist. In den Blöcken 56 und 58 erfaßt die Verfolgungseinrichtung die Unterbilder neu, und schätzt den Ort des Zielpunktes aus den zuvor berechneten, normalisierten Abständen unter Verwendung eines mathematischen Modells, wie etwa des oben in Gleichung (9) beschriebenen, den Ort des Zielpunktes ab.
  • Wenn der Flugkörper sich dem Ziel nähert, können einige der ursprünglichen Unterbilder das Gesichtsfeld des Sensors verlassen. Gleichzeitig können neue verfolgbare Unterbilder aufgefunden werden, wenn Details des Ziels erscheinen. Diese neuen Unterbild-Orte können dann der Matrix von Unterbild-Orten, typischerweise in Block 56, wie benötigt hinzugefügt werden. Die Verfolgungseinrichtung kann dann die Sensorausrichtung, Block 60, anpassen, um den Zielpunkt in dem Zentrum ihres Gesichtsfeldes zu halten. Die abschließenden drei Schritte, die in der Fig. 7 dargestellt sind, werden wiederholt, bis der Flugkörper auf seinem Ziel aufschlägt, oder die Verfolgungseinrichtung auf andere Weise das Programm beendet. Es sollte klar sein, daß der Block 60 jede Anzahl von in Beziehung stehenden Schritten, wie etwa das Anführen von Kommandos zu einem Operator, um dem Zielpunkt zu folgen, oder das Darstellen von Fadenkreuzen, um den Ort des Zielpunktes in einer Anzeige abzugrenzen, enthalten kann. Die Verfolgungseinrichtung kann auch in einer stationären Umgebung angebracht werden, wo sie einfach einem Zielpunkt in ihrem Gesichtsfeld folgt, ohne das Ziel aktiv zu verfolgen.
  • VERALLGEMEINERTE FEHLERPRÜFROUTINE
  • Die Fig. 8 ist eine Ansicht eines erfaßten Panzers, in welcher der Panzer 62 sich von links nach rechts mit der Geschwindigkeit v(t) bewegt. Ein verfolgbares Störfleckenobjekt 64 in dem oberen linken Korrelator (angedeutet durch die brennende Ölbohrpumpe) wird eine Vorbelastung in den ursprünglichen Zielpunkt 66 einführen. Wenn die Störflecken sich als verfolgbarer afs die oberen linken Ecken des Panzers herausstellen, wird der Zielpunkt sich in Richtung auf die Rückseite des Panzers (angedeutet durch das Kreuz 68) verschieben. Während sich der Zielpunkt verschiebt, wird ein höherer Prozentsatz von Störflecken in die zukünftigen Korrelationsreferenzschnappschüsse eingebaut, bis zum Ausschluß der Unterbilder des Ziels. Möglicherweise kann der Zielpunkt das Ziel vollständig verlassen. Die Rate des Verschiebens ist eine Funktion der Zielgeschwindigkeit, der Menge der Störflecken in einem beliebigen Verfolgungseinheit-Unterbild, und der Infrarot-("IR")Stärke der Störflecken relativ zu dem Ziel, wenn das Ziel IRempfindlich ist. Das Gleiche Szenario wird auftreten, wenn anstelle der Verwendung von vier Korrelatorgruppen, wie dargestellt, eine beliebige Anzahl von beliebigen Unterbildern verwendet wird.
  • Der Grund, warum der Zielpunkt in Szenarios wie in der Fig. 8 sich verschieben kann, ist der, daß der Zielpunkt berechnet wird, indem angenommen wird, daß alle individuellen Unterbilder die gleiche Verstärkung um den Zielpunkt herum aufweisen. Wenn die Verstärkung von einem oder mehreren Unterbildern schlecht ist, dann werden die Verstärkungsfehler den Zielpunkt verschieben. Wenn die schlechte Unterbildverfolgung erfaßt und entfernt werden kann, dann kann der Zielpunkt basierend auf den Positionen der verbleibenden, guten Unterbilder neu berechnet werden.
  • Schlechte Unterbilder können erfaßt werden, indem auf große Differenzen zwischen dem gemessenen Unterbild-Ort x und der abgeschätzten Messung ~ geachtet wird:
  • δx = - (10)
  • Jeder geschätzte Unterbild-Ort wird aus dem geschätzten Zielpunkt bestimmt. Typischerweise wird dies erreicht, indem das Produkt eines abgeschätzten Verstärkungsfaktors und des normalisierten Verschiebungsvektors dem abgeschätzten Ort des Zielpunktes hinzuaddiert wird. Der abgeschätzte Zielpunkt selbst wird durch den Ort aller Unterbilder, gute und schlechte, wie oben beschrieben bestimmt.
  • Die Fig. 9 zeigt den Ort der Messungen und der geschätzten Messungen in einem Szenario gemäß Fig. 8. Die gemessenen Orte der Unterbilder &sub1;, &sub2;, &sub3;, und &sub4; werden durch quadratische Punkte angezeigt, während die abgeschätzten Messungen &sub1;, &sub2;, &sub3; und &sub4; durch kreisförmige Punkte angezeigt sind. Die abgeschätzten und wirklichen Zielpunkte sind durch A bzw. A angezeigt. Hier ist der Rest oder der Fehler des oberen, linken Unterbildes &sub4; - &sub4; größer und von einer anderen Richtung, verglichen mit den anderen drei Unterbildern. Eine robuste statistische Prozedur kann verwendet werden, um den Drift zu berechnen, wobei:
  • M = median (δxi), i = 1, 2, ... N (11)
  • MAD = median δxi - M ), i = 1, 2, ... N (12)
  • MAD steht für absolute Median-Abweichung.
  • Andere mathematische Unterschiede können ebenfalls verwendet werden, um das Verhalten jedes Unterbildes zu testen.
  • Die MAD ist eine robuste Abschätzung der Größenordnung oder der Aufspreizung einer Verteilung der Werte. Das Verhältnis MAD/0.6745 nähert sich der Standardabweichung für eine Gaussche Verteilung, wenn N größer wird. Ein robuster T-Test kann in der Form:
  • Wenn Ti größer ist als ein vorbestimmter Verschiebungs-Threshold, dann wird die Verfolgungseinrichtungsmessung als schlecht angesehen und von dem Vektor der Unterbild-Orte gestrichen. Die Ti-Statistik wird nicht durch schlechte Unterbilder verfälscht, solange die Mehrzahl der Verfolgungen gut sind. Der Test wird für die x- und y-Bildabmessungen ausgeführt.
  • Der robuste T-Test der Gleichung (13) wird möglicherweise das schlechte Unterbild der Fig. 8 und 9 erfassen und zurückweisen. Durch Neuberechnung des Zielpunktes und Verstärkungsabschätzungen unter Verwendung eines Untersatzes der Unterbilder, nur aus den guten Messungen, wird der erneut abgeschätzte Zielpunkt wesentlich näher an dem wirklichen Zielpunkt liegen.
  • Die Fig. 10 stellt die oben beschriebenen Schritte dar und ist ein detailliertes Diagramm des Schrittes 58 aus Fig. 7. Ein Zielpunkt wird in einem Block 70 abgeschätzt, unter anfänglicher Verwendung aller Unterbilder, die der Verfolgungseinrichtung zu einem bestimmten Zeitpunkt zur Verfügung stehen. In dem Block 72 wird jeder Unterbild-Ort abgeschätzt, unter Verwendung der Zielpunktabschätzung des Blockes 70. Diese Berechnung kann typischerweise durch Hinzuaddieren des Produktes eines bereichsnormalisierten Abstandes und eines Verstärkungsfaktors oder -faktoren (TIMF) zu dem Zielpunktort ausgeführt werden. Jedes Unterbild weist einen bereichsnormalisierten Abstand auf, der seinen Ort zu dem Ort des Zielpunktes in Beziehung setzt. Ein Unterschied wird in dem Block 74 zwischen dem abgeschätzten Unterbild-Ort aus dem Block 72 und dem gemessenen Ort jedes Unterbildes in dem Block 56 (Fig. 7) berechnet. Dieser Unterschied wird dann statistisch mit einem Freshholdwert im Block 76 verglichen. Wenn der Unterschied den Freshholdwert übersteigt, dann wird das Unterbild zurückgewiesen und aus dem Speicher oder einer Datenbank, die alle Unterbilder enthält, gelöscht. In dem Block 78 wird ein neuer Zielpunkt unter Verwendung der erneuerten Zielpunktdatenbank berechnet.
  • EINDIMENSIONALES UNTERBild VERFOLGEN
  • Die Fig. 11 stellt ein Ziel dar, welches ein mit einer Linie verbundenes Unterbild aufweist. Hier ist das Ziel ein hohes Gebäude, sein Zielpunkt ist durch ein Fadenkreuz angedeutet, und es wird durch zwei Unterbilder verfolgt, die durch kleine Quadrate angedeutet sind. Das erste Unterbild ist mit der rechten Kante des Gebäudes assoziiert. Das zweite Unterbild ist mit einer Ecke der linken Seite des Gebäudes assoziiert. In der Praxis wird der Zielpunkt durch mehr als zwei Unterbilder bestimmt. Das erste Unterbild kann fehlerhafterweise durch die Verfolgungseinrichtung zu einem anschließenden Zeitpunkt aufgefunden werden, beliebig entlang der linken Kante des Gebäudes. Das zweite Unterbild wird jedoch an der Ecke des Gebäudes verbleiben. Die ersten und zweiten Unterbilder werden konsequenterweise "eindimensionale" bzw. "zweidimensionale" Unterbilder genannt. Der Zielpunkt wird sich von seiner ursprünglichen Position in dem eindimensionalen Unterbild nach oben oder nach unten entlang der linken Kante bewegen, und es wird nichts anderes angepaßt. Der Zielpunkt kann konstant gehalten werden, wenn das eindimensionale Unterbild identifiziert ist, und wenn die Verfolgungsprozeduren entsprechend modifiziert werden.
  • IDENTIFIKATION DER EINDIMENSIONALEN UNTERBILDER
  • Die Fig. 12a und 12b stellen graphisch einen Korrelatortest dar, welcher mit einem eindimensionalen bzw. einem zweidimensionalen Unterbild verbunden ist. Der Korrelatortest, welcher in der bevorzugten Ausführungsform verwendet wird, ist eine Modifikation des Korrelatortests, welcher verwendet wird, um die Unterbilder in dem Gesichtsfeld der Verfolgungseinrichtung nach einer Anfangszeit aufzufinden. In dem ursprünglichen Korrelatortest wird der absolute Wert des Unterschiedes zwischen den Graustufendaten eines Referenzbildes und eines anschließend erfaßten Bildes bestimmt. Die Graustufendaten sind im allgemeinen die Helligkeit des Unterbildes an einem bestimmten Pixelort. Die Helligkeit ist die Infrarot-"Helligkeit" des Bildes in der bevorzugten Ausführungsform. Andere Wellenlängen elektromagnetischer Strahlung können verwendet werden, um ein Ziel zu verfolgen, und können daher gemäß der offenbarten Erfindung verglichen werden. Der Unterschied wird für jedes Pixelpaar in den beiden Bildern innerhalb eines Bildbereichs bestimmt. Der erste Bildbereich ist um das Referenzunterbild zentriert, und der zweite Bildbereich ist ursprünglich um den vorhergesagten Ort des Unterbildes zu dem nachfolgenden Zeitpunkt zentriert. Die aufsummierte Differenz wird einige Male berechnet. Jedesmal wird das Zentrum des Unterbildes in dem nachfolgend erfaßten Bild indiziert oder eine vorbestimmte Strecke bewegt. Jeder Pixel wird somit einen vorbestimmten Betrag, typischerweise einen Pixel, bewegt. Dies hat zur Folge, daß ein anderer Satz von Graustufendatenpaaren voneinander abgezogen wird. Der Satz mit der kleinsten aufsummierten Differenz zeigt den momentargen Ort des Unterbildes in dem anschließend erfaßten Bild an. Das Zentrum des aktuellen Unterbildes wird dann als der Ort des Unterbildes zu dem späteren Zeitpunkt durch die Verfolgungseinrichtung für Mittelwegverfolgung verwendet.
  • Der Korrelatortest kann modifiziert werden, um die Dimensionalität eines bestimmten Unterbildes (1-D gegen 2-D) zu bestimmen. In diesem modifizierten Test werden die Graustufendaten des Unterbildes mit den indizierten Graustufendaten des Unterbildes zur gleichen Zeit verglichen. Der zuvor beschriebene Unterschied für jedes Pixelpaar wird berechnet, über das aufsummiert und gespeichert. In der Fig. 12a ist ein Unterbild mit einer kreisförmigen Form durch ein Bildraum indiziert und mit dem ursprünglichen Unterbild verglichen. Wie dargestellt, ist das Unterbild durch einen Bildraum mit einer grob gesagt diamantartigen Form indiziert. Der Diamant ist sieben Pixel hoch, sieben Pixel breit und ist weiter in Verbindung mit Fig. 14 beschrieben. Dies ergibt 28 Sätze von Vergleichen (der Vergleich, wenn das Unterbild auf seine ursprüngliche Position indiziert wird, ist immer Null.). In der Fig. 12b ist ein Teil einer Kante dargestellt. Er ist ebenfalls durch einen Bildraum mit einer diamantartigen Form indiziert. Nur die vier extremsten Orte jedes indizierten Unterbildes sind in jeder Figur dargestellt. Die indizierten Unterbilder in den Fig. 12a und 12b werden als gestrichelte Kreise oder Kanten dargestellt. Die tatsächlichen Unterbilder werden als durchgezogene Kreise oder Kanten dargestellt.
  • Die Fig. 13a und 13b stellen die Oberflächen graphisch dar, die durch die Korrelatortests der Fig. 12a bzw. 12b erzeugt wurden. Jede Oberfläche stellt die aufsummierten Differenzen für jeden indizierten Ort (x, y) als einen Wert entlang der z-Achse dar. Ein zweidimensionales Unterbild, wie jenes, welches in der Fig. 12a dargestellt ist, erzeugt die schüsselförmige Oberfläche, welche in der Fig. 13a dargestellt ist. Ein eindimensionales Unterbild, wie jenes, welches in der Fig. 12b dargestellt ist, erzeugt die V-förmige Oberfläche, welche in der Fig. 13b dargestellt ist.
  • Die Form der durch die 28 Korrelatorunterschiede berechneten Oberfläche kann verwendet werden, um die Dimensionalität des Unterbildes zu bestimmen. Die Oberfläche wird statistisch an einen Modellparaboloid angepaßt, mit der Form:
  • C(i, j) = ai² + 2bij + cj² + d
  • wobei C(i, j) die aufsummierte Differenz ist, welche dem verschobenen Unterbild, welches bei (i, j) zentriert ist, entspricht, und a, b, c und d sind Konstanten. Die Indizes i und j sind analog zu den x- bzw. y-Koordinatenachsen, welche in den Fig. 12a bis 13b dargestellt sind. Die Konstanten können durch einen linearen Kurvenfit kleinster Quadrate bestimmt werden:
  • wobei C ein 28 · 1-Datenvektor ist, welcher die Werte von C(i, j) enthält, und G ist eine 3 · 28-Matrix vorbestimmter Konstanten. Die Ordnung von C und das Ausmaß der Indizierung des Unterbildes, welche in den Fig. 12a und 12b vorgenommen wurde, sind in der Fig. 14 dargestellt. Der Inhalt von G ist in der Fig. 15 dargestellt. Wenn die Konstanten a, b und c einmal bestimmt sind, werden die Eigenwerte der 2 · 2-Matrix:
  • berechnet. Die Maximum- und Minimum-Eigenwerte pmax und Amin werden gemäß den Beziehungen:
  • und
  • berechnet.
  • Das Verhältnis dieser beiden Eigenwerte λmax/λmin min kann verwendet werden, um die eindimensionalen Unterbilder von den zweidimensionalen Unterbildern zu unterscheiden. Wenn das Verhältnis größer ist als eine vorbestimmte Konstante, wie etwa 12, dann wird das Unterbild als ein eindimensionales Unterbild betrachtet.
  • VERFOLGUNG MIT EINDIMENSIONALEN UNTERBILDERN
  • Die Fig. 16 stellt mathematisch ein Unterbild i bei (xi, yi) dar, assoziiert mit einer Linie mit einem ersten (x und y) und einem zweiten (x' und y') Koordinatensystem. Beide Koordinatensysteme sind an dem Zielpunkt bei (xa, ya) zentriert.
  • Die Linie ist durch Stricheln eines ihrer Seiten angedeutet.
  • Wenn Q eine lineare Transformation ist, welche einen orthonormalen Basissatz darstellt, dann stellt
  • ' = QT (19)
  • die Transformation des Vektors in ' dar, dessen Komponenten mit Bezug auf das ' und 'Koordinatensystem definiert sind. Die Matrix QT enthält die Maximum- und Minimum-Eigenvektoren q und q der 2 · 2-Matrix:
  • Zusätzlich ist Q&supmin;¹ gleich QT. Daher
  • = Q ' (21)
  • wenn δ i = i - a ist, dann kann das Unterbild mit dem Zielpunkt in dem Eigenraum, welcher durch Q durch die Beziehungen:
  • δxi = sδi + nt (22)
  • Q δ i = sQ i - Q t (23)
  • δ 'i = s 'i + i (24)
  • oder
  • dargestellt ist, in Beziehung gesetzt werden.
  • In der Fig. 16 ist die einzige Komponente von δ 'i, welche nützliche Information gibt, δx'i, die Komponente von δ 'i senkrecht zu der Linie, welche das i-te Unterbild bei (xi, yi) enthält:
  • maxδxi = sq maxdi + q maxni (26)
  • Dies kann umgeschrieben werden als
  • max ( i - a) = sdi,max + ni,max(27)
  • wobei di,max und ni,max die Komponenten des normalisierten Abstandes zwischen dem Zielpunkt und dem i-ten Unterbild bzw. des Rauschvektors ist, die entlang oder parallel zu dem Maximum-Eigenvektör liegen. Dies kann wiederum umgeschrieben werden als: '
  • xi,max = qi,1,maxxa + qi,2,maxya + sdi,max + ni,max (28)
  • und
  • wobei
  • Für jedes eindimensionale Unterbild i kann der Vektor [qi,1max qi,2,max di,max] direkt in die i-ten Reihe der oben beschriebenen (Gleichung (6)) H-Matrix eingesetzt werden. Insbesondere wird qi,1,max in die erste Spalte, i-te Reihe, qi,2,max in die zweite Spalte, i-te Reihe und di,max in die dritte Spalte, i-te Reihe eingesetzt. Für eine Bedingung, bei der vier Unterbilder vorhanden sind, das zweite und das dritte Unterbild eindimensional ist, und die verbleibenden Unterbilder zweidimensional sind, würde die H-Matrix lauten:
  • Für jedes eindimensionale Unterbild i wird die 2i-te Reihe ohne Ersetzung entfernt. Alternativ kann für ein solches eindimensionales Unterbild i der Vektor [qi,1,max qi,2,max di,max] in die 2i-te Reihe eingesetzt werden, und die i-te Reihe entfernt werden. Auf diese Weise kann eine zusammengesetzte H-Matrix zusammengesetzt werden, durch welche zweidimensionale Unterbilder gleichzeitig mit eindimensionalen Unterbildern verfolgt werden können. Die Werte für xi,max und i,max werden durch Multiplizieren von i bzw. i mit dem Maximumeigenvektor ,max berechnet. Mit dieser Bestimmung wird die Berechnung der Eigenvektoren für den Fachmann klar sein. Die H-Matrix wird dann verwendet, um den Vektor 6, wie oben beschrieben (siehe Gleichung (9)) zu lösen.
  • FEHLERPRÜFUNG MIT EINDIMENSIONALEN UNTERBILDERN
  • Die Fig. 17 stellt weiterhin das in der Fig. 16 dargestellte Unterbild dar. Der Rest εT für eine 1-D-Verfolgungseinrichtung ist eine transformierte Version des Restes in dem ursprünglichen Koordinatensystem.
  • Ti.= qTi,max ( i - i) (32)
  • Die Quantität g ,max ( i - i) ist in der Fig. 17 als dx' graphisch dargestellt. Schlechte Unterbilder können daher, wie für den allgemeinen Fall beschrieben, getestet und zurückgewiesen werden, nachdem sie mit dem Maximumeigenvektor multipliziert wurden. Für die 1-D-Unterbildzurückweisung wird die Quantität iT in den Gleichungen (11), (12) und (13) für δxi ersetzt, und der gleiche T- Test wird ausgeführt.
  • Die Fig. 18 stellt einen Teil des Flußdiagramms der Fig. 7 dar. Der Block 52 enthält die Blöcke 80, 82 und 84. In diesen Blöcken erfaßt die Verfolgungseinrichtung alle Unterbilder, kategorisiert jedes Unterbild entweder als 1-D oder als 2-D, und lädt die H-Matrix für jedes Unterbild entweder mit einem Satz von 2-D- Werten (siehe Gleichung (6)) oder einem Satz von 1-D-Werten (siehe beispeilsweise Gleichung (31)), wie es angemessen ist. Jeder dieser Schritte ist oben vollständiger beschrieben.
  • Die Anhänge A-H enthalten FORTRAN-Computercode, welcher eine Ausführungsform der offenbarten Erfindung offenbart. Insbesondere offenbart der Anhang A die Subroutine TRTEST und damit in Beziehung stehende Funktionen zum Bestimmen der Dimensionalität eines Unterbildes. Der Anhang B offenbart die Subroutine DBADD zum Addieren eines Unterbildes zu der Datenbank der Verfolgungseinrichtung. Der Anhang C offenbart die Subroutine EIGENV zum Berechnen der Eigenwerte und der Eigenvektoren eines ausgewählten Unterbildes. Der Anhang D offenbart die Subroutine TRKNORNG2D zum Berechnen des Ortes des Zielpunktes unter Verwendung eines einzigen Verstärkungsmodells. Der Anhang E offenbart Subroutine INTJITTER zum Zurückweisen schlechter Unterbilder, die mit einem Zielpunkt unter der Subroutine TRKNORNG2D assoziiert sind. Der Anhang F offenbart die Subroutine LEASTSQ zum Berechnen der Schätzung kleinster Quadrate eines Parametervektors. Der Anhang G offenbart die gemeinsame Blockvariablenbezeichnung PROCPARM für die vorhergehenden Subroutinen. Der Anhang H offenbart eine Bibliothek von Subroutinen, die vor allen Dingen für die durch die vorhergehenden Subroutinen aufgerufene Matrixmathematik nützlich ist.
  • Obwohl die vorliegende Erfindung und ihre Vorteile im Detail beschrieben wurden, das hier verschiedene Veränderungen, Ersetzungen und Umformungen gemacht werden können, ohne den Bereich der Erfindung zu verlassen, wie er durch die anliegenden Ansprüche definiert ist.

Claims (13)

1. Verfahren zum Verfolgen eines Zielpunktes, mit den Schritten:
zu einem ersten Zeitpunkt wird ein Zielpunkt auf einem Ziel und ein Satz von Unterbildern, beliebig mit dem Zielpunkt assoziiert, erfaßt;
die Orte jedes Unterbildes werden bestimmt;
es wird bestimmt, ob jedes Unterbild eindimensional oder zweidimensional ist; zu einem zweiten Zeitpunkt wird mindestens ein Unterbild wiedererfaßt und dessen Ort festgestellt; und
ein anschließender Ort des Zielpunktes wird geschätzt, basierend auf dem anschließenden Ort des Unterbildes und auf dem Ort des Zielpunktes und des Unterbildes zu dem ersten Zeitpunkt.
2. Verfahren nach Anspruch 1, wobei der Schritt des Erfassens der Positionen des Unterbildes zu dem ersten Zeitpunkt enthält:
ein normalisierter Abstand von jedem Unterbild zu dem Zielpunkt wird berechnet; für jedes eindimensionale Unterbild wird ein Maximum-Eigenvektor für das Unterbild bestimmt; und
für das eindimensionale Unterbild wird eine mit diesem assoziierte Komponente des normalisierten Abstandes berechnet, welche entlang des Maximum-Eigenvektors liegt.
3. Verfahren nach Anspruch 2, wobei der Abschätzungsschritt weiterhin enthält die Schritte:
der anschließende Ort des Zielpunktes wird unter Anwendung einer Methode der kleinsten Quadrate auf einen Vektor für alle wiedererfaßten Unterbilder berechnet, wobei der Vektor normalisierte Abstände für jedes wiedererfaßte, zweidimensionale Unterbild enthält, und einen Maximum-Eigenvektor und eine normalisierte Abstandskomponente für jedes wiedererfaßte, eindimensionale Unterbild.
4. Verfahren nach Anspruch 2 oder 3, wobei der Schritt des Bestimmens, ob das Unterbild eindimensional oder zweidimensional ist, weiterhin die Schritte enthält:
ein Datensatz wird für jedes Unterbild erzeugt, wobei jeder Datensatz für den Unterschied zwischen den Graustufendaten jedes Unterbildes und den Graustufendaten desselben Unterbildes, welches durch einen Bildraum benachbart zu dem Unterbild indiziert ist, repräsentativ ist;
der Datensatz wird einem Paraboloid angepaßt;
Maximum- und Minimum-Eigenwerte werden aus den Konstanten der Parabel bestimmt; und
das Verhältnis des Maximum-Eigenwertes zu dem Minimum-Eigenwert wird berechnet.
5. Verfahren nach einem der vorstehenden Ansprüche, weiterhin enthaltend: der Satz von Unterbildern wird unter Verwendung eines Bildsensors erfaßt, welcher derart betreibbar ist, daß er seine Versetzung relativ zu dem Ziel verändert;
die geometrische Beziehung jedes Unterbildes zu dem Zielpunkt wird berechnet, unter Berücksichtigung, ob das Unterbild eindimensional oder zweidimensional ist;
zwischen dem ersten Zeitpunkt und dem zweiten Zeitpunkt wird die Versetzung des Bildsensors relativ zu dem Ziel verändert;
der Ort des Zielpunktes wird zu dem zweiten Zeitpunkt berechnet, unter Verwendung der geometrischen Beziehung zwischen mindestens einem Unterbild und dem Zielpunkt.
6. Verfahren nach Anspruch 5, wobei die Erfassungs- und Wiedererfassungsschritte weiterhin enthalten:
die Unterbilder werden mit einem auf einem Flugkörper angebrachten Sensor erfaßt bzw. wiedererfaßt.
7. Verfahren nach Anspruch 5 oder 6, wobei der Schritt der Berechnung des Ortes des Zielpunktes zum zweiten Zeitpunkt enthält:
der zweite Zielpunkt wird geschätzt, basierend auf einer Technik der kleinsten Quadrate, angewendet auf einen Vektor, welcher normalisierte Abstände für jedes wiedererfaßte, zweidimensionale Unterbild einschließt, und eine normalisierte Abstandskomponente entlang eines Maximum-Eigenvektors für jedes wiedererfaßte, eindimensionale Unterbild.
8. Verfahren nach Anspruch 2 und nach einem der Ansprüche 3 bis 7, wenn abhängig von Anspruch 2, weiterhin enthaltend, daß fehlerhaft mit dem Zielpunkt assoziierte Unterbilder ausgestoßen werden:
ein Satz von Orten der Unterbilder wird geschätzt, welcher zu dem zweiten Zeitpunkt auftreten hätte sollen, wobei jeder geschätzte Ort auf dem geschätzten Zielpunkt zu dem zweiten Zeitpunkt basiert;
ein Versetzungs-Threshold wird gesetzt;
für jedes eindimensionale Unterbild wird ein Rest berechnet, basierend auf einem Maximum-Eigenvektor und einem Unterschied zwischen einem geschätzten Ort des eindimensionalen Unterbildes und einem entsprechenden, gemessenen Ort dafür;
für jedes zweidimensionale Unterbild wird ein Unterschied zwischen jedem geschätzten zweidimensionalen Unterbild-Ort und dem entsprechenden, gemessenen Ort dafür berechnet; und
jedes Unterbild wird ausgestoßen, bei welchem eine vorbestimmte Funktion des Restes oder der Differenz desselben den Versetzungs-Threshold übersteigt.
9. Verfahren nach Anspruch 8, weiterhin enthaltend den Schritt:
der Ort des Zielpunktes wird basierend auf allen verbleibenden, nicht ausgestoßenen Unterbildern des Satzes erneut berechnet.
10. Verfahren nach Anspruch 9, weiterhin enthaltend:
der Ort des Zielpunktes wird unter Verwendung einer Technik der kleinsten Quadrate erneut berechnet.
11. Verfahren nach einem der Ansprüche 8 bis 10, weiterhin enthaltend: jedes Unterbild wird unter Verwendung der zuvor bestimmten Funktion in der Form eines T-Testes ausgestoßen.
12. Verfahren nach Anspruch 5 oder einem der Ansprüche 6 bis 11, wenn abhängig von Anspruch 5, wobei der Schritt des Bestimmens, ob das Unterbild eindimensional oder zweidimensional ist, durch Ausführen der folgenden Unterschritte vervollständigt wird:
für jede einer Vielzahl von Pixeln auf dem Unterbild wird ein Graustufenrichtwert der Pixelhelligkeit erfaßt;
das Unterbild wird um eine vorbestimmte Anzahl von Pixeln verschoben;
für jede einer Vielzahl von Pixeln in dem verschobenen Unterbild wird ein Graustufenrichtwert der Pixelhelligkeit erfaßt;
jeder Pixel in dem Unterbild wird mit einem entsprechenden Pixel in dem verschobenen Unterbild korreliert, um ein Graustufendatenpaar zu erzeugen; für jedes Graustufendatenpaar wird die Graustufe eines Pixels von der Graustufe des anderen Pixels in dem Paar abgezogen, um eine Graustufendifferenz zu erhalten;
die Graustufendifferenzen werden für alle der Graustufendatenpaare zwischen dem Unterbild und dem verschobenen Unterbild aufsummiert, um eine Summe der Differenzen dieser zu erhalten;
die aufsummierten Differenzen, die für das Unterbild und das verschobene Unterbild erhalten wurden, werden gespeichert;
die Unterschritte des Verschiebens, des Erfassens eines Graustufenrichtwertes für jeden Pixel in dem verschobenen Unterbild, des Korrelierens, des Erhaltens einer Graustufendifferenz und des Erhaltens einer Summe der Differenzen werden wiederholt, und des Speicherns für jede einer Vielzahl von verschobenen Unterbildern, jedes wie verglichen mit dem Unterbild, werden über einen vorbestimmten Bildraum, welcher das Unterbild umgibt, wiederholt;
die gespeicherten Summen der Differenzen werden verwendet, die Konstanten a, b und c werden in der folgenden Beziehung gefunden:
C(i, j) = ai² + 2bij + cj² + d,
wobei C(i, j) die Summe der Differenzen ist, die einem verschobenen Unterbild entspricht, welches an dem Ort zentriert ist und eine Konstante ist;
aus den Konstanten a, b und c werden die Maximum- und Minimum-Eigenwerte für C(i, j) bestimmt;
ein Verhältnis des Maximum-Eigenwertes zu dem Minimum-Eigenwert wird bestimmt;
es wird festgestellt, daß das Unterbild eindimensional ist, wenn das Verhältnis eine vorbestimmte Konstante übersteigt;
es wird festgestellt, daß das Unterbild zweidimensional ist, wenn das Verhältnis eine vorbestimmte Konstante nicht übersteigt;
für den ersten Zeitpunkt wird für jedes zweidimensionale Unterbild ein normalisierter Abstand von dem zweidimensionalen Unterbild zu dem Zielpunkt bestimmt;
für den ersten Zeitpunkt wird für jedes eindimensionale Unterbild ein Maximum- Eigenvektor aus den aufgefundenen Konstanten a, b und c bestimmt;
für den ersten Zeitpunkt wird für jedes eindimensionale Unterbild eine Komponente des normalisierten Abstandes des eindimensionalen Unterbildes von dem Zielpunkt entlang des Maximum-Eigenvektors dafür bestimmt;
für einen zweiten Zeitpunkt wird mindestens eines der Unterbilder wiedererfaßt; und
ein Ort des Zielpunktes zu dem zweiten Zeitpunkt wird geschätzt, basierend auf dem Ort des mindestens einen Unterbildes zu dem zweiten Zeitpunkt, des normalisierten Abstandes des mindestens einen Unterbildes zu dem Zielpunkt, und, wenn mindestens ein Unterbild eindimensional ist, dem Maximum-Eigenvektors dafür, und der Komponente des normalisierten Abstandes entlang des letzten Maximum-Eigenvektors.
13. Flugkörper, ausgebildet, um das Verfahren eines der vorstehenden Ansprüche auszuführen, wobei der Flugkörper (10) enthält:
einen Sensor (16) zum erstmaligen Erfassen eines Zielpunktes und zum periodischen Erfassen eines Satzes von Unterbildern, beliebig assoziiert mit dem Zielpunkt;
einen Prozessor (24) zum Berechnen des Ortes des ersten Satzes von Unterbildern relativ zu dem Zielpunkt, zum Bestimmen der Abmessungen jedes Unterbildes und zum Schätzen anschließender Orte des Zielpunktes, basierend auf den periodisch erfaßten Unterbildern;
Finnen (18) zum Führen des Flugkörpers (10), reagierend auf die geschätzten Zielpunkt-Orte; und
einen Motor (32) zum Antreiben des Flugkörpers (10).
DE69322611T 1992-09-30 1993-09-30 Verfahren und Vorrichtung zur Verfolgang eines Zielpunktes mit beliebigen Unterbildern Expired - Lifetime DE69322611T2 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US07/954,643 US5289993A (en) 1991-08-30 1992-09-30 Method and apparatus for tracking an aimpoint with arbitrary subimages

Publications (2)

Publication Number Publication Date
DE69322611D1 DE69322611D1 (de) 1999-01-28
DE69322611T2 true DE69322611T2 (de) 1999-05-06

Family

ID=25495733

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69322611T Expired - Lifetime DE69322611T2 (de) 1992-09-30 1993-09-30 Verfahren und Vorrichtung zur Verfolgang eines Zielpunktes mit beliebigen Unterbildern

Country Status (3)

Country Link
US (1) US5289993A (de)
EP (1) EP0605941B1 (de)
DE (1) DE69322611T2 (de)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5793889A (en) * 1995-05-25 1998-08-11 Lockheed Corporation Plume or combustion detection by time sequence differentiation
JP3591129B2 (ja) * 1996-05-16 2004-11-17 ブラザー工業株式会社 ディスプレイの表示特性関数決定方法と、ディスプレイの表示特性関数決定装置、γ値決定装置及びプリンタシステム
DE59913752D1 (de) * 1998-07-13 2006-09-21 Contraves Ag Verfahren zur Verfolgung bewegter Objekte anhand spezifischer Merkmale
US6614012B2 (en) * 2001-02-28 2003-09-02 Raytheon Company Precision-guided hypersonic projectile weapon system
US20070238073A1 (en) * 2006-04-05 2007-10-11 The United States Of America As Represented By The Secretary Of The Navy Projectile targeting analysis
US9074848B1 (en) * 2011-04-13 2015-07-07 Litel Instruments Precision geographic location system and method utilizing an image product
KR101179074B1 (ko) * 2011-12-13 2012-09-05 국방과학연구소 공중폭발 모의시스템 및 공중폭발 모의방법

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3912198A (en) * 1964-11-04 1975-10-14 Ltv Aerospace Corp Tracking system
US4133004A (en) * 1977-11-02 1979-01-02 Hughes Aircraft Company Video correlation tracker
FR2502875B1 (fr) * 1981-03-30 1985-11-29 Tugaye Jean Procede et dispositif de cadrage et de stabilisation d'image de camera electro-optique
US4868871A (en) * 1987-08-13 1989-09-19 Texas Instruments Incorporated Nonparametric imaging tracker
FR2656106B1 (fr) * 1988-12-12 1992-06-05 Thomson Csf Procede et dispositif d'acquisition automatique de cibles.
US5062056A (en) * 1989-10-18 1991-10-29 Hughes Aircraft Company Apparatus and method for tracking a target
GB9025797D0 (en) * 1990-11-28 1991-01-09 Hitachi Europ Ltd Motion target tracking system
US5211356A (en) * 1991-08-30 1993-05-18 Texas Instruments Incorporated Method and apparatus for rejecting trackable subimages
US5213281A (en) * 1991-08-30 1993-05-25 Texas Instruments Incorporated Method and apparatus for tracking an aimpoint with arbitrary subimages
US5303878A (en) * 1991-08-30 1994-04-19 Texas Instruments Incorporated Method and apparatus for tracking an aimpoint on an elongate structure

Also Published As

Publication number Publication date
DE69322611D1 (de) 1999-01-28
EP0605941A1 (de) 1994-07-13
EP0605941B1 (de) 1998-12-16
US5289993A (en) 1994-03-01

Similar Documents

Publication Publication Date Title
DE69836079T2 (de) Schätzung der zielart zur radarverfolgung
DE69333693T2 (de) Leit- und Zielführungssystem
DE69031094T2 (de) Verfahren und Gerät zur Überwachung und Zielverfolgung
EP1531343B1 (de) Verfahren zur Verfolgung von Objekten
DE69214582T2 (de) Verfahren und Vorrichtung zur Unterdrückung verfolgbarer Unterbilder
EP0842395B1 (de) Verfahren und vorrichtung zur schnellen erfassung der lage einer zielmarke
DE102020124236A1 (de) Mehrweg-geisterabmilderung im fahrzeug-radarsystem
DE69730733T2 (de) Flugkörperlenkungssystem mit verriegelung nach abschuss und rekonstruktion von dreidimensionalen szenen
EP2369296A2 (de) Navigationsverfahren für einen Flugkörper
EP1687656B1 (de) Verfahren zur richtungsbestimmung zu einem zu vermessenden objekt
EP2381207B1 (de) 3D-Zielvermessung und Zieleinweisung aus IR-Daten
DE102016119626A1 (de) Automatische dreidimensionale Geolokation von SAR-Targets und gleichzeitige Schätzung troposphärischer Ausbreitungsverzögerungen mittels zweier SAR-Bilder mit langer Apertur
DE69322611T2 (de) Verfahren und Vorrichtung zur Verfolgang eines Zielpunktes mit beliebigen Unterbildern
DE102006039104A1 (de) Verfahren zur Entfernungsmessung von Objekten auf von Bilddaten eines Monokamerasystems
EP4211490A1 (de) Verfahren, radarsystem und fahrzeug zur signalverarbeitung von radarsignalen
DE69214583T2 (de) Verfahren und Vorrichtung zur Verfolgung eines Zielpunktes mit beliebigen Unterbildern
DE102008008499B4 (de) Verfahren zur rechnergestützten Berechnung der Bewegung eines Objekts aus Sensordaten
DE69205481T2 (de) Verfahren zur Selbstlenkung eines Flugkörpers gegen ein Ziel mittels Entfernungsmessungen.
DE69214584T2 (de) Verfahren und Vorrichtung zur Verfolgung eines Zielpunktes auf einer länglicher Struktur
DE4205056A1 (de) Verfahren und system zum abtasten einer szene zu dem zweck des klassifizierens einer mehrzahl von sich bewegenden objekten
DE102021211743A1 (de) Verfahren und Vorrichtung zum Bereitstellen von Tracking-Daten für die Erkennung der Bewegung von Personen und Händen zum Steuern mindestens einer Funktion eines Technischen Systems und Sensorsystem
DE69730278T2 (de) Passive Entfernungsabschätzung unter Verwendung von Bildgrösseabmessungen
DE69310695T2 (de) Verfahren zur Steuerungshilfe eines tieffliegenden Flugkörpers
EP3663800B1 (de) Verfahren zur objekterfassung mit einer 3d-kamera
Halversen Calculating the orientation of a rectangular target in SAR imagery

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8327 Change in the person/name/address of the patent owner

Owner name: RAYTHEON CO.(N.D.GES.D.STAATES DELAWARE), LEWISVIL