DE69333693T2 - Leit- und Zielführungssystem - Google Patents

Leit- und Zielführungssystem Download PDF

Info

Publication number
DE69333693T2
DE69333693T2 DE69333693T DE69333693T DE69333693T2 DE 69333693 T2 DE69333693 T2 DE 69333693T2 DE 69333693 T DE69333693 T DE 69333693T DE 69333693 T DE69333693 T DE 69333693T DE 69333693 T2 DE69333693 T2 DE 69333693T2
Authority
DE
Germany
Prior art keywords
image
dimensional image
target
dimensional
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE69333693T
Other languages
English (en)
Other versions
DE69333693D1 (de
Inventor
Lewis G. Arlington Minor
Robert T. Kitahara
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Lockheed Martin Corp
Original Assignee
Lockheed Corp
Lockheed Martin Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Lockheed Corp, Lockheed Martin Corp filed Critical Lockheed Corp
Publication of DE69333693D1 publication Critical patent/DE69333693D1/de
Application granted granted Critical
Publication of DE69333693T2 publication Critical patent/DE69333693T2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G7/00Direction control systems for self-propelled missiles
    • F41G7/20Direction control systems for self-propelled missiles based on continuous observation of target position
    • F41G7/22Homing guidance systems
    • F41G7/2226Homing guidance systems comparing the observed data with stored target data, e.g. target configuration data
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G7/00Direction control systems for self-propelled missiles
    • F41G7/20Direction control systems for self-propelled missiles based on continuous observation of target position
    • F41G7/22Homing guidance systems
    • F41G7/2253Passive homing systems, i.e. comprising a receiver and do not requiring an active illumination of the target
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G7/00Direction control systems for self-propelled missiles
    • F41G7/20Direction control systems for self-propelled missiles based on continuous observation of target position
    • F41G7/22Homing guidance systems
    • F41G7/2273Homing guidance systems characterised by the type of waves
    • F41G7/2293Homing guidance systems characterised by the type of waves using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/66Tracking systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4802Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Remote Sensing (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Aiming, Guidance, Guns With A Light Source, Armor, Camouflage, And Targets (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Circuits Of Receivers In General (AREA)
  • Control Of Motors That Do Not Use Commutators (AREA)
  • Electrical Discharge Machining, Electrochemical Machining, And Combined Machining (AREA)
  • Financial Or Insurance-Related Operations Such As Payment And Settlement (AREA)
  • Electrotherapy Devices (AREA)
  • Burglar Alarm Systems (AREA)
  • Image Analysis (AREA)

Description

  • Die vorliegende Erfindung bezieht sich im Allgemeinen auf ein Führungs- und Zielsystem, das mit lufttransportierten Waffen, z.B. Raketen oder Gleitbomben usw. benutzt werden kann; und im Einzelnen bezieht sie sich auf ein Führungs- und Zielsystem, das Bildverarbeitungssensoren in solchen Waffen verwendet, um Ziele zu identifizieren, und das verwendet werden soll, um die Waffe auf das Ziel zu lenken.
  • Viele gebräuchliche Waffenführungs- und Zielerfassungssysteme werden verwendet, um spezielle Ziele zu erfassen und die Rakete oder eine andere Waffe auf das speziell identifizierte Ziel zu lenken. Diese gewöhnlichen Systeme benutzen einige Arten von Bildverarbeitungssensoren, wie z.B. passive Infrarot-, MMW-, TVO-, SAR- oder CO2-Laserradar(LADAR)-Sensoren. Für jedes dieser herkömmlichen Systeme ist es notwendig, dass für irgendein spezielles Ziel eine Zielreferenz vorbereitet werden muss. Herkömmliche Zielreferenzvorbereitung erfordert es typischerweise, ein dreidimensionales Bild oder Modell des Ziels zu erzeugen und kann es weiter erforderlich machen, dass die Materialien für Objekte oder Oberflächen auf dem dreidimensionalen Referenzbild dargestellt werden müssen. Dieses Zielreferenzbild wird dann an Bord der Rakete geladen, um eine Referenz im Vergleich mit Daten, die durch den Bildverarbeitungssensor aufgenommen werden, zur Verfügung zu stellen.
  • Wie leicht gewürdigt werden kann, kann die Schwierigkeit, diese Zielreferenz vorzubereiten, den Arbeitsablauf häufig sehr zeitaufwändig gestalten, was möglicherweise Tage oder Stunden der Vorbereitung in Anspruch nehmen kann. In vielen taktischen Szenarien kann diese Vorbereitungszeit und entsprechend langsame Reaktionszeit auf sich ändernde Situationen ein ernsthaftes taktisches oder strate gisches Problem darstellen. Ein weiteres Problem, das sich aus der obigen Diskussion ergibt, ist, dass die Aufklärung nicht nur ausreichende visuelle Daten erhalten muss, um die Erzeugung des Referenzmodells zu erleichtern, sondern auch Informationen zur Verfügung stellen muss, die Materialien und Stereopair-Information betrifft, um die dreidimensionale Modellierung zu erleichtern. Anderenfalls würde das Modell Fehler enthalten und die Führung ungenau machen.
  • Wenn einmal das dreidimensionale Modell auf Basis der Aufklärungsdaten erzeugt ist, dann müssen aufwändige Modellierungen angewendet werden, um IR, MMW und/oder SAR-Signaturen vorherzusagen, um das Zielreferenzmodell bereitzustellen, das während des Angriffs verwendet werden soll. Wenn das dreidimensionale Referenzmodell festgelegt ist und die Angriffsgeometrie dafür ausgewählt ist, dann wird eine Zielreferenzdatei erzeugt, um in die Waffe geladen zu werden. Diese Zielreferenzdatei ist häufig eine Kantenkarte, die nach Kantensignaturen modelliert wurde, welche vorhergesagt werden, um von dem speziellen Bildverarbeitungssensor der Rakete gesehen zu werden. Während eines Angriffs wird die Zielreferenzdatei mit dem aufgespürten Bild verglichen, um zu bestimmen wann das Ziel geortet wurde und Führungsinformationen für das Raketenlenksystem bereitzustellen.
  • Wie oben bemerkt, besteht ein ernsthaftes Problem mit herkömmlichen Systemen in der Benötigung eines dreidimensionalen Zielreferenzmodells, das vorbereitet werden muss, um eine Zielreferenzdatei zur Benutzung in der Rakete festzulegen. Zusätzlich ist die Komplexität der Modellierung beträchtlich, welche die Vorhersage von Signaturen basierend auf den Aufklärungsdaten beinhaltet, welche durch den einbezogenen Sensor erkannt werden würden. Zusätzlich waren herkömmliche Systeme typischerweise relativ darauf beschränkt, aus der Blickrichtung des Aufklärungssensors anzugreifen, was die taktischen Möglichkeiten ernsthaft eingeschränkt hat. Die Konferenzaufzeichnungen der 23. Asilomar Conference on Signal Systems and Computers Vol. 1 vom 13. Oktober 1998. Pacific Grove CA, USA, herausgegeben von der Computer Society of the IEEE; ISBN 0-929029-30- 1, S. 395 bis 398 von Paul. K. Williams: "Target infrared signature using automatic model based laser radar alignment" beschreibt eine Technik zur Verwendung einer 3D-Computer-Modellbasis von Fahrzeugen in Zusammenarbeit mit Laserradar (LADAR) Reichweiten, Bildverarbeitung, um die 3D-Modelle mit der erfassten Infrarot-Bildverarbeitung auszurichten.
  • Das Schweizer Patent CH-A-675 638 beschriebt eine Technik zur Verwendung mathematischer Modelle, um die Form von Flugzeugen zu beschreiben und Projektionen dieser Modelle auf eine Ebene zu berechnen.
  • Demgemäß stellt die vorliegende Erfindung ein neues Verfahren und eine neue Einrichtung zur Führung und Zielausrichtung einer Waffe bereit, wo ein dreidimensionaler Bildverarbeitungssensor verwendet werden kann, um Zielerkennung bereitzustellen ohne die Notwendigkeit der Vorbereitung von dreidimensionalen Modellen, wobei die Missionsplanung und vorbereitende Arbeitsabläufe optimiert und vereinfacht werden. Die vorliegende Erfindung stellt ein Verfahren und eine Einrichtung zur Erkennung eines ausgewählten physischen Objektes zur Verfügung, wie z.B., eines potentiellen Zieles durch dreidimensionale Bilderfassung. Das Verfahren und die Einrichtung sind besonders geeignet, mit lufttransportierten Waffen, wie z.B. Raketen, Gleitbomben, etc. verwendet zu werden. Wenn einmal ein physisches Objekt erkannt worden ist, kann es als Ziel identifiziert werden und die resultierende Zielidentifikation kann dazu verwendet werden, die Lenkung der Waffe in Richtung des Zieles auszulösen oder zu steuern.
  • In einer bevorzugten Ausführungsform werden Oberflächen des Objekts relativ zu einem allgemeinen zweidimensionalen Referenzbild des Objekts erkannt, wie es von einem gegebenen Betrachtungspunkt oder "Blickpunkt" gesehen wird. Das Referenzbild in einem speziell bevorzugten Ausführungsbeispiel wird im Wesentlichen von einer Fotografie erhalten. Es können jedoch auch andere bildgebende Verfahren wie Synthetisches Apertur-Radar (SAR) verwendet werden, um das Referenzbild zur Verfügung zu stellen.
  • Der Sensor, der von einer Rakete oder anderen Waffe getragen wird, wird verwendet um ein dreidimensionales Bild eines Objekts oder Ziels bereitzustellen, wenn sich die Waffe dem Ziel nähert. Die Position des Sensors wird einen zweiten Augenpunkt relativ zum Objekt vorgeben. In einer speziellen bevorzugten Ausgestaltung wird Halbleiter-LADAR als Waffen-Sensormechanismus verwendet.
  • Um die Objekterkennung zu erleichtern, wird das erfasste dreidimensionale Bild umgeformt, um ein umgeformtes Bild des Objekts zu bilden, als würden die erfassten Abschnitte des Objekts von einem Augenpunkt gesehen, von dem das zweidimensionale Referenzbild erhalten wurde. Diese Umformung stellt Bilder bereit, die mit dem Referenzbild korreliert werden können, indem ähnliche Eigenschaften oder Merkmale korreliert werden. In einem speziellen bevorzugten Ausführungsbeispiel werden die Bilder durch Kantenabgleichstechnologien korreliert, wobei sowohl das Referenzbild, als auch das transformierte Bild Linien aufweisen, die digital durch ihre Endpunkte vorgegeben werden. In anderen Ausführungsformen können Ebenen oder andere vorgegebene Oberflächen oder Intensitätsdaten verwendet werden, um zwischen dem Referenzbild und dem transformierten Bild zu korrelieren.
  • Sobald ein transformiertes Bild und ein Referenzbild genügend abgeglichen sind, um das Ziel zu identifizieren, oder einen besonderen speziellen Zielpunkt (oder Datenkoordinatenpunkt) auf dem Ziel zu identifizieren, kann ein Fehlersignal erzeugt werden und dem Lenkungssystem der Waffe übermittelt werden, um den Kurs der Waffe zu steuern. In einem speziellen bevorzugten Ausführungsbeispiel wird dieses Fehlersignal nicht nur den Aufenthaltsort in Begriffen der X-, Y-, Z-Koordinaten enthalten, sondern auch einen Winkelfehler und Winkelratenfehlerdaten beinhalten.
  • 1 erklärt schematisch ein beispielhaftes Verfahren zur Zielerkennung in Übereinstimmung mit der vorliegenden Erfindung.
  • 2 beschreibt ein beispielhaftes Aufklärungsfoto und ein Zielreferenzbild, das aus einem solchen Aufklärungsfoto entwickelt werden kann.
  • 3 beschriebt beispielhaft Eingangsmessdaten, die verwendet werden sollen zur Vorbereitung des Referenzbildes zur aktiven Verarbeitung eines Arbeitsablaufs in Übereinstimmung mit der vorliegenden Erfindung.
  • 4 beschreibt schematisch den Umformungsablauf von 1 relativ zu Aufklärungsdaten, die von einem ersten Augenpunkt erhalten werden, sowie von einem Waffensystem, das von einem zweiten Augenpunkt aus operiert.
  • 5 stellt eine beispielhafte Beschreibung von Entfernungs- und Intensitätsdaten eines möglichen Ziels bereit und die Umformung der erfassten Daten in ein umgeformtes Bild relativ zu einem Aufklärungsfoto (ebenso in 2 veranschaulicht), das verwendet wird, um ein Referenzbild zu identifizieren.
  • 6A, B veranschaulichen ein beispielhaftes Ablaufdiagramm von Arbeitsschritten, die in die Referenzvorbereitung, die in 1 identifiziert ist, eingeschlossen sind in Übereinstimmung mit der vorliegenden Erfindung.
  • 7A bis C stellen ein beispielhaftes Ablaufdiagramm der Verarbeitung von durch LADAR erfassten Bildern relativ zu einem Zielbereich während eines hypothetischen Betriebs in Übereinstimmung mit der vorliegenden Erfindung dar.
  • Am Ende der Anmeldung befindet sich ein Anhang A, der den Quellcode enthält, welcher die Schritte und Betriebsabläufe beschreibt, die im Ablaufdiagramm von 7A bis C identifiziert werden, ebenso die Unterbetriebsabläufe und deren Schritte, sowie zusätzliche Betriebsabläufe.
  • Von den hierin beschriebenen und veranschaulichten Techniken wird angenommen, dass sie für jedes beliebige Sensorsystem besonders hilfreich sind, indem sie sowohl Entfernungsbildgebung zur Erleichterung der Bereitstellung eines Kantenbildes und Intensitätsbildgebung zur Verfügung stellen. Jedoch wird das System bevorzugt unter Verwendung eines Halbleiter-LADAR (SS-LADAR) Sensorsystems betrieben. In einem solchen Sensorsystem werden Entfernungsdaten durch Messung einer Zeitverzögerung zwischen gesendeten und empfangenen Laser-Lichtpulsen, die durch den LADAR-Sucher abgegeben werden, erhalten. Die Pulse werden bevorzugt durch einen Q-geschalteten Halbleiterlaser bereitgestellt, wie z.B. einen Nd:YLF, Nd:YAG oder Nd:YVO4-Laser, welcher durch einen externen, entfernt angeordneten Diodenlaser gepumpt wird, z.B. einen GaAlAs-Diodenlaser.
  • In einem besonderen, bevorzugten Ausführungsbeispiel pumpt einen Gallium-Aluminium-Arsenid-Laser einen Halbleiterlaser, der auf einem kardanisch gelagerten optischen System angebracht ist und welches die Laserlichtenergie abgibt, die dazu verwendet wird, um das Ziel zu beleuchten. Der Gallium-Aluminium-Arsenid-Pumplaser erzeugt ein andauerndes Signal von Wellenlängen, die dazu geeignet sind, den Halbleiter-Laser in der Kristallabsorptionsbandbreite zu pumpen. Der Pumplaser, bevorzugt Laser, hat bevorzugt eine Ausgangsleistung im Bereich von 10–20 Watt, die dazu ausreicht den Halbleiter Laser zu betreiben.
  • In diesem besonders bevorzugten Ausführungsbeispiel ist der Halbleiterlaser einer der zuvor identifizierten Arten, welcher betreibbar ist, um Pulse mit Breiten von 10 oder 20 Nanosekunden zu erzeugen, Spitzenleistungspegel von ungefähr 10 Kilowatt und Wiederholungsraten von 10 bis 120 kHz. Die entsprechende Durchschnittsleistung liegt im Bereich von 1 bis 4 Watt. Der bevorzugte Bereich von Wellenlängen der Ausgangsstrahlung befindet sich im nahen Infrarotbereich, d.h. 1047 oder 1064 Mikron. Ein Lasersystem dieser Art ist in der US Patentanmeldung 07/724,750 im Namen von Lewis G. Minor (einer der Erfinder der vorlie genden Erfindung) beschrieben und Nicholas J. Krasutski, die am 2. Juli 1991 angemeldet wurde unter dem Titel "Sensorkopf", und die an den Bevollmächtigen der vorliegenden Erfindung abgetreten wurde. Die Offenbarung der US-Anmeldung 07/724,750 ist veröffentlicht im US-Patent Nr. 5,224, 109.
  • Mit nunmehr genauem Bezug auf die Zeichnungen im Einzelnen, und im Besonderen auf 1 wird dort schematisch ein Ablaufdiagramm beschrieben, das im Allgemeinen als 10 bezeichnet ist, eines beispielhaften Verfahrens zur Zielerkennung in Übereinstimmung mit der vorliegenden Erfindung. Im Vergleich zu herkömmlichen Systemen werden die Schritte der Vorbereitung der Referenz, angegeben durch 12, dramatisch vereinfacht. Ein Zielkennzeichner, wie z.B. ein einzelnes Foto wird mittels herkömmlicher Aufklärungstechniken aufgenommen, wie im Allgemeinen durch 14 angegeben. In ähnlicher Weise werden Messdaten, die durch 16 angegeben sind, ebenso durch allgemeine Aufklärungstechniken zusammengestellt. Solche Daten werden dann auf eine Art kompiliert, die dazu geeignet ist, auf einem Onboard-Digitalcomputer verwendet zu werden, der die Zielerkennung und die Leitungsverarbeitung handhabt, wie im Allgemeinen in 18 angegeben. Eine derartige Kompilierung kann bevorzugt auf einer geeigneten interaktiven Arbeitsstation durchgeführt werden. Die Zieldaten werden verwendet, um ein Referenzbild zu bilden, wie es im einzelnen hierin später beschrieben wird. Die Verarbeitung in der Waffe wird in Echtzeit während des Angriffsablaufs durchgeführt.
  • Die Zielreferenzdaten werden einen Kantenzielpunkt beinhalten, der durch einen Bediener festgelegt wird, während die Messdaten solche Daten enthalten, wie z.B. den Bild-Augenpunkt (d.h. den Punkt; von dem aus das Referenzfoto aufgenommen wurde). Diese Information wird auf einer Massenspeicherkassette gehalten, wie z.B. auf einem Datenband, das geeignet ist in das computerisierte Waffenlenksystem eingelegt und dort verwendet zu werden.
  • Da der beschriebene LADAR-Sensor dreidimensionale Daten des Ziels zur Verfügung stellt und ebenso Intensitätsdaten des Ziels zur Verfügung stellt, können sowohl die LADAR-erfassten Entfernungs- als auch die Intensitätsdaten in jede Ansicht im dreidimensionalen kartesischen Koordinatensystem transformiert werden.
  • Auf eine für den Fachmann bekannte Art, wird wo die Rakete eine Navigationsmöglichkeit durch ein Globales Positionierungssystem (GPS) aufweist, die Lage der Rakete mit erheblicher Genauigkeit bestimmt werden können, wie im Bereich innerhalb eines Radius von 1 bis 16 Metern. An einem vorbestimmten Ort, der im Speziellen als Reaktion auf die Angriffsgeometrie bestimmt wird, wird das LADAR-Zielerkennungssystem betätigt. Diese Betätigung wird an einem Punkt eintreten, wo das Ziel in "Sichtweite" des LADAR-Bildes sein wird. Das LADAR wird dann eine Karte der erfassten Intensitätsdaten 22 innerhalb seines Sichtbereiches und von erfassten Entfernungsdaten innerhalb seines Sichtbereiches erstellen. Basierend auf Eingangsdaten 28, welche sowohl Zieldaten enthalten, die den Ort des Ziels identifizieren, als auch Daten relativ zum Referenzbild, der Waffenangriffsgeometrie und der Zeit, wird das erfasste LADAR-Bild 26 in ein kartesisches Koordinatensystem überführt, um das erfasste LADAR-Bild so wiederzugeben, als ob es vom Augenpunkt gesehen würde, der zur Bereitstellung der Referenz der Zielaufklärung verwendet wurde. Diese Koordinatentransformation wird sowohl Vergrößerung und Rotation und perspektivische Verzerrung des erfassten LADAR-Bildes beinhalten. Das sich ergebende transformierte LADAR-Bild kann dann durch Kantenabgleich verglichen werden 30, oder durch Merkmalsabgleich oder durch direkte Bildkorrelation, bis eine Übereinstimmung erzielt wird 32.
  • Nun unter Bezugnahme auf 2 ist dort ein Aufklärungsfoto 34 veranschaulicht, welches in Übereinstimmung mit Schritt 14 digitalisiert wurde, um ein Zielreferenzbild 36 zu bilden. Wie auf dem Aufklärungsfoto 34 erkannt werden kann, wurde ein Zielpunkt 38 auf dem Foto festgelegt. Der Zielpunkt 38 kann einen Bereich darstellen, der auf der Oberfläche eines Zielgebäudes festgelegt sein kann. Da darüber hinaus jedoch das SS-LADAR-Bildgebungssystem die Möglichkeit bietet, drei Dimensionen zu detektieren, kann sich der tatsächliche Zielpunkt an einem versetzten Zielpunktort, wie beispielsweise innerhalb eines Gebäudes befinden. Der Zielpunkt 38 kann relativ zur Zielreferenz festgelegt werden, z.B. mit Bezug auf eine Reihe und eine Spalte wie durch 40 angegeben, relativ zum digitalisierten Bild 36.
  • Nun mit Bezug auf 3 werden dort beispielhafte Eingabeparameter relativ zu den Zielreferenzbilddaten veranschaulicht. Solche Referenzdaten werden beispielsweise den Zielpunkt 46 beinhalten, ausgedrückt durch Längengrad, Breitengrad und Höhe (was in Einheiten von Metern beschrieben werden kann); den Zündbereich 48; und Zielversatz 50. Wie aus dem Beispiel in 3 ersichtlich ist, wird der Zielversatz als 10 Fuß tief angegeben, oder entlang der Z-Achse (vertikale Richtung), relativ zum festgelegten Zielpunkt. Ebenso werden Daten eingegeben, die das Referenzbild 52 betreffen. Solche Referenzdaten werden den Augenpunkt 54 beinhalten, von welchem das Aufklärungsfoto aufgenommen wurde, wiederum ausgedrückt in Begriffen der Längengrade, Breitengrade und der Höhe; das Vorhandensein irgendwelcher Schatten 56 kann in einigen Ausführungsformen eingegeben werden; die Tageszeit 58, ausgedrückt in Greenwich Mean Time; und das Datum 60. Falls der Augenpunkt und das Kameramodell nicht zur Verfügung stehen, können sie durch fünf oder mehrere Kontrollpunkte angenähert werden, welche markante Merkmale des Bildes bezeichnen.
  • Nun mit Bezugnahme auf 4 ist dort schematisch eine beispielhafte Darstellung der Transformation eines Bildes zwischen Augenpunkten veranschaulicht. Das Ziel 70 wird relativ zur Perspektive, aus welcher das Aufklärungsbild aufgenommen wurde (z.B. vom Augenpunkt 72) dargestellt. Dieser Augenpunkt ist, wie zuvor erörtert, in Begriffen des Längengrades, Breitengrades und der Höhe dargestellt, um den Punkt im Raum relativ zu einem kartesischen Koordinatensystem zu platzieren. Deshalb ist das Referenzfoto aus dem Beispiel in 4 entlang der Achse 74 aufgenommen. Ein Zielpunkt 76 wird auf dem Ziel 70 festgelegt, wie in Bezug auf 2 erörtert. Wie mit Bezug auf 3 bemerkt wurde, kann der Zielpunkt präzise im Raum durch Längengrad, Breitengrad und Höhe festgelegt werden.
  • Zu einer nachfolgenden Zeit (wie beispielsweise während eines Angriffs) gibt der LADAR-Sensor Bilder vom Ziel 70 von einem anderen Ort entlang Achse 78 ab. Wiederum, wie zuvor bemerkt wurde, ist der LADAR-Sensor oder Augenpunkt 80 präzise im Raum durch Längengrad, Breitengrad und Höhe festgelegt. Der Koordinatentransformationsschritt (Element 26 in 1) beinhaltet die Verschiebung des wirksamen Augenpunktes des detektierten LADAR-Bildes (detektiert entlang Achse 78), bis es mit dem Bild, das entlang der Achse 74 detektiert wird, übereinstimmt, sowie die Skalierung des transformierten Bildes, um die Abweichung zwischen der Länge der Achse 74 zwischen Zielpunkt 76 und Augenpunkt 72 und der Länge der Achse 78 zwischen Augenpunkt 80 und Zielpunkt 76 auszugleichen.
  • Mit Bezug auf 5 wird dort ein beispielhaftes LADAR-Entfernungsbild 84 und ein beispielhaftes LADAR-Intensitätsbild 86 mit einem beispielhaften Ziel erläutert. Eine Ausführung eines beispielhaften Aufklärungsfotos 88 (entsprechend der Darstellung 34 aus 2) wird festgelegt. Wie aus einem Vergleich des Aufklärungsfotos 88 relativ zu den LADAR-Entfernungs- und Intensitätsbildern 84 und 86 jeweils ersichtlich ist, detektiert das LADAR das Gebäude aus einer Perspektive, die um 45 Grad in Bezug auf jene des Aufklärungsfotos 88 verdreht ist. Demgemäß erzielt die Durchführung der Computertransformation 28 das transformierte LADAR-Bild, was einem allgemeinen Augenpunkt relativ zu jenem entspricht, der für das Aufklärungsfoto 88 verwendet wurde (alles wie in Bezug auf 4 erörtert). Sobald das Bild zur Übereinstimmung 32 gebracht worden ist, wie z.B. durch Kantenabgleich, dann wird der Abgleichsfehler bestimmt 92. Dieser Abgleichsfehler kann dazu verwendet werden, ein Fehlersignal zur Verwendung durch das Waffenleitsystem zu erzeugen.
  • Nun mit Bezug auf 6 ist dort ein Ablaufdiagramm eines Einsatzplanungsabschnitts eines Waffeneinsatzarbeitsablaufs erörtert, der den Grundarbeitsablauf der Vorbereitung der Referenz beinhaltet, allgemein angegeben mit 12 in 1. Wie zuvor bemerkt, falls das Aufklärungsbild nicht in digitaler Form vorliegt, sondern in einer anderen Form, wie beispielsweise einem Foto, dann wird das Aufklärungsbild digitalisiert 102. Fünf Bildkontrollpunkte werden eingegeben, 102. Jeder Bildkontrollpunkt verkörpert einen gemessenen Punkt, der den Längengrad, Breitengrad und die Höhe angibt. Diese fünf Bildkontrollpunkte werden dann Reihen- und Spaltenorten im Digitalbild 104 zugeordnet. Nachfolgend wird die Berechnung des Augenpunktes und Kameramodells aus den fünf Kontrollpunkten durchgeführt 106, auf eine Weise die im Stand der Technik bekannt ist. Falls das Kameramodell und der Augenpunkt schon bekannt sind, werden die Kontrollpunkte nicht benötigt.
  • Das digitale Bild wird dann verdreht, um den Fußpunkt und verdeckte Aufklärungsbilder in Übereinstimmung zu bringen, 8. Die Bildverdrehung kann ebenso dazu verwendet werden, die Augenpunktberechnung und das Kameramodell zu verbessern, wenn sowohl Fußpunkt, als auch verdeckte Bilder zur Verfügung stehen. Es wird eine Festlegung durchgeführt, 110, ob starker Schatten im Aufklärungsbild vorliegt, wobei der vorhandene Schatten ausreicht, wesentliche Einzelheiten des Bildes zu verdecken. Falls der Schatten vorliegt, können die Schattenbereiche per Hand markiert werden, oder Schatten können relativ zur Sonnenstellung zu dem Zeitpunkt, zu dem das Aufklärungsbild aufgenommen wurde, bestimmt werden. Wie im Stand der Technik wohl bekannt ist, kann die Sonnenposition aus der Tageszeit, dem Längengrad und dem Breitengrad und dem Bereich des Interesses bestimmt werden. Die Schattenbildung wird unter Verwendung eines Sonnenstellungsmodells vorhergesagt, wobei die Schatten dann zu nützlichen Abgleichsmerkmalen werden, anstatt problematische Verzerrungen darzustellen.
  • Ein Zielpunkt kann auf dem Referenzbild durch Auswahl einer Reihe und Spalte 114 (wie mit Bezug auf 2 erörtert) festgelegt werden. Wo der tatsächlich gewünschte Zielpunkt auf dem Referenzbild nicht sichtbar ist, kann eine Entscheidung getroffen werden 116, das Ziel zu versetzen. In einer solchen Situation werden die Versätze eingegeben 118 (wie mit Bezug auf 3 erörtert). Kanten im Referenzbild werden extrahiert 120 durch gewöhnliche Kantenoperatortechniken, wie z.B. den Sobel-Operator. Wie es im Stand der Technik bekannt ist, können Linienabschnitte durch Auffindung von deren Endpunkten in den extrahierten Kanten gefunden werden, indem gewöhnliche Bildverarbeitungstechniken verwendet werden. Die Festlegung von Linienendpunkten erleichtert die Eingabe von speziellen Linie-/Kantenkennzeichnern. Kleinere Linienabschnitte können zu größeren Linienabschnitten verschmolzen werden, 122. Diese Verschmelzung kann dort angewendet werden, wo kleinere erkennbare Linienabschnitte adäquat als Abschnitte einer größeren Linie erkannt werden können, und wird zu einer Verringerung der Größe der Linienabschnittsdatei führen und dadurch die Vereinfachung von späteren Arbeitsabläufen erleichtern. Schließlich kann die Datenkassette in die Rakete oder Waffe geladen werden.
  • Nun mit Bezug auf 7a bis c wird dort ein beispielhaftes Ablaufdiagramm 130 von Zielerfassungs- und -verfolgungsabläufen erörtert, das durch den Onboard-Computer während des tatsächlichen Einsatzes ausgeführt werden kann. Wie zuvor beschrieben, wird der Leitcomputer Träge Maßeinheiten (IMO) und GPS-Daten lesen, um die exakte Raketenposition festzulegen und wird die Raketenhöhe bestimmen (d.h. Rollen, Neigung und Gierung), 132. Wenn die Rakete an einem vorbestimmten Zielerfassungspunkt 134 ankommt, wird das LADAR relativ zum projizierten Zielpunkt betrieben, und Entfernungs- und Intensitätsbilder werden erfasst, 136. Der projizierte Zielpunkt wird in Bezug auf den vorbestimmten Angriffsplan der Waffe festgelegt.
  • Die Entfernungs- und Intensitätspixel eines Bereichs, der das Ziel enthält, werden dann mit einem trägheitsbezogenen Bild-Koordinatensystem korreliert werden, um einen festen Bezugsrahmen zur Zeit der Bilderfassung 138 festzulegen. Die erfassten Entfernungs- und Intensitätsbilder werden für Bewegungs- und Abtasteffekte 140 korreliert, die als Ergebnis der Raketenbewegung während der LADAR-Abtastungsperiode auftreten, indem der Referenzrahmen verwendet wird. Das korrigierte Bild gibt deswegen das Bild zum bestimmten Zeitpunkt und Ort der Bilderfassung wieder. Das polare Abtast-Koordinatensystem des LADAR wird dann in ein rechtwinkliges Koordinatensystem überführt, welches auf im Stand der Technik bekannte Weise mit dem korreliert werden kann, welches in Bezug auf das Referenzbild verwendet wurde, 142.
  • Das durch LADAR erfasste Bild wird analysiert, um Entfernungsanstieg, Entfernungsabfall und Intensitätskanten zu extrahieren, 144. Diese extrahierten Kanten werden dann kombiniert, um ein einziges dreidimensionales Bild zu bilden. Zusätzlich wird die Kantendicke, die typischerweise durch den Kantenoperator aufgezwungen wird, auf das machbare Maß verdünnt. In dem einzigen dreidimensionalen Bild werden Kanten- und Linienabschnitte identifiziert und Linienabschnitte werden mit Bezug auf ihre dreidimensionalen Endpunkte (X1, Y1, Z1) und (X2, Y2, Z2) in einem kartesischen Koordinatesystem identifiziert. Wie bei dem digitalen Referenzbild werden kleinere Linienabschnitte zu größeren Linienabschnitten verschmolzen, 148. Bereiche im LADAR-Bild, welche vom Augenpunkt nicht sichtbar sein werden, aus welchem das Aufklärungsreferenzbild festgelegt wurde, werden bestimmt, 150.
  • Wenn die erfassten Daten des LADAR-Bildes abgeglichen worden sind, um Daten zu eliminieren, die von einem Augenpunkt des Referenzbildes nicht sichtbar sind, werden die Linienabschnitte des erfassten LADAR-Bildes transformiert unter Verwendung der Liniensegmentendpunkte in die Aufklärungsbildkoordinaten, 152. Zur Vereinfachung dieses Arbeitsablaufs werden Bilder, die für den Augenpunkt der Aufklärungskamera verdeckt sind, nicht transformiert, weil diese Oberflächen keine Informationen zur Verfügung stellen würden, die nützlich wären für den Bildabgleich und die Genauigkeit des Abgleichs verringern könnten.
  • Die transformierten dreidimensionalen LADAR-Bild-Linienabschnitte werden dann auf eine Aufklärungs- oder Referenzbildebene als zweidimensionales Bild 154 projiziert. Linienabschnitte des gespeicherten Referenzbildes werden dann mit Linienabschnitten verglichen, die durch das transformierte LADAR-Bild festgelegt werden, 156.
  • Durch einen iterativen Prozess wird eine optimale Ausrichtung von Referenzbild-Linienabschnitten mit erfassten Bildlinienabschnitten erreicht werden, 158. Wenn diese Ausrichtung erzielt wurde, werden Fehlerverschiebungen in Bezug auf den Zielpunkt (oder in Bezug auf den versetzten Zielpunkt) bestimmt, 160. Die Fehlerverschiebungen, welche, wie oben erwähnt, alle Informationen in drei Achsen sowie eine Winkelrate und einen Winkelfehler enthalten werden, werden dann verwendet um Fehlersignale zu berechnen, um Lenkbefehle abzugeben, die durch den Raketen-Autopiloten zur Steuerung von Leitfunktionen verwendbar sind, 162. Die obigen Bilderkennungs- und -transformationsschritte werden wiederholt, 164, um ständig die Raketenleitung zu steuern, bis zum Aufschlag auf dem Ziel.
  • Die vorliegende Erfindung wurde mit Bezug auf die Durchführung mit einem zweidimensionalen Referenzbild beschrieben, wie z.B. einem, das teilweise unter Verwendung eines Fotos gebildet wurde. Ein anderes Bild jedoch, welches in Übereinstimmung mit der vorliegenden Erfindung verwendet werden könnte, würde das Bild eines synthetischen Apertur-Radars (SAR) sein. SAR-Sensoren erhalten typischerweise eine im Wesentlichen zweidimensionale Draufsicht eines erfassten Bereiches. SAR-Sensoren werden Schattendaten offenbaren, was Referenzdaten in Bezug auf die Höhe eines gegebenen Objektes zur Verfügung stellt. Weil LADAR ein dreidimensionales Bild erfasst, kann Koordinatentransformation eines LADAR-erfassten Bildes einer gegebenen Szene ebenfalls eine Draufsicht eines gegebenen Bereichs erzielen. Auf eine Weise, die im Allgemeinen analog ist zur Vorhersage von Sonnenschatten, kann SAR-Schattenbildung vorhergesagt werden aus dem Wissen über den Augenpunkt des SAR-Sensors. Dem gemäß können SAR-Daten nicht nur verwendet werden, um Kantenkarten zur Verwendung in LADAR-Korrelation zu bestimmen, sondern ebenso um Schattenbereiche festzulegen, die ebenso durch die beschriebenen LADAR-Bildgebungstechniken vorhergesagt werden können.
  • Anhang A
    Figure 00160001
  • Figure 00170001
  • Figure 00180001
  • Figure 00190001
  • Figure 00200001
  • Figure 00210001
  • Figure 00220001
  • Figure 00230001
  • Figure 00240001
  • Figure 00250001
  • Figure 00260001
  • Figure 00270001
  • Figure 00280001
  • Figure 00290001
  • Figure 00300001
  • Figure 00310001
  • Figure 00320001
  • Figure 00330001
  • Figure 00340001
  • Figure 00350001
  • Figure 00360001
  • Figure 00370001
  • Figure 00380001
  • Figure 00390001
  • Figure 00400001
  • Figure 00410001
  • Figure 00420001
  • Figure 00430001
  • Figure 00440001
  • Figure 00450001
  • Figure 00460001
  • Figure 00470001
  • Figure 00480001
  • Figure 00490001
  • Figure 00500001
  • Figure 00510001
  • Figure 00520001
  • Figure 00530001
  • Figure 00540001
  • Figure 00550001
  • Figure 00560001
  • Figure 00570001
  • Figure 00580001
  • Figure 00590001
  • Figure 00600001
  • Figure 00610001
  • Figure 00620001
  • Figure 00630001
  • Figure 00640001
  • Figure 00650001
  • Figure 00660001
  • Figure 00670001
  • Figure 00680001
  • Figure 00690001
  • Figure 00700001
  • Figure 00710001
  • Figure 00720001
  • Figure 00730001
  • Figure 00740001
  • Figure 00750001
  • Figure 00760001
  • Figure 00770001
  • Figure 00780001
  • Figure 00790001
  • Figure 00800001
  • Figure 00810001
  • Figure 00820001
  • Figure 00830001
  • Figure 00840001
  • Figure 00850001
  • Figure 00860001
  • Figure 00870001
  • Figure 00880001
  • Figure 00890001

Claims (34)

  1. Verfahren zum Erkennen eines selektierten physischen Objekts (70) durch dreidimensionale Bildabtastung, welches die Schritte aufweist: Erstellen (100) eines zweidimensionalen Bilds (88) des Objekts, wobei das zweidimensionale Bild (88) von einem ersten Augenpunkt (72) erstellt wird; Ansteuern (136) eines Sensors, um ein dreidimensionales Bild (84, 86) des Objekts zu Erstellen, wobei der Sensor einen zweiten Augenpunkt (80) definiert, von welchem das dreidimensionale Bild (84, 86) abgetastet wird, gekennzeichnet durch Transformieren (152, 154) des dreidimensionalen Bilds (84, 86), um ein transformiertes Bild (90) des Objekts so zu bilden, wie abgetastete Teile des Objekts von dem ersten Augenpunkt (72) gesehen würden; und Anpassen (156, 158) des transformierten Bilds (90) an das zweidimensionale Bild (88), um das Objekt zu identifizieren.
  2. Verfahren nach Anspruch 1, worin das zweidimensionale Bild (88) wenigstens teilweise gebildet ist von einer digitalisierten Fotografie (34) des Objekts.
  3. Verfahren nach Anspruch 1, worin der Sensor einen Festkörper-LADAR-Sensor aufweist.
  4. Verfahren nach Anspruch 1, worin der Sensor in einem Gehäuse angebracht ist, welches sich im Allgemeinen in Richtung des Objekts bewegt, und worin der Schritt des Transformierens des dreidimensionalen Bilds wiederholt durchgeführt wird.
  5. Verfahren nach Anspruch 1, worin der Schritt des Transformierens des dreidimensionalen Bilds ein Einstellen des Maßstabs des abgetasteten Bilds aufweist.
  6. Verfahren nach Anspruch 1, worin das Objekt ein zu erkennendes Ziel aufweist, zur Verwendung mit luftversandten Waffen, und worin der Sensor einen LADAR-Sensor aufweist.
  7. Verfahren nach Anspruch 6, worin der Schritt des Erkennens (100) eines zweidimensionalen Bilds (88) des Ziels die Schritte aufweist: Erstellen einer Fotografie (34) des Ziels; und Digitalisieren der Fotografie (34).
  8. Verfahren nach Anspruch 6, worin das erstellte dreidimensionale Bild (84, 86) die Verwendung des LADAR-Sensors aufweist, um eine dreidimensionale Kantendarstellung des Ziels für sowohl Entfernungs- als auch Intensitätskanten zu definieren.
  9. Verfahren nach Anspruch 6, worin der Schritt des Erstellens eines dreidimensionalen Bilds (84, 86) den Schritt der Nutzung des LADAR-Sensor aufweist, um dreidimensionale Intensitätsdaten von Oberflächen des Ziels zu Erstellen.
  10. Verfahren nach Anspruch 6, worin der Schritt des Transformierens des dreidimensionalen, abgetasteten Bilds (84, 86) um ein transformiertes Bild (90) zu bilden, die Skalierung des abgetasteten dreidimensionalen Bilds (84, 86) aufweist.
  11. Verfahren nach Anspruch 1, worin das Objekt ein Ziel aufweist, welches zu identifizieren ist zur Verwendung zur Durchführung der Führung einer luft-versandten Waffe, und worin das zweidimensionale Bild (88) eine digitale Darstellung des Ziels aufweist, worin der Sensor einen LADAR-Sensor in der Waffe aufweist, und das Verfahren ferner den Schritt aufweist: Generieren eines Fehlersignals, wobei das Fehlersignal an das Führungssystem der Waffe kommuniziert wird zum Steuern des Kurses der Waffe.
  12. Verfahren nach Anspruch 11, worin das erstellte Referenzbild (88) ein zweidimensionales Bild ist.
  13. Verfahren nach Anspruch 11, worin der LADAR-Sensor ein dreidimensionales Bild erstellt einschließlich Kantengrenzen des abgetasteten Bereichs.
  14. Verfahren nach Anspruch 11, worin das generierte Fehlersignal Kursabweichungsdarstellungen relativ zu X-, Y- und Z-Achsen in einem kartesischen Koordinatensystem aufweist.
  15. Verfahren nach Anspruch 11, worin das generierte Fehlersignal Daten enthält, welche einen Winkelfehler darstellen.
  16. Verfahren nach Anspruch 11, worin das generierte Fehlersignal Daten enthält, welche eine Winkelrate darstellen.
  17. Verfahren nach Anspruch 1, worin Intensitätsbilder (86) als dreidimensionale Oberflächen durch Verwendung eines Bereichsbilds (84) interpretiert werden.
  18. System zum Erkennen eines ausgewählten physischen Objekts (70) durch dreidimensionale Bildabtastung, welches aufweist: Mittel zum Erstellen, von einem ersten Augenpunkt (72), eines zweidimensionalen Bildes (88) des Objekts; Mittel zum Ansteuern eines Sensors, um, von einem Augenpunkt (80), ein dreidimensionales Bild (84, 86) des Objekts zu Erstellen, gekennzeichnet durch Mittel (26) zum Transformieren des dreidimensionalen Bilds (84, 86), um ein transformiertes Bild (90) des Objekts so zu bilden, wie abgetastete Teile des Objekts von dem ersten Augenpunkt (72) gesehen würden; und Mittel (32) zum Übereinstimmen (156, 158) des transformierten Bilds (90) zu dem zweidimensionale Bild (88) zum Identifizieren des Objekts.
  19. System nach Anspruch 18, worin das zweidimensionale Bild (88) wenigstens teilweise gebildet von einer digitalisierten Fotografie (34) des Objekts.
  20. System nach Anspruch 18, worin der Sensor einen Festkörper-LADAR-Sensor aufweist.
  21. System nach Anspruch 1, worin der Sensor in einem Gehäuse angebracht ist, welches sich im Allgemeinen in Richtung des Objekts bewegt, und worin die Mittel zum Transformieren des dreidimensionalen Bilds wiederholt verwendet werden.
  22. System nach Anspruch 18, worin die Mittel zum Transformieren des dreidimensionalen Bilds Mittel aufweisen zum Einstellen des Maßstabs des abgetasteten Bilds.
  23. System nach Anspruch 18, worin das Objekt ein Ziel aufweist, welches zu identifizieren ist zur Verwendung mit luftversandten Waffen, und worin der Sensor einen LADAR-Sensor aufweist.
  24. System nach Anspruch 23, worin das Mittel zum Erstellen (100) eines zweidimensionalen Bilds (88) des Ziels Mittel aufweist zum: Erstellen einer Fotografie (34) des Ziels; und Digitalisieren der Fotografie (34).
  25. System nach Anspruch 23, worin das erstellte dreidimensionale Bild (84, 86) die Verwendung des LADAR-Sensor aufweist, um eine dreidimensionale Kantendarstellung des Ziels für sowohl Entfernungs- als auch Intensitätskanten zu definieren.
  26. System nach Anspruch 23, worin das Mittel zum Erstellen eines dreidimensionalen Bilds (84, 86) ein Mittel aufweist zur Nutzung des LADAR-Sensors, um dreidimensionale Intensitätsdaten von Oberflächen des Ziels zu Erstellen.
  27. System nach Anspruch 26, worin das Mittel zum Transformieren des dreidimensionalen, abgetasteten Bilds (84, 86), um ein transformiertes Bild (90) zu bilden, Mittel aufweist zum Skalieren des abgetasteten dreidimensionalen Bilds (84, 86).
  28. System nach Anspruch 18, worin das Objekt ein Ziel aufweist, welches zu identifizieren ist zur Verwendung zur Durchführung der Führung einer luftversandten Waffe, und worin das zweidimensionale Bild (88) eine digitale Darstellung des Ziels aufweist, worin der Sensor einen LADAR-Sensor in der Waffe aufweist, und das System ferner Mittel aufweist zum Generieren eines Fehlersignals, wobei das Fehlersignal an das Führungssystem der Waffe kommuniziert wird, um den Kurs der Waffe zu steuern.
  29. System nach Anspruch 28, worin das erstellte Referenzbild (88) ein zweidimensionales Bild ist.
  30. System nach Anspruch 28, worin der LADAR-Sensor ein dreidimensionales Bild erstellt einschließlich Kantengrenzen des abgetasteten Bereichs.
  31. System nach Anspruch 28, worin das generierte Fehlersignal eine Kursabweichungsdarstellung relativ zu X-, Y- und Z-Achsen in einem kartesischen Koordinatensystem aufweist.
  32. System nach Anspruch 28, worin das generierte Fehlersignal Daten enthält, welche einen Winkelfehler repräsentieren.
  33. System nach Anspruch 28, worin das generierte Fehlersignal Daten enthält, welche eine Winkelrate repräsentieren.
  34. System nach Anspruch 18, worin Intensitätsbilder (86) interpretiert werden als dreidimensionale Oberflächen durch Verwenden eines Entfernungsbilds (84).
DE69333693T 1992-07-13 1993-07-13 Leit- und Zielführungssystem Expired - Fee Related DE69333693T2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US912914 1992-07-13
US07/912,914 US5275354A (en) 1992-07-13 1992-07-13 Guidance and targeting system

Publications (2)

Publication Number Publication Date
DE69333693D1 DE69333693D1 (de) 2004-12-23
DE69333693T2 true DE69333693T2 (de) 2006-01-05

Family

ID=25432690

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69333693T Expired - Fee Related DE69333693T2 (de) 1992-07-13 1993-07-13 Leit- und Zielführungssystem

Country Status (5)

Country Link
US (1) US5275354A (de)
EP (1) EP0579187B1 (de)
JP (1) JP3345113B2 (de)
AT (1) ATE282835T1 (de)
DE (1) DE69333693T2 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102007018187A1 (de) * 2007-04-18 2008-10-30 Lfk-Lenkflugkörpersysteme Gmbh Verfahren zur Optimierung der bildgestützten automatischen Navigation eines unbemannten Flugkörpers
DE102022000723A1 (de) 2022-03-01 2023-09-07 Diehl Defence Gmbh & Co. Kg Vorrichtung zur Zielübergabe

Families Citing this family (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5424823A (en) * 1993-08-17 1995-06-13 Loral Vought Systems Corporation System for identifying flat orthogonal objects using reflected energy signals
DE4401315B4 (de) * 1994-01-19 2006-03-09 Oerlikon Contraves Gmbh Vorrichtung zur Flugbahnkorrektur
US5644386A (en) * 1995-01-11 1997-07-01 Loral Vought Systems Corp. Visual recognition system for LADAR sensors
DE19524693A1 (de) * 1995-07-06 1997-01-09 Deutsch Franz Forsch Inst Optische Detektiervorrichtung
WO1997016926A1 (en) * 1995-10-31 1997-05-09 Sarnoff Corporation Method and apparatus for determining ambient conditions from an image sequence
US5937078A (en) * 1996-04-10 1999-08-10 The United States Of America As Represented By The Secretary Of The Navy Target detection method from partial image of target
US6084989A (en) * 1996-11-15 2000-07-04 Lockheed Martin Corporation System and method for automatically determining the position of landmarks in digitized images derived from a satellite-based imaging system
US5881969A (en) 1996-12-17 1999-03-16 Raytheon Ti Systems, Inc. Lock-on-after launch missile guidance system using three dimensional scene reconstruction
US7856750B2 (en) 1997-12-08 2010-12-28 Horus Vision Llc Apparatus and method for calculating aiming point information
JP2000194726A (ja) * 1998-10-19 2000-07-14 Sony Corp 情報処理装置及び方法、情報処理システム並びに提供媒体
US6163372A (en) * 1999-02-09 2000-12-19 Marconi Aerospace Defense Systems Inc. Fiber optic laser detection and ranging system
DE19939935A1 (de) * 1999-08-23 2001-03-01 Bodenseewerk Geraetetech Verfahren zur Bestimmung der Relativbewegung zwischen Flugkörper und Ziel
US6507392B1 (en) 2001-04-16 2003-01-14 Bae Systems Information And Electronic Systems Integration Inc. Single multiple aperture (“SMART”) lens system
US20040247157A1 (en) * 2001-06-15 2004-12-09 Ulrich Lages Method for preparing image information
JP2004530144A (ja) * 2001-06-15 2004-09-30 イーベーエーオー アウトモビール センサー ゲーエムベーハー 画像情報を提供する方法
US7508946B2 (en) 2001-06-27 2009-03-24 Sony Corporation Integrated circuit device, information processing apparatus, memory management method for information storage device, mobile terminal apparatus, semiconductor integrated circuit device, and communication method using mobile terminal apparatus
US6943873B2 (en) * 2001-07-17 2005-09-13 Bae Systems Integrated Defense Solutions Inc. Fiber optical laser detection and ranging system
WO2003025842A1 (en) * 2001-09-19 2003-03-27 Barry George Blundell An image recognition method and system
GB0503212D0 (en) * 2005-02-15 2005-11-23 Ultra Electronics Ltd Improvements relating to target direction indication and acoustic pulse analysis
WO2006137071A2 (en) 2005-06-23 2006-12-28 Israel Aerospace Industries Ltd. A system and method for tracking moving objects
US20090297049A1 (en) * 2005-07-07 2009-12-03 Rafael Advanced Defense Systems Ltd. Detection of partially occluded targets in ladar images
US7315485B1 (en) * 2005-12-20 2008-01-01 United States Of America As Represented By The Secretary Of The Navy System and method for target classification and clutter rejection in low-resolution imagery
GB0616688D0 (en) * 2006-08-23 2006-10-04 Qinetiq Ltd Target orientation
US7831098B2 (en) * 2006-11-07 2010-11-09 Recognition Robotics System and method for visual searching of objects using lines
US8103056B2 (en) 2008-10-15 2012-01-24 Honeywell International Inc. Method for target geo-referencing using video analytics
US8353454B2 (en) 2009-05-15 2013-01-15 Horus Vision, Llc Apparatus and method for calculating aiming point information
US8768068B2 (en) * 2011-05-04 2014-07-01 Raytheon Company Automated building detecting
US8872852B2 (en) 2011-06-30 2014-10-28 International Business Machines Corporation Positional context determination with multi marker confidence ranking
WO2013106280A1 (en) * 2012-01-10 2013-07-18 Horus Vision Llc Apparatus and method for calculating aiming point information
IL219639A (en) 2012-05-08 2016-04-21 Israel Aerospace Ind Ltd Remote object tracking
US9500444B2 (en) 2013-01-11 2016-11-22 Hvrt. Corp. Apparatus and method for calculating aiming point information
US10212396B2 (en) 2013-01-15 2019-02-19 Israel Aerospace Industries Ltd Remote tracking of objects
IL224273B (en) 2013-01-17 2018-05-31 Cohen Yossi Delay compensation during remote sensor control
JP6089812B2 (ja) * 2013-03-12 2017-03-08 三菱電機株式会社 誘導装置
US10240900B2 (en) * 2016-02-04 2019-03-26 Raytheon Company Systems and methods for acquiring and launching and guiding missiles to multiple targets
AU2019388605A1 (en) 2018-09-04 2021-02-18 Hvrt Corp. Reticles, methods of use and manufacture
CN110503679A (zh) * 2019-08-29 2019-11-26 四川轻化工大学 一种红外基准图制备与评价方法
KR102564734B1 (ko) * 2021-07-26 2023-08-08 엘아이지넥스원 주식회사 레이저를 이용한 유도 무기 무력화 시스템 및 유도 무기 무력화 방법

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3459392A (en) * 1959-09-24 1969-08-05 Goodyear Aerospace Corp Passive homing guidance system
GB1568058A (en) * 1975-11-21 1980-05-21 Emi Ltd Tracking and/or huidance systems
US4383663A (en) * 1976-06-01 1983-05-17 The United States Of America As Represented By The Secretary Of The Navy Active optical terminal homing
GB2148465B (en) * 1983-10-20 1987-05-28 Nader Dadabhoy Daroga Missile control systems
GB2164427B (en) * 1984-09-10 1988-01-06 Nader Dadabhoy Daroga Missile control systems
CH675638A5 (en) * 1987-09-11 1990-10-15 Contraves Ag Opto-electronic aircraft identification system - uses comparison of actual two=dimensional image of aircraft with projection of aircraft model
DE4007712A1 (de) * 1990-03-10 1991-09-12 Tzn Forschung & Entwicklung Geschoss mit einem bugseitig angeordneten ir-suchsystem

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102007018187A1 (de) * 2007-04-18 2008-10-30 Lfk-Lenkflugkörpersysteme Gmbh Verfahren zur Optimierung der bildgestützten automatischen Navigation eines unbemannten Flugkörpers
DE102007018187B4 (de) * 2007-04-18 2013-03-28 Lfk-Lenkflugkörpersysteme Gmbh Verfahren zur Optimierung der bildgestützten automatischen Navigation eines unbemannten Flugkörpers
DE102022000723A1 (de) 2022-03-01 2023-09-07 Diehl Defence Gmbh & Co. Kg Vorrichtung zur Zielübergabe

Also Published As

Publication number Publication date
EP0579187B1 (de) 2004-11-17
DE69333693D1 (de) 2004-12-23
ATE282835T1 (de) 2004-12-15
EP0579187A2 (de) 1994-01-19
EP0579187A3 (en) 1995-11-08
JP3345113B2 (ja) 2002-11-18
JPH06265620A (ja) 1994-09-22
US5275354A (en) 1994-01-04

Similar Documents

Publication Publication Date Title
DE69333693T2 (de) Leit- und Zielführungssystem
DE60313319T2 (de) Luftaufklärungssystem
EP3017275B1 (de) Positionsbestimmungsverfahren für ein vermessungsgerät und ein ebensolches vermessungsgerät
EP2916106B1 (de) Verfahren zur Positions- und Lagebestimmung mittels virtueller Referenzbilder
EP2381208B1 (de) Verfahren zur Bestimmung von Positionsdaten eines Zielobjekts in einem Referenzsystem
DE3937427A1 (de) Bildverarbeitungsgeraet
Raczynski Accuracy analysis of products obtained from UAV-borne photogrammetry influenced by various flight parameters
DE102007054950B4 (de) Verfahren zur Stützung der selbsttätigen Navigation eines niedrig fliegenden Flugkörpers
DE4320485B4 (de) Verfahren zur Objektvermessung mittels intelligenter Entfernungsbildkamera
EP0429952A2 (de) Autonomes Landesystem
WO2018099949A1 (de) Verfahren und vorrichtung zur georeferenzierung von luftbilddaten mit hilfe von sar-bilddaten
DE69730733T2 (de) Flugkörperlenkungssystem mit verriegelung nach abschuss und rekonstruktion von dreidimensionalen szenen
DE102006039104A1 (de) Verfahren zur Entfernungsmessung von Objekten auf von Bilddaten eines Monokamerasystems
EP2409174B1 (de) Verfahren und einrichtung zum ermitteln von aspektwinkelverläufen
EP3584536B1 (de) Terrestrisches beobachtungsgerät mit lagebestimmungsfunktionalität
AT511460B1 (de) Verfahren zur bestimmung der position eines luftfahrzeugs
DE4416557A1 (de) Verfahren und Vorrichtung zur Stützung der Trägheitsnavigation eines ein entferntes Ziel autonom ansteuernden Flugkörpers
EP0396861B1 (de) Verfahren zur Navigation
DE102007018187B4 (de) Verfahren zur Optimierung der bildgestützten automatischen Navigation eines unbemannten Flugkörpers
DE69730278T2 (de) Passive Entfernungsabschätzung unter Verwendung von Bildgrösseabmessungen
EP4020373B1 (de) Verfahren zum ermitteln eines 3d-modells einer umgebung
DE102014000436A1 (de) Verfahren zur Bestimmung der Positionsdaten eines Zielobjekts in einem Referenzsystem und Verfahren zur Führung eines vorzugsweise als Flugkörper ausgebildeten Luftfahrzeugs
DE19654924A1 (de) Verfahren zur Waffenlenkung durch Zielzustandsabschätzung
Parfiryev et al. Method and algorithm for determining the geographic coordinates of ground objects from an unmanned aerial vehicle
EP3882569A1 (de) Verfahren zur ermittlung eines zielobjekts, elektro-optisches sensorsystem, verfahren zur navigation eines lenkflugkörpers und lenkflugkörper

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8339 Ceased/non-payment of the annual fee