-
Die
vorliegende Erfindung bezieht sich im Allgemeinen auf ein Führungs-
und Zielsystem, das mit lufttransportierten Waffen, z.B. Raketen
oder Gleitbomben usw. benutzt werden kann; und im Einzelnen bezieht sie
sich auf ein Führungs- und Zielsystem,
das Bildverarbeitungssensoren in solchen Waffen verwendet, um Ziele
zu identifizieren, und das verwendet werden soll, um die Waffe auf
das Ziel zu lenken.
-
Viele
gebräuchliche
Waffenführungs-
und Zielerfassungssysteme werden verwendet, um spezielle Ziele zu
erfassen und die Rakete oder eine andere Waffe auf das speziell
identifizierte Ziel zu lenken. Diese gewöhnlichen Systeme benutzen einige
Arten von Bildverarbeitungssensoren, wie z.B. passive Infrarot-, MMW-,
TVO-, SAR- oder CO2-Laserradar(LADAR)-Sensoren.
Für jedes
dieser herkömmlichen
Systeme ist es notwendig, dass für
irgendein spezielles Ziel eine Zielreferenz vorbereitet werden muss.
Herkömmliche
Zielreferenzvorbereitung erfordert es typischerweise, ein dreidimensionales
Bild oder Modell des Ziels zu erzeugen und kann es weiter erforderlich
machen, dass die Materialien für
Objekte oder Oberflächen
auf dem dreidimensionalen Referenzbild dargestellt werden müssen. Dieses
Zielreferenzbild wird dann an Bord der Rakete geladen, um eine Referenz
im Vergleich mit Daten, die durch den Bildverarbeitungssensor aufgenommen
werden, zur Verfügung
zu stellen.
-
Wie
leicht gewürdigt
werden kann, kann die Schwierigkeit, diese Zielreferenz vorzubereiten,
den Arbeitsablauf häufig
sehr zeitaufwändig
gestalten, was möglicherweise
Tage oder Stunden der Vorbereitung in Anspruch nehmen kann. In vielen
taktischen Szenarien kann diese Vorbereitungszeit und entsprechend
langsame Reaktionszeit auf sich ändernde
Situationen ein ernsthaftes taktisches oder strate gisches Problem
darstellen. Ein weiteres Problem, das sich aus der obigen Diskussion
ergibt, ist, dass die Aufklärung
nicht nur ausreichende visuelle Daten erhalten muss, um die Erzeugung
des Referenzmodells zu erleichtern, sondern auch Informationen zur
Verfügung
stellen muss, die Materialien und Stereopair-Information betrifft,
um die dreidimensionale Modellierung zu erleichtern. Anderenfalls
würde das
Modell Fehler enthalten und die Führung ungenau machen.
-
Wenn
einmal das dreidimensionale Modell auf Basis der Aufklärungsdaten
erzeugt ist, dann müssen aufwändige Modellierungen
angewendet werden, um IR, MMW und/oder SAR-Signaturen vorherzusagen,
um das Zielreferenzmodell bereitzustellen, das während des Angriffs verwendet
werden soll. Wenn das dreidimensionale Referenzmodell festgelegt
ist und die Angriffsgeometrie dafür ausgewählt ist, dann wird eine Zielreferenzdatei
erzeugt, um in die Waffe geladen zu werden. Diese Zielreferenzdatei
ist häufig
eine Kantenkarte, die nach Kantensignaturen modelliert wurde, welche
vorhergesagt werden, um von dem speziellen Bildverarbeitungssensor
der Rakete gesehen zu werden. Während
eines Angriffs wird die Zielreferenzdatei mit dem aufgespürten Bild
verglichen, um zu bestimmen wann das Ziel geortet wurde und Führungsinformationen
für das Raketenlenksystem
bereitzustellen.
-
Wie
oben bemerkt, besteht ein ernsthaftes Problem mit herkömmlichen
Systemen in der Benötigung eines
dreidimensionalen Zielreferenzmodells, das vorbereitet werden muss,
um eine Zielreferenzdatei zur Benutzung in der Rakete festzulegen.
Zusätzlich
ist die Komplexität
der Modellierung beträchtlich,
welche die Vorhersage von Signaturen basierend auf den Aufklärungsdaten
beinhaltet, welche durch den einbezogenen Sensor erkannt werden
würden.
Zusätzlich
waren herkömmliche
Systeme typischerweise relativ darauf beschränkt, aus der Blickrichtung
des Aufklärungssensors
anzugreifen, was die taktischen Möglichkeiten ernsthaft eingeschränkt hat.
Die Konferenzaufzeichnungen der 23. Asilomar Conference on Signal
Systems and Computers Vol. 1 vom 13. Oktober 1998. Pacific Grove
CA, USA, herausgegeben von der Computer Society of the IEEE; ISBN
0-929029-30- 1, S.
395 bis 398 von Paul. K. Williams: "Target infrared signature using automatic
model based laser radar alignment" beschreibt eine Technik zur Verwendung
einer 3D-Computer-Modellbasis von Fahrzeugen in Zusammenarbeit mit
Laserradar (LADAR) Reichweiten, Bildverarbeitung, um die 3D-Modelle
mit der erfassten Infrarot-Bildverarbeitung auszurichten.
-
Das
Schweizer Patent CH-A-675 638 beschriebt eine Technik zur Verwendung
mathematischer Modelle, um die Form von Flugzeugen zu beschreiben
und Projektionen dieser Modelle auf eine Ebene zu berechnen.
-
Demgemäß stellt
die vorliegende Erfindung ein neues Verfahren und eine neue Einrichtung
zur Führung
und Zielausrichtung einer Waffe bereit, wo ein dreidimensionaler
Bildverarbeitungssensor verwendet werden kann, um Zielerkennung
bereitzustellen ohne die Notwendigkeit der Vorbereitung von dreidimensionalen Modellen,
wobei die Missionsplanung und vorbereitende Arbeitsabläufe optimiert
und vereinfacht werden. Die vorliegende Erfindung stellt ein Verfahren
und eine Einrichtung zur Erkennung eines ausgewählten physischen Objektes zur
Verfügung,
wie z.B., eines potentiellen Zieles durch dreidimensionale Bilderfassung.
Das Verfahren und die Einrichtung sind besonders geeignet, mit lufttransportierten
Waffen, wie z.B. Raketen, Gleitbomben, etc. verwendet zu werden.
Wenn einmal ein physisches Objekt erkannt worden ist, kann es als
Ziel identifiziert werden und die resultierende Zielidentifikation
kann dazu verwendet werden, die Lenkung der Waffe in Richtung des
Zieles auszulösen
oder zu steuern.
-
In
einer bevorzugten Ausführungsform
werden Oberflächen
des Objekts relativ zu einem allgemeinen zweidimensionalen Referenzbild
des Objekts erkannt, wie es von einem gegebenen Betrachtungspunkt
oder "Blickpunkt" gesehen wird. Das
Referenzbild in einem speziell bevorzugten Ausführungsbeispiel wird im Wesentlichen
von einer Fotografie erhalten. Es können jedoch auch andere bildgebende
Verfahren wie Synthetisches Apertur-Radar (SAR) verwendet werden,
um das Referenzbild zur Verfügung
zu stellen.
-
Der
Sensor, der von einer Rakete oder anderen Waffe getragen wird, wird
verwendet um ein dreidimensionales Bild eines Objekts oder Ziels
bereitzustellen, wenn sich die Waffe dem Ziel nähert. Die Position des Sensors
wird einen zweiten Augenpunkt relativ zum Objekt vorgeben. In einer
speziellen bevorzugten Ausgestaltung wird Halbleiter-LADAR als Waffen-Sensormechanismus
verwendet.
-
Um
die Objekterkennung zu erleichtern, wird das erfasste dreidimensionale
Bild umgeformt, um ein umgeformtes Bild des Objekts zu bilden, als
würden
die erfassten Abschnitte des Objekts von einem Augenpunkt gesehen,
von dem das zweidimensionale Referenzbild erhalten wurde. Diese
Umformung stellt Bilder bereit, die mit dem Referenzbild korreliert
werden können,
indem ähnliche
Eigenschaften oder Merkmale korreliert werden. In einem speziellen
bevorzugten Ausführungsbeispiel
werden die Bilder durch Kantenabgleichstechnologien korreliert,
wobei sowohl das Referenzbild, als auch das transformierte Bild
Linien aufweisen, die digital durch ihre Endpunkte vorgegeben werden.
In anderen Ausführungsformen
können
Ebenen oder andere vorgegebene Oberflächen oder Intensitätsdaten
verwendet werden, um zwischen dem Referenzbild und dem transformierten
Bild zu korrelieren.
-
Sobald
ein transformiertes Bild und ein Referenzbild genügend abgeglichen
sind, um das Ziel zu identifizieren, oder einen besonderen speziellen
Zielpunkt (oder Datenkoordinatenpunkt) auf dem Ziel zu identifizieren,
kann ein Fehlersignal erzeugt werden und dem Lenkungssystem der
Waffe übermittelt
werden, um den Kurs der Waffe zu steuern. In einem speziellen bevorzugten
Ausführungsbeispiel
wird dieses Fehlersignal nicht nur den Aufenthaltsort in Begriffen
der X-, Y-, Z-Koordinaten
enthalten, sondern auch einen Winkelfehler und Winkelratenfehlerdaten
beinhalten.
-
1 erklärt schematisch
ein beispielhaftes Verfahren zur Zielerkennung in Übereinstimmung
mit der vorliegenden Erfindung.
-
2 beschreibt
ein beispielhaftes Aufklärungsfoto
und ein Zielreferenzbild, das aus einem solchen Aufklärungsfoto
entwickelt werden kann.
-
3 beschriebt
beispielhaft Eingangsmessdaten, die verwendet werden sollen zur
Vorbereitung des Referenzbildes zur aktiven Verarbeitung eines Arbeitsablaufs
in Übereinstimmung
mit der vorliegenden Erfindung.
-
4 beschreibt
schematisch den Umformungsablauf von 1 relativ
zu Aufklärungsdaten,
die von einem ersten Augenpunkt erhalten werden, sowie von einem
Waffensystem, das von einem zweiten Augenpunkt aus operiert.
-
5 stellt
eine beispielhafte Beschreibung von Entfernungs- und Intensitätsdaten
eines möglichen Ziels
bereit und die Umformung der erfassten Daten in ein umgeformtes
Bild relativ zu einem Aufklärungsfoto (ebenso
in 2 veranschaulicht), das verwendet wird, um ein
Referenzbild zu identifizieren.
-
6A, B veranschaulichen ein beispielhaftes Ablaufdiagramm
von Arbeitsschritten, die in die Referenzvorbereitung, die in 1 identifiziert
ist, eingeschlossen sind in Übereinstimmung
mit der vorliegenden Erfindung.
-
7A bis C stellen ein beispielhaftes Ablaufdiagramm
der Verarbeitung von durch LADAR erfassten Bildern relativ zu einem
Zielbereich während
eines hypothetischen Betriebs in Übereinstimmung mit der vorliegenden
Erfindung dar.
-
Am
Ende der Anmeldung befindet sich ein Anhang A, der den Quellcode
enthält,
welcher die Schritte und Betriebsabläufe beschreibt, die im Ablaufdiagramm
von 7A bis C identifiziert werden,
ebenso die Unterbetriebsabläufe
und deren Schritte, sowie zusätzliche
Betriebsabläufe.
-
Von
den hierin beschriebenen und veranschaulichten Techniken wird angenommen,
dass sie für
jedes beliebige Sensorsystem besonders hilfreich sind, indem sie
sowohl Entfernungsbildgebung zur Erleichterung der Bereitstellung
eines Kantenbildes und Intensitätsbildgebung
zur Verfügung
stellen. Jedoch wird das System bevorzugt unter Verwendung eines
Halbleiter-LADAR (SS-LADAR) Sensorsystems betrieben. In einem solchen
Sensorsystem werden Entfernungsdaten durch Messung einer Zeitverzögerung zwischen
gesendeten und empfangenen Laser-Lichtpulsen, die durch den LADAR-Sucher
abgegeben werden, erhalten. Die Pulse werden bevorzugt durch einen
Q-geschalteten Halbleiterlaser bereitgestellt, wie z.B. einen Nd:YLF,
Nd:YAG oder Nd:YVO4-Laser, welcher durch einen externen, entfernt
angeordneten Diodenlaser gepumpt wird, z.B. einen GaAlAs-Diodenlaser.
-
In
einem besonderen, bevorzugten Ausführungsbeispiel pumpt einen
Gallium-Aluminium-Arsenid-Laser
einen Halbleiterlaser, der auf einem kardanisch gelagerten optischen
System angebracht ist und welches die Laserlichtenergie abgibt,
die dazu verwendet wird, um das Ziel zu beleuchten. Der Gallium-Aluminium-Arsenid-Pumplaser
erzeugt ein andauerndes Signal von Wellenlängen, die dazu geeignet sind,
den Halbleiter-Laser in der Kristallabsorptionsbandbreite zu pumpen.
Der Pumplaser, bevorzugt Laser, hat bevorzugt eine Ausgangsleistung
im Bereich von 10–20
Watt, die dazu ausreicht den Halbleiter Laser zu betreiben.
-
In
diesem besonders bevorzugten Ausführungsbeispiel ist der Halbleiterlaser
einer der zuvor identifizierten Arten, welcher betreibbar ist, um
Pulse mit Breiten von 10 oder 20 Nanosekunden zu erzeugen, Spitzenleistungspegel
von ungefähr
10 Kilowatt und Wiederholungsraten von 10 bis 120 kHz. Die entsprechende Durchschnittsleistung
liegt im Bereich von 1 bis 4 Watt. Der bevorzugte Bereich von Wellenlängen der
Ausgangsstrahlung befindet sich im nahen Infrarotbereich, d.h. 1047
oder 1064 Mikron. Ein Lasersystem dieser Art ist in der US Patentanmeldung
07/724,750 im Namen von Lewis G. Minor (einer der Erfinder der vorlie genden
Erfindung) beschrieben und Nicholas J. Krasutski, die am 2. Juli
1991 angemeldet wurde unter dem Titel "Sensorkopf", und die an den Bevollmächtigen
der vorliegenden Erfindung abgetreten wurde. Die Offenbarung der
US-Anmeldung 07/724,750
ist veröffentlicht
im US-Patent Nr. 5,224, 109.
-
Mit
nunmehr genauem Bezug auf die Zeichnungen im Einzelnen, und im Besonderen
auf 1 wird dort schematisch ein Ablaufdiagramm beschrieben,
das im Allgemeinen als 10 bezeichnet ist, eines beispielhaften
Verfahrens zur Zielerkennung in Übereinstimmung
mit der vorliegenden Erfindung. Im Vergleich zu herkömmlichen
Systemen werden die Schritte der Vorbereitung der Referenz, angegeben
durch 12, dramatisch vereinfacht. Ein Zielkennzeichner,
wie z.B. ein einzelnes Foto wird mittels herkömmlicher Aufklärungstechniken
aufgenommen, wie im Allgemeinen durch 14 angegeben. In ähnlicher
Weise werden Messdaten, die durch 16 angegeben sind, ebenso
durch allgemeine Aufklärungstechniken
zusammengestellt. Solche Daten werden dann auf eine Art kompiliert,
die dazu geeignet ist, auf einem Onboard-Digitalcomputer verwendet
zu werden, der die Zielerkennung und die Leitungsverarbeitung handhabt,
wie im Allgemeinen in 18 angegeben. Eine derartige Kompilierung
kann bevorzugt auf einer geeigneten interaktiven Arbeitsstation
durchgeführt
werden. Die Zieldaten werden verwendet, um ein Referenzbild zu bilden,
wie es im einzelnen hierin später
beschrieben wird. Die Verarbeitung in der Waffe wird in Echtzeit
während
des Angriffsablaufs durchgeführt.
-
Die
Zielreferenzdaten werden einen Kantenzielpunkt beinhalten, der durch
einen Bediener festgelegt wird, während die Messdaten solche
Daten enthalten, wie z.B. den Bild-Augenpunkt (d.h. den Punkt; von
dem aus das Referenzfoto aufgenommen wurde). Diese Information wird
auf einer Massenspeicherkassette gehalten, wie z.B. auf einem Datenband,
das geeignet ist in das computerisierte Waffenlenksystem eingelegt
und dort verwendet zu werden.
-
Da
der beschriebene LADAR-Sensor dreidimensionale Daten des Ziels zur
Verfügung
stellt und ebenso Intensitätsdaten
des Ziels zur Verfügung
stellt, können
sowohl die LADAR-erfassten Entfernungs- als auch die Intensitätsdaten
in jede Ansicht im dreidimensionalen kartesischen Koordinatensystem
transformiert werden.
-
Auf
eine für
den Fachmann bekannte Art, wird wo die Rakete eine Navigationsmöglichkeit
durch ein Globales Positionierungssystem (GPS) aufweist, die Lage
der Rakete mit erheblicher Genauigkeit bestimmt werden können, wie
im Bereich innerhalb eines Radius von 1 bis 16 Metern. An einem
vorbestimmten Ort, der im Speziellen als Reaktion auf die Angriffsgeometrie
bestimmt wird, wird das LADAR-Zielerkennungssystem betätigt. Diese
Betätigung
wird an einem Punkt eintreten, wo das Ziel in "Sichtweite" des LADAR-Bildes sein wird. Das LADAR
wird dann eine Karte der erfassten Intensitätsdaten 22 innerhalb
seines Sichtbereiches und von erfassten Entfernungsdaten innerhalb
seines Sichtbereiches erstellen. Basierend auf Eingangsdaten 28, welche
sowohl Zieldaten enthalten, die den Ort des Ziels identifizieren,
als auch Daten relativ zum Referenzbild, der Waffenangriffsgeometrie
und der Zeit, wird das erfasste LADAR-Bild 26 in ein kartesisches
Koordinatensystem überführt, um
das erfasste LADAR-Bild so wiederzugeben, als ob es vom Augenpunkt
gesehen würde,
der zur Bereitstellung der Referenz der Zielaufklärung verwendet
wurde. Diese Koordinatentransformation wird sowohl Vergrößerung und
Rotation und perspektivische Verzerrung des erfassten LADAR-Bildes
beinhalten. Das sich ergebende transformierte LADAR-Bild kann dann durch
Kantenabgleich verglichen werden 30, oder durch Merkmalsabgleich
oder durch direkte Bildkorrelation, bis eine Übereinstimmung erzielt wird 32.
-
Nun
unter Bezugnahme auf 2 ist dort ein Aufklärungsfoto 34 veranschaulicht,
welches in Übereinstimmung
mit Schritt 14 digitalisiert wurde, um ein Zielreferenzbild 36 zu
bilden. Wie auf dem Aufklärungsfoto 34 erkannt
werden kann, wurde ein Zielpunkt 38 auf dem Foto festgelegt.
Der Zielpunkt 38 kann einen Bereich darstellen, der auf
der Oberfläche
eines Zielgebäudes
festgelegt sein kann. Da darüber
hinaus jedoch das SS-LADAR-Bildgebungssystem die Möglichkeit
bietet, drei Dimensionen zu detektieren, kann sich der tatsächliche
Zielpunkt an einem versetzten Zielpunktort, wie beispielsweise innerhalb
eines Gebäudes
befinden. Der Zielpunkt 38 kann relativ zur Zielreferenz
festgelegt werden, z.B. mit Bezug auf eine Reihe und eine Spalte
wie durch 40 angegeben, relativ zum digitalisierten Bild 36.
-
Nun
mit Bezug auf 3 werden dort beispielhafte
Eingabeparameter relativ zu den Zielreferenzbilddaten veranschaulicht.
Solche Referenzdaten werden beispielsweise den Zielpunkt 46 beinhalten,
ausgedrückt
durch Längengrad,
Breitengrad und Höhe
(was in Einheiten von Metern beschrieben werden kann); den Zündbereich 48;
und Zielversatz 50. Wie aus dem Beispiel in 3 ersichtlich
ist, wird der Zielversatz als 10 Fuß tief angegeben, oder entlang
der Z-Achse (vertikale Richtung), relativ zum festgelegten Zielpunkt.
Ebenso werden Daten eingegeben, die das Referenzbild 52 betreffen.
Solche Referenzdaten werden den Augenpunkt 54 beinhalten,
von welchem das Aufklärungsfoto
aufgenommen wurde, wiederum ausgedrückt in Begriffen der Längengrade,
Breitengrade und der Höhe;
das Vorhandensein irgendwelcher Schatten 56 kann in einigen
Ausführungsformen
eingegeben werden; die Tageszeit 58, ausgedrückt in Greenwich
Mean Time; und das Datum 60. Falls der Augenpunkt und das
Kameramodell nicht zur Verfügung
stehen, können
sie durch fünf
oder mehrere Kontrollpunkte angenähert werden, welche markante
Merkmale des Bildes bezeichnen.
-
Nun
mit Bezugnahme auf 4 ist dort schematisch eine
beispielhafte Darstellung der Transformation eines Bildes zwischen
Augenpunkten veranschaulicht. Das Ziel 70 wird relativ
zur Perspektive, aus welcher das Aufklärungsbild aufgenommen wurde
(z.B. vom Augenpunkt 72) dargestellt. Dieser Augenpunkt
ist, wie zuvor erörtert,
in Begriffen des Längengrades,
Breitengrades und der Höhe
dargestellt, um den Punkt im Raum relativ zu einem kartesischen
Koordinatensystem zu platzieren. Deshalb ist das Referenzfoto aus
dem Beispiel in 4 entlang der Achse 74 aufgenommen.
Ein Zielpunkt 76 wird auf dem Ziel 70 festgelegt,
wie in Bezug auf 2 erörtert. Wie mit Bezug auf 3 bemerkt
wurde, kann der Zielpunkt präzise
im Raum durch Längengrad,
Breitengrad und Höhe
festgelegt werden.
-
Zu
einer nachfolgenden Zeit (wie beispielsweise während eines Angriffs) gibt
der LADAR-Sensor Bilder vom Ziel 70 von einem anderen Ort
entlang Achse 78 ab. Wiederum, wie zuvor bemerkt wurde,
ist der LADAR-Sensor oder Augenpunkt 80 präzise im
Raum durch Längengrad,
Breitengrad und Höhe
festgelegt. Der Koordinatentransformationsschritt (Element 26 in 1)
beinhaltet die Verschiebung des wirksamen Augenpunktes des detektierten
LADAR-Bildes (detektiert entlang Achse 78), bis es mit
dem Bild, das entlang der Achse 74 detektiert wird, übereinstimmt,
sowie die Skalierung des transformierten Bildes, um die Abweichung zwischen
der Länge
der Achse 74 zwischen Zielpunkt 76 und Augenpunkt 72 und
der Länge
der Achse 78 zwischen Augenpunkt 80 und Zielpunkt 76 auszugleichen.
-
Mit
Bezug auf 5 wird dort ein beispielhaftes
LADAR-Entfernungsbild 84 und ein beispielhaftes LADAR-Intensitätsbild 86 mit
einem beispielhaften Ziel erläutert.
Eine Ausführung
eines beispielhaften Aufklärungsfotos 88 (entsprechend
der Darstellung 34 aus 2) wird
festgelegt. Wie aus einem Vergleich des Aufklärungsfotos 88 relativ
zu den LADAR-Entfernungs- und Intensitätsbildern 84 und 86 jeweils
ersichtlich ist, detektiert das LADAR das Gebäude aus einer Perspektive,
die um 45 Grad in Bezug auf jene des Aufklärungsfotos 88 verdreht
ist. Demgemäß erzielt
die Durchführung
der Computertransformation 28 das transformierte LADAR-Bild,
was einem allgemeinen Augenpunkt relativ zu jenem entspricht, der
für das
Aufklärungsfoto 88 verwendet
wurde (alles wie in Bezug auf 4 erörtert).
Sobald das Bild zur Übereinstimmung 32 gebracht worden
ist, wie z.B. durch Kantenabgleich, dann wird der Abgleichsfehler
bestimmt 92. Dieser Abgleichsfehler kann dazu verwendet
werden, ein Fehlersignal zur Verwendung durch das Waffenleitsystem
zu erzeugen.
-
Nun
mit Bezug auf 6 ist dort ein Ablaufdiagramm
eines Einsatzplanungsabschnitts eines Waffeneinsatzarbeitsablaufs
erörtert,
der den Grundarbeitsablauf der Vorbereitung der Referenz beinhaltet,
allgemein angegeben mit 12 in 1. Wie zuvor
bemerkt, falls das Aufklärungsbild
nicht in digitaler Form vorliegt, sondern in einer anderen Form,
wie beispielsweise einem Foto, dann wird das Aufklärungsbild
digitalisiert 102. Fünf
Bildkontrollpunkte werden eingegeben, 102. Jeder Bildkontrollpunkt
verkörpert
einen gemessenen Punkt, der den Längengrad, Breitengrad und die
Höhe angibt.
Diese fünf
Bildkontrollpunkte werden dann Reihen- und Spaltenorten im Digitalbild 104 zugeordnet.
Nachfolgend wird die Berechnung des Augenpunktes und Kameramodells
aus den fünf
Kontrollpunkten durchgeführt 106,
auf eine Weise die im Stand der Technik bekannt ist. Falls das Kameramodell
und der Augenpunkt schon bekannt sind, werden die Kontrollpunkte
nicht benötigt.
-
Das
digitale Bild wird dann verdreht, um den Fußpunkt und verdeckte Aufklärungsbilder
in Übereinstimmung
zu bringen, 8. Die Bildverdrehung kann ebenso dazu verwendet
werden, die Augenpunktberechnung und das Kameramodell zu verbessern,
wenn sowohl Fußpunkt,
als auch verdeckte Bilder zur Verfügung stehen. Es wird eine Festlegung
durchgeführt, 110,
ob starker Schatten im Aufklärungsbild
vorliegt, wobei der vorhandene Schatten ausreicht, wesentliche Einzelheiten
des Bildes zu verdecken. Falls der Schatten vorliegt, können die
Schattenbereiche per Hand markiert werden, oder Schatten können relativ
zur Sonnenstellung zu dem Zeitpunkt, zu dem das Aufklärungsbild
aufgenommen wurde, bestimmt werden. Wie im Stand der Technik wohl
bekannt ist, kann die Sonnenposition aus der Tageszeit, dem Längengrad
und dem Breitengrad und dem Bereich des Interesses bestimmt werden.
Die Schattenbildung wird unter Verwendung eines Sonnenstellungsmodells
vorhergesagt, wobei die Schatten dann zu nützlichen Abgleichsmerkmalen
werden, anstatt problematische Verzerrungen darzustellen.
-
Ein
Zielpunkt kann auf dem Referenzbild durch Auswahl einer Reihe und
Spalte 114 (wie mit Bezug auf 2 erörtert) festgelegt
werden. Wo der tatsächlich
gewünschte
Zielpunkt auf dem Referenzbild nicht sichtbar ist, kann eine Entscheidung
getroffen werden 116, das Ziel zu versetzen. In einer solchen
Situation werden die Versätze
eingegeben 118 (wie mit Bezug auf 3 erörtert).
Kanten im Referenzbild werden extrahiert 120 durch gewöhnliche
Kantenoperatortechniken, wie z.B. den Sobel-Operator. Wie es im
Stand der Technik bekannt ist, können
Linienabschnitte durch Auffindung von deren Endpunkten in den extrahierten
Kanten gefunden werden, indem gewöhnliche Bildverarbeitungstechniken
verwendet werden. Die Festlegung von Linienendpunkten erleichtert
die Eingabe von speziellen Linie-/Kantenkennzeichnern. Kleinere
Linienabschnitte können
zu größeren Linienabschnitten
verschmolzen werden, 122. Diese Verschmelzung kann dort
angewendet werden, wo kleinere erkennbare Linienabschnitte adäquat als
Abschnitte einer größeren Linie
erkannt werden können,
und wird zu einer Verringerung der Größe der Linienabschnittsdatei
führen
und dadurch die Vereinfachung von späteren Arbeitsabläufen erleichtern.
Schließlich
kann die Datenkassette in die Rakete oder Waffe geladen werden.
-
Nun
mit Bezug auf 7a bis c wird dort ein beispielhaftes
Ablaufdiagramm 130 von Zielerfassungs- und -verfolgungsabläufen erörtert, das
durch den Onboard-Computer
während
des tatsächlichen
Einsatzes ausgeführt
werden kann. Wie zuvor beschrieben, wird der Leitcomputer Träge Maßeinheiten
(IMO) und GPS-Daten
lesen, um die exakte Raketenposition festzulegen und wird die Raketenhöhe bestimmen
(d.h. Rollen, Neigung und Gierung), 132. Wenn die Rakete
an einem vorbestimmten Zielerfassungspunkt 134 ankommt,
wird das LADAR relativ zum projizierten Zielpunkt betrieben, und
Entfernungs- und Intensitätsbilder werden
erfasst, 136. Der projizierte Zielpunkt wird in Bezug auf
den vorbestimmten Angriffsplan der Waffe festgelegt.
-
Die
Entfernungs- und Intensitätspixel
eines Bereichs, der das Ziel enthält, werden dann mit einem trägheitsbezogenen
Bild-Koordinatensystem korreliert werden, um einen festen Bezugsrahmen
zur Zeit der Bilderfassung 138 festzulegen. Die erfassten
Entfernungs- und Intensitätsbilder
werden für
Bewegungs- und Abtasteffekte 140 korreliert, die als Ergebnis
der Raketenbewegung während
der LADAR-Abtastungsperiode
auftreten, indem der Referenzrahmen verwendet wird. Das korrigierte
Bild gibt deswegen das Bild zum bestimmten Zeitpunkt und Ort der
Bilderfassung wieder. Das polare Abtast-Koordinatensystem des LADAR
wird dann in ein rechtwinkliges Koordinatensystem überführt, welches
auf im Stand der Technik bekannte Weise mit dem korreliert werden
kann, welches in Bezug auf das Referenzbild verwendet wurde, 142.
-
Das
durch LADAR erfasste Bild wird analysiert, um Entfernungsanstieg,
Entfernungsabfall und Intensitätskanten
zu extrahieren, 144. Diese extrahierten Kanten werden dann
kombiniert, um ein einziges dreidimensionales Bild zu bilden. Zusätzlich wird
die Kantendicke, die typischerweise durch den Kantenoperator aufgezwungen
wird, auf das machbare Maß verdünnt. In
dem einzigen dreidimensionalen Bild werden Kanten- und Linienabschnitte
identifiziert und Linienabschnitte werden mit Bezug auf ihre dreidimensionalen
Endpunkte (X1, Y1,
Z1) und (X2, Y2, Z2) in einem kartesischen
Koordinatesystem identifiziert. Wie bei dem digitalen Referenzbild
werden kleinere Linienabschnitte zu größeren Linienabschnitten verschmolzen, 148.
Bereiche im LADAR-Bild, welche vom Augenpunkt nicht sichtbar sein
werden, aus welchem das Aufklärungsreferenzbild festgelegt
wurde, werden bestimmt, 150.
-
Wenn
die erfassten Daten des LADAR-Bildes abgeglichen worden sind, um
Daten zu eliminieren, die von einem Augenpunkt des Referenzbildes
nicht sichtbar sind, werden die Linienabschnitte des erfassten LADAR-Bildes
transformiert unter Verwendung der Liniensegmentendpunkte in die
Aufklärungsbildkoordinaten, 152.
Zur Vereinfachung dieses Arbeitsablaufs werden Bilder, die für den Augenpunkt
der Aufklärungskamera verdeckt
sind, nicht transformiert, weil diese Oberflächen keine Informationen zur
Verfügung
stellen würden, die
nützlich
wären für den Bildabgleich
und die Genauigkeit des Abgleichs verringern könnten.
-
Die
transformierten dreidimensionalen LADAR-Bild-Linienabschnitte werden
dann auf eine Aufklärungs-
oder Referenzbildebene als zweidimensionales Bild 154 projiziert.
Linienabschnitte des gespeicherten Referenzbildes werden dann mit
Linienabschnitten verglichen, die durch das transformierte LADAR-Bild
festgelegt werden, 156.
-
Durch
einen iterativen Prozess wird eine optimale Ausrichtung von Referenzbild-Linienabschnitten
mit erfassten Bildlinienabschnitten erreicht werden, 158.
Wenn diese Ausrichtung erzielt wurde, werden Fehlerverschiebungen
in Bezug auf den Zielpunkt (oder in Bezug auf den versetzten Zielpunkt)
bestimmt, 160. Die Fehlerverschiebungen, welche, wie oben
erwähnt,
alle Informationen in drei Achsen sowie eine Winkelrate und einen
Winkelfehler enthalten werden, werden dann verwendet um Fehlersignale
zu berechnen, um Lenkbefehle abzugeben, die durch den Raketen-Autopiloten
zur Steuerung von Leitfunktionen verwendbar sind, 162.
Die obigen Bilderkennungs- und -transformationsschritte werden wiederholt, 164,
um ständig
die Raketenleitung zu steuern, bis zum Aufschlag auf dem Ziel.
-
Die
vorliegende Erfindung wurde mit Bezug auf die Durchführung mit
einem zweidimensionalen Referenzbild beschrieben, wie z.B. einem,
das teilweise unter Verwendung eines Fotos gebildet wurde. Ein anderes Bild
jedoch, welches in Übereinstimmung
mit der vorliegenden Erfindung verwendet werden könnte, würde das Bild
eines synthetischen Apertur-Radars (SAR) sein. SAR-Sensoren erhalten
typischerweise eine im Wesentlichen zweidimensionale Draufsicht
eines erfassten Bereiches. SAR-Sensoren werden Schattendaten offenbaren,
was Referenzdaten in Bezug auf die Höhe eines gegebenen Objektes
zur Verfügung
stellt. Weil LADAR ein dreidimensionales Bild erfasst, kann Koordinatentransformation
eines LADAR-erfassten Bildes einer gegebenen Szene ebenfalls eine
Draufsicht eines gegebenen Bereichs erzielen. Auf eine Weise, die
im Allgemeinen analog ist zur Vorhersage von Sonnenschatten, kann
SAR-Schattenbildung vorhergesagt werden aus dem Wissen über den
Augenpunkt des SAR-Sensors. Dem gemäß können SAR-Daten nicht nur verwendet
werden, um Kantenkarten zur Verwendung in LADAR-Korrelation zu bestimmen,
sondern ebenso um Schattenbereiche festzulegen, die ebenso durch
die beschriebenen LADAR-Bildgebungstechniken vorhergesagt werden können.
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-
-