DE60214407T2 - Lenkungsverfahren für flugkörperwaffensystem - Google Patents

Lenkungsverfahren für flugkörperwaffensystem Download PDF

Info

Publication number
DE60214407T2
DE60214407T2 DE60214407T DE60214407T DE60214407T2 DE 60214407 T2 DE60214407 T2 DE 60214407T2 DE 60214407 T DE60214407 T DE 60214407T DE 60214407 T DE60214407 T DE 60214407T DE 60214407 T2 DE60214407 T2 DE 60214407T2
Authority
DE
Germany
Prior art keywords
rocket
images
imaging device
target
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE60214407T
Other languages
English (en)
Other versions
DE60214407D1 (de
Inventor
Michel Broekaert
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Safran Electronics and Defense SAS
Original Assignee
Sagem Defense Securite SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sagem Defense Securite SA filed Critical Sagem Defense Securite SA
Application granted granted Critical
Publication of DE60214407D1 publication Critical patent/DE60214407D1/de
Publication of DE60214407T2 publication Critical patent/DE60214407T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G7/00Direction control systems for self-propelled missiles
    • F41G7/20Direction control systems for self-propelled missiles based on continuous observation of target position
    • F41G7/22Homing guidance systems
    • F41G7/2273Homing guidance systems characterised by the type of waves
    • F41G7/2293Homing guidance systems characterised by the type of waves using electromagnetic waves other than radio waves
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G7/00Direction control systems for self-propelled missiles
    • F41G7/007Preparatory measures taken before the launching of the guided missiles
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G7/00Direction control systems for self-propelled missiles
    • F41G7/20Direction control systems for self-propelled missiles based on continuous observation of target position
    • F41G7/22Homing guidance systems
    • F41G7/2206Homing guidance systems using a remote control station
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G7/00Direction control systems for self-propelled missiles
    • F41G7/20Direction control systems for self-propelled missiles based on continuous observation of target position
    • F41G7/22Homing guidance systems
    • F41G7/2253Passive homing systems, i.e. comprising a receiver and do not requiring an active illumination of the target

Landscapes

  • Engineering & Computer Science (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Studio Devices (AREA)
  • Telescopes (AREA)

Description

  • Die Erfindung betrifft die Lenkung von Raketen.
  • Eine Rakete ist ein kleiner Brennzünder ohne Lenkung. Man setzt sie häufig im Kampf gegen Fahrzeuge ein, und sie kann von einem Land-, Wasser- oder Luftfahrzeug abgefeuert werden, beispielsweise von einem Flugzeug oder einem Hubschrauber. Jedoch ist die Erfindung gleichermaßen auf Langstrecken-Flugkörper anwendbar, und wenn im Text von Raketen die Rede ist, so soll dieser Begriff in seinem allgemeinen Sinn aufgefasst und so betrachtet werden, dass er gleichermaßen Langstrecken-Flugkörper umfasst.
  • Die Präzision einer Rakete ist nicht sehr groß. Und zwar wird sie im Falle des Abschusses von einem Hubschrauber zusätzlich beeinträchtigt durch den Wind der Propeller, der eine Abweichung der Flugbahn hervorruft.
  • Vor dem Abschuss einer Rakete erfasst ein Operateur das Ziel zuerst in seinem Visier, er identifiziert es, er verfolgt es, um seine Winkelgeschwindigkeit zu erkennen, sodann telemetriert er es, um seinen Abstand zu erkennen, und schließlich erkennt er die Position des Ziels in seiner Peilung. Mit diesen Daten und einem Flugmodell der Maschine erarbeitet der Feuerleitrechner ein Zukunftsziel, das sich als Fadenkreuz im Visier darstellt.
  • Es sei erwähnt, dass viele Flugkörper mit Mitteln zur Zielsuchlenkung ausgerüstet sind, das heißt, mit einem Ekartometrie-System, das dazu bestimmt ist, in Abhängigkeit von dem Resultat eines Vergleichs zwischen den Referenzbildern des Ziels und den im Flug von einer Abbildungseinrichtung aufgenommenen Bildern Leitflächen oder Richtraketen zur Korrektur der Flugbahn zu betätigen.
  • Die Dokumente EP 0,777,100 und DE 33,34,729 offenbaren ein Verfahren zum Steuern einer Rakete auf ein Ziel, wobei die Rakete Mittel zur Zielsuchlenkung mit einer Abbildungseinrichtung und Mitteln zur Flugbahnkorrektur aufweist, wobei
    • – man mit einer Zieleinrichtung des Ziel erfasst und man dessen Position bestimmt,
    • – man die Zieleinrichtung und die Abbildungseinrichtung der Rakete abgleicht,
    • – man die Bilder der Abbildungseinrichtung und der Rakete stabilisiert,
    • – man eine Lenkungsregel gewinnt,
    • – man die Rakete abschießt und
    • – man die Rakete gemäß dieser Regel lenkt, bis sie das Ziel selbst erfasst.
  • Die vorliegende Anmeldung richtet sich darauf, die Präzision der Raketen zu verbessern, und betrifft hierzu ein Verfahren nach dem Patentanspruch 1.
  • Es sei darauf hingewiesen, dass die Harmonisierung der beiden Einrichtungen, Visiereinrichtung und Abbildungseinrichtung, jeweils der Abschusseinrichtung und der Rakete durchaus einfach möglich ist, und zwar anfänglich durch Harmonisierung der Achsen jeweils des Visiers und der Aufnahmeeinrichtung, sodann durch Einberechnung des Visierbildes der Abschusseinrichtung in die Peilung der Abbildungseinrichtung der Rakete.
  • Ferner sei darauf hingewiesen, dass die Stabilisation der Bilder der Abbildungseinrichtung der Rakete die Nachteile der Abschusseinrichtung vor dem Abschuss zumindest vermindern und somit diese Bilder auf der tatsächlichen Landschaft des Ziels stabilisieren kann.
  • Nach einer speziellen Ausführungsform der Erfindung wird vorgeschlagen, dass man vor dem Abschuss eine Anfangslenkungsregel gewinnt und die Rakete gelenkt wird, bis sie gemäß dieser Anfangsregel das Ziel erfasst.
  • Und zwar besteht ein bevorzugtes Merkmal darin, dass man vor dem Abschuss eine Anfangslenkungsregel gewinnt und man nach dem Abschuss eine ständig variable Lenkungsregel zur Flugbahnkorrektur gewinnt, bis die Rakete das Ziel erfasst.
  • Ferner ist es vorteilhaft, dass man zum Abgleichen der Zieleinrichtung und der Abbildungseinrichtung der Rakete einen elektronischen Abgleich durchführt, gemäß welchem man in einem terrestrischen Bezugssystem die zu gleichen Zeitpunkten von den beiden Einrichtungen aufgenommenen Bilder der Szene in einem Tiefpassfilter filtert, um von diesem nur die niedrigen räumlichen Frequenzen zu behalten, und man die Gleichung des optischen Flusses zwischen diesen jeweiligen Bildpaaren der beiden Einrichtungen auflöst, um die jeweiligen Drehungen und die Änderungen des Zoom-Parameterverhältnisses zu bestimmen, denen man diese Bilder unterziehen muss, um die einen auf die anderen abzugleichen.
  • Erfindungsgemäß stabilisiert man die Bilder der Abbildungseinrichtung der Rakete in einem terrestrischen Bezugssystem auf die Landschaft, wenn auch eine Stabilisation durch Schwerkraftzentrum durchaus möglich bleibt.
  • Es ist vorteilhaft, in dem terrestrischen Bezugssystem die Bilder der Szenerie, die von der Abbildungseinrichtung aufgenommen werden, in einem Tiefpassfilter zu filtern, um nur die niedrigen räumlichen Frequenzen zu behalten, und die Gleichung des optischen Flusses aufzulösen, um die Rotationen zu bestimmen, der die Bilder zu unterwerfen sind, um diese auf die vorhergehenden Bilder zu stabilisieren.
  • Zum besseren Verständnis der Erfindung dient die folgende Beschreibung unter Bezugnahme auf die beigefügte Zeichnung, auf der
  • 1 eine schematische axiale Schnittansicht einer Rakete ist, die Mittel zur Zielsuchlenkung mit einer Abbildungseinrichtung und mit Mitteln zur Flugbahnkorrektur aufweist;
  • 2 eine Blockdarstellung der funktionellen elektrischen, elektronischen und optischen Mittel der Rakete nach 1 ist;
  • 3 die Bewegungsgeometrie einer Kamera zur Bildaufnahme zeigt;
  • 4 ein Funktionsschema der Abbildungseinrichtung der Rakete ist, das die elektronische Stabilisation von deren Bildern und die Harmonisierung, d. h. den Abgleich mit der Visiereinrichtung erkennen lässt;
  • 5 eine Darstellung des Bildes der Abbildungseinrichtung der Rakete ist, die die verschiedenen Felder der Aufnahmen zeigt; und
  • 6 in schematischer Darstellung das Lenkungsverfahren der Rakete auf ein Ziel, ausgehend von einem Hubschrauber, zeigt.
  • Die Rakete weist einen Körper 1 auf, von dem lediglich der vorderer Abschnitt dargestellt ist, wobei der hintere Abschnitt die Nutzlast und die Elemente zur Flugbahnkorrektur umfasst, bei denen es sich um Steuerflächen oder kleine Richtraketen handeln kann. Ferner weist die Rakete eine Nase 2 auf, die von einer Kappe 3 abgedeckt ist. Die Kappe 3 trägt eine Primärlinse, die als aerodynamisches Fenster dient und das Bild auf den Detektor fokussiert, und zwar mit Hilfe des Restes der Optik, die nachfolgend behandelt wird. Wie später noch ersichtlich, handelt es sich bei der Rakete um eine solche mit Spin-Zielsuchlenker einerseits an der Nase, andererseits am Körper, wobei jedoch die Nase 2 und der Körper 1 in ihrer Rotation voneinander entkoppelt sind und wobei die Nase 2 unter Zwischenschaltung einer Hohlwelle 4 ein im Körper 1 angeordnetes Schwungrad 5 trägt, welches einen Differenzial-Spin zwischen der Nase 2 und dem Körper 1 erzeugt, und zwar derart, dass die Nase 2, wenn überhaupt, nur sehr langsam in Rotation versetzt wird.
  • Die Hohlwelle 4 erstreckt sich also zur einen und zur anderen Seite der Verbindungsebene 6 zwischen der Nase 2 und dem Körper 1, und zwar in Wälzlagern 7 und 8, die jeweils in dem einen 2 und dem anderen Abschnitt 1 der Rakete angeordnet sind.
  • Der Zielsuchlenker der Rakete umfasst in der Nase 2 hinter der Kappe 3 und einer fixierten Optik 9 eine Abbildungseinrichtung 10 sowie im Körper 1 eine Einrichtung 11 zur Flugbahnkorrektur, die von der Einrichtung 10 gesteuert wird.
  • Die Einrichtung 11 sorgt gleichermaßen nach dem Abschuss für den Vergleich des von der Abbildungseinrichtung 10 aufgenommenen Bildes mit den gespeicherten großflächigen und kleinflächigen Bildern der Szenerie, aufgenommen vor dem Abschuss mit der Visiereinrichtung des Trägers, die später noch zur Sprache kommt.
  • Die Abbildungseinrichtung 10 umfasst eine Bildaufnahmeeinrichtung 13 mit ihren klassischen elektronischen Näherungsschaltungen, einen Analog/Digital-Wandler 15 und eine Komponente 16 der Bildübertragung. Die Einrichtung 10 wird vom Körper der Rakete aus und durch die Hohlwelle 4 hindurch von einer aufladbaren Batterie 12 gespeist. Die Bildaufnahmeeinrichtung 13 kann eine Kamera oder ein Video- oder Infrarotgerät sein. Die Bildübertragungskomponente 16 kann eine Laserdiode oder eine LED (Elektrolumineszentsdiode) sein. Die Komponente 16 kann in der Abbildungseinrichtung 10 angeordnet sein, wobei dann die Bildübertragung durch die Hohlwelle 4 und das Schwungrad 5 hindurch mittels eines Lichtwellenleiters 17 erfolgt, der sich entlang der Rollachse 30 der Vorrichtung erstreckt. Die Bildübertragungskomponente 22 hingegen kann im Schwungrad 5 gegenüber einer Aufnahmediode 24 für die übertragenen Bilder angeordnet sein, und die Signalübertragung zwischen der Abbildungseinrichtung 10 und der Komponente 22 erfolgt sodann über Leitungen durch die Hohlwelle 4 hindurch. Die Abbildungseinrichtung wird erforderlichenfalls mittels Peltier-Effekts gekühlt.
  • Das Schwungrad 5, symbolisiert in 2 durch die beiden gestrichelten Vertikallinien, trägt den Sekundärteil 19 eines Zwischenübertragers 18 zur Energieversorgung der Nase 2 der Rakete, der an die Batterie angeschlossen ist, ferner ein Rad 20 eines optischen Codierers 21 und, je nach dem, eine Laserdiode 22 oder eine LED zur Übertragung der Bilder der Einrichtung 10 auf dem Körper 1 der Rakete.
  • Die Einrichtung 11 zur Flugbahnkorrektur des Körpers der Rakete umfasst einen Sender/Empfänger 23 des optischen Codierers 21, die Aufnahmediode 24 für die übertragenen Bilder, den Primärteil 25 des Zwischenübertragers 18 mit seiner Stromquelle 26 sowie Schaltungen 27 zum Verarbeiten der empfangenen Bilder und zum Führen und Steuern der Steuerflächen 28 der Rakete, wobei die Schaltungen 27 an die Aufnahmediode 24 und den Sender/Empfänger 23 des Codierers 21 angeschlossen sind. Die Schaltungen 27 umfassen einen Bordrechner.
  • Der Codierer 21 gibt die relative Winkelposition zwischen der Abbildungseinrichtung 10 und dem Körper der Rakete an. Die Steuerung der Rakete erfolgt mittels des Rechners der Schaltungen 27 in Abhängigkeit von besagter Winkelposition und von dem Vergleich der Bilder, die von der Abbildungseinrichtung empfangen und in den Schaltungen 27 stabilisiert werden, mit den gespeicherten Bildern, die vorher beispielsweise von einer Visiereinrichtung geliefert worden sind.
  • Die Steuerkommandos werden synchron mit der Eigendrehung der Rakete angelegt, und zwar auch unter Berücksichtigung der Stelle, an der sich die Steuerfläche befindet.
  • Vor dem Abschuss der Rakete nimmt der Operateur mit Hilfe einer Visiereinrichtung ein großflächiges Bild 52 der Szenerie auf, welches gespeichert wird und – es handelt es sich um niedrige räumliche Frequenzen – dazu dient, die angenäherte Richtung des Ziels zu bestimmen (5). Gleichermaßen nimmt er ein kleinflächiges Bild 53 auf, welches ebenfalls gespeichert wird.
  • Gemäß 5 ist die Gesamtansicht eine Navigationsfeldansicht 50 mit, im Inneren, einer Ansicht 51 des Zielsuchlenkerfeldes der Rakete, ferner einer großflächigen Ansicht 52 und, immer noch im Inneren, einer kleinflächigen Ansicht 53.
  • 6 zeigt als Beispiel einen Operateur in einem Hubschrauber 60, der an seinen beiden Seiten mit einer Rakete 1, 2 ausgerüstet ist, die auf ein zu treffendes Ziel zu lenken ist, bei welchem es sich im vorliegenden Fall um einen Tank 61 handelt. 6 zeigt eine Visiereinrichtung 62 und einen Feuerleitrechner 63 des Hubschraubers sowie den Feldwinkel θ des Zielsuchlenkers der rechtsseitigen Rakete, entsprechend der Ansicht 51, und den Kleinfeldwinkel v der Visiereinrichtung 62 des Hubschraubers, entsprechend der Ansicht 53; innerhalb dieser Winkel befindet sich der Tank 61.
  • Der Operateur der Abschusseinrichtung, der Schütze des Hubschraubers 60, beginnt also mit der Erfassung des Tanks 61 mit Hilfe seiner Visiereinrichtung 62, das heißt, er bestimmt die Position, den Abstand und die Geschwindigkeit des Tanks 61, was ihm in Kombination mit einem Flugmodell und mit Hilfe des Feuerleitrechners 63 später die Möglichkeit gibt, eine anfängliche Lenkungsregel auszuarbeiten. Währenddessen richtet der Hubschrauberpilot mittels eines Winkelmessers die Achse des Hubschraubers möglichst exakt in diejenige Richtung, in die der Schütze peilt.
  • Nach der Erfassung des Tanks 61 und seiner Designation durch den Operateur harmonisiert der Boardrechner die Visiereinrichtung 62 und die Abbildungseinrichtung 10 der Rakete bis zu Stabilisierung der Bilder der Abbildungseinrichtung und der Rakete, und zwar vor Ausarbeitung der optimalen Lenkungsregel der Rakete.
  • Aus Gründen, die später klar ersichtlich werden, wird zuerst der Stabilisierungsschritt der Bilder der Abbildungseinrichtung und der Rakete beschrieben.
  • Betrachtet sei die Observierungs- und Führungskamera (13) der Rakete nach 1. Es kann sich um eine Video- oder eine Infrarotkamera handeln.
  • Wenn die Szenerie stationär ist, sind die Punkte der Szenerie, die von der Kamera gesehen wird, zwischen zwei Bildern durch die Flugbahn des Trägers miteinander verbunden.
  • Die kartesischen Koordinaten der Szenerie in der Peilung des Trägers sind P = (x, y, z)', Nullpunkt ist der Schwerpunkt des Trägers, mit der Achse z, ausgerichtet auf die Haupt-Rollachse, der Achse x entsprechend der Nickachse und der Achse y gleich der Schlingerachse.
  • Die Kamera befindet sich in einem kartesischen Koordinatensystem oder einem dreidimensionalen Polarkoordinatensystem mit dem Nullpunkt auf der Frontlinse der Kamera und der z-Achse ausgerichtet auf die Sichtrichtung.
  • Die Position der Kamera bezüglich des Schwerpunktes des Trägers ist definiert durch drei Rotationen (ab, vc, gc) und drei Translationen (Txc, Tyc, Tzc). Die Beziehung zwischen den 3D-Koordinaten der Kamera und denen des Trägers ist: (x', y', z')' = R(ac, bc, gc)·(x, y, z)' + T(Txc, Tyc, Tzc) wobei
    • • R eine 3 × 3 Rotationsmatrix ist,
    • • T eine 1 × 3 Translationsmatrix ist.
  • Die Flugbahn des Schwerpunktes ist charakteristisch für die Entwicklung des Zustandes des Systems und kann beschrieben werden durch das System von Differenzialgleichungen x(t) = F(t)·x(t) + u(t) + v(t)x = Zustandsvektor der Dimension n
    F(t) = Matrixfunktion von t der Dimension n
    u = Eintrittsvektorfunktion von t, bekannt
    v = Gaussches weißen Rauschen für n Dimensionen.
  • Der Zustand des Systems selbst wird überwacht mit Hilfe der Kamera und der Lösung der Gleichung des optischen Flusses, durch m Messungen z(t), zugeordnet dem Zustand x, durch die Überwachungsgleichung: z(t) = H(t)·x(t) + w(t)wobei H(t) eine m × n Matrixfunktion von t ist und w ein Gaussches weißes Rauschen der Dimension m darstellt, was man den winkelmäßigen und linearen Vibrationen der Kamera bezüglich des Schwerpunktes des Trägers zuordnen kann.
  • Das diskrete Modell schreibt sich:
    Figure 00080001
    wobei
    Xk = [aPk, aVk, bPk, bVk, gPk, gVk, xPk, xVk, yPk, yVk, zPk, zVk]T der Zustandvektor der Flugbahn zum Zeitpunkt k ist, zu sammengesetzt aus den Nick-, Schlinger- und Rollwinkeln und -geschwindigkeiten und den Positionen und Geschwindigkeiten für x, y und z.
  • xk+1 ist der Zustandsvektor zum Zeitpunkt k + 1 mit tk+i – tk = Ti. uk ist der bekannte Eintrittsvektor der Funktion k; es handelt sich um das Flug- oder Flugbahnmodell des Schwerpunktes des Trägers.
  • vk ist das weiße Gaussche Rauschen für n Dimensionen und repräsentiert das Beschleunigungsrauschen in den Nick-, Schlinger- und Rollpositionen x, y, z.
  • Wenn die Winkel und Translationen, denen die Kamera relativ zum Schwerpunkt unterworfen wird, im Verlauf der Flugbahn beispielsweise in einem Visier nicht konstant sind, genügt es, ihre gemessenen oder gesteuerten werte (ac(t), bc(t), gc(t), Txc(t), Tyc(t), Tzc(t) als Funktion von t oder von k zu beschreiben.
  • Da die Flugbahn des Schwerpunktes des Trägers durch den Vektor xk+1 definiert ist, lässt sich die Flugbahn der Kamera durch einen Vektor xck+1 definieren xck+1 = R(ab, bc, gc)·(Fk·xk + uk + vk) + Tc
  • Zwischen den Beobachtungszeitpunkten k und k + 1 unterliegt die Kamera reinen 3D-Rotationen und drei Translationen, deren Werte geliefert werden von dem Vektor x'k+1.
  • Es sei die Situation betrachtet, in der die Elemente der Szenerie auf die Bildebene der Kamera projiziert sind und in der lediglich diese Projektionen bekannt sind.
  • 3 zeigt die Bewegungsgeometrie der Kamera im realen 3D-Raum.
  • Die Kamera befindet sich in einem kartesischen Koordinatensystem oder einem dreidimensionalen Polarkoordinatensystem mit dem Nullpunkt auf der Frontlinse der Kamera, wobei die z-Achse auf die Blickrichtung ausgerichtet ist.
  • Es existieren zwei Fälle unterschiedlicher Komplexitäten:
    • • Die Szenerie ist stationär, während die Kamera im 3D-Raum zoomt und dreht.
    • • Die Szenerie ist stationär, während die Kamera im 3D-Raum zoomt, dreht und eine Translationsbewegung durchführt.
  • Es seien P = (x, y, z)' = (d, a b)' die kartesischen oder Polarkoordinaten der Kamera eines stationären Punktes zum Zeitpunkt t
    • x = d·sin(a)·cos(b)
    • y = d·sin(b)·cos(a)
    • z = d·cos(a)·cos(b)
    und P' = (x', y' z') = (d', a', b') die entsprechenden Kamerakoordinaten zum Zeitpunkt t' = t + Ti.
  • Die Kamerakoordinaten (x, y, z) = (d, a, b) eines Punktes im Raum und die Koordinaten in der Bildebene (X, Y) seines Bildes sind verbunden durch eine Perspektivtransformation gleich: X = F1(X, Y)·x/z = F1(X, Y)·tg(a) Y = F1(X, Y)·y/z = F1(X, Y)/tg(b)wobei F1(X, Y) die Brennweite der Kamera zum Zeitpunkt t ist. (x', y', z')' = R(da, db, dg)·(x, y, z)' + T(Tx, Ty, Tz)wobei
    • • R = RγRβRα eine 3 × 3 Rotationsmatrix ist und alpha = da, beta = db, gamma = dg jeweils die Nick-, Schlinger- und Rollwinkel der Kamera zwischen den Zeitpunkten t und t' sind.
    • • T ist eine 1 × 3 Translationsmatrix mit Tx = x' – x, Ty = y' – y und Tz = z – z', den Translationen der Kamera zwischen den Zeitpunkten t und t'.
  • Da die Beobachtungen durch die Kamera mit der Rasterfrequenz (Ti = 20ms) stattfinden, kann man sehen, dass die Winkel zwischen zwei Rasterbildern geringfügig schwenken und dass man folglich bestimmte Berechnungen vereinfachen kann.
  • Für die Entwicklung der Brennweite der Kamera zum Zeitpunkt t erhält man: F2(X, Y) = s·F1(X, Y)wobei s Zoom-Parameter genannt wird und wobei die Koordinaten (X', Y') der Bildebene ausgedrückt werden können durch
    • X' = F2(X, Y)·x'/z' = F2(X, Y)·tg(a')
    • Y' = F2(X, Y)·y'/z' = F2(X, Y)·tg(b')
  • Will man die Bewegungen der Kamera, abgeleitet von denen des Trägers und den wirklichen Bewegungen der Kamera, feiner unterscheiden, so geht man davon aus, dass der Träger und die Kamera dieselbe Flugbahn haben, dass jedoch die Kamera darüber hinaus linearen und winkelmäßigen Vibrationen unterworfen ist. (x', y', z')' = R(da + aw, db + bw, dg + gw)·(x, y, z)' + T(Tx + xw, Ty + yw, Tz + zw)wobei
    aw, bw, gw, xw, yw, zw winkelmäßige Vibrationen sind.
  • Die linearen und winkelmäßigen Vibrationen können an das Rauschen mit Mittelwerten Null angeglichen werden, ob weiß oder nicht in Abhängigkeit vom Spektrum des jeweiligen Trägers.
  • Die Gleichung des optischen Flusses schreibt sich:
    Figure 00110001
    wobei:
    Bildk + 1(Ai, Aj) = Bildk(Ai, Aj) + Gradientx(Ai, Aj)·dAi·SchrittH + GradientY (Ai, Aj)·dAj·SchrittH
    mit GradientX und GradientY als den Ableitungen nach X und Y von Bildk(X, Y).
  • Um die Gradienten abzuschätzen, bedient man sich allein der benachbarten Punkte. Da man nur nach der globalen Bewegung des Landschaftsbildes sucht, interessiert man sich nur für die sehr niedrigen räumlichen Frequenzen des Bildes und filtert folglich das Bild. So sind die berechneten Gradienten signifikantiv.
  • Die Tiefpassfilterung besteht in klassischer Weise darin, dass man einen Konvolutionskern von Pixel zu Pixel der nummerierten Bilder der Kamera gleiten lässt, und zwar einen Kern, bei dem man den Kernursprung durch den Mittelwert der Grauwerte der Pixel des Kerns ersetzt. Die Resultate, die mit einem rechteckigen Kern mit 7 Pixeln der Höhe (v) und 20 Pixeln der Breite (H) erhalten werden, sind sehr zufriedenstellend für Szenerien mit normalem Kontrast. Will man hingegen, dass der Algorithmus auch auf einigen isolierten heißen Punkten funktioniert, muss man besser einen Kern verwenden, der die Maxima-Räume schützt und keine Diskontinuität der Gradienten erzeugt. Gleichermaßen kann man wellenförmige Funktionen als mittelnden Kern verwenden.
  • Man hat also einen mittelnden Kern in Form einer Pyramide eingesetzt (Dreieck entlang X, konvoliert mit Dreieck entlang Y). Die Komplexität des Filters ist nicht angestiegen, denn man hat zweimal einen rechteckigen mittelnden, gleitenden Kern mit [V = 4; H = 10] eingesetzt. Gleichermaßen kann man wellenförmige Funktionen als mittelnden Kern nutzen.
  • Allein dX und dY sind unbekannt, aber wenn man dX und dY auflösen kann in Abhängigkeit von den Parametern des Zustandsvektors, die uns interessieren, und von X und Y (oder Ai, Aj), derart, dass nur noch die Parameter des Zustandsvektors als Unbekannte bleiben, kann man die Gleichung in vektorieller Form B = A·XTrans schreiben, mit A und B als bekannten Größen.
  • Da jeder Punkt des Bildes Gegenstand der Gleichung sein kann, verfügt man über ein unterdeterminiertes System, A·XTrans = B, das man nach der Methode kleinster Quadrate lösen kann.
  • Die Gleichung des optischen Flusses misst die Gesamtheit der Verschiebungen der Kamera. Oben wurde gezeigt, dass man die Bewegungen der Kamera, abgeleitet von denen des Trägers und den tatsächlichen Bewegungen der Kamera, feiner unterscheiden kann, indem man sagt, dass der Träger und die Kamera dieselbe Flugbahn haben, dass aber die Kamera zusätzlich linearen und winkelmäßigen Vibrationen unterworfen ist. (x', y', z') = R(da + aw, db + bw, dg + gw)·(x, y, z)' + T(Tx + xw, Ty + yw, Tz + zw)wobei
    aw, bw, gw, xw, yw, zw die winkelmäßigen und linearen Vibrationen sind.
  • Folglich sind die Verschiebungen, die auf die Flugbahn der Kamera (da, db, dg, Tx, Ty, Tz) zurückgehen, im Zustandsvektor X'k+1 der Kamera enthalten, oder eher noch in der Abschätzung, die man durch Mittelung durchführen kann oder durch Einsatz eines Kalman-Filters, welches die bessere Abschätzung liefert.
  • Da die optische Wellengleichung die Gesamtheit der Verschiebungen erfasst, kann man die winkelmäßigen und linearen Vibrationen aw, bw, gw, xw, zw an den Enden der Stabilisation ableiten.
  • Es sei darauf hingewiesen, dass, abgesehen von extrem speziellen Konfigurationen, die linearen Vibrationen niemals sichtbar sind, berücksichtigt man den Beobachtungsabstand oder ihre geringen Amplituden im Verhältnis zu den Verschiebungen des Trägers. Es gilt also zu beachten: da + aw, db + bw, dg + gw, Tx, Ty, Tz.
  • Wir ergreifen die Gleichung des optischen Flusses wieder auf:
    Figure 00140001
  • Vergegenwärtigt man sich diese Berechnung, so sieht man, dass man dabei ist, die Bilder der Sequenz auf absolute Weise zu stabilisieren. Im Gegensatz zu einer trägheitsbehafteten Stabilisation, bei der die Sichtlinie beeinträchtigt ist durch Schräglagen, Drifte und Fehler des Maßstabsfaktors, kann man eine nicht durch Schräglagen und Drifte beeinträchtigte Repräsentation der Szenerie erzeugen, wenn man sie entlang dreier Achsen stabilisiert und wenn die Verzerrungsfehler der Optik kompensiert werden. Die vierte Achse (Zoom) ist nicht zwingend erforderlich, jedoch kann sie sich im Falle der Zoom-Optik als unentbehrlich erweisen und auch dann, wenn die Brennweite nicht mit ausreichender Präzision bekannt ist oder wenn die Brennweite mit der Temperatur (IR-Optiken, Germanium, etc.) oder mit dem Druck (Luftbeiwert) variiert.
  • Dies kann von Interesse sein für Anwendungen, bei denen man Rasterbilder ohne Nachwirkungen akkumulieren will oder wenn man eine absolute Referenz der Landschaft bewahren will (beispielsweise dynamische Harmonisierung eines Zielsuchlenkers und eines Visiers).
  • Dies kann jedoch auch Anwendungen betreffen, bei denen man bestrebt ist, die Information der Landschaft in optimaler Weise wiederherzustellen, indem man ein Bild erhält, das frei ist von den Effekten der Eichung und der Ausbildung des Detektors.
  • Gleichzeitig kann man eine Verbesserung der räumlichen Auflösung und eine Reduktion des temporären Rauschens oder des fixen räumlichen Rauschens erzielen.
  • Es sei angemerkt, dass sich dieselbe Gleichung auch schreiben lässt: Bildk+1(X, Y) = Bild(X – dXk+1(X, Y), Y – dYk+1(X, Y))
  • Die Werte dXk+1(X, Y), dYk+1(X, Y) sind ganz offensichtlich nicht bekannt für k. Allerdings kann man sie unter Benutzung der Gleichungen der Kamerabewegung für k + 1 abschätzen.
  • Dies bietet eine bessere Stabilität in der Geschwindigkeitsmessung, und dies gestattet große Dynamik der Bewegungen.
  • Da sich derselbe Punkt P der Landschaft mit den Koordinaten Xk, Yk im Bild k auf den Koordinaten Xk+1, Yk+1 im Bild k + 1 findet, und zwar aufgrund der drei Rotationen aVk+1, Ti, bVk+1·Ti., gVk+1·Ti und der Brennweitenänderung, müssen entgegengerichtete Rotationen und Zoom-Faktoren angesetzt werden, um das Bild k + 1 absolut auf dem Bild k zu stabilisieren.
  • Jetzt sei der spezielle Fall einer stationären Szenerie und eines Kamera-Verschiebungsschrittes betrachtet.
  • Führt die Kamera reine 3D-Rotationen aus, so ist das Verhältnis zwischen den kartesischen 3D-Koordinaten der Kamera vor und nach der Kamerabewegung: (x', y', z')' = R·(x, y, z)wobei R einen 3 × 3 Rotations-Matrix ist und alpha = da, beta = db, gamma = dg jeweils die Nick-, Schlinger- und Rollwinkel der Kamera zwischen den Zeitpunkten t und t' sind.
  • In 3D-Polarkoordinaten der Kamera ist das Verhältnis vor und nach der Kamerabewegung: (d', a', b')' = K(da, db, dg)·(d, a, b)'
  • Ist die Szenerie stationär, so erhält man:
    d' = d für sämtliche Punkte der Landschaft X = F1(S, Y)·x/z = F1(X, Y)·tg(a) Y = F1(X, Y)·y/z)F1(X, Y)·tg(b)
  • Ändert sich die Brennweite der Kamera zum Zeitpunkt t, erhält man: F2(X, Y)) = s·F1(X, Y)wobei s als Zoom-Parameter bezeichnet wird und wobei die Koordinaten (X', Y') der Bildebene ausgedrückt werden können durch
    • X' = F2(X, Y)·x'/z' = F2(X, Y)·tg(a')
    • Y' = F2(X, Y)·y'/z' = F2(X, Y)·tg(b')
  • Man hat also vier Parameter, die variieren können.
  • Zur Auflösung der Gleichung des optischen Flusses sei der praktische Fall der Abschätzung der Nick-, Schlinger- und Rollgeschwindigkeiten sowie einer Änderung der Brennweite betrachtet.
    B(:, :, 1) = Bildk + 1(Ai, Aj) – Bildk(Ai, Aj)
    Setzt man: A(:, :, 1) = AbleitungY(Ai, Aj)·(1 + (Aj·SchrittV/F1(X, Y))^2)
    A(:, :, 2) = AbleitungX(Ai, Aj)·(1 + (Ai·SchrittH/F1(X, Y))^2)
    A(:, :, 3) = AbleitungY(Ai, Aj)·Ai·SchrittH/SchrittV – AbleitungX(Ai, Aj)·Aj·SchrittV/SchrittH
    A(:, :, 4))AbleitungX(Ai, Aj)·Ai + AbleitungY(Ai, Aj)·Aj
    XTrans(1) = F1(0, 0)·bVk + 1·Ti/SchrittV
    XTrans(2) = F1(0, 0)·aVk + 1·Ti/SchrittH
    XTrans(3) = gVk + 1·Ti
    XTrans(4) = (s – 1)·Ti
    so sucht man eine Lösung der Gleichung: A·XTrans – B = 0
  • Man benutzt die Methode kleinster Quadrate, um die Norm zu minimalisieren.
  • Man kann die Gleichung für sämtliche Punkte des Bildes aufstellen. Bemerkenswert zur Verbesserung der Genauigkeit und zur Begrenzung der Berechnungen ist es jedoch, dass in der Gleichung A·XTrans = B der Term B die Differenz von zwei aufein anderfolgenden Bilder darstellt und dass man sämtliche zu kleinen oder rauschnahen Werte eliminieren kann.
  • Bei durchgeführten Versuchen hat man sämtliche Punkte zwischen +/1 0,6Max(B) und +/–Max(B) erfasst. Für die betrachteten Sequenzen lag die Zahl der Punkte zwischen einigen zehn und etwa 1500. Man kann auch eine fixe Zahl in der Größenordnung von 1000 unter den Sequenzen annehmen, nahe am Maximum.
  • Unter Bezugnahme auf 4 wird jetzt das Abbildungssystem kurz beschrieben, das den Schritt der Stabilisation ermöglicht.
  • Die Aufnahmekamera 13 liefert ihre Videosignale der Bilder an ein Tiefpassfilter 42 sowie an einen Verarbeitungsblock 43, der über einen zweiten Eingang die Stabilisationsdaten aufnimmt und am Ausgang die stabilisierten Bilder liefert. An seinem zweiten Eingang nimmt der Block 43 also die Rotationsgeschwindigkeiten auf, denen die von der Kamera 13 aufgenommenen Bilder zu unterwerfen sind. Der Ausgang des Filters 42 ist an zwei Pufferspeicher 44, 45 angeschlossen, die jeweils die beiden gefilterten Bilder zum augenblicklichen Zeitpunkt t und zum vorherigen Zeitpunkt t – 1 speichern. Die beiden Pufferspeicher 44, 45 sind an zwei Eingänge einer Rechenkomponente 46 angeschlossen, bei der es sich um ein ASIC oder ein FPGA (field programmable gate array) handeln kann. Die Rechenkomponente 46 ist an einen Arbeitsspeicher 47 und ausgangsseitig an den Verarbeitungsblock 43 angeschlossen. Sämtliche elektronischen Komponenten des Systems werden von einem Steuerungs-Mikrokontroller 48 gesteuert.
  • Nachdem jetzt der Stabilisierungsschritt beschrieben worden ist, kann der Harmonisierungsschritt in Angriff genommen werden.
  • Bei der im erfindungsgemäßen Lenkungsverfahren durchgeführten Abgleichung handelt es sich um eine Extrapolation des Stabilisierungsschritts, wobei die Visiereinrichtung und die Abbildungseinrichtung der Rakete vor dem Abschuss auf ein und demselben Träger montiert worden sind.
  • Bei der Stabilisierung der Bilder der Abbildungseinrichtung der Rakete handelt es sich um ein Verfahren der Auto- Stabilisierung, bei der man das Bild zum Zeitpunkt t auf dem Bild zum Zeitpunkt t – 1 stabilisiert. In anderen Worten kann man sagen, dass man jedes Bild des Abbildungssystems auf das vorhergehende stabilisiert.
  • Zum Harmonisieren der beiden Einrichtungen auf denselben Zeitpunkt t nimmt man die beiden Bilder der beiden Einrichtungen und stabilisiert das eine auf dem anderen, das heißt, man harmonisiert die beiden Einrichtungen.
  • Das Harmonisieren richtet sich gegen die Abweichung der optischen Achsen der beiden Einrichtungen und somit darauf, die Pixel der beiden Bilder zwei zu zwei in Übereinstimmung zu bringen, und vorzugsweise auch gegen die Abweichung dieser Pixel.
  • Natürlich sollten die beiden nach diesem Verfahren zu harmonisierenden Einrichtungen von gleicher Art sein, das heißt, mit komparablen Wellenlängen arbeiten.
  • Da die beiden Einrichtungen im Raum sämtliche Bildpaare ein und derselben Szenerie in einem terrestrischen Bezugssystem aufnehmen, filtert man die Bilder der Szenerie, die von den beiden Einrichtungen zum selben Zeitpunkt aufgenommen werden, in einem Tiefpassfilter, um lediglich die niedrigen räumlichen Frequenzen zu behalten, und man löst die Gleichung des optischen Flusses zwischen den jeweiligen Bildpaaren der beiden Einrichtungen, um die jeweiligen Rotationen und die Verhältnisänderung der jeweiligen Zoom-Parameter zu bestimmen, denen die Bilder für die Harmonisierung des einen mit dem anderen zu unterwerfen sind.
  • Die oben erwähnte anfängliche Lenkungsregel ergibt sich einerseits aus der Position, dem Abstand und der Geschwindigkeit des Tanks und andererseits aus einem Flugmodell. Nach Ausarbeitung der anfänglichen Lenkregel der Rakete fährt der Schütze mit dem Abschuss fort. Bis zu einem bestimmten Abstand zum Ziel 61, bis dahin, wo die Rakete das Ziel ausmacht, vergleicht man das von der Abbildungseinrichtung 10 der Rakete aufgenommene Bild mit dem gespeicherten großflächigen Bild 52 der Szenerie, das vorher mit der Visiereinrichtung 62 aufge nommen wurde, das heißt, man steuert permanent die Lenkung der Rakete.
  • Nach Erfassung des Ziels 61 durch die Rakete fährt man mit der Lenkung der Rakete bis zu einer Endphase fort, indem man das von der Abbildungseinrichtung 10 der Rakete aufgenommene Bild mit dem ebenfalls gespeicherten kleinflächigen Bild 53 vergleicht.

Claims (4)

  1. Verfahren zur Lenkung einer Rakete (1) auf ein Ziel, wobei die Rakete (1) Mittel zur Zielsuchlenkung mit einer Abbildungseinrichtung (10) und mit Mitteln zur Flugbahnkorrektur (11) aufweist, wobei – man mit einer Zieleinrichtung das Ziel erfaßt und man dessen Position bestimmt, – man die Zieleinrichtung und die Abbildungseinrichtung (10) der Rakete abgleicht, – man die Bilder der Abbildungseinrichtung (10) der Rakete stabilisiert, – man eine Lenkungsregel gewinnt, – man die Rakete (1) abschießt und – man die Rakete (1) gemäß dieser Regel lenkt, bis sie das Ziel selbst erfaßt, dadurch gekennzeichnet, daß: – man die Bilder der Abbildungseinrichtung (10) der Rakete in einem terrestrischen Bezugssystem, und zwar auf der Landschaft, stabilisiert und – man in dem terrestrischen Bezugssystem die von der Abbildungseinrichtung (10) aufgenommenen Bilder der Szene in einem Tiefpaßfilter (42) filtert, um von diesen nur die niedrigen räumlichen Frequenzen zu erhalten, und man die Gleichung des optischen Flusses auflöst, um die Drehungen zu bestimmen, denen man die Bilder unterziehen muß, um sie auf den vorhergehenden Bildern zu stabilisieren.
  2. Lenkungsverfahren nach Anspruch 1, wobei man vor dem Abschluß eine Anfangslenkungsregel gewinnt und die Rakete (1) gelenkt wird, bis sie gemäß dieser Anfangsregel das Ziel erfaßt.
  3. Lenkungsverfahren nach Anspruch 1, wobei man vor dem Abschuß eine Anfangslenkungsregel gewinnt und man nach dem Ab schuß eine ständig variable Lenkungsregel zur Flugbahnkorrektur gewinnt, bis die Rakete (1) das Ziel erfaßt.
  4. Verfahren nach einem der Ansprüche 1 bis 3, wobei man zum Abgleichen der Zieleinrichtung und der Abbildungseinrichtung (10) der Rakete einen elektronischen Abgleich durchführt, gemäß welchem man in einem terrestrischen Bezugssystem die zu gleichen Zeitpunkten von den beiden Einrichtungen aufgenommenen Bilder der Szene in einem Tiefpaßfilter (42) filtert, um von diesen nur die niedrigen räumlichen Frequenzen zu behalten, und man die Gleichung des optischen Flusses zwischen diesen jeweiligen Bildpaaren der beiden Einrichtungen auflöst, um die jeweiligen Drehungen und die Änderung des Zoomparameterverhältnisses zu bestimmen, denen man diese Bilder unterziehen muß, um die einen auf die anderen abzugleichen.
DE60214407T 2001-09-25 2002-09-23 Lenkungsverfahren für flugkörperwaffensystem Expired - Lifetime DE60214407T2 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
FR0112330A FR2830078B1 (fr) 2001-09-25 2001-09-25 Procede de guidage d'une roquette
FR0112330 2001-09-25
PCT/FR2002/003240 WO2003027599A1 (fr) 2001-09-25 2002-09-23 Procede de guidage d'une roquette

Publications (2)

Publication Number Publication Date
DE60214407D1 DE60214407D1 (de) 2006-10-12
DE60214407T2 true DE60214407T2 (de) 2007-05-10

Family

ID=8867590

Family Applications (1)

Application Number Title Priority Date Filing Date
DE60214407T Expired - Lifetime DE60214407T2 (de) 2001-09-25 2002-09-23 Lenkungsverfahren für flugkörperwaffensystem

Country Status (5)

Country Link
US (1) US7083139B2 (de)
EP (1) EP1432958B1 (de)
DE (1) DE60214407T2 (de)
FR (1) FR2830078B1 (de)
WO (1) WO2003027599A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102007054950A1 (de) * 2007-11-17 2009-08-06 Lfk-Lenkflugkörpersysteme Gmbh Verfahren zur Stützung der selbsttätigen Navigation eines niedrig fliegenden Flugkörpers

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7643893B2 (en) 2006-07-24 2010-01-05 The Boeing Company Closed-loop feedback control using motion capture systems
US7813888B2 (en) 2006-07-24 2010-10-12 The Boeing Company Autonomous vehicle rapid development testbed systems and methods
US7885732B2 (en) 2006-10-25 2011-02-08 The Boeing Company Systems and methods for haptics-enabled teleoperation of vehicles and other devices
US8686326B1 (en) * 2008-03-26 2014-04-01 Arete Associates Optical-flow techniques for improved terminal homing and control
US8068983B2 (en) 2008-06-11 2011-11-29 The Boeing Company Virtual environment systems and methods
WO2010083517A1 (en) * 2009-01-16 2010-07-22 Bae Systems Land & Armaments L.P. Munition and guidance navigation and control unit
IL214191A (en) 2011-07-19 2017-06-29 Elkayam Ami Ammunition guidance system and method for assembly
IL227982B (en) * 2013-08-15 2018-11-29 Rafael Advanced Defense Systems Ltd A missile system with navigation capability based on image processing
US9464876B2 (en) * 2014-05-30 2016-10-11 General Dynamics Ordnance and Tacital Systems, Inc. Trajectory modification of a spinning projectile by controlling the roll orientation of a decoupled portion of the projectile that has actuated aerodynamic surfaces
DE102015000873A1 (de) 2015-01-23 2016-07-28 Diehl Bgt Defence Gmbh & Co. Kg Suchkopf für einen Lenkflugkörper
CN107966156B (zh) * 2017-11-24 2020-09-18 北京宇航系统工程研究所 一种适用于运载火箭垂直回收段的制导律设计方法
RU2722904C1 (ru) * 2019-10-23 2020-06-04 Акционерное общество "Научно-производственное предприятие "Дельта" Способ обнаружения цели с помощью радиовзрывателя ракеты
RU2722903C1 (ru) * 2019-10-23 2020-06-04 Акционерное общество "Научно-производственное предприятие "Дельта" Способ идентификации цели с помощью радиовзрывателя ракеты с головкой самонаведения

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3459392A (en) * 1959-09-24 1969-08-05 Goodyear Aerospace Corp Passive homing guidance system
US3712563A (en) * 1963-12-04 1973-01-23 Us Navy Automatic path follower guidance system
US3794272A (en) * 1967-02-13 1974-02-26 Us Navy Electro-optical guidance system
US3986682A (en) * 1974-09-17 1976-10-19 The United States Of America As Represented By The Secretary Of The Navy Ibis guidance and control system
DE3334729A1 (de) * 1983-09-26 1985-04-11 Siemens AG, 1000 Berlin und 8000 München Verfahren zur ausrichtung eines zielsuchkopfes eines selbstgesteuerten flugkoerpers
US4881270A (en) * 1983-10-28 1989-11-14 The United States Of America As Represented By The Secretary Of The Navy Automatic classification of images
US6491253B1 (en) * 1985-04-15 2002-12-10 The United States Of America As Represented By The Secretary Of The Army Missile system and method for performing automatic fire control
GB8925196D0 (en) * 1989-11-08 1990-05-30 Smiths Industries Plc Navigation systems
US5785281A (en) * 1994-11-01 1998-07-28 Honeywell Inc. Learning autopilot
DE19546017C1 (de) * 1995-12-09 1997-04-24 Daimler Benz Aerospace Ag Flugkörper-Waffensystem
US5881969A (en) * 1996-12-17 1999-03-16 Raytheon Ti Systems, Inc. Lock-on-after launch missile guidance system using three dimensional scene reconstruction
US6347762B1 (en) * 2001-05-07 2002-02-19 The United States Of America As Represented By The Secretary Of The Army Multispectral-hyperspectral sensing system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102007054950A1 (de) * 2007-11-17 2009-08-06 Lfk-Lenkflugkörpersysteme Gmbh Verfahren zur Stützung der selbsttätigen Navigation eines niedrig fliegenden Flugkörpers
DE102007054950B4 (de) * 2007-11-17 2013-05-02 Mbda Deutschland Gmbh Verfahren zur Stützung der selbsttätigen Navigation eines niedrig fliegenden Flugkörpers

Also Published As

Publication number Publication date
WO2003027599A1 (fr) 2003-04-03
EP1432958A1 (de) 2004-06-30
US7083139B2 (en) 2006-08-01
US20040245370A1 (en) 2004-12-09
FR2830078A1 (fr) 2003-03-28
FR2830078B1 (fr) 2004-01-30
DE60214407D1 (de) 2006-10-12
EP1432958B1 (de) 2006-08-30

Similar Documents

Publication Publication Date Title
DE60214407T2 (de) Lenkungsverfahren für flugkörperwaffensystem
EP1304539B1 (de) Verfahren und Einrichtung zum Richten eines Waffenrohres und Verwendung der Einrichtung
DE102010005199B4 (de) Verfahren und Vorrichtung zur Ortsbestimmung eines fliegenden Ziels
EP0924490B1 (de) Suchkopf für zielverfolgende Flugkörper
DE2544975B2 (de) Feuerleitsystem
DE102005007910A1 (de) Feuerwaffe für langsam fliegende Geschosse
DE19828644C2 (de) Verfahren zum ferngesteuerten Bekämpfen bodennaher und/oder bodengebundener Ziele
DE19601961C2 (de) Einrichtung zur Erleichterung des Auffindens von Zielen an einem Waffensystem
EP2381208B1 (de) Verfahren zur Bestimmung von Positionsdaten eines Zielobjekts in einem Referenzsystem
WO1998051987A1 (de) Video-visier mit integrierter feuerleitung für gewehre
DE69817457T2 (de) Geschlossenes Regelsystem mit gesteuerter Beziehung
DE4132233C2 (de) Panzerabwehrraketensystem
DE4207251C2 (de) Feuerleitanlage für Panzer
EP0678755B1 (de) Einrichtung zur passiven Freund/Feind-Unterscheidung
EP1314950B1 (de) Verfahren und Vorrichtung zum Beurteilen der Richtfehler eines Waffensystems und Verwendung der Vorrichtung
EP0777100B1 (de) Flugkörper-Waffensystem
DE102017011407A1 (de) System und verfahren zur personenkoordinierten zielfindung eines lenkflugkörpers
DE3044348A1 (de) Automatisches luft-luft- oder luft-boden-feuer-leitsystem
DE2622809C2 (de) Anordnung zum Orten und Beschießen eines Zieles
EP3048410B1 (de) Suchkopf für einen lenkflugkörper
EP3367045A1 (de) Verfahren und vorrichtung zur verbesserung der präzision von feuerleitlösungen
EP2526367A1 (de) Flugkörper und verfahren zum erfassen eines ziels
DE102009010362A1 (de) Feuerleitung einer richtbaren Waffenanlage
DE4325589B4 (de) Zielsuchkopf für Lenkflugkörper oder Geschosse
DE102014001211A1 (de) Lenkflugkörper-System auf Klein-Helicopter

Legal Events

Date Code Title Description
8327 Change in the person/name/address of the patent owner

Owner name: SAGEM DEFENSE SECURITE, PARIS, FR

8364 No opposition during term of opposition