DE4218600C2 - Einrichtung zur Bestimmung von Bewegungsgrößen eines Flugkörpers - Google Patents

Einrichtung zur Bestimmung von Bewegungsgrößen eines Flugkörpers

Info

Publication number
DE4218600C2
DE4218600C2 DE4218600A DE4218600A DE4218600C2 DE 4218600 C2 DE4218600 C2 DE 4218600C2 DE 4218600 A DE4218600 A DE 4218600A DE 4218600 A DE4218600 A DE 4218600A DE 4218600 C2 DE4218600 C2 DE 4218600C2
Authority
DE
Germany
Prior art keywords
neural network
image
movement
vector
missile
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE4218600A
Other languages
English (en)
Other versions
DE4218600A1 (de
Inventor
Uwe Krogmann
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Diehl BGT Defence GmbH and Co KG
Original Assignee
Bodenseewerk Geratetechnik GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bodenseewerk Geratetechnik GmbH filed Critical Bodenseewerk Geratetechnik GmbH
Priority to DE4218600A priority Critical patent/DE4218600C2/de
Publication of DE4218600A1 publication Critical patent/DE4218600A1/de
Application granted granted Critical
Publication of DE4218600C2 publication Critical patent/DE4218600C2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G7/00Direction control systems for self-propelled missiles
    • F41G7/20Direction control systems for self-propelled missiles based on continuous observation of target position
    • F41G7/22Homing guidance systems
    • F41G7/2226Homing guidance systems comparing the observed data with stored target data, e.g. target configuration data
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G7/00Direction control systems for self-propelled missiles
    • F41G7/20Direction control systems for self-propelled missiles based on continuous observation of target position
    • F41G7/22Homing guidance systems
    • F41G7/2253Passive homing systems, i.e. comprising a receiver and do not requiring an active illumination of the target
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G7/00Direction control systems for self-propelled missiles
    • F41G7/20Direction control systems for self-propelled missiles based on continuous observation of target position
    • F41G7/22Homing guidance systems
    • F41G7/2273Homing guidance systems characterised by the type of waves
    • F41G7/2293Homing guidance systems characterised by the type of waves using electromagnetic waves other than radio waves
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/12Target-seeking control

Landscapes

  • Engineering & Computer Science (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Electromagnetism (AREA)
  • Image Analysis (AREA)

Description

Technisches Gebiet
Die Erfindung betrifft eine Einrichtung zur Bestimmung von Bewegungsgrößen eines Flugkörpers, der mit einem bilderfassenden Sensor versehen ist.
Zugrundeliegender Stand der Technik
Übliche Flugkörper enthalten ein Trägheitsreferenzsystem, welches die Eigenbewegungsgrößen des Flugkörpers wie Geschwindigkeit und Drehgeschwindigkeit unter Benutzung inertialer Sensoren wie Kreisel oder Beschleunigungsmesser liefert. Die so erhaltenen Eigenbewegungsgrößen werden benutzt, um die Flugbewegung des Flugkörpers mittels eines Flugreglers über Stellglieder wie Steuerflächen zu stabilisieren. Außerdem werden auf den Flugregler Lenkkommandos aufgeschaltet. Durch die Lenkkommandos wird eine gewünschte Bahn des Flugkörpers hervorgerufen.
Zielsuchende Flugkörper weisen außerdem einen Suchkopf auf. Ein solcher Suchkopf erfaßt und erkennt ein Ziel und erzeugt Lenkkommandos, welche den Flugkörper zu dem erfaßten Ziel führen. Bei modernen Flugkörpern enthält der Suchkopf einen bilderfassenden Sensor, also z. B. eine zweidimensionale Anordnung von Detektorelementen. Ein solcher Sensor gestattet eine Bildverarbeitung, um Ziele zu klassieren und zu erkennen. Auch der Sucher ist üblicherweise zur Stabilisierung der Sichtlinie kardanisch gelagert.
Die gesamte Anordnung ist sehr aufwendig. Die Anordnung enthält bewegliche Teile. An die Präzision der Lagerungen dieser beweglichen Teile werden hohe Anforderungen gestellt. Auch ist diese Anordnung empfindlich gegen hohe Beschleunigungen.
Offenbarung der Erfindung
Der Erfindung liegt die Aufgabe zugrunde, eine Anordnung der eingangs genannten Art zu vereinfachen. Insbesondere sollen bewegliche Teile vermieden werden.
Erfindungsgemäß wird diese Aufgabe dadurch gelöst, daß aus dem optischen Fluß der von dem Sensor erfaßten Bilder durch trainierte neuronale Netzmittel Daten erzeugbar sind, welche die Bewegungsgrößen des Flugkörpers wiedergeben.
Wenn ein bilderfassender Sensor sich relativ zu einem Gesichtsfeld bewegt, dann bewegen sich die Bildpunkte der einzelnen Gesichtsfeldpunkte relativ etwa zu einer zweidimensionalen Anordnung von Detektorelementen. Betrachtet man das erfaßte Bild zu zwei aufeinanderfolgenden Zeitpunkten, dann ist der Bildpunkt jedes Gesichtsfeldpunktes in dem zweiten Zeitpunkt um einen bestimmten Verschiebungsvektor gegenüber dem seinem Ort zum ersten Zeitpunkt verschoben. Die Verschiebungsvektoren bilden ein Vektorfeld. Dieses Vektorfeld hängt von der Bewegung des Sensors gegenüber dem Gesichtsfeld ab. Man bezeichnet dieses Vektorfeld als "optischen Fluß". Aus dem optischen Fluß kann daher auf die Bewegung des Sensors geschlossen werden. Wenn der Sensor starr mit dem Flugkörper verbunden ist, kann aus dem optischen Fluß auf die Bewegung des Flugkörpers geschlossen werden. Der Zusammenhang ist allerdings sehr kompliziert.
Nach der Erfindung sind neuronale Netzmittel vorgesehen. Auf diese neuronalen Netzmittel werden Bildinformationen aufgeschaltet. Die neuronalen Netzmittel werden so trainiert, daß sie bei bestimmten, bekannten Bewegungen des Sensors und einer entsprechenden zeitlichen Änderung der Intensitäten an den betrachteten Detektorelementen, die sich aus dem optischen Fluß ergeben, die zugehörigen Bewegungsgrößen liefern. So trainierte neuronale Netzmittel erkennen somit die Bewegungsgrößen des Sensors und damit des Flugkörpers aus den zeitlichen Änderungen der Bildelemente des Gesichtsfeldbildes. Die Zusammenhänge brauchen nicht analytisch dargestellt und gerechnet zu werden. Vielmehr werden diese Zusammenhänge von den neuronalen Netzmitteln empirisch "gelernt".
Ausgestaltungen der Erfindung sind Gegenstand der Unteransprüche.
Ein Ausführungsbeispiel der Erfindung ist nachstehend unter Bezugnahme auf die zugehörigen Zeichnungen näher erläutert.
Kurze Beschreibung der Zeichnungen
Fig. 1 ist eine schematisch-perspektivische Darstellung und veranschaulicht den Aufbau einer Sucher- und Flugregelanordnung bei einem zielsuchenden Flugkörper.
Fig. 2 ist eine schematisch-perspektivische Darstellung eines bilderfassenden Sensors mit einem von diesem beobachteten Gelände.
Fig. 3 ist eine schematisch-perspektivische Darstellung und veranschaulicht die verschiedenen Koordinatensysteme und Bezeichnungen für die Beschreibung des abbildenden, bilderfassenden Sensors.
Fig. 4 ist eine schematische Darstellung und zeigt die neuronalen Netze für die Bestimmung der Bewegungsgrößen aus Intensitätsmessungen an einzelnen Detektorelementen.
Fig. 5 zeigt schematisch ein rückgekoppeltes neuronales Netz zur Umsetzung eines Vektors von Intensitätsdaten in einen Vektor von Bewegungsparametern.
Fig. 6 zeigt ein Prozessor-Element bei dem neuronalen Netz von Fig. 5.
Fig. 7 zeigt ein "Backpropagation"-Netz zur Bestimmung der Bewegungsgrößen aus dem vorerwähnten Vektor der Bewegungsparameter.
Fig. 8 veranschaulicht die Wirkungsweise des Backpropagation- Netzes von Fig. 7.
Fig. 9 veranschaulicht die Lernphase des Backpropagation-Netzes zur Erzeugung der Bewegungsgrößen aus dem Vektor der Bewegungsparameter.
Fig. 10 zeigt das gesamte neuronale Stabilisierungs- und Zielsuchsystem des Flugkörpers, bei welchem die Bewegungsgrößen entsprechend Fig. 1 bis 9 bestimmt werden.
Fig. 11 zeigt als Blockschaltbild eine Abwandlung, bei welcher optimale Ausgangsdaten für die Navigation aus den neuronalen Netzen von Fig. 10 in Kombination mit einem Trägheitsnavigationssystem und einer Bildverarbeitung erhalten werden.
Fig. 12 zeigt als Blockschaltbild eine weitere Abwandlung, bei welcher eine Navigation kombiniert mit Bildverarbeitung und Trägheitsnavigation erfolgt.
Bevorzugte Ausführungen der Erfindung
In Fig. 1 ist mit 10 ein Flugkörper bezeichnet. In der Spitze des Flugkörpers 10 sitzt starr mit der Struktur des Flugkörpers 10 verbunden ein Sucher 12. Der Sucher 12 enthält einen abbildenden, bilderfassenden Sensor 14 mit einer Optik 16 und einem Detektorarray 18 mit einer zweidimensionalen Anordnung von Detektorelementen. Ein Gesichtsfeld wird durch die Optik 16 auf dem Detektorarray 18 abgebildet. Jedes Detektorelement des Detektorarrays 18 liefert dementsprechend ein Signal, das die auf dieses Detektorelement fallende Lichtintensität wiedergibt. Die Signale der Detektorelemente werden digitalisiert und beaufschlagen eine als neuronales Netz ausgebildete Bildverarbeitungs-Einrichtung 20. Daten von der Bildverarbeitungs-Einrichtung 20 sind auf verschiedene Signalverarbeitungs-Einrichtungen 22, 24 und 26 aufgeschaltet. Die Signalverarbeitungs-Einrichtungen 22, 24 und 26 liefern Daten für einen Lenkrechner 28. Der Lenkrechner 28 kann als neuronales Netz ausgebildet sein. Er kann aber auch ein Rechner sein, der programmiert ist und mit einem vorgegebenen Algorithmus arbeitet. Der Lenkrechner 28 liefert Lenkbefehle zur Ansteuerung von (nicht dargestellen) Stellgliedern. Die beschriebene Anordnung liefert, wie noch erklärt werden wird, sowohl Lage- und Geschwindigkeitssignale als auch Zielsignale für die Zielverfolgung. Die gesamte Anordnung enthält dabei jedoch keinerlei bewegliche Teile wie Kreisel oder Kardanrahmen.
Wie aus Fig. 2 ersichtlich ist, ist dem Sensor 14 ein Koordinatensystem mit den Achsen xs, ys und zs zugeordnet. Der Sensor beobachtet ein dreidimensional optisch strukturiertes Gesichtsfeld mit einem gesichtsfeldfesten Koordinatensystem xG, yG und zG. Ein Objekt P hat in dem gesichtsfeldfesten Koordinatensystem die angegebenen (G)-Koordinaten und in dem sensorfesten Koordinatensystem die (s)-Koordinaten. Wenn sich der Sensor 14 in dem gesichtsfeldfesten Koordinatensystem bewegt, dann ändern sich die (s)-Koordinaten des Objektes P als Funktion der Zeit. Der Sensor 14 erfaßt zwar immer noch das Objekt P. Der Sensor 14 "sieht" das Objekt P jedoch mit anderen (s)-Koordinaten. Betrachtet man das Objekt in den (s)- Koordinaten in zwei aufeinanderfolgenden, durch ein kurzes Zeitintervall getrennten Zeitpunkten, dann hat sich der Punkt P um einen Verschiebungsvektor in den (s)-Koordinaten verschoben. Das gilt auch für alle anderen Punkte des beobachteten Gesichtsfeldes. Jedem dieser Punkte ist ein Verschiebungsvektor im (s)-Koordinatensystem zugeordnet. Die Vektoren bilden ein Vektorfeld. Das Vektorfeld ist abhängig von den Bewegungsgrößen des Sensors 14 und des damit starr verbundenen Flugkörpers 10. Diese Bewegungsgrößen sind der Geschwindigkeitsvektor v und der Winkelgeschwindigkeitsvektor.
Quantitativ gilt für die Änderung der Koordinaten des Punktes P im sensorfesten Koordinatensystem
s = - v - ω × r s.
Dabei ist r der Ortsvektor des Punktes P im (s)- Koordinatensystem. Das Symbol "x" bezeichnet das Vektorprodukt. r s stellt das Vektorfeld dar.
Aus dem Vektorfeld kann daher auf die Bewegungsgrößen v und ω rückgeschlossen werden. Der Zusammenhang wird jedoch durch eine komplizierte, nichtlineare Gleichung beschrieben. Eine allgemeine, analytische Lösung dieser nichtlinearen Gleichung zur Gewinnung der Bewegungsgrößen v und l ist nicht bekannt.
Fig. 3 veranschaulicht die durch den Sensor 14 erfaßten Größen: Das Gesichtsfeld, das für den Sensor 14 praktisch im Unendlichen liegt, wird in einer Ebene 30 abgebildet. Die Ebene 30 ist die Brennebene der Optik 16 (Fig. 1). Der Koordinatenursprung des (s)-Koordinatensystems ist in den Mittelpunkt der Optik 16 gelegt. Die Ebene 30 hat von der Hauptebene der Optik 16 den Abstand f. f ist die Brennweite der Optik. Die Punkte des Gesichtsfeldes werden in der Ebene in Bildpunkten mit den Koordinaten yB und zB abgebildet. Diese Bildpunkte hängen mit den Koordinaten der Punkte des Gesichtsfeldes im (s)-Koordinatensystem nach bekannten Abbildungsgesetzen zusammen. Auch in dieser Bildebene, in welcher die Detektorelemente des Detektorarrays 18 angeordnet sind, ergibt sich ein (zweidimensionales) Vektorfeld, das die Bewegung der den verschiedenen Gesichtsfeldpunkten zugeordneten Bildpunkte infolge der Bewegung des Sensors 14 darstellt. Man bezeichnet dieses Vektorfeld als "optischen Fluß" in der Bildebene 30. Auch aus diesem optischen Fluß kann auf die Bewegungsgrößen v und ω geschlossen werden. Der Vektor v und die Komponenten p, q und r der Drehgeschwindigkeit des Sensors 14 in Richtung der Koordinatenachsen des (s)- Koordinatensystems sind in Fig. 3 dargestellt.
Der optische Fluß in der Bildebene, der durch die Bewegung des Flugkörpers hervorgerufen wird, führt zu Änderungen der Intensitäten des auf die verschiedenen Detektorelemente fallenden Lichtes. Bezeichnet man mit I(yB, zB, t) die Intensität, die an einem Detektorelement im Bildpunkt (yB, zB) zum Zeitpunkt t wirksam ist, dann gilt für die zeitliche Änderung der Intensität infolge der Bewegung des Flugkörpers 10 und damit des Sensors 14:
i T c + 1/f It.
Darin ist
i = g (Iy, Iz, yB, zB, f).
Das ist ein Vektor, der eine nichtlineare Funktion der Intensitätsgradienten Ix, Iz in der Umgebung des Bildpunktes (yB, zB) ist. It ist die zeitliche Änderung der in dem Bildpunkt auf das Detektorelement fallenden Intensität. Der Vektor c ist ein Parametervektor, dessen Elemente eine nichtlineare Funktion der Bewegungsgrößen v und l des Flugkörpers sind.
Es wird nun durch Messung der Zeitverläufe der Intensität an einer bestimmten Zahl von Detektorelementen der Vektor c der Bewegungsparameter ermittelt. Dieser Vektor c ist einerseits mit den durch die Bewegung des Flugkörpers 10 und Sensors 14 hervorgerufenen Änderungen der Intensitäten und andererseits mit den Bewegungsgrößen v und l des Flugkörpers 10 und Sensors 14 verknüpft. Dabei brauchen nicht notwendig alle verfügbaren Detektorelemente des Detektorarrays 18 für die Bestimmung des Vektors c herangezogen zu werden. Die Intensitäten die von den verwendeten Detektorelementen geliefert werden, werden zu einem Intensitätsvektor I zusammengefaßt.
Die neuronalen Netzmittel, die generell mit 32 bezeichnet sind, enthalten zwei neuronale Netze 34 und 36. Das neuronale Netz 34 erhält als Eingangsdaten Intensitäten von ausgewählten Detektorelementen des Detektorarrays 18, also den Intensitätsvektor I. Das neuronale Netz 34 ist so trainiert, daß es aus diesen Eingangsdaten den Vektor c erzeugt. Das neuronale Netz 36 erhält als Eingangsdaten den Vektor c der Bewegungsparameter von dem neuronalen Netz 34. Das neuronale Netz 36 ist so trainiert, daß es aus den Eingangsdaten die Bewegungsgrößen v und ω des Flugkörpers 10 und des damit starr verbundenen Sensors 14 erzeugt. Das ist in Fig. 4 dargestellt.
Die beiden neuronalen Netze 34 und 36 sind von unterschiedlichem Typ: Wegen der räumlichen und zeitlichen Abhängigkeit des Vektors c der Bewegungsparameter von dem Intensitätsvektor I wird zur Bestimmung des Vektors c der Bewegungsparameter aus den Intensitätsverläufen ein rückgekoppeltes Netz 34 verwendet. Ein solches Netz ist besonders für räumlich und zeitlich veränderbare Abbildungen geeignet. Zwischen den Bewegungsparametern des Vektors c und den Bewegungsgrößen v und ω des Flugkörpers 10 und des Sensors 14 besteht ein assoziativer Zusammenhang: Zu jedem Vektor c gehören bestimmte Werte von v und ω. Zur assoziativen Speicherung dieses Zusammenhanges ist ein mehrschichtiges Netz mit ausschließlich Vorwärtsverbindung vorgesehen, nämlich ein Netz vom Stimuli-Response-Typ.
Das erste Netz 34 hat die in Fig. 5 dargestellte Struktur. Auf das Netz 34 sind jeweils Folgen von T aufeinanderfolgenden Intensitätsvektoren I(1), I(2) . . . I(m) . . . I(T) aufgeschaltet. Das entspricht einem Zeitfenster. Diese Folge liefert die zeitliche Veränderung der Intensitäten. Jeder der Intensitätsvektoren I(n) hat als Komponenten N Intensitäten I1(n), . . . IN(n) die an N ausgewählten Detektorelementen zum Abtastzeitpunkt n auftreten. Jeder dieser Vektoren liefert daher die räumliche Verteilung der Intensität.
Das Netz enthält N Prozessorelemente PE1, PE2, . . . PEm . . . PEN. Ein solches Prozessorelement PEi ist in Fig. 6 dargestellt. Auf die Prozessorelemente PEi sind die Ausgänge aller Prozessorelemente PE einschließlich des eigenen Ausganges xi des betrachteten Prozessorelements PEi aufgeschaltet. Das Prozessorelement PEi bildet die gewichtete Summe aller so rückgeführten Eingänge die zu der auf das Prozessorelement PEi aufgeschalteten Intensität Ii addiert wird. Es ergibt sich ein Wert
Der Ausgang des Prozessorelements wird dann:
xi = f (zi).
Die Funktion f(zi) ist dabei eine bestimmte nichtlineare Funktion der "Aktivität" zi des Prozessorelements.
Zum Lernen der räumlich-zeitlich veränderlichen Abbildung zwischen den Intensitätsvektoren I und den Vektoren c der Bewegungsparameter werden dem Netz 34 in einer Trainingsphase paarweise Folgen von Eingangsvektoren und zugehörigen Ausgangsvektoren zugeführt. Für Abtastfenster mit Intensitätsvektoren I(1) . . I(T) werden die jeweils aktuellen Ausgangsvektoren c(1) . . . c(T) mit den zugehörigen Sollvektoren c*(1) . . . c*(T) verglichen. Die Gewichtsmatrix des Netzes wird dann wie folgt adaptiert:
mit
δ(K) = f′(Z(K)[WT δ(K+1) + HT(c*(K) - c(K))].
In der Gewichtsmatrix W sind die Verbindungsgewichte wÿ des Netzes zusammengefaßt. Es gilt:
Nach Durchführung der Trainingsphase sind die Verbindungsgewichte so gewählt, daß, wie in Fig. 5 dargestellt ist, für eine Folge von T N-dimensionalen Intensitätsvektoren als Eingangsvektoren des Netzes 34 die m Prozessorelemente PE1 bis PEm nacheinander die Komponenten der m-dimensionalen Vektoren c(1) bis c(T) der Bewegungsparameter liefern.
Zur Gewinnung der Bewegungsgrößen v und ω aus den Vektoren c der Bewegungsparameter dient ein Backpropagation-Netz 36, wie es in Fig. 7 dargestellt ist. Das Netz 36 besteht aus drei Schichten, nämlich einer Eingangsschicht 38, einer verborgenen Schicht 40 und einer Ausgangsschicht 42. Wie aus Fig. 7 ersichtlich ist, sind die Prozessorelemente 44, 46 und 48 der drei Schichten 38 bzw. 40 bzw. 42 vollständig vorwärts vernetzt. Die Prozessorelemente 44 der Eingangsschicht 38 enthalten keine nichtlineare Ausgangsfunktion f.
Fig. 8 veranschaulicht in einer vereinfachten Darstellung die Lernphase des Netzes 36. Der Lernvorgang erfolgt nach einem "Backpropagation"-Algorithmus. Auf das Netz 36 werden Eingangsvektoren c aufgeschaltet. Es werden die daraus erhaltenen Bewegungsgrößen v und ω mit Sollgrößen v* und ω* verglichen. Der Eingangsvektor ist durch Block 50 in Fig. 8 dargestellt. Der Ausgangsvektor ist durch Block 52 dargestellt. Der Sollvektor ist durch Block 54 dargestellt. Der Vergleich ist durch einen Summierpunkt 56 symbolisiert. Die Differenz von Ausgangsvektor und Sollvektor wird multipliziert mit einer Gewichtsmatrix d. Daraus ergeben sich Korrekturen Δ wÿ für die Verbindungsgewichte wÿ. Die Multiplikation mit der Gewichtsmatrix d ist in Fig. 8 durch einen Block 58 dargestellt. Die Korrektur der Verbindungsgewichte wÿ ist durch den Block 60 symbolisiert. Nach Durchführung der Trainingsphase sind die Verbindungsgewichte wÿ so eingestellt, daß das Netz 36 den Zusammenhang zwischen c und v bzw. ω abbildet, d. h. die Assoziationen speichert.
In Fig. 9 ist der Backpropagation-Algorithmus für den Lernvorgang eines dreischichtigen Netzes 36 im einzelnen dargestellt.
Ein bekannter Eingangsvektor u, der dem Vektor c entspricht, ist auf die Eingangsschicht geschaltet. Es werden die zj(1) gebildet, die hier direkt die Ausgangsgrößen xj(1) bilden. Aus den xj(1) der Prozessorelemente 62 der Eingangsschicht 38 wird von den Prozessorelementen 64 der verborgenen Schicht 40 mit Verbindungsgewichten wÿ(1) die zi(2) dieser verborgenen Schicht gebildet. Aus den so gebildeten zi(2) ergeben sich die Ausgangsgrößen xi(2) der Prozessorelemente 64 nach einer nichtlinearen Funktion fi zu
fi(zi(2)) = xi(2).
Wie an dem j-ten Prozessorelement 64 der verborgenen Schicht 40 und dem i-ten Prozessorelement 66 der Ausgangsschicht 42 dargestellt ist, bildet jedes Prozessorelement 66 aus den Ausgangsgrößen der Prozessorelemente 64 mit Verbindungsgewichten wÿ(2) die zi(3). Das Prozessorelement 66 liefert dann eine Ausgangsgröße xi(3) wieder nach einer nichtlinearen Funktion der zi(3). Es ist
fi(zi(3)) = xi(3).
Die so erhaltenen xi(3), die man zu einem Ausgangsvektor y zusammenfassen kann, sollten bei richtiger Wahl der Verbindungsgewichte den Bewegungsgrößen entsprechen, die dem als Eingangsvektor u eingegebenen Vektor von Bewegungsparametern zugeordnet sind. Das wird zunächst nicht der Fall sein. Die Komponenten des Sollvektors werden mit den sich tatsächlich ergebenden Komponenten des Ausgangsvektors verglichen. Das ist für die Ausgangsgröße des betrachteten i- ten Prozessorelements 66 durch einen Summierpunkt 68 in Fig. 9 dargestellt.
Die erhaltene Differenz wird multipliziert mit fi′(zi(3)). Das ist durch Block 70 in Fig. 9 dargestellt. Aus dieser Multiplikation ergibt sich eine Größe δi(3). Diese Größe δi(3) wird mit der Ausgangsgröße xj(2) des j-ten Prozessorelements 64 der verborgenen Schicht 40 multipliziert. Das ist durch das abgerundete Rechteck 72 in Fig. 9 dargestellt. Das so erhaltene Produkt wird mit einem Faktor µ, dargestellt durch Block 74 multipliziert und liefert einen Korrekturwert Δ wÿ für das Verbindungsgewicht wÿ zwischen dem j-ten Prozessorelement 64 der verborgenen Schicht 40 und dem i-ten Prozessorelement 66 der Ausgangsschicht 42.
Die Korrektur des Verbindungsgewichtes ist hier der Übersichtlichkeit halber nur für ein Paar von Prozessorelementen 64 und 66 dargestellt und beschrieben. Tatsächlich werden die in gleicher Weise die Verbindungsgewichte für alle möglichen Kombinationen von Prozessorelementen 64 und 66 korrigiert. i und j sind hier beliebige ganze Zahlen. Die z werden, ähnlich wie es oben im Zusammenhang mit dem Netz 34 beschrieben wurde, als gewichtete Summen der Ausgangsgrößen der Prozessorelemente in der vorhergehenden Schicht gebildet.
In ähnlicher Weise werden die Verbindungsgewichte wÿ(1) zwischen der Eingangsschicht 38 und der verborgenen Schicht 40 korrigiert. Es werden Größen δi(2) gebildet nach der Beziehung
Das ist in Fig. 9 durch einen Block 76 dargestellt. Die so gebildete Größe δi wird multipliziert mit der Ausgangsgröße xj(1) des j-ten Prozessorelements 62 der Eingangsschicht 38. Das ist in Fig. 9 durch das abgerundete Rechteck 78 dargestellt. Das Produkt wird multipliziert mit einem Faktor µ, wie durch das Rechteck 80 in Fig. 9 dargestellt ist. Das ergibt eine Korrekturgröße Δwÿ(1) für das Verbindungsgewicht wÿ(1) zwischen dem j-ten Prozessorelement 62 der Eingangsschicht 38 und dem i-ten Prozessorelement 64 der verborgenen Schicht 40. Auch hier werden in gleicher Weise alle Verbindungsgewichte wÿ(1) zwischen den verschiedenen Kombinationen der Prozessorelemente 62 der Eingangsschicht 38 und den Prozessorelementen 64 der verborgenen Schicht korrigiert. i und j sind beliebige ganze Zahlen. Es ist der Übersichtlichkeit halber nur ein Paar von Prozessorelementen 62 und 64 dargestellt. Die zi(2) sind wieder gewichtete Summen aller xj(1).
Fig. 10 zeigt ein mit neuronalen Netzen aufgebautes Führungs- und Lenksystem für einen Flugkörper.
Ein Flugregelkreis enthält den Sensor 14 und die beiden oben beschriebenen neuronalen Netze 34 und 36. Die von dem neuronalen Netz 36 gelieferten Bewegungsgrößen v und ω sind auf ein weiteres neuronales Netz 82 geschaltet. Das neuronale Netz 82 ist ein Netz vom Hopfield-Typ. Das neuronale Netz 82 ist ein Optimierer. Das neuronale Netz 82 ermittelt jeweils das optimale Stellsignal, derart, daß die Differenz zwischen tatsächlichem und gewünschtem Bewegungszustand möglichst klein wird. Diese Stellsignale sind auf eine Lenkvorrichtung 84 aufgeschaltet, die einmal die Stellsignale von dem Flugregelkreis erhält, durch welche der Flugkörper 10 stabilisiert wird, und zum anderen Lenkkommandos aus dem Führungskreis, durch welche der Flugkörper 10 zu einem Ziel geführt wird. Die Lenkvorrichtung 84 wirkt auf die Dynamik und Kinematik des Flugkörpers, die in Fig. 10 durch einen Block 86 symbolisiert ist.
Von dem Sensor 14 werden weiter Bildinformationen abgenommen, die einer Einrichtung zur Merkmalserkennung 88 zugeführt werden. Der so erhaltene Merkmalsvektor wird auf ein neuronales Netz 90 aufgeschaltet. Das neuronale Netz 90 ist ein rekursives Netz. Das neuronale Netz 90 bewirkt eine Klassierung erfaßter Objekte und erzeugt Zielverfolgungs- Signale, durch welche der Flugkörper zu bestimmten, erkannten Zielen geführt wird. Die Zielverfolgungssignale sind auf die Lenkvorrichtung 84 aufgeschaltet.
Bei der Ausführung nach Fig. 11 ist zusätzlich zu dem bilderfassenden Sensor 14 und den neuronalen Netzen ein Trägheitsnavigationssystem 92 vorgesehen. Die von dem Trägheitsnavigationssystem gelieferten Bewegungsgrößen, nämlich Drehgeschwindigkeit, Beschleunigung und Kurs- und Lagewinkel sind zusätzlich auf die neuronalen Netze 34 und 36 aufgeschaltet. Das ist in Fig. 11 durch Pfeile 94 und 96 dargestellt. Diese "Aufschaltung" erfolgt in der Weise, daß Gewichte in den neuronalen Netzen 34 und 36 im Sinne einer "Vorkenntnis" verändert werden. Die von dem neuronalen Netz 36 auf diese Weise aus dem vom Sensor 14 erfaßten Bild und von dem Trägheitsnavigationssystem erhaltenen Bewegungsgrößen beaufschlagen einen Prozessor 98, der optimale Schätzwerte für die Bewegungsgrößen liefert. Der Prozessor 98 ist auch von den Meßwerten der Bewegungsgrößen beaufschlagt, die von dem Trägheitsnavigationssystem 92 geliefert werden. Das ist in Fig. 11 durch einen Pfeil 100 dargestellt. Der Prozessor 98 beinhaltet ein sog. erweitertes ("extended") Kalman-Filter. Das erweiterte Kalman-Filter wirkt als optimaler Bewegungszustands-Schätzer. Es vergleicht die Bewegungsgrößen- Informationen von dem Sensor 14 mit der Bewegunsgrößen- Information von dem Trägheitsnavigationssystem 92. Die von dem Prozessor 98 gelieferten Bewegungsgrößen sind optimale Schätzwerte die sich aus den optisch gewonnenen Bewegungsgrößen und den Bewegungsgrößen des Trägheitsnavigationssystems ergeben. Außer den optimalen Schätzwerten der Bewegungsgrößen liefert der Prozessor 98 auch Schätzwerte für die Fehler des Trägheitsnavigationssystems 92. Diese Schätzwerte der Fehler, z. B. der Kreiseldrift, sind wiederum auf das Trägheitsnavigationssystem 92 aufgeschaltet und werden von diesem berücksichtigt. Das ist durch einen Pfeil 102 dargestellt.
Die Bestimmung der Bewegungsgrößen aus der Bildinformation des bilderfassenden Sensors 14 und die Bestimmung der Bewegungsgrößen mittels des Trägheitsnavigationssystems stellen zwei einander vorteilhaft ergänzende Meßvorgänge dar:
Die Bewegungsgrößen-Information von den Trägheitssensoren des Trägheitsnavigationssystems verbessert die Funktion der neuronalen Netze. Insbesondere werden die Bewegungsgrößen auch bei Wegfall der Bildinformation etwa durch Wolken oder ein kontrastloses Bildfeld weiter gemessen.
Die Bestimmung der Bewegungsgrößen aus der Bildinformation gestattet es, mit Hilfe des erweiterten Kalman-Filters 98 Schätzwerte für die Fehler des Trägheitsnavigationssystems 92 zu gewinnen. Durch Kompensation dieser Fehler kann die Genauigkeit des Trägheitsnavigationssystems 92 verbessert werden. Es wird dadurch möglich, ein relativ einfaches und kostengünstiges Trägheitsnavigationssystem zu verwenden.
Bei der Ausführung von Fig. 12 ist der Ausgang des neuronalen Netzes 36 auf einen Navigations-Prozessor 104 aufgeschaltet. Die neuronalen Netze 34 und 36 sind ähnlich wie in Fig. 11 auch von den Bewegungsgrößen beaufschlagt, die von dem Trägheitsnavigationssystem geliefert werden.
Bei der Ausführung von Fig. 12 beaufschlagen die Bewegungsgrößen, die von dem Trägheitsnavigationssystem geliefert werden, außerdem eine Datenbank 106. Das ist durch Pfeil 108 dargestellt. Die Datenbank 106 speichert Informationen über das überflogene Gelände etwa nach Art einer Landkarte. Der Datenbank 106 kann etwa entnommen werden, daß bei bestimmten, dem Trägheitsnavigationssystem 92 entnommenen Werten von Kurs, Lage und Position eine Straßenkreuzung oder sonstige Landmarke unter bestimmten Sichtwinkeln erscheinen müßte. Die Datenbank-Informationen sind auf den Navigations- Prozessor 104 aufgeschaltet. Das ist durch einen Pfeil 110 dargestellt.
Der bilderfassende Sensor 14 liefert Daten an eine Einrichtung 112 zur Bildvorverarbeitung. Das ist durch Pfeil 114 dargestellt. Durch die Einrichtung 112 werden bestimmte Merkmale des Bildes erkannt, beispielsweise Kanten. Die so verarbeiteten Bilddaten beaufschlagen ein neuronales Netz 116, welches darauf trainiert ist, aus solchen Merkmalen Navigations-Merkmale zu extrahieren, z. B. Linienorientierung und Linienschnittpunkte. Das ist durch einen Pfeil 118 dargestellt. Das neuronale Netz 116 ist ein selbstorganisierendes neuronales Netz, das als "Merkmalskarte" oder als sog. "Adaptive Resonator Theory Network" realisiert werden kann. Die so erhaltenen Navigationsmerkmale sind ebenfalls auf den Navigations-Prozessor 104 aufgeschaltet. Das ist durch Pfeil 120 dargestellt.
Der Navigations-Prozessor 104 vergleicht die Koordinaten eines bestimmten Navigationsmerkmals, das von der Bildverarbeitung erfaßt wird, mit den Koordinaten dieses Navigationsmerkmals, die sich aus der Datenbank 106 und den Kurs-, Lage- und Positionsdaten des Trägheitsnavigationssystems ergeben. Aus der Differenz können mit Hilfe eines Kalman-Filters einmal optimale Navigationsdaten erhalten werden. Das ist durch Pfeil 122 dargestellt. Zum anderen können aus dem Kalman-Filter Schätzwerte für die Fehler des Trägheitsnavigationssystems 92 gewonnen werden. Diese Schätzwerte der Fehler sind auf das Trägheitsnavigationssystem 92 zurückgeführt. Das ist in Fig. 12 durch die Verbindung 124 dargestellt.
Der Navigations-Prozessor 104 benutzt dabei nicht nur die Positions-Informationen sondern auch die Bewegungsgrößen wie Drehgeschwindigkeit und Geschwindigkeit, für die Meßwerte von dem neuronalen Netz 36 geliefert werden. Diese Stützinformation ist für die Funktion des Optimalfilters (Kalman-Filters) besonders wirksam, da sie bezüglich der Informationsverarbeitungs-Kette eines Trägheitsnavigationssystems sensornäher ist als die Positions- Information.

Claims (15)

1. Einrichtung zur Bestimmung von Bewegungsgrößen eines Flugkörpers (10), der mit einem bilderfassenden Sensor (14) versehen ist, dadurch gekennzeichnet, daß aus dem optischen Fluß der von dem Sensor (14) erfaßten Bilder durch trainierte neuronale Netzmittel (34, 36) Daten erzeugbar sind, welche die Bewegungsgrößen des Flugkörpers (10) wiedergeben.
2. Einrichtung nach Anspruch 1, dadurch gekennzeichnet, daß der bilderfassende Sensor (14) flugkörperfest angeordnet ist.
3. Einrichtung nach Anspruch 1 oder 2, dadurch gekennzeichnet, daß
  • (a) die neuronalen Netzmittel ein rückgekoppeltes neuronales Netzwerk (34) enthalten, auf welches ein Vektor (I) mit Intensitätsdaten einer Mehrzahl von Bildelementen des Sensors (14) aufgeschaltet ist und welches einen Vektor (c) von Bewegungsparametern liefert, dessen Elemente eine Funktion der Bewegungsgrößen (v, ω) des Flugkörpers (10) sind, und
  • (b) die neuronalen Netzmittel weiterhin ein assoziatives, neuronales Netzwerk (36) enthalten, auf welches die Elemente des Vektors (c) der Bewegungsparameter aufgeschaltet sind und welches zur Erzeugung von Daten trainiert ist, die den Bewegungsgrößen des Flugkörpers (10) entsprechen.
4. Einrichtung nach Anspruch 3, dadurch gekennzeichnet, daß das assoziative, neuronale Netzwerk (36) ein mehrschichtiges Feedforward-Netzwerk ist.
5. Einrichtung nach Anspruch 4, dadurch gekennzeichnet, daß das assoziative, neuronale Netzwerk (36) ein Netzwerk vom Stimuli-Response-Typ ist.
6. Einrichtung nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, daß aus den die Bewegungsgrößen darstellenden Daten Regelsignale zur Flugregelung erzeugbar und in einem Regelkreis auf Flugregelungs-Stellglieder aufgeschaltet sind.
7. Einrichtung nach Anspruch 6, dadurch gekennzeichnet, daß die die Bewegungsgrößen darstellenden Daten auf ein neuronales Netzwerk (82) aufgeschaltet sind, welches zur Erzeugung optimierter Stellsignale trainiert ist.
8. Einrichtung nach Anspruch 7, dadurch gekennzeichnet, daß das neuronale Netz zur Erzeugung der Stellsignale ein neuronales Netz vom Hopfield-Typ ist.
9. Einrichtung nach einem der Ansprüche 6 bis 8, dadurch gekennzeichnet, daß die Bildinformation des gleichen bilderfassenden Sensors (14) gleichzeitig auf merkmalserkennende Mittel (88) zur Zielerkennung aufschaltbar ist, die einen Merkmalsvektor liefern, und daß der Merkmalsvektor auf ein rekursives, neuronales Netzwerk (90) aufgeschaltet ist, das zur Klassierung von Zielobjekten und zur Erzeugung von Zielverfolgungssignalen trainiert ist, wobei das rekursive neuronale Netzwerk (90) Stellgrößen in einer Lenkschleife auf die Flugregelungs-Stellglieder aufschaltet.
10. Einrichtung nach einem der Ansprüche 1 bis 8, dadurch gekennzeichnet, daß zusätzlich zu dem bilderfassenden Sensor (14) und den neuronalen Netzmitteln (34, 36) ein Trägheitsnavigationssystem vorgesehen ist.
11. Einrichtung nach Anspruch 10, dadurch gekennzeichnet, daß ein Optimalfilter (98,104) aus Daten der neuronalen Netzmittel (34, 36) und des Trägheitsnavigationssystems (92) Schätzwerte für die Fehler des Trägheitsnavigationssystems (92) bildet, mittels derer diese Fehler bei der Signalverarbeitung kompensiert werden.
12. Einrichtung nach Anspruch 11, dadurch gekennzeichnet, daß die von den neuronalen Netzmitteln (34, 36) gelieferten Werte der Bewegungsgrößen zusammen mit den von dem Trägheitsnavigationssystem (92) gelieferten Werten der Bewegungsgrößen unmittelbar auf das Optimalfilter (98) aufgeschaltet sind.
13. Einrichtung nach einem der Ansprüche 10 bis 12, dadurch gekennzeichnet, daß die von dem Trägheitsnavigationssystem (92) gelieferten Werte von Bewegungsgrößen zusätzlich auf die neuronalen Netzmittel (34, 36) im Sinne einer "Vorkenntnis" aufgeschaltet sind.
14. Einrichtung nach Anspruch 11, dadurch gekennzeichnet, daß
  • (a) die Bilddaten des bilderfassenden Sensors (14) zusätzlich auf Bildverarbeitungsmittel (112, 116) aufgeschaltet sind, durch welche aus den Bilddaten Navigationsmerkmale extrahiert werden,
  • (b) eine Datenbank (106) vorgesehen ist, in welcher Geländeinformationen gespeichert sind,
  • (c) die Datenbank (106) von den durch das Trägheitsnavigationssystem gelieferten Kurs-, Lage- und Positionswerten beaufschlagt ist und
  • (d) ein das Optimalfilter umfassender Navigations-Prozessor (104) aus den Positionen der Navigationsmerkmale, wie sie von den Bildverarbeitungsmitteln (112, 116) geliefert werden, und den Positionen der Navigationsmerkmale, wie sie sich nach dem Trägheitsnavigationssystem ergeben, optimale Navigationsdaten erzeugt.
15. Einrichtung nach Anspruch 14, dadurch gekennzeichnet, daß die Bildverarbeitungsmittel eine Einrichtung (112) zur Bildvorverarbeitung und ein neuronales Netz (116) zur Extraktion von Navigationsmerkmalen enthalten.
DE4218600A 1992-06-05 1992-06-05 Einrichtung zur Bestimmung von Bewegungsgrößen eines Flugkörpers Expired - Fee Related DE4218600C2 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE4218600A DE4218600C2 (de) 1992-06-05 1992-06-05 Einrichtung zur Bestimmung von Bewegungsgrößen eines Flugkörpers

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE4218600A DE4218600C2 (de) 1992-06-05 1992-06-05 Einrichtung zur Bestimmung von Bewegungsgrößen eines Flugkörpers

Publications (2)

Publication Number Publication Date
DE4218600A1 DE4218600A1 (de) 1993-12-09
DE4218600C2 true DE4218600C2 (de) 1994-09-22

Family

ID=6460486

Family Applications (1)

Application Number Title Priority Date Filing Date
DE4218600A Expired - Fee Related DE4218600C2 (de) 1992-06-05 1992-06-05 Einrichtung zur Bestimmung von Bewegungsgrößen eines Flugkörpers

Country Status (1)

Country Link
DE (1) DE4218600C2 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10001519A1 (de) 2000-01-15 2017-11-02 LFK Lenkflugkörpersysteme GmbH Einrichtung zur Lenkung eines rollenden Flugkörpers

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6473747B1 (en) 1998-01-09 2002-10-29 Raytheon Company Neural network trajectory command controller
DE19832612A1 (de) * 1998-07-21 2000-01-27 Bodenseewerk Geraetetech Verfahren zum Trainieren eines neuronalen Netzes für die Lenkung eines Flugkörpers zu einem Ziel
GB9827358D0 (en) * 1998-12-12 2000-01-19 British Aerospace Combat aid system
DE19857895A1 (de) * 1998-12-15 2000-06-21 Bodenseewerk Geraetetech Lenk-, Navigations- und Regelsystem für Flugkörper
DE10033368A1 (de) * 2000-07-08 2002-01-17 Bodenseewerk Geraetetech Lenkstruktur für Flugkörper
DE10112692A1 (de) * 2001-03-16 2002-09-19 Bodenseewerk Geraetetech Lenkstruktur für Flugkörper
DE10158666A1 (de) * 2001-11-28 2003-06-18 Lfk Gmbh Vorrichtung und Verfahren zur autarken Zielführung eines Flugkörpers mit Hilfe außerhalb des Zielpunktes liegender Orientierungsmerkmale
IL227982B (en) 2013-08-15 2018-11-29 Rafael Advanced Defense Systems Ltd A missile system with navigation capability based on image processing
EP3528172B1 (de) * 2018-02-19 2023-12-27 Braun GmbH System zur klassifizierung der verwendung einer tragbaren verbrauchervorrichtung
CN113916254A (zh) * 2021-07-22 2022-01-11 北京控制工程研究所 一种停靠式抓捕的航天器自主交会对接试验方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE2855951A1 (de) * 1978-12-23 1980-07-10 Messerschmitt Boelkow Blohm Verfahren zur navigatorischen lenkung von flugkoerpern
DE3631944A1 (de) * 1986-09-19 1988-04-07 Messerschmitt Boelkow Blohm Einrichtung zur auswertung eines bildes zum zwecke der zielerkennung

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10001519A1 (de) 2000-01-15 2017-11-02 LFK Lenkflugkörpersysteme GmbH Einrichtung zur Lenkung eines rollenden Flugkörpers

Also Published As

Publication number Publication date
DE4218600A1 (de) 1993-12-09

Similar Documents

Publication Publication Date Title
DE3937427A1 (de) Bildverarbeitungsgeraet
EP1079198B1 (de) Verfahren zur Bestimmung der Relativbewegung zwischen Flugkörper und Ziel
EP1531343B1 (de) Verfahren zur Verfolgung von Objekten
DE4218600C2 (de) Einrichtung zur Bestimmung von Bewegungsgrößen eines Flugkörpers
DE3436839C2 (de) Lenkprozessor
DE102007054950B4 (de) Verfahren zur Stützung der selbsttätigen Navigation eines niedrig fliegenden Flugkörpers
DE19950247A1 (de) Regelungsanordnung und Regelungsverfahren für Sstelliten
DE4416557A1 (de) Verfahren und Vorrichtung zur Stützung der Trägheitsnavigation eines ein entferntes Ziel autonom ansteuernden Flugkörpers
DE69823167T2 (de) Vorrichtung zum bestimmen der richtung eines zieles in einer vorbestimmten indexmarkierung
DE19645556A1 (de) Vorrichtung zur Erzeugung von Lenksignalen für zielverfolgende Flugkörper
DE69931216T2 (de) Flugbahnbefehlssteuerung mit neuronalem netzwerk
DE3626030C2 (de) Verfahren und Vorrichtung zur Entdeckung einer bevorstehenden Sichtverbindungsunterbrechung zwischen einem Flugzeug und einem Ziel, insbesondere in einem Laser-Feuerleitsystem
EP2719990B1 (de) Vorrichtung zur optischen Zieleinweisung und Lenkung eines Flugkörpers
DE2932468C1 (de) Suchkopf
EP0653600B2 (de) Verfahren zur Bestimmung der Sichtliniendrehraten mit einem starren Suchkopf
DE69730278T2 (de) Passive Entfernungsabschätzung unter Verwendung von Bildgrösseabmessungen
DE19543048A1 (de) Vorrichtung zur Erzeugung von Lenksignalen für zielverfolgenden Flugkörper
EP3922526B1 (de) Bestimmung eines rollwinkels oder eines nickwinkels eines fortbewegungsmittels
DE19857895A1 (de) Lenk-, Navigations- und Regelsystem für Flugkörper
DE4223531C2 (de) Einrichtung zur Führung eines aus einem Werfer abgeschossenen, angetriebenen Flugkörpers
DE3835883A1 (de) Verfahren zur zielerkennung fuer flugkoerper
EP1174675A1 (de) Lenkstruktur für Flugkörper
EP3882569B1 (de) Verfahren zur ermittlung eines zielobjekts, elektro-optisches sensorsystem, verfahren zur navigation eines lenkflugkörpers und lenkflugkörper
DE19654924A1 (de) Verfahren zur Waffenlenkung durch Zielzustandsabschätzung
DE4327186C2 (de) Einrichtung zur Endphasenlenkung rohrverschossener Munition

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
D2 Grant after examination
8364 No opposition during term of opposition
8327 Change in the person/name/address of the patent owner

Owner name: DIEHL BGT DEFENCE GMBH & CO. KG, 88662 UBERLINGEN,

8339 Ceased/non-payment of the annual fee