DE4218600C2 - Einrichtung zur Bestimmung von Bewegungsgrößen eines Flugkörpers - Google Patents
Einrichtung zur Bestimmung von Bewegungsgrößen eines FlugkörpersInfo
- Publication number
- DE4218600C2 DE4218600C2 DE4218600A DE4218600A DE4218600C2 DE 4218600 C2 DE4218600 C2 DE 4218600C2 DE 4218600 A DE4218600 A DE 4218600A DE 4218600 A DE4218600 A DE 4218600A DE 4218600 C2 DE4218600 C2 DE 4218600C2
- Authority
- DE
- Germany
- Prior art keywords
- neural network
- image
- movement
- vector
- missile
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 239000013598 vector Substances 0.000 claims description 71
- 238000013528 artificial neural network Methods 0.000 claims description 58
- 238000012545 processing Methods 0.000 claims description 12
- 230000003287 optical effect Effects 0.000 claims description 9
- RZVHIXYEVGDQDX-UHFFFAOYSA-N 9,10-anthraquinone Chemical compound C1=CC=C2C(=O)C3=CC=CC=C3C(=O)C2=C1 RZVHIXYEVGDQDX-UHFFFAOYSA-N 0.000 claims description 6
- 238000003384 imaging method Methods 0.000 claims description 5
- 238000007781 pre-processing Methods 0.000 claims description 2
- 230000004044 response Effects 0.000 claims description 2
- 230000000007 visual effect Effects 0.000 description 9
- 230000008859 change Effects 0.000 description 5
- 238000012937 correction Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 238000012886 linear function Methods 0.000 description 5
- 230000002123 temporal effect Effects 0.000 description 5
- 238000006073 displacement reaction Methods 0.000 description 4
- 239000011159 matrix material Substances 0.000 description 4
- 238000000034 method Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 239000003795 chemical substances by application Substances 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000006641 stabilisation Effects 0.000 description 1
- 238000011105 stabilization Methods 0.000 description 1
- 230000008685 targeting Effects 0.000 description 1
Classifications
-
- F—MECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
- F41—WEAPONS
- F41G—WEAPON SIGHTS; AIMING
- F41G7/00—Direction control systems for self-propelled missiles
- F41G7/20—Direction control systems for self-propelled missiles based on continuous observation of target position
- F41G7/22—Homing guidance systems
- F41G7/2226—Homing guidance systems comparing the observed data with stored target data, e.g. target configuration data
-
- F—MECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
- F41—WEAPONS
- F41G—WEAPON SIGHTS; AIMING
- F41G7/00—Direction control systems for self-propelled missiles
- F41G7/20—Direction control systems for self-propelled missiles based on continuous observation of target position
- F41G7/22—Homing guidance systems
- F41G7/2253—Passive homing systems, i.e. comprising a receiver and do not requiring an active illumination of the target
-
- F—MECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
- F41—WEAPONS
- F41G—WEAPON SIGHTS; AIMING
- F41G7/00—Direction control systems for self-propelled missiles
- F41G7/20—Direction control systems for self-propelled missiles based on continuous observation of target position
- F41G7/22—Homing guidance systems
- F41G7/2273—Homing guidance systems characterised by the type of waves
- F41G7/2293—Homing guidance systems characterised by the type of waves using electromagnetic waves other than radio waves
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/12—Target-seeking control
Landscapes
- Engineering & Computer Science (AREA)
- Chemical & Material Sciences (AREA)
- Combustion & Propulsion (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Electromagnetism (AREA)
- Image Analysis (AREA)
Description
Die Erfindung betrifft eine Einrichtung zur Bestimmung von
Bewegungsgrößen eines Flugkörpers, der mit einem
bilderfassenden Sensor versehen ist.
Übliche Flugkörper enthalten ein Trägheitsreferenzsystem,
welches die Eigenbewegungsgrößen des Flugkörpers wie
Geschwindigkeit und Drehgeschwindigkeit unter Benutzung
inertialer Sensoren wie Kreisel oder Beschleunigungsmesser
liefert. Die so erhaltenen Eigenbewegungsgrößen werden
benutzt, um die Flugbewegung des Flugkörpers mittels eines
Flugreglers über Stellglieder wie Steuerflächen zu
stabilisieren. Außerdem werden auf den Flugregler
Lenkkommandos aufgeschaltet. Durch die Lenkkommandos wird eine
gewünschte Bahn des Flugkörpers hervorgerufen.
Zielsuchende Flugkörper weisen außerdem einen Suchkopf auf.
Ein solcher Suchkopf erfaßt und erkennt ein Ziel und erzeugt
Lenkkommandos, welche den Flugkörper zu dem erfaßten Ziel
führen. Bei modernen Flugkörpern enthält der Suchkopf einen
bilderfassenden Sensor, also z. B. eine zweidimensionale
Anordnung von Detektorelementen. Ein solcher Sensor gestattet
eine Bildverarbeitung, um Ziele zu klassieren und zu erkennen.
Auch der Sucher ist üblicherweise zur Stabilisierung der
Sichtlinie kardanisch gelagert.
Die gesamte Anordnung ist sehr aufwendig. Die Anordnung
enthält bewegliche Teile. An die Präzision der Lagerungen
dieser beweglichen Teile werden hohe Anforderungen gestellt.
Auch ist diese Anordnung empfindlich gegen hohe
Beschleunigungen.
Der Erfindung liegt die Aufgabe zugrunde, eine Anordnung der
eingangs genannten Art zu vereinfachen. Insbesondere sollen
bewegliche Teile vermieden werden.
Erfindungsgemäß wird diese Aufgabe dadurch gelöst, daß aus dem
optischen Fluß der von dem Sensor erfaßten Bilder durch
trainierte neuronale Netzmittel Daten erzeugbar sind, welche
die Bewegungsgrößen des Flugkörpers wiedergeben.
Wenn ein bilderfassender Sensor sich relativ zu einem
Gesichtsfeld bewegt, dann bewegen sich die Bildpunkte der
einzelnen Gesichtsfeldpunkte relativ etwa zu einer
zweidimensionalen Anordnung von Detektorelementen. Betrachtet
man das erfaßte Bild zu zwei aufeinanderfolgenden Zeitpunkten,
dann ist der Bildpunkt jedes Gesichtsfeldpunktes in dem
zweiten Zeitpunkt um einen bestimmten Verschiebungsvektor
gegenüber dem seinem Ort zum ersten Zeitpunkt verschoben. Die
Verschiebungsvektoren bilden ein Vektorfeld. Dieses Vektorfeld
hängt von der Bewegung des Sensors gegenüber dem Gesichtsfeld
ab. Man bezeichnet dieses Vektorfeld als "optischen Fluß". Aus
dem optischen Fluß kann daher auf die Bewegung des Sensors
geschlossen werden. Wenn der Sensor starr mit dem Flugkörper
verbunden ist, kann aus dem optischen Fluß auf die Bewegung
des Flugkörpers geschlossen werden. Der Zusammenhang ist
allerdings sehr kompliziert.
Nach der Erfindung sind neuronale Netzmittel vorgesehen. Auf
diese neuronalen Netzmittel werden Bildinformationen
aufgeschaltet. Die neuronalen Netzmittel werden so trainiert,
daß sie bei bestimmten, bekannten Bewegungen des Sensors und
einer entsprechenden zeitlichen Änderung der Intensitäten an
den betrachteten Detektorelementen, die sich aus dem optischen
Fluß ergeben, die zugehörigen Bewegungsgrößen liefern. So
trainierte neuronale Netzmittel erkennen somit die
Bewegungsgrößen des Sensors und damit des Flugkörpers aus den
zeitlichen Änderungen der Bildelemente des Gesichtsfeldbildes.
Die Zusammenhänge brauchen nicht analytisch dargestellt und
gerechnet zu werden. Vielmehr werden diese Zusammenhänge von
den neuronalen Netzmitteln empirisch "gelernt".
Ausgestaltungen der Erfindung sind Gegenstand der
Unteransprüche.
Ein Ausführungsbeispiel der Erfindung ist nachstehend unter
Bezugnahme auf die zugehörigen Zeichnungen näher erläutert.
Fig. 1 ist eine schematisch-perspektivische Darstellung und
veranschaulicht den Aufbau einer Sucher- und
Flugregelanordnung bei einem zielsuchenden Flugkörper.
Fig. 2 ist eine schematisch-perspektivische Darstellung eines
bilderfassenden Sensors mit einem von diesem beobachteten
Gelände.
Fig. 3 ist eine schematisch-perspektivische Darstellung und
veranschaulicht die verschiedenen Koordinatensysteme und
Bezeichnungen für die Beschreibung des abbildenden,
bilderfassenden Sensors.
Fig. 4 ist eine schematische Darstellung und zeigt die
neuronalen Netze für die Bestimmung der Bewegungsgrößen aus
Intensitätsmessungen an einzelnen Detektorelementen.
Fig. 5 zeigt schematisch ein rückgekoppeltes neuronales Netz
zur Umsetzung eines Vektors von Intensitätsdaten in einen
Vektor von Bewegungsparametern.
Fig. 6 zeigt ein Prozessor-Element bei dem neuronalen Netz von
Fig. 5.
Fig. 7 zeigt ein "Backpropagation"-Netz zur Bestimmung der
Bewegungsgrößen aus dem vorerwähnten Vektor der
Bewegungsparameter.
Fig. 8 veranschaulicht die Wirkungsweise des Backpropagation-
Netzes von Fig. 7.
Fig. 9 veranschaulicht die Lernphase des Backpropagation-Netzes
zur Erzeugung der Bewegungsgrößen aus dem Vektor der
Bewegungsparameter.
Fig. 10 zeigt das gesamte neuronale Stabilisierungs- und
Zielsuchsystem des Flugkörpers, bei welchem die
Bewegungsgrößen entsprechend Fig. 1 bis 9 bestimmt werden.
Fig. 11 zeigt als Blockschaltbild eine Abwandlung, bei welcher
optimale Ausgangsdaten für die Navigation aus den neuronalen
Netzen von Fig. 10 in Kombination mit einem
Trägheitsnavigationssystem und einer Bildverarbeitung erhalten
werden.
Fig. 12 zeigt als Blockschaltbild eine weitere Abwandlung, bei
welcher eine Navigation kombiniert mit Bildverarbeitung und
Trägheitsnavigation erfolgt.
In Fig. 1 ist mit 10 ein Flugkörper bezeichnet. In der Spitze
des Flugkörpers 10 sitzt starr mit der Struktur des
Flugkörpers 10 verbunden ein Sucher 12. Der Sucher 12 enthält
einen abbildenden, bilderfassenden Sensor 14 mit einer Optik
16 und einem Detektorarray 18 mit einer zweidimensionalen
Anordnung von Detektorelementen. Ein Gesichtsfeld wird durch
die Optik 16 auf dem Detektorarray 18 abgebildet. Jedes
Detektorelement des Detektorarrays 18 liefert dementsprechend
ein Signal, das die auf dieses Detektorelement fallende
Lichtintensität wiedergibt. Die Signale der Detektorelemente
werden digitalisiert und beaufschlagen eine als neuronales
Netz ausgebildete Bildverarbeitungs-Einrichtung 20. Daten von
der Bildverarbeitungs-Einrichtung 20 sind auf verschiedene
Signalverarbeitungs-Einrichtungen 22, 24 und 26 aufgeschaltet.
Die Signalverarbeitungs-Einrichtungen 22, 24 und 26 liefern
Daten für einen Lenkrechner 28. Der Lenkrechner 28 kann als
neuronales Netz ausgebildet sein. Er kann aber auch ein
Rechner sein, der programmiert ist und mit einem vorgegebenen
Algorithmus arbeitet. Der Lenkrechner 28 liefert Lenkbefehle
zur Ansteuerung von (nicht dargestellen) Stellgliedern. Die
beschriebene Anordnung liefert, wie noch erklärt werden wird,
sowohl Lage- und Geschwindigkeitssignale als auch Zielsignale
für die Zielverfolgung. Die gesamte Anordnung enthält dabei
jedoch keinerlei bewegliche Teile wie Kreisel oder
Kardanrahmen.
Wie aus Fig. 2 ersichtlich ist, ist dem Sensor 14 ein
Koordinatensystem mit den Achsen xs, ys und zs zugeordnet. Der
Sensor beobachtet ein dreidimensional optisch strukturiertes
Gesichtsfeld mit einem gesichtsfeldfesten Koordinatensystem
xG, yG und zG. Ein Objekt P hat in dem gesichtsfeldfesten
Koordinatensystem die angegebenen (G)-Koordinaten und in dem
sensorfesten Koordinatensystem die (s)-Koordinaten. Wenn sich
der Sensor 14 in dem gesichtsfeldfesten Koordinatensystem
bewegt, dann ändern sich die (s)-Koordinaten des Objektes P
als Funktion der Zeit. Der Sensor 14 erfaßt zwar immer noch
das Objekt P. Der Sensor 14 "sieht" das Objekt P jedoch mit
anderen (s)-Koordinaten. Betrachtet man das Objekt in den (s)-
Koordinaten in zwei aufeinanderfolgenden, durch ein kurzes
Zeitintervall getrennten Zeitpunkten, dann hat sich der Punkt
P um einen Verschiebungsvektor in den (s)-Koordinaten
verschoben. Das gilt auch für alle anderen Punkte des
beobachteten Gesichtsfeldes. Jedem dieser Punkte ist ein
Verschiebungsvektor im (s)-Koordinatensystem zugeordnet. Die
Vektoren bilden ein Vektorfeld. Das Vektorfeld ist abhängig
von den Bewegungsgrößen des Sensors 14 und des damit starr
verbundenen Flugkörpers 10. Diese Bewegungsgrößen sind der
Geschwindigkeitsvektor v und der Winkelgeschwindigkeitsvektor.
Quantitativ gilt für die Änderung der Koordinaten des Punktes
P im sensorfesten Koordinatensystem
s = - v - ω × r s.
Dabei ist r der Ortsvektor des Punktes P im (s)-
Koordinatensystem. Das Symbol "x" bezeichnet das
Vektorprodukt. r s stellt das Vektorfeld dar.
Aus dem Vektorfeld kann daher auf die Bewegungsgrößen v und ω
rückgeschlossen werden. Der Zusammenhang wird jedoch durch
eine komplizierte, nichtlineare Gleichung beschrieben. Eine
allgemeine, analytische Lösung dieser nichtlinearen Gleichung
zur Gewinnung der Bewegungsgrößen v und l ist nicht bekannt.
Fig. 3 veranschaulicht die durch den Sensor 14 erfaßten Größen:
Das Gesichtsfeld, das für den Sensor 14 praktisch im
Unendlichen liegt, wird in einer Ebene 30 abgebildet. Die
Ebene 30 ist die Brennebene der Optik 16 (Fig. 1). Der
Koordinatenursprung des (s)-Koordinatensystems ist in den
Mittelpunkt der Optik 16 gelegt. Die Ebene 30 hat von der
Hauptebene der Optik 16 den Abstand f. f ist die Brennweite
der Optik. Die Punkte des Gesichtsfeldes werden in der Ebene
in Bildpunkten mit den Koordinaten yB und zB abgebildet. Diese
Bildpunkte hängen mit den Koordinaten der Punkte des
Gesichtsfeldes im (s)-Koordinatensystem nach bekannten
Abbildungsgesetzen zusammen. Auch in dieser Bildebene, in
welcher die Detektorelemente des Detektorarrays 18 angeordnet
sind, ergibt sich ein (zweidimensionales) Vektorfeld, das die
Bewegung der den verschiedenen Gesichtsfeldpunkten
zugeordneten Bildpunkte infolge der Bewegung des Sensors 14
darstellt. Man bezeichnet dieses Vektorfeld als "optischen
Fluß" in der Bildebene 30. Auch aus diesem optischen Fluß kann
auf die Bewegungsgrößen v und ω geschlossen werden. Der Vektor
v und die Komponenten p, q und r der Drehgeschwindigkeit des
Sensors 14 in Richtung der Koordinatenachsen des (s)-
Koordinatensystems sind in Fig. 3 dargestellt.
Der optische Fluß in der Bildebene, der durch die Bewegung des
Flugkörpers hervorgerufen wird, führt zu Änderungen der
Intensitäten des auf die verschiedenen Detektorelemente
fallenden Lichtes. Bezeichnet man mit I(yB, zB, t) die
Intensität, die an einem Detektorelement im Bildpunkt (yB, zB)
zum Zeitpunkt t wirksam ist, dann gilt für die zeitliche
Änderung der Intensität infolge der Bewegung des Flugkörpers
10 und damit des Sensors 14:
i T c + 1/f It.
Darin ist
i = g (Iy, Iz, yB, zB, f).
Das ist ein Vektor, der eine nichtlineare Funktion der
Intensitätsgradienten Ix, Iz in der Umgebung des Bildpunktes
(yB, zB) ist. It ist die zeitliche Änderung der in dem
Bildpunkt auf das Detektorelement fallenden Intensität. Der
Vektor c ist ein Parametervektor, dessen Elemente eine
nichtlineare Funktion der Bewegungsgrößen v und l des
Flugkörpers sind.
Es wird nun durch Messung der Zeitverläufe der Intensität an
einer bestimmten Zahl von Detektorelementen der Vektor c der
Bewegungsparameter ermittelt. Dieser Vektor c ist einerseits
mit den durch die Bewegung des Flugkörpers 10 und Sensors 14
hervorgerufenen Änderungen der Intensitäten und andererseits
mit den Bewegungsgrößen v und l des Flugkörpers 10 und Sensors
14 verknüpft. Dabei brauchen nicht notwendig alle verfügbaren
Detektorelemente des Detektorarrays 18 für die Bestimmung des
Vektors c herangezogen zu werden. Die Intensitäten die von den
verwendeten Detektorelementen geliefert werden, werden zu
einem Intensitätsvektor I zusammengefaßt.
Die neuronalen Netzmittel, die generell mit 32 bezeichnet sind,
enthalten zwei neuronale Netze 34 und 36. Das neuronale Netz
34 erhält als Eingangsdaten Intensitäten von ausgewählten
Detektorelementen des Detektorarrays 18, also den
Intensitätsvektor I. Das neuronale Netz 34 ist so trainiert,
daß es aus diesen Eingangsdaten den Vektor c erzeugt. Das
neuronale Netz 36 erhält als Eingangsdaten den Vektor c der
Bewegungsparameter von dem neuronalen Netz 34. Das neuronale
Netz 36 ist so trainiert, daß es aus den Eingangsdaten die
Bewegungsgrößen v und ω des Flugkörpers 10 und des damit starr
verbundenen Sensors 14 erzeugt. Das ist in Fig. 4 dargestellt.
Die beiden neuronalen Netze 34 und 36 sind von
unterschiedlichem Typ: Wegen der räumlichen und zeitlichen
Abhängigkeit des Vektors c der Bewegungsparameter von dem
Intensitätsvektor I wird zur Bestimmung des Vektors c der
Bewegungsparameter aus den Intensitätsverläufen ein
rückgekoppeltes Netz 34 verwendet. Ein solches Netz ist
besonders für räumlich und zeitlich veränderbare Abbildungen
geeignet. Zwischen den Bewegungsparametern des Vektors c und
den Bewegungsgrößen v und ω des Flugkörpers 10 und des Sensors
14 besteht ein assoziativer Zusammenhang: Zu jedem Vektor c
gehören bestimmte Werte von v und ω. Zur assoziativen
Speicherung dieses Zusammenhanges ist ein mehrschichtiges Netz
mit ausschließlich Vorwärtsverbindung vorgesehen, nämlich ein
Netz vom Stimuli-Response-Typ.
Das erste Netz 34 hat die in Fig. 5 dargestellte Struktur. Auf
das Netz 34 sind jeweils Folgen von T aufeinanderfolgenden
Intensitätsvektoren I(1), I(2) . . . I(m) . . . I(T) aufgeschaltet.
Das entspricht einem Zeitfenster. Diese Folge liefert die
zeitliche Veränderung der Intensitäten. Jeder der
Intensitätsvektoren I(n) hat als Komponenten N Intensitäten
I1(n), . . . IN(n) die an N ausgewählten Detektorelementen zum
Abtastzeitpunkt n auftreten. Jeder dieser Vektoren liefert
daher die räumliche Verteilung der Intensität.
Das Netz enthält N Prozessorelemente PE1, PE2, . . . PEm . . . PEN.
Ein solches Prozessorelement PEi ist in Fig. 6 dargestellt. Auf
die Prozessorelemente PEi sind die Ausgänge aller
Prozessorelemente PE einschließlich des eigenen Ausganges xi
des betrachteten Prozessorelements PEi aufgeschaltet. Das
Prozessorelement PEi bildet die gewichtete Summe aller so
rückgeführten Eingänge die zu der auf das Prozessorelement
PEi aufgeschalteten Intensität Ii addiert wird. Es ergibt sich
ein Wert
Der Ausgang des Prozessorelements wird dann:
xi = f (zi).
Die Funktion f(zi) ist dabei eine bestimmte nichtlineare
Funktion der "Aktivität" zi des Prozessorelements.
Zum Lernen der räumlich-zeitlich veränderlichen Abbildung
zwischen den Intensitätsvektoren I und den Vektoren c der
Bewegungsparameter werden dem Netz 34 in einer Trainingsphase
paarweise Folgen von Eingangsvektoren und zugehörigen
Ausgangsvektoren zugeführt. Für Abtastfenster mit
Intensitätsvektoren I(1) . . I(T) werden die jeweils aktuellen
Ausgangsvektoren c(1) . . . c(T) mit den zugehörigen Sollvektoren
c*(1) . . . c*(T) verglichen. Die Gewichtsmatrix des Netzes wird
dann wie folgt adaptiert:
mit
δ(K) = f′(Z(K)[WT δ(K+1) + HT(c*(K) - c(K))].
In der Gewichtsmatrix W sind die Verbindungsgewichte wÿ des
Netzes zusammengefaßt. Es gilt:
Nach Durchführung der Trainingsphase sind die
Verbindungsgewichte so gewählt, daß, wie in Fig. 5 dargestellt
ist, für eine Folge von T N-dimensionalen Intensitätsvektoren
als Eingangsvektoren des Netzes 34 die m Prozessorelemente PE1
bis PEm nacheinander die Komponenten der m-dimensionalen
Vektoren c(1) bis c(T) der Bewegungsparameter liefern.
Zur Gewinnung der Bewegungsgrößen v und ω aus den Vektoren c
der Bewegungsparameter dient ein Backpropagation-Netz 36, wie
es in Fig. 7 dargestellt ist. Das Netz 36 besteht aus drei
Schichten, nämlich einer Eingangsschicht 38, einer verborgenen
Schicht 40 und einer Ausgangsschicht 42. Wie aus Fig. 7
ersichtlich ist, sind die Prozessorelemente 44, 46 und 48 der
drei Schichten 38 bzw. 40 bzw. 42 vollständig vorwärts
vernetzt. Die Prozessorelemente 44 der Eingangsschicht 38
enthalten keine nichtlineare Ausgangsfunktion f.
Fig. 8 veranschaulicht in einer vereinfachten Darstellung die
Lernphase des Netzes 36. Der Lernvorgang erfolgt nach einem
"Backpropagation"-Algorithmus. Auf das Netz 36 werden
Eingangsvektoren c aufgeschaltet. Es werden die daraus
erhaltenen Bewegungsgrößen v und ω mit Sollgrößen v* und ω*
verglichen. Der Eingangsvektor ist durch Block 50 in Fig. 8
dargestellt. Der Ausgangsvektor ist durch Block 52
dargestellt. Der Sollvektor ist durch Block 54 dargestellt.
Der Vergleich ist durch einen Summierpunkt 56 symbolisiert.
Die Differenz von Ausgangsvektor und Sollvektor wird
multipliziert mit einer Gewichtsmatrix d. Daraus ergeben sich
Korrekturen Δ wÿ für die Verbindungsgewichte wÿ. Die
Multiplikation mit der Gewichtsmatrix d ist in Fig. 8 durch
einen Block 58 dargestellt. Die Korrektur der
Verbindungsgewichte wÿ ist durch den Block 60 symbolisiert.
Nach Durchführung der Trainingsphase sind die
Verbindungsgewichte wÿ so eingestellt, daß das Netz 36 den
Zusammenhang zwischen c und v bzw. ω abbildet, d. h. die
Assoziationen speichert.
In Fig. 9 ist der Backpropagation-Algorithmus für den
Lernvorgang eines dreischichtigen Netzes 36 im einzelnen
dargestellt.
Ein bekannter Eingangsvektor u, der dem Vektor c entspricht,
ist auf die Eingangsschicht geschaltet. Es werden die zj(1)
gebildet, die hier direkt die Ausgangsgrößen xj(1) bilden. Aus
den xj(1) der Prozessorelemente 62 der Eingangsschicht 38 wird
von den Prozessorelementen 64 der verborgenen Schicht 40 mit
Verbindungsgewichten wÿ(1) die zi(2) dieser verborgenen
Schicht gebildet. Aus den so gebildeten zi(2) ergeben sich die
Ausgangsgrößen xi(2) der Prozessorelemente 64 nach einer
nichtlinearen Funktion fi zu
fi(zi(2)) = xi(2).
Wie an dem j-ten Prozessorelement 64 der verborgenen Schicht
40 und dem i-ten Prozessorelement 66 der Ausgangsschicht 42
dargestellt ist, bildet jedes Prozessorelement 66 aus den
Ausgangsgrößen der Prozessorelemente 64 mit
Verbindungsgewichten wÿ(2) die zi(3). Das Prozessorelement 66
liefert dann eine Ausgangsgröße xi(3) wieder nach einer
nichtlinearen Funktion der zi(3). Es ist
fi(zi(3)) = xi(3).
Die so erhaltenen xi(3), die man zu einem Ausgangsvektor y
zusammenfassen kann, sollten bei richtiger Wahl der
Verbindungsgewichte den Bewegungsgrößen entsprechen, die dem
als Eingangsvektor u eingegebenen Vektor von
Bewegungsparametern zugeordnet sind. Das wird zunächst nicht
der Fall sein. Die Komponenten des Sollvektors werden mit den
sich tatsächlich ergebenden Komponenten des Ausgangsvektors
verglichen. Das ist für die Ausgangsgröße des betrachteten i-
ten Prozessorelements 66 durch einen Summierpunkt 68 in Fig. 9
dargestellt.
Die erhaltene Differenz wird multipliziert mit fi′(zi(3)). Das
ist durch Block 70 in Fig. 9 dargestellt. Aus dieser
Multiplikation ergibt sich eine Größe δi(3). Diese Größe δi(3)
wird mit der Ausgangsgröße xj(2) des j-ten Prozessorelements
64 der verborgenen Schicht 40 multipliziert. Das ist durch das
abgerundete Rechteck 72 in Fig. 9 dargestellt. Das so erhaltene
Produkt wird mit einem Faktor µ, dargestellt durch Block 74
multipliziert und liefert einen Korrekturwert Δ wÿ für das
Verbindungsgewicht wÿ zwischen dem j-ten Prozessorelement 64
der verborgenen Schicht 40 und dem i-ten Prozessorelement 66
der Ausgangsschicht 42.
Die Korrektur des Verbindungsgewichtes ist hier der
Übersichtlichkeit halber nur für ein Paar von
Prozessorelementen 64 und 66 dargestellt und beschrieben.
Tatsächlich werden die in gleicher Weise die
Verbindungsgewichte für alle möglichen Kombinationen von
Prozessorelementen 64 und 66 korrigiert. i und j sind hier
beliebige ganze Zahlen. Die z werden, ähnlich wie es oben im
Zusammenhang mit dem Netz 34 beschrieben wurde, als gewichtete
Summen der Ausgangsgrößen der Prozessorelemente in der
vorhergehenden Schicht gebildet.
In ähnlicher Weise werden die Verbindungsgewichte wÿ(1)
zwischen der Eingangsschicht 38 und der verborgenen Schicht 40
korrigiert. Es werden Größen δi(2) gebildet nach der
Beziehung
Das ist in Fig. 9 durch einen Block 76 dargestellt. Die so
gebildete Größe δi wird multipliziert mit der Ausgangsgröße
xj(1) des j-ten Prozessorelements 62 der Eingangsschicht 38.
Das ist in Fig. 9 durch das abgerundete Rechteck 78
dargestellt. Das Produkt wird multipliziert mit einem Faktor
µ, wie durch das Rechteck 80 in Fig. 9 dargestellt ist. Das
ergibt eine Korrekturgröße Δwÿ(1) für das Verbindungsgewicht
wÿ(1) zwischen dem j-ten Prozessorelement 62 der
Eingangsschicht 38 und dem i-ten Prozessorelement 64 der
verborgenen Schicht 40. Auch hier werden in gleicher Weise
alle Verbindungsgewichte wÿ(1) zwischen den verschiedenen
Kombinationen der Prozessorelemente 62 der Eingangsschicht 38
und den Prozessorelementen 64 der verborgenen Schicht
korrigiert. i und j sind beliebige ganze Zahlen. Es ist der
Übersichtlichkeit halber nur ein Paar von Prozessorelementen
62 und 64 dargestellt. Die zi(2) sind wieder gewichtete Summen
aller xj(1).
Fig. 10 zeigt ein mit neuronalen Netzen aufgebautes Führungs-
und Lenksystem für einen Flugkörper.
Ein Flugregelkreis enthält den Sensor 14 und die beiden oben
beschriebenen neuronalen Netze 34 und 36. Die von dem
neuronalen Netz 36 gelieferten Bewegungsgrößen v und ω sind
auf ein weiteres neuronales Netz 82 geschaltet. Das neuronale
Netz 82 ist ein Netz vom Hopfield-Typ. Das neuronale Netz 82
ist ein Optimierer. Das neuronale Netz 82 ermittelt jeweils
das optimale Stellsignal, derart, daß die Differenz zwischen
tatsächlichem und gewünschtem Bewegungszustand möglichst klein
wird. Diese Stellsignale sind auf eine Lenkvorrichtung 84
aufgeschaltet, die einmal die Stellsignale von dem
Flugregelkreis erhält, durch welche der Flugkörper 10
stabilisiert wird, und zum anderen Lenkkommandos aus dem
Führungskreis, durch welche der Flugkörper 10 zu einem Ziel
geführt wird. Die Lenkvorrichtung 84 wirkt auf die Dynamik und
Kinematik des Flugkörpers, die in Fig. 10 durch einen Block 86
symbolisiert ist.
Von dem Sensor 14 werden weiter Bildinformationen abgenommen,
die einer Einrichtung zur Merkmalserkennung 88 zugeführt
werden. Der so erhaltene Merkmalsvektor wird auf ein
neuronales Netz 90 aufgeschaltet. Das neuronale Netz 90 ist
ein rekursives Netz. Das neuronale Netz 90 bewirkt eine
Klassierung erfaßter Objekte und erzeugt Zielverfolgungs-
Signale, durch welche der Flugkörper zu bestimmten, erkannten
Zielen geführt wird. Die Zielverfolgungssignale sind auf die
Lenkvorrichtung 84 aufgeschaltet.
Bei der Ausführung nach Fig. 11 ist zusätzlich zu dem
bilderfassenden Sensor 14 und den neuronalen Netzen ein
Trägheitsnavigationssystem 92 vorgesehen. Die von dem
Trägheitsnavigationssystem gelieferten Bewegungsgrößen,
nämlich Drehgeschwindigkeit, Beschleunigung und Kurs- und
Lagewinkel sind zusätzlich auf die neuronalen Netze 34 und 36
aufgeschaltet. Das ist in Fig. 11 durch Pfeile 94 und 96
dargestellt. Diese "Aufschaltung" erfolgt in der Weise, daß
Gewichte in den neuronalen Netzen 34 und 36 im Sinne einer
"Vorkenntnis" verändert werden. Die von dem neuronalen Netz 36
auf diese Weise aus dem vom Sensor 14 erfaßten Bild und von
dem Trägheitsnavigationssystem erhaltenen Bewegungsgrößen
beaufschlagen einen Prozessor 98, der optimale Schätzwerte für
die Bewegungsgrößen liefert. Der Prozessor 98 ist auch von den
Meßwerten der Bewegungsgrößen beaufschlagt, die von dem
Trägheitsnavigationssystem 92 geliefert werden. Das ist in
Fig. 11 durch einen Pfeil 100 dargestellt. Der Prozessor 98
beinhaltet ein sog. erweitertes ("extended") Kalman-Filter.
Das erweiterte Kalman-Filter wirkt als optimaler
Bewegungszustands-Schätzer. Es vergleicht die Bewegungsgrößen-
Informationen von dem Sensor 14 mit der Bewegunsgrößen-
Information von dem Trägheitsnavigationssystem 92. Die von dem
Prozessor 98 gelieferten Bewegungsgrößen sind optimale
Schätzwerte die sich aus den optisch gewonnenen
Bewegungsgrößen und den Bewegungsgrößen des
Trägheitsnavigationssystems ergeben. Außer den optimalen
Schätzwerten der Bewegungsgrößen liefert der Prozessor 98 auch
Schätzwerte für die Fehler des Trägheitsnavigationssystems 92.
Diese Schätzwerte der Fehler, z. B. der Kreiseldrift, sind
wiederum auf das Trägheitsnavigationssystem 92 aufgeschaltet
und werden von diesem berücksichtigt. Das ist durch einen
Pfeil 102 dargestellt.
Die Bestimmung der Bewegungsgrößen aus der Bildinformation des
bilderfassenden Sensors 14 und die Bestimmung der
Bewegungsgrößen mittels des Trägheitsnavigationssystems
stellen zwei einander vorteilhaft ergänzende Meßvorgänge dar:
Die Bewegungsgrößen-Information von den Trägheitssensoren des
Trägheitsnavigationssystems verbessert die Funktion der
neuronalen Netze. Insbesondere werden die Bewegungsgrößen auch
bei Wegfall der Bildinformation etwa durch Wolken oder ein
kontrastloses Bildfeld weiter gemessen.
Die Bestimmung der Bewegungsgrößen aus der Bildinformation
gestattet es, mit Hilfe des erweiterten Kalman-Filters 98
Schätzwerte für die Fehler des Trägheitsnavigationssystems 92
zu gewinnen. Durch Kompensation dieser Fehler kann die
Genauigkeit des Trägheitsnavigationssystems 92 verbessert
werden. Es wird dadurch möglich, ein relativ einfaches und
kostengünstiges Trägheitsnavigationssystem zu verwenden.
Bei der Ausführung von Fig. 12 ist der Ausgang des neuronalen
Netzes 36 auf einen Navigations-Prozessor 104 aufgeschaltet.
Die neuronalen Netze 34 und 36 sind ähnlich wie in Fig. 11 auch
von den Bewegungsgrößen beaufschlagt, die von dem
Trägheitsnavigationssystem geliefert werden.
Bei der Ausführung von Fig. 12 beaufschlagen die
Bewegungsgrößen, die von dem Trägheitsnavigationssystem
geliefert werden, außerdem eine Datenbank 106. Das ist durch
Pfeil 108 dargestellt. Die Datenbank 106 speichert
Informationen über das überflogene Gelände etwa nach Art einer
Landkarte. Der Datenbank 106 kann etwa entnommen werden, daß
bei bestimmten, dem Trägheitsnavigationssystem 92 entnommenen
Werten von Kurs, Lage und Position eine Straßenkreuzung oder
sonstige Landmarke unter bestimmten Sichtwinkeln erscheinen
müßte. Die Datenbank-Informationen sind auf den Navigations-
Prozessor 104 aufgeschaltet. Das ist durch einen Pfeil 110
dargestellt.
Der bilderfassende Sensor 14 liefert Daten an eine Einrichtung
112 zur Bildvorverarbeitung. Das ist durch Pfeil 114
dargestellt. Durch die Einrichtung 112 werden bestimmte
Merkmale des Bildes erkannt, beispielsweise Kanten. Die so
verarbeiteten Bilddaten beaufschlagen ein neuronales Netz 116,
welches darauf trainiert ist, aus solchen Merkmalen
Navigations-Merkmale zu extrahieren, z. B. Linienorientierung
und Linienschnittpunkte. Das ist durch einen Pfeil 118
dargestellt. Das neuronale Netz 116 ist ein
selbstorganisierendes neuronales Netz, das als "Merkmalskarte"
oder als sog. "Adaptive Resonator Theory Network" realisiert
werden kann. Die so erhaltenen Navigationsmerkmale sind
ebenfalls auf den Navigations-Prozessor 104 aufgeschaltet. Das
ist durch Pfeil 120 dargestellt.
Der Navigations-Prozessor 104 vergleicht die Koordinaten eines
bestimmten Navigationsmerkmals, das von der Bildverarbeitung
erfaßt wird, mit den Koordinaten dieses Navigationsmerkmals,
die sich aus der Datenbank 106 und den Kurs-, Lage- und
Positionsdaten des Trägheitsnavigationssystems ergeben. Aus
der Differenz können mit Hilfe eines Kalman-Filters einmal
optimale Navigationsdaten erhalten werden. Das ist durch Pfeil
122 dargestellt. Zum anderen können aus dem Kalman-Filter
Schätzwerte für die Fehler des Trägheitsnavigationssystems 92
gewonnen werden. Diese Schätzwerte der Fehler sind auf das
Trägheitsnavigationssystem 92 zurückgeführt. Das ist in Fig. 12
durch die Verbindung 124 dargestellt.
Der Navigations-Prozessor 104 benutzt dabei nicht nur die
Positions-Informationen sondern auch die Bewegungsgrößen wie
Drehgeschwindigkeit und Geschwindigkeit, für die Meßwerte von
dem neuronalen Netz 36 geliefert werden. Diese
Stützinformation ist für die Funktion des Optimalfilters
(Kalman-Filters) besonders wirksam, da sie bezüglich der
Informationsverarbeitungs-Kette eines
Trägheitsnavigationssystems sensornäher ist als die Positions-
Information.
Claims (15)
1. Einrichtung zur Bestimmung von Bewegungsgrößen eines
Flugkörpers (10), der mit einem bilderfassenden Sensor (14)
versehen ist, dadurch gekennzeichnet, daß aus dem optischen
Fluß der von dem Sensor (14) erfaßten Bilder durch trainierte
neuronale Netzmittel (34, 36) Daten erzeugbar sind, welche die
Bewegungsgrößen des Flugkörpers (10) wiedergeben.
2. Einrichtung nach Anspruch 1, dadurch gekennzeichnet, daß
der bilderfassende Sensor (14) flugkörperfest angeordnet ist.
3. Einrichtung nach Anspruch 1 oder 2, dadurch gekennzeichnet,
daß
- (a) die neuronalen Netzmittel ein rückgekoppeltes neuronales Netzwerk (34) enthalten, auf welches ein Vektor (I) mit Intensitätsdaten einer Mehrzahl von Bildelementen des Sensors (14) aufgeschaltet ist und welches einen Vektor (c) von Bewegungsparametern liefert, dessen Elemente eine Funktion der Bewegungsgrößen (v, ω) des Flugkörpers (10) sind, und
- (b) die neuronalen Netzmittel weiterhin ein assoziatives, neuronales Netzwerk (36) enthalten, auf welches die Elemente des Vektors (c) der Bewegungsparameter aufgeschaltet sind und welches zur Erzeugung von Daten trainiert ist, die den Bewegungsgrößen des Flugkörpers (10) entsprechen.
4. Einrichtung nach Anspruch 3, dadurch gekennzeichnet, daß
das assoziative, neuronale Netzwerk (36) ein mehrschichtiges
Feedforward-Netzwerk ist.
5. Einrichtung nach Anspruch 4, dadurch gekennzeichnet, daß
das assoziative, neuronale Netzwerk (36) ein Netzwerk vom
Stimuli-Response-Typ ist.
6. Einrichtung nach einem der Ansprüche 1 bis 5, dadurch
gekennzeichnet, daß aus den die Bewegungsgrößen darstellenden
Daten Regelsignale zur Flugregelung erzeugbar
und in einem Regelkreis auf Flugregelungs-Stellglieder
aufgeschaltet sind.
7. Einrichtung nach Anspruch 6, dadurch gekennzeichnet, daß
die die Bewegungsgrößen darstellenden Daten auf ein neuronales
Netzwerk (82) aufgeschaltet sind, welches zur Erzeugung
optimierter Stellsignale trainiert ist.
8. Einrichtung nach Anspruch 7, dadurch gekennzeichnet, daß
das neuronale Netz zur Erzeugung der Stellsignale ein
neuronales Netz vom Hopfield-Typ ist.
9. Einrichtung nach einem der Ansprüche 6 bis 8, dadurch
gekennzeichnet, daß die Bildinformation des gleichen
bilderfassenden Sensors (14) gleichzeitig auf
merkmalserkennende Mittel (88) zur Zielerkennung aufschaltbar
ist, die einen Merkmalsvektor liefern, und daß der
Merkmalsvektor auf ein rekursives, neuronales Netzwerk (90)
aufgeschaltet ist, das zur Klassierung von Zielobjekten und
zur Erzeugung von Zielverfolgungssignalen trainiert ist, wobei
das rekursive neuronale Netzwerk (90) Stellgrößen in einer
Lenkschleife auf die Flugregelungs-Stellglieder aufschaltet.
10. Einrichtung nach einem der Ansprüche 1 bis 8, dadurch
gekennzeichnet, daß zusätzlich zu dem bilderfassenden Sensor
(14) und den neuronalen Netzmitteln (34, 36) ein
Trägheitsnavigationssystem vorgesehen ist.
11. Einrichtung nach Anspruch 10, dadurch gekennzeichnet, daß
ein Optimalfilter (98,104) aus Daten der neuronalen Netzmittel
(34, 36) und des Trägheitsnavigationssystems (92) Schätzwerte
für die Fehler des Trägheitsnavigationssystems (92) bildet,
mittels derer diese Fehler bei der Signalverarbeitung
kompensiert werden.
12. Einrichtung nach Anspruch 11, dadurch gekennzeichnet, daß
die von den neuronalen Netzmitteln (34, 36) gelieferten Werte
der Bewegungsgrößen zusammen mit den von dem
Trägheitsnavigationssystem (92) gelieferten Werten der
Bewegungsgrößen unmittelbar auf das Optimalfilter (98)
aufgeschaltet sind.
13. Einrichtung nach einem der Ansprüche 10 bis 12, dadurch
gekennzeichnet, daß die von dem Trägheitsnavigationssystem
(92) gelieferten Werte von Bewegungsgrößen zusätzlich auf die
neuronalen Netzmittel (34, 36) im Sinne einer "Vorkenntnis"
aufgeschaltet sind.
14. Einrichtung nach Anspruch 11, dadurch gekennzeichnet, daß
- (a) die Bilddaten des bilderfassenden Sensors (14) zusätzlich auf Bildverarbeitungsmittel (112, 116) aufgeschaltet sind, durch welche aus den Bilddaten Navigationsmerkmale extrahiert werden,
- (b) eine Datenbank (106) vorgesehen ist, in welcher Geländeinformationen gespeichert sind,
- (c) die Datenbank (106) von den durch das Trägheitsnavigationssystem gelieferten Kurs-, Lage- und Positionswerten beaufschlagt ist und
- (d) ein das Optimalfilter umfassender Navigations-Prozessor (104) aus den Positionen der Navigationsmerkmale, wie sie von den Bildverarbeitungsmitteln (112, 116) geliefert werden, und den Positionen der Navigationsmerkmale, wie sie sich nach dem Trägheitsnavigationssystem ergeben, optimale Navigationsdaten erzeugt.
15. Einrichtung nach Anspruch 14, dadurch gekennzeichnet, daß
die Bildverarbeitungsmittel eine Einrichtung (112) zur
Bildvorverarbeitung und ein neuronales Netz (116) zur
Extraktion von Navigationsmerkmalen enthalten.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE4218600A DE4218600C2 (de) | 1992-06-05 | 1992-06-05 | Einrichtung zur Bestimmung von Bewegungsgrößen eines Flugkörpers |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE4218600A DE4218600C2 (de) | 1992-06-05 | 1992-06-05 | Einrichtung zur Bestimmung von Bewegungsgrößen eines Flugkörpers |
Publications (2)
Publication Number | Publication Date |
---|---|
DE4218600A1 DE4218600A1 (de) | 1993-12-09 |
DE4218600C2 true DE4218600C2 (de) | 1994-09-22 |
Family
ID=6460486
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE4218600A Expired - Fee Related DE4218600C2 (de) | 1992-06-05 | 1992-06-05 | Einrichtung zur Bestimmung von Bewegungsgrößen eines Flugkörpers |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE4218600C2 (de) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10001519A1 (de) | 2000-01-15 | 2017-11-02 | LFK Lenkflugkörpersysteme GmbH | Einrichtung zur Lenkung eines rollenden Flugkörpers |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6473747B1 (en) | 1998-01-09 | 2002-10-29 | Raytheon Company | Neural network trajectory command controller |
DE19832612A1 (de) * | 1998-07-21 | 2000-01-27 | Bodenseewerk Geraetetech | Verfahren zum Trainieren eines neuronalen Netzes für die Lenkung eines Flugkörpers zu einem Ziel |
GB9827358D0 (en) * | 1998-12-12 | 2000-01-19 | British Aerospace | Combat aid system |
DE19857895A1 (de) * | 1998-12-15 | 2000-06-21 | Bodenseewerk Geraetetech | Lenk-, Navigations- und Regelsystem für Flugkörper |
DE10033368A1 (de) * | 2000-07-08 | 2002-01-17 | Bodenseewerk Geraetetech | Lenkstruktur für Flugkörper |
DE10112692A1 (de) * | 2001-03-16 | 2002-09-19 | Bodenseewerk Geraetetech | Lenkstruktur für Flugkörper |
DE10158666A1 (de) * | 2001-11-28 | 2003-06-18 | Lfk Gmbh | Vorrichtung und Verfahren zur autarken Zielführung eines Flugkörpers mit Hilfe außerhalb des Zielpunktes liegender Orientierungsmerkmale |
IL227982B (en) | 2013-08-15 | 2018-11-29 | Rafael Advanced Defense Systems Ltd | A missile system with navigation capability based on image processing |
EP3528172B1 (de) * | 2018-02-19 | 2023-12-27 | Braun GmbH | System zur klassifizierung der verwendung einer tragbaren verbrauchervorrichtung |
CN113916254A (zh) * | 2021-07-22 | 2022-01-11 | 北京控制工程研究所 | 一种停靠式抓捕的航天器自主交会对接试验方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE2855951A1 (de) * | 1978-12-23 | 1980-07-10 | Messerschmitt Boelkow Blohm | Verfahren zur navigatorischen lenkung von flugkoerpern |
DE3631944A1 (de) * | 1986-09-19 | 1988-04-07 | Messerschmitt Boelkow Blohm | Einrichtung zur auswertung eines bildes zum zwecke der zielerkennung |
-
1992
- 1992-06-05 DE DE4218600A patent/DE4218600C2/de not_active Expired - Fee Related
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10001519A1 (de) | 2000-01-15 | 2017-11-02 | LFK Lenkflugkörpersysteme GmbH | Einrichtung zur Lenkung eines rollenden Flugkörpers |
Also Published As
Publication number | Publication date |
---|---|
DE4218600A1 (de) | 1993-12-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE3937427A1 (de) | Bildverarbeitungsgeraet | |
EP1079198B1 (de) | Verfahren zur Bestimmung der Relativbewegung zwischen Flugkörper und Ziel | |
EP1531343B1 (de) | Verfahren zur Verfolgung von Objekten | |
DE4218600C2 (de) | Einrichtung zur Bestimmung von Bewegungsgrößen eines Flugkörpers | |
DE3436839C2 (de) | Lenkprozessor | |
DE102007054950B4 (de) | Verfahren zur Stützung der selbsttätigen Navigation eines niedrig fliegenden Flugkörpers | |
DE19950247A1 (de) | Regelungsanordnung und Regelungsverfahren für Sstelliten | |
DE4416557A1 (de) | Verfahren und Vorrichtung zur Stützung der Trägheitsnavigation eines ein entferntes Ziel autonom ansteuernden Flugkörpers | |
DE69823167T2 (de) | Vorrichtung zum bestimmen der richtung eines zieles in einer vorbestimmten indexmarkierung | |
DE19645556A1 (de) | Vorrichtung zur Erzeugung von Lenksignalen für zielverfolgende Flugkörper | |
DE69931216T2 (de) | Flugbahnbefehlssteuerung mit neuronalem netzwerk | |
DE3626030C2 (de) | Verfahren und Vorrichtung zur Entdeckung einer bevorstehenden Sichtverbindungsunterbrechung zwischen einem Flugzeug und einem Ziel, insbesondere in einem Laser-Feuerleitsystem | |
EP2719990B1 (de) | Vorrichtung zur optischen Zieleinweisung und Lenkung eines Flugkörpers | |
DE2932468C1 (de) | Suchkopf | |
EP0653600B2 (de) | Verfahren zur Bestimmung der Sichtliniendrehraten mit einem starren Suchkopf | |
DE69730278T2 (de) | Passive Entfernungsabschätzung unter Verwendung von Bildgrösseabmessungen | |
DE19543048A1 (de) | Vorrichtung zur Erzeugung von Lenksignalen für zielverfolgenden Flugkörper | |
EP3922526B1 (de) | Bestimmung eines rollwinkels oder eines nickwinkels eines fortbewegungsmittels | |
DE19857895A1 (de) | Lenk-, Navigations- und Regelsystem für Flugkörper | |
DE4223531C2 (de) | Einrichtung zur Führung eines aus einem Werfer abgeschossenen, angetriebenen Flugkörpers | |
DE3835883A1 (de) | Verfahren zur zielerkennung fuer flugkoerper | |
EP1174675A1 (de) | Lenkstruktur für Flugkörper | |
EP3882569B1 (de) | Verfahren zur ermittlung eines zielobjekts, elektro-optisches sensorsystem, verfahren zur navigation eines lenkflugkörpers und lenkflugkörper | |
DE19654924A1 (de) | Verfahren zur Waffenlenkung durch Zielzustandsabschätzung | |
DE4327186C2 (de) | Einrichtung zur Endphasenlenkung rohrverschossener Munition |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OP8 | Request for examination as to paragraph 44 patent law | ||
D2 | Grant after examination | ||
8364 | No opposition during term of opposition | ||
8327 | Change in the person/name/address of the patent owner |
Owner name: DIEHL BGT DEFENCE GMBH & CO. KG, 88662 UBERLINGEN, |
|
8339 | Ceased/non-payment of the annual fee |