DE19638968A1 - Verfahren und Vorrichtung zur Bekämpfung anfliegender Flugkörper - Google Patents
Verfahren und Vorrichtung zur Bekämpfung anfliegender FlugkörperInfo
- Publication number
- DE19638968A1 DE19638968A1 DE1996138968 DE19638968A DE19638968A1 DE 19638968 A1 DE19638968 A1 DE 19638968A1 DE 1996138968 DE1996138968 DE 1996138968 DE 19638968 A DE19638968 A DE 19638968A DE 19638968 A1 DE19638968 A1 DE 19638968A1
- Authority
- DE
- Germany
- Prior art keywords
- missile
- sensor
- weapon
- cameras
- image data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Classifications
-
- F—MECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
- F41—WEAPONS
- F41G—WEAPON SIGHTS; AIMING
- F41G5/00—Elevating or traversing control systems for guns
- F41G5/08—Ground-based tracking-systems for aerial targets
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S11/00—Systems for determining distance or velocity not using reflection or reradiation
- G01S11/12—Systems for determining distance or velocity not using reflection or reradiation using electromagnetic waves other than radio waves
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S3/00—Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
- G01S3/78—Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using electromagnetic waves other than radio waves
- G01S3/782—Systems for determining direction or deviation from predetermined direction
- G01S3/785—Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system
- G01S3/786—Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system the desired condition being maintained automatically
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/08—Systems determining position data of a target for measuring distance only
- G01S17/10—Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Electromagnetism (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- General Engineering & Computer Science (AREA)
- Aiming, Guidance, Guns With A Light Source, Armor, Camouflage, And Targets (AREA)
Description
Die Erfindung betrifft ein Verfahren und eine Vorrichtung zur
Bekämpfung anfliegender Flugkörper.
Bei einem bekannten Verfahren dieser Art wird zum Erfassen und
Verfolgen ("Tracken") des Flugkörpers ein Radarsystem einge
setzt, welches das Ziel mit Radar erfaßt und anfliegende Flug
körper (Flugzeuge, Hubschrauber, Raketen) in größeren Entfernun
gen mit Anti-Raketen und in kleineren Entfernungen (weniger als
2000 m) mit Maschinenkanonen bekämpft. Nachteilig bei diesem
Verfahren ist einerseits, daß Radarsysteme aktive Sensoren auf
weisen, die elektromagnetische Wellen aussenden und sich somit
zu erkennen geben, so daß ein Gegner den Standort erfassen kann.
Andererseits setzt ein Radarsystem kompliziertes, voluminöses
und teures technisches Gerät voraus. Um eine Trefferwahrschein
lichkeit bei der Bekämpfung, insbesondere bei kleinen Bekämp
fungsentfernungen, zu erzielen, ist eine Rohrwaffe mit extrem
hoher Schußfolge erforderlich, mit der im Dauerfeuer über eine
vergleichsweise lange Zeitdauer geschossen werden muß.
Aus der DE 33 40 133 C2 ist ein Verfahren bekannt, das mittels
Fotodioden-Arrays in einem 3-dimensionalen Meßraum einen Flug
körper erfassen kann, wobei die anfallende Datenmenge durch ein
Datenreduktionsverfahren vermindert wird. Mit diesem Verfahren
sollen die aus der DE-OS 31 32 168 und der DE 24 02 204 C3 be
kannten 2-dimensionalen Verfahren zur Bestimmung der Lage eines
Durchstoßpunktes eines Projektils von einer Meßebene auf einen
3-dimensionalen Meßraum erweitert werden.
Der Erfindung liegt die Aufgabe zugrunde, ein Verfahren und eine
Einrichtung der eingangs genannten Art so auszubilden, daß die
erwähnten Nachteile vermieden sind und gleichwohl eine Bekämp
fung anfliegender Flugkörper (Raketen, Flugzeuge, Hubschrauber)
mit hoher Trefferwahrscheinlichkeit ermöglicht wird.
Zur Lösung dieser Aufgabe dienen ein Verfahren gemäß Patentan
spruch 1 und eine Vorrichtung gemäß Patentanspruch 13.
Vorteilhafte Ausgestaltungen der Erfindung sind in den Unter
ansprüchen unter Schutz gestellt.
Mit der Erfindung wird der Flugkörper mit einem Sensorsystem
hochauflösend erfaßt. Dies ermöglicht ein frühzeitiges Erkennen
des noch weit entfernten Flugkörpers. Die mittels Sensorsystem
erfaßte Anflugrichtung des Flugkörpers wird an einen an sich
bekannten Track-Sensor weitergegeben, wobei jedoch nur ein Ele
vations- und Azimutwinkelbereich mit geringerer Auflösung wei
tergeleitet wird. Da der Track-Sensor nur im "Nahbereich" tätig
ist, genügt die geringere Auflösung für eine Erfassung des Flug
körpers durch den Track-Sensor. Die Verringerung der Auflösung
bewirkt eine einfache und schnelle Übergabe der erfaßten Daten
an den Track-Sensor. Durch die Erfassung mit hoher Auflösung
wird trotz passiver Sensoren die notwendige Sicherheit bei der
Wahrnehmung der Flugkörper gewährleistet.
Durch Einsatz von passiven Sensoren, die selbst keine elektroma
gnetischen Wellen ausstrahlen, wird die elektronische Erfassung
durch die gegnerische Abwehr unmöglich gemacht. Dies erhöht die
Überlebenswahrscheinlichkeit erheblich, wobei einfacher Aufbau
und kleines Volumen des eingesetzten optischen Sensorsystems,
welches beispielsweise TV- oder Infrarot-Kameras sowohl für die
Groberfassung mit großer Sehweite als auch für das "Tracken"
mit langer Brennweite (enger Sehweite) einsetzt, gegenüber einem
viel komplexeren und voluminöseren Radarsystem wesentliche zu
sätzliche Vorteile ergeben.
Das Verfahren und die Vorrichtung nach der Erfindung ermöglichen
das präzise Nachführen der Waffe, so daß das Ziel mit einer
kurzen Salve mit hoher Trefferwahrscheinlichkeit bekämpft werden
kann. Dies erübrigt den Einsatz einer komplexen und teuren Rohr
waffe mit hoher Kadenz bzw. Schußfolge bei Dauerfeuer.
Die Erfindung ist im folgenden anhand schematischer Zeichnungen
an einem Ausführungsbeispiel mit weiteren Einzelheiten näher
erläutert. Es zeigen:
Fig. 1 eine schematische Darstellung in Draufsicht auf eine
Vorrichtung nach der Erfindung;
Fig. 2 eine Darstellung der Vorrichtung nach Fig. 1 in Sei
tenansicht mit einem hohen Blockschaltbild unter Ein
beziehung eines Steuerrechners und eines Feuerleit
rechners;
Fig. 3 ein Wegdiagramm, anhand dessen die einzelnen Schritte
des Verfahrens in Abhängigkeit vom Abstand des flie
genden Flugkörpers veranschaulicht sind;
Fig. 4 schematisch die Unterteilung in Pixel und Segmente
eines erfindungsgemäß erfaßten Bildes.
Die in den Fig. 1 und 2 dargestellte Vorrichtung weist ein
optisches Sensorsystem mit zwei feststehenden, parallel zuein
ander im Abstand angeordneten Kameras 2 und 4 zur Erfassung
eines anfliegenden Flugkörpers auf. Die beiden Kameras 2, 4 sind
in gleiche Sehrichtung ausgerichtet, und sie weisen ein großes
Sehfeld A und B von jeweils z. B. 40° in Azimut und 8° in Eleva
tion auf. Die Kameras 2, 4 bestehen vorzugsweise jeweils aus
einem Kamerablock mit vier Kameramodulen, wobei jedes Kameramo
dul aus jeweils einer CCD-Kamera ausgebildet ist. Jedes Kamera
modul weist ein Pixelfeld von 738 × 576 auf. Dies ergibt eine
Auflösung von 0,014°, d. h. etwa 0,8′ bzw. +/- 0,4′. Mit einer
solch hohen Auflösung können Flugkörper schon frühzeitig erkannt
werden, selbst wenn sie nur geringe Abmessung aufweisen und in
Tarnfarbe gehalten sind. Durch das frühzeitige Erkennen wird
Zeit für die Auswertung der anfallenden Bilddaten gewonnen.
Die Ausgangssignale der Kameras 2,4 werden gemäß Fig. 2 in einen
Steuerrechner 6 eingegeben, der weitere Ausgangssignale von
einem Track-Sensor 8 langer Brennweite, das heißt mit kleinem
Sehfeld C von z. B. 1°, erhält.
Zum Track-Sensor 8 gehört ein Laser-Entfernungsmesser (nicht
gesondert gezeigt), und der Track-Sensor 8 ist gemeinsam mit
diesem Laser-Entfernungsmesser auf einer um zwei Achsen (Azimut
achse und Elevationsachse) beweglichen Plattform 10 montiert.
Diese Plattform ist ferner mit zwei hochgenauen Winkelmessern
bekannter Bauart (nicht gezeigt) zum Erfassen der Schwenkbewe
gungen der Plattform 10 um die beiden Achsen, nämlich die Eleva
tionsachse e und die Azimutachse a, ausgerüstet.
Mit der Bezugszahl 12 ist ein Azimutantrieb für die Plattform 10
zur Erzeugung einer Nachführschwenkung um die Azimutachse a
bezeichnet. Mit der Bezugszahl 14 ist ein Elevationsantrieb zur
Erzeugung einer Nachführschwenkung um die Elevationsachse e der
Plattform 10 bezeichnet. Beide Antriebe 12 und 14 werden zu
einer Nachführung der Plattform 10 von dem Steuerrechner 6 ange
steuert.
Der Ausgang 16 des Steuerrechners 6 führt zu einem Feuerleit
rechner 18, der über eine nachgeschaltete Ansteuereinheit 19 auf
eine Rohrwaffe 20 einwirkt. Diese Rohrwaffe 20 ist auf einer
Plattform 22 montiert, welche mittels eines Azimutantriebs 24 um
eine Azimutachse a′ schwenkbar ist. Der Azimutantrieb 24 wird
über die Ausgangsleitung 26 des Feuerleitrechners 16 angesteu
ert. Ferner ist ein Elevationsantrieb 28 vorhanden, der über
eine Ausgangsleitung 30 ansteuerbar ist und die Rohrwaffe 20 um
eine Elevationsachse e′ schwenken kann.
Das Sensorsystem 2, 4 und der Track-Sensor 8 mit Rechnern 6, 18,
Rohrwaffe 20 mit Plattform 22 und die Antriebe 24 und 28 können
auf einem gepanzerten Fahrzeug 32 montiert sein.
Die Arbeitsweise des Verfahrens und der Einrichtung nach der
Erfindung seien nun anhand der Fig. 1 und 2 unter Einbeziehung
der Fig. 3 erläutert. Die Ausgangssignale der beiden Kameras 2,4
werden im Steuerrechner 6 in Realzeit korreliert, um dadurch
auch kleinste Bewegungen (im Pixelbereich) zu detektieren und
dadurch einen anfliegenden Flugkörper, z. B. eine Rakete, frühzei
tig zu detektieren.
Aus der Lage der detektierten Bewegung in den vom Steuerrechner
6 ausgewerteten Kamera-Bildern läßt sich die Richtung des an
fliegenden Flugkörpers bestimmen. An sich bekannte Track-Senso
ren erfordern eine Genauigkeit der Richtungsvorgabe von etwa +/-
3 mrad bzw. +/- 10′.
Die Auswertung der Ausgangssignale der Kameras 2, 4 im Steuer
rechner 6 erfolgt vorzugsweise nach folgenden Verfahrensschrit
ten:
- 1. Die Signale der einzelnen Kameras 2, 4 bzw. der einzelnen Kameramodule der Kameras 2, 4 werden parallel digitali siert. Die anfallende Datenmenge liegt hier beispielsweise in der Größenordnung von 80 MB pro Sekunde. Diese Daten menge ergibt sich beispielsweise bei 2 × 4 Kameramodulen mit 738 × 576 Pixel × 25 Bildern/Sekunde (81,08 MB), wobei zu jedem Pixel ein Byte abgespeichert wird, das eine an dem Pixel detektierte Graustufe wiedergibt.
- 2. In einem ersten Auswertevorgang werden für die einzelnen
Bildpunkte (Pixel) Pxy der jeweiligen durch die Kameras 2,
4 erfaßten Bilder Mittelwerte Pxyref berechnet, welche zum
Vergleich mit den aktuellen Bildpunkten dienen. Langsame
Änderungen wie Helligkeitsänderungen, z. B. durch Wolken,
und oszillierende Änderungen, von beispielsweise im Wind
hin und her schwenkender Bäume, werden durch einen Ver
gleich der aktuellen Bildpunkte mit den entsprechenden
Mittelwerten eliminiert.
Die Berechnung der Mittelwerte erfolgt beispielsweise nach folgender Formel: Pxyref,i = Pxyref,i-1 · Gew + Pxyakt (1-Gew),die rekursiv angewandt wird, wobei ein Mittelwert Pxyref,i einer Graustufe eines Pixels Pxy aus einem vorhergehenden Mittelwert Pxyref,i-1 und der aktuell gemessenen Graustufe ermittelt wird, wobei Gew ein Gewichtungsfaktor ist, der beispielsweise einen Wert von 0,9 hat. Der Gewichtungsfak tor Gew liegt vorzugsweise im Bereich von 0,7 bis 0,95 und bestimmt die zeitliche Tiefe, mit welcher die gemessenen Bilder das Mittelwertbild beeinflussen. - 3. In einem zweiten Auswertevorgang wird ein Differenzbild ermittelt, in dem die Differenz zwischen den Pixeln des Mittelwertbildes Pxyref mit denen des aktuellen Bildes Pxyakt gemäß folgender Formel ermittelt wird: PxyDiff = Pxyref-PxyaktIn diesem Differenzbild PxyDiff verbleiben nur noch Grauwerte von Objekten, die ihre Form oder Lage auf dem von den Kame ras 2, 4 erfaßten Bild geändert haben. Alle übrigen stati schen Objekte werden auf dem Differenzbild gelöscht.
- 4. In einem dritten Auswertevorgang werden die Bildpunkte bzw. Pixel auf ein Bit Objektsignal reduziert, die nur noch die Informationen enthalten, ob sich ein Bildpunkt verändert bzw. nicht verändert hat. Jedem Pixel wird ein solches Bit Objektsignal zugeordnet, wobei das Bit gesetzt wird, wenn der Grauwert des Pixels über einem vorbestimmten Schwellen wert liegt, und das Bit gelöscht wird, wenn der Grauwert unter dem vorbestimmten Schwellenwert liegt. Hierdurch wird die Datenmenge eines Bildes um den Faktor 8 reduziert, da jedes eine Graustufe darstellende Byte durch ein einziges Bit ersetzt wird.
- 5. In einem vierten Auswertevorgang werden die auf ein Bit reduzierten Bildpunkte zu Segmenten von beispielsweise 4 × 4 Bildpunkte zusammengefaßt. Das Bild besteht somit aus einer Vielzahl gleich großer Segmente S (Fig. 4). Jedem Segment S ist wiederum ein Bit zugeordnet, wobei das Bit einen reduzierten Bildpunkt darstellt, der gesetzt wird, wenn ein einziger im Segment enthaltener Bildpunkt bzw. Pixel gesetzt ist. Das aus den reduzierten Bildpunkten zusammengesetzte Bild gibt somit das bisher ermittelte Bild der sich in Form oder Lage veränderten Objekte mit einer geringeren Auflösung wieder. Durch diese Verringerung der Auflösung werden die anfallende Daten bei der Zusammenfas sung von 4 × 4 Bildpunkten um den Faktor 16 reduziert.
- 6. Die bisher parallel verarbeiteten Videosignale werden nun zusammengeführt, wobei die bisher noch getrennten Objektsi gnale in Datenworte zusammengefaßt werden, die die jeweili ge Kameranummer, Zeileninformation und Spalteninformation enthalten. Die auf diese Art und Weise komprimierten Infor mationen werden gefiltert, wobei die bildliche Darstellung des erfaßten Objektes, die als Signatur bezeichnet wird, nach Größe, Form und Bewegung auf dem Bild bewertet wird. Entspricht die Signatur keinem geradlinig auf die Senso reinheit zufliegendem Körper vorbestimmter Größe, so wird sie gelöscht. Die Bewertungsregeln sind für die Art des zu erfassenden Objektes spezifisch zu erstellen. Soll eine anfliegende Rakete bekämpft werden, so muß das Bild nach einer sich allmählich vergrößernden kreisförmigen Scheibe abgetastet werden. Zudem werden bspw. nur Scheiben ausge wählt, die beim Anfliegen ihre Position nicht wesentlich verändern, da eine Rakete mit einer sich am Bild stark bewegenden Signatur an ihrem Ziel oder zumindest an der erfindungsgemäßen Raketenabwehrvorrichtung vorbeifliegen würde. Ein andere Flugkörper, insbesondere nicht geradlinig fliegende Flugkörper, müssen andere Bewertungsregeln ange wandt werden. Durch diese Bewertung wird bereits im Steuer rechner eine Vorauswahl der anfliegenden Objekte getroffen. Die die jeweilige Kameranummer, Zeileninformation und Spal teninformation enthaltenen Datenworte geben dem Elevations- und Azimutwinkelbereich des erfaßten anfliegenden Flugkör pers wieder, so daß durch Übergabe dieser Datenworte an den Feuerleitrechner 18 diese Winkelbereiche an den Track-Sen sor weitergeleitet werden.
Die im vierten Auswertevorgang erfolgte Reduktion durch Verrin
gerung der Auflösung macht die anfallende Datenmenge wesentlich
schneller und einfacher handhabbar, wobei hier die Erkenntnis
genutzt wird, daß zwar ein hochauflösendes Sensorsystem für die
frühzeitige Erfassung des in großer Entfernung fliegenden Flug
körpers von Vorteil ist, es jedoch überraschenderweise nicht
notwendig ist, die Bewertung des erfaßten Objektes, ob es dem zu
bekämpfenden Flugkörper entspricht, mit der hohen Auflösung, mit
der die Flugkörper erfaßt werden, durchzuführen. Für den Erfolg
der erfindungsgemäßen Flugabwehrvorrichtung ist wesentlich, daß
diese Bewertung schnell und korrekt erfolgt. Durch die in Fig.
4 dargestellte Datenreduktion, wobei die Auflösung des erfaßten
Bildes verringert wird, kann die Bewertung der Objekte mit der
notwendigen Geschwindigkeit als auch mit der notwendigen Sicher
heit erfolgen. Die Funktionstüchtigkeit der erfindungsgemäßen
Vorrichtung konnte in Praxistests zur Abwehr von anfliegenden
Raketen belegt werden.
Ferner werden dem Track-Sensor, der nur im Nahbereich tätig ist,
die Richtungsdaten mit dieser geringen Auflösung bzw. Präzision
übermittelt. Denn diese Richtungsdaten bzw. Richtungsangaben
werden in Winkelbereichen angegeben, wobei die Größe der durch
die Winkelbereiche festgelegten Flächensegmente indirekt propor
tional zur Entfernung ist, so daß auch durch die relativ "unge
nauen" (+/-10′) Winkelbereiche ein im Nahbereich den Flugkörper
ausreichend präzise beschreibendes Flächensegment festgelegt
ist.
Die parallele Reduzierung der Daten und das nachträgliche Zu
sammenführen der reduzierten Datenmenge erlaubt, daß die Objekt
daten vom Steuerrechner 6 innerhalb von ein bis drei Sekunden
erhalten werden. Dies bedeutet, daß innerhalb kürzester Zeit
eine große, passiv erfaßte Datenmenge ausgewertet und zur An
steuerung des Track-Sensors 8 verwendet werden kann.
Ein Flugkörper, der auf einer Kameraachse einer der beiden Kame
ras 2, 4 anfliegt, kann von dieser Kamera nicht oder nur sehr
spät wahrgenommen werden, denn dessen Signatur verändert sich im
detektierten Bild kaum. Durch das Vorsehen der beiden Kameras 2,
4 wird ein redundantes System geschaffen, so daß mit zumindest
einer der beiden Kameras 2, 4 selbst bei einem direkt auf eine
Kamera zufliegenden Flugkörper ein sicheres Detektieren möglich
ist. Die beiden Kameras 2, 4 dienen somit nicht zur Erzeugung
eines Stereobildes, sondern werden jeweils für sich separat
ausgewertet, wobei bei der Zusammenführung der beiden parallel
verarbeiteten Videosignale ein Vergleich und eine entsprechende
Korrektur erfolgt.
Dadurch, daß eine digital erfaßte, enorm große Datenmenge in
kürzester Zeit zu den wenigen Daten reduziert werden kann, ist
es möglich, die Richtung des Flugkörpers schnell zu ermitteln
und diesen mit der notwendigen Schnelligkeit, Sicherheit und Ge
nauigkeit an den Track-Sensor weiterzuleiten.
Mit Hilfe der Objektdaten wird der optische Track-Sensor 8 auf
die Richtung des Flugkörpers "aufgesetzt". Der Flugkörper wird
ebenfalls mit Hilfe digitaler Bildverarbeitung des mit dem
Track-Sensor gewonnenen Kamerabildes verfolgt. Dabei werden
mittels der beiden Winkelgeber der Azimutwinkel und der Eleva
tionswinkel des Flugkörpers bestimmt. Mit dem Laser-Entfernungs
messer wird der Abstand des Flugkörpers laufend gemessen. Aus
den so gewonnenen Daten wird die Anflugrichtung des Flugkörpers
in Realzeit berechnet, worauf der Steuerrechner 6 Ausgangssigna
le über Leitungen 11, 13 zum Betätigen der Antriebe 12,14 des
Track-Sensors 8 und damit zum Nachführen dieses Track-Sensors
ausgibt. Ferner werden über die Ausgangsleitung 16 des Steuer
rechners 6 Signale an den Feuerleitrechner 18 übergeben, der
seinerseits über die Ansteuereinheit 19 Nachführsignale für die
Leitungen 26, 30 an die Antriebe 24, 28 für die Plattform er
zeugt. Der Feuerleitrechner 18 berechnet anhand der von dem
Track-Sensor 8 sowie der waffen- und systemspezifischen Daten
den Vorhalt der Rohrwaffe 20, führt die Rohrwaffe 20 nach und
löst bei Erreichen der vorgegebenen Bekämpfungsentfernung einen
Schuß oder eine kurze Schußfolge aus.
Das optische Sensorsystem kann auch aus Kameras 2, 4 ausgebildet
sein, mit großflächigen Sensoren von beispielsweise 4.096 ×
4.096 Pixel, die vorzugsweise frei adressierbar sind (random
access). Bei derartigen frei adressierbaren Bereichen können
durch die Auswerteeinrichtung bestimmte Bereiche am Sensor ge
trennt ausgewählt und separat ausgelesen werden.
Kameras mit diesen großflächigen, frei adressierbaren Sensoren
können nicht nur zur Erfassung der Flugkörper, sondern auch
gleichzeitig als Track-Sensoren verwendet werden, wobei nach der
oben beschriebenen, aufgrund reduzierter Daten (Fig. 4) durch
geführten Bewertung der anfliegenden Flugkörper ein Sensorteil
bereich ausgewählt wird, mit dem der anfliegenden Flugkörper
erfaßt wird. Dieser begrenzte Sensorteilbereich dient dann als
Track-Sensor, der nicht mechanisch verstellt werden muß, sondern
durch Verschieben des Sensorteilbereichs auf dem Sensor dem
anfliegenden Flugkörper nachgeführt werden kann. Durch die Aus
wertung eines Teilbereiches des Sensors fallen beim "Tracken"
keine großen Datenmengen an, die ähnlich wie beim an sich be
kannten Track-Sensor vorzugsweise durch eine separate Aus
werte-Elektronik ausgewertet werden. Es können an einem Sensor auch
zwei oder drei Einheiten einer solchen Auswerte-Elektronik zum
"Tracken" angeschlossen werden, so daß gleichzeitig mehrere an
fliegende Flugkörper verfolgt bzw. "getrackt" werden können.
Übernimmt ein Sensorteilbereich die Funktion des Track-Sensors,
so vermindert sich der mechanische, hydraulische und elektroni
sche Steuerungsaufwand wesentlich. Zudem entfällt die Zeitspan
ne, die ein Track-Sensor benötigt, um auf einen anfliegenden
Flugkörper einzuschwenken.
Als Bildsensoren können im optischen (VISible), ultravioletten
(UV), nahen und fernen Infrarot (IR) empfindliche Sensoren ver
wendet werden. Die Sensoren können als CCD (charge coupled devi
ce), CID (charge injection device), IICCD (image intensified
CCD), IICID (image intensified CID), HDRC (high dynamic range
CMOS) oder als bipolares BPDA (photodiode array) ausgebildet
sein.
Vorzugsweise ist der Sensor als sogenannter Smart Optical Sensor
ausgebildet, d. h., daß in den Sensor einfache "intelligente"
Bauteile integriert sind, die beispielsweise eine erste Daten
reduktion vornehmen. Hierdurch kann sowohl eine Beschleunigung
der Auswertung als auch eine Vereinfachung des Aufbaues erzielt
werden.
In der Darstellung nach Fig. 3 ist eine horizontale Achse s
dargestellt, auf welcher in zeitlicher Reihenfolge mit aufstei
genden römischen Ziffern bezeichnete Pfeile markante Entfernun
gen zu einem Nullpunkt bei Pfeil V im Standort einer erfindungs
gemäßen Einrichtung bezeichnen. So beträgt die Entfernung zwi
schen dem Pfeil I und dem Nullpunkt V 2000 Meter, zwischen dem
Pfeil II und dem Nullpunkt 900 bis 700 Meter und zwischen dem
Pfeil IV und dem Nullpunkt V 500 bis 300 Meter.
Der in Fig. 3 mit der Bezugszahl 40 bezeichnete anfliegende
Flugkörper wird bei Überfliegen des Pfeiles II, das heißt in
einem Abstand von 900 bis 700 Meter zum Nullpunkt V grob erfaßt.
Dies ist mit der erfindungsgemäßen passiv arbeitenden Vorrich
tung möglich, welche ab ca. 900 Meter Abstand Objekte von ca. 10
cm Durchmesser, größere anfliegende Flugkörper jedoch entspre
chend früher erfassen kann. Danach setzt der Track-Sensor 8 auf
die ermittelte Flugbahn des Flugkörpers auf, und die Plattform
22 der Rohrwaffe 20 wird entsprechend der Bewegung der Plattform
10 des Track-Sensors 8 nachgeführt. Dieser Nachführvorgang ist
dann abgeschlossen, wenn der Flugkörper 40 etwa die Stelle IV
überfliegt. Danach wird der Schuß ausgelöst.
Bei größeren Zielen, wie Flugzeugen oder Helikoptern, erfolgt
wie gesagt die grobe Zielerfassung erheblich früher. In diesem
Fall kann der anfliegende Flugkörper anstatt mit einer Kanone
auch mit einer Rakete bekämpft werden, die beispielsweise bei
Überfliegen des Flugkörpers 40 an Stelle I (2000 m Abstand vom
Nullpunkt V) gestartet werden kann. Ein Startgehäuse für eine
solche Rakete ist in Fig. 1 mit der Bezugszahl 42 bezeichnet.
Claims (28)
1. Verfahren zur Bekämpfung anfliegender Flugkörper, bei dem
Flugkörper (40) mittels eines Sensorsystems mit großem
Sehbereich erfaßt werden, die erfaßten Bilddaten mittels
eines Rechners (6, 18) verarbeitet werden, und der Flug
körper (40) mit einer Waffe nach Maßgabe der erfaßten Bild
daten bekämpft wird,
dadurch gekennzeichnet,
daß der Flugkörper (40) vom Sensorsystem (2, 4) mit einer
hohen Auflösung passiv erfaßt wird und die Auflösung der
erfaßten Bilddaten für eine Bewertung, ob ein heranfliegen
der Flugkörper bekämpft werden soll oder nicht, verringert
wird, so daß die Datenmenge für den Bewertungsvorgang redu
ziert ist.
2. Verfahren nach Anspruch 1,
dadurch gekennzeichnet,
daß die verarbeiteten Bilddaten an einen optischen
Track-Sensor weitergegeben werden, der den Flugkörper (40) ver
folgt, so daß mit der Waffe auf den Flugkörper (40) gezielt
und dieser bekämpft werden kann.
3. Verfahren nach Anspruch 2,
dadurch gekennzeichnet,
daß die Richtungsangaben über den Flugkörper, die an den
Track-Sensor weitergegeben werden durch einen Elevations-
und Azimutwinkelbereich dargestellt werden, der nicht grö
ßer als der Sehbereich des Track-Sensors (8) ist.
4. Verfahren nach Anspruch 1,
dadurch gekennzeichnet,
daß das Sensorsystem zumindest einen großflächigen Sensor
aufweist, mit einer ersten Auswerte-Einheit und einer zwei
ten Auswerte-Einheit, die, nachdem der anfliegende Flugkör
per als für eine Bekämpfung relevant bewertet wurde, einen
Sensorteilbereich auswählt und auswertet, in dem der Flug
körper abgebildet ist und den Sensorteilbereich entspre
chend der Bewegung der Flugkörpers (40) nachführt.
5. Verfahren nach einem oder mehreren der Ansprüche 1 bis 4,
dadurch gekennzeichnet,
daß das Sensorsystem zwei Kameras (2, 4) aufweist, deren
Videosignale parallel digitalisiert werden.
6. Verfahren nach einem oder mehreren der Ansprüche 1 bis 5,
dadurch gekennzeichnet,
daß mit dem Sensorsystem (2, 4) erfaßte Bilddatenin Pixel
Pxy untergliederte Bilder darstellen, wobei jedem Pixel eine
Graustufe zugeordnet ist.
7. Verfahren nach Anspruch 6,
dadurch gekennzeichnet,
daß Mittelwerte der Graustufen der Pixel Pxy von aufeinan
derfolgend erfaßten Bildern ermittelt werden.
8. Verfahren nach Anspruch 7,
dadurch gekennzeichnet,
daß die Mittelwerte der Graustufen der einzelnen Pixel nach
folgender Formel berechnet werden
Pxyref,i = Pxyref,i-1 · Gew + Pxyakt (1-Gew),die rekursiv angewandt wird, wobei ein Mittelwert Pxyref,i
einer Graustufe eines Pixels Pxy aus einem vorhergehenden
Mittelwert Pxyref,i-1 und der aktuell gemessenen Graustufe
Pxyakt ermittelt wird, wobei Gew ein Gewichtungsfaktor ist,
der beispielsweise einen Wert von 0,9 hat und vorzugsweise
im Bereich von 0,7 bis 0,95 liegt.
9. Verfahren nach Anspruch 8,
dadurch gekennzeichnet,
daß ein Differenzbild ermittelt wird, in dem die Differenz
zwischen Pxyref des Mittelwertbildes mit den Pixeln Pxyakt des
aktuellen Bildes gemäß folgender Formel berechnet wird:
PxyDiff = Pxyref - Pxyakt.
10. Verfahren nach Anspruch 9,
dadurch gekennzeichnet,
daß der Wert der Pixel auf ein Bit Objektsignal reduziert
wird, das nur noch die Information enthält, ob sich der
Wert des Pixels in den aufeinanderfolgenden Bildern ver
ändert hat.
11. Verfahren nach einem oder mehreren der Ansprüche 1 bis 10,
dadurch gekennzeichnet,
daß die Reduzierung der Auflösung der Bilddaten erfolgt,
indem jeweils mehrere Pixel Pxy zu einem Segment S zusammen
gefaßt werden, wobei jedem Segment S ein einziges Bit zu
geordnet wird, das einen reduzierten Bildpunkt darstellt,
der gesetzt wird, wenn ein einziges im Segment S enthalte
nes Pixel gesetzt ist.
12. Verfahren nach Anspruch 11,
dadurch gekennzeichnet,
daß ein Segment S zumindest 4 × 4 Pixel umfaßt.
13. Verfahren nach Anspruch 11 und/oder 12,
dadurch gekennzeichnet,
daß eine Signatur eines erfaßten Flugkörpers nach Größe,
Form und Bewegung auf dem Bild bewertet wird, ob der an
fliegende Flugkörper relevant ist, d. h., ob er bekämpft
werden soll.
14. Verfahren nach einem oder mehreren der Ansprüche 5 bis 13,
dadurch gekennzeichnet,
daß die parallel verarbeiteten Daten zusammengeführt wer
den, wobei die Objektsignale jeweils in ein Datenwort zu
sammengefaßt werden, die die jeweilige Kameranummer, Zei
leninformation und Spalteninformation enthält.
15. Verfahren nach einem oder mehreren der Ansprüche 1 bis 3
oder 5 bis 14,
dadurch gekennzeichnet, daß
- - aus den mit dem Sensorsystem (2, 4) erfaßten Bilddaten die grobe Anflugrichtung des Flugkörpers (40) ermit telt wird,
- - der optische Track-Sensor (8) auf die so ermittelte Flugrichtung angesetzt wird,
- - die Winkellage des Flugkörpers in Azimut und Elevation von zwei Winkelgebern und die Entfernung des Flugkör pers von einem Entfernungsmesser erfaßt wird, aus den vom Track-Sensor (8), vom Entfernungsmesser und von den Winkelgebern ausgegebenen Daten die Raumkoordina ten des Flugkörpers in Realzeit berechnet werden,
- - die errechneten Raumkoordinaten des Flugkörpers in einen Feuerleitrechner (18) eingegeben werden,
- - der Feuerleitrechner (18) die Waffe zur Verfolgung und Bekämpfung des Flugkörpers (40) ansteuert.
16. Vorrichtung zur Bekämpfung anfliegender Flugkörper, ins
besondere zum Durchführen des Verfahrens nach einem oder
mehreren der Ansprüche 1 bis 15, mit
- - einem Sensorsystem mit großem Sehbereich zum Erfassen eines Flugkörpers (40),
- - einem Rechner (6) zum Verarbeiten der erfaßten Bild daten,
- - einer Waffe (20) zur Bekämpfung des Flugkörpers (40) nach Maßgabe der erfaßten Bilddaten,
dadurch gekennzeichnet, daß das Sensorsystem (2, 4) passive
Sensoren aufweist.
17. Vorrichtung nach Anspruch 16,
dadurch gekennzeichnet,
daß ein Track-Sensor (8) zur Erfassung des Flugkörpers (40)
im Nahbereich vorgesehen ist und der Track-Sensor (8) zu
sammen mit einem Entfernungsmesser und Winkelgebern auf
einer um zwei zueinander senkrechte Achsen schwenkbaren
Plattform (10) angeordnet ist.
18. Vorrichtung nach Anspruch 16 und/oder 17,
dadurch gekennzeichnet,
daß der Rechner (6) ein Steuerrechner (6) zum Verarbeiten
der Ausgangsdaten des Sensorsystems (2, 4) und zum Ansteu
ern der Plattform (10) des Track-Sensors (8) sowie eines
Feuerleitrechners (18) ist.
19. Vorrichtung nach einem oder mehreren der Ansprüche 16 bis
18,
dadurch gekennzeichnet,
daß die Sensoren (2, 4) des Sensorsystems Kameras mit gro
ßem Sehfeld sind.
20. Vorrichtung nach einem oder mehreren der Ansprüche 16 bis
19,
dadurch gekennzeichnet,
daß die Sensoren (2, 4) des Sensorsystems jeweils aus einem
Kamerablock mit beispielsweise vier Kameramodulen bestehen,
wobei jedes Kameramodul aus einer Kamera mit großem Sehfeld
ausgebildet ist.
21. Vorrichtung nach Anspruch 19 oder 20,
dadurch gekennzeichnet,
daß die Kameras mit großem Sehfeld CCD-Kameras oder
HDRC-Kameras sind.
22. Vorrichtung nach Anspruch 19 oder 21,
dadurch gekennzeichnet,
daß die Kameras mit großem Sehfeld TV-Kameras sind.
23. Vorrichtung nach Anspruch 19 oder 22,
dadurch gekennzeichnet,
daß die Kameras mit großem Sehfeld Infrarot-Kameras sind.
24. Vorrichtung nach einem oder mehreren der Ansprüche 16 bis
23,
dadurch gekennzeichnet,
daß die Waffe eine Rohrwaffe (20) ist, die auf einer geson
derten, schwenkbaren Plattform (22) angeordnet ist, welche
mit zwei gesonderten Winkelgebern für Azimut- und Eleva
tionswinkel ausgerüstet ist und von einer dem Feuerleit
rechner (18) nachgeschalteten Steuereinheit (19) nachführ
bar ist.
25. Vorrichtung nach Anspruch 24,
dadurch gekennzeichnet,
daß die Rohrwaffe (20) starr auf der Plattform (22) befe
stigt ist und daß die Plattform in Azimut und Elevation
schwenkbar ist.
26. Vorrichtung nach einem oder mehreren der Ansprüche 16 bis
23,
dadurch gekennzeichnet,
daß die Waffe eine Rohrwaffe (20) ist, die gemeinsam mit
dem Track-Sensor (8) auf einer Plattform (10) angeordnet
ist, wobei der Track-Sensor (8) begrenzt unabhängig von der
Rohrwaffe (20) auf der Plattform (10) einstellbar ist.
27. Vorrichtung nach einem oder mehreren der Ansprüche 16 bis
23,
dadurch gekennzeichnet,
daß die Waffe Anti-Raketen aufweist.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE1996138968 DE19638968A1 (de) | 1996-09-23 | 1996-09-23 | Verfahren und Vorrichtung zur Bekämpfung anfliegender Flugkörper |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE1996138968 DE19638968A1 (de) | 1996-09-23 | 1996-09-23 | Verfahren und Vorrichtung zur Bekämpfung anfliegender Flugkörper |
Publications (1)
Publication Number | Publication Date |
---|---|
DE19638968A1 true DE19638968A1 (de) | 1998-03-26 |
Family
ID=7806596
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE1996138968 Withdrawn DE19638968A1 (de) | 1996-09-23 | 1996-09-23 | Verfahren und Vorrichtung zur Bekämpfung anfliegender Flugkörper |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE19638968A1 (de) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19747515C1 (de) * | 1997-10-28 | 1999-05-20 | Stn Atlas Elektronik Gmbh | Einrichtung zum Schutz von mobilen Objekten, insbesondere gepanzerten Fahrzeugen, gegen Geschoßeinwirkung |
DE10117007A1 (de) * | 2001-04-04 | 2002-10-17 | Buck Neue Technologien Gmbh | Verfahren und Vorrichtung zum Schutz von mobilen militärischen Einrichtungen |
DE10346001A1 (de) * | 2003-10-02 | 2005-05-04 | Buck Neue Technologien Gmbh | Verfahren und Vorrichtung zum Schützen von Schiffen vor endphasengelenkten Flugkörpern |
DE10230028B4 (de) * | 2002-07-04 | 2005-07-21 | Diehl Bgt Defence Gmbh & Co. Kg | System zum Schutze eines Objektes, insbesondere eines gepanzerten Fahrzeuges, gegen die Einwirkung eines schnellen Projektiles |
DE10229273B4 (de) * | 2002-06-28 | 2007-01-25 | Diehl Bgt Defence Gmbh & Co. Kg | Objekt-Selbstschutzvorrichtung |
EP1845332A1 (de) | 2006-04-10 | 2007-10-17 | Oerlikon Contraves Ag | Schutzeinrichtung und Schutzmassnahme für eine Radaranlage |
DE102007018507A1 (de) * | 2007-04-19 | 2008-10-23 | Krauss-Maffei Wegmann Gmbh & Co. Kg | Verfahren und Vorrichtung zur Bekämpfung einer Angriffsmunitionskörper-Abschussvorrichtung |
DE102008023520B3 (de) * | 2008-05-15 | 2009-07-02 | Eads Deutschland Gmbh | Verfahren zur Klassifikation von RAM-Geschossen |
DE102010027584A1 (de) * | 2010-07-20 | 2012-01-26 | Diehl Bgt Defence Gmbh & Co. Kg | Objektschutz-Verfahren und -Einrichtung |
RU2495358C2 (ru) * | 2011-11-21 | 2013-10-10 | Общество с Ограниченной Ответственностью "Научно-технический центр "Версия" | Способ обнаружения наземных выстрелов, способ постановки аэрозольных масок-помех над колоннами и группами подвижной техники или длинномерными объектами и комплект аппаратуры оптико-электронной разведки и оптико-электронного подавления для их осуществления |
EP3591427B1 (de) | 2018-07-05 | 2023-06-14 | HENSOLDT Sensors GmbH | Flugkörperwarner und ein verfahren zum warnen vor einem flugkörper |
-
1996
- 1996-09-23 DE DE1996138968 patent/DE19638968A1/de not_active Withdrawn
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19747515C1 (de) * | 1997-10-28 | 1999-05-20 | Stn Atlas Elektronik Gmbh | Einrichtung zum Schutz von mobilen Objekten, insbesondere gepanzerten Fahrzeugen, gegen Geschoßeinwirkung |
DE10117007A1 (de) * | 2001-04-04 | 2002-10-17 | Buck Neue Technologien Gmbh | Verfahren und Vorrichtung zum Schutz von mobilen militärischen Einrichtungen |
DE10229273B4 (de) * | 2002-06-28 | 2007-01-25 | Diehl Bgt Defence Gmbh & Co. Kg | Objekt-Selbstschutzvorrichtung |
DE10230028B4 (de) * | 2002-07-04 | 2005-07-21 | Diehl Bgt Defence Gmbh & Co. Kg | System zum Schutze eines Objektes, insbesondere eines gepanzerten Fahrzeuges, gegen die Einwirkung eines schnellen Projektiles |
DE10346001A1 (de) * | 2003-10-02 | 2005-05-04 | Buck Neue Technologien Gmbh | Verfahren und Vorrichtung zum Schützen von Schiffen vor endphasengelenkten Flugkörpern |
DE10346001B4 (de) * | 2003-10-02 | 2006-01-26 | Buck Neue Technologien Gmbh | Vorrichtung zum Schützen von Schiffen vor endphasengelenkten Flugkörpern |
US7886646B2 (en) | 2003-10-02 | 2011-02-15 | Rheinmetall Waffe Munition Gmbh | Method and apparatus for protecting ships against terminal phase-guided missiles |
US7903019B2 (en) | 2006-04-10 | 2011-03-08 | Rheinmetall Air Defence Ag | Protective device and protective measure for a radar system |
EP1845332A1 (de) | 2006-04-10 | 2007-10-17 | Oerlikon Contraves Ag | Schutzeinrichtung und Schutzmassnahme für eine Radaranlage |
DE102007018507A1 (de) * | 2007-04-19 | 2008-10-23 | Krauss-Maffei Wegmann Gmbh & Co. Kg | Verfahren und Vorrichtung zur Bekämpfung einer Angriffsmunitionskörper-Abschussvorrichtung |
DE102007018507B4 (de) * | 2007-04-19 | 2012-05-03 | Krauss-Maffei Wegmann Gmbh & Co. Kg | Verfahren und Vorrichtung zur Bekämpfung einer Angriffsmunitionskörper-Abschussvorrichtung |
DE102008023520B3 (de) * | 2008-05-15 | 2009-07-02 | Eads Deutschland Gmbh | Verfahren zur Klassifikation von RAM-Geschossen |
EP2120002A2 (de) | 2008-05-15 | 2009-11-18 | EADS Deutschland GmbH | Verfahren zur Klassifikation von anfliegenden RAM-Geschossen |
DE102008023520C5 (de) * | 2008-05-15 | 2016-12-29 | Airbus Defence and Space GmbH | Verfahren zur Klassifikation von RAM-Geschossen |
DE102010027584A1 (de) * | 2010-07-20 | 2012-01-26 | Diehl Bgt Defence Gmbh & Co. Kg | Objektschutz-Verfahren und -Einrichtung |
DE102010027584B4 (de) * | 2010-07-20 | 2012-03-29 | Diehl Bgt Defence Gmbh & Co. Kg | Objektschutz-Verfahren und -Einrichtung |
RU2495358C2 (ru) * | 2011-11-21 | 2013-10-10 | Общество с Ограниченной Ответственностью "Научно-технический центр "Версия" | Способ обнаружения наземных выстрелов, способ постановки аэрозольных масок-помех над колоннами и группами подвижной техники или длинномерными объектами и комплект аппаратуры оптико-электронной разведки и оптико-электронного подавления для их осуществления |
EP3591427B1 (de) | 2018-07-05 | 2023-06-14 | HENSOLDT Sensors GmbH | Flugkörperwarner und ein verfahren zum warnen vor einem flugkörper |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE2819938C2 (de) | Elektrooptisches Fernlenksystem für passive Geschosse | |
EP0018673B1 (de) | Verfahren zum Vermessen von Schussfehlern und Schussfehler-Vermessungsanlage zur Durchführung des Verfahrens | |
DE4416211C2 (de) | Verfahren und Vorrichtung zur Flugbahnkorrektur von Geschossen | |
DE2411790A1 (de) | Verfahren und waffensystem zur gezielten bekaempfung von oberflaechenzielen | |
EP2671094A2 (de) | Luftraumüberwachungssystem zur erfassung von innerhalb eines zu überwachenden gebiets startenden raketen sowie verfahren zur luftraumüberwachung | |
DE19638968A1 (de) | Verfahren und Vorrichtung zur Bekämpfung anfliegender Flugkörper | |
DE3238848A1 (de) | Verfahren und vorrichtung zum gesamten korrigieren des schiessvorganges von einem schuss auf den folgenden bei einer waffe mit gestreckter schussbahn | |
CH669660A5 (de) | ||
DE3019783A1 (de) | Verfahren zur vermeidung von fehlschuessen automatischer schussapparate und anordnung zur durchfuehrung des verfahrens | |
DE2936643A1 (de) | Verfahren und anordnung fuer die abschaetzung der richtgenauigkeit einer waffe | |
EP1314950B1 (de) | Verfahren und Vorrichtung zum Beurteilen der Richtfehler eines Waffensystems und Verwendung der Vorrichtung | |
DE1951622C3 (de) | Anordnung zur simulierten Darstellung von Schußbahnen | |
DE3028545C2 (de) | Verfahren zur Schußsimulation bei beweglichen Zielen mittels Lichtsignalen | |
EP0154809A1 (de) | Verfahren zur Gefechtssimulation | |
DE3545831C2 (de) | ||
DE3504198A1 (de) | Verfahren zum ueberwachen der treffererzielung von panzerschuetzen im schiesstraining | |
EP0862041B1 (de) | Verfahren und Anlage zum Bestimmen und Anzeigen eines Schussfehlers | |
EP1153259B1 (de) | Zielerfassungsverfahren und vorrichtung | |
DE3714883C2 (de) | ||
DE19922412B4 (de) | Zielerfassungsverfahren und Vorrichtung | |
WO2000057123A1 (de) | Verfahren zur schusssimulation | |
DE3843601C2 (de) | ||
DE3132173A1 (de) | Einrichtung zur bestimmung der treffpunktlage beim beschuss von luftzielen | |
DE69408079T2 (de) | System zur Lokalisierung von mobilen Objekten | |
DE4325589B4 (de) | Zielsuchkopf für Lenkflugkörper oder Geschosse |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8139 | Disposal/non-payment of the annual fee |