DE19638968A1 - Verfahren und Vorrichtung zur Bekämpfung anfliegender Flugkörper - Google Patents

Verfahren und Vorrichtung zur Bekämpfung anfliegender Flugkörper

Info

Publication number
DE19638968A1
DE19638968A1 DE1996138968 DE19638968A DE19638968A1 DE 19638968 A1 DE19638968 A1 DE 19638968A1 DE 1996138968 DE1996138968 DE 1996138968 DE 19638968 A DE19638968 A DE 19638968A DE 19638968 A1 DE19638968 A1 DE 19638968A1
Authority
DE
Germany
Prior art keywords
missile
sensor
weapon
cameras
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE1996138968
Other languages
English (en)
Inventor
Reinhold Ficht
Klaus Juergen Peter
Fritz-Hermann Kreft
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to DE1996138968 priority Critical patent/DE19638968A1/de
Publication of DE19638968A1 publication Critical patent/DE19638968A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G5/00Elevating or traversing control systems for guns
    • F41G5/08Ground-based tracking-systems for aerial targets
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S11/00Systems for determining distance or velocity not using reflection or reradiation
    • G01S11/12Systems for determining distance or velocity not using reflection or reradiation using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S3/00Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
    • G01S3/78Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using electromagnetic waves other than radio waves
    • G01S3/782Systems for determining direction or deviation from predetermined direction
    • G01S3/785Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system
    • G01S3/786Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system the desired condition being maintained automatically
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/10Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Electromagnetism (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Engineering & Computer Science (AREA)
  • Aiming, Guidance, Guns With A Light Source, Armor, Camouflage, And Targets (AREA)

Description

Die Erfindung betrifft ein Verfahren und eine Vorrichtung zur Bekämpfung anfliegender Flugkörper.
Bei einem bekannten Verfahren dieser Art wird zum Erfassen und Verfolgen ("Tracken") des Flugkörpers ein Radarsystem einge­ setzt, welches das Ziel mit Radar erfaßt und anfliegende Flug­ körper (Flugzeuge, Hubschrauber, Raketen) in größeren Entfernun­ gen mit Anti-Raketen und in kleineren Entfernungen (weniger als 2000 m) mit Maschinenkanonen bekämpft. Nachteilig bei diesem Verfahren ist einerseits, daß Radarsysteme aktive Sensoren auf­ weisen, die elektromagnetische Wellen aussenden und sich somit zu erkennen geben, so daß ein Gegner den Standort erfassen kann. Andererseits setzt ein Radarsystem kompliziertes, voluminöses und teures technisches Gerät voraus. Um eine Trefferwahrschein­ lichkeit bei der Bekämpfung, insbesondere bei kleinen Bekämp­ fungsentfernungen, zu erzielen, ist eine Rohrwaffe mit extrem hoher Schußfolge erforderlich, mit der im Dauerfeuer über eine vergleichsweise lange Zeitdauer geschossen werden muß.
Aus der DE 33 40 133 C2 ist ein Verfahren bekannt, das mittels Fotodioden-Arrays in einem 3-dimensionalen Meßraum einen Flug­ körper erfassen kann, wobei die anfallende Datenmenge durch ein Datenreduktionsverfahren vermindert wird. Mit diesem Verfahren sollen die aus der DE-OS 31 32 168 und der DE 24 02 204 C3 be­ kannten 2-dimensionalen Verfahren zur Bestimmung der Lage eines Durchstoßpunktes eines Projektils von einer Meßebene auf einen 3-dimensionalen Meßraum erweitert werden.
Der Erfindung liegt die Aufgabe zugrunde, ein Verfahren und eine Einrichtung der eingangs genannten Art so auszubilden, daß die erwähnten Nachteile vermieden sind und gleichwohl eine Bekämp­ fung anfliegender Flugkörper (Raketen, Flugzeuge, Hubschrauber) mit hoher Trefferwahrscheinlichkeit ermöglicht wird.
Zur Lösung dieser Aufgabe dienen ein Verfahren gemäß Patentan­ spruch 1 und eine Vorrichtung gemäß Patentanspruch 13.
Vorteilhafte Ausgestaltungen der Erfindung sind in den Unter­ ansprüchen unter Schutz gestellt.
Mit der Erfindung wird der Flugkörper mit einem Sensorsystem hochauflösend erfaßt. Dies ermöglicht ein frühzeitiges Erkennen des noch weit entfernten Flugkörpers. Die mittels Sensorsystem erfaßte Anflugrichtung des Flugkörpers wird an einen an sich bekannten Track-Sensor weitergegeben, wobei jedoch nur ein Ele­ vations- und Azimutwinkelbereich mit geringerer Auflösung wei­ tergeleitet wird. Da der Track-Sensor nur im "Nahbereich" tätig ist, genügt die geringere Auflösung für eine Erfassung des Flug­ körpers durch den Track-Sensor. Die Verringerung der Auflösung bewirkt eine einfache und schnelle Übergabe der erfaßten Daten an den Track-Sensor. Durch die Erfassung mit hoher Auflösung wird trotz passiver Sensoren die notwendige Sicherheit bei der Wahrnehmung der Flugkörper gewährleistet.
Durch Einsatz von passiven Sensoren, die selbst keine elektroma­ gnetischen Wellen ausstrahlen, wird die elektronische Erfassung durch die gegnerische Abwehr unmöglich gemacht. Dies erhöht die Überlebenswahrscheinlichkeit erheblich, wobei einfacher Aufbau und kleines Volumen des eingesetzten optischen Sensorsystems, welches beispielsweise TV- oder Infrarot-Kameras sowohl für die Groberfassung mit großer Sehweite als auch für das "Tracken" mit langer Brennweite (enger Sehweite) einsetzt, gegenüber einem viel komplexeren und voluminöseren Radarsystem wesentliche zu­ sätzliche Vorteile ergeben.
Das Verfahren und die Vorrichtung nach der Erfindung ermöglichen das präzise Nachführen der Waffe, so daß das Ziel mit einer kurzen Salve mit hoher Trefferwahrscheinlichkeit bekämpft werden kann. Dies erübrigt den Einsatz einer komplexen und teuren Rohr­ waffe mit hoher Kadenz bzw. Schußfolge bei Dauerfeuer.
Die Erfindung ist im folgenden anhand schematischer Zeichnungen an einem Ausführungsbeispiel mit weiteren Einzelheiten näher erläutert. Es zeigen:
Fig. 1 eine schematische Darstellung in Draufsicht auf eine Vorrichtung nach der Erfindung;
Fig. 2 eine Darstellung der Vorrichtung nach Fig. 1 in Sei­ tenansicht mit einem hohen Blockschaltbild unter Ein­ beziehung eines Steuerrechners und eines Feuerleit­ rechners;
Fig. 3 ein Wegdiagramm, anhand dessen die einzelnen Schritte des Verfahrens in Abhängigkeit vom Abstand des flie­ genden Flugkörpers veranschaulicht sind;
Fig. 4 schematisch die Unterteilung in Pixel und Segmente eines erfindungsgemäß erfaßten Bildes.
Die in den Fig. 1 und 2 dargestellte Vorrichtung weist ein optisches Sensorsystem mit zwei feststehenden, parallel zuein­ ander im Abstand angeordneten Kameras 2 und 4 zur Erfassung eines anfliegenden Flugkörpers auf. Die beiden Kameras 2, 4 sind in gleiche Sehrichtung ausgerichtet, und sie weisen ein großes Sehfeld A und B von jeweils z. B. 40° in Azimut und 8° in Eleva­ tion auf. Die Kameras 2, 4 bestehen vorzugsweise jeweils aus einem Kamerablock mit vier Kameramodulen, wobei jedes Kameramo­ dul aus jeweils einer CCD-Kamera ausgebildet ist. Jedes Kamera­ modul weist ein Pixelfeld von 738 × 576 auf. Dies ergibt eine Auflösung von 0,014°, d. h. etwa 0,8′ bzw. +/- 0,4′. Mit einer solch hohen Auflösung können Flugkörper schon frühzeitig erkannt werden, selbst wenn sie nur geringe Abmessung aufweisen und in Tarnfarbe gehalten sind. Durch das frühzeitige Erkennen wird Zeit für die Auswertung der anfallenden Bilddaten gewonnen.
Die Ausgangssignale der Kameras 2,4 werden gemäß Fig. 2 in einen Steuerrechner 6 eingegeben, der weitere Ausgangssignale von einem Track-Sensor 8 langer Brennweite, das heißt mit kleinem Sehfeld C von z. B. 1°, erhält.
Zum Track-Sensor 8 gehört ein Laser-Entfernungsmesser (nicht gesondert gezeigt), und der Track-Sensor 8 ist gemeinsam mit diesem Laser-Entfernungsmesser auf einer um zwei Achsen (Azimut­ achse und Elevationsachse) beweglichen Plattform 10 montiert. Diese Plattform ist ferner mit zwei hochgenauen Winkelmessern bekannter Bauart (nicht gezeigt) zum Erfassen der Schwenkbewe­ gungen der Plattform 10 um die beiden Achsen, nämlich die Eleva­ tionsachse e und die Azimutachse a, ausgerüstet.
Mit der Bezugszahl 12 ist ein Azimutantrieb für die Plattform 10 zur Erzeugung einer Nachführschwenkung um die Azimutachse a bezeichnet. Mit der Bezugszahl 14 ist ein Elevationsantrieb zur Erzeugung einer Nachführschwenkung um die Elevationsachse e der Plattform 10 bezeichnet. Beide Antriebe 12 und 14 werden zu einer Nachführung der Plattform 10 von dem Steuerrechner 6 ange­ steuert.
Der Ausgang 16 des Steuerrechners 6 führt zu einem Feuerleit­ rechner 18, der über eine nachgeschaltete Ansteuereinheit 19 auf eine Rohrwaffe 20 einwirkt. Diese Rohrwaffe 20 ist auf einer Plattform 22 montiert, welche mittels eines Azimutantriebs 24 um eine Azimutachse a′ schwenkbar ist. Der Azimutantrieb 24 wird über die Ausgangsleitung 26 des Feuerleitrechners 16 angesteu­ ert. Ferner ist ein Elevationsantrieb 28 vorhanden, der über eine Ausgangsleitung 30 ansteuerbar ist und die Rohrwaffe 20 um eine Elevationsachse e′ schwenken kann.
Das Sensorsystem 2, 4 und der Track-Sensor 8 mit Rechnern 6, 18, Rohrwaffe 20 mit Plattform 22 und die Antriebe 24 und 28 können auf einem gepanzerten Fahrzeug 32 montiert sein.
Die Arbeitsweise des Verfahrens und der Einrichtung nach der Erfindung seien nun anhand der Fig. 1 und 2 unter Einbeziehung der Fig. 3 erläutert. Die Ausgangssignale der beiden Kameras 2,4 werden im Steuerrechner 6 in Realzeit korreliert, um dadurch auch kleinste Bewegungen (im Pixelbereich) zu detektieren und dadurch einen anfliegenden Flugkörper, z. B. eine Rakete, frühzei­ tig zu detektieren.
Aus der Lage der detektierten Bewegung in den vom Steuerrechner 6 ausgewerteten Kamera-Bildern läßt sich die Richtung des an­ fliegenden Flugkörpers bestimmen. An sich bekannte Track-Senso­ ren erfordern eine Genauigkeit der Richtungsvorgabe von etwa +/- 3 mrad bzw. +/- 10′.
Die Auswertung der Ausgangssignale der Kameras 2, 4 im Steuer­ rechner 6 erfolgt vorzugsweise nach folgenden Verfahrensschrit­ ten:
  • 1. Die Signale der einzelnen Kameras 2, 4 bzw. der einzelnen Kameramodule der Kameras 2, 4 werden parallel digitali­ siert. Die anfallende Datenmenge liegt hier beispielsweise in der Größenordnung von 80 MB pro Sekunde. Diese Daten­ menge ergibt sich beispielsweise bei 2 × 4 Kameramodulen mit 738 × 576 Pixel × 25 Bildern/Sekunde (81,08 MB), wobei zu jedem Pixel ein Byte abgespeichert wird, das eine an dem Pixel detektierte Graustufe wiedergibt.
  • 2. In einem ersten Auswertevorgang werden für die einzelnen Bildpunkte (Pixel) Pxy der jeweiligen durch die Kameras 2, 4 erfaßten Bilder Mittelwerte Pxyref berechnet, welche zum Vergleich mit den aktuellen Bildpunkten dienen. Langsame Änderungen wie Helligkeitsänderungen, z. B. durch Wolken, und oszillierende Änderungen, von beispielsweise im Wind hin und her schwenkender Bäume, werden durch einen Ver­ gleich der aktuellen Bildpunkte mit den entsprechenden Mittelwerten eliminiert.
    Die Berechnung der Mittelwerte erfolgt beispielsweise nach folgender Formel: Pxyref,i = Pxyref,i-1 · Gew + Pxyakt (1-Gew),die rekursiv angewandt wird, wobei ein Mittelwert Pxyref,i einer Graustufe eines Pixels Pxy aus einem vorhergehenden Mittelwert Pxyref,i-1 und der aktuell gemessenen Graustufe ermittelt wird, wobei Gew ein Gewichtungsfaktor ist, der beispielsweise einen Wert von 0,9 hat. Der Gewichtungsfak­ tor Gew liegt vorzugsweise im Bereich von 0,7 bis 0,95 und bestimmt die zeitliche Tiefe, mit welcher die gemessenen Bilder das Mittelwertbild beeinflussen.
  • 3. In einem zweiten Auswertevorgang wird ein Differenzbild ermittelt, in dem die Differenz zwischen den Pixeln des Mittelwertbildes Pxyref mit denen des aktuellen Bildes Pxyakt gemäß folgender Formel ermittelt wird: PxyDiff = Pxyref-PxyaktIn diesem Differenzbild PxyDiff verbleiben nur noch Grauwerte von Objekten, die ihre Form oder Lage auf dem von den Kame­ ras 2, 4 erfaßten Bild geändert haben. Alle übrigen stati­ schen Objekte werden auf dem Differenzbild gelöscht.
  • 4. In einem dritten Auswertevorgang werden die Bildpunkte bzw. Pixel auf ein Bit Objektsignal reduziert, die nur noch die Informationen enthalten, ob sich ein Bildpunkt verändert bzw. nicht verändert hat. Jedem Pixel wird ein solches Bit Objektsignal zugeordnet, wobei das Bit gesetzt wird, wenn der Grauwert des Pixels über einem vorbestimmten Schwellen­ wert liegt, und das Bit gelöscht wird, wenn der Grauwert unter dem vorbestimmten Schwellenwert liegt. Hierdurch wird die Datenmenge eines Bildes um den Faktor 8 reduziert, da jedes eine Graustufe darstellende Byte durch ein einziges Bit ersetzt wird.
  • 5. In einem vierten Auswertevorgang werden die auf ein Bit reduzierten Bildpunkte zu Segmenten von beispielsweise 4 × 4 Bildpunkte zusammengefaßt. Das Bild besteht somit aus einer Vielzahl gleich großer Segmente S (Fig. 4). Jedem Segment S ist wiederum ein Bit zugeordnet, wobei das Bit einen reduzierten Bildpunkt darstellt, der gesetzt wird, wenn ein einziger im Segment enthaltener Bildpunkt bzw. Pixel gesetzt ist. Das aus den reduzierten Bildpunkten zusammengesetzte Bild gibt somit das bisher ermittelte Bild der sich in Form oder Lage veränderten Objekte mit einer geringeren Auflösung wieder. Durch diese Verringerung der Auflösung werden die anfallende Daten bei der Zusammenfas­ sung von 4 × 4 Bildpunkten um den Faktor 16 reduziert.
  • 6. Die bisher parallel verarbeiteten Videosignale werden nun zusammengeführt, wobei die bisher noch getrennten Objektsi­ gnale in Datenworte zusammengefaßt werden, die die jeweili­ ge Kameranummer, Zeileninformation und Spalteninformation enthalten. Die auf diese Art und Weise komprimierten Infor­ mationen werden gefiltert, wobei die bildliche Darstellung des erfaßten Objektes, die als Signatur bezeichnet wird, nach Größe, Form und Bewegung auf dem Bild bewertet wird. Entspricht die Signatur keinem geradlinig auf die Senso­ reinheit zufliegendem Körper vorbestimmter Größe, so wird sie gelöscht. Die Bewertungsregeln sind für die Art des zu erfassenden Objektes spezifisch zu erstellen. Soll eine anfliegende Rakete bekämpft werden, so muß das Bild nach einer sich allmählich vergrößernden kreisförmigen Scheibe abgetastet werden. Zudem werden bspw. nur Scheiben ausge­ wählt, die beim Anfliegen ihre Position nicht wesentlich verändern, da eine Rakete mit einer sich am Bild stark bewegenden Signatur an ihrem Ziel oder zumindest an der erfindungsgemäßen Raketenabwehrvorrichtung vorbeifliegen würde. Ein andere Flugkörper, insbesondere nicht geradlinig fliegende Flugkörper, müssen andere Bewertungsregeln ange­ wandt werden. Durch diese Bewertung wird bereits im Steuer­ rechner eine Vorauswahl der anfliegenden Objekte getroffen. Die die jeweilige Kameranummer, Zeileninformation und Spal­ teninformation enthaltenen Datenworte geben dem Elevations- und Azimutwinkelbereich des erfaßten anfliegenden Flugkör­ pers wieder, so daß durch Übergabe dieser Datenworte an den Feuerleitrechner 18 diese Winkelbereiche an den Track-Sen­ sor weitergeleitet werden.
Die im vierten Auswertevorgang erfolgte Reduktion durch Verrin­ gerung der Auflösung macht die anfallende Datenmenge wesentlich schneller und einfacher handhabbar, wobei hier die Erkenntnis genutzt wird, daß zwar ein hochauflösendes Sensorsystem für die frühzeitige Erfassung des in großer Entfernung fliegenden Flug­ körpers von Vorteil ist, es jedoch überraschenderweise nicht notwendig ist, die Bewertung des erfaßten Objektes, ob es dem zu bekämpfenden Flugkörper entspricht, mit der hohen Auflösung, mit der die Flugkörper erfaßt werden, durchzuführen. Für den Erfolg der erfindungsgemäßen Flugabwehrvorrichtung ist wesentlich, daß diese Bewertung schnell und korrekt erfolgt. Durch die in Fig. 4 dargestellte Datenreduktion, wobei die Auflösung des erfaßten Bildes verringert wird, kann die Bewertung der Objekte mit der notwendigen Geschwindigkeit als auch mit der notwendigen Sicher­ heit erfolgen. Die Funktionstüchtigkeit der erfindungsgemäßen Vorrichtung konnte in Praxistests zur Abwehr von anfliegenden Raketen belegt werden.
Ferner werden dem Track-Sensor, der nur im Nahbereich tätig ist, die Richtungsdaten mit dieser geringen Auflösung bzw. Präzision übermittelt. Denn diese Richtungsdaten bzw. Richtungsangaben werden in Winkelbereichen angegeben, wobei die Größe der durch die Winkelbereiche festgelegten Flächensegmente indirekt propor­ tional zur Entfernung ist, so daß auch durch die relativ "unge­ nauen" (+/-10′) Winkelbereiche ein im Nahbereich den Flugkörper ausreichend präzise beschreibendes Flächensegment festgelegt ist.
Die parallele Reduzierung der Daten und das nachträgliche Zu­ sammenführen der reduzierten Datenmenge erlaubt, daß die Objekt­ daten vom Steuerrechner 6 innerhalb von ein bis drei Sekunden erhalten werden. Dies bedeutet, daß innerhalb kürzester Zeit eine große, passiv erfaßte Datenmenge ausgewertet und zur An­ steuerung des Track-Sensors 8 verwendet werden kann.
Ein Flugkörper, der auf einer Kameraachse einer der beiden Kame­ ras 2, 4 anfliegt, kann von dieser Kamera nicht oder nur sehr spät wahrgenommen werden, denn dessen Signatur verändert sich im detektierten Bild kaum. Durch das Vorsehen der beiden Kameras 2, 4 wird ein redundantes System geschaffen, so daß mit zumindest einer der beiden Kameras 2, 4 selbst bei einem direkt auf eine Kamera zufliegenden Flugkörper ein sicheres Detektieren möglich ist. Die beiden Kameras 2, 4 dienen somit nicht zur Erzeugung eines Stereobildes, sondern werden jeweils für sich separat ausgewertet, wobei bei der Zusammenführung der beiden parallel verarbeiteten Videosignale ein Vergleich und eine entsprechende Korrektur erfolgt.
Dadurch, daß eine digital erfaßte, enorm große Datenmenge in kürzester Zeit zu den wenigen Daten reduziert werden kann, ist es möglich, die Richtung des Flugkörpers schnell zu ermitteln und diesen mit der notwendigen Schnelligkeit, Sicherheit und Ge­ nauigkeit an den Track-Sensor weiterzuleiten.
Mit Hilfe der Objektdaten wird der optische Track-Sensor 8 auf die Richtung des Flugkörpers "aufgesetzt". Der Flugkörper wird ebenfalls mit Hilfe digitaler Bildverarbeitung des mit dem Track-Sensor gewonnenen Kamerabildes verfolgt. Dabei werden mittels der beiden Winkelgeber der Azimutwinkel und der Eleva­ tionswinkel des Flugkörpers bestimmt. Mit dem Laser-Entfernungs­ messer wird der Abstand des Flugkörpers laufend gemessen. Aus den so gewonnenen Daten wird die Anflugrichtung des Flugkörpers in Realzeit berechnet, worauf der Steuerrechner 6 Ausgangssigna­ le über Leitungen 11, 13 zum Betätigen der Antriebe 12,14 des Track-Sensors 8 und damit zum Nachführen dieses Track-Sensors ausgibt. Ferner werden über die Ausgangsleitung 16 des Steuer­ rechners 6 Signale an den Feuerleitrechner 18 übergeben, der seinerseits über die Ansteuereinheit 19 Nachführsignale für die Leitungen 26, 30 an die Antriebe 24, 28 für die Plattform er­ zeugt. Der Feuerleitrechner 18 berechnet anhand der von dem Track-Sensor 8 sowie der waffen- und systemspezifischen Daten den Vorhalt der Rohrwaffe 20, führt die Rohrwaffe 20 nach und löst bei Erreichen der vorgegebenen Bekämpfungsentfernung einen Schuß oder eine kurze Schußfolge aus.
Das optische Sensorsystem kann auch aus Kameras 2, 4 ausgebildet sein, mit großflächigen Sensoren von beispielsweise 4.096 × 4.096 Pixel, die vorzugsweise frei adressierbar sind (random access). Bei derartigen frei adressierbaren Bereichen können durch die Auswerteeinrichtung bestimmte Bereiche am Sensor ge­ trennt ausgewählt und separat ausgelesen werden.
Kameras mit diesen großflächigen, frei adressierbaren Sensoren können nicht nur zur Erfassung der Flugkörper, sondern auch gleichzeitig als Track-Sensoren verwendet werden, wobei nach der oben beschriebenen, aufgrund reduzierter Daten (Fig. 4) durch­ geführten Bewertung der anfliegenden Flugkörper ein Sensorteil­ bereich ausgewählt wird, mit dem der anfliegenden Flugkörper erfaßt wird. Dieser begrenzte Sensorteilbereich dient dann als Track-Sensor, der nicht mechanisch verstellt werden muß, sondern durch Verschieben des Sensorteilbereichs auf dem Sensor dem anfliegenden Flugkörper nachgeführt werden kann. Durch die Aus­ wertung eines Teilbereiches des Sensors fallen beim "Tracken" keine großen Datenmengen an, die ähnlich wie beim an sich be­ kannten Track-Sensor vorzugsweise durch eine separate Aus­ werte-Elektronik ausgewertet werden. Es können an einem Sensor auch zwei oder drei Einheiten einer solchen Auswerte-Elektronik zum "Tracken" angeschlossen werden, so daß gleichzeitig mehrere an­ fliegende Flugkörper verfolgt bzw. "getrackt" werden können.
Übernimmt ein Sensorteilbereich die Funktion des Track-Sensors, so vermindert sich der mechanische, hydraulische und elektroni­ sche Steuerungsaufwand wesentlich. Zudem entfällt die Zeitspan­ ne, die ein Track-Sensor benötigt, um auf einen anfliegenden Flugkörper einzuschwenken.
Als Bildsensoren können im optischen (VISible), ultravioletten (UV), nahen und fernen Infrarot (IR) empfindliche Sensoren ver­ wendet werden. Die Sensoren können als CCD (charge coupled devi­ ce), CID (charge injection device), IICCD (image intensified CCD), IICID (image intensified CID), HDRC (high dynamic range CMOS) oder als bipolares BPDA (photodiode array) ausgebildet sein.
Vorzugsweise ist der Sensor als sogenannter Smart Optical Sensor ausgebildet, d. h., daß in den Sensor einfache "intelligente" Bauteile integriert sind, die beispielsweise eine erste Daten­ reduktion vornehmen. Hierdurch kann sowohl eine Beschleunigung der Auswertung als auch eine Vereinfachung des Aufbaues erzielt werden.
In der Darstellung nach Fig. 3 ist eine horizontale Achse s dargestellt, auf welcher in zeitlicher Reihenfolge mit aufstei­ genden römischen Ziffern bezeichnete Pfeile markante Entfernun­ gen zu einem Nullpunkt bei Pfeil V im Standort einer erfindungs­ gemäßen Einrichtung bezeichnen. So beträgt die Entfernung zwi­ schen dem Pfeil I und dem Nullpunkt V 2000 Meter, zwischen dem Pfeil II und dem Nullpunkt 900 bis 700 Meter und zwischen dem Pfeil IV und dem Nullpunkt V 500 bis 300 Meter.
Der in Fig. 3 mit der Bezugszahl 40 bezeichnete anfliegende Flugkörper wird bei Überfliegen des Pfeiles II, das heißt in einem Abstand von 900 bis 700 Meter zum Nullpunkt V grob erfaßt. Dies ist mit der erfindungsgemäßen passiv arbeitenden Vorrich­ tung möglich, welche ab ca. 900 Meter Abstand Objekte von ca. 10 cm Durchmesser, größere anfliegende Flugkörper jedoch entspre­ chend früher erfassen kann. Danach setzt der Track-Sensor 8 auf die ermittelte Flugbahn des Flugkörpers auf, und die Plattform 22 der Rohrwaffe 20 wird entsprechend der Bewegung der Plattform 10 des Track-Sensors 8 nachgeführt. Dieser Nachführvorgang ist dann abgeschlossen, wenn der Flugkörper 40 etwa die Stelle IV überfliegt. Danach wird der Schuß ausgelöst.
Bei größeren Zielen, wie Flugzeugen oder Helikoptern, erfolgt wie gesagt die grobe Zielerfassung erheblich früher. In diesem Fall kann der anfliegende Flugkörper anstatt mit einer Kanone auch mit einer Rakete bekämpft werden, die beispielsweise bei Überfliegen des Flugkörpers 40 an Stelle I (2000 m Abstand vom Nullpunkt V) gestartet werden kann. Ein Startgehäuse für eine solche Rakete ist in Fig. 1 mit der Bezugszahl 42 bezeichnet.

Claims (28)

1. Verfahren zur Bekämpfung anfliegender Flugkörper, bei dem Flugkörper (40) mittels eines Sensorsystems mit großem Sehbereich erfaßt werden, die erfaßten Bilddaten mittels eines Rechners (6, 18) verarbeitet werden, und der Flug­ körper (40) mit einer Waffe nach Maßgabe der erfaßten Bild­ daten bekämpft wird, dadurch gekennzeichnet, daß der Flugkörper (40) vom Sensorsystem (2, 4) mit einer hohen Auflösung passiv erfaßt wird und die Auflösung der erfaßten Bilddaten für eine Bewertung, ob ein heranfliegen­ der Flugkörper bekämpft werden soll oder nicht, verringert wird, so daß die Datenmenge für den Bewertungsvorgang redu­ ziert ist.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß die verarbeiteten Bilddaten an einen optischen Track-Sensor weitergegeben werden, der den Flugkörper (40) ver­ folgt, so daß mit der Waffe auf den Flugkörper (40) gezielt und dieser bekämpft werden kann.
3. Verfahren nach Anspruch 2, dadurch gekennzeichnet, daß die Richtungsangaben über den Flugkörper, die an den Track-Sensor weitergegeben werden durch einen Elevations- und Azimutwinkelbereich dargestellt werden, der nicht grö­ ßer als der Sehbereich des Track-Sensors (8) ist.
4. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß das Sensorsystem zumindest einen großflächigen Sensor aufweist, mit einer ersten Auswerte-Einheit und einer zwei­ ten Auswerte-Einheit, die, nachdem der anfliegende Flugkör­ per als für eine Bekämpfung relevant bewertet wurde, einen Sensorteilbereich auswählt und auswertet, in dem der Flug­ körper abgebildet ist und den Sensorteilbereich entspre­ chend der Bewegung der Flugkörpers (40) nachführt.
5. Verfahren nach einem oder mehreren der Ansprüche 1 bis 4, dadurch gekennzeichnet, daß das Sensorsystem zwei Kameras (2, 4) aufweist, deren Videosignale parallel digitalisiert werden.
6. Verfahren nach einem oder mehreren der Ansprüche 1 bis 5, dadurch gekennzeichnet, daß mit dem Sensorsystem (2, 4) erfaßte Bilddatenin Pixel Pxy untergliederte Bilder darstellen, wobei jedem Pixel eine Graustufe zugeordnet ist.
7. Verfahren nach Anspruch 6, dadurch gekennzeichnet, daß Mittelwerte der Graustufen der Pixel Pxy von aufeinan­ derfolgend erfaßten Bildern ermittelt werden.
8. Verfahren nach Anspruch 7, dadurch gekennzeichnet, daß die Mittelwerte der Graustufen der einzelnen Pixel nach folgender Formel berechnet werden Pxyref,i = Pxyref,i-1 · Gew + Pxyakt (1-Gew),die rekursiv angewandt wird, wobei ein Mittelwert Pxyref,i einer Graustufe eines Pixels Pxy aus einem vorhergehenden Mittelwert Pxyref,i-1 und der aktuell gemessenen Graustufe Pxyakt ermittelt wird, wobei Gew ein Gewichtungsfaktor ist, der beispielsweise einen Wert von 0,9 hat und vorzugsweise im Bereich von 0,7 bis 0,95 liegt.
9. Verfahren nach Anspruch 8, dadurch gekennzeichnet, daß ein Differenzbild ermittelt wird, in dem die Differenz zwischen Pxyref des Mittelwertbildes mit den Pixeln Pxyakt des aktuellen Bildes gemäß folgender Formel berechnet wird: PxyDiff = Pxyref - Pxyakt.
10. Verfahren nach Anspruch 9, dadurch gekennzeichnet, daß der Wert der Pixel auf ein Bit Objektsignal reduziert wird, das nur noch die Information enthält, ob sich der Wert des Pixels in den aufeinanderfolgenden Bildern ver­ ändert hat.
11. Verfahren nach einem oder mehreren der Ansprüche 1 bis 10, dadurch gekennzeichnet, daß die Reduzierung der Auflösung der Bilddaten erfolgt, indem jeweils mehrere Pixel Pxy zu einem Segment S zusammen­ gefaßt werden, wobei jedem Segment S ein einziges Bit zu­ geordnet wird, das einen reduzierten Bildpunkt darstellt, der gesetzt wird, wenn ein einziges im Segment S enthalte­ nes Pixel gesetzt ist.
12. Verfahren nach Anspruch 11, dadurch gekennzeichnet, daß ein Segment S zumindest 4 × 4 Pixel umfaßt.
13. Verfahren nach Anspruch 11 und/oder 12, dadurch gekennzeichnet, daß eine Signatur eines erfaßten Flugkörpers nach Größe, Form und Bewegung auf dem Bild bewertet wird, ob der an fliegende Flugkörper relevant ist, d. h., ob er bekämpft werden soll.
14. Verfahren nach einem oder mehreren der Ansprüche 5 bis 13, dadurch gekennzeichnet, daß die parallel verarbeiteten Daten zusammengeführt wer­ den, wobei die Objektsignale jeweils in ein Datenwort zu­ sammengefaßt werden, die die jeweilige Kameranummer, Zei­ leninformation und Spalteninformation enthält.
15. Verfahren nach einem oder mehreren der Ansprüche 1 bis 3 oder 5 bis 14, dadurch gekennzeichnet, daß
  • - aus den mit dem Sensorsystem (2, 4) erfaßten Bilddaten die grobe Anflugrichtung des Flugkörpers (40) ermit­ telt wird,
  • - der optische Track-Sensor (8) auf die so ermittelte Flugrichtung angesetzt wird,
  • - die Winkellage des Flugkörpers in Azimut und Elevation von zwei Winkelgebern und die Entfernung des Flugkör­ pers von einem Entfernungsmesser erfaßt wird, aus den vom Track-Sensor (8), vom Entfernungsmesser und von den Winkelgebern ausgegebenen Daten die Raumkoordina­ ten des Flugkörpers in Realzeit berechnet werden,
  • - die errechneten Raumkoordinaten des Flugkörpers in einen Feuerleitrechner (18) eingegeben werden,
  • - der Feuerleitrechner (18) die Waffe zur Verfolgung und Bekämpfung des Flugkörpers (40) ansteuert.
16. Vorrichtung zur Bekämpfung anfliegender Flugkörper, ins­ besondere zum Durchführen des Verfahrens nach einem oder mehreren der Ansprüche 1 bis 15, mit
  • - einem Sensorsystem mit großem Sehbereich zum Erfassen eines Flugkörpers (40),
  • - einem Rechner (6) zum Verarbeiten der erfaßten Bild­ daten,
  • - einer Waffe (20) zur Bekämpfung des Flugkörpers (40) nach Maßgabe der erfaßten Bilddaten,
dadurch gekennzeichnet, daß das Sensorsystem (2, 4) passive Sensoren aufweist.
17. Vorrichtung nach Anspruch 16, dadurch gekennzeichnet, daß ein Track-Sensor (8) zur Erfassung des Flugkörpers (40) im Nahbereich vorgesehen ist und der Track-Sensor (8) zu­ sammen mit einem Entfernungsmesser und Winkelgebern auf einer um zwei zueinander senkrechte Achsen schwenkbaren Plattform (10) angeordnet ist.
18. Vorrichtung nach Anspruch 16 und/oder 17, dadurch gekennzeichnet, daß der Rechner (6) ein Steuerrechner (6) zum Verarbeiten der Ausgangsdaten des Sensorsystems (2, 4) und zum Ansteu­ ern der Plattform (10) des Track-Sensors (8) sowie eines Feuerleitrechners (18) ist.
19. Vorrichtung nach einem oder mehreren der Ansprüche 16 bis 18, dadurch gekennzeichnet, daß die Sensoren (2, 4) des Sensorsystems Kameras mit gro­ ßem Sehfeld sind.
20. Vorrichtung nach einem oder mehreren der Ansprüche 16 bis 19, dadurch gekennzeichnet, daß die Sensoren (2, 4) des Sensorsystems jeweils aus einem Kamerablock mit beispielsweise vier Kameramodulen bestehen, wobei jedes Kameramodul aus einer Kamera mit großem Sehfeld ausgebildet ist.
21. Vorrichtung nach Anspruch 19 oder 20, dadurch gekennzeichnet, daß die Kameras mit großem Sehfeld CCD-Kameras oder HDRC-Kameras sind.
22. Vorrichtung nach Anspruch 19 oder 21, dadurch gekennzeichnet, daß die Kameras mit großem Sehfeld TV-Kameras sind.
23. Vorrichtung nach Anspruch 19 oder 22, dadurch gekennzeichnet, daß die Kameras mit großem Sehfeld Infrarot-Kameras sind.
24. Vorrichtung nach einem oder mehreren der Ansprüche 16 bis 23, dadurch gekennzeichnet, daß die Waffe eine Rohrwaffe (20) ist, die auf einer geson­ derten, schwenkbaren Plattform (22) angeordnet ist, welche mit zwei gesonderten Winkelgebern für Azimut- und Eleva­ tionswinkel ausgerüstet ist und von einer dem Feuerleit­ rechner (18) nachgeschalteten Steuereinheit (19) nachführ­ bar ist.
25. Vorrichtung nach Anspruch 24, dadurch gekennzeichnet, daß die Rohrwaffe (20) starr auf der Plattform (22) befe­ stigt ist und daß die Plattform in Azimut und Elevation schwenkbar ist.
26. Vorrichtung nach einem oder mehreren der Ansprüche 16 bis 23, dadurch gekennzeichnet, daß die Waffe eine Rohrwaffe (20) ist, die gemeinsam mit dem Track-Sensor (8) auf einer Plattform (10) angeordnet ist, wobei der Track-Sensor (8) begrenzt unabhängig von der Rohrwaffe (20) auf der Plattform (10) einstellbar ist.
27. Vorrichtung nach einem oder mehreren der Ansprüche 16 bis 23, dadurch gekennzeichnet, daß die Waffe Anti-Raketen aufweist.
DE1996138968 1996-09-23 1996-09-23 Verfahren und Vorrichtung zur Bekämpfung anfliegender Flugkörper Withdrawn DE19638968A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE1996138968 DE19638968A1 (de) 1996-09-23 1996-09-23 Verfahren und Vorrichtung zur Bekämpfung anfliegender Flugkörper

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE1996138968 DE19638968A1 (de) 1996-09-23 1996-09-23 Verfahren und Vorrichtung zur Bekämpfung anfliegender Flugkörper

Publications (1)

Publication Number Publication Date
DE19638968A1 true DE19638968A1 (de) 1998-03-26

Family

ID=7806596

Family Applications (1)

Application Number Title Priority Date Filing Date
DE1996138968 Withdrawn DE19638968A1 (de) 1996-09-23 1996-09-23 Verfahren und Vorrichtung zur Bekämpfung anfliegender Flugkörper

Country Status (1)

Country Link
DE (1) DE19638968A1 (de)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19747515C1 (de) * 1997-10-28 1999-05-20 Stn Atlas Elektronik Gmbh Einrichtung zum Schutz von mobilen Objekten, insbesondere gepanzerten Fahrzeugen, gegen Geschoßeinwirkung
DE10117007A1 (de) * 2001-04-04 2002-10-17 Buck Neue Technologien Gmbh Verfahren und Vorrichtung zum Schutz von mobilen militärischen Einrichtungen
DE10346001A1 (de) * 2003-10-02 2005-05-04 Buck Neue Technologien Gmbh Verfahren und Vorrichtung zum Schützen von Schiffen vor endphasengelenkten Flugkörpern
DE10230028B4 (de) * 2002-07-04 2005-07-21 Diehl Bgt Defence Gmbh & Co. Kg System zum Schutze eines Objektes, insbesondere eines gepanzerten Fahrzeuges, gegen die Einwirkung eines schnellen Projektiles
DE10229273B4 (de) * 2002-06-28 2007-01-25 Diehl Bgt Defence Gmbh & Co. Kg Objekt-Selbstschutzvorrichtung
EP1845332A1 (de) 2006-04-10 2007-10-17 Oerlikon Contraves Ag Schutzeinrichtung und Schutzmassnahme für eine Radaranlage
DE102007018507A1 (de) * 2007-04-19 2008-10-23 Krauss-Maffei Wegmann Gmbh & Co. Kg Verfahren und Vorrichtung zur Bekämpfung einer Angriffsmunitionskörper-Abschussvorrichtung
DE102008023520B3 (de) * 2008-05-15 2009-07-02 Eads Deutschland Gmbh Verfahren zur Klassifikation von RAM-Geschossen
DE102010027584A1 (de) * 2010-07-20 2012-01-26 Diehl Bgt Defence Gmbh & Co. Kg Objektschutz-Verfahren und -Einrichtung
RU2495358C2 (ru) * 2011-11-21 2013-10-10 Общество с Ограниченной Ответственностью "Научно-технический центр "Версия" Способ обнаружения наземных выстрелов, способ постановки аэрозольных масок-помех над колоннами и группами подвижной техники или длинномерными объектами и комплект аппаратуры оптико-электронной разведки и оптико-электронного подавления для их осуществления
EP3591427B1 (de) 2018-07-05 2023-06-14 HENSOLDT Sensors GmbH Flugkörperwarner und ein verfahren zum warnen vor einem flugkörper

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19747515C1 (de) * 1997-10-28 1999-05-20 Stn Atlas Elektronik Gmbh Einrichtung zum Schutz von mobilen Objekten, insbesondere gepanzerten Fahrzeugen, gegen Geschoßeinwirkung
DE10117007A1 (de) * 2001-04-04 2002-10-17 Buck Neue Technologien Gmbh Verfahren und Vorrichtung zum Schutz von mobilen militärischen Einrichtungen
DE10229273B4 (de) * 2002-06-28 2007-01-25 Diehl Bgt Defence Gmbh & Co. Kg Objekt-Selbstschutzvorrichtung
DE10230028B4 (de) * 2002-07-04 2005-07-21 Diehl Bgt Defence Gmbh & Co. Kg System zum Schutze eines Objektes, insbesondere eines gepanzerten Fahrzeuges, gegen die Einwirkung eines schnellen Projektiles
DE10346001A1 (de) * 2003-10-02 2005-05-04 Buck Neue Technologien Gmbh Verfahren und Vorrichtung zum Schützen von Schiffen vor endphasengelenkten Flugkörpern
DE10346001B4 (de) * 2003-10-02 2006-01-26 Buck Neue Technologien Gmbh Vorrichtung zum Schützen von Schiffen vor endphasengelenkten Flugkörpern
US7886646B2 (en) 2003-10-02 2011-02-15 Rheinmetall Waffe Munition Gmbh Method and apparatus for protecting ships against terminal phase-guided missiles
US7903019B2 (en) 2006-04-10 2011-03-08 Rheinmetall Air Defence Ag Protective device and protective measure for a radar system
EP1845332A1 (de) 2006-04-10 2007-10-17 Oerlikon Contraves Ag Schutzeinrichtung und Schutzmassnahme für eine Radaranlage
DE102007018507A1 (de) * 2007-04-19 2008-10-23 Krauss-Maffei Wegmann Gmbh & Co. Kg Verfahren und Vorrichtung zur Bekämpfung einer Angriffsmunitionskörper-Abschussvorrichtung
DE102007018507B4 (de) * 2007-04-19 2012-05-03 Krauss-Maffei Wegmann Gmbh & Co. Kg Verfahren und Vorrichtung zur Bekämpfung einer Angriffsmunitionskörper-Abschussvorrichtung
DE102008023520B3 (de) * 2008-05-15 2009-07-02 Eads Deutschland Gmbh Verfahren zur Klassifikation von RAM-Geschossen
EP2120002A2 (de) 2008-05-15 2009-11-18 EADS Deutschland GmbH Verfahren zur Klassifikation von anfliegenden RAM-Geschossen
DE102008023520C5 (de) * 2008-05-15 2016-12-29 Airbus Defence and Space GmbH Verfahren zur Klassifikation von RAM-Geschossen
DE102010027584A1 (de) * 2010-07-20 2012-01-26 Diehl Bgt Defence Gmbh & Co. Kg Objektschutz-Verfahren und -Einrichtung
DE102010027584B4 (de) * 2010-07-20 2012-03-29 Diehl Bgt Defence Gmbh & Co. Kg Objektschutz-Verfahren und -Einrichtung
RU2495358C2 (ru) * 2011-11-21 2013-10-10 Общество с Ограниченной Ответственностью "Научно-технический центр "Версия" Способ обнаружения наземных выстрелов, способ постановки аэрозольных масок-помех над колоннами и группами подвижной техники или длинномерными объектами и комплект аппаратуры оптико-электронной разведки и оптико-электронного подавления для их осуществления
EP3591427B1 (de) 2018-07-05 2023-06-14 HENSOLDT Sensors GmbH Flugkörperwarner und ein verfahren zum warnen vor einem flugkörper

Similar Documents

Publication Publication Date Title
DE2819938C2 (de) Elektrooptisches Fernlenksystem für passive Geschosse
EP0018673B1 (de) Verfahren zum Vermessen von Schussfehlern und Schussfehler-Vermessungsanlage zur Durchführung des Verfahrens
DE4416211C2 (de) Verfahren und Vorrichtung zur Flugbahnkorrektur von Geschossen
DE2411790A1 (de) Verfahren und waffensystem zur gezielten bekaempfung von oberflaechenzielen
EP2671094A2 (de) Luftraumüberwachungssystem zur erfassung von innerhalb eines zu überwachenden gebiets startenden raketen sowie verfahren zur luftraumüberwachung
DE19638968A1 (de) Verfahren und Vorrichtung zur Bekämpfung anfliegender Flugkörper
DE3238848A1 (de) Verfahren und vorrichtung zum gesamten korrigieren des schiessvorganges von einem schuss auf den folgenden bei einer waffe mit gestreckter schussbahn
CH669660A5 (de)
DE3019783A1 (de) Verfahren zur vermeidung von fehlschuessen automatischer schussapparate und anordnung zur durchfuehrung des verfahrens
DE2936643A1 (de) Verfahren und anordnung fuer die abschaetzung der richtgenauigkeit einer waffe
EP1314950B1 (de) Verfahren und Vorrichtung zum Beurteilen der Richtfehler eines Waffensystems und Verwendung der Vorrichtung
DE1951622C3 (de) Anordnung zur simulierten Darstellung von Schußbahnen
DE3028545C2 (de) Verfahren zur Schußsimulation bei beweglichen Zielen mittels Lichtsignalen
EP0154809A1 (de) Verfahren zur Gefechtssimulation
DE3545831C2 (de)
DE3504198A1 (de) Verfahren zum ueberwachen der treffererzielung von panzerschuetzen im schiesstraining
EP0862041B1 (de) Verfahren und Anlage zum Bestimmen und Anzeigen eines Schussfehlers
EP1153259B1 (de) Zielerfassungsverfahren und vorrichtung
DE3714883C2 (de)
DE19922412B4 (de) Zielerfassungsverfahren und Vorrichtung
WO2000057123A1 (de) Verfahren zur schusssimulation
DE3843601C2 (de)
DE3132173A1 (de) Einrichtung zur bestimmung der treffpunktlage beim beschuss von luftzielen
DE69408079T2 (de) System zur Lokalisierung von mobilen Objekten
DE4325589B4 (de) Zielsuchkopf für Lenkflugkörper oder Geschosse

Legal Events

Date Code Title Description
8139 Disposal/non-payment of the annual fee