DE19638968A1 - Fighting method for approaching flying object - Google Patents

Fighting method for approaching flying object

Info

Publication number
DE19638968A1
DE19638968A1 DE1996138968 DE19638968A DE19638968A1 DE 19638968 A1 DE19638968 A1 DE 19638968A1 DE 1996138968 DE1996138968 DE 1996138968 DE 19638968 A DE19638968 A DE 19638968A DE 19638968 A1 DE19638968 A1 DE 19638968A1
Authority
DE
Germany
Prior art keywords
missile
sensor
weapon
cameras
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE1996138968
Other languages
German (de)
Inventor
Reinhold Ficht
Klaus Juergen Peter
Fritz-Hermann Kreft
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to DE1996138968 priority Critical patent/DE19638968A1/en
Publication of DE19638968A1 publication Critical patent/DE19638968A1/en
Withdrawn legal-status Critical Current

Links

Classifications

    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G5/00Elevating or traversing control systems for guns
    • F41G5/08Ground-based tracking-systems for aerial targets
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S11/00Systems for determining distance or velocity not using reflection or reradiation
    • G01S11/12Systems for determining distance or velocity not using reflection or reradiation using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S3/00Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
    • G01S3/78Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using electromagnetic waves other than radio waves
    • G01S3/782Systems for determining direction or deviation from predetermined direction
    • G01S3/785Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system
    • G01S3/786Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system the desired condition being maintained automatically
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/10Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Electromagnetism (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Engineering & Computer Science (AREA)
  • Aiming, Guidance, Guns With A Light Source, Armor, Camouflage, And Targets (AREA)

Abstract

The method involves detecting an approaching flying object (40) by a device of a sensor system with large view range. The recorded image data is processed by a computer device (6, 18), the object is fought with a weapon according to the recorded image data. The object is passively detected by the sensor system with a high resolution, and the resolution of the recorded image data is reduced for an evaluation of whether the object should be fought, so that the data quantity for the evaluation is reduced. The processed image data are transmitted to an optical tracking sensor which follows the flying object position, to enable aiming at the object with the weapon.

Description

Die Erfindung betrifft ein Verfahren und eine Vorrichtung zur Bekämpfung anfliegender Flugkörper.The invention relates to a method and an apparatus for Combating approaching missiles.

Bei einem bekannten Verfahren dieser Art wird zum Erfassen und Verfolgen ("Tracken") des Flugkörpers ein Radarsystem einge­ setzt, welches das Ziel mit Radar erfaßt und anfliegende Flug­ körper (Flugzeuge, Hubschrauber, Raketen) in größeren Entfernun­ gen mit Anti-Raketen und in kleineren Entfernungen (weniger als 2000 m) mit Maschinenkanonen bekämpft. Nachteilig bei diesem Verfahren ist einerseits, daß Radarsysteme aktive Sensoren auf­ weisen, die elektromagnetische Wellen aussenden und sich somit zu erkennen geben, so daß ein Gegner den Standort erfassen kann. Andererseits setzt ein Radarsystem kompliziertes, voluminöses und teures technisches Gerät voraus. Um eine Trefferwahrschein­ lichkeit bei der Bekämpfung, insbesondere bei kleinen Bekämp­ fungsentfernungen, zu erzielen, ist eine Rohrwaffe mit extrem hoher Schußfolge erforderlich, mit der im Dauerfeuer über eine vergleichsweise lange Zeitdauer geschossen werden muß.In a known method of this type, detection and Tracking ("tracking") the missile turned on a radar system sets which detects the target with radar and approaching flight bodies (planes, helicopters, rockets) at greater distances anti-missile and smaller distances (less than 2000 m) fought with machine guns. A disadvantage of this The method is, on the one hand, that radar systems have active sensors point, which emit electromagnetic waves and thus reveal, so that an opponent can grasp the location. On the other hand, a radar system sets complicated, voluminous ones and expensive technical equipment ahead. To a hit probability Combativity, especially for small fighters distance to achieve is a barrel weapon with extreme high sequence of shots required, with the continuous fire over a comparatively long time must be shot.

Aus der DE 33 40 133 C2 ist ein Verfahren bekannt, das mittels Fotodioden-Arrays in einem 3-dimensionalen Meßraum einen Flug­ körper erfassen kann, wobei die anfallende Datenmenge durch ein Datenreduktionsverfahren vermindert wird. Mit diesem Verfahren sollen die aus der DE-OS 31 32 168 und der DE 24 02 204 C3 be­ kannten 2-dimensionalen Verfahren zur Bestimmung der Lage eines Durchstoßpunktes eines Projektils von einer Meßebene auf einen 3-dimensionalen Meßraum erweitert werden.From DE 33 40 133 C2 a method is known which means Photodiode arrays in a 3-dimensional measuring room during a flight body can record, the amount of data generated by a Data reduction process is reduced. With this procedure should be from DE-OS 31 32 168 and DE 24 02 204 C3 known 2-dimensional method for determining the position of a Penetration point of a projectile from a measuring plane to one 3-dimensional measuring room can be expanded.

Der Erfindung liegt die Aufgabe zugrunde, ein Verfahren und eine Einrichtung der eingangs genannten Art so auszubilden, daß die erwähnten Nachteile vermieden sind und gleichwohl eine Bekämp­ fung anfliegender Flugkörper (Raketen, Flugzeuge, Hubschrauber) mit hoher Trefferwahrscheinlichkeit ermöglicht wird.The invention is based, a method and a task Training device of the type mentioned so that the disadvantages mentioned are avoided and nevertheless a fighter missile approaching (missiles, airplanes, helicopters) is made possible with a high probability of being hit.

Zur Lösung dieser Aufgabe dienen ein Verfahren gemäß Patentan­ spruch 1 und eine Vorrichtung gemäß Patentanspruch 13.A method according to Patentan is used to solve this problem award 1 and a device according to claim 13.

Vorteilhafte Ausgestaltungen der Erfindung sind in den Unter­ ansprüchen unter Schutz gestellt.Advantageous embodiments of the invention are in the sub claims under protection.

Mit der Erfindung wird der Flugkörper mit einem Sensorsystem hochauflösend erfaßt. Dies ermöglicht ein frühzeitiges Erkennen des noch weit entfernten Flugkörpers. Die mittels Sensorsystem erfaßte Anflugrichtung des Flugkörpers wird an einen an sich bekannten Track-Sensor weitergegeben, wobei jedoch nur ein Ele­ vations- und Azimutwinkelbereich mit geringerer Auflösung wei­ tergeleitet wird. Da der Track-Sensor nur im "Nahbereich" tätig ist, genügt die geringere Auflösung für eine Erfassung des Flug­ körpers durch den Track-Sensor. Die Verringerung der Auflösung bewirkt eine einfache und schnelle Übergabe der erfaßten Daten an den Track-Sensor. Durch die Erfassung mit hoher Auflösung wird trotz passiver Sensoren die notwendige Sicherheit bei der Wahrnehmung der Flugkörper gewährleistet.With the invention, the missile with a sensor system recorded in high resolution. This enables early detection of the missile still far away. The sensor system detected direction of approach of the missile is in itself known track sensor passed, but only one Ele vation and azimuth angle range with lower resolution white is routed. Since the track sensor only works in the "close range" the lower resolution is sufficient to record the flight body through the track sensor. Reducing the resolution causes a simple and quick transfer of the recorded data to the track sensor. By capturing with high resolution Despite the passive sensors, the necessary safety is guaranteed Guaranteed missile perception.

Durch Einsatz von passiven Sensoren, die selbst keine elektroma­ gnetischen Wellen ausstrahlen, wird die elektronische Erfassung durch die gegnerische Abwehr unmöglich gemacht. Dies erhöht die Überlebenswahrscheinlichkeit erheblich, wobei einfacher Aufbau und kleines Volumen des eingesetzten optischen Sensorsystems, welches beispielsweise TV- oder Infrarot-Kameras sowohl für die Groberfassung mit großer Sehweite als auch für das "Tracken" mit langer Brennweite (enger Sehweite) einsetzt, gegenüber einem viel komplexeren und voluminöseren Radarsystem wesentliche zu­ sätzliche Vorteile ergeben. By using passive sensors that do not have an electroma emit magnetic waves, the electronic capture made impossible by the opposing defense. This increases the Probability of survival significantly, with simple structure and small volume of the optical sensor system used, which, for example, TV or infrared cameras for both Coarse detection with a large field of vision as well as for "tracking" with a long focal length (narrow field of view) against one much more complex and voluminous radar system essential to additional advantages result.  

Das Verfahren und die Vorrichtung nach der Erfindung ermöglichen das präzise Nachführen der Waffe, so daß das Ziel mit einer kurzen Salve mit hoher Trefferwahrscheinlichkeit bekämpft werden kann. Dies erübrigt den Einsatz einer komplexen und teuren Rohr­ waffe mit hoher Kadenz bzw. Schußfolge bei Dauerfeuer.The method and the device according to the invention enable the precise tracking of the weapon, so that the target with a short volley with a high probability of being hit can. This eliminates the use of a complex and expensive pipe weapon with high cadence or firing order in continuous fire.

Die Erfindung ist im folgenden anhand schematischer Zeichnungen an einem Ausführungsbeispiel mit weiteren Einzelheiten näher erläutert. Es zeigen:The invention is based on schematic drawings closer to an embodiment with further details explained. Show it:

Fig. 1 eine schematische Darstellung in Draufsicht auf eine Vorrichtung nach der Erfindung; Figure 1 is a schematic representation in plan view of a device according to the invention.

Fig. 2 eine Darstellung der Vorrichtung nach Fig. 1 in Sei­ tenansicht mit einem hohen Blockschaltbild unter Ein­ beziehung eines Steuerrechners und eines Feuerleit­ rechners; Fig. 2 is an illustration of the device of Figure 1 Be tenansicht with a high block diagram with a relationship of a control computer and a fire control computer.

Fig. 3 ein Wegdiagramm, anhand dessen die einzelnen Schritte des Verfahrens in Abhängigkeit vom Abstand des flie­ genden Flugkörpers veranschaulicht sind; Fig. 3 is a path diagram, based on which the individual steps of the method are illustrated depending on the distance of the flying missile;

Fig. 4 schematisch die Unterteilung in Pixel und Segmente eines erfindungsgemäß erfaßten Bildes. Fig. 4 schematically shows the subdivision into pixels and segments of an inventive captured image.

Die in den Fig. 1 und 2 dargestellte Vorrichtung weist ein optisches Sensorsystem mit zwei feststehenden, parallel zuein­ ander im Abstand angeordneten Kameras 2 und 4 zur Erfassung eines anfliegenden Flugkörpers auf. Die beiden Kameras 2, 4 sind in gleiche Sehrichtung ausgerichtet, und sie weisen ein großes Sehfeld A und B von jeweils z. B. 40° in Azimut und 8° in Eleva­ tion auf. Die Kameras 2, 4 bestehen vorzugsweise jeweils aus einem Kamerablock mit vier Kameramodulen, wobei jedes Kameramo­ dul aus jeweils einer CCD-Kamera ausgebildet ist. Jedes Kamera­ modul weist ein Pixelfeld von 738 × 576 auf. Dies ergibt eine Auflösung von 0,014°, d. h. etwa 0,8′ bzw. +/- 0,4′. Mit einer solch hohen Auflösung können Flugkörper schon frühzeitig erkannt werden, selbst wenn sie nur geringe Abmessung aufweisen und in Tarnfarbe gehalten sind. Durch das frühzeitige Erkennen wird Zeit für die Auswertung der anfallenden Bilddaten gewonnen. The device shown in FIGS . 1 and 2 has an optical sensor system with two fixed cameras 2 and 4 arranged parallel to one another at a distance from one another for detecting an approaching missile. The two cameras 2 , 4 are aligned in the same direction, and they have a large field of view A and B of z. B. 40 ° in azimuth and 8 ° in elec tion. The cameras 2 , 4 preferably each consist of a camera block with four camera modules, each camera module being formed from a CCD camera. Each camera module has a pixel field of 738 × 576. This results in a resolution of 0.014 °, ie approximately 0.8 'or +/- 0.4'. With such a high resolution, missiles can be recognized at an early stage, even if they are small in size and have a camouflage color. The early detection saves time for the evaluation of the image data.

Die Ausgangssignale der Kameras 2,4 werden gemäß Fig. 2 in einen Steuerrechner 6 eingegeben, der weitere Ausgangssignale von einem Track-Sensor 8 langer Brennweite, das heißt mit kleinem Sehfeld C von z. B. 1°, erhält.The output signals of the cameras 2,4 to be entered as shown in FIG. 2 in a control computer 6, the more output signals from a track sensor 8 long focal length, that is with a small field of view C of z. B. 1 °.

Zum Track-Sensor 8 gehört ein Laser-Entfernungsmesser (nicht gesondert gezeigt), und der Track-Sensor 8 ist gemeinsam mit diesem Laser-Entfernungsmesser auf einer um zwei Achsen (Azimut­ achse und Elevationsachse) beweglichen Plattform 10 montiert. Diese Plattform ist ferner mit zwei hochgenauen Winkelmessern bekannter Bauart (nicht gezeigt) zum Erfassen der Schwenkbewe­ gungen der Plattform 10 um die beiden Achsen, nämlich die Eleva­ tionsachse e und die Azimutachse a, ausgerüstet.The track sensor 8 includes a laser range finder (not shown separately), and the track sensor 8 is mounted together with this laser range finder on a platform 10 movable about two axes (azimuth axis and elevation axis). This platform is also equipped with two high-precision protractors of a known type (not shown) for detecting the pivoting movements of the platform 10 about the two axes, namely the axis of elevation e and the azimuth axis a.

Mit der Bezugszahl 12 ist ein Azimutantrieb für die Plattform 10 zur Erzeugung einer Nachführschwenkung um die Azimutachse a bezeichnet. Mit der Bezugszahl 14 ist ein Elevationsantrieb zur Erzeugung einer Nachführschwenkung um die Elevationsachse e der Plattform 10 bezeichnet. Beide Antriebe 12 und 14 werden zu einer Nachführung der Plattform 10 von dem Steuerrechner 6 ange­ steuert.The reference number 12 denotes an azimuth drive for the platform 10 for generating a tracking swivel about the azimuth axis a. Reference number 14 denotes an elevation drive for generating a tracking swivel about the elevation axis e of the platform 10 . Both drives 12 and 14 are controlled by the control computer 6 for tracking the platform 10 .

Der Ausgang 16 des Steuerrechners 6 führt zu einem Feuerleit­ rechner 18, der über eine nachgeschaltete Ansteuereinheit 19 auf eine Rohrwaffe 20 einwirkt. Diese Rohrwaffe 20 ist auf einer Plattform 22 montiert, welche mittels eines Azimutantriebs 24 um eine Azimutachse a′ schwenkbar ist. Der Azimutantrieb 24 wird über die Ausgangsleitung 26 des Feuerleitrechners 16 angesteu­ ert. Ferner ist ein Elevationsantrieb 28 vorhanden, der über eine Ausgangsleitung 30 ansteuerbar ist und die Rohrwaffe 20 um eine Elevationsachse e′ schwenken kann.The output 16 of the control computer 6 leads to a fire control computer 18 , which acts on a gun 20 via a downstream control unit 19 . This barrel weapon 20 is mounted on a platform 22 which is pivotable about an azimuth axis a 'by means of an azimuth drive 24 . The azimuth drive 24 is controlled via the output line 26 of the fire control computer 16. Furthermore, there is an elevation drive 28 which can be controlled via an output line 30 and can pivot the barrel weapon 20 about an elevation axis e '.

Das Sensorsystem 2, 4 und der Track-Sensor 8 mit Rechnern 6, 18, Rohrwaffe 20 mit Plattform 22 und die Antriebe 24 und 28 können auf einem gepanzerten Fahrzeug 32 montiert sein.The sensor system 2 , 4 and the track sensor 8 with computers 6 , 18 , barrel weapon 20 with platform 22 and the drives 24 and 28 can be mounted on an armored vehicle 32 .

Die Arbeitsweise des Verfahrens und der Einrichtung nach der Erfindung seien nun anhand der Fig. 1 und 2 unter Einbeziehung der Fig. 3 erläutert. Die Ausgangssignale der beiden Kameras 2,4 werden im Steuerrechner 6 in Realzeit korreliert, um dadurch auch kleinste Bewegungen (im Pixelbereich) zu detektieren und dadurch einen anfliegenden Flugkörper, z. B. eine Rakete, frühzei­ tig zu detektieren.The operation of the method and the device according to the invention will now be explained with reference to FIGS. 1 and 2, including FIG. 3. The output signals of the two cameras 2 , 4 are correlated in real time in the control computer 6, in order to thereby detect even the smallest movements (in the pixel area) and thereby an approaching missile, for. B. to detect a rocket early.

Aus der Lage der detektierten Bewegung in den vom Steuerrechner 6 ausgewerteten Kamera-Bildern läßt sich die Richtung des an­ fliegenden Flugkörpers bestimmen. An sich bekannte Track-Senso­ ren erfordern eine Genauigkeit der Richtungsvorgabe von etwa +/- 3 mrad bzw. +/- 10′.The direction of the flying missile can be determined from the position of the detected movement in the camera images evaluated by the control computer 6 . Known Track Senso ren require an accuracy of the direction of about +/- 3 mrad or +/- 10 '.

Die Auswertung der Ausgangssignale der Kameras 2, 4 im Steuer­ rechner 6 erfolgt vorzugsweise nach folgenden Verfahrensschrit­ ten:The evaluation of the output signals of the cameras 2 , 4 in the control computer 6 is preferably carried out according to the following method steps:

  • 1. Die Signale der einzelnen Kameras 2, 4 bzw. der einzelnen Kameramodule der Kameras 2, 4 werden parallel digitali­ siert. Die anfallende Datenmenge liegt hier beispielsweise in der Größenordnung von 80 MB pro Sekunde. Diese Daten­ menge ergibt sich beispielsweise bei 2 × 4 Kameramodulen mit 738 × 576 Pixel × 25 Bildern/Sekunde (81,08 MB), wobei zu jedem Pixel ein Byte abgespeichert wird, das eine an dem Pixel detektierte Graustufe wiedergibt.1. The signals from the individual cameras 2 , 4 or the individual camera modules of the cameras 2 , 4 are digitized in parallel. The amount of data generated here is in the order of 80 MB per second, for example. This amount of data results, for example, in the case of 2 × 4 camera modules with 738 × 576 pixels × 25 frames / second (81.08 MB), with one byte being stored for each pixel, which represents a gray level detected at the pixel.
  • 2. In einem ersten Auswertevorgang werden für die einzelnen Bildpunkte (Pixel) Pxy der jeweiligen durch die Kameras 2, 4 erfaßten Bilder Mittelwerte Pxyref berechnet, welche zum Vergleich mit den aktuellen Bildpunkten dienen. Langsame Änderungen wie Helligkeitsänderungen, z. B. durch Wolken, und oszillierende Änderungen, von beispielsweise im Wind hin und her schwenkender Bäume, werden durch einen Ver­ gleich der aktuellen Bildpunkte mit den entsprechenden Mittelwerten eliminiert.
    Die Berechnung der Mittelwerte erfolgt beispielsweise nach folgender Formel: Pxyref,i = Pxyref,i-1 · Gew + Pxyakt (1-Gew),die rekursiv angewandt wird, wobei ein Mittelwert Pxyref,i einer Graustufe eines Pixels Pxy aus einem vorhergehenden Mittelwert Pxyref,i-1 und der aktuell gemessenen Graustufe ermittelt wird, wobei Gew ein Gewichtungsfaktor ist, der beispielsweise einen Wert von 0,9 hat. Der Gewichtungsfak­ tor Gew liegt vorzugsweise im Bereich von 0,7 bis 0,95 und bestimmt die zeitliche Tiefe, mit welcher die gemessenen Bilder das Mittelwertbild beeinflussen.
    2. In a first evaluation process, mean values P xyref are calculated for the individual pixels P xy of the respective images captured by the cameras 2 , 4 , which are used for comparison with the current pixels. Slow changes such as changes in brightness, e.g. B. by clouds, and oscillating changes, for example trees swinging back and forth in the wind, are eliminated by comparing the current pixels with the corresponding mean values.
    The mean values are calculated, for example, according to the following formula: P xyref, i = P xyref, i-1 · Gew + P xyakt (1-Gew), which is applied recursively, an average value P xyref, i of a gray level of a pixel P xy is determined from a previous mean value P xyref, i-1 and the currently measured gray level, where Gew is a weighting factor that has a value of 0.9, for example. The weighting factor Gew is preferably in the range from 0.7 to 0.95 and determines the temporal depth with which the measured images influence the mean value image.
  • 3. In einem zweiten Auswertevorgang wird ein Differenzbild ermittelt, in dem die Differenz zwischen den Pixeln des Mittelwertbildes Pxyref mit denen des aktuellen Bildes Pxyakt gemäß folgender Formel ermittelt wird: PxyDiff = Pxyref-PxyaktIn diesem Differenzbild PxyDiff verbleiben nur noch Grauwerte von Objekten, die ihre Form oder Lage auf dem von den Kame­ ras 2, 4 erfaßten Bild geändert haben. Alle übrigen stati­ schen Objekte werden auf dem Differenzbild gelöscht.3. In a second evaluation process, a differential image is obtained, in which the difference between the pixels of the average image P xyref that of the current picture P xyakt according to the following formula is determined: P xyDiff = P xyref -P xyakt In this difference image P xyDiff remain only still gray values of objects that have changed their shape or position on the image captured by cameras 2 , 4 . All other static objects are deleted from the difference image.
  • 4. In einem dritten Auswertevorgang werden die Bildpunkte bzw. Pixel auf ein Bit Objektsignal reduziert, die nur noch die Informationen enthalten, ob sich ein Bildpunkt verändert bzw. nicht verändert hat. Jedem Pixel wird ein solches Bit Objektsignal zugeordnet, wobei das Bit gesetzt wird, wenn der Grauwert des Pixels über einem vorbestimmten Schwellen­ wert liegt, und das Bit gelöscht wird, wenn der Grauwert unter dem vorbestimmten Schwellenwert liegt. Hierdurch wird die Datenmenge eines Bildes um den Faktor 8 reduziert, da jedes eine Graustufe darstellende Byte durch ein einziges Bit ersetzt wird.4. In a third evaluation process, the pixels or Pixel reduced to a bit of object signal, which is only the Contain information whether a pixel changes or has not changed. Each pixel has one such bit Object signal assigned, the bit is set when the gray level of the pixel above a predetermined threshold value, and the bit is deleted when the gray value is below the predetermined threshold. This will the amount of data in an image is reduced by a factor of 8 because each byte representing a grayscale by a single one Bit is replaced.
  • 5. In einem vierten Auswertevorgang werden die auf ein Bit reduzierten Bildpunkte zu Segmenten von beispielsweise 4 × 4 Bildpunkte zusammengefaßt. Das Bild besteht somit aus einer Vielzahl gleich großer Segmente S (Fig. 4). Jedem Segment S ist wiederum ein Bit zugeordnet, wobei das Bit einen reduzierten Bildpunkt darstellt, der gesetzt wird, wenn ein einziger im Segment enthaltener Bildpunkt bzw. Pixel gesetzt ist. Das aus den reduzierten Bildpunkten zusammengesetzte Bild gibt somit das bisher ermittelte Bild der sich in Form oder Lage veränderten Objekte mit einer geringeren Auflösung wieder. Durch diese Verringerung der Auflösung werden die anfallende Daten bei der Zusammenfas­ sung von 4 × 4 Bildpunkten um den Faktor 16 reduziert.5. In a fourth evaluation process, the pixels reduced to one bit are combined into segments of, for example, 4 × 4 pixels. The image thus consists of a large number of segments S of the same size ( FIG. 4). A bit is in turn assigned to each segment S, the bit representing a reduced pixel which is set when a single pixel or pixel contained in the segment is set. The image composed of the reduced pixels thus reproduces the previously determined image of the objects which have changed in shape or position with a lower resolution. As a result of this reduction in resolution, the data obtained when combining 4 × 4 pixels are reduced by a factor of 16.
  • 6. Die bisher parallel verarbeiteten Videosignale werden nun zusammengeführt, wobei die bisher noch getrennten Objektsi­ gnale in Datenworte zusammengefaßt werden, die die jeweili­ ge Kameranummer, Zeileninformation und Spalteninformation enthalten. Die auf diese Art und Weise komprimierten Infor­ mationen werden gefiltert, wobei die bildliche Darstellung des erfaßten Objektes, die als Signatur bezeichnet wird, nach Größe, Form und Bewegung auf dem Bild bewertet wird. Entspricht die Signatur keinem geradlinig auf die Senso­ reinheit zufliegendem Körper vorbestimmter Größe, so wird sie gelöscht. Die Bewertungsregeln sind für die Art des zu erfassenden Objektes spezifisch zu erstellen. Soll eine anfliegende Rakete bekämpft werden, so muß das Bild nach einer sich allmählich vergrößernden kreisförmigen Scheibe abgetastet werden. Zudem werden bspw. nur Scheiben ausge­ wählt, die beim Anfliegen ihre Position nicht wesentlich verändern, da eine Rakete mit einer sich am Bild stark bewegenden Signatur an ihrem Ziel oder zumindest an der erfindungsgemäßen Raketenabwehrvorrichtung vorbeifliegen würde. Ein andere Flugkörper, insbesondere nicht geradlinig fliegende Flugkörper, müssen andere Bewertungsregeln ange­ wandt werden. Durch diese Bewertung wird bereits im Steuer­ rechner eine Vorauswahl der anfliegenden Objekte getroffen. Die die jeweilige Kameranummer, Zeileninformation und Spal­ teninformation enthaltenen Datenworte geben dem Elevations- und Azimutwinkelbereich des erfaßten anfliegenden Flugkör­ pers wieder, so daß durch Übergabe dieser Datenworte an den Feuerleitrechner 18 diese Winkelbereiche an den Track-Sen­ sor weitergeleitet werden.6. The previously processed parallel video signals are now merged, the previously separate object signals are summarized in data words containing the respective camera number, line information and column information. The information compressed in this way is filtered, and the pictorial representation of the detected object, which is referred to as a signature, is evaluated according to size, shape and movement on the image. If the signature does not correspond to a body of a predetermined size that is flying straight towards the sensor unit, it is deleted. The evaluation rules are to be created specifically for the type of object to be recorded. If an incoming rocket is to be fought, the image must be scanned for a gradually increasing circular disk. In addition, for example, only disks are selected which do not significantly change their position when approached, since a missile with a signature that moves strongly in the image would fly past its target or at least the missile defense device according to the invention. Another missile, in particular non-straight-line missiles, other assessment rules must be applied. This evaluation makes a pre-selection of the objects flying into the tax calculator. The data words containing the respective camera number, line information and column information indicate the elevation and azimuth angle range of the detected incoming missile, so that these angle ranges are passed on to the track sensor by transfer of these data words to the fire control computer 18 .

Die im vierten Auswertevorgang erfolgte Reduktion durch Verrin­ gerung der Auflösung macht die anfallende Datenmenge wesentlich schneller und einfacher handhabbar, wobei hier die Erkenntnis genutzt wird, daß zwar ein hochauflösendes Sensorsystem für die frühzeitige Erfassung des in großer Entfernung fliegenden Flug­ körpers von Vorteil ist, es jedoch überraschenderweise nicht notwendig ist, die Bewertung des erfaßten Objektes, ob es dem zu bekämpfenden Flugkörper entspricht, mit der hohen Auflösung, mit der die Flugkörper erfaßt werden, durchzuführen. Für den Erfolg der erfindungsgemäßen Flugabwehrvorrichtung ist wesentlich, daß diese Bewertung schnell und korrekt erfolgt. Durch die in Fig. 4 dargestellte Datenreduktion, wobei die Auflösung des erfaßten Bildes verringert wird, kann die Bewertung der Objekte mit der notwendigen Geschwindigkeit als auch mit der notwendigen Sicher­ heit erfolgen. Die Funktionstüchtigkeit der erfindungsgemäßen Vorrichtung konnte in Praxistests zur Abwehr von anfliegenden Raketen belegt werden.The reduction in the fourth evaluation process by reducing the resolution makes the amount of data obtained much faster and easier to handle, whereby the knowledge is used that a high-resolution sensor system is advantageous for the early detection of the missile flying at a great distance, but it does Surprisingly, it is not necessary to carry out the evaluation of the detected object as to whether it corresponds to the missile to be combated with the high resolution with which the missile is detected. It is essential for the success of the anti-aircraft device according to the invention that this evaluation is carried out quickly and correctly. Due to the data reduction shown in FIG. 4, the resolution of the captured image being reduced, the objects can be evaluated with the necessary speed and with the necessary security. The functionality of the device according to the invention could be demonstrated in practical tests to ward off approaching missiles.

Ferner werden dem Track-Sensor, der nur im Nahbereich tätig ist, die Richtungsdaten mit dieser geringen Auflösung bzw. Präzision übermittelt. Denn diese Richtungsdaten bzw. Richtungsangaben werden in Winkelbereichen angegeben, wobei die Größe der durch die Winkelbereiche festgelegten Flächensegmente indirekt propor­ tional zur Entfernung ist, so daß auch durch die relativ "unge­ nauen" (+/-10′) Winkelbereiche ein im Nahbereich den Flugkörper ausreichend präzise beschreibendes Flächensegment festgelegt ist.Furthermore, the track sensor, which only works in the close range, the directional data with this low resolution or precision transmitted. Because this directional data or directional information are given in angular ranges, the size of the by the angular ranges indirectly defined surface segments tional to the distance, so that also by the relatively "uneven nauen "(+/- 10 ′) angular ranges in the vicinity of the missile sufficiently precise descriptive area segment defined is.

Die parallele Reduzierung der Daten und das nachträgliche Zu­ sammenführen der reduzierten Datenmenge erlaubt, daß die Objekt­ daten vom Steuerrechner 6 innerhalb von ein bis drei Sekunden erhalten werden. Dies bedeutet, daß innerhalb kürzester Zeit eine große, passiv erfaßte Datenmenge ausgewertet und zur An­ steuerung des Track-Sensors 8 verwendet werden kann.The parallel reduction of the data and the subsequent merging of the reduced amount of data allows the object data to be obtained from the control computer 6 within one to three seconds. This means that a large, passively recorded amount of data can be evaluated and used to control the track sensor 8 within a very short time.

Ein Flugkörper, der auf einer Kameraachse einer der beiden Kame­ ras 2, 4 anfliegt, kann von dieser Kamera nicht oder nur sehr spät wahrgenommen werden, denn dessen Signatur verändert sich im detektierten Bild kaum. Durch das Vorsehen der beiden Kameras 2, 4 wird ein redundantes System geschaffen, so daß mit zumindest einer der beiden Kameras 2, 4 selbst bei einem direkt auf eine Kamera zufliegenden Flugkörper ein sicheres Detektieren möglich ist. Die beiden Kameras 2, 4 dienen somit nicht zur Erzeugung eines Stereobildes, sondern werden jeweils für sich separat ausgewertet, wobei bei der Zusammenführung der beiden parallel verarbeiteten Videosignale ein Vergleich und eine entsprechende Korrektur erfolgt.A missile that flies to one of the two cameras 2 , 4 on a camera axis cannot be perceived by this camera, or can only be perceived very late, because its signature hardly changes in the detected image. The provision of the two cameras 2 , 4 creates a redundant system, so that reliable detection is possible with at least one of the two cameras 2 , 4 even when a missile is flying directly towards a camera. The two cameras 2 , 4 are therefore not used to generate a stereo image, but are each evaluated separately, with a comparison and a corresponding correction being carried out when the two video signals processed in parallel are combined.

Dadurch, daß eine digital erfaßte, enorm große Datenmenge in kürzester Zeit zu den wenigen Daten reduziert werden kann, ist es möglich, die Richtung des Flugkörpers schnell zu ermitteln und diesen mit der notwendigen Schnelligkeit, Sicherheit und Ge­ nauigkeit an den Track-Sensor weiterzuleiten.The fact that a digitally recorded, huge amount of data in can be reduced to the little data in the shortest possible time it is possible to quickly determine the direction of the missile and this with the necessary speed, security and ge forward accuracy to the track sensor.

Mit Hilfe der Objektdaten wird der optische Track-Sensor 8 auf die Richtung des Flugkörpers "aufgesetzt". Der Flugkörper wird ebenfalls mit Hilfe digitaler Bildverarbeitung des mit dem Track-Sensor gewonnenen Kamerabildes verfolgt. Dabei werden mittels der beiden Winkelgeber der Azimutwinkel und der Eleva­ tionswinkel des Flugkörpers bestimmt. Mit dem Laser-Entfernungs­ messer wird der Abstand des Flugkörpers laufend gemessen. Aus den so gewonnenen Daten wird die Anflugrichtung des Flugkörpers in Realzeit berechnet, worauf der Steuerrechner 6 Ausgangssigna­ le über Leitungen 11, 13 zum Betätigen der Antriebe 12,14 des Track-Sensors 8 und damit zum Nachführen dieses Track-Sensors ausgibt. Ferner werden über die Ausgangsleitung 16 des Steuer­ rechners 6 Signale an den Feuerleitrechner 18 übergeben, der seinerseits über die Ansteuereinheit 19 Nachführsignale für die Leitungen 26, 30 an die Antriebe 24, 28 für die Plattform er­ zeugt. Der Feuerleitrechner 18 berechnet anhand der von dem Track-Sensor 8 sowie der waffen- und systemspezifischen Daten den Vorhalt der Rohrwaffe 20, führt die Rohrwaffe 20 nach und löst bei Erreichen der vorgegebenen Bekämpfungsentfernung einen Schuß oder eine kurze Schußfolge aus.With the aid of the object data, the optical track sensor 8 is “placed” on the direction of the missile. The missile is also tracked with the aid of digital image processing of the camera image obtained with the track sensor. The azimuth angle and the elevation angle of the missile are determined by means of the two angle sensors. The distance of the missile is continuously measured with the laser range finder. The approach direction of the missile is calculated in real time from the data obtained in this way, whereupon the control computer 6 outputs signals via lines 11 , 13 for actuating the drives 12, 14 of the track sensor 8 and thus for tracking this track sensor. Furthermore, 6 signals are passed to the fire control computer 18 via the output line 16 of the control computer, which in turn generates tracking signals for the lines 26 , 30 to the drives 24 , 28 for the platform via the control unit 19 . The fire control computer 18 uses the track sensor 8 and the weapon and system-specific data to calculate the reserve of the barrel weapon 20 , tracks the barrel weapon 20 and triggers a shot or a short sequence of shots when the specified combat range is reached.

Das optische Sensorsystem kann auch aus Kameras 2, 4 ausgebildet sein, mit großflächigen Sensoren von beispielsweise 4.096 × 4.096 Pixel, die vorzugsweise frei adressierbar sind (random access). Bei derartigen frei adressierbaren Bereichen können durch die Auswerteeinrichtung bestimmte Bereiche am Sensor ge­ trennt ausgewählt und separat ausgelesen werden.The optical sensor system can also be formed from cameras 2 , 4 , with large-area sensors of, for example, 4,096 × 4,096 pixels, which are preferably freely addressable (random access). In such freely addressable areas, certain areas on the sensor can be selected separately by the evaluation device and read out separately.

Kameras mit diesen großflächigen, frei adressierbaren Sensoren können nicht nur zur Erfassung der Flugkörper, sondern auch gleichzeitig als Track-Sensoren verwendet werden, wobei nach der oben beschriebenen, aufgrund reduzierter Daten (Fig. 4) durch­ geführten Bewertung der anfliegenden Flugkörper ein Sensorteil­ bereich ausgewählt wird, mit dem der anfliegenden Flugkörper erfaßt wird. Dieser begrenzte Sensorteilbereich dient dann als Track-Sensor, der nicht mechanisch verstellt werden muß, sondern durch Verschieben des Sensorteilbereichs auf dem Sensor dem anfliegenden Flugkörper nachgeführt werden kann. Durch die Aus­ wertung eines Teilbereiches des Sensors fallen beim "Tracken" keine großen Datenmengen an, die ähnlich wie beim an sich be­ kannten Track-Sensor vorzugsweise durch eine separate Aus­ werte-Elektronik ausgewertet werden. Es können an einem Sensor auch zwei oder drei Einheiten einer solchen Auswerte-Elektronik zum "Tracken" angeschlossen werden, so daß gleichzeitig mehrere an­ fliegende Flugkörper verfolgt bzw. "getrackt" werden können.Cameras with these large-area, freely addressable sensors can be used not only to record the missiles, but also simultaneously as track sensors, with a sensor subarea being selected based on the above-described, reduced data ( FIG. 4) by means of guided evaluation of the approaching missiles with which the approaching missile is detected. This limited sensor partial area then serves as a track sensor, which does not have to be adjusted mechanically, but can be tracked by moving the sensor partial area on the sensor to the approaching missile. By evaluating a sub-area of the sensor, there are no large amounts of data during "tracking", which, like the track sensor known per se, are preferably evaluated by separate evaluation electronics. Two or three units of such evaluation electronics can also be connected to a sensor for "tracking", so that several can be tracked or "tracked" to flying missiles at the same time.

Übernimmt ein Sensorteilbereich die Funktion des Track-Sensors, so vermindert sich der mechanische, hydraulische und elektroni­ sche Steuerungsaufwand wesentlich. Zudem entfällt die Zeitspan­ ne, die ein Track-Sensor benötigt, um auf einen anfliegenden Flugkörper einzuschwenken.If a sensor sub-area takes over the function of the track sensor, this reduces the mechanical, hydraulic and electronic control effort essential. In addition, there is no time span ne that a track sensor needs to approach on an approaching  Swing in the missile.

Als Bildsensoren können im optischen (VISible), ultravioletten (UV), nahen und fernen Infrarot (IR) empfindliche Sensoren ver­ wendet werden. Die Sensoren können als CCD (charge coupled devi­ ce), CID (charge injection device), IICCD (image intensified CCD), IICID (image intensified CID), HDRC (high dynamic range CMOS) oder als bipolares BPDA (photodiode array) ausgebildet sein.The image sensors can be optical (VISible), ultraviolet (UV), near and far infrared (IR) sensitive sensors ver be applied. The sensors can be used as CCD (charge coupled devi ce), CID (charge injection device), IICCD (image intensified CCD), IICID (image intensified CID), HDRC (high dynamic range CMOS) or as a bipolar BPDA (photodiode array) be.

Vorzugsweise ist der Sensor als sogenannter Smart Optical Sensor ausgebildet, d. h., daß in den Sensor einfache "intelligente" Bauteile integriert sind, die beispielsweise eine erste Daten­ reduktion vornehmen. Hierdurch kann sowohl eine Beschleunigung der Auswertung als auch eine Vereinfachung des Aufbaues erzielt werden.The sensor is preferably a so-called smart optical sensor trained, d. that is, simple "intelligent" Components are integrated, for example a first data make reduction. This can accelerate both the evaluation as well as a simplification of the structure will.

In der Darstellung nach Fig. 3 ist eine horizontale Achse s dargestellt, auf welcher in zeitlicher Reihenfolge mit aufstei­ genden römischen Ziffern bezeichnete Pfeile markante Entfernun­ gen zu einem Nullpunkt bei Pfeil V im Standort einer erfindungs­ gemäßen Einrichtung bezeichnen. So beträgt die Entfernung zwi­ schen dem Pfeil I und dem Nullpunkt V 2000 Meter, zwischen dem Pfeil II und dem Nullpunkt 900 bis 700 Meter und zwischen dem Pfeil IV und dem Nullpunkt V 500 bis 300 Meter.In the illustration according to FIG. 3, a horizontal axis s is shown, on which arrows labeled in ascending order with increasing Roman numerals indicate striking distances to a zero point at arrow V in the location of a device according to the invention. The distance between the arrow I and the zero point V is 2000 meters, between the arrow II and the zero point 900 to 700 meters and between the arrow IV and the zero point V 500 to 300 meters.

Der in Fig. 3 mit der Bezugszahl 40 bezeichnete anfliegende Flugkörper wird bei Überfliegen des Pfeiles II, das heißt in einem Abstand von 900 bis 700 Meter zum Nullpunkt V grob erfaßt. Dies ist mit der erfindungsgemäßen passiv arbeitenden Vorrich­ tung möglich, welche ab ca. 900 Meter Abstand Objekte von ca. 10 cm Durchmesser, größere anfliegende Flugkörper jedoch entspre­ chend früher erfassen kann. Danach setzt der Track-Sensor 8 auf die ermittelte Flugbahn des Flugkörpers auf, und die Plattform 22 der Rohrwaffe 20 wird entsprechend der Bewegung der Plattform 10 des Track-Sensors 8 nachgeführt. Dieser Nachführvorgang ist dann abgeschlossen, wenn der Flugkörper 40 etwa die Stelle IV überfliegt. Danach wird der Schuß ausgelöst.The approaching missile designated by the reference number 40 in FIG. 3 is roughly detected when the arrow II is flown over, that is to say at a distance of 900 to 700 meters from the zero point V. This is possible with the passively working device according to the invention, which can detect objects of approximately 10 cm in diameter, larger approaching missiles from a distance of approximately 900 meters, however, accordingly earlier. The track sensor 8 then touches the determined flight path of the missile, and the platform 22 of the barrel weapon 20 is tracked in accordance with the movement of the platform 10 of the track sensor 8 . This tracking process is completed when the missile 40 flies over location IV. Then the shot is released.

Bei größeren Zielen, wie Flugzeugen oder Helikoptern, erfolgt wie gesagt die grobe Zielerfassung erheblich früher. In diesem Fall kann der anfliegende Flugkörper anstatt mit einer Kanone auch mit einer Rakete bekämpft werden, die beispielsweise bei Überfliegen des Flugkörpers 40 an Stelle I (2000 m Abstand vom Nullpunkt V) gestartet werden kann. Ein Startgehäuse für eine solche Rakete ist in Fig. 1 mit der Bezugszahl 42 bezeichnet.For larger targets, such as airplanes or helicopters, the rough target acquisition takes place much earlier, as I said. In this case, the approaching missile can also be combated with a missile instead of a cannon, which can be launched, for example, when the missile 40 is flown at position I (2000 m distance from the zero point V). A starter housing for such a rocket is designated by the reference number 42 in FIG. 1.

Claims (28)

1. Verfahren zur Bekämpfung anfliegender Flugkörper, bei dem Flugkörper (40) mittels eines Sensorsystems mit großem Sehbereich erfaßt werden, die erfaßten Bilddaten mittels eines Rechners (6, 18) verarbeitet werden, und der Flug­ körper (40) mit einer Waffe nach Maßgabe der erfaßten Bild­ daten bekämpft wird, dadurch gekennzeichnet, daß der Flugkörper (40) vom Sensorsystem (2, 4) mit einer hohen Auflösung passiv erfaßt wird und die Auflösung der erfaßten Bilddaten für eine Bewertung, ob ein heranfliegen­ der Flugkörper bekämpft werden soll oder nicht, verringert wird, so daß die Datenmenge für den Bewertungsvorgang redu­ ziert ist.1. A method for combating incoming missiles, in which missiles ( 40 ) are detected by means of a sensor system with a large field of view, the captured image data are processed by a computer ( 6 , 18 ), and the missile ( 40 ) with a weapon in accordance with the combat captured image data, characterized in that the missile ( 40 ) is passively captured by the sensor system ( 2 , 4 ) with a high resolution and the resolution of the captured image data for an assessment of whether or not the missile should be combated, is reduced so that the amount of data for the evaluation process is reduced. 2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß die verarbeiteten Bilddaten an einen optischen Track-Sensor weitergegeben werden, der den Flugkörper (40) ver­ folgt, so daß mit der Waffe auf den Flugkörper (40) gezielt und dieser bekämpft werden kann.2. The method according to claim 1, characterized in that the processed image data are passed on to an optical track sensor that follows the missile ( 40 ) ver, so that the weapon on the missile ( 40 ) can be targeted and combated. 3. Verfahren nach Anspruch 2, dadurch gekennzeichnet, daß die Richtungsangaben über den Flugkörper, die an den Track-Sensor weitergegeben werden durch einen Elevations- und Azimutwinkelbereich dargestellt werden, der nicht grö­ ßer als der Sehbereich des Track-Sensors (8) ist.3. The method according to claim 2, characterized in that the directional information about the missile, which are passed on to the track sensor by an elevation and azimuth angle range, which is not larger than the visual range of the track sensor ( 8 ). 4. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß das Sensorsystem zumindest einen großflächigen Sensor aufweist, mit einer ersten Auswerte-Einheit und einer zwei­ ten Auswerte-Einheit, die, nachdem der anfliegende Flugkör­ per als für eine Bekämpfung relevant bewertet wurde, einen Sensorteilbereich auswählt und auswertet, in dem der Flug­ körper abgebildet ist und den Sensorteilbereich entspre­ chend der Bewegung der Flugkörpers (40) nachführt.4. The method according to claim 1, characterized in that the sensor system has at least one large-area sensor, with a first evaluation unit and a two-th evaluation unit, which, after the approaching missile has been evaluated as relevant for combat, a sensor sub-area selects and evaluates in which the missile is depicted and the sensor sub-area corresponding to the movement of the missile ( 40 ). 5. Verfahren nach einem oder mehreren der Ansprüche 1 bis 4, dadurch gekennzeichnet, daß das Sensorsystem zwei Kameras (2, 4) aufweist, deren Videosignale parallel digitalisiert werden.5. The method according to one or more of claims 1 to 4, characterized in that the sensor system has two cameras ( 2 , 4 ) whose video signals are digitized in parallel. 6. Verfahren nach einem oder mehreren der Ansprüche 1 bis 5, dadurch gekennzeichnet, daß mit dem Sensorsystem (2, 4) erfaßte Bilddatenin Pixel Pxy untergliederte Bilder darstellen, wobei jedem Pixel eine Graustufe zugeordnet ist.6. The method according to one or more of claims 1 to 5, characterized in that image data acquired with the sensor system ( 2 , 4 ) represent images subdivided into pixels P xy , a gray level being assigned to each pixel. 7. Verfahren nach Anspruch 6, dadurch gekennzeichnet, daß Mittelwerte der Graustufen der Pixel Pxy von aufeinan­ derfolgend erfaßten Bildern ermittelt werden.7. The method according to claim 6, characterized in that mean values of the gray levels of the pixels P xy of successive images are determined. 8. Verfahren nach Anspruch 7, dadurch gekennzeichnet, daß die Mittelwerte der Graustufen der einzelnen Pixel nach folgender Formel berechnet werden Pxyref,i = Pxyref,i-1 · Gew + Pxyakt (1-Gew),die rekursiv angewandt wird, wobei ein Mittelwert Pxyref,i einer Graustufe eines Pixels Pxy aus einem vorhergehenden Mittelwert Pxyref,i-1 und der aktuell gemessenen Graustufe Pxyakt ermittelt wird, wobei Gew ein Gewichtungsfaktor ist, der beispielsweise einen Wert von 0,9 hat und vorzugsweise im Bereich von 0,7 bis 0,95 liegt. 8. The method according to claim 7, characterized in that the mean values of the gray levels of the individual pixels are calculated according to the following formula P xyref, i = P xyref, i-1 · Gew + P xyakt (1-Gew), which is applied recursively, wherein an average value P xyref, i of a gray level of a pixel P xy is determined from a previous average value P xyref, i-1 and the currently measured gray level P xyakt , where Gew is a weighting factor that has, for example, a value of 0.9 and preferably is in the range of 0.7 to 0.95. 9. Verfahren nach Anspruch 8, dadurch gekennzeichnet, daß ein Differenzbild ermittelt wird, in dem die Differenz zwischen Pxyref des Mittelwertbildes mit den Pixeln Pxyakt des aktuellen Bildes gemäß folgender Formel berechnet wird: PxyDiff = Pxyref - Pxyakt.9. The method according to claim 8, characterized in that a difference image is determined in which the difference between P xyref of the mean value image with the pixels P xyakt of the current image is calculated according to the following formula: P xyDiff = P xyref - P xyakt . 10. Verfahren nach Anspruch 9, dadurch gekennzeichnet, daß der Wert der Pixel auf ein Bit Objektsignal reduziert wird, das nur noch die Information enthält, ob sich der Wert des Pixels in den aufeinanderfolgenden Bildern ver­ ändert hat.10. The method according to claim 9, characterized, that the value of the pixels is reduced to a bit object signal that only contains the information whether the Verify the value of the pixel in the successive images has changed. 11. Verfahren nach einem oder mehreren der Ansprüche 1 bis 10, dadurch gekennzeichnet, daß die Reduzierung der Auflösung der Bilddaten erfolgt, indem jeweils mehrere Pixel Pxy zu einem Segment S zusammen­ gefaßt werden, wobei jedem Segment S ein einziges Bit zu­ geordnet wird, das einen reduzierten Bildpunkt darstellt, der gesetzt wird, wenn ein einziges im Segment S enthalte­ nes Pixel gesetzt ist.11. The method according to one or more of claims 1 to 10, characterized in that the resolution of the image data is reduced by combining a plurality of pixels P xy to form a segment S, each segment S being assigned a single bit, which represents a reduced pixel that is set when a single pixel contained in segment S is set. 12. Verfahren nach Anspruch 11, dadurch gekennzeichnet, daß ein Segment S zumindest 4 × 4 Pixel umfaßt.12. The method according to claim 11, characterized, that a segment S comprises at least 4 × 4 pixels. 13. Verfahren nach Anspruch 11 und/oder 12, dadurch gekennzeichnet, daß eine Signatur eines erfaßten Flugkörpers nach Größe, Form und Bewegung auf dem Bild bewertet wird, ob der an fliegende Flugkörper relevant ist, d. h., ob er bekämpft werden soll.13. The method according to claim 11 and / or 12, characterized, that a signature of a detected missile by size, Shape and movement in the picture is assessed whether the on flying missile is relevant, d. i.e. whether he is fighting shall be. 14. Verfahren nach einem oder mehreren der Ansprüche 5 bis 13, dadurch gekennzeichnet, daß die parallel verarbeiteten Daten zusammengeführt wer­ den, wobei die Objektsignale jeweils in ein Datenwort zu­ sammengefaßt werden, die die jeweilige Kameranummer, Zei­ leninformation und Spalteninformation enthält.14. The method according to one or more of claims 5 to 13, characterized,  that the data processed in parallel are merged the, with the object signals each in a data word be summarized, the respective camera number, Zei contains leninformation and column information. 15. Verfahren nach einem oder mehreren der Ansprüche 1 bis 3 oder 5 bis 14, dadurch gekennzeichnet, daß
  • - aus den mit dem Sensorsystem (2, 4) erfaßten Bilddaten die grobe Anflugrichtung des Flugkörpers (40) ermit­ telt wird,
  • - der optische Track-Sensor (8) auf die so ermittelte Flugrichtung angesetzt wird,
  • - die Winkellage des Flugkörpers in Azimut und Elevation von zwei Winkelgebern und die Entfernung des Flugkör­ pers von einem Entfernungsmesser erfaßt wird, aus den vom Track-Sensor (8), vom Entfernungsmesser und von den Winkelgebern ausgegebenen Daten die Raumkoordina­ ten des Flugkörpers in Realzeit berechnet werden,
  • - die errechneten Raumkoordinaten des Flugkörpers in einen Feuerleitrechner (18) eingegeben werden,
  • - der Feuerleitrechner (18) die Waffe zur Verfolgung und Bekämpfung des Flugkörpers (40) ansteuert.
15. The method according to one or more of claims 1 to 3 or 5 to 14, characterized in that
  • - The rough approach direction of the missile ( 40 ) is determined from the image data acquired with the sensor system ( 2 , 4 ),
  • - The optical track sensor ( 8 ) is placed on the flight direction determined in this way,
  • - The angular position of the missile in azimuth and elevation of two angle encoders and the distance of the missile pers is detected by a range finder, from the data output by the track sensor ( 8 ), the range finder and the angle encoders, the space coordinates of the missile are calculated in real time will,
  • - The calculated space coordinates of the missile are entered into a fire control computer ( 18 ),
  • - The fire control computer ( 18 ) controls the weapon to track and combat the missile ( 40 ).
16. Vorrichtung zur Bekämpfung anfliegender Flugkörper, ins­ besondere zum Durchführen des Verfahrens nach einem oder mehreren der Ansprüche 1 bis 15, mit
  • - einem Sensorsystem mit großem Sehbereich zum Erfassen eines Flugkörpers (40),
  • - einem Rechner (6) zum Verarbeiten der erfaßten Bild­ daten,
  • - einer Waffe (20) zur Bekämpfung des Flugkörpers (40) nach Maßgabe der erfaßten Bilddaten,
16. A device for combating approaching missiles, in particular for carrying out the method according to one or more of claims 1 to 15, with
  • a sensor system with a large field of vision for detecting a missile ( 40 ),
  • - a computer ( 6 ) for processing the captured image data,
  • a weapon ( 20 ) for combating the missile ( 40 ) in accordance with the captured image data,
dadurch gekennzeichnet, daß das Sensorsystem (2, 4) passive Sensoren aufweist. characterized in that the sensor system ( 2 , 4 ) has passive sensors. 17. Vorrichtung nach Anspruch 16, dadurch gekennzeichnet, daß ein Track-Sensor (8) zur Erfassung des Flugkörpers (40) im Nahbereich vorgesehen ist und der Track-Sensor (8) zu­ sammen mit einem Entfernungsmesser und Winkelgebern auf einer um zwei zueinander senkrechte Achsen schwenkbaren Plattform (10) angeordnet ist.17. The apparatus according to claim 16, characterized in that a track sensor ( 8 ) for detecting the missile ( 40 ) is provided in the vicinity and the track sensor ( 8 ) together with a range finder and angle sensors on one perpendicular to each other Axis pivotable platform ( 10 ) is arranged. 18. Vorrichtung nach Anspruch 16 und/oder 17, dadurch gekennzeichnet, daß der Rechner (6) ein Steuerrechner (6) zum Verarbeiten der Ausgangsdaten des Sensorsystems (2, 4) und zum Ansteu­ ern der Plattform (10) des Track-Sensors (8) sowie eines Feuerleitrechners (18) ist.18. The apparatus according to claim 16 and / or 17, characterized in that the computer ( 6 ), a control computer ( 6 ) for processing the output data of the sensor system ( 2 , 4 ) and for driving the platform ( 10 ) of the track sensor ( 8 ) and a fire control computer ( 18 ). 19. Vorrichtung nach einem oder mehreren der Ansprüche 16 bis 18, dadurch gekennzeichnet, daß die Sensoren (2, 4) des Sensorsystems Kameras mit gro­ ßem Sehfeld sind.19. The device according to one or more of claims 16 to 18, characterized in that the sensors ( 2 , 4 ) of the sensor system are cameras with a large field of view. 20. Vorrichtung nach einem oder mehreren der Ansprüche 16 bis 19, dadurch gekennzeichnet, daß die Sensoren (2, 4) des Sensorsystems jeweils aus einem Kamerablock mit beispielsweise vier Kameramodulen bestehen, wobei jedes Kameramodul aus einer Kamera mit großem Sehfeld ausgebildet ist.20. The device according to one or more of claims 16 to 19, characterized in that the sensors ( 2 , 4 ) of the sensor system each consist of a camera block with, for example, four camera modules, each camera module being formed from a camera with a large field of view. 21. Vorrichtung nach Anspruch 19 oder 20, dadurch gekennzeichnet, daß die Kameras mit großem Sehfeld CCD-Kameras oder HDRC-Kameras sind.21. The apparatus of claim 19 or 20, characterized, that the cameras with large field of view CCD cameras or HDRC cameras are. 22. Vorrichtung nach Anspruch 19 oder 21, dadurch gekennzeichnet, daß die Kameras mit großem Sehfeld TV-Kameras sind. 22. The apparatus of claim 19 or 21, characterized, that the cameras with a large field of view are TV cameras.   23. Vorrichtung nach Anspruch 19 oder 22, dadurch gekennzeichnet, daß die Kameras mit großem Sehfeld Infrarot-Kameras sind.23. The device according to claim 19 or 22, characterized, that the cameras with a large field of view are infrared cameras. 24. Vorrichtung nach einem oder mehreren der Ansprüche 16 bis 23, dadurch gekennzeichnet, daß die Waffe eine Rohrwaffe (20) ist, die auf einer geson­ derten, schwenkbaren Plattform (22) angeordnet ist, welche mit zwei gesonderten Winkelgebern für Azimut- und Eleva­ tionswinkel ausgerüstet ist und von einer dem Feuerleit­ rechner (18) nachgeschalteten Steuereinheit (19) nachführ­ bar ist.24. The device according to one or more of claims 16 to 23, characterized in that the weapon is a tubular weapon ( 20 ) which is arranged on a special, pivotable platform ( 22 ) which with two separate angle encoders for azimuth and Eleva tion angle is equipped and from a fire control computer ( 18 ) downstream control unit ( 19 ) is trackable. 25. Vorrichtung nach Anspruch 24, dadurch gekennzeichnet, daß die Rohrwaffe (20) starr auf der Plattform (22) befe­ stigt ist und daß die Plattform in Azimut und Elevation schwenkbar ist.25. The device according to claim 24, characterized in that the barrel weapon ( 20 ) is rigidly attached to the platform ( 22 ) and that the platform is pivotable in azimuth and elevation. 26. Vorrichtung nach einem oder mehreren der Ansprüche 16 bis 23, dadurch gekennzeichnet, daß die Waffe eine Rohrwaffe (20) ist, die gemeinsam mit dem Track-Sensor (8) auf einer Plattform (10) angeordnet ist, wobei der Track-Sensor (8) begrenzt unabhängig von der Rohrwaffe (20) auf der Plattform (10) einstellbar ist.26. The device according to one or more of claims 16 to 23, characterized in that the weapon is a barrel weapon ( 20 ) which is arranged together with the track sensor ( 8 ) on a platform ( 10 ), the track sensor ( 8 ) can be set independently of the barrel weapon ( 20 ) on the platform ( 10 ). 27. Vorrichtung nach einem oder mehreren der Ansprüche 16 bis 23, dadurch gekennzeichnet, daß die Waffe Anti-Raketen aufweist.27. The device according to one or more of claims 16 to 23, characterized, that the weapon has anti-missiles.
DE1996138968 1996-09-23 1996-09-23 Fighting method for approaching flying object Withdrawn DE19638968A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE1996138968 DE19638968A1 (en) 1996-09-23 1996-09-23 Fighting method for approaching flying object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE1996138968 DE19638968A1 (en) 1996-09-23 1996-09-23 Fighting method for approaching flying object

Publications (1)

Publication Number Publication Date
DE19638968A1 true DE19638968A1 (en) 1998-03-26

Family

ID=7806596

Family Applications (1)

Application Number Title Priority Date Filing Date
DE1996138968 Withdrawn DE19638968A1 (en) 1996-09-23 1996-09-23 Fighting method for approaching flying object

Country Status (1)

Country Link
DE (1) DE19638968A1 (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19747515C1 (en) * 1997-10-28 1999-05-20 Stn Atlas Elektronik Gmbh Device for protecting mobile objects, in particular armored vehicles, against the impact of a projectile
DE10117007A1 (en) * 2001-04-04 2002-10-17 Buck Neue Technologien Gmbh Method and device for protecting mobile military equipment
DE10346001A1 (en) * 2003-10-02 2005-05-04 Buck Neue Technologien Gmbh Method and device for protecting ships from end-phase guided missiles
DE10230028B4 (en) * 2002-07-04 2005-07-21 Diehl Bgt Defence Gmbh & Co. Kg System for protecting an object, in particular an armored vehicle, against the action of a fast projectile
DE10229273B4 (en) * 2002-06-28 2007-01-25 Diehl Bgt Defence Gmbh & Co. Kg Object self-protection device
EP1845332A1 (en) 2006-04-10 2007-10-17 Oerlikon Contraves Ag Protective device and protective measure for a radar installation
DE102007018507A1 (en) * 2007-04-19 2008-10-23 Krauss-Maffei Wegmann Gmbh & Co. Kg Method and apparatus for controlling an assault ammunition launcher
DE102008023520B3 (en) * 2008-05-15 2009-07-02 Eads Deutschland Gmbh Method for classifying RAM bullets
DE102010027584A1 (en) * 2010-07-20 2012-01-26 Diehl Bgt Defence Gmbh & Co. Kg Object protection procedures and equipment
RU2495358C2 (en) * 2011-11-21 2013-10-10 Общество с Ограниченной Ответственностью "Научно-технический центр "Версия" Method to detect ground shots, method to set aerosol masks-barriers above columns and groups of mobile equipment or lengthy objects and set of equipment of optical-electronic reconnaissance and optical-electronic suppression for their realisation
EP3591427B1 (en) 2018-07-05 2023-06-14 HENSOLDT Sensors GmbH Missile alerter and a method for issuing a warning about a missile

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19747515C1 (en) * 1997-10-28 1999-05-20 Stn Atlas Elektronik Gmbh Device for protecting mobile objects, in particular armored vehicles, against the impact of a projectile
DE10117007A1 (en) * 2001-04-04 2002-10-17 Buck Neue Technologien Gmbh Method and device for protecting mobile military equipment
DE10229273B4 (en) * 2002-06-28 2007-01-25 Diehl Bgt Defence Gmbh & Co. Kg Object self-protection device
DE10230028B4 (en) * 2002-07-04 2005-07-21 Diehl Bgt Defence Gmbh & Co. Kg System for protecting an object, in particular an armored vehicle, against the action of a fast projectile
DE10346001A1 (en) * 2003-10-02 2005-05-04 Buck Neue Technologien Gmbh Method and device for protecting ships from end-phase guided missiles
DE10346001B4 (en) * 2003-10-02 2006-01-26 Buck Neue Technologien Gmbh Device for protecting ships from end-phase guided missiles
US7886646B2 (en) 2003-10-02 2011-02-15 Rheinmetall Waffe Munition Gmbh Method and apparatus for protecting ships against terminal phase-guided missiles
US7903019B2 (en) 2006-04-10 2011-03-08 Rheinmetall Air Defence Ag Protective device and protective measure for a radar system
EP1845332A1 (en) 2006-04-10 2007-10-17 Oerlikon Contraves Ag Protective device and protective measure for a radar installation
DE102007018507A1 (en) * 2007-04-19 2008-10-23 Krauss-Maffei Wegmann Gmbh & Co. Kg Method and apparatus for controlling an assault ammunition launcher
DE102007018507B4 (en) * 2007-04-19 2012-05-03 Krauss-Maffei Wegmann Gmbh & Co. Kg Method and apparatus for controlling an assault ammunition launcher
DE102008023520B3 (en) * 2008-05-15 2009-07-02 Eads Deutschland Gmbh Method for classifying RAM bullets
EP2120002A2 (en) 2008-05-15 2009-11-18 EADS Deutschland GmbH Method for classifying incoming RAM-projectiles
DE102008023520C5 (en) * 2008-05-15 2016-12-29 Airbus Defence and Space GmbH Method for classifying RAM bullets
DE102010027584A1 (en) * 2010-07-20 2012-01-26 Diehl Bgt Defence Gmbh & Co. Kg Object protection procedures and equipment
DE102010027584B4 (en) * 2010-07-20 2012-03-29 Diehl Bgt Defence Gmbh & Co. Kg Object protection procedures and equipment
RU2495358C2 (en) * 2011-11-21 2013-10-10 Общество с Ограниченной Ответственностью "Научно-технический центр "Версия" Method to detect ground shots, method to set aerosol masks-barriers above columns and groups of mobile equipment or lengthy objects and set of equipment of optical-electronic reconnaissance and optical-electronic suppression for their realisation
EP3591427B1 (en) 2018-07-05 2023-06-14 HENSOLDT Sensors GmbH Missile alerter and a method for issuing a warning about a missile

Similar Documents

Publication Publication Date Title
DE2819938C2 (en) Electro-optical remote control system for passive projectiles
EP0018673B1 (en) Method of measuring shooting errors and shooting error measurement device for carrying out the method
DE4416211C2 (en) Method and device for missile trajectory correction
DE2411790A1 (en) PROCEDURES AND WEAPON SYSTEM FOR THE TARGETED COMBAT OF SURFACE TARGETS
EP2671094A2 (en) Air surveillance system for detecting missiles launched from inside an area to be monitored and air surveillance method
DE19638968A1 (en) Fighting method for approaching flying object
DE3238848A1 (en) METHOD AND DEVICE FOR ENTIRELY CORRECTING THE SHOOTING PROCESS FROM ONE SHOT TO THE FOLLOWING ON A GUN WITH THE STRAIGHT WAY
CH669660A5 (en)
DE3019783A1 (en) METHOD FOR PREVENTING MISTAKES OF AUTOMATIC SHOTS, AND ARRANGEMENT FOR IMPLEMENTING THE METHOD
DE2936643A1 (en) METHOD AND ARRANGEMENT FOR ESTIMATING THE ACCURACY OF A WEAPON
EP1314950B1 (en) Method and device for assessing the aiming errors of a weapon system and use of the device
DE1951622C3 (en) Arrangement for the simulated display of firing trajectories
DE3028545C2 (en) Method for simulating a shot at moving targets by means of light signals
EP0154809A1 (en) Method for simulating combat
DE3545831C2 (en)
DE3504198A1 (en) Method for monitoring the achievement of hits by tank gunners in firing training
EP0862041B1 (en) Method and installation for estimating and displaying a shooting miss
EP1153259B1 (en) Target detection method and device
DE3714883C2 (en)
DE19922412B4 (en) Target detection method and apparatus
WO2000057123A1 (en) Shooting simulation method
DE3843601C2 (en)
DE3132173A1 (en) Device for determining the hit position when firing at airborne targets
DE69408079T2 (en) System for localization of mobile objects
DE4325589B4 (en) Target seeker for guided missiles or projectiles

Legal Events

Date Code Title Description
8139 Disposal/non-payment of the annual fee