DE19638968A1 - Fighting method for approaching flying object - Google Patents
Fighting method for approaching flying objectInfo
- Publication number
- DE19638968A1 DE19638968A1 DE1996138968 DE19638968A DE19638968A1 DE 19638968 A1 DE19638968 A1 DE 19638968A1 DE 1996138968 DE1996138968 DE 1996138968 DE 19638968 A DE19638968 A DE 19638968A DE 19638968 A1 DE19638968 A1 DE 19638968A1
- Authority
- DE
- Germany
- Prior art keywords
- missile
- sensor
- weapon
- cameras
- image data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Classifications
-
- F—MECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
- F41—WEAPONS
- F41G—WEAPON SIGHTS; AIMING
- F41G5/00—Elevating or traversing control systems for guns
- F41G5/08—Ground-based tracking-systems for aerial targets
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S11/00—Systems for determining distance or velocity not using reflection or reradiation
- G01S11/12—Systems for determining distance or velocity not using reflection or reradiation using electromagnetic waves other than radio waves
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S3/00—Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
- G01S3/78—Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using electromagnetic waves other than radio waves
- G01S3/782—Systems for determining direction or deviation from predetermined direction
- G01S3/785—Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system
- G01S3/786—Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system the desired condition being maintained automatically
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/08—Systems determining position data of a target for measuring distance only
- G01S17/10—Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Electromagnetism (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- General Engineering & Computer Science (AREA)
- Aiming, Guidance, Guns With A Light Source, Armor, Camouflage, And Targets (AREA)
Abstract
Description
Die Erfindung betrifft ein Verfahren und eine Vorrichtung zur Bekämpfung anfliegender Flugkörper.The invention relates to a method and an apparatus for Combating approaching missiles.
Bei einem bekannten Verfahren dieser Art wird zum Erfassen und Verfolgen ("Tracken") des Flugkörpers ein Radarsystem einge setzt, welches das Ziel mit Radar erfaßt und anfliegende Flug körper (Flugzeuge, Hubschrauber, Raketen) in größeren Entfernun gen mit Anti-Raketen und in kleineren Entfernungen (weniger als 2000 m) mit Maschinenkanonen bekämpft. Nachteilig bei diesem Verfahren ist einerseits, daß Radarsysteme aktive Sensoren auf weisen, die elektromagnetische Wellen aussenden und sich somit zu erkennen geben, so daß ein Gegner den Standort erfassen kann. Andererseits setzt ein Radarsystem kompliziertes, voluminöses und teures technisches Gerät voraus. Um eine Trefferwahrschein lichkeit bei der Bekämpfung, insbesondere bei kleinen Bekämp fungsentfernungen, zu erzielen, ist eine Rohrwaffe mit extrem hoher Schußfolge erforderlich, mit der im Dauerfeuer über eine vergleichsweise lange Zeitdauer geschossen werden muß.In a known method of this type, detection and Tracking ("tracking") the missile turned on a radar system sets which detects the target with radar and approaching flight bodies (planes, helicopters, rockets) at greater distances anti-missile and smaller distances (less than 2000 m) fought with machine guns. A disadvantage of this The method is, on the one hand, that radar systems have active sensors point, which emit electromagnetic waves and thus reveal, so that an opponent can grasp the location. On the other hand, a radar system sets complicated, voluminous ones and expensive technical equipment ahead. To a hit probability Combativity, especially for small fighters distance to achieve is a barrel weapon with extreme high sequence of shots required, with the continuous fire over a comparatively long time must be shot.
Aus der DE 33 40 133 C2 ist ein Verfahren bekannt, das mittels Fotodioden-Arrays in einem 3-dimensionalen Meßraum einen Flug körper erfassen kann, wobei die anfallende Datenmenge durch ein Datenreduktionsverfahren vermindert wird. Mit diesem Verfahren sollen die aus der DE-OS 31 32 168 und der DE 24 02 204 C3 be kannten 2-dimensionalen Verfahren zur Bestimmung der Lage eines Durchstoßpunktes eines Projektils von einer Meßebene auf einen 3-dimensionalen Meßraum erweitert werden.From DE 33 40 133 C2 a method is known which means Photodiode arrays in a 3-dimensional measuring room during a flight body can record, the amount of data generated by a Data reduction process is reduced. With this procedure should be from DE-OS 31 32 168 and DE 24 02 204 C3 known 2-dimensional method for determining the position of a Penetration point of a projectile from a measuring plane to one 3-dimensional measuring room can be expanded.
Der Erfindung liegt die Aufgabe zugrunde, ein Verfahren und eine Einrichtung der eingangs genannten Art so auszubilden, daß die erwähnten Nachteile vermieden sind und gleichwohl eine Bekämp fung anfliegender Flugkörper (Raketen, Flugzeuge, Hubschrauber) mit hoher Trefferwahrscheinlichkeit ermöglicht wird.The invention is based, a method and a task Training device of the type mentioned so that the disadvantages mentioned are avoided and nevertheless a fighter missile approaching (missiles, airplanes, helicopters) is made possible with a high probability of being hit.
Zur Lösung dieser Aufgabe dienen ein Verfahren gemäß Patentan spruch 1 und eine Vorrichtung gemäß Patentanspruch 13.A method according to Patentan is used to solve this problem award 1 and a device according to claim 13.
Vorteilhafte Ausgestaltungen der Erfindung sind in den Unter ansprüchen unter Schutz gestellt.Advantageous embodiments of the invention are in the sub claims under protection.
Mit der Erfindung wird der Flugkörper mit einem Sensorsystem hochauflösend erfaßt. Dies ermöglicht ein frühzeitiges Erkennen des noch weit entfernten Flugkörpers. Die mittels Sensorsystem erfaßte Anflugrichtung des Flugkörpers wird an einen an sich bekannten Track-Sensor weitergegeben, wobei jedoch nur ein Ele vations- und Azimutwinkelbereich mit geringerer Auflösung wei tergeleitet wird. Da der Track-Sensor nur im "Nahbereich" tätig ist, genügt die geringere Auflösung für eine Erfassung des Flug körpers durch den Track-Sensor. Die Verringerung der Auflösung bewirkt eine einfache und schnelle Übergabe der erfaßten Daten an den Track-Sensor. Durch die Erfassung mit hoher Auflösung wird trotz passiver Sensoren die notwendige Sicherheit bei der Wahrnehmung der Flugkörper gewährleistet.With the invention, the missile with a sensor system recorded in high resolution. This enables early detection of the missile still far away. The sensor system detected direction of approach of the missile is in itself known track sensor passed, but only one Ele vation and azimuth angle range with lower resolution white is routed. Since the track sensor only works in the "close range" the lower resolution is sufficient to record the flight body through the track sensor. Reducing the resolution causes a simple and quick transfer of the recorded data to the track sensor. By capturing with high resolution Despite the passive sensors, the necessary safety is guaranteed Guaranteed missile perception.
Durch Einsatz von passiven Sensoren, die selbst keine elektroma gnetischen Wellen ausstrahlen, wird die elektronische Erfassung durch die gegnerische Abwehr unmöglich gemacht. Dies erhöht die Überlebenswahrscheinlichkeit erheblich, wobei einfacher Aufbau und kleines Volumen des eingesetzten optischen Sensorsystems, welches beispielsweise TV- oder Infrarot-Kameras sowohl für die Groberfassung mit großer Sehweite als auch für das "Tracken" mit langer Brennweite (enger Sehweite) einsetzt, gegenüber einem viel komplexeren und voluminöseren Radarsystem wesentliche zu sätzliche Vorteile ergeben. By using passive sensors that do not have an electroma emit magnetic waves, the electronic capture made impossible by the opposing defense. This increases the Probability of survival significantly, with simple structure and small volume of the optical sensor system used, which, for example, TV or infrared cameras for both Coarse detection with a large field of vision as well as for "tracking" with a long focal length (narrow field of view) against one much more complex and voluminous radar system essential to additional advantages result.
Das Verfahren und die Vorrichtung nach der Erfindung ermöglichen das präzise Nachführen der Waffe, so daß das Ziel mit einer kurzen Salve mit hoher Trefferwahrscheinlichkeit bekämpft werden kann. Dies erübrigt den Einsatz einer komplexen und teuren Rohr waffe mit hoher Kadenz bzw. Schußfolge bei Dauerfeuer.The method and the device according to the invention enable the precise tracking of the weapon, so that the target with a short volley with a high probability of being hit can. This eliminates the use of a complex and expensive pipe weapon with high cadence or firing order in continuous fire.
Die Erfindung ist im folgenden anhand schematischer Zeichnungen an einem Ausführungsbeispiel mit weiteren Einzelheiten näher erläutert. Es zeigen:The invention is based on schematic drawings closer to an embodiment with further details explained. Show it:
Fig. 1 eine schematische Darstellung in Draufsicht auf eine Vorrichtung nach der Erfindung; Figure 1 is a schematic representation in plan view of a device according to the invention.
Fig. 2 eine Darstellung der Vorrichtung nach Fig. 1 in Sei tenansicht mit einem hohen Blockschaltbild unter Ein beziehung eines Steuerrechners und eines Feuerleit rechners; Fig. 2 is an illustration of the device of Figure 1 Be tenansicht with a high block diagram with a relationship of a control computer and a fire control computer.
Fig. 3 ein Wegdiagramm, anhand dessen die einzelnen Schritte des Verfahrens in Abhängigkeit vom Abstand des flie genden Flugkörpers veranschaulicht sind; Fig. 3 is a path diagram, based on which the individual steps of the method are illustrated depending on the distance of the flying missile;
Fig. 4 schematisch die Unterteilung in Pixel und Segmente eines erfindungsgemäß erfaßten Bildes. Fig. 4 schematically shows the subdivision into pixels and segments of an inventive captured image.
Die in den Fig. 1 und 2 dargestellte Vorrichtung weist ein optisches Sensorsystem mit zwei feststehenden, parallel zuein ander im Abstand angeordneten Kameras 2 und 4 zur Erfassung eines anfliegenden Flugkörpers auf. Die beiden Kameras 2, 4 sind in gleiche Sehrichtung ausgerichtet, und sie weisen ein großes Sehfeld A und B von jeweils z. B. 40° in Azimut und 8° in Eleva tion auf. Die Kameras 2, 4 bestehen vorzugsweise jeweils aus einem Kamerablock mit vier Kameramodulen, wobei jedes Kameramo dul aus jeweils einer CCD-Kamera ausgebildet ist. Jedes Kamera modul weist ein Pixelfeld von 738 × 576 auf. Dies ergibt eine Auflösung von 0,014°, d. h. etwa 0,8′ bzw. +/- 0,4′. Mit einer solch hohen Auflösung können Flugkörper schon frühzeitig erkannt werden, selbst wenn sie nur geringe Abmessung aufweisen und in Tarnfarbe gehalten sind. Durch das frühzeitige Erkennen wird Zeit für die Auswertung der anfallenden Bilddaten gewonnen. The device shown in FIGS . 1 and 2 has an optical sensor system with two fixed cameras 2 and 4 arranged parallel to one another at a distance from one another for detecting an approaching missile. The two cameras 2 , 4 are aligned in the same direction, and they have a large field of view A and B of z. B. 40 ° in azimuth and 8 ° in elec tion. The cameras 2 , 4 preferably each consist of a camera block with four camera modules, each camera module being formed from a CCD camera. Each camera module has a pixel field of 738 × 576. This results in a resolution of 0.014 °, ie approximately 0.8 'or +/- 0.4'. With such a high resolution, missiles can be recognized at an early stage, even if they are small in size and have a camouflage color. The early detection saves time for the evaluation of the image data.
Die Ausgangssignale der Kameras 2,4 werden gemäß Fig. 2 in einen Steuerrechner 6 eingegeben, der weitere Ausgangssignale von einem Track-Sensor 8 langer Brennweite, das heißt mit kleinem Sehfeld C von z. B. 1°, erhält.The output signals of the cameras 2,4 to be entered as shown in FIG. 2 in a control computer 6, the more output signals from a track sensor 8 long focal length, that is with a small field of view C of z. B. 1 °.
Zum Track-Sensor 8 gehört ein Laser-Entfernungsmesser (nicht gesondert gezeigt), und der Track-Sensor 8 ist gemeinsam mit diesem Laser-Entfernungsmesser auf einer um zwei Achsen (Azimut achse und Elevationsachse) beweglichen Plattform 10 montiert. Diese Plattform ist ferner mit zwei hochgenauen Winkelmessern bekannter Bauart (nicht gezeigt) zum Erfassen der Schwenkbewe gungen der Plattform 10 um die beiden Achsen, nämlich die Eleva tionsachse e und die Azimutachse a, ausgerüstet.The track sensor 8 includes a laser range finder (not shown separately), and the track sensor 8 is mounted together with this laser range finder on a platform 10 movable about two axes (azimuth axis and elevation axis). This platform is also equipped with two high-precision protractors of a known type (not shown) for detecting the pivoting movements of the platform 10 about the two axes, namely the axis of elevation e and the azimuth axis a.
Mit der Bezugszahl 12 ist ein Azimutantrieb für die Plattform 10 zur Erzeugung einer Nachführschwenkung um die Azimutachse a bezeichnet. Mit der Bezugszahl 14 ist ein Elevationsantrieb zur Erzeugung einer Nachführschwenkung um die Elevationsachse e der Plattform 10 bezeichnet. Beide Antriebe 12 und 14 werden zu einer Nachführung der Plattform 10 von dem Steuerrechner 6 ange steuert.The reference number 12 denotes an azimuth drive for the platform 10 for generating a tracking swivel about the azimuth axis a. Reference number 14 denotes an elevation drive for generating a tracking swivel about the elevation axis e of the platform 10 . Both drives 12 and 14 are controlled by the control computer 6 for tracking the platform 10 .
Der Ausgang 16 des Steuerrechners 6 führt zu einem Feuerleit rechner 18, der über eine nachgeschaltete Ansteuereinheit 19 auf eine Rohrwaffe 20 einwirkt. Diese Rohrwaffe 20 ist auf einer Plattform 22 montiert, welche mittels eines Azimutantriebs 24 um eine Azimutachse a′ schwenkbar ist. Der Azimutantrieb 24 wird über die Ausgangsleitung 26 des Feuerleitrechners 16 angesteu ert. Ferner ist ein Elevationsantrieb 28 vorhanden, der über eine Ausgangsleitung 30 ansteuerbar ist und die Rohrwaffe 20 um eine Elevationsachse e′ schwenken kann.The output 16 of the control computer 6 leads to a fire control computer 18 , which acts on a gun 20 via a downstream control unit 19 . This barrel weapon 20 is mounted on a platform 22 which is pivotable about an azimuth axis a 'by means of an azimuth drive 24 . The azimuth drive 24 is controlled via the output line 26 of the fire control computer 16. Furthermore, there is an elevation drive 28 which can be controlled via an output line 30 and can pivot the barrel weapon 20 about an elevation axis e '.
Das Sensorsystem 2, 4 und der Track-Sensor 8 mit Rechnern 6, 18, Rohrwaffe 20 mit Plattform 22 und die Antriebe 24 und 28 können auf einem gepanzerten Fahrzeug 32 montiert sein.The sensor system 2 , 4 and the track sensor 8 with computers 6 , 18 , barrel weapon 20 with platform 22 and the drives 24 and 28 can be mounted on an armored vehicle 32 .
Die Arbeitsweise des Verfahrens und der Einrichtung nach der Erfindung seien nun anhand der Fig. 1 und 2 unter Einbeziehung der Fig. 3 erläutert. Die Ausgangssignale der beiden Kameras 2,4 werden im Steuerrechner 6 in Realzeit korreliert, um dadurch auch kleinste Bewegungen (im Pixelbereich) zu detektieren und dadurch einen anfliegenden Flugkörper, z. B. eine Rakete, frühzei tig zu detektieren.The operation of the method and the device according to the invention will now be explained with reference to FIGS. 1 and 2, including FIG. 3. The output signals of the two cameras 2 , 4 are correlated in real time in the control computer 6, in order to thereby detect even the smallest movements (in the pixel area) and thereby an approaching missile, for. B. to detect a rocket early.
Aus der Lage der detektierten Bewegung in den vom Steuerrechner 6 ausgewerteten Kamera-Bildern läßt sich die Richtung des an fliegenden Flugkörpers bestimmen. An sich bekannte Track-Senso ren erfordern eine Genauigkeit der Richtungsvorgabe von etwa +/- 3 mrad bzw. +/- 10′.The direction of the flying missile can be determined from the position of the detected movement in the camera images evaluated by the control computer 6 . Known Track Senso ren require an accuracy of the direction of about +/- 3 mrad or +/- 10 '.
Die Auswertung der Ausgangssignale der Kameras 2, 4 im Steuer rechner 6 erfolgt vorzugsweise nach folgenden Verfahrensschrit ten:The evaluation of the output signals of the cameras 2 , 4 in the control computer 6 is preferably carried out according to the following method steps:
- 1. Die Signale der einzelnen Kameras 2, 4 bzw. der einzelnen Kameramodule der Kameras 2, 4 werden parallel digitali siert. Die anfallende Datenmenge liegt hier beispielsweise in der Größenordnung von 80 MB pro Sekunde. Diese Daten menge ergibt sich beispielsweise bei 2 × 4 Kameramodulen mit 738 × 576 Pixel × 25 Bildern/Sekunde (81,08 MB), wobei zu jedem Pixel ein Byte abgespeichert wird, das eine an dem Pixel detektierte Graustufe wiedergibt.1. The signals from the individual cameras 2 , 4 or the individual camera modules of the cameras 2 , 4 are digitized in parallel. The amount of data generated here is in the order of 80 MB per second, for example. This amount of data results, for example, in the case of 2 × 4 camera modules with 738 × 576 pixels × 25 frames / second (81.08 MB), with one byte being stored for each pixel, which represents a gray level detected at the pixel.
-
2. In einem ersten Auswertevorgang werden für die einzelnen
Bildpunkte (Pixel) Pxy der jeweiligen durch die Kameras 2,
4 erfaßten Bilder Mittelwerte Pxyref berechnet, welche zum
Vergleich mit den aktuellen Bildpunkten dienen. Langsame
Änderungen wie Helligkeitsänderungen, z. B. durch Wolken,
und oszillierende Änderungen, von beispielsweise im Wind
hin und her schwenkender Bäume, werden durch einen Ver
gleich der aktuellen Bildpunkte mit den entsprechenden
Mittelwerten eliminiert.
Die Berechnung der Mittelwerte erfolgt beispielsweise nach folgender Formel: Pxyref,i = Pxyref,i-1 · Gew + Pxyakt (1-Gew),die rekursiv angewandt wird, wobei ein Mittelwert Pxyref,i einer Graustufe eines Pixels Pxy aus einem vorhergehenden Mittelwert Pxyref,i-1 und der aktuell gemessenen Graustufe ermittelt wird, wobei Gew ein Gewichtungsfaktor ist, der beispielsweise einen Wert von 0,9 hat. Der Gewichtungsfak tor Gew liegt vorzugsweise im Bereich von 0,7 bis 0,95 und bestimmt die zeitliche Tiefe, mit welcher die gemessenen Bilder das Mittelwertbild beeinflussen.2. In a first evaluation process, mean values P xyref are calculated for the individual pixels P xy of the respective images captured by the cameras 2 , 4 , which are used for comparison with the current pixels. Slow changes such as changes in brightness, e.g. B. by clouds, and oscillating changes, for example trees swinging back and forth in the wind, are eliminated by comparing the current pixels with the corresponding mean values.
The mean values are calculated, for example, according to the following formula: P xyref, i = P xyref, i-1 · Gew + P xyakt (1-Gew), which is applied recursively, an average value P xyref, i of a gray level of a pixel P xy is determined from a previous mean value P xyref, i-1 and the currently measured gray level, where Gew is a weighting factor that has a value of 0.9, for example. The weighting factor Gew is preferably in the range from 0.7 to 0.95 and determines the temporal depth with which the measured images influence the mean value image. - 3. In einem zweiten Auswertevorgang wird ein Differenzbild ermittelt, in dem die Differenz zwischen den Pixeln des Mittelwertbildes Pxyref mit denen des aktuellen Bildes Pxyakt gemäß folgender Formel ermittelt wird: PxyDiff = Pxyref-PxyaktIn diesem Differenzbild PxyDiff verbleiben nur noch Grauwerte von Objekten, die ihre Form oder Lage auf dem von den Kame ras 2, 4 erfaßten Bild geändert haben. Alle übrigen stati schen Objekte werden auf dem Differenzbild gelöscht.3. In a second evaluation process, a differential image is obtained, in which the difference between the pixels of the average image P xyref that of the current picture P xyakt according to the following formula is determined: P xyDiff = P xyref -P xyakt In this difference image P xyDiff remain only still gray values of objects that have changed their shape or position on the image captured by cameras 2 , 4 . All other static objects are deleted from the difference image.
- 4. In einem dritten Auswertevorgang werden die Bildpunkte bzw. Pixel auf ein Bit Objektsignal reduziert, die nur noch die Informationen enthalten, ob sich ein Bildpunkt verändert bzw. nicht verändert hat. Jedem Pixel wird ein solches Bit Objektsignal zugeordnet, wobei das Bit gesetzt wird, wenn der Grauwert des Pixels über einem vorbestimmten Schwellen wert liegt, und das Bit gelöscht wird, wenn der Grauwert unter dem vorbestimmten Schwellenwert liegt. Hierdurch wird die Datenmenge eines Bildes um den Faktor 8 reduziert, da jedes eine Graustufe darstellende Byte durch ein einziges Bit ersetzt wird.4. In a third evaluation process, the pixels or Pixel reduced to a bit of object signal, which is only the Contain information whether a pixel changes or has not changed. Each pixel has one such bit Object signal assigned, the bit is set when the gray level of the pixel above a predetermined threshold value, and the bit is deleted when the gray value is below the predetermined threshold. This will the amount of data in an image is reduced by a factor of 8 because each byte representing a grayscale by a single one Bit is replaced.
- 5. In einem vierten Auswertevorgang werden die auf ein Bit reduzierten Bildpunkte zu Segmenten von beispielsweise 4 × 4 Bildpunkte zusammengefaßt. Das Bild besteht somit aus einer Vielzahl gleich großer Segmente S (Fig. 4). Jedem Segment S ist wiederum ein Bit zugeordnet, wobei das Bit einen reduzierten Bildpunkt darstellt, der gesetzt wird, wenn ein einziger im Segment enthaltener Bildpunkt bzw. Pixel gesetzt ist. Das aus den reduzierten Bildpunkten zusammengesetzte Bild gibt somit das bisher ermittelte Bild der sich in Form oder Lage veränderten Objekte mit einer geringeren Auflösung wieder. Durch diese Verringerung der Auflösung werden die anfallende Daten bei der Zusammenfas sung von 4 × 4 Bildpunkten um den Faktor 16 reduziert.5. In a fourth evaluation process, the pixels reduced to one bit are combined into segments of, for example, 4 × 4 pixels. The image thus consists of a large number of segments S of the same size ( FIG. 4). A bit is in turn assigned to each segment S, the bit representing a reduced pixel which is set when a single pixel or pixel contained in the segment is set. The image composed of the reduced pixels thus reproduces the previously determined image of the objects which have changed in shape or position with a lower resolution. As a result of this reduction in resolution, the data obtained when combining 4 × 4 pixels are reduced by a factor of 16.
- 6. Die bisher parallel verarbeiteten Videosignale werden nun zusammengeführt, wobei die bisher noch getrennten Objektsi gnale in Datenworte zusammengefaßt werden, die die jeweili ge Kameranummer, Zeileninformation und Spalteninformation enthalten. Die auf diese Art und Weise komprimierten Infor mationen werden gefiltert, wobei die bildliche Darstellung des erfaßten Objektes, die als Signatur bezeichnet wird, nach Größe, Form und Bewegung auf dem Bild bewertet wird. Entspricht die Signatur keinem geradlinig auf die Senso reinheit zufliegendem Körper vorbestimmter Größe, so wird sie gelöscht. Die Bewertungsregeln sind für die Art des zu erfassenden Objektes spezifisch zu erstellen. Soll eine anfliegende Rakete bekämpft werden, so muß das Bild nach einer sich allmählich vergrößernden kreisförmigen Scheibe abgetastet werden. Zudem werden bspw. nur Scheiben ausge wählt, die beim Anfliegen ihre Position nicht wesentlich verändern, da eine Rakete mit einer sich am Bild stark bewegenden Signatur an ihrem Ziel oder zumindest an der erfindungsgemäßen Raketenabwehrvorrichtung vorbeifliegen würde. Ein andere Flugkörper, insbesondere nicht geradlinig fliegende Flugkörper, müssen andere Bewertungsregeln ange wandt werden. Durch diese Bewertung wird bereits im Steuer rechner eine Vorauswahl der anfliegenden Objekte getroffen. Die die jeweilige Kameranummer, Zeileninformation und Spal teninformation enthaltenen Datenworte geben dem Elevations- und Azimutwinkelbereich des erfaßten anfliegenden Flugkör pers wieder, so daß durch Übergabe dieser Datenworte an den Feuerleitrechner 18 diese Winkelbereiche an den Track-Sen sor weitergeleitet werden.6. The previously processed parallel video signals are now merged, the previously separate object signals are summarized in data words containing the respective camera number, line information and column information. The information compressed in this way is filtered, and the pictorial representation of the detected object, which is referred to as a signature, is evaluated according to size, shape and movement on the image. If the signature does not correspond to a body of a predetermined size that is flying straight towards the sensor unit, it is deleted. The evaluation rules are to be created specifically for the type of object to be recorded. If an incoming rocket is to be fought, the image must be scanned for a gradually increasing circular disk. In addition, for example, only disks are selected which do not significantly change their position when approached, since a missile with a signature that moves strongly in the image would fly past its target or at least the missile defense device according to the invention. Another missile, in particular non-straight-line missiles, other assessment rules must be applied. This evaluation makes a pre-selection of the objects flying into the tax calculator. The data words containing the respective camera number, line information and column information indicate the elevation and azimuth angle range of the detected incoming missile, so that these angle ranges are passed on to the track sensor by transfer of these data words to the fire control computer 18 .
Die im vierten Auswertevorgang erfolgte Reduktion durch Verrin gerung der Auflösung macht die anfallende Datenmenge wesentlich schneller und einfacher handhabbar, wobei hier die Erkenntnis genutzt wird, daß zwar ein hochauflösendes Sensorsystem für die frühzeitige Erfassung des in großer Entfernung fliegenden Flug körpers von Vorteil ist, es jedoch überraschenderweise nicht notwendig ist, die Bewertung des erfaßten Objektes, ob es dem zu bekämpfenden Flugkörper entspricht, mit der hohen Auflösung, mit der die Flugkörper erfaßt werden, durchzuführen. Für den Erfolg der erfindungsgemäßen Flugabwehrvorrichtung ist wesentlich, daß diese Bewertung schnell und korrekt erfolgt. Durch die in Fig. 4 dargestellte Datenreduktion, wobei die Auflösung des erfaßten Bildes verringert wird, kann die Bewertung der Objekte mit der notwendigen Geschwindigkeit als auch mit der notwendigen Sicher heit erfolgen. Die Funktionstüchtigkeit der erfindungsgemäßen Vorrichtung konnte in Praxistests zur Abwehr von anfliegenden Raketen belegt werden.The reduction in the fourth evaluation process by reducing the resolution makes the amount of data obtained much faster and easier to handle, whereby the knowledge is used that a high-resolution sensor system is advantageous for the early detection of the missile flying at a great distance, but it does Surprisingly, it is not necessary to carry out the evaluation of the detected object as to whether it corresponds to the missile to be combated with the high resolution with which the missile is detected. It is essential for the success of the anti-aircraft device according to the invention that this evaluation is carried out quickly and correctly. Due to the data reduction shown in FIG. 4, the resolution of the captured image being reduced, the objects can be evaluated with the necessary speed and with the necessary security. The functionality of the device according to the invention could be demonstrated in practical tests to ward off approaching missiles.
Ferner werden dem Track-Sensor, der nur im Nahbereich tätig ist, die Richtungsdaten mit dieser geringen Auflösung bzw. Präzision übermittelt. Denn diese Richtungsdaten bzw. Richtungsangaben werden in Winkelbereichen angegeben, wobei die Größe der durch die Winkelbereiche festgelegten Flächensegmente indirekt propor tional zur Entfernung ist, so daß auch durch die relativ "unge nauen" (+/-10′) Winkelbereiche ein im Nahbereich den Flugkörper ausreichend präzise beschreibendes Flächensegment festgelegt ist.Furthermore, the track sensor, which only works in the close range, the directional data with this low resolution or precision transmitted. Because this directional data or directional information are given in angular ranges, the size of the by the angular ranges indirectly defined surface segments tional to the distance, so that also by the relatively "uneven nauen "(+/- 10 ′) angular ranges in the vicinity of the missile sufficiently precise descriptive area segment defined is.
Die parallele Reduzierung der Daten und das nachträgliche Zu sammenführen der reduzierten Datenmenge erlaubt, daß die Objekt daten vom Steuerrechner 6 innerhalb von ein bis drei Sekunden erhalten werden. Dies bedeutet, daß innerhalb kürzester Zeit eine große, passiv erfaßte Datenmenge ausgewertet und zur An steuerung des Track-Sensors 8 verwendet werden kann.The parallel reduction of the data and the subsequent merging of the reduced amount of data allows the object data to be obtained from the control computer 6 within one to three seconds. This means that a large, passively recorded amount of data can be evaluated and used to control the track sensor 8 within a very short time.
Ein Flugkörper, der auf einer Kameraachse einer der beiden Kame ras 2, 4 anfliegt, kann von dieser Kamera nicht oder nur sehr spät wahrgenommen werden, denn dessen Signatur verändert sich im detektierten Bild kaum. Durch das Vorsehen der beiden Kameras 2, 4 wird ein redundantes System geschaffen, so daß mit zumindest einer der beiden Kameras 2, 4 selbst bei einem direkt auf eine Kamera zufliegenden Flugkörper ein sicheres Detektieren möglich ist. Die beiden Kameras 2, 4 dienen somit nicht zur Erzeugung eines Stereobildes, sondern werden jeweils für sich separat ausgewertet, wobei bei der Zusammenführung der beiden parallel verarbeiteten Videosignale ein Vergleich und eine entsprechende Korrektur erfolgt.A missile that flies to one of the two cameras 2 , 4 on a camera axis cannot be perceived by this camera, or can only be perceived very late, because its signature hardly changes in the detected image. The provision of the two cameras 2 , 4 creates a redundant system, so that reliable detection is possible with at least one of the two cameras 2 , 4 even when a missile is flying directly towards a camera. The two cameras 2 , 4 are therefore not used to generate a stereo image, but are each evaluated separately, with a comparison and a corresponding correction being carried out when the two video signals processed in parallel are combined.
Dadurch, daß eine digital erfaßte, enorm große Datenmenge in kürzester Zeit zu den wenigen Daten reduziert werden kann, ist es möglich, die Richtung des Flugkörpers schnell zu ermitteln und diesen mit der notwendigen Schnelligkeit, Sicherheit und Ge nauigkeit an den Track-Sensor weiterzuleiten.The fact that a digitally recorded, huge amount of data in can be reduced to the little data in the shortest possible time it is possible to quickly determine the direction of the missile and this with the necessary speed, security and ge forward accuracy to the track sensor.
Mit Hilfe der Objektdaten wird der optische Track-Sensor 8 auf die Richtung des Flugkörpers "aufgesetzt". Der Flugkörper wird ebenfalls mit Hilfe digitaler Bildverarbeitung des mit dem Track-Sensor gewonnenen Kamerabildes verfolgt. Dabei werden mittels der beiden Winkelgeber der Azimutwinkel und der Eleva tionswinkel des Flugkörpers bestimmt. Mit dem Laser-Entfernungs messer wird der Abstand des Flugkörpers laufend gemessen. Aus den so gewonnenen Daten wird die Anflugrichtung des Flugkörpers in Realzeit berechnet, worauf der Steuerrechner 6 Ausgangssigna le über Leitungen 11, 13 zum Betätigen der Antriebe 12,14 des Track-Sensors 8 und damit zum Nachführen dieses Track-Sensors ausgibt. Ferner werden über die Ausgangsleitung 16 des Steuer rechners 6 Signale an den Feuerleitrechner 18 übergeben, der seinerseits über die Ansteuereinheit 19 Nachführsignale für die Leitungen 26, 30 an die Antriebe 24, 28 für die Plattform er zeugt. Der Feuerleitrechner 18 berechnet anhand der von dem Track-Sensor 8 sowie der waffen- und systemspezifischen Daten den Vorhalt der Rohrwaffe 20, führt die Rohrwaffe 20 nach und löst bei Erreichen der vorgegebenen Bekämpfungsentfernung einen Schuß oder eine kurze Schußfolge aus.With the aid of the object data, the optical track sensor 8 is “placed” on the direction of the missile. The missile is also tracked with the aid of digital image processing of the camera image obtained with the track sensor. The azimuth angle and the elevation angle of the missile are determined by means of the two angle sensors. The distance of the missile is continuously measured with the laser range finder. The approach direction of the missile is calculated in real time from the data obtained in this way, whereupon the control computer 6 outputs signals via lines 11 , 13 for actuating the drives 12, 14 of the track sensor 8 and thus for tracking this track sensor. Furthermore, 6 signals are passed to the fire control computer 18 via the output line 16 of the control computer, which in turn generates tracking signals for the lines 26 , 30 to the drives 24 , 28 for the platform via the control unit 19 . The fire control computer 18 uses the track sensor 8 and the weapon and system-specific data to calculate the reserve of the barrel weapon 20 , tracks the barrel weapon 20 and triggers a shot or a short sequence of shots when the specified combat range is reached.
Das optische Sensorsystem kann auch aus Kameras 2, 4 ausgebildet sein, mit großflächigen Sensoren von beispielsweise 4.096 × 4.096 Pixel, die vorzugsweise frei adressierbar sind (random access). Bei derartigen frei adressierbaren Bereichen können durch die Auswerteeinrichtung bestimmte Bereiche am Sensor ge trennt ausgewählt und separat ausgelesen werden.The optical sensor system can also be formed from cameras 2 , 4 , with large-area sensors of, for example, 4,096 × 4,096 pixels, which are preferably freely addressable (random access). In such freely addressable areas, certain areas on the sensor can be selected separately by the evaluation device and read out separately.
Kameras mit diesen großflächigen, frei adressierbaren Sensoren können nicht nur zur Erfassung der Flugkörper, sondern auch gleichzeitig als Track-Sensoren verwendet werden, wobei nach der oben beschriebenen, aufgrund reduzierter Daten (Fig. 4) durch geführten Bewertung der anfliegenden Flugkörper ein Sensorteil bereich ausgewählt wird, mit dem der anfliegenden Flugkörper erfaßt wird. Dieser begrenzte Sensorteilbereich dient dann als Track-Sensor, der nicht mechanisch verstellt werden muß, sondern durch Verschieben des Sensorteilbereichs auf dem Sensor dem anfliegenden Flugkörper nachgeführt werden kann. Durch die Aus wertung eines Teilbereiches des Sensors fallen beim "Tracken" keine großen Datenmengen an, die ähnlich wie beim an sich be kannten Track-Sensor vorzugsweise durch eine separate Aus werte-Elektronik ausgewertet werden. Es können an einem Sensor auch zwei oder drei Einheiten einer solchen Auswerte-Elektronik zum "Tracken" angeschlossen werden, so daß gleichzeitig mehrere an fliegende Flugkörper verfolgt bzw. "getrackt" werden können.Cameras with these large-area, freely addressable sensors can be used not only to record the missiles, but also simultaneously as track sensors, with a sensor subarea being selected based on the above-described, reduced data ( FIG. 4) by means of guided evaluation of the approaching missiles with which the approaching missile is detected. This limited sensor partial area then serves as a track sensor, which does not have to be adjusted mechanically, but can be tracked by moving the sensor partial area on the sensor to the approaching missile. By evaluating a sub-area of the sensor, there are no large amounts of data during "tracking", which, like the track sensor known per se, are preferably evaluated by separate evaluation electronics. Two or three units of such evaluation electronics can also be connected to a sensor for "tracking", so that several can be tracked or "tracked" to flying missiles at the same time.
Übernimmt ein Sensorteilbereich die Funktion des Track-Sensors, so vermindert sich der mechanische, hydraulische und elektroni sche Steuerungsaufwand wesentlich. Zudem entfällt die Zeitspan ne, die ein Track-Sensor benötigt, um auf einen anfliegenden Flugkörper einzuschwenken.If a sensor sub-area takes over the function of the track sensor, this reduces the mechanical, hydraulic and electronic control effort essential. In addition, there is no time span ne that a track sensor needs to approach on an approaching Swing in the missile.
Als Bildsensoren können im optischen (VISible), ultravioletten (UV), nahen und fernen Infrarot (IR) empfindliche Sensoren ver wendet werden. Die Sensoren können als CCD (charge coupled devi ce), CID (charge injection device), IICCD (image intensified CCD), IICID (image intensified CID), HDRC (high dynamic range CMOS) oder als bipolares BPDA (photodiode array) ausgebildet sein.The image sensors can be optical (VISible), ultraviolet (UV), near and far infrared (IR) sensitive sensors ver be applied. The sensors can be used as CCD (charge coupled devi ce), CID (charge injection device), IICCD (image intensified CCD), IICID (image intensified CID), HDRC (high dynamic range CMOS) or as a bipolar BPDA (photodiode array) be.
Vorzugsweise ist der Sensor als sogenannter Smart Optical Sensor ausgebildet, d. h., daß in den Sensor einfache "intelligente" Bauteile integriert sind, die beispielsweise eine erste Daten reduktion vornehmen. Hierdurch kann sowohl eine Beschleunigung der Auswertung als auch eine Vereinfachung des Aufbaues erzielt werden.The sensor is preferably a so-called smart optical sensor trained, d. that is, simple "intelligent" Components are integrated, for example a first data make reduction. This can accelerate both the evaluation as well as a simplification of the structure will.
In der Darstellung nach Fig. 3 ist eine horizontale Achse s dargestellt, auf welcher in zeitlicher Reihenfolge mit aufstei genden römischen Ziffern bezeichnete Pfeile markante Entfernun gen zu einem Nullpunkt bei Pfeil V im Standort einer erfindungs gemäßen Einrichtung bezeichnen. So beträgt die Entfernung zwi schen dem Pfeil I und dem Nullpunkt V 2000 Meter, zwischen dem Pfeil II und dem Nullpunkt 900 bis 700 Meter und zwischen dem Pfeil IV und dem Nullpunkt V 500 bis 300 Meter.In the illustration according to FIG. 3, a horizontal axis s is shown, on which arrows labeled in ascending order with increasing Roman numerals indicate striking distances to a zero point at arrow V in the location of a device according to the invention. The distance between the arrow I and the zero point V is 2000 meters, between the arrow II and the zero point 900 to 700 meters and between the arrow IV and the zero point V 500 to 300 meters.
Der in Fig. 3 mit der Bezugszahl 40 bezeichnete anfliegende Flugkörper wird bei Überfliegen des Pfeiles II, das heißt in einem Abstand von 900 bis 700 Meter zum Nullpunkt V grob erfaßt. Dies ist mit der erfindungsgemäßen passiv arbeitenden Vorrich tung möglich, welche ab ca. 900 Meter Abstand Objekte von ca. 10 cm Durchmesser, größere anfliegende Flugkörper jedoch entspre chend früher erfassen kann. Danach setzt der Track-Sensor 8 auf die ermittelte Flugbahn des Flugkörpers auf, und die Plattform 22 der Rohrwaffe 20 wird entsprechend der Bewegung der Plattform 10 des Track-Sensors 8 nachgeführt. Dieser Nachführvorgang ist dann abgeschlossen, wenn der Flugkörper 40 etwa die Stelle IV überfliegt. Danach wird der Schuß ausgelöst.The approaching missile designated by the reference number 40 in FIG. 3 is roughly detected when the arrow II is flown over, that is to say at a distance of 900 to 700 meters from the zero point V. This is possible with the passively working device according to the invention, which can detect objects of approximately 10 cm in diameter, larger approaching missiles from a distance of approximately 900 meters, however, accordingly earlier. The track sensor 8 then touches the determined flight path of the missile, and the platform 22 of the barrel weapon 20 is tracked in accordance with the movement of the platform 10 of the track sensor 8 . This tracking process is completed when the missile 40 flies over location IV. Then the shot is released.
Bei größeren Zielen, wie Flugzeugen oder Helikoptern, erfolgt wie gesagt die grobe Zielerfassung erheblich früher. In diesem Fall kann der anfliegende Flugkörper anstatt mit einer Kanone auch mit einer Rakete bekämpft werden, die beispielsweise bei Überfliegen des Flugkörpers 40 an Stelle I (2000 m Abstand vom Nullpunkt V) gestartet werden kann. Ein Startgehäuse für eine solche Rakete ist in Fig. 1 mit der Bezugszahl 42 bezeichnet.For larger targets, such as airplanes or helicopters, the rough target acquisition takes place much earlier, as I said. In this case, the approaching missile can also be combated with a missile instead of a cannon, which can be launched, for example, when the missile 40 is flown at position I (2000 m distance from the zero point V). A starter housing for such a rocket is designated by the reference number 42 in FIG. 1.
Claims (28)
- - aus den mit dem Sensorsystem (2, 4) erfaßten Bilddaten die grobe Anflugrichtung des Flugkörpers (40) ermit telt wird,
- - der optische Track-Sensor (8) auf die so ermittelte Flugrichtung angesetzt wird,
- - die Winkellage des Flugkörpers in Azimut und Elevation von zwei Winkelgebern und die Entfernung des Flugkör pers von einem Entfernungsmesser erfaßt wird, aus den vom Track-Sensor (8), vom Entfernungsmesser und von den Winkelgebern ausgegebenen Daten die Raumkoordina ten des Flugkörpers in Realzeit berechnet werden,
- - die errechneten Raumkoordinaten des Flugkörpers in einen Feuerleitrechner (18) eingegeben werden,
- - der Feuerleitrechner (18) die Waffe zur Verfolgung und Bekämpfung des Flugkörpers (40) ansteuert.
- - The rough approach direction of the missile ( 40 ) is determined from the image data acquired with the sensor system ( 2 , 4 ),
- - The optical track sensor ( 8 ) is placed on the flight direction determined in this way,
- - The angular position of the missile in azimuth and elevation of two angle encoders and the distance of the missile pers is detected by a range finder, from the data output by the track sensor ( 8 ), the range finder and the angle encoders, the space coordinates of the missile are calculated in real time will,
- - The calculated space coordinates of the missile are entered into a fire control computer ( 18 ),
- - The fire control computer ( 18 ) controls the weapon to track and combat the missile ( 40 ).
- - einem Sensorsystem mit großem Sehbereich zum Erfassen eines Flugkörpers (40),
- - einem Rechner (6) zum Verarbeiten der erfaßten Bild daten,
- - einer Waffe (20) zur Bekämpfung des Flugkörpers (40) nach Maßgabe der erfaßten Bilddaten,
- a sensor system with a large field of vision for detecting a missile ( 40 ),
- - a computer ( 6 ) for processing the captured image data,
- a weapon ( 20 ) for combating the missile ( 40 ) in accordance with the captured image data,
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE1996138968 DE19638968A1 (en) | 1996-09-23 | 1996-09-23 | Fighting method for approaching flying object |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE1996138968 DE19638968A1 (en) | 1996-09-23 | 1996-09-23 | Fighting method for approaching flying object |
Publications (1)
Publication Number | Publication Date |
---|---|
DE19638968A1 true DE19638968A1 (en) | 1998-03-26 |
Family
ID=7806596
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE1996138968 Withdrawn DE19638968A1 (en) | 1996-09-23 | 1996-09-23 | Fighting method for approaching flying object |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE19638968A1 (en) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19747515C1 (en) * | 1997-10-28 | 1999-05-20 | Stn Atlas Elektronik Gmbh | Device for protecting mobile objects, in particular armored vehicles, against the impact of a projectile |
DE10117007A1 (en) * | 2001-04-04 | 2002-10-17 | Buck Neue Technologien Gmbh | Method and device for protecting mobile military equipment |
DE10346001A1 (en) * | 2003-10-02 | 2005-05-04 | Buck Neue Technologien Gmbh | Method and device for protecting ships from end-phase guided missiles |
DE10230028B4 (en) * | 2002-07-04 | 2005-07-21 | Diehl Bgt Defence Gmbh & Co. Kg | System for protecting an object, in particular an armored vehicle, against the action of a fast projectile |
DE10229273B4 (en) * | 2002-06-28 | 2007-01-25 | Diehl Bgt Defence Gmbh & Co. Kg | Object self-protection device |
EP1845332A1 (en) | 2006-04-10 | 2007-10-17 | Oerlikon Contraves Ag | Protective device and protective measure for a radar installation |
DE102007018507A1 (en) * | 2007-04-19 | 2008-10-23 | Krauss-Maffei Wegmann Gmbh & Co. Kg | Method and apparatus for controlling an assault ammunition launcher |
DE102008023520B3 (en) * | 2008-05-15 | 2009-07-02 | Eads Deutschland Gmbh | Method for classifying RAM bullets |
DE102010027584A1 (en) * | 2010-07-20 | 2012-01-26 | Diehl Bgt Defence Gmbh & Co. Kg | Object protection procedures and equipment |
RU2495358C2 (en) * | 2011-11-21 | 2013-10-10 | Общество с Ограниченной Ответственностью "Научно-технический центр "Версия" | Method to detect ground shots, method to set aerosol masks-barriers above columns and groups of mobile equipment or lengthy objects and set of equipment of optical-electronic reconnaissance and optical-electronic suppression for their realisation |
EP3591427B1 (en) | 2018-07-05 | 2023-06-14 | HENSOLDT Sensors GmbH | Missile alerter and a method for issuing a warning about a missile |
-
1996
- 1996-09-23 DE DE1996138968 patent/DE19638968A1/en not_active Withdrawn
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19747515C1 (en) * | 1997-10-28 | 1999-05-20 | Stn Atlas Elektronik Gmbh | Device for protecting mobile objects, in particular armored vehicles, against the impact of a projectile |
DE10117007A1 (en) * | 2001-04-04 | 2002-10-17 | Buck Neue Technologien Gmbh | Method and device for protecting mobile military equipment |
DE10229273B4 (en) * | 2002-06-28 | 2007-01-25 | Diehl Bgt Defence Gmbh & Co. Kg | Object self-protection device |
DE10230028B4 (en) * | 2002-07-04 | 2005-07-21 | Diehl Bgt Defence Gmbh & Co. Kg | System for protecting an object, in particular an armored vehicle, against the action of a fast projectile |
DE10346001A1 (en) * | 2003-10-02 | 2005-05-04 | Buck Neue Technologien Gmbh | Method and device for protecting ships from end-phase guided missiles |
DE10346001B4 (en) * | 2003-10-02 | 2006-01-26 | Buck Neue Technologien Gmbh | Device for protecting ships from end-phase guided missiles |
US7886646B2 (en) | 2003-10-02 | 2011-02-15 | Rheinmetall Waffe Munition Gmbh | Method and apparatus for protecting ships against terminal phase-guided missiles |
US7903019B2 (en) | 2006-04-10 | 2011-03-08 | Rheinmetall Air Defence Ag | Protective device and protective measure for a radar system |
EP1845332A1 (en) | 2006-04-10 | 2007-10-17 | Oerlikon Contraves Ag | Protective device and protective measure for a radar installation |
DE102007018507A1 (en) * | 2007-04-19 | 2008-10-23 | Krauss-Maffei Wegmann Gmbh & Co. Kg | Method and apparatus for controlling an assault ammunition launcher |
DE102007018507B4 (en) * | 2007-04-19 | 2012-05-03 | Krauss-Maffei Wegmann Gmbh & Co. Kg | Method and apparatus for controlling an assault ammunition launcher |
DE102008023520B3 (en) * | 2008-05-15 | 2009-07-02 | Eads Deutschland Gmbh | Method for classifying RAM bullets |
EP2120002A2 (en) | 2008-05-15 | 2009-11-18 | EADS Deutschland GmbH | Method for classifying incoming RAM-projectiles |
DE102008023520C5 (en) * | 2008-05-15 | 2016-12-29 | Airbus Defence and Space GmbH | Method for classifying RAM bullets |
DE102010027584A1 (en) * | 2010-07-20 | 2012-01-26 | Diehl Bgt Defence Gmbh & Co. Kg | Object protection procedures and equipment |
DE102010027584B4 (en) * | 2010-07-20 | 2012-03-29 | Diehl Bgt Defence Gmbh & Co. Kg | Object protection procedures and equipment |
RU2495358C2 (en) * | 2011-11-21 | 2013-10-10 | Общество с Ограниченной Ответственностью "Научно-технический центр "Версия" | Method to detect ground shots, method to set aerosol masks-barriers above columns and groups of mobile equipment or lengthy objects and set of equipment of optical-electronic reconnaissance and optical-electronic suppression for their realisation |
EP3591427B1 (en) | 2018-07-05 | 2023-06-14 | HENSOLDT Sensors GmbH | Missile alerter and a method for issuing a warning about a missile |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE2819938C2 (en) | Electro-optical remote control system for passive projectiles | |
EP0018673B1 (en) | Method of measuring shooting errors and shooting error measurement device for carrying out the method | |
DE4416211C2 (en) | Method and device for missile trajectory correction | |
DE2411790A1 (en) | PROCEDURES AND WEAPON SYSTEM FOR THE TARGETED COMBAT OF SURFACE TARGETS | |
EP2671094A2 (en) | Air surveillance system for detecting missiles launched from inside an area to be monitored and air surveillance method | |
DE19638968A1 (en) | Fighting method for approaching flying object | |
DE3238848A1 (en) | METHOD AND DEVICE FOR ENTIRELY CORRECTING THE SHOOTING PROCESS FROM ONE SHOT TO THE FOLLOWING ON A GUN WITH THE STRAIGHT WAY | |
CH669660A5 (en) | ||
DE3019783A1 (en) | METHOD FOR PREVENTING MISTAKES OF AUTOMATIC SHOTS, AND ARRANGEMENT FOR IMPLEMENTING THE METHOD | |
DE2936643A1 (en) | METHOD AND ARRANGEMENT FOR ESTIMATING THE ACCURACY OF A WEAPON | |
EP1314950B1 (en) | Method and device for assessing the aiming errors of a weapon system and use of the device | |
DE1951622C3 (en) | Arrangement for the simulated display of firing trajectories | |
DE3028545C2 (en) | Method for simulating a shot at moving targets by means of light signals | |
EP0154809A1 (en) | Method for simulating combat | |
DE3545831C2 (en) | ||
DE3504198A1 (en) | Method for monitoring the achievement of hits by tank gunners in firing training | |
EP0862041B1 (en) | Method and installation for estimating and displaying a shooting miss | |
EP1153259B1 (en) | Target detection method and device | |
DE3714883C2 (en) | ||
DE19922412B4 (en) | Target detection method and apparatus | |
WO2000057123A1 (en) | Shooting simulation method | |
DE3843601C2 (en) | ||
DE3132173A1 (en) | Device for determining the hit position when firing at airborne targets | |
DE69408079T2 (en) | System for localization of mobile objects | |
DE4325589B4 (en) | Target seeker for guided missiles or projectiles |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8139 | Disposal/non-payment of the annual fee |