EP2803938A2 - Verfahren zur Zieleinweisung einer Flugkörper-Abschussanlage - Google Patents

Verfahren zur Zieleinweisung einer Flugkörper-Abschussanlage Download PDF

Info

Publication number
EP2803938A2
EP2803938A2 EP14001553.8A EP14001553A EP2803938A2 EP 2803938 A2 EP2803938 A2 EP 2803938A2 EP 14001553 A EP14001553 A EP 14001553A EP 2803938 A2 EP2803938 A2 EP 2803938A2
Authority
EP
European Patent Office
Prior art keywords
sighting
sighting unit
target
unit
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
EP14001553.8A
Other languages
English (en)
French (fr)
Other versions
EP2803938A3 (de
Inventor
Bernd Gundel
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Diehl Defence GmbH and Co KG
Original Assignee
Diehl BGT Defence GmbH and Co KG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Diehl BGT Defence GmbH and Co KG filed Critical Diehl BGT Defence GmbH and Co KG
Publication of EP2803938A2 publication Critical patent/EP2803938A2/de
Publication of EP2803938A3 publication Critical patent/EP2803938A3/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G7/00Direction control systems for self-propelled missiles
    • F41G7/007Preparatory measures taken before the launching of the guided missiles
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41FAPPARATUS FOR LAUNCHING PROJECTILES OR MISSILES FROM BARRELS, e.g. CANNONS; LAUNCHERS FOR ROCKETS OR TORPEDOES; HARPOON GUNS
    • F41F3/00Rocket or torpedo launchers
    • F41F3/04Rocket or torpedo launchers for rockets
    • F41F3/042Rocket or torpedo launchers for rockets the launching apparatus being used also as a transport container for the rocket
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41FAPPARATUS FOR LAUNCHING PROJECTILES OR MISSILES FROM BARRELS, e.g. CANNONS; LAUNCHERS FOR ROCKETS OR TORPEDOES; HARPOON GUNS
    • F41F3/00Rocket or torpedo launchers
    • F41F3/04Rocket or torpedo launchers for rockets
    • F41F3/045Rocket or torpedo launchers for rockets adapted to be carried and used by a person, e.g. bazookas
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41FAPPARATUS FOR LAUNCHING PROJECTILES OR MISSILES FROM BARRELS, e.g. CANNONS; LAUNCHERS FOR ROCKETS OR TORPEDOES; HARPOON GUNS
    • F41F3/00Rocket or torpedo launchers
    • F41F3/04Rocket or torpedo launchers for rockets
    • F41F3/045Rocket or torpedo launchers for rockets adapted to be carried and used by a person, e.g. bazookas
    • F41F3/0455Bazookas
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G3/00Aiming or laying means
    • F41G3/02Aiming or laying means using an independent line of sight
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G3/00Aiming or laying means
    • F41G3/04Aiming or laying means for dispersing fire from a battery ; for controlling spread of shots; for coordinating fire from spaced weapons

Definitions

  • the invention relates to a method for targeting a missile launcher, which has at least two optical sighting units.
  • ground targets When fighting ground targets using ground-to-ground guided missiles, it is advantageous to be able to combat the ground targets from a greater distance in order to remain undetected for as long as possible.
  • a squad of several shooters each with a missile launcher posted at a geographically favorable location to combat several later passing at a greater distance ground targets.
  • the ground targets are viewed through an optical sighting unit, a ground target is recognized as such, and a so-called lock-on is performed, in which the ground target is stored as a target of the guided missile target in a control system.
  • the guided missile is then launched and flies controlled by the control system to the ground target.
  • the optical sighting units are equipped with an optical magnification function similar to a binocular. The shooter looks through the sighting unit in a viewing direction of the sighting unit in the landscape, the viewed landscape section is shown visually enlarged. Even distant objects can be recognized more easily.
  • Targeting can be done by a shooter or a squad leader watching the ground targets selects and assigns to a shooter. The shooter now fights the target assigned to him.
  • a field of view of the first sighting unit is aligned in a viewing direction, so that a target is in the field of view, visual direction data of the field of view are generated and using the sighting direction data is a target instruction of the second sighting unit ,
  • the invention is based on the consideration that an optical targeting of the ground target is not without difficulty. If, for example, an oral goal instruction in the form of "goal is located to the left of the farmhouse", it may happen that the shooter has to search the farmhouse for a while due to the restricted field of view, before he finds this and then the target. However, in the fight against targets by a missile launcher, very rapid combat is beneficial, if not necessary, to forestall an attack on one's own position. A goal training should therefore be carried out very quickly and also so that the shooter quickly finds the instructed destination.
  • viewing direction data are generated from the viewing direction of the first sight, for example the sighting unit of the destination instructor.
  • control commands can be generated from the sighting direction data, which are implemented by the sighting unit of the shooter, for example, such that the field of view automatically pivots toward the target to be combatted. This can happen very quickly, so the shooter The goal is very fast and a goal instruction "goal lies to the left of the farmhouse" does not lead to a long search by a protracted swinging of the field of view by the shooter.
  • the view direction data can be used directly for the target instruction, for example for controlling a pivot movement of the second sight. However, it is also possible to process the view direction data only in destination instruction information, e.g. Using further data, and to perform the targeting using the destination instruction information. In general, the destination instruction information may also be control information for controlling the second sighting unit.
  • the missile launching system comprises at least the two sighting units, whereby even further sighting units may be part of the launching system.
  • a sighting unit may be part of a missile launcher having additional units in addition to the sighting unit, e.g. As a launching device for firing a missile, a stand unit and the like. Accordingly, the missile launching system on several missile launcher, each with an optical sighting unit.
  • the downed missile remains expediently connected during its flight via a data connection to the control unit of the corresponding sighting unit, for example via an unwinding data cable.
  • an optical sighting unit need not be part of a missile launcher, but may also be part of another device or operate on its own.
  • an optical sighting unit of a squad leader can manage without a launching device and can only be provided for a targeting.
  • the missile launcher may further include a multi-controller control system.
  • Each missile launcher can in this case be equipped with a control unit, with each control unit being able to control its missile launcher completely independently and / or in combination with the control system.
  • a control unit may be part of the sighting unit of the missile launcher. It is also possible that the control units are not arranged in the respective sighting units but centralized.
  • An optical sighting unit includes optics through which a shooter can look into a field of view or which images a field of view on a display, e.g. B. a screen on which the shooter can look and thus observe the field of view in real time.
  • the sighting units or control units of the missile launching system can be staggered on an equal or hierarchical basis so that, for example, one of the sighting units is a higher-level sighting unit, for example that of a squad leader.
  • the control unit of the higher-level sighting unit can act as master and the subordinate control units of the subordinate sighting units as slave, so that communication is simplified.
  • a data connection may be a wired or a wireless data connection, e.g. B. a Bluetooth connection.
  • a targeting can be understood as outputting target data from one sighting unit to another sighting unit, e.g. B. from the first to the second sighting unit.
  • Target data may determine the target in its direction, which direction may be the direction from a sighting unit to the target or to a target area surrounding the target and conveniently located in the field of view of that sighting unit.
  • Target data may also determine the target in other characteristics, such as distance to the sighting unit, location in an image, shape and / or color.
  • Viewing direction data is data that characterizes a viewing direction of the corresponding sighting unit. They may be the orientation of the sight center of the sighting unit or another direction within the field of view.
  • the viewing direction can be absolute, z. B. as sky or azimuth direction and / or elevation direction, or be given relative to a predetermined direction, expediently as azimuth and / or elevation direction.
  • Viewing direction data may be coordinates, for example geographic coordinates, and / or indicate the position of an image section in an overall image.
  • the field of view may be that field of view that is displayed to the shooter in the sighting unit. Conveniently, the view direction data is generated in the first sight.
  • Destination instruction information may include control data for aligning the sight include. In general, it is sufficient if not the entire sighting unit, but only one optical unit or multiple optical units of the sighting unit are aligned. Such an alignment is advantageously carried out by motor means of the control data and / or by moving an image section within a larger image, which can also be done electronically in the presence of a large overall image. It is also possible for the destination instruction information to include optical data, for example one or more arrows or direction indicators, to an operator so that he or she aligns the sighting unit or optical unit of the sighting unit.
  • the view direction data and / or destination instruction information is transmitted from one sighting unit to another sighting unit, e.g. B. from the first sighting unit to the second sighting unit, or from a control unit associated with the first sighting unit to a control unit associated with the second sighting unit.
  • the destination instruction information can just as well be created in the second sighting unit, for example from the view direction data. It may be used for control, conveniently or in lieu of automatic control allowing manual operation by the shooter, either generally or as a fallback option, so that the targeting information can be output to the shooter, for example as visual information.
  • the missile launcher is conveniently designed for operation by multiple shooters or operators who can communicate with each other using the target instruction.
  • the first sighting unit is designed in an advantageous embodiment of the invention to be operated by a first shooter and the second sighting unit is designed to be operated by a second shooter.
  • a squad leader or Zieleinweiser for example, selects targets and issues appropriate briefings, can be regarded as a shooter.
  • the sighting units are spatially separate units and expediently provided for independent operation, so that the sighting units are independently operable and prepared to combat targets.
  • the sighting units are expediently portable sighting units, which in particular are manually portable.
  • an alignment of the field of view of the second sighting unit is controlled using the sighting direction data and / or targeting information becomes.
  • the field of view of the second sighting unit can hereby be pivoted in the environment.
  • the control can be done automatically, on request or on release of the shooter. For example, the shooter can request the control, which then takes place automatically. It is also conceivable that the shooter receives a release request to control a quick alignment after the appropriate release.
  • the alignment of the field of view of the second sighting unit may be performed by the shooter using the targeting information, for example by manually swiveling the field of view in the surroundings, wherein the targeting information specifies the pivoting direction and in particular also the pivoting range.
  • control is carried out so that the field of view of the second sighting unit covers the field of view of the first sighting unit in a predetermined extent.
  • the coverage is expediently chosen such that a destination to which reference is made is visible in both fields of view.
  • the predetermined amount may define an overlap angle or overlap area.
  • An alignment of the field of view of the second sighting unit using the sighting direction data and / or targeting information can be done so that the entire sighting unit is rotated with the pivoting field of view.
  • a previously recorded panoramic image of the second shooter is only partially shown to allow for enlargement. When panning, this section can be moved within the panorama image so that the target to be introduced appears in the field of view.
  • the target instruction information is sensory output for the second shooter, so that it can align the field of view using the target instruction information so that it covers the field of view of the first sighting unit in the predetermined scope.
  • the destination instruction information may in this case be optical information, for example an arrow pointing in a direction to be swiveled.
  • the viewing direction data can be generated easily and reliably if both sighting units have a direction sensor unit that censors an alignment of the field of view in the environment.
  • a sensor unit may include an azimuth sensor, for example in the form of a compass.
  • a horizontal angle can be determined, for example, absolutely, as by a compass, or relative, for example, by a gyro system.
  • an elevation sensor for determining the elevation of the current field of view. In this way, an elevation angle, for example relative to the horizontal, can be determined.
  • the view direction data include azimuth data and / or elevation data.
  • Another possibility for generating viewing direction data is to determine the viewing direction on the basis of a previously recorded panoramic image.
  • an image detail for example, from the field of view, be correlated with the panoramic image, so that the position of the image section in the panoramic image is detected by the correlation.
  • the panoramic image has previously been provided with a reference direction, then the direction of the image section and thus the viewing direction relative to the reference direction can be determined.
  • Such a correlation of the image data of the image section with the data of the panoramic image can be done by image processing methods. Image locations of one image can be assigned image locations of the other image, for example by an image comparison.
  • the correlation of images or image data may be a correlation of an image section, for example the field of view or a section thereof, with a larger image, for example a panoramic image of the surroundings of a sighting unit.
  • a larger image for example a panoramic image of the surroundings of a sighting unit.
  • the instantaneous viewing direction of this sighting unit can be determined.
  • the image data of the first sighting unit can be understood as viewing direction data, since they characterize a field of view and thus a viewing direction. From the correlation, the viewing direction of the second sighting unit can now be determined. It is likewise possible to find a target marked by the first sighting unit by means of directional matching and / or image correlation in the image of the second sighting unit and to mark it.
  • a squad leader takes on a higher-level image with the first sighting unit, for example a panoramic image of the surroundings. Then a field of view of the second sighting unit, which lies in the panoramic image, can be compared with the superordinate image.
  • the two visors should not be too far apart to minimize perspective deviations.
  • the targeting is expediently carried out by issuing destination instruction information to the second sighting unit.
  • the first sighting unit takes an image of the environment, for. B. as an image of the field of view or as a parent image.
  • the image data can serve as visual direction data.
  • the second sighting unit also takes a picture of the environment and both maps are correlated. From the correlation, a target instruction of the second sighting unit.
  • the target instruction can take various forms: For a higher-level image, the target instruction can be a directional statement, eg. B. for automatic or manual pivoting of the second sighting unit in the viewing direction of the first sighting unit.
  • the correlation can detect a target in both images and the targeting can be a mark of the target in the image of the second sighting unit, or an automatic weapon launch of the second sight on the target or the like.
  • the correlation can take place in the first and / or the second sighting unit.
  • a further advantageous embodiment of the invention provides that the target imaged in the image of the first sighting unit is detected as such and the correlation captures the target in the image of the second sighting unit.
  • a target to be combatted can be transferred from the first to the second sighting unit.
  • the targeting can be or include the capture.
  • the risk of undesired multiple combat can also be reduced by informing the second sighting unit that the first sighting unit has already begun or carried out the combat of a target. If, for example, a lock-on has occurred on a target through the first sighting unit, then this can be communicated to the second sighting unit, so that a fight against this goal is avoided by the second sighting unit. For example, a weapons intrusion on this target can be blocked, so that the multiple combat of this goal is effectively prevented.
  • image data from the first sighting unit can be compared with image data from the second sighting unit. Due to the known position of the target in the field of vision and / or in the known image information, for example shape and color of the target in the field of view or image of the first sight, the target can be found by position information and / or image correlation in the image of the second sighting unit.
  • the gun intrusion on the target takes place depending on the Zieleinuous, the weapon involvement is therefore dependent on the Zieleinburg.
  • the targeting may specify the type of target and / or a type of combat and may also include overhead information, ie whether or not a lock-on should be performed. If the target was assigned by the squad leader to the second sighting unit, then the targeting information includes information that a lock-on or a fight by the second sighting unit should take place. Corresponding destinations are relayed by the sighting unit to the guided missile and the guided missile can be started and thus the fight against the target can be carried out.
  • a weapons intrusion after an appropriate mark by the shooter can also be done manually or just not done, for example, when an automated weapon intrusion or Aufschaltaltungsblockade fails, in certain combat situations or other reasons.
  • the weapons intrusion occurs depending on the target instruction.
  • the target instruction can contain circuit information, for example, whether a lock-on should be made or not.
  • a multiple fight can be reliably counteracted if a second shooter is indicated when a target is already being fought by a first shooter or the combat is being taken, for example by a lock-on.
  • the first sighting unit can generate viewing direction data, for. B. as coordinates or image data, and transmit to the second sighting unit.
  • the second sighting unit now recognizes that a lock-on has already occurred to this target, so that a second lock-on to the same target should be prevented. Accordingly, it is advantageous if the weapons intrusion on the detected target is blocked by the second sighting unit. The goal can no longer be fought, so that a multiple fight is prevented.
  • an activity of the first sighting unit with respect to the target for example a lock-on or a launch of the guided missile on this target, is displayed in the second sighting unit so that the second shooter is informed of the activity of the first sighting unit.
  • the second shooter learns that a fight against this goal should not take place or is automatically prevented.
  • it may again be advantageous if the combat by the second sighting unit is not prevented, but only the activity of the first sighting unit is displayed in the second sighting unit. The second shooter knows that the fight against this goal should no longer take place and seeks another goal.
  • the target can be detected by image processing methods in the image of the second sighting unit as such.
  • the second sighting unit can now start a corresponding action. If the first sighting unit is, for example, that of a squad leader who assigns the target to the second sighting unit for combat, then the second sighting unit can lock onto the second target, for example by means of a lock-on, and combat this. However, if the first sighting unit is a fighting sighting unit that has already begun to combat the marked target, then combat by the second sighting unit can be automatically prevented, with the result that a multiple fight does not take place. Conveniently, the target is marked in the second sighting unit, so that the second shooter either learns the target assignment by the squad leader or the already initiated combat by the first sighting unit and the corresponding actions, ie the fight or just not to combat initiated.
  • the invention proposes in another Embodiment before that the target is detected in the field of view of the first sighting unit as such, a viewing direction of the second sight is determined and it is checked whether the target lies in a predetermined degree in the field of view of the second sighting unit. If this is the case, then a correlation can start. However, if this is not the case, ie in the case of a negative check, a pan command can be generated so that the first sighting unit is pivoted, for example automatically by a corresponding control or manually by the second shooter.
  • the pivoting command expediently contains a pivoting direction and in particular a pivoting distance, so that after completion of the pivoting the two fields of view are superimposed in at least the predetermined extent.
  • a pivoting direction and in particular a pivoting distance it is meant that either the entire sighting unit or only one optical unit of the sighting unit can pivot or even only one field of view or image field is swiveled in a higher-level image, for example a panorama image, this can also be done without mechanical pivoting of an optical unit.
  • the target in the field of vision of the second sighting unit can be recognized as such. This can be done by image correlation or by location references, such as coordinates.
  • the second sighting unit can recognize the target as such and issue a weapon command with respect to the target, for example an intrusion, such as a lock-on or a ban on control or a control blockade.
  • the check as to whether the two fields of vision overlap sufficiently can be effected by information from an alignment sensor unit, for example from azimuth and elevation data of the two sighting units or fields of view. Such a check may be repeated in a loop to indicate to the first sighting unit whether the second sighting unit has already been pivoted sufficiently, for example by control or operation by the shooter. If it is now recognized that the two fields of view overlap one another sufficiently, the target already marked in the first sighting unit can be found in the image of the second sighting unit and also marked there.
  • the invention relates to a missile launcher with at least two optical sighting units and a control system. It is proposed that the control system according to the invention is prepared for, from the viewing direction of the first Visor unit to generate visual field data of the field of view, using the view direction data to control a target instruction of the second sighting unit. A targeting can be done quickly and a multiple fight can be counteracted.
  • control system is prepared to control the performance of any one of several or all of the above-mentioned method steps.
  • a preparation can be provided by a corresponding control program of the control system, whose sequence, for example in conjunction with suitable input signals, such as sensor signals, effects such a control.
  • the control system expediently comprises electronic elements, such as a processor and a data memory, which are necessary for running the control program.
  • FIG. 1 shows a missile launcher 2 with a launcher 4, in which a guided missile 6 is arranged, of which in FIG. 1 only the front part of its seeker head in the tube of the launcher 4 is indicated.
  • the missile launcher 2 also comprises a sighting unit 8 with an optical sight 10 and a control unit 12, which is prepared for controlling all automated operations of the missile launcher 2.
  • the sighting unit 8 has an eyepiece 14 with which an operator can optionally look through two viewing devices 16, 18 into an environment.
  • the viewer 16 is designed to view the environment in the visible spectral region, and the viewer 18 is prepared to view the environment in the infrared spectral region, preferably in the mid-wave infrared. Through a switching mechanism, the operator can choose through which viewing device 16, 18 he wants to view the environment.
  • the fields of view of the two viewing devices 16, 18 are designed to overlap, in particular identical.
  • the sighting unit 8 comprises an alignment sensor unit 20 with an azimuth sensor, for example a compass, and an elevation sensor, which determines an elevation of the alignment of the optical sighting unit 8 or the field of view, for example relative to the horizon.
  • an azimuth sensor for example a compass
  • an elevation sensor which determines an elevation of the alignment of the optical sighting unit 8 or the field of view, for example relative to the horizon.
  • the sighting unit 8 and the launcher 4 are mounted on a support device, in the embodiment shown, a tripod 22, two-dimensionally movable, the launcher 4 and the sighting unit 8 are rigidly coupled to each other and in the azimuth direction all around and in the elevation direction up to 60 ° pivot.
  • the pivoting can be done manually, for which the missile launcher 2 Has handles 24, where the operator can pivot about the tripod 22 fixed to the ground sighting unit 8.
  • the missile launcher 2 comprises a motor unit 25, which in the view of FIG. 1 is arranged behind the control unit 12.
  • the motor unit 25 is equipped with two motors, via which - controlled by the control unit 12 - the two-dimensional pivoting movement can be carried out automatically.
  • the portable missile launcher 2 To operate the portable missile launcher 2 this is brought by two people to a suitable location for the operation. There, the launcher 4 with the sighting unit 8 and this in turn firmly connected to the support device 22, so that these three units are stable on a surface. Subsequently, the sighting unit 8 can be signal-technically connected to other missile launchers 2 or other optical sighting units, for example by a data line or a wireless connection, for example Bluetooth.
  • Several networked missile launchers 2 with or without a single sighting unit - e.g. B. for a troop leader, form a missile launching system.
  • FIG. 2 shows such a missile launcher 26 in a schematic and very simple form. It comprises two missile launcher 2a, 2b of the same type, identical to the missile launcher 2 from FIG. 1 could be.
  • the missile launcher 2a, 2b are connected to each other via a data link 28, in the embodiment shown, a cable. Even if in FIG. 2 only two mutually networked missile launcher 2a, 2b are shown, then all the described methods and device details are executable with more than two missile launcher 2, which are interconnected for this purpose.
  • the missile launcher 2 off FIG. 2 are like the missile launcher 2 off FIG. 1 executed and each have an interface for the data link 28 to one or more missile launcher 2.
  • the control unit 12 may communicate with each other in a bus mode or hierarchically in a master-slave mode. in which case either one of the sighting units 8 of the missile launcher 2 assumes a primary role or this is done by a higher-level device, for example a squad leader.
  • the following is based on a bus system.
  • the data link 28 is part of a data bus to which a plurality of missile launcher 2 can be attached.
  • the control units 12 in the individual sighting units 8 together form a control system of the missile launching system 26.
  • an operator looks through the eyepiece 14 into an environment 30, which is shown by way of example in FIG FIG. 3 is shown.
  • environment 30 or landscape
  • targets 32a - 32e are visible, which are arranged at a distance of, for example, several kilometers to the missile launcher 26.
  • both viewing devices 16, 18 are designed with an optical magnification between a factor of two and a factor of eight, analogous to binoculars.
  • the shooter looking through the eyepiece 14 thus sees the environment 30 enlarged and may zoom in or out between the magnification limits into the environment 30, as needed. In any case, he sees only a portion of the environment 30 in his field of view 34, in which also only some of the targets 32a - 32e lie, as in FIG. 3 is shown.
  • one of the missile launcher 2 of the missile launcher 26, for example the missile launcher 2a, is operated by a troop leader, whereas the other missile launcher 2b is operated by a shooter.
  • the squad leader has the task of making a target assignment for the shooter or shooters. For this he searches in the area 30 for a target 32 to combat and assigns it to the corresponding shooter.
  • the field of vision 34a of the squad leader is directed towards a target 32e to be controlled so that it lies in the field of view 34a. He wants to assign this target 32e to the shooter for combat. Accordingly, he marks the target 32e with a marker 36, which can be done in the manner of a lock-on. Then he knows the marked target 32e the missile launcher 2b with its second sighting unit 8b.
  • the first sighting unit 8a compares the viewing directions, ie the position of the fields of view 34, of the two sighting units 8. For this purpose, the sighting unit 8a generates viewing direction data from its viewing direction Describe sight. In addition, the sighting unit 8a of the sighting unit 8b requests its visual direction data. These are generated by the control unit of the sighting unit 8b and transmitted via the data link 28 to the sighting unit 8a. The sighting directions are detected two-dimensionally with the aid of the respective alignment sensor unit 20, and the visual direction data describing this visualization direction are generated by the orientation sensor unit 20 or the control unit 12.
  • the two fields of view 34a, 34b do not overlap.
  • the shooter can not see the target 32e to be assigned to him in his field of vision 34b.
  • the sighting unit 8a generates destination instruction information, which it passes on to the sighting unit 8b of the shooter.
  • This targeting information includes directional data, such as pan direction and swivel distance, from which the field of view 34b can be pivoted so as to detect the target 32a.
  • a pan is in FIG. 2 represented by the arrow shown there, wherein the sighting unit 8b is shown with its field of view 34b in its current position pulled through and occupies the dashed position shown after the corresponding pivoting.
  • FIG. 2 represented by the arrow shown there, wherein the sighting unit 8b is shown with its field of view 34b in its current position pulled through and occupies the dashed position shown after the corresponding pivoting.
  • This pivoting is shown with a horizontal component or azimuth component corresponding to the horizontal arrow and an elevation component corresponding to the vertical arrow.
  • the destination instruction information includes, for example, such components.
  • the control unit 12 of the sighting unit 8b controls the motorized pivoting of the field of view 34b so that the two fields of view 34a, 34b are identical or overlap to a predetermined extent, for example covering both the target 32e.
  • the pivoting of the sighting unit 8b is performed in the missile launcher 2 by the motor unit 25 performs a corresponding pivoting of the sighting unit 8b and the launcher 4. Accordingly, the eyepiece 14 moves, so that the shooter or operator must move.
  • the pivoting is announced, for example by an optical character, for. B. in the pivoting direction.
  • the shooter knows that this automated panning now occurs and can prepare for it.
  • such an automated pivoting only to a release command of the Controlled by gunners. From the destination instruction information, an optical character, for example an arrow in the intended pivoting direction, is generated.
  • Such an optical character 38 is in FIG. 4 exemplified.
  • the shooter sees in addition to his visual image within the field of view 34b, the optical sign 38 in the form of an arrow. This gives him the direction in which he should pivot his field of vision 34b, or in which the field of view is pivoted, z. B. after release.
  • the shooter knows that he must now pivot the field of view 34b. He releases the pivoting, for example, by pressing a button, and the field of view 34b is pivoted according to the motor.
  • the pivoting is displayed visually according to the instruction information, for example, as an arrow in the intended pivoting direction, and the shooter makes the pivoting manually. Achieving the desired pivot position may be indicated by an extinction of the optical information or a change in the optical information.
  • the viewing direction or the position of the field of view 34b in the environment 30 can be tracked by the control unit 12 and the optical character can be adapted accordingly.
  • the optical character may disappear as soon as the panning is successful, or it may change to a character indicating successful panning.
  • the remaining pivoting direction during the pivoting movement can be indicated by a movement of the arrow. If, for example, the field of view 34b is pivoted too far during a manual operation, the arrow changes in the opposite direction, so that the shooter can return the pivoting back a little.
  • the target 32e to be counteracted lies also in the field of vision 34b of the sighting unit 8b.
  • the shooter can recognize the target 32e and turn on, for example by a lock-on, and then fight the target 32e, for example, by a launch of the missile. 6
  • the optical unit could be a part of the sighting device 16 or the viewing device 18 that is within a predetermined circumference within the corresponding viewing device 16, 18 two-dimensionally pivotable, for example, +/- 20 degrees to a central orientation of the viewing devices 16, 18.
  • FIG. 5 shows the two fields of view 34 of the two sighting units 8.
  • the field of view 34b is in this case already pivoted so far that it covers the field of view 34a to a predetermined extent.
  • the overlap is in FIG. 5 indicated by the dashed circle of the field of view 34a, which covers the field of view 34b by slightly more than half the field of view surface. If the overlap of the two fields of view 34 reaches the predetermined circumference, then one of the control units 12 or sighting units 8, in this embodiment the sighting unit 8a, performs an image correlation of the visual images of the two fields of view 34a, 34b.
  • the visual images are compared with each other, so that objects of the visual image of the visual field 34a are also found in the visual image of the visual field 34b.
  • Such an object is also the target 32e provided in the sighting unit 8a for combat.
  • This target 32e is also found in the visual image of the sighting unit 8b by the image comparison. Accordingly, this target 32e can now also be marked by the sighting unit 8b, for example by a marking 40, as in FIG FIG. 5 is shown.
  • the sighting unit 8b or the shooter now knows that a weapons intrusion on this target 32e should take place.
  • the sighting unit 8b or the shooter make this weapon intrusion, for example by a lock-on to the target 32e.
  • the image data of the visual image can be transmitted from one sighting unit 8 to the other, for example via the data link 28. Since the own visual image is available to the correlating sighting unit 8, it can compare it with the transmitted visual image or its data. From this image comparison, it can recognize the objects in the visual image and, for example, assign them to a classification. Image data of the target to be counteracted 32e are used here to detect the target 32e in the field of view 34b.
  • targeting information is generated by the sighting unit 8a, as described for example with regard to the preceding exemplary embodiments.
  • the destination instruction information may include, for example, pan information as described in the first embodiment.
  • the destination instruction information describes the location of the destination 32e, for example on the basis of absolute azimuth and elevation data.
  • the other sighting unit 8b and optionally further sighting units 8b now receive this destination instruction information, so that it is now known that there is a destination 32e that is already being fought.
  • This destination instruction information in the or the sighting units 8b can be done in different ways. It can be processed into swivel data so that the field of view 34b is automatically or manually swiveled and the shooter is shown the already-attacked target 32e, for example with the marker 40. From the type of marker 40, the shooter recognizes that this target is not his to be fought. Accordingly, he looks for another destination, such as the target 32d.
  • the target instruction information is used by the sighting unit 8b only to a target instruction, for example as a marker 40, when the corresponding and already-opposed target 32e is in the field of view 34b or there by a pivoting movement or movement of the target 32e Environment 30 appears.
  • a target instruction for example as a marker 40
  • the shooter of the sighting unit 8b knows nothing of the combat by his comrade and learns nothing when he is looking in a different direction and thus is not distracted thereby.
  • the target instruction information is used for actual targeting, for example in the form of marker 40. The shooter now knows that he is the target 32e should no longer fight.
  • FIG. 6 shows a higher-level image 42, for example, a panoramic image of the environment 30.
  • This is recorded by a sighting unit 8, for example by pivoting the field of view 34 in the environment 30, until the parent image 42 is completely recorded.
  • Several partial images can be joined together, for example, by stitching to the parent image. In this embodiment, this is done by the sighting unit 8a and the parent image 42 or panoramic image is stored in the sighting unit 8a. Conveniently, this is done before the targets 32 are seen in the environment 30 to avoid errors in a later image correlation.
  • the sighting unit 8a is pivoted in the environment, for example, and the operator or squad leader selects a target 32e for combat.
  • the sighting unit 8a compares the instantaneous view image of the viewing device 16, 18 used with the panoramic image 42 and can thus determine the position of the target 32e to be counteracted in the higher-level image 42.
  • the sighting unit 8a For targeting, for example to the target 32e, which the shooter of the sighting unit 8b is intended to combat, the sighting unit 8a requests the instantaneous view image of the sighting direction 34b from the sighting unit 8b.
  • the sighting unit 8b sends the visual image to the sighting unit 8a, which compares or correlates this visual image with the higher-level image 42 and thus can detect the position of the visual image 34b in this image 42 or the position of the visual field 34b in the surroundings.
  • the sighting unit 8a now recognizes that the field of view 34b does not cover the target 32e. From the position of the target 32e to be controlled relative to the viewing direction or the field of vision 34b, targeting information can be generated, which is transmitted to the sighting unit 8b. Now, a pivoting of the field of view 34b, as to the FIGS. 2 and 3 described, done.
  • the parent image 42 is present in one of the sighting units 8. If a connection to a destination, for example the destination 32e, is made by one of the other sighting units, then the visual image, which contains this connected destination 32e, can be sent to the sighting unit 8 with the higher-level image 42. This determines from image correlation the position of the curled target 32e in the environment 30 or in the overall image 42. Target information that is used for the targeting of other sighting units 8 is now generated from this position information, which can also be referred to as visual direction information or visual direction data. For this purpose, for example, the position information can be transmitted to the other or the other sighting units 8. These recognize the action taken and proceed as for example FIG. 5 described by not fighting the contested target 32e and mark, for example, with the mark 40 as soon as the target 32e appears in the visual image of one of the sighting units 8.
  • the viewing direction of the corresponding sighting unit or the sighting units must be known. This is done by an image correlation with the parent image 42. This image correlation can take place in the sighting unit 8a, for example as described above, or in the relevant other sighting unit 8b. For this purpose, the higher-level image 42 would then be transmitted to the corresponding sighting unit 8b to enable the image correlation.
  • the visual correlation of the own visual image or field of vision 34b is known from the image correlation and it can be recognized if the visual field 34b covers the target 32e already fought by the comrade.
  • combat of a target 32 fails, for example if a shoot-down can no longer take place after a lock-on or because the guided missile misses its target.
  • the information that a target 32 to be counteracted has not been fought can be output by the combat missile launcher 2 or a higher-level sighting unit 8, for example a squad leader.
  • This example in FIG. 5 Marked target 32e shown is released again for combat by the other shooter (s).
  • the corresponding marker 40 may be deleted and / or the squad leader may assign the target 32e to a shooter for re-combat as described in the first two embodiments.

Abstract

Die Erfindung geht aus von einem Verfahren zur Zieleinweisung einer Flugkörper-Abschussanlage (2) mit zumindest zwei optischen Visiereinheiten (8a, 8b). Um eine Mehrfachbekämpfung eines Ziels (32e) zu vermeiden, wird vorgeschlagen, dass ein Sichtfeld (34a) der ersten Visiereinheit (8a) in eine Sichtrichtung ausgerichtet wird, so dass ein Ziel (32e) im Sichtfeld (34a) liegt, Sichtrichtungsdaten des Sichtfelds (34a) erzeugt werden und unter Verwendung der Sichtrichtungsdaten eine Zieleinweisung der zweiten Visiereinheit (8b) erfolgt.

Description

  • Die Erfindung betrifft ein Verfahren zur Zieleinweisung einer Flugkörper-Abschussanlage, die zumindest zwei optische Visiereinheiten aufweist.
  • Bei der Bekämpfung von Bodenzielen mithilfe von Boden-Boden-Lenkflugkörpern ist es vorteilhaft, die Bodenziele aus einer größeren Entfernung bekämpfen zu können, um möglichst lange unentdeckt zu bleiben. Hierzu ist es bekannt, dass sich ein Trupp aus mehreren Schützen mit jeweils einem Flugkörper-Abschussgerät an einer geografisch günstigen Stelle postiert, um mehrere später in größerer Entfernung vorbeiziehende Bodenziele zu bekämpfen. Hierzu werden die Bodenziele durch eine optische Visiereinheit angeschaut, ein Bodenziel wird als solches erkannt, und es wird ein sogenannter Lock-On durchgeführt, bei dem das Bodenziel als vom Lenkflugkörper anzufliegendes Ziel in einer Steueranlage abgespeichert wird. Der Lenkflugkörper wird anschließend gestartet und fliegt durch die Steueranlage gesteuert auf das Bodenziel zu.
  • Durch die angestrebte größere Entfernung zwischen dem Schützentrupp und den Bodenzielen ist das Erkennen der vorbeifahrenden Bodenziele nicht einfach. Um das Erkennen zu erleichtern, sind die optischen Visiereinheiten mit einer optischen Vergrößerungsfunktion, ähnlich einem Feldstecher, ausgestattet. Der Schütze schaut durch die Visiereinheit in eine Sichtrichtung der Visiereinheit in die Landschaft, wobei der angeschaute Landschaftsausschnitt optisch vergrößert dargestellt ist. Auch entfernte Objekte können hierdurch einfacher erkannt werden.
  • Um eine Mehrfachbekämpfung eines Bodenziels zu vermeiden, ist es bekannt, eine Zieleinweisung für die Schützen vorzunehmen. Die Zieleinweisung kann durch einen Schützen oder einen Truppführer geschehen, der die Bodenziele beobachtet, eines auswählt und einem Schützen zuteilt. Der Schütze bekämpft nun dasjenige Ziel, das ihm zugewiesen wurde.
  • Es ist eine Aufgabe der vorliegenden Erfindung, ein Verfahren zur Zieleinweisung einer Flugkörper-Abschussanlage anzugeben, mit dem die Zuverlässigkeit der Zielbekämpfung gegenüber bekannten Verfahren erhöht werden kann.
  • Diese Aufgabe wird durch ein Verfahren der eingangs genannten Art gelöst, bei dem erfindungsgemäß ein Sichtfeld der ersten Visiereinheit in eine Sichtrichtung ausgerichtet wird, so dass ein Ziel im Sichtfeld liegt, Sichtrichtungsdaten des Sichtfelds erzeugt werden und unter Verwendung der Sichtrichtungsdaten eine Zieleinweisung der zweiten Visiereinheit erfolgt.
  • Die Erfindung geht von der Überlegung aus, dass eine optische Zielfindung des Bodenziels nicht ohne Schwierigkeit ist. Erfolgt beispielsweise eine mündliche Zieleinweisung in Form von "Ziel befindet sich links neben dem Bauernhaus", so kann es vorkommen, dass der Schütze das Bauernhaus durch das eingeschränkte Sichtfeld erst eine Weile suchen muss, bevor er dieses und anschließend das Ziel findet. Bei der Bekämpfung von Zielen durch eine Flugkörper-Abschussanlage ist jedoch eine sehr schnelle Bekämpfung vorteilhaft, wenn nicht sogar notwendig, um einem Angriff auf die eigene Stellung zuvorzukommen. Eine Zieleinweisung sollte daher sehr zügig durchgeführt werden und außerdem so, dass der Schütze das eingewiesene Ziel schnell findet.
  • Gerade bei entfernteren Zielen wird auch der Zieleinweiser die Ziele durch seine Visiereinheit anschauen, um die mögliche optische Vergrößerung der Visiereinheit zu nutzen. Seine Visiereinheit ist daher im Moment der Zieleinweisung bereits so ausgerichtet, dass das Ziel in deren Sichtfeld liegt. Das Sichtfeld des zur Bekämpfung ausgewählten Schützen kann zu diesem Zeitpunkt jedoch in einer andere Gegend der Landschaft ausgerichtet sein, sodass es eine Weile dauert, bis die Sichtfelder der beiden Visiere, nämlich des Zieleinweisers und des Schützen, gleich oder zumindest ausreichend ähnlich ausgerichtet sind. Gemäß der Erfindung werden aus der Sichtrichtung des ersten Visiers, beispielsweise der Visiereinheit des Zieleinweisers, Sichtrichtungsdaten erzeugt. Aus den Sichtrichtungsdaten können beispielsweise Steuerkommandos erzeugt werden, die durch die Visiereinheit des Schützen beispielsweise so umgesetzt werden, dass das Sichtfeld automatisch auf das zu bekämpfende Ziel schwenkt. Dies kann sehr schnell geschehen, sodass der Schütze das Ziel sehr schnell findet und eine Zieleinweisung "Ziel liegt links neben dem Bauernhaus" nicht zu einem langen Suchen durch ein langwieriges Hin- und Herschwenken des Sichtfelds durch den Schützen führt.
  • Die Sichtrichtungsdaten können unmittelbar zur Zieleinweisung verwendet werden, beispielsweise zur Steuerung einer Schwenkbewegung des zweiten Visiers. Es ist jedoch auch möglich, die Sichtrichtungsdaten erst in Zieleinweisungsinformation zu verarbeiten, z. B. unter Verwendung weiterer Daten, und die Zieleinweisung unter Verwendung der Zieleinweisungsinformation durchzuführen. Generell kann die Zieleinweisungsinformation auch Steuerinformation zur Steuerung der zweiten Visiereinheit sein.
  • Die Flugkörper-Abschussanlage umfasst zumindest die beiden Visiereinheiten, wobei auch noch weitere Visiereinheiten Teil der Abschussanlage sein können. Eine Visiereinheit kann Teil eines Flugkörper-Abschussgeräts sein, das neben der Visiereinheit weitere Einheiten aufweist, z. B. eine Abschussvorrichtung zum Abschießen eines Lenkflugkörpers, eine Standeinheit und dergleichen. Entsprechend weist die Flugkörper-Abschussanlage mehrere Flugkörper-Abschussgeräte mit jeweils einer optischen Visiereinheit auf. Der abgeschossene Lenkflugkörper verbleibt während seines Flugs zweckmäßigerweise über eine Datenverbindung mit der Steuereinheit der entsprechenden Visiereinheit verbunden, beispielsweise über ein sich abwickelndes Datenkabel.
  • Eine optische Visiereinheit muss jedoch nicht Bestandteil eines Flugkörper-Abschussgeräts sein, sondern kann auch Teil eines anderen Geräts sein oder selbständig operieren. So kann eine optische Visiereinheit eines Truppführers beispielsweise ohne Abschussvorrichtung auskommen und nur für eine Zieleinweisung vorgesehen sein.
  • Die Flugkörper-Abschussanlage kann weiter eine Steueranlage mit mehreren Steuereinheiten umfassen. Jedes Flugkörper-Abschussgerät kann hierbei mit einer Steuereinheit ausgestattet sein, wobei jede Steuereinheit vollständig selbständig und/oder im Verbund der Steueranlage ihr Flugkörper-Abschussgerät steuern kann. Eine Steuereinheit kann Teil der Visiereinheit des Flugkörper-Abschussgeräts sein. Auch möglich ist es, dass die Steuereinheiten nicht in den jeweiligen Visiereinheiten sondern zentralisiert angeordnet sind.
  • Eine optische Visiereinheit umfasst eine Optik, durch die ein Schütze in ein Sichtfeld schauen kann oder die ein Sichtfeld auf einer Anzeige abbildet, z. B. einem Bildschirm, auf die der Schütze schauen und damit das Sichtfeld in Echtzeit beobachten kann.
  • Die Visiereinheiten oder Steuereinheiten der Flugkörper-Abschussanlage können gleichberechtigt oder hierarchisch gestaffelt sein, sodass beispielsweise eine der Visiereinheiten eine übergeordnete Visiereinheit ist, beispielsweise die eines Truppführers. Insbesondere bei einer hierarchisch gestaffelten Anlage kann die Steuereinheit der übergeordneten Visiereinheit als Master und die untergeordneten Steuereinheiten der untergeordneten Visiereinheiten als Slave fungieren, sodass eine Kommunikation vereinfacht wird. Es ist jedoch auch möglich, die Elemente der Steueranlage, wie die einzelnen Steuereinheiten, in einem Bussystem zu verbinden, über die die einzelnen Steuereinheiten miteinander kommunizieren. Eine Datenverbindung kann eine leitungsgebundene oder eine drahtlose Datenverbindung sein, z. B. eine Bluetooth-Verbindung.
  • Unter einer Zieleinweisung kann das Ausgeben von Zieldaten von einer Visiereinheit an eine andere Visiereinheit verstanden werden, z. B. von der ersten an die zweite Visiereinheit. Zieldaten können das Ziel in seiner Richtung bestimmen, wobei die Richtung die Richtung von einer Visiereinheit auf das Ziel oder auf ein Zielgebiet sein kann, das das Ziel umgibt und zweckmäßigerweise im Sichtfeld dieser Visiereinheit liegt. Zieldaten können das Ziel auch in anderen Charakteristika bestimmen, wie Entfernung zur Visiereinheit, Lage in einem Bild, Form und/oder Farbe.
  • Sichtrichtungsdaten sind Daten, die eine Sichtrichtung der entsprechenden Visiereinheit charakterisieren. Sie können die Ausrichtung der Sichtmitte der Visiereinheit sein oder eine andere Richtung innerhalb des Sichtfelds. Die Sichtrichtung kann absolut angegeben sein, z. B. als Himmels- bzw. Azimutrichtung und/oder Elevationsrichtung, oder relativ zu einer vorbestimmten Richtung angegeben sein, zweckmäßigerweise als Azimut- und/oder Elevationsrichtung. Sichtrichtungsdaten können Koordinaten sein, beispielsweise geografische Koordinaten, und/oder die Lage eines Bildausschnitts in einem Gesamtbild angeben. Das Sichtfeld kann dasjenige Sichtfeld sein, das dem Schützen in der Visiereinheit angezeigt wird. Zweckmäßigerweise werden die Sichtrichtungsdaten im ersten Visier erzeugt.
  • Aus Sichtrichtungsdaten kann Zieleinweisungsinformation zur Zieleinweisung erzeugt werden. Zieleinweisungsinformation kann Steuerdaten zum Ausrichten des Visiers umfassen. Generell ist es ausreichend, wenn nicht die gesamte Visiereinheit, sondern nur eine optische Einheit oder mehrere optische Einheiten der Visiereinheit ausgerichtet werden. Eine solche Ausrichtung geschieht vorteilhafterweise motorisch mithilfe der Steuerdaten und/oder indem ein Bildausschnitt innerhalb eines größeren Bilds bewegt wird, was bei Vorliegen eines großen Gesamtbilds auch elektronisch erfolgen kann. Ebenfalls möglich ist es, dass die Zieleinweisungsinformation optische Daten beinhaltet, beispielsweise ein oder mehrere Pfeile oder Richtungsanzeiger an einen Bediener, sodass dieser die Visiereinheit oder optische Einheit der Visiereinheit ausrichtet.
  • Die Sichtrichtungsdaten und/oder Zieleinweisungsinformation werden von einer Visiereinheit an eine andere Visiereinheit übermittelt, z. B. von der ersten Visiereinheit an die zweite Visiereinheit, beziehungsweise von einer zur ersten Visiereinheit zugehörigen Steuereinheit an eine zur zweiten Visiereinheit zugehörige Steuereinheit. Die Zieleinweisungsinformation kann jedoch eben so gut in der zweiten Visiereinheit erstellt werden, beispielsweise aus den Sichtrichtungsdaten. Sie kann zur Steuerung verwendet werden, wobei zweckmäßigerweise auch oder anstelle der automatischen Steuerung eine manuelle Bedienung durch den Schützen möglich ist, entweder generell oder als Rückfalloption, sodass die Zieleinweisungsinformation an den Schützen ausgegeben werden kann, beispielsweise als optische Information.
  • Die Flugkörper-Abschussanlage ist zweckmäßigerweise zur Bedienung durch mehrere Schützen beziehungsweise Bediener ausgeführt, die sich mithilfe der Zieleinweisung untereinander verständigen können. Hierfür ist die erste Visiereinheit in einer vorteilhaften Ausführungsform der Erfindung dazu ausgeführt, von einem ersten Schützen bedient zu werden und die zweite Visiereinheit ist dazu ausgeführt, von einem zweiten Schützen bedient zu werden. In diesem Sinne kann auch ein Truppführer bzw. Zieleinweiser, der beispielsweise Ziele aussucht und entsprechende Einweisungen ausgibt, als Schütze angesehen werden. Die Visiereinheiten sind räumlich voneinander getrennte Einheiten und zweckmäßigerweise zur selbstständigen Operation vorgesehen, sodass die Visiereinheiten unabhängig voneinander bedienbar und zur Bekämpfung von Zielen vorbereitet sind. Die Visiereinheiten sind zweckmäßigerweise portable Visiereinheiten, die insbesondere manuell tragbar sind.
  • Um eine schnelle Zieleinweisung der zweiten Visiereinheit zu erreichen, ist es vorteilhaft, wenn eine Ausrichtung des Sichtfelds der zweiten Visiereinheit unter Verwendung der Sichtrichtungsdaten und/oder Zieleinweisungsinformation gesteuert wird. Das Sichtfeld der zweiten Visiereinheit kann hierbei in der Umgebung verschwenkt werden. Die Steuerung kann hierbei automatisch, auf Anforderung oder auf Freigabe des Schützen erfolgen. So kann der Schütze beispielsweise die Steuerung anfordern, die dann automatisch erfolgt. Auch ist es denkbar, dass der Schütze eine Freigabeaufforderung erhält, um ein schnelles Ausrichten nach der entsprechenden Freigabe zu steuern. Je nach Gefechtssituation kann es vorteilhaft sein, dass die Ausrichtung Sichtfelds der zweiten Visiereinheit unter Verwendung der Zieleinweisungsinformation vom Schützen vorgenommen wird, beispielsweise durch ein manuelles Schwenken des Sichtfelds in der Umgebung, wobei die Zieleinweisungsinformation die Schwenkrichtung und insbesondere auch den Schwenkumfang vorgibt.
  • Zweckmäßigerweise erfolgt die Steuerung so, dass das Sichtfeld der zweiten Visiereinheit das Sichtfeld der ersten Visiereinheit in einem vorbestimmten Umfang überdeckt. Die Überdeckung ist hierbei zweckmäßigerweise so gewählt, dass ein Ziel, auf das eingewiesen wird, in beiden Sichtfeldern sichtbar ist. Der vorbestimmte Umfang kann ein Überdeckungswinkel oder eine Überdeckungsfläche festlegen.
  • Eine Ausrichtung des Sichtfelds der zweiten Visiereinheit unter Verwendung der Sichtrichtungsdaten und/oder Zieleinweisungsinformation kann so geschehen, dass die gesamte Visiereinheit mit dem sich verschwenkenden Sichtfeld gedreht wird. Um eine Ablenkung des zweiten Schützen zu verringern, ist es vorteilhaft, wenn nur eine optische Einheit der zweiten Visiereinheit verschwenkt wird, sodass das Sichtfeld des zweiten Schützen verschwenkt wird. Ebenfalls möglich ist es, dass ein zuvor aufgenommenes Panoramabild dem zweiten Schützen nur ausschnittsweise gezeigt wird, um eine Vergrößerung zu ermöglichen. Bei einem Verschwenken kann dieser Ausschnitt innerhalb des Panoramabilds bewegt werden, sodass das einzuweisende Ziel im Sichtfeld erscheint.
  • Um eine manuelle Bedienung zu ermöglichen, ist es vorteilhaft, wenn die Zieleinweisungsinformation sensorisch für den zweiten Schützen ausgegeben wird, sodass dieser das Sichtfeld unter Verwendung der Zieleinweisungsinformation so ausrichten kann, dass es das Sichtfeld der ersten Visiereinheit in dem vorbestimmten Umfang überdeckt. Die Zieleinweisungsinformation kann hierbei eine optische Information sein, beispielsweise ein Pfeil, der in eine zu schwenkende Richtung zeigt.
  • Die Sichtrichtungsdaten können einfach und zuverlässig erzeugt werden, wenn beide Visiereinheiten eine Richtungssensoreinheit aufweisen, die eine Ausrichtung des Sichtfelds in die Umgebung zensiert. Eine solche Sensoreinheit kann einen Azimutsensor beinhalten, beispielsweise in Form eines Kompasses. Hierdurch kann ein horizontaler Winkel beispielsweise absolut, wie durch einen Kompass, oder relativ, beispielsweise durch ein Kreiselsystem, bestimmt werden. Ebenfalls vorteilhaft ist ein Elevationssensor zum Bestimmen der Elevation des momentanen Sichtfelds. Hierdurch kann ein Höhenwinkel, beispielsweise relativ zur Waagerechten, bestimmt werden. Entsprechend umfassen die Sichtrichtungsdaten Azimutdaten und/oder Elevationsdaten.
  • Eine weitere Möglichkeit zur Erzeugung von Sichtrichtungsdaten besteht darin, die Sichtrichtung anhand eines zuvor aufgenommenen Panoramabilds zu ermitteln. Hierdurch kann ein Bildausschnitt, beispielsweise aus dem Sichtfeld, mit dem Panoramabild korreliert werden, sodass die Lage des Bildausschnitts im Panoramabild durch die Korrelation erkannt wird. Wenn das Panoramabild zuvor mit einer Bezugsrichtung versehen wurde, so kann die Richtung des Bildausschnitts und damit die Sichtrichtung, relativ zu der Bezugsrichtung festgestellt werden. Eine solche Korrelation der Bilddaten des Bildausschnitts mit den Daten des Panoramabilds kann durch bildverarbeitende Methoden erfolgen. Bildorte der einen Abbildung können Bildorten der anderen Abbildung zugeordnet werden, beispielsweise durch einen Bildvergleich.
  • Die Korrelation von Bildern beziehungsweise Bilddaten kann eine Korrelation eines Bildausschnitts, beispielsweise des Sichtfelds oder eines Ausschnitts davon, mit einem größeren Bild, beispielsweise einem Panoramabild der Umgebung einer Visiereinheit sein. Hierdurch kann beispielsweise die momentane Sichtrichtung dieser Visiereinheit ermittelt werden. Es ist jedoch auch möglich, dass die Korrelation zwischen einem Bild der ersten Visiereinheit, z. B. einem momentanen Sichtbild des Sichtfelds der ersten Visiereinheit, und einem Bild der zweiten Visiereinheit erfolgt, z. B. einem momentanen Sichtbild des Sichtfelds der zweiten Visiereinheit. Wenn sich die Sichtfelder überdecken, ist eine erfolgreiche Bildkorrelation möglich. Hierbei können die Bilddaten der ersten Visiereinheit als Sichtrichtungsdaten aufgefasst werden, da sie ein Sichtfeld und damit eine Sichtrichtung charakterisieren. Aus der Korrelation kann nun die Sichtrichtung der zweiten Visiereinheit ermittelt werden. Ebenfalls ist es möglich, ein von der ersten Visiereinheit markiertes Ziel anhand von Richtungsabgleich und/oder Bildkorrelation im Bild der zweiten Visiereinheit zu finden und dieses zu markieren.
  • In einem weiteren Ausführungsbeispiel nimmt ein Truppführer ein übergeordnetes Bild mit der ersten Visiereinheit auf, beispielsweise ein Panoramabild der Umgebung. Dann kann ein Sichtfeld der zweiten Visiereinheit, das im Panoramabild liegt, mit dem übergeordneten Bild verglichen werden. Hierfür sollten die beiden Visiere nicht zu weit voneinander entfernt sein, um perspektivische Abweichungen gering zu halten. Auf diese Weise kann erkannt werden, wie die Sichtrichtung der zweiten Visiereinheit in dem übergeordneten Bild liegt, und die erste Visiereinheit kann die Sichtrichtung des Schützen der zweiten Visiereinheit erkennen und entsprechende Zieleinweisung geben. Die Zieleinweisung erfolgt zweckmäßigerweise durch Ausgabe von Zieleinweisungsinformation an die zweite Visiereinheit.
  • Es ist daher vorteilhaft, wenn die erste Visiereinheit ein Abbild der Umgebung aufnimmt, z. B. als Bild des Sichtfelds oder als übergeordnetes Bild. Die Bilddaten können als Sichtrichtungsdaten dienen. Die zweite Visiereinheit nimmt ebenfalls eine Abbildung der Umgebung auf, und beide Abbildungen werden korreliert. Aus der Korrelation erfolgt eine Zieleinweisung der zweiten Visiereinheit. Die Zieleinweisung kann verschiedene Formen annehmen: Bei einem übergeordneten Bild kann die Zieleinweisung eine Richtungsangabe sein, z. B. zum automatischen oder manuellen Schwenken der zweiten Visiereinheit in Sichtrichtung der ersten Visiereinheit. Bei Verwendung nur eines Sichtbilds der ersten Visiereinheit kann durch die Korrelation ein Ziel in beiden Bildern erkannt werden und die Zieleinweisung kann eine Markierung des Ziels im Bild der zweiten Visiereinheit sein, oder eine automatische Waffenaufschaltung des zweiten Visiers auf das Ziel oder dergleichen. Die Korrelation kann in der ersten und/oder der zweiten Visiereinheit erfolgen.
  • Eine weitere vorteilhafte Ausführungsform der Erfindung sieht vor, dass das in der Abbildung der ersten Visiereinheit abgebildete Ziel als solches erfasst wird und durch die Korrelation das Ziel in der Abbildung der zweiten Visiereinheit erfasst wird. Hierdurch kann ein zu bekämpfendes Ziel von der ersten an die zweite Visiereinheit übergeben werden. Die Zieleinweisung kann die Erfassung sein oder beinhalten.
  • Die Gefahr einer unerwünschten Mehrfachbekämpfung kann außerdem dadurch verringert werden, das der zweiten Visiereinheit mitgeteilt wird, dass die erste Visiereinheit bereits die Bekämpfung eines Ziels begonnen oder durchgeführt hat. Erfolgte beispielsweise ein Lock-On auf ein Ziel durch die erste Visiereinheit, so kann dies der zweiten Visiereinheit mitgeteilt werden, sodass eine Bekämpfung dieses Ziels durch die zweite Visiereinheit vermieden wird. So kann beispielsweise eine Waffenaufschaltung auf dieses Ziel blockiert werden, sodass die Mehrfachbekämpfung dieses Ziels effektiv unterbunden wird.
  • Im Falle der Sichtrichtungsdaten in Form von Bilddaten können Bilddaten aus der ersten Visiereinheit mit Bilddaten aus der zweiten Visiereinheit verglichen werden. Durch die bekannte Lage des Ziels im Blickfeld und/oder in der bekannten Bildinformationen, beispielsweise Form und Farbe des Ziels im Sichtfeld beziehungsweise Bild des ersten Visiers, kann das Ziel durch Lageinformation und/oder Bildkorrelation im Bild der zweiten Visiereinheit aufgefunden werden. Die Waffenaufschaltung auf das Ziel erfolgt in Abhängigkeit von der Zieleinweisung, die Waffenaufschaltung ist also von der Zieleinweisung abhängig.
  • Die Zieleinweisung kann die Art des Ziels angeben und/oder eine Art der Bekämpfung und kann auch Aufschaltungsangaben enthalten, also ob ein Lock-On durchgeführt werden soll oder eben gerade nicht. Wurde das Ziel vom Truppführer der zweiten Visiereinheit zugewiesen, so beinhaltet die Zieleinweisung Information darüber, dass ein Lock-On beziehungsweise eine Bekämpfung durch die zweite Visiereinheit erfolgen soll. Entsprechende Zielangaben werden von der Visiereinheit an den Lenkflugkörper weitergegeben und der Lenkflugkörper kann gestartet und somit die Bekämpfung des Ziels durchgeführt werden.
  • Generell ist es vorteilhaft, ein erfasstes Ziel in der zweiten Visiereinheit als solches anzuzeigen, beispielsweise im Sichtbild zu markieren. Auf diese Weise kann eine Waffenaufschaltung nach einer entsprechenden Markierung durch den Schützen auch manuell erfolgen oder gerade nicht erfolgen, beispielsweise wenn eine automatisierte Waffenaufschaltung oder Aufschaltungsblockade fehlschlägt, bei bestimmten Gefechtssituationen oder aus anderen Gründen. Generell kann auf eine automatisierte Waffenaufschaltung oder Aufschaltungsblockade verzichtet und diese manuell durchgeführt werden, falls dies sinnvoll erscheint. Die Waffenaufschaltung erfolgt in Abhängigkeit von der Zieleinweisung. Die Zieleinweisung kann Schaltungsangaben enthalten, beispielsweise ob ein Lock-On erfolgen soll oder nicht.
  • Einer Mehrfachbekämpfung kann in zuverlässiger Weise entgegengewirkt werden, wenn einem zweiten Schützen angezeigt wird, wenn ein Ziel von einem ersten Schützen bereits bekämpft wird oder die Bekämpfung aufgenommen wird, beispielsweise durch einen Lock-On. Wird beispielsweise die Bekämpfung eines Ziels durch einen Lock-On auf das Ziel durch einen ersten Schützen beziehungsweise die erste Visiereinheit eingeleitet, so kann die erste Visiereinheit Sichtrichtungsdaten erzeugen, z. B. als Koordinaten oder Bilddaten, und an die zweite Visiereinheit übermitteln. Die zweite Visiereinheit erkennt nun, dass auf dieses Ziel bereits ein Lock-On erfolgte, sodass ein zweiter Lock-On auf das gleiche Ziel unterbunden werden sollte. Entsprechend ist es vorteilhaft, wenn die Waffenaufschaltung auf das erfasste Ziel durch die zweite Visiereinheit blockiert wird. Das Ziel kann nicht mehr bekämpft werden, sodass eine Mehrfachbekämpfung unterbunden wird.
  • Zweckmäßigerweise wird eine Aktivität der ersten Visiereinheit im Bezug auf das Ziel, beispielsweise ein Lock-On oder ein Abschuss des Lenkflugkörpers auf dieses Ziel, in der zweiten Visiereinheit angezeigt, sodass der zweite Schütze über die Aktivität der ersten Visiereinheit informiert ist. Auf diese Weise erfährt der zweite Schütze, dass eine Bekämpfung dieses Ziels nicht erfolgen soll beziehungsweise automatisch unterbunden ist. Je nach Kampfsituation kann es wiederum vorteilhaft sein, wenn die Bekämpfung durch die zweite Visiereinheit nicht unterbunden, sondern nur die Aktivität der ersten Visiereinheit in der zweiten Visiereinheit angezeigt wird. Der zweite Schütze weiß, dass die Bekämpfung dieses Ziels nicht mehr erfolgen soll und sucht sich ein anderes Ziel.
  • Durch einen Bildvergleich kann das Ziel durch bildverarbeitende Methoden im Bild der zweiten Visiereinheit als solches erfasst werden. Die zweite Visiereinheit kann nun eine entsprechende Aktion starten. Ist die erste Visiereinheit beispielsweise die eines Truppführers, der das Ziel der zweiten Visiereinheit zur Bekämpfung zuweist, so kann die zweite Visiereinheit auf das zweite Ziel aufschalten, beispielsweise durch einen Lock-On, und dieses bekämpfen. Ist die erste Visiereinheit allerdings eine kämpfende Visiereinheit, die eine Bekämpfung des markierten Ziels bereits aufgenommen hat, so kann eine Bekämpfung durch die zweite Visiereinheit automatisiert unterbunden werden, sodass eine Mehrfachbekämpfung nicht erfolgt. Zweckmäßigerweise wird das Ziel in der zweiten Visiereinheit markiert, sodass der zweite Schütze entweder die Zielzuweisung durch den Truppführer oder die bereits eingeleitete Bekämpfung durch die erste Visiereinheit erfährt und die entsprechenden Aktionen, also die Bekämpfung oder gerade nicht die Bekämpfung, einleitet.
  • Je nach Bekämpfungssituation kann es vorkommen, dass beide Visiereinheiten in unterschiedliche Richtungen schauen, sodass die Bilder der beiden Visiereinheiten nicht korrelierbar sind. Für einen solchen Fall schlägt die Erfindung in einer weiteren Ausführungsform vor, dass das Ziel im Sichtfeld der ersten Visiereinheit als solches erfasst wird, eine Sichtrichtung des zweiten Visiers ermittelt wird und geprüft wird, ob das Ziel in vorgegebenem Maß im Sichtfeld der zweiten Visiereinheit liegt. Ist dies der Fall, so kann eine Korrelation starten. Ist dies jedoch nicht der Fall, also bei einer negativen Prüfung, kann ein Schwenkkommando erzeugt werden, sodass die erste Visiereinheit geschwenkt wird, beispielsweise automatisch durch eine entsprechende Steuerung oder manuell durch den zweiten Schützen. Hierfür enthält das Schwenkkommando zweckmäßigerweise eine Schwenkrichtung und insbesondere auch eine Schwenkweite, sodass nach vollzogener Schwenkung die beiden Sichtfelder in zumindest dem vorgegebenen Maß übereinanderliegen. Wie auch im Vorhergehenden und Nachfolgenden ist bei einer Schwenkung der Visiereinheit beziehungsweise des Sichtfelds gemeint, dass entweder die gesamte Visiereinheit oder nur eine optische Einheit der Visiereinheit schwenken kann oder auch nur ein Sicht- beziehungsweise Bildfeld in einem übergeordneten Bild, beispielsweise einem Panoramabild verschwenkt wird, wobei dies auch ohne ein mechanisches Schwenken einer optischen Einheit erfolgen kann.
  • Liegen nun die beiden Sichtfelder ausreichend übereinander, so kann das Ziel im Sichtfeld der zweiten Visiereinheit als solches erkannt werden. Dies kann durch Bildkorrelation oder durch Lagehinweise, beispielsweise Koordinaten, erfolgen. Die zweite Visiereinheit kann das Ziel als solches erkennen und ein Waffenkommando in Bezug auf das Ziel ausgeben, beispielsweise eine Aufschaltung, wie ein Lock-On oder ein Bekämpfungsverbot beziehungsweise eine Bekämpfungsblockade.
  • Die Prüfung, ob die beiden Sichtfelder ausreichend überdecken, kann durch Information aus einer Ausrichtungssensoreinheit erfolgen, beispielsweise aus Azimut- und Elevationsdaten der beiden Visiereinheiten beziehungsweise Sichtfelder. Eine solche Prüfung kann in einer Schleife wiederholt werden, um der ersten Visiereinheit anzuzeigen, ob die zweite Visiereinheit bereits ausreichend verschwenkt wurde, beispielsweise durch eine Steuerung oder eine Bedienung durch den Schützen. Wird nun erkannt, dass die beiden Sichtfelder einander ausreichend überdecken, kann das in der ersten Visiereinheit bereits markierte Ziel im Bild der zweiten Visiereinheit aufgefunden und auch dort markiert werden.
  • Außerdem betrifft die Erfindung eine Flugkörper-Abschussanlage mit zumindest zwei optischen Visiereinheiten und einer Steueranlage. Es wird vorgeschlagen, dass die Steueranlage erfindungsgemäß dazu vorbereitet ist, aus der Sichtrichtung der ersten Visiereinheit Sichtrichtungsdaten des Sichtfelds zu erzeugen, unter Verwendung der Sichtrichtungsdaten eine Zieleinweisung der zweiten Visiereinheit zu steuern. Eine Zieleinweisung kann zügig erfolgen und einer Mehrfachbekämpfung kann entgegengewirkt werden.
  • Zweckmäßigerweise ist die Steueranlage dazu vorbereitet, die Durchführung eines beliebigen, mehrerer beliebiger oder aller der oben genannten Verfahrensschritte zu steuern. Eine solche Vorbereitung kann durch ein entsprechendes Steuerprogramm der Steueranlage vorliegen, dessen Ablauf, beispielsweise in Verbindung mit geeigneten Eingangssignalen, wie Sensorsignalen, eine solche Steuerung bewirkt. Hierzu umfasst die Steueranlage zweckmäßigerweise elektronische Elemente, wie einen Prozessor und einen Datenspeicher, die zum Ablaufen des Steuerprogramms notwendig sind.
  • Die bisher gegebene Beschreibung vorteilhafter Ausgestaltungen der Erfindung enthält zahlreiche Merkmale, die in den einzelnen Unteransprüchen teilweise zu mehreren zusammengefasst wiedergegeben sind. Diese Merkmale können zweckmäßigerweise auch einzeln betrachtet und zu sinnvollen weiteren Kombinationen zusammengefasst werden. Insbesondere sind diese Merkmale jeweils einzeln und in beliebiger geeigneter Kombination mit dem erfindungsgemäßen Verfahren und der erfindungsgemäßen Vorrichtung gemäß den unabhängigen Ansprüchen kombinierbar.
  • Die oben beschriebenen Eigenschaften, Merkmale und Vorteile der Erfindung, sowie die Art und Weise wie diese erreicht werden, werden klarer und deutlicher verständlich im Zusammenhang mit der folgenden Beschreibung der Ausführungsbeispiele, die im Zusammenhang mit den Zeichnungen näher erläutert werden. Die Ausführungsbeispiele dienen der Erläuterung der Erfindung und beschränken die Erfindung nicht auf die darin angegebene Kombination von Merkmalen, auch nicht in Bezug auf funktionale Merkmale. Außerdem können dazu geeignete Merkmale eines jeden Ausführungsbeispiels auch explizit isoliert betrachtet, aus einem Ausführungsbeispiel entfernt, in ein anderes Ausführungsbeispiel zu dessen Ergänzung eingebracht und/oder mit einem beliebigen der Ansprüche kombiniert werden.
  • Es zeigen:
  • FIG 1
    Ein Flugkörper-Abschussgerät zur Bekämpfung von Bodenzielen in einer perspektivischen Darstellung,
    FIG 2
    eine schematische Darstellung einer Flugkörper-Abschussanlage mit zwei Flugkörper-Abschussgeräten,
    FIG 3
    eine schematische Darstellung einer Landschaft mit mehreren Bodenzielen, die durch die beiden Flugkörper-Abschussgeräte aus FIG 2 anvisiert werden,
    FIG 4
    ein Sichtfeld der Visiereinheit des Flugkörper-Abschussgeräts aus FIG1,
    FIG 5
    die Sichtfelder der beiden Visiereinheiten der beiden Flugkörper-Abschussgeräte aus FIG 2 und
    FIG 6
    die Landschaft aus FIG 3 in einer Panoramabilddarstellung der Visiereinheit einer der beiden Flugkörper-Abschussgeräte aus FIG 2.
  • FIG 1 zeigt ein Flugkörper-Abschussgerät 2 mit einer Abschussvorrichtung 4, in der ein Lenkflugkörper 6 angeordnet ist, von dem in FIG 1 nur der vordere Teil von dessen Suchkopf im Rohr der Abschussvorrichtung 4 angedeutet ist. Das Flugkörper-Abschussgerät 2 umfasst außerdem eine Visiereinheit 8 mit einem optischen Visier 10 und einer Steuereinheit 12, die zum Steuern sämtlicher automatisierter Vorgänge des Flugkörper-Abschussgeräts 2 vorbereitet ist. Die Visiereinheit 8 weist ein Okular 14 auf, mit dem ein Bediener wahlweise durch zwei Sichtgeräte 16, 18 in eine Umgebung schauen kann. Das Sichtgerät 16 ist für das Betrachten der Umgebung im sichtbaren Spektralbereich ausgeführt, und das Sichtgerät 18 ist zum Betrachten der Umgebung im infraroten Spektralbereich, vorzugsweise im Mittelwelleninfrarot, vorbereitet. Über einen Umschaltmechanismus kann der Bediener wählen, durch welches Sichtgerät 16, 18 er die Umgebung betrachten möchte. Die Sichtfelder der beiden Sichtgeräte 16, 18 sind hierbei überdeckend ausgeführt, insbesondere identisch.
  • Weiter umfasst die Visiereinheit 8 eine Ausrichtungssensoreinheit 20 mit einem Azimutsensor, beispielsweise einem Kompass, und einem Elevationssensor, der eine Elevation der Ausrichtung der optischen Visiereinheit 8 beziehungsweise des Sichtfelds, beispielsweise relativ zum Horizont, bestimmt.
  • Die Visiereinheit 8 und die Abschussvorrichtung 4 sind auf einer Stützvorrichtung, im gezeigten Ausführungsbeispiel ein Dreibein 22, zweidimensional beweglich gelagert, wobei die Abschussvorrichtung 4 und die Visiereinheit 8 starr aneinander gekoppelt und in Azimutrichtung rundum und in Elevationsrichtung bis zu 60° schwenkbar sind. Das Schwenken kann manuell erfolgen, wofür das Flugkörper-Abschussgerät 2 Handgriffe 24 aufweist, an denen der Bediener die über das Dreibein 22 fest auf den Boden stehende Visiereinheit 8 verschwenken kann. Außerdem umfasst das Flugkörper-Abschussgerät 2 eine Motoreinheit 25, die in der Sicht von FIG 1 hinter der Steuereinheit 12 angeordnet ist. Die Motoreinheit 25 ist mit zwei Motoren ausgestattet, über die - gesteuert durch die Steuereinheit 12 - die zweidimensionale Schwenkbewegung automatisiert durchgeführt werden kann.
  • Zum Betrieb des tragbaren Flugkörper-Abschussgeräts 2 wird dieses durch zwei Personen an einen für den Betrieb geeigneten Standort gebracht. Dort wird die Abschussvorrichtung 4 mit der Visiereinheit 8 und diese wiederum mit der Stützvorrichtung 22 fest verbunden, so dass diese drei Einheiten stabil auf einem Untergrund stehen. Anschließend kann die Visiereinheit 8 mit anderen Flugkörper-Abschussgeräten 2 oder anderen optischen Visiereinheiten signaltechnisch verbunden werden, beispielsweise durch eine Datenleitung oder eine drahtlose Verbindung, beispielsweise Bluetooth. Mehrere vernetzte Flugkörper-Abschussgeräte 2, mit oder ohne eine einzelne Visiereinheit - z. B. für einen Truppführer, bilden eine Flugkörper-Abschussanlage.
  • FIG 2 zeigt eine solche Flugkörper-Abschussanlage 26 in einer schematischen und sehr einfachen Form. Sie umfasst zwei Flugkörper-Abschussgeräte 2a, 2b gleicher Bauart, die identisch mit dem Flugkörper-Abschussgerät 2 aus FIG 1 sein können. Die Flugkörper-Abschussgeräte 2a, 2b sind über einen Datenlink 28, im gezeigten Ausführungsbeispiel ein Kabel, miteinander verbunden. Auch wenn in FIG 2 nur zwei miteinander vernetzte Flugkörper-Abschussgeräte 2a, 2b dargestellt sind, so sind alle beschriebenen Verfahren und Vorrichtungsdetails auch mit mehr als zwei Flugkörper-Abschussgeräten 2 ausführbar, die hierfür miteinander vernetzt sind.
  • In Bezugszeichen mit Buchstaben weisen die Ziffern auf die Art und der Buchstabe auf den Ort des Gegenstands hin. Bei Gegenständen mit gleicher Bezugsziffer handelt es sich um gleiche Gegenstände. Wird die Bezugsziffer alleine ohne einen Bezugsbuchstaben erwähnt, so sind alle entsprechenden Gegenstände generell angesprochen.
  • Die Flugkörper-Abschussgeräte 2 aus FIG 2 sind wie das Flugkörper-Abschussgerät 2 aus FIG 1 ausgeführt und weisen jeweils eine Schnittstelle für den Datenlink 28 zu einer oder mehreren Flugkörper-Abschussgeräten 2 auf. Die Steuereinheit 12 können in einem Bus-Modus miteinander kommunizieren oder hierarchisch in einem Master-Slave-Modus, wobei dann entweder eine der Visiereinheiten 8 der Flugkörper-Abschussgeräte 2 eine übergeordnete Rolle einnimmt oder dies durch ein übergeordnetes Gerät, beispielsweise eines Truppführers erfolgt. Im Folgenden sei von einem Bus-System ausgegangen. Hierfür ist der Datenlink 28 ein Teil eines Datenbusses, an dem eine Vielzahl von Flugkörper-Abschussgeräten 2 angehängt werden können. Die Steuereinheiten 12 in den einzelnen Visiereinheiten 8 bilden gemeinsam eine Steueranlage der Flugkörper- Abschussanlage 26.
  • Während des Betriebs schaut ein Bediener, im Folgenden auch Schütze genannt, durch das Okular 14 in eine Umgebung 30, die beispielhaft in FIG 3 dargestellt ist. In der Umgebung 30 beziehungsweise Landschaft sind mehrere Ziele 32a - 32e sichtbar, die in einer Entfernung von beispielsweise mehreren Kilometern zur Flugkörper-Abschussanlage 26 angeordnet sind. Um diese Ziele 32 gut verfolgen zu können, sind beide Sichtgeräte 16, 18 mit einer optischen Vergrößerung zwischen einem Faktor zwei und einem Faktor acht ausgeführt, analog zu einem Fernglas. Der durch das Okular 14 schauende Schütze sieht somit die Umgebung 30 vergrößert und kann, je nach Bedarf, zwischen den Vergrößerungsgrenzen in die Umgebung 30 herein- oder herauszoomen. In jedem Fall sieht er nur einen Ausschnitt der Umgebung 30 in seinem Sichtfeld 34, in dem auch nur einige der Ziele 32a - 32e liegen, wie in FIG 3 dargestellt ist.
  • In einem ersten Ausführungsbeispiel wird eines der Flugkörper-Abschussgeräte 2 der Flugkörper-Abschussanlage 26, beispielsweise das Flugkörper-Abschussgerät 2a, von einem Truppführer bedient, wohingegen das andere Flugkörper-Abschussgerät 2b von einem Schützen bedient wird. Der Truppführer hat die Aufgabe, eine Zieleinweisung für den oder die Schützen vorzunehmen. Hierfür sucht er in der Umgebung 30 nach einem zu bekämpfenden Ziel 32 und weist dieses dem entsprechenden Schützen zu. Bei dem in den Figuren 2 und 3 gezeigten Ausführungsbeispiel ist das Sichtfeld 34a des Truppführers auf ein zu bekämpfendes Ziel 32e gerichtet, so dass dieses im Sichtfeld 34a liegt. Dieses Ziel 32e möchte er dem Schützen zur Bekämpfung zuweisen. Entsprechend markiert er das Ziel 32e mit einer Markierung 36, die in der Art eines Lock-On erfolgen kann. Anschließend weißt er das markierte Ziel 32e dem Flugkörper-Abschussgerät 2b mit dessen zweiter Visiereinheit 8b zu.
  • Entsprechend dem Zuweisungsbefehl vergleicht die erste Visiereinheit 8a die Sichtrichtungen, also die Lage der Sichtfelder 34, der beiden Visiereinheiten 8. Hierzu erzeugt die Visiereinheit 8a aus seiner Sichtrichtung Sichtrichtungsdaten, die diese Sichtrichtung beschreiben. Außerdem fordert die Visiereinheit 8a von der Visiereinheit 8b deren Sichtrichtungsdaten an. Diese werden von der Steuereinheit der Visiereinheit 8b erzeugt und über den Datenlink 28 an die Visiereinheit 8a übermittelt. Die Sichtrichtungen werden mit Hilfe der jeweiligen Ausrichtungssensoreinheit 20 zweidimensional erfasst und die diese Sichtrichtung beschreibenden Sichtrichtungsdaten werden von der Ausrichtungssensoreinheit 20 oder der Steuereinheit 12 erzeugt.
  • Bei dem in den Figuren 2 und 3 gezeigten Ausführungsbeispiel überdecken sich die beiden Sichtfelder 34a, 34b nicht. Der Schütze kann also das Ziel 32e, das ihm zugewiesen werden soll, in seinem Sichtfeld 34b nicht sehen. Entsprechend erzeugt die Visiereinheit 8a Zieleinweisungsinformation, die sie an die Visiereinheit 8b des Schützen weitergibt. Diese Zieleinweisungsinformation umfasst Richtungsdaten, wie Schwenkrichtung und Schwenkweite, anhand derer das Sichtfeld 34b so geschwenkt werden kann, dass es das Ziel 32a erfasst. Ein solcher Schwenk ist in FIG 2 durch den dort abgebildeten Pfeil dargestellt, wobei die Visiereinheit 8b mit ihrem Sichtfeld 34b in deren aktueller Position durchgezogen dargestellt ist und nach der entsprechenden Verschwenkung die gestrichelt dargestellte Lage einnimmt. In FIG 3 ist diese Verschwenkung mit einer horizontalen Komponente beziehungsweise Azimutkomponente entsprechend des waagerechten Pfeils und einer Elevationskomponente entsprechend des senkrechten Pfeils dargestellt. Die Zieleinweisungsinformation umfasst beispielsweise solche Komponenten. Anhand dieser Zieleinweisungsinformation steuert die Steuereinheit 12 der Visiereinheit 8b die motorische Verschwenkung des Sichtfelds 34b, so dass die beiden Sichtfelder 34a, 34b identisch sind oder in einem vorbestimmten Umfang überdecken, beispielsweise beide das Ziel 32e überdecken.
  • Die Verschwenkung der Visiereinheit 8b wird bei dem Flugkörper-Abschussgerät 2 vorgenommen, indem die Motoreinheit 25 eine entsprechende Verschwenkung der Visiereinheit 8b und der Abschussvorrichtung 4 vornimmt. Entsprechend bewegt sich auch das Okular 14, so dass sich auch der Schütze beziehungsweise Bediener bewegen muss. Um den Schützen auf eine solche Bewegung vorzubereiten, ist es vorteilhaft, wenn das Verschwenken angekündigt wird, beispielsweise durch ein optisches Zeichen, z. B. in die Verschwenkrichtung. Der Schütze weiß, dass diese automatisierte Verschwenkung nun eintritt und kann sich darauf vorbereiten. Alternativ wird eine solche automatisierte Verschwenkung erst auf ein Freigabekommando des Schützen gesteuert. Aus der Zieleinweisungsinformation wird ein optisches Zeichen, beispielsweise ein Pfeil in die vorgesehene Verschwenkrichtung, erzeugt.
  • Ein solches optisches Zeichen 38 ist in FIG 4 beispielhaft dargestellt. Der Schütze sieht zusätzlich zu seinem Sichtbild innerhalb des Sichtfelds 34b das optische Zeichen 38 in Form eines Pfeils. Dieses gibt ihm die Richtung an, in der er sein Sichtfeld 34b verschwenken soll, oder in der das Sichtfeld verschwenkt wird, z. B. nach der Freigabe. Der Schütze weiß, dass er das Sichtfeld 34b nun verschwenken muss. Er gibt die Verschwenkung frei, beispielsweise durch einen Knopfdruck, und das Sichtfeld 34b wird motorisch entsprechend verschwenkt. Ebenso ist es möglich, dass die Verschwenkung entsprechend der Einweisungsinformation optisch angezeigt wird, beispielsweise als Pfeil in die vorgesehene Schwenkrichtung, und der Schütze die Verschwenkung manuell vornimmt. Ein Erreichen der gewünschten Schwenkposition kann durch ein Erlöschen der optischen Information oder eine Veränderung der optischen Information angezeigt werden.
  • Generell kann die Sichtrichtung beziehungsweise die Lage des Sichtfelds 34b in der Umgebung 30 von der Steuereinheit 12 verfolgt und das optische Zeichen entsprechend angepasst werden. Das optische Zeichen kann verschwinden, sobald die Verschwenkung erfolgreich durchgeführt wurde oder es wechselt zu einem Zeichen, das die erfolgreiche Verschwenkung anzeigt. Außerdem kann die verbleibende Schwenkrichtung während der Schwenkbewegung durch eine Bewegung des Pfeils angezeigt werden. Wird beispielsweise bei einer manuellen Bedienung das Sichtfeld 34b zu weit verschwenkt, so wechselt der Pfeil in die entgegengesetzte Richtung, so dass der Schütze die Verschwenkung wieder ein Stück weit zurückführen kann.
  • Nach der Verschwenkung liegt das zu bekämpfende Ziel 32e auch im Sichtfeld 34b der Visiereinheit 8b. Der Schütze kann das Ziel 32e erkennen und aufschalten, beispielsweise durch einen Lock-On, und das Ziel 32e anschließend bekämpfen, beispielsweise durch einen Abschuss des Lenkflugkörpers 6.
  • Um den Schützen eine motorisch gesteuerte Bewegung der gesamten Visiereinheit 8 zu ersparen, ist es alternativ denkbar, nur eine optische Einheit der Visiereinheit 8 zu bewegen, so dass das Sichtfeld 34b wie gewünscht verschwenkt wird. Die optische Einheit könnte ein Teil des Sichtgeräts 16 beziehungsweise des Sichtgeräts 18 sein, das in einem vorgegebenen Umfang innerhalb des entsprechenden Sichtgeräts 16, 18 zweidimensional verschwenkbar ist, beispielsweise um +/-20 Grad um eine mittige Ausrichtung der Sichtgeräte 16, 18. Bei einem Abschuss des Lenkflugkörpers 6 wäre dessen Abschussrichtung zwar dann nicht mehr genau in Sichtrichtung, dies kann jedoch unkritisch sein, da der Flug des Lenkflugkörpers 6 durch einen durchgeführten Lock-On auf das zu bekämpfende Ziel 32e während des Flugs korrigiert werden kann.
  • Ein weiteres Ausführungsbeispiel ist anhand von FIG 5 beschrieben. Dieses zweite Ausführungsbeispiel kann die Merkmale des ersten Ausführungsbeispieles vollständig oder teilweise übernehmen. FIG 5 zeigt die beiden Sichtfelder 34 der beiden Visiereinheiten 8. Das Sichtfeld 34b ist hierbei bereits soweit verschwenkt, dass es das Sichtfeld 34a in einem vorgegebenen Umfang überdeckt. Die Überdeckung ist in FIG 5 durch den gestrichelten Kreis des Sichtfelds 34a angedeutet, das das Sichtfeld 34b um etwas mehr als die halbe Sichtfeldfläche überdeckt. Erreicht die Überdeckung der beiden Sichtfelder 34 den vorgegebenen Umfang, so führt einer der Steuereinheiten 12 beziehungsweise Visiereinheiten 8, in diesem Ausführungsbeispiel die Visiereinheit 8a, eine Bildkorrelation der Sichtbilder der beiden Sichtfelder 34a, 34b durch. Mittels bildverarbeitender Methoden werden die Sichtbilder miteinander verglichen, so dass Objekte des Sichtbilds des Sichtfelds 34a auch im Sichtbild des Sichtfelds 34b aufgefunden werden. Ein solches Objekt ist auch das Ziel 32e, das in der Visiereinheit 8a zur Bekämpfung vorgesehen ist. Dieses Ziel 32e wird durch den Bildvergleich auch im Sichtbild der Visiereinheit 8b gefunden. Entsprechend kann dieses Ziel 32e nun auch von der Visiereinheit 8b markiert werden, beispielsweise durch eine Markierung 40, wie in FIG 5 dargestellt ist. Die Visiereinheit 8b beziehungsweise der Schütze weiß nun, dass eine Waffenaufschaltung auf dieses Ziel 32e erfolgen soll. Die Visiereinheit 8b beziehungsweise der Schütze nehmen diese Waffenaufschaltung vor, beispielsweise durch einen Lock-On auf das Ziel 32e.
  • Zum Zweck der Bildkorrelation können die Bilddaten des Sichtbilds von einer Visiereinheit 8 zur anderen übertragen werden, beispielsweise über den Datenlink 28. Da der korrelierenden Visiereinheit 8 das eigene Sichtbild zur Verfügung steht, kann es dieses mit dem übertragenen Sichtbild, beziehungsweise dessen Daten, vergleichen. Aus diesem Bildvergleich kann es die Objekte im Sichtbild erkennen und beispielsweise einer Klassifizierung zuordnen. Bilddaten des zu bekämpfenden Ziels 32e werden hierbei zur Erkennung des Ziels 32e im Sichtfeld 34b verwendet.
  • In einem dritten Ausführungsbeispiel sei davon ausgegangen, dass die beiden Visiereinheiten 8a, 8b von zwei Schützen bedient werden und der Schütze der Bedieneinheit 8a das Ziel 32e aufgeschaltet hat zur nachfolgenden Bekämpfung. Zum Vermeiden der Mehrfachbekämpfung wird diese Aufschaltung nun an den anderen oder die anderen Schützen des Trupps gemeldet. Hierzu wird von der Visiereinheit 8a Zieleinweisungsinformation erzeugt, wie beispielsweise zu den vorhergehenden Ausführungsbeispielen beschrieben. Die Zieleinweisungsinformationen kann beispielsweise Schwenkinformation enthalten, wie zum ersten Ausführungsbeispiel beschrieben. Es ist jedoch auch möglich, dass die Zieleinweisungsinformation die Lage des Ziels 32e beschreibt, beispielsweise anhand von absoluten Azimut- und Elevationsdaten.
  • Die andere Visiereinheit 8b und gegebenenfalls weitere Visiereinheiten 8b erhalten nun diese Zieleinweisungsinformation, so dass nun bekannt ist, dass dort ein Ziel 32e ist, das bereits bekämpft wird. Die Verwendung dieser Zieleinweisungsinformation in der beziehungsweise den Visiereinheiten 8b kann auf unterschiedliche Weise erfolgen. Sie kann zu Schwenkdaten verarbeitet werden, so dass das Sichtfeld 34b automatisch oder manuell verschwenkt wird und den Schützen das bereits bekämpfte Ziel 32e angezeigt wird, beispielsweise mit der Markierung 40. Aus der Art der Markierung 40 erkennt der Schütze, dass dieses Ziel nicht von ihm bekämpft werden soll. Entsprechend sucht er sich ein anderes Ziel, beispielsweise das Ziel 32d. Alternativ ist es möglich, dass die Zieleinweisungsinformation von der Visiereinheit 8b nur dann zu einer Zieleinweisung, beispielsweise als Markierung 40, verwendet wird, wenn das entsprechende und bereits bekämpfte Ziel 32e im Sichtfeld 34b liegt oder dort durch eine Schwenkbewegung oder eine Bewegung des Ziels 32e der Umgebung 30 erscheint. So kann es sein, dass der Schütze der Visiereinheit 8b von der Bekämpfung durch seinen Kameraden nichts weiß und nichts erfährt, wenn er gerade in eine andere Richtung schaut und hierdurch daher nicht abgelenkt wird. Erst wenn das bereits bekämpfte Ziel 32e - unter einer Bekämpfung ist bereits ein Lock-On auch zu verstehen - in seinem Sichtfeld auftaucht, wird die Zieleinweisungsinformation zur tatsächlichen Zieleinweisung verwendet, beispielsweise in Form der Markierung 40. Der Schütze weiß nun, dass er das Ziel 32e nicht mehr bekämpfen soll.
  • Um nun eine doppelte Bekämpfung effektiv zu vermeiden, wird beispielsweise eine Aufschaltung der Visiereinheit 8b auf das bereits bekämpfte Ziel 32e blockiert, so dass eine Aufschaltung auf dieses Ziel nicht möglich ist. An Stelle oder zusätzlich zur der Markierung 40 kann also eine Aufschaltblockierung automatisiert gesteuert werden, beispielsweise wenn das bereits bekämpfte Ziel 32e im Sichtfeld 34b erscheint.
  • Bei dem nachfolgend beschriebenen Ausführungsbeispiel, das sich auf FIG 6 bezieht, kann auf eine Ausrichtungssensoreinheit 20 in der Visiereinheit 8 verzichtet werden. Einzelne oder mehrere Details der vorgehenden Ausführungsbeispiele können wieder übernommen werden.
  • FIG 6 zeigt ein übergeordnetes Bild 42, beispielsweise ein Panoramabild der Umgebung 30. Dieses wird von einer Visiereinheit 8 aufgenommen, beispielsweise durch ein Verschwenken des Sichtfelds 34 in der Umgebung 30, solange, bis das übergeordnete Bild 42 vollständig aufgenommen ist. Mehrere Teilbilder können hierbei beispielsweise durch Stitching zum übergeordneten Bild zusammengefügt werden. Bei diesem Ausführungsbeispiel wird dieses durch die Visiereinheit 8a vorgenommen und das übergeordnete Bild 42 beziehungsweise Panoramabild wird in der Visiereinheit 8a abgespeichert. Zweckmäßigerweise geschieht dies, bevor die Ziele 32 in der Umgebung 30 zu sehen sind, um Fehler bei einer späteren Bildkorrelation zu vermeiden.
  • Während der Bekämpfungssituation wird die Visiereinheit 8a in der Umgebung beispielsweise verschwenkt und der Bediener beziehungsweise Truppführer sucht ein Ziel 32e zur Bekämpfung aus. Bei einer solchen Verschwenkung vergleicht die Visiereinheit 8a das momentane Sichtbild des verwendeten Sichtgeräts 16, 18 mit dem Panoramabild 42 und kann so die Lage des zu bekämpfenden Ziels 32e im übergeordneten Bild 42 bestimmen.
  • Zur Zieleinweisung, beispielsweise auf das Ziel 32e, das der Schütze der Visiereinheit 8b bekämpfen soll, wird von der Visiereinheit 8a das momentane Sichtbild der Sichtrichtung 34b von der Visiereinheit 8b angefordert. Die Visiereinheit 8b sendet das Sichtbild zur Visiereinheit 8a, die dieses Sichtbild mit dem übergeordneten Bild 42 vergleicht beziehungsweise korreliert und so die Lage des Sichtbilds 34b in diesem Bild 42 beziehungsweise die Lage des Sichtfelds 34b in der Umgebung erkennen kann.
  • Die Visiereinheit 8a erkennt nun, dass das Sichtfeld 34b das Ziel 32e nicht überdeckt. Aus der Lage des zu bekämpfenden Ziels 32e relativ zur Sichtrichtung beziehungsweise dem Sichtfeld 34b kann Zieleinweisungsinformation erzeugt werden, die an die Visiereinheit 8b übergeben wird. Nun kann eine Verschwenkung des Sichtfelds 34b, wie zu den Figuren 2 und 3 beschrieben, erfolgen.
  • In einem weiteren Ausführungsbeispiel liegt wiederum das übergeordnete Bild 42 in einer der Visiereinheiten 8 vor. Wird nun eine Aufschaltung auf ein Ziel, beispielsweise das Ziel 32e, von einer der anderen Visiereinheiten vorgenommen, so kann das Sichtbild, das dieses aufgeschaltete Ziel 32e beinhaltet, an die Visiereinheit 8 mit dem übergeordneten Bild 42 gesendet werden. Diese bestimmt aus Bildkorrelation die Lage des gelockten Ziels 32e in der Umgebung 30 beziehungsweise im Gesamtbild 42. Aus dieser Lageinformation, die auch als Sichtrichtungsinformation beziehungsweise Sichtrichtungsdaten bezeichnet werden kann, wird nun Zieleinweisungsinformation erzeugt, die zur Zieleinweisung anderer Visiereinheiten 8 verwendet wird. Hierzu kann beispielsweise die Lageinformation an die andere oder die anderen Visiereinheiten 8 übermittelt werden. Diese erkennen die vorgenommene Bekämpfung und verfahren wie beispielsweise zu FIG 5 beschrieben, indem sie das bekämpfte Ziel 32e nicht bekämpfen und beispielsweise mit der Markierung 40 markieren, sobald das Ziel 32e im Sichtbild eines der Visiereinheiten 8 auftaucht.
  • Hierzu muss allerdings die Sichtrichtung der entsprechenden Visiereinheit beziehungsweise der Visiereinheiten bekannt sein. Dies geschieht durch eine Bildkorrelation mit dem übergeordneten Bild 42. Diese Bildkorrelation kann in der Visiereinheit 8a stattfinden, beispielsweise wie oben beschrieben, oder in der betreffenden anderen Visiereinheit 8b. Hierzu würde dann das übergeordnete Bild 42 an die entsprechende Visiereinheit 8b übermittelt werden zur Ermöglichung der Bildkorrelation. Aus der Bildkorrelation ist die Sichtrichtung des eigenen Sichtbilds beziehungsweise Sichtfelds 34b bekannt und es kann erkannt werden, wenn das Sichtfeld 34b das vom Kameraden bereits bekämpfte Ziel 32e überdeckt.
  • In einem weiteren Ausführungsbeispiel sei davon ausgegangen, dass eine Bekämpfung eines Ziels 32 fehlschlägt, beispielsweise bei nach einem Lock-On ein Abschuss nicht mehr erfolgen kann oder weil der abgeschossene Lenkflugkörper sein Ziel verfehlt. Die Information, dass ein zu bekämpfendes Ziel 32 nicht bekämpft wurde, kann von dem bekämpfenden Flugkörper-Abschussgerät 2 oder einer übergeordneten Visiereinheit 8, beispielsweise eines Truppführers, ausgegeben werden. Das beispielsweise in FIG 5 dargestellte markierte Ziel 32e wird wieder zur Bekämpfung durch den oder die anderen Schützen freigegeben. Die entsprechende Markierung 40 kann gelöscht werden und/oder der Truppführer kann das Ziel 32e, wie in den ersten beiden Ausführungsbeispielen beschrieben, zur erneuten Bekämpfung einem Schützen zuweisen.
  • Bezugszeichenliste
  • 2
    Flugkörper-Abschussgerät
    4
    Abschussvorrichtung
    6
    Lenkflugkörper
    8a-b
    Visiereinheit
    10
    optisches Visier
    12
    Steuereinheit
    14
    Okular
    16
    Sichtgerät
    18
    Sichtgerät
    20
    Ausrichtungssensoreinheit
    22
    Dreibein
    24
    Handgriff
    25
    Motoreinheit
    26
    Flugkörper-Abschussanlage
    28
    Datenlink
    30
    Umgebung
    32a-e
    Ziel
    34a-b
    Sichtfeld
    36
    Markierung
    38
    Zeichen
    40
    Markierung
    42
    Panoramabild

Claims (13)

  1. Verfahren zur Zieleinweisung einer Flugkörper-Abschussanlage (2) mit zumindest zwei optischen Visiereinheiten (8a, 8b), bei dem ein Sichtfeld (34a) der ersten Visiereinheit (8a) in eine Sichtrichtung ausgerichtet wird, so dass ein Ziel (32e) im Sichtfeld (34a) liegt, Sichtrichtungsdaten des Sichtfelds (34a) erzeugt werden und unter Verwendung der Sichtrichtungsdaten eine Zieleinweisung der zweiten Visiereinheit (8b) erfolgt.
  2. Verfahren nach Anspruch 1,
    dadurch gekennzeichnet,
    dass die erste Visiereinheit (8a) dazu ausgeführt ist, von einem ersten Schützen bedient zu werden und die zweite Visiereinheit (8b) dazu ausgeführt ist, von einem zweiten Schützen bedient zu werden.
  3. Verfahren nach Anspruch 1 oder 2,
    dadurch gekennzeichnet,
    dass eine Ausrichtung des Sichtfelds (34b) der zweiten Visiereinheit (8b) unter Verwendung der Sichtrichtungsdaten so gesteuert wird, das es das Sichtfeld (34a) der ersten Visiereinheit (8a) in einem vorbestimmten Umfang überdeckt.
  4. Verfahren nach einem der vorhergehenden Ansprüche,
    dadurch gekennzeichnet,
    dass beide Visiereinheiten (8a, 8b) einen Azimutsensor und einen Elevationssensor aufweisen und die Sichtrichtungsdaten Azimut- und Elevationsdaten sind.
  5. Verfahren nach einem der vorhergehenden Ansprüche,
    dadurch gekennzeichnet,
    dass die Sichtrichtungsdaten aus der Lage eines Bildausschnitts in einem Panoramabild (42) bestimmt werden.
  6. Verfahren nach einem der vorhergehenden Ansprüche,
    dadurch gekennzeichnet,
    dass die Sichtrichtungsdaten Bilddaten einer Abbildung der Umgebung (30) sind, die die erste Visiereinheit (8a) aufgenommen hat, die zweite Visiereinheit (8b) ebenfalls eine Abbildung der Umgebung (30) aufnimmt, beide Abbildungen korreliert werden und aus der Korrelation die Zieleinweisung der zweiten Visiereinheit (8b) erfolgt.
  7. Verfahren nach Anspruch 6,
    dadurch gekennzeichnet,
    dass das in der Abbildung der ersten Visiereinheit (8a) abgebildete Ziel (32e) als solches erfasst wird und durch die Korrelation das Ziel (32e) in der Abbildung der zweiten Visiereinheit (8b) erfasst wird.
  8. Verfahren nach Anspruch 7,
    dadurch gekennzeichnet,
    dass die Waffenaufschaltung der zweiten Visiereinheit (8b) auf das erfasste Ziel (32e) blockiert wird.
  9. Verfahren nach Anspruch 7 oder 8,
    dadurch gekennzeichnet,
    dass das Ziel (32e) in der anderen Abbildung markiert wird.
  10. Verfahren nach einem der vorhergehenden Ansprüche,
    dadurch gekennzeichnet,
    dass das Ziel (32e) im Sichtfeld (34a) der ersten Visiereinheit (8a) als solches erfasst wird, eine Sichtrichtung der zweiten Visiereinheit (8b) ermittelt wird, geprüft wird, ob das Ziel (32e) in vorgegebenem Maß im Sichtfeld (34b) der zweiten Visiereinheit (8b) liegt und bei negativer Prüfung ein Schwenkkommando von der ersten Visiereinheit (8a) an die zweite Visiereinheit (8b) gesendet wird, das eine Schwenkrichtung und eine Schwenkweite beinhaltet.
  11. Verfahren nach Anspruch 10,
    dadurch gekennzeichnet,
    dass die zweite Visiereinheit (8b) in Abhängigkeit des Schwenkkommandos verschwenkt und das Ziel (32e) im Sichtfeld (34b) der zweiten Visiereinheit (8b) als solches erkannt wird und ein Waffenkommando mit Bezug auf das Ziel (32e) ausgegeben wird.
  12. Verfahren nach Anspruch 10 oder 11,
    dadurch gekennzeichnet,
    dass die zweite Visiereinheit (8b) in Abhängigkeit des Schwenkkommandos verschwenkt wird und die erste Visiereinheit (8a) das Verschwenken verfolgt und nach einer vorgegebenen Überdeckung der Sichtfelder (34a, 34b) beider Visiereinheiten (8a, 8b) ein Bildabgleich der Umgebungsbilder beider Visiereinheiten (8a, 8b) durchgeführt wird.
  13. Flugkörper-Abschussanlage (26) mit zumindest zwei optischen Visiereinheiten (8a, 8b) und einer Steueranlage, die dazu vorbereitet ist, aus der Sichtrichtung der ersten Visiereinheit (8a) Sichtrichtungsdaten des Sichtfelds (34a) der ersten Visiereinheit (8a) zu erzeugen und unter Verwendung der Sichtrichtungsdaten eine Zieleinweisung der zweiten Visiereinheit (8b) zu steuern.
EP14001553.8A 2013-05-17 2014-05-02 Verfahren zur Zieleinweisung einer Flugkörper-Abschussanlage Withdrawn EP2803938A3 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE201310008568 DE102013008568A1 (de) 2013-05-17 2013-05-17 Verfahren zur Zieleinweisung einer Flugkörper-Abschussanlage

Publications (2)

Publication Number Publication Date
EP2803938A2 true EP2803938A2 (de) 2014-11-19
EP2803938A3 EP2803938A3 (de) 2015-01-21

Family

ID=50677921

Family Applications (1)

Application Number Title Priority Date Filing Date
EP14001553.8A Withdrawn EP2803938A3 (de) 2013-05-17 2014-05-02 Verfahren zur Zieleinweisung einer Flugkörper-Abschussanlage

Country Status (2)

Country Link
EP (1) EP2803938A3 (de)
DE (1) DE102013008568A1 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110347183A (zh) * 2019-08-26 2019-10-18 中国航空工业集团公司沈阳飞机设计研究所 一种无人机对地移动目标打击方法及系统
EP3034983B1 (de) 2014-12-19 2020-11-18 Diehl Defence GmbH & Co. KG Maschinenwaffe

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10408573B1 (en) 2017-08-11 2019-09-10 Douglas FOUGNIES Vehicle-mounted device with network-connected scopes for allowing a target to be simultaneously tracked by multiple other devices
CN113424012B (zh) * 2019-02-11 2023-04-25 D·富尼 具有网络连接瞄准镜以允许多个其他装置同时跟踪目标的车载装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE2622809C2 (de) * 1976-05-21 1982-08-12 Eltro GmbH, Gesellschaft für Strahlungstechnik, 6900 Heidelberg Anordnung zum Orten und Beschießen eines Zieles
DE3342338A1 (de) * 1983-11-23 1985-09-05 IBP Pietzsch GmbH, 7505 Ettlingen Verfahren und vorrichtung fuer zielzuweisung und zielbekaempfung
US6491253B1 (en) * 1985-04-15 2002-12-10 The United States Of America As Represented By The Secretary Of The Army Missile system and method for performing automatic fire control
US5822713A (en) * 1993-04-05 1998-10-13 Contraves Usa Guided fire control system
US8103056B2 (en) * 2008-10-15 2012-01-24 Honeywell International Inc. Method for target geo-referencing using video analytics
DE102011100269A1 (de) * 2011-05-03 2012-11-08 Diehl Bgt Defence Gmbh & Co. Kg Elektrooptische Feuerleiteinheit für ein Geschütz
DE102011107950A1 (de) * 2011-07-20 2013-01-24 Harald Schmid System von Waffen

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
None

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3034983B1 (de) 2014-12-19 2020-11-18 Diehl Defence GmbH & Co. KG Maschinenwaffe
EP3034983B2 (de) 2014-12-19 2024-01-24 Diehl Defence GmbH & Co. KG Maschinenwaffe
CN110347183A (zh) * 2019-08-26 2019-10-18 中国航空工业集团公司沈阳飞机设计研究所 一种无人机对地移动目标打击方法及系统

Also Published As

Publication number Publication date
DE102013008568A1 (de) 2014-11-20
EP2803938A3 (de) 2015-01-21

Similar Documents

Publication Publication Date Title
DE2434640C1 (de) Verfahren und Vorrichtung zum präzisen Richten einer scheitellafettierten Waffe eines Panzer-Kampffahrzeugs mittels einer Feuerleitanlage
EP1304539B1 (de) Verfahren und Einrichtung zum Richten eines Waffenrohres und Verwendung der Einrichtung
DE102010005199B4 (de) Verfahren und Vorrichtung zur Ortsbestimmung eines fliegenden Ziels
DE2025877A1 (de) Sichtgeräteanordnung in einem Fahrzeug
EP2803938A2 (de) Verfahren zur Zieleinweisung einer Flugkörper-Abschussanlage
DE19601961C2 (de) Einrichtung zur Erleichterung des Auffindens von Zielen an einem Waffensystem
CH661132A5 (de) Vorrichtung zur simulation des freien ausblicks mittels eines optischen geraetes.
DE4207251C2 (de) Feuerleitanlage für Panzer
DE19606685C2 (de) System zur Gefechtssimulation mit einem frei operierenden Kampffahrzeug und einem quasi ortsfesten Objektsimulator
DE4413916A1 (de) Einrichtung zur passiven Freund/Feind-Unterscheidung
DE1951622C3 (de) Anordnung zur simulierten Darstellung von Schußbahnen
DE102009042172A1 (de) Verfahren zur Bereitstellung von Steuerbefehlen für ein mittels einer Bedieneinheit lenkbares Fahrzeug und Steuerungssystem für ein derartiges lenkbares Fahr zeug
DE2622809C2 (de) Anordnung zum Orten und Beschießen eines Zieles
DE3044348A1 (de) Automatisches luft-luft- oder luft-boden-feuer-leitsystem
WO1985003118A1 (en) Target detection unit to be installed on firearms
EP3034983B1 (de) Maschinenwaffe
DE3024330C2 (de) Einrichtung und Verfahren zum Anvisieren eines Objekts
DE3211711A1 (de) Uebungsvorrichtung fuer die schiessausbildung an lenkflugkoerpern, insbesondere an boden-boden-flugkoerperwaffen
EP0862041B1 (de) Verfahren und Anlage zum Bestimmen und Anzeigen eines Schussfehlers
DE102012017452B4 (de) Suchkopf mit Multi-Mode-Eigenschaften
WO2018215104A1 (de) Simulator und verfahren zur simulation eines einsatzes eines flugkörpers
EP3367045A1 (de) Verfahren und vorrichtung zur verbesserung der präzision von feuerleitlösungen
DE102010005198A1 (de) Flugkörper und Verfahren zum Erfassen eines Ziels
DE102011008166A1 (de) Vorrichtung und Verfahren zur Schützenortung
DE328430C (de) Geschuetzrichtvorrichtung

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

17P Request for examination filed

Effective date: 20140502

AK Designated contracting states

Kind code of ref document: A2

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

AX Request for extension of the european patent

Extension state: BA ME

PUAL Search report despatched

Free format text: ORIGINAL CODE: 0009013

AK Designated contracting states

Kind code of ref document: A3

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

AX Request for extension of the european patent

Extension state: BA ME

RIC1 Information provided on ipc code assigned before grant

Ipc: F41G 3/04 20060101ALI20141216BHEP

Ipc: F41G 7/30 20060101AFI20141216BHEP

Ipc: F41G 7/00 20060101ALI20141216BHEP

Ipc: F41G 3/02 20060101ALI20141216BHEP

Ipc: F41F 3/045 20060101ALI20141216BHEP

R17P Request for examination filed (corrected)

Effective date: 20150717

RBV Designated contracting states (corrected)

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

RAP1 Party data changed (applicant data changed or rights of an application transferred)

Owner name: DIEHL DEFENCE GMBH & CO. KG

GRAP Despatch of communication of intention to grant a patent

Free format text: ORIGINAL CODE: EPIDOSNIGR1

INTG Intention to grant announced

Effective date: 20190301

RIN1 Information on inventor provided before grant (corrected)

Inventor name: GUNDEL, BERND

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE APPLICATION IS DEEMED TO BE WITHDRAWN

18D Application deemed to be withdrawn

Effective date: 20190712