EP3260808A2 - Method for offset correction of a weapon system - Google Patents

Method for offset correction of a weapon system Download PDF

Info

Publication number
EP3260808A2
EP3260808A2 EP17000925.2A EP17000925A EP3260808A2 EP 3260808 A2 EP3260808 A2 EP 3260808A2 EP 17000925 A EP17000925 A EP 17000925A EP 3260808 A2 EP3260808 A2 EP 3260808A2
Authority
EP
European Patent Office
Prior art keywords
image
projectile
effect
target
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
EP17000925.2A
Other languages
German (de)
French (fr)
Other versions
EP3260808A3 (en
Inventor
Hans-Ludwig Reischmann
Thomas Frei
Axel Pfersmann
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Diehl Defence GmbH and Co KG
Original Assignee
Diehl Defence GmbH and Co KG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Diehl Defence GmbH and Co KG filed Critical Diehl Defence GmbH and Co KG
Publication of EP3260808A2 publication Critical patent/EP3260808A2/en
Publication of EP3260808A3 publication Critical patent/EP3260808A3/en
Pending legal-status Critical Current

Links

Images

Classifications

    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G3/00Aiming or laying means
    • F41G3/14Indirect aiming means
    • F41G3/142Indirect aiming means based on observation of a first shoot; using a simulated shoot
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G3/00Aiming or laying means
    • F41G3/14Indirect aiming means
    • F41G3/16Sighting devices adapted for indirect laying of fire
    • F41G3/165Sighting devices adapted for indirect laying of fire using a TV-monitor
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G3/00Aiming or laying means
    • F41G3/04Aiming or laying means for dispersing fire from a battery ; for controlling spread of shots; for coordinating fire from spaced weapons
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G3/00Aiming or laying means
    • F41G3/08Aiming or laying means with means for compensating for speed, direction, temperature, pressure, or humidity of the atmosphere

Definitions

  • the invention relates to a method for correction of a weapon system, in which a projectile from a gun weapon of the weapon system is fired at a target on an object, a direction of an action point of the projectile is detected by the object, the direction difference between the target direction and the Wirkpunakichtung detected as a shelf and a targeting of a later shot on the object is corrected using the bin.
  • Shots from guns are subject to a degree of variance with regard to their accuracy.
  • a small scattering within a single shot sequence with unchanged orientation of the tube can be distinguished from a larger spread over longer periods of time and different weapons copies.
  • machine guns have a very small short-term spread, which is generally tolerable.
  • the coarse scattering caused by long-term changes, such as a transport of the weapon, temperature effects, wind changes from day to day and the like.
  • the coarse scattering can thus lead in a combat situation to a systematically wrong filing, in which the barrel weapon with high accuracy, although reproducibly hits a small scattering area, this scattering area of the impacts but located next to the target object.
  • a positioning shot at the target object or generally in a desired target direction can be fired. Now the impact of the positioning projectile is detected and thereby starting from the pipe to the point of impact a direction of effect. The distance from the impact to the target object or the direction difference from the direction of the direction of impact to the target direction can now be determined as a file. A later shot can be corrected using the clipboard so that this later shot hits the target object.
  • This object is achieved by a method of the aforementioned type, in which according to the invention the direction of effect is detected by taking an effective image which represents the projectile effect on the object, and the direction of the effect is determined from the effective image.
  • the direction of effect is detected by taking an effective image which represents the projectile effect on the object, and the direction of the effect is determined from the effective image.
  • the directional difference between the target direction and the direction of the direction of impact can be detected automatically and swiftly - assuming that the targeted direction was assumed to be known.
  • the alignment of the machine gun can be automatically corrected depending on the filing, so that the automatic correction of the determination of the direction of the direction of action in the active pattern to the direction correction of the gun barrel can be carried out very quickly and reliably.
  • the weapon system may include a machine gun for firing ammunition in salvo fire, in which automated shots can be fired in succession. Subsequent shots are expediently in an automated ratio to the previous shot, for example in the launch time difference and / or the automated stack correction.
  • a control computer is provided which automatically aligns a gun weapon of the weapon system, for example, based on instructions from an operator.
  • the destination direction is expediently known, for example from a destination process.
  • the object may be captured in a target image, and an operator may mark the imaged object, for example with a crosshair.
  • the marker determines the direction from the weapon system to the object and thus the target direction.
  • the target direction need not be a geoid absolute direction, but may be a relative direction, for example, to a reference direction of the weapon system, such as a picture corner, a Rohrausraum or the like.
  • the point of action of the projectile is a point at which the projectile unfolds an effect visibly, for example as an explosion, whose explosive lightning is visible. Also possible is a Aufaufwirbelung by a detonation pressure wave, a Cloud of smoke or other visible effect.
  • the point of action lies on the object and can therefore be located directly on the object, for example in the form of an impact on the object, or in a neighborhood of the object. If the projectile is fired, for example, with a tempition and ignites in the vicinity of the object, for example, to achieve a scattering effect, so is the point of action of the projectile on the object in this case.
  • the filing does not have to be the absolute filing and can subsequently still be changed or corrected, for example, by a lead in the case of an accelerating moving target object.
  • another parameter may be used to correct the deposit, such as the measurement of variable wind, vibration of the weapon, anticipated acceleration of the target, and the like.
  • One possible method for correction of the position of the weapon system may comprise the steps of determining the target direction, determining the direction of the direction of the effect, determining the deposit and the deposit correction of the machine weapon.
  • an optical system with a camera can record the object, expediently in a regular, in particular continuous sequence of images. These images can be displayed to an operator on a screen so that they can track the object as in a movie. The operator can select the object and direct a mark on it, such as a crosshair. In the case of a relative movement of the object relative to the camera orientation, the operator can trace the marking to the object, or the object is automatically tracked so that the marking is automatically tracked to the object.
  • the object is detected as such in the object image and recognized in the subsequent object images, so that the marking is tracked from object image to object image with the moving object.
  • the target direction can be determined when shooting down the bullet, for example relative to the camera orientation or the object image or even absolutely, if an absolute orientation of the camera or the object image in space is known.
  • an object image can be examined for image abnormalities using image processing methods, which can be assigned to a projectile effect. If an image conspicuity is found in a given position of a projectile effect, the location of this image conspicuousness in the object image can be determined.
  • the object image is now an active image that shows the effect of the projectile. The direction of the effect can now be determined from the position of the projectile effect or the image conspicuousness in the active image and may possibly be the situation itself.
  • the directional difference for example by subtraction, can be determined from the target direction and the direction of the direction of the effect and used as at least provisional filing.
  • the alignment of the weapon is now corrected using the bin, and a subsequent shot is aimed at the object. If necessary, the tray can be further corrected as described above.
  • the positioning shot can be made with the same or different ammunition as the later and corrective shot control shot, for example, to make the bullet effect more visible and concise.
  • a positioning shot from a salvo consist of several individual shots, which are directed one behind the other on the object and their effect is detected in each case in an active image.
  • the active image and the target image can overlap one another congruently, for example if the orientation of a camera receiving the two images is not changed between the two recording times. If the target direction is detected in the target image and the direction of effect is in the active image, then both directions can then be directly compared with one another, for example deducted from one another, so that the directional difference and thus the offset results therefrom. However, it may also be that the later active image is shifted to the target image by a movement of the receiving camera, which has been tracked for example by the operator or by auto-tracking the object. A movement of a vehicle carrying the weapon system can lead to a movement of the camera and thus a shift of the active image to the target image.
  • a target image which images the object is taken, and the target direction is defined in the target image.
  • the target image can now be correlated with the later captured image using pattern recognition in the two images.
  • the two images can be superimposed, so that an imaged in both images in Cover is brought.
  • a relative position of the two images to each other can be determined.
  • the directional difference can be determined from the relative position of the two images and the position of the target in the target image and the direction of the effect in the active image.
  • a target mark is carried along with the object, for example in subsequent object images.
  • Decisive for determining the target direction is expediently the target direction at the time of firing of the projectile.
  • a target image which images the object at the time of shooting is taken, and the target direction is defined in the target image.
  • the target image is expediently recorded at the time of shooting.
  • the image which has the smallest time interval from the time of shooting can be used as the target image.
  • a sequence of object images is recorded, whereby a target marker in these images can be carried along with the movement of the object.
  • the target image can be an image in which the target or object is marked at launch.
  • a sequence of object images depicting object images is taken, the images of the sequence are examined for the projectile effect and a plurality of object images in which the projectile effect is pictorially found, as effect images on a development of the pictorial projectile effect in the impact images are evaluated. For example, from an expansion of a cloud of smoke or dust on one Turning point and also an impact time to be closed. It would also be possible to deduce from a course of a fire of a projectile on the Geunterart and thus to distinguish a marker shot from a shot from another gun.
  • the development may be compared to a waveform typical of a bullet waveform, in particular a marker fire of a particular type of ammunition for a positioning shot.
  • a tracer bullet when shooting with a tracer bullet, the tracer can be tracked in the multiple impact images, and an impact point can be clearly assigned to the projectile.
  • the firing weapon system can be easily recognized by the target object. This creates the danger of counter-fighting.
  • the object may defend itself by generating spurious signals, for example in the form of flares.
  • spurious signals for example in the form of flares.
  • interference signals in a sequence of images or object images are recognized as such.
  • Such a detection can be done by their temporal occurrence, for example, their signal start, a temporal waveform and / or a radiation spectrum of the noise is evaluated.
  • the signals can be compared with a corresponding parameter of an expected projectile effect or with a corresponding parameter of known interference elements.
  • the corresponding image conspicuousness can be recognized as an interference signal.
  • the image conspicuousness can also be detected as an interference signal.
  • an object image for example, a muzzle flash is recognizable or the impact or the explosion of a foreign projectile from another weapon or the like.
  • an object image can have a plurality of image conspicuities, which are then to be examined as to whether the sought-after floor effect hides behind them.
  • Such an evaluation can be computationally intensive and thus time consuming.
  • explosive flashes of foreign bullets can also be a confusion occur, so that a filing is detected incorrectly.
  • an image evaluation in an object image is spatially limited to an expectation range in which the projectile effect is expected.
  • an expectation range may be limited to the local environment of the nominal target point, for example around the target direction.
  • the size of the expected range is expediently at most half the image area of the object image, in particular at a maximum of 1/10 of the image area of the object image.
  • An evaluation result is, for example, a calculation result as to whether an image conspicuity could represent the projectile effect, for example a probability that an image conspicuity represents the projectile effect.
  • a weighting could be made such that a picture image outside the expectation range is classified with a lesser probability as a floor effect than the same image detail within the expectation range.
  • the expected range can be divided into several areas.
  • the expected range may comprise a core area with a highest weighting and a border area with a lower weighting, possibly even a third outdoor area with an even lower weighting, but which is greater than the weighting outside the expectation range. It is also possible to have a continuous weighting curve which decreases with increasing distance to an expectation point in which the projectile effect of the positioning shot is expected.
  • the size of the expectation range in the object image is expediently not rigid, but can be selected as a function of one or more parameters.
  • the parameter of a type-specific storage spread of the gun can be used.
  • the individual filing spread of the gun represents a meaningful such parameter.
  • Gun-independent wind force and / or a wind direction can be considered. Movement of a vehicle carrying the gun during firing and / or a turret temperature are also parameters that may be taken into account.
  • a further advantageous embodiment of the invention provides that a time window within which the projectile effect is expected is determined. An evaluation of a series of object images can then be limited to those object images that lie at least partially within the time window. Generally speaking, a sequence of object images depicting the object may be taken, and images of the sequence may be examined for the floor effect, with a time of action of a floor effect within the time window being weighted higher than outside the time window.
  • the time of action ie the time at which a suspected projectile effect occurs. If this time of action lies outside the time window, then the probability is greater that the corresponding image conspicuity is a different effect, for example a different artillery, than if the effective time is within the time window.
  • the time of action may be a time at which the projectile unfolds its effect, in particular begins to unfold. For example, if a light signal takes one Explosion or the burning of a Markiergeunteres a longer while and is mapped, for example, in several object images, so is the effective time at the beginning of this effect.
  • an image conspicuity that is outside the time window can be omitted, if it is clear that this image conspicuity can not be attributed to a projectile effect due to time constraints.
  • the location and / or size of the time window can be determined from a distance of the object from the machine gun and / or a temping of the projectile.
  • the time window is placed symmetrically around the known from the tempation explosion time of the projectile.
  • the exposure period or integration period of the recording of the active image can be determined as a function of the position and size of the time window.
  • the temporal position of the integration lies within the time window.
  • the integration period is set by an expected effective time, for example symmetrically around the expected time of action.
  • the time of action ie the time at which the bullet effect began, can also be determined in this way.
  • a time of action is determined. Subsequently, it can be checked whether the time of action lies in the time window.
  • the active images are recorded in the infrared spectral range, it is advantageous if the development of the pictorial projectile effect is investigated.
  • the enlargement of a heat range for example, caused by the projectile explosion, can be tracked, and it can be concluded on the date of action by recalculation.
  • the integration duration of the recording of an infrared active image is greater than the time window. In general, and thus independent of the time window, the time of action can only be determined inaccurately from a single image. By recalculating an expanding thermal cloud, however, one can infer the time and / or location of its formation.
  • the image scene in an object image has strong signal structures and contrasts.
  • effects may possibly be reduced by a judicious choice of the spectral range of a receiving camera used, they may significantly increase the potential for error in the detection of a projectile effect.
  • false targets that erroneously conclude a bullet effect, so that the filing is calculated incorrectly. Examples include other explosions, burning buildings, all kinds of fires, muzzle flashes of weapons in the target area, and more.
  • the object image is edited with a smart image correction.
  • Such editing is conveniently done using a previously captured object image.
  • the later recorded image is processed using this object image, for example by enhancing image differences.
  • a processing can consist of an image subtraction, so that, for example, the object image and the active image are subtracted from one another.
  • the projectile effect can now be determined from a remaining image conspicuousness and from this the direction of the effect. Even strong signal structures, if they change sufficiently slowly, can be reduced or even suppressed in this way.
  • a period in which an object image used for image processing is used is expediently determined by the fluctuation of the signal structure in a series of object images, that is to say a temporal change of the signal structure.
  • a reference image is obtained from a plurality of object images and the active image is processed on the basis of the reference image, for example by subtracting the reference image from the active image.
  • the plurality of object images may be a sequence of object images.
  • the reference image may be formed from an average of the object images or an interpolation from the object images. If, for example, a clear development of a structure can be recognized from several object images, this structure can be extrapolated by interpolation to the time of the active image to be examined are thus supplied to the image processing, for example, a picture subtraction.
  • a reference image is created based on a plurality of object images, then it is advantageous if the number of object images from which the reference image is formed is determined as a function of the image acquisition frequency and / or a fluctuation of the scene around the object.
  • the fluctuation of the scene can be determined from one or more preceding object images by image processing.
  • the difference image is processed with image processing in the form of a signal amplification, for example by at least a factor of 2, in particular a factor of 5.
  • image processing is only performed when no sufficient image conspicuousness, which could represent a projectile effect, has previously been found.
  • the effect of a projectile usually unfolds in several spectral ranges.
  • an explosive flash in the visible range and also an expansion of a cloud of smoke in the visible range can be detected.
  • the propagation of a thermal cloud can be sensed in the infrared spectral range.
  • An explosion flash can be distinguished from flames very well in the ultraviolet range.
  • a plurality of cameras that are sensitive in different spectral ranges are present and each camera receives at least one active image. From the impact images, either individually or from a combination of the results from the effects, a projectile effect can be determined and from this a direction of effect. In this way, one effect direction can be determined from all the active images of the cameras. It is also possible to first determine projectile effects, to assign matching projectile effects in the impact images to a positioning projectile and to determine only one direction of effect.
  • the pictorial development of the projectile effect usually unfolds differently in different spectral ranges.
  • an explosive flash in the visible and / or ultraviolet range is very short, while the propagation of a thermal cloud takes much longer.
  • the spread of a cloud of smoke or dust lasts even longer. Therefore, it is beneficial if the development of pictorial Projectile effect is evaluated in the impact images in each spectral range.
  • the development of the pictorial projectile effects can then be compared with a signal course expected for the positioning shot, for example for an explosive flash, a spreading thermal cloud or an expanding cloud of smoke.
  • the spectral range that is used to investigate the projectile effect it may be useful to limit the spectral range that is used to investigate the projectile effect. As a result, false signals can be suppressed.
  • at least one spectral range is limited to a spectral band that is less than the factor of 1.5 by a marking color of the projectile.
  • the factor can also be chosen to be smaller, for example 1.2 or even 1.1.
  • the factor 1.5 means that the frequency of the upper end of the tape is at most 1.5 times as high as the frequency of the lower end of the tape.
  • a positioning shot is set with marking ammunition, which differs in their beam characteristic during the impact or the explosion of ammunition to combat the object.
  • ammunition with a special luminous characteristic can be used, which differs from the subsequent stock-corrected projectiles.
  • An error probability can be further reduced if the signal characteristic of the projectile effect is examined in terms of its temporal course of the intensity in at least two different spectral ranges.
  • Another way to reduce false positives is to shoot a salvo of several floors onto the object.
  • a projectile effect can now be detected and an effective time of the projectile effect can be determined.
  • the time sequence of Acting times are checked for plausibility, for example by the temporal sequence is compared with the time sequence of the firing times.
  • a time window in which the projectile effect is expected is determined for each projectile, and the position of the action time points relative to the time windows is determined. It can be inferred from the position of the time of action whether the projectile effect or the detected image conspicuousness is actually the projectile effect of the marking bullet (s).
  • an assignment value can be formed in each case from the position of the action times to the time windows, and a total assignment value can be formed from a plurality of assignment values.
  • the total allocation value may indicate a probability of assignment of the projectile effects to the projectiles of the salvo.
  • a further possibility for recognizing discrimination errors can be achieved by firing different marking bullets in the salvo, which produce a different bullet effect.
  • All marking bullets used are expediently special projectiles for a Markierschuss, so that they differ so far from a later fired combat ammunition.
  • each module expediently pursues another strategy or another method for reducing recognition errors.
  • the different modules can be used individually or in combination, expediently as a function of a combat situation, existing projectiles and / or existing detection systems.
  • the invention also relates to a weapon system having a target device for inputting and detecting a target direction into which a projectile from a weapon of the weapon system is fired at an object in a target direction.
  • the weapon system expediently also comprises an optical system with a camera and an evaluation unit for determining a direction of an action point of the projectile on the object.
  • the evaluation unit is expediently to prepared to determine a filing in the form of a directional difference between the target direction and the direction of the direction.
  • the aiming device is expediently adapted to correct a target direction of a later shot on the object using the tray.
  • the evaluation unit is prepared in accordance with the invention for detecting the direction of the effect by recording an effective image representing the projectile effect on the object and determining the direction of the effect from the effective image.
  • FIG. 1 shows an object scene 2 in a landscape.
  • the object scene 2 includes a number of vehicles, of which in FIG. 1 The following are shown by way of example: a rocket carrier 4 for launching ground-to-air missiles 44, two tanks 6, 8, a truck 10 and a number of other wheeled vehicles 12.
  • a weapon system 14 is shown schematically, which is also shown only schematically in FIG Wheeled vehicle 16 is mounted.
  • the weapon system 14 comprises a gun barrel 18 for projectile missiles and a target unit 20 with a plurality of cameras 22, of which FIG. 1 for simplicity, only two cameras 22 are shown.
  • the weapon system 14 comprises an evaluation unit 24 for the numerical detection of a tray and for automatic storage correction of the gun 18.
  • the target unit 20 generates by means of one or more of the cameras 22 a target image 26, in which the object scene 2 and in particular the vehicle to be controlled are shown.
  • An operator of the weapon system 14 marks in the target image 26 an object 10 that is to be fought, for example, the front truck. This marking can be done via a target mark 28 in the target image 26, such as a crosshair, the sake of clarity in FIG. 1 is shown in the object scene 2 on the front wheeled vehicle.
  • the target marker 28 is placed by the operator over the object 10 to be controlled or to the point at which a shot from the gun 18 is to be placed.
  • the target marker 28 is set, for example by a corresponding command of the operator, the position of the target marker 28 in the target image 26 is detected by the target unit 20.
  • the target direction 30 is only a relative target direction 30, since its absolute direction does not have to be known.
  • the orientation of the target image 26 receiving camera 22 is detected, so that the position of the target image 26 in the object scene 2 and thus the position of the target mark 28 in the object scene 2 is known.
  • This target direction can now travel, for example, by a movement of the object 10 through the object scene 2 or a movement of the weapon system 14 in space.
  • the target direction 30 can be moved in this case, for example by the position of the target mark 28 in the target image.
  • the target mark 28 in the target image 26 can be tracked by the operator and thus held on the object 10 to be controlled.
  • Another possibility is the automatic tracking of the object 10, so that the target marker 28 and thus the target direction 30 automatically remains held on the object 10.
  • a series of target images 26 are recorded over time, with the original target image 26 by means of image-processed methods are compared, so that the object 10 is detected in the subsequent target images 26. Based on the original position of the target mark 28 on the object 10, the position of the target mark 28 of the new position of the object 10 in the object scene 2 is now adjusted automatically.
  • the target direction 30 is stored at the moment of the launch. This target direction is used below to calculate a clipboard.
  • previous objectives 30 prior to launch can be stored and used as a basis for other calculations, they do not initially play a role in the calculation of the filing.
  • the target image 26 displayed on a display unit of the target unit 20 is in FIG. 2 shown enlarged. It shows the target mark 28 on the front vehicle or object 10 at the time of the launching of the projectile in target direction 30 from the gun 18.
  • a series of object images 32 are recorded, which are shown schematically in FIG FIG. 3 are shown. These object images 32 show the object scene 2, which changes slightly according to the passage of time.
  • the object images 32 or at least a part thereof are examined for a pictorial representation of the projectile effect of the projectile fired from the gun 18. If such a pictorial projectile effect 34 is found in an object image 32, this object image 32 is used as the active image 36 for calculating the deposit.
  • FIG. 4 shows the active image 36, in which the projectile effect 34 next to the object 10 is visible.
  • the projectile effect 34 is recognized as such in the active image 36, and the position of the pictorial representation of the projectile effect 34 in the active image 36 is recognized by the evaluation unit 24.
  • FIG. 1 schematically shows how the evaluation unit 24 from the position L of the projectile action 34 in the active image 36 determines a Wirk Vietnamese 38, R, in which the projectile effect 34, starting from a reference point, such as a picture corner or a point on the weapon system 14, as the mouth of the Pipe weapon, lies.
  • a Wirk Vietnamese 38, R in which the projectile effect 34, starting from a reference point, such as a picture corner or a point on the weapon system 14, as the mouth of the Pipe weapon, lies.
  • the evaluation unit 24 determines a tray A with which the projectile projectile missed the object 10 or the desired target point therein.
  • the tray A may consist of the direction difference 40, ⁇ R.
  • the evaluation unit 24 now further calculates a filing correction K of the gun 18 in the form of a change in direction, in which the gun 18 is then pivoted. Subsequent shots at the object 10 are now fired in the corrected direction so that the object 10 is struck.
  • FIG. 1 shows the position of the object 10 at the time of shooting, ie as shown in the target image 26.
  • FIG. 1 also shows the projectile effect 34, which occurs later and is not visible in the target image 26, but only in the active image 36.
  • the object 10 has already moved on a bit, so that the filing on the target direction 30 at the time of shooting and the direction of action 38 is supported at the point of impact of the projectile, two directions 30, 38 which are detected at different points in time. This is in FIG. 1 schematically represented accordingly.
  • the receiving camera 22 rests between the shooting time or the shot of the target image 26 and the effective time or the shot of the active image 36.
  • the two images 26, 36 can be simply superimposed, so that the target direction corresponding to the position of the target mark 28 in the target image 26 and the direction of action according to the position of the projectile effect 34 in the active image can be easily tapped next to each other.
  • the camera 22 will move during the projectile flying time, so that the object scene 2 travels through the images 26, 36. This is based on the presentation 2 and FIG. 4 shown.
  • the camera 22 has been slightly pivoted to the left during the flight time of the projectile of about 1.5 seconds by the movement of the supporting wheeled vehicle 16.
  • At least the active image 36 is correlated with the target image 26 by image processing, so that the two object scenes 2 can be superimposed, for example by static landscape points.
  • the image shift is recognized from this and taken into account in the calculation of the direction difference 40, ⁇ R.
  • the object images 32 are examined for image abnormalities that could show the projectile effect 34.
  • all object images 32 taken one after the other are examined successively for a pictorial representation of the projectile effect 34.
  • the object scene 2 hereby show a variety of events that are easily confused with a pictorial representation of the projectile effect 34.
  • FIG. 1 is exemplified as from the two tanks 6, 8 flashes a muzzle flash.
  • the object to be attacked 10 carries a machine gun whose muzzle flash in the upper area of the object 10 also lights up brightly.
  • a grenade impact 42 can be seen, which can also be easily confused with a projectile effect 34, especially when the projectile effect 34 consists primarily of a smoke effect or a raising of dust and stones.
  • the rocket carrier 4 a ground-air missile 44, the hot engine gases also cause a picture conspicuousness with a very strong signature. Therefore, it is not readily apparent to the evaluation unit 24 whether the grenade impact 42, the muzzle fire of the tank 6 or the muzzle flash of the MG on the object 10 is an effect of the projectile from the gun 18. If there is a mix-up, tray A will be miscalculated and subsequent shots from barrel weapon 18 will be misplaced.
  • the evaluation unit determines an expected range 46, which is shown by way of example in FIG. 4 is shown.
  • the expected range 46 is determined as a function of the target direction 30 and, for example, is placed symmetrically around the target direction 30, as in FIG FIG. 4 is exemplified, of course, the target direction from the target image 26 is used. In this expectation range 46, the impact or the explosion of the projectile is expected.
  • a multi-level expectation range is determined, which may consist of a core region and one or more areas lying around the core region, for example, a central region and an outer region. Depending on the position of the pictorial representation of the projectile effect 34 in the areas is weighted from the inside out ever less.
  • the weighting can also be changed continuously, for example, with a growing distance of the projectile effect 34 from the target direction 30 continuously decreasing. In this way, further away from the targeted object 10 lying image abnormalities are not suppressed, but always weighted weaker, so that a closer impact finds greater consideration.
  • the evaluation unit 24 expediently takes into account both a type-specific storage spread of the gun and an individual filing spread of the gun, in this case the barrel weapon 18. While the type-specific storage spread can be specified by the manufacturer, an individual filing spread of the gun either also specified by the manufacturer or obtained from previous experiments.
  • a temporal window can be defined in which a projectile effect 34 is expected. This is an example based on the representation FIG. 5 explained.
  • FIG. 14 shows the recording periods 48 of a plurality of images of object images 32 on a timeline. Between the recording periods 48, a read-out period is indicated by hatching, in which no recording takes place and the corresponding detector of the image-recording camera 22 is read out. Of course, it is also possible to reduce or even eliminate the readout periods by sequential readout or other suitable methods. At the in FIG. 5 The hatched readout periods are mainly used to simplify the recognition of the method.
  • the projectile is fired from the barrel weapon 18.
  • the target image 26 is recorded.
  • a plurality of object images 32 are recorded, as indicated by the interruption of the time beam based on the two bars.
  • the point in time t E indicates an expectation time at which a projectile effect 34, for example an impact of the projectile on or at the object 10 or an explosion of the projectile in the air, is expected.
  • the evaluation unit 24 sets a time window 50 in which events, analogous to the spatial expectation range 46, are taken into account exclusively or taken into greater consideration. Depending on the method, therefore, the object images 32 lying ahead of the time window 50 are not taken into account or are not even recorded or taken into account with a lower weighting with regard to their image conspicuities.
  • a weighting or an assignment value can generally, even in the case of a spatial expectation range, be a parameter which is used in a decision as to whether an image conspicuity should be classified as a projectile effect. It is expediently a parameter whose size is decisive for the result of whether an image conspicuity should be classified as a projectile effect.
  • the parameter can for example, a probability that the image conspicuousness is a projectile effect.
  • Such a distinction or weighting is shown by way of example with reference to an image conspicuity 52 in FIG FIG. 5 shown.
  • the image conspicuity 52 is, for example, the muzzle-fire of the machine-gun on the truck 10.
  • This image-conspicuity 52 continues for a while, as indicated by the double-headed arrow in FIG FIG. 5 is indicated by the image conspicuity 52, for example 50 ms. It extends in the example shown in three object images 32 and their recording periods 48.
  • the entire time range of the image conspicuity 52 is outside the time window 50, so that the image conspicuity 52 is not considered or only weakly weighted as if it had been within the time window 50.
  • the projectile effect 34 on the representation of the sake of clarity in FIG. 5 is omitted, is within the time window 50. It is taken into account accordingly, so that the location of their image conspicuity in the active image 36 is used to calculate the tray A.
  • a projectile effect 54 does not express itself or not only as lightning, but as a whirling up of dust, as a cloud of smoke or as spin-on of stones, as exemplified by the grenade impact 42 in FIG. 4 is shown.
  • An explosion flash can be hidden or insufficiently visible.
  • FIG. 5 shows a projectile effect 54 is visible in an active image 36 which was recorded after the time window 50. This is difficult to recognize at first and may not be recognized as such. In the subsequent effective image 36, the projectile effect 54 is already greater, and in the subsequent active image 36, which is still larger, as in FIG FIG. 5 is indicated. It is, for example, the expansion of a thermal cloud, which is caused by the explosion of a projectile of the gun 18, and which is received by an IR camera 22 of the weapon system 14.
  • FIG. 6 shows a further possibility for efficient use of the calculated time window 50. Shown are recording periods 48 of object images 32, this time without the readout periods omitted for the image recording. Furthermore, the uninteresting image conspicuity 52 and the slow-growing projectile effect 54 are shown. The taking and / or evaluation of object images 32 whose recording period is completely in front of the time window 50 has been dispensed with. In this respect, the image conspicuity 52 is not discovered. The image capture of object images 32 is started only at the beginning of the time window 50, so that the first object image covers the beginning of the time window 50, as in FIG FIG. 6 is shown. It can be seen that two object images completely cover the time window 50. In this, however, the projectile effect 54 is not detected.
  • connection time window 56 is expediently to be selected such that image conspicuities from a dust upset, a smoke development and / or a heat development are reliably detected if their origin lies within the actual time window 50, as in FIG FIG. 6 is shown.
  • FIG. 7 shows the recording of a series of object images 32.
  • Each of these object images 32 is merged with the respective preceding object image, which in FIG. 7 32-1 is compared, for example by image subtraction.
  • image subtraction is indicated by the mark A - B in FIG FIG. 7 indicated.
  • Consistent image features are thereby eliminated and only image changes are left as in FIG. 7 by way of example on a projectile effect 34 or its pictorial representation is shown.
  • the comparison image or difference image 58 can be processed with image processing in the form of a signal amplification.
  • the correspondingly processed image 60 now shows the projectile effect 34 more clearly, so that its position in the active image 60 thus processed can be determined. For example, the location is determined relative to a reference point in the example FIG. 7 the picture corner on the top left. Accordingly, there are two coordinates, as in FIG. 7 is represented by the two double arrows.
  • a group of object images 32 is grouped into a reference image 62, for example by averaging the object images 32 of the group or an interpolation from the object images 32.
  • the reference image 62 is then compared with the next following object image 32, for example by image subtraction , as in FIG. 7 is indicated by the marking A - B.
  • the further procedure can be carried out as described above.
  • the number of object images 32 from which the reference image 62 is formed may be made dependent on the image fluctuation within the object images 32.
  • the image fluctuation of the entire object image or only the expectation region 46 may be considered.
  • the image fluctuation results from the change of the image contents from one object image 32 to the next. With high image fluctuation, ie rapid changes of the image contents, fewer object images 32 are processed to the reference image 62 than with a smaller image fluctuation.
  • the corresponding image abnormalities 64, 66, 68, 70 show a different course. While an explosive flash in the ultraviolet spectral range is detected only for a relatively short period of time, in the visual range the explosive flash is detected in addition to a dust swirl which expands relatively slowly and thereby becomes more conspicuous, as in FIG. 8 indicated in the middle drawing area. Although the thermal cloud detected in the infrared spreads out more slowly than the flash of light is noticeable, its size growth is faster than the smoke and dust turbulence detected in the visible range. In this respect, different characteristic conspicuity or image progressions result for each spectral range, ie intensity and size profiles as a function of time.
  • Each of the cameras 22 receives a corresponding series of active images 36 in their spectral range.
  • Image abnormalities are examined for their possible representation of a projectile effect 34.
  • the image conspicuities 64, 66, 68, 70 are detected and the development of the projectile effect in the active images 36 occurs in each spectral range with one for the positioning shot. expected waveform in each spectral range compared.
  • typical signal profiles of several types of ammunition are stored in the evaluation unit 24 for each spectral range.
  • the ammunition type of the projectile that was fired is deposited, so that the typical signal courses for this projectile are called up and with the measured signal progressions, for example correspondingly FIG. 8 , can be compared.
  • the signal profile of the projectile effect 34 is thus examined in its time course of the intensity in all three spectral ranges.
  • the image conspicuities 64, 66, 68, 70 are only assigned to the projectile effect 34 if the signal curve in all tested spectral ranges corresponds to the stored signal characteristic within a predetermined deviation.
  • one or more of the spectral regions are limited to a relatively narrow spectral band.
  • the bandwidths of two spectral ranges namely the visual and ultraviolet spectral range are limited to a factor of 1.5, so that the frequency of the upper band end is 1.5 times as large as the frequency of the lower band end.
  • the width of the infrared spectral band is limited by a factor of 2, so that the frequency of the upper band end is twice as large as the frequency of the lower band end.
  • the projectile fired by the gun 18 may be a special signal projectile which burns with a marker fire of its own.
  • This marker fire differs significantly in its spectrum as well as the time course of the intensity of usual muzzle flashes or grenade explosions.
  • the signal profile of such a marking fire which, for example, first amplified in the ultraviolet range and then over a longer period of time in the visual area, in particular with a characteristic intensity and / or spectral course over time, can be compared with the stored signal waveform, so that the projectile effect 34 of the positioning shot is clearly recognizable as such.
  • a projectile effect 34 in particular a special positioning bullet or marking bullet, are also distinguished from interfering signals.
  • FIG. 9 shows the shooting of a salvo of six floors in their time course.
  • the first shot of the salvo is done.
  • the times t 2 , t 3 ,... The further shots of the salvo are fired.
  • the gun 18 is not or only slightly moved during the salvo, the corresponding projectile effects 34 should be visible at the same location of their effective image 36. If, therefore, six projectile effects 34, or more generally spoken: as many projectile effects as projectiles were shot in the salvo, found at one point in the object scene 2, this is a strong indication that they are actually projectile effects 34 of projectiles from the barrel weapon 18 acts.
  • time window in which the projectile effect 34 is expected is determined for each projectile. This too is in FIG. 9 shown.
  • Six time windows 50 are calculated, which lie in their temporal course according to the temporal coding.
  • the time interval between a firing time t i and the corresponding time window 50 can be determined from a distance between weapon system 14 and object 10 or a temping of the projectiles of the salvo, ie a preset period of time after firing, after which the projectile explodes.
  • the coding corresponds to the fourth to sixth and seventh to tenth image conspicuousness of the different projectile effects of the projectiles from the salvo.
  • the seventh image conspicuousness falls through an even greater bullet effect from the salvo series.
  • the weapon system 14 is equipped with a plurality of modules 72 for detecting the projectile effects 34. These modules 72 are in FIG. 1 indicated.
  • the different modules 72 for determining the projectile effect 34 can be used individually or in combination according to an operator input or an evaluation result of the evaluation unit 24. It is also decisive which Cameras 22 are present in the weapon system 14, which spectral filters are present, which bullets are available for positioning shots and which bullets are used and the like. For example, one of the modules 72 determines an expected range in the object images or an active image in which the projectile effect 34 is expected. Another module 72 determines a time window 50 in which the floor effect 34 is expected. Another module 72 evaluates different radiation spectra of the projectile effect. Another module 72 controls the use of multiple cameras 22 in different spectral ranges for comparison of spectrally different image conspicuities 64, 66, 68.
  • Another module 72 controls the use of special marker ammunition for positioning shots, which is different from later lost ammunition. This module 72 also controls the corresponding examination of the image conspicuities 64, 66, 68 for their similarity to stored radiation profiles. Another module 72 controls the use of a Markersalve with several successive projectiles and evaluates the image abnormalities accordingly.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Aiming, Guidance, Guns With A Light Source, Armor, Camouflage, And Targets (AREA)

Abstract

Die Erfindung geht aus von einem Verfahren zur Ablagekorrektur eines Waffensystems (14), bei dem ein Geschoss aus einer Rohrwaffe (18) des Waffensystems (14) in eine Zielrichtung (30) auf ein Objekt (10) verschossen wird, eine Richtung (38) eines Wirkpunkts des Geschosses am Objekt (10) erfasst wird, die Richtungsdifferenz (40) zwischen der Zielrichtung (30) und der Wirkpunktrichtung (38) als Ablage (A) erfasst wird und eine Zielrichtung eines späteren Schusses auf das Objekt (10) unter Verwendung der Ablage (A) korrigiert wird. Um eine schnelle und zuverlässige Ablagekorrektur zu erreichen, wird vorgeschlagen, dass die Wirkpunktrichtung (38) erfasst wird, indem ein Wirkbild (36) aufgenommen wird, das die Geschosswirkung (34, 54) am Objekt (10) darstellt, und die Wirkpunktrichtung (38) aus dem Wirkbild (36) bestimmt wird.The invention is based on a method for correction of the position of a weapon system (14), in which a projectile is fired from a gun (18) of the weapon system (14) in a target direction (30) onto an object (10), a direction (38). an object of action of the projectile at the object (10) is detected, the direction difference (40) between the target direction (30) and the direction of effect (38) is detected as a deposit (A) and a target direction of a later shot on the object (10) using the tray (A) is corrected. In order to achieve a fast and reliable offset correction, it is proposed that the direction of effect (38) be detected by taking an effective image (36) representing the projectile effect (34, 54) on the object (10) and the direction of the direction of the effect (38 ) is determined from the active image (36).

Description

Die Erfindung betrifft ein Verfahren zur Ablagekorrektur eines Waffensystems, bei dem ein Geschoss aus einer Rohrwaffe des Waffensystems in eine Zielrichtung auf ein Objekt verschossen wird, eine Richtung eines Wirkpunkts des Geschosses vom Objekt erfasst wird, die Richtungsdifferenz zwischen der Zielrichtung und der Wirkpunktrichtung als Ablage erfasst wird und eine Zielrichtung eines späteren Schusses auf das Objekt unter Verwendung der Ablage korrigiert wird.The invention relates to a method for correction of a weapon system, in which a projectile from a gun weapon of the weapon system is fired at a target on an object, a direction of an action point of the projectile is detected by the object, the direction difference between the target direction and the Wirkpunakichtung detected as a shelf and a targeting of a later shot on the object is corrected using the bin.

Schüsse von Rohrwaffen unterliegen hinsichtlich ihrer Zielgenauigkeit einer gewissen Streuung. Hierbei kann eine kleine Streuung innerhalb einer einzelnen Schusssequenz bei unveränderter Ausrichtung des Rohrs von einer größeren Streuung über längere Zeiträume und verschiedene Waffenexemplare unterschieden werden. In der Regel weisen Maschinenwaffen eine sehr kleine kurzfristige Streuung auf, die im Allgemeinen tolerierbar ist. Die grobe Streuung wird hingegen von längerfristigen Veränderungen bewirkt, beispielsweise einem Transport der Waffe, Temperatureffekten, Windveränderungen von Tag zu Tag und dergleichen. Die grobe Streuung kann insofern in einer Kampfsituation zu einer systematisch falschen Ablage führen, bei der die Rohrwaffe mit hoher Genauigkeit zwar reproduzierbar auf ein kleines Streugebiet trifft, dieses Streugebiet der Einschläge aber neben dem Zielobjekt liegt.Shots from guns are subject to a degree of variance with regard to their accuracy. In this case, a small scattering within a single shot sequence with unchanged orientation of the tube can be distinguished from a larger spread over longer periods of time and different weapons copies. As a rule, machine guns have a very small short-term spread, which is generally tolerable. The coarse scattering, however, caused by long-term changes, such as a transport of the weapon, temperature effects, wind changes from day to day and the like. The coarse scattering can thus lead in a combat situation to a systematically wrong filing, in which the barrel weapon with high accuracy, although reproducibly hits a small scattering area, this scattering area of the impacts but located next to the target object.

Um einen solchen Ablagefehler zu erfassen, kann ein Positionierschuss auf das Zielobjekt oder allgemein in eine gewünschte Zielrichtung verschossen werden. Nun wird der Einschlag des Positioniergeschosses erfasst und hierdurch ausgehend vom Rohr bis zum Einschlagpunkt eine Wirkpunktrichtung. Der Abstand vom Einschlag bis zum Zielobjekt bzw. die Richtungsdifferenz von der Wirkpunktrichtung zur Zielrichtung kann nun als Ablage bestimmt werden. Ein späterer Schuss kann unter Verwendung der Ablage korrigiert werden, sodass dieser spätere Schuss das Zielobjekt trifft.In order to detect such a storage error, a positioning shot at the target object or generally in a desired target direction can be fired. Now the impact of the positioning projectile is detected and thereby starting from the pipe to the point of impact a direction of effect. The distance from the impact to the target object or the direction difference from the direction of the direction of impact to the target direction can now be determined as a file. A later shot can be corrected using the clipboard so that this later shot hits the target object.

Es ist eine Aufgabe der vorliegenden Erfindung, ein Verfahren zur Ablagekorrektur eines Waffensystems anzugeben, das zuverlässig arbeitet und zügig durchgeführt werden kann.It is an object of the present invention to provide a method of storage correction of a weapon system which operates reliably and can be performed quickly.

Diese Aufgabe wird durch ein Verfahren der eingangs genannten Art gelöst, bei dem erfindungsgemäß die Wirkpunktrichtung erfasst wird, indem ein Wirkbild aufgenommen wird, das die Geschosswirkung am Objekt darstellt, und die Wirkpunktrichtung aus dem Wirkbild bestimmt wird. Mit der Bestimmung der Wirkpunktrichtung aus dem Wirkbild kann - die Zielrichtung, in die gezielt wurde, als bekannt vorausgesetzt - die Richtungsdifferenz zwischen Zielrichtung und Wirkpunktrichtung automatisiert und zügig erfasst werden. Die Ausrichtung der Maschinenwaffe kann automatisiert in Abhängigkeit von der Ablage korrigiert werden, sodass die automatische Korrektur von der Bestimmung der Wirkpunktrichtung im Wirkbild bis zur Richtungskorrektur des Waffenrohrs sehr zügig und zuverlässig durchgeführt werden kann.This object is achieved by a method of the aforementioned type, in which according to the invention the direction of effect is detected by taking an effective image which represents the projectile effect on the object, and the direction of the effect is determined from the effective image. With the determination of the direction of effect from the active image, the directional difference between the target direction and the direction of the direction of impact can be detected automatically and swiftly - assuming that the targeted direction was assumed to be known. The alignment of the machine gun can be automatically corrected depending on the filing, so that the automatic correction of the determination of the direction of the direction of action in the active pattern to the direction correction of the gun barrel can be carried out very quickly and reliably.

Das Waffensystem kann eine Maschinenwaffe umfassen zum Verschießen von Munition im Salvenschuss, bei dem automatisiert mehrere Schüsse hintereinander abgegeben werden können. Nachfolgende Schüsse stehen hierbei zweckmäßigerweise in einem automatisierten Verhältnis zum vorhergehenden Schuss, beispielsweise in der Abschusszeitdifferenz und/oder der automatisierten Ablagekorrektur. Zweckmäßigerweise ist ein Steuerrechner vorhanden, der eine Rohrwaffe des Waffensystems automatisch ausrichtet, beispielsweise anhand von Anweisungen eines Bedieners.The weapon system may include a machine gun for firing ammunition in salvo fire, in which automated shots can be fired in succession. Subsequent shots are expediently in an automated ratio to the previous shot, for example in the launch time difference and / or the automated stack correction. Conveniently, a control computer is provided which automatically aligns a gun weapon of the weapon system, for example, based on instructions from an operator.

Die Zielrichtung ist zweckmäßigerweise bekannt, zum Beispiel aus einem Zielvorgang. Zur Durchführung des Zielvorgangs kann das Objekt in einem Zielbild aufgenommen werden, und ein Bediener kann das abgebildete Objekt markieren, beispielsweise mit einem Fadenkreuz. Die Markierung legt die Richtung vom Waffensystem zum Objekt und damit die Zielrichtung fest. Die Zielrichtung muss keine geobezogene Absolutrichtung sein, sondern kann eine Relativrichtung sein, beispielsweise zu einer Referenzrichtung des Waffensystems, wie einer Bildecke, einer Rohrausrichtung oder dergleichen.The destination direction is expediently known, for example from a destination process. To perform the aiming operation, the object may be captured in a target image, and an operator may mark the imaged object, for example with a crosshair. The marker determines the direction from the weapon system to the object and thus the target direction. The target direction need not be a geoid absolute direction, but may be a relative direction, for example, to a reference direction of the weapon system, such as a picture corner, a Rohrausrichtung or the like.

Der Wirkpunkt des Geschosses ist ein Punkt, an dem das Geschoss eine Wirkung sichtbar entfaltet, beispielsweise als Explosion, deren Explosionsblitz sichtbar ist. Möglich ist auch eine Staubaufwirbelung durch eine Detonationsdruckwelle, eine Rauchwolke oder eine andere sichtbare Wirkung. Der Wirkpunkt liegt am Objekt und kann insofern unmittelbar am Objekt liegen, beispielsweise in Form eines Einschlags in das Objekt, oder sich in einer Nachbarschaft des Objekts befinden. Wird das Geschoss beispielsweise mit einer Tempierung abgeschossen und zündet in der Nähe des Objekts, beispielsweise um eine Streuwirkung zu erreichen, so liegt auch in diesem Falle der Wirkpunkt des Geschosses am Objekt.The point of action of the projectile is a point at which the projectile unfolds an effect visibly, for example as an explosion, whose explosive lightning is visible. Also possible is a Aufaufwirbelung by a detonation pressure wave, a Cloud of smoke or other visible effect. The point of action lies on the object and can therefore be located directly on the object, for example in the form of an impact on the object, or in a neighborhood of the object. If the projectile is fired, for example, with a tempition and ignites in the vicinity of the object, for example, to achieve a scattering effect, so is the point of action of the projectile on the object in this case.

Die Ablage muss nicht die absolute Ablage sein und kann nachfolgend noch verändert bzw. korrigiert werden, beispielsweise durch einen Vorhalt bei einem sich beschleunigend bewegenden Zielobjekt. Auch ein anderer Parameter kann zur Korrektur der Ablage verwendet werden, beispielsweise die Messung von veränderlichem Wind, eine Erschütterung der Waffe, eine vorausgeschätzte Beschleunigung des Zielobjekts und dergleichen.The filing does not have to be the absolute filing and can subsequently still be changed or corrected, for example, by a lead in the case of an accelerating moving target object. Also, another parameter may be used to correct the deposit, such as the measurement of variable wind, vibration of the weapon, anticipated acceleration of the target, and the like.

Ein mögliches Verfahren zur Ablagekorrektur des Waffensystems, also der Korrektur der Ausrichtung des Waffensystems anhand der ermittelten Ablage, kann die Schritte der Bestimmung der Zielrichtung, die Bestimmung der Wirkpunktrichtung, die Bestimmung der Ablage und die Ablagekorrektur der Maschinenwaffe umfassen. Zur Bestimmung der Zielrichtung kann ein optisches System mit einer Kamera das Objekt aufnehmen, zweckmäßigerweise in einer regelmäßigen, insbesondere kontinuierlichen Abfolge von Bildern. Diese Bilder können einem Bediener auf einem Bildschirm gezeigt werden, sodass dieser das Objekt - wie in einem Film - verfolgen kann. Der Bediener kann das Objekt aussuchen und eine Markierung darauf richten, beispielsweise ein Fadenkreuz. Bei einer Relativbewegung des Objekts relativ zur Kameraausrichtung kann der Bediener die Markierung dem Objekt nachführen, oder das Objekt wird automatisch getrackt, sodass die Markierung automatisiert dem Objekt nachgeführt wird. Hierfür wird das Objekt als solches im Objektbild erfasst und in den nachfolgenden Objektbildern erkannt, sodass die Markierung von Objektbild zu Objektbild mit dem sich bewegenden Objekt nachgeführt wird. Aus der Lage der Markierung in einem Objektbild kann die Zielrichtung bei Abschuss des Geschosses bestimmt werden, beispielsweise relativ zur Kameraausrichtung bzw. dem Objektbild oder auch absolut, wenn eine absolute Ausrichtung der Kamera bzw. des Objektbilds im Raum bekannt ist.One possible method for correction of the position of the weapon system, ie the correction of the orientation of the weapon system on the basis of the determined deposit, may comprise the steps of determining the target direction, determining the direction of the direction of the effect, determining the deposit and the deposit correction of the machine weapon. To determine the target direction, an optical system with a camera can record the object, expediently in a regular, in particular continuous sequence of images. These images can be displayed to an operator on a screen so that they can track the object as in a movie. The operator can select the object and direct a mark on it, such as a crosshair. In the case of a relative movement of the object relative to the camera orientation, the operator can trace the marking to the object, or the object is automatically tracked so that the marking is automatically tracked to the object. For this purpose, the object is detected as such in the object image and recognized in the subsequent object images, so that the marking is tracked from object image to object image with the moving object. From the position of the mark in an object image, the target direction can be determined when shooting down the bullet, for example relative to the camera orientation or the object image or even absolutely, if an absolute orientation of the camera or the object image in space is known.

Zur Erfassung der Geschosswirkung kann ein Objektbild mithilfe bildverarbeitender Methoden auf Bildauffälligkeiten untersucht werden, die einer Geschosswirkung zugerechnet werden können. Wird eine Bildauffälligkeit gefunden, die in einem vorgegebenen Maß einer Geschosswirkung ähnelt, kann die Lage dieser Bildauffälligkeit im Objektbild bestimmt werden. Das Objektbild ist nun ein Wirkbild, das die Wirkung des Geschosses zeigt. Die Wirkpunktrichtung kann nun aus der Lage der Geschosswirkung bzw. der Bildauffälligkeit im Wirkbild ermittelt werden und kann ggf. die Lage unmittelbar selbst sein.To capture the projectile effect, an object image can be examined for image abnormalities using image processing methods, which can be assigned to a projectile effect. If an image conspicuity is found in a given position of a projectile effect, the location of this image conspicuousness in the object image can be determined. The object image is now an active image that shows the effect of the projectile. The direction of the effect can now be determined from the position of the projectile effect or the image conspicuousness in the active image and may possibly be the situation itself.

Nun kann aus der Zielrichtung und der Wirkpunktrichtung die Richtungsdifferenz, beispielsweise durch Subtraktion, bestimmt werden und als zumindest vorläufige Ablage verwendet werden. Die Ausrichtung der Waffe wird nun unter Verwendung der Ablage korrigiert, und ein nachfolgender Schuss wird auf das Objekt gerichtet. Gegebenenfalls kann die Ablage wie oben beschrieben weiter korrigiert werden.Now the directional difference, for example by subtraction, can be determined from the target direction and the direction of the direction of the effect and used as at least provisional filing. The alignment of the weapon is now corrected using the bin, and a subsequent shot is aimed at the object. If necessary, the tray can be further corrected as described above.

Der Positionierschuss kann mit der gleichen oder anderer Munition durchgeführt werden, wie der spätere und ablagekorrigierte Bekämpfungsschuss, um beispielsweise die Geschosswirkung sichtbarer und prägnanter zu machen. Auch kann ein Positionierschuss aus einer Salve von mehreren Einzelschüssen bestehen, die hintereinander auf das Objekt gerichtet werden und deren Wirkung jeweils in einem Wirkbild erfasst wird.The positioning shot can be made with the same or different ammunition as the later and corrective shot control shot, for example, to make the bullet effect more visible and concise. Also, a positioning shot from a salvo consist of several individual shots, which are directed one behind the other on the object and their effect is detected in each case in an active image.

Das Wirkbild und das Zielbild können deckungsgleich übereinanderliegen, beispielsweise wenn die Ausrichtung einer die beiden Bilder aufnehmenden Kamera zwischen den beiden Aufnahmezeitpunkten nicht verändert wird. Wird die Zielrichtung im Zielbild erfasst und die Wirkpunktrichtung im Wirkbild, so können beide Richtungen dann unmittelbar miteinander verglichen werden, beispielsweise voneinander abgezogen werden, sodass sich hieraus die Richtungsdifferenz und damit die Ablage ergibt. Es kann jedoch auch sein, dass das spätere Wirkbild zum Zielbild verschoben ist durch eine Bewegung der aufnehmenden Kamera, die beispielsweise vom Bediener oder durch Autotracking dem Objekt nachgeführt wurde. Auch eine Bewegung eines das Waffensystem tragenden Fahrzeugs kann zu einer Bewegung der Kamera und damit einer Verschiebung des Wirkbilds zum Zielbild führen.The active image and the target image can overlap one another congruently, for example if the orientation of a camera receiving the two images is not changed between the two recording times. If the target direction is detected in the target image and the direction of effect is in the active image, then both directions can then be directly compared with one another, for example deducted from one another, so that the directional difference and thus the offset results therefrom. However, it may also be that the later active image is shifted to the target image by a movement of the receiving camera, which has been tracked for example by the operator or by auto-tracking the object. A movement of a vehicle carrying the weapon system can lead to a movement of the camera and thus a shift of the active image to the target image.

Um in diesem Fall die Richtungsdifferenz erfassen zu können, wird in einer vorteilhaften Ausgestaltung der Erfindung ein das Objekt abbildendes Zielbild aufgenommen, und die Zielrichtung wird im Zielbild festgelegt. Das Zielbild kann nun mit dem später aufgenommenen Wirkbild unter Verwendung einer Mustererkennung in den beiden Bildern korreliert werden. Auf diese Weise können die beiden Bilder übereinandergelegt werden, sodass ein in beiden Bildern abgebildeter Gegenstand in Deckung gebracht wird. Aus der Korrelierung kann eine Relativlage der beiden Bilder zueinander bestimmt werden. Aus der Relativlage der beiden Bilder und der Lage der Zielrichtung im Zielbild und der Wirkpunktrichtung im Wirkbild kann die Richtungsdifferenz bestimmt werden.In order to be able to detect the directional difference in this case, in an advantageous embodiment of the invention, a target image which images the object is taken, and the target direction is defined in the target image. The target image can now be correlated with the later captured image using pattern recognition in the two images. In this way, the two images can be superimposed, so that an imaged in both images in Cover is brought. From the correlation, a relative position of the two images to each other can be determined. The directional difference can be determined from the relative position of the two images and the position of the target in the target image and the direction of the effect in the active image.

Zwischen dem Abschuss und der Erkennung der Geschosswirkung können - je nach Entfernung des anvisierten Objekts - mehrere Sekunden vergehen. In dieser Zeit kann es sein, dass eine Zielmarkierung mit dem Objekt mitgeführt wird, beispielsweise in nachfolgenden Objektbildern. Für das Bestimmen der Zielrichtung maßgeblich ist hierbei zweckmäßigerweise die Zielrichtung zum Zeitpunkt des Abschusses des Geschosses.It may take several seconds between the launch and the detection of the projectile effect, depending on the distance of the targeted object. In this time, it may be that a target mark is carried along with the object, for example in subsequent object images. Decisive for determining the target direction is expediently the target direction at the time of firing of the projectile.

Insofern wird in einer weiteren vorteilhaften Ausgestaltung der Erfindung ein das Objekt zum Abschusszeitpunkt abbildendes Zielbild aufgenommen, und die Zielrichtung wird im Zielbild festgelegt. Das Zielbild wird insofern zweckmäßigerweise zum Abschusszeitpunkt aufgenommen. Bei einer Serie von Bildern kann dasjenige Bild als Zielbild verwendet werden, dessen Aufnahmezeitpunkt den geringsten Zeitabstand zum Abschusszeitpunkt aufweist. Nach dem Abschuss des Geschosses wird nun eine Folge von das Objekt abbildenden Objektbildern aufgenommen, wobei eine Zielmarkierung in diesen Bildern mit der Bewegung des Objekts mitgeführt werden kann. Zur Bestimmung der Ablage wird zweckmäßigerweise nur die Zielrichtung aus dem Zielbild verwendet. Das Zielbild kann insofern ein Bild sein, in dem das Ziel bzw. das Objekt bei Abschuss markiert ist.In this respect, in a further advantageous embodiment of the invention, a target image which images the object at the time of shooting is taken, and the target direction is defined in the target image. The target image is expediently recorded at the time of shooting. In the case of a series of images, the image which has the smallest time interval from the time of shooting can be used as the target image. After firing the projectile, a sequence of object images is recorded, whereby a target marker in these images can be carried along with the movement of the object. To determine the filing, only the target direction from the target image is expediently used. The target image can be an image in which the target or object is marked at launch.

Es kann vorkommen, dass eine Bildauffälligkeit in einem Objektbild nicht so gut zu erkennen ist, dass sie eindeutig als Geschosswirkung klassifiziert werden kann, und selbst wenn sie als Geschosswirkung klassifiziert werden kann, der Wirkort bzw. die Wirkpunktrichtung nicht genau festgestellt werden kann. Ein solcher Fall kann auftreten, wenn ein Explosionsblitz hinter einer Staubwand verschwindet oder ein anderer Einfluss ähnlich aussieht wie eine Geschosswirkung.It may happen that an image conspicuity in an object image is not so well recognizable that it can be clearly classified as a projectile effect, and even if it can be classified as a projectile effect, the site of action or the direction of the impact can not be determined exactly. Such a case can occur when an explosion flash disappears behind a dust wall or another influence looks similar to a bullet effect.

Um dennoch zu einem auswertbaren Ergebnis zu kommen, wird vorgeschlagen, dass eine Abfolge von das Objekt abbildenden Objektbildern aufgenommen wird, die Bilder der Abfolge auf die Geschosswirkung untersucht werden und mehrere Objektbilder, in denen die Geschosswirkung bildhaft gefunden wird, als Wirkbilder auf eine Entwicklung der bildhaften Geschosswirkung in den Wirkbildern ausgewertet werden. So kann beispielsweise aus einer Ausdehnung einer Rauch- oder Staubwolke auf einen Einschlagpunkt und auch eine Einschlagzeit geschlossen werden. Ebenfalls wäre es möglich, aus einem Verlauf eines Abbrands eines Geschosses auf die Geschossart zu schließen und damit einen Markierungsschuss von einem Schuss aus einem anderen Geschütz zu unterscheiden. So kann beispielsweise die Entwicklung mit einem Signalverlauf verglichen werden, der typisch für einen Signalverlauf des Geschosses, insbesondere für ein Markierungsfeuer einer speziellen Munitionsart für einen Positionierungsschuss ist. Wird beispielsweise mit einem Leuchtspurgeschoss geschossen, so kann die Leuchtspur in den mehreren Wirkbildern verfolgt werden, und ein Wirkpunkt kann eindeutig dem Geschoss zugeordnet werden.In order nevertheless to arrive at an evaluable result, it is proposed that a sequence of object images depicting object images is taken, the images of the sequence are examined for the projectile effect and a plurality of object images in which the projectile effect is pictorially found, as effect images on a development of the pictorial projectile effect in the impact images are evaluated. For example, from an expansion of a cloud of smoke or dust on one Turning point and also an impact time to be closed. It would also be possible to deduce from a course of a fire of a projectile on the Geschossart and thus to distinguish a marker shot from a shot from another gun. For example, the development may be compared to a waveform typical of a bullet waveform, in particular a marker fire of a particular type of ammunition for a positioning shot. For example, when shooting with a tracer bullet, the tracer can be tracked in the multiple impact images, and an impact point can be clearly assigned to the projectile.

Je nach Art der bei einem Positionierschuss verwendeten Markierungsmunition kann das abschießende Waffensystem vom Zielobjekt leicht zu erkennen sein. Hierdurch entsteht die Gefahr der Gegenbekämpfung. Je nach Markierungsmunition kann es daher vorteilhaft sein, wenn diese nur verschossen wird, wenn zuvor die Auswertung eines früheren Positionierschusses ungenügend ist. Zeigt beispielsweise die Kampfszene, dass ein Positionierschuss mit normaler Bekämpfungsmunition nur ungenügend hinsichtlich seines Wirkpunkts zu erkennen ist, kann in einem nachfolgenden Schuss mit spezieller Markierungsmunition ein weiterer Positionierschuss gesetzt werden.Depending on the type of marker ammunition used in a positioning shot, the firing weapon system can be easily recognized by the target object. This creates the danger of counter-fighting. Depending on the marker ammunition, it may therefore be advantageous if it is only fired if previously the evaluation of a previous positioning shot is insufficient. If, for example, the combat scene shows that a positioning shot with normal combat ammunition is only insufficiently recognizable with regard to its point of effect, another positioning shot can be made in a subsequent shot with special marker ammunition.

Bei einem Beschuss kann es sein, dass sich das Objekt verteidigt, indem es Störsignale erzeugt, beispielsweise in Form von Flares. Um in einem solchen Fall ein Störsignal nicht mit der Geschosswirkung zu verwechseln und damit die Wirkpunktrichtung falsch zu legen, ist es vorteilhaft, wenn Störsignale in einer Abfolge von Wirkbildern oder Objektbildern als solche erkannt werden. Eine solche Erkennung kann geschehen, indem ihr zeitliches Auftreten, beispielsweise ihres Signalbeginns, ein zeitlicher Signalverlauf und/oder ein Strahlungsspektrum der Störsignale ausgewertet wird. So können die Signale mit einem entsprechenden Parameter einer erwartenden Geschosswirkung verglichen werden oder mit einem entsprechenden Parameter von bekannten Störelementen. Wird beispielsweise erkannt, dass ein zeitliches Auftreten eines Störsignals nicht von einer Geschosswirkung herrühren kann, da beispielsweise das Geschoss das Objekt noch nicht erreicht haben kann, kann die entsprechende Bildauffälligkeit als Störsignal erkannt werden. Das Gleiche gilt für einen zeitlichen oder räumlichen Signalverlauf. Bewegt sich beispielsweise ein Flare so, wie es vom Positioniergeschoss nicht zu erwarten ist, kann auch hier die Bildauffälligkeit als Störsignal erkannt werden.During a fire, the object may defend itself by generating spurious signals, for example in the form of flares. In order not to confuse an interference signal with the projectile effect in such a case and thus to misrepresent the direction of the effect, it is advantageous if interference signals in a sequence of images or object images are recognized as such. Such a detection can be done by their temporal occurrence, for example, their signal start, a temporal waveform and / or a radiation spectrum of the noise is evaluated. Thus, the signals can be compared with a corresponding parameter of an expected projectile effect or with a corresponding parameter of known interference elements. If it is detected, for example, that a temporal occurrence of an interference signal can not result from a projectile effect, since, for example, the projectile may not yet have reached the object, the corresponding image conspicuousness can be recognized as an interference signal. The same applies to a temporal or spatial signal course. If, for example, a flare moves as it is not to be expected from the positioning floor, the image conspicuousness can also be detected as an interference signal.

Gerade bei schweren Gefechten kann es vorkommen, dass ein komplexes Kampfgeschehen in einem Objektbild abgebildet wird. Im Objektbild ist beispielsweise ein Mündungsfeuer erkennbar oder der Einschlag bzw. die Explosion eines fremden Geschosses aus einer anderen Waffe oder dergleichen. Ein Objektbild kann insofern eine Mehrzahl von Bildauffälligkeiten aufweisen, die daraufhin zu untersuchen sind, ob sich hinter ihnen die gesuchte Geschosswirkung verbirgt. Eine solche Auswertung kann rechenintensiv und damit zeitintensiv sein. Gerade bei Explosionsblitzen fremder Geschosse kann zudem eine Verwechslung eintreten, sodass eine Ablage falsch erfasst wird.Especially in heavy battles, it can happen that a complex battle is depicted in an object image. In the object image, for example, a muzzle flash is recognizable or the impact or the explosion of a foreign projectile from another weapon or the like. In this respect, an object image can have a plurality of image conspicuities, which are then to be examined as to whether the sought-after floor effect hides behind them. Such an evaluation can be computationally intensive and thus time consuming. Especially with explosive flashes of foreign bullets can also be a confusion occur, so that a filing is detected incorrectly.

Hinsichtlich einer oder mehrer dieser Probleme ist es vorteilhaft, wenn eine Bildauswertung in einem Objektbild räumlich begrenzt wird auf einen Erwartungsbereich, in dem die Geschosswirkung erwartet wird. Ein Erwartungsbereich kann beispielsweise begrenzt werden auf die lokale Umgebung des nominellen Zielpunkts, beispielsweise um die Zielrichtung herum. Insofern ist es zweckmäßig, den Erwartungsbereich als einen Teilbereich in einem das Objekt abbildenden Objektbild auszuwählen und ein Auswertungsergebnis innerhalb des Erwartungsbereichs anders zu gewichten, insbesondere höher zu gewichten, als ein Auswertungsergebnis außerhalb des Erwartungsbereichs. Die Größe des Erwartungsbereichs liegt zweckmäßigerweise bei maximal der halben Bildfläche des Objektbilds, insbesondere bei maximal 1/10 der Bildfläche des Objektbilds. Ein Auswertungsergebnis ist beispielweise ein Berechnungsergebnis, ob eine Bildauffälligkeit die Geschosswirkung darstellen könnte, beispielsweise eine Wahrscheinlichkeit, dass eine Bildauffälligkeit die Geschosswirkung darstellt. Eine Gewichtung könnte in der Art erfolgen, dass eine Bildauffälligkeit außerhalb des Erwartungsbereichs mit einer kleineren Wahrscheinlichkeit als Geschosswirkung klassifiziert wird, als die gleiche Bildauffälligkeit innerhalb des Erwartungsbereichs.With regard to one or more of these problems, it is advantageous if an image evaluation in an object image is spatially limited to an expectation range in which the projectile effect is expected. For example, an expectation range may be limited to the local environment of the nominal target point, for example around the target direction. In this respect, it is expedient to select the expectation range as a partial region in an object image which images the object and to weight an evaluation result differently within the expectation range, in particular to weight it higher than an evaluation result outside the expectation range. The size of the expected range is expediently at most half the image area of the object image, in particular at a maximum of 1/10 of the image area of the object image. An evaluation result is, for example, a calculation result as to whether an image conspicuity could represent the projectile effect, for example a probability that an image conspicuity represents the projectile effect. A weighting could be made such that a picture image outside the expectation range is classified with a lesser probability as a floor effect than the same image detail within the expectation range.

Je nach Größe des Erwartungsbereichs und bei einer nur kleinen Wahrscheinlichkeit, dass eine Geschosswirkung außerhalb des Erwartungsbereichs zu erwarten ist, kann es auch sinnvoll sein, den Bereich der Bildverarbeitung auf den Erwartungsbereich einzuschränken, also lediglich den Erwartungsbereich auf die Geschosswirkung zu untersuchen. Bildauffälligkeiten, beispielsweise ein Explosionsblitz, die außerhalb dieses Bereichs detektiert werden, führen dann nicht zu einer fehlerhaften Ausrichtung der eingesetzten Rohrwaffe. Insofern ist es vorteilhaft, wenn zur Bestimmung der Wirkpunktrichtung, aus der die Ablage bestimmt wird, eine Bildauffälligkeit, die eine Geschosswirkung darstellen könnte, deren Lage außerhalb des Erwartungsbereichs liegt, verworfen wird.Depending on the size of the expectation range and with only a small probability that a projectile effect can be expected outside of the expected range, it may also be useful to restrict the area of image processing to the expected range, ie only to investigate the expected range for the projectile effect. Image abnormalities, such as an explosive flash, which are detected outside this range, then do not lead to incorrect alignment of the inserted tube weapon. In this respect, it is advantageous if, in order to determine the direction of the direction of the puncture, an image conspicuousness, which is a Projectile effect, whose situation lies outside the expectation range, is discarded.

Ein Erwartungsbereich kann sich in mehrere Bereiche aufteilen. So kann der Erwartungsbereich einen Kernbereich mit einer höchsten Gewichtung und einen Randbereich mit einer niedrigeren Gewichtung umfassen, ggf. sogar noch einen dritten Außenbereich mit einer noch geringeren Gewichtung, die jedoch größer ist als die Gewichtung außerhalb des Erwartungsbereichs. Auch ein kontinuierlicher Gewichtungsverlauf, der mit wachsendem Abstand zu einem Erwartungspunkt, in der man die Geschosswirkung des Positionierschusses erwartet, abnimmt, ist möglich.An expectation range can be divided into several areas. Thus, the expected range may comprise a core area with a highest weighting and a border area with a lower weighting, possibly even a third outdoor area with an even lower weighting, but which is greater than the weighting outside the expectation range. It is also possible to have a continuous weighting curve which decreases with increasing distance to an expectation point in which the projectile effect of the positioning shot is expected.

Die Größe des Erwartungsbereichs im Objektbild ist zweckmäßigerweise nicht starr, sondern kann in Abhängigkeit von einem oder mehreren Parametern gewählt werden. Hierfür kann der Parameter einer bauartspezifischen Ablagestreuung des Geschützes verwendet werden. Auch die individuelle Ablagestreuung des Geschützes stellt einen sinnvollen solchen Parameter dar. Geschützunabhängig kann eine Windstärke und/oder eine Windrichtung berücksichtigt werden. Auch eine Bewegung eines das Geschütz tragenden Fahrzeugs während des Abschusses und/oder eine Temperatur eines Geschützteils sind Parameter, die vorteilhaft Berücksichtung finden können.The size of the expectation range in the object image is expediently not rigid, but can be selected as a function of one or more parameters. For this purpose, the parameter of a type-specific storage spread of the gun can be used. Also, the individual filing spread of the gun represents a meaningful such parameter. Gun-independent wind force and / or a wind direction can be considered. Movement of a vehicle carrying the gun during firing and / or a turret temperature are also parameters that may be taken into account.

Eine weitere vorteilhafte Ausführungsform der Erfindung sieht vor, dass ein Zeitfenster, innerhalb dessen die Geschosswirkung erwartet wird, bestimmt wird. Eine Auswertung einer Reihe von Objektbildern kann sich dann auf solche Objektbilder beschränken, die zumindest teilweise innerhalb des Zeitfensters liegen. Allgemein gesprochen kann eine Abfolge von das Objekt abbildenden Objektbildern aufgenommen werden und Bilder der Abfolge können auf die Geschosswirkung untersucht werden, wobei ein Wirkzeitpunkt einer Geschosswirkung innerhalb des Zeitfensters höher gewichtet wird als außerhalb des Zeitfensters.A further advantageous embodiment of the invention provides that a time window within which the projectile effect is expected is determined. An evaluation of a series of object images can then be limited to those object images that lie at least partially within the time window. Generally speaking, a sequence of object images depicting the object may be taken, and images of the sequence may be examined for the floor effect, with a time of action of a floor effect within the time window being weighted higher than outside the time window.

Aus dem Vorkommen einer Bildauffälligkeit in einem oder mehreren Objektbildern kann auf den Wirkzeitpunkt geschlossen werden, also auf den Zeitpunkt, bei dem eine mutmaßliche Geschosswirkung auftritt. Liegt dieser Wirkzeitpunkt außerhalb des Zeitfensters, so ist die Wahrscheinlichkeit größer, dass es sich bei der entsprechenden Bildauffälligkeit um eine andere Wirkung, beispielsweise eines anderes Geschützes handelt, als wenn der Wirkzeitpunkt innerhalb des Zeitfensters liegt. Der Wirkzeitpunkt kann hierbei ein Zeitpunkt sein, zu dem das Geschoss seine Wirkung entfaltet, insbesondere zu entfalten beginnt. Dauert beispielsweise ein Leuchtsignal einer Explosion oder der Abbrand eines Markiergeschosses eine längere Weile und wird beispielsweise in mehreren Objektbildern abgebildet, so liegt der Wirkzeitpunkt zu Beginn dieser Wirkung. Dies gilt auch dann, wenn der Wirkzeitpunkt an sich in den Bildern nicht sichtbar ist, beispielsweise weil ein Aufschlag verdeckt wird. Aus einer nachfolgenden Ausdehnung einer Rauch- oder Staubwolke, die durch die Geschossexplosion verursacht wurde, kann beispielsweise anhand der Ausdehnungsgeschwindigkeit auf den Zeitpunkt des Aufschlags bzw. der Explosion des Geschosses geschlossen werden. Dieser Zeitpunkt kann dann als Wirkzeitpunkt bestimmt werden.From the occurrence of an image conspicuousness in one or more object images can be concluded that the time of action, ie the time at which a suspected projectile effect occurs. If this time of action lies outside the time window, then the probability is greater that the corresponding image conspicuity is a different effect, for example a different artillery, than if the effective time is within the time window. The time of action may be a time at which the projectile unfolds its effect, in particular begins to unfold. For example, if a light signal takes one Explosion or the burning of a Markiergeschosses a longer while and is mapped, for example, in several object images, so is the effective time at the beginning of this effect. This is true even if the time of action is not visible in the pictures, for example because a serve is hidden. From a subsequent expansion of a smoke or dust cloud, which was caused by the Geschossexplosion can be concluded, for example, on the basis of the expansion rate on the time of impact or the explosion of the projectile. This time can then be determined as the effective time.

Je nach Größe des Zeitfensters, dem Abstand des Objekts vom Waffensystem oder anderen Parametern kann die Auswertung einer Bildauffälligkeit, die außerhalb des Zeitfensters liegt, unterbleiben, wenn deutlich ist, dass diese Bildauffälligkeit aus Zeitgründen nicht einer Geschosswirkung zugerechnet werden kann. Insofern ist es vorteilhaft, wenn zur Bestimmung der Wirkpunktrichtung, aus der die Ablage bestimmt wird, eine Bildauffälligkeit, die eine Geschosswirkung darstellen könnte, deren Wirkzeitpunkt außerhalb des Zeitfensters liegt, verworfen wird.Depending on the size of the time window, the distance of the object from the weapon system or other parameters, the evaluation of an image conspicuity that is outside the time window can be omitted, if it is clear that this image conspicuity can not be attributed to a projectile effect due to time constraints. In this respect, it is advantageous if, in order to determine the direction of effect from which the deposit is determined, an image conspicuousness, which could represent a projectile effect whose time of action lies outside the time window, is discarded.

Die Lage und/oder Größe des Zeitfensters kann aus einer Entfernung des Objekts von der Maschinenwaffe und/oder einer Tempierung des Geschosses bestimmt werden. So wird beispielsweise das Zeitfenster symmetrisch um den aus der Tempierung bekannten Explosionszeitpunkts des Geschosses gelegt.The location and / or size of the time window can be determined from a distance of the object from the machine gun and / or a temping of the projectile. Thus, for example, the time window is placed symmetrically around the known from the tempation explosion time of the projectile.

Zur Aufnahme der Geschosswirkung können mehrere Objektbilder hintereinander aufgenommen und entsprechend auf die Geschosswirkung bzw. entsprechende Bildauffälligkeiten ausgewertet werden. Eine Möglichkeit zur Einsparung von Rechenzeit und zur Vermeidung von fehlerhaften Auswertungen besteht darin, dass die Aufnahme eines Wirkbilds, in dem dann die bildliche Darstellung der Geschosswirkung erwartet wird, auf das Zeitfenster abgestimmt wird. So kann der Belichtungszeitraum bzw. Integrationszeitraum der Aufnahme des Wirkbilds in Abhängigkeit von der Lage und Größe des Zeitfensters festgelegt werden. Zweckmäßigerweise liegt die zeitliche Lage der Integration innerhalb des Zeitfensters. Auf diese Weise kann die Auswertung auf ein einziges Bild beschränkt werden. Insbesondere wird der Integrationszeitraum um einen erwarteten Wirkzeitpunkt gelegt, beispielsweise symmetrisch um den erwarteten Wirkzeitpunkt herum.To record the projectile effect, several object images can be taken in succession and evaluated according to the projectile effect or corresponding image abnormalities. One way to save on computation time and to avoid erroneous evaluations is that the inclusion of an active image, in which then the pictorial representation of the projectile effect is expected, is matched to the time window. Thus, the exposure period or integration period of the recording of the active image can be determined as a function of the position and size of the time window. Expediently, the temporal position of the integration lies within the time window. In this way, the evaluation can be limited to a single image. In particular, the integration period is set by an expected effective time, for example symmetrically around the expected time of action.

Wird der Aufschlagpunkt und/oder der Explosionspunkt des Geschosses verdeckt, beispielsweise von Rauch, Staub oder einem Gegenstand, so ist die Bestimmung des Wirkzeitpunkts aus nur einem Wirkbild fehleranfällig. Um diesem Nachteil zu begegnen, ist es vorteilhaft, wenn eine Entwicklung der bildhaften Geschosswirkung in einer Abfolge von Wirkbildern ausgewertet wird. Auf diese Weise kann beispielsweise aus einer Ausdehnung einer Rauchwolke durch Rückrechnung auf deren Entstehungszeitpunkt und damit auf den Wirkzeitpunkt geschlossen werden. Eine andere Möglichkeit besteht darin, dass der Abbrand eines Markierungsgeschosses nicht von Anfang an sichtbar ist, beispielsweise weil der Abbrand zu klein angefangen hat. Wird der Abschluss des Abbrands oder eine signifikante Abbrandphase jedoch erkannt und ist beispielsweise eine Gesamtdauer des Abbrands oder der Verlauf des Abbrands bekannt, kann auch auf diese Weise der Wirkzeitpunkt, also der Zeitpunkt, an dem die Geschosswirkung begann, bestimmt werden. Insofern ist es vorteilhaft, wenn aus der Rückbetrachtung der Entwicklung ein Wirkzeitpunkt ermittelt wird. Anschließend kann geprüft werden, ob der Wirkzeitpunkt im Zeitfenster liegt.If the impact point and / or the explosion point of the projectile is obscured, for example by smoke, dust or an object, the determination of the action time from only one effective image is prone to error. In order to counteract this disadvantage, it is advantageous if a development of the pictorial projectile effect is evaluated in a sequence of active images. In this way it can be concluded, for example, from an expansion of a cloud of smoke by recalculation to its time of origin and thus to the time of action. Another possibility is that the burnup of a marker bullet is not visible from the beginning, for example, because the burn-up has started too small. However, if the completion of the burnup or a significant burnup phase is detected and, for example, a total duration of the burnup or the course of the burnup is known, the time of action, ie the time at which the bullet effect began, can also be determined in this way. In this respect it is advantageous if, from the retrospective analysis of the development, a time of action is determined. Subsequently, it can be checked whether the time of action lies in the time window.

Insbesondere wenn die Wirkbilder im infraroten Spektralbereich aufgenommen werden, ist es vorteilhaft, wenn die Entwicklung der bildhaften Geschosswirkung untersucht wird. Die Vergrößerung eines Hitzebereichs, beispielsweise hervorgerufen durch die Geschossexplosion, kann verfolgt werden, und daraus kann auf den Wirkzeitpunkt durch Rückrechnung geschlossen werden. Zudem kann es sein, dass die Integrationsdauer der Aufnahme eines infraroten Wirkbilds größer ist als das Zeitfenster. Ganz allgemein, also auch unabhängig vom Zeitfenster, ist der Wirkzeitpunkt hierdurch aus einem einzigen Wirkbild nur ungenau zu bestimmen. Durch die Rückrechnung einer sich aufweitenden Wärmewolke kann jedoch auf den Zeitpunkt und/oder auf den Ort ihrer Entstehung rückgeschlossen werden.In particular, if the active images are recorded in the infrared spectral range, it is advantageous if the development of the pictorial projectile effect is investigated. The enlargement of a heat range, for example, caused by the projectile explosion, can be tracked, and it can be concluded on the date of action by recalculation. In addition, it may be that the integration duration of the recording of an infrared active image is greater than the time window. In general, and thus independent of the time window, the time of action can only be determined inaccurately from a single image. By recalculating an expanding thermal cloud, however, one can infer the time and / or location of its formation.

Je nach Szenerie kann es sein, dass die Bildszene in einem Objektbild starke Signalstrukturen und Kontraste aufweist. Solche Effekte können zwar evtl. durch eine geschickte Wahl des verwendeten Spektralbereichs einer aufnehmenden Kamera reduziert werden, sie vergrößern jedoch das Fehlerpotential bei der Erkennung einer Geschosswirkung gegebenenfalls signifikant. So gibt es vielfältige Arten von Falschzielen, die fehlerhaft auf eine Geschosswirkung schließen lassen, sodass die Ablage falsch berechnet wird. Beispiele hierfür sind andere Explosionen, brennende Gebäude, Feuer aller Art, Mündungsfeuer von Waffen im Zielgebiet, und Verschiedenes mehr.Depending on the scenery, it may be that the image scene in an object image has strong signal structures and contrasts. Although such effects may possibly be reduced by a judicious choice of the spectral range of a receiving camera used, they may significantly increase the potential for error in the detection of a projectile effect. Thus, there are many types of false targets that erroneously conclude a bullet effect, so that the filing is calculated incorrectly. Examples include other explosions, burning buildings, all kinds of fires, muzzle flashes of weapons in the target area, and more.

Um solche Falschziele zu verringern oder sogar zu unterdrücken, ist es vorteilhaft, das Objektbild mit einer intelligenten Bildkorrektur zu bearbeiten. Eine solche Bearbeitung erfolgt zweckmäßigerweise unter Verwendung eines zuvor aufgenommenen Objektbilds. So kann beispielsweise zwischen einem Abschuss des Geschosses und einem Wirkzeitpunkt des Geschosses zumindest ein Objektbild vom Objekt aufgenommen werden, wobei das später aufgenommene Wirkbild unter Verwendung dieses Objektbilds bearbeitet wird, beispielsweise durch das Verstärken von Bildunterschieden. Eine solche Bearbeitung kann insbesondere in einer Bildsubtraktion bestehen, sodass zum Beispiel Objektbild und Wirkbild voneinander subtrahiert werden. Die Geschosswirkung kann nun aus einer verbleibenden Bildauffälligkeit bestimmt werden und daraus die Wirkpunktrichtung. Auch starke Signalstrukturen können, sofern sie sich ausreichend langsam verändern, auf diese Weise verringert oder sogar unterdrückt werden. Ein Zeitraum, in dem ein zur Bildbearbeitung verwendetes Objektbild verwendet wird, wird hierbei zweckmäßigerweise von der Fluktuation der Signalstruktur in einer Reihe von Objektbildern festgelegt, also einer zeitlichen Veränderung der Signalstruktur.In order to reduce or even suppress such false targets, it is advantageous to edit the object image with a smart image correction. Such editing is conveniently done using a previously captured object image. Thus, for example, between a shot of the projectile and an effective time of the projectile at least one object image are taken from the object, the later recorded image is processed using this object image, for example by enhancing image differences. In particular, such a processing can consist of an image subtraction, so that, for example, the object image and the active image are subtracted from one another. The projectile effect can now be determined from a remaining image conspicuousness and from this the direction of the effect. Even strong signal structures, if they change sufficiently slowly, can be reduced or even suppressed in this way. A period in which an object image used for image processing is used is expediently determined by the fluctuation of the signal structure in a series of object images, that is to say a temporal change of the signal structure.

Um das Auftreten einer Geschosswirkung in einem größeren Zeitbereich zu erkennen, ist es vorteilhaft, wenn mehrere Objektbilder nacheinander mittels Bildbearbeitung, insbesondere Bildsubtraktion zumindest eines vorhergehenden, beispielsweise des jeweils vorhergehenden Objektbilds, auf eine Bildauffälligkeit, die eine Geschosswirkung darstellen könnte, untersucht werden.In order to detect the occurrence of a projectile effect in a larger time range, it is advantageous if several object images are examined in succession by means of image processing, in particular image subtraction of at least one preceding, for example the respective preceding object image, on an image conspicuousness that could represent a projectile effect.

Um sehr kurze Strukturfluktuationen, also sehr schnelle Veränderungen einzelner Bildstrukturen, nicht zu sehr in den Vordergrund zu rücken, ist es vorteilhaft, wenn ein Referenzbild aus mehreren Objektbildern gewonnen wird und das Wirkbild anhand des Referenzbilds bearbeitet wird, beispielsweise durch Subtraktion des Referenzbilds vom Wirkbild. Die mehreren Objektbilder können eine Abfolge von Objektbildern sein. Strukturen mit starker bzw. schneller Fluktuation können auf diese Weise zwar nicht eliminiert werden, sie werden jedoch geringer gewichtet und somit teilweise ausgemittelt.In order not to emphasize very short structural fluctuations, ie very rapid changes of individual image structures, it is advantageous if a reference image is obtained from a plurality of object images and the active image is processed on the basis of the reference image, for example by subtracting the reference image from the active image. The plurality of object images may be a sequence of object images. Although structures with high or fast fluctuation can not be eliminated in this way, they are weighted less and thus partially averaged out.

Das Referenzbild kann aus einem Mittelwert der Objektbilder oder einer Interpolation aus den Objektbildern gebildet werden. Ist beispielsweise aus mehreren Objektbildern eine eindeutige Entwicklung einer Struktur erkennbar, so kann diese Struktur durch Interpolation auf den Zeitpunkt des zu untersuchenden Wirkbilds hochgerechnet werden und somit der Bildbearbeitung, beispielsweise einer Bildsubtraktion zugeführt werden.The reference image may be formed from an average of the object images or an interpolation from the object images. If, for example, a clear development of a structure can be recognized from several object images, this structure can be extrapolated by interpolation to the time of the active image to be examined are thus supplied to the image processing, for example, a picture subtraction.

Wird ein Referenzbild erstellt, dem mehrere Objektbilder zugrunde liegen, so ist es vorteilhaft, wenn die Anzahl der Objektbilder, aus denen das Referenzbild gebildet wird, in Abhängigkeit von der Bildaufnahmefrequenz und/oder einer Fluktuation der Szene um das Objekt festgelegt wird. Die Fluktuation der Szene kann aus einem oder mehreren vorhergehenden Objektbildern durch Bildbearbeitung ermittelt werden.If a reference image is created based on a plurality of object images, then it is advantageous if the number of object images from which the reference image is formed is determined as a function of the image acquisition frequency and / or a fluctuation of the scene around the object. The fluctuation of the scene can be determined from one or more preceding object images by image processing.

Um auch geringe Bildauffälligkeiten bzw. größtenteils verdeckte Geschosswirkungen zu erkennen, ist es vorteilhaft, wenn das Differenzbild mit einer Bildbearbeitung in Form einer Signalverstärkung, beispielsweise um zumindest den Faktor 2, insbesondere den Faktor 5, bearbeitet wird. Um hierbei eine Übersteuerung und/oder Fehler zu vermeiden, ist es vorteilhaft, wenn diese Bildbearbeitung erst dann durchgeführt wird, wenn zuvor keine ausreichende Bildauffälligkeit, die eine Geschosswirkung darstellen könnte, gefunden wurde.In order to detect even small image conspicuousnesses or mostly hidden projectile effects, it is advantageous if the difference image is processed with image processing in the form of a signal amplification, for example by at least a factor of 2, in particular a factor of 5. In order to avoid overdriving and / or errors in this case, it is advantageous if this image processing is only performed when no sufficient image conspicuousness, which could represent a projectile effect, has previously been found.

Die Wirkung eines Geschosses entfaltet sich in der Regel in mehreren Spektralbereichen. So kann ein Explosionsblitz im sichtbaren Bereich und auch eine Ausdehnung einer Rauchwolke im sichtbaren Bereich erkannt werden. Die Ausbreitung einer Wärmewolke kann im infraroten Spektralbereich sensiert werden. Ein Explosionsblitz kann von Flammen sehr gut im ultravioletten Bereich unterschieden werden. Insofern ist es vorteilhaft, wenn mehrere in unterschiedlichen Spektralbereichen sensierende Kameras vorhanden sind und jede Kamera zumindest ein Wirkbild aufnimmt. Aus den Wirkbildern jeweils einzeln oder aus einer Kombination der Ergebnisse aus den Wirkbilden kann eine Geschosswirkung bestimmt werden und daraus eine Wirkpunktrichtung. So kann aus allen Wirkbildern der Kameras jeweils eine Wirkpunktrichtung bestimmt werden. Es ist auch möglich, jeweils zuerst Geschosswirkungen zu bestimmen, zusammenpassende Geschosswirkungen in den Wirkbildern einem Positioniergeschoss zuzuordnen und nur eine Wirkpunktrichtung zu bestimmen.The effect of a projectile usually unfolds in several spectral ranges. Thus, an explosive flash in the visible range and also an expansion of a cloud of smoke in the visible range can be detected. The propagation of a thermal cloud can be sensed in the infrared spectral range. An explosion flash can be distinguished from flames very well in the ultraviolet range. In this respect, it is advantageous if a plurality of cameras that are sensitive in different spectral ranges are present and each camera receives at least one active image. From the impact images, either individually or from a combination of the results from the effects, a projectile effect can be determined and from this a direction of effect. In this way, one effect direction can be determined from all the active images of the cameras. It is also possible to first determine projectile effects, to assign matching projectile effects in the impact images to a positioning projectile and to determine only one direction of effect.

Die bildhafte Entwicklung der Geschosswirkung entfaltet sich in der Regel in unterschiedlichen Spektralbereichen unterschiedlich. So ist ein Explosionsblitz im sichtbaren und/oder ultravioletten Bereich sehr kurz, während die Ausbreitung einer Wärmewolke erheblich länger dauert. Noch länger dauert die Ausbreitung einer Rauch- oder Staubwolke. Von daher ist es vorteilhaft, wenn die Entwicklung der bildhaften Geschosswirkung in den Wirkbildern in jedem Spektralbereich ausgewertet wird. Die Entwicklung der bildhaften Geschosswirkungen kann dann mit einem für den Positionierschuss erwarteten Signalverlauf verglichen werden, beispielsweise für einen Explosionsblitz, eine sich ausbreitende Wärmewolke oder eine sich ausdehnende Rauchwolke.The pictorial development of the projectile effect usually unfolds differently in different spectral ranges. Thus, an explosive flash in the visible and / or ultraviolet range is very short, while the propagation of a thermal cloud takes much longer. The spread of a cloud of smoke or dust lasts even longer. Therefore, it is beneficial if the development of pictorial Projectile effect is evaluated in the impact images in each spectral range. The development of the pictorial projectile effects can then be compared with a signal course expected for the positioning shot, for example for an explosive flash, a spreading thermal cloud or an expanding cloud of smoke.

Bei einer Signalvielfalt um das zu treffende Objekt kann es sinnvoll sein, den Spektralbereich, der zur Untersuchung auf die Geschosswirkung herangezogen wird, zu begrenzen. Hierdurch können Falschsignale unterdrückt werden. Insofern ist es vorteilhaft, wenn zumindest ein Spektralbereich auf ein weniger als den Faktor 1,5 breites Spektralband um eine Markierungsfarbe des Geschosses begrenzt ist. Je nach Frequenz bzw. Spektrum kann der Faktor auch kleiner gewählt werden, beispielsweise 1,2 oder sogar 1,1. Der Faktor 1,5 bedeutet, dass die Frequenz des oberen Bandendes maximal 1,5 mal so hoch ist wie die Frequenz des unteren Bandendes.With a variety of signals around the object to be hit, it may be useful to limit the spectral range that is used to investigate the projectile effect. As a result, false signals can be suppressed. In this respect, it is advantageous if at least one spectral range is limited to a spectral band that is less than the factor of 1.5 by a marking color of the projectile. Depending on the frequency or spectrum, the factor can also be chosen to be smaller, for example 1.2 or even 1.1. The factor 1.5 means that the frequency of the upper end of the tape is at most 1.5 times as high as the frequency of the lower end of the tape.

In einer weiteren vorteilhaften Ausführungsform der Erfindung wird ein Positionierschuss mit Markierungsmunition gesetzt, die sich in ihrer Strahlcharakteristik beim Aufschlag oder der Explosion von Munition zur Bekämpfung des Objekts unterscheidet. Ganz allgemein gesprochen kann Munition mit spezieller Leuchtcharakteristik verwendet werden, die sich von den nachfolgenden, ablagekorrigierten Geschossen unterscheidet. Um nun die Geschosswirkung der Positioniermunition zu erkennen, ist es vorteilhaft, eine Signalcharakteristik der in einem oder mehreren Wirkbildern aufgefundenen Geschosswirkung mit einer hinterlegten Signalcharakteristik des Geschosses zu vergleichen. Auf diese Weise kann beispielsweise das spezielle Positioniergeschoss in einer tumulten Kampfszene mit vielen einschlagenden Geschossen mit geringer Fehlerwahrscheinlichkeit ausgemacht werden.In a further advantageous embodiment of the invention, a positioning shot is set with marking ammunition, which differs in their beam characteristic during the impact or the explosion of ammunition to combat the object. Generally speaking, ammunition with a special luminous characteristic can be used, which differs from the subsequent stock-corrected projectiles. In order now to detect the projectile effect of the positioning ammunition, it is advantageous to compare a signal characteristic of the projectile action found in one or more active images with a stored signal characteristic of the projectile. In this way, for example, the special positioning bullet can be identified in a tumultuous battle scene with many striking bullets with low probability of error.

Eine Fehlerwahrscheinlichkeit kann noch weiter verringert werden, wenn die Signalcharakteristik der Geschosswirkung in ihrem zeitlichen Verlauf der Intensität in zumindest zwei verschiedenen Spektralbereichen untersucht wird.An error probability can be further reduced if the signal characteristic of the projectile effect is examined in terms of its temporal course of the intensity in at least two different spectral ranges.

Eine weitere Möglichkeit zur Reduzierung von Fehlerkennungen besteht darin, dass eine Salve aus mehreren Geschossen auf das Objekt verschossen wird. Für jedes Geschoss kann nun eine Geschosswirkung erkannt und ein Wirkzeitpunkt der Geschosswirkung bestimmt werden. Nun kann beispielsweise die zeitliche Abfolge der Wirkzeitpunkte auf Plausibilität geprüft werden, beispielsweise indem die zeitliche Abfolge mit der zeitlichen Abfolge der Abschusszeitpunkte verglichen wird.Another way to reduce false positives is to shoot a salvo of several floors onto the object. For each projectile, a projectile effect can now be detected and an effective time of the projectile effect can be determined. Now, for example, the time sequence of Acting times are checked for plausibility, for example by the temporal sequence is compared with the time sequence of the firing times.

Weiter ist es vorteilhaft, wenn für jedes Geschoss ein Zeitfenster, in dem die Geschosswirkung erwartet wird, bestimmt wird und die Lage der Wirkzeitpunkte zu den Zeitfenstern bestimmt wird. Aus der Lage der Wirkzeitpunkte kann rückgeschlossen werden, ob es sich bei der Geschosswirkung bzw. der aufgefundenen Bildauffälligkeit um tatsächlich die Geschosswirkung des oder der Markiergeschosse handelt. So kann aus der Lage der Wirkzeitpunkte zu den Zeitfenstern beispielsweise jeweils ein Zuordnungswert gebildet werden und aus einer Mehrzahl von Zuordnungswerten kann ein Gesamtzuordnungswert gebildet werden. Der Gesamtzuordnungswert kann eine Zuordnungswahrscheinlichkeit der Geschosswirkungen zu den Geschossen der Salve angeben.Furthermore, it is advantageous if a time window in which the projectile effect is expected is determined for each projectile, and the position of the action time points relative to the time windows is determined. It can be inferred from the position of the time of action whether the projectile effect or the detected image conspicuousness is actually the projectile effect of the marking bullet (s). Thus, for example, an assignment value can be formed in each case from the position of the action times to the time windows, and a total assignment value can be formed from a plurality of assignment values. The total allocation value may indicate a probability of assignment of the projectile effects to the projectiles of the salvo.

Bei einem systematischen Fehler, beispielsweise wenn die Entfernung zum Objekt falsch bestimmt wurde, kann es sein, dass die Wirkzeitpunkte zeitlich alle nicht in einem erwarteten Zeitfenster liegen. Um einen solchen systematischen Fehler zu erkennen, ist es vorteilhaft, wenn die Lage aller Wirkzeitpunkte auf eine systematische Lageverschiebung zu den Zeitfenstern untersucht wird. Eine solche Lageverschiebung kann dann korrigiert werden, sodass sie dann nur eine geringere Relevanz bei der Berechnung als ohne Korrektur hat.In the case of a systematic error, for example if the distance to the object was determined incorrectly, it may be that the time of action is not all within an expected time window. In order to detect such a systematic error, it is advantageous if the position of all the action times is examined for a systematic positional shift to the time windows. Such a positional shift can then be corrected so that it has only a lower relevance in the calculation than without correction.

Um die Geschosswirkungen einer Salve von mehreren Geschossen von beispielsweise einem Maschinengewehrfeuer unterscheiden zu können, ist es vorteilhaft, wenn die zeitliche Abfolge der Abschusszeitpunkte unregelmäßig codiert ist. Während bei der Bekämpfung eines Objekts üblicherweise Bekämpfungsgeschosse in einer regelmäßigen Abfolge verschossen werden, kann eine unregelmäßige Codierung hiervon unterschieden werden.In order to be able to differentiate the projectile effects of a salvo of several projectiles from, for example, a machine-gun fire, it is advantageous if the time sequence of the firing times is coded irregularly. While control missiles are usually shot in a regular sequence when fighting an object, an irregular coding can be distinguished from this.

Eine weitere Möglichkeit zur Erkennung von Unterscheidungsfehlern kann dadurch realisiert werden, dass in der Salve unterschiedliche Markiergeschosse verschossen werden, die eine unterschiedliche Geschosswirkung hervorrufen. Alle verwendeten Markiergeschosse sind zweckmäßigerweise spezielle Geschosse für einen Markierschuss, sodass sie sich insofern von einer später verschossenen Kampfmunition unterscheiden.A further possibility for recognizing discrimination errors can be achieved by firing different marking bullets in the salvo, which produce a different bullet effect. All marking bullets used are expediently special projectiles for a Markierschuss, so that they differ so far from a later fired combat ammunition.

Um auch bei unterschiedlichen Kampfszenen stets zu einem zuverlässigen Erkennungsergebnis zu gelangen, ist es vorteilhaft, wenn unterschiedliche Module zur Ermittlung der Geschosswirkung vorhanden sind. Jedes Modul verfolgt hierbei zweckmäßigerweise eine andere Strategie bzw. ein anderes Verfahren zur Verringerung von Erkennungsfehlern. Die unterschiedlichen Module können einzeln oder in Kombination herangezogen werden, zweckmäßigerweise in Abhängigkeit einer Kampfsituation, vorhandener Geschosse und/oder vorhandener Detektionssysteme.In order always to achieve a reliable recognition result in different combat scenes, it is advantageous if different modules for determining the projectile effect are available. Each module expediently pursues another strategy or another method for reducing recognition errors. The different modules can be used individually or in combination, expediently as a function of a combat situation, existing projectiles and / or existing detection systems.

Es besteht auch die Möglichkeit, dass die unterschiedlichen Module gemeinsam herangezogen werden zur Ermittlung der Geschosswirkung, jedoch in Abhängigkeit einer Kampfsituation, vorhandener Geschosse und/oder vorhandener Detektionssysteme eine unterschiedliche Gewichtung der Module zur Bestimmung der Wirkpunktrichtung festgelegt wird.There is also the possibility that the different modules are used together to determine the projectile effect, but depending on a combat situation, existing projectiles and / or existing detection systems, a different weighting of the modules is determined for determining the direction of effect.

Zweckmäßigerweise sind von der folgenden Modulgruppe zumindest zwei Module vorhanden:

  • Ein Modul zur Begrenzung der Bildauswertung auf einen Erwartungsbereich, insbesondere die Umgebung des nominellen Zielpunkts bzw. zur Gewichtung eines Auswerteergebnisses in Abhängigkeit von der Entfernung der Bildauffälligkeit zum nominellen Zielpunkt.
  • Ein Modul zur Bestimmung eines Zeitfensters um die erwartete Geschosswirkung und zur Reduzierung bzw. Gewichtung der Auswertung in Abhängigkeit von dem Zeitfenster.
  • Ein Modul zur Bildbearbeitung, insbesondere zur Bildsubtraktion.
  • Ein Modul zur Kombination mehrerer Sensorsysteme in unterschiedlichen Spektralbereichen.
  • Ein Modul zur Erkennung unterschiedlicher Geschosse bzw. Spezialmunitionen zur Markierung.
  • Ein Modul zur Verifikation der Trefferposition durch Korrelation mehrerer Explosionszeitpunkte.
Conveniently, at least two modules of the following module group are present:
  • A module for limiting the image evaluation to an expected range, in particular the environment of the nominal target point or for weighting an evaluation result as a function of the distance of the image conspicuity to the nominal target point.
  • A module for determining a time window around the expected floor effect and for reducing or weighting the evaluation as a function of the time window.
  • A module for image processing, especially for image subtraction.
  • A module for combining several sensor systems in different spectral ranges.
  • A module for detecting different projectiles or special ammunitions for marking.
  • A module for verification of the hit position by correlation of several explosion times.

Die Erfindung betrifft außerdem ein Waffensystem mit einer Zieleinrichtung zur Eingabe und Erfassung einer Zielrichtung, in die ein Geschoss aus einer Waffe des Waffensystems in einer Zielrichtung auf ein Objekt verschossen wird. Das Waffensystem umfasst zweckmäßigerweise außerdem ein optisches System mit einer Kamera und einer Auswerteeinheit zur Bestimmung einer Richtung eines Wirkpunkts des Geschosses am Objekt. Die Auswerteeinheit ist zweckmäßigerweise dazu vorbereitet, eine Ablage in Form einer Richtungsdifferenz zwischen der Zielrichtung und der Wirkpunktrichtung zu bestimmen. Die Zieleinrichtung ist zweckmäßigerweise dazu vorbereitet, eine Zielrichtung eines späteren Schusses auf das Objekt unter Verwendung der Ablage zu korrigieren.The invention also relates to a weapon system having a target device for inputting and detecting a target direction into which a projectile from a weapon of the weapon system is fired at an object in a target direction. The weapon system expediently also comprises an optical system with a camera and an evaluation unit for determining a direction of an action point of the projectile on the object. The evaluation unit is expediently to prepared to determine a filing in the form of a directional difference between the target direction and the direction of the direction. The aiming device is expediently adapted to correct a target direction of a later shot on the object using the tray.

Zum Erreichen einer schnellen und zuverlässigen automatischen Ablagekorrektur wird vorgeschlagen, dass die Auswerteeinheit erfindungsgemäß dazu vorbereitet ist, die Wirkpunktrichtung zu erfassen, indem ein die Geschosswirkung am Objekt darstellendes Wirkbild aufgenommen wird und die Wirkpunktrichtung aus dem Wirkbild bestimmt wird.In order to achieve a fast and reliable automatic offset correction, it is proposed that the evaluation unit is prepared in accordance with the invention for detecting the direction of the effect by recording an effective image representing the projectile effect on the object and determining the direction of the effect from the effective image.

Die bisher gegebene Beschreibung vorteilhafter Ausgestaltungen der Erfindung enthält zahlreiche Merkmale, die in einigen abhängigen Ansprüchen zu mehreren zusammengefasst wiedergegeben sind. Diese Merkmale können jedoch zweckmäßigerweise auch einzeln betrachtet und zu sinnvollen weiteren Kombinationen zusammengefasst werden, insbesondere bei Rückbezügen von Ansprüchen, sodass ein einzelnes Merkmal eines abhängigen Anspruchs mit einem einzelnen, mehreren oder allen Merkmalen eines anderen abhängigen Anspruchs kombinierbar ist. Außerdem sind diese Merkmale jeweils einzeln und in beliebiger geeigneter Kombination sowohl mit dem erfindungsgemäßen Verfahren als auch mit der erfindungsgemäßen Vorrichtung gemäß den unabhängigen Ansprüchen kombinierbar. So sind Verfahrensmerkmale auch als Eigenschaften der entsprechenden Vorrichtungseinheit gegenständlich formuliert zu sehen und funktionale Vorrichtungsmerkmale auch als entsprechende Verfahrensmerkmale.The description of advantageous embodiments of the invention given so far contains numerous features that are summarized in several dependent claims in several groups. However, these features may conveniently be considered individually and grouped together into meaningful further combinations, in particular when reclaiming claims, so that a single feature of a dependent claim can be combined with a single, several or all features of another dependent claim. In addition, these features can be combined individually and in any suitable combination both with the method according to the invention and with the device according to the invention according to the independent claims. Thus, process features can also be formulated formally as properties of the corresponding device unit and functional device features also as corresponding process features.

Die oben beschriebenen Eigenschaften, Merkmale und Vorteile dieser Erfindung sowie die Art und Weise, wie diese erreicht werden, werden klarer und deutlicher verständlich in Zusammenhang mit der folgenden Beschreibung der Ausführungsbeispiele, die im Zusammenhang mit den Zeichnungen näher erläutert werden. Die Ausführungsbeispiele dienen der Erläuterung der Erfindung und beschränken die Erfindung nicht auf die darin angegebene Kombination von Merkmalen, auch nicht in Bezug auf funktionale Merkmale. Außerdem können dazu geeignete Merkmale eines jeden Ausführungsbeispiels auch explizit isoliert betrachtet, aus einem Ausführungsbeispiel entfernt, in ein anderes Ausführungsbeispiel zu dessen Ergänzung eingebracht und/oder mit einem beliebigen der Ansprüche kombiniert werden.The above-described characteristics, features, and advantages of this invention, as well as the manner in which they are achieved, will become clearer and more clearly understood in connection with the following description of the embodiments, which will be described in detail in conjunction with the drawings. The embodiments serve to illustrate the invention and do not limit the invention to the combination of features specified therein, not even with respect to functional features. In addition, suitable features of each embodiment may also be explicitly considered isolated, removed from one embodiment, incorporated into another embodiment to complement it, and / or combined with any of the claims.

Es zeigen:

FIG 1
eine Objektszene mit Fahrzeugen und ein Waffensystem, das zur Bekämpfung eines der Fahrzeuge eingesetzt wird,
FIG 2
ein Zielbild, das das Waffensystem von der Objektszene aufgenommen hat und in dem ein Fahrzeug markiert ist,
FIG 3
eine Reihe von Objektbildern, die nach dem Zielbild aufgenommen werden,
FIG 4
ein Wirkbild, das einen Einschlag eines vom Waffensystem zum Fahrzeug abgeschossenen Geschosses zeigt,
FIG 5
einen zeitlichen Verlauf der Aufnahme eines Zielbilds, mehrere Objektbilder und mehrere Wirkbilder und darin sichtbare Ereignisse,
FIG 6
ein Ablaufschema zur gezielten Aufnahme eines Wirkbilds während eines Zeitfensters, in dem eine Geschosswirkung erwartet wird,
FIG 7
ein Verfahren zur Bildbearbeitung zur deutlicheren Erkennung einer Geschosswirkung,
FIG 8
ein Diagramm, in dem Sichtbarkeiten einer Geschosswirkung in drei verschiedenen Spektralbereichen über die Zeit dargestellt sind und
FIG 9
einen Zeitstrahl, auf dem der Verschuss einer Salve aus mehreren Einzelschüssen und die Zeitfenster dargestellt sind, in denen Geschosswirkungen der einzelnen Einzelschüsse erwartet werden.
Show it:
FIG. 1
an object scene with vehicles and a weapon system used to combat one of the vehicles,
FIG. 2
a target image that has picked up the weapon system from the object scene and in which a vehicle is marked,
FIG. 3
a series of object images taken after the target image,
FIG. 4
an impact picture showing an impact of a projectile shot down from the weapon system to the vehicle,
FIG. 5
a temporal course of the recording of a target image, several object images and multiple impact images and events visible therein,
FIG. 6
a flowchart for the selective recording of an active image during a time window in which a projectile effect is expected,
FIG. 7
a method for image processing for clearer detection of a projectile effect,
FIG. 8
a diagram in which the visibility of a projectile effect in three different spectral ranges over time are shown and
FIG. 9
a timeline depicting the firing of a salvo of several single shots and the time windows in which projectile effects of the individual single shots are expected.

FIG 1 zeigt eine Objektszene 2 in einer Landschaft. Die Objektszene 2 beinhaltet eine Reihe von Fahrzeugen, von denen in FIG 1 beispielhaft dargestellt sind: ein Raketenträger 4 zum Abschuss von Boden-Luft-Raketen 44, zwei Panzer 6, 8, ein Lkw 10 und eine Reihe von weiteren Radfahrzeugen 12. Im Vordergrund ist schematisch ein Waffensystem 14 dargestellt, das auf einem ebenfalls nur schematisch dargestellten Radfahrzeug 16 montiert ist. Das Waffensystem 14 umfasst eine Rohrwaffe 18 zum Verschießen von Geschossen und eine Zieleinheit 20 mit mehreren Kameras 22, von denen in FIG 1 der Einfachheit halber nur zwei Kameras 22 dargestellt sind. Weiter umfasst das Waffensystem 14 eine Auswerteeinheit 24 zur numerischen Erfassung einer Ablage und zur automatischen Ablagekorrektur der Rohrwaffe 18. FIG. 1 shows an object scene 2 in a landscape. The object scene 2 includes a number of vehicles, of which in FIG. 1 The following are shown by way of example: a rocket carrier 4 for launching ground-to-air missiles 44, two tanks 6, 8, a truck 10 and a number of other wheeled vehicles 12. In the foreground, a weapon system 14 is shown schematically, which is also shown only schematically in FIG Wheeled vehicle 16 is mounted. The weapon system 14 comprises a gun barrel 18 for projectile missiles and a target unit 20 with a plurality of cameras 22, of which FIG. 1 for simplicity, only two cameras 22 are shown. Furthermore, the weapon system 14 comprises an evaluation unit 24 for the numerical detection of a tray and for automatic storage correction of the gun 18.

Bei der in FIG 1 dargestellten Szene soll eines der Fahrzeuge aus der Objektszene, beispielsweise der Lkw 10, durch das Waffensystem 14 bekämpft werden. Hierzu erzeugt die Zieleinheit 20 mithilfe einer oder mehrerer der Kameras 22 ein Zielbild 26, in dem die Objektszene 2 und insbesondere das zu bekämpfende Fahrzeug dargestellt sind. Ein Bediener des Waffensystems 14 markiert im Zielbild 26 ein Objekt 10, das bekämpft werden soll, beispielsweise den vorderen Lkw. Diese Markierung kann über eine Zielmarkierung 28 im Zielbild 26 erfolgen, beispielsweise ein Fadenkreuz, das der besseren Übersichtlichkeit halber in FIG 1 in der Objektszene 2 am vorderen Radfahrzeug dargestellt ist. Die Zielmarkierung 28 legt der Bediener über das zu bekämpfende Objekt 10 beziehungsweise an die Stelle, an die ein Schuss aus der Rohrwaffe 18 platziert werden soll.At the in FIG. 1 represented scene of one of the vehicles from the object scene, such as the truck 10, to be combated by the weapon system 14. For this purpose, the target unit 20 generates by means of one or more of the cameras 22 a target image 26, in which the object scene 2 and in particular the vehicle to be controlled are shown. An operator of the weapon system 14 marks in the target image 26 an object 10 that is to be fought, for example, the front truck. This marking can be done via a target mark 28 in the target image 26, such as a crosshair, the sake of clarity in FIG. 1 is shown in the object scene 2 on the front wheeled vehicle. The target marker 28 is placed by the operator over the object 10 to be controlled or to the point at which a shot from the gun 18 is to be placed.

Ist die Zielmarkierung 28 gesetzt, beispielsweise durch einen entsprechenden Befehl des Bedieners, so wird die Lage der Zielmarkierung 28 im Zielbild 26 von der Zieleinheit 20 erfasst. Hieraus ergibt sich eine Zielrichtung 30 vom Waffensystem 14 beziehungsweise der Rohrwaffe 18 zum Ziel, in diesem Fall dem zu bekämpfenden Objekt 10. Die Zielrichtung 30 ist nur eine relative Zielrichtung 30, da ihre absolute Richtung nicht bekannt sein muss. Optional wird die Ausrichtung der das Zielbild 26 aufnehmenden Kamera 22 erfasst, sodass hieraus die Lage des Zielbilds 26 in der Objektszene 2 und damit auch die Lage der Zielmarkierung 28 in der Objektszene 2 bekannt ist. Hieraus ergibt sich eine absolute Zielrichtung 30 vom Waffensystem 14 beziehungsweise der Rohrwaffe 18 zum Ziel, in diesem Fall dem zu bekämpfenden Objekt 10.If the target marker 28 is set, for example by a corresponding command of the operator, the position of the target marker 28 in the target image 26 is detected by the target unit 20. This results in a target direction 30 from the weapon system 14 or the barrel weapon 18 to the target, in this case the object to be combated 10. The target direction 30 is only a relative target direction 30, since its absolute direction does not have to be known. Optionally, the orientation of the target image 26 receiving camera 22 is detected, so that the position of the target image 26 in the object scene 2 and thus the position of the target mark 28 in the object scene 2 is known. This results in an absolute target direction 30 from the weapon system 14 or the barrel weapon 18 to the target, in this case the object 10 to be controlled.

Diese Zielrichtung kann nun wandern, beispielsweise durch eine Bewegung des Objekts 10 durch die Objektszene 2 oder eine Bewegung des Waffensystems 14 im Raum. Die Zielrichtung 30 kann hierbei mitbewegt werden, beispielsweise durch die Lage der Zielmarkierung 28 im Zielbild. Die Zielmarkierung 28 im Zielbild 26 kann durch den Bediener nachgeführt und somit auf dem zu bekämpfenden Objekt 10 gehalten werden. Eine andere Möglichkeit besteht im automatischen Tracken des Objekts 10, sodass die Zielmarkierung 28 und damit die Zielrichtung 30 automatisch auf dem Objekt 10 gehalten bleibt. Hierfür werden im Laufe der Zeit eine Reihe von Zielbildern 26 aufgenommen, die mit dem ursprünglichen Zielbild 26 mittels bildverarbeiteter Methoden verglichen werden, sodass das Objekt 10 in den nachfolgenden Zielbildern 26 erkannt wird. Anhand der ursprünglichen Lage der Zielmarkierung 28 auf dem Objekt 10 wird nun die Lage der Zielmarkierung 28 der neuen Lage des Objekts 10 in der Objektszene 2 automatisch angepasst.This target direction can now travel, for example, by a movement of the object 10 through the object scene 2 or a movement of the weapon system 14 in space. The target direction 30 can be moved in this case, for example by the position of the target mark 28 in the target image. The target mark 28 in the target image 26 can be tracked by the operator and thus held on the object 10 to be controlled. Another possibility is the automatic tracking of the object 10, so that the target marker 28 and thus the target direction 30 automatically remains held on the object 10. For this purpose, a series of target images 26 are recorded over time, with the original target image 26 by means of image-processed methods are compared, so that the object 10 is detected in the subsequent target images 26. Based on the original position of the target mark 28 on the object 10, the position of the target mark 28 of the new position of the object 10 in the object scene 2 is now adjusted automatically.

Im Moment eines Abschusses eines Geschosses aus der Rohrwaffe 18 zum Objekt 10, der zweckmäßigerweise durch einen Bediener gesteuert wird, wird die Zielrichtung 30 zum Moment des Abschusses abgespeichert. Diese Zielrichtung wird im Folgenden zur Berechnung einer Ablage verwendet. Vorherige Zielrichtungen 30 vor dem Abschuss können zwar gespeichert und anderen Berechnungen zugrunde gelegt werden, spielen jedoch für die Berechnung der Ablage zunächst keine Rolle.At the moment of a launch of a projectile from the gun 18 to the object 10, which is suitably controlled by an operator, the target direction 30 is stored at the moment of the launch. This target direction is used below to calculate a clipboard. Although previous objectives 30 prior to launch can be stored and used as a basis for other calculations, they do not initially play a role in the calculation of the filing.

Das Zielbild 26, das auf einer Anzeigeeinheit der Zieleinheit 20 dargestellt ist, ist in FIG 2 vergrößert dargestellt. Es zeigt die Zielmarkierung 28 auf dem vorderen Fahrzeug beziehungsweise Objekt 10 zum Zeitpunkt des Abschusses des Geschosses in Zielrichtung 30 aus der Rohrwaffe 18. Nach dem Abschuss werden eine Reihe von Objektbildern 32 aufgenommen, die schematisch in FIG 3 dargestellt sind. Diese Objektbilder 32 zeigen die Objektszene 2, die sich entsprechend des Zeitverlaufs leicht verändert. Die Objektbilder 32 oder zumindest ein Teil davon werden auf eine bildhafte Darstellung der Geschosswirkung des aus der Rohrwaffe 18 abgeschossenen Geschosses untersucht. Wird eine solche bildhafte Geschosswirkung 34 in einem Objektbild 32 gefunden, so wird dieses Objektbild 32 als Wirkbild 36 zur Berechnung der Ablage verwendet.The target image 26 displayed on a display unit of the target unit 20 is in FIG. 2 shown enlarged. It shows the target mark 28 on the front vehicle or object 10 at the time of the launching of the projectile in target direction 30 from the gun 18. After firing, a series of object images 32 are recorded, which are shown schematically in FIG FIG. 3 are shown. These object images 32 show the object scene 2, which changes slightly according to the passage of time. The object images 32 or at least a part thereof are examined for a pictorial representation of the projectile effect of the projectile fired from the gun 18. If such a pictorial projectile effect 34 is found in an object image 32, this object image 32 is used as the active image 36 for calculating the deposit.

FIG 4 zeigt das Wirkbild 36, in dem die Geschosswirkung 34 neben dem Objekt 10 sichtbar ist. Die Geschosswirkung 34 wird im Wirkbild 36 als solche erkannt, und die Lage der bildhaften Darstellung der Geschosswirkung 34 im Wirkbild 36 wird von der Auswerteeinheit 24 erkannt. FIG. 4 shows the active image 36, in which the projectile effect 34 next to the object 10 is visible. The projectile effect 34 is recognized as such in the active image 36, and the position of the pictorial representation of the projectile effect 34 in the active image 36 is recognized by the evaluation unit 24.

In FIG 1 ist schematisch dargestellt, wie die Auswerteeinheit 24 aus der Lage L der Geschosswirkung 34 im Wirkbild 36 eine Wirkpunktrichtung 38, R bestimmt, in der die Geschosswirkung 34 ausgehend von einem Bezugspunkt, beispielsweise einer Bildecke oder einem Punkt auf dem Waffensystem 14, wie die Mündung der Rohrwaffe, liegt. Dies geschieht analog zur Bestimmung der Zielrichtung 30 durch die Erkennung der Ausrichtung der aufnehmenden Kamera 22 in die Objektszene 2 und damit die Ausrichtung des Wirkbilds 36 und weiter in Verbindung mit der Lage L der bildhaften Darstellung der Geschosswirkung 34 im Wirkbild 36.In FIG. 1 schematically shows how the evaluation unit 24 from the position L of the projectile action 34 in the active image 36 determines a Wirkpunktrichtung 38, R, in which the projectile effect 34, starting from a reference point, such as a picture corner or a point on the weapon system 14, as the mouth of the Pipe weapon, lies. This is analogous to the determination of the target direction 30 by detecting the orientation of the receiving camera 22 in the object scene 2 and thus the orientation of the active image 36 and further in conjunction with the position L of the pictorial representation of the projectile effect 34 in the active image 36th

Aus der Richtungsdifferenz 40, ΔR zwischen der Wirkpunktrichtung 38, R und der Zielrichtung 30 bestimmt die Auswerteeinheit 24 eine Ablage A mit der das abgeschossene Geschoss das Objekt 10 beziehungsweise den gewünschten Zielpunkt darin verfehlt hat. Die Ablage A kann aus der Richtungsdifferenz 40, ΔR bestehen. Aus der Ablage A berechnet die Auswerteeinheit 24 nun weiter eine Ablagekorrektur K der Rohrwaffe 18 in Form einer Richtungsänderung, in die die Rohrwaffe 18 dann verschwenkt wird. Nachfolgende Schüsse auf das Objekt 10 werden nun in die korrigierte Richtung verschossen, sodass das Objekt 10 getroffen wird.From the direction difference 40, .DELTA.R between the direction of puncture 38, R and the target direction 30, the evaluation unit 24 determines a tray A with which the projectile projectile missed the object 10 or the desired target point therein. The tray A may consist of the direction difference 40, ΔR. From the filing A, the evaluation unit 24 now further calculates a filing correction K of the gun 18 in the form of a change in direction, in which the gun 18 is then pivoted. Subsequent shots at the object 10 are now fired in the corrected direction so that the object 10 is struck.

Bei der Darstellung aus FIG 1 sind zum leichteren Verständnis Inhalte aus dem Zielbild 26 und dem Wirkbild 36 zusammen dargestellt. FIG 1 zeigt die Lage des Objekts 10 zum Abschusszeitpunkt, also wie im Zielbild 26 dargestellt. FIG 1 zeigt jedoch auch die Geschosswirkung 34, die erst später auftritt und im Zielbild 26 nicht sichtbar ist, sondern erst im Wirkbild 36. Im Wirkbild 36 ist das Objekt 10 jedoch schon ein Stück weit weitergefahren, sodass sich die Ablage auf die Zielrichtung 30 zum Abschusszeitpunkt und die Wirkpunktrichtung 38 zum Einschlagszeitpunkt des Geschosses stützt, zwei Richtungen 30, 38 die zu verschiedenen Zeitpunkten festgestellt werden. Dies ist in FIG 1 schematisch entsprechend dargestellt.In the presentation off FIG. 1 For easier understanding, contents from the target image 26 and the active image 36 are shown together. FIG. 1 shows the position of the object 10 at the time of shooting, ie as shown in the target image 26. FIG. 1 However, also shows the projectile effect 34, which occurs later and is not visible in the target image 26, but only in the active image 36. In the active image 36, however, the object 10 has already moved on a bit, so that the filing on the target direction 30 at the time of shooting and the direction of action 38 is supported at the point of impact of the projectile, two directions 30, 38 which are detected at different points in time. This is in FIG. 1 schematically represented accordingly.

Im einfachsten Fall ruht die aufnehmende Kamera 22 zwischen dem Abschusszeitpunkt beziehungsweise der Aufnahme des Zielbilds 26 und dem Wirkzeitpunkt beziehungsweise der Aufnahme des Wirkbilds 36. Die beiden Bilder 26, 36 können einfach übereinander gelegt werden, sodass die Zielrichtung entsprechend der Lage der Zielmarkierung 28 im Zielbild 26 und die Wirkpunktrichtung entsprechend der Lage der Geschosswirkung 34 im Wirkbild einfach nebeneinander abgriffen werden können. In der Regel wird sich jedoch die Kamera 22 während der Geschossflugzeit bewegen, sodass die Objektszene 2 durch die Bilder 26, 36 wandert. Dies ist anhand der Darstellung aus FIG 2 und FIG 4 dargestellt. Die Kamera 22 ist während der Flugzeit des Geschosses von etwa 1,5 Sekunden durch die Bewegung des tragenden Radfahrzeugs 16 leicht nach links verschwenkt worden. Um die Ablageberechnung trotzt dieser Bewegung aufrechterhalten zu können, wird zumindest das Wirkbild 36 mit dem Zielbild 26 durch Bildverarbeitung korreliert, sodass die beiden Objektszenen 2, beispielsweise durch statische Landschaftspunkte, übereinander gelegt werden können. Die Bildverschiebung wird hieraus erkannt und bei der Berechnung der Richtungsdifferenz 40, ΔR berücksichtigt.In the simplest case, the receiving camera 22 rests between the shooting time or the shot of the target image 26 and the effective time or the shot of the active image 36. The two images 26, 36 can be simply superimposed, so that the target direction corresponding to the position of the target mark 28 in the target image 26 and the direction of action according to the position of the projectile effect 34 in the active image can be easily tapped next to each other. As a rule, however, the camera 22 will move during the projectile flying time, so that the object scene 2 travels through the images 26, 36. This is based on the presentation 2 and FIG. 4 shown. The camera 22 has been slightly pivoted to the left during the flight time of the projectile of about 1.5 seconds by the movement of the supporting wheeled vehicle 16. In order to be able to maintain the filing calculation despite this movement, at least the active image 36 is correlated with the target image 26 by image processing, so that the two object scenes 2 can be superimposed, for example by static landscape points. The image shift is recognized from this and taken into account in the calculation of the direction difference 40, ΔR.

Zur Bestimmung der Wirkpunktrichtung 38 werden die Objektbilder 32 auf Bildauffälligkeiten untersucht, die die Geschosswirkung 34 zeigen könnten. Hierbei werden beispielsweise alle hintereinander aufgenommenen Objektbilder 32 nacheinander auf eine bildhafte Darstellung der Geschosswirkung 34 untersucht. Wie in FIG 1 angedeutet ist, kann die Objektszene 2 hierbei eine Vielzahl von Ereignissen zeigen, die leicht mit einer bildhaften Darstellung der Geschosswirkung 34 verwechselbar sind. In FIG 1 ist beispielhaft dargestellt, wie aus den beiden Panzern 6, 8 ein Mündungsblitz aufleuchtet. Außerdem trägt das zu bekämpfende Objekt 10 ein Maschinengewehr, dessen Mündungsblitz im oberen Bereich des Objekts 10 ebenfalls hell aufleuchtet. Weiter ist neben den Radfahrzeugen 12 ein Granateneinschlag 42 zu sehen, der ebenfalls leicht mit einer Geschosswirkung 34 verwechselt werden kann, insbesondere wenn die Geschosswirkung 34 vornehmlich aus einer Rauchwirkung oder einem Aufwerfen von Staub und Steinen besteht. Weiter startet vom Raketenträger 4 eine Boden-Luft-Rakete 44, deren heiße Triebswerksgase ebenfalls eine Bildauffälligkeit mit einer sehr starken Signatur bewirken. Es ist für die Auswerteeinheit 24 daher nicht ohne Weiteres zu erkennen, ob der Granateneinschlag 42, das Mündungsfeuer des Panzers 6 oder das Mündungsfeuer des MGs auf dem Objekt 10 eine Wirkung des Geschosses aus der Rohrwaffe 18 ist. Kommt es zu einer Verwechslung, so wird die Ablage A falsch berechnet, und nachfolgende Schüsse aus der Rohrwaffe 18 werden falsch platziert.In order to determine the direction of effect 38, the object images 32 are examined for image abnormalities that could show the projectile effect 34. In this case, for example, all object images 32 taken one after the other are examined successively for a pictorial representation of the projectile effect 34. As in FIG. 1 is hinted at, the object scene 2 hereby show a variety of events that are easily confused with a pictorial representation of the projectile effect 34. In FIG. 1 is exemplified as from the two tanks 6, 8 flashes a muzzle flash. In addition, the object to be attacked 10 carries a machine gun whose muzzle flash in the upper area of the object 10 also lights up brightly. Further, in addition to the wheeled vehicles 12 a grenade impact 42 can be seen, which can also be easily confused with a projectile effect 34, especially when the projectile effect 34 consists primarily of a smoke effect or a raising of dust and stones. Next starts from the rocket carrier 4, a ground-air missile 44, the hot engine gases also cause a picture conspicuousness with a very strong signature. Therefore, it is not readily apparent to the evaluation unit 24 whether the grenade impact 42, the muzzle fire of the tank 6 or the muzzle flash of the MG on the object 10 is an effect of the projectile from the gun 18. If there is a mix-up, tray A will be miscalculated and subsequent shots from barrel weapon 18 will be misplaced.

Um die Gefahr einer Verwechslung und somit das Fehlerrisiko zu verringern, bestimmt die Auswerteeinheit einen Erwartungsbereich 46, der beispielhaft in FIG 4 dargestellt ist. Der Erwartungsbereich 46 wird in Abhängigkeit von der Zielrichtung 30 bestimmt und ist beispielsweise symmetrisch um die Zielrichtung 30 gelegt, wie in FIG 4 beispielhaft dargestellt ist, wobei selbstverständlich die Zielrichtung aus dem Zielbild 26 verwendet wird. In diesem Erwartungsbereich 46 wird der Einschlag beziehungsweise die Explosion des abgeschossenen Geschosses erwartet.In order to reduce the risk of confusion and thus the risk of error, the evaluation unit determines an expected range 46, which is shown by way of example in FIG FIG. 4 is shown. The expected range 46 is determined as a function of the target direction 30 and, for example, is placed symmetrically around the target direction 30, as in FIG FIG. 4 is exemplified, of course, the target direction from the target image 26 is used. In this expectation range 46, the impact or the explosion of the projectile is expected.

Es besteht nun die Möglichkeit, nur die bildhaften Ereignisse innerhalb des Erwartungsbereichs 46 zu untersuchen und die Bildauffälligkeiten außerhalb des Erwartungsbereichs 46 zu ignorieren. Beispielhaft ist gezeigt, dass das Mündungsfeuer des Panzers 6 und die Abgasstrahlung der Boden-Luft-Rakete 44 sowie der Granateneinschlag 42 in diesem Falle nicht mehr zu einer Störung beziehungsweise Verwechslung führen können. Das Fehlerrisiko wird hierdurch signifikant verringert. Der Erwartungsbereich 46 kann durch alle Objektbilder 32 gelegt werden, sodass in diesen nur der entsprechende Erwartungsbereich 46 auf die bildhafte Darstellung der Geschosswirkung 34 untersucht wird.It is now possible to examine only the pictorial events within the expected range 46 and to ignore the image abnormalities outside the expected range 46. By way of example, it is shown that the muzzle flash of the tank 6 and the exhaust gas radiation of the ground-to-air missile 44 and the grenade impact 42 in this case can no longer lead to disruption or confusion. The risk of error is thereby significantly reduced. The expectation region 46 can be laid through all the object images 32, so that only the corresponding expected region 46 is examined for the pictorial representation of the projectile effect 34.

Es besteht jedoch auch die Möglichkeit, den gesamten Bereich der Objektbilder 32 auf die bildhafte Darstellung der Geschosswirkung 34 zu untersuchen und lediglich das Untersuchungsergebnis entsprechend seiner Lage zum Erwartungsbereich 46 zu gewichten. Liegt eine Bildauffälligkeit außerhalb des Erwartungsbereichs 46, so wird sie weniger stark gewichtet, als wenn sie innerhalb des Erwartungsbereichs 46 läge. Eine weitere Differenzierung ist möglich, indem statt eines nur einstufigen Erwartungsbereichs 46, wie er in FIG 4 dargestellt ist, ein mehrstufiger Erwartungsbereich bestimmt wird, der aus einem Kernbereich und einem oder mehreren um den Kernbereich herum liegenden Bereichen bestehen kann, beispielsweise einen mittleren Bereich und einen äußeren Bereich. Je nach Lage der bildhaften Darstellung der Geschosswirkung 34 in den Bereichen wird von innen nach außen immer geringer gewichtet. Die Gewichtung kann auch kontinuierlich verändert werden, beispielsweise mit einem wachsenden Abstand der Geschosswirkung 34 von der Zielrichtung 30 kontinuierlich geringer werdend. Auf diese Weise werden weiter entfernt vom anvisierten Objekt 10 liegende Bildauffälligkeiten zwar nicht unterdrückt, jedoch immer schwächer gewichtet, sodass ein näherliegender Einschlag stärkere Berücksichtigung findet.However, it is also possible to examine the entire area of the object images 32 for the pictorial representation of the projectile effect 34 and to weight only the examination result in accordance with its position to the expected area 46. If an image conspicuity is outside the expectation range 46, it will be weighted less heavily than if it were within the expectation range 46. Further differentiation is possible by using instead of a single-stage expectation range 46, as in FIG. 4 is determined, a multi-level expectation range is determined, which may consist of a core region and one or more areas lying around the core region, for example, a central region and an outer region. Depending on the position of the pictorial representation of the projectile effect 34 in the areas is weighted from the inside out ever less. The weighting can also be changed continuously, for example, with a growing distance of the projectile effect 34 from the target direction 30 continuously decreasing. In this way, further away from the targeted object 10 lying image abnormalities are not suppressed, but always weighted weaker, so that a closer impact finds greater consideration.

Bei der Wahl der Größe des Erwartungsbereichs 46 berücksichtigt die Auswerteeinheit 24 zweckmäßigerweise sowohl eine bauartspezifische Ablagestreuung des Geschützes als auch eine individuelle Ablagestreuung des Geschützes, in diesem Fall der Rohrwaffe 18. Während die bauartspezifische Ablagestreuung vom Hersteller angegeben sein kann, kann eine individuelle Ablagestreuung des Geschützes entweder ebenfalls vom Hersteller angegeben sein oder aus früheren Versuchen gewonnen werden. Ein weiterer sinnvoller Parameter, der bei der Größe und auch der Lage des Erwartungsbereichs 46 berücksichtigt werden kann, ist die Windstärke und insbesondere auch die Windrichtung. Diese kann vom Waffensystem 14 gemessen werden und in die Bestimmung des Erwartungsbereichs 46 einfließen. Entsprechend der Windrichtung kann der Erwartungsbereich 46 ein Stück weit in Windrichtung verschoben werden, beispielsweise relativ zu einer Symmetrie um die Zielrichtung 30, und die Größe des Erwartungsbereichs 46 kann von der Windstärke abhängig gemacht werden. Ebenfalls sinnvoll ist es, eine Bewegung des Geschützes beziehungsweise des das Geschütz tragenden Fahrzeugs 16 in die Berechnung des Erwartungsbereichs 46 einfließen zu lassen. Je stärker die Bewegung ist, desto größer ist der Erwartungsbereich 46, da eine Bewegung, beispielsweise ein Rütteln, die Streuung vergrößern kann.When choosing the size of the expected range 46, the evaluation unit 24 expediently takes into account both a type-specific storage spread of the gun and an individual filing spread of the gun, in this case the barrel weapon 18. While the type-specific storage spread can be specified by the manufacturer, an individual filing spread of the gun either also specified by the manufacturer or obtained from previous experiments. Another useful parameter, which can be taken into account in the size and also the position of the expected range 46, is the wind strength and in particular also the wind direction. This can be measured by the weapon system 14 and incorporated into the determination of the expected range 46. In accordance with the wind direction, the expected region 46 can be displaced somewhat downwind, for example relative to a symmetry about the target direction 30, and the size of the expected region 46 can be made dependent on the wind force. It likewise makes sense to move the gun or the vehicle 16 carrying the gun into the calculation of the expected range 46 to be included. The stronger the movement, the larger the expectation range 46, since a movement, such as shaking, can increase the spread.

Analog zu einem räumlichen Fenster, wie dem Erwartungsbereich 46, kann ein zeitliches Fenster festgelegt werden, in dem eine Geschosswirkung 34 erwartet wird. Dies ist beispielhaft anhand der Darstellung aus FIG 5 erläutert.Analogous to a spatial window, such as the expectation region 46, a temporal window can be defined in which a projectile effect 34 is expected. This is an example based on the representation FIG. 5 explained.

FIG 5 zeigt die Aufnahmezeiträume 48 einer Vielzahl von Aufnahmen von Objektbildern 32 auf einem Zeitstrahl. Zwischen den Aufnahmezeiträumen 48 ist jeweils ein Auslesezeitraum schraffiert angedeutet, in dem keine Aufnahme stattfindet und der entsprechende Detektor der bildaufnehmenden Kamera 22 ausgelesen wird. Es ist selbstverständlich auch möglich, die Auslesezeiträume zu verringern oder sogar zu eliminieren durch sequentielles Auslesen oder andere geeignete Verfahren. Bei dem in FIG 5 dargestellten Verfahren dienen die schraffierten Auslesezeiträume hauptsächlich der einfacheren Erkennbarkeit des Verfahrens. FIG. 5 FIG. 14 shows the recording periods 48 of a plurality of images of object images 32 on a timeline. Between the recording periods 48, a read-out period is indicated by hatching, in which no recording takes place and the corresponding detector of the image-recording camera 22 is read out. Of course, it is also possible to reduce or even eliminate the readout periods by sequential readout or other suitable methods. At the in FIG. 5 The hatched readout periods are mainly used to simplify the recognition of the method.

Zu einem Abschusszeitpunkt tA wird das Geschoss aus der Rohrwaffe 18 abgeschossen. Im entsprechenden Aufnahmezeitraum 48 wird das Zielbild 26 aufgenommen. Nachfolgend wird eine Vielzahl von Objektbildern 32 aufgenommen, wie durch die Unterbrechung des Zeitstrahls anhand der zwei Striche angedeutet ist.At a firing time t A , the projectile is fired from the barrel weapon 18. In the corresponding recording period 48, the target image 26 is recorded. Subsequently, a plurality of object images 32 are recorded, as indicated by the interruption of the time beam based on the two bars.

Der Zeitpunkt tE gibt einen Erwartungszeitpunkt an, an dem eine Geschosswirkung 34, beispielsweise ein Einschlag des Geschossen am oder beim Objekt 10 oder eine Explosion des Geschosses in der Luft, erwartet wird. Um den Erwartungszeitpunkt tE wird von der Auswerteeinheit 24 ein Zeitfenster 50 gelegt, in dem Ereignisse, analog zum räumlichen Erwartungsbereich 46, ausschließlich berücksichtigt oder stärker berücksichtigt werden. Je nach Verfahren werden also die vor dem Zeitfenster 50 liegenden Objektbilder 32 nicht berücksichtigt beziehungsweise gar nicht erst aufgenommen oder hinsichtlich ihrer Bildauffälligkeiten schwächer gewichtet berücksichtigt.The point in time t E indicates an expectation time at which a projectile effect 34, for example an impact of the projectile on or at the object 10 or an explosion of the projectile in the air, is expected. At the expected time t E , the evaluation unit 24 sets a time window 50 in which events, analogous to the spatial expectation range 46, are taken into account exclusively or taken into greater consideration. Depending on the method, therefore, the object images 32 lying ahead of the time window 50 are not taken into account or are not even recorded or taken into account with a lower weighting with regard to their image conspicuities.

Eine Gewichtung oder ein Zuordnungswert kann allgemein, auch bei einem räumlichen Erwartungsbereich, ein Parameter sein, der bei einer Entscheidung, ob eine Bildauffälligkeit als Geschosswirkung zu klassifizieren ist, herangezogen wird. Er ist zweckmäßigerweise ein Parameter, dessen Größe entscheidend ist für das Ergebnis, ob eine Bildauffälligkeit als Geschosswirkung zu klassifizieren ist. Der Parameter kann beispielsweise eine Wahrscheinlichkeit sein, dass die Bildauffälligkeit eine Geschosswirkung ist.A weighting or an assignment value can generally, even in the case of a spatial expectation range, be a parameter which is used in a decision as to whether an image conspicuity should be classified as a projectile effect. It is expediently a parameter whose size is decisive for the result of whether an image conspicuity should be classified as a projectile effect. The parameter can for example, a probability that the image conspicuousness is a projectile effect.

Eine solche Unterscheidung bzw. Gewichtung ist beispielhaft anhand einer Bildauffälligkeit 52 in FIG 5 dargestellt. Die Bildauffälligkeit 52 ist beispielsweise das Mündungsfeuer des Maschinengewehrs auf dem LKW 10. Diese Bildauffälligkeit 52 dauert eine Weile an, wie durch den Doppelpfeil in FIG 5 um die Bildauffälligkeit 52 angedeutet ist, beispielsweise 50 ms. Sie reicht im gezeigten Beispiel in drei Objektbildern 32 beziehungsweise deren Aufnahmezeiträume 48. Der gesamte Zeitbereich der Bildauffälligkeit 52 liegt außerhalb des Zeitfensters 50, sodass die Bildauffälligkeit 52 nicht oder nur schwächer gewichtet berücksichtigt wird, als wenn sie innerhalb des Zeitfensters 50 gelegen hätte. Dies gilt um so mehr, da der signifikante Zeitpunkt der Bildauffälligkeit 52 an den Anfang der Bildauffälligkeit zu legen ist, an dem also eine entsprechende Explosion stattgefunden hat. Insofern reicht es aus, dem Zeitpunkt eines Anfangs der Bildauffälligkeit 52 als Wirkzeitpunkt hinsichtlich der Berücksichtigung beziehungsweise Gewichtung zu verwenden.Such a distinction or weighting is shown by way of example with reference to an image conspicuity 52 in FIG FIG. 5 shown. The image conspicuity 52 is, for example, the muzzle-fire of the machine-gun on the truck 10. This image-conspicuity 52 continues for a while, as indicated by the double-headed arrow in FIG FIG. 5 is indicated by the image conspicuity 52, for example 50 ms. It extends in the example shown in three object images 32 and their recording periods 48. The entire time range of the image conspicuity 52 is outside the time window 50, so that the image conspicuity 52 is not considered or only weakly weighted as if it had been within the time window 50. This is all the more true, since the significant time of the image conspicuity 52 is to be placed at the beginning of the image conspicuity, on which therefore a corresponding explosion has taken place. In this respect, it is sufficient to use the time of the beginning of the image conspicuity 52 as the effective time with regard to the consideration or weighting.

Die Geschosswirkung 34, auf deren Darstellung der Übersichtlichkeit halber in FIG 5 verzichtet wurde, liegt innerhalb des Zeitfensters 50. Sie wird entsprechend berücksichtigt, sodass die Lage ihrer Bildauffälligkeit im Wirkbild 36 zur Berechnung der Ablage A herangezogen wird.The projectile effect 34, on the representation of the sake of clarity in FIG. 5 is omitted, is within the time window 50. It is taken into account accordingly, so that the location of their image conspicuity in the active image 36 is used to calculate the tray A.

Anstelle eines Blitzes, wie er durch eine Explosion eines Geschosses verursacht werden würde und wie in FIG 4 zur Geschosswirkung 34 dargestellt ist, kann es sein, dass eine Geschosswirkung 54 sich nicht oder nicht nur als Blitz äußert, sondern als Aufwirbelung von Staub, als Qualmwolke oder als Aufschleudern von Steinen, wie beispielhaft anhand des Granateneinschlags 42 in FIG 4 dargestellt ist. Ein Explosionsblitz kann hierbei verdeckt oder nur unzureichend sichtbar sein.Instead of a flash, as it would be caused by an explosion of a projectile and as in FIG. 4 for projectile action 34, it may be that a projectile effect 54 does not express itself or not only as lightning, but as a whirling up of dust, as a cloud of smoke or as spin-on of stones, as exemplified by the grenade impact 42 in FIG. 4 is shown. An explosion flash can be hidden or insufficiently visible.

Ein solches Beispiel ist in FIG 5 dargestellt. Zu sehen ist, dass in einem Wirkbild 36, das nach dem Zeitfenster 50 aufgenommen wurde, eine Geschosswirkung 54 sichtbar ist. Diese ist zunächst schwer zu erkennen und wird gegebenenfalls auch nicht als solche erkannt. Im nachfolgenden Wirkbild 36 ist die Geschosswirkung 54 schon größer, und im wiederum darauffolgenden Wirkbild 36 noch größer, wie in FIG 5 angedeutet ist. Es handelt sich beispielsweise um die Ausdehnung einer Wärmewolke, die durch die Explosion eines Geschosses der Rohrwaffe 18 hervorgerufen wird, und die durch eine IR-Kamera 22 des Waffensystems 14 aufgenommen wird.One such example is in FIG. 5 shown. It can be seen that a projectile effect 54 is visible in an active image 36 which was recorded after the time window 50. This is difficult to recognize at first and may not be recognized as such. In the subsequent effective image 36, the projectile effect 54 is already greater, and in the subsequent active image 36, which is still larger, as in FIG FIG. 5 is indicated. It is, for example, the expansion of a thermal cloud, which is caused by the explosion of a projectile of the gun 18, and which is received by an IR camera 22 of the weapon system 14.

Aus der räumlichen Veränderung der Geschosswirkung 54 beziehungsweise der zugehörigen Bildauffälligkeit in den Objektbildern kann zweierlei geschlossen werden. Nämlich einerseits, dass es sich um eine Geschosswirkung 54 handelt, sodass die entsprechenden Objektbilder nun als Wirkbilder betrachtet werden, und andererseits kann auf einen zeitlichen Ursprung, einen Wirkzeitpunkt tW, geschlossen werden. Dies ist in FIG 5 angedeutet, in dem die Ausdehnung rückwärts bis zu einem Ursprung interpoliert wird, was durch die keilförmigen Linien angedeutet ist. Bemerkenswert ist, dass in einem Objektbild 32, das sogar innerhalb des Zeitfensters 50 liegt, keine Geschosswirkung 54 sichtbar ist. Eventuell ist diese noch zu klein oder war durch ein anderes Objekt verdeckt. Dennoch kann aus späteren Wirkbildern beziehungsweise der räumlichen Entwicklung der Geschosswirkung 54, auf den Wirkzeitpunkt tW geschlossen werden. Liegt dieser innerhalb des Zeitfensters 50, wie in FIG 5 dargestellt ist, kann davon ausgegangen werden, dass es sich um eine Geschosswirkung 54 eines Geschosses aus der Rohrwaffe 18 handelt. Liegt der Wirkzeitpunkt tW außerhalb des Zeitfensters 50, so kann das Ereignis geringer gewichtet oder ignoriert werden, sodass nicht von einer entsprechenden Geschosswirkung 54 ausgegangen wird, sondern die Bildauffälligkeiten einem anderen Ereignis zugeschrieben werden, das für die Ablage uninteressant ist. Bedeutsam hierbei ist, dass die Geschosswirkungen 54 in den Wirkbildern 36 nicht an sich den Wirkzeitpunkt tW angeben müssen, sondern dass dieser aus einer zeitlichen und räumlichen Entwicklung der Geschosswirkung 54 ermittelt werden kann und - wie in FIG 5 dargestellt ist - sogar innerhalb eines Auslesezeitraums liegen kann, in dem keine Bildaufnahme stattfindet.From the spatial change of the projectile effect 54 or the associated image conspicuousness in the object images two things can be concluded. Namely, on the one hand, that it is a projectile effect 54, so that the corresponding object images are now regarded as impact images, and on the other hand, a temporal origin, an action time t W , be concluded. This is in FIG. 5 is indicated, in which the extent is interpolated back to an origin, which is indicated by the wedge-shaped lines. It is noteworthy that in an object image 32, which is even within the time window 50, no projectile effect 54 is visible. Maybe this is still too small or was covered by another object. Nevertheless, it can be concluded from the later impact patterns or the spatial development of the projectile effect 54, the time of action t W. Is this within the time window 50, as in FIG. 5 is shown, it can be assumed that it is a projectile action 54 of a projectile from the barrel weapon 18. If the time of action t W outside the time window 50, so the event can be weighted less or ignored, so it is not assumed that a corresponding projectile effect 54, but the image abnormalities are attributed to another event that is uninteresting for filing. It is important here that the projectile effects 54 do not necessarily have to indicate the time of action t W in the active images 36, but that this can be determined from a temporal and spatial development of the projectile effect 54 and, as in FIG FIG. 5 may even be within a readout period in which no image capture takes place.

FIG 6 zeigt eine weitere Möglichkeit zur effizienten Verwendung des berechneten Zeitfensters 50. Gezeigt sind Aufnahmezeiträume 48 von Objektbildern 32, diesmal ohne die für die Bildaufnahme ausgelassenen Auslesezeiträume. Weiter sind dargestellt die uninteressante Bildauffälligkeit 52 und die langsam wachsende Geschosswirkung 54. Auf die Aufnahme und/oder Auswertung von Objektbildern 32, deren Aufnahmezeitraum vollständig vor dem Zeitfenster 50 liegt, wurde verzichtet. Insofern wird auch die Bildauffälligkeit 52 gar nicht entdeckt. Die Bildaufnahme von Objektbildern 32 wird erst mit dem Beginn des Zeitfensters 50 gestartet, sodass das erste Objektbild den Beginn des Zeitfensters 50 überdeckt, wie in FIG 6 dargestellt ist. Es ist zu sehen, dass zwei Objektbilder das Zeitfenster 50 vollständig überdecken. In diesem wird jedoch die Geschosswirkung 54 nicht detektiert. FIG. 6 shows a further possibility for efficient use of the calculated time window 50. Shown are recording periods 48 of object images 32, this time without the readout periods omitted for the image recording. Furthermore, the uninteresting image conspicuity 52 and the slow-growing projectile effect 54 are shown. The taking and / or evaluation of object images 32 whose recording period is completely in front of the time window 50 has been dispensed with. In this respect, the image conspicuity 52 is not discovered. The image capture of object images 32 is started only at the beginning of the time window 50, so that the first object image covers the beginning of the time window 50, as in FIG FIG. 6 is shown. It can be seen that two object images completely cover the time window 50. In this, however, the projectile effect 54 is not detected.

Bei dem in FIG 6 dargestellten Ausführungsbeispiel würde die Auswertung der Objektbilder 32 einzig um das Zeitfenster 50 nicht zu einem positiven Ergebnis führen. Daher ist es sinnvoll, ein Anschlusszeitfenster 56 an das eigentliche Zeitfenster 50 anzuhängen und auch dieses Anschlusszeitfenster 56 auf Bildauffälligkeiten, die die Geschosswirkung 54 zeigen könnten, zu untersuchen. Mit diesem Verfahren kann die Geschosswirkung 54 in Form der Wärmewolke erfolgreich erkannt werden. Die Größe des Anschlusszeitfensters 56 ist hierbei zweckmäßigerweise so zu wählen, dass Bildauffälligkeiten aus einer Staubaufwirbelung, einer Rauchentwicklung und/oder einer Wärmeentwicklung zuverlässig erkannt werden, wenn deren Ursprung innerhalb des eigentlichen Zeitfensters 50 liegt, wie in FIG 6 dargestellt ist.At the in FIG. 6 illustrated embodiment, the evaluation of the object images 32 only by the time window 50 would not lead to a positive result. It therefore makes sense to append a connection time window 56 to the actual time window 50 and also to examine this connection time window 56 for image abnormalities which might show the projectile effect 54. With this method, the projectile effect 54 can be successfully recognized in the form of the heat cloud. The size of the connection time window 56 is expediently to be selected such that image conspicuities from a dust upset, a smoke development and / or a heat development are reliably detected if their origin lies within the actual time window 50, as in FIG FIG. 6 is shown.

Eine weitere Möglichkeit zur Fehlerverringerung wird anhand der Darstellung aus FIG 7 erläutert. FIG 7 zeigt die Aufnahme einer Reihe von Objektbildern 32. Jedes dieser Objektbilder 32 wird mit dem jeweils vorhergehenden Objektbild, das in FIG 7 mit 32-1 gekennzeichnet ist, verglichen, beispielsweise durch Bildsubtraktion. Eine solche Bildsubtraktion ist durch die Markierung A - B in FIG 7 angedeutet. Gleichbleibende Bildmerkmale werden hierdurch eliminiert, und nur Bildveränderungen bleiben übrig, wie dies in FIG 7 beispielhaft an einer Geschosswirkung 34 beziehungsweise deren bildhafter Darstellung gezeigt ist.Another way to reduce the error is based on the presentation FIG. 7 explained. FIG. 7 shows the recording of a series of object images 32. Each of these object images 32 is merged with the respective preceding object image, which in FIG. 7 32-1 is compared, for example by image subtraction. Such image subtraction is indicated by the mark A - B in FIG FIG. 7 indicated. Consistent image features are thereby eliminated and only image changes are left as in FIG. 7 by way of example on a projectile effect 34 or its pictorial representation is shown.

Für den Fall, dass im Vergleichsbild keine oder keine genügende Bildauffälligkeit erkannt wird, kann das Vergleichsbild beziehungsweise Differenzbild 58 mit einer Bildverarbeitung in Form einer Signalverstärkung bearbeitet werden. Das entsprechend bearbeitete Bild 60 zeigt die Geschosswirkung 34 nun deutlicher, sodass deren Lage im derart bearbeiten Wirkbild 60 ermittelt werden kann. Die Lage wird beispielsweise relativ zu einem Referenzpunkt ermittelt, in dem Beispiel aus FIG 7 die Bildecke oben links. Entsprechend ergeben sich zwei Koordinaten, wie in FIG 7 durch die beiden Doppelpfeile wiedergegeben ist.In the event that no or no sufficient image conspicuousness is detected in the comparison image, the comparison image or difference image 58 can be processed with image processing in the form of a signal amplification. The correspondingly processed image 60 now shows the projectile effect 34 more clearly, so that its position in the active image 60 thus processed can be determined. For example, the location is determined relative to a reference point in the example FIG. 7 the picture corner on the top left. Accordingly, there are two coordinates, as in FIG. 7 is represented by the two double arrows.

Eine andere Möglichkeit besteht darin, dass eine Gruppe von Objektbildern 32 zu einem Referenzbild 62 gruppiert wird, beispielsweise durch Mittelwertbildung der Objektbilder 32 der Gruppe oder einer Interpolation aus den Objektbildern 32. Das Referenzbild 62 wird nun mit dem nächstfolgenden Objektbild 32 verglichen, beispielsweise durch Bildsubtraktion, wie in FIG 7 durch die Kennzeichnung A - B angedeutet ist. Das weitere Prozedere kann erfolgen, wie oben beschrieben.Another possibility is that a group of object images 32 is grouped into a reference image 62, for example by averaging the object images 32 of the group or an interpolation from the object images 32. The reference image 62 is then compared with the next following object image 32, for example by image subtraction , as in FIG. 7 is indicated by the marking A - B. The further procedure can be carried out as described above.

Die Anzahl der Objektbilder 32, aus denen das Referenzbild 62 gebildet wird, kann abhängig gemacht werden von der Bildfluktuation innerhalb der Objektbilder 32. Hierbei kann die Bildfluktuation des gesamten Objektbilds oder nur aus dem Erwartungsbereich 46 berücksichtigt werden. Die Bildfluktuation ergibt sich aus der Veränderung der Bildinhalte von einem Objektbild 32 zum nächsten. Bei hoher Bildfluktuation, also schnellen Änderungen der Bildinhalte, werden weniger Objektbilder 32 zum Referenzbild 62 verarbeitet als bei einer geringeren Bildfluktuation.The number of object images 32 from which the reference image 62 is formed may be made dependent on the image fluctuation within the object images 32. Here, the image fluctuation of the entire object image or only the expectation region 46 may be considered. The image fluctuation results from the change of the image contents from one object image 32 to the next. With high image fluctuation, ie rapid changes of the image contents, fewer object images 32 are processed to the reference image 62 than with a smaller image fluctuation.

Ebenfalls zur Fehlerverringerung trägt bei, wenn die Objektszene 2 durch mehrere Kameras 22 aufgenommen wird, die in unterschiedlichen Spektralbereichen sensitiv sind. Bei dem Beispiel aus FIG 8 werden drei Kameras 22 verwendet, wobei eine im infraroten Spektralbereich sensitiv ist, die andere im visuellen Bereich und die dritte im ultravioletten Bereich. Selbstverständlich ist es auch möglich, andere Spektralbereiche zu wählen, wobei die Darstellung aus FIG 8 nur beispielhaft gewählt ist. Sinnvoll sind mehrere Bereiche aus der Gruppe

  • langwelliger Infrarotbereich,
  • kurzwelligerer Infrarotbereich,
  • visueller Bereich, in dem Blitze erkannt werden,
  • langwelligerer visueller Bereich, der besonders zur Detektion von Rauch- oder Staubwolken geeignete ist, und
  • Bereich innerhalb des ultravioletten Strahlungsspektrums.
Another factor contributing to the reduction of errors is when the object scene 2 is recorded by a plurality of cameras 22 which are sensitive in different spectral ranges. In the example off FIG. 8 Three cameras 22 are used, one being sensitive in the infrared spectral range, the other in the visual range and the third in the ultraviolet range. Of course, it is also possible to choose other spectral ranges, the representation of FIG. 8 is chosen only as an example. Meaningful are several areas of the group
  • long-wave infrared range,
  • short-wave infrared range,
  • visual area where lightning is detected
  • long-wave visual range, which is particularly suitable for the detection of smoke or dust clouds, and
  • Range within the ultraviolet radiation spectrum.

Die entsprechenden Bildauffälligkeiten 64, 66, 68, 70 zeigen hierbei einen unterschiedlichen Verlauf. Während ein Explosionsblitz im ultravioletten Spektralbereich nur über einen verhältnismäßig kurzen Zeitraum detektiert wird, wird im visuellen Bereich der Explosionsblitz zusätzlich zu einer Staubaufwirbelung detektiert, die sich relativ langsam ausdehnt und hierdurch immer auffälliger wird, wie in FIG 8 im mittleren Zeichnungsbereich angedeutet ist. Die im Infraroten detektierte Wärmewolke breitet sich zwar langsamer aus, als der Lichtblitz auffällig wird, ist jedoch in seinem Größenwachstum schneller als die Rauch- und Staubaufwirbelung, die im sichtbaren Bereich detektiert wird. Insofern ergeben sich für jeden Spektralbereich unterschiedliche charakteristische Auffälligkeits- beziehungsweise Bildverläufe, also Intensitäts- und Größenverläufe in Abhängigkeit von der Zeit.The corresponding image abnormalities 64, 66, 68, 70 show a different course. While an explosive flash in the ultraviolet spectral range is detected only for a relatively short period of time, in the visual range the explosive flash is detected in addition to a dust swirl which expands relatively slowly and thereby becomes more conspicuous, as in FIG. 8 indicated in the middle drawing area. Although the thermal cloud detected in the infrared spreads out more slowly than the flash of light is noticeable, its size growth is faster than the smoke and dust turbulence detected in the visible range. In this respect, different characteristic conspicuity or image progressions result for each spectral range, ie intensity and size profiles as a function of time.

Jede der Kameras 22 nimmt eine entsprechende Reihe von Wirkbildern 36 in ihrem Spektralbereich auf. Wie zu den vorhergehenden Figuren beschrieben, werden Bildauffälligkeiten auf ihre mögliche Darstellung einer Geschosswirkung 34 untersucht. Bei dem in Anschluss an den Wirkzeitpunkt tW aufgenommenen Wirkbildern werden die Bildauffälligkeiten 64, 66, 68, 70 entdeckt und die Entwicklung der Geschosswirkung in den Wirkbildern 36 wird in jedem Spektralbereich mit einem für den Positionierschuss. erwarteten Signalverlauf in jedem Spektralbereich verglichen. Hierfür sind in der Auswerteeinheit 24 für jeden Spektralbereich typische Signalverläufe von mehreren Munitionsarten abgespeichert. Die Munitionsart des Geschosses, das verschossen wurde, wird hinterlegt, sodass die typischen Signalverläufe für dieses Geschoss aufgerufen und mit den gemessenen Signalverläufen, beispielsweise entsprechend FIG 8, verglichen werden können.Each of the cameras 22 receives a corresponding series of active images 36 in their spectral range. As described in the previous figures Image abnormalities are examined for their possible representation of a projectile effect 34. In the active images taken after the time of action t W , the image conspicuities 64, 66, 68, 70 are detected and the development of the projectile effect in the active images 36 occurs in each spectral range with one for the positioning shot. expected waveform in each spectral range compared. For this purpose, typical signal profiles of several types of ammunition are stored in the evaluation unit 24 for each spectral range. The ammunition type of the projectile that was fired is deposited, so that the typical signal courses for this projectile are called up and with the measured signal progressions, for example correspondingly FIG. 8 , can be compared.

Der Signalverlauf der Geschosswirkung 34 wird insofern in seinem zeitlichen Verlauf der Intensität in allen drei Spektralbereichen untersucht. Die Bildauffälligkeiten 64, 66, 68, 70 werden nur dann der Geschosswirkung 34 zugeordnet, wenn der Signalverlauf in allen geprüften Spektralbereichen der hinterlegten Signalcharakteristik innerhalb einer vorgegebenen Abweichung entspricht.The signal profile of the projectile effect 34 is thus examined in its time course of the intensity in all three spectral ranges. The image conspicuities 64, 66, 68, 70 are only assigned to the projectile effect 34 if the signal curve in all tested spectral ranges corresponds to the stored signal characteristic within a predetermined deviation.

Wiederum zur Verringerung der Fehlerwahrscheinlichkeit ist es vorteilhaft, wenn ein oder mehrere der Spektralbereiche auf ein verhältnismäßig schmales Spektralband begrenzt sind. Hierfür sind die Bandbreiten von zwei Spektralbereichen, nämlich des visuellen und ultravioletten Spektralbereichs auf den Faktor 1,5 begrenzt, sodass die Frequenz des oberen Bandendes 1,5-mal so groß ist wie die Frequenz des unteren Bandendes. Die Breite des infraroten Spektralbands ist mit dem Faktor 2 begrenzt, sodass die Frequenz des oberen Bandendes zweimal so groß ist wie die Frequenz des unteren Bandendes.Again, to reduce the error probability, it is advantageous if one or more of the spectral regions are limited to a relatively narrow spectral band. For this purpose, the bandwidths of two spectral ranges, namely the visual and ultraviolet spectral range are limited to a factor of 1.5, so that the frequency of the upper band end is 1.5 times as large as the frequency of the lower band end. The width of the infrared spectral band is limited by a factor of 2, so that the frequency of the upper band end is twice as large as the frequency of the lower band end.

Zur Abgrenzung des Signalverlaufs gegen beispielsweise ein Mündungsfeuer kann das von der Rohrwaffe 18 verschossene Geschoss ein spezielles Signalgeschoss sein, das mit einem dem Geschoss eigenen Markierungsfeuer abbrennt. Dieses Markierungsfeuer unterscheidet sich sowohl in seinem Spektrum als auch vom zeitlichen Verlauf der Intensität deutlich von üblichen Mündungsfeuern oder Granatenexplosionen. Der Signalverlauf eines solchen Markierungsfeuers, das beispielsweise zunächst verstärkt im ultravioletten Bereich und dann über einen längeren Zeitraum im visuellen Bereich strahlt, insbesondere mit einem charakteristischen Intensitäts- und/oder Spektralverlauf über die Zeit, kann mit dem hinterlegten Signalverlauf verglichen werden, sodass die Geschosswirkung 34 des Positionierschusses eindeutig als solche erkennbar ist. Durch die Auswertung eines Strahlungsverlaufs über die Zeit in einem oder mehreren Frequenzbändern kann eine Geschosswirkung 34, insbesondere eines speziellen Positioniergeschosses beziehungsweise Markiergeschosses, auch von Störsignalen unterschieden werden.To delineate the signal profile against, for example, a muzzle flash, the projectile fired by the gun 18 may be a special signal projectile which burns with a marker fire of its own. This marker fire differs significantly in its spectrum as well as the time course of the intensity of usual muzzle flashes or grenade explosions. The signal profile of such a marking fire, which, for example, first amplified in the ultraviolet range and then over a longer period of time in the visual area, in particular with a characteristic intensity and / or spectral course over time, can be compared with the stored signal waveform, so that the projectile effect 34 of the positioning shot is clearly recognizable as such. By the evaluation of a Radiation course over time in one or more frequency bands, a projectile effect 34, in particular a special positioning bullet or marking bullet, are also distinguished from interfering signals.

Werden zur Verteidigung des Objekts 10 beispielsweise Störeinheiten abgeworfen, zum Beispiel Flares, so sind diese als Bildauffälligkeiten zwar deutlich in den Objektbildern 32 sichtbar, deren Strahlungscharakteristik ist jedoch unterschiedlich von der eines normalen Geschosses oder eines speziellen Positioniergeschosses. Durch den Vergleich des zeitlichen Verlaufs der durch die Störelemente hervorgerufenen Bildauffälligkeiten mit dem entsprechenden Parameter in der erwarteten Geschosswirkung, kann die Geschosswirkung 34 eindeutig von solchen Störsignalen unterschieden werden.If, for example, flaws are thrown in defense of the object 10, for example flares, these are clearly visible in the object images 32 as image conspicuities, but their radiation characteristics are different from those of a normal projectile or a special positioning projectile. By comparing the time course of the image conspicuities caused by the interfering elements with the corresponding parameter in the expected projectile effect, the projectile effect 34 can be clearly distinguished from such interfering signals.

Eine weitere Möglichkeit zur Reduzierung der Fehleranfälligkeit besteht darin, dass eine Salve aus mehreren Geschossen aus der Rohrwaffe 18 auf das Objekt 10 verschossen wird. Für jedes Geschoss wird nun eine Geschosswirkung 34 bestimmt. In mehreren Prüfstufen kann nun eine Anfälligkeit für Verwechslung verringert werden.Another possibility for reducing the susceptibility to failure is that a volley of several projectiles from the barrel weapon 18 is fired at the object 10. For each projectile, a projectile effect 34 is determined. In several test stages a susceptibility to confusion can now be reduced.

FIG 9 zeigt den Verschuss einer Salve aus sechs Geschossen in ihrem zeitlichen Verlauf. Zum Zeitpunkt t1 wird der erste Schuss der Salve getan. Zu den Zeitpunkten t2, t3, ...werden die weiteren Schüsse der Salve abgeschossen. Wird die Rohrwaffe 18 während der Salve nicht oder nur geringfügig bewegt, so sollten die entsprechenden Geschosswirkungen 34 jeweils am gleichen Ort ihres Wirkbilds 36 sichtbar werden. Werden also sechs Geschosswirkungen 34, oder allgemeiner gesprochen: so viele Geschosswirkungen wie Geschosse in der Salve verschossen wurden, an einer Stelle in der Objektszene 2 gefunden, so ist dies ein starker Hinweis darauf, dass es sich tatsächlich um Geschosswirkungen 34 von Geschossen aus der Rohrwaffe 18 handelt. FIG. 9 shows the shooting of a salvo of six floors in their time course. At time t 1 , the first shot of the salvo is done. At the times t 2 , t 3 ,..., The further shots of the salvo are fired. If the gun 18 is not or only slightly moved during the salvo, the corresponding projectile effects 34 should be visible at the same location of their effective image 36. If, therefore, six projectile effects 34, or more generally spoken: as many projectile effects as projectiles were shot in the salvo, found at one point in the object scene 2, this is a strong indication that they are actually projectile effects 34 of projectiles from the barrel weapon 18 acts.

Bei einer solchen Prüfung besteht noch eine Verwechselbarkeit in beispielsweise einem Mündungsfeuer einer Maschinenwaffe, wie einem Maschinengewehr oder einer anderen Salvenfeuerwaffe. Auch Einschläge aus einer solchen Fremdwaffe könnten zu Verwechslungen führen. Um auch das Risiko einer solchen Verwechslung zu verringern, ist die zeitliche Abfolge der Abschusszeitpunkte unregelmäßig codiert. Aus FIG 9 ist zu sehen, dass die ersten drei Schüsse der Salve regelmäßig aufeinanderfolgen, dann eine größere Pause eintritt und die letzten drei Schüsse der Salve wieder regelmäßig aufeinanderfolgen, jedoch mit einem kleineren zeitlichen Abstand zueinander. Um diese Codierung nutzen zu können, wird für jedes Geschoss bzw. für jede Geschosswirkung 34 deren Wirkzeitpunkt ermittelt. Ist die zeitliche Codierung der Wirkzeitpunkte gleich der Codierung der Abschüsse, so ist dies ein starkes Indiz dafür, dass die tatsächlich gesuchten Geschosswirkungen 34 gefunden wurden.In such an examination, there is still confusion in, for example, a muzzle flash of a machine gun, such as a machine gun or another salvo firearm. Even impacts from such a foreign weapon could lead to confusion. In order to reduce the risk of such confusion, the time sequence of the firing times is coded irregularly. Out FIG. 9 it can be seen that the first three shots of the salvo follow each other regularly, then a longer break occurs and the last three shots of the salvo follow each other again regularly, but with a smaller time interval to each other. To be able to use this coding, each bullet is used or for each projectile effect 34 determines its effective time. If the temporal coding of the times of action equals the coding of the kills, then this is a strong indication that the actually sought bullet effects 34 were found.

Eine weitere Möglichkeit besteht darin, dass für jedes Geschoss ein Zeitfenster, in dem die Geschosswirkung 34 erwartet wird, bestimmt wird. Auch dies ist in FIG 9 dargestellt. Es sind sechs Zeitfenster 50 berechnet, die in ihrem zeitlichen Verlauf entsprechend der zeitlichen Codierung liegen. Der zeitliche Abstand zwischen einem Abschusszeitpunkt ti und dem entsprechenden Zeitfenster 50 kann aus einem Abstand zwischen Waffensystem 14 und Objekt 10 oder einer Tempierung der Geschosse der Salve bestimmt werden, also einer voreingestellten Zeitspanne nach dem Abschuss, nach deren Ablauf das Geschoss explodiert.Another possibility is that a time window in which the projectile effect 34 is expected is determined for each projectile. This too is in FIG. 9 shown. Six time windows 50 are calculated, which lie in their temporal course according to the temporal coding. The time interval between a firing time t i and the corresponding time window 50 can be determined from a distance between weapon system 14 and object 10 or a temping of the projectiles of the salvo, ie a preset period of time after firing, after which the projectile explodes.

Zur Verifikation der Zugehörigkeit der Bildauffälligkeiten zu den Geschosswirkungen 34 kann nun aus der Lage der Wirkzeitpunkte zu den Zeitfenstern jeweils ein Zuordnungswert zu jedem Wirkzeitpunkt ermittelt werden. In FIG 9 ist dargestellt, dass drei kleinere Bildauffälligkeiten vor dem ersten Zeitfenster 50 auftreten. Deren Wirkzeitpunkte liegen entsprechend vor dem ersten Zeitfenster, sodass der Zuordnungswert dieser Wirkzeitpunkte zu einem Geschoss der Salve gering ist. Zeitlich hinter dem ersten Zeitfenster 50 ist wieder eine Bildauffälligkeit vorhanden. Auch die fünfte Bildauffälligkeit liegt hinter einem Zeitfenster 50. Auch hier ist der Zuordnungswert zu einem Geschoss gering, wenn auch etwas größer bedingt durch die zeitliche Nähe zum jeweiligen Zeitfenster 50. Entsprechend wird mit allen Bildauffälligkeiten verfahren. Insgesamt wird aus den Zuordnungswerten ein Gesamtzuordnungswert gebildet. Da die einzelnen Bildauffälligkeiten nicht in den Zeitfenstern 50 liegen, sind die Zuordnungswerte gering und auch der Gesamtzuordnungswert ist gering. Der Gesamtzuordnungswert sei in diesem Ausführungsbeispiel zu gering, dass die Bildauffälligkeiten der Salve zugeordnet werden.To verify the affiliation of the image conspicuities to the projectile effects 34, it is now possible to determine from the position of the action times to the time windows in each case an assignment value for each action time. In FIG. 9 It is shown that three smaller image abnormalities occur before the first time window 50. Their active times are correspondingly before the first time window, so that the assignment value of these action times to a bullet of the salvo is low. Time after the first time window 50 is again a picture conspicuousness. The fifth image conspicuity is also behind a time window 50. Again, the assignment value to a floor is small, albeit slightly larger due to the temporal proximity to the respective time window 50. Accordingly, all image abnormalities are dealt with. Overall, a total allocation value is formed from the assignment values. Since the individual image conspicuities are not in the time windows 50, the assignment values are low and also the total allocation value is low. The total allocation value is too low in this embodiment that the image abnormalities are assigned to the salvo.

Es wird jedoch anschließend die Lage aller Wirkzeitpunkte auf eine systematische Lageverschiebung zu den Zeitfenstern 50 untersucht. Hierbei fällt auf, dass die vierte, fünfte und sechste Bildauffälligkeit, sowie die achte, neunte und zehnte Bildauffälligkeit um den gleichen zeitlichen Abstand hinter einem Zeitfenster 50 liegen. Es kann sich somit um eine systematische Lageverschiebung der Wirkzeitpunkte zu den Zeitfenstern handeln. Rechnerisch werden nun alle Bildauffälligkeiten um die systematische Lageverschiebung zeitlich nach vorne verschoben. Hierbei fällt auf, dass sechs von den zehn in FIG 9 dargestellten Bildauffälligkeiten symmetrisch in den Zeitfenstern 50 zu liegen kommen. Ihr Zuordnungswert wird entsprechend hochkorrigiert. Resultierend ist der Gesamtzuordnungswert über einer Schwelle, sodass diese sechs Bildauffälligkeiten den Geschossen der Salve zugeordnet werden. Die Zuordnungswerte der ersten drei Bildauffälligkeiten sowie der siebten Bildauffälligkeit sind nach wie vor gering, sodass davon ausgegangen wird, dass diese nicht zur Salve gehören.However, the position of all times of action is then examined for a systematic positional shift to the time windows 50. It is noticeable here that the fourth, fifth and sixth image conspicuities, as well as the eighth, ninth and tenth image conspicuities lie behind the same time interval behind a time window 50. It can thus be a systematic shift of the effective times to the time windows. Calculatorisch now all image abnormalities are around the systematic postponement shifted temporally forward. It is striking that six of the ten in FIG. 9 displayed image abnormalities come to lie symmetrically in the time windows 50. Your assignment value will be adjusted accordingly. As a result, the total attribution value is above a threshold, so these six abnormalities are assigned to the volleys of the salvo. The attribution values of the first three abnormalities and the seventh image abnormality are still low, so it is assumed that they do not belong to the salve.

Um die Verwechslungsgefahr noch weiter zu reduzieren, werden in der Salve unterschiedliche Geschosse verschossen, die eine unterschiedliche Geschosswirkung hervorrufen. Diese ist auch verschieden von später verschossener Kampfmunition. Der Unterschied kann in einem spektralen Unterschied, in einer Intensität der hervorgerufenen Bildauffälligkeit oder in einer Art der Bildauffälligkeit, beispielsweise Lichtbilds- oder Rauchentwicklung, liegen. In FIG 9 sind solche unterschiedlichen Geschosswirkungen durch unterschiedlich gestaltete Explosionsblitze angedeutet. In der Salve seien jedes dritte Geschoss stärkere Geschosse als die beiden vorhergehenden. Dies ist aus FIG 9 sichtbar. Nun werden auch die Bildauffälligkeiten auf die unterschiedliche Geschosswirkung hinsichtlich Spektrum, zeitlicher Verlauf und/oder Bildauffälligkeitsart untersucht. Hierbei fällt auf, dass die Codierung der vierten bis sechsten und siebten bis zehnten Bildauffälligkeit der unterschiedlichen Geschosswirkungen der Geschosse aus der Salve entspricht. Außerdem fällt auf, dass die siebte Bildauffälligkeit durch eine noch größere Geschosswirkung aus der Salvenreihe fällt. Hierdurch können die Bildauffälligkeiten, die in ihrer Geschosswirkung verifiziert wurden, in ihren Zuordnungswerten erhöht werden und die übrigen Bildauffälligkeiten erhalten noch niedrigere Zuordnungswerte.In order to reduce the likelihood of confusion even further, different bullets are shot in the salvo, which cause a different projectile effect. This is also different from later lost combat ammunition. The difference may be in a spectral difference, in an intensity of the resulting image conspicuity or in a type of image conspicuity, such as a photo or smoke development. In FIG. 9 Such different projectile effects are indicated by differently designed explosion flashes. In the salvo, every third storey is stronger than the previous two. This is off FIG. 9 visible, noticeable. Now, the image abnormalities on the different floor effect in terms of spectrum, time course and / or Bildauffälligkeitsart be examined. It is noticeable here that the coding corresponds to the fourth to sixth and seventh to tenth image conspicuousness of the different projectile effects of the projectiles from the salvo. In addition, it is striking that the seventh image conspicuousness falls through an even greater bullet effect from the salvo series. As a result, the image conspicuities which have been verified in terms of their projectile effect can be increased in their assignment values and the remaining image conspicuities receive even lower association values.

Je nach Objektszene 2, Kampfsituation oder momentanem Auftrag können die Anforderungen an die Erkennung der Geschosswirkung 34 in der Objektszene sehr unterschiedlich sein. Um trotzdem stets zu einer zuverlässigen Erkennung einer Geschosswirkung 34 zu kommen, ist das Waffensystem 14 mit mehreren Modulen 72 zur Erkennung der Geschosswirkungen 34 ausgerüstet. Diese Module 72 sind in FIG 1 angedeutet.Depending on the object scene 2, combat situation or current order, the requirements for detecting the projectile effect 34 in the object scene can be very different. In order nevertheless to always come to a reliable detection of a projectile effect 34, the weapon system 14 is equipped with a plurality of modules 72 for detecting the projectile effects 34. These modules 72 are in FIG. 1 indicated.

Die unterschiedlichen Module 72 zur Ermittlung der Geschosswirkung 34 sind einzeln oder in Kombination heranziehbar entsprechend einer Bedienereingabe oder einem Auswertungsergebnis der Auswerteeinheit 24. Ebenfalls entscheidend ist, welche Kameras 22 im Waffensystem 14 vorhanden sind, welche Spektralfilter vorhanden sind, welche Geschosse für Positionierschüsse vorhanden sind und welche Geschosse verwendet werden und dergleichen. Eines der Module 72 legt beispielsweise einen Erwartungsbereich in den Objektbildern bzw. einem Wirkbild fest, in der die Geschosswirkung 34 erwartet wird. Ein anderes Modul 72 bestimmt ein Zeitfenster 50, in der die Geschosswirkung 34 erwartet wird. Ein weiteres Modul 72 wertet unterschiedliche Strahlungsspektren der Geschosswirkung aus. Ein weiteres Modul 72 steuert den Einsatz mehrerer Kameras 22 in unterschiedlichen Spektralbereichen zum Vergleich von spektral unterschiedlichen Bildauffälligkeiten 64, 66, 68. Ein weiteres Modul 72 steuert den Einsatz von spezieller Markierungsmunition für Positionierschüsse, die von später verschossener Munition verschieden ist. Dieses Modul 72 steuert auch die entsprechende Prüfung der Bildauffälligkeiten 64, 66, 68 auf ihre Ähnlichkeit zu hinterlegten Strahlungsverläufen. Ein weiteres Modul 72 steuert den Einsatz einer Markiersalve mit mehreren hintereinander abgeschossenen Geschossen und wertet die Bildauffälligkeiten entsprechend aus.The different modules 72 for determining the projectile effect 34 can be used individually or in combination according to an operator input or an evaluation result of the evaluation unit 24. It is also decisive which Cameras 22 are present in the weapon system 14, which spectral filters are present, which bullets are available for positioning shots and which bullets are used and the like. For example, one of the modules 72 determines an expected range in the object images or an active image in which the projectile effect 34 is expected. Another module 72 determines a time window 50 in which the floor effect 34 is expected. Another module 72 evaluates different radiation spectra of the projectile effect. Another module 72 controls the use of multiple cameras 22 in different spectral ranges for comparison of spectrally different image conspicuities 64, 66, 68. Another module 72 controls the use of special marker ammunition for positioning shots, which is different from later lost ammunition. This module 72 also controls the corresponding examination of the image conspicuities 64, 66, 68 for their similarity to stored radiation profiles. Another module 72 controls the use of a Markersalve with several successive projectiles and evaluates the image abnormalities accordingly.

BezugszeichenlisteLIST OF REFERENCE NUMBERS

22
Objektszeneobject scene
44
Raketenträgerrocketship
66
Panzertank
88th
Panzertank
1010
LKW/ObjektTrucks / object
1212
Radfahrzeugwheeled vehicle
1414
Waffensystemweapon system
1616
Radfahrzeugwheeled vehicle
1818
Rohrwaffebarreled weapon
2020
Zieleinheitdestination
2222
Kameracamera
2424
Auswerteeinheitevaluation
2626
Zielbildtarget image
2828
Zielmarkierungtarget marker
3030
Zielrichtungtarget direction
3232
Objektbilderobject images
3434
GeschosswirkungLevels effect
3636
WirkbildFunctional diagram
3838
WirkpunktrichtungAction point direction
4040
Richtungsdifferenzdirectional difference
4242
Granateneinschlaggrenades impact
4444
Boden-Luft-RaketeGround-to-air missile
4646
ErwartungsbereichExpected range
4848
AufnahmezeitraumRecording period
5050
ZeitfensterTime window
5252
Bildauffälligkeitimage conspicuity
5454
GeschosswirkungLevels effect
5656
AnschlusszeitfensterConnection time window
5858
Differenzbilddifference image
6060
bearbeites Bildedit image
6262
Referenzbildreference image
6464
Bildauffälligkeitimage conspicuity
6666
Bildauffälligkeitimage conspicuity
6868
Bildauffälligkeitimage conspicuity
7070
Bildauffälligkeitimage conspicuity
7272
Modulmodule
LL
Lagelocation
RR
WirkpunktrichtungAction point direction
ΔR.DELTA.R
Richtungsdifferenzdirectional difference
AA
Ablagefiling
KK
Korrekturcorrection
tA t A
AbschusszeitpunktLaunch time
tE t E
ErwartungszeitpunktExpectation time
tW t W
WirkzeitpunktMore time
ti t i
AbschusszeitpunkteLaunch dates

Claims (16)

Verfahren zur Ablagekorrektur eines Waffensystems (14), bei dem ein Geschoss aus einer Rohrwaffe (18) des Waffensystems (14) in eine Zielrichtung (30) auf ein Objekt (10) verschossen wird, eine Richtung (38) eines Wirkpunkts des Geschosses am Objekt (10) erfasst wird, die Richtungsdifferenz (40) zwischen der Zielrichtung (30) und der Wirkpunktrichtung (38) als Ablage (A) erfasst wird und eine Zielrichtung eines späteren Schusses auf das Objekt (10) unter Verwendung der Ablage (A) korrigiert wird,
dadurch gekennzeichnet,
dass die Wirkpunktrichtung (38) erfasst wird, indem ein Wirkbild (36) aufgenommen wird, das die Geschosswirkung (34, 54) am Objekt (10) darstellt, und die Wirkpunktrichtung (38) aus dem Wirkbild (36) bestimmt wird.
Method for correction of a weapon system (14), in which a projectile from a gun (18) of the weapon system (14) is fired into an aiming direction (30) on an object (10), a direction (38) of an action point of the projectile on the object (10), the directional difference (40) between the aiming direction (30) and the direction of sense (38) is detected as a bin (A), and a target of a later shot is corrected to the object (10) using the bin (A) becomes,
characterized,
in that the direction of effect (38) is detected by taking an effective image (36) representing the projectile effect (34, 54) on the object (10), and determining the direction of effect (38) from the effective image (36).
Verfahren nach Anspruch 1,
dadurch gekennzeichnet,
dass ein das Objekt (10) abbildendes Zielbild (26) aufgenommen wird und die Zielrichtung (30) im Zielbild (26) festgelegt wird, das Zielbild (26) mit dem später aufgenommenen Wirkbild (36) unter Verwendung einer Mustererkennung korreliert und daraus eine Relativlage der beiden Bilder (26, 36) zueinander bestimmt wird und unter Verwendung der Relativlage die Richtungsdifferenz (40) bestimmt wird.
Method according to claim 1,
characterized,
in that a target image (26) depicting the object (10) is recorded and the target direction (30) is determined in the target image (26), the target image (26) correlates with the later captured real image (36) using pattern recognition and from this a relative position the two images (26, 36) to each other is determined and using the relative position, the direction difference (40) is determined.
Verfahren nach Anspruch 1 oder 2,
dadurch gekennzeichnet,
dass eine Abfolge von das Objekt (10) abbildenden Objektbildern (32) aufgenommen wird, die Objektbilder (32) der Abfolge auf die Geschosswirkung (34) untersucht werden und mehrere Objektbilder (32), in denen die Geschosswirkung (54) bildhaft gefunden wird, als Wirkbilder (36) auf eine Entwicklung der bildhaften Geschosswirkung (54) in den Wirkbildern (36) ausgewertet werden.
Method according to claim 1 or 2,
characterized,
that a sequence of the object (10) imaging object images (32) is received, the object images (32) to be examined of the sequence on the projectile impact (34) and a plurality of object images (32) in which the projectile impact (54) is found pictorially, as impact images (36) on a development of the pictorial projectile effect (54) in the impact images (36) are evaluated.
Verfahren nach einem der vorhergehenden Ansprüche,
dadurch gekennzeichnet,
dass ein Erwartungsbereich (46), in dem die Geschosswirkung (34, 54) erwartet wird, als ein Teilbereich in einem das Objekt (10) abbildenden Objektbild (32) ausgewählt wird, und ein Auswertergebnis innerhalb des Erwartungsbereichs (46) höher gewichtet wird als ein Auswertergebnis außerhalb des Erwartungsbereichs (46).
Method according to one of the preceding claims,
characterized,
that an expected range (46), in which the projectile impact (34, 54) expected when a partial area in an object (10) imaging the object image (32) is selected, and an evaluation result within the expected range (46) is weighted higher than an evaluation result outside the expectation range (46).
Verfahren nach Anspruch 4,
dadurch gekennzeichnet,
dass die Größe und/oder Lage des Erwartungsbereichs (46) im Objektbild (32) in Abhängigkeit von zumindest einem der Parameter aus der folgenden Parametergruppe gewählt wird: bauartspezifische Ablagestreuung des Geschützes, individuelle Ablagestreuung des Geschützes, Windstärke, Windrichtung, Bewegung eines das Geschütz tragenden Fahrzeugs (16) während des Abschusses, Temperatur eines Geschützteils.
Method according to claim 4,
characterized,
that the size and / or position of the expectation range (46) in the object image (32) is selected as a function of at least one of the parameters from the following group of parameters: design-specific storage spread of the gun, individual storage spread of the gun, wind force, wind direction, movement of the gun carrying Vehicle (16) during launch, temperature of a gun part.
Verfahren nach einem der vorhergehenden Ansprüche,
dadurch gekennzeichnet,
dass ein Zeitfenster (50), in dem die Geschosswirkung (34, 54) erwartet wird, bestimmt wird, eine Abfolge von das Objekt (10) abbildenden Objektbildern (32) aufgenommen wird, Bilder der Abfolge auf die Geschosswirkung (34, 54) untersucht werden und ein Wirkzeitpunkt (tW) innerhalb des Zeitfensters (50) höher gewichtet wird, als außerhalb des Zeitfensters (50).
Method according to one of the preceding claims,
characterized,
in that a time window (50) in which the projectile effect (34, 54) is expected is determined, a sequence of object images (32) depicting the object (10) is taken, images of the sequence are examined for the projectile effect (34, 54) and an effective time (t W ) within the time window (50) is weighted higher than outside the time window (50).
Verfahren nach Anspruch 6,
dadurch gekennzeichnet,
dass die zeitliche Lage der Integration der Aufnahme des Wirkbilds (36) unter Verwendung des Zeitfensters (50) festgelegt wird.
Method according to claim 6,
characterized,
that the timing of the integration of the recording of the active image (36) using the time window (50) is fixed.
Verfahren nach Anspruch 6 oder 7,
dadurch gekennzeichnet,
dass eine Entwicklung der bildhaften Geschosswirkung (54) in einer Abfolge von Wirkbildern (36) ausgewertet wird, aus der Rückbetrachtung der Entwicklung ein Wirkzeitpunkt (tw) ermittelt wird, an dem die Geschosswirkung (54) begann, und geprüft wird, ob der Wirkzeitpunkt (tW) im Zeitfenster (50) liegt.
Method according to claim 6 or 7,
characterized,
that a development of the pictorial projectile effect (54) is evaluated in a sequence of impact images (36), from the consideration of the development a time of action (tw) is determined, at which the projectile effect (54) began, and it is checked whether the time of action ( t W ) lies in the time window (50).
Verfahren nach einem der vorhergehenden Ansprüche,
dadurch gekennzeichnet,
dass zwischen einem Abschuss des Geschosses und einem Wirkzeitpunkt (tW) des Geschosses zumindest ein Objektbild (32) vom Objekt (10) aufgenommen wird, das Wirkbild (36) unter Verwendung des Objektbilds (32) bearbeitet wird, insbesondere das Objektbild (32) vom Wirkbild (36) subtrahiert wird, und die Wirkpunktrichtung (38) aus dem Differenzbild (58) bestimmt wird.
Method according to one of the preceding claims,
characterized,
in that at least one object image (32) is received by the object (10) between a shot of the projectile and an action time (t W ) of the projectile, the active image (36) is processed using the object image (32), in particular the object image (32) is subtracted from the active image (36), and the direction of effect (38) from the difference image (58) is determined.
Verfahren nach einem der vorhergehenden Ansprüche,
dadurch gekennzeichnet,
dass mehrere in unterschiedlichen Spektralbereichen sensierende Kameras (22) vorhanden sind und jede Kamera (22) zumindest ein Wirkbild (36) aufnimmt, und aus den Wirkbildern (36) jeweils die Wirkpunktrichtung (38) bestimmt wird.
Method according to one of the preceding claims,
characterized,
in that a plurality of cameras (22) which sense in different spectral regions are present and each camera (22) receives at least one active image (36), and from each of the active images (36) the direction of effect (38) is determined.
Verfahren nach einem der vorhergehenden Ansprüche,
dadurch gekennzeichnet,
dass eine Signalcharakteristik der in einem oder mehreren Wirkbildern (36) aufgefundenen Geschosswirkung mit einer hinterlegten Signalcharakteristik des Geschosses verglichen wird.
Method according to one of the preceding claims,
characterized,
that a signal characteristic of the found in one or more active images (36) Levels effect is compared with a stored signal characteristic of the projectile.
Verfahren nach einem der vorhergehenden Ansprüche,
dadurch gekennzeichnet,
dass eine Salve aus mehreren Geschossen auf das Objekt (10) verschossen wird, für jedes Geschoss eine Geschosswirkung (34, 54) und ein Wirkzeitpunkt (tW) der Geschosswirkung (34, 54) bestimmt werden und die zeitliche Abfolge der Wirkzeitpunkte (tW) mit der zeitlichen Abfolge der Abschusszeitpunkte (tA) verglichen wird.
Method according to one of the preceding claims,
characterized,
that a salvo of several floors is fired at the object (10), for each floor a projectile effect (34, 54) and a time of action (t W ) of the projectile effect (34, 54) are determined and the time sequence of the action times (t W ) is compared with the time sequence of the firing times (t A ).
Verfahren nach Anspruch 12,
dadurch gekennzeichnet,
dass die zeitliche Abfolge der Abschusszeitpunkte (tA) unregelmäßig codiert ist.
Method according to claim 12,
characterized,
that the timing of the firing times (t A) is irregular coded.
Verfahren nach Anspruch 12 oder 13,
dadurch gekennzeichnet,
dass in der Salve unterschiedliche Markiergeschosse verschossen werden, die eine unterschiedliche Geschosswirkung (34, 54) hervorrufen, und die sich von einer später verschossenen Kampfmunition unterscheiden.
Method according to claim 12 or 13,
characterized,
that in the salvo different Markiergeschosse are fired, which cause a different projectile effect (34, 54), and which differ from a later fired combat munitions.
Verfahren nach einem der vorhergehenden Ansprüche,
dadurch gekennzeichnet,
dass unterschiedliche Module (72) zur Ermittlung der Geschosswirkung (34, 54) vorhanden sind, die einzeln oder in Kombination heranziehbar sind, und in Abhängigkeit einer Kampfsituation, vorhandener Geschosse und/oder vorhandenen Detektionssystemen festgelegt wird, welches Modul (72) zur Bestimmung der Geschosswirkung (34, 54) herangezogen wird, wobei eines oder mehr Module (72) der folgenden Gruppe vorhanden sind: Erwartungsbereich (46) der Geschosswirkung (34, 54) im Wirkbild (36), Zeitfenster (50) für die Geschosswirkung (34, 54), Strahlungsspektrum der Geschosswirkung (34, 54), Bildsubtraktion eines Objektbilds (32) ohne Geschosswirkung (34, 54) vom Wirkbild (36), Einsatz mehrerer Kameras (22) unterschiedlicher Spektralbereiche, Einsatz von Markierungsmunition, die von später verschossener Munition verschieden ist, Einsatz einer Markiersalve mehrerer hintereinander abgeschossener Geschosse und deren Auswertung auf mehrere Geschosswirkungen (34, 54).
Method according to one of the preceding claims,
characterized,
that different modules (72) for determining the projectile effect (34, 54) are present, which can be used individually or in combination, and are determined as a function of a combat situation, existing projectiles and / or existing detection systems, which module (72) determines the Projectile effect (34, 54), wherein one or more modules (72) of the following group are present: expected range (46) of the projectile effect (34, 54) in the active image (36), time window (50) for the projectile effect (34, 54), radiation spectrum of the projectile effect (34, 54), image subtraction of an object image (32) without projectile effect (34, 54) from the active image (36), use of multiple cameras (22) of different spectral ranges, use of marker ammunition, which differs from later lost ammunition is the use of a Marksalve several consecutively fired projectiles and their evaluation on several projectile effects (34, 54).
Waffensystem (14) mit einer Zieleinheit (20) zur Eingabe und Erfassung einer Zielrichtung (30), in die ein Geschoss aus einer Rohrwaffe (18) auf ein Objekt (10) verschossen wird, einem optischen System mit einer Kamera (22) und einer Auswerteeinheit (24) zur Bestimmung einer Richtung (38) eines Wirkpunkts des Geschosses am Objekt (10) und einer Ablage (A) in Form einer Richtungsdifferenz (40) zwischen der Zielrichtung (30) und der Wirkpunktrichtung (38), wobei die Zieleinrichtung (20) dazu vorbereitet ist, eine Zielrichtung (30) eines späteren Schusses auf das Objekt (10) unter Verwendung der Ablage (A) zu korrigieren,
dadurch gekennzeichnet,
dass die Auswerteeinheit (24) dazu vorbereitet ist, die Wirkpunktrichtung (38) zu erfassen, indem ein die Geschosswirkung (34, 54) am Objekt darstellendes Wirkbild (36) aufgenommen wird und die Wirkpunktrichtung (38) aus dem Wirkbild (36) bestimmt wird.
A weapon system (14) comprising a target unit (20) for inputting and detecting a targeting direction (30) into which a bullet from a gun (18) is shot at an object (10), an optical system having a camera (22) and a Evaluation unit (24) for determining a direction (38) of an action point of the projectile at the object (10) and a file (A) in the form of a directional difference (40) between the target direction (30) and the direction of action (38), wherein the target device ( 20) is prepared to correct a target direction (30) of a later shot on the object (10) using the tray (A),
characterized,
in that the evaluation unit (24) is prepared to detect the direction of effect (38) by recording an effective image (36) representing the projectile effect (34, 54) on the object and determining the direction of effect (38) from the effective image (36) ,
EP17000925.2A 2016-06-23 2017-06-01 Method for offset correction of a weapon system Pending EP3260808A3 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102016007624.0A DE102016007624A1 (en) 2016-06-23 2016-06-23 1Procedure for file correction of a weapon system

Publications (2)

Publication Number Publication Date
EP3260808A2 true EP3260808A2 (en) 2017-12-27
EP3260808A3 EP3260808A3 (en) 2018-01-10

Family

ID=59009486

Family Applications (1)

Application Number Title Priority Date Filing Date
EP17000925.2A Pending EP3260808A3 (en) 2016-06-23 2017-06-01 Method for offset correction of a weapon system

Country Status (3)

Country Link
EP (1) EP3260808A3 (en)
DE (1) DE102016007624A1 (en)
ZA (1) ZA201704186B (en)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB9620614D0 (en) * 1996-10-03 1997-03-12 Barr & Stroud Ltd Target aiming system
EP1952304A4 (en) * 2005-11-08 2014-10-08 Gen Atomics Apparatus and methods for use in flash detection
US20080022575A1 (en) * 2006-05-08 2008-01-31 Honeywell International Inc. Spotter scope
IL204455A (en) * 2010-03-14 2015-03-31 Shlomo Cohen System and method for registration of artillery fire
FR2989456B1 (en) * 2012-04-12 2018-05-04 Philippe Levilly TELEOPERATED TARGET PROCESSING SYSTEM
DE102014019200A1 (en) * 2014-12-19 2016-06-23 Diehl Bgt Defence Gmbh & Co. Kg automatic weapon

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
None

Also Published As

Publication number Publication date
DE102016007624A1 (en) 2018-01-11
EP3260808A3 (en) 2018-01-10
ZA201704186B (en) 2018-08-29

Similar Documents

Publication Publication Date Title
WO2007054278A1 (en) Self-protection system for combat vehicles or other objects to be protected
EP1304539A1 (en) Method and device for aiming a gun barrel and use of the device
DE10117007A1 (en) Method and device for protecting mobile military equipment
DE10230939A1 (en) Fighting vehicle has warning sensors to detect and analyze threats and select optimum countermeasures using bus connected detachable munition projectors
EP2165151A1 (en) Method and launching apparatus for protection of an object against a threat, in particular a missile, as well as munition
EP0411073A1 (en) Process and device for improving the accuracy of aim
DE3733962A1 (en) METHOD FOR AUTOMATIC TARGET CLASSIFICATION BY AGRICULTURAL AND WATER COMBATING VEHICLES AND DEVICE FOR CARRYING OUT SAID METHOD
EP3034986A1 (en) Automatic gun
EP3118561B1 (en) Directed energy system and weapon system
EP3376154B1 (en) Method for protecting a cruise missile
EP3591427B1 (en) Missile alerter and a method for issuing a warning about a missile
DE3303763C2 (en)
EP3260808A2 (en) Method for offset correction of a weapon system
DE19716199A1 (en) Procedure for aiming the weapon of a weapon system and weapon system for implementing the method
DE2701042A1 (en) DEVICE FOR REMOTE DETECTION OF BULLETS ON A TARGET
EP3034983B1 (en) Automatic gun
WO2016087115A1 (en) System and a method for locating and combatting threats, in particular in asymmetric threat situations
EP0154809A1 (en) Method for simulating combat
DE1951622A1 (en) Arrangement for simulating firing paths
DE102005057323A1 (en) Device for increasing probability of hit of firearm, has image evaluation device which is suitable to bring recorded reference image for evaluation of result by user during operation of device
DE102008023520C5 (en) Method for classifying RAM bullets
DE102005054776A1 (en) Steering method for missiles
EP3839567A1 (en) Missile warning and a method for issuing a warning about a missile
DE102011107950A1 (en) System of e.g. firearms, to prevent e.g. civilian aircraft collision with e.g. civilian building, has communication apparatus from which output signal generated by applying logic function to transmission information is sent to weapons
EP1450125A1 (en) Method and device for fighting against a target

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE APPLICATION HAS BEEN PUBLISHED

PUAL Search report despatched

Free format text: ORIGINAL CODE: 0009013

AK Designated contracting states

Kind code of ref document: A2

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

AX Request for extension of the european patent

Extension state: BA ME

AK Designated contracting states

Kind code of ref document: A3

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

AX Request for extension of the european patent

Extension state: BA ME

RIC1 Information provided on ipc code assigned before grant

Ipc: F41G 3/08 20060101ALN20171204BHEP

Ipc: F41G 3/14 20060101AFI20171204BHEP

Ipc: F41G 3/16 20060101ALI20171204BHEP

Ipc: F41G 3/04 20060101ALN20171204BHEP

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: REQUEST FOR EXAMINATION WAS MADE

17P Request for examination filed

Effective date: 20180709

RBV Designated contracting states (corrected)

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: EXAMINATION IS IN PROGRESS

17Q First examination report despatched

Effective date: 20200320

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: EXAMINATION IS IN PROGRESS

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: EXAMINATION IS IN PROGRESS

GRAP Despatch of communication of intention to grant a patent

Free format text: ORIGINAL CODE: EPIDOSNIGR1

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: GRANT OF PATENT IS INTENDED

RIC1 Information provided on ipc code assigned before grant

Ipc: F41G 3/08 20060101ALN20240223BHEP

Ipc: F41G 3/04 20060101ALN20240223BHEP

Ipc: F41G 3/16 20060101ALI20240223BHEP

Ipc: F41G 3/14 20060101AFI20240223BHEP

INTG Intention to grant announced

Effective date: 20240315

RIC1 Information provided on ipc code assigned before grant

Ipc: F41G 3/08 20060101ALN20240301BHEP

Ipc: F41G 3/04 20060101ALN20240301BHEP

Ipc: F41G 3/16 20060101ALI20240301BHEP

Ipc: F41G 3/14 20060101AFI20240301BHEP

GRAS Grant fee paid

Free format text: ORIGINAL CODE: EPIDOSNIGR3