EP3260808A2 - Method for offset correction of a weapon system - Google Patents
Method for offset correction of a weapon system Download PDFInfo
- Publication number
- EP3260808A2 EP3260808A2 EP17000925.2A EP17000925A EP3260808A2 EP 3260808 A2 EP3260808 A2 EP 3260808A2 EP 17000925 A EP17000925 A EP 17000925A EP 3260808 A2 EP3260808 A2 EP 3260808A2
- Authority
- EP
- European Patent Office
- Prior art keywords
- image
- projectile
- effect
- target
- images
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 33
- 238000012937 correction Methods 0.000 title claims abstract description 17
- 230000000694 effects Effects 0.000 claims abstract description 203
- 230000009471 action Effects 0.000 claims abstract description 53
- 238000011156 evaluation Methods 0.000 claims description 37
- 230000003595 spectral effect Effects 0.000 claims description 35
- 238000011161 development Methods 0.000 claims description 18
- 239000003550 marker Substances 0.000 claims description 17
- 238000010304 firing Methods 0.000 claims description 16
- 238000001514 detection method Methods 0.000 claims description 10
- 230000005855 radiation Effects 0.000 claims description 8
- 238000001228 spectrum Methods 0.000 claims description 7
- 230000010354 integration Effects 0.000 claims description 5
- 230000003287 optical effect Effects 0.000 claims description 3
- 230000001788 irregular Effects 0.000 claims description 2
- 230000036961 partial effect Effects 0.000 claims description 2
- 238000003909 pattern recognition Methods 0.000 claims description 2
- 230000008685 targeting Effects 0.000 claims description 2
- 238000003384 imaging method Methods 0.000 claims 2
- 238000013461 design Methods 0.000 claims 1
- 230000000875 corresponding effect Effects 0.000 description 21
- 230000005856 abnormality Effects 0.000 description 20
- 238000004880 explosion Methods 0.000 description 20
- 230000002123 temporal effect Effects 0.000 description 16
- 230000018109 developmental process Effects 0.000 description 15
- 239000000779 smoke Substances 0.000 description 14
- 238000012545 processing Methods 0.000 description 12
- 239000000428 dust Substances 0.000 description 11
- 239000002360 explosive Substances 0.000 description 8
- 238000004364 calculation method Methods 0.000 description 7
- 230000009897 systematic effect Effects 0.000 description 6
- 230000000007 visual effect Effects 0.000 description 6
- 230000008859 change Effects 0.000 description 5
- 230000001419 dependent effect Effects 0.000 description 5
- 230000002829 reductive effect Effects 0.000 description 5
- 230000002452 interceptive effect Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 230000003321 amplification Effects 0.000 description 2
- 230000002596 correlated effect Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 239000007789 gas Substances 0.000 description 2
- 230000001965 increasing effect Effects 0.000 description 2
- 238000003199 nucleic acid amplification method Methods 0.000 description 2
- 239000002674 ointment Substances 0.000 description 2
- 239000000700 radioactive tracer Substances 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000003466 anti-cipated effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000007123 defense Effects 0.000 description 1
- 238000005474 detonation Methods 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000012447 hatching Effects 0.000 description 1
- 238000003702 image correction Methods 0.000 description 1
- 230000000670 limiting effect Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 238000001454 recorded image Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000007480 spreading Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000002277 temperature effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- F—MECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
- F41—WEAPONS
- F41G—WEAPON SIGHTS; AIMING
- F41G3/00—Aiming or laying means
- F41G3/14—Indirect aiming means
- F41G3/142—Indirect aiming means based on observation of a first shoot; using a simulated shoot
-
- F—MECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
- F41—WEAPONS
- F41G—WEAPON SIGHTS; AIMING
- F41G3/00—Aiming or laying means
- F41G3/14—Indirect aiming means
- F41G3/16—Sighting devices adapted for indirect laying of fire
- F41G3/165—Sighting devices adapted for indirect laying of fire using a TV-monitor
-
- F—MECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
- F41—WEAPONS
- F41G—WEAPON SIGHTS; AIMING
- F41G3/00—Aiming or laying means
- F41G3/04—Aiming or laying means for dispersing fire from a battery ; for controlling spread of shots; for coordinating fire from spaced weapons
-
- F—MECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
- F41—WEAPONS
- F41G—WEAPON SIGHTS; AIMING
- F41G3/00—Aiming or laying means
- F41G3/08—Aiming or laying means with means for compensating for speed, direction, temperature, pressure, or humidity of the atmosphere
Definitions
- the invention relates to a method for correction of a weapon system, in which a projectile from a gun weapon of the weapon system is fired at a target on an object, a direction of an action point of the projectile is detected by the object, the direction difference between the target direction and the Wirkpunakichtung detected as a shelf and a targeting of a later shot on the object is corrected using the bin.
- Shots from guns are subject to a degree of variance with regard to their accuracy.
- a small scattering within a single shot sequence with unchanged orientation of the tube can be distinguished from a larger spread over longer periods of time and different weapons copies.
- machine guns have a very small short-term spread, which is generally tolerable.
- the coarse scattering caused by long-term changes, such as a transport of the weapon, temperature effects, wind changes from day to day and the like.
- the coarse scattering can thus lead in a combat situation to a systematically wrong filing, in which the barrel weapon with high accuracy, although reproducibly hits a small scattering area, this scattering area of the impacts but located next to the target object.
- a positioning shot at the target object or generally in a desired target direction can be fired. Now the impact of the positioning projectile is detected and thereby starting from the pipe to the point of impact a direction of effect. The distance from the impact to the target object or the direction difference from the direction of the direction of impact to the target direction can now be determined as a file. A later shot can be corrected using the clipboard so that this later shot hits the target object.
- This object is achieved by a method of the aforementioned type, in which according to the invention the direction of effect is detected by taking an effective image which represents the projectile effect on the object, and the direction of the effect is determined from the effective image.
- the direction of effect is detected by taking an effective image which represents the projectile effect on the object, and the direction of the effect is determined from the effective image.
- the directional difference between the target direction and the direction of the direction of impact can be detected automatically and swiftly - assuming that the targeted direction was assumed to be known.
- the alignment of the machine gun can be automatically corrected depending on the filing, so that the automatic correction of the determination of the direction of the direction of action in the active pattern to the direction correction of the gun barrel can be carried out very quickly and reliably.
- the weapon system may include a machine gun for firing ammunition in salvo fire, in which automated shots can be fired in succession. Subsequent shots are expediently in an automated ratio to the previous shot, for example in the launch time difference and / or the automated stack correction.
- a control computer is provided which automatically aligns a gun weapon of the weapon system, for example, based on instructions from an operator.
- the destination direction is expediently known, for example from a destination process.
- the object may be captured in a target image, and an operator may mark the imaged object, for example with a crosshair.
- the marker determines the direction from the weapon system to the object and thus the target direction.
- the target direction need not be a geoid absolute direction, but may be a relative direction, for example, to a reference direction of the weapon system, such as a picture corner, a Rohrausraum or the like.
- the point of action of the projectile is a point at which the projectile unfolds an effect visibly, for example as an explosion, whose explosive lightning is visible. Also possible is a Aufaufwirbelung by a detonation pressure wave, a Cloud of smoke or other visible effect.
- the point of action lies on the object and can therefore be located directly on the object, for example in the form of an impact on the object, or in a neighborhood of the object. If the projectile is fired, for example, with a tempition and ignites in the vicinity of the object, for example, to achieve a scattering effect, so is the point of action of the projectile on the object in this case.
- the filing does not have to be the absolute filing and can subsequently still be changed or corrected, for example, by a lead in the case of an accelerating moving target object.
- another parameter may be used to correct the deposit, such as the measurement of variable wind, vibration of the weapon, anticipated acceleration of the target, and the like.
- One possible method for correction of the position of the weapon system may comprise the steps of determining the target direction, determining the direction of the direction of the effect, determining the deposit and the deposit correction of the machine weapon.
- an optical system with a camera can record the object, expediently in a regular, in particular continuous sequence of images. These images can be displayed to an operator on a screen so that they can track the object as in a movie. The operator can select the object and direct a mark on it, such as a crosshair. In the case of a relative movement of the object relative to the camera orientation, the operator can trace the marking to the object, or the object is automatically tracked so that the marking is automatically tracked to the object.
- the object is detected as such in the object image and recognized in the subsequent object images, so that the marking is tracked from object image to object image with the moving object.
- the target direction can be determined when shooting down the bullet, for example relative to the camera orientation or the object image or even absolutely, if an absolute orientation of the camera or the object image in space is known.
- an object image can be examined for image abnormalities using image processing methods, which can be assigned to a projectile effect. If an image conspicuity is found in a given position of a projectile effect, the location of this image conspicuousness in the object image can be determined.
- the object image is now an active image that shows the effect of the projectile. The direction of the effect can now be determined from the position of the projectile effect or the image conspicuousness in the active image and may possibly be the situation itself.
- the directional difference for example by subtraction, can be determined from the target direction and the direction of the direction of the effect and used as at least provisional filing.
- the alignment of the weapon is now corrected using the bin, and a subsequent shot is aimed at the object. If necessary, the tray can be further corrected as described above.
- the positioning shot can be made with the same or different ammunition as the later and corrective shot control shot, for example, to make the bullet effect more visible and concise.
- a positioning shot from a salvo consist of several individual shots, which are directed one behind the other on the object and their effect is detected in each case in an active image.
- the active image and the target image can overlap one another congruently, for example if the orientation of a camera receiving the two images is not changed between the two recording times. If the target direction is detected in the target image and the direction of effect is in the active image, then both directions can then be directly compared with one another, for example deducted from one another, so that the directional difference and thus the offset results therefrom. However, it may also be that the later active image is shifted to the target image by a movement of the receiving camera, which has been tracked for example by the operator or by auto-tracking the object. A movement of a vehicle carrying the weapon system can lead to a movement of the camera and thus a shift of the active image to the target image.
- a target image which images the object is taken, and the target direction is defined in the target image.
- the target image can now be correlated with the later captured image using pattern recognition in the two images.
- the two images can be superimposed, so that an imaged in both images in Cover is brought.
- a relative position of the two images to each other can be determined.
- the directional difference can be determined from the relative position of the two images and the position of the target in the target image and the direction of the effect in the active image.
- a target mark is carried along with the object, for example in subsequent object images.
- Decisive for determining the target direction is expediently the target direction at the time of firing of the projectile.
- a target image which images the object at the time of shooting is taken, and the target direction is defined in the target image.
- the target image is expediently recorded at the time of shooting.
- the image which has the smallest time interval from the time of shooting can be used as the target image.
- a sequence of object images is recorded, whereby a target marker in these images can be carried along with the movement of the object.
- the target image can be an image in which the target or object is marked at launch.
- a sequence of object images depicting object images is taken, the images of the sequence are examined for the projectile effect and a plurality of object images in which the projectile effect is pictorially found, as effect images on a development of the pictorial projectile effect in the impact images are evaluated. For example, from an expansion of a cloud of smoke or dust on one Turning point and also an impact time to be closed. It would also be possible to deduce from a course of a fire of a projectile on the Geunterart and thus to distinguish a marker shot from a shot from another gun.
- the development may be compared to a waveform typical of a bullet waveform, in particular a marker fire of a particular type of ammunition for a positioning shot.
- a tracer bullet when shooting with a tracer bullet, the tracer can be tracked in the multiple impact images, and an impact point can be clearly assigned to the projectile.
- the firing weapon system can be easily recognized by the target object. This creates the danger of counter-fighting.
- the object may defend itself by generating spurious signals, for example in the form of flares.
- spurious signals for example in the form of flares.
- interference signals in a sequence of images or object images are recognized as such.
- Such a detection can be done by their temporal occurrence, for example, their signal start, a temporal waveform and / or a radiation spectrum of the noise is evaluated.
- the signals can be compared with a corresponding parameter of an expected projectile effect or with a corresponding parameter of known interference elements.
- the corresponding image conspicuousness can be recognized as an interference signal.
- the image conspicuousness can also be detected as an interference signal.
- an object image for example, a muzzle flash is recognizable or the impact or the explosion of a foreign projectile from another weapon or the like.
- an object image can have a plurality of image conspicuities, which are then to be examined as to whether the sought-after floor effect hides behind them.
- Such an evaluation can be computationally intensive and thus time consuming.
- explosive flashes of foreign bullets can also be a confusion occur, so that a filing is detected incorrectly.
- an image evaluation in an object image is spatially limited to an expectation range in which the projectile effect is expected.
- an expectation range may be limited to the local environment of the nominal target point, for example around the target direction.
- the size of the expected range is expediently at most half the image area of the object image, in particular at a maximum of 1/10 of the image area of the object image.
- An evaluation result is, for example, a calculation result as to whether an image conspicuity could represent the projectile effect, for example a probability that an image conspicuity represents the projectile effect.
- a weighting could be made such that a picture image outside the expectation range is classified with a lesser probability as a floor effect than the same image detail within the expectation range.
- the expected range can be divided into several areas.
- the expected range may comprise a core area with a highest weighting and a border area with a lower weighting, possibly even a third outdoor area with an even lower weighting, but which is greater than the weighting outside the expectation range. It is also possible to have a continuous weighting curve which decreases with increasing distance to an expectation point in which the projectile effect of the positioning shot is expected.
- the size of the expectation range in the object image is expediently not rigid, but can be selected as a function of one or more parameters.
- the parameter of a type-specific storage spread of the gun can be used.
- the individual filing spread of the gun represents a meaningful such parameter.
- Gun-independent wind force and / or a wind direction can be considered. Movement of a vehicle carrying the gun during firing and / or a turret temperature are also parameters that may be taken into account.
- a further advantageous embodiment of the invention provides that a time window within which the projectile effect is expected is determined. An evaluation of a series of object images can then be limited to those object images that lie at least partially within the time window. Generally speaking, a sequence of object images depicting the object may be taken, and images of the sequence may be examined for the floor effect, with a time of action of a floor effect within the time window being weighted higher than outside the time window.
- the time of action ie the time at which a suspected projectile effect occurs. If this time of action lies outside the time window, then the probability is greater that the corresponding image conspicuity is a different effect, for example a different artillery, than if the effective time is within the time window.
- the time of action may be a time at which the projectile unfolds its effect, in particular begins to unfold. For example, if a light signal takes one Explosion or the burning of a Markiergeunteres a longer while and is mapped, for example, in several object images, so is the effective time at the beginning of this effect.
- an image conspicuity that is outside the time window can be omitted, if it is clear that this image conspicuity can not be attributed to a projectile effect due to time constraints.
- the location and / or size of the time window can be determined from a distance of the object from the machine gun and / or a temping of the projectile.
- the time window is placed symmetrically around the known from the tempation explosion time of the projectile.
- the exposure period or integration period of the recording of the active image can be determined as a function of the position and size of the time window.
- the temporal position of the integration lies within the time window.
- the integration period is set by an expected effective time, for example symmetrically around the expected time of action.
- the time of action ie the time at which the bullet effect began, can also be determined in this way.
- a time of action is determined. Subsequently, it can be checked whether the time of action lies in the time window.
- the active images are recorded in the infrared spectral range, it is advantageous if the development of the pictorial projectile effect is investigated.
- the enlargement of a heat range for example, caused by the projectile explosion, can be tracked, and it can be concluded on the date of action by recalculation.
- the integration duration of the recording of an infrared active image is greater than the time window. In general, and thus independent of the time window, the time of action can only be determined inaccurately from a single image. By recalculating an expanding thermal cloud, however, one can infer the time and / or location of its formation.
- the image scene in an object image has strong signal structures and contrasts.
- effects may possibly be reduced by a judicious choice of the spectral range of a receiving camera used, they may significantly increase the potential for error in the detection of a projectile effect.
- false targets that erroneously conclude a bullet effect, so that the filing is calculated incorrectly. Examples include other explosions, burning buildings, all kinds of fires, muzzle flashes of weapons in the target area, and more.
- the object image is edited with a smart image correction.
- Such editing is conveniently done using a previously captured object image.
- the later recorded image is processed using this object image, for example by enhancing image differences.
- a processing can consist of an image subtraction, so that, for example, the object image and the active image are subtracted from one another.
- the projectile effect can now be determined from a remaining image conspicuousness and from this the direction of the effect. Even strong signal structures, if they change sufficiently slowly, can be reduced or even suppressed in this way.
- a period in which an object image used for image processing is used is expediently determined by the fluctuation of the signal structure in a series of object images, that is to say a temporal change of the signal structure.
- a reference image is obtained from a plurality of object images and the active image is processed on the basis of the reference image, for example by subtracting the reference image from the active image.
- the plurality of object images may be a sequence of object images.
- the reference image may be formed from an average of the object images or an interpolation from the object images. If, for example, a clear development of a structure can be recognized from several object images, this structure can be extrapolated by interpolation to the time of the active image to be examined are thus supplied to the image processing, for example, a picture subtraction.
- a reference image is created based on a plurality of object images, then it is advantageous if the number of object images from which the reference image is formed is determined as a function of the image acquisition frequency and / or a fluctuation of the scene around the object.
- the fluctuation of the scene can be determined from one or more preceding object images by image processing.
- the difference image is processed with image processing in the form of a signal amplification, for example by at least a factor of 2, in particular a factor of 5.
- image processing is only performed when no sufficient image conspicuousness, which could represent a projectile effect, has previously been found.
- the effect of a projectile usually unfolds in several spectral ranges.
- an explosive flash in the visible range and also an expansion of a cloud of smoke in the visible range can be detected.
- the propagation of a thermal cloud can be sensed in the infrared spectral range.
- An explosion flash can be distinguished from flames very well in the ultraviolet range.
- a plurality of cameras that are sensitive in different spectral ranges are present and each camera receives at least one active image. From the impact images, either individually or from a combination of the results from the effects, a projectile effect can be determined and from this a direction of effect. In this way, one effect direction can be determined from all the active images of the cameras. It is also possible to first determine projectile effects, to assign matching projectile effects in the impact images to a positioning projectile and to determine only one direction of effect.
- the pictorial development of the projectile effect usually unfolds differently in different spectral ranges.
- an explosive flash in the visible and / or ultraviolet range is very short, while the propagation of a thermal cloud takes much longer.
- the spread of a cloud of smoke or dust lasts even longer. Therefore, it is beneficial if the development of pictorial Projectile effect is evaluated in the impact images in each spectral range.
- the development of the pictorial projectile effects can then be compared with a signal course expected for the positioning shot, for example for an explosive flash, a spreading thermal cloud or an expanding cloud of smoke.
- the spectral range that is used to investigate the projectile effect it may be useful to limit the spectral range that is used to investigate the projectile effect. As a result, false signals can be suppressed.
- at least one spectral range is limited to a spectral band that is less than the factor of 1.5 by a marking color of the projectile.
- the factor can also be chosen to be smaller, for example 1.2 or even 1.1.
- the factor 1.5 means that the frequency of the upper end of the tape is at most 1.5 times as high as the frequency of the lower end of the tape.
- a positioning shot is set with marking ammunition, which differs in their beam characteristic during the impact or the explosion of ammunition to combat the object.
- ammunition with a special luminous characteristic can be used, which differs from the subsequent stock-corrected projectiles.
- An error probability can be further reduced if the signal characteristic of the projectile effect is examined in terms of its temporal course of the intensity in at least two different spectral ranges.
- Another way to reduce false positives is to shoot a salvo of several floors onto the object.
- a projectile effect can now be detected and an effective time of the projectile effect can be determined.
- the time sequence of Acting times are checked for plausibility, for example by the temporal sequence is compared with the time sequence of the firing times.
- a time window in which the projectile effect is expected is determined for each projectile, and the position of the action time points relative to the time windows is determined. It can be inferred from the position of the time of action whether the projectile effect or the detected image conspicuousness is actually the projectile effect of the marking bullet (s).
- an assignment value can be formed in each case from the position of the action times to the time windows, and a total assignment value can be formed from a plurality of assignment values.
- the total allocation value may indicate a probability of assignment of the projectile effects to the projectiles of the salvo.
- a further possibility for recognizing discrimination errors can be achieved by firing different marking bullets in the salvo, which produce a different bullet effect.
- All marking bullets used are expediently special projectiles for a Markierschuss, so that they differ so far from a later fired combat ammunition.
- each module expediently pursues another strategy or another method for reducing recognition errors.
- the different modules can be used individually or in combination, expediently as a function of a combat situation, existing projectiles and / or existing detection systems.
- the invention also relates to a weapon system having a target device for inputting and detecting a target direction into which a projectile from a weapon of the weapon system is fired at an object in a target direction.
- the weapon system expediently also comprises an optical system with a camera and an evaluation unit for determining a direction of an action point of the projectile on the object.
- the evaluation unit is expediently to prepared to determine a filing in the form of a directional difference between the target direction and the direction of the direction.
- the aiming device is expediently adapted to correct a target direction of a later shot on the object using the tray.
- the evaluation unit is prepared in accordance with the invention for detecting the direction of the effect by recording an effective image representing the projectile effect on the object and determining the direction of the effect from the effective image.
- FIG. 1 shows an object scene 2 in a landscape.
- the object scene 2 includes a number of vehicles, of which in FIG. 1 The following are shown by way of example: a rocket carrier 4 for launching ground-to-air missiles 44, two tanks 6, 8, a truck 10 and a number of other wheeled vehicles 12.
- a weapon system 14 is shown schematically, which is also shown only schematically in FIG Wheeled vehicle 16 is mounted.
- the weapon system 14 comprises a gun barrel 18 for projectile missiles and a target unit 20 with a plurality of cameras 22, of which FIG. 1 for simplicity, only two cameras 22 are shown.
- the weapon system 14 comprises an evaluation unit 24 for the numerical detection of a tray and for automatic storage correction of the gun 18.
- the target unit 20 generates by means of one or more of the cameras 22 a target image 26, in which the object scene 2 and in particular the vehicle to be controlled are shown.
- An operator of the weapon system 14 marks in the target image 26 an object 10 that is to be fought, for example, the front truck. This marking can be done via a target mark 28 in the target image 26, such as a crosshair, the sake of clarity in FIG. 1 is shown in the object scene 2 on the front wheeled vehicle.
- the target marker 28 is placed by the operator over the object 10 to be controlled or to the point at which a shot from the gun 18 is to be placed.
- the target marker 28 is set, for example by a corresponding command of the operator, the position of the target marker 28 in the target image 26 is detected by the target unit 20.
- the target direction 30 is only a relative target direction 30, since its absolute direction does not have to be known.
- the orientation of the target image 26 receiving camera 22 is detected, so that the position of the target image 26 in the object scene 2 and thus the position of the target mark 28 in the object scene 2 is known.
- This target direction can now travel, for example, by a movement of the object 10 through the object scene 2 or a movement of the weapon system 14 in space.
- the target direction 30 can be moved in this case, for example by the position of the target mark 28 in the target image.
- the target mark 28 in the target image 26 can be tracked by the operator and thus held on the object 10 to be controlled.
- Another possibility is the automatic tracking of the object 10, so that the target marker 28 and thus the target direction 30 automatically remains held on the object 10.
- a series of target images 26 are recorded over time, with the original target image 26 by means of image-processed methods are compared, so that the object 10 is detected in the subsequent target images 26. Based on the original position of the target mark 28 on the object 10, the position of the target mark 28 of the new position of the object 10 in the object scene 2 is now adjusted automatically.
- the target direction 30 is stored at the moment of the launch. This target direction is used below to calculate a clipboard.
- previous objectives 30 prior to launch can be stored and used as a basis for other calculations, they do not initially play a role in the calculation of the filing.
- the target image 26 displayed on a display unit of the target unit 20 is in FIG. 2 shown enlarged. It shows the target mark 28 on the front vehicle or object 10 at the time of the launching of the projectile in target direction 30 from the gun 18.
- a series of object images 32 are recorded, which are shown schematically in FIG FIG. 3 are shown. These object images 32 show the object scene 2, which changes slightly according to the passage of time.
- the object images 32 or at least a part thereof are examined for a pictorial representation of the projectile effect of the projectile fired from the gun 18. If such a pictorial projectile effect 34 is found in an object image 32, this object image 32 is used as the active image 36 for calculating the deposit.
- FIG. 4 shows the active image 36, in which the projectile effect 34 next to the object 10 is visible.
- the projectile effect 34 is recognized as such in the active image 36, and the position of the pictorial representation of the projectile effect 34 in the active image 36 is recognized by the evaluation unit 24.
- FIG. 1 schematically shows how the evaluation unit 24 from the position L of the projectile action 34 in the active image 36 determines a Wirk Vietnamese 38, R, in which the projectile effect 34, starting from a reference point, such as a picture corner or a point on the weapon system 14, as the mouth of the Pipe weapon, lies.
- a Wirk Vietnamese 38, R in which the projectile effect 34, starting from a reference point, such as a picture corner or a point on the weapon system 14, as the mouth of the Pipe weapon, lies.
- the evaluation unit 24 determines a tray A with which the projectile projectile missed the object 10 or the desired target point therein.
- the tray A may consist of the direction difference 40, ⁇ R.
- the evaluation unit 24 now further calculates a filing correction K of the gun 18 in the form of a change in direction, in which the gun 18 is then pivoted. Subsequent shots at the object 10 are now fired in the corrected direction so that the object 10 is struck.
- FIG. 1 shows the position of the object 10 at the time of shooting, ie as shown in the target image 26.
- FIG. 1 also shows the projectile effect 34, which occurs later and is not visible in the target image 26, but only in the active image 36.
- the object 10 has already moved on a bit, so that the filing on the target direction 30 at the time of shooting and the direction of action 38 is supported at the point of impact of the projectile, two directions 30, 38 which are detected at different points in time. This is in FIG. 1 schematically represented accordingly.
- the receiving camera 22 rests between the shooting time or the shot of the target image 26 and the effective time or the shot of the active image 36.
- the two images 26, 36 can be simply superimposed, so that the target direction corresponding to the position of the target mark 28 in the target image 26 and the direction of action according to the position of the projectile effect 34 in the active image can be easily tapped next to each other.
- the camera 22 will move during the projectile flying time, so that the object scene 2 travels through the images 26, 36. This is based on the presentation 2 and FIG. 4 shown.
- the camera 22 has been slightly pivoted to the left during the flight time of the projectile of about 1.5 seconds by the movement of the supporting wheeled vehicle 16.
- At least the active image 36 is correlated with the target image 26 by image processing, so that the two object scenes 2 can be superimposed, for example by static landscape points.
- the image shift is recognized from this and taken into account in the calculation of the direction difference 40, ⁇ R.
- the object images 32 are examined for image abnormalities that could show the projectile effect 34.
- all object images 32 taken one after the other are examined successively for a pictorial representation of the projectile effect 34.
- the object scene 2 hereby show a variety of events that are easily confused with a pictorial representation of the projectile effect 34.
- FIG. 1 is exemplified as from the two tanks 6, 8 flashes a muzzle flash.
- the object to be attacked 10 carries a machine gun whose muzzle flash in the upper area of the object 10 also lights up brightly.
- a grenade impact 42 can be seen, which can also be easily confused with a projectile effect 34, especially when the projectile effect 34 consists primarily of a smoke effect or a raising of dust and stones.
- the rocket carrier 4 a ground-air missile 44, the hot engine gases also cause a picture conspicuousness with a very strong signature. Therefore, it is not readily apparent to the evaluation unit 24 whether the grenade impact 42, the muzzle fire of the tank 6 or the muzzle flash of the MG on the object 10 is an effect of the projectile from the gun 18. If there is a mix-up, tray A will be miscalculated and subsequent shots from barrel weapon 18 will be misplaced.
- the evaluation unit determines an expected range 46, which is shown by way of example in FIG. 4 is shown.
- the expected range 46 is determined as a function of the target direction 30 and, for example, is placed symmetrically around the target direction 30, as in FIG FIG. 4 is exemplified, of course, the target direction from the target image 26 is used. In this expectation range 46, the impact or the explosion of the projectile is expected.
- a multi-level expectation range is determined, which may consist of a core region and one or more areas lying around the core region, for example, a central region and an outer region. Depending on the position of the pictorial representation of the projectile effect 34 in the areas is weighted from the inside out ever less.
- the weighting can also be changed continuously, for example, with a growing distance of the projectile effect 34 from the target direction 30 continuously decreasing. In this way, further away from the targeted object 10 lying image abnormalities are not suppressed, but always weighted weaker, so that a closer impact finds greater consideration.
- the evaluation unit 24 expediently takes into account both a type-specific storage spread of the gun and an individual filing spread of the gun, in this case the barrel weapon 18. While the type-specific storage spread can be specified by the manufacturer, an individual filing spread of the gun either also specified by the manufacturer or obtained from previous experiments.
- a temporal window can be defined in which a projectile effect 34 is expected. This is an example based on the representation FIG. 5 explained.
- FIG. 14 shows the recording periods 48 of a plurality of images of object images 32 on a timeline. Between the recording periods 48, a read-out period is indicated by hatching, in which no recording takes place and the corresponding detector of the image-recording camera 22 is read out. Of course, it is also possible to reduce or even eliminate the readout periods by sequential readout or other suitable methods. At the in FIG. 5 The hatched readout periods are mainly used to simplify the recognition of the method.
- the projectile is fired from the barrel weapon 18.
- the target image 26 is recorded.
- a plurality of object images 32 are recorded, as indicated by the interruption of the time beam based on the two bars.
- the point in time t E indicates an expectation time at which a projectile effect 34, for example an impact of the projectile on or at the object 10 or an explosion of the projectile in the air, is expected.
- the evaluation unit 24 sets a time window 50 in which events, analogous to the spatial expectation range 46, are taken into account exclusively or taken into greater consideration. Depending on the method, therefore, the object images 32 lying ahead of the time window 50 are not taken into account or are not even recorded or taken into account with a lower weighting with regard to their image conspicuities.
- a weighting or an assignment value can generally, even in the case of a spatial expectation range, be a parameter which is used in a decision as to whether an image conspicuity should be classified as a projectile effect. It is expediently a parameter whose size is decisive for the result of whether an image conspicuity should be classified as a projectile effect.
- the parameter can for example, a probability that the image conspicuousness is a projectile effect.
- Such a distinction or weighting is shown by way of example with reference to an image conspicuity 52 in FIG FIG. 5 shown.
- the image conspicuity 52 is, for example, the muzzle-fire of the machine-gun on the truck 10.
- This image-conspicuity 52 continues for a while, as indicated by the double-headed arrow in FIG FIG. 5 is indicated by the image conspicuity 52, for example 50 ms. It extends in the example shown in three object images 32 and their recording periods 48.
- the entire time range of the image conspicuity 52 is outside the time window 50, so that the image conspicuity 52 is not considered or only weakly weighted as if it had been within the time window 50.
- the projectile effect 34 on the representation of the sake of clarity in FIG. 5 is omitted, is within the time window 50. It is taken into account accordingly, so that the location of their image conspicuity in the active image 36 is used to calculate the tray A.
- a projectile effect 54 does not express itself or not only as lightning, but as a whirling up of dust, as a cloud of smoke or as spin-on of stones, as exemplified by the grenade impact 42 in FIG. 4 is shown.
- An explosion flash can be hidden or insufficiently visible.
- FIG. 5 shows a projectile effect 54 is visible in an active image 36 which was recorded after the time window 50. This is difficult to recognize at first and may not be recognized as such. In the subsequent effective image 36, the projectile effect 54 is already greater, and in the subsequent active image 36, which is still larger, as in FIG FIG. 5 is indicated. It is, for example, the expansion of a thermal cloud, which is caused by the explosion of a projectile of the gun 18, and which is received by an IR camera 22 of the weapon system 14.
- FIG. 6 shows a further possibility for efficient use of the calculated time window 50. Shown are recording periods 48 of object images 32, this time without the readout periods omitted for the image recording. Furthermore, the uninteresting image conspicuity 52 and the slow-growing projectile effect 54 are shown. The taking and / or evaluation of object images 32 whose recording period is completely in front of the time window 50 has been dispensed with. In this respect, the image conspicuity 52 is not discovered. The image capture of object images 32 is started only at the beginning of the time window 50, so that the first object image covers the beginning of the time window 50, as in FIG FIG. 6 is shown. It can be seen that two object images completely cover the time window 50. In this, however, the projectile effect 54 is not detected.
- connection time window 56 is expediently to be selected such that image conspicuities from a dust upset, a smoke development and / or a heat development are reliably detected if their origin lies within the actual time window 50, as in FIG FIG. 6 is shown.
- FIG. 7 shows the recording of a series of object images 32.
- Each of these object images 32 is merged with the respective preceding object image, which in FIG. 7 32-1 is compared, for example by image subtraction.
- image subtraction is indicated by the mark A - B in FIG FIG. 7 indicated.
- Consistent image features are thereby eliminated and only image changes are left as in FIG. 7 by way of example on a projectile effect 34 or its pictorial representation is shown.
- the comparison image or difference image 58 can be processed with image processing in the form of a signal amplification.
- the correspondingly processed image 60 now shows the projectile effect 34 more clearly, so that its position in the active image 60 thus processed can be determined. For example, the location is determined relative to a reference point in the example FIG. 7 the picture corner on the top left. Accordingly, there are two coordinates, as in FIG. 7 is represented by the two double arrows.
- a group of object images 32 is grouped into a reference image 62, for example by averaging the object images 32 of the group or an interpolation from the object images 32.
- the reference image 62 is then compared with the next following object image 32, for example by image subtraction , as in FIG. 7 is indicated by the marking A - B.
- the further procedure can be carried out as described above.
- the number of object images 32 from which the reference image 62 is formed may be made dependent on the image fluctuation within the object images 32.
- the image fluctuation of the entire object image or only the expectation region 46 may be considered.
- the image fluctuation results from the change of the image contents from one object image 32 to the next. With high image fluctuation, ie rapid changes of the image contents, fewer object images 32 are processed to the reference image 62 than with a smaller image fluctuation.
- the corresponding image abnormalities 64, 66, 68, 70 show a different course. While an explosive flash in the ultraviolet spectral range is detected only for a relatively short period of time, in the visual range the explosive flash is detected in addition to a dust swirl which expands relatively slowly and thereby becomes more conspicuous, as in FIG. 8 indicated in the middle drawing area. Although the thermal cloud detected in the infrared spreads out more slowly than the flash of light is noticeable, its size growth is faster than the smoke and dust turbulence detected in the visible range. In this respect, different characteristic conspicuity or image progressions result for each spectral range, ie intensity and size profiles as a function of time.
- Each of the cameras 22 receives a corresponding series of active images 36 in their spectral range.
- Image abnormalities are examined for their possible representation of a projectile effect 34.
- the image conspicuities 64, 66, 68, 70 are detected and the development of the projectile effect in the active images 36 occurs in each spectral range with one for the positioning shot. expected waveform in each spectral range compared.
- typical signal profiles of several types of ammunition are stored in the evaluation unit 24 for each spectral range.
- the ammunition type of the projectile that was fired is deposited, so that the typical signal courses for this projectile are called up and with the measured signal progressions, for example correspondingly FIG. 8 , can be compared.
- the signal profile of the projectile effect 34 is thus examined in its time course of the intensity in all three spectral ranges.
- the image conspicuities 64, 66, 68, 70 are only assigned to the projectile effect 34 if the signal curve in all tested spectral ranges corresponds to the stored signal characteristic within a predetermined deviation.
- one or more of the spectral regions are limited to a relatively narrow spectral band.
- the bandwidths of two spectral ranges namely the visual and ultraviolet spectral range are limited to a factor of 1.5, so that the frequency of the upper band end is 1.5 times as large as the frequency of the lower band end.
- the width of the infrared spectral band is limited by a factor of 2, so that the frequency of the upper band end is twice as large as the frequency of the lower band end.
- the projectile fired by the gun 18 may be a special signal projectile which burns with a marker fire of its own.
- This marker fire differs significantly in its spectrum as well as the time course of the intensity of usual muzzle flashes or grenade explosions.
- the signal profile of such a marking fire which, for example, first amplified in the ultraviolet range and then over a longer period of time in the visual area, in particular with a characteristic intensity and / or spectral course over time, can be compared with the stored signal waveform, so that the projectile effect 34 of the positioning shot is clearly recognizable as such.
- a projectile effect 34 in particular a special positioning bullet or marking bullet, are also distinguished from interfering signals.
- FIG. 9 shows the shooting of a salvo of six floors in their time course.
- the first shot of the salvo is done.
- the times t 2 , t 3 ,... The further shots of the salvo are fired.
- the gun 18 is not or only slightly moved during the salvo, the corresponding projectile effects 34 should be visible at the same location of their effective image 36. If, therefore, six projectile effects 34, or more generally spoken: as many projectile effects as projectiles were shot in the salvo, found at one point in the object scene 2, this is a strong indication that they are actually projectile effects 34 of projectiles from the barrel weapon 18 acts.
- time window in which the projectile effect 34 is expected is determined for each projectile. This too is in FIG. 9 shown.
- Six time windows 50 are calculated, which lie in their temporal course according to the temporal coding.
- the time interval between a firing time t i and the corresponding time window 50 can be determined from a distance between weapon system 14 and object 10 or a temping of the projectiles of the salvo, ie a preset period of time after firing, after which the projectile explodes.
- the coding corresponds to the fourth to sixth and seventh to tenth image conspicuousness of the different projectile effects of the projectiles from the salvo.
- the seventh image conspicuousness falls through an even greater bullet effect from the salvo series.
- the weapon system 14 is equipped with a plurality of modules 72 for detecting the projectile effects 34. These modules 72 are in FIG. 1 indicated.
- the different modules 72 for determining the projectile effect 34 can be used individually or in combination according to an operator input or an evaluation result of the evaluation unit 24. It is also decisive which Cameras 22 are present in the weapon system 14, which spectral filters are present, which bullets are available for positioning shots and which bullets are used and the like. For example, one of the modules 72 determines an expected range in the object images or an active image in which the projectile effect 34 is expected. Another module 72 determines a time window 50 in which the floor effect 34 is expected. Another module 72 evaluates different radiation spectra of the projectile effect. Another module 72 controls the use of multiple cameras 22 in different spectral ranges for comparison of spectrally different image conspicuities 64, 66, 68.
- Another module 72 controls the use of special marker ammunition for positioning shots, which is different from later lost ammunition. This module 72 also controls the corresponding examination of the image conspicuities 64, 66, 68 for their similarity to stored radiation profiles. Another module 72 controls the use of a Markersalve with several successive projectiles and evaluates the image abnormalities accordingly.
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Aiming, Guidance, Guns With A Light Source, Armor, Camouflage, And Targets (AREA)
Abstract
Die Erfindung geht aus von einem Verfahren zur Ablagekorrektur eines Waffensystems (14), bei dem ein Geschoss aus einer Rohrwaffe (18) des Waffensystems (14) in eine Zielrichtung (30) auf ein Objekt (10) verschossen wird, eine Richtung (38) eines Wirkpunkts des Geschosses am Objekt (10) erfasst wird, die Richtungsdifferenz (40) zwischen der Zielrichtung (30) und der Wirkpunktrichtung (38) als Ablage (A) erfasst wird und eine Zielrichtung eines späteren Schusses auf das Objekt (10) unter Verwendung der Ablage (A) korrigiert wird. Um eine schnelle und zuverlässige Ablagekorrektur zu erreichen, wird vorgeschlagen, dass die Wirkpunktrichtung (38) erfasst wird, indem ein Wirkbild (36) aufgenommen wird, das die Geschosswirkung (34, 54) am Objekt (10) darstellt, und die Wirkpunktrichtung (38) aus dem Wirkbild (36) bestimmt wird.The invention is based on a method for correction of the position of a weapon system (14), in which a projectile is fired from a gun (18) of the weapon system (14) in a target direction (30) onto an object (10), a direction (38). an object of action of the projectile at the object (10) is detected, the direction difference (40) between the target direction (30) and the direction of effect (38) is detected as a deposit (A) and a target direction of a later shot on the object (10) using the tray (A) is corrected. In order to achieve a fast and reliable offset correction, it is proposed that the direction of effect (38) be detected by taking an effective image (36) representing the projectile effect (34, 54) on the object (10) and the direction of the direction of the effect (38 ) is determined from the active image (36).
Description
Die Erfindung betrifft ein Verfahren zur Ablagekorrektur eines Waffensystems, bei dem ein Geschoss aus einer Rohrwaffe des Waffensystems in eine Zielrichtung auf ein Objekt verschossen wird, eine Richtung eines Wirkpunkts des Geschosses vom Objekt erfasst wird, die Richtungsdifferenz zwischen der Zielrichtung und der Wirkpunktrichtung als Ablage erfasst wird und eine Zielrichtung eines späteren Schusses auf das Objekt unter Verwendung der Ablage korrigiert wird.The invention relates to a method for correction of a weapon system, in which a projectile from a gun weapon of the weapon system is fired at a target on an object, a direction of an action point of the projectile is detected by the object, the direction difference between the target direction and the Wirkpunakichtung detected as a shelf and a targeting of a later shot on the object is corrected using the bin.
Schüsse von Rohrwaffen unterliegen hinsichtlich ihrer Zielgenauigkeit einer gewissen Streuung. Hierbei kann eine kleine Streuung innerhalb einer einzelnen Schusssequenz bei unveränderter Ausrichtung des Rohrs von einer größeren Streuung über längere Zeiträume und verschiedene Waffenexemplare unterschieden werden. In der Regel weisen Maschinenwaffen eine sehr kleine kurzfristige Streuung auf, die im Allgemeinen tolerierbar ist. Die grobe Streuung wird hingegen von längerfristigen Veränderungen bewirkt, beispielsweise einem Transport der Waffe, Temperatureffekten, Windveränderungen von Tag zu Tag und dergleichen. Die grobe Streuung kann insofern in einer Kampfsituation zu einer systematisch falschen Ablage führen, bei der die Rohrwaffe mit hoher Genauigkeit zwar reproduzierbar auf ein kleines Streugebiet trifft, dieses Streugebiet der Einschläge aber neben dem Zielobjekt liegt.Shots from guns are subject to a degree of variance with regard to their accuracy. In this case, a small scattering within a single shot sequence with unchanged orientation of the tube can be distinguished from a larger spread over longer periods of time and different weapons copies. As a rule, machine guns have a very small short-term spread, which is generally tolerable. The coarse scattering, however, caused by long-term changes, such as a transport of the weapon, temperature effects, wind changes from day to day and the like. The coarse scattering can thus lead in a combat situation to a systematically wrong filing, in which the barrel weapon with high accuracy, although reproducibly hits a small scattering area, this scattering area of the impacts but located next to the target object.
Um einen solchen Ablagefehler zu erfassen, kann ein Positionierschuss auf das Zielobjekt oder allgemein in eine gewünschte Zielrichtung verschossen werden. Nun wird der Einschlag des Positioniergeschosses erfasst und hierdurch ausgehend vom Rohr bis zum Einschlagpunkt eine Wirkpunktrichtung. Der Abstand vom Einschlag bis zum Zielobjekt bzw. die Richtungsdifferenz von der Wirkpunktrichtung zur Zielrichtung kann nun als Ablage bestimmt werden. Ein späterer Schuss kann unter Verwendung der Ablage korrigiert werden, sodass dieser spätere Schuss das Zielobjekt trifft.In order to detect such a storage error, a positioning shot at the target object or generally in a desired target direction can be fired. Now the impact of the positioning projectile is detected and thereby starting from the pipe to the point of impact a direction of effect. The distance from the impact to the target object or the direction difference from the direction of the direction of impact to the target direction can now be determined as a file. A later shot can be corrected using the clipboard so that this later shot hits the target object.
Es ist eine Aufgabe der vorliegenden Erfindung, ein Verfahren zur Ablagekorrektur eines Waffensystems anzugeben, das zuverlässig arbeitet und zügig durchgeführt werden kann.It is an object of the present invention to provide a method of storage correction of a weapon system which operates reliably and can be performed quickly.
Diese Aufgabe wird durch ein Verfahren der eingangs genannten Art gelöst, bei dem erfindungsgemäß die Wirkpunktrichtung erfasst wird, indem ein Wirkbild aufgenommen wird, das die Geschosswirkung am Objekt darstellt, und die Wirkpunktrichtung aus dem Wirkbild bestimmt wird. Mit der Bestimmung der Wirkpunktrichtung aus dem Wirkbild kann - die Zielrichtung, in die gezielt wurde, als bekannt vorausgesetzt - die Richtungsdifferenz zwischen Zielrichtung und Wirkpunktrichtung automatisiert und zügig erfasst werden. Die Ausrichtung der Maschinenwaffe kann automatisiert in Abhängigkeit von der Ablage korrigiert werden, sodass die automatische Korrektur von der Bestimmung der Wirkpunktrichtung im Wirkbild bis zur Richtungskorrektur des Waffenrohrs sehr zügig und zuverlässig durchgeführt werden kann.This object is achieved by a method of the aforementioned type, in which according to the invention the direction of effect is detected by taking an effective image which represents the projectile effect on the object, and the direction of the effect is determined from the effective image. With the determination of the direction of effect from the active image, the directional difference between the target direction and the direction of the direction of impact can be detected automatically and swiftly - assuming that the targeted direction was assumed to be known. The alignment of the machine gun can be automatically corrected depending on the filing, so that the automatic correction of the determination of the direction of the direction of action in the active pattern to the direction correction of the gun barrel can be carried out very quickly and reliably.
Das Waffensystem kann eine Maschinenwaffe umfassen zum Verschießen von Munition im Salvenschuss, bei dem automatisiert mehrere Schüsse hintereinander abgegeben werden können. Nachfolgende Schüsse stehen hierbei zweckmäßigerweise in einem automatisierten Verhältnis zum vorhergehenden Schuss, beispielsweise in der Abschusszeitdifferenz und/oder der automatisierten Ablagekorrektur. Zweckmäßigerweise ist ein Steuerrechner vorhanden, der eine Rohrwaffe des Waffensystems automatisch ausrichtet, beispielsweise anhand von Anweisungen eines Bedieners.The weapon system may include a machine gun for firing ammunition in salvo fire, in which automated shots can be fired in succession. Subsequent shots are expediently in an automated ratio to the previous shot, for example in the launch time difference and / or the automated stack correction. Conveniently, a control computer is provided which automatically aligns a gun weapon of the weapon system, for example, based on instructions from an operator.
Die Zielrichtung ist zweckmäßigerweise bekannt, zum Beispiel aus einem Zielvorgang. Zur Durchführung des Zielvorgangs kann das Objekt in einem Zielbild aufgenommen werden, und ein Bediener kann das abgebildete Objekt markieren, beispielsweise mit einem Fadenkreuz. Die Markierung legt die Richtung vom Waffensystem zum Objekt und damit die Zielrichtung fest. Die Zielrichtung muss keine geobezogene Absolutrichtung sein, sondern kann eine Relativrichtung sein, beispielsweise zu einer Referenzrichtung des Waffensystems, wie einer Bildecke, einer Rohrausrichtung oder dergleichen.The destination direction is expediently known, for example from a destination process. To perform the aiming operation, the object may be captured in a target image, and an operator may mark the imaged object, for example with a crosshair. The marker determines the direction from the weapon system to the object and thus the target direction. The target direction need not be a geoid absolute direction, but may be a relative direction, for example, to a reference direction of the weapon system, such as a picture corner, a Rohrausrichtung or the like.
Der Wirkpunkt des Geschosses ist ein Punkt, an dem das Geschoss eine Wirkung sichtbar entfaltet, beispielsweise als Explosion, deren Explosionsblitz sichtbar ist. Möglich ist auch eine Staubaufwirbelung durch eine Detonationsdruckwelle, eine Rauchwolke oder eine andere sichtbare Wirkung. Der Wirkpunkt liegt am Objekt und kann insofern unmittelbar am Objekt liegen, beispielsweise in Form eines Einschlags in das Objekt, oder sich in einer Nachbarschaft des Objekts befinden. Wird das Geschoss beispielsweise mit einer Tempierung abgeschossen und zündet in der Nähe des Objekts, beispielsweise um eine Streuwirkung zu erreichen, so liegt auch in diesem Falle der Wirkpunkt des Geschosses am Objekt.The point of action of the projectile is a point at which the projectile unfolds an effect visibly, for example as an explosion, whose explosive lightning is visible. Also possible is a Aufaufwirbelung by a detonation pressure wave, a Cloud of smoke or other visible effect. The point of action lies on the object and can therefore be located directly on the object, for example in the form of an impact on the object, or in a neighborhood of the object. If the projectile is fired, for example, with a tempition and ignites in the vicinity of the object, for example, to achieve a scattering effect, so is the point of action of the projectile on the object in this case.
Die Ablage muss nicht die absolute Ablage sein und kann nachfolgend noch verändert bzw. korrigiert werden, beispielsweise durch einen Vorhalt bei einem sich beschleunigend bewegenden Zielobjekt. Auch ein anderer Parameter kann zur Korrektur der Ablage verwendet werden, beispielsweise die Messung von veränderlichem Wind, eine Erschütterung der Waffe, eine vorausgeschätzte Beschleunigung des Zielobjekts und dergleichen.The filing does not have to be the absolute filing and can subsequently still be changed or corrected, for example, by a lead in the case of an accelerating moving target object. Also, another parameter may be used to correct the deposit, such as the measurement of variable wind, vibration of the weapon, anticipated acceleration of the target, and the like.
Ein mögliches Verfahren zur Ablagekorrektur des Waffensystems, also der Korrektur der Ausrichtung des Waffensystems anhand der ermittelten Ablage, kann die Schritte der Bestimmung der Zielrichtung, die Bestimmung der Wirkpunktrichtung, die Bestimmung der Ablage und die Ablagekorrektur der Maschinenwaffe umfassen. Zur Bestimmung der Zielrichtung kann ein optisches System mit einer Kamera das Objekt aufnehmen, zweckmäßigerweise in einer regelmäßigen, insbesondere kontinuierlichen Abfolge von Bildern. Diese Bilder können einem Bediener auf einem Bildschirm gezeigt werden, sodass dieser das Objekt - wie in einem Film - verfolgen kann. Der Bediener kann das Objekt aussuchen und eine Markierung darauf richten, beispielsweise ein Fadenkreuz. Bei einer Relativbewegung des Objekts relativ zur Kameraausrichtung kann der Bediener die Markierung dem Objekt nachführen, oder das Objekt wird automatisch getrackt, sodass die Markierung automatisiert dem Objekt nachgeführt wird. Hierfür wird das Objekt als solches im Objektbild erfasst und in den nachfolgenden Objektbildern erkannt, sodass die Markierung von Objektbild zu Objektbild mit dem sich bewegenden Objekt nachgeführt wird. Aus der Lage der Markierung in einem Objektbild kann die Zielrichtung bei Abschuss des Geschosses bestimmt werden, beispielsweise relativ zur Kameraausrichtung bzw. dem Objektbild oder auch absolut, wenn eine absolute Ausrichtung der Kamera bzw. des Objektbilds im Raum bekannt ist.One possible method for correction of the position of the weapon system, ie the correction of the orientation of the weapon system on the basis of the determined deposit, may comprise the steps of determining the target direction, determining the direction of the direction of the effect, determining the deposit and the deposit correction of the machine weapon. To determine the target direction, an optical system with a camera can record the object, expediently in a regular, in particular continuous sequence of images. These images can be displayed to an operator on a screen so that they can track the object as in a movie. The operator can select the object and direct a mark on it, such as a crosshair. In the case of a relative movement of the object relative to the camera orientation, the operator can trace the marking to the object, or the object is automatically tracked so that the marking is automatically tracked to the object. For this purpose, the object is detected as such in the object image and recognized in the subsequent object images, so that the marking is tracked from object image to object image with the moving object. From the position of the mark in an object image, the target direction can be determined when shooting down the bullet, for example relative to the camera orientation or the object image or even absolutely, if an absolute orientation of the camera or the object image in space is known.
Zur Erfassung der Geschosswirkung kann ein Objektbild mithilfe bildverarbeitender Methoden auf Bildauffälligkeiten untersucht werden, die einer Geschosswirkung zugerechnet werden können. Wird eine Bildauffälligkeit gefunden, die in einem vorgegebenen Maß einer Geschosswirkung ähnelt, kann die Lage dieser Bildauffälligkeit im Objektbild bestimmt werden. Das Objektbild ist nun ein Wirkbild, das die Wirkung des Geschosses zeigt. Die Wirkpunktrichtung kann nun aus der Lage der Geschosswirkung bzw. der Bildauffälligkeit im Wirkbild ermittelt werden und kann ggf. die Lage unmittelbar selbst sein.To capture the projectile effect, an object image can be examined for image abnormalities using image processing methods, which can be assigned to a projectile effect. If an image conspicuity is found in a given position of a projectile effect, the location of this image conspicuousness in the object image can be determined. The object image is now an active image that shows the effect of the projectile. The direction of the effect can now be determined from the position of the projectile effect or the image conspicuousness in the active image and may possibly be the situation itself.
Nun kann aus der Zielrichtung und der Wirkpunktrichtung die Richtungsdifferenz, beispielsweise durch Subtraktion, bestimmt werden und als zumindest vorläufige Ablage verwendet werden. Die Ausrichtung der Waffe wird nun unter Verwendung der Ablage korrigiert, und ein nachfolgender Schuss wird auf das Objekt gerichtet. Gegebenenfalls kann die Ablage wie oben beschrieben weiter korrigiert werden.Now the directional difference, for example by subtraction, can be determined from the target direction and the direction of the direction of the effect and used as at least provisional filing. The alignment of the weapon is now corrected using the bin, and a subsequent shot is aimed at the object. If necessary, the tray can be further corrected as described above.
Der Positionierschuss kann mit der gleichen oder anderer Munition durchgeführt werden, wie der spätere und ablagekorrigierte Bekämpfungsschuss, um beispielsweise die Geschosswirkung sichtbarer und prägnanter zu machen. Auch kann ein Positionierschuss aus einer Salve von mehreren Einzelschüssen bestehen, die hintereinander auf das Objekt gerichtet werden und deren Wirkung jeweils in einem Wirkbild erfasst wird.The positioning shot can be made with the same or different ammunition as the later and corrective shot control shot, for example, to make the bullet effect more visible and concise. Also, a positioning shot from a salvo consist of several individual shots, which are directed one behind the other on the object and their effect is detected in each case in an active image.
Das Wirkbild und das Zielbild können deckungsgleich übereinanderliegen, beispielsweise wenn die Ausrichtung einer die beiden Bilder aufnehmenden Kamera zwischen den beiden Aufnahmezeitpunkten nicht verändert wird. Wird die Zielrichtung im Zielbild erfasst und die Wirkpunktrichtung im Wirkbild, so können beide Richtungen dann unmittelbar miteinander verglichen werden, beispielsweise voneinander abgezogen werden, sodass sich hieraus die Richtungsdifferenz und damit die Ablage ergibt. Es kann jedoch auch sein, dass das spätere Wirkbild zum Zielbild verschoben ist durch eine Bewegung der aufnehmenden Kamera, die beispielsweise vom Bediener oder durch Autotracking dem Objekt nachgeführt wurde. Auch eine Bewegung eines das Waffensystem tragenden Fahrzeugs kann zu einer Bewegung der Kamera und damit einer Verschiebung des Wirkbilds zum Zielbild führen.The active image and the target image can overlap one another congruently, for example if the orientation of a camera receiving the two images is not changed between the two recording times. If the target direction is detected in the target image and the direction of effect is in the active image, then both directions can then be directly compared with one another, for example deducted from one another, so that the directional difference and thus the offset results therefrom. However, it may also be that the later active image is shifted to the target image by a movement of the receiving camera, which has been tracked for example by the operator or by auto-tracking the object. A movement of a vehicle carrying the weapon system can lead to a movement of the camera and thus a shift of the active image to the target image.
Um in diesem Fall die Richtungsdifferenz erfassen zu können, wird in einer vorteilhaften Ausgestaltung der Erfindung ein das Objekt abbildendes Zielbild aufgenommen, und die Zielrichtung wird im Zielbild festgelegt. Das Zielbild kann nun mit dem später aufgenommenen Wirkbild unter Verwendung einer Mustererkennung in den beiden Bildern korreliert werden. Auf diese Weise können die beiden Bilder übereinandergelegt werden, sodass ein in beiden Bildern abgebildeter Gegenstand in Deckung gebracht wird. Aus der Korrelierung kann eine Relativlage der beiden Bilder zueinander bestimmt werden. Aus der Relativlage der beiden Bilder und der Lage der Zielrichtung im Zielbild und der Wirkpunktrichtung im Wirkbild kann die Richtungsdifferenz bestimmt werden.In order to be able to detect the directional difference in this case, in an advantageous embodiment of the invention, a target image which images the object is taken, and the target direction is defined in the target image. The target image can now be correlated with the later captured image using pattern recognition in the two images. In this way, the two images can be superimposed, so that an imaged in both images in Cover is brought. From the correlation, a relative position of the two images to each other can be determined. The directional difference can be determined from the relative position of the two images and the position of the target in the target image and the direction of the effect in the active image.
Zwischen dem Abschuss und der Erkennung der Geschosswirkung können - je nach Entfernung des anvisierten Objekts - mehrere Sekunden vergehen. In dieser Zeit kann es sein, dass eine Zielmarkierung mit dem Objekt mitgeführt wird, beispielsweise in nachfolgenden Objektbildern. Für das Bestimmen der Zielrichtung maßgeblich ist hierbei zweckmäßigerweise die Zielrichtung zum Zeitpunkt des Abschusses des Geschosses.It may take several seconds between the launch and the detection of the projectile effect, depending on the distance of the targeted object. In this time, it may be that a target mark is carried along with the object, for example in subsequent object images. Decisive for determining the target direction is expediently the target direction at the time of firing of the projectile.
Insofern wird in einer weiteren vorteilhaften Ausgestaltung der Erfindung ein das Objekt zum Abschusszeitpunkt abbildendes Zielbild aufgenommen, und die Zielrichtung wird im Zielbild festgelegt. Das Zielbild wird insofern zweckmäßigerweise zum Abschusszeitpunkt aufgenommen. Bei einer Serie von Bildern kann dasjenige Bild als Zielbild verwendet werden, dessen Aufnahmezeitpunkt den geringsten Zeitabstand zum Abschusszeitpunkt aufweist. Nach dem Abschuss des Geschosses wird nun eine Folge von das Objekt abbildenden Objektbildern aufgenommen, wobei eine Zielmarkierung in diesen Bildern mit der Bewegung des Objekts mitgeführt werden kann. Zur Bestimmung der Ablage wird zweckmäßigerweise nur die Zielrichtung aus dem Zielbild verwendet. Das Zielbild kann insofern ein Bild sein, in dem das Ziel bzw. das Objekt bei Abschuss markiert ist.In this respect, in a further advantageous embodiment of the invention, a target image which images the object at the time of shooting is taken, and the target direction is defined in the target image. The target image is expediently recorded at the time of shooting. In the case of a series of images, the image which has the smallest time interval from the time of shooting can be used as the target image. After firing the projectile, a sequence of object images is recorded, whereby a target marker in these images can be carried along with the movement of the object. To determine the filing, only the target direction from the target image is expediently used. The target image can be an image in which the target or object is marked at launch.
Es kann vorkommen, dass eine Bildauffälligkeit in einem Objektbild nicht so gut zu erkennen ist, dass sie eindeutig als Geschosswirkung klassifiziert werden kann, und selbst wenn sie als Geschosswirkung klassifiziert werden kann, der Wirkort bzw. die Wirkpunktrichtung nicht genau festgestellt werden kann. Ein solcher Fall kann auftreten, wenn ein Explosionsblitz hinter einer Staubwand verschwindet oder ein anderer Einfluss ähnlich aussieht wie eine Geschosswirkung.It may happen that an image conspicuity in an object image is not so well recognizable that it can be clearly classified as a projectile effect, and even if it can be classified as a projectile effect, the site of action or the direction of the impact can not be determined exactly. Such a case can occur when an explosion flash disappears behind a dust wall or another influence looks similar to a bullet effect.
Um dennoch zu einem auswertbaren Ergebnis zu kommen, wird vorgeschlagen, dass eine Abfolge von das Objekt abbildenden Objektbildern aufgenommen wird, die Bilder der Abfolge auf die Geschosswirkung untersucht werden und mehrere Objektbilder, in denen die Geschosswirkung bildhaft gefunden wird, als Wirkbilder auf eine Entwicklung der bildhaften Geschosswirkung in den Wirkbildern ausgewertet werden. So kann beispielsweise aus einer Ausdehnung einer Rauch- oder Staubwolke auf einen Einschlagpunkt und auch eine Einschlagzeit geschlossen werden. Ebenfalls wäre es möglich, aus einem Verlauf eines Abbrands eines Geschosses auf die Geschossart zu schließen und damit einen Markierungsschuss von einem Schuss aus einem anderen Geschütz zu unterscheiden. So kann beispielsweise die Entwicklung mit einem Signalverlauf verglichen werden, der typisch für einen Signalverlauf des Geschosses, insbesondere für ein Markierungsfeuer einer speziellen Munitionsart für einen Positionierungsschuss ist. Wird beispielsweise mit einem Leuchtspurgeschoss geschossen, so kann die Leuchtspur in den mehreren Wirkbildern verfolgt werden, und ein Wirkpunkt kann eindeutig dem Geschoss zugeordnet werden.In order nevertheless to arrive at an evaluable result, it is proposed that a sequence of object images depicting object images is taken, the images of the sequence are examined for the projectile effect and a plurality of object images in which the projectile effect is pictorially found, as effect images on a development of the pictorial projectile effect in the impact images are evaluated. For example, from an expansion of a cloud of smoke or dust on one Turning point and also an impact time to be closed. It would also be possible to deduce from a course of a fire of a projectile on the Geschossart and thus to distinguish a marker shot from a shot from another gun. For example, the development may be compared to a waveform typical of a bullet waveform, in particular a marker fire of a particular type of ammunition for a positioning shot. For example, when shooting with a tracer bullet, the tracer can be tracked in the multiple impact images, and an impact point can be clearly assigned to the projectile.
Je nach Art der bei einem Positionierschuss verwendeten Markierungsmunition kann das abschießende Waffensystem vom Zielobjekt leicht zu erkennen sein. Hierdurch entsteht die Gefahr der Gegenbekämpfung. Je nach Markierungsmunition kann es daher vorteilhaft sein, wenn diese nur verschossen wird, wenn zuvor die Auswertung eines früheren Positionierschusses ungenügend ist. Zeigt beispielsweise die Kampfszene, dass ein Positionierschuss mit normaler Bekämpfungsmunition nur ungenügend hinsichtlich seines Wirkpunkts zu erkennen ist, kann in einem nachfolgenden Schuss mit spezieller Markierungsmunition ein weiterer Positionierschuss gesetzt werden.Depending on the type of marker ammunition used in a positioning shot, the firing weapon system can be easily recognized by the target object. This creates the danger of counter-fighting. Depending on the marker ammunition, it may therefore be advantageous if it is only fired if previously the evaluation of a previous positioning shot is insufficient. If, for example, the combat scene shows that a positioning shot with normal combat ammunition is only insufficiently recognizable with regard to its point of effect, another positioning shot can be made in a subsequent shot with special marker ammunition.
Bei einem Beschuss kann es sein, dass sich das Objekt verteidigt, indem es Störsignale erzeugt, beispielsweise in Form von Flares. Um in einem solchen Fall ein Störsignal nicht mit der Geschosswirkung zu verwechseln und damit die Wirkpunktrichtung falsch zu legen, ist es vorteilhaft, wenn Störsignale in einer Abfolge von Wirkbildern oder Objektbildern als solche erkannt werden. Eine solche Erkennung kann geschehen, indem ihr zeitliches Auftreten, beispielsweise ihres Signalbeginns, ein zeitlicher Signalverlauf und/oder ein Strahlungsspektrum der Störsignale ausgewertet wird. So können die Signale mit einem entsprechenden Parameter einer erwartenden Geschosswirkung verglichen werden oder mit einem entsprechenden Parameter von bekannten Störelementen. Wird beispielsweise erkannt, dass ein zeitliches Auftreten eines Störsignals nicht von einer Geschosswirkung herrühren kann, da beispielsweise das Geschoss das Objekt noch nicht erreicht haben kann, kann die entsprechende Bildauffälligkeit als Störsignal erkannt werden. Das Gleiche gilt für einen zeitlichen oder räumlichen Signalverlauf. Bewegt sich beispielsweise ein Flare so, wie es vom Positioniergeschoss nicht zu erwarten ist, kann auch hier die Bildauffälligkeit als Störsignal erkannt werden.During a fire, the object may defend itself by generating spurious signals, for example in the form of flares. In order not to confuse an interference signal with the projectile effect in such a case and thus to misrepresent the direction of the effect, it is advantageous if interference signals in a sequence of images or object images are recognized as such. Such a detection can be done by their temporal occurrence, for example, their signal start, a temporal waveform and / or a radiation spectrum of the noise is evaluated. Thus, the signals can be compared with a corresponding parameter of an expected projectile effect or with a corresponding parameter of known interference elements. If it is detected, for example, that a temporal occurrence of an interference signal can not result from a projectile effect, since, for example, the projectile may not yet have reached the object, the corresponding image conspicuousness can be recognized as an interference signal. The same applies to a temporal or spatial signal course. If, for example, a flare moves as it is not to be expected from the positioning floor, the image conspicuousness can also be detected as an interference signal.
Gerade bei schweren Gefechten kann es vorkommen, dass ein komplexes Kampfgeschehen in einem Objektbild abgebildet wird. Im Objektbild ist beispielsweise ein Mündungsfeuer erkennbar oder der Einschlag bzw. die Explosion eines fremden Geschosses aus einer anderen Waffe oder dergleichen. Ein Objektbild kann insofern eine Mehrzahl von Bildauffälligkeiten aufweisen, die daraufhin zu untersuchen sind, ob sich hinter ihnen die gesuchte Geschosswirkung verbirgt. Eine solche Auswertung kann rechenintensiv und damit zeitintensiv sein. Gerade bei Explosionsblitzen fremder Geschosse kann zudem eine Verwechslung eintreten, sodass eine Ablage falsch erfasst wird.Especially in heavy battles, it can happen that a complex battle is depicted in an object image. In the object image, for example, a muzzle flash is recognizable or the impact or the explosion of a foreign projectile from another weapon or the like. In this respect, an object image can have a plurality of image conspicuities, which are then to be examined as to whether the sought-after floor effect hides behind them. Such an evaluation can be computationally intensive and thus time consuming. Especially with explosive flashes of foreign bullets can also be a confusion occur, so that a filing is detected incorrectly.
Hinsichtlich einer oder mehrer dieser Probleme ist es vorteilhaft, wenn eine Bildauswertung in einem Objektbild räumlich begrenzt wird auf einen Erwartungsbereich, in dem die Geschosswirkung erwartet wird. Ein Erwartungsbereich kann beispielsweise begrenzt werden auf die lokale Umgebung des nominellen Zielpunkts, beispielsweise um die Zielrichtung herum. Insofern ist es zweckmäßig, den Erwartungsbereich als einen Teilbereich in einem das Objekt abbildenden Objektbild auszuwählen und ein Auswertungsergebnis innerhalb des Erwartungsbereichs anders zu gewichten, insbesondere höher zu gewichten, als ein Auswertungsergebnis außerhalb des Erwartungsbereichs. Die Größe des Erwartungsbereichs liegt zweckmäßigerweise bei maximal der halben Bildfläche des Objektbilds, insbesondere bei maximal 1/10 der Bildfläche des Objektbilds. Ein Auswertungsergebnis ist beispielweise ein Berechnungsergebnis, ob eine Bildauffälligkeit die Geschosswirkung darstellen könnte, beispielsweise eine Wahrscheinlichkeit, dass eine Bildauffälligkeit die Geschosswirkung darstellt. Eine Gewichtung könnte in der Art erfolgen, dass eine Bildauffälligkeit außerhalb des Erwartungsbereichs mit einer kleineren Wahrscheinlichkeit als Geschosswirkung klassifiziert wird, als die gleiche Bildauffälligkeit innerhalb des Erwartungsbereichs.With regard to one or more of these problems, it is advantageous if an image evaluation in an object image is spatially limited to an expectation range in which the projectile effect is expected. For example, an expectation range may be limited to the local environment of the nominal target point, for example around the target direction. In this respect, it is expedient to select the expectation range as a partial region in an object image which images the object and to weight an evaluation result differently within the expectation range, in particular to weight it higher than an evaluation result outside the expectation range. The size of the expected range is expediently at most half the image area of the object image, in particular at a maximum of 1/10 of the image area of the object image. An evaluation result is, for example, a calculation result as to whether an image conspicuity could represent the projectile effect, for example a probability that an image conspicuity represents the projectile effect. A weighting could be made such that a picture image outside the expectation range is classified with a lesser probability as a floor effect than the same image detail within the expectation range.
Je nach Größe des Erwartungsbereichs und bei einer nur kleinen Wahrscheinlichkeit, dass eine Geschosswirkung außerhalb des Erwartungsbereichs zu erwarten ist, kann es auch sinnvoll sein, den Bereich der Bildverarbeitung auf den Erwartungsbereich einzuschränken, also lediglich den Erwartungsbereich auf die Geschosswirkung zu untersuchen. Bildauffälligkeiten, beispielsweise ein Explosionsblitz, die außerhalb dieses Bereichs detektiert werden, führen dann nicht zu einer fehlerhaften Ausrichtung der eingesetzten Rohrwaffe. Insofern ist es vorteilhaft, wenn zur Bestimmung der Wirkpunktrichtung, aus der die Ablage bestimmt wird, eine Bildauffälligkeit, die eine Geschosswirkung darstellen könnte, deren Lage außerhalb des Erwartungsbereichs liegt, verworfen wird.Depending on the size of the expectation range and with only a small probability that a projectile effect can be expected outside of the expected range, it may also be useful to restrict the area of image processing to the expected range, ie only to investigate the expected range for the projectile effect. Image abnormalities, such as an explosive flash, which are detected outside this range, then do not lead to incorrect alignment of the inserted tube weapon. In this respect, it is advantageous if, in order to determine the direction of the direction of the puncture, an image conspicuousness, which is a Projectile effect, whose situation lies outside the expectation range, is discarded.
Ein Erwartungsbereich kann sich in mehrere Bereiche aufteilen. So kann der Erwartungsbereich einen Kernbereich mit einer höchsten Gewichtung und einen Randbereich mit einer niedrigeren Gewichtung umfassen, ggf. sogar noch einen dritten Außenbereich mit einer noch geringeren Gewichtung, die jedoch größer ist als die Gewichtung außerhalb des Erwartungsbereichs. Auch ein kontinuierlicher Gewichtungsverlauf, der mit wachsendem Abstand zu einem Erwartungspunkt, in der man die Geschosswirkung des Positionierschusses erwartet, abnimmt, ist möglich.An expectation range can be divided into several areas. Thus, the expected range may comprise a core area with a highest weighting and a border area with a lower weighting, possibly even a third outdoor area with an even lower weighting, but which is greater than the weighting outside the expectation range. It is also possible to have a continuous weighting curve which decreases with increasing distance to an expectation point in which the projectile effect of the positioning shot is expected.
Die Größe des Erwartungsbereichs im Objektbild ist zweckmäßigerweise nicht starr, sondern kann in Abhängigkeit von einem oder mehreren Parametern gewählt werden. Hierfür kann der Parameter einer bauartspezifischen Ablagestreuung des Geschützes verwendet werden. Auch die individuelle Ablagestreuung des Geschützes stellt einen sinnvollen solchen Parameter dar. Geschützunabhängig kann eine Windstärke und/oder eine Windrichtung berücksichtigt werden. Auch eine Bewegung eines das Geschütz tragenden Fahrzeugs während des Abschusses und/oder eine Temperatur eines Geschützteils sind Parameter, die vorteilhaft Berücksichtung finden können.The size of the expectation range in the object image is expediently not rigid, but can be selected as a function of one or more parameters. For this purpose, the parameter of a type-specific storage spread of the gun can be used. Also, the individual filing spread of the gun represents a meaningful such parameter. Gun-independent wind force and / or a wind direction can be considered. Movement of a vehicle carrying the gun during firing and / or a turret temperature are also parameters that may be taken into account.
Eine weitere vorteilhafte Ausführungsform der Erfindung sieht vor, dass ein Zeitfenster, innerhalb dessen die Geschosswirkung erwartet wird, bestimmt wird. Eine Auswertung einer Reihe von Objektbildern kann sich dann auf solche Objektbilder beschränken, die zumindest teilweise innerhalb des Zeitfensters liegen. Allgemein gesprochen kann eine Abfolge von das Objekt abbildenden Objektbildern aufgenommen werden und Bilder der Abfolge können auf die Geschosswirkung untersucht werden, wobei ein Wirkzeitpunkt einer Geschosswirkung innerhalb des Zeitfensters höher gewichtet wird als außerhalb des Zeitfensters.A further advantageous embodiment of the invention provides that a time window within which the projectile effect is expected is determined. An evaluation of a series of object images can then be limited to those object images that lie at least partially within the time window. Generally speaking, a sequence of object images depicting the object may be taken, and images of the sequence may be examined for the floor effect, with a time of action of a floor effect within the time window being weighted higher than outside the time window.
Aus dem Vorkommen einer Bildauffälligkeit in einem oder mehreren Objektbildern kann auf den Wirkzeitpunkt geschlossen werden, also auf den Zeitpunkt, bei dem eine mutmaßliche Geschosswirkung auftritt. Liegt dieser Wirkzeitpunkt außerhalb des Zeitfensters, so ist die Wahrscheinlichkeit größer, dass es sich bei der entsprechenden Bildauffälligkeit um eine andere Wirkung, beispielsweise eines anderes Geschützes handelt, als wenn der Wirkzeitpunkt innerhalb des Zeitfensters liegt. Der Wirkzeitpunkt kann hierbei ein Zeitpunkt sein, zu dem das Geschoss seine Wirkung entfaltet, insbesondere zu entfalten beginnt. Dauert beispielsweise ein Leuchtsignal einer Explosion oder der Abbrand eines Markiergeschosses eine längere Weile und wird beispielsweise in mehreren Objektbildern abgebildet, so liegt der Wirkzeitpunkt zu Beginn dieser Wirkung. Dies gilt auch dann, wenn der Wirkzeitpunkt an sich in den Bildern nicht sichtbar ist, beispielsweise weil ein Aufschlag verdeckt wird. Aus einer nachfolgenden Ausdehnung einer Rauch- oder Staubwolke, die durch die Geschossexplosion verursacht wurde, kann beispielsweise anhand der Ausdehnungsgeschwindigkeit auf den Zeitpunkt des Aufschlags bzw. der Explosion des Geschosses geschlossen werden. Dieser Zeitpunkt kann dann als Wirkzeitpunkt bestimmt werden.From the occurrence of an image conspicuousness in one or more object images can be concluded that the time of action, ie the time at which a suspected projectile effect occurs. If this time of action lies outside the time window, then the probability is greater that the corresponding image conspicuity is a different effect, for example a different artillery, than if the effective time is within the time window. The time of action may be a time at which the projectile unfolds its effect, in particular begins to unfold. For example, if a light signal takes one Explosion or the burning of a Markiergeschosses a longer while and is mapped, for example, in several object images, so is the effective time at the beginning of this effect. This is true even if the time of action is not visible in the pictures, for example because a serve is hidden. From a subsequent expansion of a smoke or dust cloud, which was caused by the Geschossexplosion can be concluded, for example, on the basis of the expansion rate on the time of impact or the explosion of the projectile. This time can then be determined as the effective time.
Je nach Größe des Zeitfensters, dem Abstand des Objekts vom Waffensystem oder anderen Parametern kann die Auswertung einer Bildauffälligkeit, die außerhalb des Zeitfensters liegt, unterbleiben, wenn deutlich ist, dass diese Bildauffälligkeit aus Zeitgründen nicht einer Geschosswirkung zugerechnet werden kann. Insofern ist es vorteilhaft, wenn zur Bestimmung der Wirkpunktrichtung, aus der die Ablage bestimmt wird, eine Bildauffälligkeit, die eine Geschosswirkung darstellen könnte, deren Wirkzeitpunkt außerhalb des Zeitfensters liegt, verworfen wird.Depending on the size of the time window, the distance of the object from the weapon system or other parameters, the evaluation of an image conspicuity that is outside the time window can be omitted, if it is clear that this image conspicuity can not be attributed to a projectile effect due to time constraints. In this respect, it is advantageous if, in order to determine the direction of effect from which the deposit is determined, an image conspicuousness, which could represent a projectile effect whose time of action lies outside the time window, is discarded.
Die Lage und/oder Größe des Zeitfensters kann aus einer Entfernung des Objekts von der Maschinenwaffe und/oder einer Tempierung des Geschosses bestimmt werden. So wird beispielsweise das Zeitfenster symmetrisch um den aus der Tempierung bekannten Explosionszeitpunkts des Geschosses gelegt.The location and / or size of the time window can be determined from a distance of the object from the machine gun and / or a temping of the projectile. Thus, for example, the time window is placed symmetrically around the known from the tempation explosion time of the projectile.
Zur Aufnahme der Geschosswirkung können mehrere Objektbilder hintereinander aufgenommen und entsprechend auf die Geschosswirkung bzw. entsprechende Bildauffälligkeiten ausgewertet werden. Eine Möglichkeit zur Einsparung von Rechenzeit und zur Vermeidung von fehlerhaften Auswertungen besteht darin, dass die Aufnahme eines Wirkbilds, in dem dann die bildliche Darstellung der Geschosswirkung erwartet wird, auf das Zeitfenster abgestimmt wird. So kann der Belichtungszeitraum bzw. Integrationszeitraum der Aufnahme des Wirkbilds in Abhängigkeit von der Lage und Größe des Zeitfensters festgelegt werden. Zweckmäßigerweise liegt die zeitliche Lage der Integration innerhalb des Zeitfensters. Auf diese Weise kann die Auswertung auf ein einziges Bild beschränkt werden. Insbesondere wird der Integrationszeitraum um einen erwarteten Wirkzeitpunkt gelegt, beispielsweise symmetrisch um den erwarteten Wirkzeitpunkt herum.To record the projectile effect, several object images can be taken in succession and evaluated according to the projectile effect or corresponding image abnormalities. One way to save on computation time and to avoid erroneous evaluations is that the inclusion of an active image, in which then the pictorial representation of the projectile effect is expected, is matched to the time window. Thus, the exposure period or integration period of the recording of the active image can be determined as a function of the position and size of the time window. Expediently, the temporal position of the integration lies within the time window. In this way, the evaluation can be limited to a single image. In particular, the integration period is set by an expected effective time, for example symmetrically around the expected time of action.
Wird der Aufschlagpunkt und/oder der Explosionspunkt des Geschosses verdeckt, beispielsweise von Rauch, Staub oder einem Gegenstand, so ist die Bestimmung des Wirkzeitpunkts aus nur einem Wirkbild fehleranfällig. Um diesem Nachteil zu begegnen, ist es vorteilhaft, wenn eine Entwicklung der bildhaften Geschosswirkung in einer Abfolge von Wirkbildern ausgewertet wird. Auf diese Weise kann beispielsweise aus einer Ausdehnung einer Rauchwolke durch Rückrechnung auf deren Entstehungszeitpunkt und damit auf den Wirkzeitpunkt geschlossen werden. Eine andere Möglichkeit besteht darin, dass der Abbrand eines Markierungsgeschosses nicht von Anfang an sichtbar ist, beispielsweise weil der Abbrand zu klein angefangen hat. Wird der Abschluss des Abbrands oder eine signifikante Abbrandphase jedoch erkannt und ist beispielsweise eine Gesamtdauer des Abbrands oder der Verlauf des Abbrands bekannt, kann auch auf diese Weise der Wirkzeitpunkt, also der Zeitpunkt, an dem die Geschosswirkung begann, bestimmt werden. Insofern ist es vorteilhaft, wenn aus der Rückbetrachtung der Entwicklung ein Wirkzeitpunkt ermittelt wird. Anschließend kann geprüft werden, ob der Wirkzeitpunkt im Zeitfenster liegt.If the impact point and / or the explosion point of the projectile is obscured, for example by smoke, dust or an object, the determination of the action time from only one effective image is prone to error. In order to counteract this disadvantage, it is advantageous if a development of the pictorial projectile effect is evaluated in a sequence of active images. In this way it can be concluded, for example, from an expansion of a cloud of smoke by recalculation to its time of origin and thus to the time of action. Another possibility is that the burnup of a marker bullet is not visible from the beginning, for example, because the burn-up has started too small. However, if the completion of the burnup or a significant burnup phase is detected and, for example, a total duration of the burnup or the course of the burnup is known, the time of action, ie the time at which the bullet effect began, can also be determined in this way. In this respect it is advantageous if, from the retrospective analysis of the development, a time of action is determined. Subsequently, it can be checked whether the time of action lies in the time window.
Insbesondere wenn die Wirkbilder im infraroten Spektralbereich aufgenommen werden, ist es vorteilhaft, wenn die Entwicklung der bildhaften Geschosswirkung untersucht wird. Die Vergrößerung eines Hitzebereichs, beispielsweise hervorgerufen durch die Geschossexplosion, kann verfolgt werden, und daraus kann auf den Wirkzeitpunkt durch Rückrechnung geschlossen werden. Zudem kann es sein, dass die Integrationsdauer der Aufnahme eines infraroten Wirkbilds größer ist als das Zeitfenster. Ganz allgemein, also auch unabhängig vom Zeitfenster, ist der Wirkzeitpunkt hierdurch aus einem einzigen Wirkbild nur ungenau zu bestimmen. Durch die Rückrechnung einer sich aufweitenden Wärmewolke kann jedoch auf den Zeitpunkt und/oder auf den Ort ihrer Entstehung rückgeschlossen werden.In particular, if the active images are recorded in the infrared spectral range, it is advantageous if the development of the pictorial projectile effect is investigated. The enlargement of a heat range, for example, caused by the projectile explosion, can be tracked, and it can be concluded on the date of action by recalculation. In addition, it may be that the integration duration of the recording of an infrared active image is greater than the time window. In general, and thus independent of the time window, the time of action can only be determined inaccurately from a single image. By recalculating an expanding thermal cloud, however, one can infer the time and / or location of its formation.
Je nach Szenerie kann es sein, dass die Bildszene in einem Objektbild starke Signalstrukturen und Kontraste aufweist. Solche Effekte können zwar evtl. durch eine geschickte Wahl des verwendeten Spektralbereichs einer aufnehmenden Kamera reduziert werden, sie vergrößern jedoch das Fehlerpotential bei der Erkennung einer Geschosswirkung gegebenenfalls signifikant. So gibt es vielfältige Arten von Falschzielen, die fehlerhaft auf eine Geschosswirkung schließen lassen, sodass die Ablage falsch berechnet wird. Beispiele hierfür sind andere Explosionen, brennende Gebäude, Feuer aller Art, Mündungsfeuer von Waffen im Zielgebiet, und Verschiedenes mehr.Depending on the scenery, it may be that the image scene in an object image has strong signal structures and contrasts. Although such effects may possibly be reduced by a judicious choice of the spectral range of a receiving camera used, they may significantly increase the potential for error in the detection of a projectile effect. Thus, there are many types of false targets that erroneously conclude a bullet effect, so that the filing is calculated incorrectly. Examples include other explosions, burning buildings, all kinds of fires, muzzle flashes of weapons in the target area, and more.
Um solche Falschziele zu verringern oder sogar zu unterdrücken, ist es vorteilhaft, das Objektbild mit einer intelligenten Bildkorrektur zu bearbeiten. Eine solche Bearbeitung erfolgt zweckmäßigerweise unter Verwendung eines zuvor aufgenommenen Objektbilds. So kann beispielsweise zwischen einem Abschuss des Geschosses und einem Wirkzeitpunkt des Geschosses zumindest ein Objektbild vom Objekt aufgenommen werden, wobei das später aufgenommene Wirkbild unter Verwendung dieses Objektbilds bearbeitet wird, beispielsweise durch das Verstärken von Bildunterschieden. Eine solche Bearbeitung kann insbesondere in einer Bildsubtraktion bestehen, sodass zum Beispiel Objektbild und Wirkbild voneinander subtrahiert werden. Die Geschosswirkung kann nun aus einer verbleibenden Bildauffälligkeit bestimmt werden und daraus die Wirkpunktrichtung. Auch starke Signalstrukturen können, sofern sie sich ausreichend langsam verändern, auf diese Weise verringert oder sogar unterdrückt werden. Ein Zeitraum, in dem ein zur Bildbearbeitung verwendetes Objektbild verwendet wird, wird hierbei zweckmäßigerweise von der Fluktuation der Signalstruktur in einer Reihe von Objektbildern festgelegt, also einer zeitlichen Veränderung der Signalstruktur.In order to reduce or even suppress such false targets, it is advantageous to edit the object image with a smart image correction. Such editing is conveniently done using a previously captured object image. Thus, for example, between a shot of the projectile and an effective time of the projectile at least one object image are taken from the object, the later recorded image is processed using this object image, for example by enhancing image differences. In particular, such a processing can consist of an image subtraction, so that, for example, the object image and the active image are subtracted from one another. The projectile effect can now be determined from a remaining image conspicuousness and from this the direction of the effect. Even strong signal structures, if they change sufficiently slowly, can be reduced or even suppressed in this way. A period in which an object image used for image processing is used is expediently determined by the fluctuation of the signal structure in a series of object images, that is to say a temporal change of the signal structure.
Um das Auftreten einer Geschosswirkung in einem größeren Zeitbereich zu erkennen, ist es vorteilhaft, wenn mehrere Objektbilder nacheinander mittels Bildbearbeitung, insbesondere Bildsubtraktion zumindest eines vorhergehenden, beispielsweise des jeweils vorhergehenden Objektbilds, auf eine Bildauffälligkeit, die eine Geschosswirkung darstellen könnte, untersucht werden.In order to detect the occurrence of a projectile effect in a larger time range, it is advantageous if several object images are examined in succession by means of image processing, in particular image subtraction of at least one preceding, for example the respective preceding object image, on an image conspicuousness that could represent a projectile effect.
Um sehr kurze Strukturfluktuationen, also sehr schnelle Veränderungen einzelner Bildstrukturen, nicht zu sehr in den Vordergrund zu rücken, ist es vorteilhaft, wenn ein Referenzbild aus mehreren Objektbildern gewonnen wird und das Wirkbild anhand des Referenzbilds bearbeitet wird, beispielsweise durch Subtraktion des Referenzbilds vom Wirkbild. Die mehreren Objektbilder können eine Abfolge von Objektbildern sein. Strukturen mit starker bzw. schneller Fluktuation können auf diese Weise zwar nicht eliminiert werden, sie werden jedoch geringer gewichtet und somit teilweise ausgemittelt.In order not to emphasize very short structural fluctuations, ie very rapid changes of individual image structures, it is advantageous if a reference image is obtained from a plurality of object images and the active image is processed on the basis of the reference image, for example by subtracting the reference image from the active image. The plurality of object images may be a sequence of object images. Although structures with high or fast fluctuation can not be eliminated in this way, they are weighted less and thus partially averaged out.
Das Referenzbild kann aus einem Mittelwert der Objektbilder oder einer Interpolation aus den Objektbildern gebildet werden. Ist beispielsweise aus mehreren Objektbildern eine eindeutige Entwicklung einer Struktur erkennbar, so kann diese Struktur durch Interpolation auf den Zeitpunkt des zu untersuchenden Wirkbilds hochgerechnet werden und somit der Bildbearbeitung, beispielsweise einer Bildsubtraktion zugeführt werden.The reference image may be formed from an average of the object images or an interpolation from the object images. If, for example, a clear development of a structure can be recognized from several object images, this structure can be extrapolated by interpolation to the time of the active image to be examined are thus supplied to the image processing, for example, a picture subtraction.
Wird ein Referenzbild erstellt, dem mehrere Objektbilder zugrunde liegen, so ist es vorteilhaft, wenn die Anzahl der Objektbilder, aus denen das Referenzbild gebildet wird, in Abhängigkeit von der Bildaufnahmefrequenz und/oder einer Fluktuation der Szene um das Objekt festgelegt wird. Die Fluktuation der Szene kann aus einem oder mehreren vorhergehenden Objektbildern durch Bildbearbeitung ermittelt werden.If a reference image is created based on a plurality of object images, then it is advantageous if the number of object images from which the reference image is formed is determined as a function of the image acquisition frequency and / or a fluctuation of the scene around the object. The fluctuation of the scene can be determined from one or more preceding object images by image processing.
Um auch geringe Bildauffälligkeiten bzw. größtenteils verdeckte Geschosswirkungen zu erkennen, ist es vorteilhaft, wenn das Differenzbild mit einer Bildbearbeitung in Form einer Signalverstärkung, beispielsweise um zumindest den Faktor 2, insbesondere den Faktor 5, bearbeitet wird. Um hierbei eine Übersteuerung und/oder Fehler zu vermeiden, ist es vorteilhaft, wenn diese Bildbearbeitung erst dann durchgeführt wird, wenn zuvor keine ausreichende Bildauffälligkeit, die eine Geschosswirkung darstellen könnte, gefunden wurde.In order to detect even small image conspicuousnesses or mostly hidden projectile effects, it is advantageous if the difference image is processed with image processing in the form of a signal amplification, for example by at least a factor of 2, in particular a factor of 5. In order to avoid overdriving and / or errors in this case, it is advantageous if this image processing is only performed when no sufficient image conspicuousness, which could represent a projectile effect, has previously been found.
Die Wirkung eines Geschosses entfaltet sich in der Regel in mehreren Spektralbereichen. So kann ein Explosionsblitz im sichtbaren Bereich und auch eine Ausdehnung einer Rauchwolke im sichtbaren Bereich erkannt werden. Die Ausbreitung einer Wärmewolke kann im infraroten Spektralbereich sensiert werden. Ein Explosionsblitz kann von Flammen sehr gut im ultravioletten Bereich unterschieden werden. Insofern ist es vorteilhaft, wenn mehrere in unterschiedlichen Spektralbereichen sensierende Kameras vorhanden sind und jede Kamera zumindest ein Wirkbild aufnimmt. Aus den Wirkbildern jeweils einzeln oder aus einer Kombination der Ergebnisse aus den Wirkbilden kann eine Geschosswirkung bestimmt werden und daraus eine Wirkpunktrichtung. So kann aus allen Wirkbildern der Kameras jeweils eine Wirkpunktrichtung bestimmt werden. Es ist auch möglich, jeweils zuerst Geschosswirkungen zu bestimmen, zusammenpassende Geschosswirkungen in den Wirkbildern einem Positioniergeschoss zuzuordnen und nur eine Wirkpunktrichtung zu bestimmen.The effect of a projectile usually unfolds in several spectral ranges. Thus, an explosive flash in the visible range and also an expansion of a cloud of smoke in the visible range can be detected. The propagation of a thermal cloud can be sensed in the infrared spectral range. An explosion flash can be distinguished from flames very well in the ultraviolet range. In this respect, it is advantageous if a plurality of cameras that are sensitive in different spectral ranges are present and each camera receives at least one active image. From the impact images, either individually or from a combination of the results from the effects, a projectile effect can be determined and from this a direction of effect. In this way, one effect direction can be determined from all the active images of the cameras. It is also possible to first determine projectile effects, to assign matching projectile effects in the impact images to a positioning projectile and to determine only one direction of effect.
Die bildhafte Entwicklung der Geschosswirkung entfaltet sich in der Regel in unterschiedlichen Spektralbereichen unterschiedlich. So ist ein Explosionsblitz im sichtbaren und/oder ultravioletten Bereich sehr kurz, während die Ausbreitung einer Wärmewolke erheblich länger dauert. Noch länger dauert die Ausbreitung einer Rauch- oder Staubwolke. Von daher ist es vorteilhaft, wenn die Entwicklung der bildhaften Geschosswirkung in den Wirkbildern in jedem Spektralbereich ausgewertet wird. Die Entwicklung der bildhaften Geschosswirkungen kann dann mit einem für den Positionierschuss erwarteten Signalverlauf verglichen werden, beispielsweise für einen Explosionsblitz, eine sich ausbreitende Wärmewolke oder eine sich ausdehnende Rauchwolke.The pictorial development of the projectile effect usually unfolds differently in different spectral ranges. Thus, an explosive flash in the visible and / or ultraviolet range is very short, while the propagation of a thermal cloud takes much longer. The spread of a cloud of smoke or dust lasts even longer. Therefore, it is beneficial if the development of pictorial Projectile effect is evaluated in the impact images in each spectral range. The development of the pictorial projectile effects can then be compared with a signal course expected for the positioning shot, for example for an explosive flash, a spreading thermal cloud or an expanding cloud of smoke.
Bei einer Signalvielfalt um das zu treffende Objekt kann es sinnvoll sein, den Spektralbereich, der zur Untersuchung auf die Geschosswirkung herangezogen wird, zu begrenzen. Hierdurch können Falschsignale unterdrückt werden. Insofern ist es vorteilhaft, wenn zumindest ein Spektralbereich auf ein weniger als den Faktor 1,5 breites Spektralband um eine Markierungsfarbe des Geschosses begrenzt ist. Je nach Frequenz bzw. Spektrum kann der Faktor auch kleiner gewählt werden, beispielsweise 1,2 oder sogar 1,1. Der Faktor 1,5 bedeutet, dass die Frequenz des oberen Bandendes maximal 1,5 mal so hoch ist wie die Frequenz des unteren Bandendes.With a variety of signals around the object to be hit, it may be useful to limit the spectral range that is used to investigate the projectile effect. As a result, false signals can be suppressed. In this respect, it is advantageous if at least one spectral range is limited to a spectral band that is less than the factor of 1.5 by a marking color of the projectile. Depending on the frequency or spectrum, the factor can also be chosen to be smaller, for example 1.2 or even 1.1. The factor 1.5 means that the frequency of the upper end of the tape is at most 1.5 times as high as the frequency of the lower end of the tape.
In einer weiteren vorteilhaften Ausführungsform der Erfindung wird ein Positionierschuss mit Markierungsmunition gesetzt, die sich in ihrer Strahlcharakteristik beim Aufschlag oder der Explosion von Munition zur Bekämpfung des Objekts unterscheidet. Ganz allgemein gesprochen kann Munition mit spezieller Leuchtcharakteristik verwendet werden, die sich von den nachfolgenden, ablagekorrigierten Geschossen unterscheidet. Um nun die Geschosswirkung der Positioniermunition zu erkennen, ist es vorteilhaft, eine Signalcharakteristik der in einem oder mehreren Wirkbildern aufgefundenen Geschosswirkung mit einer hinterlegten Signalcharakteristik des Geschosses zu vergleichen. Auf diese Weise kann beispielsweise das spezielle Positioniergeschoss in einer tumulten Kampfszene mit vielen einschlagenden Geschossen mit geringer Fehlerwahrscheinlichkeit ausgemacht werden.In a further advantageous embodiment of the invention, a positioning shot is set with marking ammunition, which differs in their beam characteristic during the impact or the explosion of ammunition to combat the object. Generally speaking, ammunition with a special luminous characteristic can be used, which differs from the subsequent stock-corrected projectiles. In order now to detect the projectile effect of the positioning ammunition, it is advantageous to compare a signal characteristic of the projectile action found in one or more active images with a stored signal characteristic of the projectile. In this way, for example, the special positioning bullet can be identified in a tumultuous battle scene with many striking bullets with low probability of error.
Eine Fehlerwahrscheinlichkeit kann noch weiter verringert werden, wenn die Signalcharakteristik der Geschosswirkung in ihrem zeitlichen Verlauf der Intensität in zumindest zwei verschiedenen Spektralbereichen untersucht wird.An error probability can be further reduced if the signal characteristic of the projectile effect is examined in terms of its temporal course of the intensity in at least two different spectral ranges.
Eine weitere Möglichkeit zur Reduzierung von Fehlerkennungen besteht darin, dass eine Salve aus mehreren Geschossen auf das Objekt verschossen wird. Für jedes Geschoss kann nun eine Geschosswirkung erkannt und ein Wirkzeitpunkt der Geschosswirkung bestimmt werden. Nun kann beispielsweise die zeitliche Abfolge der Wirkzeitpunkte auf Plausibilität geprüft werden, beispielsweise indem die zeitliche Abfolge mit der zeitlichen Abfolge der Abschusszeitpunkte verglichen wird.Another way to reduce false positives is to shoot a salvo of several floors onto the object. For each projectile, a projectile effect can now be detected and an effective time of the projectile effect can be determined. Now, for example, the time sequence of Acting times are checked for plausibility, for example by the temporal sequence is compared with the time sequence of the firing times.
Weiter ist es vorteilhaft, wenn für jedes Geschoss ein Zeitfenster, in dem die Geschosswirkung erwartet wird, bestimmt wird und die Lage der Wirkzeitpunkte zu den Zeitfenstern bestimmt wird. Aus der Lage der Wirkzeitpunkte kann rückgeschlossen werden, ob es sich bei der Geschosswirkung bzw. der aufgefundenen Bildauffälligkeit um tatsächlich die Geschosswirkung des oder der Markiergeschosse handelt. So kann aus der Lage der Wirkzeitpunkte zu den Zeitfenstern beispielsweise jeweils ein Zuordnungswert gebildet werden und aus einer Mehrzahl von Zuordnungswerten kann ein Gesamtzuordnungswert gebildet werden. Der Gesamtzuordnungswert kann eine Zuordnungswahrscheinlichkeit der Geschosswirkungen zu den Geschossen der Salve angeben.Furthermore, it is advantageous if a time window in which the projectile effect is expected is determined for each projectile, and the position of the action time points relative to the time windows is determined. It can be inferred from the position of the time of action whether the projectile effect or the detected image conspicuousness is actually the projectile effect of the marking bullet (s). Thus, for example, an assignment value can be formed in each case from the position of the action times to the time windows, and a total assignment value can be formed from a plurality of assignment values. The total allocation value may indicate a probability of assignment of the projectile effects to the projectiles of the salvo.
Bei einem systematischen Fehler, beispielsweise wenn die Entfernung zum Objekt falsch bestimmt wurde, kann es sein, dass die Wirkzeitpunkte zeitlich alle nicht in einem erwarteten Zeitfenster liegen. Um einen solchen systematischen Fehler zu erkennen, ist es vorteilhaft, wenn die Lage aller Wirkzeitpunkte auf eine systematische Lageverschiebung zu den Zeitfenstern untersucht wird. Eine solche Lageverschiebung kann dann korrigiert werden, sodass sie dann nur eine geringere Relevanz bei der Berechnung als ohne Korrektur hat.In the case of a systematic error, for example if the distance to the object was determined incorrectly, it may be that the time of action is not all within an expected time window. In order to detect such a systematic error, it is advantageous if the position of all the action times is examined for a systematic positional shift to the time windows. Such a positional shift can then be corrected so that it has only a lower relevance in the calculation than without correction.
Um die Geschosswirkungen einer Salve von mehreren Geschossen von beispielsweise einem Maschinengewehrfeuer unterscheiden zu können, ist es vorteilhaft, wenn die zeitliche Abfolge der Abschusszeitpunkte unregelmäßig codiert ist. Während bei der Bekämpfung eines Objekts üblicherweise Bekämpfungsgeschosse in einer regelmäßigen Abfolge verschossen werden, kann eine unregelmäßige Codierung hiervon unterschieden werden.In order to be able to differentiate the projectile effects of a salvo of several projectiles from, for example, a machine-gun fire, it is advantageous if the time sequence of the firing times is coded irregularly. While control missiles are usually shot in a regular sequence when fighting an object, an irregular coding can be distinguished from this.
Eine weitere Möglichkeit zur Erkennung von Unterscheidungsfehlern kann dadurch realisiert werden, dass in der Salve unterschiedliche Markiergeschosse verschossen werden, die eine unterschiedliche Geschosswirkung hervorrufen. Alle verwendeten Markiergeschosse sind zweckmäßigerweise spezielle Geschosse für einen Markierschuss, sodass sie sich insofern von einer später verschossenen Kampfmunition unterscheiden.A further possibility for recognizing discrimination errors can be achieved by firing different marking bullets in the salvo, which produce a different bullet effect. All marking bullets used are expediently special projectiles for a Markierschuss, so that they differ so far from a later fired combat ammunition.
Um auch bei unterschiedlichen Kampfszenen stets zu einem zuverlässigen Erkennungsergebnis zu gelangen, ist es vorteilhaft, wenn unterschiedliche Module zur Ermittlung der Geschosswirkung vorhanden sind. Jedes Modul verfolgt hierbei zweckmäßigerweise eine andere Strategie bzw. ein anderes Verfahren zur Verringerung von Erkennungsfehlern. Die unterschiedlichen Module können einzeln oder in Kombination herangezogen werden, zweckmäßigerweise in Abhängigkeit einer Kampfsituation, vorhandener Geschosse und/oder vorhandener Detektionssysteme.In order always to achieve a reliable recognition result in different combat scenes, it is advantageous if different modules for determining the projectile effect are available. Each module expediently pursues another strategy or another method for reducing recognition errors. The different modules can be used individually or in combination, expediently as a function of a combat situation, existing projectiles and / or existing detection systems.
Es besteht auch die Möglichkeit, dass die unterschiedlichen Module gemeinsam herangezogen werden zur Ermittlung der Geschosswirkung, jedoch in Abhängigkeit einer Kampfsituation, vorhandener Geschosse und/oder vorhandener Detektionssysteme eine unterschiedliche Gewichtung der Module zur Bestimmung der Wirkpunktrichtung festgelegt wird.There is also the possibility that the different modules are used together to determine the projectile effect, but depending on a combat situation, existing projectiles and / or existing detection systems, a different weighting of the modules is determined for determining the direction of effect.
Zweckmäßigerweise sind von der folgenden Modulgruppe zumindest zwei Module vorhanden:
- Ein Modul zur Begrenzung der Bildauswertung auf einen Erwartungsbereich, insbesondere die Umgebung des nominellen Zielpunkts bzw. zur Gewichtung eines Auswerteergebnisses in Abhängigkeit von der Entfernung der Bildauffälligkeit zum nominellen Zielpunkt.
- Ein Modul zur Bestimmung eines Zeitfensters um die erwartete Geschosswirkung und zur Reduzierung bzw. Gewichtung der Auswertung in Abhängigkeit von dem Zeitfenster.
- Ein Modul zur Bildbearbeitung, insbesondere zur Bildsubtraktion.
- Ein Modul zur Kombination mehrerer Sensorsysteme in unterschiedlichen Spektralbereichen.
- Ein Modul zur Erkennung unterschiedlicher Geschosse bzw. Spezialmunitionen zur Markierung.
- Ein Modul zur Verifikation der Trefferposition durch Korrelation mehrerer Explosionszeitpunkte.
- A module for limiting the image evaluation to an expected range, in particular the environment of the nominal target point or for weighting an evaluation result as a function of the distance of the image conspicuity to the nominal target point.
- A module for determining a time window around the expected floor effect and for reducing or weighting the evaluation as a function of the time window.
- A module for image processing, especially for image subtraction.
- A module for combining several sensor systems in different spectral ranges.
- A module for detecting different projectiles or special ammunitions for marking.
- A module for verification of the hit position by correlation of several explosion times.
Die Erfindung betrifft außerdem ein Waffensystem mit einer Zieleinrichtung zur Eingabe und Erfassung einer Zielrichtung, in die ein Geschoss aus einer Waffe des Waffensystems in einer Zielrichtung auf ein Objekt verschossen wird. Das Waffensystem umfasst zweckmäßigerweise außerdem ein optisches System mit einer Kamera und einer Auswerteeinheit zur Bestimmung einer Richtung eines Wirkpunkts des Geschosses am Objekt. Die Auswerteeinheit ist zweckmäßigerweise dazu vorbereitet, eine Ablage in Form einer Richtungsdifferenz zwischen der Zielrichtung und der Wirkpunktrichtung zu bestimmen. Die Zieleinrichtung ist zweckmäßigerweise dazu vorbereitet, eine Zielrichtung eines späteren Schusses auf das Objekt unter Verwendung der Ablage zu korrigieren.The invention also relates to a weapon system having a target device for inputting and detecting a target direction into which a projectile from a weapon of the weapon system is fired at an object in a target direction. The weapon system expediently also comprises an optical system with a camera and an evaluation unit for determining a direction of an action point of the projectile on the object. The evaluation unit is expediently to prepared to determine a filing in the form of a directional difference between the target direction and the direction of the direction. The aiming device is expediently adapted to correct a target direction of a later shot on the object using the tray.
Zum Erreichen einer schnellen und zuverlässigen automatischen Ablagekorrektur wird vorgeschlagen, dass die Auswerteeinheit erfindungsgemäß dazu vorbereitet ist, die Wirkpunktrichtung zu erfassen, indem ein die Geschosswirkung am Objekt darstellendes Wirkbild aufgenommen wird und die Wirkpunktrichtung aus dem Wirkbild bestimmt wird.In order to achieve a fast and reliable automatic offset correction, it is proposed that the evaluation unit is prepared in accordance with the invention for detecting the direction of the effect by recording an effective image representing the projectile effect on the object and determining the direction of the effect from the effective image.
Die bisher gegebene Beschreibung vorteilhafter Ausgestaltungen der Erfindung enthält zahlreiche Merkmale, die in einigen abhängigen Ansprüchen zu mehreren zusammengefasst wiedergegeben sind. Diese Merkmale können jedoch zweckmäßigerweise auch einzeln betrachtet und zu sinnvollen weiteren Kombinationen zusammengefasst werden, insbesondere bei Rückbezügen von Ansprüchen, sodass ein einzelnes Merkmal eines abhängigen Anspruchs mit einem einzelnen, mehreren oder allen Merkmalen eines anderen abhängigen Anspruchs kombinierbar ist. Außerdem sind diese Merkmale jeweils einzeln und in beliebiger geeigneter Kombination sowohl mit dem erfindungsgemäßen Verfahren als auch mit der erfindungsgemäßen Vorrichtung gemäß den unabhängigen Ansprüchen kombinierbar. So sind Verfahrensmerkmale auch als Eigenschaften der entsprechenden Vorrichtungseinheit gegenständlich formuliert zu sehen und funktionale Vorrichtungsmerkmale auch als entsprechende Verfahrensmerkmale.The description of advantageous embodiments of the invention given so far contains numerous features that are summarized in several dependent claims in several groups. However, these features may conveniently be considered individually and grouped together into meaningful further combinations, in particular when reclaiming claims, so that a single feature of a dependent claim can be combined with a single, several or all features of another dependent claim. In addition, these features can be combined individually and in any suitable combination both with the method according to the invention and with the device according to the invention according to the independent claims. Thus, process features can also be formulated formally as properties of the corresponding device unit and functional device features also as corresponding process features.
Die oben beschriebenen Eigenschaften, Merkmale und Vorteile dieser Erfindung sowie die Art und Weise, wie diese erreicht werden, werden klarer und deutlicher verständlich in Zusammenhang mit der folgenden Beschreibung der Ausführungsbeispiele, die im Zusammenhang mit den Zeichnungen näher erläutert werden. Die Ausführungsbeispiele dienen der Erläuterung der Erfindung und beschränken die Erfindung nicht auf die darin angegebene Kombination von Merkmalen, auch nicht in Bezug auf funktionale Merkmale. Außerdem können dazu geeignete Merkmale eines jeden Ausführungsbeispiels auch explizit isoliert betrachtet, aus einem Ausführungsbeispiel entfernt, in ein anderes Ausführungsbeispiel zu dessen Ergänzung eingebracht und/oder mit einem beliebigen der Ansprüche kombiniert werden.The above-described characteristics, features, and advantages of this invention, as well as the manner in which they are achieved, will become clearer and more clearly understood in connection with the following description of the embodiments, which will be described in detail in conjunction with the drawings. The embodiments serve to illustrate the invention and do not limit the invention to the combination of features specified therein, not even with respect to functional features. In addition, suitable features of each embodiment may also be explicitly considered isolated, removed from one embodiment, incorporated into another embodiment to complement it, and / or combined with any of the claims.
Es zeigen:
- FIG 1
- eine Objektszene mit Fahrzeugen und ein Waffensystem, das zur Bekämpfung eines der Fahrzeuge eingesetzt wird,
- FIG 2
- ein Zielbild, das das Waffensystem von der Objektszene aufgenommen hat und in dem ein Fahrzeug markiert ist,
- FIG 3
- eine Reihe von Objektbildern, die nach dem Zielbild aufgenommen werden,
- FIG 4
- ein Wirkbild, das einen Einschlag eines vom Waffensystem zum Fahrzeug abgeschossenen Geschosses zeigt,
- FIG 5
- einen zeitlichen Verlauf der Aufnahme eines Zielbilds, mehrere Objektbilder und mehrere Wirkbilder und darin sichtbare Ereignisse,
- FIG 6
- ein Ablaufschema zur gezielten Aufnahme eines Wirkbilds während eines Zeitfensters, in dem eine Geschosswirkung erwartet wird,
- FIG 7
- ein Verfahren zur Bildbearbeitung zur deutlicheren Erkennung einer Geschosswirkung,
- FIG 8
- ein Diagramm, in dem Sichtbarkeiten einer Geschosswirkung in drei verschiedenen Spektralbereichen über die Zeit dargestellt sind und
- FIG 9
- einen Zeitstrahl, auf dem der Verschuss einer Salve aus mehreren Einzelschüssen und die Zeitfenster dargestellt sind, in denen Geschosswirkungen der einzelnen Einzelschüsse erwartet werden.
- FIG. 1
- an object scene with vehicles and a weapon system used to combat one of the vehicles,
- FIG. 2
- a target image that has picked up the weapon system from the object scene and in which a vehicle is marked,
- FIG. 3
- a series of object images taken after the target image,
- FIG. 4
- an impact picture showing an impact of a projectile shot down from the weapon system to the vehicle,
- FIG. 5
- a temporal course of the recording of a target image, several object images and multiple impact images and events visible therein,
- FIG. 6
- a flowchart for the selective recording of an active image during a time window in which a projectile effect is expected,
- FIG. 7
- a method for image processing for clearer detection of a projectile effect,
- FIG. 8
- a diagram in which the visibility of a projectile effect in three different spectral ranges over time are shown and
- FIG. 9
- a timeline depicting the firing of a salvo of several single shots and the time windows in which projectile effects of the individual single shots are expected.
Bei der in
Ist die Zielmarkierung 28 gesetzt, beispielsweise durch einen entsprechenden Befehl des Bedieners, so wird die Lage der Zielmarkierung 28 im Zielbild 26 von der Zieleinheit 20 erfasst. Hieraus ergibt sich eine Zielrichtung 30 vom Waffensystem 14 beziehungsweise der Rohrwaffe 18 zum Ziel, in diesem Fall dem zu bekämpfenden Objekt 10. Die Zielrichtung 30 ist nur eine relative Zielrichtung 30, da ihre absolute Richtung nicht bekannt sein muss. Optional wird die Ausrichtung der das Zielbild 26 aufnehmenden Kamera 22 erfasst, sodass hieraus die Lage des Zielbilds 26 in der Objektszene 2 und damit auch die Lage der Zielmarkierung 28 in der Objektszene 2 bekannt ist. Hieraus ergibt sich eine absolute Zielrichtung 30 vom Waffensystem 14 beziehungsweise der Rohrwaffe 18 zum Ziel, in diesem Fall dem zu bekämpfenden Objekt 10.If the
Diese Zielrichtung kann nun wandern, beispielsweise durch eine Bewegung des Objekts 10 durch die Objektszene 2 oder eine Bewegung des Waffensystems 14 im Raum. Die Zielrichtung 30 kann hierbei mitbewegt werden, beispielsweise durch die Lage der Zielmarkierung 28 im Zielbild. Die Zielmarkierung 28 im Zielbild 26 kann durch den Bediener nachgeführt und somit auf dem zu bekämpfenden Objekt 10 gehalten werden. Eine andere Möglichkeit besteht im automatischen Tracken des Objekts 10, sodass die Zielmarkierung 28 und damit die Zielrichtung 30 automatisch auf dem Objekt 10 gehalten bleibt. Hierfür werden im Laufe der Zeit eine Reihe von Zielbildern 26 aufgenommen, die mit dem ursprünglichen Zielbild 26 mittels bildverarbeiteter Methoden verglichen werden, sodass das Objekt 10 in den nachfolgenden Zielbildern 26 erkannt wird. Anhand der ursprünglichen Lage der Zielmarkierung 28 auf dem Objekt 10 wird nun die Lage der Zielmarkierung 28 der neuen Lage des Objekts 10 in der Objektszene 2 automatisch angepasst.This target direction can now travel, for example, by a movement of the
Im Moment eines Abschusses eines Geschosses aus der Rohrwaffe 18 zum Objekt 10, der zweckmäßigerweise durch einen Bediener gesteuert wird, wird die Zielrichtung 30 zum Moment des Abschusses abgespeichert. Diese Zielrichtung wird im Folgenden zur Berechnung einer Ablage verwendet. Vorherige Zielrichtungen 30 vor dem Abschuss können zwar gespeichert und anderen Berechnungen zugrunde gelegt werden, spielen jedoch für die Berechnung der Ablage zunächst keine Rolle.At the moment of a launch of a projectile from the
Das Zielbild 26, das auf einer Anzeigeeinheit der Zieleinheit 20 dargestellt ist, ist in
In
Aus der Richtungsdifferenz 40, ΔR zwischen der Wirkpunktrichtung 38, R und der Zielrichtung 30 bestimmt die Auswerteeinheit 24 eine Ablage A mit der das abgeschossene Geschoss das Objekt 10 beziehungsweise den gewünschten Zielpunkt darin verfehlt hat. Die Ablage A kann aus der Richtungsdifferenz 40, ΔR bestehen. Aus der Ablage A berechnet die Auswerteeinheit 24 nun weiter eine Ablagekorrektur K der Rohrwaffe 18 in Form einer Richtungsänderung, in die die Rohrwaffe 18 dann verschwenkt wird. Nachfolgende Schüsse auf das Objekt 10 werden nun in die korrigierte Richtung verschossen, sodass das Objekt 10 getroffen wird.From the
Bei der Darstellung aus
Im einfachsten Fall ruht die aufnehmende Kamera 22 zwischen dem Abschusszeitpunkt beziehungsweise der Aufnahme des Zielbilds 26 und dem Wirkzeitpunkt beziehungsweise der Aufnahme des Wirkbilds 36. Die beiden Bilder 26, 36 können einfach übereinander gelegt werden, sodass die Zielrichtung entsprechend der Lage der Zielmarkierung 28 im Zielbild 26 und die Wirkpunktrichtung entsprechend der Lage der Geschosswirkung 34 im Wirkbild einfach nebeneinander abgriffen werden können. In der Regel wird sich jedoch die Kamera 22 während der Geschossflugzeit bewegen, sodass die Objektszene 2 durch die Bilder 26, 36 wandert. Dies ist anhand der Darstellung aus
Zur Bestimmung der Wirkpunktrichtung 38 werden die Objektbilder 32 auf Bildauffälligkeiten untersucht, die die Geschosswirkung 34 zeigen könnten. Hierbei werden beispielsweise alle hintereinander aufgenommenen Objektbilder 32 nacheinander auf eine bildhafte Darstellung der Geschosswirkung 34 untersucht. Wie in
Um die Gefahr einer Verwechslung und somit das Fehlerrisiko zu verringern, bestimmt die Auswerteeinheit einen Erwartungsbereich 46, der beispielhaft in
Es besteht nun die Möglichkeit, nur die bildhaften Ereignisse innerhalb des Erwartungsbereichs 46 zu untersuchen und die Bildauffälligkeiten außerhalb des Erwartungsbereichs 46 zu ignorieren. Beispielhaft ist gezeigt, dass das Mündungsfeuer des Panzers 6 und die Abgasstrahlung der Boden-Luft-Rakete 44 sowie der Granateneinschlag 42 in diesem Falle nicht mehr zu einer Störung beziehungsweise Verwechslung führen können. Das Fehlerrisiko wird hierdurch signifikant verringert. Der Erwartungsbereich 46 kann durch alle Objektbilder 32 gelegt werden, sodass in diesen nur der entsprechende Erwartungsbereich 46 auf die bildhafte Darstellung der Geschosswirkung 34 untersucht wird.It is now possible to examine only the pictorial events within the expected
Es besteht jedoch auch die Möglichkeit, den gesamten Bereich der Objektbilder 32 auf die bildhafte Darstellung der Geschosswirkung 34 zu untersuchen und lediglich das Untersuchungsergebnis entsprechend seiner Lage zum Erwartungsbereich 46 zu gewichten. Liegt eine Bildauffälligkeit außerhalb des Erwartungsbereichs 46, so wird sie weniger stark gewichtet, als wenn sie innerhalb des Erwartungsbereichs 46 läge. Eine weitere Differenzierung ist möglich, indem statt eines nur einstufigen Erwartungsbereichs 46, wie er in
Bei der Wahl der Größe des Erwartungsbereichs 46 berücksichtigt die Auswerteeinheit 24 zweckmäßigerweise sowohl eine bauartspezifische Ablagestreuung des Geschützes als auch eine individuelle Ablagestreuung des Geschützes, in diesem Fall der Rohrwaffe 18. Während die bauartspezifische Ablagestreuung vom Hersteller angegeben sein kann, kann eine individuelle Ablagestreuung des Geschützes entweder ebenfalls vom Hersteller angegeben sein oder aus früheren Versuchen gewonnen werden. Ein weiterer sinnvoller Parameter, der bei der Größe und auch der Lage des Erwartungsbereichs 46 berücksichtigt werden kann, ist die Windstärke und insbesondere auch die Windrichtung. Diese kann vom Waffensystem 14 gemessen werden und in die Bestimmung des Erwartungsbereichs 46 einfließen. Entsprechend der Windrichtung kann der Erwartungsbereich 46 ein Stück weit in Windrichtung verschoben werden, beispielsweise relativ zu einer Symmetrie um die Zielrichtung 30, und die Größe des Erwartungsbereichs 46 kann von der Windstärke abhängig gemacht werden. Ebenfalls sinnvoll ist es, eine Bewegung des Geschützes beziehungsweise des das Geschütz tragenden Fahrzeugs 16 in die Berechnung des Erwartungsbereichs 46 einfließen zu lassen. Je stärker die Bewegung ist, desto größer ist der Erwartungsbereich 46, da eine Bewegung, beispielsweise ein Rütteln, die Streuung vergrößern kann.When choosing the size of the expected
Analog zu einem räumlichen Fenster, wie dem Erwartungsbereich 46, kann ein zeitliches Fenster festgelegt werden, in dem eine Geschosswirkung 34 erwartet wird. Dies ist beispielhaft anhand der Darstellung aus
Zu einem Abschusszeitpunkt tA wird das Geschoss aus der Rohrwaffe 18 abgeschossen. Im entsprechenden Aufnahmezeitraum 48 wird das Zielbild 26 aufgenommen. Nachfolgend wird eine Vielzahl von Objektbildern 32 aufgenommen, wie durch die Unterbrechung des Zeitstrahls anhand der zwei Striche angedeutet ist.At a firing time t A , the projectile is fired from the
Der Zeitpunkt tE gibt einen Erwartungszeitpunkt an, an dem eine Geschosswirkung 34, beispielsweise ein Einschlag des Geschossen am oder beim Objekt 10 oder eine Explosion des Geschosses in der Luft, erwartet wird. Um den Erwartungszeitpunkt tE wird von der Auswerteeinheit 24 ein Zeitfenster 50 gelegt, in dem Ereignisse, analog zum räumlichen Erwartungsbereich 46, ausschließlich berücksichtigt oder stärker berücksichtigt werden. Je nach Verfahren werden also die vor dem Zeitfenster 50 liegenden Objektbilder 32 nicht berücksichtigt beziehungsweise gar nicht erst aufgenommen oder hinsichtlich ihrer Bildauffälligkeiten schwächer gewichtet berücksichtigt.The point in time t E indicates an expectation time at which a
Eine Gewichtung oder ein Zuordnungswert kann allgemein, auch bei einem räumlichen Erwartungsbereich, ein Parameter sein, der bei einer Entscheidung, ob eine Bildauffälligkeit als Geschosswirkung zu klassifizieren ist, herangezogen wird. Er ist zweckmäßigerweise ein Parameter, dessen Größe entscheidend ist für das Ergebnis, ob eine Bildauffälligkeit als Geschosswirkung zu klassifizieren ist. Der Parameter kann beispielsweise eine Wahrscheinlichkeit sein, dass die Bildauffälligkeit eine Geschosswirkung ist.A weighting or an assignment value can generally, even in the case of a spatial expectation range, be a parameter which is used in a decision as to whether an image conspicuity should be classified as a projectile effect. It is expediently a parameter whose size is decisive for the result of whether an image conspicuity should be classified as a projectile effect. The parameter can for example, a probability that the image conspicuousness is a projectile effect.
Eine solche Unterscheidung bzw. Gewichtung ist beispielhaft anhand einer Bildauffälligkeit 52 in
Die Geschosswirkung 34, auf deren Darstellung der Übersichtlichkeit halber in
Anstelle eines Blitzes, wie er durch eine Explosion eines Geschosses verursacht werden würde und wie in
Ein solches Beispiel ist in
Aus der räumlichen Veränderung der Geschosswirkung 54 beziehungsweise der zugehörigen Bildauffälligkeit in den Objektbildern kann zweierlei geschlossen werden. Nämlich einerseits, dass es sich um eine Geschosswirkung 54 handelt, sodass die entsprechenden Objektbilder nun als Wirkbilder betrachtet werden, und andererseits kann auf einen zeitlichen Ursprung, einen Wirkzeitpunkt tW, geschlossen werden. Dies ist in
Bei dem in
Eine weitere Möglichkeit zur Fehlerverringerung wird anhand der Darstellung aus
Für den Fall, dass im Vergleichsbild keine oder keine genügende Bildauffälligkeit erkannt wird, kann das Vergleichsbild beziehungsweise Differenzbild 58 mit einer Bildverarbeitung in Form einer Signalverstärkung bearbeitet werden. Das entsprechend bearbeitete Bild 60 zeigt die Geschosswirkung 34 nun deutlicher, sodass deren Lage im derart bearbeiten Wirkbild 60 ermittelt werden kann. Die Lage wird beispielsweise relativ zu einem Referenzpunkt ermittelt, in dem Beispiel aus
Eine andere Möglichkeit besteht darin, dass eine Gruppe von Objektbildern 32 zu einem Referenzbild 62 gruppiert wird, beispielsweise durch Mittelwertbildung der Objektbilder 32 der Gruppe oder einer Interpolation aus den Objektbildern 32. Das Referenzbild 62 wird nun mit dem nächstfolgenden Objektbild 32 verglichen, beispielsweise durch Bildsubtraktion, wie in
Die Anzahl der Objektbilder 32, aus denen das Referenzbild 62 gebildet wird, kann abhängig gemacht werden von der Bildfluktuation innerhalb der Objektbilder 32. Hierbei kann die Bildfluktuation des gesamten Objektbilds oder nur aus dem Erwartungsbereich 46 berücksichtigt werden. Die Bildfluktuation ergibt sich aus der Veränderung der Bildinhalte von einem Objektbild 32 zum nächsten. Bei hoher Bildfluktuation, also schnellen Änderungen der Bildinhalte, werden weniger Objektbilder 32 zum Referenzbild 62 verarbeitet als bei einer geringeren Bildfluktuation.The number of
Ebenfalls zur Fehlerverringerung trägt bei, wenn die Objektszene 2 durch mehrere Kameras 22 aufgenommen wird, die in unterschiedlichen Spektralbereichen sensitiv sind. Bei dem Beispiel aus
- langwelliger Infrarotbereich,
- kurzwelligerer Infrarotbereich,
- visueller Bereich, in dem Blitze erkannt werden,
- langwelligerer visueller Bereich, der besonders zur Detektion von Rauch- oder Staubwolken geeignete ist, und
- Bereich innerhalb des ultravioletten Strahlungsspektrums.
- long-wave infrared range,
- short-wave infrared range,
- visual area where lightning is detected
- long-wave visual range, which is particularly suitable for the detection of smoke or dust clouds, and
- Range within the ultraviolet radiation spectrum.
Die entsprechenden Bildauffälligkeiten 64, 66, 68, 70 zeigen hierbei einen unterschiedlichen Verlauf. Während ein Explosionsblitz im ultravioletten Spektralbereich nur über einen verhältnismäßig kurzen Zeitraum detektiert wird, wird im visuellen Bereich der Explosionsblitz zusätzlich zu einer Staubaufwirbelung detektiert, die sich relativ langsam ausdehnt und hierdurch immer auffälliger wird, wie in
Jede der Kameras 22 nimmt eine entsprechende Reihe von Wirkbildern 36 in ihrem Spektralbereich auf. Wie zu den vorhergehenden Figuren beschrieben, werden Bildauffälligkeiten auf ihre mögliche Darstellung einer Geschosswirkung 34 untersucht. Bei dem in Anschluss an den Wirkzeitpunkt tW aufgenommenen Wirkbildern werden die Bildauffälligkeiten 64, 66, 68, 70 entdeckt und die Entwicklung der Geschosswirkung in den Wirkbildern 36 wird in jedem Spektralbereich mit einem für den Positionierschuss. erwarteten Signalverlauf in jedem Spektralbereich verglichen. Hierfür sind in der Auswerteeinheit 24 für jeden Spektralbereich typische Signalverläufe von mehreren Munitionsarten abgespeichert. Die Munitionsart des Geschosses, das verschossen wurde, wird hinterlegt, sodass die typischen Signalverläufe für dieses Geschoss aufgerufen und mit den gemessenen Signalverläufen, beispielsweise entsprechend
Der Signalverlauf der Geschosswirkung 34 wird insofern in seinem zeitlichen Verlauf der Intensität in allen drei Spektralbereichen untersucht. Die Bildauffälligkeiten 64, 66, 68, 70 werden nur dann der Geschosswirkung 34 zugeordnet, wenn der Signalverlauf in allen geprüften Spektralbereichen der hinterlegten Signalcharakteristik innerhalb einer vorgegebenen Abweichung entspricht.The signal profile of the
Wiederum zur Verringerung der Fehlerwahrscheinlichkeit ist es vorteilhaft, wenn ein oder mehrere der Spektralbereiche auf ein verhältnismäßig schmales Spektralband begrenzt sind. Hierfür sind die Bandbreiten von zwei Spektralbereichen, nämlich des visuellen und ultravioletten Spektralbereichs auf den Faktor 1,5 begrenzt, sodass die Frequenz des oberen Bandendes 1,5-mal so groß ist wie die Frequenz des unteren Bandendes. Die Breite des infraroten Spektralbands ist mit dem Faktor 2 begrenzt, sodass die Frequenz des oberen Bandendes zweimal so groß ist wie die Frequenz des unteren Bandendes.Again, to reduce the error probability, it is advantageous if one or more of the spectral regions are limited to a relatively narrow spectral band. For this purpose, the bandwidths of two spectral ranges, namely the visual and ultraviolet spectral range are limited to a factor of 1.5, so that the frequency of the upper band end is 1.5 times as large as the frequency of the lower band end. The width of the infrared spectral band is limited by a factor of 2, so that the frequency of the upper band end is twice as large as the frequency of the lower band end.
Zur Abgrenzung des Signalverlaufs gegen beispielsweise ein Mündungsfeuer kann das von der Rohrwaffe 18 verschossene Geschoss ein spezielles Signalgeschoss sein, das mit einem dem Geschoss eigenen Markierungsfeuer abbrennt. Dieses Markierungsfeuer unterscheidet sich sowohl in seinem Spektrum als auch vom zeitlichen Verlauf der Intensität deutlich von üblichen Mündungsfeuern oder Granatenexplosionen. Der Signalverlauf eines solchen Markierungsfeuers, das beispielsweise zunächst verstärkt im ultravioletten Bereich und dann über einen längeren Zeitraum im visuellen Bereich strahlt, insbesondere mit einem charakteristischen Intensitäts- und/oder Spektralverlauf über die Zeit, kann mit dem hinterlegten Signalverlauf verglichen werden, sodass die Geschosswirkung 34 des Positionierschusses eindeutig als solche erkennbar ist. Durch die Auswertung eines Strahlungsverlaufs über die Zeit in einem oder mehreren Frequenzbändern kann eine Geschosswirkung 34, insbesondere eines speziellen Positioniergeschosses beziehungsweise Markiergeschosses, auch von Störsignalen unterschieden werden.To delineate the signal profile against, for example, a muzzle flash, the projectile fired by the
Werden zur Verteidigung des Objekts 10 beispielsweise Störeinheiten abgeworfen, zum Beispiel Flares, so sind diese als Bildauffälligkeiten zwar deutlich in den Objektbildern 32 sichtbar, deren Strahlungscharakteristik ist jedoch unterschiedlich von der eines normalen Geschosses oder eines speziellen Positioniergeschosses. Durch den Vergleich des zeitlichen Verlaufs der durch die Störelemente hervorgerufenen Bildauffälligkeiten mit dem entsprechenden Parameter in der erwarteten Geschosswirkung, kann die Geschosswirkung 34 eindeutig von solchen Störsignalen unterschieden werden.If, for example, flaws are thrown in defense of the
Eine weitere Möglichkeit zur Reduzierung der Fehleranfälligkeit besteht darin, dass eine Salve aus mehreren Geschossen aus der Rohrwaffe 18 auf das Objekt 10 verschossen wird. Für jedes Geschoss wird nun eine Geschosswirkung 34 bestimmt. In mehreren Prüfstufen kann nun eine Anfälligkeit für Verwechslung verringert werden.Another possibility for reducing the susceptibility to failure is that a volley of several projectiles from the
Bei einer solchen Prüfung besteht noch eine Verwechselbarkeit in beispielsweise einem Mündungsfeuer einer Maschinenwaffe, wie einem Maschinengewehr oder einer anderen Salvenfeuerwaffe. Auch Einschläge aus einer solchen Fremdwaffe könnten zu Verwechslungen führen. Um auch das Risiko einer solchen Verwechslung zu verringern, ist die zeitliche Abfolge der Abschusszeitpunkte unregelmäßig codiert. Aus
Eine weitere Möglichkeit besteht darin, dass für jedes Geschoss ein Zeitfenster, in dem die Geschosswirkung 34 erwartet wird, bestimmt wird. Auch dies ist in
Zur Verifikation der Zugehörigkeit der Bildauffälligkeiten zu den Geschosswirkungen 34 kann nun aus der Lage der Wirkzeitpunkte zu den Zeitfenstern jeweils ein Zuordnungswert zu jedem Wirkzeitpunkt ermittelt werden. In
Es wird jedoch anschließend die Lage aller Wirkzeitpunkte auf eine systematische Lageverschiebung zu den Zeitfenstern 50 untersucht. Hierbei fällt auf, dass die vierte, fünfte und sechste Bildauffälligkeit, sowie die achte, neunte und zehnte Bildauffälligkeit um den gleichen zeitlichen Abstand hinter einem Zeitfenster 50 liegen. Es kann sich somit um eine systematische Lageverschiebung der Wirkzeitpunkte zu den Zeitfenstern handeln. Rechnerisch werden nun alle Bildauffälligkeiten um die systematische Lageverschiebung zeitlich nach vorne verschoben. Hierbei fällt auf, dass sechs von den zehn in
Um die Verwechslungsgefahr noch weiter zu reduzieren, werden in der Salve unterschiedliche Geschosse verschossen, die eine unterschiedliche Geschosswirkung hervorrufen. Diese ist auch verschieden von später verschossener Kampfmunition. Der Unterschied kann in einem spektralen Unterschied, in einer Intensität der hervorgerufenen Bildauffälligkeit oder in einer Art der Bildauffälligkeit, beispielsweise Lichtbilds- oder Rauchentwicklung, liegen. In
Je nach Objektszene 2, Kampfsituation oder momentanem Auftrag können die Anforderungen an die Erkennung der Geschosswirkung 34 in der Objektszene sehr unterschiedlich sein. Um trotzdem stets zu einer zuverlässigen Erkennung einer Geschosswirkung 34 zu kommen, ist das Waffensystem 14 mit mehreren Modulen 72 zur Erkennung der Geschosswirkungen 34 ausgerüstet. Diese Module 72 sind in
Die unterschiedlichen Module 72 zur Ermittlung der Geschosswirkung 34 sind einzeln oder in Kombination heranziehbar entsprechend einer Bedienereingabe oder einem Auswertungsergebnis der Auswerteeinheit 24. Ebenfalls entscheidend ist, welche Kameras 22 im Waffensystem 14 vorhanden sind, welche Spektralfilter vorhanden sind, welche Geschosse für Positionierschüsse vorhanden sind und welche Geschosse verwendet werden und dergleichen. Eines der Module 72 legt beispielsweise einen Erwartungsbereich in den Objektbildern bzw. einem Wirkbild fest, in der die Geschosswirkung 34 erwartet wird. Ein anderes Modul 72 bestimmt ein Zeitfenster 50, in der die Geschosswirkung 34 erwartet wird. Ein weiteres Modul 72 wertet unterschiedliche Strahlungsspektren der Geschosswirkung aus. Ein weiteres Modul 72 steuert den Einsatz mehrerer Kameras 22 in unterschiedlichen Spektralbereichen zum Vergleich von spektral unterschiedlichen Bildauffälligkeiten 64, 66, 68. Ein weiteres Modul 72 steuert den Einsatz von spezieller Markierungsmunition für Positionierschüsse, die von später verschossener Munition verschieden ist. Dieses Modul 72 steuert auch die entsprechende Prüfung der Bildauffälligkeiten 64, 66, 68 auf ihre Ähnlichkeit zu hinterlegten Strahlungsverläufen. Ein weiteres Modul 72 steuert den Einsatz einer Markiersalve mit mehreren hintereinander abgeschossenen Geschossen und wertet die Bildauffälligkeiten entsprechend aus.The
- 22
- Objektszeneobject scene
- 44
- Raketenträgerrocketship
- 66
- Panzertank
- 88th
- Panzertank
- 1010
- LKW/ObjektTrucks / object
- 1212
- Radfahrzeugwheeled vehicle
- 1414
- Waffensystemweapon system
- 1616
- Radfahrzeugwheeled vehicle
- 1818
- Rohrwaffebarreled weapon
- 2020
- Zieleinheitdestination
- 2222
- Kameracamera
- 2424
- Auswerteeinheitevaluation
- 2626
- Zielbildtarget image
- 2828
- Zielmarkierungtarget marker
- 3030
- Zielrichtungtarget direction
- 3232
- Objektbilderobject images
- 3434
- GeschosswirkungLevels effect
- 3636
- WirkbildFunctional diagram
- 3838
- WirkpunktrichtungAction point direction
- 4040
- Richtungsdifferenzdirectional difference
- 4242
- Granateneinschlaggrenades impact
- 4444
- Boden-Luft-RaketeGround-to-air missile
- 4646
- ErwartungsbereichExpected range
- 4848
- AufnahmezeitraumRecording period
- 5050
- ZeitfensterTime window
- 5252
- Bildauffälligkeitimage conspicuity
- 5454
- GeschosswirkungLevels effect
- 5656
- AnschlusszeitfensterConnection time window
- 5858
- Differenzbilddifference image
- 6060
- bearbeites Bildedit image
- 6262
- Referenzbildreference image
- 6464
- Bildauffälligkeitimage conspicuity
- 6666
- Bildauffälligkeitimage conspicuity
- 6868
- Bildauffälligkeitimage conspicuity
- 7070
- Bildauffälligkeitimage conspicuity
- 7272
- Modulmodule
- LL
- Lagelocation
- RR
- WirkpunktrichtungAction point direction
- ΔR.DELTA.R
- Richtungsdifferenzdirectional difference
- AA
- Ablagefiling
- KK
- Korrekturcorrection
- tA t A
- AbschusszeitpunktLaunch time
- tE t E
- ErwartungszeitpunktExpectation time
- tW t W
- WirkzeitpunktMore time
- ti t i
- AbschusszeitpunkteLaunch dates
Claims (16)
dadurch gekennzeichnet,
dass die Wirkpunktrichtung (38) erfasst wird, indem ein Wirkbild (36) aufgenommen wird, das die Geschosswirkung (34, 54) am Objekt (10) darstellt, und die Wirkpunktrichtung (38) aus dem Wirkbild (36) bestimmt wird.Method for correction of a weapon system (14), in which a projectile from a gun (18) of the weapon system (14) is fired into an aiming direction (30) on an object (10), a direction (38) of an action point of the projectile on the object (10), the directional difference (40) between the aiming direction (30) and the direction of sense (38) is detected as a bin (A), and a target of a later shot is corrected to the object (10) using the bin (A) becomes,
characterized,
in that the direction of effect (38) is detected by taking an effective image (36) representing the projectile effect (34, 54) on the object (10), and determining the direction of effect (38) from the effective image (36).
dadurch gekennzeichnet,
dass ein das Objekt (10) abbildendes Zielbild (26) aufgenommen wird und die Zielrichtung (30) im Zielbild (26) festgelegt wird, das Zielbild (26) mit dem später aufgenommenen Wirkbild (36) unter Verwendung einer Mustererkennung korreliert und daraus eine Relativlage der beiden Bilder (26, 36) zueinander bestimmt wird und unter Verwendung der Relativlage die Richtungsdifferenz (40) bestimmt wird.Method according to claim 1,
characterized,
in that a target image (26) depicting the object (10) is recorded and the target direction (30) is determined in the target image (26), the target image (26) correlates with the later captured real image (36) using pattern recognition and from this a relative position the two images (26, 36) to each other is determined and using the relative position, the direction difference (40) is determined.
dadurch gekennzeichnet,
dass eine Abfolge von das Objekt (10) abbildenden Objektbildern (32) aufgenommen wird, die Objektbilder (32) der Abfolge auf die Geschosswirkung (34) untersucht werden und mehrere Objektbilder (32), in denen die Geschosswirkung (54) bildhaft gefunden wird, als Wirkbilder (36) auf eine Entwicklung der bildhaften Geschosswirkung (54) in den Wirkbildern (36) ausgewertet werden.Method according to claim 1 or 2,
characterized,
that a sequence of the object (10) imaging object images (32) is received, the object images (32) to be examined of the sequence on the projectile impact (34) and a plurality of object images (32) in which the projectile impact (54) is found pictorially, as impact images (36) on a development of the pictorial projectile effect (54) in the impact images (36) are evaluated.
dadurch gekennzeichnet,
dass ein Erwartungsbereich (46), in dem die Geschosswirkung (34, 54) erwartet wird, als ein Teilbereich in einem das Objekt (10) abbildenden Objektbild (32) ausgewählt wird, und ein Auswertergebnis innerhalb des Erwartungsbereichs (46) höher gewichtet wird als ein Auswertergebnis außerhalb des Erwartungsbereichs (46).Method according to one of the preceding claims,
characterized,
that an expected range (46), in which the projectile impact (34, 54) expected when a partial area in an object (10) imaging the object image (32) is selected, and an evaluation result within the expected range (46) is weighted higher than an evaluation result outside the expectation range (46).
dadurch gekennzeichnet,
dass die Größe und/oder Lage des Erwartungsbereichs (46) im Objektbild (32) in Abhängigkeit von zumindest einem der Parameter aus der folgenden Parametergruppe gewählt wird: bauartspezifische Ablagestreuung des Geschützes, individuelle Ablagestreuung des Geschützes, Windstärke, Windrichtung, Bewegung eines das Geschütz tragenden Fahrzeugs (16) während des Abschusses, Temperatur eines Geschützteils.Method according to claim 4,
characterized,
that the size and / or position of the expectation range (46) in the object image (32) is selected as a function of at least one of the parameters from the following group of parameters: design-specific storage spread of the gun, individual storage spread of the gun, wind force, wind direction, movement of the gun carrying Vehicle (16) during launch, temperature of a gun part.
dadurch gekennzeichnet,
dass ein Zeitfenster (50), in dem die Geschosswirkung (34, 54) erwartet wird, bestimmt wird, eine Abfolge von das Objekt (10) abbildenden Objektbildern (32) aufgenommen wird, Bilder der Abfolge auf die Geschosswirkung (34, 54) untersucht werden und ein Wirkzeitpunkt (tW) innerhalb des Zeitfensters (50) höher gewichtet wird, als außerhalb des Zeitfensters (50).Method according to one of the preceding claims,
characterized,
in that a time window (50) in which the projectile effect (34, 54) is expected is determined, a sequence of object images (32) depicting the object (10) is taken, images of the sequence are examined for the projectile effect (34, 54) and an effective time (t W ) within the time window (50) is weighted higher than outside the time window (50).
dadurch gekennzeichnet,
dass die zeitliche Lage der Integration der Aufnahme des Wirkbilds (36) unter Verwendung des Zeitfensters (50) festgelegt wird.Method according to claim 6,
characterized,
that the timing of the integration of the recording of the active image (36) using the time window (50) is fixed.
dadurch gekennzeichnet,
dass eine Entwicklung der bildhaften Geschosswirkung (54) in einer Abfolge von Wirkbildern (36) ausgewertet wird, aus der Rückbetrachtung der Entwicklung ein Wirkzeitpunkt (tw) ermittelt wird, an dem die Geschosswirkung (54) begann, und geprüft wird, ob der Wirkzeitpunkt (tW) im Zeitfenster (50) liegt.Method according to claim 6 or 7,
characterized,
that a development of the pictorial projectile effect (54) is evaluated in a sequence of impact images (36), from the consideration of the development a time of action (tw) is determined, at which the projectile effect (54) began, and it is checked whether the time of action ( t W ) lies in the time window (50).
dadurch gekennzeichnet,
dass zwischen einem Abschuss des Geschosses und einem Wirkzeitpunkt (tW) des Geschosses zumindest ein Objektbild (32) vom Objekt (10) aufgenommen wird, das Wirkbild (36) unter Verwendung des Objektbilds (32) bearbeitet wird, insbesondere das Objektbild (32) vom Wirkbild (36) subtrahiert wird, und die Wirkpunktrichtung (38) aus dem Differenzbild (58) bestimmt wird.Method according to one of the preceding claims,
characterized,
in that at least one object image (32) is received by the object (10) between a shot of the projectile and an action time (t W ) of the projectile, the active image (36) is processed using the object image (32), in particular the object image (32) is subtracted from the active image (36), and the direction of effect (38) from the difference image (58) is determined.
dadurch gekennzeichnet,
dass mehrere in unterschiedlichen Spektralbereichen sensierende Kameras (22) vorhanden sind und jede Kamera (22) zumindest ein Wirkbild (36) aufnimmt, und aus den Wirkbildern (36) jeweils die Wirkpunktrichtung (38) bestimmt wird.Method according to one of the preceding claims,
characterized,
in that a plurality of cameras (22) which sense in different spectral regions are present and each camera (22) receives at least one active image (36), and from each of the active images (36) the direction of effect (38) is determined.
dadurch gekennzeichnet,
dass eine Signalcharakteristik der in einem oder mehreren Wirkbildern (36) aufgefundenen Geschosswirkung mit einer hinterlegten Signalcharakteristik des Geschosses verglichen wird.Method according to one of the preceding claims,
characterized,
that a signal characteristic of the found in one or more active images (36) Levels effect is compared with a stored signal characteristic of the projectile.
dadurch gekennzeichnet,
dass eine Salve aus mehreren Geschossen auf das Objekt (10) verschossen wird, für jedes Geschoss eine Geschosswirkung (34, 54) und ein Wirkzeitpunkt (tW) der Geschosswirkung (34, 54) bestimmt werden und die zeitliche Abfolge der Wirkzeitpunkte (tW) mit der zeitlichen Abfolge der Abschusszeitpunkte (tA) verglichen wird.Method according to one of the preceding claims,
characterized,
that a salvo of several floors is fired at the object (10), for each floor a projectile effect (34, 54) and a time of action (t W ) of the projectile effect (34, 54) are determined and the time sequence of the action times (t W ) is compared with the time sequence of the firing times (t A ).
dadurch gekennzeichnet,
dass die zeitliche Abfolge der Abschusszeitpunkte (tA) unregelmäßig codiert ist.Method according to claim 12,
characterized,
that the timing of the firing times (t A) is irregular coded.
dadurch gekennzeichnet,
dass in der Salve unterschiedliche Markiergeschosse verschossen werden, die eine unterschiedliche Geschosswirkung (34, 54) hervorrufen, und die sich von einer später verschossenen Kampfmunition unterscheiden.Method according to claim 12 or 13,
characterized,
that in the salvo different Markiergeschosse are fired, which cause a different projectile effect (34, 54), and which differ from a later fired combat munitions.
dadurch gekennzeichnet,
dass unterschiedliche Module (72) zur Ermittlung der Geschosswirkung (34, 54) vorhanden sind, die einzeln oder in Kombination heranziehbar sind, und in Abhängigkeit einer Kampfsituation, vorhandener Geschosse und/oder vorhandenen Detektionssystemen festgelegt wird, welches Modul (72) zur Bestimmung der Geschosswirkung (34, 54) herangezogen wird, wobei eines oder mehr Module (72) der folgenden Gruppe vorhanden sind: Erwartungsbereich (46) der Geschosswirkung (34, 54) im Wirkbild (36), Zeitfenster (50) für die Geschosswirkung (34, 54), Strahlungsspektrum der Geschosswirkung (34, 54), Bildsubtraktion eines Objektbilds (32) ohne Geschosswirkung (34, 54) vom Wirkbild (36), Einsatz mehrerer Kameras (22) unterschiedlicher Spektralbereiche, Einsatz von Markierungsmunition, die von später verschossener Munition verschieden ist, Einsatz einer Markiersalve mehrerer hintereinander abgeschossener Geschosse und deren Auswertung auf mehrere Geschosswirkungen (34, 54).Method according to one of the preceding claims,
characterized,
that different modules (72) for determining the projectile effect (34, 54) are present, which can be used individually or in combination, and are determined as a function of a combat situation, existing projectiles and / or existing detection systems, which module (72) determines the Projectile effect (34, 54), wherein one or more modules (72) of the following group are present: expected range (46) of the projectile effect (34, 54) in the active image (36), time window (50) for the projectile effect (34, 54), radiation spectrum of the projectile effect (34, 54), image subtraction of an object image (32) without projectile effect (34, 54) from the active image (36), use of multiple cameras (22) of different spectral ranges, use of marker ammunition, which differs from later lost ammunition is the use of a Marksalve several consecutively fired projectiles and their evaluation on several projectile effects (34, 54).
dadurch gekennzeichnet,
dass die Auswerteeinheit (24) dazu vorbereitet ist, die Wirkpunktrichtung (38) zu erfassen, indem ein die Geschosswirkung (34, 54) am Objekt darstellendes Wirkbild (36) aufgenommen wird und die Wirkpunktrichtung (38) aus dem Wirkbild (36) bestimmt wird.A weapon system (14) comprising a target unit (20) for inputting and detecting a targeting direction (30) into which a bullet from a gun (18) is shot at an object (10), an optical system having a camera (22) and a Evaluation unit (24) for determining a direction (38) of an action point of the projectile at the object (10) and a file (A) in the form of a directional difference (40) between the target direction (30) and the direction of action (38), wherein the target device ( 20) is prepared to correct a target direction (30) of a later shot on the object (10) using the tray (A),
characterized,
in that the evaluation unit (24) is prepared to detect the direction of effect (38) by recording an effective image (36) representing the projectile effect (34, 54) on the object and determining the direction of effect (38) from the effective image (36) ,
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102016007624.0A DE102016007624A1 (en) | 2016-06-23 | 2016-06-23 | 1Procedure for file correction of a weapon system |
Publications (2)
Publication Number | Publication Date |
---|---|
EP3260808A2 true EP3260808A2 (en) | 2017-12-27 |
EP3260808A3 EP3260808A3 (en) | 2018-01-10 |
Family
ID=59009486
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
EP17000925.2A Pending EP3260808A3 (en) | 2016-06-23 | 2017-06-01 | Method for offset correction of a weapon system |
Country Status (3)
Country | Link |
---|---|
EP (1) | EP3260808A3 (en) |
DE (1) | DE102016007624A1 (en) |
ZA (1) | ZA201704186B (en) |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB9620614D0 (en) * | 1996-10-03 | 1997-03-12 | Barr & Stroud Ltd | Target aiming system |
EP1952304A4 (en) * | 2005-11-08 | 2014-10-08 | Gen Atomics | Apparatus and methods for use in flash detection |
US20080022575A1 (en) * | 2006-05-08 | 2008-01-31 | Honeywell International Inc. | Spotter scope |
IL204455A (en) * | 2010-03-14 | 2015-03-31 | Shlomo Cohen | System and method for registration of artillery fire |
FR2989456B1 (en) * | 2012-04-12 | 2018-05-04 | Philippe Levilly | TELEOPERATED TARGET PROCESSING SYSTEM |
DE102014019200A1 (en) * | 2014-12-19 | 2016-06-23 | Diehl Bgt Defence Gmbh & Co. Kg | automatic weapon |
-
2016
- 2016-06-23 DE DE102016007624.0A patent/DE102016007624A1/en active Pending
-
2017
- 2017-06-01 EP EP17000925.2A patent/EP3260808A3/en active Pending
- 2017-06-20 ZA ZA2017/04186A patent/ZA201704186B/en unknown
Non-Patent Citations (1)
Title |
---|
None |
Also Published As
Publication number | Publication date |
---|---|
DE102016007624A1 (en) | 2018-01-11 |
EP3260808A3 (en) | 2018-01-10 |
ZA201704186B (en) | 2018-08-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2007054278A1 (en) | Self-protection system for combat vehicles or other objects to be protected | |
EP1304539A1 (en) | Method and device for aiming a gun barrel and use of the device | |
DE10117007A1 (en) | Method and device for protecting mobile military equipment | |
DE10230939A1 (en) | Fighting vehicle has warning sensors to detect and analyze threats and select optimum countermeasures using bus connected detachable munition projectors | |
EP2165151A1 (en) | Method and launching apparatus for protection of an object against a threat, in particular a missile, as well as munition | |
EP0411073A1 (en) | Process and device for improving the accuracy of aim | |
DE3733962A1 (en) | METHOD FOR AUTOMATIC TARGET CLASSIFICATION BY AGRICULTURAL AND WATER COMBATING VEHICLES AND DEVICE FOR CARRYING OUT SAID METHOD | |
EP3034986A1 (en) | Automatic gun | |
EP3118561B1 (en) | Directed energy system and weapon system | |
EP3376154B1 (en) | Method for protecting a cruise missile | |
EP3591427B1 (en) | Missile alerter and a method for issuing a warning about a missile | |
DE3303763C2 (en) | ||
EP3260808A2 (en) | Method for offset correction of a weapon system | |
DE19716199A1 (en) | Procedure for aiming the weapon of a weapon system and weapon system for implementing the method | |
DE2701042A1 (en) | DEVICE FOR REMOTE DETECTION OF BULLETS ON A TARGET | |
EP3034983B1 (en) | Automatic gun | |
WO2016087115A1 (en) | System and a method for locating and combatting threats, in particular in asymmetric threat situations | |
EP0154809A1 (en) | Method for simulating combat | |
DE1951622A1 (en) | Arrangement for simulating firing paths | |
DE102005057323A1 (en) | Device for increasing probability of hit of firearm, has image evaluation device which is suitable to bring recorded reference image for evaluation of result by user during operation of device | |
DE102008023520C5 (en) | Method for classifying RAM bullets | |
DE102005054776A1 (en) | Steering method for missiles | |
EP3839567A1 (en) | Missile warning and a method for issuing a warning about a missile | |
DE102011107950A1 (en) | System of e.g. firearms, to prevent e.g. civilian aircraft collision with e.g. civilian building, has communication apparatus from which output signal generated by applying logic function to transmission information is sent to weapons | |
EP1450125A1 (en) | Method and device for fighting against a target |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PUAI | Public reference made under article 153(3) epc to a published international application that has entered the european phase |
Free format text: ORIGINAL CODE: 0009012 |
|
STAA | Information on the status of an ep patent application or granted ep patent |
Free format text: STATUS: THE APPLICATION HAS BEEN PUBLISHED |
|
PUAL | Search report despatched |
Free format text: ORIGINAL CODE: 0009013 |
|
AK | Designated contracting states |
Kind code of ref document: A2 Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR |
|
AX | Request for extension of the european patent |
Extension state: BA ME |
|
AK | Designated contracting states |
Kind code of ref document: A3 Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR |
|
AX | Request for extension of the european patent |
Extension state: BA ME |
|
RIC1 | Information provided on ipc code assigned before grant |
Ipc: F41G 3/08 20060101ALN20171204BHEP Ipc: F41G 3/14 20060101AFI20171204BHEP Ipc: F41G 3/16 20060101ALI20171204BHEP Ipc: F41G 3/04 20060101ALN20171204BHEP |
|
STAA | Information on the status of an ep patent application or granted ep patent |
Free format text: STATUS: REQUEST FOR EXAMINATION WAS MADE |
|
17P | Request for examination filed |
Effective date: 20180709 |
|
RBV | Designated contracting states (corrected) |
Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR |
|
STAA | Information on the status of an ep patent application or granted ep patent |
Free format text: STATUS: EXAMINATION IS IN PROGRESS |
|
17Q | First examination report despatched |
Effective date: 20200320 |
|
STAA | Information on the status of an ep patent application or granted ep patent |
Free format text: STATUS: EXAMINATION IS IN PROGRESS |
|
STAA | Information on the status of an ep patent application or granted ep patent |
Free format text: STATUS: EXAMINATION IS IN PROGRESS |
|
GRAP | Despatch of communication of intention to grant a patent |
Free format text: ORIGINAL CODE: EPIDOSNIGR1 |
|
STAA | Information on the status of an ep patent application or granted ep patent |
Free format text: STATUS: GRANT OF PATENT IS INTENDED |
|
RIC1 | Information provided on ipc code assigned before grant |
Ipc: F41G 3/08 20060101ALN20240223BHEP Ipc: F41G 3/04 20060101ALN20240223BHEP Ipc: F41G 3/16 20060101ALI20240223BHEP Ipc: F41G 3/14 20060101AFI20240223BHEP |
|
INTG | Intention to grant announced |
Effective date: 20240315 |
|
RIC1 | Information provided on ipc code assigned before grant |
Ipc: F41G 3/08 20060101ALN20240301BHEP Ipc: F41G 3/04 20060101ALN20240301BHEP Ipc: F41G 3/16 20060101ALI20240301BHEP Ipc: F41G 3/14 20060101AFI20240301BHEP |
|
GRAS | Grant fee paid |
Free format text: ORIGINAL CODE: EPIDOSNIGR3 |