EP3239644A1 - Procédé et dispositif d'aide à la visée pour le guidage laser d'un projectile - Google Patents

Procédé et dispositif d'aide à la visée pour le guidage laser d'un projectile Download PDF

Info

Publication number
EP3239644A1
EP3239644A1 EP17167889.9A EP17167889A EP3239644A1 EP 3239644 A1 EP3239644 A1 EP 3239644A1 EP 17167889 A EP17167889 A EP 17167889A EP 3239644 A1 EP3239644 A1 EP 3239644A1
Authority
EP
European Patent Office
Prior art keywords
target
guide beam
environment
projectile
aiming
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
EP17167889.9A
Other languages
German (de)
English (en)
Other versions
EP3239644B1 (fr
Inventor
Nikolaus Boos
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Airbus Helicopters SAS
Original Assignee
Airbus Helicopters SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Airbus Helicopters SAS filed Critical Airbus Helicopters SAS
Priority to PL17167889T priority Critical patent/PL3239644T3/pl
Publication of EP3239644A1 publication Critical patent/EP3239644A1/fr
Application granted granted Critical
Publication of EP3239644B1 publication Critical patent/EP3239644B1/fr
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G7/00Direction control systems for self-propelled missiles
    • F41G7/20Direction control systems for self-propelled missiles based on continuous observation of target position
    • F41G7/22Homing guidance systems
    • F41G7/2246Active homing systems, i.e. comprising both a transmitter and a receiver
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G3/00Aiming or laying means
    • F41G3/02Aiming or laying means using an independent line of sight
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G3/00Aiming or laying means
    • F41G3/14Indirect aiming means
    • F41G3/145Indirect aiming means using a target illuminator
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G7/00Direction control systems for self-propelled missiles
    • F41G7/007Preparatory measures taken before the launching of the guided missiles
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G7/00Direction control systems for self-propelled missiles
    • F41G7/20Direction control systems for self-propelled missiles based on continuous observation of target position
    • F41G7/22Homing guidance systems
    • F41G7/226Semi-active homing systems, i.e. comprising a receiver and involving auxiliary illuminating means, e.g. using auxiliary guiding missiles
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G7/00Direction control systems for self-propelled missiles
    • F41G7/20Direction control systems for self-propelled missiles based on continuous observation of target position
    • F41G7/22Homing guidance systems
    • F41G7/2273Homing guidance systems characterised by the type of waves
    • F41G7/2293Homing guidance systems characterised by the type of waves using electromagnetic waves other than radio waves

Definitions

  • the present invention is in the field of projectile guidance. It relates more particularly to the guidance of projectiles using a laser beam.
  • the present invention relates to a method of assisting the aiming of a target as well as a device for assisting the aiming of a target.
  • the present invention also relates to a method for guiding a projectile by a laser beam using such a method of assisting aiming as well as a device for guiding a projectile by a laser beam equipped with such a device. help with aiming.
  • a laser beam is used in particular by the military to guide a missile or any other projectile on a target illuminated by means of a laser beam.
  • This technique is a semi-active laser guided self-guidance designated by the acronym "SALH” designating in English “Semi-Active Laser Homing”.
  • SALH semi-active laser guided self-guidance
  • a laser beam is kept pointed by an operator, often referred to as the "shooter”, on a target. Reflections of this laser beam are then dispersed in a multitude of directions by reflection on the target. A projectile, like a missile, can then be launched or dropped towards the target.
  • a receiving device that includes the projectile receives a portion of the laser beam reflected by the target and then determines the source of this part of the reflected laser beam, namely the target. The trajectory of the projectile is then adjusted towards this source.
  • the projectile having no autonomous means of detecting the target itself, is then guided only towards the source by the part of the reflected laser beam that it receives.
  • the trajectory of the projectile can be corrected to guide the projectile exactly on the target.
  • the emission of the laser beam is thus dissociated from the projectile and is carried out for example by an operator.
  • the operator must have the target in his field of vision in order to point the laser beam on it.
  • the launching zone of the projectile is completely independent of the emission zone of the laser beam.
  • the laser beam is emitted by a laser beam generator such as a laser designator.
  • a laser beam used for the guidance of a projectile is generally constituted by a succession of pulses emitted at regular or irregular time intervals, but in all cases known to be identifiable by the means of receiving the projectile.
  • a laser beam used for the guidance of a projectile can also be a continuous laser beam.
  • the aiming procedure always begins with a scan of the visible environment by the operator looking for targets, then stopping the scan to focus on a target. Therefore, the operator must constantly point the laser beam on the target to guide the projectile to it.
  • the target may be a moving vehicle, for example an automobile or an aircraft.
  • the operator can also be in motion, for example being on board a rolling vehicle or an aircraft.
  • the operator has no direct visual feedback on the point of the environment that is actually illuminated by the laser beam. Indeed, the reflection of the laser on the target is generally not visible by the operator. The operator can thus only rely on its aim, for example through a sighting reticle of a riflescope for a portable laser designator or via a display means integrated into a helmet. for a laser designator embedded in a vehicle. As a result, an offset between the aiming reticle and the actual laser beam may exist and cause a sighting error that goes unnoticed by the operator. Only the impact of the projectile informs the operator of the accuracy of the initial aim and the possible aiming error. In the latter case where the projectile has missed the target, the operator can possibly correct its aim according to the position of the point of impact of the projectile relative to the target, but only after a first failure.
  • a laser beam is a particular light beam composed of a coherent and concentrated light.
  • the term "laser” is an acronym for "Light Amplification by Stimulated Emission of Radiation” and means “amplification of light by stimulated emission of radiation”.
  • the term "light beam” means a beam generally composed of lights visible by the human eye.
  • a laser beam can therefore be a light beam located both in the range visible by the human eye and in the non-visible range.
  • This correction device emits a projectile guiding beam directed towards a target.
  • This guide beam is divided into at least five partial beams, a central partial beam effectively directed on the target and at least four partial beams inclined towards the central partial beam.
  • the projectiles illuminated by an inclined partial beam do not therefore go towards the target and see their trajectories corrected accordingly.
  • the document US 2009/078817 discloses a projectile guidance system for reducing the number of pulses of the guide beam to reduce the total energy sent to the target.
  • This device requires communication between the projectile and the generator of the guide beam in order to synchronize the reception of the reflected guide beam and the emission of this guide beam.
  • an image capture means enables the analysis of the guide beam via the contact points of this guide beam on the target.
  • a radiation capture means allows the analysis of the guide beam reflected by the target, in particular, the arrival time of this guide beam reflected by the target on the sensor, its arrival angle and / or its arrival position on the sensor.
  • the document US 6023322 to determine the ratio between the number of contact points of the guide beam reflected by the target and the number of pulsations of the guide beam emitted, for example to find the best area of the target to aim with the guide beam .
  • the present invention aims to allow a reliable and accurate sight of a guide beam on a target.
  • the present invention enables the operator to provide feedback to the actual target area via an image of the environment and the target.
  • the present invention uses in particular a new type of camera allowing the creation of a selective image of the target in the environment.
  • the subject of the present invention is therefore a method of assisting the aiming of a target as well as a device for assisting the aiming of a target making it possible to overcome the limitations mentioned above in order to improve the quality and accuracy of aiming the target via a guide beam.
  • the present invention also relates to a method for guiding a projectile by a guide beam using such a sighting aid method and a device for guiding a projectile by a guide beam equipped with such a device. help with aiming.
  • This method according to the invention is particularly intended for methods of guiding a projectile by a guide beam towards a target.
  • the guide beam is emitted by a generator of a guide beam.
  • the guide beam may be a light beam visible or not visible by the human eye according to the wavelength or wavelengths constituting this light beam.
  • the guide beam is preferably a laser beam. This laser beam is for example emitted by a known-type laser beam generator such as a laser designator dedicated to aiming a target.
  • the guide beam may be a continuous beam or may be formed by a succession of pulses at regular intervals.
  • the guide beam is defined in particular by temporal characteristics which are the frequency and the duration of these pulses.
  • the generator of a guide beam can be portable and used directly by an operator.
  • the generator of a guide beam can also be embedded in a vehicle.
  • the generator of a guide beam may be connected to the launching device of the projectile, the generator of a guide beam and the launching device of the projectile being for example carried by the same vehicle. This is called “autonomous designation” or “autonomous designation” in English.
  • the generator of a guide beam may also be carried by a third party, for example by a shooter on the ground, and then isolated from the launching device of the projectile, carried for example by a vehicle. This is called “external designation” or "remote designation” in English.
  • This method also uses a camera to record the environment and the target as well as a display means for displaying in particular the images recorded by the camera.
  • the display means may be integrated into a rifle scope of a generator of a portable guide beam or to a helmet for a guide beam generator embedded in a vehicle.
  • the display means may also be a remote screen vis-à-vis the generator of a guide beam.
  • the camera can be linked to the generator of a guide beam or isolated from this generator of a guide beam.
  • the generator of a guide beam is carried by an operator on the ground while the camera is carried by a vehicle, the vehicle may possibly also carry the launching device of the projectile.
  • the camera used by the method according to the invention is preferably a new type of camera known as "bio-inspired camera” or "event based”. These cameras are characterized by a very great radiometric dynamic, for example the ability to see objects both clear and dark at the same time, and by a very high temporal resolution, of the order of a microsecond. By their principle, these cameras allow for each pixel to measure a change in radiometry with high temporal accuracy. A detection of change in the scene, for example by the presence of a pulse of a guide beam or an object in motion, is therefore naturally.
  • radiation of an object is meant the measurement of the energetic magnitude relative to the radiations emitted by this object or derived properties such as the flux or the intensity of these radiations.
  • a sighting procedure always begins with a scan of the visible environment in search of targets, then stopping the scan to focus on a target.
  • the first step of the method according to the invention therefore consists of a complete scan of an environment using the camera. A complete picture of this environment is saved. This complete image of this environment is then displayed in the second step on the visualization means to identify and select a target on this complete image of the environment during the third step.
  • This identification and this selection are made by an operator who is for example the operator in charge of aiming the target with the guide beam.
  • the operator identifies the target on the full image of the environment and then selects it.
  • This selection can be made by the operator who targets the target through the generator of a guide beam, but without emitting a guide beam.
  • the operator then uses the aiming telescope of this generator of a guide beam and when it targets the target, it actuates a selection means such as a push button or a switch to select the target.
  • the operator generally uses the aiming reticle present in the aiming scope of the generator of a guide beam to aim at the target.
  • This selection can also be made directly on the display means by moving the aiming reticle on the target, then by actuating the selection means.
  • the displacement of the reticle can be performed by a mouse or directly on the display means which is then a touch screen, the target selection means being also this mouse or this touch screen.
  • the target may also be identified by its coordinates, for example according to a satellite positioning system, the operator then selecting it via the selection means to confirm that the coordinates correspond to the target.
  • the selection of the target may be automatic when the operator is aiming at a stationary target or when the aiming reticle is held stationary for a first predetermined duration.
  • This first predetermined duration is for example 3 seconds (3s).
  • This automatic selection is also possible for a moving target, in particular by using an image processing system designated for example in the English language by the expression "moving target indicators", aligning the reticle on the identified moving target.
  • the operator points the guide beam at the target during the fourth step to guide the projectile to the target.
  • the operator generally uses the aiming reticle present in a telescope of the generator of a guide beam to aim at the target or directly on the viewing means by positioning the aiming reticle on the target.
  • the operator must in fact constantly point the guide beam at the target via the generator of a beam until the projectile impacts the target. Indeed, if the operator points the beam of guidance on another object out of the target, the projectile will then go towards this other object. Similarly, if the operator stops the generator of a guide beam and no guide beam is emitted, the projectile will not know where to go.
  • first step and the second step are preferably repeated as long as the operator has not pointed the guide beam on the target in order to update the complete display of the environment.
  • the operator generally does not see the point of contact of the guide beam on the target, the guide beam may be visible or not visible by the human eye. In fact, the operator can not check whether the beam actually illuminates the target.
  • the guide beam and its reflection on the target are advantageously still visible by the camera.
  • the contact points of the guide beam in the environment and in particular on the target are always visible and recordable by the camera.
  • the method according to the invention then advantageously comprises a fifth step during which the complete image of this environment is displayed on the display means with the point of contact of the guide beam in the environment.
  • the operator can then visualize the contact point of the guide beam on the image of the environment and verify that this point of contact is located on the target. In this way, if this point of contact is not on the target, the operator can then correct the aim. Indeed, an offset between the aiming reticle and the actual guide beam may exist as a result of inaccuracies in the system and cause an offset between the aiming direction and the direction of the guide beam and, consequently, an aiming error. .
  • the operator points the target again with the guide beam.
  • the operator may during this sixth step possibly correct the aim as a function of the position of the contact point of the guide beam on the environment vis-à-vis the target on the image displayed in the previous step .
  • the camera used by the method advantageously makes it possible to perform, during the seventh step, a selective scanning of the target and the point of contact of the guide beam in the environment.
  • the camera used by the method according to the invention allows to record only part of the environment for which a change in radiometry is detected.
  • this camera can specifically record the target selected in the third step and impacted by the guide beam and the contact point of this guide beam.
  • Other objects of the environment may also be recorded according to the change of their respective radiometry.
  • number of objects recorded in the seventh step and then displayed during the eighth step is significantly reduced with respect to the recording and display of a complete image of the environment, respectively in the first and second steps .
  • a selective image of the target and at least one contact point of the guide beam in the environment is displayed.
  • the operator can again visualize the contact point of the guide beam on the selective image of the environment and verify that this contact point is always well on the target.
  • this selective image is simplified and mainly displays the target, the point of contact of the guide beam on the environment and possibly other objects whose radiometry changes. This selective display advantageously allows a faster analysis on the part of the operator who immediately sees the position of the contact point of the guide beam on the environment vis-à-vis the target.
  • the sixth, seventh and eighth steps are then repeated until the impact of the projectile, these steps being carried out continuously.
  • the operator uses a first time the complete image displayed during the fifth step to possibly correct the aim of the target and then uses the selective images displayed successively in the eighth step.
  • the aiming aid method according to the invention advantageously makes it possible to provide the operator, in real time and during his aiming operation, with feedback on the positions of the target and the contact points of the guide beam on the target.
  • the environment through the display of the complete image then selective images of the environment.
  • This display of the selective image thus makes it possible to improve the aiming accuracy, the operator being able to correct immediately, in real time and continuously a deviation of the position of the point of contact of the guide beam on the environment vis- to the target.
  • the aiming reticle can be displayed on the target. This aiming reticle can thus be displayed during the second, fifth and eighth stages of display of the aiming aid method according to the invention.
  • the aiming aid method according to the invention may comprise, after the eighth step, additional steps to quantify the accuracy of the aim of the target.
  • the image displayed during the second, fifth and eighth stages comprising in particular the target and the contact point of the guide beam in the environment, it is possible by analyzing each image successively displayed to determine a first number of points. contacting the guide beam to the target and a second number of contact points of the guide beam not touching the target since the target was selected in the third step.
  • the aiming aid method according to the invention can thus comprise a ninth step of calculating the first number of contact points of the guide beam touching the target, and the second number of contact points of the guide beam not touching. the target since the target was selected in the third step.
  • the percentage of the contact points of the guide beam actually touching the target among the all of the contact points of the guide beam in the environment may possibly be calculated during this ninth step.
  • This information of the accuracy of the contact points of the guide beam touching the target may be this first number and this second number or the percentage of the contact points of the guide beam actually touching the target among all the contact points of the beam guidance in the environment.
  • the points of contact of the guide beam in the environment can be recorded for a second predetermined duration, and then be displayed with the selective image of the target. The operator can thus view the successive positions of the contact points on this second predetermined duration and thus note any drift in the accuracy of its aim or an improvement in this aim.
  • the selective image of the target and the current contact point of the guide beam in the environment can be displayed simultaneously with at least one of the points of contact previously displayed.
  • current contact point of the guide beam means the point of contact of the guide beam captured by the camera during the seventh sequential scanning step immediately preceding this eighth step.
  • the points of contact previously displayed are for example constituted in part by the contact points recorded during the second predetermined duration.
  • the ninth step can also take place on the second predetermined duration. In this way, the information of the precision displayed during the tenth step is determined on this second determined duration.
  • the aiming aid method according to the invention may comprise another additional step taking place after the fourth step, that is to say after the aiming of the guide beam on the target, and parallel to the steps following, from the fifth step to the eighth step.
  • This additional step allows the identification of the guide beam aimed at the target. Indeed, the contact points of the guide beam in the environment are still visible and recordable by the camera. In fact, it is possible by analyzing these contact points to determine, on the one hand, whether the guide beam is continuous or constituted by a succession of pulses and, secondly, on the temporal characteristics of this guide beam. Then, the time characteristics of the guide beam used to aim at the target are known and constitute the code of the guide beam. It is then advantageously possible to check that these temporal characteristics of the visible guidance beam on the target correspond to the code of the expected guidance beam and to thus determine that the guide beam visible on the target by the camera is indeed the expected guidance beam.
  • the aiming aid method according to the invention can thus comprise an eleventh step of analyzing and identifying the guide beam, the contact points of the guide beam in the environment being analyzed in order to determine the temporal characteristics. of the guide beam and thus identify the guide beam code visible on the target.
  • the time characteristics of the guide beam are the frequency and the duration of these pulses.
  • a continuous guide beam has no pulses and no frequency can be determined.
  • the temporal characteristics of such a continuous beam are in fact the absence of pulses and frequency.
  • the points of contact of the guide beam in the environment can be recorded from the pointing of the target by the guide beam during the fourth step or on a third predetermined duration.
  • This third predetermined duration may be equal to the second predetermined duration.
  • Such recordings of the contact points of the guide beam in the environment may especially be useful for post-projectile analysis, for example in the event of a target error, and in particular fratricidal fire.
  • the method of assisting the aiming of a target may comprise between the fourth target step of the target and the fifth display step, an intermediate stage of complete scanning of the environment at the target. help from the camera.
  • This intermediate step is therefore a complete new scan of the environment to update the display of the target and the environment before the full display of this environment in the fifth step.
  • This intermediate step allows in particular to take into account a possible movement of objects in the environment and in particular the target.
  • the method of assisting the aiming of a target according to the invention advantageously makes it possible, during the fifth and eighth steps, to visualize the spatial behavior of the guide beam in the environment and thus to check the effectiveness of the aiming.
  • this method makes it possible, during the ninth and tenth steps, to quantify this spatial behavior of the guide beam by providing the precision information.
  • this method makes it possible, during the eleventh step, to quantify the temporal behavior of the guide beam and to identify the code of the guide beam in order to ensure that this guide beam is indeed the one expected.
  • the guide beam is preferably a laser beam.
  • the aiming aid method previously described is then applied to the illumination step in order to improve the accuracy of this illumination of the target and, consequently, to improve the accuracy of launching a projectile. on the target.
  • the projectile attachment step on the target can then be performed according to the information of the accuracy of the contact points of the guide beam touching the target and / or time characteristics of the guide beam impacting the target.
  • the achievement of this hooking step can be performed manually by the operator.
  • This embodiment can also be done automatically if the information of the precision of the contact points of the guide beam touching the target is greater than or equal to a predetermined threshold and / or if the time characteristics of the guide beam impacting the target correspond to to the code of the expected guidance beam.
  • the launching step of the projectile can be canceled based on this information of the precision of the contact points of the guide beam touching the target.
  • This cancellation can be done manually by the operator.
  • This cancellation can also be carried out if the operator notices on the display of the selective image during the eighth step an unforeseen event, for example a vehicle approaching the target, this vehicle not having to be impacted by the projectile.
  • This cancellation can also be done automatically if the information of the precision of the contact points of the guide beam touching the target is below the predetermined threshold and / or if the temporal characteristics of the beam the target impact does not correspond to the code of the expected guidance beam.
  • the accuracy of the contact points vis-à-vis the selected target is sufficient, the attachment and / or firing of the projectile is achieved.
  • the probability that the projectile reaches the target is too low and the snapping and / or firing of the projectile is not achieved.
  • the launching step of the projectile can be performed before the projectile attachment step on the target.
  • the present invention also relates to a device for assisting the aiming of a target comprising a camera, a display means, a calculator and a selection means.
  • the camera makes it possible to specifically record the information on particular objects of the registered environment, the target being a particular object of the environment.
  • the particular objects are isolated by this camera according to a change in their respective radiometry for example following a movement of the particular objects.
  • the calculator of this device for assisting the aiming of a target can be configured in particular to analyze each image successively displayed on the display means and to determine a first number of contact points of the guide beam touching the target and a second number of contact points of the guide beam not touching the target. This calculator also makes it possible to determine the percentage of these contact points of the guide beam actually touching the target among all the points of contact of the guide beam in the environment.
  • the computer can also be configured to analyze the environment seen by the camera and in particular the contact points of the guide beam in this environment in order to determine temporal characteristics of the guide beam and, consequently, to identify the guide beam code.
  • the targeting aid of a target can thus implement the aiming aid method of a previously described target in order to improve the targeting accuracy of the target.
  • the present invention also relates to a system for guiding a projectile by a guide beam comprising a generator of a guide beam, a sighting aid as previously described and a projectile provided with a receiving device.
  • the aiming aid is configured to improve the accuracy of target illumination so that the accuracy of projectile firing on the target is improved.
  • the generator of a guide beam is preferably a generator of a laser beam.
  • This system for guiding a projectile by a guide beam can thus implement the method of guiding a projectile by a previously described guide beam.
  • the figure 1 is a guidance system 20 of a projectile 10 by a guide beam comprising a generator 6 of a guide beam 9, a projectile 10 provided with a receiving device 11 and a device 1 for aiming.
  • This system 20 for guiding a projectile 10 by a guide beam guides the projectile 10, for example a missile, towards a target 5.
  • the generator 6 of a guide beam 9 can be used by an operator to aim a target 5 with the guide beam 9, the operator being located in the field and fixed.
  • the generator 6 of a guide beam 9 then generally comprises a sighting telescope 61 making it possible to carry out the aiming of the target 5.
  • the generator 6 of a guide beam 9 can also be embarked in a vehicle such as an aircraft and used then both when the vehicle is moving or is stopped.
  • This guide beam 9 is for example a laser beam consisting of successive pulses.
  • the target 5 is first illuminated by the guide beam 9 emitted by the generator 6 of a guide beam 9 and reflections of this guide beam 9 are then dispersed in a multitude of directions by reflection on the target 5
  • the guide beam 9 may be visible or non-visible by the human eye according to the wavelength or wavelengths of this guide beam 9.
  • the projectile 10 is launched towards the target 5.
  • the projectile 10 comprises a receiving device 11 which receives, when approaching the target 5, a portion of the guide beam 9 reflected by the target 5 and then determines the source of this portion of the reflected guide beam 9.
  • the projectile 10 is finally guided and directed towards this source, namely the target 5, as the guide beam 9 points on the target 5 and illuminates it.
  • the device 1 for targeting a target 5 comprises a camera 2, a display means 3, a computer 4 and a selection means 7.
  • the display means 3 is a screen.
  • the device 1 for aiming a target 5 is configured to improve the targeting accuracy of the target 5 by implementing a method of assisting the aiming of a target whose synoptic diagram is represented on the figure 2 and which has the following steps.
  • a complete scan of an environment is executed using the camera 2.
  • a complete image of this environment corresponding to this complete scan of the environment is displayed on the display means 3. This complete image is represented on the figure 3 .
  • a target 5 is identified and then selected on this complete image of the environment. This identification is made by an operator who is in charge of aiming the target with the guide beam 9.
  • the operator selects the target 5 on the complete image of the environment. This selection is made via a selection means 7 such as a push button while the operator is targeting the target 5. This selection is made by the operator when he targets the target 5 through the generator 6 of a guide beam, but without emitting a guide beam. The operator then uses for example the telescope 61 of this generator 6 of a guide beam to target the target 5, then it actuates the selection means 7 to select the target target 5.
  • a selection means 7 such as a push button
  • This selection of the target 5 can also be done automatically when the operator is aiming at a stationary target or for a predetermined first duration.
  • a fourth step 104 the operator points the guide beam 9 on the target 5 in order to guide the projectile 10 to this target 5.
  • the operator generally uses the aiming reticle present in the telescope 61 of the generator 6 of a guide beam to target the target 5.
  • the first step 101 and the second step 102 are repeated before carrying out this fourth step 104 in order to update the complete display of the environment.
  • a fifth display step 105 the complete image of this environment is displayed on the display means 3 with the contact point 91 of the guide beam 9 in the environment. Indeed, the guide beam 9 and its reflection on the target 5 are advantageously still visible by the camera 2.
  • a targeting reticle 8 can also be displayed on the display means 3 thus indicating to the operator the point of the environment that is targeted. This complete image including the point of contact 91 of the guide beam 9 and the aiming reticle 8 is shown in FIG. figure 4 .
  • This fifth display step 105 thus enables the operator to visualize and verify on the one hand that the aiming reticle 8 points well to the target 5 and on the other hand that the point of contact 91 of the guide beam 9 points also the target 5. Indeed, the operator must constantly point the guide beam 9 on the target 5 until the projectile 10 impacts the target 5.
  • an intermediate step 115 of complete scanning of the environment can be performed between the fourth step 104 pointing the target 5 and the fifth step 105 display.
  • an intermediate step 115 of complete scanning of the environment can be performed between the fourth step 104 pointing the target 5 and the fifth step 105 display.
  • This sixth aiming step 106 advantageously allows the operator to correct the aim if the point of contact 91 is not on the target 5 on the full image displayed in the fifth display step 105.
  • a selective scanning of the target 5 and the point of contact 91 of the guide beam 9 in the environment is carried out by the camera 2.
  • the camera 2 is a camera which makes it possible to to specifically record the information on particular objects of the environment according to a change in their radiometry following, for example, their movement.
  • the camera 2 makes it possible to record specifically and only the information on particular objects of the environment that are in motion, as well as the contact points 91 of the guide beam 9.
  • this selective image of the target 5 and at least one contact point 91 of the guide beam 9 in the environment is displayed.
  • the operator can again view the contact point 91 of the guide beam 9 on the selective image of the environment and verify that this point of contact 91 is always well on the target 5.
  • this selective image is simplified and mainly displays the target 5 which is for example in motion and the contact point 91 of the guide beam 9 on the environment.
  • This selective image advantageously allows a faster analysis by the operator who immediately sees the position of the contact point 91 vis-à-vis the target 5.
  • the reticle of target 8 can be displayed on the display means 3 to indicate to the operator the point of the environment that is targeted.
  • This selective image comprising the point of contact 91 of the guide beam 9 and the aiming reticle 8 is represented on the figure 5 .
  • the sixth, seventh and eighth steps are then repeated until the impact of the projectile 10, these steps being carried out continuously.
  • the aiming assistance device 1 thus advantageously makes it possible to provide the operator in real time and during his aiming operation a return to the positions of the target 5 and the contact point 91 of the guide beam 9 on the by the images displayed on the display means 3 after identifying and selecting the target 5. The operator can then immediately correct a difference between the position of the contact point 91 vis-à-vis the target 5 and thus improve the precision of aiming.
  • the sight assist device 1 also makes it possible to quantify the aiming accuracy.
  • the computer 4 is configured to analyze each image successively displayed on the display means 3 and to determine, during a ninth step 109, a first number of contact points 91 of the guide beam 9 touching the target 5 and a second number of contact points 91 of the guide beam not touching the target 5.
  • This calculator 4 also makes it possible to calculate the percentage of these contact points 91 actually touching the target 5 among all the points of contact 91 of the guide beam 9 in the environment.
  • information 92 of the accuracy of the contact points 91 touching the target 5 formed by that percentage of the contact points 91 actually touching the chosen target can be displayed on the display means 3.
  • the ninth step 109 and the tenth step 110 are preferably carried out simultaneously at the sixth, seventh and eighth steps as shown in the block diagram of FIG. figure 2 , and is repeated until the impact of the projectile 10.
  • the points of contact 91 of the guide beam 9 in the environment may be recorded for a second predetermined duration, and then displayed with the selective image of the target 5.
  • the selective image of the target 5 and the current contact point 91 of the guide beam 9 picked up during the seventh scanning step 107 can be displayed simultaneously with at least one of the points of contact 91 previously displayed during the fifth display step 105 and during previous eighth display steps 108.
  • the ninth step 109 can also take place on the second predetermined duration. In this way, the information 92 of the precision displayed during the tenth step 110 is determined on this second determined duration.
  • This information 92 is displayed on the display means 3 with the points of contact 91 recorded during the second predetermined duration as represented on the Figures 6 and 7 .
  • the operator can thus visualize the positions of the contact points 91 on this second predetermined duration and thus visualize the accuracy of the contact points 91 vis-à-vis the target 5.
  • This information 92 can also be used by the guidance system 20 of a projectile 10 in order to confirm or cancel the attachment of the projectile 10 on the target 5 and the launching of the projectile 10 towards the target 5. indeed, if the accuracy of the sight is considered too low by the operator, it can cancel the launching of the projectile 10 or stop it momentarily until a sufficient aiming accuracy. This cancellation can also be done automatically if the information 92 of the precision of the contact points 91 of the guide beam 9 touching the target 5 is less than a predetermined threshold.
  • the sight assist device 1 makes it possible to identify the code of the guide beam 9 aimed at the target 5.
  • the computer 4 is configured to analyze the environment seen by the camera 2 and in particular the contact points 91 of the guide beam 9 in the environment. The computer 4 can thus determine, during an eleventh step 111, the temporal characteristics of the guide beam 9 and identify the code of this guide beam 9. This eleventh step 111 takes place after the fourth step 104 and parallel to the steps following.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Aiming, Guidance, Guns With A Light Source, Armor, Camouflage, And Targets (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

La présente invention concerne un procédé et un dispositif d'aide à la visée d'une cible (5) destinée notamment à améliorer la précision du guidage par un faisceau laser (9) d'un projectile (10) vers ladite cible (5). Ce procédé utilise une caméra (2) permettant d'enregistrer une image complète de l'environnement ou bien une image sélective de ladite cible (5) dans ledit environnement. Ensuite, ce procédé permet de vérifier que ledit faisceau laser (9) pointe réellement ladite cible (5) en affichant le point de contact (91) dudit faisceau laser (9) dans ledit environnement sur l'image enregistrée par ladite caméra (2), puis de déterminer la précision avec laquelle ledit faisceau laser (9) pointe réellement ladite cible (5). En fonction de ladite précision, le lancement dudit projectile (10) peut être confirmé ou bien annulé. Ce procédé permet également d'identifier le code dudit faisceau de guidage (9) illuminant ladite cible (5).

Description

  • La présente invention est du domaine de guidage des projectiles. Elle concerne plus particulièrement le guidage de projectiles à l'aide d'un faisceau laser.
  • La présente invention concerne un procédé d'aide à la visée d'une cible ainsi qu'un dispositif d'aide à la visée d'une cible. La présente invention concerne également un procédé de guidage d'un projectile par un faisceau laser utilisant un tel procédé d'aide à la visée ainsi qu'un dispositif de guidage d'un projectile par un faisceau laser équipé d'un tel dispositif d'aide à la visée.
  • Le guidage par un faisceau laser est employé notamment par les militaires pour guider un missile ou toute autre projectile sur une cible illuminée au moyen d'un faisceau laser. Cette technique est un autoguidage semi actif par laser désigné par l'acronyme « SALH » désignant en langue anglaise « Semi-Active Laser Homing ». Selon cette technique et tel que décrit dans le document US 4143835 , un faisceau laser est maintenu pointé par un opérateur, souvent désigné par le terme « tireur », sur une cible. Des reflets de ce faisceau laser sont alors dispersés dans une multitude de directions par réflexion sur la cible. Un projectile, tel un missile, peut être alors lancé ou lâché en direction de la cible.
  • Lorsque le projectile est suffisamment proche de la cible, un dispositif de réception que comporte le projectile reçoit une partie du faisceau laser réfléchi par la cible et détermine alors la source de cette partie du faisceau laser réfléchi, à savoir la cible. La trajectoire du projectile est alors ajustée en direction de cette source. Le projectile, ne possédant aucun moyen autonome de détection de la cible proprement dite, est alors guidé uniquement vers la source par la partie du faisceau laser réfléchi qu'il reçoit.
  • Ainsi, tant que le faisceau laser est maintenu pointé sur la cible et que le dispositif de guidage du projectile reçoit une partie du faisceau laser réfléchi, la trajectoire du projectile peut être corrigée afin de guider le projectile exactement sur la cible. L'émission du faisceau laser est donc dissociée du projectile et est effectuée par exemple par un opérateur. Par contre, l'opérateur doit avoir la cible dans son champ de vision afin de pointer le faisceau laser sur elle. Avantageusement, la zone de lancement du projectile est totalement indépendante de la zone d'émission du faisceau laser. Le faisceau laser est émis par un générateur d'un faisceau laser tel qu'un désignateur laser.
  • Pour guider avec précision le projectile vers la cible, la qualité du faisceau laser illuminant la cible est essentielle et repose principalement sur le pourcentage du faisceau laser atteignant réellement la cible. Un faisceau laser utilisé pour le guidage d'un projectile est généralement constitué par une succession d'impulsions émises à intervalles de temps réguliers ou bien irréguliers, mais dans tous les cas connus pour être identifiables par le moyen de réception du projectile.
  • En conséquence, toutes les impulsions du faisceau laser ne pointant pas la cible guideront le projectile en dehors de la cible alors que toutes les impulsions du faisceau laser pointant sur la cible guideront le projectile exactement sur la cible.
  • Un faisceau laser utilisé pour le guidage d'un projectile peut également être un faisceau laser continu.
  • La procédure de visée commence toujours par un balayage de l'environnement visible par l'opérateur à la recherche de cibles, puis par l'arrêt du balayage pour se focaliser sur une cible. Dès lors, l'opérateur doit pointer en permanence le faisceau laser sur la cible afin de guider le projectile jusqu'à elle.
  • Toutefois, il peut être difficile de pointer précisément sur une cible en permanence, en particulier lorsque cette cible est mobile vis-à-vis de l'opérateur. En effet, la cible peut être un véhicule en mouvement, par exemple une automobile ou un aéronef. L'opérateur peut également être en mouvement, étant par exemple embarqué à bord d'un véhicule roulant ou bien d'un aéronef.
  • De plus, l'opérateur n'a pas de retour visuel direct sur le point de l'environnement qui est réellement illuminé par le faisceau laser. En effet, le reflet du laser sur la cible n'est généralement pas visible par l'opérateur. L'opérateur ne peut ainsi se fier qu'à sa visée, effectuée par exemple à travers un réticule de visée d'une lunette de visée pour un désignateur laser portatif ou bien par l'intermédiaire d'un moyen de visualisation intégré à un casque pour un désignateur laser embarqué dans un véhicule. En conséquence, un décalage entre le réticule de visée et le faisceau laser proprement dit peut exister et provoquer une erreur de visée qui passe inaperçue pour l'opérateur. Seul l'impact du projectile informe l'opérateur sur la précision de la visée initiale et l'erreur éventuelle de visée. Dans ce dernier cas où le projectile a raté la cible, l'opérateur peut éventuellement corriger sa visée en fonction de la position du point d'impact du projectile par rapport à la cible, mais uniquement après un premier échec.
  • Par ailleurs, on rappelle qu'un faisceau laser est un faisceau lumineux particulier composé d'une lumière cohérente et concentrée. Le terme « laser » est un acronyme désignant en langue anglaise « Light Amplification by Stimulated Emission of Radiation » et signifiant « amplification de la lumière par émission stimulée de radiation ». En outre, on entend par « faisceau lumineux », un faisceau généralement composé de lumières visibles par l'oeil humain. Toutefois et par extension, on peut également désigner par « faisceau lumineux », un faisceau composé d'ondes électromagnétiques non visibles, par exemple situées dans les domaines infrarouge et ultraviolet. Un faisceau laser peut donc être un faisceau lumineux situé aussi bien dans le domaine visible par l'oeil humain que dans le domaine non visible.
  • En outre, un dispositif de correction de la trajectoire de projectiles est décrit dans le document FR 2719659 . Ce dispositif de correction émet un faisceau de guidage des projectiles dirigé vers une cible. Ce faisceau de guidage est divisé en au moins cinq faisceaux partiels, un faisceau partiel central dirigé effectivement sur la cible et au moins quatre faisceaux partiels inclinés vis-à-vis du faisceau partiel central. Les projectiles illuminés par un faisceau partiel incliné ne se dirigent donc pas vers la cible et voient leurs trajectoires corrigées en conséquence.
  • Par ailleurs, on connait les documents US 2009/078817 et EP 2642238 qui décrivent un système de guidage pour un missile ou toute autre projectile sur une cible illuminée au moyen d'un faisceau laser.
  • En particulier, le document US 2009/078817 décrit un système de guidage de projectiles visant à réduire le nombre de pulsations du faisceau de guidage afin de réduire l'énergie totale envoyée vers la cible. Ce dispositif nécessite une communication entre le projectile et le générateur du faisceau de guidage afin de synchroniser la réception du faisceau de guidage réfléchi et l'émission de ce faisceau de guidage.
  • On connait aussi le document US 6069656 qui décrit une méthode et un dispositif de stabilisation d'images destinés à un système de guidage laser d'un projectile. Cette méthode permet notamment la possibilité d'afficher la scène totale captée par une caméra ou bien uniquement une partie de cette scène correspondant à un mode zoom. De plus, cette méthode permet l'affichage d'un seul point de contact du faisceau de guidage, la distance entre un réticule situé sur la cible et ce point de contact étant utilisée pour corriger le faisceau de guidage.
  • Enfin, on connait les documents US 2013/087684 , WO 2016/009440 et US 6023322 qui décrivent un système et/ou une méthode d'analyse des critères de qualité d'un faisceau de guidage d'un système de désignation laser d'une cible.
  • Selon le document US 2013/087684 , un moyen de capture d'image permet l'analyse du faisceau de guidage par l'intermédiaire des points de contact de ce faisceau de guidage sur la cible.
  • Selon le document WO 2016/009440 , un moyen de capture de radiation permet l'analyse du faisceau de guidage réfléchi par la cible, en particulier, le temps d'arrivée de ce faisceau de guidage réfléchi par la cible sur le capteur, son angle d'arrivée et/ou sa position d'arrivée sur le capteur.
  • Le document US 6023322 permet de déterminer le rapport entre le nombre de points de contact de ce faisceau de guidage réfléchi par la cible et le nombre de pulsations de ce faisceau de guidage émis permettant par exemple de trouver la meilleure zone de la cible à viser avec le faisceau de guidage.
  • Dans ce cadre, la présente invention a pour objectif de permettre une visée fiable et précise d'un faisceau de guidage sur une cible. La présente invention permet la fourniture à l'opérateur d'un retour d'informations sur la zone réellement visée par l'intermédiaire d'une image de l'environnement et de la cible. La présente invention utilise notamment un nouveau type de caméras permettant la création d'une image sélective de la cible dans l'environnement.
  • La présente invention a alors pour objet un procédé d'aide à la visée d'une cible ainsi qu'un dispositif d'aide à la visée d'une cible permettant de s'affranchir des limitations mentionnées ci-dessus afin d'améliorer la qualité et la précision de la visée de la cible par l'intermédiaire d'un faisceau de guidage. La présente invention concerne également un procédé de guidage d'un projectile par un faisceau de guidage utilisant un tel procédé d'aide à la visée ainsi qu'un dispositif de guidage d'un projectile par un faisceau de guidage équipé d'un tel dispositif d'aide à la visée.
  • Selon l'invention, un procédé d'aide à la visée d'une cible comporte les étapes suivantes :
    • une première étape de balayage complet d'un environnement à l'aide d'une caméra,
    • une deuxième étape d'affichage d'une image complète de l'environnement,
    • une troisième étape d'identification et de sélection d'une cible sur l'image complète de l'environnement,
    • une quatrième étape de pointage de la cible par un opérateur par l'intermédiaire d'un faisceau de guidage,
    • une cinquième étape d'affichage d'une image complète de l'environnement et du point de contact du faisceau de guidage dans l'environnement,
    • une sixième étape de pointage par l'opérateur par l'intermédiaire d'un faisceau de guidage de la cible,
    • une septième étape de balayage sélectif de la cible et du point de contact du faisceau de guidage dans l'environnement à l'aide de la caméra, et
    • une huitième étape d'affichage d'une image sélective de la cible et d'au moins un point de contact du faisceau de guidage dans l'environnement.
  • Ce procédé selon l'invention est notamment destiné aux procédés de guidage d'un projectile par un faisceau de guidage vers une cible. Le faisceau de guidage est émis par un générateur d'un faisceau de guidage. Le faisceau de guidage peut être un faisceau lumineux visible ou non visible par l'oeil humain selon la ou les longueurs d'ondes composant ce faisceau lumineux. Le faisceau de guidage est de préférence un faisceau laser. Ce faisceau laser est par exemple émis par un générateur d'un faisceau laser de type connu tel un désignateur laser dédié à la visée d'une cible.
  • En outre, le faisceau de guidage peut être un faisceau continu ou bien être formé par une succession d'impulsions sur des intervalles réguliers. Dans ce dernier cas, le faisceau de guidage est notamment défini par des caractéristiques temporelles qui sont la fréquence et la durée de ces impulsions.
  • Le générateur d'un faisceau de guidage peut être portatif et utilisé directement par un opérateur. Le générateur d'un faisceau de guidage peut également être embarqué dans un véhicule.
  • De plus, le générateur d'un faisceau de guidage peut être lié au dispositif de lancement du projectile, le générateur d'un faisceau de guidage et le dispositif de lancement du projectile étant par exemple portés par le même véhicule. On parle alors de « désignation autonome » ou bien de « autonomous designation » en langue anglaise.
  • Le générateur d'un faisceau de guidage peut également être porté par une tiers partie, par exemple par un tireur au sol, et alors isolé du dispositif de lancement du projectile, porté par exemple par un véhicule. On parle alors de « désignation externe » ou bien de « remote designation » en langue anglaise.
  • Ce procédé utilise également une caméra afin d'enregistrer l'environnement et la cible ainsi qu'un moyen de visualisation pour afficher notamment les images enregistrées par la caméra. Le moyen de visualisation peut être intégré à une lunette de visée d'un générateur d'un faisceau de guidage portatif ou bien à un casque pour un générateur de faisceau de guidage embarqué dans un véhicule. Le moyen de visualisation peut également être un écran déporté vis-à-vis du générateur d'un faisceau de guidage.
  • De même, la caméra peut être liée au générateur d'un faisceau de guidage ou bien isolé de ce générateur d'un faisceau de guidage. Par exemple, le générateur d'un faisceau de guidage est porté par un opérateur situé au sol alors que la caméra est portée par un véhicule, le véhicule pouvant éventuellement porter également le dispositif de lancement du projectile.
  • La caméra utilisée par le procédé selon l'invention est de préférence un nouveau de type de caméras connues sous l'expression anglaise « bio-inspired camera » ou « event based ». Ces cameras se caractérisent par une très grande dynamique radiométrique, par exemple la capacité de voir des objets clairs et sombres à la fois, et par une très grande résolution temporelle, de l'ordre de la microseconde. De par leur principe, ces caméras permettent donc pour chaque pixel de mesurer un changement de la radiométrie avec une haute precision temporelle. Une détection de changement dans la scène, par exemple par la présence d'une impulsion d'un faisceau de guidage ou un objet en mouvement, se fait donc naturellement. On entend par « radiométrie d'un objet » la mesure de la grandeur énergétique relative aux rayonnements émis par cet objet ou bien des propriétés dérivées telles que le flux ou l'intensité de ces rayonnements.
  • Ainsi, des objets particuliers pour lesquels un changement de leur radiométrie respective est détecté peuvent être isolés dans l'environnement. De la sorte, une telle caméra n'enregistre pas obligatoirement une image complète de l'environnement comme le fait une caméra traditionnelle, mais une image de l'environnement ne comportant qu'un ou plusieurs objets particuliers, pour lesquels un changement de leur radiométrie est détecté, et en particulier une ou plusieurs cibles choisies.
  • Une procédure de visée commence toujours par un balayage de l'environnement visible à la recherche de cibles, puis par l'arrêt du balayage pour se focaliser sur une cible.
  • La première étape du procédé selon l'invention consiste donc en un balayage complet d'un environnement à l'aide de la caméra. Une image complète de cet environnement est donc enregistrée. Cette image complète de cet environnement est ensuite affichée lors de la deuxième étape sur le moyen de visualisation afin que soit identifiée et sélectionnée une cible sur cette image complète de l'environnement au cours de la troisième étape.
  • Cette identification et cette sélection sont faites par un opérateur qui est par exemple l'opérateur en charge de la visée de la cible avec le faisceau de guidage. L'opérateur identifie la cible sur l'image complète de l'environnement et la sélectionne alors.
  • Cette sélection peut être faite par l'opérateur qui vise la cible par l'intermédiaire du générateur d'un faisceau de guidage, mais sans émettre de faisceau de guidage. L'opérateur utilise alors la lunette de visée de ce générateur d'un faisceau de guidage et lorsqu'il vise la cible, il actionne un moyen de sélection tel un bouton poussoir ou un interrupteur pour sélectionner la cible visée. L'opérateur utilise généralement le réticule de visée présent dans la lunette de visée du générateur d'un faisceau de guidage pour viser la cible.
  • Cette sélection peut également être faite directement sur le moyen de visualisation en déplaçant le réticule de visée sur la cible, puis en actionnant le moyen de sélection. Le déplacement du réticule peut être effectué par une souris ou bien directement sur le moyen de visualisation qui est alors un écran tactile, le moyen de sélection de la cible étant également cette souris ou cet écran tactile.
  • La cible peut également être identifiée par ses coordonnées, par exemple selon un système de localisation par satellites, l'opérateur la sélectionnant ensuite par l'intermédiaire du moyen de sélection pour confirmer que les coordonnées correspondent bien à la cible.
  • Dans tous les cas, la sélection de la cible peut être automatique lorsque l'opérateur vise une cible immobile ou bien lorsque le réticule de visée est maintenu immobile pendant une première durée prédéterminée. Cette première durée prédéterminée est par exemple de 3 secondes (3s).
  • Cette sélection automatique est également possible pour une cible en mouvement, en utilisant notamment un système de traitement d'images, désigné par exemple en langue anglaise par l'expression « moving target indicators », alignant le réticule sur la cible mobile identifiée.
  • Ensuite, l'opérateur pointe le faisceau de guidage sur la cible lors de la quatrième étape afin de guider le projectile jusqu'à la cible. L'opérateur utilise généralement le réticule de visée présent dans une lunette de visée du générateur d'un faisceau de guidage pour viser la cible ou bien directement sur le moyen de visualisation en positionnant le réticule de visée sur la cible. De plus, l'opérateur doit en fait pointer en permanence le faisceau de guidage sur la cible par l'intermédiaire du générateur d'un faisceau de guidage jusqu'à ce que le projectile impacte la cible. En effet, si l'opérateur pointe le faisceau de guidage sur un autre objet hors de la cible, le projectile se dirigera alors vers cet autre objet. De même, si l'opérateur arrête le générateur d'un faisceau de guidage et si aucun faisceau de guidage n'est émis, le projectile ne saura pas où se diriger.
  • Par ailleurs, la première étape et la deuxième étape se répètent de préférence tant que l'opérateur n'a pas pointé le faisceau de guidage sur la cible afin de mettre à jour l'affichage complet de l'environnement.
  • En outre, l'opérateur ne voit généralement pas le point de contact du faisceau de guidage sur la cible, le faisceau de guidage pouvant être visible ou non visible par l'oeil humain. De fait, l'opérateur ne peut pas vérifier si le faisceau illumine réellement la cible visée.
  • Toutefois, le faisceau de guidage et son reflet sur la cible sont avantageusement toujours visibles par la caméra. Par suite, les points de contact du faisceau de guidage dans l'environnement et en particulier sur la cible sont toujours visibles et enregistrables par la caméra.
  • Il est à noter que d'autres dispositifs faisant leur apparition aujourd'hui permettent d'enregistrer des points de contact du faisceau de guidage dans l'environnement. Il existe par exemple un capteur dont la désignation en langue anglaise est « see spot ». Toutefois, ces dispositifs ont une faible fréquence d'enregistrement et ne peuvent alors pas enregistrer les points de contact du faisceau de guidage dans l'environnement s'ils sont trop proches dans le temps les uns des autres et sous réserve qu'ils tombent dans la fenêtre temporelle où ces dispositifs enregistrent une image.
  • Le procédé selon l'invention comporte alors avantageusement une cinquième étape au cours de laquelle l'image complète de cet environnement est affichée sur le moyen de visualisation avec le point de contact du faisceau de guidage dans l'environnement.
  • L'opérateur peut alors visualiser le point de contact du faisceau de guidage sur l'image de l'environnement et vérifier que ce point de contact se situe bien sur la cible. De la sorte, si ce point de contact ne se situe pas sur la cible, l'opérateur peut alors corriger la visée. En effet, un décalage entre le réticule de visée et le faisceau de guidage proprement dit peut exister suite à des imprécisions du système et provoquer un décalage entre la direction de visée et la direction du faisceau de guidage et, par suite, une erreur de visée.
  • Ensuite, au cours de la sixième étape, l'opérateur pointe de nouveau la cible avec le faisceau de guidage. L'opérateur peut au cours de cette sixième étape éventuellement corriger la visée en fonction de la position du point de contact du faisceau de guidage sur l'environnement vis-à-vis de la cible sur l'image affichée lors de l'étape précédente.
  • La cible étant identifiée, la caméra utilisée par le procédé permet avantageusement d'effectuer lors de la septième étape un balayage sélectif de la cible et du point de contact du faisceau de guidage dans l'environnement. En effet, comme évoqué précédemment, la caméra utilisée par le procédé selon l'invention permet de n'enregistrer qu'une partie de l'environnement pour laquelle un changement de la radiométrie est détecté. Ainsi, cette caméra peut enregistrer spécifiquement la cible sélectionnée lors de la troisième étape et impactée par le faisceau de guidage ainsi que le point de contact de ce faisceau de guidage. D'autres objets de l'environnement pourront également être enregistrés en fonction du changement de leur radiométrie respective. Toutefois, le nombre des objets enregistrés lors de la septième étape et ensuite affichés lors de la huitième étape est nettement réduit vis-à-vis de l'enregistrement et de l'affichage d'une image complète de l'environnement, respectivement aux première et deuxième étapes.
  • Enfin, lors de la huitième étape, une image sélective de la cible et d'au moins un point de contact du faisceau de guidage dans l'environnement est affichée. L'opérateur peut là encore visualiser le point de contact du faisceau de guidage sur l'image sélective de l'environnement et vérifier que ce point de contact se situe toujours bien sur la cible. Avantageusement, cette image sélective est simplifiée et affiche principalement la cible, le point de contact du faisceau de guidage sur l'environnement et éventuellement d'autres objets dont la radiométrie change. Cet affichage sélectif permet avantageusement une analyse plus rapide de la part de l'opérateur qui voit immédiatement la position du point de contact du faisceau de guidage sur l'environnement vis-à-vis de la cible.
  • Les sixième, septième et huitième étapes se répètent ensuite jusqu'à l'impact du projectile, ces étapes étant réalisées de façon continue.
  • Ainsi, pour la sixième étape de pointage, l'opérateur utilise une première fois l'image complète affichée lors de la cinquième étape pour corriger éventuellement la visée de la cible et utilise ensuite les images sélectives affichées successivement lors de la huitième étape.
  • Le procédé d'aide à la visée selon l'invention permet avantageusement de fournir à l'opérateur en temps réel et pendant son opération de visée un retour d'informations sur les positions de la cible et des points de contact du faisceau de guidage sur l'environnement grâce à l'affichage de l'image complète puis des images sélectives de l'environnement. Cet affichage de l'image sélective permet ainsi d'améliorer la précision de visée, l'opérateur pouvant corriger immédiatement, en temps réel et de façon continue un écart de la position du point de contact du faisceau de guidage sur l'environnement vis-à-vis de la cible.
  • Par ailleurs, afin de faciliter l'identification de la cible sur l'image affichée, qu'il s'agisse d'une image complète de l'environnement ou bien d'une image sélective de la cible et d'au moins un point de contact du faisceau de guidage dans l'environnement, le réticule de visée peut être affiché sur la cible. Ce réticule de visée peut ainsi être affiché au cours des deuxième, cinquième et huitième étapes d'affichage du procédé d'aide à la visée selon l'invention.
  • En outre, le procédé d'aide à la visée selon l'invention peut comporter, après la huitième étape, des étapes supplémentaires permettant de quantifier la précision de la visée de la cible. En effet, l'image affichée lors de la deuxième, cinquième et huitième étape comportant notamment la cible et le point de contact du faisceau de guidage dans l'environnement, il est possible en analysant chaque image successivement affichée de déterminer un premier nombre de points de contact du faisceau de guidage touchant la cible et un second nombre de points de contact du faisceau de guidage ne touchant pas la cible depuis que la cible a été sélectionnée lors de la troisième étape.
  • Le procédé d'aide à la visée selon l'invention peut ainsi comporter une neuvième étape de calcul du premier nombre des points de contact du faisceau de guidage touchant la cible, et du second nombre de points de contact du faisceau de guidage ne touchant pas la cible depuis que la cible a été sélectionnée lors de la troisième étape. De plus, le pourcentage des points de contact du faisceau de guidage touchant réellement la cible parmi la totalité des points de contact du faisceau de guidage dans l'environnement peut éventuellement être calculé au cours de cette neuvième étape.
  • Ensuite, au cours d'une dixième étape d'affichage, une information relative à la précision des points de contact du faisceau de guidage touchant la cible est affichée sur le moyen de visualisation.
  • Cette information de la précision des points de contact du faisceau de guidage touchant la cible peut être ce premier nombre et ce second nombre ou bien le pourcentage des points de contact du faisceau de guidage touchant réellement la cible parmi la totalité des points de contact du faisceau de guidage dans l'environnement.
  • En outre, au cours de la huitième étape, les points de contact du faisceau de guidage dans l'environnement peuvent être enregistrés pendant une deuxième durée prédéterminée, puis être affichés avec l'image sélective de la cible. L'opérateur peut ainsi visualiser les positions successives des points de contact sur cette deuxième durée prédéterminée et constater ainsi une éventuelle dérive dans la précision de sa visée ou bien une amélioration de cette visée.
  • Dès lors, au cours de cette huitième étape, l'image sélective de la cible et le point de contact courant du faisceau de guidage dans l'environnement peuvent être affichés simultanément avec au moins un des points de contact précédemment affichés.
  • On entend par « point de contact courant » du faisceau de guidage le point de contact du faisceau de guidage capté par la caméra lors de la septième étape de balayage sélectif précédent immédiatement cette huitième étape. On entend par « point de contact précédemment affiché » le point de contact affiché lors de la cinquième étape d'affichage d'une image complète de l'environnement et du point de contact du faisceau de guidage dans l'environnement ainsi que tout point de contact affiché lors d'éventuelles précédentes huitièmes étapes d'affichage. Les points de contact précédemment affichés sont par exemple constitués en partie par les points de contact enregistrés pendant la deuxième durée prédéterminée.
  • De même, la neuvième étape peut également se dérouler sur la deuxième durée prédéterminée. De la sorte, l'information de la précision affichée au cours de la dixième étape est déterminée sur cette deuxième durée déterminée.
  • De plus, le procédé d'aide à la visée selon l'invention peut comporter une autre étape supplémentaire se déroulant après la quatrième étape, c'est-à-dire après le pointage du faisceau de guidage sur la cible, et parallèlement aux étapes suivantes, à savoir de la cinquième étape à la huitième étape. Cette étape supplémentaire permet l'identification du faisceau de guidage visant la cible. En effet, les points de contact du faisceau de guidage dans l'environnement sont toujours visibles et enregistrables par la caméra. De fait, il est possible en analysant ces points de contact de déterminer d'une part si le faisceau de guidage est continu ou bien constitué par une succession d'impulsions et d'autre part des caractéristiques temporelles de ce faisceau de guidage. Ensuite, les caractéristiques temporelles du faisceau de guidage utilisé pour viser la cible sont connues et constituent le code du faisceau de guidage. Il est alors avantageusement possible de vérifier que ces caractéristiques temporelles du faisceau de guidage visible sur la cible correspondent bien au code du faisceau de guidage attendu et de déterminer ainsi que le faisceau de guidage visible sur la cible par la caméra est bien le faisceau de guidage attendu.
  • Le procédé d'aide à la visée selon l'invention peut ainsi comporter une onzième étape d'analyse et d'identification du faisceau de guidage, les points de contact du faisceau de guidage dans l'environnement étant analysés afin de déterminer les caractéristiques temporelles du faisceau de guidage et identifier ainsi le code faisceau de guidage visible sur la cible.
  • Pour un faisceau de guidage constitué par une succession d'impulsions, les caractéristiques temporelles du faisceau de guidage sont la fréquence et la durée de ces impulsions. Par contre, un faisceau de guidage continu ne comporte pas d'impulsions et aucune fréquence ne peut être déterminée. Les caractéristiques temporelles d'un tel faisceau continu sont de fait l'absence d'impulsions et de fréquence.
  • Il est à noter que les dispositifs existants permettant d'enregistrer des points de contact du faisceau de guidage dans l'environnement, tels qu'un dispositif « see spot », sont incapables d'analyser ces points de contact afin de déterminer les caractéristiques temporelles du faisceau de guidage.
  • Les points de contact du faisceau de guidage dans l'environnement peuvent être enregistrés depuis le pointage de la cible par le faisceau de guidage lors de la quatrième étape ou bien sur une troisième durée prédéterminée. Cette troisième durée prédéterminée peut être égale à la deuxième durée prédéterminée.
  • De tels enregistrements des points de contact du faisceau de guidage dans l'environnement peuvent notamment être utiles pour une analyse postérieure au tir du projectile, par exemple en cas d'erreur de cible, et notamment de tir fratricide.
  • Enfin, le procédé d'aide à la visée d'une cible selon l'invention peut comporter entre la quatrième étape de pointage de la cible et la cinquième étape d'affichage, une étape intermédiaire de balayage complet de l'environnement à l'aide de la caméra. Cette étape intermédiaire consiste donc en un nouveau balayage complet de l'environnement afin de mettre à jour l'affichage de la cible et de l'environnement avant l'affichage complet de cet environnement lors de la cinquième étape. Cette étape intermédiaire permet notamment de prendre en compte un éventuel déplacement des objets de l'environnement et en particulier de la cible.
  • Le procédé d'aide à la visée d'une cible selon l'invention permet avantageusement, lors des cinquième et huitième étapes, de visualiser le comportement spatial du faisceau de guidage dans l'environnement et de vérifier ainsi l'efficacité de la visée.
  • De plus, ce procédé permet, lors des neuvième et dixième étapes, de quantifier ce comportement spatial du faisceau de guidage en fournissant l'information de précision.
  • En outre, ce procédé permet, lors de la onzième étape, de quantifier le comportement temporel du faisceau de guidage et d'identifier le code du faisceau de guidage afin de s'assurer que ce faisceau de guidage est bien celui attendu.
  • La présente invention a également pour objet un procédé de guidage d'un projectile par un faisceau de guidage comportant :
    • une étape d'illumination d'une cible par un faisceau de guidage,
    • une étape d'accrochage du projectile sur la cible,
    • une étape de lancement d'un projectile, et
    • une étape de guidage du projectile vers la cible.
  • Le faisceau de guidage est de préférence un faisceau laser. Le procédé d'aide à la visée précédemment décrit est alors appliqué à l'étape d'illumination afin d'améliorer la précision de cette d'illumination de la cible et, en conséquence, d'améliorer la précision du lancement d'un projectile sur la cible.
  • L'étape d'accrochage du projectile sur la cible peut alors être réalisée en fonction de l'information de la précision des points de contact du faisceau de guidage touchant la cible et/ou des caractéristiques temporelles du faisceau de guidage impactant la cible. La réalisation de cette étape d'accrochage peut être effectuée de façon manuelle par l'opérateur.
  • Cette réalisation peut également être faite de façon automatique si l'information de la précision des points de contact du faisceau de guidage touchant la cible est supérieure ou égale à un seuil prédéterminé et/ou si les caractéristiques temporelles du faisceau de guidage impactant la cible correspondent au code du faisceau de guidage attendu.
  • En outre, l'étape de lancement du projectile peut être annulée en fonction de cette information de la précision des points de contact du faisceau de guidage touchant la cible. Cette annulation peut être effectuée de façon manuelle par l'opérateur. Cette annulation peut également être effectuée si l'opérateur constate sur l'affichage de l'image sélective au cours de la huitième étape un événement imprévu, par exemple un véhicule s'approchant de la cible, ce véhicule ne devant pas être impacté par le projectile.
  • Cette annulation peut également être faite de façon automatique si l'information de la précision des points de contact du faisceau de guidage touchant la cible est inférieure au seuil prédéterminé et/ou si les caractéristiques temporelles du faisceau de guidage impactant la cible ne correspondent pas au code du faisceau de guidage attendu.
  • Ainsi, si la précision des points de contact vis-à-vis de la cible sélectionnée est suffisante, l'accrochage et/ou le tir du projectile est réalisé. Dans le cas contraire, la probabilité que le projectile atteigne la cible est trop faible et l'accrochage et/ou le tir du projectile n'est pas réalisé.
  • Par ailleurs, l'étape de lancement du projectile peut être effectuée avant l'étape d'accrochage du projectile sur la cible.
  • La présente invention a aussi pour objet un dispositif d'aide à la visée d'une cible comportant une caméra, un moyen de visualisation, un calculateur et un moyen de sélection.
  • La caméra permet d'enregistrer spécifiquement les informations sur des objets particuliers de l'environnement enregistré, la cible étant un objet particulier de l'environnement. Les objets particuliers sont isolés par cette caméra selon un changement de leur radiométrie respective par exemple suite à un mouvement des objets particuliers.
  • Par ailleurs, le calculateur de ce dispositif d'aide à la visée d'une cible peut être configuré afin notamment d'analyser chaque image successivement affichée sur le moyen de visualisation et de déterminer un premier nombre de points de contact du faisceau de guidage touchant la cible et un second nombre de points de contact du faisceau de guidage ne touchant pas la cible. Ce calculateur permet également de déterminer le pourcentage de ces points de contact du faisceau de guidage touchant réellement la cible parmi la totalité des points de contact du faisceau de guidage dans l'environnement.
  • Le calculateur peut également être configuré afin d'analyser l'environnement vu par la caméra et en particulier les points de contact du faisceau de guidage dans cet environnement afin de déterminer des caractéristiques temporelles du faisceau de guidage et, par suite, d'identifier le code du faisceau de guidage.
  • Le dispositif d'aide à la visée d'une cible peut ainsi mettre en oeuvre le procédé d'aide à la visée d'une cible précédemment décrit afin d'améliorer la précision de la visée de la cible.
  • Enfin, la présente invention a aussi pour objet un système de guidage d'un projectile par un faisceau de guidage comportant un générateur d'un faisceau de guidage, un dispositif d'aide à la visée tel que précédemment décrit et un projectile muni d'un dispositif de réception.
  • Le dispositif d'aide à la visée est configuré afin d'améliorer la précision de l'illumination de la cible de sorte que la précision du tir de projectile sur la cible soit améliorée. Le générateur d'un faisceau de guidage est de préférence un générateur d'un faisceau laser.
  • Ce système de guidage d'un projectile par un faisceau de guidage peut ainsi mettre en oeuvre le procédé de guidage d'un projectile par un faisceau de guidage précédemment décrit.
  • L'invention et ses avantages apparaîtront avec plus de détails dans le cadre de la description qui suit avec des exemples de réalisation donnés à titre illustratif en référence aux figures annexées qui représentent :
    • la figure 1, un système de guidage d'un projectile par un faisceau de guidage selon l'invention,
    • la figure 2, un schéma synoptique d'un procédé d'aide à la visée d'une cible,
    • les figures 3 et 4, une image complète de l'environnement affichée sur le moyen de visualisation, et
    • les figures 5 à 7, une image sélective de l'environnement affichée sur le moyen de visualisation.
  • Les éléments présents dans plusieurs figures distinctes sont affectés d'une seule et même référence.
  • La figure 1 représente un système de guidage 20 d'un projectile 10 par un faisceau de guidage comportant un générateur 6 d'un faisceau de guidage 9, un projectile 10 muni d'un dispositif de réception 11 et un dispositif 1 d'aide à la visée. Ce système de guidage 20 d'un projectile 10 par un faisceau de guidage assure le guidage du projectile 10, un missile par exemple, vers une cible 5. Le générateur 6 d'un faisceau de guidage 9 peut être utilisé par un opérateur pour viser une cible 5 avec le faisceau de guidage 9, l'opérateur étant situé sur le terrain et fixe. Le générateur 6 d'un faisceau de guidage 9 comporte alors généralement une lunette de visée 61 permettant de réaliser la visée de la cible 5. Le générateur 6 d'un faisceau de guidage 9 peut aussi être embarqué dans un véhicule tel un aéronef et utilisé alors aussi bien lorsque le véhicule se déplace ou bien est à l'arrêt. Ce faisceau de guidage 9 est par exemple un faisceau laser constitué d'impulsions successives.
  • La cible 5 est tout d'abord illuminée par le faisceau de guidage 9 émis par le générateur 6 d'un faisceau de guidage 9 et des reflets de ce faisceau de guidage 9 sont alors dispersés dans une multitude de directions par réflexion sur la cible 5. Le faisceau de guidage 9 peut être visible ou non visible par l'oeil humain selon la ou les longueurs d'ondes composants ce faisceau de guidage 9.
  • Parallèlement ou bien suite à cette illumination de la cible 5, le projectile 10 est lancé en direction de la cible 5. Le projectile 10 comporte un dispositif de réception 11 qui reçoit, lorsqu'il se rapproche de la cible 5, une partie du faisceau de guidage 9 réfléchi par la cible 5 et détermine alors la source de cette partie du faisceau de guidage 9 réfléchi. Le projectile 10 est enfin guidé et dirigé vers cette source, à savoir la cible 5, tant que le faisceau de guidage 9 pointe sur la cible 5 et l'illumine.
  • Le dispositif 1 d'aide à la visée d'une cible 5 comporte une caméra 2, un moyen de visualisation 3, un calculateur 4 et un moyen de sélection 7. Le moyen de visualisation 3 est un écran. Le dispositif 1 d'aide à la visée d'une cible 5 est configuré afin d'améliorer la précision de la visée de la cible 5 en mettant en oeuvre un procédé d'aide à la visée d'une cible dont un schéma synoptique est représenté sur la figure 2 et qui comporte les étapes suivantes.
  • Au cours d'une première étape de balayage 101, un balayage complet d'un environnement est exécuté à l'aide de la caméra 2.
  • Au cours d'une deuxième étape d'affichage 102, une image complète de cet environnement correspondant à ce balayage complet de l'environnement est affichée sur le moyen de visualisation 3. Cette image complète est représentée sur la figure 3.
  • Au cours d'une troisième étape d'identification et de sélection d'une cible 103, une cible 5 est identifiée puis sélectionnée sur cette image complète de l'environnement. Cette identification est faite par un opérateur qui est en charge de la visée de la cible avec le faisceau de guidage 9.
  • Ensuite, l'opérateur sélectionne la cible 5 sur l'image complète de l'environnement. Cette sélection est faite par l'intermédiaire d'un moyen de sélection 7 tel un bouton poussoir pendant que l'opérateur vise la cible 5. Cette sélection est faite par l'opérateur lorsqu'il vise la cible 5 par l'intermédiaire du générateur 6 d'un faisceau de guidage, mais sans émettre de faisceau de guidage. L'opérateur utilise alors par exemple la lunette de visée 61 de ce générateur 6 d'un faisceau de guidage pour viser la cible 5, puis il actionne le moyen de sélection 7 pour sélectionner la cible 5 visée.
  • Cette sélection de la cible 5 peut également être faite de façon automatique lorsque l'opérateur vise une cible 5 immobile ou pendant une première durée prédéterminée.
  • Au cours d'une quatrième étape 104, l'opérateur pointe le faisceau de guidage 9 sur la cible 5 afin de guider le projectile 10 jusqu'à cette cible 5. L'opérateur utilise généralement le réticule de visée présent dans la lunette de visée 61 du générateur 6 d'un faisceau de guidage pour viser la cible 5.
  • La première étape 101 et la deuxième étape 102 se répètent avant la réalisation de cette quatrième étape 104 afin de mettre à jour l'affichage complet de l'environnement.
  • Au cours d'une cinquième étape d'affichage 105, l'image complète de cet environnement est affichée sur le moyen de visualisation 3 avec le point de contact 91 du faisceau de guidage 9 dans l'environnement. En effet, le faisceau de guidage 9 et son reflet sur la cible 5 sont avantageusement toujours visibles par la caméra 2. En outre, un réticule de visée 8 peut également être affiché sur le moyen de visualisation 3 indiquant ainsi à l'opérateur le point de l'environnement qui est visé. Cette image complète comprenant le point de contact 91 du faisceau de guidage 9 et le réticule de visée 8 est représentée sur la figure 4.
  • Cette cinquième étape d'affichage 105 permet ainsi à l'opérateur de visualiser et de vérifier d'une part que le réticule de visée 8 pointe bien la cible 5 et d'autre part que le point de contact 91 du faisceau de guidage 9 pointe également la cible 5. En effet, l'opérateur doit pointer en permanence le faisceau de guidage 9 sur la cible 5 jusqu'à ce que le projectile 10 impacte la cible 5.
  • En outre, une étape intermédiaire 115 de balayage complet de l'environnement peut être effectuée entre la quatrième étape 104 de pointage de la cible 5 et la cinquième étape 105 d'affichage. De la sorte, en réalisant un nouveau balayage complet de l'environnement à l'aide de la caméra 2, une nouvelle image complète de l'environnement avec le point de contact 91 du faisceau de guidage 9 peut être affichée lors de la cinquième étape 105 afin de mettre à jour cet affichage de la cible 5 et de l'environnement.
  • Ensuite, au cours d'une sixième étape de pointage 106, l'opérateur pointe de nouveau la cible 5 avec le faisceau de guidage 9. Cette sixième étape de pointage 106 permet avantageusement à l'opérateur de corriger la visée si le point de contact 91 ne se situe pas sur la cible 5 sur l'image complète affichée lors de la cinquième étape d'affichage 105.
  • Au cours d'une septième étape de balayage 107, un balayage sélectif de la cible 5 et du point de contact 91 du faisceau de guidage 9 dans l'environnement est effectué par la caméra 2. La caméra 2 est une caméra permettant en effet d'enregistrer spécifiquement les informations sur des objets particuliers de l'environnement selon un changement de leur radiométrie suite par exemple à leur mouvement. Par exemple, la caméra 2 permet d'enregistrer spécifiquement et uniquement les informations sur des objets particuliers de l'environnement qui sont en mouvement, ainsi que les points de contact 91 du faisceau de guidage 9.
  • Enfin, au cours d'une huitième étape d'affichage 108, cette image sélective de la cible 5 et d'au moins un point de contact 91 du faisceau de guidage 9 dans l'environnement est affichée. L'opérateur peut là encore visualiser le point de contact 91 du faisceau de guidage 9 sur l'image sélective de l'environnement et vérifier que ce point de contact 91 se situe toujours bien sur la cible 5. Avantageusement, cette image sélective est simplifiée et affiche principalement la cible 5 qui est par exemple en mouvement et le point de contact 91 du faisceau de guidage 9 sur l'environnement. Cette image sélective permet avantageusement une analyse plus rapide de la part de l'opérateur qui voit immédiatement la position du point de contact 91 vis-à-vis de la cible 5. Comme lors de la cinquième étape d'affichage 105, le réticule de visée 8 peut être affiché sur le moyen de visualisation 3 afin d'indiquer à l'opérateur le point de l'environnement qui est visé. Cette image sélective comprenant le point de contact 91 du faisceau de guidage 9 et le réticule de visée 8 est représentée sur la figure 5.
  • Les sixième, septième et huitième étapes se répètent ensuite jusqu'à l'impact du projectile 10, ces étapes étant réalisées de façon continue.
  • Le dispositif 1 d'aide à la visée permet ainsi avantageusement de fournir à l'opérateur en temps réel et pendant son opération de visée un retour sur les positions de la cible 5 et du point de contact 91 du faisceau de guidage 9 sur l'environnement grâce aux images affichées sur le moyen de visualisation 3 après avoir identifié et sélectionné la cible 5. L'opérateur peut alors corriger immédiatement un écart entre la position du point de contact 91 vis-à-vis de la cible 5 et ainsi améliorer la précision de la visée.
  • En outre, le dispositif 1 d'aide à la visée permet également de quantifier la précision de la visée. En effet, le calculateur 4 est configuré afin d'analyser chaque image successivement affichée sur le moyen de visualisation 3 et de déterminer, au cours d'une neuvième étape 109, un premier nombre de points de contact 91 du faisceau de guidage 9 touchant la cible 5 et un second nombre de points de contact 91 du faisceau de guidage ne touchant pas la cible 5. Ce calculateur 4 permet également de calculer le pourcentage de ces points de contact 91 touchant réellement la cible 5 parmi la totalité des points de contact 91 du faisceau de guidage 9 dans l'environnement. Ensuite, au cours d'une dixième étape 110, une information 92 de la précision des points de contact 91 touchant la cible 5 formée par ce pourcentage des points de contact 91 touchant réellement la cible choisie peut être affichée sur le moyen de visualisation 3.
  • La neuvième étape 109 et la dixième étape 110 se déroulent de préférence de façon simultanée aux sixième, septième et huitième étapes comme représenté sur le schéma synoptique de la figure 2, et se répètent jusqu'à l'impact du projectile 10.
  • En outre, au cours de la huitième étape 108, les points de contact 91 du faisceau de guidage 9 dans l'environnement peuvent être enregistrés pendant une deuxième durée prédéterminée, puis être affichés avec l'image sélective de la cible 5.
  • Dès lors, au cours de la huitième étape d'affichage 108, l'image sélective de la cible 5 et le point de contact 91 courant du faisceau de guidage 9 capté lors de la septième étape de balayage 107 peuvent être affichés simultanément avec au moins un des points de contact 91 précédemment affichés lors de la cinquième étape d'affichage 105 et lors de précédentes huitièmes étapes d'affichage 108 éventuelles.
  • De même, la neuvième étape 109 peut également se dérouler sur la deuxième durée prédéterminée. De la sorte, l'information 92 de la précision affichée au cours de la dixième étape 110 est déterminée sur cette deuxième durée déterminée.
  • Cette information 92 est affichée sur le moyen de visualisation 3 avec les points de contact 91 enregistrés pendant la deuxième durée prédéterminée comme représenté sur les figures 6 et 7. L'opérateur peut ainsi visualiser les positions des points de contact 91 sur cette deuxième durée prédéterminée et visualiser ainsi la précision des points de contact 91 vis-à-vis de la cible 5.
  • Cette information 92 peut également être utilisée par le système de guidage 20 d'un projectile 10 afin de confirmer ou bien d'annuler l'accrochage du projectile 10 sur la cible 5 et le lancement du projectile 10 en direction de la cible 5. En effet, si la précision de la visée est jugée trop faible par l'opérateur, il peut annuler le lancement du projectile 10 ou bien le stopper momentanément jusqu'à avoir une précision de visée suffisante. Cette annulation peut également être faite de façon automatique si l'information 92 de la précision des points de contact 91 du faisceau de guidage 9 touchant la cible 5 est inférieure à un seuil prédéterminé.
  • Enfin, le dispositif 1 d'aide à la visée permet d'identifier le code du faisceau de guidage 9 visant la cible 5. En effet, le calculateur 4 est configuré afin d'analyser l'environnement vu par la caméra 2 et en particulier les points de contact 91 du faisceau de guidage 9 dans l'environnement. Le calculateur 4 peut ainsi déterminer, au cours d'une onzième étape 111, des caractéristiques temporelles du faisceau de guidage 9 et identifier le code de ce faisceau de guidage 9. Cette onzième étape 111 se déroule après la quatrième étape 104 et parallèlement aux étapes suivantes.
  • Naturellement, la présente invention est sujette à de nombreuses variations quant à sa mise en oeuvre. Bien que plusieurs modes de réalisation aient été décrits, on comprend bien qu'il n'est pas concevable d'identifier de manière exhaustive tous les modes possibles. Il est bien sûr envisageable de remplacer un moyen décrit par un moyen équivalent sans sortir du cadre de la présente invention.

Claims (18)

  1. Procédé d'aide à la visée d'une cible (5),
    caractérisé en ce que ledit procédé comporte les étapes suivantes,
    - une première étape (101) de balayage complet d'un environnement à l'aide d'une caméra (2),
    - une deuxième étape (102) d'affichage d'une image complète dudit environnement,
    - une troisième étape (103) d'identification et de sélection d'une cible (5) sur ladite image complète dudit environnement,
    - une quatrième étape (104) de pointage de ladite cible (5) par un opérateur par l'intermédiaire d'un faisceau de guidage (9),
    - une cinquième étape (105) d'affichage d'une image complète dudit environnement et du point de contact (91) dudit faisceau de guidage (9) dans ledit environnement,
    - une sixième étape (106) de pointage par ledit opérateur par l'intermédiaire dudit faisceau de guidage (9) de ladite cible (5),
    - une septième étape (107) de balayage sélectif de ladite cible (5) et dudit point de contact (91) dudit faisceau de guidage (9) dans ledit environnement à l'aide de ladite caméra (2), et
    - une huitième étape (108) d'affichage d'une image sélective de ladite cible (5), dudit point de contact (91) courant dudit faisceau de guidage (9) dans ledit environnement et d'au moins un desdits points de contact (91) précédemment affichés.
  2. Procédé d'aide à la visée d'une cible (5) selon la revendication 1,
    caractérisé en qu'au cours de ladite huitième étape (108), lesdits points de contact (91) dudit faisceau de guidage (9) dans ledit environnement sont enregistrés sur une durée prédéterminée, puis affichés avec ladite image sélective de ladite cible (5).
  3. Procédé d'aide à la visée d'une cible (5) selon l'une quelconque des revendications 1 à 2,
    caractérisé en ce que ledit procédé comporte, après ladite huitième étape (108) d'affichage,
    - une neuvième étape (109) de calcul d'un premier nombre desdits points de contact (91) dudit faisceau de guidage (9) touchant ladite cible (5) et d'un second nombre desdits points de contact (91) dudit faisceau de guidage (9) ne touchant pas ladite cible (5), et
    - une dixième étape (110) d'affichage d'une information de la précision desdits points de contact (91) dudit faisceau de guidage (9) touchant ladite cible (5).
  4. Procédé d'aide à la visée d'une cible (5) selon la revendication 3,
    caractérisé en ce que ladite information de la précision desdits points de contact (91) dudit faisceau de guidage (9) touchant ladite cible (5) est formée par ledit premier nombre et ledit second nombre ou bien un pourcentage desdits points de contact (91) dudit faisceau de guidage (9) touchant réellement ladite cible (5) parmi la totalité desdits points de contact (91) dudit faisceau de guidage (9) dans ledit environnement.
  5. Procédé d'aide à la visée d'une cible (5) selon l'une quelconque des revendications 3 à 4,
    caractérisé en que ladite neuvième étape (109) se déroule sur une durée prédéterminée.
  6. Procédé d'aide à la visée d'une cible (5) selon l'une quelconque des revendications 1 à 5,
    caractérisé en qu'un faisceau de guidage (9) étant défini par un code constitué par des caractéristiques temporelles, ledit procédé comporte, après ladite quatrième étape (104) de pointage de ladite cible (5) et parallèlement auxdites étapes suivantes, une onzième étape (111) d'analyse et d'identification dudit faisceau de guidage (9), lesdits points de contact (91) dudit faisceau de guidage (9) dans ledit environnement étant analysés afin de déterminer lesdites caractéristiques temporelles dudit faisceau de guidage (9) et d'identifier ainsi ledit code dudit faisceau de guidage (9).
  7. Procédé d'aide à la visée d'une cible (5) selon la revendication 6,
    caractérisé en que, lorsque ledit faisceau de guidage (9) est constitué par une succession d'impulsions, lesdites caractéristiques temporelles dudit faisceau de guidage (9) sont une fréquence et une durée desdites impulsions.
  8. Procédé d'aide à la visée d'une cible (5) selon l'une quelconque des revendications 1 à 7,
    caractérisé en ce que ledit procédé comporte entre ladite quatrième étape (104) de pointage de ladite cible (5) et ladite cinquième étape (105) d'affichage, une étape intermédiaire (115) de balayage complet dudit environnement à l'aide de ladite caméra (2) afin de mettre à jour l'affichage de ladite cible (5) et dudit environnement.
  9. Procédé d'aide à la visée d'une cible (5) selon l'une quelconque des revendications 1 à 8,
    caractérisé en ce qu'un réticule de visée (8) est affiché sur ladite cible (5) au cours desdites deuxième, cinquième et huitième étapes (102,105,108) d'affichage afin de faciliter l'identification de ladite cible (5).
  10. Procédé d'aide à la visée d'une cible (5) selon l'une quelconque des revendications 1 à 9,
    caractérisé en ce qu'au cours de ladite septième étape de balayage (107), ledit balayage sélectif de ladite cible (5) et dudit point de contact (91) dudit faisceau de guidage (9) est effectué en enregistrant chaque objet dudit environnement pour lequel un changement de la radiométrie est détecté ainsi que ledit point de contact (91).
  11. Procédé d'aide à la visée d'une cible (5) selon l'une quelconque des revendications 1 à 9,
    caractérisé en qu'au cours de ladite septième étape de balayage (107), ledit balayage sélectif de ladite cible (5) et dudit point de contact (91) dudit faisceau de guidage (9) est effectué en enregistrant des informations sur des objets particuliers de l'environnement qui sont en mouvement, ainsi que ledit point de contact (91).
  12. Procédé de guidage d'un projectile (10) par un faisceau de guidage comportant,
    - une étape d'illumination d'une cible (5) par un faisceau de guidage (9),
    - une étape d'accrochage dudit projectile (10) sur ladite cible (5),
    - une étape de lancement dudit projectile (10), et
    - une étape de guidage dudit projectile (10) vers ladite cible (5).
    caractérisé en ce que ledit procédé d'aide à la visée selon l'une quelconque des revendications 1 à 11 est appliqué durant ladite étape d'illumination afin d'améliorer la précision de ladite illumination de ladite cible (5).
  13. Procédé de guidage d'un projectile (10) par un faisceau de guidage selon la revendication 12,
    caractérisé en ce que ladite étape d'accrochage dudit projectile (10) sur ladite cible (5) et/ou ladite étape de lancement dudit projectile (10) sont annulées en fonction d'une information de la précision desdits points de contact (91) dudit faisceau de guidage (9) touchant ladite cible (5) et/ou de caractéristiques temporelles dudit faisceau de guidage (9).
  14. Dispositif (1) d'aide à la visée d'une cible (5) comportant une caméra (2), un moyen de visualisation (3), un calculateur (4) et un moyen de sélection (7),
    caractérisé en ce que ledit dispositif (1) d'aide à la visée d'une cible (5) met en oeuvre ledit procédé selon l'une quelconque des revendications 1 à 11 et ladite caméra (2) est une caméra permettant d'enregistrer spécifiquement les informations sur des objets particuliers de l'environnement enregistré, ladite cible (5) étant un objet particulier dudit environnement.
  15. Dispositif (1) d'aide à la visée d'une cible (5) selon la revendication 14,
    caractérisé en ce que ledit calculateur (4) est configuré afin d'analyser chaque image sélective successivement affichée sur ledit moyen de visualisation (3) et de déterminer un premier nombre de points de contact (91) dudit faisceau de guidage (9) touchant ladite cible (5) et un second nombre de points de contact (91) dudit faisceau de guidage (9) ne touchant pas ladite cible (5), puis de déterminer une information de la précision desdits points de contact (91) dudit faisceau de guidage (9) touchant ladite cible (5).
  16. Dispositif (1) d'aide à la visée d'une cible (5) selon l'une quelconque des revendications 14 à 15,
    caractérisé en ce que ledit calculateur (4) est configuré afin d'analyser ledit environnement vu par ladite caméra (2) et en particulier lesdits points de contact (91) dudit faisceau de guidage (9) dans ledit environnement afin de déterminer des caractéristiques temporelles dudit faisceau de guidage (9) et d'identifier grâce auxdites caractéristiques temporelles ledit faisceau de guidage (9).
  17. Système (20) de guidage d'un projectile (10) par un faisceau de guidage comportant un générateur (6) d'un faisceau de guidage et un projectile (10) muni d'un dispositif de réception (11),
    caractérisé en ce que ledit système (20) de guidage d'un projectile (10) comporte un dispositif (1) d'aide à la visée selon l'une quelconque des revendications 14 à 16.
  18. Système (20) de guidage d'un projectile (10) par un faisceau de guidage selon la revendication 17,
    caractérisé en ce que ledit système (20) de guidage d'un projectile (10) par un faisceau de guidage met en oeuvre ledit procédé de guidage d'un projectile (10) par un faisceau de guidage selon l'une quelconque des revendications 12 à 13.
EP17167889.9A 2016-04-29 2017-04-25 Procédé et dispositif d'aide à la visée pour le guidage laser d'un projectile Active EP3239644B1 (fr)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PL17167889T PL3239644T3 (pl) 2016-04-29 2017-04-25 Sposób i urządzenie wspomagające celowanie do laserowego prowadzenia pocisku

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR1600721A FR3050814B1 (fr) 2016-04-29 2016-04-29 Procede et dispositif d'aide a la visee pour le guidage laser d'un projectile

Publications (2)

Publication Number Publication Date
EP3239644A1 true EP3239644A1 (fr) 2017-11-01
EP3239644B1 EP3239644B1 (fr) 2020-02-19

Family

ID=57396488

Family Applications (1)

Application Number Title Priority Date Filing Date
EP17167889.9A Active EP3239644B1 (fr) 2016-04-29 2017-04-25 Procédé et dispositif d'aide à la visée pour le guidage laser d'un projectile

Country Status (4)

Country Link
US (1) US10281239B2 (fr)
EP (1) EP3239644B1 (fr)
FR (1) FR3050814B1 (fr)
PL (1) PL3239644T3 (fr)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017011407A1 (de) * 2017-12-11 2019-06-13 Mbda Deutschland Gmbh System und verfahren zur personenkoordinierten zielfindung eines lenkflugkörpers
DE102022122842A1 (de) * 2022-09-08 2024-03-14 Rheinmetall Electronics Gmbh Vorrichtung zum Bestimmen einer Winkelabweichung, Fahrzeug und Verfahren zur Bestimmung einer Winkelabweichung

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4143835A (en) 1972-09-12 1979-03-13 The United States Of America As Represented By The Secretary Of The Army Missile system using laser illuminator
FR2719659A1 (fr) 1994-05-07 1995-11-10 Rheinmetall Ind Gmbh Procédé et dispositif de correction de la trajectoire de projectiles.
US6023322A (en) 1995-05-04 2000-02-08 Bushnell Corporation Laser range finder with target quality display and scan mode
US6069656A (en) 1997-12-17 2000-05-30 Raytheon Company Method and apparatus for stabilization of images by closed loop control
US20090078817A1 (en) 2005-11-23 2009-03-26 Raytheon Company Absolute time encoded semi-active laser designation
US20130087684A1 (en) 2009-12-14 2013-04-11 Avishay Guetta Laser daylight designation and pointing
EP2642238A1 (fr) 2012-03-21 2013-09-25 Rosemount Aerospace Inc. Système d'arme guidée par point de vue et procédé de désignation de cible
WO2016009440A1 (fr) 2014-07-17 2016-01-21 Elbit Systems Electro-Optics Elop Ltd. Système et procédé d'analyse de critères de qualité d'un point de rayonnement

Family Cites Families (46)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US2557401A (en) * 1945-01-10 1951-06-19 Arma Corp Remote control apparatus
US2969018A (en) * 1957-05-01 1961-01-24 Itt Quadrant homing system
US3239674A (en) * 1960-02-02 1966-03-08 Thompson Ramo Wooldridge Inc Radiant energy receiving and detection systems
US3306206A (en) * 1962-12-04 1967-02-28 Rodney E Grantham Radio frequency free communication system
US3366346A (en) * 1965-07-19 1968-01-30 Army Usa Remote missile command system
US3617016A (en) * 1968-05-27 1971-11-02 Emil J Bolsey Image motion and change transducers and systems controlled thereby
US3859460A (en) * 1972-11-27 1975-01-07 Baird Atomic Inc Passive image stabilization system
DE2947492C2 (de) * 1979-11-24 1983-04-28 Licentia Patent-Verwaltungs-Gmbh, 6000 Frankfurt Lenkverfahren für Flugkörper
DE3230267A1 (de) * 1982-08-14 1984-02-16 Licentia Patent-Verwaltungs-Gmbh, 6000 Frankfurt Halbaktives leitsystem fuer einen zielsuchenden, lenkbaren flugkoerper
US4615590A (en) * 1984-07-17 1986-10-07 Schwem Instruments Optically stabilized camera lens system
US6491253B1 (en) * 1985-04-15 2002-12-10 The United States Of America As Represented By The Secretary Of The Army Missile system and method for performing automatic fire control
US6487953B1 (en) * 1985-04-15 2002-12-03 The United States Of America As Represented By The Secretary Of The Army Fire control system for a short range, fiber-optic guided missile
US4678142A (en) * 1985-07-25 1987-07-07 The United States Of America As Represented By The Secretary Of The Air Force Precision guided antiaircraft munition
US4913547A (en) * 1988-01-29 1990-04-03 Moran Steven E Optically phased-locked speckle pattern interferometer
US4911541A (en) * 1988-04-06 1990-03-27 Schwem Technology Incorporated Inertial pendulum optical stabilizer
US5122908A (en) * 1989-04-21 1992-06-16 Tinsley Laboratories, Inc. Non-linear controller functions for inertial optical stabilizers
US5375008A (en) * 1991-07-17 1994-12-20 Electronic Warfare Associates, Inc. Systems for distinguishing between friendly ground targets and those of a foe
US5194908A (en) * 1991-11-29 1993-03-16 Computing Devices Canada Ltd. Detecting target movement
US5841059A (en) * 1996-04-05 1998-11-24 Luchaire Defense S.A. Projectile with an explosive load triggered by a target-sighting device
US5664741A (en) * 1996-04-19 1997-09-09 The United States Of America As Represented By The Secretary Of The Army Nutated beamrider guidance using laser designators
FR2753785B1 (fr) * 1996-09-25 1998-11-13 Autodirecteur d'un corps volant
FR2753796B1 (fr) * 1996-09-25 1998-11-13 Detecteur photosensible et mosaique de detecteurs photosensibles pour la detection d'eclats lumineux et applications
US6671538B1 (en) * 1999-11-26 2003-12-30 Koninklijke Philips Electronics, N.V. Interface system for use with imaging devices to facilitate visualization of image-guided interventional procedure planning
FR2821929B1 (fr) * 2001-03-06 2003-08-29 Sagem Systeme de visee a pointage laser a telemetre designateur
DE10147837A1 (de) * 2001-09-27 2003-04-24 Rheinmetall Landsysteme Gmbh Wurfsystem für einen Gefechtskopf mit einer Richtvorrichtung zur Neutralisierung von Minen
US6891984B2 (en) * 2002-07-25 2005-05-10 Lightlab Imaging, Llc Scanning miniature optical probes with optical distortion correction and rotational control
EP1553758A1 (fr) * 2003-12-03 2005-07-13 Stueckler Gerd Appareil optique avec dispositif stabilisateur d'image avec affichage de la correction effectuée
US6851645B1 (en) * 2003-12-05 2005-02-08 Lockheed Martin Corporation Non-coherent fresnel direction finding method and apparatus
EP1607710A1 (fr) * 2004-06-18 2005-12-21 Saab Ab Dispositif de détermination de la distance d'une cible pour une arme guidée par laser
FR2885213B1 (fr) * 2005-05-02 2010-11-05 Giat Ind Sa Procede de commande d'une munition ou sous-munition, systeme d'attaque, munition et designateur mettant en oeuvre un tel procede
JP4832013B2 (ja) * 2005-07-05 2011-12-07 富士フイルム株式会社 像振れ補正装置
US7575191B2 (en) * 2006-01-27 2009-08-18 Lockheed Martin Corporation Binary optics SAL seeker (BOSS)
FR2921149B1 (fr) * 2007-09-14 2009-11-06 Thales Sa Procede de telemetrie sur image stabilisee
FR2922008B1 (fr) * 2007-10-03 2015-12-11 Nexter Munitions Dispositif de telecommande d'un designateur de cible a partir d'un module d'attaque, module d'attaque et designateur mettant en oeuvre un tel dispositif
US7978313B2 (en) * 2008-05-30 2011-07-12 The Boeing Company Systems and methods for targeting directed energy devices
SG170644A1 (en) * 2009-11-02 2011-05-30 Dso Nat Lab A device for illuminating a target
US8344302B1 (en) * 2010-06-07 2013-01-01 Raytheon Company Optically-coupled communication interface for a laser-guided projectile
FR2965935B1 (fr) * 2010-10-06 2012-11-16 Sagem Defense Securite Dispositif optronique d'observation et/ou de visee d'une scene comportant un telemetre, et procede de telemetrie associe
DE102010062161A1 (de) * 2010-11-30 2012-05-31 Hilti Aktiengesellschaft Distanzmessgerät und Vermessungssystem
US8970708B2 (en) * 2011-05-23 2015-03-03 The Johns Hopkins University Automatic device alignment mechanism
US9360680B1 (en) * 2012-08-10 2016-06-07 Ilias Syrgabaev Electromagnetic beam or image stabilization system
JP6348224B2 (ja) * 2015-03-20 2018-06-27 富士フイルム株式会社 測距装置、測距用制御方法、及び測距用制御プログラム
WO2016151927A1 (fr) * 2015-03-20 2016-09-29 富士フイルム株式会社 Dispositif de mesure de distance, procédé de commande de mesure de distance, et programme de commande de mesure de distance
WO2016151930A1 (fr) * 2015-03-20 2016-09-29 富士フイルム株式会社 Dispositif de mesure de distance, procédé de commande de mesure de distance, et programme de commande de mesure de distance
JP6348223B2 (ja) * 2015-03-20 2018-06-27 富士フイルム株式会社 測距装置、測距用制御方法、及び測距用制御プログラム
WO2016151926A1 (fr) * 2015-03-20 2016-09-29 富士フイルム株式会社 Dispositif, procédé et programme de mesure de distance

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4143835A (en) 1972-09-12 1979-03-13 The United States Of America As Represented By The Secretary Of The Army Missile system using laser illuminator
FR2719659A1 (fr) 1994-05-07 1995-11-10 Rheinmetall Ind Gmbh Procédé et dispositif de correction de la trajectoire de projectiles.
US6023322A (en) 1995-05-04 2000-02-08 Bushnell Corporation Laser range finder with target quality display and scan mode
US6069656A (en) 1997-12-17 2000-05-30 Raytheon Company Method and apparatus for stabilization of images by closed loop control
US20090078817A1 (en) 2005-11-23 2009-03-26 Raytheon Company Absolute time encoded semi-active laser designation
US20130087684A1 (en) 2009-12-14 2013-04-11 Avishay Guetta Laser daylight designation and pointing
EP2642238A1 (fr) 2012-03-21 2013-09-25 Rosemount Aerospace Inc. Système d'arme guidée par point de vue et procédé de désignation de cible
WO2016009440A1 (fr) 2014-07-17 2016-01-21 Elbit Systems Electro-Optics Elop Ltd. Système et procédé d'analyse de critères de qualité d'un point de rayonnement

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JASON F RALPH ET AL: "Semi-active guidance using event driven tracking", INFORMATION FUSION (FUSION), 2011 PROCEEDINGS OF THE 14TH INTERNATIONAL CONFERENCE ON, IEEE, 5 July 2011 (2011-07-05), pages 1 - 7, XP032008926, ISBN: 978-1-4577-0267-9 *

Also Published As

Publication number Publication date
EP3239644B1 (fr) 2020-02-19
FR3050814A1 (fr) 2017-11-03
US20170314891A1 (en) 2017-11-02
FR3050814B1 (fr) 2019-06-07
US10281239B2 (en) 2019-05-07
PL3239644T3 (pl) 2020-07-13

Similar Documents

Publication Publication Date Title
US9897688B2 (en) Laser detection and image fusion system and method
FR2655503A1 (fr) Systeme optoelectronique d'aide aux missions aeriennes d'attaque et de navigation.
US20180058814A1 (en) Compact laser and geolocating targeting system
EP0033679A1 (fr) Système de désignation d'objectif par laser
EP2839235B1 (fr) Procede de determination des corrections de tir d'artillerie
EP3239644B1 (fr) Procédé et dispositif d'aide à la visée pour le guidage laser d'un projectile
EP1925902A1 (fr) Système de visée à écartomètre intégré
US20140022388A1 (en) Air Surveillance System for Detecting Missiles Launched from Inside an Area to be Monitored and Air Surveillance Method
FR2514884A1 (fr) Procede et dispositif pour corriger globalement, d'un tir au suivant, le tir d'une arme a tir tendu
WO2015118075A1 (fr) Procede de detection et de classification d'evenements d'une scene
US8547531B2 (en) Imaging device
EP2625544B1 (fr) Dispositif optronique d'observation et/ou de visée d'une scène comportant un télémètre, et procédé de télémétrie associé
US10267900B2 (en) System and method for covert pointer/communications and laser range finder
WO2013108204A1 (fr) Dispositif de recherche de cible laser à détecteur optique et capteur d'images
EP2652430B1 (fr) Procédé et système de détection d'un train d'impulsions électromagnétiques, dispositif de guidage électromagnétique d'une munition vers une cible comprenant un tel système de détection
EP2593904A1 (fr) Procédé et dispositif d'imagerie bi-spectral multifonctions
IL266978B2 (en) Method and device for detecting an object by a broadband laser pulse
FR2765960A1 (fr) Methode et dispositif destines a eliminer des mines souterraines
FR3058252A1 (fr) Procede et dispositif d'aide a l'atterrissage d'un aeronef en phase de descente en vue d'un atterrissage sur une piste d'atterrissage.
EP2364455B1 (fr) Télémètre
Steindorfer et al. Daylight space debris laser ranging
FR2524137A1 (fr) Systeme de conduite de tir a lunette d'observation asservie par un dispositif de poursuite automatique
Goss et al. SWIR sensor" see-spot" modelling and analysis
EP2515066A1 (fr) Dispositif de guidage différentiel par imagerie active laser
FR3129493A1 (fr) Procédé et dispositif de visualisation d'impacts d'impulsions laser sur une cible

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE APPLICATION HAS BEEN PUBLISHED

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

AX Request for extension of the european patent

Extension state: BA ME

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: REQUEST FOR EXAMINATION WAS MADE

17P Request for examination filed

Effective date: 20180130

RBV Designated contracting states (corrected)

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: EXAMINATION IS IN PROGRESS

17Q First examination report despatched

Effective date: 20190314

GRAP Despatch of communication of intention to grant a patent

Free format text: ORIGINAL CODE: EPIDOSNIGR1

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: GRANT OF PATENT IS INTENDED

INTG Intention to grant announced

Effective date: 20191007

GRAS Grant fee paid

Free format text: ORIGINAL CODE: EPIDOSNIGR3

GRAA (expected) grant

Free format text: ORIGINAL CODE: 0009210

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE PATENT HAS BEEN GRANTED

AK Designated contracting states

Kind code of ref document: B1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

REG Reference to a national code

Ref country code: CH

Ref legal event code: EP

REG Reference to a national code

Ref country code: DE

Ref legal event code: R096

Ref document number: 602017011840

Country of ref document: DE

REG Reference to a national code

Ref country code: AT

Ref legal event code: REF

Ref document number: 1235449

Country of ref document: AT

Kind code of ref document: T

Effective date: 20200315

REG Reference to a national code

Ref country code: IE

Ref legal event code: FG4D

Free format text: LANGUAGE OF EP DOCUMENT: FRENCH

REG Reference to a national code

Ref country code: NL

Ref legal event code: MP

Effective date: 20200219

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: RS

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20200219

Ref country code: FI

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20200219

Ref country code: NO

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20200519

REG Reference to a national code

Ref country code: LT

Ref legal event code: MG4D

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: LV

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20200219

Ref country code: GR

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20200520

Ref country code: BG

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20200519

Ref country code: HR

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20200219

Ref country code: IS

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20200619

Ref country code: SE

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20200219

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: NL

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20200219

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: SK

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20200219

Ref country code: RO

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20200219

Ref country code: LT

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20200219

Ref country code: PT

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20200712

Ref country code: CZ

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20200219

Ref country code: DK

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20200219

Ref country code: SM

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20200219

Ref country code: EE

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20200219

Ref country code: ES

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20200219

REG Reference to a national code

Ref country code: DE

Ref legal event code: R119

Ref document number: 602017011840

Country of ref document: DE

REG Reference to a national code

Ref country code: AT

Ref legal event code: MK05

Ref document number: 1235449

Country of ref document: AT

Kind code of ref document: T

Effective date: 20200219

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: MC

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20200219

REG Reference to a national code

Ref country code: CH

Ref legal event code: PL

PLBE No opposition filed within time limit

Free format text: ORIGINAL CODE: 0009261

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: NO OPPOSITION FILED WITHIN TIME LIMIT

26N No opposition filed

Effective date: 20201120

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: LI

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20200430

Ref country code: AT

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20200219

Ref country code: LU

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20200425

Ref country code: CH

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20200430

Ref country code: DE

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20201103

REG Reference to a national code

Ref country code: BE

Ref legal event code: MM

Effective date: 20200430

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: SI

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20200219

Ref country code: BE

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20200430

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: IE

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20200425

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: TR

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20200219

Ref country code: MT

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20200219

Ref country code: CY

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20200219

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: MK

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20200219

Ref country code: AL

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20200219

P01 Opt-out of the competence of the unified patent court (upc) registered

Effective date: 20230530

PGFP Annual fee paid to national office [announced via postgrant information from national office to epo]

Ref country code: GB

Payment date: 20240419

Year of fee payment: 8

PGFP Annual fee paid to national office [announced via postgrant information from national office to epo]

Ref country code: IT

Payment date: 20240424

Year of fee payment: 8

Ref country code: FR

Payment date: 20240425

Year of fee payment: 8

PGFP Annual fee paid to national office [announced via postgrant information from national office to epo]

Ref country code: PL

Payment date: 20240412

Year of fee payment: 8