WO2007017599A1 - Dispositif d'entrainement au tir a partir d'une arme - Google Patents

Dispositif d'entrainement au tir a partir d'une arme Download PDF

Info

Publication number
WO2007017599A1
WO2007017599A1 PCT/FR2006/001936 FR2006001936W WO2007017599A1 WO 2007017599 A1 WO2007017599 A1 WO 2007017599A1 FR 2006001936 W FR2006001936 W FR 2006001936W WO 2007017599 A1 WO2007017599 A1 WO 2007017599A1
Authority
WO
WIPO (PCT)
Prior art keywords
weapon
field
synthetic
video
processing means
Prior art date
Application number
PCT/FR2006/001936
Other languages
English (en)
Inventor
Valentin Lefevre
Laurent Chabin
Emmanuel Marin
Original Assignee
Total Immersion
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Total Immersion filed Critical Total Immersion
Priority to EP06794318A priority Critical patent/EP1913326A1/fr
Priority to US12/063,519 priority patent/US20090305198A1/en
Publication of WO2007017599A1 publication Critical patent/WO2007017599A1/fr

Links

Classifications

    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41AFUNCTIONAL FEATURES OR DETAILS COMMON TO BOTH SMALLARMS AND ORDNANCE, e.g. CANNONS; MOUNTINGS FOR SMALLARMS OR ORDNANCE
    • F41A33/00Adaptations for training; Gun simulators
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41JTARGETS; TARGET RANGES; BULLET CATCHERS
    • F41J9/00Moving targets, i.e. moving when fired at
    • F41J9/14Cinematographic targets, e.g. moving-picture targets

Definitions

  • the present invention relates to a device for training firing from a weapon allowing a user to train in a real context but with the insertion of virtual objects in the field of vision.
  • the invention more specifically relates to a firing training device or a firing simulator, in particular from a real weapon in a real context.
  • the systems for practicing shooting practice are today mainly carried out with non-real weapons dedicated specifically to training.
  • the reproduction of weapons tries to perfectly respect the dimensions, the mass and the ergonomics of the real system.
  • the systems also use certain imaging techniques to model a visual environment of the battlefield, including synthetic sets in which are present targets also in computer graphics.
  • the present invention aims first and foremost to provide a device for training firing from a weapon, characterized in that the device comprises:
  • video capture means capable of capturing an angular field targeted by the weapon
  • processing means capable of inserting, in real time, at least one synthetic image into the captured field, according to the position information received from said angle measuring means, and
  • the device according to the invention makes it possible to perform firing training in real conditions, that is to say on a real theater of operations.
  • real interaction is created, in real time, between a weapon and a real context on the one hand, and virtual objects representing targets, fixed or moving, on the other hand.
  • the virtual targets are able to be positioned by means of the measurements obtained by the means for measuring angles.
  • the device comprises control means, in real time, able to control the processing means for the insertion of synthetic images.
  • the weapon is a real weapon.
  • the training can be performed from a real weapon, the training is all the more real and less expensive because does not require creation of a false weapon.
  • the weapon comprising sighting means
  • the driving device comprises optical adaptation means adapted to allow the visualization of an image in the sighting means from the display means of the field of captured vision containing inserted synthetic images.
  • the position information received from said angle measuring means is heading and pitch.
  • the device further comprises driving means adapted to drive, in real time, the processing means capable of inserting synthetic images.
  • the device comprises locating means capable of determining the position of the video capture means in the reference mark of a three-dimensional synthetic field, the synthetic field being a model corresponding to at least one element of the field. angular captured.
  • the synthetic field comprises geometry information for determining the location of the capture means, so that the subsequent insertion of the synthesis images is carried out quickly and in an adjusted manner.
  • the locating means comprise means for matching, in real time, points of the synthetic field with corresponding points in the captured angular field.
  • the device comprises means for setting the synthetic field on the captured angular field.
  • the device comprises a location receiver able to locate the device, in particular a GPS.
  • the device comprises image analysis means able to increase the accuracy of the measurements made by the angle measuring means.
  • FIG. 1 shows schematically a shooting training device according to the invention
  • FIG. 2 illustrates a hardware architecture of the firing training device according to a first embodiment according to the invention
  • FIG. 3 illustrates a hardware architecture of the firing training device according to a second embodiment according to the invention
  • FIG. 4 is a hardware or software architecture of the firing training device according to the first embodiment illustrated in FIG. 2;
  • FIG. 5 is a hardware or software architecture of the firing training device according to the second embodiment illustrated in FIG. 3.
  • a real weapon 1 includes a barrel 2, a viewfinder 3 and possibly a tripod 4, so as to carry the weapon.
  • the tripod is not always necessary.
  • the viewfinder 3 is in particular an optical system mounted on the barrel, so that the optical axis is almost coincident with the axis of the barrel.
  • the parallax that is the apparent angular displacement of a body observed from two different points, is negligible.
  • the weapon comprises viewing means 6. These viewing means allow the shooter to see a sharp image, for example through the viewfinder 3. They include for example a video monitor 7 and an optical matching unit 8 The video monitor is small so that it can be adapted to the weapon. In addition, to get as real a rendering as possible, the video monitor is high definition.
  • the weapon means for measuring angles also called motion sensors or angular sensors based on different technologies, for example an inertial unit, laser positioning, optical encoders, monitoring by analysis of image also called tracking in Anglo-Saxon terminology.
  • a motion sensor allows in particular to know the orientation of the weapon, for example in the case of a weapon on a tripod.
  • the motion sensor also makes it possible to indicate the position and the orientation of the weapon, for example in the case of a weapon free of its movements, in particular in the case of a missile launcher positioned on the shoulder of the shooter.
  • the video from the video capture means is modified in real time, so as to add to the real scenes virtual targets that the shooter must reach.
  • This architecture comprises video capture means 5, in particular a high-definition camera and viewing means 6 enabling the shooter to visualize the real landscape augmented with virtual targets.
  • the augmented real landscape can include visual effects, including the addition of virtual elements to the landscape.
  • visual effects including the addition of virtual elements to the landscape.
  • it is allowed to add virtual buildings, to hide the vision when leaving the stroke. For example, an opaque smoke is simulated at the moment of firing and becomes clearer with time.
  • the hardware architecture comprises a first processing means 21 called the shooter's processing means, capable of generating the augmented video images of virtual objects constituting the marksmanship targets and a second processing means 22 called the processing means of the shooter. instructor, able to control the appearance of virtual targets on video images.
  • the video sensor 5 is connected to the processing means of the shooter 21 via a converter 23 of the component output HD-YUV to the HD-SDI ("High Definition Serial Digital Interface" in English terminology), especially in 16/9 format.
  • the signal converting HD-SDI is then sent to the HD-SDI input 24 of the shooter processing means 21.
  • YUV is an analog video interface that physically separates three luminance (Y), the chrominance component 1 (U) and the chrominance component 2 (V) physically to three conductors to connect a video source to a processing means.
  • the architecture is also based on a firing button 25 present on the weapon.
  • This button is connected to an input / output port 26 of the processing means of the shooter 21.
  • the port can be in particular the serial port, the parallel port, the USB port, the analog input on a PCI card ("Peripheral Component Interconnect "in English terminology).
  • the motion sensor 9 added to the weapon as shown in FIG. 1 is also connected to an input / output port 26 of the shooter's processing means 21.
  • the shooter processing means 21 is equipped with an audio output 27 making it possible to connect loudspeakers 28 and a video output 29.
  • the audio output 27 is intended to reproduce the sound effects caused by firing, explosions, destruction of virtual targets, etc.
  • the video output 29 is connected to the display means 6 mounted on the weapon so as to display in the viewfinder of the weapon the real landscape, corresponding to the angular field targeted by the shooter's weapon, augmented by virtual targets and visual effects.
  • the video output is in particular UXGA format ("Ultra eXtended Graphics Array" in English terminology).
  • the video output 29 is connected to a video splitter 30.
  • This splitter can, in this way, duplicate the video signal to the display means 6 mounted on the weapon and to a recorder 32, in particular by means of a video recorder.
  • a converter 33 able to convert the images, for example in UXGA format in PAL or NTSC format to allow the recording of video images by the recorder 32.
  • the recorder 32 is notably a DVD recorder including a hard disk. This recorder makes it possible, on the one hand, to memorize the video images seen by the shooter and, on the other hand, to make it possible to replay the shooting sequences during the evaluation or debriefing phase.
  • the video splitter 30 may also duplicate the video signal to an instructor's monitor 34 to allow the instructor to view the shooter's images.
  • the instructor processing means 22 comprises a video output 35, in particular in the UXGA format, connected to a screen 34, in particular via a video switch 36.
  • a video switch 36 By means of this switch, the screen of the instructor 34 allows visualization of either the shooter's field of view augmented with the virtual targets, or the man-machine interface of the instructor station generated by the instructor processing means 22.
  • the shooter processing means 21 and the instructor processing means 22 may be connected together via, in particular, an Ethernet concentrator 37.
  • the data corresponding to the virtual objects to be inserted in the video corresponding to the real training landscape are stored, for example in a database, either on the processing means of the shooter 21, or on the instructor processing means 22. .
  • a hardware architecture of the firing training device comprising image analysis means.
  • This architecture is used in particular when the weapon is equipped with a motion sensor that does not have good accuracy.
  • the hardware architecture illustrated in FIG. 3 is equivalent to the hardware architecture illustrated in FIG. 2, except that a specific image analysis means 40 has been added.
  • the motion sensor 9 is no longer connected to the processing means of the shooter 21, but to the image analysis means 40 via input / output ports 41 of the analysis means 40.
  • the motion sensor indicates approximately the orientation (heading, pitch) of the video capture means 5 in the real environment. From this information and the image from the video capture means, the image analysis means 40 refines the heading and pitch values.
  • the image analysis increases the accuracy of the orientation of the video capture means, the orientation being constituted by values in (heading, pitch).
  • the values are refined by matching points of interest contained in the video image from the video capture means, with predetermined points of interest of the global panorama.
  • the time required for image analysis to determine the orientation is optimized by the rough knowledge of the (heading, pitch) values sent by the imperfect motion sensor.
  • the video sensor 5 is also connected to the image analysis means 40 via the video input 42 of the image analysis means 40.
  • the image analysis means 40 is connected to the various processing means, in particular to the processing means of the shooter 21 and to the processing means of the instructor 22, via a network, for example the Ethernet network.
  • This image analysis means 40 is dedicated to the sending via the network of orientation information (heading, pitching) of the video capture means to the shooter processing means 21.
  • This information is generated, in particular by means of two data streams, namely the flow of data coming from the motion sensor 9 and the data flow coming from an image analysis algorithm.
  • the shooter processing means 21 is equipped with augmented reality processing means 45, in particular with the FUSION software of TOTAL IMMERSION.
  • Augmented reality consists of mixing synthetic images, also called virtual objects with real images from the video capture means 5.
  • the augmented reality processing means realizes the addition of virtual objects in a video and the visualization resulting from this addition in real time, thus generating augmented reality videos in real time.
  • the shooter processing means 21 mixes synthetic images and real images in real time, that is to say operates the processing at a video frame rate of 50 frames per second or 60 frames. per second according to the standard video capture means.
  • the shooter processing means 21 in addition to containing an augmented reality processing software, comprises various software modules for processing the shooting training system.
  • One of the modules consists of a fire management module 44 able to manage the recovery of the support on the firing button by the shooter.
  • a second module consists in determining in real time the trajectory of the firing 47. To do this, this module calculates, in real time, the coordinates of the projectile, in particular the coordinates in X, Y and Z, the heading, the pitch and the roll. .
  • the aiming axis of the shooter influences the trajectory of the missile, particularly in the case of guided missiles.
  • a third module collects data from the motion sensor 48. These data are a function of the type of sensor and are, for example, the pitch and pitch torque, or all the heading, pitch and roll data, or the X coordinates. Y and Z and course, pitch and roll.
  • a control module 49 also called exercise management module, is present to control in particular the passage of virtual targets in real time on the display means of the weapon.
  • This module is used to instruct a shooter (missile, tank, or any other weapon) under the guidance of an instructor.
  • the instructor controls by means of a man / machine interface and a joystick, the virtual targets to be inserted in the video acquired by the capture means 5 and presented to the shooter.
  • these instructions are, according to one embodiment, transmitted to the processing means of the shooter 21 so that the latter makes, by the augmented reality processing software 41, the incrustation of virtual targets in the acquired video.
  • the instructor can control the symbology, that is to say the reticle also called the aiming aid.
  • the instructor can manipulate symbols that appear in the shooter's viewing screen. In this way, he can guide the shooter, for example, by showing him a target he has not seen in the landscape or asking him to aim at a certain point of the landscape.
  • a communication interface between the shooter processing means 21 and the instructor processing means 22 makes it possible to manage the communications. Indeed, for each virtual target to be inserted, the instructor processing means 22 is transmitted by means of the firer 21 processing the coordinates of the target, in particular by providing the following information: the coordinates X, Y and Z, the heading, pitch and roll and, for each type of symbology, the coordinates of the screen namely the coordinates in X and Y.
  • a software architecture related to the implementation of the firing training system comprising image analysis means.
  • This architecture is used in particular when the weapon is equipped with a motion sensor that does not have good accuracy.
  • the software architecture illustrated in FIG. 5 is equivalent to the software architecture illustrated in FIG. 4, except that a specific image analysis module is installed on the image analysis means 40, in accordance with FIG. hardware architecture illustrated in Figure 3.
  • the shooter processing means 21 no longer receives the data directly. from the motion sensor 9, but has a data receiving module from the image analysis means 40, via a communication interface between the shooter processing means and the analysis means images.
  • the image analysis means 40 receives, on the one hand, the data coming from the motion sensor 9 and, on the other hand, the video stream coming from the video sensor 5.
  • the image analysis module analyzing the received video stream with the data received from the motion sensor to determine the heading and pitch values of the weapon. The result of this analysis is issued, in real time, by means of processing the shooter 21 via the network.
  • a communication interface between the shooter processing means 21 and the image analysis means 40 makes it possible to manage the communications. Indeed, by means of this interface, the data relating to the position of the camera is transmitted, in particular by providing the following information: heading and pitch or heading, pitch and roll or X, Y and Z coordinates , course, pitch and roll.
  • the shooter processing means 21 refreshes the images transmitted to the display means 6 at a frequency compatible with the video capture means 5 and the display means 6, namely 50 Hz in the case of European standard video capture means and 60 Hz in the case of an American standard video capture means. It should be noted that the display means must operate at the same frequency as the video sensor.
  • the latter visually induces a misalignment of the video landscape and the targets and the missile.
  • the precision of the calibration of the virtual targets in the captured real landscape is a function of the precision of the motion capture method, in particular according to the analysis or not of images.
  • the HD-SDI 16/9 standard includes 1920 pixels by 1080 interlaced lines and that the angular field targeted by the shooter's weapon is circular and that the resolution Useful video inside the circular field is 1080 pixels by 1080 interlaced lines.
  • the screen when viewing on the instructor screen of the angular field targeted by the gun of the shooter, the screen is for example 4/3, a resolution of 1440 pixels by 1080 lines.
  • the video resolution used for the resolution of the display must be resized.
  • the video image can be resized without any visual artefact, i.e. without rasterization of the video image.
  • This resizing is performed for the display of the actual landscape augmented with virtual targets in the viewing means 6.
  • it can be used for display of the augmented landscape on the instructor's screen.
  • the resizing is performed to a format of 1280 pixels by 1024 lines in SXGA mode, ie to 1600 pixels by 1200 lines in UXGA mode.
  • the viewing means 6 are in particular a small monitor; indeed, the latter must be light and compact. Technologies that can be used are: LCD miniature, LCOS, DLP, OLED.
  • the display means impose a certain display resolution.
  • the graphics card of the shooter processing means is configured for these special display means.
  • the display is 1280 pixels by 1024 lines or 1600 pixels by 1200 lines.
  • a target is detected when we see a target move but it is not recognized. For example, a tank is identified in the distance but the type of tank is not recognized. An identified target is called when it is well identified.
  • the display has a resolution of 1280 pixels by 1024 lines and a field of view of 8.5 degrees (corresponding to 1024 lines)
  • a target is detected on a video line
  • the target is recognized when it is present on 3 video lines and it is identified when it is present on 5 lines.
  • the detection of a target takes place on a target at a distance greater than 6 km, the reconnaissance of the target is carried out at 4600 meters and the identification is made at 2760 meters.
  • a target is detected on a video line, the target is recognized when it is present on 3 video lines and it is identified when it is present on 5 lines.
  • the augmented reality processing means adds to a real landscape captured moving virtual targets or immobile in real time. Indeed, virtual targets can move in the actual landscape captured by the video sensor.
  • char or helicopter type targets may move in the captured landscape.
  • the instructor by the instructor processing means 22, can choose in particular two types of displacement for each target.
  • a first mode is to move the target according to a list of waypoints, the waypoints are editable during the exercise by the instructor. This mode of displacement is called "waypoint" mode.
  • the instructor processing means 22 comprises means for entering and modifying the passage points, in particular by means of the joystick.
  • the instructor can get a view of the scene. From the controller, for example, the instructor can add, delete, or modify a waypoint.
  • the waypoints appear numbered on the instructor's screen.
  • the crossing points for land vehicles are associated with terrain relief.
  • the crossing points for the aerial vehicles have an altitude adjustable by the instructor.
  • the trajectory of the virtual target along the waypoints is calculated by the augmented reality processing means by linear interpolation.
  • a second mode of displacement is to move the target by driving with the controller 38 by the instructor. This mode of displacement is called "joystick" mode.
  • the instructor processing means is equipped with an augmented reality processing means, in particular the TOTAL IMMERSION FUSION software configured specifically for entering and modifying the crossing points, as well as the joystick management.
  • the instructor To enter or change the target waypoints, the instructor has a top view of the scene. With the help of the keyboard and mouse, the instructor can add, delete or modify a waypoint. The waypoints appear numbered on the screen.
  • crossing points for land vehicles they are associated with terrain relief. While the crossing points for aerial vehicles are associated with an adjustable altitude by the instructor.
  • the augmented reality processing means makes it possible to manage the switching from the "waypoint” mode to the "joystick” mode. To do this, the virtual target starts from its current position.
  • the latter are transmitted in real time from the medium instructor processing 22 by means of processing the shooter 21 equipped with the augmented reality processing means for their processing in real time for display on the display module of the shooter during training.
  • targets may appear as not destroyed or destroyed.
  • the augmented reality processing means may add the immovable carcass of a tank destroyed by the shooter.
  • managing the destruction of a target by the augmented reality processing means can take many forms.
  • the augmented reality processing means adds to the actual landscape the explosion of the tank then displays the carcass of the tank .
  • the augmented reality processing means adds to the real landscape the explosion of the helicopter, then the helicopter disappears.
  • three explosion effects of the virtual target can be implemented by the augmented reality processing means. It is, first of all, the explosion following the impact of the shooting on the ground or on a piece of the scenery, then, the explosion of the virtual target following the impact of the shooting on a virtual target aerial, finally, the explosion of the virtual target following the impact of the shot on a virtual target terrestrial.
  • the augmented reality processing means manages each explosion by a virtual object of the "bilboard" type in which a cut texture is played. However, it is a specific video depending on the type of impact.
  • a virtual object of type "bilboard” is a synthesis object composed of the following elements: a rectangle of zero thickness and a texture applied on this rectangle.
  • the rectangle is positioned on the floor in front of the camera.
  • the applied texture can be a dynamic texture from a film stored on the hard disk. For example, in the case of an explosion, one has a movie "explosion", which is found in this rectangle. In addition, the edges of the rectangle are not seen, the latter being transparent.
  • the landscape may not be visually modified.
  • the distance d1 of the shot relative to the terrain in the landscape is determined, that is to say the point of the ground in the axis of the shot. Then, we determine the distance d (N) of the shot with respect to the virtual target N.
  • the distance d (N) is the distance between the center of gravity of the shot and the center of gravity of the target.
  • an explosion effect display algorithm includes a first test to determine if the distance d1 firing from the terrain in the landscape is less than a threshold distance. If this is the case, then we determine the X, Y and Z coordinates of the impact of the firing and we trigger the addition and display of the explosion following the impact of the shooting on the ground.
  • a missile-type missile In the case of a missile-type missile, the latter is materialized by a 3D virtual object mainly seen from the rear.
  • M circular "bilboard" objects are displayed which have been applied with the alpha and transparency parameters management, in order to obtain a realistic smoke trail.
  • the missile display may be delayed a few milliseconds after receiving the firing information so as to simulate the missile's time out of the barrel of the weapon.
  • the trajectory of the missile is memorized in order to be able to position the M objects of "bilboard” type along the trajectory.
  • virtual objects For the management of virtual targets and ground impacts, it is necessary to have virtual objects in memory, in particular, within a database, the ground, that is to say the soil and buildings .
  • a location tool makes it possible, by means of a pairing of points, to extract the position of the video sensor in the reference point of the synthetic field.
  • This pairing consists of associating points of the synthetic field with their equivalent in the captured video.
  • the location tool determines the position of the video sensor in the reference of the synthetic field, the synthetic field being a three-dimensional modeling of the real terrain.
  • This technology allows the instructor to install the system anywhere in a theater in a reasonable amount of time, including three-dimensional modeling of the theater.
  • a GPS receiver (“Global Positioning System” in English terminology) can be associated with the weapon so that it can be located on the real ground.
  • the GPS receiver then sends the various positioning coordinates of the weapon on the real terrain.
  • the location tool it is possible to locate the video sensor, including two ways.
  • virtual points are associated with real points of the video stream, captured as previously described.
  • the ground of synthesis is angularly staggered, in particular by means of a joystick.
  • the synthetic field is then displayed in transparency on the video image to allow calibration.
  • the augmented reality processing means is also able to process the occultation. Indeed, at the moment of the departure of the blow, an object of the type Circular "bilboard" and texture is displayed on the screen. During the move away, the transparency coefficient is changed from an opaque aspect to a transparent aspect. The position of the "bilboard" type object is coupled to the position of the missile to obtain a more realistic occultation effect.
  • the augmented reality processing means may display a targeting reticle. This can be controlled to make it appear or disappear and change its position on the viewing screen.
  • the augmented reality processing means may allow additional information to be added to the aim, for example by means of a chevron. This information can also be controlled to make it appear or disappear and adjust its position on the viewing screen according to the X and Y coordinates.
  • the shooter processing means 21 includes loudspeakers for reproducing also the sound effects induced by the shot.
  • the shooter processing means 21 activates a sound representing the start of the shot, in particular by launching an audio file of ".wav" type. Similarly, if the shot reaches the ground, a landscape element or a virtual target, a sound file is activated to represent the sound of the impact.
  • the hardware architecture may be provided with a recorder, including a DVD recorder with hard disk, so as to record the contents of the view of the shooter.
  • the replay of the shooting exercise is possible by performing a replay of the video film stored by the recorder.
  • the presence of a hard disk on the recorder allows the replay without obligation to burn the shooting exercise on a support.
  • the information is available to analyze the exercise, in particular by means of an exercise analysis software module.
  • the firing training system as previously described, can be used in different contexts.
  • the system is placed in front of a model of a landscape in which virtual targets are added by the augmented reality processing means.
  • the model must first be modeled.
  • the processing means of the shooter 21 may be an individual computer having the following characteristics:
  • Pentium IV processor 3 Ghz, including the Windows XP Pro operating system, service pack 2,
  • the video capture means 5 are, for example, a high-definition camera of the Sony HDR-FX1 type.
  • the converter 23 of the HD-YUV component output to the HD-SDI standard is in particular an AJA HD 1OA converter.
  • the UXGA video splitter 30 is for example the Komelec MSV1004 splitter.
  • the video switch 36 is in particular a Comprehensive Video HRS-2x1-SVA / 2x1 VGA / UXGA High Resolution Vertical Switcher switch.
  • the converter 33 is for example the Folsom ViewMax converter.
  • the recorder 32 is a Philips HDRW 720 DVD recorder having an 80 GB hard drive.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Processing Or Creating Images (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Aiming, Guidance, Guns With A Light Source, Armor, Camouflage, And Targets (AREA)

Abstract

L'invention concerne un dispositif d'entraînement au tir à partir d'une arme (1), caractérisé en ce que le dispositif comprend des moyens de capture vidéo (5) aptes à capturer le champ de vision, des moyens de capture angulaire aptes à renvoyer des angles définissant la position d'insertion des images de synthèse, des moyens de traitement (21, 22) aptes à insérer, en temps réel, des images de synthèse au champ de vision capturé, et des moyens de visualisation (6) du champ de vision capturé contenant ladite au moins une image de synthèse insérée.

Description

DISPOSITIF D'ENTRAINEMENT AU TlR A PARTIR D'UNE ARME
La présente invention concerne un dispositif d'entraînement au tir à partir d'une arme permettant à un utilisateur de s'entraîner dans un contexte réel mais avec l'insertion d'objets virtuels dans le champ de vision.
L'invention a plus précisément pour objet un dispositif d'entraînement au tir ou un simulateur de tir, notamment à partir d'une arme réelle dans un contexte réel.
L'entraînement au tir utilisé notamment par les militaires consiste en l'utilisation d'armes non réelles dans un contexte aussi réel que possible. L'entrainement est réalisé à partir de différents types d'armes, par exemple : fusil, char, lanceur de missile.
Les systèmes permettant de s'entraîner au tir sont aujourd'hui réalisés principalement au moyen d'armes non réelles dédiées spécifiquement aux entraînements. La reproduction des armes tente de respecter parfaitement les dimensions, la masse et l'ergonomie du système réel.
Toutefois, bien qu'il soit reproduit des armes aussi proches que possible des armes réelles, ces armes restent des reproductions et peuvent avoir des comportements différents des armes réelles.
Les systèmes font également appel à certaines techniques de l'imagerie pour modéliser un l'environnement visuel du champ de bataille, notamment des décors de synthèse dans lesquels sont présentes des cibles également en images de synthèse.
Ces systèmes ont un faible niveau de réalisme étant donné que les décors sont modélisés en imagerie de synthèse. De plus, la préparation d'une scène d'entraînement est coûteuse. En outre, la scène d'entraînement doit être entièrement remodélisée de façon réaliste (avec la géométrie, les textures et les matériaux) si le terrain d'entraînement est différent.
De plus, ces systèmes ne fonctionnent que dans une salle, c'est-à- dire bien loin des conditions réelles. Compte tenu de ce qui précède, il serait par conséquent intéressant de pouvoir réaliser un dispositif d'entrainement au tir aussi bien à partir d'armes réelles que dans un contexte réel dans lequel peuvent varier la position de l'arme, ainsi que le lieu et le moment d'apparition des objets virtuels cibles tout en s'affranchissant d'au moins certains des inconvénients mentionnés ci- dessus.
La présente invention vise en premier lieu à fournir un dispositif d'entrainement au tir à partir d'une arme, caractérisé en ce que le dispositif comprend :
- des moyens de capture vidéo aptes à capturer un champ angulaire visé par l'arme,
- des moyens de mesure d'angles aptes à déterminer au moins un angle représentatif de la position de l'arme,
- des moyens de traitement aptes à insérer, en temps réel, au moins une image de synthèse dans le champ capturé, selon les informations de position reçues desdits moyens de mesure d'angles, et
- des moyens de visualisation du champ capturé contenant ladite au moins une image de synthèse insérée.
Le dispositif selon l'invention permet d'effectuer un entraînement au tir dans des conditions réelles c'est-à-dire sur un vrai théâtre d'opérations. Pour ce faire, il est créé une interaction réelle, en temps réel, entre une arme et un contexte réel d'une part, et des objets virtuels représentant des cibles, fixes ou en mouvement, d'autre part.
Les cibles virtuelles sont aptes à être positionnées au moyen des mesures obtenues par les moyens de mesure d'angles.
Selon un mode de réalisation particulier, le dispositif comprend des moyens de commande, en temps réel, aptes à commander les moyens de traitement pour l'insertion d'images de synthèse.
Selon une caractéristique particulière, l'arme est une arme réelle.
Selon cette caractéristique, l'entraînement pouvant être effectué à partir d'une arme réelle, l'entrainement est d'autant plus réel et moins coûteux car ne nécessite pas de création d'une fausse arme. Selon un mode de réalisation particulier, l'arme comprenant des moyens de visée, le dispositif d'entraînement comprend des moyens optique d'adaptation aptes à permettre la visualisation d'une image dans les moyens de visée à partir des moyens de visualisation du champ de vision capturé contenant les images de synthèse insérées.
Selon une caractéristique particulière, les informations de position reçues desdits moyens de mesure d'angles sont le cap et le tangage.
Selon une autre caractéristique particulière, le dispositif comprend en outre, des moyens de pilotage aptes à piloter, en temps réel, les moyens de traitement aptes à insérer des images de synthèse.
Selon une caractéristique particulière, le dispositif comprend des moyens de localisation apte à déterminer la position des moyens de capture vidéo dans le repère d'un terrain de synthèse en trois dimensions, le terrain de synthèse étant une modélisation correspondant à au moins un élément du champ angulaire capturé.
Selon cette caractéristique, le terrain de synthèse comprend des informations de géométrie pour déterminer la localisation des moyens de capture, afin que l'insertion ultérieure des images de synthèse soit réalisée rapidement et de manière ajustée.
Selon un mode de réalisation, les moyens de localisation comprennent des moyens d'appariement, en temps réel, de points du terrain de synthèse avec des points correspondant dans le champ angulaire capturé.
Selon un autre mode de réalisation, le dispositif comprend des moyens de calage du terrain de synthèse sur le champ angulaire capturé.
Selon une caractéristique particulière, le dispositif comprend un récepteur de localisation apte à localiser le dispositif, notamment un GPS.
Selon une autre caractéristique particulière, le dispositif comprend des moyens d'analyse d'image aptes à augmenter la précision des mesures réalisées par les moyens de mesure d'angles.
D'autres aspects et avantages de la présente invention apparaîtront plus clairement à la lecture de la description qui va suivre, cette description étant donnée uniquement à titre d'exemple non limitatif et faite en référence aux dessins annexés, dans lesquels :
- la figure 1 représente de façon schématique un dispositif d'entraînement au tir conforme à l'invention ;
- la figure 2 illustre une architecture matérielle du dispositif d'entraînement au tir selon un premier mode de réalisation conformément à l'invention ;
- la figure 3 illustre une architecture matérielle du dispositif d'entraînement au tir selon un second mode de réalisation conformément à l'invention ;
- la figure 4 est une architecture matérielle ou logicielle du dispositif d'entraînement au tir selon le premier mode de réalisation illustré en figure 2 ; et
- la figure 5 est une architecture matérielle ou logicielle du dispositif d'entraînement au tir selon le second mode de réalisation illustré en figure 3.
La description de l'invention est réalisée à partir d'une arme réelle, par exemple un fusil, telle qu'illustrée à la figure 1. Toutefois, la mise en œuvre peut être réalisée sur tout type d'arme, réelle ou non.
Tel qu'illustré à la Figure 1 , une arme réelle 1 comprend un canon 2, un viseur 3 et éventuellement un trépied 4, de façon à porter l'arme. Toutefois, en fonction de l'arme, le trépied n'est pas toujours nécessaire.
Le viseur 3 est notamment un système optique monté sur le canon, de telle sorte que l'axe optique soit quasiment confondu avec l'axe du canon. La parallaxe, c'est-à-dire le déplacement angulaire apparent d'un corps observé à partir de deux points différents, est négligeable.
Pour réaliser un dispositif d'entraînement au tir à partir d'une arme réelle, on fixe de façon rigide des moyens de capture vidéo 5, notamment une caméra vidéo haute définition. L'axe optique de la caméra est quasiment confondu avec l'axe du canon ; la parallaxe est donc négligeable. De la sorte, la caméra est apte à acquérir un flux vidéo correspondant à la vision du tireur. Les moyens de capture vidéo sont aptes à capturer un champ angulaire visé par l'arme. En outre, l'arme comprend des moyens de visualisation 6. Ces moyens de visualisation permettent au tireur de voir une image nette, par exemple à travers le viseur 3. Ils comprennent par exemple un moniteur vidéo 7 et un bloc optique d'adaptation 8. Le moniteur vidéo est de petite taille afin de pouvoir être adapté sur l'arme. De plus, afin d'obtenir un rendu aussi réel que possible, le moniteur vidéo est de haute définition.
On peut également ajouter à l'arme des moyens de mesure d'angles, 9 aussi appelés capteur de mouvement ou capteur angulaire basés sur différentes technologies, par exemple une centrale inertielle, un positionnement laser, des encodeurs optiques, un suivi par analyse d'image aussi appelé tracking en terminologie anglo-saxonne.
Un capteur de mouvement permet notamment de connaître l'orientation de l'arme, par exemple dans le cas d'une arme posée sur un trépied.
Le capteur de mouvement permet également d'indiquer la position et l'orientation de l'arme, par exemple dans le cas d'une arme libre de ses mouvements, notamment dans le cas d'un lanceur de missile positionné sur l'épaule du tireur.
En vue de réaliser un entrainement au tir, la vidéo issue des moyens de capture vidéo est modifiée en temps réel, de manière à ajouter sur les scènes réelles des cibles virtuelles que le tireur doit atteindre.
Pour ce faire, une architecture matérielle du dispositif d'entraînement au tir est maintenant décrite en référence à la Figure 2. Cette architecture est notamment utilisée lorsque l'arme est équipée d'un capteur de mouvement possédant une bonne précision.
Cette architecture comprend des moyens de capture vidéo 5, notamment une caméra haute définition et des moyens de visualisation 6 permettant au tireur de visualiser le paysage réel augmenté de cibles virtuelles.
En outre, le paysage réel augmenté peut comprendre des effets visuels, notamment l'ajout d'éléments virtuels sur le paysage. Ainsi, il est permis d'ajouter des bâtiments virtuels, d'occulter la vision lors du départ du coup. Par exemple on simule une fumée opaque au moment du tir et qui s'éclaircit au fur et à mesure du temps.
L'architecture matérielle comprend un premier moyen de traitement 21 appelé moyen de traitement du tireur, apte à générer les images vidéo augmentées d'objets virtuels constituant les cibles d'entraînement au tir et un second moyen de traitement 22 appelé moyen de traitement de l'instructeur, apte à contrôler l'apparition des cibles virtuelles sur les images vidéo.
Le capteur vidéo 5 est relié au moyen de traitement du tireur 21 par l'intermédiaire d'un convertisseur 23 de la sortie composante HD-YUV vers la norme HD-SDI (« High Définition Sériai Digital Interface » en terminologie anglo-saxonne), notamment au format 16/9. Le signal convertit HD-SDI est ensuite envoyé sur l'entrée HD-SDI 24 du moyen de traitement du tireur 21.
YUV désigne une interface vidéo analogique qui sépare physiquement sur trois conducteurs, la luminance (Y), la composante chrominance 1 (U) et la composante chrominance 2 (V) pour relier une source vidéo à un moyen de traitement.
L'architecture s'appuie également sur un bouton de mise de feu 25 présent sur l'arme. Ce bouton est relié à un port d'entrées / sorties 26 du moyen de traitement du tireur 21. Le port peut être notamment le port série, le port parallèle, le port USB, l'entrée analogique sur une carte PCI (« Peripheral Component Interconnect » en terminologie anglo-saxonne).
Le capteur de mouvement 9 ajouté sur l'arme tel que montré en Figure 1 est également connecté à un port d'entrées / sorties 26 du moyen de traitement du tireur 21.
Le moyen de traitement du tireur 21 est équipé d'une sortie audio 27 permettant de connecter des hauts parleurs 28 et d'une sortie vidéo 29.
La sortie audio 27 a pour objectif de reproduire les effets sonores provoqués par la mise de feu, les explosions, la destruction des cibles virtuelles, etc.
La sortie vidéo 29 est reliée aux moyens de visualisation 6 monté sur l'arme de façon à afficher dans le viseur de l'arme le paysage réel, correspondant au champ angulaire visé par l'arme du tireur, augmenté de cibles virtuelles et d'effets visuels.
La sortie vidéo est notamment au format UXGA (« Ultra eXtended Graphics Array » en terminologie anglo-saxonne).
Selon une mode de réalisation, la sortie vidéo 29 est reliée à un répartiteur vidéo 30. Ce répartiteur peut, de la sorte, dupliquer le signal vidéo vers les moyens de visualisation 6 montés sur l'arme et vers un enregistreur 32, notamment par l'intermédiaire d'un convertisseur 33, apte à convertir les images, par exemple au format UXGA dans un format PAL ou NTSC en vue de permettre l'enregistrement des images vidéo par l'enregistreur 32.
L'enregistreur 32 est notamment un enregistreur DVD comprenant un disque dur. Cet enregistreur permet, d'une part, de mémoriser les images vidéo vues par le tireur et, d'autre part, de permettre de rejouer les séquences de tir lors de la phase d'évaluation ou de débriefing.
Le répartiteur vidéo 30 peut également dupliquer le signal vidéo vers l'écran 34 d'un instructeur afin de permettre à l'instructeur de visualiser les images du tireur.
Le moyen de traitement de l'instructeur 22 comprend une sortie vidéo 35, notamment au format UXGA, reliée à un écran 34, notamment, par l'intermédiaire d'un commutateur vidéo 36. Au moyen de ce commutateur, l'écran de l'instructeur 34 permet une visualisation soit du champ de vision du tireur augmenté des cibles virtuelles, soit de l'interface homme-machine du poste de l'instructeur générée par le moyen de traitement de l'instructeur 22.
Le moyen de traitement du tireur 21 et le moyen de traitement de l'instructeur 22 peuvent être connectés ensemble via notamment un concentrateur Ethernet 37.
Les données correspondant aux objets virtuels à insérer dans la vidéo correspondant au paysage réel d'entraînement sont mémorisées, par exemple dans une base de données, soit sur le moyen de traitement du tireur 21 , soit sur le moyen de traitement de l'instructeur 22.
Il est également relié au moyen de traitement de l'instructeur 22 une manette de type souris ou joystick par l'intermédiaire d'un port d'entrées/sorties, notamment par l'intermédiaire du port USB (« Universal Sériai Bus » en terminologie anglo-saxonne).
Selon une variante de réalisation, il est maintenant décrit en référence à la Figure 3, une architecture matérielle du dispositif d'entraînement au tir comprenant des moyens d'analyse d'images. Cette architecture est notamment utilisée lorsque l'arme est équipée d'un capteur de mouvement ne possédant pas une bonne précision.
L'architecture matérielle illustrée en Figure 3 est équivalente à l'architecture matérielle illustrée en Figure 2, hormis le fait qu'un moyen d'analyse d'images spécifique 40 a été ajouté.
Les moyens illustrés en Figure 3 déjà présents en Figure 2 et décrits ci-dessus portent le même identifiant.
Selon cette architecture, le capteur de mouvement 9 est relié non plus au moyen de traitement du tireur 21 , mais au moyen d'analyse d'images 40 par l'intermédiaire de ports d'entrées / sorties 41 du moyen d'analyse 40.
En effet, de cette manière, le capteur de mouvement indique approximativement l'orientation (cap, tangage) des moyens de capture vidéo 5 dans l'environnement réel. A partir de cette information et de l'image en provenance des moyens de capture vidéo, le moyen d'analyse d'images 40 affine les valeurs de cap et de tangage.
Ainsi, l'analyse d'images augmente la précision de l'orientation des moyens de capture vidéo, l'orientation étant constituée des valeurs en (cap, tangage).
Selon un mode de réalisation particulier, les valeurs (cap, tangage) sont affinées en appariant des points d'intérêts contenus dans l'image vidéo en provenance des moyens de capture vidéo, avec des points d'intérêts prédéterminés du panorama global.
Le temps nécessaire à l'analyse d'image pour déterminer l'orientation est optimisé grâce à la connaissance grossière des valeurs de (cap, tangage) envoyées par le capteur de mouvement imparfait.
En outre, le capteur vidéo 5 est également relié au moyen d'analyse d'images 40 via l'entrée vidéo 42 du moyen d'analyse d'images 40. Le moyen d'analyse d'images 40 est relié aux différents moyens de traitement, notamment au moyen de traitement du tireur 21 et au moyen de traitement de l'instructeur 22, via un réseau, par exemple le réseau Ethernet.
Ce moyen d'analyse d'images 40, selon cette variante de réalisation, est dédié à l'envoi via le réseau des informations d'orientation (cap, tangage) des moyens de capture vidéo vers le moyen de traitement du tireur 21.
Ces informations sont générées, notamment au moyen de deux flux de données, à savoir le flux de données provenant du capteur de mouvement 9 et le flux de données provenant d'un algorithme d'analyse d'images.
Il est maintenant décrit l'architecture logicielle pour la mise en œuvre du système d'entraînement au tir conformément à l'invention, en référence à la Figure 4.
Cette architecture logicielle est présentée en référence à l'architecture matérielle illustrée en Figure 2.
Selon cette mise en œuvre, le moyen de traitement du tireur 21 est équipé de moyen de traitement de la réalité augmentée 45 notamment du logiciel D'FUSION de la société TOTAL IMMERSION.
La réalité augmentée consiste à mélanger des images de synthèse, aussi appelées objets virtuels avec des images réelles issues du moyen de capture vidéo 5.
Le moyen de traitement de la réalité augmentée réalise l'ajout d'objets virtuels dans une vidéo et la visualisation issue de cet ajout en temps réel, générant ainsi des vidéos de réalité augmentée en temps réel.
Pour ce faire, le moyen de traitement du tireur 21 mélange des images de synthèse et les images réelles en temps réel, c'est-à-dire opère le traitement à une cadence d'images vidéo de 50 trames par seconde ou de 60 trames par seconde en fonction du standard des moyens de capture vidéo.
Le moyen de traitement du tireur 21 , outre le fait de contenir un logiciel de traitement de réalité augmentée, comprend différents modules logiciels permettant le traitement du système d'entraînement au tir. L'un des modules consiste en un module de gestion de la mise de feu 44 apte à gérer la récupération de l'appui sur le bouton de mise de feu par le tireur.
Un second module consiste à déterminer en temps réel la trajectoire du tir 47. Pour ce faire, ce module calcule, en temps réel, les coordonnées du projectile, notamment les coordonnées en X, Y et Z, le cap, le tangage et le roulis.
En fonction également du type de l'arme, il est possible que l'axe de visée du tireur influence la trajectoire du missile, notamment dans le cas des missiles guidés.
Un troisième module recueille des données en provenance du capteur de mouvement 48. Ces données sont fonction du type de capteur et sont par exemple le couple cap et tangage, ou l'ensemble des données cap, tangage et roulis, ou encore les coordonnées X, Y et Z et le cap, le tangage et le roulis.
Quant au moyen de traitement de l'instructeur 22, un module de contrôle 49, aussi appelé module de gestion d'exercice, est présent afin de commander notamment le passage des cibles virtuelles en temps réel sur les moyens de visualisation de l'arme.
Ce module permet d'instruire un tireur (de missile, de char, ou de toute autre arme) sous la conduite d'un instructeur.
Pour ce faire, l'instructeur commande au moyen d'une interface homme / machine et d'une manette, les cibles virtuelles à insérer dans la vidéo acquise par le moyen de capture 5 et présentées au tireur.
Ainsi, ces instructions sont, selon un mode de réalisation, transmises au moyen de traitement du tireur 21 afin que ce dernier réalise, par le logiciel de traitement de réalité augmentée 41 , l'incrustation de cibles virtuelles dans la vidéo acquise.
En outre, l'instructeur peut piloter la symbologie, c'est-à-dire le réticule aussi appelé l'aide à la visée. En effet, l'instructeur peut manipuler des symboles qui apparaissent dans l'écran de visualisation du tireur. De la sorte, il peut guider le tireur, notamment, en lui montrant une cible qu'il n'a pas vu dans le paysage ou lui demander de viser un certain point du paysage.
Une interface de communication entre le moyen de traitement du tireur 21 et le moyen de traitement de l'instructeur 22 permet de gérer les communications. En effet, pour chaque cible virtuelle à insérer, on transmet du moyen de traitement de l'instructeur 22 au moyen de traitement du tireur 21 les coordonnées de la cible, notamment en fournissant les informations suivantes : les coordonnées X, Y et Z, le cap, le tangage et le roulis et, pour chaque type de symbologie, les coordonnées de l'écran à savoir les coordonnées en X et Y.
Selon une variante de réalisation, il est maintenant décrit en référence à la Figure 5, une architecture logicielle liée à la mise en œuvre du système d'entraînement au tir comprenant des moyens d'analyse d'images. Cette architecture est notamment utilisée lorsque l'arme est équipée d'un capteur de mouvement ne possédant pas une bonne précision.
L'architecture logicielle illustrée en Figure 5 est équivalente à l'architecture logicielle illustrée en Figure 4, hormis le fait qu'un module d'analyse d'images spécifique est installé sur le moyen d'analyse d'images 40, conformément à l'architecture matérielle illustrée en Figure 3.
Les modules illustrés en Figure 5 déjà présents en Figure 4 et décrits ci-dessus portent le même identifiant.
Selon cette mise en œuvre, le moyen de traitement du tireur 21 ne reçoit plus directement les données en . provenance du capteur de mouvement 9, mais possède un module de réception de données en provenance du moyen d'analyse d'images 40, par l'intermédiaire d'une interface de communication entre le moyen de traitement du tireur et le moyen d'analyse d'images.
Le moyen d'analyse d'images 40 reçoit, d'une part, les données en provenance du capteur de mouvement 9 et, d'autre part, le flux vidéo en provenance du capteur vidéo 5. Le module d'analyse d'images analyse le flux vidéo reçu avec les données reçues du capteur de mouvement en vue de déterminer les valeurs de cap et de tangage de l'arme. Le résultat de cette analyse est émis, en temps réel, au moyen de traitement du tireur 21 par l'intermédiaire du réseau.-
Une interface de communication entre le moyen de traitement du tireur 21 et le moyen d'analyse d'images 40 permet de gérer les communications. En effet, au moyen de cette interface, on transmet les données relatives à la position de la caméra, notamment en fournissant les informations suivantes : le cap et le tangage ou le cap, le tangage et le roulis ou les coordonnées X, Y et Z, le cap, le tangage et le roulis.
Dans ces différents modes de réalisation, le moyen de traitement du tireur 21 rafraîchit les images transmises aux moyens de visualisation 6 à une fréquence compatible avec le moyen de capture vidéo 5 et les moyens de visualisation 6, à savoir 50 Hz dans le cas d'un moyen de capture vidéo au standard européen et 60 Hz dans le cas d'un moyen de capture vidéo au standard américain. Il est à noter que les moyens de visualisation doivent fonctionner à la même fréquence que le capteur vidéo.
Concernant le pointage de l'arme induit visuellement, ce dernier induit visuellement un dépointage du paysage vidéo et des cibles et du missile.
La précision du calage des cibles virtuelles dans le paysage réel capturé est fonction de la précision de la méthode de capture de mouvement, notamment en fonction de l'analyse ou non d'images.
Concernant la résolution de la capture vidéo de type haute définition, il est à noter que la norme HD-SDI 16/9 comprend 1920 pixels par 1080 lignes entrelacées et que le champ angulaire visé par l'arme du tireur est circulaire et que la résolution vidéo utile à l'intérieur du champ circulaire est de 1080 pixels par 1080 lignes entrelacées.
De même, lors de la visualisation sur l'écran de l'instructeur du champ angulaire visé par l'arme du tireur, l'écran est par exemple au format 4/3, soit une résolution de 1440 pixels par 1080 lignes.
Pour ces raisons, la résolution vidéo utilisée pour la résolution de l'affichage doit être redimensionnée. En outre, au moyen du filtrage bilinéaire de texture du moyen de traitement du tireur 21 , l'image vidéo peut être redimensionnée sans aucun artefact visuel, c'est-à-dire sans pixellisation de l'image vidéo.
Ce redimensionnement est réalisé pour l'affichage du paysage réel augmenté de cibles virtuelles dans les moyens de visualisation 6. En outre, il peut être utilisé pour l'affichage du paysage augmenté sur l'écran de l'instructeur. Dans ce cas, le redimensionnement est effectué vers un format 1280 pixels par 1024 lignes en mode SXGA, soit vers un format 1600 pixels par 1200 lignes en mode UXGA.
Les moyens de visualisation 6 sont notamment un moniteur de petite taille ; en effet, ce dernier doit être léger et peu encombrant. Les technologies pouvant être utilisées sont les suivantes : LCD miniature, LCOS, DLP, OLED.
Les moyens de visualisation imposent une certaine résolution d'affichage. Ainsi, la carte graphique du moyen de traitement du tireur est configurée pour ces moyens de visualisation spéciaux. Par exemple, l'affichage est de 1280 pixels par 1024 lignes ou 1600 pixels par 1200 lignes.
A partir de ces informations d'affichage, on décrit maintenant comment déterminer la distance à laquelle Ia cible est détectée, reconnue et identifiée par le tireur. Il est à noter qu'une cible est détectée lorsque l'on voit une cible se déplacer mais celle-ci n'est pas reconnue. Par exemple, on identifie au loin un char mais le type du char n'est pas reconnu. On appelle une cible identifiée lorsque celle-ci est bien identifiée.
Il est maintenant décrit des critères de détection, reconnaissance et identification selon deux types de résolution d'écran.
Dans un premier cas, lorsque l'affichage a une résolution de 1280 pixels par 1024 lignes et un champ de vision de 8,5 degrés (correspondant à 1024 lignes), une cible est détectée sur une ligne vidéo, la cible est reconnue lorsqu'elle est présente sur 3 lignes vidéo et elle est identifiée lorsqu'elle est présente sur 5 lignes.
Selon cet exemple, pour une cible d'une hauteur de 2 mètres, on a les résultats suivants : la détection d'une cible a lieu sur une cible à une distance supérieure à 6 km, la reconnaissance de la cible est réalisée à 4600 mètres et l'identification est faite à 2760 mètres.
Dans un second cas, lorsque l'affichage a une résolution de 1600 pixels par 1200 lignes et un champ de vision de 8,5 degrés (correspondant à 1200 lignes), une cible est détectée sur une ligne vidéo, la cible est reconnue lorsqu'elle est présente sur 3 lignes vidéo et elle est identifiée lorsqu'elle est présente sur 5 lignes.
Selon cet exemple, pour une cible d'une hauteur de 2 mètres, on a les résultats suivants : la détection d'une cible a lieu sur une cible à une distance supérieure à 6 km, la reconnaissance de la cible est réalisée à 5390 mètres et l'identification est faite à 3200 mètres.
Comme indiqué précédemment, le moyen de traitement de la réalité augmentée ajoute à un paysage réel capturé des cibles virtuelles mobiles ou immobiles en temps réel. En effet, les cibles virtuelles peuvent se déplacer dans le paysage réel capturé par le capteur vidéo.
Par exemple, les cibles de type char ou de type hélicoptère peuvent se déplacer dans le paysage capturé.
Il est en outre possible d'ajouter des effets visuels tels que l'animation du rotor d'un hélicoptère.
L'instructeur, par le moyen de traitement de l'instructeur 22, peut choisir notamment deux types de déplacement pour chaque cible.
Un premier mode consiste à déplacer la cible selon une liste de points de passage, les points de passage étant modifiables durant l'exercice par l'instructeur. Ce mode de déplacement est appelé mode « point de passage ».
Pour ce faire, le moyen de traitement de l'instructeur 22 comprend des moyens de saisie et de modification des points de passage, notamment au moyen de la manette.
Pour saisir ou modifier les points de passage des cibles, l'instructeur peut obtenir une vue de la scène. A partir de la manette, par exemple, l'instructeur peut ajouter, supprimer ou modifier un point de passage. Les points de passage apparaissent numérotés sur l'écran de l'instructeur. Les points de passage pour les véhicules terrestres sont associés au relief du terrain. Les points de passage pour les véhicules aériens ont une altitude réglable par l'instructeur.
La trajectoire de la cible virtuelle le long des points de passage est calculée par le moyen de traitement de la réalité augmentée par interpolation linéaire.
Selon un mode de réalisation, on prévoit 16 points de passage par cible virtuelle.
Un second mode de déplacement consiste à déplacer la cible par pilotage avec la manette 38 par l'instructeur. Ce mode de déplacement est appelé mode « joystick ».
Il est à noter que très souvent, la vue du tireur présente un champ de vision trop étroit pour sélectionner les points de passage.
Ainsi, le moyen de traitement de l'instructeur est équipé d'un moyen de traitement de la réalité augmentée, notamment le logiciel D'FUSION de la société TOTAL IMMERSION configuré spécifiquement pour la saisie et la modification des points de passage, ainsi que la gestion du joystick.
Pour saisir ou modifier les points de passage des cibles, l'instructeur a une vue de dessus de la scène. A l'aide notamment, du clavier et de la souris, l'instructeur peut ajouter, supprimer ou modifier un point de passage. Les points de passage apparaissent numérotés à l'écran.
Concernant les points de passage pour les véhicules terrestres, ils sont associés au relief du terrain. Alors que les points de passage pour les véhicules aériens sont associés à une altitude réglable par l'instructeur.
Le moyen de traitement de la réalité augmentée permet la gestion du basculement du mode « point de passage » au mode « joystick ». Pour ce faire, la cible virtuelle part de sa position courante.
Quand au basculement du mode « joystick » au mode « point de passage », la cible virtuelle se repositionne sur le premier point de passage défini par l'instructeur.
A partir des données de position et d'orientation des cibles virtuelles définies par l'instructeur, ces dernières sont transmises en temps réel du moyen de traitement de l'instructeur 22 au moyen de traitement du tireur 21 équipé du moyen de traitement de la réalité augmentée en vue de leur traitement en temps réel pour un affichage sur le module de visualisation du tireur en cours d'entraînement.
En outre, les cibles peuvent apparaître comme non détruites ou détruites. Par exemple, le moyen de traitement de la réalité augmentée peut ajouter la carcasse immobile d'un char détruit par le tireur.
Toutefois, la gestion de la destruction d'une cible par le moyen de traitement de la réalité augmentée peut prendre plusieurs formes.
Par exemple, dans le cas de la destruction d'un char, lorsque la cible est atteinte par le tireur lors de son entraînement, le moyen de traitement de la réalité augmentée ajoute au paysage réel l'explosion du char puis affiche la carcasse du char.
Dans le cas de la destruction d'un hélicoptère, lorsque la cible est atteinte par le tireur lors de son entraînement, le moyen de traitement de la réalité augmentée ajoute au paysage réel l'explosion de l'hélicoptère, puis l'hélicoptère disparaît.
Toutefois, trois effets d'explosion de la cible virtuelle peuvent être mis en œuvre par le moyen de traitement de la réalité augmentée. Il s'agit, tout d'abord, de l'explosion suite à l'impact du tir sur le sol ou sur un élément du décor, ensuite, de l'explosion de la cible virtuelle suite à l'impact du tir sur une cible virtuelle aérienne, enfin, de l'explosion de la cible virtuelle suite à l'impact du tir sur une cible virtuelle terrestre.
Le moyen de traitement de la réalité augmentée gère chaque explosion par un objet virtuel de type « bilboard » dans lequel est joué une texture détourée. Toutefois, il s'agit d'une vidéo spécifique en fonction du type d'impact.
Un objet virtuel de type « bilboard » est un objet de synthèse constitué des éléments suivants : un rectangle d'épaisseur nulle et d'une texture appliquée sur ce rectangle. Le rectangle est positionné sur le sol en face de la caméra. La texture appliquée peut être une texture dynamique provenant d'un film stocké sur le disque dur. Par exemple, dans le cas d'une explosion, on a un film « explosion », qui se retrouve dans ce rectangle. En outre, les bords du rectangle ne sont pas vus, celui-ci étant transparent.
Cependant, dans le cas d'un impact sur le sol ou sur un élément du paysage réel, par exemple une maison, le paysage peut ne pas être visuellement modifié.
Lors d'un tir d'entraînement par un tireur, on détermine la distance d1 du tir par rapport au terrain dans le paysage, c'est-à-dire le point du terrain dans l'axe du tir. Puis, on détermine la distance d(N) du tir par rapport à la cible virtuelle N.
Selon un mode de réalisation simplifié, la distance d(N) est la distance entre le centre de gravité du tir et le centre de gravité de la cible.
A l'issue du calcul de ces distances, un algorithme d'affichage des effets d'explosion comprend un premier test permettant de déterminer si la distance d1 de tir par rapport au terrain dans le paysage est inférieure à une distance-seuil. Si tel est le cas, alors on détermine les coordonnées X, Y et Z de l'impact du tir et on déclenche l'ajout et l'affichage de l'explosion suite à l'impact du tir sur le terrain.
On détermine également si la distance d(N) du tir par rapport à la cible virtuelle N est inférieure à une distance-seuil. Si tel est le cas, alors on détermine les coordonnées X, Y et Z de l'impact du tir et on déclenche l'ajout et l'affichage de l'explosion suite à l'impact du tir sur la cible virtuelle et ensuite l'affichage de la cible virtuelle N détruite.
Dans le cas d'un tir de type missile, ce dernier est matérialisé par un objet virtuel 3D principalement vu de l'arrière. En outre, afin de simuler la fumée du missile, on affiche M objets de type « bilboard » circulaires dont on a appliqué une texture avec la gestion des paramètres alpha et transparence, afin d'obtenir une traînée de fumée réaliste.
L'affichage du missile peut être différé de quelques millisecondes après la réception de l'information de la mise de feu de façon à simuler le temps que met le missile à sortir du canon de l'arme.
Il est à noter que la trajectoire du missile est mémorisée afin de pouvoir positionner les M objets de type « bilboard » le long de la trajectoire. Pour la gestion des cibles virtuelles et des impacts au sol, il est nécessaire de disposer d'objets virtuels en mémoire, notamment, au sein d'une base de données, du terrain, c'est-à-dire du sol et des bâtiments.
Lors de l'utilisation du dispositif d'entraînement au tir, il est nécessaire d'installer l'arme sur le terrain réel et de procéder, avant le début de l'exercice, au recalage du terrain de synthèse par rapport au terrain réel.
Pour ce faire, un outil de localisation permet, au moyen d'un appariement de points, d'extraire la position du capteur vidéo dans le repère du terrain de synthèse. Ainsi, il est possible de caler le terrain réel avec le terrain de synthèse. Cet appariement consiste à associer des points du terrain de synthèse à leur équivalent dans la vidéo capturée.
A partir de quelques points appariés, l'outil de localisation détermine la position du capteur vidéo dans le repère du terrain de synthèse, le terrain de synthèse étant une modélisation en trois dimensions du terrain réel.
Cette technologie permet à l'instructeur d'installer le système à n'importe quel endroit d'un théâtre d'opération dans un temps raisonnable notamment au moyen de la modélisation en trois dimensions de celui-ci.
Selon un mode de réalisation particulier, un récepteur GPS (« Global Positioning System » en terminologie anglo-saxonne) peut être associé à l'arme afin que celle-ci puisse être localisée sur le terrain réel.
Le récepteur GPS envoie alors les diverses coordonnées de positionnement de l'arme sur le terrain réel.
Une fois ces informations reçues par l'outil de localisation, il est possible de localiser le capteur vidéo, notamment de deux manières.
Selon un premier mode de réalisation, on associe des points virtuels à des points réels du flux vidéo, capturés comme précédemment décrit.
Selon un second mode de réalisation, on cale, de manière angulaire, le terrain de synthèse au moyen notamment d'une manette. Le terrain de synthèse est alors affiché en transparence sur l'image vidéo pour permettre le calage.
Le moyen de traitement de la réalité augmentée est également apte à traiter l'occultation. En effet, au moment du départ du coup, un objet de type « bilboard » circulaire et texture est affiché à l'écran. Au cours de l'éloignement du coup, le coefficient de transparence est modifié pour passer d'un aspect opaque à un aspect transparent. La position de l'objet de type « bilboard » est couplée à la position du missile pour obtenir un effet d'occultation plus réaliste.
En outre, le moyen de traitement de la réalité augmentée peut afficher un réticule de visée. Ce dernier peut être contrôlé de façon à le faire apparaître ou disparaître et modifier sa position sur l'écran de visée.
De plus, le moyen de traitement de la réalité augmentée peut permettre l'ajout d'une information supplémentaire d'aide à la visée, par exemple, au moyen d'un chevron. Cette information peut également être contrôlée de façon à la faire apparaître ou disparaître et ajuster sa position sur l'écran de visée selon les coordonnées en X et en Y.
Le moyen de traitement du tireur 21 comprend des hauts parleurs permettant de reproduire également les effets sonores induits par le tir.
A cet effet, sur réception d'une information de mise de feu, le moyen de traitement du tireur 21 active un son représentant le départ du tir, notamment par le lancement d'un fichier audio de type « .wav ». De même, si le tir atteint le sol, un élément du paysage ou une cible virtuelle, un fichier son est activé afin de représenter le bruit de l'impact.
Comme illustré en Figure 2 et 3, l'architecture matérielle peut être munie d'un enregistreur, notamment d'un enregistreur DVD avec disque dur, de manière à enregistrer le contenu de la vue du tireur.
Ainsi, le rejeu de l'exercice de tir est possible en effectuant une relecture du film vidéo mémorisé par l'enregistreur.
La présence d'un disque dur sur l'enregistreur permet le rejeu sans obligation de graver l'exercice de tir sur un support.
De même, il est possible d'enregistrer les informations de positionnement et d'orientation des cibles, les informations de positionnement et d'orientation des missiles et les informations de positionnement et d'axe de visée de l'arme. Ainsi, à l'issue de l'exercice d'entraînement au tir, les informations sont disponibles pour analyser l'exercice, notamment au moyen d'un module logiciel d'analyse de l'exercice. Le système d'entraînement au tir comme précédemment décrit, peut être utilisé dans différents contextes.
En effet, il est possible d'utiliser le système d'entraînement au tir en salle. Dans ce cas, le système est placé devant une maquette d'un paysage dans laquelle des cibles virtuelles sont ajoutées par le moyen de traitement de la réalité augmentée. La maquette doit préalablement être modélisée.
En outre, il est possible d'utiliser le système d'entraînement au tir sur un terrain réel. Pour ce faire, il est nécessaire d'avoir modélisé un terrain de synthèse, ce dernier correspondant au terrain réel.
A titre d'illustration, le moyen de traitement du tireur 21 peut être un ordinateur individuel ayant les caractéristiques suivantes :
- processeur Pentium IV, 3 Ghz, ayant notamment le système d'exploitation Windows XP Pro, service pack 2,
- mémoire vive ou RAM de 1Go et disque dur 80 Go,
- carte mère avec bus PCI-X et PCI-Express.
- carte d'acquisition DeckLink HD.
- carte graphique Nvidia GeForceθ (6800 GT) ou ATI Radeon X800XT.
Les moyens de capture vidéo 5 sont par exemple une caméra haute définition de type Sony HDR-FX1. Le convertisseur 23 de la sortie composante HD-YUV vers la norme HD-SDI est notamment un convertisseur AJA HD 1OA. Le répartiteur vidéo 30 UXGA est par exemple le répartiteur Komelec MSV1004. Le commutateur vidéo 36 est notamment un commutateur Comprehensive Video HRS-2x1-SVA / 2x1 VGA/UXGA High Resolution Vertical Switcher. Le convertisseur 33 est par exemple le convertisseur Folsom ViewMax. Enfin, l'enregistreur 32 est un enregistreur de DVD Philips HDRW 720 ayant un disque Dur de 80 Go.

Claims

REVENDICATIONS
1. Dispositif d'entraînement au tir à partir d'une arme, caractérisé en ce que le dispositif comprend :
- des moyens de capture vidéo aptes à capturer un champ angulaire visé par l'arme,
- des moyens de mesure d'angles aptes à déterminer au moins un angle représentatif de la position de l'arme,
- des moyens de traitement aptes à insérer, en temps réel, au moins une image de synthèse dans le champ capturé, selon les informations de position reçues desdits moyens de mesure d'angles, et
- des moyens de visualisation du champ capturé contenant ladite au moins une image de synthèse insérée.
2. Dispositif d'entraînement selon la revendication 1 , caractérisé en ce que le dispositif comprend des moyens de commande, en temps réel, aptes à commander les moyens de traitement pour l'insertion d'images de synthèse.
3. Dispositif d'entrainement selon l'une quelconque des revendications précédentes, caractérisé en ce que l'arme est une arme réelle.
4. Dispositif d'entrainement selon l'une quelconque des revendications précédentes, caractérisé en ce que l'arme comprenant des moyens de visée, le dispositif d'entrainement comprend des moyens optique d'adaptation aptes à permettre la visualisation d'une image dans les moyens de visée à partir des moyens de visualisation du champ de vision capturé contenant les images de synthèse insérées.
5. Dispositif d'entrainement selon l'une quelconque des revendications précédentes, caractérisé en ce que les informations de position reçues desdits moyens de mesure d'angles sont le cap et le tangage.
6. Dispositif d'entrainement selon l'une quelconque des revendications précédentes, caractérisé en ce que le dispositif comprend en outre, des moyens de pilotage aptes à piloter, en temps réel, les moyens de traitement aptes à insérer des images de synthèse.
7. Dispositif d'entrainement selon l'une quelconque des revendications précédentes, caractérisé en ce que le dispositif comprend des moyens de localisation apte à déterminer la position des moyens de capture vidéo dans le repère d'un terrain de synthèse en trois dimensions, le terrain de synthèse étant une modélisation correspondant à au moins un élément du champ angulaire capturé.
8. Dispositif d'entrainement selon la revendication 7, caractérisé en ce que les moyens de localisation comprennent des moyens d'appariement, en temps réel, de points du terrain de synthèse avec des points correspondant dans le champ angulaire capturé.
9. Dispositif d'entrainement selon la revendication 7, caractérisé en ce que le dispositif comprend des moyens de calage du terrain de synthèse sur le champ angulaire capturé.
10. Dispositif d'entrainement selon l'une quelconque des revendications précédentes, caractérisé en ce que le dispositif comprend un récepteur de localisation apte à localiser le dispositif.
11. Dispositif d'entrainement selon l'une quelconque des revendications précédentes, caractérisé en ce que le dispositif comprend des moyens d'analyse d'image aptes à augmenter la précision des mesures réalisées par les moyens de mesure d'angles.
PCT/FR2006/001936 2005-08-09 2006-08-09 Dispositif d'entrainement au tir a partir d'une arme WO2007017599A1 (fr)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP06794318A EP1913326A1 (fr) 2005-08-09 2006-08-09 Dispositif d'entrainement au tir a partir d'une arme
US12/063,519 US20090305198A1 (en) 2005-08-09 2006-08-09 Gunnery training device using a weapon

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR0552477 2005-08-09
FR0552477A FR2889736A3 (fr) 2005-08-09 2005-08-09 Systeme d'entrainement au tir mettant en oeuvre une arme reelle

Publications (1)

Publication Number Publication Date
WO2007017599A1 true WO2007017599A1 (fr) 2007-02-15

Family

ID=37591878

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/FR2006/001936 WO2007017599A1 (fr) 2005-08-09 2006-08-09 Dispositif d'entrainement au tir a partir d'une arme

Country Status (4)

Country Link
US (1) US20090305198A1 (fr)
EP (1) EP1913326A1 (fr)
FR (1) FR2889736A3 (fr)
WO (1) WO2007017599A1 (fr)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2101138A1 (fr) * 2007-12-14 2009-09-16 Honeywell International Inc. Système de formation de tireurs

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100003652A1 (en) * 2006-11-09 2010-01-07 Israel Aerospace Industries Ltd. Mission training center instructor operator station apparatus and methods useful in conjunction therewith
US10107595B1 (en) * 2017-06-20 2018-10-23 Cubic Corporation Indirect fire mission training system
EP3794428A1 (fr) * 2018-05-15 2021-03-24 Thermo Fisher Scientific Inc. Environnement de réalité virtuelle collaboratif pour l'entraînement
AU2020386866A1 (en) 2019-11-18 2022-06-09 Elbit Systems Ltd. A system and method for mixed reality

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0090323A1 (fr) * 1982-03-30 1983-10-05 Günter Löwe Dispositif d'entraînement pour l'instruction de tir de missiles guidés, en particulier de missiles sol-sol
EP0100719A1 (fr) * 1982-07-29 1984-02-15 GIRAVIONS DORAND, Société dite: Dispositif de simulation de tir pour l'entraînement à la manoeuvre d'armes épaulables ou analogues
EP0118604A2 (fr) * 1982-11-16 1984-09-19 Brunswick Corporation Simulateur de cible visuel pour l'entraînement à l'extérieur
DE3736929A1 (de) * 1987-10-30 1989-05-11 Precitronic Verfahren und vorrichtung zur ausbildung an geschuetzen im freien
DE19606685A1 (de) * 1996-01-26 1997-07-31 Industrieanlagen Betriebsges Verfahren und Vorrichtung zur Gefechtssimulation mit mindestens einem real in einer Umgebung bzw. Gelände operierenden beweglichen Waffensystem und einem quasi ortsfesten Simulator
FR2794230A1 (fr) * 1999-05-27 2000-12-01 Matra Bae Dynamics France Systeme d'entrainement au tir sur cible simulee

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050123883A1 (en) * 2003-12-09 2005-06-09 Kennen John S. Simulated hunting apparatus and method for using same

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0090323A1 (fr) * 1982-03-30 1983-10-05 Günter Löwe Dispositif d'entraînement pour l'instruction de tir de missiles guidés, en particulier de missiles sol-sol
EP0100719A1 (fr) * 1982-07-29 1984-02-15 GIRAVIONS DORAND, Société dite: Dispositif de simulation de tir pour l'entraînement à la manoeuvre d'armes épaulables ou analogues
EP0118604A2 (fr) * 1982-11-16 1984-09-19 Brunswick Corporation Simulateur de cible visuel pour l'entraînement à l'extérieur
DE3736929A1 (de) * 1987-10-30 1989-05-11 Precitronic Verfahren und vorrichtung zur ausbildung an geschuetzen im freien
DE19606685A1 (de) * 1996-01-26 1997-07-31 Industrieanlagen Betriebsges Verfahren und Vorrichtung zur Gefechtssimulation mit mindestens einem real in einer Umgebung bzw. Gelände operierenden beweglichen Waffensystem und einem quasi ortsfesten Simulator
FR2794230A1 (fr) * 1999-05-27 2000-12-01 Matra Bae Dynamics France Systeme d'entrainement au tir sur cible simulee

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2101138A1 (fr) * 2007-12-14 2009-09-16 Honeywell International Inc. Système de formation de tireurs

Also Published As

Publication number Publication date
EP1913326A1 (fr) 2008-04-23
US20090305198A1 (en) 2009-12-10
FR2889736A1 (fr) 2007-02-16
FR2889736A3 (fr) 2007-02-16

Similar Documents

Publication Publication Date Title
US10789764B2 (en) Systems and associated methods for creating a viewing experience
US11880932B2 (en) Systems and associated methods for creating a viewing experience
EP2132710B1 (fr) Procede et dispositifs de realite augmentee utilisant un suivi automatique, en temps reel, d'objets geometriques planaires textures, sans marqueur, dans un flux video
US9892563B2 (en) System and method for generating a mixed reality environment
KR102493185B1 (ko) 깊이 힌트를 사용하는 깊이 추정 모델의 자가 감독 훈련
FR2556827A1 (fr) Dispositif d'entrainement au tir en salle
FR2531201A1 (fr) Dispositif de simulation de tir pour l'entrainement a la manoeuvre d'armes epaulables ou analogues
EP0068937A1 (fr) Procédé de formation d'une cible fictive dans un appareil pour l'entraînement au pointage de cibles
EP3397919B2 (fr) Procédé et dispositif de simulation de tourelle
WO2016183954A1 (fr) Procédé et appareil de calcul pour un emplacement de mouvement, et terminal
WO2007017599A1 (fr) Dispositif d'entrainement au tir a partir d'une arme
CN104969264A (zh) 用于将注解添加到全光光场的方法和设备
FR3033649A1 (fr) Equipement aeroporte de detection de tirs et d'aide au pilotage
Galvin Crime Scene Documentation: Preserving the Evidence and the Growing Role of 3D Laser Scanning
WO2007125247A1 (fr) Procede de traitement d'images d'un simulateur
EP3011548B1 (fr) Procédé de mise en oeuvre d'un essai de simulation d'une situation relle comprenant une génération de différents contextes virtuels
EP4252417A1 (fr) Jumelles de visee de simulation, et systeme et procedes de simulation
US20140375562A1 (en) System and Process for Human-Computer Interaction Using a Ballistic Projectile as an Input Indicator
Wahyudi et al. A novel system to visualize aerial weapon scoring system (AWSS) using 3D mixed reality
WO2020169613A1 (fr) Dispositif et procédé d'analyse de tir
WO2020079157A1 (fr) Dispositif et procede d'analyse de tir
FR2968113A1 (fr) Procede de simulation de tirs au-dela de la vue directe et simulateur de tirs apte a mettre en oeuvre le procede
FR3091582A1 (fr) Fusil permettant une simulation précise d’une séquence de tir avec calcul du point d’impact du ou des projectiles
FR2529660A2 (fr) Procede de formation d'une cible fictive, modifiee suivant le terrain, dans un appareil pour l'entrainement au pointage de cibles
FR2794230A1 (fr) Systeme d'entrainement au tir sur cible simulee

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application
NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2006794318

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 2006794318

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 12063519

Country of ref document: US