EP1913326A1 - Gunnery training device using a weapon - Google Patents

Gunnery training device using a weapon

Info

Publication number
EP1913326A1
EP1913326A1 EP06794318A EP06794318A EP1913326A1 EP 1913326 A1 EP1913326 A1 EP 1913326A1 EP 06794318 A EP06794318 A EP 06794318A EP 06794318 A EP06794318 A EP 06794318A EP 1913326 A1 EP1913326 A1 EP 1913326A1
Authority
EP
European Patent Office
Prior art keywords
weapon
field
synthetic
video
processing means
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
EP06794318A
Other languages
German (de)
French (fr)
Inventor
Valentin Lefevre
Laurent Chabin
Emmanuel Marin
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GDI SIMULATION
Original Assignee
Total Immersion
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Total Immersion filed Critical Total Immersion
Publication of EP1913326A1 publication Critical patent/EP1913326A1/en
Ceased legal-status Critical Current

Links

Classifications

    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41AFUNCTIONAL FEATURES OR DETAILS COMMON TO BOTH SMALLARMS AND ORDNANCE, e.g. CANNONS; MOUNTINGS FOR SMALLARMS OR ORDNANCE
    • F41A33/00Adaptations for training; Gun simulators
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41JTARGETS; TARGET RANGES; BULLET CATCHERS
    • F41J9/00Moving targets, i.e. moving when fired at
    • F41J9/14Cinematographic targets, e.g. moving-picture targets

Definitions

  • the present invention relates to a device for training firing from a weapon allowing a user to train in a real context but with the insertion of virtual objects in the field of vision.
  • the invention more specifically relates to a firing training device or a firing simulator, in particular from a real weapon in a real context.
  • the systems for practicing shooting practice are today mainly carried out with non-real weapons dedicated specifically to training.
  • the reproduction of weapons tries to perfectly respect the dimensions, the mass and the ergonomics of the real system.
  • the systems also use certain imaging techniques to model a visual environment of the battlefield, including synthetic sets in which are present targets also in computer graphics.
  • the present invention aims first and foremost to provide a device for training firing from a weapon, characterized in that the device comprises:
  • video capture means capable of capturing an angular field targeted by the weapon
  • processing means capable of inserting, in real time, at least one synthetic image into the captured field, according to the position information received from said angle measuring means, and
  • the device according to the invention makes it possible to perform firing training in real conditions, that is to say on a real theater of operations.
  • real interaction is created, in real time, between a weapon and a real context on the one hand, and virtual objects representing targets, fixed or moving, on the other hand.
  • the virtual targets are able to be positioned by means of the measurements obtained by the means for measuring angles.
  • the device comprises control means, in real time, able to control the processing means for the insertion of synthetic images.
  • the weapon is a real weapon.
  • the training can be performed from a real weapon, the training is all the more real and less expensive because does not require creation of a false weapon.
  • the weapon comprising sighting means
  • the driving device comprises optical adaptation means adapted to allow the visualization of an image in the sighting means from the display means of the field of captured vision containing inserted synthetic images.
  • the position information received from said angle measuring means is heading and pitch.
  • the device further comprises driving means adapted to drive, in real time, the processing means capable of inserting synthetic images.
  • the device comprises locating means capable of determining the position of the video capture means in the reference mark of a three-dimensional synthetic field, the synthetic field being a model corresponding to at least one element of the field. angular captured.
  • the synthetic field comprises geometry information for determining the location of the capture means, so that the subsequent insertion of the synthesis images is carried out quickly and in an adjusted manner.
  • the locating means comprise means for matching, in real time, points of the synthetic field with corresponding points in the captured angular field.
  • the device comprises means for setting the synthetic field on the captured angular field.
  • the device comprises a location receiver able to locate the device, in particular a GPS.
  • the device comprises image analysis means able to increase the accuracy of the measurements made by the angle measuring means.
  • FIG. 1 shows schematically a shooting training device according to the invention
  • FIG. 2 illustrates a hardware architecture of the firing training device according to a first embodiment according to the invention
  • FIG. 3 illustrates a hardware architecture of the firing training device according to a second embodiment according to the invention
  • FIG. 4 is a hardware or software architecture of the firing training device according to the first embodiment illustrated in FIG. 2;
  • FIG. 5 is a hardware or software architecture of the firing training device according to the second embodiment illustrated in FIG. 3.
  • a real weapon 1 includes a barrel 2, a viewfinder 3 and possibly a tripod 4, so as to carry the weapon.
  • the tripod is not always necessary.
  • the viewfinder 3 is in particular an optical system mounted on the barrel, so that the optical axis is almost coincident with the axis of the barrel.
  • the parallax that is the apparent angular displacement of a body observed from two different points, is negligible.
  • the weapon comprises viewing means 6. These viewing means allow the shooter to see a sharp image, for example through the viewfinder 3. They include for example a video monitor 7 and an optical matching unit 8 The video monitor is small so that it can be adapted to the weapon. In addition, to get as real a rendering as possible, the video monitor is high definition.
  • the weapon means for measuring angles also called motion sensors or angular sensors based on different technologies, for example an inertial unit, laser positioning, optical encoders, monitoring by analysis of image also called tracking in Anglo-Saxon terminology.
  • a motion sensor allows in particular to know the orientation of the weapon, for example in the case of a weapon on a tripod.
  • the motion sensor also makes it possible to indicate the position and the orientation of the weapon, for example in the case of a weapon free of its movements, in particular in the case of a missile launcher positioned on the shoulder of the shooter.
  • the video from the video capture means is modified in real time, so as to add to the real scenes virtual targets that the shooter must reach.
  • This architecture comprises video capture means 5, in particular a high-definition camera and viewing means 6 enabling the shooter to visualize the real landscape augmented with virtual targets.
  • the augmented real landscape can include visual effects, including the addition of virtual elements to the landscape.
  • visual effects including the addition of virtual elements to the landscape.
  • it is allowed to add virtual buildings, to hide the vision when leaving the stroke. For example, an opaque smoke is simulated at the moment of firing and becomes clearer with time.
  • the hardware architecture comprises a first processing means 21 called the shooter's processing means, capable of generating the augmented video images of virtual objects constituting the marksmanship targets and a second processing means 22 called the processing means of the shooter. instructor, able to control the appearance of virtual targets on video images.
  • the video sensor 5 is connected to the processing means of the shooter 21 via a converter 23 of the component output HD-YUV to the HD-SDI ("High Definition Serial Digital Interface" in English terminology), especially in 16/9 format.
  • the signal converting HD-SDI is then sent to the HD-SDI input 24 of the shooter processing means 21.
  • YUV is an analog video interface that physically separates three luminance (Y), the chrominance component 1 (U) and the chrominance component 2 (V) physically to three conductors to connect a video source to a processing means.
  • the architecture is also based on a firing button 25 present on the weapon.
  • This button is connected to an input / output port 26 of the processing means of the shooter 21.
  • the port can be in particular the serial port, the parallel port, the USB port, the analog input on a PCI card ("Peripheral Component Interconnect "in English terminology).
  • the motion sensor 9 added to the weapon as shown in FIG. 1 is also connected to an input / output port 26 of the shooter's processing means 21.
  • the shooter processing means 21 is equipped with an audio output 27 making it possible to connect loudspeakers 28 and a video output 29.
  • the audio output 27 is intended to reproduce the sound effects caused by firing, explosions, destruction of virtual targets, etc.
  • the video output 29 is connected to the display means 6 mounted on the weapon so as to display in the viewfinder of the weapon the real landscape, corresponding to the angular field targeted by the shooter's weapon, augmented by virtual targets and visual effects.
  • the video output is in particular UXGA format ("Ultra eXtended Graphics Array" in English terminology).
  • the video output 29 is connected to a video splitter 30.
  • This splitter can, in this way, duplicate the video signal to the display means 6 mounted on the weapon and to a recorder 32, in particular by means of a video recorder.
  • a converter 33 able to convert the images, for example in UXGA format in PAL or NTSC format to allow the recording of video images by the recorder 32.
  • the recorder 32 is notably a DVD recorder including a hard disk. This recorder makes it possible, on the one hand, to memorize the video images seen by the shooter and, on the other hand, to make it possible to replay the shooting sequences during the evaluation or debriefing phase.
  • the video splitter 30 may also duplicate the video signal to an instructor's monitor 34 to allow the instructor to view the shooter's images.
  • the instructor processing means 22 comprises a video output 35, in particular in the UXGA format, connected to a screen 34, in particular via a video switch 36.
  • a video switch 36 By means of this switch, the screen of the instructor 34 allows visualization of either the shooter's field of view augmented with the virtual targets, or the man-machine interface of the instructor station generated by the instructor processing means 22.
  • the shooter processing means 21 and the instructor processing means 22 may be connected together via, in particular, an Ethernet concentrator 37.
  • the data corresponding to the virtual objects to be inserted in the video corresponding to the real training landscape are stored, for example in a database, either on the processing means of the shooter 21, or on the instructor processing means 22. .
  • a hardware architecture of the firing training device comprising image analysis means.
  • This architecture is used in particular when the weapon is equipped with a motion sensor that does not have good accuracy.
  • the hardware architecture illustrated in FIG. 3 is equivalent to the hardware architecture illustrated in FIG. 2, except that a specific image analysis means 40 has been added.
  • the motion sensor 9 is no longer connected to the processing means of the shooter 21, but to the image analysis means 40 via input / output ports 41 of the analysis means 40.
  • the motion sensor indicates approximately the orientation (heading, pitch) of the video capture means 5 in the real environment. From this information and the image from the video capture means, the image analysis means 40 refines the heading and pitch values.
  • the image analysis increases the accuracy of the orientation of the video capture means, the orientation being constituted by values in (heading, pitch).
  • the values are refined by matching points of interest contained in the video image from the video capture means, with predetermined points of interest of the global panorama.
  • the time required for image analysis to determine the orientation is optimized by the rough knowledge of the (heading, pitch) values sent by the imperfect motion sensor.
  • the video sensor 5 is also connected to the image analysis means 40 via the video input 42 of the image analysis means 40.
  • the image analysis means 40 is connected to the various processing means, in particular to the processing means of the shooter 21 and to the processing means of the instructor 22, via a network, for example the Ethernet network.
  • This image analysis means 40 is dedicated to the sending via the network of orientation information (heading, pitching) of the video capture means to the shooter processing means 21.
  • This information is generated, in particular by means of two data streams, namely the flow of data coming from the motion sensor 9 and the data flow coming from an image analysis algorithm.
  • the shooter processing means 21 is equipped with augmented reality processing means 45, in particular with the FUSION software of TOTAL IMMERSION.
  • Augmented reality consists of mixing synthetic images, also called virtual objects with real images from the video capture means 5.
  • the augmented reality processing means realizes the addition of virtual objects in a video and the visualization resulting from this addition in real time, thus generating augmented reality videos in real time.
  • the shooter processing means 21 mixes synthetic images and real images in real time, that is to say operates the processing at a video frame rate of 50 frames per second or 60 frames. per second according to the standard video capture means.
  • the shooter processing means 21 in addition to containing an augmented reality processing software, comprises various software modules for processing the shooting training system.
  • One of the modules consists of a fire management module 44 able to manage the recovery of the support on the firing button by the shooter.
  • a second module consists in determining in real time the trajectory of the firing 47. To do this, this module calculates, in real time, the coordinates of the projectile, in particular the coordinates in X, Y and Z, the heading, the pitch and the roll. .
  • the aiming axis of the shooter influences the trajectory of the missile, particularly in the case of guided missiles.
  • a third module collects data from the motion sensor 48. These data are a function of the type of sensor and are, for example, the pitch and pitch torque, or all the heading, pitch and roll data, or the X coordinates. Y and Z and course, pitch and roll.
  • a control module 49 also called exercise management module, is present to control in particular the passage of virtual targets in real time on the display means of the weapon.
  • This module is used to instruct a shooter (missile, tank, or any other weapon) under the guidance of an instructor.
  • the instructor controls by means of a man / machine interface and a joystick, the virtual targets to be inserted in the video acquired by the capture means 5 and presented to the shooter.
  • these instructions are, according to one embodiment, transmitted to the processing means of the shooter 21 so that the latter makes, by the augmented reality processing software 41, the incrustation of virtual targets in the acquired video.
  • the instructor can control the symbology, that is to say the reticle also called the aiming aid.
  • the instructor can manipulate symbols that appear in the shooter's viewing screen. In this way, he can guide the shooter, for example, by showing him a target he has not seen in the landscape or asking him to aim at a certain point of the landscape.
  • a communication interface between the shooter processing means 21 and the instructor processing means 22 makes it possible to manage the communications. Indeed, for each virtual target to be inserted, the instructor processing means 22 is transmitted by means of the firer 21 processing the coordinates of the target, in particular by providing the following information: the coordinates X, Y and Z, the heading, pitch and roll and, for each type of symbology, the coordinates of the screen namely the coordinates in X and Y.
  • a software architecture related to the implementation of the firing training system comprising image analysis means.
  • This architecture is used in particular when the weapon is equipped with a motion sensor that does not have good accuracy.
  • the software architecture illustrated in FIG. 5 is equivalent to the software architecture illustrated in FIG. 4, except that a specific image analysis module is installed on the image analysis means 40, in accordance with FIG. hardware architecture illustrated in Figure 3.
  • the shooter processing means 21 no longer receives the data directly. from the motion sensor 9, but has a data receiving module from the image analysis means 40, via a communication interface between the shooter processing means and the analysis means images.
  • the image analysis means 40 receives, on the one hand, the data coming from the motion sensor 9 and, on the other hand, the video stream coming from the video sensor 5.
  • the image analysis module analyzing the received video stream with the data received from the motion sensor to determine the heading and pitch values of the weapon. The result of this analysis is issued, in real time, by means of processing the shooter 21 via the network.
  • a communication interface between the shooter processing means 21 and the image analysis means 40 makes it possible to manage the communications. Indeed, by means of this interface, the data relating to the position of the camera is transmitted, in particular by providing the following information: heading and pitch or heading, pitch and roll or X, Y and Z coordinates , course, pitch and roll.
  • the shooter processing means 21 refreshes the images transmitted to the display means 6 at a frequency compatible with the video capture means 5 and the display means 6, namely 50 Hz in the case of European standard video capture means and 60 Hz in the case of an American standard video capture means. It should be noted that the display means must operate at the same frequency as the video sensor.
  • the latter visually induces a misalignment of the video landscape and the targets and the missile.
  • the precision of the calibration of the virtual targets in the captured real landscape is a function of the precision of the motion capture method, in particular according to the analysis or not of images.
  • the HD-SDI 16/9 standard includes 1920 pixels by 1080 interlaced lines and that the angular field targeted by the shooter's weapon is circular and that the resolution Useful video inside the circular field is 1080 pixels by 1080 interlaced lines.
  • the screen when viewing on the instructor screen of the angular field targeted by the gun of the shooter, the screen is for example 4/3, a resolution of 1440 pixels by 1080 lines.
  • the video resolution used for the resolution of the display must be resized.
  • the video image can be resized without any visual artefact, i.e. without rasterization of the video image.
  • This resizing is performed for the display of the actual landscape augmented with virtual targets in the viewing means 6.
  • it can be used for display of the augmented landscape on the instructor's screen.
  • the resizing is performed to a format of 1280 pixels by 1024 lines in SXGA mode, ie to 1600 pixels by 1200 lines in UXGA mode.
  • the viewing means 6 are in particular a small monitor; indeed, the latter must be light and compact. Technologies that can be used are: LCD miniature, LCOS, DLP, OLED.
  • the display means impose a certain display resolution.
  • the graphics card of the shooter processing means is configured for these special display means.
  • the display is 1280 pixels by 1024 lines or 1600 pixels by 1200 lines.
  • a target is detected when we see a target move but it is not recognized. For example, a tank is identified in the distance but the type of tank is not recognized. An identified target is called when it is well identified.
  • the display has a resolution of 1280 pixels by 1024 lines and a field of view of 8.5 degrees (corresponding to 1024 lines)
  • a target is detected on a video line
  • the target is recognized when it is present on 3 video lines and it is identified when it is present on 5 lines.
  • the detection of a target takes place on a target at a distance greater than 6 km, the reconnaissance of the target is carried out at 4600 meters and the identification is made at 2760 meters.
  • a target is detected on a video line, the target is recognized when it is present on 3 video lines and it is identified when it is present on 5 lines.
  • the augmented reality processing means adds to a real landscape captured moving virtual targets or immobile in real time. Indeed, virtual targets can move in the actual landscape captured by the video sensor.
  • char or helicopter type targets may move in the captured landscape.
  • the instructor by the instructor processing means 22, can choose in particular two types of displacement for each target.
  • a first mode is to move the target according to a list of waypoints, the waypoints are editable during the exercise by the instructor. This mode of displacement is called "waypoint" mode.
  • the instructor processing means 22 comprises means for entering and modifying the passage points, in particular by means of the joystick.
  • the instructor can get a view of the scene. From the controller, for example, the instructor can add, delete, or modify a waypoint.
  • the waypoints appear numbered on the instructor's screen.
  • the crossing points for land vehicles are associated with terrain relief.
  • the crossing points for the aerial vehicles have an altitude adjustable by the instructor.
  • the trajectory of the virtual target along the waypoints is calculated by the augmented reality processing means by linear interpolation.
  • a second mode of displacement is to move the target by driving with the controller 38 by the instructor. This mode of displacement is called "joystick" mode.
  • the instructor processing means is equipped with an augmented reality processing means, in particular the TOTAL IMMERSION FUSION software configured specifically for entering and modifying the crossing points, as well as the joystick management.
  • the instructor To enter or change the target waypoints, the instructor has a top view of the scene. With the help of the keyboard and mouse, the instructor can add, delete or modify a waypoint. The waypoints appear numbered on the screen.
  • crossing points for land vehicles they are associated with terrain relief. While the crossing points for aerial vehicles are associated with an adjustable altitude by the instructor.
  • the augmented reality processing means makes it possible to manage the switching from the "waypoint” mode to the "joystick” mode. To do this, the virtual target starts from its current position.
  • the latter are transmitted in real time from the medium instructor processing 22 by means of processing the shooter 21 equipped with the augmented reality processing means for their processing in real time for display on the display module of the shooter during training.
  • targets may appear as not destroyed or destroyed.
  • the augmented reality processing means may add the immovable carcass of a tank destroyed by the shooter.
  • managing the destruction of a target by the augmented reality processing means can take many forms.
  • the augmented reality processing means adds to the actual landscape the explosion of the tank then displays the carcass of the tank .
  • the augmented reality processing means adds to the real landscape the explosion of the helicopter, then the helicopter disappears.
  • three explosion effects of the virtual target can be implemented by the augmented reality processing means. It is, first of all, the explosion following the impact of the shooting on the ground or on a piece of the scenery, then, the explosion of the virtual target following the impact of the shooting on a virtual target aerial, finally, the explosion of the virtual target following the impact of the shot on a virtual target terrestrial.
  • the augmented reality processing means manages each explosion by a virtual object of the "bilboard" type in which a cut texture is played. However, it is a specific video depending on the type of impact.
  • a virtual object of type "bilboard” is a synthesis object composed of the following elements: a rectangle of zero thickness and a texture applied on this rectangle.
  • the rectangle is positioned on the floor in front of the camera.
  • the applied texture can be a dynamic texture from a film stored on the hard disk. For example, in the case of an explosion, one has a movie "explosion", which is found in this rectangle. In addition, the edges of the rectangle are not seen, the latter being transparent.
  • the landscape may not be visually modified.
  • the distance d1 of the shot relative to the terrain in the landscape is determined, that is to say the point of the ground in the axis of the shot. Then, we determine the distance d (N) of the shot with respect to the virtual target N.
  • the distance d (N) is the distance between the center of gravity of the shot and the center of gravity of the target.
  • an explosion effect display algorithm includes a first test to determine if the distance d1 firing from the terrain in the landscape is less than a threshold distance. If this is the case, then we determine the X, Y and Z coordinates of the impact of the firing and we trigger the addition and display of the explosion following the impact of the shooting on the ground.
  • a missile-type missile In the case of a missile-type missile, the latter is materialized by a 3D virtual object mainly seen from the rear.
  • M circular "bilboard" objects are displayed which have been applied with the alpha and transparency parameters management, in order to obtain a realistic smoke trail.
  • the missile display may be delayed a few milliseconds after receiving the firing information so as to simulate the missile's time out of the barrel of the weapon.
  • the trajectory of the missile is memorized in order to be able to position the M objects of "bilboard” type along the trajectory.
  • virtual objects For the management of virtual targets and ground impacts, it is necessary to have virtual objects in memory, in particular, within a database, the ground, that is to say the soil and buildings .
  • a location tool makes it possible, by means of a pairing of points, to extract the position of the video sensor in the reference point of the synthetic field.
  • This pairing consists of associating points of the synthetic field with their equivalent in the captured video.
  • the location tool determines the position of the video sensor in the reference of the synthetic field, the synthetic field being a three-dimensional modeling of the real terrain.
  • This technology allows the instructor to install the system anywhere in a theater in a reasonable amount of time, including three-dimensional modeling of the theater.
  • a GPS receiver (“Global Positioning System” in English terminology) can be associated with the weapon so that it can be located on the real ground.
  • the GPS receiver then sends the various positioning coordinates of the weapon on the real terrain.
  • the location tool it is possible to locate the video sensor, including two ways.
  • virtual points are associated with real points of the video stream, captured as previously described.
  • the ground of synthesis is angularly staggered, in particular by means of a joystick.
  • the synthetic field is then displayed in transparency on the video image to allow calibration.
  • the augmented reality processing means is also able to process the occultation. Indeed, at the moment of the departure of the blow, an object of the type Circular "bilboard" and texture is displayed on the screen. During the move away, the transparency coefficient is changed from an opaque aspect to a transparent aspect. The position of the "bilboard" type object is coupled to the position of the missile to obtain a more realistic occultation effect.
  • the augmented reality processing means may display a targeting reticle. This can be controlled to make it appear or disappear and change its position on the viewing screen.
  • the augmented reality processing means may allow additional information to be added to the aim, for example by means of a chevron. This information can also be controlled to make it appear or disappear and adjust its position on the viewing screen according to the X and Y coordinates.
  • the shooter processing means 21 includes loudspeakers for reproducing also the sound effects induced by the shot.
  • the shooter processing means 21 activates a sound representing the start of the shot, in particular by launching an audio file of ".wav" type. Similarly, if the shot reaches the ground, a landscape element or a virtual target, a sound file is activated to represent the sound of the impact.
  • the hardware architecture may be provided with a recorder, including a DVD recorder with hard disk, so as to record the contents of the view of the shooter.
  • the replay of the shooting exercise is possible by performing a replay of the video film stored by the recorder.
  • the presence of a hard disk on the recorder allows the replay without obligation to burn the shooting exercise on a support.
  • the information is available to analyze the exercise, in particular by means of an exercise analysis software module.
  • the firing training system as previously described, can be used in different contexts.
  • the system is placed in front of a model of a landscape in which virtual targets are added by the augmented reality processing means.
  • the model must first be modeled.
  • the processing means of the shooter 21 may be an individual computer having the following characteristics:
  • Pentium IV processor 3 Ghz, including the Windows XP Pro operating system, service pack 2,
  • the video capture means 5 are, for example, a high-definition camera of the Sony HDR-FX1 type.
  • the converter 23 of the HD-YUV component output to the HD-SDI standard is in particular an AJA HD 1OA converter.
  • the UXGA video splitter 30 is for example the Komelec MSV1004 splitter.
  • the video switch 36 is in particular a Comprehensive Video HRS-2x1-SVA / 2x1 VGA / UXGA High Resolution Vertical Switcher switch.
  • the converter 33 is for example the Folsom ViewMax converter.
  • the recorder 32 is a Philips HDRW 720 DVD recorder having an 80 GB hard drive.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Processing Or Creating Images (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Aiming, Guidance, Guns With A Light Source, Armor, Camouflage, And Targets (AREA)

Abstract

The invention relates to a gunnery training device using a weapon (1), said device being characterised in that it comprises video capturing means (5) for capturing the field of vision, angular capturing means for detecting angles defining the position of insertion of the synthesis images, processing means (21, 22) for inserting, in real-time, synthesis images into the captured field of vision, and means for visualising (6) the captured field of vision containing said at least one inserted synthesis image.

Description

DISPOSITIF D'ENTRAINEMENT AU TlR A PARTIR D'UNE ARME DEVICE FOR DRIVING TlR FROM AN ARMY
La présente invention concerne un dispositif d'entraînement au tir à partir d'une arme permettant à un utilisateur de s'entraîner dans un contexte réel mais avec l'insertion d'objets virtuels dans le champ de vision.The present invention relates to a device for training firing from a weapon allowing a user to train in a real context but with the insertion of virtual objects in the field of vision.
L'invention a plus précisément pour objet un dispositif d'entraînement au tir ou un simulateur de tir, notamment à partir d'une arme réelle dans un contexte réel.The invention more specifically relates to a firing training device or a firing simulator, in particular from a real weapon in a real context.
L'entraînement au tir utilisé notamment par les militaires consiste en l'utilisation d'armes non réelles dans un contexte aussi réel que possible. L'entrainement est réalisé à partir de différents types d'armes, par exemple : fusil, char, lanceur de missile.Shooting training used by the military in particular involves the use of non-real weapons in a context as real as possible. The training is made from different types of weapons, for example: rifle, tank, missile launcher.
Les systèmes permettant de s'entraîner au tir sont aujourd'hui réalisés principalement au moyen d'armes non réelles dédiées spécifiquement aux entraînements. La reproduction des armes tente de respecter parfaitement les dimensions, la masse et l'ergonomie du système réel.The systems for practicing shooting practice are today mainly carried out with non-real weapons dedicated specifically to training. The reproduction of weapons tries to perfectly respect the dimensions, the mass and the ergonomics of the real system.
Toutefois, bien qu'il soit reproduit des armes aussi proches que possible des armes réelles, ces armes restent des reproductions et peuvent avoir des comportements différents des armes réelles.However, although weapons are as close to real weapons as possible, these weapons are still reproductions and may be different from actual weapons.
Les systèmes font également appel à certaines techniques de l'imagerie pour modéliser un l'environnement visuel du champ de bataille, notamment des décors de synthèse dans lesquels sont présentes des cibles également en images de synthèse.The systems also use certain imaging techniques to model a visual environment of the battlefield, including synthetic sets in which are present targets also in computer graphics.
Ces systèmes ont un faible niveau de réalisme étant donné que les décors sont modélisés en imagerie de synthèse. De plus, la préparation d'une scène d'entraînement est coûteuse. En outre, la scène d'entraînement doit être entièrement remodélisée de façon réaliste (avec la géométrie, les textures et les matériaux) si le terrain d'entraînement est différent.These systems have a low level of realism since the sets are modeled in synthetic imaging. In addition, preparing a training scene is expensive. In addition, the training scene must be completely remodeled in a realistic way (with geometry, textures and materials) if the training ground is different.
De plus, ces systèmes ne fonctionnent que dans une salle, c'est-à- dire bien loin des conditions réelles. Compte tenu de ce qui précède, il serait par conséquent intéressant de pouvoir réaliser un dispositif d'entrainement au tir aussi bien à partir d'armes réelles que dans un contexte réel dans lequel peuvent varier la position de l'arme, ainsi que le lieu et le moment d'apparition des objets virtuels cibles tout en s'affranchissant d'au moins certains des inconvénients mentionnés ci- dessus.In addition, these systems only work in a room, that is to say far from real conditions. In view of the foregoing, it would therefore be interesting to be able to make a training device in shooting from real weapons as well as in a real context in which the position of the weapon can vary, as well as the place and the time of appearance of the target virtual objects while avoiding at least some of the disadvantages mentioned above.
La présente invention vise en premier lieu à fournir un dispositif d'entrainement au tir à partir d'une arme, caractérisé en ce que le dispositif comprend :The present invention aims first and foremost to provide a device for training firing from a weapon, characterized in that the device comprises:
- des moyens de capture vidéo aptes à capturer un champ angulaire visé par l'arme,video capture means capable of capturing an angular field targeted by the weapon,
- des moyens de mesure d'angles aptes à déterminer au moins un angle représentatif de la position de l'arme,means for measuring angles capable of determining at least one angle representative of the position of the weapon,
- des moyens de traitement aptes à insérer, en temps réel, au moins une image de synthèse dans le champ capturé, selon les informations de position reçues desdits moyens de mesure d'angles, etprocessing means capable of inserting, in real time, at least one synthetic image into the captured field, according to the position information received from said angle measuring means, and
- des moyens de visualisation du champ capturé contenant ladite au moins une image de synthèse insérée.means for displaying the captured field containing said at least one inserted synthetic image.
Le dispositif selon l'invention permet d'effectuer un entraînement au tir dans des conditions réelles c'est-à-dire sur un vrai théâtre d'opérations. Pour ce faire, il est créé une interaction réelle, en temps réel, entre une arme et un contexte réel d'une part, et des objets virtuels représentant des cibles, fixes ou en mouvement, d'autre part.The device according to the invention makes it possible to perform firing training in real conditions, that is to say on a real theater of operations. To do this, real interaction is created, in real time, between a weapon and a real context on the one hand, and virtual objects representing targets, fixed or moving, on the other hand.
Les cibles virtuelles sont aptes à être positionnées au moyen des mesures obtenues par les moyens de mesure d'angles.The virtual targets are able to be positioned by means of the measurements obtained by the means for measuring angles.
Selon un mode de réalisation particulier, le dispositif comprend des moyens de commande, en temps réel, aptes à commander les moyens de traitement pour l'insertion d'images de synthèse.According to a particular embodiment, the device comprises control means, in real time, able to control the processing means for the insertion of synthetic images.
Selon une caractéristique particulière, l'arme est une arme réelle.According to one particular characteristic, the weapon is a real weapon.
Selon cette caractéristique, l'entraînement pouvant être effectué à partir d'une arme réelle, l'entrainement est d'autant plus réel et moins coûteux car ne nécessite pas de création d'une fausse arme. Selon un mode de réalisation particulier, l'arme comprenant des moyens de visée, le dispositif d'entraînement comprend des moyens optique d'adaptation aptes à permettre la visualisation d'une image dans les moyens de visée à partir des moyens de visualisation du champ de vision capturé contenant les images de synthèse insérées.According to this characteristic, the training can be performed from a real weapon, the training is all the more real and less expensive because does not require creation of a false weapon. According to a particular embodiment, the weapon comprising sighting means, the driving device comprises optical adaptation means adapted to allow the visualization of an image in the sighting means from the display means of the field of captured vision containing inserted synthetic images.
Selon une caractéristique particulière, les informations de position reçues desdits moyens de mesure d'angles sont le cap et le tangage.According to one particular characteristic, the position information received from said angle measuring means is heading and pitch.
Selon une autre caractéristique particulière, le dispositif comprend en outre, des moyens de pilotage aptes à piloter, en temps réel, les moyens de traitement aptes à insérer des images de synthèse.According to another particular characteristic, the device further comprises driving means adapted to drive, in real time, the processing means capable of inserting synthetic images.
Selon une caractéristique particulière, le dispositif comprend des moyens de localisation apte à déterminer la position des moyens de capture vidéo dans le repère d'un terrain de synthèse en trois dimensions, le terrain de synthèse étant une modélisation correspondant à au moins un élément du champ angulaire capturé.According to one particular characteristic, the device comprises locating means capable of determining the position of the video capture means in the reference mark of a three-dimensional synthetic field, the synthetic field being a model corresponding to at least one element of the field. angular captured.
Selon cette caractéristique, le terrain de synthèse comprend des informations de géométrie pour déterminer la localisation des moyens de capture, afin que l'insertion ultérieure des images de synthèse soit réalisée rapidement et de manière ajustée.According to this characteristic, the synthetic field comprises geometry information for determining the location of the capture means, so that the subsequent insertion of the synthesis images is carried out quickly and in an adjusted manner.
Selon un mode de réalisation, les moyens de localisation comprennent des moyens d'appariement, en temps réel, de points du terrain de synthèse avec des points correspondant dans le champ angulaire capturé.According to one embodiment, the locating means comprise means for matching, in real time, points of the synthetic field with corresponding points in the captured angular field.
Selon un autre mode de réalisation, le dispositif comprend des moyens de calage du terrain de synthèse sur le champ angulaire capturé.According to another embodiment, the device comprises means for setting the synthetic field on the captured angular field.
Selon une caractéristique particulière, le dispositif comprend un récepteur de localisation apte à localiser le dispositif, notamment un GPS.According to a particular characteristic, the device comprises a location receiver able to locate the device, in particular a GPS.
Selon une autre caractéristique particulière, le dispositif comprend des moyens d'analyse d'image aptes à augmenter la précision des mesures réalisées par les moyens de mesure d'angles.According to another particular characteristic, the device comprises image analysis means able to increase the accuracy of the measurements made by the angle measuring means.
D'autres aspects et avantages de la présente invention apparaîtront plus clairement à la lecture de la description qui va suivre, cette description étant donnée uniquement à titre d'exemple non limitatif et faite en référence aux dessins annexés, dans lesquels :Other aspects and advantages of the present invention will appear more clearly on reading the description which follows, this description being given solely by way of nonlimiting example and with reference to the appended drawings, in which:
- la figure 1 représente de façon schématique un dispositif d'entraînement au tir conforme à l'invention ;- Figure 1 shows schematically a shooting training device according to the invention;
- la figure 2 illustre une architecture matérielle du dispositif d'entraînement au tir selon un premier mode de réalisation conformément à l'invention ;FIG. 2 illustrates a hardware architecture of the firing training device according to a first embodiment according to the invention;
- la figure 3 illustre une architecture matérielle du dispositif d'entraînement au tir selon un second mode de réalisation conformément à l'invention ;FIG. 3 illustrates a hardware architecture of the firing training device according to a second embodiment according to the invention;
- la figure 4 est une architecture matérielle ou logicielle du dispositif d'entraînement au tir selon le premier mode de réalisation illustré en figure 2 ; etFIG. 4 is a hardware or software architecture of the firing training device according to the first embodiment illustrated in FIG. 2; and
- la figure 5 est une architecture matérielle ou logicielle du dispositif d'entraînement au tir selon le second mode de réalisation illustré en figure 3.FIG. 5 is a hardware or software architecture of the firing training device according to the second embodiment illustrated in FIG. 3.
La description de l'invention est réalisée à partir d'une arme réelle, par exemple un fusil, telle qu'illustrée à la figure 1. Toutefois, la mise en œuvre peut être réalisée sur tout type d'arme, réelle ou non.The description of the invention is made from a real weapon, for example a rifle, as shown in Figure 1. However, the implementation can be performed on any type of weapon, real or not.
Tel qu'illustré à la Figure 1 , une arme réelle 1 comprend un canon 2, un viseur 3 et éventuellement un trépied 4, de façon à porter l'arme. Toutefois, en fonction de l'arme, le trépied n'est pas toujours nécessaire.As illustrated in Figure 1, a real weapon 1 includes a barrel 2, a viewfinder 3 and possibly a tripod 4, so as to carry the weapon. However, depending on the weapon, the tripod is not always necessary.
Le viseur 3 est notamment un système optique monté sur le canon, de telle sorte que l'axe optique soit quasiment confondu avec l'axe du canon. La parallaxe, c'est-à-dire le déplacement angulaire apparent d'un corps observé à partir de deux points différents, est négligeable.The viewfinder 3 is in particular an optical system mounted on the barrel, so that the optical axis is almost coincident with the axis of the barrel. The parallax, that is the apparent angular displacement of a body observed from two different points, is negligible.
Pour réaliser un dispositif d'entraînement au tir à partir d'une arme réelle, on fixe de façon rigide des moyens de capture vidéo 5, notamment une caméra vidéo haute définition. L'axe optique de la caméra est quasiment confondu avec l'axe du canon ; la parallaxe est donc négligeable. De la sorte, la caméra est apte à acquérir un flux vidéo correspondant à la vision du tireur. Les moyens de capture vidéo sont aptes à capturer un champ angulaire visé par l'arme. En outre, l'arme comprend des moyens de visualisation 6. Ces moyens de visualisation permettent au tireur de voir une image nette, par exemple à travers le viseur 3. Ils comprennent par exemple un moniteur vidéo 7 et un bloc optique d'adaptation 8. Le moniteur vidéo est de petite taille afin de pouvoir être adapté sur l'arme. De plus, afin d'obtenir un rendu aussi réel que possible, le moniteur vidéo est de haute définition.To make a firing training device from a real weapon, it is rigidly fixed video capture means 5, including a high-definition video camera. The optical axis of the camera is almost confused with the axis of the barrel; parallax is negligible. In this way, the camera is able to acquire a video stream corresponding to the view of the shooter. The video capture means are capable of capturing an angular field targeted by the weapon. In addition, the weapon comprises viewing means 6. These viewing means allow the shooter to see a sharp image, for example through the viewfinder 3. They include for example a video monitor 7 and an optical matching unit 8 The video monitor is small so that it can be adapted to the weapon. In addition, to get as real a rendering as possible, the video monitor is high definition.
On peut également ajouter à l'arme des moyens de mesure d'angles, 9 aussi appelés capteur de mouvement ou capteur angulaire basés sur différentes technologies, par exemple une centrale inertielle, un positionnement laser, des encodeurs optiques, un suivi par analyse d'image aussi appelé tracking en terminologie anglo-saxonne.It is also possible to add to the weapon means for measuring angles, also called motion sensors or angular sensors based on different technologies, for example an inertial unit, laser positioning, optical encoders, monitoring by analysis of image also called tracking in Anglo-Saxon terminology.
Un capteur de mouvement permet notamment de connaître l'orientation de l'arme, par exemple dans le cas d'une arme posée sur un trépied.A motion sensor allows in particular to know the orientation of the weapon, for example in the case of a weapon on a tripod.
Le capteur de mouvement permet également d'indiquer la position et l'orientation de l'arme, par exemple dans le cas d'une arme libre de ses mouvements, notamment dans le cas d'un lanceur de missile positionné sur l'épaule du tireur.The motion sensor also makes it possible to indicate the position and the orientation of the weapon, for example in the case of a weapon free of its movements, in particular in the case of a missile launcher positioned on the shoulder of the shooter.
En vue de réaliser un entrainement au tir, la vidéo issue des moyens de capture vidéo est modifiée en temps réel, de manière à ajouter sur les scènes réelles des cibles virtuelles que le tireur doit atteindre.In order to perform a shooting training, the video from the video capture means is modified in real time, so as to add to the real scenes virtual targets that the shooter must reach.
Pour ce faire, une architecture matérielle du dispositif d'entraînement au tir est maintenant décrite en référence à la Figure 2. Cette architecture est notamment utilisée lorsque l'arme est équipée d'un capteur de mouvement possédant une bonne précision.To do this, a hardware architecture of the training device shooting is now described with reference to Figure 2. This architecture is used in particular when the weapon is equipped with a motion sensor having a good accuracy.
Cette architecture comprend des moyens de capture vidéo 5, notamment une caméra haute définition et des moyens de visualisation 6 permettant au tireur de visualiser le paysage réel augmenté de cibles virtuelles.This architecture comprises video capture means 5, in particular a high-definition camera and viewing means 6 enabling the shooter to visualize the real landscape augmented with virtual targets.
En outre, le paysage réel augmenté peut comprendre des effets visuels, notamment l'ajout d'éléments virtuels sur le paysage. Ainsi, il est permis d'ajouter des bâtiments virtuels, d'occulter la vision lors du départ du coup. Par exemple on simule une fumée opaque au moment du tir et qui s'éclaircit au fur et à mesure du temps.In addition, the augmented real landscape can include visual effects, including the addition of virtual elements to the landscape. Thus, it is allowed to add virtual buildings, to hide the vision when leaving the stroke. For example, an opaque smoke is simulated at the moment of firing and becomes clearer with time.
L'architecture matérielle comprend un premier moyen de traitement 21 appelé moyen de traitement du tireur, apte à générer les images vidéo augmentées d'objets virtuels constituant les cibles d'entraînement au tir et un second moyen de traitement 22 appelé moyen de traitement de l'instructeur, apte à contrôler l'apparition des cibles virtuelles sur les images vidéo.The hardware architecture comprises a first processing means 21 called the shooter's processing means, capable of generating the augmented video images of virtual objects constituting the marksmanship targets and a second processing means 22 called the processing means of the shooter. instructor, able to control the appearance of virtual targets on video images.
Le capteur vidéo 5 est relié au moyen de traitement du tireur 21 par l'intermédiaire d'un convertisseur 23 de la sortie composante HD-YUV vers la norme HD-SDI (« High Définition Sériai Digital Interface » en terminologie anglo-saxonne), notamment au format 16/9. Le signal convertit HD-SDI est ensuite envoyé sur l'entrée HD-SDI 24 du moyen de traitement du tireur 21.The video sensor 5 is connected to the processing means of the shooter 21 via a converter 23 of the component output HD-YUV to the HD-SDI ("High Definition Serial Digital Interface" in English terminology), especially in 16/9 format. The signal converting HD-SDI is then sent to the HD-SDI input 24 of the shooter processing means 21.
YUV désigne une interface vidéo analogique qui sépare physiquement sur trois conducteurs, la luminance (Y), la composante chrominance 1 (U) et la composante chrominance 2 (V) pour relier une source vidéo à un moyen de traitement.YUV is an analog video interface that physically separates three luminance (Y), the chrominance component 1 (U) and the chrominance component 2 (V) physically to three conductors to connect a video source to a processing means.
L'architecture s'appuie également sur un bouton de mise de feu 25 présent sur l'arme. Ce bouton est relié à un port d'entrées / sorties 26 du moyen de traitement du tireur 21. Le port peut être notamment le port série, le port parallèle, le port USB, l'entrée analogique sur une carte PCI (« Peripheral Component Interconnect » en terminologie anglo-saxonne).The architecture is also based on a firing button 25 present on the weapon. This button is connected to an input / output port 26 of the processing means of the shooter 21. The port can be in particular the serial port, the parallel port, the USB port, the analog input on a PCI card ("Peripheral Component Interconnect "in English terminology).
Le capteur de mouvement 9 ajouté sur l'arme tel que montré en Figure 1 est également connecté à un port d'entrées / sorties 26 du moyen de traitement du tireur 21.The motion sensor 9 added to the weapon as shown in FIG. 1 is also connected to an input / output port 26 of the shooter's processing means 21.
Le moyen de traitement du tireur 21 est équipé d'une sortie audio 27 permettant de connecter des hauts parleurs 28 et d'une sortie vidéo 29.The shooter processing means 21 is equipped with an audio output 27 making it possible to connect loudspeakers 28 and a video output 29.
La sortie audio 27 a pour objectif de reproduire les effets sonores provoqués par la mise de feu, les explosions, la destruction des cibles virtuelles, etc.The audio output 27 is intended to reproduce the sound effects caused by firing, explosions, destruction of virtual targets, etc.
La sortie vidéo 29 est reliée aux moyens de visualisation 6 monté sur l'arme de façon à afficher dans le viseur de l'arme le paysage réel, correspondant au champ angulaire visé par l'arme du tireur, augmenté de cibles virtuelles et d'effets visuels.The video output 29 is connected to the display means 6 mounted on the weapon so as to display in the viewfinder of the weapon the real landscape, corresponding to the angular field targeted by the shooter's weapon, augmented by virtual targets and visual effects.
La sortie vidéo est notamment au format UXGA (« Ultra eXtended Graphics Array » en terminologie anglo-saxonne).The video output is in particular UXGA format ("Ultra eXtended Graphics Array" in English terminology).
Selon une mode de réalisation, la sortie vidéo 29 est reliée à un répartiteur vidéo 30. Ce répartiteur peut, de la sorte, dupliquer le signal vidéo vers les moyens de visualisation 6 montés sur l'arme et vers un enregistreur 32, notamment par l'intermédiaire d'un convertisseur 33, apte à convertir les images, par exemple au format UXGA dans un format PAL ou NTSC en vue de permettre l'enregistrement des images vidéo par l'enregistreur 32.According to one embodiment, the video output 29 is connected to a video splitter 30. This splitter can, in this way, duplicate the video signal to the display means 6 mounted on the weapon and to a recorder 32, in particular by means of a video recorder. intermediate of a converter 33, able to convert the images, for example in UXGA format in PAL or NTSC format to allow the recording of video images by the recorder 32.
L'enregistreur 32 est notamment un enregistreur DVD comprenant un disque dur. Cet enregistreur permet, d'une part, de mémoriser les images vidéo vues par le tireur et, d'autre part, de permettre de rejouer les séquences de tir lors de la phase d'évaluation ou de débriefing.The recorder 32 is notably a DVD recorder including a hard disk. This recorder makes it possible, on the one hand, to memorize the video images seen by the shooter and, on the other hand, to make it possible to replay the shooting sequences during the evaluation or debriefing phase.
Le répartiteur vidéo 30 peut également dupliquer le signal vidéo vers l'écran 34 d'un instructeur afin de permettre à l'instructeur de visualiser les images du tireur.The video splitter 30 may also duplicate the video signal to an instructor's monitor 34 to allow the instructor to view the shooter's images.
Le moyen de traitement de l'instructeur 22 comprend une sortie vidéo 35, notamment au format UXGA, reliée à un écran 34, notamment, par l'intermédiaire d'un commutateur vidéo 36. Au moyen de ce commutateur, l'écran de l'instructeur 34 permet une visualisation soit du champ de vision du tireur augmenté des cibles virtuelles, soit de l'interface homme-machine du poste de l'instructeur générée par le moyen de traitement de l'instructeur 22.The instructor processing means 22 comprises a video output 35, in particular in the UXGA format, connected to a screen 34, in particular via a video switch 36. By means of this switch, the screen of the instructor 34 allows visualization of either the shooter's field of view augmented with the virtual targets, or the man-machine interface of the instructor station generated by the instructor processing means 22.
Le moyen de traitement du tireur 21 et le moyen de traitement de l'instructeur 22 peuvent être connectés ensemble via notamment un concentrateur Ethernet 37.The shooter processing means 21 and the instructor processing means 22 may be connected together via, in particular, an Ethernet concentrator 37.
Les données correspondant aux objets virtuels à insérer dans la vidéo correspondant au paysage réel d'entraînement sont mémorisées, par exemple dans une base de données, soit sur le moyen de traitement du tireur 21 , soit sur le moyen de traitement de l'instructeur 22.The data corresponding to the virtual objects to be inserted in the video corresponding to the real training landscape are stored, for example in a database, either on the processing means of the shooter 21, or on the instructor processing means 22. .
Il est également relié au moyen de traitement de l'instructeur 22 une manette de type souris ou joystick par l'intermédiaire d'un port d'entrées/sorties, notamment par l'intermédiaire du port USB (« Universal Sériai Bus » en terminologie anglo-saxonne).It is also connected to the instructor processing means 22 a mouse or joystick-type joystick via an input / output port, especially via the USB port ("Universal Serial Bus" in English terminology).
Selon une variante de réalisation, il est maintenant décrit en référence à la Figure 3, une architecture matérielle du dispositif d'entraînement au tir comprenant des moyens d'analyse d'images. Cette architecture est notamment utilisée lorsque l'arme est équipée d'un capteur de mouvement ne possédant pas une bonne précision.According to an alternative embodiment, it is now described with reference to FIG. 3, a hardware architecture of the firing training device comprising image analysis means. This architecture is used in particular when the weapon is equipped with a motion sensor that does not have good accuracy.
L'architecture matérielle illustrée en Figure 3 est équivalente à l'architecture matérielle illustrée en Figure 2, hormis le fait qu'un moyen d'analyse d'images spécifique 40 a été ajouté.The hardware architecture illustrated in FIG. 3 is equivalent to the hardware architecture illustrated in FIG. 2, except that a specific image analysis means 40 has been added.
Les moyens illustrés en Figure 3 déjà présents en Figure 2 et décrits ci-dessus portent le même identifiant.The means illustrated in FIG. 3 already present in FIG. 2 and described above bear the same identifier.
Selon cette architecture, le capteur de mouvement 9 est relié non plus au moyen de traitement du tireur 21 , mais au moyen d'analyse d'images 40 par l'intermédiaire de ports d'entrées / sorties 41 du moyen d'analyse 40.According to this architecture, the motion sensor 9 is no longer connected to the processing means of the shooter 21, but to the image analysis means 40 via input / output ports 41 of the analysis means 40.
En effet, de cette manière, le capteur de mouvement indique approximativement l'orientation (cap, tangage) des moyens de capture vidéo 5 dans l'environnement réel. A partir de cette information et de l'image en provenance des moyens de capture vidéo, le moyen d'analyse d'images 40 affine les valeurs de cap et de tangage.Indeed, in this way, the motion sensor indicates approximately the orientation (heading, pitch) of the video capture means 5 in the real environment. From this information and the image from the video capture means, the image analysis means 40 refines the heading and pitch values.
Ainsi, l'analyse d'images augmente la précision de l'orientation des moyens de capture vidéo, l'orientation étant constituée des valeurs en (cap, tangage).Thus, the image analysis increases the accuracy of the orientation of the video capture means, the orientation being constituted by values in (heading, pitch).
Selon un mode de réalisation particulier, les valeurs (cap, tangage) sont affinées en appariant des points d'intérêts contenus dans l'image vidéo en provenance des moyens de capture vidéo, avec des points d'intérêts prédéterminés du panorama global.According to a particular embodiment, the values (heading, pitch) are refined by matching points of interest contained in the video image from the video capture means, with predetermined points of interest of the global panorama.
Le temps nécessaire à l'analyse d'image pour déterminer l'orientation est optimisé grâce à la connaissance grossière des valeurs de (cap, tangage) envoyées par le capteur de mouvement imparfait.The time required for image analysis to determine the orientation is optimized by the rough knowledge of the (heading, pitch) values sent by the imperfect motion sensor.
En outre, le capteur vidéo 5 est également relié au moyen d'analyse d'images 40 via l'entrée vidéo 42 du moyen d'analyse d'images 40. Le moyen d'analyse d'images 40 est relié aux différents moyens de traitement, notamment au moyen de traitement du tireur 21 et au moyen de traitement de l'instructeur 22, via un réseau, par exemple le réseau Ethernet.In addition, the video sensor 5 is also connected to the image analysis means 40 via the video input 42 of the image analysis means 40. The image analysis means 40 is connected to the various processing means, in particular to the processing means of the shooter 21 and to the processing means of the instructor 22, via a network, for example the Ethernet network.
Ce moyen d'analyse d'images 40, selon cette variante de réalisation, est dédié à l'envoi via le réseau des informations d'orientation (cap, tangage) des moyens de capture vidéo vers le moyen de traitement du tireur 21.This image analysis means 40, according to this variant embodiment, is dedicated to the sending via the network of orientation information (heading, pitching) of the video capture means to the shooter processing means 21.
Ces informations sont générées, notamment au moyen de deux flux de données, à savoir le flux de données provenant du capteur de mouvement 9 et le flux de données provenant d'un algorithme d'analyse d'images.This information is generated, in particular by means of two data streams, namely the flow of data coming from the motion sensor 9 and the data flow coming from an image analysis algorithm.
Il est maintenant décrit l'architecture logicielle pour la mise en œuvre du système d'entraînement au tir conformément à l'invention, en référence à la Figure 4.It is now described the software architecture for the implementation of the firing system in accordance with the invention, with reference to Figure 4.
Cette architecture logicielle est présentée en référence à l'architecture matérielle illustrée en Figure 2.This software architecture is presented with reference to the hardware architecture illustrated in Figure 2.
Selon cette mise en œuvre, le moyen de traitement du tireur 21 est équipé de moyen de traitement de la réalité augmentée 45 notamment du logiciel D'FUSION de la société TOTAL IMMERSION.According to this implementation, the shooter processing means 21 is equipped with augmented reality processing means 45, in particular with the FUSION software of TOTAL IMMERSION.
La réalité augmentée consiste à mélanger des images de synthèse, aussi appelées objets virtuels avec des images réelles issues du moyen de capture vidéo 5.Augmented reality consists of mixing synthetic images, also called virtual objects with real images from the video capture means 5.
Le moyen de traitement de la réalité augmentée réalise l'ajout d'objets virtuels dans une vidéo et la visualisation issue de cet ajout en temps réel, générant ainsi des vidéos de réalité augmentée en temps réel.The augmented reality processing means realizes the addition of virtual objects in a video and the visualization resulting from this addition in real time, thus generating augmented reality videos in real time.
Pour ce faire, le moyen de traitement du tireur 21 mélange des images de synthèse et les images réelles en temps réel, c'est-à-dire opère le traitement à une cadence d'images vidéo de 50 trames par seconde ou de 60 trames par seconde en fonction du standard des moyens de capture vidéo.To do this, the shooter processing means 21 mixes synthetic images and real images in real time, that is to say operates the processing at a video frame rate of 50 frames per second or 60 frames. per second according to the standard video capture means.
Le moyen de traitement du tireur 21 , outre le fait de contenir un logiciel de traitement de réalité augmentée, comprend différents modules logiciels permettant le traitement du système d'entraînement au tir. L'un des modules consiste en un module de gestion de la mise de feu 44 apte à gérer la récupération de l'appui sur le bouton de mise de feu par le tireur.The shooter processing means 21, in addition to containing an augmented reality processing software, comprises various software modules for processing the shooting training system. One of the modules consists of a fire management module 44 able to manage the recovery of the support on the firing button by the shooter.
Un second module consiste à déterminer en temps réel la trajectoire du tir 47. Pour ce faire, ce module calcule, en temps réel, les coordonnées du projectile, notamment les coordonnées en X, Y et Z, le cap, le tangage et le roulis.A second module consists in determining in real time the trajectory of the firing 47. To do this, this module calculates, in real time, the coordinates of the projectile, in particular the coordinates in X, Y and Z, the heading, the pitch and the roll. .
En fonction également du type de l'arme, il est possible que l'axe de visée du tireur influence la trajectoire du missile, notamment dans le cas des missiles guidés.Depending also on the type of weapon, it is possible that the aiming axis of the shooter influences the trajectory of the missile, particularly in the case of guided missiles.
Un troisième module recueille des données en provenance du capteur de mouvement 48. Ces données sont fonction du type de capteur et sont par exemple le couple cap et tangage, ou l'ensemble des données cap, tangage et roulis, ou encore les coordonnées X, Y et Z et le cap, le tangage et le roulis.A third module collects data from the motion sensor 48. These data are a function of the type of sensor and are, for example, the pitch and pitch torque, or all the heading, pitch and roll data, or the X coordinates. Y and Z and course, pitch and roll.
Quant au moyen de traitement de l'instructeur 22, un module de contrôle 49, aussi appelé module de gestion d'exercice, est présent afin de commander notamment le passage des cibles virtuelles en temps réel sur les moyens de visualisation de l'arme.As for the instructor processing means 22, a control module 49, also called exercise management module, is present to control in particular the passage of virtual targets in real time on the display means of the weapon.
Ce module permet d'instruire un tireur (de missile, de char, ou de toute autre arme) sous la conduite d'un instructeur.This module is used to instruct a shooter (missile, tank, or any other weapon) under the guidance of an instructor.
Pour ce faire, l'instructeur commande au moyen d'une interface homme / machine et d'une manette, les cibles virtuelles à insérer dans la vidéo acquise par le moyen de capture 5 et présentées au tireur.To do this, the instructor controls by means of a man / machine interface and a joystick, the virtual targets to be inserted in the video acquired by the capture means 5 and presented to the shooter.
Ainsi, ces instructions sont, selon un mode de réalisation, transmises au moyen de traitement du tireur 21 afin que ce dernier réalise, par le logiciel de traitement de réalité augmentée 41 , l'incrustation de cibles virtuelles dans la vidéo acquise.Thus, these instructions are, according to one embodiment, transmitted to the processing means of the shooter 21 so that the latter makes, by the augmented reality processing software 41, the incrustation of virtual targets in the acquired video.
En outre, l'instructeur peut piloter la symbologie, c'est-à-dire le réticule aussi appelé l'aide à la visée. En effet, l'instructeur peut manipuler des symboles qui apparaissent dans l'écran de visualisation du tireur. De la sorte, il peut guider le tireur, notamment, en lui montrant une cible qu'il n'a pas vu dans le paysage ou lui demander de viser un certain point du paysage.In addition, the instructor can control the symbology, that is to say the reticle also called the aiming aid. Indeed, the instructor can manipulate symbols that appear in the shooter's viewing screen. In this way, he can guide the shooter, for example, by showing him a target he has not seen in the landscape or asking him to aim at a certain point of the landscape.
Une interface de communication entre le moyen de traitement du tireur 21 et le moyen de traitement de l'instructeur 22 permet de gérer les communications. En effet, pour chaque cible virtuelle à insérer, on transmet du moyen de traitement de l'instructeur 22 au moyen de traitement du tireur 21 les coordonnées de la cible, notamment en fournissant les informations suivantes : les coordonnées X, Y et Z, le cap, le tangage et le roulis et, pour chaque type de symbologie, les coordonnées de l'écran à savoir les coordonnées en X et Y.A communication interface between the shooter processing means 21 and the instructor processing means 22 makes it possible to manage the communications. Indeed, for each virtual target to be inserted, the instructor processing means 22 is transmitted by means of the firer 21 processing the coordinates of the target, in particular by providing the following information: the coordinates X, Y and Z, the heading, pitch and roll and, for each type of symbology, the coordinates of the screen namely the coordinates in X and Y.
Selon une variante de réalisation, il est maintenant décrit en référence à la Figure 5, une architecture logicielle liée à la mise en œuvre du système d'entraînement au tir comprenant des moyens d'analyse d'images. Cette architecture est notamment utilisée lorsque l'arme est équipée d'un capteur de mouvement ne possédant pas une bonne précision.According to an alternative embodiment, it is now described with reference to FIG. 5, a software architecture related to the implementation of the firing training system comprising image analysis means. This architecture is used in particular when the weapon is equipped with a motion sensor that does not have good accuracy.
L'architecture logicielle illustrée en Figure 5 est équivalente à l'architecture logicielle illustrée en Figure 4, hormis le fait qu'un module d'analyse d'images spécifique est installé sur le moyen d'analyse d'images 40, conformément à l'architecture matérielle illustrée en Figure 3.The software architecture illustrated in FIG. 5 is equivalent to the software architecture illustrated in FIG. 4, except that a specific image analysis module is installed on the image analysis means 40, in accordance with FIG. hardware architecture illustrated in Figure 3.
Les modules illustrés en Figure 5 déjà présents en Figure 4 et décrits ci-dessus portent le même identifiant.The modules illustrated in FIG. 5 already present in FIG. 4 and described above bear the same identifier.
Selon cette mise en œuvre, le moyen de traitement du tireur 21 ne reçoit plus directement les données en . provenance du capteur de mouvement 9, mais possède un module de réception de données en provenance du moyen d'analyse d'images 40, par l'intermédiaire d'une interface de communication entre le moyen de traitement du tireur et le moyen d'analyse d'images.According to this implementation, the shooter processing means 21 no longer receives the data directly. from the motion sensor 9, but has a data receiving module from the image analysis means 40, via a communication interface between the shooter processing means and the analysis means images.
Le moyen d'analyse d'images 40 reçoit, d'une part, les données en provenance du capteur de mouvement 9 et, d'autre part, le flux vidéo en provenance du capteur vidéo 5. Le module d'analyse d'images analyse le flux vidéo reçu avec les données reçues du capteur de mouvement en vue de déterminer les valeurs de cap et de tangage de l'arme. Le résultat de cette analyse est émis, en temps réel, au moyen de traitement du tireur 21 par l'intermédiaire du réseau.-The image analysis means 40 receives, on the one hand, the data coming from the motion sensor 9 and, on the other hand, the video stream coming from the video sensor 5. The image analysis module analyzing the received video stream with the data received from the motion sensor to determine the heading and pitch values of the weapon. The result of this analysis is issued, in real time, by means of processing the shooter 21 via the network.-
Une interface de communication entre le moyen de traitement du tireur 21 et le moyen d'analyse d'images 40 permet de gérer les communications. En effet, au moyen de cette interface, on transmet les données relatives à la position de la caméra, notamment en fournissant les informations suivantes : le cap et le tangage ou le cap, le tangage et le roulis ou les coordonnées X, Y et Z, le cap, le tangage et le roulis.A communication interface between the shooter processing means 21 and the image analysis means 40 makes it possible to manage the communications. Indeed, by means of this interface, the data relating to the position of the camera is transmitted, in particular by providing the following information: heading and pitch or heading, pitch and roll or X, Y and Z coordinates , course, pitch and roll.
Dans ces différents modes de réalisation, le moyen de traitement du tireur 21 rafraîchit les images transmises aux moyens de visualisation 6 à une fréquence compatible avec le moyen de capture vidéo 5 et les moyens de visualisation 6, à savoir 50 Hz dans le cas d'un moyen de capture vidéo au standard européen et 60 Hz dans le cas d'un moyen de capture vidéo au standard américain. Il est à noter que les moyens de visualisation doivent fonctionner à la même fréquence que le capteur vidéo.In these different embodiments, the shooter processing means 21 refreshes the images transmitted to the display means 6 at a frequency compatible with the video capture means 5 and the display means 6, namely 50 Hz in the case of European standard video capture means and 60 Hz in the case of an American standard video capture means. It should be noted that the display means must operate at the same frequency as the video sensor.
Concernant le pointage de l'arme induit visuellement, ce dernier induit visuellement un dépointage du paysage vidéo et des cibles et du missile.Regarding the pointing of the visually induced weapon, the latter visually induces a misalignment of the video landscape and the targets and the missile.
La précision du calage des cibles virtuelles dans le paysage réel capturé est fonction de la précision de la méthode de capture de mouvement, notamment en fonction de l'analyse ou non d'images.The precision of the calibration of the virtual targets in the captured real landscape is a function of the precision of the motion capture method, in particular according to the analysis or not of images.
Concernant la résolution de la capture vidéo de type haute définition, il est à noter que la norme HD-SDI 16/9 comprend 1920 pixels par 1080 lignes entrelacées et que le champ angulaire visé par l'arme du tireur est circulaire et que la résolution vidéo utile à l'intérieur du champ circulaire est de 1080 pixels par 1080 lignes entrelacées.Regarding the resolution of high-definition video capture, it should be noted that the HD-SDI 16/9 standard includes 1920 pixels by 1080 interlaced lines and that the angular field targeted by the shooter's weapon is circular and that the resolution Useful video inside the circular field is 1080 pixels by 1080 interlaced lines.
De même, lors de la visualisation sur l'écran de l'instructeur du champ angulaire visé par l'arme du tireur, l'écran est par exemple au format 4/3, soit une résolution de 1440 pixels par 1080 lignes.Similarly, when viewing on the instructor screen of the angular field targeted by the gun of the shooter, the screen is for example 4/3, a resolution of 1440 pixels by 1080 lines.
Pour ces raisons, la résolution vidéo utilisée pour la résolution de l'affichage doit être redimensionnée. En outre, au moyen du filtrage bilinéaire de texture du moyen de traitement du tireur 21 , l'image vidéo peut être redimensionnée sans aucun artefact visuel, c'est-à-dire sans pixellisation de l'image vidéo.For these reasons, the video resolution used for the resolution of the display must be resized. In addition, by means of the bilinear texture filtering of the shooter processing means 21, the video image can be resized without any visual artefact, i.e. without rasterization of the video image.
Ce redimensionnement est réalisé pour l'affichage du paysage réel augmenté de cibles virtuelles dans les moyens de visualisation 6. En outre, il peut être utilisé pour l'affichage du paysage augmenté sur l'écran de l'instructeur. Dans ce cas, le redimensionnement est effectué vers un format 1280 pixels par 1024 lignes en mode SXGA, soit vers un format 1600 pixels par 1200 lignes en mode UXGA.This resizing is performed for the display of the actual landscape augmented with virtual targets in the viewing means 6. In addition, it can be used for display of the augmented landscape on the instructor's screen. In this case, the resizing is performed to a format of 1280 pixels by 1024 lines in SXGA mode, ie to 1600 pixels by 1200 lines in UXGA mode.
Les moyens de visualisation 6 sont notamment un moniteur de petite taille ; en effet, ce dernier doit être léger et peu encombrant. Les technologies pouvant être utilisées sont les suivantes : LCD miniature, LCOS, DLP, OLED.The viewing means 6 are in particular a small monitor; indeed, the latter must be light and compact. Technologies that can be used are: LCD miniature, LCOS, DLP, OLED.
Les moyens de visualisation imposent une certaine résolution d'affichage. Ainsi, la carte graphique du moyen de traitement du tireur est configurée pour ces moyens de visualisation spéciaux. Par exemple, l'affichage est de 1280 pixels par 1024 lignes ou 1600 pixels par 1200 lignes.The display means impose a certain display resolution. Thus, the graphics card of the shooter processing means is configured for these special display means. For example, the display is 1280 pixels by 1024 lines or 1600 pixels by 1200 lines.
A partir de ces informations d'affichage, on décrit maintenant comment déterminer la distance à laquelle Ia cible est détectée, reconnue et identifiée par le tireur. Il est à noter qu'une cible est détectée lorsque l'on voit une cible se déplacer mais celle-ci n'est pas reconnue. Par exemple, on identifie au loin un char mais le type du char n'est pas reconnu. On appelle une cible identifiée lorsque celle-ci est bien identifiée.From this display information is now described how to determine the distance at which the target is detected, recognized and identified by the shooter. It should be noted that a target is detected when we see a target move but it is not recognized. For example, a tank is identified in the distance but the type of tank is not recognized. An identified target is called when it is well identified.
Il est maintenant décrit des critères de détection, reconnaissance et identification selon deux types de résolution d'écran.Detection, recognition and identification criteria according to two types of screen resolution are now described.
Dans un premier cas, lorsque l'affichage a une résolution de 1280 pixels par 1024 lignes et un champ de vision de 8,5 degrés (correspondant à 1024 lignes), une cible est détectée sur une ligne vidéo, la cible est reconnue lorsqu'elle est présente sur 3 lignes vidéo et elle est identifiée lorsqu'elle est présente sur 5 lignes.In the first case, when the display has a resolution of 1280 pixels by 1024 lines and a field of view of 8.5 degrees (corresponding to 1024 lines), a target is detected on a video line, the target is recognized when it is present on 3 video lines and it is identified when it is present on 5 lines.
Selon cet exemple, pour une cible d'une hauteur de 2 mètres, on a les résultats suivants : la détection d'une cible a lieu sur une cible à une distance supérieure à 6 km, la reconnaissance de la cible est réalisée à 4600 mètres et l'identification est faite à 2760 mètres.According to this example, for a target with a height of 2 meters, the following results are obtained: the detection of a target takes place on a target at a distance greater than 6 km, the reconnaissance of the target is carried out at 4600 meters and the identification is made at 2760 meters.
Dans un second cas, lorsque l'affichage a une résolution de 1600 pixels par 1200 lignes et un champ de vision de 8,5 degrés (correspondant à 1200 lignes), une cible est détectée sur une ligne vidéo, la cible est reconnue lorsqu'elle est présente sur 3 lignes vidéo et elle est identifiée lorsqu'elle est présente sur 5 lignes.In a second case, when the display has a resolution of 1600 pixels by 1200 lines and a field of view of 8.5 degrees (corresponding to 1200 lines), a target is detected on a video line, the target is recognized when it is present on 3 video lines and it is identified when it is present on 5 lines.
Selon cet exemple, pour une cible d'une hauteur de 2 mètres, on a les résultats suivants : la détection d'une cible a lieu sur une cible à une distance supérieure à 6 km, la reconnaissance de la cible est réalisée à 5390 mètres et l'identification est faite à 3200 mètres.According to this example, for a target height of 2 meters, we have the following results: the detection of a target takes place on a target at a distance greater than 6 km, the recognition of the target is carried out at 5390 meters and the identification is made at 3200 meters.
Comme indiqué précédemment, le moyen de traitement de la réalité augmentée ajoute à un paysage réel capturé des cibles virtuelles mobiles ou immobiles en temps réel. En effet, les cibles virtuelles peuvent se déplacer dans le paysage réel capturé par le capteur vidéo.As indicated above, the augmented reality processing means adds to a real landscape captured moving virtual targets or immobile in real time. Indeed, virtual targets can move in the actual landscape captured by the video sensor.
Par exemple, les cibles de type char ou de type hélicoptère peuvent se déplacer dans le paysage capturé.For example, char or helicopter type targets may move in the captured landscape.
Il est en outre possible d'ajouter des effets visuels tels que l'animation du rotor d'un hélicoptère.It is also possible to add visual effects such as the animation of the rotor of a helicopter.
L'instructeur, par le moyen de traitement de l'instructeur 22, peut choisir notamment deux types de déplacement pour chaque cible.The instructor, by the instructor processing means 22, can choose in particular two types of displacement for each target.
Un premier mode consiste à déplacer la cible selon une liste de points de passage, les points de passage étant modifiables durant l'exercice par l'instructeur. Ce mode de déplacement est appelé mode « point de passage ».A first mode is to move the target according to a list of waypoints, the waypoints are editable during the exercise by the instructor. This mode of displacement is called "waypoint" mode.
Pour ce faire, le moyen de traitement de l'instructeur 22 comprend des moyens de saisie et de modification des points de passage, notamment au moyen de la manette.To do this, the instructor processing means 22 comprises means for entering and modifying the passage points, in particular by means of the joystick.
Pour saisir ou modifier les points de passage des cibles, l'instructeur peut obtenir une vue de la scène. A partir de la manette, par exemple, l'instructeur peut ajouter, supprimer ou modifier un point de passage. Les points de passage apparaissent numérotés sur l'écran de l'instructeur. Les points de passage pour les véhicules terrestres sont associés au relief du terrain. Les points de passage pour les véhicules aériens ont une altitude réglable par l'instructeur.To enter or change target points, the instructor can get a view of the scene. From the controller, for example, the instructor can add, delete, or modify a waypoint. The waypoints appear numbered on the instructor's screen. The crossing points for land vehicles are associated with terrain relief. The crossing points for the aerial vehicles have an altitude adjustable by the instructor.
La trajectoire de la cible virtuelle le long des points de passage est calculée par le moyen de traitement de la réalité augmentée par interpolation linéaire.The trajectory of the virtual target along the waypoints is calculated by the augmented reality processing means by linear interpolation.
Selon un mode de réalisation, on prévoit 16 points de passage par cible virtuelle.According to one embodiment, there are 16 crossing points per virtual target.
Un second mode de déplacement consiste à déplacer la cible par pilotage avec la manette 38 par l'instructeur. Ce mode de déplacement est appelé mode « joystick ».A second mode of displacement is to move the target by driving with the controller 38 by the instructor. This mode of displacement is called "joystick" mode.
Il est à noter que très souvent, la vue du tireur présente un champ de vision trop étroit pour sélectionner les points de passage.It should be noted that very often, the view of the shooter has a field of vision too narrow to select the points of passage.
Ainsi, le moyen de traitement de l'instructeur est équipé d'un moyen de traitement de la réalité augmentée, notamment le logiciel D'FUSION de la société TOTAL IMMERSION configuré spécifiquement pour la saisie et la modification des points de passage, ainsi que la gestion du joystick.Thus, the instructor processing means is equipped with an augmented reality processing means, in particular the TOTAL IMMERSION FUSION software configured specifically for entering and modifying the crossing points, as well as the joystick management.
Pour saisir ou modifier les points de passage des cibles, l'instructeur a une vue de dessus de la scène. A l'aide notamment, du clavier et de la souris, l'instructeur peut ajouter, supprimer ou modifier un point de passage. Les points de passage apparaissent numérotés à l'écran.To enter or change the target waypoints, the instructor has a top view of the scene. With the help of the keyboard and mouse, the instructor can add, delete or modify a waypoint. The waypoints appear numbered on the screen.
Concernant les points de passage pour les véhicules terrestres, ils sont associés au relief du terrain. Alors que les points de passage pour les véhicules aériens sont associés à une altitude réglable par l'instructeur.Regarding the crossing points for land vehicles, they are associated with terrain relief. While the crossing points for aerial vehicles are associated with an adjustable altitude by the instructor.
Le moyen de traitement de la réalité augmentée permet la gestion du basculement du mode « point de passage » au mode « joystick ». Pour ce faire, la cible virtuelle part de sa position courante.The augmented reality processing means makes it possible to manage the switching from the "waypoint" mode to the "joystick" mode. To do this, the virtual target starts from its current position.
Quand au basculement du mode « joystick » au mode « point de passage », la cible virtuelle se repositionne sur le premier point de passage défini par l'instructeur.When switching from "joystick" mode to "waypoint" mode, the virtual target repositioned itself on the first waypoint defined by the instructor.
A partir des données de position et d'orientation des cibles virtuelles définies par l'instructeur, ces dernières sont transmises en temps réel du moyen de traitement de l'instructeur 22 au moyen de traitement du tireur 21 équipé du moyen de traitement de la réalité augmentée en vue de leur traitement en temps réel pour un affichage sur le module de visualisation du tireur en cours d'entraînement.From the position and orientation data of the virtual targets defined by the instructor, the latter are transmitted in real time from the medium instructor processing 22 by means of processing the shooter 21 equipped with the augmented reality processing means for their processing in real time for display on the display module of the shooter during training.
En outre, les cibles peuvent apparaître comme non détruites ou détruites. Par exemple, le moyen de traitement de la réalité augmentée peut ajouter la carcasse immobile d'un char détruit par le tireur.In addition, targets may appear as not destroyed or destroyed. For example, the augmented reality processing means may add the immovable carcass of a tank destroyed by the shooter.
Toutefois, la gestion de la destruction d'une cible par le moyen de traitement de la réalité augmentée peut prendre plusieurs formes.However, managing the destruction of a target by the augmented reality processing means can take many forms.
Par exemple, dans le cas de la destruction d'un char, lorsque la cible est atteinte par le tireur lors de son entraînement, le moyen de traitement de la réalité augmentée ajoute au paysage réel l'explosion du char puis affiche la carcasse du char.For example, in the case of the destruction of a tank, when the target is reached by the shooter during training, the augmented reality processing means adds to the actual landscape the explosion of the tank then displays the carcass of the tank .
Dans le cas de la destruction d'un hélicoptère, lorsque la cible est atteinte par le tireur lors de son entraînement, le moyen de traitement de la réalité augmentée ajoute au paysage réel l'explosion de l'hélicoptère, puis l'hélicoptère disparaît.In the case of the destruction of a helicopter, when the target is reached by the shooter during training, the augmented reality processing means adds to the real landscape the explosion of the helicopter, then the helicopter disappears.
Toutefois, trois effets d'explosion de la cible virtuelle peuvent être mis en œuvre par le moyen de traitement de la réalité augmentée. Il s'agit, tout d'abord, de l'explosion suite à l'impact du tir sur le sol ou sur un élément du décor, ensuite, de l'explosion de la cible virtuelle suite à l'impact du tir sur une cible virtuelle aérienne, enfin, de l'explosion de la cible virtuelle suite à l'impact du tir sur une cible virtuelle terrestre.However, three explosion effects of the virtual target can be implemented by the augmented reality processing means. It is, first of all, the explosion following the impact of the shooting on the ground or on a piece of the scenery, then, the explosion of the virtual target following the impact of the shooting on a virtual target aerial, finally, the explosion of the virtual target following the impact of the shot on a virtual target terrestrial.
Le moyen de traitement de la réalité augmentée gère chaque explosion par un objet virtuel de type « bilboard » dans lequel est joué une texture détourée. Toutefois, il s'agit d'une vidéo spécifique en fonction du type d'impact.The augmented reality processing means manages each explosion by a virtual object of the "bilboard" type in which a cut texture is played. However, it is a specific video depending on the type of impact.
Un objet virtuel de type « bilboard » est un objet de synthèse constitué des éléments suivants : un rectangle d'épaisseur nulle et d'une texture appliquée sur ce rectangle. Le rectangle est positionné sur le sol en face de la caméra. La texture appliquée peut être une texture dynamique provenant d'un film stocké sur le disque dur. Par exemple, dans le cas d'une explosion, on a un film « explosion », qui se retrouve dans ce rectangle. En outre, les bords du rectangle ne sont pas vus, celui-ci étant transparent.A virtual object of type "bilboard" is a synthesis object composed of the following elements: a rectangle of zero thickness and a texture applied on this rectangle. The rectangle is positioned on the floor in front of the camera. The applied texture can be a dynamic texture from a film stored on the hard disk. For example, in the case of an explosion, one has a movie "explosion", which is found in this rectangle. In addition, the edges of the rectangle are not seen, the latter being transparent.
Cependant, dans le cas d'un impact sur le sol ou sur un élément du paysage réel, par exemple une maison, le paysage peut ne pas être visuellement modifié.However, in the case of an impact on the ground or on an element of the actual landscape, for example a house, the landscape may not be visually modified.
Lors d'un tir d'entraînement par un tireur, on détermine la distance d1 du tir par rapport au terrain dans le paysage, c'est-à-dire le point du terrain dans l'axe du tir. Puis, on détermine la distance d(N) du tir par rapport à la cible virtuelle N.During a training shot by a shooter, the distance d1 of the shot relative to the terrain in the landscape is determined, that is to say the point of the ground in the axis of the shot. Then, we determine the distance d (N) of the shot with respect to the virtual target N.
Selon un mode de réalisation simplifié, la distance d(N) est la distance entre le centre de gravité du tir et le centre de gravité de la cible.According to a simplified embodiment, the distance d (N) is the distance between the center of gravity of the shot and the center of gravity of the target.
A l'issue du calcul de ces distances, un algorithme d'affichage des effets d'explosion comprend un premier test permettant de déterminer si la distance d1 de tir par rapport au terrain dans le paysage est inférieure à une distance-seuil. Si tel est le cas, alors on détermine les coordonnées X, Y et Z de l'impact du tir et on déclenche l'ajout et l'affichage de l'explosion suite à l'impact du tir sur le terrain.After calculating these distances, an explosion effect display algorithm includes a first test to determine if the distance d1 firing from the terrain in the landscape is less than a threshold distance. If this is the case, then we determine the X, Y and Z coordinates of the impact of the firing and we trigger the addition and display of the explosion following the impact of the shooting on the ground.
On détermine également si la distance d(N) du tir par rapport à la cible virtuelle N est inférieure à une distance-seuil. Si tel est le cas, alors on détermine les coordonnées X, Y et Z de l'impact du tir et on déclenche l'ajout et l'affichage de l'explosion suite à l'impact du tir sur la cible virtuelle et ensuite l'affichage de la cible virtuelle N détruite.It is also determined whether the distance d (N) of the shot relative to the virtual target N is less than a threshold distance. If this is the case, then we determine the X, Y and Z coordinates of the impact of the shot and we trigger the addition and display of the explosion following the impact of the shot on the virtual target and then the display of the virtual target N destroyed.
Dans le cas d'un tir de type missile, ce dernier est matérialisé par un objet virtuel 3D principalement vu de l'arrière. En outre, afin de simuler la fumée du missile, on affiche M objets de type « bilboard » circulaires dont on a appliqué une texture avec la gestion des paramètres alpha et transparence, afin d'obtenir une traînée de fumée réaliste.In the case of a missile-type missile, the latter is materialized by a 3D virtual object mainly seen from the rear. In addition, to simulate the smoke of the missile, M circular "bilboard" objects are displayed which have been applied with the alpha and transparency parameters management, in order to obtain a realistic smoke trail.
L'affichage du missile peut être différé de quelques millisecondes après la réception de l'information de la mise de feu de façon à simuler le temps que met le missile à sortir du canon de l'arme.The missile display may be delayed a few milliseconds after receiving the firing information so as to simulate the missile's time out of the barrel of the weapon.
Il est à noter que la trajectoire du missile est mémorisée afin de pouvoir positionner les M objets de type « bilboard » le long de la trajectoire. Pour la gestion des cibles virtuelles et des impacts au sol, il est nécessaire de disposer d'objets virtuels en mémoire, notamment, au sein d'une base de données, du terrain, c'est-à-dire du sol et des bâtiments.It should be noted that the trajectory of the missile is memorized in order to be able to position the M objects of "bilboard" type along the trajectory. For the management of virtual targets and ground impacts, it is necessary to have virtual objects in memory, in particular, within a database, the ground, that is to say the soil and buildings .
Lors de l'utilisation du dispositif d'entraînement au tir, il est nécessaire d'installer l'arme sur le terrain réel et de procéder, avant le début de l'exercice, au recalage du terrain de synthèse par rapport au terrain réel.When using the firing training device, it is necessary to install the weapon on the real ground and proceed, before the beginning of the exercise, the registration of the synthetic field in relation to the real terrain.
Pour ce faire, un outil de localisation permet, au moyen d'un appariement de points, d'extraire la position du capteur vidéo dans le repère du terrain de synthèse. Ainsi, il est possible de caler le terrain réel avec le terrain de synthèse. Cet appariement consiste à associer des points du terrain de synthèse à leur équivalent dans la vidéo capturée.To do this, a location tool makes it possible, by means of a pairing of points, to extract the position of the video sensor in the reference point of the synthetic field. Thus, it is possible to wedge the real ground with the field of synthesis. This pairing consists of associating points of the synthetic field with their equivalent in the captured video.
A partir de quelques points appariés, l'outil de localisation détermine la position du capteur vidéo dans le repère du terrain de synthèse, le terrain de synthèse étant une modélisation en trois dimensions du terrain réel.From a few paired points, the location tool determines the position of the video sensor in the reference of the synthetic field, the synthetic field being a three-dimensional modeling of the real terrain.
Cette technologie permet à l'instructeur d'installer le système à n'importe quel endroit d'un théâtre d'opération dans un temps raisonnable notamment au moyen de la modélisation en trois dimensions de celui-ci.This technology allows the instructor to install the system anywhere in a theater in a reasonable amount of time, including three-dimensional modeling of the theater.
Selon un mode de réalisation particulier, un récepteur GPS (« Global Positioning System » en terminologie anglo-saxonne) peut être associé à l'arme afin que celle-ci puisse être localisée sur le terrain réel.According to a particular embodiment, a GPS receiver ("Global Positioning System" in English terminology) can be associated with the weapon so that it can be located on the real ground.
Le récepteur GPS envoie alors les diverses coordonnées de positionnement de l'arme sur le terrain réel.The GPS receiver then sends the various positioning coordinates of the weapon on the real terrain.
Une fois ces informations reçues par l'outil de localisation, il est possible de localiser le capteur vidéo, notamment de deux manières.Once this information received by the location tool, it is possible to locate the video sensor, including two ways.
Selon un premier mode de réalisation, on associe des points virtuels à des points réels du flux vidéo, capturés comme précédemment décrit.According to a first embodiment, virtual points are associated with real points of the video stream, captured as previously described.
Selon un second mode de réalisation, on cale, de manière angulaire, le terrain de synthèse au moyen notamment d'une manette. Le terrain de synthèse est alors affiché en transparence sur l'image vidéo pour permettre le calage.According to a second embodiment, the ground of synthesis is angularly staggered, in particular by means of a joystick. The synthetic field is then displayed in transparency on the video image to allow calibration.
Le moyen de traitement de la réalité augmentée est également apte à traiter l'occultation. En effet, au moment du départ du coup, un objet de type « bilboard » circulaire et texture est affiché à l'écran. Au cours de l'éloignement du coup, le coefficient de transparence est modifié pour passer d'un aspect opaque à un aspect transparent. La position de l'objet de type « bilboard » est couplée à la position du missile pour obtenir un effet d'occultation plus réaliste.The augmented reality processing means is also able to process the occultation. Indeed, at the moment of the departure of the blow, an object of the type Circular "bilboard" and texture is displayed on the screen. During the move away, the transparency coefficient is changed from an opaque aspect to a transparent aspect. The position of the "bilboard" type object is coupled to the position of the missile to obtain a more realistic occultation effect.
En outre, le moyen de traitement de la réalité augmentée peut afficher un réticule de visée. Ce dernier peut être contrôlé de façon à le faire apparaître ou disparaître et modifier sa position sur l'écran de visée.In addition, the augmented reality processing means may display a targeting reticle. This can be controlled to make it appear or disappear and change its position on the viewing screen.
De plus, le moyen de traitement de la réalité augmentée peut permettre l'ajout d'une information supplémentaire d'aide à la visée, par exemple, au moyen d'un chevron. Cette information peut également être contrôlée de façon à la faire apparaître ou disparaître et ajuster sa position sur l'écran de visée selon les coordonnées en X et en Y.In addition, the augmented reality processing means may allow additional information to be added to the aim, for example by means of a chevron. This information can also be controlled to make it appear or disappear and adjust its position on the viewing screen according to the X and Y coordinates.
Le moyen de traitement du tireur 21 comprend des hauts parleurs permettant de reproduire également les effets sonores induits par le tir.The shooter processing means 21 includes loudspeakers for reproducing also the sound effects induced by the shot.
A cet effet, sur réception d'une information de mise de feu, le moyen de traitement du tireur 21 active un son représentant le départ du tir, notamment par le lancement d'un fichier audio de type « .wav ». De même, si le tir atteint le sol, un élément du paysage ou une cible virtuelle, un fichier son est activé afin de représenter le bruit de l'impact.For this purpose, on receipt of a firing information, the shooter processing means 21 activates a sound representing the start of the shot, in particular by launching an audio file of ".wav" type. Similarly, if the shot reaches the ground, a landscape element or a virtual target, a sound file is activated to represent the sound of the impact.
Comme illustré en Figure 2 et 3, l'architecture matérielle peut être munie d'un enregistreur, notamment d'un enregistreur DVD avec disque dur, de manière à enregistrer le contenu de la vue du tireur.As illustrated in Figure 2 and 3, the hardware architecture may be provided with a recorder, including a DVD recorder with hard disk, so as to record the contents of the view of the shooter.
Ainsi, le rejeu de l'exercice de tir est possible en effectuant une relecture du film vidéo mémorisé par l'enregistreur.Thus, the replay of the shooting exercise is possible by performing a replay of the video film stored by the recorder.
La présence d'un disque dur sur l'enregistreur permet le rejeu sans obligation de graver l'exercice de tir sur un support.The presence of a hard disk on the recorder allows the replay without obligation to burn the shooting exercise on a support.
De même, il est possible d'enregistrer les informations de positionnement et d'orientation des cibles, les informations de positionnement et d'orientation des missiles et les informations de positionnement et d'axe de visée de l'arme. Ainsi, à l'issue de l'exercice d'entraînement au tir, les informations sont disponibles pour analyser l'exercice, notamment au moyen d'un module logiciel d'analyse de l'exercice. Le système d'entraînement au tir comme précédemment décrit, peut être utilisé dans différents contextes.Likewise, it is possible to record the positioning and orientation information of the targets, the missile positioning and orientation information, and the positioning and aiming information of the weapon. Thus, at the end of the shooting training exercise, the information is available to analyze the exercise, in particular by means of an exercise analysis software module. The firing training system as previously described, can be used in different contexts.
En effet, il est possible d'utiliser le système d'entraînement au tir en salle. Dans ce cas, le système est placé devant une maquette d'un paysage dans laquelle des cibles virtuelles sont ajoutées par le moyen de traitement de la réalité augmentée. La maquette doit préalablement être modélisée.Indeed, it is possible to use the indoor shooting training system. In this case, the system is placed in front of a model of a landscape in which virtual targets are added by the augmented reality processing means. The model must first be modeled.
En outre, il est possible d'utiliser le système d'entraînement au tir sur un terrain réel. Pour ce faire, il est nécessaire d'avoir modélisé un terrain de synthèse, ce dernier correspondant au terrain réel.In addition, it is possible to use the shooting training system on real terrain. To do this, it is necessary to have modeled a synthetic field, the latter corresponding to the real terrain.
A titre d'illustration, le moyen de traitement du tireur 21 peut être un ordinateur individuel ayant les caractéristiques suivantes :By way of illustration, the processing means of the shooter 21 may be an individual computer having the following characteristics:
- processeur Pentium IV, 3 Ghz, ayant notamment le système d'exploitation Windows XP Pro, service pack 2,- Pentium IV processor, 3 Ghz, including the Windows XP Pro operating system, service pack 2,
- mémoire vive ou RAM de 1Go et disque dur 80 Go,- 1 GB RAM or RAM and 80 GB hard drive,
- carte mère avec bus PCI-X et PCI-Express.- motherboard with PCI-X and PCI-Express bus.
- carte d'acquisition DeckLink HD.- DeckLink HD acquisition card.
- carte graphique Nvidia GeForceθ (6800 GT) ou ATI Radeon X800XT.- Nvidia GeForceθ (6800 GT) or ATI Radeon X800XT graphics card.
Les moyens de capture vidéo 5 sont par exemple une caméra haute définition de type Sony HDR-FX1. Le convertisseur 23 de la sortie composante HD-YUV vers la norme HD-SDI est notamment un convertisseur AJA HD 1OA. Le répartiteur vidéo 30 UXGA est par exemple le répartiteur Komelec MSV1004. Le commutateur vidéo 36 est notamment un commutateur Comprehensive Video HRS-2x1-SVA / 2x1 VGA/UXGA High Resolution Vertical Switcher. Le convertisseur 33 est par exemple le convertisseur Folsom ViewMax. Enfin, l'enregistreur 32 est un enregistreur de DVD Philips HDRW 720 ayant un disque Dur de 80 Go. The video capture means 5 are, for example, a high-definition camera of the Sony HDR-FX1 type. The converter 23 of the HD-YUV component output to the HD-SDI standard is in particular an AJA HD 1OA converter. The UXGA video splitter 30 is for example the Komelec MSV1004 splitter. The video switch 36 is in particular a Comprehensive Video HRS-2x1-SVA / 2x1 VGA / UXGA High Resolution Vertical Switcher switch. The converter 33 is for example the Folsom ViewMax converter. Finally, the recorder 32 is a Philips HDRW 720 DVD recorder having an 80 GB hard drive.

Claims

REVENDICATIONS
1. Dispositif d'entraînement au tir à partir d'une arme, caractérisé en ce que le dispositif comprend :A device for firing from a weapon, characterized in that the device comprises:
- des moyens de capture vidéo aptes à capturer un champ angulaire visé par l'arme,video capture means capable of capturing an angular field targeted by the weapon,
- des moyens de mesure d'angles aptes à déterminer au moins un angle représentatif de la position de l'arme,means for measuring angles capable of determining at least one angle representative of the position of the weapon,
- des moyens de traitement aptes à insérer, en temps réel, au moins une image de synthèse dans le champ capturé, selon les informations de position reçues desdits moyens de mesure d'angles, etprocessing means capable of inserting, in real time, at least one synthetic image into the captured field, according to the position information received from said angle measuring means, and
- des moyens de visualisation du champ capturé contenant ladite au moins une image de synthèse insérée.means for displaying the captured field containing said at least one inserted synthetic image.
2. Dispositif d'entraînement selon la revendication 1 , caractérisé en ce que le dispositif comprend des moyens de commande, en temps réel, aptes à commander les moyens de traitement pour l'insertion d'images de synthèse.2. Drive device according to claim 1, characterized in that the device comprises control means, in real time, able to control the processing means for the insertion of synthetic images.
3. Dispositif d'entrainement selon l'une quelconque des revendications précédentes, caractérisé en ce que l'arme est une arme réelle.3. Training device according to any one of the preceding claims, characterized in that the weapon is a real weapon.
4. Dispositif d'entrainement selon l'une quelconque des revendications précédentes, caractérisé en ce que l'arme comprenant des moyens de visée, le dispositif d'entrainement comprend des moyens optique d'adaptation aptes à permettre la visualisation d'une image dans les moyens de visée à partir des moyens de visualisation du champ de vision capturé contenant les images de synthèse insérées.4. Training device according to any one of the preceding claims, characterized in that the weapon comprising sighting means, the driving device comprises optical adaptation means adapted to allow viewing of an image in the aiming means from the visualization means of the captured field of view containing the inserted synthetic images.
5. Dispositif d'entrainement selon l'une quelconque des revendications précédentes, caractérisé en ce que les informations de position reçues desdits moyens de mesure d'angles sont le cap et le tangage. 5. Drive device according to any one of the preceding claims, characterized in that the position information received from said angle measuring means is heading and pitching.
6. Dispositif d'entrainement selon l'une quelconque des revendications précédentes, caractérisé en ce que le dispositif comprend en outre, des moyens de pilotage aptes à piloter, en temps réel, les moyens de traitement aptes à insérer des images de synthèse.6. Training device according to any one of the preceding claims, characterized in that the device further comprises, control means adapted to control, in real time, the processing means capable of inserting synthetic images.
7. Dispositif d'entrainement selon l'une quelconque des revendications précédentes, caractérisé en ce que le dispositif comprend des moyens de localisation apte à déterminer la position des moyens de capture vidéo dans le repère d'un terrain de synthèse en trois dimensions, le terrain de synthèse étant une modélisation correspondant à au moins un élément du champ angulaire capturé.7. Training device according to any one of the preceding claims, characterized in that the device comprises locating means adapted to determine the position of the video capture means in the reference of a synthetic field in three dimensions, the synthetic field being a model corresponding to at least one element of the captured angular field.
8. Dispositif d'entrainement selon la revendication 7, caractérisé en ce que les moyens de localisation comprennent des moyens d'appariement, en temps réel, de points du terrain de synthèse avec des points correspondant dans le champ angulaire capturé.8. Training device according to claim 7, characterized in that the locating means comprise means for matching, in real time, points of the synthetic field with corresponding points in the captured angular field.
9. Dispositif d'entrainement selon la revendication 7, caractérisé en ce que le dispositif comprend des moyens de calage du terrain de synthèse sur le champ angulaire capturé.9. Training device according to claim 7, characterized in that the device comprises means for setting the synthetic field on the captured angular field.
10. Dispositif d'entrainement selon l'une quelconque des revendications précédentes, caractérisé en ce que le dispositif comprend un récepteur de localisation apte à localiser le dispositif.10. Training device according to any one of the preceding claims, characterized in that the device comprises a location receiver adapted to locate the device.
11. Dispositif d'entrainement selon l'une quelconque des revendications précédentes, caractérisé en ce que le dispositif comprend des moyens d'analyse d'image aptes à augmenter la précision des mesures réalisées par les moyens de mesure d'angles. 11. Training device according to any one of the preceding claims, characterized in that the device comprises image analysis means adapted to increase the accuracy of the measurements made by the angle measuring means.
EP06794318A 2005-08-09 2006-08-09 Gunnery training device using a weapon Ceased EP1913326A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR0552477A FR2889736A1 (en) 2005-08-09 2005-08-09 SHOOTING TRAINING SYSTEM IMPLEMENTING A REAL ARMY
PCT/FR2006/001936 WO2007017599A1 (en) 2005-08-09 2006-08-09 Gunnery training device using a weapon

Publications (1)

Publication Number Publication Date
EP1913326A1 true EP1913326A1 (en) 2008-04-23

Family

ID=37591878

Family Applications (1)

Application Number Title Priority Date Filing Date
EP06794318A Ceased EP1913326A1 (en) 2005-08-09 2006-08-09 Gunnery training device using a weapon

Country Status (4)

Country Link
US (1) US20090305198A1 (en)
EP (1) EP1913326A1 (en)
FR (1) FR2889736A1 (en)
WO (1) WO2007017599A1 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008056359A2 (en) * 2006-11-09 2008-05-15 Israel Aerospace Industries Ltd. Mission training center instructor operator station apparatus and methods useful in conjunction therewith
US20090155747A1 (en) * 2007-12-14 2009-06-18 Honeywell International Inc. Sniper Training System
US10107595B1 (en) * 2017-06-20 2018-10-23 Cubic Corporation Indirect fire mission training system
EP3794428A1 (en) * 2018-05-15 2021-03-24 Thermo Fisher Scientific Inc. Collaborative virtual reality environment for training
AU2020386866A1 (en) 2019-11-18 2022-06-09 Elbit Systems Ltd. A system and method for mixed reality

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3211711A1 (en) * 1982-03-30 1983-10-06 Guenter Loewe EXERCISING DEVICE FOR SHOOTING TRAINING ON STEERING AIRCRAFT BODIES, IN PARTICULAR ON FLOOR-FLOOR-AIRCRAFT ARMS
FR2531201A1 (en) * 1982-07-29 1984-02-03 Giravions Dorand SHOOTING SIMULATION DEVICE FOR HANDLING TRAINING SHOTGUNS OR THE LIKE
EP0118604A2 (en) * 1982-11-16 1984-09-19 Brunswick Corporation Visual target simulator for outdoor field training
DE3736929A1 (en) * 1987-10-30 1989-05-11 Precitronic Method and device for training gunners in the open air
DE19606685C2 (en) * 1996-01-26 1999-09-30 Industrieanlagen Betriebsges Combat simulation system with a freely operating combat vehicle and a quasi-stationary object simulator
FR2794230B1 (en) * 1999-05-27 2002-06-14 Matra Bae Dynamics France SIMULATED TARGET TRAINING SYSTEM
US20050123883A1 (en) * 2003-12-09 2005-06-09 Kennen John S. Simulated hunting apparatus and method for using same

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See references of WO2007017599A1 *

Also Published As

Publication number Publication date
WO2007017599A1 (en) 2007-02-15
FR2889736A3 (en) 2007-02-16
US20090305198A1 (en) 2009-12-10
FR2889736A1 (en) 2007-02-16

Similar Documents

Publication Publication Date Title
US11880932B2 (en) Systems and associated methods for creating a viewing experience
EP2132710B1 (en) Augmented reality method and devices using a real time automatic tracking of marker-free textured planar geometrical objects in a video stream
US9892563B2 (en) System and method for generating a mixed reality environment
KR102493185B1 (en) Self-supervised training of a depth estimation model using depth hints
EP0068937B1 (en) Method of producing a fictive target in a training device for gun aiming
FR2556827A1 (en) INDOOR SHOOTING TRAINING DEVICE
FR2531201A1 (en) SHOOTING SIMULATION DEVICE FOR HANDLING TRAINING SHOTGUNS OR THE LIKE
EP3397919B2 (en) Turret simulation method and device
EP1913326A1 (en) Gunnery training device using a weapon
CN104969264A (en) Method and apparatus for adding annotations to a plenoptic light field
CN106289180A (en) The computational methods of movement locus and device, terminal
FR3033649A1 (en) AIRPROOF FIRE DETECTION EQUIPMENT AND STEERING AID
WO2007125247A1 (en) Method for processing images of a simulator
EP3011548B1 (en) Method for carrying out a real situation simulation test including generation of various virtual contexts
WO2021110538A1 (en) Simulation sighting binoculars, and simulation system and methods
US20140375562A1 (en) System and Process for Human-Computer Interaction Using a Ballistic Projectile as an Input Indicator
Wahyudi et al. A novel system to visualize aerial weapon scoring system (AWSS) using 3D mixed reality
WO2020169613A1 (en) Device and method for shot analysis
WO2020079157A1 (en) Device and method for shot analysis
WO2014185764A1 (en) Indoor shooting simulator for light weapons and anti-tank rocket launchers
FR2968113A1 (en) METHOD OF SIMULATING FIRE FROM THE DIRECT VIEW AND TIRS SIMULATOR SUITABLE FOR CARRYING OUT THE METHOD
FR3091582A1 (en) Rifle allowing a precise simulation of a firing sequence with calculation of the point of impact of the projectile (s)
FR2529660A2 (en) Method of forming an imaginary target, modified according to the terrain, in a device for training in aiming at targets.
FR2794230A1 (en) Visual line of sight missiles target engagement trainer having dummy arm and viewer with computer generated target/scenario background and munition flight simulation/impact assessment.
US9094608B1 (en) Virtual director's viewfinder

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

17P Request for examination filed

Effective date: 20080214

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LI LT LU LV MC NL PL PT RO SE SI SK TR

RAP1 Party data changed (applicant data changed or rights of an application transferred)

Owner name: GDI SIMULATION

17Q First examination report despatched

Effective date: 20090304

REG Reference to a national code

Ref country code: DE

Ref legal event code: R003

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE APPLICATION HAS BEEN REFUSED

18R Application refused

Effective date: 20110911