WO2000037875A1 - Aiming aid method and system for a light weapon - Google Patents

Aiming aid method and system for a light weapon Download PDF

Info

Publication number
WO2000037875A1
WO2000037875A1 PCT/FR1999/003185 FR9903185W WO0037875A1 WO 2000037875 A1 WO2000037875 A1 WO 2000037875A1 FR 9903185 W FR9903185 W FR 9903185W WO 0037875 A1 WO0037875 A1 WO 0037875A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
sensor
weapon
images
sensors
Prior art date
Application number
PCT/FR1999/003185
Other languages
French (fr)
Inventor
Philippe Valery
Original Assignee
Thomson-Csf Sextant
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomson-Csf Sextant filed Critical Thomson-Csf Sextant
Priority to CA002354569A priority Critical patent/CA2354569C/en
Priority to EP99961103A priority patent/EP1141648A1/en
Publication of WO2000037875A1 publication Critical patent/WO2000037875A1/en

Links

Classifications

    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G3/00Aiming or laying means
    • F41G3/14Indirect aiming means
    • F41G3/16Sighting devices adapted for indirect laying of fire
    • F41G3/165Sighting devices adapted for indirect laying of fire using a TV-monitor

Definitions

  • the present invention relates to a sighting aid method for a light weapon, more precisely a sighting aid method for a shooter carrying such a weapon in his hand.
  • the invention also relates to a sighting aid system for implementing such a method.
  • the weapon with a laser pointer, that is to say with a collimated beam generator propagating parallel to the firing axis of the weapon or line of sight.
  • the impact on the target results in a small diameter spot of light.
  • the wavelength used can also be in the non-visible range, for example in the infrared.
  • the shooter is therefore no longer obliged to support his weapon. It is enough that it locates the position of the spot, either directly (visible range), or using special glasses (infrared), to obtain a good aim.
  • the target can detect the radiation, either directly (at sight, for wavelengths in the visible), or using a detector appropriate to the wavelength used.
  • the accuracy is limited by the visual discrimination of the spot, the dispersion of the beam and the limit of visual perception of the shooter.
  • the invention aims to remedy the shortcomings of the methods and devices of the known art, some of which have just been mentioned. It makes it possible to obtain a rapid fire, not requiring to support the weapon, and however precise, which appears contradictory a priori. It also ensures an aiming process not detectable by the opponent. In other words, the system remains entirely passive, that is to say does not generate radiated energy.
  • the distances of use of the system according to the invention typically in a range of distances greater than 25 m and less than 100 m
  • the typical dimension of the targets 1.5 m according to the vertical dimension and 0, 5 m depending on the horizontal dimension
  • the method according to the invention comprises the determination of the position of the line of sight of the weapon by correlation of images and the restitution of a symbol of sight (for example a reticle materializing the line of sight) on a display member, advantageously of the helmet type, visual type of helmet.
  • the symbol can be displayed in an infinite collimated form. It can be superimposed on the scene observed by the shooter, in direct vision or through a camera.
  • To determine the position of the line of sight correlates an image obtained from a sensor carried by the gun and an image obtained from a sensor carried by the shooter's head.
  • the spatial orientation data of the two sensors are identified with respect to each other by auxiliary means and are used to estimate the deviations in orientation between the two images in order to facilitate the correlation of the images.
  • the correlation of the images makes it possible to determine in the second image the position of the first image.
  • the reticle thus determined by calculation is displayed on a display secured to the shooter's head and therefore to the sensor of the second image. It is displayed at a position corresponding to its place in the second image, and it is displayed superimposed on the scene observed by the shooter.
  • the shooter can then point his weapon at a target by aligning the reticle on this target without having to shoulder the weapon.
  • the first sensor is preferably at a reduced field than the second sensor.
  • the system for implementing the method essentially comprises a first image sensor fixed on the weapon, a second image sensor fixed on the shooter's head, electronic image processing circuits making it possible to calculate the position of the field of the first sensor in the image of the second sensor, and a display device collimated to infinity making it possible to embed in the field of vision of the shooter a reticle or a similar symbol materializing the line of sight of the weapon.
  • the set is completed by orientation sensors, independent of the image sensors, fixed respectively on the weapon and on the shooter's head, allowing an estimate (preferably continuous over time) of the deviations of orientation of the fields. aiming of the first and second image sensors to assist in determining the position of the field of the first sensor in the image of the second.
  • the signals from these orientation sensors are also processed by the aforementioned electronic circuits.
  • the subject of the invention is therefore a method of assisting aiming for a light weapon carried by a shooter, characterized in that it comprises the following steps:
  • the orientation sensors can be of the magnetometric type, with for example a heading sensor and a two-axis inclinometer, these sensors being provided on the one hand on the shooter's head and on the other hand on the weapon.
  • Correlation is facilitated in particular in an acquisition phase where an image portion of the second sensor must coincide with the image of the first sensor.
  • the orientation sensors indeed make it possible to develop a rotation matrix making it possible to rotate the two images relative to one another by an amount corresponding to the indication (approximate) given by the orientation sensors .
  • the images are then found to be substantially identically oriented and the correlation can be continued more easily.
  • the correlation of images is the main element used to move the crosshair in the field of the display.
  • One determines in particular from the indications of the two orientation sensors a rotation matrix representing the relative positions in space of two reference trihedra linked one to the weapon, the other to the head.
  • One can also, to help with the correlation, use a vector of translation, limited a priori to approximately 50 cm, representing the difference in position between the head and the weapon.
  • the invention also relates to a sighting aid system for the implementation of this method.
  • FIG. 1A and 1B schematically illustrate the architecture of an aiming aid system according to the invention
  • FIG. 1B is a geometric diagram to explain the general operation of the system of Figures 1A and 1B;
  • FIG. 3 illustrates an example of a modular signal and image processing device used in the aiming assistance system of the invention
  • FIG. 4 illustrates the nesting of images provided by imaging sensors used in the aiming aid system of the invention
  • FIG. 5 is a more detailed embodiment of one of the modules of the device of Figure 3;
  • Figure 7 is a more detailed embodiment of a correlation module used in the device of Figure 3;
  • FIG. 8 is a diagram illustrating the last step of the method according to the invention, consisting of a so-called fine correlation.
  • FIG. 1A schematically illustrates . its overall architecture
  • FIG. 1B is a detail figure showing one of the components used, in this case a display device 4, advantageously of the so-called visual helmet type.
  • the system 1 firstly comprises a sensor with imagery C in the visible or infrared domain, fixed on the weapon 2.
  • a sensor with imagery C in the visible or infrared domain fixed on the weapon 2.
  • the first case visible light
  • a standard matrix sensor or a "IL-CCD” type component (light intensifier with charge coupled device).
  • a component of the type "M IR” Medium Wave Infrared: infrared in the wavelength ranges between 3 and 5 ⁇ m
  • LWIR Long Wave Infrared: infrared in the wavelength ranges between 8 and 12 ⁇ m.
  • the direction of the optical axis, ⁇ ci r of the sensor Ci is harmonized, by construction, with the axis, ⁇ 20. of the barrel 20. If this is not the case, it is taken into account in the calculations.
  • a device for measuring the position of the center of the field of the imaging sensor C of the weapon 2 is provided.
  • This device is composed of a second imaging sensor C2 fixed on the shooter's head and of an electronic processing device. of signals and images 3 supplied by the sensor C 2 , this device 3 having in particular the function of calculating the position of the field of the sensor Ci in the image of the sensor C2.
  • the field of the sensor C is advantageously chosen to be smaller than the field of the sensor 2 •
  • the system 1 also includes an infinitely collimated rendering device 4 making it possible to embed in the shooter's field of vision a reticle 41, or any other suitable symbol, materializing the aim.
  • This device is advantageously constituted by a display member of the so-called visual helmet type.
  • each of the orientation sensors comprises two sensors: a heading sensor and a two-axis inclinometer (not shown separately).
  • These devices, 5 and 6, which generate heading and attitude data, are fixed, respectively, on the weapon 2 and on the shooter's head Te in order to give a continuous preference estimate of the orientation deviation of the two aiming axes, ⁇ i and ⁇ 2 , sensors C and C2.
  • These sensors are independent of the image sensors.
  • This double device, 5 and 6 provides, in cooperation with specific circuits of the electronic signal and image processing device 3, an estimate of the rotation matrix MR of passage between the sensor Ci and the sensor 2.
  • the vector translation T is not known. Knowing that the weapon is held by the shooter, we can estimate the standard of T at an average value of 0.7 meters and an upper limit of 1 meter. The weapon can for example be held at the hip.
  • the electronic signal and image processing device 3 receives the signals generated at the output of the imaging sensor C and of the sensors 6, fixed on the head Te of the shooter, via the link 60, and receives the signals generated at the output of the sensor with C2 imagery and sensors 5, carried by the weapon 2, via the link 50.
  • the device 3 transmits as output the signals processed for display on the visual display member of the helmet 4 (in the example described), thus than the power supply necessary for the proper functioning of this organ.
  • FIG. 1B illustrates the display member 4 in front view, that is to say on the side observed by the shooter. It allows to embed in the front scene 40, actually observed by the shooter, a reticle 41 materializing the targeted target, or other indications, for example an arrow indicating which side he must turn the weapon 2, for a period initial aiming process, as shown below.
  • the image provided by the wide field sensor 2 encompasses all or part of the scene observed by the shooter.
  • FIG. 2 is a geometric diagram illustrating the relationships existing between a reference trihedron Rc2 associated with the devices carried by the shooter's head Te, and in particular with the sensor 2, and a reference trihedron TRci associated with the devices carried by the weapon 2, and in particular to sensor C.
  • the translation vector T we have represented on this diagram, the translation vector T and we have superimposed on the reference trihedron TRC1 a reference trihedron TR 'C2 (in dotted lines), representing the reference trihedron TRC2, after translation according to the vector T. This superposition allows to calculate the rotation matrix MR.
  • the aiming process includes two initial steps, carried out using the two positioning sensor devices 5 and 6.
  • the first step which will be called “automatic rallying” consists in using the signals generated by the orientation sensors 5 and 6, on the weapon 2 and on the gunner's head Te, to help the gunner to point his weapon in the same direction as his head.
  • the processed signals include heading and tilt information of the reference frames, T-Ci and T.RC2, linked to the sensors, Ci and C2 with respect to a landmark -
  • the processing device 3 generates signals making it possible to estimate the difference in orientation of the fields of sight of the sensors, and C2, at least in direction and direction.
  • These signals are transmitted to the display member 4, so as to display a specific symbol on the screen, for example an arrow 42, in place of the reticle 41 materializing the aim.
  • the shooter then knows that he must move the barrel of his weapon 2, in the general direction symbolized by the arrow 42, so that the reticle 41 symbolizing the aim enters his field of vision and is displayed on the screen. of the display unit. It is therefore an automatic aid, very coarse, to obtain an approximate score of weapon 2, so that the stages of the aid to the aiming process itself can begin.
  • an approximate initial score can be performed manually, without the assistance of any symbology.
  • the second initial step consists in calculating an estimate of the aforementioned rotation matrix MR, still using the data provided by the two orientation sensors, 5 and 6. This estimate of the rotation matrix MR is obtained by comparing the data (attitude and heading) provided by the two devices, 5 and 6, and possibly using the estimate of the translation vector T.
  • the correlation of the images is performed using the rotation matrix to facilitate the acquisition of identical image areas in the images supplied by the two image sensors; by rotating the image of the first sensor of angles defined by the rotation matrix, the images of the two sensors are given substantially the same orientation, which facilitates correlation.
  • This correlation will then make it possible to determine in the field of the head sensor what is the position of the line of sight, this being represented by a well determined point (for example a central point) of the field of the weapon sensor Cl and the field of the weapon sensor being located, by correlation, in the field of the head sensor.
  • the electronic circuits of the device 3 can be cut into modules for the execution of the various necessary steps.
  • FIG. 3 illustrates the modular configuration of an image processing device 3 for the implementation of the aiming method, according to a preferred embodiment of the invention.
  • the circuits allowing the execution of the above-mentioned initial step or steps have not been shown.
  • the device 3 comprises two analog / digital acquisition modules, 30 and 34, respectively for the channels for acquiring the output signals of the sensors Ci and C2.
  • the output signals of the analog / digital acquisition modules, 30 and 34 are transmitted to modules for extracting contours of homogeneous zones, or objects, contained in the digital images, modules 31 and 35, respectively.
  • a module 32 then calculates the pyramid of contours of the image supplied by the small field sensor Ci, after extraction of the contours.
  • the signals at the output of the module 35 are transmitted to a first module 36 for establishing the images of the distances to the contours of the wide field image, followed by a module 37 for establishing the pyramid of images called " chamfer ", that is, distances to the nearest contour.
  • a double correlation module called “Gros-Fin” 33 receives the output signals from modules 32 and 37, as well as gradient signals supplied by the contour extraction module 35, and, supplied by the respective modules 30 and 34 for acquiring image signals, iP and iG, the definition of which is given in the aforementioned rating table.
  • the calculations performed by the so-called "Big" part of the correlation module 33 are based on a valued correlation type algorithm.
  • the calculations carried out by the so-called “End” part are based on an algorithm for estimating the positioning difference between the center of the image of the small field sensor Ci and the center of the positioning zone F G in the image.
  • large field of the sensor C ⁇ calculated by the "large” module.
  • the analog / digital conversion of the image signals generated by the sensors C and C2, conversion carried out in the modules 30 and 34, is ensured synchronously by a conventional image scanning device, on a typical dynamic of 28 levels of Grey.
  • Spatial re-sampling is carried out by a conventional interpolation function, of bilinear or bicubic type.
  • the desired field of the “raw” image ClG ⁇ rute at the output of the sensor C2 is less than the instantaneous field of the “raw” image ClP ⁇ rute of the small field sensor Ci-
  • the relationships linking these two “raw” images are as follows:
  • FIG. 4 is a diagram schematically illustrating the images J G , ⁇ P and I 'P.
  • the cutting of the useful area of the resampled images is such that the image I ′ P is included in the image I G of the wide field sensor C 2 •
  • the diagrams have shown schematically in FIG. 4 positions of the images ⁇ and I 'P before application of the rotation matrix MR.
  • the XYZ axes symbolize the T-RCi reference system ( Figure 2).
  • the digital signals representing the images iP and i are transmitted to the module 33.
  • TM * the maximum value of the apparent residual roll of I 'P in image i.
  • the modules 31 and 35 extract the object contours present in the two digitized images. The process is similar in both modules.
  • FIG. 5 illustrates in more detail, in the form of block diagrams, one of the modules, for example the module 31.
  • the extraction parameters are chosen so as to introduce an identical low-pass filtering level on the two scanned images.
  • An input module 310 calculates images of gradients Gx and Gy along two orthonormal axes X and Y attached to the image. This operation can be carried out by any conventional method in the field of image processing. One can have recourse, for example, to recursive treatments like those described in the article of Rachid DERICHE, entitled: "Using Canny 's detector to drift a recursively implemented Optimal Edge Detector", “Computer Vision 1987", pages 167- 187, article to which we will profitably refer.
  • the images of calculated gradients, along the X and Y axes, are transmitted to a first module 311 intended to calculate, at each point, the norm of the gradient NG, in accordance with the following relation:
  • the images of calculated gradients are also transmitted to a second module 312, intended to calculate at each point the orientation of the gradient OG, in accordance with the following relation:
  • This step includes the following sub-steps: binarization, removal of non-maxima and application of a threshold by hysteresis.
  • the binarization sub-step requires knowing the high and low thresholds. These thresholds are estimated by an additional module 313, according to an iterative process.
  • the module 313 indeed receives the data associated with the list of contour points in feedback. It also receives on a second input the image of the gradient norm calculated by the module 311.
  • the object of the module 313 is to dynamically control, zone of the image by zone of the image, high and low thresholds.
  • the current image is divided into areas of equal size.
  • the module 313 calculates a high threshold, which we will refer to SH Z , and a low threshold, which we will refer to SB Z , for the image being processed at an instant t arbitrary, this as a function of the high and low thresholds obtained on the area at an instant t-1 corresponding to the previous image.
  • a high threshold which we will refer to SH Z
  • SB Z a low threshold
  • 0.8 being a typical value
  • depends on the number of contour points extracted in the previous image, at time t-1. If the number of points is too high to maintain a rate in real time, ⁇ is chosen to be less than unity. On the other hand, if the number of points is insufficient to obtain contour information, one chooses ⁇ greater than unity. Typically the value of ⁇ is between 0.8 and 1.25.
  • s norm is the threshold value to be applied to the gradient norm to perform a threshold operation on n% of the points in the area.
  • the number n is chosen according to the characteristics of the sensors (spatial richness of the image) and is typically between 5% and 15%.
  • SB Z E (yx (SH z (t)) (6)
  • is generally less than 0.5.
  • Each zone z is divided into four contiguous sub-zones and the high and low thresholds are recalculated for the sub-zones by a conventional interpolation algorithm, using the zones adjacent to the zone z.
  • the module 314 performs the binarization of the contours and the suppression of the local non-maxima, according to a hysteresis method.
  • This module 314 determines the contour chains (that is to say the sets of connected contours according to the principle of connexity to eight) such that at least one point of each chain exceeds the local high threshold of its zone and that all other points in the chain exceed their local low threshold.
  • each point in the chain is kept if it constitutes a local maximum of the standard.
  • P the gradient norm of two other points, Pi and P2, which are closest to point P, in a direction achieving the best approximation on a 3x3 neighborhood of the normal to the contour at point P.
  • the direction of this normal is calculated from the orientation of the gradient at point P which gives the direction of the tangent at point P.
  • FIGS. 6A and 6B The process which has just been explained is illustrated very schematically by FIGS. 6A and 6B.
  • an image is represented representing the scene seen by the wide field sensor C2, comprising, in the example illustrated, two remarkable objects constituted by a tree Ar and a building Bt.
  • contour points CAr and CBt At the end of the contour extraction process, there is a list of contour points CAr and CBt, represented, for example, by zeros.
  • the two objects, symbolized by these contours can represent potential targets that stand out from the background.
  • the points or pixels of the image are represented by numbers other than zero (1, 2, 3, ...) and the value of which is all the greater the further these points are from contours (distance in connectivity to 4 from a pixel to the nearest contour, the distance being expressed in pixels).
  • the zeros in the list are associated with digital coordinates, according to an orthonormal reference frame XY, the axes of which are advantageously parallel to the edges of the image, if the latter is rectangular. These coordinates are stored, at least temporarily, in conventional memory circuits (not shown), so as to be used by the next module, 32 or 36, depending on the channel considered (FIG. 3).
  • module 32 allows the establishment of the pyramid of contours, from the list calculated by module 31.
  • the constitution of the pyramid consists in using the image of the contours C F 0 determined by the module 311 at the maximum level of resolution and in constituting the sequence of images C P k of the pyramid in accordance to equation (7):
  • C [( ⁇ j) _ (2, 2) v _, (2 ⁇ , 2j + 1) v Q p _, (2 / + 1.2 /) v Cf. , (2 / ⁇ 1,2 d + 1) '
  • T p is the maximum of the sizes of ⁇ P according to the orthonormal axes X and Y.
  • the gradients calculated by the module 310 are transmitted to an input of the module 33.
  • the module 36 allows the establishment of the image of the distances to the nearest contour. This image is made up from the image of the contours of the wide field image given by the sensor C2. To do this, we can use a known algorithmic method, for example that disclosed by the article by Gunilla BORGEFORS, entitled: “Hierarchical Chamfer Matching: A parametric edge matching algorithm”, published in "IEEE Transactions on Pattern Analysis and Machine Intelligence", November 1988, Vol 10, n ° 6, pages 849-865, to which we will profitably refer.
  • the module 37 makes it possible to establish the pyramid of the so-called "chamfer” images calculated from the image provided by the previous module 36.
  • the constitution of the pyramid consists in using the image of the "chamfer" distances constituted from the image of the contours of the large field image D G Q determined by the module 36 at maximum level of resolution and to constitute the sequence of images D G of the pyramid in accordance with the following relation (8):
  • D G r (i, j) Max (D G _, (2,2), D ° _, (2 / .2; + 1).
  • the correlation module 33 is actually subdivided into two modules, as indicated.
  • the so-called “large” module, 33G is represented in the form of a block diagram by FIG. 7, and comprises three cascaded sub-modules: 330 to 332.
  • the 33G module performs a valued correlation, at the same level of resolution, between the images of the contour pyramid of the small field image and the images of the pyramid of distance images with contours obtained from the large field image.
  • the input sub-module 330 allows the constitution of the correlation table N] ⁇ (u, v), in accordance with the following relation:
  • N ⁇ ( ⁇ , ) ⁇ ⁇ (D c ( l J) - C ⁇ p ( ⁇ -r, j + v)) (9) /
  • the module 331 is intended for the selection of local minima. This selection is made in two stages.
  • N (u, v) N (u, v) has a local minimum and - ⁇ S. 5 is a
  • the threshold S which depends on the spectral density of the input image.
  • the threshold S is determined by a conventional calibration procedure of the image processing device.
  • module 332 an iterative process is carried out, raising the levels of the pyramids and filtering the values.
  • ⁇ ( '') ⁇ (° ⁇ , (/, /) c;.. (T + / +. ')) (Io),
  • This point P is that for which the value of the tablecloth is minimum if this one checks the relation:
  • the correlation process can stop at this stage. Indeed, the point ⁇ constitutes the best selected point. It is possible to display in the display device 4 a reticle 41 corresponding to the impact of the aiming axis ⁇ 2 0 of the weapon 2 on the intended target, and superimposed on the scene observed 40 by the shooter through the device screen 4.
  • the pixels are delimited by lines, vertical and horizontal, in dotted lines, the pixels being supposed to be square. More precisely, the point ⁇ is the center of the central pixel of the window G , and a point O 'P, the center of the central pixel of the window F' P.
  • the vector E represents the offset between the two "grids" of pixels, on the axis Yl-O 'P, that is to say in amplitude and in direction.
  • the size of the window F ′ P is chosen so as to guarantee the presence of minimal information in this window FP. In other words, it should not be a uniform area. An indication of the information can be obtained by checking the value of the sum of the gradient standards on this window.
  • the window F G guarantees a margin of 1 pixel around the window FP.
  • the working neighborhood V is defined with the same sizes along X and Y as the window F ′ P.
  • the total number of points in the neighborhood V is equal to L v .
  • the point 0 G is equivalent to the point ⁇ , but constitutes an origin of a reference for F G •
  • a magnification operation of the window FG ' is carried out by a factor Q.
  • This operation is carried out by a conventional interpolation process, for example bilinear or bicubic.
  • the resulting window is called G G.
  • F p is a centered window of JP, of size in X (respectively in Y) equal to the size of F 'P multiplied by Q.
  • H matrix of i 7 rows and 2 columns.
  • E is a reduced deviation from E. It is possible to display, on the screen of the display member 4, a reticle 41 positioned at the point (T1-E-Ei) with respect to a point which corresponds to the center of the field of the wide field sensor C2.
  • the point ⁇ is obtained with a typical precision of the order of 2 to 3 pixels on the wide field image.
  • the difference E corresponds to 1 pixel of the resolution of the small field image. It is therefore possible to obtain precision in the positioning of the reticle 41 typically in the range of 2 to 3 mrad, which corresponds to the objective that the method according to the invention sets.
  • the shooting assistance method allows both to obtain a high accuracy of sight and a great speed, since it does not require a shoulder of the weapon.
  • the process since it is not accompanied by the emission of radiant energy, remains completely discreet. In other words, even if the target has a sensor sensitive to the wavelengths used, it will not be able to detect the shooter, at least due to the implementation of the method specific to the invention.
  • imaging sensors electronic circuits for processing digital signals, etc.
  • electronic circuits for processing digital signals etc.
  • the components that can be used participate in a simple technological choice within the reach of those skilled in the art.
  • imaging sensors can be used, in particular depending on the choice of wavelengths used (visible or infrared).

Abstract

The invention concerns an aiming aid method and a system (1) for a light weapon (2) hand-held by the shooter. The system comprises a first imaging sensor (C1), called narrow-field sensor, fixed on the weapon (20) barrel (2) and whereof the optical axis (ΔC1) is structurally harmonised with the sighting axis (Δ20) and a second imaging sensor (C1), called wide-field sensor, fitted on the shooter's head (Te). Each of said sensors (C1, C2) is associated with devices (5, 6) measuring the lie and the bearing, so as to make a first rough estimate of the variation between the two optical axes (ΔC1, ΔC2) by calculating the matrix of rotation and the estimated variation between the sensors (C1, C2). Using said matrix and the fields, an image processing device (3) establishes the correlation between the images, so as to display a reticle in a visual display unit of the headgear (4) to represent physically the sighting axis.

Description

PROCEDE ET SYSTEME D'AIDE A LA VISEE POUR ARME LEGERE SIGHTING AID METHOD AND SYSTEM FOR LIGHT WEAPON
La présente invention concerne un procédé d'aide à la visée pour arme légère, de façon plus précise un procédé d'aide à la visée pour un tireur portant une telle arme à la main.The present invention relates to a sighting aid method for a light weapon, more precisely a sighting aid method for a shooter carrying such a weapon in his hand.
L'invention concerne également un système d'aide à la visée pour la mise en oeuvre d'un tel procédé.The invention also relates to a sighting aid system for implementing such a method.
Il est bien connu, pour obtenir un tir très précis avec une arme légère, c'est-à-dire dans le contexte de l'invention une arme portable, de la munir d'une lunette de visée. Cette lunette peut également être couplée à un intensificateur de lumière, ce qui autorise le tir de nuit.It is well known, to obtain a very precise shot with a light weapon, that is to say in the context of the invention a portable weapon, to provide it with a telescopic sight. This scope can also be coupled to a light intensifier, which allows night shooting.
Cependant, cette disposition nécessite un épaulement de l'arme, voire nécessite de disposer d'un appui stable. Le tir peut alors être précis, mais la visée nécessite dans ce cas un temps non négligeable.However, this arrangement requires a shoulder of the weapon, or even requires having a stable support. The shooting can then be precise, but the aiming requires in this case a significant time.
Or, dans de nombreuses situations, le tireur doit pouvoir être en mesure de réagir très rapidement et, donc, doit pouvoir utiliser son arme sans l'épauler, ce tout en assurant un tir précis.However, in many situations, the shooter must be able to react very quickly and, therefore, must be able to use his weapon without supporting it, while ensuring a precise shot.
Pour ce faire, on a proposé, par exemple, de munir l'arme d'un pointeur laser, c'est-à-dire d'un générateur de faisceau collimaté se propageant parallèlement à l'axe de tir de l'arme ou ligne de mire. L'impact sur la cible se traduit par une tache de lumière de faible diamètre. La longueur d'onde utilisée peut être aussi dans le domaine du non visible, par exemple dans l'infrarouge. Le tireur n'est donc plus obligé d'épauler son arme. Il suffit qu'il repère la position de la tache, soit directement (domaine du visible), soit à l'aide de lunettes spéciales (infrarouge), pour obtenir une bonne visée. Cependant, dans tous les cas, le défaut majeur de ce procédé est le manque de discrétion. En effet, la cible peut détecter le rayonnement, soit directement (à la vue, pour les longueurs d'onde dans le visible), soit à l'aide d'un détecteur approprié à la longueur d'onde utilisée. D'autre part, la précision est limitée par la discrimination visuelle de la tache, la dispersion du faisceau et la limite de perception visuelle du tireur.To do this, it has been proposed, for example, to provide the weapon with a laser pointer, that is to say with a collimated beam generator propagating parallel to the firing axis of the weapon or line of sight. The impact on the target results in a small diameter spot of light. The wavelength used can also be in the non-visible range, for example in the infrared. The shooter is therefore no longer obliged to support his weapon. It is enough that it locates the position of the spot, either directly (visible range), or using special glasses (infrared), to obtain a good aim. However, in all cases, the major shortcoming of this process is the lack of discretion. Indeed, the target can detect the radiation, either directly (at sight, for wavelengths in the visible), or using a detector appropriate to the wavelength used. On the other hand, the accuracy is limited by the visual discrimination of the spot, the dispersion of the beam and the limit of visual perception of the shooter.
L'invention vise à pallier les défauts des procédés et dispositifs de l'art connu, dont certains viennent d'être rappelés. Elle permet d'obtenir un tir rapide, ne nécessitant pas d'épauler l'arme, et cependant précis, ce qui apparaît antinomique a priori . Elle assure également un processus de visée non détectable par l'adversaire. En d'autres termes, le système reste entièrement passif, c'est- à-dire ne génère pas d'énergie rayonnée.The invention aims to remedy the shortcomings of the methods and devices of the known art, some of which have just been mentioned. It makes it possible to obtain a rapid fire, not requiring to support the weapon, and however precise, which appears contradictory a priori. It also ensures an aiming process not detectable by the opponent. In other words, the system remains entirely passive, that is to say does not generate radiated energy.
Compte tenu des distances d'utilisation du système selon l'invention (typiquement dans un intervalle de distances supérieures à 25 m et inférieures à 100 m) , et de la dimension typique des cibles (1,5 m selon la dimension verticale et 0,5 m selon la dimension horizontale), il est nécessaire d'offrir au tireur une précision meilleure que 2,5 mrad sur la direction du canon de son arme, et ceci par un dispositif de mesure assurant une discrétion complète, comme il vient d'être rappelé.Taking into account the distances of use of the system according to the invention (typically in a range of distances greater than 25 m and less than 100 m), and the typical dimension of the targets (1.5 m according to the vertical dimension and 0, 5 m depending on the horizontal dimension), it is necessary to offer the shooter an accuracy better than 2.5 mrad on the direction of the barrel of his weapon, and this by a measuring device ensuring complete discretion, as he just to be called back.
Pour ce faire, le procédé selon l'invention comprend la détermination de la position de la ligne de visée de l'arme par corrélation d'images et la restitution d'un symbole de visée (par exemple un réticule matérialisant la ligne de visée) sur un organe de visualisation, avantageusement du type casque type visuel de casque. Le symbole peut être affiché sous forme collimatée à l'infini. Il peut être superposé à la scène observée par le tireur, en vision directe ou par l'intermédiaire d'une caméra. Pour la détermination de la position de la ligne de visée, on corréle une image obtenue à partir d'un capteur porté par l'arme et une image obtenue à partir d'un capteur porté par la tête du tireur. Les données d'orientation dans l'espace des deux capteurs sont repérées l'une par rapport à l'autre par des moyens auxiliaires et servent à estimer les écarts d'orientation entre les deux images afin de faciliter la corrélation des images. La corrélation des images permet de déterminer dans la deuxième image la position de la première image. On peut déterminer alors la position dans la deuxième image d'un réticule représentant la ligne de visée de l'arme qui porte le premier capteur. Le réticule ainsi déterminé par calcul est affiché sur un afficheur solidaire de la tête du tireur donc du capteur de la deuxième image. Il est affiché a une position qui correspond à sa place dans la deuxième image, et il est affiché en superposition avec la scène observée par le tireur. Le tireur peut alors pointer son arme sur une cible en alignant le réticule sur cette cible sans avoir à épauler l'arme.To do this, the method according to the invention comprises the determination of the position of the line of sight of the weapon by correlation of images and the restitution of a symbol of sight (for example a reticle materializing the line of sight) on a display member, advantageously of the helmet type, visual type of helmet. The symbol can be displayed in an infinite collimated form. It can be superimposed on the scene observed by the shooter, in direct vision or through a camera. To determine the position of the line of sight, correlates an image obtained from a sensor carried by the gun and an image obtained from a sensor carried by the shooter's head. The spatial orientation data of the two sensors are identified with respect to each other by auxiliary means and are used to estimate the deviations in orientation between the two images in order to facilitate the correlation of the images. The correlation of the images makes it possible to determine in the second image the position of the first image. We can then determine the position in the second image of a reticle representing the line of sight of the weapon which carries the first sensor. The reticle thus determined by calculation is displayed on a display secured to the shooter's head and therefore to the sensor of the second image. It is displayed at a position corresponding to its place in the second image, and it is displayed superimposed on the scene observed by the shooter. The shooter can then point his weapon at a target by aligning the reticle on this target without having to shoulder the weapon.
Le premier capteur est de préférence à champ plus réduit que le deuxième capteur.The first sensor is preferably at a reduced field than the second sensor.
Le système pour la mise en oeuvre du procédé comprend essentiellement un premier capteur d'image fixé sur l'arme, un second capteur d'image fixé sur la tête du tireur, des circuits électroniques de traitement d'images permettant de calculer la position du champ du premier capteur dans l'image du second capteur, et un dispositif de visualisation collimaté à l'infini permettant d'incruster dans le champ de vision du tireur un réticule ou un symbole similaire matérialisant la ligne de visée de l'arme. L'ensemble est complété par des capteurs d'orientation, indépendants des capteurs d'image, fixés respectivement sur l'arme et sur la tête du tireur, permettant une estimation (de préférence continue dans le temps) des écarts d'orientation des champs de visée des premier et second capteurs d'image pour aider à la détermination de position du champ du premier capteur dans l'image du second. Les signaux de ces capteurs d'orientation sont également traités par les circuits électroniques précités.The system for implementing the method essentially comprises a first image sensor fixed on the weapon, a second image sensor fixed on the shooter's head, electronic image processing circuits making it possible to calculate the position of the field of the first sensor in the image of the second sensor, and a display device collimated to infinity making it possible to embed in the field of vision of the shooter a reticle or a similar symbol materializing the line of sight of the weapon. The set is completed by orientation sensors, independent of the image sensors, fixed respectively on the weapon and on the shooter's head, allowing an estimate (preferably continuous over time) of the deviations of orientation of the fields. aiming of the first and second image sensors to assist in determining the position of the field of the first sensor in the image of the second. The signals from these orientation sensors are also processed by the aforementioned electronic circuits.
L'invention a donc pour objet un procédé d'aide à la visée pour arme légère portée par un tireur, caractérisé en ce qu'il comprend les étapes suivantes :The subject of the invention is therefore a method of assisting aiming for a light weapon carried by a shooter, characterized in that it comprises the following steps:
- l'acquisition d'une première image à l'aide d'un premier capteur d'image, associé à un premier champ et fixé à ladite arme, dont l'axe optique est lié mécaniquement à l'axe du canon de l'arme ; ladite première image représentant une scène avant, vue dudit canon ;- the acquisition of a first image using a first image sensor, associated with a first field and fixed to said weapon, the optical axis of which is mechanically linked to the axis of the barrel of the weapon; said first image representing a front scene, seen from said cannon;
- l'acquisition d'une seconde image à l'aide d'un second capteur d'image, associé à un second champ et porté par la tête dudit tireur, de manière à englober tout ou partie d'une scène avant observée par celui-ci et susceptible de contenir une cible ;- the acquisition of a second image using a second image sensor, associated with a second field and carried by the head of said shooter, so as to encompass all or part of a front scene observed by that -this and likely to contain a target;
- l'acquisition par des capteurs d'orientation portés respectivement par l'arme et par la tête du tireur, d'une estimation des écarts angulaires entre le champ observé par le tireur et le champ vu par le capteur porté par l'arme ; - la corrélation des images des deux capteurs pour déterminer la position du champ vu par le premier capteur d'image dans le champ vu par le deuxième capteur, et pour déterminer en particulier la position dans l'image du deuxième capteur d'un point de la première image représentant la ligne de visée de l'arme, la corrélation utilisant l'écart angulaire déterminé précédemment ;- The acquisition by orientation sensors carried respectively by the weapon and by the gunner's head, of an estimate of the angular differences between the field observed by the gunner and the field seen by the sensor carried by the weapon; - the correlation of the images of the two sensors to determine the position of the field seen by the first image sensor in the field seen by the second sensor, and to determine in particular the position in the image of the second sensor of a point of the first image representing the line of sight of the weapon, the correlation using the angular deviation determined previously;
- l'affichage sur un visuel de casque, à une position correspondante, d'un symbole représentant cette ligne de visée. Le symbole est de préférence collimaté à l'infini. Il est de préférence superposé à la scène observée en vision directe, mais on peut aussi envisager qu'il soit superposé à une image fournie par le deuxième capteur ou par une autre caméra portée par la tête du tireur. Les capteurs d'orientation peuvent être du type magnétométrique, avec par exemple un capteur de cap et un inclinomètre deux axes, ces capteurs étant prévus d'une part sur la tête du tireur et d'autre part sur l'arme.- the display on a helmet display, at a corresponding position, of a symbol representing this line of sight. The symbol is preferably collimated to infinity. It is preferably superimposed on the scene observed in direct vision, but it can also be envisaged that it is superimposed on an image supplied by the second sensor or by another camera carried by the shooter's head. The orientation sensors can be of the magnetometric type, with for example a heading sensor and a two-axis inclinometer, these sensors being provided on the one hand on the shooter's head and on the other hand on the weapon.
La corrélation est facilitée en particulier dans une phase d'acquisition où il faut trouver une portion d'image du deuxième capteur coïncidant avec 1 ' image du premier capteur. Les capteurs d'orientation permettent en effet d'élaborer une matrice de rotation permettant de faire tourner les deux images l'une par rapport à l'autre d'une quantité correspondant à l'indication (approximative) donnée par les capteurs d'orientation. Les images se retrouvent alors orientées sensiblement identiquement et la corrélation peut se poursuivre plus facilement. Dans les phases ultérieures de poursuite, la corrélation d'images est l'élément principal servant à déplacer le réticule dans le champ de l'afficheur.Correlation is facilitated in particular in an acquisition phase where an image portion of the second sensor must coincide with the image of the first sensor. The orientation sensors indeed make it possible to develop a rotation matrix making it possible to rotate the two images relative to one another by an amount corresponding to the indication (approximate) given by the orientation sensors . The images are then found to be substantially identically oriented and the correlation can be continued more easily. In the subsequent phases of tracking, the correlation of images is the main element used to move the crosshair in the field of the display.
On détermine en particulier à partir des indications des deux capteurs d'orientation une matrice de rotation représentant les positions relatives dans l'espace de deux trièdres de référence liés l'un à l'arme, l'autre à la tête. On peut aussi, pour aider à la corrélation, utiliser un vecteur de translation, borné a priori à environ 50 cm, représentant l'écart de position entre la tête et l'arme.One determines in particular from the indications of the two orientation sensors a rotation matrix representing the relative positions in space of two reference trihedra linked one to the weapon, the other to the head. One can also, to help with the correlation, use a vector of translation, limited a priori to approximately 50 cm, representing the difference in position between the head and the weapon.
L'invention a encore pour objet un système d'aide à la visée pour la mise en oeuvre de ce procédé.The invention also relates to a sighting aid system for the implementation of this method.
L'invention sera mieux comprise et d'autres caractéristiques et avantages apparaîtront à la lecture de la description qui suit en référence aux figures annexées, parmi lesquelles :The invention will be better understood and other characteristics and advantages will appear on reading the description which follows with reference to the appended figures, among which:
- les figures 1A et 1B illustrent schématiquement l'architecture d'un système d'aide à la visée selon 1 ' invention ; - la figure 2 est un diagramme géométrique permettant d'expliquer le fonctionnement général du système des figures 1A et 1B ;- Figures 1A and 1B schematically illustrate the architecture of an aiming aid system according to the invention; - Figure 2 is a geometric diagram to explain the general operation of the system of Figures 1A and 1B;
- la figure 3 illustre un exemple de dispositif modulaire de traitement de signaux et d'images utilisé dans le système d'aide à la visée de l'invention ;- Figure 3 illustrates an example of a modular signal and image processing device used in the aiming assistance system of the invention;
- La figure 4 illustre l'imbrication d'images fournies par des capteurs en imagerie utilisés dans le système d'aide à la visée de 1 ' invention ; - la figure 5 est un exemple de réalisation plus détaillée d'un des modules du dispositif de la figure 3 ;- Figure 4 illustrates the nesting of images provided by imaging sensors used in the aiming aid system of the invention; - Figure 5 is a more detailed embodiment of one of the modules of the device of Figure 3;
- les figures 6A et 6B illustrent schématiquement une des étapes du procédé selon l'invention ;- Figures 6A and 6B schematically illustrate one of the steps of the method according to the invention;
La figure 7 est un exemple de réalisation plus détaillée d'un module de corrélation utilisé dans le dispositif de la figure 3 ;Figure 7 is a more detailed embodiment of a correlation module used in the device of Figure 3;
- et la figure 8 est un diagramme illustrant la dernière étape du procédé selon l'invention, consistant en une corrélation dite fine.- And Figure 8 is a diagram illustrating the last step of the method according to the invention, consisting of a so-called fine correlation.
On va maintenant, pour expliciter le procédé de visée selon l'invention, décrire un exemple de réalisation d'architecture de système de visée 1 le mettant en oeuvre, par référence aux figures 1A et 1B. La figure 1A illustre schématiquement .son architecture globale et la figure 1B est une figure de détail montrant un des composants utilisés, en l'occurrence un dispositif de visualisation 4, avantageusement du type dit visuel de casque.We will now, to explain the aiming method according to the invention, describe an exemplary embodiment of aiming system architecture 1 implementing it, with reference to FIGS. 1A and 1B. Figure 1A schematically illustrates . its overall architecture and FIG. 1B is a detail figure showing one of the components used, in this case a display device 4, advantageously of the so-called visual helmet type.
Le système 1 comprend tout d ' abord un capteur à imagerie C dans le domaine du visible ou de l'infrarouge, fixé sur l'arme 2. Dans le premier cas (lumière visible), on peut utiliser un capteur matriciel standard, ou un composant du type "IL-CCD" (intensificateur de lumière à dispositif à couplage de charges). Dans le second cas, on peut utiliser un composant du type "M IR" (Médium Wave Infrared : infrarouge dans les gammes de longueurs d'onde comprises entre 3 et 5 μm) ou LWIR (Long Wave Infrared : infrarouge dans les gammes de longueurs d'onde comprises entre 8 et 12 μm) . La direction de l'axe optique, Δci r du capteur Ci est harmonisée, par construction, avec l'axe, Δ20. du canon 20. Si ce n'est pas le cas, on en tient compte dans les calculs.The system 1 firstly comprises a sensor with imagery C in the visible or infrared domain, fixed on the weapon 2. In the first case (visible light), it is possible to use a standard matrix sensor, or a "IL-CCD" type component (light intensifier with charge coupled device). In the second case, we can use a component of the type "M IR" (Medium Wave Infrared: infrared in the wavelength ranges between 3 and 5 μm) or LWIR (Long Wave Infrared: infrared in the wavelength ranges between 8 and 12 μm). The direction of the optical axis, Δci r of the sensor Ci is harmonized, by construction, with the axis, Δ 20. of the barrel 20. If this is not the case, it is taken into account in the calculations.
On prévoit un dispositif de mesure de la position du centre du champ du capteur à imagerie C de 1 ' arme 2. Ce dispositif est composé d'un second capteur à imagerie C2 fixé sur la tête du tireur et d'un dispositif électronique de traitement de signaux et d'images 3 fournies par le capteur C2 , ce dispositif 3 ayant notamment pour fonction de calculer la position du champ du capteur Ci dans l'image du capteur C2. En effet, le champ du capteur C est choisi avantageusement plus petit que le champ du capteur 2 •A device for measuring the position of the center of the field of the imaging sensor C of the weapon 2 is provided. This device is composed of a second imaging sensor C2 fixed on the shooter's head and of an electronic processing device. of signals and images 3 supplied by the sensor C 2 , this device 3 having in particular the function of calculating the position of the field of the sensor Ci in the image of the sensor C2. In fact, the field of the sensor C is advantageously chosen to be smaller than the field of the sensor 2 •
Le système 1 comprend également un dispositif 4 de restitution collimaté à l'infini permettant d'incruster dans le champ de vision du tireur un réticule 41, ou tout autre symbole adapté, matérialisant la visée. Ce dispositif est avantageusement constitué par un organe de visualisation du type dit visuel de casque.The system 1 also includes an infinitely collimated rendering device 4 making it possible to embed in the shooter's field of vision a reticle 41, or any other suitable symbol, materializing the aim. This device is advantageously constituted by a display member of the so-called visual helmet type.
On prévoit enfin un dispositif composé de deux dispositifs, 5 et 6 , qui sont des capteurs d'orientation permettant, en combinant les informations qu'ils délivrent, de déterminer l'écart entre l'orientation de l'arme et l'orientation de la tête. Le plus simple est de prévoir que chacun des capteurs d'orientation comprend deux capteurs : un capteur de cap et un inclinomètre deux axes (non représentés séparément). Ces dispositifs, 5 et 6, qui génèrent des données de cap et d'assiette, sont fixés, respectivement, sur l'arme 2 et sur la tête Te du tireur afin de donner une estimation de préférence continue de l'écart d'orientation des deux axes de visée, Δi et Δ2 , des capteurs C et C2. Ces capteurs sont indépendants des capteurs d'image. Ce double dispositif, 5 et 6, fournit, en coopération avec des circuits spécifiques du dispositif électronique de traitement de signaux et d'images 3, une estimation de la matrice de rotation MR de passage entre le capteur Ci et le capteur 2. Le vecteur translation T n'est pas connu. Sachant que l'arme est tenue par le tireur, on peut estimer la norme de T à une valeur moyenne de 0,7 mètre et une borne supérieure de 1 mètre. L'arme peut par exemple être tenue à la hanche.Finally, there is a device made up of two devices, 5 and 6, which are orientation sensors making it possible, by combining the information which they deliver, to determine the difference between the orientation of the weapon and the orientation of the head. The simplest is to provide that each of the orientation sensors comprises two sensors: a heading sensor and a two-axis inclinometer (not shown separately). These devices, 5 and 6, which generate heading and attitude data, are fixed, respectively, on the weapon 2 and on the shooter's head Te in order to give a continuous preference estimate of the orientation deviation of the two aiming axes, Δi and Δ 2 , sensors C and C2. These sensors are independent of the image sensors. This double device, 5 and 6, provides, in cooperation with specific circuits of the electronic signal and image processing device 3, an estimate of the rotation matrix MR of passage between the sensor Ci and the sensor 2. The vector translation T is not known. Knowing that the weapon is held by the shooter, we can estimate the standard of T at an average value of 0.7 meters and an upper limit of 1 meter. The weapon can for example be held at the hip.
Le dispositif électronique de traitement de signaux et d'images 3 reçoit les signaux générés en sortie du capteur à imagerie C et des capteurs 6, fixés sur la tête Te du tireur, via la liaison 60, et reçoit les signaux générés en sortie du capteur à imagerie C2 et des capteurs 5, portés par l'arme 2, via la liaison 50. Le dispositif 3 transmet en sortie les signaux traités pour affichage sur l'organe de visualisation visuel de casque 4 (dans l'exemple décrit), ainsi que l'alimentation électrique nécessaire au bon fonctionnement de cet organe.The electronic signal and image processing device 3 receives the signals generated at the output of the imaging sensor C and of the sensors 6, fixed on the head Te of the shooter, via the link 60, and receives the signals generated at the output of the sensor with C2 imagery and sensors 5, carried by the weapon 2, via the link 50. The device 3 transmits as output the signals processed for display on the visual display member of the helmet 4 (in the example described), thus than the power supply necessary for the proper functioning of this organ.
La figure 1B illustre l'organe de visualisation 4 en vue de face, c'est-à-dire du côté observé par le tireur. Il permet d'incruster dans la scène avant 40, réellement observée par le tireur, un réticule 41 matérialisant la cible visée, ou d'autres indications, par exemple une flèche indiquant de quel côté il doit tourner l'arme 2, pendant une période initiale du processus de visée, comme il le sera montré ci-après. L'image fournie par le capteur grand champ 2 englobe tout ou partie de la scène observée par le tireur.FIG. 1B illustrates the display member 4 in front view, that is to say on the side observed by the shooter. It allows to embed in the front scene 40, actually observed by the shooter, a reticle 41 materializing the targeted target, or other indications, for example an arrow indicating which side he must turn the weapon 2, for a period initial aiming process, as shown below. The image provided by the wide field sensor 2 encompasses all or part of the scene observed by the shooter.
La figure 2 est un diagramme géométrique illustrant les relations existant entre un trièdre de référence Rc2 associé aux dispositifs portés par la tête Te du tireur, et notamment au capteur 2 , et un trièdre de référence TRci associé aux dispositifs portés par l'arme 2, et notamment au capteur C . On a représenté sur ce diagramme, le vecteur translation T et on a superposé au trièdre de référence TRC1 un trièdre de référence TR ' C2 (en traits pointillés) , représentant le trièdre de référence TRC2 , après translation suivant le vecteur T. Cette superposition permet de calculer la matrice rotation MR .FIG. 2 is a geometric diagram illustrating the relationships existing between a reference trihedron Rc2 associated with the devices carried by the shooter's head Te, and in particular with the sensor 2, and a reference trihedron TRci associated with the devices carried by the weapon 2, and in particular to sensor C. We have represented on this diagram, the translation vector T and we have superimposed on the reference trihedron TRC1 a reference trihedron TR 'C2 (in dotted lines), representing the reference trihedron TRC2, after translation according to the vector T. This superposition allows to calculate the rotation matrix MR.
Le processus de visée comprend deux étapes initiales, réalisées à l'aide des deux dispositifs de capteurs de positionnement 5 et 6.The aiming process includes two initial steps, carried out using the two positioning sensor devices 5 and 6.
La première étape, que l'on appellera de "ralliement automatique" consiste à utiliser les signaux générés par les capteurs d'orientation 5 et 6 , sur l'arme 2 et sur la tête Te du tireur, pour aider le tireur à pointer son arme dans la même direction que sa tête. Ceci est fait par le dispositif de traitement de signaux et d'images 3. Les signaux traités comprennent des informations de cap et d'inclinaison des référentielε, T-Ci et T.RC2 , liés aux capteurs, Ci et C2 par rapport à un repère terrestre- En sortie, le dispositif de traitement 3 génère des signaux permettant d'estimer l'écart d'orientation des champs de visée des capteurs, et C2 , au moins en sens et direction. Ces signaux sont transmis à l'organe de visualisation 4, de façon à afficher un symbole spécifique sur l'écran, par exemple une flèche 42, en lieu et place du réticule 41 matérialisant la visée. Le tireur sait alors qu'il doit déplacer le canon de son arme 2 , suivant la direction générale symbolisée par la flèche 42, de façon à ce que le réticule 41 symbolisant la visée entre dans son champ de vision et soit affiché sur l'écran de l'organe de visualisation. Il s'agit donc d'une aide automatique, très grossière, pour obtenir un pointage approximatif de l'arme 2, de façon à ce que les étapes du processus d'aide à la visée proprement dit puissent débuter. Cependant un pointage initial approximatif peut être réalisé manuellement, sans l'assistance d'une quelconque symbologie. La seconde étape initiale consiste à calculer une estimation de la matrice de rotation précitée MR , toujours à l'aide des données fournies par les deux capteurs d'orientation, 5 et 6. Cette estimation de la matrice de rotation MR est obtenue en comparant les données (assiette et cap) fournies par les deux dispositifs, 5 et 6 , et en utilisant éventuellement l'estimée du vecteur translation T .The first step, which will be called "automatic rallying", consists in using the signals generated by the orientation sensors 5 and 6, on the weapon 2 and on the gunner's head Te, to help the gunner to point his weapon in the same direction as his head. This is done by the signal and image processing device 3. The processed signals include heading and tilt information of the reference frames, T-Ci and T.RC2, linked to the sensors, Ci and C2 with respect to a landmark - At the output, the processing device 3 generates signals making it possible to estimate the difference in orientation of the fields of sight of the sensors, and C2, at least in direction and direction. These signals are transmitted to the display member 4, so as to display a specific symbol on the screen, for example an arrow 42, in place of the reticle 41 materializing the aim. The shooter then knows that he must move the barrel of his weapon 2, in the general direction symbolized by the arrow 42, so that the reticle 41 symbolizing the aim enters his field of vision and is displayed on the screen. of the display unit. It is therefore an automatic aid, very coarse, to obtain an approximate score of weapon 2, so that the stages of the aid to the aiming process itself can begin. However, an approximate initial score can be performed manually, without the assistance of any symbology. The second initial step consists in calculating an estimate of the aforementioned rotation matrix MR, still using the data provided by the two orientation sensors, 5 and 6. This estimate of the rotation matrix MR is obtained by comparing the data (attitude and heading) provided by the two devices, 5 and 6, and possibly using the estimate of the translation vector T.
Une fois cette ou ces étapes initiales effectuées, la corrélation des images est effectuée en utilisant la matrice de rotation pour faciliter l'acquisition de zones d'images identiques dans les images fournies par les deux capteurs d'image ; en faisant tourner l'image du premier capteur d'angles définis par la matrice de rotation, on donne aux images des deux capteurs sensiblement la même orientation, ce qui facilite la corrélation.Once this or these initial steps have been performed, the correlation of the images is performed using the rotation matrix to facilitate the acquisition of identical image areas in the images supplied by the two image sensors; by rotating the image of the first sensor of angles defined by the rotation matrix, the images of the two sensors are given substantially the same orientation, which facilitates correlation.
Cette corrélation va permettre ensuite de déterminer dans le champ du capteur de tête quelle est la position de la ligne de visée, celle-ci étant représentée par un point bien déterminé (par exemple un point central) du champ du capteur d'arme Cl et le champ du capteur d'arme étant localisé, par la corrélation, dans le champ du capteur de tête.This correlation will then make it possible to determine in the field of the head sensor what is the position of the line of sight, this being represented by a well determined point (for example a central point) of the field of the weapon sensor Cl and the field of the weapon sensor being located, by correlation, in the field of the head sensor.
On peut donc afficher sur l'écran de l'organe de visualisation 4 un réticule 41 matérialisant la visée et s ' incrustant sur la scène 40 observée par le tireur, et donc se superposant sur la cible qu'il désire atteindre, puisque le réticule 41 va se déplacer en synchronisme avec les mouvements de l'arme 2 (phase de poursuite après la phase d'acquisition de l'opération de corrélation) .It is therefore possible to display on the screen of the display member 4 a reticle 41 materializing the aiming and being embedded in the scene 40 observed by the shooter, and therefore superimposed on the target that he wishes to reach, since the reticle 41 will move in synchronism with the movements of weapon 2 (tracking phase after the acquisition phase of the correlation operation).
Les circuits électroniques du dispositif 3 peuvent être découpés en modules pour l'exécution des différentes étapes nécessaires.The electronic circuits of the device 3 can be cut into modules for the execution of the various necessary steps.
La figure 3 illustre la configuration modulaire d'un dispositif de traitement d'images 3 pour la mise en oeuvre du procédé de visée, selon un mode de réalisation préféré de l'invention. On n'a pas représenté les circuits permettant l'exécution de la ou des étapes initiales précitées.FIG. 3 illustrates the modular configuration of an image processing device 3 for the implementation of the aiming method, according to a preferred embodiment of the invention. The circuits allowing the execution of the above-mentioned initial step or steps have not been shown.
Dans ce qui suit, un certain nombre de conventions concernant des signaux et d'autres paramètres utilisées par le procédé de l'invention seront respectées. Ces conventions sont portées dans la "TABLE DES NOTATIONS" annexée en fin de la présente description.In the following, a certain number of conventions concerning signals and other parameters used by the method of the invention will be respected. These conventions are listed in the "TABLE OF NOTATIONS" appended at the end of this description.
Le dispositif 3 comprend deux modules d'acquisition analogique/numérique, 30 et 34, respectivement pour les voies d'acquisition des signaux de sortie des capteurs Ci et C2.The device 3 comprises two analog / digital acquisition modules, 30 and 34, respectively for the channels for acquiring the output signals of the sensors Ci and C2.
Les signaux de sortie des modules d'acquisition analogique/numérique, 30 et 34, sont transmis à des modules d'extraction de contours de zones homogènes, ou objets, contenues dans les images numériques, modules 31 et 35, respectivement .The output signals of the analog / digital acquisition modules, 30 and 34, are transmitted to modules for extracting contours of homogeneous zones, or objects, contained in the digital images, modules 31 and 35, respectively.
Un module 32 calcule ensuite la pyramide de contours de l'image fournie par le capteur petit champ Ci, après extraction des contours.A module 32 then calculates the pyramid of contours of the image supplied by the small field sensor Ci, after extraction of the contours.
De même les signaux en sortie du module 35 sont transmis à un premier module 36 d'établissement des images des distances aux contours de l'image grand champ, suivi d'un module 37 d'établissement de la pyramide d'images dites de "chamfer", c'est-à-dire des distances au contour le plus proche .Similarly, the signals at the output of the module 35 are transmitted to a first module 36 for establishing the images of the distances to the contours of the wide field image, followed by a module 37 for establishing the pyramid of images called " chamfer ", that is, distances to the nearest contour.
Enfin un double module de corrélation dit "Gros- Fin" 33, reçoit les signaux de sortie des modules 32 et 37, ainsi que des signaux de gradients fournis par le module d'extraction de contours 35, et, fournis par les modules respectifs 30 et 34 d'acquisition de signaux d'image, iP et iG , dont la définition est donnée dans la table de notation précitée. Les calculs effectués par la partie dite "Gros" du module corrélation 33 sont fondés sur un algorithme de type corrélation valuée.Finally a double correlation module called "Gros-Fin" 33, receives the output signals from modules 32 and 37, as well as gradient signals supplied by the contour extraction module 35, and, supplied by the respective modules 30 and 34 for acquiring image signals, iP and iG, the definition of which is given in the aforementioned rating table. The calculations performed by the so-called "Big" part of the correlation module 33 are based on a valued correlation type algorithm.
Les calculs effectués par la partie dite "Fin" sont fondés sur un algorithme d'estimation de l'écart de positionnement entre le centre de l'image du capteur petit champ Ci et le centre de la zone de positionnement FG dans l'image grand champ du capteur C , calculée par le module "gros" .The calculations carried out by the so-called "End" part are based on an algorithm for estimating the positioning difference between the center of the image of the small field sensor Ci and the center of the positioning zone F G in the image. large field of the sensor C , calculated by the "large" module.
Les différents modules composant le dispositif 3 vont maintenant être détaillés.The different modules making up the device 3 will now be detailed.
Une fois que le modèle et le type des capteurs, Ci et C2 , sont sélectionnés, les champs respectifs de ces capteurs sont connus. Ce sont des données fournies par le constructeur, ainsi que d'autres caractéristiques associées : résolution, etc.Once the model and type of sensors, Ci and C2, are selected, the respective fields of these sensors are known. These are data supplied by the manufacturer, as well as other associated characteristics: resolution, etc.
La conversion analogique/numérique des signaux d'image générés par les capteurs C et C2 , conversion effectuée dans les modules 30 et 34, est assurée de manière synchrone par un dispositif de numérisation d'images classique, sur une dynamique typique de 28 niveaux de gris.The analog / digital conversion of the image signals generated by the sensors C and C2, conversion carried out in the modules 30 and 34, is ensured synchronously by a conventional image scanning device, on a typical dynamic of 28 levels of Grey.
L'estimation de la matrice de rotation MR , et son application aux images issues du capteur , ainsi que la connaissance des champs des capteurs, i et C2 , permet de construire, par un traitement de ré-échantillonnage spatial, à partir de l'image numérisée issue du capteur petit champ i deux images dérivées iP et I ' P d'axes parallèles aux axes de l'image iG r en supposant que celle-ci soit rectangulaire, ou de façon plus générale d'un référentiel orthonormé lié à celle-ci. Ces images, i et I ' P , sont telles que la relation suivante soit satisfaite :The estimation of the rotation matrix MR, and its application to the images from the sensor, as well as the knowledge of the fields of the sensors, i and C2, makes it possible to construct, by a spatial resampling processing, from the digitized image from the small field sensor i two derived images iP and I 'P of axes parallel to the axes of the image iG r assuming that it is rectangular, or more generally of an orthonormal reference frame linked to that -this. These images, i and I 'P, are such that the following relation is satisfied:
C∑G ≈ QxciP (1) ,C∑G ≈ QxciP (1),
avec Q nombre entier, et ClG = CI ' P ( 1 bis ) ,with Q whole number, and ClG = CI 'P (1 bis),
avec CJG, ClP et CI ' P, les champs instantanés des images jG. jP et I ' P , respectivement.with CJ G , ClP and CI 'P, the instantaneous fields of jG images. jP and I 'P, respectively.
Le ré-échantillonage spatial est réalisé par une fonction classique d'interpolation, de type bilinéaire ou bicubique.Spatial re-sampling is carried out by a conventional interpolation function, of bilinear or bicubic type.
La valeur de Q est choisie de la façon indiquée ci- dessous .The value of Q is chosen as shown below.
Le champ souhaité de l'image "brute" ClGβrute en sortie du capteur C2 est inférieur au champ instantané de l'image "brute" ClPβrute du capteur petit champ Ci- Les relations liant ces deux images "brutes" sont les suivantes :The desired field of the “raw” image ClGβrute at the output of the sensor C2 is less than the instantaneous field of the “raw” image ClPβrute of the small field sensor Ci- The relationships linking these two “raw” images are as follows:
ClGβru te = λxClPBru te (2) ,ClGβru te = λxClPBru te (2),
avec λ un nombre réel plus grand que l'unité et Q partie entière de λ.with λ a real number greater than unity and Q whole part of λ.
La figure 4 est un diagramme illustrant schématiquement les images JG, ∑P et I ' P . La découpe de la zone utile des images ré-échantillonées est telle que l'image I ' P est incluse dans l'image IG du capteur grand champ C2 • On a représenté schématiquement, sur la figure 4, en traits pointillés, les positions des images ∑ et I ' P avant application de la matrice de rotation MR . Les axes XYZ symbolisent le référentiel T-RCi (figure 2).FIG. 4 is a diagram schematically illustrating the images J G , ∑P and I 'P. The cutting of the useful area of the resampled images is such that the image I ′ P is included in the image I G of the wide field sensor C 2 • The diagrams have shown schematically in FIG. 4 positions of the images ∑ and I 'P before application of the rotation matrix MR. The XYZ axes symbolize the T-RCi reference system (Figure 2).
Les signaux numériques représentant les images iP et i sont transmis au module 33.The digital signals representing the images iP and i are transmitted to the module 33.
. . A0 A l'issue de cette opération, on définit par ™* la valeur maximale du roulis résiduel apparent de I ' P dans l'image i . Les modules 31 et 35 effectuent l'extraction des contours objets présents dans les deux images numérisées. Le processus est similaire dans les deux modules.. . A 0 At the end of this operation, we define by ™ * the maximum value of the apparent residual roll of I 'P in image i. The modules 31 and 35 extract the object contours present in the two digitized images. The process is similar in both modules.
La figure 5 illustre de façon plus détaillée, sous forme de blocs diagrammes, l'un des modules, par exemple le module 31.FIG. 5 illustrates in more detail, in the form of block diagrams, one of the modules, for example the module 31.
Les paramètres d'extraction sont choisis de manière à introduire un niveau de filtrage passe-bas identique sur les deux images numérisées.The extraction parameters are chosen so as to introduce an identical low-pass filtering level on the two scanned images.
Un module d'entrée 310 calcule des images de gradients Gx et Gy selon deux axes orthonormés X et Y attachés a l'image. Cette opération peut être réalisée par toute méthode classique du domaine du traitement d'image. On peut avoir recourt, par exemple, à des traitements récursifs comme ceux décrits dans l'article de Rachid DERICHE, intitulé : "Using Canny ' s detector to dérive a recursively implemented Optimal Edge Detector", "Computer Vision 1987", pages 167-187, article auquel on se reportera avec profit.An input module 310 calculates images of gradients Gx and Gy along two orthonormal axes X and Y attached to the image. This operation can be carried out by any conventional method in the field of image processing. One can have recourse, for example, to recursive treatments like those described in the article of Rachid DERICHE, entitled: "Using Canny 's detector to drift a recursively implemented Optimal Edge Detector", "Computer Vision 1987", pages 167- 187, article to which we will profitably refer.
Les images de gradients calculés, suivant les axes X et Y, sont transmises à un premier module 311 destiné à calculer, en chaque point la norme du gradient NG, conformément à la relation suivante :The images of calculated gradients, along the X and Y axes, are transmitted to a first module 311 intended to calculate, at each point, the norm of the gradient NG, in accordance with the following relation:
NG(/, ./) = |G,(/,/)|--!G. (/,/)! (3),NG = | G (/, /) | (/, /.) - G!. (/, / )! (3),
avec i et j des coordonnées de pixels dans l'image, selon deux axes orthonormés.with i and j the coordinates of pixels in the image, along two orthonormal axes.
Les images de gradients calculés sont également transmises à un second module 312, destiné à calculer en chaque point l'orientation du gradient OG, conformément à la relation suivante :The images of calculated gradients are also transmitted to a second module 312, intended to calculate at each point the orientation of the gradient OG, in accordance with the following relation:
Figure imgf000016_0001
Les signaux de sorties élaborés par les modules 311 et 312, représentent, respectivement, les images de la norme et de l'orientation des gradients, sont transmis à un module de sortie 314 élaborant une liste des points de contours des objets détectés dans l'image numérisée, sous forme de coordonnées numériques. Cette étape comprend les sous-étapes suivantes : binarisation, suppressions des non-maxima et application d'un seuil par hystérésis. La sous-étape de binarisation nécessite de connaître les seuils hauts et bas. L'estimation de ces seuils est effectuée par un module supplémentaire 313, selon un processus itératif. Le module 313 reçoit en effet les données associées à la liste des points de contours en rétroaction. Il reçoit également sur une seconde entrée 1 ' image de la norme des gradients calculée par le module 311.
Figure imgf000016_0001
The output signals produced by the modules 311 and 312, represent, respectively, the images of the standard and of the orientation of the gradients, are transmitted to an output module 314 drawing up a list of the contour points of the objects detected in the digitized image, as digital coordinates. This step includes the following sub-steps: binarization, removal of non-maxima and application of a threshold by hysteresis. The binarization sub-step requires knowing the high and low thresholds. These thresholds are estimated by an additional module 313, according to an iterative process. The module 313 indeed receives the data associated with the list of contour points in feedback. It also receives on a second input the image of the gradient norm calculated by the module 311.
A partir de la liste des points de contours extraits de l'image précédente et de la norme des gradients de l'image courante, le module 313 a pour objet d'asservir dynamiquement, zone de l'image par zone de l'image, les seuils hauts et bas.From the list of contour points extracted from the previous image and from the standard of the gradients of the current image, the object of the module 313 is to dynamically control, zone of the image by zone of the image, high and low thresholds.
L'image courante est divisée en zones de tailles égales. Sur chaque zone, d'indice arbitraire z, le module 313 calcule un seuil haut, que l'on référencera SHZ , et un seuil bas, que l'on référencera SBZ , pour l'image en cours de traitement à un instant t arbitraire, ce en fonction des seuils haut et bas obtenus sur la zone à un instant t-1 correspondant à l'image précédente. La relation suivante est utilisée :The current image is divided into areas of equal size. On each zone, of arbitrary index z, the module 313 calculates a high threshold, which we will refer to SH Z , and a low threshold, which we will refer to SB Z , for the image being processed at an instant t arbitrary, this as a function of the high and low thresholds obtained on the area at an instant t-1 corresponding to the previous image. The following relationship is used:
SHz (t ) = αχβχSffz(t-l) -t- ( l-a) Snorme (5),SH z (t) = αχβ χ Sff z (tl) -t- (la) S n elm (5),
avec α e [0, 1] , la valeur exacte étant fixée par l'application, selon le type de capteur sélectionné, la valeur α = 0,8 étant une valeur typique, β dépend du nombre de points de contour extraits dans l'image précédente, à l'instant t-1. Si le nombre de points est trop élevé pour tenir une cadence en temps réel, β est choisi inférieur à l'unité. Par contre, si le nombre de points est insuffisant pour obtenir une information de contour, on choisit β supérieur à l'unité. Typiquement la valeur de β est comprise entre 0,8 et 1,25.with α e [0, 1], the exact value being fixed by the application, depending on the type of sensor selected, the value α = 0.8 being a typical value, β depends on the number of contour points extracted in the previous image, at time t-1. If the number of points is too high to maintain a rate in real time, β is chosen to be less than unity. On the other hand, if the number of points is insufficient to obtain contour information, one chooses β greater than unity. Typically the value of β is between 0.8 and 1.25.
snorme est la valeur de seuil à appliquer sur la norme de gradient pour effectuer une opération de seuil sur n % des points de la zone. Le nombre n est choisi en fonction des caractéristiques des capteurs (richesse spatiale de l'image) et est compris typiquement entre 5 % et 15 %. s norm is the threshold value to be applied to the gradient norm to perform a threshold operation on n% of the points in the area. The number n is chosen according to the characteristics of the sensors (spatial richness of the image) and is typically between 5% and 15%.
La relation suivante est satisfaite :The following relationship is satisfied:
SBZ = E (yx ( SHz ( t ) ) (6) ,SB Z = E (yx (SH z (t)) (6),
avec E valeur entière et γ fixé une fois pour toutes par l'application, γ est généralement inférieur à 0,5.with E integer value and γ fixed once and for all by the application, γ is generally less than 0.5.
Pour éviter les effets de discontinuités interzones, un processus de lissage des seuils obtenus est mis en oeuvre. Chaque zone z est divisée en quatre sous-zones contiguës et les seuils hauts et bas sont recalculés pour les sous-zones par un algorithme d'interpolation classique, en utilisant les zones adjacentes à la zone z .To avoid the effects of inter-zone discontinuities, a process of smoothing the thresholds obtained is implemented. Each zone z is divided into four contiguous sub-zones and the high and low thresholds are recalculated for the sub-zones by a conventional interpolation algorithm, using the zones adjacent to the zone z.
Le module 314 effectue la binarisation des contours et la suppression des non-maxima locaux, selon une méthode d'hystérésis. Ce module 314 détermine les chaînes de contour (c'est-à-dire les ensembles de contours connexes selon le principe de la connexite à huit) telles qu'un point au moins de chaque chaîne dépasse le seuil haut local de sa zone et que tous les autres points de la chaîne dépassent leur seuil bas local.The module 314 performs the binarization of the contours and the suppression of the local non-maxima, according to a hysteresis method. This module 314 determines the contour chains (that is to say the sets of connected contours according to the principle of connexity to eight) such that at least one point of each chain exceeds the local high threshold of its zone and that all other points in the chain exceed their local low threshold.
En outre, chaque point de la chaîne est conservé s'il constitue un maximum local de la norme. Pour le vérifier, on compare la norme du gradient en ce point, que l'on appellera P, avec la norme du gradient de deux autres points, Pi et P2 , qui sont les plus proches du point P, suivant une direction réalisant la meilleure approximation sur un voisinage 3x3 de la normale au contour au point P . La direction de cette normale est calculée à partir de l'orientation du gradient au point P qui donne la direction de la tangente au point P .In addition, each point in the chain is kept if it constitutes a local maximum of the standard. To verify this, we compare the gradient norm at this point, which we will call P, with the gradient norm of two other points, Pi and P2, which are closest to point P, in a direction achieving the best approximation on a 3x3 neighborhood of the normal to the contour at point P. The direction of this normal is calculated from the orientation of the gradient at point P which gives the direction of the tangent at point P.
Le processus qui vient d'être explicité est illustré très schématiquement par les figures 6A et 6B. Sur la figure 6A, on a représenté une image représentant la scène vue par le capteur grand champ C2 , comprenant, dans l'exemple illustré, deux objets remarquables constitués par un arbre Ar et un bâtiment Bt . En fin du processus d'extraction de contours, on dispose d'une liste de points de contours CAr et CBt , représentés, par exemple, par des zéros. Les deux objets, symbolisés par ces contours, peuvent représenter des cibles potentielles qui se distinguent de l'arrière plan.The process which has just been explained is illustrated very schematically by FIGS. 6A and 6B. In FIG. 6A, an image is represented representing the scene seen by the wide field sensor C2, comprising, in the example illustrated, two remarkable objects constituted by a tree Ar and a building Bt. At the end of the contour extraction process, there is a list of contour points CAr and CBt, represented, for example, by zeros. The two objects, symbolized by these contours, can represent potential targets that stand out from the background.
En dehors des points de contours, les points ou pixels de 1 ' image sont représentés par des nombres différents de zéro (1, 2, 3, ...) et dont la valeur est d'autant plus grande que ces points sont éloignés des contours (distance en connexite à 4 d'un pixel au contour le plus proche, la distance étant exprimée en pixels).Apart from the contour points, the points or pixels of the image are represented by numbers other than zero (1, 2, 3, ...) and the value of which is all the greater the further these points are from contours (distance in connectivity to 4 from a pixel to the nearest contour, the distance being expressed in pixels).
Naturellement les zéros de la liste sont associés à des coordonnées numériques, selon un référentiel orthonormé XY , dont les axes sont avantageusement parallèles aux bords de l'image, si celle-ci est rectangulaire. Ces coordonnées sont stockées, au moins temporairement, dans des circuits de mémoire classiques (non représentés) , de façon à être utilisées par le module suivant, 32 ou 36, selon la voie considérée (figure 3).Naturally, the zeros in the list are associated with digital coordinates, according to an orthonormal reference frame XY, the axes of which are advantageously parallel to the edges of the image, if the latter is rectangular. These coordinates are stored, at least temporarily, in conventional memory circuits (not shown), so as to be used by the next module, 32 or 36, depending on the channel considered (FIG. 3).
On va se reporter de nouveau à la figure 3.We will refer again to Figure 3.
Sur la voie supérieure (traitement de l'image issue du capteur petit champ Ci) , le module 32 permet l'établissement de la pyramide des contours, à partir de la liste calculée par le module 31.On the upper channel (image processing from the small field sensor Ci), module 32 allows the establishment of the pyramid of contours, from the list calculated by module 31.
Pour des raisons de vitesse d'exécution, la constitution de la pyramide consiste à utiliser l'image des contours CF 0 déterminée par le module 311 au niveau maximal de résolution et de constituer la suite d'images CP k de la pyramide conformément à la relation (7) suivante : C[(ιj) = _, (2,,2 ) v _, (2ι,2j + 1) v Qp_, (2/ + 1,2/) v Cf., (2/ τ 1,2 j + 1) 'For reasons of speed of execution, the constitution of the pyramid consists in using the image of the contours C F 0 determined by the module 311 at the maximum level of resolution and in constituting the sequence of images C P k of the pyramid in accordance to equation (7): C [(ιj) = _ (2, 2) v _, (2ι, 2j + 1) v Q p _, (2 / + 1.2 /) v Cf. , (2 / τ 1,2 d + 1) '
relation dans laquelle k e [0 , K] , avec K entier, tel que 2k ≥ tg(— Aam--A ) -
Figure imgf000020_0001
,' et Δ(n.» la valeur maximale du roulis résiduel précédemment définie.
relation in which ke [0, K], with K integer, such that 2 k ≥ tg (- A a m-- A ) -
Figure imgf000020_0001
, 'and Δ (n. »the maximum value of the residual roll previously defined.
Les pixels sont considérés comme des booléens (la proposition est vrai s'il y a présence de contours, fausse dans le cas contraire) . Le paramètre Tp est le maximum des tailles de ∑P selon les axes orthonormés X et Y.Pixels are considered booleans (the proposition is true if there are contours, false otherwise). The parameter T p is the maximum of the sizes of ∑P according to the orthonormal axes X and Y.
Le nombre de points non nuls (c'est-à-dire le nombre de points de contours) dans l'imaαeCV est noté ΩfThe number of non-zero points (i.e. the number of contour points) in the imaαeCV is noted Ωf
Sur la voie inférieure (traitement de l'image issue du capteur grand champ 2 ) , les gradients calculés par le module 310 (figure 5) sont transmis sur une entrée du module 33.On the lower channel (processing of the image from the wide field sensor 2), the gradients calculated by the module 310 (FIG. 5) are transmitted to an input of the module 33.
Le module 36 permet l'établissement de l'image des distances au contour le plus proche. Cette image est constituée à partir de l'image des contours de l'image grand champ donnée par le capteur C2 • Pour ce faire, on peut utiliser une méthode algorithmique connue, par exemple celle divulguée par l'article de Gunilla BORGEFORS, intitulé : "Hierarchical Chamfer Matching : A parametric edge matching algorithm", paru dans "IEEE Transactions on Pattern Analysis and Machine Intelligence", novembre 1988, Vol 10, n°6, pages 849-865, auquel on se reportera avec profit. Le module 37 permet d'établir la pyramide des images dites de "chamfer" calculées à partir de l'image fournie par le module précédent 36.The module 36 allows the establishment of the image of the distances to the nearest contour. This image is made up from the image of the contours of the wide field image given by the sensor C2. To do this, we can use a known algorithmic method, for example that disclosed by the article by Gunilla BORGEFORS, entitled: "Hierarchical Chamfer Matching: A parametric edge matching algorithm", published in "IEEE Transactions on Pattern Analysis and Machine Intelligence", November 1988, Vol 10, n ° 6, pages 849-865, to which we will profitably refer. The module 37 makes it possible to establish the pyramid of the so-called "chamfer" images calculated from the image provided by the previous module 36.
Pour des raisons de vitesse d'exécution, la constitution de la pyramide consiste à utiliser l'image des distances de "chamfer" constituée à partir de l'image des contours de 1 ' image grand champ DG Q déterminée par le module 36 au niveau maximal de résolution et de constituer la suite d'images DG de la pyramide conformément à la relation (8) suivante :For reasons of speed of execution, the constitution of the pyramid consists in using the image of the "chamfer" distances constituted from the image of the contours of the large field image D G Q determined by the module 36 at maximum level of resolution and to constitute the sequence of images D G of the pyramid in accordance with the following relation (8):
DG r(i, j) = Max(DG_, (2,2 ), D°_, (2/.2 ; + 1). DG , (2/ + 1,2/), G , (2/ + 1,2 + 1)) div 2 ,D G r (i, j) = Max (D G _, (2,2), D ° _, (2 / .2; + 1). D G , (2 / + 1,2 /), G , (2 / + 1.2 + 1)) div 2,
relation dans laquelle r e [0 , R] , avec -R = K + g, et div représente la fonction division entière.relation in which r e [0, R], with -R = K + g, and div represents the integer division function.
Le module de corrélation 33 est en réalité subdivisé en deux modules, comme il a été indiqué.The correlation module 33 is actually subdivided into two modules, as indicated.
Le module dit "gros", 33G, est représenté sous forme de bloc diagramme par la figure 7, et comprend trois sous- modules en cascade : 330 à 332.The so-called "large" module, 33G, is represented in the form of a block diagram by FIG. 7, and comprises three cascaded sub-modules: 330 to 332.
Le module 33G réalise une corrélation valuée, au même niveau de résolution, entre les images de la pyramide de contour de l'image petit champ et les images de la pyramide des images de distances aux contours obtenues à partir de l'image grand champ.The 33G module performs a valued correlation, at the same level of resolution, between the images of the contour pyramid of the small field image and the images of the pyramid of distance images with contours obtained from the large field image.
Le sous-module d'entrée 330 permet la constitution de la nappe de corrélation N]ζ ( u, v) , conformément à la relation suivante :The input sub-module 330 allows the constitution of the correlation table N] ζ (u, v), in accordance with the following relation:
Nκ (^,) = ∑ ∑ (Dc (lJ) - Cκ p(ι -r ,j + v)) (9) / N κ (^ , ) = ∑ ∑ (D c ( l J) - C κ p (ι -r, j + v)) (9) /
relation dans laquelle, u et v sont des coordonnées orthogonales dans la nappe de corrélation, avec U^ ≤ u ≤ U^ et Vf ≤ v ≤ T , inégalités dans lesquelles V^nf et ϋinf sont typiquement égaux à -2, et v^up et Usup sont typiquement égaux à +2.relation in which, u and v are orthogonal coordinates in the correlation table, with U ^ ≤ u ≤ U ^ and Vf ≤ v ≤ T, inequalities in which V ^ nf and ϋi nf are typically equal to -2, and v ^ up and U sup are typically equal to +2.
Le module 331 est destiné à la sélection des minimas locaux. Cette sélection est réalisée en deux étapes.The module 331 is intended for the selection of local minima. This selection is made in two stages.
On sélectionne d'abord des couples (u , v) tels queWe first select couples (u, v) such that
N(u, v) N (u , v) présente un minimum local et — < S . 5 est unN (u, v) N (u, v) has a local minimum and - <S. 5 is a
seuil qui dépend de la densité spectrale de l'image d'entrée. On détermine le seuil S par une procédure classique de calibrage du dispositif de traitement d'images.threshold which depends on the spectral density of the input image. The threshold S is determined by a conventional calibration procedure of the image processing device.
L'ensemble des minimas locaux au niveau K de la pyramide est noté ΞThe set of local minima at level K of the pyramid is noted Ξ
Enfin, dans le module 332, on effectue, par un processus itératif, la remontée des niveaux des pyramides et un filtrage des valeurs.Finally, in module 332, an iterative process is carried out, raising the levels of the pyramids and filtering the values.
Pour tout niveau n de la pyramide des images C 'kp , on constitue un ensemble Ξn comme indiqué ci-après.For any level n of the pyramid of images C 'kp , we constitute a set Ξ n as shown below.
Pour tout couple (u , v) de Ε.n + ± , on calcule une nappe de corrélation Nn réduite à 4 points, au niveau n , tel que :For any couple (u, v) of Ε. n + ±, we calculate a correlation table N n reduced to 4 points, at level n, such that:
^(' ') = χ∑( °<,(/,./).c;( + t ./ + ')) (io),^ ( '') = ΧΣ (° <, (/, /) c;.. (T + / +. ')) (Io),
relation dans laquelle (u', \" ) e [2u, 2u+l]x [2 v, 2 v+l] .relation in which (u ', \ ") e [2u, 2u + l] x [2 v, 2 v + l].
On conserve un point P pour chaque nappe Nn . Ce point P est celui pour lequel la valeur de la nappe est minimale si celui-ci vérifie la relation :We keep a point P for each layer N n . This point P is that for which the value of the tablecloth is minimum if this one checks the relation:
NAP) nNAP) n
avec S le seuil précédemment défini. Ainsi on constitue une suite d'ensembles Ξj pour j e [0, K-1 ] .with S the previously defined threshold. Thus we constitute a sequence of sets Ξ j for I [0, K-1].
Le point sélectionné par le module "gros" 33G est le point u tel que : πeΞ„ et \Jp e Ξ0,p ≠ τi => NQ(p) > N0(π) (12).The point selected by the "large" module 33G is the point u such that: πeΞ „and \ Jp e Ξ 0 , p ≠ τi => N Q (p)> N 0 (π) (12).
Le processus de corrélation peut s'arrêter à cette étape. En effet, le point π constitue le meilleur point sélectionné. On peut afficher dans le dispositif de visualisation 4 un réticule 41 correspondant à l'impact de l'axe de visée Δ20 de l'arme 2 sur la cible visée, et se superposant à la scène observée 40 par le tireur au travers de l'écran du dispositif 4.The correlation process can stop at this stage. Indeed, the point π constitutes the best selected point. It is possible to display in the display device 4 a reticle 41 corresponding to the impact of the aiming axis Δ2 0 of the weapon 2 on the intended target, and superimposed on the scene observed 40 by the shooter through the device screen 4.
Il est cependant possible d'améliorer encore la précision de la visée. Aussi, selon un autre aspect de la présente invention, applicable à d'autres contextes ou une corrélation est nécessaire, on propose de procéder à une opération de corrélation dite " fine ", utilisant une estimation d'un écart subpixellique entre une fenêtre sélectionnée dans 1 ' image du premier capteur et une fenêtre correspondante sélectionnée dans l'image du deuxième capteur.However, it is possible to further improve the accuracy of the sighting. Also, according to another aspect of the present invention, applicable to other contexts where a correlation is necessary, it is proposed to carry out a so-called "fine" correlation operation, using an estimate of a subpixel difference between a window selected in 1 image of the first sensor and a corresponding window selected in the image of the second sensor.
On va considérer, comme illustré par le diagramme de la figure 8, une fenêtre F ' P de quelques pixels, centrée dans l'image ' G, et une fenêtre FG de centre FI, également de quelques pixels, dans l'image IG. Les pixels sont délimités par des lignes, verticales et horizontales, en traits pointillés, les pixels étant supposés carrés. De façon plus précise, le point π est le centre du pixel central de la fenêtre G , et un point O ' P , le centre du pixel central de la fenêtre F ' P. Le vecteur E représente le décalage entre les deux "grilles" de pixels, sur l'axe Yl-O ' P, c'est-à-dire en amplitude et en direction. La taille de la fenêtre F ' P est choisie de telle manière à garantir la présence d'une information minimale dans cette fenêtre FP . En d'autres termes, il ne doit pas s'agir d'une zone uniforme. Une indication de l'information peut être obtenue par la vérification de la valeur de la somme des normes des gradients sur cette fenêtre.We will consider, as illustrated by the diagram in FIG. 8, a window F 'P of a few pixels, centered in the image' G, and a window FG of center FI, also of a few pixels, in the image I G . The pixels are delimited by lines, vertical and horizontal, in dotted lines, the pixels being supposed to be square. More precisely, the point π is the center of the central pixel of the window G , and a point O 'P, the center of the central pixel of the window F' P. The vector E represents the offset between the two "grids" of pixels, on the axis Yl-O 'P, that is to say in amplitude and in direction. The size of the window F ′ P is chosen so as to guarantee the presence of minimal information in this window FP. In other words, it should not be a uniform area. An indication of the information can be obtained by checking the value of the sum of the gradient standards on this window.
La fenêtre FG garantit une marge de 1 pixel autour de la fenêtre FP .The window F G guarantees a margin of 1 pixel around the window FP.
A priori , il n'existe aucune raison pour que les pixels des deux fenêtres coïncident. On suppose, en effet, que l'image petit champ iP a une résolution intrinsèque supérieure à l'image grand champ ∑G .A priori, there is no reason for the pixels of the two windows to coincide. It is assumed, in fact, that the small field image iP has an intrinsic resolution greater than the large field image ∑G.
On va donc chercher à estimer l'écart sub-pixellique E = \ de positionnement entre le centre de la fenêtre FG etWe will therefore seek to estimate the sub-pixel difference E = \ of positioning between the center of the window F G and
le centre de la fenêtre F .the center of window F.
Compte tenu de la compatibilité des bandes spectrales des deux capteurs à imagerie, Ci et C2 , on utilise une équivalence entre 1 ' image de la fenêtre FG et l'image de la fenêtre FP .Given the compatibility of the spectral bands of the two imaging sensors, Ci and C2, an equivalence is used between the image of the window F G and the image of the window FP.
De façon générale, si on considère une image numérique quelconque I, de quelques pixels dans les deux dimensions, et un point M également compris à l'intérieur de l'image J, on peut définir un vecteur unicolonne Iv (M) contenant les valeurs de l'image I sur le voisinage V du point M . Si le point M correspond à un pixel entier, les valeurs sont directement les valeurs des pixels de J, tandis que dans le cas où le point M a des coordonnées sub- pixelliques, les valeurs du vecteur Iv (M) sont obtenues par un mécanisme classique d'interpolation. Le choix précis du mécanisme d'interpolation doit être effectué au cas par cas, selon des contraintes propres à l'application spécifique envisagée : vitesse d'exécution, précision du résultat, etc. Dans le cas du procédé de l'invention, on définit le voisinage V de travail de mêmes tailles selon X et Y que la fenêtre F ' P. Le nombre total de points du voisinage V est égal à Lv .In general, if we consider any digital image I, of a few pixels in two dimensions, and a point M also included inside the image J, we can define a single-column vector Iv (M) containing the values of image I on the neighborhood V of point M. If the point M corresponds to a whole pixel, the values are directly the values of the pixels of J, while in the case where the point M has sub-pixel coordinates, the values of the vector Iv (M) are obtained by a mechanism classic interpolation. The precise choice of the interpolation mechanism must be made on a case-by-case basis, according to constraints specific to the specific application envisaged: speed of execution, precision of the result, etc. In the case of the process of the invention, the working neighborhood V is defined with the same sizes along X and Y as the window F ′ P. The total number of points in the neighborhood V is equal to L v .
On obtient l'identité suivante : F° (U) ≡ F'p (-E) . Le décalage \\E\\ est inférieur à un pixel.We obtain the following identity: F ° (U) ≡ F ' p (-E). The offset \\ E \\ is less than one pixel.
On définit H = matrice de L v lignes et
Figure imgf000025_0001
de 2 colonnes. On obtient alors la relation suivante :
We define H = matrix of L v lines and
Figure imgf000025_0001
of 2 columns. We then obtain the following relation:
F v (-E) = FP (Op) + H - (-E) (13), etF v (-E) = F P (O p ) + H - (-E) (13), and
E = -(HTH) - HT - (FG (Oa ) - F (Op)) (14).E = - (H T H) - H T - (F G (O a ) - F (O p )) (14).
Le point 0G est équivalent au point π, mais constitue une origine d'un repère pour FGThe point 0 G is equivalent to the point π, but constitutes an origin of a reference for F G
Pour tirer parti de la résolution intrinsèque supérieure de l , On réalise une opération de grossissement de la fenêtre FG 'un facteur Q . Cette opération est réalisée par un processus d'interpolation classique, par exemple bilinéaire ou bicubique. La fenêtre résultante est appelée GG .To take advantage of the higher intrinsic resolution of l, a magnification operation of the window FG 'is carried out by a factor Q. This operation is carried out by a conventional interpolation process, for example bilinear or bicubic. The resulting window is called G G.
Fp est une fenêtre centrée de J-P, de taille en X (respectivement en Y) égale à la taille de F ' P multipliée par Q .F p is a centered window of JP, of size in X (respectively in Y) equal to the size of F 'P multiplied by Q.
A partir de l'écart E calculé précédemment, on trouve, par translation, un point Eh . π.χ correspond au centre d'un pixel de la fenêtre GG dont les coordonnées entières sont la meilleure approximation possible de l'écart E . Les coordonnées de ce point E± sont les suivantes :From the difference E calculated previously, we find, by translation, a point Eh. π.χ corresponds to the center of a pixel of the window G G whose integer coordinates are the best possible approximation of the difference E. The coordinates of this point E ± are as follows:
XE_I= arrondi (Q.Eχ) (15), etXE_I = rounded (Q.Eχ) (15), and
YlTx≈ arrondi (Q . EY) ( 16 ) . On va chercher à estimer l'écart sub-pixellique E, de positionnement entre ITι et le centre de la fenêtre Fp , en utilisant la même approche que précédemment.YlTx≈ rounded (Q. E Y ) (16). We will try to estimate the sub-pixel difference E, of positioning between ITι and the center of the window F p , using the same approach as above.
Pour ce faire, on définit un voisinage W de travail de mêmes tailles selon X et Y que la fenêtre Fp .To do this, we define a working neighborhood W of the same sizes along X and Y as the window F p .
Le nombre total de points du voisinage W est égal à #• On obtient alors l'identité : G^(πι) ≡ Fw (~E) ) .The total number of points in the neighborhood W is equal to # • We then obtain the identity: G ^ ( π ι) ≡ F w ( ~ E) ).
Comme précédemment on définit H =
Figure imgf000026_0001
matrice de i 7 lignes et de 2 colonnes.
As before we define H =
Figure imgf000026_0001
matrix of i 7 rows and 2 columns.
On obtient alors la relation suivante :We then obtain the following relation:
FW ^1> = FW <°P> + Hl (~El (17) , et F W ^ 1> = F W <° P > + H l ( ~ E l (17), and
£, = -(HτH) - Hτ - (FG (0G ) ~ F (Op )) (18) .£, = - (H τ H) - H τ - (F G (0 G ) ~ F (O p )) (18).
E est un écart réduit par rapport à E . On peut afficher, sur l'écran de l'organe de visualisation 4, un réticule 41 positionné au point (Tl-E-Ei ) par rapport à un point qui correspond au centre du champ du capteur grand champ C2.E is a reduced deviation from E. It is possible to display, on the screen of the display member 4, a reticle 41 positioned at the point (T1-E-Ei) with respect to a point which corresponds to the center of the field of the wide field sensor C2.
Le point π est obtenu avec une précision typique de l'ordre de 2 à 3 pixels sur l'image grand champ. L'écart E correspond à 1 pixel de la résolution de l'image petit champ. On peut donc obtenir une précision dans le positionnement du réticule 41 typiquement dans la gamme de 2 à 3 mrad, ce qui correspond à l'objectif que se fixe le procédé selon l'invention.The point π is obtained with a typical precision of the order of 2 to 3 pixels on the wide field image. The difference E corresponds to 1 pixel of the resolution of the small field image. It is therefore possible to obtain precision in the positioning of the reticle 41 typically in the range of 2 to 3 mrad, which corresponds to the objective that the method according to the invention sets.
A la lecture de ce qui précède, on constate aisément que l'invention atteint bien les buts qu'elle s'est fixés.On reading the above, it is easy to see that the invention achieves the goals it has set for itself.
Le procédé d'aide au tir permet tout à la fois d'obtenir une grande précision de visée et une grande rapidité, puisqu'il n'exige pas un epaulement de l'arme. En outre, selon une autre caractéristique avantageuse, le processus, puisqu'il ne s'accompagne pas d'émission d'énergie radiante, reste tout à fait discret. En d'autres termes, même si la cible dispose d'un capteur sensible aux longueurs d'ondes utilisées, elle ne pourra détecter le tireur, du moins du fait de la mise en oeuvre du procédé propre à l'invention.The shooting assistance method allows both to obtain a high accuracy of sight and a great speed, since it does not require a shoulder of the weapon. In further, according to another advantageous characteristic, the process, since it is not accompanied by the emission of radiant energy, remains completely discreet. In other words, even if the target has a sensor sensitive to the wavelengths used, it will not be able to detect the shooter, at least due to the implementation of the method specific to the invention.
Il doit être clair cependant que l'invention n'est pas limitée aux seuls exemples de réalisations explicitement décrits, notamment en relation avec les figures 1A à 8.It should be clear, however, that the invention is not limited only to the examples of embodiments explicitly described, in particular in relation to FIGS. 1A to 8.
En particulier, les valeurs numériques n'ont été précisées que pour fixer les idées. Elles dépendent essentiellement de l'application précise visée.In particular, the numerical values have been specified only to fix ideas. They essentially depend on the precise application targeted.
De même, les composants utilisables : capteurs d'imagerie, circuits électroniques pour le traitement des signaux numériques, etc., participent d'un simple choix technologique à la portée de l'Homme du Métier. Notamment, comme il a été indiqué, plusieurs types et technologies de capteurs d'imagerie peuvent être utilisés, en particulier en fonction du choix des longueurs d'ondes mises en oeuvre (visible ou infrarouge) . Likewise, the components that can be used: imaging sensors, electronic circuits for processing digital signals, etc., participate in a simple technological choice within the reach of those skilled in the art. In particular, as has been indicated, several types and technologies of imaging sensors can be used, in particular depending on the choice of wavelengths used (visible or infrared).
TABLE DES NOTATIONSTABLE OF RATINGS
Figure imgf000028_0001
Figure imgf000028_0001

Claims

R E V E N D I C A T I O N S
1. Procédé d'aide à la visée pour arme légère portée par un tireur, caractérisé en ce qu'il comprend les étapes suivantes : - l'acquisition d'une première image à l'aide d'un premier capteur d'image (Cl ) , associé à un premier champ et fixé à ladite arme, et dont l'axe optique est lié mécaniquement à 1 ' axe du canon de 1 ' arme ; ladite première image représentant une scène avant, vue dudit canon ; - l'acquisition d'une seconde image à l'aide d'un second capteur d'image (C2 ) , associé à un second champ et porté par la tête dudit tireur, de manière à englober tout ou partie d'une scène avant observée par celui-ci et susceptible de contenir une cible ; - l'acquisition par des capteurs d'orientation (5,6) portés respectivement par l'arme et par la tête du tireur, d'une estimation des écarts angulaires entre le champ observé par le tireur et le champ vu par le capteur porté par 1 ' arme ; - la corrélation des images des deux capteurs pour déterminer la position du champ vu par le premier capteur d'image dans le champ vu par le deuxième capteur, et pour déterminer en particulier la position dans l'image du deuxième capteur d'un point de la première image représentant la ligne de visée de l'arme, la corrélation utilisant l'écart angulaire estimé précédemment ;1. A method of assisting aiming for a light weapon carried by a shooter, characterized in that it comprises the following steps: - the acquisition of a first image using a first image sensor ( Cl), associated with a first field and fixed to said weapon, and the optical axis of which is mechanically linked to the axis of the barrel of the weapon; said first image representing a front scene, seen from said cannon; - the acquisition of a second image using a second image sensor (C2), associated with a second field and carried by the head of said shooter, so as to encompass all or part of a front scene observed by it and likely to contain a target; - the acquisition by orientation sensors (5,6) carried respectively by the weapon and by the shooter's head, of an estimate of the angular differences between the field observed by the shooter and the field seen by the carried sensor by the weapon; - the correlation of the images of the two sensors to determine the position of the field seen by the first image sensor in the field seen by the second sensor, and to determine in particular the position in the image of the second sensor of a point of the first image representing the line of sight of the weapon, the correlation using the angular deviation estimated previously;
- l'affichage sur un visuel de casque, à une position correspondante, d'un symbole représentant cette ligne de visée.- the display on a helmet display, at a corresponding position, of a symbol representing this line of sight.
2. Procédé selon la revendication 1, caractérisé en ce que le symbole est affiché sous forme collimatée à l' infini. 2. Method according to claim 1, characterized in that the symbol is displayed in collimated form at infinity.
3. Procédé selon l'une des revendications 1 et 2, caractérisé en ce que le symbole est affiché en superposition avec la scène directement observée par le tireur.3. Method according to one of claims 1 and 2, characterized in that the symbol is displayed superimposed on the scene directly observed by the shooter.
4. Procédé selon l'une des revendications 1 à 3, caractérisé en ce que les capteurs d'orentation comprennent chacun un capteur de cap et un inclinomètre deux axes .4. Method according to one of claims 1 to 3, characterized in that the orientation sensors each comprise a heading sensor and a two-axis inclinometer.
5. Procédé selon l'une des revendications 1 à 4, caractérisé en ce qu'il comprend une étape préliminaire consistant, à partir de l'estimation des écarts angulaires, en l'estimation de l'écart d'orientation des lignes de visée (Δci, Δc2) desdits premier (Ci) et second (C2) capteurs d'image, au moins en sens et direction, de manière à afficher sur ledit organe de visualisation (4) un second symbole déterminé (42) indiquant audit tireur la direction suivant laquelle il doit déplacer ledit canon (20) de l'arme (2) .5. Method according to one of claims 1 to 4, characterized in that it comprises a preliminary step consisting, from the estimation of the angular deviations, in the estimation of the orientation deviation of the sight lines. (Δci, Δc2) of said first (Ci) and second (C2) image sensors, at least in direction and direction, so as to display on said display member (4) a second determined symbol (42) indicating to said shooter the direction in which it must move said barrel (20) of the weapon (2).
6. Procédé selon les revendications 1 à 5, caractérisé en ce que ladite arme (2) étant tenue à la main par le tireur, la corrélation utilise une estimée d'un vecteur de translation ( T) entre les positions des deux capteurs d'image, ce vecteur ayant une borne supérieure estimée à environ 1 mètre.6. Method according to claims 1 to 5, characterized in that said weapon (2) being held in the hand by the shooter, the correlation uses an estimate of a translation vector (T) between the positions of the two sensors of image, this vector having an upper bound estimated at around 1 meter.
7. Procédé selon l'une quelconque des revendications 4 à 6, caractérisé en ce que ledit premier champ dudit premier capteur (Ci) d'image est inférieur audit second champ dudit second capteur (C2) d'image, en ce que, lesdites première et seconde images étant analogiques, ladite acquisition comprend la conversion analogique/numérique (30, 34) des signaux de sortie desdits premier (Ci) et second (C2) capteurs d'image, de manière à construire deux images numériques associées à des premier (TRci ) et second (TRc2 ) référentiels orthonormés, représentant respectivement les images issues desdits premier (Ci) et second (C2) capteurs en imagerie, en ce qu'il est procédé à une étape consistant en la construction, à partir de l'image numérique issue dudit premier capteur à imagerie (C ) , et par application de ladite matrice de rotation, d'au moins une première image numérique dérivée (Ip) , de même référentiel orthonormé que l'image numérique (IG) issue dudit second capteur (C2), dont le champ instantané est proportionnel, par un facteur Q , au champ instantané de ladite image numérique issue du second capteur à imagerie (Ip) , Q étant un entier, et en ce qu'il est procédé à des étapes subséquentes de traitement d'image comprenant la corrélation (33) de ladite image numérique dérivée et de ladite image numérique issue dudit second capteur en imagerie, pour déterminer la position dudit premier champ dudit premier capteur d'image (Ci) dans ladite seconde image acquise par ledit second capteur (C2) d'image et la position de ladite ligne de visée dans cette seconde image.7. Method according to any one of claims 4 to 6, characterized in that said first field of said first image sensor (Ci) is less than said second field of said second image sensor (C2), in that, said first and second images being analog, said acquisition comprises analog / digital conversion (30, 34) of the output signals of said first (Ci) and second (C2) image sensors, so as to construct two digital images associated with first (TRci) and second (TRc2) orthonormal repositories, representing respectively the images from said first (Ci) and second (C2) sensors in imaging, in that there is a step consisting in the construction, from the digital image from said first imaging sensor (C), and by application of said rotation matrix, from at least one first derived digital image (I p ), with the same orthonormal reference frame as the digital image (I G ) from said second sensor (C2), the instantaneous field of which is proportional, by a factor Q, to the instantaneous field of said digital image from the second imaging sensor (I p ), Q being an integer, and in that he is carried out in subsequent image processing steps comprising the correlation (33) of said derived digital image and said digital image from said second sensor in imaging, to determine the position of said first field of said first image sensor (Ci) in said second image acquired by said second image sensor (C2) and the position of said line of sight in this second image.
8. Procédé selon la revendication 7 , caractérisé en ce que, lesdites images numériques issues desdits premier (C ) et second (C2) capteurs à imagerie comprenant des zones non uniformes (Ar, Bt ) , les étapes de traitement d'image comprennent au moins les étapes suivantes :8. Method according to claim 7, characterized in that, said digital images originating from said first (C) and second (C2) imaging sensors comprising non-uniform areas (Ar, Bt), the image processing steps comprise at minus the following steps:
- une étape (31, 35) d'extraction de contours (CAr, CBt ) desdites zones non uniformes (Ar, Bt ) , de manière à générer une liste de points de coordonnées de ladite image numérique correspondant auxdits contours et à les associer à une valeur numérique déterminée ;- a step (31, 35) of extracting contours (CAr, CBt) from said non-uniform zones (Ar, Bt), so as to generate a list of points of coordinates of said digital image corresponding to said contours and associating them with a determined digital value;
- pour l'image numérique issue dudit premier capteur (Ci), une étape (32) consistant à établir, à partir de l'image desdits contours (CAr, CBt ) , une suite d'images formant une pyramide des contours, sur un nombre de niveaux déterminé ;- for the digital image from said first sensor (Ci), a step (32) consisting in establishing, from the image of said contours (CAr, CBt), a series of images forming a pyramid of contours, on a number of levels determined;
- pour 1 ' image numérique issue dudit second capteur d'image (C2), une étape (36, 37) consistant à établir, à partir de l'image desdits contours (CAr, CBt) et pour chaque point de l'image, une image des distances au contour le plus proche et, à partir de cette image des distances au contour le plus proche, une suite d'images formant une pyramide des distances de contours, sur un nombre de niveaux déterminé ; etfor the digital image coming from said second image sensor (C2), a step (36, 37) consisting in establishing, from the image of said contours (CAr, CBt) and for each point of the image, an image of the distances to the nearest contour and, from this image of the distances to the nearest contour, a series of images forming a pyramid of the distances of contours, over a determined number of levels; and
- une étape de corrélation valuée (33) entre ladite suite d'images formant une pyramide des contours et ladite suite d'images formant une pyramide des distances de contours, de manière à sélectionner un point de ladite image numérique issue dudit second capteur d'image (C2) constituant la position le plus proche du centre du champ de cette image, et à afficher, sur ledit organe de visualisation (4), ledit premier symbole (41) déterminé, à cette position de ladite seconde image, en superposition de ladite scène avant observée (40).a valued correlation step (33) between said series of images forming a pyramid of contours and said series of images forming a pyramid of contour distances, so as to select a point of said digital image originating from said second image sensor image (C 2 ) constituting the position closest to the center of the field of this image, and to display, on said display member (4), said first symbol (41) determined, at this position of said second image, superimposed of said observed front scene (40).
9. Procédé selon la revendication 8, caractérisé en ce que ladite étape d'extraction de contours (CAr, CBt ) desdites zones non uniformes (Ar, Bt ) desdites images numériques issues desdits premier (Ci) et second (C2) capteurs d'image comprend les sous-étapes suivantes :9. Method according to claim 8, characterized in that said step of extracting contours (CAr, CBt) from said non-uniform areas (Ar, Bt) of said digital images from said first (Ci) and second (C2) sensors image includes the following substeps:
- la détermination (310) des images de gradients suivant deux axes de coordonnées orthonormées liés auxdites images numériques ; - la détermination (311) de la norme desdits gradients en chaque point desdites images ;- determining (310) images of gradients along two axes of orthonormal coordinates linked to said digital images; - determining (311) the norm of said gradients at each point of said images;
- la détermination (312) de l'orientation desdits gradients en chaque point desdites images ; et- determining (312) the orientation of said gradients at each point of said images; and
- l'établissement (313, 314), à partir desdites normes et desdites orientations de gradients, d'une liste de points de contours.- the establishment (313, 314), from said standards and said gradient orientations, of a list of contour points.
10. Procédé selon la revendication 8, caractérisé en ce que ladite étape de corrélation valuée (33G) comprend les sous-étapes suivantes :10. Method according to claim 8, characterized in that said valued correlation step (33G) comprises the following substeps:
- la constitution (330), à partir de ladite suite d'images formant une pyramide des contours et de ladite suite d'images formant une pyramide des distances de contours, d'une nappe de corrélation ;- The constitution (330), from said series of images forming a pyramid of outlines and from said series of images forming a pyramid of the distances of outlines, of a correlation sheet;
- la sélection (331, 332) dans ladite nappe de valeurs représentant des minimas locaux inférieurs à un seuil déterminé, pour un desdits niveaux de pyramide, et la constitution, à chaque niveau desdites pyramides, d'un ensemble de minimas locaux ; et- the selection (331, 332) in said layer of values representing local minima below a determined threshold, for one of said pyramid levels, and the constitution, at each level of said pyramids, of a set of local minima; and
- sélection d'un point (1~1) correspondant au plus petit des minimas pour estimer la position du centre d'une zone de positionnement de ladite image numérique issue dudit premier capteur d'image (Ci) dans ladite image numérique issue dudit second capteur d'image (C2) , cette position représentant ladite ligne de visée.- selection of a point (1 ~ 1) corresponding to the smallest of the minima to estimate the position of the center of a positioning area of said digital image from said first image sensor (Ci) in said digital image from said second image sensor (C 2 ), this position representing said line of sight.
11. Procédé selon les revendications 8 ou 10, caractérisé en ce que ladite étape de corrélation valuée (33G) est suivie d'une étape de corrélation supplémentaire, dite "fine, mettant en oeuvre un algorithme d'estimation de l'écart de positionnement (E) , en amplitude et en direction, entre le centre (O ' P) de ladite image numérique issue dudit premier capteur d'image (Ci) et le centre (El) de ladite zone de positionnement de cette image numérique dans ladite image numérique issue dudit second capteur d'image (Ci), le positionnement dudit centre (II) étant obtenu lors de ladite étape de corrélation valuée (33G) , et en ce qu'à l'issue de ladite étape supplémentaire, une nouvelle position dudit centre est déterminée par une translation d'amplitude et de direction conforme audit écart (E) .11. Method according to claims 8 or 10, characterized in that said valued correlation step (33G) is followed by an additional correlation step, called "fine", implementing an algorithm for estimating the positioning deviation (E), in amplitude and in direction, between the center (O 'P) of said digital image from said first image sensor (Ci) and the center (El) of said area for positioning this digital image in said digital image from said second image sensor (Ci), the positioning of said center (II) being obtained during said valued correlation step (33G), and in that at the end of said additional step, a new position of said center is determined by a translation of amplitude and direction in accordance with said deviation (E).
12. Système d'aide à la visée destiné à une arme légère portée par un tireur, caractérisé en ce qu'il comprend :12. Aiming aid system intended for a light weapon carried by a shooter, characterized in that it comprises:
- un premier capteur d'image (Ci) permettant d'acquérir ladite première image, ledit premier capteur d'image (Ci) étant associé à un premier champ et étant fixé à ladite arme (2), l'axe optique ( I ) de ce capteur (Ci) étant lié mécaniquement à l'axe A20 ) du canon (20) de l'arme (2) et représentant la ligne de visée de cette arme ( 2 ) ;- a first image sensor (Ci) making it possible to acquire said first image, said first image sensor (Ci) being associated with a first field and being fixed to said weapon (2), the optical axis (I) this sensor (Ci) being mechanically linked to the axis A20) of the barrel (20) of the weapon (2) and representing the line of sight of this weapon (2);
- un second capteur d'image (C2) permettant d'acquérir ladite seconde image, ledit second capteur d'image (C2) étant associé à un second champ et fixé sur la tête (Te ) dudit tireur, de manière à englober tout ou partie d'une scène avant (40) observée par celui-ci, ladite scène (40) étant susceptible de contenir une cible pour ledit tir ;- a second image sensor (C2) making it possible to acquire said second image, said second image sensor (C2) being associated with a second field and fixed on the head (Te) of said shooter, so as to encompass all or part of a front scene (40) observed by the latter, said scene (40) being capable of containing a target for said shooting;
- des capteurs d'orientation (5,6) permettant de déterminer l'écart angulaire entre la direction de l'arme et la direction de la tête du tireur ;- orientation sensors (5,6) making it possible to determine the angular difference between the direction of the weapon and the direction of the shooter's head;
- un dispositif de traitement de signaux et d'images (3) reçus desdits premier (Ci) et second (C2) capteurs d'imagerie et des capteurs d'orientation (5,6) pour effectuer une corrélation entre les images reçues des deux capteurs d'image, en utilisant l'écart angulaire déterminé, afin de déterminer la position du champ du premier capteur d'image dans le champ du deuxième capteur d'image,- a signal and image processing device (3) received from said first (Ci) and second (C2) imaging sensors and orientation sensors (5,6) to correlate the images received from two image sensors, using the determined angular deviation, in order to determine the position of the field of the first image sensor in the field of the second image sensor,
- et un organe de visualisation (4) pour l'affichage d'un symbole déterminé (41) , matérialisant ladite position de la ligne de visée dans ladite seconde image, ou un second symbole déterminé (42), indiquant audit tireur une direction suivant laquelle il doit déplacer le canon de ladite arme (2), lesdits symboles déterminés (41, 42) étant affichés en superposition à ladite scène avant (40) observée par ledit tireur.- And a display member (4) for the display of a determined symbol (41), materializing said position of the line of sight in said second image, or a second determined symbol (42), indicating to said shooter a following direction which he must move the barrel of said weapon (2), said determined symbols (41, 42) being displayed superimposed on said front scene (40) observed by said shooter.
13. Système selon la revendication 12, caractérisé en ce que ledit organe de visualisation (4) est un visuel de casque comprenant un écran sur lequel sont affichés lesdits symboles déterminés (41, 42) et au travers duquel ledit tireur observe ladite scène avant (40) .13. The system as claimed in claim 12, characterized in that said display member (4) is a helmet display comprising a screen on which said determined symbols are displayed (41, 42) and through which said shooter observes said front scene ( 40).
14. Système selon les revendications 12 ou 13, caractérisé en ce que lesdits premier (Ci) et second (C2) capteurs d'image sont des capteurs du type à charges couplées sensibles à un rayonnement dans le spectre du visible.14. System according to claims 12 or 13, characterized in that said first (Ci) and second (C 2 ) image sensors are sensors of the coupled charge type sensitive to radiation in the visible spectrum.
15. Système selon les revendications 12 ou 13, caractérisé en ce que lesdits premier (Ci) et second (C2) capteurs d'image sont des capteurs sensibles à un rayonnement dans le spectre de l'infrarouge.15. System according to claims 12 or 13, characterized in that said first (Ci) and second (C2) image sensors are sensors sensitive to radiation in the infrared spectrum.
16. Système selon l'une quelconque des revendications 12 à 15, caractérisé en ce que les capteurs d'orientation comprennent, chacun, un capteur de cap et un inclinomètre deux axes, de manière à générer des données de cap et d'assiette de l'arme et de la tête.16. System according to any one of claims 12 to 15, characterized in that the orientation sensors each comprise a heading sensor and a two axis inclinometer, so as to generate heading and attitude data for the weapon and the head.
17. Système selon l'une quelconque des revendications 12 à 16, caractérisé en ce que, lesdites première et seconde images étant analogiques, ledit dispositif de traitement de signaux et d'images (3) comprend des modules d'acquisition (30, 34) comprenant un convertisseur analogique/numérique pour chacune desdites images . 17. System according to any one of claims 12 to 16, characterized in that, said first and second images being analog, said signal and image processing device (3) comprises acquisition modules (30, 34 ) comprising an analog / digital converter for each of said images.
PCT/FR1999/003185 1998-12-18 1999-12-17 Aiming aid method and system for a light weapon WO2000037875A1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CA002354569A CA2354569C (en) 1998-12-18 1999-12-17 Aiming aid method and system for a light weapon
EP99961103A EP1141648A1 (en) 1998-12-18 1999-12-17 Aiming aid method and system for a light weapon

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR98/16022 1998-12-18
FR9816022A FR2787566B1 (en) 1998-12-18 1998-12-18 SIGHT ASSISTING AID METHOD AND SYSTEM

Publications (1)

Publication Number Publication Date
WO2000037875A1 true WO2000037875A1 (en) 2000-06-29

Family

ID=9534147

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/FR1999/003185 WO2000037875A1 (en) 1998-12-18 1999-12-17 Aiming aid method and system for a light weapon

Country Status (4)

Country Link
EP (1) EP1141648A1 (en)
CA (1) CA2354569C (en)
FR (1) FR2787566B1 (en)
WO (1) WO2000037875A1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2862748A1 (en) * 2003-11-25 2005-05-27 Thales Sa Firing controlling method for military aircraft, involves calculating position of shooting reticle, superimposing reticle on target by pilot, and engaging sequence of shooting by pilot
WO2011136897A1 (en) * 2010-04-27 2011-11-03 Itt Manufacturing Enterprises, Inc. Remote activation of imagery in night vision goggles
US11965714B2 (en) 2007-02-28 2024-04-23 Science Applications International Corporation System and method for video image registration and/or providing supplemental data in a heads up display

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4093736B2 (en) 2001-06-28 2008-06-04 株式会社日立メディコ Nuclear magnetic resonance diagnostic apparatus and diagnostic system
IL173007A0 (en) * 2006-01-08 2007-03-08 Giora Kutz Target/site location acquisition device

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4786966A (en) * 1986-07-10 1988-11-22 Varo, Inc. Head mounted video display and remote camera system
US4804843A (en) * 1985-05-16 1989-02-14 British Aerospace Public Limited Co. Aiming systems
EP0605290A1 (en) * 1992-12-30 1994-07-06 Thomson-Csf Optronic shooting aid device for hand weapon and its application to progress in a hostile environment
US5675112A (en) * 1994-04-12 1997-10-07 Thomson-Csf Aiming device for weapon and fitted-out weapon
US5806229A (en) * 1997-06-24 1998-09-15 Raytheon Ti Systems, Inc. Aiming aid for use with electronic weapon sights

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4804843A (en) * 1985-05-16 1989-02-14 British Aerospace Public Limited Co. Aiming systems
US4786966A (en) * 1986-07-10 1988-11-22 Varo, Inc. Head mounted video display and remote camera system
EP0605290A1 (en) * 1992-12-30 1994-07-06 Thomson-Csf Optronic shooting aid device for hand weapon and its application to progress in a hostile environment
US5675112A (en) * 1994-04-12 1997-10-07 Thomson-Csf Aiming device for weapon and fitted-out weapon
US5806229A (en) * 1997-06-24 1998-09-15 Raytheon Ti Systems, Inc. Aiming aid for use with electronic weapon sights

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
BORGEFORS G: "Hierarchical Chamfer Matching: A Parametric Edge Matching Algorithm", IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE, vol. 10, no. 6, November 1989 (1989-11-01), pages 849 - 865, XP002114858 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2862748A1 (en) * 2003-11-25 2005-05-27 Thales Sa Firing controlling method for military aircraft, involves calculating position of shooting reticle, superimposing reticle on target by pilot, and engaging sequence of shooting by pilot
WO2005052495A1 (en) * 2003-11-25 2005-06-09 Thales Firing direction method for aircraft
US11965714B2 (en) 2007-02-28 2024-04-23 Science Applications International Corporation System and method for video image registration and/or providing supplemental data in a heads up display
WO2011136897A1 (en) * 2010-04-27 2011-11-03 Itt Manufacturing Enterprises, Inc. Remote activation of imagery in night vision goggles
CN102971658A (en) * 2010-04-27 2013-03-13 安立世 Remote activation of imagery in night vision goggles

Also Published As

Publication number Publication date
CA2354569A1 (en) 2000-06-29
CA2354569C (en) 2007-09-25
EP1141648A1 (en) 2001-10-10
FR2787566A1 (en) 2000-06-23
FR2787566B1 (en) 2001-03-16

Similar Documents

Publication Publication Date Title
CA2592293C (en) Method for processing images using automatic georeferencing of images derived from a pair of images captured in the same focal plane
CA2889654C (en) Treatment process for correction of non-uniformities in an infrared image
EP1843295B1 (en) Method of recreating the movements of the line of sight of an optical instrument
FR2485729A1 (en) THERMOGRAPHIC PYROMETER FOR MEASURING THE TEMPERATURE OF AN OBJECT REMOTELY
FR2666649A1 (en) DEVICE FOR TRACKING A VEHICLE WITH A DISTANCE MEASURING FUNCTION.
EP3272119B1 (en) Method and device of 3d reconstruction of a scene
EP1298592A1 (en) Stabilizing images of a scene, gray level offset correction, moving object detection and adjustment of two image pickup devices based on image stabilization
FR3054897A1 (en) METHOD FOR PRODUCING DIGITAL IMAGE, COMPUTER PROGRAM PRODUCT AND OPTICAL SYSTEM THEREOF
EP1141648A1 (en) Aiming aid method and system for a light weapon
EP1351498A2 (en) Real time processing method of an image signal
EP3301644B1 (en) Method for building a depth map of a scene and/or an all-in-focus image
EP2909671A1 (en) Method for designing a passive single-channel imager capable of estimating depth of field
CA2701151A1 (en) Imaging system with wavefront modification and method of increasing the depth of field of an imaging system
EP3290891A1 (en) Method and device for characterizing optical aberrations of an optical system
EP2746830B1 (en) Optical focussing of an image-capturing instrument
FR2661583A1 (en) Optoelectronic system for analysis of video images obtained by scanning a linear detector array
FR2966257A1 (en) METHOD AND APPARATUS FOR CONSTRUCTING A RELIEVE IMAGE FROM TWO-DIMENSIONAL IMAGES
EP0457414B1 (en) Object detection device in an image sequence
EP0393763A1 (en) Method for correcting offset dispersions in photoelectric sensors and correcting device therefor
FR2968876A1 (en) System for acquisition of images of scene, has separation unit separating flow of beam from focusing optics into predetermined fractions, and merging unit merging images output from sensors to generate final image
EP1426901B1 (en) Method of detecting point targets and surveillance system applying the method
FR2968499A1 (en) METHOD OF USING IMAGE SENSOR
WO2024018164A1 (en) Method and system for daytime infrared space surveillance
FR2689354A1 (en) Recursive procedure for improving degraded video image - has movement detector to determine necessary digital image processing to compensate for movement during image acquisition
FR2997258A1 (en) On-board system for use in aircraft to detect and measure objects e.g. stars, moving in space, has zone detecting luminous flow emitted by objects during zone integration time, where time is function of luminous intensity of objects

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): CA US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): AT BE CH CY DE DK ES FI FR GB GR IE IT LU MC NL PT SE

DFPE Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed before 20040101)
121 Ep: the epo has been informed by wipo that ep was designated in this application
ENP Entry into the national phase

Ref document number: 2354569

Country of ref document: CA

Ref country code: CA

Ref document number: 2354569

Kind code of ref document: A

Format of ref document f/p: F

WWE Wipo information: entry into national phase

Ref document number: 09868034

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 1999961103

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 1999961103

Country of ref document: EP

WWW Wipo information: withdrawn in national office

Ref document number: 1999961103

Country of ref document: EP