CA2354569C - Aiming aid method and system for a light weapon - Google Patents
Aiming aid method and system for a light weapon Download PDFInfo
- Publication number
- CA2354569C CA2354569C CA002354569A CA2354569A CA2354569C CA 2354569 C CA2354569 C CA 2354569C CA 002354569 A CA002354569 A CA 002354569A CA 2354569 A CA2354569 A CA 2354569A CA 2354569 C CA2354569 C CA 2354569C
- Authority
- CA
- Canada
- Prior art keywords
- image
- sensor
- images
- sensors
- weapon
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Classifications
-
- F—MECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
- F41—WEAPONS
- F41G—WEAPON SIGHTS; AIMING
- F41G3/00—Aiming or laying means
- F41G3/14—Indirect aiming means
- F41G3/16—Sighting devices adapted for indirect laying of fire
- F41G3/165—Sighting devices adapted for indirect laying of fire using a TV-monitor
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Aiming, Guidance, Guns With A Light Source, Armor, Camouflage, And Targets (AREA)
- Image Analysis (AREA)
Abstract
L'invention concerne un procédé et un système (1) d'aide à la visée pour une arme légère (2) tenue à la main par un tireur. Le système (1) comprend un premier capteur à imagerie (C1), dit petit champ, fixé sur l e canon (2) de l'arme (20) et dont l'axe optique (.DELTA.C1)est harmonisé par la construction avec l'axe de visée (.DELTA.20) et un second capteur à imagerie (C1), dit grand champ, solidaire de la tête (Te) du tireur. Chacun des capteurs (C1, C2) est associé à des dispositifs (5, 6) de mesure de l'assiette et du cap, de manière à effectuer une première estimation grossière de l'écart entre les axes optiques (.DELTA.C1, .DELTA.C2) par le calcul d'une matrice de rotation et l'écart estimée entre les capteurs (C1, C2). Connaissant cette matrice et les champs, un dispositi f de traitement d'images (3) effectue la corrélation entre les images, de manière à afficher un réticule dans un organe de visualisation du type visuel de casque (4) pour matérialiser l'axe de visée.The invention relates to a method and a system (1) for assisting the aiming of a light weapon (2) held in the hand by a shooter. The system (1) comprises a first imaging sensor (C1), said small field, fixed on the barrel (2) of the weapon (20) and whose optical axis (.DELTA.C1) is harmonized by the construction with the axis of view (.DELTA.20) and a second imaging sensor (C1), said large field, integral with the head (Te) of the shooter. Each of the sensors (C1, C2) is associated with devices (5, 6) for measuring the attitude and heading, so as to make a rough first estimate of the difference between the optical axes (.DELTA.C1, .DELTA.C2) by calculating a rotation matrix and the estimated deviation between the sensors (C1, C2). Knowing this matrix and the fields, an image processing device (3) performs the correlation between the images, so as to display a reticle in a visual helmet type visualization device (4) to materialize the image axis. referred.
Description
PROCEDE ET SYSTEME D'AIDE A LA VISEE POUR ARME LEGERE
La présente invention concerne un procédé d'aide à
la visée pour arme légère, de façon plus précise un procédé
d'aide à la visée pour un tireur portant une telle arme à la main.
L'invention concerne également un système d'aide à
la visée pour la mise en oeuvre d'un tel procédé.
Il est bien connu, pour obtenir un tir très précis avec une arme légère, c'est-à-dire dans le contexte de l'invention une arme portable, de la munir d'une lunette de visée. Cett'e lunette peut également être couplée à un intensificateur de lumière, ce qui autorise le tir de nuit.
Cependant, cette disposition nécessite un épaulement de l'arme, voire nécessite de disposer d'un appui stable. Le tir peut alors être précis, mais la visée nécessite dans ce cas un temps non négligeable.
Or, dans de nombreuses situations, le tireur doit pouvoir être en mesure de réagir très rapidement et, donc, doit pouvoir utiliser son arme sans l'épauler, ce tout en assurant un tir précis.
Pour ce faire, on a proposé, par exemple, de munir l'arme d'un pointeur laser, c'est-à-dire d'un générateur de faisceau collimaté se propageant parallèlement à l'axe de tir de l'arme ou ligne de mire. L'impact sur la cible se traduit par une tache de lumière de faible diamètre. La longueur d'onde utilisée peut être aussi dans le domaine du non visible, par exemple dans l'infrarouge. Le tireur n'est donc plus obligé d'épauler son arme. Il suffit qu'il repère la position de la tache, soit directement (domaine du visible), soit à l'aide de lunettes spéciales (infrarouge), pour obtenir une bonne visée. METHOD AND SYSTEM FOR ASSISTING LIGHT ARMS
The present invention relates to a method of assisting aiming for a light weapon, more precisely a process aiming aid for a shooter carrying such a weapon at the hand.
The invention also relates to a system for assisting the aim for the implementation of such a method.
It is well known, to get a very accurate shot with a light weapon, that is to say in the context of invention a portable weapon, to equip it with a telescope referred. This glasses can also be coupled to a light intensifier, which allows night shooting.
However, this provision requires a shoulder weapon, or even requires a stable support. The shot may then be accurate, but the aim requires in this case a not insignificant time.
However, in many situations, the shooter must to be able to react very quickly and therefore must be able to use his weapon without assisting him, while ensuring accurate shooting.
To do this, it has been proposed, for example, to provide the weapon of a laser pointer, that is to say a generator of collimated beam propagating parallel to the axis of shot of the weapon or line of sight. The impact on the target is translated by a spot of light of small diameter. The wavelength used may also be in the field of not visible, for example in the infrared. The shooter is not therefore no longer obliged to shoulder his weapon. It is enough that he the position of the spot, either directly (domain of visible), or using special glasses (infrared), to get a good aim.
2 Cependant, dans tous les cas, le défaut majeur de ce procédé est le manque de discrétion. En effet, la cible peut détecter le rayonnement, soit directement (à la vue, pour les longueurs d'onde dans le visible), soit à l'aide d'un détecteur approprié à la longueur d'onde utilisée. D'autre part, la précision est limitée par la discrimination visuelle de la tache, la dispersion du faisceau et la limite de perception visuelle du tireur.
L'invention vise à pallier les défauts des procédés et dispositifs de l'art connu, dont certains viennent d'être rappelés. Elle permet d'obtenir un tir rapide, ne nécessitant pas d'épauler l'arme, et cependant précis, ce qui apparaît antinomique a priori. Elle assure également un processus de visée non détectable par l'adversaire. En d'autres termes, le système reste entièrement passif, c'est-à-dire ne génère pas d'énergie rayonnée.
Compte tenu des distances d'utilisation du système selon l'invention (typiquement dans un intervalle de distances supérieures à 25 m et inférieures à 100 m), et de la dimension typique des cibles (1,5 m selon la dimension verticale et 0,5 m selon la dimension horizontale), il est nécessaire d'offrir au tireur une précision meilleure que 2,5 mrad sur la direction du canon de son arme, et ceci par un dispositif de mesure assurant une discrétion complète, comme il vient d'être rappelé.
Pour ce faire, le procédé selon l'invention comprend la détermination de la position de la ligne de visée de l'arme par corrélation d'images et la restitution d'un symbole de visée (par exemple un réticule matérialisant la ligne de visée) sur un organe de visualisation, avantageusement du type casque type visuel de casque. Le symbole peut être affiché sous forme collimatée à l'infini.
Il peut être superposé à la scène observée par le tireur, en vision directe ou par l'intermédiaire d'une caméra. Pour la détermination de la position de la ligne de visée, on 2 However, in all cases, the major flaw of this process is the lack of discretion. Indeed, the target can detect radiation, either directly (in plain view, for wavelengths in the visible), or with the aid of a detector appropriate to the wavelength used. Else On the other hand, accuracy is limited by discrimination visualization of the spot, the dispersion of the beam and the limit visual perception of the shooter.
The aim of the invention is to overcome the defects of the processes and devices of the known art, some of which have just been recalled. It allows to get a quick shot, do not not needing to support the weapon, and yet accurate, this which appears antinomic a priori. It also provides a sighting process not detectable by the opponent. In in other words, the system remains entirely passive, that is, ie does not generate radiated energy.
Given the distances of use of the system according to the invention (typically in a range of distances greater than 25 m and less than 100 m), and the typical dimension of the targets (1.5 m depending on the dimension vertically and 0.5 m depending on the horizontal dimension), it is necessary to offer the shooter better accuracy than 2.5 mrad on the direction of the barrel of his weapon, and this by a measuring device ensuring a discretion complete, as it has just been recalled.
To do this, the method according to the invention comprises determining the position of the line of sight of the weapon by image correlation and the restitution of a sighting symbol (for example a reticle embodying the line of sight) on a display unit, advantageously of the type helmet visual type of helmet. The symbol can be displayed in collimated form to infinity.
It can be superimposed on the scene observed by the shooter, in direct vision or through a camera. For the determination of the position of the line of sight,
3 corréle une image obtenue à partir d'un capteur porté par l'arme et une image obtenue à partir d'un capteur porté par la tête du tireur. Les données d'orientation dans l'espace des deux capteurs sont repérées l'une par rapport à l'autre par des moyens auxiliaires et servent à estimer les écarts d'orientation entre les deux images afin de faciliter la corrélation des images. La corrélation des images permet de déterminer dans la deuxième image la position de la première image. On peut déterminer alors la position dans la deuxième image d'un réticule représentant la ligne de visée de l'arme qui porte le premier capteur. Le réticule ainsi déterminé
par calcul est affiché sur un afficheur solidaire de la tête du tireur donc du capteur de la deuxième image. Il est affiché à une position qui correspond à sa place dans la deuxième image, et il est affiché en superposition avec la scène observée par le tireur. Le tireur peut alors pointer son arme sur une cible en alignant le réticule sur cette cible sans avoir à épauler l'arme.
Le premier capteur est de préférence à champ plus réduit que le deuxième capteur.
Le système pour la mise en oeuvre du procédé
comprend essentiellement un premier capteur d'image fixé sur l'arme, un second capteur d'image fixé sur la tête du tireur, des circuits électroniques de traitement d'images permettant de calculer la position du champ du premier capteur dans l'image du second capteur, et un dispositif de visualisation collimaté à l'infini permettant d'incruster dans le champ de vision du tireur un réticule ou un symbole similaire matérialisant la ligne de visée de l'arme.
L'ensemble est complété par des capteurs d'orientation, indépendants des capteurs d'image, fixés respectivement sur l'arme et sur la tête du tireur, permettant une estimation (de préférence continue dans le temps) des écarts d'orientation des champs de visée des premier et second capteurs d'image pour aider à la détermination de position du champ du premier capteur dans l'image du second. Les 3 correlates an image obtained from a sensor carried by the weapon and an image obtained from a sensor carried by the shooter's head. Orientation data in space of the two sensors are located relative to each other by auxiliary means and serve to estimate the differences orientation between the two images to facilitate the correlation of images. The correlation of images allows determine in the second image the position of the first picture. We can then determine the position in the second image of a reticle representing the line of sight of the weapon which carries the first sensor. The reticle thus determined by calculation is displayed on a display solidarity with the head the shooter and the sensor of the second image. It is displayed at a position that corresponds to its place in the second image, and it is displayed in overlay with the scene observed by the shooter. The shooter can then point his weapon on a target by aligning the reticle on this target without having to shoulder the weapon.
The first sensor is preferably field plus reduced than the second sensor.
The system for implementing the method essentially comprises a first image sensor fixed on the weapon, a second image sensor attached to the head of the shooter, electronic image processing circuits to calculate the position of the field of the first sensor in the image of the second sensor, and a device infinitely collimated visualization for embedding in the shooter's field of vision a reticle or symbol similar materializing the line of sight of the weapon.
The whole is completed by orientation sensors, independent of the image sensors, respectively fixed on the gun and on the shooter's head, allowing an estimate (preferably continuous over time) Orientation of First and Second Fields of Sight image sensors to help position determination of the field of the first sensor in the image of the second. The
4 signaux de ces capteurs d'orientation sont également traités par les circuits électroniques précités.
L'invention a donc pour objet un procédé d'aide à la visée pour arme légère portée par un tireur, caractérisé en ce qu'il comprend les étapes suivantes :
- l'acquisition d'une première image à l'aide d'un premier capteur d'image, associé à un premier champ et fixé
à ladite arme, dont l'axe optique est lié mécaniquement à
l'axe du canon de l'arme ; ladite première image représentant une scène avant, vue dudit canon ;
- l'acquisition d'une seconde image à l'aide d'un second capteur d'image, associé à un second champ et porté par la tête dudit tireur, de manière à englober tout ou partie d'une scène avant observée par celui-ci et susceptible de contenir une cible ;
- l'acquisition par des capteurs d'orientation portés respectivement par l'arme et par la tête du tireur, d'une estimation des écarts angulaires entre le champ observé par le tireur et le champ vu par le capteur porté par l'arme ;
- la corrélation des images des deux capteurs pour déterminer la position du champ vu par le premier capteur d'image dans le champ vu par le deuxième capteur, et pour déterminer en particulier la position dans l'image du deuxième capteur d'un point de la première image représentant la ligne de visée de l'arme, la corrélation utilisant l'écart angulaire déterminé précédemment ;
- l'affichage sur un visuel de casque, à une position correspondante, d'un symbole représentant cette ligne de visée.
Le symbole est de préférence collimaté à l'infini. Il est de préférence superposé à la scène observée en vision directe, mais on peut aussi envisager qu'il soit superposé à
une image fournie par le deuxième capteur ou par une autre caméra portée par la tête du tireur.
WO 00/37874 signals from these orientation sensors are also treated by the aforementioned electronic circuits.
The subject of the invention is therefore a method of assisting the intended for light weapons carried by a shooter, characterized what it includes the following steps:
- the acquisition of a first image using a first image sensor, associated with a first field and fixed weapon, whose optical axis is mechanically linked to the axis of the barrel of the weapon; said first image representing a front scene, seen from said gun;
- the acquisition of a second image using a second image sensor, associated with a second field and worn by the head of the shooter, so as to encompass all or part of of a scene before observed by it and likely to contain a target;
- acquisition by worn orientation sensors respectively by the weapon and the shooter's head, estimation of the angular differences between the field observed by the shooter and the field seen by the sensor carried by the weapon;
- the correlation of the images of the two sensors for determine the position of the field seen by the first sensor image in the field seen by the second sensor, and for determine in particular the position in the image of the second sensor of a point of the first image representing the line of sight of the weapon, the correlation using the angular difference determined previously;
- display on a helmet visual, at a position corresponding, a symbol representing this line of referred.
The symbol is preferably collimated to infinity. he is preferably superimposed on the scene observed in vision direct, but we can also consider that it is superimposed on an image provided by the second sensor or by another camera carried by the shooter's head.
WO 00/3787
5 PCT/FR99/03185 Les capteurs d'orientation peuvent être du type magnétométrique, avec par exemple un capteur de cap et un inclinomètre deux axes, ces capteurs étant prévus d'une part 5 sur la tête du tireur et d'autre part sur l'arme.
La corrélation est facilitée en particulier dans une phase d'acquisition où il faut trouver une portion d'image du deuxiême capteur coïncidant avec l'image du premier capteur. Les capteurs d'orientation permettent en effet d'élaborer une matrice de rotation permettant de faire tourner les deux images l'une par rapport à l'autre d'une quantité correspondant à l'indication (approximative) donnée par les capteurs d'orientation. Les images se retrouvent alors orientées sensiblement identiquement et la corrélation peut se poursuivre plus facilement. Dans les phases ultérieures de poursuite, la corrélation d'images est l'élément principal servant à déplacer le réticule dans le champ de l'afficheur.
On détermine en particulier à partir des indications des deux capteurs d'orientation une matrice de rotation représentant les positions relatives dans l'espace de deux trièdres de référence liés l'un à l'arme, l'autre à la tête.
On peut aussi, pour aider à la corrélation, utiliser un vecteur de translation, borné a priori à environ 50 cm, représentant l'écart de position entre la tête et l'arme.
L'invention a encore pour objet un système d'aide à
la visée pour la mise en oeuvre de ce procédé.
L'invention sera mieux comprise et d'autres caractéristiques et avantages apparaîtront à la lecture de la description qui suit en référence aux figures annexées, parmi lesquelles :
- les figures lA et 1B illustrent schématiquement l'architecture d'un système d'aide à la visée selon l'invention ; 5 PCT / FR99 / 03185 Orientation sensors can be of the type magnetometer, for example with a heading sensor and a two-axis inclinometer, these sensors being provided on the one hand 5 on the shooter's head and on the weapon.
Correlation is facilitated particularly in a acquisition phase where you have to find a portion of the image of the second sensor coinciding with the image of the first sensor. Orientation sensors make it possible to develop a rotation matrix to make turn the two images relative to one another quantity corresponding to the (approximate) indication given by the orientation sensors. The images are found then oriented substantially identically and the correlation can continue more easily. In the phases subsequent pursuit, the image correlation is the main element used to move the reticle in the display field.
In particular, it is determined from the indications of the two orientation sensors a rotation matrix representing the relative positions in the space of two reference trihedral linked to the weapon, the other to the head.
We can also, to help the correlation, use a translation vector, limited a priori to about 50 cm, representing the positional gap between the head and the weapon.
The subject of the invention is also a system for assisting the aim for the implementation of this method.
The invention will be better understood and others features and benefits will appear on reading the description which follows with reference to the appended figures, among :
FIGS. 1A and 1B schematically illustrate the architecture of a sighting aid system according to the invention;
6 - la figure 2 est un diagramme géométrique permettant d'expliquer le fonctionnement général du système des figures lA et 1B ;
- la figure 3 illustre un exemple de dispositif modulaire de traitement de signaux et d'images utilisé dans le système d'aide à la visée de l'invention ;
- La figure 4 illustre l'imbrication d'images fournies par des capteurs en imagerie utilisés dans le système d'aide à la visée de l'invention ;
- la figure 5 est un exemple de réalisation plus détaillée d'un des modules du dispositif de la figure 3 ;
- les figures 6A et 6B illustrent schématiquement une des étapes du procédé selon l'invention ;
- La figure 7 est un exemple de réalisation plus détaillée d'un module de corrélation utilisé dans le dispositif de la figure 3 ;
- et la figure 8 est un diagramme illustrant la dernière étape du procédé selon l'invention, consistant en une corrélation dite fine.
On va maintenant, pour expliciter le procédé de visée selon l'invention, décrire un exemple de réalisation d'architecture de système de visée 1 le mettant en oeuvre, par référence aux figures lA et 1B. La figure 1A illustre schématiquement.son architecture globale et la figure 1B est une figure de détail montrant un des composants utilisés, en l'occurrence un dispositif de visualisation 4, avantageusement du type dit visuel de casque.
Le système 1 comprend tout d'abord un capteur à
imagerie C1 dans le domaine du visible ou de l'infrarouge, fixé sur l'arme 2. Dans le premier cas (lumière visible), on peut utiliser un capteur matriciel standard, ou un composant du type "IL-CCD" (intensificateur de lumière à dispositif à
couplage de charges). Dans le second cas, on peut utiliser un composant du type "MWIR" (Medium Wave Infrared . 6 FIG. 2 is a geometric diagram allowing to explain the general functioning of the system of figures lA and 1B;
FIG. 3 illustrates an exemplary device modular signal processing and image processing used in the aid system for the purpose of the invention;
- Figure 4 illustrates the nesting of images provided by imaging sensors used in the help system to the aim of the invention;
FIG. 5 is an embodiment example one of the modules of the device of FIG. 3;
FIGS. 6A and 6B schematically illustrate a steps of the method according to the invention;
FIG. 7 is an embodiment example more detailed description of a correlation module used in the device of Figure 3;
- and FIG. 8 is a diagram illustrating the last step of the method according to the invention, consisting of a so-called fine correlation.
We will now, to explain the process of referred to according to the invention, describe an embodiment of a sighting system architecture 1 implementing it, with reference to Figures 1A and 1B. Figure 1A illustrates schematically.its overall architecture and Figure 1B is a detail figure showing one of the components used, in the occurrence a display device 4, advantageously of the so-called visual type of helmet.
The system 1 comprises first of all a sensor with C1 imaging in the visible or infrared domain, attached to the weapon 2. In the first case (visible light), can use a standard matrix sensor, or component of the type "IL-CCD" (light intensifier with load coupling). In the second case, we can use a component of the type "MWIR" (Medium Wave Infrared.
7 infrarouge dans les gammes de longueurs d'onde comprises entre 3 et 5 m) ou LWIR (Long Wave Infrared : infrarouge dans les gammes de longueurs d'onde comprises entre 8 et 12 m). La direction de l'axe optique, AC1, du capteur C1 est harmonisée, par construction, avec l'axe, A20, du canon 20.
Si ce n'est pas le cas, on en tient compte dans les calculs.
On prévoit un dispositif de mesure de la position du centre du champ du capteur à imagerie C1 de l'arme 2. Ce dispositif est composé d'un second capteur à imagerie C2 fixé sur la tête du tireur et d'un dispositif électronique de traitement de signaux et d'images 3 fournies par le capteur C2, ce dispositif 3 ayant notamment pour fonction de calculer la position du champ du capteur C1 dans l'image du capteur C2. En effet, le champ du capteur C1 est choisi avantageusement plus petit que le champ du capteur C2.
Le système 1 comprend également un dispositif 4 de restitution collimaté à l'infini permettant d'incruster dans le champ de vision du tireur un réticule 41, ou tout autre symbole adapté, matérialisant la visée. Ce dispositif est avantageusement constitué par un organe de visualisation du type dit visuel de casque.
on prévoit enfin un dispositif composé de deux dispositifs, 5 et 6, qui sont des capteurs d'orientation permettant, en combinant les informations qu'ils délivrent, de déterminer l'écart entre l'orientation de l'arme et l'orientation de la tête. Le plus simple es"-- de prévoir que chacun des capteurs d'orientation comprend deux capteurs :
un capteur de cap et un inclinomètre deux axes (non représentés séparément). Ces dispositifs, 5 et 6, qui génèrent des données de cap et d'assiette, sont fixés, respectivement, sur l'arme 2 et sur la tête Te du tireur afin de donner une estimation de préférence continue de l'écart d'orientation des deux axes de visée, A1 et A2r des capteurs C1 et C2. Ces capteurs sont indépendants des capteurs d'image. 7 infrared in the range of wavelengths included between 3 and 5 m) or LWIR (Long Wave Infrared: infrared in the ranges of wavelengths between 8 and 12 m). The direction of the optical axis, AC1, of the sensor C1 is harmonized, by construction, with the axis, A20, of the barrel 20.
If this is not the case, it is taken into account in the calculations.
A device for measuring the position of the center of the field of the C1 imaging sensor of weapon 2. This device is composed of a second C2 imaging sensor fixed on the shooter's head and an electronic device processing of signals and images 3 provided by the C2 sensor, this device 3 having in particular the function of calculate the position of the field of the sensor C1 in the image of the C2 sensor. Indeed, the field of the sensor C1 is chosen advantageously smaller than the field of the sensor C2.
The system 1 also comprises a device 4 of infinitely collimated rendering allowing to embed in the shooter's field of view a reticle 41, or any other symbol adapted, materializing the aim. This device is advantageously constituted by a display member of the so-called visual type of headphones.
Finally, a device consisting of two devices, 5 and 6, which are orientation sensors allowing, by combining the information they deliver, to determine the difference between the orientation of the weapon and the orientation of the head. The simplest is "- to provide that each of the orientation sensors comprises two sensors:
a heading sensor and a two-axis inclinometer (no represented separately). These devices, 5 and 6, which generate heading and trim data, are set, respectively, on weapon 2 and on the shooter's head Te in order to give a continuous preference estimate of the orientation deviation of the two axes of aim, A1 and A2r C1 and C2 sensors. These sensors are independent of image sensors.
8 Ce double dispositif, 5 et 6, fournit, en coopération avec des circuits spécifiques du dispositif électronique de traitement de signaux et d'images 3, une estimation de la matrice de rotation MR de passage entre le capteur C1 et le capteur C2. Le vecteur translation T n'est pas connu. Sachant que l'arme est tenue par le tireur, on peut estimer la norme de T à une valeur moyenne de 0,7 mètre et une borne supérieure de 1 mètre. L'arme peut par exemple être tenue à la hanche.
Le dispositif électronique de traitement de signaux et d'images 3 reçoit les signaux générés en sortie du capteur à imagerie Cl et des capteurs 6, f ixés sur la tête Te du tireur, via la liaison 60, et reçoit les signaux générés en sortie du capteur à imagerie C2 et des capteurs 5, portés par l'arme 2, via la liaison 50. Le dispositif 3 transmet en sortie les signaux traités pour affichage sur l'organe de visualisation visuel de casque 4 (dans l'exemple décrit), ainsi que l'alimentation électrique nécessaire au bon fonctionnement de cet organe.
La figure 1B illustre l'organe de visualisation 4 en vue de face, c'est-à-dire du côté observé par le tireur. Il permet d'incruster dans la scène avant 40, réellement observée par le tireur, un réticule 41 matérialisant la cible visée, ou d'autres indications, par exemple une flèche indiquant de quel côté il doit tourner l'arme 2, pendant une période initiale du processus de visée, comme il le sera montré ci-après. L'image fournie par le capteur grand champ C2 englobe tout ou partie de la scène observée par le tireur.
La figure 2 est un diagramme géométrique illustrant les relations existant entre un trièdre de référence TRC2 associé aux dispositifs portés par la tête Te du tireur, et notamment au capteur C2, et un trièdre de référence TRC1 associé aux dispositifs portés par l'arme 2, et notamment au capteur Ci. 8 This double device, 5 and 6, provides, in cooperation with specific circuits of the device electronic processing of signals and images 3, a estimation of the MR rotation matrix of passage between the C1 sensor and the C2 sensor. The translation vector T is not known. Knowing that the weapon is held by the shooter, one can estimate the norm of T at an average value of 0.7 meter and an upper limit of 1 meter. The weapon can for example to be held at the hip.
The electronic signal processing device and images 3 receives the signals generated at the output of the Cl imaging sensor and sensors 6, fixed on the head The shooter's Te, via the link 60, and receives the signals generated at the output of the C2 imaging sensor and the sensors 5, carried by the weapon 2, via the link 50. The device 3 outputs the processed signals for display on the helmet visual display unit 4 (in the example described), as well as the power supply required for functioning of this body.
FIG. 1B illustrates the viewing element 4 in front view, that is to say on the side observed by the shooter. he allows to embed in the scene before 40, actually observed by the shooter, a reticle 41 embodying the targeted target, or other indications, for example an arrow indicating which side he should turn the weapon 2, during a initial period of the sighting process, as it will be shown below. The image provided by the large sensor C2 field encompasses all or part of the scene observed by the shooter.
FIG. 2 is a geometric diagram illustrating the relations existing between a TRC2 reference trihedron associated with the devices carried by the shooter's head Te, and in particular to the sensor C2, and a reference trihedron TRC1 associated with the devices carried by the weapon 2, and in particular Ci sensor.
9 On a représenté sur ce diagramme, le vecteur translation T et on a superposé au trièdre de référence TRC1 un trièdre de référence TR'C2 (en traits pointillés), représentant le trièdre de référence TRC2, après translation suivant le vecteur T. Cette superposition permet de calculer la matrice rotation MR.
Le processus de visée comprend deux étapes initiales, réalisées à l'aide des deux dispositifs de capteurs de positionnement 5 et 6.
La première étape, que l'on appellera de "ralliement automatique" consiste à utiliser les signaux générés par les capteurs d'orientation 5 et 6, sur l'arme 2 et sur la tête Te du tireur, pour aider le tireur à pointer son arme dans la même direction que sa tête. Ceci est fait par le dispositif de traitement de signaux et d'images 3. Les signaux traités comprennent des informations de cap et d'inclinaison des référentiels, TRC1 et TRC2, liés aux capteurs, C1 et C2 par rapport à un repère terrestre. En sortie, le dispositif de traitement 3 génère des signaux permettant d'estimer l'écart d'orientation des champs de visée des capteurs, C1 et C2, au moins en sens et direction.
Ces signaux sont transmis à l'organe de visualisation 4, de façon à afficher un symbole spécifique sur l'écran, par exemple une flèche 42, en lieu et place du réticule 41 matérialisant la visée. Le tireur sait alors qu'il doit déplacer le canon de son arme 2, suivant la direction générale symbolisée par la flèche 42, de façon à ce que le réticule 41 symbolisant la visée entre dans son champ de vision et soit affiché sur l'écran de l'organe de visualisation. Il s'agit donc d'une aide automatique, très grossière, pour obtenir un pointage approximatif de l'arme 2, de façon à ce que les étapes du processus d'aide à la visée proprement dit puissent débuter. Cependant un pointage initial approximatif peut être réalisé manuellement, sans l'assistance d'une quelconque symbologie.
La seconde étape initiale consiste à calculer une estimation de la matrice de rotation précitée MR, toujours à
l'aide des données fournies par les deux capteurs d'orientation, 5 et 6. Cette estimation de la matrice de 5 rotation MR est obtenue en comparant les données (assiette et cap) fournies par les deux dispositifs, 5 et 6, et en utilisant éventuellement l'estimée du vecteur translation T.
Une fois cette ou ces étapes initiales effectuées, la corrélation des images est effectuée en utilisant la 9 This diagram shows the vector translation T and superimposed on the reference trihedron TRC1 a reference trihedron TR'C2 (in dotted lines), representing the reference trihedron TRC2, after translation following the vector T. This superposition makes it possible to calculate the rotation matrix MR.
The sighting process consists of two stages initials, carried out using the two positioning sensors 5 and 6.
The first step, which we will call "rallying automatic "is to use the signals generated by the orientation sensors 5 and 6, on weapon 2 and on the head Shooter's T, to help the shooter point his weapon into the same direction as his head. This is done by the signal and image processing device 3. The processed signals include heading information and TRC1 and TRC2, related to sensors, C1 and C2 with respect to a terrestrial reference. In output, the processing device 3 generates signals to estimate the orientation difference of the fields of referred to sensors, C1 and C2, at least in direction and direction.
These signals are transmitted to the display member 4, to display a specific symbol on the screen, for example example an arrow 42, in place of the reticle 41 materializing the aim. The shooter knows then that he must move the barrel of his weapon 2, following the direction general symbolized by the arrow 42, so that the reticle 41 symbolizing the aim enters its field of vision and be displayed on the screen of the organ of viewing. It is therefore an automatic help, very rough, to get an approximate weapon score 2, so that the steps of the process of helping to actual purpose can begin. However a score initial approximation can be done manually without the assistance of any symbology.
The second initial step is to calculate a estimation of the aforementioned rotation matrix MR, still at using the data provided by the two sensors guidance, 5 and 6. This estimate of the matrix of 5 rotation MR is obtained by comparing the data (plate and cap) provided by the two devices, 5 and 6, and possibly using the estimate of the translation vector T.
Once this initial step or steps have been completed, the correlation of the images is performed using the
10 matrice de rotation pour faciliter l'acquisition de zones d'images identiques dans les images fournies par les deux capteurs d'image ; en faisant tourner l'image du premier capteur d'angles définis par la matrice de rotation, on donne aux images des deux capteurs sensiblement la même orientation, ce qui facilite la corrélation.
Cette corrélation va permettre ensuite de déterminer dans le champ du capteur de tête quelle est la position de la ligne de visée, celle-ci étant représentée par un point bien déterminé (par exemple un point central) du champ du capteur d'arme Ci et le champ du capteur d'arme étant localisé, par la corrélation, dans le champ du capteur de tête.
On peut donc afficher sur l'écran de l'organe de visualisation 4 un réticule 41 matérialisant la visée et s'incrustant sur la scène 40 observée par le tireur, et donc se superposant sur la cible qu'il désire atteindre, puisque le réticule 41 va se déplacer en synchronisme avec les mouvements de l'arme 2 (phase de poursuite après la phase d'acquisition de l'opération de corrélation).
Les circuits électroniques du dispositif 3 peuvent être découpés en modules pour l'exécution des différentes étapes nécessaires.
La figure 3 illustre la configuration modulaire d'un dispositif de traitement d'images 3 pour la mise en oeuvre 10 rotation matrix to facilitate the acquisition of zones identical images in the images provided by both image sensors; by rotating the image of the first angle sensor defined by the rotation matrix, one gives the images of the two sensors substantially the same orientation, which facilitates correlation.
This correlation will then make it possible to determine in the field of the head sensor what is the position of the line of sight, which is represented by a point well determined (eg a central point) of the field of weapon sensor Ci and the weapon sensor field being localized, by the correlation, in the field of the sensor of head.
So we can display on the screen of the organ of visualization 4 a reticle 41 materializing the aim and stomping on the scene 40 observed by the shooter, and therefore overlaying the target he wants to reach, since the reticle 41 will move in synchronism with the movements of the weapon 2 (phase of pursuit after the phase acquisition of the correlation operation).
The electronic circuits of the device 3 can be cut into modules for the execution of different necessary steps.
Figure 3 illustrates the modular configuration of a image processing device 3 for implementation
11 du procédé de visée, selon un mode de réalisation préféré de l'invention. On n'a pas représenté les circuits permettant l'exécution de la ou des étapes initiales précitées.
Dans ce qui suit, un certain nombre de conventions concernant des signaux et d'autres paramètres utilisées par le procédé de l'invention seront respectées. Ces conventions sont portées dans la "TABLE DES NOTATIONS" annexée en fin de la présente description.
Le dispositif 3 comprend deux modules d'acquisition analogique/numérique, 30 et 34, respectivement pour les voies d'acquisition des signaux de sortie des capteurs C1 et C2.
Les signaux de sortie des modules d'acquisition analogique/numérique, 30 et 34, sont transmis à des modules d'extraction de contours de zones homogènes, ou objets, contenues dans les images numériques, modules 31 et 35, respectivement.
Un module 32 calcule ensuite la pyramide de contours de l'image fournie par le capteur petit champ C1, après extraction des contours.
De même les signaux en sortie du module 35 sont transmis à un premier module 36 d'établissement des images des distances aux contours de l'image grand champ, suivi d'un module 37 d'établissement de la pyramide d'images dites de "chamfer", c'est-à-dire des distances au contour le plus proche.
Enfin un double module de corrélation dit "Gros-Fin" 33, reçoit les signaux de sortie des modules 32 et 37, ainsi que des signaux de gradients fournis par le module d'extraction de contours 35, et, fournis par les modules respectifs 30 et 34 d'acquisition de signaux d'image, iP
et IG, dont la définition est donnée dans la table de notation précitée. 11 of the aiming method, according to a preferred embodiment of the invention. We did not show the circuits allowing the execution of the initial step or steps mentioned above.
In the following, a number of conventions concerning signals and other parameters used by the method of the invention will be respected. These conventions are entered in the "TABLE OF RATINGS" annexed at the end of this description.
The device 3 comprises two acquisition modules analogue / digital, 30 and 34 respectively for acquisition channels of the output signals of the sensors C1 and C2.
The output signals of the acquisition modules analog / digital, 30 and 34, are transmitted to extraction of contours from homogeneous zones, or objects, contained in digital images, modules 31 and 35, respectively.
A module 32 then calculates the contour pyramid of the image provided by the small field sensor C1, after contour extraction.
Similarly, the signals at the output of the module 35 are transmitted to a first imaging module 36 distances to the contours of the large field image, followed of a module 37 for establishing the pyramid of so-called images "chamfer", that is to say, distances to the most close.
Finally, a double correlation module called "Gros-End "33, receives the output signals of the modules 32 and 37, as well as gradient signals provided by the module contour extraction 35, and, provided by the modules respective 30 and 34 image signal acquisition, iP
and IG, whose definition is given in the table of aforementioned notation.
12 Les calculs effectués par la partie dite "Gros" du module corrélation 33 sont fondés sur un algorithme de type corrélation valuée.
Les calculs effectués par la partie dite "Fin" sont fondés sur un algorithme d'estimation de l'écart de positionnement entre le centre de l'image du capteur petit champ C1 et le centre de la zone de positionnement FG dans l'image grand champ du capteur C2, calculée par le module "gros".
Les différents modules composant le dispositif 3 vont maintenant être détaillés.
Une fois que le modèle et le type des capteurs, C1 et C2, sont sélectionnés, les champs respectifs de ces capteurs sont connus. Ce sont des données fournies par le constructeur, ainsi que d'autres caractéristiques associées : résolution, etc.
La conversion analogique/numérique des signaux d'image générés par les capteurs C1 et C2, conversion effectuée dans les modules 30 et 34, est assurée de manière synchrone par un dispositif de numérisation d'images classique, sur une dynamique typique de 28 niveaux de gris.
L'estimation de la matrice de rotation MR, et son application aux images issues du capteur C1, ainsi que la connaissance des champs des capteurs, C1 et C2, permet de construire, par un traitement de ré-échantillonnage spatial, à partir de l'image numérisée issue du capteur petit champ C1. deux images dérivées IF et I'P d'axes parallèles aux axes de l'image IG, en supposant que celle-ci soit rectangulaire, ou de façon plus générale d'un référentiel orthonormé lié à celle-ci. Ces images, IP et I'F, sont telles que la relation suivante soit satisfaite CIG = QxCIP
avec Q nombre entier, et 12 The calculations made by the so-called "Gros" part of the correlation module 33 are based on a type algorithm valued correlation.
The calculations made by the so-called "End" part are based on an algorithm for estimating the difference in positioning between the center of the small sensor image C1 field and the center of the FG positioning area in the C2 wide-field image, calculated by the module "large".
The different modules making up the device 3 will now be detailed.
Once the model and type of sensors, C1 and C2, are selected, the respective fields of these sensors are known. These are data provided by the constructor, as well as other characteristics associated: resolution, etc.
Analog / digital conversion of signals of images generated by sensors C1 and C2, conversion carried out in modules 30 and 34, is ensured in a synchronous by an image scanning device classic, on a typical dynamics of 28 levels of gray.
The estimation of the rotation matrix MR, and its application to images from sensor C1, as well as the knowledge of the sensor fields, C1 and C2, allows build, by a spatial resampling processing, from the scanned image from the small sensor C1 field. two derived images IF and I'P of parallel axes to the axes of the IG image, assuming that it is rectangular, or more generally a repository orthonormed linked to it. These images, IP and I'F, are such that the following relationship is satisfied CIG = QxCIP
with Q integer, and
13, CIG = CI'P (1 bis), avec CIG, CIP et CI'P, les champs instantanés des images IG, IP et I'P, respectivement.
Le ré-échantillonage spatial est réalisé par une fonction classique d'interpolation, de type bilinéaire ou bicubique.
La valeur de Q est choisie de la façon indiquée ci-dessous.
Le champ souhaité de l'image "brute" CIGBrute en sortie du capteur C2 est inférieur au champ instantané de l'image "brute" CIPBrute du capteur petit champ Cl. Les relations liant ces deux images "brutes" sont les suivantes :
CIGBrute = ;~xCIPBrute (2), avec k un nombre réel plus grand que l'unité et Q partie entière de ~.
La figure 4 est un diagramme illustrant schématiquement les images IG, IP et I'P. La découpe de la zone utile des images ré-échantillonées est telle que l'image I'P est incluse dans l'image IG du capteur grand champ C2. On a représenté schématiquement, sur la figure 4, en traits pointillés, les p.ositions des images IP et I'P
avant application de la matrice de rotation MR. Les axes XYZ
symbolisent le référentiel TRC1 (figure 2).
Les signaux numériques représentant les images IP
et IG sont transmis au module 33.
A l'issue de cette opération, on définit par la valeur maximale du roulis résiduel apparent de I'P dans l'image IG. 13 CIG = CI'P (1a), with CIG, CIP and CI'P, the instantaneous fields of the IG images, IP and I'P, respectively.
The spatial re-sampling is performed by a classical interpolation function, bilinear or bicubic.
The value of Q is chosen in the manner indicated below.
below.
The desired field of the "raw" image CIGBrute in C2 sensor output is less than the instantaneous field of the "raw" image CIPBrute of the small field sensor Cl.
relations linking these two "raw" images are the following:
CIGBrute =; ~ xCIPBrute (2), with k a real number larger than unity and Q part whole of ~.
Figure 4 is a diagram illustrating schematically the IG, IP and I'P images. The cutting of the useful area of the re-sampled images is such that the I'P image is included in the IG image of the large sensor C2 field. Diagrammatically, in FIG.
in dashed lines, the pictures of the IP and I'P images before applying the rotation matrix MR. The XYZ axes symbolize the reference TRC1 (Figure 2).
Digital signals representing IP images and IG are passed to module 33.
At the end of this operation, we define by the maximum apparent apparent roll of I'P in the IG image.
14 Les modules 31 et 35 effectuent l'extraction des contours objets présents dans les deux images numérisées. Le processus est similaire dans les deux modules.
La figure 5 illustre de façon plus détaillée, sous forme de blocs diagrammes, l'un des modules, par exemple le module 31.
Les paramètres d'extraction sont choisis de manière à introduire un niveau de filtrage passe-bas identique sur les deux images numérisées.
Un module d'entrée 310 calcule des images de gradients GX et Gy selon deux axes orthonormés X et Y
attachés à l'image. Cette opération peut être réalisée par toute méthode classique du domaine du traitement d'image. On peut avoir recourt, par exemple, à des traitements récursifs comme ceux décrits dans l'article de Rachid DERICHE, intitulé :"Using Canny's detector to derive a recursively implemented Optimal Edge Detector", "Computer Vision 1987", pages 167-187, article auquel on se reportera avec profit.
Les images de gradients calculés, suivant les axes X
et Y, sont transmises à un premier module 311 destiné à
calculer, en chaque point la norme du gradient NG, conformément à la relation suivante NG(i, j) = IGx- (i,.1)j + IG,. (i,.i)i ( 3 ) , avec i et j des coordonnées de pixels dans l'image, selon deux axes orthonormés.
Les images de gradients calculés sont également transmises à un second module 312, destiné à calculer en chaque point l'orientation du gradient OG, conformément à la relation suivante :
OG(i,.1) = Ai'Ctg(- Gr (T,.J)~ (4).
Gx(J, J) Les signaux de sorties élaborés par les modules 311 et 312, représentent, respectivement, les images de la norme et de l'orientation des gradients, sont transmis à un module de sortie 314 élaborant une liste des points de contours des 5 objets détectés dans l'image numérisée, sous forme de coordonnées numériques. Cette étape comprend les sous-étapes suivantes binarisation, suppressions des non-maxima et application d'un seuil par hystérésis. La sous-étape de binarisation nécessite de connaître les seuils hauts et bas.
10 L'estimation de ces seuils est effectuée par un module supplémentaire 313, selon un processus itératif. Le module 313 reçoit en effet les données associées à la liste des points de contours en rétroaction. Il reçoit également sur une seconde entrée l'image de la norme des gradients 14 The modules 31 and 35 perform the extraction of contours objects present in the two scanned images. The process is similar in both modules.
Figure 5 illustrates in more detail, under form of block diagrams, one of the modules, for example the module 31.
The extraction parameters are chosen so to introduce an identical low-pass filtering level on the two scanned images.
An input module 310 calculates images of gradients GX and Gy along two orthonormal axes X and Y
attached to the image. This operation can be performed by any conventional method of the field of image processing. We may have recourse, for example, to recursive like those described in the article by Rachid Deriche, entitled: "Using Canny's detector to derive a recursively implemented Optimal Edge Detector "," Computer Vision 1987 ", pages 167-187, article to which we will refer profitably.
Gradient images calculated according to the X axes and Y, are transmitted to a first module 311 for calculate, at each point, the norm of the gradient NG, according to the following relation NG (i, j) = IGx- (i, .1) + IG ,. (i, .i) i (3), with i and j pixel coordinates in the image, according to two orthonormal axes.
Calculated gradient images are also transmitted to a second module 312, intended to calculate in each point the orientation of the gradient OG, according to the following relation:
OG (i, .1) = Ai'Ctg (- Gr (T, .J) ~ (4).
Gx (J, J) The output signals produced by the 311 modules and 312, represent, respectively, the images of the standard and the orientation of the gradients, are transmitted to a module 314 which produces a list of contour points for 5 objects detected in the scanned image, in the form of numerical coordinates. This step includes the sub-steps following binarization, deletion of non-maxima and application of a threshold by hysteresis. The sub-step of binarization requires knowing the high and low thresholds.
10 The estimation of these thresholds is carried out by a module additional 313, according to an iterative process. The module 313 receives the data associated with the list contour points in feedback. He also receives on a second entry the image of the gradient standard
15 calculée par le module 311.
A partir de la liste des points de contours extraits de l'image précédente et de la norme des gradients de l'image courante, le module 313 a pour objet d'asservir dynamiquement, zone de l'image par zone de l'image, les seuils hauts et bas.
L'image courante est divisée en zones de tailles égales. Sur chaque zone, d'indice arbitraire z, le module 313 calcule un seuil haut, que l'on référencera SHZ, et un seuil bas, que l'on référencera SBZ, pour l'image en cours de traitement à un instant t arbitraire, ce en fonction des seuils haut et bas obtenus sur la zone à un instant t-1 correspondant à l'image précédente. La relation suivante est utilisée :
SHZ(t) = ax(3xSHZ(t-1) + (1-a)xSnorme (5), avec a E[0, 1], la valeur exacte étant fixée par l'application, selon le type de capteur sélectionné, la valeur a= 0,8 étant une valeur typique. j3 dépend du nombre de points de contour extraits dans l'image précédente, à
l'instant t-1. Si le nombre de points est trop élevé pour tenir une cadence en temps réel, ~ est choisi inférieur à Calculated by the module 311.
From the list of extracted contour points of the previous image and standard gradients of the current image, the 313 module aims to enslave dynamically, image area by area of the image, the high and low thresholds.
The current image is divided into size areas equal. On each zone, of arbitrary index z, the module 313 calculates a high threshold, which will be referenced SHZ, and a low threshold, which will be referred to as SBZ, for the image in course of treatment at an instant t arbitrary, this in function of the high and low thresholds obtained on the area at a moment t-1 corresponding to the previous image. The relationship following is used:
SHZ (t) = ax (3xSHZ (t-1) + (1-a) xSmall (5), with a E [0, 1], the exact value being fixed by the application, depending on the type of sensor selected, the value a = 0.8 being a typical value. j3 depends on the number contour points extracted in the previous image, the moment t-1. If the number of points is too high for keep a real-time pace, ~ is chosen lower than
16 l'unité. Par contre, si le nombre de points est insuffisant pour obtenir une information de contour, on choisit ~
supérieur à l'unité. Typiquement la valeur de P est comprise entre 0,8 et 1,25.
Snorme est la valeur de seuil à appliquer sur la norme de gradient pour effectuer une opération de seuil sur n ô des points de la zone. Le nombre n est choisi en fonction des caractéristiques des capteurs (richesse spatiale de l'image) et est compris typiquement entre 5 et 15 %.
La relation suivante est satisfaite SBz = E(,vx (SHz (t) ) (6), avec E valeur entière et y fixé une fois pour toutes par l'application. y est généralement inférieur à 0,5.
Pour éviter les effets de discontinuités interzones, un processus de lissage des seuils obtenus est mis en oeuvre. Chaque zone z est divisée en quatre sous-zones contiguës et les seuils hauts et bas sont recalculés pour les sous-zones par un algorithme d'interpolation classique, en utilisant les zones adjacentes à la zone z.
Le module 314 effectue la binarisation des contours et la suppression des non-maxima locaux, selon une méthode d'hysterésis. Ce module 314 détermine les chaînes de contour (c'est-à-dire les ensembles de contours connexes selon le principe de la connexité à huit) telles qu'un point au moins de chaque chaîne dépasse le seuil haut local de sa zone et que tous les autres points de la chaîne dépassent leur seuil bas local.
En outre, chaque point de la chaîne est conservé
s'il constitue un maximum local de la norme. Pour le vérifier, on compare la norme du gradient en ce point, que l'on appellera P, avec la norme du gradient de deux autres points, Pi et P2, qui sont les plus proches du point P, 16 unit. On the other hand, if the number of points is insufficient to get a contour information, we choose ~
greater than unity. Typically the value of P is included between 0.8 and 1.25.
Snorme is the threshold value to apply on the gradient standard to perform a threshold operation on n ô points of the zone. The number n is chosen in function of sensor characteristics (wealth space of the image) and is typically between 5 and 15%.
The following relationship is satisfied SBz = E (, vx (SHz (t)) (6), with E whole value and fixed there once and for all by the application. y is usually less than 0.5.
To avoid the effects of interzonal discontinuities, a process of smoothing the thresholds obtained is set artwork. Each zone z is divided into four sub-zones contiguous and the high and low thresholds are recalculated for the subfields by a conventional interpolation algorithm, using the zones adjacent to the zone z.
The module 314 binarizes the outlines and the suppression of local non-maxima, according to a method hysteresis. This module 314 determines the outline chains (that is, sets of related contours according to the principle of connectivity to eight) such that at least one point each chain exceeds the local high threshold of its zone and all other points in the chain exceed their threshold local low.
In addition, each point of the chain is kept if it constitutes a local maximum of the norm. For the check, we compare the norm of the gradient at this point, that we'll call P, with the gradient standard of two more points, Pi and P2, which are closest to the point P,
17 suivant une direction réalisant la meilleure approximation sur un voisinage 3x3 de la normale au contour au point P. La direction de cette normale est calculée à partir de l'orientation du gradient au point P qui donne la direction de la tangente au point P.
Le processus qui vient d'être explicité est illustré
très schématiquement par les figures 6A et 6B. Sur la figure 6A, on a représenté une image représentant la scène vue par le capteur grand champ C2, comprenant, dans l'exemple illustré, deux objets remarquables constitués par un arbre Ar et un bâtiment Bt. En fin du processus d'extraction de contours, on dispose d'une liste de points de contours CAr et CBt, représentés, par exemple, par des zéros. Les deux objets, symbolisés par ces contours, peuvent représenter des cibles potentielles qui se distinguent de l'arrière plan.
En dehors des points de contours, les points ou pixels de l'image sont représentés par des nombres différents de zéro (1, 2, 3, ...) et dont la valeur est d'autant plus grande que ces points sont éloignés des contours (distance en connexité à 4 d'un pixel au contour le plus proche, la distance étant exprimée en pixels).
Naturellement les zéros de la liste sont associés à
des coordonnées numériques, selon un référentiel orthonormé XY, dont les axes sont avantageusement parallèles aux bords de l'image, si celle-ci est rectangulaire. Ces coordonnées sont stockées, au moins temporairement, dans des circuits de mémoire classiques (non représentés), de façon à
être utilisées par le module suivant, 32 ou 36, selon la voie considérée (figure 3).
On va se reporter de nouveau à la figure 3.
Sur la voie supérieure (traitement de l'image issue du capteur petit champ C1), le module 32 permet 17 following a direction that achieves the best approximation on a 3x3 neighborhood of the normal to the outline at point P. The direction of this normal is calculated from the orientation of the gradient at point P which gives the direction from tangent to point P.
The process just explained is illustrated very schematically in FIGS. 6A and 6B. On the FIG. 6A shows an image representing the scene seen by the large field sensor C2, comprising, in illustrated example, two remarkable objects made up of an Ar tree and a Bt building. At the end of the process contour extraction, we have a list of points contours CAr and CBt, represented, for example, by zeros. The two objects, symbolized by these outlines, can represent potential targets that are distinguishable from the background.
Outside of the outlines, the points or pixels in the image are represented by numbers different from zero (1, 2, 3, ...) and whose value is all the more so since these points are far from contours (connected distance to 4 of a pixel at the edge of the closer, the distance being expressed in pixels).
Naturally the zeros in the list are associated with digital coordinates, according to a repository orthonormed XY, whose axes are advantageously parallel at the edges of the image, if it is rectangular. These coordinates are stored, at least temporarily, in conventional memory circuits (not shown), so as to be used by the next module, 32 or 36, according to the track considered (Figure 3).
We will refer again to Figure 3.
On the upper track (image processing issue of the small field sensor C1), the module 32 enables
18 l'établissement de la pyramide des contours, à partir de la liste calculée par le module 31.
Pour des raisons de vitesse d'exécution, la constitution de la pyramide consiste à utiliser l'image des contours C'p déterminée par le module 311 au niveau maximal de résolution et de constituer la suite d'images Ck de la pyramide conformément à la relation (7) suivante Ck(i,j)=Ck ,(2i,2j)vCp 1(2i,2j+1)vCk 1 (2i+1,2j)vCp 1(2iT1,2j+1) -relation dans laquelle k E(O,K), avec K entier, tel que 2 K >_ tg( I 0'~ ) T'â~ , et la valeur maximale du roulis résiduel précédemment définie.
Les pixels sont considérés comme des booléens (la proposition est vrai s'il y a présence de contours, fausse dans le cas contraire).
Le paramètre TâXest le maximum des tailles de IP
selon les axes orthonormés X et Y.
Le nombre de points non nuls (c'est-à-dire le nombre de points de contours) dans l'image Ck" est noté _(2k' Sur la voie inférieure (traitement de l'image issue du capteur grand champ C2), les gradients calculés par le module 310 (figure 5) sont transmis sur une entrée du module 33.
Le module 36 permet l'établissement de l'image des distances au contour le plus proche. Cette image est constituée à partir de l'image des contours de l'image grand champ donnée par le capteur C2. Pour ce faire, on peut utiliser une méthode algorithmique connue, par exemple celle divulguée par l'article de Gunilla BORGEFORS, intitulé :"Hierarchical Chamfer Matching : A parametric edge matching algorithm", paru dans "IEEE Transactions on Pattern Analysis and Machine Intelligence", novembre 1988, Vol 10, n 6, pages 849-865, auquel on se reportera avec profit. 18 the establishment of the contour pyramid, starting from list computed by module 31.
For reasons of speed of execution, the constitution of the pyramid is to use the image of C'p contours determined by the module 311 at the maximum level of resolution and to constitute the sequence of images Ck of the pyramid according to the following relation (7) Ck (i, j) = Ck, (2i, 2j) vCp 1 (2i, 2j + 1) vCk 1 (2i + 1,2j) vCp 1 (2iT1,2j + 1) -relation in which k E (O, K), with K integer, such that 2 K> _ tg (I 0 '~) T'â ~, and the maximum value of the roll residual previously defined.
Pixels are considered as booleans (the proposition is true if there is presence of outlines, false on the other hand).
The TâX parameter is the maximum of the IP sizes along the orthonormal axes X and Y.
The number of non-zero points (that is, the number of outlines) in the image Ck "is noted _ (2k ' On the lower channel (image processing issue of the large field sensor C2), the gradients calculated by the module 310 (FIG. 5) are transmitted on an input of module 33.
The module 36 makes it possible to establish the image of the distances to the nearest contour. This picture is formed from the image of the outlines of the large image field given by the C2 sensor. To do this, we can use a known algorithmic method, for example that disclosed by the article by Gunilla BORGEFORS, entitled: "Hierarchical Chamfer Matching: A parametric edge matching algorithm ", published in" IEEE Transactions on Pattern Analysis and Machine Intelligence ", November 1988, Vol 10, No. 6, pages 849-865, to which reference will be made profitably.
19 Le module 37 permet d'établir la pyramide des images dites de "chamfer" calculées à partir de l'image fournie par le module précédent 36.
Pour des raisons de vitesse d'exécution, la constitution de la pyramide consiste à utiliser l'image des distances de "chamfer" constituée à partir de l'image des contours de l'image grand champ D~ déterminée par le module 36 au niveau maximal de résolution et de constituer la suite d'images D de la pyramide conformément à la relation (8) suivante DG
(i, j) = Max(DG
1(2i,2 j)>DG, (2i,21 + 1), D~1 (2i + 1,2 j),D~, (2i + 1,2 j+ 1))diti~ 2, relation dans laquelle r E[0,R], avec R = K + q, et div représente la fonction division entière.
Le module de corrélation 33 est en réalité subdivisé
en deux modules, comme il a été indiqué.
Le module dit "gros", 33G, est représenté sous forme de bloc diagramme par la figure 7, et comprend trois sous-modules en cascade : 330 à 332.
Le module 33G réalise une corrélation valuée, au même niveau de résolution, entre les images de la pyramide de contour de l'image petit champ et les images de la pyramide des images de distances aux contours obtenues à
partir de l'image grand champ.
Le sous-module d'entrée 330 permet la constitution de la nappe de corrélation Nk(u, v), conformément à la relation suivante :
NK (DR (i, J ) - C; (i ;- 11, j + i')) ( 9 ) , relation dans laquelle, u et v sont des coordonnées orthogonales dans la nappe de corrélation, avec Ukf < U < Tlkup et i~inf < v~ VfsUP ~ inégalités dans lesquelles VKnf et UKnf sont typiquement égaux à -2, et VK"p et UK"p sont typiquement égaux à +2.
Le module 331 est destiné à la sélection des minimas locaux. Cette sélection est réalisée en deux étapes.
5 on sélectionne d'abord des couples (u, v) tels que N(u,v) présente un minimum local et N(tr~P i~) _< S. S est un K
seuil qui dépend de la densité spectrale de l'image d'entrée. On détermine le seuil S par une procédure classique de calibrage du dispositif de traitement d'images.
10 L'ensemble des minimas locaux au niveau K de la pyramide est noté EEK
Enfin, dans le module 332, on effectue, par un processus itératif, la remontée des niveaux des pyramides et un filtrage des valeurs.
15 Pour tout niveau n de la pyramide des images CA, on constitue un ensemble ---:r, comme indiqué ci-après.
Pour tout couple (u,v) de n+l, on calcule une nappe de corrélation Nn réduite à 4 points, au niveau n, tel que Nn(W'V)-~~(Dny(',.I)- Cn(lTW,.l+-'')1 (10), 1 j 19 Module 37 makes it possible to establish the pyramid of images "chamfer" calculated from the image provided by the previous module 36.
For reasons of speed of execution, the constitution of the pyramid is to use the image of "chamfer" distances constituted from the image of contour of the large field image D ~ determined by the module 36 at the maximum level of resolution and to constitute the following images D of the pyramid according to the relation (8) next DG
(i, j) = Max (DG
1 (2i, 2d)> DG, (2i, 21 + 1), D ~ 1 (2i + 1.2d), D ~, (2i + 1.2d + 1)) diti ~ 2, relation in which r E [0, R], with R = K + q, and div represents the entire division function.
The correlation module 33 is actually subdivided in two modules, as indicated.
The so-called "big" module, 33G, is represented in form block diagram in Figure 7, and includes three sub-cascading modules: 330 to 332.
The 33G module performs a valued correlation, at same level of resolution, between the images of the pyramid outline of the small field image and the images of the pyramid of distance images with outlines obtained at from the large field image.
The input sub-module 330 allows the constitution of the correlation web Nk (u, v), according to the following relation:
NK (DR (i, J) - C; (i; - 11, j + 1 ')) (9), relation in which, u and v are coordinates orthogonal in the correlation web, with Ukf <U <Tlkup and i ~ inf <v ~ VfsUP ~ inequalities in which VKnf and UKnf are typically equal to -2, and VK "p and UK" p are typically equal to +2.
Module 331 is intended for the selection of minima local. This selection is made in two stages.
First, couples (u, v) are selected such that N (u, v) has a local minimum and N (tr ~ P i ~) _ <S. S is a K
threshold that depends on the spectral density of the image input. The threshold S is determined by a procedure conventional calibration of the image processing device.
10 The set of local minima at level K of the pyramid is noted EEK
Finally, in module 332, one carries out, by a iterative process, the rise of pyramids levels and a filtering of the values.
15 For any level n of the pyramid of CA images, one constitutes a set ---: r, as shown below.
For any pair (u, v) of n + 1, a table is calculated correlation Nn reduced to 4 points, at level n, such that Nn (W'V) - ~~ (Dny (', .I) - Cn (lTW, .l + -'') 1 (10), 1 day
20 relation dans laquelle (u', vI) E[2u,2u+1]x(2 v,2 v+1J.
On conserve un point P pour chaque nappe N. Ce point P est celui pour lequel la valeur de la nappe est minimale si celui-ci vérifie la relation Nn(P) <_ S
nP (11), n avec S le seuil précédemment défini.
2t Ainsi on constitue une suite d'ensembles ~j pour j e [O,K-1].
Le point sélectionné par le module "gros" 33G est le point II tel que :
IIE--~o et 'dpE~,,,p#II=>Np(p)>No(n) (12).
Le processus de corrélation peut s'arrêter à cette étape. En effet, le point II constitue le meilleur point sélectionné. On peut afficher dans le dispositif de visualisation 4 un réticule 41 correspondant à l'impact de l'axe de visée A20 de l'arme 2 sur la cible visée, et se superposant à la scène observée 40 par le tireur au travers de l'écran du dispositif 4.
Il est cependant possible d'améliorer encore la précision de la visée. Aussi, selon un autre aspect de la présente invention, applicable à d'autres contextes ou une corrélation est nécessaire, on propose de procéder à une opération de corrélation dite " fine ", utilisant une estimation d'un écart subpixellique entre une fenêtre sélectionnée dans l'image du premier capteur et une fenêtre correspondante sélectionnée dans l'image du deuxième capteur.
on va considérer, comme illustré par le diagramme de la figure 8, une fenêtre F'P de quelques pixels, centrée dans l'image I'G, et une fenêtre FG de centre IT, également de quelques pixels, dans l'image IG. Les pixels sont délimités par des lignes, verticales et horizontales, en traits pointillés, les pixels étant supposés carrés. De façon plus précise, le point TI est le centre du pixel central de la fenêtre FG, et un point O'p, le centre du pixel central de la fenêtre F'P. Le vecteur E représente le décalage entre les deux "grilles" de pixels, sur l'axe II-O'P, c'est-à-dire en amplitude et en direction.
La taille de la fenêtre F'1' est choisie de telle manière à garantir la présence d'une information minimale dans cette fenêtre FP. En d'autres termes, il ne doit pas s'agir d'une zone uniforme. Une indication de l'information peut être obtenue par la vérification de la valeur de la somme des normes des gradients sur cette fenêtre.
La fenêtre FG garantit une marge de 1 pixel autour de la fenêtre FP.
A priori, il n'existe aucune raison pour que les pixels des deux fenêtres coïncident. On*suppose, en effet, que l'image petit champ iP a une résolution intrinsèque supérieure à l'image grand champ IG.
On va donc chercher à estimer l'écart sub-pixellique (E1 E=I sJde positionnement entre le centre de la fenêtre FG et l E,.
le centre de la fenêtre FP.
Compte tenu de la compatibilité des bandes spectrales des deux capteurs à imagerie, C1 et C2, on utilise une équivalence entre l'image de la fenêtre FG et l'image de la fenêtre FP.
De façon générale, si on considère une image numérique quelconque I, de quelques pixels dans les deux dimensions, et un point M égalemen~ compris à l'intérieur de l'image I, on peut définir un vecteur unicolonne IV(M) contenant les valeurs de l'image I sur le voisinage V du point M. Si le point M correspond à un pixel entier, les valeurs sont directement les valeurs des pixels de I, tandis que dans le cas où le point M a des coordonnées sub-pixelliques, les valeurs du vecteur IV(M) sont obtenues par un mécanisme classique d'interpolation. Le choix précis du mécanisme d'interpolation doit être effectué au cas par cas, selon des contraintes propres à l'application spécifique envisagée : vitesse d'exécution, précision du résultat, etc.
Dans le cas du procédé de l'invention, on définit le voisinage V de travail de mêmes tailles selon X et Y que la fenêtre F'P. Le nombre total de points du voisinage V est égal à LV.
On obtient l'identité suivante : FG(II) -=F'P (-E) . Le décalage IWIJ est inférieur à un pixel.
P
On définit H= v V , matrice de Lv lignes et 5~ o' de 2 colonnes. On obtient alors la relation suivante F' (-E) = F'P (OP ) + H -(-E) (13 ) , et E = -(HT H) = HT = (Fc' (OG ) - F'~ (OP )) (14).
Le point OG est équivalent au point II, mais constitue une origine d'un repère pour F =
Pour tirer parti de la résolution intrinsèque supérieure de iP, On réalise une opération de grossissement de la fenêtre FG d 'un facteur Q. Cette opération est réalisée par un processus d'interpolation classique, par exemple bilinéaire ou bicubique. La fenêtre résultante est appelée GG.
Fp est une fenêtre centrée de IP, de taille en X
(respectivement en Y) égale à la taille de F'P multipliée par Q.
A partir de l'écart E calculé précédemment, on trouve, par translation, un point II1. II1 correspond au centre d'un pixel de la fenêtre GG dont les coordonnées entières sont la meilleure approximation possible de l'écart E. Les coordonnées de ce point E1 sont les suivantes :
XIT1= arrondi (Q.Ex) (15), et YII1= arrond i( Q. Ey ) (16).
On va chercher à estimer l'écart sub-pixellique E, de positionnement entre rIl et le centre de la fenêtre FP, en utilisant la même approche que précédemment.
Pour ce faire, on définit un voisinage W de travail de mêmes tailles selon X et Y que la fenêtre Fp.
Le nombre total de points du voisinage W est égal à I,W = On obtient alors l'identité : G (rl~ II,p, E, ) Comme précédemment on définit H=I une Or matrice de LW lignes et de 2 colonnes.
On obtient alors la relation suivante Fw (-El ) = FW (OP ) + H 1 = (-E1 (17), et E, = -(HT H) . HT = (F,ç (OG ) - F,p (OP)) (18).
E1 est un écart réduit par rapport à E. On peut afficher, sur l'écran de l'organe de visualisation 4, un réticule 41 positionné au point (II-E-E1) par rapport à un point qui correspond au centre du champ du capteur grand champ C2.
Le point !I est obtenu avec une précision typique de l'ordre de 2 à 3 pixels sur l'image grand champ. L'écart E
correspond à 1 pixel de la résolution de l'image petit champ. On peut donc obtenir une précision dans le positionnement du réticule 41 typiquement dans la gamme de 2 à 3 mrad, ce qui correspond à l'objectif que se fixe le procédé selon l'invention.
A la lecture de ce qui précède, on constate aisément que l'invention atteint bien les buts qu'elle s'est fixés.
Le procédé d'aide au tir permet tout à la fois d'obtenir une grande précision de visée et une grande rapidité, puisqu'il n'exige pas un épaulement de l'arme. En 25' outre, selon une autre caractéristique avantageuse, le processus, puisqu'il ne s'accompagne pas d'émission d'énergie radiante, reste tout à fait discret. En d'autres termes, même si la cible dispose d'un capteur sensible aux longueurs d'ondes utilisées, elle ne pourra détecter le tireur, du moins du fait de la mise en oeuvre du procédé
propre à l'invention.
Il doit être clair cependant que l'invention n'est pas limitée aux seuls exemples de réalisations explicitement décrits, notamment en relation avec les figures lA à 8.
En particulier, les valeurs numériques n'ont été
précisées que pour fixer les idées. Elles dépendent essentiellement de l'application précise visée.
De même, les composants utilisables . capteurs d'imagerie, circuits électroniques pour le traitement des signaux numériques, etc., participent d'un simple choix technologique à la portée de l'Homme du Métier. Notamment, comme il a été indiqué, plusieurs types et technologies de capteurs d'imagerie peuvent être utilisés, en particulier en fonction du choix des longueurs d'ondes mises en oeuvre (visible ou infrarouge).
TABLE DES NOTATIONS
C; Image au niveau k de la pyramide des contours de l'image petit champ IG Image Grand Champ IP Image Petit Champ (résolution initiale et axes parallèles aux axes de IG) I'P Image Petit Champ (résolution de IG et axes parallèles aux axes de IG) CIG Champ instantané de l'image IG
CIp Champ instantané de l'image IP
CIGBrute Image brute du capteur grand champ CIPBrute Image brute du capteur petit champ GX, Gy Images des gradients en X et en Y
R Niveau maximum de la pyramide de contour de l'image petit champ NG Image de la norme des gradients OG Image de l'orientation des gradients Di Image au niveau k de la pyramide des images de distances aux contours de l'image grand champ NV Nappe de corrélation valuée au niveau v de la pyramide de contour de l'image petit champ çlA Nombre de points non nuls de l'image CA
Ensemble des minimas au niveau v de la pyramide de contour de l'image petit champ In which relation (u ', vI) E [2u, 2u + 1] x (2 v, 2 v + 1J.
A point P is kept for each N-sheet.
point P is the one for which the value of the tablecloth is minimal if it verifies the relationship Nn (P) <_ S
nP (11), not with S the previously defined threshold.
2t Thus we constitute a series of sets ~ j for I [O, K-1].
The point selected by the "big" module 33G is the point II such as:
IIE-- ~ o and 'dpE ~ ,,, p # II => Np (p)> No (n) (12).
The correlation process can stop at this step. Indeed, point II is the best point selected. It can be displayed in the device visualization 4 a reticle 41 corresponding to the impact of aiming axis A20 of the weapon 2 on the targeted target, and superimposing on the scene observed 40 by the shooter through of the device screen 4.
However, it is possible to further improve the precision of aiming. Also, according to another aspect of present invention, applicable to other contexts or a correlation is necessary, it is proposed to proceed to a so-called "fine" correlation operation, using a estimate of a subpixel gap between a window selected in the image of the first sensor and a window corresponding selected in the image of the second sensor.
we will consider, as illustrated by the diagram of FIG. 8, a window F'P of a few pixels, centered in the I'G image, and an IT center FG window, also a few pixels, in the IG image. The pixels are delimited by lines, vertical and horizontal, in dashed lines, the pixels being assumed to be square. Of more precisely, the point TI is the center of the pixel center of the FG window, and a point O'p, the center of the central pixel of the F'P window. The vector E represents the offset between the two "grids" of pixels, on the axis II-O'P, that is to say in amplitude and direction.
The size of the window F'1 'is chosen from such to ensure the presence of minimal information in this window FP. In other words, it does not have to be a uniform area. An indication of the information can be obtained by checking the value of the sum of gradient norms on this window.
The FG window guarantees a margin of 1 pixel around from the FP window.
A priori, there is no reason for the pixels of the two windows coincide. We suppose, indeed, that the small iP field image has an intrinsic resolution superior to the large-field IG image.
We will therefore try to estimate the sub-pixel gap (E1 E = I sJde positioning between the center of the window FG and the,.
the center of the FP window.
Given the compatibility of the bands of the two imaging sensors, C1 and C2, uses an equivalence between the image of the FG window and the image of the FP window.
In general, if we consider an image any numerical I, a few pixels in both dimensions, and a point M also ~ included within image I, we can define a unicolon vector IV (M) containing the values of image I on neighborhood V of the If the point M corresponds to an entire pixel, the values are directly the pixel values of I, while only where the point M has sub-coordinates pixels, the IV (M) vector values are obtained by a classic mechanism of interpolation. The precise choice of interpolation mechanism should be done on a case-by-case basis, according to constraints specific to the specific application envisaged: speed of execution, precision of the result, etc.
In the case of the process of the invention, the neighborhood V work of the same sizes according to X and Y that the F'P window. The total number of neighborhood points V is equal to LV.
The following identity is obtained: FG (II) - = F'P (-E). The IWIJ offset is less than one pixel.
P
We define H = v V, matrix of Lv lines and 5 ~ o ' of 2 columns. We then obtain the following relation F '(-E) = F'P (OP) + H - (- E) (13), and E = - (HT H) = HT = (Fc '(OG) - F' ~ (OP)) (14).
The point OG is equivalent to point II, but is an origin of a landmark for F =
To take advantage of the intrinsic resolution superior of iP, a magnification operation is carried out of the FG window with a Q factor. This operation is realized by a classical interpolation process, by bilinear or bicubic example. The resulting window is called GG.
Fp is a centered window of IP, of size in X
(respectively in Y) equal to the size of F'P multiplied by Q.
From the difference E calculated previously, find, by translation, a point II1. II1 corresponds to center of a pixel of the GG window whose coordinates integers are the best possible approximation of E. The coordinates of this point E1 are the following:
XIT1 = rounded (Q.Ex) (15), and YII1 = round i (Q. Ey) (16).
We will try to estimate the sub-pixellic distance E, position between rIl and the center of the FP window, in using the same approach as before.
To do this, we define a working neighborhood W
of the same sizes according to X and Y as the window Fp.
The total number of points of neighborhood W is equal at I, W = We obtain then the identity: G (rl ~ II, p, E,) As previously we define H = I a Gold matrix of LW rows and 2 columns.
We then obtain the following relation Fw (-El) = FW (OP) + H 1 = (-E1 (17), and E, = - (HT H). HT = (F, ç (OG) - F, p (OP)) (18).
E1 is a small deviation from E. It can be display, on the screen of the viewing device 4, a reticle 41 positioned at the point (II-E-E1) with respect to a point that corresponds to the center of the large sensor field C2 field.
The point! I is obtained with a typical precision of the order of 2 to 3 pixels on the large field image. The map corresponds to 1 pixel of the small image resolution field. We can thus obtain a precision in the reticle 41 positioning typically in the range of 2 at 3 mrad, which corresponds to the goal set by the process according to the invention.
Upon reading the above, it is easy to see that the invention achieves the goals it has set for itself.
The shooting aid method allows all at once to achieve great aiming accuracy and a great speed, since it does not require a shoulder of the weapon. In 25 ' Moreover, according to another advantageous characteristic, the process, since it is not accompanied by of radiant energy, remains quite discreet. In others terms, even if the target has a sensor sensitive to wavelengths used, it will not be able to detect the shooter, at least because of the implementation of the method specific to the invention.
It must be clear, however, that the invention is not not limited to only examples of achievements explicitly described in particular in relation to FIGS. 1A to 8.
In particular, numerical values have not been specified only to fix ideas. They depend essentially of the specific application aimed at.
Similarly, the components usable. sensors imaging, electronic circuits for the treatment of digital signals, etc., are part of a simple choice technology within the reach of the skilled person. Especially, as has been indicated, several types and technologies of imaging sensors can be used, particularly in depending on the choice of wavelengths implemented (visible or infrared).
TABLE OF RATINGS
VS; Image at k level of the contour pyramid the small field image IG Image Grand Champ IP Image Small Field (initial resolution and axes parallel to the axes of IG) I'P Small Field Image (IG resolution and axes parallel to the axes of IG) CIG Instant field of the IG image CIp Instant field of the IP image CIGBrute Raw image of the large field sensor CIPBrute raw image of the small field sensor GX, Gy Images of gradients in X and Y
R Maximum level of the image outline pyramid small field NG Image of Gradient Standard OG Image of gradient orientation Di Image at k level of pyramid images of distances to the contours of the large-field image NV Correlation map valued at level v of the outline pyramid of small field image çlA Number of non-zero points in the CA image Set of minima at v level of the pyramid of outline of the small field image
Claims (17)
- ~l'acquisition d'une première image à l'aide d'un premier capteur d'image (C1), associé à un premier champ et fixé à ladite arme, et dont l'axe optique est lié
mécaniquement à l'axe du canon de l'arme ; ladite première image représentant une scène avant, vue dudit canon ;
- ~l'acquisition d'une seconde image à l'aide d'un second capteur d'image (C2), associé à un second champ et porté par la tête dudit tireur, de manière à englober tout ou partie d'une scène avant observée par celui-ci et susceptible de contenir une cible ;
- ~l'acquisition par des capteurs d'orientation (5,6) portés respectivement par l'arme et par la tête du tireur, d'une estimation des écarts angulaires entre le champ observé par le tireur et le champ vu par le capteur porté
par l'arme ;
- ~la corrélation des images des deux capteurs pour déterminer la position du champ vu par le premier capteur d'image dans le champ vu par le deuxième capteur, et pour déterminer en particulier la position dans l'image du deuxième capteur d'un point de la première image représentant la ligne de visée de l'arme, la corrélation utilisant l'écart angulaire estimé précédemment ;
- ~l'affichage sur un visuel de casque, à une position correspondante, d'un symbole représentant cette ligne de visée. 1. ~ Method of assisting aiming for light weapons carried by a shooter, characterized in that it comprises the following steps :
- ~ acquisition of a first image with the help of a first image sensor (C1), associated with a first field and attached to said weapon, and whose optical axis is linked mechanically to the axis of the barrel of the weapon; said first image representing a scene before, view of said gun;
- ~ acquisition of a second image using a second image sensor (C2), associated with a second field and carried by the shooter's head, so as to encompass all or part of of a scene before observed by it and likely to contain a target;
- ~ acquisition by orientation sensors (5,6) carried respectively by the weapon and the shooter's head, an estimate of the angular differences between the field observed by the shooter and the field seen by the sensor worn by the weapon;
- the correlation of the images of the two sensors for determine the position of the field seen by the first sensor image in the field seen by the second sensor, and for determine in particular the position in the image of the second sensor of a point of the first image representing the line of sight of the weapon, the correlation using the angular difference previously estimated;
- ~ display on a helmet visual, at a position corresponding, a symbol representing this line of referred.
l'infini. 2. Process according to claim 1, characterized in what the symbol is displayed in collimated form to infinity.
des premier (TR C1) et second (TR C2) référentiels orthonormés, représentant respectivement les images issues desdits premier (C1) et second (C2) capteurs en imagerie, en ce qu'il est procédé à une étape consistant en la construction, à partir de l'image numérique issue dudit premier capteur à imagerie (C1), et par application de ladite matrice de rotation, d'au moins une première image numérique dérivée (I P), de même référentiel orthonormé que l'image numérique (I G) issue dudit second capteur (C2), dont le champ instantané est proportionnel, par un facteur Q, au champ instantané de ladite image numérique issue du second capteur à imagerie (I P), Q étant un entier, et en ce qu'il est procédé à des étapes subséquentes de traitement d'image comprenant la corrélation (33) de ladite image numérique dérivée et de ladite image numérique issue dudit second capteur en imagerie, pour déterminer la position dudit premier champ dudit premier capteur d'image (C1) dans ladite seconde image acquise par ledit second capteur (C2) d'image et la position de ladite ligne de visée dans cette seconde image. 7. ~ Process according to any one of Claims 4 to 6, characterized in that said first field of said first image sensor (C1) is smaller than second field of said second image sensor (C2), in what, said first and second images being analogue, the said acquisition includes the conversion Analog / digital (30, 34) output signals said first (C1) and second (C2) image sensors, way to build two digital images associated with first (TR C1) and second (TR C2) repositories orthonormed, respectively representing the images from said first (C1) and second (C2) imaging sensors, in that a step consisting of construction, from the digital image resulting from said first imaging sensor (C1), and by application of said rotation matrix, of at least a first image Derived Digital System (IP), with the same ortho-referenced the digital image (GI) issuing from said second sensor (C2), whose instantaneous field is proportional, by a Q factor, at the instantaneous field of said digital image from the second imaging sensor (IP), Q being a whole, and in that steps are taken subsequent image processing methods including correlation (33) of said derived digital image and said digital image from said second sensor in imaging, to determine the position of said first field said first image sensor (C1) in said second image acquired by said second image sensor (C2) and the position of said line of sight in this second picture.
- une étape (31, 35) d'extraction de contours (CAr, CBt) desdites zones non uniformes (Ar, Bt), de manière à
générer une liste de points de coordonnées de ladite image numérique correspondant auxdits contours et à les associer à une valeur numérique déterminée ;
- pour l'image numérique issue dudit premier capteur (C1), une étape (32) consistant à établir, à partir de l'image desdits contours (CAr, CBt), une suite d'images formant une pyramide des contours, sur un nombre de niveaux déterminé ;
- pour l'image numérique issue dudit second capteur d'image (C2), une étape (36, 37) consistant à établir, à
partir de l'image desdits contours (CAr, CBt) et pour chaque point de l'image, une image des distances au contour le plus proche et, à partir de cette image des distances au contour le plus proche, une suite d'images formant une pyramide des distances de contours, sur un nombre de niveaux déterminé ; et - une étape de corrélation valuée (33) entre ladite suite d'images formant une pyramide des contours et ladite suite d'images formant une pyramide des distances de contours, de manière à sélectionner un point de ladite image numérique issue dudit second capteur d'image (C2) constituant la position le plus proche du centre du champ de cette image, et à afficher, sur ledit organe de visualisation (4), ledit premier symbole (41) déterminé, à cette position de ladite seconde image, en superposition de ladite scène avant observée (40). 8. Process according to claim 7, characterized in what, said digital images from said first (C1) and second (C2) imaging sensors comprising non-uniform areas (Ar, Bt), the treatment steps at least the following steps:
a step (31, 35) for extracting contours (CAr, CBt) said non-uniform areas (Ar, Bt), so as to generate a list of coordinate points from said digital image corresponding to said contours and to associate with a given numerical value;
for the digital image originating from said first sensor (C1), a step (32) of establishing, from the image said contours (CAr, CBt), a series of images forming a pyramid of contours, on a number of levels determined;
for the digital image issuing from said second sensor image (C2), a step (36, 37) of establishing, from the image of said contours (CAr, CBt) and for each point of the image, an image of the distances to the closest contour and, from this image of distances to the nearest contour, a sequence of images forming a pyramid of contours distances, on a number of levels determined; and a valued correlation step (33) between said sequence of images forming a pyramid of contours and said suite of images forming a pyramid of distances from contours, so as to select a point from the digital image from said second image sensor (C2) constituting the position closest to the center of the field of this image, and to display, on said organ of visualization (4), said first symbol (41) determined, at this position of said second image, superposition of said observed forward scene (40).
- la détermination (310) des images de gradients suivant deux axes de coordonnées orthonormées liés auxdites images numériques ;
- la détermination (311) de la norme desdits gradients en chaque point desdites images ;
- la détermination (312) de l'orientation desdits gradients en chaque point desdites images ; et - l'établissement (313, 314), à partir desdites normes et desdites orientations de gradients, d'une liste de points de contours. 9. Process according to claim 8, characterized in what said edge extraction step (CAr, CBt) said non-uniform areas (Ar, Bt) of said images numbers from said first (C1) and second (C2) Image sensors includes the following substeps:
the determination (310) of the following gradient images two axes of orthonormal coordinates related to said digital images;
the determination (311) of the norm of said gradients in each point of said images;
determining (312) the orientation of said gradients at each point of said images; and - establishment (313, 314), from those standards and said gradient orientations, from a list of outline points.
- la constitution (330), à partir de ladite suite d'images formant une pyramide des contours et de ladite suite d'images formant une pyramide des distances de contours, d'une nappe de corrélation ;
- la sélection (331, 332) dans ladite nappe de valeurs représentant des minimas locaux inférieurs à un seuil déterminé, pour un desdits niveaux de pyramide, et la constitution, à chaque niveau desdites pyramides, d'un ensemble de minimas locaux ; et - sélection d'un point (.pi.) correspondant au plus petit des minimas pour estimer la position du centre d'une zone de positionnement de ladite image numérique issue dudit premier capteur d'image (C1) dans ladite image numérique issue dudit second capteur d'image (C2), cette position représentant ladite ligne de visée. 10. Process according to claim 8, characterized in that what said valued correlation step (33G) comprises the following substeps:
the constitution (330), from said sequence of images forming a pyramid of the outlines and said sequence of images forming a pyramid of contours distances, a correlation web;
the selection (331, 332) in said set of values representing local minima below a threshold determined, for one of said pyramid levels, and the constitution, at each level of said pyramids, of a set of local minima; and - selection of a point (.pi.) corresponding to the smallest of minima to estimate the position of the center of a zone of positioning said digital image resulting from said first image sensor (C1) in said digital image said second image sensor (C2), this position representing said line of sight.
- un premier capteur d'image (C1) permettant d'acquérir ladite première image, ledit premier capteur d'image (C1) étant associé à un premier champ et étant fixé à
ladite arme (2), l'axe optique (.DELTA. C1) de ce capteur (C1) étant lié mécaniquement à l'axe (.DELTA.20) du canon (20) de l'arme (2) et représentant la ligne de visée de cette arme (2) ;
- un second capteur d'image (C2) permettant d'acquérir ladite seconde image, ledit second capteur d'image (C2) étant associé à un second champ et fixé sur la tête (Te) dudit tireur, de manière à englober tout ou partie d'une scène avant (40) observée par celui-ci, ladite scène (40) étant susceptible de contenir une cible pour ledit tir ;
- des capteurs d'orientation (5,6) permettant de déterminer l'écart angulaire entre la direction de l'arme et la direction de la tête du tireur ;
- un dispositif de traitement de signaux et d'images (3) reçus desdits premier (C1) et second (C2) capteurs d'imagerie et des capteurs d'orientation (5,6) pour effectuer une corrélation entre les images reçues des deux capteurs d'image, en utilisant l'écart angulaire déterminé, afin de déterminer la position du champ du premier capteur d'image dans le champ du deuxième capteur d'image, - et un organe de visualisation (4) pour l'affichage d'un symbole déterminé (41), matérialisant ladite position de la ligne de visée dans ladite seconde image, ou un second symbole déterminé (42), indiquant audit tireur une direction suivant laquelle il doit déplacer le canon de ladite arme (2), lesdits symboles déterminés (41, 42) étant affichés en superposition à ladite scène avant (40) observée par ledit tireur. 12. ~ Targeting system for a weapon light range by a shooter, characterized in that includes:
a first image sensor (C1) making it possible to acquire said first image, said first image sensor (C1) being associated with a first field and being attached to said weapon (2), the optical axis (.DELTA.C1) of this sensor (C1) being mechanically linked to the axis (.DELTA.20) of the barrel (20) of the weapon (2) and representing the line of sight of that weapon (2);
a second image sensor (C2) making it possible to acquire said second image, said second image sensor (C2) being associated with a second field and fixed on the head (Te) said drawer, so as to encompass all or part of a scene before (40) observed by it, said scene (40) being capable of containing a target for said shoot ;
- orientation sensors (5,6) allowing determine the angular difference between the direction of the weapon and direction of the shooter's head;
- a device for processing signals and images (3) received from said first (C1) and second (C2) sensors imaging and orientation sensors (5,6) for correlate images received from two image sensors, using the angular gap determined, in order to determine the position of the first image sensor in the field of the second image sensor, - and a display member (4) for displaying a determined symbol (41), embodying said position of the line of sight in said second image, or a second determined symbol (42), indicating to said shooter a direction in which he must move the barrel of said weapon (2), said determined symbols (41, 42) being superimposed on said scene before (40) observed by said shooter.
en ce que ledit organe de visualisation (4) est un visuel de casque comprenant un écran sur lequel sont affichés lesdits symboles déterminés (41, 42) et au travers duquel ledit tireur observe ladite scène avant (40). 13. System according to claim 12, characterized in that said viewing member (4) is a visual helmet including a screen on which are displayed said determined symbols (41, 42) and through which said shooter observes said front scene (40).
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR98/16022 | 1998-12-18 | ||
FR9816022A FR2787566B1 (en) | 1998-12-18 | 1998-12-18 | SIGHT ASSISTING AID METHOD AND SYSTEM |
PCT/FR1999/003185 WO2000037875A1 (en) | 1998-12-18 | 1999-12-17 | Aiming aid method and system for a light weapon |
Publications (2)
Publication Number | Publication Date |
---|---|
CA2354569A1 CA2354569A1 (en) | 2000-06-29 |
CA2354569C true CA2354569C (en) | 2007-09-25 |
Family
ID=9534147
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CA002354569A Expired - Fee Related CA2354569C (en) | 1998-12-18 | 1999-12-17 | Aiming aid method and system for a light weapon |
Country Status (4)
Country | Link |
---|---|
EP (1) | EP1141648A1 (en) |
CA (1) | CA2354569C (en) |
FR (1) | FR2787566B1 (en) |
WO (1) | WO2000037875A1 (en) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4093736B2 (en) | 2001-06-28 | 2008-06-04 | 株式会社日立メディコ | Nuclear magnetic resonance diagnostic apparatus and diagnostic system |
FR2862748B1 (en) * | 2003-11-25 | 2006-01-21 | Thales Sa | METHOD FOR DRIVING SHOOTING FOR AIRCRAFT |
IL173007A0 (en) * | 2006-01-08 | 2007-03-08 | Giora Kutz | Target/site location acquisition device |
US9229230B2 (en) | 2007-02-28 | 2016-01-05 | Science Applications International Corporation | System and method for video image registration and/or providing supplemental data in a heads up display |
US20110261204A1 (en) * | 2010-04-27 | 2011-10-27 | Itt Manufacturing Enterprises, Inc | Remote activation of imagery in night vision goggles |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2175074B (en) * | 1985-05-16 | 1988-06-22 | British Aerospace | Aiming systems |
US4786966A (en) * | 1986-07-10 | 1988-11-22 | Varo, Inc. | Head mounted video display and remote camera system |
FR2699996B1 (en) * | 1992-12-30 | 1995-02-24 | Thomson Csf | Optronic device to aid the firing by individual weapon and application to the progression in hostile environment. |
FR2718519B1 (en) * | 1994-04-12 | 1996-04-26 | Thomson Csf | Aiming device for weapon, and equipped weapon. |
US5806229A (en) * | 1997-06-24 | 1998-09-15 | Raytheon Ti Systems, Inc. | Aiming aid for use with electronic weapon sights |
-
1998
- 1998-12-18 FR FR9816022A patent/FR2787566B1/en not_active Expired - Fee Related
-
1999
- 1999-12-17 CA CA002354569A patent/CA2354569C/en not_active Expired - Fee Related
- 1999-12-17 EP EP99961103A patent/EP1141648A1/en not_active Withdrawn
- 1999-12-17 WO PCT/FR1999/003185 patent/WO2000037875A1/en not_active Application Discontinuation
Also Published As
Publication number | Publication date |
---|---|
FR2787566B1 (en) | 2001-03-16 |
FR2787566A1 (en) | 2000-06-23 |
WO2000037875A1 (en) | 2000-06-29 |
CA2354569A1 (en) | 2000-06-29 |
EP1141648A1 (en) | 2001-10-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CA2592293C (en) | Method for processing images using automatic georeferencing of images derived from a pair of images captured in the same focal plane | |
EP1843295B1 (en) | Method of recreating the movements of the line of sight of an optical instrument | |
FR2666649A1 (en) | DEVICE FOR TRACKING A VEHICLE WITH A DISTANCE MEASURING FUNCTION. | |
EP3359978B1 (en) | Method for processing an sar image and associated target-detecting method | |
FR3033973A1 (en) | METHOD FOR 3D RECONSTRUCTION OF A SCENE | |
FR2801123A1 (en) | METHOD FOR THE AUTOMATIC CREATION OF A DIGITAL MODEL FROM COUPLES OF STEREOSCOPIC IMAGES | |
CA2354569C (en) | Aiming aid method and system for a light weapon | |
EP3301644B1 (en) | Method for building a depth map of a scene and/or an all-in-focus image | |
WO2014060657A1 (en) | Method for designing a passive single-channel imager capable of estimating depth of field | |
FR2693011A1 (en) | Method and device for monitoring a three-dimensional scene, using imagery sensors. | |
WO2001081858A1 (en) | Method for measuring a three-dimensional object, or assembly of objects | |
FR2966257A1 (en) | METHOD AND APPARATUS FOR CONSTRUCTING A RELIEVE IMAGE FROM TWO-DIMENSIONAL IMAGES | |
Imperatore et al. | Contribution of super resolution to 3D reconstruction from pairs of satellite images | |
EP0604245B1 (en) | Method for detecting the appearance of dot objects in an image | |
FR2609817A1 (en) | METHOD AND DEVICE FOR SHOOTING WITH A LARGE DEPTH OF FIELD | |
Verhoeven | Resolving some spatial resolution issues: part 2: when diffraction takes over | |
Zhao et al. | 3D reconstruction and dehazing with polarization vision | |
BE1015708A3 (en) | Method for measuring the height of spheres or hemispheres. | |
EP2877979B1 (en) | Monocamera method of determining a direction of a solid | |
EP0457414B1 (en) | Object detection device in an image sequence | |
WO2018229358A1 (en) | Method and device for constructing a three-dimensional image | |
An et al. | Depth-based defocus elimination for macroscopic Fourier ptychography imaging | |
EP1426901B1 (en) | Method of detecting point targets and surveillance system applying the method | |
WO2023052448A1 (en) | Method for detecting obstacles | |
FR3143118A1 (en) | Optical quality measurement method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
EEER | Examination request | ||
MKLA | Lapsed |
Effective date: 20121217 |