FR2787566A1 - Procede et systeme d'aide a la visee pour arme legere - Google Patents

Procede et systeme d'aide a la visee pour arme legere Download PDF

Info

Publication number
FR2787566A1
FR2787566A1 FR9816022A FR9816022A FR2787566A1 FR 2787566 A1 FR2787566 A1 FR 2787566A1 FR 9816022 A FR9816022 A FR 9816022A FR 9816022 A FR9816022 A FR 9816022A FR 2787566 A1 FR2787566 A1 FR 2787566A1
Authority
FR
France
Prior art keywords
image
sensor
imaging sensor
images
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR9816022A
Other languages
English (en)
Other versions
FR2787566B1 (fr
Inventor
Philippe Valery
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thales Avionics SAS
Original Assignee
Thales Avionics SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thales Avionics SAS filed Critical Thales Avionics SAS
Priority to FR9816022A priority Critical patent/FR2787566B1/fr
Priority to PCT/FR1999/003185 priority patent/WO2000037875A1/fr
Priority to EP99961103A priority patent/EP1141648A1/fr
Priority to CA002354569A priority patent/CA2354569C/fr
Publication of FR2787566A1 publication Critical patent/FR2787566A1/fr
Application granted granted Critical
Publication of FR2787566B1 publication Critical patent/FR2787566B1/fr
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G3/00Aiming or laying means
    • F41G3/14Indirect aiming means
    • F41G3/16Sighting devices adapted for indirect laying of fire
    • F41G3/165Sighting devices adapted for indirect laying of fire using a TV-monitor

Abstract

L'invention concerne un procédé et un système (1) d'aide à la visée pour une arme légère (2) tenue à la main par un tireur. Le système (1) comprend un premier capteur à imagerie (C1 ), dit petit champ, fixé sur le canon (2) de l'arme (20) et dont l'axe optique (DELTAC1 ) est harmonisé par construction avec l'axe de visée (DELTA20 ) et un second capteur à imagerie (C1 ), dit grand champ, solidaire de la tête (Te) du tireur. Chacun des capteurs (C1 , C2 ) est associé à des dispositifs (5, 6) de mesure de l'assiette et du cap, de manière à effectuer une première estimation grossière de l'écart entre les axes optiques (DELTAC1 , DELTAC2 ) par le calcul d'une matrice de rotation et l'écart estimée entre capteurs (C1 , C2 ). Connaissant cette matrice et les champs, un dispositif de traitement d'images (3) effectue la corrélation entre les images, de manière à afficher un réticule dans un organe de visualisation du type visuel de casque (4) pour matérialiser l'axe de visée.

Description

PROCEDE ET SYSTEME D'AIDE A LA VISEE POUR ARME LEGERE
La présente invention concerne un procédé d'aide à la visée pour arme légère, de façon plus précise un procédé d'aide à la visée pour un tireur portant une telle arme à la main. L'invention concerne également un système d'aide à
la visée pour la mise en oeuvre d'un tel procédé.
Il est bien connu, pour obtenir un tir très précis avec une arme légère, c'est-à-dire dans le contexte de l'invention une arme portable, de la munir d'une lunette de visée. Cette lunette peut également être couplée à un
intensificateur de lumière, ce qui autorise le tir de nuit.
Cependant, cette disposition nécessite un épaulement de l'arme, voire qu'il soit nécessaire de disposer d'un appui stable. Le tir peut alors être précis, mais la visée
nécessite dans ce cas un temps non négligeable.
Or, dans de nombreuses situations, le tireur doit pouvoir être en mesure de réagir très rapidement et, donc, doit pouvoir utiliser son arme sans l'épauler, ce tout en
assurant un tir précis.
Pour ce faire, on a proposé, par exemple, de munir l'arme d'un pointeur laser, c'est-à-dire d'un générateur de faisceau collimaté se propageant parallèlement à l'axe de tir de l'arme ou ligne de mire. L'impact sur la cible se traduit par une tache de lumière de faible diamètre. La longueur d'onde utilisée peut être aussi dans le domaine du non visible, par exemple dans l'infrarouge. Le tireur n'est donc plus obligé d'épauler son arme. Il suffit qu'il repère la position de la tache, soit directement (domaine du visible), soit à l'aide de lunettes spéciales (infrarouge),
pour obtenir une bonne visée.
Cependant, dans tous les cas, le défaut majeur de ce procédé est le manque de discrétion. En effet, la cible peut détecter le rayonnement, soit directement (à la vue, pour les longueurs d'onde dans le visible), soit à l'aide d'un détecteur approprié à la longueur d'onde utilisée. D'autre part, la précision est limitée par la discrimination visuelle de la tache, la dispersion du faisceau et la limite
de perception visuelle du tireur.
L'invention vise à pallier les défauts des procédés et dispositifs de l'art connu, dont certains viennent d'être rappelés. Elle permet d'obtenir un tir rapide, ne nécessitant pas d'épauler l'arme, et cependant précis, ce qui apparaît antinomique a priori. Elle assure également un processus de visée non détectable par l'adversaire. En
d'autres termes, le système reste entièrement passif, c'est-
à-dire ne génère pas d'énergie rayonnée.
Compte tenu des distances d'utilisation du système selon l'invention (typiquement dans un intervalle de distances supérieures à 25 m et inférieures à 100 m), et de la dimension typique des cibles (1,5 m selon la dimension verticale et 0,5 m selon la dimension horizontale), il est nécessaire d'offrir au tireur une précision meilleure que 2,5 mrad sur la direction du canon de son arme, et ceci par un dispositif de mesure assurant une discrétion
complète, comme il vient d'être rappelé.
Pour ce faire, le procédé selon l'invention comprend la mesure de la position de la cible par corrélation d'images et restitution de celles- ci par affichage sur un organe de visualisation, avantageusement du type casque type visuel de casque, permettant la superposition d'une symbologie adaptée de la cible collimatée à l'infini (réticule matérialisant l'axe de visée) et la vision directe
de la scène observée par le tireur.
__ -Tmgli- i Le système pour la mise en oeuvre du procédé comprend essentiellement un premier capteur à imagerie fixé sur l'arme, un second capteur à imagerie fixé sur la tête du tireur et permettant la mesure de la position du centre du champ du premier capteur, des circuits électroniques de traitement d'images permettant de calculer la position du champ du premier capteur dans l'image du second capteur, et un dispositif de visualisation collimaté à l'infini permettant d'incruster dans le champ de vision du tireur un
réticule ou un symbole similaire matérialisant la visée.
L'ensemble est complété par des capteurs, fixés sur l'arme et sur la tête du tireur, permettant une estimation continue dans le temps de l'écart d'orientation des lignes de visées des premier et second capteurs à imagerie. Les signaux de ces capteurs sont également traités par les circuits
électroniques précités.
L'invention a donc pour objet un procédé d'aide à la visée pour arme légère portée par un tireur, caractérisé en ce qu'il comprend les étapes suivantes: - l'acquisition d'une première image à l'aide d'un premier capteur à imagerie, associé à un premier champ et fixé à ladite arme, dont l'axe optique est lié mécaniquement à l'axe du canon de l'arme et représente la ligne de visée de cette arme; ladite première image représentant une scène avant, vue dudit canon; - l'acquisition d'une seconde image à l'aide d'un second capteur à imagerie, associé à un second champ et porté par la tête dudit tireur, de manière à englober tout ou partie d'une scène avant observée par celui-ci, ladite scène étant susceptible de contenir une cible pour ledit tir; - l'acquisition d'une première série de données relatives à la position dans l'espace dudit premier capteur en imagerie par rapport à un premier trièdre de référence associé à ce premier capteur; - l'acquisition d'une seconde série de données relatives à la position dans l'espace dudit second capteur en imagerie par rapport à un second trièdre de référence associé à ce second capteur; - la détermination, à partir desdites premières et secondes séries de données de position, d'une matrice de rotation représentant les positions relatives dans l'espace desdits premier et second trièdres de référence, et l'estimation a priori d'une borne supérieure d'un vecteur de translation séparant lesdits premier et second capteurs en imagerie, de manière à obtenir une estimation continue dans le temps de l'écart d'orientation entre lesdits premier et second axes optiques; - la détermination du centre dudit premier champ associé audit premier capteur en imagerie, représentant ladite ligne de visée, et la détermination, à l'aide de ladite matrice de rotation et dudit vecteur de translation, de la position dudit premier champ par rapport à ladite seconde image acquise par ledit second capteur en imagerie; de manière à déterminer la position de ladite ligne de visée dans cette seconde image; et l'affichage, sur un organe de visualisation, d'un symbole déterminé matérialisant ladite position de la ligne de visée dans ladite seconde image, en superposition à
ladite scène avant observée par ledit tireur.
L'invention a encore pour objet un système d'aide à
la visée pour la mise en oeuvre de ce procédé.
L'invention sera mieux comprise et d'autres caractéristiques et avantages apparaîtront à la lecture de
la description qui suit en référence aux figures annexées,
parmi lesquelles: - les figures 1A et lB illustrent schématiquement l'architecture d'un système d'aide à la visée selon l'invention; - la figure 2 est un diagramme géométrique permettant d'expliquer le fonctionnement général du système des figures 1A et B;B - la figure 3 illustre un exemple de dispositif modulaire de traitement de signaux et d'images utilisé dans le système d'aide à la visée de l'invention; - La figure 4 illustre l'imbrication d'images fournies par des capteurs en imagerie utilisés dans le système d'aide à la visée de l'invention; - la figure 5 est un exemple de réalisation plus détaillée d'un des modules du dispositif de la figure 3; - les figures 6A et 6B illustrent schématiquement une des étapes du procédé selon l'invention; - La figure 7 est un exemple de réalisation plus détaillée d'un module de corrélation utilisé dans le dispositif de la figure 3; - et la figure 8 est un diagramme illustrant la dernière étape du procédé selon l'invention, consistant en une
corrélation dite fine.
On va maintenant, pour expliciter le procédé de visée selon l'invention, décrire un exemple de réalisation d'architecture de système de visée 1 le mettant en oeuvre, par référence aux figures 1A et lB. La figure 1A illustre schématiquement son architecture globale et la figure lB est une figure de détail montrant un des composants utilisés, en l'occurrence un dispositif de visualisation 4,
avantageusement du type dit visuel de casque.
Le système 1 comprend tout d'abord un capteur à imagerie Cl dans le domaine du visible ou de l'infrarouge, fixé sur l'arme 2. Dans le premier cas (lumière visible), on peut utiliser par exemple un composant du type "IL-CCD" (intensificateur de lumière à dispositif à couplage de charges). Dans le second cas, on peut utiliser un composant du type "MWIR" (Medium Wave Infrared: infrarouge dans les -[.FUI11:ll -I T gammes de longueurs d'onde comprises entre 3 et 5 Mm) ou LWIR (Long Wave Infrared: infrarouge dans les gammes de longueurs d'onde comprises entre 8 et 12 pm). La direction de l'axe optique, AC1, du capteur Ci est harmonisée, par construction, avec l'axe, A20, du canon 20. On prévoit un dispositif de mesure de la position du centre du champ du capteur à imagerie Cl de l'arme 2. Ce dispositif, fixé sur la tête du tireur, est composé d'un second capteur à imagerie C2 et d'un dispositif électronique de traitement de signaux et d'images 3 fournies par le capteur C2, ce dispositif 3 ayant notamment pour fonction de calculer la position du champ du capteur Cl dans l'image du capteur C2. En effet, le champ du capteur Cl est choisi
avantageusement plus petit que le champ du capteur C2.
Le système 1 comprend également un dispositif 4 de restitution collimaté à l'infini permettant d'incruster dans le champ de vision du tireur un réticule 41, ou tout autre symbole adapté, matérialisant la visée. Ce dispositif est avantageusement constitué par un organe de visualisation du
type dit visuel de casque.
On prévoit enfin un dispositif composé de deux dispositifs, 5 et 6, chacun comprenant deux capteurs de positionnement: un capteur de cap et un inclinomètre deux axes (non représentés séparément). Ces dispositifs, 5 et 6, qui génèrent des données de cap et d'assiette, sont fixés, respectivement, sur l'arme 2 et sur la tête Te du tireur afin de donner une estimation continue de l'écart d'orientation des deux axes de visée, A1 et A2, des capteurs
Cl et C2.
Ce double dispositif, 5 et 6, fournit, en coopération avec des circuits spécifiques du dispositif électronique de traitement de signaux et d'images 3, une estimation de la matrice de rotation MR de passage entre le capteur Cl et le capteur C2. Le vecteur translation T n'est pas connu. Sachant que l'arme est tenue par le tireur, on peut estimer la borne supérieure de la norme de T à une
valeur de 1 mètre.
Le dispositif électronique de traitement de signaux et d'images 3 reçoit les signaux générés en sortie du capteur à imagerie Cl et des capteurs 6, fixés sur la tête Te du tireur, via la liaison 60, et reçoit les signaux générés en sortie du capteur à imagerie C2 et des capteurs , portés par l'arme 2, via la liaison 50. Le dispositif 3 transmet en sortie les signaux traités pour affichage sur l'organe de visualisation visuel de casque 4 (dans l'exemple décrit), ainsi que l'alimentation électrique nécessaire au
bon fonctionnement de cet organe.
La figure lB illustre l'organe de visualisation 4 en vue de face, c'est-à-dire du côté observé par le tireur. Il permet d'incruster dans la scène avant 40, réellement observée par le tireur, un réticule 41 matérialisant la cible visée, ou d'autres indications, par exemple une flèche indiquant de quel côté il doit tourner l'arme 2, pendant une période initiale du processus de visée, comme il le sera montré ci-après. L'image fournie par le capteur grand champ C2 englobe tout ou partie de la scène observée par le tireur. La figure 2 est un diagramme géométrique illustrant les relations existant entre un trièdre de référence TRC2 associé aux dispositifs portés par la tête Te du tireur, et notamment au capteur C2, et un trièdre de référence TRC1 associé aux dispositifs portés par l'arme 2, et notamment au
capteur Cl.
On a représenté sur ce diagramme, le vecteur translation T et on a superposé au trièdre de référence TRC1 un trièdre de référence TR'C2 (en traits pointillés), représentant le trièdre de référence TRc2, après translation suivant le vecteur T. Cette superposition permet de calculer
la matrice rotation MR.
Le processus de visée comprend deux étapes initiales, réalisées à l'aide des deux dispositifs de capteurs de positionnement 5 et 6. La première étape est optionnelle. Elle consiste en
une étape que l'on appellera de "ralliement automatique".
Les signaux générés par les capteurs de position, 5 et 6, sur l'arme 2 et sur la tête Te du tireur, sont combinés et traités, de façon classique en soi, par le dispositif de traitement de signaux et d'images 3. Les signaux traités comprennent des informations de cap et d'inclinaison, par rapport aux référentiels, TRC1 et TRC2, liés aux capteurs, Cl et C2. En sortie, le dispositif de traitement 3 génère des signaux permettant d'estimer l'écart d'orientation des lignes de visée, AC1 et AC2, des capteurs, Cl et C2, au moins en sens et direction. Ces signaux sont transmis à l'organe de visualisation 4, de façon à afficher un symbole spécifique sur l'écran, par exemple une flèche 42, en lieu et place du réticule 41 matérialisant la visée. Le tireur sait alors qu'il doit déplacer le canon de son arme 2, suivant la direction générale symbolisée par la flèche 42, de façon à ce que le réticule 41 symbolisant la visée entre dans son champ de vision et soit affiché sur l'écran de l'organe de visualisation. Il s'agit donc d'une aide automatique, très grossière, pour obtenir un pointage approximatif de l'arme 2, de façon à ce que les étapes du
processus d'aide à la visée proprement dit puissent débuter.
Cependant un pointage initial approximatif peut être réalisé
manuellement, sans l'assistance d'une quelconque symbologie.
La seconde étape initiale, qui elle est toujours nécessaire, consiste à calculer une estimation de la matrice de rotation précitée MR, ce toujours à l'aide des données fournies par les deux dispositifs de capteurs de position, 5 et 6. Cette estimation de la matrice de rotation MR est Ir-lm 111 I obtenue en comparant les données (assiette et cap) fournies par les deux dispositifs, 5 et 6, et utilisant l'estimée du vecteur translation T. Une fois cette ou ces étapes initiales effectuées, les étapes plus spécifiques au procédé selon l'invention sont exécutées, de manière à afficher sur l'écran de l'organe de visualisation 4 un réticule 41 matérialisant la visée et s'incrustant sur la scène 40 observée par le tireur, et donc se superposant sur la cible qu'il désire atteindre, puisque le réticule 41 va se déplacer en
synchronisme avec les mouvements de l'arme 2..
Les circuits électroniques du dispositif 3 peuvent être découpés en modules pour l'exécution des différentes
étapes nécessaires.
La figure 3 illustre la configuration modulaire d'un dispositif de traitement d'images 3 pour la mise en oeuvre du procédé de visée, selon un mode de réalisation préféré de l'invention. On n'a pas représenté les circuits permettant
l'exécution de la ou des étapes initiales précitées.
Dans ce qui suit, un certain nombre de conventions concernant des signaux et d'autres paramètres utilisées par le procédé de l'invention seront respectées. Ces conventions sont portées dans la "TABLE DES NOTATIONS" annexée en fin de
la présente description.
Le dispositif 3 comprend deux modules d'acquisition analogique/numérique, 30 et 34, respectivement pour les voies d'acquisition des signaux de sortie des capteurs Ci
et C2.
Les signaux de sortie des modules d'acquisition analogique/numérique, 30 et 34, sont transmis à des modules d'extraction de contours de zones homogènes, ou objets, contenues dans les images numériques, modules 31 et 35, respectivement. [T-illJ --y T Un module 32 calcule ensuite la pyramide de contours de l'image fournie par le capteur petit champ Cl, apres
extraction des contours.
De même les signaux en sortie du module 35 sont transmis à un premier module 36 d'établissement des images des distances aux contours de l'image grand champ, suivi d'un module 37 d'établissement de la pyramide d'images dites de "chamfer", c'est-à-dire des distances au contour le plus proche.
Enfin un double module de corrélation dit "Gros-
Fin" 33, reçoit les signaux de sortie des modules 32 et 37, ainsi que des signaux de gradients fournis par le module d'extraction de contours 35, et fournis par les modules respectifs 30 et 34 d'acquisition de signaux d'image, IP et IG, dont la définition est donnée dans la table de
notation précitée.
Les calculs effectués par la partie dite "Gros" du module corrélation 33 sont fondés sur un algorithme de type corrélation valuée Les calculs effectués par la partie dite "Fin" sont fondés sur un algorithme d'estimation de l'écart de positionnement entre le centre de l'image du capteur petit champ Cl et le centre de la zone de positionnement FG dans l'image grand champ du capteur C2, calculée par le module
"gros".
Les différents modules composant le dispositif 3
vont maintenant être détaillés.
Une fois que le modèle et le type des capteurs, Ci et C2, sont sélectionnés, les champs respectifs de ces capteurs sont connus. Ce sont des données fournies par le constructeur, ainsi que d'autres caractéristiques associées: résolution, etc.
li Tl -lT lT-
La conversion analogique/numérique des signaux d'image générés par les capteurs Ci et C2, conversion effectuée dans les modules 30 et 34, est assurée de manière synchrone par un dispositif de numérisation d'images classique, sur une dynamique typique de 28 niveaux de gris. L'estimation de la matrice de rotation MR, et son application aux images issues du capteur Ci, ainsi que la connaissance des champs des capteurs, Cl et C2, permet de construire, par un traitement de ré-échantillonnage spatial, à partir de l'image numérisée issue du capteur petit champ Cl, deux images dérivées IP et I'P d'axes parallèles aux axes de l'image iG, en supposant que celle- ci soit rectangulaire, ou de façon plus générale d'un référentiel orthonormé lié à celle-ci. Ces images, IP et I'P, sont telles que la relation suivante soit satisfaite: CIG = QxCIP (1), avec Q nombre entier, et CIG = CI- P (1 bis), avec cIG, CIP et CI'P, les champs instantanés des images IG,
IP et I'P, respectivement.
Le ré-échantillonage spatial est réalisé par une fonction classique d'interpolation, de type bilinéaire ou bicubique.
La valeur de Q est choisie de la façon indiquée ci-
dessous.
Le champ souhaité de l'image "brute" CIGBrute en sortie du capteur C2 est inférieure au champ instantané de l'image "brute" CIPBrute du capteur petit champ Cl. Les relations liant ces deux images "brutes" sont les suivantes: CIGBrute = XxCIPBrute (2), avec X un nombre réel plus grand que l'unité et Q partie entière de X. La figure 4 est un diagramme illustrant schématiquement les images IG, IP et I'P. La découpe de la zone utile des images ré-échantillonées est telle que l'image I'P est inclue dans l'image IG du capteur grand champ C2. On a représenté schématiquement, sur la figure 4, en traits pointillés, les positions des images IP et I'P avant application de la matrice de rotation MR. Les axes XYZ
symbolisent le référentiel TRC1 (figure 2).
Les signaux numériques représentant les images IP
et IG sont transmis au module 33.
A l'issue de cette opération, on définit par la valeur maximale du roulis résiduel apparent de I'P dans
l'image IG.
Les modules 31 et 35 effectuent l'extraction des contours objets présents dans les deux images numérisées. Le
processus est similaire dans les deux modules.
La figure 5 illustre de façon plus détaillée, sous forme de blocs diagrammes, l'un des modules, par exemple le
module 31.
Les paramètres d'extraction sont choisis de manière à introduire un niveau de filtrage passe-bas identique sur
les deux images numérisées.
Un module d'entrée 310 calcule des images de gradients GX et Gy selon deux axes orthonormés X et Y attachés à l'image. Cette opération peut être réalisée par toute méthode classique du domaine du traitement d'image. On peut avoir recourt, par exemple, à des traitements récursifs comme ceux décrits dans l'article de Rachid DERICHE, intitulé: "Using Canny's detector to derive a recursively
TTV1 M1J IT
implemented Optimal Edge Detector", "Computer Vision 1987",
pages 167-187, article auquel on se reportera avec profit.
Les images de gradients calculés, suivant les axes X et Y, sont transmises à un premier module 311 destiné à calculer, en chaque point la norme du gradient NG, conformément à la relation suivante: NG(i, j) = OGx (i, j)| +]Gr (i, j)j (3) avec i et j des coordonnées de pixels dans l'image, selon
deux axes orthonormés.
Les images de gradients calculés sont également transmises à un second module 312, destiné à calculer en chaque point l'orientation du gradient OG, conformément à la relation suivante: OG(i, j) = Arctg(- GY(iJ))
Gx (i,j) (4).
Les signaux de sorties élaborés par les modules 311 et 312, représentent, respectivement, les images de la norme et de l'orientation des gradients, sont transmis à un module de sortie 314 élaborant une liste des points de contours des objets détectés dans l'image numérisée, sous forme de coordonnées numériques. Cette étape comprend les sous-étapes suivantes: binarisation, suppressions des non-maxima et application d'un seuil par hystérésis. La sous-étape de
binarisation nécessite de connaître les seuils hauts et bas.
L'estimation de ces seuils est effectuée par un module supplémentaire 313, selon un processus itératif. Le module 313 reçoit en effet les données associées à la liste des points de contours en rétroaction. Il reçoit également sur une seconde entrée l'image de la norme des gradients
calculée par le module 311.
A partir de la liste des points de contours extraits de l'image précédente et de la norme des gradients de l'image courante, le module 313 a pour objet d'asservir dynamiquement, zone de l'image par zone de l'image, les
seuils hauts et bas.
L'image courante est divisée en zones de tailles égales. Sur chaque zone, d'indice arbitraire z, le module 313 calcule un seuil haut, que l'on référencera SHz, et un seuil bas, que l'on référencera SBz, pour l'image en cours de traitement à un instant t arbitraire, ce en fonction des seuils haut et bas obtenus sur la zone à un instant t- 1 correspondant à l'image précédente. La relation suivante est utilisée: SHz(t) = axlSHz(t-l) + (1-c)xSnorme (5), avec a E [0, 1], la valeur exacte étant fixée par l'application, selon le type de capteur sélectionné, la valeur a = 0,8 étant une valeur typique. 3 dépend du nombre de points de contour extraits dans l'image précédente, à l'instant t-1. Si le nombre de points est trop élevé pour tenir une cadence en temps réel, f est choisi inférieur à l'unité. Par contre, si le nombre de points est insuffisant pour obtenir une information de contour, on choisit 3 supérieur à l'unité. Typiquement la valeur de f est comprise
entre 0,8 et 1,25.
Snorme est la valeur de seuil à appliquer sur la norme de gradient pour effectuer une opération de seuil sur n % des points de la zone. Le nombre n est choisi en fonction des caractéristiques des capteurs (richesse spatiale de l'image) et est compris typiquement entre 5 %
et 15 %.
La relation suivante est satisfaite: SBz = E( XSHz(t)) (6), avec E valeur entière et y fixé une fois pour toutes par
l'application. y est généralement inférieur à 0,5.
Pour éviter les effets de discontinuités interzones, un processus de lissage des seuils obtenus est mis en oeuvre. Chaque zone z est divisée en quatre sous-zones contiguës et les seuils hauts et bas sont recalculés pour les sous-zones par un algorithme d'interpolation classique, en utilisant les zones adjacentes à la zone z. Le module 314 effectue la binarisation des contours et la suppression des non-maxima locaux, selon une méthode d'hysterésis. Ce module 314 détermine les chaînes de contour (c'est-à-dire les ensembles de contours connexes selon le principe de la connexité à huit) telles qu'un point au moins de chaque chaîne dépasse le seuil haut local de sa zone et que tous les autres points de la chaîne dépassent leur seuil
bas local.
En outre, chaque point de la chaîne est conservé s'il constitue un maximum local de la norme. Pour le vérifier, on compare la norme du gradient en ce point, que l'on appellera P, avec la norme du gradient de deux autres points, Pl et P2, qui sont les plus proches du point P, suivant une direction réalisant la meilleure approximation sur un voisinage 3x3 de la normale au contour au point P. La direction de cette normale est calculée à partir de l'orientation du gradient au point P qui donne la direction de la tangente au point P. Le processus qui vient d'être explicité est illustré très schématiquement par les figures 6A et 6B. Sur la figure 6A, on a représenté une image représentant la scène vue par le capteur grand champ C2, comprenant, dans l'exemple illustré, deux objets remarquables constitués par un arbre Ar et un bâtiment Bt. En fin du processus d'extraction de contours, on dispose d'une liste de points de contours CAr et CBt, représentés, par exemple, par des zéros. Les deux objets, symbolisés par ces contours, peuvent représenter des cibles potentielles qui se distinguent de
l'arrière plan.
En dehors des points de contours, les points ou pixels de l'image sont représentés par des nombres différents de zéro (1, 2, 3,...) et dont la valeur est d'autant plus grande que ces points sont éloignés des contours (distance en connexité à 4 d'un pixel au contour le
plus proche, la distance étant exprimée en pixels).
Naturellement les zéros de la liste sont associés à des coordonnées numériques, selon un référentiel orthonormé XY, dont les axes sont avantageusement parallèles aux bords de l'image, si celle-ci est rectangulaire. Ces coordonnées sont stockées, au moins temporairement, dans des circuits de mémoire classiques (non représentés), de façon à être utilisées par le module suivant, 32 ou 36, selon la
voie considérée (figure 3).
On va se reporter de nouveau à la figure 3.
Sur la voie supérieure (traitement de l'image issue du capteur petit champ Ci), le module 32 permet l'établissement de la pyramide des contours, à partir de la
liste calculée par le module 31.
Pour des raisons de vitesse d'exécution, la constitution de la pyramide consiste à utiliser l'image des CPO contours Q déterminée par le module 311 au niveau maximal de résolution et de constituer la suite d'images Ck de la pyramide conformément à la relation (7) suivante: Ck(i,' j) = Ck (2i,2j) v Ce X(2i,2j + 1) v Ck, (2i + 1,2j) v C 1 (2i + 1,2j + 1) relation dans laquelle k E [O,K], avec K entier, tel 2K > tg(A0).7rc Ao que 2, et la valeur maximale du roulis
résiduel précédemment définie.
Les pixels sont considérés comme des booléens (la proposition est vrai s'il y a présence de contours, fausse
dans le cas contraire). Le paramètre Tmaxest le maximum des tailles de IP selon les axes
orthonormés X et Y. Le nombre de points non nuls (c'est-à-dire le nombre de points de contours) dans l'imageCk est noté k Sur la voie inférieure (traitement de l'image issue du capteur grand champ C2), les gradients calculés par le module 310 (figure 5) sont transmis sur une entrée du
module 33.
Le module 36 permet l'établissement de l'image des distances au contour le plus proche. Cette image est constituée à partir de l'image des contours de l'image grand champ donnée par le capteur C2. Pour ce faire, on peut utiliser une méthode algorithmique connue, par exemple celle divulguée par l'article de Gunilla BORGEFORS, intitulé:"Hierarchical Chamfer Matching: A parametric edge matching algorithm", paru dans "IEEE Transactions on Pattern Analysis and Machine Intelligence", novembre 1988, Vol 10,
n 6, pages 849-865, auquel on se reportera avec profit.
Le module 37 permet d'établir la pyramide des images dites de "chamfer" calculées à partir de l'image fournie par
le module précédent 36.
Pour des raisons de vitesse d'exécution, la constitution de la pyramide consiste à utiliser l'image des distances de "chamfer" constituée à partir de l'image des contours de l'image grand champ Do déterminée par le module 36 au niveau maximal de résolution et de constituer DG la suite d'images k de la pyramide conformément à la relation (8) suivante: Dc (i, j) = Max(Dc, (2i,2j), DG, (2i,2j + 1), DoG, (2i + 1,2j), DM (2i + 1,2j + l)) div 2 relation dans laquelle r E ([O,R], avec R = K + q, et div
représente la fonction division entière.
fr iiJl" l [ Le module de corrélation 33 est en réalité subdivisé
en deux modules, comme il a été indiqué.
Le module dit "gros", 33G, est représenté sous forme
de bloc diagramme par la figure 7, et comprend trois sous-
modules en cascade: 330 à 332. Le module 33G réalise une corrélation valuée, au même niveau de résolution, entre les images de la pyramide de contour de l'image petit champ et les images de la pyramide des images de distances aux contours obtenues à
partir de l'image grand champ.
Le sous-module d'entrée 330 permet la constitution de la nappe de corrélation Nk(u, v), conformément à la relation suivante:
=C" Z Z( + U + V
NK (u, V) = S (DR (i, j) CK (i + u. j + y))
J (9),
relation dans laquelle, u et v sont des coordonnées orthogonales dans la nappe de corrélation, avec UK < U UUp inf Un etK < V K, inégalités dans lesquelles K et K sont Vsup Usup typiquement égaux à -2, et KV et K sont typiquement
égaux à +2.
Le module 331 est destiné à la sélection des minimas
locaux. Cette sélection est réalisée en deux étapes.
On sélectionne d'abord des couples (u, v) tels que N(u,v)<S N(u,v) présente un minimum local et K S est un seuil qui dépend de la densité spectrale de l'image d'entrée. On détermine le seuil S par une procédure
classique de calibrage du dispositif de traitement d'images.
L'ensemble des minimas locaux au niveau K de la pyramide est noté EK -TF- i --iT Enfin, dans le module 332, on effectue, par un processus itératif, la remontée des niveaux des pyramides et
un filtrage des valeurs.
Pour tout niveau n de la pyramide des images Ck, on constitue un ensemble En comme indiqué ci-après. Pour tout couple (u,v) de tn+l, on calcule une nappe de corrélation Nn réduite à 4 points, au niveau n, tel que: N(uv') =E(D + (i j)C(i+u',j +v)) jJ(10),
relation dans laquelle (u', v') e [2u,2u+l]x[2v,2v+l].
On conserve un point P pour chaque nappe Nn. Ce point P est celui pour lequel la valeur de la nappe est minimale si celui-ci vérifie la relation: Nn(P) np - S n on (11),
avec S le seuil précédemment défini.
Ainsi on constitue une suite d'ensembles -j pour
j E [O,K-1].
Le point sélectionné par le module "gros" 33G est le point I tel que:
nEo et VPEE0,PÉzNo@))>No(n) (12).
Le processus de corrélation peut s'arrêter à cette étape. En effet, le point I constitue le meilleur point sélectionné. On peut afficher dans le dispositif de visualisation 4 un réticule 41 correspondant à l'impact de l'axe de visée A20 de l'arme 2 sur la cible visée, et se superposant à la scène observée 40 par le tireur au travers
de l'écran du dispositif 4.
Il est cependant possible d'améliorer encore la précision de la visée. Aussi, selon un mode de réalisation préféré de l'invention, il est procédé à une opération
supplémentaire de corrélation dite "fine".
On va considérer, comme illustré par le diagramme de la figure 8, une fenêtre F'P de quelques pixels, centrée dans l'image I'G, et une fenêtre FG de centre I, également de quelques pixels, dans l'image IG. Les pixels sont délimités par des lignes, verticales et horizontales, en traits pointillés, les pixels étant supposés carrés. De façon plus précise, le point H est le centre du pixel central de la fenêtre FG, et un point o'P, le centre du pixel central de la fenêtre F'P. Le vecteur E représente le décalage entre les deux "grilles" de pixels, sur l'axe n
-oP, c'est-à-dire en amplitude et en direction.
La taille de la fenêtre FP est choisie de telle manière à garantir la présence d'une information minimale dans cette fenêtre FP. En d'autres termes, il ne doit pas s'agir d'une zone uniforme. Une indication de l'information peut être obtenue par la vérification de la valeur de la
somme des normes des gradients sur cette fenêtre.
La fenêtre FG garantit une marge de 1 pixel autour
de la fenêtre FP.
A priori, il n'existe aucune raison pour que les pixels des deux fenêtres coïncident. On suppose, en effet, que l'image petit champ IP a une résolution intrinsèque
supérieure à l'image grand champ IG.
On va donc chercher à estimer l'écart sub-pixellique Ey de positionnement entre le centre de la fenêtre FG et
le centre de la fenêtre FP.
Compte tenu de la compatibilité des bandes spectrales des deux capteurs à imagerie, Cl et C2, on utilise une équivalence entre l'image de la fenêtre FG et
l'image de la fenêtre FP.
De façon générale, si on considère une image numérique quelconque I, de quelques pixels dans les deux dimensions, et un point M également compris à l'intérieur de l'image I, on peut définir un vecteur unicolonne IV(M) contenant les valeurs de l'image I sur le voisinage V du point M. Si le point M correspond à un pixel entier, les valeurs sont directement les valeurs des pixels de I, tandis
que dans le cas o le point M a des coordonnées sub-
pixelliques, les valeurs du vecteur IV(M) sont obtenues par un mécanisme classique d'interpolation. Le choix précis du mécanisme d'interpolation doit être effectué au cas par cas, selon des contraintes propres à l'application spécifique envisagée: vitesse d'exécution, précision du résultat, etc. Dans le cas du procédé de l'invention, on définit le voisinage V de travail de mêmes tailles selon X et Y que la fenêtre F'P. Le nombre total de points du voisinage V est
égal à LV.
On obtient l'identité suivante FG(H- F'V (-E) Le
décalage IIEúI est inférieur à un pixel.
H= ÈF' V
On définito, matrice de Lv lignes et de 2 colonnes. On obtient alors la relation suivante: F'p (-E)=F'? (OP)+H.(-E) (13), et V V (13), et
E=-(HTrH).HT(FvG (OG)-F'p (OP)) (14).
Le point oG est équivalent au point H, mais FG constitue une origine d'un repère pour v Pour tirer parti de la résolution intrinsèque supérieure de IP, On réalise une opération de grossissement jiiTf -A[ T de la fenêtre FG d 'un facteur Q. Cette opération est réalisée par un processus d'interpolation classique, par exemple bilinéaire ou bicubique. La fenêtre résultante est
appelée GG.
FP est une fenêtre centrée de IP, de taille en X (respectivement en Y) égale à la taille de F'P multipliée par Q. A partir de l'écart E calculé précédemment, on trouve, par translation, un point H1. H1 correspond au centre d'un pixel de la fenêtre GG dont les coordonnées entières sont la meilleure approximation possible de l'écart E. Les coordonnées de ce point E1 sont les suivantes: XI1= arrondi (Q. Ex) (15), et
YH1= arrondi (Q.Ey) (16).
On va chercher à estimer l'écart sub-pixellique El de positionnement entre H[ et le centre de la fenêtre FP, en
utilisant la même approche que précédemment.
Pour ce faire, on définit un voisinage W de travail
de mêmes tailles selon X et Y que la fenêtre FP.
Le nombre total de points du voisinage W est égal à LW. On obtient alors l'identité: Gw(l) - F (-E) H =( ôFw ôw) Comme précédemment on définit ', une
matrice de LW lignes et de 2 colonnes.
On obtient alors la relation suivante: FW (-E1) = F (OP) + H1 (-E) (17), et w 1l1 (Im(17), et
El = -(I-I"H) - H" *( (FwG)-WP ( P(18).
[l 1191 "lu | El est un écart réduit par rapport à E. On peut afficher, sur l'écran de l'organe de visualisation 4, un réticule 41 positionné au point (NI-E-E1) par rapport à un point qui correspond au centre du champ du capteur grand champ C2. Le point FI est obtenu avec une précision typique de l'ordre de 2 à 3 pixels sur l'image grand champ. L'écart E correspond à 1 pixel de la résolution de l'image petit champ. On peut donc obtenir une précision dans le positionnement du réticule 41 typiquement dans la gamme de 2 à 3 mrad, ce qui correspond à l'objectif que se fixe le
procédé selon l'invention.
A la lecture de ce qui précède, on constate aisément
que l'invention atteint bien les buts qu'elle s'est fixés.
Le procédé d'aide au tir permet tout à la fois d'obtenir une grande précision de visée et une grande rapidité, puisqu'il n'exige pas un épaulement de l'arme. En outre, selon une autre caractéristique avantageuse, le processus, puisqu'il ne s'accompagne pas d'émission d'énergie radiante, reste tout à fait discret. En d'autres termes, même si la cible dispose d'un capteur sensible aux longueurs d'ondes utilisées, elle ne pourra détecter le tireur, du moins du fait de la mise en oeuvre du procédé
propre à l'invention.
Il doit être clair cependant que l'invention n'est pas limitée aux seuls exemples de réalisations explicitement
décrits, notamment en relation avec les figures lA à 8.
En particulier, les valeurs numériques n'ont été précisées que pour fixer les idées. Elles dépendent
essentiellement de l'application précise visée.
De même, les composants utilisables: capteurs d'imagerie, circuits électroniques pour le traitement des signaux numériques, etc., participent d'un simple choix technologique à la portée de l'Homme du Métier. Notamment,
comme il a été indiqué, plusieurs types et technologies de capteurs d'imagerie peuvent être utilisés, en particulier en fonction du choix des longueurs d'ondes mises en oeuvre5 (visible ou infrarouge).
TABLE DES NOTATIONS
C Image au niveau k de la pyramide des contours de l'image petit champ IG Image Grand Champ IP Image Petit Champ (résolution initiale et axes parallèles aux axes de IG) I 'P Image Petit Champ (résolution de IG et axes parallèles aux axes de IG) CIG Champ instantané de l'image IG CIP Champ instantané de l'image IP CIGBrute Image brute du capteur grand champ CIPBrute Image brute du capteur petit champ GX, Gy Images des gradients en X et en Y K Niveau maximum de la pyramide de contour de l'image petit champ NG Image de la norme des gradients OG Image de l'orientation des gradients DG Image au niveau k de la pyramide des images de distances aux contours de l'image grand champ Nv Nappe de corrélation valuée au niveau v de la pyramide de contour de l'image petit champ k Nombre de points non nuls de l'imageCk Ensemble des minimas au niveau v de la pyramide de contour de l'image petit champ
WAl.l:iUT-

Claims (14)

REVENDICATIONS
1. Procédé d'aide à la visée pour arme légère portée par un tireur, caractérisé en ce qu'il comprend les étapes suivantes: - l'acquisition d'une première image à l'aide d'un premier capteur à imagerie (Cl), associé à un premier champ et fixé à ladite arme (2), dont l'axe optique (AC1) est lié mécaniquement à l'axe (A20) du canon (20) de l'arme (2) et représente la ligne de visée de cette arme (2); ladite première image représentant une scène avant, vue dudit canon (20); - l'acquisition d'une seconde image à l'aide d'un second capteur à imagerie (C2), associé à un second champ et porté par la tête (Te) dudit tireur, de manière à englober tout ou partie d'une scène avant (40) observée par celui-ci, ladite scène étant susceptible de contenir une cible pour ledit tir; - l'acquisition d'une première série de données relatives à la position dans l'espace dudit premier capteur en imagerie (C1) par rapport à un premier trièdre de référence (TRc1) associé à ce premier capteur (Cl); - l'acquisition d'une seconde série de données relatives à la position dans l'espace dudit second capteur en imagerie (C1) par rapport à un second trièdre de référence (TRC2) associé à ce second capteur (C2); - la détermination, à partir desdites premières et secondes séries de données de position, d'une matrice de rotation représentant les positions relatives dans l'espace desdits premier (TRC1) et second trièdres (TRC2) de référence, et l'estimation a priori d'une borne supérieure d'un vecteur de translation (T) séparant lesdits premier (Cl) et second (C2) capteurs en imagerie, de manière à obtenir une estimation continue dans le temps de l'écart d'orientation entre lesdits premier (AC1) et second (AC2) axes optiques; la détermination du centre dudit premier champ associé audit premier capteur en imagerie (Cl), représentant ladite ligne de visée (AC1), et la détermination, à l'aide de ladite matrice de rotation et dudit vecteur de translation (T), de la position dudit premier champ par rapport à ladite seconde image acquise par ledit second capteur en imagerie (C2); de manière à déterminer la position de ladite ligne de visée (AC1) dans cette seconde image; et - l'affichage, sur un organe de visualisation (4), d'un symbole déterminé (41) matérialisant ladite position de la ligne de visée dans ladite seconde image, en superposition à ladite scène avant (40) observée par
ledit tireur.
2. Procédé selon la revendication 1, caractérisé en ce qu'il comprend une étape préliminaire consistant, à partir desdites premières et secondes séries de données relatives à la position desdits premier (Cl) et second (C2) capteurs en imagerie, en l'estimation de l'écart d'orientation des lignes de visée (AC1, AC2) desdits premier (Cl) et second (C2) capteurs d'imagerie, au moins en sens et direction, de manière à afficher sur ledit organe de visualisation (4) un second symbole déterminé (42) indiquant audit tireur la direction suivant laquelle
il doit déplacer ledit canon (20) de l'arme (2).
3. Procédé selon les revendications 1 ou 2,
caractérisé en ce que ladite arme (2) étant tenue à la main par le tireur, la borne supérieure dudit vecteur de
translation (T) est estimée égale à 1 m.
Il Iair -UI f
4. Procédé selon l'une quelconque des
revendications 1 à 3, caractérisé en ce que ledit premier
champ dudit premier capteur (Ci) en imagerie est inférieur audit second champ dudit second capteur (C2) à imagerie, en ce que, lesdites première et seconde images étant analogiques, ladite acquisition comprend la conversion analogique/numérique (30, 34) des signaux de sortie desdits premier (Cl) et second (C2) capteurs à imagerie, de manière à construire deux images numériques associées à des premier (TRC1) et second (TRc2) référentiels orthonormés, représentant respectivement les images issues desdits premier (Cl) et second (C2) capteurs en imagerie, en ce qu'il est procédé à une étape consistant en la construction, à partir de l'image numérique issue dudit premier capteur à imagerie (Cl), et par application de ladite matrice de rotation, d'au moins une première image numérique dérivée (IP), de même référentiel orthonormé que l'image numérique (IG) issue dudit second capteur (C2), dont le champ instantané est proportionnel, par un facteur Q, au champ instantané de ladite image numérique issue du second capteur à imagerie (IP), Q étant un entier, et en ce qu'il est procédé à des étapes subséquentes de traitement d'image comprenant la corrélation (33) de ladite image numérique dérivée et de ladite image numérique issue dudit second capteur en imagerie, pour déterminer la position dudit premier champ dudit premier capteur à imagerie (Cl) dans ladite seconde image acquise par ledit second capteur (C2) en imagerie et la position de ladite ligne de visée dans cette seconde
image.
5. Procédé selon la revendication 4, caractérisé en ce que, lesdites images numériques issues desdits premier (Cl) et second (C2) capteurs à imagerie comprenant des zones non uniformes (Ar, Bt), les étapes de traitement d'image comprennent au moins les étapes suivantes: - une étape (31, 35) d'extraction de contours (CAr, CBt) desdites zones non uniformes (Ar, Bt), de manière à générer une liste de points de coordonnées de ladite image numérique correspondant auxdits contours et à les associer à une valeur numérique déterminée; - pour l'image numérique issue dudit premier capteur (Cl), une étape (32) consistant à établir, à partir de l'image desdits contours (CAr, CBt), une suite d'images formant une pyramide des contours, sur un nombre de niveaux déterminé; - pour l'image numérique issue dudit second capteur d'imagerie (C2), une étape (36, 37) consistant à établir, à partir de l'image desdits contours (CAr, CBt) et pour chaque point de l'image, une image des distances au contour le plus proche et, à partir de cette image des distances au contour le plus proche, une suite d'images formant une pyramide des distances de contours, sur un nombre de niveaux déterminé; et - une étape de corrélation valuée (33) entre ladite suite d'images formant une pyramide des contours et ladite suite d'images formant une pyramide des distances de contours, de manière à sélectionner un point de ladite image numérique issue dudit second capteur à imagerie (C2) constituant la position le plus proche du centre du champ de cette image, et à afficher, sur ledit organe de visualisation (4), ledit premier symbole (41) déterminé, à cette position de ladite seconde image, en
superposition de ladite scène avant observée (40).
6. Procédé selon la revendication 5, caractérisé en ce que ladite étape d'extraction de contours (CAr, CBt) desdites zones non uniformes (Ar, Bt) desdites images numériques issues desdits premier (Cl) et second (C2) capteurs à imagerie comprend les sous-étapes suivantes: - la détermination (310) des images de gradients suivant deux axes de coordonnées orthonormées liés auxdites images numériques; - la détermination (311) de la norme desdits gradients en chaque point desdites images; - la détermination (312) de l'orientation desdits gradients en chaque point desdites images; et - l'établissement (313, 314), à partir desdites normes et desdites orientations de gradients, d'une liste de
points de contours.
7. Procédé selon la revendication 5, caractérisé en ce que ladite étape de corrélation valuée (33G) comprend les sous-étapes suivantes: - la constitution (330), à partir de ladite suite d'images formant une pyramide des contours et de ladite suite d'images formant une pyramide des distances de contours, d'une nappe de corrélation; - la sélection (331, 332) dans ladite nappe de valeurs représentant des minimas locaux inférieurs à un seuil déterminé, pour un desdits niveaux de pyramide, et la constitution, à chaque niveau desdites pyramides, d'un ensemble de minimas locaux; et - sélection d'un point (T) correspondant au plus petit des minimas pour estimer la position du centre d'une zone de positionnement de ladite image numérique issue dudit premier capteur à imagerie (Ci) dans ladite image numérique issue dudit second capteur à imagerie (C2),
cette position représentant ladite ligne de visée.
8. Procédé selon les revendications 5 ou 7,
caractérisé en ce que ladite étape de corrélation valuée (33G) est suivie d'une étape de corrélation supplémentaire, dite "fine, mettant en oeuvre un algorithme d'estimation de l'écart de positionnement (E), en amplitude et en direction, entre le centre (O'P) de ladite image numérique issue dudit premier capteur à imagerie (C1) et le centre (f) de ladite zone de positionnement de cette image numérique dans ladite image numérique issue dudit second capteur à imagerie (C1), le positionnement dudit centre (I) étant obtenu lors de ladite étape de corrélation valuée (33G), et en ce qu'à l'issue de ladite étape supplémentaire, une nouvelle position dudit centre est déterminée par une translation
d'amplitude et de direction conforme audit écart (E).
9. Système d'aide à la visée destiné à une arme légère portée par un tireur pour la mise en oeuvre du
procédé selon l'une quelconque des revendications
précédentes, caractérisé en ce qu'il comprend: - un premier capteur à imagerie (Cl) permettant d'acquérir ladite première image, ledit premier capteur à imagerie (Cl) étant associé à un premier champ et étant fixé à ladite arme (2), l'axe optique (AC1) de ce capteur (C1) étant lié mécaniquement à l'axe (A20) du canon (20) de l'arme (2) et représentant la ligne de visée de cette arme (2); - un second capteur à imagerie (C2) permettant d'acquérir ladite seconde image, ledit second capteur à imagerie (C2) étant associé à un second champ et fixé sur la tête (Te) dudit tireur, de manière à englober tout ou partie d'une scène avant (40) observée par celui-ci, ladite scène (40) étant susceptible de contenir une cible pour ledit tir; - un premier dispositif (5) d'acquisition d'une première série de données relatives à la position dudit premier capteur en imagerie (Cl) par rapport à un premier trièdre de référence (TRC1) lié à ce premier capteur (C1); - un second dispositif (6) d'acquisition d'une seconde série de données relatives à la position dudit second capteur en imagerie (C2) par rapport à un second trièdre de référence (TRC2) lié à ce premier capteur (C2); -et un dispositif de traitement de signaux et d'images (3) reçus desdits premier (Cl) et second (C2) capteurs d'imagerie et desdits premier (5) et second (6) dispositifs d'acquisition desdites premières et secondes séries de données de position pour ladite détermination d'une matrice de rotation représentant les positions relatives dans l'espace desdits premier (TRCl) et second (TRC2) trièdres de référence et la détermination du centre dudit premier champ associé audit premier capteur en imagerie (Cl), représentant ladite ligne de visée, et ladite détermination de la position dudit premier champ par rapport à ladite seconde image acquise par ledit second capteur en imagerie (C2), et de la position de ladite ligne de visée dans cette seconde image; et - un organe de visualisation (4) pour l'affichage d'un symbole déterminé (41), matérialisant ladite position de la ligne de visée dans ladite seconde image, ou un second symbole déterminé (42), indiquant audit tireur une direction suivant laquelle il doit déplacer le canon de ladite arme (2), lesdits symboles déterminés (41, 42) étant affichés en superposition à ladite scène
avant (40) observée par ledit tireur.
10. Système selon la revendication 9, caractérisé en ce que ledit organe de visualisation (4) est un visuel de casque comprenant un écran sur lequel sont affichés lesdits symboles déterminés (41, 42) et au travers duquel
ledit tireur observe ladite scène avant (40).
11. Système selon les revendications 9 ou 10,
caractérisé en ce que lesdits premier (Cl) et second (C2) capteurs à imagerie sont des capteurs du type à charges couplées sensibles à un rayonnement dans le spectre du visible.
12. Système selon les revendications 9 ou 10,
caractérisé en ce que lesdits premier (Cl) et second (C2) capteurs à imagerie sont des capteurs sensibles à un
rayonnement dans le spectre de l'infrarouge.
13. Système selon l'une quelconque des
revendications 9 à 12, caractérisé en ce que lesdits
premier (5) et second (6) dispositifs d'acquisition desdites premières et secondes séries de données de position comprennent, chacun, un capteur de cap et un inclinomètre deux axes, de manière à générer des données de cap et d'assiette par rapport auxdits premier (TRC1) et
second (TRC2) trièdres de référence.
14. Système selon l'une quelconque des
revendications 9 à 13, caractérisé en ce que, lesdites
première et seconde images étant analogiques, ledit dispositif de traitement de signaux et d'images (3) comprend des modules d'acquisition (30, 34) comprenant un convertisseur analogique/numérique pour chacune desdites images.
[I:il A:U l r-
FR9816022A 1998-12-18 1998-12-18 Procede et systeme d'aide a la visee pour arme legere Expired - Fee Related FR2787566B1 (fr)

Priority Applications (4)

Application Number Priority Date Filing Date Title
FR9816022A FR2787566B1 (fr) 1998-12-18 1998-12-18 Procede et systeme d'aide a la visee pour arme legere
PCT/FR1999/003185 WO2000037875A1 (fr) 1998-12-18 1999-12-17 Procede et systeme d'aide a la visee pour arme legere
EP99961103A EP1141648A1 (fr) 1998-12-18 1999-12-17 Procede et systeme d'aide a la visee pour arme legere
CA002354569A CA2354569C (fr) 1998-12-18 1999-12-17 Procede et systeme d'aide a la visee pour arme legere

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR9816022A FR2787566B1 (fr) 1998-12-18 1998-12-18 Procede et systeme d'aide a la visee pour arme legere

Publications (2)

Publication Number Publication Date
FR2787566A1 true FR2787566A1 (fr) 2000-06-23
FR2787566B1 FR2787566B1 (fr) 2001-03-16

Family

ID=9534147

Family Applications (1)

Application Number Title Priority Date Filing Date
FR9816022A Expired - Fee Related FR2787566B1 (fr) 1998-12-18 1998-12-18 Procede et systeme d'aide a la visee pour arme legere

Country Status (4)

Country Link
EP (1) EP1141648A1 (fr)
CA (1) CA2354569C (fr)
FR (1) FR2787566B1 (fr)
WO (1) WO2000037875A1 (fr)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1806556A1 (fr) * 2006-01-08 2007-07-11 Na-Or Ltd Dispositif d'acquisition d'un emplacement de cible/site

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4093736B2 (ja) 2001-06-28 2008-06-04 株式会社日立メディコ 核磁気共鳴診断装置および診断システム
FR2862748B1 (fr) * 2003-11-25 2006-01-21 Thales Sa Procede de conduite de tir pour aeronefs
US9229230B2 (en) 2007-02-28 2016-01-05 Science Applications International Corporation System and method for video image registration and/or providing supplemental data in a heads up display
US20110261204A1 (en) * 2010-04-27 2011-10-27 Itt Manufacturing Enterprises, Inc Remote activation of imagery in night vision goggles

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4786966A (en) * 1986-07-10 1988-11-22 Varo, Inc. Head mounted video display and remote camera system
US4804843A (en) * 1985-05-16 1989-02-14 British Aerospace Public Limited Co. Aiming systems
EP0605290A1 (fr) * 1992-12-30 1994-07-06 Thomson-Csf Dispositif optronique d'aide au tir par arme individuelle et application à la progression en milieu hostile
US5675112A (en) * 1994-04-12 1997-10-07 Thomson-Csf Aiming device for weapon and fitted-out weapon
US5806229A (en) * 1997-06-24 1998-09-15 Raytheon Ti Systems, Inc. Aiming aid for use with electronic weapon sights

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4804843A (en) * 1985-05-16 1989-02-14 British Aerospace Public Limited Co. Aiming systems
US4786966A (en) * 1986-07-10 1988-11-22 Varo, Inc. Head mounted video display and remote camera system
EP0605290A1 (fr) * 1992-12-30 1994-07-06 Thomson-Csf Dispositif optronique d'aide au tir par arme individuelle et application à la progression en milieu hostile
US5675112A (en) * 1994-04-12 1997-10-07 Thomson-Csf Aiming device for weapon and fitted-out weapon
US5806229A (en) * 1997-06-24 1998-09-15 Raytheon Ti Systems, Inc. Aiming aid for use with electronic weapon sights

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
BORGEFORS G: "Hierarchical Chamfer Matching: A Parametric Edge Matching Algorithm", IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE, vol. 10, no. 6, November 1989 (1989-11-01), pages 849 - 865, XP002114858 *
DE GUNILLA BORGEFORS: "ieee transactions on pattern analysis and machine intelligence", vol. 10, part 6 November 1998, article "hierarchical chamfer matching: a parametric edge matching algorithm", pages: 849 - 865

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1806556A1 (fr) * 2006-01-08 2007-07-11 Na-Or Ltd Dispositif d'acquisition d'un emplacement de cible/site

Also Published As

Publication number Publication date
EP1141648A1 (fr) 2001-10-10
WO2000037875A1 (fr) 2000-06-29
CA2354569A1 (fr) 2000-06-29
CA2354569C (fr) 2007-09-25
FR2787566B1 (fr) 2001-03-16

Similar Documents

Publication Publication Date Title
FR2485729A1 (fr) Pyrometre thermographique pour mesurer a distance la temperature d&#39;un objet
FR2678125A1 (fr) Procede et appareillage de commande adaptative d&#39;une camera d&#39;imagerie electronique.
EP2909671B1 (fr) Procede de conception d&#39;un imageur monovoie passif capable d&#39;estimer la profondeur de champ
FR2787566A1 (fr) Procede et systeme d&#39;aide a la visee pour arme legere
EP3301644B1 (fr) Procédé de construction d&#39;une carte de profondeur d&#39;une scène et/ou d&#39;une image entièrement focalisée
CA2701151A1 (fr) Systeme d&#39;imagerie a modification de front d&#39;onde et procede d&#39;augmentation de la profondeur de champ d&#39;un systeme d&#39;imagerie
WO2001054419A1 (fr) Procede et dispositif de restitution d&#39;un signal lumineux
EP3290891A1 (fr) Procédé et dispositif de caractérisation des aberrations d&#39;un système optique
EP3220185B1 (fr) Dispositif et procédé de capture plénoptique d&#39;images
EP2746830B1 (fr) Mise au point optique d&#39;un instrument de saisie d&#39;image
FR2929417A1 (fr) Procede de determination d&#39;une representation tridimensionnelle d&#39;un objet a partir de points, programme d&#39;ordinateur et systeme d&#39;imagerie correspondant
EP3884656B1 (fr) Appareil et procédé pour observer une scène comportant une cible
FR2661583A1 (fr) Systeme opto-electronique d&#39;analyse d&#39;images video obtenues par balayage d&#39;une barrette detectrice.
FR2609817A1 (fr) Procede et dispositif de prise de vue a grande profondeur de champ
EP0604245B1 (fr) Procédé de détection d&#39;apparition d&#39;objets ponctuels dans une image
EP1698166A1 (fr) Equipement, procede et accessoire anti-eblouissement, systeme d&#39;imagerie dynamique lumineuse augmentee
EP2176633A2 (fr) Procede d&#39;estimation d&#39;au moins une deformation du front d&#39;onde d&#39;un systeme optique ou d&#39;un objet observe par le systeme optique et dispositif associe
WO1993019376A1 (fr) Procede et dispositif de mesure optique des dimensions ou de la vitesse d&#39;un objet en mouvement dans un fluide
EP0457414B1 (fr) Dispositif de détection d&#39;objets dans une séquence d&#39;images
EP1095358B1 (fr) Procede de modelisation d&#39;objets ou de scenes 3d
FR3048800A1 (fr) Procede de traitement d&#39;images
CN117091699A (zh) 一种基于融合光学可调滤光片及光谱成像系统
FR2673794A1 (fr) Dispositif de correction de defauts pour systemes d&#39;imagerie.
EP1426901B1 (fr) Procédé pour détecter des cibles ponctuelles et système de veille mettant en oeuvre ce procédé de détection de cibles
FR3083305A1 (fr) Viseur optronique et plate-forme associee

Legal Events

Date Code Title Description
ST Notification of lapse

Effective date: 20120831