FR3142247A1 - Procédé de détermination de positions et d'orientations par un système optronique dans une scène,système optronique et véhicule associés - Google Patents

Procédé de détermination de positions et d'orientations par un système optronique dans une scène,système optronique et véhicule associés Download PDF

Info

Publication number
FR3142247A1
FR3142247A1 FR2212082A FR2212082A FR3142247A1 FR 3142247 A1 FR3142247 A1 FR 3142247A1 FR 2212082 A FR2212082 A FR 2212082A FR 2212082 A FR2212082 A FR 2212082A FR 3142247 A1 FR3142247 A1 FR 3142247A1
Authority
FR
France
Prior art keywords
orientation
optronic system
scene
image
panoramic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
FR2212082A
Other languages
English (en)
Inventor
Alain Le Meur
Alain Simon
François CALLET
Jean-Clément DEVAUX
Pascal JEROT
Arnaud Beche
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thales SA
Original Assignee
Thales SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thales SA filed Critical Thales SA
Priority to FR2212082A priority Critical patent/FR3142247A1/fr
Priority to PCT/EP2023/082501 priority patent/WO2024110445A2/fr
Publication of FR3142247A1 publication Critical patent/FR3142247A1/fr
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/005Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/02Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by astronomical means
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/04Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by terrestrial means
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/16Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/16Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves
    • G01S5/163Determination of attitude
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Electromagnetism (AREA)
  • Astronomy & Astrophysics (AREA)
  • Image Processing (AREA)
  • Navigation (AREA)

Abstract

Procédé de détermination de positions et d’orientations par un système optronique dans une scène, système optronique et véhicule associés La présente invention concerne un procédé de détermination d’au moins une position et d’au moins une orientation par un système optronique (18) dans une scène (10), la scène (10) comprenant des éléments de référence (12) de coordonnées géographiques connues, le procédé comprenant une phase d’initialisation comprenant les étapes de : acquisition d’une donnée panoramique de la scène (10) par un imageur omnidirectionnel, affichage de la donnée panoramique sur un élément de visualisation,collecte de données de référence pour au moins trois éléments de référence (12) de la scène (10), et détermination d’une position et d’une orientation, dites position approchée et orientation approchée, du système optronique (18) en fonction des données de référence mémorisées pour les au moins trois éléments de référence (12). Figure pour l'abrégé : 1

Description

Procédé de détermination de positions et d’orientations par un système optronique dans une scène, système optronique et véhicule associés
La présente invention concerne un procédé de détermination d’au moins une position et d’au moins une orientation par un système optronique dans une scène. La présente invention porte aussi sur un tel système optronique et un véhicule associé.
Le combat collaboratif, apanage des forces armées modernes, vise à partager la situation tactique à l’ensemble des acteurs du théâtre d’opérations grâce à l’info-valorisation. La première information à partager entre les acteurs est la position de chacun.
Depuis les années 90, l’utilisation des systèmes de positionnement par satellites (GNSS pour Géolocalisation et Navigation par un Système de Satellites) s’est généralisée. Les systèmes GNSS (Global Navigation Satellite System) recouvrent les GPS (de l’anglais « Global Positioning System » pouvant se traduire en français par « Géo-positionnement par satellites ») et d’autres constellations comme GLONASS, GALILEO, BEIDOU.
Néanmoins, de tels systèmes sont susceptibles d’être brouillés ou leurrés, ce qui ne permet pas de les utiliser de manière fiable. On parle à ce sujet de « GNSS denied », c’est-à-dire de déni de service à l’utilisation de la localisation par satellite. En outre, il a été démontré qu’il était possible de détruire un satellite en orbite, et donc les services s’appuyant sur des constellations de plusieurs satellites. Enfin, les systèmes GNSS ne fonctionnent pas dès lors que la puissance des signaux devient trop faible, par exemple à l’intérieur de bâtiments ou à couvert.
On en revient donc à l’utilisation de solutions classiques de navigation, notamment par le biais d’une centrale inertielle ou par l’utilisation d’une carte et d’un compas de relèvement magnétique manuel ou numérique.
En particulier, l’utilisation d’une centrale inertielle permet après un positionnement initial d’entretenir une position courante en mesurant tous les déplacements du porteur. Ce système demande tout de même un recalage régulier par un moyen externe (typiquement un recalage par GPS) pour réduire les dérives. De plus sa qualité sur terre se dégrade avec l’augmentation de la latitude et dans un environnement à plus faible gravité.
L’utilisation d’une carte et d’un compas de relèvement magnétique manuel ou numérique reste encore le moyen le plus rustique de se positionner. Il implique de sortir du véhicule pour éviter de biaiser la mesure du champ par les masses métalliques de l’engin et également de montrer une certaine technicité. Ce moyen est donc long, fastidieux et risqué car nécessitant de s’exposer à de potentielles menaces extérieures, et en outre reste peu précis (positionnement à quelques dizaines de mètres, utilisation du Nord Magnétique nécessitant des corrections de déclinaison).
Il existe donc un besoin pour un système optronique permettant de déterminer des positions et orientations de manière plus précise et robuste.
A cet effet, la présente description a pour objet un procédé de détermination d’au moins une position et d’au moins une orientation par un système optronique dans une scène, la scène comprenant des éléments de référence de coordonnées géographiques connues, le système optronique comprenant les éléments suivants intégrés dans le système optronique :
  • un imageur omnidirectionnel propre à acquérir des images panoramiques de la scène, les images panoramiques étant formées de pixels repérés par des coordonnées pixels,
  • une mémoire dans laquelle est mémorisé, pour au moins chaque élément de référence de la scène, un indicateur représentatif dudit élément de référence associé aux coordonnées géographiques dudit élément de référence,
  • un élément de visualisation des indicateurs mémorisés dans la mémoire et des images panoramiques acquises par l’imageur omnidirectionnel,
  • une unité de calcul,
le procédé étant mis en œuvre par les éléments intégrés dans le système optronique et comprenant une phase d’initialisation comprenant les étapes de :
  • acquisition d’une image panoramique ou d’un flux d’images panoramiques de la scène par l’imageur omnidirectionnel, l’image panoramique ou le flux d’images panoramiques étant appelés donnée panoramique,
  • affichage de la donnée panoramique sur l’élément de visualisation,
  • collecte de données de référence pour au moins trois éléments de référence de la scène, l’étape de collecte comprenant pour chacun des au moins trois éléments de référence :
    • l’acquisition, par l’unité de calcul, des coordonnées d’au moins un pixel de la donnée panoramique représentatif de l’élément de référence considéré,
    • la détermination, par l’unité de calcul, d’une orientation pour l’élément de référence considéré en fonction des coordonnées pixels du au moins un pixel pointé,
    • le pointage, sur l’élément de visualisation, parmi les indicateurs mémorisés, d’un indicateur représentatif de l’élément de référence considéré,
    • l’acquisition, par l’unité de calcul, des coordonnées géographiques associées à l’indicateur pointé,
    • la mémorisation d’une donnée, dite de référence, comprenant l’orientation déterminée et les coordonnées géographiques acquises pour l’élément de référence considéré,
  • détermination d’une position et d’une orientation, dites position approchée et orientation approchée, du système optronique en fonction des données de référence mémorisées pour les au moins trois éléments de référence.
Selon d’autres aspects avantageux de l’invention, le procédé comprend une ou plusieurs des caractéristiques suivantes, prises isolément ou suivant toutes les combinaisons techniquement possibles :
- la phase d’initialisation comprend une étape de détermination de l’orientation approchée du Nord Géographique et/ou du Nord Cartographique en fonction des données de référence mémorisées pour les au moins trois éléments de référence ;
- la phase d’initialisation comprend une étape de détermination de la pose approchée du système optronique en fonction de l’orientation approchée déterminée, et du roulis et du tangage de l’imageur omnidirectionnel dans le repère géographique local, la pose approchée comprenant la position approchée et l’attitude approchée ;
- le roulis et le tangage de l’imageur omnidirectionnel dans le repère géographique local sont obtenus par une mesure en provenance d’un appareil de mesure, tel qu’un inclinomètre ou une centrale inertielle, ou sont obtenus d’après les seules informations image en fonction de la position approchée du système optronique et des indicateurs de référence mémorisés dans la mémoire ;
- le système optronique comprend un imageur à champ réduit orientable et muni d’un zoom, l’imageur à champ réduit étant propre à acquérir des images de la scène, dites images petit champ, avec un champ de vision variable inférieur à 360°, les images petit champ ayant une résolution supérieure à la résolution des images panoramiques acquises par l’imageur omnidirectionnel, lors de l’étape de collecte, l’acquisition des coordonnées de pixels représentatifs d’au moins un élément de référence étant mise en œuvre de la manière suivante :
  • l’acquisition d’une première image petit champ de la scène par l’imageur à champ réduit, la première image petit champ étant une image zoomée d’une portion de la scène,
  • l’affichage de la première image petit champ sur l’élément de visualisation,
  • le pointage, sur l’élément de visualisation, d’au moins un pixel imageant l’élément de référence considéré sur la première image petit champ pour obtenir des coordonnées pixel,
  • l’acquisition d’une deuxième image petit champ de la scène par l’imageur à champ réduit, la deuxième image petit champ étant une image dézoomée comprenant au moins une partie de la portion de scène imagée sur la première image petit champ, l’imageur à champ réduit ayant une orientation sensiblement égale à l’orientation correspondant à l’acquisition de la première et de la deuxième image petit champ,
  • la détermination des coordonnées pixels d’au moins un pixel de la deuxième image petit champ correspondant au pixel pointé sur la première image petit champ, et
  • l’acquisition des coordonnées pixel d’au moins un pixel de l’image panoramique correspondant à l’un des pixels de la deuxième image petit champ dont les coordonnées pixels ont été déterminées ;
- le procédé comprend une phase d’optimisation de la position approchée et de l’orientation approchée déterminées, la phase d’optimisation comprenant :
  • la répétition de l’étape de collecte de données de référence de la phase d’initialisation pour d’autres éléments de référence de sorte à obtenir des données de référence pour un nombre d’éléments de référence strictement supérieur à trois, et
  • la détermination d’une position et d’une orientation, dites position optimisée et orientation optimisée, du système optronique en fonction de l’ensemble des données de référence mémorisées, la position optimisée ayant une précision supérieure à la précision de la position approchée, l’orientation optimisée ayant une précision supérieure à la précision de l’orientation approchée,
  • de préférence, la détermination d’une l’orientation optimisée du Nord Géographique et/ou Nord Cartographique en fonction de l’ensemble des données de référence mémorisées ;
- le procédé comprend une phase de mise à jour d’une position déterminée pour le système optronique lors d’un déplacement du système optronique, la phase de mise à jour comprenant les étapes de :
  • mise en place d’un suivi automatique du déplacement, sur la donnée panoramique, des éléments de référence correspondant aux données de référence mémorisées,
  • mise à jour des données de référence en fonction des coordonnées pixels des pixels imageant les éléments de référence suivis et des données de référence précédentes, et
  • mise à jour de la au moins une position et de l’au moins une orientation du système optronique en fonction des données de référence mises à jour ;
- le procédé comprend lors de la phase de mise à jour, la détermination de la vitesse de déplacement du système optronique en fonction de la position courante déterminée, de la position précédente et de la datation desdites informations, pour l’établissement d’un suivi de navigation ;
- le système optronique est déployé sur une plateforme conjointement avec un instrument de navigation, tel qu’une centrale inertielle, le procédé comprenant une phase de recalage de l’instrument de navigation en fonction d’une position déterminée par le système optronique ;
- chaque indicateur mémorisé dans la mémoire est associé à une catégorie relative au type de l’élément de référence correspondant, lors de l’étape de collecte de données de référence, le pointage d’un indicateur mémorisé dans la mémoire comprenant :
  • l’affichage sur l’élément de visualisation des indicateurs mémorisés dans la mémoire, et
  • la mise en évidence sur l’élément de visualisation des indicateurs dont la catégorie correspond au type de l’élément de référence considéré ;
- lors de l’étape de collecte de données de référence, au moins un élément de référence considéré comprend une structure rectiligne, l’acquisition des coordonnées pixels de pixels représentatifs de l’élément de référence sur la donnée panoramique étant réalisée par pointage sur l’élément de visualisation d’un segment de droite représentatif d’une portion de la structure rectiligne de l’élément de référence considéré ;
- une solution préliminaire, comprenant une position préliminaire et une attitude préliminaire, a été obtenue pour le système optronique, l’étape d’acquisition des coordonnées d’au moins un pixel de la donnée panoramique, représentatif de l’élément de référence considéré, comprenant la détermination de zone(s) de recherche, sur la donnée panoramique, du au moins un pixel à acquérir, en fonction de la solution préliminaire et des coordonnées géographiques des éléments de référence, et l’affichage de la ou des zones de recherche déterminées sur la donnée panoramique ;
- lors de la phase d’optimisation la détermination de la position optimisée et de l’orientation optimisée du système optronique est aussi fonction des coordonnées pixels sur la donnée panoramique d’un pixel imageant un corps céleste et de la date et de l’heure d’acquisition de la donnée panoramique ;
- l’acquisition des coordonnées de chaque pixel sur la donnée panoramique est associée à une incertitude d’acquisition, dite première incertitude, le pointage de chaque élément de référence sur l’élément de visualisation est associé à une incertitude de pointage, dite deuxième incertitude, chaque coordonnée géographique est associée à une incertitude sur ladite coordonnée géographique, dite troisième incertitude, la phase de détermination d’une position approchée et d’une attitude approchée du système optronique comprenant l’estimation d’une incertitude sur la position approchée et sur l’orientation approchée déterminées en fonction au moins de la première, de la deuxième et de la troisième incertitude.
La présente description concerne, en outre, un système optronique de détermination d’au moins une position et d’au moins une orientation par un système optronique dans une scène, la scène comprenant des éléments de référence de coordonnées géographiques connues, le système optronique (comprenant des éléments intégrés dans ledit système optronique et configurés pour mettre en œuvre un procédé tel que décrit précédemment, les éléments intégrés comprenant au moins les éléments suivants :
  • un imageur omnidirectionnel propre à acquérir des images panoramiques de la scène, les images panoramiques étant formées de pixels repérés par des coordonnées pixels,
  • une mémoire dans laquelle est mémorisé, pour au moins chaque élément de référence de la scène, un indicateur représentatif dudit élément de référence associé aux coordonnées géographiques dudit élément de référence,
  • un élément de visualisation des indicateurs mémorisés dans la mémoire et des images panoramiques acquises par l’imageur omnidirectionnel, et
  • une unité de calcul.
La présente description concerne également un véhicule, tel qu’un véhicule terrestre, comprenant un système optronique selon le deuxième aspect de l’invention.
D’autres caractéristiques et avantages de l’invention apparaîtront à la lecture de la description qui suit de modes de réalisation de l’invention, donnée à titre d’exemple uniquement, et en référence aux dessins qui sont :
- , une représentation schématique d’une scène comprenant des éléments de référence (amers), ainsi que des objets de coordonnées inconnues, un système optronique intégré dans un véhicule est également présent sur la scène,
- , une représentation schématique d’un exemple d’un système optronique comprenant des éléments intégrés dans ledit système,
- , un organigramme d’un exemple de mise en œuvre d’un procédé de détermination de positions et d’orientations dans une scène,
- , un exemple d’un graphique illustrant des transformations de changement de repère, et
- , un exemple d’un graphique illustrant des angles et composantes d’un vecteur entre deux repères.
Dans la description qui suit, on désigne par orientation absolue (géographique) d'un objet dans une scène, le vecteur joignant le système à l'objet ; la direction associée étant la droite supportant ce vecteur. Cette orientation absolue est caractérisée par des angles exprimés par rapport à une référence géographique. Les plus utilisés sont l’angle d’azimut qui exprime l’orientation dans un plan localement horizontal (tangent à l’ellipsoïde associé au géoïde) par rapport au méridien géographique local et l’angle d’élévation (ou angle d’inclinaison) qui exprime l’orientation dans un plan vertical, par rapport au plan localement horizontal. Un compas permet typiquement de mesurer un azimut. Un inclinomètre permet typiquement de mesurer une élévation. Une orientation relative est définie par rapport à une autre orientation (c’est-à-dire un écart angulaire entre deux orientations), caractérisée par les angles de gisement dans le plan horizontal et de site dans le plan vertical. Un goniomètre permet typiquement de mesurer un gisement et un site.
On qualifie par attitude d'un élément, les informations permettant d'orienter totalement l'élément dans un repère couvrant les 3 dimensions de l'espace géographique (par exemple de manière minimale avec les 3 angles d'Euler roulis, tangage et lacet).
Une scène 10 est illustrée à titre d’exemple sur la . Une scène désigne un théâtre d’opérations, c’est-à-dire le lieu où se déroule une action. La scène est donc un espace étendu avec des dimensions suffisantes pour permettre le déroulement d’une action. La scène est typiquement un espace extérieur.
La scène 10 comprend des éléments de référence 12, aussi appelés amers ou structures de référence, ayant des coordonnées géographiques connues. La scène 10 comprend également des éléments ayant des coordonnées inconnues, aussi appelées objets 14.
Pour mettre en œuvre le procédé selon l’invention, un système optronique 18 se trouve dans la scène 10. Le système optronique 18 est donc lui aussi un objet 14 de la scène 10.
Le système optronique 18 est de préférence monté sur un véhicule terrestre 19 comme dans l’exemple de la . Le véhicule est par exemple de type militaire, tel qu’un char d’assaut. Un tel véhicule militaire est notamment adapté pour comporter une pluralité d’armes et pour protéger le ou les opérateurs installés à l’intérieur du véhicule.
Avantageusement, un système de navigation, tel qu’une centrale inertielle, est aussi monté sur le véhicule.
Chaque élément de référence 12 est un objet fixe et remarquable de la scène 10. Les coordonnées (latitude, longitude) de chaque élément de référence 12 sont connues. Optionnellement, l’altitude de chaque élément de référence 12 est aussi connue.
Les éléments de référence 12 sont par exemple des points appartenant aux éléments suivants : une construction (bâtiment, clocher, phare, route, pont, etc.) dont on peut retrouver les coordonnées sur une ortho-image d’origine satellitaire ou aéroportée ou une carte topographique et un élément naturel (montagne, rocher, sommet d’une colline, végétation, arbre, etc.) dont on peut retrouver les coordonnées sur une ortho-image d’origine satellitaire ou aéroportée. Dans l’exemple illustré par la , les éléments de référence 12 sont des constructions et des arbres.
Chaque autre élément de la scène 10 différent d’un amer est un objet 14 de position inconnue. Dans l’exemple illustré par la , les objets 14 sont des véhicules, ainsi que le système optronique 18 lui-même. L’homme du métier comprendra que le terme « objet » est utilisé au sens large, et comprend aussi des individus présents dans la scène 10.
Le système optronique 18 comprend des éléments intégrés dans ledit système optronique 18. Par le terme « intégré », il est entendu que les éléments sont incorporés physiquement et logiciellement dans ledit système optronique 18. De tels éléments forment donc un seul bloc dans le système optronique 18.
Les éléments intégrés dans le système optronique 18 présentés en comprennent au moins les éléments suivants : un imageur omnidirectionnel 20, une mémoire 22, un élément de visualisation 24 et une unité de calcul 28. Optionnellement, le système optronique 18 comprend, en outre, un imageur à champ réduit 29 et un module de mesure d’attitudes 30.
L’imageur omnidirectionnel 20 (aussi désigné par « senseur » dans la description) est propre à acquérir des images panoramiques de la scène 10. Les images natives acquises par l’imageur omnidirectionnel peuvent être ré-échantillonnées dans une géométrie ou projection spécifique ; l’image résultante est indifféremment qualifiée d’image panoramique dans la suite. Les images panoramiques sont formées de pixels repérés par des coordonnées pixels. Les pixels sont de préférence tous associés à une même valeur angulaire.
Un imageur est dit omnidirectionnel dès lors que l’imageur est propre à fournir des images sur 360° en gisement. La plage d’élévation des objets dans l’image est par exemple comprise entre 75° et -15°.
Avantageusement, l’imageur omnidirectionnel 20 est propre à fonctionner dans plusieurs bandes spectrales, par exemple, dans le visible et dans l’infra-rouge.
L’imageur omnidirectionnel 20 est, par exemple, formé par une seule caméra. Cela permet d’avoir une cohérence spatiale et une cohérence temporelle optimales pour les images acquises.
En variante, l’imageur omnidirectionnel 20 est formé par un ensemble de caméras.
Dans un exemple, l’imageur omnidirectionnel 20 est le capteur ANTARES développé par THALES.
Des données sont mémorisées dans la mémoire 22. Les données comprennent notamment, pour au moins chaque point de référence 12 de la scène 10, un indicateur représentatif dudit élément de référence 12 associé aux coordonnées géographiques dudit élément 12. Les indicateurs sont typiquement des éléments visuels affichables sur l’élément de visualisation 24 et permettant d’identifier les éléments de référence 12 correspondant.
Les indicateurs sont, par exemple, des symboles, des données textuelles (nom de l’élément de référence 12) ou encore des données géographiques, aussi appelées produits géographiques. Les produits géographiques comprennent un ou plusieurs des éléments suivants : une cartographie, une ortho-image (d’origine satellitaire ou aéroportée), un modèle numérique de terrain (MNT) ou un modèle numérique d’élévation (MNE), des éphémérides et catalogue astrométrique. En particulier le MNT est une donnée interne permettant d’aller chercher l’altitude d’un point de coordonnées connues en latitude et longitude, ou de mesurer une distance du senseur à la scène par lancer de rayon. Les éphémérides et catalogues astrométriques permettent de déterminer précisément les orientations d’un grand nombre d'objets célestes dans un repère géocentrique.
Dans le cas où les indicateurs sont des produits géographiques, le système optronique 18 comprend, en outre, un système d’information géographique (SIG) qui regroupe ces produits (les données) et le(s) logiciel(s) permettant de les exploiter (visualiser, manipuler, etc). Avantageusement, le système d’information géographique intègre des fonctionnalités permettant de modifier l’affichage, par exemple, de :
  • centrer une image affichée sur une position (à l’aide d’un actionneur, tel qu’un bouton, une manette, un pointeur de souris, un stylet, un appui tactile, un eye tracker, etc.),
  • modifier l’échelle ou zoom d’affichage des données (augmentation ou diminution du zoom) quel qu’en soit le moyen (molette de souris, appui tactile, manette / boutons, eye tracker, etc.),
  • recharger automatiquement les données en cas de modification du centre du produit géographique (carte, ortho-image…) ou du zoom d’affichage,
  • pointer un élément de la carte pour en obtenir les coordonnées géographiques (à l’aide d’un actionneur), ou
  • afficher en surcouche du produit géographique (en sur-impression) des calques thématiques contenant différents types d’informations (par exemple l’intervisibilité terrain calculée depuis le poste d’observation).
Les coordonnées géographiques des éléments de référence 12 sont, par exemple, sous la forme de métadonnées associées auxdits éléments de référence 12. Les coordonnées géographiques sont, par exemple, exprimées par une donnée de latitude, une donnée de longitude et optionnellement une donnée d’altitude (fournie par le modèle numérique de terrain par exemple). Les erreurs de précision associées à ces données sont aussi fournies.
Dans un exemple, seuls les indicateurs des éléments de référence 12 sont mémorisés dans la mémoire 22, l’ensemble des indicateurs formant alors un carnet de références.
Un tel carnet de références est propre à être complété par l’opérateur, par exemple, lors d’une phase de préparation de mission. Cette phase de préparation de mission peut être réalisée :
  • soit directement avec le système optronique 18 qui permet de créer des références et de saisir leurs coordonnées,
  • soit via un système de préparation de mission externe. Dans ce cas, le système optronique 18 dispose des moyens d‘importation des données (clé usb, wifi, etc.).
Ainsi, l’homme du métier comprendra que les références sont soit prédéfinies (en préparation de mission), soit élaborées in situ, en les sélectionnant sur le système d’information géographique (SIG) ou en saisissant directement leurs coordonnées.
Par exemple, les positions de l’élément de référence 12 sont relevées par l’opérateur sur un produit géographique tel que défini précédemment et enregistrées sous forme de liste (carnet de références) dans la mémoire 22.
Dans un autre exemple, les indicateurs mémorisés dans la mémoire 22 sont des points géo-référencés dans le système d’information géographique, qui fournit des données de latitude, de longitude (et d’altitude si le modèle numérique de terrain est embarqué par exemple).
De préférence, la mémoire 22 comprend, outre les indicateurs des éléments de référence 12, des indicateurs de tous les points géo-référencés sur les produits géographiques mémorisés. En d’autres termes, une donnée géo-référencée (comme une ortho image ou une carte) est une donnée dont chaque élément (pixel, élément) est associé à des coordonnées géographiques.
L’élément de visualisation 24 est propre à afficher des images en provenance de l’imageur omnidirectionnel 20 et/ou des données mémorisées dans la mémoire 22, tels que les indicateurs des éléments de référence 12.
L’élément de visualisation 24 est, par exemple, un afficheur, tel qu’un écran OLED.
L’unité de calcul 28 est propre à recevoir des données en provenance des autres éléments intégrés dans le système optronique 18, notamment des images en provenance de l’imageur omnidirectionnel 20 et de l’imageur à champ réduit 29, des données mémorisées dans la mémoire 22 et des mesures effectuées par le module de mesure d’attitudes 30, ou d’instruments de navigation externes, par exemple, embarqués dans le véhicule sur lequel est monté le système optronique 18.
L’unité de calcul 28 est, par exemple, un processeur.
Dans un exemple, l’unité de calcul 28 est en interaction avec un produit-programme d’ordinateur qui comporte un support d’informations. Le support d’informations est un support lisible par l’unité de calcul 28.
Le support lisible d’informations est un médium adapté à mémoriser des instructions électroniques et capable d’être couplé à un bus d’un système informatique. A titre d’exemple, le support lisible d’informations est un disque optique, un CD-ROM, un disque magnéto-optique, une mémoire ROM, une mémoire RAM, une mémoire EPROM, une mémoire EEPROM, une carte magnétique, une carte optique ou une clé USB. Sur le support d’informations est mémorisé le produit-programme d’ordinateur comprenant des instructions de programme.
Le programme d’ordinateur est chargeable sur l’unité de calcul 28 et entraîne la mise en œuvre d’un procédé de détermination de positions et d’orientations dans une scène 10, lorsque le programme d’ordinateur est mis en œuvre sur l’unité de calcul 28 comme cela sera décrit dans la suite de la description.
L’imageur à champ réduit 29 est orientable (en site et en gisement) et muni d’un zoom.
L’imageur à champ réduit 29 est propre à acquérir des images de la scène 10, dites images petit champ, avec un champ de vision variable inférieur à 360°. Le champ de vision variable dépend du zoom et est typiquement compris entre 2° et 20°.
Les images petit champ ont typiquement une résolution supérieure à la résolution des images panoramiques acquises par l’imageur omnidirectionnel 20.
Avantageusement, l’imageur à champ réduit 29 est propre à fonctionner dans plusieurs bandes spectrales, par exemple, dans le visible et dans l’infra-rouge.
L’imageur à champ réduit 29 est, par exemple, une caméra pan tilt zoom (PTZ).
Le module de mesure d’attitudes 30 est propre à effectuer des mesures relatives aux éléments de référence 12 ou aux objets 14 de la scène 10.
De préférence, le module de mesure d’attitudes 30 comprend au moins un élément, tel qu’un capteur, choisi parmi : un goniomètre, un télémètre, un inclinomètre et un système de datation (milliseconde, seconde, jour, mois, année). Le télémètre est, par exemple, un télémètre laser.
Le fonctionnement du système optronique 18 entraînant la mise en œuvre d’un procédé de détermination de positions et d’orientations dans une scène 10 va maintenant être décrit en référence à l’organigramme de la . Le procédé de détermination est mis en œuvre par les éléments intégrés dans le système optronique 18.
INITIALISATION (PHASE 100)
Le procédé de détermination comprend une phase 100 d’initialisation à l’issue de laquelle il est obtenu une position approchée et une orientation approchée du système optronique 18, et éventuellement une attitude approchée. La phase d’initialisation comprend les étapes suivantes.
Acquisition d’une donnée panoramique (étape 110)
La phase d’initialisation comprend une étape 110 d’acquisition d’une image panoramique ou d’un flux (vidéo, par exemple temps réel à la fréquence image) d’images panoramiques de la scène 10 par l’imageur omnidirectionnel 20. L’image panoramique ou le flux d’images panoramiques sont appelés donnée panoramique dans la suite de la description.
Dans le cas de l’acquisition d’une image panoramique, l’acquisition peut avoir lieu porteur à l’arrêt ou en mouvement. La vitesse du mouvement doit être compatible du temps d’intégration de l’imageur omnidirectionnel 20 pour ne pas introduire de flou dans l’image panoramique. Par exemple une vitesse de l’ordre de 50km/h peut être atteinte avec un temps d’intégration de quelques millisecondes. En option, si le porteur est muni d’une centrale inertielle, simultanément à l’acquisition de l’image panoramique, on fera l’acquisition de la position entretenue par la centrale inertielle.
Dans le cas de l’acquisition d’un flux, l’acquisition a lieu porteur à l’arrêt.
Affichage d’une donnée panoramique (étape 120)
La phase d’initialisation comprend une étape 120 d’affichage de la donnée panoramique sur l’élément de visualisation 24.
Collecte de données de référence (étape 130)
La phase d’initialisation comprend une étape 130 de collecte de données de référence pour au moins trois éléments de référence 12 (amer) de la scène 10.
Pour chacun des au moins trois éléments de référence 12, l’étape de collecte est mise en œuvre de la manière suivante.
Acquisition de coordonnées pixel sur la donnée panoramique
L’étape de collecte 130 comprend l’acquisition, par l’unité de calcul 28, des coordonnées d’au moins un pixel de la donnée panoramique représentatif de l’élément de référence 12 considéré.
Dans un exemple de mise en œuvre, l’acquisition est réalisée par pointage sur l’élément de visualisation 24, du au moins un pixel de la donnée panoramique représentatif de l’élément de référence 12 considéré. Le pointage est, par exemple, effectué par un opérateur. En variante, le pointage est réalisé automatiquement (via un algorithme de reconnaissance automatique d’amers par exemple). En variante, le pointage est réalisé semi-automatiquement (par exemple par une pré-sélection algorithmique, suivie d’une validation par l’opérateur).
De préférence, lorsque la donnée panoramique est un flux d’images panoramiques, les éléments de référence 12 sont pointés sur la même image panoramique (donnant ainsi à la fois une cohérence temporelle et une cohérence spatiale). En variante, les éléments de référence 12 sont pointés dans le flux d’images (dans ce cas une erreur de positionnement due aux vibrations du véhicule pourrait diminuer la précision de la mesure).
Dans un autre exemple de mise en œuvre, lorsque le système optronique 18 comprend un imageur à champ réduit 29, l’acquisition est réalisée de la manière suivante :
- acquisition d’une première image petit champ de la scène 10 par l’imageur à champ réduit, la première image petit champ étant une image zoomée d’une portion de la scène 10,
- l’affichage de la première image petit champ sur l’élément de visualisation 24,
- le pointage, sur l’élément de visualisation 24, d’au moins un pixel imageant l’élément de référence 12 considéré sur la première image petit champ pour obtenir des coordonnées pixel,
- l’acquisition d’une deuxième image petit champ de la scène 10 par l’imageur à champ réduit, la deuxième image petit champ étant une image dézoomée comprenant au moins une partie de la portion de scène 10 imagée sur la première image petit champ, l’imageur à champ réduit ayant une orientation voisine (sensiblement égale à quelques degrés près, par exemple à 5 degrés près) de celle correspondant à l’acquisition de la première et de la deuxième image petit champ. En pratique, plus de deux images peuvent être acquises avec l’imageur à champ réduit, on dispose alors d’une vidéo sous forme d’une rampe de zoom allant du plus petit champ vers un grand champ plus proche de celui du senseur omnidirectionnel.
- la détermination des coordonnées pixels d’au moins un pixel de la deuxième image petit champ correspondant au pixel pointé sur la première image petit champ. Cela est réalisé, de préférence de manière automatique, par une mise en correspondance des pixels des première et deuxième images petit champ.
Par exemple, pour ces images acquises à échelles différentes mais dans une même bande spectrale et des orientations semblables, des primitives ponctuelles de type point avec des descripteurs de type SIFT ou KAZE permettent d’établir des correspondances entre les images. Afin de rejeter automatiquement les mauvaises correspondances un algorithme de type RANSAC (RANdom SAmple Consensus de Fischler & Bolles 1981) est utilisé. Le modèle de prise de vue des images est un modèle perspectif ou sténopé dont la focale varie pour chaque image. La valeur de focale est connue à priori et peut être affinée au moyen d’un algorithme d’ajustement de faisceau généralisé à une focale variable pouvant intégrer plusieurs images (au moins 2) acquises avec focale variable et permettant de déterminer l’attitude relative des images de la rampe de zoom.
- l’acquisition des coordonnées pixel d’au moins un pixel de l’image panoramique correspondant à l’un des pixels de la deuxième image petit champ dont les coordonnées pixels ont été déterminées.
Par exemple, pour rattacher l’image plus grand champ de l’imageur à champ réduit à une partie de l’imageur omnidirectionnel, le même type de primitive ponctuelle et les descripteurs précédents peut être utilisés dès lors que les 2 senseurs disposent de détecteurs avec des bandes spectrales voisines ; les primitives orientées de l’imageur omnidirectionnel sont insérés à l’ajustement de faisceau pour conférer une attitude absolue à l’ensemble de la séquence des images de la rampe de zoom de l’imageur à champ réduit. On déduit ainsi les orientations absolues de l’ensemble des objets visibles dans les images de l’imageur à champ réduit. Si les 2 senseurs disposent de détecteurs à bande spectrales distinctes (exemple IR et couleur visible).
Dans un exemple de mise en œuvre, un algorithme de reconnaissance automatique est mis en œuvre pour afficher automatiquement sur la donnée panoramique les indicateurs mémorisés dans la mémoire 22 lorsque les éléments de référence 12 correspondants sont reconnus sur la donnée panoramique.
Dans un exemple de mise en œuvre, une solution préliminaire, comprenant une position préliminaire (approchée) et une attitude préliminaire (approchée), a été obtenue pour le système optronique. La solution préliminaire a, par exemple, été obtenue par un dispositif GNSS (éventuellement en fonctionnement dégradé), ou lors d’un entretien de la position et de l’attitude du système optronique par une centrale inertielle embarquée dans le véhicule ou dans le système optronique, ou encore par un calcul approché précédent. Dans ce cas, il est déterminé, en fonction de la solution préliminaire et des coordonnées géographiques des éléments de références, les éléments de référence dans le champ de vision de l’imageur omnidirectionnel, ainsi qu’une ou des zones de recherche de ces éléments de référence sur la donnée panoramique. La zone de recherche est une zone (par exemple une ellipse ou une courbe matérialisant l’azimut prédit pour la référence) sur la donnée panoramique à privilégier pour la recherche de l’élément de référence. En variante, il est déterminé et affiché une zone de recherche seulement pour l’élément de référence considéré en fonction de la solution préliminaire et des coordonnées géographiques dudit élément de référence.
Par exemple, les sous-étapes suivantes sont mises en œuvre pour identifier les éléments de référence 12 :
  • Extraction des coordonnées ellipsoïdales (longitude, latitude) d’un amer après désignation sur une ortho-image embarquée au moyen des métadonnées de celle-ci,
  • Calcul de l’altitude de l’amer d’après ses coordonnées planimétriques ; en utilisant un modèle numérique de terrain (MNT) embarqué, a priori ses coordonnées au sol pour un MNT courant de niveau 2 mais pouvant être son altitude effective si le MNT a la nature de modèle numérique d’élévation (MNE) ou de sursol (MNS) ;
  • Calcul de l’orientation spatiale liant la position de l’amer à la position du senseur approchée;
  • Calcul de visibilité au moyen du modèle numérique du terrain (MNT) dans les dimensions externes du couloir afin d’évaluer la chance de l’amer d’être visible ou masqué depuis la position du senseur ;
  • Calcul de l’orientation de l’amer dans le repère géographique local (RGL) d’après la position approchée du senseur et son attitude approchée ;
  • Affichage sur la donnée panoramique du point/pixel correspondant à cette orientation ;
  • Calcul de l’erreur sur l’orientation de l’amer dans le RGL d’après les covariances d’erreur sur les coordonnées de l’amer de la position et attitude approchées du senseur ;
  • affichage sur la donnée panoramique d’une ellipse représentative de cette covariance d’erreur afin de prioriser la recherche de l’utilisateur dans cette zone.
Dans encore un exemple, à partir d’un carnet de points d’amer, ou d’une base de données d’amer (BDDA) disposant de coordonnées 3D, les sous-étapes suivantes sont mises en œuvre :
  • Afficher l’ensemble des amers de la BDDA se trouvant dans un rayon préfixés autour de la position du senseur,
  • Calculer comme dans l’exemple précédent, les amers ayant une chance ou non d’être visibles depuis la position du senseur.
De préférence, une fois que deux amers ont été identifiés, le choix du troisième amer est effectué en matérialisant une zone d’exclusion (cercle) autour de laquelle le troisième amer n’est de préférence pas recherché, et en affichant, à proximité de chaque amer d’une base de données d’amers, la précision (CE90) qui serait obtenue pour la position en choisissant cet amer comme troisième amer. Le troisième amer est choisi parmi les amers associés à la meilleure précision, et non situés dans la zone d’exclusion. Les exemples précédents sont combinables entre eux.
Détermination d’une orientation absolue pour l’élément de référence considéré
L’étape de collecte 130 comprend la détermination, par l’unité de calcul 28, d’une orientation (absolue) pour l’élément de référence 12 considéré en fonction des coordonnées pixels du au moins un pixel pointé.
En particulier, dans un exemple, l’orientation (en site et en gisement) est obtenue en multipliant le numéro du pixel (coordonnées pixels) par la valeur angulaire du pixel. Cela est possible car les pixels sont extraits d’une image panoramique (360° en gisement) et sont chacun associés à une même valeur angulaire.
Pointage d’un indicateur pour l’élément de référence considéré
L’étape de collecte 130 comprend le pointage, sur l’élément de visualisation 24, parmi les indicateurs mémorisés, d’un indicateur représentatif de l’élément de référence 12 dans la scène 10.
Lors de cette étape, le pointage désigne l’alignement d’une référence (pointeur numérique, stylet) sur l’indicateur de l’élément de référence 12 ou la sélection de l’élément de référence 12 parmi une liste (carnet de références).
Dans un exemple de mise en œuvre, l’étape de pointage 130 comprend l’affichage sur l’élément de visualisation 24, en parallèle ou successivement ou en superposition :
- de l’image de la scène 10 comprenant l’élément de référence 12 pointé par l’imageur numérique 20, et
- des indicateurs mémorisés dans la mémoire 22.
Par exemple, lorsque l’affichage est fait en parallèle, une partie de l’élément de visualisation 24 affiche l’image de la scène 10, et une autre partie affiche les indicateurs.
Par exemple, lorsque l’affichage est fait successivement, l’image de la scène 10 d’une part, et les indicateurs d’autre part, sont susceptibles d’être affichés sur la totalité de l’élément de visualisation 24.
Par exemple, lorsque l’affichage est fait en superposition, les indicateurs des éléments de référence 12 sont affichés en superposition (approximativement) à l’image de la scène 10 (par projection dans l’espace de la scène 10).
Dans un exemple de réalisation, chaque indicateur mémorisé dans la mémoire 22 est associé à une catégorie relative au type de l’élément de référence 12 correspondant (par exemple, château d’eau, clocher, pylône électrique/téléphonique, éolienne, bâtiment, arbre caractéristique, sommet de montagne). Dans ce cas, le pointage d’un indicateur mémorisé dans la mémoire 22 comprend :
- l’affichage sur l’élément de visualisation 24 des indicateurs mémorisés dans la mémoire 22, et
- la mise en évidence sur l’élément de visualisation 24 des indicateurs dont la catégorie correspond au type de l’élément de référence 12 considéré. Par exemple, en pratique, après avoir désigné l’amer sur l’image panoramique, l’opérateur sélectionne un type d’amer (par exemple : pylône). Le système indiquera alors sur une cartographie/ortho-image (ou équivalent) toutes les positions de ce type (pylônes) du cahier d’amers (ou équivalent). Il lui suffira alors de sélectionner en cliquant dessus l’amer qui lui semble bon. Le système acquerra alors les coordonnées préalablement renseignées dans le cahier d’amers.
Dans un exemple de réalisation, lors de l’étape de collecte de données de référence, au moins un élément de référence 12 considéré comprend une structure rectiligne (ex : bâtiments en environnement urbain ou périurbain). Dans cet exemple, le pointage de 2 pixels le long de l’élément de référence 12 sur la donnée panoramique est réalisé par sélection sur l’élément de visualisation 24 d’un segment de droite représentatif d’une portion de la structure rectiligne de l’élément de référence 12 considéré, les pixels pointés étant les pixels correspondant audit segment de droite.
En particulier, dans les contextes d’environnement urbain ou périurbain, l’utilisation de segment de droites est particulièrement efficace pour à la fois identifier les structures dans l’image et dans l’ortho-image et les désigner plus rapidement sans s’attarder à rechercher un point saillant puis mettre strictement en correspondance un point de l’image avec le point correspondant de l’ortho-image. Pour leur exploitation, seule l’orientation des segments désignés importe et il n’est pas requis que leurs extrémités se correspondent deux à deux. Par ailleurs un appui de type segment a de bonnes chances de présenter une erreur de désignation dans les images plus faible que celle d’un élément ponctuel du moins dans la direction perpendiculaire au segment où il est utilisé.
Ainsi, les types de correspondances pouvant être établies par l’utilisateur sont les suivantes (ORTHO désigne une ortho-image ou équivalent, et PANO désigne une donnée panoramique) :
  • Correspondance classique entre un point (ORTHO) et un point (PANO),
  • Correspondance segment (ORTHO) avec un segment (PANO), par exemple une structure bord de route ou une direction immatérielle,
  • Correspondance entre un point (ORTHO) et un segment (PANO) comme pour une base d’un bâtiment masquée en partie sur la vue rasante de l’imageur omnidirectionnel 20, et
  • Correspondance segment (ORTHO) avec point (PANO).
L’aptitude à ne pas rechercher à mettre strictement en correspondance un point de l’ortho-image avec un point de l’image (PANO) du senseur apporte un gain en précision et en délai de désignation et ceci à plusieurs titres :
  • Moins de temps à rechercher des primitives intéressantes dans les 2 images car trouver un point marqué dans une image nécessite déjà une attention particulière sans garantie de le trouver dans l’autre image, et
  • Rapidité de désignation dans l’image car même s’il faut saisir 2 points pour définir la direction du segment, il n’est pas utile de s’appliquer à positionner le point précisément dans les 2 directions de l’image.
Ainsi, depuis un véhicule sur une route par exemple les bordures ou trottoirs constitueront des éléments de choix en la matière.
Dans un exemple de réalisation, les indicateurs mémorisés dans la mémoire 22 sont des points géo-référencés sur des données géographiques. Lors de l’étape de collecte de données de référence, le pointage d’un indicateur mémorisé dans la mémoire 22 comprend l’affichage sur l’élément de visualisation 24 des données géographiques et la mise en évidence sur les données géographiques des indicateurs mémorisés dans la mémoire 22.
Dans un autre exemple de réalisation, et une fois la position obtenue, on exploite des éphémérides afin de déterminer la direction de corps du système solaire. De jour le soleil est très souvent visible dans l’image acquise par le senseur omnidirectionnel. Son centre est extrait automatiquement dans l’image panoramique et les éphémérides permettent d’obtenir sa direction absolue. Cette information présente au moins 2 avantages d’une part améliorer la position du senseur déjà obtenue par surabondance des mesures et d’autre part d’améliorer le gisement ou l’attitude du senseur en disposant d’une direction précise équivalente à un amer à grande distance.
Les exemples précédents sont combinables entre eux.
Acquisition de coordonnées géographiques associées à l’indicateur pointé
L’étape de collecte 130 comprend l’acquisition, par l’unité de calcul 28, des coordonnées géographiques associées à l’indicateur pointé. L’acquisition des coordonnées géographiques est, par exemple, réalisée suite à la mise en œuvre d’une commande d’acquisition. La commande d’acquisition est, par exemple, une validation effectuée par un opérateur du système optronique 18, par exemple, via un actionneur.
Mémorisation de données de référence
L’étape de collecte 130 comprend la mémorisation d’une donnée, dite de référence, comprenant l’orientation déterminée et les coordonnées géographiques acquises pour l’élément de référence 12 considéré. Ainsi, dans la mémoire 22, il est associé les positions géographiques connues des éléments de référence 12 pointés avec les orientations obtenues pour lesdits éléments de référence 12 via l’imageur omnidirectionnel 20.
Détermination d’une solution approchée du système optronique (étape 140)
Dans la suite on désigne par détermination d’une solution au sens large une détermination toute ou partielle des éléments suivants :
  • une position 3D, éventuellement 2D si réduite au plan,
  • une attitude 3D, éventuellement seulement une orientation limitée au gisement si réduite au plan et
  • les précisions sur les quantités précédentes.
La phase d’initialisation 100 comprend une étape 140 de détermination, par l’unité de calcul 28, d’une position, dite position approchée, du système optronique 18 en fonction des données de référence mémorisées pour les au moins trois éléments de référence 12.
Dans un exemple de mise en œuvre, la position approchée du système optronique 18 est située à l’intersection d’arcs de cercles C1, C2. Chaque arc de cercle C1, C2 passe par les deux éléments de référence 12 d’un couple d’éléments de référence 12, qui forment les extrémités de l’arc de cercle, et son rayon est tel que tel que chaque point de l’arc de cercle C1, C2 est le sommet d’un angle (signé) ΦAC, ΦABégal à l’angle mesuré entre les deux éléments de référence 12.
En pratique cette approche utilise 3 amers chaque couple fournissant un cercle goniométrique du plan. Le lieu de position du senseur se situe à la position minimisant les distances aux 3 cercles, compte tenu des erreurs de mesures les 3 cercles ne se coupent pas en une position unique. Une fois la position obtenue, le gisement ou orientation correspondant à une colonne de l’image panoramique, s’obtient aisément comme solution d’un système linéaire. D’autre approches sont décrites dans la littérature des procédures topographiques parmi les méthodes barycentrique, de Dalembert, Italienne. Une autre approche consiste aussi à exploiter une expression analytique explicite du gisement utilisant 3 amers puis de déterminer la position comme solution d’un système linéaire.
Le choix d’une expression analytique facilite le calcul permettant de prédire l’erreur sur la position et le gisement compte tenu de la géométrie des amers (écarts angulaires), des erreurs sur les mesures de leurs coordonnées ainsi que l’erreur sur les lectures angulaires. Les lectures angulaires consistent à déterminer pour chaque amer 2 angles de gisement et d’élévation relatifs compte tenu de leurs coordonnées dans l’image du senseur omnidirectionnel.
Le gisement obtenu caractérise l’orientation absolue dans le plan de la représentation géographique utilisée. Dans le cas d’un repère géographique local on obtient l’orientation comme azimut géographique (true north) ; dans le cas d’une représentation cartographique on obtient un azimut cartographique (grid north). Quel que soit le choix de la représentation, le passage d’un azimut à l’autre se fait par ajout de la convergence locale du méridien, angle entre l’axe vertical de la projection cartographique avec le méridien local. Cette quantité pouvant se calculer sans erreur pour une position et une projection donnée.
De plus, dans la perspective de réaliser le positionnement dans un délai le plus court et dans le cas d’usage d’une caméra P&T avec télémètre, il est possible de limiter à 2 le nombre d’amers télémétrés et sans recours à un tout autre instrument de mesure que l’image PANO et de déterminer parmi les 2 solutions de position à l’intersection des 2 cercles de rayons les mesures distance s’appuyant sur les 2 amers, la bonne solution en utilisant l’équation du cercle passant par les 2 amers et la position du senseur avec un rayon fonction de la position des amers et de l’angle mesuré entre les 2 amers d’après l’image.
Détermination d’une pose approchée (position et attitude) du système optronique (étape 150)
L’orientation approchée déterminée précédemment correspond typiquement à l’angle de gisement de l’imageur omnidirectionnel 20 (et donc du système optronique 18).
Dans ce qui suit, nous détaillons l’obtention de l’attitude approchée de l’imageur omnidirectionnel 20, l’attitude comprenant outre le gisement déjà déterminé, l’assiette de l’imageur omnidirectionnel, c’est-à-dire le roulis et le tangage de l’imageur omnidirectionnel 20 dans le repère géographique local, ainsi que le raffinement de la position du système.
Lorsque l’imageur omnidirectionnel 20 n’est pas incliné par rapport à l’horizontal, l’assiette de l’imageur omnidirectionnel est nulle. Lorsque celle-ci reste inférieure à quelques degrés son influence perturbe assez peu la détermination des directions/angles et de ce fait n’altère pas la solution de position et de gisement obtenue comme indiqué précédemment.
Lorsque l’imageur omnidirectionnel 20 est incliné par rapport au plan local horizontal (typiquement véhicule incliné), l’assiette de l’imageur omnidirectionnel 20 est non nulle. L’assiette est dans ce cas déterminée par une mesure en provenance d’un appareil de mesure, tel qu’un inclinomètre ou une centrale inertielle.
En variante, si le module de mesure 30 ne comprend pas d’inclinomètre ou si les données d’attitude ne peuvent être communiquées par le porteur au système 18, la détermination de la pose du système s’effectue d’après les seules informations image/visuelle. Pour cela la phase d’initialisation 100 comprend une étape 150 de détermination, par l’unité de calcul 28, de l’attitude approchée du système optronique 18 en fonction de la position approchée du système optronique 18 et des indicateurs de référence mémorisés dans la mémoire 22. Dans ce cas, il est déterminé la transformation permettant de passer du repère de l’imageur omnidirectionnel 20 au repère géographique local , comme cela est illustré par la .
Dans un exemple de mise en œuvre, l’étape 150 de détermination de l’attitude met en œuvre une technique d’estimation de type moindres carrés batch ou un estimateur récursif de type Kalman après avoir initialisé une solution de qualité adéquate.
Plus précisément, dans un exemple de mise en œuvre, la solution algorithmique ajoute deux angles (roulis et tangage) décrivant l’assiette de l’imageur omnidirectionnel 20 dans l’espace. Les trois amers considérés permettent d’estimer les 6 paramètres (3 coordonnées de position et 3 angles d’Euler d’attitude) décrivant la pose du senseur dans l’espace. Connaissant l’harmonisation ou pose du senseur relativement au véhicule, il est possible d’en déduire la pose du véhicule après avoir estimé celle du senseur. Le calcul du présent exemple permet également de calculer une erreur théorique de la position géographique et de l’attitude.
Pour procéder, si l’on ne dispose pas d’informations d’inclinaison a priori :
  • une position approchée est obtenue avec 3 pointés image sur 3 objets de la scène 10 de référence, une position et un gisement sont ainsi obtenus avec l’une des procédures topographique mentionnée.
  • une attitude approchée du repère senseur est ensuite calculée au moyen d’un algorithme de type TRIAD par exemple, celui-ci utilise les 2 meilleures orientations de référence parmi les 3 disponibles ci-dessus.
  • Les erreurs de pointés image sont traduites en erreur d’orientation angulaire et leur prise en compte augmente celle des erreurs sur les coordonnées des amers dans les équations d’observation.
En alternative, si l’on dispose d’informations approchées sur la « planéité » du senseur autour des axes de roulis et tangage du plan horizontal grâce au module de mesure 30 ou communiquées par le porteur, en particulier disponibles au moyen de mesures accélérométriques, le calcul d’attitude approchée précédent est facultatif et l’attitude approchée est obtenue en complétant les mesure roulis et tangage du gisement.
Disposant d’une solution de pose approchée, on peut fixer le repère géographique local (RGL) sur cette position et écrire les équations d’observations sous une forme rapprochant les deux orientations suivantes :
  • une orientation de référence en espace RGL, fixée d’après les coordonnées d’un amer et la position approchée :
Où :
  • désignent les coordonnées de position du senseur, et
  • désignent les coordonnées de position de l’amer considéré.
  • une orientation en espace senseur correspondante, après désignation du pixel sur l’image :
Où :
  • désignent les coordonnées dans l’image brute du senseur omnidirectionnel,
  • désigne la fonction donnant l’azimut en repère senseur à partir des coordonnées dans l’image brute,
  • désigne la fonction donnant l’élévation en repère senseur à partir des coordonnées dans l’image brute,
  • désigne l’azimut en repère senseur, ie un azimut relatif aux axes de référence du senseur ou de l’image. Par exemple aligné à la colonne centrale de l’image brute du senseur omnidirectionnel,
  • désigne l’élévation en repère senseur. Pour un senseur horizontal, l’origine ou élévation nulle correspond à un cercle particulier de l’image brute ou une ligne particulière dans une image dite déwarpée ré-échantillonnée en géométrie cylindrique, Dans le cas général d’une base senseur non horizontale, on travaille avec l’attitude image et les axes de référence de l’attitude senseur correspondent à la colonne centrale de l’image pour l’azimut, pour l’élévation le complément à pi/2 de l’angle zénital correspondant à l’angle entre la direction du pixel considéré et l’axe vertical ascendant perpendiculaire au plan de base.
L’orientation est ensuite transformée du repère de l’espace senseur au repère RGL d’après une matrice d’attitude , dont on connait en pratique une valeur initiale approchée que l’on cherche à estimer pour améliorer la précision de l’attitude approchée.
La matrice s’obtient comme le produit de 3 rotations élémentaires autour des axes X,Y,Z d’angles Pour initialiser plusieurs approches sont possibles :
Une première solution consiste à l’initialiser en supposant que le senseur est peu incliné soit . L’angle , correspondant au gisement dans le plan horizontal, prend une valeur sur l’intervalle . Il ne peut être approché par 0. En pratique, il est initialisé à une valeur approchée obtenue d’après l’une procédure topographique précédemment indiquée. Ainsi .
Une autre solution consiste à déterminer à partir de 2 directions de référence. On utilise alors un algorithme de type TRIAD comme décrit par Bar-Itzhack en 1996.
En pratique l’origine de peut être ramenée sur celle de ; alors . L’équation d’observation sur un amer ‘ ’, s’écrit dans sous la forme :
Où :
  • est la distance de l’amer au senseur :
  • L’incrément de rotation est fixé par trois petits angles de rotation à estimer, agissant autour de chaque axe du trièdre du RGL, .
  • un vecteur représentant l’erreur angulaire entre la direction vers l’amer écrite dans le repère et celle obtenue après rotation de la direction sur l’amer dans repère par la matrice d’attitude du senseur
Dans cette expression on relève les 6 inconnues d’incrément de position et d’attitude à estimer. 2 équations sur ces 3 sont indépendantes du fait de la contrainte d’unité sur la norme des directions. Aussi, le système est résolu avec au moins 3 directions vers 3 amers dans une approche de type moindres-carrés. Une autre façon de l’exprimer consiste à considérer l’inconnue de distance à l’amer comme inconnue pour chaque mise en correspondance apportant 3 équations, soit pour chacune 2 relations indépendantes.
Dans le détail une direction en espace senseur s’obtient à partir des coordonnées images et de la connaissance de la géométrie ou architecture optique du senseur. Il peut-être préférable de ré-échantillonner l’image brute du senseur afin de faciliter l’interprétation de l’image panoramique et réduire la reconnaissance d’amer et leur désignation dans l’image puis de désigner les amers dans cette image puisqu’elle est plus naturellement interprétable en se reprochant davantage de l’aspect dans l’ortho-image mais surtout de la vison directe de l’utilisateur.
Ceci se fait par exemple au moyen d’une projection de type cylindrique avec plusieurs possibilités visant à conserver :
  • les distances ou l’échelle dans certaines orientations,
  • les angles via par exemple la projection Mercator Equatoriale,
  • les surfaces via par exemple une projection de type Healpix.
Peu importe la projection utilisée pour cette transformation reliant les coordonnées de l’image panoramique (appelée OMNI) à l’image panoramique rééchantillonée (appelée PANO) :
La transformation présente les caractéristiques suivantes :
  • cette transformation est bijective et inversive,
  • la transformation peut être échantillonnée sous forme de grille dite aussi de LUT (Look Up Table), afin de réduire et maitriser les temps de calculs
  • elle permet d’échanger avec une erreur négligeable, inférieure au demi-pixel, les pixels entre images OMNI et PANO
  • une erreur de désignation dans l’image PANO caractérisée par la covariance se traduit en erreur dans l’image OMNI ; cette dernière se transformant en erreur sur les angles de l’orientation en espace senseur avec une covariance :
Soit
Où :
  • est le jacobien de la transformation , connues d’après les équations de la projection utilisées ou les LUT ;
  • est le jacobien de la transformation de passage des coordonnées de l’image brute OMNI aux azimut, élévation dans le repère senseur : ; ; ces transformations pouvant elles-mêmes faire intervenir des paramètres de montage ou simbleautage, dits aussi signatures s’ils sont connus.
  • est le jacobien de la transformation passant des valeurs d’azimut élévation aux composantes 3D de l’orientation en repère senseur :
En pratique, on (l’unité de calcul 28) résout le système au moyen de plusieurs observations sur N (3) amers :
  • On calcule la solution initiale,
  • On linéarise le système d’observation et procède par itérations type Newton-Rapshon,
  • On pondère ces équations selon les erreurs sur les amers et désignations d’après les variances permettant de déterminer les ,
  • En variante, on peut utiliser une information a priori disponible afin de contraindre les valeurs estimées dans un domaine conforme à l’information a priori,
  • A chaque itération on calcule des incréments sur les 6 paramètres de la solution
  • La convergence est détectée par un seuil adapté sur les incréments estimés de position et/ou orientation ; typiquement, on calcule à l’itération ‘i’ :
Et on stoppe les itérations avec suspicion si i atteint une valeur importante préfixée et avec confiance si avant cette valeur et vérifient :
Les valeurs et de sont fixées en fonction des précisions recherchées ; à titre d’exemple on choisit : et .
Ensuite, disposant de la précision sur la solution approchée, on peut ajouter aux équations d’observation des équations de contraintes afin de traiter l’estimation des paramètres sous forme bayésienne.
  • Désignant par la covariance sur la position, on ajoute 3 équations de la forme :
De façon à ce que le produit par leur transposée exprime la contrainte :
  • Désignant par la covariance sur les angles on ajoute 3 équations du type :
De façon à ce que le produit par leur transposée exprime la contrainte :
Dans un tel exemple de résolution, la solution s’obtient après quelques 3 à 4 itérations visant à chaque étape la mise à jour de par l’incrément obtenu comme solution du système. Après convergence on dispose de la position et de l’attitude du senseur qui font au mieux correspondre l’ensemble des directions exprimées en RGL aux directions du repère senseur auxquelles sont appliqués la transformation avec la rotation et translation estimées.
On note DoF le nombre de degrés de liberté à estimer correspondant au nombre d’équations réduit du nombre d’inconnues. Ici pour chaque amer, on dispose de 3 équations mais une inconnue distance, soit 2 équations effectives. Ayant 6 paramètres à estimer on a pour N amers :
  • Dans une approche Moindres-Carrés pondérée classique : ; dans ce cas au moins 3 amers sont nécessaires pour résoudre le système.
  • Dans une approche bayésienne, rajoutant les 6 équations mentionnées : ; dans ce cas 1 amer suffit pour commencer à améliorer la solution initiale. L’amélioration portant majoritairement sur le(s) paramètre(s) ayant le(s) sigma le(s) plus fort(s).
Une approche par estimation par lot de l’ensemble des mesures sur les amers, dite estimation batch, converge en 2 ou 3 itérations et nécessite autant d’inversion de matrice de la dimension des paramètres.
En variante, plutôt que d’utiliser une approche d’estimation batch, il est possible d’utiliser un estimateur récursif de type Kalman. L’implémentation de cette approche est plus simple pour intégrer l’information a priori ; elle requiert à la fois l’information valeur et la covariance approchée pour l’ensemble des paramètres à estimer. Le nombre d’inversions de matrice de la dimension des paramètres est cette fois égal au nombre d’amer N. Pour un faible nombre d’amers, exemple 3 amers, ce type d’approche disposera du même ordre de complexité qu’une approche batch ; par contre si le nombre d’amers devient plus grand elle nécessitera plus d’inversions qu’une approche batch. Un autre point délicat de cette approche réside dans le comportement du filtre lors d’une mise à jour avec une observation mal pondérée, covariance sur l’observation non représentative. La divergence du filtre après mise à jour avec une observation erronée se rétablit après intégration d’autres observations correctes mais ce processus peut être plus ou moins rapide et plus difficile à détecter que via l’analyse des résidus à l’issue d’une estimation batch.
De préférence, comme illustré par la , l’harmonisation / simbleautage caractérisant le montage du système optronique sur le véhicule est déterminée d’après :
  • les 3 angles de la matrice d’attitude définissant le passage entre les axes du repère senseur aux axes du repère véhicule
  • les 3 composantes d’un vecteur permettant de translater l’origine entre ces 2 repères.
Connaissant, le simbleautage du système optronique, on déduit de la pose approchée du système optronique une pose approchée pour le véhicule dans . Celle-ci pouvant être obtenue à partir des seules informations images. Plus précisément l’attitude du véhicule s’obtient simplement comme et la position du véhicule dans le RGL du système optronique en appliquant la matrice d’attitude obtenue au bras de levier entre des 2 positions de référence système optronique et véhicule comme . Comme les positions du système optronique et du véhicule sont proches (qq mètres tout au plus), on peut négliger la relation de passage entre les axes du RGL rattaché au système optronique et le RGL rattaché au véhicule. En toute rigueur on introduirait une rotation complémentaire dépendant des 2 positions respectives. Ceci revient à supposer que les axes des 2 RGL sont parallèles.
La solution peut aussi être fusionnée à celle d’une CNI au moyen des covariances de position et d’attitude approchées.
Détermination d’une incertitude sur la position approchée et le cas échéant sur l’attitude approchée du système optronique (étape 160)
De préférence, la phase d’initialisation 100 comprend une étape 160 de détermination, par l’unité de calcul 28, de la précision de la position approchée déterminée, et le cas échéant de l’attitude approchée déterminée. La précision est déterminée en fonction des erreurs de précision associées aux coordonnées géographiques des éléments de référence 12, et aux erreurs liées à l’extraction d’informations sur les données panoramiques et/ou lors du pointage des indicateurs des éléments de référence sur l’élément de visualisation 24 comme indiqué précédemment. Typiquement, l’incertitude globale est obtenue par une propagation des incertitudes.
OPTIMISATION (PHASE 200)
Optionnellement, le procédé comprend une phase d’optimisation 200 de la position approchée et de l’orientation ou attitude approchée déterminées.
La phase d’optimisation 200 comprend la répétition de l’étape de collecte 110 de données de référence de la phase d’initialisation pour d’autres éléments de référence 12 de sorte à obtenir des données de référence pour un nombre d’éléments de référence 12 strictement supérieur à trois.
La phase d’optimisation 200 comprend aussi la détermination d’une position, dite position optimisée, et d’une attitude (ou au moins une orientation), dite attitude optimisée – soit une pose ou solution à déterminée optimisée - du système optronique 18 en fonction de l’ensemble des données de référence mémorisées. La position optimisée a une précision supérieure à la précision de la position approchée. L’attitude optimisée a une précision supérieure à la précision de l’attitude approchée.
Notamment, dans l’exemple précédemment cité, à partir de quatre éléments de référence 12 (trois arcs de cercle), l’intersection des arcs de cercle ne se fait pas en un point unique (compte tenu des erreurs sur les angles, et sur la position des amers). La position retenue est, par exemple, le résultat d’une optimisation des équations non linéaires résultant d’un problème décrivant la géométrie de l’exemple.
De préférence, lors de la phase d’optimisation, la détermination de la pose optimisée du système optronique 18 est aussi fonction des coordonnées pixels sur la donnée panoramique d’un pixel imageant un corps céleste et de la date et de l’heure d’acquisition de la donnée panoramique. Le corps céleste est, par exemple, le soleil ou la lune. Cela permet d’augmenter le nombre de degrés de liberté (DoF) sans désigner d’amers additionnels. En particulier, cela permet de redonder la solution et participer à la détection de fautes, et aussi le cas échéant d’améliorer l’attitude et en particulier le gisement ou lacet.
Dans un exemple de mise en œuvre, dès lors que l’on dispose d’une solution approchée ie en situation DoF=0, les sous-étapes suivantes sont mises en œuvre par l’unité de calcul 28 :
  • Avec la date/heure, il est déterminé l’orientation des corps céleste en repère céleste,
  • Avec la position approchée, il est calculé l’orientation des corps dans le repère local,
  • Avec les erreurs, il est déterminé l’erreur sur cette orientation,
  • Avec l’orientation des corps dans le repère local il est déterminé ceux qui sont visibles ie sur l’horizon et dans le secteur de visibilité de l’imageur omnidirectionnel 20,
  • Avec l’orientation d’un corps visible, il est déterminé sa position dans l’image panoramique et l’erreur sur cette position,
  • Avec l’erreur d’orientation il est déterminé la zone probable du corps dans l’image,
  • Avec le type de corps, un traitement d’image adapté est utilisé pour extraire le centre du corps et déterminer sa position précise dans l’image, et,
  • Avec ces informations, il est obtenu une nouvelle observation avec correspondance de direction en espace image et en RGL.
Ainsi le mécanisme de résolution proposé apporte les avantages suivants :
  • Calcul d’une solution approchée y compris sur terrain présentant une déclinaison et ceci sans besoin d’information a priori,
  • Amélioration d’une solution approchée quel que soit le nombre d’amer disponible,
  • Calcul de la précision de la solution,
  • Optimalité de la solution,
  • Capacité à détecter une erreur de coordonnées ou désignation avec un nombre redondant de mesure.
Connaissant l’harmonisation / simbleautage caractérisant le montage du système optronique sur le véhicule, on déduit de la pose optimale du système optronique une pose optimale pour le véhicule. Celle-ci pouvant être obtenue à partir des seules informations images. La solution peut aussi être fusionnée à celle d’une CNI au moyen des covariances de position et d’attitude optimales.
MISE A JOUR (PHASE 300)
Optionnellement, le procédé comprend une phase 300 de mise à jour, par l’unité de calcul 28, d’une position et d’une attitude (ou orientation) déterminée pour le système optronique 18 lors d’un déplacement du système optronique 18.
La phase de mise à jour 300 comprend une étape 310 de mise en place d’un suivi automatique du déplacement, sur la donnée panoramique, des éléments de référence 12 correspondant aux données de référence mémorisées. Le suivi est, par exemple, réalisé par un algorithme de traitement d’image et suivi (tracking).
La phase de mise à jour 300 comprend une étape 320 de mise à jour des données de référence en fonction des coordonnées pixels des pixels imageant les éléments de référence 12 suivis et des données de référence précédentes.
La phase de mise à jour 300 comprend une étape 330 de mise à jour de la position et de l’orientation du système optronique 18 en fonction des données de référence mises à jour.
De préférence, la phase de mise à jour 300 comprend la détermination de la vitesse de déplacement du système optronique en fonction de la datation des informations, de la position courante déterminée et de la position précédente pour l’établissement d’un suivi de navigation.
Connaissant l’harmonisation / simbleautage caractérisant le montage du système optronique sur le véhicule, on déduit de l’entretient de solution de navigation du système optronique une solution de navigation pour le véhicule. Celle-ci pouvant être obtenue à partir des seules informations images. La solution peut aussi être fusionnée à celle d’une CNI au moyen des covariances de position, d’attitude et de vitesse.
DETERMINATION DE LA POSITION D’UN OBJET DE LA SCENE (PHASE 400)
Optionnellement, le procédé comprend une phase 400 de détermination, par l’unité de calcul 28, de la position d’un objet 14 de la scène 10 en fonction d’une position déterminée pour le système optronique 18 (position approchée, position optimisée ou position mise à jour, de préférence la dernière position obtenue pour le système optronique 18), d’une orientation absolue obtenue de l’objet 14 par rapport au système optronique 18 et d’une distance obtenue entre l’objet 14 et le système optronique 18. La distance s’obtient par exemple soit par lancer de rayon avec un MNT, soit plus précisément avec une télémétrie lorsqu’un télémètre est intégré au senseur à champ réduit sur la pan & tilt.
L’objet 14 considéré est visible depuis le système optronique 18 (à portée et non masqué).
La position de l’objet 14 est alors obtenue par calcul, par l’unité de calcul 28, de la coordonnée géographique située à l’extrémité du vecteur ayant pour origine la position du système optronique 18, pour orientation l’orientation absolue de l’objet 14 et pour longueur la distance entre le système optronique 18 et l’objet 14.
Avantageusement, la précision sur la position de l’objet 14 est calculée en fonction de :
  • la précision sur la position du système optronique 18,
  • la précision sur l’orientation absolue de l’objet 14, et
  • la valeur de la distance et la précision sur la distance entre le système optronique 18 et l’objet 14.
Pour la détermination de la distance entre l’objet 14 et le système optronique 18, selon un exemple, lorsqu’au moins un élément du module de mesure 30 est un télémètre, la distance entre l’objet 14 et le système optronique 18 est obtenue par une mesure acquise par le télémètre lors d’un pointage de l’objet 14 par l’imageur numérique 20.
Selon un autre exemple, lorsque l’objet 14 est au sol, la distance entre l’objet 14 et le système optronique 18 est obtenue par une méthode de lancer de rayon à partir d’un modèle numérique de terrain de la scène 10. La distance obtenue est alors la distance entre la position déterminée du système optronique 18 et l’intersection d’une droite prédéterminée avec le sol d’un modèle numérique de terrain. La demi-droite prédéterminée passe par la position déterminée du système optronique 18 et a pour orientation celle obtenue de l’objet 14 par rapport au système optronique 18.
RECALAGE D’INSTRUMENTS DE NAVIGATION (PHASE 500)
Optionnellement, lorsque le système optronique 18 est déployé sur une plateforme conjointement avec un instrument de navigation, tel qu’une centrale inertielle, le procédé comprend une phase 500 de recalage de l’instrument de navigation en fonction d’une position déterminée pour le système optronique 18 (position approchée, position optimisée ou position mise à jour, de préférence la dernière position obtenue).
Lorsque la plate-forme est en mouvement, on recalera la centrale inertielle de l’erreur entre la position calculée par le procédé et la position entretenue par la centrale inertielle acquise simultanément à l’acquisition de l’image panoramique, comme décrit à l’étape 100.
Ainsi, le présent procédé permet d’utiliser un système de positionnement géographique par l’image complètement autonome, c’est-à-dire indépendant d’un moyen externe tel qu’une centrale inertielle, GNSS, télémètre. Ce procédé est, en outre, plus précis et rapide qu’un relèvement « à la carte ». Il est également discret (car ne requiert pas une émission électromagnétique comme un laser de télémétrie), sans obligation de sortie du véhicule, de la classe de précision d’un système GNSS sans correction (soit une précision de positionnement de 3 à 5 mètres), pouvant être réalisé en quelques dizaines de secondes dans un délai inférieur à la fourniture des infos GNSS d’un récepteur démarrant à chaud. Pour rappel, le délai d’obtention d’une mesure GPS atteint de 5 à 10 secondes pour une simple coupure temporaire du signal ; de 30 à 45 secondes pour un démarrage à chaud qui conserve la dernière information de position et jusqu’à 50 à 80 secondes pour un démarrage à froid correspondant à une sortie d’usine sans pré-fonctionnement ou perdu dans un espace.
Notamment, ce procédé utilise un imageur omnidirectionnel 360° précis couplé à un système cartographique embarqué, permettant de trouver les coordonnées géographiques de la position du système optronique 18 avec une bonne précision, dans un temps raisonnable, sans que les membres de l’équipage de l’engin aient à mettre pied à terre. Le cas échéant, il permet également de déterminer l’attitude dont le gisement du senseur (ou l’orientation du Nord Géographique dans l’imagerie panoramique du système de vision). Le calcul d’attitude permet de travailler sur toute la gamme d’inclinaison de terrain pouvant être rencontrée. Plus spécifiquement, l’imageur omnidirectionnel permet de disposer d’un goniomètre instantané et de cohérence locale maitrisée dans tout le champ de vision.
Ce procédé est adapté pour être utilisé sur un véhicule en mouvement du fait de l’extraction de données d’entrée (coordonnées pixels) à partir d’une donnée panoramique.
En particulier, les données obtenues peuvent également être utilisées pour recaler une centrale inertielle ou tout autre instrument (en pratique composant / senseur / effecteur) embarqué sur le véhicule. Le système permettant de corriger la dérive de la centrale inertielle par recalage lorsque des relèvements sont possibles, et la centrale inertielle permettant d’entretenir la position du véhicule lors de la traversée d’une zone ne permettant pas de relèvement : traversée d’une forêt ou tunnel par exemple.
L’homme du métier comprendra que l’ordre des différentes phases est donné à titre d’exemple. Par exemple, la phase de détermination 400 peut être mise en œuvre après l’une quelconque des phases 100, 200, 300 ou 500. Il en est de même pour la phase de recalage 500. De même, au sein de chaque phase, l’ordre des étapes est aussi donné à titre d’exemples (pour l’étape de collecte de données de référence, il est par exemple possible de commencer par désigner des indicateurs correspondants à des éléments de référence choisis, et d’extraire ensuite les données de l’image panoramique, ou de faire l’inverse).
L’homme du métier comprendra que les modes de réalisation précédemment décrits peuvent être combinés pour former de nouveaux modes de réalisation pourvu qu’ils soient compatibles techniquement.

Claims (16)

  1. Procédé de détermination d’au moins une position et d’au moins une orientation par un système optronique (18) dans une scène (10), la scène (10) comprenant des éléments de référence (12) de coordonnées géographiques connues, le système optronique (18) comprenant les éléments suivants intégrés dans le système optronique (18) :
    • un imageur omnidirectionnel (20) propre à acquérir des images panoramiques de la scène (10), les images panoramiques étant formées de pixels repérés par des coordonnées pixels,
    • une mémoire (22) dans laquelle est mémorisé, pour au moins chaque élément de référence (12) de la scène (10), un indicateur représentatif dudit élément de référence (12) associé aux coordonnées géographiques dudit élément de référence (12),
    • un élément de visualisation (24) des indicateurs mémorisés dans la mémoire (22) et des images panoramiques acquises par l’imageur omnidirectionnel (20),
    • une unité de calcul (28),
    le procédé étant mis en œuvre par les éléments intégrés dans le système optronique (18) et comprenant une phase d’initialisation comprenant les étapes de :
    • acquisition d’une image panoramique ou d’un flux d’images panoramiques de la scène (10) par l’imageur omnidirectionnel (20), l’image panoramique ou le flux d’images panoramiques étant appelés donnée panoramique,
    • affichage de la donnée panoramique sur l’élément de visualisation (24),
    • collecte de données de référence pour au moins trois éléments de référence (12) de la scène (10), l’étape de collecte comprenant pour chacun des au moins trois éléments de référence (12) :
      • l’acquisition, par l’unité de calcul (28), des coordonnées d’au moins un pixel de la donnée panoramique représentatif de l’élément de référence (12) considéré,
      • la détermination, par l’unité de calcul (28), d’une orientation pour l’élément de référence (12) considéré en fonction des coordonnées pixels du au moins un pixel pointé,
      • le pointage, sur l’élément de visualisation (24), parmi les indicateurs mémorisés, d’un indicateur représentatif de l’élément de référence (12) considéré,
      • l’acquisition, par l’unité de calcul (28), des coordonnées géographiques associées à l’indicateur pointé,
      • la mémorisation d’une donnée, dite de référence, comprenant l’orientation déterminée et les coordonnées géographiques acquises pour l’élément de référence (12) considéré,
    • détermination d’une position et d’une orientation, dites position approchée et orientation approchée, du système optronique (18) en fonction des données de référence mémorisées pour les au moins trois éléments de référence (12).
  2. Procédé selon la revendication 1, dans lequel la phase d’initialisation comprend une étape de détermination de l’orientation approchée du Nord Géographique et/ou du Nord Cartographique en fonction des données de référence mémorisées pour les au moins trois éléments de référence (12).
  3. Procédé selon la revendication 1 ou 2, dans lequel la phase d’initialisation comprend une étape de détermination de la pose approchée du système optronique (18) en fonction de l’orientation approchée déterminée, et du roulis et du tangage de l’imageur omnidirectionnel dans le repère géographique local, la pose approchée comprenant la position approchée et l’attitude approchée.
  4. Procédé selon la revendication 3, dans lequel le roulis et le tangage de l’imageur omnidirectionnel dans le repère géographique local sont obtenus par une mesure en provenance d’un appareil de mesure, tel qu’un inclinomètre ou une centrale inertielle, ou sont obtenus d’après les seules informations image en fonction de la position approchée du système optronique (18) et des indicateurs de référence mémorisés dans la mémoire (22).
  5. Procédé selon l’une quelconque des revendications 1 à 4, dans lequel le système optronique (18) comprend un imageur à champ réduit orientable et muni d’un zoom, l’imageur à champ réduit étant propre à acquérir des images de la scène (10), dites images petit champ, avec un champ de vision variable inférieur à 360°, les images petit champ ayant une résolution supérieure à la résolution des images panoramiques acquises par l’imageur omnidirectionnel (20), lors de l’étape de collecte, l’acquisition des coordonnées de pixels représentatifs d’au moins un élément de référence (12) étant mise en œuvre de la manière suivante :
    • l’acquisition d’une première image petit champ de la scène (10) par l’imageur à champ réduit, la première image petit champ étant une image zoomée d’une portion de la scène (10),
    • l’affichage de la première image petit champ sur l’élément de visualisation (24),
    • le pointage, sur l’élément de visualisation (24), d’au moins un pixel imageant l’élément de référence (12) considéré sur la première image petit champ pour obtenir des coordonnées pixel,
    • l’acquisition d’une deuxième image petit champ de la scène (10) par l’imageur à champ réduit, la deuxième image petit champ étant une image dézoomée comprenant au moins une partie de la portion de scène (10) imagée sur la première image petit champ, l’imageur à champ réduit ayant une orientation sensiblement égale à l’orientation correspondant à l’acquisition de la première et de la deuxième image petit champ,
    • la détermination des coordonnées pixels d’au moins un pixel de la deuxième image petit champ correspondant au pixel pointé sur la première image petit champ, et
    • l’acquisition des coordonnées pixel d’au moins un pixel de l’image panoramique correspondant à l’un des pixels de la deuxième image petit champ dont les coordonnées pixels ont été déterminées.
  6. Procédé selon l’une quelconque des revendications 1 à 5, dans lequel le procédé comprend une phase d’optimisation de la position approchée et de l’orientation approchée déterminées, la phase d’optimisation comprenant :
    • la répétition de l’étape de collecte de données de référence de la phase d’initialisation pour d’autres éléments de référence (12) de sorte à obtenir des données de référence pour un nombre d’éléments de référence (12) strictement supérieur à trois, et
    • la détermination d’une position et d’une orientation, dites position optimisée et orientation optimisée, du système optronique (18) en fonction de l’ensemble des données de référence mémorisées, la position optimisée ayant une précision supérieure à la précision de la position approchée, l’orientation optimisée ayant une précision supérieure à la précision de l’orientation approchée,
    • de préférence, la détermination d’une l’orientation optimisée du Nord Géographique et/ou Nord Cartographique en fonction de l’ensemble des données de référence mémorisées.
  7. Procédé selon l’une quelconque des revendications 1 à 6, dans lequel le procédé comprend une phase de mise à jour d’une position déterminée pour le système optronique (18) lors d’un déplacement du système optronique (18), la phase de mise à jour comprenant les étapes de :
    • mise en place d’un suivi automatique du déplacement, sur la donnée panoramique, des éléments de référence (12) correspondant aux données de référence mémorisées,
    • mise à jour des données de référence en fonction des coordonnées pixels des pixels imageant les éléments de référence (12) suivis et des données de référence précédentes, et
    • mise à jour de la au moins une position et de l’au moins une orientation du système optronique (18) en fonction des données de référence mises à jour.
  8. Procédé selon la revendication 7, dans lequel le procédé comprend lors de la phase de mise à jour, la détermination de la vitesse de déplacement du système optronique en fonction de la position courante déterminée, de la position précédente et de la datation desdites informations, pour l’établissement d’un suivi de navigation.
  9. Procédé selon l’une quelconque des revendications 1 à 8, dans lequel le système optronique (18) est déployé sur une plateforme conjointement avec un instrument de navigation, tel qu’une centrale inertielle, le procédé comprenant une phase de recalage de l’instrument de navigation en fonction d’une position déterminée par le système optronique (18).
  10. Procédé selon l’une quelconque des revendications 1 à 9, dans lequel chaque indicateur mémorisé dans la mémoire (22) est associé à une catégorie relative au type de l’élément de référence (12) correspondant, lors de l’étape de collecte de données de référence, le pointage d’un indicateur mémorisé dans la mémoire (22) comprenant :
    • l’affichage sur l’élément de visualisation (24) des indicateurs mémorisés dans la mémoire (22), et
    • la mise en évidence sur l’élément de visualisation (24) des indicateurs dont la catégorie correspond au type de l’élément de référence (12) considéré.
  11. Procédé selon l’une quelconque des revendications 1 à 10, dans lequel lors de l’étape de collecte de données de référence, au moins un élément de référence (12) considéré comprend une structure rectiligne, l’acquisition des coordonnées pixels de pixels représentatifs de l’élément de référence (12) sur la donnée panoramique étant réalisée par pointage sur l’élément de visualisation (24) d’un segment de droite représentatif d’une portion de la structure rectiligne de l’élément de référence (12) considéré.
  12. Procédé selon l’une quelconque des revendications 1 à 11, dans lequel une solution préliminaire, comprenant une position préliminaire et une attitude préliminaire, a été obtenue pour le système optronique, l’étape d’acquisition des coordonnées d’au moins un pixel de la donnée panoramique, représentatif de l’élément de référence considéré, comprenant la détermination de zone(s) de recherche, sur la donnée panoramique, du au moins un pixel à acquérir, en fonction de la solution préliminaire et des coordonnées géographiques des éléments de référence, et l’affichage de la ou des zones de recherche déterminées sur la donnée panoramique.
  13. Procédé selon l’une quelconque des revendications 1 à 5 ou 7 à 12 dans sa dépendance avec la revendication 6, dans lequel lors de la phase d’optimisation la détermination de la position optimisée et de l’orientation optimisée du système optronique (18) est aussi fonction des coordonnées pixels sur la donnée panoramique d’un pixel imageant un corps céleste et de la date et de l’heure d’acquisition de la donnée panoramique.
  14. Procédé selon l’une quelconque des revendications 1 à 13, dans lequel l’acquisition des coordonnées de chaque pixel sur la donnée panoramique est associée à une incertitude d’acquisition, dite première incertitude, le pointage de chaque élément de référence (12) sur l’élément de visualisation (24) est associé à une incertitude de pointage, dite deuxième incertitude, chaque coordonnée géographique est associée à une incertitude sur ladite coordonnée géographique, dite troisième incertitude, la phase de détermination d’une position approchée et d’une attitude approchée du système optronique (18) comprenant l’estimation d’une incertitude sur la position approchée et sur l’orientation approchée déterminées en fonction au moins de la première, de la deuxième et de la troisième incertitude.
  15. Système optronique (18) de détermination d’au moins une position et d’au moins une orientation par un système optronique (18) dans une scène (10), la scène (10) comprenant des éléments de référence (12) de coordonnées géographiques connues, le système optronique (18) comprenant des éléments intégrés dans ledit système optronique (18) et configurés pour mettre en œuvre un procédé selon l’une quelconque des revendications 1 à 14, les éléments intégrés comprenant au moins les éléments suivants :
    • un imageur omnidirectionnel (20) propre à acquérir des images panoramiques de la scène (10), les images panoramiques étant formées de pixels repérés par des coordonnées pixels,
    • une mémoire (22) dans laquelle est mémorisé, pour au moins chaque élément de référence (12) de la scène (10), un indicateur représentatif dudit élément de référence (12) associé aux coordonnées géographiques dudit élément de référence (12),
    • un élément de visualisation (24) des indicateurs mémorisés dans la mémoire (22) et des images panoramiques acquises par l’imageur omnidirectionnel (20), et
    • une unité de calcul (28).
  16. Véhicule, tel qu’un véhicule terrestre, comprenant un système optronique (18) selon la revendication 15.
FR2212082A 2022-11-21 2022-11-21 Procédé de détermination de positions et d'orientations par un système optronique dans une scène,système optronique et véhicule associés Pending FR3142247A1 (fr)

Priority Applications (2)

Application Number Priority Date Filing Date Title
FR2212082A FR3142247A1 (fr) 2022-11-21 2022-11-21 Procédé de détermination de positions et d'orientations par un système optronique dans une scène,système optronique et véhicule associés
PCT/EP2023/082501 WO2024110445A2 (fr) 2022-11-21 2023-11-21 Procédé de détermination de positions et d'orientations par un système optronique dans une scène, système optronique et véhicule associés

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR2212082A FR3142247A1 (fr) 2022-11-21 2022-11-21 Procédé de détermination de positions et d'orientations par un système optronique dans une scène,système optronique et véhicule associés
FR2212082 2022-11-21

Publications (1)

Publication Number Publication Date
FR3142247A1 true FR3142247A1 (fr) 2024-05-24

Family

ID=85937036

Family Applications (1)

Application Number Title Priority Date Filing Date
FR2212082A Pending FR3142247A1 (fr) 2022-11-21 2022-11-21 Procédé de détermination de positions et d'orientations par un système optronique dans une scène,système optronique et véhicule associés

Country Status (2)

Country Link
FR (1) FR3142247A1 (fr)
WO (1) WO2024110445A2 (fr)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070276590A1 (en) * 2006-05-24 2007-11-29 Raytheon Company Beacon-Augmented Pose Estimation
US20120300020A1 (en) * 2011-05-27 2012-11-29 Qualcomm Incorporated Real-time self-localization from panoramic images

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070276590A1 (en) * 2006-05-24 2007-11-29 Raytheon Company Beacon-Augmented Pose Estimation
US20120300020A1 (en) * 2011-05-27 2012-11-29 Qualcomm Incorporated Real-time self-localization from panoramic images

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
ANONYMOUS: "Perspective-n-Point - Wikipedia", WIKIPEDIA, 19 July 2022 (2022-07-19), pages 1 - 6, XP093061805, Retrieved from the Internet <URL:https%3A%2F%2Fen.wikipedia.org%2Fw%2Findex.php%3Ftitle%3DPerspective-n-Point%26oldid%3D1099235396> [retrieved on 20230706] *

Also Published As

Publication number Publication date
WO2024110445A2 (fr) 2024-05-30
WO2024110445A3 (fr) 2024-07-25

Similar Documents

Publication Publication Date Title
EP2513668B1 (fr) Procede de geo-referencement d&#39;une zone imagee
Dehecq et al. Automated processing of declassified KH-9 hexagon satellite images for global elevation change analysis since the 1970s
Delacourt et al. Remote-sensing techniques for analysing landslide kinematics: a review
CA2981382C (fr) Procede de determination d&#39;une direction d&#39;un objet a partir d&#39;une image de l&#39;objet
Takaku et al. PRISM on-orbit geometric calibration and DSM performance
Grodecki et al. IKONOS geometric accuracy
EP2513664B1 (fr) Procede de calibrage d&#39;un instrument de mesure d&#39;un systeme optronique
Reinartz et al. Orthorectification of VHR optical satellite data exploiting the geometric accuracy of TerraSAR-X data
EP3472557B1 (fr) Procede d&#39;estimation d&#39;une direction d&#39;orientation absolue d&#39;un systeme optronique
EP2478334B1 (fr) Localisation tridimensionnelle de zone terrestre cible par fusion d&#39;images prises par deux capteurs satellitaires
WO2014199073A1 (fr) Sextant électronique a système inertiel trois axes et procédé de détermination de la position
EP4272010A1 (fr) Procédé de détermination de positions par un système optronique dans une scène et système optronique associé
Di Giacomo et al. Multitemporal high‐resolution satellite images for the study and monitoring of an ancient Mesopotamian city and its surrounding landscape: The case of Ur
Daudon et al. A new digital terrain model of the Huygens landing site on Saturn's largest moon, Titan
Forno et al. GSTOP: a new tool for 3D geomorphological survey and mapping
FR3142247A1 (fr) Procédé de détermination de positions et d&#39;orientations par un système optronique dans une scène,système optronique et véhicule associés
JP2003141507A (ja) ランドサットtm画像の精密幾何補正方法及び衛星画像の精密幾何補正方法
Stephan et al. Mapping products of Titan's surface
Kim et al. Remote Sensing and Data Analyses on Planetary Topography. Remote Sens. 2023, 15, 2954
Dukuzemariya Quality analysis comparison of 3D products from satellites and aerial images: MICMAC Application in Hilly Zones (Liège)
Rambat A low-cost remote sensing system for agricultural applications
OGNYANOV et al. ANALYSIS OF THREE-DIMENSIONAL SPATIAL STRUCTURES IN ARCHAEOASTRONOMY: 3D MODEL OF THE ROCK-CUT MONUMENT “BELINTASH “, BULGARIA
Tadono et al. Validation of precise digital surface model generated by PRISM onboard ALOS
FASCHING et al. EVOLUTIONS STUDIES AUTOMATED OPTICAL SENSOR REGISTRATION MONITORING TOOL
Henrico Geometric Accuracy Improvement of VHR Satellite Imagery During Orthorectification with the Use of Ground Control Points

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20240524