FR3073655B1 - Procede de determination d'un vecteur vitesse visuel d'un engin mobile, produit programme d'ordinateur et systeme de determination associes - Google Patents

Procede de determination d'un vecteur vitesse visuel d'un engin mobile, produit programme d'ordinateur et systeme de determination associes Download PDF

Info

Publication number
FR3073655B1
FR3073655B1 FR1701185A FR1701185A FR3073655B1 FR 3073655 B1 FR3073655 B1 FR 3073655B1 FR 1701185 A FR1701185 A FR 1701185A FR 1701185 A FR1701185 A FR 1701185A FR 3073655 B1 FR3073655 B1 FR 3073655B1
Authority
FR
France
Prior art keywords
image
visual
speed vector
mobile machine
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
FR1701185A
Other languages
English (en)
Other versions
FR3073655A1 (fr
Inventor
Pierre Yves Dumas
Emmanuel Nguyen
Christian Mehlen
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thales SA
Original Assignee
Thales SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thales SA filed Critical Thales SA
Priority to FR1701185A priority Critical patent/FR3073655B1/fr
Priority to US16/186,594 priority patent/US10970853B2/en
Priority to CN201811372404.8A priority patent/CN109799363B/zh
Publication of FR3073655A1 publication Critical patent/FR3073655A1/fr
Application granted granted Critical
Publication of FR3073655B1 publication Critical patent/FR3073655B1/fr
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/52Determining velocity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Navigation (AREA)

Abstract

Ce procédé de détermination d'un vecteur vitesse visuel d'un aéronef comporte les étapes d'acquisition (110) d'une séquence d'images du milieu environnant à partir d'un capteur d'images définissant un centre optique de projections sensiblement fixe par rapport à l'engin mobile, d'analyse (120) d'au moins deux images successives afin de déterminer sur chacune des deux images un point, dit épipôle, représentant sur cette image la position du centre optique du capteur d'images au moment de la prise de l'autre image, et pour chaque image analysée, de détermination (130) de la position de l'épipôle de cette image sur un afficheur utilisable pour piloter l'engin mobile et d'affichage (130) sur l'afficheur d'un symbole représentatif du vecteur vitesse visuel dans cette position.

Description

Procédé de détermination d’un vecteur vitesse visuel d’un engin mobile, produit programme d’ordinateur et système de détermination associés
La présente invention concerne un procédé de détermination d’un vecteur vitesse visuel d’un engin mobile.
La présente invention concerne également un produit programme d’ordinateur et un système de détermination associés.
Dans le domaine aéronautique, l’utilisation d’un vecteur vitesse appelé également vecteur de trajectoire de vol ou vecteur FPV (de l’anglais « Flight Path Vector ») pour piloter l’aéronef, est déjà connue.
Ce vecteur permet de présenter au pilote de l’aéronef une information sur la trajectoire instantanée de l’appareil et en particulier, de connaître la dérive (connue sous le terme anglais « drift ») et la pente (connue sous le terme anglais « Flight Path Angle ») de l’aéronef par rapport à un repère géographique.
De manière générale, ces informations sont utiles au pilote pour surveiller la pente de l’aéronef ou bien, associées à une représentation de l’environnement extérieur (relief ou piste de destination), pour s’assurer que l’aéronef suit bien la trajectoire prévue.
Actuellement, pour calculer le vecteur vitesse, il est nécessaire de calculer des vitesses de l’aéronef dans un repère géographique.
Un tel calcul est traditionnellement réalisé à partir des informations fournies par un système de positionnement par satellites tel que le système GPS ou une centrale inertielle embarquée. Il est par ailleurs connu d’utiliser une hybridation des informations fournies par ces deux systèmes afin notamment d’améliorer la qualité du résultat.
Toutefois, l’utilisation de ces systèmes se heurte au problème d’intégrité et de précision des informations fournies par ces systèmes.
En effet, les vitesses géographiques fournies par une centrale inertielle sont très intègres mais peu précises, alors que celles fournies par le système GPS sont très précises mais ne présentent aucune intégrité.
De plus, lors d’un affichage conforme au pilote, notamment via un afficheur tête haute de type HUD (de l’anglais « Head-Up Display »), la précision de l’affichage du vecteur vitesse par rapport à l’environnement extérieur joue un rôle particulièrement important. En effet, une erreur de cap minime (de l’ordre de 1°), peut entraîner une non-conformité de la projection du vecteur vitesse sur l’afficheur tête haute et donc par rapport à l’environnement extérieur, préjudiciable au pilotage.
La présente invention a pour but de proposer un procédé de détermination d’un vecteur vitesse visuel présentant une bonne intégrité et une bonne précision, tout en étant particulièrement bien adapté à un affichage conforme. À cet effet, l’invention a pour objet un procédé de détermination d’un vecteur vitesse visuel d’un aéronef se déplaçant dans un milieu environnant, le vecteur vitesse visuel représentant la direction de déplacement de l’engin mobile dans ce milieu.
Le procédé comporte les étapes suivantes : - acquisition d’une séquence d’images du milieu environnant à partir d’un capteur d’images orienté selon une direction de prise d’images et définissant un centre optique de projections sensiblement fixe par rapport à l’engin mobile ; - analyse d’au moins deux images successives afin de déterminer sur chacune des deux images un point, dit épipôle, représentant sur cette image la position du centre optique du capteur d’images au moment de la prise de l’autre image ; - pour chaque image analysée, détermination de la position de l’épipôle de cette image sur un afficheur utilisable pour piloter l’engin mobile et affichage sur l’afficheur d’un symbole représentatif du vecteur vitesse visuel dans cette position.
Suivant d’autres aspects avantageux de l’invention, le procédé comprend une ou plusieurs des caractéristiques suivantes, prise(s) isolément ou suivant toutes les combinaisons techniquement possibles : - l’étape d’analyse d’au moins deux images comprend les sous-étapes suivantes : - détermination d’une pluralité de points de repère sur l’une des deux images, dite première image, et d’une pluralité de points de repère sur l’autre image, dite deuxième image ; - association de points de repère entre la première et la deuxième images ; - à partir des points de repère associés, détermination d’une matrice fondamentale définissant pour chaque point de la première image une droite sur la deuxième image, dite droite épipolaire, sur laquelle se trouve le point de la deuxième image correspondant à ce point de la première image ; - détermination de l’épipôle sur la première image en tant que le noyau de la matrice fondamentale ; - détermination de l’épipôle sur la deuxième image en tant que le noyau de la matrice fondamentale transposée ; - le symbole représentatif du vecteur vitesse visuel est affiché sur l’afficheur de manière conforme, ledit afficheur étant de préférence un afficheur tête haute ; - le capteur d’images est monté dans l’engin mobile de sorte que la direction de prise d’images corresponde sensiblement à la direction de déplacement de l’engin mobile ; - le capteur d’images est monté sur la tête d’un pilote de l’engin mobile ; - le procédé comprend en outre une étape de comparaison du vecteur vitesse visuel avec un vecteur vitesse de référence déterminé à partir d'informations fournies par un système de positionnement par satellites et/ou un capteur inertiel ; - le procédé comprend en outre une étape de comparaison du vecteur vitesse visuel avec le vecteur vitesse de référence comprend les sous-étapes suivantes, mise en œuvre pour chaque couple d’images successives analysées : - détermination d’une première vitesse visuelle correspondant à la vitesse de déplacement du centre optique du capteur d’images entre les images dudit couple ; - détermination d’une deuxième vitesse visuelle correspondant à la première vitesse visuelle calculée dans le repère de l’engin mobile ; - détermination à partir de la deuxième vitesse visuelle, d’une composante de dérive visuelle de l’engin mobile et d’une composante de pente visuelle de l’engin mobile en utilisant le roulis et le tangage l’engin mobile ; - détermination à partir du vecteur vitesse de référence, d’une composante de pente de référence de l'engin mobile et comparaison de cette composante avec la composante de pente visuelle ; - l’étape de comparaison du vecteur vitesse visuel avec le vecteur vitesse de référence qui comprend en outre pour chaque couple d’images successives analysées, la sous-étape de détermination, à partir du vecteur vitesse de référence et du cap de l’engin mobile, d’une composante de dérive de référence et de comparaison de cette composante avec la composante de dérive visuelle ; - l’étape de comparaison du vecteur vitesse visuel avec le vecteur vitesse de référence comprend en outre les sous-étapes suivantes, mise en œuvre pour chaque couple d’images successives analysées : - détermination d’une troisième vitesse visuelle correspondant à la première vitesse visuelle calculée dans un repère géographique ; - détermination à partir de la troisième vitesse visuelle, d’une composante d’angle de route visuel de l’engin mobile ; - détermination à partir du vecteur vitesse de référence, d’une composante d’angle de route de référence de l’engin mobile et comparaison de cette composante avec la composante d’angle de route visuel ; - l’étape de comparaison du vecteur vitesse visuel avec le vecteur vitesse de référence qui comprend en outre pour chaque couple d’images successives analysées, en cas d’un mouvement en rotation de l’engin mobile, des sous-étapes préliminaires suivantes : - acquisition d’angles de rotation de la direction de prise d’images ; - en fonction des angles de rotation acquises, transformation homographique de l’une des images dudit couple pour aligner la direction de prise d’images correspondant à cette image avec celle correspondant à l’autre image. - l’engin mobile est un aéronef. L’invention a également pour objet un produit programme d’ordinateur comportant des instructions logicielles qui, lorsque mises en œuvre par un équipement informatique, mettent en œuvre le procédé tel que défini précédemment. L’invention a également pour objet un système de détermination d’un vecteur vitesse visuel d’un engin mobile, comportant des moyens de mise en œuvre du procédé tel que décrit plus haut.
Ces caractéristiques et avantages de l’invention apparaîtront à la lecture de la description qui va suivre, donnée uniquement à titre d’exemple non limitatif, et faite en référence aux dessins annexés, sur lesquels : - la figure 1 est une vue schématique en perspective d’un engin mobile se déplaçant dans un milieu environnant ; - la figure 2 est une vue schématique de côté de l’engin mobile de la figure 1, l’engin mobile comportant un système de détermination selon l’invention ; - la figure 3 est une vue schématique du système de détermination de la figure 2 ; - la figure 4 est un organigramme d’un procédé de détermination selon l’invention, le procédé étant mis en œuvre par le système de détermination de la figure 2 ; - la figure 5 est vue schématique illustrant la mise en œuvre de l’une des étapes du procédé de détermination de la figure 4.
Dans l’exemple de réalisation de la figure 1, l’engin mobile est un aéronef 10 tel qu’un avion, notamment un avion commercial, piloté par au moins un pilote.
Toutefois, dans le cas général, l’engin mobile peut correspondre à tout autre engin se déplaçant sensiblement sur la surface terrestre ou volant au moins dans l’atmosphère terrestre et pilotable par au moins un pilote directement à partir de celui-ci ou à distance. Ainsi, l’engin mobile peut être un véhicule, un avion miliaire, un hélicoptère, un drone, etc.
Sur la figure 1, l’aéronef 10 se déplace dans un milieu environnant par rapport à un repère géographique XYZ d’origine O.
Ce repère géographique XYZ correspond par exemple au référentiel connu sous le terme anglais « North-East-Down ». Dans ce cas, l’axe OX s’étend suivant la direction nord, l’axe OY suivant la direction est et l’axe OZ suivant la verticale orientée vers la surface terrestre. Le plan formé par les axes OX et OY est appelé plan horizontal.
Un repère d’origine 0lt dit repère aéronef XiYiZr, est par ailleurs associé à l’aéronef 10 de sorte que l’axe O1X1 s’étend dans la direction longitudinale de l’aéronef 10, l’axe OfY-t se situe dans la plan de l’aéronef 10, est perpendiculaire à l’axe 0·^ et s’étend à gauche de celui-ci, et l'axe 0^ complète un repère orthogonal droit direct.
Le repère aéronef XfYjZ-L est alors mobile en translation et en rotation par rapport au repère géographique XYZ. L’orientation du repère aéronef X1Y1Z1 par rapport au repère géographique XYZ définit l’attitude de l’aéronef 10. Cette attitude est déterminée notamment par l’angle de roulis φ de l’aéronef 10 correspondant à l’angle entre l’axe O1K1 et le plan horizontal, et par l’angle de tangage Θ de l’aéronef 10 correspondant à l’angle entre l’axe O1X1 et le plan horizontal.
Le vecteur de vitesse V de l’aéronef 10 est défini comme la vitesse de déplacement du point O± par rapport au point O.
Dans le repère géographique XYZ, le vecteur de vitesse V peut s’écrire sous la forme [Vw; VE; VD]t où la composante VN est appelée vitesse nord, la composante VE vitesse est et la composante VD (dénotée également Vz) vitesse verticale.
Il est également possible de définir une vitesse horizontale Vhor de l’aéronef 10 correspondant à la projection du vecteur de vitesse V sur le plan horizontal, une vitesse longitudinale Vlong correspondant à la projection du vecteur de vitesse V sur l’axe longitudinal 0iX1 et une vitesse latérale Vlat correspondant à la projection du vecteur de vitesse V sur l’axe O^.
Dans la suite de la description, la pente de l’aéronef 10, appelée également angle FPA (de l’anglais « Flight Path Angle »), est définie comme l’angle entre la vitesse verticale et la vitesse horizontale. Cet angle peut alors être déterminé comme suit : FPA = atan Vz/Vhor.
La dérive de l’aéronef 10, connue également sous le terme anglais « drift », est définie comme l’angle entre la vitesse latérale et la vitesse longitudinale, les deux vitesses étant projetées sur le plan horizontal. Cet angle peut alors être déterminé comme suit :
Drift = atan Vlat/Vlong.
Le cap i/> de l’aéronef 10, connu également sous le terme anglais « heading », est défini comme l’angle entre l’axe longitudinal de l'aéronef projeté sur le plan horizontal et l’axe OX, c’est-à-dire la direction nord.
La route de l’aéronef 10, connue également sous le terme anglais « Track », est définie comme la projection du déplacement de l’aéronef sur le plan horizontal. L’angle de route, connue également sous le terme anglais « Track Angle », est défini comme l’angle entre la vitesse est et une vitesse projetée sur un axe de référence, par exemple la vitesse nord lorsqu’elle n’est pas nulle. Cet angle peut être déterminé comme suit :
Track — atan VE/VN.
Il est à noter que les termes précités sont connus de l’homme du métier et peuvent être définis, le cas échéant, autrement, en fonction notamment du repère géographique choisi.
En référence à la figure 2, l’aéronef 10 comporte un système de navigation 12, un afficheur 14, un capteur d’images 16 et un système de détermination 18 d’un vecteur vitesse visuel, selon l’invention.
Le système de navigation 12 est connu en soi et est configuré pour fournir au pilote des informations relatives à la position et à la vitesse de l’aéronef 10.
Ainsi, par exemple, le système de navigation 12 comprend un récepteur de signaux radioélectriques 21 et un capteur inertiel 22.
Le récepteur 21 permet d’acquérir notamment des signaux radioélectriques issus de satellites faisant partie d’un système de positionnement par satellites, tel que le système GPS, et de traiter ces signaux afin de déterminer la vitesse et la position de l’aéronef 10. La vitesse de l’aéronef 10 déterminée par ce récepteur sera dénotée par la suite VGPS.
Le capteur inertiel 22 est par exemple une centrale inertielle de basse ou de haute précision apte à fournir les attitudes de l’aéronef 10, c’est-à-dire le roulis φ et le tangage Θ, et le cap φ. L’afficheur 14 est utilisable par le pilote pour piloter l’aéronef 10 et présente par exemple un afficheur tête haute de type HUD.
Cet afficheur 14 permet notamment de visualiser différents moyens visuels d’aide au pilotage de l’aéronef 10 de manière conforme avec le milieu environnant. À cet effet, l’afficheur 14 comprend par exemple un écran transparent sur lequel sont projetés ces moyens visuels.
Selon un exemple de réalisation, l’afficheur 14 est monté dans le casque du pilote.
Les moyens visuels d’aide au pilotage affichés sur l’afficheur 14 comprennent notamment un vecteur vitesse connu sous le terme anglais « Flight Path Vector ».
De manière connue en soi, ce vecteur permet au pilote de connaître la dérive et la pente de l’aéronef 10 qui sont déterminées notamment à partir des données fournies par le système de navigation 12. Un tel vecteur vitesse sera dénoté par la suite par le terme « vecteur vitesse de référence » pour le différencier du vecteur vitesse visuel décrit par la suite.
Le capteur d’images 16 permet d’acquérir des images du milieu environnant. Pour ce faire, le capteur d’images 16 est monté soit à l’extérieur de l'aéronef 10 soit à l’intérieur de celui-ci dans un endroit donnant une visibilité extérieure, comme par exemple le cockpit.
Le capteur d’images 16 est orienté selon une direction de prise d’images qui correspond par exemple sensiblement à la direction de déplacement de l’aéronef 10.
Le capteur d’images 16 présente par exemple le même champ de vision que celui du pilote. Avantageusement, le capteur d’images 16 est monté au-dessus de la tête du pilote, par exemple sur son casque. Dans ce dernier cas, le capteur 16 est sensiblement fixe par rapport à l’aéronef 10. Autrement dit, dans ce cas, certaines variations de la position du capteur 16 par rapport à l’aéronef sont possibles.
Dans l’exemple décrit ci-dessous, le capteur d’images 16 est une caméra permettant de prendre des images successives du milieu environnant avec une fréquence prédéterminée ou réglable. Ces images sont en couleurs ou monochromes.
Toutefois, dans le cas général, le capteur d’images 16 peut être un capteur infrarouge, un radar, un lidar ou tout autre appareil permettant de différencier au moins certains objets du milieu environnant. Il est alors à noter que le terme « image » selon l’invention, correspond à toute représentation du milieu environnant faite par un tel capteur.
Selon un exemple de réalisation, le capteur d’images 16 se présente sous la forme de plusieurs capteurs élémentaires disposés éventuellement dans des endroits différents. Dans ce cas, le terme « image » utilisé dans la suite de la description est relatif à une image de synthèse composée des images prises par l’ensemble des capteurs élémentaires.
Le capteur d’images 16 définit notamment un centre optique de projection présentant le point d’intersection de toutes les droites de projection, chaque droite de projection présentant la direction suivant laquelle chaque point de l’espace est projeté sur l’image correspondante.
Le capteur d’images 16 définit en outre un repère local, dit repère capteur XCYCZC, d’origine Oc coïncidant avec le centre optique.
La matrice de transformation du repère capteur XCYCZC vers le repère aéronef X1Y1Z1 sera dénotée par la suite par Rcl.
Le système de détermination 18 selon l’invention sera désormais expliqué en référence à la figure 3.
Ainsi, comme cela est visible sur la figure 3, le système de détermination 18 comprend un module d'acquisition 25, un module de traitement 26 et un module de sortie 27.
Le module d’acquisition 25 est raccordé au système de navigation 12 et au capteur d’images 16.
Il est ainsi apte à acquérir des informations issues du système de navigation 12 et les images prises par le capteur d’images 16.
Le module de traitement 26 permet de traiter des données acquises par le module 25 afin de mettre en œuvre un procédé de détermination selon l’invention expliqué en détail par la suite.
En particulier, le module de traitement 26 permet de déterminer un vecteur vitesse visuel à partir d’au moins deux images prises par le capteur 16.
Finalement, le module de sortie 27 est raccordé à l’afficheur 14 et permet de traiter des données produites par le module de traitement 26 afin de les afficher sur l’afficheur 14, comme cela sera expliqué par la suite.
Le système de détermination 18 se présente par exemple sous la forme d’un calculateur muni d’un processeur apte à exécuter des logiciels stockés dans une mémoire de celui-ci. Dans ce cas, les modules 26 à 27 se présentent au moins partiellement sous la forme des logiciels exécutables par ce processeur.
Le système de détermination 18 peut comprendre en outre des parties matérielles, comme par exemple des circuits logiques programmables, pour mettre en œuvre au moins certaines étapes ou sous-étapes du procédé de détermination.
Le procédé de détermination du vecteur vitesse visuel selon l’invention sera désormais expliqué en référence à la figure 4 présentant un organigramme de ses étapes.
Ce procédé comprend notamment deux phases qui peuvent être mises en œuvre de manière indépendante ou bien, l’une après l’autre.
Une première phase Pi du procédé permet de déterminer le vecteur vitesse visuel afin qu’il puisse être affiché sur l’afficheur 14 par exemple à la place ou en complément du vecteur vitesse de référence.
Une deuxième phase P2 permet de déterminer les composantes de ce vecteur, à savoir la dérive et la pente, afin qu’elles puissent être comparées avec celles du vecteur vitesse de référence.
Lors d’une phase initiale 110 de la première phase ΡΊ, le module d’acquisition 25 acquiert une pluralité d’images prises par le capteur 16 et transmet ces images au module de traitement 26.
Lors de la phase 120 suivante, le module de traitement 26 analyse au moins deux images successives afin de déterminer sur chacune d’entre elles un point, dit épipôle.
En particulier, l’épipôle sur chacune des deux images représente sur cette image la position du centre optique Oc du capteur d’images 16 au moment de la prise de l’autre image.
Les épipôles eA et e2 des deux images successives et I2 prises respectivement aux moments temporels et t2 (tj étant antérieur à t2), sont illustrés sur la figure 5.
Sur cette figure 5, le point 0^ correspond au point optique Oc du capteur d’images 16 au moment et le point O? correspond au point optique Oc du capteur d’images 16 au moment t2. Ainsi, les points d’intersection de la droite 0*0,? avec les plans formant les images correspondent aux épipôles ex et e2 de ces images.
En outre, de manière connue en soi, l’épipôle de chaque image est le point d’intersection de toutes les droites épipolaires de cette image.
En particulier, dans l’exemple de la figure 5, un point Q quelconque de l’espace ayant le point qr comme la projection sur l’image lr peut se projeter à n’importe quel point de la droite q2 de l’image I2. La droite q2 est alors appelée droite épipolaire.
Pour déterminer les épipôles sur chacune des deux images, le module de traitement met en œuvre les sous-étapes 121 à 125 décrites ci-dessous.
Lors de la sous-étape 121, le module de traitement 26 détermine une pluralité de points de repère, appelés également amers, sur chacune des deux images.
En particulier, par un point de repère, on entend un point remarquable de l’espace qui peut être reconnu sur les deux images. Pour ce faire, il est possible d’associer par exemple à chaque point de repère déterminé sur l’une des images, un descripteur permettant de le reconnaître sur l’autre image.
Puis, lors de la sous-étape 122, le module de traitement 26 associe des points de repère entre les deux images. Cette association est par exemple effectuée en analysant les descripteurs de ces points et/ou en analysant des valeurs de corrélation dans ces points, selon des méthodes connues en soi.
Puis, lors de la sous-étape 123, à partir des points de repère associés, le module de traitement 26 détermine une matrice fondamentale F.
Cette matrice fondamentale F est telle que pour chaque point de repère x' de l’une des deux images, dite première image, et le point de repère x lui associé sur l’autre image, dite deuxième image, la matrice fondamentale F satisfait la relation suivante : xrt.F.x = 0.
Autrement dit, la matrice fondamentale F définit pour chaque point de la première image une droite épipolaire sur la deuxième image.
Puis, lors de la sous-étape 124, le module de traitement 26 détermine l’épipôle e1 sur la première image en tant que le noyau de la matrice fondamentale F.
Autrement dit, l’épipôle est déterminé à partir de la relation suivante : F. = 0.
Puis, lors de la sous-étape 125, le module de traitement 26 détermine l’épipôle e2 sur la deuxième image en tant que le noyau de la matrice fondamentale transposée Ff.
Autrement dit, l’épipôle e2 est déterminé à partir de la relation suivante : F‘.e2 = 0.
Finalement, le module de traitement 26 transmet les positions des épipôles déterminés au module de sortie 27.
Lors de l’étape 130 finale de la première phase ΡΊ, le module de sortie 27 détermine sur l’afficheur 14, la position conforme de l’épipôle de l’image correspondant au moment courant. L’afficheur 14 affiche alors dans cette position un symbole représentatif du vecteur vitesse visuel. Ce symbole est par exemple analogue à celui du vecteur vitesse de référence et est affiché à la place de celui-ci au moins pendant certaines phases de vol de l’aéronef 10.
La deuxième phase P2 comprend notamment une étape 140 lors de laquelle le module de traitement 26 compare le vecteur vitesse visuel avec le vecteur vitesse de référence.
Cette étape comprend plusieurs sous-étapes décrites ci-dessous qui sont par exemple mises en œuvre pour le même couple d’images que celles mentionnées précédemment.
Lors de la première sous-étape 141, le module de traitement 26 analyse des données fournies par le capteur inertiel 22 pour détecter une rotation de l’aéronef 10 entre les moments de prise des deux images.
Si c’est le cas, le module de traitement 26 met en œuvre les étapes 142 et 143. Dans le cas contraire, le module de traitement 26 passe directement à l’étape 145.
Lors des étapes 142 et 143, le module de traitement 26 analyse les deux images pour supprimer l’effet de rotation sur l’une d’entre elles et pour garder donc seulement un mouvement en translation entre ces deux images.
Pour ce faire, lors de la sous-étape 142, le module de traitement 26 acquiert les angles de rotation de la direction de prise d’images entre les deux moments temporels. Ces angles sont fournis soit directement par le capteur inertiel 22 et correspondent aux angles de rotation relative entre les moments de prise des deux images, soit sont prétraités par module d’acquisition 25 en fonction des positions respectives du centre optique du capteur d’images 16 et du capteur inertiel 22.
Puis, lors de la sous-étape 143, le module de traitement 26 fait une transformation homographique par exemple de la première image pour aligner la direction de prise d’images correspondant à cette image avec celle correspondant à la deuxième image.
Cette transformation est effectuée en fonction des angles de rotation acquis selon par exemple des méthodes connues en soi.
Lors de l’étape 145, le module de traitement 26 analyse un couple d’images correspondant aux deux images d’origine lorsqu’aucun mouvement de rotation de l’aéronef 10 n’a été détecté lors de l’étape 141, ou un couple d’images avec l’une des images transformée lors des étapes 142 et 143, dans le cas contraire.
En particulier, lors de la sous-étape 145, le module de traitement 26 détermine une première vitesse visuelle Vvc correspondant à la vitesse de déplacement du centre optique du capteur d’images 16 entre les images du couple.
Cette vitesse visuelle Vvc est calculée dans le repère capteur XCYCZC en supposant alors que seul un mouvement de translation du capteur a eu lieu entre les prises des deux images.
Il est à noter en outre que, compte tenu de la définition du repère capteur XCYCZC, la vitesse visuelle Vvc est déterminée à un facteur d’échelle près tout en tenant compte de la position de l’épipôle sur au moins l’une des deux images.
Ainsi, la première vitesse visuelle Vvc peut être définie à partir de la relation suivante : où : elzet ely sont les coordonnées de l’épipôle sur la première image ; u et v sont les distances focales en pixels du capteur 16 ; et x0 et y0 sont les coordonnées de la position du centre optique sur la première image.
Puis, lors de la sous-étape 146, le module de traitement 26 détermine une deuxième vitesse visuelle Vvl correspondant à la première vitesse visuelle Vvc calculée dans le repère aéronef X^Zlt en utilisant par exemple la relation suivante : — RclVvc·
Puis lors de la sous-étape 147, le module de traitement 26 détermine à partir de la deuxième vitesse visuelle Vvl, une composante de dérive visuelle Driftv de l’aéronef 10 et une composante de pente visuelle FPAV de l’aéronef en utilisant le roulis φ et le tangage Θ de l’aéronef 10 qui sont alors fournies par le capteur inertiel 22.
En particulier, pour calculer la pente visuelle FPAV, le module de traitement 26 détermine la vitesse horizontale visuelle Vhorv et la vitesse verticale visuelle Vzv de l’aéronef 10 dans le repère géographique XYZ. La pente visuelle FPAV est alors déterminée selon l’expression suivante : F P Av l^v/tyiorv ·
Pour calculer la dérive visuelle Driftv, le module de traitement 26 détermine la vitesse latérale visuelle Viatv et la vitesse longitudinale visuelle ViongV de l’aéronef 10 dans le repère géographique XYZ. La dérive visuelle Driftv est alors déterminée selon l’expression suivante :
Driftv atan Viatv/Viongv ·
Puis, lors de la sous-étape 148, le module de traitement 26 détermine une composante de pente de référence FPAref de l’aéronef 10 et compare cette composante avec la composante de pente visuelle FPAV.
La pente de référence FPAref est par exemple déterminée à partir du vecteur VGPS, c’est-à-dire à partir du vecteur de vitesse de l’aéronef déterminé via le système GPS.
Pour ce faire, le module de traitement 26 détermine la vitesse horizontale de référence Vhorref à partir de la vitesse nord et la vitesse est VE du vecteur VGPS ainsi que la vitesse verticale Yz qui est donnée directement par le vecteur FGPS. Ainsi, la pente de référence FPAref est déterminée selon l’expression suivante : FPAref atan Vz/VEorref .
Puis, lors de la même sous-étape 148, le module de traitement 26 compare la pente de référence FPAref avec la pente visuelle FPAV et en fonction du résultat de cette comparaison, associe par exemple un niveau de confiance à l’une ou à l’autre de ces mesures. Ce niveau de confiance est par exemple communiqué au pilote ou à un système avionique pouvant exploiter ce résultat.
Lors de la sous-étape 149 suivante, le module de traitement 26 détermine une composante de dérive de référence Driftref et compare cette composante avec la composante de dérive visuelle Driftv.
Pour ce faire, le module de traitement 26 acquiert d’abord via le module 25, le cap φ de l’aéronef fourni par exemple par le capteur inertiel 21.
En connaissant le cap φ, le module de traitement 26 détermine la vitesse latérale de référence Vlatref et la vitesse longitudinale de référence Viongref de l'aéronef 10 à partir par exemple du vecteur VGPS. La dérive de référence Driftref est ainsi calculée selon l’expression suivante :
Driftref — atan Ylatref l^iongref · À la fin de cette sous-étape 149, le module de traitement 26 compare la dérive de référence Driftref avec la dérive visuelle Dritfv et comme dans le cas précédent, en fonction du résultat de cette comparaison, associe par exemple un niveau de confiance à l’une ou à l’autre de ces mesures. De manière analogue au cas précédent, ce niveau de confiance est par exemple communiqué au pilote ou est exploité par un système avionique.
En variante, lorsque la mesure du cap φ n’est pas disponible ou n’est pas suffisamment précise, au lieu de calculer la dérive de référence Driftref, le module de traitement 26 calcule lors de cette sous-étape 149, une composante d’angle de route de référence de l’aéronef directement à partir du vecteur VGPS. L’angle de route de référence est déterminé à partir de la relation suivante :
Trackref = atan VE/VN.
Puis lors de la même sous-étape, le module de traitement 26 compare l’angle de route de référence Trackref avec un angle de route visuel Trackv calculé à partir du vecteur de vitesse visuel.
Pour déterminer l’angle de route visuel Trackv, le module de traitement 26 détermine d’abord une troisième vitesse visuelle Vv correspondant à la première vitesse visuelle Vvc calculée dans le repère géographique XYZ.
Cette troisième vitesse visuelle Vv est par exemple calculée en utilisant la relation suivante :
Vv = RCVvc, où Rc est la matrice de passage du repère caméra XCYCZC vers le repère géographique XYZ.
Puis, l’angle de route visuel Trackv est déterminé à partir de la relation suivante : T rackref = atan VEv/VNv, où VEv et VNv sont respectivement la vitesse est et la vitesse nord faisant partie du vecteur de la troisième vitesse visuelle Vv.
La matrice Rc peut par exemple être déterminée à l’initialisation du procédé en comparant les projections du vecteur de vitesse VGPS et du premier vecteur de vitesse visuelle Vvc. À la fin de la sous-étape 149, le module de traitement 26 compare l’angle de route visuel Trackv avec l’angle de route de référence Trackref de manière analogue à celle expliquée précédemment.
Bien entendu, l’algorithme de détermination de l’angle de route visuel Trackv peut être également appliqué pour déterminer la pente visuelle lors de la sous-étape 147.
On conçoit alors que l’invention présente un certain nombre d’avantages.
Tout d’abord, le procédé selon l’invention permet de déterminer un vecteur vitesse comparable au vecteur vitesse classiquement utilisé dans le domaine aéronautique.
Ce vecteur vitesse visuel présente un bon équilibre entre l’intégrité et la précision surtout lors du décollage et de l’atterrissage de l’aéronef. En effet, lors de ces phases, le milieu environnant de l’aéronef présente plus de repères visuels extérieurs que par exemple la phase de croisière. De plus, étant donné que lors de ces phases l’aéronef à une vitesse réduite, l’utilisation du vecteur vitesse visuel est particulièrement avantageuse par rapport au vecteur vitesse classique.
En outre, le vecteur vitesse visuel inclut intrinsèquement les rotations instantanées de l’aéronef et peut être ainsi utilisé davantage pour piloter l’aéronef par rapport au vecteur vitesse classique.
En effet, il est connu que le vecteur vitesse classique prend en compte les rotations de l’aéronef avec un certain retard ce qui rend généralement impossible d’utiliser uniquement ce vecteur pour piloter l’aéronef.
En outre, il est possible de calculer les composantes exactes, à savoir la dérive et la pente, du vecteur de vitesse visuel pour les comparer par exemple avec les composantes analogues du vecteur vitesse classique.
La dérive et la pente de l'aéronef calculées à partir du vecteur vitesse visuel sont particulièrement précises même lorsqu’un capteur d’inertiel de basse précision est utilisé.
Finalement, l’utilisation du vecteur vitesse visuel est particulièrement avantageuse lorsqu’un afficheur tête haute à affichage conforme est utilisé. En effet, le vecteur vitesse visuel est déterminé directement à partir des images conformes du milieu environnant ce qui permet de le positionner de manière particulièrement précise sur l’afficheur correspondant.

Claims (13)

  1. REVENDICATIONS
    1. -Procédé de détermination d’un vecteur vitesse visuel d’un aéronef (10) se déplaçant dans un milieu environnant, le vecteur vitesse visuel représentant la direction de déplacement de l’engin mobile (10) dans ce milieu ; le procédé comportant les étapes suivantes : - acquisition (110) d’une séquence d’images du milieu environnant à partir d’un capteur d’images (16) orienté selon une direction de prise d’images et définissant un centre optique de projections (0c) sensiblement fixe par rapport à l’engin mobile (10) ; - analyse (120) d’au moins deux images successives afin de déterminer sur chacune des deux images un point (e1(e2), dit épipôle, représentant sur cette image la position du centre optique (0c) du capteur d’images (16) au moment de la prise de l’autre image ; - pour chaque image analysée, détermination (130) de la position de l’épipôle (e1;e2) de cette image sur un afficheur (14) utilisable pour piloter l’engin mobile (10) et affichage (130) sur l’afficheur (14) d’un symbole représentatif du vecteur vitesse visuel dans cette position.
  2. 2. - Procédé selon la revendication 1, dans lequel l’étape d’analyse (120) d’au moins deux images comprend les sous-étapes suivantes : - détermination (121) d’une pluralité de points de repère sur l’une des deux images, dite première image, et d’une pluralité de points de repère sur l’autre image, dite deuxième image ; - association (122) de points de repère entre la première et la deuxième images ; - à partir des points de repère associés, détermination (123) d’une matrice fondamentale (F) définissant pour chaque point de la première image une droite sur la deuxième image, dite droite épipolaire, sur laquelle se trouve le point de la deuxième image correspondant à ce point de la première image ; - détermination (124) de l’épipôle (e1(e2) sur la première image en tant que le noyau de la matrice fondamentale (F) ; - détermination (125) de l’épipôle (ei_,e2) sur la deuxième image en tant que le noyau de la matrice fondamentale transposée (F1).
  3. 3. - Procédé selon la revendication 1 ou 2, dans lequel le symbole représentatif du vecteur vitesse visuel est affiché sur l’afficheur (14) de manière conforme, ledit afficheur (14) étant de préférence un afficheur tête haute.
  4. 4. - Procédé selon l’une quelconque des revendications précédentes, dans lequel le capteur d’images (16) est monté dans l’engin mobile (10) de sorte que la direction de prise d’images corresponde sensiblement à la direction de déplacement de l’engin mobile (W).
  5. 5. - Procédé selon l’une quelconque des revendications précédentes, dans lequel le capteur d’images (16) est monté sur la tête d’un pilote de l’engin mobile (10).
  6. 6. - Procédé selon l’une quelconque des revendications précédentes, comprenant en outre une étape de comparaison (140) du vecteur vitesse visuel avec un vecteur vitesse de référence déterminé à partir d’informations fournies par un système (21) de positionnement par satellites et/ou un capteur inertiel (22).
  7. 7. - Procédé selon la revendication 6, dans lequel l’étape de comparaison (140) du vecteur vitesse visuel avec le vecteur vitesse de référence comprend les sous-étapes suivantes, mise en œuvre pour chaque couple d’images successives analysées : - détermination (145) d’une première vitesse visuelle (Vvc) correspondant à la vitesse de déplacement du centre optique (Oc) du capteur d’images (16) entre les images dudit couple ; - détermination (146) d’une deuxième vitesse visuelle (Fvl) correspondant à la première vitesse visuelle (Vvc) calculée dans le repère de l’engin mobile (10) ; - détermination (147) à partir de la deuxième vitesse visuelle (Vvl), d’une composante de dérive visuelle (Driftv) de l’engin mobile (10) et d’une composante de pente visuelle (FPAV) de l’engin mobile (10) en utilisant le roulis (Θ) et le tangage (φ) l’engin mobile (10) ; - détermination (148) à partir du vecteur vitesse de référence, d’une composante de pente de référence (FPAref) de l’engin mobile (10) et comparaison (148) de cette composante avec la composante de pente visuelle (FPAV).
  8. 8. - Procédé selon la revendication 7, dans lequel l’étape de comparaison (140) du vecteur vitesse visuel avec le vecteur vitesse de référence comprend en outre pour chaque couple d’images successives analysées, la sous-étape (149) de détermination, à partir du vecteur vitesse de référence et du cap (φ) de l’engin mobile (10), d’une composante de dérive de référence (Driftref) et de comparaison (149) de cette composante avec la composante de dérive visuelle (Driftv).
  9. 9. - Procédé selon la revendication 7 ou 8, dans lequel l’étape de comparaison (140) du vecteur vitesse visuel avec le vecteur vitesse de référence comprend en outre les sous-étapes suivantes, mise en œuvre pour chaque couple d’images successives analysées : - détermination (149) d’une troisième vitesse visuelle (V„) correspondant à la première vitesse visuelle (Fvc) calculée dans un repère géographique (XYZ) ; - détermination (149) à partir de la troisième vitesse visuelle (Fv), d’une composante d’angle de route visuel (Trackv) de l’engin mobile (10) ; - détermination (149) à partir du vecteur vitesse de référence, d’une composante d’angle de route de référence (Trackref) de l’engin mobile (10) et comparaison (149) de cette composante avec la composante d’angle de route visuel (Trackv).
  10. 10. - Procédé selon l’une quelconque des revendications précédentes, dans lequel l’étape de comparaison (140) du vecteur vitesse visuel avec le vecteur vitesse de référence comprend en outre pour chaque couple d’images successives analysées, en cas d’un mouvement en rotation de l’engin mobile (10), des sous-étapes préliminaires suivantes : - acquisition (142) d’angles de rotation de la direction de prise d’images ; - en fonction des angles de rotation acquises, transformation (143) homographique de l’une des images dudit couple pour aligner la direction de prise d’images correspondant à cette image avec celle correspondant à l’autre image.
  11. 11. - Procédé selon l’une quelconque des revendications précédentes, dans lequel l’engin mobile (10) est un aéronef (10).
  12. 12. - Produit programme d'ordinateur comportant des instructions logicielles qui, lorsque mises en œuvre par un équipement informatique, mettent en œuvre le procédé selon l’une quelconque des revendications précédentes.
  13. 13. - Système de détermination (18) d’un vecteur vitesse visuel d’un engin mobile (10), comportant des moyens de mise en œuvre du procédé selon l’une quelconque des revendications précédentes.
FR1701185A 2017-11-16 2017-11-16 Procede de determination d'un vecteur vitesse visuel d'un engin mobile, produit programme d'ordinateur et systeme de determination associes Active FR3073655B1 (fr)

Priority Applications (3)

Application Number Priority Date Filing Date Title
FR1701185A FR3073655B1 (fr) 2017-11-16 2017-11-16 Procede de determination d'un vecteur vitesse visuel d'un engin mobile, produit programme d'ordinateur et systeme de determination associes
US16/186,594 US10970853B2 (en) 2017-11-16 2018-11-12 Determining method of a virtual velocity vector of a mobile engine, associated computer program product and determining system
CN201811372404.8A CN109799363B (zh) 2017-11-16 2018-11-16 移动引擎虚拟速度矢量确定方法、存储介质和确定系统

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1701185A FR3073655B1 (fr) 2017-11-16 2017-11-16 Procede de determination d'un vecteur vitesse visuel d'un engin mobile, produit programme d'ordinateur et systeme de determination associes
FR1701185 2017-11-16

Publications (2)

Publication Number Publication Date
FR3073655A1 FR3073655A1 (fr) 2019-05-17
FR3073655B1 true FR3073655B1 (fr) 2019-10-18

Family

ID=61599212

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1701185A Active FR3073655B1 (fr) 2017-11-16 2017-11-16 Procede de determination d'un vecteur vitesse visuel d'un engin mobile, produit programme d'ordinateur et systeme de determination associes

Country Status (3)

Country Link
US (1) US10970853B2 (fr)
CN (1) CN109799363B (fr)
FR (1) FR3073655B1 (fr)

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6452542B1 (en) * 2001-03-02 2002-09-17 Rosemount Aerospace Inc. Integrated flight management system
US6761057B2 (en) * 2001-09-13 2004-07-13 Rosemount Aerospace Inc. Error detection and fault isolation for multi-function air data probes and systems
US20090278765A1 (en) * 2008-05-09 2009-11-12 Gm Global Technology Operations, Inc. Image adjustment and processing for a head up display of a vehicle
FR2962581B1 (fr) * 2010-07-06 2013-07-05 Imajing Methode de calibration de l'orientation d'une camera video embarquee
US8965057B2 (en) * 2012-03-02 2015-02-24 Qualcomm Incorporated Scene structure-based self-pose estimation
CN103234541A (zh) * 2013-04-19 2013-08-07 天津工业大学 基于kalman滤波的四轴飞行器视觉导航方法
CN103414853B (zh) * 2013-07-26 2016-11-09 东华大学 支持多自由度运动的视频图像序列实时稳定装置与方法
CN104006803B (zh) * 2014-06-20 2016-02-03 中国人民解放军国防科学技术大学 自旋稳定空间飞行器转动运动参数的摄像测量方法
JP6337811B2 (ja) * 2015-03-17 2018-06-06 トヨタ自動車株式会社 画像処理装置及び画像処理方法
FR3045015B1 (fr) * 2015-12-09 2017-12-22 Thales Sa Procede d'affichage d'un "indicateur de directeur d'attitude" dans un systeme de visualisation de tete pour aeronef
US10301041B2 (en) * 2016-06-09 2019-05-28 California Institute Of Technology Systems and methods for tracking moving objects
FR3058229B1 (fr) * 2016-10-27 2020-02-28 Airbus Helicopters Estimation, independante d'une mesure magnetique, de la vitesse et du cap d'un aeronef
CN107014380B (zh) * 2017-05-26 2020-01-07 西安科技大学 基于飞行器的视觉导航与惯性导航的组合导航方法

Also Published As

Publication number Publication date
FR3073655A1 (fr) 2019-05-17
CN109799363B (zh) 2022-05-24
CN109799363A (zh) 2019-05-24
US20190147603A1 (en) 2019-05-16
US10970853B2 (en) 2021-04-06

Similar Documents

Publication Publication Date Title
CN111448591B (zh) 不良光照条件下用于定位车辆的系统和方法
EP0934194B1 (fr) Procede et dispositif de guidage d'une perche de ravitaillement en vol
FR3024127A1 (fr) Procede et systeme d'atterrissage automatique autonome
EP2400460A1 (fr) Procédé d'évaluation de la vitesse horizontale d'un drone, notamment d'un drone apte au vol stationnaire autopiloté
CN111829532B (zh) 一种飞行器重定位系统和重定位方法
EP3689755A1 (fr) Systeme d'eclairage directionnel equipant un aeronef et procede d'eclairage associe
EP2896936B1 (fr) Procédé d'assistance à la navigation pour giravion, par affichage dynamique d'une représentation du monde extérieur construite en vol instantanément et/ou en différé
EP3227860B1 (fr) Procédé d'estimation du mouvement d'un porteur par rapport à un environnement et dispositif de calcul pour système de navigation
CA2361727A1 (fr) Appareil a gyrometres et accelerometres pour la determination des attitudes d'un aerodyne
FR3065801B1 (fr) Procede de visualisation du trafic aux environs d'un aeronef de reference dans une zone d'affichage conforme, produit programme d'ordinateur et systeme de visualisation associes
FR3061598A1 (fr) Procede de calcul et d'affichage d'informations de pilotage comportant un " relief factor"
FR3073655B1 (fr) Procede de determination d'un vecteur vitesse visuel d'un engin mobile, produit programme d'ordinateur et systeme de determination associes
FR3029618B1 (fr) Systeme de visualisation synthetique comprenant des moyens d'adaptation du paysage affiche
FR3081220A1 (fr) Procede d'harmonisation de deux unites de mesure inertielle l'une avec l'autre et systeme de navigation mettant en œuvre ce procede
FR3033903A1 (fr) Systeme d'aide a la navigation d'un aeronef avec ecran d'affichage tete haute et camera.
CA3047766C (fr) Systeme d'aide au pilotage d'un aeronef, aeronef associe et procede d'aide au pilotage de cet aeronef
EP3620852B1 (fr) Procédé de capture d'images aériennes d'une zone géographique, procédé de cartographie tridimensionnelle d'une zone géographique et aéronef pour la réalisation de tels procédés
EP3179291A1 (fr) Procede d'affichage d'un " indicateur de directeur d'attitude " dans un systeme de visualisation de tete pour aeronef
FR3071624B1 (fr) Systeme d'affichage, procede d'affichage et programme d'ordinateur associes
Oliveira et al. Height gradient approach for occlusion detection in UAV imagery
Doehler et al. Image-based drift and height estimation for helicopter landings in brownout
EP3167434A2 (fr) Equipement optronique aeroporte pour l'imagerie, la surveillance et/ou la designation de cibles
EP3578926B1 (fr) Procédé de sécurisation du fonctionnement d'un système de vision synthétique d'un aéronef, produit programme d'ordinateur et système associés
FR3096142A1 (fr) Procédé de géolocalisation d'une plateforme se déplaçant en formation avec d'autres plateformes, produit programme d'ordinateur et module de géolocalisation associes
FR3139654A1 (fr) Procédé et dispositif de navigation pour un aéronef, système, aéronef, programme d'ordinateur et support d'informations associés

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20190517

PLFP Fee payment

Year of fee payment: 3

PLFP Fee payment

Year of fee payment: 4

PLFP Fee payment

Year of fee payment: 5

PLFP Fee payment

Year of fee payment: 6

PLFP Fee payment

Year of fee payment: 7