FR3043815A1 - Procede d'affichage, sur un dispositif d'affichage mobile embarque dans un vehicule, d'images correspondant a un environnement exterieur dudit vehicule. - Google Patents

Procede d'affichage, sur un dispositif d'affichage mobile embarque dans un vehicule, d'images correspondant a un environnement exterieur dudit vehicule. Download PDF

Info

Publication number
FR3043815A1
FR3043815A1 FR1560860A FR1560860A FR3043815A1 FR 3043815 A1 FR3043815 A1 FR 3043815A1 FR 1560860 A FR1560860 A FR 1560860A FR 1560860 A FR1560860 A FR 1560860A FR 3043815 A1 FR3043815 A1 FR 3043815A1
Authority
FR
France
Prior art keywords
display device
vehicle
mobile display
information representative
external environment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
FR1560860A
Other languages
English (en)
Inventor
Thibault Lefez
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Airbus Operations SAS
Original Assignee
Airbus Operations SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Airbus Operations SAS filed Critical Airbus Operations SAS
Priority to FR1560860A priority Critical patent/FR3043815A1/fr
Publication of FR3043815A1 publication Critical patent/FR3043815A1/fr
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/025Services making use of location information using location based information parameters
    • H04W4/027Services making use of location information using location based information parameters using movement velocity, acceleration information
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D11/00Passenger or crew accommodation; Flight-deck installations not otherwise provided for
    • B64D11/0015Arrangements for entertainment or communications, e.g. radio, television
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/29Geographical information databases
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/025Services making use of location information using location based information parameters
    • H04W4/026Services making use of location information using location based information parameters using orientation information, e.g. compass
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/18Information format or content conversion, e.g. adaptation by the network of the transmitted or received information for the purpose of wireless delivery to users or terminals
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D11/00Passenger or crew accommodation; Flight-deck installations not otherwise provided for
    • B64D2011/0061Windows displaying outside view, artificially generated
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/214Specialised server platform, e.g. server located in an airplane, hotel, hospital
    • H04N21/2146Specialised server platform, e.g. server located in an airplane, hotel, hospital located in mass transportation means, e.g. aircraft, train or bus

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Remote Sensing (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Processing Or Creating Images (AREA)

Abstract

L'invention concerne un procédé permettant d'afficher sur un dispositif d'affichage mobile embarqué dans un véhicule, des images synthétiques représentant un environnement extérieur dudit véhicule. Le procédé comprend : obtenir (32) une information représentative d'une localisation géographique du véhicule ; obtenir (33) une information représentative d'un mouvement du dispositif d'affichage mobile ; obtenir (34, 35) des informations représentatives d'un environnement extérieur du véhicule adaptées aux informations obtenues ; et, afficher (36) une image générée, dite image projetée, à partir des informations représentatives de l'environnement extérieur obtenues et en prenant en compte l'information représentative du mouvement du dispositif d'affichage mobile.

Description

La présente invention concerne un procédé d’affichage, sur un dispositif d’affichage mobile embarqué dans un véhicule, d’images correspondant à un environnement extérieur dudit véhicule et un dispositif mettant en œuvre le procédé.
CONTEXTE DE L’INVENTION
Un voyage pouvant être long, beaucoup de véhicules de transport de passagers, tels que des aéronefs, des navires ou des autobus, sont équipés de moyens ou de systèmes permettant de divertir les passagers durant le voyage.
Il est ainsi connu des véhicules comprenant des dispositifs de divertissement embarqués (DDE). Dans le cas des aéronefs, ces DDE sont appelés dispositifs de divertissement en vol (DDV : « In-Flight Entertainment System (IFE) » en terminologie anglo-saxonne). Ces DDE permettent de divertir les passagers du véhicule pendant le voyage, par exemple, en leur affichant sur un écran, des messages d’information, en leur permettant de choisir des films dans une base de données de films ou encore en leur donnant accès à des jeux. Certains véhicules sont équipés, de plus, de caméras extérieures permettant d’acquérir des flux vidéo comprenant des images représentant l’extérieur du véhicule. La demande de brevet américaine US2005/0278753 propose un DDV permettant aux passagers de visualiser sur un écran des images extérieures. Toutefois, ce DDV permet d’offrir un nombre de points de vue sur l’extérieur du véhicule très limité, se bornant aux points de vue offerts par les caméras du véhicule.
Par ailleurs, certains véhicules comprennent des dispositifs permettant de fournir au conducteur ou au pilote du véhicule une vue synthétique améliorée de l’extérieur du véhicule. Un intérêt de ces vues synthétiques est de fournir au conducteur ou au pilote une vue de l’extérieur dans des conditions de visibilité mauvaises ou réduites leur permettant de manœuvrer en toute sécurité le véhicule. Là encore les points de vue sont limités et se bornent à des points de vue utiles pour la conduite ou le pilotage du véhicule. Par ailleurs, les vues synthétiques sont adaptées aux conducteurs et aux pilotes car elles fournissent des informations pertinentes pour le pilotage ou la conduite. Ces informations ne sont pas nécessairement intéressantes pour un passager du véhicule.
Il est souhaitable de pallier ces différents inconvénients de l’état de la technique. D’une manière générale, il est souhaitable de fournir aux passagers d’un véhicule un nombre quasi-illimité de points de vue sur l’extérieur. Par ailleurs, il est préférable que ces points de vue soient adaptés à des passagers.
EXPOSE DE L’INVENTION
Selon un premier aspect de la présente invention, la présente invention concerne un procédé d’affichage, sur un dispositif d’affichage mobile embarqué dans un véhicule, d’images correspondant à un environnement extérieur dudit véhicule. Le procédé comprend : obtenir une information représentative d’une localisation géographique du véhicule ; obtenir une information représentative d’un mouvement du dispositif d’affichage mobile ; obtenir des informations représentatives d’un environnement extérieur du véhicule adaptées aux informations obtenues ; afficher une image générée, dite image projetée, à partir des informations représentatives de l’environnement extérieur obtenues et en prenant en compte l’information représentative du mouvement du dispositif d’affichage mobile.
Ainsi le dispositif d’affichage mobile se comporte comme une fenêtre ou un hublot virtuel sur l’extérieur du véhicule, permettant d’obtenir un nombre quasi-illimité de points de vue sur l’extérieur.
Selon un mode de réalisation, le véhicule est un aéronef.
Selon un mode de réalisation, les informations représentatives d’un environnement extérieur du véhicule adaptées aux informations obtenues sont des images aériennes ou satellitaires correspondant à un voisinage de la localisation géographique du véhicule, ces images aériennes ou satellitaires représentant la terre vue du ciel et formant une image, dite image combinée, représentative d’une zone horizontale située sur terre.
Selon un mode de réalisation, l’image projetée est obtenue en projetant dans l’image projetée une intersection entre un volume représentatif d’un champ optique vu par le dispositif d’affichage mobile et l’image combinée représentative de la zone horizontale située sur terre, l’image projetée ayant une taille et une résolution compatibles avec un écran du dispositif d’affichage mobile et le volume représentatif d’un champ optique vu par le dispositif d’affichage mobile est déterminé à partir de l’information représentative du mouvement du dispositif d’affichage mobile.
Selon un mode de réalisation, l’information représentative d’un mouvement du dispositif d’affichage mobile est calculée par rapport à une position, dite position de calibration.
Selon un mode de réalisation, la position de calibration est déterminée lors d’une procédure de calibration durant laquelle le dispositif d’affichage mobile est positionné dans une position prédéfinie dans le véhicule.
Selon un mode de réalisation, les informations représentatives d’un environnement extérieur du véhicule adaptées aux informations obtenues sont obtenues d’un dispositif serveur avec lequel le dispositif d’affichage mobile communique, le dispositif serveur obtenant lesdites informations représentatives d’un environnement extérieur du véhicule d’une base de données, dite base de données de terrain, la base de données de terrain pouvant être stockée dans le véhicule ou par un serveur situé sur terre avec lequel le dispositif serveur communique.
Selon un deuxième aspect de l’invention, l’invention concerne un dispositif d’affichage mobile embarqué dans un véhicule, adapté pour afficher des images correspondant à un environnement extérieur dudit véhicule. Le dispositif comprend : des moyens d’obtention pour obtenir une information représentative d’une localisation géographique du véhicule ; des moyens d’obtention pour obtenir une information représentative d’un mouvement du dispositif d’affichage mobile ; des moyens d’obtention pour obtenir des informations représentatives d’un environnement extérieur du véhicule adaptées aux informations obtenues ; des moyens d’affichage pour afficher une image générée à partir des informations représentatives de l’environnement extérieur obtenues et en prenant en compte l’information représentative du mouvement du dispositif d’affichage mobile.
Selon un troisième aspect de l’invention, l’invention concerne un système comprenant au moins un dispositif d’affichage mobile selon le deuxième aspect, ledit système étant adapté pour afficher des images correspondant à un environnement extérieur d’un véhicule sur le ou les dispositifs d’affichage mobiles. Le ou les dispositifs d’affichage mobiles sont localisés dans le véhicule et le système comprend en outre un dispositif serveur localisé dans le véhicule et adapté pour fournir des informations représentatives de l’environnement extérieur du véhicule audit ou auxdits dispositifs d’affichage mobiles.
Selon un quatrième aspect de l’invention, l’invention concerne un produit programme d’ordinateur, comprenant des instructions pour mettre en œuvre, par un dispositif, le procédé selon le premier aspect par un processeur du dispositif.
Selon un cinquième aspect de l’invention, l’invention concerne des moyens de stockage, stockant un programme d’ordinateur comportant des instructions pour mettre en œuvre, par un dispositif, le procédé selon le premier aspect lorsque ledit programme est exécuté par un processeur du dispositif.
BREVE DESCRIPTION DES DESSINS
Les caractéristiques de la présente invention mentionnées ci-dessus, ainsi que d’autres, apparaîtront plus clairement à la lecture de la description suivante d’un exemple de réalisation, ladite description étant faite en relation avec les dessins joints, parmi lesquels : - la Fig. 1 illustre schématiquement un exemple de véhicule dans lequel est mise en œuvre l’invention ; - la Fig. 2A illustre schématiquement une architecture matérielle d’un dispositif d’affichage apte à mettre en œuvre un procédé d’affichage d’images correspondant à un environnement extérieur dudit véhicule ; - la Fig. 2B illustre schématiquement une architecture matérielle d’un dispositif serveur localisé dans le véhicule et utilisé dans une mise en œuvre de l’invention; - la Fig. 3 illustre schématiquement un exemple de procédé permettant d’afficher, sur un dispositif d’affichage mobile embarqué (i.e. localisé) dans un véhicule, d’images correspondant à un environnement extérieur dudit véhicule ; - la Fig. 4 illustre schématiquement un repère orthonormé à trois dimensions utilisé dans le procédé d’affichage selon l’invention ; - la Fig. 5 représente schématiquement un résultat d’une mise en œuvre du procédé d’affichage selon l’invention dans un véhicule ; - La Fig. 6A représente un exemple de champ optique vu par le dispositif d’affichage mobile lorsqu’un écran du dispositif d’affichage mobile est parallèle au sol terrestre ; - La Fig. 6B représente un premier exemple de champ optique vu par le dispositif d’affichage mobile lorsque l’écran du dispositif d’affichage mobile n’est pas parallèle au sol terrestre ; et, - La Fig. 6C représente un second exemple de champ optique 63 vu par le dispositif d’affichage mobile 12 lorsque l’écran du dispositif d’affichage mobile 12 n’est pas parallèle au sol terrestre.
DESCRIPTION DETAILLEE DE DIVERS MODES DE REALISATION
La description détaillée ci-après s’attache à décrire différents modes de réalisation de la présente invention dans un contexte d’aéronef de transport de passagers. Les principes de la présente invention s’appliquent cependant dans un contexte plus large. Les principes de la présente invention sont en effet applicables à tout véhicule transportant des passagers, tel qu’un autocar et un véhicule blindé.
La Fig. 1 illustre schématiquement un exemple d’un aéronef 10 embarquant un dispositif serveur 11 et un dispositif d’affichage mobile 12. Le dispositif serveur 11, décrit par la suite en relation avec la Fig. 2B, est, par exemple, fixe dans l’aéronef 10. Le dispositif d’affichage mobile 12 est un dispositif apporté par un passager dans l’aéronef 10. Le dispositif d’affichage mobile 12 est par exemple un téléphone intelligent (« smart phone » en terminologie anglo-saxonne), une tablette, un ordinateur portable, une montre connectée ou des lunettes à réalité augmentée. Le passager peut mettre en œuvre l’invention à tout moment tant qu’il est dans l’aéronef 10.
La Fig. 5 représente schématiquement un résultat d’une mise en œuvre du procédé d’affichage selon l’invention dans l’aéronef 10.
La Fig. 5 illustre ce que voit un passager depuis une cabine de l’aéronef 10. Deux hublots 13A et 13B sont représentés. Le passager peut voir un environnement extérieur de l’aéronef 10 à travers ces deux hublots. Ici l’environnement extérieur vu par les hublots 13A et 13B correspond à deux vues 51 et 53 d’un paysage montagneux. Le passager tient en main un dispositif d’affichage mobile 12, ici un téléphone intelligent. Le dispositif d’affichage mobile 12 affiche alors une vue synthétique 52 de l’environnement extérieur de l’aéronef 10. La vue synthétique 52 correspond à une vue qui ne pourrait pas être vue à travers les hublots. Le dispositif d’affichage mobile 12 peut être déplacé selon tout mouvement pouvant lui être appliqué par le passager. Le dispositif d’affichage mobile 12 se comporte alors comme un hublot virtuel donnant sur l’extérieur de l’aéronef 10.
La Fig. 2A illustre schématiquement une architecture matérielle d’un dispositif d’affichage 12 apte à mettre en œuvre un procédé d’affichage d’images correspondant à un environnement extérieur de l’aéronef 10.
Selon l’exemple d’architecture matérielle représenté à la Fig. 2A, le dispositif d’affichage mobile 12 comprend alors, reliés par un bus de communication 126 : un processeur ou CPU (« Central Processing Unit » en anglais) 120 ; une mémoire vive RAM (« Random Access Memory» en anglais) 121 ; une mémoire morte ROM (« Read Only Memory » en anglais) 122 ; une unité de stockage telle qu’une carte SD (« Secure Digital » en anglais) ou un lecteur de support de stockage, tel qu’un lecteur de cartes SD (« Secure Digital » en anglais) 123; au moins une interface de communication 124 permettant au dispositif d’affichage mobile 12 de communiquer avec le dispositif serveur 11 et un dispositif de détection de mouvements 125 du dispositif d’affichage mobile 12. Le dispositif de détection de mouvements 125 peut par exemple être implémenté par une centrale inertielle. Le dispositif d’affichage mobile 12 comprend par ailleurs un écran, non représenté.
Dans un mode de réalisation, le dispositif de détection de mouvements 125 permet d’obtenir des informations représentatives d’un mouvement local du dispositif d’affichage mobile 12 dans un repère orthonormé fixe centré sur une position initiale située dans l’aéronef 10.
Le processeur 120 est capable d’exécuter des instructions chargées dans la RAM 121 à partir de la ROM 122, d’une mémoire externe (non représentée), d’un support de stockage (tel qu’une carte SD), ou d’un réseau de communication. Lorsque le dispositif d’affichage mobile 12 est mis sous tension, le processeur 120 est capable de lire de la RAM 121 des instructions et de les exécuter. Ces instructions forment un programme d’ordinateur causant la mise en œuvre, par le processeur 120, de tout ou partie des algorithmes et étapes décrits en relation avec la Fig. 3.
Tout ou partie des algorithmes et étapes décrits en relation avec la Fig. 3 peut être implémenté sous forme logicielle par exécution d’un ensemble d’instructions par une machine programmable, par exemple un DSP (« Digital Signal Processor » en anglais) ou un microcontrôleur, ou être implémenté sous forme matérielle par une machine ou un composant dédié, par exemple un FPGA (« Field-Programmable Gâte
Array » en anglais) ou un ASIC (« Application-Specific Integrated Circuit » en anglais).
La Fig. 2B illustre schématiquement une architecture matérielle d’un dispositif serveur 11 localisé dans l’aéronef 10 et utilisé dans une mise en œuvre de l’invention.
Selon l’exemple d’architecture matérielle représenté à la Fig. 2B, le dispositif serveur 11 comprend alors, reliés par un bus de communication 116 : un processeur ou CPU («Central Processing Unit» en anglais) 110; une mémoire vive RAM (« Random Access Memory» en anglais) 111 ; une mémoire morte ROM (« Read Only Memory» en anglais) 112; une unité de stockage telle qu’une carte SD (« Secure Digital » en anglais) ou un lecteur de support de stockage, tel qu’un lecteur de cartes SD («Secure Digital» en anglais) 113; au moins une interface de communication 114 permettant au dispositif serveur 11 de communiquer avec au moins un dispositif d’affichage mobile, tel que le dispositif d’affichage mobile 12 et un dispositif de localisation géographique 115. Le dispositif de localisation géographique 115 peut par exemple être implémenté par un module GPS (« Global Positioning System » en terminologie anglo-saxonne), un module GALILEO ou un module GLONASS (« globalnaïa navigatsionnaïa spoutnikovaïa sistéma » en terminologie Russe). Le dispositif de localisation géographique 115 fournit une information représentative de la localisation géographique de l’aéronef 10.
Le processeur 110 est capable d’exécuter des instructions chargées dans la RAM 111 à partir de la ROM 112, d’une mémoire externe (non représentée), d’un support de stockage (tel qu’une carte SD), ou d’un réseau de communication. Lorsque le dispositif serveur 11 est mis sous tension, le processeur 110 est capable de lire de la RAM 111 des instructions et de les exécuter. Ces instructions forment un programme d’ordinateur causant la mise en œuvre, par le processeur 110, d’étapes permettant de contribuer à la mise en œuvre des algorithmes et étapes décrits en relation avec la Fig. 3.
Tout ou partie des étapes mises en œuvre par la dispositif serveur 11 peut être implémenté sous forme logicielle par exécution d’un ensemble d’instructions par une machine programmable, par exemple un DSP (« Digital Signal Processor » en anglais) ou un microcontrôleur, ou être implémenté sous forme matérielle par une machine ou un composant dédié, par exemple un FPGA (« Field-Programmable Gâte Array » en anglais) ou un ASIC (« Application-Specific Integrated Circuit » en anglais).
Dans un mode de réalisation, le dispositif serveur 11 ne comprend pas de dispositif de localisation 115 mais obtient des informations représentatives d’une localisation de l’aéronef 10 d’un dispositif de localisation externe localisé dans l’aéronef 10 par l’intermédiaire de l’interface de communication 114.
Dans un mode de réalisation, l’unité de stockage 113 stocke une base de données comprenant des informations de terrain, dite base de données de terrain. Ces informations de terrain permettent de reconstruire des images représentatives de tout environnement extérieur que pourrait traverser l’aéronef 10. Dans un mode de réalisation, les informations de terrain comprises dans la base de données de terrain comprennent des images aériennes ou satellitaires de la terre couvrant l’ensemble de la terre.
Dans un mode de réalisation, le dispositif de détection de mouvements 125 du dispositif d’affichage mobile 12 permet d’obtenir des informations représentatives d’un mouvement global du dispositif d’affichage mobile 12 dans un repère orthonormé centré sur une position initiale fixe située sur terre, donnée par exemple par une latitude et une longitude d’une position de décollage de l’aéronef 10. Dans ce cas, l’information représentative d’un mouvement de l’aéronef 10 donnée par le dispositif de détection de mouvement 125 combine une information de mouvement correspondant aux déplacements de l’aéronef 10 et une information de mouvement correspondant aux mouvements du dispositif d’affichage mobile 12 dans l’aéronef 10. Dans ce mode de réalisation, l’aéronef 10 ou le dispositif serveur 11 ne comprend pas de dispositif de localisation géographique 115 destiné à fournir des informations représentatives de la localisation géographique de l’aéronef 10 au dispositif d’affichage mobile 12.
Dans un mode de réalisation, l’unité de stockage 113 ne stocke pas la base de données de terrain. La base de données de terrain est stockée sur un serveur terrestre situé sur terre, non représenté, avec lequel communique le dispositif serveur 11 pour obtenir des informations de terrain. De cette manière, il n’y a pas duplication de la base de données de terrain dans chaque aéronef, chaque aéronef communicant avec une base de données de terrain unique.
La Fig. 3 illustre schématiquement un exemple de procédé permettant d’afficher, sur un dispositif d’affichage mobile embarqué (i.e. localisé) dans un véhicule, des images correspondant à un environnement extérieur dudit véhicule.
Nous considérons ici que le dispositif de détection de mouvements 125 du dispositif d’affichage mobile 12 ne capte qu’un mouvement local du dispositif d’affichage mobile 12 dans un repère orthonormé fixe centré sur une position fixe dans l’aéronef 10. Les déplacements de l’aéronef 10 sont donnés par le dispositif de localisation géographique 115 du dispositif serveur 11.
Le procédé décrit en relation avec la Fig. 3 est mis en œuvre périodiquement avec une période relativement courte de l’ordre de « 1 » ms. Avec une telle période, chaque mouvement appliqué par un utilisateur au dispositif d’affichage mobile 12, même infime, est capté par le dispositif de détection de mouvements 125.
Dans une étape 31, le dispositif d’affichage mobile 12 détermine s’il a effectué un mouvement. Lors de l’étape 31, le dispositif d’affichage mobile 12 fait appel à des informations de mouvement fournies par le dispositif de détection de mouvements 125. Les informations de mouvement sont obtenues, par exemple, sous forme de vecteurs de mouvement à trois dimensions. Chaque coordonnée du vecteur de mouvement correspond à un angle de rotation autour d’un axe du repère orthonormé centré sur une position fixe dans l’aéronef 10. Nous appelons par la suite ce repère orthonormé, « repère orthonormé XYZ ».
La Fig. 4 illustre schématiquement un repère orthonormé à trois dimensions utilisé dans le procédé d’affichage selon l’invention.
Un premier axe de rotation du repère orthonormé XYZ est un axe Y parallèle à un plancher de l’aéronef 10. L’axe Y (représenté aussi dans la Fig. 1) suit une direction parallèle à une direction de déplacement de l’aéronef 10 allant de la queue de l’aéronef 10 au nez de l’aéronef 10. Un deuxième axe de rotation du repère orthonormé XYZ est un axe Z parallèle au plancher de l’aéronef 10 et perpendiculaire à l’axe Y. Un troisième axe de rotation du repère orthonormé XYZ est un axe X perpendiculaire au plancher de l’aéronef 10 et donc perpendiculaire à l’axe Y et à l’axe Z.
Chaque coordonnée du vecteur de mouvement, i.e. chaque rotation par rapport à un axe du repère orthonormé XYZ, est mesurée par rapport à une position prédéfinie, dite position de calibration, du dispositif d’affichage mobile 12. Cette position de calibration correspond à une position dans laquelle un écran du dispositif d’affichage mobile 12 est parallèle au plancher de l’aéronef 10, un des deux côtés dudit écran étant parallèle à l’axe Y, par exemple le côté le plus long, le second côté de l’écran étant parallèle à l’axe Z. Par ailleurs, le dispositif d’affichage 12 est centré sur une position fixe dans l’aéronef 10 correspondant à l’origine du repère orthonormé XYZ.
Dans un mode de réalisation, pour pouvoir mettre en œuvre le procédé d’affichage selon l’invention, il est demandé à l’utilisateur du dispositif d’affichage 12 d’appliquer une procédure de calibration préalablement à la mise en œuvre du procédé d’affichage décrit en relation avec la Fig. 3. Lors de la procédure de calibration, l’utilisateur doit positionner le dispositif d’affichage mobile 12, sur une position prédéterminée dans la cabine. Afin que l’utilisateur trouve une position alignée sur les axes du repère orthonormé XYZ, la procédure de calibration comprend une phase dans laquelle l’utilisateur doit positionner le dispositif d’affichage mobile 12 dans une position de calibration. Par exemple, le dispositif d’affichage mobile 12 doit être positionné sur l’accoudoir droit du siège de l’utilisateur, le plus petit côté de l’écran du dispositif d’affichage mobile 12 devant être aligné sur un axe dessiné sur ledit accoudoir. Des informations représentatives de la position de calibration sont alors sauvegardées par le dispositif d’affichage mobile 12. Chaque mouvement du dispositif d’affichage mobile 12 est alors mesuré par rapport à cette position initiale.
Un mouvement du dispositif d’affichage mobile 12 est détecté lors de l’étape 31 lorsqu’au moins une des coordonnées du vecteur de mouvement mesurée par le dispositif de détection de mouvements 125 est non nulle. Lorsqu’un mouvement du dispositif d’affichage mobile 12 est détecté, le procédé d’affichage se poursuit avec des étapes 32 à 36. Si aucun mouvement n’est détecté, la mise en œuvre du procédé d’affichage prend fin et le dispositif d’affichage mobile affiche une image tel que décrit plus loin en relation avec la Fig. 6A.
On note, par ailleurs, que les étapes 32 à 36 sont aussi mises en œuvre lors du premier lancement du procédé d’affichage lorsque le dispositif d’affichage mobile 12 est dans la position de calibration.
Dans l’étape 32, le dispositif d’affichage mobile 12 obtient une information représentative d’une localisation géographique de l’aéronef 10. Dans un mode de réalisation, le dispositif d’affichage mobile 12 transmet une première requête au dispositif serveur 11 afin d’obtenir une information représentative de la localisation géographique de l’aéronef 10 mesurée par le dispositif de localisation géographique 115. Cette information comprend par exemple une latitude et une longitude de l’aéronef 10. Cette information est ensuite transmise par le dispositif serveur 11 au dispositif d’affichage mobile 12 dans une deuxième requête. Les requêtes utilisées pour obtenir l’information représentative de la localisation géographique de l’aéronef 10 peuvent être par exemple des requêtes HTTP (« HyperText Transfer Protocol » en terminologie anglo-saxonne). Dans ce cas le dispositif d’affichage mobile 12 et le dispositif serveur 11 implémentent une application client/serveur HTTP.
Lors de l’étape 33, le dispositif d’affichage mobile 12 obtient une information représentative d’un mouvement du dispositif d’affichage mobile 12. Comme décrit plus haut, cette information est fournie par le dispositif de détection de mouvements 125 du dispositif d’affichage mobile 12 sous forme de vecteur de mouvement à 3 dimensions. Chaque coordonnée du vecteur de mouvement est un angle de rotation par rapport aux axes X, Y et Z.
Lors des étapes 34 et 35, le dispositif d’affichage mobile 12 obtient des informations représentatives d’un environnement extérieur du véhicule adaptées aux informations représentatives de la localisation géographique de l’aéronef 10 et du mouvement du dispositif d’affichage mobile 12. Pour ce faire, dans un mode de réalisation, lors de l’étape 34, le dispositif d’affichage mobile 12 transmet une requête, par exemple une requête HTTP, au dispositif serveur 11 comprenant l’information représentative de la localisation géographique de l’aéronef 10. En réponse, lors de l’étape 35, le dispositif serveur 11 recherche dans la base de données de terrain, des images aériennes ou satellitaires correspondant à un voisinage de la localisation géographique de l’aéronef 10, ces images aériennes ou satellitaires représentant la terre vue du ciel. Par exemple, les images recherchées correspondent à une zone carrée de largeur « 20 » km, centrée sur la localisation géographique de l’aéronef 10. Toutefois toute autre forme de zone, par exemple circulaire, rectangulaire, peut être utilisée. Chaque image correspondant à ce voisinage est ensuite transmise par le dispositif serveur 11 au dispositif d’affichage mobile 12 dans des requêtes, par exemple des requêtes HTTP.
Lors de l’étape 36, le dispositif d’affichage mobile 12 affiche une image générée à partir des informations représentatives de l’environnement extérieur de l’aéronef 10, ici les images aériennes ou satellitaires, obtenues en prenant en compte l’information représentative du mouvement du dispositif d’affichage mobile 12. Pour ce faire, un champ optique virtuel vu par le dispositif d’affichage mobile 12 est défini. Ce champ optique virtuel est représenté par un volume déterminé à partir de l’information représentative du mouvement du dispositif d’affichage mobile 12 obtenue lors de l’étape 33 et permet de déterminer une sous partie des images aériennes ou satellitaires vue par le dispositif d’affichage mobile 12. Dans un mode de réalisation, les images aériennes sont supposées horizontales, parallèles aux axes Y et Z. Dans ce mode de réalisation, la terre apparaît donc lisse et sans relief.
La Fig. 6A représente un exemple de champ optique 63 vu par le dispositif d’affichage mobile 12 lorsque l’écran du dispositif d’affichage mobile 12 est parallèle au sol terrestre. Cette position de l’écran correspond au cas où le dispositif d’affichage mobile 12 est dans la position de calibration. Pour simplifier nous définissons le champ optique 63 comme un volume pyramidal ayant une origine (i.e. un sommet) 62 situé en arrière du dispositif d’affichage mobile 12. Chaque angle de l’écran du dispositif d’affichage mobile 12 est traversé par une arête du volume pyramidal définissant le champ optique 63. Le champ optique 63 est traversé par un axe optique 64 correspondant à un axe de symétrie de rotation du volume pyramidal définissant le champ optique 63. Une largeur du champ optique 63 est définie par des angles formés entre l’axe optique et les arêtes du volume pyramidal définissant le champ optique 63. Dans un mode de réalisation ces angles sont égaux à « 45° ». L’ensemble des images aériennes ou satellitaires obtenues lors de l’étape 35 forment une image 60 représentative d’une zone horizontale située sur terre, appelée image combinée. Dans l’exemple de la zone carrée de largeur « 20 » km, la zone horizontale est carrée. La sous-partie des images aériennes ou satellitaires vue par le dispositif d’affichage mobile 12 correspond à une intersection 61 entre le volume pyramidal définissant le champ optique 63 et l’image combinée représentative de la zone horizontale. Dans un cas général, cette intersection 61 est un quadrilatère convexe. Dans l’exemple de la Fig. 6A, l’intersection 61 est un rectangle. L’intersection est ensuite projetée par des techniques connues dans un plan contenant l’écran du dispositif d’affichage mobile 12 sous forme d’une image, dite image projetée, ayant une taille et une résolution compatibles avec l’écran du dispositif d’affichage mobile 12. Pour simplifier, par la suite, nous appelons la projection dans le plan contenant l’écran du dispositif d’affichage mobile 12, projection dans l’image projetée. Dans l’exemple de la Fig. 6A, l’intersection 61 forme une image, dite image d’intersection, ayant une taille multiple de la taille de l’écran du dispositif d’affichage 12. La projection de l’image d’intersection peut consister alors en un sous-échantillonnage de l’image d’intersection égale dans chacune des deux dimensions de l’image d’intersection. Dans l’exemple de la Fig. 6A, l’utilisateur obtient une image projetée sur le dispositif d’affichage mobile 12 simulant un hublot virtuel permettant de voir à travers le plancher de l’aéronef 10. L’image projetée obtenue dans l’exemple décrit en relation avec la Fig. 6A est celle affichée sur l’écran du dispositif d’affichage mobile 12 lorsque le dispositif d’affichage mobile 12 est dans la position de calibration.
La Fig. 6B représente un premier exemple de champ optique 63 vu par le dispositif d’affichage mobile 12 lorsque l’écran du dispositif d’affichage mobile 12 n’est pas parallèle au sol terrestre.
Dans l’exemple de la Fig. 6B, le dispositif d’affichage mobile 12 a subi une rotation suivant l’axe Z parallèle au plus petit côté de l’écran du dispositif d’affichage mobile 12. Dans ce cas, l’image d’intersection n’a plus une taille multiple de la taille de l’écran du dispositif d’affichage 12. L’image d’intersection possède un plus grand côté égal au plus grand côté de l’écran du dispositif d’affichage mobile 12 multiplié par un premier coefficient multiplicateur et un plus petit côté égal au plus petit côté de l’écran du dispositif d’affichage mobile 12 multiplié par un second coefficient multiplicateur. Le premier et le second coefficients multiplicateurs sont différents. Dans ce cas un sous-échantillonnage différent est appliqué dans chacune des dimensions de l’image d’intersection pour obtenir l’image projetée.
La Fig. 6C représente un second exemple de champ optique 63 vu par le dispositif d’affichage mobile 12 lorsque l’écran du dispositif d’affichage mobile 12 n’est pas parallèle au sol terrestre.
Dans l’exemple de la Fig. 6C, le dispositif d’affichage mobile 12 a subi une rotation suivant l’axe Z parallèle au plus petit côté de l’écran du dispositif d’affichage mobile 12 de sorte qu’une partie du volume pyramidal représentant le champ optique 63 n’intersecte plus avec l’image combinée 60 représentative de la zone horizontale. Dans ce cas on calcule un pourcentage du champ optique intersecté par la zone de l’image combinée 60. L’image projetée est alors divisée en deux parties séparées par une ligne horizontale représentant l’horizon. La ligne horizontale est positionnée dans l’image projetée à une position dépendant du pourcentage du champ optique intersecté. Dans l’exemple de la Fig. 6C, si « 30% » de champ optique sont intersectés par l’image combinée 60, la ligne horizontale est positionnée à une distance du bas de l’image projetée égale à « 30% » de la hauteur de ladite image projetée. L’intersection 61 entre le champ optique 63 et l’image combinée 60 est alors projetée dans la partie inférieure de l’image projetée. Une image de ciel synthétique est affichée dans la zone supérieure de l’image projetée. D’autres rotations plus complexes du dispositif d’affichage mobile 12 combinant des rotations suivant les axes X, Y et Z peuvent être appliquées par l’utilisateur. Dans ce cas, la projection de l’image d’intersection dans l’image projetée peut nécessiter une utilisation de techniques d’interpolation et de transformation affine connue.
Dans un mode de réalisation, lors de l’étape 34, le dispositif d’affichage mobile 12 transmet une requête, par exemple une requête HTTP, au dispositif serveur 12 comprenant l’information représentative de la localisation géographique de l’aéronef 10 et l’information représentative du mouvement du dispositif d’affichage mobile 12. Dans ce cas, c’est le dispositif serveur 11 qui calcule directement l’image projetée et la transmet au dispositif d’affichage mobile 12 qui l’affiche.
Dans un mode de réalisation, la base de données de terrain comprend un modèle en trois dimensions des zones traversées par l’aéronef 10. Ce modèle en trois dimensions (3D) est par exemple stocké dans le format VRML (« Virtual Reality Modeling Language » en terminologie anglo-saxonne, langage de modélisation pour la réalité virtuelle). Des portions du modèle 3D correspondant à l’information représentative de la position géographique de l’aéronef 10 et à l’information représentative du mouvement du dispositif d’affichage mobile 12 sont alors transmises sur requête du dispositif d’affichage mobile 12 au dispositif serveur 11. Le dispositif d’affichage mobile 12 affiche alors des points de vue sur le modèle 3D dépendant de la position géographique de l’aéronef 10 et à l’information représentative du mouvement du dispositif d’affichage mobile 12.

Claims (11)

  1. REVENDICATIONS 1) Procédé d’affichage, sur un dispositif d’affichage mobile (12) embarqué dans un véhicule (10), d’images correspondant à un environnement extérieur dudit véhicule (10) caractérisé en ce que le procédé comprend : obtenir (32) une information représentative d’une localisation géographique du véhicule (10) ; obtenir (33) une information représentative d’un mouvement du dispositif d’affichage mobile (12) ; obtenir (34, 35) des informations représentatives d’un environnement extérieur du véhicule (10) adaptées aux informations obtenues ; afficher (36) une image générée, dite image projetée, à partir des informations représentatives de l’environnement extérieur obtenues et en prenant en compte l’information représentative du mouvement du dispositif d’affichage mobile (12).
  2. 2) Procédé selon la revendication 1, caractérisé en ce que le véhicule (10) est un aéronef.
  3. 3) Procédé selon la revendication 1 ou 2, caractérisé en ce que les informations représentatives d’un environnement extérieur du véhicule (10) adaptées aux informations obtenues sont des images aériennes ou satellitaires correspondant à un voisinage de la localisation géographique du véhicule (10), ces images aériennes ou satellitaires représentant la terre vue du ciel et formant une image (60), dite image combinée, représentative d’une zone horizontale située sur terre.
  4. 4) Procédé selon l’une quelconque des revendications précédentes, caractérisé en ce que l’image projetée est obtenue en projetant dans l’image projetée une intersection (61) entre un volume représentatif d’un champ optique (63) vu par le dispositif d’affichage mobile (12) et l’image combinée (60) représentative de la zone horizontale située sur terre, l’image projetée ayant une taille et une résolution compatibles avec un écran du dispositif d’affichage mobile (12) et le volume représentatif d’un champ optique (63) vu par le dispositif d’affichage mobile (12) est déterminé à partir de l’information représentative du mouvement du dispositif d’affichage mobile (12).
  5. 5) Procédé selon l’une quelconque des revendications précédentes, caractérisé en ce que l’information représentative d’un mouvement du dispositif d’affichage mobile (12) est calculée par rapport à une position, dite position de calibration.
  6. 6) Procédé selon la revendication 5, caractérisé en ce que la position de calibration est déterminée lors d’une procédure de calibration durant laquelle le dispositif d’affichage mobile (12) est positionné dans une position prédéfinie dans le véhicule (10).
  7. 7) Procédé selon l’une quelconque des revendications précédentes, caractérisé en ce que les informations représentatives d’un environnement extérieur du véhicule (10) adaptées aux informations obtenues sont obtenues d’un dispositif serveur (11) avec lequel le dispositif d’affichage mobile (12) communique, le dispositif serveur (11) obtenant lesdites informations représentatives d’un environnement extérieur du véhicule (10) d’une base de données, dite base de données de terrain, la base de données de terrain pouvant être stockée dans le véhicule (10) ou par un serveur situé sur terre avec lequel le dispositif serveur (11) communique.
  8. 8) Dispositif d’affichage mobile (12) embarqué dans un véhicule (10), adapté pour afficher des images correspondant à un environnement extérieur dudit véhicule (10), caractérisé en ce que le dispositif comprend : des moyens d’obtention (32) pour obtenir une information représentative d’une localisation géographique du véhicule (10) ; des moyens d’obtention (33) pour obtenir une information représentative d’un mouvement du dispositif d’affichage mobile (12) ; de moyens d’obtention (34, 35) pour obtenir des informations représentatives d’un environnement extérieur du véhicule (10) adaptées aux informations obtenues ; des moyens d’affichage (36) pour afficher une image générée à partir des informations représentatives de l’environnement extérieur obtenues et en prenant en compte l’information représentative du mouvement du dispositif d’affichage mobile (12) .
  9. 9) Système comprenant au moins un dispositif d’affichage mobile (12) selon la revendication 8, ledit système étant adapté pour afficher des images correspondant à un environnement extérieur d’un véhicule (10) sur le ou les dispositifs d’affichage mobiles (12), caractérisé en ce que le ou les dispositifs d’affichage mobiles (12) sont localisés dans le véhicule (10) et le système comprend en outre un dispositif serveur (11) localisé dans le véhicule et adapté pour fournir des informations représentatives de l’environnement extérieur du véhicule (10) audit ou audits dispositifs d’affichage mobiles (12).
  10. 10) Produit programme d’ordinateur, caractérisé en ce qu’il comporte des instructions pour mettre en œuvre, par un dispositif, le procédé selon l'une quelconque des revendications 1 à 7 par un processeur du dispositif.
  11. 11) Moyens de stockage, caractérisés en ce qu’ils stockent un programme d’ordinateur comportant des instructions pour mettre en œuvre, par un dispositif, le procédé selon l'une quelconque des revendications 1 à 7 lorsque ledit programme est exécuté par un processeur du dispositif.
FR1560860A 2015-11-13 2015-11-13 Procede d'affichage, sur un dispositif d'affichage mobile embarque dans un vehicule, d'images correspondant a un environnement exterieur dudit vehicule. Pending FR3043815A1 (fr)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR1560860A FR3043815A1 (fr) 2015-11-13 2015-11-13 Procede d'affichage, sur un dispositif d'affichage mobile embarque dans un vehicule, d'images correspondant a un environnement exterieur dudit vehicule.

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR1560860A FR3043815A1 (fr) 2015-11-13 2015-11-13 Procede d'affichage, sur un dispositif d'affichage mobile embarque dans un vehicule, d'images correspondant a un environnement exterieur dudit vehicule.

Publications (1)

Publication Number Publication Date
FR3043815A1 true FR3043815A1 (fr) 2017-05-19

Family

ID=55072993

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1560860A Pending FR3043815A1 (fr) 2015-11-13 2015-11-13 Procede d'affichage, sur un dispositif d'affichage mobile embarque dans un vehicule, d'images correspondant a un environnement exterieur dudit vehicule.

Country Status (1)

Country Link
FR (1) FR3043815A1 (fr)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6084594A (en) * 1997-06-24 2000-07-04 Fujitsu Limited Image presentation apparatus
US20010043212A1 (en) * 1996-02-26 2001-11-22 Gaku Sone Method and apparatus for displaying road map in form of bird's eye view
US20040217978A1 (en) * 2003-04-30 2004-11-04 Humphries Orin L. Method and system for presenting different views to passengers in a moving vehicle
FR2854374A1 (fr) * 2003-05-02 2004-11-05 Thales Sa Aeronef pourvu de moyens d'affichage de terrain survole
US20100102980A1 (en) * 2008-10-28 2010-04-29 The Boeing Company Hand-Held Positioning Interface for Spatial Query
EP2485119A2 (fr) * 2011-02-02 2012-08-08 Nintendo Co., Ltd. Interface homme/machine à affichages multiples corrélés dans l'espace
EP2597619A1 (fr) * 2011-11-24 2013-05-29 Thales Procede et dispositif de representation d'environnements synthetiques.
EP2680578A2 (fr) * 2012-06-25 2014-01-01 The Boeing Company Système d'affichage de véhicule

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20010043212A1 (en) * 1996-02-26 2001-11-22 Gaku Sone Method and apparatus for displaying road map in form of bird's eye view
US6084594A (en) * 1997-06-24 2000-07-04 Fujitsu Limited Image presentation apparatus
US20040217978A1 (en) * 2003-04-30 2004-11-04 Humphries Orin L. Method and system for presenting different views to passengers in a moving vehicle
FR2854374A1 (fr) * 2003-05-02 2004-11-05 Thales Sa Aeronef pourvu de moyens d'affichage de terrain survole
US20100102980A1 (en) * 2008-10-28 2010-04-29 The Boeing Company Hand-Held Positioning Interface for Spatial Query
EP2485119A2 (fr) * 2011-02-02 2012-08-08 Nintendo Co., Ltd. Interface homme/machine à affichages multiples corrélés dans l'espace
EP2597619A1 (fr) * 2011-11-24 2013-05-29 Thales Procede et dispositif de representation d'environnements synthetiques.
EP2680578A2 (fr) * 2012-06-25 2014-01-01 The Boeing Company Système d'affichage de véhicule

Similar Documents

Publication Publication Date Title
CN109923855B (zh) 图像处理装置、图像处理方法和程序
EP3025770B1 (fr) Système video pour le pilotage d'un drone en mode immersif
JP6803919B2 (ja) 飛行経路生成方法、飛行経路生成システム、飛行体、プログラム、及び記録媒体
US20180225875A1 (en) Augmented reality in vehicle platforms
JP6765512B2 (ja) 飛行経路生成方法、情報処理装置、飛行経路生成システム、プログラム及び記録媒体
EP3278301A1 (fr) Procede de determination d'une direction d'un objet a partir d'une image de l'objet
CN112074875A (zh) 构造3d特征图的组优化深度信息方法和系统
US8624959B1 (en) Stereo video movies
EP3717956B1 (fr) Dispositif de vision pour pilote d'aeronef
US10568148B2 (en) Systems and methods for communicating notices within a vehicle using a mobile device
US20210185235A1 (en) Information processing device, imaging control method, program and recording medium
FR3043815A1 (fr) Procede d'affichage, sur un dispositif d'affichage mobile embarque dans un vehicule, d'images correspondant a un environnement exterieur dudit vehicule.
FR3043789A1 (fr) Chargement de donnees d'ephemerides dans un drone.
FR3029618B1 (fr) Systeme de visualisation synthetique comprenant des moyens d'adaptation du paysage affiche
EP3187829A1 (fr) Procede de representation graphique d'une vue synthetique tridimensionnelle du paysage exterieur dans un systeme de visualisation de bord pour aeronef
US20200134922A1 (en) Movable body
EP3281097A1 (fr) Dispositif electronique de projection interactif
EP3167434A2 (fr) Equipement optronique aeroporte pour l'imagerie, la surveillance et/ou la designation de cibles
FR3087413A1 (fr) Procede de pilotage de l'affichage d'informations sur un bandeau d'ecran equipant une passerelle de bateau
EP3620852A1 (fr) Procédé de capture d'images aériennes d'une zone géographique, procédé de cartographie tridimensionnelle d'une zone géographique et aéronef pour la réalisation de tels procédés
EP3578926B1 (fr) Procédé de sécurisation du fonctionnement d'un système de vision synthétique d'un aéronef, produit programme d'ordinateur et système associés
EP4006491A1 (fr) Système d'aide à la navigation d'un porteur à l'aide d'amers
FR3071624B1 (fr) Systeme d'affichage, procede d'affichage et programme d'ordinateur associes
US20220309747A1 (en) Communication system and method
FR3069317A1 (fr) Procede d'estimation du mouvement d'un objet evoluant dans un environnement et un champ magnetique

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20170519