FR3043815A1 - Procede d'affichage, sur un dispositif d'affichage mobile embarque dans un vehicule, d'images correspondant a un environnement exterieur dudit vehicule. - Google Patents
Procede d'affichage, sur un dispositif d'affichage mobile embarque dans un vehicule, d'images correspondant a un environnement exterieur dudit vehicule. Download PDFInfo
- Publication number
- FR3043815A1 FR3043815A1 FR1560860A FR1560860A FR3043815A1 FR 3043815 A1 FR3043815 A1 FR 3043815A1 FR 1560860 A FR1560860 A FR 1560860A FR 1560860 A FR1560860 A FR 1560860A FR 3043815 A1 FR3043815 A1 FR 3043815A1
- Authority
- FR
- France
- Prior art keywords
- display device
- vehicle
- mobile display
- information representative
- external environment
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 40
- VJYFKVYYMZPMAB-UHFFFAOYSA-N ethoprophos Chemical compound CCCSP(=O)(OCC)SCCC VJYFKVYYMZPMAB-UHFFFAOYSA-N 0.000 title 1
- 230000003287 optical effect Effects 0.000 claims description 26
- 238000004590 computer program Methods 0.000 claims description 6
- 238000012550 audit Methods 0.000 claims 1
- 238000001514 detection method Methods 0.000 description 10
- 238000004891 communication Methods 0.000 description 7
- 239000013598 vector Substances 0.000 description 6
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/02—Services making use of location information
- H04W4/025—Services making use of location information using location based information parameters
- H04W4/027—Services making use of location information using location based information parameters using movement velocity, acceleration information
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64D—EQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
- B64D11/00—Passenger or crew accommodation; Flight-deck installations not otherwise provided for
- B64D11/0015—Arrangements for entertainment or communications, e.g. radio, television
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/29—Geographical information databases
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/60—Editing figures and text; Combining figures or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/02—Services making use of location information
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/02—Services making use of location information
- H04W4/025—Services making use of location information using location based information parameters
- H04W4/026—Services making use of location information using location based information parameters using orientation information, e.g. compass
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/18—Information format or content conversion, e.g. adaptation by the network of the transmitted or received information for the purpose of wireless delivery to users or terminals
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64D—EQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
- B64D11/00—Passenger or crew accommodation; Flight-deck installations not otherwise provided for
- B64D2011/0061—Windows displaying outside view, artificially generated
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/21—Server components or server architectures
- H04N21/214—Specialised server platform, e.g. server located in an airplane, hotel, hospital
- H04N21/2146—Specialised server platform, e.g. server located in an airplane, hotel, hospital located in mass transportation means, e.g. aircraft, train or bus
Landscapes
- Engineering & Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Databases & Information Systems (AREA)
- Data Mining & Analysis (AREA)
- Remote Sensing (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Geometry (AREA)
- Computer Graphics (AREA)
- Aviation & Aerospace Engineering (AREA)
- Processing Or Creating Images (AREA)
Abstract
L'invention concerne un procédé permettant d'afficher sur un dispositif d'affichage mobile embarqué dans un véhicule, des images synthétiques représentant un environnement extérieur dudit véhicule. Le procédé comprend : obtenir (32) une information représentative d'une localisation géographique du véhicule ; obtenir (33) une information représentative d'un mouvement du dispositif d'affichage mobile ; obtenir (34, 35) des informations représentatives d'un environnement extérieur du véhicule adaptées aux informations obtenues ; et, afficher (36) une image générée, dite image projetée, à partir des informations représentatives de l'environnement extérieur obtenues et en prenant en compte l'information représentative du mouvement du dispositif d'affichage mobile.
Description
La présente invention concerne un procédé d’affichage, sur un dispositif d’affichage mobile embarqué dans un véhicule, d’images correspondant à un environnement extérieur dudit véhicule et un dispositif mettant en œuvre le procédé.
CONTEXTE DE L’INVENTION
Un voyage pouvant être long, beaucoup de véhicules de transport de passagers, tels que des aéronefs, des navires ou des autobus, sont équipés de moyens ou de systèmes permettant de divertir les passagers durant le voyage.
Il est ainsi connu des véhicules comprenant des dispositifs de divertissement embarqués (DDE). Dans le cas des aéronefs, ces DDE sont appelés dispositifs de divertissement en vol (DDV : « In-Flight Entertainment System (IFE) » en terminologie anglo-saxonne). Ces DDE permettent de divertir les passagers du véhicule pendant le voyage, par exemple, en leur affichant sur un écran, des messages d’information, en leur permettant de choisir des films dans une base de données de films ou encore en leur donnant accès à des jeux. Certains véhicules sont équipés, de plus, de caméras extérieures permettant d’acquérir des flux vidéo comprenant des images représentant l’extérieur du véhicule. La demande de brevet américaine US2005/0278753 propose un DDV permettant aux passagers de visualiser sur un écran des images extérieures. Toutefois, ce DDV permet d’offrir un nombre de points de vue sur l’extérieur du véhicule très limité, se bornant aux points de vue offerts par les caméras du véhicule.
Par ailleurs, certains véhicules comprennent des dispositifs permettant de fournir au conducteur ou au pilote du véhicule une vue synthétique améliorée de l’extérieur du véhicule. Un intérêt de ces vues synthétiques est de fournir au conducteur ou au pilote une vue de l’extérieur dans des conditions de visibilité mauvaises ou réduites leur permettant de manœuvrer en toute sécurité le véhicule. Là encore les points de vue sont limités et se bornent à des points de vue utiles pour la conduite ou le pilotage du véhicule. Par ailleurs, les vues synthétiques sont adaptées aux conducteurs et aux pilotes car elles fournissent des informations pertinentes pour le pilotage ou la conduite. Ces informations ne sont pas nécessairement intéressantes pour un passager du véhicule.
Il est souhaitable de pallier ces différents inconvénients de l’état de la technique. D’une manière générale, il est souhaitable de fournir aux passagers d’un véhicule un nombre quasi-illimité de points de vue sur l’extérieur. Par ailleurs, il est préférable que ces points de vue soient adaptés à des passagers.
EXPOSE DE L’INVENTION
Selon un premier aspect de la présente invention, la présente invention concerne un procédé d’affichage, sur un dispositif d’affichage mobile embarqué dans un véhicule, d’images correspondant à un environnement extérieur dudit véhicule. Le procédé comprend : obtenir une information représentative d’une localisation géographique du véhicule ; obtenir une information représentative d’un mouvement du dispositif d’affichage mobile ; obtenir des informations représentatives d’un environnement extérieur du véhicule adaptées aux informations obtenues ; afficher une image générée, dite image projetée, à partir des informations représentatives de l’environnement extérieur obtenues et en prenant en compte l’information représentative du mouvement du dispositif d’affichage mobile.
Ainsi le dispositif d’affichage mobile se comporte comme une fenêtre ou un hublot virtuel sur l’extérieur du véhicule, permettant d’obtenir un nombre quasi-illimité de points de vue sur l’extérieur.
Selon un mode de réalisation, le véhicule est un aéronef.
Selon un mode de réalisation, les informations représentatives d’un environnement extérieur du véhicule adaptées aux informations obtenues sont des images aériennes ou satellitaires correspondant à un voisinage de la localisation géographique du véhicule, ces images aériennes ou satellitaires représentant la terre vue du ciel et formant une image, dite image combinée, représentative d’une zone horizontale située sur terre.
Selon un mode de réalisation, l’image projetée est obtenue en projetant dans l’image projetée une intersection entre un volume représentatif d’un champ optique vu par le dispositif d’affichage mobile et l’image combinée représentative de la zone horizontale située sur terre, l’image projetée ayant une taille et une résolution compatibles avec un écran du dispositif d’affichage mobile et le volume représentatif d’un champ optique vu par le dispositif d’affichage mobile est déterminé à partir de l’information représentative du mouvement du dispositif d’affichage mobile.
Selon un mode de réalisation, l’information représentative d’un mouvement du dispositif d’affichage mobile est calculée par rapport à une position, dite position de calibration.
Selon un mode de réalisation, la position de calibration est déterminée lors d’une procédure de calibration durant laquelle le dispositif d’affichage mobile est positionné dans une position prédéfinie dans le véhicule.
Selon un mode de réalisation, les informations représentatives d’un environnement extérieur du véhicule adaptées aux informations obtenues sont obtenues d’un dispositif serveur avec lequel le dispositif d’affichage mobile communique, le dispositif serveur obtenant lesdites informations représentatives d’un environnement extérieur du véhicule d’une base de données, dite base de données de terrain, la base de données de terrain pouvant être stockée dans le véhicule ou par un serveur situé sur terre avec lequel le dispositif serveur communique.
Selon un deuxième aspect de l’invention, l’invention concerne un dispositif d’affichage mobile embarqué dans un véhicule, adapté pour afficher des images correspondant à un environnement extérieur dudit véhicule. Le dispositif comprend : des moyens d’obtention pour obtenir une information représentative d’une localisation géographique du véhicule ; des moyens d’obtention pour obtenir une information représentative d’un mouvement du dispositif d’affichage mobile ; des moyens d’obtention pour obtenir des informations représentatives d’un environnement extérieur du véhicule adaptées aux informations obtenues ; des moyens d’affichage pour afficher une image générée à partir des informations représentatives de l’environnement extérieur obtenues et en prenant en compte l’information représentative du mouvement du dispositif d’affichage mobile.
Selon un troisième aspect de l’invention, l’invention concerne un système comprenant au moins un dispositif d’affichage mobile selon le deuxième aspect, ledit système étant adapté pour afficher des images correspondant à un environnement extérieur d’un véhicule sur le ou les dispositifs d’affichage mobiles. Le ou les dispositifs d’affichage mobiles sont localisés dans le véhicule et le système comprend en outre un dispositif serveur localisé dans le véhicule et adapté pour fournir des informations représentatives de l’environnement extérieur du véhicule audit ou auxdits dispositifs d’affichage mobiles.
Selon un quatrième aspect de l’invention, l’invention concerne un produit programme d’ordinateur, comprenant des instructions pour mettre en œuvre, par un dispositif, le procédé selon le premier aspect par un processeur du dispositif.
Selon un cinquième aspect de l’invention, l’invention concerne des moyens de stockage, stockant un programme d’ordinateur comportant des instructions pour mettre en œuvre, par un dispositif, le procédé selon le premier aspect lorsque ledit programme est exécuté par un processeur du dispositif.
BREVE DESCRIPTION DES DESSINS
Les caractéristiques de la présente invention mentionnées ci-dessus, ainsi que d’autres, apparaîtront plus clairement à la lecture de la description suivante d’un exemple de réalisation, ladite description étant faite en relation avec les dessins joints, parmi lesquels : - la Fig. 1 illustre schématiquement un exemple de véhicule dans lequel est mise en œuvre l’invention ; - la Fig. 2A illustre schématiquement une architecture matérielle d’un dispositif d’affichage apte à mettre en œuvre un procédé d’affichage d’images correspondant à un environnement extérieur dudit véhicule ; - la Fig. 2B illustre schématiquement une architecture matérielle d’un dispositif serveur localisé dans le véhicule et utilisé dans une mise en œuvre de l’invention; - la Fig. 3 illustre schématiquement un exemple de procédé permettant d’afficher, sur un dispositif d’affichage mobile embarqué (i.e. localisé) dans un véhicule, d’images correspondant à un environnement extérieur dudit véhicule ; - la Fig. 4 illustre schématiquement un repère orthonormé à trois dimensions utilisé dans le procédé d’affichage selon l’invention ; - la Fig. 5 représente schématiquement un résultat d’une mise en œuvre du procédé d’affichage selon l’invention dans un véhicule ; - La Fig. 6A représente un exemple de champ optique vu par le dispositif d’affichage mobile lorsqu’un écran du dispositif d’affichage mobile est parallèle au sol terrestre ; - La Fig. 6B représente un premier exemple de champ optique vu par le dispositif d’affichage mobile lorsque l’écran du dispositif d’affichage mobile n’est pas parallèle au sol terrestre ; et, - La Fig. 6C représente un second exemple de champ optique 63 vu par le dispositif d’affichage mobile 12 lorsque l’écran du dispositif d’affichage mobile 12 n’est pas parallèle au sol terrestre.
DESCRIPTION DETAILLEE DE DIVERS MODES DE REALISATION
La description détaillée ci-après s’attache à décrire différents modes de réalisation de la présente invention dans un contexte d’aéronef de transport de passagers. Les principes de la présente invention s’appliquent cependant dans un contexte plus large. Les principes de la présente invention sont en effet applicables à tout véhicule transportant des passagers, tel qu’un autocar et un véhicule blindé.
La Fig. 1 illustre schématiquement un exemple d’un aéronef 10 embarquant un dispositif serveur 11 et un dispositif d’affichage mobile 12. Le dispositif serveur 11, décrit par la suite en relation avec la Fig. 2B, est, par exemple, fixe dans l’aéronef 10. Le dispositif d’affichage mobile 12 est un dispositif apporté par un passager dans l’aéronef 10. Le dispositif d’affichage mobile 12 est par exemple un téléphone intelligent (« smart phone » en terminologie anglo-saxonne), une tablette, un ordinateur portable, une montre connectée ou des lunettes à réalité augmentée. Le passager peut mettre en œuvre l’invention à tout moment tant qu’il est dans l’aéronef 10.
La Fig. 5 représente schématiquement un résultat d’une mise en œuvre du procédé d’affichage selon l’invention dans l’aéronef 10.
La Fig. 5 illustre ce que voit un passager depuis une cabine de l’aéronef 10. Deux hublots 13A et 13B sont représentés. Le passager peut voir un environnement extérieur de l’aéronef 10 à travers ces deux hublots. Ici l’environnement extérieur vu par les hublots 13A et 13B correspond à deux vues 51 et 53 d’un paysage montagneux. Le passager tient en main un dispositif d’affichage mobile 12, ici un téléphone intelligent. Le dispositif d’affichage mobile 12 affiche alors une vue synthétique 52 de l’environnement extérieur de l’aéronef 10. La vue synthétique 52 correspond à une vue qui ne pourrait pas être vue à travers les hublots. Le dispositif d’affichage mobile 12 peut être déplacé selon tout mouvement pouvant lui être appliqué par le passager. Le dispositif d’affichage mobile 12 se comporte alors comme un hublot virtuel donnant sur l’extérieur de l’aéronef 10.
La Fig. 2A illustre schématiquement une architecture matérielle d’un dispositif d’affichage 12 apte à mettre en œuvre un procédé d’affichage d’images correspondant à un environnement extérieur de l’aéronef 10.
Selon l’exemple d’architecture matérielle représenté à la Fig. 2A, le dispositif d’affichage mobile 12 comprend alors, reliés par un bus de communication 126 : un processeur ou CPU (« Central Processing Unit » en anglais) 120 ; une mémoire vive RAM (« Random Access Memory» en anglais) 121 ; une mémoire morte ROM (« Read Only Memory » en anglais) 122 ; une unité de stockage telle qu’une carte SD (« Secure Digital » en anglais) ou un lecteur de support de stockage, tel qu’un lecteur de cartes SD (« Secure Digital » en anglais) 123; au moins une interface de communication 124 permettant au dispositif d’affichage mobile 12 de communiquer avec le dispositif serveur 11 et un dispositif de détection de mouvements 125 du dispositif d’affichage mobile 12. Le dispositif de détection de mouvements 125 peut par exemple être implémenté par une centrale inertielle. Le dispositif d’affichage mobile 12 comprend par ailleurs un écran, non représenté.
Dans un mode de réalisation, le dispositif de détection de mouvements 125 permet d’obtenir des informations représentatives d’un mouvement local du dispositif d’affichage mobile 12 dans un repère orthonormé fixe centré sur une position initiale située dans l’aéronef 10.
Le processeur 120 est capable d’exécuter des instructions chargées dans la RAM 121 à partir de la ROM 122, d’une mémoire externe (non représentée), d’un support de stockage (tel qu’une carte SD), ou d’un réseau de communication. Lorsque le dispositif d’affichage mobile 12 est mis sous tension, le processeur 120 est capable de lire de la RAM 121 des instructions et de les exécuter. Ces instructions forment un programme d’ordinateur causant la mise en œuvre, par le processeur 120, de tout ou partie des algorithmes et étapes décrits en relation avec la Fig. 3.
Tout ou partie des algorithmes et étapes décrits en relation avec la Fig. 3 peut être implémenté sous forme logicielle par exécution d’un ensemble d’instructions par une machine programmable, par exemple un DSP (« Digital Signal Processor » en anglais) ou un microcontrôleur, ou être implémenté sous forme matérielle par une machine ou un composant dédié, par exemple un FPGA (« Field-Programmable Gâte
Array » en anglais) ou un ASIC (« Application-Specific Integrated Circuit » en anglais).
La Fig. 2B illustre schématiquement une architecture matérielle d’un dispositif serveur 11 localisé dans l’aéronef 10 et utilisé dans une mise en œuvre de l’invention.
Selon l’exemple d’architecture matérielle représenté à la Fig. 2B, le dispositif serveur 11 comprend alors, reliés par un bus de communication 116 : un processeur ou CPU («Central Processing Unit» en anglais) 110; une mémoire vive RAM (« Random Access Memory» en anglais) 111 ; une mémoire morte ROM (« Read Only Memory» en anglais) 112; une unité de stockage telle qu’une carte SD (« Secure Digital » en anglais) ou un lecteur de support de stockage, tel qu’un lecteur de cartes SD («Secure Digital» en anglais) 113; au moins une interface de communication 114 permettant au dispositif serveur 11 de communiquer avec au moins un dispositif d’affichage mobile, tel que le dispositif d’affichage mobile 12 et un dispositif de localisation géographique 115. Le dispositif de localisation géographique 115 peut par exemple être implémenté par un module GPS (« Global Positioning System » en terminologie anglo-saxonne), un module GALILEO ou un module GLONASS (« globalnaïa navigatsionnaïa spoutnikovaïa sistéma » en terminologie Russe). Le dispositif de localisation géographique 115 fournit une information représentative de la localisation géographique de l’aéronef 10.
Le processeur 110 est capable d’exécuter des instructions chargées dans la RAM 111 à partir de la ROM 112, d’une mémoire externe (non représentée), d’un support de stockage (tel qu’une carte SD), ou d’un réseau de communication. Lorsque le dispositif serveur 11 est mis sous tension, le processeur 110 est capable de lire de la RAM 111 des instructions et de les exécuter. Ces instructions forment un programme d’ordinateur causant la mise en œuvre, par le processeur 110, d’étapes permettant de contribuer à la mise en œuvre des algorithmes et étapes décrits en relation avec la Fig. 3.
Tout ou partie des étapes mises en œuvre par la dispositif serveur 11 peut être implémenté sous forme logicielle par exécution d’un ensemble d’instructions par une machine programmable, par exemple un DSP (« Digital Signal Processor » en anglais) ou un microcontrôleur, ou être implémenté sous forme matérielle par une machine ou un composant dédié, par exemple un FPGA (« Field-Programmable Gâte Array » en anglais) ou un ASIC (« Application-Specific Integrated Circuit » en anglais).
Dans un mode de réalisation, le dispositif serveur 11 ne comprend pas de dispositif de localisation 115 mais obtient des informations représentatives d’une localisation de l’aéronef 10 d’un dispositif de localisation externe localisé dans l’aéronef 10 par l’intermédiaire de l’interface de communication 114.
Dans un mode de réalisation, l’unité de stockage 113 stocke une base de données comprenant des informations de terrain, dite base de données de terrain. Ces informations de terrain permettent de reconstruire des images représentatives de tout environnement extérieur que pourrait traverser l’aéronef 10. Dans un mode de réalisation, les informations de terrain comprises dans la base de données de terrain comprennent des images aériennes ou satellitaires de la terre couvrant l’ensemble de la terre.
Dans un mode de réalisation, le dispositif de détection de mouvements 125 du dispositif d’affichage mobile 12 permet d’obtenir des informations représentatives d’un mouvement global du dispositif d’affichage mobile 12 dans un repère orthonormé centré sur une position initiale fixe située sur terre, donnée par exemple par une latitude et une longitude d’une position de décollage de l’aéronef 10. Dans ce cas, l’information représentative d’un mouvement de l’aéronef 10 donnée par le dispositif de détection de mouvement 125 combine une information de mouvement correspondant aux déplacements de l’aéronef 10 et une information de mouvement correspondant aux mouvements du dispositif d’affichage mobile 12 dans l’aéronef 10. Dans ce mode de réalisation, l’aéronef 10 ou le dispositif serveur 11 ne comprend pas de dispositif de localisation géographique 115 destiné à fournir des informations représentatives de la localisation géographique de l’aéronef 10 au dispositif d’affichage mobile 12.
Dans un mode de réalisation, l’unité de stockage 113 ne stocke pas la base de données de terrain. La base de données de terrain est stockée sur un serveur terrestre situé sur terre, non représenté, avec lequel communique le dispositif serveur 11 pour obtenir des informations de terrain. De cette manière, il n’y a pas duplication de la base de données de terrain dans chaque aéronef, chaque aéronef communicant avec une base de données de terrain unique.
La Fig. 3 illustre schématiquement un exemple de procédé permettant d’afficher, sur un dispositif d’affichage mobile embarqué (i.e. localisé) dans un véhicule, des images correspondant à un environnement extérieur dudit véhicule.
Nous considérons ici que le dispositif de détection de mouvements 125 du dispositif d’affichage mobile 12 ne capte qu’un mouvement local du dispositif d’affichage mobile 12 dans un repère orthonormé fixe centré sur une position fixe dans l’aéronef 10. Les déplacements de l’aéronef 10 sont donnés par le dispositif de localisation géographique 115 du dispositif serveur 11.
Le procédé décrit en relation avec la Fig. 3 est mis en œuvre périodiquement avec une période relativement courte de l’ordre de « 1 » ms. Avec une telle période, chaque mouvement appliqué par un utilisateur au dispositif d’affichage mobile 12, même infime, est capté par le dispositif de détection de mouvements 125.
Dans une étape 31, le dispositif d’affichage mobile 12 détermine s’il a effectué un mouvement. Lors de l’étape 31, le dispositif d’affichage mobile 12 fait appel à des informations de mouvement fournies par le dispositif de détection de mouvements 125. Les informations de mouvement sont obtenues, par exemple, sous forme de vecteurs de mouvement à trois dimensions. Chaque coordonnée du vecteur de mouvement correspond à un angle de rotation autour d’un axe du repère orthonormé centré sur une position fixe dans l’aéronef 10. Nous appelons par la suite ce repère orthonormé, « repère orthonormé XYZ ».
La Fig. 4 illustre schématiquement un repère orthonormé à trois dimensions utilisé dans le procédé d’affichage selon l’invention.
Un premier axe de rotation du repère orthonormé XYZ est un axe Y parallèle à un plancher de l’aéronef 10. L’axe Y (représenté aussi dans la Fig. 1) suit une direction parallèle à une direction de déplacement de l’aéronef 10 allant de la queue de l’aéronef 10 au nez de l’aéronef 10. Un deuxième axe de rotation du repère orthonormé XYZ est un axe Z parallèle au plancher de l’aéronef 10 et perpendiculaire à l’axe Y. Un troisième axe de rotation du repère orthonormé XYZ est un axe X perpendiculaire au plancher de l’aéronef 10 et donc perpendiculaire à l’axe Y et à l’axe Z.
Chaque coordonnée du vecteur de mouvement, i.e. chaque rotation par rapport à un axe du repère orthonormé XYZ, est mesurée par rapport à une position prédéfinie, dite position de calibration, du dispositif d’affichage mobile 12. Cette position de calibration correspond à une position dans laquelle un écran du dispositif d’affichage mobile 12 est parallèle au plancher de l’aéronef 10, un des deux côtés dudit écran étant parallèle à l’axe Y, par exemple le côté le plus long, le second côté de l’écran étant parallèle à l’axe Z. Par ailleurs, le dispositif d’affichage 12 est centré sur une position fixe dans l’aéronef 10 correspondant à l’origine du repère orthonormé XYZ.
Dans un mode de réalisation, pour pouvoir mettre en œuvre le procédé d’affichage selon l’invention, il est demandé à l’utilisateur du dispositif d’affichage 12 d’appliquer une procédure de calibration préalablement à la mise en œuvre du procédé d’affichage décrit en relation avec la Fig. 3. Lors de la procédure de calibration, l’utilisateur doit positionner le dispositif d’affichage mobile 12, sur une position prédéterminée dans la cabine. Afin que l’utilisateur trouve une position alignée sur les axes du repère orthonormé XYZ, la procédure de calibration comprend une phase dans laquelle l’utilisateur doit positionner le dispositif d’affichage mobile 12 dans une position de calibration. Par exemple, le dispositif d’affichage mobile 12 doit être positionné sur l’accoudoir droit du siège de l’utilisateur, le plus petit côté de l’écran du dispositif d’affichage mobile 12 devant être aligné sur un axe dessiné sur ledit accoudoir. Des informations représentatives de la position de calibration sont alors sauvegardées par le dispositif d’affichage mobile 12. Chaque mouvement du dispositif d’affichage mobile 12 est alors mesuré par rapport à cette position initiale.
Un mouvement du dispositif d’affichage mobile 12 est détecté lors de l’étape 31 lorsqu’au moins une des coordonnées du vecteur de mouvement mesurée par le dispositif de détection de mouvements 125 est non nulle. Lorsqu’un mouvement du dispositif d’affichage mobile 12 est détecté, le procédé d’affichage se poursuit avec des étapes 32 à 36. Si aucun mouvement n’est détecté, la mise en œuvre du procédé d’affichage prend fin et le dispositif d’affichage mobile affiche une image tel que décrit plus loin en relation avec la Fig. 6A.
On note, par ailleurs, que les étapes 32 à 36 sont aussi mises en œuvre lors du premier lancement du procédé d’affichage lorsque le dispositif d’affichage mobile 12 est dans la position de calibration.
Dans l’étape 32, le dispositif d’affichage mobile 12 obtient une information représentative d’une localisation géographique de l’aéronef 10. Dans un mode de réalisation, le dispositif d’affichage mobile 12 transmet une première requête au dispositif serveur 11 afin d’obtenir une information représentative de la localisation géographique de l’aéronef 10 mesurée par le dispositif de localisation géographique 115. Cette information comprend par exemple une latitude et une longitude de l’aéronef 10. Cette information est ensuite transmise par le dispositif serveur 11 au dispositif d’affichage mobile 12 dans une deuxième requête. Les requêtes utilisées pour obtenir l’information représentative de la localisation géographique de l’aéronef 10 peuvent être par exemple des requêtes HTTP (« HyperText Transfer Protocol » en terminologie anglo-saxonne). Dans ce cas le dispositif d’affichage mobile 12 et le dispositif serveur 11 implémentent une application client/serveur HTTP.
Lors de l’étape 33, le dispositif d’affichage mobile 12 obtient une information représentative d’un mouvement du dispositif d’affichage mobile 12. Comme décrit plus haut, cette information est fournie par le dispositif de détection de mouvements 125 du dispositif d’affichage mobile 12 sous forme de vecteur de mouvement à 3 dimensions. Chaque coordonnée du vecteur de mouvement est un angle de rotation par rapport aux axes X, Y et Z.
Lors des étapes 34 et 35, le dispositif d’affichage mobile 12 obtient des informations représentatives d’un environnement extérieur du véhicule adaptées aux informations représentatives de la localisation géographique de l’aéronef 10 et du mouvement du dispositif d’affichage mobile 12. Pour ce faire, dans un mode de réalisation, lors de l’étape 34, le dispositif d’affichage mobile 12 transmet une requête, par exemple une requête HTTP, au dispositif serveur 11 comprenant l’information représentative de la localisation géographique de l’aéronef 10. En réponse, lors de l’étape 35, le dispositif serveur 11 recherche dans la base de données de terrain, des images aériennes ou satellitaires correspondant à un voisinage de la localisation géographique de l’aéronef 10, ces images aériennes ou satellitaires représentant la terre vue du ciel. Par exemple, les images recherchées correspondent à une zone carrée de largeur « 20 » km, centrée sur la localisation géographique de l’aéronef 10. Toutefois toute autre forme de zone, par exemple circulaire, rectangulaire, peut être utilisée. Chaque image correspondant à ce voisinage est ensuite transmise par le dispositif serveur 11 au dispositif d’affichage mobile 12 dans des requêtes, par exemple des requêtes HTTP.
Lors de l’étape 36, le dispositif d’affichage mobile 12 affiche une image générée à partir des informations représentatives de l’environnement extérieur de l’aéronef 10, ici les images aériennes ou satellitaires, obtenues en prenant en compte l’information représentative du mouvement du dispositif d’affichage mobile 12. Pour ce faire, un champ optique virtuel vu par le dispositif d’affichage mobile 12 est défini. Ce champ optique virtuel est représenté par un volume déterminé à partir de l’information représentative du mouvement du dispositif d’affichage mobile 12 obtenue lors de l’étape 33 et permet de déterminer une sous partie des images aériennes ou satellitaires vue par le dispositif d’affichage mobile 12. Dans un mode de réalisation, les images aériennes sont supposées horizontales, parallèles aux axes Y et Z. Dans ce mode de réalisation, la terre apparaît donc lisse et sans relief.
La Fig. 6A représente un exemple de champ optique 63 vu par le dispositif d’affichage mobile 12 lorsque l’écran du dispositif d’affichage mobile 12 est parallèle au sol terrestre. Cette position de l’écran correspond au cas où le dispositif d’affichage mobile 12 est dans la position de calibration. Pour simplifier nous définissons le champ optique 63 comme un volume pyramidal ayant une origine (i.e. un sommet) 62 situé en arrière du dispositif d’affichage mobile 12. Chaque angle de l’écran du dispositif d’affichage mobile 12 est traversé par une arête du volume pyramidal définissant le champ optique 63. Le champ optique 63 est traversé par un axe optique 64 correspondant à un axe de symétrie de rotation du volume pyramidal définissant le champ optique 63. Une largeur du champ optique 63 est définie par des angles formés entre l’axe optique et les arêtes du volume pyramidal définissant le champ optique 63. Dans un mode de réalisation ces angles sont égaux à « 45° ». L’ensemble des images aériennes ou satellitaires obtenues lors de l’étape 35 forment une image 60 représentative d’une zone horizontale située sur terre, appelée image combinée. Dans l’exemple de la zone carrée de largeur « 20 » km, la zone horizontale est carrée. La sous-partie des images aériennes ou satellitaires vue par le dispositif d’affichage mobile 12 correspond à une intersection 61 entre le volume pyramidal définissant le champ optique 63 et l’image combinée représentative de la zone horizontale. Dans un cas général, cette intersection 61 est un quadrilatère convexe. Dans l’exemple de la Fig. 6A, l’intersection 61 est un rectangle. L’intersection est ensuite projetée par des techniques connues dans un plan contenant l’écran du dispositif d’affichage mobile 12 sous forme d’une image, dite image projetée, ayant une taille et une résolution compatibles avec l’écran du dispositif d’affichage mobile 12. Pour simplifier, par la suite, nous appelons la projection dans le plan contenant l’écran du dispositif d’affichage mobile 12, projection dans l’image projetée. Dans l’exemple de la Fig. 6A, l’intersection 61 forme une image, dite image d’intersection, ayant une taille multiple de la taille de l’écran du dispositif d’affichage 12. La projection de l’image d’intersection peut consister alors en un sous-échantillonnage de l’image d’intersection égale dans chacune des deux dimensions de l’image d’intersection. Dans l’exemple de la Fig. 6A, l’utilisateur obtient une image projetée sur le dispositif d’affichage mobile 12 simulant un hublot virtuel permettant de voir à travers le plancher de l’aéronef 10. L’image projetée obtenue dans l’exemple décrit en relation avec la Fig. 6A est celle affichée sur l’écran du dispositif d’affichage mobile 12 lorsque le dispositif d’affichage mobile 12 est dans la position de calibration.
La Fig. 6B représente un premier exemple de champ optique 63 vu par le dispositif d’affichage mobile 12 lorsque l’écran du dispositif d’affichage mobile 12 n’est pas parallèle au sol terrestre.
Dans l’exemple de la Fig. 6B, le dispositif d’affichage mobile 12 a subi une rotation suivant l’axe Z parallèle au plus petit côté de l’écran du dispositif d’affichage mobile 12. Dans ce cas, l’image d’intersection n’a plus une taille multiple de la taille de l’écran du dispositif d’affichage 12. L’image d’intersection possède un plus grand côté égal au plus grand côté de l’écran du dispositif d’affichage mobile 12 multiplié par un premier coefficient multiplicateur et un plus petit côté égal au plus petit côté de l’écran du dispositif d’affichage mobile 12 multiplié par un second coefficient multiplicateur. Le premier et le second coefficients multiplicateurs sont différents. Dans ce cas un sous-échantillonnage différent est appliqué dans chacune des dimensions de l’image d’intersection pour obtenir l’image projetée.
La Fig. 6C représente un second exemple de champ optique 63 vu par le dispositif d’affichage mobile 12 lorsque l’écran du dispositif d’affichage mobile 12 n’est pas parallèle au sol terrestre.
Dans l’exemple de la Fig. 6C, le dispositif d’affichage mobile 12 a subi une rotation suivant l’axe Z parallèle au plus petit côté de l’écran du dispositif d’affichage mobile 12 de sorte qu’une partie du volume pyramidal représentant le champ optique 63 n’intersecte plus avec l’image combinée 60 représentative de la zone horizontale. Dans ce cas on calcule un pourcentage du champ optique intersecté par la zone de l’image combinée 60. L’image projetée est alors divisée en deux parties séparées par une ligne horizontale représentant l’horizon. La ligne horizontale est positionnée dans l’image projetée à une position dépendant du pourcentage du champ optique intersecté. Dans l’exemple de la Fig. 6C, si « 30% » de champ optique sont intersectés par l’image combinée 60, la ligne horizontale est positionnée à une distance du bas de l’image projetée égale à « 30% » de la hauteur de ladite image projetée. L’intersection 61 entre le champ optique 63 et l’image combinée 60 est alors projetée dans la partie inférieure de l’image projetée. Une image de ciel synthétique est affichée dans la zone supérieure de l’image projetée. D’autres rotations plus complexes du dispositif d’affichage mobile 12 combinant des rotations suivant les axes X, Y et Z peuvent être appliquées par l’utilisateur. Dans ce cas, la projection de l’image d’intersection dans l’image projetée peut nécessiter une utilisation de techniques d’interpolation et de transformation affine connue.
Dans un mode de réalisation, lors de l’étape 34, le dispositif d’affichage mobile 12 transmet une requête, par exemple une requête HTTP, au dispositif serveur 12 comprenant l’information représentative de la localisation géographique de l’aéronef 10 et l’information représentative du mouvement du dispositif d’affichage mobile 12. Dans ce cas, c’est le dispositif serveur 11 qui calcule directement l’image projetée et la transmet au dispositif d’affichage mobile 12 qui l’affiche.
Dans un mode de réalisation, la base de données de terrain comprend un modèle en trois dimensions des zones traversées par l’aéronef 10. Ce modèle en trois dimensions (3D) est par exemple stocké dans le format VRML (« Virtual Reality Modeling Language » en terminologie anglo-saxonne, langage de modélisation pour la réalité virtuelle). Des portions du modèle 3D correspondant à l’information représentative de la position géographique de l’aéronef 10 et à l’information représentative du mouvement du dispositif d’affichage mobile 12 sont alors transmises sur requête du dispositif d’affichage mobile 12 au dispositif serveur 11. Le dispositif d’affichage mobile 12 affiche alors des points de vue sur le modèle 3D dépendant de la position géographique de l’aéronef 10 et à l’information représentative du mouvement du dispositif d’affichage mobile 12.
Claims (11)
- REVENDICATIONS 1) Procédé d’affichage, sur un dispositif d’affichage mobile (12) embarqué dans un véhicule (10), d’images correspondant à un environnement extérieur dudit véhicule (10) caractérisé en ce que le procédé comprend : obtenir (32) une information représentative d’une localisation géographique du véhicule (10) ; obtenir (33) une information représentative d’un mouvement du dispositif d’affichage mobile (12) ; obtenir (34, 35) des informations représentatives d’un environnement extérieur du véhicule (10) adaptées aux informations obtenues ; afficher (36) une image générée, dite image projetée, à partir des informations représentatives de l’environnement extérieur obtenues et en prenant en compte l’information représentative du mouvement du dispositif d’affichage mobile (12).
- 2) Procédé selon la revendication 1, caractérisé en ce que le véhicule (10) est un aéronef.
- 3) Procédé selon la revendication 1 ou 2, caractérisé en ce que les informations représentatives d’un environnement extérieur du véhicule (10) adaptées aux informations obtenues sont des images aériennes ou satellitaires correspondant à un voisinage de la localisation géographique du véhicule (10), ces images aériennes ou satellitaires représentant la terre vue du ciel et formant une image (60), dite image combinée, représentative d’une zone horizontale située sur terre.
- 4) Procédé selon l’une quelconque des revendications précédentes, caractérisé en ce que l’image projetée est obtenue en projetant dans l’image projetée une intersection (61) entre un volume représentatif d’un champ optique (63) vu par le dispositif d’affichage mobile (12) et l’image combinée (60) représentative de la zone horizontale située sur terre, l’image projetée ayant une taille et une résolution compatibles avec un écran du dispositif d’affichage mobile (12) et le volume représentatif d’un champ optique (63) vu par le dispositif d’affichage mobile (12) est déterminé à partir de l’information représentative du mouvement du dispositif d’affichage mobile (12).
- 5) Procédé selon l’une quelconque des revendications précédentes, caractérisé en ce que l’information représentative d’un mouvement du dispositif d’affichage mobile (12) est calculée par rapport à une position, dite position de calibration.
- 6) Procédé selon la revendication 5, caractérisé en ce que la position de calibration est déterminée lors d’une procédure de calibration durant laquelle le dispositif d’affichage mobile (12) est positionné dans une position prédéfinie dans le véhicule (10).
- 7) Procédé selon l’une quelconque des revendications précédentes, caractérisé en ce que les informations représentatives d’un environnement extérieur du véhicule (10) adaptées aux informations obtenues sont obtenues d’un dispositif serveur (11) avec lequel le dispositif d’affichage mobile (12) communique, le dispositif serveur (11) obtenant lesdites informations représentatives d’un environnement extérieur du véhicule (10) d’une base de données, dite base de données de terrain, la base de données de terrain pouvant être stockée dans le véhicule (10) ou par un serveur situé sur terre avec lequel le dispositif serveur (11) communique.
- 8) Dispositif d’affichage mobile (12) embarqué dans un véhicule (10), adapté pour afficher des images correspondant à un environnement extérieur dudit véhicule (10), caractérisé en ce que le dispositif comprend : des moyens d’obtention (32) pour obtenir une information représentative d’une localisation géographique du véhicule (10) ; des moyens d’obtention (33) pour obtenir une information représentative d’un mouvement du dispositif d’affichage mobile (12) ; de moyens d’obtention (34, 35) pour obtenir des informations représentatives d’un environnement extérieur du véhicule (10) adaptées aux informations obtenues ; des moyens d’affichage (36) pour afficher une image générée à partir des informations représentatives de l’environnement extérieur obtenues et en prenant en compte l’information représentative du mouvement du dispositif d’affichage mobile (12) .
- 9) Système comprenant au moins un dispositif d’affichage mobile (12) selon la revendication 8, ledit système étant adapté pour afficher des images correspondant à un environnement extérieur d’un véhicule (10) sur le ou les dispositifs d’affichage mobiles (12), caractérisé en ce que le ou les dispositifs d’affichage mobiles (12) sont localisés dans le véhicule (10) et le système comprend en outre un dispositif serveur (11) localisé dans le véhicule et adapté pour fournir des informations représentatives de l’environnement extérieur du véhicule (10) audit ou audits dispositifs d’affichage mobiles (12).
- 10) Produit programme d’ordinateur, caractérisé en ce qu’il comporte des instructions pour mettre en œuvre, par un dispositif, le procédé selon l'une quelconque des revendications 1 à 7 par un processeur du dispositif.
- 11) Moyens de stockage, caractérisés en ce qu’ils stockent un programme d’ordinateur comportant des instructions pour mettre en œuvre, par un dispositif, le procédé selon l'une quelconque des revendications 1 à 7 lorsque ledit programme est exécuté par un processeur du dispositif.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR1560860A FR3043815A1 (fr) | 2015-11-13 | 2015-11-13 | Procede d'affichage, sur un dispositif d'affichage mobile embarque dans un vehicule, d'images correspondant a un environnement exterieur dudit vehicule. |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR1560860A FR3043815A1 (fr) | 2015-11-13 | 2015-11-13 | Procede d'affichage, sur un dispositif d'affichage mobile embarque dans un vehicule, d'images correspondant a un environnement exterieur dudit vehicule. |
Publications (1)
Publication Number | Publication Date |
---|---|
FR3043815A1 true FR3043815A1 (fr) | 2017-05-19 |
Family
ID=55072993
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
FR1560860A Pending FR3043815A1 (fr) | 2015-11-13 | 2015-11-13 | Procede d'affichage, sur un dispositif d'affichage mobile embarque dans un vehicule, d'images correspondant a un environnement exterieur dudit vehicule. |
Country Status (1)
Country | Link |
---|---|
FR (1) | FR3043815A1 (fr) |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6084594A (en) * | 1997-06-24 | 2000-07-04 | Fujitsu Limited | Image presentation apparatus |
US20010043212A1 (en) * | 1996-02-26 | 2001-11-22 | Gaku Sone | Method and apparatus for displaying road map in form of bird's eye view |
US20040217978A1 (en) * | 2003-04-30 | 2004-11-04 | Humphries Orin L. | Method and system for presenting different views to passengers in a moving vehicle |
FR2854374A1 (fr) * | 2003-05-02 | 2004-11-05 | Thales Sa | Aeronef pourvu de moyens d'affichage de terrain survole |
US20100102980A1 (en) * | 2008-10-28 | 2010-04-29 | The Boeing Company | Hand-Held Positioning Interface for Spatial Query |
EP2485119A2 (fr) * | 2011-02-02 | 2012-08-08 | Nintendo Co., Ltd. | Interface homme/machine à affichages multiples corrélés dans l'espace |
EP2597619A1 (fr) * | 2011-11-24 | 2013-05-29 | Thales | Procede et dispositif de representation d'environnements synthetiques. |
EP2680578A2 (fr) * | 2012-06-25 | 2014-01-01 | The Boeing Company | Système d'affichage de véhicule |
-
2015
- 2015-11-13 FR FR1560860A patent/FR3043815A1/fr active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20010043212A1 (en) * | 1996-02-26 | 2001-11-22 | Gaku Sone | Method and apparatus for displaying road map in form of bird's eye view |
US6084594A (en) * | 1997-06-24 | 2000-07-04 | Fujitsu Limited | Image presentation apparatus |
US20040217978A1 (en) * | 2003-04-30 | 2004-11-04 | Humphries Orin L. | Method and system for presenting different views to passengers in a moving vehicle |
FR2854374A1 (fr) * | 2003-05-02 | 2004-11-05 | Thales Sa | Aeronef pourvu de moyens d'affichage de terrain survole |
US20100102980A1 (en) * | 2008-10-28 | 2010-04-29 | The Boeing Company | Hand-Held Positioning Interface for Spatial Query |
EP2485119A2 (fr) * | 2011-02-02 | 2012-08-08 | Nintendo Co., Ltd. | Interface homme/machine à affichages multiples corrélés dans l'espace |
EP2597619A1 (fr) * | 2011-11-24 | 2013-05-29 | Thales | Procede et dispositif de representation d'environnements synthetiques. |
EP2680578A2 (fr) * | 2012-06-25 | 2014-01-01 | The Boeing Company | Système d'affichage de véhicule |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109923855B (zh) | 图像处理装置、图像处理方法和程序 | |
EP3025770B1 (fr) | Système video pour le pilotage d'un drone en mode immersif | |
JP6803919B2 (ja) | 飛行経路生成方法、飛行経路生成システム、飛行体、プログラム、及び記録媒体 | |
US20180225875A1 (en) | Augmented reality in vehicle platforms | |
JP6765512B2 (ja) | 飛行経路生成方法、情報処理装置、飛行経路生成システム、プログラム及び記録媒体 | |
EP3278301A1 (fr) | Procede de determination d'une direction d'un objet a partir d'une image de l'objet | |
CN112074875A (zh) | 构造3d特征图的组优化深度信息方法和系统 | |
US8624959B1 (en) | Stereo video movies | |
EP3717956B1 (fr) | Dispositif de vision pour pilote d'aeronef | |
US10568148B2 (en) | Systems and methods for communicating notices within a vehicle using a mobile device | |
US20210185235A1 (en) | Information processing device, imaging control method, program and recording medium | |
FR3043815A1 (fr) | Procede d'affichage, sur un dispositif d'affichage mobile embarque dans un vehicule, d'images correspondant a un environnement exterieur dudit vehicule. | |
FR3043789A1 (fr) | Chargement de donnees d'ephemerides dans un drone. | |
FR3029618B1 (fr) | Systeme de visualisation synthetique comprenant des moyens d'adaptation du paysage affiche | |
EP3187829A1 (fr) | Procede de representation graphique d'une vue synthetique tridimensionnelle du paysage exterieur dans un systeme de visualisation de bord pour aeronef | |
US20200134922A1 (en) | Movable body | |
EP3281097A1 (fr) | Dispositif electronique de projection interactif | |
EP3167434A2 (fr) | Equipement optronique aeroporte pour l'imagerie, la surveillance et/ou la designation de cibles | |
FR3087413A1 (fr) | Procede de pilotage de l'affichage d'informations sur un bandeau d'ecran equipant une passerelle de bateau | |
EP3620852A1 (fr) | Procédé de capture d'images aériennes d'une zone géographique, procédé de cartographie tridimensionnelle d'une zone géographique et aéronef pour la réalisation de tels procédés | |
EP3578926B1 (fr) | Procédé de sécurisation du fonctionnement d'un système de vision synthétique d'un aéronef, produit programme d'ordinateur et système associés | |
EP4006491A1 (fr) | Système d'aide à la navigation d'un porteur à l'aide d'amers | |
FR3071624B1 (fr) | Systeme d'affichage, procede d'affichage et programme d'ordinateur associes | |
US20220309747A1 (en) | Communication system and method | |
FR3069317A1 (fr) | Procede d'estimation du mouvement d'un objet evoluant dans un environnement et un champ magnetique |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PLFP | Fee payment |
Year of fee payment: 2 |
|
PLSC | Publication of the preliminary search report |
Effective date: 20170519 |