FR3103593A1 - Procédé de vision virtuelle, depuis un habitacle d’un aéronef, d’un objet situé à l’extérieur de l’habitacle - Google Patents

Procédé de vision virtuelle, depuis un habitacle d’un aéronef, d’un objet situé à l’extérieur de l’habitacle Download PDF

Info

Publication number
FR3103593A1
FR3103593A1 FR1913323A FR1913323A FR3103593A1 FR 3103593 A1 FR3103593 A1 FR 3103593A1 FR 1913323 A FR1913323 A FR 1913323A FR 1913323 A FR1913323 A FR 1913323A FR 3103593 A1 FR3103593 A1 FR 3103593A1
Authority
FR
France
Prior art keywords
terminal
aircraft
data
cockpit
visual rendering
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR1913323A
Other languages
English (en)
Other versions
FR3103593B1 (fr
Inventor
Gildas Garnier
Vincent Patoz
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Safran SA
Original Assignee
Safran SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Safran SA filed Critical Safran SA
Priority to FR1913323A priority Critical patent/FR3103593B1/fr
Publication of FR3103593A1 publication Critical patent/FR3103593A1/fr
Application granted granted Critical
Publication of FR3103593B1 publication Critical patent/FR3103593B1/fr
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • G09G3/003Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to produce spatial visual effects
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/02Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the way in which colour is displayed
    • G09G5/026Control of mixing and/or overlay of colours in general
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/10Mixing of images, i.e. displayed pixel being the result of an operation, e.g. adding, on the corresponding input pixels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/12Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/14Solving problems related to the presentation of information to be displayed
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/02Networking aspects
    • G09G2370/022Centralised management of display operation, e.g. in a server instead of locally
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/20Details of the management of multiple sources of image data
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2380/00Specific applications
    • G09G2380/12Avionics applications

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Processing Or Creating Images (AREA)

Abstract

Procédé de vision virtuelle, depuis un habitacle (H) d’un aéronef (A), d’un objet (O) situé à l’extérieur de l’habitacle (H), le procédé comprenant les étapes suivantes mises en œuvre par un terminal (1) situé dans l’habitacle (H) : recevoir des données indicatives d’une position et d’une orientation du terminal (1), et des données de rendu visuel de l’objet (O), générer à partir des données reçues une image de synthèse montrant une reconstitution virtuelle de l’objet (O) vue depuis la position du terminal (1) sans montrer une partie (P) de l’aéronef (A) formant un obstacle entre le terminal (1) et l’objet (O), afficher l’image de synthèse sur un écran d’affichage (12) du terminal (1). Figure pour l’abrégé : Fig. 1

Description

Procédé de vision virtuelle, depuis un habitacle d’un aéronef, d’un objet situé à l’extérieur de l’habitacle
La présente invention concerne le domaine de la réalité virtuelle.
L’invention porte tout particulièrement sur un procédé de vision virtuelle, depuis un habitacle d’un aéronef, d’un objet situé à l’extérieur de l’habitacle.
Les hublots d’un aéronef ne permettent pas toujours à des passagers se trouvant dans un habitacle de cet aéronef de contempler des objets se trouvant à l’extérieur de cet habitacle (typiquement le paysage environnant l’aéronef). C’est notamment le cas pour un passager ne se trouvant pas immédiatement à côté d’un hublot.
Certains aéronefs sont équipés de caméras qui acquièrent des images montrant l’extérieur de ces aéronefs. Ces images sont retransmises aux passagers au moyen d’un écran d’affichage se trouvant à l’intérieur de ces aéronefs. Toutefois, de telles images ne peuvent montrer qu’un contenu limité à certaines directions de l’espace.
Un but de l’invention est de permettre à un passager se trouvant dans un habitacle d’un aéronef de pouvoir prendre connaissance de manière plus complète de l’environnement extérieur à cet habitacle.
Il est à cet effet proposé, selon un premier aspect de l’invention, un procédé de vision virtuelle, depuis un habitacle d’un aéronef, d’un objet situé à l’extérieur de l’habitacle, le procédé comprenant les étapes suivantes mises en œuvre par un terminal situé dans l’habitacle:
- recevoirdes données indicatives d’une position et d’une orientation du terminal, et des données de rendu visuel de l’objet,
- générer à partir des données reçues une image de synthèse montrant une reconstitution virtuelle de l’objet vue depuis la position du terminal, sans montrer une partie de l’aéronef formant un obstacle entre le terminal et l’objet,
- afficher l’image de synthèse sur un écran d’affichage du terminal.
Le procédé selon ce premier aspect peut en outre comprendre les caractéristiques suivantes, prises seules ou combinées entre elles lorsque cela est techniquement possible.
De préférence, les données indicatives de la position et/ou de l’orientation du terminal sont acquises par au moins un capteur du terminal.
De préférence, l’objet est ou comprendau moins un des éléments suivants:
- une zone survolée par l’aéronef,
- un point d’intérêt,
- un contact appartenant à un carnet d’adresse mémorisé par le terminal,
- un système embarqué dans l’aéronef, tel qu’un train d’atterrissage de l’aéronef,
- un autre aéronef.
De préférence, les données de rendu visuel de l’objet sont sélectionnées par un serveur de l’aéronef d’après les données indicatives de la position et/ou de l’orientation du terminal.
De préférence, les données de rendu visuel de l’objet comprennent au moins une image montrant l’objet mémorisée par le serveur alors que l’aéronef était au sol.
De préférence, les données de rendu visuel de l’objet comprennent au moins une image montrant l’objet acquise par un capteur d’image de l’aéronef.
Il est également proposé, selon un deuxième aspect, un produit programme d'ordinateur comprenant des instructions de code de programme pour l'exécution des étapes du procédé selon le premier aspect, lorsque ce programme est exécuté par un ordinateur.
Il est également proposé, selon un troisième aspect, une mémoire lisible par ordinateur stockant des instructions exécutables par l’ordinateur pour l’exécution des étapes du procédé selon le premier aspect.
Il est également proposé, selon un quatrième aspect, un terminal pour visionner virtuellement, depuis un habitacle d’un aéronef, un objet situé à l’extérieur de l’habitacle, le terminal comprenant:
- une interface de réception configurée pour recevoir, lorsque le terminal est situé dans l’habitacle,des données indicatives d’une position et d’une orientation du terminal, et des données de rendu visuel de l’objet,
- un module de synthèse d’image configuré pour générer, à partir des données reçues par l’interface de réception, une image de synthèse montrant une reconstitution virtuelle de l’objet vue depuis la position du terminal, sans pour autant montrer une partie de l’aéronef formant un obstacle entre le terminal et l’objet,
- un écran d’affichage configuré pour afficher l’image de synthèse.
Il est également proposé, selon un cinquième aspect, un système comprenant un terminal selon le quatrième aspect, et un serveur pour aéronef configuré pour sélectionner les données de rendu visuel de l’objet d’après les données indicatives de la position et/ou de l’orientation du terminal.
D’autres caractéristiques, buts et avantages de l’invention ressortiront de la description qui suit, qui est purement illustrative et non limitative, et qui doit être lue en regard des dessins annexés sur lesquels :
La figure 1 illustre de façon schématique un terminal selon un premier mode de réalisation, un aéronef et des serveurs.
La figure 2 est une vue schématique de profil montrant le terminal de la figure 1, une partie d’un aéronef et un objet.
La figure 3 illustre de façon schématique un système selon un deuxième mode de réalisation comprenant un terminal et des équipements se trouvant à bord d’un aéronef.
Sur l’ensemble des figures, les éléments similaires portent des références identiques.
En référence à lafigure 1, un terminal 1 comprend une interface de communication (non illustrée pour une meilleure lisibilité), un module de traitement de données 2 et un écran d’affichage 4.
L’interface de communication permet au terminal 1 de communiquer avec des serveurs distants. L’interface de communication est de type radio sans fil, par exemple cellulaire (3G/4G/5G), Wi-Fi ou Bluetooth.
Le module de traitement 2 a pour fonction de traiter des données, en particulier de synthétiser des images à contenu virtuel sur la base de données. Le module de traitement comprend typiquement un processeur configuré pour exécuter un programme ayant une telle fonction.
L’écran d’affichage 4 constitue une partie d’une face avant du terminal 1.
Le terminal 1 comprend également une face arrière opposée à l’écran d’affichage 4 (visible sur la figure 2). Autrement dit, lorsqu’un utilisateur fait face à l’écran d’affichage 4, la face arrière se trouve derrière la face avant.
Le terminal 1 comprend par ailleurs une mémoire 8 pour mémoriser des données susceptibles d’être traitées par le module de traitement. La mémoire comprend typiquement une unité mémoire non volatile (par exemple, de type HDD, SSD, Flash, EEPROM, etc.).
Le terminal 1 mémoire par ailleurs un carnet d’adresses 10 indiquant les positions respectives de différents contacts d’un utilisateur du terminal 1. Le carnet d’adresse peut être mémorisé dans une mémoire distincte de la mémoire 8, comme illustré sur la figure 1, ou peut-être mémorisée dans la mémoire 8.
Le terminal 1 comprend par ailleurs au moins un capteur 6 adapté pour acquérir des données d’orientation et/ou de position du terminal 1.
Pour obtenir des données d’orientation, le terminal 1 peut en particulier au moins un capteur de type inertiel (gyromètre, accéléromètre).
Pour obtenir des données de position, le terminal 1 peut comprendre un système de positionnement par satellite (typiquement de type GPS/GNSS), susceptible d’acquérir des signaux satellite transportant de telles données.
Le terminal 1 comprend par ailleurs une interface de saisie de données 12 par un utilisateur.
Le terminal 1 est par exemple un smartphone, une tablette, un ordinateur portable, un casque à réalité virtuelle, etc.
Un procédé selon un premier mode de réalisation, et utilisant le terminal 1 comprend les étapes suivantes.
Le terminal 1 transmet à un serveur S1, via son interface de communication, une requête de données de vol concernant un vol d’un aéronef A (typiquement un avion ou un hélicoptère). La requête comprend par exemple un identifiant de vol saisi via l’interface de saisie 12. En réponse à cette requête, le serveur S1 fournit au terminal 1 les données de vol. Les données de vol renseignent notamment sur une trajectoire du vol.
Le terminal 1 transmet par ailleurs à un serveur S2, via son interface de communication, une requête de données caractéristiques d’objets qui seront censés se trouver à l’extérieur de l’aéronef A qui assurera le vol. En réponse à cette requête, le serveur fournit au terminal 1 ces données caractéristiques.
Les données caractéristiques d’un objet comprennent typiquement des données relatives à sa position courante ou future, et des données de rendu visuel de l’objet.
Les objets peuvent être en eux-mêmes de natures diverses. Ainsi un objet peut être:
- une zone qui sera survolée par l’aéronef A au cours du vol,
- un point d’intérêt, par exemple sur la zone ou dans le ciel,
- un contact référencé dans le carnet d’adresse mémorisé par le terminal 1,
- un système embarqué dans l’aéronef, tel qu’un train d’atterrissage de l’aéronef,
- un autre aéronef A que celui qui assurera le vol.
Les données de rendu visuel de tels objets peuvent en outre être de types différents: ces données peuvent renseigner sur la forme réelle de l’objet considéré ou sur sa couleur. Ces données peuvent alternativement n’être qu’une représentation schématique de l’objet considéré.
Les données de rendu visuel peuvent par exemple comprendre des images réelles de l’objet, ayant été acquises par un capteur d’image (caméra, appareil photo ou autre).
Quelque que soit leur type, les données de rendu visuel d’un objet permettent une reconstitution virtuelle d’une vue de l’objet dans différentes directions, cette reconstitution étant plus ou moins riche en information, selon ces données de rendu visuel.
Dans le cas particulier d’une zone destinée à être survolée par l’aéronef, les données de rendu visuel comprennent des données de cartographie 2D ou 3D (par exemple des données satellite) renseignant sur le relief de cette zone.
Le terminal 1 transmet par ailleurs à un serveur S3, via son interface de communication, une requête de données de positions d’autres aéronefs qui seront susceptibles de voler en même temps que l’aéronef A visé par le vol, le serveur fournit au terminal 1 ces données de positions qui concernent d’autres aéronefs.
Toutes les données obtenues par le terminal 1 des serveurs S1, S2, S3 via son interface de communication sont mémorisées dans sa mémoire 8.
Les serveurs S1, S2, S3 peuvent être distincts ou confondus.
Les étapes qui précèdent sont de préférence mises en œuvre avant que l’aéronef A vol ne décolle.
En référence à lafigure 2, le propriétaire du terminal 1 se trouve ultérieurement dans un habitacle H de l’aéronef A, par exemple une cabine pour passagers, ou un cockpit de l’aéronef A.
A un instant donné, par exemple alors que l’aéronef A est en vol, un objet O se trouve à l’extérieur de l’habitacle H. Une partie P de l’aéronef A fait obstacle entre l’habitacle et l’extérieur de l’aéronef A, et plus précisément entre le terminal 1 et l’objet O. Le propriétaire du terminal 1 ne peut donc pas voir l’objet O. La partie P est typiquement une partie du fuselage de l’aéronef A.
Le terminal 1 obtient des données indicatives de sa position (via son système de positionnement par satellite), ainsi que des données indicatives de son orientation (via ses capteurs inertiels).
Sur la base des données d’orientation et de position du terminal, combinées avec les données de position de l’objet O pré-mémorisées dans la mémoire 8, le terminal 1 détermine que la face arrière 13 du terminal 1 est orientée vers l’objet O concerné par les données de rendu visuel mémorisé par le terminal 1, situé à l’extérieur de l’habitacle H dans lequel se trouve le terminal 1.
Le module de traitement 2 génère une image de synthèse montrant une reconstitution virtuelle de l’objet O, à partir des données de rendu visuel de l’objet mémorisées par le terminal 1, et les données indicatives de la position et de l’orientation du terminal 1.
Plus précisément, la reconstitution virtuelle est vue depuis la position du terminal 1. Autrement dit, l’image montre la reconstitution virtuelle de l’objet O du point de vue d’une personne se trouvant à la position du terminal 1.
En revanche, l’image de synthèse ne montre pas la partie P de l’aéronef A formant un obstacle entre le terminal 1 et l’objet O.
L’image de synthèse est affichée sur l’écran d’affichage 4 du terminal 1.
Le propriétaire du terminal 1 mobile regardant l’image de synthèse affichée sur l’écran d’affichage 4 a ainsi l’impression qu’un «trou» a été réalisée dans la partie P de l’aéronef A, ce trou lui permettant de voir l’objet O se trouvant à l’extérieur de l’aéronef A, tout du moins la reconstitution virtuelle de cet objet. Dans tous les cas, le propriétaire du terminal 1 prend connaissance de la position de cet objet O, même si sa reconstitution virtuelle n’est pas à 100% fidèle.
Les étapes qui précèdent peuvent être répétées dans le temps. A chaque fois que la position ou l’orientation du terminal 1 change, l’image de synthèse est mise à jour, de sorte à tenir compte de la nouvelle position/orientation du terminal 1.
On a schématiquement représenté enfigure 3un système selon un deuxième mode de réalisation, comprenant le terminal 1, un serveur 14 et au moins un capteur d’image 16.
Le terminal 1 peut être similaire à celui représenté en figure 1, mais n’est pas obligatoirement pourvu d’un système de positionnement par satellite.
Le serveur 14 fait partie de l’aéronef A, de même que chaque capteur d’image 16.
Chaque capteur d’image 16 est positionné sur l’aéronef A de manière à pouvoir observer l’extérieur de l’habitacle H, et en particulier un objet O se trouvant à l’extérieur de l’habitacle H. Typiquement, les capteurs d’images sont répartis sur l’aéronef A de sorte à observer des régions différentes de l’espace.
Le serveur 14 mémorise les données fournies par les serveurs S1, S2, S3 discutées précédemment. A noter toutefois que la mémorisation de données de rendu visuelles ne sont pas nécessairement fournies par ces serveurs S1 à S3.
Un procédé utilisant ce système comprend les étapes suivantes, lorsque le terminal 1 se trouve dans l’habitacle H de l’aéronef A.
A un instant donné, le terminal 1 obtient des données indicatives de son orientation (via ses capteurs internes).
Le terminal 1 transmet au serveur, via son interface de communication, ces données indicatives de l’orientation du terminal 1.
Sur la base de ces données d’orientation, le serveur détermine que la face arrière du terminal 1 est orientée vers l’objet O.
Le serveur sélectionne au moins une image acquise par un capteur d’image 16 orienté vers l’objet O.
Le serveur peut par exemple sélectionner le capteur d’image 16 orienté vers l’objet O, et commander ce dernier de sorte qu’il acquière au moins une image de l’objet O.
En variante, le capteur d’image 16 acquiert de manière spontanée des images de l’objet O, qui sont ensuite mémorisées par le serveur de telle manière qu’il soit possible ensuite pour le serveur de savoir que ces images montrent l’objet O. Le serveur n’a dans ce cas qu’à sélectionner ces images.
La ou chaque image sélectionnée par le serveur 14 sont des données de rendu visuel de l’objet O particulièrement riches en information, puisque ce sont des images réelles.
Ces données de rendu visuel sont transmises au terminal 1.
Comme dans le premier mode de réalisation, le module de traitement du terminal 1 génère une image de synthèse montrant une reconstitution virtuelle de l’objet O, à partir des données de rendu visuel de l’objet O mémorisées par le terminal 1, et les données indicatives de la position et de l’orientation du terminal 1, et cette image est ensuite affichée par l’écran d’affichage 4 du terminal 1.
Aucune des images acquises ne montre l’objet O du même point de vue que ne pourrait le faire le terminal 1. En effet les capteurs d’images ne sont pas au même endroit que le terminal 1. Néanmoins, il est quand même possible de générer l’image de synthèse du point de vue du terminal, par exemple en combinant plusieurs images acquises montrant l’objet O sous des angles de vue différents, par interpolation.
En définitive, le deuxième mode de réalisation diffère du premier mode de réalisation par le fait que les données de rendu visuel sont fournies par le serveur 14, et que ces données de rendu visuel sont des images réelles de l’objet O acquises par des capteurs d’images 16 de l’aéronef A.
Un avantage de ce deuxième mode de réalisation est qu’il consomme moins de mémoire pour stocker des données de rendu visuel de l’objet O, en particulier du côté du terminal 1.
Au lieu de fournir de telles images acquises, le serveur peut fournir au terminal 1 des données de rendu visuel de l’objet O de nature différente, mémorisées par le serveur 14 avant le vol. Il est toutefois préférable d’utiliser des images acquises par des capteurs d’images de l’aéronef A car permet de consommer moins de mémoire du côté du serveur 14.

Claims (10)

  1. Procédé de vision virtuelle, depuis un habitacle (H) d’un aéronef (A), d’un objet (O) situé à l’extérieur de l’habitacle (H), le procédé comprenant les étapes suivantes mises en œuvre par un terminal (1) situé dans l’habitacle (H):
    - recevoirdes données indicatives d’une position et d’une orientation du terminal (1), et des données de rendu visuel de l’objet (O),
    - générer à partir des données reçues une image de synthèse montrant une reconstitution virtuelle de l’objet (O) vue depuis la position du terminal (1), sans montrer une partie (P) de l’aéronef (A) formant un obstacle entre le terminal (1) et l’objet (O),
    - afficher l’image de synthèse sur un écran d’affichage (12) du terminal (1).
  2. Procédé selon la revendication précédente, dans lequel les données indicatives de la position et/ou de l’orientation du terminal (1) sont acquises par au moins un capteur (6) du terminal (1).
  3. Procédé selon l’une des revendications précédentes, dans lequel l’objet (O) est ou comprendau moins un des éléments suivants:
    - une zone survolée par l’aéronef (A),
    - un point d’intérêt,
    - un contact appartenant à un carnet d’adresse mémorisé par le terminal (1),
    - un système embarqué dans l’aéronef (A), tel qu’un train d’atterrissage de l’aéronef (A),
    - un autre aéronef (A).
  4. Procédé selon l’une des revendications précédentes, dans lequel les données de rendu visuel de l’objet (O) sont sélectionnées par un serveur (14) de l’aéronef (A) d’après les données indicatives de la position et/ou de l’orientation du terminal (1).
  5. Procédé selon la revendication précédente, dans lequel les données de rendu visuel de l’objet (O) comprennent au moins une image montrant l’objet (O) mémorisée par le serveur alors que l’aéronef (A) était au sol.
  6. Procédé selon l’une des revendications précédentes, dans lequel les données de rendu visuel de l’objet (O) comprennent au moins une image montrant l’objet (O) acquise par un capteur d’image de l’aéronef (A).
  7. Produit programme d'ordinateur comprenant des instructions de code de programme pour l'exécution des étapes du procédé selon l’une des revendications précédentes, lorsque ce programme est exécuté par un ordinateur.
  8. Mémoire lisible par ordinateur stockant des instructions exécutables par l’ordinateur pour l’exécution des étapes du procédé selon l’une des revendications 1 à 6.
  9. Terminal (1) pour visionner virtuellement, depuis un habitacle (H) d’un aéronef (A), un objet (O) situé à l’extérieur de l’habitacle (H), le terminal (1) comprenant:
    - une interface de réception configurée pour recevoir, lorsque le terminal (1) est situé dans l’habitacle (H),des données indicatives d’une position et d’une orientation du terminal (1), et des données de rendu visuel de l’objet (O),
    - un module de synthèse d’image (2) configuré pour générer, à partir des données reçues par l’interface de réception, une image de synthèse montrant une reconstitution virtuelle de l’objet (O) vue depuis la position du terminal (1), sans pour autant montrer une partie de l’aéronef (A) formant un obstacle entre le terminal (1) et l’objet (O),
    - un écran d’affichage (12) configuré pour afficher l’image de synthèse.
  10. Système comprenant un terminal (1) selon la revendication précédente, et un serveur (14) pour aéronef (A) configuré pour sélectionner les données de rendu visuel de l’objet (O) d’après les données indicatives de la position et/ou de l’orientation du terminal (1).
FR1913323A 2019-11-27 2019-11-27 Procédé de vision virtuelle, depuis un habitacle d’un aéronef, d’un objet situé à l’extérieur de l’habitacle Active FR3103593B1 (fr)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR1913323A FR3103593B1 (fr) 2019-11-27 2019-11-27 Procédé de vision virtuelle, depuis un habitacle d’un aéronef, d’un objet situé à l’extérieur de l’habitacle

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1913323 2019-11-27
FR1913323A FR3103593B1 (fr) 2019-11-27 2019-11-27 Procédé de vision virtuelle, depuis un habitacle d’un aéronef, d’un objet situé à l’extérieur de l’habitacle

Publications (2)

Publication Number Publication Date
FR3103593A1 true FR3103593A1 (fr) 2021-05-28
FR3103593B1 FR3103593B1 (fr) 2022-09-23

Family

ID=69811096

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1913323A Active FR3103593B1 (fr) 2019-11-27 2019-11-27 Procédé de vision virtuelle, depuis un habitacle d’un aéronef, d’un objet situé à l’extérieur de l’habitacle

Country Status (1)

Country Link
FR (1) FR3103593B1 (fr)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130083173A1 (en) * 2011-09-30 2013-04-04 Kevin A. Geisner Virtual spectator experience with a personal audio/visual apparatus
WO2015192117A1 (fr) * 2014-06-14 2015-12-17 Magic Leap, Inc. Procédés et systèmes de création d'une réalité virtuelle et d'une réalité augmentée
US20160225189A1 (en) * 2015-02-04 2016-08-04 Seiko Epson Corporation Head mounted display, information processing apparatus, image display apparatus, image display system, method for sharing display of head mounted display, and computer program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130083173A1 (en) * 2011-09-30 2013-04-04 Kevin A. Geisner Virtual spectator experience with a personal audio/visual apparatus
WO2015192117A1 (fr) * 2014-06-14 2015-12-17 Magic Leap, Inc. Procédés et systèmes de création d'une réalité virtuelle et d'une réalité augmentée
US20160225189A1 (en) * 2015-02-04 2016-08-04 Seiko Epson Corporation Head mounted display, information processing apparatus, image display apparatus, image display system, method for sharing display of head mounted display, and computer program

Also Published As

Publication number Publication date
FR3103593B1 (fr) 2022-09-23

Similar Documents

Publication Publication Date Title
US10032301B2 (en) Rebuilding images based on historical image data
KR102416985B1 (ko) 가상 비전 시스템
US9240074B2 (en) Network-based real time registered augmented reality for mobile devices
US20100066750A1 (en) Mobile virtual and augmented reality system
US9224243B2 (en) Image enhancement using a multi-dimensional model
US10706630B2 (en) Augmented reality user interface including dual representation of physical location
US20140111544A1 (en) Augmented Reality Control Systems
EP2731084B1 (fr) Procédé d'augmentation de la réalité
US11805236B2 (en) Generating stereo image data from monocular images
FR3028767A1 (fr) Systeme video pour le pilotage d'un drone en mode immersif
FR3054336A1 (fr) Systeme autonome de prise de vues animees par un drone avec poursuite de cible et localisation amelioree de la cible.
EP3112803A1 (fr) Bloc camera apte a etre embarque dans un drone pour cartographier un terrain et procede de gestion de capture d'images par un bloc camera
US10679376B2 (en) Determining a pose of a handheld object
WO2016162538A1 (fr) Bracelet electronique pour l'affichage d'un contenu numerique interactif destine a etre projete sur une zone d'un bras
FR3105492A1 (fr) Procédé et dispositif de prévention de la cinétose à l’observation d’un contenu d’image affiché sur un écran dans un véhicule en mouvement, notamment dans un véhicule très automatisé
FR3030092A1 (fr) Procede de representation tridimensionnelle d'une scene
EP3717956B1 (fr) Dispositif de vision pour pilote d'aeronef
FR2989790A1 (fr) Dispositif de visualisation adapte a fournir un champ visuel etendu.
FR3103593A1 (fr) Procédé de vision virtuelle, depuis un habitacle d’un aéronef, d’un objet situé à l’extérieur de l’habitacle
FR3069316A1 (fr) Procede d'estimation du mouvement d'un objet evoluant dans un champ magnetique
WO2010112604A1 (fr) Procédé d'extension virtuelle et d'enrichissement du champ d'observation d'une scène
EP3906080B1 (fr) Dispositif de confort visuel
FR3066304A1 (fr) Procede de compositon d'une image d'un utilisateur immerge dans une scene virtuelle, dispositif, equipement terminal, systeme de realite virtuelle et programme d'ordinateur associes
WO2016005535A2 (fr) Equipement optronique aeroporte pour l'imagerie, la surveillance et/ou la designation de cibles
FR2953285A1 (fr) Dispositif d'affichage d'informations critiques et non critiques, et aeronef incorporant un tel dispositif

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20210528

PLFP Fee payment

Year of fee payment: 3

PLFP Fee payment

Year of fee payment: 4

PLFP Fee payment

Year of fee payment: 5