FR3112401A1 - Procédé et système pour la vision stéréoscopique d’une scène d’observation céleste - Google Patents

Procédé et système pour la vision stéréoscopique d’une scène d’observation céleste Download PDF

Info

Publication number
FR3112401A1
FR3112401A1 FR2007258A FR2007258A FR3112401A1 FR 3112401 A1 FR3112401 A1 FR 3112401A1 FR 2007258 A FR2007258 A FR 2007258A FR 2007258 A FR2007258 A FR 2007258A FR 3112401 A1 FR3112401 A1 FR 3112401A1
Authority
FR
France
Prior art keywords
image
star
images
identified
observation scene
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR2007258A
Other languages
English (en)
Other versions
FR3112401B1 (fr
Inventor
Arnaud MALVACHE
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Unistellar SAS
Original Assignee
Unistellar SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Unistellar SAS filed Critical Unistellar SAS
Priority to FR2007258A priority Critical patent/FR3112401B1/fr
Publication of FR3112401A1 publication Critical patent/FR3112401A1/fr
Application granted granted Critical
Publication of FR3112401B1 publication Critical patent/FR3112401B1/fr
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/02Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices involving prisms or mirrors
    • G02B23/06Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices involving prisms or mirrors having a focussing action, e.g. parabolic mirror
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/16Housings; Caps; Mountings; Supports, e.g. with counterweight
    • G02B23/18Housings; Caps; Mountings; Supports, e.g. with counterweight for binocular arrangements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/22Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the stereoscopic type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/22Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the stereoscopic type
    • G02B30/23Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the stereoscopic type using wavelength separation, e.g. using anaglyph techniques
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B27/00Planetaria; Globes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0132Head-up displays characterised by optical features comprising binocular systems
    • G02B2027/0134Head-up displays characterised by optical features comprising binocular systems of stereoscopic type

Abstract

L’invention concerne un procédé de vision stéréoscopique d’une scène d’observation céleste, comportant les étapes consistant à : - acquérir une image de la scène d’observation au moyen d’un appareil de vision optique,- générer deux images homologues d’un ou plusieurs astres contenus dans la scène d’observation, respectivement une première image et une seconde image, ladite première image et ladite seconde image étant décalées l’une de l’autre,- faire apparaître les premières images et les secondes images de manière à obtenir une vision stéréoscopique de la scène d’observation.Ce procédé est remarquable en ce qu’il comprend les étapes suivantes :- identifier un ou plusieurs astres dans l’image acquise de la scène d’observation, - évaluer la distance entre chaque astre identifié et l’appareil,- pour un ou des astres identifiés, décaler horizontalement la première image et la seconde image d’une distance qui est fonction de la distance évaluée dudit astre.

Description

Procédé et système pour la vision stéréoscopique d’une scène d’observation céleste
Domaine technique.
L’invention a pour objets un procédé et un système pour la vision stéréoscopique d’une scène d’observation céleste.
L'invention se rapporte au domaine technique des instruments optiques permettant d’observer des astres.
État de la technique.
La stéréoscopie permet de reproduire une perception du relief à partir de deux images planes. Elle se base sur le fait que la perception humaine du relief se forme dans le cerveau lorsqu'il reconstitue une seule image à partir de la perception des deux images planes et différentes provenant de chaque œil.
Des procédés de vision stéréoscopique d’une scène observée par un appareil de vision optique sont connus de l’art antérieur. Le document brevet US2016/0170223 (LEDERMAN) décrit par exemple un télescope binoculaire permettant une vision stéréoscopique d’une scène d’observation céleste, c’est-à-dire d’astres se trouvant à « l’infini ». Pour chaque astre observé, une première image est formée dans un oculaire et une seconde image est formée dans l’autre oculaire, ces deux images étant décalées horizontalement l’une de l’autre. Ce décalage est réalisé au moyen d’un ou plusieurs dispositifs de décalage de lumière configurés pour décaler horizontalement une partie de la lumière incidente sur au moins l'un des oculaires, de sorte que les images formées dans l'œil gauche et l'œil droit sont légèrement différentes. Le décalage entre les images peut être contrôlé en faisant varier l'angle de décalage des dispositifs de décalage de lumière. L'image résultante est perçue comme une image tridimensionnelle ou une image dans laquelle l'objet observé apparaît décalé vers le spectateur par rapport à l'environnement de l'objet, simulant un effet tridimensionnel.
Dans ce document US2016/0170223, le décalage des images est arbitraire, dans le sens où c’est l’agencement des dispositifs de décalage de lumière qui induit le décalage des images. Ainsi, les astres se trouvant au centre de la scène d’observation ont leurs images qui sont décalées de manière à les percevoir en « premier plan ». Et les astres se trouvant sur les bords de la scène d’observation ont leurs images qui sont décalées de manière à les percevoir en « arrière-plan ». Toutefois, cette mise en relief arbitraire ne reflète pas la réalité astronomique, car les astres se trouvant au centre de la scène d’observation peuvent en réalité être situés beaucoup plus loin que des astres se trouvant en périphérie de ladite scène.
Un objectif de l’invention est de remédier à tout ou partie des inconvénients précités.
Un objectif supplémentaire de l’invention est de proposer une méthode permettant d’obtenir, de manière simple et rapide, une vision stéréoscopique d’une scène d’observation céleste qui reflète la réalité astronomique.
Un autre objectif de l’invention est de proposer une méthode permettant d’obtenir, de manière simple et rapide, une vision stéréoscopique d’une scène d’observation céleste qui soit plus précise que celles obtenues avec les techniques de l’art antérieur.
Encore un autre objectif de l’invention est de proposer un système de vision stéréoscopique d’une scène d’observation céleste qui soit de conception simple, peu onéreux et facile d’utilisation.
Présentation de l’invention.
La solution proposée par l’invention est un procédé de vision stéréoscopique d’une scène d’observation céleste, comportant les étapes consistant à :
- acquérir une image de la scène d’observation au moyen d’un appareil de vision optique,
- générer deux images homologues d’un ou plusieurs astres contenus dans la scène d’observation, respectivement une première image et une seconde image, ladite première image et ladite seconde image étant décalées l’une de l’autre,
- faire apparaître les premières images et les secondes images de manière à obtenir une vision stéréoscopique de la scène d’observation.
Ce procédé est remarquable en ce qu’il comprend les étapes suivantes :
- identifier un ou plusieurs astres dans l’image acquise de la scène d’observation,
- évaluer la distance entre chaque astre identifié et l’appareil,
- pour un ou des astres identifiés, décaler horizontalement la première image et la seconde image d’une distance qui est fonction de la distance évaluée dudit astre.
L'effet de relief est maintenant donné par un décalage d’images résultant de l’analyse des distances d’éloignement des astres identifiés dans l’image de la scène d’observation. C’est donc la distance séparant un astre de l’appareil de vision optique qui détermine l’effet de relief et non plus la simple position de cet astre dans l’image de la scène d’observation. L’observateur peut ainsi obtenir simplement et rapidement une vision stéréoscopique de la scène qui reflète la réalité astronomique, avec précision.
D’autres caractéristiques avantageuses du procédé selon l’invention sont listées ci-dessous. Chacune de ces caractéristiques peut être considérée seule ou en combinaison avec les caractéristiques remarquables définies ci-dessus. Chacune de ces caractéristiques contribue, le cas échéant, à la résolution de problèmes techniques spécifiques définis plus avant dans la description et auxquels ne participent pas nécessairement les caractéristiques remarquables définies ci-dessus. Ces dernières peuvent faire l’objet, le cas échéant, d’une ou plusieurs demandes de brevet divisionnaires :
- Selon un mode de réalisation, l’identification d’astre dans l’image de la scène d’observation, est réalisée au moyen d’une application informatique de reconnaissance d’objets.
- Selon un mode de réalisation, le procédé comprend les étapes consistant à : - enregistrer dans une base de données des enregistrements d’astres, chaque enregistrement d’astre étant sélectionnable et associé à des coordonnées célestes dudit astre en temps réel et à des données d’identification ; - sélectionner un enregistrement d’astre dans la base de données ; - actionner un dispositif d’orientation de l’appareil de manière à ce que ledit appareil s’oriente vers ledit astre correspondant à l’enregistrement sélectionné, en fonction des coordonnées célestes associées audit l’enregistrement.
- Selon un mode de réalisation, le procédé comprend les étapes consistant à : - actionner le dispositif d’orientation de sorte que l’astre correspondant à l’enregistrement sélectionné se trouve dans une zone prédéfinie de l’image acquise de la scène d’observation ; - identifier ledit astre en corrélant les données d’identification associées à l’enregistrement sélectionné et la position de cet astre dans l’image acquise de la scène d’observation.
- Selon un mode de réalisation, l’orientation de l’appareil est en outre réalisée en corrélant des données de localisation terrestre dudit appareil et des données d’orientation dudit appareil.
- Selon un mode de réalisation, le procédé comprend une étape consistant à identifier un ou plusieurs autres astres dans l’image de la scène d’observation, laquelle identification est réalisée au moyen d’une application informatique de reconnaissance d’objets.
- Selon un mode de réalisation, le procédé comprend les étapes consistant à : - enregistrer dans une base de données des enregistrements d’astres, chaque enregistrement d’astre étant associé à des données de distance dudit astre par rapport à la Terre ; - pour chaque astre identifié, rechercher dans la base de données l’enregistrement correspondant et extraire la donnée de distance ; - évaluer la distance entre chaque astre identifié et l’appareil, en fonction de la donnée de distance extraite.
- Selon un mode de réalisation, le procédé comprend une étape consistant à appliquer une fonction mathématique pour déterminer la valeur des distances de décalage des images à partir des distances évaluées, laquelle fonction varie selon l’écart-type desdites distances évaluées.
- Selon un mode de réalisation, le procédé comprend une étape consistant à évaluer de manière relative la distance entre chaque astre identifié et l’appareil de manière à classer lesdits astres identifiés par ordre croissant ou décroissant d’éloignement par rapport audit appareil, laquelle évaluation relative est réalisée en fonction de la nature desdits astres identifiés.
- Selon un mode de réalisation, le procédé comprend une étape consistant à décaler la première image et la seconde image d’un astre identifié d’une valeur fixe, laquelle valeur dépend du classement dudit astre.
- Selon un mode de réalisation, le procédé comprend les étapes consistant à : - définir un plan de référence ; - pour un astre identifié situé derrière le plan de référence, décaler la première image et la seconde image de manière à ce que lesdites images présentent une parallaxe positive ; - pour un astre identifié situé devant le plan de référence, décaler la première image et la seconde image de manière à ce que lesdites images présentent une parallaxe négative ; - pour un astre identifié situé dans le plan de référence, ne pas décaler la première image et la seconde image de manière à ce que lesdites images présentent une parallaxe nulle.
- Selon un mode de réalisation, le procédé comprend une étape consistant à définir le plan de référence à l’infini.
- Selon un mode de réalisation, le procédé comprend une étape consistant à faire coïncider le plan de référence avec un astre identifié.
- Selon un mode de réalisation, le procédé comprend l’étape consistant à afficher les premières images sur un premier écran installé dans un premier oculaire d’un dispositif de visualisation intégré ou connecté à l’appareil et afficher les secondes images sur un second écran installé dans un second oculaire dudit dispositif de visualisation, de manière à obtenir une vision stéréoscopique de la scène d’observation lorsqu’un observateur positionne ses yeux devant chacun desdits oculaires.
- Selon un mode de réalisation, le procédé comprend les étapes consistant à : - afficher sur un écran les premières images et les secondes images sous la forme d’une image anaglyphe ; - placer des filtres anaglyptiques devant les yeux de l’observateur de manière à ce que ledit observateur ait une vision stéréoscopique de la scène d’observation lorsqu’il regarde l’écran.
Un autre aspect de l’invention concerne un système de vision stéréoscopique d’une scène d’observation céleste, le système comportant :
- un appareil de vision optique adapté pour acquérir une image de la scène d’observation,
- un moyen pour générer deux images homologues d’un ou plusieurs astres contenus dans la scène d’observation, respectivement une première image et une seconde image, ladite première image et ladite seconde image étant décalées l’une de l’autre,
- un moyen pour faire apparaître les premières images et les secondes images de manière à obtenir une vision stéréoscopique de la scène d’observation.
Ce système est remarquable en ce que l’appareil comporte une unité de traitement adaptée pour :
- identifier un ou plusieurs astres dans l’image acquise de la scène d’observation,
- évaluer la distance entre chaque astre identifié et l’appareil,
- pour un ou des astres identifiés, décaler horizontalement la première image et la seconde image d’une distance qui est fonction de la distance évaluée dudit astre.
D’autres caractéristiques avantageuses du système selon l’invention sont listées ci-dessous. Chacune de ces caractéristiques peut être considérée seule ou en combinaison avec les caractéristiques remarquables définies ci-dessus. Chacune de ces caractéristiques contribue, le cas échéant, à la résolution de problèmes techniques spécifiques définis plus avant dans la description et auxquels ne participent pas nécessairement les caractéristiques remarquables définies ci-dessus. Ces dernières peuvent faire l’objet, le cas échéant, d’une ou plusieurs demandes de brevet divisionnaires :
- Selon un mode de réalisation, l’appareil intègre ou et connecté à un dispositif de visualisation comprenant deux oculaires, respectivement un premier oculaire et un second oculaire, chaque oculaire étant pourvu d’un écran de visualisation ; l’unité de traitement est adaptée pour afficher les premières images sur l’écran du premier oculaire et afficher les secondes images sur l’écran du second oculaire.
- Selon un mode de réalisation, l’appareil comprend un écran sur lequel les premières images et les secondes images sont affichées sous la forme d’une image anaglyphe.
- Selon un mode de réalisation, l’appareil est un télescope.
Brève description des figures.
D’autres avantages et caractéristiques de l’invention apparaîtront mieux à la lecture de la description d’un mode de réalisation préféré qui va suivre, en référence aux dessins annexés, réalisés à titre d’exemples indicatifs et non limitatifs et sur lesquels :
schématise un système de vision optique adapté pour la mise en œuvre de l’invention, selon un premier mode de réalisation.
illustre un décalage des images selon un mode de réalisation.
illustre un décalage des images selon un autre mode de réalisation.
illustre les images formées dans deux oculaires.
schématise un système de vision optique adapté pour la mise en œuvre de l’invention, selon un deuxième mode de réalisation.
illustre les images affichées sur un écran de l’appareil de la .
schématise un système de vision optique adapté pour la mise en œuvre de l’invention, selon un troisième mode de réalisation.
schématise un système de vision optique adapté pour la mise en œuvre de l’invention, selon un quatrième mode de réalisation.
Description des modes de réalisation.
Le procédé et le système objets de l’invention sont susceptibles d’engendrer des manipulations d’éléments physiques, notamment des signaux (électriques) et des données numériques, capables d'être stockés, transférés, combinés, comparés, …, et permettant d’aboutir à un résultat souhaité.
L’invention met en œuvre une ou plusieurs applications informatiques exécutées par des équipements informatiques. Par souci de clarté, il faut comprendre au sens de l’invention que « un équipement fait quelque chose » signifie « l'application informatique exécutée par une unité de traitement de l’équipement fait quelque chose ». Tout comme « l'application informatique fait quelque chose » signifie « l'application informatique exécutée par l’unité de traitement de l’équipement fait quelque chose ».
Encore par souci de clarté, la présente invention est susceptible de faire référence à un ou plusieurs « processus informatiques ». Ces derniers correspondent aux actions ou résultats obtenus par l’exécution d’instructions d’une ou plusieurs applications informatiques. Aussi, il faut également comprendre au sens de l’invention que « un processus informatique est adapté pour faire quelque chose » signifie « les instructions d’une application informatique exécutées par une unité de traitement font quelque chose ».
Encore par souci de clarté, les précisions suivantes sont apportées à certains termes utilisés dans la description et les revendications :
- « Ressource informatique » peut être compris de façon non limitative comme : composant, matériel, logiciel, fichier, connexion à un réseau informatique, quantité de mémoire RAM, espace de disque dur, bande passante, vitesse de processeur, nombre de CPU, etc.
- « Serveur informatique » peut être compris de façon non limitative comme : dispositif informatique (matériel ou logiciel) comportant des ressources informatiques pour réaliser les fonctions d’un serveur et qui offre des services, ordinateur, pluralité d’ordinateurs, serveur virtuel sur internet, serveur virtuel sur Cloud, serveur virtuel sur une plate-forme, serveur virtuel sur une infrastructure locale, réseaux de serveurs, cluster, nœud, ferme de serveurs, ferme de nœuds, etc.
- « Unité de traitement » peut être compris de façon non limitative comme : processeur, microprocesseurs, CPU (pour Central Processing Unit).
- « Application informatique » peut être comprise comme : logiciel, produit programme d’ordinateur, programme informatique ou software, dont les instructions sont notamment exécutées par une unité de traitement.
- « Réseau de communication » peut être compris de façon non limitative comme : réseau internet, réseau cellulaire, réseau satellite, etc. C’est un ensemble d'équipements informatiques reliés entre eux pour échanger, de manière sécurisée ou non, des informations et/ou des données selon un protocole de communication (ISDN, Ethernet, ATM, IP, CLNP, TCP, HTTP, …) et/ou via des technologies de réseau telles que, mais sans s'y limiter, GSM, EDGE, 2G, 3G, 4G, 5G, etc.
- « Base de données » peut être comprise de façon non limitative comme un ensemble structuré et organisé de données enregistrées sur des supports accessibles par des équipements informatiques et notamment par de serveurs informatiques, et pouvant être interrogées, lues et mises à jour. Des données peuvent y être insérées, récupérées, modifiées et/ou détruites. La gestion et l'accès à la base de données peuvent être assurés par un ensemble d’applications informatiques qui constituent un système de gestion de base de données (SGBD).
- Tel qu’utilisé ici, sauf indication contraire, l’utilisation des adjectifs ordinaux « premier », « deuxième », etc., pour décrire un objet indique simplement que différentes occurrences d’objets similaires sont mentionnées et n’implique pas que les objets ainsi décrits doivent être dans une séquence donnée, que ce soit dans le temps, dans l'espace, dans un classement ou de toute autre manière.
- De même, l’utilisation des adjectifs « droite/gauche », « devant/derrière » etc., permet de décrire simplement la position d’un objet dans la configuration des figures annexées, mais n’implique pas nécessairement qu’en pratique, des objets similaires soient dans la même position.
- « X et/ou Y » signifie : X seul ou Y seul ou X+Y.
- D'une manière générale, on appréciera que les différents dessins ne sont pas dessinés à l'échelle d'une figure à l'autre ni à l'intérieur d'une figure donnée, et notamment que les objets sont arbitrairement dessinés pour faciliter la lecture des dessins.
L’appareil 1 objet de l’invention est principalement utilisé pour l’observation d’astres tels que des planètes, des comètes, des nébuleuses, des galaxies, et de manière générale des objets célestes – ou astronomiques - proches ou lointains (notamment des astres du ciel profond ou « deep sky objects » en anglais).
Il s’agit préférentiellement d’un télescope, mais l’appareil peut également se présenter sous la forme d’un appareil photographique ou d’une caméra vidéo. Par souci de clarté, et à titre d’exemple illustratif seulement, la suite de la description fait seulement référence à un télescope adapté pour l’observation d’une scène d’observation céleste, c’est-à-dire une partie de la voute céleste.
Selon le mode de réalisation de la , le télescope 1 comprend notamment un corps creux 10, un système optique 11 et un capteur 12.
Le corps creux 10 se présente par exemple sous la forme d’un tube creux de section circulaire, mais pourrait être un tube de section ovale, carrée, octogonale, ou autre. Il est précisé que le corps creux 10 n’est pas nécessairement de forme tubulaire, mais peut être de forme conique, ou formé de portions de tubes ou de cônes par exemple. Le corps creux 10 peut être réalisé en métal, en matériau plastique, en matériau composite, etc. À titre d’exemple, sa longueur est comprise entre 200 mm et 1000 mm, son diamètre est compris entre 50 mm et 500 mm et son épaisseur est comprise entre 1 mm et 10 mm.
Les rayons lumineux R provenant des astres A1, A2, A3 contenus dans la scène d’observation S pénètrent dans le tube 10 puis sont réfléchis par un miroir primaire 11, qui se présente avantageusement sous la forme d’un miroir parabolique concave à réflexion pure. Les rayons lumineux R réfléchis par le miroir 11 forment, dans un plan focal Pf, une image des astres observés A1, A2, A3.
Le capteur 12 est centré sur l’axe optique et placé dans le plan focal Pf de manière à acquérir l’image de la scène d’observation. Le capteur 12 est préférentiellement un capteur CCD (pour l’acronyme anglais Charged Coupled Device) ou CMOS (pour l’acronyme anglais Complementary Metal Oxide Semiconductor) comportant un agencement de pixels (préférentiellement en générant des images couleur). Ce type de capteur 12 a des dimensions réduites, ce qui permet de l’installer aisément dans le tube 10, tout en conservant une luminosité optimale. Le diamètre du capteur 12 est par exemple compris entre 15 mm et 30 mm.
Les données d’image générées par le capteur 12 sont transmises à une unité de traitement 13. La connexion entre le capteur 12 et l’unité de traitement 13 peut être réalisée de manière filaire, ou par une liaison sans fil, par exemple selon un protocole de communication de proximité, tel qu'à titre d'exemple non limitatif, le protocole Bluetooth®, Wifi®, ZigBee®. L’unité de traitement 13 est adaptée pour traiter en temps réel les données d’image, selon un processus informatique décrit plus avant dans la description, de manière à permettre une vision stéréoscopique de la scène d’observation S.
Selon un mode de réalisation, le télescope 1 comporte également une ou plusieurs des ressources informatiques suivantes : une ou plusieurs mémoires 14, un module de communication sans fil 15, une interface réseau 16.
La ou les mémoires 14 doivent être considérées comme un dispositif de stockage également adapté pour stocker des données et/ou des fichiers de données. Il peut s’agir d’une mémoire native ou d’une mémoire rapportée telle qu’une carte Secure Digital (SD).
Le module de communication sans fil 15 est adapté pour recevoir et émettre des signaux radiofréquences pour communiquer sans fil avec d’autres équipements. Ces signaux radiofréquences sont préférentiellement des signaux utilisant un protocole Bluetooth®, d’autres protocoles tels que ISM, Wifi®, ANT, ZIGBEE® ou autre, pouvant toutefois être utilisés.
L’interface réseau 16 est adaptée pour établir une communication entre le télescope 10 et un serveur informatique distant et/ou un autre équipement électronique distant, via un réseau de communication informatique. Cette interface réseau 16 peut être directement intégrée dans le télescope 10 et se présenter par exemple sous la forme d’un module GSM (pour l’acronyme anglais Global System for Mobile Communication), lui permettant de se connecter à un réseau de communication de téléphonie mobile.
Le télescope 10 peut également avantageusement intégrer une batterie d’alimentation électrique rechargeable 17, de manière à rendre ledit télescope totalement autonome.
Une ou plusieurs applications informatiques sont enregistrées dans la ou les mémoires 14 et dont les instructions, lorsqu’elles sont exécutées par l’unité de traitement 13, permettent de réaliser les fonctionnalités décrites plus avant dans la description.
Identification d’astres - P remier mode de réalisation
Selon un mode de réalisation, une application informatique de reconnaissance d’objets est directement implémentée dans la zone mémoire 14.
Cette application informatique de reconnaissance d’objets est basée sur un modèle d’intelligence artificielle. Ce modèle peut être basé sur des algorithmes d'apprentissage automatique, d'apprentissage artificiel, sur un modèle de réseau de neurones, sur un modèle d’analyse discriminante, sur une recherche d’isomorphisme de graphes ou sous-graphes, sur un modèle de Markov caché et qui accepte l’image d’un astre en entrée, et qui génère des données de sortie caractérisant cet astre.
Selon un mode de réalisation, l’apprentissage du modèle d’intelligence artificielle est effectué préalablement sur un serveur informatique distant. L’application basée sur ce modèle est ensuite implémentée ultérieurement dans la zone mémoire 14, par exemple par téléchargement. Lors de son implémentation dans le télescope 10 et/ou lors de la première utilisation dudit télescope, l’application informatique de reconnaissance d’objets peut être développée pour reconnaitre un nombre restreint d’astres, par exemple entre 50 et 1000 astres. Cette liste d’astres peut ensuite être enrichie, par exemple par des mises à jour et/ou des téléchargements depuis des bases de données déportées dans un serveur informatique distant.
De façon complémentaire, l’unité de traitement 13 peut également analyser la représentation numérique de la scène S par exemple, en effectuant un seuillage de ladite représentation numérique. L’unité de traitement 1 peut encore appliquer des filtres pour mettre en évidence des détails et/ou détecter les contours des représentations graphiques des astres A1, A2, A3.
Selon un mode de réalisation, les astres aptes à être reconnus peuvent être classés dans des tables ou des structures de données chaînées comportant chacune un ou plusieurs enregistrements d’astres. Une première structure peut comporter un ou plusieurs enregistrements respectivement dédiés ou associés à des représentations numériques et/ou graphiques de planètes. Une deuxième structure de données peut comporter un ou plusieurs enregistrements respectivement dédiés ou associés à des représentations numériques et/ou graphiques de nébuleuses. Une troisième structure peut comporter un ou plusieurs enregistrements respectivement dédiés ou associés à des représentations numériques et/ou graphiques de galaxies. Il en est ainsi pour chaque type d’astres. Ces différentes structures peuvent, en variante, ne constituer qu'une seule entité.
Dans le cas de la , les trois astres inclus dans la scène d’observation S sont par exemple la planète Mars (A1), l’étoile Aldébaran ou Alpha Tauri (A2) et la galaxie d’Andromède (A3). L’unité de traitement 13 traite l’image acquise par le capteur 12, de manière à identifier ces trois astres au moyen de l’application informatique de reconnaissance d’objets précitée. Cette identification peut ainsi être réalisée en temps réel, dès que l’observateur pointe le télescope 1 vers la scène S. Un ou plusieurs autres astres peuvent être inclus dans la scène S et ne pas être identifiés par l’unité de traitement 13.
Identification d’astre - D euxième mode de réalisation
Cette méthode d’identification est basée sur la technique décrite dans documents brevets FR3054897 et/ou US2019196173 auxquels l’homme du métier pourra se référer.
L’unité de traitement 13 est ici connectée à une base de données 18 dans laquelle sont enregistrés des enregistrements d’astres (planètes, comètes, nébuleuses, galaxies, objets célestes du deep sky »). Cette base de données 18 peut être intégrée dans le télescope 10. Dans une variante de réalisation, la base de données 18 est distante du télescope 10, par exemple hébergée dans un serveur distant auquel est connectée l’unité de traitement 13. La connexion de l’unité de traitement 13 à la base de données 18 peut dans ce cas être réalisée au moyen de l’interface réseau 17, au travers d’un réseau de communication.
Chaque enregistrement d’astre est associé, dans la base de données 18, à un ou plusieurs éléments caractéristiques de l’astre correspondant (par exemple sa taille, son motif, sa luminosité…) et à des données de localisation (ou coordonnées célestes) dudit astre, en temps réel.
L’observateur pointe le télescope 1 vers une scène d’observation S. Le télescope 1 comporte des moyens pour apprécier la localisation de la scène S. Ces moyens peuvent consister en des moyens de localisation terrestre 19 du télescope 1 et des moyens 20 pour déterminer l'orientation dudit télescope. Les moyens de localisation 19 sont préférentiellement du type utilisant la technologie GPS, EGNOS, WAAS, GALILEO, etc. Les moyens 20 pour déterminer l'orientation du télescope 1, et plus particulièrement de son objectif, peuvent consister, à titre d'exemples non limitatifs, en un compas et/ou un magnétomètre et/ou une boussole et/ou un accéléromètre et/ou tout autre moyen coopérant avec l'unité de traitement 13, et produisant des données qui, prises unitairement ou conjuguées, constituent des données permettant d'apprécier l'orientation du télescope 1. Les données collectées à partir des moyens de localisation 19 et des moyens 20 pour déterminer l'orientation du télescope 1 sont des données de localisation permettent d'estimer des données de positionnement de la scène S, c'est-à-dire son emplacement dans la voute céleste.
Selon un mode de réalisation, la détection d’éléments caractéristiques se fait par seuillage telle qu’expliquée dans les documents brevets FR3054897 et/ou US2019196173 précités. Lorsqu'un élément caractéristique est détecté dans la représentation numérique de l’image de la scène S, l’unité de traitement 13 recherche dans la base de données 18, un enregistrement d’astre associé à un élément caractéristique similaire ou ressemblant à l’élément caractéristique détecté. Cette étape peut consister à générer à partir de la représentation numérique de l’image de la scène S, un polyvecteur, par exemple un quadrivecteur, décrivant un agencement d’astres. L’unité de traitement 13 peut dès lors rechercher dans la base de données 18 une structure d’astres décrivant un polyvecteur similaire au polyvecteur identifié au sein de la représentation numérique de l’image de la scène S. Lorsque cette étape de rechercher atteste de la présence d'un tel enregistrement, l’unité de traitement 13 extrait de cet enregistrement les identifiants des astres qui le composent.
Dans le cas de la , l’unité de traitement 13 va identifier un trivecteur formé par les astres A1, A2 et A3 et extrait de la base de données 18 que ces astres sont respectivement Mars, Aldébaran et Andromède.
Identification d’astre - T roisième mode de réalisation
La base de données 18 comprend ici des enregistrements d’astres identifiés par des données d’identification, lesquels enregistrements sont associés à des données de localisation (ou coordonnées célestes) dudit astre correspondant, en temps réel.
L’observateur sélectionne un enregistrement d'astre dans la base de données 18 (par exemple l’astre A2 qui correspond à Aldébaran). Cette sélection peut se faire depuis une interface homme-machine, par exemple depuis un écran tactile intégré dans le télescope 1 ou depuis un terminal mobile utilisateur, tel qu’un téléphone intelligent (Smartphone) ou une tablette tactile, connecté à l’unité de traitement 13.
Le télescope 1 va alors lui-même pointer vers l’astre sélectionné. Selon un mode de réalisation, l’unité de traitement 13 relève une donnée temporelle t correspondant à la période d’acquisition, c’est-à-dire au moment où l’observateur sélectionne l’enregistrement dans la base de données 18. L’unité de traitement 13 recherche ensuite dans la base de données 18 les coordonnées célestes de l’astre sélectionné à l’instant t. Grâce à une corrélation des données de localisation terrestre du télescope 1 (fournies par exemple par les moyens de localisation terrestre 19 précités) et des données d’orientation dudit télescope (fournies par exemple par les moyens 20 précités pour déterminer l'orientation dudit télescope), l’unité de traitement 13 actionne un dispositif motorisé embarqué M permettant d’orienter automatiquement ledit télescope vers la localisation de l’astre sélectionné. L’unité de traitement 13 peut ainsi facilement identifier Aldébaran A2 dans l’image acquise de la scène S. L’unité de traitement 13 peut notamment actionner le dispositif motorisé embarqué M de sorte qu’Aldébaran A2 se trouve au milieu de l’image acquise de la scène S, ou dans une autre zone prédéfinie de ladite image. En corrélant les données d’identification de l’astre sélectionné dans la base de données 18 et la position de cet astre dans l’image acquise par le capteur 12, l’unité de traitement 13 identifie facilement Aldébaran dans ladite image.
Selon un mode de réalisation, les autres astres A1 et A3 contenus dans l’image de la scène S ne sont pas identifiés par l’unité de traitement 13. Selon une variante de réalisation, les autres astres A1 et A3 sont identifiés par l’unité de traitement 13 en appliquant une méthode d’identification selon le premier mode de réalisation et/ou en appliquant une méthode d’identification selon le deuxième mode de réalisation.
On comprendra donc que, le cas échéant, les différentes méthodes d’identification précitées peuvent se combiner et/ou se compléter.
Évaluation des distances entre les astres identifiés et le télescope – Premier mode de réalisation
L’unité de traitement 13 est connectée à une base de données 18 dans laquelle sont enregistrés des enregistrements d’astres (planètes, comètes, nébuleuses, galaxies, objets célestes du deep sky »), chaque enregistrement d’astre étant associé à des données de distance dudit astre par rapport à la Terre, ou, en d’autres termes, des données de distance d’éloignement dudit astre par rapport à la Terre.
Cette base de données 18 peut être intégrée dans le télescope 10 ou déportée, par exemple hébergée dans un serveur distant auquel est connectée l’unité de traitement 13. La connexion de l’unité de traitement 13 à la base de données 18 peut dans ce cas être réalisée au moyen de l’interface réseau 17, au travers d’un réseau de communication.
Pour chaque astre identifié, l’unité de traitement 13 recherche dans la base de données 18 l’enregistrement correspondant et extrait la donnée de distance correspondante. Cette recherche peut être effectuée par l’intermédiaire d’une requête d’interrogation générée et émise par l’unité de traitement 13 vers la base de données 18, et plus spécifiquement vers son système de gestion.
Pour reprendre l’exemple précité, l’unité de traitement 13 ayant identifié la planète Mars (A1), l’étoile Aldébaran (A2) et la galaxie d’Andromède (A3), ladite unité va pouvoir extraire de la base de données 18 que la distance entre la planète Terre et Mars est d’environ 78.106km, que la distance entre la Terre et Aldébaran est d’environ 65.1013km, et que la distance entre la Terre et la galaxie d’Andromède est d’environ 2,5.1019km.
Ces données de distance permettent d’évaluer la distance LA1, LA2, LA3entre chaque astre identifié et le télescope 1. Cette distance évaluée peut correspondre à la distance extraite corrélée à des données de localisation terrestre du télescope 1, par exemple au moyen du module de localisation 19. Toutefois, les données de localisation terrestre du télescope 1 étant très négligeables par rapport aux données de distance extraites, les valeurs évaluées des distances LA1, LA2, LA3correspondent aux valeurs de distance extraites de la base de données 18.
Évaluation des distances entre les astres identifiés et le télescope – Deuxième mode de réalisation
Dans ce mode de réalisation, l’unité de traitement 13 évalue la distance entre chaque astre identifié et l’appareil sans interroger la base de données 18.
L’unité de traitement 13 est ici adaptée pour évaluer les distances en fonction de la nature des astres identifiés. Par exemple, l’unité de traitement 13 est adaptée pour déterminer qu’une galaxie est plus éloignée qu’une étoile et qu’une étoile est plus éloignée qu’une planète du système solaire. Il n’y a donc pas d’évaluation précise des distances, mais une évaluation relative qui conduit l’unité de traitement 13 à classer les astres identifiés par ordre croissant (ou décroissant) d’éloignement par rapport à la Terre et de fait par rapport au télescope 1 (abstraction faite des données de localisation terrestre dudit télescope). En reprenant l’exemple précité, l’unité de traitement évalue que LA2> LA3> LA1. Cette méthode de classement – ou d’évaluation relative de la distance - peut être basée sur un algorithme d'apprentissage automatique, implémenté dans l’unité de traitement 13.
Décalage des images des astres identifiés
Les distances évaluées LA1, LA2, LA3sont utilisées pour le décalage horizontal des images des astres identifiés A1, A2, A3, lequel décalage permettant d’obtenir une vision stéréoscopique de la scène S, par effet de parallaxe.
En se rapportant à la , l’unité de traitement 13 génère, pour chaque astre identifié A1, A2, A3, deux images homologues. Il y a donc deux images pour chaque astre identifié, respectivement une première image I1A1, I1A2, I1A3 et une seconde image I2A1, I2A2, I2A3. Pour chaque couple d’images I1A1-I2A1, I1A2-I2A2 et I1A3-I2A3, la première image et la seconde image sont décalées horizontalement l’une de l’autre, d’une distance DA1, DA2, DA3. Cette distance est fonction de la distance évaluée LA1, LA2, LA3 pour chaque astre identifié : DAi = f(LAi). Ce décalage est par exemple compris entre 0 mm et 10 mm.
Selon un mode de réalisation, la distance DA1, DA2, DA3est inversement proportionnel à la distance évaluée LA1, LA2, LA3. Aussi, plus un astre est éloigné du télescope 1, plus le décalage entre ses deux images sera faible. En reprenant l’exemple précité, on a : DA1> DA3> DA2. Lors de la vision stéréoscopique de la scène S, cela permet d’accentuer l’effet de relief sur les astres les plus proches du télescope 1 et d’atténuer cet effet de relief sur les astres les plus éloignés. On obtient ainsi une mise en relief des astres A1, A2, A3 qui correspond à la réalité astronomique depuis le référentiel de la Terre.
Selon une variante de réalisation, la distance DA1, DA2, DA3est proportionnelle à la distance évaluée LA1, LA2, LA3. Dans ce cas, plus un astre est proche du télescope 1, plus le décalage entre ses deux images sera faible. En reprenant l’exemple précité, on a alors : DA2> DA3> DA1. On accentue ainsi l’effet de relief sur les astres les plus éloignés du télescope 1 et on atténue cet effet de relief sur les astres les plus proches.
Dans l’exemple précité, les distances évaluées LA1, LA2, LA3ont des ordres de grandeur très éloignés : 78.106Km pour Mars, 65.1013Km pour Aldébaran, et 2,5.1019Km pour Andromède. Dans ce cas, l’unité de traitement 13 applique préférentiellement une fonction logarithmique pour déterminer la valeur des décalages DA1, DA2, DA3 à partir des distances évaluées LA1, LA2, LA3.
Prenons un autre exemple où la scène S est centrée sur Jupiter (A2) et deux de ses satellites, par exemple Europe (A1) et Io (A3). La distance entre la Terre et Jupiter (A2) est d’environ 624.106Km. Io (A3) est situé à environ 421.800 km de Jupiter et Europe (A1) à 671.100 km. On peut dans ce cas considérer que les distances évaluées LA1, LA2, LA3ont des ordres de grandeur proches. L’unité de traitement 13 applique alors une fonction linéaire pour déterminer la valeur des décalages DA1, DA2, DA3à partir des distances évaluées LA1, LA2, LA3.
De manière plus générale, la fonction mathématique permettant de déterminer la valeur des décalages DAià partir des distances évaluées LAi, varie selon l’écart-type desdites distances évaluées.
Lorsque les distances LA1, LA2, LA3sont évaluées de manière relative, l’unité de traitement 13 peut décaler la première image I1A iet la seconde image I2A i, d’un astre identifié Ai d’une valeur fixe DA i, laquelle valeur dépend du classement dudit astre. Ainsi, en reprenant l’exemple précité, pour l’astre A2 le plus éloigné, une première valeur de décalage est appliquée (par exemple DA2= 0, 1 mm), pour l’astre intermédiaire A3, une deuxième valeur de décalage est appliquée (par exemple DA3= 1 mm), et pour l’astre le plus proche A1, une troisième valeur de décalage est appliquée (par exemple DA1= 3 mm). Ces valeurs de décalage peuvent être prédéterminées et/ou paramétrables.
Affichage des images – Premier mode de réalisation
Sur la , le télescope 1 intègre un dispositif de visualisation formé de deux oculaires, respectivement un premier oculaire 100D et un second oculaire 100G, installé sur le tube 10. Le premier oculaire 100D est l’oculaire droit, devant lequel l’observateur place son œil droit OD. Le second oculaire 100G est l’oculaire gauche, devant lequel l’observateur place son œil gauche OG.
En se rapportant à la , chaque oculaire 100D, 100G est pourvu d’un écran de visualisation, respectivement un premier 101D et un second écran 101G. L’unité de traitement 13 est adaptée pour afficher les premières images I1A1, I1A2, I1A3 sur le premier écran 101D et afficher les secondes images I2A1, I2A2, I2A3 sur le second écran 101G. Les premières images I1A1, I1A2, I1A3 étant décalées des secondes images I2A1, I2A2, I2A3, l’observateur obtient une vision stéréoscopique de la scène S lorsqu’il positionne ses yeux OD, OG devant chacun des oculaires 100D, 100G.
Selon un mode de réalisation, les écrans 101D, 101G sont des écrans plats, par exemple des écrans polychromes à cristaux liquides LCD (pour Liquid Crystal Display) ou OLED (pour Organic Light-Emitting Diode). La face active de chaque écran 101D, 101G débouche au niveau d’une ouverture ou fenêtre réalisée dans l’oculaire correspondant 100D, 100G pour être accessible à l’œil de l’utilisateur. Par «face active», on entend la face sur laquelle sont affichées les images.
Selon un autre mode de réalisation, les deux oculaires 100D, 100G équipés chacun d’un écran, sont intégrés dans un dispositif de visualisation qui est déporté du télescope 1. Il s’agit préférentiellement d’un visiocasque (également dénommé casque de visualisation, casque immersif, casque-écran ou casque HMD pour l’acronyme anglais de head-mounted display) du type décrit dans le document brevet EP3400474 (GOOGLE). La connexion entre le visiocasque et le télescope 1, et plus particulièrement avec l’unité de traitement 13, peut être réalisée via une liaison filaire (par exemple au moyen d’un câble USB) ou via une liaison sans fil, par exemple selon un protocole de communication de proximité, tel qu'à titre d'exemple non limitatif, le protocole Bluetooth®, Wifi®, ZigBee®.
Affichage des images – Deuxième mode de réalisation
Dans ce mode de réalisation, les premières images I1A1, I1A2, I1A3et les secondes images I2A1, I2A2, I2A3sont affichées sous la forme d’une image anaglyphe. Une image anaglyphe inclus deux images colorées qui sont filtrées différemment au niveau de chaque œil de l’observateur. Celui-ci peut visualiser l’image ainsi formée à travers des filtres anaglyptiques placés devant chaque œil. Les filtres anaglyptiques peuvent être de couleurs différentes (par exemple, des couleurs chromatiquement opposées). Par exemple, l’image anaglyphe de la scène S peut inclure une première image filtrée rouge et une seconde image filtrée cyan. Un filtre de couleur rouge peut être placé devant l'œil droit de l’observateur pour lui permettre de visualiser l'image filtrée en rouge. Et un filtre couleur cyan peut être placé devant l'œil gauche de l’observateur pour lui permettre de visualiser l'image filtrée cyan. Des filtres d’autres couleurs peuvent être utilisés.
En se rapportant aux figures 5 et 6, l’unité de traitement 13 affiche sur un écran 100, l’image anaglyphe I de la scène S sous la forme de deux images superposées et décalées l’une de l’autre. La première image est formée par les premières images I1A1, I1A2, I1A3des astres A1, A2, A3 et la seconde image est formée par les secondes images I2A1, I2A2, I2A3desdits astres. Les premières images I1A1, I1A2, I1A3et les secondes images I2A1, I2A2, I2A3sont décalées comme décrit précédemment. La première image (contenant les premières images I1A1, I1A2, I1A3) est générée par l’unité de traitement 13 en lui appliquant un premier filtre (par exemple un filtre cyan) et la seconde image (contenant les secondes images I2A1, I2A2, I2A3) en lui appliquant un autre filtre de couleur chromatiquement opposée (par exemple un filtre rouge).
Pour l'observation, des filtres anaglyptiques FD, FG sont placés devant les yeux OD, OG de l’observateur. Ces filtres FD, FG peuvent par exemple être portés par des lunettes. Le filtre droit FD placé devant l’œil droit OD est par exemple un filtre de couleur cyan pour permettre de visualiser la première image filtrée en cyan. Et le filtre gauche FG placé devant l’œil gauche OG est par exemple filtre de couleur rouge pour permettre de visualiser la seconde image filtrée en rouge. On sépare ainsi l'image vue par l'œil droit OD de celle vue par l'œil gauche OG. Le cerveau de l’observateur recombine alors les deux images pour obtenir une vision en relief de la scène S.
Selon un mode de réalisation, les images sont affichées simultanément sur l’écran 100. Selon une variante de réalisation, les deux images sont affichées successivement en alternance à grande fréquence sur l’écran 100. L’observateur est dans ce cas équipé de lunettes (pourvue des filtres FD, FG) qui, à la fréquence d'alternance des images, masquent alternativement la vue de l'œil droit OD et de l’œil gauche OG selon l’image affichée.
Selon un autre mode de réalisation, l’image anaglyphe I est affichée sur un écran d’un visiocasque du type décrit dans le document brevet EP3400474 précité. Selon un autre mode de réalisation, chaque image colorée de l’image anaglyphe I est affichée sur un écran d’un oculaire d’un visiocasque à deux oculaires du type décrit dans le document brevet EP3400474 précité.
Selon un autre mode de réalisation illustré sur la , l’image anaglyphe I est affichée sur un écran 100 d’un terminal mobile T, par exemple l’écran d’un Smartphone (téléphone intelligent) ou d’une tablette tactile. La connexion entre l’unité de traitement 13 et l’écran 100 peut être réalisée via une liaison filaire (par exemple au moyen d’un câble USB) ou via une liaison sans fil, par exemple selon un protocole de communication de proximité, tel qu'à titre d'exemple non limitatif, le protocole Bluetooth®, Wifi®, ZigBee®.
Plan de référence
Pour améliorer la perception de relief des astres A1, A2, A3, il est avantageux de définir un plan de référence. On peut ainsi produire un effet d'émergence ou de jaillissement pour les astres identifiés situés devant ce plan de référence. L’observateur percevra ces astres comme flottant devant l'écran ou sortant de l’écran sur lequel les images sont affichées. À l’inverse, pour les astres identifiés situés derrière ce plan de référence, l’observateur les percevra en retrait, avec un effet de profondeur.
Ainsi, pour un astre identifié Ai situé derrière le plan de référence, l’unité de traitement 13 va décaler la première image I1Aiet la seconde image I2Aide manière à ce que lesdites images présentent une parallaxe positive. Pour un astre identifié Ai situé devant le plan de référence, l’unité de traitement 13 va décaler la première image I1Aiet la seconde image I2Aide manière à ce que lesdites images présentent une parallaxe négative. Et pour un astre identifié situé dans le plan de référence, l’unité de traitement 13 ne va pas décaler la première image I1Aide la seconde image I2Aide manière à ce que lesdites images présentent une parallaxe zéro ou nulle.
Selon un mode de réalisation, le plan de référence Pref est défini à l’infini. De ce fait, pour chaque astre identifié Ai, l’unité de traitement 13 décale la première image I1Aiet la seconde image I2Aide manière à ce que lesdites images présentent une parallaxe négative. L’observateur perçoit alors les astres A1, A2, A3 comme sortant ou jaillissant de la scène observée.
Selon un autre mode de réalisation illustré sur la , le plan de référence Pref coïncide avec un astre identifié, ici l’astre A3. Pour cet astre A3, l’unité de traitement 13 ne décale pas la première image I1A3 de la seconde image I2A3 de manière à ce que lesdites images présentent une parallaxe zéro ou nulle. L’observateur percevra cet astre comme situé dans le plan de l’écran de visualisation ou de la scène observée. Pour le ou les astres A2 situés derrière ce plan Pref, c’est-à-dire pour le ou les astres A2 dont la distance évaluée LA2 est supérieure à la distance évaluée LA3 de l’astre de référence A3, alors l’unité de traitement 13 décale la première image I1A2 et la seconde image I2A2 de manière à ce que lesdites images présentent une parallaxe positive. L’observateur perçoit ce ou ces astres A2 en retrait, avec un effet de profondeur. Et pour le ou les astres A1 situés devant ce plan Pref, c’est-à-dire pour le ou les astres A1 dont la distance évaluée LA1 est inférieure à la distance évaluée LA3 de l’astre de référence A3, alors l’unité de traitement 13 décale la première image I1A1 et la seconde image I2A1 de manière à ce que lesdites images présentent une parallaxe négative. L’observateur perçoit ce ou ces astres A1 comme sortant ou jaillissant de la scène observée.
Dans ce mode de réalisation, le choix du plan de référence Pref, et donc de l’astre de référence A2, peut être choisi par l’observateur, par exemple au moyen d’une interface utilisateur dédiée, par exemple depuis un écran tactile intégré dans le télescope 1 ou depuis un terminal mobile utilisateur, tel qu’un téléphone intelligent (Smartphone) ou une tablette tactile, connecté à l’unité de traitement 13. Selon un autre mode de réalisation, dans le cas où l’observateur sélectionne un enregistrement d'astre dans la base de données 18, cet astre sélectionné peut être considéré comme l’astre de référence par l’unité de traitement 13. Selon encore un autre mode de réalisation, l’astre de référence est sélectionné automatiquement par l’unité de traitement 13 en prenant comme critère de sélection les distances évaluées LA1, LA2, LA3. Par exemple, l’unité de traitement 13 peut sélectionner comme astre de référence celui dont la distance évaluée est la plus proche de la moyenne de toutes les distances évaluées. L’unité de traitement 13 peut encore sélectionner comme astre de référence celui dont la distance évaluée est la plus élevée ou au contraire la plus courte.
La illustre les images affichées dans chacun des oculaires 100D, 100G du télescope de la , lorsque le plan de référence Pref coïncide avec l’astre A3 ( ). Le centre de chaque astre identifié A1, A2, A3, tels qu’ils apparaissent sur l’image de la scène S acquise par le capteur 12, est référencé respectivement CA1, CA2, CA3.
Pour l’astre A2 situé derrière le plan de référence Pref, la parallaxe positive peut être obtenue en décalant la première image I1A2vers la droite dans l'image de droite (c.-à-d. l’image affichée sur l’écran 101D de l’oculaire droit OD) et en décalant la seconde image I2 A2vers la gauche dans l'image de gauche (c.-à-d. l’image affichée sur l’écran 101G de l’oculaire gauche OG). Le plan focal binoculaire se trouve alors en arrière de l'affichage. Le décalage de la première image I1A2et de la seconde image I2A2par rapport au centre CA2peut être de 1/2xDA2de sorte que le décalage total entre les deux images soit de DA2. On peut également obtenir la parallaxe positive en décalant seulement vers la droite la première image I1A2d’une distance DA2dans l'image de droite et en ne décalant pas la seconde image I2A2dans l'image de gauche. De même, la parallaxe positive peut être obtenue en décalant seulement vers la gauche la seconde image I2A2d’une distance DA2dans l'image de gauche et en ne décalant pas la première image I1A2dans l'image de droite.
Pour l’astre A1 situé devant le plan de référence Pref, la parallaxe négative peut être obtenue en décalant la première image I1A 1vers la gauche dans l'image de droite et en décalant la seconde image I2A 1vers la droite dans l'image de gauche, de sorte que point focal binoculaire se trouve alors en avant de l'affichage. Comme expliqué précédemment, le décalage de la première image I1A 1et de la seconde image I2A 1par rapport au centre CA 1peut être de 1/2xDA 1de sorte que le décalage total entre les deux images soit de DA 1. On peut également obtenir la parallaxe négative en décalant seulement vers la gauche la première image I1A1d’une distance DA 1dans l'image de droite et en ne décalant pas la seconde image I2A2dans l'image de gauche. De même, la parallaxe négative peut être obtenue en décalant seulement vers la droite la seconde image I2A1d’une distance DA 1dans l'image de gauche et en ne décalant pas la première image I1A 1dans l'image de droite.
Pour l’astre A3 située dans le plan de référence, la première image I1A3et la seconde image I2A3ne sont pas décalées du centre CA3de manière à obtenir la parallaxe zéro ou nulle. Le plan focal binoculaire se trouve sur l’affichage.
La illustre le cas où les premières images I1A1, I1A2, I1A3 et les secondes images I2A1, I2A2, I2A3 sont affichées sur l’écran 100 sous la forme d’une image anaglyphe I. Pour illustrer la position des différentes images, le plan de référence Pref coïncide avec l’astre A3 ( ). Comme décrit précédemment en référence à la , le centre de chaque astre identifié A1, A2, A3, tels qu’ils apparaissent sur l’image de la scène S acquise par la capteur 12, est référencé respectivement CA1, CA2, CA3.
À titre explicatif seulement, on prend comme hypothèse que les premières images I1A1, I1A2, I1A3sont générées en appliquant un filtre cyan à l’image acquise par le capteur 13, et les secondes images I2A1, I2A2, I2A3sont générées en appliquant un filtre rouge à ladite image acquise. Le filtre droit FD placé devant l’œil droit est un filtre de couleur cyan pour permettre de visualiser les premières images I1A1, I1A2, I1A3. Et le filtre gauche FG placé devant l’œil gauche est un filtre rouge pour permettre de visualiser les secondes images I2A1, I2A2, I2A3. L’homme du métier comprendra que d’autres combinaisons de couleurs chromatiquement opposées peuvent être envisagées.
Pour l’astre A2 situé derrière le plan de référence Pref, la parallaxe positive peut être obtenue en décalant la première image I1A2vers la droite et en décalant la seconde image I2A2vers la gauche. Lorsque l’observateur visionne l’image I au travers des filtres FD, FG, le plan focal binoculaire se trouve alors en arrière de l’écran 100. Le décalage de la première image I1A2et de la seconde image I2A2par rapport au centre CA2peut être de 1/2xDA2de sorte que le décalage total entre les deux images soit de DA2. On peut également obtenir la parallaxe positive en décalant seulement vers la droite la première image I1A2d’une distance DA2et en ne décalant pas la seconde image I2A2. De même, la parallaxe positive peut être obtenue en décalant seulement vers la gauche la seconde image I2A2d’une distance DA2et en ne décalant pas la première image I1A2.
Pour l’astre A1 situé devant le plan de référence Pref, la parallaxe négative peut être obtenue en décalant la première image I1A1vers la gauche et en décalant la seconde image I2A1vers la droite, de sorte que lorsque l’observateur visionne l’image I au travers des filtres FD, FG, le plan focal binoculaire se trouve alors en avant de l’écran 100. Comme expliqué précédemment, le décalage de la première image I1A1et de la seconde image I2A1par rapport au centre CA1peut être de 1/2xDA1de sorte que le décalage total entre les deux images soit de DA1. On peut également obtenir la parallaxe négative en décalant seulement vers la gauche la première image I1A1d’une distance DA1et en ne décalant pas la seconde image I2A2. De même, la parallaxe négative peut être obtenue en décalant seulement vers la droite la seconde image I2A1d’une distance DA1et en ne décalant pas la première image I1A1.
Pour l’astre A3 située dans le plan de référence, la première image I1A3et la seconde image I2A3ne sont pas décalées du centre CA3et sont confondues, de manière à obtenir la parallaxe zéro ou nulle. Le plan focal binoculaire se trouve sur l’écran 100.
Autres modes de réalisation du système optique de l’appareil .
Sur les figures 1 et 7, le système optique est formé par un miroir 11 disposé à l’intérieur du tube 10 et centré sur l’axe optique.
Sur la , le système optique est formé par :
- un miroir primaire 110 positionné dans le tube 10, pour réfléchir les rayons lumineux pénétrant dans ledit tube,
- un miroir secondaire 111 positionné dans le tube 10 pour réfléchir les rayons lumineux réfléchis par le miroir primaire 110.
Les miroirs primaire 110 et secondaire 111 sont positionnés sur un même axe optique X-X. Ils sont agencés de manière à ce que les rayons lumineux réfléchis par lesdits miroirs forment, dans un plan focal Pf, une image de la scène S, lequel plan focal est perpendiculaire à l’axe optique X-X. Les miroirs 110, 111 sont agencés de manière à ce que le plan focal Pf soit situé dans le tube 10, entre les deux dits miroirs. Le capteur 12 est alors disposé sur l’axe optique X-X, dans le plan focal Pf, pour l’acquisition de l’image de la scène d’observation.
Le miroir primaire 110 est préférentiellement un miroir parabolique concave ayant un rapport focal faible (préférentiellement inférieur à 5). Ce type de miroir permet de s’affranchir des aberrations sphériques. Le diamètre du miroir primaire 110 correspond sensiblement au diamètre du tube 10.
Comparé à l’appareil de la , à diamètre et focale équivalents de miroir primaire, le fait de ramener le plan focal F entre les deux miroirs 110, 111 permet de réduire la longueur focale du système optique et la longueur du télescope 1. Le grossissement des astres observés est plus faible, mais avec comme bénéfice une augmentation du champ visuel et une augmentation de la luminosité de l’image. On peut ainsi observer avec une meilleure qualité d’image des astres peu lumineux tels que des nébuleuses ou des galaxies. La qualité d’image des astres lumineux tels que les planètes ou les étoiles reste très bonne.
L’affichage des images pour obtenir une vision stéréoscopique est réalisée selon l’un des modes d’affichage décrits précédemment (affichage dans deux oculaires, sur un seul écran, …).
L’agencement des différents éléments et/ou moyens et/ou étapes de l’invention, dans les modes de réalisation décrits ci-dessus, ne doit pas être compris comme exigeant un tel agencement dans toutes les implémentations. D’autres variantes peuvent être prévues et notamment :
- Le système optique de l’appareil n’est pas nécessairement constitué d’un ou plusieurs miroirs, mais peut comporter une ou plusieurs lentilles en complément ou en substitution desdits miroirs.
- D’autres types de capteurs 12 peuvent être envisagés. Par exemple un capteur de type CCD, CMOS, ou Foveon, de couleur ou noir et blanc.
En outre, une ou plusieurs caractéristiques exposées seulement dans un mode de réalisation peuvent être combinées avec une ou plusieurs autres caractéristiques exposées seulement dans un autre mode de réalisation. De même, une ou plusieurs caractéristiques exposées seulement dans un mode de réalisation peuvent être généralisées aux autres modes de réalisation, même si ce ou ces caractéristiques sont décrites seulement en combinaison avec d’autres caractéristiques.

Claims (19)

  1. Procédé de vision stéréoscopique d’une scène d’observation céleste (S), le procédé comportant les étapes consistant à :
    - acquérir une image de la scène d’observation (S) au moyen d’un appareil de vision optique (1),
    - générer deux images homologues d’un ou plusieurs astres (A1, A2, A3) contenus dans la scène d’observation (S), respectivement une première image (I1A1, I1A2, I1A3) et une seconde image (I2A1, I2A2, I2A3), ladite première image et ladite seconde image étant décalées l’une de l’autre,
    - faire apparaître les premières images (I1A1, I1A2, I1A3) et les secondes images (I2A1, I2A2, I2A3) de manière à obtenir une vision stéréoscopique de la scène d’observation (S),
    ce caractérisant par le fait quele procédé comprend les étapes suivantes :
    - identifier un ou plusieurs astres (A1, A2, A3) dans l’image acquise de la scène d’observation (S),
    - évaluer la distance (LA1, LA2, LA3) entre chaque astre identifié (A1, A2, A3) et l’appareil (1),
    - pour un ou des astres identifiés (A1, A2, A3), décaler horizontalement la première image (I1A1, I1A2, I1A3) et la seconde image (I2A1, I2A2, I2A3) d’une distance (DA1, DA2, DA3) qui est fonction de la distance évaluée (LA1, LA2, LA3) dudit astre.
  2. Procédé selon la revendication 1, dans lequel l’identification d’astre dans l’image de la scène d’observation (S), est réalisée au moyen d’une application informatique de reconnaissance d’objets.
  3. Procédé selon la revendication 1, comprenant les étapes consistant à :
    - enregistrer dans une base de données (18) des enregistrements d’astres, chaque enregistrement d’astre étant sélectionnable et associé à des coordonnées célestes dudit astre en temps réel et à des données d’identification,
    - sélectionner un enregistrement d’astre dans la base de données (18),
    - actionner un dispositif d’orientation (M) de l’appareil (1) de manière à ce que ledit appareil s’oriente vers ledit astre correspondant à l’enregistrement sélectionné, en fonction des coordonnées célestes associées audit l’enregistrement.
  4. Procédé selon la revendication 3, comprenant les étapes consistant à :
    - actionner le dispositif d’orientation (M) de sorte que l’astre correspondant à l’enregistrement sélectionné se trouve dans une zone prédéfinie de l’image acquise de la scène d’observation (S),
    - identifier ledit astre en corrélant les données d’identification associées à l’enregistrement sélectionné et la position de cet astre dans l’image acquise de la scène d’observation (S).
  5. Procédé selon l’une des revendications 3 ou 4, dans lequel l’orientation de l’appareil (1) est en outre réalisée en corrélant des données de localisation terrestre dudit appareil (1) et des données d’orientation dudit appareil.
  6. Procédé selon l’une des revendications 3 à 5, comprenant une étape consistant à identifier un ou plusieurs autres astres dans l’image de la scène d’observation (S), laquelle identification est réalisée au moyen d’une application informatique de reconnaissance d’objets.
  7. Procédé selon l’une des revendications 1 à 6, comprenant les étapes consistant à :
    - enregistrer dans une base de données (18) des enregistrements d’astres, chaque enregistrement d’astre étant associé à des données de distance dudit astre par rapport à la Terre,
    - pour chaque astre identifié (A1, A2, A3), rechercher dans la base de données (18) l’enregistrement correspondant et extraire la donnée de distance,
    - évaluer la distance (LA1, LA2, LA3) entre chaque astre identifié (A1, A2, A3) et l’appareil (1), en fonction de la donnée de distance extraite.
  8. Procédé selon l’une des revendications 1 à 7, comprenant une étape consistant à appliquer une fonction mathématique pour déterminer la valeur des distances de décalage des images (DA1, DA2, DA3) à partir des distances évaluées (LA1, LA2, LA3), laquelle fonction varie selon l’écart-type desdites distances évaluées.
  9. Procédé selon l’une des revendications 1 à 6, comprenant une étape consistant à évaluer de manière relative la distance (LA1, LA2, LA3) entre chaque astre identifié (A1, A2, A3) et l’appareil (1) de manière à classer lesdits astres identifiés par ordre croissant ou décroissant d’éloignement par rapport audit appareil (1), laquelle évaluation relative est réalisée en fonction de la nature desdits astres identifiés.
  10. Procédé selon la revendication 9, consistant à décaler la première image (I1A1, I1A2, I1A3) et la seconde image (I2A1, I2A2, I2A3) d’un astre identifié d’une valeur fixe (DA1, DA2, DA3), laquelle valeur dépend du classement dudit astre.
  11. Procédé selon l’une des revendications précédentes, comprenant les étapes consistant à :
    - définir un plan de référence (Pref),
    - pour un astre identifié (A2) situé derrière le plan de référence (Pref), décaler la première image (I1A2) et la seconde image (I2A2) de manière à ce que lesdites images présentent une parallaxe positive,
    - pour un astre identifié (A1) situé devant le plan de référence, décaler la première image (I1A1) et la seconde image (I2A1) de manière à ce que lesdites images présentent une parallaxe négative,
    - pour un astre identifié (A3) situé dans le plan de référence (Pref), ne pas décaler la première image (I1A3) et la seconde image (I2A3) de manière à ce que lesdites images présentent une parallaxe nulle.
  12. Procédé selon la revendication 11, consistant à définir le plan de référence (Pref) à l’infini.
  13. Procédé selon la revendication 11, consistant à faire coïncider le plan de référence (Pref) avec un astre identifié (A2).
  14. Procédé selon l’une des revendications 1 à 13, comprenant l’étape consistant à afficher les premières images (I1A1, I1A2, I1A3) sur un premier écran (101D) installé dans un premier oculaire (100D) d’un dispositif de visualisation intégré ou connecté à l’appareil (1) et afficher les secondes images (I2A1, I2A2, I2A3) sur un second écran (101G) installé dans un second oculaire (100G) dudit dispositif de visualisation, de manière à obtenir une vision stéréoscopique de la scène d’observation lorsqu’un observateur positionne ses yeux (OD, OG) devant chacun desdits oculaires.
  15. Procéder selon l’une des revendications 1 à 13, comprenant les étapes consistant à :
    - afficher sur un écran (100) les premières images (I1A1, I1A2, I1A3) et les secondes images (I2A1, I2A2, I2A3) sous la forme d’une image anaglyphe (I),
    - placer des filtres anaglyptiques (FD, FG) devant les yeux (OD, OG) de l’observateur de manière à ce que ledit observateur ait une vision stéréoscopique de la scène d’observation lorsqu’il regarde l’écran (100).
  16. Système de vision stéréoscopique d’une scène d’observation céleste (S), le système comportant :
    - un appareil de vision optique (1) adapté pour acquérir une image de la scène d’observation (S),
    - un moyen (13) pour générer deux images homologues d’un ou plusieurs astres (A1, A2, A3) contenus dans la scène d’observation (S), respectivement une première image (I1A1, I1A2, I1A3) et une seconde image (I2A1, I2A2, I2A3), ladite première image et ladite seconde image étant décalées l’une de l’autre,
    - un moyen pour faire apparaître les premières images (I1A1, I1A2, I1A3) et les secondes images (I2A1, I2A2, I2A3) de manière à obtenir une vision stéréoscopique de la scène d’observation (S),
    ce caractérisant par le fait quel’appareil (1) comporte une unité de traitement (13) adaptée pour :
    - identifier un ou plusieurs astres (A1, A2, A3) dans l’image acquise de la scène d’observation (S),
    - évaluer la distance (LA1, LA2, LA3) entre chaque astre identifié (A1, A2, A3) et l’appareil (1),
    - pour un ou des astres identifiés (A1, A2, A3), décaler horizontalement la première image (I1A1, I1A2, I1A3) et la seconde image (I2A1, I2A2, I2A3) d’une distance (DA1, DA2, DA3) qui est fonction de la distance évaluée (LA1, LA2, LA3) dudit astre.
  17. Système selon la revendication 16, dans lequel :
    - l’appareil (1) intègre ou et connecté à un dispositif de visualisation comprenant deux oculaires, respectivement un premier oculaire (100D) et un second oculaire (100G), chaque oculaire étant pourvu d’un écran de visualisation (101D, 101G),
    - l’unité de traitement (13) est adaptée pour afficher les premières images (I1A1, I1A2, I1A3) sur l’écran (101D) du premier oculaire (100D) et afficher les secondes images (I2A1, I2A2, I2A3) sur l’écran (101G) du second oculaire (100D).
  18. Système selon la revendication 16, dans lequel l’appareil (1) comprend un écran (100) sur lequel les premières images (I1A1, I1A2, I1A3) et les secondes images (I2A1, I2A2, I2A3) sont affichées sous la forme d’une image anaglyphe (I).
  19. Système selon l’une des revendications 16 à 18, dans lequel l’appareil (1) est un télescope.
FR2007258A 2020-07-09 2020-07-09 Procédé et système pour la vision stéréoscopique d’une scène d’observation céleste Active FR3112401B1 (fr)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR2007258A FR3112401B1 (fr) 2020-07-09 2020-07-09 Procédé et système pour la vision stéréoscopique d’une scène d’observation céleste

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR2007258 2020-07-09
FR2007258A FR3112401B1 (fr) 2020-07-09 2020-07-09 Procédé et système pour la vision stéréoscopique d’une scène d’observation céleste

Publications (2)

Publication Number Publication Date
FR3112401A1 true FR3112401A1 (fr) 2022-01-14
FR3112401B1 FR3112401B1 (fr) 2023-08-04

Family

ID=73038125

Family Applications (1)

Application Number Title Priority Date Filing Date
FR2007258A Active FR3112401B1 (fr) 2020-07-09 2020-07-09 Procédé et système pour la vision stéréoscopique d’une scène d’observation céleste

Country Status (1)

Country Link
FR (1) FR3112401B1 (fr)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5617332A (en) * 1988-08-10 1997-04-01 Fressola; Alfred A. Method and system for producing stereographic images of celestial objects
US20070159390A1 (en) * 2006-01-06 2007-07-12 Lg Electronics Inc. Method of providing celestial information and a mobile terminal having a function of providing the celestial information
JP2008017223A (ja) * 2006-07-06 2008-01-24 Casio Comput Co Ltd 撮像装置、撮像装置のガイド表示方法及びプログラム
US20090225155A1 (en) * 2008-03-05 2009-09-10 Casio Computer Co., Ltd Celestial body observation device
US20120019642A1 (en) * 2010-07-19 2012-01-26 Hillis W Daniel Portable Telescope
US20160170223A1 (en) 2014-12-12 2016-06-16 Russell Drew Lederman Method and apparatus for stereoscopic viewing
FR3054897A1 (fr) 2016-08-05 2018-02-09 Stereopsys Procede d'elaboration d'une image numerique, produit programme d'ordinateur et systeme optique associes
EP3400474A1 (fr) 2016-03-29 2018-11-14 Google LLC Visiocasque anaglyphe

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5617332A (en) * 1988-08-10 1997-04-01 Fressola; Alfred A. Method and system for producing stereographic images of celestial objects
US20070159390A1 (en) * 2006-01-06 2007-07-12 Lg Electronics Inc. Method of providing celestial information and a mobile terminal having a function of providing the celestial information
JP2008017223A (ja) * 2006-07-06 2008-01-24 Casio Comput Co Ltd 撮像装置、撮像装置のガイド表示方法及びプログラム
US20090225155A1 (en) * 2008-03-05 2009-09-10 Casio Computer Co., Ltd Celestial body observation device
US20120019642A1 (en) * 2010-07-19 2012-01-26 Hillis W Daniel Portable Telescope
US20160170223A1 (en) 2014-12-12 2016-06-16 Russell Drew Lederman Method and apparatus for stereoscopic viewing
EP3400474A1 (fr) 2016-03-29 2018-11-14 Google LLC Visiocasque anaglyphe
FR3054897A1 (fr) 2016-08-05 2018-02-09 Stereopsys Procede d'elaboration d'une image numerique, produit programme d'ordinateur et systeme optique associes
US20190196173A1 (en) 2016-08-05 2019-06-27 Unistellar Method for producing a digital image, associated computer program product and optical system

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
LINTU A ET AL: "An Augmented Reality System for Astronomical Observations", VIRTUAL REALITY, 2006. IEEE ALEXANDRIA, VA, USA 25-29 MARCH 2006, PISCATAWAY, NJ, USA,IEEE, 25 March 2006 (2006-03-25), pages 16 - 16, XP010912069, ISBN: 978-1-4244-0224-3, DOI: 10.1109/VR.2006.24 *

Also Published As

Publication number Publication date
FR3112401B1 (fr) 2023-08-04

Similar Documents

Publication Publication Date Title
EP2789166B1 (fr) Procede de reconstruction 3d d'une scene faisant appel a des capteurs asynchrones
EP3494430A1 (fr) Procédé d'élaboration d'une image numérique, produit programme d'ordinateur et système optique associés
FR3011952A1 (fr) Procede d'interaction par le regard et dispositif associe
EP3866064A1 (fr) Procede d'authentification ou d'identification d'un individu
EP3627210A1 (fr) Système de vision en réalité virtuelle ou augmentée avec capteur d'image de l'oeil, et procédé associé
EP3614306A1 (fr) Procédé de localisation et d'identification de visage et de détermination de pose, à partir d'une vue tridimensionnelle
EP2469868B1 (fr) Procédé de correction de l'hyperstéréoscopie et système de visualisation de casque associé
EP3145405B1 (fr) Procédé de détermination d'au moins un paramètre comportemental
FR2989790A1 (fr) Dispositif de visualisation adapte a fournir un champ visuel etendu.
WO2015173528A1 (fr) Procede d'affichage sur hmd en realite augmentee de l'image d'une camera et des donnees d'autres capteurs
FR3112401A1 (fr) Procédé et système pour la vision stéréoscopique d’une scène d’observation céleste
EP3384462A1 (fr) Procede de caracterisation d'une scene par calcul d'orientation 3d
CA3216150A1 (fr) Procede de simulation de produits optiques
FR3033913A1 (fr) Procede et systeme de reconnaissance d'objets par analyse de signaux d'image numerique d'une scene
EP4172665A1 (fr) Procédé et installation pour estimer un paramètre caractéristique de la turbulence atmosphérique
EP3488383B1 (fr) Procede et dispositif d'aide a la navigation d'un vehicule
FR3039919A1 (fr) Suivi d’une cible dans un reseau de cameras
FR3088458A1 (fr) Procede de reconnaissance et de description contextuelles d'un objet d'interet pour un utilisateur deficient visuel, dispositif mettant en oeuvre ledit procede
EP3072110B1 (fr) Procédé d'estimation du mouvement d'un objet
WO2016151071A1 (fr) Dispositif et procede pour l'acquisition biometrique de l'iris
FR3129759A1 (fr) Procédé d’aide au positionnement d’un objet par rapport à une zone cible d’une matrice de pixels d’une caméra, dispositif et programme d’ordinateur correspondants
WO2014016531A1 (fr) Methode monocamera de determination d'une direction d'un solide
FR3054678B1 (fr) Kit pour dispositif imageur
EP3069299B1 (fr) Système et procédé de prise de vues intégrant un système d'éclairage de la scène à prendre
EP4130867A1 (fr) Procede d'acquisition d'image d'au moins un astre et appareil pour la mise en oeuvre du procede

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20220114

PLFP Fee payment

Year of fee payment: 3

PLFP Fee payment

Year of fee payment: 4