FR3082610A1 - Procédé de détermination de données de prédistorsion en vue de la projection d’un contenu d’image par un projecteur et module de projection correspondant - Google Patents

Procédé de détermination de données de prédistorsion en vue de la projection d’un contenu d’image par un projecteur et module de projection correspondant Download PDF

Info

Publication number
FR3082610A1
FR3082610A1 FR1906313A FR1906313A FR3082610A1 FR 3082610 A1 FR3082610 A1 FR 3082610A1 FR 1906313 A FR1906313 A FR 1906313A FR 1906313 A FR1906313 A FR 1906313A FR 3082610 A1 FR3082610 A1 FR 3082610A1
Authority
FR
France
Prior art keywords
camera
projector
relative location
targeted surface
respect
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR1906313A
Other languages
English (en)
Other versions
FR3082610B1 (fr
Inventor
Martin Bachhuber
Frank Schmid
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Diehl Aerospace GmbH
Original Assignee
Diehl Aerospace GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Diehl Aerospace GmbH filed Critical Diehl Aerospace GmbH
Publication of FR3082610A1 publication Critical patent/FR3082610A1/fr
Application granted granted Critical
Publication of FR3082610B1 publication Critical patent/FR3082610B1/fr
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • H04N9/3185Geometric adjustment, e.g. keystone or convergence
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/18Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 for optical projection, e.g. combination of mirror and condenser and objective
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/80Geometric correction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3191Testing thereof
    • H04N9/3194Testing thereof including sensor feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30268Vehicle interior

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Geometry (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Abstract

Procédé de détermination de données de prédistorsion en vue de la projection d’un contenu d’image par un projecteur et module de projection correspondant Dans le procédé selon l’invention, une caméra (10) occupe un emplacement relatif connu (RKP), vis-à-vis d’un projecteur (4), et est agencée de façon telle qu’au moins une partie d’une surface ciblée (13) se situe dans le champ de vision de ladite caméra (10). Cette dernière enregistre une image vidéo sur la base de laquelle un emplacement relatif de la caméra (10), vis-à-vis de la surface ciblée (13), est spécifié par vision artificielle. Un emplacement relatif (RPZ) du projecteur (4), vis-à-vis de la surface ciblée (13), est spécifié sur la base de l’emplacement relatif de la caméra (10) vis-à-vis de ladite surface ciblée (13), et de l’emplacement relatif (RKP) de ladite caméra (10) vis-à-vis dudit projecteur (4). Des données de prédistorsion (2) sont spécifiées à l’appui des données géométriques de ladite surface ciblée (13), et dudit emplacement relatif (RPZ) du projecteur (4) vis-à-vis de ladite surface ciblée (13). Figure à publier avec l’abrégé : Fig.1

Description

Description
Titre de l'invention : Procédé de détermination de données de prédistorsion en vue de la projection d’un contenu d’image par un projecteur et module de projection correspondant [0001] La présente invention se rapporte à un procédé de détermination ou de spécification de données de prédistorsion en vue de la projection d’un contenu d’image par un projecteur dans un habitacle d’un véhicule, sur une surface ciblée dudit habitacle, ainsi qu’à un module de projection dévolu à la projection d’un contenu d’image dans un habitacle d’un véhicule, sur une surface ciblée dudit habitacle.
[0002] L’invention concerne, par ailleurs, Γutilisation de la caméra d’un module de projection du type précité ou de la caméra employée dans le procédé susmentionné, en vue de la surveillance optique de l’habitacle.
[0003] L’invention a trait, en outre, à l’utilisation d’une caméra intérieure dans un habitacle d’un véhicule, en tant que caméra du module de projection susmentionné, ou dans un procédé du type précité.
[0004] Il est connu, dans la pratique, de projeter des contenus d’images tels que des images ou des motifs lumineux par exemple, à l’aide d’un système de projection, sur des surfaces présentant par exemple une inclinaison et/ou une courbure dans un habitacle d’un véhicule, tout particulièrement dans la cabine de passagers d’un aéronef. Lesdites surfaces se présentent, par exemple, comme des casiers à bagages fermés. Des informations de correction (prédistorsion dans le projecteur, à l’appui de données de prédistorsion) sont nécessaires pour corriger les distorsions qui surviennent dans la restitution du contenu d’image (distorsions d’images) et résultent de la forme de la surface. La spécification de ces données de prédistorsion est complexe dans la pratique.
[0005] La présente invention a pour objet d’améliorer la spécification ou la détermination de données de prédistorsion lors d’une projection correspondante.
[0006] La projection a lieu à partir d’un projecteur, lequel est installé dans un habitacle d’un véhicule. La surface ciblée est une surface ciblée dudit habitacle. Des données géométriques de ladite surface sont connues. Le projecteur se trouve, dans l’habitacle, dans un état monté répondant à la destination recherchée. Dans ledit procédé, une caméra est implantée en un emplacement relatif connu vis-à-vis du projecteur. Ladite caméra est alors agencée de telle sorte qu’au moins une partie de la surface ciblée se situe dans le champ de vision de ladite caméra. Par conséquent, lorsque la caméra enregistre une image vidéo, au moins une partie de la surface ciblée est reproduite dans ladite image vidéo. Une image vidéo est ensuite enregistrée à l’aide de ladite caméra.
L’emplacement relatif de la caméra, vis-à-vis de la surface ciblée, est spécifié sur la base de l’image vidéo. Ledit emplacement relatif est en corrélation avec l’instant auquel l’image vidéo est enregistrée. La spécification est effectuée par vision artificielle, c’est-à-dire que des méthodes, des modes opératoires et des principes fondamentaux de ladite vision artificielle sont appliqués dans le cadre d’une évaluation de l’image vidéo, en vue de spécifier l’emplacement relatif. L’emplacement relatif du projecteur, vis-à-vis de la surface ciblée, est spécifié sur la base de l’emplacement relatif spécifié de la caméra vis-à-vis de ladite surface ciblée, et de l’emplacement relatif connu de ladite caméra vis-à-vis dudit projecteur. Les données de prédistorsion sont ensuite spécifiées à l’appui des données géométriques connues de ladite surface ciblée, et dudit emplacement relatif spécifié du projecteur vis-à-vis de ladite surface ciblée.
[0007] Par l’expression « contenu d’image », il convient d’entendre toute information lumineuse pouvant être restituée par le projecteur correspondant et se présentant, par exemple, comme des vidéos, des images, des textes, des motifs ou, tout simplement, comme de la lumière uniquement monochromatique. La surface ciblée est une surface de l’habitacle sur laquelle la projection du contenu d’image est souhaitée. Dans le présent cas, la notion de « position » doit toujours être perçue comme la combinaison d’un emplacement (information localisatrice) et d’une orientation (information directionnelle). L’expression « emplacement relatif » doit notamment être interprétée comme des informations de coordonnées dans un système de coordonnées, en particulier dans un système de coordonnées incluant également des données CAO (conception assistée par ordinateur) affectées à la surface ciblée et à des objets de natures autres, mentionnés ci-après. Les transformations de coordonnées, entre différents systèmes de coordonnées contenant les informations respectives, sont au minimum connues.
[0008] La caméra est alors mise en place de façon telle qu’il puisse être admis qu’une vision dégagée de ladite caméra en direction de la surface est offerte, en règle générale, lorsque par exemple aucun obstacle, par exemple une personne, ne se trouve provisoirement dans le champ de vision. Les « données géométriques » décrivent respectivement le profil ou la forme de la surface ciblée, par exemple si cette dernière est courbe et selon quelle ampleur, quelles sont ses dimensions, etc. La surface ciblée est notamment courbe, au moins par zones, et/ou comporte des arêtes et/ou des parties de surface planes. En particulier, ladite surface ciblée est inclinée, au moins par zones, vis-à-vis d’un axe optique du projecteur dirigé vers ladite surface.
[0009] La prédistorsion correspondante du contenu d’image peut également être désignée par la notion de « déformation d’image ». Par l’expression « vision artificielle », il convient notamment d’entendre des procédés et des algorithmes automatiques et/ou assistés par ordinateur, qui sont affectés à l’évaluation d’images et fournissent des cotes géométriques, des données, des interdépendances.
[0010] Conformément à l’invention, l’on obtient ainsi une configuration de projecteur automatique, reposant sur une caméra. En définitive, l’invention propose un procédé qui, en se fondant respectivement sur une estimation ou une spécification (détermination) de l’emplacement relatif du projecteur vis-à-vis de la surface de projection (surface ciblée), à l’appui d’une vision artificielle (de méthodes photogrammétriques, en particulier), spécifie ou détermine les informations de correction se rapportant à la distorsion de l’image projetée sur une surface notamment courbe.
[0011] L’invention se fonde sur l’idée selon laquelle il convient d’effectuer des projections, sur des surfaces courbes, à l’aide d’un projecteur ou d’un système de projection respectivement destiné à l’habitacle du véhicule (cabine d’aéronef), ou situé dans ce dernier. Pour corriger les distorsions résultant de la courbure, l’invention propose un procédé qui calcule ces informations de correction sur la base des données géométriques (modèle CAO de la cabine, en particulier) et de l’emplacement relatif du projecteur vis-à-vis de la cible de projection (surface ciblée). Du fait qu’il n’est pas exclu que cet emplacement relatif varie dans l’habitacle (cabine) pendant la durée de vie du système, il est proposé un procédé respectivement apte à spécifier ou à estimer cet emplacement relatif dans ledit habitacle (cabine d’aéronef), à l’appui d’une vision artificielle (de méthodes photogrammétriques, en particulier), afin d’actualiser les informations de correction (données de prédistorsion) au moyen de cette information.
[0012] L’invention atteint l’objet recherché en utilisant une vision artificielle (vision par ordinateur). Une caméra, installée à cette fin en plus du système projecteur-surface ciblée, peut saisir la région de l’image projetée (et son environnement proche, en particulier). Sur la base de l’image reproduite de la surface ciblée (en particulier des points perceptibles sur la surface de projection, désignés par « caractéristiques »), l’emplacement relatif de ladite caméra vis-à-vis de ladite surface ciblée (notamment de ces points perceptibles) peut être respectivement estimé ou spécifié. Or, si la caméra est montée en un emplacement relatif connu et notamment invariable (distance, orientation), vis-à-vis du projecteur (dans le même boîtier, par exemple), l’emplacement relatif dudit projecteur vis-à-vis de la surface ciblée s’en trouve ainsi également connu, et l’information de correction (données de prédistorsion, ou correction de ces dernières) peut être déterminée sur la base des données géométriques (modèle CAO, en particulier) et de l’emplacement relatif spécifié.
[0013] L’avantage de l’invention réside dans le fait que le procédé décrit permet de déterminer automatiquement, sans contact, la correction de la distorsion provoquée par des surfaces courbes, c’est-à-dire les données de prédistorsion, pendant la durée de vie du système. Le système à caméra pourrait, en particulier, fournir additionnellement des informations (sous la forme des données d’images enregistrées par la caméra) relatives à l’habitacle (à la cabine) comme, par exemple, une identification d’un réceptacle (casier à bagages) ouvert.
[0014] Des méthodes correspondantes de vision artificielle sont amplement connues. Uniquement à titre d’exemples, à cet égard, l’on se référera à X. Gao, X. Hou, J. Tang, H. Cheng, « Complete Solution Classification for the Perspective-Three-Point Problem » (Classification à solution complète pour le problème de la perspective trois points), IEEE, 2003, p. 4 et suivantes ; à « Open Source Computer Vision Library » (Librairie de vision par ordinateur en source libre), www.opencv.org, « LeamOpenCV : Approximate Focal Length for Webcams and Cell Phone Caméras» (LeamOpenCV : distance focale approximée pour Webcams et caméras de téléphones cellulaires), www.learnopencv.com/approximate-focal-length-for-webcams-and-cell-phone-camera s/ (21.12.2017) ; à « ArUco Marker », www.uco.es/inverstiga/grupos/ava/node/26 ; ou à S. Garrido-Jurado, R. Munoz-Salinas, F.J. Marin-Jimenez, « Automatic Generation and Detection of High Reliable Diucial Markers under Occlusion » (Génération automatique et détection de marqueurs hautement fiables sous occlusion), Université de Cordoue, Côrdoba, 2014. En conséquence, le procédé décrit est transposable de manière simple avec des méthodes connues.
[0015] Selon une caractéristique de réalisation préférentielle de l’invention, la vision artificielle est exécutée, au moins en partie, sous la forme de méthodes photogrammétriques. Des méthodes correspondantes sont amplement connues, de sorte que le procédé peut, dans ce cas, être mis en œuvre pour satisfaire aux besoins.
[0016] Selon une caractéristique de réalisation préférentielle de l’invention, des données CAO de la surface ciblée sont utilisées en tant que données géométriques de ladite surface ciblée. De telles données CAO sont en règle générale suffisantes pour des véhicules, notamment pour des aéronefs, et elles sont disponibles avec la précision nécessaire, si bien que les données géométriques requises peuvent être obtenues de manière particulièrement simple.
[0017] Selon une caractéristique de réalisation préférentielle de l’invention, la caméra est agencée de façon telle qu’au moins une partie de l’environnement de la surface ciblée se situe dans le champ de vision de ladite caméra, des données géométriques dudit environnement saisi par ladite caméra, en rapport avec ladite surface ciblée, étant pareillement connues. L’on dispose, de la sorte d’informations supplémentaires en vue de l’évaluation en vision artificielle. Les résultats fournis s’en trouvent ainsi améliorés en règle générale. Même pour des surfaces ciblées unitairement lisses, dépourvues de coins et d’arêtes, qui seraient difficiles à évaluer par vision artificielle dans certaines circonstances, un choix approprié de l’environnement peut assurer que des structures (arêtes, coins, etc.), pouvant être évaluées de façon correspondante, soient contenues dans l’image vidéo. Ainsi, une spécification hautement précise de l’emplacement relatif de la caméra, vis-à-vis du projecteur, peut avoir lieu pour ce cas également.
[0018] Concernant notamment le cas de données CAO, des données géométriques se présentent également, en général, en tant que données CAO pour l’environnement correspondant, les conditions d’emplacements relatifs entre l’environnement et la surface ciblée étant ensuite connues.
[0019] Selon une caractéristique de réalisation préférentielle de l’invention, la vision artificielle consiste au moins en partie à détecter au moins un élément perceptible dans l’image vidéo. L’emplacement relatif dudit élément, vis-à-vis de la surface ciblée, est connu dans ce cas. Deux, trois ou quatre éléments sont notamment détectés, voire plus. « Détectés » signifie alors que lesdits éléments sont identifiés dans l’image vidéo, et que leur emplacement relatif vis-à-vis de la caméra est déterminé. A l’appui de l’emplacement relatif connu, entre un élément et la surface ciblée, l’emplacement relatif, entre la caméra et ladite surface ciblée, peut ensuite être spécifié à nouveau.
[0020] D’après une variante préférentielle de cette caractéristique de réalisation de l’invention, une structure caractéristique de la surface ciblée, et/ou de l’environnement de ladite surface ciblée dans le cas où ce dernier est présent, est détectée en tant qu’au moins l’un des éléments. De telles « structures caractéristiques » sont des structures déjà présentes sur la surface ciblée et/ou dans l’environnement, par exemple des points, des lignes, des arêtes ou des coins. A titre d’exemples, l’on mentionnera des bords, des arêtes, des joncs décoratifs, des poignées d’un casier de rangement, des orifices de sortie d’air, des lampes, etc. Cela a pour effet d’éviter la nécessité de tracer des jalons spécifiques ou des repères similaires en tant qu’éléments, aux fins d’exécution du procédé. Lesdits jalons font respectivement partie de l’habitacle originel ou de la surface ciblée proprement dit(e).
[0021] Selon une variante préférentielle du procédé conforme à l’invention, un jalon, tracé sur la surface ciblée et/ou dans l’environnement de ladite surface ciblée, dans le cas où ce dernier est présent, est détecté en tant qu’au moins l’un des éléments. Les jalons correspondants sont, en particulier, ajoutés spécialement aux fins d’exécution du procédé, de sorte qu’ils ne font pas partie, à proprement parler, de l’habitacle originel ou de la surface ciblée. De tels jalons peuvent être visibles ou invisibles (infrarouges, ultraviolets) par l’être humain, mais peuvent toutefois, dans tous les cas, être détectés à l’aide de la caméra (donc, dans l’image vidéo). Lesdits jalons peuvent être actifs (auto-éclairants) ou passifs. A titre d’exemples, l’on citera des affichettes adhésives, des laquages colorés, des marqueurs fluorescents actifs (diodes électroluminescentes), etc. Des jalons de ce type peuvent être particulièrement bien coordonnés avec la caméra ou, respectivement, avec la faculté d’identification dans l’image vidéo, et se traduisent par une évaluation particulièrement fiable dans le cadre de la vision arti6 ficielle.
[0022] En résumé, il convient d’exposer ce qui suit : les arêtes du panneau ciblé (panneau de l’habitacle matérialisant la surface ciblée), des repères visibles (par l’être humain) rapportés (des jalons Aruco, par exemple), des repères invisibles (par l’être humain) rapportés (par exemple, une encre UV illuminée par des diodes électroluminescentes UV à partir du projecteur ou de la caméra), voire des sources d’infrarouges intégrées dans ledit panneau, se prêtent en particulier, respectivement, en tant que jalons ou points perceptibles. L’emplacement relatif peut notamment être calculé, de façon générale, sur la base d’au moins trois zones (éléments) perceptibles. La précision peut être accrue, en particulier, par des jalons en nombre supérieur à trois. Une assertion concernant l’emplacement relatif (emplacement relatif de la caméra vis-à-vis des jalons, et donc vis-à-vis de la surface ciblée) peut être prononcée en présence de points dont le nombre est inférieur à trois, notamment par des considérations additionnelles de plausibilité.
[0023] Selon une caractéristique de réalisation préférentielle du procédé conforme à l’invention, il est parti du principe suivant lequel, avant même le début de la spécification de données de prédistorsion telle que décrite jusque-là, de telles données de prédistorsion sont respectivement présentes, ou existantes. Dans ce cas, les données de prédistorsion présentes se rapportent à un premier emplacement relatif du projecteur vis-à-vis de la surface ciblée. L’on commence ensuite la mise en œuvre du procédé tel que décrit jusqu’à présent. Un second emplacement relatif dudit projecteur, vis-à-vis de ladite surface ciblée, est alors spécifié. Un écart, entre les second et premier emplacements relatifs, est spécifié dans l’enchaînement. Si ledit écart excède une valeur de seuil respectivement préétablie ou pouvant être préétablie, les données de prédistorsion sont corrigées et spécifiées à nouveau sur la base dudit second emplacement relatif. Ainsi, le cas échéant, il est mis un terme au procédé décrit jusqu’à présent (pour un écart inférieur à la valeur de seuil) en ce sens que la spécification des données de prédistorsion consiste à conserver les données de prédistorsion déjà connues au préalable. Pour le reste, ledit procédé est achevé en renouvelant la spécification ou la correction (notamment de faible ampleur) desdites données de prédistorsion. Dans ce cas, par conséquent, il ne s’opère notamment aucune « spécification » au sens étroit d’un nouveau calcul mathématique intégral des données de prédistorsion, etc. En d’autres termes, le « procédé de spécification » se dénature en un « procédé de comparaison » ou en un « procédé de correction ». L’écart constaté peut notamment être égal à zéro.
[0024] Selon une caractéristique de réalisation préférentielle de l’invention, une surface, courbe dans au moins une région, est utilisée en tant que surface ciblée. Pour des surfaces ciblées courbes, une importance particulière est accordée à une prédistorsion adéquate du contenu d’image à restituer, qui peut être exécutée d’une manière particulièrement simple à l’aide du procédé décrit.
[0025] Selon une caractéristique de réalisation préférentielle de l’invention, une surface d’un casier de rangement ou d’un casier à bagages est sélectionnée en tant que surface ciblée. Il s’agit alors, en particulier, d’un casier de rangement situé dans l’habitacle, notamment dans la cabine de passagers d’un aéronef matérialisant le véhicule. Des casiers de rangement de ce type présentent fréquemment des surfaces à courbures complexes, mais sont toutefois souhaitables en tant que localisation d’une projection correspondante. Une projection exempte de distorsion peut être concrètement obtenue, de manière particulièrement simple, à l’aide du procédé décrit.
[0026] Selon une caractéristique de réalisation préférentielle de l’invention, le procédé est exécuté dans un aéronef matérialisant le véhicule et présentant une cabine de passagers matérialisant l’habitacle. Les avantages du procédé, décrits ci-avant, peuvent ainsi être particulièrement mis à profit pour ce cas d’application.
[0027] L’objet recherché par l’invention est également atteint grâce à un module de projection dévolu à la projection d’un contenu d’image dans un habitacle d’un véhicule, sur une surface ciblée dudit habitacle. Ledit module est équipé d’une unité de calcul conçue pour la mise en œuvre du procédé conforme à l’invention, ainsi que du projecteur explicité dans le contexte dudit procédé, et de la caméra correspondante.
[0028] Le module de projection et au moins une partie des caractéristiques de réalisation de ce dernier, ainsi que les avantages respectifs, ont déjà été substantiellement commentés en rapport avec le procédé conforme à l’invention.
[0029] Selon une caractéristique de réalisation préférentielle de l’invention, le module de projection renferme une structure de support, à laquelle le projecteur et la caméra sont fixés en un emplacement relatif stationnaire l’un vis-à-vis de l’autre. Ledit projecteur et ladite caméra sont notamment logés dans le même boîtier. En particulier, la structure de support constitue au moins une partie du boîtier, ou bien au moins une partie dudit boîtier est réalisée en tant que structure de support. L’emplacement relatif connu entre la caméra et le projecteur, dont le procédé se réclame, peut ainsi être concrétisé de manière particulièrement simple.
[0030] L’objet recherché par l’invention est également atteint par une utilisation de la caméra du module de projection conforme à l’invention ou, respectivement, de la caméra employée dans le procédé conforme à l’invention, en vue de la surveillance optique de l’habitacle. Ladite « surveillance » peut alors s’effectuer « manuellement », c’est-à-dire par une observation de l’image vidéo opérée par une personne, ou automatiquement, par estimation automatique de ladite image vidéo. La caméra remplit ainsi un objectif double, à savoir, en premier lieu, celui qui lui est assigné par le procédé ou le module de projection susdécrit et, en second lieu, celui d’une caméra de surveillance classique. Une telle opportunité se présente, en particulier, lors de l’utilisation dans l’aéronef, car cela permet de faire l’économie d’un élément structurel supplémentaire (seconde caméra) et, par conséquent, de réduire le poids.
[0031] L’objet recherché par l’invention est également atteint par l’utilisation d’une caméra intérieure dans un habitacle d’un véhicule, en tant que caméra du module de projection conforme à l’invention, ou dans le procédé conforme à l’invention. Ladite caméra intérieure est notamment une caméra de surveillance qui, de toute façon, est installée dans l’habitacle. Son utilisation double dispense respectivement le procédé, ou le module de projection, de la présence impérative d’une caméra distincte. Dans l’aéronef en particulier, cela offre de nouveau les avantages précités (réduction pondérale).
[0032] L’invention se fonde sur les expériences acquises, les observations ou les considérations exposées ci-après, et présente encore les formes de réalisation commentées ci-après. Ces dernières sont également désignées par « l’invention », en partie par simplification. Lesdites formes de réalisation peuvent aussi renfermer des parties ou des combinaisons des formes de réalisation susmentionnées, ou bien leur correspondre et/ ou, le cas échéant, inclure également des formes de réalisation non évoquées jusqu’à présent.
[0033] L’idée fondamentale de l’invention réside dans une conception visant à un calibrage et à une commande d’un système de projection, avec régulation par caméra. L’invention repose sur l’idée consistant à proposer, en ayant recours à la photogrammétrie, un procédé de calibrage et de post-régulation automatiques de la distorsion d’images (respectivement, de la prédistorsion) du système de projection dans une cabine d’aéronef, par l’intermédiaire de la caméra installée dans le projecteur (module de projection). Ledit calibrage a pour objet la prédistorsion de l’image engendrée par le projecteur, de telle manière que l’image venant incider sur la surface ciblée soit visualisée sans distorsion, indépendamment de la géométrie de la surface ciblée et de l’orientation du projecteur par rapport à ladite surface ciblée (« indépendamment » s’entendant en fonction des conditions effectives, respectivement différentes ou variables). L’idée fondamentale de l’invention réside, par ailleurs, dans un procédé de calibrage qui spécifie les informations de calibrage à l’appui du modèle CAO de la cabine de l’aéronef et de l’intégration du projecteur. Par extension, il est proposé une conception par laquelle des paramètres essentiels pour le calibrage à base CAO sont déterminés, dans la cabine, à l’aide des moyens de la photogrammétrie. Le système peut ainsi réagir de lui-même, également à l’état intégré, à des variations comme, par exemple, la distance variable entre le projecteur et la surface ciblée, conséquence de variations de pression de l’air.
[0034] Conformément à l’invention, cela se solde notamment par l’utilisation d’une vision par ordinateur (vision artificielle) en vue de l’estimation automatique, sans contact, de l’emplacement relatif du projecteur vis-à-vis de la surface de projection (surface ciblée), et du choix de jalons appropriés pouvant être employés dans la cabine d’aéronef.
[0035] La méthode fondamentale de prédistorsion (déformation) de l’image projetée se présente par exemple comme suit : dans un premier temps, l’image devant être distordue est alliée à un quadrillage, de sorte que des emplacements de pixels sont associés à des points réguliers dudit quadrillage. A un stade successif, par l’intermédiaire d’un champ vectoriel de correction défini par des vecteurs dans les zones des points du quadrillage, ledit quadrillage est transmuté à la forme ciblée. Les appariements pixels-points du quadrillage précédemment définis sont décalés de manière précise en concordance avec cette prescription, et des localisations de pixels, entre lesdits points du quadrillage, sont déterminées par interpolation.
[0036] L’algorithme de calibrage détermine le champ vectoriel de correction optimal en fonction de la géométrie de la surface ciblée, de l’emplacement relatif du projecteur et de ladite surface ciblée, ainsi que des propriétés dudit projecteur (allure de rayonnement).
[0037] D’autres caractéristiques, effets et avantages de l’invention sont mis en lumière par la description d’exemples de réalisation préférentiels de l’invention, fournie ci-après, ainsi que par les schémas de principe des dessins annexés sur lesquels :
[0038] [fig. 1] illustre une projection sur une surface ciblée ;
[0039] [fig.2] représente une détection de ladite surface ciblée par l’intermédiaire d’une caméra ; et [0040] [fig.3] montre un casier à bagages, en tant que variante de surface ciblée, avec détection des arêtes de l’objet.
[0041] La figure 1 est une illustration schématique d’un calcul, fondé sur une CAO, de données de prédistorsion 2 (représentées une nouvelle fois dans le détail I, par une perspective symbolisée, sous la forme d’un champ vectoriel de correction). Ledit calcul s’opère dans une unité de calcul 3, uniquement évoquée de manière symbolisée dans le présent cas. Un projecteur 4 implanté dans un habitacle 5 d’un véhicule, non représenté en détail et revêtant la forme d’une cabine de passagers d’un aéronef, est symbolisé par sa trajectoire de faisceaux 6 et par sa surface de référence 8 (imaginaire et virtuelle). Ledit projecteur se trouve dans un état monté M, dans l’aéronef, c’est-à-dire qu’il est monté sur son site d’intégration répondant à la destination recherchée. La surface de référence 8 constitue alors la surface sur laquelle ledit projecteur 4 peut visualiser une image exempte de distorsion, homogène et focalisée, d’un contenu d’image 9 illustré de manière symbolisée dans le présent cas. Concrètement, ledit contenu d’image 9 est projeté sur une surface ciblée 13. En vue d’une régulation par caméra, une caméra 10, installée parallèlement au projecteur 4 et occupant un emplacement relatif connu RKP (évoqué par une flèche à double tête) visà-vis dudit projecteur 4, peut respectivement enregistrer ladite surface ciblée 13, ou la reproduire dans une image vidéo. Les emplacements de tous les objets impliqués sont référencés par rapport à un point géométrique de référence 12 (point zéro) pouvant être choisi librement.
[0042] La première étape inclut l’opération consistant à définir, sur la surface ciblée 13 constituée, dans le présent cas, d’un casier à bagages de l’habitacle 5, d’un quadrillage régulier 14 (évoqué par un motif en échiquier) qui détermine la forme de l’image à visualiser. Au moyen d’un procédé de trajectographie, la trajectoire de faisceaux 6 est ensuite spécifiée pour chaque point individuel 6 du quadrillage du motif en échiquier, en vue de renseigner sur une image 18 devant être visualisée sur la surface de référence 8, de telle sorte qu’une image non distordue soit obtenue sur la surface ciblée 13. En vertu d’une distance connue D (évoquée, par exemple, par un trait fort), entre les points 16 du quadrillage sur ladite surface de référence 8 et ladite surface ciblée 13, il est également possible de renseigner, en plus, sur une différence de luminosité entre les points individuels 16 du quadrillage, devant être adaptée le cas échéant.
[0043] Pour l’utilisation dans la cabine d’aéronef, l’allure de rayonnement et la surface de référence 8 du projecteur 4, ainsi que la géométrie de la surface ciblée 13, doivent être considérées comme constantes. Ces paramètres peuvent être spécifiés à l’appui des données CAO de la cabine ou, respectivement, sur la base de mesures.
[0044] Un emplacement relatif RPZ du projecteur 4, vis-à-vis de la surface ciblée 13, doit être considéré comme variable. Ledit emplacement RPZ se compose d’une translation t et d’une rotation R, que ledit projecteur 4 effectue par rapport à ladite surface 13.
[0045] L’emplacement relatif RPZ peut s’écarter de l’intégration planifiée, en substance pour des raisons tenant à des tolérances de l’installation du système et à une modification de l’emplacement des panneaux, dépendant de la pression qui règne dans la cabine. C’est pourquoi il conviendrait de traiter ces deux aspects, dans la cabine, par un système à caméra. L’on se fonde alors sur l’installation d’une caméra 10 occupant l’emplacement relatif connu RKP vis-à-vis du projecteur 4. Un procédé photogrammétrique vise à déterminer un emplacement relatif RKZ de ladite caméra 10 en fonction de jalons 20 (points perceptibles) tracés sur la surface ciblée 13 et, par conséquent aussi, l’emplacement RPZ dudit projecteur vis-à-vis de ladite surface (voir la figure 2).
[0046] Pour déterminer l’emplacement relatif RKZ, comme l’atteste l’illustration de la figure 2, la caméra 10 saisit au moins trois éléments perceptibles respectivement matérialisés, dans le présent cas, par les jalons 20 ou par les points qui sont tracés sur la surface ciblée 13, et dont les coordonnées 3D par rapport à l’origine géométrique (point de référence 12) sont connues. Lesdits jalons 20, éléments à saisir, se présentent [0047] [0048] [0049] [0050] [0051] [0052] [0053] [0054] [0055] [0056] [0057] [0058] [0059] [0060] alors comme des angles, des zones saillantes ou des repères visibles.
Une comparaison des coordonnées bidimensionnelles respectives des jalons 20 ou des points, sur l’image vidéo, avec leurs coordonnées 3D connues, permet ensuite de renseigner sur l’orientation et l’emplacement de la caméra 10 par rapport au point géométrique de référence 12. La précision de la détermination d’emplacements peut être accrue à l’aide de jalons 20 ou, respectivement, de points en nombre supérieur à trois.
Le projecteur 4, la caméra 10 et l’unité de calcul 3 forment, associativement, un module de projection 22. Ledit projecteur 4 et ladite caméra 10 sont alors fixés à une structure de support 24 dudit module 22. Leur emplacement relatif RKP s’en trouve, de la sorte, fermement préétabli ou potentiellement préétabli.
La figure 3 montre, à titre d’exemple, un fragment d’une variante d’habitacle 5 d’une cabine de passagers d’un aéronef. L’illustration campe trois casiers à bagages (deux fragmentairement), au sein desquels le casier central forme une surface ciblée 13 effective. L’image vidéo saisie par la caméra 10 est mise en évidence. Un profil de casier à bagages 26, respectivement spécifié à l’aide de la caméra 10 ou de l’unité de calcul 3, est symbolisé par un pointillé. Dans ce cas, ledit profil revêt respectivement la forme de bords ou d’arêtes dudit casier 26, qui représentent les jalons 20 ou les éléments perceptibles de la surface ciblée 13.
L’emplacement relatif RKZ est spécifié, à nouveau, sur la base du profil du casier à bagages 26. Pour le reste, la conduite ultérieure du procédé est rationnellement conforme à celle décrite, ci-avant, pour spécifier les données de prédistorsion 2.
La figure 3 illustre également la manière dont la caméra 10 peut remplir une double utilité. En effet, l’image vidéo peut aussi être utilisée pour contrôler si des casiers à bagages sont demeurés ouverts. Dans ce cas, la caméra 10 du module de projection 22 peut être conjointement employée pour surveiller les casiers à bagages ou, inversement, une caméra 10 déjà présente pour surveiller lesdits casiers peut être utilisée, conjointement, en tant que caméra 10 dans ledit module 22.
Il va de soi que de nombreuses modifications peuvent être apportées à l’invention telle que décrite et représentée, sans s’écarter du cadre de cette dernière.
Les objets, éléments composants et états suivants sont référencés comme suit sur les figures :
: données de prédistorsion : unité de calcul : projecteur : habitacle du véhicule : trajectoire des faisceaux du projecteur : surface de référence du projecteur : contenu d’image [0061] [0062] [0063] [0064] [0065] [0066] [0067] [0068] [0069] [0070] [0071] [0072] [0073] [0074] [0075] [0076] [0077] [0078] [0079] : caméra : point géométrique de référence / point zéro : surface ciblée : quadrillage sur la surface ciblée : points du quadrillage sur la surface de référence et sur la surface ciblée : image à visualiser : jalons (éléments perceptibles) sur la surface ciblée : module de projection : structure de support du module de projection : casier à bagages
RKP : emplacement relatif de la caméra vis-à-vis du projecteur
RPZ : emplacement relatif du projecteur vis-à-vis de la surface ciblée
RKZ : emplacement relatif de la caméra vis-à-vis de la surface ciblée
D : distance entre les points du quadrillage t : translation à l’emplacement relatif du projecteur
R : rotation à l’emplacement relatif du projecteur
M : état monté du projecteur
I : détail de l’illustration de la figure 1
Bien entendu, l'invention n'est pas limitée aux modes de réalisation décrits et représentés aux dessins annexés. Des modifications restent possibles, notamment du point de vue de la constitution des divers éléments ou par substitution d'équivalents techniques, sans sortir pour autant du domaine de protection de l'invention.

Claims (1)

  1. [Revendication 1] [Revendication 2] [Revendication 3] [Revendication 4] [Revendication 5]
    Revendications
    Procédé de détermination de données de prédistorsion (2) en vue de la projection d’un contenu d’image (9) par un projecteur (4) dans un habitacle (5) d’un véhicule, sur une surface ciblée (13) dudit habitacle (5), sachant que des données géométriques de ladite surface ciblée (13) sont connues et que ledit projecteur (4) se trouve, dans ledit habitacle (5), dans un état monté (M) répondant à la destination recherchée, procédé caractérisé par le fait qu’une caméra (10) est implantée en un emplacement relatif connu (RKP) vis-à-vis du projecteur (4), ladite caméra (10) étant agencée de façon telle qu’au moins une partie de la surface ciblée (13) se situe dans le champ de vision de ladite caméra (10) ; par le fait qu’une image vidéo est enregistrée à l’aide de ladite caméra (10) ; par le fait que l’emplacement relatif (RKZ) de la caméra, vis-à-vis de la surface ciblée, est spécifié ou déterminé par vision artificielle sur la base de l’image vidéo ; par le fait que l’emplacement relatif (RPZ) du projecteur (4), vis-à-vis de la surface ciblée (13), est spécifié ou déterminé sur la base de l’emplacement relatif (RKZ) de la caméra (10) vis-à-vis de ladite surface ciblée (13), et de l’emplacement relatif (RKP) de ladite caméra (10) vis-à-vis dudit projecteur (4) ; et par le fait que lesdites données de prédistorsion (2) sont spécifiées ou déterminées à l’appui des données géométriques de ladite surface ciblée (13), et dudit emplacement relatif (RPZ) du projecteur (4) vis-à-vis de ladite surface ciblée (13).
    Procédé selon la revendication 1, caractérisé par le fait que la vision artificielle est exécutée, au moins en partie, sous la forme de méthodes photogrammétriques.
    Procédé selon l’une quelconque des revendications précédentes, caractérisé par le fait que des données CAO de la surface ciblée (13) sont utilisées en tant que données géométriques de ladite surface ciblée (13). Procédé selon l’une quelconque des revendications précédentes, caractérisé par le fait que la caméra (10) est agencée de façon telle qu’au moins une partie de l’environnement de la surface ciblée (13) se situe dans le champ de vision de ladite caméra (10), des données géométriques dudit environnement saisi par ladite caméra (10), en rapport avec ladite surface ciblée (13), étant pareillement connues.
    Procédé selon l’une quelconque des revendications précédentes, caractérisé par le fait que la vision artificielle consiste au moins en partie à
    détecter, dans l’image vidéo, au moins un élément perceptible (20) dont l’emplacement relatif vis-à-vis de la surface ciblée (13) est connu. [Revendication 6] Procédé selon la revendication 5, caractérisé par le fait qu’une structure caractéristique de la surface ciblée (13) et éventuellement, ou en variante, de l’environnement de ladite surface ciblée (13) dans le cas où ce dernier est présent, est détectée en tant qu’au moins l’un des éléments (20). [Revendication 7] Procédé selon la revendication 5 ou 6, caractérisé par le fait qu’un jalon (20), tracé sur la surface ciblée (13) et éventuellement, ou en variante, dans l’environnement de ladite surface ciblée (13) dans le cas où ce dernier est présent, est détecté en tant qu’au moins l’un des éléments (20). [Revendication 8] Procédé selon l’une quelconque des revendications précédentes, caractérisé par le fait que des données de prédistorsion (2) existent déjà en rapport avec un premier emplacement relatif (RPZ) du projecteur (4) vis-à-vis de la surface ciblée (13), sachant que, dans ledit procédé, un second emplacement relatif (RPZ) dudit projecteur (4) vis-à-vis de ladite surface ciblée (13) est spécifié ou déterminé, un écart entre les second et premier emplacements relatifs (RPZ) est spécifié et, en présence d’un écart excédant une valeur de seuil pouvant être préétablie, les données de prédistorsion (2) sont corrigées et spécifiées à nouveau, dans ledit procédé, sur la base dudit second emplacement relatif (RPZ). [Revendication 9] Procédé selon l’une quelconque des revendications précédentes, caractérisé par l’utilisation, en tant que surface ciblée (13), d’une surface courbe dans au moins une région. [Revendication 10] Procédé selon l’une quelconque des revendications précédentes, caractérisé par le fait qu’une surface d’un casier de rangement ou d’un casier à bagages (26) est sélectionnée en tant que surface ciblée (13). [Revendication 11] Procédé selon l’une quelconque des revendications précédentes, caractérisé par le fait que ledit procédé est exécuté dans un aéronef matérialisant le véhicule et présentant une cabine de passagers matérialisant l’habitacle (5). [Revendication 12] Module de projection (22) dévolu à la projection d’un contenu d’image (9) dans un habitacle (5) d’un véhicule, sur une surface ciblée (13) dudit habitacle (5), et équipé d’une unité de calcul (3) conçue pour la mise en œuvre du procédé conforme à l’une quelconque des revendications 1 à 11, du projecteur (4) et de la caméra (10). [Revendication 13] Module de projection selon la revendication 12, caractérisé par le fait
    que ledit module (22) renferme une structure de support (24), à laquelle le projecteur (4) et la caméra (10) sont fixés en un emplacement relatif stationnaire (RKP) l’un vis-à-vis de l’autre.
    [Revendication 14] Utilisation de la caméra (10) d’un module de projection (22) conforme à l’une quelconque des revendications 12 et 13, ou de la caméra (10) employée dans le procédé conforme à l’une quelconque des revendications 1 à 11, en vue de la surveillance optique de l’habitacle (5).
    [Revendication 15] Utilisation d’une caméra intérieure dans un habitacle (5) d’un véhicule, en tant que caméra (10) d’un module de projection (22) conforme à l’une quelconque des revendications 12 et 13, ou dans un procédé conforme à l’une quelconque des revendications 1 à 11.
FR1906313A 2018-06-15 2019-06-13 Procédé de détermination de données de prédistorsion en vue de la projection d’un contenu d’image par un projecteur et module de projection correspondant Active FR3082610B1 (fr)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102018004829.3A DE102018004829A1 (de) 2018-06-15 2018-06-15 Ermittlung von Vorverzerrungsdaten für eine Projektion und Projektormodul
DE102018004829.3 2018-06-15

Publications (2)

Publication Number Publication Date
FR3082610A1 true FR3082610A1 (fr) 2019-12-20
FR3082610B1 FR3082610B1 (fr) 2021-10-08

Family

ID=68724301

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1906313A Active FR3082610B1 (fr) 2018-06-15 2019-06-13 Procédé de détermination de données de prédistorsion en vue de la projection d’un contenu d’image par un projecteur et module de projection correspondant

Country Status (5)

Country Link
US (1) US11636617B2 (fr)
BR (1) BR102019010983A2 (fr)
CA (1) CA3045176A1 (fr)
DE (1) DE102018004829A1 (fr)
FR (1) FR3082610B1 (fr)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018167999A1 (fr) * 2017-03-17 2018-09-20 パナソニックIpマネジメント株式会社 Projecteur et système de projecteur
CN113313966A (zh) * 2020-02-27 2021-08-27 华为技术有限公司 一种位姿确定方法以及相关设备
CN115278184B (zh) * 2022-07-18 2024-03-15 峰米(重庆)创新科技有限公司 投影画面校正方法及装置
DE102022131168A1 (de) 2022-11-24 2024-05-29 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur projektion von bildinhalten

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102007023344B4 (de) * 2007-05-16 2017-03-02 Airbus Sas Projektion verschiedener Bildinhalte in einer Großraumkabine eines Transportmittels
DE102009008084B4 (de) * 2009-02-09 2018-04-05 Airbus Operations Gmbh Bilderzeugende Beleuchtung für Flugzeuginnenflächen
TWI439788B (zh) * 2010-01-04 2014-06-01 Ind Tech Res Inst 投影校正系統及方法
US9158185B2 (en) * 2013-01-07 2015-10-13 Lumexis Corporation Personal interactive overhead projection inflight entertainment system
US9731824B2 (en) * 2015-03-11 2017-08-15 The Boeing Company Unique system and method of creating scenes within a moving vehicle such as an aircraft
US9792674B2 (en) * 2016-03-10 2017-10-17 Netflix, Inc. Perspective correction for curved display screens

Also Published As

Publication number Publication date
BR102019010983A2 (pt) 2019-12-17
CA3045176A1 (fr) 2019-12-15
DE102018004829A1 (de) 2019-12-19
US20190385330A1 (en) 2019-12-19
FR3082610B1 (fr) 2021-10-08
US11636617B2 (en) 2023-04-25

Similar Documents

Publication Publication Date Title
FR3082610A1 (fr) Procédé de détermination de données de prédistorsion en vue de la projection d’un contenu d’image par un projecteur et module de projection correspondant
US11689703B2 (en) Vehicular vision system with customized display
EP3305592A1 (fr) Systeme d'eclairage pour vehicule automobile
FR2921027A1 (fr) Dispositif d'aide a la conduite pour vehicule automobile comportant un systeme de capture d'images stereoscopique
WO2020008062A1 (fr) Adaptation d'une fonction de feu de route d'un véhicule automobile
FR2965765A1 (fr) Procede et dispositif pour former une image d'un objet dans l'environnement d'un vehicule
FR3027144A1 (fr) Procede et dispositif de determination de mouvement entre des images video successives
EP2743129A1 (fr) Procédé et dispositif de commande d'un faisceau lumineux
WO2009053660A1 (fr) Procede et dispositif de mesure de jeu et d'affleurememt entre des pieces fixees sur un ensemble en l'absence de l'une d'elles
FR3054673B1 (fr) Fusion de donnees de detection et de suivi d'objets pour vehicule automobile
EP2952960A1 (fr) Dispositif et procédé de prise de vues 3d
FR2882159A1 (fr) Systeme de camera pour observer une ou plusieurs zones d'espace
EP2208963B1 (fr) Procédé de mesure de jeux et d'affleurements
FR3052581B1 (fr) Procede de realisation d'une carte de profondeurs a partir d'images successives d'une camera unique (mono) embarquee dans un vehicule automobile
WO2021156026A1 (fr) Procédé de calibration des caractéristiques extrinsèques d'un lidar
FR3092545A1 (fr) Assistance à la conduite d’un véhicule, par détermination de la voie de circulation dans laquelle est situé un objet
FR3066303A1 (fr) Procede de calibration d'un dispositif de surveillance d'un conducteur dans un vehicule
EP2877979B1 (fr) Methode monocamera de determination d'une direction d'un solide
FR3053293A1 (fr) Systeme d'aide a la conduite pour un vehicule, vehicule ferroviaire et procede d'utilisation associes
FR3133095A1 (fr) Procédé de calcul de surfaces tridimensionnelles pour véhicule équipé d’un système d’aide à la conduite
FR3052582A1 (fr) Procede et dispositif de traitement d'images acquises par une camera d'un vehicule automobile
WO2019081829A1 (fr) Dispositif d'affichage à écran fixé à une partie d'un système pour rendre transparent un élément masquant.
FR3073821A1 (fr) Procede d’agencement d’un projecteur, projecteur associe, et cabine de passagers d’un aeronef equipee dudit projecteur
FR3093058A1 (fr) Procédé et dispositif de commande de lavage de caméra de véhicule
FR3120030A1 (fr) Procédé et dispositif de rétro-vision numérique utilisé par un véhicule pour remplacer des rétroviseurs extérieurs du véhicule

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20210305

PLFP Fee payment

Year of fee payment: 3

PLFP Fee payment

Year of fee payment: 4

PLFP Fee payment

Year of fee payment: 5