FR3073310A1 - Procede d’affichage d’une image de l’environnement d’un vehicule sur un ecran tactile equipant le vehicule - Google Patents

Procede d’affichage d’une image de l’environnement d’un vehicule sur un ecran tactile equipant le vehicule Download PDF

Info

Publication number
FR3073310A1
FR3073310A1 FR1760503A FR1760503A FR3073310A1 FR 3073310 A1 FR3073310 A1 FR 3073310A1 FR 1760503 A FR1760503 A FR 1760503A FR 1760503 A FR1760503 A FR 1760503A FR 3073310 A1 FR3073310 A1 FR 3073310A1
Authority
FR
France
Prior art keywords
vehicle
virtual camera
image
touch screen
posture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR1760503A
Other languages
English (en)
Other versions
FR3073310B1 (fr
Inventor
Stephanie Ambroise-Devaux
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Renault SAS
Original Assignee
Renault SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Renault SAS filed Critical Renault SAS
Priority to FR1760503A priority Critical patent/FR3073310B1/fr
Priority to EP18795667.7A priority patent/EP3707679A1/fr
Priority to PCT/EP2018/080190 priority patent/WO2019091920A1/fr
Publication of FR3073310A1 publication Critical patent/FR3073310A1/fr
Application granted granted Critical
Publication of FR3073310B1 publication Critical patent/FR3073310B1/fr
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/102Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using 360 degree surveillance camera system
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • B60R2300/602Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective with an adjustable viewpoint
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • General Physics & Mathematics (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Instrument Panels (AREA)

Abstract

L'invention concerne un procédé d'affichage d'une image de l'environnement d'un véhicule sur un écran tactile équipant le véhicule, comprenant des étapes de : a) affichage sur ledit écran tactile : - d'une image du véhicule tel qu'il serait vu depuis une caméra virtuelle placée dans une posture initiale, - d'au moins un élément graphique associé à un paramètre de posture de la caméra virtuelle, b) acquisition de la position d'un point dudit élément sélectionné par appui d'un usager sur l'écran tactile, c) calcul de la valeur dudit paramètre de posture en fonction de la position dudit point, et déduction d'une nouvelle posture de la caméra virtuelle, d) acquisition d'images réelles de l'environnement par des capteurs d'images, e) composition, à partir des images réelles, d'une image virtuelle de l'environnement du véhicule tel que vu depuis la caméra virtuelle placée dans la nouvelle posture, f) affichage sur l'écran tactile de l'image virtuelle.

Description

Domaine technique auquel se rapporte l'invention
La présente invention concerne de manière générale le domaine des aides à la conduite de véhicules automobiles.
Elle concerne en particulier un procédé d’affichage d’une image de l’environnement d’un véhicule sur un écran tactile équipant le véhicule.
Elle concerne également un système d’aide comprenant :
- quatre capteurs d’images, chacun des quatre capteurs d’images étant placé sur un des quatre côté du véhicule, chacun des quatre capteurs d’images étant apte à acquérir une image réelle de l’environnement du véhicule,
- un écran tactile, et
- une unité de calcul adaptée à mettre en œuvre un procédé d’affichage tel que précité.
ARRIERE-PLAN TECHNOLOGIQUE
Il est connu de composer une image d’un véhicule automobile circulant dans un environnement à partir d’images capturées par plusieurs caméras situées sur les quatre côtés du véhicule. Cette image composée est affichée au conducteur sur un écran d’affichage du véhicule automobile pour lui permettre de détecter des obstacles situés dans les angles morts du véhicule automobile.
Pour le conducteur, cette image composée semble être acquise depuis une unique caméra virtuelle filmant le véhicule automobile depuis un emplacement donné situé à distance du véhicule.
Quand l’écran est tactile, l’emplacement de cette caméra virtuelle peut généralement être choisi par le conducteur en affichant une représentation du véhicule automobile ainsi qu’une représentation de la caméra virtuelle et en invitant le conducteur à déplacer la caméra virtuelle autour du véhicule en balayant l’écran tactile avec ses doigts.
Le dispositif d’aide compose ensuite l’image de l’environnement du véhicule à partir de l’emplacement sélectionné de la caméra virtuelle.
Cependant, le conducteur peut avoir besoin de changer l’emplacement de la caméra virtuelle alors qu’il est en train d’effectuer une manœuvre. Or, la sélection de l’emplacement de la caméra virtuelle à l’aide de ce dispositif n’est pas pratique, et peut demander trop d’attention au conducteur, ce qui impacte sa sécurité.
Objet de l’invention
Afin de remédier à l’inconvénient précité de l’état de la technique, la présente invention propose un procédé d’affichage d’une image de l’environnement d’un véhicule sur un écran tactile équipant le véhicule, comprenant des étapes de :
a) affichage sur ledit écran tactile :
- d’une image du véhicule tel qu’il serait vu depuis une caméra virtuelle placée dans une posture initiale, et
- d’au moins un élément graphique associé un paramètre de posture de la caméra virtuelle,
b) acquisition de la position d’un point dudit élément sélectionné par appui d’un usager sur l’écran tactile,
c) calcul de la valeur dudit paramètre de posture en fonction de la position dudit point, et déduction d’une nouvelle posture de la caméra virtuelle,
d) acquisition d’images réelle de l’environnement par une pluralité de capteurs d’images,
e) composition, à partir des images réelles acquises à l’étape d), d’une image virtuelle de l’environnement du véhicule tel qu’il serait vu depuis la caméra virtuelle placée dans la nouvelle posture déterminée à l’étape c), et
f) affichage sur l’écran tactile de l’image virtuelle.
Ainsi, l’invention propose un procédé permettant à l’usager de choisir facilement une nouvelle posture de la caméra virtuelle. Le choix est en effet simplifié par l’affichage de l’élément graphique permettant de montrer à l’usager quelles postures peuvent être adoptées par la caméra virtuelle. L’usager sélectionne ensuite la nouvelle posture de la caméra virtuelle en exerçant un simple appui sur l’élément graphique l’écran tactile. La sélection d’une nouvelle posture ne nécessite pas une grande attention de la part de l’usager qui peut alors se concentrer sur les manœuvres routières qu’il est en train d’effectuer.
D’autres caractéristiques non limitatives et avantageuses du procédé d’affichage conforme à l’invention, prises individuellement ou selon toutes les combinaisons techniquement possibles, sont les suivantes :
- il est prévu une étape de constitution d’une représentation du véhicule tel qu’il serait vu depuis la caméra virtuelle dans la nouvelle posture déterminée à l’étape c), et dans lequel, à l’étape e), l’image virtuelle est obtenue en superposant la représentation du véhicule à l’environnement,
-l’élément graphique comprend un cercle situé autour de l’image du véhicule et ledit paramètre de posture est un angle d’orientation de la caméra virtuelle autour du véhicule,
- l’élément graphique permet de sélectionner l’angle d’orientation de la caméra virtuelle autour du véhicule avec un pas de 1 degré,
-l’élément graphique comprend un segment situé verticalement par rapport à l’image du véhicule et ledit paramètre de posture est une distance verticale entre le véhicule et la caméra virtuelle,
- l’élément graphique comprend un segment situé horizontalement par rapport à l’image du véhicule et le paramètre de posture est une distance horizontale entre le véhicule et la caméra virtuelle,
- les étapes c) à f) sont répétées après chaque appui ponctuel exercé par l’usager sur l’écran tactile,
- la caméra virtuelle présente un axe optique, à l’étape c), la nouvelle posture de la caméra virtuelle est définie de telle sorte que ledit axe optique passe par un point prédéterminé du véhicule, L’invention propose également un système d’aide à la conduite d’un véhicule tel que défini en introduction dont l’unité de calcul est programmée pour mettre en œuvre un procédé tel que défini ci-dessus.
Description detaillee d’un exemple de réalisation
La description qui va suivre en regard des dessins annexés, donnés à titre d’exemples non limitatifs, fera bien comprendre en quoi consiste l’invention et comment elle peut être réalisée.
Sur les dessins annexés :
- la figure 1 est une coupe schématique d’un véhicule équipé d’un système d’aide à la conduite selon l’invention,
- la figure 2a illustre une caméra virtuelle du véhicule de la figure 1,
- la figure 2b illustre une image virtuelle du véhicule de la figure 1 tel que vu par la caméra virtuelle,
- la figure 3a illustre des paramètres de la caméra virtuelle,
- la figure 3b est une vue schématique de dessus du véhicule de la figure 1 et de la caméra virtuelle, sur laquelle sont représentées des coordonnées de la caméra virtuelle,
- la figure 3c est une vue schématique de côté du véhicule de la figure 1 et de la caméra virtuelle, sur laquelle sont représentés d’autres coordonnées de la caméra virtuelle,
- la figure 4a est une vue schématique en perspective du véhicule de la figure 1, sur laquelle est représenté un premier élément graphique associé à un premier paramètre de posture de la caméra virtuelle,
- la figure 4b est une vue schématique en perspective du véhicule de la figure 1, sur laquelle est représenté un deuxième élément graphique associé à un deuxième paramètre de posture de la caméra virtuelle,
- la figure 4c est une vue schématique en perspective du véhicule de la figure 1, sur laquelle est représenté un troisième élément graphique associé à un troisième paramètre de posture de la caméra virtuelle,
- la figure 5 représente un diagramme illustrant les étapes de mise en oeuvre d’un procédé d’affichage selon l’invention, et
- la figure 6 représente une image virtuelle en perspective obtenue selon le procédé d’affichage illustré sur la figure 5.
Sur la figure 1, on a représenté schématiquement un véhicule 1 automobile équipé d’un système d’aide à la conduite 3.
Comme cela sera bien décrit dans la suite de cet exposé, ce système d’aide à la conduite 3 comprend des capteurs d’images 5, un écran tactile 7 et une unité de calcul 9.
Comme le montre la figure 1, les capteurs d’images 5 sont aptes à acquérir une pluralité d’images réelles d’un environnement extérieur au véhicule 1.
De manière préférentielle, le système d’aide à la conduite 3 comprend quatre capteurs d’images 5. Chacun des capteurs d’images 5 est placé sur un des quatre côtés du véhicule 1 (seuls deux des capteurs 5 sont visibles sur la figure 1).
Un premier capteur d’images (non représenté) est placé à l’avant du véhicule 1, par exemple en dessous du logo du véhicule 1. Le premier capteur d’images capture une zone située à l’avant du véhicule 1.
Un deuxième capteur d’images (non représenté) est placé à l’arrière du véhicule, par exemple au dessus de la plaque d’immatriculation. Le deuxième capteur d’images capture une zone située à l’arrière du véhicule 1.
Un troisième capteur d’images 5 est placé sur un premier côté latéral, par exemple le côté droit du véhicule, par exemple sous le rétroviseur droit. Le troisième capteur d’images capture une première zone située latéralement par rapport au véhicule 1, ici à droite du véhicule 1.
Un quatrième capteur d’images 5 est placé sur un deuxième côté latéral, par exemple le côté gauche du véhicule, par exemple sous le rétroviseur gauche. Le quatrième capteur d’images 5 capture une deuxième zone située latéralement par rapport au véhicule 1, ici à gauche du véhicule 1.
Ces capteurs d’images 5 sont ici des caméras. Ces caméras peuvent être de type analogique ou digital. Ici, on utilise de préférence des caméras digitales car elles permettent de capturer des images de plus grande résolution que les caméras analogiques, ce qui permet par la suite d’obtenir de meilleurs résultats en appliquant le procédé de l’invention.
Les caméras présentent un grand angle d’ouverture, par exemple proche de ou supérieur à 180°. Ces caméras sont équipées dobjectifs connus sous le nom de « fish-eye >> en anglais.
A ce stade, on peut définir en référence à la figure 3b un repère véhicule (0, Xv, Yv, Zv) attaché au véhicule 1. Ici, le repère considéré est un repère orthonormé dont l’origine O est située au centre du côté avant du véhicule 1, dont l’axe longitudinal (OXv) est orienté vers l’arrière du véhicule 1, dont l’axe transversal (OYv) est orienté vers la droite du véhicule et dont l’axe vertical (OZv) est orienté vers le haut.
On peut définir en outre le centre C du véhicule 1 comme le point situé à mi-distance du véhicule 1 dans le sens longitudinal, dans le sens transversal et dans le sens vertical du véhicule 1.
L’unité de calcul 9 du véhicule 1 est apte à recevoir les images réelles acquises par les capteurs d’images 5. Elle est en outre programmée pour composer une image virtuelle 13 de l’environnement du véhicule 1 à partir des images réelles acquises par les capteurs d’images 5. Une telle image virtuelle 13 est illustrée par la figure 2b.
Plus précisément, l’unité de calcul 9 est programmée pour composer une image virtuelle 13 de l’environnement du véhicule 1 tel que vu par une caméra virtuelle 11 se trouvant à distance du véhicule 1. La caméra virtuelle 11 est visible par exemple sur la figure 2a.
Sur la figure 2a, la caméra virtuelle 11 est située au dessus du véhicule 1. On notera bien que la caméra virtuelle 11 n’existe pas dans le monde réel : il s’agit seulement d’un concept permettant de faciliter la compréhension de l’invention, laquelle consiste à composer une image virtuelle 13 correspondant à une image réelle telle qu’elle serait capturée par une caméra réelle si cette caméra réelle était placée dans la position de la caméra virtuelle 11.
La figure 2b illustre l’image virtuelle 13 telle que vue par la caméra virtuelle 11. L’image virtuelle 13 comprend une représentation 15 du véhicule 1, ici vu du dessus, ainsi que l’environnement reconstitué 17 du véhicule 1 vu sous le même angle.
On définit par rapport à la caméra virtuelle 11 un axe optique Ao. L’axe optique Ao de la caméra virtuelle 11 est choisi pour passer par un point fixe du véhicule 1, quelle que soit la position de la caméra virtuelle 11. Le point fixe est par exemple le centre C du véhicule 1.
La figure 3a représente certains paramètres de la caméra virtuelle 11. La caméra virtuelle 11 présente ainsi une distance focale f et un plan focal PF. Le plan focal PF présente une largeur Cx et une hauteur Cy. La caméra virtuelle présente en outre une résolution horizontale Resh et une résolution verticale Resv.
Comme le montre la figure 3b, la caméra virtuelle 11 présente une posture, c’est-à-dire une position et une orientation, qui est repérée par des coordonnées (Xcam, Ycam, Zcam, θ, φ exprimées dans le repère véhicule (0, Xv, Yv, Zv). Les coordonnées (Xcam, Ycam, Zcam, θ, φ) de la caméra virtuelle 11 comprennent une première coordonnée Xcam définie selon l’axe (OXv), une deuxième coordonnée Ycam définie selon l’axe (OYv), et une troisième coordonnée Zcam définie selon l’axe (0Zv).
Une quatrième coordonnée Θ est représentée par la figure 3b. La quatrième coordonnée Θ correspond à un angle d’orientation Θ entre l’axe longitudinal (OXv) et le projeté de l’axe optique Ao dans le plan (XvYv)·
Une cinquième coordonnée φ est représentée par la figure 3c. La cinquième coordonnée φ correspond à un angle d’inclinaison φ formé par le projeté de l’axe optique Ao dans le plan (XvZv) et l’axe (OXv).
L’unité de calcul 9 est apte à calculer les coordonnées (Xcam, Ycam, Zcam, θ, φ) en fonction d’une commande de l’usager, laquelle commande est formulée par un appui d’un doigt de l’usager sur l’écran tactile 7.
Parmi ces cinq coordonnées, trois d’entre elles sont qualifiées de « paramètres de posture >> en ce sens qu’elles permettent à l’usager de faire varier la position et l’orientation de la caméra virtuelle 11. L’usager pourra donc jouer sur trois degrés de liberté de la caméra virtuelle 11. Les autres degrés de liberté ne seront pas modifiables directement par l’usager, ce qui permettra notamment de s’assurer que la caméra virtuelle 11 soit toujours dirigée vers le véhicule 1.
On peut définir ici un premier, un deuxième et un troisième paramètre de posture, que l’usager pourra facilement faire varier en appuyant sur des « éléments graphiques >> affichés sur l’écran tactile 7 afin de modifier la posture de la caméra virtuelle 11 par rapport au véhicule 1.
Le premier paramètre de posture est l’angle d’orientation Θ de la caméra virtuelle 11.
Un premier élément graphique 19, représenté sur la figure 4a, est associé à ce premier paramètre de posture. Ce premier élément graphique 19 comprend un premier cercle C1 de rayon R1 centré sur le centre C. Le premier cercle C1 est situé dans le plan (XvYv)· En appuyant sur ce premier élément graphique 19, l’usager va donc pouvoir faire varier l’angle d’orientation Θ. On peut donc considérer que le premier élément graphique 19 représente les valeurs que peut prendre l’angle d’orientation Θ. La valeur de l’angle d’orientation Θ est comprise entre 0 et 360° et peut être variée par pas de 1 °.
La valeur du premier rayon R1 est déterminée de telle sorte que le premier cercle C1 encercle la représentation 15 du véhicule 1. Le premier rayon R1 est par exemple égal à 2,5 m.
Le premier élément graphique 19 est mémorisé dans une unité de mémoire, depuis laquelle il peut être récupéré par l’unité de calcul 9 qui est apte à le transmettre à l’écran tactile 7.
Le deuxième paramètre de posture est la troisième coordonnée Zcamdont on rappelle qu’elle représente une distance verticale entre le véhicule 1 et la caméra virtuelle 11.
Cette troisième coordonnée Zcam présente une plage de valeurs qui est prédéfinie et est mémorisée dans l’unité de mémoire. La plage de valeur est par exemple fonction de la résolution offerte par les capteurs d’image 5 et par l’écran tactile 7. En effet, si la caméra virtuelle 11 est placée trop haut, les objets présents sur l’image virtuelle 13 seront trop petits pour être reconnaissables ou même visibles par l’usager. Une telle image virtuelle 13 ne pourrait donc pas aider le conducteur à manœuvrer le véhicule 1.
La troisième coordonnée Zcam est par exemple comprise entre 1,7 m et 3 m et peut varier par pas de 5 cm.
On notera ici que la troisième coordonnée Zcam est associée à l’angle d’inclinaison φ de la caméra virtuelle 11, puisque l’axe optique Ao est défini comme passant par le centre C du véhicule 1.
Un deuxième élément graphique 21, illustré par la figure 4b, est associé à ce deuxième paramètre de posture. Ce deuxième élément graphique 21 est ici formé par un segment vertical. En appuyant sur ce deuxième élément graphique 21, l’usager va donc pouvoir faire varier la troisième coordonnée Zcam et l’angle d’inclinaison φ de la caméra virtuelle 11. Le deuxième élément graphique 21 est mémorisé dans l’unité de mémoire, depuis laquelle il peut être récupéré par l’unité de calcul 9 qui est apte à le transmettre à l’écran tactile 7.
Comme le montre la figure 4c, le troisième paramètre de posture est le deuxième rayon R2 du deuxième cercle C2 sur lequel est située la caméra virtuelle 11. Le deuxième rayon R2 représente une distance horizontale entre la caméra virtuelle 11 et le véhicule 1.
Pour les raisons expliquées précédemment, le deuxième rayon R2 est compris dans une plage de valeurs prédéfinie et mémorisée dans l’unité de mémoire. Le deuxième rayon R2 est par exemple compris entre 3,5 m et 6 m, il peut être varié par pas de 5 cm.
Un troisième élément graphique 23 est associé à ce troisième paramètre de posture. Ce troisième élément graphique 23 est ici formé par un segment horizontal. En appuyant sur ce troisième élément graphique 23, l’usager va donc pouvoir faire varier le deuxième rayon R2. Le troisième élément graphique 23 est mémorisé dans l’unité de mémoire, depuis laquelle il peut être récupéré par l’unité de calcul 9 qui est apte à le transmettre à l’écran tactile 7.
Les premier, deuxième et troisième paramètres de posture 19, 21, 23 permettent à l’unité de calcul 9 de calculer des coordonnées (Xcam, YCam, Zcam, Θ, φ) de la caméra virtuelle 11 dans le repère véhicule (0, Xv, Yv, Zv).
La caméra virtuelle 11 est apte à être déplacée par l’usager autour de la représentation 15 du véhicule 1, ce qui entraîne un changement dans ses coordonnées (Xcam; Ycam> Zcam, θ, φ).
En plus de l’image de l’environnement reconstitué 17, l’unité de calcul 9 est apte à récupérer ou générer une représentation 15 du véhicule 1 telle que vu par la caméra virtuelle 11.
Pour cela, un modèle tridimensionnel du véhicule pourrait être mémorisé dans une unité de mémoire du système d’aide à la conduite 3.
Mais de manière préférentielle, une pluralité de représentations 15 du véhicule 1 est mémorisée dans une unité de mémoire du système d’aide à la conduite 3.
La pluralité de représentations 15 est par exemple réalisée à partir d’un outil de simulation du véhicule 1. On capture par exemple 360 images en perspective autour du véhicule 1, par pas de 1 degré et en restant à une première valeur du deuxième rayon R2. Puis, on répète cette opération en se plaçant à une deuxième valeur du deuxième rayon R2. Le deuxième rayon R2 est par exemple varié en millimètre.
De la même façon, on capture des images du véhicule 1 en faisant varier la troisième coordonnée Zcam, et donc l’angle d’inclinaison φ de la caméra virtuelle 11. Chaque image capturée est nommée avec sa valeur d’angle d’orientation 0, sa valeur de deuxième rayon R2 et sa valeur d’angle d’inclinaison φ, ainsi l’unité de calcul 9 peut-elle facilement récupérer la représentation 15 adéquate pour chaque posture de la caméra virtuelle 11.
L’unité de calcul 9 est en outre capable de superposer la représentation 15 appropriée du véhicule 1 à l’image reconstituée de l’environnement 17 pour former l’image virtuelle 13 telle que vue par la caméra virtuelle 11.
L’unité de calcul 9 est de plus apte à transmettre l’image virtuelle 13 à l’écran tactile 7.
L’écran tactile 7 est placé dans l’habitacle du véhicule 1, par exemple sur la planche de bord de ce dernier.
L’écran tactile 7 est apte à afficher l’image virtuelle 13 ainsi que les éléments graphiques 19, 21,23 transmis par l’unité de calcul 9.
De manière préférentielle, l’écran tactile 7 est apte à afficher des images en couleur.
L’écran tactile 7 est en outre apte à acquérir la position d’un point P sélectionné par appui ponctuel d’un usager sur ledit écran tactile 7.
Comme le montre la figure 1, un repère écran (0e, Ye, Ze) est associé à l’écran tactile 7. L’origine 0e du repère écran (Oe, Ye, Ze) est par exemple située sur un coin de l’écran tactile 7, par exemple le coin inférieur gauche. L’axe (OeYe) s’étend le long d’un axe horizontal de l’écran tactile 7. L’axe (OeZe) s’étend le long d’un axe vertical de l’écran tactile 7.
Le point P sur lequel l’usager a appuyé présente des coordonnées bidimensionnelles (yp, zp). Ces coordonnées bidimensionnelles (yp, zp) sont exprimées en pixels.
L’écran tactile 7 est apte à déterminer les coordonnées bidimensionnelles (yp, zP) du point P sélectionnées (par exemple grâce à un calculateur associé à l’écran tactile 7) et à les transmettre à l’unité de calcul 9. Le fonctionnement d’un écran tactile 7 est bien connu de l’homme du métier et ne sera pas décrit en détail.
En se rapportant à présent à la figure 5, on peut décrire plus en détails un procédé d’affichage d’une image de l’environnement d’un véhicule 1 sur un écran tactile 7 équipant le véhicule 1.
Ce procédé d’affichage comprend une étape a) d’affichage sur l’écran tactile 7 d’une des représentations 15 du véhicule 1 et d’au moins un élément graphique 19, 21, 23 parmi les premier, deuxième et troisième éléments graphiques 19, 21,23 précédemment décrits.
En début de mission, le véhicule 1 peut être représenté tel que vu depuis une posture initiale PosO de coordonnées (Xcamo, Ycamo, Zcamo, θο, φο) prédéfinie de la caméra virtuelle initiale 11 dans le repère véhicule (0, Xv, Yv, Zv).
L’écran tactile 7 affiche par exemple le premier élément graphique 19 associé au premier paramètre de posture (l’angle d’orientation Θ).
En affichant simultanément la représentation 15 du véhicule 1 et du premier élément graphique 19, le choix par l’usager de la posture de la caméra virtuelle 11, et donc de la vue virtuelle de l’environnement, est facilité. En effet, l’usager comprend rapidement à quels emplacements il peut placer la caméra virtuelle 11. Le choix de l’emplacement de la caméra virtuelle 11 ne requiert pas une grande attention puisqu’un seul appui ponctuel avec le doigt suffit, et l’usager peut se concentrer sur les manœuvres qu’il est en train d’effectuer.
L’écran tactile 7 peut en outre afficher des instructions à destination de l’usager. Ces instructions peuvent lui expliquer de quelle manière sélectionner l’emplacement de la caméra virtuelle 11. Selon l’invention, la sélection est réalisée par un appui ponctuel de l’usager sur l’écran tactile 7, plus précisément sur un des éléments graphiques affichés.
Lors d’une étape b), l’écran tactile 7 acquiert la position d’un premier point P1 du premier élément graphique 19 sélectionné par un appui de l’usager exercé sur l’écran tactile 7. La position du premier point sélectionné P1 est exprimée par un jeu de coordonnées (ypi, ζρΊ) en pixels dans le repère écran (0, Ye, Ze) précédemment décrit.
Les coordonnées (yPi, zP1) du premier point sélectionné P1 sont transmises à l’unité de calcul 9.
Lors d’une étape c) de calcul, l’unité de calcul 9 calcule la valeur du premier paramètre de posture, ici l’angle d’orientation θ-ι de la caméra virtuelle 11 autour du véhicule 1, en fonction des coordonnées (ypi, ζρΊ) du premier point sélectionné P1 afin d’en déduire une nouvelle posture Pos1 de la caméra virtuelle 11.
On décrit à présent des calculs et des transformations utilisés par l’unité de calcul 9 afin d’obtenir la valeur de l’angle d’orientation 01; qui permet de déduire les premières coordonnées (Xcami, Ycami, Zcami, θ-ι, φι) de la caméra virtuelle 11.
L’angle d’orientation θι est déterminé grâce à la formule :
„ (%C ~ XVP1\ θγ=π — acos ------J
A ce stade, on rappelle que (Xc, Yc, Zc) sont les coordonnées du centre C du véhicule 1 définies dans le repère véhicule et que R1 est le rayon du premier cercle C1 (premier élément graphique 19). Les coordonnées (Xc, Yc, Zc), la valeur de R1 ainsi que d’autres variables utilisées dans les calculs qui vont être décrits plus loin, telles que (Xcamo, Ycamo, Zcamo, θο, <Po) et R2, sont stockées dans l’unité de mémoire.
De plus, on définit les coordonnées (xvpi, yvpi, zvpi) comme les coordonnées en trois dimensions du premier point sélectionné P1 dans le repère véhicule (0, Xv, Yv, Zv). La seule variable inconnue de l’équation de l’angle d’orientation θ-ι est donc la coordonnée xVpi.
La coordonnée xvpi est déterminée grâce à la formule :
%VP1 ^3· Ç^C ZCamo) + XcamO >
Dans cette formule Xcamo et Ycamo sont les coordonnées initiales, et donc connues, de la caméra dans le repère véhicule. Zc est également connu.
R3 est déterminé au moyen de la formule :
n _ Xpcam
K? - π y
^pcam
Où on a :
Xpcam Xpil XcamO
Zpcam % Pli ~ ^camO
Où Zcamo et Xcamo sont connus.
Les coordonnées (xpn, ypn, zpn) sont les coordonnées du premier point sélectionné P1 projeté sur un premier plan focal PF1 de la caméra virtuelle 11, et exprimées dans le repère véhicule (0, Xv, Yv, Zv) (le premier plan focal PF1 étant associé à la première posture de la caméra virtuelle 11).
Pour calculer les coordonnées xpn et zpn on utilise des équations de projections perspectives :
(Xpil ~ ^camo\ y pu ~ Ycamo ) = (Ry) * (Rz) * I yP1 zPll—ZcamO/ 'ZP1
Où on rappelle que yP1 et zP1 sont les coordonnées du premier point sélectionné P1 et donc connus.
Avec de manière générale :
zcos(00) 0
Ry = [ 0 1 \-sin(Oo) 0 /cos(<p0) sin(<p0) 0\
Rz = -sin((p0) cos(<p0) 0 \ 0 0 1/
Les équations de projections perspectives associées aux matrices Ry et
Rz permettent donc de calculer xP11 et zpn. La connaissance de xpn et zpn permet de calculer Xpcam et Zpcam et ainsi de remonter jusqu’à xvpi et enfin à l’angle d’orientation θ-ι.
Zpil (Zypi
Zcamo)· XP11 Xcamo xVPl~Xcamo + ZcamQ ,
Une fois que l’unité de calcul 9 a déterminé la valeur du premier angle d’orientation ΘΊ, elle peut l’utiliser pour calculer les autres coordonnées (Xcami,
Ycami, Zcami) de la première posture de la caméra virtuelle 11
Les coordonnées (Xcami, Ycami, Zcami) de la première posture de la caméra virtuelle 11 sont données par :
Xcaml 02· COs(0i) + Xq ,
Ycami 02·^ϊη(0ι) , — 7 ^caml ^camO >
En effet, ici Yc est nul car le centre C du deuxième cercle C2 est situé sur l’axe (0Yv). De plus, le premier élément graphique 19 ne permettant pas de modifier la hauteur de la caméra virtuelle 11, les premières valeurs des coordonnées Zcam et φ restent inchangées.
Lors d’une étape d), les capteurs d’images 5 acquièrent des images réelles de l’environnement du véhicule 1. L’étape d) peut avoir lieu simultanément aux étapes a), b), c) précédentes, ou avant celles-ci.
Les images réelles sont transmises à l’unité de calcul 9 qui compose une image virtuelle de l’environnement du véhicule 1 tel que vu depuis la caméra virtuelle 11 lors d’une étape e).
L’unité de calcul 9 choisit les images réelles à utiliser en fonction de la posture de la caméra virtuelle 11. Par exemple, quand la caméra virtuelle est placée au dessus du véhicule 1 avec un axe optique parallèle à l’axe (0Zv) du repère véhicule (0, Xv, Yv, Zv), l’image virtuelle 13 affichée est celle représenté par la figure 6.
Pour une autre posture de la caméra virtuelle 11, l’unité de calcul 9 peut par exemple composer l’image virtuelle 13 à partir des images réelles de seulement un, deux ou trois capteurs d’images 5.
Cette étape de composition de l’image ne formant pas en propre le cœur de l’invention et étant déjà bien connue de l’homme du métier, elle ne sera pas ici décrite plus en détail.
Le procédé d’affichage prévoit en outre une étape de lecture d’une représentation 15 du véhicule 1 tel que vu depuis la nouvelle posture Pos 1 de la caméra virtuelle 11 déduite à l’étape c). La représentation 15 du véhicule 1 est par exemple sélectionnée parmi la pluralité de représentations 15 mémorisées dans l’unité de mémoire.
Puis, l’image virtuelle 13 de l’environnement 17 et la représentation 15 du véhicule 1 sont affichées sur l’écran tactile 7 lors d’une étape f).
Ainsi, l’usager peut facilement choisir l’emplacement de la caméra virtuelle 11, et accède à une information facilement compréhensible lui permettant de mieux visualiser l’environnement 17 du véhicule 1.
On peut ensuite prévoir que l’unité de calcul 9 commande ensuite l’affichage du deuxième élément graphique 21 afin de permettre à l’usager de régler la hauteur de la caméra virtuelle 11, avant d’afficher le troisième élément graphique 23 afin de régler la distance horizontale entre la caméra virtuelle 11 et le véhicule 1.
Plus précisément, pour acquérir le deuxième paramètre de posture, l’unité de calcul 9 affiche le deuxième élément graphique 21 associé au deuxième paramètre de posture, c’est-à-dire le segment vertical lors de l’étape a).
Le segment vertical est par exemple affiché le long d’un axe vertical passant par le centre C.
Puis, lors de l’étape b), l’unité de calcul 9 acquiert la position d’un deuxième point sélectionné P2 par appui sur l’écran tactile au niveau du segment vertical.
Ce deuxième point sélectionné P2 permet de calculer lors de l’étape c) d’une part une deuxième valeur de la coordonnée Zcam2 de la deuxième posture Pos2 de la caméra virtuelle 11 et d’autre part une deuxième valeur de son angle d’inclinaison φ2.
Les coordonnées (xvp2, yvP2, zVp2) du deuxième point sélectionné P2 dans le repère du véhicule (0, Xv, Yv, Zv) sont :
XVP2 = %C yVP2 = 0 ZVP2
On cherche donc à obtenir l’altitude zVp2- Pour cela, on utilise la formule mathématique suivante :
_ _ Ycnml i y ZVP2 — r T zcaml ,
Où :
Îpcam2 γ =----Zpcam2
Dans laquelle :
Ypcam2 ~ Vp12 ^caml Zpcam2 Zpi2 Zcaml
Les coordonnées (xP12, ypi2, zP12) sont les coordonnées du deuxième point sélectionné P2 projeté sur un deuxième plan focal PF2 de la caméra virtuelle 11, et exprimées dans le repère véhicule (0, Xv, Yv, Zv) (le deuxième plan focal PF2 étant associé à la deuxième posture de la caméra virtuelle 11 ).
Pour calculer les coordonnées xpi2 et zP12 on utilise des équations de projections perspectives :
/^P12 ~ Xcaml\ i yP12 ~ Ycaml ) = (Λγ) * (Æz) * i Vp2 ) \ZP12 Zcaml/ \Zp2/
Où on rappelle que yp2 et zP2 sont les coordonnées du deuxième point sélectionné P2 et donc connues. De plus, dans la matrice Ry, l’angle d’orientation Θ autour du véhicule 11 présente la première valeur θ-ι précédemment calculée. En se plaçant dans le deuxième plan focal PF2, on applique le théorème de Thalès de la façon suivante :
VVP2- Ycaml _ Ypcam2 .
ZVP2- Zcaml ^pcam2
La caméra virtuelle 11 est donc positionnée en
Xcam2 = R2-COSei + Xc J
Ycam.2 = ^-SinOi J ^cam2 %VP2 >
De plus, comme la caméra virtuelle 11 est orienté vers le centre C, l’angle d’inclinaison φ est :
Les étapes d) et e) sont ensuite répétées de façon à afficher une image de l’environnement 17 et une représentation 15 du véhicule 1, vus depuis une altitude correspondant au souhait de l’usager.
En dernier lieu, l’unité de calcul 9 commande l’affichage du troisième élément graphique 23 sur l’écran tactile 7 au cours d’une nouvelle étape a).
Le segment horizontal du troisième élément graphique 23 est par exemple disposé le long d’un axe passant par le centre C et à un angle égal à l’angle d’orientation θ + π/2 par rapport à l’axe longitudinal (OXv).
Lors de l’étape b), l’unité de calcul 9 acquiert la position du troisième point sélectionné P3 par appui sur le segment horizontal. Les coordonnées (yp3, zp3) du troisième point sélectionné P3 sur l’écran tactile 7 sont transmises à l’unité de calcul 9.
Ce troisième point sélectionné P3 permet de calculer, lors de l’étape c), une nouvelle distance horizontale R2f à appliquer entre le véhicule 1 et la caméra virtuelle 11.
Pour réaliser ces calculs, l’unité de calcul 9 utilise les valeurs d’angle d’orientation ΘΊ, et d’angle d’inclinaison φ2 précédemment calculées.
Les coordonnées du projeté du troisième point sélectionné P3 dans le repère véhicule (Xv, Yv, Zv) sont notées (xVp3, yvP3, zVp3).
On pose :R2f = R2i + rc ;
avec R2i la valeur initiale du rayon R2.
On a :
avec R1 la valeur initiale du premier rayon R1et R1f la valeur finale du premier rayon R1. Nous avons bien noté la formule mathématique :
Dans laquelle xvp est la coordonnée du point d’intersection du cercle de rayon R1 et du segment horizontal du troisième élément graphique 23. La coordonnée xvp est obtenue avec la formule :
Xyp = Rt. cos (θ! + + Xc ;
Où toutes les variables sont connues. La coordonnée xvp3 est calculée grâce à la formule :
X-VP3 ~ ^3· (ZC ^camo) + ^camO ,
Où Xcamo et Ycamo sont les coordonnées initiales de la caméra virtuelle 11 dans le repère véhicule. Zc est également connu.
R3 est déterminé au moyen de la formule :
n _ Xpcamz .
^3 — T j ^pcamz
Où :
Xpcam3 ~ %Ρ13 ^camO ,
Zpcam3 ~ Zpi3 ~ ^camO ,
Les coordonnées (χρΊ3, ypi3, ζρΊ3) sont les coordonnées du troisième point sélectionné P3 projeté sur un troisième plan focal PF3 de la caméra virtuelle 11, et exprimées dans le repère véhicule (0, Xv, Yv, Zv) (le troisième plan focal PF3 étant associé à la troisième posture de la caméra virtuelle 11 ).
En se plaçant dans le troisième plan focal PF3 on applique le théorème de Thalès de la façon suivante :
XVP3- Xç«m2 _ Xpcanvi .
ZVP3— ^cam2 Zpcami
Où :
Xpcam3 ~ ^P13 Xcam2 >
Zpcam3 ~ ^P13 ~ ^cam2 >
Pour calculer les coordonnées xpi3 et zP13 on utilise des équations de projections perspectives :
/^P13 ~ Xcam2\ i yP13 ~ Ycam2 ) = (Æy) * (Rz) * i 7p3 ) i 'ZP13 com2 ' \ZP3'
Où on rappelle que yp3 et zp3 sont les coordonnées du troisième point sélectionné P3 et donc connues. De plus, dans la matrice Ry, l’angle d’orientation Θ autour du véhicule 11 présente la première valeur θι précédemment calculée, et dans la matrice Rz, l’angle d’inclinaison φ présente la valeur φ2 précédemment calculée.
Les coordonnées de la caméra virtuelle 11 sont :
Xcam3 = R2f-COsÇ0') + Xc ;
Ycam3 R2f-SinÇ0) , —7 Lcam3 ~ Lcam0 »
Les étapes d) et e) sont ensuite répétées De façon à afficher une image de l’environnement 17 et une représentation 15 du véhicule 1, vus depuis une distance au véhicule 1 correspondant au souhait de l’usager.
L’image virtuelle 13 comprenant l’environnement 17 du véhicule 1 ainsi que la représentation 15 du véhicule 1 est donc composée et affichée après chaque déduction de nouvelle posture de la caméra virtuelle 11.
En variante, l’image virtuelle 13 pourrait n’être composée et affichée qu’après que le conducteur ait sélectionné les trois points sélectionnés P1, P2, P3. Pour cela, en combinant les coordonnées de la caméra virtuelle calculée à partir du premier point sélectionné P1, du deuxième point sélectionné P2 et du troisième point sélectionné P3, on pourrait utiliser un jeu de coordonnées finales (Xcamf, Ycamf, Zcamf, 0f, cpt) de la caméra virtuelle 11 :
Xcamf ~ B2f· COs(0y) + Xq ,
Ycamf ~ B2f. SÎn(6f) ,
Xcamf ~ XvP2 >
Vf = φ2;
Selon une variante du procédé d’affichage, l’unité de calcul 9 pourrait commander l’affichage simultané des premier élément graphique 19, deuxième élément graphique 21 et troisième élément graphique 23 précédemment décrits, lors de l’étape a) d’affichage.
L’usager pourrait alors choisir avec précision la nouvelle posture de la caméra virtuelle 11 en choisissant un point sur l’un quelconque des premier, deuxième et troisième éléments graphiques 19, 21,23.
Ainsi, l’acquisition des premiers, deuxième et troisième points sélectionnés P1, P2, P3 pourrait être réalisée dans un ordre quelconque. Par conséquent, l’usager pourrait sélectionner dans un ordre quelconque la hauteur de la caméra virtuelle 11, l’angle de rotation Θ de la caméra virtuelle 11 et la distance horizontale R2 entre la caméra virtuelle 11 et le véhicule 1.
De manière avantageuse, le premier élément graphique 19, le deuxième élément graphique 21, et le troisième élément graphique 23 présentent chacun une couleur différente.
En complément de l’invention, l’unité de calcul 9 peut mettre en oeuvre un procédé automatique de détermination de la posture de la caméra virtuelle 11, lorsque les conditions le requièrent.
Plus précisément ici, l’unité de calcul 9 est programmée pour modifier automatiquement la posture de la caméra virtuelle 11 lorsqu’un obstacle est détecté à proximité du véhicule 1.
Pour cela, l’unité de calcul 9 détermine la trajectoire du véhicule 1 lors d’une étape de prédiction. L’unité de calcul 9 détermine cette trajectoire en fonction au moins de l’angle du volant et du rapport de vitesse engagé (marche avant ou marche arrière).
Puis, lors d’une étape de détection, l’unité de calcul 9 recherche si un obstacle est situé à proximité du véhicule 1. Plus précisément, l’unité de calcul 9 détermine si un obstacle est situé sur la trajectoire précédemment prédite.
Pour cela, l’unité de calcul 9 utilise des télédétecteurs (radar et/ou sonar et/ou lidar) situés autour du véhicule 1. Par exemple ici, le véhicule 1 est équipé de six télédétecteurs à l’avant et de six télédétecteurs à l’arrière. Les télédétecteurs permettent non seulement de détecter la présence d’un obstacle, mais aussi d’évaluer la distance entre ledit obstacle et le véhicule 1.
Si un obstacle est détecté sur la trajectoire prédite, alors l’usager ne peut plus choisir la posture de la caméra virtuelle 11 de façon manuelle. Le choix est effectué de façon automatique par l’unité de calcul 9.
Si le véhicule 1 se déplace vers l’avant, et qu’un obstacle est détecté sur sa trajectoire, alors la caméra virtuelle est automatiquement positionnée le long de l’axe longitudinal (OXv) du véhicule 1, vers l’arrière du véhicule 1, et dirigée vers l’avant du véhicule 1. La caméra virtuelle 11 est alors placée à un angle d’orientation Θ égal à π radians.
En variante, l’unité de calcul 9 pourrait choisir l’angle d’orientation Θ parmi une pluralité d’angles de rotation Θ mémorisée dans l’unité de mémoire.
De façon préférentielle, l’unité de calcul 9 détermine la hauteur de l’obstacle. L’angle d’inclinaison φ de la caméra virtuelle 11 est alors calculé pour que l’axe optique de la caméra virtuelle 11 passe par le centre de l’obstacle.
La distance horizontale R2 entre le véhicule 1 et la caméra virtuelle 11 est calculée en fonction de la distance détectée entre l’obstacle et le véhicule 1. Plus l’obstacle détecté est proche, et plus la caméra virtuelle 11 paraît proche.

Claims (9)

  1. REVENDICATIONS
    1. Procédé d’affichage d’une image de l’environnement d’un véhicule (1) sur un écran tactile (7) équipant le véhicule (1), comprenant des étapes de :
    a) affichage sur ledit écran tactile (7) :
    - d’une image du véhicule (1) tel qu’il serait vu depuis une caméra virtuelle (11) placée dans une posture initiale (PosO), et
    - d’au moins un élément graphique (19, 21,23) associé un paramètre de posture (Θ, Zcam, R2) de la caméra virtuelle (11),
    b) acquisition de la position d’un point (P1, P2, P3) dudit élément graphique (19, 21,23) sélectionné par appui d’un usager sur l’écran tactile (7),
    c) calcul de la valeur dudit paramètre de posture (Θ, Zcam, R2) en fonction de la position dudit point (P1, P2, P3), et déduction d’une nouvelle posture de la caméra virtuelle (11),
    d) acquisition d’images réelle de l’environnement par une pluralité de capteurs d’images (5),
    e) composition, à partir des images réelles acquises à l’étape d), d’une image virtuelle (13) de l’environnement (17) du véhicule (1) tel qu’il serait vu depuis la caméra virtuelle (11) placée dans la nouvelle posture déterminée à l’étape c), et
    f) affichage sur l’écran tactile (7) de l’image virtuelle (13).
  2. 2. Procédé d’affichage selon la revendication précédente, dans lequel il est prévu une étape de constitution d’une représentation (15) du véhicule (1) tel qu’il serait vu depuis la caméra virtuelle (11) dans la nouvelle posture déterminée à l’étape c), et dans lequel, à l’étape e), l’image virtuelle (13) est obtenue en superposant la représentation (15) du véhicule (1) à l’environnement (17).
  3. 3. Procédé d’affichage selon l’une des revendications précédentes, dans lequel ledit élément graphique (19, 21, 23) comprend un cercle situé autour de l’image du véhicule (1) et ledit paramètre de posture (Θ) est un angle d’orientation (Θ) de la caméra virtuelle (11 ) autour du véhicule (1 ).
  4. 4. Procédé d’affichage selon la revendication précédente, dans lequel ledit élément graphique (19, 21,23) permet de sélectionner l’angle d’orientation (Θ) de la caméra virtuelle (11 ) autour du véhicule (1 ) avec un pas de 1 degré.
  5. 5. Procédé d’affichage selon l’une des revendications précédentes, dans lequel ledit élément graphique (19, 21, 23) comprend un segment situé verticalement par rapport à l’image du véhicule (1) et ledit paramètre de posture (Θ, Zcam, R2) est une distance verticale (Zcam) entre le véhicule (1) et la caméra virtuelle (11).
  6. 6. Procédé d’affichage selon l’une des revendications précédentes, dans lequel ledit élément graphique (19, 21, 23) comprend un segment situé horizontalement par rapport à l’image du véhicule (1) et le paramètre de posture (Θ, Zcam, R2) est une distance horizontale (R2) entre le véhicule (1) et la caméra virtuelle (11).
  7. 7. Procédé d’affichage selon l’une des revendications précédentes, dans lequel les étapes c) à f) sont répétées après chaque appui ponctuel exercé par l’usager sur l’écran tactile (7).
  8. 8. Procédé d’affichage selon l’une des revendications précédentes, dans lequel, la caméra virtuelle (11) présentant un axe optique (Ao), à l’étape c), la nouvelle posture de la caméra virtuelle (11) est définie de telle sorte que ledit axe optique (Ao) passe par un point prédéterminé du véhicule (1).
  9. 9. Système d’aide à la conduite d’un véhicule comprenant :
    - quatre capteurs d’images (5), chacun des quatre capteurs d’images (5) étant placé sur un des quatre côtés du véhicule (1), chacun des quatre capteurs d’images (5) étant apte à acquérir une image réelle de l’environnement du véhicule (1),
    - un écran tactile (7), et
    - une unité de calcul (9) programmée pour mettre en œuvre un procédé d’affichage tel que défini dans l’une des revendications précédentes.
FR1760503A 2017-11-08 2017-11-08 Procede d’affichage d’une image de l’environnement d’un vehicule sur un ecran tactile equipant le vehicule Active FR3073310B1 (fr)

Priority Applications (3)

Application Number Priority Date Filing Date Title
FR1760503A FR3073310B1 (fr) 2017-11-08 2017-11-08 Procede d’affichage d’une image de l’environnement d’un vehicule sur un ecran tactile equipant le vehicule
EP18795667.7A EP3707679A1 (fr) 2017-11-08 2018-11-05 Procede d'affichage d'une image de l'environnement d'un vehicle sur un ecran tactile equipant le vehicule
PCT/EP2018/080190 WO2019091920A1 (fr) 2017-11-08 2018-11-05 Procede d'affichage d'une image de l'environnement d'un vehicle sur un ecran tactile equipant le vehicule

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1760503 2017-11-08
FR1760503A FR3073310B1 (fr) 2017-11-08 2017-11-08 Procede d’affichage d’une image de l’environnement d’un vehicule sur un ecran tactile equipant le vehicule

Publications (2)

Publication Number Publication Date
FR3073310A1 true FR3073310A1 (fr) 2019-05-10
FR3073310B1 FR3073310B1 (fr) 2021-02-26

Family

ID=61027915

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1760503A Active FR3073310B1 (fr) 2017-11-08 2017-11-08 Procede d’affichage d’une image de l’environnement d’un vehicule sur un ecran tactile equipant le vehicule

Country Status (3)

Country Link
EP (1) EP3707679A1 (fr)
FR (1) FR3073310B1 (fr)
WO (1) WO2019091920A1 (fr)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3098620A1 (fr) * 2019-07-12 2021-01-15 Psa Automobiles Sa Procédé de génération d’une représentation visuelle de l’environnement de conduite d’un véhicule

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114419949B (zh) * 2022-01-13 2022-12-06 武汉未来幻影科技有限公司 一种汽车后视镜影像重建方法及后视镜

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
UNKNOWN: "360? Wrap-Around Video Imaging Technology Ready for Integration with Fujitsu Graphics SoCs", 1 January 2014 (2014-01-01), XP055406437, Retrieved from the Internet <URL:https://www.fujitsu.com/us/Images/360_OmniView_AppNote.pdf> [retrieved on 20170913] *
YEN-TING YEH: "Driver Assistance System Providing an Intuitive Perspective View of Vehicle Surrounding", COMPUTER VISION - ACCV 2014 WORKSHOPS, 1 January 2015 (2015-01-01), Cham, XP055473080, ISBN: 978-3-319-16631-5, Retrieved from the Internet <URL:http://imlab.tw/wp-content/uploads/2015/11/Driver-Assistance-System-Providing-an-Intuitive-Perspective-View-of-Vehicle-Surrounding.pdf> [retrieved on 20180507] *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3098620A1 (fr) * 2019-07-12 2021-01-15 Psa Automobiles Sa Procédé de génération d’une représentation visuelle de l’environnement de conduite d’un véhicule

Also Published As

Publication number Publication date
EP3707679A1 (fr) 2020-09-16
FR3073310B1 (fr) 2021-02-26
WO2019091920A1 (fr) 2019-05-16

Similar Documents

Publication Publication Date Title
EP2133237B1 (fr) Procédé d&#39;affichage d&#39;aide au parking
EP3601005B1 (fr) Procédé et dispositif d&#39;assistance d&#39;un conducteur de véhicule à conduite autonome, notamment lors d&#39;une reprise de contrôle manuel
FR2871737A1 (fr) Procede pour atteler une remorque a un vehicule automobile
EP2094531B1 (fr) Dispositif retroviseur electronique
WO2005010820A2 (fr) Procede et dispositif automatise de perception avec determination et caracterisation de bords et de frontieres d&#39;objets d&#39;un espace, construction de contours et applications
FR3098172A1 (fr) Procédé de détermination d’une trajectoire d’évitement d’un véhicule automobile
FR2965765A1 (fr) Procede et dispositif pour former une image d&#39;un objet dans l&#39;environnement d&#39;un vehicule
FR3073310A1 (fr) Procede d’affichage d’une image de l’environnement d’un vehicule sur un ecran tactile equipant le vehicule
EP3579191B1 (fr) Estimation dynamique du tangage instantané et du roulis instantané d&#39;une caméra embarquée dans un véhicule automobile
EP3245117B1 (fr) Procede et dispositif d&#39;aide a la manoeuvre en marche arriere d&#39;un vehicule automobile
FR3016573B1 (fr) Installation de retroviseur de vehicule
EP2801075B1 (fr) Procede de traitement d&#39;image d&#39;une camera embarquee sur un vehicule et dispositif de traitement correspondant
WO2010037795A1 (fr) Procédé de commande et système d&#39;aide à la conduite associé
FR3067999A1 (fr) Procede d&#39;aide a la conduite d&#39;un vehicule automobile
FR2976244A1 (fr) Procede d&#39;assistance aux manoeuvres de stationnement d&#39;un vehicule et systeme pour sa mise en oeuvre
EP3682320B1 (fr) Procédé d&#39;affichage sur un écran d&#39;un environnement d&#39;un véhicule automobile, et véhicule automobile dans lequel un tel procédé est mis en oeuvre
EP4107051A1 (fr) Procede de parametrage d&#39;un calculateur, dispositif d&#39;aide a la conduite comportant un tel calculateur et vehicule automobile equipe d&#39;un tel dispositif
EP3377386B1 (fr) Procédé d&#39;aide a la conduite d&#39;un véhicule automobile
EP3137860B1 (fr) Procede d&#39;aide a l&#39;estimation optique de la masse d&#39;un vehicule gare en zone peu lumineuse
WO2012076789A1 (fr) Dispositif d&#39;aide permettant au conducteur d&#39;un vehicule de verifier une zone de stationnement quittee
WO2023083821A1 (fr) Procédé d&#39;estimation dynamique du tangage d&#39;un véhicule automobile au moyen d&#39;un capteur d&#39;acquisition d&#39;images
FR3115008A1 (fr) Procédé d’aide à la conduite en marche arrière d’un véhicule automobile à l’arrière duquel est attelée une remorque
WO2021249809A1 (fr) Procede de calibration d&#39;une camera et dispositif associe
EP3418121A1 (fr) Dispositif pour afficher un débattement d&#39;une portière d&#39;un véhicule et procédé associé
FR2956364A1 (fr) Dispositif d&#39;aide aux manoeuvres d&#39;un vehicule par affichage de points de vue fonction de la position de la tete du conducteur

Legal Events

Date Code Title Description
PLSC Publication of the preliminary search report

Effective date: 20190510

PLFP Fee payment

Year of fee payment: 3

PLFP Fee payment

Year of fee payment: 4

PLFP Fee payment

Year of fee payment: 5

CA Change of address

Effective date: 20221005

PLFP Fee payment

Year of fee payment: 6

PLFP Fee payment

Year of fee payment: 7