FR3067999B1 - Procede d'aide a la conduite d'un vehicule automobile - Google Patents

Procede d'aide a la conduite d'un vehicule automobile Download PDF

Info

Publication number
FR3067999B1
FR3067999B1 FR1755801A FR1755801A FR3067999B1 FR 3067999 B1 FR3067999 B1 FR 3067999B1 FR 1755801 A FR1755801 A FR 1755801A FR 1755801 A FR1755801 A FR 1755801A FR 3067999 B1 FR3067999 B1 FR 3067999B1
Authority
FR
France
Prior art keywords
obstacle
image
vehicle
symbol
shape
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
FR1755801A
Other languages
English (en)
Other versions
FR3067999A1 (fr
Inventor
Stephanie Ambroise-Devaux
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Renault SAS
Original Assignee
Renault SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Renault SAS filed Critical Renault SAS
Priority to FR1755801A priority Critical patent/FR3067999B1/fr
Publication of FR3067999A1 publication Critical patent/FR3067999A1/fr
Application granted granted Critical
Publication of FR3067999B1 publication Critical patent/FR3067999B1/fr
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/28Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor characterised by the type of the output information, e.g. video entertainment or vehicle dynamics information; characterised by the purpose of the output information, e.g. for attracting the attention of the driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/60Instruments characterised by their location or relative disposition in or on vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/86Combinations of sonar systems with lidar systems; Combinations of sonar systems with systems not using wave reflection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/93Sonar systems specially adapted for specific applications for anti-collision purposes
    • G01S15/931Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/16Type of output information
    • B60K2360/173Reversing assist
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/16Type of output information
    • B60K2360/179Distances to obstacles or vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/54Audio sensitive means, e.g. ultrasound
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9315Monitoring blind spots
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9323Alternative operation using light waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9324Alternative operation using ultrasonic waves

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Transportation (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Mechanical Engineering (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Automation & Control Theory (AREA)
  • Human Computer Interaction (AREA)
  • Electromagnetism (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

L'invention concerne un procédé d'aide à la conduite d'un véhicule (1) automobile comprenant : - une étape d'acquisition d'une pluralité d'images d'un environnement extérieur au véhicule, par une unité d'acquisition d'images (5) comportant plusieurs capteurs d'images (51, 52, 53, 54) lesdits capteurs d'images étant des caméras analogiques présentant des champs de vision (510, 520, 530, 540) respectifs qui ne se recoupent pas et qui génèrent des zones aveugles, - une étape de détection d'un éventuel obstacle (6) situé dans une desdites zones aveugles, par une unité de télédétection (7), - une étape de constitution d'une image de vue du dessus du véhicule à partir des images acquises, - une étape d'affichage sur une unité d'affichage (21) de l'image constituée, caractérisé en ce que, si un obstacle est détecté, le procédé d'assistance à la conduite comprend en outre une étape de superposition d'un symbole (19) sur l'image constituée, la position du symbole sur l'image constituée étant représentative de la position de l'obstacle par rapport au véhicule automobile.

Description

Domaine technique auquel se rapporte l'invention La présente invention concerne de manière générale le domaine des aides à la conduite de véhicules.
Elle s’applique en particulier à un système d’aide à la conduite d’un véhicule automobile, comprenant : une unité d’acquisition d’images qui comprend plusieurs capteurs d’images, lesdits capteurs d’images étant des caméras analogiques présentant des champs de vision respectifs qui ne se recoupent pas et qui génèrent des zones aveugles et ladite unité d’acquisition d’images étant apte à acquérir une pluralité d’images d’un environnement extérieur au véhicule, une unité de télédétection qui comprend plusieurs télédétecteurs et qui est apte à détecter un obstacle situé dans une desdites zones aveugles, une unité de commande d’imagerie, apte à constituer une image de vue du dessus du véhicule à partir des images acquises par ladite unité d’acquisition d’images, une unité d’affichage apte à afficher l’image constituée par ladite unité de commande d’imagerie.
Elle concerne plus particulièrement un procédé d’aide à la conduite d’un véhicule automobile comprenant : une étape d’acquisition d’une pluralité d’images d’un environnement extérieur au véhicule, par une unité d’acquisition d’images comportant plusieurs capteurs d’images lesdits capteurs d’images étant des caméras analogiques présentant des champs de vision respectifs qui ne se recoupent pas et qui génèrent des zones aveugles, une étape de détection d’un éventuel obstacle situé dans une desdites zones aveugles, par une unité de télédétection, une étape de constitution d’une image de vue du dessus du véhicule à partir des images acquises, une étape d’affichage sur une unité d’affichage de l’image constituée. Arriere-plan technologique
On connaît des dispositifs d’aide à la conduite permettant d’assister un conducteur lorsqu’il souhaite garer ou sortir son véhicule d’une place de parking.
En effet, les places de parking sont souvent exigües et des obstacles peuvent gêner les manœuvres du conducteur.
Afin de repérer ces obstacles, les dispositifs d’aide à la conduite comprennent généralement quatre caméras placées chacune sur un côté du véhicule (avant, arrière et côtés latéraux). Ainsi placées, les caméras permettent de capturer une vue d’ensemble de l’environnement extérieur du véhicule.
Une unité de traitement d’images compose alors une image de vue de dessus du véhicule (appelée « birdview >> en anglais) à partir des images capturées par les caméras.
Enfin, une unité d’affichage placée sur le tableau de bord permet de montrer au conducteur l’image de vue du dessus du véhicule. Ainsi, le conducteur peut facilement vérifier si un obstacle se trouve à proximité. On pense notamment aux cônes de signalisation dont la petite taille les rend difficilement visibles depuis l’intérieur du véhicule.
Les caméras habituellement utilisées dans les dispositifs d’aide à la conduite présentent un large champ de vision, supérieur à 180°. Les images acquises par les caméras numériques se chevauchent donc bien (il n’y a pas de zones aveugles), et il revient à l’unité de traitement d’image de produire une image compréhensible par le conducteur en combinant judicieusement les images entre elles.
Cependant un tel traitement d’images nécessite une puissance de calcul importante, qui est atteinte grâce à l’utilisation de matériels coûteux.
Ainsi, les dispositifs d’aide à la conduite sont actuellement onéreux et ne conviennent pas à la fabrication de véhicules à coûts restreints.
Objet de l’invention
Afin de remédier à l’inconvénient précité de l’état de la technique, la présente invention propose un procédé d’aide à la conduite tel que défini en introduction dans lequel on réalise en outre: - une étape de superposition d’un symbole sur l’image constituée, la position du symbole sur l’image constituée étant représentative de la position de l’obstacle par rapport au véhicule automobile.
Dans certains véhicules, les caméras utilisées comme les caméras analogiques ne permettent pas de couvrir l’ensemble de l’environnement immédiat du véhicule. On souhaite donc notamment dans ces véhicules pouvoir avertir l’usager de la présence d’un obstacle invisible ou peu visible, en affichant un symbole sur l’image de vue de dessus du véhicule (l’image constituée).
En superposant un symbole sur l’image vue du dessus au lieu d’effectuer un traitement d’image poussé afin d’obtenir une image compréhensible dudit obstacle, on réduit le nombre de calculs nécessaires à la mise en œuvre d’un tel procédé d’aide à la conduite. Ceci permet d’utiliser une unité de commande d’imagerie ainsi qu’une unité d’acquisition d’images moins performantes, et donc de réduire le coût de mise en œuvre du procédé. D’autres caractéristiques non limitatives et avantageuses du procédé d’aide à la conduite conforme à l’invention, prises individuellement ou selon toutes les combinaisons techniquement possibles, sont les suivantes : - le symbole présente une forme sélectionnée parmi plusieurs formes, et qui est représentative de la forme de l’obstacle vu du dessus ; - pour déterminer la forme de l’obstacle vu du dessus, il est prévu préalablement à l’étape de superposition une étape d’acquisition de coordonnées tridimensionnelles de points de l’obstacle, et une étape de projection desdites coordonnées tridimensionnelles dans un plan horizontal prédéfini, afin de déterminer des coordonnées planes représentatives d’une partie au moins de la forme de l’obstacle vu de dessus ; - le symbole est superposé sur ladite image constituée uniquement si l’obstacle est situé dans une desdites zones aveugles ; - il est prévu une étape de détermination de la forme de la surface de l’obstacle, une étape de recherche, dans une base de données qui comporte une pluralité d’enregistrements mémorisant chacun un élément de forme commune d’obstacle ainsi qu’un symbole ou un identifiant de symbole, de l’enregistrement dans lequel ledit élément de forme est le plus proche de la forme de la surface de l’obstacle, et une étape de lecture du symbole ou de l’identifiant de symbole mémorisé dans ledit enregistrement ; - pour déterminer la forme de la surface de l’obstacle, il est prévu d’acquérir la forme d’une partie de la surface de l’obstacle vue par l’unité de télédétection, et pour rechercher ledit enregistrement, il est prévu d’identifier l’élément de forme qui se superpose au mieux à la forme de la partie de la surface de l’obstacle vue par l’unité de télédétection. L’invention propose également un système d’aide à la conduite tel que défini en introduction, dont l’unité de commande d’imagerie est en outre apte à superposer sur ladite image constituée un symbole, la position du symbole sur ladite image constituée étant représentative de la position de l’obstacle par rapport au véhicule. D’autres caractéristiques avantageuses et non limitatives du système d’aide à la conduite conforme à l’invention sont les suivantes : - un premier capteur d’images capture une zone située à l’avant du véhicule, un deuxième capteur d’images capture une zone située à l’arrière du véhicule, un troisième capteur d’images capture une première zone située latéralement par rapport au véhicule, un quatrième capteur d’images capture une deuxième zone située latéralement par rapport au véhicule, à l’opposé de ladite première zone, et dans lequel chaque télédétecteur est situé à un des quatre coins du véhicule ; - les télédétecteurs présentent des champs de détection qui couvrent entièrement les zones aveugles ;
Description detaillee d’un exemple de réalisation
La description qui va suivre en regard des dessins annexés, donnés à titre d’exemples non limitatifs, fera bien comprendre en quoi consiste l’invention et comment elle peut être réalisée.
Sur les dessins annexés : - la figure 1 est une vue schématique de dessus d’un véhicule équipé d’un système d’aide à la conduite selon l’invention, - la figure 2 est une représentation schématique du système d’aide à la conduite de la figure 1, - la figure 3 illustre une image constituée et les zones aveugles de cette image constituée, - la figure 4 représente de manière schématique le procédé d’aide à la conduite selon l’invention, - la figure 5 représente une partie du véhicule de la figure 1 et un obstacle sur lequel sont schématiquement représentés des points d’impact d’un faisceau d’ondes émises par un télédétecteur du véhicule, et - la figure 6 représente le véhicule et l’obstacle de la figure 5, ainsi que les points d’impact projetés dans un plan horizontal.
Dans le but de faciliter la compréhension de l’invention, les dimensions de certaines figures ne sont pas représentatives de la réalité.
Sur la figure 1, on a représenté schématiquement un véhicule 1 automobile équipé d’un système d’aide à la conduite 3.
Comme cela sera bien décrit dans la suite de cet exposé, ce système d’aide à la conduite 3 comprend une unité d’acquisition d’images 5, une unité de télédétection 7, deux calculateurs (ECU pour « Electronic Command Unit >> en anglais) ci-après appelés unité de commande d’imagerie 11 et unité de commande de télédétection 13, et une unité d’affichage 21 (en pratique un écran).
Comme le montrent les figures 1 et 2, l’unité d’acquisition d’images 5 comprend plusieurs capteurs d’images 51, 52, 53, 54 aptes à acquérir une pluralité d’images d’un environnement extérieur au véhicule 1.
Plus précisément ici, l’unité d’acquisition d’images comprend quatre capteurs d’images 51, 52, 53, 54. Chacun des capteurs d’images 51, 52, 53, 54 est placé sur un des quatre côtés du véhicule 1.
Un premier capteur d’images 51 est placé à l’avant du véhicule, par exemple en dessous du logo du véhicule. Le premier capteur d’images 51 capture une zone située à l’avant du véhicule 1.
Un deuxième capteur d’images 52 est placé à l’arrière du véhicule, par exemple au dessus de la plaque d’immatriculation. Le deuxième capteur d’images 52 capture une zone située à l’arrière du véhicule 1.
Un troisième capteur d’images 53 est placé sur un premier côté latéral, par exemple le côté droit du véhicule, par exemple sous le rétroviseur droit. Le troisième capteur d’images 53 capture une première zone située latéralement par rapport au véhicule 1, ici à droite du véhicule 1.
Un quatrième capteur d’images 54 est placé sur un deuxième côté latéral, par exemple le côté gauche du véhicule, par exemple sous le rétroviseur gauche. Le quatrième capteur d’images 54 capture une deuxième zone située latéralement par rapport au véhicule 1, ici à gauche du véhicule 1.
Les capteurs d’images 51, 52, 53, 54 ne sont pas nécessairement tous placés à la même hauteur du véhicule.
Ces capteurs d’images 51, 52, 53, 54 sont des caméras analogiques. Ceci permet de faire baisser le coût du système d’aide à la conduite 3 car des caméras analogiques sont actuellement moins chères que des caméras numériques. Les caméras analogiques utilisées présentent une faible résolution d’acquisition, par exemple 640x480 pixels.
Chaque capteurs d’images 51, 52, 53, 54 présente un champ de vision 510, 520, 530, 540 respectif. D’une manière générale, le champ de vision d’un capteur d’images est la région de l’espace que ledit capteur d’images est capable de capturer.
Les capteurs d’images 51, 52, 53, 54 sont conçus et orientés de telle façon que leurs champs de vision 510, 520, 530, 540 respectifs ne se recoupent pas, ce qui forme des zones aveugles 91,92, 93, 94.
Plus précisément, le champ de vision de chaque capteur d’images 51, 52, 53, 54 présente un angle d’ouverture inférieur strictement à 180 degrés, si bien qu’il existe des zones contiguës au véhicule qui ne sont vues par aucun des capteurs d’images 51,52, 53, 54.
Les capteurs d’images 51, 52, 53, 54 sont pilotés par l’unité de commande d’imagerie 11 représentée sur la figure 2.
Cette unité de commande d’imagerie 11 est en outre apte à constituer une image de vue du dessus du véhicule 1 à partir des images brutes acquises par l’unité d’acquisition d’images 5. Cette image de vue de dessus sera ci-après appelée « image vue d’oiseau », pour bien la distinguer des images brutes acquises par les caméras analogiques. L’image vue d’oiseau, illustrée par la figure 3, montre les quatre zones aveugles 91, 92, 93, 94 précitées, qui correspondent aux régions de l’environnement du véhicule 1 qui ne sont pas vues ou mal vues par les capteurs d’images 51, 52, 53, 54. A ce titre, on notera ici que les zones aveugles 91, 92, 93, 94 peuvent aussi inclure des zones qui sont capturées par les capteurs d’images mais qui ne sont pas exploitables, du fait d’aberrations optiques ou chromatiques (du fait de la faible résolution des caméras analogiques qui équipent le système d’aide à la conduite 3).
Sur cette figure 3, on a représenté un repère orthonormé attaché au véhicule 1 ayant un système de coordonnées (0, x, y, z). Dans notre exemple, l’axe (Ox) s’étend le long d’un axe longitudinal du véhicule, l’axe (Oy) s’étend le long d’un axe transversal du véhicule, et l’axe (Oz) s’étend le long d’un axe vertical du véhicule (on considérera dans cet exposé que le véhicule est situé sur une route parfaitement horizontale). Ainsi, le contour de chacune des zones aveugles 91, 92, 93, 94 est défini par un jeu de coordonnées (x,y) dans un plan horizontal sur l’image vue d’oiseau. Ces jeux de coordonnées (x,y) sont enregistrés dans une mémoire de l’unité de commande de télédétection 13. L’unité de télédétection 7, illustrée sur la figure 1, est conçue pour détecter un obstacle 6 (figure 3) situé dans l’environnement du véhicule 1.
Elle comprend une pluralité de télédétecteurs 71,72, 73, 74, qui sont de préférence des télémètres (par exemple des capteurs par temps de vol). En l’espèce, il pourra s’agir de capteurs SONAR, RADAR ou LIDAR. L’unité de télédétection 7 comprend ici quatre télédétecteurs SONAR.
De préférence, ces quatre télédétecteurs 71,72, 73, 74, sont situés aux quatre coins du véhicule 1 et sont orientés diagonalement par rapport au véhicule 1. Plus précisément, les quatre télédétecteurs 71, 72, 73, 74 sont orientés de façon à ce que leurs champs de détection 710, 720, 730, 740 couvrent les zones aveugles 91,92, 93, 94 précédemment décrites. L’unité de télédétection 7 est pilotée par l’unité de commande de télédétection 13. Cette unité de commande de télédétection 13 est ainsi apte à déterminer des coordonnées tridimensionnelles de points de la surface de tout obstacle 6 détecté par les télédétecteurs 71, 72, 73, 74. On considérera que ces coordonnées seront exprimées dans le repère attaché au véhicule. L’unité de commande de télédétection 13 sera alors en mesure de déterminer si l’obstacle 6 détecté se situe dans l’une des zones aveugles 91, 92, 93, 94 de l’image vue d’oiseau. Ce procédé sera décrit plus en détail par la suite. L’unité commande d’imagerie 11 et l’unité de commande de télédétection 13 sont connectées par un bus CAN 15 (« Controller Area Network >> en anglais) qui permet l’échange de données entre ces deux unités de commande 11, 13. L’unité de commande de télédétection 13 est par exemple capable de communiquer les coordonnées de l’obstacle 6 détecté par les télédétecteurs 71, 72, 73, 74 à l’unité commande d’imagerie 11. L’unité de commande d’imagerie 11 mémorise en outre une base de données qui comporte une pluralité d’enregistrements.
Chaque enregistrement comprend deux champs, dont un premier champ dans lequel est mémorisé un élément de forme standard représentatif de la forme de la surface d’un obstacle pouvant être couramment rencontré sur une scène routière (en vue de dessus), et un second champ dans lequel est enregistré un symbole 19 associé à l’élément de forme standard.
De manière préférentielle, l’élément de forme standard est représentatif de la forme d’une section horizontale de la surface d’un obstacle. A titre d’exemple, chaque élément de forme standard peut être un contour (une ligne courbe fermée). Il peut ainsi s’agir d’un cercle présentant un premier diamètre, représentatif d’un cône de signalisation vu du dessus. Dans ce cas, le symbole 19 associé peut aussi être un cercle présentant un second diamètre (figure 3).
De manière générale, les dimensions (diamètre, largeur....) d’une grande quantité d’obstacles 6 sont référencées et connues. Chaque enregistrement est ainsi associé à un type référencé d’obstacle, et mémorise un symbole 19 correspondant.
De manière préférentielle, le symbole 19 présente une forme identique ou homologue de celle de l’élément de forme standard mémorisé dans l’enregistrement. L’unité de commande d’imagerie 11 est apte à déterminer la forme de la surface de l’obstacle 6 détecté, à rechercher dans la base de données l’enregistrement comprenant l’élément de forme standard qui se superpose le mieux à la forme de la surface de l’obstacle 6 détecté, et à superposer à l’image vue d’oiseau le symbole 19 stocké dans cet enregistrement.
Enfin, l’unité d’affichage 21 (figure 2) est prévue pour afficher des images dans le champ de vision du conducteur du véhicule. Elle est située au niveau du tableau de bord du véhicule 1. Elle est contrôlée par une unité de commande d’affichage et est connectée à l’unité commande d’imagerie 11 par le bus CAN 15. Ainsi, l’unité d’affichage 21 est apte à afficher des images fournies par l’unité de commande d’imagerie 11. Plus précisément, l’unité d’affichage 21 est apte à afficher l’image vue d’oiseau (en superposition de laquelle apparaît le symbole 19 à une position représentative de la position de l’obstacle 6 par rapport au véhicule 1)· L’unité d’affichage 21 est de préférence apte à afficher des images en couleurs. L'affichage en couleurs facilite en effet la compréhension des images par le conducteur. On peut ainsi envisager d’ajouter sur l’image vue d’oiseau un signal de couleur, dont la couleur ou la forme est représentative de la distance séparant l’obstacle 6 du véhicule 1.
En se rapportant à présent à la figure 4, on peut maintenant décrire un procédé d’assistance à la conduite d’un véhicule 1 automobile conforme à l’invention.
Comme le montre la figure 4, ce procédé comporte cinq étapes principales successives (100, 110, 120, 130, 140), dont deux d’entre elles sont subdivisées en sous-étapes.
Au cours d’une première étape 100, l’unité d’acquisition d’images 5 capture des vues de l’environnement extérieur au véhicule 1.
De manière préférentielle, les quatre caméras acquièrent chacune une vue de l’environnement et elles transmettent ces quatre images brutes à l’unité de commande d’imagerie 11.
Lors d’une étape 110, l’unité de télédétection 7 pilotée par l’unité de commande de télédétection 13 tente de détecter un éventuel obstacle 6. L’étape 110 est de préférence réalisée en même temps que l’étape 100, mais elle pourrait en variante être réalisée avant celle-ci ou après celle-ci. L’étape 110 de détection d’un éventuel obstacle 6 comprend une sous-étape 111 d’émission d’ondes ultrasonores par les télédétecteurs.
On considérera ici qu’un obstacle est détecté. L’étape 110 comprend alors une seconde sous-étape 112 d’acquisition des coordonnées de l’obstacle 6 détecté. L’unité de commande de télédétection 13 est en effet apte à acquérir les coordonnées tridimensionnelles (xN, Yn, zn) des points de l’obstacle 6 touchés par les ondes émises par chaque télédétecteur. A titre d’illustration, la figure 5 représente ainsi des points d’impact N au niveau desquels les ondes ont été réfléchies par l’obstacle.
Lors d’une troisième sous-étape 114, l’unité de commande de télédétection 13 projette les coordonnées tridimensionnelles (xn, Yn, zn) précitées dans un plan horizontal P, (voir figure 6) et obtient ainsi les coordonnées planes de points Npi permettant de caractériser la forme d’une partie au moins du contour de l’obstacle 6, en vue du dessus.
Ce plan horizontal P, est situé à une hauteur prédéterminée, qui est fonction de la hauteur des deux capteurs d’images situés de part et d’autre du télédétecteur qui détecte l’obstacle 6.
Ainsi, à titre d’exemple, pour un obstacle 6 se situant à l’avant-droit du véhicule, l’unité de commande de télédétection 13 projette les coordonnées tridimensionnelles dans un premier plan horizontal situé à une première hauteur zpi obtenue grâce à la formule suivante :
Dans cette formule z51 représente la hauteur du capteur d’images situé à l’avant du véhicule 1, et z53 représente la hauteur du capteur d’images situé à droite du véhicule 1.
Cette hauteur de plan horizontal ζρΊ est choisie par souci de cohérence entre les dimensions de l’obstacle 6 détecté et celles des images acquises par les capteurs d’images 51,52, 53, 54. En effet, on rappelle que les capteurs d’images 51, 52, 53, 54 ne sont pas tous placés à la même hauteur du véhicule 1. L’image de vue du dessus constituée par l’unité de commande d’imagerie 11 présente donc des vues de hauteur différente.
En projetant les coordonnées tridimensionnelles sur un plan horizontal P, se trouvant entre deux hauteurs de capteurs d’images, plus précisément au milieu des hauteurs des deux capteurs d’images, on obtient un contour d’obstacle dont la dimension est cohérente avec les hauteurs des deux capteurs d’images. On obtient ainsi par la suite une image facilement et rapidement compréhensible par le conducteur.
Lors d’une sous-étape 116 de comparaison des coordonnées planes de l’obstacle 6 avec les coordonnées des zones aveugles 91, 92, 93, 94, l’unité de commande de télédétection 13 détermine si l’obstacle 6 se situe, au moins partiellement, dans une des zones aveugles 91,92, 93, 94 de l’image constituée.
Lors d’une sous-étape 118, l’unité de commande de télédétection 13 transmet les coordonnées planes à l’unité de commande d’imagerie 11 uniquement si l’obstacle 6 est situé au moins partiellement dans une zone aveugle 91, 92, 93, 94. En effet, les obstacles 6 situés dans le champ de vision 510, 520, 530, 540 des capteurs d’images sont visibles sur l’image constituée, il est donc préférable de ne pas leur appliquer la suite du procédé. Ainsi réduit-on le nombre d’opérations nécessaires à la mise en œuvre du procédé.
Lors d’une étape 120 de constitution d’une image vue d’oiseau du véhicule, l’unité de commande d’imagerie 11 constitue la vue d’oiseau en combinant les images brutes. Cette étape étant bien connue de l’homme du métier, elle ne sera pas ici décrite plus en détail. On notera seulement qu’elle peut
être mise en œuvre en même temps que l’étape 110 de détection d’un obstacle, avant celle-ci ou après celle-ci.
Lors d’une étape 130, l’unité de commande d’imagerie 11 superpose un symbole 19 sur l’une des zones aveugles 91, 92, 93, 94 de cette image vue d’oiseau.
Plus précisément, lors d’une sous-étape 132 de détermination de la forme de la surface de l’obstacle 6, l’unité de commande d’imagerie 11 lit les coordonnées planes transmises par l’unité de commande de télédétection 13.
Puis, lors d’une sous-étape 134 de recherche dans la base de données, l’unité de commande d’imagerie 11 recherche l’enregistrement dans lequel les points (dont les coordonnées planes ont été lues) se superposent le mieux à l’élément de forme standard (la méthode des moindres carrés peut par exemple être utilisée).
Finalement, lors d’une sous étape 136, l’unité de commande d’imagerie 11 lit le symbole 19 mémorisé dans l’enregistrement trouvé puis superpose ce symbole 19 à l’image vue d’oiseau. La forme de ce symbole 19 est ainsi choisie de façon à être homologue de celle de l’obstacle vu de dessus.
La position de ce symbole sur l’image vue d’oiseau est déterminée en fonction de la position de l’obstacle 6 par rapport au véhicule automobile 1, afin d’être représentative de la position de l’obstacle 6 par rapport au véhicule automobile 1.
On peut en outre prévoir que la couleur de ce symbole 19 soit choisie en fonction de la distance entre l’obstacle 6 et le véhicule automobile 1. Par exemple, pour un obstacle 6 situé à moins de 30 cm du véhicule 1, le symbole 19 superposé peut être coloré en rouge. Pour un obstacle 6 situé entre 30 cm et 70 cm du véhicule 1, le symbole 19 superposé peut être coloré en orange. Pour un obstacle 6 situé entre 70 cm et 100 cm du véhicule 1, le symbole 19 superposé peut être coloré en vert.
De plus l’unité de commande d’imagerie 11 peut superposer à l’image vue d’oiseau un signal supplémentaire 23 de même couleur que le symbole (voir figure 3). Le signal supplémentaire 23 présente une surface plus grande que le symbole 19, par exemple une forme de quart de cercle. De cette façon, le conducteur peut rapidement voir et comprendre l’information fournie grâce au procédé d’aide à la conduite.
Enfin, lors d’une étape 140 d’affichage de l’image vue d’oiseau par l’unité de commande d’imagerie 11, l’unité d’affichage 21 présente au conducteur l’image vue du dessus du véhicule 1 sur laquelle est superposé le symbole 19 et, éventuellement, le signal supplémentaire 23.
En utilisant uniquement la télédétection pour détecter les obstacles situés dans les zones aveugles 91, 92, 93, 94 des capteurs d’images 51, 52, 53, 54, au lieu de chercher à réaliser un traitement d’image poussé qui nécessiterait une unité de commande d’imagerie et une unité d’acquisition d’images très performantes et donc coûteuses, on réduit le coût du système d’aide à la conduite.
La présente invention n’est pas limitée au mode de réalisation décrit ci- dessus.
Ainsi, à titre d’exemple, la base de données pourrait stocker non pas une image du symbole, mais plutôt une adresse associée à un emplacement mémoire dans lequel est stockée une image du symbole.
Selon une autre variante, le symbole affiché pourrait présenter la forme de la projection de l’obstacle dans le plan horizontal P,.

Claims (9)

  1. REVENDICATIONS
    1. Procédé d’aide à la conduite d’un véhicule (1) automobile comprenant : une étape d’acquisition d’une pluralité d’images d’un environnement extérieur au véhicule (1), par une unité d’acquisition d’images (5) comportant plusieurs capteurs d’images (51,52, 53, 54), lesdits capteurs d’images (51,52, 53, 54) étant des caméras analogiques présentant des champs de vision (510, 520, 530, 540) respectifs qui ne se recoupent pas et qui génèrent des zones aveugles (91,92, 93, 94), une étape de détection d’un éventuel obstacle (6) situé dans une desdites zones aveugles (91,92, 93, 94), par une unité de télédétection (7), une étape de constitution d’une image de vue du dessus du véhicule (1 ) à partir des images acquises, une étape d’affichage sur une unité d’affichage (21) de l’image constituée, caractérisé en ce que, si un obstacle (6) est détecté, le procédé d’assistance à la conduite comprend en outre une étape de superposition d’un symbole (19) sur l’image constituée, la position du symbole (19) sur l’image constituée étant représentative de la position de l’obstacle (6) par rapport au véhicule automobile.
  2. 2. Procédé d’aide à la conduite selon la revendication précédente, dans lequel le symbole (19) présente une forme sélectionnée parmi plusieurs formes, qui est représentative de la forme de l’obstacle (6) vu du dessus.
  3. 3. Procédé d’aide à la conduite selon la revendication précédente, dans lequel, pour déterminer la forme de l’obstacle (6) vu du dessus, il est prévu préalablement à l’étape de superposition : - une étape d’acquisition de coordonnées tridimensionnelles de points de l’obstacle (6), et - une étape de projection desdites coordonnées tridimensionnelles dans un plan horizontal (Pi) prédéfini, afin de déterminer des coordonnées planes représentatives d’une partie au moins de la forme de l’obstacle (6) vu de dessus.
  4. 4. Procédé d’aide à la conduite selon l’une des revendications précédentes, dans lequel ledit symbole (19) est superposé sur ladite image constituée uniquement si l’obstacle (6) est situé dans une desdites zones aveugles (91,92, 93, 94).
  5. 5. Procédé d’aide à la conduite selon l’une des revendications précédentes, dans lequel il est prévu : - une étape de détermination de la forme de la surface de l’obstacle (6), - une étape de recherche, dans une base de données qui comporte une pluralité d’enregistrements mémorisant chacun un élément de forme standard d’obstacle ainsi qu’un symbole (19) ou un identifiant de symbole, de l’enregistrement dans lequel ledit élément de forme standard est le plus proche de la forme de la surface de l’obstacle (6), et - une étape de lecture du symbole (19) ou de l’identifiant de symbole (19) mémorisé dans ledit enregistrement.
  6. 6. Procédé d’aide à la conduite selon la revendication précédente, dans lequel, pour déterminer la forme de la surface de l’obstacle (6), il est prévu d’acquérir la forme d’une partie de la surface de l’obstacle (6) vue par l’unité de télédétection (7), et dans lequel pour rechercher ledit enregistrement, il est prévu d’identifier l’élément de forme qui se superpose au mieux à la forme de la partie de la surface de l’obstacle (6) vue par l’unité de télédétection (7).
  7. 7. Système d’aide à la conduite (3) d’un véhicule (1) automobile, comprenant : une unité d’acquisition d’images (5) qui comprend plusieurs capteurs d’images (51, 52, 53, 54), lesdits capteurs d’images (51, 52, 53, 54) étant des caméras analogiques présentant des champs de vision (510, 520, 530, 540) respectifs qui ne se recoupent pas et qui génèrent des zones aveugles (91, 92, 93, 94), ladite unité d’acquisition d’images (5) étant apte à acquérir une pluralité d’images d’un environnement extérieur au véhicule (1), une unité de télédétection (7) qui comprend plusieurs télédétecteurs (71,72, 73, 74) et qui est apte à détecter un obstacle (6) situé dans une desdites zones aveugles (91,92, 93, 94), une unité de commande d’imagerie (11 ), apte à constituer une image de vue du dessus du véhicule à partir des images acquises par ladite unité d’acquisition d’images (5), une unité d’affichage (21) apte à afficher l’image constituée par ladite unité de commande d’imagerie (11 ), caractérisé en ce que, si un obstacle (6) est détecté, l’unité de commande d’imagerie (11) est en outre apte à superposer sur ladite image constituée un symbole (19), la position du symbole (19) sur ladite image constituée étant représentative de la position de l’obstacle (6) par rapport au véhicule (1).
  8. 8. Système d’aide à la conduite selon la revendication précédente, dans lequel un premier capteur d’images (51) capture une zone située à l’avant du véhicule (1), un deuxième capteur d’images (52) capture une zone située à l’arrière du véhicule (1), un troisième capteur d’images (53) capture une première zone située latéralement par rapport au véhicule (1), un quatrième capteur d’images (54) capture une deuxième zone située latéralement par rapport au véhicule (1), à l’opposé de ladite première zone, et dans lequel chaque télédétecteur (71,72, 73, 74) est situé à un des quatre coins du véhicule (1 ).
  9. 9. Système d’aide à la conduite selon l’une des deux revendications précédentes, dans lequel les télédétecteurs (71, 72, 73, 74) présentent des champs de détection (710, 720, 730, 740) qui couvrent entièrement lesdites zones aveugles (91,92, 93, 94).
FR1755801A 2017-06-23 2017-06-23 Procede d'aide a la conduite d'un vehicule automobile Active FR3067999B1 (fr)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR1755801A FR3067999B1 (fr) 2017-06-23 2017-06-23 Procede d'aide a la conduite d'un vehicule automobile

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1755801A FR3067999B1 (fr) 2017-06-23 2017-06-23 Procede d'aide a la conduite d'un vehicule automobile
FR1755801 2017-06-23

Publications (2)

Publication Number Publication Date
FR3067999A1 FR3067999A1 (fr) 2018-12-28
FR3067999B1 true FR3067999B1 (fr) 2019-08-02

Family

ID=60302175

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1755801A Active FR3067999B1 (fr) 2017-06-23 2017-06-23 Procede d'aide a la conduite d'un vehicule automobile

Country Status (1)

Country Link
FR (1) FR3067999B1 (fr)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4052222A1 (fr) * 2019-09-20 2022-09-07 Continental Automotive GmbH Procédé de détermination d'un modèle d'une barrière de circulation
US11366214B2 (en) * 2019-12-30 2022-06-21 Woven Planet North America, Inc. Systems and methods for adaptive clutter removal from radar scans
CN115019407B (zh) * 2022-06-27 2023-12-05 浙江创泰科技有限公司 一种基于高位摄像头的车辆停车管理方法及系统

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3819284B2 (ja) * 2001-11-29 2006-09-06 クラリオン株式会社 車両周囲監視装置
CN103609100B (zh) * 2011-06-09 2017-09-29 爱信精机株式会社 图像生成装置
US10567705B2 (en) * 2013-06-10 2020-02-18 Magna Electronics Inc. Coaxial cable with bidirectional data transmission

Also Published As

Publication number Publication date
FR3067999A1 (fr) 2018-12-28

Similar Documents

Publication Publication Date Title
EP2884226B1 (fr) Procédé de calibration angulaire de la position d'une caméra video embarquée dans un véhicule automobile
US10099615B2 (en) All-round view monitoring system for a motor vehicle
FR3067999B1 (fr) Procede d'aide a la conduite d'un vehicule automobile
EP2133237B1 (fr) Procédé d'affichage d'aide au parking
FR2899332A1 (fr) Dispositif de mesure de champ de visibilite pour vehicule et systeme d'assistance a la conduite pour vehicule
FR2965765A1 (fr) Procede et dispositif pour former une image d'un objet dans l'environnement d'un vehicule
EP2432660A1 (fr) Procede et dispositif pour etendre une zone de visibilite
EP2043044B1 (fr) Procédé et dispositif d'assistance au parcage d'un véhicule automobile
FR2899363A1 (fr) Procede et dispositif de detection de mouvement d'objets sur des images d'une scene
EP2729328A1 (fr) Dispositif d'aide pour mettre à la disposition d'un conducteur, de façon anticipée, une image de synthèse représentative d'une zone choisie entourant son véhicule
FR2979311A1 (fr) Dispositif de traitement pour associer a un element graphique une couleur en fonction d'un niveau de risque de collision d'un obstacle avec une trajectoire future d'un vehicule, pour un systeme d'aide a la conduite
EP2648963B1 (fr) Dispositif d'aide permettant au conducteur d'un vehicule de verifier une zone de stationnement quittee
FR3055870A1 (fr) Methode d'aide a la conduite, procede d'implementation d'une telle methode et dispositif d'aide a la conduite
FR3080075A1 (fr) Procede et systeme d'aide au pilotage d'un vehicule
FR2926908A1 (fr) Assistance a la conduite d'un vehicule automobile par une vue de dessus
WO2019052739A1 (fr) Procédé d'affichage sur un écran d'un environnement d'un véhicule automobile, et véhicule automobile dans lequel un tel procédé est mis en œuvre
EP2193047B1 (fr) Dispositif d'aide a la sortie de voie occultee
FR3054355B1 (fr) Procede et systeme de determination d'un espace libre situe dans une zone d'environnement d'un vehicule automobile
EP2649586B1 (fr) Dispositif de correction d'images réelles utiles à la construction d'une image de synthèse d'une zone environnant un véhicule, et dispositif d'aide au conducteur associé
EP2180426A1 (fr) Procédé de détection d'un objet cible pour véhicule automobile
WO2017216465A1 (fr) Procédé et dispositif de traitement d'images acquises par une caméra d'un véhicule automobile
FR3036204A1 (fr) Procede et systeme de compensation d'erreurs pour un systeme de detection d'objets embarque sur un vehicule automobile
FR3070085B1 (fr) Procede d’etalonnage d’une camera d’un vehicule automobile
FR3118253A1 (fr) Système et procédé de calcul d’une image finale d’un environnement d’un véhicule
WO2021249809A1 (fr) Procede de calibration d'une camera et dispositif associe

Legal Events

Date Code Title Description
PLSC Publication of the preliminary search report

Effective date: 20181228

PLFP Fee payment

Year of fee payment: 3

PLFP Fee payment

Year of fee payment: 4

PLFP Fee payment

Year of fee payment: 5

PLFP Fee payment

Year of fee payment: 6

CA Change of address

Effective date: 20221014

PLFP Fee payment

Year of fee payment: 7

PLFP Fee payment

Year of fee payment: 8