FR3067999B1 - Procede d'aide a la conduite d'un vehicule automobile - Google Patents
Procede d'aide a la conduite d'un vehicule automobile Download PDFInfo
- Publication number
- FR3067999B1 FR3067999B1 FR1755801A FR1755801A FR3067999B1 FR 3067999 B1 FR3067999 B1 FR 3067999B1 FR 1755801 A FR1755801 A FR 1755801A FR 1755801 A FR1755801 A FR 1755801A FR 3067999 B1 FR3067999 B1 FR 3067999B1
- Authority
- FR
- France
- Prior art keywords
- obstacle
- image
- vehicle
- symbol
- shape
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 23
- 238000003384 imaging method Methods 0.000 claims description 27
- 238000001514 detection method Methods 0.000 claims description 3
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 13
- 240000004050 Pentaglottis sempervirens Species 0.000 description 11
- 230000006870 function Effects 0.000 description 2
- 241001300198 Caperonia palustris Species 0.000 description 1
- 235000000384 Veronica chamaedrys Nutrition 0.000 description 1
- 241000905137 Veronica schmidtiana Species 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000011664 signaling Effects 0.000 description 1
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/20—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
- B60K35/28—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor characterised by the type of the output information, e.g. video entertainment or vehicle dynamics information; characterised by the purpose of the output information, e.g. for attracting the attention of the driver
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/60—Instruments characterised by their location or relative disposition in or on vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/86—Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
- G01S13/867—Combination of radar systems with cameras
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S15/00—Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
- G01S15/86—Combinations of sonar systems with lidar systems; Combinations of sonar systems with systems not using wave reflection
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S15/00—Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
- G01S15/88—Sonar systems specially adapted for specific applications
- G01S15/93—Sonar systems specially adapted for specific applications for anti-collision purposes
- G01S15/931—Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K2360/00—Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
- B60K2360/16—Type of output information
- B60K2360/173—Reversing assist
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K2360/00—Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
- B60K2360/16—Type of output information
- B60K2360/179—Distances to obstacles or vehicles
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
- B60W2050/146—Display means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/54—Audio sensitive means, e.g. ultrasound
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
- G01S2013/9315—Monitoring blind spots
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
- G01S2013/9323—Alternative operation using light waves
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
- G01S2013/9324—Alternative operation using ultrasonic waves
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Transportation (AREA)
- Computer Networks & Wireless Communication (AREA)
- Mechanical Engineering (AREA)
- Chemical & Material Sciences (AREA)
- Combustion & Propulsion (AREA)
- Automation & Control Theory (AREA)
- Human Computer Interaction (AREA)
- Electromagnetism (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Traffic Control Systems (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
L'invention concerne un procédé d'aide à la conduite d'un véhicule (1) automobile comprenant : - une étape d'acquisition d'une pluralité d'images d'un environnement extérieur au véhicule, par une unité d'acquisition d'images (5) comportant plusieurs capteurs d'images (51, 52, 53, 54) lesdits capteurs d'images étant des caméras analogiques présentant des champs de vision (510, 520, 530, 540) respectifs qui ne se recoupent pas et qui génèrent des zones aveugles, - une étape de détection d'un éventuel obstacle (6) situé dans une desdites zones aveugles, par une unité de télédétection (7), - une étape de constitution d'une image de vue du dessus du véhicule à partir des images acquises, - une étape d'affichage sur une unité d'affichage (21) de l'image constituée, caractérisé en ce que, si un obstacle est détecté, le procédé d'assistance à la conduite comprend en outre une étape de superposition d'un symbole (19) sur l'image constituée, la position du symbole sur l'image constituée étant représentative de la position de l'obstacle par rapport au véhicule automobile.
Description
Domaine technique auquel se rapporte l'invention La présente invention concerne de manière générale le domaine des aides à la conduite de véhicules.
Elle s’applique en particulier à un système d’aide à la conduite d’un véhicule automobile, comprenant : une unité d’acquisition d’images qui comprend plusieurs capteurs d’images, lesdits capteurs d’images étant des caméras analogiques présentant des champs de vision respectifs qui ne se recoupent pas et qui génèrent des zones aveugles et ladite unité d’acquisition d’images étant apte à acquérir une pluralité d’images d’un environnement extérieur au véhicule, une unité de télédétection qui comprend plusieurs télédétecteurs et qui est apte à détecter un obstacle situé dans une desdites zones aveugles, une unité de commande d’imagerie, apte à constituer une image de vue du dessus du véhicule à partir des images acquises par ladite unité d’acquisition d’images, une unité d’affichage apte à afficher l’image constituée par ladite unité de commande d’imagerie.
Elle concerne plus particulièrement un procédé d’aide à la conduite d’un véhicule automobile comprenant : une étape d’acquisition d’une pluralité d’images d’un environnement extérieur au véhicule, par une unité d’acquisition d’images comportant plusieurs capteurs d’images lesdits capteurs d’images étant des caméras analogiques présentant des champs de vision respectifs qui ne se recoupent pas et qui génèrent des zones aveugles, une étape de détection d’un éventuel obstacle situé dans une desdites zones aveugles, par une unité de télédétection, une étape de constitution d’une image de vue du dessus du véhicule à partir des images acquises, une étape d’affichage sur une unité d’affichage de l’image constituée. Arriere-plan technologique
On connaît des dispositifs d’aide à la conduite permettant d’assister un conducteur lorsqu’il souhaite garer ou sortir son véhicule d’une place de parking.
En effet, les places de parking sont souvent exigües et des obstacles peuvent gêner les manœuvres du conducteur.
Afin de repérer ces obstacles, les dispositifs d’aide à la conduite comprennent généralement quatre caméras placées chacune sur un côté du véhicule (avant, arrière et côtés latéraux). Ainsi placées, les caméras permettent de capturer une vue d’ensemble de l’environnement extérieur du véhicule.
Une unité de traitement d’images compose alors une image de vue de dessus du véhicule (appelée « birdview >> en anglais) à partir des images capturées par les caméras.
Enfin, une unité d’affichage placée sur le tableau de bord permet de montrer au conducteur l’image de vue du dessus du véhicule. Ainsi, le conducteur peut facilement vérifier si un obstacle se trouve à proximité. On pense notamment aux cônes de signalisation dont la petite taille les rend difficilement visibles depuis l’intérieur du véhicule.
Les caméras habituellement utilisées dans les dispositifs d’aide à la conduite présentent un large champ de vision, supérieur à 180°. Les images acquises par les caméras numériques se chevauchent donc bien (il n’y a pas de zones aveugles), et il revient à l’unité de traitement d’image de produire une image compréhensible par le conducteur en combinant judicieusement les images entre elles.
Cependant un tel traitement d’images nécessite une puissance de calcul importante, qui est atteinte grâce à l’utilisation de matériels coûteux.
Ainsi, les dispositifs d’aide à la conduite sont actuellement onéreux et ne conviennent pas à la fabrication de véhicules à coûts restreints.
Objet de l’invention
Afin de remédier à l’inconvénient précité de l’état de la technique, la présente invention propose un procédé d’aide à la conduite tel que défini en introduction dans lequel on réalise en outre: - une étape de superposition d’un symbole sur l’image constituée, la position du symbole sur l’image constituée étant représentative de la position de l’obstacle par rapport au véhicule automobile.
Dans certains véhicules, les caméras utilisées comme les caméras analogiques ne permettent pas de couvrir l’ensemble de l’environnement immédiat du véhicule. On souhaite donc notamment dans ces véhicules pouvoir avertir l’usager de la présence d’un obstacle invisible ou peu visible, en affichant un symbole sur l’image de vue de dessus du véhicule (l’image constituée).
En superposant un symbole sur l’image vue du dessus au lieu d’effectuer un traitement d’image poussé afin d’obtenir une image compréhensible dudit obstacle, on réduit le nombre de calculs nécessaires à la mise en œuvre d’un tel procédé d’aide à la conduite. Ceci permet d’utiliser une unité de commande d’imagerie ainsi qu’une unité d’acquisition d’images moins performantes, et donc de réduire le coût de mise en œuvre du procédé. D’autres caractéristiques non limitatives et avantageuses du procédé d’aide à la conduite conforme à l’invention, prises individuellement ou selon toutes les combinaisons techniquement possibles, sont les suivantes : - le symbole présente une forme sélectionnée parmi plusieurs formes, et qui est représentative de la forme de l’obstacle vu du dessus ; - pour déterminer la forme de l’obstacle vu du dessus, il est prévu préalablement à l’étape de superposition une étape d’acquisition de coordonnées tridimensionnelles de points de l’obstacle, et une étape de projection desdites coordonnées tridimensionnelles dans un plan horizontal prédéfini, afin de déterminer des coordonnées planes représentatives d’une partie au moins de la forme de l’obstacle vu de dessus ; - le symbole est superposé sur ladite image constituée uniquement si l’obstacle est situé dans une desdites zones aveugles ; - il est prévu une étape de détermination de la forme de la surface de l’obstacle, une étape de recherche, dans une base de données qui comporte une pluralité d’enregistrements mémorisant chacun un élément de forme commune d’obstacle ainsi qu’un symbole ou un identifiant de symbole, de l’enregistrement dans lequel ledit élément de forme est le plus proche de la forme de la surface de l’obstacle, et une étape de lecture du symbole ou de l’identifiant de symbole mémorisé dans ledit enregistrement ; - pour déterminer la forme de la surface de l’obstacle, il est prévu d’acquérir la forme d’une partie de la surface de l’obstacle vue par l’unité de télédétection, et pour rechercher ledit enregistrement, il est prévu d’identifier l’élément de forme qui se superpose au mieux à la forme de la partie de la surface de l’obstacle vue par l’unité de télédétection. L’invention propose également un système d’aide à la conduite tel que défini en introduction, dont l’unité de commande d’imagerie est en outre apte à superposer sur ladite image constituée un symbole, la position du symbole sur ladite image constituée étant représentative de la position de l’obstacle par rapport au véhicule. D’autres caractéristiques avantageuses et non limitatives du système d’aide à la conduite conforme à l’invention sont les suivantes : - un premier capteur d’images capture une zone située à l’avant du véhicule, un deuxième capteur d’images capture une zone située à l’arrière du véhicule, un troisième capteur d’images capture une première zone située latéralement par rapport au véhicule, un quatrième capteur d’images capture une deuxième zone située latéralement par rapport au véhicule, à l’opposé de ladite première zone, et dans lequel chaque télédétecteur est situé à un des quatre coins du véhicule ; - les télédétecteurs présentent des champs de détection qui couvrent entièrement les zones aveugles ;
Description detaillee d’un exemple de réalisation
La description qui va suivre en regard des dessins annexés, donnés à titre d’exemples non limitatifs, fera bien comprendre en quoi consiste l’invention et comment elle peut être réalisée.
Sur les dessins annexés : - la figure 1 est une vue schématique de dessus d’un véhicule équipé d’un système d’aide à la conduite selon l’invention, - la figure 2 est une représentation schématique du système d’aide à la conduite de la figure 1, - la figure 3 illustre une image constituée et les zones aveugles de cette image constituée, - la figure 4 représente de manière schématique le procédé d’aide à la conduite selon l’invention, - la figure 5 représente une partie du véhicule de la figure 1 et un obstacle sur lequel sont schématiquement représentés des points d’impact d’un faisceau d’ondes émises par un télédétecteur du véhicule, et - la figure 6 représente le véhicule et l’obstacle de la figure 5, ainsi que les points d’impact projetés dans un plan horizontal.
Dans le but de faciliter la compréhension de l’invention, les dimensions de certaines figures ne sont pas représentatives de la réalité.
Sur la figure 1, on a représenté schématiquement un véhicule 1 automobile équipé d’un système d’aide à la conduite 3.
Comme cela sera bien décrit dans la suite de cet exposé, ce système d’aide à la conduite 3 comprend une unité d’acquisition d’images 5, une unité de télédétection 7, deux calculateurs (ECU pour « Electronic Command Unit >> en anglais) ci-après appelés unité de commande d’imagerie 11 et unité de commande de télédétection 13, et une unité d’affichage 21 (en pratique un écran).
Comme le montrent les figures 1 et 2, l’unité d’acquisition d’images 5 comprend plusieurs capteurs d’images 51, 52, 53, 54 aptes à acquérir une pluralité d’images d’un environnement extérieur au véhicule 1.
Plus précisément ici, l’unité d’acquisition d’images comprend quatre capteurs d’images 51, 52, 53, 54. Chacun des capteurs d’images 51, 52, 53, 54 est placé sur un des quatre côtés du véhicule 1.
Un premier capteur d’images 51 est placé à l’avant du véhicule, par exemple en dessous du logo du véhicule. Le premier capteur d’images 51 capture une zone située à l’avant du véhicule 1.
Un deuxième capteur d’images 52 est placé à l’arrière du véhicule, par exemple au dessus de la plaque d’immatriculation. Le deuxième capteur d’images 52 capture une zone située à l’arrière du véhicule 1.
Un troisième capteur d’images 53 est placé sur un premier côté latéral, par exemple le côté droit du véhicule, par exemple sous le rétroviseur droit. Le troisième capteur d’images 53 capture une première zone située latéralement par rapport au véhicule 1, ici à droite du véhicule 1.
Un quatrième capteur d’images 54 est placé sur un deuxième côté latéral, par exemple le côté gauche du véhicule, par exemple sous le rétroviseur gauche. Le quatrième capteur d’images 54 capture une deuxième zone située latéralement par rapport au véhicule 1, ici à gauche du véhicule 1.
Les capteurs d’images 51, 52, 53, 54 ne sont pas nécessairement tous placés à la même hauteur du véhicule.
Ces capteurs d’images 51, 52, 53, 54 sont des caméras analogiques. Ceci permet de faire baisser le coût du système d’aide à la conduite 3 car des caméras analogiques sont actuellement moins chères que des caméras numériques. Les caméras analogiques utilisées présentent une faible résolution d’acquisition, par exemple 640x480 pixels.
Chaque capteurs d’images 51, 52, 53, 54 présente un champ de vision 510, 520, 530, 540 respectif. D’une manière générale, le champ de vision d’un capteur d’images est la région de l’espace que ledit capteur d’images est capable de capturer.
Les capteurs d’images 51, 52, 53, 54 sont conçus et orientés de telle façon que leurs champs de vision 510, 520, 530, 540 respectifs ne se recoupent pas, ce qui forme des zones aveugles 91,92, 93, 94.
Plus précisément, le champ de vision de chaque capteur d’images 51, 52, 53, 54 présente un angle d’ouverture inférieur strictement à 180 degrés, si bien qu’il existe des zones contiguës au véhicule qui ne sont vues par aucun des capteurs d’images 51,52, 53, 54.
Les capteurs d’images 51, 52, 53, 54 sont pilotés par l’unité de commande d’imagerie 11 représentée sur la figure 2.
Cette unité de commande d’imagerie 11 est en outre apte à constituer une image de vue du dessus du véhicule 1 à partir des images brutes acquises par l’unité d’acquisition d’images 5. Cette image de vue de dessus sera ci-après appelée « image vue d’oiseau », pour bien la distinguer des images brutes acquises par les caméras analogiques. L’image vue d’oiseau, illustrée par la figure 3, montre les quatre zones aveugles 91, 92, 93, 94 précitées, qui correspondent aux régions de l’environnement du véhicule 1 qui ne sont pas vues ou mal vues par les capteurs d’images 51, 52, 53, 54. A ce titre, on notera ici que les zones aveugles 91, 92, 93, 94 peuvent aussi inclure des zones qui sont capturées par les capteurs d’images mais qui ne sont pas exploitables, du fait d’aberrations optiques ou chromatiques (du fait de la faible résolution des caméras analogiques qui équipent le système d’aide à la conduite 3).
Sur cette figure 3, on a représenté un repère orthonormé attaché au véhicule 1 ayant un système de coordonnées (0, x, y, z). Dans notre exemple, l’axe (Ox) s’étend le long d’un axe longitudinal du véhicule, l’axe (Oy) s’étend le long d’un axe transversal du véhicule, et l’axe (Oz) s’étend le long d’un axe vertical du véhicule (on considérera dans cet exposé que le véhicule est situé sur une route parfaitement horizontale). Ainsi, le contour de chacune des zones aveugles 91, 92, 93, 94 est défini par un jeu de coordonnées (x,y) dans un plan horizontal sur l’image vue d’oiseau. Ces jeux de coordonnées (x,y) sont enregistrés dans une mémoire de l’unité de commande de télédétection 13. L’unité de télédétection 7, illustrée sur la figure 1, est conçue pour détecter un obstacle 6 (figure 3) situé dans l’environnement du véhicule 1.
Elle comprend une pluralité de télédétecteurs 71,72, 73, 74, qui sont de préférence des télémètres (par exemple des capteurs par temps de vol). En l’espèce, il pourra s’agir de capteurs SONAR, RADAR ou LIDAR. L’unité de télédétection 7 comprend ici quatre télédétecteurs SONAR.
De préférence, ces quatre télédétecteurs 71,72, 73, 74, sont situés aux quatre coins du véhicule 1 et sont orientés diagonalement par rapport au véhicule 1. Plus précisément, les quatre télédétecteurs 71, 72, 73, 74 sont orientés de façon à ce que leurs champs de détection 710, 720, 730, 740 couvrent les zones aveugles 91,92, 93, 94 précédemment décrites. L’unité de télédétection 7 est pilotée par l’unité de commande de télédétection 13. Cette unité de commande de télédétection 13 est ainsi apte à déterminer des coordonnées tridimensionnelles de points de la surface de tout obstacle 6 détecté par les télédétecteurs 71, 72, 73, 74. On considérera que ces coordonnées seront exprimées dans le repère attaché au véhicule. L’unité de commande de télédétection 13 sera alors en mesure de déterminer si l’obstacle 6 détecté se situe dans l’une des zones aveugles 91, 92, 93, 94 de l’image vue d’oiseau. Ce procédé sera décrit plus en détail par la suite. L’unité commande d’imagerie 11 et l’unité de commande de télédétection 13 sont connectées par un bus CAN 15 (« Controller Area Network >> en anglais) qui permet l’échange de données entre ces deux unités de commande 11, 13. L’unité de commande de télédétection 13 est par exemple capable de communiquer les coordonnées de l’obstacle 6 détecté par les télédétecteurs 71, 72, 73, 74 à l’unité commande d’imagerie 11. L’unité de commande d’imagerie 11 mémorise en outre une base de données qui comporte une pluralité d’enregistrements.
Chaque enregistrement comprend deux champs, dont un premier champ dans lequel est mémorisé un élément de forme standard représentatif de la forme de la surface d’un obstacle pouvant être couramment rencontré sur une scène routière (en vue de dessus), et un second champ dans lequel est enregistré un symbole 19 associé à l’élément de forme standard.
De manière préférentielle, l’élément de forme standard est représentatif de la forme d’une section horizontale de la surface d’un obstacle. A titre d’exemple, chaque élément de forme standard peut être un contour (une ligne courbe fermée). Il peut ainsi s’agir d’un cercle présentant un premier diamètre, représentatif d’un cône de signalisation vu du dessus. Dans ce cas, le symbole 19 associé peut aussi être un cercle présentant un second diamètre (figure 3).
De manière générale, les dimensions (diamètre, largeur....) d’une grande quantité d’obstacles 6 sont référencées et connues. Chaque enregistrement est ainsi associé à un type référencé d’obstacle, et mémorise un symbole 19 correspondant.
De manière préférentielle, le symbole 19 présente une forme identique ou homologue de celle de l’élément de forme standard mémorisé dans l’enregistrement. L’unité de commande d’imagerie 11 est apte à déterminer la forme de la surface de l’obstacle 6 détecté, à rechercher dans la base de données l’enregistrement comprenant l’élément de forme standard qui se superpose le mieux à la forme de la surface de l’obstacle 6 détecté, et à superposer à l’image vue d’oiseau le symbole 19 stocké dans cet enregistrement.
Enfin, l’unité d’affichage 21 (figure 2) est prévue pour afficher des images dans le champ de vision du conducteur du véhicule. Elle est située au niveau du tableau de bord du véhicule 1. Elle est contrôlée par une unité de commande d’affichage et est connectée à l’unité commande d’imagerie 11 par le bus CAN 15. Ainsi, l’unité d’affichage 21 est apte à afficher des images fournies par l’unité de commande d’imagerie 11. Plus précisément, l’unité d’affichage 21 est apte à afficher l’image vue d’oiseau (en superposition de laquelle apparaît le symbole 19 à une position représentative de la position de l’obstacle 6 par rapport au véhicule 1)· L’unité d’affichage 21 est de préférence apte à afficher des images en couleurs. L'affichage en couleurs facilite en effet la compréhension des images par le conducteur. On peut ainsi envisager d’ajouter sur l’image vue d’oiseau un signal de couleur, dont la couleur ou la forme est représentative de la distance séparant l’obstacle 6 du véhicule 1.
En se rapportant à présent à la figure 4, on peut maintenant décrire un procédé d’assistance à la conduite d’un véhicule 1 automobile conforme à l’invention.
Comme le montre la figure 4, ce procédé comporte cinq étapes principales successives (100, 110, 120, 130, 140), dont deux d’entre elles sont subdivisées en sous-étapes.
Au cours d’une première étape 100, l’unité d’acquisition d’images 5 capture des vues de l’environnement extérieur au véhicule 1.
De manière préférentielle, les quatre caméras acquièrent chacune une vue de l’environnement et elles transmettent ces quatre images brutes à l’unité de commande d’imagerie 11.
Lors d’une étape 110, l’unité de télédétection 7 pilotée par l’unité de commande de télédétection 13 tente de détecter un éventuel obstacle 6. L’étape 110 est de préférence réalisée en même temps que l’étape 100, mais elle pourrait en variante être réalisée avant celle-ci ou après celle-ci. L’étape 110 de détection d’un éventuel obstacle 6 comprend une sous-étape 111 d’émission d’ondes ultrasonores par les télédétecteurs.
On considérera ici qu’un obstacle est détecté. L’étape 110 comprend alors une seconde sous-étape 112 d’acquisition des coordonnées de l’obstacle 6 détecté. L’unité de commande de télédétection 13 est en effet apte à acquérir les coordonnées tridimensionnelles (xN, Yn, zn) des points de l’obstacle 6 touchés par les ondes émises par chaque télédétecteur. A titre d’illustration, la figure 5 représente ainsi des points d’impact N au niveau desquels les ondes ont été réfléchies par l’obstacle.
Lors d’une troisième sous-étape 114, l’unité de commande de télédétection 13 projette les coordonnées tridimensionnelles (xn, Yn, zn) précitées dans un plan horizontal P, (voir figure 6) et obtient ainsi les coordonnées planes de points Npi permettant de caractériser la forme d’une partie au moins du contour de l’obstacle 6, en vue du dessus.
Ce plan horizontal P, est situé à une hauteur prédéterminée, qui est fonction de la hauteur des deux capteurs d’images situés de part et d’autre du télédétecteur qui détecte l’obstacle 6.
Ainsi, à titre d’exemple, pour un obstacle 6 se situant à l’avant-droit du véhicule, l’unité de commande de télédétection 13 projette les coordonnées tridimensionnelles dans un premier plan horizontal situé à une première hauteur zpi obtenue grâce à la formule suivante :
Dans cette formule z51 représente la hauteur du capteur d’images situé à l’avant du véhicule 1, et z53 représente la hauteur du capteur d’images situé à droite du véhicule 1.
Cette hauteur de plan horizontal ζρΊ est choisie par souci de cohérence entre les dimensions de l’obstacle 6 détecté et celles des images acquises par les capteurs d’images 51,52, 53, 54. En effet, on rappelle que les capteurs d’images 51, 52, 53, 54 ne sont pas tous placés à la même hauteur du véhicule 1. L’image de vue du dessus constituée par l’unité de commande d’imagerie 11 présente donc des vues de hauteur différente.
En projetant les coordonnées tridimensionnelles sur un plan horizontal P, se trouvant entre deux hauteurs de capteurs d’images, plus précisément au milieu des hauteurs des deux capteurs d’images, on obtient un contour d’obstacle dont la dimension est cohérente avec les hauteurs des deux capteurs d’images. On obtient ainsi par la suite une image facilement et rapidement compréhensible par le conducteur.
Lors d’une sous-étape 116 de comparaison des coordonnées planes de l’obstacle 6 avec les coordonnées des zones aveugles 91, 92, 93, 94, l’unité de commande de télédétection 13 détermine si l’obstacle 6 se situe, au moins partiellement, dans une des zones aveugles 91,92, 93, 94 de l’image constituée.
Lors d’une sous-étape 118, l’unité de commande de télédétection 13 transmet les coordonnées planes à l’unité de commande d’imagerie 11 uniquement si l’obstacle 6 est situé au moins partiellement dans une zone aveugle 91, 92, 93, 94. En effet, les obstacles 6 situés dans le champ de vision 510, 520, 530, 540 des capteurs d’images sont visibles sur l’image constituée, il est donc préférable de ne pas leur appliquer la suite du procédé. Ainsi réduit-on le nombre d’opérations nécessaires à la mise en œuvre du procédé.
Lors d’une étape 120 de constitution d’une image vue d’oiseau du véhicule, l’unité de commande d’imagerie 11 constitue la vue d’oiseau en combinant les images brutes. Cette étape étant bien connue de l’homme du métier, elle ne sera pas ici décrite plus en détail. On notera seulement qu’elle peut
être mise en œuvre en même temps que l’étape 110 de détection d’un obstacle, avant celle-ci ou après celle-ci.
Lors d’une étape 130, l’unité de commande d’imagerie 11 superpose un symbole 19 sur l’une des zones aveugles 91, 92, 93, 94 de cette image vue d’oiseau.
Plus précisément, lors d’une sous-étape 132 de détermination de la forme de la surface de l’obstacle 6, l’unité de commande d’imagerie 11 lit les coordonnées planes transmises par l’unité de commande de télédétection 13.
Puis, lors d’une sous-étape 134 de recherche dans la base de données, l’unité de commande d’imagerie 11 recherche l’enregistrement dans lequel les points (dont les coordonnées planes ont été lues) se superposent le mieux à l’élément de forme standard (la méthode des moindres carrés peut par exemple être utilisée).
Finalement, lors d’une sous étape 136, l’unité de commande d’imagerie 11 lit le symbole 19 mémorisé dans l’enregistrement trouvé puis superpose ce symbole 19 à l’image vue d’oiseau. La forme de ce symbole 19 est ainsi choisie de façon à être homologue de celle de l’obstacle vu de dessus.
La position de ce symbole sur l’image vue d’oiseau est déterminée en fonction de la position de l’obstacle 6 par rapport au véhicule automobile 1, afin d’être représentative de la position de l’obstacle 6 par rapport au véhicule automobile 1.
On peut en outre prévoir que la couleur de ce symbole 19 soit choisie en fonction de la distance entre l’obstacle 6 et le véhicule automobile 1. Par exemple, pour un obstacle 6 situé à moins de 30 cm du véhicule 1, le symbole 19 superposé peut être coloré en rouge. Pour un obstacle 6 situé entre 30 cm et 70 cm du véhicule 1, le symbole 19 superposé peut être coloré en orange. Pour un obstacle 6 situé entre 70 cm et 100 cm du véhicule 1, le symbole 19 superposé peut être coloré en vert.
De plus l’unité de commande d’imagerie 11 peut superposer à l’image vue d’oiseau un signal supplémentaire 23 de même couleur que le symbole (voir figure 3). Le signal supplémentaire 23 présente une surface plus grande que le symbole 19, par exemple une forme de quart de cercle. De cette façon, le conducteur peut rapidement voir et comprendre l’information fournie grâce au procédé d’aide à la conduite.
Enfin, lors d’une étape 140 d’affichage de l’image vue d’oiseau par l’unité de commande d’imagerie 11, l’unité d’affichage 21 présente au conducteur l’image vue du dessus du véhicule 1 sur laquelle est superposé le symbole 19 et, éventuellement, le signal supplémentaire 23.
En utilisant uniquement la télédétection pour détecter les obstacles situés dans les zones aveugles 91, 92, 93, 94 des capteurs d’images 51, 52, 53, 54, au lieu de chercher à réaliser un traitement d’image poussé qui nécessiterait une unité de commande d’imagerie et une unité d’acquisition d’images très performantes et donc coûteuses, on réduit le coût du système d’aide à la conduite.
La présente invention n’est pas limitée au mode de réalisation décrit ci- dessus.
Ainsi, à titre d’exemple, la base de données pourrait stocker non pas une image du symbole, mais plutôt une adresse associée à un emplacement mémoire dans lequel est stockée une image du symbole.
Selon une autre variante, le symbole affiché pourrait présenter la forme de la projection de l’obstacle dans le plan horizontal P,.
Claims (9)
- REVENDICATIONS1. Procédé d’aide à la conduite d’un véhicule (1) automobile comprenant : une étape d’acquisition d’une pluralité d’images d’un environnement extérieur au véhicule (1), par une unité d’acquisition d’images (5) comportant plusieurs capteurs d’images (51,52, 53, 54), lesdits capteurs d’images (51,52, 53, 54) étant des caméras analogiques présentant des champs de vision (510, 520, 530, 540) respectifs qui ne se recoupent pas et qui génèrent des zones aveugles (91,92, 93, 94), une étape de détection d’un éventuel obstacle (6) situé dans une desdites zones aveugles (91,92, 93, 94), par une unité de télédétection (7), une étape de constitution d’une image de vue du dessus du véhicule (1 ) à partir des images acquises, une étape d’affichage sur une unité d’affichage (21) de l’image constituée, caractérisé en ce que, si un obstacle (6) est détecté, le procédé d’assistance à la conduite comprend en outre une étape de superposition d’un symbole (19) sur l’image constituée, la position du symbole (19) sur l’image constituée étant représentative de la position de l’obstacle (6) par rapport au véhicule automobile.
- 2. Procédé d’aide à la conduite selon la revendication précédente, dans lequel le symbole (19) présente une forme sélectionnée parmi plusieurs formes, qui est représentative de la forme de l’obstacle (6) vu du dessus.
- 3. Procédé d’aide à la conduite selon la revendication précédente, dans lequel, pour déterminer la forme de l’obstacle (6) vu du dessus, il est prévu préalablement à l’étape de superposition : - une étape d’acquisition de coordonnées tridimensionnelles de points de l’obstacle (6), et - une étape de projection desdites coordonnées tridimensionnelles dans un plan horizontal (Pi) prédéfini, afin de déterminer des coordonnées planes représentatives d’une partie au moins de la forme de l’obstacle (6) vu de dessus.
- 4. Procédé d’aide à la conduite selon l’une des revendications précédentes, dans lequel ledit symbole (19) est superposé sur ladite image constituée uniquement si l’obstacle (6) est situé dans une desdites zones aveugles (91,92, 93, 94).
- 5. Procédé d’aide à la conduite selon l’une des revendications précédentes, dans lequel il est prévu : - une étape de détermination de la forme de la surface de l’obstacle (6), - une étape de recherche, dans une base de données qui comporte une pluralité d’enregistrements mémorisant chacun un élément de forme standard d’obstacle ainsi qu’un symbole (19) ou un identifiant de symbole, de l’enregistrement dans lequel ledit élément de forme standard est le plus proche de la forme de la surface de l’obstacle (6), et - une étape de lecture du symbole (19) ou de l’identifiant de symbole (19) mémorisé dans ledit enregistrement.
- 6. Procédé d’aide à la conduite selon la revendication précédente, dans lequel, pour déterminer la forme de la surface de l’obstacle (6), il est prévu d’acquérir la forme d’une partie de la surface de l’obstacle (6) vue par l’unité de télédétection (7), et dans lequel pour rechercher ledit enregistrement, il est prévu d’identifier l’élément de forme qui se superpose au mieux à la forme de la partie de la surface de l’obstacle (6) vue par l’unité de télédétection (7).
- 7. Système d’aide à la conduite (3) d’un véhicule (1) automobile, comprenant : une unité d’acquisition d’images (5) qui comprend plusieurs capteurs d’images (51, 52, 53, 54), lesdits capteurs d’images (51, 52, 53, 54) étant des caméras analogiques présentant des champs de vision (510, 520, 530, 540) respectifs qui ne se recoupent pas et qui génèrent des zones aveugles (91, 92, 93, 94), ladite unité d’acquisition d’images (5) étant apte à acquérir une pluralité d’images d’un environnement extérieur au véhicule (1), une unité de télédétection (7) qui comprend plusieurs télédétecteurs (71,72, 73, 74) et qui est apte à détecter un obstacle (6) situé dans une desdites zones aveugles (91,92, 93, 94), une unité de commande d’imagerie (11 ), apte à constituer une image de vue du dessus du véhicule à partir des images acquises par ladite unité d’acquisition d’images (5), une unité d’affichage (21) apte à afficher l’image constituée par ladite unité de commande d’imagerie (11 ), caractérisé en ce que, si un obstacle (6) est détecté, l’unité de commande d’imagerie (11) est en outre apte à superposer sur ladite image constituée un symbole (19), la position du symbole (19) sur ladite image constituée étant représentative de la position de l’obstacle (6) par rapport au véhicule (1).
- 8. Système d’aide à la conduite selon la revendication précédente, dans lequel un premier capteur d’images (51) capture une zone située à l’avant du véhicule (1), un deuxième capteur d’images (52) capture une zone située à l’arrière du véhicule (1), un troisième capteur d’images (53) capture une première zone située latéralement par rapport au véhicule (1), un quatrième capteur d’images (54) capture une deuxième zone située latéralement par rapport au véhicule (1), à l’opposé de ladite première zone, et dans lequel chaque télédétecteur (71,72, 73, 74) est situé à un des quatre coins du véhicule (1 ).
- 9. Système d’aide à la conduite selon l’une des deux revendications précédentes, dans lequel les télédétecteurs (71, 72, 73, 74) présentent des champs de détection (710, 720, 730, 740) qui couvrent entièrement lesdites zones aveugles (91,92, 93, 94).
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR1755801A FR3067999B1 (fr) | 2017-06-23 | 2017-06-23 | Procede d'aide a la conduite d'un vehicule automobile |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR1755801A FR3067999B1 (fr) | 2017-06-23 | 2017-06-23 | Procede d'aide a la conduite d'un vehicule automobile |
FR1755801 | 2017-06-23 |
Publications (2)
Publication Number | Publication Date |
---|---|
FR3067999A1 FR3067999A1 (fr) | 2018-12-28 |
FR3067999B1 true FR3067999B1 (fr) | 2019-08-02 |
Family
ID=60302175
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
FR1755801A Active FR3067999B1 (fr) | 2017-06-23 | 2017-06-23 | Procede d'aide a la conduite d'un vehicule automobile |
Country Status (1)
Country | Link |
---|---|
FR (1) | FR3067999B1 (fr) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP4052222A1 (fr) * | 2019-09-20 | 2022-09-07 | Continental Automotive GmbH | Procédé de détermination d'un modèle d'une barrière de circulation |
US11366214B2 (en) * | 2019-12-30 | 2022-06-21 | Woven Planet North America, Inc. | Systems and methods for adaptive clutter removal from radar scans |
CN115019407B (zh) * | 2022-06-27 | 2023-12-05 | 浙江创泰科技有限公司 | 一种基于高位摄像头的车辆停车管理方法及系统 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3819284B2 (ja) * | 2001-11-29 | 2006-09-06 | クラリオン株式会社 | 車両周囲監視装置 |
CN103609100B (zh) * | 2011-06-09 | 2017-09-29 | 爱信精机株式会社 | 图像生成装置 |
US10567705B2 (en) * | 2013-06-10 | 2020-02-18 | Magna Electronics Inc. | Coaxial cable with bidirectional data transmission |
-
2017
- 2017-06-23 FR FR1755801A patent/FR3067999B1/fr active Active
Also Published As
Publication number | Publication date |
---|---|
FR3067999A1 (fr) | 2018-12-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP2884226B1 (fr) | Procédé de calibration angulaire de la position d'une caméra video embarquée dans un véhicule automobile | |
US10099615B2 (en) | All-round view monitoring system for a motor vehicle | |
FR3067999B1 (fr) | Procede d'aide a la conduite d'un vehicule automobile | |
EP2133237B1 (fr) | Procédé d'affichage d'aide au parking | |
FR2899332A1 (fr) | Dispositif de mesure de champ de visibilite pour vehicule et systeme d'assistance a la conduite pour vehicule | |
FR2965765A1 (fr) | Procede et dispositif pour former une image d'un objet dans l'environnement d'un vehicule | |
EP2432660A1 (fr) | Procede et dispositif pour etendre une zone de visibilite | |
EP2043044B1 (fr) | Procédé et dispositif d'assistance au parcage d'un véhicule automobile | |
FR2899363A1 (fr) | Procede et dispositif de detection de mouvement d'objets sur des images d'une scene | |
EP2729328A1 (fr) | Dispositif d'aide pour mettre à la disposition d'un conducteur, de façon anticipée, une image de synthèse représentative d'une zone choisie entourant son véhicule | |
FR2979311A1 (fr) | Dispositif de traitement pour associer a un element graphique une couleur en fonction d'un niveau de risque de collision d'un obstacle avec une trajectoire future d'un vehicule, pour un systeme d'aide a la conduite | |
EP2648963B1 (fr) | Dispositif d'aide permettant au conducteur d'un vehicule de verifier une zone de stationnement quittee | |
FR3055870A1 (fr) | Methode d'aide a la conduite, procede d'implementation d'une telle methode et dispositif d'aide a la conduite | |
FR3080075A1 (fr) | Procede et systeme d'aide au pilotage d'un vehicule | |
FR2926908A1 (fr) | Assistance a la conduite d'un vehicule automobile par une vue de dessus | |
WO2019052739A1 (fr) | Procédé d'affichage sur un écran d'un environnement d'un véhicule automobile, et véhicule automobile dans lequel un tel procédé est mis en œuvre | |
EP2193047B1 (fr) | Dispositif d'aide a la sortie de voie occultee | |
FR3054355B1 (fr) | Procede et systeme de determination d'un espace libre situe dans une zone d'environnement d'un vehicule automobile | |
EP2649586B1 (fr) | Dispositif de correction d'images réelles utiles à la construction d'une image de synthèse d'une zone environnant un véhicule, et dispositif d'aide au conducteur associé | |
EP2180426A1 (fr) | Procédé de détection d'un objet cible pour véhicule automobile | |
WO2017216465A1 (fr) | Procédé et dispositif de traitement d'images acquises par une caméra d'un véhicule automobile | |
FR3036204A1 (fr) | Procede et systeme de compensation d'erreurs pour un systeme de detection d'objets embarque sur un vehicule automobile | |
FR3070085B1 (fr) | Procede d’etalonnage d’une camera d’un vehicule automobile | |
FR3118253A1 (fr) | Système et procédé de calcul d’une image finale d’un environnement d’un véhicule | |
WO2021249809A1 (fr) | Procede de calibration d'une camera et dispositif associe |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PLSC | Publication of the preliminary search report |
Effective date: 20181228 |
|
PLFP | Fee payment |
Year of fee payment: 3 |
|
PLFP | Fee payment |
Year of fee payment: 4 |
|
PLFP | Fee payment |
Year of fee payment: 5 |
|
PLFP | Fee payment |
Year of fee payment: 6 |
|
CA | Change of address |
Effective date: 20221014 |
|
PLFP | Fee payment |
Year of fee payment: 7 |
|
PLFP | Fee payment |
Year of fee payment: 8 |