EP2377006A1 - Procédé de commande et système d'aide à la conduite associé - Google Patents

Procédé de commande et système d'aide à la conduite associé

Info

Publication number
EP2377006A1
EP2377006A1 EP09817299A EP09817299A EP2377006A1 EP 2377006 A1 EP2377006 A1 EP 2377006A1 EP 09817299 A EP09817299 A EP 09817299A EP 09817299 A EP09817299 A EP 09817299A EP 2377006 A1 EP2377006 A1 EP 2377006A1
Authority
EP
European Patent Office
Prior art keywords
vehicle
control
scene
dimensional scene
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
EP09817299A
Other languages
German (de)
English (en)
Inventor
Patrick Bonhoure
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dav SA
Original Assignee
Dav SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dav SA filed Critical Dav SA
Publication of EP2377006A1 publication Critical patent/EP2377006A1/fr
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/211Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays producing three-dimensional [3D] effects, e.g. stereoscopic images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/22Display screens
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/60Instruments characterised by their location or relative disposition in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/10Interpretation of driver requests or demands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/143Touch sensitive instrument input devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/143Touch sensitive instrument input devices
    • B60K2360/1438Touch screens

Definitions

  • the present invention relates to a control method in an on-board driving assistance system in a motor vehicle, and a driving assistance system for implementing such a method.
  • Motor vehicles are increasingly equipped with driver assistance systems, for example, the generation of audible or visual alerts in case of imminent dangerous situation (for example: exceeding of limit, obstacle %) or the detection of vehicles, pedestrians or obstacles in so-called blind spot areas.
  • driver assistance systems for example, the generation of audible or visual alerts in case of imminent dangerous situation (for example: exceeding of limit, obstacle 8) or the detection of vehicles, pedestrians or obstacles in so-called blind spot areas.
  • a driver assistance display method for a motor vehicle makes it possible to display, on a first part of a screen of the dashboard of the vehicle, all the images produced by four simultaneously. cameras projected on the ground to allow a bird's eye view of the immediate environment of the vehicle, itself being materialized by its image in plan view; and displaying on a large scale, on a second portion of the dashboard screen, simultaneously with the previous display, a complete view of one or more images as directly produced by the one or more cameras.
  • this representation is complex and can disrupt the understanding of the vehicle environment and thus interfere with a vehicle user to park for example.
  • the invention therefore aims to overcome the disadvantages of the prior art by providing more intuitive driver assistance systems.
  • the subject of the invention is a control method for an on-vehicle driving assistance system, said system comprising:
  • At least one camera for capturing video streams of the vehicle environment
  • control unit for generating a three-dimensional scene according to a predefined viewpoint comprising:
  • a screen for displaying the three-dimensional scene characterized in that said method comprises the following steps:
  • control method according to the invention may further comprise one or more of the following characteristics, taken separately or in combination:
  • said method comprises a step in which the control trajectory is compared with a set of predetermined control trajectories so as to determine the associated command to make vary the point of view,
  • control trajectory is associated with at least one command chosen from the group of commands comprising: a command for translational movement of the scene, a command for moving the scene in rotation, a tilt displacement command for the possible scene because the generated scene is three-dimensional, which makes it possible to define different angles of view,
  • control path is associated with a command for zooming
  • said trajectory is carried out by a user's finger for commands for moving in rotation or translation of the three-dimensional scene, said path is made by several fingers of the user for tilting or zooming commands of the three-dimensional scene.
  • the invention also relates to an on-board driving assistance system in a motor vehicle comprising: at least one camera for capturing video streams from the vehicle environment, a control unit for generating a three-dimensional scene according to a predefined viewpoint including:
  • At least one image obtained from the captured video streams, and a display screen of the generated three-dimensional scene characterized in that said system comprises at least one means adapted to capture a control path of a user on a tactile surface integrated in the display screen so as to define a command associated with said entered trajectory to vary the point of view of said scene.
  • the driving assistance system according to the invention may further comprise one or more of the following features, taken separately or in combination:
  • said touch surface comprises a transparent or translucent film
  • said system comprises:
  • a rear camera located at the center of the rear window of the vehicle and facing down from the vehicle and over the horizon.
  • the present invention therefore allows the user to act on the images displayed intuitively without being limited by predefined points of view.
  • FIG. 1 illustrates a vehicle equipped with a driving assistance system according to the invention
  • FIG. 2 schematically represents a driving assistance system
  • FIGS. 3a to 3c represent an example of virtual screens making it possible to generate a three-dimensional scene
  • FIG. 4 represents an example of a three-dimensional scene generated according to the invention
  • FIGS. 5a to 5f show examples of control paths in the driving assistance system of FIG. 1;
  • FIG. 6 illustrates the steps of a control method according to the invention.
  • this driver assistance system comprises:
  • a plurality of cameras 3a-3h for capturing video streams of the vehicle environment, a control unit for generating a three-dimensional scene according to a predefined point of view, and
  • the driver assistance system comprises a set of cameras 3, at the front, rear and on the sides. At the front, we can provide:
  • a camera 3f located at the rear view mirror of the vehicle directed substantially towards the front, or a front camera 3g located for example at the logo of the vehicle 1, directed substantially forwards.
  • the front cameras 3a and 3b, 3f, or 3g may have an opening angle of 60 ° or wide angle (for example 110 ° horizontal angle of view) or very wide angle (for example at an angle of view horizontal 170 °), and allow to see down vehicle 1 and above the horizon.
  • an opening angle of 60 ° or wide angle for example 110 ° horizontal angle of view
  • very wide angle for example at an angle of view horizontal 170 °
  • a rear camera 3c arranged for example in the handle of the trunk of the vehicle 1, or at the level of the license plate, making it possible to see towards the bottom of the vehicle 1 and above the horizon, and / or - a rear camera 3 hours above the rear window or at the third brake light of the vehicle 1, allowing to see down the vehicle 1 and more above the horizon that the rear camera 3c.
  • the rear cameras 3c, 3h may have a large opening angle (for example with a horizontal angle of view between 110 ° and 170 °).
  • the vehicle 1 comprises one or more cameras as described above.
  • the set of cameras 3 equipping the vehicle 1 comprises the front cameras 3a, 3b, the rear camera 3c, and the side cameras 3d, 3e.
  • control unit 5 comprises at least one processing means configured to generate a three-dimensional scene according to a predefined point of view, the three-dimensional scene comprising:
  • a three-dimensional representation 9 of the vehicle (FIGS. 3a to 3c), for example in the form of a closed line representing the outline of the vehicle 1 or alternatively in the form of a parallelepiped, this three-dimensional representation being arranged according to an orthogonal reference represented in FIG. 3b, comprising:
  • a longitudinal axis Y directed from the front to the rear of the three-dimensional representation 9, and a vertical axis Z directed from the bottom to the top of the three-dimensional representation 9.
  • control unit 5 comprises for example processing means configured to generate virtual screens 11a to Ile representative of a solid angle respectively observed by the cameras 3a to 3e of the vehicle.
  • These virtual screens 1 to I are represented in hatched lines in the figures
  • the shape of the virtual screens 11a, 11b, 11c, associated respectively with the front cameras 3a, 3b and rear 3c, is representative of the perspective in which they will be seen by a user of the vehicle, for example the driver.
  • the control unit 5 then makes it possible to project an image obtained from the video streams captured by the cameras 3a to 3e in a virtual screen 11a to associated island so as to generate the three-dimensional scene.
  • the virtual screens 1 Ia-I are in the same frame as the three-dimensional representation 9, that is to say that if the three-dimensional representation 9 moves during the display of the three-dimensional scene for example following a command to modify the scene, the virtual screens 1 Ia-I also move simultaneously with the three-dimensional representation 9.
  • the images provided by the cameras 3a-3e are thus dynamically integrated with the virtual screens 1a-1a with a deformation representative of the perspective according to which they will be seen by the user, according to the predetermined point of view.
  • a point of view of the scene is defined by the orientation of the three-dimensional scene and by the virtual screens.
  • a predefined viewpoint is an initial point of view that is not selected by the user and that is automatically displayed when the driver assistance system is started, or a point of view determined automatically by the system. driving assistance according to a particular event such as an obstacle detection in the environment of the vehicle or a maneuver of the vehicle like parking. For example, when the user is reversing, the environmental point of view at the rear of the vehicle is selected.
  • the driving assistance system may then include means for displaying the generated three-dimensional scene enabling the user to visualize this three-dimensional scene so as to have a real notion of the environment of his vehicle and thus better apprehend the vehicle in its environment when it performs for example a tricky maneuver such as park his vehicle.
  • An example of a display of such a three-dimensional scene is shown in FIG. 4.
  • the driver assistance system further comprises means adapted to enter a user's control trajectory on a touch surface 7 integrated in FIG. the display screen 13 and processing means configured to interpret the control trajectory entered on the touch surface 7 of the screen 13 so as to generate an associated control for modifying the three-dimensional scene.
  • the user then realizes a control trajectory directly on the part of the three-dimensional scene on which he wishes to act, which allows an intuitive use of the driver assistance system.
  • the associated control for modifying the three-dimensional scene makes it possible, for example, to vary the point of view of the three-dimensional scene.
  • Another example of an associated command for modifying the three-dimensional scene is a command for moving in translation the three-dimensional scene displayed on the display screen 13.
  • the term "tactile surface” means a film sensitive to a pressure of one or more supports.
  • the touch surface 7 may also comprise a transparent or translucent film.
  • control path can be achieved by means of a stylus or by one or more fingers of the user.
  • the tactile surface 7 comprises sensors configured to detect a support of a user and, depending on the force exerted, the position of the detected support and the releasing the support on the sensitive film forming a control path, triggering an associated control to vary the viewpoint of the three-dimensional scene.
  • sensors using pressure-sensitive resistors, also known as the FSR sensor for "Force Sensing Resistor”.
  • each finger can move clean or similar to the movement of other fingers. It is also possible to provide movements of the fingers in substantially parallel or opposite directions, or even displacements of the fingers in rotation in the same direction of rotation.
  • the touch surface 7 comprises multiple support sensors configured to simultaneously detect pressure and / or movements of the fingers in several places.
  • the control unit 5 is then adapted to simultaneously interpret these separate actions so as to determine the control path and thus the associated control to vary the point of view of the scene.
  • control trajectory can for example be associated with:
  • a control trajectory defined by a circular displacement is associated with a control of the rotation of the scene around an axis of rotation substantially parallel to the vertical axis Z.
  • the angle made by the user on the touch surface 7 is associated with a rotation angle of the three-dimensional scene
  • the direction of the control path is associated with a direction of rotational movement of the three-dimensional scene.
  • a control trajectory made by three fingers of the user is associated with a rectilinear movement (FIG. 5b) to an inclination control of the scene with respect to an axis substantially parallel to the transverse axis X, making it possible to move to a two-dimensional view of the scene.
  • This two-dimensional view represents for example a so-called bird view.
  • the length of the displacement made by the user on the touch surface 7 is associated with a displacement length of the three-dimensional scene or at a rotation angle of the three-dimensional scene
  • the direction of the control trajectory is associated with to the moving direction of the three-dimensional scene
  • the direction of the control path is associated with a sense of moving the three-dimensional scene or to a direction of rotation of the three-dimensional scene.
  • FIG. 5f to a control of rotation displacement of the scene about an axis of rotation substantially parallel to the vertical axis Z, according to a predefined angle, for example 180 °, which makes it possible to modify the point of view of the three-dimensional scene.
  • Figure 6 depicts the control method for varying the point of view of the three-dimensional scene.
  • a control associated with the control path is generated to vary the viewpoint of the three-dimensional scene.
  • the control trajectory thus allows the user to vary the viewpoint of the three-dimensional scene as he desires rather than by selecting a point of view from among a set of predefined viewpoints, so as to clearly visualize a viewpoint. precise area of the vehicle environment before making a maneuver, such as backing up or parking.
  • a step E3 can be provided in which the entered control path 15 is compared to a set of control paths. predetermined.
  • step E5 the command associated with the control trajectory seized on the touch-sensitive surface 7 is generated for a part of the three-dimensional scene, and in step E5, the three-dimensional scene is generated and displayed in real time according to the modified point of view.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Automation & Control Theory (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

L'invention concerne un procédé de commande pour un système d'aide à la conduite embarqué dans un véhicule (1), ledit système comportant : - au moins une caméra (3a,3b,3c,3d,3e,3f,3g,3h) pour capturer des flux vidéo de l'environnement du véhicule (1), - une unité de contrôle (5) pour générer une scène tridimensionnelle selon un point de vue prédéfini comprenant : • une représentation tridimensionnelle (9) du véhicule (1), et • au moins une image obtenue à partir des flux vidéo capturés, et - un écran d'affichage (13) de la scène tridimensionnelle générée. Selon l'invention, ledit procédé comprend les étapes suivantes : - on saisit une trajectoire (15) de commande sur une surface tactile (7) intégrée à l'écran d'affichage (13), - on génère une commande associée à ladite trajectoire (15) pour modifier ladite scène. L'invention concerne encore un système d'aide à la conduite pour la mise en œuvre d'un tel procédé.

Description

Procédé de commande et système d'aide à la conduite associé
La présente invention concerne un procédé de commande dans un système d'aide à la conduite embarqué dans un véhicule automobile, et un système d'aide à la conduite pour la mise en œuvre d'un tel procédé.
Les véhicules automobiles sont de plus en plus équipés de systèmes d'aide à la conduite permettant par exemple, la génération d'alertes sonores ou visuelles en cas de situation dangereuse imminente (par exemple : dépassement de limite, obstacle...) ou encore la détection de véhicules, de piétons ou d'obstacles dans les zones dites d'angle mort.
On connaît dans l'art antérieur un procédé d'affichage d'aide à la conduite pour véhicule automobile permettant d'afficher, sur une première partie d'un écran du tableau de bord du véhicule, simultanément l'ensemble des images produites par quatre caméras projetées au sol pour permettre une vision vue d'oiseau de l'environnement immédiat du véhicule, lui-même étant matérialisé par son image en vue de dessus ; et d'afficher à grande échelle, sur une deuxième partie de l'écran du tableau de bord, simultanément à l'affichage précédent, une vue complète d'une ou plusieurs images telles que produites directement par la ou les caméras.
Cet art antérieur présente les inconvénients suivants : - les images affichées sur l'écran sont fixes et ne peuvent pas être modifiées par l'utilisateur afin de mieux visualiser une zone précise de l'environnement du véhicule,
- de plus, cette représentation est complexe et peut perturber la bonne compréhension de l'environnement du véhicule et ainsi gêner un utilisateur du véhicule pour se garer par exemple.
Cette représentation n'est donc pas intuitive et nécessite une formation de l'utilisateur à un tel affichage d'aide à la conduite de l'art antérieur.
Ceci est en particulier un problème pour les véhicules de location. En effet, l'utilisateur d'un véhicule de location pour une courte durée n'a pas le temps de s'adapter à un tel affichage d'aide à la conduite pour pouvoir l'utiliser rapidement durant la conduite sans être déconcentré.
L'invention a donc pour but de palier les inconvénients de l'art antérieur en fournissant des systèmes d'aide à la conduite plus intuitifs.
À cet effet, l'invention a pour objet un procédé de commande pour un système d'aide à la conduite embarqué dans un véhicule, ledit système comportant :
- au moins une caméra pour capturer des flux vidéo de l'environnement du véhicule,
- une unité de contrôle pour générer une scène tridimensionnelle selon un point de vue prédéfini comprenant :
• une représentation tridimensionnelle du véhicule, et • au moins une image obtenue à partir des flux vidéo capturés, et
- un écran d'affichage de la scène tridimensionnelle, caractérisé en ce que ledit procédé comprend les étapes suivantes :
- on saisit une trajectoire de commande sur une surface tactile intégrée à l'écran d'affichage, - on génère une commande associée à ladite trajectoire pour modifier ladite scène.
Le procédé de commande selon l'invention peut en outre comporter une ou plusieurs caractéristiques suivantes, prises séparément ou en combinaison :
- la commande associée à ladite trajectoire permet de faire varier le point de vue de ladite scène, - ledit procédé comprend une étape dans laquelle on compare la trajectoire de commande à un ensemble de trajectoires de commande prédéterminées de manière à déterminer la commande associée pour faire varier le point de vue,
- la trajectoire de commande est associée à au moins une commande choisie parmi le groupe de commandes comportant : une commande de déplacement en translation de la scène, une commande de déplacement en rotation de la scène, une commande de déplacement en inclinaison de la scène possible du fait que la scène générée soit tridimensionnelle ce qui permet de définir différents angles de vue,
- la trajectoire de commande est associée à une commande pour réaliser un zoom,
- ladite trajectoire est réalisée par un doigt de l'utilisateur pour des commandes de déplacement en rotation ou translation de la scène tridimensionnelle, - ladite trajectoire est réalisée par plusieurs doigts de l'utilisateur pour des commandes de déplacement en inclinaison ou de zoom de la scène tridimensionnelle.
L'invention a également pour objet un système d'aide à la conduite embarqué dans un véhicule automobile comportant : - au moins une caméra pour capturer des flux vidéo de l'environnement du véhicule, une unité de contrôle pour générer une scène tridimensionnelle selon un point de vue prédéfini comprenant :
• une représentation tridimensionnelle du véhicule, et
• au moins une image obtenue à partir des flux vidéo capturés, et - un écran d'affichage de la scène tridimensionnelle générée, caractérisé en ce que ledit système comporte au moins un moyen adapté pour saisir une trajectoire de commande d'un utilisateur sur une surface tactile intégrée à l'écran d'affichage de manière à définir une commande associée à ladite trajectoire saisie pour faire varier le point de vue de ladite scène. Le système d'aide à la conduite selon l'invention peut en outre comporter une ou plusieurs caractéristiques suivantes, prises séparément ou en combinaison :
- ladite surface tactile comporte un film transparent ou translucide,
- ledit système comporte :
• une caméra avant disposée au niveau du centre du pare-choc avant du véhicule, et dirigée vers le bas du véhicule et au-dessus de l'horizon,
• deux caméras latérales, chacune étant disposée au niveau d'un rétroviseur extérieur du véhicule, et dirigée vers le bas du véhicule, et
• une caméra arrière disposée au niveau du centre de la fenêtre arrière du véhicule et dirigée vers le bas du véhicule et au-dessus de l'horizon. La présente invention permet donc à l'utilisateur d'agir sur les images affichées de manière intuitive sans être limité par des points de vue prédéfinis.
D'autres caractéristiques et avantages de l'invention ressortiront de la description suivante, donnée à titre d'exemple, sans caractère limitatif, en regard des dessins annexés sur lesquels : -A-
- la figure 1 illustre un véhicule équipé d'un système d'aide à la conduite selon l'invention,
- la figure 2 représente de façon schématique un système d'aide à la conduite,
- les figures 3a à 3c représentent un exemple d'écrans virtuels permettant de générer une scène tridimensionnelle,
- la figure 4 représente un exemple d'une scène tridimensionnelle générée selon l'invention,
- les figures 5a à 5 f représentent des exemples de trajectoires de commande dans le système d'aide à la conduite de la figure 1 , - la figure 6 illustre les étapes d'un procédé de commande selon l'invention.
Sur la figure 1, on a représenté un véhicule 1 équipé d'un système d'aide à la conduite. En se référant aux figures 1 et 2, ce système d'aide à la conduite comporte :
- une pluralité de caméras 3a-3h pour capturer des flux vidéo de l'environnement du véhicule, - une unité de contrôle 5 pour générer une scène tridimensionnelle selon un point de vue prédéfini, et
- un écran d'affichage 13 de la scène tridimensionnelle.
Le système d'aide à la conduite comporte un ensemble de caméras 3, à l'avant, à l'arrière et sur les côtés. A l'avant, on peut prévoir :
- deux caméras avant 3a,3b, agencées sur les côtés du pare-choc avant du véhicule 1, chacune étant dirigée sensiblement vers un côté associé et vers l'avant,
- une caméra 3f située au niveau du rétroviseur intérieur du véhicule dirigée sensiblement vers l'avant, ou encore - une caméra avant 3g située par exemple au niveau du logo du véhicule 1, dirigée sensiblement vers l'avant.
Les caméras avant 3 a et 3b, 3 f, ou 3 g peuvent présenter un angle d'ouverture de 60° ou grand angle (par exemple à angle de vue horizontal de 110°) ou très grand angle (par exemple à angle de vue horizontal de 170°), et permettent de voir vers le bas du véhicule 1 et au-dessus de l'horizon. A l'arrière, on peut prévoir :
- une caméra arrière 3c, agencée par exemple dans la poignée du coffre du véhicule 1, ou au niveau de la plaque d'immatriculation, permettant de voir vers le bas du véhicule 1 et au dessus de l'horizon, et/ou - une caméra arrière 3 h au dessus de la fenêtre arrière ou au niveau du troisième feu stop du véhicule 1, permettant de voir vers le bas du véhicule 1 et plus au dessus de l'horizon que la caméra arrière 3c.
Les caméras arrière 3c, 3h peuvent présenter un grand angle d'ouverture (par exemple avec un angle de vue horizontal entre 110° et 170°). De plus, on peut prévoir deux caméras latérales 3d, 3e, agencées respectivement au niveau du rétroviseur extérieur sur chaque coté du véhicule. Ces caméras latérales 3d,3e peuvent avoir un très grand angle (par exemple à angle de vue horizontal de 110°), et pointent vers le bas.
Le véhicule 1 comporte une ou plusieurs caméras telles que décrites précédemment. Dans la suite de la description, on choisit un exemple dans lequel l'ensemble de caméras 3 équipant le véhicule 1 comporte les caméras avant 3a,3b, la caméra arrière 3c, et les caméras latérales 3d,3e.
Par ailleurs, l'unité de contrôle 5 comprend au moins un moyen de traitement configuré pour générer une scène tridimensionnelle selon un point de vue prédéfini, la scène tridimensionnelle comprenant :
- au moins une image obtenue à partir des flux vidéo capturés, et
- une représentation tridimensionnelle 9 du véhicule (figures 3a à 3c), par exemple sous la forme d'un trait fermé représentant le contour du véhicule 1 ou en variante sous la forme d'un parallélépipède, cette représentation tridimensionnelle étant agencée suivant un repère orthogonal représenté sur la figure 3b, comportant :
• un axe transversal X dirigé de la gauche vers la droite de la représentation tridimensionnelle 9,
• un axe longitudinal Y dirigé de l'avant vers l'arrière de la représentation tridimensionnelle 9, et « un axe vertical Z dirigé du bas vers le haut de la représentation tridimensionnelle 9.
Pour générer cette scène tridimensionnelle, l'unité de contrôle 5 comporte par exemple des moyens de traitement configurés pour générer des écrans virtuels lia à Ile représentatifs d'un angle solide observé respectivement par les caméras 3a à 3e du véhicule. Ces écrans virtuels 1 la à I le sont représentés en traits hachurés sur les figures
3a à 3c.
Comme on peut le voir sur les figures 3 a et 3b, la forme des écrans virtuels lia, 11b, lie associés respectivement aux caméras avant 3a,3b et arrière 3c, est représentative de la perspective sous laquelle ils vont être vus par un utilisateur du véhicule, par exemple le conducteur.
En ce qui concerne les caméras latérales 3d et 3e (figure 3c), on choisit d'associer des écrans virtuels 1 Id et I le représentatifs d'une image au sol.
L'unité de contrôle 5 permet alors de projeter une image obtenue à partir des flux vidéo capturés par les caméras 3a à 3e dans un écran virtuel lia à Ile associé de manière à générer la scène tridimensionnelle.
En outre, selon un exemple de réalisation, les écrans virtuels 1 Ia-I le se trouvent dans le même référentiel que la représentation tridimensionnelle 9, c'est-à-dire que si la représentation tridimensionnelle 9 se déplace lors de l'affichage de la scène tridimensionnelle par exemple suite à une commande pour modifier la scène, les écrans virtuels 1 Ia-I le se déplacent également simultanément avec la représentation tridimensionnelle 9.
Les images fournies par les caméras 3a-3e sont ainsi dynamiquement intégrées aux écrans virtuels 1 Ia-I le avec une déformation représentative de la perspective selon laquelle ils vont être vus par l'utilisateur, selon le point de vue prédéterminé. Ainsi un point de vue de la scène est défini par l'orientation de la scène tridimensionnelle et par les écrans virtuels.
On entend par point de vue prédéfini, un point de vue initial non sélectionné par l'utilisateur qui s'affiche automatiquement lorsque le système d'aide à la conduite est mis en route, ou encore un point de vue déterminé automatiquement par le système d'aide à la conduite en fonction d'un événement particulier tel qu'une détection d'obstacles dans l'environnement du véhicule ou encore une manœuvre du véhicule comme se garer. Par exemple, lorsque l'utilisateur effectue une marche arrière, le point de vue de l'environnement à l'arrière du véhicule est sélectionné.
Le système d'aide à la conduite peut alors comporter un moyen d'affichage 13 de la scène tridimensionnelle générée permettant à l'utilisateur de visualiser cette scène tridimensionnelle de manière à avoir une notion réelle de l'environnement de son véhicule et ainsi de mieux appréhender le véhicule dans son environnement lorsqu'il effectue par exemple une manœuvre délicate telle que garer son véhicule. Un exemple d'affichage d'une telle scène tridimensionnelle est représentée sur la figure 4. Le système d'aide à la conduite comporte en outre un moyen adapté pour saisir une trajectoire 15 de commande d'un utilisateur sur une surface tactile 7 intégrée à l'écran d'affichage 13 et des moyens de traitement configurés pour interpréter la trajectoire 15 de commande saisie sur la surface tactile 7 de l'écran 13 de manière à générer une commande associée pour modifier la scène tridimensionnelle. L'utilisateur réalise alors une trajectoire 15 de commande directement sur la partie de la scène tridimensionnelle sur laquelle il souhaite agir, ce qui permet une utilisation intuitive du système d'aide à la conduite.
La commande associée pour modifier la scène tridimensionnelle permet par exemple de faire varier le point de vue de la scène tridimensionnelle. Un autre exemple de commande associée pour modifier la scène tridimensionnelle est une commande pour déplacer en translation la scène tridimensionnelle affichée sur l'écran d'affichage 13.
On entend par surface tactile un film sensible à une pression d'un ou de plusieurs appuis. La surface tactile 7 peut également comporter un film transparent ou translucide.
En outre, la trajectoire 15 de commande peut être réalisée à l'aide d'un stylet ou encore par un ou plusieurs doigts de l'utilisateur.
Lorsque l'utilisateur réalise une trajectoire 15 de commande avec un doigt ou un stylet, la surface tactile 7 comporte des capteurs configurés pour détecter un appui d'un utilisateur et, en fonction de l'effort exercé, la position de l'appui détecté et le dép lacement de l'appui sur le film sensible formant une trajectoire 15 de commande, de déclencher une commande associée pour faire varier le point de vue de la scène tridimensionnelle. Pour cela, on prévoit par exemple des capteurs utilisant des résistances sensibles à la pression, également connus sous le nom de capteur FSR pour "Force Sensing Resistor".
Lorsque l'utilisateur réalise une trajectoire 15 de commande avec plusieurs doigts, chaque doigt peut effectuer un déplacement propre ou similaire au déplacement d'autres doigts. On peut également prévoir des déplacements des doigts selon des directions sensiblement parallèles ou opposées, ou encore des déplacements des doigts en rotation dans un même sens de rotation.
Dans ce cas, la surface tactile 7 comporte des capteurs d'appuis multiples configurés pour détecter simultanément à plusieurs endroits des pressions et/ou les déplacements des doigts. L'unité de contrôle 5 est alors adaptée pour interpréter simultanément ces actions séparées de manière à déterminer la trajectoire de commande et ainsi la commande associée pour faire varier le point de vue de la scène.
On cite comme exemples de déplacements définissant des trajectoires de commande réalisées par l'utilisateur :
- un déplacement circulaire réalisé par un premier doigt de l'utilisateur pendant qu'un deuxième doigt de l'utilisateur reste fixe (figure 5a), - un déplacement rectiligne réalisé par plusieurs doigts de l'utilisateur suivant des directions sensiblement parallèles (figures 5b, 5c,5d),
- des déplacements rectilignes réalisés par deux doigts de l'utilisateur suivant des directions opposées (figure 5e),
- des déplacements circulaires réalisés par deux doigts de l'utilisateur dans un même sens de rotation (figure 5f).
Par ailleurs, une trajectoire 15 de commande peut par exemple être associée à :
- une commande de déplacement en translation de la scène,
- une commande de déplacement en rotation de la scène,
- une commande d'inclinaison de la scène, ou encore - une commande pour réaliser un zoom. Selon un exemple de réalisation, on associe une trajectoire de commande définie par un déplacement circulaire (figure 5a) à une commande de déplacement en rotation de la scène autour d'un axe de rotation sensiblement parallèle à l'axe vertical Z. Dans ce cas, l'angle réalisé par l'utilisateur sur la surface tactile 7 est associé à un angle de rotation de la scène tridimensionnelle, et le sens de la trajectoire 15 de commande est associée à un sens de déplacement en rotation de la scène tridimensionnelle.
En variante, on associe une trajectoire de commande réalisée par trois doigts de l'utilisateur suivant un déplacement rectiligne (figure 5b) à une commande d'inclinaison de la scène par rapport à un axe sensiblement parallèle à l'axe transversal X, permettant de passer à une vue bidimensionnelle de la scène. Cette vue bidimensionnelle représente par exemple une vue dite d'oiseau.
On peut encore associer une trajectoire de commande réalisée par deux doigts de l'utilisateur suivant un déplacement rectiligne :
- vers le bas (figure 5c) à une commande de déplacement en translation vers le bas de la scène tridimensionnelle en gardant le même point de vue, ou encore à une commande de déplacement en rotation de la scène autour d'un axe de rotation sensiblement parallèle à l'axe vertical Z, modifiant le point de vue de la scène tridimensionnelle,
- vers la droite (figure 5d) à une commande de déplacement en translation vers la droite de la scène tridimensionnelle en gardant le même point de vue, ou encore à une commande de déplacement en rotation de la scène autour d'un axe de rotation sensiblement parallèle à l'axe longitudinal Y, modifiant le point de vue de la scène tridimensionnelle.
Bien entendu, on peut prévoir de façon similaire, des commandes de déplacement de la scène tridimensionnelle vers le haut et vers la gauche.
Dans ces exemples, la longueur du déplacement réalisé par l'utilisateur sur la surface tactile 7 est associée à une longueur de déplacement de la scène tridimensionnelle ou à un angle de rotation de la scène tridimensionnelle, la direction de la trajectoire 15 de commande est associée à la direction de déplacement de la scène tridimensionnelle et le sens de la trajectoire 15 de commande est associée à un sens de déplacement de la scène tridimensionnelle ou à un sens de rotation de la scène tridimensionnelle .
On peut également associer une trajectoire 15 de commande réalisée par deux doigts de l'utilisateur suivant des déplacements rectilignes de directions opposées de manière à créer un écartement entre les deux doigts de l'utilisateur (figure 5e) à une commande de zoom avant, qui permet de modifier le point de vue de la scène tridimensionnelle. Dans ce cas, l'écartement entre les deux doigts de l'utilisateur sur la surface tactile 7 est associée à un pourcentage de zoom avant de la scène tridimensionnelle. Bien entendu, on peut prévoir de façon similaire une commande de zoom arrière de la scène tridimensionnelle.
On peut aussi associer une trajectoire 15 de commande réalisée par deux doigts de l'utilisateur suivant des déplacements circulaires selon un même sens de rotation
(figure 5f) à une commande de déplacement en rotation de la scène autour d'un axe de rotation sensiblement parallèle à l'axe vertical Z, selon un angle prédéfini, par exemple 180°, qui permet de modifier le point de vue de la scène tridimensionnelle.
La figure 6 décrit le procédé de commande permettant de faire varier le point de vue de la scène tridimensionnelle.
À cet effet, lors d'une première étape E Ion saisit une commande d'entrée réalisée par un utilisateur sous la forme d'une trajectoire 15 de commande sur la surface tactile 7.
Par la suite, on génère une commande associée à la trajectoire 15 de commande pour faire varier le point de vue de la scène tridimensionnelle.
La trajectoire 15 de commande permet donc à l'utilisateur de faire varier le point de vue de la scène tridimensionnelle comme il le désire plutôt qu'en sélectionnant un point de vue parmi un ensemble de points de vue prédéfinis, de manière à bien visualiser une zone précise de l'environnement du véhicule avant de faire une manœuvre, comme reculer ou se garer.
Afin de déterminer la commande associée à la trajectoire 15 de commande saisie pour faire varier le point de vue, on peut prévoir une étape E3 dans laquelle on compare la trajectoire 15 de commande saisie à un ensemble de trajectoires de commande prédéterminées.
Enfin, on génère la commande associée à la trajectoire 15 de commande saisie sur la surface tactile 7 pour une partie de la scène tridimensionnelle et à l'étape E5 on génère et on affiche en temps réel la scène tridimensionnelle selon le point de vue modifié.
On comprend donc qu'avec un tel procédé l'utilisateur peut agir sur la scène tridimensionnelle affichée de manière intuitive et n'est pas limité par des points de vue prédéfinis de la scène.

Claims

REVENDICATIONS
1. Procédé de commande pour un système d'aide à la conduite embarqué dans un véhicule (1), ledit système comportant : - au moins une caméra (3a,3b,3c,3d,3e,3f,3g,3h) pour capturer des flux vidéo de l'environnement du véhicule (1),
- une unité de contrôle (5) pour générer une scène tridimensionnelle selon un point de vue prédéfini comprenant :
• une représentation tridimensionnelle (9) du véhicule (1), et • au moins une image obtenue à partir des flux vidéo capturés, et
- un écran d'affichage (13) de la scène tridimensionnelle générée, caractérisé en ce que ledit procédé comprend les étapes suivantes:
- on saisit une trajectoire (15) de commande sur une surface tactile (7) intégrée à l'écran d'affichage (13), - on génère une commande associée à ladite trajectoire (15) pour modifier ladite scène.
2. Procédé selon la revendication 1, caractérisé en ce que la commande associée à ladite trajectoire (15) permet de faire varier le point de vue de ladite scène.
3. Procédé selon l'une des revendications 1 ou 2, caractérisé en ce qu'il comprend une étape (E3) dans laquelle on compare la trajectoire (15) de commande à un ensemble de trajectoires de commande prédéterminées de manière à déterminer la commande associée pour modifier ladite scène.
4. Procédé selon l'une quelconque des revendications 1 à 3, caractérisé en ce que la trajectoire de commande est associée à au moins une commande choisie parmi le groupe de commandes comportant : une commande de déplacement en translation de la scène, une commande de déplacement en rotation de la scène, une commande d'inclinaison de la scène.
5. Procédé selon l'une quelconque des revendications 1 à 4, caractérisé en ce que la trajectoire de commande est associée à une commande pour réaliser un zoom.
6. Procédé selon la revendication 4, caractérisé en ce que ladite trajectoire (15) est réalisée par un doigt de l'utilisateur pour des commandes de translation, rotation de la scène tridimensionnelle.
7. Procédé selon l'une quelconque des revendications 4 à 6, caractérisé en ce que ladite trajectoire (15) est réalisée par plusieurs doigts de l'utilisateur pour des commandes de zoom ou d'inclinaison de la scène tridimensionnelle.
8. Système d'aide à la conduite embarqué dans un véhicule (1) automobile comportant :
- au moins une caméra (3a,3b,3c,3d,3e,3f,3g,3h) pour capturer des flux vidéo de l'environnement du véhicule (1),
- une unité de contrôle (5) pour générer une scène tridimensionnelle selon un point de vue prédéfini comprenant :
• une représentation tridimensionnelle (9) du véhicule (1), et
• au moins une image obtenue à partir des flux vidéo capturés, et - un écran d'affichage (13) de la scène tridimensionnelle générée, caractérisé en ce que ledit système comporte au moins un moyen adapté pour saisir une trajectoire (15) de commande d'un utilisateur sur une surface tactile (7) intégrée à l'écran d'affichage (13) de manière à définir une commande associée à ladite trajectoire (15) saisie pour faire varier le point de vue de ladite scène.
9. Système selon la revendication 8, caractérisé en ce que ladite surface tactile (7) comporte un film transparent ou translucide.
10. Système selon l'une des revendications 8 ou 9, caractérisé en ce qu'il comporte : - une caméra avant (3g) disposée au niveau du centre du pare-choc avant du véhicule (1), et dirigée vers le bas du véhicule et au-dessus de l'horizon,
- deux caméras latérales (3d),(3e), chacune étant disposée au niveau d'un rétroviseur extérieur du véhicule (1), et dirigée vers le bas du véhicule, et - une caméra arrière (3c) disposée au niveau du centre de la fenêtre arrière du véhicule (1), et dirigée vers le bas du véhicule et au-dessus de l'horizon.
EP09817299A 2008-09-30 2009-09-30 Procédé de commande et système d'aide à la conduite associé Withdrawn EP2377006A1 (fr)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR0805362A FR2936479B1 (fr) 2008-09-30 2008-09-30 Procede de commande et systeme d'aide a la conduite associe
PCT/EP2009/062715 WO2010037795A1 (fr) 2008-09-30 2009-09-30 Procédé de commande et système d'aide à la conduite associé

Publications (1)

Publication Number Publication Date
EP2377006A1 true EP2377006A1 (fr) 2011-10-19

Family

ID=40474695

Family Applications (1)

Application Number Title Priority Date Filing Date
EP09817299A Withdrawn EP2377006A1 (fr) 2008-09-30 2009-09-30 Procédé de commande et système d'aide à la conduite associé

Country Status (3)

Country Link
EP (1) EP2377006A1 (fr)
FR (1) FR2936479B1 (fr)
WO (1) WO2010037795A1 (fr)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2970354B1 (fr) * 2010-10-21 2013-04-26 Dav Procede de commande et dispositif de commande associe.
JP2015193280A (ja) * 2014-03-31 2015-11-05 富士通テン株式会社 車両制御装置及び車両制御方法
CN108789453A (zh) * 2018-08-17 2018-11-13 成都跟驰科技有限公司 带有折叠机械臂的汽车的触屏控制系统
CN109278744B (zh) * 2018-10-24 2020-07-07 广州小鹏汽车科技有限公司 一种自动泊车方法及车辆控制系统
CN112550305A (zh) * 2020-12-18 2021-03-26 雄狮汽车科技(南京)有限公司 基于三维模型的汽车控制方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1408693A1 (fr) * 1998-04-07 2004-04-14 Matsushita Electric Industrial Co., Ltd. Appareil de visualisation embarqué, système de transmission d'image, appareil de transmission d'image, et appareil de capture d'image
EP2259220A3 (fr) * 1998-07-31 2012-09-26 Panasonic Corporation Procédé et appareil d'affichage d'images
US7366595B1 (en) * 1999-06-25 2008-04-29 Seiko Epson Corporation Vehicle drive assist system
JP2003300444A (ja) * 2002-04-11 2003-10-21 Hitachi Ltd 移動体の運転支援装置
GB0302837D0 (en) * 2003-02-07 2003-03-12 Ford Global Tech Inc Vehicle steering aids
JP5210497B2 (ja) * 2006-04-12 2013-06-12 クラリオン株式会社 ナビゲーション装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See references of WO2010037795A1 *

Also Published As

Publication number Publication date
FR2936479A1 (fr) 2010-04-02
WO2010037795A1 (fr) 2010-04-08
FR2936479B1 (fr) 2010-10-15

Similar Documents

Publication Publication Date Title
JP6806156B2 (ja) 周辺監視装置
EP2133237B1 (fr) Procédé d'affichage d'aide au parking
EP1724153B1 (fr) Dispositif d'éclairage ou de signalisation de véhicule automobile
FR2711593A1 (fr) Dispositif de surveillance de l'espace arrière, respectivement avant d'un véhicule automobile en manÓoeuvre de stationnement.
EP2377006A1 (fr) Procédé de commande et système d'aide à la conduite associé
EP2094531B1 (fr) Dispositif retroviseur electronique
FR3016573B1 (fr) Installation de retroviseur de vehicule
WO2019091920A1 (fr) Procede d'affichage d'une image de l'environnement d'un vehicle sur un ecran tactile equipant le vehicule
EP2729328B1 (fr) Dispositif d'aide pour mettre à la disposition d'un conducteur, de façon anticipée, une image de synthèse représentative d'une zone choisie entourant son véhicule
FR3128916A1 (fr) Dispositif de commande d’affichage et procédé de commande d’affichage
FR3047942A1 (fr) Dispositif d'eclairage interieur d'un habitacle de vehicule automobile
FR3040029A1 (fr) Systeme d’aide a la conduite pour un vehicule pourvu d’un systeme de retrovision numerique adaptable pour manoeuvre de recul
EP3700780B1 (fr) Système de rétrovision vidéo perfectionné pour véhicule automobile
FR3067669A1 (fr) Systeme de retrovision numerique pour vehicule automobile a reglage facilite
FR3051163B1 (fr) Systeme de visualisation d'au moins un flux d'images sur un ecran dans un vehicule
WO2020007624A1 (fr) Dispositif de retrovision panoramique par cameras avec affichage tete-haute
EP3682320A1 (fr) Procédé d'affichage sur un écran d'un environnement d'un véhicule automobile, et véhicule automobile dans lequel un tel procédé est mis en oeuvre
EP2193047B1 (fr) Dispositif d'aide a la sortie de voie occultee
FR2956364A1 (fr) Dispositif d'aide aux manoeuvres d'un vehicule par affichage de points de vue fonction de la position de la tete du conducteur
FR3107483A1 (fr) Vehicule avec retrovision numerique a affichage reglable
EP3110661B1 (fr) Dispositif d'aide au stationnement à détection d'entrée ou de sortie de zone de stationnement, pour un conducteur de véhicule
FR3093968A1 (fr) Système de rétrovision pour véhicule comprenant une pluralité d’appareils de prise de vue et un calculateur
FR3110511A1 (fr) Système de visualisation de véhicule comprenant un dispositif d’affichage mobile entre une position portrait et une position paysage
FR3079790A1 (fr) Dispositif de retrovision pour un vehicule
FR3083331A1 (fr) Dispositif de realite augmentee pour vehicule

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

17P Request for examination filed

Effective date: 20110823

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO SE SI SK SM TR

DAX Request for extension of the european patent (deleted)
17Q First examination report despatched

Effective date: 20120606

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE APPLICATION IS DEEMED TO BE WITHDRAWN

18D Application deemed to be withdrawn

Effective date: 20121017