WO2010037795A1 - Method of control and associated driving aid system - Google Patents

Method of control and associated driving aid system Download PDF

Info

Publication number
WO2010037795A1
WO2010037795A1 PCT/EP2009/062715 EP2009062715W WO2010037795A1 WO 2010037795 A1 WO2010037795 A1 WO 2010037795A1 EP 2009062715 W EP2009062715 W EP 2009062715W WO 2010037795 A1 WO2010037795 A1 WO 2010037795A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
control
scene
dimensional scene
dimensional
Prior art date
Application number
PCT/EP2009/062715
Other languages
French (fr)
Inventor
Patrick Bonhoure
Original Assignee
Dav
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dav filed Critical Dav
Priority to EP09817299A priority Critical patent/EP2377006A1/en
Publication of WO2010037795A1 publication Critical patent/WO2010037795A1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/10Interpretation of driver requests or demands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/143Touch sensitive instrument input devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/143Touch sensitive instrument input devices
    • B60K2360/1438Touch screens

Definitions

  • the present invention relates to a control method in an on-board driving assistance system in a motor vehicle, and a driving assistance system for implementing such a method.
  • Motor vehicles are increasingly equipped with driver assistance systems, for example, the generation of audible or visual alerts in case of imminent dangerous situation (for example: exceeding of limit, obstacle %) or the detection of vehicles, pedestrians or obstacles in so-called blind spot areas.
  • driver assistance systems for example, the generation of audible or visual alerts in case of imminent dangerous situation (for example: exceeding of limit, obstacle 8) or the detection of vehicles, pedestrians or obstacles in so-called blind spot areas.
  • a driver assistance display method for a motor vehicle makes it possible to display, on a first part of a screen of the dashboard of the vehicle, all the images produced by four simultaneously. cameras projected on the ground to allow a bird's eye view of the immediate environment of the vehicle, itself being materialized by its image in plan view; and displaying on a large scale, on a second portion of the dashboard screen, simultaneously with the previous display, a complete view of one or more images as directly produced by the one or more cameras.
  • this representation is complex and can disrupt the understanding of the vehicle environment and thus interfere with a vehicle user to park for example.
  • the invention therefore aims to overcome the disadvantages of the prior art by providing more intuitive driver assistance systems.
  • the subject of the invention is a control method for an on-vehicle driving assistance system, said system comprising:
  • At least one camera for capturing video streams of the vehicle environment
  • control unit for generating a three-dimensional scene according to a predefined viewpoint comprising:
  • a screen for displaying the three-dimensional scene characterized in that said method comprises the following steps:
  • control method according to the invention may further comprise one or more of the following characteristics, taken separately or in combination:
  • said method comprises a step in which the control trajectory is compared with a set of predetermined control trajectories so as to determine the associated command to make vary the point of view,
  • control trajectory is associated with at least one command chosen from the group of commands comprising: a command for translational movement of the scene, a command for moving the scene in rotation, a tilt displacement command for the possible scene because the generated scene is three-dimensional, which makes it possible to define different angles of view,
  • control path is associated with a command for zooming
  • said trajectory is carried out by a user's finger for commands for moving in rotation or translation of the three-dimensional scene, said path is made by several fingers of the user for tilting or zooming commands of the three-dimensional scene.
  • the invention also relates to an on-board driving assistance system in a motor vehicle comprising: at least one camera for capturing video streams from the vehicle environment, a control unit for generating a three-dimensional scene according to a predefined viewpoint including:
  • At least one image obtained from the captured video streams, and a display screen of the generated three-dimensional scene characterized in that said system comprises at least one means adapted to capture a control path of a user on a tactile surface integrated in the display screen so as to define a command associated with said entered trajectory to vary the point of view of said scene.
  • the driving assistance system according to the invention may further comprise one or more of the following features, taken separately or in combination:
  • said touch surface comprises a transparent or translucent film
  • said system comprises:
  • a rear camera located at the center of the rear window of the vehicle and facing down from the vehicle and over the horizon.
  • the present invention therefore allows the user to act on the images displayed intuitively without being limited by predefined points of view.
  • FIG. 1 illustrates a vehicle equipped with a driving assistance system according to the invention
  • FIG. 2 schematically represents a driving assistance system
  • FIGS. 3a to 3c represent an example of virtual screens making it possible to generate a three-dimensional scene
  • FIG. 4 represents an example of a three-dimensional scene generated according to the invention
  • FIGS. 5a to 5f show examples of control paths in the driving assistance system of FIG. 1;
  • FIG. 6 illustrates the steps of a control method according to the invention.
  • this driver assistance system comprises:
  • a plurality of cameras 3a-3h for capturing video streams of the vehicle environment, a control unit for generating a three-dimensional scene according to a predefined point of view, and
  • the driver assistance system comprises a set of cameras 3, at the front, rear and on the sides. At the front, we can provide:
  • a camera 3f located at the rear view mirror of the vehicle directed substantially towards the front, or a front camera 3g located for example at the logo of the vehicle 1, directed substantially forwards.
  • the front cameras 3a and 3b, 3f, or 3g may have an opening angle of 60 ° or wide angle (for example 110 ° horizontal angle of view) or very wide angle (for example at an angle of view horizontal 170 °), and allow to see down vehicle 1 and above the horizon.
  • an opening angle of 60 ° or wide angle for example 110 ° horizontal angle of view
  • very wide angle for example at an angle of view horizontal 170 °
  • a rear camera 3c arranged for example in the handle of the trunk of the vehicle 1, or at the level of the license plate, making it possible to see towards the bottom of the vehicle 1 and above the horizon, and / or - a rear camera 3 hours above the rear window or at the third brake light of the vehicle 1, allowing to see down the vehicle 1 and more above the horizon that the rear camera 3c.
  • the rear cameras 3c, 3h may have a large opening angle (for example with a horizontal angle of view between 110 ° and 170 °).
  • the vehicle 1 comprises one or more cameras as described above.
  • the set of cameras 3 equipping the vehicle 1 comprises the front cameras 3a, 3b, the rear camera 3c, and the side cameras 3d, 3e.
  • control unit 5 comprises at least one processing means configured to generate a three-dimensional scene according to a predefined point of view, the three-dimensional scene comprising:
  • a three-dimensional representation 9 of the vehicle (FIGS. 3a to 3c), for example in the form of a closed line representing the outline of the vehicle 1 or alternatively in the form of a parallelepiped, this three-dimensional representation being arranged according to an orthogonal reference represented in FIG. 3b, comprising:
  • a longitudinal axis Y directed from the front to the rear of the three-dimensional representation 9, and a vertical axis Z directed from the bottom to the top of the three-dimensional representation 9.
  • control unit 5 comprises for example processing means configured to generate virtual screens 11a to Ile representative of a solid angle respectively observed by the cameras 3a to 3e of the vehicle.
  • These virtual screens 1 to I are represented in hatched lines in the figures
  • the shape of the virtual screens 11a, 11b, 11c, associated respectively with the front cameras 3a, 3b and rear 3c, is representative of the perspective in which they will be seen by a user of the vehicle, for example the driver.
  • the control unit 5 then makes it possible to project an image obtained from the video streams captured by the cameras 3a to 3e in a virtual screen 11a to associated island so as to generate the three-dimensional scene.
  • the virtual screens 1 Ia-I are in the same frame as the three-dimensional representation 9, that is to say that if the three-dimensional representation 9 moves during the display of the three-dimensional scene for example following a command to modify the scene, the virtual screens 1 Ia-I also move simultaneously with the three-dimensional representation 9.
  • the images provided by the cameras 3a-3e are thus dynamically integrated with the virtual screens 1a-1a with a deformation representative of the perspective according to which they will be seen by the user, according to the predetermined point of view.
  • a point of view of the scene is defined by the orientation of the three-dimensional scene and by the virtual screens.
  • a predefined viewpoint is an initial point of view that is not selected by the user and that is automatically displayed when the driver assistance system is started, or a point of view determined automatically by the system. driving assistance according to a particular event such as an obstacle detection in the environment of the vehicle or a maneuver of the vehicle like parking. For example, when the user is reversing, the environmental point of view at the rear of the vehicle is selected.
  • the driving assistance system may then include means for displaying the generated three-dimensional scene enabling the user to visualize this three-dimensional scene so as to have a real notion of the environment of his vehicle and thus better apprehend the vehicle in its environment when it performs for example a tricky maneuver such as park his vehicle.
  • An example of a display of such a three-dimensional scene is shown in FIG. 4.
  • the driver assistance system further comprises means adapted to enter a user's control trajectory on a touch surface 7 integrated in FIG. the display screen 13 and processing means configured to interpret the control trajectory entered on the touch surface 7 of the screen 13 so as to generate an associated control for modifying the three-dimensional scene.
  • the user then realizes a control trajectory directly on the part of the three-dimensional scene on which he wishes to act, which allows an intuitive use of the driver assistance system.
  • the associated control for modifying the three-dimensional scene makes it possible, for example, to vary the point of view of the three-dimensional scene.
  • Another example of an associated command for modifying the three-dimensional scene is a command for moving in translation the three-dimensional scene displayed on the display screen 13.
  • the term "tactile surface” means a film sensitive to a pressure of one or more supports.
  • the touch surface 7 may also comprise a transparent or translucent film.
  • control path can be achieved by means of a stylus or by one or more fingers of the user.
  • the tactile surface 7 comprises sensors configured to detect a support of a user and, depending on the force exerted, the position of the detected support and the releasing the support on the sensitive film forming a control path, triggering an associated control to vary the viewpoint of the three-dimensional scene.
  • sensors using pressure-sensitive resistors, also known as the FSR sensor for "Force Sensing Resistor”.
  • each finger can move clean or similar to the movement of other fingers. It is also possible to provide movements of the fingers in substantially parallel or opposite directions, or even displacements of the fingers in rotation in the same direction of rotation.
  • the touch surface 7 comprises multiple support sensors configured to simultaneously detect pressure and / or movements of the fingers in several places.
  • the control unit 5 is then adapted to simultaneously interpret these separate actions so as to determine the control path and thus the associated control to vary the point of view of the scene.
  • control trajectory can for example be associated with:
  • a control trajectory defined by a circular displacement is associated with a control of the rotation of the scene around an axis of rotation substantially parallel to the vertical axis Z.
  • the angle made by the user on the touch surface 7 is associated with a rotation angle of the three-dimensional scene
  • the direction of the control path is associated with a direction of rotational movement of the three-dimensional scene.
  • a control trajectory made by three fingers of the user is associated with a rectilinear movement (FIG. 5b) to an inclination control of the scene with respect to an axis substantially parallel to the transverse axis X, making it possible to move to a two-dimensional view of the scene.
  • This two-dimensional view represents for example a so-called bird view.
  • the length of the displacement made by the user on the touch surface 7 is associated with a displacement length of the three-dimensional scene or at a rotation angle of the three-dimensional scene
  • the direction of the control trajectory is associated with to the moving direction of the three-dimensional scene
  • the direction of the control path is associated with a sense of moving the three-dimensional scene or to a direction of rotation of the three-dimensional scene.
  • FIG. 5f to a control of rotation displacement of the scene about an axis of rotation substantially parallel to the vertical axis Z, according to a predefined angle, for example 180 °, which makes it possible to modify the point of view of the three-dimensional scene.
  • Figure 6 depicts the control method for varying the point of view of the three-dimensional scene.
  • a control associated with the control path is generated to vary the viewpoint of the three-dimensional scene.
  • the control trajectory thus allows the user to vary the viewpoint of the three-dimensional scene as he desires rather than by selecting a point of view from among a set of predefined viewpoints, so as to clearly visualize a viewpoint. precise area of the vehicle environment before making a maneuver, such as backing up or parking.
  • a step E3 can be provided in which the entered control path 15 is compared to a set of control paths. predetermined.
  • step E5 the command associated with the control trajectory seized on the touch-sensitive surface 7 is generated for a part of the three-dimensional scene, and in step E5, the three-dimensional scene is generated and displayed in real time according to the modified point of view.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

The invention relates to a method of control for a driving aid system onboard a vehicle (1), said system comprising:- at least one camera (3a,3b,3c,3d,3e,3f,3g,3h) for capturing video streams of the environment of the vehicle (1), - a control unit (5) for generating a three-dimensional scene according to a predefined viewpoint comprising: • a three-dimensional representation (9) of the vehicle (1), and • at least one image obtained on the basis of the video streams captured, and - a display screen (13) for displaying the three-dimensional scene generated. According to the invention, said method comprises the following steps: - a control trajectory (15) is entered on a touch surface (7) integrated into the display screen (13), - a command associated with said trajectory (15) is generated for modifying said scene. The invention further relates to a driving aid system for implementing such a method.

Description

Procédé de commande et système d'aide à la conduite associé Control method and associated driving assistance system
La présente invention concerne un procédé de commande dans un système d'aide à la conduite embarqué dans un véhicule automobile, et un système d'aide à la conduite pour la mise en œuvre d'un tel procédé.The present invention relates to a control method in an on-board driving assistance system in a motor vehicle, and a driving assistance system for implementing such a method.
Les véhicules automobiles sont de plus en plus équipés de systèmes d'aide à la conduite permettant par exemple, la génération d'alertes sonores ou visuelles en cas de situation dangereuse imminente (par exemple : dépassement de limite, obstacle...) ou encore la détection de véhicules, de piétons ou d'obstacles dans les zones dites d'angle mort.Motor vehicles are increasingly equipped with driver assistance systems, for example, the generation of audible or visual alerts in case of imminent dangerous situation (for example: exceeding of limit, obstacle ...) or the detection of vehicles, pedestrians or obstacles in so-called blind spot areas.
On connaît dans l'art antérieur un procédé d'affichage d'aide à la conduite pour véhicule automobile permettant d'afficher, sur une première partie d'un écran du tableau de bord du véhicule, simultanément l'ensemble des images produites par quatre caméras projetées au sol pour permettre une vision vue d'oiseau de l'environnement immédiat du véhicule, lui-même étant matérialisé par son image en vue de dessus ; et d'afficher à grande échelle, sur une deuxième partie de l'écran du tableau de bord, simultanément à l'affichage précédent, une vue complète d'une ou plusieurs images telles que produites directement par la ou les caméras.In the prior art, a driver assistance display method for a motor vehicle makes it possible to display, on a first part of a screen of the dashboard of the vehicle, all the images produced by four simultaneously. cameras projected on the ground to allow a bird's eye view of the immediate environment of the vehicle, itself being materialized by its image in plan view; and displaying on a large scale, on a second portion of the dashboard screen, simultaneously with the previous display, a complete view of one or more images as directly produced by the one or more cameras.
Cet art antérieur présente les inconvénients suivants : - les images affichées sur l'écran sont fixes et ne peuvent pas être modifiées par l'utilisateur afin de mieux visualiser une zone précise de l'environnement du véhicule,This prior art has the following drawbacks: the images displayed on the screen are fixed and can not be modified by the user to better visualize a specific area of the vehicle environment,
- de plus, cette représentation est complexe et peut perturber la bonne compréhension de l'environnement du véhicule et ainsi gêner un utilisateur du véhicule pour se garer par exemple.- Furthermore, this representation is complex and can disrupt the understanding of the vehicle environment and thus interfere with a vehicle user to park for example.
Cette représentation n'est donc pas intuitive et nécessite une formation de l'utilisateur à un tel affichage d'aide à la conduite de l'art antérieur.This representation is therefore not intuitive and requires training of the user in such a driver assistance display of the prior art.
Ceci est en particulier un problème pour les véhicules de location. En effet, l'utilisateur d'un véhicule de location pour une courte durée n'a pas le temps de s'adapter à un tel affichage d'aide à la conduite pour pouvoir l'utiliser rapidement durant la conduite sans être déconcentré.This is particularly a problem for rental vehicles. Indeed, the user of a rental vehicle for a short time does not have time to adapt to such a display of driving assistance to be able to use it quickly during the driving without being distracted.
L'invention a donc pour but de palier les inconvénients de l'art antérieur en fournissant des systèmes d'aide à la conduite plus intuitifs.The invention therefore aims to overcome the disadvantages of the prior art by providing more intuitive driver assistance systems.
À cet effet, l'invention a pour objet un procédé de commande pour un système d'aide à la conduite embarqué dans un véhicule, ledit système comportant :To this end, the subject of the invention is a control method for an on-vehicle driving assistance system, said system comprising:
- au moins une caméra pour capturer des flux vidéo de l'environnement du véhicule,at least one camera for capturing video streams of the vehicle environment,
- une unité de contrôle pour générer une scène tridimensionnelle selon un point de vue prédéfini comprenant :a control unit for generating a three-dimensional scene according to a predefined viewpoint comprising:
• une représentation tridimensionnelle du véhicule, et • au moins une image obtenue à partir des flux vidéo capturés, etA three-dimensional representation of the vehicle, and at least one image obtained from the captured video streams, and
- un écran d'affichage de la scène tridimensionnelle, caractérisé en ce que ledit procédé comprend les étapes suivantes :a screen for displaying the three-dimensional scene, characterized in that said method comprises the following steps:
- on saisit une trajectoire de commande sur une surface tactile intégrée à l'écran d'affichage, - on génère une commande associée à ladite trajectoire pour modifier ladite scène.- It captures a control trajectory on a touch surface integrated in the display screen, - generates a command associated with said path to modify said scene.
Le procédé de commande selon l'invention peut en outre comporter une ou plusieurs caractéristiques suivantes, prises séparément ou en combinaison :The control method according to the invention may further comprise one or more of the following characteristics, taken separately or in combination:
- la commande associée à ladite trajectoire permet de faire varier le point de vue de ladite scène, - ledit procédé comprend une étape dans laquelle on compare la trajectoire de commande à un ensemble de trajectoires de commande prédéterminées de manière à déterminer la commande associée pour faire varier le point de vue,the control associated with said trajectory makes it possible to vary the point of view of said scene, said method comprises a step in which the control trajectory is compared with a set of predetermined control trajectories so as to determine the associated command to make vary the point of view,
- la trajectoire de commande est associée à au moins une commande choisie parmi le groupe de commandes comportant : une commande de déplacement en translation de la scène, une commande de déplacement en rotation de la scène, une commande de déplacement en inclinaison de la scène possible du fait que la scène générée soit tridimensionnelle ce qui permet de définir différents angles de vue,the control trajectory is associated with at least one command chosen from the group of commands comprising: a command for translational movement of the scene, a command for moving the scene in rotation, a tilt displacement command for the possible scene because the generated scene is three-dimensional, which makes it possible to define different angles of view,
- la trajectoire de commande est associée à une commande pour réaliser un zoom,the control path is associated with a command for zooming,
- ladite trajectoire est réalisée par un doigt de l'utilisateur pour des commandes de déplacement en rotation ou translation de la scène tridimensionnelle, - ladite trajectoire est réalisée par plusieurs doigts de l'utilisateur pour des commandes de déplacement en inclinaison ou de zoom de la scène tridimensionnelle.said trajectory is carried out by a user's finger for commands for moving in rotation or translation of the three-dimensional scene, said path is made by several fingers of the user for tilting or zooming commands of the three-dimensional scene.
L'invention a également pour objet un système d'aide à la conduite embarqué dans un véhicule automobile comportant : - au moins une caméra pour capturer des flux vidéo de l'environnement du véhicule, une unité de contrôle pour générer une scène tridimensionnelle selon un point de vue prédéfini comprenant :The invention also relates to an on-board driving assistance system in a motor vehicle comprising: at least one camera for capturing video streams from the vehicle environment, a control unit for generating a three-dimensional scene according to a predefined viewpoint including:
• une représentation tridimensionnelle du véhicule, et• a three-dimensional representation of the vehicle, and
• au moins une image obtenue à partir des flux vidéo capturés, et - un écran d'affichage de la scène tridimensionnelle générée, caractérisé en ce que ledit système comporte au moins un moyen adapté pour saisir une trajectoire de commande d'un utilisateur sur une surface tactile intégrée à l'écran d'affichage de manière à définir une commande associée à ladite trajectoire saisie pour faire varier le point de vue de ladite scène. Le système d'aide à la conduite selon l'invention peut en outre comporter une ou plusieurs caractéristiques suivantes, prises séparément ou en combinaison :At least one image obtained from the captured video streams, and a display screen of the generated three-dimensional scene, characterized in that said system comprises at least one means adapted to capture a control path of a user on a tactile surface integrated in the display screen so as to define a command associated with said entered trajectory to vary the point of view of said scene. The driving assistance system according to the invention may further comprise one or more of the following features, taken separately or in combination:
- ladite surface tactile comporte un film transparent ou translucide,said touch surface comprises a transparent or translucent film,
- ledit système comporte :said system comprises:
• une caméra avant disposée au niveau du centre du pare-choc avant du véhicule, et dirigée vers le bas du véhicule et au-dessus de l'horizon,• a front camera located at the center of the front bumper of the vehicle, facing the vehicle and over the horizon,
• deux caméras latérales, chacune étant disposée au niveau d'un rétroviseur extérieur du véhicule, et dirigée vers le bas du véhicule, et• two side cameras, each disposed at an exterior rear view mirror of the vehicle, and directed towards the bottom of the vehicle, and
• une caméra arrière disposée au niveau du centre de la fenêtre arrière du véhicule et dirigée vers le bas du véhicule et au-dessus de l'horizon. La présente invention permet donc à l'utilisateur d'agir sur les images affichées de manière intuitive sans être limité par des points de vue prédéfinis.• A rear camera located at the center of the rear window of the vehicle and facing down from the vehicle and over the horizon. The present invention therefore allows the user to act on the images displayed intuitively without being limited by predefined points of view.
D'autres caractéristiques et avantages de l'invention ressortiront de la description suivante, donnée à titre d'exemple, sans caractère limitatif, en regard des dessins annexés sur lesquels : -A-Other features and advantages of the invention will emerge from the following description given by way of example, without limitation, with reference to the accompanying drawings, in which: -AT-
- la figure 1 illustre un véhicule équipé d'un système d'aide à la conduite selon l'invention,FIG. 1 illustrates a vehicle equipped with a driving assistance system according to the invention,
- la figure 2 représente de façon schématique un système d'aide à la conduite,FIG. 2 schematically represents a driving assistance system,
- les figures 3a à 3c représentent un exemple d'écrans virtuels permettant de générer une scène tridimensionnelle,FIGS. 3a to 3c represent an example of virtual screens making it possible to generate a three-dimensional scene,
- la figure 4 représente un exemple d'une scène tridimensionnelle générée selon l'invention,FIG. 4 represents an example of a three-dimensional scene generated according to the invention,
- les figures 5a à 5 f représentent des exemples de trajectoires de commande dans le système d'aide à la conduite de la figure 1 , - la figure 6 illustre les étapes d'un procédé de commande selon l'invention.FIGS. 5a to 5f show examples of control paths in the driving assistance system of FIG. 1; FIG. 6 illustrates the steps of a control method according to the invention.
Sur la figure 1, on a représenté un véhicule 1 équipé d'un système d'aide à la conduite. En se référant aux figures 1 et 2, ce système d'aide à la conduite comporte :In Figure 1, there is shown a vehicle 1 equipped with a driver assistance system. Referring to FIGS. 1 and 2, this driver assistance system comprises:
- une pluralité de caméras 3a-3h pour capturer des flux vidéo de l'environnement du véhicule, - une unité de contrôle 5 pour générer une scène tridimensionnelle selon un point de vue prédéfini, eta plurality of cameras 3a-3h for capturing video streams of the vehicle environment, a control unit for generating a three-dimensional scene according to a predefined point of view, and
- un écran d'affichage 13 de la scène tridimensionnelle.a display screen 13 of the three-dimensional scene.
Le système d'aide à la conduite comporte un ensemble de caméras 3, à l'avant, à l'arrière et sur les côtés. A l'avant, on peut prévoir :The driver assistance system comprises a set of cameras 3, at the front, rear and on the sides. At the front, we can provide:
- deux caméras avant 3a,3b, agencées sur les côtés du pare-choc avant du véhicule 1, chacune étant dirigée sensiblement vers un côté associé et vers l'avant,two front cameras 3a, 3b, arranged on the sides of the front bumper of the vehicle 1, each being directed substantially towards an associated side and towards the front,
- une caméra 3f située au niveau du rétroviseur intérieur du véhicule dirigée sensiblement vers l'avant, ou encore - une caméra avant 3g située par exemple au niveau du logo du véhicule 1, dirigée sensiblement vers l'avant.a camera 3f located at the rear view mirror of the vehicle directed substantially towards the front, or a front camera 3g located for example at the logo of the vehicle 1, directed substantially forwards.
Les caméras avant 3 a et 3b, 3 f, ou 3 g peuvent présenter un angle d'ouverture de 60° ou grand angle (par exemple à angle de vue horizontal de 110°) ou très grand angle (par exemple à angle de vue horizontal de 170°), et permettent de voir vers le bas du véhicule 1 et au-dessus de l'horizon. A l'arrière, on peut prévoir :The front cameras 3a and 3b, 3f, or 3g may have an opening angle of 60 ° or wide angle (for example 110 ° horizontal angle of view) or very wide angle (for example at an angle of view horizontal 170 °), and allow to see down vehicle 1 and above the horizon. At the back, we can provide:
- une caméra arrière 3c, agencée par exemple dans la poignée du coffre du véhicule 1, ou au niveau de la plaque d'immatriculation, permettant de voir vers le bas du véhicule 1 et au dessus de l'horizon, et/ou - une caméra arrière 3 h au dessus de la fenêtre arrière ou au niveau du troisième feu stop du véhicule 1, permettant de voir vers le bas du véhicule 1 et plus au dessus de l'horizon que la caméra arrière 3c.a rear camera 3c, arranged for example in the handle of the trunk of the vehicle 1, or at the level of the license plate, making it possible to see towards the bottom of the vehicle 1 and above the horizon, and / or - a rear camera 3 hours above the rear window or at the third brake light of the vehicle 1, allowing to see down the vehicle 1 and more above the horizon that the rear camera 3c.
Les caméras arrière 3c, 3h peuvent présenter un grand angle d'ouverture (par exemple avec un angle de vue horizontal entre 110° et 170°). De plus, on peut prévoir deux caméras latérales 3d, 3e, agencées respectivement au niveau du rétroviseur extérieur sur chaque coté du véhicule. Ces caméras latérales 3d,3e peuvent avoir un très grand angle (par exemple à angle de vue horizontal de 110°), et pointent vers le bas.The rear cameras 3c, 3h may have a large opening angle (for example with a horizontal angle of view between 110 ° and 170 °). In addition, one can provide two side cameras 3d, 3e, respectively arranged at the exterior mirror on each side of the vehicle. These side cameras 3d, 3e can have a very wide angle (for example 110 ° horizontal angle of view), and point down.
Le véhicule 1 comporte une ou plusieurs caméras telles que décrites précédemment. Dans la suite de la description, on choisit un exemple dans lequel l'ensemble de caméras 3 équipant le véhicule 1 comporte les caméras avant 3a,3b, la caméra arrière 3c, et les caméras latérales 3d,3e.The vehicle 1 comprises one or more cameras as described above. In the remainder of the description, an example is chosen in which the set of cameras 3 equipping the vehicle 1 comprises the front cameras 3a, 3b, the rear camera 3c, and the side cameras 3d, 3e.
Par ailleurs, l'unité de contrôle 5 comprend au moins un moyen de traitement configuré pour générer une scène tridimensionnelle selon un point de vue prédéfini, la scène tridimensionnelle comprenant :Furthermore, the control unit 5 comprises at least one processing means configured to generate a three-dimensional scene according to a predefined point of view, the three-dimensional scene comprising:
- au moins une image obtenue à partir des flux vidéo capturés, etat least one image obtained from the captured video streams, and
- une représentation tridimensionnelle 9 du véhicule (figures 3a à 3c), par exemple sous la forme d'un trait fermé représentant le contour du véhicule 1 ou en variante sous la forme d'un parallélépipède, cette représentation tridimensionnelle étant agencée suivant un repère orthogonal représenté sur la figure 3b, comportant :a three-dimensional representation 9 of the vehicle (FIGS. 3a to 3c), for example in the form of a closed line representing the outline of the vehicle 1 or alternatively in the form of a parallelepiped, this three-dimensional representation being arranged according to an orthogonal reference represented in FIG. 3b, comprising:
• un axe transversal X dirigé de la gauche vers la droite de la représentation tridimensionnelle 9,A transverse axis X directed from left to right of the three-dimensional representation 9,
• un axe longitudinal Y dirigé de l'avant vers l'arrière de la représentation tridimensionnelle 9, et « un axe vertical Z dirigé du bas vers le haut de la représentation tridimensionnelle 9.A longitudinal axis Y directed from the front to the rear of the three-dimensional representation 9, and a vertical axis Z directed from the bottom to the top of the three-dimensional representation 9.
Pour générer cette scène tridimensionnelle, l'unité de contrôle 5 comporte par exemple des moyens de traitement configurés pour générer des écrans virtuels lia à Ile représentatifs d'un angle solide observé respectivement par les caméras 3a à 3e du véhicule. Ces écrans virtuels 1 la à I le sont représentés en traits hachurés sur les figuresTo generate this three-dimensional scene, the control unit 5 comprises for example processing means configured to generate virtual screens 11a to Ile representative of a solid angle respectively observed by the cameras 3a to 3e of the vehicle. These virtual screens 1 to I are represented in hatched lines in the figures
3a à 3c.3a to 3c.
Comme on peut le voir sur les figures 3 a et 3b, la forme des écrans virtuels lia, 11b, lie associés respectivement aux caméras avant 3a,3b et arrière 3c, est représentative de la perspective sous laquelle ils vont être vus par un utilisateur du véhicule, par exemple le conducteur.As can be seen in FIGS. 3 a and 3b, the shape of the virtual screens 11a, 11b, 11c, associated respectively with the front cameras 3a, 3b and rear 3c, is representative of the perspective in which they will be seen by a user of the vehicle, for example the driver.
En ce qui concerne les caméras latérales 3d et 3e (figure 3c), on choisit d'associer des écrans virtuels 1 Id et I le représentatifs d'une image au sol.With regard to the side cameras 3d and 3e (FIG. 3c), it is chosen to associate virtual screens 1 Id and I representative of a ground image.
L'unité de contrôle 5 permet alors de projeter une image obtenue à partir des flux vidéo capturés par les caméras 3a à 3e dans un écran virtuel lia à Ile associé de manière à générer la scène tridimensionnelle.The control unit 5 then makes it possible to project an image obtained from the video streams captured by the cameras 3a to 3e in a virtual screen 11a to associated island so as to generate the three-dimensional scene.
En outre, selon un exemple de réalisation, les écrans virtuels 1 Ia-I le se trouvent dans le même référentiel que la représentation tridimensionnelle 9, c'est-à-dire que si la représentation tridimensionnelle 9 se déplace lors de l'affichage de la scène tridimensionnelle par exemple suite à une commande pour modifier la scène, les écrans virtuels 1 Ia-I le se déplacent également simultanément avec la représentation tridimensionnelle 9.In addition, according to an exemplary embodiment, the virtual screens 1 Ia-I are in the same frame as the three-dimensional representation 9, that is to say that if the three-dimensional representation 9 moves during the display of the three-dimensional scene for example following a command to modify the scene, the virtual screens 1 Ia-I also move simultaneously with the three-dimensional representation 9.
Les images fournies par les caméras 3a-3e sont ainsi dynamiquement intégrées aux écrans virtuels 1 Ia-I le avec une déformation représentative de la perspective selon laquelle ils vont être vus par l'utilisateur, selon le point de vue prédéterminé. Ainsi un point de vue de la scène est défini par l'orientation de la scène tridimensionnelle et par les écrans virtuels.The images provided by the cameras 3a-3e are thus dynamically integrated with the virtual screens 1a-1a with a deformation representative of the perspective according to which they will be seen by the user, according to the predetermined point of view. Thus a point of view of the scene is defined by the orientation of the three-dimensional scene and by the virtual screens.
On entend par point de vue prédéfini, un point de vue initial non sélectionné par l'utilisateur qui s'affiche automatiquement lorsque le système d'aide à la conduite est mis en route, ou encore un point de vue déterminé automatiquement par le système d'aide à la conduite en fonction d'un événement particulier tel qu'une détection d'obstacles dans l'environnement du véhicule ou encore une manœuvre du véhicule comme se garer. Par exemple, lorsque l'utilisateur effectue une marche arrière, le point de vue de l'environnement à l'arrière du véhicule est sélectionné.A predefined viewpoint is an initial point of view that is not selected by the user and that is automatically displayed when the driver assistance system is started, or a point of view determined automatically by the system. driving assistance according to a particular event such as an obstacle detection in the environment of the vehicle or a maneuver of the vehicle like parking. For example, when the user is reversing, the environmental point of view at the rear of the vehicle is selected.
Le système d'aide à la conduite peut alors comporter un moyen d'affichage 13 de la scène tridimensionnelle générée permettant à l'utilisateur de visualiser cette scène tridimensionnelle de manière à avoir une notion réelle de l'environnement de son véhicule et ainsi de mieux appréhender le véhicule dans son environnement lorsqu'il effectue par exemple une manœuvre délicate telle que garer son véhicule. Un exemple d'affichage d'une telle scène tridimensionnelle est représentée sur la figure 4. Le système d'aide à la conduite comporte en outre un moyen adapté pour saisir une trajectoire 15 de commande d'un utilisateur sur une surface tactile 7 intégrée à l'écran d'affichage 13 et des moyens de traitement configurés pour interpréter la trajectoire 15 de commande saisie sur la surface tactile 7 de l'écran 13 de manière à générer une commande associée pour modifier la scène tridimensionnelle. L'utilisateur réalise alors une trajectoire 15 de commande directement sur la partie de la scène tridimensionnelle sur laquelle il souhaite agir, ce qui permet une utilisation intuitive du système d'aide à la conduite.The driving assistance system may then include means for displaying the generated three-dimensional scene enabling the user to visualize this three-dimensional scene so as to have a real notion of the environment of his vehicle and thus better apprehend the vehicle in its environment when it performs for example a tricky maneuver such as park his vehicle. An example of a display of such a three-dimensional scene is shown in FIG. 4. The driver assistance system further comprises means adapted to enter a user's control trajectory on a touch surface 7 integrated in FIG. the display screen 13 and processing means configured to interpret the control trajectory entered on the touch surface 7 of the screen 13 so as to generate an associated control for modifying the three-dimensional scene. The user then realizes a control trajectory directly on the part of the three-dimensional scene on which he wishes to act, which allows an intuitive use of the driver assistance system.
La commande associée pour modifier la scène tridimensionnelle permet par exemple de faire varier le point de vue de la scène tridimensionnelle. Un autre exemple de commande associée pour modifier la scène tridimensionnelle est une commande pour déplacer en translation la scène tridimensionnelle affichée sur l'écran d'affichage 13.The associated control for modifying the three-dimensional scene makes it possible, for example, to vary the point of view of the three-dimensional scene. Another example of an associated command for modifying the three-dimensional scene is a command for moving in translation the three-dimensional scene displayed on the display screen 13.
On entend par surface tactile un film sensible à une pression d'un ou de plusieurs appuis. La surface tactile 7 peut également comporter un film transparent ou translucide.The term "tactile surface" means a film sensitive to a pressure of one or more supports. The touch surface 7 may also comprise a transparent or translucent film.
En outre, la trajectoire 15 de commande peut être réalisée à l'aide d'un stylet ou encore par un ou plusieurs doigts de l'utilisateur.In addition, the control path can be achieved by means of a stylus or by one or more fingers of the user.
Lorsque l'utilisateur réalise une trajectoire 15 de commande avec un doigt ou un stylet, la surface tactile 7 comporte des capteurs configurés pour détecter un appui d'un utilisateur et, en fonction de l'effort exercé, la position de l'appui détecté et le dép lacement de l'appui sur le film sensible formant une trajectoire 15 de commande, de déclencher une commande associée pour faire varier le point de vue de la scène tridimensionnelle. Pour cela, on prévoit par exemple des capteurs utilisant des résistances sensibles à la pression, également connus sous le nom de capteur FSR pour "Force Sensing Resistor".When the user realizes a control trajectory with a finger or a stylus, the tactile surface 7 comprises sensors configured to detect a support of a user and, depending on the force exerted, the position of the detected support and the releasing the support on the sensitive film forming a control path, triggering an associated control to vary the viewpoint of the three-dimensional scene. For this, there are for example sensors using pressure-sensitive resistors, also known as the FSR sensor for "Force Sensing Resistor".
Lorsque l'utilisateur réalise une trajectoire 15 de commande avec plusieurs doigts, chaque doigt peut effectuer un déplacement propre ou similaire au déplacement d'autres doigts. On peut également prévoir des déplacements des doigts selon des directions sensiblement parallèles ou opposées, ou encore des déplacements des doigts en rotation dans un même sens de rotation.When the user realizes a control trajectory with several fingers, each finger can move clean or similar to the movement of other fingers. It is also possible to provide movements of the fingers in substantially parallel or opposite directions, or even displacements of the fingers in rotation in the same direction of rotation.
Dans ce cas, la surface tactile 7 comporte des capteurs d'appuis multiples configurés pour détecter simultanément à plusieurs endroits des pressions et/ou les déplacements des doigts. L'unité de contrôle 5 est alors adaptée pour interpréter simultanément ces actions séparées de manière à déterminer la trajectoire de commande et ainsi la commande associée pour faire varier le point de vue de la scène.In this case, the touch surface 7 comprises multiple support sensors configured to simultaneously detect pressure and / or movements of the fingers in several places. The control unit 5 is then adapted to simultaneously interpret these separate actions so as to determine the control path and thus the associated control to vary the point of view of the scene.
On cite comme exemples de déplacements définissant des trajectoires de commande réalisées par l'utilisateur :Examples of displacements defining control trajectories made by the user are given as:
- un déplacement circulaire réalisé par un premier doigt de l'utilisateur pendant qu'un deuxième doigt de l'utilisateur reste fixe (figure 5a), - un déplacement rectiligne réalisé par plusieurs doigts de l'utilisateur suivant des directions sensiblement parallèles (figures 5b, 5c,5d),a circular displacement made by a first finger of the user while a second finger of the user remains fixed (FIG. 5a); a rectilinear displacement made by several fingers of the user in substantially parallel directions (FIGS. , 5c, 5d),
- des déplacements rectilignes réalisés par deux doigts de l'utilisateur suivant des directions opposées (figure 5e),rectilinear displacements made by two fingers of the user in opposite directions (FIG. 5e),
- des déplacements circulaires réalisés par deux doigts de l'utilisateur dans un même sens de rotation (figure 5f).- Circular movements made by two fingers of the user in the same direction of rotation (Figure 5f).
Par ailleurs, une trajectoire 15 de commande peut par exemple être associée à :Moreover, a control trajectory can for example be associated with:
- une commande de déplacement en translation de la scène,a displacement control in translation of the scene,
- une commande de déplacement en rotation de la scène,a command for moving the scene in rotation,
- une commande d'inclinaison de la scène, ou encore - une commande pour réaliser un zoom. Selon un exemple de réalisation, on associe une trajectoire de commande définie par un déplacement circulaire (figure 5a) à une commande de déplacement en rotation de la scène autour d'un axe de rotation sensiblement parallèle à l'axe vertical Z. Dans ce cas, l'angle réalisé par l'utilisateur sur la surface tactile 7 est associé à un angle de rotation de la scène tridimensionnelle, et le sens de la trajectoire 15 de commande est associée à un sens de déplacement en rotation de la scène tridimensionnelle.- a tilt command of the scene, or - a command to zoom. According to an exemplary embodiment, a control trajectory defined by a circular displacement (FIG. 5a) is associated with a control of the rotation of the scene around an axis of rotation substantially parallel to the vertical axis Z. In this case , the angle made by the user on the touch surface 7 is associated with a rotation angle of the three-dimensional scene, and the direction of the control path is associated with a direction of rotational movement of the three-dimensional scene.
En variante, on associe une trajectoire de commande réalisée par trois doigts de l'utilisateur suivant un déplacement rectiligne (figure 5b) à une commande d'inclinaison de la scène par rapport à un axe sensiblement parallèle à l'axe transversal X, permettant de passer à une vue bidimensionnelle de la scène. Cette vue bidimensionnelle représente par exemple une vue dite d'oiseau.In a variant, a control trajectory made by three fingers of the user is associated with a rectilinear movement (FIG. 5b) to an inclination control of the scene with respect to an axis substantially parallel to the transverse axis X, making it possible to move to a two-dimensional view of the scene. This two-dimensional view represents for example a so-called bird view.
On peut encore associer une trajectoire de commande réalisée par deux doigts de l'utilisateur suivant un déplacement rectiligne :It is also possible to associate a control path made by two fingers of the user following a rectilinear movement:
- vers le bas (figure 5c) à une commande de déplacement en translation vers le bas de la scène tridimensionnelle en gardant le même point de vue, ou encore à une commande de déplacement en rotation de la scène autour d'un axe de rotation sensiblement parallèle à l'axe vertical Z, modifiant le point de vue de la scène tridimensionnelle,downwardly (FIG. 5c) to a command for translational movement towards the bottom of the three-dimensional scene while keeping the same point of view, or else for a control of the rotational displacement of the scene around an axis of rotation substantially parallel to the vertical axis Z, modifying the point of view of the three-dimensional scene,
- vers la droite (figure 5d) à une commande de déplacement en translation vers la droite de la scène tridimensionnelle en gardant le même point de vue, ou encore à une commande de déplacement en rotation de la scène autour d'un axe de rotation sensiblement parallèle à l'axe longitudinal Y, modifiant le point de vue de la scène tridimensionnelle.to the right (FIG. 5d) to a command for moving in translation towards the right of the three-dimensional scene while keeping the same point of view, or else for a control of the rotational displacement of the scene around an axis of rotation substantially parallel to the longitudinal axis Y, changing the point of view of the three-dimensional scene.
Bien entendu, on peut prévoir de façon similaire, des commandes de déplacement de la scène tridimensionnelle vers le haut et vers la gauche.Of course, it is possible to provide in a similar manner, commands for moving the three-dimensional scene upwards and to the left.
Dans ces exemples, la longueur du déplacement réalisé par l'utilisateur sur la surface tactile 7 est associée à une longueur de déplacement de la scène tridimensionnelle ou à un angle de rotation de la scène tridimensionnelle, la direction de la trajectoire 15 de commande est associée à la direction de déplacement de la scène tridimensionnelle et le sens de la trajectoire 15 de commande est associée à un sens de déplacement de la scène tridimensionnelle ou à un sens de rotation de la scène tridimensionnelle .In these examples, the length of the displacement made by the user on the touch surface 7 is associated with a displacement length of the three-dimensional scene or at a rotation angle of the three-dimensional scene, the direction of the control trajectory is associated with to the moving direction of the three-dimensional scene and the direction of the control path is associated with a sense of moving the three-dimensional scene or to a direction of rotation of the three-dimensional scene.
On peut également associer une trajectoire 15 de commande réalisée par deux doigts de l'utilisateur suivant des déplacements rectilignes de directions opposées de manière à créer un écartement entre les deux doigts de l'utilisateur (figure 5e) à une commande de zoom avant, qui permet de modifier le point de vue de la scène tridimensionnelle. Dans ce cas, l'écartement entre les deux doigts de l'utilisateur sur la surface tactile 7 est associée à un pourcentage de zoom avant de la scène tridimensionnelle. Bien entendu, on peut prévoir de façon similaire une commande de zoom arrière de la scène tridimensionnelle.It is also possible to associate a control path made by two fingers of the user in rectilinear displacements in opposite directions so as to create a gap between the two fingers of the user (FIG. 5e) with a zoom-in control, which allows to modify the point of view of the three-dimensional scene. In this case, the spacing between the two fingers of the user on the touch surface 7 is associated with a zoom percentage before the three-dimensional scene. Of course, it is possible similarly to provide a zoom out control of the three-dimensional scene.
On peut aussi associer une trajectoire 15 de commande réalisée par deux doigts de l'utilisateur suivant des déplacements circulaires selon un même sens de rotationIt is also possible to associate a control path made by two fingers of the user according to circular movements in the same direction of rotation.
(figure 5f) à une commande de déplacement en rotation de la scène autour d'un axe de rotation sensiblement parallèle à l'axe vertical Z, selon un angle prédéfini, par exemple 180°, qui permet de modifier le point de vue de la scène tridimensionnelle.(FIG. 5f) to a control of rotation displacement of the scene about an axis of rotation substantially parallel to the vertical axis Z, according to a predefined angle, for example 180 °, which makes it possible to modify the point of view of the three-dimensional scene.
La figure 6 décrit le procédé de commande permettant de faire varier le point de vue de la scène tridimensionnelle.Figure 6 depicts the control method for varying the point of view of the three-dimensional scene.
À cet effet, lors d'une première étape E Ion saisit une commande d'entrée réalisée par un utilisateur sous la forme d'une trajectoire 15 de commande sur la surface tactile 7.For this purpose, in a first step, I enter an input command made by a user in the form of a control path on the touch surface 7.
Par la suite, on génère une commande associée à la trajectoire 15 de commande pour faire varier le point de vue de la scène tridimensionnelle.Subsequently, a control associated with the control path is generated to vary the viewpoint of the three-dimensional scene.
La trajectoire 15 de commande permet donc à l'utilisateur de faire varier le point de vue de la scène tridimensionnelle comme il le désire plutôt qu'en sélectionnant un point de vue parmi un ensemble de points de vue prédéfinis, de manière à bien visualiser une zone précise de l'environnement du véhicule avant de faire une manœuvre, comme reculer ou se garer.The control trajectory thus allows the user to vary the viewpoint of the three-dimensional scene as he desires rather than by selecting a point of view from among a set of predefined viewpoints, so as to clearly visualize a viewpoint. precise area of the vehicle environment before making a maneuver, such as backing up or parking.
Afin de déterminer la commande associée à la trajectoire 15 de commande saisie pour faire varier le point de vue, on peut prévoir une étape E3 dans laquelle on compare la trajectoire 15 de commande saisie à un ensemble de trajectoires de commande prédéterminées.In order to determine the control associated with the control path entered for varying the viewpoint, a step E3 can be provided in which the entered control path 15 is compared to a set of control paths. predetermined.
Enfin, on génère la commande associée à la trajectoire 15 de commande saisie sur la surface tactile 7 pour une partie de la scène tridimensionnelle et à l'étape E5 on génère et on affiche en temps réel la scène tridimensionnelle selon le point de vue modifié.Finally, the command associated with the control trajectory seized on the touch-sensitive surface 7 is generated for a part of the three-dimensional scene, and in step E5, the three-dimensional scene is generated and displayed in real time according to the modified point of view.
On comprend donc qu'avec un tel procédé l'utilisateur peut agir sur la scène tridimensionnelle affichée de manière intuitive et n'est pas limité par des points de vue prédéfinis de la scène. It is therefore understood that with such a method the user can act on the three-dimensional scene displayed intuitively and is not limited by predefined views of the scene.

Claims

REVENDICATIONS
1. Procédé de commande pour un système d'aide à la conduite embarqué dans un véhicule (1), ledit système comportant : - au moins une caméra (3a,3b,3c,3d,3e,3f,3g,3h) pour capturer des flux vidéo de l'environnement du véhicule (1),A control method for a driver assistance system embedded in a vehicle (1), said system comprising: at least one camera (3a, 3b, 3c, 3d, 3e, 3f, 3g, 3h) for capturing video streams of the vehicle environment (1),
- une unité de contrôle (5) pour générer une scène tridimensionnelle selon un point de vue prédéfini comprenant :a control unit (5) for generating a three-dimensional scene according to a predefined viewpoint comprising:
• une représentation tridimensionnelle (9) du véhicule (1), et • au moins une image obtenue à partir des flux vidéo capturés, etA three-dimensional representation (9) of the vehicle (1), and at least one image obtained from the captured video streams, and
- un écran d'affichage (13) de la scène tridimensionnelle générée, caractérisé en ce que ledit procédé comprend les étapes suivantes:a display screen (13) of the generated three-dimensional scene, characterized in that said method comprises the following steps:
- on saisit une trajectoire (15) de commande sur une surface tactile (7) intégrée à l'écran d'affichage (13), - on génère une commande associée à ladite trajectoire (15) pour modifier ladite scène.- It captures a control path (15) on a touch surface (7) integrated in the display screen (13), - generates a command associated with said path (15) for modifying said scene.
2. Procédé selon la revendication 1, caractérisé en ce que la commande associée à ladite trajectoire (15) permet de faire varier le point de vue de ladite scène.2. Method according to claim 1, characterized in that the control associated with said trajectory (15) makes it possible to vary the point of view of said scene.
3. Procédé selon l'une des revendications 1 ou 2, caractérisé en ce qu'il comprend une étape (E3) dans laquelle on compare la trajectoire (15) de commande à un ensemble de trajectoires de commande prédéterminées de manière à déterminer la commande associée pour modifier ladite scène.3. Method according to one of claims 1 or 2, characterized in that it comprises a step (E3) wherein the control path (15) is compared to a set of predetermined control paths so as to determine the command associated to modify said scene.
4. Procédé selon l'une quelconque des revendications 1 à 3, caractérisé en ce que la trajectoire de commande est associée à au moins une commande choisie parmi le groupe de commandes comportant : une commande de déplacement en translation de la scène, une commande de déplacement en rotation de la scène, une commande d'inclinaison de la scène.4. Method according to any one of claims 1 to 3, characterized in that the control path is associated with at least one control selected from the group of commands comprising: a displacement control in translation of the scene, a control of rotational movement of the scene, a tilt control of the scene.
5. Procédé selon l'une quelconque des revendications 1 à 4, caractérisé en ce que la trajectoire de commande est associée à une commande pour réaliser un zoom. 5. Method according to any one of claims 1 to 4, characterized in that the control path is associated with a command to achieve a zoom.
6. Procédé selon la revendication 4, caractérisé en ce que ladite trajectoire (15) est réalisée par un doigt de l'utilisateur pour des commandes de translation, rotation de la scène tridimensionnelle.6. Method according to claim 4, characterized in that said trajectory (15) is performed by a finger of the user for translation commands, rotation of the three-dimensional scene.
7. Procédé selon l'une quelconque des revendications 4 à 6, caractérisé en ce que ladite trajectoire (15) est réalisée par plusieurs doigts de l'utilisateur pour des commandes de zoom ou d'inclinaison de la scène tridimensionnelle.7. Method according to any one of claims 4 to 6, characterized in that said path (15) is performed by several fingers of the user for zooming or tilting of the three-dimensional scene.
8. Système d'aide à la conduite embarqué dans un véhicule (1) automobile comportant :8. On-board driving assistance system in an automobile vehicle (1) comprising:
- au moins une caméra (3a,3b,3c,3d,3e,3f,3g,3h) pour capturer des flux vidéo de l'environnement du véhicule (1),at least one camera (3a, 3b, 3c, 3d, 3e, 3f, 3g, 3h) for capturing video streams from the environment of the vehicle (1),
- une unité de contrôle (5) pour générer une scène tridimensionnelle selon un point de vue prédéfini comprenant :a control unit (5) for generating a three-dimensional scene according to a predefined viewpoint comprising:
• une représentation tridimensionnelle (9) du véhicule (1), etA three-dimensional representation (9) of the vehicle (1), and
• au moins une image obtenue à partir des flux vidéo capturés, et - un écran d'affichage (13) de la scène tridimensionnelle générée, caractérisé en ce que ledit système comporte au moins un moyen adapté pour saisir une trajectoire (15) de commande d'un utilisateur sur une surface tactile (7) intégrée à l'écran d'affichage (13) de manière à définir une commande associée à ladite trajectoire (15) saisie pour faire varier le point de vue de ladite scène.At least one image obtained from the captured video streams, and a display screen (13) of the generated three-dimensional scene, characterized in that said system comprises at least one means adapted to capture a control trajectory (15). a user on a touch surface (7) integrated in the display screen (13) so as to define a command associated with said path (15) input to vary the point of view of said scene.
9. Système selon la revendication 8, caractérisé en ce que ladite surface tactile (7) comporte un film transparent ou translucide.9. System according to claim 8, characterized in that said touch surface (7) comprises a transparent or translucent film.
10. Système selon l'une des revendications 8 ou 9, caractérisé en ce qu'il comporte : - une caméra avant (3g) disposée au niveau du centre du pare-choc avant du véhicule (1), et dirigée vers le bas du véhicule et au-dessus de l'horizon,10. System according to one of claims 8 or 9, characterized in that it comprises: - a front camera (3g) disposed at the center of the front bumper of the vehicle (1), and directed downwards. vehicle and above the horizon,
- deux caméras latérales (3d),(3e), chacune étant disposée au niveau d'un rétroviseur extérieur du véhicule (1), et dirigée vers le bas du véhicule, et - une caméra arrière (3c) disposée au niveau du centre de la fenêtre arrière du véhicule (1), et dirigée vers le bas du véhicule et au-dessus de l'horizon. - two side cameras (3d), (3e), each disposed at an exterior mirror of the vehicle (1), and directed towards the bottom of the vehicle, and - a rear camera (3c) disposed at the center of the vehicle. the back window vehicle (1), and directed down the vehicle and over the horizon.
PCT/EP2009/062715 2008-09-30 2009-09-30 Method of control and associated driving aid system WO2010037795A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
EP09817299A EP2377006A1 (en) 2008-09-30 2009-09-30 Method of control and associated driving aid system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR0805362 2008-09-30
FR0805362A FR2936479B1 (en) 2008-09-30 2008-09-30 CONTROL METHOD AND DRIVING ASSISTANCE SYSTEM THEREFOR

Publications (1)

Publication Number Publication Date
WO2010037795A1 true WO2010037795A1 (en) 2010-04-08

Family

ID=40474695

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2009/062715 WO2010037795A1 (en) 2008-09-30 2009-09-30 Method of control and associated driving aid system

Country Status (3)

Country Link
EP (1) EP2377006A1 (en)
FR (1) FR2936479B1 (en)
WO (1) WO2010037795A1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2970354A1 (en) * 2010-10-21 2012-07-13 Dav Method for controlling rotation of e.g. two-dimensional graph, displayed on display screen of navigation system of car, involves generating rotation control of graph about rotation axis, where control is associated with detected supports
WO2020082775A1 (en) * 2018-10-24 2020-04-30 广州小鹏汽车科技有限公司 Automatic parking method and vehicle control system
CN112550305A (en) * 2020-12-18 2021-03-26 雄狮汽车科技(南京)有限公司 Automobile control method based on three-dimensional model

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015193280A (en) * 2014-03-31 2015-11-05 富士通テン株式会社 Vehicle controlling device and vehicle controlling method
CN108789453A (en) * 2018-08-17 2018-11-13 成都跟驰科技有限公司 The touch screen control system of automobile with folding mechanism arm

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0949818A2 (en) * 1998-04-07 1999-10-13 Matsushita Electric Industrial Co., Ltd. On-vehicle image display apparatus, image transmission system, image transmission apparatus, and image capture apparatus
EP1115250A1 (en) * 1998-07-31 2001-07-11 Matsushita Electric Industrial Co., Ltd. Method and apparatus for displaying image
JP2003300444A (en) * 2002-04-11 2003-10-21 Hitachi Ltd Drive support device for moving body
EP1400410A2 (en) * 1999-06-25 2004-03-24 Fujitsu Ten Limited Vehicle drive assist system
GB2398048A (en) * 2003-02-07 2004-08-11 Ford Global Tech Llc Vehicle steering aid system
JP2007279638A (en) * 2006-04-12 2007-10-25 Xanavi Informatics Corp Navigation device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0949818A2 (en) * 1998-04-07 1999-10-13 Matsushita Electric Industrial Co., Ltd. On-vehicle image display apparatus, image transmission system, image transmission apparatus, and image capture apparatus
EP1115250A1 (en) * 1998-07-31 2001-07-11 Matsushita Electric Industrial Co., Ltd. Method and apparatus for displaying image
EP1400410A2 (en) * 1999-06-25 2004-03-24 Fujitsu Ten Limited Vehicle drive assist system
JP2003300444A (en) * 2002-04-11 2003-10-21 Hitachi Ltd Drive support device for moving body
GB2398048A (en) * 2003-02-07 2004-08-11 Ford Global Tech Llc Vehicle steering aid system
JP2007279638A (en) * 2006-04-12 2007-10-25 Xanavi Informatics Corp Navigation device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2970354A1 (en) * 2010-10-21 2012-07-13 Dav Method for controlling rotation of e.g. two-dimensional graph, displayed on display screen of navigation system of car, involves generating rotation control of graph about rotation axis, where control is associated with detected supports
WO2020082775A1 (en) * 2018-10-24 2020-04-30 广州小鹏汽车科技有限公司 Automatic parking method and vehicle control system
CN112550305A (en) * 2020-12-18 2021-03-26 雄狮汽车科技(南京)有限公司 Automobile control method based on three-dimensional model

Also Published As

Publication number Publication date
FR2936479B1 (en) 2010-10-15
EP2377006A1 (en) 2011-10-19
FR2936479A1 (en) 2010-04-02

Similar Documents

Publication Publication Date Title
JP6806156B2 (en) Peripheral monitoring device
EP2133237B1 (en) Process of displaying a parking aid
EP1724153B1 (en) Lighting or signalling device for vehicle
FR2711593A1 (en) Device for monitoring the rear space, respectively before a motor vehicle in parking maneuver.
WO2010037795A1 (en) Method of control and associated driving aid system
EP2094531B1 (en) Electronic rear-view device
FR3016573B1 (en) VEHICLE MIRROR INSTALLATION
WO2019091920A1 (en) Method for displaying an image of the area surrounding a vehicle on a touch screen installed in the vehicle
EP2729328B1 (en) Driver aid device for making available to a driver, in anticipation, a synthetic image representative of a chosen zone around his vehicle
FR3128916A1 (en) Display driving device and display driving method
FR3040029A1 (en) DRIVER ASSISTANCE SYSTEM FOR A VEHICLE WITH AN ADAPTABLE DIGITAL RETROVISION SYSTEM FOR REVERSE MANEUVER
FR3067669A1 (en) DIGITAL RETROVISION SYSTEM FOR AUTOMOTIVE VEHICLE WITH EASY ADJUSTMENT
FR3051163B1 (en) SYSTEM FOR VISUALIZING AT LEAST ONE FLOW OF IMAGES ON A SCREEN IN A VEHICLE
WO2020007624A1 (en) Panoramic rear-view device using head-up display cameras
EP3682320A1 (en) Method for displaying the surroundings of a motor vehicle on a screen, and motor vehicle in which such a method is implemented
EP2193047B1 (en) Assistance device for exiting a hidden lane
EP3700780B1 (en) Improved rear-view video system for a motor vehicle
FR2956364A1 (en) Driver assistance device for handling e.g. car around building site, has processing unit generating image data defining image to be displayed in vehicle, where image data represents part of vehicle based on relative position of head
FR3107483A1 (en) VEHICLE WITH DIGITAL RETROVISION WITH ADJUSTABLE DISPLAY
EP3110661B1 (en) Parking assistance device detecting entry into or exit from a parking zone, for a vehicle driver
FR3110511A1 (en) Vehicle visualization system comprising a display device movable between a portrait position and a landscape position
FR3093968A1 (en) Vehicle rear view system comprising a plurality of cameras and a computer
FR3079790A1 (en) RETROVISION DEVICE FOR A VEHICLE
FR3083331A1 (en) AUGMENTED REALITY DEVICE FOR VEHICLE
EP3418121A1 (en) Device for displaying a motion of a vehicle door and associated method

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 09817299

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2009817299

Country of ref document: EP