FR2936479A1 - CONTROL METHOD AND DRIVING ASSISTANCE SYSTEM THEREFOR - Google Patents

CONTROL METHOD AND DRIVING ASSISTANCE SYSTEM THEREFOR Download PDF

Info

Publication number
FR2936479A1
FR2936479A1 FR0805362A FR0805362A FR2936479A1 FR 2936479 A1 FR2936479 A1 FR 2936479A1 FR 0805362 A FR0805362 A FR 0805362A FR 0805362 A FR0805362 A FR 0805362A FR 2936479 A1 FR2936479 A1 FR 2936479A1
Authority
FR
France
Prior art keywords
control
vehicle
scene
touch screen
view
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR0805362A
Other languages
French (fr)
Other versions
FR2936479B1 (en
Inventor
Patrick Bonhoure
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dav SA
Original Assignee
Dav SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dav SA filed Critical Dav SA
Priority to FR0805362A priority Critical patent/FR2936479B1/en
Priority to EP09817299A priority patent/EP2377006A1/en
Priority to PCT/EP2009/062715 priority patent/WO2010037795A1/en
Publication of FR2936479A1 publication Critical patent/FR2936479A1/en
Application granted granted Critical
Publication of FR2936479B1 publication Critical patent/FR2936479B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/10Interpretation of driver requests or demands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/143Touch sensitive instrument input devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/143Touch sensitive instrument input devices
    • B60K2360/1438Touch screens

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Automation & Control Theory (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

L'invention concerne un procédé de commande pour un système d'aide à la conduite embarqué dans un véhicule (1), ledit système comportant : - au moins une caméra (3a,3b,3c,3d,3e,3f,3g,3h) pour capturer des flux vidéo de l'environnement du véhicule (1), - une unité de contrôle (5) pour générer une scène tridimensionnelle selon un point de vue prédéfini comprenant : • une représentation tridimensionnelle (9) du véhicule (1), et • au moins une image obtenue à partir des flux vidéo capturés, et - un écran tactile (7) d'entrée de commande. Selon l'invention, ledit procédé comprend les étapes suivantes : - on saisit une trajectoire (15) de commande sur ledit écran tactile (7), - on génère une commande associée à ladite trajectoire (15) pour modifier ladite scène. L'invention concerne encore un système d'aide à la conduite pour la mise en oeuvre d'un tel procédé.The invention relates to a control method for a driver assistance system embedded in a vehicle (1), said system comprising: - at least one camera (3a, 3b, 3c, 3d, 3e, 3f, 3g, 3h ) for capturing video streams from the vehicle environment (1), - a control unit (5) for generating a three-dimensional scene according to a predefined viewpoint comprising: • a three-dimensional representation (9) of the vehicle (1), and at least one image obtained from the captured video streams, and a control input touch screen (7). According to the invention, said method comprises the following steps: - a control trajectory (15) is entered on said touch screen (7), - a command associated with said trajectory (15) is generated for modifying said scene. The invention also relates to a driving assistance system for implementing such a method.

Description

-1- Procédé de commande et système d'aide à la conduite associé La présente invention concerne un procédé de commande dans un système d'aide à la conduite embarqué dans un véhicule automobile, et un système d'aide à la conduite 5 pour la mise en oeuvre d'un tel procédé. Les véhicules automobiles sont de plus en plus équipés de systèmes d'aide à la conduite permettant par exemple, la génération d'alertes sonores ou visuelles en cas de situation dangereuse imminente (par exemple : dépassement de limite, obstacle...) ou encore la détection de véhicules, de piétons ou d'obstacles dans les zones dites d'angle 10 mort. On connaît dans l'art antérieur un procédé d'affichage d'aide à la conduite pour véhicule automobile permettant d'afficher, sur une première partie d'un écran du tableau de bord du véhicule, simultanément l'ensemble des images produites par quatre caméras projetées au sol pour permettre une vision vue d'oiseau de l'environnement immédiat du 15 véhicule, lui-même étant matérialisé par son image en vue de dessus ; et d'afficher à grande échelle, sur une deuxième partie de l'écran du tableau de bord, simultanément à l'affichage précédent, une vue complète d'une ou plusieurs images telles que produites directement par la ou les caméras. Cet art antérieur présente les inconvénients suivants : 20 les images affichées sur l'écran sont fixes et ne peuvent pas être modifiées par l'utilisateur afin de mieux visualiser une zone précise de l'environnement du véhicule, de plus, cette représentation est complexe et peut perturber la bonne compréhension de l'environnement du véhicule et ainsi gêner un utilisateur du véhicule pour se 25 garer par exemple. Cette représentation n'est donc pas intuitive et nécessite une formation de l'utilisateur à un tel affichage d'aide à la conduite de l'art antérieur. Ceci est en particulier un problème pour les véhicules de location. En effet, l'utilisateur d'un véhicule de location pour une courte durée n'a pas le temps de s'adapter 30 à un tel affichage d'aide à la conduite pour pouvoir l'utiliser rapidement durant la BRT0298FR (SFR5139) 2936479 -2- conduite sans être déconcentré. L'invention a donc pour but de palier les inconvénients de l'art antérieur en fournissant des systèmes d'aide à la conduite plus intuitifs. À cet effet, l'invention a pour objet un procédé de commande pour un système d'aide à la conduite embarqué dans un véhicule, ledit système comportant : au moins une caméra pour capturer des flux vidéo de l'environnement du véhicule, une unité de contrôle pour générer une scène tridimensionnelle selon un point de vue prédéfini comprenant : • une représentation tridimensionnelle du véhicule, et • au moins une image obtenue à partir des flux vidéo capturés, et un écran tactile d'entrée de commande, caractérisé en ce que ledit procédé comprend les étapes suivantes : on saisit une trajectoire de commande sur ledit écran tactile, on génère une commande associée à ladite trajectoire pour modifier ladite scène. The present invention relates to a control method in an on-board driving assistance system in a motor vehicle, and to a driving assistance system for driving the vehicle. implementation of such a method. Motor vehicles are increasingly equipped with driver assistance systems, for example, the generation of audible or visual alerts in case of imminent dangerous situation (for example: exceeding of limit, obstacle ...) or detecting vehicles, pedestrians or obstacles in the so-called dead corner zones. In the prior art, a driver assistance display method for a motor vehicle makes it possible to display, on a first part of a screen of the dashboard of the vehicle, all the images produced by four simultaneously. cameras projected on the ground to allow a bird's eye view of the immediate environment of the vehicle, itself being materialized by its image in plan view; and displaying on a large scale, on a second portion of the dashboard screen, simultaneously with the previous display, a complete view of one or more images as directly produced by the one or more cameras. This prior art has the following disadvantages: the images displayed on the screen are fixed and can not be modified by the user to better visualize a specific area of the vehicle environment, moreover, this representation is complex and can interfere with the proper understanding of the vehicle environment and thus interfere with a vehicle user to park for example. This representation is therefore not intuitive and requires training of the user in such a driver assistance display of the prior art. This is particularly a problem for rental vehicles. In fact, the user of a rental vehicle for a short time does not have the time to adapt to such a driver assistance display to be able to use it rapidly during the first time. -2- without being deconcentrated. The invention therefore aims to overcome the disadvantages of the prior art by providing more intuitive driver assistance systems. To this end, the subject of the invention is a control method for an on-vehicle driving assistance system, said system comprising: at least one camera for capturing video streams of the vehicle environment, a unit control system for generating a three-dimensional scene according to a predefined viewpoint comprising: a three-dimensional representation of the vehicle, and at least one image obtained from the captured video streams, and a control input touch screen, characterized in that said method comprises the following steps: a control trajectory is entered on said touch screen, a command associated with said trajectory is generated to modify said scene.

Le procédé de commande selon l'invention peut en outre comporter une ou plusieurs caractéristiques suivantes, prises séparément ou en combinaison : la commande associée à ladite trajectoire permet de faire varier le point de vue de ladite scène, ladite trajectoire est réalisée par un ou plusieurs doigts de l'utilisateur, ledit procédé comprend une étape dans laquelle on compare la trajectoire de commande à un ensemble de trajectoires de commande prédéterminées de manière à déterminer la commande associée pour faire varier le point de vue, la trajectoire de commande est associée à au moins une commande choisie parmi le groupe de commandes comportant : une commande de déplacement en translation de la scène, une commande de déplacement en rotation de la scène, une commande de déplacement en inclinaison de la scène, la trajectoire de commande est associée à une commande pour réaliser un zoom. L'invention a également pour objet un système d'aide à la conduite embarqué dans un véhicule automobile comportant : - au moins une caméra pour capturer des flux vidéo de l'environnement du véhicule, BRT0298FR (SFR5139) 2936479 -3- une unité de contrôle pour générer une scène tridimensionnelle selon un point de vue prédéfini comprenant : • une représentation tridimensionnelle du véhicule, et • au moins une image obtenue à partir des flux vidéo capturés, et 5 un écran tactile d'entrée de commande, caractérisé en ce que ledit système comporte au moins un moyen adapté pour saisir une trajectoire de commande d'un utilisateur sur ledit écran tactile de manière à définir une commande associée à ladite trajectoire saisie pour faire varier le point de vue de ladite scène.The control method according to the invention may further comprise one or more of the following characteristics, taken separately or in combination: the control associated with said trajectory makes it possible to vary the point of view of said scene, said trajectory is carried out by one or more of the user, said method comprises a step in which the control path is compared to a set of predetermined control paths so as to determine the associated control to vary the viewpoint, the control path is associated with the control path. at least one command selected from the group of commands comprising: a command for moving the scene in translation, a command for moving the scene in rotation, a command for moving the scene in inclination, the control path associated with a command to zoom The invention also relates to an on-board driving assistance system in a motor vehicle comprising: at least one camera for capturing video streams of the vehicle environment, a unit of control for generating a three-dimensional scene according to a predefined viewpoint comprising: a three-dimensional representation of the vehicle, and at least one image obtained from the captured video streams, and a control input touch screen, characterized in that said system comprises at least one means adapted to enter a control path of a user on said touch screen so as to define a command associated with said input trajectory to vary the point of view of said scene.

10 Le système d'aide à la conduite selon l'invention peut en outre comporter une ou plusieurs caractéristiques suivantes, prises séparément ou en combinaison : ledit système comporte en outre un moyen d'affichage de la scène tridimensionnelle générée selon un point de vue, - ledit écran tactile et le moyen d'affichage possèdent un référentiel commun, 15 ledit écran tactile comporte un film transparent ou translucide et ledit écran tactile est disposé au-dessus du moyen d'affichage, ledit système comporte : une caméra avant disposée au niveau du centre du pare-choc avant du véhicule, et dirigée vers le bas du véhicule et au-dessus de l'horizon, 20 deux caméras latérales, chacune étant disposée au niveau d'un rétroviseur extérieur du véhicule, et dirigée vers le bas du véhicule, et une caméra arrière disposée au niveau du centre de la fenêtre arrière du véhicule et dirigée vers le bas du véhicule et au-dessus de l'horizon. La présente invention permet donc à l'utilisateur d'agir sur les images affichées 25 de manière intuitive sans être limité par des points de vue prédéfinis. D'autres caractéristiques et avantages de l'invention ressortiront de la description suivante, donnée à titre d'exemple, sans caractère limitatif, en regard des dessins annexés sur lesquels : - la figure 1 illustre un véhicule équipé d'un système d'aide à la conduite selon 30 l'invention, BRT0298FR (SFR5139) 2936479 -4- la figure 2 représente de façon schématique un système d'aide à la conduite, les figures 3a à 3c représentent un exemple d'écrans virtuels permettant de générer une scène tridimensionnelle, la figure 4 représente un exemple d'une scène tridimensionnelle générée selon 5 l'invention, les figures 5a à 5f représentent des exemples de trajectoires de commande dans le système d'aide à la conduite de la figure 1, la figure 6 illustre les étapes d'un procédé de commande selon l'invention. Sur la figure 1, on a représenté un véhicule 1 équipé d'un système d'aide à la 10 conduite. En se référant aux figures 1 et 2, ce système d'aide à la conduite comporte : - une pluralité de caméras 3a-3h pour capturer des flux vidéo de l'environnement du véhicule, une unité de contrôle 5 pour générer une scène tridimensionnelle selon un point de vue prédéfini, et 15 un écran tactile 7 d'entrée de commande d'un utilisateur. Le système d'aide à la conduite comporte un ensemble de caméras 3, à l'avant, à l'arrière et sur les côtés. À l'avant, on peut prévoir : deux caméras avant 3a,3b, agencées sur les côtés du pare-choc avant du véhicule 1, 20 chacune étant dirigée sensiblement vers un côté associé et vers l'avant, une caméra 3f située au niveau du rétroviseur intérieur du véhicule dirigée sensiblement vers l'avant, ou encore une caméra avant 3g située par exemple au niveau du logo du véhicule 1, dirigée sensiblement vers l'avant.The driving assistance system according to the invention may further comprise one or more of the following features, taken separately or in combination: said system further comprises means for displaying the three-dimensional scene generated according to a point of view, said touch screen and the display means have a common reference frame, said touch screen comprises a transparent or translucent film and said touch screen is disposed above the display means, said system comprises: a front camera arranged at the level of from the center of the front bumper of the vehicle, and pointing downwards and above the horizon, two side cameras, each of which is arranged at an outside rear view mirror of the vehicle, and directed downwards. vehicle, and a rear camera disposed at the center of the rear window of the vehicle and directed down the vehicle and over the horizon. The present invention thus enables the user to act on the intuitively displayed images without being limited by predefined views. Other features and advantages of the invention will emerge from the following description, given by way of example, without limitation, with reference to the accompanying drawings, in which: FIG. 1 illustrates a vehicle equipped with an assistance system 2 shows schematically a driving assistance system, FIGS. 3a to 3c show an example of virtual screens making it possible to generate a scene. FIG. FIG. 4 represents an example of a three-dimensional scene generated according to the invention, FIGS. 5a to 5f show examples of control trajectories in the driver assistance system of FIG. 1, FIG. the steps of a control method according to the invention. In Figure 1, there is shown a vehicle 1 equipped with a driving aid system. Referring to FIGS. 1 and 2, this driving assistance system comprises: a plurality of cameras 3a-3h for capturing video streams of the vehicle environment, a control unit 5 for generating a three-dimensional scene according to a predefined viewpoint, and a control input touch screen 7 of a user. The driver assistance system comprises a set of cameras 3, at the front, rear and on the sides. At the front, one can provide: two front cameras 3a, 3b, arranged on the sides of the front bumper of the vehicle 1, 20 each being directed substantially towards an associated side and forward, a camera 3f located at the front the rearview mirror of the vehicle directed substantially towards the front, or a front camera 3g located for example at the logo of the vehicle 1, directed substantially forward.

25 Les caméras avant 3a et 3b, 3f, ou 3g peuvent présenter un angle d'ouverture de 60° ou grand angle (par exemple à angle de vue horizontal de 110°) ou très grand angle (par exemple à angle de vue horizontal de 170°), et permettent de voir vers le bas du véhicule 1 et au-dessus de l'horizon. À l'arrière, on peut prévoir : 30 - une caméra arrière 3c, agencée par exemple dans la poignée du coffre du véhicule 1, BRT0298FR (SFR5139) 2936479 -5- ou au niveau de la plaque d'immatriculation, permettant de voir vers le bas du véhicule 1 et au dessus de l'horizon, et/ou une caméra arrière 3h au dessus de la fenêtre arrière ou au niveau du troisième feu stop du véhicule 1, permettant de voir vers le bas du véhicule 1 et plus au dessus de 5 l'horizon que la caméra arrière 3c. Les caméras arrière 3c, 3h peuvent présenter un grand angle d'ouverture (par exemple avec un angle de vue horizontal entre 110° et 170°). De plus, on peut prévoir deux caméras latérales 3d, 3e, agencées respectivement au niveau du rétroviseur extérieur sur chaque coté du véhicule. Ces caméras latérales 10 3d,3e peuvent avoir un très grand angle (par exemple à angle de vue horizontal de 110°), et pointent vers le bas. Le véhicule 1 comporte une ou plusieurs caméras telles que décrites précédemment. Dans la suite de la description, on choisit un exemple dans lequel l'ensemble de caméras 3 équipant le véhicule 1 comporte les caméras avant 3a,3b, la 15 caméra arrière 3c, et les caméras latérales 3d,3e. Par ailleurs, l'unité de contrôle 5 comprend au moins un moyen de traitement configuré pour générer une scène tridimensionnelle selon un point de vue prédéfini, la scène tridimensionnelle comprenant : au moins une image obtenue à partir des flux vidéo capturés, et 20 une représentation tridimensionnelle 9 du véhicule (figures 3a à 3c), par exemple sous la forme d'un trait fermé représentant le contour du véhicule 1 ou en variante sous la forme d'un parallélépipède, cette représentation tridimensionnelle étant agencée suivant un repère orthogonal représenté sur la figure 3b, comportant : • un axe transversal X dirigé de la gauche vers la droite de la représentation 25 tridimensionnelle 9, • un axe longitudinal Y dirigé de l'avant vers l'arrière de la représentation tridimensionnelle 9, et • un axe vertical Z dirigé du bas vers le haut de la représentation tridimensionnelle 9.The front cameras 3a and 3b, 3f, or 3g may have an opening angle of 60 ° or wide angle (for example 110 ° horizontal angle of view) or very wide angle (for example at a horizontal angle of view of 170 °), and allow to see down vehicle 1 and above the horizon. At the rear, one can provide: - a rear camera 3c, arranged for example in the handle of the trunk of the vehicle 1, BRT0298FR (SFR5139) 2936479 -5- or at the level of the license plate, to see to the bottom of the vehicle 1 and above the horizon, and / or a rear camera 3h above the rear window or at the third brake light of the vehicle 1, allowing to see down the vehicle 1 and above of the horizon that the rear camera 3c. The rear cameras 3c, 3h may have a large opening angle (for example with a horizontal angle of view between 110 ° and 170 °). In addition, one can provide two side cameras 3d, 3e, respectively arranged at the exterior mirror on each side of the vehicle. These side cameras 10 3d, 3e can have a very wide angle (for example 110 ° horizontal angle of view), and point downwards. The vehicle 1 comprises one or more cameras as described above. In the rest of the description, an example is chosen in which the set of cameras 3 equipping the vehicle 1 comprises the front cameras 3a, 3b, the rear camera 3c, and the side cameras 3d, 3e. Furthermore, the control unit 5 comprises at least one processing means configured to generate a three-dimensional scene according to a predefined point of view, the three-dimensional scene comprising: at least one image obtained from the captured video streams, and a representation three-dimensional 9 of the vehicle (Figures 3a to 3c), for example in the form of a closed line representing the outline of the vehicle 1 or alternatively in the form of a parallelepiped, this three-dimensional representation being arranged according to an orthogonal reference shown on the FIG. 3b, comprising: a transverse axis X directed from the left to the right of the three-dimensional representation 9, a longitudinal axis Y directed from the front to the rear of the three-dimensional representation 9, and a vertical axis Z directed from the bottom to the top of the three-dimensional representation 9.

30 Pour générer cette scène tridimensionnelle, l'unité de contrôle 5 comporte par BRT0298FR (SFR5139) 2936479 -6- exemple des moyens de traitement configurés pour générer des écrans virtuels Il a à 11e représentatifs d'un angle solide observé respectivement par les caméras 3a à 3e du véhicule. Ces écrans virtuels I l a à lie sont représentés en traits hachurés sur les figures 3a à 3c.In order to generate this three-dimensional scene, the control unit 5 comprises, by way of example, processing means configured to generate virtual screens 11a to 11e representative of a solid angle observed respectively by the cameras 3a. at 3rd of the vehicle. These virtual screens I l to lie are shown in hatched lines in Figures 3a to 3c.

5 Comme on peut le voir sur les figures 3a et 3b, la forme des écrans virtuels lia,llb,l1c associés respectivement aux caméras avant 3a,3b et arrière 3c, est représentative de la perspective sous laquelle ils vont être vus par un utilisateur du véhicule, par exemple le conducteur. En ce qui concerne les caméras latérales 3d et 3e (figure 3c), on choisit 10 d'associer des écrans virtuels l ld et Il e représentatifs d'une image au sol. L'unité de contrôle 5 permet alors de projeter une image obtenue à partir des flux vidéo capturés par les caméras 3a à 3e dans un écran virtuel lla à lle associé de manière à générer la scène tridimensionnelle. En outre, selon un exemple de réalisation, les écrans virtuels lia-lie se trouvent 15 dans le même référentiel que la représentation tridimensionnelle 9, c'est-à-dire que si la représentation tridimensionnelle 9 se déplace lors de l'affichage de la scène tridimensionnelle par exemple suite à une commande pour modifier la scène, les écrans virtuels 11 a-1 le se déplacent également simultanément avec la représentation tridimensionnelle 9.As can be seen in FIGS. 3a and 3b, the shape of the virtual screens 11a, 11b, 11c associated respectively with front cameras 3a, 3b and rear 3c is representative of the perspective in which they will be seen by a user of the vehicle, for example the driver. With regard to the side cameras 3d and 3e (FIG. 3c), it is chosen to associate virtual screens l ld and Il e representative of a ground image. The control unit 5 then makes it possible to project an image obtained from the video streams captured by the cameras 3a to 3e in a virtual screen 11a associated with it so as to generate the three-dimensional scene. In addition, according to an exemplary embodiment, the virtual screens 11a-lie are in the same frame as the three-dimensional representation 9, that is to say that if the three-dimensional representation 9 moves during the display of the three-dimensional scene for example following a command to modify the scene, the virtual screens 11 a-1 also move simultaneously with the three-dimensional representation 9.

20 Les images fournies par les caméras 3a-3e sont ainsi dynamiquement intégrées aux écrans virtuels lia-11e avec une déformation représentative de la perspective selon laquelle ils vont être vus par l'utilisateur, selon le point de vue prédéterminé. Ainsi un point de vue de la scène est défini par l'orientation de la scène tridimensionnelle et par les écrans virtuels.The images provided by the cameras 3a-3e are thus dynamically integrated with the virtual displays 11a-11e with a deformation representative of the perspective according to which they will be seen by the user, according to the predetermined point of view. Thus a point of view of the scene is defined by the orientation of the three-dimensional scene and by the virtual screens.

25 On entend par point de vue prédéfini, un point de vue initial non sélectionné par l'utilisateur qui s'affiche automatiquement lorsque le système d'aide à la conduite est mis en route, ou encore un point de vue déterminé automatiquement par le système d'aide à la conduite en fonction d'un événement particulier tel qu'une détection d'obstacles dans l'environnement du véhicule ou encore une manoeuvre du véhicule comme se garer. Par 30 exemple, lorsque l'utilisateur effectue une marche arrière, le point de vue de BRT0298FR (SFR5139) 2936479 -7- l'environnement à l'arrière du véhicule est sélectionné. Le système d'aide à la conduite peut alors comporter un moyen d'affichage 13 de la scène tridimensionnelle générée permettant à l'utilisateur de visualiser cette scène tridimensionnelle de manière à avoir une notion réelle de l'environnement de son 5 véhicule et ainsi de mieux appréhender le véhicule dans son environnement lorsqu'il effectue par exemple une manoeuvre délicate telle que garer son véhicule. Un exemple d'affichage d'une telle scène tridimensionnelle est représentée sur la figure 4. Le système d'aide à la conduite comporte en outre un moyen adapté pour saisir une trajectoire 15 de commande d'un utilisateur sur l'écran tactile 7 et des moyens de 10 traitement configurés pour interpréter la trajectoire 15 de commande saisie sur l'écran tactile de manière à générer une commande associée pour modifier la scène tridimensionnelle. La commande associée pour modifier la scène tridimensionnelle permet par exemple de faire varier le point de vue de la scène tridimensionnelle.By predefined point of view is meant an initial point of view not selected by the user that is automatically displayed when the driver assistance system is started, or a point of view determined automatically by the system. assistance with driving according to a particular event such as an obstacle detection in the vehicle environment or a maneuver of the vehicle such as parking. For example, when the user reverses, the view of the environment at the rear of the vehicle is selected. The driver assistance system may then include a display means 13 of the generated three-dimensional scene enabling the user to visualize this three-dimensional scene so as to have a real notion of the environment of his vehicle and thus of better understand the vehicle in its environment when it performs for example a tricky maneuver such as park his vehicle. An example of a display of such a three-dimensional scene is shown in FIG. 4. The driver assistance system furthermore comprises means adapted to enter a control trajectory of a user on the touch screen 7 and processing means configured to interpret the control path entered on the touch screen so as to generate an associated control for modifying the three-dimensional scene. The associated control for modifying the three-dimensional scene makes it possible, for example, to vary the point of view of the three-dimensional scene.

15 Un autre exemple de commande associée pour modifier la scène tridimensionnelle est une commande pour déplacer en translation la scène tridimensionnelle affichée sur le moyen d'affichage 13. On entend par écran tactile un écran comportant un film sensible à une pression d'un ou de plusieurs appuis.Another example of an associated command for modifying the three-dimensional scene is a command for translational movement of the three-dimensional scene displayed on the display means 13. A touch screen is understood to mean a screen comprising a film sensitive to a pressure of one or several supports.

20 Selon un mode de réalisation particulier, le moyen d'affichage 13 et l'écran tactile 7 possèdent un référentiel commun, de sorte qu'une trajectoire 15 de commande réalisée sur une zone de l'écran tactile 7 entraîne un changement de point de vue de la partie de la scène tridimensionnelle affichée au niveau de la zone correspondante du moyen d'affichage 13. Par exemple, lorsque la trajectoire 1:5 de commande est réalisée 25 en haut à gauche de l'écran tactile 7, la partie de la scène affichée en haut à gauche du moyen d'affichage 13 change de point de vue. L'écran tactile 7 peut également comporter un film transparent ou translucide et être disposé au-dessus du moyen d'affichage 13 de la scène tridimensionnelle. L'utilisateur réalise alors une trajectoire 15 de commande directement sur la partie de la 30 scène tridimensionnelle sur laquelle il souhaite agir, ce qui permet une utilisation BRT0298FR (SFR5139) 2936479 -8- intuitive du système d'aide à la conduite. Pour une meilleure optimisation, l'écran tactile 7 et le moyen d'affichage 13 peuvent être choisis de même taille. En outre, la trajectoire 15 de commande peut être réalisée à l'aide d'un stylet ou 5 encore par un ou plusieurs doigts de l'utilisateur. Lorsque l'utilisateur réalise une trajectoire 15 de commande avec un doigt ou un stylet, le film de l'écran tactile 7 comporte des capteurs configurés pour détecter un appui d'un utilisateur et, en fonction de l'effort exercé, la position de l'appui détecté et le déplacement de l'appui sur le film sensible formant une trajectoire 15 de commande, 10 de déclencher une commande associée pour faire varier le point de vue de la scène tridimensionnelle. Pour cela, on prévoit par exemple des capteurs utilisant des résistances sensibles à la pression, également connus sous le nom de capteur FSR pour "Force Sensing Resistor". Lorsque l'utilisateur réalise une trajectoire 15 de commande avec plusieurs 15 doigts, chaque doigt peut effectuer un déplacement propre ou similaire au déplacement d'autres doigts. On peut également prévoir des déplacements des doigts selon des directions sensiblement parallèles ou opposées, ou encore des déplacements des doigts en rotation dans un même sens de rotation. Dans ce cas, le film de l'écran tactile 7 comporte des capteurs d'appuis multiples 20 configurés pour détecter simultanément à plusieurs endroits des pressions et/ou les déplacements des doigts. L'unité de contrôle 5 est alors adaptée pour interpréter simultanément ces actions séparées de manière à déterminer la trajectoire de commande et ainsi la commande associée pour faire varier le point de vue de la scène. On cite comme exemples de déplacements définissant des trajectoires de 25 commande réalisées par l'utilisateur : un déplacement circulaire réalisé par un premier doigt de l'utilisateur pendant qu'un deuxième doigt de l'utilisateur reste fixe (figure 5a), un déplacement rectiligne réalisé par plusieurs doigts de l'utilisateur suivant des directions sensiblement parallèles (figures 5b, 5c,5d), 30 des déplacements rectilignes réalisés par deux doigts de l'utilisateur suivant des BRT0298FR (SFR5139) 2936479 -9- directions opposées (figure 5e), des déplacements circulaires réalisés par deux doigts de l'utilisateur dans un même sens de rotation (figure 5i). Par ailleurs, une trajectoire 15 de commande peut par exemple être associée à : 5 une commande de déplacement en translation de la scène, une commande de déplacement en rotation de la scène, une commande d'inclinaison de la scène, ou encore une commande pour réaliser un zoom. Selon un exemple de réalisation, on associe une trajectoire de commande définie 10 par un déplacement circulaire (figure 5a) à une commande de déplacement en rotation de la scène autour d'un axe de rotation sensiblement parallèle à l'axe vertical Z. Dans ce cas, l'angle réalisé par l'utilisateur sur l'écran tactile 7 est associé à un angle de rotation de la scène tridimensionnelle, et le sens de la trajectoire 15 de commande est associée à un sens de déplacement en rotation de la scène tridimensionnelle.According to one particular embodiment, the display means 13 and the touch screen 7 have a common reference frame, so that a control trajectory 15 made on an area of the touch screen 7 causes a change of point of view of the portion of the three-dimensional scene displayed at the corresponding area of the display means 13. For example, when the control path 1: 5 is made at the top left of the touch screen 7, the portion of the scene displayed at the top left of the display means 13 changes point of view. The touch screen 7 may also comprise a transparent or translucent film and be disposed above the display means 13 of the three-dimensional scene. The user then realizes a control trajectory directly on the part of the three-dimensional scene on which he wishes to act, which allows an intuitive use of the driver assistance system. For better optimization, the touch screen 7 and the display means 13 can be chosen of the same size. In addition, the control path can be achieved with a stylus or with one or more fingers of the user. When the user realizes a control trajectory with a finger or a stylus, the film of the touch screen 7 comprises sensors configured to detect a support of a user and, depending on the force exerted, the position of the detected support and the displacement of the support on the sensitive film forming a control trajectory, 10 to trigger an associated control to vary the point of view of the three-dimensional scene. For this, there are for example sensors using pressure-sensitive resistors, also known as the FSR sensor for "Force Sensing Resistor". When the user realizes a control trajectory with several fingers, each finger can move clean or similar to the movement of other fingers. It is also possible to provide movements of the fingers in substantially parallel or opposite directions, or even displacements of the fingers in rotation in the same direction of rotation. In this case, the film of the touch screen 7 comprises multiple support sensors 20 configured to simultaneously detect pressures and / or movements of the fingers in several places. The control unit 5 is then adapted to simultaneously interpret these separate actions so as to determine the control path and thus the associated control to vary the point of view of the scene. Examples of displacements defining control trajectories made by the user are cited: a circular displacement made by a first finger of the user while a second finger of the user remains fixed (FIG. 5a), a rectilinear movement made by several fingers of the user in substantially parallel directions (FIGS. 5b, 5c, 5d), rectilinear displacements made by two fingers of the user along opposite directions (FIG. 5e). circular movements made by two fingers of the user in the same direction of rotation (Figure 5i). Furthermore, a control trajectory 15 may for example be associated with: a command for translational movement of the scene, a command for moving the scene in rotation, a command for tilting the scene, or a command for zoom in According to an exemplary embodiment, a control trajectory defined by a circular displacement (FIG. 5a) is associated with a control of the rotation of the scene around an axis of rotation substantially parallel to the vertical axis Z. In this case, the angle made by the user on the touch screen 7 is associated with a rotation angle of the three-dimensional scene, and the direction of the control trajectory 15 is associated with a direction of rotation of the three-dimensional scene. .

15 En variante, on associe une trajectoire de commande réalisée par trois doigts de l'utilisateur suivant un déplacement rectiligne (figure 5b) à une commande d'inclinaison de la scène par rapport à un axe sensiblement parallèle à l'axe transversal X, permettant de passer à une vue bidimensionnelle de la scène. Cette vue bidimensionnelle représente par exemple une vue dite d'oiseau.In a variant, a control path made by three fingers of the user is associated with a rectilinear movement (FIG. 5b) to an inclination control of the scene with respect to an axis substantially parallel to the transverse axis X, allowing to move to a two-dimensional view of the scene. This two-dimensional view represents for example a so-called bird view.

20 On peut encore associer une trajectoire de commande réalisée par deux doigts de l'utilisateur suivant un déplacement rectiligne : vers le bas (figure 5c) à une commande de déplacement en translation vers le bas de la scène tridimensionnelle en gardant le même point de vue, ou encore à une commande de déplacement en rotation de la scène autour d'un axe de rotation 25 sensiblement parallèle à l'axe vertical Z, modifiant le point de vue de la scène tridimensionnelle, vers la droite (figure 5d) à une commande de déplacement en translation vers la droite de la scène tridimensionnelle en gardant le même point de vue, ou encore à une commande de déplacement en rotation de la scène autour d'un axe de rotation 30 sensiblement parallèle à l'axe longitudinal Y, modifiant le point de vue de la scène BRT0298FR (SFR5139) 2936479 -10- tridimensionnelle. Bien entendu, on peut prévoir de façon similaire, des commandes de déplacement de la scène tridimensionnelle vers le haut et vers la gauche. Dans ces exemples, la longueur du déplacement réalisé par l'utilisateur sur 5 l'écran tactile 7 est associé à une longueur de déplacement de la scène tridimensionnelle ou à un angle de rotation de la scène tridimensionnelle, la direction de la trajectoire 15 de commande est associée à la direction de déplacement de la scène tridimensionnelle et le sens de la trajectoire 15 de commande est associée à un sens de déplacement de la scène tridimensionnelle ou à un sens de rotation de la scène tridimensionnelle.It is also possible to associate a control trajectory made by two fingers of the user in a rectilinear motion: downwards (FIG. 5c) to a command for translational movement towards the bottom of the three-dimensional scene while keeping the same point of view , or else to a control of rotational displacement of the scene about an axis of rotation substantially parallel to the vertical axis Z, changing the point of view of the three-dimensional scene, to the right (FIG. 5d) to a control translational movement to the right of the three-dimensional scene while keeping the same point of view, or to a control of rotational displacement of the scene about an axis of rotation substantially parallel to the longitudinal axis Y, changing the point of view of the scene BRT0298GB (SFR5139) 2936479 -10- three-dimensional. Of course, it is possible to provide in a similar manner, commands for moving the three-dimensional scene upwards and to the left. In these examples, the length of the displacement made by the user on the touch screen 7 is associated with a displacement length of the three-dimensional scene or at a rotation angle of the three-dimensional scene, the direction of the control trajectory. is associated with the direction of movement of the three-dimensional scene and the direction of the control path is associated with a direction of movement of the three-dimensional scene or a direction of rotation of the three-dimensional scene.

10 On peut également associer une trajectoire 15 de commande réalisée par deux doigts de l'utilisateur suivant des déplacements rectilignes de directions opposées de manière à créer un écartement entre les deux doigts de l'utilisateur (figure 5e) à une commande de zoom avant, qui permet de modifier le point de vue de la scène tridimensionnelle. Dans ce cas, l'écartement entre les deux doigts de l'utilisateur sur la 15 surface tactile 7 est associée à un pourcentage de zoom avant de la scène tridimensionnelle. Bien entendu, on peut prévoir de façon similaire une commande de zoom arrière de la scène tridimensionnelle. On peut aussi associer une trajectoire 15 de commande réalisée par deux doigts de l'utilisateur suivant des déplacements circulaires selon un même sens de rotation 20 (figure 5f) à une commande de déplacement en rotation de la scène autour d'un axe de rotation sensiblement parallèle à l'axe vertical Z, selon un angle prédéfini, par exemple 180°, qui permet de modifier le point de vue de la scène tridimensionnelle. La figure 6 décrit le procédé de commande permettant de faire varier le point de vue de la scène tridimensionnelle.It is also possible to associate a control path made by two fingers of the user in rectilinear displacements in opposite directions so as to create a gap between the two fingers of the user (FIG. which allows to modify the point of view of the three-dimensional scene. In this case, the spacing between the two fingers of the user on the touch surface 7 is associated with a zooming percentage before the three-dimensional scene. Of course, it is possible similarly to provide a zoom out control of the three-dimensional scene. It is also possible to associate a control trajectory made by two fingers of the user according to circular displacements in a same direction of rotation 20 (FIG. 5f) to a control of the rotational movement of the scene about an axis of rotation substantially. parallel to the vertical axis Z, according to a predefined angle, for example 180 °, which makes it possible to modify the point of view of the three-dimensional scene. Figure 6 depicts the control method for varying the point of view of the three-dimensional scene.

25 À cet effet, lors d'une première étape Elon saisit une commande d'entrée réalisée par un utilisateur sous la forme d'une trajectoire 15 de commande sur l'écran tactile 7. Par la suite, on génère une commande associée à la trajectoire 15 de commande pour faire varier le point de vue de la scène tridimensionnelle. La trajectoire 15 de commande permet donc à l'utilisateur de faire varier le point 30 de vue de la scène tridimensionnelle comme il le désire plutôt qu'en sélectionnant un BRT0298FR (SFR5139) 2936479 -11- point de vue parmi un ensemble de points de vue prédéfinis, de manière à bien visualiser une zone précise de l'environnement du véhicule avant de faire une manoeuvre, comme reculer ou se garer. Afin de déterminer la commande associée à la trajectoire 15 de commande saisie 5 pour faire varier le point de vue, on peut prévoir une étape E3 dans laquelle on compare la trajectoire 15 de commande saisie à un ensemble de trajectoires de commande prédéterminées. Enfin, on génère la commande associée à la trajectoire 15 de commande saisie sur l'écran tactile 7 pour une partie de la scène tridimensionnelle et à l'étape E5 on 10 génère et on affiche en temps réel la scène tridimensionnelle selon le point de vue modifié. On comprend donc qu'avec un tel procédé l'utilisateur peut agir sur la scène tridimensionnelle affichée de manière intuitive et n'est pas limité par des points de vue prédéfinis de la scène.For this purpose, in a first step Elon enters an input command made by a user in the form of a control path on the touch screen 7. Thereafter, a command associated with the control is generated. control path to vary the viewpoint of the three-dimensional scene. The control trajectory thus allows the user to vary the point of view of the three-dimensional scene as he desires rather than by selecting a point of view among a set of points of interest. predefined view, so as to clearly visualize a specific area of the vehicle environment before making a maneuver, such as backing up or parking. In order to determine the control associated with the control path input 5 to vary the point of view, a step E3 can be provided in which the input control path 15 is compared to a set of predetermined control paths. Finally, the command associated with the control trajectory seized on the touch screen 7 is generated for a part of the three-dimensional scene, and in step E5 the 3D scene is generated and displayed in real time according to the point of view. amended. It is therefore understood that with such a method the user can act on the three-dimensional scene displayed intuitively and is not limited by predefined views of the scene.

15 BRT0298FR (SFR5139) BRT0298EN (SFR5139)

Claims (8)

REVENDICATIONS1. Procédé de commande pour un système d'aide à la conduite embarqué dans un véhicule (1), ledit système comportant : au moins une caméra (3a,3b,3c,3d,3e,3f,3g,3h) pour capturer des flux vidéo de l'environnement du véhicule (1), une unité de contrôle (5) pour générer une scène tridimensionnelle selon un point de vue prédéfini comprenant : • une représentation tridimensionnelle (9) du véhicule (1), et • au moins une image obtenue à partir des flux vidéo capturés, et un écran tactile (7) d'entrée de commande, caractérisé en ce que ledit procédé comprend les étapes suivantes: on saisit une trajectoire (15) de commande sur ledit écran tactile (7), on génère une commande associée à ladite trajectoire (15) pour modifier ladite scène. REVENDICATIONS1. A control method for an on-vehicle driving aid system (1), said system comprising: at least one camera (3a, 3b, 3c, 3d, 3e, 3f, 3g, 3h) for capturing video streams of the environment of the vehicle (1), a control unit (5) for generating a three-dimensional scene according to a predefined point of view comprising: • a three-dimensional representation (9) of the vehicle (1), and • at least one image obtained from the captured video streams, and a control input touch screen (7), characterized in that said method comprises the following steps: a control trajectory (15) is inputted to said touch screen (7), generated a command associated with said path (15) for modifying said scene. 2. Procédé selon la revendication 1, caractérisé en ce que la commande associée à ladite trajectoire (15) permet de faire varier le point de vue de ladite scène. 2. Method according to claim 1, characterized in that the control associated with said trajectory (15) makes it possible to vary the point of view of said scene. 3. Procédé selon l'une des revendications 1 ou 2, caractérisé en ce que ladite trajectoire (15) est réalisée par un ou plusieurs doigts de l'utilisateur. 3. Method according to one of claims 1 or 2, characterized in that said path (15) is formed by one or more fingers of the user. 4. Procédé selon l'une quelconque des revendications 1 à 3, caractérisé en ce qu'il comprend une étape (E3) dans laquelle on compare la trajectoire (15) de commande à un ensemble de trajectoires de commande prédéterminées de manière à déterminer la commande associée pour modifier ladite scène. 4. Method according to any one of claims 1 to 3, characterized in that it comprises a step (E3) in which the control path (15) is compared to a set of predetermined control paths so as to determine the associated command to modify said scene. 5. Procédé selon l'une quelconque des revendications 1 à 4, caractérisé en ce que la trajectoire de commande est associée à au moins une commande choisie parmi le groupe de commandes comportant : une commande de déplacement en translation de la scène, une commande de déplacement en rotation de la scène, une commande d'inclinaison ,3e la scène. 5. Method according to any one of claims 1 to 4, characterized in that the control path is associated with at least one control selected from the group of commands comprising: a displacement control in translation of the scene, a control of rotating motion of the scene, tilt control, 3rd scene. 6. Procédé selon l'une quelconque des revendications 1 à 5, caractérisé en ce que la trajectoire de commande est associée à une commande pour réaliser BRT0298FR (SFR5139) 2936479 -13- un zoom. 6. Method according to any one of claims 1 to 5, characterized in that the control path is associated with a command to achieve a zoom. 7. Système d'aide à la conduite embarqué dans un véhicule (1) automobile comportant : au moins une caméra (3a,3b,3c,3d,3e,3f,3g,3h) pour capturer des flux 5 vidéo de l'environnement du véhicule (1), une unité de contrôle (5) pour générer une scène tridimensionnelle selon un point de vue prédéfini comprenant : • une représentation tridimensionnelle (9) du véhicule (1), et • au moins une image obtenue à partir des flux vidéo capturés, et 10 un écran tactile (7) d'entrée de commande, caractérisé en ce que ledit système comporte au moins un moyen adapté pour saisir une trajectoire (15) de commande d'un utilisateur sur ledit écran tactile (7) de manière à définir une commande associée à ladite trajectoire (15) saisie pour faire varier le point de vue de ladite scène. 15 7. On-board driving aid system in an automobile vehicle (1) comprising: at least one camera (3a, 3b, 3c, 3d, 3e, 3f, 3g, 3h) for capturing video streams of the environment of the vehicle (1), a control unit (5) for generating a three-dimensional scene according to a predefined point of view comprising: • a three-dimensional representation (9) of the vehicle (1), and • at least one image obtained from the streams captured video, and a control input touch screen (7), characterized in that said system comprises at least one means adapted to capture a control path (15) of a user on said touch screen (7) of in order to define a command associated with said trajectory (15) input to vary the point of view of said scene. 15 8. Système selon la revendication 7, caractérisé en ce qu'il comporte en outre un moyen d'affichage (13) de la scène tridimensionnelle générée selon un point de vue. Système selon la revendication 8, caractérisé en ce que ledit écran tactile (7) et le moyen d'affichage (13) possèdent un référentiel commun. 20 10. Système selon l'une des revendications 8 ou 9, caractérisé en ce que ledit écran tactile (7) comporte un film transparent ou translucide et en ce que ledit écran tactile (7) est disposé au-dessus du moyen d'affichage (13). 11. Système selon l'une quelconque des revendications 7 à 10, caractérisé en ce qu'il comporte : 25 ù une caméra avant (3g) disposée au niveau du centre du pare-choc avant du véhicule (1), et dirigée vers le bas du véhicule et au-dessus de l'horizon, deux caméras latérales (3d),(3e), chacune étant disposée au niveau d'un rétroviseur extérieur du véhicule (1), et dirigée vers le bas du véhicule, et 30 ù une caméra arrière (3c) disposée au niveau du centre de la fenêtre arrière BRT0298FR (SFR5139) 2936479 -14- du véhicule (1), et dirigée vers le bas du véhicule et au-dessus de l'horizon. BRT0298FR (SFR5139) 8. System according to claim 7, characterized in that it further comprises a display means (13) of the three-dimensional scene generated according to a point of view. System according to claim 8, characterized in that said touch screen (7) and the display means (13) have a common reference frame. 10. System according to one of claims 8 or 9, characterized in that said touch screen (7) comprises a transparent or translucent film and in that said touch screen (7) is disposed above the display means (13). 11. System according to any one of claims 7 to 10, characterized in that it comprises: 25 ù a front camera (3g) disposed at the center of the front bumper of the vehicle (1), and directed towards the vehicle bottom and above the horizon, two side cameras (3d), (3e), each disposed at an exterior rearview mirror of the vehicle (1), and directed downwards of the vehicle, and 30 a rear camera (3c) disposed at the center of the rear window BRT0298FR (SFR5139) of the vehicle (1), and directed downwards of the vehicle and above the horizon. BRT0298EN (SFR5139)
FR0805362A 2008-09-30 2008-09-30 CONTROL METHOD AND DRIVING ASSISTANCE SYSTEM THEREFOR Active FR2936479B1 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
FR0805362A FR2936479B1 (en) 2008-09-30 2008-09-30 CONTROL METHOD AND DRIVING ASSISTANCE SYSTEM THEREFOR
EP09817299A EP2377006A1 (en) 2008-09-30 2009-09-30 Method of control and associated driving aid system
PCT/EP2009/062715 WO2010037795A1 (en) 2008-09-30 2009-09-30 Method of control and associated driving aid system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR0805362A FR2936479B1 (en) 2008-09-30 2008-09-30 CONTROL METHOD AND DRIVING ASSISTANCE SYSTEM THEREFOR

Publications (2)

Publication Number Publication Date
FR2936479A1 true FR2936479A1 (en) 2010-04-02
FR2936479B1 FR2936479B1 (en) 2010-10-15

Family

ID=40474695

Family Applications (1)

Application Number Title Priority Date Filing Date
FR0805362A Active FR2936479B1 (en) 2008-09-30 2008-09-30 CONTROL METHOD AND DRIVING ASSISTANCE SYSTEM THEREFOR

Country Status (3)

Country Link
EP (1) EP2377006A1 (en)
FR (1) FR2936479B1 (en)
WO (1) WO2010037795A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150274016A1 (en) * 2014-03-31 2015-10-01 Fujitsu Ten Limited Vehicle control apparatus
CN108789453A (en) * 2018-08-17 2018-11-13 成都跟驰科技有限公司 The touch screen control system of automobile with folding mechanism arm

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2970354B1 (en) * 2010-10-21 2013-04-26 Dav CONTROL METHOD AND CONTROL DEVICE THEREFOR.
CN109278744B (en) * 2018-10-24 2020-07-07 广州小鹏汽车科技有限公司 Automatic parking method and vehicle control system
CN112550305A (en) * 2020-12-18 2021-03-26 雄狮汽车科技(南京)有限公司 Automobile control method based on three-dimensional model

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0949818A2 (en) * 1998-04-07 1999-10-13 Matsushita Electric Industrial Co., Ltd. On-vehicle image display apparatus, image transmission system, image transmission apparatus, and image capture apparatus
EP1115250A1 (en) * 1998-07-31 2001-07-11 Matsushita Electric Industrial Co., Ltd. Method and apparatus for displaying image
JP2003300444A (en) * 2002-04-11 2003-10-21 Hitachi Ltd Drive support device for moving body
EP1400410A2 (en) * 1999-06-25 2004-03-24 Fujitsu Ten Limited Vehicle drive assist system
GB2398048A (en) * 2003-02-07 2004-08-11 Ford Global Tech Llc Vehicle steering aid system
JP2007279638A (en) * 2006-04-12 2007-10-25 Xanavi Informatics Corp Navigation device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0949818A2 (en) * 1998-04-07 1999-10-13 Matsushita Electric Industrial Co., Ltd. On-vehicle image display apparatus, image transmission system, image transmission apparatus, and image capture apparatus
EP1115250A1 (en) * 1998-07-31 2001-07-11 Matsushita Electric Industrial Co., Ltd. Method and apparatus for displaying image
EP1400410A2 (en) * 1999-06-25 2004-03-24 Fujitsu Ten Limited Vehicle drive assist system
JP2003300444A (en) * 2002-04-11 2003-10-21 Hitachi Ltd Drive support device for moving body
GB2398048A (en) * 2003-02-07 2004-08-11 Ford Global Tech Llc Vehicle steering aid system
JP2007279638A (en) * 2006-04-12 2007-10-25 Xanavi Informatics Corp Navigation device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150274016A1 (en) * 2014-03-31 2015-10-01 Fujitsu Ten Limited Vehicle control apparatus
US9346358B2 (en) * 2014-03-31 2016-05-24 Fujitsu Ten Limited Vehicle control apparatus
CN108789453A (en) * 2018-08-17 2018-11-13 成都跟驰科技有限公司 The touch screen control system of automobile with folding mechanism arm

Also Published As

Publication number Publication date
EP2377006A1 (en) 2011-10-19
WO2010037795A1 (en) 2010-04-08
FR2936479B1 (en) 2010-10-15

Similar Documents

Publication Publication Date Title
JP6806156B2 (en) Peripheral monitoring device
EP2133237B1 (en) Process of displaying a parking aid
EP1724153B1 (en) Lighting or signalling device for vehicle
FR2711593A1 (en) Device for monitoring the rear space, respectively before a motor vehicle in parking maneuver.
EP2094531B1 (en) Electronic rear-view device
FR2936479A1 (en) CONTROL METHOD AND DRIVING ASSISTANCE SYSTEM THEREFOR
WO2017211672A1 (en) Optronic viewing device for a land vehicle
US11062149B2 (en) System and method for recording images reflected from a visor
FR3016573B1 (en) VEHICLE MIRROR INSTALLATION
FR2965956A1 (en) METHOD AND DEVICE FOR OPTICALLY REPRESENTING THE ENVIRONMENT OF A VEHICLE
FR3061098A1 (en) METHOD AND DEVICE FOR CONTINUOUS VISION OF THE DRIVER OF A MOTOR VEHICLE BY SUCCESSION OF IMAGES
WO2019091920A1 (en) Method for displaying an image of the area surrounding a vehicle on a touch screen installed in the vehicle
FR3128916A1 (en) Display driving device and display driving method
EP3682320B1 (en) Method for displaying the surroundings of a motor vehicle on a screen, and motor vehicle in which such a method is implemented
FR3051163B1 (en) SYSTEM FOR VISUALIZING AT LEAST ONE FLOW OF IMAGES ON A SCREEN IN A VEHICLE
WO2020007624A1 (en) Panoramic rear-view device using head-up display cameras
EP2193047B1 (en) Assistance device for exiting a hidden lane
FR2956364A1 (en) Driver assistance device for handling e.g. car around building site, has processing unit generating image data defining image to be displayed in vehicle, where image data represents part of vehicle based on relative position of head
FR3093968A1 (en) Vehicle rear view system comprising a plurality of cameras and a computer
FR3072635A1 (en) PERFECTED VIDEO RETROVISION SYSTEM FOR MOTOR VEHICLE.
FR3107483A1 (en) VEHICLE WITH DIGITAL RETROVISION WITH ADJUSTABLE DISPLAY
FR3093058A1 (en) Vehicle camera washing control method and device
FR3079790A1 (en) RETROVISION DEVICE FOR A VEHICLE
EP3418121A1 (en) Device for displaying a motion of a vehicle door and associated method
FR3061780A1 (en) METHOD FOR CONTROLLING A MOTOR VEHICLE DISPLAY AND CORRESPONDING DISPLAY

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 9

PLFP Fee payment

Year of fee payment: 10

PLFP Fee payment

Year of fee payment: 11

PLFP Fee payment

Year of fee payment: 12

PLFP Fee payment

Year of fee payment: 13

PLFP Fee payment

Year of fee payment: 14

PLFP Fee payment

Year of fee payment: 15

PLFP Fee payment

Year of fee payment: 16