WO2023099715A1 - Fahrassistenzsystem, verfahren zum betreiben eines fahrassistenzsystems und computerprogramm - Google Patents

Fahrassistenzsystem, verfahren zum betreiben eines fahrassistenzsystems und computerprogramm Download PDF

Info

Publication number
WO2023099715A1
WO2023099715A1 PCT/EP2022/084164 EP2022084164W WO2023099715A1 WO 2023099715 A1 WO2023099715 A1 WO 2023099715A1 EP 2022084164 W EP2022084164 W EP 2022084164W WO 2023099715 A1 WO2023099715 A1 WO 2023099715A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
visualized
assistance system
gesture
driver assistance
Prior art date
Application number
PCT/EP2022/084164
Other languages
English (en)
French (fr)
Inventor
Boris ISRAEL
Original Assignee
Bayerische Motoren Werke Aktiengesellschaft
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bayerische Motoren Werke Aktiengesellschaft filed Critical Bayerische Motoren Werke Aktiengesellschaft
Publication of WO2023099715A1 publication Critical patent/WO2023099715A1/de

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/167Driving aids for lane monitoring, lane changing, e.g. blind spot detection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D15/00Steering not otherwise provided for
    • B62D15/02Steering position indicators ; Steering position determination; Steering aids
    • B62D15/025Active steering aids, e.g. helping the driver by actively influencing the steering system after environment evaluation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D15/00Steering not otherwise provided for
    • B62D15/02Steering position indicators ; Steering position determination; Steering aids
    • B62D15/025Active steering aids, e.g. helping the driver by actively influencing the steering system after environment evaluation
    • B62D15/0255Automatic changing of lane, e.g. for passing another vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/143Touch sensitive instrument input devices
    • B60K2360/1438Touch screens
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/143Touch sensitive instrument input devices
    • B60K2360/1438Touch screens
    • B60K2360/1442Emulation of input devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/146Instrument input by gesture
    • B60K2360/1468Touch gesture
    • B60K2360/1472Multi-touch gesture

Definitions

  • Driver assistance system method for operating a driver assistance system and computer program
  • the invention relates to a driver assistance system (DAS), a method for operating a driver assistance system, and a computer program that can be used in particular as part of such a method.
  • DAS driver assistance system
  • This can be a driver assistance system that enables automated driving of a vehicle.
  • automated driving means driving with automated longitudinal and/or lateral guidance.
  • Automated driving can, for example, involve driving on the freeway for a longer period of time or driving for a limited period of time when parking.
  • automated driving includes automated driving with any degree of automation. Exemplary degrees of automation are assisted, partially automated, highly automated, fully automated and autonomous driving (with an increasing degree of automation in each case).
  • the five levels of automation mentioned above correspond to SAE levels 1 to 5 of the SAE J3016 standard (SAE - Society of Automotive Engineering). With assisted driving (SAE Level 1), the system performs longitudinal or lateral guidance in certain driving situations.
  • SAE Level 2 With semi-automated driving (SAE Level 2), the system takes over longitudinal and lateral guidance in certain driving situations, whereby the driver has to constantly monitor the system, as with assisted driving.
  • SAE Level 3 With highly automated driving (SAE Level 3), the system takes over longitudinal and lateral guidance in certain driving situations without the driver having to constantly monitor the system; however, the driver must be able to take control of the vehicle within a certain period of time when requested by the system.
  • SAE Level 4 With fully automated driving (SAE Level 4), the system takes over control of the vehicle in certain driving situations, even if the driver does not respond to a request to intervene, meaning that the driver is no longer a fallback option.
  • SAE Level 5 With autonomous driving (SAE Level 5), the system can carry out all aspects of the dynamic driving task under any road and environmental conditions, which can also be controlled by a human driver. SAE Level 5 thus corresponds to driverless driving, in which the system can automatically handle all situations like a human driver throughout the journey; a driver is generally no longer required.
  • driving assistance system should not be limited to a system for assisted driving in the sense explained above (i.e. SAE Level 1), but rather generally refers to a system that provides functions for automated driving.
  • live environment visualization shows the vehicle schematically or even in the correct location in the environment recognized by the vehicle.
  • recognized other road users, lanes and signs can be displayed as parts of the current vehicle environment.
  • locally correct components from a map, such as streets and buildings, can be included in the visualization of the surroundings.
  • driver assistance systems such as a distance to the vehicle in front, a lane that is being controlled, available parking spaces, routes or the like in such visualizations.
  • Such live environment visualizations of a vehicle can be displayed, for example, in touch-operated displays (touch screens) in the center console.
  • a parking maneuver assistant can suggest a target parking space visualized as a rectangular area, which the driver can confirm by touching the area.
  • a reversing assistant can provide a visual suggest an illustrated route that can be confirmed (or rejected) by the driver. It is also possible, for example, that a so-called active lane guiding function can suggest a lane change combination that can be confirmed (or rejected) by the driver.
  • the driver only has the choice of accepting the suggestions of the driver assistance system or rejecting them.
  • the driver usually has to operate dedicated buttons and/or make the setting in a menu.
  • driver assistance system that is improved in particular in this respect and a method for operating such a driver assistance system.
  • a first aspect of the invention relates to a driver assistance system (FAS) for a vehicle.
  • FAS driver assistance system
  • the vehicle (sometimes also referred to below as “own vehicle” or “ego vehicle”) can in particular be a motor vehicle.
  • motor vehicle is to be understood in particular as meaning a land vehicle that is moved by machine power without being tied to railroad tracks.
  • a motor vehicle in this sense can be in the form of a motor vehicle, motorcycle or tractor, for example.
  • the ADAS can, for example, provide one or more functions known per se for automated driving, in particular with at least partially automated longitudinal guidance, such as a speed limiter, automatic cruise control or automatic distance control (ACC).
  • ACC automatic distance control
  • the ADAS may provide one or more functions known per se with at least partially automated lateral guidance, such as a steering and lane guidance assistant (LSA), an avoidance assistant (AWA), a function for automated lane changes, a function for assisted or at least partially automated parking and/or maneuvering, a function for assisted and/or at least partially automated driving with a trailer or the like.
  • LSA steering and lane guidance assistant
  • AWA avoidance assistant
  • the ADAS includes a human-machine interface that is set up to visualize a vehicle environment of the ego vehicle, in particular a current vehicle environment of the ego vehicle, in a way that a vehicle occupant can perceive.
  • the visualization can also include the ego vehicle, for example displaying the ego vehicle in its vehicle environment.
  • the visualization can be provided, for example, in the form of a top view of the vehicle environment (possibly including the ego vehicle) or in the form of a perspective view (e.g. from the perspective of the ego vehicle). It is also conceivable that the visualization, for example by means of one or more arrows, illustrates or highlights for the vehicle occupants a maneuver planned as part of at least partially automated longitudinal and/or lateral guidance of the vehicle, as well as objects and/or obstacles relevant to this.
  • the human-machine interface is also set up to detect a drag and/or pinch gesture performed by the vehicle occupant in relation to the visualized vehicle environment (and possibly the ego vehicle).
  • Drag and pinch gestures are known per se from other contexts, such as the touch operation of smartphones or tablet computers.
  • a traditional drag gesture involves selecting a displayed object (such as a widget) by, for example, touching the appropriate location on a touch screen with a finger, and then moving it to a different location by dragging or sliding the finger across the display surface while maintaining touch contact .
  • a conventional pinch gesture for example, the display surface of a touch screen is touched in two places at the same time, for example with two fingers, such as the thumb and forefinger of one hand.
  • the touch points are then continuously moved apart (so-called “pinch open”) or towards one another (so-called “pinch close”), eg by spreading or bringing the two fingers together, whereby the physical contact with the display surface is maintained.
  • Such pinch gestures are often used to zoom in or out of an image displayed by means of a touch screen or out of the image.
  • the human-machine interface includes a touchscreen that is set up to visualize the vehicle environment (possibly including the ego vehicle) and the drag and / or pinch gesture in the form of a touch gesture of the type described above capture.
  • the touch screen is preferably arranged within easy reach of the vehicle occupant, in particular a driver of the vehicle, such as in the area of a center console of the vehicle.
  • human-machine interfaces than a touchscreen are also conceivable, such as devices that do not have an essentially flat display surface, but rather generate a three-dimensional projection (e.g. in the form of a hologram or in the manner of a hologram) of the vehicle environment.
  • capturing the gesture independently of touching a display surface is also conceivable, e.g. using a camera or another non-contact capturing device that can be part of the human-machine interface.
  • the human-machine interface can therefore have separate devices on the one hand for the visualization and on the other hand for detecting the gesture. Accordingly, the terms drag gesture and pinch gesture should not be understood to be limited to touch operation in the sense of the examples explained above.
  • detecting a drag gesture should generally be understood to mean that the man-machine interface is set up, a specific (real) position of a body part (such as a finger or a hand) of the vehicle occupant with a position of a specific (virtual) element within the visualization of the vehicle environment (possibly including the ego vehicle) and to detect a movement of the body part, whereby the logical association with the displayed element is retained.
  • the human-machine interface can track the movement of the body part through a corresponding movement of the displayed element within the framework of the visualization, ie, for example, the displayed element can be continuously "pulled” or "pushed along" with the real movement.
  • detecting a pinch gesture should be understood in general to mean that the man-machine interface is set up, specific (real) positions of two body parts (such as both hands or two fingers of one hand) of the vehicle occupant, respectively to associate with a position of a (virtual) element within the visualized vehicle environment (possibly including the ego vehicle) and to detect a movement of the two body parts towards or away from each other, whereby the logical association with the displayed elements is retained.
  • the human-machine interface can track the movement of the body parts through a corresponding movement of the displayed elements within the scope of the visualization, ie, for example, the displayed elements can be continuously moved toward or away from each other with the real movement.
  • the ADAS also includes a control device that is set up to generate control signals for longitudinal and/or lateral guidance as a function of the detected drag and/or pinch gesture.
  • the control device can have one or more data processing device(s), which are set up by means of one or more corresponding computer programs or computer program parts to carry out the step of generating the control signals.
  • control device is set up to provide the control signals as part of assisted or partially automated driving with at least partially automated longitudinal and/or lateral guidance.
  • This can include, in particular, that the control device is set up to interpret or evaluate the detected gesture in relation to the visualized vehicle surroundings (possibly including the ego vehicle) with regard to an adjustment of a longitudinal and/or lateral guidance of the vehicle desired by the vehicle occupant to generate the control signals accordingly.
  • the control device can also be set up to output the generated control signals to a corresponding actuator system for influencing the longitudinal and/or lateral guidance of the vehicle.
  • the ADAS can also include such an actuator, ie an actuator that is set up to control the longitudinal and/or lateral guidance of the vehicle as a function of the control signals.
  • the actuator system can include a longitudinal control actuator system, such as a drive train and a braking device, and/or a transverse control actuator system, such as a steering system.
  • the control device is set up to set a target distance for an adaptive cruise control in response to a detected pinch gesture between a visualized ego vehicle (ie a visualization of one's own vehicle) and a visualized vehicle in front.
  • the vehicle occupant can change the distance between the real ego vehicle and a real vehicle in front in a simple and intuitive manner by reducing the target distance as a reference variable as part of the adaptive cruise control according to his pinch gesture (in the case of a " pinch close”) or enlarged (in the case of a “pinch open”).
  • control device is set up, in response to a detected drag gesture, with which a visualized ego vehicle is moved to a visualized free position in a lane adjacent to a lane currently traveled by the virtual ego vehicle (i.e. pushed or is pulled) to generate control signals to perform an automated lane change maneuver.
  • control device is set up, in response to a detected drag gesture with which a visualized ego vehicle is moved (i.e. pushed or pulled) to a visualized free position in front of a visualized vehicle in front, control signals for executing an automated overtaking maneuver generate, with which the real ego vehicle should overtake a real vehicle in front.
  • the human-machine interface can also be set up to detect a gesture with which the vehicle occupant sketches a, preferably continuous, path of a visualized ego vehicle in the visualized vehicle environment (e.g. with his finger "paints"), the control device being set up to determine (in the sense of defining, determining or calculating) a target trajectory for automated longitudinal and/or lateral guidance of the vehicle as a function of the outlined path.
  • the vehicle occupant can enter a desired trajectory for reversing by drawing a path behind the visualized ego vehicle or a trailer of the same.
  • a second aspect of the invention is a method of operating an ADAS.
  • the FAS can be an FAS according to the first aspect of the invention.
  • embodiments of the method according to the invention can correspond to the embodiments of the ADAS according to the invention described in this document and vice versa.
  • One step of the method is visualizing a vehicle environment of a vehicle in a way that a vehicle occupant can perceive. The visualization can be carried out, for example, by means of the man-machine interface of the ADAS according to the first aspect of the invention.
  • a further step is detecting a drag and/or pinch gesture performed by the vehicle occupant in relation to the visualized vehicle environment.
  • the detection can be carried out, for example, by means of the man-machine interface of the ADAS according to the first aspect of the invention.
  • a further step is generating control signals for longitudinal and/or lateral guidance of the vehicle as a function of the detected drag and/or pinch gesture.
  • the generation of the control signals can be carried out, for example, by means of the control device of the ADAS according to the first aspect of the invention.
  • the method includes, as a further step, outputting the generated control signals to an actuator system for influencing the longitudinal and/or lateral guidance of the vehicle.
  • the longitudinal and/or transverse guidance can then be controlled by means of the actuators as a function of the control signals.
  • a third aspect of the invention is a computer program, comprising instructions which, when the computer program is executed by a data processing device, cause the latter to, depending on data that a detected drag and/or pinch movement carried out by a vehicle occupant in relation to a visualized vehicle environment of a vehicle Characterize gesture to generate control signals for a longitudinal and / or lateral guidance of the vehicle.
  • the computer program can also be divided into several separate subprograms, which can each be executed on different data processing devices that may be physically distant from one another (such as several separate processors).
  • the computer program can be set up in particular to carry out the step of generating the control signals of the method according to the second aspect of the invention. Accordingly, the computer program can be executed, for example, on one or more data processing devices which form the control device (or parts thereof) of the ADAS according to the first aspect of the invention or which are derived from the Control device of the FAS are included.
  • embodiments of the computer program according to the invention can correspond to the embodiments of the ADAS according to the invention or the method according to the invention described in this document and vice versa.
  • a fourth aspect of the invention is a computer-readable storage medium storing a computer program according to the third aspect of the invention.
  • a fifth aspect of the invention is a vehicle having an ADAS according to the first aspect of the invention.
  • the invention is based on the idea of creating the possibility for the driver of a vehicle to directly influence the maneuver execution of a driver assistance system using drag and/or pinch gestures in an environment visualization.
  • the driver can request an automated lane change maneuver by pushing (drag gesture) the visualized ego vehicle (i.e. a visual representation of their own vehicle) to a free position in a visualized neighboring lane or by pushing the visualized ego vehicle to the position in front of them request an overtaking maneuver using the visualized vehicle in front.
  • drag gesture the visualized ego vehicle
  • the driver can directly adjust the distance to the vehicle in front by means of a pinch gesture between the visualized ego vehicle and a visualized vehicle in front.
  • FIG. 1 illustrates a driver assistance system by way of example and schematically.
  • Fig. 2 illustrates, by way of example and schematically, a method sequence for operating a driver assistance system, such as the driver assistance system from Fig. 1.
  • FIG. 3 illustrates a drag gesture by way of example and schematically.
  • FIG. 4 illustrates a pinch gesture by way of example and schematically.
  • FIG. 5 illustrates, by way of example and schematically, a request for a lane change using a drag gesture.
  • Fig. 6 illustrates an example and schematically a requirement of a
  • ADAS 1 illustrates, by way of example and schematically, a driver assistance system (DAS) 1 for a vehicle, which is also referred to below as the ego vehicle. Aspects of the mode of operation of ADAS 1 will be explained below, with reference also being made to steps 21-24 of a method 2 for operating an ADAS, such as ADAS 1 from FIG becomes.
  • DAS driver assistance system
  • ADAS 1 includes a human-machine interface 12 that is set up to visualize a current vehicle environment of the vehicle in a way that a vehicle occupant can perceive. Accordingly, a step of method 2 is the visualization 21 of a vehicle environment of a vehicle in a way that a vehicle occupant can perceive.
  • the man-machine interface 12 can include a touchscreen that is set up to visualize the vehicle environment, possibly including the ego vehicle itself, in a schematic plan view or in a perspective view from the perspective of the ego vehicle, as exemplified in FIGS 5-7, which will be discussed in more detail below.
  • the information on which the visualization of the vehicle environment is based can be provided, for example, at least in part by an environment sensor system (e.g. camera, lidar, radar), possibly in connection with a GPS receiver and/or map data.
  • an environment sensor system e.g. camera, lidar, radar
  • the man-machine interface 12 is also set up to permit a drag and/or pinch gesture performed by the vehicle occupant in relation to the visualized vehicle environment (and possibly the visualized ego vehicle 5, cf. FIGS. 5-7). capture. This is illustrated schematically in FIG. 1 by a hand acting on the man-machine interface 12 .
  • a corresponding step of the method sequence 2 shown in FIG. 2 is a detection 22 of a drag and/or pinch gesture performed by the vehicle occupant with respect to the visualized vehicle environment.
  • the touchscreen on which the vehicle environment is visualized can also be set up to use the drag and/or pinch gestures to grasp and recognize as such.
  • 3-4 show examples of drag and pinch gestures that can be performed with the fingers of one hand, such as are known from the operation of smartphones and tablet computers, for example.
  • FIG. 3 shows a drag gesture with which a (here circular) visualized element is spared with a finger from left to right.
  • FIG 4 illustrates a pinch gesture in which two visualized elements (also circular here) are moved towards one another using two fingers of one hand (“pinch close”). Analogously, the fingers and accordingly the visualized elements can also be moved away from each other (“pinch open”).
  • the ADAS 1 also includes a control device 13 which is set up to generate control signals for longitudinal and/or lateral guidance of the vehicle as a function of the detected gesture. Accordingly, a further step of method 2 is the generation 23 of control signals for longitudinal and/or lateral guidance of the vehicle as a function of the detected gesture.
  • the control signals can be provided, for example, as part of assisted or partially automated driving with at least partially automated longitudinal and/or lateral guidance.
  • the ADAS 1 can also be assigned an actuator system 14 which is set up to control the longitudinal and/or lateral guidance of the vehicle 5 as a function of the control signals generated.
  • the actuator system 14 can in particular include a longitudinal control actuator system, such as a braking device and a drive train, and/or a lateral control actuator system, such as a steering system.
  • an optional further step 24 of method 2 is outputting the generated control signals to an actuator 14 for influencing the longitudinal and/or lateral guidance of the vehicle and controlling the longitudinal and/or lateral guidance by means of the actuator 14 and depending on the generated signals control signals.
  • the human-machine interface 12 is used to Vehicle including (for longitudinal and / or lateral guidance) relevant elements of its vehicle environment, in particular lane boundaries and other vehicles 6, 7, visualized schematically in a plan view (s.
  • the visualized ego vehicle 5 Within the scope of the visualization, the ego vehicle 5 is pushed to a free position in a lane adjacent to the lane currently being traveled by means of a drag gesture.
  • the control device 13 then generates control signals for carrying out an automated lane change maneuver. Actual execution of the desired lane change maneuver can depend on other conditions, in particular from the point of view that the lane change maneuver should be able to be carried out safely.
  • a drag gesture is executed at the human-machine interface 12, with which the visualized ego vehicle 5 is moved to a position in front of a visualized vehicle 6 in front within the framework of the visualization.
  • the control device 13 In response to the detection 22 of this gesture by means of the man-machine interface 12, the control device 13 then generates control signals for executing an automated overtaking maneuver of a real vehicle in front. Actual execution of the requested overtaking maneuver can depend on additional conditions, in particular from the point of view that the overtaking maneuver should be able to be carried out safely.
  • FIG. 7 illustrates, by way of example and schematically, a request for a reduction in a setpoint distance in the case of an adaptive cruise control using a pinch gesture.
  • a pinch gesture between the visualized ego vehicle 5 and a visualized vehicle 6 in front is detected by the human-machine interface 12 .
  • the visualized ego vehicle 5 and the visualized vehicle in front 6 are moved towards one another by means of the pinch gesture (“pinch close”).
  • pinch close a target distance between the real ego vehicle and a vehicle in front (corresponding to virtual vehicle 6) is reduced (or increased in the alternative case of a pinch-open gesture) as part of adaptive cruise control of ADAS 1 ).

Landscapes

  • Engineering & Computer Science (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Traffic Control Systems (AREA)

Abstract

Ein Fahrassistenzsystem (1) für ein Fahrzeug umfasst: Eine Mensch-Maschine-Schnittstelle (12), die eingerichtet ist zum Visualisieren (21) eines Fahrzeugumfelds des Fahrzeugs in einer für einen Fahrzeuginsassen wahrnehmbaren Weise und zum Erfassen (22) einer durch den Fahrzeuginsassen in Bezug auf das visualisierte Fahrzeugumfeld ausgeführten Drag- und/oder Pinch-Geste. Des Weiteren umfasst das Fahrerassistenzsystem (1) eine Steuervorrichtung (13), die eingerichtet ist zum Erzeugen (23) von Steuersignalen für eine Längs- und/oder Querführung des Fahrzeugs in Abhängigkeit von der erfassten Geste.

Description

Fahrassistenzsystem, Verfahren zum Betreiben eines Fahrassistenzsystems und Computerprogramm
Die Erfindung betrifft ein Fahrassistenzsystem (FAS), ein Verfahren zum Betreiben eines Fahrassistenzsystems sowie ein Computerprogramm, das insbesondere im Rahmen eines solchen Verfahrens eingesetzt werden kann. Dabei kann es sich um ein Fahrassistenzsystem handeln, welches ein automatisiertes Fahren eines Fahrzeugs ermöglicht.
Unter dem Begriff „automatisiertes Fahren“ wird im Rahmen des Dokuments ein Fahren mit automatisierter Längs- und/oder Querführung verstanden. Beim automatisierten Fahren kann es sich beispielsweise um ein zeitlich längeres Fahren auf der Autobahn oder um ein zeitlich begrenztes Fahren im Rahmen des Einparkens handeln. Der Begriff „automatisiertes Fahren“ umfasst automatisiertes Fahren mit einem beliebigen Automatisierungsgrad. Beispielhafte Automatisierungsgrade sind assistiertes, teilautomatisiertes, hochautomatisiertes, vollautomatisiertes und autonomes Fahren (mit jeweils zunehmendem Automatisierungsgrad). Die vorstehend genannten fünf Automatisierungsgrade entsprechen den SAE-Leveln 1 bis 5 der Norm SAE J3016 (SAE - Society of Automotive Engineering). Beim assistierten Fahren (SAE-Level 1) führt das System die Längs- oder Querführung in bestimmten Fahrsituationen durch. Beim teilautomatisierten Fahren (SAE-Level 2) übernimmt das System die Längs- und Querführung in bestimmten Fahrsituationen, wobei der Fahrer das System wie beim assistierten Fahren dauerhaft überwachen muss. Beim hochautomatisierten Fahren (SAE- Level 3) übernimmt das System die Längs- und Querführung in bestimmten Fahrsituationen, ohne dass der Fahrer das System dauerhaft überwachen muss; der Fahrer muss aber innerhalb einer gewissen Zeit in der Lage sein, die Fahrzeugführung auf Anforderung durch das System zu übernehmen. Beim vollautomatisierten Fahren (SAE-Level 4) übernimmt das System die Fahrzeugführung in bestimmten Fahrsituationen, selbst wenn der Fahrer auf eine Anforderung zum Eingreifen nicht reagiert, so dass der Fahrer als Rückfallebene entfällt. Beim autonomen Fahren (SAE-Level 5) können vom System alle Aspekte der dynamischen Fahraufgabe unter jeder Fahrbahn- und Umgebungsbedingung durchgeführt werden, welche auch von einem menschlichen Fahrer beherrscht werden. Der SAE-Level 5 entspricht somit einem fahrerlosen Fahren, bei dem das System während der ganzen Fahrt alle Situationen wie ein menschlicher Fahrer automatisch bewältigen kann; ein Fahrer ist generell nicht mehr erforderlich.
Der Begriff „Fahrassistenzsystem“ soll sich im Rahmen der vorliegenden Offenbarung nicht etwa auf ein System zum assistierten Fahren in dem vorstehend erläuterten Sinn (d.h. SAE- Level 1) beschränken, sondern bezeichnet vielmehr allgemein ein System, welches Funktionen zum automatisierten Fahren bereitstellt.
Heutige Fahrzeuge sind teilweise bereits mit Systemen für eine Live-Umfeldvisualisierung ausgestattet, die das Fahrzeug in der vom Fahrzeug erkannten Umgebung schematisch oder sogar ortskorrekt darstellt. Dabei können beispielsweise erkannte andere Verkehrsteilnehmer, Fahrspuren und Schilder als Teile des aktuellen Fahrzeugumfelds dargestellt werden. Ferner können ortskorrekte Bestandteile aus einer Karte, wie z.B. Straßen und Gebäude, in der Umfeldvisualisierung enthalten sein.
Es ist ferner an sich bekannt, in derartigen Visualisierungen auch Anzeigen für Fahrerassistenzsysteme, wie z.B. einen Abstand zum Vorderfahrzeug, eine Spur, auf die geregelt wird, verfügbare Parklücken, Fahrwege oder dergleichen, darzustellen.
Solche Live-Umfeldvisualisierungen eines Fahrzeugs können beispielsweise in per Berührung bedienbaren Displays (Touchscreens) in der Mittelkonsole angezeigt werden.
Sollen Fahrassistenzsysteme komplexere Manöver fahren, erfolgt die Bedienung bei herkömmlichen Lösungen durch Vorschläge des Fahrzeugs, die vom Fahrer ausgewählt oder bestätigt werden müssen. Beispielweise kann ein Parkmanöverassistent eine als rechteckige Fläche visualisierte Ziel-Parklücke vorschlagen, die der Fahrer durch Berühren der Fläche bestätigen kann. Als weiteres Beispiel kann ein Rückfahrassistent eine visuell veranschaulichte Route vorschlagen, die durch den Fahrer bestätigt (oder abgelehnt) werden kann. Ferner ist z.B. möglich, dass eine sogenannte Active-Lane-Guiding-Funktion eine Spurwechselkombination vorschlagen kann, die vom Fahrer bestätigt (oder abgelehnt) werden kann.
Der Fahrer hat bei den beschriebenen herkömmlichen Lösungen nur die Wahl, die Vorschläge des Fahrassistenzsystems annehmen oder sie abzulehnen. Für bestimmte flexible Einstellungen, wie z.B. die Anpassung eines Abstands zum Vorderfahrzeug im Rahmen einer Abstandsgeschwindigkeitsregelung, muss der Fahrer üblicherweise dedizierte Tasten bedienen und/oder die Einstellung in einem Menü vornehmen.
Es besteht generell ein Bedarf, die Mensch-Maschine-Interaktion bei Fahrassistenzsystemen weiter zu verbessern, um einem Benutzer möglichst komfortable und intuitive Bedienmöglichkeiten zu bieten. Es ist eine Aufgabe der vorliegenden Erfindung, ein insbesondere in dieser Hinsicht verbessertes Fahrassistenzsystem sowie ein Verfahren zum Betreiben eines solchen Fahrassistenzsystems anzugeben.
Die Aufgabe wird durch die Gegenstände der unabhängigen Patentansprüche gelöst. Vorteilhafte Ausführungsformen sind in den abhängigen Ansprüchen angegeben.
Es wird darauf hingewiesen, dass zusätzliche Merkmale eines von einem unabhängigen Patentanspruch abhängigen Patentanspruchs ohne die Merkmale des unabhängigen Patentanspruchs oder nur in Kombination mit einer Teilmenge der Merkmale des unabhängigen Patentanspruchs eine eigene und von der Kombination sämtlicher Merkmale des unabhängigen Patentanspruchs unabhängige Erfindung bilden können, die zum Gegenstand eines unabhängigen Patentanspruchs, einer Teilungsanmeldung oder einer Nachanmeldung gemacht werden kann. Dies gilt in gleicher Weise für in der Beschreibung erläuterte technische Lehren, die eine von den Merkmalen der unabhängigen Patentansprüche unabhängige Erfindung bilden können.
Ein erster Aspekt der Erfindung betrifft ein Fahrassistenzsystem (FAS) für ein Fahrzeug.
Das Fahrzeug (im Folgenden mitunter auch als „eigenes Fahrzeug“ oder „Ego-Fahrzeug“ bezeichnet) kann insbesondere ein Kraftfahrzeug sein. Unter dem Begriff Kraftfahrzeug soll dabei insbesondere ein Landfahrzeug, das durch Maschinenkraft bewegt wird, ohne an Bahngleise gebunden zu sein, verstanden werden. Ein Kraftfahrzeug in diesem Sinne kann z.B. als Kraftwagen, Kraftrad oder Zugmaschine ausgebildet sein. Das FAS kann z.B. eine oder mehrere an sich bekannte Funktionen zum automatisierten Fahren bereitstellen, insbesondere mit einer wenigstens teilweise automatisierten Längsführung, wie z.B. eine Geschwindigkeitsbegrenzung, eine automatische Geschwindigkeitsregelung oder eine automatische Abstandsgeschwindigkeitsregelung (ACC). Zusätzlich oder alternativ ist es aber auch möglich, dass das FAS eine oder mehrere an sich bekannte Funktionen mit einer wenigstens teilweise automatisierten Querführung bereitstellt, wie z.B. einen Lenk- und Spurführungsassistenten (LSA), einen Ausweichassistenten (AWA), eine Funktion zum automatisierten Spurwechsel, eine Funktion zum assistierten oder wenigstens teilweise automatisierten Parken und/oder Rangieren, eine Funktion zum assistierten und/oder wenigstens teilweise automatisierten Fahren mit Anhänger oder dergleichen.
Erfindungsgemäß umfasst das FAS eine Mensch-Maschine-Schnittstelle, die eingerichtet ist, ein Fahrzeugumfeld des Ego-Fahrzeugs, insbesondere ein aktuelles Fahrzeugumfeld des Ego-Fahrzeugs, in einer für einen Fahrzeuginsassen wahrnehmbaren Weise zu visualisieren.
Dabei kann die Visualisierung auch das Ego-Fahrzeug mit einschließen, also beispielsweise das Ego-Fahrzeug in seinem Fahrzeugumfeld darstellen. Die Visualisierung kann z.B. in Form einer Draufsicht auf das Fahrzeugumfeld (ggf. mitsamt dem Ego-Fahrzeug) oder in Form einer perspektivischen Ansicht (z.B. aus der Sicht des Ego-Fahrzeugs) bereitgestellt werden. Ferner ist denkbar, dass die Visualisierung, etwa mittels eines oder mehrerer Pfeile, für den Fahrzeuginsassen eine im Rahmen einer wenigstens teilweise automatisierten Längs- und oder Querführung des Fahrzeugs geplanten Manöverausführung sowie dafür relevante Objekte und/oder Hindernisse veranschaulicht oder hervorhebt.
Die Mensch-Maschine-Schnittstelle ist ferner eingerichtet, eine durch den Fahrzeuginsassen in Bezug auf das visualisierte Fahrzeugumfeld (und ggf. das Ego-Fahrzeug) ausgeführte Drag- und/oder Pinch-Geste zu erfassen.
Drag- und Pinch-Gesten sind an sich aus anderen Zusammenhängen, wie z.B. der Touch- Bedienung von Smartphones oder Tablet-Computern, bekannt. Bei einer herkömmlichen Drag-Geste wird, z.B. durch Berühren der entsprechenden Stelle eines Touchscreens mit einem Finger, ein angezeigtes Objekt (etwa ein Widget) ausgewählt und dieses sodann durch Ziehen oder Schieben des Fingers über die Anzeigeoberfläche unter Aufrechterhalten des Berührungskontakts an eine andere Stelle bewegt. Bei einer herkömmlichen Pinch-Geste wird z.B. die Anzeigeoberfläche eines Touchscreens zugleich an zwei Stellen berührt, etwa mit zwei Fingern, wie z.B. Daumen und Zeigefinger einer Hand. Die Berührpunkte werden sodann kontinuierlich auseinander bewegt (sog. „pinch open“) oder aufeinander zu bewegt (sog. „pinch close“), z.B. durch Spreizen bzw. Zusammenführen der beiden Finger, wobei der Berührungskontakt mit der Anzeigeoberfläche aufrechterhalten bleibt. Solche Pinch-Gesten werden häufig zum Hinein- oder Herauszoomen in ein mittels eines T ouchscreens angezeigtes Bild bzw. aus dem Bild heraus eingesetzt.
Gemäß einer Ausführungsform umfasst die Mensch-Maschine-Schnittstelle einen Touchscreen, der eingerichtet, das Fahrzeugumfeld (ggf. einschließlich des Ego-Fahrzeugs) zu visualisieren und die Drag- und/oder Pinch-Geste in Form einer Touch-Geste der vorstehend beschriebenen Art zu erfassen. Der Touchscreen ist dabei bevorzugt in komfortabler Reichweite des Fahrzeuginsassen, insbesondere eines Fahrers des Fahrzeugs, angeordnet, wie z.B. im Bereich einer Mittelkonsole des Fahrzeugs.
Es sind aber grundsätzlich auch andere Mensch-Maschine-Schnittstellen als ein Touchscreen denkbar, wie z.B. Vorrichtungen, die keine im Wesentlichen flache Anzeigeoberfläche aufweisen, sondern vielmehr eine dreidimensionale Projektion (etwa in Form eines Hologramms oder nach Art eines Hologramms) des Fahrzeugumfelds erzeugen. Beispielsweise ist auch ein Erfassen der Geste unabhängig von einer Berührung einer Anzeigefläche denkbar, wie z.B. mittels einer Kamera oder einer anderen berührungslosen Erfassungsvorrichtung, die Teil der Mensch-Maschine-Schnittstelle sein kann. Die Mensch- Maschine-Schnittstelle kann also ggf. separate Vorrichtungen einerseits für die Visualisierung und andererseits zum Erfassen der Geste aufweisen. Dementsprechend sollen die Begriffe Drag-Geste und Pinch-Geste nicht beschränkt auf eine Touchbedienung im Sinne der vorstehend erläuterten Beispiele verstanden werden.
Vielmehr soll im Rahmen der vorliegenden Beschreibung unter dem Erfassen einer Drag- Geste allgemein verstanden werden, dass die Mensch-Maschine-Schnittstelle eingerichtet ist, eine bestimmte (reale) Position eines Körperteils (wie z.B. eines Fingers oder einer Hand) des Fahrzeuginsassen mit einer Position eines bestimmten (virtuellen) Elements innerhalb der Visualisierung des Fahrzeugumfelds (ggf. einschließlich des Ego-Fahrzeugs) zu assoziieren und eine Bewegung des Körperteils zu erfassen, wobei die logische Assoziation mit dem angezeigten Element erhalten bleibt. Optional kann die Mensch-Maschine-Schnittstelle dabei die Bewegung des Körperteils durch eine entsprechende Bewegung des angezeigten Elements im Rahmen der Visualisierung nachvollziehen, d.h. z.B. das angezeigte Element kontinuierlich mit der realen Bewegung „mitziehen“ oder „mitschieben“. Analog dazu soll im Rahmen der vorliegenden Beschreibung unter dem Erfassen einer Pinch- Geste allgemein verstanden werden, dass die Mensch-Maschine-Schnittstelle eingerichtet ist, bestimmte (reale) Positionen zweier Körperteile (wie z.B. beider Hände oder zweier Finger einer Hand) des Fahrzeuginsassen jeweils mit einer Position eines (virtuellen) Elements innerhalb des visualisierten Fahrzeugumfelds (ggf. einschließlich des Ego-Fahrzeugs) zu assoziieren und eine Bewegung der beiden Körperteile aufeinander zu oder voneinander weg zu erfassen, wobei die logische Assoziation mit den angezeigten Elementen erhalten bleibt. Optional kann die Mensch-Maschine-Schnittstelle dabei die Bewegung der Körperteile durch eine entsprechende Bewegung der angezeigten Elemente im Rahmen der Visualisierung nachvollziehen, d.h. z.B. die angezeigten Elemente kontinuierlich mit der realen Bewegung aufeinander zu bzw. voneinander weg bewegen.
Erfindungsgemäß umfasst das FAS zudem eine Steuervorrichtung, die eingerichtet ist, in Abhängigkeit von der erfassten Drag- und/oder Pinch-Geste Steuersignalen für eine Längs- und/oder Querführung zu erzeugen. Beispielsweise kann die Steuervorrichtung eine oder mehrere Datenverarbeitungseinrichtung(en) aufweisen, welche mittels eines oder mehrerer entsprechender Computerprogramme bzw. Computerprogrammteile dazu eingerichtet sind, den Schritt des Erzeugens der Steuersignale auszuführen.
Gemäß einer Ausführungsform ist die Steuervorrichtung eingerichtet, die Steuersignale im Rahmen eines assistierten oder teilautomatisierten Fahrens mit einer wenigstens teilweise automatisierten Längs- und/oder Querführung, bereitzustellen. Dies kann insbesondere einschließen, dass die Steuervorrichtung eingerichtet ist, die erfasste Geste in Bezug auf das visualisierte Fahrzeugumfeld (ggf. einschließlich des Ego-Fahrzeugs) hinsichtlich einer durch den Fahrzeuginsassen gewünschten Anpassung einer Längs- und/oder Querführung des Fahrzeugs zu interpretieren oder auszuwerten und die Steuersignale dementsprechend zu generieren.
Die Steuervorrichtung kann ferner eingerichtet sein, die erzeugten Steuersignale an eine entsprechende Aktuatorik zur Beeinflussung des Längs- und/oder Querführung des Fahrzeugs auszugeben. Gemäß einer Weiterbildung kann das FAS auch eine solche Aktuatorik umfassen, d.h. eine Aktuatorik, die eingerichtet ist, die Längs- und/oder Querführung des Fahrzeugs in Abhängigkeit von den Steuersignalen zu steuern. Die Aktuatorik kann insbesondere eine Längsführungsaktuatorik, wie z.B. einen Antriebsstrang und eine Bremseinrichtung, und/oder eine Querführungsaktuatorik, wie z.B. eine Lenkung, umfassen. Gemäß einer Ausführungsform ist die Steuervorrichtung eingerichtet, in Reaktion auf eine erfasste Pinch-Geste zwischen einem visualisierten Ego-Fahrzeug (d.h. einer Visualisierung des eigenen Fahrzeugs) und einem visualisierten Vorderfahrzeug einen Soll-Abstand für eine einer Abstandsgeschwindigkeitsregelung einzustellen. Beispielsweise kann der Fahrzeuginsasse auf diese Weise in einfacher und intuitiver Weise den Abstand zwischen dem realen Ego-Fahrzeug und einem realen Vorderfahrzeug verändern, indem der Soll-Abstand als eine Führungsgröße im Rahmen der Abstandsgeschwindigkeitsregelung entsprechend seiner Pinch-Geste verringert wird (im Fall eines „pinch close“) oder vergrößert wird (im Fall eines „pinch open“).
Gemäß einer Ausführungsform ist die Steuervorrichtung eingerichtet, in Reaktion auf eine erfasste Drag-Geste, mit der ein visualisiertes Ego-Fahrzeug auf eine visualisierte freie Position in einer zu einer aktuell durch das virtuelle Ego-Fahrzeug befahrenen Fahrspur benachbarte Fahrspur bewegt wird (d.h. geschoben oder gezogen wird), Steuersignale zum Ausführen eines automatisierten Spurwechselmanövers zu erzeugen.
Gemäß einer Ausführungsform ist die Steuervorrichtung eingerichtet, in Reaktion auf eine erfasste Drag-Geste, mit der ein visualisiertes Ego-Fahrzeug auf eine visualisierte freie Position vor einem visualisierten Vorderfahrzeug bewegt wird (d.h. geschoben oder gezogen wird), Steuersignale zum Ausführen eines automatisierten Überholmanövers zu erzeugen, mit welchem das reale Ego-Fahrzeug ein reales Vorderfahrzeug überholen soll.
Es liegt auch im Rahmen der Erfindung, dass die Mensch-Maschine-Schnittstelle ferner eingerichtet sein kann, eine Geste zu erfassen, mit der der Fahrzeuginsasse einen, vorzugsweise kontinuierlichen, Pfad eines visualisierten Ego-Fahrzeugs in dem visualisierten Fahrzeugumfeld skizziert (z.B. mit seinem Finger „malt“), wobei die Steuervorrichtung eingerichtet ist, in Abhängigkeit von dem skizzierten Pfad eine Zieltrajektorie für eine automatisierte Längs- und/oder Querführung des Fahrzeugs zu bestimmen (i. S. v. festzulegen, zu ermitteln oder zu berechnen). So kann der Fahrzeuginsasse z.B. durch Zeichnen eines Pfades hinter dem visualisierten Ego-Fahrzeug oder eines Anhängers desselben eine gewünschte Trajektorie zum Rückwärtsfahren eingeben.
Ein zweiter Erfindungsaspekt ist ein Verfahren zum Betreiben eines FAS. Dabei kann das FAS ein FAS gemäß dem ersten Erfindungsaspekt sein. Dementsprechend können Ausführungsformen des erfindungsgemäßen Verfahrens den in diesem Dokument beschriebenen Ausführungsformen des erfindungsgemäßen FAS entsprechen und umgekehrt. Ein Schritt des Verfahrens ist ein Visualisieren eines Fahrzeugumfeld eines Fahrzeugs in einer für einen Fahrzeuginsassen wahrnehmbaren Weise. Das Visualisieren kann beispielsweise mittels der Mensch-Maschine-Schnittstelle des FAS gemäß dem ersten Erfindungsaspekt ausgeführt werden.
Ein weiterer Schritt ist ein Erfassen einer durch den Fahrzeuginsassen mit Bezug auf das visualisierte Fahrzeugumfeld ausgeführte Drag- und/oder Pinch-Geste. Das Erfassen kann beispielsweise mittels der Mensch-Maschine-Schnittstelle des FAS gemäß dem ersten Erfindungsaspekt ausgeführt werden.
Ein weiterer Schritt ist ein Erzeugen von Steuersignalen für eine Längs- und/oder Querführung des Fahrzeugs in Abhängigkeit von der erfassten Drag- und/oder Pinch-Geste. Das Erzeugen der Steuersignale kann beispielsweise mittels der Steuervorrichtung des FAS gemäß dem ersten Erfindungsaspekt ausgeführt werden.
Gemäß einer optionalen Weiterbildung umfasst das Verfahren als einen weiteren Schritt ein Ausgeben der erzeugten Steuersignale an eine Aktuatorik zur Beeinflussung des Längs- und/oder Querführung des Fahrzeugs. In einem weiteren Schritt kann sodann die Längs- und/oder Querführung mittels der Aktuatorik in Abhängigkeit von den Steuersignalen gesteuert werden.
Ein dritter Erfindungsaspekt ist ein Computerprogramm, umfassend Befehle, die bei der Ausführung des Computerprogramms durch eine Datenverarbeitungseinrichtung diese veranlassen, in Abhängigkeit von Daten, die eine erfasste, durch einen Fahrzeuginsassen in Bezug auf ein visualisiertes Fahrzeugumfeld eines Fahrzeugs ausgeführte Drag- und/oder Pinch-Geste kennzeichnen, Steuersignale für eine Längs- und/oder Querführung des Fahrzeugs zu erzeugen. Dabei kann das Computerprogramm gemäß einigen Ausführungsformen auch auf mehrere separate Teilprogramme aufgeteilt sein, die jeweils auf verschiedenen, ggf. räumlich voneinander entfernten Datenverarbeitungseinrichtungen (wie z.B. mehreren separaten Prozessoren) ausgeführt werden können.
Das Computerprogramm kann eingerichtet sein, insbesondere den Schritt des Erzeugens der Steuersignale des Verfahrens gemäß dem zweiten Erfindungsaspekt auszuführen. Dementsprechend kann das Computerprogramm z.B. auf einer oder mehreren Datenverarbeitungseinrichtungen ausgeführt werden, welche die Steuervorrichtung (oder Teile davon) des FAS gemäß dem ersten Erfindungsaspekt bilden bzw. welche von der Steuervorrichtung des FAS umfasst sind. Insofern können Ausführungsformen des erfindungsgemäßen Computerprogramms den in diesem Dokument beschriebenen Ausführungsformen des erfindungsgemäßen FAS bzw. des erfindungsgemäßen Verfahrens entsprechen und umgekehrt.
Ein vierter Erfindungsaspekt ist ein computerlesbares Speichermedium, auf dem ein Computerprogramm gemäß dem dritten Erfindungsaspekt gespeichert ist.
Ein fünfter Erfindungsaspekt ist ein Fahrzeug mit einem FAS gemäß dem ersten Erfindungsaspekt.
Im Einklang mit einigen vorstehend und nachfolgend beschriebenen Ausführungsformen liegt der Erfindung der Gedanke zu Grunde, für den Fahrer eines Fahrzeugs die Möglichkeit zu schaffen, per Drag- und/oder Pinch-Gesten in einer Umfeldvisualisierung direkt die Manöverausführung eines Fahrassistenzsystems zu beeinflussen. Dadurch sind Eingaben auch komplexer Fahrmanöver durch den Fahrer intuitiver möglich. Beispielsweise kann der Fahrer durch Schieben (Drag-Geste) des visualisierten Ego-Fahrzeugs (d.h. einer visuellen Darstellung des eigenen Fahrzeugs) auf eine freie Position in einer visualisierten Nachbarspur einen automatisiertes Spurwechselmanöver anfordern oder durch Schieben des visualisierten Ego-Fahrzeugs auf die Position vor einem visualisierten Vorderfahrzeug ein Überholmanöver anfordern. Bei einem Abstandsgeschwindigkeitsregler ist z.B. denkbar, dass der Fahrer durch eine Pinch-Geste zwischen dem visualisierten Ego-Fahrzeug und einem visualisierten Vorderfahrzeug den Abstand zum Vorderfahrzeug direkt verstellen kann.
Die Erfindung wird nun anhand von Ausführungsbeispielen sowie unter Bezugnahme auf die beigefügten Zeichnungen näher erläutert.
Fig. 1 veranschaulicht beispielhaft und schematisch ein Fahrassistenzsystem.
Fig. 2 veranschaulicht beispielhaft und schematisch einen Verfahrensablauf zum Betreiben eines Fahrassistenzsystems, wie z.B. des Fahrassistenzsystems aus Fig. 1.
Fig. 3 veranschaulicht beispielhaft und schematisch eine Drag-Geste.
Fig. 4 veranschaulicht beispielhaft und schematisch eine Pinch-Geste.
Fig. 5 veranschaulicht beispielhaft und schematisch eine Anforderung eines Spurwechsels mittels einer Drag-Geste. Fig. 6 veranschaulicht beispielhaft und schematisch eine Anforderung eines
Überholmanövers mittels einer Drag-Geste.
Fig. 7 veranschaulicht beispielhaft und schematisch eine Anforderung einer
Verringerung eines Soll-Abstands bei einer Abstandsgeschwindigkeitsregelung mittels einer Pinch-Geste.
Fig. 1 veranschaulicht beispielhaft und schematisch ein Fahrassistenzsystem (FAS) 1 für ein Fahrzeug, das nachfolgend auch als Ego-Fahrzeug bezeichnet wird. Aspekte der Funktionsweise des FAS 1 sollen im Folgenden erläutert werden, wobei sogleich auch auf die in Fig. 2 in einem schematischen Ablaufdiagramm dargestellten Schritte 21-24 eines Verfahrens 2 zum Betreiben eines FAS, wie z.B. des FAS 1 aus Fig. 1 , Bezug genommen wird.
Das FAS 1 umfasst eine Mensch-Maschine-Schnittstelle 12, die eingerichtet ist, ein aktuelles Fahrzeugumfelds des Fahrzeugs in einer für einen Fahrzeuginsassen wahrnehmbaren Weise zu visualisieren. Dementsprechend ist ein Schritt des Verfahrens 2 das Visualisieren 21 eines Fahrzeugumfeld eines Fahrzeugs in einer für einen Fahrzeuginsassen wahrnehmbaren Weise.
Beispielsweise kann die Mensch-Maschine-Schnittstelle 12 einen Touchscreen umfassen, der eingerichtet, das Fahrzeugumfeld, ggf. mitsamt dem Ego-Fahrzeug selbst, in einer schematischen Draufsicht oder in einer perspektivischen Darstellung aus Sicht des Ego- Fahrzeugs zu visualisieren, wie beispielhaft in den Fig.5-7, auf die weiter unten genauer eingegangen wird, veranschaulicht.
Die der Visualisierung des Fahrzeugumfelds zu Grunde liegenden Informationen können z.B. wenigstens teilweise von einer Umfeldsensorik (z.B. Kamera, Lidar, Radar), ggf. in Verbindung mit einem GPS-Empfänger und/oder Kartendaten, bereitgestellt werden.
Die Mensch-Maschine-Schnittstelle 12 ist auch eingerichtet, eine durch den Fahrzeuginsassen in Bezug auf das visualisierte Fahrzeugumfeld (und ggf. das visualisierte Ego-Fahrzeug 5, vgl. Fig. 5-7) ausgeführten Drag- und/oder Pinch-Geste zu erfassen. In Fig. 1 ist dies schematisch durch eine Hand, die auf die Mensch-Maschine-Schnittstelle 12 einwirkt, veranschaulicht. Ein damit korrespondierender Schritt des in Fig. 2 gezeigten Verfahrensablaufs 2 ist ein Erfassen 22 einer durch den Fahrzeuginsassen mit Bezug auf das visualisierte Fahrzeugumfeld ausgeführte Drag- und/oder Pinch-Geste. In dem oben erwähnten Ausführungsbeispiel, bei welchem ein Touchscreen als Mensch- Maschine-Schnittstelle 12 oder als ein Teil davon vorgesehen ist, kann der Touchscreen, auf dem das Fahrzeugumfeld visualisiert wird, zugleich dazu eingerichtet sein, die Drag- und/oder Pinch-Gesten zu erfassen und als solche zu erkennen.
In den Fig. 3-4 sind mit den Fingern einer Hand ausführbare Drag- bzw. Pinch-Gesten wie sie an sich z.B. aus der Bedienung von Smartphones und Tablet-Computern bekannt sind exemplarisch veranschaulicht.
Konkret zeigt Fig. 3 eine Drag-Geste, mit der ein (hier kreisförmiges) visualisiertes Element mit einem Finger von links nach rechts verschonen wird.
Fig. 4 veranschaulicht eine Pinch-Geste, bei der zwei (hier ebenfalls kreisförmige) visualisierte Elemente mittels zweier Finger einer Hand aufeinander zu bewegt werden („pinch close“). Ganz analog können die Finger und dementsprechend die visualisierten Elemente auch voneinander weg bewegt werden („pinch open“).
Das FAS 1 umfasst ferner eine Steuervorrichtung 13, die eingerichtet ist, Steuersignale für eine Längs- und/oder Querführung des Fahrzeugs in Abhängigkeit von der erfassten Geste zu erzeugen. Dementsprechend ist ein weiterer Schritt des Verfahrens 2 das Erzeugen 23 von Steuersignalen für eine Längs- und/oder Querführung des Fahrzeugs in Abhängigkeit von der erfassten Geste. Dabei können die Steuersignale z.B. im Rahmen eines assistierten oder teilautomatisierten Fahrens mit einer wenigstens teilweise automatisierten Längs- und/oder Querführung bereitgestellt werden.
Gemäß einigen Ausführungsformen kann dem FAS 1 ferner eine Aktuatorik 14 zugerechnet werden, welche eingerichtet ist, die Längs- und/oder Querführung des Fahrzeugs 5 in Abhängigkeit von den erzeugten Steuersignalen zu steuern. Die Aktuatorik 14 kann insbesondere eine Längsführungsaktuatorik, wie z.B. eine Bremseinrichtung und einen Antriebsstrang, und/oder eine Querführungsaktuatorik, wie z.B. eine Lenkung, umfassen. Dementsprechend ist ein optionaler weiterer Schritt 24 des Verfahrens 2 ein Ausgeben der erzeugten Steuersignale an eine Aktuatorik 14 zur Beeinflussung des Längs- und/oder Querführung des Fahrzeugs sowie ein Steuern der Längs- und/oder Querführung mittels der Aktuatorik 14 und in Abhängigkeit von den erzeugten Steuersignalen.
Fig. 5 veranschaulicht beispielhaft und schematisch eine Anforderung eines Spurwechsels mittels einer Drag-Geste. Dabei wird mittels der Mensch-Maschine-Schnittstelle 12 das Ego- Fahrzeug mitsamt (für Längs- und/oder Querführung) relevanter Elemente seines Fahrzeugumfelds, insbesondere Fahrspurbegrenzungen und andere Fahrzeuge 6, 7, schematisch in einer Draufsicht visualisiert (s. das visualisierte Ego-Fahrzeug 5). Mittels einer Drag-Geste wird das Ego-Fahrzeug 5 im Rahmen der Visualisierung auf eine freie Position in einer zu der aktuell befahrenen Fahrspur benachbarten Fahrspur geschoben. Daraufhin erzeugt die Steuervorrichtung 13 Steuersignale zum Ausführen eines automatisierten Spurwechselmanövers. Dabei kann eine tatsächliche Ausführung des gewünschten Spurwechselmanövers von weiteren Bedingungen abhängen, insbesondere unter dem Aspekt, dass das Spurwechselmanöver sicher durchführbar sein soll.
Fig. 6 veranschaulicht anhand einer anderen visualisierten Beispielszene eine Anforderung eines Überholmanövers mittels einer Drag-Geste. Dabei wird an der Mensch-Maschine- Schnittstelle 12 eine Drag-Geste ausgeführt, mit der das visualisiertes Ego-Fahrzeug 5 im Rahmen der Visualisierung auf eine Position vor einem visualisierten Vorderfahrzeug 6 bewegt wird. In Reaktion auf das Erfassen 22 dieser Geste mittels der Mensch-Maschine-Schnittstelle 12 erzeugt die Steuervorrichtung 13 sodann Steuersignale zum Ausführen eines automatisierten Überholmanövers eines realen Vorderfahrzeugs. Dabei kann eine tatsächliche Ausführung des angeforderten Überholmanövers von zusätzlichen Bedingungen abhängen, insbesondere unter dem Aspekt, dass das Überholmanöver sicher durchführbar sein soll.
Fig. 7 veranschaulicht beispielhaft und schematisch eine Anforderung einer Verringerung eines Soll-Abstands bei einer Abstandsgeschwindigkeitsregelung mittels einer Pinch-Geste. Dabei wird durch die Mensch-Maschine-Schnittstelle 12 eine Pinch-Geste zwischen dem visualisierten Ego-Fahrzeug 5 und einem visualisierten Vorderfahrzeug 6 erfasst. Bei dem gezeigten Beispiel werden das visualisierte Ego-Fahrzeug 5 und das visualisierte Vorderfahrzeug 6 mittels der Pinch-Geste aufeinander zu bewegt („pinch close“). Dabei soll verstanden werden, dass, auch wenn in Fig. 7 schematisch jeweils eine mit einem Fahrzeug 6, 7 assoziierte (ganze) Hand gezeigt ist, die Pinch-Geste gemäß einigen Ausführungsformen selbstverständlich auch z.B. mit zwei Fingern einer Hand ausgeführt werden kann, wie exemplarisch in Fig. 4 veranschaulicht. In Reaktion auf die erfasste Pinch-Geste wird im Rahmen einer Abstandsgeschwindigkeitsregelung des FAS 1 ein Soll-Abstand zwischen dem realen Ego-Fahrzeug und einem (dem virtuellen Fahrzeug 6 entsprechenden) Vorderfahrzeug verringert (bzw. im alternativen Fall einer Pinch-Open-Geste vergrößert).

Claims

Patentansprüche
1. Fahrassistenzsystem (1) für ein Fahrzeug, wobei das Fahrassistenzsystem (1) das Folgende umfasst: eine Mensch-Maschine-Schnittstelle (12), die eingerichtet ist
- zum Visualisieren (21) eines Fahrzeugumfelds des Fahrzeugs (5) in einer für einen Fahrzeuginsassen wahrnehmbaren Weise; und
- zum Erfassen (22) einer durch den Fahrzeuginsassen in Bezug auf das visualisierte Fahrzeugumfeld ausgeführten Drag- und/oder Pinch-Geste; und eine Steuervorrichtung (13), die eingerichtet ist zum Erzeugen (23) von Steuersignalen für eine Längs- und/oder Querführung des Fahrzeugs in Abhängigkeit von der erfassten Geste.
2. Fahrassistenzsystem (1) nach Anspruch 1, wobei die Mensch-Maschine- Schnittstelle (12) einen Touchscreen umfasst.
3. Fahrassistenzsystem (1) nach einem der vorhergehenden Ansprüche, wobei die Steuervorrichtung (13) eingerichtet ist, die Steuersignale im Rahmen einer automatisierten Fahrfunktion mit einer wenigstens teilweise automatisierten Längs- und/oder Querführung bereitzustellen.
4. Fahrassistenzsystem (1) nach einem der vorhergehenden Ansprüche, wobei die Steuervorrichtung (13) eingerichtet ist, in Reaktion auf eine erfasste Pinch- Geste zwischen einem visualisierten Ego-Fahrzeug (5) und einem visualisierten Vorderfahrzeug (6) einen Soll-Abstand für eine Abstandsgeschwindigkeitsregelung einzustellen.
5. Fahrassistenzsystem (1) nach einem der vorhergehenden Ansprüche, wobei die Steuervorrichtung (13) eingerichtet ist, in Reaktion auf eine erfasste Drag- Geste, mit der ein visualisiertes Ego-Fahrzeug (5) auf eine visualisierte benachbarte Fahrspur bewegt wird, Steuersignale zum Ausführen eines automatisierten Spurwechselmanövers des zu erzeugen.
6. Fahrassistenzsystem (1) nach einem der vorhergehenden Ansprüche, wobei die Steuervorrichtung (13) eingerichtet ist, in Reaktion auf eine erfasste Drag- Geste, mit der ein visualisiertes Ego-Fahrzeug (5) auf eine visualisierte Position vor einem visualisierten Vorderfahrzeug bewegt wird, Steuersignale zum Ausführen eines automatisierten Überholmanövers zu erzeugen.
7. Fahrassistenzsystem (1) nach einem der vorhergehenden Ansprüche, wobei die Mensch-Maschine-Schnittstelle (12) ferner eingerichtet ist, eine Geste zu erfassen, mit der der Fahrzeuginsasse einen Pfad eines visualisierten Ego- Fahrzeugs in dem visualisierten Fahrzeugumfeld skizziert, und wobei die Steuervorrichtung (13) eingerichtet ist, in Abhängigkeit von dem skizzierten Pfad eine Zieltrajektorie für eine automatisierte Längs- und/oder Querführung des Fahrzeugs zu bestimmen.
8. Verfahren (2) zum Betreiben eines Fahrassistenzsystems (1), umfassend die Schritte:
Visualisieren (21) eines Fahrzeugumfeld eines Fahrzeugs in einer für einen Fahrzeuginsassen wahrnehmbaren Weise;
Erfassen (22) einer durch den Fahrzeuginsassen mit Bezug auf das visualisierte Fahrzeugumfeld ausgeführte Drag- und/oder Pinch-Geste; und
Erzeugen (23) von Steuersignalen für eine Längs- und/oder Querführung des Fahrzeugs in Abhängigkeit von der erfassten Geste.
9. Computerprogramm, umfassend Befehle, die bei der Ausführung des Computerprogramms durch eine Datenverarbeitungseinrichtung diese veranlassen, in Abhängigkeit von Daten, die eine erfasste, durch einen Fahrzeuginsassen in Bezug auf ein visualisiertes Fahrzeugumfeld eines Fahrzeugs ausgeführte Drag- und/oder Pinch-Geste kennzeichnen, Steuersignale für eine Längs- und/oder Querführung des Fahrzeugs zu erzeugen.
10. Computerlesbares Speichermedium, auf dem ein Computerprogramm nach Anspruch 9 gespeichert ist.
PCT/EP2022/084164 2021-12-03 2022-12-02 Fahrassistenzsystem, verfahren zum betreiben eines fahrassistenzsystems und computerprogramm WO2023099715A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102021131972.2A DE102021131972A1 (de) 2021-12-03 2021-12-03 Fahrassistenzsystem, Verfahren zum Betreiben eines Fahrassistenzsystems und Computerprogramm
DE102021131972.2 2021-12-03

Publications (1)

Publication Number Publication Date
WO2023099715A1 true WO2023099715A1 (de) 2023-06-08

Family

ID=84488574

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2022/084164 WO2023099715A1 (de) 2021-12-03 2022-12-02 Fahrassistenzsystem, verfahren zum betreiben eines fahrassistenzsystems und computerprogramm

Country Status (2)

Country Link
DE (1) DE102021131972A1 (de)
WO (1) WO2023099715A1 (de)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170225691A1 (en) * 2015-07-31 2017-08-10 Panasonic Intellectual Property Management Co., Ltd. Driving support device, driving support system, driving support method, and automatic drive vehicle
DE112016003496T5 (de) * 2015-07-31 2018-04-19 Panasonic Intellectual Property Management Co., Ltd. Fahrassistenzvorrichtung, Fahrassistenzsystem, Fahrassistenzverfahren, Fahrassistenzprogramm und Fahrzeug für automatisches Fahren
EP3401148A1 (de) * 2017-05-11 2018-11-14 LG Electronics Inc. Auf einem fahrzeug montierte fahrzeugsteuerungsvorrichtung und verfahren zur steuerung des fahrzeugs

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9605971B2 (en) 2011-06-17 2017-03-28 Robert Bosch Gmbh Method and device for assisting a driver in lane guidance of a vehicle on a roadway
DE102013213039A1 (de) 2013-07-03 2015-01-08 Continental Automotive Gmbh Assistenzsystem und Assistenzverfahren zur Unterstützung bei der Steuerung eines Kraftfahrzeugs
DE102017002666A1 (de) 2017-03-18 2017-11-30 Daimler Ag Automatisches Fahrmanöver

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170225691A1 (en) * 2015-07-31 2017-08-10 Panasonic Intellectual Property Management Co., Ltd. Driving support device, driving support system, driving support method, and automatic drive vehicle
DE112016003496T5 (de) * 2015-07-31 2018-04-19 Panasonic Intellectual Property Management Co., Ltd. Fahrassistenzvorrichtung, Fahrassistenzsystem, Fahrassistenzverfahren, Fahrassistenzprogramm und Fahrzeug für automatisches Fahren
EP3401148A1 (de) * 2017-05-11 2018-11-14 LG Electronics Inc. Auf einem fahrzeug montierte fahrzeugsteuerungsvorrichtung und verfahren zur steuerung des fahrzeugs

Also Published As

Publication number Publication date
DE102021131972A1 (de) 2023-06-07

Similar Documents

Publication Publication Date Title
DE102016214433B4 (de) Ablenkungsfreies Fernsteuern eines Kraftfahrzeugs mit einem Parkassistenzsystem
EP3543059B1 (de) Verfahren zur berechnung einer einblendung von zusatzinformationen für eine anzeige auf einer anzeigeeinheit, vorrichtung zur durchführung des verfahrens sowie kraftfahrzeug und computerprogramm
EP3405376B1 (de) Verfahren und vorrichtung zum zumindest teilweise automatisierten fahren
EP2720929B1 (de) Verfahren und vorrichtung zur unterstützung eines fahrers bei einer spurführung eines fahrzeugs auf einer fahrbahn
EP2812202B1 (de) Vorrichtung zum automatisierten führen eines kraftwagens, kraftwagen mit einer solchen vorrichtung und verfahren zum betreiben eines kraftwagens
DE102013224118A1 (de) Verfahren und System zum Steuern eines Fahrzeugs
EP3016837B1 (de) Parkassistenzsystem und verfahren zur steuerung eines parkassistenzsystems für ein fahrzeug
DE102012222972A1 (de) Verfahren und Einrichtung zur Ermittlung einer Trajektorie eines Fahrmanövers
DE102006026092A1 (de) Verfahren zur Steuerung eines Einparkvorgangs
EP2669109B1 (de) Manöverassistenzsystem
DE102010030463A1 (de) Verfahren zur Unterstützung eines Fahrers eines Kraftfahrzeugs
DE102020129656A1 (de) Automatisiertes kupplungssystem mit variablen rückfahrwegen
EP3067244A1 (de) Kraftfahrzeug mit situationsadaptivem automatischem fahrmodus
WO2020178098A1 (de) Verfahren zum zumindest teilautomatisierten führen eines kraftfahrzeugs
DE102018210226A1 (de) Verfahrung und vorrichtung für die verwendung mit fahrzeugen mit autonomem fahrmodus
DE102021200057A1 (de) Schleppassistenzvorrichtung
DE102013221201A1 (de) Verfahren zum Unterstützen eines Fahrers beim Einparken
DE102012020607A1 (de) Kraftwagen mit einer Gestensteuerungseinrichtung sowie Verfahren zum Steuern eines Auswahlelements
DE102021203551A1 (de) Fahrintentionserkennung
DE102019105490A1 (de) Verfahren, Vorrichtung und Computerprogramm zur Bedienung eines Fahrzeugs mittels eines mobilen Anwendergeräts
EP3802191B1 (de) Verfahren und system zum betreiben einer automatischen fahrfunktion in einem fahrzeug
WO2023099715A1 (de) Fahrassistenzsystem, verfahren zum betreiben eines fahrassistenzsystems und computerprogramm
EP3394570B1 (de) Anzeigesystem und verfahren zum betreiben eines anzeigesystems in einem fahrzeug mit zumindest einer ersten und einer zweiten anzeigefläche
DE102020106380A1 (de) Verfahren zum Betreiben eines Fahrerassistenzsystems eines Fahrzeugs durch Anpassung von angezeigten Objekten, Fahrerassistenzsystem sowie Fahrzeug
DE102013209853A1 (de) Parkassistenzsystem und Verfahren zur Durchführung eines teilautomatischen Park- bzw. Rangiervorgangs eines Fahrzeuges

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22822605

Country of ref document: EP

Kind code of ref document: A1