DE102012222972A1 - Method for determining trajectory of driving maneuver, involves inputting symbol on touch-sensitive display device by user, where target pose is recognized depending on input symbol - Google Patents

Method for determining trajectory of driving maneuver, involves inputting symbol on touch-sensitive display device by user, where target pose is recognized depending on input symbol Download PDF

Info

Publication number
DE102012222972A1
DE102012222972A1 DE201210222972 DE102012222972A DE102012222972A1 DE 102012222972 A1 DE102012222972 A1 DE 102012222972A1 DE 201210222972 DE201210222972 DE 201210222972 DE 102012222972 A DE102012222972 A DE 102012222972A DE 102012222972 A1 DE102012222972 A1 DE 102012222972A1
Authority
DE
Germany
Prior art keywords
trajectory
vehicle
touch
display device
sensitive display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE201210222972
Other languages
German (de)
Inventor
Christian Heigele
Holger Mielenz
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE201210222972 priority Critical patent/DE102012222972A1/en
Publication of DE102012222972A1 publication Critical patent/DE102012222972A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/10Path keeping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/14Adaptive cruise control
    • B60W30/143Speed control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D15/00Steering not otherwise provided for
    • B62D15/02Steering position indicators ; Steering position determination; Steering aids
    • B62D15/027Parking aids, e.g. instruction means
    • B62D15/028Guided parking by providing commands to the driver, e.g. acoustically or optically
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D15/00Steering not otherwise provided for
    • B62D15/02Steering position indicators ; Steering position determination; Steering aids
    • B62D15/029Steering assistants using warnings or proposing actions to the driver without influencing the steering system
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3605Destination input or retrieval
    • G01C21/3614Destination input or retrieval through interaction with a road map, e.g. selecting a POI icon on a road map
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3664Details of the user input interface, e.g. buttons, knobs or sliders, including those provided on a touch screen; remote controllers; input using gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/143Touch sensitive instrument input devices
    • B60K2360/1438Touch screens
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • B60W2556/50External transmission of data to or from the vehicle of positioning data, e.g. GPS [Global Positioning System] data

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

The method involves inputting a symbol (5) on a touch-sensitive display device (1) by a user. A target pose is recognized depending on the input symbol. A trajectory from a current position of the vehicle to the target pose is determined. A target trajectory is determined depending on the input symbol. A degree of compliance of the target trajectory in determining the trajectory is determined depending on the input speed of the symbol. Independent claims are included for the following: (1) a computer program for executing the driving maneuver trajectory determining method; and (2) a device for determining a trajectory of a driving maneuver.

Description

Stand der TechnikState of the art

Die Erfindung betrifft ein Verfahren und eine Einrichtung zur Ermittlung einer Trajektorie eines Fahrmanövers. The invention relates to a method and a device for determining a trajectory of a driving maneuver.

Gegenstand der Erfindung ist außerdem ein Computerprogramm, das insbesondere zur Ausführung des Verfahrens eingerichtet ist.The invention also relates to a computer program, which is set up in particular for carrying out the method.

Es sind Fahrassistenzsysteme bekannt, welche dem Nutzer Assistenzfunktionen in einem definierten Anwendungsbereich anbieten, beispielsweise Einparkassistenten. Hierbei werden Parklücken vermessen und ein Pfad, eine sogenannte Trajektorie, in die Parklücke hinein geplant. Jedes Anwendungsgebiet, beispielsweise Quer- oder Längsparklücken, erfordert eine eigene Auslegung des Fahrassistenzsystems und eigene Algorithmen. Durch die Anwendung auf streng definierte Situationen können die Pfadplanungsalgorithmen optimiert werden und gleichzeitig auf besonders günstigen Steuergeräten realisiert werden.Driver assistance systems are known which offer the user assistance functions in a defined field of application, for example parking assistants. In the process, parking spaces are measured and a path, a so-called trajectory, is planned into the parking space. Each field of application, for example cross or longitudinal parking spaces, requires its own interpretation of the driver assistance system and its own algorithms. By applying to strictly defined situations, the path planning algorithms can be optimized and at the same time realized on particularly favorable control devices.

Es sind Systeme wünschenswert, die eine steigende Automatisierung der Fahrerunterstützung aufweisen und zu komplexeren Interpretationen der Fahrzeugumgebung fähig sind. Systems are desirable which have an increasing automation of driver assistance and are capable of more complex interpretations of the vehicle environment.

Die DE 10 2009 046 726 A1 zeigt ein Verfahren zur Erfassung von Parklücken und zur Auswahl einer Parklücke, wobei die Auswahl der Parklücke durch einfaches Antippen einer auf einem berührungsempfindlichen Bildschirm dargestellten Parklücke erfolgt. Hierbei wählt der Fahrer eine zu erreichende Zielposition aus, welche vom System zuvor vollautomatisch bestimmt worden ist.The DE 10 2009 046 726 A1 shows a method for detecting parking spaces and for selecting a parking space, wherein the selection of the parking space is made by simply tapping a parking space shown on a touch-sensitive screen. In this case, the driver selects a target position to be reached, which has previously been determined fully automatically by the system.

Aus der DE 10 2010 030 436 A1 ist ein Verfahren zur Unterstützung eines Fahrers eines Kraftfahrzeugs bei einem Fahrmanöver bekannt, bei dem eine gewünschte Endposition des Fahrzeugs durch den Fahrer eingegeben wird. Die Eingabe der gewünschten Endposition erfolgt über einen berührungsempfindlichen Bildschirm, wobei das Bild des zu manövrierenden Fahrzeugs durch Druck mit einem Finger auf dem berührungsempfindlichen Bildschirm markiert wird und bei einer Bewegung des Fingers in Richtung der gewünschten Endposition das Bild des zu manövrierenden Fahrzeugs dem Finger folgt. Um die gewünschte Ausrichtung des zu manövrierenden Fahrzeugs einzugeben, wird mit einem zweiten Finger das Bild des zu manövrierenden Fahrzeugs gedreht, während das Bild durch Druck mit dem ersten Finger weiterhin markiert bleibt. Das Lösen der Finger vom Bildschirm bestätigt die Eingabe.From the DE 10 2010 030 436 A1 a method for assisting a driver of a motor vehicle in a driving maneuver is known, in which a desired end position of the vehicle is input by the driver. The input of the desired end position via a touch-sensitive screen, wherein the image of the vehicle to be maneuvered is marked by pressure with a finger on the touch-sensitive screen and with a movement of the finger toward the desired end position, the image of the vehicle to be maneuvered follows the finger. To enter the desired orientation of the vehicle to be maneuvered, the image of the vehicle to be maneuvered is rotated with a second finger, while the image remains marked by pressure with the first finger. The release of the fingers from the screen confirms the input.

Offenbarung der ErfindungDisclosure of the invention

Bei dem erfindungsgemäßen Verfahren ist vorgesehen, dass ein Nutzer, beispielsweise ein Fahrer des Fahrzeugs, auf einem berührungsempfindlichen Anzeigegerät ein Zeichen eingibt, anhand des eingegebenen Zeichens eine Zielpose erkannt wird und eine Trajektorie von einer aktuellen Position des Fahrzeugs zu der Zielpose ermittelt wird.In the method according to the invention, it is provided that a user, for example a driver of the vehicle, inputs a character on a touch-sensitive display device, a target pose is recognized on the basis of the inputted character and a trajectory is determined from a current position of the vehicle to the target pose.

Das erfindungsgemäße Verfahren ermöglicht es dem Fahrer eines Fahrzeugs, auf einem berührungsempfindlichen Anzeigegerät, insbesondere auf einem sogenannten Touchscreen-Display, eine Zielposition und eine Orientierung des Fahrzeugs auf der Zielposition vorzugeben. Die Kombination aus der Zielposition und der Orientierung des Fahrzeugs auf der Zielposition wird im Rahmen der Erfindung als Zielpose bezeichnet. The method according to the invention makes it possible for the driver of a vehicle, on a touch-sensitive display device, in particular on a so-called touchscreen display, to specify a target position and an orientation of the vehicle at the target position. The combination of the target position and the orientation of the vehicle at the target position is referred to as a target pose within the scope of the invention.

Durch die zunehmende Verbreitung von Smartphones und Tablet-PCs sind die Nutzer immer stärker das Vorhandensein und Benutzen von Touchscreens gewöhnt. Vorteilhaft wird mit der Erfindung ein neues Einsatzgebiet für derartige Touchscreens im Fahrzeug bereitgestellt, indem diese zur Vorgabe der Zielpose in einem Fahrassistenzsystem eingesetzt werden. Die Eingabe auf dem Touchscreen ist schnell und einfach durchzuführen, was die Attraktivität des Fahrassistenzsystems steigert.With the proliferation of smartphones and tablet PCs, users are becoming increasingly used to the presence and use of touchscreens. Advantageously, the invention provides a new field of application for such touchscreens in the vehicle by being used for setting the target pose in a driver assistance system. The input on the touchscreen is quick and easy to perform, which increases the attractiveness of the driver assistance system.

Im Allgemeinen erfordert die Vorgabe von Position und Orientierung in der gewünschten Position eine explizite Eingabe der drei Freiheitsgrade im zweidimensionalen Raum. Bevorzugt wird die Zielpose anhand eines einzigen Zeichens über das bedienungsempfindliche Anzeigegerät ermittelt. Anhand des eingegebenen Zeichens wird die Zielpose erkannt und die Trajektorie abgeleitet.In general, the specification of position and orientation in the desired position requires an explicit input of the three degrees of freedom in two-dimensional space. The target pose is preferably determined on the basis of a single character via the user-sensitive display device. Based on the entered character, the target pose is recognized and the trajectory derived.

Das eingegebene Zeichen ist eine Geste, die mit dem Finger auf dem berührungsempfindlichen Anzeigegerät eingegeben wird, und kann als eine gerade Linie, als ein sogenannter „Wisch“ oder eine Zeichnung interpretiert werden. Den Gesten ist gemein, dass sie jeweils eine Start- und eine Endposition eines Fingers des Nutzers aufweisen. Die Ableitung der Zielposition des Fahrzeugs kann durch Auslesen der Startposition oder durch Auslesen der Endposition des Fingers erfolgen. Bevorzugt wird durch Auslesen der Endposition die Zielposition des Fahrzeugs festgelegt. Es kann auch vorgesehen sein, die Lage der Startposition und der Endposition mit Bezug auf die Lage der aktuellen Position des Fahrzeugs zu vergleichen und denjenigen Punkt auszuwählen, welcher von der aktuellen Position des Fahrzeugs weiter entfernt ist als die Zielposition. Die Zielposition kann beispielsweise mit Bezug zu dem Mittelpunkt der Hinterachse, zu dem Mittelpunkt der Vorderachse oder zu der Fahrzeugmitte definiert werden.The inputted character is a gesture input with the finger on the touch-sensitive display, and may be interpreted as a straight line, a so-called "swipe", or a drawing. The gestures have in common that they each have a start and an end position of a finger of the user. The derivative of the target position of the vehicle can be done by reading the start position or by reading the end position of the finger. The target position of the vehicle is preferably determined by reading the end position. It may also be provided to compare the position of the start position and the end position with respect to the position of the current position of the vehicle and to select the point which is farther away from the current position of the vehicle than the target position. The target position may be defined, for example, with reference to the center of the rear axle, to the center of the front axle, or to the vehicle center.

Die Orientierung des Fahrzeugs in der Zielposition wird im Falle der geraden Linie über den Winkel der Linie in Bezug auf eine Fahrzeugachse ermittelt. In einigen Ausführungsformen der Erfindung ist vorgesehen, dass die Orientierung des Fahrzeugs in der Zielposition aufgrund kinematischer Randbedingungen des Fahrzeugs beim virtuellen Abfahren der gezeichneten Trajektorie korrigiert wird. The orientation of the vehicle in the target position is determined in the case of the straight line over the angle of the line with respect to a vehicle axle. In some embodiments of the invention, provision is made for the orientation of the vehicle in the target position to be corrected on the basis of kinematic boundary conditions of the vehicle during the virtual traversing of the drawn trajectory.

Beim Wischen wischt der Nutzer in Richtung der Zielposition, die er wünscht. Diese Funktionalität hat vor allem die Angabe eines Zieles im Fokus. Daher ist gemäß einigen Ausführungsformen die Ausrichtung im Endpunkt nicht genau durch den Nutzer vorgegeben, sondern wird anschließend durch das System bestimmt. Insbesondere kann eine Ausrichtung beispielsweise an Umgebungsobjekten, erkannten Parkmarkierungen oder Ähnlichem erfolgen. When wiping, the user wipes in the direction of the target position that he wishes. Above all, this functionality focuses on specifying a goal. Therefore, according to some embodiments, the alignment in the endpoint is not exactly predetermined by the user, but is subsequently determined by the system. In particular, an alignment can take place, for example, on surrounding objects, detected parking markings or the like.

Alternativ hierzu kann das eingegebene Zeichen auch eine Zeichnung sein. Die Orientierung lässt sich über einen Winkel errechnen, der sich aus einem letzten Abschnitt der Zeichnung in der Nähe der Zielposition, beispielsweise aus eine definierten Anzahl letzter Stützstellen ergibt. Alternatively, the input character may also be a drawing. The orientation can be calculated over an angle, which results from a last section of the drawing near the target position, for example from a defined number of last support points.

Ist die Zielpose bekannt, kann mit Pfadplanungsalgorithmen der Pfad, d. h. die Trajektorie bestimmt werden, auf welcher der Nutzer dann mit dem System geführt wird. Das System bestimmt bevorzugt eine valide, fahrbare und kollisionsfreie Trajektorie und bietet, je nach Systemausprägung, dem Fahrer eine Unterstützung durch eine Quer- und ggf. auch durch eine Längsführung. If the target pose is known, the path, that is path planning algorithms, can be used. H. determine the trajectory on which the user is then led to the system. The system preferably determines a valid, mobile and collision-free trajectory and offers, depending on the system characteristics, the driver support by a transverse and possibly also by a longitudinal guide.

Durch die in den abhängigen Ansprüchen aufgeführten Maßnahmen sind vorteilhafte Weiterbildungen und Verbesserungen des im unabhängigen Anspruch angegebenen Verfahrens möglich.The measures listed in the dependent claims advantageous refinements and improvements of the independent claim method are possible.

Nach einer Ausführungsform ist vorgesehen, dass anhand des eingegebenen Zeichens weiterhin eine Vorgabetrajektorie oder verwertbare Teile von Vorgabetrajektorien ermittelt werden. Das eingegebene Zeichen kann also als extrahierbare Information Teile einer Trajektorie, eine grobe Trajektorie oder eine genaue Trajektorie umfassen, die in die Zielpose führen. Die Zeichnung und der Wisch können dabei als sogenannte First-Guess verwendet und in die Trajektorienplanung integriert werden. Zusätzlich hierzu kann eine Umfeld-basierte Anpassung der Trajektorie, beispielsweise mittels eines Potenzialfeldansatzes erfolgen, wonach das Fahrzeug in unmittelbarer Nähe der durch den Fahrer vorgegebenen Trajektorie geführt wird, aber nur so weit von dieser abgelenkt wird, dass keine Kollisionen mit Umgebungsobjekten auftreten können.According to one embodiment, it is provided that, based on the input character, a default trajectory or usable parts of default trajectories are furthermore determined. The input character can thus comprise as extractable information parts of a trajectory, a coarse trajectory or an exact trajectory leading to the target pose. The drawing and the swipe can be used as so-called first-guess and integrated into the trajectory planning. In addition to this, an environment-based adaptation of the trajectory can take place, for example by means of a potential field approach, according to which the vehicle is guided in the immediate vicinity of the trajectory predefined by the driver, but only deflected so far from this that no collisions can occur with environment objects.

Nach einer Ausführungsform ist vorgesehen, dass anhand einer Eingabegeschwindigkeit des Zeichens ermittelt wird, ob eine gerade Linie, ein Wisch oder eine Zeichnung vorliegt. Es kann außerdem vorgesehen sein, anhand der Eingabegeschwindigkeit zu entscheiden, ob die Eingabe die ganze Trajektorie, Teile der Trajektorie oder lediglich die Zielpose enthält. Es kann auch vorgesehen sein, anhand der Eingabegeschwindigkeit einen Grad der Befolgung der Vorgabetrajektorie bei der Ermittlung der Trajektorie festzulegen. Da die eingezeichnete Trajektorie durch das Zittern der Hand und durch Abtastungsfehler im Allgemeinen ungenau ist, muss sie durch das System geglättet, gefiltert und auf Fahrbarkeit optimiert werden. Nach einer Ausführungsform kann die Eingabegeschwindigkeit auch als eine Abfahrgeschwindigkeit der Trajektorie interpretiert werden. Somit hat der Benutzer die Möglichkeit, dem System eine Vorgabe für die Geschwindigkeit von längsgeführten Fahrmanöver bereitzustellen. According to one embodiment, it is provided that, based on an input speed of the character, it is determined whether there is a straight line, a swipe or a drawing. It may also be provided to decide on the basis of the input speed whether the input contains the entire trajectory, parts of the trajectory or only the target pose. It can also be provided to determine a degree of compliance with the default trajectory when determining the trajectory on the basis of the input speed. Since the trajectory drawn is generally inaccurate due to hand trembling and sampling errors, it must be smoothed, filtered and optimized for driveability by the system. According to one embodiment, the input speed may also be interpreted as a departure speed of the trajectory. Thus, the user has the opportunity to provide the system with a default for the speed of longitudinal driving maneuvers.

Zur Ermittlung der Trajektorie wird die Vorgabetrajektorie bevorzugt in äquidistante Stützstellen zergliedert. Vorteilhaft ist werden hierdurch ein Zittern der Hand des Nutzers bei der Eingabe und Abtastungsfehler des berührungsempfindlichen Anzeigegeräts herausgerechnet.To determine the trajectory, the default trajectory is preferably divided into equidistant interpolation points. Advantageously, this triggers a jitter of the user's hand when inputting and sampling errors of the touch-sensitive display device.

Die Stützstellen werden bevorzugt anhand von Systemgrößen, Eigenschaften des Fahrzeugumfelds und/oder der Lage innerhalb der Trajektorie gewichtet. Bei einem Touchscreen muss von einer gewissen Ungenauigkeit bei der Eingabe ausgegangen werden, was bedeuten kann, dass die ersten Stützstellen in der Regel einen gewissen lateralen Versatz zur aktuellen Position des Fahrzeugs aufweisen. Dies ist vom Nutzer nicht gewünscht und würde zu einem unangenehmen Systemverhalten führen. So kann beispielsweise die Zielposition als eine harte Vorgabe berücksichtigt werden, während die ersten Stützstellen, welche in der Nähe der aktuellen Position des Fahrzeugs liegen, weniger stark gewichtet werden. The interpolation points are preferably weighted on the basis of system sizes, properties of the vehicle environment and / or the position within the trajectory. In the case of a touchscreen, a certain inaccuracy in the input must be assumed, which may mean that the first support points generally have a certain lateral offset to the current position of the vehicle. This is not desired by the user and would lead to an unpleasant system behavior. For example, the target position may be considered as a hard default, while the first nodes that are near the current position of the vehicle are weighted less heavily.

Nach einer bevorzugten Ausführungsform werden die Zielpose und gemäß einigen Ausführungsformen auch die ermittelte Trajektorie auf dem berührungsempfindlichen Anzeigegerät dargestellt, beispielsweise in einer Draufsicht (Top View). Dem Nutzer wird damit kommuniziert, wie seine Eingabe durch das System interpretiert wird, indem ein Fahrzeugsymbol, d. h. ein sogenannter Avatar, beispielsweise ein transparentes Fahrzeug, auf die vom System interpretierte Zielpose gelegt wird. Bevorzugt wird auch die aktuelle Position des Fahrzeugs auf dem berührungsempfindlichen Anzeigegerät dargestellt. According to a preferred embodiment, the target pose and, according to some embodiments, the determined trajectory are displayed on the touch-sensitive display device, for example in a top view. The user is thereby communicated how his input is interpreted by the system by displaying a vehicle icon, i. H. a so-called avatar, for example a transparent vehicle, on which the target pose interpreted by the system is placed. Preferably, the current position of the vehicle is also displayed on the touch-sensitive display device.

Bevorzugt werden Korrekturmöglichkeiten für den Nutzer bereitgestellt. Beispielsweise kann vorgesehen sein, dass der Nutzer auf einen Punkt der Umfeldkarte tippen kann, auf welcher ein Fahrzeugsymbol erscheint, oder auf ein in der ermittelten Zielpose dargestelltes Fahrzeugsymbol. Der Nutzer kann durch eine Interaktion mit dem berührungsempfindlichen Bildschirm die Orientierung des Fahrzeugs neu vorgeben. Dies kann beispielsweise dadurch erfolgen, dass er eine Zeitdauer, etwa wenige Sekunden, auf das Fahrzeugsymbol drückt, und dieses dann rotiert, bis der Nutzer den Finger vom berührungsempfindlichen Anzeigegerät löst, was als Eingabebestätigung interpretiert wird. Alternativ kann ein Kreis um das Fahrzeugsymbol erscheinen und durch einen Klick auf eine bestimmte Position auf diesem Kreis die Ausrichtung bestimmt werden. Ist ein Multi-Touch-Display vorhanden, d.h. ein berührungsempfindliches Anzeigegerät, welches zwei gleichzeitig stattfindende Berührungen unterscheiden kann, so kann die korrigierte Fahrzeugorientierung auch durch einen zweiten Finger des Nutzers angegeben werden. Eine weitere Möglichkeit ist es, mittels erneuter Interaktion mit dem berührungsempfindlichen Anzeigegerät die gesamte Trajektorie zu korrigieren.Preferably, correction options are provided for the user. For example, it can be provided that the user can tap on a point of the environment map on which a Vehicle symbol appears, or to a vehicle symbol shown in the determined Zielpose. The user can redefine the orientation of the vehicle by interacting with the touch-sensitive screen. This can be done, for example, by pressing the vehicle icon for a period of time, such as a few seconds, and then rotating it until the user releases the finger from the touch-sensitive display, which is interpreted as an input confirmation. Alternatively, a circle may appear around the vehicle symbol and the orientation can be determined by clicking on a specific position on that circle. If a multi-touch display is present, ie a touch-sensitive display device which can distinguish between two simultaneous touches, then the corrected vehicle orientation can also be indicated by a second finger of the user. Another possibility is to correct the entire trajectory by re-interacting with the touch-sensitive display device.

Nach einer Ausführungsform ist das Verfahren durchführbar, wenn sich das Fahrzeug im Stillstand befindet. Alternativ kann auch vorgesehen sein, dass das Verfahren durchführbar ist, wenn das Fahrzeug sich unterhalb einer Geschwindigkeit von etwa 30 km/h, bevorzugt unterhalb einer Geschwindigkeit von 8 km/h, besonders bevorzugt unterhalb einer Geschwindigkeit von 6 km/h bewegt. Bei langsamer Bewegung des Fahrzeugs ist insbesondere ein Wischen nützlich, wobei der Nutzer in die Richtung der Zielposition wischt, die er wünscht.In one embodiment, the method is operable when the vehicle is at a standstill. Alternatively, it can also be provided that the method can be carried out when the vehicle is moving below a speed of about 30 km / h, preferably below a speed of 8 km / h, particularly preferably below a speed of 6 km / h. In particular, when the vehicle is moving slowly, wiping is useful, with the user wiping in the direction of the target position he desires.

Erfindungsgemäß wird weiterhin ein Computerprogramm vorgeschlagen, gemäß dem eines der hierin beschriebenen Verfahren durchgeführt wird, wenn das Computerprogramm auf einer programmierbaren Computereinrichtung ausgeführt wird. Bei dem Computerprogramm kann es sich beispielsweise um ein Modul zur Implementierung eines Fahrassistenzsystems oder eines Subsystems hiervon in einem Fahrzeug handeln oder um eine Applikation für Fahrassistenzfunktionen, die auf einem tragbaren Gerät, wie beispielsweise einem Smartphone oder einem Tablet-PC, ausführbar ist. Das Computerprogramm kann auf einem maschinenlesbaren Speichermedium gespeichert werden, etwa auf einem permanenten oder wiederbeschreibbaren Speichermedium oder in Zuordnung zu einer Computereinrichtung oder auf einem entfernbaren und/oder tragbaren Speichermedium, beispielsweise auf einer CD-ROM, DVD, BluRay, FlashDisc oder Speicherkarte, wie etwa SD-Karte, oder auf einem USB-Stick. Zusätzlich oder alternativ kann das Computerprogramm auf einer Computereinrichtung, wie etwa einem Server oder einem Cloud-System, zum Herunterladen bereitgestellt werden, zum Beispiel über ein Datennetzwerk, wie etwa das Internet, oder eine Kommunikationsverbindung, wie etwa eine Telefonleitung oder eine drahtlose Verbindung.According to the invention, a computer program is also proposed according to which one of the methods described herein is performed when the computer program is executed on a programmable computer device. The computer program can be, for example, a module for implementing a driver assistance system or a subsystem thereof in a vehicle or an application for driver assistance functions executable on a portable device such as a smartphone or a tablet PC. The computer program may be stored on a machine-readable storage medium, such as on a permanent or rewritable storage medium or in association with a computing device or on a removable and / or portable storage medium such as a CD-ROM, DVD, BluRay, FlashDisc or memory card such as SD card, or on a USB stick. Additionally or alternatively, the computer program may be provided for download on a computing device, such as a server or a cloud system, for example, over a data network, such as the Internet, or a communication link, such as a telephone line or wireless connection.

Nach einem weiteren Aspekt der Erfindung umfasst eine Einrichtung zur Ermittlung einer Trajektorie eines Fahrmanövers ein berührungsempfindliches Anzeigegerät, eine Einheit zur Ermittlung einer Zielpose anhand eines auf dem berührungsempfindlichen Anzeigegerät eingegebenen Zeichens und eine Einheit zur Ermittlung einer Trajektorie von einer aktuellen Position des Fahrzeugs zu der Zielpose.According to a further aspect of the invention, a device for determining a trajectory of a driving maneuver comprises a touch-sensitive display device, a unit for determining a target pose based on a character input on the touch-sensitive display device and a unit for determining a trajectory from a current position of the vehicle to the target pose.

Eine bevorzugte Ausführungsform ergibt sich durch ein Fahrassistenzsystem, welches eine Umgebungserfassungseinrichtung mit einem geometrischen Erfassungsbereich zur Erfassung eines zukünftig vom Fahrzeug überstreichbaren Bereichs aufweist, beispielsweise ein Stereovideosystem. Das Fahrassistenzsystem weist außerdem vorteilhaft Komponenten auf, die eingerichtet sind, die durch die Umgebungserfassungseinrichtung erfasste Umgebung auf dem berührungsempfindlichen Anzeigegerät darzustellen, beispielsweise eine Top-View zu erzeugen, d.h. eine Draufsicht auf die erfasste Umgebung.A preferred embodiment results from a driver assistance system which has an environment detection device with a geometric detection area for detecting a region which can be painted over by the vehicle in the future, for example a stereo video system. The driver assistance system also advantageously comprises components that are configured to display the environment detected by the environment detection device on the touch-sensitive display device, for example to generate a top view, i. a plan view of the detected environment.

Nach einer bevorzugten Ausführungsform umfasst das Fahrassistenzsystem weiterhin eine Integrationseinheit, welche eingerichtet ist, zeitlich von der Umgebungserfassungseinrichtung erfasste Daten zu historisch validierten Umfelddaten umzusetzen, da der Sensorbereich der Umgebungserfassungseinrichtung häufig eingeschränkt ist und sich komplexe Fahrsituationen nur durch eine Verbindung von zeitlich aufeinander folgenden Messungen beschreiben lassen.According to a preferred embodiment, the driver assistance system furthermore comprises an integration unit which is set up to transfer data recorded in time by the environment detection device to historically validated environment data since the sensor area of the environment detection device is often restricted and complex driving situations can only be described by a combination of temporally successive measurements ,

Vorteile der ErfindungAdvantages of the invention

Es wurde eine Möglichkeit beschrieben, einem Nutzer eine begeisternde und intuitive Funktion zu bieten. Das Fahrzeug wird auf der durch den Fahrer durch ein Zeichen, etwa eine Linie, ein Wisch oder eine detaillierte Zeichnung, intuitiv vorgegebenen und auf Fahrbarkeit und Akzeptanz optimierten Trajektorie geführt. Gegebenenfalls kann zusätzlich dazu eine Ausrichtung nach Umfeldobjekten, Parkplätzen, Rampen oder Ähnlichem erfolgen. Die Vorteile aus systemischer Sicht sind vor allem, dass keine allzu rechenaufwändige Situationsinterpretation durchgeführt werden muss. Dadurch bietet sich in Kombination eine für den Nutzer hochattraktive Funktion, die keiner teuren Recheneinheiten bedarf.It was described a way to offer a user an inspiring and intuitive function. The vehicle is guided on the trajectory which is intuitively predetermined by the driver by means of a sign, for example a line, a wipe or a detailed drawing, and which is optimized for drivability and acceptance. Optionally, in addition to this, an alignment according to surrounding objects, parking lots, ramps or the like can take place. The advantages from a systemic point of view are above all that no overly complex situation interpretation must be carried out. This combination offers a highly attractive feature for the user, which does not require expensive computing units.

Kurze Beschreibung der ZeichnungenBrief description of the drawings

Ausführungsbeispiele der Erfindung sind in den Zeichnungen dargestellt und in der nachfolgenden Beschreibung näher erläutert.Embodiments of the invention are illustrated in the drawings and explained in more detail in the following description.

Es zeigen: Show it:

1 eine Situation der Eingabe eines Zeichens auf einem berührungsempfindlichen Anzeigegerät, 1 a situation of inputting a character on a touch-sensitive display device,

2 eine Draufsicht auf eine Situation mit einem Fahrzeug in einer Fahrzeugumgebung und 2 a plan view of a situation with a vehicle in a vehicle environment and

3 bis 5 weitere Draufsichten auf die Situation mit dem Fahrzeug in der Fahrzeugumgebung mit dargestellter Nutzereingabe. 3 to 5 further plan views of the situation with the vehicle in the vehicle environment with displayed user input.

Ausführungsformen der ErfindungEmbodiments of the invention

1 zeigt ein berührungsempfindliches Anzeigegerät 1 mit einer Eingabefeld 2 und einem Gehäuse 3. Eine Hand 4 eines Nutzers befindet sich in einer Situation der Eingabe auf dem berührungsempfindlichen Anzeigegerät 1. Der Nutzer hat hier beispielhaft zwei Zeichen 5 auf dem berührungsempfindlichen Anzeigegerät eingegeben. Das Anzeigegerät 1 kann beispielsweise ein fest in einem Fahrzeug installiertes Anzeigegerät 1 sein oder sich auf mobilen Geräten befinden. Das Anzeigegerät 1 kann auch als ein Anzeigegerät weiterer Fahrassistenzsysteme eingerichtet sein, beispielsweise als ein Anzeigegerät eines Parkassistenten oder eines Navigationssystems. 1 shows a touch-sensitive display device 1 with an input field 2 and a housing 3 , One hand 4 a user is in a situation of input on the touch-sensitive display device 1 , The user has two examples here 5 entered on the touch-sensitive display device. The display device 1 For example, a fixed installed in a vehicle display device 1 or be on mobile devices. The display device 1 can also be set up as a display device of other driver assistance systems, for example as a display device of a parking assistant or a navigation system.

2 zeigt in einer Draufsicht eine auf einem Eingabefeld 2 eines berührungsempfindlichen Anzeigegeräts 1 dargestellte Situation mit einem Fahrzeug 6 in einer Umgebung. Das Fahrzeug 6 weist in diesem dargestellten Ausführungsbeispiel Umgebungserfassungseinheiten auf, nämlich eine Frontkamera 7 sowie Ultraschallsensoren 8. Die Frontkamera 7 hat beispielsweise einen Erfassungsbereich 10 mit einem so genannten FOV (Field of View) von 40°. Die Frontkamera kann eine Monokularkamera oder ein Stereovideokamerasystem sein und einen Teil eines Kamerasystems bilden, das weitere Kameras, insbesondere Heckkameras, BSD-(Blind-Spot-Detection-)Kameras, SVA-(Side-View-Assistant-)Kameras und/oder SVS-(Surround-View-System-)Kameras umfasst, welche beispielsweise von weiteren Fahrassistenzsystemen für andere Zwecke eingesetzt sein können. Hierdurch ist es idealerweise möglich, das gesamte Umfeld um das Kraftfahrzeug herum zu erfassen. Die Frontkamera 7 ist in diesem Ausführungsbeispiel so positioniert, dass ihr Erfassungsbereich 10 symmetrisch um eine durch die Fahrzeugachse bestimmte Mittelachse 11 angeordnet ist. Im Erfassungsbereich 10 befinden sich detektierte Gegenstände 12. 2 shows in a plan view one on an input field 2 a touch-sensitive display 1 illustrated situation with a vehicle 6 in an environment. The vehicle 6 has in this illustrated embodiment, environment detection units, namely a front camera 7 as well as ultrasonic sensors 8th , The front camera 7 for example has a coverage area 10 with a so-called FOV (Field of View) of 40 °. The front camera can be a monocular camera or a stereo video camera system and form part of a camera system, the further cameras, in particular rear cameras, BSD (Blind Spot Detection) cameras, SVA (Side View Assistant) cameras and / or SVS - (Surround View System) includes cameras, which may be used for example by other driver assistance systems for other purposes. As a result, it is ideally possible to capture the entire environment around the motor vehicle. The front camera 7 is positioned in this embodiment so that its detection area 10 symmetrical about a central axis determined by the vehicle axis 11 is arranged. In the coverage area 10 are detected objects 12 ,

Die Umgebungserfassungseinrichtung des Fahrzeugs 6 kann weitere Umgebungserfassungssensoren umfassen, beispielsweise Ultraschallsensoren, Radarsensoren, Infrarotsensoren und/oder Lidarsensoren, wobei beispielhaft vier Ultraschallsensoren 8 dargestellt sind. Weitere detektierte Gegenstände 12 befinden sich im Erfassungsbereich eines der Ultraschallsensoren 8 seitlich des Fahrzeugs 6.The environment detection device of the vehicle 6 may include other environment detection sensors, such as ultrasonic sensors, radar sensors, infrared sensors and / or Lidarsensoren, exemplary four ultrasonic sensors 8th are shown. Other detected objects 12 are located in the detection range of one of the ultrasonic sensors 8th side of the vehicle 6 ,

3 zeigt die Situation von 2, nachdem der Nutzer händisch ein Zeichen 5 auf dem berührungsempfindlichen Anzeigegerät 2 eingegeben hat. Das Zeichen 5 ist in diesem Fall ein gerader Strich 15, welcher einen Startpunkt 17 und einen Endpunkt 16 aufweist. Im dargestellten Ausführungsbeispiel ist der Endpunkt 16 des geraden Strichs 15 weiter von einem Referenzpunkt 18 des Fahrzeugs 6 entfernt als der Startpunkt 17 des geraden Strichs 15. Der Referenzpunkt 18 des Fahrzeugs 6 kann beispielsweise durch die Position der Frontkamera 7 bestimmt sein, durch die Mitte der Vorderseite des Fahrzeugs 6 oder das Zentrum des Fahrzeugs 6. Im dargestellten Ausführungsbeispiel wird der Referenzpunkt 18 des Fahrzeugs 6 durch das Zentrum des Fahrzeugs 6 bestimmt. Es ist vorstellbar, dass der Nutzer eine Eingabe getätigt hat, in welcher der Startpunkt 17 näher an dem Referenzpunkt 18 des Fahrzeugs 6 liegt als der Endpunkt 16. In beiden Fällen erkennt das System den Nutzerwunsch und ermittelt anhand der Eingabe 14 des Nutzers eine Zielpose. Die Zielpose ist durch eine Zielposition 20 und durch einen Winkel 19 mit Bezug auf die Fahrzeugachse 11 definiert. Es kann in anderen Ausführungsformen auch vorgesehen sein, dass die Zielpose durch die Zielposition 20 und eine Orientierung definiert wird, die durch weltfeste Koordinaten bestimmt ist, wobei die Orientierung beispielsweise mit Hilfe eines Kompass oder von GPS-Informationen ermittelt werden kann. Das System ermittelt eine Trajektorie 9 von der aktuellen Position 21 zur Zielposition 20. Die Zielpose 19, 20 wird in bevorzugten Ausführungsformen mit dargestellt und ist vom Benutzer korrigierbar. 3 shows the situation of 2 after the user manually signs 5 on the touch-sensitive display 2 entered. The sign 5 is a straight line in this case 15 , which is a starting point 17 and an endpoint 16 having. In the illustrated embodiment, the endpoint 16 the straight line 15 further from a reference point 18 of the vehicle 6 removed as the starting point 17 the straight line 15 , The reference point 18 of the vehicle 6 For example, by the position of the front camera 7 Be determined by the center of the front of the vehicle 6 or the center of the vehicle 6 , In the illustrated embodiment, the reference point 18 of the vehicle 6 through the center of the vehicle 6 certainly. It is conceivable that the user has made an entry in which the starting point 17 closer to the reference point 18 of the vehicle 6 lies as the endpoint 16 , In both cases, the system recognizes the user request and determines based on the input 14 the user a Zielpose. The target pose is through a target position 20 and by an angle 19 with reference to the vehicle axle 11 Are defined. It may also be provided in other embodiments, that the target pose by the target position 20 and defining an orientation determined by world-fixed coordinates, wherein the orientation may be determined, for example, by means of a compass or GPS information. The system determines a trajectory 9 from the current position 21 to the target position 20 , The target pose 19 . 20 is shown in preferred embodiments and can be corrected by the user.

4 zeigt ein weiteres Zeichen 5, welches auf dem Eingabefeld 2 des berührungsempfindlichen Anzeigegeräts 1 in der Situation von 2 beispielsweise von einem Nutzer eingegeben wurde. Das Zeichen 5 ist ein Wisch 22, welcher wiederum einen Startpunkt 17 und einen Endpunkt 16 aufweist. Bei dem Wisch 22 hat der Nutzer lediglich die Zielposition angegeben und weniger auf die Orientierung des Fahrzeugs innerhalb der Zielposition geachtet. Dennoch wird anhand des eingegebenen Zeichens 5 vom Fahrassistenzsystem die Zielpose erkannt, die die Zielposition und die Orientierung des Fahrzeugs in der Zielposition umfasst. Die Zielposition 20 kann dabei beispielsweise als eine mittige Position 13 zwischen den Endpunkt 16 des Wisches 22 umgebenden detektierten Umgebungsobjekten 12 ermittelt werden. Die Ermittlung der Orientierung in der Zielposition kann hier beispielsweise ebenfalls durch eine Ausrichtung an den Umgebungsobjekten 12 erfolgen. Anhand des Wisches 22 kann außerdem eine Vorgabetrajektorie 14 ermittelt werden, beispielsweise indem eine Mittellinie vom Startpunkt 17 zum Endpunkt 16 errechnet wird. Eine Pfadplanung, d. h. eine Ermittlung der Trajektorie 9 kann so erfolgen, dass der Wisch 22 als erste Schätzung angesetzt wird. 4 shows another sign 5 which is on the input field 2 the touch-sensitive display 1 in the situation of 2 for example, was entered by a user. The sign 5 is a wipe 22 , which in turn is a starting point 17 and an endpoint 16 having. At the wipe 22 the user has merely indicated the target position and paid less attention to the orientation of the vehicle within the target position. Nevertheless, based on the entered character 5 recognized by the driving assistance system, the target pose, which includes the target position and the orientation of the vehicle in the target position. The target position 20 can, for example, as a central position 13 between the endpoint 16 the wipe 22 surrounding detected environment objects 12 be determined. The determination of the orientation in the target position can here, for example, also by an orientation on the surrounding objects 12 respectively. Based on the wipe 22 can also have a default trajectory 14 be determined, for example, by placing a centerline from the starting point 17 to the endpoint 16 is calculated. A path planning, ie a determination of the trajectory 9 can be done so that the wipe 22 is used as a first estimate.

5 zeigt eine weitere Ausführungsform der Erfindung, bei welcher das auf dem berührungsempfindlichen Anzeigegerät 1 eingegebene Zeichen 5 eine Zeichnung 23 ist. Die Zeichnung wird ebenfalls als eine Vorgabetrajektorie 14 erkannt. Die Zeichnung 23 kann gegen den in 4 beschriebenen Wisch 22 beispielsweise dadurch abgegrenzt werden, dass die Eingabegeschwindigkeit geringer ist. Die Eingabegeschwindigkeit kann beispielsweise durch einen Quotienten bestimmt werden kann, welcher durch die zeitliche Differenz des Startpunkts 17 zum Endpunkt 16 geteilt durch eine Länge des eingegebenen Zeichens 5 bestimmt wird. Die Eingabegeschwindigkeit kann beispielsweise dazu verwendet werden, einen Grad der Befolgung der Vorgabetrajektorie 14 oder eine Abfahrgeschwindigkeit der Trajektorie zu definieren. 5 shows a further embodiment of the invention, in which the on the touch-sensitive display device 1 entered characters 5 a drawing 23 is. The drawing is also considered a default trajectory 14 recognized. The drawing 23 can against the in 4 described wipe 22 For example, be delimited by the fact that the input speed is lower. The input speed can be determined for example by a quotient, which by the time difference of the starting point 17 to the endpoint 16 divided by a length of the entered character 5 is determined. The input speed can be used, for example, a degree of compliance with the default trajectory 14 or define a departure speed of the trajectory.

Im Folgenden wird ein mögliches Verfahren zur Ermittlung der Trajektorie anhand der Zeichnung 23 beschrieben. Aus der Eingabegeschwindigkeit und der Abtastzeit des berührungsempfindlichen Anzeigegeräts 1 ergibt sich eine Anzahl n von Stützpunkten {24a, 24b, 24c, ...24n}, welche beispielsweise durch zweidimensionalen Koordinaten {(x1, y1)(x2, y2), ..., (xn, yn)} charakterisiert sein können. Durch Auswertung von Umfelddaten, die beispielsweise von Umgebungserfassungseinheiten bereitgestellt werden können, insbesondere durch Auswertung von Kameradaten, kann der Verlauf des Fahrbahnuntergrunds ermittelt werden. Zu den n zweidimensionalen Koordinaten {(x1, y1)(x2, y2), ..., (xn, yn)} werden hieraus n dreidimensionale Koordinaten {(x1, y1, z1)(x2, y2, z2), ..., (xn, yn, zn)} errechnet, die eine dreidimensionale Trajektorie auf dem Fahrbahnuntergrund beschreiben.The following is a possible method for determining the trajectory based on the drawing 23 described. From the input speed and the sampling time of the touch-sensitive display 1 is a number n of vertices { 24a . 24b . 24c , ... 24n }, which can be characterized for example by two-dimensional coordinates {(x 1 , y 1 ) (x 2 , y 2 ), ..., (x n , y n )}. By evaluating environmental data that can be provided for example by environment detection units, in particular by evaluation of camera data, the course of the road surface can be determined. From the n two-dimensional coordinates {(x 1 , y 1 ) (x 2 , y 2 ), ..., (x n , y n )}, three-dimensional coordinates {(x 1 , y 1 , z 1 ) ( x 2 , y 2 , z 2 ), ..., (x n , y n , z n )}, which describe a three-dimensional trajectory on the road surface.

Die n dreidimensionalen Stützpunkte werden gleichförmig diskretisiert, damit der Verlauf der Trajektorie nicht oder möglichst wenig von dem Auflösungsvermögen des Touchscreens abhängt. Hierzu werden die n 3D Schnittpunkte um weitere m 3D Stützstellen ergänzt, sodass mit einem Distanzmaß d gilt d((xi, yi, zi), (xi–1, yi–1, zi+1)) < dmax; i = 1..n + m – 1. Die Distanz dmax kann hierbei anhand von Fahrzeugsystemzuständen, beispielsweise von der Geschwindigkeit, von Umfeldgrößen, beispielsweise durch Definition eines minimalen Abstands zu detektierten Hindernissen, und von einem Trajektorienverlauf, beispielsweise von der implizit angegebenen Krümmung, ermittelt werden. Die zusätzlichen Stützstellen können z.B. über eine lineare Interpolation zwischen zwei Originalstützstellen bestimmt werden, die eine Distanz > dmax aufweisen. Nun liegen n + m 3D Stützpunkte Sdisc = {(xi, yi, zi), i = 1..n + m} vor, die jeweils maximal eine Distanz dmax zu ihrem nächsten beziehungsweise vorhergehenden Stützpunkt aufweisen. Einer der zusätzlichen Stützpunkte mit dem Bezugszeichen 25a ist beispielhaft zwischen den Stützpunkten 24b und 24c dargestellt.The n three-dimensional vertices are uniformly discretized, so that the course of the trajectory does not or as little as possible depends on the resolution of the touch screen. For this purpose, the n 3D intersection points are supplemented by further m 3D interpolation points, so that with a distance measure d we have d ((x i , y i , z i ), (x i-1 , y i-1 , z i + 1 )) < d max ; i = 1..n + m-1. The distance d max can here be based on vehicle system conditions, for example on the speed, on environmental variables, for example by defining a minimum distance to detected obstacles, and on a trajectory profile, for example on the implicitly specified curvature , be determined. The additional interpolation points can be determined, for example, via a linear interpolation between two original interpolation points which have a distance> d max . Now there are n + m 3D interpolation points S disc = {(x i , y i , z i ), i = 1..n + m}, which each have a maximum distance d max to their nearest or previous interpolation point. One of the additional support points with the reference numeral 25a is an example between the bases 24b and 24c shown.

Durch eine ungenaue und ungleichförmige Abtastung des Touchscreens und durch eventuell zusätzlich vorhandenes Zittern in der Hand des Nutzers wird die eingegebene Trajektorie sehr häufig einen sehr rauen Verlauf aufweisen. Diese Rauheit ist im Fahrverhalten unerwünscht und wird daher bevorzugt mittels bekannter Verfahren herausgeglättet. Als Ergebnis liegen n + m 3D-Stützpunkte Ssmooth = {(xi, yi, zi), i = 1..n + m} vor. Zu jedem der n + m dreidimensionalen Stützpunkte {24a, 24b, 24c, ...24m + n} kann außerdem ein Winkel {19a, 19b, ..., 19n + m} zu der Referenzachse 11 des Fahrzeugs 6 oder bezüglich eines Weltkoordinatensystems bestimmt werden, was in 5 beispielhaft an einem Stützpunkt 24g als Winkel 19g dargestellt ist. Alternativ oder zusätzlich dazu können Winkel 26 zwischen Stützpunkten und vorhergängigen und/oder nachfolgenden Stützpunkten relativ zu der Referenzachse 11 des Fahrzeugs 6 oder bezüglich eines Weltkoordinatensystems ermittelt werden, was in 5 beispielhaft an den Stützpunkten 24f und 24g als Winkel 26g dargestellt ist.Due to an inaccurate and non-uniform scanning of the touchscreen and possibly additionally existing tremors in the user's hand, the entered trajectory very often have a very rough course. This roughness is undesirable in driving behavior and is therefore preferably smoothed out by means of known methods. As a result there are n + m 3D-bases S smooth = {(x i , y i , z i ), i = 1..n + m}. To each of the n + m three-dimensional vertices { 24a . 24b . 24c , ... 24m + n} can also be an angle { 19a . 19b , ..., 19n + m} to the reference axis 11 of the vehicle 6 or with respect to a world coordinate system, which is in 5 by way of example at a base 24g as an angle 19g is shown. Alternatively or additionally, angles may be used 26 between vertices and previous and / or subsequent vertices relative to the reference axis 11 of the vehicle 6 or with respect to a world coordinate system, which is in 5 by way of example at the bases 24f and 24g as an angle 26g is shown.

Anschließend werden mittels eines Fahrzeugmodells x‘ = f(x, u, constraints...) zusätzlich zu den im Systemvektor x gespeicherten Systemzuständen beispielsweise eine Geschwindigkeit, eine Gierrate und/oder im Beschränkungsvektor constraints angegebene Systemgrenzen, wie beispielsweise eine maximale Krümmung, eine maximale Krümmungsänderung und/oder eine akzeptierte Querbeschleunigung berücksichtigt. Hiermit wird nach und nach versucht, mit dem Modell und virtuellen Stellgrößen u der Trajektorie nachzufahren, indem das Fahrzeugmodell die nächste oder die nächsten k Stützstelle(n) anfährt.Subsequently, by means of a vehicle model x '= f (x, u, constraints...) In addition to the system states stored in the system vector x, for example a speed, a yaw rate and / or constraints specified in the constraint vector constraints, such as a maximum curvature, a maximum Curvature change and / or an accepted lateral acceleration considered. This will gradually try to follow up with the model and virtual manipulated variables u of the trajectory by the vehicle model, the next or next k support point (s) anfährt.

Dies kann beispielsweise realisiert werden, indem der Lenkwinkel g ∊ u auf einen Winkel eingestellt wird, so dass dieser zwischen aktueller Fahrzeugposition und der angestrebten Zwischenzielpose zwischen den nächsten k Stützstellen vorliegt. Ist dieser Lenkwinkel größer als der maximale Lenkwinkel, wird der maximal mögliche Lenkwinkel verwendet. Solche Beschränkungen sind in dem Vektor constraints zu finden.This can for example be realized by the steering angle g ε u is set to an angle so that it is present between the current vehicle position and the desired Zwischenzielpose between the next k support points. If this steering angle is greater than the maximum steering angle, the maximum possible steering angle is used. Such restrictions are found in the vector constraints.

Das Fahrzeugmodell wird so lange auf die Stützstellen angewandt, bis die angegebene Zielposition (xn+m, yn+m, zn+m) nahe genug erreicht wird. Über das Fahrzeugmodell wird nicht nur die eingegebene Trajektorie auf fahrphysikalische Erreichbarkeit getestet, sondern auch zusätzlich um die für einen Querregler erforderlichen Größen der Krümmung und Gierwinkel in jedem Punkt erweitert. Ein optimales Regelverhalten wird erreicht, indem die Modelle, die für die Fahrbarkeitsanalyse und die Reglerauslegung verwendet werden, aufeinander abgestimmt sind, beispielsweise indem sie dasselbe Dynamikmodell für das Fahrzeug verwenden.The vehicle model is applied to the nodes until the specified target position (xn + m , yn + m , zn + m ) is reached close enough. Not only is the entered trajectory tested for physical accessibility via the vehicle model, it is also expanded by the variables of curvature and yaw angle required for a transverse controller at each point. An optimal control behavior is achieved by the Models used for driveability analysis and controller design are matched, for example, using the same dynamics model for the vehicle.

Zusätzlich zu dem reinen „Anfahren“ der Stützstellen können einzelne Bereiche der Trajektorie unterschiedlich gewichtet werden. So kann beispielsweise die Zielposition als harte Vorgabe der Zielpose über den Winkel verwendet werden, der sich aus den letzten beiden Stützstellen berechnen lässt, etwa gemäß ψ = arctan(yn+m – yn+m–1, xn+m – xn+m–1), wobei numerisch stabile Berechnungsmethoden des Winkels bevorzugt werden. Es kann auch vorgesehen sein, beispielsweise die Gerade durch die beiden Punkte in relativer Lage zur Ego-Fahrzeugachse zu bestimmen oder in relativer Lage zu dem Weltkoordinatensystem. Alternativ oder zusätzlich dazu können beispielsweise die ersten Stützstellen weniger stark gewichtet werden.In addition to the pure "starting" of the interpolation points, individual regions of the trajectory can be weighted differently. Thus, for example, the target position can be used as a hard specification of the target pose via the angle which can be calculated from the last two interpolation points, for example according to ψ = arctan (yn + m -yn + m-1 , xn + m -x n + m-1 ), where numerically stable calculation methods of the angle are preferred. It can also be provided, for example, to determine the straight line through the two points in a relative position to the ego vehicle axis or in a relative position to the world coordinate system. Alternatively or additionally, for example, the first interpolation points can be weighted less heavily.

Die Erfindung ist nicht auf die hier beschriebenen Ausführungsbeispiele und die darin hervorgehobenen Aspekte beschränkt. Vielmehr ist innerhalb des durch die Ansprüche angegebenen Bereichs eine Vielzahl von Abwandlungen möglich, die im Rahmen fachmännischen Handelns liegen.The invention is not limited to the embodiments described herein and the aspects highlighted therein. Rather, within the scope given by the claims a variety of modifications are possible, which are within the scope of expert action.

ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant has been generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturCited patent literature

  • DE 102009046726 A1 [0005] DE 102009046726 A1 [0005]
  • DE 102010030436 A1 [0006] DE 102010030436 A1 [0006]

Claims (10)

Verfahren zur Ermittlung einer Trajektorie eines Fahrmanövers, wobei ein Nutzer auf einem berührungsempfindlichen Anzeigegerät (1) ein Zeichen (5) eingibt, anhand des eingegebenen Zeichens (5) eine Zielpose (19, 20) erkannt wird und eine Trajektorie (9) von einer aktuellen Position (21) des Fahrzeugs (6) zu der Zielpose (19, 20) ermittelt wird.A method for determining a trajectory of a driving maneuver, wherein a user on a touch-sensitive display device ( 1 ) a sign ( 5 ), based on the entered character ( 5 ) a target pose ( 19 . 20 ) and a trajectory ( 9 ) from a current position ( 21 ) of the vehicle ( 6 ) to the target pose ( 19 . 20 ) is determined. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass anhand des eingegebenen Zeichens (5) weiterhin eine Vorgabetrajektorie (14) ermittelt wird. Method according to claim 1, characterized in that on the basis of the input character ( 5 ), a default trajectory ( 14 ) is determined. Verfahren nach Anspruch 2, dadurch gekennzeichnet, dass anhand einer Eingabegeschwindigkeit des Zeichens (5) ein Grad der Befolgung der Vorgabetrajektorie (14) bei der Ermittlung der Trajektorie (9) festgelegt wird.A method according to claim 2, characterized in that based on an input speed of the character ( 5 ) a degree of compliance with the default trajectory ( 14 ) in the determination of the trajectory ( 9 ). Verfahren nach Anspruch 2 oder 3, dadurch gekennzeichnet, dass zur Ermittlung der Trajektorie (9) die Vorgabetrajektorie (14) in äquidistante Stützstellen (24, 25) zergliedert wird.Method according to claim 2 or 3, characterized in that for determining the trajectory ( 9 ) the default trajectory ( 14 ) in equidistant interpolation points ( 24 . 25 ) is dissected. Verfahren nach Anspruch 4, dadurch gekennzeichnet, dass die äquidistanten Stützstellen (24, 25) anhand von Systemgrößen, Eigenschaften des Fahrzeugumfelds und/oder der Lage innerhalb der Vorgabetrajektorie (14) gewichtet werden.Method according to claim 4, characterized in that the equidistant support points ( 24 . 25 ) on the basis of system sizes, vehicle environment characteristics and / or the position within the default trajectory ( 14 ) are weighted. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Zielpose (19, 20) auf dem berührungsempfindlichen Anzeigegerät (1) dargestellt wird und Korrekturmöglichkeiten für den Nutzer bereitgestellt werden.Method according to one of the preceding claims, characterized in that the target pose ( 19 . 20 ) on the touch-sensitive display device ( 1 ) is presented and correction options for the user are provided. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die aktuelle Position (21) des Fahrzeugs (6) auf dem berührungsempfindlichen Anzeigegerät (1) dargestellt wird.Method according to one of the preceding claims, characterized in that the current position ( 21 ) of the vehicle ( 6 ) on the touch-sensitive display device ( 1 ) is pictured. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das Verfahren bei einer Fahrgeschwindigkeit von unterhalb 30 km/h durchführbar ist. Method according to one of the preceding claims, characterized in that the method at a travel speed of below 30 km / h is feasible. Computerprogramm zur Ausführung der eines der Verfahren nach einem der Ansprüche 1 bis 8, wobei das Computerprogramm auf einer programmierbaren Computereinrichtung ausgeführt wird.A computer program for performing one of the methods of any one of claims 1 to 8, wherein the computer program is executed on a programmable computer device. Einrichtung zur Ermittlung einer Trajektorie eines Fahrmanövers, aufweisend ein berührungsempfindliches Anzeigegerät (1), eine Einheit zur Ermittlung einer Zielpose (19, 20) anhand eines auf dem berührungsempfindlichen Anzeigegerät (1) eingegebenen Zeichens (5) und eine Einheit zur Ermittlung einer Trajektorie (9) von einer aktuellen Position (21) des Fahrzeugs (6) zu der Zielpose (19, 20). Device for determining a trajectory of a driving maneuver, comprising a touch-sensitive display device ( 1 ), a unit for determining a target pose ( 19 . 20 ) on the touch-sensitive display device ( 1 ) character ( 5 ) and a unit for determining a trajectory ( 9 ) from a current position ( 21 ) of the vehicle ( 6 ) to the target pose ( 19 . 20 ).
DE201210222972 2012-12-12 2012-12-12 Method for determining trajectory of driving maneuver, involves inputting symbol on touch-sensitive display device by user, where target pose is recognized depending on input symbol Pending DE102012222972A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE201210222972 DE102012222972A1 (en) 2012-12-12 2012-12-12 Method for determining trajectory of driving maneuver, involves inputting symbol on touch-sensitive display device by user, where target pose is recognized depending on input symbol

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE201210222972 DE102012222972A1 (en) 2012-12-12 2012-12-12 Method for determining trajectory of driving maneuver, involves inputting symbol on touch-sensitive display device by user, where target pose is recognized depending on input symbol

Publications (1)

Publication Number Publication Date
DE102012222972A1 true DE102012222972A1 (en) 2014-06-12

Family

ID=50778205

Family Applications (1)

Application Number Title Priority Date Filing Date
DE201210222972 Pending DE102012222972A1 (en) 2012-12-12 2012-12-12 Method for determining trajectory of driving maneuver, involves inputting symbol on touch-sensitive display device by user, where target pose is recognized depending on input symbol

Country Status (1)

Country Link
DE (1) DE102012222972A1 (en)

Cited By (53)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102014107302A1 (en) * 2014-05-23 2015-11-26 Valeo Schalter Und Sensoren Gmbh Method for the at least semi-autonomous maneuvering of a motor vehicle along a user-definable driving trajectory and driver assistance device and motor vehicle
DE102015014614A1 (en) 2015-11-12 2016-05-12 Daimler Ag Method for carrying out an autonomous drive of a vehicle
DE102014018108A1 (en) 2014-12-06 2016-06-09 Daimler Ag Method for determining a driving maneuver of a vehicle
DE102016003308B3 (en) * 2016-03-17 2017-09-21 Audi Ag Method for operating a driver assistance system of a motor vehicle and motor vehicle
WO2018077647A1 (en) * 2016-10-26 2018-05-03 Volkswagen Aktiengesellschaft Method and system for the external control of an autonomous vehicle
US10217297B2 (en) 2017-04-19 2019-02-26 Ford Global Technologies, Llc Control module activation to monitor vehicles in a key-off state
US10232673B1 (en) 2018-06-01 2019-03-19 Ford Global Technologies, Llc Tire pressure monitoring with vehicle park-assist
US10234868B2 (en) 2017-06-16 2019-03-19 Ford Global Technologies, Llc Mobile device initiation of vehicle remote-parking
US10281921B2 (en) 2017-10-02 2019-05-07 Ford Global Technologies, Llc Autonomous parking of vehicles in perpendicular parking spots
US10336320B2 (en) 2017-11-22 2019-07-02 Ford Global Technologies, Llc Monitoring of communication for vehicle remote park-assist
US10369988B2 (en) 2017-01-13 2019-08-06 Ford Global Technologies, Llc Autonomous parking of vehicles inperpendicular parking spots
US10378919B2 (en) 2017-04-19 2019-08-13 Ford Global Technologies, Llc Control module activation of vehicles in a key-off state to determine driving routes
US10384605B1 (en) 2018-09-04 2019-08-20 Ford Global Technologies, Llc Methods and apparatus to facilitate pedestrian detection during remote-controlled maneuvers
DE102018207964A1 (en) * 2018-05-22 2019-11-28 Zf Friedrichshafen Ag Method and control device for controlling a vehicle
US10493981B2 (en) 2018-04-09 2019-12-03 Ford Global Technologies, Llc Input signal management for vehicle park-assist
US10507868B2 (en) 2018-02-22 2019-12-17 Ford Global Technologies, Llc Tire pressure monitoring for vehicle park-assist
US10529233B1 (en) 2018-09-24 2020-01-07 Ford Global Technologies Llc Vehicle and method for detecting a parking space via a drone
US10578676B2 (en) 2017-11-28 2020-03-03 Ford Global Technologies, Llc Vehicle monitoring of mobile device state-of-charge
US10580304B2 (en) 2017-10-02 2020-03-03 Ford Global Technologies, Llc Accelerometer-based external sound monitoring for voice controlled autonomous parking
US10585431B2 (en) 2018-01-02 2020-03-10 Ford Global Technologies, Llc Mobile device tethering for a remote parking assist system of a vehicle
US10585430B2 (en) 2017-06-16 2020-03-10 Ford Global Technologies, Llc Remote park-assist authentication for vehicles
US10583830B2 (en) 2018-01-02 2020-03-10 Ford Global Technologies, Llc Mobile device tethering for a remote parking assist system of a vehicle
WO2020048718A1 (en) * 2018-09-06 2020-03-12 Volkswagen Aktiengesellschaft Concept for monitoring and planning the movement of a means of transportation
US10628687B1 (en) 2018-10-12 2020-04-21 Ford Global Technologies, Llc Parking spot identification for vehicle park-assist
US10627811B2 (en) 2017-11-07 2020-04-21 Ford Global Technologies, Llc Audio alerts for remote park-assist tethering
US10683034B2 (en) 2017-06-06 2020-06-16 Ford Global Technologies, Llc Vehicle remote parking systems and methods
US10684627B2 (en) 2018-02-06 2020-06-16 Ford Global Technologies, Llc Accelerometer-based external sound monitoring for position aware autonomous parking
US10684773B2 (en) 2018-01-03 2020-06-16 Ford Global Technologies, Llc Mobile device interface for trailer backup-assist
US10683004B2 (en) 2018-04-09 2020-06-16 Ford Global Technologies, Llc Input signal management for vehicle park-assist
US10688918B2 (en) 2018-01-02 2020-06-23 Ford Global Technologies, Llc Mobile device tethering for a remote parking assist system of a vehicle
US10717432B2 (en) 2018-09-13 2020-07-21 Ford Global Technologies, Llc Park-assist based on vehicle door open positions
US10732622B2 (en) 2018-04-05 2020-08-04 Ford Global Technologies, Llc Advanced user interaction features for remote park assist
US10737690B2 (en) 2018-01-02 2020-08-11 Ford Global Technologies, Llc Mobile device tethering for a remote parking assist system of a vehicle
US10747218B2 (en) 2018-01-12 2020-08-18 Ford Global Technologies, Llc Mobile device tethering for remote parking assist
US10759417B2 (en) 2018-04-09 2020-09-01 Ford Global Technologies, Llc Input signal management for vehicle park-assist
US10775781B2 (en) 2017-06-16 2020-09-15 Ford Global Technologies, Llc Interface verification for vehicle remote park-assist
US10793144B2 (en) 2018-04-09 2020-10-06 Ford Global Technologies, Llc Vehicle remote park-assist communication counters
US10814864B2 (en) 2018-01-02 2020-10-27 Ford Global Technologies, Llc Mobile device tethering for a remote parking assist system of a vehicle
US10821972B2 (en) 2018-09-13 2020-11-03 Ford Global Technologies, Llc Vehicle remote parking assist systems and methods
US10908603B2 (en) 2018-10-08 2021-02-02 Ford Global Technologies, Llc Methods and apparatus to facilitate remote-controlled maneuvers
US10917748B2 (en) 2018-01-25 2021-02-09 Ford Global Technologies, Llc Mobile device tethering for vehicle systems based on variable time-of-flight and dead reckoning
US10967851B2 (en) 2018-09-24 2021-04-06 Ford Global Technologies, Llc Vehicle system and method for setting variable virtual boundary
US10974717B2 (en) 2018-01-02 2021-04-13 Ford Global Technologies, I.LC Mobile device tethering for a remote parking assist system of a vehicle
US11097723B2 (en) 2018-10-17 2021-08-24 Ford Global Technologies, Llc User interfaces for vehicle remote park assist
US11137754B2 (en) 2018-10-24 2021-10-05 Ford Global Technologies, Llc Intermittent delay mitigation for remote vehicle operation
US11148661B2 (en) 2018-01-02 2021-10-19 Ford Global Technologies, Llc Mobile device tethering for a remote parking assist system of a vehicle
US11169517B2 (en) 2019-04-01 2021-11-09 Ford Global Technologies, Llc Initiation of vehicle remote park-assist with key fob
US11195344B2 (en) 2019-03-15 2021-12-07 Ford Global Technologies, Llc High phone BLE or CPU burden detection and notification
US11275368B2 (en) 2019-04-01 2022-03-15 Ford Global Technologies, Llc Key fobs for vehicle remote park-assist
CN114502412A (en) * 2019-10-10 2022-05-13 舍弗勒技术股份两合公司 Operating system for controlling vehicle
DE102020132059A1 (en) 2020-12-02 2022-06-02 Deere & Company Operator interface for an autonomous machine
EP4049908A4 (en) * 2019-11-20 2023-01-11 Huawei Technologies Co., Ltd. Automatic parking interaction method and device
US11789442B2 (en) 2019-02-07 2023-10-17 Ford Global Technologies, Llc Anomalous input detection

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102009046726A1 (en) 2009-11-16 2011-05-19 Robert Bosch Gmbh Method for detecting and selecting e.g. longitudinal parking spaces, for aiding driver of car for transporting persons or materials, involves displaying surfaces as possible parking spaces, and selecting suitable parking spaces
EP1756522B1 (en) * 2004-05-19 2011-07-13 Honda Motor Co., Ltd. System and method for displaying information
DE102010030436A1 (en) 2010-06-23 2011-12-29 Thyssenkrupp Elevator Ag elevator system
DE102010030463A1 (en) * 2010-06-24 2011-12-29 Robert Bosch Gmbh Method for assisting a driver of a motor vehicle
DE102011086215A1 (en) * 2011-11-11 2013-05-16 Robert Bosch Gmbh Method for assisting driver of motor car, involves determining trajectory for reaching end position e.g. parking space and maneuvering statements to follow around trajectory or automatic maneuver along trajectory into end position

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1756522B1 (en) * 2004-05-19 2011-07-13 Honda Motor Co., Ltd. System and method for displaying information
DE102009046726A1 (en) 2009-11-16 2011-05-19 Robert Bosch Gmbh Method for detecting and selecting e.g. longitudinal parking spaces, for aiding driver of car for transporting persons or materials, involves displaying surfaces as possible parking spaces, and selecting suitable parking spaces
DE102010030436A1 (en) 2010-06-23 2011-12-29 Thyssenkrupp Elevator Ag elevator system
DE102010030463A1 (en) * 2010-06-24 2011-12-29 Robert Bosch Gmbh Method for assisting a driver of a motor vehicle
DE102011086215A1 (en) * 2011-11-11 2013-05-16 Robert Bosch Gmbh Method for assisting driver of motor car, involves determining trajectory for reaching end position e.g. parking space and maneuvering statements to follow around trajectory or automatic maneuver along trajectory into end position

Cited By (55)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102014107302A1 (en) * 2014-05-23 2015-11-26 Valeo Schalter Und Sensoren Gmbh Method for the at least semi-autonomous maneuvering of a motor vehicle along a user-definable driving trajectory and driver assistance device and motor vehicle
DE102014018108A1 (en) 2014-12-06 2016-06-09 Daimler Ag Method for determining a driving maneuver of a vehicle
DE102015014614A1 (en) 2015-11-12 2016-05-12 Daimler Ag Method for carrying out an autonomous drive of a vehicle
DE102016003308B3 (en) * 2016-03-17 2017-09-21 Audi Ag Method for operating a driver assistance system of a motor vehicle and motor vehicle
US10532770B2 (en) 2016-03-17 2020-01-14 Audi Ag Method for operating a driver assistance system of a motor vehicle and motor vehicle
WO2018077647A1 (en) * 2016-10-26 2018-05-03 Volkswagen Aktiengesellschaft Method and system for the external control of an autonomous vehicle
US10369988B2 (en) 2017-01-13 2019-08-06 Ford Global Technologies, Llc Autonomous parking of vehicles inperpendicular parking spots
US10217297B2 (en) 2017-04-19 2019-02-26 Ford Global Technologies, Llc Control module activation to monitor vehicles in a key-off state
US10378919B2 (en) 2017-04-19 2019-08-13 Ford Global Technologies, Llc Control module activation of vehicles in a key-off state to determine driving routes
US10683034B2 (en) 2017-06-06 2020-06-16 Ford Global Technologies, Llc Vehicle remote parking systems and methods
US10775781B2 (en) 2017-06-16 2020-09-15 Ford Global Technologies, Llc Interface verification for vehicle remote park-assist
US10234868B2 (en) 2017-06-16 2019-03-19 Ford Global Technologies, Llc Mobile device initiation of vehicle remote-parking
US10585430B2 (en) 2017-06-16 2020-03-10 Ford Global Technologies, Llc Remote park-assist authentication for vehicles
US10281921B2 (en) 2017-10-02 2019-05-07 Ford Global Technologies, Llc Autonomous parking of vehicles in perpendicular parking spots
US10580304B2 (en) 2017-10-02 2020-03-03 Ford Global Technologies, Llc Accelerometer-based external sound monitoring for voice controlled autonomous parking
US10627811B2 (en) 2017-11-07 2020-04-21 Ford Global Technologies, Llc Audio alerts for remote park-assist tethering
US10336320B2 (en) 2017-11-22 2019-07-02 Ford Global Technologies, Llc Monitoring of communication for vehicle remote park-assist
US10578676B2 (en) 2017-11-28 2020-03-03 Ford Global Technologies, Llc Vehicle monitoring of mobile device state-of-charge
US11148661B2 (en) 2018-01-02 2021-10-19 Ford Global Technologies, Llc Mobile device tethering for a remote parking assist system of a vehicle
US10737690B2 (en) 2018-01-02 2020-08-11 Ford Global Technologies, Llc Mobile device tethering for a remote parking assist system of a vehicle
US10585431B2 (en) 2018-01-02 2020-03-10 Ford Global Technologies, Llc Mobile device tethering for a remote parking assist system of a vehicle
US10583830B2 (en) 2018-01-02 2020-03-10 Ford Global Technologies, Llc Mobile device tethering for a remote parking assist system of a vehicle
US10814864B2 (en) 2018-01-02 2020-10-27 Ford Global Technologies, Llc Mobile device tethering for a remote parking assist system of a vehicle
US10688918B2 (en) 2018-01-02 2020-06-23 Ford Global Technologies, Llc Mobile device tethering for a remote parking assist system of a vehicle
US10974717B2 (en) 2018-01-02 2021-04-13 Ford Global Technologies, I.LC Mobile device tethering for a remote parking assist system of a vehicle
US10684773B2 (en) 2018-01-03 2020-06-16 Ford Global Technologies, Llc Mobile device interface for trailer backup-assist
US10747218B2 (en) 2018-01-12 2020-08-18 Ford Global Technologies, Llc Mobile device tethering for remote parking assist
US10917748B2 (en) 2018-01-25 2021-02-09 Ford Global Technologies, Llc Mobile device tethering for vehicle systems based on variable time-of-flight and dead reckoning
US10684627B2 (en) 2018-02-06 2020-06-16 Ford Global Technologies, Llc Accelerometer-based external sound monitoring for position aware autonomous parking
US10507868B2 (en) 2018-02-22 2019-12-17 Ford Global Technologies, Llc Tire pressure monitoring for vehicle park-assist
US10732622B2 (en) 2018-04-05 2020-08-04 Ford Global Technologies, Llc Advanced user interaction features for remote park assist
US10683004B2 (en) 2018-04-09 2020-06-16 Ford Global Technologies, Llc Input signal management for vehicle park-assist
US10793144B2 (en) 2018-04-09 2020-10-06 Ford Global Technologies, Llc Vehicle remote park-assist communication counters
US10759417B2 (en) 2018-04-09 2020-09-01 Ford Global Technologies, Llc Input signal management for vehicle park-assist
US10493981B2 (en) 2018-04-09 2019-12-03 Ford Global Technologies, Llc Input signal management for vehicle park-assist
DE102018207964A1 (en) * 2018-05-22 2019-11-28 Zf Friedrichshafen Ag Method and control device for controlling a vehicle
US10232673B1 (en) 2018-06-01 2019-03-19 Ford Global Technologies, Llc Tire pressure monitoring with vehicle park-assist
US10384605B1 (en) 2018-09-04 2019-08-20 Ford Global Technologies, Llc Methods and apparatus to facilitate pedestrian detection during remote-controlled maneuvers
WO2020048718A1 (en) * 2018-09-06 2020-03-12 Volkswagen Aktiengesellschaft Concept for monitoring and planning the movement of a means of transportation
US11934188B2 (en) 2018-09-06 2024-03-19 Volkswagen Aktiengesellschaft Monitoring and planning a movement of a transportation device
US10821972B2 (en) 2018-09-13 2020-11-03 Ford Global Technologies, Llc Vehicle remote parking assist systems and methods
US10717432B2 (en) 2018-09-13 2020-07-21 Ford Global Technologies, Llc Park-assist based on vehicle door open positions
US10529233B1 (en) 2018-09-24 2020-01-07 Ford Global Technologies Llc Vehicle and method for detecting a parking space via a drone
US10967851B2 (en) 2018-09-24 2021-04-06 Ford Global Technologies, Llc Vehicle system and method for setting variable virtual boundary
US10908603B2 (en) 2018-10-08 2021-02-02 Ford Global Technologies, Llc Methods and apparatus to facilitate remote-controlled maneuvers
US10628687B1 (en) 2018-10-12 2020-04-21 Ford Global Technologies, Llc Parking spot identification for vehicle park-assist
US11097723B2 (en) 2018-10-17 2021-08-24 Ford Global Technologies, Llc User interfaces for vehicle remote park assist
US11137754B2 (en) 2018-10-24 2021-10-05 Ford Global Technologies, Llc Intermittent delay mitigation for remote vehicle operation
US11789442B2 (en) 2019-02-07 2023-10-17 Ford Global Technologies, Llc Anomalous input detection
US11195344B2 (en) 2019-03-15 2021-12-07 Ford Global Technologies, Llc High phone BLE or CPU burden detection and notification
US11169517B2 (en) 2019-04-01 2021-11-09 Ford Global Technologies, Llc Initiation of vehicle remote park-assist with key fob
US11275368B2 (en) 2019-04-01 2022-03-15 Ford Global Technologies, Llc Key fobs for vehicle remote park-assist
CN114502412A (en) * 2019-10-10 2022-05-13 舍弗勒技术股份两合公司 Operating system for controlling vehicle
EP4049908A4 (en) * 2019-11-20 2023-01-11 Huawei Technologies Co., Ltd. Automatic parking interaction method and device
DE102020132059A1 (en) 2020-12-02 2022-06-02 Deere & Company Operator interface for an autonomous machine

Similar Documents

Publication Publication Date Title
DE102012222972A1 (en) Method for determining trajectory of driving maneuver, involves inputting symbol on touch-sensitive display device by user, where target pose is recognized depending on input symbol
EP3337713B1 (en) Parking system with interactive trajectory optimization
EP1998996B1 (en) Interactive operating device and method for operating the interactive operating device
DE102010030463A1 (en) Method for assisting a driver of a motor vehicle
DE102014116292A1 (en) System for transmitting information in a motor vehicle
DE102012020607B4 (en) A motor vehicle with a gesture control device and method for controlling a selection element
EP2943367A1 (en) Method for synchronizing display devices in a motor vehicle
DE102013221201A1 (en) Method for assisting a driver when parking
DE102016219987A1 (en) Method for operating a motor vehicle in a navigation environment and motor vehicle
DE102012208288A1 (en) Method for representing vehicle environment on display, involves detecting camera around vehicle, and determining environmental information from image of camera, where determined environmental information is stored and outputted on display
DE102013213225A1 (en) Parking assist system and method for controlling a parking assist system for a vehicle
WO2014108147A1 (en) Zooming and shifting of image content of a display device
EP3562730A1 (en) Method for automatically parking a motor vehicle
DE102014018108A1 (en) Method for determining a driving maneuver of a vehicle
DE102011084588A1 (en) Method for supporting driver while parking vehicle in e.g. parking region surrounded by boundary, involves determining objective parking position as function of object, and initiating park process to park vehicle at objective position
WO2013053590A1 (en) Method for representing a vehicle environment
DE102014226553A1 (en) Method for operating an input device, input device, motor vehicle
WO2015062750A1 (en) Infortainment system for a vehicle
WO2017140569A1 (en) Motor vehicle operator control apparatus and method for operating an operator control apparatus in order to cause an interaction between a virtual presentation plane and a hand
DE102013016196B4 (en) Motor vehicle operation using combined input modalities
DE102015204978A1 (en) Method and device for operating an output system with a display device and at least one further output device
DE102013209853A1 (en) Parking assistance system and method for performing a semi-automatic parking or Rangiervorgangs a vehicle
DE102013211046A1 (en) Method and device for obtaining a control signal from an operating gesture
DE102019128926A1 (en) Process for automated vehicle guidance
DE102020106380A1 (en) Method for operating a driver assistance system of a vehicle by adapting displayed objects, driver assistance system and vehicle

Legal Events

Date Code Title Description
R163 Identified publications notified
R084 Declaration of willingness to licence
R012 Request for examination validly filed