DE102017207810B4 - Method for automated driving of a motor vehicle - Google Patents

Method for automated driving of a motor vehicle Download PDF

Info

Publication number
DE102017207810B4
DE102017207810B4 DE102017207810.3A DE102017207810A DE102017207810B4 DE 102017207810 B4 DE102017207810 B4 DE 102017207810B4 DE 102017207810 A DE102017207810 A DE 102017207810A DE 102017207810 B4 DE102017207810 B4 DE 102017207810B4
Authority
DE
Germany
Prior art keywords
motor vehicle
detection device
image data
driving intervention
determined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102017207810.3A
Other languages
German (de)
Other versions
DE102017207810A1 (en
Inventor
Markus Popken
Philipp Kretschmann
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Audi AG
Original Assignee
Audi AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Audi AG filed Critical Audi AG
Priority to DE102017207810.3A priority Critical patent/DE102017207810B4/en
Publication of DE102017207810A1 publication Critical patent/DE102017207810A1/en
Application granted granted Critical
Publication of DE102017207810B4 publication Critical patent/DE102017207810B4/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D15/00Steering not otherwise provided for
    • B62D15/02Steering position indicators ; Steering position determination; Steering aids
    • B62D15/027Parking aids, e.g. instruction means
    • B62D15/0285Parking performed automatically
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/0011Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement
    • G05D1/0044Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement by providing the operator with a computer generated representation of the environment of the vehicle, e.g. virtual reality, maps
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle

Abstract

Verfahren zur automatisierten Führung eines Kraftfahrzeugs (1), wobei durch eine kraftfahrzeugseitige Sensorik (2) das Umfeld des Kraftfahrzeugs (1) betreffende Umfeldinformationen erfasst werden und in Abhängigkeit der Umfeldinformationen wenigstens ein im Rahmen der automatisierten Führung durchzuführender Fahreingriff ermittelt wird, wobei durch eine durch einen Nutzer (7) tragbare, fahrzeugexterne Erfassungseinrichtung (6) das Umfeld des Kraftfahrzeugs (1) betreffende Bilddaten erfasst werden, wobei zum einen die Bilddaten von der Erfassungseinrichtung (6) an das Kraftfahrzeug (1) übertragen werden, wonach der Fahreingriff in Abhängigkeit der Bilddaten ermittelt wird, und/oder wobei zum anderen eine den durchzuführenden Fahreingriff betreffende Fahreingriffsinformation von dem Kraftfahrzeug (1) an die Erfassungseinrichtung (6) übertragen wird, wonach durch die Erfassungseinrichtung (6) eine Überlagerung einer in Abhängigkeit der Bilddaten erzeugten Bilddarstellung (15) mit wenigstens einem in Abhängigkeit der Fahreingriffsinformation generierten Grafikelement (17, 18) für den Nutzer (7) ausgegeben wird, wobei in beiden Fällen eine relative Position und/oder Orientierung des Kraftfahrzeugs (1) zu der Erfassungseinrichtung (2) oder umgekehrt ermittelt wird, wobei in Abhängigkeit der relativen Position und/oder Orientierung der Fahreingriff ermittelt und/oder das Grafikelement (17, 18) generiert und/oder die Überlagerung des Grafikelements (17, 18) zu der Bilddarstellung (15) parametrisiert wird, wobei die Bilddaten derart aufgenommen werden, dass zumindest ein Abschnitt des Kraftfahrzeugs (1) abgebildet wird, wobei die relative Position und/oder Orientierung durch Auswertung der Bilddaten ermittelt wird.Method for the automated guidance of a motor vehicle (1), wherein environmental information relating to the area surrounding the motor vehicle (1) is recorded by a sensor system (2) on the motor vehicle and at least one driving intervention to be carried out as part of the automated guidance is determined as a function of the environmental information, wherein a Image data relating to the surroundings of the motor vehicle (1) are captured by a user (7) portable, vehicle-external capture device (6), the image data being transmitted from the capture device (6) to the motor vehicle (1), after which the driving intervention is carried out as a function of the image data is determined, and/or wherein, on the other hand, driving intervention information relating to the driving intervention to be carried out is transmitted from the motor vehicle (1) to the detection device (6), after which the detection device (6) superimposes an image representation (15) generated as a function of the image data with least ns a graphic element (17, 18) generated depending on the driving intervention information for the user (7), wherein in both cases a relative position and / or orientation of the motor vehicle (1) to the detection device (2) or vice versa is determined, wherein the driving intervention is determined as a function of the relative position and/or orientation and/or the graphic element (17, 18) is generated and/or the superimposition of the graphic element (17, 18) on the image representation (15) is parameterized, with the image data being recorded in this way that at least a portion of the motor vehicle (1) is imaged, wherein the relative position and / or orientation is determined by evaluating the image data.

Description

Die Erfindung betrifft ein Verfahren zur automatisierten Führung eines Kraftfahrzeugs, wobei durch eine kraftfahrzeugseitige Sensorik das Umfeld des Kraftfahrzeugs betreffende Umfeldinformationen erfasst werden und in Abhängigkeit der Umfeldinformationen wenigstens ein im Rahmen der automatisierten Führung durchzuführender Fahreingriff ermittelt wird.The invention relates to a method for the automated guidance of a motor vehicle, wherein environmental information relating to the area surrounding the motor vehicle is detected by a vehicle-side sensor system and at least one driving intervention to be carried out as part of the automated guidance is determined as a function of the environmental information.

Eine automatisierte Führung von Kraftfahrzeugen, bei der ein fahrzeugseitiges oder ein externes System dem Fahrer die Quer- und/oder Längsführung des Kraftfahrzeugs für gewisse Zeiträume oder für gewisse Fahraufgaben abnimmt, gewinnt als Komfortfunktion zunehmen an Relevanz. Verschiedene automatisierungsgrade werden beispielsweise in dem Artikel „Rechtsfolgen zunehmender Fahrzeugautomatisierung“ in der Veröffentlichung Forschung Kompakt 11/12 der Bundesanstalt für Straßenwesen diskutiert. Bei einer solchen Führung ist es wesentlich, ein möglichst komplettes Umfeldmodell des Kraftfahrzeugumfelds in der Steuereinrichtung, die den Fahrbetrieb steuert, vorzuhalten, um eine robuste automatisierte Führung zu ermöglichen. Zugleich soll in vielen Anwendungsfällen, beispielsweise wenn ein Fahrzeug automatisch bei nicht im Fahrzeug befindlichem Fahrer einparkt, eine Möglichkeit geschaffen werden, einen Nutzer über die Intentionen des Kraftfahrzeugs zu informieren bzw. ihm eine Möglichkeit zu geben, in den Fahrbetrieb einzugreifen.Automated guidance of motor vehicles, in which a vehicle-side or an external system relieves the driver of the lateral and/or longitudinal guidance of the motor vehicle for certain periods of time or for certain driving tasks, is becoming increasingly relevant as a comfort function. Different degrees of automation are discussed, for example, in the article "Legal consequences of increasing vehicle automation" in the publication Research Compact 11/12 of the Federal Highway Research Institute. In the case of such guidance, it is essential to have as complete an environment model as possible of the vehicle environment in the control device that controls the driving operation, in order to enable robust automated guidance. At the same time, in many applications, for example when a vehicle automatically parks when the driver is not in the vehicle, a possibility should be created to inform a user about the intentions of the motor vehicle or to give him the opportunity to intervene in the driving operation.

Ein möglicher Ansatz, einen Nutzer und andere Verkehrsteilnehmer auf Fahrintentionen bei einem automatisierten Fahrbetrieb hinzuweisen, ist es, entsprechende Informationen auf eine Fahrbahnoberfläche zu projizieren. Dieser Ansatz wird in den Druckschriften US 2015 / 0 336 502 A1 und DE 10 2011 112 577 A1 diskutiert. Eine entsprechende Projektion ist technisch relativ aufwändig und nicht notwendigerweise bei allen Lichtverhältnissen gut sichtbar. One possible approach to informing a user and other road users of driving intentions in automated driving is to project corresponding information onto a road surface. This approach is discussed in the references U.S. 2015/0 336 502 A1 and DE 10 2011 112 577 A1 discussed. A corresponding projection is technically relatively complex and not necessarily clearly visible in all lighting conditions.

Aus der Druckschrift DE 10 2014 200 611 A1 ist ein Verfahren zum autonomen Parken eines Fahrzeugs bekannt. Hierbei kann ein Bediener an dem gewünschten Einparkort mit einem Mobilgerät ein digitales Bild der Zielposition aufnehmen. Nach einer drahtlosen Übermittlung dieses Bilds an ein Fahrzeug kann es gemeinsam mit aktuellen Umfelddaten eines im Fahrzeug verbauten Umfelderfassungssystems genutzt werden, um eine Trajektorie zur Zielposition zu ermitteln und einen autonomen Parkvorgang entlang dieser Trajektorie durchzuführen.From the pamphlet DE 10 2014 200 611 A1 a method for autonomous parking of a vehicle is known. An operator can use a mobile device to take a digital image of the target position at the desired parking location. After wireless transmission of this image to a vehicle, it can be used together with current environment data from an environment detection system installed in the vehicle in order to determine a trajectory to the target position and to carry out an autonomous parking process along this trajectory.

Ein Verfahren zum Durchführen einer automatisierten Fahrt eines Fahrzeugs entlang einer aus einer Karte bereitgestellten Trajektorie ist aus der Druckschrift DE 10 2016 211 182 A1 bekannt. Hierbei wird eine Befahrbarkeitsinformation für das Umfeld berücksichtigt, die beispielsweise aus einer visuellen Abbildung des Umfelds ermittelt sein kann, die über eine Kamera eines Smartphones erfasst wurde.A method for carrying out an automated journey of a vehicle along a trajectory provided from a map is known from the publication DE 10 2016 211 182 A1 famous. Here, trafficability information for the environment is taken into account, which can be determined, for example, from a visual image of the environment that was captured by a camera of a smartphone.

Die Druckschrift DE 10 2016 208 214 A1 schlägt vor, zur Unterstützung eines Manövriervorgangs eines Fahrzeugs von einem fahrzeugexternen Sensor empfangene Bilddaten mit von einem fahrzeugeigenen Sensor erfassten Bilddaten zu verknüpfen.The pamphlet DE 10 2016 208 214 A1 proposes linking image data received from a vehicle-external sensor with image data recorded by an on-board sensor in order to support a maneuvering process of a vehicle.

Ein Verfahren zur Anbindung einer mobilen Kameraeinrichtung an eine fahrzeugfeste Anzeigevorrichtung ist aus der Druckschrift DE 10 2014 222 190 A1 bekannt.A method for connecting a mobile camera device to a vehicle-mounted display device is known from the publication DE 10 2014 222 190 A1 famous.

Die Druckschrift DE 10 2014 218 921 A1 schlägt vor, ein automatisches Parken eines Fahrzeugs zu überwachen, wobei zumindest ein Videobild des Parkvorgangs aufgenommen und an ein mobiles Endgerät versendet wird.The pamphlet DE 10 2014 218 921 A1 proposes to monitor automatic parking of a vehicle, with at least one video image of the parking process being recorded and sent to a mobile terminal device.

Der Erfindung liegt somit die Aufgabe zugrunde, eine automatisierte Führung eines Kraftfahrzeugs mit geringem technischen Aufwand bezüglich einer Einbindung eines Nutzers und/oder bezüglich der Ermittlung von Umfeldinformationen, die im Rahmen der automatisierten Führung nutzbar sind, zu verbessern.The invention is therefore based on the object of improving automated guidance of a motor vehicle with little technical effort with regard to involving a user and/or with regard to determining environmental information that can be used within the framework of automated guidance.

Die Aufgabe wird erfindungsgemäß durch ein Verfahren der eingangs genannten Art gelöst, wobei durch eine durch einen Nutzer tragbare, fahrzeugexterne Erfassungseinrichtung das Umfeld des Kraftfahrzeugs betreffende Bilddaten erfasst werden, wobei zum einen die Bilddaten von der Erfassungseinrichtung an das Kraftfahrzeug übertragen werden, wonach der Fahreingriff in Abhängigkeit der Bilddaten ermittelt wird, und/oder wobei zum anderen eine den durchzuführenden Fahreingriff betreffende Fahreingriffsinformation von dem Kraftfahrzeug an die Erfassungseinrichtung übertragen wird, wonach durch die Erfassungseinrichtung eine Überlagerung einer in Abhängigkeit der Bilddaten erzeugten Bilddarstellung mit wenigstens einem in Abhängigkeit der Fahreingriffsinformation generierten Grafikelement für den Nutzer ausgegeben wird, wobei in beiden Fällen eine relative Position und/oder Orientierung des Kraftfahrzeugs zu der Erfassungseinrichtung oder umgekehrt ermittelt wird, wobei in Abhängigkeit der relativen Position und/oder Orientierung der Fahreingriff ermittelt und/oder das Grafikelement generiert und/oder die Überlagerung des Grafikelements zu der Bilddarstellung parametrisiert wird, wobei die Bilddaten derart aufgenommen werden, dass zumindest ein Abschnitt des Kraftfahrzeugs abgebildet wird, wobei die relative Position und/oder Orientierung durch Auswertung der Bilddaten ermittelt wird.The object is achieved according to the invention by a method of the type mentioned at the outset, in which image data relating to the surroundings of the motor vehicle are acquired by a user-portable, vehicle-external acquisition device, with the image data being transmitted from the acquisition device to the motor vehicle, after which the driving intervention in is determined as a function of the image data, and/or wherein, on the other hand, driving intervention information relating to the driving intervention to be carried out is transmitted from the motor vehicle to the detection device, after which the detection device superimposes an image representation generated as a function of the image data with at least one graphic element generated as a function of the driving intervention information for is issued to the user, in both cases a relative position and/or orientation of the motor vehicle to the detection device or vice versa is determined, depending on the rel ative position and / or orientation of the driving intervention is determined and / or the graphic element is generated and / or the overlay of the graphic element is parameterized to the image display, the image data are recorded in such a way that at least one section of the motor vehicle is imaged, the relative position and/or orientation being determined by evaluating the image data.

Erfindungsgemäß wird vorgeschlagen, eine durch einen Nutzer tragbare, fahrzeugexterne Erfassungseinrichtung zu nutzen, um zusätzliche Sensordaten an das Kraftfahrzeug bereitzustellen, die im Rahmen der automatisierten Führung genutzt werden, und/oder um einen Nutzer über geplante Fahreingriffe zu informieren. Hierbei wird die Tatsache ausgenutzt, dass in dem erfindungsgemäßen Verfahren nutzbare Erfassungseinrichtungen mittlerweile ohnehin häufig von Nutzern mitgeführt werden. Beispielsweise kann ein Mobiltelefon mit einer integrierten Kamera als Erfassungseinrichtung verwendet werden. Voraussichtlich wird zudem die Nutzung von sogenannten Augmented Reality-Geräten, insbesondere entsprechenden Brillen, zunehmen, die ebenfalls als Erfassungseinrichtungen in dem erfindungsgemäßen Verfahren nutzbar sind. According to the invention, it is proposed to use a vehicle-external detection device that can be worn by a user in order to provide additional sensor data to the motor vehicle that are used as part of the automated guidance and/or to inform a user about planned driving interventions. This exploits the fact that the detection devices that can be used in the method according to the invention are now often carried along by users anyway. For example, a mobile phone with an integrated camera can be used as a detection device. The use of so-called augmented reality devices, in particular corresponding glasses, which can also be used as detection devices in the method according to the invention, is also expected to increase.

Somit ist das beschriebene Vorgehen mit sehr geringem technischen Zusatzaufwand realisierbar, da ausschließlich eine Kommunikation zwischen der Erfassungseinrichtung und einer kraftfahrzeugseitigen Kommunikationseinrichtung ermöglicht werden muss. Da jedoch in Kraftfahrzeugen, Mobiltelefonen und Augmented Reality-Geräten typischerweise bereits Vorrichtungen zur Drahtloskommunikation vorgesehen sind, kann das erfindungsgemäße Verfahren häufig bereits durch reine Softwareanpassungen umgesetzt werden. Beispielsweise kann eine entsprechende Anwendung bzw. App auf einem Mobiltelefon installiert werden und die fahrzeugseitigen Softwarekomponenten können als freies oder kostenpflichtiges Update angeboten werden.The procedure described can thus be implemented with very little additional technical effort, since only communication between the detection device and a communication device on the motor vehicle must be enabled. However, since devices for wireless communication are typically already provided in motor vehicles, cell phones and augmented reality devices, the method according to the invention can often already be implemented by pure software adaptations. For example, a corresponding application or app can be installed on a mobile phone and the vehicle-side software components can be offered as a free or chargeable update.

Die Überlagerung der Bilddarstellung mit dem generierten Grafikelement kann insbesondere auf einem Bildschirm dargestellt werden, wobei es sich hierbei beispielsweise um den Bildschirm eines Mobiltelefons oder einer Datenbrille handeln kann. Prinzipiell wäre es jedoch auch möglich, diese Überlagerung direkt in das Auge eines Nutzers oder auf eine Projektionsfläche in der Umgebung des Nutzers zu projizieren.The superimposition of the image representation with the generated graphic element can in particular be displayed on a screen, which can be, for example, the screen of a mobile phone or data glasses. In principle, however, it would also be possible to project this overlay directly into the user's eye or onto a projection surface in the vicinity of the user.

Der Fahreingriff kann im erfindungsgemäßen Verfahren vorzugsweise durch eine fahrzeugseitige Steuereinrichtung geplant und durch eine Steuerung einer entsprechenden Aktorik im Kraftfahrzeug durchgeführt werden. Prinzipiell wäre es auch möglich, den Fahreingriff durch eine fahrzeugexterne Steuereinrichtung zu planen. Unter der fahrzeugexternen Erfassungseinrichtung ist eine Erfassungseinrichtung zu verstehen, die separat von dem Kraftfahrzeug ausgebildet ist und sich außerhalb von dem Kraftfahrzeug befindet. Sie kann im Rahmen der Durchführung des Verfahren insbesondere von dem Kraftfahrzeug beabstandet angeordnet sein und beispielsweise von einem Nutzer getragen werden. Beispielsweise kann sie in der Hand des Nutzers gehalten werden oder an seinem Körper befestigt sein.In the method according to the invention, the driving intervention can preferably be planned by a vehicle-side control device and carried out by controlling a corresponding actuator system in the motor vehicle. In principle, it would also be possible to plan the driving intervention using a vehicle-external control device. The vehicle-external detection device is to be understood as meaning a detection device that is configured separately from the motor vehicle and is located outside of the motor vehicle. When carrying out the method, it can be arranged at a distance from the motor vehicle and can be carried by a user, for example. For example, it can be held in the user's hand or attached to his body.

In dem erfindungsgemäßen Verfahren wird eine relative Position und/oder Orientierung des Kraftfahrzeugs zu der Erfassungseinrichtung oder umgekehrt ermittelt, wobei in Abhängigkeit der relativen Position und/oder Orientierung der Fahreingriff ermittelt und/oder das Grafikelement generiert und/oder die Überlagerung des Grafikelements zu der Bilddarstellung parametrisiert wird. Nach Ermittlung der relativen Position und/oder Orientierung kann ein gemeinsames Koordinatensystem für den geplanten Fahreingriff und/oder die durch die Sensorik des Kraftfahrzeugs erfassten Umfeldinformationen und die Bilddaten bestimmt werden, wodurch die Bilddaten zur Planung des Fahreingriffs bzw. zur Anpassung der überlagerten Darstellung genutzt werden können. Beispielsweise kann das Grafikelement eine Trajektorie oder ein Trajektorienabschnitt, die oder der aufgrund des Fahreingriffs durchfahren werden soll, hierdurch mit einer korrekten Position, Orientierung und/oder Skalierung bezüglich des Kraftfahrzeugs darstellen. Allgemein ausgedrückt kann das Grafikelement in Abhängigkeit der ermittelten relativen Position und/oder Orientierung bezüglich der Bilddarstellung positioniert, skaliert, rotiert und/oder verzerrt werden. Eine Verzerrung kann beispielsweise durch Stauchen, Strecken und/oder Scheren des Grafikelements erfolgen.In the method according to the invention, a position and/or orientation of the motor vehicle relative to the detection device or vice versa is determined, with the driving intervention being determined and/or the graphic element generated and/or the overlay of the graphic element on the image representation depending on the relative position and/or orientation is parameterized. After the relative position and/or orientation has been determined, a common coordinate system for the planned driving intervention and/or the environmental information recorded by the sensor system of the motor vehicle and the image data can be determined, whereby the image data can be used to plan the driving intervention or to adapt the superimposed representation can. For example, the graphic element can thereby represent a trajectory or a trajectory section that is to be traversed due to the driving intervention with a correct position, orientation and/or scaling with respect to the motor vehicle. Expressed in general terms, the graphic element can be positioned, scaled, rotated and/or distorted as a function of the determined relative position and/or orientation with respect to the image representation. A distortion can occur, for example, by compressing, stretching and/or shearing the graphic element.

Die relative Position und/oder Orientierung des Kraftfahrzeugs zu der Erfassungseinrichtung oder umgekehrt kann ermittelt werden, indem absolute Positionen und/oder Orientierungen des Kraftfahrzeugs und der Erfassungseinrichtung ermittelt werden. Hierzu können beispielsweise satellitenbasierte Positionsbestimmungssysteme, Beschleunigungs- und/oder Magnetfeldsensoren oder Ähnliches genutzt werden. Aus den jeweiligen absoluten Positionen bzw. Orientierungen kann eine relative Position bzw. Orientierung berechnet werden.The position and/or orientation of the motor vehicle relative to the detection device or vice versa can be determined by determining absolute positions and/or orientations of the motor vehicle and the detection device. For this purpose, for example, satellite-based position determination systems, acceleration and/or magnetic field sensors or the like can be used. A relative position or orientation can be calculated from the respective absolute positions or orientations.

Erfindungsgemäß werden die Bilddaten derart aufgenommen, dass zumindest ein Abschnitt des Kraftfahrzeugs abgebildet wird, wobei die relative Position und/oder Orientierung durch Auswertung der Bilddaten ermittelt wird. Hierzu kann ein Bilderkennungsalgorithmus genutzt werden, der vorzugsweise erfassungseinrichtungsseitig oder durch eine Steuereinrichtung des Kraftfahrzeugs durchgeführt werden kann. Im Stand der Technik sind eine Vielzahl von Verfahren bekannt, um bestimmte Objekte in Bilddaten zu erkennen und ihre relative Position und/oder Orientierung bezüglich der erfassenden Kamera zu ermitteln. Beispielsweise kann das Kraftfahrzeug bzw. der abgebildete Abschnitt des Kraftfahrzeugs anhand von skaleninvarianten Merkmalen erkannt werden. Da einzelne Bildpunkte der Bilddaten bei üblichen Kamerasensoren bestimmten Raumwinkeln zugeordnet sind, kann direkt aus der Position des Kraftfahrzeugs bzw. der entsprechenden Merkmale im Bild ermittelt werden, in welchem Raumwinkel sich das Kraftfahrzeug bezüglich der Erfassungseinrichtung befindet. Die Größe der Abbildung des Kraftfahrzeugs und somit beispielsweise auch der Abstand zwischen verschiedenen Merkmalen variiert mit dem Abstand des Kraftfahrzeugs von der Kamera, wodurch auch dieser aus den Bilddaten ermittelt werden kann.According to the invention, the image data is recorded in such a way that at least one section of the motor vehicle is imaged, with the relative position and/or orientation being determined by evaluating the image data. An image recognition algorithm can be used for this purpose, which can preferably be carried out on the acquisition device side or by a control device of the motor vehicle. A large number of methods are known in the prior art for recognizing specific objects in image data and for determining their relative position and/or orientation with respect to the capturing camera. For example, the motor vehicle or the illustrated section of the force vehicle can be recognized based on scale-invariant characteristics. Since individual pixels of the image data are associated with specific spatial angles in conventional camera sensors, the spatial angle in which the motor vehicle is located with respect to the detection device can be determined directly from the position of the motor vehicle or the corresponding features in the image. The size of the image of the motor vehicle and thus also the distance between different features, for example, varies with the distance of the motor vehicle from the camera, as a result of which this can also be determined from the image data.

Um eine Erkennung des Kraftfahrzeugs in den Bilddaten bzw. eine Ermittlung der relativen Position und/oder Orientierung aufgrund dieser Information weiter zu verbessern, ist es vorteilhaft, wenn bekannte Merkmale des Kraftfahrzeugs im Rahmen der Bilddatenverarbeitung genutzt werden können. Es ist daher möglich, dass durch die Erfassungseinrichtung wenigstens eine das Kraftfahrzeug betreffende Kraftfahrzeuginformation gespeichert oder empfangen wird, wobei das Kraftfahrzeug oder der Abschnitt des Kraftfahrzeugs anhand der Kraftfahrzeuginformation in den Bilddaten erkannt wird. Die Kraftfahrzeuginformation kann beispielsweise bestimmte Muster bzw. skaleninvariante Merkmale des Kraftfahrzeugs beschreiben. Entsprechende Informationen können beispielsweise bei einem Pairing der Erfassungseinrichtung mit dem Kraftfahrzeug von dem Kraftfahrzeug an die Erfassungseinrichtung bereitgestellt werden. Ein solches Pairing erfolgt beispielsweise für Mobiltelefone, die als Erfassungseinrichtung dienen können, häufig ohnehin, um beispielsweise eine Freisprecheinrichtung des Kraftfahrzeugs nutzen zu können. Alternativ wäre es beispielsweise möglich, dass im Rahmen einer vorangehenden Kalibrierung ein Nutzer angewiesen wird, das Kraftfahrzeug aus bestimmten Perspektiven aufzunehmen, wonach diese Daten im Anschluss als Kraftfahrzeuginformation genutzt werden können.In order to further improve recognition of the motor vehicle in the image data or determination of the relative position and/or orientation based on this information, it is advantageous if known features of the motor vehicle can be used in the context of image data processing. It is therefore possible for at least one item of motor vehicle information relating to the motor vehicle to be stored or received by the detection device, with the motor vehicle or the section of the motor vehicle being recognized on the basis of the motor vehicle information in the image data. The motor vehicle information can, for example, describe specific patterns or scale-invariant characteristics of the motor vehicle. Corresponding information can be provided by the motor vehicle to the detection device, for example when the detection device is paired with the motor vehicle. Such a pairing often takes place anyway for mobile phones, for example, which can serve as a detection device, in order to be able to use a hands-free device in the motor vehicle, for example. Alternatively, it would be possible, for example, for a user to be instructed as part of a preceding calibration to record the motor vehicle from specific perspectives, after which this data can then be used as motor vehicle information.

Kraftfahrzeugseitig kann wenigstens eine die Erfassungseinrichtung betreffende Erfassungseinrichtungsinformation gespeichert oder empfangen werden, wonach die Übertragung der Fahreingriffsinformation und/oder die Ermittlung des Fahreingriffs in Abhängigkeit der Erfassungseinrichtungsinformation erfolgt. Beispielsweise können kraftfahrzeugseitig verschiedene Protokolle oder Informationsdarstellungen unterstützt werden, um die Fahreingriffsinformation an die Erfassungseinrichtung bereitzustellen. In Abhängigkeit eines Typs der Erfassungseinrichtung als Erfassungseinrichtungsinformation kann somit ein entsprechendes Protokoll bzw. eine entsprechende Informationsdarstellung gewählt werden. Das erläuterte Vorgehen ist jedoch besonders vorteilhaft, um Aufnahmeparameter der Erfassungseinrichtung bzw. einer Kamera der Erfassungseinrichtung an das Kraftfahrzeug bereitzustellen, um die dortige Verarbeitung der Bilddaten zu begünstigen. Beispielsweise können eine Brennweite und/oder eine Breite und/oder Höhe des Bildsensors als Erfassungseinrichtungsinformationen vorliegen oder empfangen werden. Es ist auch möglich, Informationen über die Verzerrung der Bilddaten, beispielsweise aufgrund von Linsenverzerrungen, als Erfassungseinrichtungsinformation zu nutzen, wodurch die Fusionen der Bilddaten mit den Daten der fahrzeugseitigen Sensorik weiter verbessert werden kann.At least one piece of detection device information relating to the detection device can be stored or received in the motor vehicle, after which the driving intervention information is transmitted and/or the driving intervention is determined as a function of the detection device information. For example, different protocols or information representations can be supported on the motor vehicle side in order to provide the driving intervention information to the detection device. Depending on a type of acquisition device as acquisition device information, a corresponding protocol or a corresponding information display can thus be selected. However, the procedure explained is particularly advantageous in order to provide recording parameters of the detection device or a camera of the detection device to the motor vehicle in order to promote the processing of the image data there. For example, a focal length and/or a width and/or height of the image sensor can be present or received as detector information. It is also possible to use information about the distortion of the image data, for example due to lens distortions, as acquisition device information, as a result of which the fusion of the image data with the data from the vehicle-side sensor system can be further improved.

Die Bilddarstellung kann das Umfeld des Kraftfahrzeugs aus jener Perspektive zeigen, aus der die Bilddaten aufgenommen werden. Insbesondere wird auch das Kraftfahrzeug aus dieser Perspektive abgebildet. Insbesondere kann keine Umrechnung der Perspektive, beispielsweise zur Darstellung aus einer Vogelperspektive, erfolgen, sondern es kann eine im Wesentlichen unveränderte bzw. natürliche Bilddarstellung erfolgen. Wird beispielsweise ein Bildschirm genutzt, der auf einer der Kamera gegenüberliegenden Gehäuseseite angeordnet ist, wie dies bei vielen Kameras oder Mobiltelefonen der Fall ist, erscheint die Erfassungseinrichtung somit quasi durchsichtig, wodurch durch Überlagerung des Grafikelements eine Augmented Reality-Darstellung realisiert werden kann. Eine entsprechende Darstellung ist für einen Nutzer besonders intuitiv erfassbar.The image display can show the area surrounding the motor vehicle from the perspective from which the image data is recorded. In particular, the motor vehicle is also depicted from this perspective. In particular, the perspective cannot be converted, for example for display from a bird's-eye view, but an essentially unchanged or natural image display can take place. If, for example, a screen is used that is located on the opposite side of the housing from the camera, as is the case with many cameras or mobile phones, the detection device appears more or less transparent, which means that an augmented reality display can be implemented by overlaying the graphic element. A corresponding representation can be grasped particularly intuitively by a user.

Das Grafikelement kann derart generiert und mit der Bilddarstellung überlagert werden, dass es zumindest einen Abschnitt einer Trajektorie visualisiert, entlang der das Kraftfahrzeug durch den Fahreingriff geführt werden soll. Die Trajektorie kann beispielsweise durch eine Zentrallinie, entlang der sich das Kraftfahrzeug bewegen soll, durch Grenzlinien, die einen durch das Kraftfahrzeug befahrenen Bereich kennzeichnen, durch wenigstens einen Pfeil oder Ähnliches dargestellt werden. Ergänzend oder alternativ können als Grafikelement bestimmte Symbole dargestellt werden, die einzelne Fahreingriffe, beispielsweise ein Bremsen, ein Gas geben oder ein Lenken, visualisieren. Entsprechende Symbole können insbesondere an entsprechenden Positionen einer Trajektorie des Kraftfahrzeugs dargestellt werden.The graphic element can be generated and superimposed with the image representation in such a way that it visualizes at least a section of a trajectory along which the motor vehicle is to be guided by the driving intervention. The trajectory can be represented, for example, by a central line along which the motor vehicle is to move, by boundary lines that characterize an area traveled by the motor vehicle, by at least one arrow or the like. In addition or as an alternative, specific symbols can be displayed as graphic elements, which visualize individual driving interventions, for example braking, accelerating or steering. Corresponding symbols can be displayed in particular at corresponding positions of a trajectory of the motor vehicle.

Wird einem Nutzer ein Fahreingriff bzw. eine bestimmte Abfolge von Fahreingriffen visualisiert, ist es vorteilhaft, wenn er durch entsprechende Bedieneingaben an der Erfassungseinrichtung auch mit dem Kraftfahrzeug interagieren kann. Im einfachsten Fall kann ein Fahreingriff oder eine Gruppe von Fahreingriffen erst dann durchgeführt werden, wenn die Durchführung an der Erfassungseinrichtung bestätigt bzw. freigegeben wurde. Besonders vorteilhaft ist es jedoch, wenn der Fahreingriff oder die Fahreingriffe durch einen Nutzer direkt oder durch andere Vorgaben angepasst werden können. Es ist daher möglich, dass wenigstens eine Bedieneingabe des Nutzers an der Erfassungseinrichtung erfasst wird, wonach der Fahreingriff in Abhängigkeit der Bedieneingabe ermittelt oder angepasst wird. Die Bedieneingabe oder eine hieraus ermittelte Information kann an das Kraftfahrzeug übertragen werden.If a driving intervention or a specific sequence of driving interventions is visualized for a user, it is advantageous if he can also interact with the motor vehicle by means of appropriate operating inputs on the detection device. In the simplest case, a driving intervention or a group of driving interventions can only be carried out when the execution has been confirmed or released at the detection device. It is particularly beneficial However, if the driving intervention or driving interventions can be adapted by a user directly or by other specifications. It is therefore possible for at least one operator input from the user to be recorded on the acquisition device, after which the driving intervention is determined or adjusted as a function of the operator input. The operator input or information determined therefrom can be transmitted to the motor vehicle.

In einer besonders vorteilhaften Variante des geschilderten Vorgehens wird zunächst ein vorläufiger Fahreingriff ermittelt, die entsprechende Fahreingriffsinformation wird an die Erfassungseinrichtung übertragen und der vorläufige Fahreingriff wird dort wie vorangehend erläutert visualisiert. Wird der visualisierte Fahreingriff nutzerseitig bestätigt oder verstreicht ein gewisses Eingreifintervall, so wird dieser Fahreingriff ausgeführt. Führt der Benutzer jedoch entsprechende Bedieneingaben durch, kann diese Information an das Kraftfahrzeug übertragen werden und der Fahreingriff kann entsprechend angepasst werden.In a particularly advantageous variant of the described procedure, a preliminary driving intervention is first determined, the corresponding driving intervention information is transmitted to the detection device and the preliminary driving intervention is visualized there as explained above. If the visualized driving intervention is confirmed by the user or if a certain intervention interval elapses, this driving intervention is carried out. However, if the user carries out appropriate operating inputs, this information can be transmitted to the motor vehicle and the driving intervention can be adjusted accordingly.

Durch die Bedieneingabe kann wenigstens ein Sperrbereich definiert werden, wonach der Fahreingriff derart ermittelt wird, dass das Kraftfahrzeug ausschließlich außerhalb des Sperrbereichs geführt wird. Der Fahreingriff bzw. die Trajektorie des Kraftfahrzeugs kann somit derart geplant werden, dass das Kraftfahrzeug nicht in den Sperrbereich eindringt, also der Sperrbereich im Rahmen der automatisierten Führung nicht befahren wird. Der Sperrbereich kann beispielsweise ein Hindernis sein, das durch den Benutzer erkannt wurde. Es können jedoch auch Bereiche, die prinzipiell befahrbar wären, für die jedoch kein Befahren erfolgen soll, markiert werden, wie beispielsweise unübersichtliche Einmündungen von Straßen oder Wegen, Fußwege oder Ähnliches.At least one blocked area can be defined by the operator input, after which the driving intervention is determined in such a way that the motor vehicle is guided exclusively outside the blocked area. The driving intervention or the trajectory of the motor vehicle can thus be planned in such a way that the motor vehicle does not enter the restricted area, ie the restricted area is not driven over within the scope of the automated guidance. For example, the restricted area may be an obstacle detected by the user. However, it is also possible to mark areas that would in principle be passable, but which should not be driven on, such as, for example, unclear junctions with roads or paths, footpaths or the like.

In einigen Fällen kann es auch vorteilhaft sein, Sperrbereiche dadurch zu definieren, dass wenigstens ein befahrbarer Bereich durch den Nutzer gewählt wird, wonach alle nicht gewählten Bereiche als Sperrbereiche aufgefasst werden. Somit kann der Manövrierbereich für die automatisierte Führung gezielt auf bestimmte Bereiche eingeschränkt werden.In some cases it can also be advantageous to define restricted areas by the user selecting at least one drivable area, after which all non-selected areas are interpreted as restricted areas. In this way, the maneuvering range for the automated guidance can be specifically restricted to certain areas.

Der Fahreingriff kann als Teil eines automatisiert durchgeführten Einparkvorgangs oder Ausparkvorgangs geplant werden. Bei diesen Vorgängen ist es möglich, dass sich der Nutzer im Umfeld des Kraftfahrzeugs, jedoch außerhalb des Fahrzeugs befindet. In diesem Fall ist es möglich, dass mithilfe der Erfassungseinrichtung, also beispielsweise mithilfe eines Mobiltelefons, Bilddaten relevanter Bereiche erfasst werden können, die durch die kraftfahrzeugseitige Sensorik nicht einsehbar sind. Andererseits kann durch eine vorangehend erläuterte Bilddarstellung des Kraftfahrzeugumfelds mit wenigstens einem überlagerten Grafikelement für den Nutzer ein zukünftig geplantes Verhalten des Kraftfahrzeugs visualisiert werden, so dass der Nutzer das Kraftfahrzeug besser überwachen kann bzw. gezielt in den zukünftigen Fahrbetrieb eingreifen kann.The driving intervention can be planned as part of an automated parking process or exit process. With these processes, it is possible that the user is in the vicinity of the motor vehicle, but outside of the vehicle. In this case, it is possible that image data of relevant areas that cannot be seen by the sensor system on the motor vehicle can be captured using the capturing device, for example using a mobile phone. On the other hand, a future planned behavior of the motor vehicle can be visualized for the user by a previously explained image representation of the motor vehicle environment with at least one superimposed graphic element, so that the user can monitor the motor vehicle better or intervene in a targeted manner in the future driving operation.

Die Erfassungseinrichtung kann ein Mobiltelefon sein oder umfassen oder die Erfassungseinrichtung kann eine an dem Kopf des Nutzers getragene Ausgabeeinrichtung zur Ausgabe der Überlagerung umfassen. Beispielsweise kann es sich bei der Erfassungseinrichtung um eine Daten- bzw. VR-Brille handeln.The sensing device may be or comprise a mobile phone, or the sensing device may comprise an output device worn on the user's head for outputting the overlay. For example, the detection device can be data or VR glasses.

Neben dem erfindungsgemäßen Verfahren betrifft die Erfindung ein Kraftfahrzeug mit einer kraftfahrzeugseitigen Sensorik zur Erfassung von das Umfeld des Kraftfahrzeugs betreffenden Umfeldinformationen und einer Steuereinrichtung, durch die in Abhängigkeit der Umfeldinformationen wenigstens ein im Rahmen einer automatisierten Führung des Kraftfahrzeugs durchzuführender Fahreingriff ermittelbar ist, wobei das Kraftfahrzeug eine durch die Steuereinrichtung steuerbare Kommunikationseinrichtung zur Kommunikation mit einer fahrzeugexternen Erfassungseinrichtung umfasst, wobei die Steuereinrichtung zur Durchführung des erfindungsgemäßen Verfahrens eingerichtet ist.In addition to the method according to the invention, the invention relates to a motor vehicle with a sensor system on the motor vehicle for detecting environmental information relating to the area surrounding the motor vehicle and a control device, by means of which at least one driving intervention to be carried out as part of automated guidance of the motor vehicle can be determined as a function of the environmental information, the motor vehicle having a by the control device controllable communication device for communication with a vehicle-external detection device, wherein the control device is set up to carry out the method according to the invention.

Daneben betrifft die Erfindung eine Erfassungseinrichtung mit einer Kommunikationseinrichtung, wenigstens einer Kamera zur Erfassung von Bilddaten und einer Steuereinrichtung zur Steuerung der Kommunikationseinrichtung und der Kamera, wobei die Steuereinrichtung zur Durchführung des erfindungsgemäßen Verfahrens eingerichtet ist. Die Erfassungseinrichtung umfasst vorzugsweise eine durch die Steuereinrichtung steuerbare Anzeigeeinrichtung, beispielsweise ein Display oder eine Projektionsvorrichtung, um die Überlagerung der Bilddarstellung mit dem Grafikelement darzustellen. Die Erfassungseinrichtung kann beispielsweise ein Mobiltelefon sein, auf dem eine Anwendung zur Durchführung des erfindungsgemäßen Verfahrens installiert wurde. Es ist auch möglich, dass die Erfassungseinrichtung eine Daten- bzw. VR-Brille ist, durch die eine Augmented Reality-Darstellung direkt im Blickfeld des Nutzers möglich ist.The invention also relates to an acquisition device with a communication device, at least one camera for acquiring image data and a control device for controlling the communication device and the camera, the control device being set up to carry out the method according to the invention. The detection device preferably includes a display device that can be controlled by the control device, for example a display or a projection device, in order to display the superimposition of the image representation with the graphic element. The detection device can, for example, be a cell phone on which an application for carrying out the method according to the invention has been installed. It is also possible for the detection device to be data or VR glasses, through which an augmented reality display is possible directly in the user's field of vision.

Das erfindungsgemäße Kraftfahrzeug bzw. die erfindungsgemäße Erfassungseinrichtung können mit den zum erfindungsgemäßen Verfahren erläuterten Merkmalen mit den dort genannten Vorteile weitergebildet werden.The motor vehicle according to the invention or the detection device according to the invention can be further developed with the features explained for the method according to the invention with the advantages mentioned there.

Weitere Vorteile und Einzelheiten der Erfindung ergeben sich aus den folgenden Ausführungsbeispielen und den zugehörigen Zeichnungen. Hierbei zeigen schematisch:

  • 1 eine Fahrsituation, in der ein Ausführungsbeispiel des erfindungsgemäßen Verfahrens durch ein Ausführungsbeispiel einer erfindungsgemäßen Erfassungseinrichtung und ein Ausführungsbeispiel eines erfindungsgemäßen Kraftfahrzeugs durchgeführt wird,
  • 2 eine Detailansicht der in 1 gezeigten Erfassungseinrichtung, und
  • 3 eine Bildschirmdarstellung auf einem Bildschirm dieser Erfassungseinrichtung.
Further advantages and details of the invention result from the following description examples and the associated drawings. Here show schematically:
  • 1 a driving situation in which an exemplary embodiment of the method according to the invention is carried out by an exemplary embodiment of a detection device according to the invention and an exemplary embodiment of a motor vehicle according to the invention,
  • 2 a detailed view of the in 1 detection device shown, and
  • 3 a screen display on a screen of this detection device.

1 zeigt eine Fahrsituation, in der ein Verfahren zur automatisierten Führung eines Kraftfahrzeugs 1 durchgeführt wird. Durch eine kraftfahrzeugseitige Sensorik 2 werden das Umfeld des Kraftfahrzeugs 1 betreffende Umfeldinformationen erfasst und in Abhängigkeit dieser Umfeldinformationen wird durch eine Steuereinrichtung 3 ein durchzuführender Fahreingriff ermittelt. Der Fahreingriff soll in der gezeigten Fahrsituation zum Einparken des Kraftfahrzeugs 1 in der Parkposition 12 dienen. Um den Fahreingriff durchzuführen, kann die Steuereinrichtung 3 eine Aktorik 4 des Kraftfahrzeugs ansteuern, um in die Längs- und Querführung des Kraftfahrzeugs 1 einzugreifen. 1 shows a driving situation in which a method for the automated guidance of a motor vehicle 1 is carried out. A sensor system 2 on the motor vehicle detects environmental information relating to the environment of motor vehicle 1 , and a control device 3 determines a driving intervention to be carried out as a function of this environmental information. In the driving situation shown, the driving intervention is intended to serve to park the motor vehicle 1 in the parking position 12 . In order to carry out the driving intervention, the control device 3 can activate an actuator system 4 of the motor vehicle in order to intervene in the longitudinal and lateral guidance of the motor vehicle 1 .

Es ist bekannt, dass automatische Parkmanöver auch in Situationen durchgeführt werden können, bei denen sich ein Nutzer 7 außerhalb des Kraftfahrzeugs 1 befindet, wie dies in 1 dargestellt ist. Vorzugsweise soll dem Nutzer 7 jedoch dennoch eine Möglichkeit gegeben werden, den Fahrbetrieb des Kraftfahrzeugs 1 zu überwachen und insbesondere bereits vor der Durchführung von automatisierten Fahreingriffen Informationen über diese zu erhalten.It is known that automatic parking maneuvers can also be carried out in situations in which a user 7 is outside the motor vehicle 1, as is the case in 1 is shown. Preferably, however, the user 7 should still be given the opportunity to monitor the driving operation of the motor vehicle 1 and, in particular, to obtain information about them even before automated driving interventions are carried out.

Dies wird dadurch realisiert, dass eine im Detail in 2 dargestellte, durch den Nutzer 7 getragene, fahrzeugexterne Erfassungseinrichtung 6 verwendet wird, die über eine Kommunikationseinrichtung 10 der Erfassungseinrichtung und eine Kommunikationseinrichtung 5 des Kraftfahrzeugs 1 mit dem Kraftfahrzeug 1 kommuniziert. Die Erfassungseinrichtung umfasst eine Steuereinrichtung 9, die die Kommunikationseinrichtung 10 sowie einen Bildschirm 11 der Erfassungseinrichtung 6 steuert und die über eine Kamera 8 Bilddaten des Umfelds der Erfassungseinrichtung aufnehmen kann. Als entsprechende Erfassungseinrichtung kann beispielsweise ein Mobiltelefon genutzt werden.This is realized in that a detailed in 2 shown, carried by the user 7, vehicle-external detection device 6 is used, which communicates via a communication device 10 of the detection device and a communication device 5 of the motor vehicle 1 with the motor vehicle 1. The detection device includes a control device 9 which controls the communication device 10 and a screen 11 of the detection device 6 and which can record image data of the area surrounding the detection device via a camera 8 . A cell phone, for example, can be used as a corresponding detection device.

Nachdem durch die Steuereinrichtung 3 des Kraftfahrzeugs 1 ein durchzuführender Fahreingriff ermittelt wurde, kann eine diesen betreffende Fahreingriffsinformation von dem Kraftfahrzeug 1 an die Erfassungseinrichtung 6 übertragen werden. Anschließend kann die Steuereinrichtung 9 den Bildschirm 11 ansteuern, um den durchzuführenden Fahreingriff für den Nutzer 7 zu visualisieren. Dies erfolgt, wie im Folgenden noch detailliert erläutert werden wird, als eine Augmented Reality-Darstellung.After a driving intervention to be carried out has been determined by the control device 3 of the motor vehicle 1 , driving intervention information relating to this can be transmitted from the motor vehicle 1 to the detection device 6 . The control device 9 can then control the screen 11 in order to visualize the driving intervention to be carried out for the user 7 . As will be explained in detail below, this takes place as an augmented reality display.

Die Bilddarstellung auf dem Bildschirm 11 der Erfassungseinrichtung 6 ist in 3 dargestellt. Diese Bildschirmdarstellung umfasst mehrere überlagert darstellte Komponenten. Grundlage der Bildschirmdarstellung ist eine Bilddarstellung 15 des über die Kamera 8 erfassten Erfassungsbereiches 16. Somit sind auf dem Bildschirm 11 die Objekte im durch die Kamera 8 erfassbaren Umfeld des Kraftfahrzeugs 1 zu erkennen, von denen beispielhaft ein geparktes weiteres Kraftfahrzeug 13 und ein Hindernis 14 dargestellt sind. Zudem wird ein Abschnitt des Kraftfahrzeugs 1 abgebildet. Anhand der Abbildung des Kraftfahrzeugs 1 wird durch eine Merkmalserkennung in den Bilddaten eine relative Position des Kraftfahrzeugs 1 zu der Erfassungseinrichtung 6 ermittelt, so dass Informationen über die geplanten Fahreingriffe in einer korrekten Lagebeziehung zum Kraftfahrzeug 1 dargestellt werden können.The image representation on the screen 11 of the detection device 6 is in 3 shown. This screen image includes several overlaid components. The screen display is based on an image display 15 of the detection area 16 detected by the camera 8. The objects in the area surrounding the motor vehicle 1 that can be detected by the camera 8 can therefore be seen on the screen 11, of which a parked additional motor vehicle 13 and an obstacle 14 are shown as an example are. In addition, a section of the motor vehicle 1 is displayed. Based on the image of the motor vehicle 1, a relative position of the motor vehicle 1 to the detection device 6 is determined by feature recognition in the image data, so that information about the planned driving interventions can be displayed in a correct positional relationship to the motor vehicle 1.

Diese Bilddarstellung wird mit mehreren Grafikelementen 17, 18 überlagert, die in Abhängigkeit der von dem Kraftfahrzeug 1 empfangenen Fahreingriffsinformation ermittelt wurden. Die grafischen Elemente 17, 18 stellen hierbei im gezeigten Beispiel die Trajektorie, die durch das Kraftfahrzeug 1 bei Durchführung der geplanten Fahreingriffe befahren wird, in Form von Pfeilen dar. Selbstverständlich wären auch beliebig andere Darstellungen der Fahreingriffe möglich. Der Nutzer 7 erhält somit eine Vorschau auf die Fahreingriffe, wie sie sich von seiner Betrachtungsposition aus darstellen würden. Ist er mit den ermittelten Fahreingriffen einverstanden, kann er die Durchführung dieser Fahreingriffe durch Betätigung des zusätzlich in die Bilddarstellung eingeblendeten Bedienelements 19 an dem als Touchscreen ausgebildeten Bildschirm 11 freigeben.A plurality of graphic elements 17, 18, which were determined as a function of the driving intervention information received from motor vehicle 1, are superimposed on this image representation. In the example shown, the graphic elements 17, 18 represent the trajectory that the motor vehicle 1 travels when carrying out the planned driving interventions, in the form of arrows. Of course, any other representations of the driving interventions would also be possible. The user 7 thus receives a preview of the driving interventions as they would appear from his viewing position. If he agrees to the determined driving interventions, he can authorize the implementation of these driving interventions by actuating the control element 19 that is additionally displayed in the image display on the screen 11 designed as a touchscreen.

In einer Weiterbildung des erläuterten Ausführungsbeispiels wäre es möglich, dass das Hindernis 14 nicht als nicht befahrbarer Bereich erkannt wird. Beispielsweise könnte es sich bei dem Hindernis 14 um ein nicht bepflanztes Beet handeln, das von der Steuereinrichtung 3 des Kraftfahrzeugs 1 zunächst als befahrbar klassifiziert wird. In diesem Fall könnte beispielsweise die durch den gestrichelten Pfeil 20 gezeigte alternative Trajektorie für das Kraftfahrzeug 1 berechnet und für den Nutzer 7 visualisiert werden. Der Nutzer 7 kann nun erkennen, dass diese Trajektorie 20 nicht vorteilhaft wäre, da sie zu einer Beschädigung des Beetes und potentiell auch des Kraftfahrzeugs 1 führen könnte. Der Nutzer 7 kann nun statt der vorangehend erläuterten Freigabe der Fahreingriffe eine Bedieneingabe an der Erfassungseinrichtung 6, insbesondere an dem als Touchscreen ausgebildeten Bildschirm 11, tätigen, um den Fahreingriff anzupassen. Hierbei wäre es prinzipiell möglich, die Trajektorie 20, beispielsweise durch Ziehen ihres Endpunktes, manuell anzupassen. Besonders vorteilhaft ist es jedoch, wenn durch die Bedieneingabe wenigstens ein Sperrbereich 21 definiert wird. Beispielsweise kann der Nutzer ein Rechteck einzeichnen, das das Hindernis 14 umfasst, so dass der Bereich des Hindernisses 14 als nicht befahrbar markiert wird. Eine entsprechende Information kann an das Kraftfahrzeug 1 zurückübertragen werden, wonach durch die Steuereinrichtung 3 eine aktualisierte Trajektorie bzw. neue Fahreingriffe ermittelt werden. Bezüglich dieser neuen Fahreingriffe kann anschließend erneut eine Fahreingriffsinformation an die Erfassungseinrichtung 6 übermittelt werden, um diese für den Nutzer 7 zu visualisieren.In a further development of the exemplary embodiment explained, it would be possible for the obstacle 14 not to be recognized as an area that cannot be driven over. For example, the obstacle 14 could be an unplanted bed that the control device 3 of the motor vehicle 1 initially classifies as passable. In this case, for example, the alternative trajectory shown by the dashed arrow 20 for the motor vehicle 1 could be calculated and visualized for the user 7 . The user 7 can now see that this trajectory 20 would not be advantageous since it could lead to damage to the bed and potentially also to the motor vehicle 1 . The user 7 can now, instead of the previously explained release of the driving interventions, an operator input on the Activate detection device 6, in particular on screen 11 designed as a touchscreen, in order to adjust the driving intervention. It would in principle be possible here to adjust the trajectory 20 manually, for example by dragging its end point. However, it is particularly advantageous if at least one blocking area 21 is defined by the operator input. For example, the user can draw in a rectangle that encompasses the obstacle 14 so that the area of the obstacle 14 is marked as impassable. Corresponding information can be transmitted back to the motor vehicle 1, after which an updated trajectory or new driving interventions are determined by the control device 3. With regard to these new driving interventions, driving intervention information can then be transmitted again to the detection device 6 in order to visualize this for the user 7 .

Die Bilddaten der Erfassungseinrichtung sind auch dazu nutzbar, zusätzliche Informationen über das Umfeld des Kraftfahrzeugs 1 an die Steuereinrichtung 3 bereitzustellen, um eine Planung der Fahreingriffe zu verbessern. Beispielsweise wäre es möglich, dass in dem in 1 gezeigten Ausführungsbeispiel das Hindernis 14 den Bereich der Parkposition 12 bzw. den zum Einparken genutzten Manövrierbereich für die Sensorik 2 des Kraftfahrzeugs 1 teilweise verdeckt. Um dies zumindest teilweise zu kompensieren, kann die Erfassungseinrichtung 6 die über die Kamera 8 erfassten Bilddaten an das Kraftfahrzeug 1 übertragen, so dass diese als zusätzliche Informationsquelle im Rahmen der Ermittlung des durchzuführenden Fahreingriffs berücksichtigt werden können. Die Nutzung einer zusätzlichen fahrzeugexternen Erfassungseinrichtung kann somit auch dazu dienen, eine robustere Planung von Fahreingriffen zu ermöglichen.The image data from the detection device can also be used to provide additional information about the surroundings of motor vehicle 1 to control device 3 in order to improve planning of the driving interventions. For example, it would be possible that in the in 1 The exemplary embodiment shown, the obstacle 14 partially covers the area of the parking position 12 or the maneuvering area used for parking for the sensor system 2 of the motor vehicle 1 . In order to at least partially compensate for this, the acquisition device 6 can transmit the image data acquired via the camera 8 to the motor vehicle 1 so that they can be taken into account as an additional source of information in the context of determining the driving intervention to be carried out. The use of an additional detection device external to the vehicle can thus also serve to enable more robust planning of driving interventions.

Claims (11)

Verfahren zur automatisierten Führung eines Kraftfahrzeugs (1), wobei durch eine kraftfahrzeugseitige Sensorik (2) das Umfeld des Kraftfahrzeugs (1) betreffende Umfeldinformationen erfasst werden und in Abhängigkeit der Umfeldinformationen wenigstens ein im Rahmen der automatisierten Führung durchzuführender Fahreingriff ermittelt wird, wobei durch eine durch einen Nutzer (7) tragbare, fahrzeugexterne Erfassungseinrichtung (6) das Umfeld des Kraftfahrzeugs (1) betreffende Bilddaten erfasst werden, wobei zum einen die Bilddaten von der Erfassungseinrichtung (6) an das Kraftfahrzeug (1) übertragen werden, wonach der Fahreingriff in Abhängigkeit der Bilddaten ermittelt wird, und/oder wobei zum anderen eine den durchzuführenden Fahreingriff betreffende Fahreingriffsinformation von dem Kraftfahrzeug (1) an die Erfassungseinrichtung (6) übertragen wird, wonach durch die Erfassungseinrichtung (6) eine Überlagerung einer in Abhängigkeit der Bilddaten erzeugten Bilddarstellung (15) mit wenigstens einem in Abhängigkeit der Fahreingriffsinformation generierten Grafikelement (17, 18) für den Nutzer (7) ausgegeben wird, wobei in beiden Fällen eine relative Position und/oder Orientierung des Kraftfahrzeugs (1) zu der Erfassungseinrichtung (2) oder umgekehrt ermittelt wird, wobei in Abhängigkeit der relativen Position und/oder Orientierung der Fahreingriff ermittelt und/oder das Grafikelement (17, 18) generiert und/oder die Überlagerung des Grafikelements (17, 18) zu der Bilddarstellung (15) parametrisiert wird, wobei die Bilddaten derart aufgenommen werden, dass zumindest ein Abschnitt des Kraftfahrzeugs (1) abgebildet wird, wobei die relative Position und/oder Orientierung durch Auswertung der Bilddaten ermittelt wird.Method for the automated guidance of a motor vehicle (1), wherein environmental information relating to the area surrounding the motor vehicle (1) is recorded by a sensor system (2) on the motor vehicle and at least one driving intervention to be carried out as part of the automated guidance is determined as a function of the environmental information, wherein a Image data relating to the surroundings of the motor vehicle (1) are captured by a user (7) portable, vehicle-external capture device (6), with the image data being transmitted from the capture device (6) to the motor vehicle (1), after which the driving intervention is carried out as a function of the image data is determined and/or wherein, on the other hand, driving intervention information relating to the driving intervention to be carried out is transmitted from the motor vehicle (1) to the detection device (6), after which the detection device (6) superimposes an image display (15) generated as a function of the image data with least ns a graphic element (17, 18) generated as a function of the driving intervention information for the user (7), wherein in both cases a relative position and/or orientation of the motor vehicle (1) to the detection device (2) or vice versa is determined, wherein the driving intervention is determined as a function of the relative position and/or orientation and/or the graphic element (17, 18) is generated and/or the superimposition of the graphic element (17, 18) on the image display (15) is parameterized, with the image data being recorded in this way that at least a portion of the motor vehicle (1) is imaged, wherein the relative position and / or orientation is determined by evaluating the image data. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass durch die Erfassungseinrichtung (6) wenigstens eine das Kraftfahrzeug (1) betreffende Kraftfahrzeuginformation gespeichert oder empfangen wird, wobei das Kraftfahrzeug (1) oder der Abschnitt des Kraftfahrzeugs (1) anhand der Kraftfahrzeuginformation in den Bilddaten erkannt wird.procedure after claim 1 , characterized in that at least one piece of motor vehicle information relating to the motor vehicle (1) is stored or received by the detection device (6), the motor vehicle (1) or the section of the motor vehicle (1) being recognized on the basis of the motor vehicle information in the image data. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass kraftfahrzeugseitig wenigstens eine die Erfassungseinrichtung (6) betreffende Erfassungseinrichtungsinformation gespeichert oder empfangen wird, wonach die Übertragung der Fahreingriffsinformation und/oder die Ermittlung des Fahreingriffs in Abhängigkeit der Erfassungseinrichtungsinformation erfolgt.Method according to one of the preceding claims, characterized in that at least one piece of detection device information relating to the detection device (6) is stored or received on the motor vehicle side, after which the driving intervention information is transmitted and/or the driving intervention is determined as a function of the detection device information. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die Bilddarstellung (15) das Umfeld des Kraftfahrzeugs (1) aus jener Perspektive zeigt, aus der die Bilddaten aufgenommen werden.Method according to one of the preceding claims, characterized in that the image representation (15) shows the surroundings of the motor vehicle (1) from the perspective from which the image data are recorded. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass das Grafikelement (17, 18) derart generiert und mit der Bilddarstellung (15) überlagert wird, dass es zumindest einen Abschnitt einer Trajektorie visualisiert, entlang der das Kraftfahrzeug (1) durch den Fahreingriff geführt werden soll.Method according to one of the preceding claims, characterized in that the graphic element (17, 18) is generated and overlaid with the image representation (15) in such a way that it visualizes at least a section of a trajectory along which the motor vehicle (1) is guided by the driving intervention shall be. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass wenigstens eine Bedieneingabe des Nutzers (7) an der Erfassungseinrichtung (6) erfasst wird, wonach der Fahreingriff in Abhängigkeit der Bedieneingabe ermittelt oder angepasst wird.Method according to one of the preceding claims, characterized in that at least one operator input from the user (7) is recorded on the acquisition device (6), after which the driving intervention is determined or adapted as a function of the operator input. Verfahren nach Anspruch 6, dadurch gekennzeichnet, dass durch die Bedieneingabe wenigstens ein Sperrbereich (21) definiert wird, wonach der Fahreingriff derart ermittelt wird, dass das Kraftfahrzeug (1) ausschließlich außerhalb des Sperrbereichs (21) geführt wird.procedure after claim 6 , characterized in that by the operator input at least one blocked area (21) is defined, after which the driving intervention is determined in such a way that the motor vehicle (1) is guided exclusively outside the blocked area (21). Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass der Fahreingriff als Teil eines automatisiert durchgeführten Einparkvorgangs oder Ausparkvorgangs geplant wird.Method according to one of the preceding claims, characterized in that the driving intervention is planned as part of an automated parking process or parking space exit process. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die Erfassungseinrichtung (6) ein Mobiltelefon ist oder umfasst oder dass die Erfassungseinrichtung (6) eine an dem Kopf des Nutzers getragene Ausgabeeinrichtung zur Ausgabe der Überlagerung umfasst.Method according to one of the preceding claims, characterized in that the detection device (6) is or comprises a mobile telephone or that the detection device (6) comprises an output device worn on the user's head for outputting the overlay. Kraftfahrzeug mit einer kraftfahrzeugseitigen Sensorik zur Erfassung von das Umfeld des Kraftfahrzeugs (1) betreffenden Umfeldinformationen und einer Steuereinrichtung (3), durch die in Abhängigkeit der Umfeldinformationen wenigstens ein im Rahmen einer automatisierten Führung des Kraftfahrzeugs (1) durchzuführender Fahreingriff ermittelbar ist, dadurch gekennzeichnet, dass es eine durch die Steuereinrichtung (3) steuerbare Kommunikationseinrichtung (5) zur Kommunikation mit einer fahrzeugexternen Erfassungseinrichtung (6) umfasst, wobei die Steuereinrichtung (3) zur Durchführung des Verfahrens nach einem der vorangehenden Ansprüche eingerichtet ist.Motor vehicle with an on-board sensor system for detecting environmental information relating to the area surrounding the motor vehicle (1) and a control device (3) by means of which at least one driving intervention to be carried out as part of automated guidance of the motor vehicle (1) can be determined, characterized in that that it comprises a communication device (5) controllable by the control device (3) for communication with a vehicle-external detection device (6), wherein the control device (3) is set up to carry out the method according to one of the preceding claims. Erfassungseinrichtung mit einer Kommunikationseinrichtung (10), wenigstens einer Kamera (8) zur Erfassung von Bilddaten und einer Steuereinrichtung (9) zur Steuerung der Kommunikationseinrichtung (10) und der Kamera (8), dadurch gekennzeichnet, dass die Steuereinrichtung (9) zur Durchführung eines Verfahrens nach einem der Ansprüche 1 bis 9 eingerichtet ist.Recording device with a communication device (10), at least one camera (8) for recording image data and a control device (9) for controlling the communication device (10) and the camera (8), characterized in that the control device (9) for carrying out a Procedure according to one of Claims 1 until 9 is set up.
DE102017207810.3A 2017-05-09 2017-05-09 Method for automated driving of a motor vehicle Active DE102017207810B4 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102017207810.3A DE102017207810B4 (en) 2017-05-09 2017-05-09 Method for automated driving of a motor vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102017207810.3A DE102017207810B4 (en) 2017-05-09 2017-05-09 Method for automated driving of a motor vehicle

Publications (2)

Publication Number Publication Date
DE102017207810A1 DE102017207810A1 (en) 2018-11-15
DE102017207810B4 true DE102017207810B4 (en) 2022-12-22

Family

ID=63962629

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102017207810.3A Active DE102017207810B4 (en) 2017-05-09 2017-05-09 Method for automated driving of a motor vehicle

Country Status (1)

Country Link
DE (1) DE102017207810B4 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019215524A1 (en) * 2019-10-10 2021-04-15 Ford Global Technologies, Llc Method and arrangement for visualizing a route, computer program product and computer-readable storage medium
DE102019128926A1 (en) * 2019-10-25 2021-04-29 Valeo Schalter Und Sensoren Gmbh Process for automated vehicle guidance

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102011112577A1 (en) 2011-09-08 2013-03-14 Continental Teves Ag & Co. Ohg Method and device for an assistance system in a vehicle for carrying out an autonomous or semi-autonomous driving maneuver
DE102014200611A1 (en) 2014-01-15 2015-07-16 Robert Bosch Gmbh Method for the autonomous parking of a vehicle, driver assistance device for carrying out the method, and vehicle with the driver assistance device
US20150336502A1 (en) 2014-05-22 2015-11-26 Applied Minds, Llc Communication between autonomous vehicle and external observers
DE102014218921A1 (en) 2014-09-19 2016-03-24 Robert Bosch Gmbh Method and device for monitoring automatic parking of a vehicle
DE102014222190A1 (en) 2014-10-30 2016-05-04 Volkswagen Aktiengesellschaft Device and method for connecting a mobile camera device
DE102016208214A1 (en) 2015-05-22 2016-11-24 Ford Global Technologies, Llc Method and device for supporting a maneuvering process of a vehicle
DE102016211182A1 (en) 2015-09-08 2017-03-09 Volkswagen Aktiengesellschaft A method, apparatus and system for performing automated driving of a vehicle along a trajectory provided from a map

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102011112577A1 (en) 2011-09-08 2013-03-14 Continental Teves Ag & Co. Ohg Method and device for an assistance system in a vehicle for carrying out an autonomous or semi-autonomous driving maneuver
DE102014200611A1 (en) 2014-01-15 2015-07-16 Robert Bosch Gmbh Method for the autonomous parking of a vehicle, driver assistance device for carrying out the method, and vehicle with the driver assistance device
US20150336502A1 (en) 2014-05-22 2015-11-26 Applied Minds, Llc Communication between autonomous vehicle and external observers
DE102014218921A1 (en) 2014-09-19 2016-03-24 Robert Bosch Gmbh Method and device for monitoring automatic parking of a vehicle
DE102014222190A1 (en) 2014-10-30 2016-05-04 Volkswagen Aktiengesellschaft Device and method for connecting a mobile camera device
DE102016208214A1 (en) 2015-05-22 2016-11-24 Ford Global Technologies, Llc Method and device for supporting a maneuvering process of a vehicle
DE102016211182A1 (en) 2015-09-08 2017-03-09 Volkswagen Aktiengesellschaft A method, apparatus and system for performing automated driving of a vehicle along a trajectory provided from a map

Also Published As

Publication number Publication date
DE102017207810A1 (en) 2018-11-15

Similar Documents

Publication Publication Date Title
EP1862376B1 (en) Method for controlling the parking process
DE102016211182A1 (en) A method, apparatus and system for performing automated driving of a vehicle along a trajectory provided from a map
WO2015049029A1 (en) Method and device for augmented display
WO2015000882A1 (en) Assistance system and assistance method for support when controlling a motor vehicle
DE102013021834A1 (en) Device and method for navigating within a menu for vehicle control and selecting a menu item from the menu
EP3774499B1 (en) Method for monitoring and controlling a remotely-controlled parking or maneuvering operation of a vehicle
WO2010025792A1 (en) Method and device for monitoring an environment of a vehicle
DE102017122261A1 (en) Method for monitoring a surrounding area of a motor vehicle and camera system
DE102015003847A1 (en) Method and driver assistance system for detecting and signaling light signals from at least one light signal device of a alternating light signaling system
DE102016122759A1 (en) Method for operating a driver assistance system for the at least semi-autonomous maneuvering of a motor vehicle taking into account a geographical area, driver assistance system and motor vehicle
DE102010026222A1 (en) Method for assisting driver during driving and/or maneuvering of car, involves optically outputting orientation aids and optically outputting detected areas on display units from perspective view, where images are superimposed with aids
EP3955046A1 (en) Method for operating a display device in a motor vehicle
EP3562730B1 (en) Method for automated parking a vehicle
WO2020048718A1 (en) Concept for monitoring and planning the movement of a means of transportation
DE102014119317A1 (en) Method for displaying an image overlay element in an image with 3D information, driver assistance system and motor vehicle
DE102017207810B4 (en) Method for automated driving of a motor vehicle
DE102017210221B4 (en) Method for longitudinal and lateral guidance of a motor vehicle
DE102017107484A1 (en) A method of providing a display assisting a driver of a motor vehicle, driver assistance system and motor vehicle
EP3700803B1 (en) Method, device, computer program and computer program product for operating a display unit in a vehicle
DE102011102549A1 (en) Method and device for visual recording and visualization of environmental conditions on an obstacle to be approached by a commercial vehicle
DE102017124661A1 (en) A method for assisting a user of a motor vehicle when parking in a parking lot, corresponding computer program product, corresponding driver assistance device and corresponding motor vehicle
DE102021104290B3 (en) Method for at least partially automated parking of a motor vehicle, driver assistance system and motor vehicle
EP3817967B1 (en) Method for providing assistance during a parking maneuver of a vehicle combination of a towing vehicle and a trailer, system, and combination
EP3267700B1 (en) Method for exchanging and displaying of location-based information
EP3301399B1 (en) Method for displaying the current authorised maximum speed and corresponding display device, navigation device and motor vehicle

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final