DE102017207810B4 - Method for automated driving of a motor vehicle - Google Patents
Method for automated driving of a motor vehicle Download PDFInfo
- Publication number
- DE102017207810B4 DE102017207810B4 DE102017207810.3A DE102017207810A DE102017207810B4 DE 102017207810 B4 DE102017207810 B4 DE 102017207810B4 DE 102017207810 A DE102017207810 A DE 102017207810A DE 102017207810 B4 DE102017207810 B4 DE 102017207810B4
- Authority
- DE
- Germany
- Prior art keywords
- motor vehicle
- detection device
- image data
- driving intervention
- determined
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 43
- 238000001514 detection method Methods 0.000 claims abstract description 65
- 230000007613 environmental effect Effects 0.000 claims abstract description 13
- 238000004891 communication Methods 0.000 claims description 14
- 230000003190 augmentative effect Effects 0.000 description 5
- 239000011521 glass Substances 0.000 description 4
- 238000013459 approach Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 240000004050 Pentaglottis sempervirens Species 0.000 description 1
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000010008 shearing Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B62—LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
- B62D—MOTOR VEHICLES; TRAILERS
- B62D15/00—Steering not otherwise provided for
- B62D15/02—Steering position indicators ; Steering position determination; Steering aids
- B62D15/027—Parking aids, e.g. instruction means
- B62D15/0285—Parking performed automatically
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/0011—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement
- G05D1/0044—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement by providing the operator with a computer generated representation of the environment of the vehicle, e.g. virtual reality, maps
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
- B60W2050/146—Display means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo or light sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2556/00—Input parameters relating to data
- B60W2556/45—External transmission of data to or from the vehicle
Abstract
Verfahren zur automatisierten Führung eines Kraftfahrzeugs (1), wobei durch eine kraftfahrzeugseitige Sensorik (2) das Umfeld des Kraftfahrzeugs (1) betreffende Umfeldinformationen erfasst werden und in Abhängigkeit der Umfeldinformationen wenigstens ein im Rahmen der automatisierten Führung durchzuführender Fahreingriff ermittelt wird, wobei durch eine durch einen Nutzer (7) tragbare, fahrzeugexterne Erfassungseinrichtung (6) das Umfeld des Kraftfahrzeugs (1) betreffende Bilddaten erfasst werden, wobei zum einen die Bilddaten von der Erfassungseinrichtung (6) an das Kraftfahrzeug (1) übertragen werden, wonach der Fahreingriff in Abhängigkeit der Bilddaten ermittelt wird, und/oder wobei zum anderen eine den durchzuführenden Fahreingriff betreffende Fahreingriffsinformation von dem Kraftfahrzeug (1) an die Erfassungseinrichtung (6) übertragen wird, wonach durch die Erfassungseinrichtung (6) eine Überlagerung einer in Abhängigkeit der Bilddaten erzeugten Bilddarstellung (15) mit wenigstens einem in Abhängigkeit der Fahreingriffsinformation generierten Grafikelement (17, 18) für den Nutzer (7) ausgegeben wird, wobei in beiden Fällen eine relative Position und/oder Orientierung des Kraftfahrzeugs (1) zu der Erfassungseinrichtung (2) oder umgekehrt ermittelt wird, wobei in Abhängigkeit der relativen Position und/oder Orientierung der Fahreingriff ermittelt und/oder das Grafikelement (17, 18) generiert und/oder die Überlagerung des Grafikelements (17, 18) zu der Bilddarstellung (15) parametrisiert wird, wobei die Bilddaten derart aufgenommen werden, dass zumindest ein Abschnitt des Kraftfahrzeugs (1) abgebildet wird, wobei die relative Position und/oder Orientierung durch Auswertung der Bilddaten ermittelt wird.Method for the automated guidance of a motor vehicle (1), wherein environmental information relating to the area surrounding the motor vehicle (1) is recorded by a sensor system (2) on the motor vehicle and at least one driving intervention to be carried out as part of the automated guidance is determined as a function of the environmental information, wherein a Image data relating to the surroundings of the motor vehicle (1) are captured by a user (7) portable, vehicle-external capture device (6), the image data being transmitted from the capture device (6) to the motor vehicle (1), after which the driving intervention is carried out as a function of the image data is determined, and/or wherein, on the other hand, driving intervention information relating to the driving intervention to be carried out is transmitted from the motor vehicle (1) to the detection device (6), after which the detection device (6) superimposes an image representation (15) generated as a function of the image data with least ns a graphic element (17, 18) generated depending on the driving intervention information for the user (7), wherein in both cases a relative position and / or orientation of the motor vehicle (1) to the detection device (2) or vice versa is determined, wherein the driving intervention is determined as a function of the relative position and/or orientation and/or the graphic element (17, 18) is generated and/or the superimposition of the graphic element (17, 18) on the image representation (15) is parameterized, with the image data being recorded in this way that at least a portion of the motor vehicle (1) is imaged, wherein the relative position and / or orientation is determined by evaluating the image data.
Description
Die Erfindung betrifft ein Verfahren zur automatisierten Führung eines Kraftfahrzeugs, wobei durch eine kraftfahrzeugseitige Sensorik das Umfeld des Kraftfahrzeugs betreffende Umfeldinformationen erfasst werden und in Abhängigkeit der Umfeldinformationen wenigstens ein im Rahmen der automatisierten Führung durchzuführender Fahreingriff ermittelt wird.The invention relates to a method for the automated guidance of a motor vehicle, wherein environmental information relating to the area surrounding the motor vehicle is detected by a vehicle-side sensor system and at least one driving intervention to be carried out as part of the automated guidance is determined as a function of the environmental information.
Eine automatisierte Führung von Kraftfahrzeugen, bei der ein fahrzeugseitiges oder ein externes System dem Fahrer die Quer- und/oder Längsführung des Kraftfahrzeugs für gewisse Zeiträume oder für gewisse Fahraufgaben abnimmt, gewinnt als Komfortfunktion zunehmen an Relevanz. Verschiedene automatisierungsgrade werden beispielsweise in dem Artikel „Rechtsfolgen zunehmender Fahrzeugautomatisierung“ in der Veröffentlichung Forschung Kompakt 11/12 der Bundesanstalt für Straßenwesen diskutiert. Bei einer solchen Führung ist es wesentlich, ein möglichst komplettes Umfeldmodell des Kraftfahrzeugumfelds in der Steuereinrichtung, die den Fahrbetrieb steuert, vorzuhalten, um eine robuste automatisierte Führung zu ermöglichen. Zugleich soll in vielen Anwendungsfällen, beispielsweise wenn ein Fahrzeug automatisch bei nicht im Fahrzeug befindlichem Fahrer einparkt, eine Möglichkeit geschaffen werden, einen Nutzer über die Intentionen des Kraftfahrzeugs zu informieren bzw. ihm eine Möglichkeit zu geben, in den Fahrbetrieb einzugreifen.Automated guidance of motor vehicles, in which a vehicle-side or an external system relieves the driver of the lateral and/or longitudinal guidance of the motor vehicle for certain periods of time or for certain driving tasks, is becoming increasingly relevant as a comfort function. Different degrees of automation are discussed, for example, in the article "Legal consequences of increasing vehicle automation" in the publication Research Compact 11/12 of the Federal Highway Research Institute. In the case of such guidance, it is essential to have as complete an environment model as possible of the vehicle environment in the control device that controls the driving operation, in order to enable robust automated guidance. At the same time, in many applications, for example when a vehicle automatically parks when the driver is not in the vehicle, a possibility should be created to inform a user about the intentions of the motor vehicle or to give him the opportunity to intervene in the driving operation.
Ein möglicher Ansatz, einen Nutzer und andere Verkehrsteilnehmer auf Fahrintentionen bei einem automatisierten Fahrbetrieb hinzuweisen, ist es, entsprechende Informationen auf eine Fahrbahnoberfläche zu projizieren. Dieser Ansatz wird in den Druckschriften
Aus der Druckschrift
Ein Verfahren zum Durchführen einer automatisierten Fahrt eines Fahrzeugs entlang einer aus einer Karte bereitgestellten Trajektorie ist aus der Druckschrift
Die Druckschrift
Ein Verfahren zur Anbindung einer mobilen Kameraeinrichtung an eine fahrzeugfeste Anzeigevorrichtung ist aus der Druckschrift
Die Druckschrift
Der Erfindung liegt somit die Aufgabe zugrunde, eine automatisierte Führung eines Kraftfahrzeugs mit geringem technischen Aufwand bezüglich einer Einbindung eines Nutzers und/oder bezüglich der Ermittlung von Umfeldinformationen, die im Rahmen der automatisierten Führung nutzbar sind, zu verbessern.The invention is therefore based on the object of improving automated guidance of a motor vehicle with little technical effort with regard to involving a user and/or with regard to determining environmental information that can be used within the framework of automated guidance.
Die Aufgabe wird erfindungsgemäß durch ein Verfahren der eingangs genannten Art gelöst, wobei durch eine durch einen Nutzer tragbare, fahrzeugexterne Erfassungseinrichtung das Umfeld des Kraftfahrzeugs betreffende Bilddaten erfasst werden, wobei zum einen die Bilddaten von der Erfassungseinrichtung an das Kraftfahrzeug übertragen werden, wonach der Fahreingriff in Abhängigkeit der Bilddaten ermittelt wird, und/oder wobei zum anderen eine den durchzuführenden Fahreingriff betreffende Fahreingriffsinformation von dem Kraftfahrzeug an die Erfassungseinrichtung übertragen wird, wonach durch die Erfassungseinrichtung eine Überlagerung einer in Abhängigkeit der Bilddaten erzeugten Bilddarstellung mit wenigstens einem in Abhängigkeit der Fahreingriffsinformation generierten Grafikelement für den Nutzer ausgegeben wird, wobei in beiden Fällen eine relative Position und/oder Orientierung des Kraftfahrzeugs zu der Erfassungseinrichtung oder umgekehrt ermittelt wird, wobei in Abhängigkeit der relativen Position und/oder Orientierung der Fahreingriff ermittelt und/oder das Grafikelement generiert und/oder die Überlagerung des Grafikelements zu der Bilddarstellung parametrisiert wird, wobei die Bilddaten derart aufgenommen werden, dass zumindest ein Abschnitt des Kraftfahrzeugs abgebildet wird, wobei die relative Position und/oder Orientierung durch Auswertung der Bilddaten ermittelt wird.The object is achieved according to the invention by a method of the type mentioned at the outset, in which image data relating to the surroundings of the motor vehicle are acquired by a user-portable, vehicle-external acquisition device, with the image data being transmitted from the acquisition device to the motor vehicle, after which the driving intervention in is determined as a function of the image data, and/or wherein, on the other hand, driving intervention information relating to the driving intervention to be carried out is transmitted from the motor vehicle to the detection device, after which the detection device superimposes an image representation generated as a function of the image data with at least one graphic element generated as a function of the driving intervention information for is issued to the user, in both cases a relative position and/or orientation of the motor vehicle to the detection device or vice versa is determined, depending on the rel ative position and / or orientation of the driving intervention is determined and / or the graphic element is generated and / or the overlay of the graphic element is parameterized to the image display, the image data are recorded in such a way that at least one section of the motor vehicle is imaged, the relative position and/or orientation being determined by evaluating the image data.
Erfindungsgemäß wird vorgeschlagen, eine durch einen Nutzer tragbare, fahrzeugexterne Erfassungseinrichtung zu nutzen, um zusätzliche Sensordaten an das Kraftfahrzeug bereitzustellen, die im Rahmen der automatisierten Führung genutzt werden, und/oder um einen Nutzer über geplante Fahreingriffe zu informieren. Hierbei wird die Tatsache ausgenutzt, dass in dem erfindungsgemäßen Verfahren nutzbare Erfassungseinrichtungen mittlerweile ohnehin häufig von Nutzern mitgeführt werden. Beispielsweise kann ein Mobiltelefon mit einer integrierten Kamera als Erfassungseinrichtung verwendet werden. Voraussichtlich wird zudem die Nutzung von sogenannten Augmented Reality-Geräten, insbesondere entsprechenden Brillen, zunehmen, die ebenfalls als Erfassungseinrichtungen in dem erfindungsgemäßen Verfahren nutzbar sind. According to the invention, it is proposed to use a vehicle-external detection device that can be worn by a user in order to provide additional sensor data to the motor vehicle that are used as part of the automated guidance and/or to inform a user about planned driving interventions. This exploits the fact that the detection devices that can be used in the method according to the invention are now often carried along by users anyway. For example, a mobile phone with an integrated camera can be used as a detection device. The use of so-called augmented reality devices, in particular corresponding glasses, which can also be used as detection devices in the method according to the invention, is also expected to increase.
Somit ist das beschriebene Vorgehen mit sehr geringem technischen Zusatzaufwand realisierbar, da ausschließlich eine Kommunikation zwischen der Erfassungseinrichtung und einer kraftfahrzeugseitigen Kommunikationseinrichtung ermöglicht werden muss. Da jedoch in Kraftfahrzeugen, Mobiltelefonen und Augmented Reality-Geräten typischerweise bereits Vorrichtungen zur Drahtloskommunikation vorgesehen sind, kann das erfindungsgemäße Verfahren häufig bereits durch reine Softwareanpassungen umgesetzt werden. Beispielsweise kann eine entsprechende Anwendung bzw. App auf einem Mobiltelefon installiert werden und die fahrzeugseitigen Softwarekomponenten können als freies oder kostenpflichtiges Update angeboten werden.The procedure described can thus be implemented with very little additional technical effort, since only communication between the detection device and a communication device on the motor vehicle must be enabled. However, since devices for wireless communication are typically already provided in motor vehicles, cell phones and augmented reality devices, the method according to the invention can often already be implemented by pure software adaptations. For example, a corresponding application or app can be installed on a mobile phone and the vehicle-side software components can be offered as a free or chargeable update.
Die Überlagerung der Bilddarstellung mit dem generierten Grafikelement kann insbesondere auf einem Bildschirm dargestellt werden, wobei es sich hierbei beispielsweise um den Bildschirm eines Mobiltelefons oder einer Datenbrille handeln kann. Prinzipiell wäre es jedoch auch möglich, diese Überlagerung direkt in das Auge eines Nutzers oder auf eine Projektionsfläche in der Umgebung des Nutzers zu projizieren.The superimposition of the image representation with the generated graphic element can in particular be displayed on a screen, which can be, for example, the screen of a mobile phone or data glasses. In principle, however, it would also be possible to project this overlay directly into the user's eye or onto a projection surface in the vicinity of the user.
Der Fahreingriff kann im erfindungsgemäßen Verfahren vorzugsweise durch eine fahrzeugseitige Steuereinrichtung geplant und durch eine Steuerung einer entsprechenden Aktorik im Kraftfahrzeug durchgeführt werden. Prinzipiell wäre es auch möglich, den Fahreingriff durch eine fahrzeugexterne Steuereinrichtung zu planen. Unter der fahrzeugexternen Erfassungseinrichtung ist eine Erfassungseinrichtung zu verstehen, die separat von dem Kraftfahrzeug ausgebildet ist und sich außerhalb von dem Kraftfahrzeug befindet. Sie kann im Rahmen der Durchführung des Verfahren insbesondere von dem Kraftfahrzeug beabstandet angeordnet sein und beispielsweise von einem Nutzer getragen werden. Beispielsweise kann sie in der Hand des Nutzers gehalten werden oder an seinem Körper befestigt sein.In the method according to the invention, the driving intervention can preferably be planned by a vehicle-side control device and carried out by controlling a corresponding actuator system in the motor vehicle. In principle, it would also be possible to plan the driving intervention using a vehicle-external control device. The vehicle-external detection device is to be understood as meaning a detection device that is configured separately from the motor vehicle and is located outside of the motor vehicle. When carrying out the method, it can be arranged at a distance from the motor vehicle and can be carried by a user, for example. For example, it can be held in the user's hand or attached to his body.
In dem erfindungsgemäßen Verfahren wird eine relative Position und/oder Orientierung des Kraftfahrzeugs zu der Erfassungseinrichtung oder umgekehrt ermittelt, wobei in Abhängigkeit der relativen Position und/oder Orientierung der Fahreingriff ermittelt und/oder das Grafikelement generiert und/oder die Überlagerung des Grafikelements zu der Bilddarstellung parametrisiert wird. Nach Ermittlung der relativen Position und/oder Orientierung kann ein gemeinsames Koordinatensystem für den geplanten Fahreingriff und/oder die durch die Sensorik des Kraftfahrzeugs erfassten Umfeldinformationen und die Bilddaten bestimmt werden, wodurch die Bilddaten zur Planung des Fahreingriffs bzw. zur Anpassung der überlagerten Darstellung genutzt werden können. Beispielsweise kann das Grafikelement eine Trajektorie oder ein Trajektorienabschnitt, die oder der aufgrund des Fahreingriffs durchfahren werden soll, hierdurch mit einer korrekten Position, Orientierung und/oder Skalierung bezüglich des Kraftfahrzeugs darstellen. Allgemein ausgedrückt kann das Grafikelement in Abhängigkeit der ermittelten relativen Position und/oder Orientierung bezüglich der Bilddarstellung positioniert, skaliert, rotiert und/oder verzerrt werden. Eine Verzerrung kann beispielsweise durch Stauchen, Strecken und/oder Scheren des Grafikelements erfolgen.In the method according to the invention, a position and/or orientation of the motor vehicle relative to the detection device or vice versa is determined, with the driving intervention being determined and/or the graphic element generated and/or the overlay of the graphic element on the image representation depending on the relative position and/or orientation is parameterized. After the relative position and/or orientation has been determined, a common coordinate system for the planned driving intervention and/or the environmental information recorded by the sensor system of the motor vehicle and the image data can be determined, whereby the image data can be used to plan the driving intervention or to adapt the superimposed representation can. For example, the graphic element can thereby represent a trajectory or a trajectory section that is to be traversed due to the driving intervention with a correct position, orientation and/or scaling with respect to the motor vehicle. Expressed in general terms, the graphic element can be positioned, scaled, rotated and/or distorted as a function of the determined relative position and/or orientation with respect to the image representation. A distortion can occur, for example, by compressing, stretching and/or shearing the graphic element.
Die relative Position und/oder Orientierung des Kraftfahrzeugs zu der Erfassungseinrichtung oder umgekehrt kann ermittelt werden, indem absolute Positionen und/oder Orientierungen des Kraftfahrzeugs und der Erfassungseinrichtung ermittelt werden. Hierzu können beispielsweise satellitenbasierte Positionsbestimmungssysteme, Beschleunigungs- und/oder Magnetfeldsensoren oder Ähnliches genutzt werden. Aus den jeweiligen absoluten Positionen bzw. Orientierungen kann eine relative Position bzw. Orientierung berechnet werden.The position and/or orientation of the motor vehicle relative to the detection device or vice versa can be determined by determining absolute positions and/or orientations of the motor vehicle and the detection device. For this purpose, for example, satellite-based position determination systems, acceleration and/or magnetic field sensors or the like can be used. A relative position or orientation can be calculated from the respective absolute positions or orientations.
Erfindungsgemäß werden die Bilddaten derart aufgenommen, dass zumindest ein Abschnitt des Kraftfahrzeugs abgebildet wird, wobei die relative Position und/oder Orientierung durch Auswertung der Bilddaten ermittelt wird. Hierzu kann ein Bilderkennungsalgorithmus genutzt werden, der vorzugsweise erfassungseinrichtungsseitig oder durch eine Steuereinrichtung des Kraftfahrzeugs durchgeführt werden kann. Im Stand der Technik sind eine Vielzahl von Verfahren bekannt, um bestimmte Objekte in Bilddaten zu erkennen und ihre relative Position und/oder Orientierung bezüglich der erfassenden Kamera zu ermitteln. Beispielsweise kann das Kraftfahrzeug bzw. der abgebildete Abschnitt des Kraftfahrzeugs anhand von skaleninvarianten Merkmalen erkannt werden. Da einzelne Bildpunkte der Bilddaten bei üblichen Kamerasensoren bestimmten Raumwinkeln zugeordnet sind, kann direkt aus der Position des Kraftfahrzeugs bzw. der entsprechenden Merkmale im Bild ermittelt werden, in welchem Raumwinkel sich das Kraftfahrzeug bezüglich der Erfassungseinrichtung befindet. Die Größe der Abbildung des Kraftfahrzeugs und somit beispielsweise auch der Abstand zwischen verschiedenen Merkmalen variiert mit dem Abstand des Kraftfahrzeugs von der Kamera, wodurch auch dieser aus den Bilddaten ermittelt werden kann.According to the invention, the image data is recorded in such a way that at least one section of the motor vehicle is imaged, with the relative position and/or orientation being determined by evaluating the image data. An image recognition algorithm can be used for this purpose, which can preferably be carried out on the acquisition device side or by a control device of the motor vehicle. A large number of methods are known in the prior art for recognizing specific objects in image data and for determining their relative position and/or orientation with respect to the capturing camera. For example, the motor vehicle or the illustrated section of the force vehicle can be recognized based on scale-invariant characteristics. Since individual pixels of the image data are associated with specific spatial angles in conventional camera sensors, the spatial angle in which the motor vehicle is located with respect to the detection device can be determined directly from the position of the motor vehicle or the corresponding features in the image. The size of the image of the motor vehicle and thus also the distance between different features, for example, varies with the distance of the motor vehicle from the camera, as a result of which this can also be determined from the image data.
Um eine Erkennung des Kraftfahrzeugs in den Bilddaten bzw. eine Ermittlung der relativen Position und/oder Orientierung aufgrund dieser Information weiter zu verbessern, ist es vorteilhaft, wenn bekannte Merkmale des Kraftfahrzeugs im Rahmen der Bilddatenverarbeitung genutzt werden können. Es ist daher möglich, dass durch die Erfassungseinrichtung wenigstens eine das Kraftfahrzeug betreffende Kraftfahrzeuginformation gespeichert oder empfangen wird, wobei das Kraftfahrzeug oder der Abschnitt des Kraftfahrzeugs anhand der Kraftfahrzeuginformation in den Bilddaten erkannt wird. Die Kraftfahrzeuginformation kann beispielsweise bestimmte Muster bzw. skaleninvariante Merkmale des Kraftfahrzeugs beschreiben. Entsprechende Informationen können beispielsweise bei einem Pairing der Erfassungseinrichtung mit dem Kraftfahrzeug von dem Kraftfahrzeug an die Erfassungseinrichtung bereitgestellt werden. Ein solches Pairing erfolgt beispielsweise für Mobiltelefone, die als Erfassungseinrichtung dienen können, häufig ohnehin, um beispielsweise eine Freisprecheinrichtung des Kraftfahrzeugs nutzen zu können. Alternativ wäre es beispielsweise möglich, dass im Rahmen einer vorangehenden Kalibrierung ein Nutzer angewiesen wird, das Kraftfahrzeug aus bestimmten Perspektiven aufzunehmen, wonach diese Daten im Anschluss als Kraftfahrzeuginformation genutzt werden können.In order to further improve recognition of the motor vehicle in the image data or determination of the relative position and/or orientation based on this information, it is advantageous if known features of the motor vehicle can be used in the context of image data processing. It is therefore possible for at least one item of motor vehicle information relating to the motor vehicle to be stored or received by the detection device, with the motor vehicle or the section of the motor vehicle being recognized on the basis of the motor vehicle information in the image data. The motor vehicle information can, for example, describe specific patterns or scale-invariant characteristics of the motor vehicle. Corresponding information can be provided by the motor vehicle to the detection device, for example when the detection device is paired with the motor vehicle. Such a pairing often takes place anyway for mobile phones, for example, which can serve as a detection device, in order to be able to use a hands-free device in the motor vehicle, for example. Alternatively, it would be possible, for example, for a user to be instructed as part of a preceding calibration to record the motor vehicle from specific perspectives, after which this data can then be used as motor vehicle information.
Kraftfahrzeugseitig kann wenigstens eine die Erfassungseinrichtung betreffende Erfassungseinrichtungsinformation gespeichert oder empfangen werden, wonach die Übertragung der Fahreingriffsinformation und/oder die Ermittlung des Fahreingriffs in Abhängigkeit der Erfassungseinrichtungsinformation erfolgt. Beispielsweise können kraftfahrzeugseitig verschiedene Protokolle oder Informationsdarstellungen unterstützt werden, um die Fahreingriffsinformation an die Erfassungseinrichtung bereitzustellen. In Abhängigkeit eines Typs der Erfassungseinrichtung als Erfassungseinrichtungsinformation kann somit ein entsprechendes Protokoll bzw. eine entsprechende Informationsdarstellung gewählt werden. Das erläuterte Vorgehen ist jedoch besonders vorteilhaft, um Aufnahmeparameter der Erfassungseinrichtung bzw. einer Kamera der Erfassungseinrichtung an das Kraftfahrzeug bereitzustellen, um die dortige Verarbeitung der Bilddaten zu begünstigen. Beispielsweise können eine Brennweite und/oder eine Breite und/oder Höhe des Bildsensors als Erfassungseinrichtungsinformationen vorliegen oder empfangen werden. Es ist auch möglich, Informationen über die Verzerrung der Bilddaten, beispielsweise aufgrund von Linsenverzerrungen, als Erfassungseinrichtungsinformation zu nutzen, wodurch die Fusionen der Bilddaten mit den Daten der fahrzeugseitigen Sensorik weiter verbessert werden kann.At least one piece of detection device information relating to the detection device can be stored or received in the motor vehicle, after which the driving intervention information is transmitted and/or the driving intervention is determined as a function of the detection device information. For example, different protocols or information representations can be supported on the motor vehicle side in order to provide the driving intervention information to the detection device. Depending on a type of acquisition device as acquisition device information, a corresponding protocol or a corresponding information display can thus be selected. However, the procedure explained is particularly advantageous in order to provide recording parameters of the detection device or a camera of the detection device to the motor vehicle in order to promote the processing of the image data there. For example, a focal length and/or a width and/or height of the image sensor can be present or received as detector information. It is also possible to use information about the distortion of the image data, for example due to lens distortions, as acquisition device information, as a result of which the fusion of the image data with the data from the vehicle-side sensor system can be further improved.
Die Bilddarstellung kann das Umfeld des Kraftfahrzeugs aus jener Perspektive zeigen, aus der die Bilddaten aufgenommen werden. Insbesondere wird auch das Kraftfahrzeug aus dieser Perspektive abgebildet. Insbesondere kann keine Umrechnung der Perspektive, beispielsweise zur Darstellung aus einer Vogelperspektive, erfolgen, sondern es kann eine im Wesentlichen unveränderte bzw. natürliche Bilddarstellung erfolgen. Wird beispielsweise ein Bildschirm genutzt, der auf einer der Kamera gegenüberliegenden Gehäuseseite angeordnet ist, wie dies bei vielen Kameras oder Mobiltelefonen der Fall ist, erscheint die Erfassungseinrichtung somit quasi durchsichtig, wodurch durch Überlagerung des Grafikelements eine Augmented Reality-Darstellung realisiert werden kann. Eine entsprechende Darstellung ist für einen Nutzer besonders intuitiv erfassbar.The image display can show the area surrounding the motor vehicle from the perspective from which the image data is recorded. In particular, the motor vehicle is also depicted from this perspective. In particular, the perspective cannot be converted, for example for display from a bird's-eye view, but an essentially unchanged or natural image display can take place. If, for example, a screen is used that is located on the opposite side of the housing from the camera, as is the case with many cameras or mobile phones, the detection device appears more or less transparent, which means that an augmented reality display can be implemented by overlaying the graphic element. A corresponding representation can be grasped particularly intuitively by a user.
Das Grafikelement kann derart generiert und mit der Bilddarstellung überlagert werden, dass es zumindest einen Abschnitt einer Trajektorie visualisiert, entlang der das Kraftfahrzeug durch den Fahreingriff geführt werden soll. Die Trajektorie kann beispielsweise durch eine Zentrallinie, entlang der sich das Kraftfahrzeug bewegen soll, durch Grenzlinien, die einen durch das Kraftfahrzeug befahrenen Bereich kennzeichnen, durch wenigstens einen Pfeil oder Ähnliches dargestellt werden. Ergänzend oder alternativ können als Grafikelement bestimmte Symbole dargestellt werden, die einzelne Fahreingriffe, beispielsweise ein Bremsen, ein Gas geben oder ein Lenken, visualisieren. Entsprechende Symbole können insbesondere an entsprechenden Positionen einer Trajektorie des Kraftfahrzeugs dargestellt werden.The graphic element can be generated and superimposed with the image representation in such a way that it visualizes at least a section of a trajectory along which the motor vehicle is to be guided by the driving intervention. The trajectory can be represented, for example, by a central line along which the motor vehicle is to move, by boundary lines that characterize an area traveled by the motor vehicle, by at least one arrow or the like. In addition or as an alternative, specific symbols can be displayed as graphic elements, which visualize individual driving interventions, for example braking, accelerating or steering. Corresponding symbols can be displayed in particular at corresponding positions of a trajectory of the motor vehicle.
Wird einem Nutzer ein Fahreingriff bzw. eine bestimmte Abfolge von Fahreingriffen visualisiert, ist es vorteilhaft, wenn er durch entsprechende Bedieneingaben an der Erfassungseinrichtung auch mit dem Kraftfahrzeug interagieren kann. Im einfachsten Fall kann ein Fahreingriff oder eine Gruppe von Fahreingriffen erst dann durchgeführt werden, wenn die Durchführung an der Erfassungseinrichtung bestätigt bzw. freigegeben wurde. Besonders vorteilhaft ist es jedoch, wenn der Fahreingriff oder die Fahreingriffe durch einen Nutzer direkt oder durch andere Vorgaben angepasst werden können. Es ist daher möglich, dass wenigstens eine Bedieneingabe des Nutzers an der Erfassungseinrichtung erfasst wird, wonach der Fahreingriff in Abhängigkeit der Bedieneingabe ermittelt oder angepasst wird. Die Bedieneingabe oder eine hieraus ermittelte Information kann an das Kraftfahrzeug übertragen werden.If a driving intervention or a specific sequence of driving interventions is visualized for a user, it is advantageous if he can also interact with the motor vehicle by means of appropriate operating inputs on the detection device. In the simplest case, a driving intervention or a group of driving interventions can only be carried out when the execution has been confirmed or released at the detection device. It is particularly beneficial However, if the driving intervention or driving interventions can be adapted by a user directly or by other specifications. It is therefore possible for at least one operator input from the user to be recorded on the acquisition device, after which the driving intervention is determined or adjusted as a function of the operator input. The operator input or information determined therefrom can be transmitted to the motor vehicle.
In einer besonders vorteilhaften Variante des geschilderten Vorgehens wird zunächst ein vorläufiger Fahreingriff ermittelt, die entsprechende Fahreingriffsinformation wird an die Erfassungseinrichtung übertragen und der vorläufige Fahreingriff wird dort wie vorangehend erläutert visualisiert. Wird der visualisierte Fahreingriff nutzerseitig bestätigt oder verstreicht ein gewisses Eingreifintervall, so wird dieser Fahreingriff ausgeführt. Führt der Benutzer jedoch entsprechende Bedieneingaben durch, kann diese Information an das Kraftfahrzeug übertragen werden und der Fahreingriff kann entsprechend angepasst werden.In a particularly advantageous variant of the described procedure, a preliminary driving intervention is first determined, the corresponding driving intervention information is transmitted to the detection device and the preliminary driving intervention is visualized there as explained above. If the visualized driving intervention is confirmed by the user or if a certain intervention interval elapses, this driving intervention is carried out. However, if the user carries out appropriate operating inputs, this information can be transmitted to the motor vehicle and the driving intervention can be adjusted accordingly.
Durch die Bedieneingabe kann wenigstens ein Sperrbereich definiert werden, wonach der Fahreingriff derart ermittelt wird, dass das Kraftfahrzeug ausschließlich außerhalb des Sperrbereichs geführt wird. Der Fahreingriff bzw. die Trajektorie des Kraftfahrzeugs kann somit derart geplant werden, dass das Kraftfahrzeug nicht in den Sperrbereich eindringt, also der Sperrbereich im Rahmen der automatisierten Führung nicht befahren wird. Der Sperrbereich kann beispielsweise ein Hindernis sein, das durch den Benutzer erkannt wurde. Es können jedoch auch Bereiche, die prinzipiell befahrbar wären, für die jedoch kein Befahren erfolgen soll, markiert werden, wie beispielsweise unübersichtliche Einmündungen von Straßen oder Wegen, Fußwege oder Ähnliches.At least one blocked area can be defined by the operator input, after which the driving intervention is determined in such a way that the motor vehicle is guided exclusively outside the blocked area. The driving intervention or the trajectory of the motor vehicle can thus be planned in such a way that the motor vehicle does not enter the restricted area, ie the restricted area is not driven over within the scope of the automated guidance. For example, the restricted area may be an obstacle detected by the user. However, it is also possible to mark areas that would in principle be passable, but which should not be driven on, such as, for example, unclear junctions with roads or paths, footpaths or the like.
In einigen Fällen kann es auch vorteilhaft sein, Sperrbereiche dadurch zu definieren, dass wenigstens ein befahrbarer Bereich durch den Nutzer gewählt wird, wonach alle nicht gewählten Bereiche als Sperrbereiche aufgefasst werden. Somit kann der Manövrierbereich für die automatisierte Führung gezielt auf bestimmte Bereiche eingeschränkt werden.In some cases it can also be advantageous to define restricted areas by the user selecting at least one drivable area, after which all non-selected areas are interpreted as restricted areas. In this way, the maneuvering range for the automated guidance can be specifically restricted to certain areas.
Der Fahreingriff kann als Teil eines automatisiert durchgeführten Einparkvorgangs oder Ausparkvorgangs geplant werden. Bei diesen Vorgängen ist es möglich, dass sich der Nutzer im Umfeld des Kraftfahrzeugs, jedoch außerhalb des Fahrzeugs befindet. In diesem Fall ist es möglich, dass mithilfe der Erfassungseinrichtung, also beispielsweise mithilfe eines Mobiltelefons, Bilddaten relevanter Bereiche erfasst werden können, die durch die kraftfahrzeugseitige Sensorik nicht einsehbar sind. Andererseits kann durch eine vorangehend erläuterte Bilddarstellung des Kraftfahrzeugumfelds mit wenigstens einem überlagerten Grafikelement für den Nutzer ein zukünftig geplantes Verhalten des Kraftfahrzeugs visualisiert werden, so dass der Nutzer das Kraftfahrzeug besser überwachen kann bzw. gezielt in den zukünftigen Fahrbetrieb eingreifen kann.The driving intervention can be planned as part of an automated parking process or exit process. With these processes, it is possible that the user is in the vicinity of the motor vehicle, but outside of the vehicle. In this case, it is possible that image data of relevant areas that cannot be seen by the sensor system on the motor vehicle can be captured using the capturing device, for example using a mobile phone. On the other hand, a future planned behavior of the motor vehicle can be visualized for the user by a previously explained image representation of the motor vehicle environment with at least one superimposed graphic element, so that the user can monitor the motor vehicle better or intervene in a targeted manner in the future driving operation.
Die Erfassungseinrichtung kann ein Mobiltelefon sein oder umfassen oder die Erfassungseinrichtung kann eine an dem Kopf des Nutzers getragene Ausgabeeinrichtung zur Ausgabe der Überlagerung umfassen. Beispielsweise kann es sich bei der Erfassungseinrichtung um eine Daten- bzw. VR-Brille handeln.The sensing device may be or comprise a mobile phone, or the sensing device may comprise an output device worn on the user's head for outputting the overlay. For example, the detection device can be data or VR glasses.
Neben dem erfindungsgemäßen Verfahren betrifft die Erfindung ein Kraftfahrzeug mit einer kraftfahrzeugseitigen Sensorik zur Erfassung von das Umfeld des Kraftfahrzeugs betreffenden Umfeldinformationen und einer Steuereinrichtung, durch die in Abhängigkeit der Umfeldinformationen wenigstens ein im Rahmen einer automatisierten Führung des Kraftfahrzeugs durchzuführender Fahreingriff ermittelbar ist, wobei das Kraftfahrzeug eine durch die Steuereinrichtung steuerbare Kommunikationseinrichtung zur Kommunikation mit einer fahrzeugexternen Erfassungseinrichtung umfasst, wobei die Steuereinrichtung zur Durchführung des erfindungsgemäßen Verfahrens eingerichtet ist.In addition to the method according to the invention, the invention relates to a motor vehicle with a sensor system on the motor vehicle for detecting environmental information relating to the area surrounding the motor vehicle and a control device, by means of which at least one driving intervention to be carried out as part of automated guidance of the motor vehicle can be determined as a function of the environmental information, the motor vehicle having a by the control device controllable communication device for communication with a vehicle-external detection device, wherein the control device is set up to carry out the method according to the invention.
Daneben betrifft die Erfindung eine Erfassungseinrichtung mit einer Kommunikationseinrichtung, wenigstens einer Kamera zur Erfassung von Bilddaten und einer Steuereinrichtung zur Steuerung der Kommunikationseinrichtung und der Kamera, wobei die Steuereinrichtung zur Durchführung des erfindungsgemäßen Verfahrens eingerichtet ist. Die Erfassungseinrichtung umfasst vorzugsweise eine durch die Steuereinrichtung steuerbare Anzeigeeinrichtung, beispielsweise ein Display oder eine Projektionsvorrichtung, um die Überlagerung der Bilddarstellung mit dem Grafikelement darzustellen. Die Erfassungseinrichtung kann beispielsweise ein Mobiltelefon sein, auf dem eine Anwendung zur Durchführung des erfindungsgemäßen Verfahrens installiert wurde. Es ist auch möglich, dass die Erfassungseinrichtung eine Daten- bzw. VR-Brille ist, durch die eine Augmented Reality-Darstellung direkt im Blickfeld des Nutzers möglich ist.The invention also relates to an acquisition device with a communication device, at least one camera for acquiring image data and a control device for controlling the communication device and the camera, the control device being set up to carry out the method according to the invention. The detection device preferably includes a display device that can be controlled by the control device, for example a display or a projection device, in order to display the superimposition of the image representation with the graphic element. The detection device can, for example, be a cell phone on which an application for carrying out the method according to the invention has been installed. It is also possible for the detection device to be data or VR glasses, through which an augmented reality display is possible directly in the user's field of vision.
Das erfindungsgemäße Kraftfahrzeug bzw. die erfindungsgemäße Erfassungseinrichtung können mit den zum erfindungsgemäßen Verfahren erläuterten Merkmalen mit den dort genannten Vorteile weitergebildet werden.The motor vehicle according to the invention or the detection device according to the invention can be further developed with the features explained for the method according to the invention with the advantages mentioned there.
Weitere Vorteile und Einzelheiten der Erfindung ergeben sich aus den folgenden Ausführungsbeispielen und den zugehörigen Zeichnungen. Hierbei zeigen schematisch:
-
1 eine Fahrsituation, in der ein Ausführungsbeispiel des erfindungsgemäßen Verfahrens durch ein Ausführungsbeispiel einer erfindungsgemäßen Erfassungseinrichtung und ein Ausführungsbeispiel eines erfindungsgemäßen Kraftfahrzeugs durchgeführt wird, -
2 eine Detailansicht der in1 gezeigten Erfassungseinrichtung, und -
3 eine Bildschirmdarstellung auf einem Bildschirm dieser Erfassungseinrichtung.
-
1 a driving situation in which an exemplary embodiment of the method according to the invention is carried out by an exemplary embodiment of a detection device according to the invention and an exemplary embodiment of a motor vehicle according to the invention, -
2 a detailed view of the in1 detection device shown, and -
3 a screen display on a screen of this detection device.
Es ist bekannt, dass automatische Parkmanöver auch in Situationen durchgeführt werden können, bei denen sich ein Nutzer 7 außerhalb des Kraftfahrzeugs 1 befindet, wie dies in
Dies wird dadurch realisiert, dass eine im Detail in
Nachdem durch die Steuereinrichtung 3 des Kraftfahrzeugs 1 ein durchzuführender Fahreingriff ermittelt wurde, kann eine diesen betreffende Fahreingriffsinformation von dem Kraftfahrzeug 1 an die Erfassungseinrichtung 6 übertragen werden. Anschließend kann die Steuereinrichtung 9 den Bildschirm 11 ansteuern, um den durchzuführenden Fahreingriff für den Nutzer 7 zu visualisieren. Dies erfolgt, wie im Folgenden noch detailliert erläutert werden wird, als eine Augmented Reality-Darstellung.After a driving intervention to be carried out has been determined by the
Die Bilddarstellung auf dem Bildschirm 11 der Erfassungseinrichtung 6 ist in
Diese Bilddarstellung wird mit mehreren Grafikelementen 17, 18 überlagert, die in Abhängigkeit der von dem Kraftfahrzeug 1 empfangenen Fahreingriffsinformation ermittelt wurden. Die grafischen Elemente 17, 18 stellen hierbei im gezeigten Beispiel die Trajektorie, die durch das Kraftfahrzeug 1 bei Durchführung der geplanten Fahreingriffe befahren wird, in Form von Pfeilen dar. Selbstverständlich wären auch beliebig andere Darstellungen der Fahreingriffe möglich. Der Nutzer 7 erhält somit eine Vorschau auf die Fahreingriffe, wie sie sich von seiner Betrachtungsposition aus darstellen würden. Ist er mit den ermittelten Fahreingriffen einverstanden, kann er die Durchführung dieser Fahreingriffe durch Betätigung des zusätzlich in die Bilddarstellung eingeblendeten Bedienelements 19 an dem als Touchscreen ausgebildeten Bildschirm 11 freigeben.A plurality of
In einer Weiterbildung des erläuterten Ausführungsbeispiels wäre es möglich, dass das Hindernis 14 nicht als nicht befahrbarer Bereich erkannt wird. Beispielsweise könnte es sich bei dem Hindernis 14 um ein nicht bepflanztes Beet handeln, das von der Steuereinrichtung 3 des Kraftfahrzeugs 1 zunächst als befahrbar klassifiziert wird. In diesem Fall könnte beispielsweise die durch den gestrichelten Pfeil 20 gezeigte alternative Trajektorie für das Kraftfahrzeug 1 berechnet und für den Nutzer 7 visualisiert werden. Der Nutzer 7 kann nun erkennen, dass diese Trajektorie 20 nicht vorteilhaft wäre, da sie zu einer Beschädigung des Beetes und potentiell auch des Kraftfahrzeugs 1 führen könnte. Der Nutzer 7 kann nun statt der vorangehend erläuterten Freigabe der Fahreingriffe eine Bedieneingabe an der Erfassungseinrichtung 6, insbesondere an dem als Touchscreen ausgebildeten Bildschirm 11, tätigen, um den Fahreingriff anzupassen. Hierbei wäre es prinzipiell möglich, die Trajektorie 20, beispielsweise durch Ziehen ihres Endpunktes, manuell anzupassen. Besonders vorteilhaft ist es jedoch, wenn durch die Bedieneingabe wenigstens ein Sperrbereich 21 definiert wird. Beispielsweise kann der Nutzer ein Rechteck einzeichnen, das das Hindernis 14 umfasst, so dass der Bereich des Hindernisses 14 als nicht befahrbar markiert wird. Eine entsprechende Information kann an das Kraftfahrzeug 1 zurückübertragen werden, wonach durch die Steuereinrichtung 3 eine aktualisierte Trajektorie bzw. neue Fahreingriffe ermittelt werden. Bezüglich dieser neuen Fahreingriffe kann anschließend erneut eine Fahreingriffsinformation an die Erfassungseinrichtung 6 übermittelt werden, um diese für den Nutzer 7 zu visualisieren.In a further development of the exemplary embodiment explained, it would be possible for the
Die Bilddaten der Erfassungseinrichtung sind auch dazu nutzbar, zusätzliche Informationen über das Umfeld des Kraftfahrzeugs 1 an die Steuereinrichtung 3 bereitzustellen, um eine Planung der Fahreingriffe zu verbessern. Beispielsweise wäre es möglich, dass in dem in
Claims (11)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102017207810.3A DE102017207810B4 (en) | 2017-05-09 | 2017-05-09 | Method for automated driving of a motor vehicle |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102017207810.3A DE102017207810B4 (en) | 2017-05-09 | 2017-05-09 | Method for automated driving of a motor vehicle |
Publications (2)
Publication Number | Publication Date |
---|---|
DE102017207810A1 DE102017207810A1 (en) | 2018-11-15 |
DE102017207810B4 true DE102017207810B4 (en) | 2022-12-22 |
Family
ID=63962629
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102017207810.3A Active DE102017207810B4 (en) | 2017-05-09 | 2017-05-09 | Method for automated driving of a motor vehicle |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102017207810B4 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102019215524A1 (en) * | 2019-10-10 | 2021-04-15 | Ford Global Technologies, Llc | Method and arrangement for visualizing a route, computer program product and computer-readable storage medium |
DE102019128926A1 (en) * | 2019-10-25 | 2021-04-29 | Valeo Schalter Und Sensoren Gmbh | Process for automated vehicle guidance |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102011112577A1 (en) | 2011-09-08 | 2013-03-14 | Continental Teves Ag & Co. Ohg | Method and device for an assistance system in a vehicle for carrying out an autonomous or semi-autonomous driving maneuver |
DE102014200611A1 (en) | 2014-01-15 | 2015-07-16 | Robert Bosch Gmbh | Method for the autonomous parking of a vehicle, driver assistance device for carrying out the method, and vehicle with the driver assistance device |
US20150336502A1 (en) | 2014-05-22 | 2015-11-26 | Applied Minds, Llc | Communication between autonomous vehicle and external observers |
DE102014218921A1 (en) | 2014-09-19 | 2016-03-24 | Robert Bosch Gmbh | Method and device for monitoring automatic parking of a vehicle |
DE102014222190A1 (en) | 2014-10-30 | 2016-05-04 | Volkswagen Aktiengesellschaft | Device and method for connecting a mobile camera device |
DE102016208214A1 (en) | 2015-05-22 | 2016-11-24 | Ford Global Technologies, Llc | Method and device for supporting a maneuvering process of a vehicle |
DE102016211182A1 (en) | 2015-09-08 | 2017-03-09 | Volkswagen Aktiengesellschaft | A method, apparatus and system for performing automated driving of a vehicle along a trajectory provided from a map |
-
2017
- 2017-05-09 DE DE102017207810.3A patent/DE102017207810B4/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102011112577A1 (en) | 2011-09-08 | 2013-03-14 | Continental Teves Ag & Co. Ohg | Method and device for an assistance system in a vehicle for carrying out an autonomous or semi-autonomous driving maneuver |
DE102014200611A1 (en) | 2014-01-15 | 2015-07-16 | Robert Bosch Gmbh | Method for the autonomous parking of a vehicle, driver assistance device for carrying out the method, and vehicle with the driver assistance device |
US20150336502A1 (en) | 2014-05-22 | 2015-11-26 | Applied Minds, Llc | Communication between autonomous vehicle and external observers |
DE102014218921A1 (en) | 2014-09-19 | 2016-03-24 | Robert Bosch Gmbh | Method and device for monitoring automatic parking of a vehicle |
DE102014222190A1 (en) | 2014-10-30 | 2016-05-04 | Volkswagen Aktiengesellschaft | Device and method for connecting a mobile camera device |
DE102016208214A1 (en) | 2015-05-22 | 2016-11-24 | Ford Global Technologies, Llc | Method and device for supporting a maneuvering process of a vehicle |
DE102016211182A1 (en) | 2015-09-08 | 2017-03-09 | Volkswagen Aktiengesellschaft | A method, apparatus and system for performing automated driving of a vehicle along a trajectory provided from a map |
Also Published As
Publication number | Publication date |
---|---|
DE102017207810A1 (en) | 2018-11-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP1862376B1 (en) | Method for controlling the parking process | |
DE102016211182A1 (en) | A method, apparatus and system for performing automated driving of a vehicle along a trajectory provided from a map | |
WO2015049029A1 (en) | Method and device for augmented display | |
WO2015000882A1 (en) | Assistance system and assistance method for support when controlling a motor vehicle | |
DE102013021834A1 (en) | Device and method for navigating within a menu for vehicle control and selecting a menu item from the menu | |
EP3774499B1 (en) | Method for monitoring and controlling a remotely-controlled parking or maneuvering operation of a vehicle | |
WO2010025792A1 (en) | Method and device for monitoring an environment of a vehicle | |
DE102017122261A1 (en) | Method for monitoring a surrounding area of a motor vehicle and camera system | |
DE102015003847A1 (en) | Method and driver assistance system for detecting and signaling light signals from at least one light signal device of a alternating light signaling system | |
DE102016122759A1 (en) | Method for operating a driver assistance system for the at least semi-autonomous maneuvering of a motor vehicle taking into account a geographical area, driver assistance system and motor vehicle | |
DE102010026222A1 (en) | Method for assisting driver during driving and/or maneuvering of car, involves optically outputting orientation aids and optically outputting detected areas on display units from perspective view, where images are superimposed with aids | |
EP3955046A1 (en) | Method for operating a display device in a motor vehicle | |
EP3562730B1 (en) | Method for automated parking a vehicle | |
WO2020048718A1 (en) | Concept for monitoring and planning the movement of a means of transportation | |
DE102014119317A1 (en) | Method for displaying an image overlay element in an image with 3D information, driver assistance system and motor vehicle | |
DE102017207810B4 (en) | Method for automated driving of a motor vehicle | |
DE102017210221B4 (en) | Method for longitudinal and lateral guidance of a motor vehicle | |
DE102017107484A1 (en) | A method of providing a display assisting a driver of a motor vehicle, driver assistance system and motor vehicle | |
EP3700803B1 (en) | Method, device, computer program and computer program product for operating a display unit in a vehicle | |
DE102011102549A1 (en) | Method and device for visual recording and visualization of environmental conditions on an obstacle to be approached by a commercial vehicle | |
DE102017124661A1 (en) | A method for assisting a user of a motor vehicle when parking in a parking lot, corresponding computer program product, corresponding driver assistance device and corresponding motor vehicle | |
DE102021104290B3 (en) | Method for at least partially automated parking of a motor vehicle, driver assistance system and motor vehicle | |
EP3817967B1 (en) | Method for providing assistance during a parking maneuver of a vehicle combination of a towing vehicle and a trailer, system, and combination | |
EP3267700B1 (en) | Method for exchanging and displaying of location-based information | |
EP3301399B1 (en) | Method for displaying the current authorised maximum speed and corresponding display device, navigation device and motor vehicle |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R016 | Response to examination communication | ||
R016 | Response to examination communication | ||
R018 | Grant decision by examination section/examining division | ||
R020 | Patent grant now final |