DE102017204983B4 - Method for specifying a driving movement in a machine learning-based autopilot device of a motor vehicle and a control device, motor vehicle and training device for an autopilot device - Google Patents

Method for specifying a driving movement in a machine learning-based autopilot device of a motor vehicle and a control device, motor vehicle and training device for an autopilot device Download PDF

Info

Publication number
DE102017204983B4
DE102017204983B4 DE102017204983.9A DE102017204983A DE102017204983B4 DE 102017204983 B4 DE102017204983 B4 DE 102017204983B4 DE 102017204983 A DE102017204983 A DE 102017204983A DE 102017204983 B4 DE102017204983 B4 DE 102017204983B4
Authority
DE
Germany
Prior art keywords
motor vehicle
data
autopilot
virtual
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102017204983.9A
Other languages
German (de)
Other versions
DE102017204983A1 (en
Inventor
Michael Schlittenbauer
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Audi AG
Original Assignee
Audi AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Audi AG filed Critical Audi AG
Priority to DE102017204983.9A priority Critical patent/DE102017204983B4/en
Publication of DE102017204983A1 publication Critical patent/DE102017204983A1/en
Application granted granted Critical
Publication of DE102017204983B4 publication Critical patent/DE102017204983B4/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/09Taking automatic action to avoid collision, e.g. braking and steering
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/10Path keeping
    • B60W30/12Lane keeping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/14Adaptive cruise control
    • B60W30/16Control of distance between vehicles, e.g. keeping a distance to preceding vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/14Adaptive cruise control
    • B60W30/16Control of distance between vehicles, e.g. keeping a distance to preceding vehicle
    • B60W30/165Automatically following the path of a preceding lead vehicle, e.g. "electronic tow-bar"
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Traffic Control Systems (AREA)

Abstract

Verfahren zum Vorgeben einer Fahrroute (24') in einer auf maschinellem Lernen basierten Autopiloteinrichtung (14) eines Kraftfahrzeugs (10), wobei die Autopiloteinrichtung (14) auf der Grundlage von Sensordaten (22) einer Sensoreinrichtung (11) des Kraftfahrzeugs (10) fahrzeugexterne Hindernisobjekte (20, 27) in einer Umgebung (21) des Kraftfahrzeugs (10) erkennt und das Kraftfahrzeug (10) durch Erzeugen zumindest eines Steuersignals (19) für eine Längsführung und/oder Querführung kollisionsfrei an den Hindernisobjekten (20, 27) vorbeiführt, dadurch gekennzeichnet, dass bei dem Verfahren durch eine Steuervorrichtung (12) jeweilige Darstellungsdaten (23) zumindest eines virtuellen Hindernisobjekts (28) und/oder zumindest eines zu verfolgenden virtuellen Folgeobjekts (31) in die Sensordaten (22) eingefügt werden und hierdurch das zumindest eine virtuelle Hindernisobjekt (27) und/oder das zumindest eine virtuelle Folgeobjekt (31) jeweils in die Sensordaten (22) eingeblendet wird, wobei die Darstellungsdaten (23) in Abhängigkeit von der Fahrroute (24') erzeugt werden.A method for specifying a driving route (24 ') in a machine learning-based autopilot device (14) of a motor vehicle (10), the autopilot device (14) being external to the vehicle based on sensor data (22) from a sensor device (11) of the motor vehicle (10) Detects obstacle objects (20, 27) in an environment (21) of the motor vehicle (10) and guides the motor vehicle (10) past the obstacle objects (20, 27) without collision by generating at least one control signal (19) for longitudinal guidance and / or lateral guidance, characterized in that, in the method, a control device (12) inserts respective display data (23) of at least one virtual obstacle object (28) and / or at least one virtual following object (31) to be tracked into the sensor data (22) and thereby the at least one virtual obstacle object (27) and / or the at least one virtual following object (31) is shown in each of the sensor data (22), di e display data (23) are generated as a function of the route (24 ').

Description

Die Erfindung betrifft ein Verfahren zum Vorgeben einer Fahrroute in einer auf maschinellem Lernen basierten Autopiloteinrichtung eines Kraftfahrzeugs. Eine solche Autopiloteinrichtung kann ein Kraftfahrzeug automatisiert durch eine Längsführung (Beschleunigen und Abbremsen) und/oder Querführung (Lenken) kollisionsfrei an Hindernisobjekten vorbeiführen. Zu der Erfindung gehören auch eine Steuervorrichtung für ein Kraftfahrzeug sowie das Kraftfahrzeug und eine Trainingsvorrichtung für eine Autopiloteinrichtung, um das maschinelle Lernen durchzuführen.The invention relates to a method for specifying a driving route in a machine learning-based autopilot device of a motor vehicle. Such an autopilot device can automatically guide a motor vehicle past obstacle objects without collision by longitudinal guidance (acceleration and braking) and / or transverse guidance (steering). The invention also includes a control device for a motor vehicle and the motor vehicle and a training device for an autopilot device in order to carry out machine learning.

Autonomes Fahren, also ein automatisiertes Führen eines Kraftfahrzeugs mittels eine Autopiloteinrichtung, kann auf der Grundlage von maschinellem Lernen realisiert werden. Auf einer Rechnerarchitektur kann hierzu ein künstliches neuronales Netzwerk betrieben werden, welches Sensordaten einer Sensoreinrichtung empfängt und in Abhängigkeit von den Sensordaten ein Steuersignal für eine Längsführung und/oder Querführung des Kraftfahrzeugs erzeugt. Eine maximale Ausbaustufe ist hierbei das sogenannte End2End-Modell des autonomen Fahrens, bei welchem eine Autopiloteinrichtung beispielsweise auf der Grundlage eines sogenannten tiefen künstlichen neuronalen Netzwerk anhand von Bilddaten einer Kamera und/oder zumindest eines anderen Sensors das Steuersignal direkt zum Einstellen eines Lenkwinkels und/oder einer Gaspedalstellung/Bremspedalstellung erzeugt.Autonomous driving, that is to say automated driving of a motor vehicle by means of an autopilot device, can be implemented on the basis of machine learning. For this purpose, an artificial neural network can be operated on a computer architecture, which receives sensor data from a sensor device and, as a function of the sensor data, generates a control signal for longitudinal guidance and / or lateral guidance of the motor vehicle. A maximum expansion stage here is the so-called end-to-end model of autonomous driving, in which an autopilot device, for example on the basis of a so-called deep artificial neural network, uses image data from a camera and / or at least one other sensor to send the control signal directly to set a steering angle and / or an accelerator pedal position / brake pedal position generated.

Maschinelles Lernen ergibt eine Autopiloteinrichtung, die nicht dahingehend gesteuert werden kann, dass man ihr eine Fahrroute zu einem Fahrziel vorgeben kann. D.h. das Kraftfahrzeug fährt zwar sicher auf der Straße, vermeidet also eine Kollision mit Hindernisobjekten, wie beispielsweise anderen Verkehrsteilnehmern, aber man kann die Autopiloteinrichtung nicht dahingehend beeinflussen, welche Abbiegung und/oder Kreuzung oder allgemein welche Fahrtrichtung ausgewählt werden soll. Dies entscheidet die Autopiloteinrichtung in Abhängigkeit von dem Training, das sie erfahren hat. Eine Konsequenz wäre beispielsweise, für jedes gewünschte Fahrmanöver ein eigenes künstliches neuronales Netzwerk bereitzustellen, was aber den Rechenaufwand und die Handhabbarkeit einer solchen Autopiloteinrichtung beeinträchtigt.Machine learning results in an autopilot device that cannot be controlled in such a way that it can be given a route to a destination. That is, the motor vehicle drives safely on the road, thus avoiding a collision with obstructing objects such as other road users, but the autopilot device cannot be influenced to determine which turn and / or intersection or which direction of travel should be selected in general. This is decided by the autopilot device depending on the training that it has undergone. One consequence would be, for example, to provide a separate artificial neural network for each desired driving maneuver, which, however, affects the computational effort and the manageability of such an autopilot device.

Ein Kraftfahrzeug mit einer autonomen Fahrfunktion und einem künstlichen neuronalen Netzwerk zur Verarbeitung von Signalen einer Kamera ist aus der DE 10 2013 016 488 A1 bekannt, Mittels des künstlichen neuronalen Netzwerks wird hierbei aber nur ein Grad der Müdigkeit eines Fahrers erkannt.A motor vehicle with an autonomous driving function and an artificial neural network for processing signals from a camera is from the DE 10 2013 016 488 A1 known, by means of the artificial neural network, however, only a degree of driver fatigue is recognized.

Das Ermitteln einer Fahrstrategie mittels eines künstlichen neuronalen Netzwerks ist in der DE 103 58 498 A1 bekannt. Hiermit kann ein Kraftfahrzeug kollisionsfrei an Verkehrshindernissen vorbeigeführt werden.The determination of a driving strategy by means of an artificial neural network is in the DE 103 58 498 A1 known. In this way, a motor vehicle can be driven past traffic obstacles without collision.

Auch aus der DE 10 2015 115 666 A1 ist bekannt, wie eine Augmented-Reality-Umgebung in einem Kraftfahrzeug geschaffen werden kann.Also from the DE 10 2015 115 666 A1 it is known how an augmented reality environment can be created in a motor vehicle.

Aus der DE 10 2015 215 918 A1 ist ein Einparksystem mit interaktiver Trajektorienoptimierung bekannt, bei welchem ein Benutzer an einen Bildschirm überprüfen kann, ob ein automatisches Einparksystem alle Hindernisse erkannt hat, die bei einem bevorstehenden Einparkmanöver zu beachten sind. Um die Einparktrajektorie zu korrigierten, kann der Nutzer manuell virtuelle Hindernisse interaktiv einfügen, um hierdurch die vom System nicht erkannten Hindernisse nachzuzeichnen oder zu markieren.From the DE 10 2015 215 918 A1 a parking system with interactive trajectory optimization is known, in which a user can check on a screen whether an automatic parking system has recognized all obstacles that have to be taken into account during an upcoming parking maneuver. In order to correct the parking trajectory, the user can manually insert virtual obstacles interactively in order to trace or mark the obstacles not recognized by the system.

Aus der US 2016/0327953 A1 ist bekannt, bei einem Kraftfahrzeug mit Autopiloten in der Umgebungskarte, welche die unmittelbare Umgebung des Kraftfahrzeugs beschreibt, in solchen Bereichen, die mittels der Sensorik des Kraftfahrzeugs nicht eingesehen oder erfasst werden konnten, weil sie beispielsweise abgeschirmt sind, virtuelle Hindernisse einzufügen, auf die sich der Autopilot prophylaktisch vorbereiten soll, falls sich später herausstellt, dass sie tatsächlich in dem Bereich vorhanden sind, wenn das Kraftfahrzeug den Bereich erreicht.From the US 2016/0327953 A1 It is known, in a motor vehicle with an autopilot, to insert virtual obstacles into the environment map, which describes the immediate surroundings of the motor vehicle, in those areas that could not be viewed or detected by means of the motor vehicle's sensors because they are shielded, for example the autopilot is supposed to prepare prophylactically if it later turns out that they are actually present in the area when the motor vehicle reaches the area.

Aus der EP 2 863 177 A1 ist bekannt, für ein Flugzeug virtuelle Hindernisse darzustellen, die die Grenzen des Flugkorridors darstellen können.From the EP 2 863 177 A1 it is known to represent virtual obstacles for an aircraft, which can represent the boundaries of the flight corridor.

Aus der US 2013/0050260 A1 ist ein Navigationssystem bekannt, bei welchem einem Fahrer in ein Head-up-Display zum Angeben einer Fahrroute ein Folgefahrzeug eingeblendet werden kann, dem der Fahrer folgen soll.From the US 2013/0050260 A1 A navigation system is known in which a following vehicle, which the driver is to follow, can be shown to a driver in a head-up display for specifying a route.

Der Erfindung liegt somit die Aufgabe zugrunde, eine auf maschinellem Lernen basierte Autopiloteinrichtung dazu zu bringen, einer vorbestimmten Fahrroute zu folgen.The invention is therefore based on the object of causing an autopilot device based on machine learning to follow a predetermined driving route.

Die Aufgabe wird durch die Gegenstände der unabhängigen Patentansprüche gelöst. Vorteilhafte Weiterbildungen der Erfindung sind durch die abhängigen Patentansprüche, die folgende Beschreibung sowie die Figuren beschrieben.The object is achieved by the subjects of the independent claims. Advantageous further developments of the invention are described by the dependent claims, the following description and the figures.

Die Erfindung stellt ein Verfahren bereit, mittels welchem einer auf maschinellem Lernen basierten Autopiloteinrichtung eines Kraftfahrzeugs eine Fahrroute vorgegeben werden kann. Die Fahrroute kann beispielsweise durch eine Navigationseinrichtung des Kraftfahrzeugs ermittelt worden sein. Die Autopiloteinrichtung ist dabei dazu eingerichtet, auf der Grundlage von Sensordaten einer Sensoreinrichtung des Kraftfahrzeugs fahrzeugexterne Hindernisobjekte in einer Umgebung des Kraftfahrzeugs zu erkennen und das Kraftfahrzeug durch Vorgeben oder Erzeugen zumindest eines Steuersignals für eine Längsführung und/oder Querführung kollisionsfrei an den Hindernisobjekten vorbeizuführen. Die Autopiloteinrichtung basiert auf maschinellem Lernen, d. h. sie kann beispielsweise ein künstliches neuronales Netzwerk (KNN) und/oder eine Support Vector Machine (SVM) aufweisen, mittels welcher jeweils aus den Sensordaten das zumindest eine Steuersignal ganz oder teilweise erzeugt werden kann.The invention provides a method by means of which a driving route can be specified for an autopilot device of a motor vehicle based on machine learning. The route can be determined, for example, by a navigation device of the motor vehicle. The autopilot device is set up to detect obstacle objects outside the vehicle in the surroundings of the motor vehicle on the basis of sensor data from a sensor device of the motor vehicle and to guide the motor vehicle past the obstacle objects without collision by specifying or generating at least one control signal for longitudinal guidance and / or lateral guidance. The autopilot device is based on machine learning, ie it can have, for example, an artificial neural network (ANN) and / or a support vector machine (SVM), by means of which the at least one control signal can be wholly or partially generated from the sensor data.

Um nun einer solchen auf maschinellem Lernen basierten Autopiloteinrichtung die zu verfolgende oder zu fahrende Fahrroute vorzugeben, ist erfindungsgemäß vorgesehen, dass bei dem Verfahren durch eine Steuervorrichtung jeweils Darstellungsdaten zumindest eines virtuellen Hindernisobjekts, zum Beispiel eines virtuellen Verkehrsteilnehmers, und/oder zumindest eines zu verfolgenden virtuellen Folgeobjekts in die Sensordaten eingefügt werden. Die Sensordaten werden also durch Darstellungsdaten zumindest eines virtuellen Objekts (Hindernisobjekt und/oder Folgeobjekt) ergänzt. Hierdurch wird also das zumindest eine Hindernisobjekt und/oder das zumindest eine Folgeobjekt jeweils in die Sensordaten eingeblendet, also in den Erfassungsbereich der Autopiloteinrichtung. Mit anderen Worten „sieht“ die Autopiloteinrichtung nicht nur die tatsächlichen fahrzeugexternen Hindernisobjekte, sondern zumindest ein virtuelles Hindernisobjekt und/oder zumindest ein virtuelles Folgeobjekt. Auf das zumindest eine virtuelle Hindernisobjekt reagiert die Autopiloteinrichtung dann in derselben Weise wie auf ein tatsächliches, fahrzeugexternes Hindernisobjekt, d.h. es wird durch das zumindest eine Steuersignal erreichen, dass mittels der Längsführung und/oder Querführung auch das virtuelle Hindernisobjekt kollisionsfrei passiert wird. Dagegen kann die Autopiloteinrichtung mittels des Steuersignals durch Einstellen einer entsprechenden Längsführung und/oder Querführung dem zumindest einen Folgeobjekt folgen.In order to specify the driving route to be followed or to be driven to such an autopilot device based on machine learning, the invention provides that in the method, a control device provides display data of at least one virtual obstacle object, for example a virtual road user, and / or at least one virtual one to be followed Object to be inserted into the sensor data. The sensor data are thus supplemented by display data of at least one virtual object (obstacle object and / or following object). In this way, the at least one obstacle object and / or the at least one follow-up object is shown in each case in the sensor data, that is to say in the detection range of the autopilot device. In other words, the autopilot device “sees” not only the actual obstacle objects external to the vehicle, but at least one virtual obstacle object and / or at least one virtual following object. The autopilot device then reacts to the at least one virtual obstacle object in the same way as to an actual obstacle object external to the vehicle, i.e. the at least one control signal ensures that the virtual obstacle object is also passed collision-free by means of the longitudinal guidance and / or lateral guidance. In contrast, the autopilot device can follow the at least one following object by means of the control signal by setting a corresponding longitudinal guide and / or transverse guide.

Durch die Erfindung ergibt sich der Vorteil, dass es nicht nötig ist, die Autopiloteinrichtung selbst zu manipulieren oder zu steuern, um die Autopiloteinrichtung dahingehend zu ertüchtigen, dass sie gezielt einer Fahrroute folgt. Dies wird durch „vortäuschen“ zumindest eines Objekts in der Umgebung des Kraftfahrzeugs erreicht, indem die korrespondierenden Darstellungsdaten in die Sensordaten eingefügt werden. Falls es sich bei der Sensoreinrichtung um eine Kamera handelt und die Sensordaten also zumindest ein Kamerabild umfassen, kann dies dahingehend realisiert werden, dass der Autopiloteinrichtung auf Grundlage der Sensordaten eine sogenannte Augmented-Reality-Umgebung (AR - Augmented Reality) dargeboten wird, in welcher der realen Umgebung das zumindest eine virtuelle Objekt überlagert ist.The invention has the advantage that it is not necessary to manipulate or control the autopilot device itself in order to train the autopilot device to follow a route in a targeted manner. This is achieved by “simulating” at least one object in the vicinity of the motor vehicle by inserting the corresponding display data into the sensor data. If the sensor device is a camera and the sensor data thus include at least one camera image, this can be implemented to the effect that the autopilot device is presented with a so-called augmented reality environment (AR) on the basis of the sensor data, in which the real environment is superimposed on the at least one virtual object.

Um mittels des zumindest einen Hindernisobjekts und/oder des zumindest eines Folgeobjekts das Kraftfahrzeug entlang einer Fahrroute zu führen, werden die Darstellungsdaten in Abhängigkeit von der Fahrroute erzeugt. Auf Grundlage der Fahrroute kann die generelle Fahrrichtung und/oder die zu wählende Straße vorgegeben werden.In order to guide the motor vehicle along a travel route by means of the at least one obstacle object and / or the at least one follow-up object, the display data are generated as a function of the travel route. The general direction of travel and / or the road to be selected can be specified on the basis of the route.

Zu der Erfindung gehören auch Weiterbildungen, durch deren Merkmale sich zusätzliche Vorteile ergeben.The invention also includes further developments, the features of which result in additional advantages.

Um mittels des zumindest einen Hindernisobjekts und/oder des zumindest eines Folgeobjekts das Kraftfahrzeug entlang einer Fahrroute zu führen, werden die Darstellungsdaten bevorzugt in Abhängigkeit von einer vorbestimmten Fahrtrajektorie und/oder in Abhängigkeit von einem Straßenverlauf erzeugt. Mittels der Fahrtrajektorie kann der Autopiloteinheit ein Fahrmanöver (zum Beispiel Überholen und/oder Spurwechsel) vorgegeben werden. Die Fahrtrajektorie kann beispielsweise auf der Grundlage einer Manöverplanung, wie sie an sich aus dem Stand der Technik im Zusammenhang mit dem automatisierten Fahren bekannt ist, gebildet sein. Auf Grundlage des Straßenverlaufs kann das Kraftfahrzeug auf einer Straße gehalten oder entlanggeführt werden. Der Straßenverlauf selbst kann beispielsweise mittels einer digitalen Karte, also anhand von digitalen Kartendaten, ermittelt werden.In order to guide the motor vehicle along a driving route by means of the at least one obstacle object and / or the at least one following object, the display data are preferably generated as a function of a predetermined driving trajectory and / or as a function of the course of the road. A driving maneuver (for example overtaking and / or changing lanes) can be specified for the autopilot unit by means of the driving trajectory. The driving trajectory can be formed, for example, on the basis of maneuver planning, as is known per se from the prior art in connection with automated driving. On the basis of the course of the road, the motor vehicle can be stopped or guided along a road. The course of the road itself can be determined, for example, using a digital map, that is, using digital map data.

Als ein geeignetes jeweiliges virtuelles Hindernisobjekt hat sich ein Begrenzungsobjekt oder eine Begrenzung eines die Fahrroute umfassenden Fahrkorridors und/oder ein Sperrobjekt im Bereich einer zu vermeidenden Fahrtrichtung erwiesen, das jeweils in die Sensordaten eingeblendet werden kann. Der Fahrkorridor ist dabei insbesondere breiter als das Kraftfahrzeug selbst. Es handelt sich also nicht um die Vorgabe einer konkreten Fahrtrajektorie, sondern nur eines Korridors, innerhalb welchem die Autopiloteinrichtung selbst manövrieren kann, also beispielsweise einem in dem Fahrkorridor befindlichen oder eindringenden Hindernisobjekt ausweichen kann. Ein Fahrkorridor kann beispielsweise durch das Darstellen von Wänden als Hindernisobjekte gebildet sein. Ein Sperrobjekt kann beispielsweise an einer Kreuzung auf all jenen Straßen eingeblendet werden, in welche das Kraftfahrzeug nicht einbiegen soll. Hierdurch versperrt also das zumindest eine Sperrobjekt alle Fahralternativen, bis auf diejenige, welche die Autopiloteinrichtung auswählen soll. Ein Beispiel für ein Sperrobjekt ist ein Baum oder ein stehendes Kraftfahrzeug.A delimiting object or a delimitation of a driving corridor encompassing the driving route and / or a blocking object in the area of a driving direction to be avoided, which can be displayed in the sensor data, has proven to be a suitable respective virtual obstacle object. The driving corridor is in particular wider than the motor vehicle itself. It is therefore not a matter of specifying a specific driving trajectory, but only a corridor within which the autopilot device can maneuver itself, for example avoiding an obstacle object located in the driving corridor or an intruding obstacle. A driving corridor can be formed, for example, by displaying walls as obstacle objects. A blocking object can, for example, be displayed at an intersection on all those streets into which the motor vehicle should not turn. As a result, the at least one blocking object blocks all driving alternatives, except for the one which the autopilot device is to select. An example of a blocking object is a tree or a stationary motor vehicle.

Als ein jeweiliges virtuelles Folgeobjekt kann ein zu befahrender, die Fahrroute umfassender Bodenbelag oder Streifen eingeblendet werden. Der Streifen ist dabei breiter als die Fahrzeugbreite des Kraftfahrzeugs, um in der beschriebenen Weise der Autopiloteinrichtung ein Manövrieren, zum Beispiel ein Ausweichen, innerhalb des Fahrstreifens zu ermöglichen. Zusätzlich oder alternativ dazu kann als zumindest ein virtuelles Folgeobjekt ein vor dem Kraftfahrzeug entlang der Fahrroute bewegtes Leitobjekt eingeblendet werden. Beispielsweise kann ein vor dem Kraftfahrzeug herfliegender oder herrollender Ball oder ein Leitfahrzeug eingeblendet werden.A floor covering or strip that is to be driven on and encompasses the route can be faded in as a respective virtual following object. The strip is wider than the vehicle width of the motor vehicle in order to enable the autopilot device to maneuver, for example, evasive, within the lane in the manner described. Additionally or alternatively, a guide object moved in front of the motor vehicle along the route can be displayed as at least one virtual follow-up object. For example, a ball flying or rolling in front of the motor vehicle or a lead vehicle can be displayed.

Bevorzugt ist vorgesehen, dass die Autopiloteinrichtung das zumindest eine Steuersignal mittels eines künstlichen neuronalen Netzwerks (KNN), insbesondere eines tiefen künstlichen neuronalen Netzwerks, aus den Sensordaten erzeugt. Ein künstliches neuronales Netzwerk hat sich bei der Verarbeitung von Sensordaten zum Erzeugen des zumindest eines Steuersignals als vorteilhafte Lösung erwiesen.It is preferably provided that the autopilot device generates the at least one control signal from the sensor data by means of an artificial neural network (ANN), in particular a deep artificial neural network. An artificial neural network has proven to be an advantageous solution when processing sensor data for generating the at least one control signal.

Die Darstellungsdaten können in Bilddaten einer Kamera der Sensoreinrichtung und/oder in Radardaten eines Radars der Sensoreinrichtung und/oder in Ultraschalldaten eines Ultraschallsensors der Sensoreinrichtung eingefügt werden. Es wird also jeweils eine Augmented-Reality-Darstellung in Bilddaten und/oder Radardaten und/oder Ultraschalldaten erzeugt, indem die Gegenwart oder die Anwesenheit zumindest eines Objekts vorgetäuscht wird. Die Beschaffung der Darstellungsdaten ergibt sich dabei aus der Eigenschaft des zumindest einen verwendeten Sensors. In Bilddaten einer Kamera kann ein Bild eines Objekts (Hindernisobjekt und/oder Folgeobjekt) eingeblendet werden. In Radardaten können simulierte oder vorbereitete Reflektionsdaten eines virtuellen Objekts eingeblendet werden und/oder Ultraschalldaten.The display data can be inserted in image data of a camera of the sensor device and / or in radar data of a radar of the sensor device and / or in ultrasound data of an ultrasound sensor of the sensor device. An augmented reality representation is thus generated in each case in image data and / or radar data and / or ultrasound data by simulating the presence or presence of at least one object. The procurement of the display data results from the property of the at least one sensor used. An image of an object (obstacle object and / or following object) can be displayed in image data of a camera. Simulated or prepared reflection data of a virtual object and / or ultrasound data can be displayed in radar data.

Um das erfindungsgemäße Verfahren durchzuführen, also eine Autopiloteinrichtung dahingehend zu beeinflussen, dass sie das Kraftfahrzeug entlang einer Fahrroute führt, ist durch die Erfindung eine Steuervorrichtung für ein Kraftfahrzeug bereitgestellt. Eine solche Steuervorrichtung kann zum Beispiel als Steuergerät des Kraftfahrzeugs ausgestaltet sein. Die Steuervorrichtung weist eine Prozessoreinrichtung auf, die dazu eingerichtet ist, eine Ausführungsform des erfindungsgemäßen Verfahrens durchzuführen. Die Prozessoreinrichtung kann hierzu zumindest einen Mikroprozessor und/oder zumindest einen Mikrocontroller aufweisen. Die Prozessoreinrichtung kann einen Programmcode umfassen, der dazu eingerichtet ist, bei Ausführen durch die Prozessoreinrichtung die Ausführungsform des erfindungsgemäßen Verfahrens durchzuführen. Der Programmcode kann in einem Datenspeicher der Prozessoreinrichtung gespeichert sein.In order to carry out the method according to the invention, that is to say to influence an autopilot device in such a way that it guides the motor vehicle along a driving route, the invention provides a control device for a motor vehicle. Such a control device can be designed, for example, as a control unit of the motor vehicle. The control device has a processor device which is set up to carry out an embodiment of the method according to the invention. For this purpose, the processor device can have at least one microprocessor and / or at least one microcontroller. The processor device can comprise a program code which is set up to carry out the embodiment of the method according to the invention when executed by the processor device. The program code can be stored in a data memory of the processor device.

Zu der Erfindung gehört auch ein Kraftfahrzeug, welches eine Ausführungsform der erfindungsgemäßen Steuervorrichtung aufweist. Das Kraftfahrzeug kann also eine Sensoreinrichtung und Autopiloteinrichtung aufweisen, die über die Steuervorrichtung gekoppelt sind. Alternativ dazu kann die Autopiloteinrichtung Bestandteil der Steuervorrichtung sein.The invention also includes a motor vehicle which has an embodiment of the control device according to the invention. The motor vehicle can thus have a sensor device and an autopilot device which are coupled via the control device. Alternatively, the autopilot device can be part of the control device.

Das erfindungsgemäße Kraftfahrzeug ist bevorzugt als Kraftwagen, insbesondere als Personenkraftwagen oder Lastkraftwagen, ausgestaltet.The motor vehicle according to the invention is preferably designed as a motor vehicle, in particular as a passenger vehicle or truck.

Die Steuervorrichtung kann in dem Kraftfahrzeug in der beschriebenen Weise in die Sensordaten der Sensoreinrichtung die Darstellungsdaten zumindest eines virtuellen Hindernisobjekts und/oder zumindest eines Folgeobjekts einblenden oder einfügen.In the motor vehicle, the control device can display or insert the display data of at least one virtual obstacle object and / or at least one follow-up object in the sensor data of the sensor device in the manner described.

Falls es sich bei dem zumindest einen Hindernisobjekt und/oder zumindest einen Folgeobjekt jeweils um ein solches handelt, das auch in den Sensordaten selbst als reales Objekt vorhanden sein könnte, zum Beispiel ein anderer Verkehrsteilnehmer (Kraftfahrzeug) und/oder eine Mauer oder ein Baum als Hindernisobjekt, so muss die Autopiloteinrichtung nicht weiter angepasst werden. Sie wird auf die Darstellungsdaten, also die künstlich eingeblendeten Abbildungen oder Fotos solcher realer Objekte, in derselben Weise reagieren wie auf die tatsächlichen in der Umgebung erkannten Hindernisobjekte.If the at least one obstacle object and / or at least one subsequent object is one that could also be present in the sensor data itself as a real object, for example another road user (motor vehicle) and / or a wall or a tree as Obstacle object, the autopilot device does not have to be further adapted. It will react to the display data, that is to say the artificially superimposed images or photos of such real objects, in the same way as to the actual obstacle objects recognized in the vicinity.

Um aber auch ein Fantasieobjekt in die Sensordaten einblenden zu können, das der Autopiloteinrichtung in der realen Umgebung nicht begegnen kann, zum Beispiel eine Textur zum Kennzeichnen eines Fahrkorridors oder eines Fahrstreifens, oder ein schwebendes Leitobjekt, wie beispielsweise ein Ball, muss die Autopiloteinrichtung dazu trainiert werden, auch ein solches virtuelles Fantasieobjekt zu erkennen und ein vorgegebenes Steuersignal zu erzeugen, um einem solchen virtuellen Hindernisobjekt auszuweichen und/oder einem solchen Folgeobjekt zu folgen. Auch das Verfolgen eines Folgeobjekts muss einer Autopiloteinrichtung erst antrainiert werden.However, in order to be able to fade in a fantasy object in the sensor data that the autopilot device cannot encounter in the real environment, for example a texture for identifying a driving corridor or a lane, or a floating guide object such as a ball, the autopilot device must be trained to do so will also be able to recognize such a virtual fantasy object and to generate a predetermined control signal in order to avoid such a virtual obstacle object and / or to follow such a follow-up object. An autopilot device must also first be trained to track a follow-up object.

Hierzu ist durch die Erfindung eine Trainingsvorrichtung für eine Autopiloteinrichtung bereitgestellt, wobei die Trainingsvorrichtung dazu eingerichtet ist, mittels einer Methode des maschinellen Lernens der Autopiloteinrichtung Trainingsdaten, die echte und/oder simulierte vorgefertigte Sensordaten sowie Labeldaten zum Kennzeichnen von in den vorgefertigten Sensordaten abgebildeten Hindernisobjekten enthalten vorzugeben. Dies ist das herkömmliche Training einer Autopiloteinrichtung, um auf reale, in einer Umgebung existierende Hindernisobjekte in der beschriebenen Weise zu reagieren. Die Trainingsvorrichtung ist aber des Weiteren dazu eingerichtet, in die Trainingsdaten auch Darstellungsdaten von zumindest einem virtuellen Hindernisobjekt und/oder von zumindest einem Folgeobjekt einzufügen sowie das zumindest eine virtuelle Hindernisobjekt und/oder das zumindest eine virtuelle Folgeobjekt jeweils kennzeichnende Labeldaten bereitzustellen. Hierdurch muss das zumindest eine virtuelle Hindernisobjekt und/oder das zumindest eine virtuelle Folgeobjekt nicht die Form und/oder das Aussehen eines tatsächlich im Straßenverkehr zu erwartenden Hindernisobjekt oder Folgeobjekt haben. Die Autopiloteinrichtung wird an das Aussehen auch künstlicher Hindernisobjekte und/oder Folgeobjekte trainiert, also an Fantasieobjekte.For this purpose, the invention provides a training device for an autopilot device, the training device being set up to use a machine learning method to provide the autopilot device with training data that contain real and / or simulated prefabricated sensor data and label data for identifying obstacle objects depicted in the prefabricated sensor data . This is the conventional training of an autopilot device in order to react to real obstacle objects existing in an environment in the manner described. The training device is also part of it set up to also insert display data of at least one virtual obstacle object and / or of at least one follow-up object into the training data and provide the at least one virtual obstacle object and / or the at least one virtual follow-up object in each case identifying label data. As a result, the at least one virtual obstacle object and / or the at least one virtual follow-up object need not have the shape and / or the appearance of an obstacle object or follow-up object that is actually to be expected in road traffic. The autopilot device is trained on the appearance of artificial obstacle objects and / or follow-up objects, that is to say on fantasy objects.

Die Trainingsvorrichtung kann zum Beispiel eine Recheneinrichtung sein, die sich nicht im Kraftfahrzeug befinden muss. Die Trainingsvorrichtung ist dabei insbesondere dazu eingerichtet, mittels der Trainingsdaten ein künstliches neuronales Netzwerk des Autopiloten zu trainieren.The training device can be, for example, a computing device that does not have to be located in the motor vehicle. The training device is set up in particular to use the training data to train an artificial neural network of the autopilot.

Als Trainingsmethoden kann zumindest eine Methode des maschinellen Lernens genutzt werden, zum Beispiel überwachtes Lernen (Supervised Learning), unüberwachtes Lernen (Unsupervised Learning), bestärkendes Lernen (Reinforcement Learning).At least one method of machine learning can be used as training method, for example supervised learning, unsupervised learning, reinforcement learning.

Im Folgenden sind Ausführungsbeispiele der Erfindung beschrieben. Hierzu zeigt:

  • 1 eine schematische Darstellung einer Ausführungsform des erfindungsgemäßen Kraftfahrzeugs; und
  • 2 eine schematische Darstellung zur Veranschaulichung einer Ausführungsform des erfindungsgemäßen Verfahrens, das durch eine Steuervorrichtung des Kraftfahrzeugs von 1 durchgeführt werden kann.
Exemplary embodiments of the invention are described below. This shows:
  • 1 a schematic representation of an embodiment of the motor vehicle according to the invention; and
  • 2 a schematic representation to illustrate an embodiment of the method according to the invention, which is carried out by a control device of the motor vehicle from 1 can be carried out.

Bei den im Folgenden erläuterten Ausführungsbeispielen handelt es sich um bevorzugte Ausführungsformen der Erfindung. Bei den Ausführungsbeispielen stellen die beschriebenen Komponenten der Ausführungsformen jeweils einzelne, unabhängig voneinander zu betrachtende Merkmale der Erfindung dar, welche die Erfindung jeweils auch unabhängig voneinander weiterbilden und damit auch einzeln oder in einer anderen als der gezeigten Kombination als Bestandteil der Erfindung anzusehen sind. Des Weiteren sind die beschriebenen Ausführungsformen auch durch weitere der bereits beschriebenen Merkmale der Erfindung ergänzbar.The exemplary embodiments explained below are preferred embodiments of the invention. In the exemplary embodiments, the described components of the embodiments each represent individual features of the invention that are to be considered independently of one another, which also develop the invention independently of one another and are thus also to be regarded as part of the invention individually or in a combination other than the one shown. Furthermore, the described embodiments can also be supplemented by further features of the invention that have already been described.

In den Figuren sind funktionsgleiche Elemente jeweils mit denselben Bezugszeichen versehen.In the figures, functionally identical elements are each provided with the same reference symbols.

1 zeigt ein Kraftfahrzeug 10, bei dem es sich um einen Kraftwagen, insbesondere einem Personenkraftwagen oder Lastkraftwagen, handeln kann. Dargestellt sind eine Sensorvorrichtung 11, eine Steuervorrichtung 12, eine Navigationseinrichtung 13, eine Autopiloteinrichtung 14 und eine abstrakte Repräsentation von Fahrzeug-Führungskomponenten 16, die zum Beispiel eine Lenkung 17, eine Motorsteuerung 18 und/oder eine Bremssteuerung 19 umfassen können. 1 shows a motor vehicle 10 , which can be a motor vehicle, in particular a passenger car or truck. A sensor device is shown 11th , a control device 12th , a navigation device 13th , an autopilot device 14th and an abstract representation of vehicle guidance components 16 who, for example, have a steering system 17th , a motor controller 18th and / or a brake control 19th can include.

Die Autopiloteinrichtung 14 kann für die Fahrzeugkomponenten 16 ein Steuersignal erzeugen, um hierdurch das Fahrzeug 10 automatisiert im Straßenverkehr zu führen. Um zumindest ein Hindernisobjekt 20, beispielsweise einen anderen Verkehrsteilnehmer, also zum Beispiel ein anderes Kraftfahrzeug, in einer Umgebung 21 erkennen zu können und daraufhin das Kraftfahrzeug mittels des Steuersignals 19 kollisionsfrei an dem Hindernisobjekt 20 vorbeiführen zu können, nutzt die Autopiloteinrichtung 14 aus der Sensoreinrichtung 11 bereitgestellte Sensordaten 22. Die Sensordaten 22 können beispielsweise Kameradaten sein.The autopilot facility 14th can for the vehicle components 16 generate a control signal to thereby control the vehicle 10 automated driving in road traffic. To at least one obstacle object 20th , for example another road user, so for example another motor vehicle, in an environment 21 to be able to recognize and then the motor vehicle by means of the control signal 19th collision-free at the obstacle object 20th To be able to drive past, uses the autopilot device 14th from the sensor device 11th provided sensor data 22nd . The sensor data 22nd can be camera data, for example.

Allerdings werden der Autopiloteinrichtung 14 die Sensordaten 22 nicht direkt bereitgestellt. Die Steuervorrichtung 12 kann der Sensoreinrichtung 11 und der Autopiloteinrichtung 14 zwischengeschaltet sein. Alternativ dazu kann die Autopiloteinrichtung 14 Bestandteil der Steuervorrichtung 12 sein. Die Steuervorrichtung 12 fügt in die Steuerdaten 22 zusätzliche Darstellungsdaten 23 ein, sodass sich ergänzte oder manipulierte Sensordaten 22' ergeben. Die Darstellungsdaten 23 können durch die Steuervorrichtung 12 in Abhängigkeit von Fahrroutendaten 24 erzeugt werden, welche eine zum Beispiel durch die Navigationsvorrichtung 13 ermittelte Fahrroute 24' beschreiben oder repräsentieren.However, the autopilot will be 14th the sensor data 22nd not provided directly. The control device 12th can the sensor device 11th and the autopilot device 14th be interposed. Alternatively, the autopilot device 14th Part of the control device 12th be. The control device 12th inserts in the tax data 22nd additional display data 23 a, so that supplemented or manipulated sensor data 22 ' result. The presentation data 23 can through the control device 12th depending on the route data 24 can be generated, which one for example by the navigation device 13th determined route 24 ' describe or represent.

In diesem Zusammenhang ist in 2 dargestellt, wie die Steuervorrichtung 12 aus den Sensordaten 22 durch Einfügen der Darstellungsdaten 23 die manipulierten Sensordaten 22' erzeugen kann. Hierzu ist beispielhaft ein Kamerabild 25 und ein manipuliertes Kamerabild 26 dargestellt. Das Kamerabild kann durch eine Kamera des Kraftfahrzeugs 10 erzeugt sein, die einen in Vorwärtsfahrrichtung vor dem Kraftfahrzeug 10 befindlichen Straßenverkehr erfasst. In Kamerabild 25 können mehrere Hindernisobjekte 27 abgebildet sein, beispielsweise der besagte andere Verkehrsteilnehmer 20.In this context, in 2 shown as the control device 12th from the sensor data 22nd by inserting the display data 23 the manipulated sensor data 22 ' can generate. A camera image is an example of this 25th and a manipulated camera image 26th shown. The camera image can be taken by a camera of the motor vehicle 10 be generated, the one in the forward direction in front of the motor vehicle 10 recorded road traffic. In camera image 25th can have multiple obstacle objects 27 be shown, for example the other road user 20th .

Die Autopiloteinrichtung 14 kann beispielsweise auf der Grundlage eines künstlichen neuronalen Netzwerks KNN das Steuersignal 19 derart erzeugen, dass das Kraftfahrzeug 10 kollisionsfrei an den Hindernisobjekten 27 vorbeigeführt wird. Allerdings kann es dabei nicht gezielt der Fahrroute 24' gemäß den Fahrroutendaten 24 folgen.The autopilot facility 14th can, for example, based on an artificial neural network KNN the control signal 19th generate such that the motor vehicle 10 collision-free at the obstacle objects 27 is passed. However, it cannot target the route 24 ' according to the route data 24 follow.

Die Steuervorrichtung 12 kann deshalb in Abhängigkeit von den Fahrroutendaten 24 zumindest ein künstliches Objekt in das Kamerabild 25 einblenden, sodass sich das manipulierte Kamerabild 26 ergibt. Dies wird durch Einfügen der Darstellungsdaten 23 in die Sensordaten 22 durchgeführt. Es kann zum Beispiel zumindest ein virtuelles Hindernisobjekt 28 eingeblendet werden, welches zum Beispiel einen Fahrkorridor 29 begrenzen kann, innerhalb welchem das Kraftfahrzeug 10 manövriert werden soll. Der Fahrkorridor 29 ist breiter als das Kraftfahrzeug 10, sodass ein in den Fahrkorridor 29 ein dringendes Hindernisobjekts 30 mittels eines Ausweichmanövers durch die Autopiloteinrichtung 14 umfahren werden kann. Zusätzlich oder alternativ zu einem virtuellen Hindernisobjekt 28 kann ein virtuelles Folgeobjekt 31 eingeblendet werden, in dessen Richtung die Autopiloteinrichtung 14 die Fahrmanöver ausrichten kann, um hierdurch dem Folgeobjekt 31 zu folgen. In 2 ist beispielhaft ein schwebender Ball als Folgeobjekt 31 in das manipulierte Kamerabild 26 eingeblendet oder eingefügt. Das Folgeobjekt 31 kann z.B. derart eingeblendet werden, als flöge es vor dem Kraftfahrzeug 10 entlang der Fahrroute 24' her. Als Folgeobjekt 31 kann zusätzlich oder alternativ ein der Fahrkorridor 29 markiert werden, z.B. als farbiger und/oder mit einer Textur versehener Fahrstreifen.The control device 12th can therefore depending on the travel route data 24 at least one artificial object in the camera image 25th fade in so that the manipulated camera image 26th results. This is done by inserting the display data 23 into the sensor data 22nd carried out. For example, there can be at least one virtual obstacle object 28 which, for example, a driving corridor 29 can limit within which the motor vehicle 10 should be maneuvered. The driving corridor 29 is wider than the motor vehicle 10 so one in the corridor 29 an urgent obstacle object 30th by means of an evasive maneuver by the autopilot device 14th can be bypassed. Additionally or alternatively to a virtual obstacle object 28 can be a virtual follow-up object 31 are displayed, in the direction of which the autopilot device 14th the driving maneuver can align to thereby the following object 31 to follow. In 2 is an example of a floating ball as a follow-up object 31 into the manipulated camera image 26th shown or inserted. The follow-up object 31 can for example be faded in as if it were flying in front of the motor vehicle 10 along the route 24 ' here. As a follow-up object 31 can additionally or alternatively be a driving corridor 29 be marked, for example as colored and / or textured lanes.

Das manipulierte Kamerabild 26 enthält somit sowohl Abbildungen realer Hindernisobjekte 27 und/oder der Umgebung 21 als auch künstliche, virtuelle Objekte 28, 31. Damit stellt das manipulierte Kamerabild 26 ein Nähe augmentierte Realität dar.The manipulated camera image 26th thus contains both images of real obstacle objects 27 and / or the environment 21 as well as artificial, virtual objects 28 , 31 . This represents the manipulated camera image 26th a proximity augmented reality.

Durch Einbinden einer Kamera in ein neuronales Netzwerk, insbesondere ein tiefes neuronales Netzwerk, kann also durch geeignete Augmentierung des Kamerabildes 26 eine Steuerung des künstlichen neuronalen Netzes KNN erfolgen.By integrating a camera into a neural network, in particular a deep neural network, it is possible, by suitable augmentation of the camera image 26th a control of the artificial neural network KNN take place.

Augmentierung bedeutet dabei insbesondere die Integration von virtuellen Elementen oder Objekten in ein Kamerabild 26. Entsprechend kann durch eine solche Integration ein Fahrerschlauch oder ein Fahrkorridor 29 oder eine Linie das künstliche neuronale Netzwerk derart beeinflussen, dass eine gewünschte Fahrroute 24' abgefahren wird. Das künstliche neuronale Netzwerk KNN kann hierbei in einem Trainingsvorgang mittels einer Trainingsvorrichtung auf ein gewünschtes Verhalten in Bezug auf ein virtuelles Hindernisobjekt 28 und/oder ein virtuelles Folgeobjekt 31 durch Definieren oder vorgeben entsprechender Labeldaten trainiert oder konfiguriert werden. Somit kann ein Fahrkorridor 29 durch den Straßenverlauf an sich und das Navigationsziel, durch welches die Fahrroute 24' definiertes, festgelegt werden. Das künstliche neuronale Netzwerk KNN lernt dann, den Fahrkorridor 29 nicht zu verlassen oder zu durchqueren. Je nach Navigationsziel wird dann der Fahrkorridor 29 angepasst.Augmentation means in particular the integration of virtual elements or objects in a camera image 26th . Correspondingly, a driver's hose or a driving corridor can be created through such an integration 29 or a line affect the artificial neural network in such a way that a desired route 24 ' is departed. The artificial neural network KNN can use a training device to respond to a desired behavior in relation to a virtual obstacle object in a training process 28 and / or a virtual follow-up object 31 be trained or configured by defining or specifying appropriate label data. Thus, a driving corridor 29 by the course of the road itself and the navigation destination through which the route 24 ' defined, to be determined. The artificial neural network KNN then learns the driving corridor 29 not to leave or traverse. Depending on the navigation destination, the driving corridor then becomes 29 customized.

Da die Augmentierung direkt auf dem Sensorbild oder Kamerabild 25 erfolgt, beeinflusst dies nicht die von dem Fahrer des Kraftfahrzeugs 10 wahrgenommene Umgebung.Because the augmentation is directly on the sensor image or camera image 25th occurs, this does not affect that of the driver of the motor vehicle 10 perceived environment.

Somit können also auch automatisierte oder autonome Fahrvorgänge einer Fahrroute 24' einer Navigationseinrichtung 13 folgen.This means that automated or autonomous driving processes on a route can also be carried out 24 ' a navigation device 13th follow.

Soll das Kraftfahrzeug 10 abbiegen können, kann in das Kamerabild 25 auf Basis der Ego-Position oder Eigenposition des Kraftfahrzeugs 10 ein aus dieser Perspektive dargestelltes virtuelles Element (Hindernisobjekt oder Folgeobjekt) eingeblendet werden. Dem künstliche neuronale Netzwerk KNN wird durch Training in dieser virtuellen Objekte oder Elemente beigebracht, diese nicht zu durchdringen und entsprechend dem Fahrkorridor 29 oder Fahrschlauch zu folgen. Die exakte Gestaltung der virtuellen Elemente ist dabei frei wählbar, da sie dem künstliche neuronale Netzwerk KNN in einer Trainingsphase angelernt werden können.Should the motor vehicle 10 can turn into the camera image 25th based on the ego position or the vehicle's own position 10 a virtual element (obstacle object or following object) shown from this perspective can be displayed. The artificial neural network KNN is taught by training in this virtual objects or elements not to penetrate them and according to the driving corridor 29 or to follow the route path. The exact design of the virtual elements can be freely selected, as they can be taught to the artificial neural network ANN in a training phase.

Insgesamt zeigen die Beispiele, wie durch die Erfindung ein Verfahren zur Routenverfolgung und Navigation während einer autonomen Fahrt mittels künstlichen neuronalen Netzwerken bereitgestellt werden kann.Overall, the examples show how the invention can provide a method for route tracking and navigation during an autonomous journey by means of artificial neural networks.

Claims (10)

Verfahren zum Vorgeben einer Fahrroute (24') in einer auf maschinellem Lernen basierten Autopiloteinrichtung (14) eines Kraftfahrzeugs (10), wobei die Autopiloteinrichtung (14) auf der Grundlage von Sensordaten (22) einer Sensoreinrichtung (11) des Kraftfahrzeugs (10) fahrzeugexterne Hindernisobjekte (20, 27) in einer Umgebung (21) des Kraftfahrzeugs (10) erkennt und das Kraftfahrzeug (10) durch Erzeugen zumindest eines Steuersignals (19) für eine Längsführung und/oder Querführung kollisionsfrei an den Hindernisobjekten (20, 27) vorbeiführt, dadurch gekennzeichnet, dass bei dem Verfahren durch eine Steuervorrichtung (12) jeweilige Darstellungsdaten (23) zumindest eines virtuellen Hindernisobjekts (28) und/oder zumindest eines zu verfolgenden virtuellen Folgeobjekts (31) in die Sensordaten (22) eingefügt werden und hierdurch das zumindest eine virtuelle Hindernisobjekt (27) und/oder das zumindest eine virtuelle Folgeobjekt (31) jeweils in die Sensordaten (22) eingeblendet wird, wobei die Darstellungsdaten (23) in Abhängigkeit von der Fahrroute (24') erzeugt werden.A method for specifying a driving route (24 ') in a machine learning-based autopilot device (14) of a motor vehicle (10), the autopilot device (14) being external to the vehicle based on sensor data (22) from a sensor device (11) of the motor vehicle (10) Detects obstacle objects (20, 27) in an environment (21) of the motor vehicle (10) and guides the motor vehicle (10) past the obstacle objects (20, 27) without collision by generating at least one control signal (19) for longitudinal guidance and / or lateral guidance, characterized in that, in the method, a control device (12) inserts respective display data (23) of at least one virtual obstacle object (28) and / or at least one virtual following object (31) to be tracked into the sensor data (22) and thereby the at least one virtual obstacle object (27) and / or the at least one virtual following object (31) is shown in each case in the sensor data (22), d ie display data (23) are generated as a function of the route (24 '). Verfahren nach Anspruch 1, wobei die Darstellungsdaten (23) in Abhängigkeit von einer vorbestimmten Fahrtrajektorie und/oder in Abhängigkeit von einem Straßenverlauf erzeugt werden.Procedure according to Claim 1 , the display data (23) being generated as a function of a predetermined driving trajectory and / or as a function of the course of the road. Verfahren nach einem der vorhergehenden Ansprüche, wobei als ein jeweiliges virtuelles Hindernisobjekt (28) eine Begrenzung eines die Fahrroute (24') umfassenden Fahrkorridors (29), der breiter als das Kraftfahrzeug (10) ist, und/oder ein Sperrobjekt im Bereich einer zu vermeidenden Fahrtrichtung eingeblendet wird.Method according to one of the preceding claims, wherein as a respective virtual obstacle object (28) a delimitation of a driving corridor (29) comprising the driving route (24 '), which is wider than the motor vehicle (10), and / or a blocking object in the area of a closed avoiding direction of travel is displayed. Verfahren nach einem der vorhergehenden Ansprüche, wobei als ein jeweiliges virtuelles Folgeobjekt (31) ein zu befahrender, die Fahrroute umfassender Fahrstreifen, der breiter als das Kraftfahrzeug (10) ist, und/oder ein vor dem Kraftfahrzeug (10) entlang der Fahrroute (24') bewegtes Leitobjekt eingeblendet wird.Method according to one of the preceding claims, wherein as a respective virtual follow-up object (31) a lane to be driven, encompassing the driving route, which is wider than the motor vehicle (10), and / or a lane in front of the motor vehicle (10) along the driving route (24 ') moving master object is displayed. Verfahren nach einem der vorhergehenden Ansprüche, wobei die Autopiloteinrichtung (14) das zumindest eine Steuersignal (19) mittels eines künstlichen neuronalen Netzwerks (KNN), insbesondere eines tiefen künstlichen neuronalen Netzwerks, erzeugt.Method according to one of the preceding claims, wherein the autopilot device (14) generates the at least one control signal (19) by means of an artificial neural network (ANN), in particular a deep artificial neural network. Verfahren nach einem der vorhergehenden Ansprüche, wobei die Darstellungsdaten (23) in Bilddaten einer Kamera der Sensoreinrichtung (11) und/oder in Radardaten eines Radars der Sensoreinrichtung (11) und/oder in Ultraschalldaten eines Ultraschallsensors der Sensoreinrichtung (11) eingefügt werden.Method according to one of the preceding claims, wherein the display data (23) are inserted into image data from a camera of the sensor device (11) and / or into radar data from a radar from the sensor device (11) and / or into ultrasound data from an ultrasound sensor of the sensor device (11). Steuervorrichtung (14) für ein Kraftfahrzeug (10), wobei die Steuervorrichtung (14) eine Prozessoreinrichtung aufweist, die dazu eingerichtet ist, ein Verfahren nach einem der vorhergehenden Ansprüche durchzuführen.Control device (14) for a motor vehicle (10), wherein the control device (14) has a processor device which is set up to carry out a method according to one of the preceding claims. Kraftfahrzeug (10) mit einer Steuervorrichtung (14) nach Anspruch 7.Motor vehicle (10) with a control device (14) according to Claim 7 . Trainingsvorrichtung für eine Autopiloteinrichtung, wobei die Trainingsvorrichtung dazu eingerichtet ist, mittels einer Methode des maschinellen Lernens in einer Trainingsphase der Autopiloteinrichtung Trainingsdaten, die echte und/oder simulierte vorgefertigte Sensordaten sowie Labeldaten zum Kennzeichnen von in den vorgefertigten Sensordaten abgebildeten Hindernisobjekten enthalten, vorzugeben, dadurch gekennzeichnet, dass die Trainingsvorrichtung dazu eingerichtet ist, in die Trainingsdaten Darstellungsdaten von zumindest einem virtuellen Folgeobjekt einzufügen sowie das zumindest eine virtuelle Folgeobjekt jeweils kennzeichnende Labeldaten bereitzustellen.Training device for an autopilot device, the training device being set up to use a machine learning method in a training phase of the autopilot device to specify training data that contain real and / or simulated prefabricated sensor data and label data for identifying obstacle objects mapped in the prefabricated sensor data, characterized in that that the training device is set up to insert representation data of at least one virtual follow-up object into the training data and to provide label data that characterize the at least one virtual follow-up object. Trainingsvorrichtung nach Anspruch 9, wobei die Trainingsvorrichtung dazu eingerichtet ist, mittels der Trainingsdaten ein künstliches neuronales Netzwerk des Autopiloten zu trainieren.Exercise device according to Claim 9 , wherein the training device is set up to use the training data to train an artificial neural network of the autopilot.
DE102017204983.9A 2017-03-24 2017-03-24 Method for specifying a driving movement in a machine learning-based autopilot device of a motor vehicle and a control device, motor vehicle and training device for an autopilot device Active DE102017204983B4 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102017204983.9A DE102017204983B4 (en) 2017-03-24 2017-03-24 Method for specifying a driving movement in a machine learning-based autopilot device of a motor vehicle and a control device, motor vehicle and training device for an autopilot device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102017204983.9A DE102017204983B4 (en) 2017-03-24 2017-03-24 Method for specifying a driving movement in a machine learning-based autopilot device of a motor vehicle and a control device, motor vehicle and training device for an autopilot device

Publications (2)

Publication Number Publication Date
DE102017204983A1 DE102017204983A1 (en) 2018-09-27
DE102017204983B4 true DE102017204983B4 (en) 2021-12-02

Family

ID=63450518

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102017204983.9A Active DE102017204983B4 (en) 2017-03-24 2017-03-24 Method for specifying a driving movement in a machine learning-based autopilot device of a motor vehicle and a control device, motor vehicle and training device for an autopilot device

Country Status (1)

Country Link
DE (1) DE102017204983B4 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11827241B2 (en) 2018-10-29 2023-11-28 Motional Ad Llc Adjusting lateral clearance for a vehicle using a multi-dimensional envelope
CN110239536B (en) * 2019-05-22 2021-07-23 浙江吉利控股集团有限公司 Lane keeping control method and device and terminal
JP7188279B2 (en) * 2019-05-29 2022-12-13 トヨタ自動車株式会社 Machine learning methods and mobile robots
US11912263B2 (en) * 2020-01-14 2024-02-27 Delphi Technologies Ip Limited System and method for vehicle coast control
DE102021110810A1 (en) 2021-04-27 2022-10-27 Bayerische Motoren Werke Aktiengesellschaft Method, system and computer program for generating data for developing, validating, training and/or operating a vehicle system
DE102021110812A1 (en) 2021-04-27 2022-10-27 Bayerische Motoren Werke Aktiengesellschaft Method, system and computer program for developing, validating, training and/or operating a vehicle system
DE102022122689A1 (en) 2022-09-07 2024-03-07 Bayerische Motoren Werke Aktiengesellschaft Method, device and computer program for developing, securing, training and/or operating a vehicle system

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10358498A1 (en) 2003-12-13 2005-07-07 Daimlerchrysler Ag Driver aid device for predictive control of a vehicle in which actual vehicle data are combined with data in a driving strategy database to permit selection of driver strategy data based on at least one decision criteria
US20130050260A1 (en) 2011-08-26 2013-02-28 Reincloud Corporation Coherent presentation of multiple reality and interaction models
DE102013016488A1 (en) 2013-10-02 2015-04-02 Audi Ag Motor vehicle and method for controlling a motor vehicle
EP2863177A1 (en) 2013-10-18 2015-04-22 AEVO GmbH Method of calculation a path for use in a vehicle
DE102015115666A1 (en) 2014-09-23 2016-03-24 GM Global Technology Operations LLC (n. d. Gesetzen des Staates Delaware) Performance driving system and performance driving method
US20160327953A1 (en) 2015-05-05 2016-11-10 Volvo Car Corporation Method and arrangement for determining safe vehicle trajectories
DE102015215918A1 (en) 2015-08-20 2017-02-23 Continental Teves Ag & Co. Ohg Parking system with interactive trajectory optimization

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10358498A1 (en) 2003-12-13 2005-07-07 Daimlerchrysler Ag Driver aid device for predictive control of a vehicle in which actual vehicle data are combined with data in a driving strategy database to permit selection of driver strategy data based on at least one decision criteria
US20130050260A1 (en) 2011-08-26 2013-02-28 Reincloud Corporation Coherent presentation of multiple reality and interaction models
DE102013016488A1 (en) 2013-10-02 2015-04-02 Audi Ag Motor vehicle and method for controlling a motor vehicle
EP2863177A1 (en) 2013-10-18 2015-04-22 AEVO GmbH Method of calculation a path for use in a vehicle
DE102015115666A1 (en) 2014-09-23 2016-03-24 GM Global Technology Operations LLC (n. d. Gesetzen des Staates Delaware) Performance driving system and performance driving method
US20160327953A1 (en) 2015-05-05 2016-11-10 Volvo Car Corporation Method and arrangement for determining safe vehicle trajectories
DE102015215918A1 (en) 2015-08-20 2017-02-23 Continental Teves Ag & Co. Ohg Parking system with interactive trajectory optimization

Also Published As

Publication number Publication date
DE102017204983A1 (en) 2018-09-27

Similar Documents

Publication Publication Date Title
DE102017204983B4 (en) Method for specifying a driving movement in a machine learning-based autopilot device of a motor vehicle and a control device, motor vehicle and training device for an autopilot device
EP3543059B1 (en) Method for calculating the insertion of additional information for display on a display unit, device for carrying out the method, motor vehicle and computer program
DE102010030213B4 (en) Parking aid system for perpendicular parking spaces
DE102012222301B4 (en) Method of controlling a host vehicle
DE102014008353B4 (en) Method for operating a driver assistance system for the automated guidance of a motor vehicle and associated motor vehicle
DE102016220945A1 (en) Method and device for supporting a maneuvering process of a motor vehicle
DE102015114464A9 (en) Uniform motion planner for an autonomous vehicle while avoiding a moving obstacle
DE102007009745A1 (en) Method for controlling vehicle steering during parking process, involves measuring parking place selected for parking vehicle and establishing orientation field, where orientation field determines number of support points
WO2014161691A1 (en) Method and apparatus for guiding a vehicle in the surroundings of an object
EP3386825A1 (en) Method for identifying a possible collision between a motor vehicle and an object by taking into account a spatial uncertainty, control device, driver assistance system and motor vehicle
DE102008057027A1 (en) Method and system for determining a position and / or orientation of a movable load
DE102015116542A1 (en) Method for determining a parking area for parking a motor vehicle, driver assistance system and motor vehicle
DE102016007899A1 (en) Method for operating a device for traffic situation analysis, motor vehicle and data processing device
DE102012206211A1 (en) Method and device for determining a lane adjustment parameter for a lane keeping system of a vehicle and method and device for tracking a vehicle
DE102020212520B3 (en) Horizontal position definition for the display of virtual objects in a head-up display device
DE102017200218A1 (en) Control unit and method for taking into account obstacles in a reversing assistance system
DE102020114837A1 (en) Computer-implemented method for trajectory planning for a vehicle
DE102019107224A1 (en) Driving assistance procedures
DE102016117743A1 (en) Method for evaluating a driving behavior of a driver of a motor vehicle during a parking maneuver, driver assistance system and motor vehicle
DE102020127206A1 (en) PROCESS AND SYSTEM FOR THE JOINT USE OF SENSORS FOR AUTONOMOUS LANE CHANGE
DE102014214507A1 (en) Method for creating an environment model of a vehicle
DE102014214505A1 (en) Method for creating an environment model of a vehicle
DE112020003551T5 (en) Road curve generation in real-world images as a data augmentation method
DE102015211079A1 (en) Display of the wheel track of a vehicle
WO2022106336A1 (en) Method for controlling a motor vehicle, and control device

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final