DE102018116036A1 - Training a deep convolutional neural network for individual routes - Google Patents

Training a deep convolutional neural network for individual routes Download PDF

Info

Publication number
DE102018116036A1
DE102018116036A1 DE102018116036.4A DE102018116036A DE102018116036A1 DE 102018116036 A1 DE102018116036 A1 DE 102018116036A1 DE 102018116036 A DE102018116036 A DE 102018116036A DE 102018116036 A1 DE102018116036 A1 DE 102018116036A1
Authority
DE
Germany
Prior art keywords
route
data
training data
neural network
convolutional neural
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102018116036.4A
Other languages
German (de)
Inventor
Swaroop Kaggere Shivamurthy
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Connaught Electronics Ltd
Original Assignee
Connaught Electronics Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Connaught Electronics Ltd filed Critical Connaught Electronics Ltd
Priority to DE102018116036.4A priority Critical patent/DE102018116036A1/en
Priority to PCT/EP2019/065629 priority patent/WO2020007589A1/en
Publication of DE102018116036A1 publication Critical patent/DE102018116036A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • G06F18/24137Distances to cluster centroïds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Abstract

Die vorliegende Erfindung betrifft ein Verfahren zum Trainieren eines tiefen konvolutionellen neuronalen Netzwerks zum Verarbeiten von Bilddaten zur Anwendung in einem Fahrunterstützungssystem eines Fahrzeugs unter Verwendung von Trainingsdaten, die Routeninformation enthalten, mit den Schritten zum Bereitstellen eines anfangs trainierten tiefen konvolutionellen neuronalen Netzwerks mit allgemeinem Modelldaten, Bereitstellen eines Satzes annotierter Trainingsdaten, die Routeninformation enthalten, Einrichten des tiefen konvolutionellen neuronalen Netzwerks mit der Route zugeordneten individuellen Modelldaten basierend auf den allgemeinen Modelldaten, Ausführen eines Trainingsschritts des tiefen konvolutionellen neuronalen Netzwerks mit den der Route zugeordneten individuellen Modelldaten unter Verwendung des jeweiligen Satzes annotierter Trainingsdaten und Speichern der der Route zugeordneten individuellen Modelldaten des tiefen konvolutionellen neuronalen Netzwerks. Die vorliegende Erfindung betrifft auch ein Verfahren zum Anwenden eines tiefen konvolutionellen neuronalen Netzwerks zum Verarbeiten von Bilddaten in einem Fahrunterstützungssystem eines Fahrzeugs basierend auf Routeninformation einer gewünschten Route, mit den Schritten zum Identifizieren der Route, Einrichten des tiefen konvolutionellen neuronalen Netzwerks mit der Route zugeordneten individuellen Modelldaten und Verarbeiten der Bilddaten, die beim Fahren entlang der Route erfasst werden, unter Verwendung des tiefen konvolutionellen neuronalen Netzwerks mit der Route zugeordneten individuellen Modelldaten. Die vorliegende Erfindung betrifft des Weiteren ein Fahrunterstützungssystem zum Ausführen eines der vorstehenden Verfahren.

Figure DE102018116036A1_0000
The present invention relates to a method for training a deep convolutional neural network for processing image data for use in a driving support system of a vehicle using training data which contain route information, with the steps of providing an initially trained deep convolutional neural network with general model data a set of annotated training data containing route information, setting up the deep convolutional neural network with the individual model data assigned to the route based on the general model data, performing a training step of the deep convolutional neural network with the individual model data assigned to the route using the respective set of annotated training data and Storage of the individual model data of the deep convolutional neural network assigned to the route. The present invention also relates to a method for using a deep convolutional neural network for processing image data in a driving support system of a vehicle based on route information of a desired route, with the steps for identifying the route, setting up the deep convolutional neural network with the individual model data assigned to the route and processing the image data acquired while driving along the route using the deep convolutional neural network with individual model data associated with the route. The present invention further relates to a driving support system for performing one of the above methods.
Figure DE102018116036A1_0000

Description

Die vorliegende Erfindung betrifft ein Verfahren zum Trainieren eines tiefen konvolutionellen neuronalen Netzwerks zum Verarbeiten von Bilddaten zur Anwendung in einem Fahrunterstützungssystem eines Fahrzeugs unter Verwendung von Trainingsdaten, die Routeninformation enthalten, mit den Schritten zum Bereitstellen eines anfänglich trainierten tiefen konvolutionellen neuronalen Netzwerks mit allgemeinen Modelldaten und Bereitstellen eines Satzes annotierter Trainingsdaten, die Routeninformation enthalten.The present invention relates to a method for training a deep convolutional neural network for processing image data for use in a driving support system of a vehicle using training data containing route information, with the steps of providing an initially trained deep convolutional neural network with general model data and providing it a set of annotated training data containing route information.

Auch betrifft die vorliegende Erfindung ein Verfahren zum Anwenden eines tiefen konvolutionellen neuronalen Netzwerks zum Verarbeiten von Bilddaten in einem Fahrunterstützungssystem eines Fahrzeugs basierend auf Routeninformation einer gewünschten Route.The present invention also relates to a method for using a deep convolutional neural network for processing image data in a driving support system of a vehicle based on route information of a desired route.

Des Weiteren betrifft die vorliegende Erfindung ein Fahrunterstützungssystem zum Ausführen eines beliebigen der obigen Verfahren.The present invention further relates to a driving support system for performing any of the above methods.

Autonomes und semi-autonomes Fahren werden in der Automobilindustrie immer wichtiger. Prototypen für autonomes Fahren werden bereits entwickelt und erprobt, teilweise sogar unter realen Fahrsituationen. Autonomes Fahren wird als eine bahnbrechende Technologie im Automobilsektor betrachtet.Autonomous and semi-autonomous driving are becoming increasingly important in the automotive industry. Prototypes for autonomous driving are already being developed and tested, sometimes even under real driving situations. Autonomous driving is seen as a breakthrough technology in the automotive sector.

Autonomes und semi-autonomes Fahren basiert auf der Kenntnis der Umgebung des Fahrzeugs. Basierend auf dieser Kenntnis kann das Fahrunterstützungssystem z.B. Gefahren für das Fahrzeug oder dritte Parteien identifizieren und auf eine geeignete Art agieren, um gefährliche Fahrsituationen zu entschärfen. Zu diesem Zweck werden verschiedene Arten von Umgebungssensoren in Fahrzeugen verbaut, um die Umgebung des Fahrzeugs zu überwachen. Solche Umgebungssensoren können beliebige Kombinationen von Sensoren aus Ultraschallsensoren, Sensoren auf LIDAR-Basis, Radarsensoren oder optischen Kameras aufweisen.Autonomous and semi-autonomous driving is based on knowledge of the surroundings of the vehicle. Based on this knowledge, the driving support system can e.g. Identify dangers to the vehicle or third parties and act in a suitable way to defuse dangerous driving situations. For this purpose, various types of environmental sensors are installed in vehicles to monitor the surroundings of the vehicle. Such environmental sensors can have any combination of sensors from ultrasonic sensors, LIDAR-based sensors, radar sensors or optical cameras.

Die Verarbeitung von Bilddaten einer optischen Kamera und insbesondere von Videodaten, die eine Folge von vielen Bildern pro Sekunde enthalten, ist eine herausfordernde Aufgabe. Processing image data from an optical camera, and particularly video data that contains a sequence of many images per second, is a challenging task.

Es muss eine gewaltige Datenmenge in Echtzeit verarbeitet werden, um die Umgebung des Fahrzeugs zuverlässig zu erfassen. Die Datenverarbeitungsressourcen des Fahrzeugs sind aber hinsichtlich des Raums zum Aufnehmen der Verarbeitungseinheiten und auch hinsichtlich der verfügbaren elektrischen Leistung begrenzt. Selbst wenn diese technischen Probleme gelöst wären, so bleibt der Preis für die Ressourcen begrenzt, um Fahrzeuge zu einem vertretbaren Preis anbieten zu können.A huge amount of data has to be processed in real time in order to reliably record the surroundings of the vehicle. However, the data processing resources of the vehicle are limited in terms of the space for accommodating the processing units and also in terms of the available electrical power. Even if these technical problems were solved, the price for the resources would remain limited in order to be able to offer vehicles at a reasonable price.

Neuronale Netzwerke sind ein sehr effektives Mittel zum Verarbeiten von Bilddaten. Anwendungen neuronaler Netzwerke zur Bildverarbeitung basieren typischerweise auf konvolutionellen neuronalen Netzwerken (Convolutional Neural Networks, CNNs) und insbesondere auf tiefen konvolutionellen neuronalen Netzwerken (Deep Convolutional Neural Networks, DCNNs). Die Verwendung derartiger Netzwerktypen hat vielversprechende Ergebnisse bei akzeptablem Preis gezeigt.Neural networks are a very effective means of processing image data. Applications of neural networks for image processing are typically based on convolutional neural networks (CNNs) and in particular on deep convolutional neural networks (DCNNs). The use of such network types has shown promising results at an acceptable price.

Bei der Nutzung tiefer konvolutioneller neuronaler Netzwerke stellen sich bei der Entwicklung geeigneter Strukturen neuronaler Netzwerke, insbesondere bei der Entwicklung von Grund auf, einige Fragen. Diese beinhalteten, um nur einige zu nennen, eine Definition eines geeigneten neuronalen Netzwerktyps, das Bestimmen einer Anzahl und einer Position von Eingaben, das Bestimmen einer Anzahl verborgener Schichten (Hidden Layers), die bei einem tiefen konvolutionellen neuronalen Netzwerk verwendet werden sollen, und das Bestimmen einer Anzahl erforderlicher Ausgangsneuronen. Diese Fragen sind wichtig, da im Falle eines zu großen/zu kleinen neuronalen Netzwerks das neuronale Netzwerk möglicherweise die Bilddaten über- bzw. unterbestimmen könnte. Infolgedessen würde das neuronale Netzwerk nicht in geeigneter Weise lernen anhand bereitgestellter Trainingsdaten geeignet zu generalisieren. In solchen Fällen kann, auch wenn der Fehler bei den Trainingsdaten auf einen sehr kleinen Wert unterdrückt wird, der Fehler zu groß sein, wenn dem neuronalen Netzwerk neue Bilddaten, d.h. von den zuvor zum Trainieren des neuronalen Netzwerks verwendeten Trainingsdaten verschiedene Bilddaten, präsentiert werden. In diesem Fall hat das neuronale Netzwerk die Trainingsdaten gespeichert, aber es hat nicht gelernt, anhand der bereitgestellten Trainingsdaten zu generalisieren, was für derartige neue Situationen mit neuen Bilddaten aber nötig wäre. Aufgrund dessen ist bei der Verwendung derartiger neuronaler Netzwerke ein geeignetes Training mit geeigneten Trainingsdaten extrem wichtig, die auf verschiedene neuronale Netzwerke angewendet werden können, um die Leistungsfähigkeit der verschiedenen neuronalen Netzwerke zu bewerten und miteinander zu vergleichen.When using deep convolutional neural networks, some questions arise in the development of suitable structures of neural networks, especially in the development from scratch. These included, to name a few, a definition of a suitable neural network type, the determination of a number and a position of inputs, the determination of a number of hidden layers to be used in a deep convolutional neural network, and that Determine a number of required output neurons. These questions are important because if the neural network is too large / too small, the neural network could possibly over- or under-determine the image data. As a result, the neural network would not learn appropriately to generalize appropriately from the training data provided. In such cases, even if the error in the training data is suppressed to a very small value, the error may be too large when new image data, i.e. different image data from the training data previously used for training the neural network are presented. In this case, the neural network has saved the training data, but has not learned to generalize from the training data provided, which would be necessary for such new situations with new image data. Because of this, when using such neural networks, suitable training with suitable training data that can be applied to different neural networks is extremely important in order to evaluate and compare the performance of the different neural networks.

Viele Firmen sind ständig damit beschäftigt, ihre eigenen Verfahren und Systeme weiterzuentwickeln, um autonome und semi-autonome Fahranwendungen zu ermöglichen, wie z.B. eine Autopilot-Funktion, die in anstehenden Hardware-Generationen in ihren Fahrzeugen eingesetzt werden soll. Die Nutzung neuronaler Netzwerke in autonomen oder semi-autonomen Fahranwendungen hängt jedoch von der Bereitstellung eines geeignet trainierten neuronalen Netzwerks ab, das in den Fahrzeugen genutzt werden kann. Daher ist die Verfügbarkeit geeigneter Trainingsdaten eine wesentliche Basis für autonome und semi-autonome Fahranwendungen. Daher sammeln Firmen, die mit der Entwicklung solcher autonomen und semi-autonomen Fahranwendungen befasst sind, ständig Bilddaten mit ihrer Fahrzeugflotte, die unter verschiedenen Bedingungen, z.B. Umgebungsbedingungen, Verkehrsbedingungen und dergleichen, auf Straßen unterwegs sind. Unglücklicherweise sind, um die Bilddaten als Trainingsdaten verwenden zu können, Annotationen erforderlich, die typischerweise durch einen Menschen erstellt werden. Daher ist das Annotieren der Bilddaten sehr zeitaufwändig und teuer.Many companies are constantly developing their own processes and systems to enable autonomous and semi-autonomous driving applications, such as an autopilot function that is to be used in upcoming hardware generations in their vehicles. However, the use of neural networks in autonomous or semi-autonomous driving applications depends on the provision of one trained neural network that can be used in the vehicles. Therefore, the availability of suitable training data is an essential basis for autonomous and semi-autonomous driving applications. For this reason, companies that are involved in the development of such autonomous and semi-autonomous driving applications are constantly collecting image data with their vehicle fleet that are on the road under various conditions, for example environmental conditions, traffic conditions and the like. Unfortunately, in order to use the image data as training data, annotations are typically required that are created by a human. Annotating the image data is therefore very time-consuming and expensive.

Darüber hinaus spielt die Datensammlung eine tragende Rolle beim Aufbau neuronaler Netzwerke. Wenn die Trainingsdaten zu umfangreich sind, könnte das neuronale Netzwerk beim Lernen auf einen gewünschten Genauigkeitsgrad hin Probleme haben. Daher wünscht sich der Designer z.B. die signifikantesten Elemente der Trainingsdaten aus dem gesamten Trainingsdatensatz zu identifizieren. Diese signifikanten Trainingsdaten können Bilder betreffen, die eine große Anzahl zu erfassender Merkmale enthalten. Entsprechend werden nur diese signifikantesten Elemente der Trainingsdaten für das Training des neuronalen Netzwerkes verwendet, und unwesentliche Trainingsdaten werden aus dem Trainingsdatensatz entfernt.In addition, data collection plays a key role in building neural networks. If the training data is too extensive, the neural network could have problems learning to a desired level of accuracy. Therefore, the designer wants e.g. identify the most significant elements of the training data from the entire training data set. This significant training data can relate to images that contain a large number of features to be recorded. Accordingly, only these most significant elements of the training data are used for training the neural network, and insignificant training data are removed from the training data record.

Eine Fahrunterstützung ist am meisten für die eintönigsten Fahrwege erwünscht. Dies betrifft insbesondere Fahrtrouten, die häufig gefahren werden, manchmal sogar täglich. Solche häufigen Pendelwege beinhalten beispielsweise eine Strecke von zu Hause zu einem Büro oder vom Büro nach Hause, eine Strecke von zu Hause zu einem Supermarkt, eine Strecke von zu Hause zu einem Park usw. Da dies die am häufigsten gefahrenen Strecken sind, ereignen sich die meisten Unfälle auf diesen Strecken, und es besteht ein erhöhter Bedarf, auch die häufigen Pendelwege sicher zu fahren. Darüber hinaus langweilen diese häufigen Pendelwege möglicherweise einen Fahrer oder Besitzer des Fahrzeugs, so dass autonome Fahrfunktionen, insbesondere eine Autopilotfunktion, zum Fahren des Fahrzeugs hochgradig erwünscht sind.Driving assistance is most desirable for the most monotonous routes. This applies in particular to routes that are driven frequently, sometimes even daily. Such frequent commuting routes include, for example, a route from home to an office or from home to office, a route from home to a supermarket, a route from home to a park, etc. Since these are the most frequently traveled routes, they occur most accidents on these routes, and there is an increased need to drive the frequent commuting routes safely. In addition, these frequent commuting routes may bore a driver or owner of the vehicle, so autonomous driving functions, particularly an autopilot function, are highly desirable for driving the vehicle.

Daher ist es äußerst wichtig, zu ermöglichen, dass diese Pendelwege autonom und sicher gefahren werden können.It is therefore extremely important to enable these commuting routes to be driven autonomously and safely.

In diesem Zusammenhang betrifft das Dokument EP 2213980 B1 ein Verfahren zum Betreiben eines Navigationsgeräts eines Kraftfahrzeugs. Das Navigationsgerät bestimmt die Position und/oder die Fahrtroute des Kraftfahrzeugs anhand von auf der Kraftfahrzeugseite verfügbaren geografischen Basisdaten. Von den Sensordaten mindestens einer fahrzeugseitigen Sensoreinrichtung wird mindestens eine geographische Information über einen Bereich der Kraftfahrzeugumgebung bestimmt. Die mindestens eine geographische Information wird in einer Speichereinrichtung als ein zusätzliches geografisches Datenelement gespeichert und verwendet, um die geografischen Basisdaten zu ergänzen und/oder zu aktualisieren.In this context, the document concerns EP 2213980 B1 a method for operating a navigation device of a motor vehicle. The navigation device determines the position and / or the travel route of the motor vehicle on the basis of geographic basic data available on the motor vehicle side. At least one geographical item of information about a region of the motor vehicle environment is determined from the sensor data of at least one vehicle-side sensor device. The at least one geographic information is stored in a storage device as an additional geographic data element and used to supplement and / or update the geographic basic data.

Das Dokument DE 10030932 A1 betrifft ein Verfahren, bei dem ein Fahrzeug mit einem Positionsbestimmungssystem seine Position über eine Route aufzeichnet und in einem Speicher speichert. Die gemessene Route wird an eine Datenbank übertragen, und ein Computer verarbeitet die Daten, idealerweise mit anderen Fahrzeugdaten, um die Daten zu prüfen und statistisch zu analysieren, um eine überarbeitete Straßenkarte zu erhalten. Letztere kann dann über Telekommunikation an Benutzer übertragen werden.The document DE 10030932 A1 relates to a method in which a vehicle with a position determination system records its position via a route and stores it in a memory. The measured route is transferred to a database, and a computer processes the data, ideally with other vehicle data, to check the data and analyze it statistically in order to obtain a revised road map. The latter can then be transmitted to users via telecommunications.

Gemäß der DE 10258470 B4 weist ein Navigationssystem für ein Kraftfahrzeug eine Datenbank mit einer digitalen Karte und einer Positionserfassungseinheit auf. Das Fahrzeug hat auch eine Geräteausstattung zum Erfassen von Fahrzeugbetriebsparametern und/oder seiner Umgebung. Diese Parameter können verwendet werden, um Information über den Typ einer Straße und/oder ihre Richtung herzuleiten. Diese Information wird dann mit verfügbaren Daten verglichen, die von den digitalen Kartendaten hergeleitet sind, und kann verwendet werden, um die Datenbank bei Bedarf zu aktualisieren. Die Navigationsdatenbank des Kraftfahrzeugs wird unter Verwendung eines Lernverfahrens aktualisiert, bei dem erfasste Fahrzeugdaten verwendet werden, um vorliegende Datenbankdaten zu aktualisieren.According to the DE 10258470 B4 A navigation system for a motor vehicle has a database with a digital map and a position detection unit. The vehicle also has equipment for sensing vehicle operating parameters and / or its surroundings. These parameters can be used to derive information about the type of road and / or its direction. This information is then compared to available data derived from the digital map data and can be used to update the database if necessary. The navigation database of the motor vehicle is updated using a learning method in which acquired vehicle data are used to update existing database data.

Das Dokument DE 10354910 B4 betrifft ein selbststeuerndes Fahrsystem für eine Schnellstraße und ein Verfahren zu seiner Steuerung. Eine Vielzahl von Verkehrsschildern sind nacheinander an der linken und an der rechten Seite der Schnellstraße installiert. Eine bildgebende Einrichtung bildet die entlang der Schnellstraße angeordneten Verkehrsschilder ab. Ein Bildprozessor analysiert mindestens ein Bild, unterscheidet die Straßenschilder und liest die in den Straßenschildern enthaltenen Zeicheninhalte. Eine Navigationsdatenbank speichert Karteninformation der Schnellstraße. Eine elektronische Steuereinheit auf der Basis künstlicher Intelligenz bestimmt eine aktuelle Position und einen Straßenzustand auf der Basis der in der Navigationsdatenbank gespeicherten Karteninformation und der durch den Bildprozessor gelesenen Zeicheninhalte. Eine integrierte ECU steuert einen Lenkvorgang, einen Geschwindigkeitsverminderungs-/-erhöhungsvorgang und andere Vorgänge, die mit dem selbststeuernden Fahrbetrieb in Beziehung stehen, gemäß einem Ergebnis der Bestimmung.The document DE 10354910 B4 relates to a self-controlling driving system for an expressway and a method for its control. A large number of traffic signs are installed one after the other on the left and on the right side of the expressway. An imaging device depicts the traffic signs arranged along the expressway. An image processor analyzes at least one image, distinguishes the street signs and reads the contents of the signs contained in the street signs. A navigation database stores map information of the expressway. An electronic control unit based on artificial intelligence determines a current position and a road condition on the basis of the map information stored in the navigation database and the character contents read by the image processor. An integrated ECU controls a steering operation, a speed reduction / increase operation and other operations associated with the self-driving operation related, according to a result of the determination.

Das Dokument DE 19916967 C1 betrifft ein Verfahren zum Aktualisieren einer datenverarbeitungsunterstützten Verkehrsroutennetzkarte, die Routendaten über ein Verkehrsroutennetzwerk und zugeordnete Attributdaten enthält. Mittels mindestens eines Testfahrzeugs werden aktuelle Routen- und Attributdaten aus dem jeweiligen befahrbaren Abschnitt der Route aufgezeichnet, und anhand dieser aufgezeichneten Daten wird die Verkehrsroutennetzkarte aktualisiert.The document DE 19916967 C1 relates to a method for updating a data processing-supported traffic route network map which contains route data about a traffic route network and associated attribute data. Using at least one test vehicle, current route and attribute data from the respective passable section of the route are recorded, and the traffic route network map is updated on the basis of this recorded data.

Das Dokument DE 10 2013 211696 A1 betrifft ein Verfahren zum Vervollständigen und/oder Aktualisieren einer digitalen Straßenkarte, mit den Schritten: a) Erfassen eines digitalen Bildes eines Streckenabschnitts mittels einer Kamera eines sich auf dem Streckenabschnitt befindenden Kraftfahrzeugs; b) Bestimmen einer aktuellen Position des Kraftfahrzeugs in Breitenrichtung des Spurabschnitts und/oder mindestens einer Eigenschaft des Spurabschnitts basierend auf dem Bild mittels einer Recheneinrichtung des Kraftfahrzeugs; und c) Übertragen eines Datensatzes, der Information über eine geografische Position der Aufnahme des Bildes und Information über die mindestens eine bestimmte Eigenschaft des Streckenabschnitts und/oder die Position in der Breitenrichtung enthält, an einen Server. Die Schritte a) bis c) werden durch mehrere Kraftfahrzeuge in dem Bereich ausgeführt, und die digitale Straßenkarte wird anhand der empfangenen Datensätze mittels des Servers vervollständigt und/oder aktualisiert.The document DE 10 2013 211696 A1 relates to a method for completing and / or updating a digital road map, comprising the steps of: a) capturing a digital image of a route section using a camera of a motor vehicle located on the route section; b) determining a current position of the motor vehicle in the width direction of the track section and / or at least one property of the track section based on the image by means of a computing device of the motor vehicle; and c) transmitting to a server a data record which contains information about a geographical position of the image and information about the at least one specific property of the route section and / or the position in the width direction. Steps a) to c) are carried out by several motor vehicles in the area, and the digital road map is completed and / or updated on the basis of the received data records by means of the server.

Das Dokument DE 10 2015 010542 A1 betrifft ein Verfahren zum Erzeugen einer digitalen Umgebungskarte für ein Fahrzeug, wobei mittels Umgebungssensoren des Fahrzeugs und/oder mindestens eines weiteren Fahrzeugs eine Umgebungserfassung ausgeführt wird. Basierend auf erfassten Sensordaten wird Karteninformation erzeugt, die in der Umgebungskarte gespeichert wird. Die Umgebungskarte wird automatisch aktualisiert, wobei in der Umgebung angeordnete Objekte und/oder Hindernisse mittels mindestens eines Umgebungssensors des Fahrzeugs und/oder des mindestens einen weiteren Fahrzeugs erfasst werden. Während des Erfassens der Objekte und/oder Hindernisse wird eine durch das Fahrzeug und/oder das mindestens eine weitere Fahrzeug tatsächlich gefahrene Route erfasst. In Abhängigkeit von einem Vergleich von Positionen der tatsächlich gefahrenen Route mit Positionen einer Route in der Bereichskarte wird aktualisierte Karteninformation erzeugt und in der Bereichskarte gespeichert.The document DE 10 2015 010542 A1 relates to a method for generating a digital environment map for a vehicle, an environment detection being carried out by means of environment sensors of the vehicle and / or at least one further vehicle. Based on acquired sensor data, map information is generated which is stored in the area map. The environment map is updated automatically, objects and / or obstacles arranged in the environment being detected by means of at least one environment sensor of the vehicle and / or the at least one further vehicle. During the detection of the objects and / or obstacles, a route actually driven by the vehicle and / or the at least one further vehicle is recorded. Depending on a comparison of positions of the route actually traveled with positions of a route in the area map, updated map information is generated and stored in the area map.

Der vorliegenden Erfindung liegt die Aufgabe zugrunde, ein Verfahren zum Trainieren eines tiefen konvolutionellen neuronalen Netzwerks zum Verarbeiten von Bilddaten zur Anwendung in einem Fahrunterstützungssystem eines Fahrzeugs unter Verwendung von Trainingsdaten, die Routeninformation enthalten, ein Verfahren zum Anwenden eines tiefen konvolutionellen neuronalen Netzwerks zum Verarbeiten von Bilddaten in einem Fahrunterstützungssystem eines Fahrzeugs basierend auf Routeninformation einer gewünschten Route und ein Fahrunterstützungssystem zum Ausführen eines beliebigen der vorstehenden Verfahren des oben genannten Typs anzugeben, die ein effizientes Trainieren eines tiefen konvolutionellen neuronalen Netzwerks ermöglichen und die Leistungsfähigkeit bei Anwendung des tiefen konvolutionellen neuronalen Netzwerks verbessern. Es ist eine weitere Aufgabe, ein effizientes Training eines in einem Fahrzeug oder in einem Fahrunterstützungssystem installierten DCNN zu ermöglichen.The present invention has for its object to provide a method for training a deep convolutional neural network for processing image data for use in a driving support system of a vehicle using training data which contain route information, a method for applying a deep convolutional neural network for processing image data in a driving support system of a vehicle based on route information of a desired route and a driving support system for executing any of the above methods of the above-mentioned type, which enable efficient training of a deep convolutional neural network and improve the performance using the deep convolutional neural network. Another task is to enable efficient training of a DCNN installed in a vehicle or in a driving support system.

Die Lösung dieser Aufgabe erfolgt durch die unabhängigen Ansprüche. Vorteilhafte Ausgestaltungen sind in den Unteransprüchen angegeben.This task is solved by the independent claims. Advantageous refinements are specified in the subclaims.

Insbesondere ist durch die vorliegende Erfindung ein Verfahren zum Trainieren eines tiefen konvolutionellen neuronalen Netzwerks zum Verarbeiten von Bilddaten zur Anwendung in einem Fahrunterstützungssystem eines Fahrzeugs unter Verwendung von Trainingsdaten, die Routeninformation enthalten angegeben, mit den Schritten zum Bereitstellen eines anfänglich trainierten tiefen konvolutionellen Netzwerks mit allgemeinen Modelldaten, Bereitstellen eines Satzes annotierter Trainingsdaten, die Routeninformation enthalten, Einrichten des tiefen konvolutionellen neuronalen Netzwerks mit der Route zugeordneten individuellen Modelldaten basierend auf den allgemeinen Modelldaten, Ausführen eines Trainingsschritts des tiefen konvolutionellen neuronalen Netzwerks mit den der Route zugeordneten individuellen Modelldaten unter Verwendung des jeweiligen Satzes annotierter Trainingsdaten, und Speichern der der Route zugeordneten individuellen Modelldaten des tiefen konvolutionellen neuronalen Netzwerks.In particular, the present invention provides a method for training a deep convolutional neural network for processing image data for use in a driving support system of a vehicle using training data containing route information, with the steps for providing an initially trained deep convolutional network with general model data Providing a set of annotated training data containing route information, setting up the deep convolutional neural network with the individual model data assigned to the route based on the general model data, performing a training step of the deep convolutional neural network with the individual model data assigned to the route using the respective set of annotated Training data, and storing the individual model data of the deep convolutional neural network assigned to the route ,

Durch die vorliegende Erfindung ist auch ein Verfahren zum Anwenden eines tiefen konvolutionellen neuronalen Netzwerks zum Verarbeiten von Bilddaten in einem Fahrunterstützungssystem eines Fahrzeugs basierend auf Routeninformation einer gewünschten Route angegeben, mit den Schritten zum Identifizieren der Route, Einrichten des tiefen konvolutionellen neuronalen Netzwerks mit der Route zugeordneten individuellen Modelldaten und Verarbeiten der Bilddaten, die beim Fahren entlang der Route erfasst werden, unter Verwendung des tiefen konvolutionellen neuronalen Netzwerks mit der Route zugeordneten individuellen Modelldaten.The present invention also provides a method for using a deep convolutional neural network for processing image data in a driving support system of a vehicle based on route information of a desired route, with the steps for identifying the route and establishing the deep convolutional neural network associated with the route individual model data and processing the image data acquired while driving along the route using the deep convolutional neural network with the individual model data associated with the route.

Durch die vorliegende Erfindung ist ferner ein Fahrunterstützungssystem zum Ausführen eines beliebigen der obigen Verfahren angegeben. The present invention further provides a driving support system for performing any of the above methods.

Grundidee der Erfindung ist es, eine einfache, aber effiziente Verbesserung für tiefe konvolutionelle neuronale Netzwerke (DCNN) bereitzustellen, insbesondere für alltägliche Fahrsituationen, die sich auf wiederholtes Befahren gleicher Wege beziehen und auch als Pendelwege bezeichnet werden. Solche Pendelwege weisen beispielsweise eine Route von zu Hause zu einem Büro oder vom Büro nach Hause, eine Route von zu Hause zu einem Supermarkt, eine Route von zu Hause zu einem Park usw. auf. Daher wird für diese Routen ein individuelles Training des tiefen konvolutionellen neuronalen Netzwerks ausgeführt, so dass der Trainingsschritt entsprechende Modelldaten für das tiefe konvolutionelle neuronale Netzwerk bereitstellt, die zum Befahren dieser Routen in hohem Maße geeignet sind. Mit dem speziellen Training des DCNN für diese Routen, die einen Großteil des Fahrbetriebs des Fahrzeugs abdecken, können Unfälle auf diesen Strecken besser vermieden werden. Dies ist umso wichtiger, da das Fahren entlang dieser Routen von Menschen, z.B. vom Besitzer oder Fahrer des Fahrzeugs, als langweilig angesehen wird. Die Aufmerksamkeit des Fahrers oder Besitzers des Fahrzeugs nimmt häufig ab, wenn er gelangweilt ist, so dass auch autonome Funktionen, insbesondere eine Autopilotfunktion für autonomes Fahren, hochgradig erwünscht sind, um die Verkehrssicherheit zu erhöhen.The basic idea of the invention is to provide a simple but efficient improvement for deep convolutional neural networks (DCNN), in particular for everyday driving situations which relate to repeated use of the same routes and are also referred to as commuting routes. Such commuting routes include, for example, a route from home to an office or from office to home, a route from home to a supermarket, a route from home to a park, etc. An individual training of the deep convolutional neural network is therefore carried out for these routes, so that the training step provides corresponding model data for the deep convolutional neural network that are highly suitable for driving on these routes. With the special training of the DCNN for these routes, which cover a large part of the driving of the vehicle, accidents on these routes can be better avoided. This is all the more important because driving along these routes is done by people, e.g. by the owner or driver of the vehicle is considered boring. The attention of the driver or owner of the vehicle often decreases when he is bored, so that autonomous functions, in particular an autopilot function for autonomous driving, are also highly desirable in order to increase traffic safety.

Das neuronale Netzwerk, das mit dem vorgeschlagenen Verfahren trainiert wird, ist ein tiefes konvolutionelles neuronales Netzwerk (DCNN) zum Verarbeiten von Bilddaten. DCNNs sind eine spezielle Implementierung von allgemeineren konvolutionellen neuronalen Netzwerken (CNN). CNNs haben eine Eingabe- und eine Ausgabeebene sowie mehrere verborgene Schichten. Die verborgenen Schichten eines CNN bestehen typischerweise aus konvolutionellen Schichten, Pooling-Schichten, Fully-Connected-Schichten und Normierungsschichten. Die konvolutionellen Schichten wenden eine Faltungsoperation auf die Eingabe an und leiten das Ergebnis an die nächste Schicht weiter. Die Faltung emuliert die Antwort eines einzelnen Neurons auf visuelle Reize.The neural network that is trained with the proposed method is a deep convolutional neural network (DCNN) for processing image data. DCNNs are a special implementation of more general convolutional neural networks (CNN). CNNs have an input and an output level as well as several hidden layers. The hidden layers of a CNN typically consist of convolutional layers, pooling layers, fully connected layers and standardization layers. The convolutional layers apply a convolution operation to the input and forward the result to the next layer. The convolution emulates a single neuron's response to visual stimuli.

Solche DCNNs werden im Zusammenhang mit Fahranwendungen in Fahrzeugen immer mehr verwendet. Daher werden die DCNNs insbesondere z.B. in Fahrunterstützungssystemen von Fahrzeugen verwendet. Die Fahrunterstützungssysteme beinhalten Fahrerassistenzsysteme, die einen menschlichen Fahrer des Fahrzeugs bei verschiedenen Fahrsituationen unterstützen, oder Systeme, die autonomes Fahren des Fahrzeugs unterstützen, indem sie Eingaben bereitstellen, um verschiedene Verkehrssituationen zuverlässig zu handhaben.Such DCNNs are increasingly used in connection with driving applications in vehicles. Therefore, the DCNNs in particular e.g. used in vehicle driving support systems. The driving support systems include driver assistance systems that assist a human driver of the vehicle in various driving situations, or systems that support autonomous driving of the vehicle by providing inputs to reliably handle different traffic situations.

Der Schritt zum Bereitstellen eines anfänglich trainierten tiefen konvolutionellen neuronalen Netzwerks mit allgemeinen Modelldaten bezieht sich auf das Bereitstellen eines im Voraus trainierten DCNN. Das DCNN kann trainiert werden, bevor es mit Standardtrainingsdaten an das Fahrzeug übertragen wird. Diese Standardtrainingsdaten sind unabhängig von einer durch einen Fahrer oder Besitzer des Fahrzeugs befahrenen Route. Das im Voraus trainierte DCNN ist bereit für den Einsatz im Fahrunterstützungssystem.The step of providing an initially trained deep convolutional neural network with general model data relates to providing a pre-trained DCNN. The DCNN can be trained before it is transmitted to the vehicle with standard training data. These standard training data are independent of a route traveled by a driver or owner of the vehicle. The pre-trained DCNN is ready for use in the driver support system.

Der Schritt zum Bereitstellen eines Satzes annotierter Trainingsdaten, die Routeninformation enthalten, bezieht sich auf das Bereitstellen der Trainingsdaten mit Labels bezüglich dargestellter Merkmale. Die Labels können manuell hinzugefügt werden, z.B. durch eine menschliche Person, oder automatisch unter Verwendung z.B. eine bereits trainierten DCNN oder einer anderen Technologie. Die Routeninformation bezieht sich auf irgendeine Art von Identifizierung der Route. Die Identifizierung kann manuell hinzugefügt werden, z.B. durch den Besitzer oder Fahrer des Fahrzeugs, oder automatisch, z.B. basierend auf Positionsdaten.The step of providing a set of annotated training data containing route information relates to providing the training data with labels with respect to the features shown. The labels can be added manually, e.g. by a human person, or automatically using e.g. an already trained DCNN or other technology. The route information relates to some kind of identification of the route. The identification can be added manually, e.g. by the owner or driver of the vehicle, or automatically, e.g. based on location data.

Der Schritt zum Einrichten des tiefen konvolutionellen neuronalen Netzwerks mit der Route zugeordneten individuellen Modelldaten basierend auf den allgemeinen Modelldaten bezieht sich auf das Bereitstellen des DCNN zum Trainieren des DCNN für eine bestimmte Route.The step of setting up the deep convolutional neural network with the individual model data assigned to the route based on the general model data relates to providing the DCNN for training the DCNN for a specific route.

Das Ausführen des Trainingsschritts des tiefen konvolutionellen neuronalen Netzwerks mit den der Route zugeordneten individuellen Modelldaten unter Verwendung des jeweiligen Satzes annotierter Trainingsdaten bezieht sich auf das Trainieren des tiefen konvolutionellen neuronalen Netzwerks, das mit den individuellen Modelldaten unter Verwendung des jeweiligen Satzes annotierter Trainingsdaten eingerichtet ist, der sich auf diese Route bezieht. Daher kann ein besonderes Training ausgeführt werden, das mögliche Merkmale entlang dieser Route abdeckt, wodurch ein hocheffizientes DCNN beim Befahren dieser Route bereitgestellt wird.Performing the training step of the deep convolutional neural network with the individual model data assigned to the route using the respective set of annotated training data refers to training the deep convolutional neural network that is set up with the individual model data using the respective set of annotated training data that refers to this route. Therefore, special training can be carried out that covers possible features along this route, thereby providing a highly efficient DCNN when driving this route.

Der Schritt zum Speichern der der Route zugeordneten individuellen Modelldaten des tiefen konvolutionellen neuronalen Netzwerks bezieht sich auf das Speichern der individuellen Modelldaten zur späteren Verwendung, wenn das Fahrzeug verwendet wird, um die bestimmte Route abzufahren. Vorzugsweise wird eine Verifizierung ausgeführt, um zu verifizieren, ob ein Fehler in den Trainingsdaten unter Verwendung der individuellen Modelldaten niedriger ist als der Fehler vorangehender individueller Modelldaten.The step of storing the deep convolutional neural network individual model data associated with the route refers to storing the individual model data for later use when the vehicle is used to drive the particular route. Verification is preferably performed to verify whether an error in the training data using the individual model data is lower than the error in previous individual model data.

Das Verfahren zum Anwenden eines tiefen konvolutionellen neuronalen Netzwerks zum Verarbeiten von Bilddaten in einem Fahrunterstützungssystem eines Fahrzeugs basierend auf Routeninformation einer gewünschten Route bezieht sich auf das Verwenden des Fahrzeugs mit dem Fahrunterstützungssystem, das das DCNN verwendet. The method of applying a deep convolutional neural network to process image data in a driving support system of a vehicle based on route information of a desired route relates to using the vehicle with the driving support system using the DCNN.

Der Schritt zum Identifizieren der Route kann im Voraus ausgeführt werden, z.B. wenn eine Routenplanung unter Verwendung eines Navigationssystems des Fahrzeugs ausgeführt wird. Alternativ kann die Route während der Fahrt des Fahrzeugs z.B. basierend auf Positionsdaten, insbesondere Satellitenpositionsdaten, basierend auf einer Erkennung von Orientierungspunkten oder basierend auf irgendeiner anderen Erkennung der Route identifiziert werden.The step of identifying the route can be carried out in advance, e.g. when route planning is carried out using a navigation system of the vehicle. Alternatively, the route can be e.g. based on position data, in particular satellite position data, based on a recognition of orientation points or based on any other recognition of the route.

Der Schritt zum Einrichten des tiefen konvolutionellen neuronalen Netzwerks mit der Route zugeordneten individuellen Modelldaten bezieht sich auf das Aktivieren des DCNN mit den individuellen Modelldaten der jeweiligen Route.The step for setting up the deep convolutional neural network with the individual model data assigned to the route relates to the activation of the DCNN with the individual model data of the respective route.

Der Schritt zum Verarbeiten der Bilddaten, die beim Befahren der Route erfasst werden, unter Verwendung des tiefen konvolutionellen neuronalen Netzwerks mit der Route zugeordneten individuellen Modelldaten bezieht sich auf eine Anwendung des DCNN im Fahrunterstützungssystem.The step of processing the image data that is acquired when driving on the route using the deep convolutional neural network with the individual model data assigned to the route relates to an application of the DCNN in the driving support system.

Gemäß einer modifizierten Ausführungsform der Erfindung weist der Schritt zum Bereitstellen eines Satzes annotierter Trainingsdaten, die Routeninformation enthalten, das Identifizieren einer Fahrroute, das Bereitstellen von Bilddaten als Trainingsdaten von mindestens einer Kamera beim Befahren der Route und das automatische Annotieren der Bilddaten zum Bereitstellen des Satzes annotierter Trainingsdaten auf. Die Fahrroute kann basierend auf einer Benutzereingabe oder automatisch basierend z.B. auf Ortsinformation mindestens eines Startpunkts und eines Endpunkts der Route identifiziert werden. Die Route kann vor dem Befahren der Route oder danach identifiziert werden. Die Bilddaten können beim Befahren der Route mit einem bestimmten Fahrzeug bereitgestellt werden, z.B. mit dem Fahrzeug, in dem das DCNN implementiert ist. Die Bilddaten können jedoch auch bereitgestellt werden, wenn die Route mit anderen Fahrzeugen befahren wird, auch ohne dass in dem bestimmten Fahrzeug das DCNN implementiert ist. Darüber hinaus ermöglicht der Schritt zum automatischen Annotieren der Bilddaten zum Bereitstellen des Satzes annotierter Trainingsdaten das Erzeugen des Satzes annotierter Trainingsdaten ohne menschliche Interaktion. Daher kann das Erzeugen gültiger Trainingsdaten verbessert werden, und Zeit und Geld, die typischerweise für die manuelle Annotation von Trainingsdaten aufgewendet werden, können reduziert werden. Der Schritt zum automatischen Annotieren der Bilddaten zum Bereitstellen des Satzes annotierter Trainingsdaten kann an einem beliebigen Ort ausgeführt werden, z.B. unter Verwendung des Fahrunterstützungssystems des Fahrzeugs. Daher kann der gesamte Schritt zum Bereitstellen des Satzes annotierter Trainingsdaten, die Routeninformation enthalten, durch das Fahrzeug und innerhalb des Fahrzeugs ausgeführt werden. Es ist keine Datenübermittlung oder Datenübertragung zwischen dem Fahrunterstützungssystem und einem externen Server erforderlich.According to a modified embodiment of the invention, the step of providing a set of annotated training data containing route information, identifying a driving route, providing image data as training data from at least one camera when driving the route, and automatically annotating the image data to provide the set of annotated Training data on. The driving route can be based on user input or automatically based e.g. be identified based on location information of at least one starting point and one end point of the route. The route can be identified before or after driving on the route. The image data can be provided when driving the route with a specific vehicle, e.g. with the vehicle in which the DCNN is implemented. However, the image data can also be provided if the route is traveled by other vehicles, even without the DCNN being implemented in the specific vehicle. In addition, the step of automatically annotating the image data to provide the set of annotated training data enables the set of annotated training data to be generated without human interaction. Therefore, the generation of valid training data can be improved and the time and money typically spent on manual annotation of training data can be reduced. The step of automatically annotating the image data to provide the set of annotated training data can be performed at any location, e.g. using the vehicle's driving support system. Therefore, the entire step of providing the set of annotated training data containing route information can be performed by and within the vehicle. No data transmission or data transmission between the driving support system and an external server is required.

Gemäß einer modifizierten Ausführungsform der Erfindung weist der Schritt zum Bereitstellen von Bilddaten von mindestens einer Kamera beim Befahren der Route das Labeln der bereitgestellten Bilddaten mit Positionsinformation, insbesondere mit satellitenbasierter Positionsinformation, auf. Abgesehen von dem Identifizieren der Route, die mit dem Fahrzeug abgefahren wird, wenn die Bilddaten erzeugt werden, kann die Positionsinformation ferner z.B. zu dem Zweck der Zusammenstellung bestimmter Routen basierend auf Kombinationen von Routenabschnitten verwendet werden, die zuvor abgefahren worden sind, um Trainingsdaten zu sammeln und den Satz annotierter Trainingsdaten bereitzustellen. Daher ist es nicht einmal erforderlich, eine bestimmte Route abzufahren, um einen Satz annotierter Trainingsdaten bereitzustellen, die die Route enthalten. Mit einer ausreichend großen Datenbank von Bilddaten kann ein Satz annotierter Trainingsdaten für im Wesentlichen jede Route bereitgestellt werden. Der Satz annotierter Trainingsdaten kann sofort bereitgestellt werden, bereits zum Zeitpunkt der erstmaligen Verwendung des Fahrzeugs. Darüber hinaus kann die Positionsinformation verwendet werden, um die Bilddaten zu verarbeiten und verschiedene Bedingungen zum Bereitstellen der Bilddaten vom gleichen Ort zu bestimmen. Daher können Bilddaten, die an ähnlichen Orten bereitgestellt werden, identifiziert und gefiltert werden, um Bilddaten mit unterschiedlichen Eigenschaften auszuwählen, z.B. mit unterschiedlichen Beleuchtungsbedingungen, unterschiedlichen Wetterbedingungen, unterschiedlichen Verkehrsbedingungen oder anderen Eigenschaften. Dies wird die Datenredundanz in dem Satz annotierter Trainingsdaten reduzieren, und der Trainingsschritt des DCNN kann auf eine effiziente Weise ausgeführt werden. Die Bilddaten können mit Positionsinformation basierend auf Ortsinformation gelabelt werden, die z.B. durch GPS-, Galileo-, GLONASS- oder Beidou-Satellitenortungssysteme bereitgestellt wird.According to a modified embodiment of the invention, the step of providing image data from at least one camera when driving the route comprises labeling the provided image data with position information, in particular with satellite-based position information. In addition to identifying the route that the vehicle travels when the image data is generated, the position information can also be e.g. be used for the purpose of compiling certain routes based on combinations of route sections that have been traveled previously to collect training data and to provide the set of annotated training data. Therefore, it is not even necessary to follow a particular route to provide a set of annotated training data that includes the route. With a sufficiently large database of image data, a set of annotated training data can be provided for essentially every route. The set of annotated training data can be made available as soon as the vehicle is used for the first time. In addition, the position information can be used to process the image data and to determine different conditions for providing the image data from the same location. Therefore, image data provided in similar locations can be identified and filtered to select image data with different properties, e.g. with different lighting conditions, different weather conditions, different traffic conditions or other properties. This will reduce data redundancy in the set of annotated training data and the training step of the DCNN can be carried out in an efficient manner. The image data can be labeled with position information based on location information, e.g. is provided by GPS, Galileo, GLONASS or Beidou satellite positioning systems.

Gemäß einer modifizierten Ausführungsform der Erfindung weist der Schritt zum automatischen Annotieren der Bilddaten die Schritte zum Verarbeiten eines Satzes nicht annotierter Trainingsdaten durch das tiefe konvolutionelle neuronale Netzwerk zum Erzeugen eines Satzes automatisch annotierter Daten, Berechnen von Konfidenzmetriken für den Satz automatisch gelabelter Daten und automatischen Relabeln des Satzes automatisch gelabelter Daten basierend auf den berechneten Konfidenzmetriken zum Erzeugen des Satzes annotierter Trainingsdaten auf.According to a modified embodiment of the invention, the step of automatically annotating the image data automatically includes the steps of processing a set of non-annotated training data through the deep convolutional neural network to generate a set annotated data, calculating confidence metrics for the set of automatically labeled data and automatically relabeling the set of automatically labeled data based on the calculated confidence metrics to generate the set of annotated training data.

Die vorgeschlagene Verwendung des DCNN zum automatischen Annotieren der Bilddaten ist einfach und laufzeiteffizient, da die Verwendung des anfangs trainierten DCNN zum Verarbeiten der Bilddaten zum Erzeugen des Satzes automatisch gelabelter Daten bereits das DCNN nutzt. Die Konfidenzmetriken können auch automatisch und auf eine effiziente Weise berechnet werden. Die Konfidenzmetriken für den Satz automatisch gelabelter Daten ermöglichen eine einfache Bewertung der Relevanz der durch das DCNN erzeugten Labels. Falls die Konfidenzmetriken einen hohen Konfidenzgrad in den durch das DCNN erzeugten automatisch gelabelten Daten anzeigen, ändert der automatische Relabeling-Schritt die Label nicht. Andernfalls ist es erforderlich, das Labeling zu ändern und den Satz automatisch gelabelter Daten automatisch zu relabeln. Dies kann sich auf das Modifizieren aller Labels oder nur auf das Modifizieren einiger Labels beziehen, die dem Satz automatisch gelabelter Daten zugewiesen sind. Das Relabeln ist nicht so effizient wie das Verarbeiten der Bilddaten unter Verwendung des DCNN. Der Aufwand des Relabelns, d.h. die Verwendung des weniger effizienten Labeling-Prozesses, ist jedoch nur in Fällen erforderlich, in denen das DCNN den Satz annotierter Trainingsdaten nicht auf eine ausreichend zuverlässige Weise verarbeiten kann, was durch die Konfidenzmetriken angezeigt wird. Das tiefe konvolutionelle neuronale Netzwerk kann das anfangs trainierte tiefe konvolutionelle neuronale Netzwerk mit den allgemeinen Modelldaten sein, oder das tiefe konvolutionelle neuronale Netzwerk mit den individuellen Modelldaten, die der Route zugeordnet sind, der die Bilddaten entsprechen.The proposed use of the DCNN for the automatic annotation of the image data is simple and time-efficient since the use of the initially trained DCNN for processing the image data to generate the set of automatically labeled data already uses the DCNN. The confidence metrics can also be calculated automatically and in an efficient manner. The confidence metrics for the set of automatically labeled data enable a simple assessment of the relevance of the labels generated by the DCNN. If the confidence metrics indicate a high degree of confidence in the automatically labeled data generated by the DCNN, the automatic relabeling step does not change the labels. Otherwise, it is necessary to change the labeling and automatically relabel the set of automatically labeled data. This can refer to modifying all labels or just modifying some labels associated with the set of automatically labeled data. Relabeling is not as efficient as processing the image data using the DCNN. The effort of relabeling, i.e. however, the use of the less efficient labeling process is only required in cases where the DCNN cannot process the set of annotated training data in a sufficiently reliable manner, as indicated by the confidence metrics. The deep convolutional neural network may be the initially trained deep convolutional neural network with the general model data, or the deep convolutional neural network with the individual model data associated with the route that the image data corresponds to.

Gemäß einer modifizierten Ausführungsform der Erfindung weist der Schritt zum Berechnen von Konfidenzmetriken für den Satz automatisch gelabelter Daten das Anwenden eines auf Computer Vision basierenden Konfidenzmetrikalgorithmus auf. Computer Vision ist im Allgemeinen leistungsfähig und hat bereits ein hohes Qualitätsniveau zum Erkennen von Merkmale erreicht. In diesem Bereich sind verschiedene Verfahren zum Berechnen von Konfidenzmetriken bekannt, die zum Berechnen der Konfidenzmetriken für den Satz automatisch gelabelter Daten verwendet werden.According to a modified embodiment of the invention, the step of computing confidence metrics for the set of automatically labeled data comprises applying a confidence metric algorithm based on Computer Vision. Computer vision is generally powerful and has already reached a high quality level for recognizing features. Various methods for computing confidence metrics are known in this area that are used to calculate confidence metrics for the set of automatically labeled data.

Gemäß einer modifizierten Ausführungsform der Erfindung weist der Schritt zum automatischen Relabeln des Satzes automatisch gelabelter Daten basierend auf den berechneten Konfidenzmetriken das Anwenden eines auf Computer Vision basierenden Labeling-Algorithmus auf. Computer Vision ist im Allgemeinen leistungsfähig und hat bereits ein hohes Qualitätsniveau zum Erkennen von Merkmalen erreicht. Für den Fall, dass die Konfidenz des automatischen Labeling-Prozesses durch das DCNN nicht ausreichend ist, kann Computer Vision verwendet werden, um den jeweiligen Bilddaten erforderliche Labels hinzuzufügen.According to a modified embodiment of the invention, the step of automatically relabeling the set of automatically labeled data based on the calculated confidence metrics comprises applying a labeling algorithm based on Computer Vision. Computer vision is generally powerful and has already reached a high quality level for recognizing features. In the event that the confidence of the automatic labeling process by the DCNN is not sufficient, Computer Vision can be used to add the necessary labels to the respective image data.

Gemäß einer modifizierten Ausführungsform der Erfindung weist der Schritt zum Einrichten des konvolutionellen neuronalen Netzwerks mit der Route zugeordneten individuellen Modelldaten das Erzeugen der der Route zugeordneten individuellen Modelldaten als eine Kopie der allgemeinen Modelldaten oder das Laden der zuvor gespeicherten, der Route zugeordneten individuellen Modelldaten des tiefen konvolutionellen neuronalen Netzwerks auf. Wenn das Verfahren zum ersten Mal ausgeführt wird, sind keine individuellen Modelldaten verfügbar. Da das DCNN ein geeignetes Training erhalten hat, um die allgemeinen Modelldaten bereitzustellen, kann dieses allgemeine Modell als Ausgangspunkt zum Trainieren des DCNN für die bestimmte Route herangezogen werden. Sobald ein solches Training für eine bestimmte Route ausgeführt worden ist, sind der Route zugeordnete individuelle Modelldaten des tiefen konvolutionellen neuronalen Netzwerks erzeugt und gespeichert worden, so dass sie verfügbar sind. Somit können diese individuellen Modelldaten als Basis für ein weiteres Training des DCNN für die bestimmte Route verwendet werden.According to a modified embodiment of the invention, the step for setting up the convolutional neural network with the individual model data assigned to the route comprises generating the individual model data assigned to the route as a copy of the general model data or loading the previously stored individual model data of the deep convolutional data assigned to the route neural network. When the procedure is run for the first time, no individual model data is available. Since the DCNN has received suitable training to provide the general model data, this general model can be used as a starting point for training the DCNN for the particular route. As soon as such training has been carried out for a specific route, individual model data of the deep convolutional neural network assigned to the route have been generated and stored so that they are available. This individual model data can thus be used as the basis for further training of the DCNN for the specific route.

Gemäß einer modifizierten Ausführungsform der Erfindung weist das Ausführen eines Trainingsschritts des tiefen konvolutionellen neuronalen Netzwerks mit den der Route zugeordneten individuellen Modelldaten unter Verwendung des jeweiligen Satzes annotierter Trainingsdaten das Trainieren letzter Schichten des tiefen konvolutionellen neuronalen Netzwerks, insbesondere nur der letzten Schicht, auf. Das Trainieren nur der letzten Schichten, insbesondere der letzten Schicht des DCNN, reduziert die Anzahl von für die individuellen Modelldaten zu speichernden Parametern. Mit den vorgegebenen allgemeinen Modelldaten des DCNN, die basierend auf einem Training erzeugt worden sind, kann angenommen werden, dass das DCNN zumindest im Allgemeinen richtig funktioniert. Angesichts der spezifischen Routen kann jedoch eine weitere Verbesserung für diese spezifischen Routen ohne Modifikation der oberen Schichten des DCNN erreicht werden, d.h. mit nur geringen Anpassungen des DCNN basierend auf den allgemeinen Modelldaten. Daher kann der Trainingsschritt sogar in Systemen mit Verarbeitungseinschränkungen, entweder bezüglich der Verarbeitungsleistung oder der Speicherfähigkeit, ausgeführt werden. Weiter bevorzugt weist der Schritt zum Speichern der der Route zugeordneten individuellen Modelldaten des tiefen konvolutionellen neuronalen Netzwerks das Speichern nur der letzten Schichten des tiefen konvolutionellen neuronalen Netzwerks, insbesondere nur der letzten Schicht, auf. Die restlichen Modelldaten können den allgemeinen Modelldaten entnommen werden, die für das DCNN bereitgestellt werden. Daher ist nur wenig Speicherfähigkeit erforderlich, um die individuellen Modelldaten für jede Route zu speichern, was in Systemen mit Speichereinschränkungen wichtig sein kann. Daher ist es beim Einrichten des konvolutionellen neuronalen Netzwerk mit der Route zugeordneten individuellen Modelldaten auch lediglich erforderlich z.B. die individuellen Modelldaten zu erzeugen oder die individuellen Modelldaten des DCNN nur für seine letzten Schichten, insbesondere nur für die letzte Schicht, zu laden.According to a modified embodiment of the invention, carrying out a training step of the deep convolutional neural network with the individual model data assigned to the route using the respective set of annotated training data comprises training last layers of the deep convolutional neural network, in particular only the last layer. Training only the last layers, especially the last layer of the DCNN, reduces the number of parameters to be saved for the individual model data. With the given general model data of the DCNN, which have been generated based on a training, it can be assumed that the DCNN is functioning correctly at least in general. In view of the specific routes, however, a further improvement can be achieved for these specific routes without modification of the upper layers of the DCNN, ie with only minor adjustments to the DCNN based on the general model data. Therefore, the training step can be carried out even in systems with processing restrictions, either in terms of processing power or storage capacity. The step furthermore preferably has for storing the individual model data of the deep convolutional assigned to the route neural network only storing the last layers of the deep convolutional neural network, in particular only the last layer. The remaining model data can be found in the general model data provided for the DCNN. Therefore, little storage is required to store the individual model data for each route, which can be important in systems with memory restrictions. Therefore, when setting up the convolutional neural network with the individual model data assigned to the route, it is only necessary to generate, for example, the individual model data or to load the individual model data of the DCNN only for its last layers, in particular only for the last layer.

Für Systeme ohne solche Einschränkungen kann es bevorzugt sein, den Trainingsschritt für alle Schichten des DCNN auszuführen, um die Gesamtleistung des DCNN weiter zu verbessern.For systems without such limitations, it may be preferable to perform the training step for all layers of the DCNN to further improve the overall performance of the DCNN.

Gemäß einer modifizierten Ausführungsform der Erfindung wird das Verfahren als ein fahrzeuginternes Verfahren implementiert, bei dem der Trainingsschritt des tiefen konvolutionellen neuronalen Netzwerks mit den der Route zugeordneten individuellen Modelldaten unter Verwendung des jeweiligen Satzes annotierter Trainingsdaten zum Trainieren des für ein bestimmtes Fahrzeug vorgesehenen tiefen konvolutionellen neuronalen Netzwerks ausgeführt wird. Daher kann das Fahrzeug, insbesondere sein Fahrunterstützungssystem, z.B. an einen individuellen Besitzer oder Fahrer des Fahrzeugs und an bestimmte Strecken angepasst werden, die wiederholt mit dem Fahrzeug gefahren werden. Daher wird das DCNN für die Bedürfnisse des Besitzers oder Fahrers des Fahrzeugs optimal trainiert, um ein höchstmögliches Maß an Sicherheit und Komfort für jeden Besitzer oder Fahrer des Fahrzeugs bereitzustellen. Der Satz annotierter Trainingsdaten kann extern bereitgestellt werden, z.B. wenn der Besitzer oder Fahrer des Fahrzeugs bevorzugte Routen definiert und den Satz annotierter Trainingsdaten dafür empfängt, die von einem externen Anbieter zugeführt werden. Dies ermöglicht ein sofortiges Training des DCNN. In diesem Fall kann der Satz annotierter Trainingsdaten von einer mit dem Fahrzeug verbundenen Speichereinrichtung oder über eine Datenverbindung zwischen einem Server und dem Fahrzeug bereitgestellt werden. Die Datenverbindung ist eine kabelgebundene oder drahtlose Datenverbindung. Der Server kann z.B. als Cloud-Server über das Internet bereitgestellt werden.According to a modified embodiment of the invention, the method is implemented as an in-vehicle method in which the training step of the deep convolutional neural network with the individual model data assigned to the route using the respective set of annotated training data for training the deep convolutional neural network intended for a specific vehicle is performed. Therefore, the vehicle, in particular its driving support system, e.g. be adapted to an individual owner or driver of the vehicle and to certain routes that are repeatedly driven by the vehicle. Therefore, the DCNN is optimally trained for the needs of the owner or driver of the vehicle in order to provide the highest possible level of safety and comfort for every owner or driver of the vehicle. The set of annotated training data can be provided externally, e.g. when the owner or driver of the vehicle defines preferred routes and receives the set of annotated training data therefor that is supplied by an external provider. This enables immediate training of the DCNN. In this case, the set of annotated training data can be provided by a storage device connected to the vehicle or via a data connection between a server and the vehicle. The data connection is a wired or wireless data connection. The server can e.g. provided as a cloud server over the Internet.

Das Ausführen des Trainingsschritts ist zeitaufwändig und kann die volle Verarbeitungsleistung des Fahrunterstützungssystems des Fahrzeugs erfordern. Daher kann es beim Ausführen des Trainingsschritts erforderlich sein, dass das Fahrzeug manuell gefahren wird, so dass die gleiche Hardware des Fahrunterstützungssystems wiederverwendet werden kann. Es ist keine dedizierte Hardware zum Trainieren des DCNN erforderlich. Um solche Situationen zu vermeiden, ist es bevorzugt, dass der Schritt des Trainierens des DCNN ausgeführt wird, wenn sich das Fahrzeug nicht bewegt, um eine volle Unterstützung des Fahrunterstützungssystems sicherzustellen.Performing the training step is time consuming and may require the full processing power of the vehicle's driving support system. Therefore, when performing the training step, the vehicle may need to be driven manually so that the same hardware of the driving support system can be reused. No dedicated hardware is required to train the DCNN. To avoid such situations, it is preferred that the DCNN training step be performed when the vehicle is not moving to ensure full support of the driving support system.

Gemäß einer modifizierten Ausführungsform der Erfindung weist der Schritt zum Bereitstellen eines Satzes annotierter Trainingsdaten, die Routeninformation enthalten, das Bereitstellen des Satzes annotierter Trainingsdaten, die Routeninformation enthalten unter Verwendung mindestens einer Kamera des Fahrzeugs auf. Daher werden die annotierten Trainingsdaten basierend auf Bilddaten bereitgestellt, die unter Verwendung der Kamera des Fahrzeugs erzeugt werden, für die das DCNN trainiert wird. Daher kann das Verfahren vollständig innerhalb des Fahrzeugs ausgeführt werden, d.h. durch das Fahrunterstützungssystem des Fahrzeugs. Daher kann das Verfahren als ein fahrzeuginternes Verfahren durchgeführt werden. Dies hat den zusätzlichen Vorteil, dass Bilddaten zum Trainieren des DCNN unter Verwendung der gleichen Hardware wie bei der Verwendung des DCNN bereitgestellt werden. Dadurch können Einflüsse der Hardware auf die Leistungsfähigkeit des DCNN ausgeschlossen werden. Ein Satellitenempfänger des Fahrzeugs zum Empfangen von Satellitenpositionsdaten des Fahrzeugs kann verwendet werden, um die Route zu identifizieren und/oder die Bilddaten zu labeln.According to a modified embodiment of the invention, the step of providing a set of annotated training data containing route information comprises providing the set of annotated training data containing route information using at least one camera of the vehicle. Therefore, the annotated training data is provided based on image data generated using the vehicle's camera for which the DCNN is trained. Therefore, the method can be carried out entirely inside the vehicle, i.e. through the vehicle's driving support system. Therefore, the method can be carried out as an in-vehicle method. This has the additional advantage that image data for training the DCNN are provided using the same hardware as when using the DCNN. This means that hardware influences on the performance of the DCNN can be excluded. A satellite receiver of the vehicle for receiving satellite position data of the vehicle can be used to identify the route and / or to label the image data.

Gemäß einer modifizierten Ausführungsform der Erfindung weist der Schritt zum Bereitstellen des Satzes annotierter Trainingsdaten, die Routeninformation enthalten, unter Verwendung mindestens einer Kamera des Fahrzeugs das Akkumulieren von Trainingsdaten und das Bewerten, ob der Satz annotierter Trainingsdaten genügend Trainingsdaten enthält, auf. Trainingsdaten, die durch nur einmaliges Abfahren der Route erhalten werden, liefern typischerweise keinen geeigneten Satz annotierter Trainingsdaten. Daher ist es erforderlich, Trainingsdaten von mehrfachem Abfahren der Route bereitzustellen, um einen geeigneten Satz annotierter Trainingsdaten zu erhalten. Die Trainingsdaten können z.B. akkumuliert werden, wenn der Besitzer des Fahrzeugs eine Route mehrmals unter Verwendung seines Fahrzeugs abfährt, d.h., wenn das Fahrzeug unter typischen Fahrbedingungen verwendet wird. Das Verfahren kann einen zusätzlichen Schritt aufweisen, in dem ein Fahrer oder Besitzer des Fahrzeugs bei erfolgreicher Bewertung des Satzes annotierter Trainingsdaten, die genügend Trainingsdaten enthalten, aufgefordert wird, mit dem Ausführen des Trainingsschritts des tiefen konvolutionellen neuronalen Netzwerks mit den akkumulierenden Trainingsdaten zu beginnen. Der Schritt, in dem der Fahrer oder Besitzer des Fahrzeugs nach erfolgreicher Auswertung des Satzes annotierter Trainingsdaten, die genügend Trainingsdaten enthalten aufgefordert wird, mit dem Ausführen des Trainingsschritts des tiefen konvolutionellen neuronalen Netzwerks mit den akkumulierenden Trainingsdaten zu beginnen, kann für jede Route unabhängig ausgeführt werden. Daher kann z.B. basierend auf einer Häufigkeit des Abfahrens einer Route der Trainingsschritt zu verschiedenen Zeitpunkten ausgeführt werden.According to a modified embodiment of the invention, the step of providing the set of annotated training data containing route information using at least one camera of the vehicle comprises accumulating training data and evaluating whether the set of annotated training data contains sufficient training data. Training data obtained by only traveling the route once typically does not provide a suitable set of annotated training data. It is therefore necessary to provide training data from multiple trips of the route in order to obtain a suitable set of annotated training data. The training data can, for example, be accumulated if the owner of the vehicle travels a route several times using his vehicle, ie if the vehicle is used under typical driving conditions. The method may include an additional step in which, upon successful evaluation of the set of annotated training data that contains sufficient training data, a driver or owner of the vehicle is prompted to perform the training step of the deep convolutional neural network with the accumulating training data kick off. The step in which, after successfully evaluating the set of annotated training data containing sufficient training data, the driver or owner of the vehicle is asked to start carrying out the training step of the deep convolutional neural network with the accumulating training data can be carried out independently for each route , Therefore, the training step can be carried out at different times, for example based on a frequency of driving a route.

Gemäß einer modifizierten Ausführungsform der Erfindung weist der Schritt zum Bereitstellen des Satzes annotierter Trainingsdaten, die Routeninformation enthalten, unter Verwendung mindestens einer Kamera des Fahrzeugs das Filtern der Trainingsdaten basierend auf einer statistischen Analyse der Trainingsdaten auf. Es ist hilfreich, die Trainingsdaten dem DCNN unter verschiedenen Bedingungen zuzuführen, um ein effizient trainiertes DCNN zu erhalten. Daher können die Trainingsdaten z.B. bei Verkehrsstaus, bei unterschiedlich strukturierten Straßenoberflächen, bei unterschiedlichen Lichtverhältnissen oder bei unterschiedlichen Verkehrsszenarien wie Überholen, Spurwechsel, Kreisverkehr, Parkbereichen oder anderen bereitgestellt werden. Daher ermöglicht das Filtern der Trainingsdaten basierend auf den statistischen Analysen ein effizientes Training des DCNN, da die unterschiedlichen Bedingungen sicherstellen, dass das DCNN geeignet trainiert wird. Die statistischen Analysen können z.B. unter Verwendung eines Histogramms individueller Merkmale der jeweiligen Trainingsdaten ausgeführt werden. Der Schritt zum Filtern der Trainingsdaten basierend auf einer statistischen Analyse der Trainingsdaten ist bevorzugt.According to a modified embodiment of the invention, the step of providing the set of annotated training data containing route information using at least one camera of the vehicle comprises filtering the training data based on a statistical analysis of the training data. It is helpful to feed the training data to the DCNN under various conditions in order to get an efficiently trained DCNN. Therefore the training data e.g. in the event of traffic jams, differently structured road surfaces, different lighting conditions or different traffic scenarios such as overtaking, changing lanes, roundabouts, parking areas or others. Filtering the training data based on the statistical analyzes therefore enables efficient training of the DCNN, since the different conditions ensure that the DCNN is trained appropriately. The statistical analyzes can e.g. using a histogram of individual features of the respective training data. The step of filtering the training data based on a statistical analysis of the training data is preferred.

Gemäß einer modifizierten Ausführungsform der Erfindung weist der Schritt zum Ausführen eines Trainingsschritts des tiefen konvolutionellen neuronalen Netzwerks mit den der Route zugeordneten individuellen Modelldaten unter Verwendung des jeweiligen Satzes annotierter Trainingsdaten die Schritte zum Bestimmen von Szenenstatistiken für den Satz annotierter Trainingsdaten, Klassifizieren des Satzes annotierter Trainingsdaten basierend auf den Szenenstatistiken und automatischen Auswählen von Trainingsdaten aus dem Satz von annotierter Trainingsdaten basierend auf der Klassifizierung auf. Die Szenenstatistik bezieht sich auf eine statistische Bestimmung von Merkmalen, die in den Trainingsdaten enthalten sind. Die Merkmale können eine beliebige Art relevanter Merkmale sein, die erfasst werden können. Die Merkmale können die Annotierungen der Trainingsdaten aufweisen, d.h. ihnen hinzugefügte Labels. Die Merkmale können sich auf statische Merkmale ohne Bewegungsinformation beziehen, oder auf dynamische Merkmale, die Bewegungsinformation enthalten, wie z.B. auf einen gehenden Fußgänger, oder noch detaillierter auf einen Fußgänger, der von links nach rechts geht. Die Klassifizierung der Trainingsdaten bezieht sich auf eine Klassifizierung basierend auf dem Auftreten von Merkmalen innerhalb der Trainingsdaten. Die Klassifizierung kann z.B. Trainingsdaten identifizieren, die eine besondere Art von Merkmalen und/oder eine bestimmte Anzahl von Merkmalen enthalten. Beispielweise können solche Klassifizierungen Trainingsdaten mit einer hohen Merkmalsdichte, Trainingsdaten mit einer besonderen Art von Merkmalen, z.B. Fußgänger oder Fahrzeuge, mit oder ohne dynamische Information, z.B. solche, die sich nicht bewegen, die sich bewegen, oder die sich von rechts nach links bewegen, enthalten. Darüber hinaus können die Trainingsdaten klassifiziert und ausgewählt werden, um sie in Trainingsdaten für ein Training, für einen Test und für eine Validierung des DCNN zu trennen.According to a modified embodiment of the invention, the step for executing a training step of the deep convolutional neural network with the individual model data assigned to the route using the respective set of annotated training data comprises the steps for determining scene statistics for the set of annotated training data, classifying the set of annotated training data based on the scene statistics and automatically selecting training data from the set of annotated training data based on the classification. The scene statistics relate to a statistical determination of features that are contained in the training data. The features can be any type of relevant features that can be captured. The features can include the annotations of the training data, i.e. labels added to them. The characteristics can relate to static characteristics without movement information, or to dynamic characteristics that contain movement information, such as on a walking pedestrian, or more specifically on a pedestrian walking from left to right. The classification of the training data refers to a classification based on the occurrence of features within the training data. The classification can e.g. Identify training data that contain a particular type of feature and / or a certain number of features. For example, such classifications can include training data with a high feature density, training data with a special type of features, e.g. Pedestrians or vehicles, with or without dynamic information, e.g. those that do not move, that move, or that move from right to left. In addition, the training data can be classified and selected to separate them into training data for training, for a test and for validation of the DCNN.

Gemäß einer modifizierten Ausführungsform der Erfindung weist der Schritt zum Bestimmen von Szenestatistiken für den Satz annotierter Trainingsdaten das Bestimmen von Labelstatistiken von mindestens auf einem Typ von Labels, einer Position von Labels und/oder Eigenschaften gelabelter Objekte, vorzugsweise das Bestimmen von Statistiken von Labelkombinationen, auf. Daher werden die Label ausgewertet, um Szenestatistiken zu bestimmen. Die Labelstatistiken mindestens eines Informationselements aus einem Typ von Labels, einer Position von Labels und/oder Eigenschaften gelabelter Objekte beziehen sich auf unterschiedliche Aspekte der Labels, die alle verwendet werden können, um gemeinsame Merkmale verschiedener Trainingsdaten statistisch zu identifizieren. Vorzugsweise werden die Labelstatistiken für mehrere oder alle Informationselemente aus verfügbaren Typen von Labels, Positionen der Labels und/oder Eigenschaften gelabelter Objekte bestimmt. Das Bestimmen von Statistiken von Labelkombinationen kann sich auf Statistiken einer Kombination mehrerer Labels z.B. im gleichen Bild, z.B. eine bestimmte Anzahl von Fußgängern oder eine bestimmte Anzahl von Fahrzeugen innerhalb des Bildes, beziehen. Zusätzlich oder alternativ kann sich die Statistik von Labelkombinationen auf eine Kombination mehrerer Informationselemente unter dem Typ von Labels, der Position der Labels und/oder den Eigenschaften gelabelter Objekte beziehen.According to a modified embodiment of the invention, the step of determining scene statistics for the set of annotated training data comprises determining label statistics of objects labeled on at least one type of label, a position of labels and / or properties, preferably determining statistics of label combinations , The labels are therefore evaluated in order to determine scene statistics. The label statistics of at least one information element from a type of label, a position of labels and / or properties of labeled objects relate to different aspects of the labels, all of which can be used to statistically identify common characteristics of different training data. The label statistics are preferably determined for several or all information elements from available types of labels, positions of the labels and / or properties of labeled objects. The determination of statistics of label combinations can be based on statistics of a combination of several labels e.g. in the same picture, e.g. refer to a certain number of pedestrians or a certain number of vehicles within the image. Additionally or alternatively, the statistics of label combinations can refer to a combination of several information elements under the type of labels, the position of the labels and / or the properties of labeled objects.

Gemäß einer modifizierten Ausführungsform der Erfindung weist der Schritt zum Bestimmen von Labelstatistiken eines Typs von Labels das Ausführen einer Histogrammanalyse des Typs von Labels aus dem Satz annotierter Trainingsdaten auf. Daher werden Labelstatistiken als Histogramme bezüglich verschiedener Typen von Labels bereitgestellt. Dies ermöglicht eine einfache Identifizierung ähnlicher Trainingsdaten durch eine Histogrammanalyse. Darüber hinaus kann für jeden Labeltyp ein Histogramm der Leuchtdichte und der Farbeigenschaften bereitgestellt werden, um eine weitere Unterscheidung von Labeltypen zu ermöglichen. Damit ist es möglich, nicht nur einfache Labeltypen, wie Fußgänger oder Fahrzeuge, zu identifizieren, sondern auch zwischen komplexen Labeltypen, wie beispielweise einem Fußgänger/Fahrzeug im Schatten, im Sonnenlicht oder bei Nacht, zu unterscheiden.According to a modified embodiment of the invention, the step of determining label statistics of a type of label comprises performing a histogram analysis of the type of labels from the set of annotated training data. Therefore, label statistics are provided as histograms for different types of labels. This makes it easy to identify similar training data using a histogram analysis. In addition, there can be one for each label type Histogram of the luminance and the color properties are provided in order to enable a further differentiation between label types. This makes it possible not only to identify simple label types, such as pedestrians or vehicles, but also to distinguish between complex label types, such as a pedestrian / vehicle in the shade, in sunlight or at night.

Gemäß einer modifizierten Ausführungsform der Erfindung weist der Schritt zum Bestimmen von Labelstatistiken einer Position von Labels das Teilen von Bildern in gleich große Blöcke auf. Die Blöcke werden als Basis zum Identifizieren der Position des jeweiligen Labels verwendet. Vorzugsweise haben die gleich großen Blöcke eine Größe von NxN Pixeln, wobei N typischerweise eine große Zahl ist, z.B. N = 64. Auf der Basis der gleich großen Blöcke kann die Position eines Labels z.B. anhand einer einfachen Blocknummer definiert werden. Vorzugsweise wird eine Histogrammanalyse von Labels, die jeden Block überlappen, ausgeführt, um Positionsstatistiken jedes annotierten Labeltyps zu erhalten.According to a modified embodiment of the invention, the step of determining label statistics of a position of labels comprises dividing images into blocks of equal size. The blocks are used as a basis for identifying the position of the respective label. Preferably the equally sized blocks are NxN pixels in size, where N is typically a large number, e.g. N = 64. Based on the blocks of the same size, the position of a label can e.g. be defined using a simple block number. Preferably, histogram analysis of labels that overlap each block is performed to obtain position statistics of each annotated label type.

Gemäß einer modifizierten Ausführungsform der Erfindung weist der Schritt zum Klassifizieren des Satzes annotierter Trainingsdaten basierend auf den Szenestatistiken das Klassifizieren des Satzes annotierter Trainingsdaten unter zusätzlicher Betrachtung von Odometrieinformation des Fahrzeugs auf. Die Odometrieinformation bezieht sich darauf, dass das Fahrzeug die zugrundeliegenden Videobilder generiert, um die Trainingsdaten zu dem Zeitpunkt bereitzustellen, zu dem die zugrundeliegenden Videobilder aufgenommen werden. Daher wird zusätzliche Information hinsichtlich der Videobilder bereitgestellt, die dazu beitragen kann, die annotierten Trainingsdaten effizient zu klassifizieren. Die Odometrieinformation bezieht sich auf Information hinsichtlich einer Bewegung des Fahrzeugs, z.B. der Geschwindigkeit, des Lenkwinkels oder dergleichen. Diese Information ermöglicht eine weitere Klassifizierung der Trainingsdaten, die über eine Klassifizierung hinausgeht, die ausschließlich basierend auf den Bilddaten ausgeführt wird.According to a modified embodiment of the invention, the step for classifying the set of annotated training data based on the scene statistics comprises classifying the set of annotated training data with additional consideration of odometry information of the vehicle. The odometry information relates to the fact that the vehicle generates the underlying video images in order to provide the training data at the point in time at which the underlying video images are recorded. Therefore, additional information regarding the video images is provided which can help to classify the annotated training data efficiently. The odometry information relates to information regarding movement of the vehicle, e.g. the speed, the steering angle or the like. This information enables a further classification of the training data that goes beyond a classification that is carried out exclusively on the basis of the image data.

Gemäß einer modifizierten Ausführungsform der Erfindung beinhaltet der Schritt zum Klassifizieren des Satzes annotierter Trainingsdaten basierend auf den Szenestatistiken das Identifizieren von Hardware, die verwendet wird, wenn der Satz annotierter Trainingsdaten erhalten wird. Die Hardware bezieht sich insbesondere auf die Kamera, die verwendet wird, um den Satz annotierter Trainingsdaten zu erhalten und die ein Erscheinungsbild des Satzes annotierter Trainingsdaten direkt beeinflussen kann. Daher können ein Kameratyp und/oder eine Kameraauflösung oder weitere Kameraeigenschaften bewertet werden. Darüber hinaus kann auch das verwendete Fahrzeug das Erscheinungsbild des Satzes annotierter Trainingsdaten beeinflussen, wie beispielsweise im Falle des Erscheinungsbildes des Fahrzeugs in den Bildern oder einer Position der Kamera am Fahrzeug.According to a modified embodiment of the invention, the step of classifying the set of annotated training data based on the scene statistics includes identifying hardware used when the set of annotated training data is obtained. The hardware particularly relates to the camera that is used to obtain the set of annotated training data and that can directly affect an appearance of the set of annotated training data. Therefore, a camera type and / or a camera resolution or other camera properties can be evaluated. In addition, the vehicle used can also influence the appearance of the set of annotated training data, for example in the case of the appearance of the vehicle in the images or a position of the camera on the vehicle.

Gemäß einer modifizierten Ausführungsform der Erfindung weist der Schritt zum automatischen Auswählen von Trainingsdaten aus dem Satz annotierter Trainingsdaten jeweils das Ausgleichen von Trainingsdaten aus dem Satz annotierter Trainingsdaten basierend auf der Klassifizierung zwischen verschiedenen Klassen auf. Das Ausgleichen ermöglicht ein zuverlässiges Trainieren des DCNN mit allen Klassen von Trainingsdaten. Daher kann für alle Verkehrssituationen eine ähnliche Leistungsfähigkeit des DCNN erzielt werden, selbst unter Berücksichtigung sich ändernder Bedingungen, z.B. Umgebungsbedingungen. Ein solches Ausgleichen der Trainingsdaten trägt dazu bei, die Leistungsfähigkeit des DCNN für eine bestimmte Route für unterschiedliche Verkehrssituationen, einschließlich unterschiedlicher Lichtverhältnisse, zu generalisieren. Die verschiedenen Verkehrssituationen können Ampeln, scharfe Kurven, Kreisverkehr, ein hohes Fußgängeraufkommen, einen Supermarktparkplatz, enthalten, um nur einige zu nennen. Auch wenn diese Szenarien nicht unbedingt sehr häufige Szenarien oder sogar sehr selten sind, ist es wichtig, dass DCNN auch dafür zu trainieren, diese Szenarien, die beim Befahren einer Route auftreten können, zuverlässig zu handhaben. Vorzugsweise weist das Ausgleichen der Trainingsdaten das Entfernen von Trainingsdaten auf, was sich auf übliche Fahrsituationen beziehen, z.B. das Fahren auf einer Autobahn ohne viele Objekte und mit ähnlichen Lichtverhältnissen. Daher kann eine hohe Leistungsfähigkeit des DCNN für verschiedene mögliche Szenarien für die bestimmte zu befahrende Route erzielt werden.According to a modified embodiment of the invention, the step for automatically selecting training data from the set of annotated training data comprises in each case equalizing training data from the set of annotated training data based on the classification between different classes. The balancing enables reliable training of the DCNN with all classes of training data. Therefore, similar performance of the DCNN can be achieved for all traffic situations, even taking into account changing conditions, e.g. Environmental conditions. Such a balancing of the training data helps to generalize the performance of the DCNN for a certain route for different traffic situations, including different lighting conditions. The various traffic situations can include traffic lights, sharp bends, roundabouts, high pedestrian traffic, a supermarket car park, to name but a few. Even if these scenarios are not necessarily very common or even very rare, it is important that DCNN also be trained to handle these scenarios reliably, which can occur when driving on a route. Preferably, the equalization of the training data comprises the removal of training data, which relate to common driving situations, e.g. driving on a freeway without many objects and with similar lighting conditions. Therefore, high performance of the DCNN can be achieved for different possible scenarios for the particular route to be traveled.

Gemäß einer modifizierten Ausführungsform der Erfindung weist das Verfahren einen Schritt zum Ausfiltern ungeeigneter Trainingsdaten aus dem Satz annotierter Trainingsdaten basierend auf den Szenestatistiken für den Satz annotierter Trainingsdaten und/oder basierend auf der Klassifizierung des Satzes annotierter Trainingsdaten auf. Ungeeignete Trainingsdaten beziehen sich auf Trainingsdaten z.B. ohne Labels oder mit einer unangemessen geringen Anzahl von Labels. Das Trainieren des DCNN mit solchen Trainingsdaten hilft im Wesentlichen nicht, seine Leistungsfähigkeit wirksam zu steigern. Daher verbessert das Weglassen eines Trainings mit derartigen Trainingsdaten die Trainingseffizienz.According to a modified embodiment of the invention, the method has a step for filtering out unsuitable training data from the set of annotated training data based on the scene statistics for the set of annotated training data and / or based on the classification of the set of annotated training data. Unsuitable training data refer to training data e.g. without labels or with an inappropriately small number of labels. Training the DCNN with such training data essentially does not help to effectively increase its performance. Therefore, omitting training with such training data improves training efficiency.

Diese und andere Aspekte der Erfindung werden anhand der nachfolgend beschriebenen Ausführungsformen ersichtlich und erläutert. Einzelne Merkmale, die in den Ausführungsformen offenbart sind, können alleine oder in Kombination einen Aspekt der vorliegenden Erfindung bilden. Merkmale der verschiedenen Ausführungsformen können von einer Ausführungsform auf eine andere Ausführungsform übertragen werden.These and other aspects of the invention will be apparent and explained from the embodiments described below. Individual features disclosed in the embodiments may form an aspect of the present invention, alone or in combination. Characteristics of the various embodiments can be transferred from one embodiment to another embodiment.

Es zeigen:

  • 1 ein Ablaufdiagramm eines Verfahrensschritts zum Bereitstellen eines anfangs trainierten tiefen konvolutionellen neuronalen Netzwerks mit allgemeinen Modelldaten gemäß einem Verfahren zum Trainieren eines tiefen konvolutionellen neuronalen Netzwerks zum Verarbeiten von Bilddaten zur Anwendung in einem Fahrunterstützungssystem eines Fahrzeugs unter Verwendung von Trainingsdaten, die Routeninformation enthalten, gemäß einer ersten bevorzugten Ausführungsform;
  • 2 ein Ablaufdiagramm eines Verfahrensschritts zum Bereitstellen eines Satzes annotierter Trainingsdaten, die Routeninformation enthalten, gemäß dem Verfahren zum Trainieren eines tiefen konvolutionellen neuronalen Netzwerks zum Verarbeiten von Bilddaten zur Anwendung in einem Fahrunterstützungssystem eines Fahrzeugs unter Verwendung von Trainingsdaten, die Routeninformation enthalten, gemäß der ersten Ausführungsform;
  • 3 ein Ablaufdiagramm eines individuellen Trainings des DCNN gemäß dem Verfahren zum Trainieren eines tiefen konvolutionellen neuronalen Netzwerks zum Verarbeiten von Bilddaten zur Anwendung in einem Fahrunterstützungssystem eines Fahrzeugs unter Verwendung von Trainingsdaten, die Routeninformation enthalten, gemäß der ersten Ausführungsform; und
  • 4 ein Ablaufdiagramm eines Verfahrens zum Anwenden eines tiefen konvolutionellen neuronalen Netzwerks zum Verarbeiten von Bilddaten in einem Fahrunterstützungssystem eines Fahrzeugs basierend auf Routeninformation einer gewünschten Route gemäß einer zweiten Ausführungsform.
Show it:
  • 1 a flowchart of a method step for providing an initially trained deep convolutional neural network with general model data according to a method for training a deep convolutional neural network for processing image data for use in a driving support system of a vehicle using training data containing route information, according to a first preferred embodiment;
  • 2 a flowchart of a process step for providing a set of annotated training data containing route information according to the method for training a deep convolutional neural network for processing image data for use in a vehicle driving support system using training data containing route information according to the first embodiment;
  • 3 a flowchart of an individual training of the DCNN according to the method for training a deep convolutional neural network for processing image data for use in a driving support system of a vehicle using training data containing route information according to the first embodiment; and
  • 4 a flowchart of a method for applying a deep convolutional neural network for processing image data in a driving support system of a vehicle based on route information of a desired route according to a second embodiment.

Die 1 bis 3 zeigen zusammen ein Verfahren zum Trainieren eines tiefen konvolutionellen neuronalen Netzwerks zum Verarbeiten von Bilddaten zur Anwendung in einem Fahrunterstützungssystem eines Fahrzeugs unter Verwendung von Trainingsdaten, die Routeninformation enthalten, gemäß einer ersten bevorzugten Ausführungsform. Das Verfahren wird unter Verwendung des Fahrunterstützungssystems des Fahrzeugs ausgeführt.The 1 to 3 together show a method for training a deep convolutional neural network for processing image data for use in a driving support system of a vehicle using training data containing route information, according to a first preferred embodiment. The method is carried out using the vehicle's driving support system.

Das gemäß dem vorgeschlagenen Verfahren trainierte neuronale Netzwerk ist ein tiefes konvolutionelles neuronales Netzwerk (DCNN) zum Verarbeiten von Bilddaten. Das DCNN ist eine besondere Ausführung eines konvolutionellen neuronalen Netzwerks (CNN), das eine Eingabe- und eine Ausgabeschicht zusammen mit mehreren verborgenen Schichten aufweist, die zwischen der Eingabeschicht und der Ausgabeschicht angeordnet sind. Die verborgenen Schichten eines CNN weisen typischerweise konvolutionelle Schichten (Convolutional-Schichten), Pooling-Schichten, Fully-Connected-Schichten und Normalisierungsschichten auf. Die konvolutionellen Schichten führen eine Faltungsfunktion bezüglich der Eingabe aus und geben das Ergebnis an die nächste Schicht weiter. Die Faltung emuliert die Antwort eines individuellen Neurons auf visuelle Reize.The neural network trained according to the proposed method is a deep convolutional neural network (DCNN) for processing image data. The DCNN is a special implementation of a convolutional neural network (CNN) that has an input and an output layer together with several hidden layers that are arranged between the input layer and the output layer. The hidden layers of a CNN typically have convolutional layers, pooling layers, fully connected layers and normalization layers. The convolutional layers perform a convolution function with regard to the input and pass the result on to the next layer. The convolution emulates the response of an individual neuron to visual stimuli.

Das DCNN wird in einer Fahranwendung in einem Fahrzeug genutzt. Dazu wird das DCNN in einem Fahrunterstützungssystem des Fahrzeugs verwendet. Das Fahrunterstützungssystem ist ein System, das einen menschlichen Fahrer des Fahrzeugs in verschiedenen Fahrsituationen unterstützt, oder ein System, das autonomes Fahren des Fahrzeugs unterstützt, indem es Eingaben für einen zuverlässigen Umgang mit verschiedenen Verkehrssituationen bereitstellt.The DCNN is used in a driving application in a vehicle. For this purpose, the DCNN is used in a vehicle driving support system. The driving support system is a system that supports a human driver of the vehicle in various driving situations, or a system that supports autonomous driving of the vehicle by providing inputs for a reliable handling of different traffic situations.

Das Verfahren startet mit Schritt S100. Schritt S100 bezieht sich auf das Bereitstellen eines anfangs trainierten tiefen konvolutionellen neuronalen Netzwerks unter Verwendung eines Anfangssatzes annotierter Trainingsdaten. Die annotierten Trainingsdaten sind manuell annotierte Trainingsdaten, d.h., ein Mensch hat den bereitgestellten Bilddaten Labels hinzugefügt.The process starts with step S100 , step S100 refers to providing an initially trained deep convolutional neural network using an initial set of annotated training data. The annotated training data are manually annotated training data, ie a person has added labels to the provided image data.

Verfahrensschritt S100 beinhaltet in dieser Ausführungsform drei individuelle Unterschritte S102, S104 und S106, wie nachstehend ausführlich diskutiert wird.step S100 includes three individual substeps in this embodiment S102 . S104 and S106 , as discussed in detail below.

Schritt S102 bezieht sich auf das Bestimmen von Szenestatistiken für den Anfangssatz annotierter Trainingsdaten. Die Szenestatistik bezieht sich auf eine statistische Bestimmung von in den Trainingsdaten enthaltenen Merkmalen. Die Merkmale beinhalten statische Merkmale ohne Bewegungsinformation und dynamische Merkmale mit Bewegungsinformation, wie z.B. ein gehender Fußgänger oder sogar ein Fußgänger, der von links nach rechts geht. Die Merkmale können die Annotationen der Trainingsdaten enthalten, z.B. ihnen hinzugefügte Labels.step S102 relates to determining scene statistics for the initial set of annotated training data. The scene statistics relate to a statistical determination of features contained in the training data. The features include static features without movement information and dynamic features with movement information, such as a walking pedestrian or even a pedestrian who walks from left to right. The characteristics can contain the annotations of the training data, for example labels added to them.

Die Szenestatistiken werden unter Berücksichtigung von Labeltypen, Labelpositionen und Eigenschaften gelabelter Objekte ausgeführt. Die Labelstatistiken werden hinsichtlich eines Labeltyps, einer Labelposition und Eigenschaften gelabelter Objekte bewertet. Zusätzlich werden Statistiken einer Kombination von Labels bestimmt, d.h. es werden Statistiken einer Kombination mehrerer Labels z.B. im gleichen Bild, zum Beispiel eine bestimmte Anzahl an Fußgängern oder eine bestimmte Anzahl von Fahrzeugen innerhalb des Bildes, bestimmt.The scene statistics are carried out taking into account label types, label positions and properties of labeled objects. The label statistics are evaluated with regard to a label type, a label position and properties of labeled objects. Statistics of a combination of labels are also determined, i.e. statistics of a combination of several labels e.g. in the same picture, for example a certain number of pedestrians or a certain number of vehicles within the picture.

Labelstatistiken beinhalten hierbei das Ausführen einer Histogrammanalyse des Labeltyps aus dem Satz annotierter Trainingsdaten hinsichtlich verschiedenartiger Labeltypen. Dies beinhaltet für jeden Labeltyp das Bereitstellen eines Histogramms der Leuchtdichte und der Farbeigenschaften. Label statistics include performing a histogram analysis of the label type from the set of annotated training data regarding different label types. For each label type, this includes providing a histogram of the luminance and color properties.

Darüber hinaus werden zum Bestimmen von Labelstatistiken einer Position von Labels die Bilder in gleich große Blöcke geteilt. Die Blöcke werden als Basis zum Identifizieren der Position der entsprechenden Labels verwendet. Die gleich großen Blöcke haben eine Größe von NxN Pixeln, wobei N = 64 ist. Auf der Basis den gleich großen Blöcken wird die Position eines Labels z.B. als eine einfache Blocknummer definiert. Eine Histogrammanalyse von Labels, die jeden der Blöcke überlappen, wird ausgeführt, um Positionsstatistiken jedes annotierten Labeltyps zu extrahieren.In addition, to determine label statistics of a position of labels, the images are divided into blocks of equal size. The blocks are used as the basis for identifying the position of the corresponding labels. The blocks of the same size have a size of NxN pixels, where N = 64. Based on the blocks of the same size, the position of a label is e.g. defined as a simple block number. Histogram analysis of labels that overlap each of the blocks is performed to extract position statistics of each annotated label type.

Schritt S104 bezieht sich auf das Klassifizieren des Satzes annotierter Trainingsdaten basierend auf den Szenestatistiken.step S104 Refers to classifying the set of annotated training data based on the scene statistics.

Das Klassifizieren der annotierten Trainingsdaten bezieht sich auf eine Klassifizierung, die auf dem Auftreten von Merkmalen innerhalb der Trainingsdaten basierend auf dem Histogramm basiert. Die Klassifizierung ermöglicht das Identifizieren von Trainingsdaten, die einen bestimmten Merkmalstyp und/oder eine bestimmte Anzahl von Merkmalen enthalten. Solche Klassifizierungen beinhalten Trainingsdaten mit einer hohen Merkmalsdichte, Trainingsdaten, die einen bestimmten Merkmalstyp enthalten, z.B. Fußgänger oder Fahrzeuge, mit oder ohne dynamische Information, wie beispielsweise nicht in Bewegung, in Bewegung, sich von rechts nach links bewegend.The classification of the annotated training data refers to a classification that is based on the occurrence of features within the training data based on the histogram. The classification enables the identification of training data that contain a certain type of feature and / or a certain number of features. Such classifications include training data with a high feature density, training data containing a certain type of feature, e.g. Pedestrians or vehicles, with or without dynamic information, such as not moving, in motion, moving from right to left.

Schritt S106 bezieht sich auf die automatische Auswahl von Trainingsdaten aus dem Satz annotierter Trainingsdaten basierend auf der Klassifizierung. Dies beinhaltet das Ausgleichen von Trainingsdaten aus dem Satz annotierter Trainingsdaten basierend auf der Klassifizierung zwischen verschiedenen Klassen.step S106 refers to the automatic selection of training data from the set of annotated training data based on the classification. This includes balancing training data from the set of annotated training data based on the classification between different classes.

Schritt S106 beinhaltet das Ausfiltern ungeeigneter Trainingsdaten aus dem Satz annotierter Trainingsdaten basierend auf den Szenestatistiken für den Satz annotierter Trainingsdaten und basierend auf der Klassifizierung des Satzes annotierter Trainingsdaten. Ungeeignete Trainingsdaten beziehen sich auf Trainingsdaten z.B. ohne Labels oder mit einer unangemessen geringen Anzahl von Labels.step S106 includes filtering out unsuitable training data from the set of annotated training data based on the scene statistics for the set of annotated training data and based on the classification of the set of annotated training data. Unsuitable training data refer to training data eg without labels or with an inappropriately small number of labels.

Das Trainieren des tiefen konvolutionellen neuronalen Netzwerks ist von herkömmlichen DCNNs bekannt. Die ausgewählten Trainingsdaten des anfänglichen Satzes annotierter Trainingsdaten des DCNN werden dem DCNN zugeführt, um das Training auszuführen. Schritt S106 stoppt, wenn das DCNN eine ausreichende Leistungsfähigkeit zeigt.The training of the deep convolutional neural network is known from conventional DCNNs. The selected training data from the initial set of annotated training data of the DCNN is supplied to the DCNN to perform the training. step S106 stops when the DCNN shows sufficient performance.

Im nachfolgenden Schritt S108 werden allgemeine DCNN-Modelldaten bereitgestellt, die an das Fahrunterstützungssystem des Fahrzeugs übertragen und darin gespeichert werden.In the next step S108 general DCNN model data are provided which are transmitted to and stored in the vehicle's driving support system.

Der in 2 dargestellte Schritt S110 bezieht sich auf das Bereitstellen eines Satzes automatisch annotierter Trainingsdaten, die Routeninformation enthalten, wie nachstehend ausführlich diskutiert wird. Daher sind die Trainingsdaten mit Labels in Bezug auf die enthaltenen Merkmale versehen. Schritt S110 weist einzelne Unterschritte S112, S114, S116, S118 und S120 auf, wie nachstehend ausführlich diskutiert wird.The in 2 step shown S110 refers to providing a set of automatically annotated training data containing route information, as discussed in detail below. Therefore, the training data are provided with labels in relation to the features contained. step S110 has individual sub-steps S112 . S114 . S116 . S118 and S120 as discussed in detail below.

Gemäß Schritt S110 wird eine Kamera des Fahrzeugs verwendet, um während des Fahrens entlang der Route Bilddaten bereitzustellen. Die Bilddaten werden mit satellitengestützter Positionsinformation unter Verwendung eines Empfängers für GPS-Signale gelabelt. Ferner wird eine Fahrroute basierend auf der Ortsinformation während der Fahrt entlang der Route identifiziert. Schritt S110 wird unter Verwendung des Fahrunterstützungssystems des Fahrzeugs ausgeführt.According to step S110 a camera of the vehicle is used to provide image data while driving along the route. The image data are labeled with satellite-based position information using a receiver for GPS signals. Furthermore, a driving route is identified based on the location information while driving along the route. step S110 is carried out using the vehicle's driving support system.

Schritt S112 bezieht sich auf das Verarbeiten eines Satzes nicht annotierter Trainingsdaten durch das anfangs trainierte tiefe konvolutionelle neuronale Netzwerk, um einen Satz automatisch gelabelter Daten zu erzeugen. Die gespeicherten Modelldaten des anfangs trainierten DCNN werden verwendet, um den Satz nicht annotierter Trainingsdaten zu verarbeiten und einen Satz automatisch gelabelter Daten zu erzeugen.step S112 refers to the processing of a set of non-annotated training data by the initially trained deep convolutional neural network to produce a set of automatically labeled data. The stored model data of the initially trained DCNN are used to process the set of non-annotated training data and to generate a set of automatically labeled data.

Schritt S114 bezieht sich auf das Berechnen von Konfidenzmetriken für den Satz automatisch gelabelter Daten. Die Konfidenzmetriken werden durch Anwenden eines auf Computer Vision basierenden Konfidenzmetrikalgorithmus berechnet. Der Konfidenzmetrikalgorithmus liefert einen Konfidenzwert als Anzeige des Konfidenzgrades. Der Konfidenzwert ist eine Wahrscheinlichkeit, die eine gültige Erfassung von Merkmalen und ein gültiges Labeln der Daten basierend auf den erfassten Merkmalen anzeigt. Es wird eine Bewertung der Konfidenzmetriken für die automatisch gelabelten Daten ausgeführt. step S114 Refers to computing confidence metrics for the set of automatically labeled data. The confidence metrics are calculated using a confidence vision algorithm based on Computer Vision. The confidence metric algorithm provides a confidence value as an indication of the degree of confidence. The confidence value is a probability that indicates a valid acquisition of features and a valid labeling of the data based on the acquired features. An assessment of the confidence metrics for the automatically labeled data is performed.

Basierend auf dem Bewertungsergebnis der Konfidenzmetriken wird die Annotation angezeigt oder nicht.Based on the evaluation result of the confidence metrics, the annotation is displayed or not.

Schritt S116 bezieht sich auf das Filtern der Trainingsdaten basierend auf einer statistischen Analyse der Trainingsdaten. Daher können Verkehrsstaus, unterschiedlich strukturierte Straßenoberflächen, unterschiedliche Lichtverhältnisse oder verschiedene Verkehrsszenarien wie Überholen, Spurwechsel, Kreisverkehr, Parkbereiche oder andere identifiziert und zum Filtern der Trainingsdaten verwendet werden. Ferner werden die Bilddaten basierend auf der Positionsinformation verarbeitet, um verschiedene Bedingungen für die Bilddaten vom gleichen Ort zu bestimmen. An ähnlichen Orten bereitgestellte Bilddaten werden identifiziert und gefiltert, um Bilddaten mit unterschiedlichen Eigenschaften, z.B. mit unterschiedlichen Lichtverhältnissen, unterschiedlichen Wetterbedingungen, unterschiedlichen Verkehrsbedingungen oder anderen, am gleichen Ort oder an ähnlichen Orten auszuwählen.step S116 refers to filtering the training data based on a statistical analysis of the training data. Therefore can Traffic congestion, differently structured road surfaces, different lighting conditions or different traffic scenarios such as overtaking, changing lanes, roundabouts, parking areas or others are identified and used to filter the training data. Furthermore, the image data is processed based on the position information in order to determine different conditions for the image data from the same location. Image data provided at similar locations are identified and filtered in order to select image data with different properties, for example with different lighting conditions, different weather conditions, different traffic conditions or others, in the same location or in similar locations.

Schritt S118 bezieht sich auf das automatische Relabeln des Satzes automatisch gelabelter Daten basierend auf den berechneten Konfidenzmetriken zum Erzeugen des Satzes annotierter Trainingsdaten. Falls die Konfidenzmetriken einen hohen Konfidenzgrad in den durch das DCNN erzeugten, automatisch gelabelten Daten anzeigen, werden die Labels nicht geändert. Andernfalls werden die Labels unter Verwendung eines auf Computer Vision basierenden Labeling-Algorithmus modifiziert.step S118 refers to automatically relabeling the set of automatically labeled data based on the calculated confidence metrics to generate the set of annotated training data. If the confidence metrics indicate a high degree of confidence in the automatically labeled data generated by the DCNN, the labels are not changed. Otherwise, the labels are modified using a labeling algorithm based on Computer Vision.

Schritt S120 bezieht sich auf das Speichern des Satzes annotierter Trainingsdaten zur weiteren Verwendung, z.B. für das anschließende Training des DCNN. Die gelabelten Trainingsdaten werden jedes Mal akkumuliert, wenn der Besitzer des Fahrzeugs eine bestimmte Route unter Verwendung des Fahrzeugs abfährt, d.h., wenn das Fahrzeug unter typischen Fahrbedingungen verwendet wird. Die Trainingsdaten werden bezüglich der jeweiligen Route akkumuliert.step S120 refers to saving the set of annotated training data for further use, eg for the subsequent training of the DCNN. The labeled training data is accumulated every time the owner of the vehicle travels a particular route using the vehicle, that is, when the vehicle is used under typical driving conditions. The training data are accumulated with respect to the respective route.

Schritt S120 beinhaltet ferner einen Bewertungsvorgang, wenn der Satz annotierter Trainingsdaten ausreichend Trainingsdaten enthält. Eine Benachrichtigung an den Fahrer oder Besitzer des Fahrzeugs kann erzeugt werden, sobald der Satz annotierter Trainingsdaten ausreichend annotierte Trainingsdaten zum Trainieren des DCNN für eine individuelle Route enthält, woraufhin die Verarbeitung zu Schritt S130 fortschreitet.step S120 also includes an evaluation process if the set of annotated training data contains sufficient training data. A notification to the driver or owner of the vehicle can be generated as soon as the set of annotated training data contains sufficiently annotated training data to train the DCNN for an individual route, followed by processing to step S130 progresses.

3 zeigt ein individuelles Training des DCNN basierend auf dem Satz annotierter Trainingsdaten für eine bestimmte Route. 3 shows an individual training of the DCNN based on the set of annotated training data for a particular route.

Im Detail bezieht sich Schritt S130 auf das Identifizieren der Route des Satzes annotierter Trainingsdaten. In Abhängigkeit von der Route werden verschiedene nachfolgende parallele Pfade des Verfahrens basierend auf der identifizierten Route ausgeführt. Die Pfade werden identisch ausgeführt, aber unter Verwendung verschiedener Modelldaten für Routen # 1 bis #n des DCNN und auf der identifizierten Route basierender Trainingsdaten. Jeder parallele Pfad beinhaltet Schritte S132 bis S138 auf.In detail, step refers S130 on identifying the route of the set of annotated training data. Depending on the route, various subsequent parallel paths of the method are carried out based on the identified route. The paths are executed identically, but using different model data for routes # 1 to #n of the DCNN and training data based on the identified route. Each parallel path contains steps S132 to S138 on.

Schritt S132 bezieht sich auf einen Schritt zum Bestimmen von Szenenstatistiken für den Satz annotierter Trainingsdaten. Die Szenenstatistik bezieht sich auf eine statistische Bestimmung von Merkmalen, die in den Trainingsdaten enthalten sind. Daher werden Labelstatistiken mindestens eines Informationselements aus einem Typ von Labels, einer Position von Labels und/oder Eigenschaften gelabelter Objekte bestimmt, vorzugsweise werden Statistiken von Labelkombinationen für mehrere oder alle Informationselemente aus verfügbaren Typen der Label, Positionen der Label und/oder Eigenschaften gelabelter Objekte bestimmt. Auch hier gelten die unter Bezug auf Schritt S102 spezifizierten Details. Daher wird eine Histogrammanalyse des Typs von Labels aus dem Satz annotierter Trainingsdaten ausgeführt. Darüber hinaus wird für jeden Labeltyp ein Histogramm der Luminanz- und Farbeigenschaften bereitgestellt, um eine weitere Unterscheidung von Labeltypen zu ermöglichen.step S132 relates to a step of determining scene statistics for the set of annotated training data. The scene statistics relate to a statistical determination of features that are contained in the training data. Therefore, label statistics of at least one information element are determined from a type of label, a position of labels and / or properties of labeled objects, preferably statistics of label combinations for several or all information elements from available types of labels, positions of the labels and / or properties of labeled objects are determined , The same applies here with reference to step S102 specified details. Therefore, a histogram analysis of the type of labels is carried out from the set of annotated training data. In addition, a histogram of the luminance and color properties is provided for each label type in order to enable a further distinction to be made between label types.

Schritt S134 bezieht sich auf das Klassifizieren des Satzes annotierter Trainingsdaten basierend auf den Szenenstatistiken und das automatische Auswählen von Trainingsdaten aus dem Satz annotierter Trainingsdaten basierend auf der Klassifizierung. Auch hier gelten die unter Bezug auf Schritt S104 spezifizierten Details.step S134 refers to classifying the set of annotated training data based on the scene statistics and automatically selecting training data from the set of annotated training data based on the classification. The same applies here with reference to step S104 specified details.

Schritt S136 bezieht sich auf das Einrichten des tiefen konvolutionellen neuronalen Netzwerks mit individuellen Modelldaten, die der in Schritt S130 basierend auf den allgemeinen Modelldaten identifizierten Route zugeordnet sind. Dadurch wird das DCNN zum Trainieren für eine bestimmte Route bereitgestellt. Wenn das Verfahren zum ersten Mal ausgeführt wird, werden die der Route zugeordneten individuellen Modelldaten als eine Kopie der allgemeinen Modelldaten bereitgestellt. Andernfalls werden die der Route zugeordneten individuellen Modelldaten des tiefen konvolutionellen neuronalen Netzwerks geladen, die zuvor gespeichert wurden.step S136 refers to setting up the deep convolutional neural network with individual model data that the one in step S130 are assigned to the identified route based on the general model data. This provides the DCNN for training on a particular route. When the method is carried out for the first time, the individual model data associated with the route are provided as a copy of the general model data. Otherwise, the individual model data of the deep convolutional neural network assigned to the route, which were previously saved, are loaded.

Schritt S138 bezieht sich auf einen Trainingsschritt des tiefen konvolutionellen neuronalen Netzwerks mit den der Route zugeordneten individuellen Modelldaten unter Verwendung des jeweiligen Satzes annotierter Trainingsdaten. Dies beinhaltet in dieser Ausführungsform ein Trainieren nur der letzten Schicht des DCNN. Schritt S138 wird gemäß der obigen Beschreibung des Verfahrensschritts S106 ausgeführt.step S138 relates to a training step of the deep convolutional neural network with the individual model data assigned to the route using the respective set of annotated training data. In this embodiment, this includes training only the last layer of the DCNN. step S138 is according to the above description of the process step S106 executed.

Schritt S140 bezieht sich auf das Speichern der der Route zugeordneten individuellen Modelldaten des tiefen konvolutionellen neuronalen Netzwerks. Daher werden nur die Modelldaten für die letzte Schicht des DCNN gespeichert, die übrigen Schichten des DCNN bleiben unverändert.step S140 refers to storing the individual model data of the deep convolutional neural network assigned to the route. Therefore, only the model data for the last layer of the DCNN saved, the remaining layers of the DCNN remain unchanged.

In dieser Ausführungsform werden alle Verfahrensschritte S130 bis S140 unter Verwendung des Fahrunterstützungssystems des Fahrzeugs ausgeführt, das das DCNN verwendet hat. Daher wird das Verfahren als ein fahrzeuginternes Verfahren implementiert.In this embodiment, all process steps S130 to S140 using the vehicle's driving support system that used the DCNN. The method is therefore implemented as an in-vehicle method.

Durch die vorliegende Erfindung ist auch ein Verfahren zum Anwenden eines tiefen konvolutionellen neuronalen Netzwerks zum Verarbeiten von Bilddaten in einem Fahrunterstützungssystem eines Fahrzeugs basierend auf Routeninformation einer gewünschten Route angegeben, das im Ablaufdiagramm von 4 dargestellt ist. Dieses Verfahren bezieht sich auf das Verwenden des Fahrzeugs mit dem Fahrunterstützungssystem, das das DCNN verwendet.The present invention also provides a method for applying a deep convolutional neural network for processing image data in a driving support system of a vehicle based on route information of a desired route, which is shown in the flowchart of 4 is shown. This procedure relates to using the vehicle with the driver assistance system that uses the DCNN.

Das Verfahren beginnt mit Verfahrensschritt S200. Verfahrensschritt S200 bezieht sich auf das Identifizieren der Route. Schritt S200 wird so ausgeführt, wie unter Bezug auf Schritt S130 ausführlich beschrieben wurde.The process begins with process step S200 , step S200 refers to identifying the route. step S200 is executed as with reference to step S130 has been described in detail.

Schritt S210 bezieht sich auf das Einrichten des tiefen konvolutionellen neuronalen Netzwerks mit den der Route zugeordneten individuellen Modelldaten. Schritt S210 wird wie unter Bezug auf S136 ausführlich beschrieben ausgeführt. Daher wird das DCNN mit den individuellen Modelldaten der jeweiligen Route aktiviert.step S210 refers to the establishment of the deep convolutional neural network with the individual model data assigned to the route. step S210 is carried out as described in detail with reference to S136. Therefore, the DCNN is activated with the individual model data of the respective route.

Schritt S220 bezieht sich auf das Verarbeiten der Bilddaten, die erfasst werden, wenn die Route mit dem Fahrzeug abgefahren wird, und das Verwenden des Fahrunterstützungssystems, das das tiefe konvolutionelle neuronale Netzwerk mit den der Route zugeordneten individuellen Modelldaten verwendet. Daher wird eine Anwendung des DCNN im Fahrunterstützungssystem bereitgestellt.step S220 refers to processing the image data acquired when the route is traveled by the vehicle and using the driving support system that uses the deep convolutional neural network with the individual model data associated with the route. Therefore, an application of the DCNN in the driving support system is provided.

ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of documents listed by the applicant has been generated automatically and is only included for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturPatent literature cited

  • EP 2213980 B1 [0014]EP 2213980 B1 [0014]
  • DE 10030932 A1 [0015]DE 10030932 A1 [0015]
  • DE 10258470 B4 [0016]DE 10258470 B4 [0016]
  • DE 10354910 B4 [0017]DE 10354910 B4 [0017]
  • DE 19916967 C1 [0018]DE 19916967 C1 [0018]
  • DE 102013211696 A1 [0019]DE 102013211696 A1 [0019]
  • DE 102015010542 A1 [0020]DE 102015010542 A1 [0020]

Claims (16)

Verfahren zum Trainieren eines tiefen konvolutionellen neuronalen Netzwerks zum Verarbeiten von Bilddaten zur Anwendung in einem Fahrunterstützungssystem eines Fahrzeugs unter Verwendung von Trainingsdaten, die Routeninformation enthalten, mit den Schritten: Bereitstellen eines anfangs trainierten tiefen konvolutionellen neuronalen Netzwerks mit allgemeinen Modelldaten; Bereitstellung eines Satzes annotierter Trainingsdaten, die Routeninformation enthalten; Einrichten des tiefen konvolutionellen neuronalen Netzwerks mit der Route zugeordneten individuellen Modelldaten basierend auf den allgemeinen Modelldaten; Ausführen eines Trainingsschritts des tiefen konvolutionellen neuronalen Netzwerks mit den der Route zugeordneten individuellen Modelldaten unter Verwendung des jeweiligen Satzes annotierter Trainingsdaten; und Speichern der der Route zugeordneten individuellen Modelldaten des tiefen konvolutionellen neuronalen Netzwerks.Method for training a deep convolutional neural network for processing image data for use in a driving support system of a vehicle using training data which contain route information, comprising the steps: Providing an initially trained deep convolutional neural network with general model data; Providing a set of annotated training data containing route information; Establishing the deep convolutional neural network with the route-assigned individual model data based on the general model data; Performing a training step of the deep convolutional neural network with the individual model data assigned to the route using the respective set of annotated training data; and Storage of the individual model data of the deep convolutional neural network assigned to the route. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass der Schritt zum Bereitstellen eines Satzes annotierter Trainingsdaten, die Routeninformation enthalten, das Identifizieren einer Fahrroute, Bereitstellen von Bilddaten als Trainingsdaten von mindestens einer Kamera beim Abfahren der Route und das automatische Annotieren der Bilddaten zum Bereitstellen des Satzes annotierter Trainingsdaten aufweist.Procedure according to Claim 1 , characterized in that the step of providing a set of annotated training data containing route information, identifying a driving route, providing image data as training data from at least one camera when driving the route, and automatically annotating the image data to provide the set of annotated training data. Verfahren nach Anspruch 2, dadurch gekennzeichnet, dass der Schritt zum Bereitstellen von Bilddaten von mindestens einer Kamera beim Abfahren der Route das Labeln der bereitgestellten Bilddaten mit Positionsinformation, insbesondere mit satellitenbasierter Positionsinformation, aufweist.Procedure according to Claim 2 , characterized in that the step of providing image data from at least one camera when driving the route comprises labeling the provided image data with position information, in particular with satellite-based position information. Verfahren nach Anspruch 2 oder 3, dadurch gekennzeichnet, dass der Schritt zum automatischen Annotieren der Bilddaten die Schritte aufweist: Verarbeiten eines Satzes nicht annotierter Trainingsdaten durch das tiefe konvolutionelle neuronale Netzwerk zum Erzeugen eines Satzes automatisch gelabelter Daten; Berechnen von Konfidenzmetriken für den Satz automatisch gelabelter Daten, und automatisches Relabeln des Satzes automatisch gelabelter Daten basierend auf den berechneten Konfidenzmetriken zum Erzeugen des Satzes annotierter Trainingsdaten.Procedure according to Claim 2 or 3 , characterized in that the step of automatically annotating the image data comprises the steps of: processing a set of non-annotated training data through the deep convolutional neural network to generate a set of automatically labeled data; Calculate confidence metrics for the set of automatically labeled data, and automatically relabel the set of automatically labeled data based on the calculated confidence metrics to generate the set of annotated training data. Verfahren nach Anspruch 4, dadurch gekennzeichnet, dass der Schritt zum Berechnen von Konfidenzmetriken für den Satz automatisch gelabelter Daten das Anwenden eines auf Computer Vision basierenden Konfidenzmetrikalgorithmus aufweist.Procedure according to Claim 4 , characterized in that the step of calculating confidence metrics for the set of automatically labeled data comprises applying a confidence vision algorithm based on Computer Vision. Verfahren nach Anspruch 4 oder 5, dadurch gekennzeichnet, dass der Schritt zum automatischen Relabeln des Satzes automatisch gelabelter Daten basierend auf den berechneten Konfidenzmetriken das Anwenden eines auf Computer Vision basierenden Labeling-Algorithmus aufweist.Procedure according to Claim 4 or 5 , characterized in that the step of automatically relabeling the set of automatically labeled data based on the computed confidence metrics comprises applying a labeling algorithm based on Computer Vision. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der Schritt zum Einrichten des konvolutionellen neuronalen Netzwerks mit der Route zugeordneten individuellen Modelldaten das Erzeugen der der Route zugeordneten individuellen Modelldaten als eine Kopie der allgemeinen Modelldaten oder das Laden der zuvor gespeicherten individuellen Modelldaten des tiefen konvolutionellen neuronalen Netzwerks aufweist.Method according to one of the preceding claims, characterized in that the step of setting up the convolutional neural network with the individual model data assigned to the route, generating the individual model data assigned to the route as a copy of the general model data or loading the previously stored individual model data of the deep convolutional neural network. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das Ausführen eines Trainingsschritts des tiefen konvolutionellen neuronalen Netzwerks mit den der Route zugeordneten individuellen Modelldaten unter Verwendung des jeweiligen Satzes annotierter Trainingsdaten das Trainieren der letzten Schichten des tiefen konvolutionellen neuronalen Netzwerks, insbesondere nur der letzten Schicht, aufweist.Method according to one of the preceding claims, characterized in that performing a training step of the deep convolutional neural network with the individual model data assigned to the route using the respective set of annotated training data, training the last layers of the deep convolutional neural network, in particular only the last layer , having. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das Verfahren als ein fahrzeuginternes Verfahren implementiert wird, wobei der Trainingsschritt des tiefen konvolutionellen neuronalen Netzwerks mit den der Route zugeordneten individuellen Modelldaten unter Verwendung des jeweiligen Satzes annotierter Trainingsdaten zum Trainieren des für ein bestimmtes Fahrzeug bereitgestellten tiefen konvolutionellen neuronalen Netzwerks ausgeführt wird.Method according to one of the preceding claims, characterized in that the method is implemented as an in-vehicle method, the training step of the deep convolutional neural network with the individual model data assigned to the route using the respective set of annotated training data for training that provided for a specific vehicle deep convolutional neural network. Verfahren nach Anspruch 9, dadurch gekennzeichnet, dass der Schritt zum Bereitstellen eines Satzes annotierter Trainingsdaten, die Routeninformation enthalten, das Bereitstellen des Satzes annotierter Trainingsdaten, die Routeninformation enthalten, unter Verwendung mindestens einer Kamera des Fahrzeugs aufweist.Procedure according to Claim 9 , characterized in that the step of providing a set of annotated training data containing route information comprises providing the set of annotated training data containing route information using at least one camera of the vehicle. Verfahren nach Anspruch 10, dadurch gekennzeichnet, dass der Schritt zum Bereitstellen des Satzes annotierter Trainingsdaten, die Routeninformation enthalten, unter Verwendung mindestens einer Kamera des Fahrzeugs das Akkumulieren von Trainingsdaten und das Bewerten, ob der Satz annotierter Trainingsdaten genügend Trainingsdaten enthält, aufweist.Procedure according to Claim 10 , characterized in that the step of providing of the set of annotated training data containing route information, using at least one camera of the vehicle, accumulating training data and evaluating whether the set of annotated training data contains enough training data. Verfahren nach Anspruch 10 oder 11, dadurch gekennzeichnet, dass der Schritt zum Bereitstellen des Satzes annotierter Trainingsdaten, die Routeninformation enthalten, unter Verwendung mindestens einer Kamera des Fahrzeugs das Filtern der Trainingsdaten basierend auf einer statistischen Analyse der Trainingsdaten aufweist.Procedure according to Claim 10 or 11 , characterized in that the step of providing the set of annotated training data containing route information using at least one camera of the vehicle comprises filtering the training data based on a statistical analysis of the training data. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der Schritt zum Ausführen eines Trainingsschritts des tiefen konvolutionellen neuronalen Netzwerks mit den der Route zugeordneten individuellen Modelldaten unter Verwendung des jeweiligen Satzes annotierter Trainingsdaten die Schritte aufweist: Bestimmen von Szenenstatistiken für den Satz annotierter Trainingsdaten; Klassifizieren des Satzes annotierter Trainingsdaten basierend auf den Szenenstatistiken; und automatisches Auswählen von Trainingsdaten aus dem Satz annotierter Trainingsdaten basierend auf der Klassifizierung.Method according to one of the preceding claims, characterized in that the step for executing a training step of the deep convolutional neural network with the individual model data assigned to the route using the respective set of annotated training data comprises the steps of: determining scene statistics for the set of annotated training data; Classifying the set of annotated training data based on the scene statistics; and automatically selecting training data from the set of annotated training data based on the classification. Verfahren nach Anspruch 13, dadurch gekennzeichnet, dass der Schritt zum Bestimmen von Szenenstatistiken für den Satz annotierter Trainingsdaten das Bestimmen von Labelstatistiken von mindestens einem aus einem Typ von Labels, einer Position von Labels und/oder Eigenschaften gelabelter Objekte aufweist, vorzugsweise das Bestimmen von Statistiken von Labelkombinationen.Procedure according to Claim 13 , characterized in that the step of determining scene statistics for the set of annotated training data comprises determining label statistics of at least one of a type of label, a position of labels and / or properties of labels, preferably determining statistics of label combinations. Verfahren zum Anwenden eines tiefen konvolutionellen neuronalen Netzwerks zum Verarbeiten von Bilddaten in einem Fahrunterstützungssystem eines Fahrzeugs basierend auf Routeninformation einer gewünschten Route, mit den Schritten: Identifizieren der Route; Einrichten des tiefen konvolutionellen neuronalen Netzwerks mit der Route zugeordneten individuellen Modelldaten; und Verarbeiten der Bilddaten, die erfasst werden, wenn die Route abgefahren wird, unter Verwendung des tiefen konvolutionellen neuronalen Netzwerks mit der Route zugeordneten individuellen Modelldaten.Method for applying a deep convolutional neural network for processing image data in a driving support system of a vehicle based on route information of a desired route, comprising the steps: Identifying the route; Establishing the deep convolutional neural network with the individual model data assigned to the route; and Processing the image data acquired when the route is traveled using the deep convolutional neural network with individual model data associated with the route. Fahrunterstützungssystem zum Ausführen eines Verfahrens nach einem der Ansprüche 1 bis 15.Driving support system for executing a method according to one of the Claims 1 to 15 ,
DE102018116036.4A 2018-07-03 2018-07-03 Training a deep convolutional neural network for individual routes Pending DE102018116036A1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102018116036.4A DE102018116036A1 (en) 2018-07-03 2018-07-03 Training a deep convolutional neural network for individual routes
PCT/EP2019/065629 WO2020007589A1 (en) 2018-07-03 2019-06-14 Training a deep convolutional neural network for individual routes

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102018116036.4A DE102018116036A1 (en) 2018-07-03 2018-07-03 Training a deep convolutional neural network for individual routes

Publications (1)

Publication Number Publication Date
DE102018116036A1 true DE102018116036A1 (en) 2020-01-09

Family

ID=67137896

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018116036.4A Pending DE102018116036A1 (en) 2018-07-03 2018-07-03 Training a deep convolutional neural network for individual routes

Country Status (2)

Country Link
DE (1) DE102018116036A1 (en)
WO (1) WO2020007589A1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102020107776A1 (en) 2020-03-20 2021-09-23 Bayerische Motoren Werke Aktiengesellschaft Train an automatic detection system
US11203362B1 (en) 2020-09-01 2021-12-21 Motional Ad Llc Scoring autonomous vehicle trajectories using reasonable crowd data
DE102020124174A1 (en) 2020-09-16 2022-03-17 Elektronische Fahrwerksysteme GmbH Method for providing a machine-learned control function for vehicle control using provided vehicle sensor data
DE102022111744A1 (en) 2022-05-11 2023-11-16 Bayerische Motoren Werke Aktiengesellschaft Computer-implemented method for creating a route for a data collection campaign, data processing device, server and motor vehicle

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11766822B2 (en) 2019-08-20 2023-09-26 3M Innovative Properties Company Microstructured surface with increased microorganism removal when cleaned, articles and methods
CN112238857B (en) * 2020-09-03 2021-09-17 北京国家新能源汽车技术创新中心有限公司 Control method for autonomous vehicle
CN116582480B (en) * 2023-07-12 2023-10-24 厦门大学 Method for searching least invalid link to make route unreachable

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19916967C1 (en) 1999-04-15 2000-11-30 Daimler Chrysler Ag Method for updating a traffic route network map and map-based method for generating vehicle guidance information
DE10030932A1 (en) 2000-06-24 2002-01-03 Bosch Gmbh Robert Method for generating, testing and updating digital street maps in which vehicles travelling through a map area record their positions using a positioning system and memory with the data used to test and update a digital map
DE10354910B4 (en) 2003-04-22 2007-04-05 Hyundai Motor Company Automatic vehicle control system and method for controlling this system
DE10258470B4 (en) 2002-12-09 2012-01-19 Volkswagen Ag Navigation device for motor vehicles
EP2213980B1 (en) 2009-01-28 2013-03-20 Audi AG Method for operating a navigation device of a motor vehicle and motor vehicle for same
DE102013211696A1 (en) 2013-06-20 2014-12-24 Bayerische Motoren Werke Aktiengesellschaft Method for completing and / or updating a digital road map, device for a motor vehicle and motor vehicle
DE102015010542A1 (en) 2015-08-12 2016-02-11 Daimler Ag Method for generating a digital environment map
DE102017103123A1 (en) * 2016-03-08 2017-09-14 Ford Global Technologies, Llc Vehicle lane placement
DE102017105661A1 (en) * 2016-03-17 2017-09-21 Ford Global Technologies, Llc VEHICLE LANE POSITION LIMIT

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB201616097D0 (en) * 2016-09-21 2016-11-02 Univ Oxford Innovation Ltd Segmentation of path proposals

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19916967C1 (en) 1999-04-15 2000-11-30 Daimler Chrysler Ag Method for updating a traffic route network map and map-based method for generating vehicle guidance information
DE10030932A1 (en) 2000-06-24 2002-01-03 Bosch Gmbh Robert Method for generating, testing and updating digital street maps in which vehicles travelling through a map area record their positions using a positioning system and memory with the data used to test and update a digital map
DE10258470B4 (en) 2002-12-09 2012-01-19 Volkswagen Ag Navigation device for motor vehicles
DE10354910B4 (en) 2003-04-22 2007-04-05 Hyundai Motor Company Automatic vehicle control system and method for controlling this system
EP2213980B1 (en) 2009-01-28 2013-03-20 Audi AG Method for operating a navigation device of a motor vehicle and motor vehicle for same
DE102013211696A1 (en) 2013-06-20 2014-12-24 Bayerische Motoren Werke Aktiengesellschaft Method for completing and / or updating a digital road map, device for a motor vehicle and motor vehicle
DE102015010542A1 (en) 2015-08-12 2016-02-11 Daimler Ag Method for generating a digital environment map
DE102017103123A1 (en) * 2016-03-08 2017-09-14 Ford Global Technologies, Llc Vehicle lane placement
DE102017105661A1 (en) * 2016-03-17 2017-09-21 Ford Global Technologies, Llc VEHICLE LANE POSITION LIMIT

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102020107776A1 (en) 2020-03-20 2021-09-23 Bayerische Motoren Werke Aktiengesellschaft Train an automatic detection system
US11203362B1 (en) 2020-09-01 2021-12-21 Motional Ad Llc Scoring autonomous vehicle trajectories using reasonable crowd data
DE102020128156A1 (en) 2020-09-01 2022-03-03 Motional Ad Llc EVALUATING TRAJECTORIES OF AUTONOMOUS VEHICLES USING REASONABLE QUANTITY DATA
US11755015B2 (en) 2020-09-01 2023-09-12 Motional Ad Llc Scoring autonomous vehicle trajectories using reasonable crowd data
DE102020124174A1 (en) 2020-09-16 2022-03-17 Elektronische Fahrwerksysteme GmbH Method for providing a machine-learned control function for vehicle control using provided vehicle sensor data
WO2022057979A1 (en) 2020-09-16 2022-03-24 Elektronische Fahrwerksysteme GmbH Method for providing a machine-learned control function for vehicle control on the basis of available vehicle sensor data
DE102022111744A1 (en) 2022-05-11 2023-11-16 Bayerische Motoren Werke Aktiengesellschaft Computer-implemented method for creating a route for a data collection campaign, data processing device, server and motor vehicle

Also Published As

Publication number Publication date
WO2020007589A1 (en) 2020-01-09

Similar Documents

Publication Publication Date Title
DE102018116036A1 (en) Training a deep convolutional neural network for individual routes
DE102018101125A1 (en) Recurrent deep neuronal convolution network for the detection of objects
DE112018007287T5 (en) VEHICLE SYSTEM AND METHOD FOR DETECTING OBJECTS AND OBJECT DISTANCE
DE102018120635A1 (en) DIVIDED PROCESSING WITH DEEP NEURONAL NETWORKS
DE102017103123A1 (en) Vehicle lane placement
DE102012207620A1 (en) System and method for light signal detection
DE102017203276B4 (en) Method and device for determining a trajectory in off-road scenarios
DE102017130488A1 (en) A method for classifying parking spaces in a surrounding area of a vehicle with a neural network
DE102018214510A1 (en) Parking ticket generation on the street
DE102019122266A1 (en) Park management systems and procedures
DE102018203583B4 (en) Method, driver assistance system and motor vehicle for the prediction of a position or a trajectory by means of a graph-based environment model
DE102018104270A1 (en) Method for predicting the behavior of at least one pedestrian
DE102018108361A1 (en) LAW RECORDING TRAINING SYSTEMS AND METHODS
DE102018111935A1 (en) Image processing system, image processing method, information processing apparatus and recording medium
DE102018133441A1 (en) Method and system for determining landmarks in the surroundings of a vehicle
DE102021128041A1 (en) IMPROVEMENT OF A VEHICLE NEURAL NETWORK
WO2020048669A1 (en) Method for determining a lane change indication of a vehicle, computer-readable storage medium, and vehicle
EP3644239A1 (en) Device and method for abstracting a dataset
DE102016124888A1 (en) A method for assisting a driver of a motor vehicle when parking using a driver assistance device, corresponding computer program product and driver assistance device
DE102018113621A1 (en) A method of training a convolutional neural network for processing image data for use in a driving support system
DE112018005749T5 (en) Lane marking determination device for automated driving
DE102017128082A1 (en) Meta-architecture design for a CNN network
WO2020094323A1 (en) Method for classifying objects by means of an automatically driving motor vehicle, and automatically driving motor vehicle
DE102017216802A1 (en) METHOD AND DEVICE FOR DETECTING LICENSES, DRIVER ASSISTANCE SYSTEM AND VEHICLE
DE102021202334A1 (en) FILTERING OPERATIONAL SCENARIOS WHEN OPERATING A VEHICLE

Legal Events

Date Code Title Description
R163 Identified publications notified