DE102018116036A1 - Training a deep convolutional neural network for individual routes - Google Patents
Training a deep convolutional neural network for individual routes Download PDFInfo
- Publication number
- DE102018116036A1 DE102018116036A1 DE102018116036.4A DE102018116036A DE102018116036A1 DE 102018116036 A1 DE102018116036 A1 DE 102018116036A1 DE 102018116036 A DE102018116036 A DE 102018116036A DE 102018116036 A1 DE102018116036 A1 DE 102018116036A1
- Authority
- DE
- Germany
- Prior art keywords
- route
- data
- training data
- neural network
- convolutional neural
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24133—Distances to prototypes
- G06F18/24137—Distances to cluster centroïds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Databases & Information Systems (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
Abstract
Die vorliegende Erfindung betrifft ein Verfahren zum Trainieren eines tiefen konvolutionellen neuronalen Netzwerks zum Verarbeiten von Bilddaten zur Anwendung in einem Fahrunterstützungssystem eines Fahrzeugs unter Verwendung von Trainingsdaten, die Routeninformation enthalten, mit den Schritten zum Bereitstellen eines anfangs trainierten tiefen konvolutionellen neuronalen Netzwerks mit allgemeinem Modelldaten, Bereitstellen eines Satzes annotierter Trainingsdaten, die Routeninformation enthalten, Einrichten des tiefen konvolutionellen neuronalen Netzwerks mit der Route zugeordneten individuellen Modelldaten basierend auf den allgemeinen Modelldaten, Ausführen eines Trainingsschritts des tiefen konvolutionellen neuronalen Netzwerks mit den der Route zugeordneten individuellen Modelldaten unter Verwendung des jeweiligen Satzes annotierter Trainingsdaten und Speichern der der Route zugeordneten individuellen Modelldaten des tiefen konvolutionellen neuronalen Netzwerks. Die vorliegende Erfindung betrifft auch ein Verfahren zum Anwenden eines tiefen konvolutionellen neuronalen Netzwerks zum Verarbeiten von Bilddaten in einem Fahrunterstützungssystem eines Fahrzeugs basierend auf Routeninformation einer gewünschten Route, mit den Schritten zum Identifizieren der Route, Einrichten des tiefen konvolutionellen neuronalen Netzwerks mit der Route zugeordneten individuellen Modelldaten und Verarbeiten der Bilddaten, die beim Fahren entlang der Route erfasst werden, unter Verwendung des tiefen konvolutionellen neuronalen Netzwerks mit der Route zugeordneten individuellen Modelldaten. Die vorliegende Erfindung betrifft des Weiteren ein Fahrunterstützungssystem zum Ausführen eines der vorstehenden Verfahren. The present invention relates to a method for training a deep convolutional neural network for processing image data for use in a driving support system of a vehicle using training data which contain route information, with the steps of providing an initially trained deep convolutional neural network with general model data a set of annotated training data containing route information, setting up the deep convolutional neural network with the individual model data assigned to the route based on the general model data, performing a training step of the deep convolutional neural network with the individual model data assigned to the route using the respective set of annotated training data and Storage of the individual model data of the deep convolutional neural network assigned to the route. The present invention also relates to a method for using a deep convolutional neural network for processing image data in a driving support system of a vehicle based on route information of a desired route, with the steps for identifying the route, setting up the deep convolutional neural network with the individual model data assigned to the route and processing the image data acquired while driving along the route using the deep convolutional neural network with individual model data associated with the route. The present invention further relates to a driving support system for performing one of the above methods.
Description
Die vorliegende Erfindung betrifft ein Verfahren zum Trainieren eines tiefen konvolutionellen neuronalen Netzwerks zum Verarbeiten von Bilddaten zur Anwendung in einem Fahrunterstützungssystem eines Fahrzeugs unter Verwendung von Trainingsdaten, die Routeninformation enthalten, mit den Schritten zum Bereitstellen eines anfänglich trainierten tiefen konvolutionellen neuronalen Netzwerks mit allgemeinen Modelldaten und Bereitstellen eines Satzes annotierter Trainingsdaten, die Routeninformation enthalten.The present invention relates to a method for training a deep convolutional neural network for processing image data for use in a driving support system of a vehicle using training data containing route information, with the steps of providing an initially trained deep convolutional neural network with general model data and providing it a set of annotated training data containing route information.
Auch betrifft die vorliegende Erfindung ein Verfahren zum Anwenden eines tiefen konvolutionellen neuronalen Netzwerks zum Verarbeiten von Bilddaten in einem Fahrunterstützungssystem eines Fahrzeugs basierend auf Routeninformation einer gewünschten Route.The present invention also relates to a method for using a deep convolutional neural network for processing image data in a driving support system of a vehicle based on route information of a desired route.
Des Weiteren betrifft die vorliegende Erfindung ein Fahrunterstützungssystem zum Ausführen eines beliebigen der obigen Verfahren.The present invention further relates to a driving support system for performing any of the above methods.
Autonomes und semi-autonomes Fahren werden in der Automobilindustrie immer wichtiger. Prototypen für autonomes Fahren werden bereits entwickelt und erprobt, teilweise sogar unter realen Fahrsituationen. Autonomes Fahren wird als eine bahnbrechende Technologie im Automobilsektor betrachtet.Autonomous and semi-autonomous driving are becoming increasingly important in the automotive industry. Prototypes for autonomous driving are already being developed and tested, sometimes even under real driving situations. Autonomous driving is seen as a breakthrough technology in the automotive sector.
Autonomes und semi-autonomes Fahren basiert auf der Kenntnis der Umgebung des Fahrzeugs. Basierend auf dieser Kenntnis kann das Fahrunterstützungssystem z.B. Gefahren für das Fahrzeug oder dritte Parteien identifizieren und auf eine geeignete Art agieren, um gefährliche Fahrsituationen zu entschärfen. Zu diesem Zweck werden verschiedene Arten von Umgebungssensoren in Fahrzeugen verbaut, um die Umgebung des Fahrzeugs zu überwachen. Solche Umgebungssensoren können beliebige Kombinationen von Sensoren aus Ultraschallsensoren, Sensoren auf LIDAR-Basis, Radarsensoren oder optischen Kameras aufweisen.Autonomous and semi-autonomous driving is based on knowledge of the surroundings of the vehicle. Based on this knowledge, the driving support system can e.g. Identify dangers to the vehicle or third parties and act in a suitable way to defuse dangerous driving situations. For this purpose, various types of environmental sensors are installed in vehicles to monitor the surroundings of the vehicle. Such environmental sensors can have any combination of sensors from ultrasonic sensors, LIDAR-based sensors, radar sensors or optical cameras.
Die Verarbeitung von Bilddaten einer optischen Kamera und insbesondere von Videodaten, die eine Folge von vielen Bildern pro Sekunde enthalten, ist eine herausfordernde Aufgabe. Processing image data from an optical camera, and particularly video data that contains a sequence of many images per second, is a challenging task.
Es muss eine gewaltige Datenmenge in Echtzeit verarbeitet werden, um die Umgebung des Fahrzeugs zuverlässig zu erfassen. Die Datenverarbeitungsressourcen des Fahrzeugs sind aber hinsichtlich des Raums zum Aufnehmen der Verarbeitungseinheiten und auch hinsichtlich der verfügbaren elektrischen Leistung begrenzt. Selbst wenn diese technischen Probleme gelöst wären, so bleibt der Preis für die Ressourcen begrenzt, um Fahrzeuge zu einem vertretbaren Preis anbieten zu können.A huge amount of data has to be processed in real time in order to reliably record the surroundings of the vehicle. However, the data processing resources of the vehicle are limited in terms of the space for accommodating the processing units and also in terms of the available electrical power. Even if these technical problems were solved, the price for the resources would remain limited in order to be able to offer vehicles at a reasonable price.
Neuronale Netzwerke sind ein sehr effektives Mittel zum Verarbeiten von Bilddaten. Anwendungen neuronaler Netzwerke zur Bildverarbeitung basieren typischerweise auf konvolutionellen neuronalen Netzwerken (Convolutional Neural Networks, CNNs) und insbesondere auf tiefen konvolutionellen neuronalen Netzwerken (Deep Convolutional Neural Networks, DCNNs). Die Verwendung derartiger Netzwerktypen hat vielversprechende Ergebnisse bei akzeptablem Preis gezeigt.Neural networks are a very effective means of processing image data. Applications of neural networks for image processing are typically based on convolutional neural networks (CNNs) and in particular on deep convolutional neural networks (DCNNs). The use of such network types has shown promising results at an acceptable price.
Bei der Nutzung tiefer konvolutioneller neuronaler Netzwerke stellen sich bei der Entwicklung geeigneter Strukturen neuronaler Netzwerke, insbesondere bei der Entwicklung von Grund auf, einige Fragen. Diese beinhalteten, um nur einige zu nennen, eine Definition eines geeigneten neuronalen Netzwerktyps, das Bestimmen einer Anzahl und einer Position von Eingaben, das Bestimmen einer Anzahl verborgener Schichten (Hidden Layers), die bei einem tiefen konvolutionellen neuronalen Netzwerk verwendet werden sollen, und das Bestimmen einer Anzahl erforderlicher Ausgangsneuronen. Diese Fragen sind wichtig, da im Falle eines zu großen/zu kleinen neuronalen Netzwerks das neuronale Netzwerk möglicherweise die Bilddaten über- bzw. unterbestimmen könnte. Infolgedessen würde das neuronale Netzwerk nicht in geeigneter Weise lernen anhand bereitgestellter Trainingsdaten geeignet zu generalisieren. In solchen Fällen kann, auch wenn der Fehler bei den Trainingsdaten auf einen sehr kleinen Wert unterdrückt wird, der Fehler zu groß sein, wenn dem neuronalen Netzwerk neue Bilddaten, d.h. von den zuvor zum Trainieren des neuronalen Netzwerks verwendeten Trainingsdaten verschiedene Bilddaten, präsentiert werden. In diesem Fall hat das neuronale Netzwerk die Trainingsdaten gespeichert, aber es hat nicht gelernt, anhand der bereitgestellten Trainingsdaten zu generalisieren, was für derartige neue Situationen mit neuen Bilddaten aber nötig wäre. Aufgrund dessen ist bei der Verwendung derartiger neuronaler Netzwerke ein geeignetes Training mit geeigneten Trainingsdaten extrem wichtig, die auf verschiedene neuronale Netzwerke angewendet werden können, um die Leistungsfähigkeit der verschiedenen neuronalen Netzwerke zu bewerten und miteinander zu vergleichen.When using deep convolutional neural networks, some questions arise in the development of suitable structures of neural networks, especially in the development from scratch. These included, to name a few, a definition of a suitable neural network type, the determination of a number and a position of inputs, the determination of a number of hidden layers to be used in a deep convolutional neural network, and that Determine a number of required output neurons. These questions are important because if the neural network is too large / too small, the neural network could possibly over- or under-determine the image data. As a result, the neural network would not learn appropriately to generalize appropriately from the training data provided. In such cases, even if the error in the training data is suppressed to a very small value, the error may be too large when new image data, i.e. different image data from the training data previously used for training the neural network are presented. In this case, the neural network has saved the training data, but has not learned to generalize from the training data provided, which would be necessary for such new situations with new image data. Because of this, when using such neural networks, suitable training with suitable training data that can be applied to different neural networks is extremely important in order to evaluate and compare the performance of the different neural networks.
Viele Firmen sind ständig damit beschäftigt, ihre eigenen Verfahren und Systeme weiterzuentwickeln, um autonome und semi-autonome Fahranwendungen zu ermöglichen, wie z.B. eine Autopilot-Funktion, die in anstehenden Hardware-Generationen in ihren Fahrzeugen eingesetzt werden soll. Die Nutzung neuronaler Netzwerke in autonomen oder semi-autonomen Fahranwendungen hängt jedoch von der Bereitstellung eines geeignet trainierten neuronalen Netzwerks ab, das in den Fahrzeugen genutzt werden kann. Daher ist die Verfügbarkeit geeigneter Trainingsdaten eine wesentliche Basis für autonome und semi-autonome Fahranwendungen. Daher sammeln Firmen, die mit der Entwicklung solcher autonomen und semi-autonomen Fahranwendungen befasst sind, ständig Bilddaten mit ihrer Fahrzeugflotte, die unter verschiedenen Bedingungen, z.B. Umgebungsbedingungen, Verkehrsbedingungen und dergleichen, auf Straßen unterwegs sind. Unglücklicherweise sind, um die Bilddaten als Trainingsdaten verwenden zu können, Annotationen erforderlich, die typischerweise durch einen Menschen erstellt werden. Daher ist das Annotieren der Bilddaten sehr zeitaufwändig und teuer.Many companies are constantly developing their own processes and systems to enable autonomous and semi-autonomous driving applications, such as an autopilot function that is to be used in upcoming hardware generations in their vehicles. However, the use of neural networks in autonomous or semi-autonomous driving applications depends on the provision of one trained neural network that can be used in the vehicles. Therefore, the availability of suitable training data is an essential basis for autonomous and semi-autonomous driving applications. For this reason, companies that are involved in the development of such autonomous and semi-autonomous driving applications are constantly collecting image data with their vehicle fleet that are on the road under various conditions, for example environmental conditions, traffic conditions and the like. Unfortunately, in order to use the image data as training data, annotations are typically required that are created by a human. Annotating the image data is therefore very time-consuming and expensive.
Darüber hinaus spielt die Datensammlung eine tragende Rolle beim Aufbau neuronaler Netzwerke. Wenn die Trainingsdaten zu umfangreich sind, könnte das neuronale Netzwerk beim Lernen auf einen gewünschten Genauigkeitsgrad hin Probleme haben. Daher wünscht sich der Designer z.B. die signifikantesten Elemente der Trainingsdaten aus dem gesamten Trainingsdatensatz zu identifizieren. Diese signifikanten Trainingsdaten können Bilder betreffen, die eine große Anzahl zu erfassender Merkmale enthalten. Entsprechend werden nur diese signifikantesten Elemente der Trainingsdaten für das Training des neuronalen Netzwerkes verwendet, und unwesentliche Trainingsdaten werden aus dem Trainingsdatensatz entfernt.In addition, data collection plays a key role in building neural networks. If the training data is too extensive, the neural network could have problems learning to a desired level of accuracy. Therefore, the designer wants e.g. identify the most significant elements of the training data from the entire training data set. This significant training data can relate to images that contain a large number of features to be recorded. Accordingly, only these most significant elements of the training data are used for training the neural network, and insignificant training data are removed from the training data record.
Eine Fahrunterstützung ist am meisten für die eintönigsten Fahrwege erwünscht. Dies betrifft insbesondere Fahrtrouten, die häufig gefahren werden, manchmal sogar täglich. Solche häufigen Pendelwege beinhalten beispielsweise eine Strecke von zu Hause zu einem Büro oder vom Büro nach Hause, eine Strecke von zu Hause zu einem Supermarkt, eine Strecke von zu Hause zu einem Park usw. Da dies die am häufigsten gefahrenen Strecken sind, ereignen sich die meisten Unfälle auf diesen Strecken, und es besteht ein erhöhter Bedarf, auch die häufigen Pendelwege sicher zu fahren. Darüber hinaus langweilen diese häufigen Pendelwege möglicherweise einen Fahrer oder Besitzer des Fahrzeugs, so dass autonome Fahrfunktionen, insbesondere eine Autopilotfunktion, zum Fahren des Fahrzeugs hochgradig erwünscht sind.Driving assistance is most desirable for the most monotonous routes. This applies in particular to routes that are driven frequently, sometimes even daily. Such frequent commuting routes include, for example, a route from home to an office or from home to office, a route from home to a supermarket, a route from home to a park, etc. Since these are the most frequently traveled routes, they occur most accidents on these routes, and there is an increased need to drive the frequent commuting routes safely. In addition, these frequent commuting routes may bore a driver or owner of the vehicle, so autonomous driving functions, particularly an autopilot function, are highly desirable for driving the vehicle.
Daher ist es äußerst wichtig, zu ermöglichen, dass diese Pendelwege autonom und sicher gefahren werden können.It is therefore extremely important to enable these commuting routes to be driven autonomously and safely.
In diesem Zusammenhang betrifft das Dokument
Das Dokument
Gemäß der
Das Dokument
Das Dokument
Das Dokument
Das Dokument
Der vorliegenden Erfindung liegt die Aufgabe zugrunde, ein Verfahren zum Trainieren eines tiefen konvolutionellen neuronalen Netzwerks zum Verarbeiten von Bilddaten zur Anwendung in einem Fahrunterstützungssystem eines Fahrzeugs unter Verwendung von Trainingsdaten, die Routeninformation enthalten, ein Verfahren zum Anwenden eines tiefen konvolutionellen neuronalen Netzwerks zum Verarbeiten von Bilddaten in einem Fahrunterstützungssystem eines Fahrzeugs basierend auf Routeninformation einer gewünschten Route und ein Fahrunterstützungssystem zum Ausführen eines beliebigen der vorstehenden Verfahren des oben genannten Typs anzugeben, die ein effizientes Trainieren eines tiefen konvolutionellen neuronalen Netzwerks ermöglichen und die Leistungsfähigkeit bei Anwendung des tiefen konvolutionellen neuronalen Netzwerks verbessern. Es ist eine weitere Aufgabe, ein effizientes Training eines in einem Fahrzeug oder in einem Fahrunterstützungssystem installierten DCNN zu ermöglichen.The present invention has for its object to provide a method for training a deep convolutional neural network for processing image data for use in a driving support system of a vehicle using training data which contain route information, a method for applying a deep convolutional neural network for processing image data in a driving support system of a vehicle based on route information of a desired route and a driving support system for executing any of the above methods of the above-mentioned type, which enable efficient training of a deep convolutional neural network and improve the performance using the deep convolutional neural network. Another task is to enable efficient training of a DCNN installed in a vehicle or in a driving support system.
Die Lösung dieser Aufgabe erfolgt durch die unabhängigen Ansprüche. Vorteilhafte Ausgestaltungen sind in den Unteransprüchen angegeben.This task is solved by the independent claims. Advantageous refinements are specified in the subclaims.
Insbesondere ist durch die vorliegende Erfindung ein Verfahren zum Trainieren eines tiefen konvolutionellen neuronalen Netzwerks zum Verarbeiten von Bilddaten zur Anwendung in einem Fahrunterstützungssystem eines Fahrzeugs unter Verwendung von Trainingsdaten, die Routeninformation enthalten angegeben, mit den Schritten zum Bereitstellen eines anfänglich trainierten tiefen konvolutionellen Netzwerks mit allgemeinen Modelldaten, Bereitstellen eines Satzes annotierter Trainingsdaten, die Routeninformation enthalten, Einrichten des tiefen konvolutionellen neuronalen Netzwerks mit der Route zugeordneten individuellen Modelldaten basierend auf den allgemeinen Modelldaten, Ausführen eines Trainingsschritts des tiefen konvolutionellen neuronalen Netzwerks mit den der Route zugeordneten individuellen Modelldaten unter Verwendung des jeweiligen Satzes annotierter Trainingsdaten, und Speichern der der Route zugeordneten individuellen Modelldaten des tiefen konvolutionellen neuronalen Netzwerks.In particular, the present invention provides a method for training a deep convolutional neural network for processing image data for use in a driving support system of a vehicle using training data containing route information, with the steps for providing an initially trained deep convolutional network with general model data Providing a set of annotated training data containing route information, setting up the deep convolutional neural network with the individual model data assigned to the route based on the general model data, performing a training step of the deep convolutional neural network with the individual model data assigned to the route using the respective set of annotated Training data, and storing the individual model data of the deep convolutional neural network assigned to the route ,
Durch die vorliegende Erfindung ist auch ein Verfahren zum Anwenden eines tiefen konvolutionellen neuronalen Netzwerks zum Verarbeiten von Bilddaten in einem Fahrunterstützungssystem eines Fahrzeugs basierend auf Routeninformation einer gewünschten Route angegeben, mit den Schritten zum Identifizieren der Route, Einrichten des tiefen konvolutionellen neuronalen Netzwerks mit der Route zugeordneten individuellen Modelldaten und Verarbeiten der Bilddaten, die beim Fahren entlang der Route erfasst werden, unter Verwendung des tiefen konvolutionellen neuronalen Netzwerks mit der Route zugeordneten individuellen Modelldaten.The present invention also provides a method for using a deep convolutional neural network for processing image data in a driving support system of a vehicle based on route information of a desired route, with the steps for identifying the route and establishing the deep convolutional neural network associated with the route individual model data and processing the image data acquired while driving along the route using the deep convolutional neural network with the individual model data associated with the route.
Durch die vorliegende Erfindung ist ferner ein Fahrunterstützungssystem zum Ausführen eines beliebigen der obigen Verfahren angegeben. The present invention further provides a driving support system for performing any of the above methods.
Grundidee der Erfindung ist es, eine einfache, aber effiziente Verbesserung für tiefe konvolutionelle neuronale Netzwerke (DCNN) bereitzustellen, insbesondere für alltägliche Fahrsituationen, die sich auf wiederholtes Befahren gleicher Wege beziehen und auch als Pendelwege bezeichnet werden. Solche Pendelwege weisen beispielsweise eine Route von zu Hause zu einem Büro oder vom Büro nach Hause, eine Route von zu Hause zu einem Supermarkt, eine Route von zu Hause zu einem Park usw. auf. Daher wird für diese Routen ein individuelles Training des tiefen konvolutionellen neuronalen Netzwerks ausgeführt, so dass der Trainingsschritt entsprechende Modelldaten für das tiefe konvolutionelle neuronale Netzwerk bereitstellt, die zum Befahren dieser Routen in hohem Maße geeignet sind. Mit dem speziellen Training des DCNN für diese Routen, die einen Großteil des Fahrbetriebs des Fahrzeugs abdecken, können Unfälle auf diesen Strecken besser vermieden werden. Dies ist umso wichtiger, da das Fahren entlang dieser Routen von Menschen, z.B. vom Besitzer oder Fahrer des Fahrzeugs, als langweilig angesehen wird. Die Aufmerksamkeit des Fahrers oder Besitzers des Fahrzeugs nimmt häufig ab, wenn er gelangweilt ist, so dass auch autonome Funktionen, insbesondere eine Autopilotfunktion für autonomes Fahren, hochgradig erwünscht sind, um die Verkehrssicherheit zu erhöhen.The basic idea of the invention is to provide a simple but efficient improvement for deep convolutional neural networks (DCNN), in particular for everyday driving situations which relate to repeated use of the same routes and are also referred to as commuting routes. Such commuting routes include, for example, a route from home to an office or from office to home, a route from home to a supermarket, a route from home to a park, etc. An individual training of the deep convolutional neural network is therefore carried out for these routes, so that the training step provides corresponding model data for the deep convolutional neural network that are highly suitable for driving on these routes. With the special training of the DCNN for these routes, which cover a large part of the driving of the vehicle, accidents on these routes can be better avoided. This is all the more important because driving along these routes is done by people, e.g. by the owner or driver of the vehicle is considered boring. The attention of the driver or owner of the vehicle often decreases when he is bored, so that autonomous functions, in particular an autopilot function for autonomous driving, are also highly desirable in order to increase traffic safety.
Das neuronale Netzwerk, das mit dem vorgeschlagenen Verfahren trainiert wird, ist ein tiefes konvolutionelles neuronales Netzwerk (DCNN) zum Verarbeiten von Bilddaten. DCNNs sind eine spezielle Implementierung von allgemeineren konvolutionellen neuronalen Netzwerken (CNN). CNNs haben eine Eingabe- und eine Ausgabeebene sowie mehrere verborgene Schichten. Die verborgenen Schichten eines CNN bestehen typischerweise aus konvolutionellen Schichten, Pooling-Schichten, Fully-Connected-Schichten und Normierungsschichten. Die konvolutionellen Schichten wenden eine Faltungsoperation auf die Eingabe an und leiten das Ergebnis an die nächste Schicht weiter. Die Faltung emuliert die Antwort eines einzelnen Neurons auf visuelle Reize.The neural network that is trained with the proposed method is a deep convolutional neural network (DCNN) for processing image data. DCNNs are a special implementation of more general convolutional neural networks (CNN). CNNs have an input and an output level as well as several hidden layers. The hidden layers of a CNN typically consist of convolutional layers, pooling layers, fully connected layers and standardization layers. The convolutional layers apply a convolution operation to the input and forward the result to the next layer. The convolution emulates a single neuron's response to visual stimuli.
Solche DCNNs werden im Zusammenhang mit Fahranwendungen in Fahrzeugen immer mehr verwendet. Daher werden die DCNNs insbesondere z.B. in Fahrunterstützungssystemen von Fahrzeugen verwendet. Die Fahrunterstützungssysteme beinhalten Fahrerassistenzsysteme, die einen menschlichen Fahrer des Fahrzeugs bei verschiedenen Fahrsituationen unterstützen, oder Systeme, die autonomes Fahren des Fahrzeugs unterstützen, indem sie Eingaben bereitstellen, um verschiedene Verkehrssituationen zuverlässig zu handhaben.Such DCNNs are increasingly used in connection with driving applications in vehicles. Therefore, the DCNNs in particular e.g. used in vehicle driving support systems. The driving support systems include driver assistance systems that assist a human driver of the vehicle in various driving situations, or systems that support autonomous driving of the vehicle by providing inputs to reliably handle different traffic situations.
Der Schritt zum Bereitstellen eines anfänglich trainierten tiefen konvolutionellen neuronalen Netzwerks mit allgemeinen Modelldaten bezieht sich auf das Bereitstellen eines im Voraus trainierten DCNN. Das DCNN kann trainiert werden, bevor es mit Standardtrainingsdaten an das Fahrzeug übertragen wird. Diese Standardtrainingsdaten sind unabhängig von einer durch einen Fahrer oder Besitzer des Fahrzeugs befahrenen Route. Das im Voraus trainierte DCNN ist bereit für den Einsatz im Fahrunterstützungssystem.The step of providing an initially trained deep convolutional neural network with general model data relates to providing a pre-trained DCNN. The DCNN can be trained before it is transmitted to the vehicle with standard training data. These standard training data are independent of a route traveled by a driver or owner of the vehicle. The pre-trained DCNN is ready for use in the driver support system.
Der Schritt zum Bereitstellen eines Satzes annotierter Trainingsdaten, die Routeninformation enthalten, bezieht sich auf das Bereitstellen der Trainingsdaten mit Labels bezüglich dargestellter Merkmale. Die Labels können manuell hinzugefügt werden, z.B. durch eine menschliche Person, oder automatisch unter Verwendung z.B. eine bereits trainierten DCNN oder einer anderen Technologie. Die Routeninformation bezieht sich auf irgendeine Art von Identifizierung der Route. Die Identifizierung kann manuell hinzugefügt werden, z.B. durch den Besitzer oder Fahrer des Fahrzeugs, oder automatisch, z.B. basierend auf Positionsdaten.The step of providing a set of annotated training data containing route information relates to providing the training data with labels with respect to the features shown. The labels can be added manually, e.g. by a human person, or automatically using e.g. an already trained DCNN or other technology. The route information relates to some kind of identification of the route. The identification can be added manually, e.g. by the owner or driver of the vehicle, or automatically, e.g. based on location data.
Der Schritt zum Einrichten des tiefen konvolutionellen neuronalen Netzwerks mit der Route zugeordneten individuellen Modelldaten basierend auf den allgemeinen Modelldaten bezieht sich auf das Bereitstellen des DCNN zum Trainieren des DCNN für eine bestimmte Route.The step of setting up the deep convolutional neural network with the individual model data assigned to the route based on the general model data relates to providing the DCNN for training the DCNN for a specific route.
Das Ausführen des Trainingsschritts des tiefen konvolutionellen neuronalen Netzwerks mit den der Route zugeordneten individuellen Modelldaten unter Verwendung des jeweiligen Satzes annotierter Trainingsdaten bezieht sich auf das Trainieren des tiefen konvolutionellen neuronalen Netzwerks, das mit den individuellen Modelldaten unter Verwendung des jeweiligen Satzes annotierter Trainingsdaten eingerichtet ist, der sich auf diese Route bezieht. Daher kann ein besonderes Training ausgeführt werden, das mögliche Merkmale entlang dieser Route abdeckt, wodurch ein hocheffizientes DCNN beim Befahren dieser Route bereitgestellt wird.Performing the training step of the deep convolutional neural network with the individual model data assigned to the route using the respective set of annotated training data refers to training the deep convolutional neural network that is set up with the individual model data using the respective set of annotated training data that refers to this route. Therefore, special training can be carried out that covers possible features along this route, thereby providing a highly efficient DCNN when driving this route.
Der Schritt zum Speichern der der Route zugeordneten individuellen Modelldaten des tiefen konvolutionellen neuronalen Netzwerks bezieht sich auf das Speichern der individuellen Modelldaten zur späteren Verwendung, wenn das Fahrzeug verwendet wird, um die bestimmte Route abzufahren. Vorzugsweise wird eine Verifizierung ausgeführt, um zu verifizieren, ob ein Fehler in den Trainingsdaten unter Verwendung der individuellen Modelldaten niedriger ist als der Fehler vorangehender individueller Modelldaten.The step of storing the deep convolutional neural network individual model data associated with the route refers to storing the individual model data for later use when the vehicle is used to drive the particular route. Verification is preferably performed to verify whether an error in the training data using the individual model data is lower than the error in previous individual model data.
Das Verfahren zum Anwenden eines tiefen konvolutionellen neuronalen Netzwerks zum Verarbeiten von Bilddaten in einem Fahrunterstützungssystem eines Fahrzeugs basierend auf Routeninformation einer gewünschten Route bezieht sich auf das Verwenden des Fahrzeugs mit dem Fahrunterstützungssystem, das das DCNN verwendet. The method of applying a deep convolutional neural network to process image data in a driving support system of a vehicle based on route information of a desired route relates to using the vehicle with the driving support system using the DCNN.
Der Schritt zum Identifizieren der Route kann im Voraus ausgeführt werden, z.B. wenn eine Routenplanung unter Verwendung eines Navigationssystems des Fahrzeugs ausgeführt wird. Alternativ kann die Route während der Fahrt des Fahrzeugs z.B. basierend auf Positionsdaten, insbesondere Satellitenpositionsdaten, basierend auf einer Erkennung von Orientierungspunkten oder basierend auf irgendeiner anderen Erkennung der Route identifiziert werden.The step of identifying the route can be carried out in advance, e.g. when route planning is carried out using a navigation system of the vehicle. Alternatively, the route can be e.g. based on position data, in particular satellite position data, based on a recognition of orientation points or based on any other recognition of the route.
Der Schritt zum Einrichten des tiefen konvolutionellen neuronalen Netzwerks mit der Route zugeordneten individuellen Modelldaten bezieht sich auf das Aktivieren des DCNN mit den individuellen Modelldaten der jeweiligen Route.The step for setting up the deep convolutional neural network with the individual model data assigned to the route relates to the activation of the DCNN with the individual model data of the respective route.
Der Schritt zum Verarbeiten der Bilddaten, die beim Befahren der Route erfasst werden, unter Verwendung des tiefen konvolutionellen neuronalen Netzwerks mit der Route zugeordneten individuellen Modelldaten bezieht sich auf eine Anwendung des DCNN im Fahrunterstützungssystem.The step of processing the image data that is acquired when driving on the route using the deep convolutional neural network with the individual model data assigned to the route relates to an application of the DCNN in the driving support system.
Gemäß einer modifizierten Ausführungsform der Erfindung weist der Schritt zum Bereitstellen eines Satzes annotierter Trainingsdaten, die Routeninformation enthalten, das Identifizieren einer Fahrroute, das Bereitstellen von Bilddaten als Trainingsdaten von mindestens einer Kamera beim Befahren der Route und das automatische Annotieren der Bilddaten zum Bereitstellen des Satzes annotierter Trainingsdaten auf. Die Fahrroute kann basierend auf einer Benutzereingabe oder automatisch basierend z.B. auf Ortsinformation mindestens eines Startpunkts und eines Endpunkts der Route identifiziert werden. Die Route kann vor dem Befahren der Route oder danach identifiziert werden. Die Bilddaten können beim Befahren der Route mit einem bestimmten Fahrzeug bereitgestellt werden, z.B. mit dem Fahrzeug, in dem das DCNN implementiert ist. Die Bilddaten können jedoch auch bereitgestellt werden, wenn die Route mit anderen Fahrzeugen befahren wird, auch ohne dass in dem bestimmten Fahrzeug das DCNN implementiert ist. Darüber hinaus ermöglicht der Schritt zum automatischen Annotieren der Bilddaten zum Bereitstellen des Satzes annotierter Trainingsdaten das Erzeugen des Satzes annotierter Trainingsdaten ohne menschliche Interaktion. Daher kann das Erzeugen gültiger Trainingsdaten verbessert werden, und Zeit und Geld, die typischerweise für die manuelle Annotation von Trainingsdaten aufgewendet werden, können reduziert werden. Der Schritt zum automatischen Annotieren der Bilddaten zum Bereitstellen des Satzes annotierter Trainingsdaten kann an einem beliebigen Ort ausgeführt werden, z.B. unter Verwendung des Fahrunterstützungssystems des Fahrzeugs. Daher kann der gesamte Schritt zum Bereitstellen des Satzes annotierter Trainingsdaten, die Routeninformation enthalten, durch das Fahrzeug und innerhalb des Fahrzeugs ausgeführt werden. Es ist keine Datenübermittlung oder Datenübertragung zwischen dem Fahrunterstützungssystem und einem externen Server erforderlich.According to a modified embodiment of the invention, the step of providing a set of annotated training data containing route information, identifying a driving route, providing image data as training data from at least one camera when driving the route, and automatically annotating the image data to provide the set of annotated Training data on. The driving route can be based on user input or automatically based e.g. be identified based on location information of at least one starting point and one end point of the route. The route can be identified before or after driving on the route. The image data can be provided when driving the route with a specific vehicle, e.g. with the vehicle in which the DCNN is implemented. However, the image data can also be provided if the route is traveled by other vehicles, even without the DCNN being implemented in the specific vehicle. In addition, the step of automatically annotating the image data to provide the set of annotated training data enables the set of annotated training data to be generated without human interaction. Therefore, the generation of valid training data can be improved and the time and money typically spent on manual annotation of training data can be reduced. The step of automatically annotating the image data to provide the set of annotated training data can be performed at any location, e.g. using the vehicle's driving support system. Therefore, the entire step of providing the set of annotated training data containing route information can be performed by and within the vehicle. No data transmission or data transmission between the driving support system and an external server is required.
Gemäß einer modifizierten Ausführungsform der Erfindung weist der Schritt zum Bereitstellen von Bilddaten von mindestens einer Kamera beim Befahren der Route das Labeln der bereitgestellten Bilddaten mit Positionsinformation, insbesondere mit satellitenbasierter Positionsinformation, auf. Abgesehen von dem Identifizieren der Route, die mit dem Fahrzeug abgefahren wird, wenn die Bilddaten erzeugt werden, kann die Positionsinformation ferner z.B. zu dem Zweck der Zusammenstellung bestimmter Routen basierend auf Kombinationen von Routenabschnitten verwendet werden, die zuvor abgefahren worden sind, um Trainingsdaten zu sammeln und den Satz annotierter Trainingsdaten bereitzustellen. Daher ist es nicht einmal erforderlich, eine bestimmte Route abzufahren, um einen Satz annotierter Trainingsdaten bereitzustellen, die die Route enthalten. Mit einer ausreichend großen Datenbank von Bilddaten kann ein Satz annotierter Trainingsdaten für im Wesentlichen jede Route bereitgestellt werden. Der Satz annotierter Trainingsdaten kann sofort bereitgestellt werden, bereits zum Zeitpunkt der erstmaligen Verwendung des Fahrzeugs. Darüber hinaus kann die Positionsinformation verwendet werden, um die Bilddaten zu verarbeiten und verschiedene Bedingungen zum Bereitstellen der Bilddaten vom gleichen Ort zu bestimmen. Daher können Bilddaten, die an ähnlichen Orten bereitgestellt werden, identifiziert und gefiltert werden, um Bilddaten mit unterschiedlichen Eigenschaften auszuwählen, z.B. mit unterschiedlichen Beleuchtungsbedingungen, unterschiedlichen Wetterbedingungen, unterschiedlichen Verkehrsbedingungen oder anderen Eigenschaften. Dies wird die Datenredundanz in dem Satz annotierter Trainingsdaten reduzieren, und der Trainingsschritt des DCNN kann auf eine effiziente Weise ausgeführt werden. Die Bilddaten können mit Positionsinformation basierend auf Ortsinformation gelabelt werden, die z.B. durch GPS-, Galileo-, GLONASS- oder Beidou-Satellitenortungssysteme bereitgestellt wird.According to a modified embodiment of the invention, the step of providing image data from at least one camera when driving the route comprises labeling the provided image data with position information, in particular with satellite-based position information. In addition to identifying the route that the vehicle travels when the image data is generated, the position information can also be e.g. be used for the purpose of compiling certain routes based on combinations of route sections that have been traveled previously to collect training data and to provide the set of annotated training data. Therefore, it is not even necessary to follow a particular route to provide a set of annotated training data that includes the route. With a sufficiently large database of image data, a set of annotated training data can be provided for essentially every route. The set of annotated training data can be made available as soon as the vehicle is used for the first time. In addition, the position information can be used to process the image data and to determine different conditions for providing the image data from the same location. Therefore, image data provided in similar locations can be identified and filtered to select image data with different properties, e.g. with different lighting conditions, different weather conditions, different traffic conditions or other properties. This will reduce data redundancy in the set of annotated training data and the training step of the DCNN can be carried out in an efficient manner. The image data can be labeled with position information based on location information, e.g. is provided by GPS, Galileo, GLONASS or Beidou satellite positioning systems.
Gemäß einer modifizierten Ausführungsform der Erfindung weist der Schritt zum automatischen Annotieren der Bilddaten die Schritte zum Verarbeiten eines Satzes nicht annotierter Trainingsdaten durch das tiefe konvolutionelle neuronale Netzwerk zum Erzeugen eines Satzes automatisch annotierter Daten, Berechnen von Konfidenzmetriken für den Satz automatisch gelabelter Daten und automatischen Relabeln des Satzes automatisch gelabelter Daten basierend auf den berechneten Konfidenzmetriken zum Erzeugen des Satzes annotierter Trainingsdaten auf.According to a modified embodiment of the invention, the step of automatically annotating the image data automatically includes the steps of processing a set of non-annotated training data through the deep convolutional neural network to generate a set annotated data, calculating confidence metrics for the set of automatically labeled data and automatically relabeling the set of automatically labeled data based on the calculated confidence metrics to generate the set of annotated training data.
Die vorgeschlagene Verwendung des DCNN zum automatischen Annotieren der Bilddaten ist einfach und laufzeiteffizient, da die Verwendung des anfangs trainierten DCNN zum Verarbeiten der Bilddaten zum Erzeugen des Satzes automatisch gelabelter Daten bereits das DCNN nutzt. Die Konfidenzmetriken können auch automatisch und auf eine effiziente Weise berechnet werden. Die Konfidenzmetriken für den Satz automatisch gelabelter Daten ermöglichen eine einfache Bewertung der Relevanz der durch das DCNN erzeugten Labels. Falls die Konfidenzmetriken einen hohen Konfidenzgrad in den durch das DCNN erzeugten automatisch gelabelten Daten anzeigen, ändert der automatische Relabeling-Schritt die Label nicht. Andernfalls ist es erforderlich, das Labeling zu ändern und den Satz automatisch gelabelter Daten automatisch zu relabeln. Dies kann sich auf das Modifizieren aller Labels oder nur auf das Modifizieren einiger Labels beziehen, die dem Satz automatisch gelabelter Daten zugewiesen sind. Das Relabeln ist nicht so effizient wie das Verarbeiten der Bilddaten unter Verwendung des DCNN. Der Aufwand des Relabelns, d.h. die Verwendung des weniger effizienten Labeling-Prozesses, ist jedoch nur in Fällen erforderlich, in denen das DCNN den Satz annotierter Trainingsdaten nicht auf eine ausreichend zuverlässige Weise verarbeiten kann, was durch die Konfidenzmetriken angezeigt wird. Das tiefe konvolutionelle neuronale Netzwerk kann das anfangs trainierte tiefe konvolutionelle neuronale Netzwerk mit den allgemeinen Modelldaten sein, oder das tiefe konvolutionelle neuronale Netzwerk mit den individuellen Modelldaten, die der Route zugeordnet sind, der die Bilddaten entsprechen.The proposed use of the DCNN for the automatic annotation of the image data is simple and time-efficient since the use of the initially trained DCNN for processing the image data to generate the set of automatically labeled data already uses the DCNN. The confidence metrics can also be calculated automatically and in an efficient manner. The confidence metrics for the set of automatically labeled data enable a simple assessment of the relevance of the labels generated by the DCNN. If the confidence metrics indicate a high degree of confidence in the automatically labeled data generated by the DCNN, the automatic relabeling step does not change the labels. Otherwise, it is necessary to change the labeling and automatically relabel the set of automatically labeled data. This can refer to modifying all labels or just modifying some labels associated with the set of automatically labeled data. Relabeling is not as efficient as processing the image data using the DCNN. The effort of relabeling, i.e. however, the use of the less efficient labeling process is only required in cases where the DCNN cannot process the set of annotated training data in a sufficiently reliable manner, as indicated by the confidence metrics. The deep convolutional neural network may be the initially trained deep convolutional neural network with the general model data, or the deep convolutional neural network with the individual model data associated with the route that the image data corresponds to.
Gemäß einer modifizierten Ausführungsform der Erfindung weist der Schritt zum Berechnen von Konfidenzmetriken für den Satz automatisch gelabelter Daten das Anwenden eines auf Computer Vision basierenden Konfidenzmetrikalgorithmus auf. Computer Vision ist im Allgemeinen leistungsfähig und hat bereits ein hohes Qualitätsniveau zum Erkennen von Merkmale erreicht. In diesem Bereich sind verschiedene Verfahren zum Berechnen von Konfidenzmetriken bekannt, die zum Berechnen der Konfidenzmetriken für den Satz automatisch gelabelter Daten verwendet werden.According to a modified embodiment of the invention, the step of computing confidence metrics for the set of automatically labeled data comprises applying a confidence metric algorithm based on Computer Vision. Computer vision is generally powerful and has already reached a high quality level for recognizing features. Various methods for computing confidence metrics are known in this area that are used to calculate confidence metrics for the set of automatically labeled data.
Gemäß einer modifizierten Ausführungsform der Erfindung weist der Schritt zum automatischen Relabeln des Satzes automatisch gelabelter Daten basierend auf den berechneten Konfidenzmetriken das Anwenden eines auf Computer Vision basierenden Labeling-Algorithmus auf. Computer Vision ist im Allgemeinen leistungsfähig und hat bereits ein hohes Qualitätsniveau zum Erkennen von Merkmalen erreicht. Für den Fall, dass die Konfidenz des automatischen Labeling-Prozesses durch das DCNN nicht ausreichend ist, kann Computer Vision verwendet werden, um den jeweiligen Bilddaten erforderliche Labels hinzuzufügen.According to a modified embodiment of the invention, the step of automatically relabeling the set of automatically labeled data based on the calculated confidence metrics comprises applying a labeling algorithm based on Computer Vision. Computer vision is generally powerful and has already reached a high quality level for recognizing features. In the event that the confidence of the automatic labeling process by the DCNN is not sufficient, Computer Vision can be used to add the necessary labels to the respective image data.
Gemäß einer modifizierten Ausführungsform der Erfindung weist der Schritt zum Einrichten des konvolutionellen neuronalen Netzwerks mit der Route zugeordneten individuellen Modelldaten das Erzeugen der der Route zugeordneten individuellen Modelldaten als eine Kopie der allgemeinen Modelldaten oder das Laden der zuvor gespeicherten, der Route zugeordneten individuellen Modelldaten des tiefen konvolutionellen neuronalen Netzwerks auf. Wenn das Verfahren zum ersten Mal ausgeführt wird, sind keine individuellen Modelldaten verfügbar. Da das DCNN ein geeignetes Training erhalten hat, um die allgemeinen Modelldaten bereitzustellen, kann dieses allgemeine Modell als Ausgangspunkt zum Trainieren des DCNN für die bestimmte Route herangezogen werden. Sobald ein solches Training für eine bestimmte Route ausgeführt worden ist, sind der Route zugeordnete individuelle Modelldaten des tiefen konvolutionellen neuronalen Netzwerks erzeugt und gespeichert worden, so dass sie verfügbar sind. Somit können diese individuellen Modelldaten als Basis für ein weiteres Training des DCNN für die bestimmte Route verwendet werden.According to a modified embodiment of the invention, the step for setting up the convolutional neural network with the individual model data assigned to the route comprises generating the individual model data assigned to the route as a copy of the general model data or loading the previously stored individual model data of the deep convolutional data assigned to the route neural network. When the procedure is run for the first time, no individual model data is available. Since the DCNN has received suitable training to provide the general model data, this general model can be used as a starting point for training the DCNN for the particular route. As soon as such training has been carried out for a specific route, individual model data of the deep convolutional neural network assigned to the route have been generated and stored so that they are available. This individual model data can thus be used as the basis for further training of the DCNN for the specific route.
Gemäß einer modifizierten Ausführungsform der Erfindung weist das Ausführen eines Trainingsschritts des tiefen konvolutionellen neuronalen Netzwerks mit den der Route zugeordneten individuellen Modelldaten unter Verwendung des jeweiligen Satzes annotierter Trainingsdaten das Trainieren letzter Schichten des tiefen konvolutionellen neuronalen Netzwerks, insbesondere nur der letzten Schicht, auf. Das Trainieren nur der letzten Schichten, insbesondere der letzten Schicht des DCNN, reduziert die Anzahl von für die individuellen Modelldaten zu speichernden Parametern. Mit den vorgegebenen allgemeinen Modelldaten des DCNN, die basierend auf einem Training erzeugt worden sind, kann angenommen werden, dass das DCNN zumindest im Allgemeinen richtig funktioniert. Angesichts der spezifischen Routen kann jedoch eine weitere Verbesserung für diese spezifischen Routen ohne Modifikation der oberen Schichten des DCNN erreicht werden, d.h. mit nur geringen Anpassungen des DCNN basierend auf den allgemeinen Modelldaten. Daher kann der Trainingsschritt sogar in Systemen mit Verarbeitungseinschränkungen, entweder bezüglich der Verarbeitungsleistung oder der Speicherfähigkeit, ausgeführt werden. Weiter bevorzugt weist der Schritt zum Speichern der der Route zugeordneten individuellen Modelldaten des tiefen konvolutionellen neuronalen Netzwerks das Speichern nur der letzten Schichten des tiefen konvolutionellen neuronalen Netzwerks, insbesondere nur der letzten Schicht, auf. Die restlichen Modelldaten können den allgemeinen Modelldaten entnommen werden, die für das DCNN bereitgestellt werden. Daher ist nur wenig Speicherfähigkeit erforderlich, um die individuellen Modelldaten für jede Route zu speichern, was in Systemen mit Speichereinschränkungen wichtig sein kann. Daher ist es beim Einrichten des konvolutionellen neuronalen Netzwerk mit der Route zugeordneten individuellen Modelldaten auch lediglich erforderlich z.B. die individuellen Modelldaten zu erzeugen oder die individuellen Modelldaten des DCNN nur für seine letzten Schichten, insbesondere nur für die letzte Schicht, zu laden.According to a modified embodiment of the invention, carrying out a training step of the deep convolutional neural network with the individual model data assigned to the route using the respective set of annotated training data comprises training last layers of the deep convolutional neural network, in particular only the last layer. Training only the last layers, especially the last layer of the DCNN, reduces the number of parameters to be saved for the individual model data. With the given general model data of the DCNN, which have been generated based on a training, it can be assumed that the DCNN is functioning correctly at least in general. In view of the specific routes, however, a further improvement can be achieved for these specific routes without modification of the upper layers of the DCNN, ie with only minor adjustments to the DCNN based on the general model data. Therefore, the training step can be carried out even in systems with processing restrictions, either in terms of processing power or storage capacity. The step furthermore preferably has for storing the individual model data of the deep convolutional assigned to the route neural network only storing the last layers of the deep convolutional neural network, in particular only the last layer. The remaining model data can be found in the general model data provided for the DCNN. Therefore, little storage is required to store the individual model data for each route, which can be important in systems with memory restrictions. Therefore, when setting up the convolutional neural network with the individual model data assigned to the route, it is only necessary to generate, for example, the individual model data or to load the individual model data of the DCNN only for its last layers, in particular only for the last layer.
Für Systeme ohne solche Einschränkungen kann es bevorzugt sein, den Trainingsschritt für alle Schichten des DCNN auszuführen, um die Gesamtleistung des DCNN weiter zu verbessern.For systems without such limitations, it may be preferable to perform the training step for all layers of the DCNN to further improve the overall performance of the DCNN.
Gemäß einer modifizierten Ausführungsform der Erfindung wird das Verfahren als ein fahrzeuginternes Verfahren implementiert, bei dem der Trainingsschritt des tiefen konvolutionellen neuronalen Netzwerks mit den der Route zugeordneten individuellen Modelldaten unter Verwendung des jeweiligen Satzes annotierter Trainingsdaten zum Trainieren des für ein bestimmtes Fahrzeug vorgesehenen tiefen konvolutionellen neuronalen Netzwerks ausgeführt wird. Daher kann das Fahrzeug, insbesondere sein Fahrunterstützungssystem, z.B. an einen individuellen Besitzer oder Fahrer des Fahrzeugs und an bestimmte Strecken angepasst werden, die wiederholt mit dem Fahrzeug gefahren werden. Daher wird das DCNN für die Bedürfnisse des Besitzers oder Fahrers des Fahrzeugs optimal trainiert, um ein höchstmögliches Maß an Sicherheit und Komfort für jeden Besitzer oder Fahrer des Fahrzeugs bereitzustellen. Der Satz annotierter Trainingsdaten kann extern bereitgestellt werden, z.B. wenn der Besitzer oder Fahrer des Fahrzeugs bevorzugte Routen definiert und den Satz annotierter Trainingsdaten dafür empfängt, die von einem externen Anbieter zugeführt werden. Dies ermöglicht ein sofortiges Training des DCNN. In diesem Fall kann der Satz annotierter Trainingsdaten von einer mit dem Fahrzeug verbundenen Speichereinrichtung oder über eine Datenverbindung zwischen einem Server und dem Fahrzeug bereitgestellt werden. Die Datenverbindung ist eine kabelgebundene oder drahtlose Datenverbindung. Der Server kann z.B. als Cloud-Server über das Internet bereitgestellt werden.According to a modified embodiment of the invention, the method is implemented as an in-vehicle method in which the training step of the deep convolutional neural network with the individual model data assigned to the route using the respective set of annotated training data for training the deep convolutional neural network intended for a specific vehicle is performed. Therefore, the vehicle, in particular its driving support system, e.g. be adapted to an individual owner or driver of the vehicle and to certain routes that are repeatedly driven by the vehicle. Therefore, the DCNN is optimally trained for the needs of the owner or driver of the vehicle in order to provide the highest possible level of safety and comfort for every owner or driver of the vehicle. The set of annotated training data can be provided externally, e.g. when the owner or driver of the vehicle defines preferred routes and receives the set of annotated training data therefor that is supplied by an external provider. This enables immediate training of the DCNN. In this case, the set of annotated training data can be provided by a storage device connected to the vehicle or via a data connection between a server and the vehicle. The data connection is a wired or wireless data connection. The server can e.g. provided as a cloud server over the Internet.
Das Ausführen des Trainingsschritts ist zeitaufwändig und kann die volle Verarbeitungsleistung des Fahrunterstützungssystems des Fahrzeugs erfordern. Daher kann es beim Ausführen des Trainingsschritts erforderlich sein, dass das Fahrzeug manuell gefahren wird, so dass die gleiche Hardware des Fahrunterstützungssystems wiederverwendet werden kann. Es ist keine dedizierte Hardware zum Trainieren des DCNN erforderlich. Um solche Situationen zu vermeiden, ist es bevorzugt, dass der Schritt des Trainierens des DCNN ausgeführt wird, wenn sich das Fahrzeug nicht bewegt, um eine volle Unterstützung des Fahrunterstützungssystems sicherzustellen.Performing the training step is time consuming and may require the full processing power of the vehicle's driving support system. Therefore, when performing the training step, the vehicle may need to be driven manually so that the same hardware of the driving support system can be reused. No dedicated hardware is required to train the DCNN. To avoid such situations, it is preferred that the DCNN training step be performed when the vehicle is not moving to ensure full support of the driving support system.
Gemäß einer modifizierten Ausführungsform der Erfindung weist der Schritt zum Bereitstellen eines Satzes annotierter Trainingsdaten, die Routeninformation enthalten, das Bereitstellen des Satzes annotierter Trainingsdaten, die Routeninformation enthalten unter Verwendung mindestens einer Kamera des Fahrzeugs auf. Daher werden die annotierten Trainingsdaten basierend auf Bilddaten bereitgestellt, die unter Verwendung der Kamera des Fahrzeugs erzeugt werden, für die das DCNN trainiert wird. Daher kann das Verfahren vollständig innerhalb des Fahrzeugs ausgeführt werden, d.h. durch das Fahrunterstützungssystem des Fahrzeugs. Daher kann das Verfahren als ein fahrzeuginternes Verfahren durchgeführt werden. Dies hat den zusätzlichen Vorteil, dass Bilddaten zum Trainieren des DCNN unter Verwendung der gleichen Hardware wie bei der Verwendung des DCNN bereitgestellt werden. Dadurch können Einflüsse der Hardware auf die Leistungsfähigkeit des DCNN ausgeschlossen werden. Ein Satellitenempfänger des Fahrzeugs zum Empfangen von Satellitenpositionsdaten des Fahrzeugs kann verwendet werden, um die Route zu identifizieren und/oder die Bilddaten zu labeln.According to a modified embodiment of the invention, the step of providing a set of annotated training data containing route information comprises providing the set of annotated training data containing route information using at least one camera of the vehicle. Therefore, the annotated training data is provided based on image data generated using the vehicle's camera for which the DCNN is trained. Therefore, the method can be carried out entirely inside the vehicle, i.e. through the vehicle's driving support system. Therefore, the method can be carried out as an in-vehicle method. This has the additional advantage that image data for training the DCNN are provided using the same hardware as when using the DCNN. This means that hardware influences on the performance of the DCNN can be excluded. A satellite receiver of the vehicle for receiving satellite position data of the vehicle can be used to identify the route and / or to label the image data.
Gemäß einer modifizierten Ausführungsform der Erfindung weist der Schritt zum Bereitstellen des Satzes annotierter Trainingsdaten, die Routeninformation enthalten, unter Verwendung mindestens einer Kamera des Fahrzeugs das Akkumulieren von Trainingsdaten und das Bewerten, ob der Satz annotierter Trainingsdaten genügend Trainingsdaten enthält, auf. Trainingsdaten, die durch nur einmaliges Abfahren der Route erhalten werden, liefern typischerweise keinen geeigneten Satz annotierter Trainingsdaten. Daher ist es erforderlich, Trainingsdaten von mehrfachem Abfahren der Route bereitzustellen, um einen geeigneten Satz annotierter Trainingsdaten zu erhalten. Die Trainingsdaten können z.B. akkumuliert werden, wenn der Besitzer des Fahrzeugs eine Route mehrmals unter Verwendung seines Fahrzeugs abfährt, d.h., wenn das Fahrzeug unter typischen Fahrbedingungen verwendet wird. Das Verfahren kann einen zusätzlichen Schritt aufweisen, in dem ein Fahrer oder Besitzer des Fahrzeugs bei erfolgreicher Bewertung des Satzes annotierter Trainingsdaten, die genügend Trainingsdaten enthalten, aufgefordert wird, mit dem Ausführen des Trainingsschritts des tiefen konvolutionellen neuronalen Netzwerks mit den akkumulierenden Trainingsdaten zu beginnen. Der Schritt, in dem der Fahrer oder Besitzer des Fahrzeugs nach erfolgreicher Auswertung des Satzes annotierter Trainingsdaten, die genügend Trainingsdaten enthalten aufgefordert wird, mit dem Ausführen des Trainingsschritts des tiefen konvolutionellen neuronalen Netzwerks mit den akkumulierenden Trainingsdaten zu beginnen, kann für jede Route unabhängig ausgeführt werden. Daher kann z.B. basierend auf einer Häufigkeit des Abfahrens einer Route der Trainingsschritt zu verschiedenen Zeitpunkten ausgeführt werden.According to a modified embodiment of the invention, the step of providing the set of annotated training data containing route information using at least one camera of the vehicle comprises accumulating training data and evaluating whether the set of annotated training data contains sufficient training data. Training data obtained by only traveling the route once typically does not provide a suitable set of annotated training data. It is therefore necessary to provide training data from multiple trips of the route in order to obtain a suitable set of annotated training data. The training data can, for example, be accumulated if the owner of the vehicle travels a route several times using his vehicle, ie if the vehicle is used under typical driving conditions. The method may include an additional step in which, upon successful evaluation of the set of annotated training data that contains sufficient training data, a driver or owner of the vehicle is prompted to perform the training step of the deep convolutional neural network with the accumulating training data kick off. The step in which, after successfully evaluating the set of annotated training data containing sufficient training data, the driver or owner of the vehicle is asked to start carrying out the training step of the deep convolutional neural network with the accumulating training data can be carried out independently for each route , Therefore, the training step can be carried out at different times, for example based on a frequency of driving a route.
Gemäß einer modifizierten Ausführungsform der Erfindung weist der Schritt zum Bereitstellen des Satzes annotierter Trainingsdaten, die Routeninformation enthalten, unter Verwendung mindestens einer Kamera des Fahrzeugs das Filtern der Trainingsdaten basierend auf einer statistischen Analyse der Trainingsdaten auf. Es ist hilfreich, die Trainingsdaten dem DCNN unter verschiedenen Bedingungen zuzuführen, um ein effizient trainiertes DCNN zu erhalten. Daher können die Trainingsdaten z.B. bei Verkehrsstaus, bei unterschiedlich strukturierten Straßenoberflächen, bei unterschiedlichen Lichtverhältnissen oder bei unterschiedlichen Verkehrsszenarien wie Überholen, Spurwechsel, Kreisverkehr, Parkbereichen oder anderen bereitgestellt werden. Daher ermöglicht das Filtern der Trainingsdaten basierend auf den statistischen Analysen ein effizientes Training des DCNN, da die unterschiedlichen Bedingungen sicherstellen, dass das DCNN geeignet trainiert wird. Die statistischen Analysen können z.B. unter Verwendung eines Histogramms individueller Merkmale der jeweiligen Trainingsdaten ausgeführt werden. Der Schritt zum Filtern der Trainingsdaten basierend auf einer statistischen Analyse der Trainingsdaten ist bevorzugt.According to a modified embodiment of the invention, the step of providing the set of annotated training data containing route information using at least one camera of the vehicle comprises filtering the training data based on a statistical analysis of the training data. It is helpful to feed the training data to the DCNN under various conditions in order to get an efficiently trained DCNN. Therefore the training data e.g. in the event of traffic jams, differently structured road surfaces, different lighting conditions or different traffic scenarios such as overtaking, changing lanes, roundabouts, parking areas or others. Filtering the training data based on the statistical analyzes therefore enables efficient training of the DCNN, since the different conditions ensure that the DCNN is trained appropriately. The statistical analyzes can e.g. using a histogram of individual features of the respective training data. The step of filtering the training data based on a statistical analysis of the training data is preferred.
Gemäß einer modifizierten Ausführungsform der Erfindung weist der Schritt zum Ausführen eines Trainingsschritts des tiefen konvolutionellen neuronalen Netzwerks mit den der Route zugeordneten individuellen Modelldaten unter Verwendung des jeweiligen Satzes annotierter Trainingsdaten die Schritte zum Bestimmen von Szenenstatistiken für den Satz annotierter Trainingsdaten, Klassifizieren des Satzes annotierter Trainingsdaten basierend auf den Szenenstatistiken und automatischen Auswählen von Trainingsdaten aus dem Satz von annotierter Trainingsdaten basierend auf der Klassifizierung auf. Die Szenenstatistik bezieht sich auf eine statistische Bestimmung von Merkmalen, die in den Trainingsdaten enthalten sind. Die Merkmale können eine beliebige Art relevanter Merkmale sein, die erfasst werden können. Die Merkmale können die Annotierungen der Trainingsdaten aufweisen, d.h. ihnen hinzugefügte Labels. Die Merkmale können sich auf statische Merkmale ohne Bewegungsinformation beziehen, oder auf dynamische Merkmale, die Bewegungsinformation enthalten, wie z.B. auf einen gehenden Fußgänger, oder noch detaillierter auf einen Fußgänger, der von links nach rechts geht. Die Klassifizierung der Trainingsdaten bezieht sich auf eine Klassifizierung basierend auf dem Auftreten von Merkmalen innerhalb der Trainingsdaten. Die Klassifizierung kann z.B. Trainingsdaten identifizieren, die eine besondere Art von Merkmalen und/oder eine bestimmte Anzahl von Merkmalen enthalten. Beispielweise können solche Klassifizierungen Trainingsdaten mit einer hohen Merkmalsdichte, Trainingsdaten mit einer besonderen Art von Merkmalen, z.B. Fußgänger oder Fahrzeuge, mit oder ohne dynamische Information, z.B. solche, die sich nicht bewegen, die sich bewegen, oder die sich von rechts nach links bewegen, enthalten. Darüber hinaus können die Trainingsdaten klassifiziert und ausgewählt werden, um sie in Trainingsdaten für ein Training, für einen Test und für eine Validierung des DCNN zu trennen.According to a modified embodiment of the invention, the step for executing a training step of the deep convolutional neural network with the individual model data assigned to the route using the respective set of annotated training data comprises the steps for determining scene statistics for the set of annotated training data, classifying the set of annotated training data based on the scene statistics and automatically selecting training data from the set of annotated training data based on the classification. The scene statistics relate to a statistical determination of features that are contained in the training data. The features can be any type of relevant features that can be captured. The features can include the annotations of the training data, i.e. labels added to them. The characteristics can relate to static characteristics without movement information, or to dynamic characteristics that contain movement information, such as on a walking pedestrian, or more specifically on a pedestrian walking from left to right. The classification of the training data refers to a classification based on the occurrence of features within the training data. The classification can e.g. Identify training data that contain a particular type of feature and / or a certain number of features. For example, such classifications can include training data with a high feature density, training data with a special type of features, e.g. Pedestrians or vehicles, with or without dynamic information, e.g. those that do not move, that move, or that move from right to left. In addition, the training data can be classified and selected to separate them into training data for training, for a test and for validation of the DCNN.
Gemäß einer modifizierten Ausführungsform der Erfindung weist der Schritt zum Bestimmen von Szenestatistiken für den Satz annotierter Trainingsdaten das Bestimmen von Labelstatistiken von mindestens auf einem Typ von Labels, einer Position von Labels und/oder Eigenschaften gelabelter Objekte, vorzugsweise das Bestimmen von Statistiken von Labelkombinationen, auf. Daher werden die Label ausgewertet, um Szenestatistiken zu bestimmen. Die Labelstatistiken mindestens eines Informationselements aus einem Typ von Labels, einer Position von Labels und/oder Eigenschaften gelabelter Objekte beziehen sich auf unterschiedliche Aspekte der Labels, die alle verwendet werden können, um gemeinsame Merkmale verschiedener Trainingsdaten statistisch zu identifizieren. Vorzugsweise werden die Labelstatistiken für mehrere oder alle Informationselemente aus verfügbaren Typen von Labels, Positionen der Labels und/oder Eigenschaften gelabelter Objekte bestimmt. Das Bestimmen von Statistiken von Labelkombinationen kann sich auf Statistiken einer Kombination mehrerer Labels z.B. im gleichen Bild, z.B. eine bestimmte Anzahl von Fußgängern oder eine bestimmte Anzahl von Fahrzeugen innerhalb des Bildes, beziehen. Zusätzlich oder alternativ kann sich die Statistik von Labelkombinationen auf eine Kombination mehrerer Informationselemente unter dem Typ von Labels, der Position der Labels und/oder den Eigenschaften gelabelter Objekte beziehen.According to a modified embodiment of the invention, the step of determining scene statistics for the set of annotated training data comprises determining label statistics of objects labeled on at least one type of label, a position of labels and / or properties, preferably determining statistics of label combinations , The labels are therefore evaluated in order to determine scene statistics. The label statistics of at least one information element from a type of label, a position of labels and / or properties of labeled objects relate to different aspects of the labels, all of which can be used to statistically identify common characteristics of different training data. The label statistics are preferably determined for several or all information elements from available types of labels, positions of the labels and / or properties of labeled objects. The determination of statistics of label combinations can be based on statistics of a combination of several labels e.g. in the same picture, e.g. refer to a certain number of pedestrians or a certain number of vehicles within the image. Additionally or alternatively, the statistics of label combinations can refer to a combination of several information elements under the type of labels, the position of the labels and / or the properties of labeled objects.
Gemäß einer modifizierten Ausführungsform der Erfindung weist der Schritt zum Bestimmen von Labelstatistiken eines Typs von Labels das Ausführen einer Histogrammanalyse des Typs von Labels aus dem Satz annotierter Trainingsdaten auf. Daher werden Labelstatistiken als Histogramme bezüglich verschiedener Typen von Labels bereitgestellt. Dies ermöglicht eine einfache Identifizierung ähnlicher Trainingsdaten durch eine Histogrammanalyse. Darüber hinaus kann für jeden Labeltyp ein Histogramm der Leuchtdichte und der Farbeigenschaften bereitgestellt werden, um eine weitere Unterscheidung von Labeltypen zu ermöglichen. Damit ist es möglich, nicht nur einfache Labeltypen, wie Fußgänger oder Fahrzeuge, zu identifizieren, sondern auch zwischen komplexen Labeltypen, wie beispielweise einem Fußgänger/Fahrzeug im Schatten, im Sonnenlicht oder bei Nacht, zu unterscheiden.According to a modified embodiment of the invention, the step of determining label statistics of a type of label comprises performing a histogram analysis of the type of labels from the set of annotated training data. Therefore, label statistics are provided as histograms for different types of labels. This makes it easy to identify similar training data using a histogram analysis. In addition, there can be one for each label type Histogram of the luminance and the color properties are provided in order to enable a further differentiation between label types. This makes it possible not only to identify simple label types, such as pedestrians or vehicles, but also to distinguish between complex label types, such as a pedestrian / vehicle in the shade, in sunlight or at night.
Gemäß einer modifizierten Ausführungsform der Erfindung weist der Schritt zum Bestimmen von Labelstatistiken einer Position von Labels das Teilen von Bildern in gleich große Blöcke auf. Die Blöcke werden als Basis zum Identifizieren der Position des jeweiligen Labels verwendet. Vorzugsweise haben die gleich großen Blöcke eine Größe von NxN Pixeln, wobei N typischerweise eine große Zahl ist, z.B. N = 64. Auf der Basis der gleich großen Blöcke kann die Position eines Labels z.B. anhand einer einfachen Blocknummer definiert werden. Vorzugsweise wird eine Histogrammanalyse von Labels, die jeden Block überlappen, ausgeführt, um Positionsstatistiken jedes annotierten Labeltyps zu erhalten.According to a modified embodiment of the invention, the step of determining label statistics of a position of labels comprises dividing images into blocks of equal size. The blocks are used as a basis for identifying the position of the respective label. Preferably the equally sized blocks are NxN pixels in size, where N is typically a large number, e.g. N = 64. Based on the blocks of the same size, the position of a label can e.g. be defined using a simple block number. Preferably, histogram analysis of labels that overlap each block is performed to obtain position statistics of each annotated label type.
Gemäß einer modifizierten Ausführungsform der Erfindung weist der Schritt zum Klassifizieren des Satzes annotierter Trainingsdaten basierend auf den Szenestatistiken das Klassifizieren des Satzes annotierter Trainingsdaten unter zusätzlicher Betrachtung von Odometrieinformation des Fahrzeugs auf. Die Odometrieinformation bezieht sich darauf, dass das Fahrzeug die zugrundeliegenden Videobilder generiert, um die Trainingsdaten zu dem Zeitpunkt bereitzustellen, zu dem die zugrundeliegenden Videobilder aufgenommen werden. Daher wird zusätzliche Information hinsichtlich der Videobilder bereitgestellt, die dazu beitragen kann, die annotierten Trainingsdaten effizient zu klassifizieren. Die Odometrieinformation bezieht sich auf Information hinsichtlich einer Bewegung des Fahrzeugs, z.B. der Geschwindigkeit, des Lenkwinkels oder dergleichen. Diese Information ermöglicht eine weitere Klassifizierung der Trainingsdaten, die über eine Klassifizierung hinausgeht, die ausschließlich basierend auf den Bilddaten ausgeführt wird.According to a modified embodiment of the invention, the step for classifying the set of annotated training data based on the scene statistics comprises classifying the set of annotated training data with additional consideration of odometry information of the vehicle. The odometry information relates to the fact that the vehicle generates the underlying video images in order to provide the training data at the point in time at which the underlying video images are recorded. Therefore, additional information regarding the video images is provided which can help to classify the annotated training data efficiently. The odometry information relates to information regarding movement of the vehicle, e.g. the speed, the steering angle or the like. This information enables a further classification of the training data that goes beyond a classification that is carried out exclusively on the basis of the image data.
Gemäß einer modifizierten Ausführungsform der Erfindung beinhaltet der Schritt zum Klassifizieren des Satzes annotierter Trainingsdaten basierend auf den Szenestatistiken das Identifizieren von Hardware, die verwendet wird, wenn der Satz annotierter Trainingsdaten erhalten wird. Die Hardware bezieht sich insbesondere auf die Kamera, die verwendet wird, um den Satz annotierter Trainingsdaten zu erhalten und die ein Erscheinungsbild des Satzes annotierter Trainingsdaten direkt beeinflussen kann. Daher können ein Kameratyp und/oder eine Kameraauflösung oder weitere Kameraeigenschaften bewertet werden. Darüber hinaus kann auch das verwendete Fahrzeug das Erscheinungsbild des Satzes annotierter Trainingsdaten beeinflussen, wie beispielsweise im Falle des Erscheinungsbildes des Fahrzeugs in den Bildern oder einer Position der Kamera am Fahrzeug.According to a modified embodiment of the invention, the step of classifying the set of annotated training data based on the scene statistics includes identifying hardware used when the set of annotated training data is obtained. The hardware particularly relates to the camera that is used to obtain the set of annotated training data and that can directly affect an appearance of the set of annotated training data. Therefore, a camera type and / or a camera resolution or other camera properties can be evaluated. In addition, the vehicle used can also influence the appearance of the set of annotated training data, for example in the case of the appearance of the vehicle in the images or a position of the camera on the vehicle.
Gemäß einer modifizierten Ausführungsform der Erfindung weist der Schritt zum automatischen Auswählen von Trainingsdaten aus dem Satz annotierter Trainingsdaten jeweils das Ausgleichen von Trainingsdaten aus dem Satz annotierter Trainingsdaten basierend auf der Klassifizierung zwischen verschiedenen Klassen auf. Das Ausgleichen ermöglicht ein zuverlässiges Trainieren des DCNN mit allen Klassen von Trainingsdaten. Daher kann für alle Verkehrssituationen eine ähnliche Leistungsfähigkeit des DCNN erzielt werden, selbst unter Berücksichtigung sich ändernder Bedingungen, z.B. Umgebungsbedingungen. Ein solches Ausgleichen der Trainingsdaten trägt dazu bei, die Leistungsfähigkeit des DCNN für eine bestimmte Route für unterschiedliche Verkehrssituationen, einschließlich unterschiedlicher Lichtverhältnisse, zu generalisieren. Die verschiedenen Verkehrssituationen können Ampeln, scharfe Kurven, Kreisverkehr, ein hohes Fußgängeraufkommen, einen Supermarktparkplatz, enthalten, um nur einige zu nennen. Auch wenn diese Szenarien nicht unbedingt sehr häufige Szenarien oder sogar sehr selten sind, ist es wichtig, dass DCNN auch dafür zu trainieren, diese Szenarien, die beim Befahren einer Route auftreten können, zuverlässig zu handhaben. Vorzugsweise weist das Ausgleichen der Trainingsdaten das Entfernen von Trainingsdaten auf, was sich auf übliche Fahrsituationen beziehen, z.B. das Fahren auf einer Autobahn ohne viele Objekte und mit ähnlichen Lichtverhältnissen. Daher kann eine hohe Leistungsfähigkeit des DCNN für verschiedene mögliche Szenarien für die bestimmte zu befahrende Route erzielt werden.According to a modified embodiment of the invention, the step for automatically selecting training data from the set of annotated training data comprises in each case equalizing training data from the set of annotated training data based on the classification between different classes. The balancing enables reliable training of the DCNN with all classes of training data. Therefore, similar performance of the DCNN can be achieved for all traffic situations, even taking into account changing conditions, e.g. Environmental conditions. Such a balancing of the training data helps to generalize the performance of the DCNN for a certain route for different traffic situations, including different lighting conditions. The various traffic situations can include traffic lights, sharp bends, roundabouts, high pedestrian traffic, a supermarket car park, to name but a few. Even if these scenarios are not necessarily very common or even very rare, it is important that DCNN also be trained to handle these scenarios reliably, which can occur when driving on a route. Preferably, the equalization of the training data comprises the removal of training data, which relate to common driving situations, e.g. driving on a freeway without many objects and with similar lighting conditions. Therefore, high performance of the DCNN can be achieved for different possible scenarios for the particular route to be traveled.
Gemäß einer modifizierten Ausführungsform der Erfindung weist das Verfahren einen Schritt zum Ausfiltern ungeeigneter Trainingsdaten aus dem Satz annotierter Trainingsdaten basierend auf den Szenestatistiken für den Satz annotierter Trainingsdaten und/oder basierend auf der Klassifizierung des Satzes annotierter Trainingsdaten auf. Ungeeignete Trainingsdaten beziehen sich auf Trainingsdaten z.B. ohne Labels oder mit einer unangemessen geringen Anzahl von Labels. Das Trainieren des DCNN mit solchen Trainingsdaten hilft im Wesentlichen nicht, seine Leistungsfähigkeit wirksam zu steigern. Daher verbessert das Weglassen eines Trainings mit derartigen Trainingsdaten die Trainingseffizienz.According to a modified embodiment of the invention, the method has a step for filtering out unsuitable training data from the set of annotated training data based on the scene statistics for the set of annotated training data and / or based on the classification of the set of annotated training data. Unsuitable training data refer to training data e.g. without labels or with an inappropriately small number of labels. Training the DCNN with such training data essentially does not help to effectively increase its performance. Therefore, omitting training with such training data improves training efficiency.
Diese und andere Aspekte der Erfindung werden anhand der nachfolgend beschriebenen Ausführungsformen ersichtlich und erläutert. Einzelne Merkmale, die in den Ausführungsformen offenbart sind, können alleine oder in Kombination einen Aspekt der vorliegenden Erfindung bilden. Merkmale der verschiedenen Ausführungsformen können von einer Ausführungsform auf eine andere Ausführungsform übertragen werden.These and other aspects of the invention will be apparent and explained from the embodiments described below. Individual features disclosed in the embodiments may form an aspect of the present invention, alone or in combination. Characteristics of the various embodiments can be transferred from one embodiment to another embodiment.
Es zeigen:
-
1 ein Ablaufdiagramm eines Verfahrensschritts zum Bereitstellen eines anfangs trainierten tiefen konvolutionellen neuronalen Netzwerks mit allgemeinen Modelldaten gemäß einem Verfahren zum Trainieren eines tiefen konvolutionellen neuronalen Netzwerks zum Verarbeiten von Bilddaten zur Anwendung in einem Fahrunterstützungssystem eines Fahrzeugs unter Verwendung von Trainingsdaten, die Routeninformation enthalten, gemäß einer ersten bevorzugten Ausführungsform; -
2 ein Ablaufdiagramm eines Verfahrensschritts zum Bereitstellen eines Satzes annotierter Trainingsdaten, die Routeninformation enthalten, gemäß dem Verfahren zum Trainieren eines tiefen konvolutionellen neuronalen Netzwerks zum Verarbeiten von Bilddaten zur Anwendung in einem Fahrunterstützungssystem eines Fahrzeugs unter Verwendung von Trainingsdaten, die Routeninformation enthalten, gemäß der ersten Ausführungsform; -
3 ein Ablaufdiagramm eines individuellen Trainings des DCNN gemäß dem Verfahren zum Trainieren eines tiefen konvolutionellen neuronalen Netzwerks zum Verarbeiten von Bilddaten zur Anwendung in einem Fahrunterstützungssystem eines Fahrzeugs unter Verwendung von Trainingsdaten, die Routeninformation enthalten, gemäß der ersten Ausführungsform; und -
4 ein Ablaufdiagramm eines Verfahrens zum Anwenden eines tiefen konvolutionellen neuronalen Netzwerks zum Verarbeiten von Bilddaten in einem Fahrunterstützungssystem eines Fahrzeugs basierend auf Routeninformation einer gewünschten Route gemäß einer zweiten Ausführungsform.
-
1 a flowchart of a method step for providing an initially trained deep convolutional neural network with general model data according to a method for training a deep convolutional neural network for processing image data for use in a driving support system of a vehicle using training data containing route information, according to a first preferred embodiment; -
2 a flowchart of a process step for providing a set of annotated training data containing route information according to the method for training a deep convolutional neural network for processing image data for use in a vehicle driving support system using training data containing route information according to the first embodiment; -
3 a flowchart of an individual training of the DCNN according to the method for training a deep convolutional neural network for processing image data for use in a driving support system of a vehicle using training data containing route information according to the first embodiment; and -
4 a flowchart of a method for applying a deep convolutional neural network for processing image data in a driving support system of a vehicle based on route information of a desired route according to a second embodiment.
Die
Das gemäß dem vorgeschlagenen Verfahren trainierte neuronale Netzwerk ist ein tiefes konvolutionelles neuronales Netzwerk (DCNN) zum Verarbeiten von Bilddaten. Das DCNN ist eine besondere Ausführung eines konvolutionellen neuronalen Netzwerks (CNN), das eine Eingabe- und eine Ausgabeschicht zusammen mit mehreren verborgenen Schichten aufweist, die zwischen der Eingabeschicht und der Ausgabeschicht angeordnet sind. Die verborgenen Schichten eines CNN weisen typischerweise konvolutionelle Schichten (Convolutional-Schichten), Pooling-Schichten, Fully-Connected-Schichten und Normalisierungsschichten auf. Die konvolutionellen Schichten führen eine Faltungsfunktion bezüglich der Eingabe aus und geben das Ergebnis an die nächste Schicht weiter. Die Faltung emuliert die Antwort eines individuellen Neurons auf visuelle Reize.The neural network trained according to the proposed method is a deep convolutional neural network (DCNN) for processing image data. The DCNN is a special implementation of a convolutional neural network (CNN) that has an input and an output layer together with several hidden layers that are arranged between the input layer and the output layer. The hidden layers of a CNN typically have convolutional layers, pooling layers, fully connected layers and normalization layers. The convolutional layers perform a convolution function with regard to the input and pass the result on to the next layer. The convolution emulates the response of an individual neuron to visual stimuli.
Das DCNN wird in einer Fahranwendung in einem Fahrzeug genutzt. Dazu wird das DCNN in einem Fahrunterstützungssystem des Fahrzeugs verwendet. Das Fahrunterstützungssystem ist ein System, das einen menschlichen Fahrer des Fahrzeugs in verschiedenen Fahrsituationen unterstützt, oder ein System, das autonomes Fahren des Fahrzeugs unterstützt, indem es Eingaben für einen zuverlässigen Umgang mit verschiedenen Verkehrssituationen bereitstellt.The DCNN is used in a driving application in a vehicle. For this purpose, the DCNN is used in a vehicle driving support system. The driving support system is a system that supports a human driver of the vehicle in various driving situations, or a system that supports autonomous driving of the vehicle by providing inputs for a reliable handling of different traffic situations.
Das Verfahren startet mit Schritt
Verfahrensschritt
Schritt
Die Szenestatistiken werden unter Berücksichtigung von Labeltypen, Labelpositionen und Eigenschaften gelabelter Objekte ausgeführt. Die Labelstatistiken werden hinsichtlich eines Labeltyps, einer Labelposition und Eigenschaften gelabelter Objekte bewertet. Zusätzlich werden Statistiken einer Kombination von Labels bestimmt, d.h. es werden Statistiken einer Kombination mehrerer Labels z.B. im gleichen Bild, zum Beispiel eine bestimmte Anzahl an Fußgängern oder eine bestimmte Anzahl von Fahrzeugen innerhalb des Bildes, bestimmt.The scene statistics are carried out taking into account label types, label positions and properties of labeled objects. The label statistics are evaluated with regard to a label type, a label position and properties of labeled objects. Statistics of a combination of labels are also determined, i.e. statistics of a combination of several labels e.g. in the same picture, for example a certain number of pedestrians or a certain number of vehicles within the picture.
Labelstatistiken beinhalten hierbei das Ausführen einer Histogrammanalyse des Labeltyps aus dem Satz annotierter Trainingsdaten hinsichtlich verschiedenartiger Labeltypen. Dies beinhaltet für jeden Labeltyp das Bereitstellen eines Histogramms der Leuchtdichte und der Farbeigenschaften. Label statistics include performing a histogram analysis of the label type from the set of annotated training data regarding different label types. For each label type, this includes providing a histogram of the luminance and color properties.
Darüber hinaus werden zum Bestimmen von Labelstatistiken einer Position von Labels die Bilder in gleich große Blöcke geteilt. Die Blöcke werden als Basis zum Identifizieren der Position der entsprechenden Labels verwendet. Die gleich großen Blöcke haben eine Größe von NxN Pixeln, wobei N = 64 ist. Auf der Basis den gleich großen Blöcken wird die Position eines Labels z.B. als eine einfache Blocknummer definiert. Eine Histogrammanalyse von Labels, die jeden der Blöcke überlappen, wird ausgeführt, um Positionsstatistiken jedes annotierten Labeltyps zu extrahieren.In addition, to determine label statistics of a position of labels, the images are divided into blocks of equal size. The blocks are used as the basis for identifying the position of the corresponding labels. The blocks of the same size have a size of NxN pixels, where N = 64. Based on the blocks of the same size, the position of a label is e.g. defined as a simple block number. Histogram analysis of labels that overlap each of the blocks is performed to extract position statistics of each annotated label type.
Schritt
Das Klassifizieren der annotierten Trainingsdaten bezieht sich auf eine Klassifizierung, die auf dem Auftreten von Merkmalen innerhalb der Trainingsdaten basierend auf dem Histogramm basiert. Die Klassifizierung ermöglicht das Identifizieren von Trainingsdaten, die einen bestimmten Merkmalstyp und/oder eine bestimmte Anzahl von Merkmalen enthalten. Solche Klassifizierungen beinhalten Trainingsdaten mit einer hohen Merkmalsdichte, Trainingsdaten, die einen bestimmten Merkmalstyp enthalten, z.B. Fußgänger oder Fahrzeuge, mit oder ohne dynamische Information, wie beispielsweise nicht in Bewegung, in Bewegung, sich von rechts nach links bewegend.The classification of the annotated training data refers to a classification that is based on the occurrence of features within the training data based on the histogram. The classification enables the identification of training data that contain a certain type of feature and / or a certain number of features. Such classifications include training data with a high feature density, training data containing a certain type of feature, e.g. Pedestrians or vehicles, with or without dynamic information, such as not moving, in motion, moving from right to left.
Schritt
Schritt
Das Trainieren des tiefen konvolutionellen neuronalen Netzwerks ist von herkömmlichen DCNNs bekannt. Die ausgewählten Trainingsdaten des anfänglichen Satzes annotierter Trainingsdaten des DCNN werden dem DCNN zugeführt, um das Training auszuführen. Schritt
Im nachfolgenden Schritt
Der in
Gemäß Schritt
Schritt
Schritt
Basierend auf dem Bewertungsergebnis der Konfidenzmetriken wird die Annotation angezeigt oder nicht.Based on the evaluation result of the confidence metrics, the annotation is displayed or not.
Schritt
Schritt
Schritt
Schritt
Im Detail bezieht sich Schritt
Schritt
Schritt
Schritt
Schritt
Schritt
In dieser Ausführungsform werden alle Verfahrensschritte
Durch die vorliegende Erfindung ist auch ein Verfahren zum Anwenden eines tiefen konvolutionellen neuronalen Netzwerks zum Verarbeiten von Bilddaten in einem Fahrunterstützungssystem eines Fahrzeugs basierend auf Routeninformation einer gewünschten Route angegeben, das im Ablaufdiagramm von
Das Verfahren beginnt mit Verfahrensschritt
Schritt
Schritt
ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of documents listed by the applicant has been generated automatically and is only included for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte PatentliteraturPatent literature cited
- EP 2213980 B1 [0014]EP 2213980 B1 [0014]
- DE 10030932 A1 [0015]DE 10030932 A1 [0015]
- DE 10258470 B4 [0016]DE 10258470 B4 [0016]
- DE 10354910 B4 [0017]DE 10354910 B4 [0017]
- DE 19916967 C1 [0018]DE 19916967 C1 [0018]
- DE 102013211696 A1 [0019]DE 102013211696 A1 [0019]
- DE 102015010542 A1 [0020]DE 102015010542 A1 [0020]
Claims (16)
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102018116036.4A DE102018116036A1 (en) | 2018-07-03 | 2018-07-03 | Training a deep convolutional neural network for individual routes |
PCT/EP2019/065629 WO2020007589A1 (en) | 2018-07-03 | 2019-06-14 | Training a deep convolutional neural network for individual routes |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102018116036.4A DE102018116036A1 (en) | 2018-07-03 | 2018-07-03 | Training a deep convolutional neural network for individual routes |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102018116036A1 true DE102018116036A1 (en) | 2020-01-09 |
Family
ID=67137896
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102018116036.4A Pending DE102018116036A1 (en) | 2018-07-03 | 2018-07-03 | Training a deep convolutional neural network for individual routes |
Country Status (2)
Country | Link |
---|---|
DE (1) | DE102018116036A1 (en) |
WO (1) | WO2020007589A1 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102020107776A1 (en) | 2020-03-20 | 2021-09-23 | Bayerische Motoren Werke Aktiengesellschaft | Train an automatic detection system |
US11203362B1 (en) | 2020-09-01 | 2021-12-21 | Motional Ad Llc | Scoring autonomous vehicle trajectories using reasonable crowd data |
DE102020124174A1 (en) | 2020-09-16 | 2022-03-17 | Elektronische Fahrwerksysteme GmbH | Method for providing a machine-learned control function for vehicle control using provided vehicle sensor data |
DE102022111744A1 (en) | 2022-05-11 | 2023-11-16 | Bayerische Motoren Werke Aktiengesellschaft | Computer-implemented method for creating a route for a data collection campaign, data processing device, server and motor vehicle |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11766822B2 (en) | 2019-08-20 | 2023-09-26 | 3M Innovative Properties Company | Microstructured surface with increased microorganism removal when cleaned, articles and methods |
CN112238857B (en) * | 2020-09-03 | 2021-09-17 | 北京国家新能源汽车技术创新中心有限公司 | Control method for autonomous vehicle |
CN116582480B (en) * | 2023-07-12 | 2023-10-24 | 厦门大学 | Method for searching least invalid link to make route unreachable |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19916967C1 (en) | 1999-04-15 | 2000-11-30 | Daimler Chrysler Ag | Method for updating a traffic route network map and map-based method for generating vehicle guidance information |
DE10030932A1 (en) | 2000-06-24 | 2002-01-03 | Bosch Gmbh Robert | Method for generating, testing and updating digital street maps in which vehicles travelling through a map area record their positions using a positioning system and memory with the data used to test and update a digital map |
DE10354910B4 (en) | 2003-04-22 | 2007-04-05 | Hyundai Motor Company | Automatic vehicle control system and method for controlling this system |
DE10258470B4 (en) | 2002-12-09 | 2012-01-19 | Volkswagen Ag | Navigation device for motor vehicles |
EP2213980B1 (en) | 2009-01-28 | 2013-03-20 | Audi AG | Method for operating a navigation device of a motor vehicle and motor vehicle for same |
DE102013211696A1 (en) | 2013-06-20 | 2014-12-24 | Bayerische Motoren Werke Aktiengesellschaft | Method for completing and / or updating a digital road map, device for a motor vehicle and motor vehicle |
DE102015010542A1 (en) | 2015-08-12 | 2016-02-11 | Daimler Ag | Method for generating a digital environment map |
DE102017103123A1 (en) * | 2016-03-08 | 2017-09-14 | Ford Global Technologies, Llc | Vehicle lane placement |
DE102017105661A1 (en) * | 2016-03-17 | 2017-09-21 | Ford Global Technologies, Llc | VEHICLE LANE POSITION LIMIT |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB201616097D0 (en) * | 2016-09-21 | 2016-11-02 | Univ Oxford Innovation Ltd | Segmentation of path proposals |
-
2018
- 2018-07-03 DE DE102018116036.4A patent/DE102018116036A1/en active Pending
-
2019
- 2019-06-14 WO PCT/EP2019/065629 patent/WO2020007589A1/en active Application Filing
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19916967C1 (en) | 1999-04-15 | 2000-11-30 | Daimler Chrysler Ag | Method for updating a traffic route network map and map-based method for generating vehicle guidance information |
DE10030932A1 (en) | 2000-06-24 | 2002-01-03 | Bosch Gmbh Robert | Method for generating, testing and updating digital street maps in which vehicles travelling through a map area record their positions using a positioning system and memory with the data used to test and update a digital map |
DE10258470B4 (en) | 2002-12-09 | 2012-01-19 | Volkswagen Ag | Navigation device for motor vehicles |
DE10354910B4 (en) | 2003-04-22 | 2007-04-05 | Hyundai Motor Company | Automatic vehicle control system and method for controlling this system |
EP2213980B1 (en) | 2009-01-28 | 2013-03-20 | Audi AG | Method for operating a navigation device of a motor vehicle and motor vehicle for same |
DE102013211696A1 (en) | 2013-06-20 | 2014-12-24 | Bayerische Motoren Werke Aktiengesellschaft | Method for completing and / or updating a digital road map, device for a motor vehicle and motor vehicle |
DE102015010542A1 (en) | 2015-08-12 | 2016-02-11 | Daimler Ag | Method for generating a digital environment map |
DE102017103123A1 (en) * | 2016-03-08 | 2017-09-14 | Ford Global Technologies, Llc | Vehicle lane placement |
DE102017105661A1 (en) * | 2016-03-17 | 2017-09-21 | Ford Global Technologies, Llc | VEHICLE LANE POSITION LIMIT |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102020107776A1 (en) | 2020-03-20 | 2021-09-23 | Bayerische Motoren Werke Aktiengesellschaft | Train an automatic detection system |
US11203362B1 (en) | 2020-09-01 | 2021-12-21 | Motional Ad Llc | Scoring autonomous vehicle trajectories using reasonable crowd data |
DE102020128156A1 (en) | 2020-09-01 | 2022-03-03 | Motional Ad Llc | EVALUATING TRAJECTORIES OF AUTONOMOUS VEHICLES USING REASONABLE QUANTITY DATA |
US11755015B2 (en) | 2020-09-01 | 2023-09-12 | Motional Ad Llc | Scoring autonomous vehicle trajectories using reasonable crowd data |
DE102020124174A1 (en) | 2020-09-16 | 2022-03-17 | Elektronische Fahrwerksysteme GmbH | Method for providing a machine-learned control function for vehicle control using provided vehicle sensor data |
WO2022057979A1 (en) | 2020-09-16 | 2022-03-24 | Elektronische Fahrwerksysteme GmbH | Method for providing a machine-learned control function for vehicle control on the basis of available vehicle sensor data |
DE102022111744A1 (en) | 2022-05-11 | 2023-11-16 | Bayerische Motoren Werke Aktiengesellschaft | Computer-implemented method for creating a route for a data collection campaign, data processing device, server and motor vehicle |
Also Published As
Publication number | Publication date |
---|---|
WO2020007589A1 (en) | 2020-01-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102018116036A1 (en) | Training a deep convolutional neural network for individual routes | |
DE102018101125A1 (en) | Recurrent deep neuronal convolution network for the detection of objects | |
DE112018007287T5 (en) | VEHICLE SYSTEM AND METHOD FOR DETECTING OBJECTS AND OBJECT DISTANCE | |
DE102018120635A1 (en) | DIVIDED PROCESSING WITH DEEP NEURONAL NETWORKS | |
DE102017103123A1 (en) | Vehicle lane placement | |
DE102012207620A1 (en) | System and method for light signal detection | |
DE102017203276B4 (en) | Method and device for determining a trajectory in off-road scenarios | |
DE102017130488A1 (en) | A method for classifying parking spaces in a surrounding area of a vehicle with a neural network | |
DE102018214510A1 (en) | Parking ticket generation on the street | |
DE102019122266A1 (en) | Park management systems and procedures | |
DE102018203583B4 (en) | Method, driver assistance system and motor vehicle for the prediction of a position or a trajectory by means of a graph-based environment model | |
DE102018104270A1 (en) | Method for predicting the behavior of at least one pedestrian | |
DE102018108361A1 (en) | LAW RECORDING TRAINING SYSTEMS AND METHODS | |
DE102018111935A1 (en) | Image processing system, image processing method, information processing apparatus and recording medium | |
DE102018133441A1 (en) | Method and system for determining landmarks in the surroundings of a vehicle | |
DE102021128041A1 (en) | IMPROVEMENT OF A VEHICLE NEURAL NETWORK | |
WO2020048669A1 (en) | Method for determining a lane change indication of a vehicle, computer-readable storage medium, and vehicle | |
EP3644239A1 (en) | Device and method for abstracting a dataset | |
DE102016124888A1 (en) | A method for assisting a driver of a motor vehicle when parking using a driver assistance device, corresponding computer program product and driver assistance device | |
DE102018113621A1 (en) | A method of training a convolutional neural network for processing image data for use in a driving support system | |
DE112018005749T5 (en) | Lane marking determination device for automated driving | |
DE102017128082A1 (en) | Meta-architecture design for a CNN network | |
WO2020094323A1 (en) | Method for classifying objects by means of an automatically driving motor vehicle, and automatically driving motor vehicle | |
DE102017216802A1 (en) | METHOD AND DEVICE FOR DETECTING LICENSES, DRIVER ASSISTANCE SYSTEM AND VEHICLE | |
DE102021202334A1 (en) | FILTERING OPERATIONAL SCENARIOS WHEN OPERATING A VEHICLE |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R163 | Identified publications notified |