DE102018216172A1 - Method for automatically generating a label for training a self-learning system and motor vehicle - Google Patents

Method for automatically generating a label for training a self-learning system and motor vehicle Download PDF

Info

Publication number
DE102018216172A1
DE102018216172A1 DE102018216172.0A DE102018216172A DE102018216172A1 DE 102018216172 A1 DE102018216172 A1 DE 102018216172A1 DE 102018216172 A DE102018216172 A DE 102018216172A DE 102018216172 A1 DE102018216172 A1 DE 102018216172A1
Authority
DE
Germany
Prior art keywords
label
sensor
self
module
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102018216172.0A
Other languages
German (de)
Inventor
Jakob GEYER
Yohannes Kassahun
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Audi AG
Original Assignee
Audi AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Audi AG filed Critical Audi AG
Priority to DE102018216172.0A priority Critical patent/DE102018216172A1/en
Publication of DE102018216172A1 publication Critical patent/DE102018216172A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • G06F18/24143Distances to neighbourhood prototypes, e.g. restricted Coulomb energy networks [RCEN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/192Recognition using electronic means using simultaneous comparisons or correlations of the image signals with a plurality of references
    • G06V30/194References adjustable by an adaptive method, e.g. learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Databases & Information Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Data Mining & Analysis (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

Es wird ein Verfahren zum automatischen Erzeugen eines Labels (10) zum Trainieren eines selbstlernenden Systems (12) angegeben, bei dem jeweils ein Sensorsignals (S,S) mit Hilfe von zumindest zwei Sensoreinheiten (6a,6b) zu einer gleichen realen Situation erzeugt wird und für das erzeugte Label (10) unterschiedlichen Informationen aus den zwei Sensoreinheiten (6a,6b) herangezogen werden.The invention relates to a method for automatically generating a label (10) for training a self-learning system (12), in which a sensor signal (S, S) is generated with the help of at least two sensor units (6a, 6b) for the same real situation and different information from the two sensor units (6a, 6b) is used for the label (10) generated.

Description

Die Erfindung betrifft ein Verfahren zum automatischen Erzeugen eines Labels zum Trainieren eines selbstlernenden Systems sowie ein Kraftfahrzeug.The invention relates to a method for automatically generating a label for training a self-learning system and a motor vehicle.

Um selbstlernende Systeme, insbesondere auf künstlicher Intelligenz basierende selbstlernende Systeme zu trainieren, werden sogenannte Labels herangezogen. Unter den Labels werden vorzugsweise Datenpaare verstanden, die zum einen ein bekanntes Inputsignal und weiterhin ein bekanntes Outputsignal enthalten. Unter Label ist daher eine Zuordnung einer Eingangsinformation zu einer Ausgangsinformation zu verstehen. Um das selbstlernende System zu trainieren wird diesem beispielsweise das bekannte Inputsignal sowie das bekannte Outputsignal vorgegeben, sodass sich das selbstlernende System beispielsweise hinsichtlich einer Signalverarbeitung derart anlernt, dass bei einer Eingabe des Inputsignals aufgrund der Signalverarbeitung das Outputsignal generiert wird.So-called labels are used to train self-learning systems, in particular self-learning systems based on artificial intelligence. The labels are preferably understood to mean data pairs which contain a known input signal and a known output signal. Label is therefore to be understood as an assignment of input information to output information. In order to train the self-learning system, the known input signal and the known output signal are predefined for it, for example, so that the self-learning system learns, for example with regard to signal processing, in such a way that when the input signal is input, the output signal is generated due to the signal processing.

Insbesondere vor dem Hintergrund, einen Nutzer des selbstlernenden Systems zufriedenzustellen, werden heutzutage immer größere Anforderungen an selbstlernende Systeme und somit auch an Labels gestellt. Die Erzeugung der Labels, insbesondere hochqualitativer Labels, ist somit kosten- und zeitintensiv.Especially against the background of satisfying a user of the self-learning system, ever increasing demands are placed on self-learning systems and therefore also on labels. The creation of the labels, especially high-quality labels, is therefore costly and time-consuming.

Es gibt bei der Erzeugung der Labels die Methode, diese mittels einer Simulation zu generieren. Hierbei ist der Nachteil, dass hierbei eine sogenannte Simulations-Realitäts-Lücke entsteht. Unter der Simulations-Realitäts-Lücke wird hierbei verstanden, dass die simulierten Labels mitunter nicht immer in der Realität anwendbar sind und/oder nicht immer die Realität widerspiegeln, sodass sich das selbstlernende System realitätsnah trainieren lassen würde.When creating the labels, there is the method of generating them using a simulation. The disadvantage here is that this creates a so-called simulation-reality gap. The simulation-reality gap is understood here to mean that the simulated labels are sometimes not always applicable in reality and / or do not always reflect reality, so that the self-learning system could be trained in a realistic manner.

Eine zweite bekannte Methode ist eine manuelle Erzeugung der Labels. Unter der manuellen Erzeugung wird hierbei verstanden, dass, beispielsweise durch Personen manuell diese Labels erzeugt werden. Diese zweite Methode hat jedoch ebenso den Nachteil, dass sie kosten- und zeitintensiv ist.A second known method is the manual creation of the labels. Manual generation is understood to mean that these labels are generated manually, for example by people. However, this second method also has the disadvantage that it is costly and time-consuming.

Üblicherweise erfolgt eine Labelerzeugung gemäß einer dritten Methode durch Unternehmen, die auf die Erzeugung von Labels spezialisiert ist. Hierbei werden von dem Auftraggeber bereits vorhandene Daten zu dem Unternehmen transferiert, die dann zu Labels „weiterverarbeitet“ werden. Die Übermittlung der Daten an das Unternehmen ist jedoch teilweise komplex und mit einem erheblichen Zeit- und Kostenaufwand verbunden.Usually, a third method is used to generate labels by companies that specialize in the creation of labels. Existing data is transferred from the client to the company, which is then "processed" into labels. However, the transmission of the data to the company is sometimes complex and involves a considerable amount of time and money.

Ausgehend hiervon liegt der Erfindung die Aufgabe zugrunde, die Erzeugung von Labels zum Trainieren eines selbstlernenden Systems einfach und kostengünstig zu realisieren.Proceeding from this, the object of the invention is to implement the generation of labels for training a self-learning system simply and inexpensively.

Die Aufgabe wird erfindungsgemäß gelöst durch ein Verfahren zum automatischen erzeugen eines Labels mit den Merkmalen des Anspruchs 1. Das erzeugte Label dient herbei zum Trainieren eines selbstlernenden Systems. Vorteilhafte Ausgestaltungen, Weiterbildungen und Varianten sind Gegenstand der Unteransprüche.The object is achieved according to the invention by a method for automatically generating a label with the features of claim 1. The label generated is used for training a self-learning system. Advantageous refinements, developments and variants are the subject of the dependent claims.

Bei dem selbstlernenden System handelt es sich vorzugsweise um ein auf einer künstlichen Intelligenz (K I) basierendes SystemThe self-learning system is preferably a system based on an artificial intelligence (K I)

In einem ersten Schritt des Verfahrens wird mithilfe von zumindest zwei Sensoreinheiten jeweils ein Sensorsignal zu einer gleichen realen Situation erzeugt. Unter der realen Situation wird hierbei z.B. eine Alltagssituation verstanden, in der das selbstlernende System aktiv ist und Informationen sammelt. Unter „gleich“ wird hierbei verstanden, dass die beiden Sensoreinheiten das jeweilige Sensorsignal zu ein und derselben realen Situation, beispielsweise zu einem gleichen Zeitpunkt erzeugen. Mit anderen Worten liegen somit zu der einen gleichen realen Situation zwei verschiedene Sensorsignale vor.In a first step of the method, at least two sensor units are used to generate a sensor signal relating to the same real situation. Under the real situation, e.g. understood an everyday situation in which the self-learning system is active and collects information. “Equal” here means that the two sensor units generate the respective sensor signal at one and the same real situation, for example at the same time. In other words, there are two different sensor signals for the same real situation.

Weiterhin werden mehrere Module zur Bearbeitung der Sensorsignale bereitgestellt, wobei zumindest eines der Module als ein selbstlernendes System ausgebildet ist. Vorzugsweise sind alle Module als selbstlernende Systeme ausgebildet. Weiterhin handelt es sich bei den selbstlernenden Systemen bevorzugt um die zu trainierenden selbstlernenden Systeme.Furthermore, several modules are provided for processing the sensor signals, at least one of the modules being designed as a self-learning system. All modules are preferably designed as self-learning systems. Furthermore, the self-learning systems are preferably the self-learning systems to be trained.

In einem zweiten Verfahrensschritt wird anschließend zumindest eines der Sensorsignale als ein Inputsignal an ein Modul übermittelt.In a second method step, at least one of the sensor signals is then transmitted to an module as an input signal.

Anschließend werden durch das zumindest eine Modul Ausgangssignale erzeugt. Die Ausgangssignale enthalten hierbei aufbereitete Informationen zu der realen Situation und werden auf Basis des jeweils übermittelten Sensorsignals erzeugt. Unter den aufbereiteten Informationen werden hierbei speziell Informationen zu der realen Situation verstanden, die aus den in den Sensorsignalen enthaltenen Informationen extrahiert wurden. Hierbei handelt es sich beispielsweise um physikalische Größen von Objekten, wie beispielsweise Abmessungen, welche von den Sensoreinheiten erfasst werden, oder z.B. Umgebungsbedingungen, wie beispielsweise eine Temperatur oder Helligkeit.Output signals are then generated by the at least one module. The output signals contain processed information on the real situation and are generated on the basis of the sensor signal transmitted in each case. The processed information is understood to mean specifically information about the real situation that has been extracted from the information contained in the sensor signals. These are, for example, physical quantities of objects, such as dimensions, which are detected by the sensor units, or e.g. Ambient conditions, such as temperature or brightness.

Anschließend wird in einem nächsten Verfahrensschritt ein Label erzeugt. Hierzu sind zwei mögliche Fälle vorgesehen:

  • Im Fall a) erfolgt die Labelerzeugung derart, dass die Sensorsignale von zumindest zwei Sensoreinheiten an ein Modul übermittelt werden und auf Basis des Ausgangssignals dieses Moduls das Label erzeugt wird.
  • Im Fall b) erfolgt die Erzeugung des Labels derart, dass die aufbereiteten Informationen von zumindest zwei Modulen, die jeweils Sensorsignale von zwei unterschiedlichen Sensoreinheiten erhalten haben, zusammengeführt werden..Auf Basis der zusammengeführten Informationen wird anschließend das Label erzeugt. Unter den zusammengeführten Informationen werden hierbei die aufbereiteten Informationen von zumindest zwei Modulen verstanden, die zusammen für die Erzeugung des Labels herangezogen werden. Unter unterschiedliche Sensoreinheiten werden Sensoreinheiten verstanden, welche auf unterschiedlichen Messprinzipien beruhen und somit bei einer identischen realen Situation einen unterschiedlichen Informationsgehalt aufweisen, also beispielsweise unterschiedliche Arten von Informationen.
A label is then generated in a next process step. There are two possible cases for this:
  • In case a), the label is generated in such a way that the sensor signals are transmitted from at least two sensor units to a module and the label is generated on the basis of the output signal of this module.
  • In case b) the label is generated in such a way that the processed information from at least two modules, each of which has received sensor signals from two different sensor units, is combined. The label is then generated on the basis of the combined information. The merged information here means the processed information from at least two modules, which are used together to generate the label. Different sensor units are understood to mean sensor units which are based on different measurement principles and thus have a different information content in an identical real situation, for example different types of information.

Für das - insbesondere nach Fall b) erzeugte - Label werden somit unterschiedliche Informationen aus zwei Sensoreinheiten zur Erzeugung des Labels herangezogen.
Die aufbereiteten Informationen werden hierbei als Ausgangssignale der Module bevorzugt an einen Label-Generator übermittelt, welcher dann aus diesen das Label erzeugt. Der Label-Generator verknüpft somit die zusammengeführten Informationen zu einem bekannten Inputsignal und einem bekannten Outputsignal.
Different information from two sensor units is thus used to generate the label for the label generated in particular according to case b).
The processed information is preferably transmitted as output signals from the modules to a label generator, which then generates the label from these. The label generator thus combines the merged information into a known input signal and a known output signal.

In einem letzten Verfahrensschritt werden die erzeugten Labels zum Trainieren des selbstlernenden Systems bereitgestellt. Hierzu werden diese beispielsweise auf einem internen Speicher des selbstlernenden Systems hinterlegt. Alternativ hierzu sind die Labels auf einem netzwerkbasierenden Speicher, beispielsweise einer Cloud, hinterlegt.In a last process step, the labels generated are provided for training the self-learning system. For this purpose, these are stored, for example, on an internal memory of the self-learning system. As an alternative to this, the labels are stored on a network-based storage, for example a cloud.

Durch die Erzeugung der Labels auf Basis der seitens der Module generierten Ausgangssignale ist eine insbesondere einfache und kostengünstige Erzeugung von Labels zum Trainieren des selbstlernenden Systems erreicht. D. h. es kann auf eine Hinzuziehung eines (externen) Unternehmens zur Generierung der Labels verzichtet werden. Weiterhin ist hierdurch erreicht, dass das selbstlernende System „seine“ Labels selbst generiert, wodurch weiterhin ein Kosten- und Zeitfaktor vorteilhaft optimiert ist. Mit anderen Worten wird hierbei der eigentliche Betrieb des selbstlernenden Systems genutzt, um aus diesem Daten für die Erzeugung der Label zu sammeln und diese dann auch für die Generierung der Labels heranzuziehen. D.h. das selbstlernende System trainiert sich aufgrund selbstgenerierter Labels selbst.By generating the labels on the basis of the output signals generated by the modules, a particularly simple and inexpensive generation of labels for training the self-learning system is achieved. That is, there is no need to involve an (external) company to generate the labels. This also means that the self-learning system generates “its” labels itself, which means that a cost and time factor is advantageously optimized. In other words, the actual operation of the self-learning system is used to collect data from this for the generation of the labels and then to use this for the generation of the labels. I.e. the self-learning system trains itself based on self-generated labels.

Gemäß einer bevorzugten Ausgestaltung ist im Fall a) der Labelerzeugung das Modul zur Erzeugung der aufbereiteten Informationen als ein herkömmliches Datenverarbeitungsprogramm ausgebildet. Der Vorteil hierbei ist, dass auf Standardprogramme bei der Erzeugung der aufbereiteten Informationen zurückgegriffen werden kann. Speziell handelt es sich bei dem herkömmlichen Datenverarbeitungsprogramm nicht um ein selbstlernendes System. Alternativ oder ergänzend ist ebenfalls im Fall b) der Erzeugung der Labels ein herkömmliches Datenverarbeitungsprogramm verwendbar.According to a preferred embodiment, in the case of a) label generation, the module for generating the processed information is designed as a conventional data processing program. The advantage here is that standard programs can be used to generate the processed information. In particular, the conventional data processing program is not a self-learning system. Alternatively or additionally, a conventional data processing program can also be used in case b) of the generation of the labels.

Das erfindungsgemäße Verfahren ist ein computerimplementiertes Verfahren, bei dem sämtliche Verfahrensschritte bis auf die Erzeugung der Sensorsignale und die Übermittlung dieser an die jeweiligen Module auf einer Datenverarbeitungseinheit ablaufen.The method according to the invention is a computer-implemented method in which all method steps except for the generation of the sensor signals and the transmission of these to the respective modules run on a data processing unit.

Gemäß einer besonders bevorzugten Weiterbildung, handelt es sich bei dem selbstlernenden System um ein neuronales Netz. D. h. somit ist auch zumindest eines der Module als ein neuronales Netz ausgebildet. Insbesondere sind alle Module als ein derartiges selbstlernendes System, insbesondere als ein neuronales Netz ausgebildet. Unter dem neuronalen Netz wird hierbei allgemein ein künstliches neuronales Netz (KNN) zur Daten- und Informationsverarbeitung z.B. verstanden.According to a particularly preferred development, the self-learning system is a neural network. That is, thus at least one of the modules is also designed as a neural network. In particular, all modules are designed as such a self-learning system, in particular as a neural network. In general, an artificial neural network (KNN) for data and information processing, e.g. Understood.

Das erzeugte Label wird hierbei als eine Trainingsdatei für die Module und somit die neuronalen Netze herangezogen. Der Vorteil hierbei ist, wie bereits erwähnt, dass die neuronalen Netze somit im eigentlichen Betrieb die Label erzeugen und auf aufwändige Methoden zur Labelerzeugung verzichtet werden kann. Unter der Trainingsdatei wird hierbei eine Datei (insbeondere das Label) verstanden, die dem selbstlernenden System beispielsweise während eines Trainingsmodus zugespielt wird und das selbstlernende System seinen Datenverarbeitungsalgorithmus anhand der Trainingsdatei selbst anpasst und somit lernt.The generated label is used as a training file for the modules and thus the neural networks. The advantage here, as already mentioned, is that the neural networks thus generate the labels in actual operation and there is no need for complex methods for generating labels. The training file is understood here to mean a file (in particular the label) which is fed to the self-learning system, for example during a training mode, and which the self-learning system adapts its data processing algorithm based on the training file and thus learns.

Zweckdienlicherweise handelt es sich bei den zumindest zwei Sensoreinheiten um unterschiedliche Sensoren zur Erzeugung von Umgebungsdaten. Beispielsweise ist eine der zumindest zwei Sensoreinheiten als eine Kamera zur Erzeugung von Bilddaten ausgebildet. Bei der anderen der zumindest zwei Sensoreinheiten handelt es sich beispielsweise um eine Radar-Sensoreinheit oder umeinen LiDAR-Sensor (Light Detection And Ranging-Sensor). Alternativ handelt es sich bei einer der zumindest zwei Sensoreinheiten um einen Ultraschall-Sensor.The at least two sensor units are expediently different sensors for generating environmental data. For example, one of the at least two sensor units is designed as a camera for generating image data. The other of the at least two sensor units is, for example, a radar sensor unit or a LiDAR sensor (Light Detection And Ranging Sensor). Alternatively one of the at least two sensor units is an ultrasonic sensor.

Der Vorteil hierbei ist, dass mittels der als Sensoren zur Erzeugung von Umgebungsdaten ausgebildeten Sensoreinheiten jeweils unterschiedliche Sensorsignale, vorliegend beispielsweise jeweils unterschiedliche Bildsignale (speziell bezüglich geometrischer Strukturen) zu der einen realen Situation erzeugt werden können. Derartige Umgebungsdaten sind mittels der bereits zuvor erwähnten Module, insbesondere mittels der selbstlernenden Systeme besonders einfach auszuwerten.The advantage here is that by means of the sensor units designed as sensors for generating environmental data, different sensor signals, in the present case, for example, different image signals (specifically with regard to geometric structures) can be generated for the one real situation. Such environmental data are particularly easy to evaluate using the modules already mentioned, in particular using the self-learning systems.

Gemäß einer bevorzugten Ausgestaltung wird im Fall a) das Label derart erzeugt, dass in einem ersten Schritt zunächst von dem Modul ein erstes Sensorsignal der einen Sensoreinheit, welche beispielsweise als Kamera zur Erzeugung eines 2D-Bildes ausgebildet, ist hinsichtlich einer ersten Information ausgewertet wird. Bei der ersten Information handelt es sich hierbei insbesondere um eine der bereits erwähnten aufbereiteten Informationen. Speziell handelt es sich bei der ersten Information, beispielsweise um eine Breite und/oder eine Höhe eines sich innerhalb des von der Kamera erzeugten Bildsignals befindlichen Objekts. Unter dem Objekt wird hierbei beispielsweise ein Mensch oder ein Fahrzeug verstanden.According to a preferred embodiment, in case a) the label is generated in such a way that, in a first step, a first sensor signal from the one sensor unit, which is designed, for example, as a camera for generating a 2D image, is first evaluated by the module with regard to first information. The first piece of information is in particular one of the previously prepared information. The first piece of information is, in particular, a width and / or a height of an object located within the image signal generated by the camera. In this context, the object is understood to mean, for example, a person or a vehicle.

In einem zweiten Schritt wird von dem Modul ein zweites Sensorsignal der zweiten Sensoreinheit hinsichtlich einer zweiten Information ausgewertet. Bei der zweiten Sensoreinheit handelt es sich hierbei um eine als Bildsensor zur Erzeugung von 3D-Bilddaten ausgebildeten Sensoreinheit. Eine derartige Sensoreinheit ist beispielsweise der bereits erwähnte LiDAR-Sensor. Die zweite Information ist ebenfalls Teil der bereits erwähnten aufbereiteten Informationen und beispielsweise eine Tiefe des bereits von der einen Sensoreinheit erfassten Objekts. Mit anderen Worten wird hierbei in zwei Schritten beispielsweise zunächst von der einen Sensoreinheit, welche als Kamera ausgebildet ist ein Kraftfahrzeug erfasst und die Breite sowie Höhe als erste Information bestimmt und ausgewertet. Von der zweiten Sensoreinheit, welche als Bildsensor ausgebildet ist wird anschließend eine Tiefe (geometrisch betrachtet die Länge des Kraftfahrzeugs) des Objektes bestimmt und ausgewertet.In a second step, the module evaluates a second sensor signal from the second sensor unit with regard to second information. The second sensor unit is a sensor unit designed as an image sensor for generating 3D image data. Such a sensor unit is, for example, the already mentioned LiDAR sensor. The second piece of information is also part of the previously prepared information and, for example, a depth of the object already detected by the one sensor unit. In other words, in two steps, for example, a motor unit is initially detected by the one sensor unit, which is designed as a camera, and the width and height are determined and evaluated as first information. A depth (geometrically, the length of the motor vehicle) of the object is then determined and evaluated by the second sensor unit, which is designed as an image sensor.

Die beiden ausgewerteten Informationen (zum einen Breite und Höhe als eine Information und zum anderen die Tiefe des Objektes) werden anschließend zur Erzeugung des Labels zusammengeführt. Das Label weist somit nach Art eines Datenpaares diese beiden Informationen auf, sodass das selbstlernende System anhand dieser Informationen trainiert werden kann. Anhand der Label kann somit das selbstlernende System erkennen, welche (üblicherweise) Ausmaße ein derartiges Objekt, speziell das Kraftfahrzeug aufweist und nachfolgend derartige Objekte als Kraftfahrzeuge identifizieren.The two evaluated information (on the one hand width and height as information and on the other hand the depth of the object) are then combined to create the label. The label thus has these two pieces of information in the manner of a pair of data, so that the self-learning system can be trained on the basis of this information. On the basis of the labels, the self-learning system can thus recognize the (usually) dimensions of such an object, especially the motor vehicle, and subsequently identify such objects as motor vehicles.

Durch diese Methode ist insbesondere die Erzeugung von Labeln mit mehreren Informationen, und somit mehreren Sachverhalten erreicht. Mit anderen Worten kann eine neue Informationen (beispielsweise die Tiefen-Information der zweiten Sensoreinheit) der ersten Information (Höhe und Breite des Objektes) hinzugefügt werden, sodass das Label insgesamt mehr Informationen enthält und somit zu einem besseren Training des selbstlernenden Systems führt.With this method, in particular the creation of labels with multiple information and thus multiple issues is achieved. In other words, new information (for example the depth information of the second sensor unit) can be added to the first information (height and width of the object) so that the label contains more information overall and thus leads to better training of the self-learning system.

Beispiele für neuronale Netze, die derartige Label erzeugen sind Mask R-CNN oder Faster R-CNN.Examples of neural networks that generate such labels are Mask R-CNN or Faster R-CNN.

Alternativ oder ergänzend werden die Label wie folgt erzeugt und für ein Training des selbstlernenden Systems herangezogen:

  • Zunächst werden zwei unterschiedliche Sensoreinheiten bereitgestellt, wobei jeder Sensoreinheit ein Modul zugeordnet ist, welches als ein selbstlernendes System ausgebildet ist.
Alternatively or in addition, the labels are generated as follows and used for training the self-learning system:
  • First, two different sensor units are provided, with each sensor unit being assigned a module which is designed as a self-learning system.

In einem ersten Verfahrensschritt wird mittels der zwei Sensoreinheiten jeweils ein Sensorsignal zu einer gleichen realen Situation erzeugt. Unter der gleichen realen Situation wird hierbei beispielsweise die bereits vorstehend erwähnte reale Situation verstanden.In a first method step, the two sensor units each generate a sensor signal relating to the same real situation. The same real situation is understood here to mean, for example, the real situation already mentioned above.

In einem weiteren Verfahrensschritt wird zumindest eines der Sensorsignale an ein Modul übermittelt. Das Modul bzw. die bereits erwähnten Module sind hierbei zur Bearbeitung der Sensorsignale ausgebildet.In a further method step, at least one of the sensor signals is transmitted to a module. The module or the modules already mentioned are designed to process the sensor signals.

Anschließend wird durch die Module ein jeweiliges Ausgangssignal erzeugt, wobei die Ausgangssignale aufbereitete Informationen zu der realen Situation enthalten. Unter den aufbereiteten Informationen wird hierbei beispielsweise eine Länge und oder eine Breite eines Objektes, zum Beispiel eines Fahrzeuges verstanden.A respective output signal is then generated by the modules, the output signals containing processed information about the real situation. The processed information is understood here to mean, for example, a length and or a width of an object, for example a vehicle.

Auf Basis der von den Modulen erzeugten Ausgangsignalen werden anschließend zumindest zwei Labels erzeugt, wobei das eine Label Informationen der ersten Sensoreinheit und das andere Leben Informationen der zweiten Sensoreinheit enthält. Das jeweils von dem einen Modul erzeugte Label wird dann als Trainingsdatei für das jeweils andere Modul herangezogen. Mit anderen Worten trainieren sich die beiden Module gegenseitig, insbesondere mittels der von ihnen erzeugten Labels. So wird beispielsweise ein auf Basis eines von einer Kamera aufgenommenen 2D-Bildes erstelltes Labels als eine Trainingsdatei für ein Modul eines LiDAR-Sensors verwendet und umgekehrt. Diese Art des Trainierens wird auch als „Tandem Learning“ bezeichnet. Die jeweilige Erzeugung der Labels und dass sich daran anschließende gegenseitige Trainieren der jeweiligen Module erfolgt gemäß einer bevorzugten Weiterbildung jeweils nach einem Fahrtabschnitt oder nach einer definierten Fahrtdauer.On the basis of the output signals generated by the modules, at least two labels are then generated, one label containing information from the first sensor unit and the other life containing information from the second sensor unit. The label generated by one module is then used as a training file for the other module. In other words, the two modules train each other, particularly using the labels they create. For example, a label created on the basis of a 2D image recorded by a camera is used as a training file for a module of a LiDAR sensor used and vice versa. This type of training is also known as "tandem learning". The respective generation of the labels and that subsequent mutual training of the respective modules takes place according to a preferred further development in each case after a journey section or after a defined journey time.

Hierzu wird bevorzugt das selbstlernende System, welches trainiert werden soll, in einem Kraftfahrzeug verwendet. Unter dem Fahrtabschnitt wird hierbei beispielsweise eine Fahrt ausgehend von einem Stillstand (mit ausgeschaltetem Motor) bis zu einem erneuten Ausschalten des Motors und somit Stillstand des Fahrzeuges verstanden. Beispielsweise eine Fahrt von einer Wohnung bis auf eine Arbeitsstätte. Unter der definierten Fahrtdauer wird hierbei verstanden, dass eine Zeitdauer, beispielsweise 2 Stunden vorgegeben wird, in der die Labels erzeugt werden und anschließend das Trainieren mittels der erzeugten Labels erfolgt.For this purpose, the self-learning system that is to be trained is preferably used in a motor vehicle. The travel section is understood here to mean, for example, a journey from a standstill (with the engine switched off) to a renewed switch-off of the engine and thus a standstill of the vehicle. For example, a trip from an apartment to a place of work. The defined journey time is understood here to mean that a period of time, for example 2 hours, is specified in which the labels are generated and then the training takes place using the generated labels.

Diese alternative oder ergänzende Ausgestaltung hat den Vorteil, dass ein kontinuierlicher Verbesserungsprozess gewährleistet ist. D. h. während des bereits beschriebenen Fahrtabschnitts oder der definierten Fahrtdauer werden Daten zur Erzeugung der Labels gesammelt und die Labels erzeugt. Anschließend an den definierten Fahrtabschnitt oder die definierte Fahrtdauer erfolgt ein Trainieren des selbstlernenden Systems, d. h. der jeweiligen Module untereinander. Somit steht vor Antritt eines neuen Fahrtabschnitts oder einer definierten Fahrtdauer ein „verbessertes“ selbstlernendes System zur Verfügung, da dieses mit den zuvor generierten Labels trainiert und damit „upgedatet“ wurde.This alternative or additional configuration has the advantage that a continuous improvement process is guaranteed. That is, During the travel section already described or the defined travel duration, data for generating the labels is collected and the labels are generated. Subsequent to the defined journey section or the defined journey duration, the self-learning system is trained, i. H. of the respective modules with each other. This means that an "improved" self-learning system is available before the start of a new journey section or a defined journey duration, since this has been trained with the previously generated labels and thus "updated".

Bevorzugt ist das selbstlernende System Teil eines Assistenzsystems eines Kraftfahrzeuges. Hierbei handelt es sich bei dem Assistenzsystem beispielsweise um eine Einheit, zur kamerabasierten Gegenstandserkennung in einem zumindest teilautonom und vorzugsweise (voll-)autonom fahrenden Kraftfahrzeug. Durch das zuvor beschriebene Verfahren und die Verwendung des selbstlernenden Systems als Teil des Assistenzsystems ist eine deutliche und kontinuierliche Verbesserung dieses Assistenzsystems erreicht, wodurch eine Fahrsicherheit des zumindest teilautonom fahrenden Kraftfahrzeuges erhöht wird. Es werden beispielsweise Gegenstände, wie andere Kraftfahrzeuge oder Personen im Umfeld des Kraftfahrzeuges durch das selbstlernende System (kontinuierlich) verbessern erkannt.The self-learning system is preferably part of an assistance system of a motor vehicle. The assistance system is, for example, a unit for camera-based object recognition in an at least partially autonomous and preferably (fully) autonomous motor vehicle. The method described above and the use of the self-learning system as part of the assistance system achieve a significant and continuous improvement in this assistance system, thereby increasing driving safety of the at least partially autonomous motor vehicle. For example, objects such as other motor vehicles or people in the vicinity of the motor vehicle are (continuously) improved by the self-learning system.

Zudem kann, wie bereits erwähnt auf eine manuelle und somit kosten- und zeitintensive Generierung der Labels verzichtet werden, da diese nun durch das selbstlernende System selbst generiert werden und für das Training bereitgestellt werden.In addition, as already mentioned, manual and thus costly and time-consuming generation of the labels can be dispensed with, since these are now generated by the self-learning system itself and are made available for the training.

Die Aufgabe wird weiterhin erfindungsgemäß gelöst durch ein Kraftfahrzeug mit einer Steuerungseinheit mit den Merkmalen des Anspruchs 9. Das Kraftfahrzeug mit der Steuerungseinheit ist hierbei insbesondere zur Durchführung des vorstehend beschriebenen Verfahrens ausgebildet. Die im Hinblick auf das Verfahren aufgeführten Vorteile und bevorzugten Ausgestaltungen sind sinngemäß auf das Kraftfahrzeug zu übertragen und umgekehrt.The object is further achieved according to the invention by a motor vehicle with a control unit having the features of claim 9. The motor vehicle with the control unit is in this case in particular designed to carry out the method described above. The advantages and preferred configurations listed with regard to the method are to be applied analogously to the motor vehicle and vice versa.

Grundsätzlich ist das beschriebene Verfahren nicht auf eine Verwendung in einem Assistenzsystems eines Kraftfahrzeuges beschränkt. Vielmehr erstreckt sich eine Verwendbarkeit auf nahezu alle Vorrichtungen, die selbstlernende Systeme aufweisen und/oder nutzen, die auf Basis von Labeln trainiert werden (sollen).Basically, the method described is not limited to use in an assistance system of a motor vehicle. Rather, a usability extends to almost all devices that have and / or use self-learning systems that are (should) be trained on the basis of labels.

Ausführungsbeispiele der Erfindung werden nachfolgend anhand der Figuren näher erläutert. Diese zeigen in teilweise stark vereinfachter Darstellung:

  • 1 ein schematisiertes Kraftfahrzeug mit einer Steuerungseinheit, die zur Durchführung eines Verfahrens zum automatischen Erzeugen eines Labels ausgebildet ist,
  • 2 ein skizziertes Blockschaltbild des Verfahrens zur Erzeugung des Labels gemäß Fall a),
  • 3 ein skizziertes Blockschaltbild des Verfahrens zur Erzeugung des Labels gemäß Fall b) sowie
  • 4 ein skizziertes Blockschaltbild des Verfahrens zur Erzeugung des Labels und des Trainings eines selbstlernenden Systems.
Exemplary embodiments of the invention are explained in more detail below with reference to the figures. These show in a somewhat simplified representation:
  • 1 a schematic motor vehicle with a control unit which is designed to carry out a method for automatically generating a label,
  • 2nd a sketched block diagram of the method for generating the label according to case a),
  • 3rd a sketched block diagram of the method for generating the label according to case b) and
  • 4th a sketched block diagram of the method for generating the label and training a self-learning system.

In den Figuren sind gleichwirkende Teile stets mit den gleichen Bezugszeichen dargestellt.Parts with the same effect are always shown in the figures with the same reference symbols.

In 1 ist ein schematisiert dargestelltes Kraftfahrzeug 2 gezeigt. Bei dem Kraftfahrzeug 2 handelt es sich insbesondere um ein zumindest teilautonom und bevorzugt um ein vollständig autonom fahrendes Personenkraftfahrzeug. Das Kraftfahrzeug 2 weist eine Steuerungseinheit 4 auf. Im Ausführungsbeispiel weist das Kraftfahrzeug 2 zwei Sensoreinheiten 6a, 6b auf. Die Sensoreinheiten 6a, 6b sind im Ausführungsbeispiel mit der Steuerungseinheit 4 verbunden, welche im Ausführungsbeispiel weiterhin Teil eines Assistenzsystems 8 ist. Bei dem Assistenzsystem 8 handelt es sich im Ausführungsbeispiel beispielsweise um ein (kamerabasiertes) Objekterkennungssystem. Somit handelt es sich bei den Sensoreinheiten 6a, 6b im Ausführungsbeispiel insbesondere um Sensoren zur Erzeugung von Bilddaten. D. h. im Ausführungsbeispiel ist beispielsweise die eine Sensoreinheit 6a als eine Kamera und die andere Sensoreinheit 6b als ein Radarsensor ausgebildet.In 1 is a schematically illustrated motor vehicle 2nd shown. In the motor vehicle 2nd it is in particular an at least partially autonomous and preferably a fully autonomous passenger vehicle. The car 2nd has a control unit 4th on. In the exemplary embodiment, the motor vehicle has 2nd two sensor units 6a , 6b on. The sensor units 6a , 6b are in the embodiment with the control unit 4th connected, which in the exemplary embodiment continues to be part of an assistance system 8th is. With the assistance system 8th in the exemplary embodiment, it is, for example, a (camera-based) object recognition system. The sensor units are therefore concerned 6a , 6b in the exemplary embodiment in particular sensors for generating image data. That is, in the exemplary embodiment is one sensor unit, for example 6a as a camera and the other sensor unit 6b designed as a radar sensor.

Die Steuerungseinheit 4 ist zur Durchführung eines Verfahrens zum automatischen erzeugen eines Labels 10 zum Trainieren eines selbstlernenden Systems 12 ausgebildet. Im Folgenden werden nun verschiedene Methoden (Fälle) erläutert, mit deren Hilfe das Label 10 erzeugt wird. The control unit 4th is for performing a method for automatically generating a label 10th for training a self-learning system 12th educated. In the following, different methods (cases) are explained with the help of which the label 10th is produced.

2 zeigt ein Blockschaltbild, welches die Erzeugung des Labels 10 gemäß einer ersten Ausgestaltungsvariante (Fall a)) zeigt. Hierbei wird jeweils von den Sensoreinheiten 6 ein Sensorsignal S erzeugt und an ein Modul 14, welches im Ausführungsbeispiel gemäß 2 als das selbstlernende System 12 ausgebildet ist, übermittelt. D.h. die erste Sensoreinheit 6a erzeugt ein erstes Sensorsignal Sa und die zweite Sensoreinheit 6b erzeugt ein zweites Sensorsignal Sb . Die Sensorsignale Sa , Sb werden hierbei zu einer gleichen, also ein und derselben realen Situation aufgenommen. Unter der realen Situation wird hierbei beispielsweise eine Fahrt durch eine Straße verstanden, auf und/oder an der sich mehrere Objekte (z.B. Menschen und/oder andere Fahrzeuge) aufhalten. 2nd shows a block diagram showing the creation of the label 10th according to a first embodiment variant (case a)). Here, each of the sensor units 6 a sensor signal S is generated and sent to a module 14 , which according to the exemplary embodiment 2nd than the self-learning system 12th trained, transmitted. Ie the first sensor unit 6a generates a first sensor signal S a and the second sensor unit 6b generates a second sensor signal S b . The sensor signals S a , S b are included in the same, i.e. one and the same real situation. In this case, the real situation is understood to mean, for example, a journey through a street on and / or on which there are several objects (for example people and / or other vehicles).

Durch das Modul 14 wird auf Basis der beiden Sensorsignale Sa , Sb ein Ausgangssignal Sout erzeugt. Hierzu wertet das Modul 14 zum einen das erste Sensorsignal Sa hinsichtlich einer ersten Information (z.B. hinsichtlich einer Höhe und/oder Breite eines weiteren Kraftfahrzeugs) aus. Zum anderen werten das Modul 14 das zweite Sensorsignal Sb hinsichtlich einer zweiten Information (z.B. einer Tiefe, also einer Länge des weiteren Kraftfahrzeuges) aus. Somit enthält das Ausgangssignal Sout aufbereitete Informationen I zu der realen Situation. Unter den aufbereiteten Situationen I werden hierbei - wie bereits erwähnt - insbesondere Daten zu sich auf den bevorzugt als Bilddaten ausgebildeten Sensorsignalen Sa , Sb befindlichen Objekten verstanden. Die aufbereiteten Informationen I enthalten im Ausführungsbeispiel also beispielsweise die erste Information und die zweite Information.Through the module 14 is based on the two sensor signals S a , S b generates an output signal Sout. The module evaluates this 14 on the one hand the first sensor signal S a with regard to a first piece of information (for example with regard to a height and / or width of another motor vehicle). On the other hand, evaluate the module 14 the second sensor signal S b with regard to a second piece of information (for example a depth, ie a length of the further motor vehicle). The output signal Sout thus contains processed information I. to the real situation. Under the prepared situations I. As already mentioned, data relating to the sensor signals, which are preferably embodied as image data, are in this case S a , S b understood objects. The prepared information I. in the exemplary embodiment thus contain, for example, the first information and the second information.

Das Ausgangssignal Sout wird anschließend von dem Modul 14 an einen Label-Generator 16 übermittelt. Der Label-Generator 16 ist derart ausgebildet, auf Basis des Ausgangssignals Sout das Label 10 zu erzeugen. Hierzu werden die ausgewerteten und aufbereiteten Informationen I zusammengeführt. Das Label 10 weist hierbei vorzugsweise nach Art eines Datenpaares ein Inputsignal und ein Outputsignal auf. Auf Basis des Inputsignals und des Outputsignals wird das selbstlernende System 12, welches im Ausführungsbeispiel das Modul 14 ist, trainiert. Das Trainieren des selbstlernenden Systems 12 erfolgt beispielsweise derart, dass das Label 10 dem selbstlernenden Systems 12 derart zugeführt wird, dass das selbstlernende System 12 das Inputsignal und das Outputsignal erhält und eine Signalverarbeitung derart einstellt und/oder anpasst, dass eine Zuführung des Inputsignals (ohne zusätzliche Vorgabe des Outputsignals) eine Ausgabe des (im Training vorgegebenen) Outputsignal ergeben würde.The output signal Sout is then from the module 14 to a label generator 16 transmitted. The label generator 16 is designed in such a way that the label is based on the output signal Sout 10th to create. For this purpose, the evaluated and prepared information I. merged. The label 10th preferably has an input signal and an output signal in the manner of a data pair. The self-learning system is based on the input signal and the output signal 12th , which in the exemplary embodiment is the module 14 is trained. Training the self-learning system 12th For example, the label 10th the self-learning system 12th is fed such that the self-learning system 12th receives the input signal and the output signal and adjusts and / or adjusts signal processing in such a way that feeding the input signal (without additional specification of the output signal) would result in an output of the output signal (specified in the training).

Eine derartige Trainingsmethode wird auch als „Supervised Learning“ bezeichnet. Alternativ oder ergänzend ist auch eine Trainingsmethode nach Art eines Reinforcement Learnings denkbar, bei dem das selbstlernende System 12 nach einer Generierung eines Outputsignals auf Basis eines vorgegebenen Inputsignals eine Bewertung erhält, anhand derer sich das selbstlernende System 12 dann anpasst und/oder einstellt.Such a training method is also referred to as "supervised learning". Alternatively or in addition, a training method in the manner of a reinforcement learning is also conceivable, in which the self-learning system 12th after generating an output signal on the basis of a predetermined input signal, receives an evaluation on the basis of which the self-learning system 12th then adjust and / or adjust.

In 3 ist eine Erzeugung des Labels 10 gemäß einer zweiten Ausgestaltungsvariante (Fall b)) gezeigt. Hierzu ist in 3 ein Blockschaltbild des Verfahrens dargestellt. Gemäß der zweiten Ausgestaltungsvariante (Fall b)) wird ebenfalls von den beiden Sensoreinheiten 6a, 6b jeweils ein Sensorsignal Sa , Sb erzeugt. Anschließend wird jeweils ein Sensorsignal Sa , Sb an jeweils ein Modul 14 übermittelt. D. h. beispielsweise wird das Sensorsignal Sa an ein erstes Modul 14a und das Sensorsignal Sb an ein zweites Modul 14b übermittelt. Beide Module 14a, 14b sind als, im Ausführungsbeispiel zu trainierende selbstlernende Systeme 12, insbesondere als neuronale Netze ausgebildet. Jedes Modul 14a, 14b erzeugt anschließend ein Ausgangssignal Sout,a , Sout,b , welche jeweils aufbereitete Informationen I zu der realen Situation enthalten. Diese Ausgangssignale Sout,a , Sout,b werden dann von den Modulen 14a, 14b an den Label-Generator 16 übermittelt. Dieser generiert anschließend auf Basis der beiden Ausgangssignale Sout,a , Sout,b , das Label 10, welches somit unterschiedliche Informationen aus zwei Sensoreinheiten 6a, 6b enthält. Das auf diese Art erzeugte Label 10 wird anschließend beispielsweise nach Art der bereits genannten Methoden zum Trainieren der selbstlernenden Systeme 12 herangezogen und bereitgestellt.In 3rd is a creation of the label 10th according to a second embodiment variant (case b)). This is in 3rd a block diagram of the method is shown. According to the second embodiment variant (case b)), the two sensor units also operate 6a , 6b one sensor signal each S a , S b generated. Then one sensor signal each S a , S b one module at a time 14 transmitted. That is, for example the sensor signal S a to a first module 14a and the sensor signal S b to a second module 14b transmitted. Both modules 14a , 14b are self-learning systems to be trained in the exemplary embodiment 12th , in particular designed as neural networks. Every module 14a , 14b then generates an output signal S out, a , S out, b , which each processed information I. included to the real situation. These output signals S out, a , S out, b are then from the modules 14a , 14b to the label generator 16 transmitted. This then generates on the basis of the two output signals S out, a , S out, b , the label 10th , which thus different information from two sensor units 6a , 6b contains. The label created in this way 10th is then used, for example, to train the self-learning systems according to the type of methods already mentioned 12th used and provided.

In 4 ist ein skizziertes Blockschaltbild des Verfahrens zur Erzeugung des Labels in einer vereinfachten Weise dargestellt. Ergänzend ist hierzu schematisiert das Training eines selbstlernenden Systems 12 dargestellt.In 4th is a sketched block diagram of the method for generating the label in a simplified manner. In addition, the training of a self-learning system is schematized 12th shown.

Die von den Sensoreinheiten 6a, 6b erzeugten Sensorsignale Sa , Sb werden im Ausführungsbeispiel gemäß 4 jeweils an ein als ein selbstlernendes System 12a, 12b ausgebildetes Modul 14a, 14b übermittelt. Anschließend wird auf Basis der von den Modulen 14a, 14b erzeugten Ausgangssignalen Sout, a, Sout,b in jeweils einem Label-Generator 16a, 16b jeweils ein Label 10a, 10b erzeugt. Alternativ hierzu wird zur Erzeugung der beiden Labels 10a, 10b lediglich ein Label-Generator 16 herangezogen.The from the sensor units 6a , 6b generated sensor signals S a , S b are in accordance with the embodiment 4th each as a self-learning system 12a , 12b trained module 14a , 14b transmitted. Then, based on the modules 14a , 14b generated output signals S out, a , S out, b in one label generator each 16a , 16b one label each 10a , 10b generated. Alternatively, the two labels are created 10a , 10b just a label generator 16 used.

Die erzeugten Labels 10a, 10b werden anschließend zu einem gegenseitigen Lernen der Module 14a, 14b herangezogen. D. h., dass eine Label 10a, welches vorzugsweise überarbeitete Informationen zu der realen Situation der ersten Sensoreinheit 6a enthält, wird zum Trainieren des zweiten Moduls 14b herangezogen und umgekehrt. Diese Methode des Trainierens wird auch als „Tandem-Learning“ bezeichnet, nach der sich beispielsweise innerhalb der Steuereinheit 4 agierende Systeme gegenseitig trainieren.The labels created 10a , 10b then become a mutual learning of the modules 14a , 14b used. That is, a label 10a , which preferably revised information on the real situation of the first sensor unit 6a is used to train the second module 14b used and vice versa. This method of training is also called "tandem learning", according to which, for example, within the control unit 4th train operating systems mutually.

Die Erzeugung der Sensorsignale Sa , Sb und somit die Erzeugung der Labels 10a, 10b erfolgt im Ausführungsbeispiel vorzugsweise während einer Fahrt des Kraftfahrzeuges 2. Das Trainieren, insbesondere das gegenseitige trainieren der Module 14a, 14b durch und mittels der erzeugten Labels 10a, 10b erfolgt im Ausführungsbeispiel vorzugsweise nach der Fahrt des Kraftfahrzeuges 2. Diese Ausgestaltung hat den Vorteil, dass vor bzw. bei einem erneuten Fahrtantritt besser trainierte und somit „upgedatete“ Module 14a, 14b zur Verfügung stehen und somit als Teil des Assistenzsystems 8 dieses vorteilhaft optimieren.The generation of the sensor signals S a , S b and thus the creation of the labels 10a , 10b in the exemplary embodiment is preferably carried out while the motor vehicle is traveling 2nd . The training, especially the mutual training of the modules 14a , 14b through and by means of the generated labels 10a , 10b in the exemplary embodiment is preferably carried out after driving the motor vehicle 2nd . This configuration has the advantage that modules that are better trained and thus “updated” before or when you start driving again 14a , 14b are available and therefore as part of the assistance system 8th optimize this advantageously.

Die Erfindung ist nicht auf die vorstehend beschriebenen Ausführungsbeispiele beschränkt. Vielmehr können auch andere Varianten der Erfindung von dem Fachmann hieraus abgeleitet werden, ohne den Gegenstand der Erfindung zu verlassen. Insbesondere sind ferner alle im Zusammenhang mit den Ausführungsbeispielen beschriebenen Einzelmerkmale auch auf andere Weise miteinander kombinierbar, ohne den Gegenstand der Erfindung zu verlassen.The invention is not restricted to the exemplary embodiments described above. Rather, other variants of the invention can also be derived from this by the person skilled in the art without departing from the subject matter of the invention. In particular, all of the individual features described in connection with the exemplary embodiments can also be combined with one another in other ways without departing from the subject matter of the invention.

BezugszeichenlisteReference list

22nd
KraftfahrzeugMotor vehicle
44th
SteuerungseinheitControl unit
6a,b6a, b
SensoreinheitSensor unit
88th
AssistenzsystemAssistance system
10a,b10a, b
LabelLabel
12a,b12a, b
selbstlernendes Systemself-learning system
14a,b14a, b
Modulmodule
16a,b16a, b
Label-GeneratorLabel generator
II.
aufbereitete Informationprepared information
Sa,Sb S a , S b
SensorsignalSensor signal
Sout,a,Sout,b S out, a , S out, b
AusgangssignalOutput signal

Claims (10)

Verfahren zum automatischen Erzeugen eines Labels (10) zum Trainieren eines selbstlernenden Systems (12), umfassend die folgenden Schritte: - Erzeugen jeweils eines Sensorsignals (Sa,Sb) mit Hilfe von zumindest zwei Sensoreinheiten (6a,6b) zu einer gleichen realen Situation, - Bereitstellung von mehreren Modulen (14) zur Bearbeitung der Sensorsignale (Sa,Sb), wobei zumindest eines der Module (14) als ein selbstlernendes System (12) ausgebildet ist - Übermittlung zumindest eines der Sensorsignale (Sa,Sb) an ein Modul (14), - Erzeugen von Ausgangssignalen (Sout) durch das zumindest eine Modul (14), wobei die Ausgangssignale (Sout) aufbereitete Informationen (I) zu der realen Situation enthalten, - Erzeugung des Labels (10), indem entweder - a) die Sensorsignale (Sa,Sb) zumindest zweier Sensoreinheiten (6a,6b) an ein Modul (14) übermittelt werden, und auf Basis des Ausgangssignals (Sout) dieses Moduls das Label (10) erzeugt wird, oder - b) die aufbereiteten Informationen (I) von zumindest zwei Modulen (14), die Sensorsignale (Sa,Sb) von zwei unterschiedlichen Sensoreinheiten (6a,6b) erhalten haben, zusammengeführt werden und auf der Basis der zusammengeführten Informationen (I) das Label (10) erzeugt wird, so dass für das erzeugte Label (10) unterschiedliche Informationen aus zwei Sensoreinheiten (6a,6b) herangezogen werden - Bereitstellen des erzeugten Labels (10) zum Trainieren des selbstlernenden Systems (12).Method for automatically generating a label (10) for training a self-learning system (12), comprising the following steps: - Generating a sensor signal (S a , S b ) with the help of at least two sensor units (6a, 6b) for the same real one Situation, - Provision of several modules (14) for processing the sensor signals (S a , S b ), at least one of the modules (14) being designed as a self-learning system (12) - Transmission of at least one of the sensor signals (S a , S b ) to a module (14), - generation of output signals (S out ) by the at least one module (14), the output signals (S out ) containing processed information (I) on the real situation, - generation of the label (10 ) by either - a) transmitting the sensor signals (S a , S b ) of at least two sensor units (6a, 6b) to a module (14) and generating the label (10) on the basis of the output signal (S out ) of this module becomes, or - b) the processed information tions (I) of at least two modules (14) that have received sensor signals (S a , S b ) from two different sensor units (6a, 6b) are merged and on the basis of the merged information (I) the label (10) is generated so that different information from two sensor units (6a, 6b) is used for the generated label (10) - providing the generated label (10) for training the self-learning system (12). Verfahren nach dem vorhergehenden Anspruch, wobei im Fall a) das Modul (14) zur Erzeugung der aufbereiteten Informationen (I) als ein herkömmliches Datenverarbeitungsprogramm ausgebildet ist.Method according to the preceding claim, wherein in case a) the module (14) for generating the processed information (I) is designed as a conventional data processing program. Verfahren nach Anspruch 1, wobei es sich bei dem selbstlernenden System (12) um ein neuronales Netz handelt und das Label (10) als eine Trainingsdatei für die Module (14) herangezogen wird.Procedure according to Claim 1 , wherein the self-learning system (12) is a neural network and the label (10) is used as a training file for the modules (14). Verfahren nach einem der vorhergehenden Ansprüche, wobei es sich bei den zumindest zwei Sensoreinheiten (6a,6b) um unterschiedliche Sensoren zur Erzeugung von Umgebungsdaten handelt.Method according to one of the preceding claims, wherein the at least two sensor units (6a, 6b) are different sensors for generating environmental data. Verfahren nach dem vorhergehenden Anspruch, wobei im Fall a) das Label (10) derart erzeugt wird, dass -zunächst von dem Modul (14) ein erstes Sensorsignal (Sa) der einen Sensoreinheit (6a), welche als Kamera zur Erzeugung eines 2D-Bildes ausgebildet ist, hinsichtlich einer ersten Information ausgewertet wird, - von dem Modul (14) ein zweites Sensorsignal (Sb) der zweiten Sensoreinheit (6b), welche als ein Sensor zur Erzeugung von 3D-Daten ausgebildet ist, hinsichtlich einer zweiten Information ausgewertet wird, - die beiden ausgewerteten Informationen zur Erzeugung des Labels (10) zusammengeführt werden.Method according to the preceding claim, wherein in case a) the label (10) is generated in such a way that - first of all from the module (14) a first sensor signal (S a ) from the one sensor unit (6a), which is used as a camera for generating a 2D Is formed, is evaluated with regard to a first piece of information, - from the module (14) a second sensor signal (S b ) of the second sensor unit (6b), which as one A sensor is designed to generate 3D data, is evaluated with regard to a second piece of information, - the two evaluated pieces of information are combined to generate the label (10). Verfahren insbesondere nach einem der vorhergehenden Ansprüche, umfassend die Schritte: - Bereitstellen von zwei unterschiedlichen Sensoreinheiten (6a,6b), wobei jeder Sensoreinheit (6a,6b) ein Modul (14a,14b) zugeordnet ist, welches als selbstlernendes System (12a, 12b) ausgebildet ist, - Erzeugen jeweils eines Sensorsignals (Sa,Sb) mit Hilfe der zwei Sensoreinheiten (6a,6b) zu einer gleichen realen Situation, - Übermittlung zumindest eines der Sensorsignale (6a,6b) an ein Modul (14a,14b), - Erzeugen eines jeweiligen Ausgangssignals (Sout,a,Sout,b) durch die Module (14a,14b), wobei die Ausgangssignale (Sout,a,Sout,b) aufbereitete Informationen (I) zu der realen Situation enthalten, - Erzeugung von zumindest zwei Labels (10a, 10b), wobei das eine Label (10a) Informationen der ersten Sensoreinheit (6a) und das andere Label (10b) Informationen der zweiten Sensoreinheit (6b) enthält, wobei das von den Modulen (14a, 14b) jeweils erzeugte Label (10a,10b) als Trainingsdatei für das jeweils andere Modul (14a,14b) herangezogen wird.Method in particular according to one of the preceding claims, comprising the steps: - providing two different sensor units (6a, 6b), with each sensor unit (6a, 6b) being assigned a module (14a, 14b) which is used as a self-learning system (12a, 12b ) is formed, - generation of a sensor signal (S a , S b ) using the two sensor units (6a, 6b) for the same real situation, - transmission of at least one of the sensor signals (6a, 6b) to a module (14a, 14b ), - Generating a respective output signal (S out, a , S out, b ) by the modules (14a, 14b), the output signals (S out, a , S out, b ) being processed information (I) on the real situation contain, - generation of at least two labels (10a, 10b), one label (10a) containing information from the first sensor unit (6a) and the other label (10b) containing information from the second sensor unit (6b), the module ( 14a, 14b) each generated label (10a, 10b) as a training file f r is used the respective other module (14a, 14b). Verfahren nach dem vorhergehenden Anspruch, wobei das selbstlernende System (12) in einem Kraftfahrzeug (2) verwendet ist und jeweils nach einem Fahrtabschnitt oder einer definierten Fahrtdauer ein Trainieren des jeweils anderen Moduls (14a, 14b) mittels des jeweils erzeugten Labels (10a, 10b) erfolgt.Method according to the preceding claim, wherein the self-learning system (12) is used in a motor vehicle (2) and, in each case after a journey section or a defined journey time, the other module (14a, 14b) is trained by means of the respectively generated label (10a, 10b ) he follows. Verfahren nach einem der vorhergehenden Ansprüche, bei dem das selbstlernende System (12) Teil eines Assistenzsystems (8) ist.Method according to one of the preceding claims, in which the self-learning system (12) is part of an assistance system (8). Kraftfahrzeug mit zwei Sensoreinheiten (6a,6b) sowie mit einer Steuerungseinheit (4), die zur Durchführung des Verfahrens nach einem der vorhergehenden Ansprüche ausgebildet ist.Motor vehicle with two sensor units (6a, 6b) and with a control unit (4) which is designed to carry out the method according to one of the preceding claims. Computerprogrammprodukt umfassend Befehle, die bewirken, dass die Steuerungseinheit (4) des Kraftfahrzeuges (2) gemäß Anspruch 9 die Verfahrensschritte nach Anspruch 1 ausführt.Computer program product comprising commands which cause the control unit (4) of the motor vehicle (2) according to Claim 9 the procedural steps Claim 1 executes.
DE102018216172.0A 2018-09-21 2018-09-21 Method for automatically generating a label for training a self-learning system and motor vehicle Pending DE102018216172A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102018216172.0A DE102018216172A1 (en) 2018-09-21 2018-09-21 Method for automatically generating a label for training a self-learning system and motor vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102018216172.0A DE102018216172A1 (en) 2018-09-21 2018-09-21 Method for automatically generating a label for training a self-learning system and motor vehicle

Publications (1)

Publication Number Publication Date
DE102018216172A1 true DE102018216172A1 (en) 2020-03-26

Family

ID=69725575

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018216172.0A Pending DE102018216172A1 (en) 2018-09-21 2018-09-21 Method for automatically generating a label for training a self-learning system and motor vehicle

Country Status (1)

Country Link
DE (1) DE102018216172A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102020211636A1 (en) 2020-09-17 2022-03-17 Robert Bosch Gesellschaft mit beschränkter Haftung Method and device for providing data for creating a digital map

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017006155A1 (en) * 2017-06-29 2017-12-21 Daimler Ag Method for operating a sensor system of a vehicle
DE102016008218A1 (en) * 2016-07-06 2018-01-11 Audi Ag Method for improved recognition of objects by a driver assistance system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016008218A1 (en) * 2016-07-06 2018-01-11 Audi Ag Method for improved recognition of objects by a driver assistance system
DE102017006155A1 (en) * 2017-06-29 2017-12-21 Daimler Ag Method for operating a sensor system of a vehicle

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102020211636A1 (en) 2020-09-17 2022-03-17 Robert Bosch Gesellschaft mit beschränkter Haftung Method and device for providing data for creating a digital map
US11941892B2 (en) 2020-09-17 2024-03-26 Robert Bosch Gmbh Method and device for providing data for creating a digital map

Similar Documents

Publication Publication Date Title
DE102018128289B4 (en) METHOD AND DEVICE FOR AUTONOMOUS SYSTEM PERFORMANCE AND CLASSIFICATION
DE102014218050A1 (en) Transition from autonomous vehicle control to driver control
DE102018206805B3 (en) A method, apparatus and computer program for predicting a future movement of an object
DE102019203712B4 (en) Method for training at least one algorithm for a control unit of a motor vehicle, computer program product, motor vehicle and system
DE102019131385A1 (en) SAFETY AND PERFORMANCE STABILITY OF AUTOMATION THROUGH UNSECURITY-LEARNED LEARNING AND CONTROL
DE102018208763A1 (en) Method, apparatus and computer program for operating a machine learning system
DE102019204139A1 (en) Training for artificial neural networks with better utilization of the learning data sets
WO2020051618A1 (en) Analysis of dynamic spatial scenarios
EP3782081B1 (en) Method for generating a test data set, method for testing, method for operating a system, device, control system, computer program product, computer readable medium, generation and use
DE102021004426A1 (en) Method for training an autonomous driving function
DE102018216172A1 (en) Method for automatically generating a label for training a self-learning system and motor vehicle
EP3968213A1 (en) Method for determining a track-bound railway track in a track system and device for carrying out this method
EP3748453A1 (en) Method and device for automatically executing a control function of a vehicle
DE102020201931A1 (en) Method for training at least one algorithm for a control unit of a motor vehicle, method for optimizing a traffic flow in a region, computer program product and motor vehicle
DE102019214931A1 (en) Control of a vehicle
DE102018125712A1 (en) Driving support method for a vehicle
WO2021245151A1 (en) Unmonitored learning of a common presentation of data from sensors of different modality
DE102020203836A1 (en) Method for determining a value of a controller variable
DE102019130484A1 (en) Method and device for training an ensemble of neural networks
DE102021104077B3 (en) Method, system and computer program product for the automated generation of traffic data
DE102013200932A1 (en) Method for monitoring control function of engine control device of engine system of motor vehicle, involves determining comparison value by using mathematical numerical parametric model, particularly Gaussian model
DE102023105062A1 (en) METHOD OR SYSTEM FOR USING HUMAN DRIVING CHARACTERISTICS IN AN AUTONOMOUS OR SEMI-AUTOMATIC DRIVING METHOD OR SYSTEM
DE102022202071A1 (en) Method for providing data in a vehicle
DE102020201544A1 (en) Processing of measurement data
DE102022000473A1 (en) Method for training neural networks set up to control a vehicle function and a vehicle and system for carrying out the method

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06K0009660000

Ipc: G06V0030194000