DE102019203953A1 - Method and device for determining a trained decision network - Google Patents

Method and device for determining a trained decision network Download PDF

Info

Publication number
DE102019203953A1
DE102019203953A1 DE102019203953.7A DE102019203953A DE102019203953A1 DE 102019203953 A1 DE102019203953 A1 DE 102019203953A1 DE 102019203953 A DE102019203953 A DE 102019203953A DE 102019203953 A1 DE102019203953 A1 DE 102019203953A1
Authority
DE
Germany
Prior art keywords
sensor
network
signal vector
sensor signal
vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102019203953.7A
Other languages
German (de)
Inventor
Florian Maile
Johannes Paas
Michael Grunwald
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ZF Friedrichshafen AG
Original Assignee
ZF Friedrichshafen AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ZF Friedrichshafen AG filed Critical ZF Friedrichshafen AG
Priority to DE102019203953.7A priority Critical patent/DE102019203953A1/en
Priority to PCT/EP2020/056416 priority patent/WO2020193126A1/en
Publication of DE102019203953A1 publication Critical patent/DE102019203953A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/865Combination of radar systems with lidar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/06Systems determining position data of a target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/40Means for monitoring or calibrating
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/417Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section involving the use of neural networks
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01DMEASURING NOT SPECIALLY ADAPTED FOR A SPECIFIC VARIABLE; ARRANGEMENTS FOR MEASURING TWO OR MORE VARIABLES NOT COVERED IN A SINGLE OTHER SUBCLASS; TARIFF METERING APPARATUS; MEASURING OR TESTING NOT OTHERWISE PROVIDED FOR
    • G01D21/00Measuring or testing not otherwise provided for
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9323Alternative operation using light waves

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Theoretical Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Electromagnetism (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Probability & Statistics with Applications (AREA)
  • Traffic Control Systems (AREA)

Abstract

Es wird ein Verfahren (600) zur Ermittlung eines trainierten Entscheidungsnetzwerks (140) vorgestellt, wobei das Verfahren (600) einen Schritt des Einlesens (610) eines ersten Sensorsignalvektors (ST1) und eines zweiten Sensorsignalvektors (ST2) umfasst, wobei der erste Sensorsignalvektor (ST1) zumindest einen Messwert eines ersten Sensors (115) einer ersten Sensortechnologie und der zweite Sensorsignalvektor (ST2) zumindest einen Messwert eines zweiten Sensors (120) einer von der ersten Sensortechnologie unterschiedlichen zweiten Sensortechnologie aufweist, wobei der erste Sensorsignalvektor (ST1) ein Objekt (110) aus einem Blickwinkel des ersten Sensors (115) repräsentiert und der zweite Sensorsignalvektor (ST2) das Objekt (110) aus einem Blickwinkel des zweiten Sensors (120) repräsentiert. Ferner umfasst das Verfahren (600) einen Schritt des Adaptierens (620) eines ersten Netzwerks (125) mit dem ersten Sensorsignalvektor (ST1) als Eingangsvektor und dem zweiten Sensorsignalvektor (ST2) als Referenzvektor und Adaptieren (620) eines zweiten Netzwerks (130) mit dem zweiten Sensorsignalvektor (ST2) als Eingangsvektor und dem ersten Sensorsignalvektor (ST1) als Referenzvektor. Schließlich umfasst das Verfahren (600) einen Schritt des Trainierens (630) von Parametern eines Entscheidungsnetzwerks (140) unter Verwendung des ersten und zweiten Netzwerks (125), um das trainierte Entscheidungsnetzwerk (140) zu erhalten.A method (600) for determining a trained decision network (140) is presented, the method (600) comprising a step of reading in (610) a first sensor signal vector (ST1) and a second sensor signal vector (ST2), the first sensor signal vector ( ST1) has at least one measured value of a first sensor (115) of a first sensor technology and the second sensor signal vector (ST2) has at least one measured value of a second sensor (120) of a second sensor technology different from the first sensor technology, the first sensor signal vector (ST1) being an object ( 110) from a perspective of the first sensor (115) and the second sensor signal vector (ST2) represents the object (110) from a perspective of the second sensor (120). The method (600) further comprises a step of adapting (620) a first network (125) with the first sensor signal vector (ST1) as the input vector and the second sensor signal vector (ST2) as the reference vector and adapting (620) a second network (130) the second sensor signal vector (ST2) as the input vector and the first sensor signal vector (ST1) as the reference vector. Finally, the method (600) comprises a step of training (630) parameters of a decision network (140) using the first and second networks (125) in order to obtain the trained decision network (140).

Description

Die vorliegende Erfindung bezieht sich auf ein Verfahren und eine Vorrichtung zur Ermittlung eines trainierten Entscheidungsnetzwerks gemäß den Hauptansprüchen.The present invention relates to a method and a device for determining a trained decision network according to the main claims.

In Fahrzeugsystemen werden oftmals Komponenten zu Auswertung von Sensorsignalen verwendet, die speziell auf den Typ des Sensors ausgelegte Auswertungsalgorithmen enthalten. Hierbei sind dann jedoch für die Auswertung von Sensorsignalen von Sensoren unterschiedlicher Sensortechnologien mehrere bzw. eine Vielzahl von separaten Auswertungsalgorithmen vorzuhalten, die eine numerische und/oder schaltungstechnische Komplexität der Signalverarbeitung der Sensorsignale teilweise drastisch erhöht.In vehicle systems, components are often used for evaluating sensor signals that contain evaluation algorithms specially designed for the type of sensor. In this case, however, several or a large number of separate evaluation algorithms are to be kept available for the evaluation of sensor signals from sensors of different sensor technologies, which sometimes drastically increases the numerical and / or circuit complexity of the signal processing of the sensor signals.

Vor diesem Hintergrund schafft die vorliegende Erfindung ein verbessertes Verfahren und eine verbesserte Vorrichtung zur Ermittlung eines trainierten Entscheidungsnetzwerks sowie ein verbessertes Verfahren und eine verbesserte Vorrichtung zur Erkennung von zumindest einem Objekt aus Daten zumindest eines ersten Sensorsignalvektors und/oder eines zweiten Sensorsignalvektors gemäß den Hauptansprüchen. Vorteilhafte Ausgestaltungen ergeben sich aus den Unteransprüchen und der nachfolgenden Beschreibung.Against this background, the present invention creates an improved method and an improved device for determining a trained decision network as well as an improved method and an improved device for identifying at least one object from data of at least a first sensor signal vector and / or a second sensor signal vector according to the main claims. Advantageous refinements result from the subclaims and the following description.

Der hier vorgestellte Ansatz schafft ein Verfahren zur Ermittlung eines trainierten Entscheidungsnetzwerks, wobei das Verfahren die folgenden Schritte aufweist:

  • - Einlesen eines ersten Sensorsignalvektors und eines zweiten Sensorsignalvektors, wobei der erste Sensorsignalvektor zumindest einen Messwert eines ersten Sensors einer ersten Sensortechnologie und der zweite Sensorsignalvektor zumindest einen Messwert eines zweiten Sensors einer von der ersten Sensortechnologie unterschiedlichen zweiten Sensortechnologie aufweist, wobei der erste Sensorsignalvektor ein Objekt aus einem Blickwinkel des ersten Sensors repräsentiert und der zweite Sensorsignalvektor das Objekt aus einem Blickwinkel des zweiten Sensors repräsentiert; und
  • - Adaptieren eines ersten Netzwerks mit dem ersten Sensorsignalvektor als Eingangsvektor und dem zweiten Sensorsignalvektor als Referenzvektor und Adaptieren eines zweiten Netzwerks mit dem zweiten Sensorsignalvektor als Eingangsvektor und dem ersten Sensorsignalvektor als Referenzvektor; und
  • - Trainieren von Parametern eines Entscheidungsnetzwerks unter Verwendung des ersten und zweiten Netzwerks, um das trainierte Entscheidungsnetzwerk zu erhalten.
The approach presented here creates a method for determining a trained decision network, the method having the following steps:
  • Reading in a first sensor signal vector and a second sensor signal vector, the first sensor signal vector having at least one measured value from a first sensor of a first sensor technology and the second sensor signal vector having at least one measured value from a second sensor of a second sensor technology different from the first sensor technology, the first sensor signal vector having an object represents a viewing angle of the first sensor and the second sensor signal vector represents the object from a viewing angle of the second sensor; and
  • - Adapting a first network with the first sensor signal vector as input vector and the second sensor signal vector as reference vector and adapting a second network with the second sensor signal vector as input vector and the first sensor signal vector as reference vector; and
  • - training parameters of a decision network using the first and second networks to obtain the trained decision network.

Unter einem Sensorsignalvektor kann ein ein- oder mehrdimensionales Sensorsignal verstanden werden. Unter einer Sensortechnologie kann ein physikalisches Messprinzip verstanden werden, durch welches der Sensor Messwerte physikalischer Größen erfassen kann. Beispielsweise kann eine Sensortechnologie eines Radarsensors auf dem Messprinzip basieren, einen an einem Objekt reflektierte Radarstrahl auszuwerten, um eine dreidimensionale Position und/oder Bewegung des Objektes in Bezug zu dem Radarsensor zu erhalten. Eine Sensortechnologie eines Lidar-Sensors kann beispielsweise auf dem Messprinzip basieren, einen an einem Objekt reflektierten Laserstrahl auszuwerten, um eine dreidimensionale Position und/oder Bewegung des Objektes in Bezug zu dem Lidarsensor zu erfassen. Hierbei kann beispielsweise die mit dem Lidarsensor dreidimensionale erfasste Position n einem kartesischen Koordinaten abgebildet werden, wogegen die mit dem Radarsensor dreidimensional erfasste Position in Kugelkoordinaten abgebildet wird. Ferner sollten sowohl der erste Sensor als auch der zweite Sensor je einem Sensorsignalvektor ausgeben, der ein gleiches Objekt abbildet, jedoch aus dem jeweiligen Blickwinkel des betreffenden Sensors. Denkbar ist jedoch auch, dass der Sensor als ein Bildsensor, beispielsweise eine Kamera oder ein Ultraschallsensor ausgebildet ist und entsprechende Daten als Sensorsignalvektoren liefert. Unter einem Netzwerk wie dem ersten Netzwerk und/oder dem zweiten Netzwerk kann beispielsweise ein trainierbarer Deskriptor verstanden werden, der eine Reduktion der Komplexität und Redundanz des Sensorsignalvektors ermöglicht, jedoch noch eine Extraktion von Merkmalen zulässt, die einen Rückschluss auf das Vorliegen des Objekts eröffnet. Ein solches Netzwerk kann beispielsweise ein Merkmal-lernendes Netzwerk sein. Beispielsweise lässt sich ein solches Netzwerk als ein neuronales Netzwerk, ein künstliches normales Netzwerk oder speziell ein AutoEncoder implementieren. Unter einem Adaptieren kann die Veränderung von zumindest einem Parameter wie beispielsweise einem Gewicht eines Knotens des Netzwerks, verstanden werden. Hierzu kann beispielsweise einer der Sensorsignalvektoren als Eingangssignal bzw. Eingangsvektors verwendet werden, wogegen der andere Sensorsignalvektor als Referenzvektor verwendet wird, sodass das Netzwerk bzw. die Parameter des Netzwerks zu adaptiert oder angepasst werden, dass der erste Sensorsignalvektor auf den zweiten Sensorsignalvektor abgebildet wird und umgekehrt. Unter einem Entscheidungsnetzwerk kann beispielsweise ein verbindendes Netzwerk wie beispielsweise ein erzeugendes generisches Netzwerk (GAN = Generative Adversarial Network) verstanden werden. Ein solches Netzwerk als Entscheidungsnetzwerk kann ebenfalls als ein neuronales Netzwerk oder als eine alternative Struktur aus dem Bereich der künstlichen Intelligenz implementiert sein. Denkbar ist ferner auch, dass das Entscheidungsnetzwerk in Struktur oder Parametern zumindest teilweise identisch oder ähnlich zu einer Struktur oder Parametern den vorstehend genannten Netzwerken ist, oder ein Verbund oder eine Kombination des vorstehend genannten ersten und zweiten Netzwerks enthält.A sensor signal vector can be understood to be a one-dimensional or multi-dimensional sensor signal. Sensor technology can be understood as a physical measuring principle by means of which the sensor can acquire measured values of physical quantities. For example, a sensor technology of a radar sensor can be based on the measuring principle of evaluating a radar beam reflected on an object in order to obtain a three-dimensional position and / or movement of the object in relation to the radar sensor. A sensor technology of a lidar sensor can for example be based on the measuring principle of evaluating a laser beam reflected on an object in order to detect a three-dimensional position and / or movement of the object in relation to the lidar sensor. Here, for example, the position detected three-dimensionally with the lidar sensor can be mapped in a Cartesian coordinate, whereas the position detected three-dimensionally with the radar sensor is mapped in spherical coordinates. Furthermore, both the first sensor and the second sensor should each output a sensor signal vector that images the same object, but from the respective perspective of the relevant sensor. However, it is also conceivable that the sensor is designed as an image sensor, for example a camera or an ultrasonic sensor, and supplies corresponding data as sensor signal vectors. A network such as the first network and / or the second network can be understood, for example, as a trainable descriptor that enables a reduction in the complexity and redundancy of the sensor signal vector, but still allows an extraction of features that allow conclusions to be drawn about the presence of the object. Such a network can for example be a feature-learning network. For example, such a network can be implemented as a neural network, an artificial normal network or especially an auto-encoder. Adaptation can be understood to mean the change in at least one parameter such as, for example, the weight of a node in the network. For this purpose, for example, one of the sensor signal vectors can be used as an input signal or input vector, whereas the other sensor signal vector is used as a reference vector, so that the network or the parameters of the network are adapted or adjusted so that the first sensor signal vector is mapped onto the second sensor signal vector and vice versa . A decision network can be understood to mean, for example, a connecting network such as a generating generic network (GAN = Generative Adversarial Network). Such a network as a decision network can also be implemented as a neural network or as an alternative structure from the field of artificial intelligence. It is also conceivable that the decision network in Structure or parameters is at least partially identical or similar to a structure or parameters of the aforementioned networks, or contains a network or a combination of the aforementioned first and second networks.

Der hier vorgeschlagene Ansatz basiert auf der Erkenntnis, dass durch das Trainieren der Parameter des Entscheidungsnetzwerks eine deutlich kompaktere und einfachere Form zur Auswertung von Daten von Sensoren unterschiedliche Sensortechnologien möglich wird. Durch die Verknüpfung der Adaption des ersten Netzwerks mit den zwei Sensorsignalvektoren als Eingangsvektor bzw. Referenzvektor und des zweiten Netzwerks mit den zwei Sensorsignalvektoren in umgekehrter Konstellation sowie dem anschließenden Trainieren des Entscheidungsnetzwerks lässt sich somit als Entscheidungsnetzwerk ein sehr allgemeines Modell ermitteln, um bei einer nachfolgenden Anwendung dieses Entscheidungsnetzwerks ein oder mehrere Objekte aus den Sensorsignalvektoren erkennen zu können. Auf diese Weise kann vorteilhaft auf eine Vielzahl von unterschiedlichen Detektionsalgorithmen zur Auswertung der Daten von Sensoren mit unterschiedlichen Sensortechnologien verzichtet werden. Hierdurch lässt sich nicht nur eine Verbesserung bzw. Reduktion des numerischen oder schaltungstechnischen Aufwandes für die Objektdetektion erreichen, sondern auch eine effizientere Ausnutzung des zur Verfügung stehenden Speichers.The approach proposed here is based on the knowledge that by training the parameters of the decision network, a significantly more compact and simpler form for evaluating data from sensors of different sensor technologies becomes possible. By linking the adaptation of the first network with the two sensor signal vectors as the input vector or reference vector and the second network with the two sensor signal vectors in the opposite constellation and then training the decision network, a very general model can be determined as a decision network to be used in a subsequent application this decision network to be able to recognize one or more objects from the sensor signal vectors. In this way, a large number of different detection algorithms for evaluating the data from sensors with different sensor technologies can advantageously be dispensed with. This not only makes it possible to improve or reduce the numerical or circuit engineering complexity for object detection, but also to make more efficient use of the available memory.

Gemäß einer Ausführungsform des hier vorgeschlagenen Ansatzes können im Schritt des Trainierens die Parameter des Entscheidungsnetzwerks unter Verwendung von Störgrößen adaptiert werden, die Zustandswerten des ersten Netzwerks und/oder Zustandswerten des zweiten Netzwerks hinzugefügt werden. Eine solche Ausführungsform bietet den Vorteil, eine besonders schnelle und sichere Ermittlung bzw. ein entsprechendes Training der Parameter des Entscheidungsnetzwerks zu ermöglichen, sodass bei einer späteren Benutzung des Entscheidungsnetzwerks Objekte schnell und sicher erkannt werden können, die durch Merkmale in den Sensorsignalvektoren abgebildet sind.According to one embodiment of the approach proposed here, in the training step, the parameters of the decision network can be adapted using disturbance variables, and the status values of the first network and / or status values of the second network can be added. Such an embodiment offers the advantage of enabling particularly fast and reliable determination or corresponding training of the parameters of the decision network, so that when the decision network is used later, objects that are mapped by features in the sensor signal vectors can be recognized quickly and reliably.

Besonders günstig ist eine Ausführungsform des hier vorgestellten Ansatzes, bei der im Schritt des Trainierens die Parameter des Entscheidungsnetzwerkes durch eine GAN-Struktur unter Verwendung des ersten und zweiten Netzwerks trainiert werden. Unter einer solchen GAN-Struktur kann die vorstehend genannte Struktur eines erzeugendes generisches Netzwerk (GAN = Generative Adversarial Network) als verbindendes Netzwerk verstanden werden. Ein solches erzeugendes generisches Netzwerk kann als Algorithmus zum nicht-überwachten Lernen verstanden werden. Hierbei umfasst ein solches Netzwerk gemäß der Online-Enzyklopädie Wikipedia beispielsweise zwei künstliche neuronale Netze, die ein Null-Summen-Spiel durchführen, wobei ein erstes Netzwerk als Generator Netzwerkkandidaten erstellt und das zweite Netzwerk als Diskriminator die Kandidaten bewertet. Ziel des Generatornetzwerks ist es hierbei, zu lernen, Ergebnisse nach einer bestimmten Verteilung zu erzeugen. Der Diskriminator wird hingegen darauf trainiert, die Ergebnisse des Generators von den Daten aus der echten, vorgegebenen Verteilung zu unterscheiden. Das Ziel des Generatornetzwerks besteht darin, Ergebnisse zu erzeugen, die der Diskriminator nicht unterscheiden kann. Dadurch soll sich die erzeugte Verteilung nach und nach der echten Verteilung angleichen. Eine derartige Ausführungsform des hier vorgeschlagenen Ansatzes bietet den Vorteil, ein Entscheidungsnetzwerk zu schaffen, um aus den Merkmalen der Sensorsignalvektoren möglichst schnell und eindeutig Informationen über das Vorliegen und/oder die Position und/oder die Geschwindigkeit des Objektes in den Sensordaten extrahieren zu können.An embodiment of the approach presented here is particularly favorable in which, in the training step, the parameters of the decision network are trained by a GAN structure using the first and second networks. Such a GAN structure can be understood as the aforementioned structure of a generating generic network (GAN = Generative Adversarial Network) as a connecting network. Such a generating generic network can be understood as an algorithm for unsupervised learning. According to the online encyclopedia Wikipedia, such a network includes, for example, two artificial neural networks that perform a zero-sum game, with a first network as a generator creating network candidates and the second network as a discriminator evaluating the candidates. The aim of the generator network is to learn to generate results according to a certain distribution. The discriminator, on the other hand, is trained to distinguish the results of the generator from the data from the real, given distribution. The goal of the generator network is to produce results that the discriminator cannot distinguish. As a result, the generated distribution should gradually adjust to the real distribution. Such an embodiment of the approach proposed here offers the advantage of creating a decision network in order to be able to extract information about the presence and / or the position and / or the speed of the object in the sensor data as quickly and clearly as possible from the features of the sensor signal vectors.

Gemäß einer weiteren Ausführungsform können im Schritt des Trainierens die Parameter des Entscheidungsnetzwerks derart adaptiert werden, dass das erste Netzwerk zur Ermittlung von Eingangswerten des Entscheidungsnetzwerks und das zweite Netzwerk zur Bereitstellung von Referenzvariablen des Entscheidungsnetzwerkes verwendet wird. Alternativ oder zusätzlich können im Schritt des Adaptierens die Parameter des Entscheidungsnetzwerks derart adaptiert werden, dass das zweite Netzwerk zur Ermittlung von Eingangswerten des Entscheidungsnetzwerks und das erste Netzwerk zur Bereitstellung von Referenzvariablen des Entscheidungsnetzwerkes verwendet wird. Eine solche Ausführungsform des hier vorgestellten Ansatzes bietet den Vorteil, das Entscheidungsnetzwerk schnell und präzise zu trainieren, um in einem nachfolgenden Einsatz zuverlässig Objekte oder Merkmale aus den Sensorsignalvektoren extrahieren zu können.According to a further embodiment, the parameters of the decision network can be adapted in the training step such that the first network is used to determine input values of the decision network and the second network is used to provide reference variables of the decision network. Alternatively or additionally, in the step of adapting, the parameters of the decision network can be adapted such that the second network is used to determine input values of the decision network and the first network is used to provide reference variables of the decision network. Such an embodiment of the approach presented here offers the advantage of training the decision network quickly and precisely in order to be able to reliably extract objects or features from the sensor signal vectors in a subsequent use.

Besonders günstig ist eine Ausführungsform des hier vorgeschlagenen Ansatzes, bei der im Schritt des Trainierens die Parameter des Entscheidungsnetzwerkes zunächst unter Verwendung des ersten Netzwerks zur Ermittlung von Eingangswerten des Entscheidungsnetzwerks und des zweiten Netzwerks zur Bereitstellung von Referenzvariablen des Entscheidungsnetzwerkes verwendet werden und hieran anschließend unter Verwendung des zweiten Netzwerks zur Ermittlung von Eingangswerten des Entscheidungsnetzwerks und des ersten Netzwerks zur Bereitstellung von Referenzvariablen des Entscheidungsnetzwerkes verwendet werden. Durch eine solche Kaskade von Trainingsschritten lässt sich das Training des Entscheidungsnetzwerks weiter hinsichtlich der Präzision bei der Extraktion von Merkmalen bzw. Objekten für den späteren Einsatz verbessern.An embodiment of the approach proposed here is particularly favorable in which, in the training step, the parameters of the decision network are initially used using the first network to determine input values of the decision network and the second network is used to provide reference variables of the decision network and then using the second network for determining input values of the decision network and the first network for providing reference variables of the decision network. By means of such a cascade of training steps, the training of the decision network can be further improved with regard to the precision in the extraction of features or objects for later use.

Um möglichst schnell das trainierte Entscheidungsnetzwerk zu ermitteln, kann gemäß einer weiteren Ausführungsform im Schritt des Adaptierens das erste und zweite Netzwerk zeitgleich und/oder parallel trainiert werden.In order to determine the trained decision network as quickly as possible, according to a further embodiment, in the step of adapting, the first and second networks can be trained simultaneously and / or in parallel.

Günstig ist weiterhin einer Ausführungsform des hier vorgestellten Ansatzes, bei der im Schritt des Adaptierens das zu adaptierende erste und/oder zweite Netzwerk als neuronales Netzwerk, insbesondere als künstliches neuronales Netzwerk und/oder als Autoencoder ausgestaltet ist. Eine solche Ausführungsform bietet den Vorteil, ausgereifte Algorithmen oder Strukturen für das erste und/oder zweite Netzwerk verwenden zu können, die mit hoher Präzision Eingangswerte bzw. Referenzwerte liefern können, mit denen nachfolgend das Entscheidungsnetzwerk trainiert wird. An embodiment of the approach presented here is also favorable in which, in the adapting step, the first and / or second network to be adapted is designed as a neural network, in particular as an artificial neural network and / or as an auto-encoder. Such an embodiment offers the advantage of being able to use sophisticated algorithms or structures for the first and / or second network which can deliver input values or reference values with high precision, with which the decision network is subsequently trained.

Besonders vorteilhaft lässt sich der hier vorgestellte Ansatz im Bereich der Auswertung von Signalen von Fahrzeugsensoren einsetzen, um auch eine Reduktion von Datenraten zu erreichen, die beispielsweise für mobile Anwendungen wie der Lokalisierung eines Fahrzeugs unter Verwendung einer in einem zentralen Rechner gespeicherten Referenzkarte erforderlich sind. Hierzu können gemäß einer weiteren Ausführungsform des hier vorgestellten Ansatzes im Schritt des Einlesens als erster Sensorsignalvektor Messwerte des ersten Sensors eines Fahrzeugs eingelesen werden und als zweiter Sensorsignalvektor Messwerte des zweiten Sensors eines Fahrzeugs eingelesen werden, insbesondere wobei der erste Sensor als ein Radarsensor ausgebildet ist und der zweite Sensor als ein Lidarsensor ausgebildet ist oder wobei der erste Sensor als ein Lidarsensor ausgebildet ist und der zweite Sensor als ein Radarsensor ausgebildet ist.The approach presented here can be used particularly advantageously in the field of evaluating signals from vehicle sensors in order to also achieve a reduction in data rates that are required, for example, for mobile applications such as the localization of a vehicle using a reference map stored in a central computer. According to a further embodiment of the approach presented here, measured values from the first sensor of a vehicle can be read in as the first sensor signal vector and measured values from the second sensor of a vehicle can be read in as the second sensor signal vector, in particular the first sensor being designed as a radar sensor and the second sensor is designed as a lidar sensor or wherein the first sensor is designed as a lidar sensor and the second sensor is designed as a radar sensor.

Besonders günstig und einfach umsetzbar ist eine Ausführungsform des hier vorgestellten Ansatzes, bei der im Schritt des Einlesens als Messwert eines als Radarsensor ausgebildeten Sensors ein eine in Bezug auf das Objekt erfasste Distanz, einen Azimutwinkel, einen Höhenwinkel, einen Dopplerfrequenz-Verschiebungswert zwischen einem ausgesendeten und einem vom Objekt empfangenen Radarstrahl oder ein einen Radar-Querschnitt repräsentierender Wert eingelesen wird. Alternativ oder zusätzlich kann im Schritt des Einlesens als Messwert eines als Lidarsensor ausgebildeten Sensor ein einen Intensitätswert eines von Objekt reflektieren Laserstrahls, einen SNR-Wert, einen x-Wert, einen y-Wert einen z-Wert eines vom Objekt reflektierten Laserstrahls in Bezug auf ein Sensorkoordinatensystem repräsentierender Wert eingelesen werden.An embodiment of the approach presented here is particularly cheap and easy to implement, in which, in the reading-in step, the measured value of a sensor designed as a radar sensor is a distance detected in relation to the object, an azimuth angle, an elevation angle, a Doppler frequency shift value between a transmitted and a radar beam received from the object or a value representing a radar cross-section is read in. Alternatively or additionally, in the reading-in step, an intensity value of a laser beam reflected from the object, an SNR value, an x value, a y value, a z value of a laser beam reflected from the object can be used as a measured value from a sensor designed as a lidar sensor a value representing a sensor coordinate system can be read.

Gemäß einer weiteren Ausführungsform lassen sich die Vorteile des hier vorgestellten Ansatzes als Verfahren zur Erkennung von zumindest einem Objekt aus Daten zumindest eines ersten Sensorsignalvektors und/oder eines zweiten Sensorsignalvektors implementieren. Dabei umfasst das Verfahren die folgenden Schritte: Einlesen des ersten Sensorsignalvektors und des zweiten Sensorsignalvektors, wobei der erste Sensorsignalvektor zumindest einen Messwert eines ersten Sensors einer ersten Sensortechnologie und der zweite Sensorsignalvektor zumindest einen Messwert eines zweiten Sensors einer von der ersten Sensortechnologie unterschiedlichen zweiten Sensortechnologie aufweist, wobei der erste Sensorsignalvektor ein Objekt aus einem Blickwinkel des ersten Sensors repräsentiert und der zweite Signalvektor das Objekt aus einem Blickwinkel des zweiten Sensors repräsentiert, wobei im Schritt des Einlesens ferner ein gemäß einer hier vorgestellten Variante trainiertes Entscheidungsnetzwerk eingelesen wird; und Detektieren des Objektes aus dem ersten und/oder dem zweiten Sensorsignalvektor als Eingangsvektor des trainierten Entscheidungsnetzwerkes.According to a further embodiment, the advantages of the approach presented here can be implemented as a method for recognizing at least one object from data of at least one first sensor signal vector and / or one second sensor signal vector. The method comprises the following steps: Reading in the first sensor signal vector and the second sensor signal vector, the first sensor signal vector having at least one measured value from a first sensor of a first sensor technology and the second sensor signal vector having at least one measured value from a second sensor of a second sensor technology different from the first sensor technology, wherein the first sensor signal vector represents an object from a point of view of the first sensor and the second signal vector represents the object from a point of view of the second sensor, wherein in the step of reading in a decision network trained according to a variant presented here is also read in; and detecting the object from the first and / or the second sensor signal vector as an input vector of the trained decision network.

Durch eine solche Ausführungsform lässt sich das zuvor trainierte Entscheidungsnetzwerk sehr effizient einsetzen, sodass beispielsweise die vorstehend genannte Reduktion der Datenrate bei der Übertragung von Merkmalen oder erkannten Objekten sehr einfach realisiert werden kann.With such an embodiment, the previously trained decision network can be used very efficiently, so that, for example, the aforementioned reduction in the data rate in the transmission of features or recognized objects can be implemented very easily.

Besonders effizient ist eine Ausführungsform des hier vorgestellten Ansatzes, bei der ein Schritt des Markierens des detektierten Objektes in einer eine Umgebung des ersten und/oder zweiten Sensors repräsentierenden Karte vorgesehen ist. Auf diese Weise lassen sich die erkannten Objekte beispielsweise für eine spätere Auswertung oder Übertragung der Karte in diese integrieren, sodass beispielsweise weitere Fahrzeuge deren Betrieb oder Funktion auf die erkannten Objekt in der Umgebung des Fahrzeugs abstimmen können.An embodiment of the approach presented here is particularly efficient, in which a step of marking the detected object is provided in a map representing the surroundings of the first and / or second sensor. In this way, the detected objects can be integrated into the map, for example for later evaluation or transmission, so that, for example, other vehicles can adjust their operation or function to the detected objects in the vicinity of the vehicle.

Hierzu kann beispielsweise gemäß einer weiteren Ausführungsform im Schritt des Einlesens der erste und/oder zweite Sensorsignalvektor eingelesen werden, der von einem entsprechenden ersten und zweiten Sensor eines Fahrzeugs bereitgestellt wurden. Auf diese Weise kann sichergestellt werden, dass beispielsweise unterschiedliche Merkmale des gleichen Objektes, die mittels unterschiedlichen Sensortechnologien in unterschiedlichen Umgebungsszenarien auch unterschiedlichen deutlich abgebildet werden können, zu einer präzisen Erkennung des Objektes führen, unabhängig von dem tatsächlichen aktuellen Umgebungsszenario um das Fahrzeug.For this purpose, according to a further embodiment, the first and / or second sensor signal vector, which was provided by a corresponding first and second sensor of a vehicle, can be read in in the reading-in step. In this way, it can be ensured that, for example, different features of the same object, which can be clearly mapped using different sensor technologies in different environmental scenarios, lead to precise detection of the object, regardless of the actual current environmental scenario around the vehicle.

Auch kann der hier vorgestellte Ansatz als Vorrichtung umgesetzt sein, die eingerichtet ist, um die Schritte einer Variante des Verfahrens zur Ermittlung eines trainierten Entscheidungsnetzwerks und/oder die Schritte einer Variante des Verfahrens zur Erkennung von zumindest einem Objekt aus Daten zumindest eines ersten Sensorsignalvektors und/oder eines zweiten Sensorsignalvektors in entsprechenden Einheiten auszuführen und/oder anzusteuern.The approach presented here can also be implemented as a device that is set up to carry out the steps of a variant of the method for determining a trained decision network and / or to execute and / or control the steps of a variant of the method for recognizing at least one object from data of at least one first sensor signal vector and / or one second sensor signal vector in corresponding units.

Eine Vorrichtung kann ein elektrisches Gerät sein, das elektrische Signale, beispielsweise Sensorsignale verarbeitet und in Abhängigkeit davon Steuersignale ausgibt. Die Vorrichtung kann eine oder mehrere geeignete Schnittstelle aufweisen, die hard- und/oder softwaremäßig ausgebildet sein können. Bei einer hardwaremäßigen Ausbildung können die Schnittstellen beispielsweise Teil einer integrierten Schaltung sein, in der Funktionen der Vorrichtung umgesetzt sind. Die Schnittstellen können auch eigene, integrierte Schaltkreise sein oder zumindest teilweise aus diskreten Bauelementen bestehen. Bei einer softwaremäßigen Ausbildung können die Schnittstellen Softwaremodule sein, die beispielsweise auf einem Mikrocontroller neben anderen Softwaremodulen vorhanden sind.A device can be an electrical device that processes electrical signals, for example sensor signals, and outputs control signals as a function thereof. The device can have one or more suitable interfaces which can be designed in terms of hardware and / or software. In the case of a hardware design, the interfaces can, for example, be part of an integrated circuit in which functions of the device are implemented. The interfaces can also be separate, integrated circuits or at least partially consist of discrete components. In the case of a software design, the interfaces can be software modules that are present, for example, on a microcontroller alongside other software modules.

Von Vorteil ist auch ein Computerprogrammprodukt mit Programmcode, der auf einem maschinenlesbaren Träger wie einem Halbleiterspeicher, einem Festplattenspeicher oder einem optischen Speicher gespeichert sein kann und zur Durchführung des Verfahrens nach einer der vorstehend beschriebenen Ausführungsformen verwendet wird, wenn das Programm auf einem Computer oder einer Vorrichtung ausgeführt wird.Also of advantage is a computer program product with program code which can be stored on a machine-readable carrier such as a semiconductor memory, a hard disk memory or an optical memory and is used to carry out the method according to one of the embodiments described above when the program is on a computer or a device is performed.

Die Erfindung wird anhand der beigefügten Zeichnungen beispielhaft näher erläutert. Es zeigen:

  • 1 eine schematische Darstellung eines Fahrzeugs mit einer Vorrichtung gemäß einem Ausführungsbeispiel zur Erkennung von zumindest einem Objekt;
  • 2 ein Blockschaltbild eines beispielhaften AutoEncoders als Ausführungsbeispiel eines Teils einer für das erste und/oder zweite Netzwerk verwendbaren Netzwerk-Architektur;
  • 3 eine schematische Darstellung der Vorgehensweise gemäß einem Ausführungsbeispiel für einen ersten Schritt des hier vorgeschlagenen Verfahrens bzw. Ansatzes;
  • 4 eine schematische Darstellung einer Vorgehensweise gemäß einem Ausführungsbeispiel für einen zweiten Schritt des hier vorgeschlagenen Verfahrens bzw. Ansatzes;
  • 5 eine schematische Darstellung einer Struktur oder Arbeitsweise des Verknüpfungsnetzwerkes;
  • 6 ein Ablaufdiagramm eines Ausführungsbeispiels eines Verfahrens zur Ermittlung eines trainierten Entscheidungsnetzwerks; und
  • 7 ein Ablaufdiagramm eines Ausführungsbeispiels eines Verfahrens zur Erkennung von zumindest einem Objekt.
The invention is explained in more detail by way of example with reference to the accompanying drawings. Show it:
  • 1 a schematic representation of a vehicle with a device according to an embodiment for the detection of at least one object;
  • 2 a block diagram of an exemplary AutoEnoder as an exemplary embodiment of a part of a network architecture that can be used for the first and / or second network;
  • 3 a schematic representation of the procedure according to an exemplary embodiment for a first step of the method or approach proposed here;
  • 4th a schematic representation of a procedure according to an exemplary embodiment for a second step of the method or approach proposed here;
  • 5 a schematic representation of a structure or mode of operation of the linking network;
  • 6th a flowchart of an embodiment of a method for determining a trained decision network; and
  • 7th a flowchart of an embodiment of a method for recognizing at least one object.

In der nachfolgenden Beschreibung bevorzugter Ausführungsbeispiele der vorliegenden Erfindung werden für die in den verschiedenen Figuren dargestellten und ähnlich wirkenden Elemente gleiche oder ähnliche Bezugszeichen verwendet, wobei auf eine wiederholte Beschreibung dieser Elemente verzichtet wird.In the following description of preferred exemplary embodiments of the present invention, identical or similar reference symbols are used for the elements shown in the various figures and having a similar effect, a repeated description of these elements being dispensed with.

1 zeigt eine schematische Darstellung eines Fahrzeugs 100 mit einer Vorrichtung 105 zur Erkennung von zumindest einem Objekt 110 aus Daten zumindest eines ersten Sensorsignalvektors ST1 und/oder eines zweiten Sensorsignalvektors ST2. Bei dem Objekt 110 kann es sich beispielsweise um ein weiteres Fahrzeug handeln, welches durch den ersten Sensor 115 und/oder den zweiten Sensor 120 zu erkennen und beispielsweise in einem autonomen Fahrbetrieb des Fahrzeugs 100 zu berücksichtigen ist. Der erste Sensorsignalvektor ST1 wird von einem ersten Sensor 115 bereitgestellt, der vorliegend beispielsweise als Radarsensors ausgebildet ist. Der zweite Sensorsignalvektor ST2 wird von einem zweiten Sensor 120 bereitgestellt, der vorliegend beispielsweise als LIDAR-Sensor ausgebildet ist. Der erste Sensor 115 und der zweite Sensor 120 sind somit in jeweils unterschiedlichen Sensortechnologien ausgebildet, sodass beispielsweise eine Position und Geschwindigkeit des Objekts 110 in Bezug zum ersten Sensor 115 und/oder dem zweiten Sensor 120 durch unterschiedliche physikalische Messverfahren erfasst wird, sodass beispielsweise auch bei Störungen der Messung von Parametern zu dem Objekt 110 bei der Messung durch einen Sensor eine solche Störung möglicherweise durch die Messung der Parameter zu Objekt 110 durch den zweiten Sensor reduziert oder kompensiert werden kann. Beispielsweise könnte durch ein Auftreten von Nebel eine Messung mit dem als LIDAR-Sensor ausgebildeten zweiten Sensor 120 störungsbehaftet sein, wogegen eine Messung mit dem als Radarsensors ausgebildeten ersten Sensor 115 aufgrund des unterschiedlichen Messverfahrens nicht störungsbehaftet ist. 1 shows a schematic representation of a vehicle 100 with a device 105 for the detection of at least one object 110 from data of at least one first sensor signal vector ST1 and / or a second sensor signal vector ST2 . At the object 110 it can be, for example, another vehicle that is driven by the first sensor 115 and / or the second sensor 120 to recognize and for example in an autonomous driving mode of the vehicle 100 is to be considered. The first sensor signal vector ST1 is from a first sensor 115 provided, which in the present case is designed as a radar sensor, for example. The second sensor signal vector ST2 is from a second sensor 120 provided, which in the present case is designed as a LIDAR sensor, for example. The first sensor 115 and the second sensor 120 are thus designed in each case with different sensor technologies, so that, for example, a position and speed of the object 110 in relation to the first sensor 115 and / or the second sensor 120 is recorded by different physical measurement methods, so that, for example, the measurement of parameters for the object is also disrupted 110 When measuring by a sensor such a disturbance may be due to the measurement of the parameters to the object 110 can be reduced or compensated by the second sensor. For example, the occurrence of fog could result in a measurement using the second sensor designed as a LIDAR sensor 120 be subject to interference, whereas a measurement with the first sensor designed as a radar sensor 115 due to the different measuring method is not subject to interference.

Der erste Sensorsignalvektor ST1 wird nun einem ersten Netzwerk 125 zugeführt, in welchem eine Reduktion der Komplexität des ersten Sensorsignalvektors ST1 ausgeführt wird, um aus einem Zustandswerten eines ersten Deskriptors 126 entsprechenden ersten Ausgangssignal 127 des ersten Netzwerks 125 einen Rückschluss auf Merkmale oder Parameter des Objekts 110 in Bezug zum ersten Sensor 115 (beispielsweise einen Abstand oder Positionen des Objekts 100 in Bezug zum ersten Sensor 115) schließen zu können Der zweite Sensorsignalvektor ST2 wird nun einem zweiten Netzwerk 130 zugeführt, in welchem eine Reduktion der Komplexität des zweiten Sensorsignalvektors ST2 ausgeführt wird, um aus einem Zustandswerten eines zweiten Deskriptors 131 entsprechenden zweiten Ausgangssignal 132 des zweiten Netzwerks 130 einen Rückschluss auf Merkmale oder Parameter des Objekts 110 in Bezug zum zweiten Sensor 120 (beispielsweise einen Abstand oder Positionen des Objekts 100 in Bezug zum zweiten Sensor 120) schließen zu können. Hierbei kann das erste Netzwerk 125 und das zweite Netzwerk 130 so trainiert sein, dass aus dem ersten Ausgangssignal 127 kein Rückschluss mehr auf die Sensortechnologie des ersten Sensors 115 möglich ist und/oder zweiten Ausgangssignal 132 kein Rückschluss auf die Sensortechnologie des zweiten Sensors 120 möglich ist. Auf diese Weise lässt sich eine allgemeine Darstellung des Objekts 110 bzw. der Parameter des Objekts 110 in Bezug auf den ersten Sensor 115 bzw. zweiten Sensor 120 erreichen, die in einer nachfolgenden Einheit 135 zum Detektieren ausgenutzt werden kann, sodass das Objekt 110 aus dem ersten Sensorsignalvektor ST1 und/oder der zweiten Sensorsignalvektor ST2 detektiert werden kann. Das erste Netzwerk 125 und das zweite Netzwerk 130 können hierbei Teil des trainierten Entscheidungsnetzwerks 140 sein. In der Einheit 135 zum Detektieren kann in einer ersten Teileinheit 145 ein Merkmalsextraktor realisiert sein, der beispielsweise aus dem ersten Ausgangssignal 127 und/oder dem zweiten Ausgangssignal 132 Merkmale des Objekts 110 in Bezug zum ersten Sensor 115 und/oder dem zweiten Sensor 120 extrahieren kann, wie beispielsweise einen Abstand, eine Position, eine Größe oder eine Bewegung dieses Objekts 110 in Bezug zu dem entsprechenden Sensor. In einer Kartenmanagementeinheit 150 als einer weiteren Teileinheit der Einheit 135 zum Detektieren können dann die vom Merkmalsextraktor 150 extrahierten Merkmale eingelesen und beispielsweise in einer entsprechenden digitalen Karte 155 abgelegt werden, sodass beispielsweise für einen weiteren Betrieb des Fahrzeugs 100 eine Information vorliegt, an welcher Position sich das Objekt 110 befindet. Denkbar ist auch, dass von der Einheit 135 zum Detektieren ein entsprechendes Merkmalssignal 160 ausgegeben wird, welches beispielsweise ein von dem Merkmalsextraktor 150 extrahiertes Merkmal direkt an andere oder weitere Komponenten des Fahrzeugs 100 weiterleitet.The first sensor signal vector ST1 is now a first network 125 supplied, in which a reduction in the complexity of the first sensor signal vector ST1 is executed to get from a state value of a first descriptor 126 corresponding first output signal 127 of the first network 125 a conclusion about features or parameters of the object 110 in relation to the first sensor 115 (for example a distance or Positions of the object 100 in relation to the first sensor 115 ) to be able to close The second sensor signal vector ST2 is now a second network 130 supplied, in which a reduction in the complexity of the second sensor signal vector ST2 is executed to get from a state value of a second descriptor 131 corresponding second output signal 132 of the second network 130 a conclusion about features or parameters of the object 110 in relation to the second sensor 120 (for example a distance or positions of the object 100 in relation to the second sensor 120 ) close. The first network 125 and the second network 130 be trained so that from the first output signal 127 no more conclusions about the sensor technology of the first sensor 115 is possible and / or second output signal 132 no conclusions about the sensor technology of the second sensor 120 is possible. This allows a general representation of the object 110 or the parameter of the object 110 in relation to the first sensor 115 or second sensor 120 achieve that in a subsequent unit 135 can be used for detection, so that the object 110 from the first sensor signal vector ST1 and / or the second sensor signal vector ST2 can be detected. The first network 125 and the second network 130 can be part of the trained decision-making network 140 be. In unity 135 for detection can be in a first subunit 145 a feature extractor can be implemented, for example from the first output signal 127 and / or the second output signal 132 Features of the object 110 in relation to the first sensor 115 and / or the second sensor 120 can extract, such as a distance, a position, a size or a movement of this object 110 in relation to the corresponding sensor. In a card management unit 150 as a further sub-unit of the unit 135 can then be used for detection by the feature extractor 150 extracted features and read in, for example, in a corresponding digital map 155 can be stored so that, for example, for further operation of the vehicle 100 there is information about the position of the object 110 is located. It is also conceivable that from the unit 135 a corresponding feature signal for detection 160 is output which, for example, one of the feature extractor 150 extracted feature directly to other or further components of the vehicle 100 forwards.

Um nun eine besonders einfache Merkmalserkennung zu ermöglichen, wird vorteilhafterweise ein ein trainiertes Entscheidungsnetzwerk 140 verwendet, in dem ein Sensortechnologie-unabhängiger Deskriptor als der erste Deskriptor 126 und zweite Deskriptor 131 verwendet wird, um beispielsweise ein Kartenmatching unter Verwendung zumindest eines Merkmalerkenners auszuführen und die entsprechenden Informationen in der Karte 155 zu hinterlegen. Hierdurch kann dann beispielsweise auch aus lediglich einem der Sensorsignalvektoren ST1 bzw. ST2 der jeweiligen Sensoren 115 bzw. 120 die auf das Objekt 110 hinweisenden Merkmale extrahiert werden, sodass einerseits vermieden werden kann, für jeden Sensor ein sensorspezifisches Netzwerk oder einen entsprechenden Deskriptor vorhalten zu müssen als auch zusätzlich Hinweise zu erhalten, die bei einer Störung eines der Sensoren 115 bzw. 120 nicht erhalten würden. Um einen solchen generalisierten Deskriptor zu erhalten, wird für jede Sensortechnologie ein Merkmal-Extraktionsnetzwerk (d. h. die erste Hälfte des Merkmal-lernenden Netzwerks 125 bzw. 130) verwendet, um die Merkmale zu extrahieren, die für die Merkmalserkennung aus dem Radar-/LIDAR-/et cetera Eingangssignal als Sensorsignalvektor ST1 bzw. ST2 verwendet wurden. Der Vorteil des hier vorgeschlagenen Ansatzes/Verfahrens gegenüber einer individuellen Merkmalsextraktion/Merkmalsrepräsentation ist eine deutlich kompaktere Karte bzw. Algorithmus, da nur die eine Merkmalsdarstellung bzw. der entsprechende Deskriptor abgespeichert werden braucht, die/der die mit beiden Sensorsignal-Deskriptoren übereinstimmt. Eine andere Anwendung ist die Assoziierung von Merkmalen zwischen Sensorsignalvektoren für Fusionsapplikationen. In bisheringen Applikationen wird dagegen für jede Sensortechnologie eine individuelle Lokalisierungsschicht mit ihren Merkmalen in einer Karte gespeichert. Der hier vorgeschlagene Ansatz bzw. das hier vorgestellte Verfahren reduziert die Menge von Daten durch Verwendung eines generischen Merkmalsdeskriptors, der sensortechnologie-unabhängig ist und aus Sensordaten wie LIDAR-/Radar-/et cetera Sensordaten extrahiert werden kann.In order to enable a particularly simple feature recognition, a trained decision network is advantageously used 140 is used in which a sensor technology-independent descriptor is used as the first descriptor 126 and second descriptor 131 is used, for example, to carry out a card matching using at least one feature recognizer and the corresponding information in the card 155 to deposit. In this way, for example, it is also possible to use only one of the sensor signal vectors ST1 or. ST2 of the respective sensors 115 or. 120 those on the object 110 indicative features are extracted, so that on the one hand it is possible to avoid having to keep a sensor-specific network or a corresponding descriptor available for each sensor and also to receive additional information in the event of a fault in one of the sensors 115 or. 120 would not receive. In order to obtain such a generalized descriptor, a feature extraction network (ie the first half of the feature-learning network) is used for each sensor technology 125 or. 130 ) is used to extract the features required for feature recognition from the radar / LIDAR / et cetera input signal as a sensor signal vector ST1 or. ST2 were used. The advantage of the approach / method proposed here compared to an individual feature extraction / feature representation is a significantly more compact map or algorithm, since only the one feature representation or the corresponding descriptor needs to be saved that matches the two sensor signal descriptors. Another application is the association of features between sensor signal vectors for fusion applications. In previous applications, on the other hand, an individual localization layer with its features is stored in a map for each sensor technology. The approach proposed here or the method presented here reduces the amount of data by using a generic feature descriptor that is sensor technology-independent and can be extracted from sensor data such as LIDAR / radar / etc. sensor data.

Um nun das Entscheidungsnetzwerk 140 bzw. das erste Netzwerk 125 und/oder das zweite Netzwerk 130 derart auszulegen, dass das entsprechende erste Ausgangssignal 127 und/oder das zweite Ausgangssignal 132 aus einem sensortechnologieunabhängigen Deskriptor ermittelt werden können, ist in einem vorangegangenen Stadium ein Training der entsprechenden bzw. betreffenden Komponenten auszuführen. Dieses Training kann beispielsweise in einer Laborumgebung in einer separaten Vorrichtung außerhalb des Fahrzeugs 100 aus 1 ausgeführt weden, jedoch beispielsweise unter Verwendung von exemplarischen Signalwerten von zwei Sensoren, deren Sensortechnologie unterschiedlich ist und die bei einer Fahrt eines Fahrzeugs beispielsweise aufgezeichnet wurden. Zur Verbesserung des Verständnisses des hier vorgeschlagenen Ansatzes wird daher zunächst allgemein auf die Funktionen eines Merkmal-lernenden Netzwerks eingegangen, welches als erstes Netzwerk 125 oder als zweites Netzwerk 130 aus der 1 eingesetzt werden kann.Now to the decision-making network 140 or the first network 125 and / or the second network 130 to be interpreted in such a way that the corresponding first output signal 127 and / or the second output signal 132 can be determined from a sensor technology-independent descriptor, a training of the corresponding or relevant components must be carried out in a previous stage. This training can take place, for example, in a laboratory environment in a separate device outside the vehicle 100 out 1 are carried out, but for example using exemplary signal values from two sensors whose sensor technology is different and which were recorded when a vehicle was driven, for example. In order to improve the understanding of the approach proposed here, the functions of a feature-learning network are therefore initially discussed in general, which is the first network 125 or as a second network 130 from the 1 can be used.

Der hier vorgestellte Ansatz nutzt eine Architektur eines sogenannten „Merkmal-lernenden Netzwerks“. Ein Beispiel für eine solche Architektur könnte ein AutoEncoder sein, wie er nachfolgend näher beschrieben ist.The approach presented here uses an architecture of a so-called "feature-learning network". An example of such an architecture could be an AutoEncoder, as described in more detail below.

2 zeigt ein Blockschaltbild eines beispielhaften AutoEncoders 200 als Ausführungsbeispiel eines Teils einer für das erste und/oder zweite Netzwerk verwendbaren Netzwerk-Architektur mit einem Encoder 210, einem Flaschenhals 215 und einem Decoder 220. Der Encoder 210 leistet eine Reduktion einer Dimension des Eingangsraums, also des Signalraums der Eingangsgröße x durch die Verwendung von convolution layers, wie sie beispielsweise neuronalen Netzen Einsatz finden. Der nächste Teil dieser Architektur ist der „Flaschenhals“ 215, welcher die höchste Reduktion der Dimension des Eingangs x darstellt. Diese Darstellung der Eingangsgröße x in einer niedrigen Dimension wird auch oft „Merkmalsvektor“ oder „Deskriptor“ genannt. In einem Trainingsschritt des Netzwerks lernt das Netzwerk, hier der AutoEncoder 200, wie das aktuelle Eingangssignal x nur unter Verwendung eines Merkmalsvektor/Deskriptors mit niedriger Dimension repräsentiert oder rekonstruiert wird. Der nächste Teil der Netzwerkarchitektur ist der „Decoder“ 220, der den Dimensionsraum Schritt-für-Schritt vergrößert, um ein rekonstruiertes Eingangssignal x' zu erhalten, das günstigerweise die gleiche Dimension wie das Eingangssignal x erreicht. Im Idealfall ist das resultierende Ergebnis des Decoder x' identisch mit dem Eingang x, wie es in der 2 dargestellt ist. Für den hier vorgestellten Ansatz werden nun das erste Netzwerk 125 und das zweite Netzwerk 130 verwendet, die den Komponenten des Encoders 210 und des Flaschenhalses 215 entsprechen, in dem die komplexitätsreduzierte Varianten des Eingangssignals x enthalten ist. Beispielsweise kann der Inhalt des Flaschenhalses 215 dann dem ersten Ausgangssignal 127 oder dem zweiten Ausgangssignal 132 entsprechend, wenn das erste Netzwerk 125 und/oder das zweite Netzwerk 130 entsprechend einer Konfiguration eines in der 2 dargestellten Netzwerks 230 entsprechen. 2 Figure 3 shows a block diagram of an exemplary AutoEnoder 200 as an exemplary embodiment of part of a network architecture that can be used for the first and / or second network with an encoder 210 , a bottleneck 215 and a decoder 220 . The encoder 210 reduces one dimension of the input space, i.e. the signal space of the input variable x, through the use of convolution layers, such as those used in neural networks. The next part of this architecture is the "bottleneck" 215 which represents the greatest reduction in the dimension of the input x. This representation of the input variable x in a lower dimension is also often called a “feature vector” or “descriptor”. The network, here the AutoEncoder, learns in a training step of the network 200 how the current input signal x is represented or reconstructed using only a feature vector / descriptor with low dimension. The next part of the network architecture is the "decoder" 220 , which enlarges the dimension space step-by-step in order to obtain a reconstructed input signal x 'which advantageously reaches the same dimension as the input signal x. In the ideal case, the resulting result of the decoder x 'is identical to the input x, as in the 2 is shown. For the approach presented here, the first network 125 and the second network 130 used the components of the encoder 210 and the bottle neck 215 correspond, in which the complexity-reduced variant of the input signal x is included. For example, the contents of the bottle neck 215 then the first output signal 127 or the second output signal 132 accordingly if the first network 125 and / or the second network 130 according to a configuration of one in the 2 represented network 230 correspond.

3 zeigt eine schematische Darstellung einer Vorgehensweise gemäß einem Ausführungsbeispiel für einen ersten Schritt des hier vorgeschlagenen Verfahrens bzw. Ansatzes, in welchem zumindest zwei Merkmal-lernende Netzwerke wie das erste Netzwerk 125 und das zweite Netzwerk 130 aus der 1 zu trainieren bzw. adaptieren sind. Dem ersten Merkmal-lernenden Netzwerk 125 wird als Eingangsgröße der Sensorsignalvektor ST1 zugeführt, wobei dann das erste Netzwerk 125 gegen die Daten/Messwerte des zweiten Sensorsignalvektor ST2 trainiert wird; es wird somit der zweite Sensorsignalvektor ST2 als Referenzvektor und der erste Sensorsignalvektor ST1 als Eingangsvektor für das erste Netzwerk 125 verwendet. Dem zweiten Merkmal-lernenden Netzwerk 130 wird als Eingangsgröße der Sensorsignalvektor ST2 zugefügt, wobei dann das zweite Netzwerk 130 gegen die Daten/Messwerte aus dem ersten Sensorsignalvektor ST1 trainiert werden. Das Ziel eines solchen Netzwerk-Trainings ist es, dass die erlernten Deskriptoren/Merkmalsvektoren 300a bzw. 300b in der Lage sind, die entsprechende Information des anderen Sensorsignalvektors in der ursprünglichen Dimension und Auflösung vollständig repräsentieren/rekonstruieren zu können. Es soll somit durch das erste Netzwerk 125 der erste Sensorsignalvektor ST1 auf einen ersten Deskriptor 300a reduziert werden, sodass aus diesem ersten Deskriptor 300a der zweite Sensorsignalvektor ST2 generiert werden kann. Alternativ oder zusätzlich soll durch das zweite Netzwerk 130 der zweite Sensorsignalvektor ST2 auf einen zweiten Deskriptor 300b reduziert werden, sodass aus diesem zweiten Deskriptor 300b der erste Sensorsignalvektor ST1 generiert werden kann. 3 shows a schematic representation of a procedure according to an exemplary embodiment for a first step of the method or approach proposed here, in which at least two feature-learning networks such as the first network 125 and the second network 130 from the 1 to be trained or adapted. The first trait-learning network 125 the sensor signal vector is used as the input variable ST1 fed, then the first network 125 against the data / measured values of the second sensor signal vector ST2 is trained; it thus becomes the second sensor signal vector ST2 as a reference vector and the first sensor signal vector ST1 as the input vector for the first network 125 used. The second trait-learning network 130 the sensor signal vector is used as the input variable ST2 added, then the second network 130 against the data / measured values from the first sensor signal vector ST1 be trained. The aim of such network training is that the descriptors / feature vectors that have been learned 300a or. 300b are able to completely represent / reconstruct the corresponding information of the other sensor signal vector in the original dimension and resolution. It should therefore go through the first network 125 the first sensor signal vector ST1 to a first descriptor 300a be reduced so from this first descriptor 300a the second sensor signal vector ST2 can be generated. Alternatively or additionally, through the second network 130 the second sensor signal vector ST2 to a second descriptor 300b be reduced so from this second descriptor 300b the first sensor signal vector ST1 can be generated.

Die typischen Eingangssignale bzw. Messwerte eines ersten Sensorsignalvektors ST1 als Radarsensor sind die Parameter r, Az, El, r', RCS (r= Distanz, Abstand, Az = Azimut, El = Höhenwinkel, r' = Doppler-Verschiebungswert, RCS = Radar-Querschnittswert) pro Erkennung/Ziel bzw. Objekt. Aktuelle Hochleistungsradarsensoren erkennen hierbei ferner etwa 6000 Ziele pro Erkennung in jedem Messzyklus.The typical input signals or measured values of a first sensor signal vector ST1 as a radar sensor, the parameters r, Az, El, r ', RCS (r = distance, distance, Az = azimuth, El = elevation angle, r' = Doppler shift value, RCS = radar cross-sectional value) per detection / target or object . Current high-performance radar sensors also recognize around 6000 targets per detection in each measurement cycle.

Die typischen Eingangssignale bzw. Messwerte eines zweiten Sensorsignalvektors ST2 als LIDAR-Sensors sind X, Y, Z, I, SNR (X = X-Position, Y = Y-Position, Z = Z-Position bezogen auf ein kartesisches Koordinatensystem des betreffenden Sensors, I = Intensität des reflektierten Laserstrahls, SNR = Signal-zu-Rauschverhältnis) pro Erkennung/Ziel bzw. Objekt. Aktuelle Hochleistungslidarsensoren erkennen etwa 100.000 Ziele pro Detektion in jedem Messzyklus.The typical input signals or measured values of a second sensor signal vector ST2 as LIDAR sensors are X, Y, Z, I, SNR (X = X position, Y = Y position, Z = Z position based on a Cartesian coordinate system of the sensor in question, I = intensity of the reflected laser beam, SNR = Signal-to-noise ratio) per detection / target or object. Current high-performance lidar sensors detect around 100,000 targets per detection in each measurement cycle.

4 zeigt eine schematische Darstellung einer Vorgehensweise gemäß einem Ausführungsbeispiel für einen zweiten Schritt des hier vorgeschlagenen Verfahrens bzw. Ansatzes, in welchem mehrere Deskriptoren wie die Deskriptoren 300a und 300b zu einer gemeinsamen Darstellung als Deskriptor 400 generalisiert werden, welcher dann Eingangswerte eines Objekts 100 von einem beliebigen Sensor wie den Sensoren 115 und 120 aufnehmen kann und auf die gleiche Weise für die betreffenden Sensorsignalvektoren ST1 und ST2 beschreibt. Dieser generalisierte Deskriptor 400 kann dann als erster Deskriptor 126 oder zweiter Deskriptor 131 in dem trainierten Entscheidungsnetzwerk 140 aus der 1 verwendet werden. Um eine solche generalisierte Darstellung der Deskriptoren 300a bzw. 300b zu erreichen, wird ein ein Association Network (= Verknüpfungsnetzwerk) 410 verwendet, um aus Ausgangswerten der beiden Merkmal-lernenden Netzwerke 125 und 120 von Eingangswerten, als den Sensorsignalvektoren ST1 und ST2 Merkmale für das gleiche Objekt unterscheiden zu können. Dieser Merkmale werden dann in dem generalisierten Deskriptor 400 abgelegt bzw. entsprechend in den Netzwerken 115 und 120 verknüpft, um eine entsprechende Komplexitätsreduktion aus den Sensorsignalvektoren ST1 und ST2 auf den generalisierten Deskriptor 400 zu erhalten, der dann für die Auswertung sowohl des Sensorsignalvektors ST1 als auch des Sensorsignalvektors ST2 verwendet werden kann. 4th shows a schematic representation of a procedure according to an exemplary embodiment for a second step of the method or approach proposed here, in which several descriptors such as the descriptors 300a and 300b to a common representation as a descriptor 400 be generalized, which then input values of an object 100 from any sensor such as the sensors 115 and 120 and in the same way for the relevant sensor signal vectors ST1 and ST2 describes. This generalized descriptor 400 can then be used as the first descriptor 126 or second descriptor 131 in the trained decision network 140 from the 1 be used. To such a generalized representation of the descriptors 300a or. 300b to achieve an Association Network (= linking network) 410 used to get from baseline of the two feature-learning networks 125 and 120 of input values, as the sensor signal vectors ST1 and ST2 To be able to distinguish characteristics for the same object. These characteristics are then used in the generalized descriptor 400 stored or in the networks accordingly 115 and 120 linked to a corresponding reduction in complexity from the sensor signal vectors ST1 and ST2 on the generalized descriptor 400 which is then used for the evaluation of both the sensor signal vector ST1 as well as the sensor signal vector ST2 can be used.

5 zeigt eine schematische Darstellung einer Struktur oder Arbeitsweise des Verknüpfungsnetzwerkes 410, welches beispielsweise einer GAN-Struktur (GAN = engl. Generative Adversarial Networks = erzeugendes generisches Netzwerk) entsprechen kann. In dem nochmaligen Training der Deskriptoren 300a bzw. 300b durch die GAN-Struktur 410 kann dann beispielsweise der erste Deskriptor 300a als Trainingssatz und der zweite Deskriptor 300b als Referenzsatz verwendet werden, auf welchen hin der Trainingssatz zu optimieren ist. Allerdings wird dem Referenzsatz eine Störungen simulierende Verlustfunktion 500 hinzugefügt. Auf dieser Weise wird ein Diskriminator 510 derart angelernt, sodass die in dem zweiten Deskriptor 300b abgebildeten Objekte des entsprechenden Merkmal-lernenden Netzwerks, die einen zu großen Fehler enthalten, durch den Diskriminator 510 erkannt und verworfen. Hierdurch lässt sich die Güte der Merkmalserkennung durch das hier verwendete Diskriminatornetzwerks erhöhen, um die die Ähnlichkeit der Deskriptoren 300a und 300b zu maximieren und hieraus den generalisierten Deskriptor 400 zu erhalten. Die Merkmal-lernenden Netzwerke 125 und 130 können in dem Verknüpfungsnetzwerk 410 seriell oder parallel trainiert werden, d. h. es kann zunächst der erste Deskriptor 300a als Trainingssatz und der zweite Deskriptor 300b als Referenzsatz verwendet werden und parallel oder anschließend auch noch der der zweite Deskriptor 300b als Trainingssatz und der erste Deskriptor 300a als Referenzsatz verwendet werden. In anderen Worten wird beispielsweise das erste Merkmal-lernende Netzwerk 125 nochmals trainiert, während das zweite Merkmal-lernende Netzwerk 130 als Referenz verwendet wird und umgekehrt. 5 shows a schematic representation of a structure or mode of operation of the linking network 410 which, for example, can correspond to a GAN structure (GAN = Generative Adversarial Networks = generating generic network). In repeated training of descriptors 300a or. 300b through the GAN structure 410 can then for example be the first descriptor 300a as a training set and the second descriptor 300b can be used as a reference set towards which the training set is to be optimized. However, the reference set has a loss function that simulates disturbances 500 added. This way it becomes a discriminator 510 learned in such a way that the in the second descriptor 300b mapped objects of the corresponding feature-learning network, which contain too large an error, by the discriminator 510 recognized and discarded. In this way, the quality of the feature recognition can be increased by the discriminator network used here, by the similarity of the descriptors 300a and 300b to maximize and from this the generalized descriptor 400 to obtain. The trait-learning networks 125 and 130 can be in the linking network 410 can be trained serially or in parallel, ie the first descriptor can be used first 300a as a training set and the second descriptor 300b can be used as a reference sentence and in parallel or afterwards also the second descriptor 300b as a training set and the first descriptor 300a can be used as a reference rate. In other words, it becomes the first feature-learning network, for example 125 retrained while the second feature-learning network 130 is used as a reference and vice versa.

Weiterhin können Daten von anderen Sensoren wie beispielsweise Kameras oder Ultraschall ebenfalls verwendet werden. Andere Methoden/Verfahren für Merkmal-lernende Netzwerke und Verknüpfungsnetzwerk können ebenfalls angewendet werden.Furthermore, data from other sensors such as cameras or ultrasound can also be used. Other methods / procedures for feature learning networks and interconnection networks can also be used.

6 zeigt ein Ablaufdiagramm eines Ausführungsbeispiels eines Verfahrens 600 zur Ermittlung eines trainierten Entscheidungsnetzwerks. Das Verfahren umfast einen Schritt 610 des Einlesens eines ersten Sensorsignalvektors und eines zweiten Sensorsignalvektors, wobei der erste Sensorsignalvektor zumindest einen Messwert eines ersten Sensors einer ersten Sensortechnologie und der zweite Sensorsignalvektor zumindest einen Messwert eines zweiten Sensors einer von der ersten Sensortechnologie unterschiedlichen zweiten Sensortechnologie aufweist, wobei der erste Sensorsignalvektor ein Objekt aus einem Blickwinkel des ersten Sensors repräsentiert und der zweite Sensorsignalvektor das Objekt aus einem Blickwinkel des zweiten Sensors repräsentiert. Ferner umfasst das Verfahren 600 einen Schritt 620 des Adaptierens eines ersten Netzwerks mit dem ersten Sensorsignalvektor als Eingangsvektor und dem zweiten Sensorsignalvektor als Referenzvektor und Adaptieren eines zweiten Netzwerks mit dem zweiten Sensorsignalvektor als Eingangsvektor und dem ersten Sensorsignalvektor als Referenzvektor. Schließlich umfasst das Verfahren 600 einen Schritt 630 des Trainierens von Parametern eines Entscheidungsnetzwerks unter Verwendung des ersten und zweiten Netzwerks, um das trainierte Entscheidungsnetzwerk zu erhalten. 6th shows a flow chart of an exemplary embodiment of a method 600 to determine a trained decision network. The process consists of one step 610 of reading in a first sensor signal vector and a second sensor signal vector, the first sensor signal vector having at least one measured value from a first sensor of a first sensor technology and the second sensor signal vector having at least one measured value from a second sensor of a second sensor technology different from the first sensor technology, the first sensor signal vector having an object represents a viewing angle of the first sensor and the second sensor signal vector represents the object from a viewing angle of the second sensor. The method also includes 600 one step 620 of adapting a first network with the first sensor signal vector as the input vector and the second sensor signal vector as the reference vector and adapting a second network with the second sensor signal vector as the input vector and the first sensor signal vector as the reference vector. Finally, the procedure includes 600 one step 630 training parameters of a decision network using the first and second networks to obtain the trained decision network.

7 zeigt ein Ablaufdiagramm eines Ausführungsbeispiels eines Verfahrens 700 zur Erkennung von zumindest einem Objekt aus Daten zumindest eines ersten Sensorsignalvektors und/oder eines zweiten Sensorsignalvektors. Das Verfahren 700 umfasst einen Schritt 710 des Einlesens des ersten Sensorsignalvektors und des zweiten Sensorsignalvektors, wobei der erste Sensorsignalvektor zumindest einen Messwert eines ersten Sensors einer ersten Sensortechnologie und der zweite Sensorsignalvektor zumindest einen Messwert eines zweiten Sensors einer von der ersten Sensortechnologie unterschiedlichen zweiten Sensortechnologie aufweist, wobei der erste Sensorsignalvektor ein Objekt aus einem Blickwinkel des ersten Sensors repräsentiert und der zweite Signalvektor das Objekt aus einem Blickwinkel des zweiten Sensors repräsentiert, wobei im Schritt des Einlesens ferner ein gemäß einer hier beschriebenen Variante trainiertes Entscheidungsnetzwerk eingelesen wird. Weiterhin umfasst das Verfahren 700 einen Schritt 720 des Detektierens des Objektes aus dem ersten und/oder dem zweiten Sensorsignalvektor als Eingangsvektoren des trainierten Entscheidungsnetzwerkes. Ferner kann ein Schritt 730 des Markierens des detektierten Objektes in einer eine Umgebung des ersten und/oder zweiten Sensors repräsentierenden Karte vorgesehen sein. 7th shows a flow chart of an exemplary embodiment of a method 700 for the detection of at least one object from data of at least one first sensor signal vector and / or one second sensor signal vector. The procedure 700 includes one step 710 of reading in the first sensor signal vector and the second sensor signal vector, the first sensor signal vector having at least one measured value from a first sensor of a first sensor technology and the second sensor signal vector having at least one measured value from a second sensor of a second sensor technology different from the first sensor technology, the first sensor signal vector having an object represents a viewing angle of the first sensor and the second signal vector represents the object from a viewing angle of the second sensor, wherein in the step of reading in a decision network trained according to a variant described here is also read in. The method also includes 700 one step 720 the detection of the object from the first and / or the second sensor signal vector as input vectors of the trained decision network. Furthermore, a step 730 the marking of the detected object in a map representing the surroundings of the first and / or second sensor can be provided.

Die beschriebenen und in den Figuren gezeigten Ausführungsbeispiele sind nur beispielhaft gewählt. Unterschiedliche Ausführungsbeispiele können vollständig oder in Bezug auf einzelne Merkmale miteinander kombiniert werden. Auch kann ein Ausführungsbeispiel durch Merkmale eines weiteren Ausführungsbeispiels ergänzt werden.The exemplary embodiments described and shown in the figures are selected only as examples. Different exemplary embodiments can be combined with one another completely or with regard to individual features. An exemplary embodiment can also be supplemented by features of a further exemplary embodiment.

Ferner können erfindungsgemäße Verfahrensschritte wiederholt sowie in einer anderen als in der beschriebenen Reihenfolge ausgeführt werden.Furthermore, method steps according to the invention can be repeated and carried out in a sequence other than that described.

Umfasst ein Ausführungsbeispiel eine „und/oder“ Verknüpfung zwischen einem ersten Merkmal und einem zweiten Merkmal, so kann dies so gelesen werden, dass das Ausführungsbeispiel gemäß einer Ausführungsform sowohl das erste Merkmal als auch das zweite Merkmal und gemäß einer weiteren Ausführungsform entweder nur das erste Merkmal oder nur das zweite Merkmal aufweist.If an exemplary embodiment comprises a “and / or” link between a first feature and a second feature, this can be read in such a way that the exemplary embodiment according to one embodiment has both the first feature and the second feature and according to a further embodiment either only the first Has feature or only the second feature.

BezugszeichenlisteList of reference symbols

100100
Fahrzeugvehicle
105105
Vorrichtung zur Erkennung von zumindest einem ObjektDevice for recognizing at least one object
110110
Objektobject
115115
erster Sensorfirst sensor
ST1ST1
erster Sensorsignalvektorfirst sensor signal vector
120120
zweiter Sensorsecond sensor
125125
erstes Netzwerkfirst network
126126
erster Deskriptorfirst descriptor
127127
erstes Ausgangssignalfirst output signal
ST2ST2
zweiter Sensorsignalvektorsecond sensor signal vector
130130
zweites Netzwerksecond network
131131
zweiter Deskriptorsecond descriptor
132132
zweites Ausgangssignalsecond output signal
135135
Einheit zur DetektionDetection unit
140140
EntscheidungsnetzwerkDecision-making network
145145
MerkmalsextraktorFeature extractor
150150
KartenmanagementeinheitCard management unit
155155
digitale Kartedigital map
160160
Merkmalssignal Feature signal
200200
AutoEncoderAutoEncoder
210210
EncoderEncoder
215215
FlaschenhalsBottleneck
220220
Decoderdecoder
230230
Netzwerk network
300a300a
erster Deskriptorfirst descriptor
300b300b
zweiter Deskriptor second descriptor
400400
generalisierter Deskriptorgeneralized descriptor
410410
Verknüpfungsnetzwerk Link network
500500
VerlustfunktionLoss function
510510
Diskriminator Discriminator
600600
Verfahren zur Ermittlung eines trainierten EntscheidungsnetzwerksMethod for determining a trained decision network
610610
Schritt des EinlesensReading step
620620
Schritt des AdaptierensStep of adaptation
630630
Schritt des Trainierens Step of exercising
700700
Verfahren zur Erkennung von zumindest einem ObjektMethod for recognizing at least one object
710710
Schritt des EinlesensReading step
720720
Schritt des DetektierensDetecting step

Claims (15)

Verfahren (600) zur Ermittlung eines trainierten Entscheidungsnetzwerks (140), wobei das Verfahren (600) die folgenden Schritte aufweist: - Einlesen (610) eines ersten Sensorsignalvektors (ST1) und eines zweiten Sensorsignalvektors (ST2), wobei der erste Sensorsignalvektor (ST1) zumindest einen Messwert eines ersten Sensors (115) einer ersten Sensortechnologie und der zweite Sensorsignalvektor (ST2) zumindest einen Messwert eines zweiten Sensors (120) einer von der ersten Sensortechnologie unterschiedlichen zweiten Sensortechnologie aufweist, wobei der erste Sensorsignalvektor (ST1) ein Objekt (110) aus einem Blickwinkel des ersten Sensors (115) repräsentiert und der zweite Sensorsignalvektor (ST2) das Objekt (110) aus einem Blickwinkel des zweiten Sensors (120) repräsentiert; - Adaptieren (620) eines ersten Netzwerks (125) mit dem ersten Sensorsignalvektor (ST1) als Eingangsvektor und dem zweiten Sensorsignalvektor (ST2) als Referenzvektor und Adaptieren (620) eines zweiten Netzwerks (130) mit dem zweiten Sensorsignalvektor (ST2) als Eingangsvektor und dem ersten Sensorsignalvektor (ST1) als Referenzvektor; und - Trainieren (630) von Parametern eines Entscheidungsnetzwerks (140) unter Verwendung des ersten und zweiten Netzwerks (125), um das trainierte Entscheidungsnetzwerk (140) zu erhalten.Method (600) for determining a trained decision network (140), the method (600) comprising the following steps: - Reading in (610) a first sensor signal vector (ST1) and a second sensor signal vector (ST2), the first sensor signal vector (ST1) at least one measured value of a first sensor (115) of a first sensor technology and the second sensor signal vector (ST2) at least one measured value of a second Sensor (120) has a second sensor technology different from the first sensor technology, the first sensor signal vector (ST1) representing an object (110) from a perspective of the first sensor (115) and the second sensor signal vector (ST2) representing the object (110) from a Represents the angle of view of the second sensor (120); - Adapting (620) a first network (125) with the first sensor signal vector (ST1) as the input vector and the second sensor signal vector (ST2) as the reference vector and adapting (620) a second network (130) with the second sensor signal vector (ST2) as the input vector and the first sensor signal vector (ST1) as a reference vector; and - training (630) parameters of a decision network (140) using the first and second networks (125) to obtain the trained decision network (140). Verfahren (600) gemäß Anspruch 1, dadurch gekennzeichnet, dass im Schritt des Trainierens (630) die Parameter des Entscheidungsnetzwerks (140) unter Verwendung von Störgrößen (500) adaptiert werden, die Zustandswerten des ersten Netzwerks (125) und/oder Zustandswerten des zweiten Netzwerks (130) hinzugefügt werden.Method (600) according to Claim 1 , characterized in that in the training step (630) the parameters of the decision network (140) are adapted using disturbance variables (500), the state values of the first network (125) and / or state values of the second network (130) are added. Verfahren (600) gemäß einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass im Schritt des Trainierens (630) die Parameter des Entscheidungsnetzwerkes (140) durch eine GAN-Struktur unter Verwendung des ersten (125) und zweiten Netzwerks (130) trainiert werden.The method (600) according to one of the preceding claims, characterized in that in the training step (630) the parameters of the decision network (140) are trained by a GAN structure using the first (125) and second network (130). Verfahren (600) gemäß einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass im Schritt (630) des Trainierens die Parameter des Entscheidungsnetzwerks (140) derart adaptiert werden, dass das erste Netzwerk (125) zur Ermittlung von Eingangswerten des Entscheidungsnetzwerks (140) und das zweite Netzwerk (130) zur Bereitstellung von Referenzvariablen des Entscheidungsnetzwerkes (140) verwendet wird und/oder wobei im Schritt des Adaptierens (620) die Parameter des Entscheidungsnetzwerks (140) derart adaptiert werden, dass das zweite Netzwerk (1230) zur Ermittlung von Eingangswerten des Entscheidungsnetzwerks (140) und das erste Netzwerk (125) zur Bereitstellung von Referenzvariablen des Entscheidungsnetzwerkes (140) verwendet wird.Method (600) according to one of the preceding claims, characterized in that In the training step (630) the parameters of the decision network (140) are adapted in such a way that the first network (125) for determining input values of the decision network (140) and the second network (130) for providing reference variables of the decision network (140) is used and / or wherein in the step of adapting (620) the parameters of the decision network (140) are adapted such that the second network (1230) for determining input values of the decision network (140) and the first network (125) for providing Reference variables of the decision network (140) is used. Verfahren (600) gemäß Anspruch 4, dadurch gekennzeichnet, dass im Schritt (630) des Trainierens die Parameter des Entscheidungsnetzwerkes (140) zunächst unter Verwendung des ersten Netzwerks (125) zur Ermittlung von Eingangswerten des Entscheidungsnetzwerks (140) und des zweiten Netzwerks (125) zur Bereitstellung von Referenzvariablen des Entscheidungsnetzwerkes (140) verwendet werden und hieran anschließend unter Verwendung des zweiten Netzwerks (125) zur Ermittlung von Eingangswerten des Entscheidungsnetzwerks (140) und des ersten Netzwerks (125) zur Bereitstellung von Referenzvariablen des Entscheidungsnetzwerkes (140) verwendet werden.Method (600) according to Claim 4 , characterized in that in the training step (630) the parameters of the decision network (140) initially using the first network (125) to determine input values of the decision network (140) and the second network (125) to provide reference variables of the decision network (140) are used and then used using the second network (125) to determine input values of the decision network (140) and the first network (125) to provide reference variables of the decision network (140). Verfahren (600) gemäß einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass im Schritt des Adaptierens (620) das erste (125) und zweite (130) Netzwerk zeitgleich und/oder parallel adaptiert werden.Method (600) according to one of the preceding claims, characterized in that in the step of adapting (620) the first (125) and second (130) networks are adapted simultaneously and / or in parallel. Verfahren (600) gemäß einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass im Schritt des Adaptierens (620) das zu adaptierende erste (125) und/oder zweite (130) Netzwerk als neuronales Netzwerk, insbesondere als künstliches neuronales Netzwerk und/oder als Autoencoder ausgestaltet ist.The method (600) according to any one of the preceding claims, characterized in that in the step of adapting (620) the first (125) and / or second (130) network to be adapted as a neural network, in particular as an artificial neural network and / or as an auto-encoder is designed. Verfahren (600) gemäß einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass im Schritt (610)des Einlesens als erster Sensorsignalvektor (ST1) Messwerte des ersten Sensors (115) eines Fahrzeugs (100) eingelesen werden und als zweiter Sensorsignalvektor (ST2) Messwerte des zweiten Sensors (120) es Fahrzeugs (100) eingelesen werden, insbesondere wobei der erste Sensor (115) als ein Radarsensor ausgebildet ist und der zweite Sensor (115) als ein Lidarsensor ausgebildet ist oder wobei der erste Sensor (115) als ein Lidarsensor ausgebildet ist und der zweite Sensor (115) als ein Radarsensor ausgebildet ist.Method (600) according to one of the preceding claims, characterized in that in the step (610) of reading in as the first sensor signal vector (ST1) measured values of the first sensor (115) of a vehicle (100) and measured values of the second sensor signal vector (ST2) second sensor (120) of the vehicle (100), in particular wherein the first sensor (115) is designed as a radar sensor and the second sensor (115) is designed as a lidar sensor or wherein the first sensor (115) is designed as a lidar sensor and the second sensor (115) is designed as a radar sensor. Verfahren (600) gemäß Anspruch 8, dadurch gekennzeichnet, dass im Schritt (610) des Einlesens als Messwert eines als Radarsensor ausgebildeten Sensors (115) ein eine in Bezug auf das Objekt (110) erfasste Distanz, einen Azimutwinkel, einen Höhenwinkel, einen Dopplerfrequenz-Verschiebungswert zwischen einem ausgesendeten und einem vom Objekt (110) empfangenen Radarstrahl oder ein einen Radar-Querschnitt repräsentierender Wert eingelesen wird und/oder dass im Schritt (610) des Einlesens als Messwert eines als Lidarsensor ausgebildeten Sensors (120) ein einen Intensitätswert eines von Objekt (110) reflektieren Laserstrahls, ein SNR-Wert, einen x-Wert, einen y-Wert einen z-Wert eines vom Objekt (110) reflektierten Laserstrahls in Bezug auf ein Sensorkoordinatensystem repräsentierender Wert eingelesen wird.Method (600) according to Claim 8 , characterized in that in the step (610) of reading in as a measured value of a sensor (115) designed as a radar sensor, a distance detected in relation to the object (110), an azimuth angle, an elevation angle, a Doppler frequency shift value between a transmitted and a The radar beam received by the object (110) or a value representing a radar cross-section is read in and / or that, in the reading-in step (610) as a measured value from a sensor (120) designed as a lidar sensor, an intensity value of a laser beam reflected by the object (110), an SNR value, an x value, a y value, a z value of a laser beam reflected from the object (110) is read in with reference to a value representing a sensor coordinate system. Verfahren (700) zur Erkennung von zumindest einem Objekt (110) aus Daten zumindest eines ersten Sensorsignalvektors (ST1) und/oder eines zweiten Sensorsignalvektors (ST2), wobei das Verfahren (700) die folgenden Schritte aufweist: - Einlesen (710) des ersten Sensorsignalvektors (ST1) und des zweiten Sensorsignalvektors (ST2), wobei der erste Sensorsignalvektor (ST1) zumindest einen Messwert eines ersten Sensors (115) einer ersten Sensortechnologie und der zweite Sensorsignalvektor (ST2) zumindest einen Messwert eines zweiten Sensors (120) einer von der ersten Sensortechnologie unterschiedlichen zweiten Sensortechnologie aufweist, wobei der erste Sensorsignalvektor (ST1) ein Objekt (110) aus einem Blickwinkel des ersten Sensors (115) repräsentiert und der zweite Sensorsignalvektor (ST2) das Objekt (110) aus einem Blickwinkel des zweiten Sensors (120) repräsentiert, wobei im Schritt (710) des Einlesens ferner ein gemäß einem der Ansprüche 1 bis 9 trainiertes Entscheidungsnetzwerk (140) eingelesen wird; und Detektieren (720) des Objektes (110) aus dem ersten (ST1) und/oder dem zweiten Sensorsignalvektor (ST2) als Eingangsvektoren des trainierten Entscheidungsnetzwerkes (140).A method (700) for recognizing at least one object (110) from data of at least one first sensor signal vector (ST1) and / or a second sensor signal vector (ST2), the method (700) having the following steps: reading (710) the first Sensor signal vector (ST1) and the second sensor signal vector (ST2), the first sensor signal vector (ST1) at least one measured value from a first sensor (115) of a first sensor technology and the second sensor signal vector (ST2) at least one measured value from a second sensor (120) one of the first sensor technology has different second sensor technology, the first sensor signal vector (ST1) representing an object (110) from a perspective of the first sensor (115) and the second sensor signal vector (ST2) representing the object (110) from a perspective of the second sensor (120) represents, wherein in step (710) of reading in further a according to one of the Claims 1 to 9 trained decision network (140) is read; and detecting (720) the object (110) from the first (ST1) and / or the second sensor signal vector (ST2) as input vectors of the trained decision network (140). Verfahren (700) gemäß Anspruch 10, gekennzeichnet, durch einen Schritt (730) des Markierens des detektierten Objektes (110) in einer eine Umgebung des ersten (115) und/oder zweiten Sensors (120) repräsentierenden Karte (155).Method (700) according to Claim 10 , characterized by a step (730) of marking the detected object (110) in a map (155) representing the surroundings of the first (115) and / or second sensor (120). Verfahren (700) gemäß einem der Ansprüche 10 oder 11, wobei im Schritt (710) des Einlesens der erste (ST1) und/oder zweite Sensorsignalvektor (ST2) eingelesen werden, der von einem entsprechenden ersten (115) und zweiten Sensor (120) eines Fahrzeugs (100) bereitgestellt wurden.Method (700) according to one of the Claims 10 or 11 , wherein in step (710) of reading in the first (ST1) and / or second sensor signal vector (ST2) are read, which were provided by a corresponding first (115) and second sensor (120) of a vehicle (100). Vorrichtung (105), die eingerichtet ist, um die Schritte des Verfahrens (600) gemäß einem der vorangegangenen Ansprüche1 bis 9 und/oder die Schritte des Verfahrens (700) gemäß einem der vorangegangenen Ansprüche 10 bis 12 in entsprechenden Einheiten auszuführen und/oder anzusteuern.Device (105) which is set up to carry out the steps of the method (600) according to one of the preceding claims 1 to 9 and / or the steps of the method (700) according to one of the preceding claims Claims 10 to 12th to be executed and / or controlled in appropriate units. Computerprogramm, das dazu eingerichtet ist, die Schritte des Verfahrens (600, 700) gemäß einem der vorangegangenen Ansprüche 1 bis 9 oder 10 bis 12 auszuführen und/oder anzusteuern.Computer program which is set up to carry out the steps of the method (600, 700) according to one of the preceding Claims 1 to 9 or 10 to 12th execute and / or control. Maschinenlesbares Speichermedium, auf dem das Computerprogramm nach Anspruch 14 gespeichert ist.Machine-readable storage medium on which the computer program is based Claim 14 is stored.
DE102019203953.7A 2019-03-22 2019-03-22 Method and device for determining a trained decision network Pending DE102019203953A1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102019203953.7A DE102019203953A1 (en) 2019-03-22 2019-03-22 Method and device for determining a trained decision network
PCT/EP2020/056416 WO2020193126A1 (en) 2019-03-22 2020-03-11 Method and device for determining a trained decision network

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102019203953.7A DE102019203953A1 (en) 2019-03-22 2019-03-22 Method and device for determining a trained decision network

Publications (1)

Publication Number Publication Date
DE102019203953A1 true DE102019203953A1 (en) 2020-09-24

Family

ID=69804886

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102019203953.7A Pending DE102019203953A1 (en) 2019-03-22 2019-03-22 Method and device for determining a trained decision network

Country Status (2)

Country Link
DE (1) DE102019203953A1 (en)
WO (1) WO2020193126A1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170206464A1 (en) * 2016-01-14 2017-07-20 Preferred Networks, Inc. Time series data adaptation and sensor fusion systems, methods, and apparatus

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4100500A1 (en) * 1991-01-10 1992-07-16 Bodenseewerk Geraetetech SIGNAL PROCESSING ARRANGEMENT FOR THE CLASSIFICATION OF OBJECTS BASED ON THE SIGNALS OF SENSORS

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170206464A1 (en) * 2016-01-14 2017-07-20 Preferred Networks, Inc. Time series data adaptation and sensor fusion systems, methods, and apparatus

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
WIKIPEDIA: Generative Adversarial Networks. 06. März 2019. URL: https://de.wikipedia.org/w/index.php?title=Generative_Adversarial_Networks&oldid=186300084 [abgerufen am 27.02.2020] *
YAGINUMA, Yoshinori; KIMOTO, Takashi; YAMAKAWA, Hiroshi: Multi-sensor fusion model for constructing internal representation using autoencoder neural networks. In: Proceedings of International Conference on Neural Networks (ICNN'96), 3-6 June 1996, Vol. 4, S. 1646-1651. – ISBN 0-7803-3210-5 *
ZHANG, Pengfei [et al.]: Multimodal fusion for sensor data using stacked autoencoders. In: 2015 IEEE Tenth International Conference on Intelligent Sensors, Sensor Networks and Information Processing (ISSNIP), 7-9 April 2015, 2 Seiten. – ISBN 978-1-4799-8055-0 *

Also Published As

Publication number Publication date
WO2020193126A1 (en) 2020-10-01

Similar Documents

Publication Publication Date Title
DE102019008142A1 (en) Learning of representations using common semantic vectors
EP3847578A1 (en) Method and device for classifying objects
DE202017102235U1 (en) training system
DE102020110157A1 (en) Image recognition device
DE112020000448T5 (en) CAMERA SELF CALIBRATION NETWORK
WO2020094534A1 (en) Method for training an artificial neural network, artificial neural network, use of an artificial neural network, corresponding computer program, machine-readable storage medium and corresponding device
DE102017006155A1 (en) Method for operating a sensor system of a vehicle
EP3557487A1 (en) Generation of validation data with generative contradictory networks
DE112020003050T5 (en) ERROR COMPENSATION IN ANALOG NEURAL NETWORKS
DE102020200911B3 (en) Method for recognizing objects in the surroundings of a vehicle
DE102019215903A1 (en) Method and device for generating training data for a recognition model for recognizing objects in sensor data of a sensor, in particular of a vehicle, method for training and method for actuation
Krajewski et al. Béziervae: Improved trajectory modeling using variational autoencoders for the safety validation of highly automated vehicles
DE102018128535B4 (en) Training an artificial neural network with data captured by sensors in a vehicle
EP3557490A1 (en) Training method
DE102018209382A1 (en) Camera-based docking of vehicles using artificial intelligence
DE102020200503A1 (en) Method for generating labeled data, in particular for training a neural network, by improving initial labels
DE102019203953A1 (en) Method and device for determining a trained decision network
DE202019105304U1 (en) Device for creating an artificial neural network
DE102022100545A1 (en) IMPROVED OBJECT RECOGNITION
DE102017223264A1 (en) Method and device for driving an actuator
DE102021201833A1 (en) Device for processing at least one input data set using a neural network and method
EP4049186A1 (en) Method for making a neural network more robust against adversarial disruptions
DE102020212921A1 (en) Method, computer program and device for evaluating a usability of simulation data
DE102021132025A1 (en) Method for determining similar scenarios, training method and training controller
DE102022204770A1 (en) Method for controlling a robotic device

Legal Events

Date Code Title Description
R163 Identified publications notified
R012 Request for examination validly filed