DE102019203953A1 - Method and device for determining a trained decision network - Google Patents
Method and device for determining a trained decision network Download PDFInfo
- Publication number
- DE102019203953A1 DE102019203953A1 DE102019203953.7A DE102019203953A DE102019203953A1 DE 102019203953 A1 DE102019203953 A1 DE 102019203953A1 DE 102019203953 A DE102019203953 A DE 102019203953A DE 102019203953 A1 DE102019203953 A1 DE 102019203953A1
- Authority
- DE
- Germany
- Prior art keywords
- sensor
- network
- signal vector
- sensor signal
- vector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/86—Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
- G01S13/865—Combination of radar systems with lidar systems
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/02—Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
- G01S13/06—Systems determining position data of a target
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/40—Means for monitoring or calibrating
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/41—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
- G01S7/417—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section involving the use of neural networks
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/497—Means for monitoring or calibrating
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01D—MEASURING NOT SPECIALLY ADAPTED FOR A SPECIFIC VARIABLE; ARRANGEMENTS FOR MEASURING TWO OR MORE VARIABLES NOT COVERED IN A SINGLE OTHER SUBCLASS; TARIFF METERING APPARATUS; MEASURING OR TESTING NOT OTHERWISE PROVIDED FOR
- G01D21/00—Measuring or testing not otherwise provided for
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
- G01S2013/9323—Alternative operation using light waves
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- General Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Theoretical Computer Science (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Electromagnetism (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Probability & Statistics with Applications (AREA)
- Traffic Control Systems (AREA)
Abstract
Es wird ein Verfahren (600) zur Ermittlung eines trainierten Entscheidungsnetzwerks (140) vorgestellt, wobei das Verfahren (600) einen Schritt des Einlesens (610) eines ersten Sensorsignalvektors (ST1) und eines zweiten Sensorsignalvektors (ST2) umfasst, wobei der erste Sensorsignalvektor (ST1) zumindest einen Messwert eines ersten Sensors (115) einer ersten Sensortechnologie und der zweite Sensorsignalvektor (ST2) zumindest einen Messwert eines zweiten Sensors (120) einer von der ersten Sensortechnologie unterschiedlichen zweiten Sensortechnologie aufweist, wobei der erste Sensorsignalvektor (ST1) ein Objekt (110) aus einem Blickwinkel des ersten Sensors (115) repräsentiert und der zweite Sensorsignalvektor (ST2) das Objekt (110) aus einem Blickwinkel des zweiten Sensors (120) repräsentiert. Ferner umfasst das Verfahren (600) einen Schritt des Adaptierens (620) eines ersten Netzwerks (125) mit dem ersten Sensorsignalvektor (ST1) als Eingangsvektor und dem zweiten Sensorsignalvektor (ST2) als Referenzvektor und Adaptieren (620) eines zweiten Netzwerks (130) mit dem zweiten Sensorsignalvektor (ST2) als Eingangsvektor und dem ersten Sensorsignalvektor (ST1) als Referenzvektor. Schließlich umfasst das Verfahren (600) einen Schritt des Trainierens (630) von Parametern eines Entscheidungsnetzwerks (140) unter Verwendung des ersten und zweiten Netzwerks (125), um das trainierte Entscheidungsnetzwerk (140) zu erhalten.A method (600) for determining a trained decision network (140) is presented, the method (600) comprising a step of reading in (610) a first sensor signal vector (ST1) and a second sensor signal vector (ST2), the first sensor signal vector ( ST1) has at least one measured value of a first sensor (115) of a first sensor technology and the second sensor signal vector (ST2) has at least one measured value of a second sensor (120) of a second sensor technology different from the first sensor technology, the first sensor signal vector (ST1) being an object ( 110) from a perspective of the first sensor (115) and the second sensor signal vector (ST2) represents the object (110) from a perspective of the second sensor (120). The method (600) further comprises a step of adapting (620) a first network (125) with the first sensor signal vector (ST1) as the input vector and the second sensor signal vector (ST2) as the reference vector and adapting (620) a second network (130) the second sensor signal vector (ST2) as the input vector and the first sensor signal vector (ST1) as the reference vector. Finally, the method (600) comprises a step of training (630) parameters of a decision network (140) using the first and second networks (125) in order to obtain the trained decision network (140).
Description
Die vorliegende Erfindung bezieht sich auf ein Verfahren und eine Vorrichtung zur Ermittlung eines trainierten Entscheidungsnetzwerks gemäß den Hauptansprüchen.The present invention relates to a method and a device for determining a trained decision network according to the main claims.
In Fahrzeugsystemen werden oftmals Komponenten zu Auswertung von Sensorsignalen verwendet, die speziell auf den Typ des Sensors ausgelegte Auswertungsalgorithmen enthalten. Hierbei sind dann jedoch für die Auswertung von Sensorsignalen von Sensoren unterschiedlicher Sensortechnologien mehrere bzw. eine Vielzahl von separaten Auswertungsalgorithmen vorzuhalten, die eine numerische und/oder schaltungstechnische Komplexität der Signalverarbeitung der Sensorsignale teilweise drastisch erhöht.In vehicle systems, components are often used for evaluating sensor signals that contain evaluation algorithms specially designed for the type of sensor. In this case, however, several or a large number of separate evaluation algorithms are to be kept available for the evaluation of sensor signals from sensors of different sensor technologies, which sometimes drastically increases the numerical and / or circuit complexity of the signal processing of the sensor signals.
Vor diesem Hintergrund schafft die vorliegende Erfindung ein verbessertes Verfahren und eine verbesserte Vorrichtung zur Ermittlung eines trainierten Entscheidungsnetzwerks sowie ein verbessertes Verfahren und eine verbesserte Vorrichtung zur Erkennung von zumindest einem Objekt aus Daten zumindest eines ersten Sensorsignalvektors und/oder eines zweiten Sensorsignalvektors gemäß den Hauptansprüchen. Vorteilhafte Ausgestaltungen ergeben sich aus den Unteransprüchen und der nachfolgenden Beschreibung.Against this background, the present invention creates an improved method and an improved device for determining a trained decision network as well as an improved method and an improved device for identifying at least one object from data of at least a first sensor signal vector and / or a second sensor signal vector according to the main claims. Advantageous refinements result from the subclaims and the following description.
Der hier vorgestellte Ansatz schafft ein Verfahren zur Ermittlung eines trainierten Entscheidungsnetzwerks, wobei das Verfahren die folgenden Schritte aufweist:
- - Einlesen eines ersten Sensorsignalvektors und eines zweiten Sensorsignalvektors, wobei der erste Sensorsignalvektor zumindest einen Messwert eines ersten Sensors einer ersten Sensortechnologie und der zweite Sensorsignalvektor zumindest einen Messwert eines zweiten Sensors einer von der ersten Sensortechnologie unterschiedlichen zweiten Sensortechnologie aufweist, wobei der erste Sensorsignalvektor ein Objekt aus einem Blickwinkel des ersten Sensors repräsentiert und der zweite Sensorsignalvektor das Objekt aus einem Blickwinkel des zweiten Sensors repräsentiert; und
- - Adaptieren eines ersten Netzwerks mit dem ersten Sensorsignalvektor als Eingangsvektor und dem zweiten Sensorsignalvektor als Referenzvektor und Adaptieren eines zweiten Netzwerks mit dem zweiten Sensorsignalvektor als Eingangsvektor und dem ersten Sensorsignalvektor als Referenzvektor; und
- - Trainieren von Parametern eines Entscheidungsnetzwerks unter Verwendung des ersten und zweiten Netzwerks, um das trainierte Entscheidungsnetzwerk zu erhalten.
- Reading in a first sensor signal vector and a second sensor signal vector, the first sensor signal vector having at least one measured value from a first sensor of a first sensor technology and the second sensor signal vector having at least one measured value from a second sensor of a second sensor technology different from the first sensor technology, the first sensor signal vector having an object represents a viewing angle of the first sensor and the second sensor signal vector represents the object from a viewing angle of the second sensor; and
- - Adapting a first network with the first sensor signal vector as input vector and the second sensor signal vector as reference vector and adapting a second network with the second sensor signal vector as input vector and the first sensor signal vector as reference vector; and
- - training parameters of a decision network using the first and second networks to obtain the trained decision network.
Unter einem Sensorsignalvektor kann ein ein- oder mehrdimensionales Sensorsignal verstanden werden. Unter einer Sensortechnologie kann ein physikalisches Messprinzip verstanden werden, durch welches der Sensor Messwerte physikalischer Größen erfassen kann. Beispielsweise kann eine Sensortechnologie eines Radarsensors auf dem Messprinzip basieren, einen an einem Objekt reflektierte Radarstrahl auszuwerten, um eine dreidimensionale Position und/oder Bewegung des Objektes in Bezug zu dem Radarsensor zu erhalten. Eine Sensortechnologie eines Lidar-Sensors kann beispielsweise auf dem Messprinzip basieren, einen an einem Objekt reflektierten Laserstrahl auszuwerten, um eine dreidimensionale Position und/oder Bewegung des Objektes in Bezug zu dem Lidarsensor zu erfassen. Hierbei kann beispielsweise die mit dem Lidarsensor dreidimensionale erfasste Position n einem kartesischen Koordinaten abgebildet werden, wogegen die mit dem Radarsensor dreidimensional erfasste Position in Kugelkoordinaten abgebildet wird. Ferner sollten sowohl der erste Sensor als auch der zweite Sensor je einem Sensorsignalvektor ausgeben, der ein gleiches Objekt abbildet, jedoch aus dem jeweiligen Blickwinkel des betreffenden Sensors. Denkbar ist jedoch auch, dass der Sensor als ein Bildsensor, beispielsweise eine Kamera oder ein Ultraschallsensor ausgebildet ist und entsprechende Daten als Sensorsignalvektoren liefert. Unter einem Netzwerk wie dem ersten Netzwerk und/oder dem zweiten Netzwerk kann beispielsweise ein trainierbarer Deskriptor verstanden werden, der eine Reduktion der Komplexität und Redundanz des Sensorsignalvektors ermöglicht, jedoch noch eine Extraktion von Merkmalen zulässt, die einen Rückschluss auf das Vorliegen des Objekts eröffnet. Ein solches Netzwerk kann beispielsweise ein Merkmal-lernendes Netzwerk sein. Beispielsweise lässt sich ein solches Netzwerk als ein neuronales Netzwerk, ein künstliches normales Netzwerk oder speziell ein AutoEncoder implementieren. Unter einem Adaptieren kann die Veränderung von zumindest einem Parameter wie beispielsweise einem Gewicht eines Knotens des Netzwerks, verstanden werden. Hierzu kann beispielsweise einer der Sensorsignalvektoren als Eingangssignal bzw. Eingangsvektors verwendet werden, wogegen der andere Sensorsignalvektor als Referenzvektor verwendet wird, sodass das Netzwerk bzw. die Parameter des Netzwerks zu adaptiert oder angepasst werden, dass der erste Sensorsignalvektor auf den zweiten Sensorsignalvektor abgebildet wird und umgekehrt. Unter einem Entscheidungsnetzwerk kann beispielsweise ein verbindendes Netzwerk wie beispielsweise ein erzeugendes generisches Netzwerk (GAN = Generative Adversarial Network) verstanden werden. Ein solches Netzwerk als Entscheidungsnetzwerk kann ebenfalls als ein neuronales Netzwerk oder als eine alternative Struktur aus dem Bereich der künstlichen Intelligenz implementiert sein. Denkbar ist ferner auch, dass das Entscheidungsnetzwerk in Struktur oder Parametern zumindest teilweise identisch oder ähnlich zu einer Struktur oder Parametern den vorstehend genannten Netzwerken ist, oder ein Verbund oder eine Kombination des vorstehend genannten ersten und zweiten Netzwerks enthält.A sensor signal vector can be understood to be a one-dimensional or multi-dimensional sensor signal. Sensor technology can be understood as a physical measuring principle by means of which the sensor can acquire measured values of physical quantities. For example, a sensor technology of a radar sensor can be based on the measuring principle of evaluating a radar beam reflected on an object in order to obtain a three-dimensional position and / or movement of the object in relation to the radar sensor. A sensor technology of a lidar sensor can for example be based on the measuring principle of evaluating a laser beam reflected on an object in order to detect a three-dimensional position and / or movement of the object in relation to the lidar sensor. Here, for example, the position detected three-dimensionally with the lidar sensor can be mapped in a Cartesian coordinate, whereas the position detected three-dimensionally with the radar sensor is mapped in spherical coordinates. Furthermore, both the first sensor and the second sensor should each output a sensor signal vector that images the same object, but from the respective perspective of the relevant sensor. However, it is also conceivable that the sensor is designed as an image sensor, for example a camera or an ultrasonic sensor, and supplies corresponding data as sensor signal vectors. A network such as the first network and / or the second network can be understood, for example, as a trainable descriptor that enables a reduction in the complexity and redundancy of the sensor signal vector, but still allows an extraction of features that allow conclusions to be drawn about the presence of the object. Such a network can for example be a feature-learning network. For example, such a network can be implemented as a neural network, an artificial normal network or especially an auto-encoder. Adaptation can be understood to mean the change in at least one parameter such as, for example, the weight of a node in the network. For this purpose, for example, one of the sensor signal vectors can be used as an input signal or input vector, whereas the other sensor signal vector is used as a reference vector, so that the network or the parameters of the network are adapted or adjusted so that the first sensor signal vector is mapped onto the second sensor signal vector and vice versa . A decision network can be understood to mean, for example, a connecting network such as a generating generic network (GAN = Generative Adversarial Network). Such a network as a decision network can also be implemented as a neural network or as an alternative structure from the field of artificial intelligence. It is also conceivable that the decision network in Structure or parameters is at least partially identical or similar to a structure or parameters of the aforementioned networks, or contains a network or a combination of the aforementioned first and second networks.
Der hier vorgeschlagene Ansatz basiert auf der Erkenntnis, dass durch das Trainieren der Parameter des Entscheidungsnetzwerks eine deutlich kompaktere und einfachere Form zur Auswertung von Daten von Sensoren unterschiedliche Sensortechnologien möglich wird. Durch die Verknüpfung der Adaption des ersten Netzwerks mit den zwei Sensorsignalvektoren als Eingangsvektor bzw. Referenzvektor und des zweiten Netzwerks mit den zwei Sensorsignalvektoren in umgekehrter Konstellation sowie dem anschließenden Trainieren des Entscheidungsnetzwerks lässt sich somit als Entscheidungsnetzwerk ein sehr allgemeines Modell ermitteln, um bei einer nachfolgenden Anwendung dieses Entscheidungsnetzwerks ein oder mehrere Objekte aus den Sensorsignalvektoren erkennen zu können. Auf diese Weise kann vorteilhaft auf eine Vielzahl von unterschiedlichen Detektionsalgorithmen zur Auswertung der Daten von Sensoren mit unterschiedlichen Sensortechnologien verzichtet werden. Hierdurch lässt sich nicht nur eine Verbesserung bzw. Reduktion des numerischen oder schaltungstechnischen Aufwandes für die Objektdetektion erreichen, sondern auch eine effizientere Ausnutzung des zur Verfügung stehenden Speichers.The approach proposed here is based on the knowledge that by training the parameters of the decision network, a significantly more compact and simpler form for evaluating data from sensors of different sensor technologies becomes possible. By linking the adaptation of the first network with the two sensor signal vectors as the input vector or reference vector and the second network with the two sensor signal vectors in the opposite constellation and then training the decision network, a very general model can be determined as a decision network to be used in a subsequent application this decision network to be able to recognize one or more objects from the sensor signal vectors. In this way, a large number of different detection algorithms for evaluating the data from sensors with different sensor technologies can advantageously be dispensed with. This not only makes it possible to improve or reduce the numerical or circuit engineering complexity for object detection, but also to make more efficient use of the available memory.
Gemäß einer Ausführungsform des hier vorgeschlagenen Ansatzes können im Schritt des Trainierens die Parameter des Entscheidungsnetzwerks unter Verwendung von Störgrößen adaptiert werden, die Zustandswerten des ersten Netzwerks und/oder Zustandswerten des zweiten Netzwerks hinzugefügt werden. Eine solche Ausführungsform bietet den Vorteil, eine besonders schnelle und sichere Ermittlung bzw. ein entsprechendes Training der Parameter des Entscheidungsnetzwerks zu ermöglichen, sodass bei einer späteren Benutzung des Entscheidungsnetzwerks Objekte schnell und sicher erkannt werden können, die durch Merkmale in den Sensorsignalvektoren abgebildet sind.According to one embodiment of the approach proposed here, in the training step, the parameters of the decision network can be adapted using disturbance variables, and the status values of the first network and / or status values of the second network can be added. Such an embodiment offers the advantage of enabling particularly fast and reliable determination or corresponding training of the parameters of the decision network, so that when the decision network is used later, objects that are mapped by features in the sensor signal vectors can be recognized quickly and reliably.
Besonders günstig ist eine Ausführungsform des hier vorgestellten Ansatzes, bei der im Schritt des Trainierens die Parameter des Entscheidungsnetzwerkes durch eine GAN-Struktur unter Verwendung des ersten und zweiten Netzwerks trainiert werden. Unter einer solchen GAN-Struktur kann die vorstehend genannte Struktur eines erzeugendes generisches Netzwerk (GAN = Generative Adversarial Network) als verbindendes Netzwerk verstanden werden. Ein solches erzeugendes generisches Netzwerk kann als Algorithmus zum nicht-überwachten Lernen verstanden werden. Hierbei umfasst ein solches Netzwerk gemäß der Online-Enzyklopädie Wikipedia beispielsweise zwei künstliche neuronale Netze, die ein Null-Summen-Spiel durchführen, wobei ein erstes Netzwerk als Generator Netzwerkkandidaten erstellt und das zweite Netzwerk als Diskriminator die Kandidaten bewertet. Ziel des Generatornetzwerks ist es hierbei, zu lernen, Ergebnisse nach einer bestimmten Verteilung zu erzeugen. Der Diskriminator wird hingegen darauf trainiert, die Ergebnisse des Generators von den Daten aus der echten, vorgegebenen Verteilung zu unterscheiden. Das Ziel des Generatornetzwerks besteht darin, Ergebnisse zu erzeugen, die der Diskriminator nicht unterscheiden kann. Dadurch soll sich die erzeugte Verteilung nach und nach der echten Verteilung angleichen. Eine derartige Ausführungsform des hier vorgeschlagenen Ansatzes bietet den Vorteil, ein Entscheidungsnetzwerk zu schaffen, um aus den Merkmalen der Sensorsignalvektoren möglichst schnell und eindeutig Informationen über das Vorliegen und/oder die Position und/oder die Geschwindigkeit des Objektes in den Sensordaten extrahieren zu können.An embodiment of the approach presented here is particularly favorable in which, in the training step, the parameters of the decision network are trained by a GAN structure using the first and second networks. Such a GAN structure can be understood as the aforementioned structure of a generating generic network (GAN = Generative Adversarial Network) as a connecting network. Such a generating generic network can be understood as an algorithm for unsupervised learning. According to the online encyclopedia Wikipedia, such a network includes, for example, two artificial neural networks that perform a zero-sum game, with a first network as a generator creating network candidates and the second network as a discriminator evaluating the candidates. The aim of the generator network is to learn to generate results according to a certain distribution. The discriminator, on the other hand, is trained to distinguish the results of the generator from the data from the real, given distribution. The goal of the generator network is to produce results that the discriminator cannot distinguish. As a result, the generated distribution should gradually adjust to the real distribution. Such an embodiment of the approach proposed here offers the advantage of creating a decision network in order to be able to extract information about the presence and / or the position and / or the speed of the object in the sensor data as quickly and clearly as possible from the features of the sensor signal vectors.
Gemäß einer weiteren Ausführungsform können im Schritt des Trainierens die Parameter des Entscheidungsnetzwerks derart adaptiert werden, dass das erste Netzwerk zur Ermittlung von Eingangswerten des Entscheidungsnetzwerks und das zweite Netzwerk zur Bereitstellung von Referenzvariablen des Entscheidungsnetzwerkes verwendet wird. Alternativ oder zusätzlich können im Schritt des Adaptierens die Parameter des Entscheidungsnetzwerks derart adaptiert werden, dass das zweite Netzwerk zur Ermittlung von Eingangswerten des Entscheidungsnetzwerks und das erste Netzwerk zur Bereitstellung von Referenzvariablen des Entscheidungsnetzwerkes verwendet wird. Eine solche Ausführungsform des hier vorgestellten Ansatzes bietet den Vorteil, das Entscheidungsnetzwerk schnell und präzise zu trainieren, um in einem nachfolgenden Einsatz zuverlässig Objekte oder Merkmale aus den Sensorsignalvektoren extrahieren zu können.According to a further embodiment, the parameters of the decision network can be adapted in the training step such that the first network is used to determine input values of the decision network and the second network is used to provide reference variables of the decision network. Alternatively or additionally, in the step of adapting, the parameters of the decision network can be adapted such that the second network is used to determine input values of the decision network and the first network is used to provide reference variables of the decision network. Such an embodiment of the approach presented here offers the advantage of training the decision network quickly and precisely in order to be able to reliably extract objects or features from the sensor signal vectors in a subsequent use.
Besonders günstig ist eine Ausführungsform des hier vorgeschlagenen Ansatzes, bei der im Schritt des Trainierens die Parameter des Entscheidungsnetzwerkes zunächst unter Verwendung des ersten Netzwerks zur Ermittlung von Eingangswerten des Entscheidungsnetzwerks und des zweiten Netzwerks zur Bereitstellung von Referenzvariablen des Entscheidungsnetzwerkes verwendet werden und hieran anschließend unter Verwendung des zweiten Netzwerks zur Ermittlung von Eingangswerten des Entscheidungsnetzwerks und des ersten Netzwerks zur Bereitstellung von Referenzvariablen des Entscheidungsnetzwerkes verwendet werden. Durch eine solche Kaskade von Trainingsschritten lässt sich das Training des Entscheidungsnetzwerks weiter hinsichtlich der Präzision bei der Extraktion von Merkmalen bzw. Objekten für den späteren Einsatz verbessern.An embodiment of the approach proposed here is particularly favorable in which, in the training step, the parameters of the decision network are initially used using the first network to determine input values of the decision network and the second network is used to provide reference variables of the decision network and then using the second network for determining input values of the decision network and the first network for providing reference variables of the decision network. By means of such a cascade of training steps, the training of the decision network can be further improved with regard to the precision in the extraction of features or objects for later use.
Um möglichst schnell das trainierte Entscheidungsnetzwerk zu ermitteln, kann gemäß einer weiteren Ausführungsform im Schritt des Adaptierens das erste und zweite Netzwerk zeitgleich und/oder parallel trainiert werden.In order to determine the trained decision network as quickly as possible, according to a further embodiment, in the step of adapting, the first and second networks can be trained simultaneously and / or in parallel.
Günstig ist weiterhin einer Ausführungsform des hier vorgestellten Ansatzes, bei der im Schritt des Adaptierens das zu adaptierende erste und/oder zweite Netzwerk als neuronales Netzwerk, insbesondere als künstliches neuronales Netzwerk und/oder als Autoencoder ausgestaltet ist. Eine solche Ausführungsform bietet den Vorteil, ausgereifte Algorithmen oder Strukturen für das erste und/oder zweite Netzwerk verwenden zu können, die mit hoher Präzision Eingangswerte bzw. Referenzwerte liefern können, mit denen nachfolgend das Entscheidungsnetzwerk trainiert wird. An embodiment of the approach presented here is also favorable in which, in the adapting step, the first and / or second network to be adapted is designed as a neural network, in particular as an artificial neural network and / or as an auto-encoder. Such an embodiment offers the advantage of being able to use sophisticated algorithms or structures for the first and / or second network which can deliver input values or reference values with high precision, with which the decision network is subsequently trained.
Besonders vorteilhaft lässt sich der hier vorgestellte Ansatz im Bereich der Auswertung von Signalen von Fahrzeugsensoren einsetzen, um auch eine Reduktion von Datenraten zu erreichen, die beispielsweise für mobile Anwendungen wie der Lokalisierung eines Fahrzeugs unter Verwendung einer in einem zentralen Rechner gespeicherten Referenzkarte erforderlich sind. Hierzu können gemäß einer weiteren Ausführungsform des hier vorgestellten Ansatzes im Schritt des Einlesens als erster Sensorsignalvektor Messwerte des ersten Sensors eines Fahrzeugs eingelesen werden und als zweiter Sensorsignalvektor Messwerte des zweiten Sensors eines Fahrzeugs eingelesen werden, insbesondere wobei der erste Sensor als ein Radarsensor ausgebildet ist und der zweite Sensor als ein Lidarsensor ausgebildet ist oder wobei der erste Sensor als ein Lidarsensor ausgebildet ist und der zweite Sensor als ein Radarsensor ausgebildet ist.The approach presented here can be used particularly advantageously in the field of evaluating signals from vehicle sensors in order to also achieve a reduction in data rates that are required, for example, for mobile applications such as the localization of a vehicle using a reference map stored in a central computer. According to a further embodiment of the approach presented here, measured values from the first sensor of a vehicle can be read in as the first sensor signal vector and measured values from the second sensor of a vehicle can be read in as the second sensor signal vector, in particular the first sensor being designed as a radar sensor and the second sensor is designed as a lidar sensor or wherein the first sensor is designed as a lidar sensor and the second sensor is designed as a radar sensor.
Besonders günstig und einfach umsetzbar ist eine Ausführungsform des hier vorgestellten Ansatzes, bei der im Schritt des Einlesens als Messwert eines als Radarsensor ausgebildeten Sensors ein eine in Bezug auf das Objekt erfasste Distanz, einen Azimutwinkel, einen Höhenwinkel, einen Dopplerfrequenz-Verschiebungswert zwischen einem ausgesendeten und einem vom Objekt empfangenen Radarstrahl oder ein einen Radar-Querschnitt repräsentierender Wert eingelesen wird. Alternativ oder zusätzlich kann im Schritt des Einlesens als Messwert eines als Lidarsensor ausgebildeten Sensor ein einen Intensitätswert eines von Objekt reflektieren Laserstrahls, einen SNR-Wert, einen x-Wert, einen y-Wert einen z-Wert eines vom Objekt reflektierten Laserstrahls in Bezug auf ein Sensorkoordinatensystem repräsentierender Wert eingelesen werden.An embodiment of the approach presented here is particularly cheap and easy to implement, in which, in the reading-in step, the measured value of a sensor designed as a radar sensor is a distance detected in relation to the object, an azimuth angle, an elevation angle, a Doppler frequency shift value between a transmitted and a radar beam received from the object or a value representing a radar cross-section is read in. Alternatively or additionally, in the reading-in step, an intensity value of a laser beam reflected from the object, an SNR value, an x value, a y value, a z value of a laser beam reflected from the object can be used as a measured value from a sensor designed as a lidar sensor a value representing a sensor coordinate system can be read.
Gemäß einer weiteren Ausführungsform lassen sich die Vorteile des hier vorgestellten Ansatzes als Verfahren zur Erkennung von zumindest einem Objekt aus Daten zumindest eines ersten Sensorsignalvektors und/oder eines zweiten Sensorsignalvektors implementieren. Dabei umfasst das Verfahren die folgenden Schritte: Einlesen des ersten Sensorsignalvektors und des zweiten Sensorsignalvektors, wobei der erste Sensorsignalvektor zumindest einen Messwert eines ersten Sensors einer ersten Sensortechnologie und der zweite Sensorsignalvektor zumindest einen Messwert eines zweiten Sensors einer von der ersten Sensortechnologie unterschiedlichen zweiten Sensortechnologie aufweist, wobei der erste Sensorsignalvektor ein Objekt aus einem Blickwinkel des ersten Sensors repräsentiert und der zweite Signalvektor das Objekt aus einem Blickwinkel des zweiten Sensors repräsentiert, wobei im Schritt des Einlesens ferner ein gemäß einer hier vorgestellten Variante trainiertes Entscheidungsnetzwerk eingelesen wird; und Detektieren des Objektes aus dem ersten und/oder dem zweiten Sensorsignalvektor als Eingangsvektor des trainierten Entscheidungsnetzwerkes.According to a further embodiment, the advantages of the approach presented here can be implemented as a method for recognizing at least one object from data of at least one first sensor signal vector and / or one second sensor signal vector. The method comprises the following steps: Reading in the first sensor signal vector and the second sensor signal vector, the first sensor signal vector having at least one measured value from a first sensor of a first sensor technology and the second sensor signal vector having at least one measured value from a second sensor of a second sensor technology different from the first sensor technology, wherein the first sensor signal vector represents an object from a point of view of the first sensor and the second signal vector represents the object from a point of view of the second sensor, wherein in the step of reading in a decision network trained according to a variant presented here is also read in; and detecting the object from the first and / or the second sensor signal vector as an input vector of the trained decision network.
Durch eine solche Ausführungsform lässt sich das zuvor trainierte Entscheidungsnetzwerk sehr effizient einsetzen, sodass beispielsweise die vorstehend genannte Reduktion der Datenrate bei der Übertragung von Merkmalen oder erkannten Objekten sehr einfach realisiert werden kann.With such an embodiment, the previously trained decision network can be used very efficiently, so that, for example, the aforementioned reduction in the data rate in the transmission of features or recognized objects can be implemented very easily.
Besonders effizient ist eine Ausführungsform des hier vorgestellten Ansatzes, bei der ein Schritt des Markierens des detektierten Objektes in einer eine Umgebung des ersten und/oder zweiten Sensors repräsentierenden Karte vorgesehen ist. Auf diese Weise lassen sich die erkannten Objekte beispielsweise für eine spätere Auswertung oder Übertragung der Karte in diese integrieren, sodass beispielsweise weitere Fahrzeuge deren Betrieb oder Funktion auf die erkannten Objekt in der Umgebung des Fahrzeugs abstimmen können.An embodiment of the approach presented here is particularly efficient, in which a step of marking the detected object is provided in a map representing the surroundings of the first and / or second sensor. In this way, the detected objects can be integrated into the map, for example for later evaluation or transmission, so that, for example, other vehicles can adjust their operation or function to the detected objects in the vicinity of the vehicle.
Hierzu kann beispielsweise gemäß einer weiteren Ausführungsform im Schritt des Einlesens der erste und/oder zweite Sensorsignalvektor eingelesen werden, der von einem entsprechenden ersten und zweiten Sensor eines Fahrzeugs bereitgestellt wurden. Auf diese Weise kann sichergestellt werden, dass beispielsweise unterschiedliche Merkmale des gleichen Objektes, die mittels unterschiedlichen Sensortechnologien in unterschiedlichen Umgebungsszenarien auch unterschiedlichen deutlich abgebildet werden können, zu einer präzisen Erkennung des Objektes führen, unabhängig von dem tatsächlichen aktuellen Umgebungsszenario um das Fahrzeug.For this purpose, according to a further embodiment, the first and / or second sensor signal vector, which was provided by a corresponding first and second sensor of a vehicle, can be read in in the reading-in step. In this way, it can be ensured that, for example, different features of the same object, which can be clearly mapped using different sensor technologies in different environmental scenarios, lead to precise detection of the object, regardless of the actual current environmental scenario around the vehicle.
Auch kann der hier vorgestellte Ansatz als Vorrichtung umgesetzt sein, die eingerichtet ist, um die Schritte einer Variante des Verfahrens zur Ermittlung eines trainierten Entscheidungsnetzwerks und/oder die Schritte einer Variante des Verfahrens zur Erkennung von zumindest einem Objekt aus Daten zumindest eines ersten Sensorsignalvektors und/oder eines zweiten Sensorsignalvektors in entsprechenden Einheiten auszuführen und/oder anzusteuern.The approach presented here can also be implemented as a device that is set up to carry out the steps of a variant of the method for determining a trained decision network and / or to execute and / or control the steps of a variant of the method for recognizing at least one object from data of at least one first sensor signal vector and / or one second sensor signal vector in corresponding units.
Eine Vorrichtung kann ein elektrisches Gerät sein, das elektrische Signale, beispielsweise Sensorsignale verarbeitet und in Abhängigkeit davon Steuersignale ausgibt. Die Vorrichtung kann eine oder mehrere geeignete Schnittstelle aufweisen, die hard- und/oder softwaremäßig ausgebildet sein können. Bei einer hardwaremäßigen Ausbildung können die Schnittstellen beispielsweise Teil einer integrierten Schaltung sein, in der Funktionen der Vorrichtung umgesetzt sind. Die Schnittstellen können auch eigene, integrierte Schaltkreise sein oder zumindest teilweise aus diskreten Bauelementen bestehen. Bei einer softwaremäßigen Ausbildung können die Schnittstellen Softwaremodule sein, die beispielsweise auf einem Mikrocontroller neben anderen Softwaremodulen vorhanden sind.A device can be an electrical device that processes electrical signals, for example sensor signals, and outputs control signals as a function thereof. The device can have one or more suitable interfaces which can be designed in terms of hardware and / or software. In the case of a hardware design, the interfaces can, for example, be part of an integrated circuit in which functions of the device are implemented. The interfaces can also be separate, integrated circuits or at least partially consist of discrete components. In the case of a software design, the interfaces can be software modules that are present, for example, on a microcontroller alongside other software modules.
Von Vorteil ist auch ein Computerprogrammprodukt mit Programmcode, der auf einem maschinenlesbaren Träger wie einem Halbleiterspeicher, einem Festplattenspeicher oder einem optischen Speicher gespeichert sein kann und zur Durchführung des Verfahrens nach einer der vorstehend beschriebenen Ausführungsformen verwendet wird, wenn das Programm auf einem Computer oder einer Vorrichtung ausgeführt wird.Also of advantage is a computer program product with program code which can be stored on a machine-readable carrier such as a semiconductor memory, a hard disk memory or an optical memory and is used to carry out the method according to one of the embodiments described above when the program is on a computer or a device is performed.
Die Erfindung wird anhand der beigefügten Zeichnungen beispielhaft näher erläutert. Es zeigen:
-
1 eine schematische Darstellung eines Fahrzeugs mit einer Vorrichtung gemäß einem Ausführungsbeispiel zur Erkennung von zumindest einem Objekt; -
2 ein Blockschaltbild eines beispielhaften AutoEncoders als Ausführungsbeispiel eines Teils einer für das erste und/oder zweite Netzwerk verwendbaren Netzwerk-Architektur; -
3 eine schematische Darstellung der Vorgehensweise gemäß einem Ausführungsbeispiel für einen ersten Schritt des hier vorgeschlagenen Verfahrens bzw. Ansatzes; -
4 eine schematische Darstellung einer Vorgehensweise gemäß einem Ausführungsbeispiel für einen zweiten Schritt des hier vorgeschlagenen Verfahrens bzw. Ansatzes; -
5 eine schematische Darstellung einer Struktur oder Arbeitsweise des Verknüpfungsnetzwerkes; -
6 ein Ablaufdiagramm eines Ausführungsbeispiels eines Verfahrens zur Ermittlung eines trainierten Entscheidungsnetzwerks; und -
7 ein Ablaufdiagramm eines Ausführungsbeispiels eines Verfahrens zur Erkennung von zumindest einem Objekt.
-
1 a schematic representation of a vehicle with a device according to an embodiment for the detection of at least one object; -
2 a block diagram of an exemplary AutoEnoder as an exemplary embodiment of a part of a network architecture that can be used for the first and / or second network; -
3 a schematic representation of the procedure according to an exemplary embodiment for a first step of the method or approach proposed here; -
4th a schematic representation of a procedure according to an exemplary embodiment for a second step of the method or approach proposed here; -
5 a schematic representation of a structure or mode of operation of the linking network; -
6th a flowchart of an embodiment of a method for determining a trained decision network; and -
7th a flowchart of an embodiment of a method for recognizing at least one object.
In der nachfolgenden Beschreibung bevorzugter Ausführungsbeispiele der vorliegenden Erfindung werden für die in den verschiedenen Figuren dargestellten und ähnlich wirkenden Elemente gleiche oder ähnliche Bezugszeichen verwendet, wobei auf eine wiederholte Beschreibung dieser Elemente verzichtet wird.In the following description of preferred exemplary embodiments of the present invention, identical or similar reference symbols are used for the elements shown in the various figures and having a similar effect, a repeated description of these elements being dispensed with.
Der erste Sensorsignalvektor
Um nun eine besonders einfache Merkmalserkennung zu ermöglichen, wird vorteilhafterweise ein ein trainiertes Entscheidungsnetzwerk
Um nun das Entscheidungsnetzwerk
Der hier vorgestellte Ansatz nutzt eine Architektur eines sogenannten „Merkmal-lernenden Netzwerks“. Ein Beispiel für eine solche Architektur könnte ein AutoEncoder sein, wie er nachfolgend näher beschrieben ist.The approach presented here uses an architecture of a so-called "feature-learning network". An example of such an architecture could be an AutoEncoder, as described in more detail below.
Die typischen Eingangssignale bzw. Messwerte eines ersten Sensorsignalvektors
Die typischen Eingangssignale bzw. Messwerte eines zweiten Sensorsignalvektors
Weiterhin können Daten von anderen Sensoren wie beispielsweise Kameras oder Ultraschall ebenfalls verwendet werden. Andere Methoden/Verfahren für Merkmal-lernende Netzwerke und Verknüpfungsnetzwerk können ebenfalls angewendet werden.Furthermore, data from other sensors such as cameras or ultrasound can also be used. Other methods / procedures for feature learning networks and interconnection networks can also be used.
Die beschriebenen und in den Figuren gezeigten Ausführungsbeispiele sind nur beispielhaft gewählt. Unterschiedliche Ausführungsbeispiele können vollständig oder in Bezug auf einzelne Merkmale miteinander kombiniert werden. Auch kann ein Ausführungsbeispiel durch Merkmale eines weiteren Ausführungsbeispiels ergänzt werden.The exemplary embodiments described and shown in the figures are selected only as examples. Different exemplary embodiments can be combined with one another completely or with regard to individual features. An exemplary embodiment can also be supplemented by features of a further exemplary embodiment.
Ferner können erfindungsgemäße Verfahrensschritte wiederholt sowie in einer anderen als in der beschriebenen Reihenfolge ausgeführt werden.Furthermore, method steps according to the invention can be repeated and carried out in a sequence other than that described.
Umfasst ein Ausführungsbeispiel eine „und/oder“ Verknüpfung zwischen einem ersten Merkmal und einem zweiten Merkmal, so kann dies so gelesen werden, dass das Ausführungsbeispiel gemäß einer Ausführungsform sowohl das erste Merkmal als auch das zweite Merkmal und gemäß einer weiteren Ausführungsform entweder nur das erste Merkmal oder nur das zweite Merkmal aufweist.If an exemplary embodiment comprises a “and / or” link between a first feature and a second feature, this can be read in such a way that the exemplary embodiment according to one embodiment has both the first feature and the second feature and according to a further embodiment either only the first Has feature or only the second feature.
BezugszeichenlisteList of reference symbols
- 100100
- Fahrzeugvehicle
- 105105
- Vorrichtung zur Erkennung von zumindest einem ObjektDevice for recognizing at least one object
- 110110
- Objektobject
- 115115
- erster Sensorfirst sensor
- ST1ST1
- erster Sensorsignalvektorfirst sensor signal vector
- 120120
- zweiter Sensorsecond sensor
- 125125
- erstes Netzwerkfirst network
- 126126
- erster Deskriptorfirst descriptor
- 127127
- erstes Ausgangssignalfirst output signal
- ST2ST2
- zweiter Sensorsignalvektorsecond sensor signal vector
- 130130
- zweites Netzwerksecond network
- 131131
- zweiter Deskriptorsecond descriptor
- 132132
- zweites Ausgangssignalsecond output signal
- 135135
- Einheit zur DetektionDetection unit
- 140140
- EntscheidungsnetzwerkDecision-making network
- 145145
- MerkmalsextraktorFeature extractor
- 150150
- KartenmanagementeinheitCard management unit
- 155155
- digitale Kartedigital map
- 160160
- Merkmalssignal Feature signal
- 200200
- AutoEncoderAutoEncoder
- 210210
- EncoderEncoder
- 215215
- FlaschenhalsBottleneck
- 220220
- Decoderdecoder
- 230230
- Netzwerk network
- 300a300a
- erster Deskriptorfirst descriptor
- 300b300b
- zweiter Deskriptor second descriptor
- 400400
- generalisierter Deskriptorgeneralized descriptor
- 410410
- Verknüpfungsnetzwerk Link network
- 500500
- VerlustfunktionLoss function
- 510510
- Diskriminator Discriminator
- 600600
- Verfahren zur Ermittlung eines trainierten EntscheidungsnetzwerksMethod for determining a trained decision network
- 610610
- Schritt des EinlesensReading step
- 620620
- Schritt des AdaptierensStep of adaptation
- 630630
- Schritt des Trainierens Step of exercising
- 700700
- Verfahren zur Erkennung von zumindest einem ObjektMethod for recognizing at least one object
- 710710
- Schritt des EinlesensReading step
- 720720
- Schritt des DetektierensDetecting step
Claims (15)
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102019203953.7A DE102019203953A1 (en) | 2019-03-22 | 2019-03-22 | Method and device for determining a trained decision network |
PCT/EP2020/056416 WO2020193126A1 (en) | 2019-03-22 | 2020-03-11 | Method and device for determining a trained decision network |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102019203953.7A DE102019203953A1 (en) | 2019-03-22 | 2019-03-22 | Method and device for determining a trained decision network |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102019203953A1 true DE102019203953A1 (en) | 2020-09-24 |
Family
ID=69804886
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102019203953.7A Pending DE102019203953A1 (en) | 2019-03-22 | 2019-03-22 | Method and device for determining a trained decision network |
Country Status (2)
Country | Link |
---|---|
DE (1) | DE102019203953A1 (en) |
WO (1) | WO2020193126A1 (en) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170206464A1 (en) * | 2016-01-14 | 2017-07-20 | Preferred Networks, Inc. | Time series data adaptation and sensor fusion systems, methods, and apparatus |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE4100500A1 (en) * | 1991-01-10 | 1992-07-16 | Bodenseewerk Geraetetech | SIGNAL PROCESSING ARRANGEMENT FOR THE CLASSIFICATION OF OBJECTS BASED ON THE SIGNALS OF SENSORS |
-
2019
- 2019-03-22 DE DE102019203953.7A patent/DE102019203953A1/en active Pending
-
2020
- 2020-03-11 WO PCT/EP2020/056416 patent/WO2020193126A1/en active Application Filing
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170206464A1 (en) * | 2016-01-14 | 2017-07-20 | Preferred Networks, Inc. | Time series data adaptation and sensor fusion systems, methods, and apparatus |
Non-Patent Citations (3)
Title |
---|
WIKIPEDIA: Generative Adversarial Networks. 06. März 2019. URL: https://de.wikipedia.org/w/index.php?title=Generative_Adversarial_Networks&oldid=186300084 [abgerufen am 27.02.2020] * |
YAGINUMA, Yoshinori; KIMOTO, Takashi; YAMAKAWA, Hiroshi: Multi-sensor fusion model for constructing internal representation using autoencoder neural networks. In: Proceedings of International Conference on Neural Networks (ICNN'96), 3-6 June 1996, Vol. 4, S. 1646-1651. – ISBN 0-7803-3210-5 * |
ZHANG, Pengfei [et al.]: Multimodal fusion for sensor data using stacked autoencoders. In: 2015 IEEE Tenth International Conference on Intelligent Sensors, Sensor Networks and Information Processing (ISSNIP), 7-9 April 2015, 2 Seiten. – ISBN 978-1-4799-8055-0 * |
Also Published As
Publication number | Publication date |
---|---|
WO2020193126A1 (en) | 2020-10-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102019008142A1 (en) | Learning of representations using common semantic vectors | |
EP3847578A1 (en) | Method and device for classifying objects | |
DE202017102235U1 (en) | training system | |
DE102020110157A1 (en) | Image recognition device | |
DE112020000448T5 (en) | CAMERA SELF CALIBRATION NETWORK | |
WO2020094534A1 (en) | Method for training an artificial neural network, artificial neural network, use of an artificial neural network, corresponding computer program, machine-readable storage medium and corresponding device | |
DE102017006155A1 (en) | Method for operating a sensor system of a vehicle | |
EP3557487A1 (en) | Generation of validation data with generative contradictory networks | |
DE112020003050T5 (en) | ERROR COMPENSATION IN ANALOG NEURAL NETWORKS | |
DE102020200911B3 (en) | Method for recognizing objects in the surroundings of a vehicle | |
DE102019215903A1 (en) | Method and device for generating training data for a recognition model for recognizing objects in sensor data of a sensor, in particular of a vehicle, method for training and method for actuation | |
Krajewski et al. | Béziervae: Improved trajectory modeling using variational autoencoders for the safety validation of highly automated vehicles | |
DE102018128535B4 (en) | Training an artificial neural network with data captured by sensors in a vehicle | |
EP3557490A1 (en) | Training method | |
DE102018209382A1 (en) | Camera-based docking of vehicles using artificial intelligence | |
DE102020200503A1 (en) | Method for generating labeled data, in particular for training a neural network, by improving initial labels | |
DE102019203953A1 (en) | Method and device for determining a trained decision network | |
DE202019105304U1 (en) | Device for creating an artificial neural network | |
DE102022100545A1 (en) | IMPROVED OBJECT RECOGNITION | |
DE102017223264A1 (en) | Method and device for driving an actuator | |
DE102021201833A1 (en) | Device for processing at least one input data set using a neural network and method | |
EP4049186A1 (en) | Method for making a neural network more robust against adversarial disruptions | |
DE102020212921A1 (en) | Method, computer program and device for evaluating a usability of simulation data | |
DE102021132025A1 (en) | Method for determining similar scenarios, training method and training controller | |
DE102022204770A1 (en) | Method for controlling a robotic device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R163 | Identified publications notified | ||
R012 | Request for examination validly filed |