DE102022000238A1 - Method for training and testing an algorithm for predicting agents in a vehicle environment - Google Patents

Method for training and testing an algorithm for predicting agents in a vehicle environment Download PDF

Info

Publication number
DE102022000238A1
DE102022000238A1 DE102022000238.8A DE102022000238A DE102022000238A1 DE 102022000238 A1 DE102022000238 A1 DE 102022000238A1 DE 102022000238 A DE102022000238 A DE 102022000238A DE 102022000238 A1 DE102022000238 A1 DE 102022000238A1
Authority
DE
Germany
Prior art keywords
trajectory
autoencoder
scenes
scene
searched
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102022000238.8A
Other languages
German (de)
Other versions
DE102022000238A8 (en
Inventor
Julian Schmid
Julian Wiederer
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mercedes Benz Group AG
Original Assignee
Daimler AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daimler AG filed Critical Daimler AG
Priority to DE102022000238.8A priority Critical patent/DE102022000238A1/en
Publication of DE102022000238A1 publication Critical patent/DE102022000238A1/en
Publication of DE102022000238A8 publication Critical patent/DE102022000238A8/en
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/191Design or setup of recognition systems or techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
    • G06V30/19147Obtaining sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Probability & Statistics with Applications (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Traffic Control Systems (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zum Trainieren und Testen eines Algorithmus zur Prädiktion von Agenten in einer Fahrzeugumgebung, welches mittels eines maschinell trainierten Trajektorienautoencoders (1) durchgeführt wird. Dabei werden nach dem Training des Trajektorienautoencoders (1) zu einem Auffinden ähnlicher Szenen (S1 bis Sn) mittels des Trajektorienautoencoders (1) für einen gesamten nach ähnlichen Szenen (S1 bis Sm) zu durchsuchenden Datensatz (D) bestehend aus allen Szenen (S1 bis Sn), latente Repräsentationen (R1 bis Rn) erzeugt. Weiterhin wird eine zu suchende Szene (S), für welche ähnliche Szenen (S1 bis Sm) im Datensatz (D) gefunden werden sollen, codiert und für die zu suchende Szene (S) wird eine latente Repräsentation (R) gebildet. Mittels einer Ähnlichkeitsmetrik (3) wird die latente Repräsentation (R) der zu suchenden Szene (S) mit allen anderen latenten Repräsentationen (R1 bis Rn) im Datensatz (D) verglichen und ähnliche Szenen (S1 bis Sm) werden gesucht. Mittels des trainierten Trajektorienautoencoders (1) und gefundenen ähnlichen Szenen (S1 bis Sm) wird ein bestehender Trajektorienprädiktionsalgorithmus trainiert, nachtrainiert und/oder getestet.The invention relates to a method for training and testing an algorithm for predicting agents in a vehicle environment, which is carried out using a machine-trained trajectory autoencoder (1). After the training of the trajectory autoencoder (1), similar scenes (S1 to Sn) are found using the trajectory autoencoder (1) for an entire data set (D) to be searched for similar scenes (S1 to Sm) consisting of all scenes (S1 to Sn), latent representations (R1 to Rn) generated. Furthermore, a scene (S) to be searched for, for which similar scenes (S1 to Sm) are to be found in the data set (D), is encoded and a latent representation (R) is formed for the scene (S) to be searched for. Using a similarity metric (3), the latent representation (R) of the scene (S) to be searched for is compared with all other latent representations (R1 to Rn) in the dataset (D) and similar scenes (S1 to Sm) are searched for. An existing trajectory prediction algorithm is trained, retrained and/or tested by means of the trained trajectory autoencoder (1) and found similar scenes (S1 to Sm).

Description

Die Erfindung betrifft ein Verfahren zum Trainieren und Testen eines Algorithmus zur Prädiktion von Agenten in einer Fahrzeugumgebung gemäß dem Oberbegriff des Anspruchs 1.The invention relates to a method for training and testing an algorithm for predicting agents in a vehicle environment according to the preamble of claim 1.

Aus der EP 3 663 965 A1 ist ein computerimplementiertes Verfahren bekannt, umfassend eine Betriebsphase und umfassend die Schritte:

  • - Empfangen eines oder mehrerer multimodaler Videoframes von mehreren Modalitäten einer Fahrzeugumgebung, die gegenwärtigen und vergangenen Zeitstempeln entsprechen;
  • - Kodieren in eine latente Darstellung, wobei die Multimodalitäts-Videoframes durch ein räumlich-zeitliches Codierungs-Faltungs-Neuralnetzwerk codiert werden;
  • - Kombinieren zu einer zusammengesetzten Darstellung, wobei die latente Darstellung mit codierten Konditionierungsparametern entsprechend Zeitstempeln am gewünschten zukünftigen Zeithorizont entspricht; und
  • - Vorhersagen mehrerer zukünftiger multimodaler Videoframes entsprechend mehreren zukünftigen Modi eines multimodalen zukünftigen Lösungsraums mit zugeordneten Likelihood-Koeffizienten mittels eines generativen neuronalen Faltungsnetzwerks, welches zuvor in einem mittels eines generativen faltenden neuronalen Netzwerks durchgeführten Trainings trainiert wurde.
From the EP 3 663 965 A1 a computer-implemented method is known, comprising an operating phase and comprising the steps:
  • - receiving one or more multi-modal video frames from multiple modalities of a vehicle environment corresponding to current and past time stamps;
  • - encoding into a latent representation wherein the multimodality video frames are encoded by a spatio-temporal encoding convolutional neural network;
  • - combining into a composite representation, the latent representation having encoded conditioning parameters corresponding to timestamps at the desired future time horizon; and
  • - Predicting multiple future multimodal video frames corresponding to multiple future modes of a multimodal future solution space with associated likelihood coefficients using a generative convolutional neural network previously trained in a training performed using a generative convolutional neural network.

Der Erfindung liegt die Aufgabe zu Grunde, ein neuartiges Verfahren zur Prädiktion von Agenten in einer Fahrzeugumgebung anzugeben.The invention is based on the object of specifying a novel method for predicting agents in a vehicle environment.

Die Aufgabe wird erfindungsgemäß gelöst durch ein Verfahren welches die im Anspruch 1 angegebenen Merkmale aufweist.The object is achieved according to the invention by a method which has the features specified in claim 1.

Vorteilhafte Ausgestaltungen der Erfindung sind Gegenstand der Unteransprüche.Advantageous configurations of the invention are the subject matter of the dependent claims.

In einem Verfahren zum Trainieren und Testen eines Algorithmus zur Prädiktion von Agenten in einer Fahrzeugumgebung wird die Prädiktion mittels eines maschinell trainierten Trajektorienautoencoders durchgeführt.In a method for training and testing an algorithm for predicting agents in a vehicle environment, the prediction is performed using a machine-trained trajectory autoencoder.

Erfindungsgemäß lernt der Trajektorienautoencoder in dem Training, bei einer gegebenen Szene, deren unstrukturierte Datenmenge eine Trajektorie eines relevanten Agenten, Trajektorien umliegender Agenten, Interaktionen zwischen diesen Agenten und semantische Informationen umfasst, die Trajektorie des relevanten Agenten zu rekonstruieren. Dabei wird der Trajektorienautoencoder auf allen verfügbaren Daten trainiert. Weiterhin lernt der Trajektorienautoencoder, die unstrukturierte Datenmenge der Szene in eine informationshaltige strukturierte und latente Repräsentation zu codieren. Nach dem Training des Trajektorienautoencoders werden zu einem Auffinden ähnlicher Szenen mittels des Trajektorienautoencoders für einen gesamten nach ähnlichen Szenen zu durchsuchenden Datensatz, bestehend aus allen Szenen, latente Repräsentationen erzeugt. Weiterhin wird eine zu suchende Szene, für welche ähnliche Szenen im Datensatz gefunden werden sollen, codiert und für die zu suchende Szene wird latente Repräsentation gebildet. Mittels einer Ähnlichkeitsmetrik wird die latente Repräsentation der zu suchenden Szene mit allen anderen latenten Repräsentationen im Datensatz verglichen und es werden ähnliche Szenen gesucht. Wie folgend beschrieben kann das Auffinden ähnlicher Szenen in einem Datensatz vorteilhaft zum Trainieren, Nachtrainieren und Testen eines Trajektorienprädiktionsalgorithmus eingesetzt werden.According to the invention, the trajectory autoencoder learns in the training to reconstruct the trajectory of the relevant agent in a given scene whose unstructured dataset includes a trajectory of a relevant agent, trajectories of surrounding agents, interactions between these agents and semantic information. The trajectory autoencoder is trained on all available data. Furthermore, the trajectory autoencoder learns to encode the unstructured data volume of the scene into a structured and latent representation containing information. After the training of the trajectory autoencoder, latent representations are generated to find similar scenes by means of the trajectory autoencoder for an entire data set to be searched for similar scenes, consisting of all scenes. Furthermore, a scene to be searched for, for which similar scenes are to be found in the data set, is encoded and latent representation is formed for the scene to be searched for. Using a similarity metric, the latent representation of the scene to be searched for is compared with all other latent representations in the data set and similar scenes are searched for. As described below, finding similar scenes in a data set can be used advantageously for training, retraining and testing a trajectory prediction algorithm.

Eine Prädiktion von am Verkehr teilnehmenden, umliegenden Agenten ist eine essenzielle Voraussetzung zur Durchführung eines automatisierten, insbesondere hochautomatisierten oder autonomen Fahrbetriebs von Fahrzeugen. Besonders Algorithmen, welche auf Methoden des maschinellen Lernens basieren, haben sich für diese, als Trajektorienprädiktion bezeichnete Aufgabe als performant herausgestellt.A prediction of surrounding agents participating in traffic is an essential prerequisite for carrying out an automated, in particular highly automated or autonomous driving operation of vehicles. In particular, algorithms based on machine learning methods have proven to perform well for this task, known as trajectory prediction.

Eine Herausforderung lernbasierter Trajektorienprädiktionsalgorithmen ist eine Abdeckung so genannter Corner-Cases, also Szenen, die einen bestimmten und raren Zusammenhang besitzen, beispielsweise wenn ein Fahrzeug entgegen einer vorgeschriebenen Fahrtrichtung in einer Einbahnstraße fährt. Sind diese Corner-Cases nicht in ausreichender Menge im Datensatz vorhanden, besteht die Gefahr, dass ein gelerntes Modell auf den restlichen Datensatz generalisiert und die Corner-Cases nicht zufriedenstellend abdeckt.A challenge of learning-based trajectory prediction algorithms is the coverage of so-called corner cases, i.e. scenes that have a specific and rare connection, for example when a vehicle is driving in the opposite direction of travel on a one-way street. If these corner cases are not available in sufficient quantity in the data set, there is a risk that a learned model generalizes to the rest of the data set and does not cover the corner cases satisfactorily.

Bei einer beliebigen Szene, zum Beispiel einem speziellen Corner-Case, kann es demnach nützlich sein, in seinem Datensatz ähnliche Szenen zu finden, um beliebige Trajektorienprädiktionsalgorithmen auf diesen ähnlichen Szenen gewichtet zu trainieren oder umfangreich testen.In the case of any scene, for example a special corner case, it can therefore be useful to find similar scenes in one's dataset in order to train any trajectory prediction algorithms weighted on these similar scenes or to test them extensively.

Das zuvor Genannte trifft jedoch auch für allgemeine Szenen, wie beispielsweise Rechtsabbiegevorgänge, zu.However, the above also applies to general scenes such as right-turn operations.

Szenen sind dabei hochgradig unstrukturierte Daten, bestehend aus einer Trajektorie eines relevanten Agenten, also des Agenten, der beispielsweise den Corner-Case auslöst oder rechts abbiegt, Trajektorien umliegender weiterer Agenten, mit welchen der relevante Agent in einer Szene interagiert, und unterliegenden semantischen Informationen, wie beispielsweise eine Anordnung von Straßentopologien oder eine Position von Fußgängerüberwegen und Verkehrsampeln.Scenes are highly unstructured data, consisting of a trajectory of a relevant agent, i.e. the agent who, for example, triggers the corner case or turns right, trajectories of other surrounding agents, with wel chen the relevant agent interacts in a scene, and underlying semantic information, such as an arrangement of street topologies or a position of pedestrian crossings and traffic lights.

Eine Ähnlichkeit von Szenen hängt dabei allerdings nicht von einer Ähnlichkeit von Koordinaten des relevanten Agenten, beispielsweise einem Auffinden gleicher Kreuzung mit gleichen Koordinaten, ab, sondern von einer gesamten Datenmenge der Szene. Hierzu gehören die Trajektorie des relevanten Agenten, die Trajektorien umliegender Agenten, Interaktionen zwischen diesen Agenten und die semantischen Informationen, welche beispielsweise durch eine hochauflösende Karte gegeben sind.However, a similarity of scenes does not depend on a similarity of coordinates of the relevant agent, for example finding the same intersection with the same coordinates, but on an entire dataset of the scene. This includes the trajectory of the relevant agent, the trajectories of surrounding agents, interactions between these agents and the semantic information, which is given by a high-resolution map, for example.

Mittels des vorliegenden Verfahrens ist es in besonders vorteilhafter Weise möglich, ähnliche Szenen unter Berücksichtigung der zuvor genannten unstrukturierten Informationen aufzufinden. Dabei bezieht das Verfahren eine gesamte Szene mit ihren hochgradig unstrukturierten Daten ganzheitlich in eine Auswahl ähnlicher Szenen mit ein. Dadurch können auch besonders große Datensätze für das Training von Trajektorienprädiktionsalgorithmen nach ähnlichen Szenen durchsucht werden. Auch ermöglicht das Verfahren ein Nachtrainieren und ein ausführliches Testen von Trajektorienprädiktionsalgorithmen mit ähnlichen und eventuell kritischen Szenen.Using the present method, it is possible in a particularly advantageous manner to find similar scenes, taking into account the aforementioned unstructured information. The process includes an entire scene with its highly unstructured data in a selection of similar scenes. This means that particularly large data sets for training trajectory prediction algorithms can also be searched for similar scenes. The method also enables post-training and extensive testing of trajectory prediction algorithms with similar and possibly critical scenes.

Ausführungsbeispiele der Erfindung werden im Folgenden anhand von Zeichnungen näher erläutert.Exemplary embodiments of the invention are explained in more detail below with reference to drawings.

Dabei zeigen:

  • 1 schematisch einen Ablauf eines Verfahrens zur Prädiktion von Agenten in einer Fahrzeugumgebung,
  • 2 schematisch ein Training eines Trajektorienautoencoders und
  • 3 schematisch ein Auffinden ähnlicher Szenen.
show:
  • 1 schematically shows a process for predicting agents in a vehicle environment,
  • 2 schematically a training of a trajectory autoencoder and
  • 3 schematically a finding of similar scenes.

Einander entsprechende Teile sind in allen Figuren mit den gleichen Bezugszeichen versehen.Corresponding parts are provided with the same reference symbols in all figures.

In 1 ist ein Ablauf eines möglichen Ausführungsbeispiels eines Verfahrens zur Prädiktion von Agenten in einer Fahrzeugumgebung dargestellt.In 1 a sequence of a possible exemplary embodiment of a method for predicting agents in a vehicle environment is shown.

In einem ersten Verfahrensschritt V1 wird ein Training eines in den 1 und 2 näher dargestellten Trajektorienautoencoders 1 durchgeführt.In a first step V1 a training in the 1 and 2 Carried out trajectory autoencoders 1 shown in more detail.

In einem zweiten Verfahrensschritt V2 wird in Abhängigkeit einer gegebenen zu suchenden Szene°S mittels des trainierten Trajektorienautoencoders 1 zumindest ein ebenfalls in 3 näher dargestellter Datensatz D nach ähnlichen Szenen S1 bis Sn durchsucht. Die Szenen S1 bis Sn sind in 3 näher dargestellt. Über eine Ähnlichkeitsmektrik in einem latenten Repräsentationsraum werden ähnliche Szenen°S1 bis°Sm identifiziertIn a second method step V2, depending on a given scene°S to be searched for, at least one also in 3 data set D shown in more detail is searched for similar scenes S1 to Sn. Scenes S1 to Sn are in 3 shown in more detail. Similar scenes°S1 to°Sm are identified via a similarity metric in a latent representation space

In einem dritten Verfahrensschritt V3 wird mittels der identifizierten Szenen°S1 bis°Sm ein Trajektorienprädiktionsalgorithmus trainiert, nachtrainiert oder getestet.In a third method step V3, a trajectory prediction algorithm is trained, post-trained or tested using the identified scenes °S1 to °Sm.

2 zeigt ein mögliches Ausführungsbeispiel eines Trainings des Trajektorienautoencoders 1. 2 shows a possible embodiment of a training of the trajectory autoencoder 1.

In diesem Training lernt der Trajektorienautoencoder 1, bei einer gegebenen Szene S, aus der Menge aller Szenen S1 bis Sn im Datensatz D, deren unstrukturierte Datenmenge eine Trajektorie T1 eines relevanten Agenten, beispielsweise eines Fahrzeugs, Trajektorien T2 bis Tx umliegender Agenten, beispielsweise weiterer Fahrzeuge, Interaktionen zwischen diesen Agenten und semantische Informationen umfasst, die Trajektorie T1 des relevanten Agenten zu rekonstruieren. Die semantischen Informationen sind dabei durch eine hochauflösende Karte 2 gegeben. Der Trajektorienautoencoder 1 wird dabei auf allen verfügbaren Daten trainiert. Dabei lernt der Trajektorienautoencoder 1, die unstrukturierte Datenmenge der Szene S, S1 bis Sn in eine informationshaltige strukturierte und latente, und somit nicht interpretierbare Repräsentation R, R1 bis Rn zu codieren.In this training, the trajectory autoencoder 1 learns, for a given scene S, from the set of all scenes S1 to Sn in the data set D, whose unstructured data set is a trajectory T1 of a relevant agent, for example a vehicle, trajectories T2 to Tx of surrounding agents, for example other vehicles , interactions between these agents and semantic information to reconstruct the trajectory T1 of the relevant agent. The semantic information is given by a high-resolution map 2 . The trajectory autoencoder 1 is trained on all available data. In the process, the trajectory autoencoder 1 learns to encode the unstructured data volume of the scene S, S1 to Sn into an information-containing structured and latent representation R, R1 to Rn that cannot be interpreted.

Dabei werden die Daten einem Encoder 1.1 des Trajektorienautoencoders 1 zugeführt, welcher aus den Daten die latente Repräsentation R, R1 bis Rn der Szene S, S1 bis Sn für eine Rekonstruktion der Trajektorie T des relevanten Agenten erzeugt. Diese Repräsentation R, R1 bis Rn wird einem Decoder 1.2 des Trajektorienautoencoders 1 zugeführt, welcher aus der Repräsentation R, R1 bis Rn eine rekonstruierte Trajektorie T1' des relevanten Agenten erzeugt.The data is fed to an encoder 1.1 of the trajectory autoencoder 1, which generates the latent representation R, R1 to Rn of the scene S, S1 to Sn for a reconstruction of the trajectory T of the relevant agent from the data. This representation R, R1 to Rn is supplied to a decoder 1.2 of the trajectory autoencoder 1, which generates a reconstructed trajectory T1' of the relevant agent from the representation R, R1 to Rn.

Als Trajektorienautoencoder 1 kann dabei ein beliebiger, bereits vorhandener Trajektorienprädiktionsalgorithmus verwendet werden. Dieser wird so angepasst, dass er die Rekonstruktionsaufgabe und nicht mehr die Prädiktionsaufgabe des relevanten Agenten übernimmt. Ein solcher als LaneCGN bezeichneter Trajektorienprädiktionsalgorithmus ist beispielsweise aus „Ming Liang, et. al: Learning Lane Graph Representations for Motion Forecasting; https://arxiv.org/abs/2007.13732“ bekannt. Ein weiterer, als Trajectron++ bezeichneter Trajektorienprädiktionsalgorithmus ist beispielsweise aus „Tim Salzmann, et. al: Trajectron++: Dynamically-Feasible Trajectory Forecasting With Heterogeneous Data; https://arxiv.org/abs/2001.03093“ bekannt. Ein weiterer, als MTP bezeichneter Trajektorienprädiktionsalgorithmus ist beispielsweise aus „Henggang Cui, et. al: Multimodal Trajectory Predictions for Autonomous Driving using Deep Convolutional Networks; https://arxiv.org/abs/1809.10732“ bekannt.Any existing trajectory prediction algorithm can be used as the trajectory autoencoder 1 . This is adapted in such a way that it takes over the reconstruction task and no longer the prediction task of the relevant agent. Such a trajectory prediction algorithm, referred to as LaneCGN, is known, for example, from “Ming Liang, et. al: Learning Lane Graph Representations for Motion Forecasting; https://arxiv.org/abs/2007.13732". Another trajectory prediction algorithm called Trajectron++ is known, for example, from “Tim Salzmann, et. al: Trajectron++: Dynamically Feasible Trajectory Forecasting With Heterogeneous Data; https://arxiv.org/abs/2001.03093". Another trajectory prediction algorithm referred to as MTP is known, for example, from “Henggang Cui, et. al: Multimodal Trajectory Predictions for Autonomous Driving using Deep Convolutional Networks; https://arxiv.org/abs/1809.10732".

In 3 ist ein mögliches Ausführungsbeispiel eines Auffindens ähnlicher Szenen S1 bis Sm mittels des gemäß 2 trainierten Trajektorienautoencoders 1 dargestellt.In 3 is a possible embodiment of finding similar scenes S1 to Sm using the according 2 trained trajectory autoencoders 1 shown.

Nach dem Training des Trajektorienautoencoders 1 werden zu einem Auffinden ähnlicher Szenen S1 bis Sm zu einer zu suchenden Szene S mittels des Trajektorienautoencoders 1 für den gesamten nach ähnlichen Szenen S1 bis Sm zu durchsuchenden Datensatz D, bestehend aus der Gesamtheit aller Szenen°S1°bis°Sn, latente Repräsentationen R1 bis Rn erzeugt. Der Decoder 1.2 ist hierfür nicht mehr erforderlich.After the training of the trajectory autoencoder 1, similar scenes S1 to Sm to a scene S to be searched for are found by means of the trajectory autoencoder 1 for the entire data set D to be searched for similar scenes S1 to Sm, consisting of the entirety of all scenes°S1°to° Sn, latent representations R1 through Rn generated. Decoder 1.2 is no longer required for this.

Weiterhin wird die zu suchende Szene S, für welche die ähnlichen Szenen S1 bis Sm im Datensatz D gefunden werden sollen, codiert und es wird für die zu suchende Szene S eine latente Repräsentation R gebildet. Der Decoder 1.2 ist hierfür nicht mehr erforderlich.Furthermore, the scene S to be searched for, for which the similar scenes S1 to Sm are to be found in the data set D, is encoded and a latent representation R is formed for the scene S to be searched for. Decoder 1.2 is no longer required for this.

Mittels einer Ähnlichkeitsmetrik 3 wird die latente Repräsentation R der zu suchenden Szene S mit allen anderen latenten Repräsentationen R1 bis Rn im Datensatz D verglichen und ähnliche Szenen S1 bis°Sm werden gesucht. Der Vergleich kann dabei beispielsweise über eine so genannte Kosinus-Ähnlichkeit erfolgen. Auf Basis der Ähnlichkeitsmetrik 3 können hierdurch ähnliche Szenen S1 bis Sm im latenten Raum gefunden werden.A similarity metric 3 is used to compare the latent representation R of the scene S to be searched for with all other latent representations R1 to Rn in the data set D, and similar scenes S1 to Sm are searched for. The comparison can be made, for example, via a so-called cosine similarity. On the basis of the similarity metric 3, similar scenes S1 to Sm can be found in the latent space.

Im Folgenden wird an einem Beispiel erläutert, welche Vorteile die Einbeziehung der aus der durch die hochauflösende Karte 2 gegebenen semantischen Informationen bei dem Training und bei der Anwendung des Trajektorienautoencoders 1 bewirkt.An example is used below to explain the advantages of including the semantic information given by the high-resolution map 2 in the training and in the use of the trajectory autoencoder 1 .

Beispielsweise zeichnet sich eine kritische Szene S mit einem Fußgängerüberweg dadurch aus, dass der relevante Agent, in diesem Fall ein Fahrzeug, rechts abbiegt. Mittels einer solchen Szene S wurde der Trajektorienautoencoder 1 trainiert. Zu dieser Szene S sollen ähnliche Szenen S1 bis Sm gefunden werden. Bekannte Ansätze würden eine Ähnlichkeit lediglich an der Trajektorie T1 des relevanten Agenten festmachen und somit ähnliche Rechtsabbiegevorgänge als Ergebnis liefern. Das vorliegende Verfahren berücksichtigt jedoch auch die semantischen Informationen der hochauflösenden Karte 2, so dass in vorteilhafter Weise Szenen S1 bis Sn mit Rechtsabbiegevorgängen und einem Fußgängerüberweg als ähnliche Ergebnisse geliefert werden. Es können somit deutlich detailliertere und passendere ähnliche Sznearien aufgefunden werden und für das anschließende Trainieren, Nachtrainieren oder Testen eines Trajektorienprädiktionsalgorithmus verwendet werden.For example, a critical scene S with a pedestrian crossing is characterized in that the relevant agent, in this case a vehicle, turns right. The trajectory autoencoder 1 was trained using such a scene S. Similar scenes S1 to Sm are to be found for this scene S. Known approaches would only fix a similarity to the trajectory T1 of the relevant agent and thus deliver similar right-turning processes as a result. However, the present method also takes into account the semantic information of the high-resolution map 2, so that scenes S1 to Sn with processes turning right and a pedestrian crossing are advantageously delivered as similar results. It is thus possible to find significantly more detailed and more suitable similar scenarios and use them for the subsequent training, retraining or testing of a trajectory prediction algorithm.

ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of documents cited by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturPatent Literature Cited

  • EP 3663965 A1 [0002]EP 3663965 A1 [0002]

Claims (1)

Verfahren zum Trainieren und Testen eines Algorithmus zur Prädiktion von Agenten in einer Fahrzeugumgebung, welche mittels eines maschinell trainierten Trajektorienautoencoders (1) durchgeführt wird, dadurch gekennzeichnet, dass in dem Training des Trajektorienautoencoders (1) der Trajektorienautoencoder (1) - lernt, bei einer gegebenen Szene (S, S1 bis Sn), deren unstrukturierte Datenmenge eine Trajektorie (T1) eines relevanten Agenten, Trajektorien (T2 bis x) umliegender Agenten, Interaktionen zwischen diesen Agenten und semantische Informationen umfasst, die Trajektorie (T1) des relevanten Agenten zu rekonstruieren, - auf allen verfügbaren Daten trainiert wird und - lernt, die unstrukturierte Datenmenge der Szene in eine informationshaltige strukturierte und latente Repräsentation (R, R1 bis Rn) zu codieren, und nach dem Training des Trajektorienautoencoders (1) zu einem Auffinden ähnlicher Szenen (S1 bis Sm) - mittels des Trajektorienautoencoders (1) für einen gesamten nach ähnlichen Szenen (S1 bis Sm) zu durchsuchenden Datensatz (D) bestehend aus allen Szenen (S1 bis Sn), latente Repräsentationen (R1 bis Rn) erzeugt werden, - eine zu suchende Szene (S), für welche ähnliche Szenen (S1 bis Sm) im Datensatz (D) gefunden werden sollen, codiert wird und für die zu suchende Szene (S) eine latente Repräsentation (R) gebildet wird, und - mittels einer Ähnlichkeitsmetrik (3) die latente Repräsentation (R) der zu suchenden Szene (S) mit allen anderen latenten Repräsentationen (R1 bis Rn) im Datensatz (D) verglichen wird und ähnliche Szenen (S1 bis Sm) gesucht werden, und mittels des trainierten Trajektorienautoencoders (1) und gefundenen ähnlichen Szenen (S1 bis Sm) ein Trajektorienprädiktionsalgorithmus traininert, nachtrainiert und/oder getestet wird.Method for training and testing an algorithm for predicting agents in a vehicle environment, which is carried out by means of a machine-trained trajectory autoencoder (1), characterized in that in the training of the trajectory autoencoder (1) the trajectory autoencoder (1) - learns, at a given Scene (S, S1 to Sn) whose unstructured data set includes a trajectory (T1) of a relevant agent, trajectories (T2 to x) of surrounding agents, interactions between these agents and semantic information to reconstruct the trajectory (T1) of the relevant agent, - is trained on all available data and - learns to encode the unstructured data volume of the scene into an information-containing, structured and latent representation (R, R1 to Rn), and after training the trajectory autoencoder (1) to finding similar scenes (S1 to Sm) - by means of the trajectory autoencoder (1) for an entire similar hen scenes (S1 to Sm) to be searched data set (D) consisting of all scenes (S1 to Sn), latent representations (R1 to Rn) are generated, - a scene to be searched (S), for which similar scenes (S1 to Sm ) are to be found in the data set (D), is encoded and a latent representation (R) is formed for the scene (S) to be searched for, and - by means of a similarity metric (3), the latent representation (R) of the scene (S ) is compared with all other latent representations (R1 to Rn) in the dataset (D) and similar scenes (S1 to Sm) are sought, and a trajectory prediction algorithm is trained using the trained trajectory autoencoder (1) and found similar scenes (S1 to Sm), retrained and/or tested.
DE102022000238.8A 2022-01-24 2022-01-24 Method for training and testing an algorithm for predicting agents in a vehicle environment Withdrawn DE102022000238A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102022000238.8A DE102022000238A1 (en) 2022-01-24 2022-01-24 Method for training and testing an algorithm for predicting agents in a vehicle environment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102022000238.8A DE102022000238A1 (en) 2022-01-24 2022-01-24 Method for training and testing an algorithm for predicting agents in a vehicle environment

Publications (2)

Publication Number Publication Date
DE102022000238A1 true DE102022000238A1 (en) 2022-03-10
DE102022000238A8 DE102022000238A8 (en) 2022-05-12

Family

ID=80266966

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102022000238.8A Withdrawn DE102022000238A1 (en) 2022-01-24 2022-01-24 Method for training and testing an algorithm for predicting agents in a vehicle environment

Country Status (1)

Country Link
DE (1) DE102022000238A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102022214233B3 (en) 2022-12-21 2024-02-08 Continental Automotive Technologies GmbH Determining the similarity of traffic scenes to improve machine learning systems or algorithms for trajectory prediction or maneuver planning for automated vehicles

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3663965A1 (en) 2018-12-05 2020-06-10 IMRA Europe S.A.S. Method for predicting multiple futures

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3663965A1 (en) 2018-12-05 2020-06-10 IMRA Europe S.A.S. Method for predicting multiple futures

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102022214233B3 (en) 2022-12-21 2024-02-08 Continental Automotive Technologies GmbH Determining the similarity of traffic scenes to improve machine learning systems or algorithms for trajectory prediction or maneuver planning for automated vehicles

Also Published As

Publication number Publication date
DE102022000238A8 (en) 2022-05-12

Similar Documents

Publication Publication Date Title
DE69618759T2 (en) METHOD AND SYSTEM FOR CODING A SEQUENCE OF SEGMENTED IMAGES, CODED SIGNAL AND STORAGE MEDIUM, METHOD AND SYSTEM FOR DECODING THE ENCODED SIGNAL
DE202017007520U1 (en) Motion compensation through machine learning
EP3948688A1 (en) Training for artificial neural networks with better utilization of learning data records
DE102022000238A1 (en) Method for training and testing an algorithm for predicting agents in a vehicle environment
EP3782081B1 (en) Method for generating a test data set, method for testing, method for operating a system, device, control system, computer program product, computer readable medium, generation and use
DE102016124888A1 (en) A method for assisting a driver of a motor vehicle when parking using a driver assistance device, corresponding computer program product and driver assistance device
DE102017208994A1 (en) Method for determining result image data
DE102023001698A1 (en) Method for an automated generation of data for raster map-based prediction approaches
DE102020005474A1 (en) Method for data processing of data in a vehicle by means of a context management system and data processing system
DE102021005625B3 (en) Method for trajectory prediction and method for automated operation of a vehicle
DE102021200643B3 (en) Method for environment recognition for semi-autonomous or autonomous driving functions of a motor vehicle using a neural network
DE102017218773A1 (en) Method and device for driving an actuator
DE102021110083A1 (en) Training an artificial neural network to test an automatic driving function of a vehicle
DE112021005432T5 (en) Method and system for predicting trajectories for maneuver planning based on a neural network
DE102021103024A1 (en) SYSTEM AND PROCESS FOR ALMOST LOSS-FREE UNIVERSAL DATA COMPRESSION WITH CORRELATED DATA SEQUENCES
EP4115337A1 (en) Method and apparatus for compressing a neural network
EP0802678A2 (en) Fractal image coding method
DE102020208620A1 (en) Method and device for operating a line-bound transport system using methods of artificial intelligence
EP0677835A2 (en) Process to ascertain a series of words
DE102023001646A1 (en) Process for a scene-consistent occupancy prediction using raster maps
EP0346751B1 (en) Device for the dpcm coding of television signals
DE102022106812B4 (en) Computer-implemented method for determining an emotional state of a person in a motor vehicle
DE102022001208A1 (en) Method for predicting trajectories of objects
DE102022001207A1 (en) Method for predicting trajectories of objects
DE102022212154A1 (en) Training a machine learning system for object-level image synthesis using labeled slit conditioning

Legal Events

Date Code Title Description
R230 Request for early publication
R083 Amendment of/additions to inventor(s)
R081 Change of applicant/patentee

Owner name: MERCEDES-BENZ GROUP AG, DE

Free format text: FORMER OWNER: DAIMLER AG, STUTTGART, DE

R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee