DE102022000238A1 - Method for training and testing an algorithm for predicting agents in a vehicle environment - Google Patents
Method for training and testing an algorithm for predicting agents in a vehicle environment Download PDFInfo
- Publication number
- DE102022000238A1 DE102022000238A1 DE102022000238.8A DE102022000238A DE102022000238A1 DE 102022000238 A1 DE102022000238 A1 DE 102022000238A1 DE 102022000238 A DE102022000238 A DE 102022000238A DE 102022000238 A1 DE102022000238 A1 DE 102022000238A1
- Authority
- DE
- Germany
- Prior art keywords
- trajectory
- autoencoder
- scenes
- scene
- searched
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000012549 training Methods 0.000 title claims abstract description 23
- 238000000034 method Methods 0.000 title claims abstract description 19
- 238000012360 testing method Methods 0.000 title claims abstract description 9
- 230000003993 interaction Effects 0.000 claims description 4
- 101100400452 Caenorhabditis elegans map-2 gene Proteins 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 3
- BUHVIAUBTBOHAG-FOYDDCNASA-N (2r,3r,4s,5r)-2-[6-[[2-(3,5-dimethoxyphenyl)-2-(2-methylphenyl)ethyl]amino]purin-9-yl]-5-(hydroxymethyl)oxolane-3,4-diol Chemical compound COC1=CC(OC)=CC(C(CNC=2C=3N=CN(C=3N=CN=2)[C@H]2[C@@H]([C@H](O)[C@@H](CO)O2)O)C=2C(=CC=CC=2)C)=C1 BUHVIAUBTBOHAG-FOYDDCNASA-N 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 230000003750 conditioning effect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/19—Recognition using electronic means
- G06V30/191—Design or setup of recognition systems or techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
- G06V30/19147—Obtaining sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Probability & Statistics with Applications (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Traffic Control Systems (AREA)
Abstract
Die Erfindung betrifft ein Verfahren zum Trainieren und Testen eines Algorithmus zur Prädiktion von Agenten in einer Fahrzeugumgebung, welches mittels eines maschinell trainierten Trajektorienautoencoders (1) durchgeführt wird. Dabei werden nach dem Training des Trajektorienautoencoders (1) zu einem Auffinden ähnlicher Szenen (S1 bis Sn) mittels des Trajektorienautoencoders (1) für einen gesamten nach ähnlichen Szenen (S1 bis Sm) zu durchsuchenden Datensatz (D) bestehend aus allen Szenen (S1 bis Sn), latente Repräsentationen (R1 bis Rn) erzeugt. Weiterhin wird eine zu suchende Szene (S), für welche ähnliche Szenen (S1 bis Sm) im Datensatz (D) gefunden werden sollen, codiert und für die zu suchende Szene (S) wird eine latente Repräsentation (R) gebildet. Mittels einer Ähnlichkeitsmetrik (3) wird die latente Repräsentation (R) der zu suchenden Szene (S) mit allen anderen latenten Repräsentationen (R1 bis Rn) im Datensatz (D) verglichen und ähnliche Szenen (S1 bis Sm) werden gesucht. Mittels des trainierten Trajektorienautoencoders (1) und gefundenen ähnlichen Szenen (S1 bis Sm) wird ein bestehender Trajektorienprädiktionsalgorithmus trainiert, nachtrainiert und/oder getestet.The invention relates to a method for training and testing an algorithm for predicting agents in a vehicle environment, which is carried out using a machine-trained trajectory autoencoder (1). After the training of the trajectory autoencoder (1), similar scenes (S1 to Sn) are found using the trajectory autoencoder (1) for an entire data set (D) to be searched for similar scenes (S1 to Sm) consisting of all scenes (S1 to Sn), latent representations (R1 to Rn) generated. Furthermore, a scene (S) to be searched for, for which similar scenes (S1 to Sm) are to be found in the data set (D), is encoded and a latent representation (R) is formed for the scene (S) to be searched for. Using a similarity metric (3), the latent representation (R) of the scene (S) to be searched for is compared with all other latent representations (R1 to Rn) in the dataset (D) and similar scenes (S1 to Sm) are searched for. An existing trajectory prediction algorithm is trained, retrained and/or tested by means of the trained trajectory autoencoder (1) and found similar scenes (S1 to Sm).
Description
Die Erfindung betrifft ein Verfahren zum Trainieren und Testen eines Algorithmus zur Prädiktion von Agenten in einer Fahrzeugumgebung gemäß dem Oberbegriff des Anspruchs 1.The invention relates to a method for training and testing an algorithm for predicting agents in a vehicle environment according to the preamble of
Aus der
- - Empfangen eines oder mehrerer multimodaler Videoframes von mehreren Modalitäten einer Fahrzeugumgebung, die gegenwärtigen und vergangenen Zeitstempeln entsprechen;
- - Kodieren in eine latente Darstellung, wobei die Multimodalitäts-Videoframes durch ein räumlich-zeitliches Codierungs-Faltungs-Neuralnetzwerk codiert werden;
- - Kombinieren zu einer zusammengesetzten Darstellung, wobei die latente Darstellung mit codierten Konditionierungsparametern entsprechend Zeitstempeln am gewünschten zukünftigen Zeithorizont entspricht; und
- - Vorhersagen mehrerer zukünftiger multimodaler Videoframes entsprechend mehreren zukünftigen Modi eines multimodalen zukünftigen Lösungsraums mit zugeordneten Likelihood-Koeffizienten mittels eines generativen neuronalen Faltungsnetzwerks, welches zuvor in einem mittels eines generativen faltenden neuronalen Netzwerks durchgeführten Trainings trainiert wurde.
- - receiving one or more multi-modal video frames from multiple modalities of a vehicle environment corresponding to current and past time stamps;
- - encoding into a latent representation wherein the multimodality video frames are encoded by a spatio-temporal encoding convolutional neural network;
- - combining into a composite representation, the latent representation having encoded conditioning parameters corresponding to timestamps at the desired future time horizon; and
- - Predicting multiple future multimodal video frames corresponding to multiple future modes of a multimodal future solution space with associated likelihood coefficients using a generative convolutional neural network previously trained in a training performed using a generative convolutional neural network.
Der Erfindung liegt die Aufgabe zu Grunde, ein neuartiges Verfahren zur Prädiktion von Agenten in einer Fahrzeugumgebung anzugeben.The invention is based on the object of specifying a novel method for predicting agents in a vehicle environment.
Die Aufgabe wird erfindungsgemäß gelöst durch ein Verfahren welches die im Anspruch 1 angegebenen Merkmale aufweist.The object is achieved according to the invention by a method which has the features specified in
Vorteilhafte Ausgestaltungen der Erfindung sind Gegenstand der Unteransprüche.Advantageous configurations of the invention are the subject matter of the dependent claims.
In einem Verfahren zum Trainieren und Testen eines Algorithmus zur Prädiktion von Agenten in einer Fahrzeugumgebung wird die Prädiktion mittels eines maschinell trainierten Trajektorienautoencoders durchgeführt.In a method for training and testing an algorithm for predicting agents in a vehicle environment, the prediction is performed using a machine-trained trajectory autoencoder.
Erfindungsgemäß lernt der Trajektorienautoencoder in dem Training, bei einer gegebenen Szene, deren unstrukturierte Datenmenge eine Trajektorie eines relevanten Agenten, Trajektorien umliegender Agenten, Interaktionen zwischen diesen Agenten und semantische Informationen umfasst, die Trajektorie des relevanten Agenten zu rekonstruieren. Dabei wird der Trajektorienautoencoder auf allen verfügbaren Daten trainiert. Weiterhin lernt der Trajektorienautoencoder, die unstrukturierte Datenmenge der Szene in eine informationshaltige strukturierte und latente Repräsentation zu codieren. Nach dem Training des Trajektorienautoencoders werden zu einem Auffinden ähnlicher Szenen mittels des Trajektorienautoencoders für einen gesamten nach ähnlichen Szenen zu durchsuchenden Datensatz, bestehend aus allen Szenen, latente Repräsentationen erzeugt. Weiterhin wird eine zu suchende Szene, für welche ähnliche Szenen im Datensatz gefunden werden sollen, codiert und für die zu suchende Szene wird latente Repräsentation gebildet. Mittels einer Ähnlichkeitsmetrik wird die latente Repräsentation der zu suchenden Szene mit allen anderen latenten Repräsentationen im Datensatz verglichen und es werden ähnliche Szenen gesucht. Wie folgend beschrieben kann das Auffinden ähnlicher Szenen in einem Datensatz vorteilhaft zum Trainieren, Nachtrainieren und Testen eines Trajektorienprädiktionsalgorithmus eingesetzt werden.According to the invention, the trajectory autoencoder learns in the training to reconstruct the trajectory of the relevant agent in a given scene whose unstructured dataset includes a trajectory of a relevant agent, trajectories of surrounding agents, interactions between these agents and semantic information. The trajectory autoencoder is trained on all available data. Furthermore, the trajectory autoencoder learns to encode the unstructured data volume of the scene into a structured and latent representation containing information. After the training of the trajectory autoencoder, latent representations are generated to find similar scenes by means of the trajectory autoencoder for an entire data set to be searched for similar scenes, consisting of all scenes. Furthermore, a scene to be searched for, for which similar scenes are to be found in the data set, is encoded and latent representation is formed for the scene to be searched for. Using a similarity metric, the latent representation of the scene to be searched for is compared with all other latent representations in the data set and similar scenes are searched for. As described below, finding similar scenes in a data set can be used advantageously for training, retraining and testing a trajectory prediction algorithm.
Eine Prädiktion von am Verkehr teilnehmenden, umliegenden Agenten ist eine essenzielle Voraussetzung zur Durchführung eines automatisierten, insbesondere hochautomatisierten oder autonomen Fahrbetriebs von Fahrzeugen. Besonders Algorithmen, welche auf Methoden des maschinellen Lernens basieren, haben sich für diese, als Trajektorienprädiktion bezeichnete Aufgabe als performant herausgestellt.A prediction of surrounding agents participating in traffic is an essential prerequisite for carrying out an automated, in particular highly automated or autonomous driving operation of vehicles. In particular, algorithms based on machine learning methods have proven to perform well for this task, known as trajectory prediction.
Eine Herausforderung lernbasierter Trajektorienprädiktionsalgorithmen ist eine Abdeckung so genannter Corner-Cases, also Szenen, die einen bestimmten und raren Zusammenhang besitzen, beispielsweise wenn ein Fahrzeug entgegen einer vorgeschriebenen Fahrtrichtung in einer Einbahnstraße fährt. Sind diese Corner-Cases nicht in ausreichender Menge im Datensatz vorhanden, besteht die Gefahr, dass ein gelerntes Modell auf den restlichen Datensatz generalisiert und die Corner-Cases nicht zufriedenstellend abdeckt.A challenge of learning-based trajectory prediction algorithms is the coverage of so-called corner cases, i.e. scenes that have a specific and rare connection, for example when a vehicle is driving in the opposite direction of travel on a one-way street. If these corner cases are not available in sufficient quantity in the data set, there is a risk that a learned model generalizes to the rest of the data set and does not cover the corner cases satisfactorily.
Bei einer beliebigen Szene, zum Beispiel einem speziellen Corner-Case, kann es demnach nützlich sein, in seinem Datensatz ähnliche Szenen zu finden, um beliebige Trajektorienprädiktionsalgorithmen auf diesen ähnlichen Szenen gewichtet zu trainieren oder umfangreich testen.In the case of any scene, for example a special corner case, it can therefore be useful to find similar scenes in one's dataset in order to train any trajectory prediction algorithms weighted on these similar scenes or to test them extensively.
Das zuvor Genannte trifft jedoch auch für allgemeine Szenen, wie beispielsweise Rechtsabbiegevorgänge, zu.However, the above also applies to general scenes such as right-turn operations.
Szenen sind dabei hochgradig unstrukturierte Daten, bestehend aus einer Trajektorie eines relevanten Agenten, also des Agenten, der beispielsweise den Corner-Case auslöst oder rechts abbiegt, Trajektorien umliegender weiterer Agenten, mit welchen der relevante Agent in einer Szene interagiert, und unterliegenden semantischen Informationen, wie beispielsweise eine Anordnung von Straßentopologien oder eine Position von Fußgängerüberwegen und Verkehrsampeln.Scenes are highly unstructured data, consisting of a trajectory of a relevant agent, i.e. the agent who, for example, triggers the corner case or turns right, trajectories of other surrounding agents, with wel chen the relevant agent interacts in a scene, and underlying semantic information, such as an arrangement of street topologies or a position of pedestrian crossings and traffic lights.
Eine Ähnlichkeit von Szenen hängt dabei allerdings nicht von einer Ähnlichkeit von Koordinaten des relevanten Agenten, beispielsweise einem Auffinden gleicher Kreuzung mit gleichen Koordinaten, ab, sondern von einer gesamten Datenmenge der Szene. Hierzu gehören die Trajektorie des relevanten Agenten, die Trajektorien umliegender Agenten, Interaktionen zwischen diesen Agenten und die semantischen Informationen, welche beispielsweise durch eine hochauflösende Karte gegeben sind.However, a similarity of scenes does not depend on a similarity of coordinates of the relevant agent, for example finding the same intersection with the same coordinates, but on an entire dataset of the scene. This includes the trajectory of the relevant agent, the trajectories of surrounding agents, interactions between these agents and the semantic information, which is given by a high-resolution map, for example.
Mittels des vorliegenden Verfahrens ist es in besonders vorteilhafter Weise möglich, ähnliche Szenen unter Berücksichtigung der zuvor genannten unstrukturierten Informationen aufzufinden. Dabei bezieht das Verfahren eine gesamte Szene mit ihren hochgradig unstrukturierten Daten ganzheitlich in eine Auswahl ähnlicher Szenen mit ein. Dadurch können auch besonders große Datensätze für das Training von Trajektorienprädiktionsalgorithmen nach ähnlichen Szenen durchsucht werden. Auch ermöglicht das Verfahren ein Nachtrainieren und ein ausführliches Testen von Trajektorienprädiktionsalgorithmen mit ähnlichen und eventuell kritischen Szenen.Using the present method, it is possible in a particularly advantageous manner to find similar scenes, taking into account the aforementioned unstructured information. The process includes an entire scene with its highly unstructured data in a selection of similar scenes. This means that particularly large data sets for training trajectory prediction algorithms can also be searched for similar scenes. The method also enables post-training and extensive testing of trajectory prediction algorithms with similar and possibly critical scenes.
Ausführungsbeispiele der Erfindung werden im Folgenden anhand von Zeichnungen näher erläutert.Exemplary embodiments of the invention are explained in more detail below with reference to drawings.
Dabei zeigen:
-
1 schematisch einen Ablauf eines Verfahrens zur Prädiktion von Agenten in einer Fahrzeugumgebung, -
2 schematisch ein Training eines Trajektorienautoencoders und -
3 schematisch ein Auffinden ähnlicher Szenen.
-
1 schematically shows a process for predicting agents in a vehicle environment, -
2 schematically a training of a trajectory autoencoder and -
3 schematically a finding of similar scenes.
Einander entsprechende Teile sind in allen Figuren mit den gleichen Bezugszeichen versehen.Corresponding parts are provided with the same reference symbols in all figures.
In
In einem ersten Verfahrensschritt V1 wird ein Training eines in den
In einem zweiten Verfahrensschritt V2 wird in Abhängigkeit einer gegebenen zu suchenden Szene°S mittels des trainierten Trajektorienautoencoders 1 zumindest ein ebenfalls in
In einem dritten Verfahrensschritt V3 wird mittels der identifizierten Szenen°S1 bis°Sm ein Trajektorienprädiktionsalgorithmus trainiert, nachtrainiert oder getestet.In a third method step V3, a trajectory prediction algorithm is trained, post-trained or tested using the identified scenes °S1 to °Sm.
In diesem Training lernt der Trajektorienautoencoder 1, bei einer gegebenen Szene S, aus der Menge aller Szenen S1 bis Sn im Datensatz D, deren unstrukturierte Datenmenge eine Trajektorie T1 eines relevanten Agenten, beispielsweise eines Fahrzeugs, Trajektorien T2 bis Tx umliegender Agenten, beispielsweise weiterer Fahrzeuge, Interaktionen zwischen diesen Agenten und semantische Informationen umfasst, die Trajektorie T1 des relevanten Agenten zu rekonstruieren. Die semantischen Informationen sind dabei durch eine hochauflösende Karte 2 gegeben. Der Trajektorienautoencoder 1 wird dabei auf allen verfügbaren Daten trainiert. Dabei lernt der Trajektorienautoencoder 1, die unstrukturierte Datenmenge der Szene S, S1 bis Sn in eine informationshaltige strukturierte und latente, und somit nicht interpretierbare Repräsentation R, R1 bis Rn zu codieren.In this training, the
Dabei werden die Daten einem Encoder 1.1 des Trajektorienautoencoders 1 zugeführt, welcher aus den Daten die latente Repräsentation R, R1 bis Rn der Szene S, S1 bis Sn für eine Rekonstruktion der Trajektorie T des relevanten Agenten erzeugt. Diese Repräsentation R, R1 bis Rn wird einem Decoder 1.2 des Trajektorienautoencoders 1 zugeführt, welcher aus der Repräsentation R, R1 bis Rn eine rekonstruierte Trajektorie T1' des relevanten Agenten erzeugt.The data is fed to an encoder 1.1 of the
Als Trajektorienautoencoder 1 kann dabei ein beliebiger, bereits vorhandener Trajektorienprädiktionsalgorithmus verwendet werden. Dieser wird so angepasst, dass er die Rekonstruktionsaufgabe und nicht mehr die Prädiktionsaufgabe des relevanten Agenten übernimmt. Ein solcher als LaneCGN bezeichneter Trajektorienprädiktionsalgorithmus ist beispielsweise aus „Ming Liang, et. al: Learning Lane Graph Representations for Motion Forecasting; https://arxiv.org/abs/2007.13732“ bekannt. Ein weiterer, als Trajectron++ bezeichneter Trajektorienprädiktionsalgorithmus ist beispielsweise aus „Tim Salzmann, et. al: Trajectron++: Dynamically-Feasible Trajectory Forecasting With Heterogeneous Data; https://arxiv.org/abs/2001.03093“ bekannt. Ein weiterer, als MTP bezeichneter Trajektorienprädiktionsalgorithmus ist beispielsweise aus „Henggang Cui, et. al: Multimodal Trajectory Predictions for Autonomous Driving using Deep Convolutional Networks; https://arxiv.org/abs/1809.10732“ bekannt.Any existing trajectory prediction algorithm can be used as the
In
Nach dem Training des Trajektorienautoencoders 1 werden zu einem Auffinden ähnlicher Szenen S1 bis Sm zu einer zu suchenden Szene S mittels des Trajektorienautoencoders 1 für den gesamten nach ähnlichen Szenen S1 bis Sm zu durchsuchenden Datensatz D, bestehend aus der Gesamtheit aller Szenen°S1°bis°Sn, latente Repräsentationen R1 bis Rn erzeugt. Der Decoder 1.2 ist hierfür nicht mehr erforderlich.After the training of the
Weiterhin wird die zu suchende Szene S, für welche die ähnlichen Szenen S1 bis Sm im Datensatz D gefunden werden sollen, codiert und es wird für die zu suchende Szene S eine latente Repräsentation R gebildet. Der Decoder 1.2 ist hierfür nicht mehr erforderlich.Furthermore, the scene S to be searched for, for which the similar scenes S1 to Sm are to be found in the data set D, is encoded and a latent representation R is formed for the scene S to be searched for. Decoder 1.2 is no longer required for this.
Mittels einer Ähnlichkeitsmetrik 3 wird die latente Repräsentation R der zu suchenden Szene S mit allen anderen latenten Repräsentationen R1 bis Rn im Datensatz D verglichen und ähnliche Szenen S1 bis°Sm werden gesucht. Der Vergleich kann dabei beispielsweise über eine so genannte Kosinus-Ähnlichkeit erfolgen. Auf Basis der Ähnlichkeitsmetrik 3 können hierdurch ähnliche Szenen S1 bis Sm im latenten Raum gefunden werden.A
Im Folgenden wird an einem Beispiel erläutert, welche Vorteile die Einbeziehung der aus der durch die hochauflösende Karte 2 gegebenen semantischen Informationen bei dem Training und bei der Anwendung des Trajektorienautoencoders 1 bewirkt.An example is used below to explain the advantages of including the semantic information given by the high-
Beispielsweise zeichnet sich eine kritische Szene S mit einem Fußgängerüberweg dadurch aus, dass der relevante Agent, in diesem Fall ein Fahrzeug, rechts abbiegt. Mittels einer solchen Szene S wurde der Trajektorienautoencoder 1 trainiert. Zu dieser Szene S sollen ähnliche Szenen S1 bis Sm gefunden werden. Bekannte Ansätze würden eine Ähnlichkeit lediglich an der Trajektorie T1 des relevanten Agenten festmachen und somit ähnliche Rechtsabbiegevorgänge als Ergebnis liefern. Das vorliegende Verfahren berücksichtigt jedoch auch die semantischen Informationen der hochauflösenden Karte 2, so dass in vorteilhafter Weise Szenen S1 bis Sn mit Rechtsabbiegevorgängen und einem Fußgängerüberweg als ähnliche Ergebnisse geliefert werden. Es können somit deutlich detailliertere und passendere ähnliche Sznearien aufgefunden werden und für das anschließende Trainieren, Nachtrainieren oder Testen eines Trajektorienprädiktionsalgorithmus verwendet werden.For example, a critical scene S with a pedestrian crossing is characterized in that the relevant agent, in this case a vehicle, turns right. The
ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of documents cited by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte PatentliteraturPatent Literature Cited
- EP 3663965 A1 [0002]EP 3663965 A1 [0002]
Claims (1)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102022000238.8A DE102022000238A1 (en) | 2022-01-24 | 2022-01-24 | Method for training and testing an algorithm for predicting agents in a vehicle environment |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102022000238.8A DE102022000238A1 (en) | 2022-01-24 | 2022-01-24 | Method for training and testing an algorithm for predicting agents in a vehicle environment |
Publications (2)
Publication Number | Publication Date |
---|---|
DE102022000238A1 true DE102022000238A1 (en) | 2022-03-10 |
DE102022000238A8 DE102022000238A8 (en) | 2022-05-12 |
Family
ID=80266966
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102022000238.8A Withdrawn DE102022000238A1 (en) | 2022-01-24 | 2022-01-24 | Method for training and testing an algorithm for predicting agents in a vehicle environment |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102022000238A1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102022214233B3 (en) | 2022-12-21 | 2024-02-08 | Continental Automotive Technologies GmbH | Determining the similarity of traffic scenes to improve machine learning systems or algorithms for trajectory prediction or maneuver planning for automated vehicles |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3663965A1 (en) | 2018-12-05 | 2020-06-10 | IMRA Europe S.A.S. | Method for predicting multiple futures |
-
2022
- 2022-01-24 DE DE102022000238.8A patent/DE102022000238A1/en not_active Withdrawn
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3663965A1 (en) | 2018-12-05 | 2020-06-10 | IMRA Europe S.A.S. | Method for predicting multiple futures |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102022214233B3 (en) | 2022-12-21 | 2024-02-08 | Continental Automotive Technologies GmbH | Determining the similarity of traffic scenes to improve machine learning systems or algorithms for trajectory prediction or maneuver planning for automated vehicles |
Also Published As
Publication number | Publication date |
---|---|
DE102022000238A8 (en) | 2022-05-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE69618759T2 (en) | METHOD AND SYSTEM FOR CODING A SEQUENCE OF SEGMENTED IMAGES, CODED SIGNAL AND STORAGE MEDIUM, METHOD AND SYSTEM FOR DECODING THE ENCODED SIGNAL | |
DE202017007520U1 (en) | Motion compensation through machine learning | |
EP3948688A1 (en) | Training for artificial neural networks with better utilization of learning data records | |
DE102022000238A1 (en) | Method for training and testing an algorithm for predicting agents in a vehicle environment | |
EP3782081B1 (en) | Method for generating a test data set, method for testing, method for operating a system, device, control system, computer program product, computer readable medium, generation and use | |
DE102016124888A1 (en) | A method for assisting a driver of a motor vehicle when parking using a driver assistance device, corresponding computer program product and driver assistance device | |
DE102017208994A1 (en) | Method for determining result image data | |
DE102023001698A1 (en) | Method for an automated generation of data for raster map-based prediction approaches | |
DE102020005474A1 (en) | Method for data processing of data in a vehicle by means of a context management system and data processing system | |
DE102021005625B3 (en) | Method for trajectory prediction and method for automated operation of a vehicle | |
DE102021200643B3 (en) | Method for environment recognition for semi-autonomous or autonomous driving functions of a motor vehicle using a neural network | |
DE102017218773A1 (en) | Method and device for driving an actuator | |
DE102021110083A1 (en) | Training an artificial neural network to test an automatic driving function of a vehicle | |
DE112021005432T5 (en) | Method and system for predicting trajectories for maneuver planning based on a neural network | |
DE102021103024A1 (en) | SYSTEM AND PROCESS FOR ALMOST LOSS-FREE UNIVERSAL DATA COMPRESSION WITH CORRELATED DATA SEQUENCES | |
EP4115337A1 (en) | Method and apparatus for compressing a neural network | |
EP0802678A2 (en) | Fractal image coding method | |
DE102020208620A1 (en) | Method and device for operating a line-bound transport system using methods of artificial intelligence | |
EP0677835A2 (en) | Process to ascertain a series of words | |
DE102023001646A1 (en) | Process for a scene-consistent occupancy prediction using raster maps | |
EP0346751B1 (en) | Device for the dpcm coding of television signals | |
DE102022106812B4 (en) | Computer-implemented method for determining an emotional state of a person in a motor vehicle | |
DE102022001208A1 (en) | Method for predicting trajectories of objects | |
DE102022001207A1 (en) | Method for predicting trajectories of objects | |
DE102022212154A1 (en) | Training a machine learning system for object-level image synthesis using labeled slit conditioning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R230 | Request for early publication | ||
R083 | Amendment of/additions to inventor(s) | ||
R081 | Change of applicant/patentee |
Owner name: MERCEDES-BENZ GROUP AG, DE Free format text: FORMER OWNER: DAIMLER AG, STUTTGART, DE |
|
R119 | Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee |