DE102021003159A1 - Verfahren zur Prädiktion eines Verhaltens von Verkehrsteilnehmern - Google Patents

Verfahren zur Prädiktion eines Verhaltens von Verkehrsteilnehmern Download PDF

Info

Publication number
DE102021003159A1
DE102021003159A1 DE102021003159.8A DE102021003159A DE102021003159A1 DE 102021003159 A1 DE102021003159 A1 DE 102021003159A1 DE 102021003159 A DE102021003159 A DE 102021003159A DE 102021003159 A1 DE102021003159 A1 DE 102021003159A1
Authority
DE
Germany
Prior art keywords
neural network
vehicle
video sequences
behavior
road users
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102021003159.8A
Other languages
English (en)
Inventor
Steven Peters
Christian Drescher
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mercedes Benz Group AG
Original Assignee
Mercedes Benz Group AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mercedes Benz Group AG filed Critical Mercedes Benz Group AG
Priority to DE102021003159.8A priority Critical patent/DE102021003159A1/de
Priority to PCT/EP2022/063249 priority patent/WO2022263079A1/de
Publication of DE102021003159A1 publication Critical patent/DE102021003159A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle

Abstract

Die Erfindung betrifft ein Verfahren zur Prädiktion eines Verhaltens von Verkehrsteilnehmern in einer Fahrzeugumgebung eines Fahrzeugs (2), wobei Videosequenzen (VS) der Fahrzeugumgebung mittels einer Sensorik aufgenommen werden, wobei das Verhalten von in den Videosequenzen (VS) erkannten Verkehrsteilnehmern mittels eines neuronalen Netzes (NN2) anhand der Videosequenzen in die Zukunft prädiziert wird, wobei das neuronale Netz (NN2) in jedem Zeitschritt mit den Daten eines weiteren neuronalen Netzes (NN1) aktualisiert wird, wobei das weitere neuronale Netz (NN1) in jedem Zeitschritt mit Videosequenzen (VSt-x-y...t-x) der Fahrzeugumgebung trainiert wird, die in zurückliegenden Zeitschritten erfasst wurden und in einem Ringspeicher (5) zwischengespeichert wurden.

Description

  • Die Erfindung betrifft ein Verfahren zur Prädiktion eines Verhaltens von Verkehrsteilnehmern in einer Fahrzeugumgebung.
  • Der Erfindung liegt die Aufgabe zu Grunde, ein neuartiges Verfahren zur Prädiktion eines Verhaltens von Verkehrsteilnehmern in einer Fahrzeugumgebung anzugeben.
  • Die Aufgabe wird erfindungsgemäß gelöst durch ein Verfahren, welches die im Anspruch 1 angegebenen Merkmale aufweist.
  • Vorteilhafte Ausgestaltungen der Erfindung sind Gegenstand der Unteransprüche.
  • Bei einem erfindungsgemäßen Verfahren zur Prädiktion eines Verhaltens von Verkehrsteilnehmern in einer Fahrzeugumgebung eines Fahrzeugs werden Videosequenzen der Fahrzeugumgebung mittels einer Sensorik aufgenommen, wobei das Verhalten von in den Videosequenzen erkannten Verkehrsteilnehmern mittels eines neuronalen Netzes anhand der Videosequenzen prädiziert wird. Erfindungsgemäß wird das neuronale Netz in jedem Zeitschritt mit den Daten eines weiteren neuronalen Netzes aktualisiert, wobei das weitere neuronale Netz in jedem Zeitschritt mit Videosequenzen der Fahrzeugumgebung trainiert wird, die in zurückliegenden Zeitschritten erfasst wurden und in einem Ringspeicher zwischengespeichert wurden.
  • Erfindungsgemäß wird das Verhalten der Verkehrsteilnehmer mittels eines neuronalen Netzes anhand von sensorisch aufgenommenen Umgebungsdaten (beispielsweise Videoframes) prädiziert.
  • Wenn anhand des prädizierten Verhaltens eine Gefahrensituation erkannt wird, wird vorzugsweise eine Fahrerwarnung ausgegeben und/oder ein Fahrmanöver zur Minimierung der Gefahrensituation ausgeführt.
  • Ausführungsbeispiele der Erfindung werden im Folgenden anhand von Zeichnungen näher erläutert.
  • Dabei zeigen:
    • 1 schematisch ein Blockschaltbild einer Vorrichtung zur Prädiktion eines Verhaltens von Verkehrsteilnehmern in einer Fahrzeugumgebung,
    • 2 schematisch ein Ausschnitt eines Sichtfelds eines Fahrers mit einer augmentierten Darstellung von Informationen,
    • 3 schematisch den Ausschnitt des Sichtfelds des Fahrers gemäß 2 mit einer weiteren augmentierten Darstellung von Informationen, und
    • 4 schematisch den Ausschnitt des Sichtfelds des Fahrers gemäß 2 mit einer weiteren augmentierten Darstellung von Informationen.
  • Einander entsprechende Teile sind in allen Figuren mit den gleichen Bezugszeichen versehen.
  • Bei einem erfindungsgemäßen Verfahren zur Prädiktion eines Verhaltens von Verkehrsteilnehmern in einer Fahrzeugumgebung werden in einem Fahrzeug Videosequenzen der Fahrzeugumgebung mittels mindestens einer Kamera und/oder mindestens eines Lidarsensors und/oder mindestens eines Radarsensors erfasst. Ein bereits vortrainiertes neuronales Netz wird zu jedem Zeitpunkt mit Videosequenzen vorhergehender Zeitabschnitte oder Zeiteinheiten weitertrainiert. Mit dem trainierten Netz können dann Prädiktionen über die nahe Zukunft gemacht werden. Diese Prädiktionen liegen in Form von Frames, das heißt Bildern, vor und werden ausgewertet. Wird in einem der Frames eine Kollisionsgefahr erkannt, so wird eine Warnung für einen Fahrer des Fahrzeugs ausgegeben.
  • Beispielsweise kann das neuronale Netz mit einer Videosequenz trainiert werden, die das Schlingern eines Anhängers eines zu überholenden Fahrzeugs, beispielsweise auf einer Autobahn, zeigt. Das neuronale Netz prädiziert dann in den nächsten Frames ein Pendeln des Anhängers auf die eigene Fahrspur und der Fahrer wird entsprechend gewarnt.
  • Es folgen weitere typische Beispiele, die insbesondere für das Vortraining geeignet sind:
    • - Ein Fahrzeug zieht von einem Beschleunigungsstreifen ganz nach links über zwei Spuren.
    • - Ein Kind folgt einem rollenden Ball.
    • - Ein Fahrradfahrer streckt einen Arm aus und biegt ab.
  • Durch das beschriebene Verfahren wird der Fahrer unterstützt und entlastet und somit wird eine Erhöhung der Sicherheit erzielt.
  • In 1 ist ein schematisches Blockschaltbild einer Vorrichtung 1 zur Prädiktion eines Verhaltens von Verkehrsteilnehmern in einer Fahrzeugumgebung, umfassend ein Fahrzeug 2, und ein OEM-Backend 3. Das Fahrzeug 2 umfasst mindestens eine Kamera 4, einen Ringspeicher 5 für von der Kamera 4 erfasste Videosequenzen VS der Fahrzeugumgebung, ein erstes Steuergerät SG1, ein zweites Steuergerät SG2, ein drittes Steuergerät SG3 und ein viertes Steuergerät SG4.
  • Das erste Steuergerät SG1 erhält eine zeitlich versetzte Videosequenz VSt-x-y...t-x aus dem Ringspeicher 5 und trainiert ein erstes neuronales Netz NN1 zu jedem Zeitpunkt t und überschreibt nach jedem Zeitschritt damit ein zweites neuronales Netz NN2 im zweiten Steuergerät SG2. Für das Training gilt: Der Inputvektor ist die Videosequenz VSt-x-y...t-x von Bildern der Kamera 4 aus dem Ringspeicher 5 eines Zeitraums von t-x-y bis t-x. Der Outputvektor (sogenanntes Label) ist eine Videosequenz VSt-x...t von Bildern der Kamera 4 eines Zeitraum von t-x bis t.
  • Das zweite Steuergerät SG2 sagt mittels des zweiten neuronalen Netzes NN2 eine Videosequenz VSt...t+x für einen zukünftigen Zeitraum t bis t+x ausgehend von einer Videosequenz VSt-y...t von Bildern der Kamera 4 des Zeitraums t-y bis t voraus. Das dritte Steuergerät SG3 führt mittels eines dritten neuronalen Netzes NN3 eine Objektklassifikation auf den Frames der Videosequenz VSt...t+x aus dem zweiten Steuergerät SG2 für den zukünftigen Zeitraum t bis t+x durch und prüft, ob in mindestens einem Frame ein relevantes Objekt (beispielsweise ein LKW, ein PKW, ein Fußgänger...) mit einer aktuellen und/oder geplanten Fahrtrajektorie kollidiert. Wenn dies der Fall ist, dann wird das vierte Steuergerät SG 4 aufgefordert, eine Warnung auszugeben.
  • In einer Ausführungsform nutzen das erste und das zweite Steuergerät SG1 und SG2 Informer- und/oder Transformer-Neural-Networks zur Generierung der VideoSequenz VSt...t+x. Das neuronale Netz NN1 wird regelmäßig zum Beispiel zum Fahrtbeginn oder nach einem festgelegten Zeitintervall wieder auf einen initialen Stand zurückgesetzt, der entweder einem neuronalen Netz NN0 mit einem vortrainierten Stand aus der Entwicklung des Fahrzeugs entspricht oder einem kontinuierlich im OEM-Backend 3 aus Felddaten, beispielsweise gesammelten Videosequenzen aus Kundenfahrzeugen, weitertrainierten neuronalen Netz NN* entspricht.
  • In einer Ausführungsform nutzt das dritte Steuergerät SG3 die semantische Segmentation auf der vom zweiten Steuergerät SG2 generierten Videosequenz VSt...t+x für den zukünftigen Zeitraum t bis t+x mittels neuronaler Netze zur Objektklassifikation. Ferner kann das dritte Steuergerät SG3 die vom zweiten Steuergerät SG2 generierte Videosequenz VSt...t+x für den zukünftigen Zeitraum t bis t+x plausibilisieren, indem die Bewegungen der Objekte mit vorabdefinierten, möglichen Bewegungen pro Objektklasse abgeglichen werden. Beispielsweise kann ein LKW nicht schlagartig rückwärtsfahren.
  • In einer Ausführungsform kann das vierte Steuergerät SG4 vom dritten Steuergerät SG3 zusätzlich das relevante Objekt und den prädizierten Frame mit der Kollision sowie dessen Zeitstempel erhalten. Damit wäre es beispielsweise möglich, mittels eines Augmented-Reality-Head-Up-Displays im Fahrzeug 2 das Objekt für den Fahrer optisch hervorzuheben und/oder zu markieren sowie gegebenenfalls den prognostizierten Frame mit der Kollisionsgefahr als transparente Überlagerung anzuzeigen, so dass der Fahrer frühzeitig ein potentielles Risiko erkennt. Ferner kann vorgesehen sein, das Objekt, mit dem eine Kollisionsgefahr besteht, mit hochauflösenden Scheinwerfersystemen wie Digital Light anzustrahlen, insbesondere bei Dunkelheit. Zusätzlich kann mit einer Fahrerbeobachtungskamera geprüft werden, ob der Fahrer das Objekt bereits im Blick hat, so dass eine Warnung nicht nötig ist. Ferner kann vorgesehen sein, ein Ausweichmanöver und/oder ein Bremsmanöver zu planen, falls der Fahrer nicht rechtzeitig reagiert.
  • In einer alternativen Ausführungsform kann statt eines realistischen Bildes zur Reduktion des Trainingsaufwands direkt eine semantische Segmentation der zukünftigen Frames prädiziert werden, deren Auflösung geringer sein kann. Dazu müsste der Algorithmus zur semantischen Segmentation vor dem Einsatz der neuronalen Netze NN1 und NN2 als Vorbereitung durchgeführt werden und die neuronalen Netze NN0, NN1, NN2 mit semantisch segmentierten Bildern und/oder Videosequenzen trainiert worden sein. Im dritten Steuergerät SG3 würde dann nur noch die Kollisionserkennung erfolgen.
  • 2 ist eine schematische Abbildung eines Ausschnitts eines Sichtfelds eines Fahrers mit einer augmentierten Darstellung von Informationen, wobei eine prädizierte Bewegungsrichtung R eines vorausfahrenden Fahrzeugs V angezeigt wird.
  • 3 ist eine schematische Abbildung des Ausschnitts des Sichtfelds des Fahrers gemäß 2 mit einer weiteren augmentierten Darstellung von Informationen, wobei das vorausfahrende Fahrzeug V mit digitalem Licht DL angestrahlt wird.
  • 4 ist eine schematische Ansicht des Ausschnitts des Sichtfelds des Fahrers gemäß 2 mit einer weiteren augmentierten Darstellung von Informationen, wobei ein für die Zukunft prädiziertes Frame F mit einer prädizierten Position des vorausfahrenden Fahrzeugs V per Überblendung angezeigt wird.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Nicht-Patentliteratur
    • "S. Oprea, et al.: A Review on Deep Learning Techniques for Video Prediction; In IEEE Transactions on Pattern Analysis 8 Machine Intelligence, vol. no. 01, pp. 1-1, 5555; doi: 10.1109/TPAMI.2020.3045007" [0002]

Claims (8)

  1. Verfahren zur Prädiktion eines Verhaltens von Verkehrsteilnehmern in einer Fahrzeugumgebung eines Fahrzeugs (2), wobei Videosequenzen (VS) der Fahrzeugumgebung mittels einer Sensorik aufgenommen werden, wobei das Verhalten von in den Videosequenzen (VS) erkannten Verkehrsteilnehmern mittels eines neuronalen Netzes (NN2) anhand der Videosequenzen prädiziert wird, dadurch gekennzeichnet, dass das neuronale Netz (NN2) in jedem Zeitschritt mit den Daten eines weiteren neuronalen Netzes (NN1) aktualisiert wird, wobei das weitere neuronale Netz (NN1) in jedem Zeitschritt mit Videosequenzen (VSt-x-y...t-x) der Fahrzeugumgebung trainiert wird, die in zurückliegenden Zeitschritten erfasst wurden und in einem Ringspeicher (5) zwischengespeichert wurden.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass dann, wenn anhand des prädizierten Verhaltens eine Gefahrensituation erkannt wird, im Fahrzeug (2) eine Warnung ausgegeben und/oder ein Fahrmanöver zur Minimierung der Gefahrensituation ausgeführt wird.
  3. Verfahren nach einem der Ansprüche 1 oder 2, dadurch gekennzeichnet, dass ein Informer- und/oder Transformer-Neural-Network als das neuronale Netz (NN2) und/oder als das weitere neuronale Netz (NN1, NN0, NN*) verwendet wird.
  4. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das weitere neuronale Netz (NN1) auf einen initialen Stand zurückgesetzt wird, der entweder einem neuronalen Netz (NN0) mit einem vortrainierten Stand aus der Entwicklung des Fahrzeugs (2) entspricht oder einem kontinuierlich in einem OEM-Backend (3) aus Felddaten weitertrainierten neuronalen Netz (NN*) entspricht.
  5. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Verkehrsteilnehmer in den Videosequenzen (VS) mittels eines neuronalen Netzes (NN3) zur Objektklassifikation erkannt werden, wobei semantische Segmentation angewandt wird.
  6. Verfahren nach Anspruch 5, dadurch gekennzeichnet, dass das prädizierte Verhalten der Verkehrsteilnehmer plausibilisiert wird, indem die Bewegungen der Verkehrsteilnehmer mit vorabdefinierten, möglichen Bewegungen eines Verkehrsteilnehmers der erkannten Objektklasse abgeglichen werden.
  7. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass in einem Augmented-Reality-Head-Up-Display des Fahrzeugs (2) eine Bewegungsrichtung (R) des erkannten Verkehrsteilnehmers und optional eine Hervorhebung des erkannten Verkehrsteilnehmers und/oder eine transparente Überlagerung des erkannten Verkehrsteilnehmers an einer prognostizierten Position angezeigt wird.
  8. Verfahren nach einem der Ansprüche 2 bis 7, dadurch gekennzeichnet, dass mit einer Fahrerbeobachtungskamera geprüft wird, ob der Fahrer das Objekt bereits im Blick hat, und dass in diesem Fall eine Warnung unterbleibt.
DE102021003159.8A 2021-06-18 2021-06-18 Verfahren zur Prädiktion eines Verhaltens von Verkehrsteilnehmern Pending DE102021003159A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102021003159.8A DE102021003159A1 (de) 2021-06-18 2021-06-18 Verfahren zur Prädiktion eines Verhaltens von Verkehrsteilnehmern
PCT/EP2022/063249 WO2022263079A1 (de) 2021-06-18 2022-05-17 Verfahren zur prädiktion eines verhaltens von verkehrsteilnehmern

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102021003159.8A DE102021003159A1 (de) 2021-06-18 2021-06-18 Verfahren zur Prädiktion eines Verhaltens von Verkehrsteilnehmern

Publications (1)

Publication Number Publication Date
DE102021003159A1 true DE102021003159A1 (de) 2022-12-22

Family

ID=82067535

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102021003159.8A Pending DE102021003159A1 (de) 2021-06-18 2021-06-18 Verfahren zur Prädiktion eines Verhaltens von Verkehrsteilnehmern

Country Status (2)

Country Link
DE (1) DE102021003159A1 (de)
WO (1) WO2022263079A1 (de)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10231557A1 (de) 2001-07-11 2003-07-31 Bosch Gmbh Robert Verfahren und Vorrichtung zum Auslösen und Durchführen einer Verzögerung eines Fahrzeugs
DE102015206200A1 (de) 2015-04-08 2016-10-13 Robert Bosch Gmbh Verfahren und Vorrichtung zur Aufmerksamkeitserkennung eines Fahrzeugführers
DE102017204347A1 (de) 2017-03-15 2018-09-20 Audi Ag Verfahren und System zum Bestimmen einer kinematischen Eigenschaft eines Objekts, Verfahren zum Steuern eines Assistenzsystems eines Kraftfahrzeugs und Kraftfahrzeug
DE102019134048A1 (de) 2019-12-11 2020-03-26 FEV Group GmbH Verfahren zur Vorhersage eines Verhaltens von Fußgängern
DE102018218098A1 (de) 2018-10-23 2020-04-23 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zum Abstrahieren eines Datensatzes
DE102019218256A1 (de) 2019-11-26 2021-05-27 Volkswagen Aktiengesellschaft Sicherheitseinrichtung und Verfahren zur Warnung fahrzeugexterner Objekte

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11340622B2 (en) * 2019-08-30 2022-05-24 Waymo Llc Determining respective impacts of agents

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10231557A1 (de) 2001-07-11 2003-07-31 Bosch Gmbh Robert Verfahren und Vorrichtung zum Auslösen und Durchführen einer Verzögerung eines Fahrzeugs
DE102015206200A1 (de) 2015-04-08 2016-10-13 Robert Bosch Gmbh Verfahren und Vorrichtung zur Aufmerksamkeitserkennung eines Fahrzeugführers
DE102017204347A1 (de) 2017-03-15 2018-09-20 Audi Ag Verfahren und System zum Bestimmen einer kinematischen Eigenschaft eines Objekts, Verfahren zum Steuern eines Assistenzsystems eines Kraftfahrzeugs und Kraftfahrzeug
DE102018218098A1 (de) 2018-10-23 2020-04-23 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zum Abstrahieren eines Datensatzes
DE102019218256A1 (de) 2019-11-26 2021-05-27 Volkswagen Aktiengesellschaft Sicherheitseinrichtung und Verfahren zur Warnung fahrzeugexterner Objekte
DE102019134048A1 (de) 2019-12-11 2020-03-26 FEV Group GmbH Verfahren zur Vorhersage eines Verhaltens von Fußgängern

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
"S. Oprea, et al.: A Review on Deep Learning Techniques for Video Prediction; In IEEE Transactions on Pattern Analysis 8 Machine Intelligence, vol. no. 01, pp. 1-1, 5555; doi: 10.1109/TPAMI.2020.3045007"
OPREA, Sergiu [u.a.]: A review on deep learning techniques for video prediction. In: IEEE Transactions on Pattern Analysis and Machine Intelligence, Bd. 14, 2015, H. 8, S. 1-20. - ISSN 1939-3539 (E); 0162-8828 (P). DOI: 10.1109/TPAMI.2020.3045007. URL: https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=9294028 [abgerufen am 2021-07-22].

Also Published As

Publication number Publication date
WO2022263079A1 (de) 2022-12-22

Similar Documents

Publication Publication Date Title
EP1145186B1 (de) Verfahren und vorrichtung zur leistungssteigerung eines verkehrszeichenerkennungssystems
DE102014201159A1 (de) Verfahren und Vorrichtung zum Klassifizieren eines Verhaltens eines Fußgängers beim Überqueren einer Fahrbahn eines Fahrzeugs sowie Personenschutzsystem eines Fahrzeugs
DE102019127229A1 (de) System und verfahren zum bestimmen einer vertrautheit eines fahrzeugdatensatzes
DE102011109387A1 (de) Verfahren zur Erkennung von Verkehrszeichen
DE102009006113A1 (de) Vorrichtung und Verfahren zur Sensorfusion mit dynamischen Objekten
DE102018212655A1 (de) Erkennung der Bewegungsabsicht eines Fußgängers aus Kamerabildern
DE102017111468A1 (de) Fahrzeugsystem und Verfahren zum Bestimmen, ob ein Fahrzeuginsasse ein fahrzeugexternes Objekt wahrgenommen hat
DE102013019622A1 (de) Verfahren zur Ampelerkennung für ein Fahrzeug
DE102017208728A1 (de) Verfahren zur Ermittlung einer Fahranweisung
DE102018128634A1 (de) Verfahren zum Bereitstellen einer visuellen Information über zumindest einen Teil einer Umgebung, Computerprogrammprodukt, mobiles Kommunikationsgerät und Kommunikationssystem
DE102016002232B4 (de) Verfahren zum Betrieb eines Kraftfahrzeugs
DE102017211387A1 (de) System und Verfahren zum automatisierten Manövrieren eines Ego-Fahrzeugs
DE102016220450A1 (de) Vorrichtung, Fortbewegungsmittel und Verfahren zur Abschätzung einer Kollisionswahrscheinlichkeit zwischen einem Fortbewegungsmittel und einem Umgebungsobjekt
DE102021003567A1 (de) Verfahren zur Erkennung von Objektbeziehungen und Attributierungen aus Sensordaten
WO2019120709A1 (de) Verfahren und steuereinheit zur steuerung einer funktion eines zumindest teilweise automatisiert fahrenden fahrzeugs
DE102017122543A1 (de) Verfahren zum Unterstützen eines Fahrers eines Kraftfahrzeugs beim Überholen eines Objektes sowie Fahrerassistenzsystem
DE102017105764A1 (de) Konfiguration eines Fahrerassistenzsystems für ein Kraftfahrzeug, mit überwachten maschinellen Lernen
DE102016124157A1 (de) Ermitteln einer Bremsnotwendigkeit zum Vermeiden einer Kollision eines Kraftfahrzeugs mit einem Fußgänger
DE102019129737A1 (de) Verfahren zum Klassifizieren einer Umgebung eines Fahrzeugs
DE102021003159A1 (de) Verfahren zur Prädiktion eines Verhaltens von Verkehrsteilnehmern
DE102019204187A1 (de) Klassifizierung und temporale Erkennung taktischer Fahrmanöver von Verkehrsteilnehmern
DE102018209388A1 (de) Erkennung fahrtrelevanter Situationen auf größere Entfernung
DE102007021579A1 (de) Verfahren und Vorrichtung zur Klassifikation mindestens eines Verkehrszeichens
DE102016214599A1 (de) Verfahren zur Verkehrszeichenerkennung in Kraftfahrzeugen
DE102021000792A1 (de) Verfahren zum Betrieb eines Fahrzeuges

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication