DE102021003159A1 - Verfahren zur Prädiktion eines Verhaltens von Verkehrsteilnehmern - Google Patents
Verfahren zur Prädiktion eines Verhaltens von Verkehrsteilnehmern Download PDFInfo
- Publication number
- DE102021003159A1 DE102021003159A1 DE102021003159.8A DE102021003159A DE102021003159A1 DE 102021003159 A1 DE102021003159 A1 DE 102021003159A1 DE 102021003159 A DE102021003159 A DE 102021003159A DE 102021003159 A1 DE102021003159 A1 DE 102021003159A1
- Authority
- DE
- Germany
- Prior art keywords
- neural network
- vehicle
- video sequences
- behavior
- road users
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/166—Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24133—Distances to prototypes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
Abstract
Die Erfindung betrifft ein Verfahren zur Prädiktion eines Verhaltens von Verkehrsteilnehmern in einer Fahrzeugumgebung eines Fahrzeugs (2), wobei Videosequenzen (VS) der Fahrzeugumgebung mittels einer Sensorik aufgenommen werden, wobei das Verhalten von in den Videosequenzen (VS) erkannten Verkehrsteilnehmern mittels eines neuronalen Netzes (NN2) anhand der Videosequenzen in die Zukunft prädiziert wird, wobei das neuronale Netz (NN2) in jedem Zeitschritt mit den Daten eines weiteren neuronalen Netzes (NN1) aktualisiert wird, wobei das weitere neuronale Netz (NN1) in jedem Zeitschritt mit Videosequenzen (VSt-x-y...t-x) der Fahrzeugumgebung trainiert wird, die in zurückliegenden Zeitschritten erfasst wurden und in einem Ringspeicher (5) zwischengespeichert wurden.
Description
- Die Erfindung betrifft ein Verfahren zur Prädiktion eines Verhaltens von Verkehrsteilnehmern in einer Fahrzeugumgebung.
- Unter anderem in "S. Oprea, et al.: A Review on Deep Learning Techniques for Video Prediction; In IEEE Transactions on Pattern Analysis 8 Machine Intelligence, vol. no. 01, pp. 1-1, 5555; doi: 10.1109/TPAMI.2020.3045007" ist beschrieben, dass Videoframes mittels maschinellen Lernens prädizierbar sind.
- Der Erfindung liegt die Aufgabe zu Grunde, ein neuartiges Verfahren zur Prädiktion eines Verhaltens von Verkehrsteilnehmern in einer Fahrzeugumgebung anzugeben.
- Die Aufgabe wird erfindungsgemäß gelöst durch ein Verfahren, welches die im Anspruch 1 angegebenen Merkmale aufweist.
- Vorteilhafte Ausgestaltungen der Erfindung sind Gegenstand der Unteransprüche.
- Bei einem erfindungsgemäßen Verfahren zur Prädiktion eines Verhaltens von Verkehrsteilnehmern in einer Fahrzeugumgebung eines Fahrzeugs werden Videosequenzen der Fahrzeugumgebung mittels einer Sensorik aufgenommen, wobei das Verhalten von in den Videosequenzen erkannten Verkehrsteilnehmern mittels eines neuronalen Netzes anhand der Videosequenzen prädiziert wird. Erfindungsgemäß wird das neuronale Netz in jedem Zeitschritt mit den Daten eines weiteren neuronalen Netzes aktualisiert, wobei das weitere neuronale Netz in jedem Zeitschritt mit Videosequenzen der Fahrzeugumgebung trainiert wird, die in zurückliegenden Zeitschritten erfasst wurden und in einem Ringspeicher zwischengespeichert wurden.
- Erfindungsgemäß wird das Verhalten der Verkehrsteilnehmer mittels eines neuronalen Netzes anhand von sensorisch aufgenommenen Umgebungsdaten (beispielsweise Videoframes) prädiziert.
- Wenn anhand des prädizierten Verhaltens eine Gefahrensituation erkannt wird, wird vorzugsweise eine Fahrerwarnung ausgegeben und/oder ein Fahrmanöver zur Minimierung der Gefahrensituation ausgeführt.
- Ausführungsbeispiele der Erfindung werden im Folgenden anhand von Zeichnungen näher erläutert.
- Dabei zeigen:
-
1 schematisch ein Blockschaltbild einer Vorrichtung zur Prädiktion eines Verhaltens von Verkehrsteilnehmern in einer Fahrzeugumgebung, -
2 schematisch ein Ausschnitt eines Sichtfelds eines Fahrers mit einer augmentierten Darstellung von Informationen, -
3 schematisch den Ausschnitt des Sichtfelds des Fahrers gemäß2 mit einer weiteren augmentierten Darstellung von Informationen, und -
4 schematisch den Ausschnitt des Sichtfelds des Fahrers gemäß2 mit einer weiteren augmentierten Darstellung von Informationen. - Einander entsprechende Teile sind in allen Figuren mit den gleichen Bezugszeichen versehen.
- Bei einem erfindungsgemäßen Verfahren zur Prädiktion eines Verhaltens von Verkehrsteilnehmern in einer Fahrzeugumgebung werden in einem Fahrzeug Videosequenzen der Fahrzeugumgebung mittels mindestens einer Kamera und/oder mindestens eines Lidarsensors und/oder mindestens eines Radarsensors erfasst. Ein bereits vortrainiertes neuronales Netz wird zu jedem Zeitpunkt mit Videosequenzen vorhergehender Zeitabschnitte oder Zeiteinheiten weitertrainiert. Mit dem trainierten Netz können dann Prädiktionen über die nahe Zukunft gemacht werden. Diese Prädiktionen liegen in Form von Frames, das heißt Bildern, vor und werden ausgewertet. Wird in einem der Frames eine Kollisionsgefahr erkannt, so wird eine Warnung für einen Fahrer des Fahrzeugs ausgegeben.
- Beispielsweise kann das neuronale Netz mit einer Videosequenz trainiert werden, die das Schlingern eines Anhängers eines zu überholenden Fahrzeugs, beispielsweise auf einer Autobahn, zeigt. Das neuronale Netz prädiziert dann in den nächsten Frames ein Pendeln des Anhängers auf die eigene Fahrspur und der Fahrer wird entsprechend gewarnt.
- Es folgen weitere typische Beispiele, die insbesondere für das Vortraining geeignet sind:
- - Ein Fahrzeug zieht von einem Beschleunigungsstreifen ganz nach links über zwei Spuren.
- - Ein Kind folgt einem rollenden Ball.
- - Ein Fahrradfahrer streckt einen Arm aus und biegt ab.
- Durch das beschriebene Verfahren wird der Fahrer unterstützt und entlastet und somit wird eine Erhöhung der Sicherheit erzielt.
- In
1 ist ein schematisches Blockschaltbild einer Vorrichtung 1 zur Prädiktion eines Verhaltens von Verkehrsteilnehmern in einer Fahrzeugumgebung, umfassend ein Fahrzeug 2, und ein OEM-Backend 3. Das Fahrzeug 2 umfasst mindestens eine Kamera 4, einen Ringspeicher 5 für von der Kamera 4 erfasste Videosequenzen VS der Fahrzeugumgebung, ein erstes Steuergerät SG1, ein zweites Steuergerät SG2, ein drittes Steuergerät SG3 und ein viertes Steuergerät SG4. - Das erste Steuergerät SG1 erhält eine zeitlich versetzte Videosequenz VSt-x-y...t-x aus dem Ringspeicher 5 und trainiert ein erstes neuronales Netz NN1 zu jedem Zeitpunkt t und überschreibt nach jedem Zeitschritt damit ein zweites neuronales Netz NN2 im zweiten Steuergerät SG2. Für das Training gilt: Der Inputvektor ist die Videosequenz VSt-x-y...t-x von Bildern der Kamera 4 aus dem Ringspeicher 5 eines Zeitraums von t-x-y bis t-x. Der Outputvektor (sogenanntes Label) ist eine Videosequenz VSt-x...t von Bildern der Kamera 4 eines Zeitraum von t-x bis t.
- Das zweite Steuergerät SG2 sagt mittels des zweiten neuronalen Netzes NN2 eine Videosequenz VSt...t+x für einen zukünftigen Zeitraum t bis t+x ausgehend von einer Videosequenz VSt-y...t von Bildern der Kamera 4 des Zeitraums t-y bis t voraus. Das dritte Steuergerät SG3 führt mittels eines dritten neuronalen Netzes NN3 eine Objektklassifikation auf den Frames der Videosequenz VSt...t+x aus dem zweiten Steuergerät SG2 für den zukünftigen Zeitraum t bis t+x durch und prüft, ob in mindestens einem Frame ein relevantes Objekt (beispielsweise ein LKW, ein PKW, ein Fußgänger...) mit einer aktuellen und/oder geplanten Fahrtrajektorie kollidiert. Wenn dies der Fall ist, dann wird das vierte Steuergerät SG 4 aufgefordert, eine Warnung auszugeben.
- In einer Ausführungsform nutzen das erste und das zweite Steuergerät SG1 und SG2 Informer- und/oder Transformer-Neural-Networks zur Generierung der VideoSequenz VSt...t+x. Das neuronale Netz NN1 wird regelmäßig zum Beispiel zum Fahrtbeginn oder nach einem festgelegten Zeitintervall wieder auf einen initialen Stand zurückgesetzt, der entweder einem neuronalen Netz NN0 mit einem vortrainierten Stand aus der Entwicklung des Fahrzeugs entspricht oder einem kontinuierlich im OEM-Backend 3 aus Felddaten, beispielsweise gesammelten Videosequenzen aus Kundenfahrzeugen, weitertrainierten neuronalen Netz NN* entspricht.
- In einer Ausführungsform nutzt das dritte Steuergerät SG3 die semantische Segmentation auf der vom zweiten Steuergerät SG2 generierten Videosequenz VSt...t+x für den zukünftigen Zeitraum t bis t+x mittels neuronaler Netze zur Objektklassifikation. Ferner kann das dritte Steuergerät SG3 die vom zweiten Steuergerät SG2 generierte Videosequenz VSt...t+x für den zukünftigen Zeitraum t bis t+x plausibilisieren, indem die Bewegungen der Objekte mit vorabdefinierten, möglichen Bewegungen pro Objektklasse abgeglichen werden. Beispielsweise kann ein LKW nicht schlagartig rückwärtsfahren.
- In einer Ausführungsform kann das vierte Steuergerät SG4 vom dritten Steuergerät SG3 zusätzlich das relevante Objekt und den prädizierten Frame mit der Kollision sowie dessen Zeitstempel erhalten. Damit wäre es beispielsweise möglich, mittels eines Augmented-Reality-Head-Up-Displays im Fahrzeug 2 das Objekt für den Fahrer optisch hervorzuheben und/oder zu markieren sowie gegebenenfalls den prognostizierten Frame mit der Kollisionsgefahr als transparente Überlagerung anzuzeigen, so dass der Fahrer frühzeitig ein potentielles Risiko erkennt. Ferner kann vorgesehen sein, das Objekt, mit dem eine Kollisionsgefahr besteht, mit hochauflösenden Scheinwerfersystemen wie Digital Light anzustrahlen, insbesondere bei Dunkelheit. Zusätzlich kann mit einer Fahrerbeobachtungskamera geprüft werden, ob der Fahrer das Objekt bereits im Blick hat, so dass eine Warnung nicht nötig ist. Ferner kann vorgesehen sein, ein Ausweichmanöver und/oder ein Bremsmanöver zu planen, falls der Fahrer nicht rechtzeitig reagiert.
- In einer alternativen Ausführungsform kann statt eines realistischen Bildes zur Reduktion des Trainingsaufwands direkt eine semantische Segmentation der zukünftigen Frames prädiziert werden, deren Auflösung geringer sein kann. Dazu müsste der Algorithmus zur semantischen Segmentation vor dem Einsatz der neuronalen Netze NN1 und NN2 als Vorbereitung durchgeführt werden und die neuronalen Netze NN0, NN1, NN2 mit semantisch segmentierten Bildern und/oder Videosequenzen trainiert worden sein. Im dritten Steuergerät SG3 würde dann nur noch die Kollisionserkennung erfolgen.
-
2 ist eine schematische Abbildung eines Ausschnitts eines Sichtfelds eines Fahrers mit einer augmentierten Darstellung von Informationen, wobei eine prädizierte Bewegungsrichtung R eines vorausfahrenden Fahrzeugs V angezeigt wird. -
3 ist eine schematische Abbildung des Ausschnitts des Sichtfelds des Fahrers gemäß2 mit einer weiteren augmentierten Darstellung von Informationen, wobei das vorausfahrende Fahrzeug V mit digitalem Licht DL angestrahlt wird. -
4 ist eine schematische Ansicht des Ausschnitts des Sichtfelds des Fahrers gemäß2 mit einer weiteren augmentierten Darstellung von Informationen, wobei ein für die Zukunft prädiziertes Frame F mit einer prädizierten Position des vorausfahrenden Fahrzeugs V per Überblendung angezeigt wird. - ZITATE ENTHALTEN IN DER BESCHREIBUNG
- Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
- Zitierte Nicht-Patentliteratur
-
- "S. Oprea, et al.: A Review on Deep Learning Techniques for Video Prediction; In IEEE Transactions on Pattern Analysis 8 Machine Intelligence, vol. no. 01, pp. 1-1, 5555; doi: 10.1109/TPAMI.2020.3045007" [0002]
Claims (8)
- Verfahren zur Prädiktion eines Verhaltens von Verkehrsteilnehmern in einer Fahrzeugumgebung eines Fahrzeugs (2), wobei Videosequenzen (VS) der Fahrzeugumgebung mittels einer Sensorik aufgenommen werden, wobei das Verhalten von in den Videosequenzen (VS) erkannten Verkehrsteilnehmern mittels eines neuronalen Netzes (NN2) anhand der Videosequenzen prädiziert wird, dadurch gekennzeichnet, dass das neuronale Netz (NN2) in jedem Zeitschritt mit den Daten eines weiteren neuronalen Netzes (NN1) aktualisiert wird, wobei das weitere neuronale Netz (NN1) in jedem Zeitschritt mit Videosequenzen (VSt-x-y...t-x) der Fahrzeugumgebung trainiert wird, die in zurückliegenden Zeitschritten erfasst wurden und in einem Ringspeicher (5) zwischengespeichert wurden.
- Verfahren nach
Anspruch 1 , dadurch gekennzeichnet, dass dann, wenn anhand des prädizierten Verhaltens eine Gefahrensituation erkannt wird, im Fahrzeug (2) eine Warnung ausgegeben und/oder ein Fahrmanöver zur Minimierung der Gefahrensituation ausgeführt wird. - Verfahren nach einem der
Ansprüche 1 oder2 , dadurch gekennzeichnet, dass ein Informer- und/oder Transformer-Neural-Network als das neuronale Netz (NN2) und/oder als das weitere neuronale Netz (NN1, NN0, NN*) verwendet wird. - Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das weitere neuronale Netz (NN1) auf einen initialen Stand zurückgesetzt wird, der entweder einem neuronalen Netz (NN0) mit einem vortrainierten Stand aus der Entwicklung des Fahrzeugs (2) entspricht oder einem kontinuierlich in einem OEM-Backend (3) aus Felddaten weitertrainierten neuronalen Netz (NN*) entspricht.
- Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Verkehrsteilnehmer in den Videosequenzen (VS) mittels eines neuronalen Netzes (NN3) zur Objektklassifikation erkannt werden, wobei semantische Segmentation angewandt wird.
- Verfahren nach
Anspruch 5 , dadurch gekennzeichnet, dass das prädizierte Verhalten der Verkehrsteilnehmer plausibilisiert wird, indem die Bewegungen der Verkehrsteilnehmer mit vorabdefinierten, möglichen Bewegungen eines Verkehrsteilnehmers der erkannten Objektklasse abgeglichen werden. - Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass in einem Augmented-Reality-Head-Up-Display des Fahrzeugs (2) eine Bewegungsrichtung (R) des erkannten Verkehrsteilnehmers und optional eine Hervorhebung des erkannten Verkehrsteilnehmers und/oder eine transparente Überlagerung des erkannten Verkehrsteilnehmers an einer prognostizierten Position angezeigt wird.
- Verfahren nach einem der
Ansprüche 2 bis7 , dadurch gekennzeichnet, dass mit einer Fahrerbeobachtungskamera geprüft wird, ob der Fahrer das Objekt bereits im Blick hat, und dass in diesem Fall eine Warnung unterbleibt.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102021003159.8A DE102021003159A1 (de) | 2021-06-18 | 2021-06-18 | Verfahren zur Prädiktion eines Verhaltens von Verkehrsteilnehmern |
PCT/EP2022/063249 WO2022263079A1 (de) | 2021-06-18 | 2022-05-17 | Verfahren zur prädiktion eines verhaltens von verkehrsteilnehmern |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102021003159.8A DE102021003159A1 (de) | 2021-06-18 | 2021-06-18 | Verfahren zur Prädiktion eines Verhaltens von Verkehrsteilnehmern |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102021003159A1 true DE102021003159A1 (de) | 2022-12-22 |
Family
ID=82067535
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102021003159.8A Pending DE102021003159A1 (de) | 2021-06-18 | 2021-06-18 | Verfahren zur Prädiktion eines Verhaltens von Verkehrsteilnehmern |
Country Status (2)
Country | Link |
---|---|
DE (1) | DE102021003159A1 (de) |
WO (1) | WO2022263079A1 (de) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10231557A1 (de) | 2001-07-11 | 2003-07-31 | Bosch Gmbh Robert | Verfahren und Vorrichtung zum Auslösen und Durchführen einer Verzögerung eines Fahrzeugs |
DE102015206200A1 (de) | 2015-04-08 | 2016-10-13 | Robert Bosch Gmbh | Verfahren und Vorrichtung zur Aufmerksamkeitserkennung eines Fahrzeugführers |
DE102017204347A1 (de) | 2017-03-15 | 2018-09-20 | Audi Ag | Verfahren und System zum Bestimmen einer kinematischen Eigenschaft eines Objekts, Verfahren zum Steuern eines Assistenzsystems eines Kraftfahrzeugs und Kraftfahrzeug |
DE102019134048A1 (de) | 2019-12-11 | 2020-03-26 | FEV Group GmbH | Verfahren zur Vorhersage eines Verhaltens von Fußgängern |
DE102018218098A1 (de) | 2018-10-23 | 2020-04-23 | Volkswagen Aktiengesellschaft | Verfahren und Vorrichtung zum Abstrahieren eines Datensatzes |
DE102019218256A1 (de) | 2019-11-26 | 2021-05-27 | Volkswagen Aktiengesellschaft | Sicherheitseinrichtung und Verfahren zur Warnung fahrzeugexterner Objekte |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11340622B2 (en) * | 2019-08-30 | 2022-05-24 | Waymo Llc | Determining respective impacts of agents |
-
2021
- 2021-06-18 DE DE102021003159.8A patent/DE102021003159A1/de active Pending
-
2022
- 2022-05-17 WO PCT/EP2022/063249 patent/WO2022263079A1/de unknown
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10231557A1 (de) | 2001-07-11 | 2003-07-31 | Bosch Gmbh Robert | Verfahren und Vorrichtung zum Auslösen und Durchführen einer Verzögerung eines Fahrzeugs |
DE102015206200A1 (de) | 2015-04-08 | 2016-10-13 | Robert Bosch Gmbh | Verfahren und Vorrichtung zur Aufmerksamkeitserkennung eines Fahrzeugführers |
DE102017204347A1 (de) | 2017-03-15 | 2018-09-20 | Audi Ag | Verfahren und System zum Bestimmen einer kinematischen Eigenschaft eines Objekts, Verfahren zum Steuern eines Assistenzsystems eines Kraftfahrzeugs und Kraftfahrzeug |
DE102018218098A1 (de) | 2018-10-23 | 2020-04-23 | Volkswagen Aktiengesellschaft | Verfahren und Vorrichtung zum Abstrahieren eines Datensatzes |
DE102019218256A1 (de) | 2019-11-26 | 2021-05-27 | Volkswagen Aktiengesellschaft | Sicherheitseinrichtung und Verfahren zur Warnung fahrzeugexterner Objekte |
DE102019134048A1 (de) | 2019-12-11 | 2020-03-26 | FEV Group GmbH | Verfahren zur Vorhersage eines Verhaltens von Fußgängern |
Non-Patent Citations (2)
Title |
---|
"S. Oprea, et al.: A Review on Deep Learning Techniques for Video Prediction; In IEEE Transactions on Pattern Analysis 8 Machine Intelligence, vol. no. 01, pp. 1-1, 5555; doi: 10.1109/TPAMI.2020.3045007" |
OPREA, Sergiu [u.a.]: A review on deep learning techniques for video prediction. In: IEEE Transactions on Pattern Analysis and Machine Intelligence, Bd. 14, 2015, H. 8, S. 1-20. - ISSN 1939-3539 (E); 0162-8828 (P). DOI: 10.1109/TPAMI.2020.3045007. URL: https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=9294028 [abgerufen am 2021-07-22]. |
Also Published As
Publication number | Publication date |
---|---|
WO2022263079A1 (de) | 2022-12-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP1145186B1 (de) | Verfahren und vorrichtung zur leistungssteigerung eines verkehrszeichenerkennungssystems | |
DE102014201159A1 (de) | Verfahren und Vorrichtung zum Klassifizieren eines Verhaltens eines Fußgängers beim Überqueren einer Fahrbahn eines Fahrzeugs sowie Personenschutzsystem eines Fahrzeugs | |
DE102019127229A1 (de) | System und verfahren zum bestimmen einer vertrautheit eines fahrzeugdatensatzes | |
DE102011109387A1 (de) | Verfahren zur Erkennung von Verkehrszeichen | |
DE102009006113A1 (de) | Vorrichtung und Verfahren zur Sensorfusion mit dynamischen Objekten | |
DE102018212655A1 (de) | Erkennung der Bewegungsabsicht eines Fußgängers aus Kamerabildern | |
DE102017111468A1 (de) | Fahrzeugsystem und Verfahren zum Bestimmen, ob ein Fahrzeuginsasse ein fahrzeugexternes Objekt wahrgenommen hat | |
DE102013019622A1 (de) | Verfahren zur Ampelerkennung für ein Fahrzeug | |
DE102017208728A1 (de) | Verfahren zur Ermittlung einer Fahranweisung | |
DE102018128634A1 (de) | Verfahren zum Bereitstellen einer visuellen Information über zumindest einen Teil einer Umgebung, Computerprogrammprodukt, mobiles Kommunikationsgerät und Kommunikationssystem | |
DE102016002232B4 (de) | Verfahren zum Betrieb eines Kraftfahrzeugs | |
DE102017211387A1 (de) | System und Verfahren zum automatisierten Manövrieren eines Ego-Fahrzeugs | |
DE102016220450A1 (de) | Vorrichtung, Fortbewegungsmittel und Verfahren zur Abschätzung einer Kollisionswahrscheinlichkeit zwischen einem Fortbewegungsmittel und einem Umgebungsobjekt | |
DE102021003567A1 (de) | Verfahren zur Erkennung von Objektbeziehungen und Attributierungen aus Sensordaten | |
WO2019120709A1 (de) | Verfahren und steuereinheit zur steuerung einer funktion eines zumindest teilweise automatisiert fahrenden fahrzeugs | |
DE102017122543A1 (de) | Verfahren zum Unterstützen eines Fahrers eines Kraftfahrzeugs beim Überholen eines Objektes sowie Fahrerassistenzsystem | |
DE102017105764A1 (de) | Konfiguration eines Fahrerassistenzsystems für ein Kraftfahrzeug, mit überwachten maschinellen Lernen | |
DE102016124157A1 (de) | Ermitteln einer Bremsnotwendigkeit zum Vermeiden einer Kollision eines Kraftfahrzeugs mit einem Fußgänger | |
DE102019129737A1 (de) | Verfahren zum Klassifizieren einer Umgebung eines Fahrzeugs | |
DE102021003159A1 (de) | Verfahren zur Prädiktion eines Verhaltens von Verkehrsteilnehmern | |
DE102019204187A1 (de) | Klassifizierung und temporale Erkennung taktischer Fahrmanöver von Verkehrsteilnehmern | |
DE102018209388A1 (de) | Erkennung fahrtrelevanter Situationen auf größere Entfernung | |
DE102007021579A1 (de) | Verfahren und Vorrichtung zur Klassifikation mindestens eines Verkehrszeichens | |
DE102016214599A1 (de) | Verfahren zur Verkehrszeichenerkennung in Kraftfahrzeugen | |
DE102021000792A1 (de) | Verfahren zum Betrieb eines Fahrzeuges |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R016 | Response to examination communication |