DE102014221803A1 - Verfahren und Vorrichtung zum Bestimmen einer momentan vorliegenden Fahrsituation - Google Patents

Verfahren und Vorrichtung zum Bestimmen einer momentan vorliegenden Fahrsituation Download PDF

Info

Publication number
DE102014221803A1
DE102014221803A1 DE102014221803.9A DE102014221803A DE102014221803A1 DE 102014221803 A1 DE102014221803 A1 DE 102014221803A1 DE 102014221803 A DE102014221803 A DE 102014221803A DE 102014221803 A1 DE102014221803 A1 DE 102014221803A1
Authority
DE
Germany
Prior art keywords
environment
vehicle
data
classification
driving situation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102014221803.9A
Other languages
English (en)
Inventor
Oliver Pink
Christoph Schroeder
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102014221803.9A priority Critical patent/DE102014221803A1/de
Priority to JP2017522870A priority patent/JP2018501543A/ja
Priority to PCT/EP2015/073570 priority patent/WO2016066416A1/de
Priority to US15/516,494 priority patent/US10717442B2/en
Priority to CN201580058288.0A priority patent/CN107077606A/zh
Publication of DE102014221803A1 publication Critical patent/DE102014221803A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/54Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/04Traffic conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • G06N5/046Forward inferencing; Production systems
    • G06N5/047Pattern matching networks; Rete networks
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Automation & Control Theory (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Business, Economics & Management (AREA)
  • Computational Linguistics (AREA)
  • Game Theory and Decision Science (AREA)
  • Medical Informatics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Image Analysis (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zum Bestimmen einer momentan vorliegenden Fahrsituation, in welcher sich ein Fahrzeug momentan befindet, umfassend die folgenden Schritte: – Empfangen von auf einem erfassten Fahrzeugumfeld basierenden Umfelddaten, – Extrahieren von Merkmalen aus den Umfelddaten mittels einer Mustererkennung, – Durchführen einer Klassifikation der momentan vorliegenden Fahrsituation ausschließlich basierend auf den mittels der Mustererkennung extrahierten Merkmalen, – Bereitstellen eines Ergebnisses der Klassifikation. Die Erfindung betrifft ferner eine entsprechende Vorrichtung, ein entsprechendes System sowie ein Computerprogramm.

Description

  • Die Erfindung betrifft ein Verfahren und eine Vorrichtung zum Bestimmen einer momentan vorliegenden Fahrsituation, in welcher sich ein Fahrzeug momentan befindet. Die Erfindung betrifft des Weiteren ein entsprechendes System sowie ein entsprechendes Computerprogramm.
  • Stand der Technik
  • Fahrerassistenzsysteme und zukünftige automatisierte Fahrfunktionen sind nur für ein bestimmtes Einsatzgebiet ausgelegt, innerhalb dessen sie zuverlässig funktionieren müssen. Die Beurteilung, ob in der aktuellen oder momentanen Fahrsituation eine Funktion innerhalb ihrer Systemgrenzen operieren kann und damit sicher aktivierbar ist, wird für den durchschnittlichen Fahrer mit der zunehmenden Zahl an Funktionen immer schwieriger. Es ist daher sinnvoll, diese Beurteilung dem Fahrer abzunehmen, und die Aktivierung der Funktion nur anzubieten, wenn eine beherrschbare Situation vorliegt (zum Beispiel Aktivierung eines Stauassistenten, nur wenn aktuell ein Stau vorliegt, Aktivierung eines Baustellenassistenten nur innerhalb von Baustellen, Aktivierung eines Manövrierassistenten nur innerhalb eines Parkplatzes/Parkhauses).
  • Bei Systemen zum hochautomatisierten Fahren muss aus Sicherheitsgründen (kein Fahrer als Rückfallebene) eine Aktivierung außerhalb der Systemgrenzen unbedingt vermieden werden. Verfahren zur zuverlässigen Bestimmung der aktuellen Fahrsituation sind daher für die Einführung des automatisierten Fahrens eine Schlüsseltechnologie.
  • Offenbarung der Erfindung
  • Die der Erfindung zugrunde liegende Aufgabe kann daher darin gesehen werden, ein Verfahren zum Bestimmen einer momentan vorliegenden Fahrsituation bereitzustellen, in welcher sich ein Fahrzeug momentan befindet.
  • Die der Erfindung zugrunde liegende Aufgabe kann auch darin gesehen werden, eine entsprechende Vorrichtung bereitzustellen.
  • Die der Erfindung zugrunde liegende Aufgabe kann des Weiteren darin gesehen werden, ein entsprechendes System anzugeben.
  • Die der Erfindung zugrunde liegende Aufgabe kann ferner darin gesehen werden, ein entsprechendes Computerprogramm anzugeben.
  • Diese Aufgaben werden mittels des jeweiligen Gegenstands der unabhängigen Ansprüche gelöst. Vorteilhafte Ausgestaltungen der Erfindung sind Gegenstand von jeweils abhängigen Unteransprüchen.
  • Nach einem Aspekt wird ein Verfahren zum Bestimmen einer momentan vorliegenden Fahrsituation bereitgestellt, in welcher sich ein Fahrzeug momentan befindet, umfassend die folgenden Schritte:
    • – Empfangen von auf einem erfassten Fahrzeugumfeld basierenden Umfelddaten,
    • – Extrahieren von Merkmalen aus den Umfelddaten mittels einer Mustererkennung,
    • – Durchführen einer Klassifikation der momentan vorliegenden Fahrsituation ausschließlich basierend auf den mittels der Mustererkennung extrahierten Merkmalen,
    • – Bereitstellen eines Ergebnisses der Klassifikation.
  • Gemäß einem weiteren Aspekt wird eine Vorrichtung zum Bestimmen einer momentan vorliegenden Fahrsituation bereitgestellt, in welcher sich ein Fahrzeug momentan befindet, umfassend:
    • – eine Kommunikationsschnittstelle zum Empfangen von auf einem erfassten Fahrzeugumfeld basierenden Umfelddaten,
    • – eine Verarbeitungseinrichtung zum Extrahieren von Merkmalen aus den Umfelddaten mittels einer Mustererkennung und zum Durchführen einer Klassifikation der momentan vorliegenden Fahrsituation ausschließlich basierend auf den mittels der Mustererkennung extrahierten Merkmalen, wobei
    • – die Kommunikationsschnittstelle ausgebildet ist, ein Ergebnis der Klassifikation bereitzustellen.
  • Da die Vorrichtung somit eine Klassifikation der momentan vorliegenden Fahrsituation durchführt, kann die Vorrichtung auch beispielsweise als ein Klassifikator bezeichnet werden.
  • Nach noch einem Aspekt wird ein System zum Bestimmen einer momentan vorliegenden Fahrsituation bereitgestellt, in welcher sich ein Fahrzeug momentan befindet, umfassend:
    • – die erfindungsgemäße Vorrichtung,
    • – eine Umfeldsensorik zum Erfassen eines Fahrzeugumfelds, wobei die Umfeldsensorik ausgebildet ist, auf dem erfassten Fahrzeugumfeld basierende Umfelddaten zu ermitteln und an die Vorrichtung zu senden,
    • – eine Steuerungseinrichtung zum zumindest teilweise automatisierten Führen des Fahrzeugs basierend auf dem bereitgestellten Ergebnis.
  • Nach noch einem Aspekt wird ein Computerprogramm bereitgestellt, welches Programmcode zur Durchführung des erfindungsgemäßen Verfahrens umfasst, wenn das Computerprogramm auf einem Computer ausgeführt wird.
  • Die Erfindung umfasst also insbesondere den Gedanken, die Klassifikation der momentan vorliegenden Fahrsituation ausschließlich basierend auf den mittels der Mustererkennung extrahierten Merkmalen durchzuführen. Dies im Gegensatz zu bestehenden Ansätzen zur Klassifikation einer Situation, die versuchen, eine Beziehung der anderen Verkehrsteilnehmer zum eigenen Fahrzeug, welches auch als Egofahrzeug bezeichnet werden kann, zu beschreiben, zum Beispiel "fährt voraus mit Abstand x", "fährt auf der Nachbarspur", "ist geparkt", usw., um daraus wiederum die aktuelle Fahrsituation abzuleiten, zum Beispiel "Warten an Ampel", "Fahren im Stau", usw. Diese Informationen, also diese Beziehungen der anderen Verkehrsteilnehmer zum Egofahrzeug, können nur anhand einer Musteranalyse des erfassten Fahrzeugumfelds ermittelt werden. Im Gegensatz dazu ist aber erfindungsgemäß vorgesehen, dass lediglich eine Mustererkennung für die Extraktion von Merkmalen durchgeführt wird. Eine darüber hinausgehende Musteranalyse ist erfindungsgemäß nicht notwendig, um noch weitere Informationen aus dem erfassten Fahrzeugumfeld zu extrahieren. Es reichen also die mittels der Mustererkennung extrahierten Merkmale. Eine Mustererkennung ist in der Regel schneller und einfacher durchzuführen als eine Musteranalyse. Insofern lassen sich die erfindungsgemäßen Schritte quasi in Echtzeit, also während der Fahrt oder während des Betriebs des Fahrzeugs durchführen. Es wird somit ein deutlich reduzierter Rechenaufwand benötigt verglichen mit bekannten Verfahren zur Szeneninterpretation (basierend auf einer Musteranalyse), was für einen Online-Einsatz im Fahrzeug von wesentlicher Bedeutung ist. Gleichzeitig kann in vorteilhafter Weise die direkte Klassifikation auf den Umfelddaten eine Güte der Klassifikation deutlich erhöhen.
  • Die Erfindung überspringt also den Schritt, die einzelnen Objekte der Szene, also die einzelnen Objekte in dem erfassten Fahrzeugumfeld, zu beschreiben und führt unmittelbar auf einem vorhandenen Umfeldmodell eine Situationsklassifikation durch. Dieser Vorgehensweise liegt die erfindungsgemäße Idee zugrunde, dass zur Klassifikation der Gesamtsituation, also der vorliegenden Fahrsituation, in welcher sich das Fahrzeug momentan befindet, zum Beispiel "Fahren im Stau", die genauen Eigenschaften, Positionen oder Absichten einzelner Fahrzeuge im Fahrzeugumfeld nicht notwendig sind, sondern sich diese Aussage bereits an wesentlich allgemeineren Merkmalen der Szene, zum Beispiel Anzahl von Fahrzeugen, absolute Geschwindigkeiten der Fahrzeuge, festmachen lässt. Diese allgemeineren Merkmale lassen sich in vorteilhafter Weise mittels der Mustererkennung aus dem erfassten Fahrzeugumfeld extrahieren.
  • Nach einer Ausführungsform ist vorgesehen, dass eine Umfeldsensorik gebildet ist. Die Umfeldsensorik umfasst beispielsweise einen oder mehrere Umfeldsensoren zum Erfassen eines Fahrzeugumfelds. Die mehreren Umfeldsensoren sind insbesondere gleich oder vorzugsweise unterschiedlich gebildet. Ein Umfeldsensor ist beispielsweise einer der folgenden Umfeldsensoren: Radarsensor, Lasersensor, Lidarsensor, Ultraschallsensor und Videosensor.
  • Nach einer Ausführungsform ist vorgesehen, dass das Fahrzeug eine Umfeldsensorik mit mehrere Umfeldsensoren umfasst, wobei die Umfeldsensoren jeweils das Fahrzeugumfeld erfassen und dem jeweiligen erfassten Fahrzeugumfeld entsprechende individuelle Umfeldsensordaten bereitstellen, wobei die individuellen Umfeldsensordaten miteinander fusioniert werden, so dass fusionierte Umfeldsensordaten ermittelt werden, wobei die Umfelddaten basierend auf den fusionierten Umfeldsensordaten ermittelt werden.
  • Das heißt, dass bei Vorhandensein mehrerer Umfeldsensoren nicht die Daten eines Einzelsensors, sondern insbesondere das Fusionsergebnis aller Umfeldsensoren als Eingabe für die Klassifikation genutzt oder verwendet wird. Dadurch kann in vorteilhafter Weise eine Genauigkeit der Klassifikation erhöht werden. Denn so können beispielsweise die Umfeldsensoren gegenseitig ihre eventuell vorhandenen individuellen Schwächen bezüglich einer Erfassung des Fahrzeugumfelds ausgleichen.
  • Nach einer anderen Ausführungsform ist vorgesehen, dass basierend auf dem erfassten Fahrzeugumfeld ein Belegungsgitter umfassend mehrere Zellen ermittelt wird, die jeweils eine Belegungswahrscheinlichkeit aufweisen, wobei die Umfelddaten basierend auf den jeweiligen Belegungswahrscheinlichkeiten ermittelt werden.
  • Durch die gitterförmige Anordnung der Zellen weisen die Umfelddaten dieselbe Form auf wie Bilddaten und können damit insbesondere in vorteilhafter Weise unmittelbar als Eingang für ein Verfahren zur Szenenkategorisierung aus Bildern genutzt oder verwendet werden. Auch dies reduziert in vorteilhafter Weise einen Rechenaufwand. Insbesondere wird eine Rechenzeit reduziert.
  • Nach einer Ausführungsform ist vorgesehen, dass die Belegungswahrscheinlichkeiten basierend auf den fusionierten Umfeldsensordaten ermittelt werden, wobei die Umfelddaten basierend auf den jeweiligen Belegungswahrscheinlichkeiten ermittelt werden. Da die Umfelddaten auf den jeweiligen Belegungswahrscheinlichkeiten basieren und die Belegungswahrscheinlichkeiten auf den fusionierten Umfeldsensordaten basieren, basieren insofern auch zumindest mittelbar die Umfelddaten auf den fusionierten Umfeldsensordaten.
  • In einer anderen Ausführungsform ist vorgesehen, dass den Zellen zusätzlich eine weitere Eigenschaft zugeordnet wird, die basierend auf dem erfassten Fahrzeugumfeld ermittelt wird. Dadurch wird insbesondere der technische Vorteil bewirkt, dass das Belegungsgitter noch besser das Fahrzeugumfeld abbildet, was letztlich zu einer genaueren Klassifikation führt.
  • Nach einer weiteren Ausführungsform ist vorgesehen, dass das Fahrzeug ein Fahrerassistenzsystem zum Bereitstellen einer zumindest teilautomatisierten, vorzugsweise vollautomatisierten, Fahrfunktion aufweist, wobei das Fahrerassistenzsystem für die Führung des Fahrzeugs nur dann aktiviert wird, wenn die Fahrfunktion für die klassifizierte momentan vorliegende Fahrsituation einsetzbar ist. Dadurch wird insbesondere der technische Vorteil bewirkt, dass sichergestellt wird, dass die Aktivierungsbedingungen für eine automatisierte Fahrfunktion erfüllt sind, wenn diese nur in einer bestimmten Fahrsituation einsetzbar sein soll (zum Beispiel nur auf Parkplätzen, nur auf Autobahnen usw.).
  • In einer anderen Ausführungsform ist vorgesehen, dass die Klassifikation basierend auf ein Verfahren zur Szenenkategorisierung aus Bildern durchgeführt wird.
  • Nach einer Ausführungsform ist das Verfahren zur Szenenkategorisierung das sogenannte „Deep Learning”-Verfahren. Wie in 6 dargestellt, wird hierbei ein Bild (Belegungsbild) des Umfeldes basierend auf allen Sensoren ermittelt. Das ermittelte Bild wird nach einer Ausführungsform herunterskaliert, um in vorteilhafter Weise eine Rechenzeit für die Klassifizierung zu reduzieren.
  • Nach einer weiteren Ausführungsform wird ein Klassifikator mit einem Teil der aufgezeichneten Daten (Belegungsbild), die vorzugsweise nach Situationen gelabelten oder klassifiziert sind, trainiert, wobei nach einer weiteren Ausführungsform mit dem anderen Teil der Daten der Klassifikator getestet wird.
  • Bei dem Klassifikator müssen in vorteilhafter Weise keine spezifischen Merkmale extrahiert werden, diese werden vom Klassifikator während des Trainings eigenständig ermittelt.
  • Die Situationen, in denen diese Art der Klassifikation gut funktioniert, sind beispielsweise: Autobahnfahrt gegenüber einer Staufahrt gegenüber einer Landstrasse gegenüber einer Kreuzungssituationen gegenüber einer Parkplatzsituationen gegenüber Stadtfahrten.
  • Dabei kann, muss aber nicht, eine Eigenbewegung des Fahrzeugs als zusätzlicher Parameter für die Klassifikation mit verwendet werden.
  • Vorteilhaft ist, dass das Verfahren keine Beziehungen zwischen Objekten und dem Egofahrzeug aufbaut. Dieser Vorgehensweise liegt die erfindungsgemäße Idee zu Grunde, dass zur Klassifikation der Gesamtsituation, zum Beispiel „Fahren im Stau“, die genauen Eigenschaften, Positionen oder Absichten einzelner Fahrzeuge nicht notwendig sind, sondern sich diese Aussage, also die Klassifikation, bereits an wesentlich allgemeineren Merkmalen der Szene, zum Beispiel Anzahl an Fahrzeugen (zum Beispiel: Dichte der Belegung im Belegungsgitter), absolute Geschwindigkeiten usw. festmachen oder treffen lässt.
  • Die Kommunikation wird vorzugsweise über ein Kommunikationsnetzwerk, zum Beispiel einen CAN-Bus, durchgeführt. Insbesondere empfängt die Kommunikationsschnittstelle die entsprechenden Daten (zum Beispiel Umfelddaten) über das Kommunikationsnetzwerk. Insbesondere stellt die Kommunikationsschnittstelle das Ergebnis über das Kommunikationsnetzwerk bereit, bereitstellen heißt insbesondere senden.
  • Das Führen des Fahrzeugs umfasst in einer Ausfühungsform insbesondere eine Längs- und/oder eine Querführung des Fahrzeugs. Insbesondere ist eine teilautomatisierte, vorzugsweise vollautomatisierte, Führung vorgesehen.
  • Ausführungsformen hinsichtlich des Verfahrens ergeben sich analog aus Ausführungsformen hinsichtlich der Vorrichtung und/oder des Systems und jeweils umgekehrt in beliebiger Kombination. Das heißt, dass Ausführungen, Merkmale und/oder technische Wirkungen und/oder technische Vorteile, wie sie im Zusammenhang mit dem Verfahren, der Vorrichtung oder dem System beschrieben sind, analog für die Vorrichtung das Verfahren oder das System gelten.
  • Die Erfindung wird im Folgenden anhand von bevorzugten Ausführungsbeispielen näher erläutert. Hierbei zeigen
  • 1 ein Ablaufdiagramm eines Verfahrens zum Bestimmen einer momentan vorliegenden Fahrsituation, in welcher sich ein Fahrzeug momentan befindet,
  • 2 eine Vorrichtung zum Bestimmen einer momentan vorliegenden Fahrsituation, in welcher sich ein Fahrzeug momentan befindet,
  • 3 ein System zum Bestimmen einer momentan vorliegenden Fahrsituation, in welcher sich ein Fahrzeug momentan befindet,
  • 4 ein Blockdiagramm einer Situationsklassifikation,
  • 5 ein Blockdiagramm einer weiteren Situationsklassifikation und
  • 6 zwei Beispiele für eine Umfelddarstellung in einem Belegungsgitter für zwei verschiedene Situationen.
  • 1 zeigt ein Ablaufdiagramm eines Verfahrens zum Bestimmen einer momentan vorliegenden Fahrsituation, in welcher sich ein Fahrzeug momentan befindet.
  • In einem Schritt 101 werden Umfelddaten empfangen, wobei diese Umfelddaten auf einem erfassten Fahrzeugumfeld basieren. Beispielsweise ist vorgesehen, dass das Fahrzeugumfeld mittels einer Umfeldsensorik erfasst wird. In einem Schritt 103 werden aus den Umfelddaten Merkmale extrahiert. Dies mittels einer Mustererkennung. Es findet dann in einem Schritt 105 eine Klassifikation der momentan vorliegenden Fahrsituation statt. Dies ausschließlich basierend auf den mittels der Mustererkennung extrahierten Merkmalen. Das heißt, dass für die Klassifikation keine Musteranalyse der Umfelddaten durchgeführt wird. In einem Schritt 107 wird das Ergebnis der Klassifikation bereitgestellt.
  • 2 zeigt eine Vorrichtung 201 zum Bestimmen einer momentan vorliegenden Fahrsituation, in welcher sich ein Fahrzeug momentan befindet.
  • Die Vorrichtung 201 umfasst eine Kommunikationsschnittstelle 203 zum Empfangen von auf einem erfassten Fahrzeugumfeld basierenden Umfelddaten. Die Vorrichtung 201 umfasst ferner eine Verarbeitungseinrichtung 205 zum Extrahieren von Merkmalen aus den Umfelddaten mittels einer Mustererkennung und zum Durchführen einer Klassifikation der momentan vorliegenden Fahrsituation ausschließlich basierend auf den mittels der Mustererkennung extrahierten Merkmale. Die Kommunikationsschnittstelle 203 ist ausgebildet, ein Ergebnis der Klassifikation bereitzustellen oder auszusenden.
  • 3 zeigt ein System 301 zum Bestimmen einer momentan vorliegenden Fahrsituation, in welcher sich ein Fahrzeug momentan befindet.
  • Das System 301 umfasst die Vorrichtung 201 gemäß 2. Ferner umfasst das System 301 eine Umfeldsensorik 303 zum Erfassen eines Fahrzeugumfelds. Die Umfeldsensorik 303 ist ausgebildet, auf dem erfassten Fahrzeugumfeld basierende Umfelddaten zu ermitteln und an die Vorrichtung 201 zu senden. So kann dann die Kommunikationsschnittstelle 203 der Vorrichtung 201 diese Umfelddaten empfangen und weiterverarbeiten. Das System 301 umfasst ferner eine Steuerungseinrichtung 305 zum zumindest teilweise automatisierten Führen, vorzugsweise vollautomatisierten Führen, des Fahrzeugs basierend auf dem bereitgestellten Ergebnis.
  • Das Führen des Fahrzeugs umfasst insbesondere eine Längs- und/oder eine Querführung des Fahrzeugs.
  • 4 zeigt ein Blockdiagramm einer bildbasierten Situationsklassifikation.
  • Gezeigt ist ein Sensor 401 der Umfeldsensorik 303. Der Sensor 401 ist beispielsweise ein Videosensor. Der Sensor 401 erfasst ein Fahrzeugumfeld. Im Fall eines Videosensors ist dies ein Videobild. Das erfasste Umfeld ist symbolisch mit dem Bezugszeichen 403 gekennzeichnet. Das erfasste Umfeld 403 wird dann verwendet, um eine bildbasierte Situationsklassifikation unter Verwendung eines Verfahrens zur Szenenkategorisierung in Bildern durchzuführen. Hierfür wird das erfasste Umfeld 403, genauer die darauf basierenden Umfelddaten, der Vorrichtung 201 zugeführt. Diese extrahiert Merkmale aus dem erfassten Fahrzeugumfeld, also beispielsweise aus dem Videobild, mittels einer Mustererkennung. Die Klassifikation der momentan vorliegenden Fahrsituation wird mittels der Vorrichtung 201 ausschließlich basierend auf den mittels der Mustererkennung extrahierten Merkmalen durchgeführt. Das Ergebnis der Klassifikation wird dann bereitgestellt. Ergebnisse der Klassifikation können beispielsweise folgende sein:
    Autobahnfahrt 405, Staufahrt 407, Fahrt auf Kreuzung 409 und Fahren im Parkhaus 411.
  • Gemäß der Ausführungsform der 4 dient die Erfassung des Fahrzeugumfelds mittels eines einzelnen Umfeldsensors für die Extraktion der Merkmale. Das heißt, dass sozusagen aus einem einzelnen Umfeldsensor Merkmale extrahiert werden und anhand dieser extrahierten Merkmale eine Klassifikation in die verschiedenen zu erwartenden Fahrsituationen durchgeführt wird.
  • Da die Vorrichtung 201 somit letztlich eine Klassifikation der momentan vorliegenden Fahrsituation durchführt, kann die Vorrichtung 201 auch beispielsweise als ein Klassifikator bezeichnet werden.
  • 5 zeigt ein Blockdiagramm einer weiteren Situationsklassifikation anhand eines Belegungsgitters unter Verwendung eines Verfahrens zur Szenenkategorisierung in Bildern.
  • Hier umfasst die Umfeldsensorik 303 mehrere Sensoren 401, 501, 503. Der Sensor 401 ist beispielsweise ein Videosensor. Der Sensor 501 ist beispielsweise ein Radarsensor. Der Sensor 503 ist beispielsweise ein Ultraschall- oder ein Lidarsensor. Bei Vorhandensein dieser mehreren Umfeldsensoren 401, 501, 503 werden vorzugsweise nicht die Sensordaten eines Einzelsensors verwendet, sondern vielmehr wird das Fusionsergebnis aller Sensoren 401, 501, 503 als Eingabe der Klassifikation, also als Eingabe für die Vorrichtung 201, genutzt. Das heißt, dass die Umfeldsensoren 401, 501, 503 jeweils das Fahrzeugumfeld erfassen und dem jeweiligen erfassten Fahrzeugumfeld entsprechende individuelle Umfeldsensordaten bereitstellen, wobei die individuellen Umfeldsensordaten miteinander fusioniert werden, sodass fusionierte Umfeldsensordaten ermittelt werden, wobei die Umfelddaten basierend auf den fusionierten Umfeldsensordaten ermittelt werden. Diese Umfelddaten werden dann der Vorrichtung 201 bereitgestellt. Die Fusion wird in dem Block 505 durchgeführt. Die fusionierten Umfeldsensordaten können für das Ermitteln eines Belegungsgitters 507 verwendet werden, welches mehrere Zellen umfasst, die jeweils eine Belegungswahrscheinlichkeit aufweisen. Es ist hier also eine Umfelddarstellung in Form eines Belegungsgitters vorgesehen, bei der das gesamte Fahrzeugumfeld in Form von Zellen mit einer Belegungswahrscheinlichkeit und beispielsweise optional weiteren Eigenschaften, zum Beispiel Geschwindigkeit der Zellen, dargestellt ist. Durch die gitterförmige Anordnung der Zellen des Belegungsgitters haben die Daten, die den Zellen zugeordnet sind, dieselbe Form wie Bilddaten und können damit unmittelbar als Eingang für ein Verfahren zur Szenenkategorisierung aus Bildern genutzt werden. Hierbei ist also erfindungsgemäß vorgesehen, dass die Klassifikation unter Verwendung eines solchen Verfahrens zur Szenenkategorisierung aus Bildern durchgeführt wird. Ergebnisse der Klassifikation sind beispielsweise analog zu 3 die folgenden: Autobahnfahrt 405, Staufahrt 407, Fahrt auf Kreuzung 409 und Fahren im Parkhaus 411.
  • 6 zeigt zwei Beispiele für eine Umfelddarstellung in einem Belegungsgitter für zwei verschiedene Situationen.
  • Die Bezugszeichen 601 und 603 zeigen jeweils auf ein Belegungsgitter, welches ein Umfeld darstellt. Ferner sind Pfeile eingezeichnet, die auf Objekte im Umfeld zeigen. Der Pfeil mit dem Bezugszeichen 605 zeigt auf eine Häuserwand. Der Pfeil mit dem Bezugszeichen 607 zeigt auf ein parkendes Fahrzeug. Der Pfeil mit dem Bezugszeichen 609 zeigt auf Fahrzeuge. Der Pfeil mit dem Bezugszeichen 611 zeigt auf eine Randbebauung (zum Beispiel Häuser). Der Pfeil mit dem Bezugszeichen 613 zeigt auf eine Böschung. Der Pfeil mit dem Bezugszeichen 615 zeigt auf ein Hindernis. Die weißen Flächen oder Zellen in dem Belegungsgitter 601 und 603 kennzeichnen belegte Flächen oder Zellen. Die schwarzen Flächen oder Zellen in den Belegungsgitter 601, 603 kennzeichnen freie Flächen oder Zellen. Die Belegungsgitter 601 und 603 sind Beispiele für das Belegungsgitter 507 der 5.
  • Zusammenfassend umfasst die Erfindung insbesondere den Gedanken, ein oder mehrere Verfahren zur Szenenkategorisierung aus Bildern zu verwenden, um eine Klassifikation der momentan vorliegenden Fahrsituation basierend auf einem mittels einer Umfeldsensorik erfassten Fahrzeugumfeld durchzuführen. Solche Verfahren basieren in der Regel auf einer Extraktion von geeigneten Merkmalen aus den Bilddaten und anschließender Klassifikation. Diese Verfahren lassen sich in vorteilhafter Weise auf einfache Weise unmittelbar für den Einsatz in einem Fahrerassistenzsystem und/oder in einer automatisierten Fahrfunktion übertragen, indem beispielsweise aus einem einzelnen Umfeldsensor Merkmale extrahiert werden und anhand dieser eine Klassifikation in die verschiedenen zu erwartenden Fahrsituationen durchgeführt wird (vgl. Blockdiagramm der 4). Besonders vorteilhaft ist es, bei Vorhandensein mehrerer Umfeldsensoren nicht die Daten eines Einzelsensors, sondern das Fusionsergebnis aller Umfeldsensoren als Eingabe der Klassifikation zu nutzen (vgl. Blockdiagramm der 5 und entsprechende Ausführungen).
  • Dadurch ist es also in vorteilhafter Weise insbesondere ermöglicht, eine Bestimmung der Fahrsituation, in der sich ein Fahrzeug aktuell befindet, beispielsweise "Fahren auf einer Autobahn", "Fahren im Stau", "Warten an einer Kreuzung", "Manövrieren auf Parkplatz", durchzuführen. Diese Bestimmung kann somit in vorteilhafter Weise online im Fahrzeug erfolgen, also quasi in Echtzeit, wobei aufgrund der Verwendung der vorstehend genannten Verfahren eine schnelle und gleichzeitig zuverlässige Klassifikation ermöglicht ist. Eingesetzt werden kann ein solches Verfahren zum Beispiel in einem automatisierten Fahrzeug zur Anpassung des Fahrzeugverhaltens an die aktuelle Fahrsituation oder zur Sicherstellung, dass die Aktivierungsbedingungen für eine automatisierte Fahrfunktion erfüllt sind, wenn diese nur in einer bestimmten Fahrsituation einsetzbar sein soll (vgl. zum Beispiel nur auf Parkplätzen, nur auf Autobahnen). Der vorstehend erläuterte Einsatz ist nach einer Ausführungsform auch vorgesehen.

Claims (10)

  1. Verfahren zum Bestimmen einer momentan vorliegenden Fahrsituation, in welcher sich ein Fahrzeug momentan befindet, umfassend die folgenden Schritte: – Empfangen (101) von auf einem erfassten Fahrzeugumfeld (403) basierenden Umfelddaten, – Extrahieren (103) von Merkmalen aus den Umfelddaten mittels einer Mustererkennung, – Durchführen (105) einer Klassifikation der momentan vorliegenden Fahrsituation ausschließlich basierend auf den mittels der Mustererkennung extrahierten Merkmalen, – Bereitstellen (107) eines Ergebnisses (405, 407, 409, 411) der Klassifikation.
  2. Verfahren nach Anspruch 1, wobei das Fahrzeug eine Umfeldsensorik mit mehrere Umfeldsensoren (401, 501, 503) umfasst, wobei die Umfeldsensoren (401, 501, 503) jeweils das Fahrzeugumfeld (403) erfassen und dem jeweiligen erfassten Fahrzeugumfeld (403) entsprechende individuelle Umfeldsensordaten bereitstellen, wobei die individuellen Umfeldsensordaten miteinander fusioniert werden, so dass fusionierte Umfeldsensordaten ermittelt werden, wobei die Umfelddaten basierend auf den fusionierten Umfeldsensordaten ermittelt werden.
  3. Verfahren nach Anspruch 1 oder 2, wobei basierend auf dem erfassten Fahrzeugumfeld (403) ein Belegungsgitter (507) umfassend mehrere Zellen ermittelt wird, die jeweils eine Belegungswahrscheinlichkeit aufweisen, wobei die Umfelddaten basierend auf den jeweiligen Belegungswahrscheinlichkeiten ermittelt werden.
  4. Verfahren nach den Ansprüchen 2 und 3, wobei die Belegungswahrscheinlichkeiten basierend auf den fusionierten Umfeldsensordaten ermittelt werden, wobei die Umfelddaten basierend auf den jeweiligen Belegungswahrscheinlichkeiten ermittelt werden.
  5. Verfahren nach Anspruch 3 oder 4, wobei den Zellen zusätzlich eine weitere Eigenschaft zugeordnet wird, die basierend auf dem erfassten Fahrzeugumfeld (403) ermittelt wird.
  6. Verfahren nach einem der vorherigen Ansprüche, wobei das Fahrzeug ein Fahrerassistenzsystem zum Bereitstellen einer zumindest teilautomatisierten Fahrfunktion aufweist, wobei das Fahrerassistenzsystem für die Führung des Fahrzeugs nur dann aktiviert wird, wenn die Fahrfunktion für die klassifizierte momentan vorliegende Fahrsituation einsetzbar ist.
  7. Verfahren nach einem der vorherigen Ansprüche, wobei die Klassifikation basierend auf ein Verfahren zur Szenenkategorisierung aus Bildern durchgeführt wird.
  8. Vorrichtung (201) zum Bestimmen einer momentan vorliegenden Fahrsituation, in welcher sich ein Fahrzeug momentan befindet, umfassend: – eine Kommunikationsschnittstelle (203) zum Empfangen von auf einem erfassten Fahrzeugumfeld (403) basierenden Umfelddaten, – eine Verarbeitungseinrichtung (205) zum Extrahieren von Merkmalen aus den Umfelddaten mittels einer Mustererkennung und zum Durchführen einer Klassifikation der momentan vorliegenden Fahrsituation ausschließlich basierend auf den mittels der Mustererkennung extrahierten Merkmalen, wobei – die Kommunikationsschnittstelle (203) ausgebildet ist, ein Ergebnis (405, 407, 409, 411) der Klassifikation bereitzustellen.
  9. System (301) zum Bestimmen einer momentan vorliegenden Fahrsituation, in welcher sich ein Fahrzeug momentan befindet, umfassend: – die Vorrichtung (201) nach Anspruch 8, – eine Umfeldsensorik (303) zum Erfassen eines Fahrzeugumfelds (403), wobei die Umfeldsensorik (303) ausgebildet ist, auf dem erfassten Fahrzeugumfeld (403) basierende Umfelddaten zu ermitteln und an die Vorrichtung (201) zu senden, – eine Steuerungseinrichtung (305) zum zumindest teilweise automatisierten Führen des Fahrzeugs basierend auf dem bereitgestellten Ergebnis (405, 407, 409, 411).
  10. Computerprogramm, umfassend Programmcode zur Durchführung des Verfahrens nach einem der Ansprüche 1 bis 7, wenn das Computerprogramm auf einem Computer ausgeführt wird.
DE102014221803.9A 2014-10-27 2014-10-27 Verfahren und Vorrichtung zum Bestimmen einer momentan vorliegenden Fahrsituation Pending DE102014221803A1 (de)

Priority Applications (5)

Application Number Priority Date Filing Date Title
DE102014221803.9A DE102014221803A1 (de) 2014-10-27 2014-10-27 Verfahren und Vorrichtung zum Bestimmen einer momentan vorliegenden Fahrsituation
JP2017522870A JP2018501543A (ja) 2014-10-27 2015-10-12 現在存在する走行状況を特定するための方法及び装置
PCT/EP2015/073570 WO2016066416A1 (de) 2014-10-27 2015-10-12 Verfahren und vorrichtung zum bestimmen einer momentan vorliegenden fahrsituation
US15/516,494 US10717442B2 (en) 2014-10-27 2015-10-12 Method and apparatus for determining a presently existing driving situation
CN201580058288.0A CN107077606A (zh) 2014-10-27 2015-10-12 用于确定当前存在的行驶情况的方法和设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102014221803.9A DE102014221803A1 (de) 2014-10-27 2014-10-27 Verfahren und Vorrichtung zum Bestimmen einer momentan vorliegenden Fahrsituation

Publications (1)

Publication Number Publication Date
DE102014221803A1 true DE102014221803A1 (de) 2016-04-28

Family

ID=54364265

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102014221803.9A Pending DE102014221803A1 (de) 2014-10-27 2014-10-27 Verfahren und Vorrichtung zum Bestimmen einer momentan vorliegenden Fahrsituation

Country Status (5)

Country Link
US (1) US10717442B2 (de)
JP (1) JP2018501543A (de)
CN (1) CN107077606A (de)
DE (1) DE102014221803A1 (de)
WO (1) WO2016066416A1 (de)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019204752A1 (de) * 2019-04-03 2020-03-26 Thyssenkrupp Ag Verfahren und Einrichtung zum Betrieb von insbesondere im Tagebau einsetzbaren Abraum- und Fördermaschinen
WO2020200835A1 (de) 2019-04-03 2020-10-08 Thyssenkrupp Industrial Solutions Ag Verfahren und einrichtung zum automatisierbaren betrieb einer materialgewinnungsanlage an der abbaufront einer materialgewinnungsstätte
DE102019204751A1 (de) * 2019-04-03 2020-10-08 Thyssenkrupp Ag Verfahren und Einrichtung zum automatisierbaren Betrieb einer Materialgewinnungsanlage an der Abbaufront einer Materialgewinnungsstätte
BE1027160A1 (de) 2019-04-03 2020-10-27 Thyssenkrupp Ind Solutions Ag Verfahren und Einrichtung zum Betrieb von insbesondere im Tagebau einsetzbaren Abraum- und Fördermaschinen
DE102020208889A1 (de) 2020-07-16 2022-01-20 Continental Automotive Gmbh Verfahren zur Kreuzungserkennung

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017215552A1 (de) * 2017-09-05 2019-03-07 Robert Bosch Gmbh Plausibilisierung der Objekterkennung für Fahrassistenzsysteme
KR102466940B1 (ko) * 2018-04-05 2022-11-14 한국전자통신연구원 로봇 주행용 위상 지도 생성 장치 및 방법
KR102388806B1 (ko) * 2021-04-30 2022-05-02 (주)에이아이매틱스 주행 상황 판단 시스템
FR3132068A1 (fr) * 2022-01-24 2023-07-28 Psa Automobiles Sa Procédé et dispositif de contrôle d’un système d’aide à la conduite embarqué dans un véhicule

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7292152B2 (en) * 2003-06-12 2007-11-06 Temic Automotive Of North America, Inc. Method and apparatus for classifying vehicle operator activity state
DE102005052175A1 (de) * 2005-11-02 2007-05-24 Robert Bosch Gmbh Verfahren und System zur Ausgabe von Informationen zu spezifischen Bestimmungen und/oder Beschränkungen für Fahrzeuge
DE102006056835A1 (de) * 2006-12-01 2008-06-05 Robert Bosch Gmbh Verfahren zum gitterbasierten Verarbeiten von Sensorsignalen
EP2574958B1 (de) * 2011-09-28 2017-02-22 Honda Research Institute Europe GmbH Straßenterrain-Erkennungsverfahren und System für Fahrerhilfssysteme
DE102011084275A1 (de) * 2011-10-11 2013-04-11 Robert Bosch Gmbh Verfahren zum Betreiben eines Fahrerassistenzsystems und Verfahren zum Bearbeiten von Fahrzeugumfelddaten
US8718861B1 (en) * 2012-04-11 2014-05-06 Google Inc. Determining when to drive autonomously
DE102012109377A1 (de) * 2012-10-02 2014-04-03 Continental Teves Ag & Co. Ohg Verfahren und Vorrichtung zur Repräsentation von Umgebungsstrukturen in einem Belegungsgitter mit Kritikalitätswerten
JP5494845B1 (ja) 2013-01-17 2014-05-21 株式会社デンソーアイティーラボラトリ 情報提供システム
DE102013219909A1 (de) * 2013-10-01 2015-04-02 Conti Temic Microelectronic Gmbh Verfahren und Vorrichtung zur Erkennung von Verkehrszeichen
DE102014205180A1 (de) * 2014-03-20 2015-09-24 Robert Bosch Gmbh Verfahren und Vorrichtung zum Betreiben eines Fahrzeugs
US9731713B2 (en) * 2014-09-10 2017-08-15 Volkswagen Ag Modifying autonomous vehicle driving by recognizing vehicle characteristics
DE102017208163A1 (de) * 2017-05-15 2018-11-15 Robert Bosch Gmbh Verfahren und Vorrichtung zum Betreiben eines automatisierten Fahrzeugs

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019204752A1 (de) * 2019-04-03 2020-03-26 Thyssenkrupp Ag Verfahren und Einrichtung zum Betrieb von insbesondere im Tagebau einsetzbaren Abraum- und Fördermaschinen
WO2020200835A1 (de) 2019-04-03 2020-10-08 Thyssenkrupp Industrial Solutions Ag Verfahren und einrichtung zum automatisierbaren betrieb einer materialgewinnungsanlage an der abbaufront einer materialgewinnungsstätte
DE102019204751A1 (de) * 2019-04-03 2020-10-08 Thyssenkrupp Ag Verfahren und Einrichtung zum automatisierbaren Betrieb einer Materialgewinnungsanlage an der Abbaufront einer Materialgewinnungsstätte
BE1027160A1 (de) 2019-04-03 2020-10-27 Thyssenkrupp Ind Solutions Ag Verfahren und Einrichtung zum Betrieb von insbesondere im Tagebau einsetzbaren Abraum- und Fördermaschinen
BE1027207A1 (de) 2019-04-03 2020-11-17 Thyssenkrupp Ind Solutions Ag Verfahren und Einrichtung zum automatisierbaren Betrieb einer Materialgewinnungsanlage an der Abbaufront einer Materialgewinnungsstätte
DE102020208889A1 (de) 2020-07-16 2022-01-20 Continental Automotive Gmbh Verfahren zur Kreuzungserkennung

Also Published As

Publication number Publication date
JP2018501543A (ja) 2018-01-18
US20180222486A1 (en) 2018-08-09
WO2016066416A1 (de) 2016-05-06
US10717442B2 (en) 2020-07-21
CN107077606A (zh) 2017-08-18

Similar Documents

Publication Publication Date Title
DE102014221803A1 (de) Verfahren und Vorrichtung zum Bestimmen einer momentan vorliegenden Fahrsituation
EP2888604B1 (de) Verfahren zur bestimmung eines fahrspurverlaufs für ein fahrzeug
EP2629243A1 (de) Verfahren zum Erkennen und Verfolgen von Fahrspurmarkierungen
DE102016003424B4 (de) Verfahren und Vorrichtung zum Erkennen von Verkehrszeichen
EP2116958B1 (de) Verfahren und Vorrichtung zum Ermitteln des Fahrbahnverlaufs im Bereich vor einem Fahrzeug
DE102016210534A1 (de) Verfahren zum Klassifizieren einer Umgebung eines Fahrzeugs
DE102018133441A1 (de) Verfahren und System zum Bestimmen von Landmarken in einer Umgebung eines Fahrzeugs
DE102019216206A1 (de) Vorrichtung und Verfahren zum Bestimmen einer Kehrtwendestrategie eines autonomen Fahrzeugs
DE102020112825A1 (de) Verfahren zum Erfassen von relevanten statischen Objekten innerhalb einer Fahrspur sowie Recheneinrichtung für ein Fahrerassistenzsystem eines Fahrzeugs
WO2020143977A1 (de) Vorrichtung und verfahren zur verbesserung von assistenzsystemen für laterale fahrzeugbewegungen
DE102019214558A1 (de) Projektionsinformations-erkennungsvorrichtung auf basis eines künstlichen neuronalen netzwerks und verfahren derselben
DE102016012345A1 (de) Verfahren zum Erkennen von Objekten
DE102016120066A1 (de) Computer-implementiertes Verfahren zum Kontrollieren bzw. Testen eines Objekterkennungssystems
DE102021003567A1 (de) Verfahren zur Erkennung von Objektbeziehungen und Attributierungen aus Sensordaten
DE102021111325A1 (de) Verfahren und Assistenzeinrichtung zum Unterstützen eines Fahrbetriebs eines Kraftfahrzeugs und Kraftfahrzeug
DE102018220114A1 (de) Vorrichtung und Verfahren zum Erkennen einer Sensorblockade eines Umgebungssensors
DE102020211649A1 (de) Verfahren und System zum Erstellen eines Straßenmodells
DE102018109680A1 (de) Verfahren zum Unterscheiden von Fahrbahnmarkierungen und Bordsteinen durch parallele zweidimensionale und dreidimensionale Auswertung; Steuereinrichtung; Fahrassistenzsystem; sowie Computerprogrammprodukt
DE102018206743A1 (de) Verfahren zum Betreiben eines Fahrerassistenzsystems eines Egofahrzeugs mit wenigstens einem Umfeldsensor zum Erfassen eines Umfelds des Egofahrzeugs, Computer-lesbares Medium, System, und Fahrzeug
DE102021207609A1 (de) Verfahren zur Kennzeichnung eines Bewegungsweges
EP3791314A1 (de) Verfahren zur fahrspur- und fahrbahndetektion
DE102022201355B4 (de) Verfahren zum Erstellen einer Datenbank zur Fahrkontexterkennung
WO2019057252A1 (de) Verfahren und vorrichtung zum erkennen von fahrspuren, fahrerassistenzsystem und fahrzeug
DE102018114628A1 (de) Auf tiefem Lernen basierende automatische oder halbautomatische Ausparkverfahren
EP3671125B1 (de) Positionsbestimmungssystem und verfahren zum betreiben eines positionsbestimmungssystems für eine mobile einheit

Legal Events

Date Code Title Description
R012 Request for examination validly filed