DE102019213791A1 - Einsetzen von Informationen aus Verkehrsspiegeln für automatisiertes Fahren - Google Patents

Einsetzen von Informationen aus Verkehrsspiegeln für automatisiertes Fahren Download PDF

Info

Publication number
DE102019213791A1
DE102019213791A1 DE102019213791.1A DE102019213791A DE102019213791A1 DE 102019213791 A1 DE102019213791 A1 DE 102019213791A1 DE 102019213791 A DE102019213791 A DE 102019213791A DE 102019213791 A1 DE102019213791 A1 DE 102019213791A1
Authority
DE
Germany
Prior art keywords
traffic
vehicle
determined
information
mirror
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102019213791.1A
Other languages
English (en)
Inventor
Holger Mielenz
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102019213791.1A priority Critical patent/DE102019213791A1/de
Priority to CN202010946363.XA priority patent/CN112489416A/zh
Publication of DE102019213791A1 publication Critical patent/DE102019213791A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0108Measuring and analyzing of parameters relative to traffic conditions based on the source of data
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/095Traffic lights
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/18Propelling the vehicle
    • B60W30/18009Propelling the vehicle related to particular drive situations
    • B60W30/18154Approaching an intersection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0015Planning or execution of driving tasks specially adapted for safety
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0108Measuring and analyzing of parameters relative to traffic conditions based on the source of data
    • G08G1/0116Measuring and analyzing of parameters relative to traffic conditions based on the source of data from roadside infrastructure, e.g. beacons
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0125Traffic data processing
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0137Measuring and analyzing of parameters relative to traffic conditions for specific applications
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits
    • G08G1/096708Systems involving transmission of highway information, e.g. weather, speed limits where the received information might be used to generate an automatic action on the vehicle control
    • G08G1/096725Systems involving transmission of highway information, e.g. weather, speed limits where the received information might be used to generate an automatic action on the vehicle control where the received information generates an automatic action on the vehicle control
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/167Driving aids for lane monitoring, lane changing, e.g. blind spot detection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/40High definition maps
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • B60W2556/50External transmission of data to or from the vehicle of positioning data, e.g. GPS [Global Positioning System] data

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Atmospheric Sciences (AREA)
  • Traffic Control Systems (AREA)

Abstract

Offenbart ist ein Verfahren zur Nutzung von Bilddaten, ermittelt aus Reflektionen von mindestens einem Verkehrsspiegel an einem Verkehrsknotenpunkt, durch ein Steuergerät, wobei Messdaten empfangen werden und ein Verkehrsknotenpunkt mit mindestens einem Verkehrsspiegel auf einer voraussichtlichen Trajektorie eines Fahrzeugs bei einer Auswertung der Messdaten erkannt wird, Steuerbefehle zum Anpassen einer Geschwindigkeit des Fahrzeugs oder zum Halten des Fahrzeugs an einem ermittelten Haltepunkt vor dem Verkehrsknotenpunkt ausgegeben werden, Umfeldinformationen über ein Fahrzeugumfeld empfangen werden, Bilddaten über einen beeinträchtigt einsehbaren Bereich in einem Fahrzeugumfeld aus Reflektionen des mindestens einen Verkehrsspiegels ermittelt und empfangen werden, eine Einfahrtsentscheidung in den Verkehrskotenpunkt anhand der ermittelten Umfeldinformationen über das Umfeld des Fahrzeugs und/oder der ermittelten Bilddaten aus dem mindestens einen Verkehrsspiegel getroffen wird. Des Weiteren sind ein Steuergerät, ein Computerprogramm sowie ein maschinenlesbares Speichermedium offenbart.

Description

  • Die Erfindung betrifft ein Verfahren zur Nutzung von Bilddaten, ermittelt aus Reflektionen von mindestens einem Verkehrsspiegel an einem Verkehrsknotenpunkt, durch ein Steuergerät. Des Weiteren betrifft die Erfindung ein Steuergerät, ein Computerprogramm sowie ein maschinenlesbares Speichermedium.
  • Stand der Technik
  • Verkehrsknotenpunkte sind häufig schwer einsehbar und stellen für automatisiert betreibbare Fahrzeuge eine besondere Herausforderung dar. Aufgrund der oft erst bei einer Einfahrt in den Verkehrsknotenpunkt überblickbaren Verkehrssituation ist eine Voraussage einer optimalen und sicheren Trajektorie durch den schwer einsehbaren Bereich kaum möglich. Zudem ist nach dem Einfahren in den Verkehrsknotenpunkt eine schnelle Reaktion auf die vorgefundene Situation nötig, um eine Unterbrechung des Verkehrsflusses, beispielsweise auf einer Kreuzung, durch das Fahrzeug zu vermeiden.
  • Eine alleinige Nutzung der üblichen Fahrzeugsensorik in Kombination mit GPSbasierter Lokalisierung und der Nutzung digitaler Karten kann insbesondere in kritische Ausnahmesituation durch ein liegengebliebenes Fahrzeug oder einen Unfall keine exakte Einschätzung für ein Anhalten oder eine sichere Weiterfahrt liefern. Häufig werden an Verkehrsknotenpunkten zur Erweiterung des Sichtfeldes des Fahrers Verkehrsspiegel positioniert, die es dem Fahrer ermöglichen in den schwer einsehbaren Bereich zu blicken und einzuschätzen, ob eine sichere Einfahrt in den Verkehrsknotenpunkt möglich ist.
  • Üblicherweise muss bei automatisiert betrieben Fahrzeugen in solchen Situationen auf die Einschätzung des Fahrers zurückgegriffen werden oder im Zweifelsfall das Fahrzeug in einen sicheren Zustand versetzt werden bis die Situation eindeutig einschätzbar ist.
  • Offenbarung der Erfindung
  • Die der Erfindung zugrunde liegende Aufgabe kann darin gesehen werden, ein Verfahren zur effektiven Nutzung von aus einem Verkehrsspiegel ermittelten Bilddaten für eine Steuerung von automatisiert betreibbaren Fahrzeugen vorzuschlagen.
  • Diese Aufgabe wird mittels des jeweiligen Gegenstands der unabhängigen Ansprüche gelöst. Vorteilhafte Ausgestaltungen der Erfindung sind Gegenstand von jeweils abhängigen Unteransprüchen.
  • Nach einem Aspekt der Erfindung wird ein Verfahren zur Nutzung von Bilddaten, welche aus Reflektionen von mindestens einem Verkehrsspiegel an einem Verkehrsknotenpunkt ermittelt wurden, durch ein Steuergerät bereitgestellt.
  • In einem Schritt werden Messdaten empfangen. Hierbei wird vorzugsweise ein Verkehrsknotenpunkt mit mindestens einem Verkehrsspiegel entlang einer voraussichtlichen Trajektorie eines Fahrzeugs bei der Auswertung der Messdaten erkannt.
  • Es werden Steuerbefehle zum Anpassen einer Geschwindigkeit des Fahrzeugs oder zum Halten des Fahrzeugs an einem ermittelten bzw. definierten Haltepunkt vor dem Verkehrsknotenpunkt ausgegeben.
  • In einem weiteren Schritt werden Umfeldinformationen über ein Fahrzeugumfeld empfangen. Dabei werden Bilddaten über einen beeinträchtigt einsehbaren Bereich oder einen nicht einsehbaren Bereich in einem Fahrzeugumfeld aus den Reflektionen des mindestens einen Verkehrsspiegels ermittelt und empfangen.
  • Optional kann eine Kategorisierung einer ermittelten Verkehrssituation in dem beeinträchtigt einsehbaren Bereich vorgenommen werden. Hierbei können Objekte, Abmessungen, sich dem Verkehrsknotenpunkt nähernde oder sich entfernende Verkehrsteilnehmer, Blockadesituation und dergleichen für eine Kategorisierung der Verkehrssituation mittels der Bildinformationen des Verkehrsspiegels berücksichtigt werden.
  • Anschließend wird eine Einfahrtsentscheidung in den Verkehrskotenpunkt anhand der ermittelten Umfeldinformationen über das Umfeld des Fahrzeugs und/oder der ermittelten Bilddaten aus dem mindestens einem Verkehrsspiegel getroffen. Zum Treffen der Einfahrtsentscheidung kann auch die optional durchgeführte Kategorisierung der ermittelten Verkehrssituation berücksichtigt werden.
  • Nach einem weiteren Aspekt der Erfindung wird ein Steuergerät bereitgestellt, wobei das Steuergerät dazu eingerichtet ist, das Verfahren auszuführen. Das Steuergerät kann beispielsweise ein fahrzeugseitiges Steuergerät oder ein fahrzeugexternes Steuergerät sein. Beispielsweise kann das Steuergerät mit einer Fahrzeugsteuerung zum Ausführen von automatisierten Fahrfunktionen verbindbar oder in eine derartige Fahrzeugsteuerung integriert sein. Ein extern ausgestaltetes Steuergerät kann beispielsweise eine fahrzeugexterne Servereinheit sein, welche auf einer Cloud-Technologie basiert.
  • Darüber hinaus wird nach einem Aspekt der Erfindung ein Computerprogramm bereitgestellt, welches Befehle umfasst, die bei der Ausführung des Computerprogramms durch einen Computer oder ein Steuergerät diesen veranlassen, das erfindungsgemäße Verfahren auszuführen. Gemäß einem weiteren Aspekt der Erfindung wird ein maschinenlesbares Speichermedium bereitgestellt, auf dem das erfindungsgemäße Computerprogramm gespeichert ist.
  • Das Fahrzeug kann hierbei gemäß der BASt Norm assistiert, teilautomatisiert, hochautomatisiert und/oder vollautomatisiert bzw. fahrerlos betreibbar sein.
  • Die Messdaten des Fahrzeugumfelds können durch mindestens einen Sensor gesammelt werden. Der mindestens eine Sensor einer Umfeldsensorik kann beispielsweise ein LIDAR-Sensor, Radarsensor, Ultraschallsensor, Kamerasensor, GNSS-Sensor und dergleichen sein.
  • Durch das Verfahren kann eine Einfahrtsentscheidung eines automatisiert betriebenen Fahrzeuges an unübersichtlichen Verkehrsknotenpunkten ermöglicht werden. Die zum Befahren des Verkehrsknotenpunktes notwendige Anfahrfreigabe kann basierend auf Information bestimmt werden, welche aus Reflektionen eines Verkehrsspiegels am Verkehrsknotenpunkt ermittelt werden. Insbesondere können die Spiegelbilder des Verkehrsspiegels ausgewertet und einem Abschnitt des Verkehrsknotenpunktes zugeordnet werden, sodass das Fahrzeug auch regulär nicht einsehbare Bereiche sensorisch berücksichtigen kann.
  • Die Kundenwertigkeit wird durch das Verfahren gesteigert, da nicht einsehbare Verkehrsknotenpunkte komfortabel durch ein automatisiert betreibbares Fahrzeug gemeistert werden können. Hierdurch kann auch die gesellschaftliche Akzeptanz von automatisiert betreibbaren Fahrzeugen positiv beeinflusst werden. Darüber hinaus können für Passagiere unangenehme Situationen, wie beispielsweise Vollbremsungen oder plötzliches Beschleunigen vermieden werden, da das Fahrzeug noch vor einem Einfahren in den Verkehrsknotenpunkt Bildinformationen des Verkehrsspiegels auswerten kann.
  • Nach einer Ausführungsform wird eine Trajektorie anhand der ermittelten Umfeldinformationen und der ermittelten Bildinformationen aus dem mindestens einen Verkehrsspiegel auf eine Ausführbarkeit hin geprüft oder geplant. Durch das Extrahieren der Bilddaten aus den Reflektionen des mindestens einen Verkehrsspiegels kann die Befahrbarkeit und die Möglichkeit zur weiteren Befolgung der geplanten Trajektorie überprüft werden. Beispielsweise können Verkehrshindernisse oder andere Verkehrsteilnehmer in den Reflektionen des Verkehrsspiegels detektiert und bei einem weiteren Befahren der Trajektorie berücksichtigt werden.
  • Gemäß einer weiteren Ausführungsform werden Steuerbefehle für eine situationsabhängige Reaktion auf die erkannte Verkehrssituation anhand der ermittelten Umfeldinformationen des Fahrzeugs und anhand der ermittelten Bildinformationen aus dem mindestens einen Verkehrsspiegel erzeugt. Basierend auf den ermittelten Informationen aus den Reflektionen des Verkehrsspiegels können Anpassungen der Trajektorie notwendig sein. Hierbei kann auch eine alternative Trajektorie für eine Weiterfahrt verwendet werden. Darüber hinaus können als weitere Reaktionen eine Geschwindigkeitsreduzierung oder ein Anhalten des Fahrzeugs vor einer Einfahrt in den Verkehrsknotenpunkt gewählt werden.
  • Nach einem weiteren Ausführungsbeispiel werden Daten über eine Position und eine Ausrichtung des Verkehrsspiegels aus einer digitalen Karte abgerufen. Durch diese Maßnahme können bereits in der Karte hinterlegte Merkmale des Verkehrsspiegels empfangen werden. Basierend auf der Position und der Ausrichtung des Verkehrsspiegels können die aus den Reflektionen ermittelten Bilddaten einem Abschnitt des Verkehrsknotenpunktes zugeordnet werden. Die Ausrichtung des Verkehrsspiegels dient dazu, einen zurückgelegten Weg der reflektierten Bilddaten zu ermitteln und somit eine tatsächliche Position den Bilddaten zuzuordnen.
  • Gemäß einer weiteren Ausführungsform werden die Position und die Ausrichtung des Verkehrsspiegels sowie die Bilddaten aus den Reflektionen des Verkehrsspiegels durch das Steuergerät mithilfe von Messdaten von einer Fahrzeugsensorik des Fahrzeug ermittelt. Hierdurch können die für die Zuordnung der Bilddaten benötigten Informationen durch die Umfeldsensorik des Fahrzeugs ermittelt werden. Es können beispielsweise Messdaten von Kamerasensoren oder Radarsensoren ausgewertet werden. Über die Orientierung des Verkehrsspiegels kann eine Assoziation der übermittelten Verkehrslage auf die vorliegenden Verkehrswege durchgeführt werden.
  • Gemäß einem weiteren Ausführungsbeispiel wird anhand von Merkmalen des Verkehrsspiegels und der Ausrichtung des Verkehrsspiegels der von den Bilddaten überwachte Bereich mit einem Abschnitt des Verkehrsknotenpunktes assoziiert. Die Ausrichtung, eine Größe bzw. Fläche des Verkehrsspiegels und die Position des Verkehrsspiegels relativ zu der Umfeldsensorik des Fahrzeugs können somit durch einen Algorithmus verwendet werden, um die anhand der Reflektionen des Verkehrsspiegels ermittelten Bilddaten beispielsweise einer Fahrspur im Bereich des Verkehrsknotenpunktes zuzuordnen.
  • Nach einer weiteren Ausführungsform werden die ermittelten Bilddaten über eine Kommunikationseinheit an einen Teleoperator gesendet. Die aus dem Verkehrsspiegel extrahierten Informationen können mit den Umfeldinformationen im Bereich des Verkehrsspiegels an den Teleoperator übermittelt werden. Der Teleoperator kann vorzugsweise als ein Computer bzw. eine externe Servereinheit ausgestaltet sein, welcher eine gegenüber dem Steuergerät höhere Rechenleistung aufweist. Es können somit komplexere und rechenintensivere Algorithmen gegenüber dem Steuergerät durch den Teleoperator ausgeführt werden. Der Teleoperator kann somit auch zum Überwachen der Operationen des Steuergeräts und damit des Fahrzeugs eingesetzt werden. Des Weiteren kann eine Entscheidungsfindung des Fahrzeugs an eine externe Einheit ausgelagert werden. Insbesondere kann dies bei einer festgestellten Unsicherheit bei der Auswertung der Messdaten vorteilhaft sein. Diese Maßnahme kann die Verkehrssicherheit des Fahrzeugs steigern. Gemäß einer alternativen oder zusätzlichen Ausführungsform kann die Funktion des Teleoperators durch einen oder mehrere Menschen ausgeführt werden.
  • Gemäß einer weiteren Ausführungsform wird durch den Teleoperator ermittelt, ob andere Verkehrsteilnehmer sich der geplanten Trajektorie des Fahrzeugs nähern oder die Fahrbahn auf der geplanten Trajektorie für das Fahrzeug frei ist, wobei eine Rückmeldung des Teleoperators in Form von Informationen an das Steuergerät übermittelt wird. Auf Basis der übermittelten Bilddaten kann der Teleoperator prüfen, ob Verkehrsteilnehmer aus einem nicht einsehbaren Verkehrsabschnitt herannahen oder entlang der geplanten Trajektorie Verkehrshindernisse vorliegen. Diese Informationen kann das Steuergerät zusammen mit den Informationen der Umfeldsensorik zur Ableitung einer Einfahrtsentscheidung in den Verkehrsknotenpunkt verwenden.
  • Bei einer zusätzlichen oder alternativen Möglichkeit kann der Teleoperator über die gesamte Verkehrssituation hinweg, die Anfahrfreigabe bzw. die Einfahrtsentscheidung bestimmen.
  • Nach einer weiteren Ausführungsform wird ein fusioniertes Umfeldmodell aus den Umfeldinformationen, den Bilddaten aus den Reflektionen des Verkehrsspiegels und weiteren Daten, beispielsweise den Information des Teleoperators, erstellt. Die Erkennung von Objekten, wie beispielsweise Verkehrsteilnehmer, im Spiegelbild des Verkehrsspiegels kann mit Hilfe der Umfeldsensoren und deren Transformation in die reale Verkehrssituation realisiert werden. Über die Orientierung des Verkehrsspiegels wird festgelegt, auf welcher Verkehrsspur sich darin erkannte Objekte dem Verkehrsknotenpunkt nähern. Mit Hilfe dieser Information kann eine Assoziation erkannter Objekte zu Straßenverkehrswegen vorgenommen werden. Hierbei kann geprüft werden, ob sich Verkehrsteilnehmer dem Verkehrsknotenpunkt nähern oder ob der Verkehrsknotenpunkt frei befahrbar ist. Nach einem Ableiten eines fusionierten Umfeldmodells aus Informationen der konventionellen Umfeldsensorik, ergänzt um Merkmale der Verkehrsspiegel-Informationen, kann eine Trajektorie ermittelt werden, welche ein Einfahren des Fahrzeugs unter Einhaltung von Sicherheits- und Komfortbedingungen ermöglicht. Die weiteren Daten, welche für das fusionierte Umfeldmodell eingesetzt werden, können vorzugsweise aus einem Input des Teleoperators bestehen. Ein derartiger Input kann beispielsweise durch einen menschlichen Teleoperator oder einen als Computer ausgestalteten bzw. maschinellen Teleoperator vom Steuergerät empfangen werden.
  • Gemäß einer weiteren Ausführungsform wird anhand der ermittelten Daten und der Information des Teleoperators eine Einfahrtsentscheidung durch das Steuergerät getroffen. Hierdurch können die Informationen des Teleoperators ergänzend herangezogen werden, um eine Einfahrtsentscheidung zu treffen.
  • Im Folgenden werden anhand von stark vereinfachten schematischen Darstellungen bevorzugte Ausführungsbeispiele der Erfindung näher erläutert. Hierbei zeigen
    • 1 eine schematische Anordnung zum Veranschaulichen des Verfahrens gemäß einem Ausführungsbeispiel und
    • 2 ein schematisches Ablaufdiagramm zum Beschreiben des Verfahrens gemäß einem Ausführungsbeispiel.
  • In der 1 ist eine schematische Anordnung 1 zum Veranschaulichen des Verfahrens 2 gemäß einem Ausführungsbeispiel dargestellt. Es ist insbesondere eine Verkehrssituation gezeigt, an welcher sich ein Fahrzeug 4 einem Verkehrsknotenpunkt 6 nähert. Das Fahrzeug 4 weist eine geplante Trajektorie 5 auf, welche das Fahrzeug 4 automatisiert befährt.
  • Das Fahrzeug 4 ist als ein automatisiert betreibbares Fahrzeug ausgestaltet und weist eine Umfeldsensorik 8 auf. Die Umfeldsensorik 8 kann beispielsweise Kamerasensoren, Ultraschallsensoren, Radarsensoren und/oder LIDAR-Sensoren aufweisen und ist datenleitend mit einem Steuergerät 10 verbunden.
  • Das Steuergerät 10 kann somit Messdaten der Umfeldsensorik 8 empfangen und auswerten. Darüber hinaus ist das Steuergerät 10 mit einem maschinenlesbaren Speichermedium 12 verbunden.
  • Das maschinenlesbare Speichermedium 12 weist ein Computerprogramm auf, welches durch das Steuergerät 10 ausführbar ist. Durch das Ausführen des Computerprogramms kann das Steuergerät 10 dazu eingesetzt werden, das Verfahren 2 durchzuführen.
  • Über eine Kommunikationsverbindung 14 kann das Steuergerät 10 einen Teleoperator 16 kontaktieren und einen Informationstausch veranlassen. Der Teleoperator 16 kann als ein menschlicher oder ein maschineller Teleoperator ausgestaltet sein. Beispielsweise kann der Teleoperator 16 in Form einer fahrzeugexternen Servereinheit ausgeführt sein.
  • Der Verkehrsknotenpunkt 6 ist als eine Kreuzung ausgestaltet, welche bedingt einsehbar ist. Unterstützend ist ein Verkehrsspiegel 18 an dem Verkehrsknotenpunkt 6 angeordnet.
  • Der Verkehrsspiegel 18 ist derart angeordnet und ausgerichtet, dass Bilddaten von einem Abschnitt 20 des Verkehrsknotenpunktes 6 durch die Umfeldsensorik 8 ermittelbar sind.
  • Die Pfeile 22 veranschaulichen einen Lichtpfad der reflektierten Bildinformationen, welche aus dem Abschnitt 20 durch die Umfeldsensorik 8 gesammelt werden. Der Abschnitt 20 ist als ein schwer einsichtiger Straßenverlauf mit einem Gefälle ausgestaltet. Für eine ausreichend rechtzeitige Erkennung von herannahenden Verkehrsteilnehmern 24 können die entlang des Reflektionspfades 22 reflektierten Bildinformationen berücksichtigt werden. Somit kann eine sichere Anfahrfreigabe durch das Steuergerät 10 basierend auf Messdaten der Umfeldsensorik 8 generiert werden.
  • Die 2 zeigt ein schematisches Ablaufdiagramm zum Veranschaulichen des Verfahrens 2 gemäß einem Ausführungsbeispiel. Das Verfahren 2 dient insbesondere zur Nutzung von Bilddaten, ermittelt aus Reflektionen von mindestens einem Verkehrsspiegel 18 an einem Verkehrsknotenpunkt 6, durch das Steuergerät 10.
  • In einem ersten Schritt 30 werden Messdaten von der Umfeldsensorik 8 empfangen. Es erfolgt eine Einordnung einer vorausliegenden Verkehrssituation nach Merkmalen eines Verkehrsknotenpunktes 6, der ergänzend wenigstens einen Verkehrsspiegel 18 zur Ausführung eines Vorfahrtrechtsentscheides aufweist.
  • Eine derartige Verkehrssituation kann beispielsweise durch Abrufen von konkreten Karteninformationen oder durch eine Detektion mittels der Umfeldsensorik 8 des Fahrzeugs 4 identifiziert werden. Hierzu kann beispielsweise eine Klassifikation der empfangenen Messdaten durch maschinelles Lernen oder eine optische Erkennung von Außenkonturen des Verkehrsspiegels 18 und eine entsprechende Klassifikation durchgeführt werden.
  • Basierend auf den erkannten Konturen des Verkehrsspiegels 18 kann eine Orientierung des Verkehrsspiegels 18 relativ zum Fahrzeug 4 ermittelt werden. Hierzu kann eine Flächennormale berechnet und relativ zum Fahrzeug 4 verglichen werden.
  • Nach einem Erkennen der Verkehrssituation werden Steuerbefehle zum Reduzieren der Geschwindigkeit des Fahrzeugs 4 entsprechend den Straßenverkehrsregeln einer Verkehrslage durch das Steuergerät 10 ausgegeben. Sollte eine Vorfahrtssituation nicht eindeutig geklärt sein, können Steuerbefehle zum Stoppen des Fahrzeugs 4 an einem Haltepunkt erzeugt werden 31.
  • In einem weiteren Schritt 37 kann Anfahrtsentscheidung bzw. eine Einfahrtsentscheidung auf Basis von Umfeldinformationen und auf Basis ergänzender Informationen durch Bilddaten aus Reflektionen des Verkehrsspiegels 18 getroffen werden. Die Bilddaten können aus den Messdaten durch das Steuergerät 10 extrahiert werden.
  • Hierzu können Verkehrsteilnehmer 24 anhand der Bilddaten detektiert werden. Verkehrsteilnehmer 24 können beispielsweise Fahrzeuge, Fußgänger, Fahrradfahrer und dergleichen sein. Diese können auch mit Verkehrsflächen des Verkehrsknotenpunktes 6, wie beispielsweise Fahrspuren und Gehwegen, assoziiert werden. Die Fahrspuren können durch Karteninformation oder durch Auswerten der Messdaten der Umfeldsensorik 8 erkannt werden. Nach dem Erkennen der Verkehrsflächen des Verkehrsknotenpunktes 6 können diese vorzugsweise durch Koordinatentransformation, beispielsweise in ein Koordinatensystem des Fahrzeugs 4, transformiert und mit den Verkehrsteilnehmern 24 assoziiert werden. Bevorzugterweise kann hierbei eine Einbindung von Informationen zu Umfeldobjekten bzw. Verkehrsteilnehmern 24, wie beispielsweise Klassifikation, Ausdehnung, Position, Geschwindigkeit, basierend auf Bilddaten erfolgen, welche aus dem Verkehrsspiegel 18 extrahiert sind. Ein derartiger Schritt 32 sowie ein weiteres Vorgehen kann durch Auswerten der Messdaten der Umfeldsensorik 33 und eine weitere fahrzeugseitige Handhabung der Verkehrssituation oder durch ein Heranziehen 34 des Teleoperators 16 umgesetzt werden.
  • Die ermittelten Bilddaten und Messdaten können durch das Steuergerät 10 über die Kommunikationsverbindung 14 an den Teleoperator 14 übermittelt werden. Der Teleoperator 14 entscheidet anschließend, ob Verkehrsteilnehmer 24 eine Weiterfahrt des Fahrzeugs 4 beeinträchtigen oder die Weiterfahrt ungehindert fortgesetzt werden kann. Diese Information kann das Steuergerät 10 kombiniert mit den Messdaten der Umfeldsensorik 8 zur Ableitung einer Einfahrtsentscheidung 35 nutzen.
  • Alternativ oder zusätzlich kann der Teleoperator 16 über die gesamte Verkehrssituation hinweg die Einfahrtsentscheidung für das Steuergerät 10 treffen 36.
  • Als eine weitere Möglichkeit kann das Steuergerät 10 selbstständig oder unter Zuhilfenahme der Informationen 35 des Teleoperators 16 eine Einfahrtsentscheidung 37 ermitteln. Hierzu können Objekte und Verkehrsteilnehmer 24 im Spiegelbild des Verkehrsspiegels 18 mit Hilfe der Umfeldsensorik 8 erkannt und in die reale Verkehrssituation transformiert werden. Dies kann durch Kenntnis der Orientierung des Verkehrsspiegels 18 und die Assoziierung der Verkehrsteilnehmer 24 an die erkannten Verkehrsflächen erfolgen.
  • Die Orientierung des Verkehrsspiegels 18 kann beispielsweise relativ zu einer Fahrzeugnormalen des Fahrzeugs 4 ermittelt und basierend auf dieser Information durch eine Rückprojektion in ein Fahrzeugkoordinatensystem transformiert werden. Die Informationen zur Orientierung des Verkehrsspiegels 18 können aus einer Datenbank basierend auf einer Position oder durch Auswerten von fahrzeugseitigen Sensormessdaten, beispielsweise eines LIDAR-Sensors, ermittelt werden.
  • Eine Entfernungsmessung basierend auf den aus dem Spiegelbild des Verkehrsspiegels 18 abgeleiteten Informationen kann beispielsweise durch einen Größenvergleich erfolgen. Hierzu kann beispielsweise ein Maßstabsvergleich durchgeführt werden. Der Verkehrsspiegel 18 kann durch einen Kamerasensor und/oder einen LIDAR-Sensor bzw. Radarsensor detektiert und eine Entfernung zwischen dem Verkehrsspiegel 18 und dem Fahrzeug 4 ermittelt werden. Basierend auf der ermittelten Entfernung des Fahrzeugs 4 zum Verkehrsspiegel 18 kann eine Spiegelfläche bestimmt werden. Die innerhalb der Spiegelfläche ermittelten Informationen bzw. Abbildungen von Verkehrsteilnehmern 24 können anschließend vermessen werden. Insbesondere können Abmessungen der Abbildungen von Verkehrsteilnehmern 24 gemessen und basierend auf den Abmessungen eine tatsächliche Entfernung der Verkehrsteilnehmer 24 vom Verkehrsspiegel 18 und damit auch vom Fahrzeug 4 ermittelt oder zumindest abgeschätzt werden. Somit kann anhand der Distanz des Fahrzeugs 4 zum Verkehrsspiegel 18 und der Größe der Spiegelfläche eine Distanz des Verkehrsteilnehmers 24 aus der Abbildungsgröße der Verkehrsteilnehmer 24 in der Spiegelfläche rekonstruiert werden.
  • Alternativ oder zusätzlich kann das Spiegelbild bzw. die Abbildung eines Verkehrsteilnehmers 24 mit entsprechenden Distanzpunkten auch in einer Tabelle oder Datenbank für jeden einzelnen Verkehrsspiegel 18 gespeichert sein. Basierend auf einer Position der Abbildung des Verkehrsteilnehmers 24 im Spiegelbild kann dessen Position in einem Fahrzeugkoordinatensystem geschätzt werden.
  • In einem weiteren Schritt 38 kann beispielsweise durch Klassifikationsverfahren ermittelt werden, ob in dem übertragenen Spiegelbild Verkehrsteilnehmer 24 auftreten, sich dem Verkehrsknotenpunkt 6 nähern, oder ob die Verkehrswege frei sind. Die derart ermittelt Informationen werden nach der Transformation auf die real vorliegenden Verkehrswege zur Ableitung eines Einfahrtsentscheidung verwendet.
  • Anschließend kann eine Ableitung eines fusionierten Umfeldmodells 39 aus Informationen der konventionellen Umfeldsensorik 8 ergänzt um Merkmale der Bilddaten aus den Reflektionen des Verkehrsspiegels 18 umgesetzt werden. Dabei kann eine Reaktion 40 auf die Verkehrssituation durch das Steuergerät 10 ermittelt werden. Als eine mögliche Reaktion kann die Trajektorie 5 unter Einhaltung der Sicherheits- und Komfortbedingungen weiter befahren oder eine angepasste Trajektorie 5 berechnet werden.

Claims (13)

  1. Verfahren (2) zur Nutzung von Bilddaten, ermittelt aus Reflektionen von mindestens einem Verkehrsspiegel (18) an einem Verkehrsknotenpunkt (6), durch ein Steuergerät (10), wobei - Messdaten empfangen werden und ein Verkehrsknotenpunkt (6) mit mindestens einem Verkehrsspiegel (18) auf einer voraussichtlichen Trajektorie (5) eines Fahrzeugs (4) bei einer Auswertung der Messdaten erkannt wird (30), - Steuerbefehle zum Anpassen einer Geschwindigkeit des Fahrzeugs (4) oder zum Halten des Fahrzeugs (4) an einem ermittelten Haltepunkt vor dem Verkehrsknotenpunkt (6) ausgegeben werden (31), - Umfeldinformationen über ein Fahrzeugumfeld (U) empfangen werden, - Bilddaten über einen beeinträchtigt einsehbaren Bereich (20) in einem Fahrzeugumfeld (U) aus Reflektionen des mindestens einen Verkehrsspiegels (18) ermittelt und empfangen werden (32), - eine Einfahrtsentscheidung in den Verkehrskotenpunkt (6) anhand der ermittelten Umfeldinformationen über das Fahrzeugumfeld (U) des Fahrzeugs (4) und/oder der ermittelten Bilddaten aus dem mindestens einen Verkehrsspiegel (18) getroffen wird (37).
  2. Verfahren nach Anspruch 1, wobei eine Trajektorie (5) anhand der ermittelten Umfeldinformationen und der ermittelten Bildinformationen aus dem mindestens einen Verkehrsspiegel (18) auf eine Ausführbarkeit geprüft oder geplant wird.
  3. Verfahren nach Anspruch 1 oder 2, wobei Steuerbefehle für eine situationsabhängige Reaktion auf die erkannte Verkehrssituation anhand der ermittelten Umfeldinformationen des Fahrzeugs (4) und anhand der ermittelten Bildinformationen aus dem mindestens einen Verkehrsspiegel (18) erzeugt werden.
  4. Verfahren nach einem der Ansprüche 1 bis 3, wobei Daten über eine Position und eine Ausrichtung des Verkehrsspiegels (18) aus einer digitalen Karte abgerufen werden.
  5. Verfahren nach einem der Ansprüche 1 bis 4, wobei die Position und die Ausrichtung des Verkehrsspiegels (18) sowie die Bilddaten aus den Reflektionen des Verkehrsspiegels (18) durch das Steuergerät (10) mithilfe von Messdaten von einer Umfeldsensorik (8) des Fahrzeugs (4) ermittelt werden.
  6. Verfahren nach Anspruch 5, wobei anhand von Merkmalen des Verkehrsspiegels (18) und der Ausrichtung des Verkehrsspiegels (18) der von den Bilddaten überwachte Bereich mit einem Abschnitt (20) des Verkehrsknotenpunktes (6) assoziiert wird.
  7. Verfahren nach einem der Ansprüche 1 bis 6, wobei die ermittelten Bilddaten über eine Kommunikationsverbindung (14) an einen Teleoperator (16) gesendet werden.
  8. Verfahren nach Anspruch 7, wobei durch den Teleoperator (16) ermittelt wird, ob andere Verkehrsteilnehmer (24) sich der geplanten Trajektorie (5) des Fahrzeugs (4) nähern oder die Fahrbahn auf der geplanten Trajektorie (5) für das Fahrzeug (4) frei ist, wobei eine Rückmeldung des Teleoperators (16) in Form von Informationen an das Steuergerät (10) übermittelt wird.
  9. Verfahren nach einem der Ansprüche 7 oder 8, wobei ein fusioniertes Umfeldmodell aus den Umfeldinformationen, den Bilddaten aus den Reflektionen des Verkehrsspiegels (18) und weiteren Daten, beispielsweise den Information des Teleoperators (16), erstellt wird.
  10. Verfahren nach einem der Ansprüche 7 bis 9, wobei anhand der ermittelten Daten und der Information des Teleoperators (16) eine Einfahrtsentscheidung durch das Steuergerät (10) getroffen wird.
  11. Steuergerät (10), welches dazu eingerichtet ist, das Verfahren (2) gemäß einem der vorhergehenden Ansprüche auszuführen.
  12. Computerprogramm, welches Befehle umfasst, die bei der Ausführung des Computerprogramms durch einen Computer oder ein Steuergerät (10) diesen veranlassen, das Verfahren (2) gemäß einem der Ansprüche 1 bis 10 auszuführen.
  13. Maschinenlesbares Speichermedium (12), auf welchem das Computerprogramm gemäß Anspruch 12 gespeichert ist.
DE102019213791.1A 2019-09-11 2019-09-11 Einsetzen von Informationen aus Verkehrsspiegeln für automatisiertes Fahren Pending DE102019213791A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102019213791.1A DE102019213791A1 (de) 2019-09-11 2019-09-11 Einsetzen von Informationen aus Verkehrsspiegeln für automatisiertes Fahren
CN202010946363.XA CN112489416A (zh) 2019-09-11 2020-09-10 使用来自交通镜中的信息用于自动化驾驶

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102019213791.1A DE102019213791A1 (de) 2019-09-11 2019-09-11 Einsetzen von Informationen aus Verkehrsspiegeln für automatisiertes Fahren

Publications (1)

Publication Number Publication Date
DE102019213791A1 true DE102019213791A1 (de) 2021-03-11

Family

ID=74645022

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102019213791.1A Pending DE102019213791A1 (de) 2019-09-11 2019-09-11 Einsetzen von Informationen aus Verkehrsspiegeln für automatisiertes Fahren

Country Status (2)

Country Link
CN (1) CN112489416A (de)
DE (1) DE102019213791A1 (de)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023012049A1 (en) * 2021-08-03 2023-02-09 Continental Autonomous Mobility Germany GmbH Method and system for determining direction of a traffic mirror
DE102022113652A1 (de) 2022-05-31 2023-11-30 Bayerische Motoren Werke Aktiengesellschaft Fahrassistenzsystem und Fahrassistenzverfahren für ein Fahrzeug
GB2624853A (en) * 2022-11-23 2024-06-05 Continental Autonomous Mobility Germany GmbH A system and method of detecting curved mirrors in a current image
DE102022213242A1 (de) 2022-12-08 2024-06-13 Zf Friedrichshafen Ag Reflektionseinheit zur Erkennung einer Verkehrsszene und Verfahren zur Auswertung einer Verkehrsszene mittels einer Reflektionseinheit

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4274770A4 (de) * 2021-04-30 2024-01-10 Huawei Technologies Co., Ltd. System und verfahren zum hindernisfreien fahren

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017200146A1 (de) * 2017-01-09 2018-07-12 Ford Global Technologies, Llc Verfahren zum Vermeiden von Kollisionen
DE102017223284A1 (de) * 2017-12-19 2019-06-19 Lucas Automotive Gmbh Verfahren zum assistierten Betreiben eines Fahrzeugs und Fahrzeugassistentsystem

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007102691A (ja) * 2005-10-07 2007-04-19 Denso Corp 車両用視界支援装置
JP2007279805A (ja) * 2006-04-03 2007-10-25 Matsushita Electric Ind Co Ltd 障害物衝突判断装置および障害物衝突警告システム
CN203849862U (zh) * 2014-05-16 2014-09-24 北京卓视智通科技有限责任公司 一种全景图像采集装置
WO2016117060A1 (ja) * 2015-01-22 2016-07-28 パイオニア株式会社 走行支援装置及び走行支援方法
JP2017126213A (ja) * 2016-01-14 2017-07-20 株式会社リコー 交差点状況確認システム、撮像装置、車載装置、交差点状況確認プログラムおよび交差点状況確認方法
CN107463171A (zh) * 2017-06-13 2017-12-12 纵目科技(上海)股份有限公司 无人驾驶车辆的远程控制方法、系统、服务平台、车载终端
DE102017211819A1 (de) * 2017-07-11 2019-01-17 Robert Bosch Gmbh Verfahren und Vorrichtung zur Steuerung eines Fahrerassistenzsystems eines Fahrzeugs
TWI668676B (zh) * 2018-10-01 2019-08-11 湯博宇 Road sensing warning device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017200146A1 (de) * 2017-01-09 2018-07-12 Ford Global Technologies, Llc Verfahren zum Vermeiden von Kollisionen
DE102017223284A1 (de) * 2017-12-19 2019-06-19 Lucas Automotive Gmbh Verfahren zum assistierten Betreiben eines Fahrzeugs und Fahrzeugassistentsystem

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023012049A1 (en) * 2021-08-03 2023-02-09 Continental Autonomous Mobility Germany GmbH Method and system for determining direction of a traffic mirror
DE102022113652A1 (de) 2022-05-31 2023-11-30 Bayerische Motoren Werke Aktiengesellschaft Fahrassistenzsystem und Fahrassistenzverfahren für ein Fahrzeug
GB2624853A (en) * 2022-11-23 2024-06-05 Continental Autonomous Mobility Germany GmbH A system and method of detecting curved mirrors in a current image
DE102022213242A1 (de) 2022-12-08 2024-06-13 Zf Friedrichshafen Ag Reflektionseinheit zur Erkennung einer Verkehrsszene und Verfahren zur Auswertung einer Verkehrsszene mittels einer Reflektionseinheit
WO2024121033A1 (de) 2022-12-08 2024-06-13 Zf Friedrichshafen Ag Reflektionseinheit zur erkennung einer verkehrsszene und verfahren zur auswertung einer verkehrsszene mittels einer reflektionseinheit

Also Published As

Publication number Publication date
CN112489416A (zh) 2021-03-12

Similar Documents

Publication Publication Date Title
DE102019213791A1 (de) Einsetzen von Informationen aus Verkehrsspiegeln für automatisiertes Fahren
EP3572293B1 (de) Verfahren zum unterstützen eines führens wenigstens eines kraftfahrzeugs und assistenzsystem
DE102013019424B4 (de) Verfahren zum Betrieb eines Fahrzeugsystems zur Überwachung eines Fahrers und Kraftfahrzeug
DE102017207968B4 (de) Vorrichtung zum Vorbeugen gegen einen Fußgängerkollisionsunfall, System mit derselben, und Verfahren hierzu
DE102008026396B4 (de) Verfahren und Vorrichtung zur Vermeidung einer Kollision mit rückwärtigem Querverkehr
DE112010001354B4 (de) Bewegungsstrajektoriengenerator
DE102019110110A1 (de) Steuerungseinrichtung für ein Fahrzeug
DE112016005335T5 (de) Automatisierte Fahrassistenzvorrichtung, automatisiertes Fahrassistenzsystem, automatisiertes Fahrassistenzverfahren, Programm und Aufzeichnungsmedium
DE112017001198T5 (de) Fahrwechsel-steuerungsvorrichtung und fahrwechsel-steuerungsverfahren
DE102015220360A1 (de) Verfahren zur Auswahl einer optimierten Trajektorie
WO2013034347A2 (de) Verfahren zum entlasten eines fahrers beim führen eines fahrzeuges
EP0913751A1 (de) Autonomes Fahrzeug und Verfahren zur Steuerung eines autonomen Fahrzeuges
EP2753532A1 (de) Verfahren und vorrichtung für ein assistenzsystem in einem fahrzeug zur durchführung eines autonomen oder teilautonomen fahrmanövers
WO2019174830A1 (de) Verfahren zum betreiben eines regelsystems zur automatisierten fahrzeugführung
DE102014002116A1 (de) Verfahren zum Betrieb eines Fahrerassistenzsystems für Überholvorgänge und Kraftfahrzeug
DE102010060225A1 (de) Fahrzeuginformationsanbietevorrichtung
DE102014105374B4 (de) Fahrerassistenzsystem
DE102004057947A1 (de) Verfahren zur Funktionsprüfung eines kraftfahrzeugseitig integrierten Fahrerassistenzsystems
DE102015211126A1 (de) Fahreraufmerksamkeitsüberwachung für automatische Fahrfunktionen
DE102019105739A1 (de) Verfahren zum zumindest teilautomatisierten Führen eines Kraftfahrzeugs
DE102021116703A1 (de) Verfahren und System zur Vorhersage einer Trajektorie eines Zielfahrzeugs in einer Umgebung eines Fahrzeugs
DE102019115330A1 (de) Echtzeit-Sicherheitspfaderzeugung für hochautomatisiertes Fahrzeugrückfallmanöver
DE102019132091A1 (de) Verfahren zum Betrieb eines Kraftfahrzeugs und Kraftfahrzeug
DE102019205957A1 (de) Verfahren zum kontrollierten Befahren einer Gegenfahrbahn
DE102018213378B4 (de) Fahrassistenzsystem für ein Fahrzeug, Fahrzeug mit demselben und Fahrassistenzverfahren für ein Fahrzeug

Legal Events

Date Code Title Description
R163 Identified publications notified