DE102019212894A1 - Verhaltensprädiktion von Verkehrsteilnehmern - Google Patents

Verhaltensprädiktion von Verkehrsteilnehmern Download PDF

Info

Publication number
DE102019212894A1
DE102019212894A1 DE102019212894.7A DE102019212894A DE102019212894A1 DE 102019212894 A1 DE102019212894 A1 DE 102019212894A1 DE 102019212894 A DE102019212894 A DE 102019212894A DE 102019212894 A1 DE102019212894 A1 DE 102019212894A1
Authority
DE
Germany
Prior art keywords
behavior
data
processing unit
vehicle
road
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102019212894.7A
Other languages
English (en)
Inventor
Marcel Brueckner
Alexander Lengsfeld
Philip Lenz
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102019212894.7A priority Critical patent/DE102019212894A1/de
Publication of DE102019212894A1 publication Critical patent/DE102019212894A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • B60W30/0956Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/14Adaptive cruise control
    • B60W30/16Control of distance between vehicles, e.g. keeping a distance to preceding vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/04Traffic conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0027Planning or execution of driving tasks using trajectory prediction for other traffic participants
    • B60W60/00274Planning or execution of driving tasks using trajectory prediction for other traffic participants considering possible movement changes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0027Planning or execution of driving tasks using trajectory prediction for other traffic participants
    • B60W60/00276Planning or execution of driving tasks using trajectory prediction for other traffic participants for two or more other traffic participants
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2310/00Arrangements, adaptations or methods for cruise controls
    • B60K2310/26Distance setting methods, e.g. determining target distance to target vehicle
    • B60K2310/268Distance setting methods, e.g. determining target distance to target vehicle resuming distance control, e.g. changing target vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4045Intention, e.g. lane change or imminent movement

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Traffic Control Systems (AREA)

Abstract

Offenbart ist ein Verfahren zum Erkennen von einem voraussichtlichen Verhalten von Verkehrsteilnehmern durch ein Steuergerät, wobei Daten von einer Umfelderfassung, insbesondere Objektmerkmale und ein gegenwärtiges Verhalten, über mindestens einen Verkehrsteilnehmer in einem Fahrzeugumfeld empfangen werden, die empfangenen Daten der Objekterkennung im Hinblick auf Änderungen eines Verhaltens des Verkehrsteilnehmers durch ein Verarbeitungseinheit ausgewertet werden, durch die Verarbeitungseinheit Änderungen des Verhaltens einem voraussichtlichen Verhalten und/oder einem voraussichtlichen Status des Verkehrsteilnehmers zugeordnet werden. Des Weiteren sind ein Steuergerät, ein Computerprogramm sowie ein maschinenlesbares Speichermedium offenbart.

Description

  • Die Erfindung betrifft ein Verfahren zur Absichtserkennung von Verkehrsteilnehmern durch ein Steuergerät. Des Weiteren betrifft die Erfindung ein Steuergerät, ein Computerprogramm sowie ein maschinenlesbares Speichermedium.
  • Stand der Technik
  • Automatisiert betreibbare Fahrzeuge weisen üblicherweise eine kamerabasierte oder RADAR- bzw. LIDAR-basierte Umfeldwahrnehmung auf. Die Umfeldwahrnehmung weist eine Objekterkennung auf, um beispielsweise Fahrzeuge und Fußgänger zu detektieren. Bei einer kamerabasierten Umfeldwahrnehmung werden üblicherweise Grauwertstrukturen des Kamerabildes ausgewertet.
  • Für automatisiert betreibbare Fahrzeuge ist eine Abschätzung eines voraussichtlichen Verhaltens von benachbarten Verkehrsteilnehmern nötig, um eine Gefährdung im Straßenverkehr zu minimieren oder sich im Verkehr kooperativ verhalten zu können. Der Fokus bei einer sogenannten Absichtserkennung bzw. dem voraussichtlichen Verhalten liegt derzeit vor allem auf der Objektklasse Fußgänger. Hierfür werden in erster Linie Bilddaten der Kamerasensoren genutzt. Das voraussichtliche Verhalten von Fußgängern wird insbesondere durch Texturmerkmale, welche auf eine Orientierung des Fußgängers hinweisen, vorhergesagt.
  • Des Weiteren sind Verfahren bekannt, welche ein optisches Flussfeld des Fußgängers zur Bewegungsschätzung verwenden. Diese Merkmale werden durch einen Klassifikator genutzt, um die Absicht, wie beispielsweise stehen, gehen oder laufen, des betrachteten Fußgängers zu schätzen.
  • Bei Fahrzeugen erfolgt typischerweise eine Erkennung und Zuordnung einer Fahrspur sowie die Einstufung des Fahrzeugs als vorausfahrendes Zielfahrzeug. Es sind Verfahren zum Erstellen von Bewegungsmodellen von Fahrzeugen bekannt, welche ein voraussichtliches Verhalten des Fahrzeugs vorhersagen können. Derartige Bewegungsmodelle nutzen die rohen Messdaten aller Umfeldsensoren und weisen somit einen hohen Bedarf an Rechenleistung auf. Darüber hinaus beinhalten die üblicherweise genutzten Bewegungsmodelle keine Anteile, die den Fahrerwunsch geeignet berücksichtigen. Problematisch an Bewegungsmodellen, die den Fahrerwunsch berücksichtigen können, ist auch ein aufwändiges und im Wesentlichen manuelles Anlernen.
  • Offenbarung der Erfindung
  • Die der Erfindung zugrunde liegende Aufgabe kann darin gesehen werden, ein Verfahren zum Erkennen eines voraussichtlichen Verhaltens vorzuschlagen, welches einen minimalen Rechenaufwand aufweist und technisch einfach in bestehende Systeme integrierbar ist.
  • Diese Aufgabe wird mittels des jeweiligen Gegenstands der unabhängigen Ansprüche gelöst. Vorteilhafte Ausgestaltungen der Erfindung sind Gegenstand von jeweils abhängigen Unteransprüchen.
  • Nach einem Aspekt der Erfindung wird ein Verfahren zum Erkennen von einem voraussichtlichen Verhalten von Verkehrsteilnehmern durch ein Steuergerät bereitgestellt. Das Verfahren kann insbesondere durch ein Steuergerät ausgeführt werden, welches in einem automatisiert oder teilautomatisiert betreibbaren Fahrzeug angeordnet ist.
  • In einem Schritt werden Daten von einer Umfelderfassung, insbesondere Objektmerkmale und ein gegenwärtiges und/oder vergangenes Verhalten, über mindestens einen Verkehrsteilnehmer in einem Fahrzeugumfeld empfangen. Hierzu kann eine Schnittstelle zum Betrachten der Objektmerkmale aller Verkehrsteilnehmer gleichzeitig im Fahrzeugumfeld verwendet werden. Die Daten der Objekterkennung sind vorzugsweise Ergebnisse einer Objekterkennung. Hierdurch ist ein aufwändiges Verarbeiten von rohen Messdaten der Umfeldsensorik nicht notwendig.
  • Die empfangenen Daten der Objekterkennung werden im Hinblick auf Änderungen eines Verhaltens des Verkehrsteilnehmers durch eine Verarbeitungseinheit ausgewertet. Die Verarbeitungseinheit kann beispielsweise als ein Klassifikator ausgestaltet sein. Alternativ oder zusätzlich kann die Verarbeitungseinheit eine Zeitreihenanalyse, eine Regressionsanalyse und dergleichen ausführen können. Insbesondere kann der Klassifikator Ergebnisse der Umfelderfassung, wie beispielsweise Objektmerkmale und Verhalten der Objekte, auf einer Schnittstellenebene für eine weitere Auswertung bzw. Verarbeitung verwenden. Die rohen Daten von den Umfeldsensoren werden hierbei vorzugsweise nicht verwendet. Abhängig davon welche Merkmale oder welcher Zustand der Verkehrsteilnehmer sich verändert und wie sich diese verändern, kann geschlussfolgert werden, wie sich der oder die Verkehrsteilnehmer verhalten werden.
  • Anschließend werden durch die Verarbeitungseinheit Änderungen des Verhaltens einem voraussichtlichen Verhalten und/oder einem voraussichtlichen Status des Verkehrsteilnehmers zugeordnet. Es kann beispielsweise ein Fahrspurwechsel durch Aktivieren eines Fahrtrichtungsanzeigers oder durch Kreuzen von Fahrspurmarkierungen identifiziert werden. Darüber hinaus können aktivierte Bremslichter ein Abbremsen von Verkehrsteilnehmern indizieren.
  • Nach einem weiteren Aspekt der Erfindung wird ein Steuergerät bereitgestellt, wobei das Steuergerät dazu eingerichtet ist, das Verfahren auszuführen. Das Steuergerät kann beispielsweise ein fahrzeugseitiges Steuergerät oder ein fahrzeugexternes Steuergerät sein. Beispielsweise kann das Steuergerät mit einer Fahrzeugsteuerung zum Ausführen von automatisierten Fahrfunktionen verbindbar oder in eine derartige Fahrzeugsteuerung integriert sein. Ein extern ausgestaltetes Steuergerät kann beispielsweise eine fahrzeugexterne Servereinheit sein, welche auf einer Cloud-Technologie basiert.
  • Darüber hinaus wird nach einem Aspekt der Erfindung ein Computerprogramm bereitgestellt, welches Befehle umfasst, die bei der Ausführung des Computerprogramms durch einen Computer oder ein Steuergerät diesen veranlassen, das erfindungsgemäße Verfahren auszuführen. Gemäß einem weiteren Aspekt der Erfindung wird ein maschinenlesbares Speichermedium bereitgestellt, auf dem das erfindungsgemäße Computerprogramm gespeichert ist.
  • Das Fahrzeug kann hierbei gemäß der BASt Norm assistiert, teilautomatisiert, hochautomatisiert und/oder vollautomatisiert bzw. fahrerlos betreibbar sein.
  • Die Messdaten des Fahrzeugumfelds können durch mindestens einen Sensor gesammelt werden. Der mindestens eine Sensor einer Umfeldsensorik kann beispielsweise ein LIDAR-Sensor, Radarsensor, Ultraschallsensor, Kamerasensor, GNSS-Sensor und dergleichen sein. Die für das Verfahren eingesetzten Daten der Objekterkennung resultieren aus einer Verarbeitung der Messdaten der Umfeldsensorik und liegen vorzugsweise in einer komprimierten Form vor.
  • Bei der Beschreibung der Methodik wird hauptsächlich das voraussichtliche Verhalten von Fahrzeugen beschrieben. Das Verfahren ist jedoch nicht auf Fahrzeuge beschränkt. Vielmehr können Verkehrsteilnehmer auch Fußgänger, Fahrradfahrer, Motorradfahrer und dergleichen sein.
  • Das Verfahren kann auf zweidimensionalen oder dreidimensionalen Daten einer Objektdetektion einer Kamera oder eines anderen Sensors basieren, ohne die Rohdaten selbst zu betrachten. Das Verfahren ist somit sensorunabhängig betreibbar, da die Messdaten der Umfeldsensorik nicht direkt verwendet werden. Insbesondere können unterschiedliche Sensoren zur Datenaggregation genutzt werden, solange eine spezifizierte Schnittstelle mit den Ergebnissen befüllt werden kann.
  • Die Verwendung der Daten einer derartigen datenreduzierten Schnittstelle erlaubt darüber hinaus eine Vorhersage eines voraussichtlichen Verhaltens von Verkehrsteilnehmern mit einem verringerten Rechenaufwand, da die genutzten Informationen im Vergleich zu rohen Messdaten bereits deutlich komprimiert sind. Ein derartiger Ansatz ist weiterhin generisch einsetzbar, da die Objektdetektoren zum Befüllen der Schnittstelle beliebig austauschbar sind.
  • Neben der Objektdetektion selbst können zusätzliche Informationen verwendet werden, wie beispielsweise Bremslichter oder Blinklichter für Fahrzeuge oder Blickrichtung eines Fußgängers, die auf eine Absicht des betrachteten Objekts bzw. des Verkehrsteilnehmers schließen lassen.
  • Nach einer Ausführungsform ist die Verarbeitungseinheit als ein Klassifikator ausgestaltet, wobei der Klassifikator als ein rekursives neuronales Netz ein konvolutionelles neuronales Netzwerk, eine Support Vector Machine und/oder als ein semantischer Segmentierer ausgestaltet ist. Die Verarbeitungseinheit ist jedoch nicht auf die aufgelisteten Ausführungen beschränkt. Vielmehr kann die Verarbeitungseinheit beliebige Inferenzmethoden umsetzen können. Der Klassifikator dient insbesondere dazu, einen Status und/oder ein voraussichtliches Verhalten des mindestens einen Verkehrsteilnehmers anhand der Daten der Umfelderfassung oder einer Objekterkennung vorherzusagen. Hierdurch kann eine relevante Absicht erkannt werden. Beispielsweise kann durch den Klassifikator erkannt werden, dass ein Verkehrsteilnehmer nach einer voraussichtlichen Zeitdauer von 2 Sekunden zu einem Zielfahrzeug wird, da der Verkehrsteilnehmer in Fahrtrichtung vor dem Fahrzeug auf eine Ego-Spur wechselt.
  • Für das Training eines derartigen Klassifikators sind keine aufwendigen, rauschbehafteten und manuell gelabelten Trainingsdaten notwendig. Vielmehr reicht es aus, das ein aktuelles Zielfahrzeug als solches gelabelt wird. Ein derartiges Anlernen des Klassifikators kann halbautomatisiert mit mehr als einem doppelten einer Aufnahmefrequenz eines Kamerasensors durchgeführt werden. Da eine gesamte Sequenz zum Trainingszeitpunkt bekannt ist, kann der Zeitpunkt einer sogenannten ausgewerteten Groundtruth gegen einen Inferenzzeitpunkt verschoben werden. Dadurch kann inhärent die Absicht der anderen Verkehrsteilnehmer angelernt werden ohne die Absicht explizit zu kennen.
  • Das vorgestellte Verfahren ist außerdem unabhängig von einem Bewegungsmodell ausführbar bzw. es müssen nicht mehrere Bewegungsmodelle explizit geschätzt und anschließend eines der Bewegungsmodelle ausgewählt werden. Darüber hinaus können Fehler, die durch ein rauschbehaftetes oder unpassendes Bewegungsmodell entstehen, für das Verfahren vermieden werden. Vielmehr wird die relevante Information; wie beispielsweise ein ausgewähltes Zielobjekt, direkt bereitgestellt werden. Somit kann das Verfahren besonders schnell ausgeführt werden, wodurch das Verfahren vorteilhafterweise in Echtzeit nutzbar ist.
  • Gemäß einem weiteren Ausführungsbeispiel wird zusätzlich zu den empfangenen Daten der Objekterkennung mindestens eine Information zur Absichtsindizierung des mindestens einen Verkehrsteilnehmers an den Klassifikator übergeben. Vorteilhafterweise können durch das Verfahren gleichzeitig alle Verkehrsteilnehmer mit ihrem aktuellen Status im Fahrzeugumfeld bei der Erkennung eines voraussichtlichen Verhaltens berücksichtigt werden. Als Status können beispielsweise Geschwindigkeiten, absolute Positionen, relative Positionen, Status der Bremslichter, Status der Blinklichter und dergleichen herangezogen werden. Als mögliches Verhalten, welches ebenfalls in Form von Informationen zur Absichtsindizierung einsetzbar ist, kann ein Abstand sowie eine Abstandsänderung zwischen den Verkehrsteilnehmern in Fahrtrichtung und/oder quer zur Fahrtrichtung verwendet werden.
  • Nach einem weiteren Ausführungsbeispiel werden die empfangenen Daten der Objekterkennung von einer Schnittstelle empfangen, wobei mindestens eine Information zur Absichtsindizierung zusätzlich an die Schnittstelle übermittelt wird. Die mindestens eine Information zur Absichtsindizierung kann somit zusätzlich zu den Daten der Objekterkennung für eine weitere Auswertung durch den Klassifikator berücksichtigt werden. Das Verfahren nutzt hierbei Schnittstellen, die von Sensoren bzw. Objektdetektoren befüllt werden. Dabei können sowohl zweidimensionale als auch dreidimensionale Informationen unabhängig von der Umfeldsensorik verwendet werden.
  • Eine derartige Schnittstelle kann softwarebasiert oder hardwarebasiert ausgestaltet sein. Insbesondere kann die Schnittstelle in das Steuergerät integriert oder außerhalb des Steuergeräts implementiert werden.
  • Nach einer weiteren Ausführungsform wird die mindestens eine Information zur Absichtsindizierung als eine Veränderung eines Signalzustandes von Fahrtrichtungsanzeigern über eine Zeitdauer, als eine Veränderung eines Signalzustandes von Bremsleuchten über die Zeitdauer und/oder als eine Veränderung von Sichtbarkeit von Fahrspurmarkierungen durch Verkehrsteilnehmer über die Zeitdauer an den Klassifikator übergeben. Die Zeitdauer kann beispielsweise im Millisekunden-Bereich oder im SekundenBereich definiert sein. Jedoch kann auch eine andere hiervon abweichende Zeitdauer definiert werden.
  • Die Schnittstelle kann um beliebige Informationen, die eine Absicht der Verkehrsteilnehmer indizieren können, erweitert werden. Die Nutzung der kompletten Schnittstelle für das Verfahren ermöglicht das ganzheitliche Betrachten aller beteiligten Verkehrsteilnehmer. Zum Trainieren des Klassifikators sind keine aufwendigen handgelabelten Daten notwendig. Es wird somit ein vereinfachtes Problem mit einem reduzierten rechnerischen Aufwand halbautomatisiert gelabelt. Hierbei kann vorzugsweise eine Vorausschau mit bekanntem Ausgang beim Anlernen des Klassifikators effizient genutzt werden. Die Auswertung kann sequenzbasiert erfolgen, um eine robuste Schätzung der Absicht bzw. des voraussichtlichen Verhaltens zu ermöglichen.
  • Gemäß einem weiteren Ausführungsbeispiel werden die Daten der Objekterkennung der ermittelten Verkehrsteilnehmer sensorunabhängig bereitgestellt. Das Verfahren nutzt somit die Ergebnisse einer Objekterkennung, welche relativ zu den Rohdaten der Umfeldsensorik sensorunabhängig vorliegen und einen geringeren Speicherbedarf aufweisen. Es können vorzugsweise unterschiedliche Sensoren zur Datenaggregation genutzt werden. Das Durchführen des Verfahrens basierend auf den Daten einer derartigen speicherreduzierten Schnittstelle erlaubt darüber hinaus eine effizientere und schnellere Berechnung des voraussichtlichen Verhaltens der Verkehrsteilnehmer.
  • Gemäß einer weiteren Ausführungsform werden die Daten der Objekterkennung von allen im Fahrzeugumfeld sensorbasiert ermittelten Verkehrsteilnehmern empfangen und für eine Absichtsindizierung verwendet. Hierdurch ermöglicht die Nutzung der kompletten Schnittstelle das ganzheitliche Betrachten aller beteiligten Verkehrsteilnehmer im Fahrzeugumfeld.
  • Nach einem weiteren Ausführungsbeispiel wird bei einer festgestellten Spurwechselabsicht eines Verkehrsteilnehmers von einer benachbarten Fahrspur, dem die Fahrspur wechselnden Verkehrsteilnehmer ein voraussichtlicher Status als neues Zielfahrzeug durch den Klassifikator zugeordnet. Erkennt beispielsweise der Klassifikator, dass sich Fahrspuren durch einen Verkehrsteilnehmer zunehmend verdeckt werden oder der Verkehrsteilnehmer ein Blinklicht aktiviert hat, so kann dieser das Verhalten dahingehend bewerten bzw. einstufen, dass dieser Verkehrsteilnehmer ein bisheriges Zielfahrzeug verdecken wird. Das Zielfahrzeug dient als eine Referenz zum Halten einer Geschwindigkeit und eines Abstands. Wird das Zielfahrzeug durch einen anderen Verkehrsteilnehmer verdeckt, so kann der die Fahrspur wechselnde Verkehrsteilnehmer durch den Klassifikator als das neue Zielfahrzeug eingestuft werden.
  • Der Klassifikator kann als ein unabhängiges Modul oder als ein Bestandteil des Steuergeräts ausgestaltet sein.
  • Im Folgenden werden anhand von stark vereinfachten schematischen Darstellungen bevorzugte Ausführungsbeispiele der Erfindung näher erläutert. Hierbei zeigen
    • 1-4 schematische Draufsichten auf eine Verkehrssituation zum Veranschaulichen eines Verfahrens gemäß einer Ausführungsform,
    • 5-6 schematische Draufsichten auf eine weitere Verkehrssituation zum Veranschaulichen des Verfahrens gemäß einer weiteren Ausführungsform und
    • 7 ein schematisches Ablaufdiagramm zum Veranschaulichen des Verfahrens gemäß einer Ausführungsform.
  • In der 1, der 2, der 3 und der 4 sind schematische Draufsichten auf eine Verkehrssituation 1 zum Veranschaulichen eines Verfahrens 2 gemäß einer Ausführungsform dargestellt. Die beispielhafte Verkehrssituation 1 zeigt einen Autobahnabschnitt mit zwei Fahrspuren 4, 5.
  • Ein gemäß der BASt Norm automatisiert betreibbares Fahrzeug 6 folgt auf der rechten Fahrspur 5 einem vorausfahrenden Verkehrsteilnehmer 7, welches in der 1 als ein Zielfahrzeug 8 durch ein Steuergerät 10 des Fahrzeugs 6 eingestuft ist.
  • Das Fahrzeug 6 weist eine Umfeldsensorik 12 auf, welch mit dem Steuergerät 10 datenleitend verbunden ist. Die Umfeldsensorik 12 kann beispielsweise Kamerasensoren, LIDAR-Sensoren und Radarsensoren zum Ermöglichen von automatisierten Fahrfunktionen aufweisen.
  • Darüber hinaus weist das Fahrzeug 6 ein maschinenlesbares Speichermedium 14 auf, auf welchem ein Computerprogramm gespeichert ist. Das Computerprogramm umfasst Befehle, welche bei der Ausführung des Computerprogramms durch das Steuergerät 10 dieses veranlassen, das Verfahren 2 auszuführen.
  • In der 1 wird das Fahrzeug 6 von einem weiteren Verkehrsteilnehmer 9 auf einer linken Fahrspur 4 überholt. Der Verkehrsteilnehmer 9 nähert sich in der 2 der rechten Fahrspur 5. Diese Änderung des Abstands des Verkehrsteilnehmers 9 zur Fahrspurmarkierung 16 bzw. quer zur Fahrtrichtung F sowie ein Aktivieren eines Blinklichts 18 werden als Information zur Absichtsindizierung detektiert und an einen in das Steuergerät 10 integrierten Klassifikator übermittelt.
  • Der einscherende Verkehrsteilnehmer 9 wechselt in der 3 langsam die Fahrspur 4, 5 und befährt in der 4 vollständig die linke Fahrspur 5 vor dem Fahrzeug 6. Der Verkehrsteilnehmer 9 wechselt hierbei die Fahrspur 4, 5 in einen eingehaltenen Sicherheitsabstand S zum ursprünglichen Zielfahrzeug 7, 8.
  • Bei manuell gesteuerten Fahrzeugen würde sich ein Fahrer beispielhaft kooperativ verhalten und den Sicherheitsabstand S zum vorausfahrenden Verkehrsteilnehmer 7 vergrößern. Hierbei wird das Zielfahrzeug 8 gewechselt. Dieser Vorgang kann hierbei bereits während der einscherende Verkehrsteilnehmer 9 sich noch auf der Nachbarspur 4 befindet eingeleitet werden.
  • Aktuellen ACC (Adaptive Cruise Control)-Funktionen von Fahrzeugen sind typischerweise nicht in der Lage solche Verkehrssituationen 1 in ihrer vollen Komplexität zu erkennen. Typischerweise wird der Abstand S zum initialen Zielfahrzeug 7, 8 so lange gehalten, bis der einscherende Verkehrsteilnehmer 9 als neues Zielfahrzeug 8 ausgewählt wird. Das geschieht typischerweise erst, wenn der einscherende Verkehrsteilnehmer 9 zum Großteil auf der rechten Fahrspur 5 ist. 4 veranschaulicht einen derartigen Zustand.
  • Dieses Verhalten wird von einem Fahrer als unkomfortabel empfunden und stärkt nicht die Akzeptanz solcher Systeme. Dies liegt daran, dass zwar eine Spurzuordnung der Fahrzeuge 6, 7, 9 erfolgt, allerdings keine verhaltensbasierte und ganzheitliche Prädiktion der Absicht der anderen Verkehrsteilnehmer 9 durchgeführt wird. Auch zusätzliche Faktoren, wie beispielsweise ein einscherendes Fahrzeug 9, welches einem schnelleren Fahrzeug das Überholen ermöglicht, werden im Stand der Technik nicht berücksichtigt.
  • Durch das Verfahren 2 kann das Steuergerät 10 die Information zur Absichtsindizierung detektieren und den Sicherheitsabstand S bereits zu einem in 2 gezeigten Zeitpunkt vergrößern.
  • Die 5 und 6 zeigen schematische Darstellungen auf eine weitere Verkehrssituation 11 zum Veranschaulichen des Verfahrens 2 gemäß einer weiteren Ausführungsform. Die Verkehrssituation 11 ist aus einer Ego-Perspektive des Fahrzeugs 6 gezeigt. Das Fahrzeug 6 befährt eine mittlere Fahrspur 15 und weist in Fahrtrichtung F einen vorausfahrenden Verkehrsteilnehmer 7 auf, welcher als Zielfahrzeug 8 bestimmt ist. Somit folgt das Fahrzeug 6 automatisiert in einem Sicherheitsabstand S dem vorausfahrenden Verkehrsteilnehmer 7.
  • Gemäß dem Ausführungsbeispiel erfolgt eine Auswahl des Zielfahrzeugs 8 für die Längsführung einer ACC-Funktion. Das ausgewählte Zielfahrzeug 8 wird mittels eines Dreiecks in der Objektdetektion visualisiert. Es wird der Sicherheitsabstand S zum vorausfahrenden Verkehrsteilnehmer 7 eingehalten.
  • Ein detektierter Blinker 18, welcher durch ein gelbes Dreieck veranschaulicht ist, ermöglicht den einscherenden Verkehrsteilnehmer 9 frühzeitig als ein neues Zielfahrzeug 8 auszuwählen.
  • Weitere Verkehrsteilnehmer 20 bleiben bei diesem Ausführungsbeispiel unberücksichtigt.
  • In der 7 ist ein schematisches Ablaufdiagramm zum Veranschaulichen des Verfahrens 2 gemäß einer Ausführungsform gezeigt. Das Verfahren nutzt Daten 21 und insbesondere Objektmerkmale sowie eine Verarbeitungseinheit 25 für eine Absichtserkennung bzw. eine Abschätzung eines voraussichtlichen Verhaltens von Verkehrsteilnehmern 7, 9, 20. Die Verarbeitungseinheit 25 ist beispielhaft als ein Klassifikator ausgestaltet. Die Daten 21 aus einer Objekterkennung können zeitlich variable Daten 21 sein. Die Daten 21 sind vorzugsweise als Ergebnisdaten von softwarebasierten oder hardwarebasierten Detektoren ausgeführt, welche aus rohen Messdaten der Umfeldsensorik 12 resultieren können. Hierdurch kann ein erneutes Verarbeiten bzw. Auswerten der rohen Messdaten entfallen.
  • Durch das Verfahren können alle Verkehrsteilnehmer 7, 9, 20 gleichzeitig mit ihrem aktuellen Status, wie beispielsweise Geschwindigkeit, absolute Position, relative Position; Bremslicht 19, Blinklicht 18, und ihrem Verhalten im Verkehrsraum, beispielsweise ein Abstand bzw. eine Abstandsänderung in Fahrtrichtung F oder quer zur Fahrtrichtung F zur Fahrspurmarkierung 16, bei der Abschätzung des voraussichtlichen Verhaltens berücksichtigt werden.
  • Zusätzlich zu den Daten 21 der Objekterkennung können weitere Information zur Absichtsindizierung 22, 23 berücksichtigt werden. Hierzu können Information zur Absichtsindizierung 22 in Form von einer Veränderung eines Signalzustandes von Fahrtrichtungsanzeigern 18 über eine Zeitdauer t sowie als eine Veränderung eines Signalzustandes von Bremsleuchten 19 über die Zeitdauer t verwendet werden.
  • Eine weitere Information zur Absichtsindizierung 23 als Zusatzmerkmal kann durch das Berücksichtigen von Veränderungen einer Sichtbarkeit von Fahrspurmarkierungen 16 durch Verkehrsteilnehmer 7, 9, 20 über die Zeitdauer t bereitgestellt werden.
  • Die Daten 21 sowie die Informationen zur Absichtsindizierung 22, 23 können durch einen Zwischenschritt 24 aufbereitet und die jeweiligen Merkmale und Zustände der Verkehrsteilnehmer 7, 9, 20 extrahiert werden. Der Zwischenschritt 24 kann vorzugsweise als eine Schnittstelle 24 ausgestaltet sein, welche durch die genannten Daten 21, 22, 23 befüllt wird.
  • Diese Merkmale bzw. Daten 21, 22, 23 können an einen zeitlichen Klassifikator 25 übergeben werden. Der Klassifikator 25 ist beispielsweise als ein rekursives neuronales Netz ausgeführt, welches einen Status oder ein voraussichtliches Verhalten 26 der Verkehrsteilnehmer 7, 9, 20 prädizieren kann. Beispielsweise kann der Klassifikator 25 feststellen, ob in einem zukünftigen Zeitpunkt tn, welcher beispielsweise 2 bis 10 Sekunden in der Zukunft liegt, ein Verkehrsteilnehmer 9 als ein Zielfahrzeug 8 eingestuft wird.

Claims (11)

  1. Verfahren (2) zum Erkennen von einem voraussichtlichen Verhalten von Verkehrsteilnehmern (7, 9, 20) durch ein Steuergerät (10), wobei - Daten (21) von einer Umfelderfassung, insbesondere Objektmerkmale und ein Verhalten, über mindestens einen Verkehrsteilnehmer (7, 9, 20) in einem Fahrzeugumfeld (U) empfangen werden, - die empfangenen Daten (21) der Objekterkennung im Hinblick auf Änderungen eines Verhaltens des Verkehrsteilnehmers (7, 9, 20) durch eine Verarbeitungseinheit (25) ausgewertet werden, - durch die Verarbeitungseinheit (25) Änderungen des Verhaltens einem voraussichtlichen Verhalten und/oder einem voraussichtlichen Status des Verkehrsteilnehmers (7, 9, 20) zugeordnet werden.
  2. Verfahren nach Anspruch 1, wobei die Verarbeitungseinheit (25) als ein Klassifikator ausgestaltet ist, wobei der Klassifikator als ein rekursives neuronales Netz, ein konvolutionelles neuronales Netzwerk, eine Support Vector Machine und/oder als ein semantischer Segmentierer ausgestaltet ist.
  3. Verfahren nach Anspruch 1 oder 2, wobei zusätzlich zu den empfangenen Daten (21) der Objekterkennung mindestens eine Information zur Absichtsindizierung (22, 23) des mindestens einen Verkehrsteilnehmers (7, 9, 20) an die Verarbeitungseinheit (25) übergeben wird.
  4. Verfahren nach Anspruch 3, wobei die empfangenen Daten (21) der Objekterkennung von einer Schnittstelle (24) empfangen werden, wobei mindestens eine Information zur Absichtsindizierung (22, 23) zusätzlich an die Schnittstelle (24) übermittelt wird.
  5. Verfahren nach Anspruch 3 oder 4, wobei die mindestens eine Information zur Absichtsindizierung (22, 23) als eine Veränderung eines Signalzustandes von Fahrtrichtungsanzeigern (18) über eine Zeitdauer (t), als eine Veränderung eines Signalzustandes von Bremsleuchten (19) über die Zeitdauer (t) und/oder als eine Veränderung von Sichtbarkeit von Fahrspurmarkierungen (16) durch Verkehrsteilnehmer (7, 9, 20) über die Zeitdauer (t) an die Verarbeitungseinheit (25) übergeben wird.
  6. Verfahren nach einem der Ansprüche 1 bis 5, wobei die Daten (21) der Objekterkennung der ermittelten Verkehrsteilnehmer (7, 9, 20) sensorunabhängig bereitgestellt werden.
  7. Verfahren nach einem der Ansprüche 1 bis 6, wobei die Daten (21) der Objekterkennung von allen im Fahrzeugumfeld (U) sensorbasiert ermittelten Verkehrsteilnehmern (7, 9, 20) empfangen und für eine Absichtsindizierung verwendet werden.
  8. Verfahren nach einem der Ansprüche 1 bis 7, wobei bei einer festgestellten Spurwechselabsicht eines Verkehrsteilnehmers (7, 9, 20) von einer benachbarten Fahrspur (4), dem auf die Fahrspur (5) eines das Steuergerät (10) führenden Fahrzeugs (6) wechselnden Verkehrsteilnehmer (7, 9, 20) ein voraussichtlicher Status als neues Zielfahrzeug (8) durch die Verarbeitungseinheit (25) zugeordnet wird.
  9. Steuergerät (10), welches dazu eingerichtet ist, das Verfahren (2) gemäß einem der vorhergehenden Ansprüche auszuführen.
  10. Computerprogramm, welches Befehle umfasst, die bei der Ausführung des Computerprogramms durch einen Computer oder ein Steuergerät (10) diesen veranlassen, das Verfahren (2) gemäß einem der Ansprüche 1 bis 8 auszuführen.
  11. Maschinenlesbares Speichermedium (14), auf welchem das Computerprogramm gemäß Anspruch 10 gespeichert ist.
DE102019212894.7A 2019-08-28 2019-08-28 Verhaltensprädiktion von Verkehrsteilnehmern Pending DE102019212894A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102019212894.7A DE102019212894A1 (de) 2019-08-28 2019-08-28 Verhaltensprädiktion von Verkehrsteilnehmern

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102019212894.7A DE102019212894A1 (de) 2019-08-28 2019-08-28 Verhaltensprädiktion von Verkehrsteilnehmern

Publications (1)

Publication Number Publication Date
DE102019212894A1 true DE102019212894A1 (de) 2021-03-04

Family

ID=74565411

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102019212894.7A Pending DE102019212894A1 (de) 2019-08-28 2019-08-28 Verhaltensprädiktion von Verkehrsteilnehmern

Country Status (1)

Country Link
DE (1) DE102019212894A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023170349A1 (fr) * 2022-03-08 2023-09-14 Psa Automobiles Sa Procédé de sélection d'un objet mobile pour la mise en œuvre d'une fonction de régulation de vitesse adaptative pour un véhicule automobile

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017105903A1 (de) * 2016-03-21 2017-09-21 Ford Global Technologies, Llc Fussgängerdetektion und Bewegungsvorhersage mit nach hinten gerichteter Kamera
DE102018100154A1 (de) * 2017-01-13 2018-07-19 Ford Global Technologies, Llc System und verfahren zur vermeidung von interferenz mit einem bus
DE102018109459A1 (de) * 2017-04-24 2018-10-25 Ford Global Technologies, Llc Navigationsgestützte kollisionsvermeidung an kreuzungen
DE102018115263A1 (de) * 2017-06-27 2018-12-27 GM Global Technology Operations LLC Systeme und verfahren zur vorhersage von verkehrsmustern in einem autonomen fahrzeug
DE102018121122A1 (de) * 2017-09-01 2019-03-07 GM Global Technology Operations LLC Systeme und Verfahren zur Fahrzeugsignalleuchtenerfassung
DE102018129101A1 (de) * 2017-11-27 2019-05-29 GM Global Technology Operations LLC Aktiver verkehrsteilnehmer

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017105903A1 (de) * 2016-03-21 2017-09-21 Ford Global Technologies, Llc Fussgängerdetektion und Bewegungsvorhersage mit nach hinten gerichteter Kamera
DE102018100154A1 (de) * 2017-01-13 2018-07-19 Ford Global Technologies, Llc System und verfahren zur vermeidung von interferenz mit einem bus
DE102018109459A1 (de) * 2017-04-24 2018-10-25 Ford Global Technologies, Llc Navigationsgestützte kollisionsvermeidung an kreuzungen
DE102018115263A1 (de) * 2017-06-27 2018-12-27 GM Global Technology Operations LLC Systeme und verfahren zur vorhersage von verkehrsmustern in einem autonomen fahrzeug
DE102018121122A1 (de) * 2017-09-01 2019-03-07 GM Global Technology Operations LLC Systeme und Verfahren zur Fahrzeugsignalleuchtenerfassung
DE102018129101A1 (de) * 2017-11-27 2019-05-29 GM Global Technology Operations LLC Aktiver verkehrsteilnehmer

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023170349A1 (fr) * 2022-03-08 2023-09-14 Psa Automobiles Sa Procédé de sélection d'un objet mobile pour la mise en œuvre d'une fonction de régulation de vitesse adaptative pour un véhicule automobile
FR3133360A1 (fr) * 2022-03-08 2023-09-15 Psa Automobiles Sa Procédé de sélection d’un objet mobile pour la mise en œuvre d’une fonction de régulation de vitesse adaptative pour un véhicule automobile

Similar Documents

Publication Publication Date Title
DE112010002021B4 (de) Fahrzeugumgebungsschätzvorrichtung
DE102017129075A1 (de) Parkplatznavigationssystem und -verfahren
EP2149131B1 (de) Verfahren und vorrichtung zur erkennung von verkehrsrelevanten informationen
DE102017123002A1 (de) Mehrfachsensor-niederschlagsklassifizierung vorrichtung und verfahren
DE102015224192B4 (de) Erkennen einer Freifläche
EP2951804B1 (de) Erstellen eines umfeldmodells für ein fahrzeug
DE102017115393A1 (de) Virtuelles sensordatenerzeugungssystem und verfahren zum unterstützen der entwicklung von sichtbasierten regendetektionsalgorithmen
DE102014201159A1 (de) Verfahren und Vorrichtung zum Klassifizieren eines Verhaltens eines Fußgängers beim Überqueren einer Fahrbahn eines Fahrzeugs sowie Personenschutzsystem eines Fahrzeugs
DE112014007249T5 (de) Bildverarbeitungsvorrichtung, Fahrzeuganzeigesystem, Anzeigevorrichtung, Bildverarbeitungsverfahren und Bildverarbeitungsprogramm
EP2753532A1 (de) Verfahren und vorrichtung für ein assistenzsystem in einem fahrzeug zur durchführung eines autonomen oder teilautonomen fahrmanövers
DE102016007899B4 (de) Verfahren zum Betreiben einer Einrichtung zur Verkehrssituationsanalyse, Kraftfahrzeug und Datenverarbeitungseinrichtung
EP3271231A1 (de) Verfahren und vorrichtung zum überwachen einer von einem fahrzeug abzufahrenden soll-trajektorie auf kollisionsfreiheit
DE102012213344A1 (de) Verkehrszeichenerkennung
DE102016220583A1 (de) Verfahren zur Überprüfung einer Überholmöglichkeitsbedingung
DE102015015021A1 (de) Verfahren zur Unterstützung eines Fahrers beim Führen eines Fahrzeugs
DE102021103149A1 (de) Verfahren und vorrichtung zur bestimmung der optimalen kreuzungsspur in einem unterstützten fahrsystem
DE112015005364T5 (de) Fahrzeuggeschwindigkeitsregelungsvorrichtung,fahrzeuggeschwindigkeitsregelungsverfahren und fahrzeuggeschwindigkeitsregelungsprogramm
DE102015009849B4 (de) Radarsystem vom Typ für ein Fahrzeug und Verfahren zum Entfernen eines nicht interessierenden Ziels
DE102019105739A1 (de) Verfahren zum zumindest teilautomatisierten Führen eines Kraftfahrzeugs
WO2020048669A1 (de) Verfahren zum bestimmen einer spurwechselangabe eines fahrzeugs, ein computerlesbares speichermedium und ein fahrzeug
EP1327969A1 (de) Kraftfahrzeug mit Mitteln zum Erkennen eines Verkehrzeichens
DE102019217723A1 (de) Fahrsicherheits-steuersystem unter verwendung von umgebungsgeräuschen und steuerverfahren dafür
DE102018220791A1 (de) Verfahren und Fahrzeug zum Reagieren auf ein Objekt im Fahrzeugumfeld
DE102016002232A1 (de) Verfahren zum Betrieb eines Kraftfahrzeugs
DE102012220191A1 (de) Verfahren zur Unterstützung eines Fahrers bei der Querführung eines Fahrzeugs

Legal Events

Date Code Title Description
R163 Identified publications notified