DE102022205120A1 - Verfahren zum Klassifizieren eines Verhaltens eines Verkehrsteilnehmers und Verfahren zum Steuern eines Ego-Fahrzeugs - Google Patents

Verfahren zum Klassifizieren eines Verhaltens eines Verkehrsteilnehmers und Verfahren zum Steuern eines Ego-Fahrzeugs Download PDF

Info

Publication number
DE102022205120A1
DE102022205120A1 DE102022205120.3A DE102022205120A DE102022205120A1 DE 102022205120 A1 DE102022205120 A1 DE 102022205120A1 DE 102022205120 A DE102022205120 A DE 102022205120A DE 102022205120 A1 DE102022205120 A1 DE 102022205120A1
Authority
DE
Germany
Prior art keywords
latent space
trajectory
data
road user
driving behavior
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102022205120.3A
Other languages
English (en)
Inventor
Maxim Dolgov
Andreas Schmidt
Koba Natroshvili
Steffen Knoop
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102022205120.3A priority Critical patent/DE102022205120A1/de
Priority to US18/313,843 priority patent/US20230399027A1/en
Priority to CN202310583629.2A priority patent/CN117104259A/zh
Publication of DE102022205120A1 publication Critical patent/DE102022205120A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0027Planning or execution of driving tasks using trajectory prediction for other traffic participants
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/09Taking automatic action to avoid collision, e.g. braking and steering
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0015Planning or execution of driving tasks specially adapted for safety
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0027Planning or execution of driving tasks using trajectory prediction for other traffic participants
    • B60W60/00274Planning or execution of driving tasks using trajectory prediction for other traffic participants considering possible movement changes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/865Combination of radar systems with lidar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/417Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section involving the use of neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/7715Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4041Position
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4046Behavior, e.g. aggressive or erratic
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Electromagnetism (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Automation & Control Theory (AREA)
  • Human Computer Interaction (AREA)
  • Traffic Control Systems (AREA)

Abstract

Die Erfindung betrifft ein Verfahren (100) zum Klassifizieren eines Fahrverhaltens eines Verkehrsteilnehmers (303) im Umfeld (305) eines Ego-Fahrzeugs (301), umfassend:- Empfangen (101) von Trajektoriendaten (311) einer Fahrtrajektorie (T1) eines im Umfeld (305) eines Ego-Fahrzeugs (301) angeordneten Verkehrsteilnehmers (303);- Ermitteln (103) einer Latent-Raum-Repräsentation (334) der Fahrtrajektorie (T1) des Verkehrsteilnehmers (303) in einem Latenten Raum (333);- Ermitteln (105) eines Abstands (D) der Latent-Raum-Repräsentation (334) der Fahrtrajektorie (T1) des Verkehrsteilnehmers (303) zu einer Latent-Raum-Repräsentation (335) wenigstens einer Normaltrajektorie (T2) im Latenten Raum (333); und- Klassifizieren (107) eines Fahrverhaltens des Verkehrsteilnehmers (303) als ein normales Fahrverhalten, falls der Abstand (D) im Latenten Raum (333) einen vorbestimmten Grenzwert unterschreitet; oder- Klassifizieren (109) des Fahrverhaltens des Verkehrsteilnehmers (303) als ein anormales Fahrverhalten, falls der Abstand (D) im Latenten Raum (333) den vorbestimmten Grenzwert überschreitet.

Description

  • Die Erfindung betrifft ein Verfahren zum Klassifizieren eines Fahrverhaltens eines Verkehrsteilnehmers in einem Umfeld eines Ego-Fahrzeugs. Die Erfindung betrifft ferner ein Verfahren zum Steuern eines Ego-Fahrzeugs.
  • Stand der Technik
  • Für das Steuern von Fahrzeugen, insbesondere von autonom steuerbaren Fahrzeugen, ist ein richtiges Einschätzen von zukünftigen Fahrverhalten weiterer Verkehrsteilnehmer essentiell. Für eine sichere Steuerung des Fahrzeugs ist es insbesondere wichtig zwischen normalem Fahrverhalten, bei dem nicht mit unvorhersehbaren Aktionen zu rechnen ist, und von dem normalen Fahrverhalten abweichendem anormalen Fahrverhalten, bei dem damit gerechnet werden muss, dass in Zukunft unvorhersehbare Aktionen ausgeführt werden, unterscheiden zu können, um das Fahrverhalten des zu steuernden Fahrzeugs gegebenenfalls anpassen zu können.
  • Es ist daher eine Aufgabe der Erfindung, ein verbessertes Verfahren zum Klassifizieren eines Fahrverhaltens eines Verkehrsteilnehmers in einem Umfeld eines Ego-Fahrzeugs und ein verbessertes Verfahren zum Steuern eines Ego-Fahrzeugs bereitzustellen.
  • Diese Aufgabe wird durch das Verfahren zum Klassifizieren eines Fahrverhaltens eines Verkehrsteilnehmers in einem Umfeld eines Ego-Fahrzeugs und durch das Verfahren zum Steuern eines Ego-Fahrzeugs der unabhängigen Ansprüche gelöst. Vorteilhafte Ausgestaltungen sind Gegenstand der untergeordneten Ansprüche.
  • Nach einem Aspekt der Erfindung wird ein Verfahren zum Klassifizieren eines Fahrverhaltens eines Verkehrsteilnehmers im Umfeld eines Ego-Fahrzeugs bereitgestellt, umfassend:
    • Empfangen von Trajektoriendaten einer Fahrtrajektorie eines im Umfeld eines Ego-Fahrzeugs angeordneten Verkehrsteilnehmers, wobei die Trajektoriendaten wenigstens Positionsinformationen der durch den Verkehrsteilnehmer befolgten Fahrtrajektorie umfassen;
    • Ermitteln einer Latent-Raum-Repräsentation der Fahrtrajektorie des Verkehrsteilnehmers in einem Latenten Raum, wobei die Latent-Raum-Repräsentation der Fahrtrajektorie durch eine dimensionsreduzierte Darstellung der Trajektoriendaten gegeben ist;
    • Ermitteln eines Abstands der Latent-Raum-Repräsentation der Fahrtrajektorie des Verkehrsteilnehmers zu einer Latent-Raum-Repräsentation wenigstens einer Normaltrajektorie im Latenten Raum, wobei die Normaltrajektorie als eine auf einem normalen Fahrverhalten basierende Fahrtrajektorie klassifiziert ist; und Klassifizieren eines Fahrverhaltens des Verkehrsteilnehmers als ein normales Fahrverhalten, falls der Abstand der Latent-Raum-Repräsentation der Fahrtrajektorie des Verkehrsteilnehmers zu der Latent-Raum-Repräsentation der wenigstens einen Normaltrajektorie im Latenten Raum einen vorbestimmten Grenzwert unterschreitet; oder
    • Klassifizieren des Fahrverhaltens des Verkehrsteilnehmers als ein anormales Fahrverhalten, falls der Abstand der Latent-Raum-Repräsentation der Fahrtrajektorie des Verkehrsteilnehmers zu der Latent-Raum-Repräsentation der wenigstens einen Normaltrajektorie im Latenten Raum den vorbestimmten Grenzwert überschreitet; und
    • Ausgeben einer Klassifizierungsinformation.
  • Hierdurch kann der technische Vorteil erreicht werden, dass ein verbessertes Verfahren zum Klassifizieren eines Fahrverhaltens eines Verkehrsteilnehmers im Umfeld eines Ego-Fahrzeugs bereitgestellt werden kann. Hierzu werden erfindungsgemäß Trajektoriendaten einer Fahrtrajektorie des Verkehrsteilnehmers empfangen und für die entsprechenden Trajektoriendaten Latent-Raum-Repräsentationen ermittelt. Die Latent-Raum-Repräsentationen sind hierbei Repräsentationen der Trajektoriendaten im latenten Raum und beschreiben eine dimensionsreduzierte Darstellung der Trajektoriendaten.
  • Erfindungsgemäß wird durch eine entsprechend trainierte künstliche Intelligenz basierend auf den empfangenen Trajektoriendaten der Fahrtrajektorien der Verkehrsteilnehmer entsprechende Repräsentationen im latenten Raum berechnet. Diese Repräsentationen können beispielsweise in Vektordarstellung ausgebildet sein und dimensionsreduzierte Beschreibungen der Information der Trajektoriendaten darstellen. Die Überführung der Trajektoriendaten der Fahrtrajektorien in entsprechende Latent-Raum-Repräsentationen kann somit als eine Kodierung der Information der Trajektoriendaten interpretiert werden. Die Latent-Raum-Repräsentationen umfassen die Information bzw. den Großteil der Information der jeweils dazugehörigen Trajektoriendaten, weisen jedoch eine dimensionsreduzierte Darstellung gegenüber der Darstellung der ursprünglichen Trajektoriendaten auf. Der latente Raum wird hierbei als die Menge aller Latent-Raum-Repräsentationen der Trajektoriendaten gesehen und kann gemäß der Dimensionalität der Latent-Raum-Repräsentationen mehrdimensional ausgebildet sein.
  • Die Erfindung basiert nun auf der folgenden Idee, dass die entsprechend trainierte künstliche Intelligenz bei der Überführung der Trajektoriendaten in entsprechende Latent-Raum-Repräsentationen diese Berechnung der Latent-Raum-Repräsentationen gemäß relevanten Kriterien durchführt und somit ähnliche oder identische Trajektoriendaten zu ähnlichen oder identischen Latent-Raum-Repräsentationen führen. Unterschiedliche Trajektoriendaten, die auf sehr unterschiedlichen Fahrtrajektorien basieren, werden hingegen Latent-Raum-Repräsentationen aufweisen, die sich voneinander stark unterscheiden. Latent-Raum-Repräsentationen sind im Sinne der Anmeldung als Vektordarstellung ausgebildet. Identische oder ähnliche Latent-Raum-Repräsentationen sind daher Vektordarstellungen mit identischen oder nur geringfügig verschiedenen Einträgen. Geringfügig verschiedene Einträge führen hierbei zu geringen Differenzen, während gleiche Einträge eine Differenz von Null aufweisen. Da ähnliche oder identische Vektordarstellungen zu geringen oder verschwindenden Differenzen führen, werden die ähnlichen oder identischen Latent-Raum-Repräsentationen somit innerhalb des latenten Raums sehr nah beieinander angeordnet sein. Stark unterschiedliche Trajektoriendaten, die auf sehr verschiedenen Fahrtrajektorien basieren, führen hingegen zu Latent-Raum-Repräsentationen, die im latenten Raum in einem größeren Abstand zueinander angeordnet sind.
  • Da die Latent-Raum-Repräsentationen vorzugsweise in Vektordarstellung ausgebildet sind, kann somit über eine einfache Abstandsbestimmung der einzelnen Latent-Raum-Repräsentationen innerhalb des latenten Raums eine Ähnlichkeitsbestimmung der jeweils dazugehörigen Trajektoriendaten bzw. der entsprechenden Fahrtrajektorien ermittelt werden. Ähnliche oder identische Fahrtrajektorien führen somit zu Latent-Raum-Repräsentationen mit sehr geringen Abständen im latenten Raum, während stark unterschiedliche Fahrtrajektorien Latent-Raum-Repräsentationen aufweisen, die entsprechend größere Abstände im latenten Raum zueinander aufweisen.
  • Ferner basiert die vorliegende Erfindung auf der Idee, dass Fahrtrajektorien, die auf einem normalen Fahrverhalten basieren, starke Ähnlichkeit zueinander aufweisen, während Fahrtrajektorien, die auf einem anormalen Fahrverhalten basieren, starke Unterschiede zu den Fahrtrajektorien des normalen Fahrverhaltens aufweisen werden.
  • Ein normales Fahrverhalten wird hierbei dadurch gekennzeichnet sein, dass Verkehrsregelungen eingehalten werden. Das jeweilige Fahrzeug fährt somit in der vorgeschriebenen Fahrtrichtung auf der entsprechend ausgewiesenen Fahrspur der Fahrbahn. Es werden keine unvorhergesehenen Fahrmanöver ausführt. Das Fahrzeug folgt stattdessen gleichmäßig dem Verlauf der Fahrbahn, ohne ruckartige Lenkbewegungen und mit einem gleichmäßigen Geschwindigkeitsverlauf. Ferner fährt das Fahrzeug ausschließlich auf den dafür vorgesehen Fahrspuren und nicht über Fahrbahnbegrenzungen hinaus, oder beispielsweise auf dem Gehweg fährt.
  • Fahrtrajektorien für derartig normal fahrende Fahrzeuge werden somit hohe Ähnlichkeit zueinander aufweisen, da die Verläufe der jeweiligen Fahrtrajektorien größtenteils durch die Verläufe der befahrenen Fahrbahnen und die herrschenden Verkehrsregeln definiert sind.
  • Fahrzeuge, die sich hingegen nicht an den Verlauf der Fahrbahn bzw. die herrschenden Verkehrsregeln halten, weisen hingegen Fahrtrajektorien auf, die hohe Unterschiede zu den Fahrtrajektorien des normalen Fahrverhaltens aufweisen werden. Diese Fahrtrajektorien können beliebige Abweichungen zu den oben beschrieben Verhaltensweisen normal fahrender Fahrzeuge aufweisen. Beispielsweise können die Trajektorien Abweichungen zu den Verläufen der befahrenen Fahrbahnen aufweisen. Es können ruckartige Lenkbewegungen bzw. Schlangenlinien bzw. Zick-Zack-Bewegungen ausgeführt werden. Es können starke Geschwindigkeitsunterschiede bzw. das generelle Nichtbeachten herrschender Verkehrsregeln erkennbar sein. Die jeweiligen Fahrzeuge können von den vorgesehenen Fahrspuren abweichen und beispielsweise auf Gehwegen oder in der falschen Fahrtrichtung gefahren werden.
  • Während Fahrtrajektorien eines normalen Fahrverhaltens somit identische oder sehr ähnliche Latent-Raum-Repräsentationen aufweisen, die im latenten Raum sehr nah beieinander angeordnet sind, weisen Fahrtrajektorien, die auf einem anormalen Fahrverhalten basieren, hingegen Latent-Raum-Repräsentationen auf, die stark unterschiedlich zu den Latent-Raum-Repräsentationen des normalen Fahrverhaltens sind und entsprechend weit von diesen Latent-Raum-Repräsentationen im latenten Raum angeordnet sind.
  • Auf dieser Idee basierend, sieht das erfindungsgemäße Verfahren nun vor, das Fahrverhalten eines Verkehrsteilnehmers im Umfeld des Ego-Fahrzeugs basierend auf der jeweiligen Fahrtrajektorie des durch eine Abstandsbestimmung einer Latent-Raum-Repräsentation der Trajektoriendaten der Fahrtrajektorie des Verkehrsteilnehmers zu bekannten Latent-Raum-Repräsentationen von Fahrtrajektorien, die bekannterweise auf einem normalen Fahrverhalten basieren und die in der vorliegenden Anmeldung als Normaltrajektorien bezeichnet werden, Verkehrsteilnehmers als normales Fahrverhalten oder als anormales Fahrverhalten zu klassifizieren.
  • Die Abstandsbestimmung der Latent-Raum-Repräsentationen der Fahrtrajektorien der Verkehrsteilnehmer im Umfeld des Ego-Fahrzeugs zu den Latent-Raum-Repräsentationen der auf einem normalen Fahrverhalten basierenden Normaltrajektorien im latenten Raum ermöglicht somit eine einfache und präzise Klassifizierung des Fahrverhaltens des Verkehrsteilnehmers im Umfeld des Ego-Fahrzeugs. Das Fahrverhalten des Verkehrsteilnehmers im Umfeld des Ego-Fahrzeugs wird hierbei als ein normales Fahrverhalten klassifiziert, falls die jeweilige Latent-Raum-Repräsentation der Fahrtrajektorie des Verkehrsteilnehmers einen Abstand zu Latent-Raum-Repräsentationen von Normaltrajektorien im latenten Raum aufweist, der geringer ist als ein vorbestimmter Grenzwert. Ist der Abstand zwischen der Latent-Raum-Repräsentation der Fahrtrajektorie des Verkehrsteilnehmers zu den Latent-Raum-Repräsentationen der Normaltrajektorien im latenten Raum hingegen größer als der vorbestimmte Grenzwert, so wird das Fahrverhalten des Verkehrsteilnehmers, das zu der jeweiligen Fahrtrajektorie geführt hat, hingegen als ein anormales Fahrverhalten klassifiziert.
  • Basierend auf der geführten Klassifizierung der Fahrverhalten der Verkehrsteilnehmer im Umfeld des Ego-Fahrzeugs kann eine Steuerung des Ego-Fahrzeugs auf das entsprechend klassifizierte Verhalten des Verkehrsteilnehmers angepasst werden. So können beispielsweise durch das Ego-Fahrzeug vorbestimmte Sicherheitsfunktionen ausgeführt werden, falls ein anormales Fahrverhalten erkannt wird. Hierdurch kann wiederum die Steuerung des Ego-Fahrzeugs verbessert und die Sicherheit des Ego-Fahrzeugs erhöht werden.
  • Das Ego-Fahrzeug kann im Sinne der Anmeldung ein teilautomatisiert, hochautomatisiert oder vollautomatisiert steuerbares Fahrzeug sein. Verkehrsteilnehmer können weitere Fahrzeuge, insbesondere Lastkraftwagen, Personenkraftwagen, Busse, Motorräder oder Fahrräder umfassen. Eine Fahrbahn kann im Sinne der Anmeldung eine Autobahn, eine Ladstraße, eine innerstädtische Straße, eine verkehrsberuhigte Straße oder ein Parkplatz sein.
  • Nach einer Ausführungsform wird der Abstand durch eine vorbestimmte Abstandsmetrik bestimmt, wobei die Abstandsmetrik durch eine euklidische Abstandsfunktion oder durch eine logarithmische Likelihood-Funktion der Latent-Raum-Repräsentationen innerhalb des Latenten Raums gegeben ist.
  • Hierdurch kann der technische Vorteil erreicht werden, dass eine präzise Abstandsbestimmung zwischen den Latent-Raum-Repräsentationen der Trajektoriendaten der Fahrtrajektorien der Verkehrsteilnehmer im Umfeld des Ego-Fahrzeugs und den Latent-Raum-Repräsentationen der bekannten Normaltrajektorien des bekannten normalen Fahrverhaltens innerhalb des latenten Raums ermöglicht ist. Da die Latent-Raum-Repräsentationen vorzugsweise als Vektordarstellungen ausgebildet sind, lassen sich technisch einfach durchzuführende Abstandsbestimmungen zwischen verschiedenen Latent-Raum-Repräsentationen durchführen. Dies ermöglicht eine präzise Abstandsbestimmung und darauf basierend eine präzise Klassifizierung des jeweiligen Fahrverhaltens.
  • Nach einer Ausführungsform wird das Klassifizieren durch ein Klassifizierungsmodul ausgeführt, wobei das Klassifizierungsmodul für das Ermitteln der Latent-Raum-Repräsentation der Fahrtrajektorie des Verkehrsteilnehmers ein entsprechend trainiertes Encoder-Modul einer Autoencoder-Architektur umfasst, wobei die Autoencoder-Architektur trainiert ist, Latent-Raum-Repräsentationen von Fahrtrajektorien im Latenten Raum zu ermitteln und als auf normalem Fahrverhalten basierende Fahrtrajektorien zu erkennen und zu klassifizieren.
  • Hierdurch kann der technische Vorteil erreicht werden, dass eine präzise Klassifizierung der Fahrverhalten der Verkehrsteilnehmer ermöglicht ist. Hierzu wird eine Autoencoder-Architektur verwendet, um die Latent-Raum-Repräsentationen der Trajektoriendaten, insbesondere der Normaltrajektorien, während eines Trainings der Autoencoder-Architektur zu erlernen. Das entsprechende Encoder-Modul der Autoencoder-Architektur ist nach abgeschlossenem Training entsprechend eingerichtet, Latent-Raum-Repräsentationen von Trajektoriendaten von Fahrtrajektorien zu generieren. Wie oben beschrieben, werden die Latent-Raum-Repräsentationen basierend auf erlernten Kriterien berechnet, so dass ähnliche bzw. identische Trajektoriendaten von ähnlichen bzw. identischen Fahrtrajektorien zu ähnlichen bzw. identischen Latent-Raum-Repräsentationen führen. Trajektoriendaten von Trajektorien, die stark von Normaltrajektorien abweichen, führen hingegen zu stark abweichenden bzw. unterschiedlichen Latent-Raum-Repräsentationen. Durch das entsprechende Training der Autoencoder-Architektur ist das jeweilige Encoder-Modul somit eingerichtet, Latent-Raum-Repräsentationen von ähnlichen Fahrtrajektorien im latenten Raum nah beieinander anzuordnen und Latent-Raum-Repräsentationen von stark abweichenden Fahrtrajektorien im latenten Raum entsprechend weiter entfernt anzuordnen.
  • Latent-Raum-Repräsentationen sind im Sinne der Anmeldung im latenten Raum nah beieinander angeordnet, wenn die jeweiligen Vektordarstellungen der Latent-Raum-Repräsentationen ähnliche oder identische Einträge aufweisen. Latent-Raum-Repräsentationen sind im Sinne der Anmeldung hingegen im latenten Raum entsprechend beabstandet zueinander angeordnet, wenn die jeweiligen Vektordarstellungen der Latent-Raum-Repräsentationen stark unterschiedliche Einträge zueinander aufweisen.
  • Nach einer Ausführungsform umfasst das Verfahren ferner:
    • Empfangen von Kartendaten einer das Umfeld des Ego-Fahrzeugs abbildenden Kartendarstellung;
    • Ermitteln einer Latent-Raum-Repräsentation der Kartendaten der Kartendarstellung im Latenten Raum, wobei die Latent-Raum-Repräsentation der Fahrtrajektorie durch eine dimensionsreduzierte Darstellung der Kartendaten gegeben ist; und wobei das Ermitteln des Abstands und/oder das Klassifizieren des Verhaltens des Verkehrsteilnehmers unter Berücksichtigung der Latent-Raum-Repräsentation der Kartendaten der Kartendarstellung erfolgt.
  • Hierdurch kann der technische Vorteil erreicht werden, dass durch das Klassifizierungsmodul eine präzise Latent-Raum-Repräsentation der Trajektoriendaten der Fahrtrajektorien der im Umfeld des Ego-Fahrzeugs positionierten Verkehrsteilnehmer ermöglicht ist. Durch die Berücksichtigung der Kartendaten der die durch das Ego-Fahrzeug und den weiteren Verkehrsteilnehmer befahrenen Fahrbahn abbildenden Kartendarstellung können zusätzliche Informationen bei der Ermittlung der Latent-Raum-Repräsentationen der Trajektoriendaten der Fahrtrajektorien der Verkehrsteilnehmer berücksichtigt werden. Die zusätzlichen Informationen der Kartendaten ermöglicht eine präzisere Klassifizierung des normalen bzw. des anormalen Verhaltens des Verkehrsteilnehmers. Durch die Berücksichtigung der Kartendaten kann insbesondere eine Übereinstimmung des Verlaufs der Fahrtrajektorie mit dem Verlauf der befahrenen Fahrbahn besser berücksichtigt werden. Eine hohe Übereinstimmung des Verlaufs der Fahrtrajektorie mit dem Verlauf der Fahrbahn deutet hierbei auf ein normales Fahrverhalten hin, während ein stark abweichender Verlauf der Fahrtrajektorie vom Verlauf der Fahrbahn auf ein anormales Verhalten hindeutet.
  • Nach einer Ausführungsform umfasst das Verfahren ferner:
    • Umwandeln der Trajektoriendaten in Bilddaten der Trajektoriendaten und/oder Umwandeln der Kartendaten in Bilddaten der Kartendaten; und wobei das Ermitteln des Abstands und/oder das Klassifizieren des Verhaltens des Verkehrsteilnehmers basierend auf den Bilddaten der Trajektoriendaten und/oder basierend auf den Bilddaten der Kartendaten erfolgt.
  • Hierdurch kann der technische Vorteil erreicht werden, dass durch die Bilddaten der Trajektoriendaten und/oder die Bilddaten der Kartendaten der Kartendarstellung eine präzisere Ermittlung der Latent-Raum-Repräsentationen der Trajektoriendaten und/oder der Kartendaten ermöglicht ist. Dies wiederum ermöglicht eine präzisere Klassifizierung der Fahrverhalten der Verkehrsteilnehmer des Ego-Fahrzeugs.
  • Nach einer Ausführungsform umfasst das Klassifizierungsmodul ferner ein Verbindungsnetzwerk, wobei das Verbindungsnetzwerk eingerichtet ist, eine Mehrzahl von Bilddaten von Trajektoriendaten und/oder eine Mehrzahl von Bilddaten der Kartendaten in Eingabedaten für das Encoder-Modul in Vektordarstellung zusammenzufassen, und/oder wobei das Klassifizierungsmodul ferner ein Kartennetzwerk umfasst, wobei das Kartennetzwerk eingerichtet ist, basierend auf den Bilddaten der Kartendaten Latent-Raum-Repräsentationen der Kartendaten zu ermitteln, und wobei das Verbindungsnetzwerk und/oder das Kartennetzwerk als entsprechend trainierte Neuronale Netze ausgebildet sind.
  • Hierdurch kann der technische Vorteil erreicht werden, dass eine weitere Verbesserung der Klassifizierung der Verhalten der Verkehrsteilnehmer ermöglicht ist. Hierzu werden durch ein Verbindungsnetzwerk des Klassifizierungsmoduls zunächst die Mehrzahl von Bilddaten der Trajektoriendaten und/oder der Bilddaten der Kartendaten in Eingabedaten für das Encoder-Modul zusammengefasst. Durch die Zusammenfassung der Bilddaten der Trajektoriendaten und der Kartendaten können die Positionsinformationen der Trajektoriendaten mit den Positionsinformationen der Kartendaten abgeglichen werden und somit eine präzisere Positionsbestimmung bzw. ein präziserer Abgleich der Verläufe der Fahrtrajektorien mit den Verläufen der befahrenen Fahrbahn bewirkt werden. Insbesondere können die Trajektoriendaten und die Kartendaten durch die Verarbeitung durch das Verbindungsnetzwerk in die gemeinsamen Eingabedaten für das Encoder-Modul gemeinsam verarbeitet werden, wodurch eine zusätzliche Erhöhung der Präzision der Latent-Raum-Repräsentationen der Trajektoriendaten und der Kartendaten erreicht werden kann. Ferner umfasst das Klassifizierungsmodul ein Kartennetzwerk, das eingerichtet ist, die Bilddaten der Kartendaten in entsprechende Latent-Raum-Repräsentationen zu überführen. Dies ermöglicht wiederum eine hochpräzise Darstellung der Kartendaten im latenten Raum. Dies wiederum ermöglicht eine weitere Erhöhung der Präzisierung der Klassifizierung der Fahrverhalten der Verkehrsteilnehmer. Durch die Ausbildung des Verbindungsnetzwerks und des Kartennetzwerks als entsprechende trainierte neuronale Netze kann wiederum die Leistungsfähigkeit des Klassifizierungsmoduls erhöht werden.
  • Nach einer Ausführungsform ist die Autoencoder-Architektur als ein Variations-Autoencoder VAE ausgebildet, wobei die Latent-Raum-Repräsentationen der Fahrtrajektorien als statistische Verteilungen im Latenten Raum ausgebildet sind und jeweils über einen Erwartungswert µ und eine Varianz σ2 charakterisiert sind.
  • Hierdurch kann der technische Vorteil erreicht werden, dass durch die Ausbildung der Autoencoder-Architektur als Variations-Autoencoder VAE und insbesondere durch die daraus folgende Ausbildung der Latent-Raum-Repräsentationen als statistische Verteilungen im Latenten Raum kann durch die statistischen Verteilungen ein Unsicherheitsaspekt in das Training der Autoencoder-Architektur eingeführt werden. Hierdurch kann das Problem des Overfittings währen des Trainings der Autoencoder-Architektur vermieden werden. Dies ermöglicht einen verbesserten Trainingsprozess und ein entsprechend besser trainiertes Encoder-Modul.
  • Nach einer Ausführungsform sind die Verteilungen im Latenten Raum als Gaußsche Normalverteilungen ausgebildet.
  • Hierdurch kann der technische Vorteil erreicht werden, dass eine möglichst einfache und gut handhabbare statistische Verteilung der Latent-Raum-Repräsentationen erreicht ist. Die Gaußsche Normalverteilung erleichtert die Handhabe der statistischen Verteilungen der Latent-Raum-Repräsentationen.
  • Nach einer Ausführungsform wird das Training der Autoencoder-Architektur auf Trajektoriendaten einer Mehrzahl von Fahrten eines Fahrzeugs oder einer Mehrzahl von Fahrzeugen entlang einer durch das Ego-Fahrzeug befahrenen Fahrbahn ausgeführt, wobei zum Training ferner Karteninformationen einer die jeweils befahrene Fahrbahn abbildenden Kartendarstellung und/oder Informationen bezüglich einer Fahrbahnbeschaffenheit und/oder Informationen bezüglich herrschender Verkehrsregelungen und/oder Informationen bezüglich herrschender Verkehrsaufkommen und/oder Information bezüglich herrschender Witterungsbedingungen und/oder Tageszeit- und/oder Wochentaginformationen berücksichtigt werden.
  • Hierdurch kann der technische Vorteil erreicht werden, dass ein präzises Training der Autoencoder-Architektur ermöglicht ist. Hierzu werden Trajektoriendaten als Trainingsdaten berücksichtigt, die auf einer Mehrzahl von Fahrten einer Mehrzahl von Fahrzeugen bzw. wenigstens eines Fahrzeugs entlang verschiedener Fahrbahnen aufgenommen wurden. Zum Training der Autoencoder-Architektur können beispielsweise ausschließlich Trajektoriendaten von Fahrtrajektorien berücksichtigt werden, die auf einem normalen Fahrverhalten der jeweiligen Fahrzeuge basieren. Die entsprechende Autoencoder-Architektur wird somit beim Training darauf trainiert, die entsprechenden Latent-Raum-Repräsentationen der Trajektoriendaten der Normaltrajektorien zu generieren und aufgrund der hohen Ähnlichkeit der Normaltrajektorien in entsprechender Nähe im latenten Raum zueinander anzuordnen. Zur Erhöhung der Präzision der Berechnung der Latent-Raum-Repräsentationen der Trajektoriendaten der Normaltrajektorien können ferner für das Training Informationen einer Kartendarstellung bzw. Informationen einer Fahrbahnbeschaffenheit oder Informationen herrschender Verkehrsregelungen oder Informationen bzgl. eines herrschenden Verkehrsaufkommens oder Witterungsbedingungen oder Tageszeit- und/oder Wochentagsinformationen berücksichtigt werden, die jeweils die Bedingungen näher beschreiben, zu denen die Trajektoriendaten während der Mehrzahl von Fahrten der Fahrzeuge aufgenommen wurden. Durch die zusätzliche Information kann das jeweils als normal zu klassifizierende Fahrverhalten der Fahrzeuge näher spezifiziert werden. Die Berücksichtigung der verschiedenen Informationskategorien basiert hierbei auf der Idee, dass das jeweilige Fahrverhalten je nach Verkehrsaufkommen bzw. Witterungsverhältnissen, Fahrbahnoberflächen oder Tageszeiten bzw. Wochentagen unterschiedlich ausfallen kann. Die Berücksichtigung ermöglicht somit eine präzise Definition des normalen Fahrverhaltens und ermöglicht der Autoencoder-Architektur eine genauere Klassifizierung und eine präzisere Erstellung der jeweiligen Latent-Raum-Repräsentationen der aufgenommenen Trajektoriendaten. Nach abgeschlossenem Training ist das Encoder-Modul der Autoencoder-Architektur besser eingerichtet, eine entsprechende Latent-Raum-Repräsentation zu generieren, wodurch das entsprechende Klassifizierungsmodul besser eingerichtet ist, die Klassifizierung der Fahrverhalten der im Umfeld des Ego-Fahrzeugs angeordneten Verkehrsteilnehmer.
  • Nach einer Ausführungsform umfasst ein normales Fahrverhalten des Verkehrsteilnehmers:
    • Fahren auf einer gemäß herrschender Verkehrsregelungen ausgewiesenen Fahrspur der befahrenen Fahrbahn; und/oder
    • Fahren gemäß herrschender Geschwindigkeitsregelungen; Folgen eines Verlaufs der Fahrbahn; und/oder
    • Fahren in einer durch herrschende Verkehrsregelungen für die jeweils befahrenen Fahrbahn und/oder Fahrspur ausgewiesenen Fahrtrichtung; und wobei ein anormales Fahrverhalten umfasst:
    • Nicht Folgen des Verlaufs der Fahrbahn; und/oder Fahren in einer von einer geraden Fahrtrichtung abweichenden Schlangenlinienförmigen Fahrtrichtung; und/oder
    • Fahren in einer gemäß der herrschenden Verkehrsreglung ausgewiesen Fahrtrichtung entgegengesetzten Fahrtrichtung; und/oder
    • Fahren in einer überhöhten Geschwindigkeit; und/oder
    • Fahren auf einer gemäß den herrschenden Verkehrsregelungen nicht ausgewiesenen Fahrspur.
  • Hierdurch kann der technische Vorteil erreicht werden, dass eine präzise Klassifizierung der Fahrverhalten der weiteren Verkehrsteilnehmer ermöglicht ist.
  • Nach einer Ausführungsform basieren die empfangenen Trajektoriendaten des weiteren Verkehrsteilnehmers im Umfeld des Ego-Fahrzeugs auf Umfeldsensordaten wenigstens eines Umfeldsensors des Ego-Fahrzeugs, wobei die Umfeldsensordaten Kamera-Daten, LiDAR-Daten, RADAR-Daten und/oder akustische Daten umfassen.
  • Hierdurch kann der technische Vorteil erreicht werden, dass eine präzise Ermittlung der Trajektoriendaten der Fahrtrajektorien der im Umfeld des Ego-Fahrzeugs angeordneten Verkehrsteilnehmer ermöglicht ist. Dies erlaubt eine präzise Klassifizierung der Fahrverhalten der jeweiligen Verkehrsteilnehmer.
  • Nach einem weiteren Aspekt wird ein Verfahren zum Steuern eines Ego-Fahrzeugs bereitgestellt, umfassend:
    • Ausführen einer Klassifizierung eines Fahrverhaltens eines Verkehrsteilnehmers im Umfeld eines Ego-Fahrzeugs basierend auf Trajektoriendaten des Verkehrsteilnehmers gemäß dem Verfahren zum Klassifizieren eines Fahrverhaltens eines Verkehrsteilnehmers eines Ego-Fahrzeugs nach einer der voranstehenden Ausführungsformen; und
    • Steuern des Ego-Fahrzeugs unter Berücksichtigung der Klassifizierung des Fahrverhaltens des weiteren Verkehrsteilnehmers.
  • Hierdurch kann der technische Vorteil erreicht werden, dass ein verbessertes Verfahren zum Steuern eines Ego-Fahrzeugs bereitgestellt werden kann. Durch Ausführung des Verfahrens zum Klassifizieren eines Fahrverhaltens eines Verkehrsteilnehmers eines Ego-Fahrzeugs kann eine verbesserte Klassifizierung mit den oben genannten technischen Vorteilen erreicht werden.
  • Nach einer Ausführungsform umfasst das Steuern des Ego- Fahrzeugs: Ausführen eines Sicherheitsmanövers, falls das Fahrverhalten des weiteren Verkehrsteilnehmers als ein anormales Fahrverhalten klassifiziert ist.
  • Hierdurch kann der technische Vorteil erreicht werden, dass eine entsprechende Reaktion auf das klassifizierte Fahrverhalten des Verkehrsteilnehmers ermöglicht ist, die ein sicheres Fahren des Ego-Fahrzeugs erlaubt. Durch Ausführen des Sicherheitsmanövers kann auf anormale Fahrverhalten weiterer Verkehrsteilnehmer reagiert werden, um die Sicherheit des Ego-Fahrzeugs gewehrleisten zu können.
  • Nach einer Ausführungsform umfasst das Sicherheitsmanöver:
    • Reduzieren einer Geschwindigkeit des Ego-Fahrzeugs; und/oder
    • Vergrößern eines Abstands des Ego-Fahrzeugs zum weiteren Verkehrsteilnehmers und/oder
    • Wechseln einer durch das Ego-Fahrzeugs befahrenen Fahrspur der befahrenen Fahrbahn.
  • Hierdurch kann der technische Vorteil erreicht werden, dass effektive Sicherheitsmanöver ausgeführt werden können, die eine Sicherheit des Ego-Fahrzeugs gewährleisten können. Die Sicherheit des Ego-Fahrzeugs betrifft im Sinne der Anmeldung eine kollisionsfreie Fahrt des Ego-Fahrzeugs ohne Kollision mit dem weiteren Verkehrsteilnehmer. Das auszuführende Sicherheitsmanöver kann insbesondere mit Berücksichtigung des jeweils klassifizierten anormalen Verhaltens des weiteren Verkehrsteilnehmers ausgewählt werden.
  • Nach einem weiteren Aspekt wird eine Recheneinheit bereitgestellt, die eingerichtet ist, das Verfahren zum Klassifizieren eines Fahrverhaltens eines Verkehrsteilnehmers im Umfeld eines Ego-Fahrzeugs nach einer der voranstehenden Ausführungsformen und/oder das Verfahren zum Steuern eines Ego-Fahrzeugs nach einer der voranstehenden Ausführungsformen auszuführen.
  • Nach einem weiteren Aspekt wird ein Computerprogrammprodukt umfassend Befehle bereitgestellt, die bei der Ausführung des Programms durch eine Datenverarbeitungseinheit diese veranlassen, das Verfahren zum Klassifizieren eines Fahrverhaltens eines Verkehrsteilnehmers im Umfeld eines Ego-Fahrzeugs nach einer der voranstehenden Ausführungsformen und/oder das Verfahren zum Steuern eines Ego-Fahrzeugs (301) nach einer der voranstehenden Ausführungsformen auszuführen.
  • Ausführungsbeispiele der Erfindung werden anhand der folgenden Zeichnungen erläutert. In den Zeichnungen zeigen:
    • 1 eine schematische Darstellung eines Systems zum Klassifizieren eines Fahrverhaltens eines Verkehrsteilnehmers im Umfeld eines Ego-Fahrzeugs;
    • 2 eine graphische Darstellung einer Klassifizierung eines Fahrverhaltens;
    • 3 schematische Darstellungen von zwei Fahrsituationen eines Ego-Fahrzeugs;
    • 4 eine graphische Darstellung einer Autoencoder-Architektur gemäß einer Ausführungsform;
    • 5 eine weitere graphische Darstellung einer Autoencoder-Architektur gemäß einer weiteren Ausführungsform;
    • 6 ein Flussdiagramm eines Verfahrens zur Trajektorienplanung für ein Ego-Fahrzeug;
    • 7 ein Flussdiagramm eines Verfahrens zur Steuern eines Ego-Fahrzeugs;
    • 8 eine schematische Darstellung eines Computerprogrammprodukts.
  • 1 zeigt eine schematische Darstellung eines Systems 300 zum Klassifizieren eines Fahrverhaltens eines Verkehrsteilnehmers 303 im Umfeld 305 eines Ego-Fahrzeugs 301.
  • 1 zeigt eine Verkehrssituation mit einem auf einer Fahrbahn 302 fahrenden Ego-Fahrzeug 301. Im Umfeld 305 des Ego-Fahrzeugs 301 ist ein weiterer Verkehrsteilnehmer 303, in der gezeigten Ausführungsform als ein weiteres Fahrzeug, angeordnet. Das Ego-Fahrzeug 301 weist eine Recheneinheit 307 mit einem Klassifizierungsmodul 309 auf. Das Klassifizierungsmodul 309 ist eingerichtet, das erfindungsgemäße Verfahren zum Klassifizieren eines Fahrverhaltens eines weiteren Verkehrsteilnehmers 303 im Umfeld 305 eines Ego-Fahrzeugs 301 auszuführen.
  • Zum Klassifizieren eines Fahrverhaltens des Verkehrsteilnehmers 303 werden durch die Recheneinheit 307 bzw. das Klassifizierungsmodul 309 zunächst Trajektoriendaten 311 empfangen. Die Trajektoriendaten 311 beschreiben eine Fahrtrajektorie des Verkehrsteilnehmers 303 und umfassen wenigstens Positionsinformationen des Verkehrsteilnehmers 303 zu verschiedenen Zeitpunkten. Die Trajektoriendaten 311 können zusätzlich Geschwindigkeitsinformationen des Verkehrsteilnehmers 303 umfassen.
  • Das Ego-Fahrzeug 301 umfasst ferner wenigstens einen Umfeldsensor 313, mittels dem das Umfeld 305 des Ego-Fahrzeugs 301 einsehbar ist. Die Trajektoriendaten 311 können somit durch Umfeldsensordaten des Umfeldsensors 313 gegeben sein, die durch den Verkehrsteilnehmer 303 ausgeführt Fahrtrajektorie kann demnach durch die Umfeldsensoren 313 des Ego-Fahrzeugs 301 detektiert werden. Die Umfeldsensordaten können hierbei LiDAR-Daten, Radardaten, Kameradaten und/oder akustische Daten entsprechender akustischer Sensor umfassen.
  • Zum Klassifizieren des Fahrverhaltens ist das Klassifizierungsmodul 309 eingerichtet, zu den empfangenen Trajektoriendaten 311 des Verkehrsteilnehmers 303 Latent-Raum-Repräsentationen 325 zu berechnen. Die Latent-Raum-Repräsentationen 325 beschreiben dimensionsreduzierte Darstellungen der Trajektoriendaten 311. Die Latent-Raum-Repräsentationen 325 stellen somit Repräsentationen der entsprechenden Trajektoriendaten 311 in einem latenten Raum 333 dar und können beispielsweise als Vektordarstellungen der Trajektoriendaten 311 ausgebildet sein.
  • In der gezeigten Ausführungsform umfasst das Klassifizierungsmodul 309 hierzu ein Decoder-Modul 317 einer in Grafik a) vereinfacht dargestellten Autoencoder-Architektur 315.
  • Die Autoencoder-Architektur 315 umfasst neben dem Encoder-Modul 317 ein entsprechendes Decoder-Modul 319. Die Autoencoder-Architektur 315 ist eingerichtet, zu Eingabedaten 321 entsprechende Latent-Raum-Repräsentationen 325 im latenten Raum zu berechnen. Da die Latent-Raum-Repräsentationen 325 der Eingabedaten 321 die Informationen der Eingabedaten 321 wenigstens größtenteils umfassen, jedoch in ihrer Dimensionalität gegenüber den Eingabedaten 321 reduziert sind, stellen die Latent-Raum-Repräsentationen 325 eine Codierung der Informationen der Eingabedaten 321 dar. Das Decoder-Modul 319 der Autoencoder-Architektur 315 ist ferner eingerichtet, basierend auf den Latent-Raum-Repräsentationen 325 der Eingabedaten 321 die Eingabedaten 321 wieder zu Reproduzieren und entsprechende reproduzierte Eingabedaten 323 zu erzeugen.
  • Durch ein entsprechendes Training der Autoencoder-Architektur 315 können somit für gegebene Eingabedaten 321 entsprechende Latent-Raum-Repräsentationen 325 erstellt werden.
  • Erfindungsgemäß wird somit die Autoencoder-Architektur 315 basierend auf Trajektoriendaten 327 trainiert. Die Trajektoriendaten 327 basieren auf einer Mehrzahl von Fahrten eines Fahrzeugs oder einer Mehrzahl von Fahrzeugen und beschreiben die jeweils die Fahrzeuge ausgeführten Fahrtrajektorien. Das Training der Autoencoder-Architektur 315 kann ferner unter Berücksichtigung von Kartendaten 329 ausgeführt werden, die Karteninformationen der zur Aufnahme der Trajektoriendaten 327 durch die jeweiligen Fahrzeuge befahrenen Fahrbahnen umfassen. Ferner können zum Training Informationen bzgl. der Fahrbahnbeschaffenheit, des Verkehrsaufkommens, bzgl. Witterungsbedingungen, bzgl. Tageszeiten oder Wochentagen wie auch bzgl. herrschender Verkehrsregelungen berücksichtigt werden, die während der Fahrten zur Aufnahme der Trajektoriendaten 327 vorlagen. Die entsprechenden Trajektoriendaten 327, Kartendaten 329 bzw. Daten der genannten Informationen 331 können in den gezeigten Eingabedaten 321 der Autoencoder-Architektur 315 berücksichtigt werden.
  • Nach entsprechendem Training der Autoencoder-Architektur 315 ist das jeweilige Encoder-Modul 317 eingerichtet, für die empfangenen Trajektoriendaten 311 der durch den Verkehrsteilnehmer 303 ausgeführten Fahrtrajektorie entsprechende Latent-Raum-Repräsentationen 325 im latenten Raum zu berechnen.
  • Während des Trainings der Autoencoder-Architektur 315 werden vornehmlichen Trajektoriendaten 327 von Fahrtrajektorien verwendet, die auf einem normalen Fahrverhalten der jeweiligen Fahrzeuge basieren. Das normale Fahrverhalten zeichnet sich dadurch aus, dass herrschende Verkehrsregeln berücksichtigt werden, dass das jeweilige Fahrzeug gleichmäßig dem Verlauf der befahrenen Fahrbahn folgt, dass keine ruckartigen bzw. unvorhersehbaren Lenkbewegungen bzw. Manöver ausgeführt werden, und dass beispielsweise ein gleichmäßiger Geschwindigkeitsverlauf vorliegt. Das normale Fahrverhalten kann jeweils auf die entsprechend vorliegenden Witterungsbedingungen, das vorliegende Verkehrsaufkommen, die Tageszeit bzw. der Wochentag wie auch die entsprechenden Fahrbahnverhältnisse bzw. die herrschenden Verkehrsregeln angepasst sein. Die hier genannten Merkmale eines normalen Fahrverhalten sind lediglich beispielhaft. Ein normales Fahrverhalten kann je nach Verkehrssituation mehr oder weniger von den genannten Merkmalen umfassen. Eine Einschränkung der Erfindung soll hierdurch nicht erreicht werden.
  • Fahrtrajektorien eines normalen Fahrverhaltens, die im Sinne der Anmeldung Normaltrajektorien genannt werden, zeigen hierbei große Ähnlichkeiten zueinander auf und unterscheiden sich lediglich geringfügig voneinander. Die entsprechenden Fahrtrajektorien weisen zum größten Teil gemeinsame Verläufe auf, die den Verläufen der jeweiligen Fahrbahn entsprechend und sind auch in Bezug auf Lenkbewegungen bzw. ausgeführte Manöver sowie die jeweilige Geschwindigkeit des Fahrzeugs ähnlich zueinander.
  • Während des Trainings der Autoencoder-Architektur 315 wird das Encoder-Modul 317 darauf trainiert, die Trajektoriendaten 327 in entsprechende Latent-Raum-Repräsentationen 325 zu überführen. Das Encoder-Modul 317 wird darauf trainiert, ähnliche oder identische Trajektoriendaten 327 in ähnliche bzw. identische Latent-Raum-Repräsentationen 325 zu überführen. Ähnliche bzw. identische Latent-Raum-Repräsentationen 325 weisen erfindungsgemäß nur geringe Abstände zueinander im latenten Raum auf und sind in gemeinsamen Bereichen im latenten Raum angeordnet. Ähnliche bzw. identische Latent-Raum-Repräsentationen 325 beschreiben Vektordarstellungen, deren Einträge gleich bzw. nur geringe Abweichungen zueinander aufweisen.
  • Fahrtrajektorien hingegen, die auf anormalem Fahrverhalten basieren, das beispielsweise eine Nichtbefolgung der herrschenden Verkehrsregelungen, ein Nichtbefolgen des Verlaufs der befahrenen Fahrbahn bzw. ein Vorliegen von ruckartigen Lenkbewegungen, ungleichmäßigen Geschwindigkeitsverläufen oder beispielsweise zick-zack-förmigen bzw. schlangenlinienförmigen Fahrverhalten aufweisen, werden hingegen durch das entsprechend trainierte Encoder-Modul 317 in entsprechende Latent-Raum-Repräsentationen 325 überführt, die im latenten Raum einen verhältnismäßig großen Abstand zu den Latent-Raum-Repräsentationen 325 der Normaltrajektorien aufweisen.
  • Zum Klassifizieren der Fahrtrajektorien der im Umfeld 305 Ego-Fahrzeugs 301 angeordneten Verkehrsteilnehmer 303 ist das Klassifizierungsmodul 309 eingerichtet, Abstände zwischen Latent-Raum-Repräsentation 325 der empfangenen Trajektoriendaten 311 der durch die Verkehrsteilnehmer 303 gefahrenen Fahrtrajektorien im latenten Raum zu Latent-Raum-Repräsentationen 325 von Normaltrajektorien, die während des Trainingsprozesses der Autoencoder-Architektur 315 durch die Autoencoder-Architektur 315 und insbesondere durch das Encoder-Modul 317 gelernt wurden, zu bestimmen.
  • Hierzu umfasst das Klassifizierungsmodul 309 neben dem Encoder-Modul 317 ein Abstandsmodul 318. Das Abstandsmodul 318 ist eingerichtet, Abstände D der Latent-Raum-Repräsentationen 325 der empfangenen Trajektoriendaten 311 der Fahrtrajektorien der Verkehrsteilnehmer 303 zu den gelernten Latent-Raum-Repräsentationen 325 der Normaltrajektorien zu bestimmen.
  • Die Abstände D können durch das Abstandsmodul 318 gemäß einer vorbestimmten Abstandsmetrik innerhalb des latenten Raums ermittelt werden. Die Abstandsmetrik kann beispielsweise durch eine euklidische Abstandsfunktion oder durch eine logarithmische Likelihood-Funktion gegeben sein. Mittels der genannten Funktionen können durch das Abstandsmodul 318 somit Abstände zwischen den Latent-Raum-Repräsentationen 325 der empfangenen Trajektoriendaten 311 der Fahrtrajektorien der Verkehrsteilnehmer 303 zu den im Trainingsprozess gelernten Latent-Raum-Repräsentationen 325 der auf normalen Fahrverhalten basierenden Normaltrajektorien ermittelt werden.
  • Basierend auf den ermittelten Abständen D werden durch das Klassifizierungsmodul 309 die Fahrverhalten der im Umfeld 305 angeordneten Verkehrsteilnehmer 303 klassifiziert. Hierbei wird ein Fahrverhalten eines Verkehrsteilnehmers 303 als ein normales Fahrverhalten klassifiziert, falls die jeweiligen Latent-Raum-Repräsentationen 325 den entsprechenden Fahrtrajektorien des Verkehrsteilnehmers 303 einem Abstand D zu Latent-Raum-Repräsentationen 325 der Normaltrajektorien im latenten Raum aufweisen, der geringer als ein vorbestimmter Grenzwert ist. Weisen die Latent-Raum-Repräsentationen 325 der durch den jeweiligen Verkehrsteilnehmer 303 ausgeführten Fahrtrajektorien hingegen Abstände D zu den Latent-Raum-Repräsentationen 325 der Normaltrajektorien im latenten Raum auf, die größer oder gleich dem vorbestimmten Grenzwert sind, so wird das entsprechende Fahrverhalten des Verkehrsteilnehmers 303 hingegen als ein anormales Fahrverhalten klassifiziert.
  • Erfindungsgemäß wird darauffolgend eine Klassifizierungsinformation ausgegeben, in der die Klassifizierung des Fahrverhaltens des im Umfeld 305 angeordneten Verkehrsteilnehmers 303 beschrieben ist.
  • Basierend auf der Klassifizierungsinformation kann die Steuerung des Ego-Fahrzeugs 301 angepasst werden. Beispielsweise kann ein Sicherheitsmanöver ausgeführt bzw. veranlasst werden, falls das Fahrverhalten des Verkehrsteilnehmers 303 als ein anormales Fahrverhalten klassifiziert wird. Das entsprechende Sicherheitsmanöver kann beispielsweise eine Geschwindigkeitsreduktion des Ego-Fahrzeugs 301 und/oder eine Vergrößerung eines Abstands des Ego-Fahrzeugs 301 zum jeweiligen Verkehrsteilnehmer 303 umfassen. Alternativ oder zusätzlich kann das Sicherheitsmanöver einen Spurwechsel von einer befahrenen Fahrspur 306 auf eine nicht befahrene Fahrspur 304 umfassen. Alternativ oder zusätzlich können weitere Manöver ausgeführt werden, mittels denen das entsprechend als anormales Fahrverhalten klassifizierte Fahrverhalten des im Umfeld 305 angeordneten Verkehrsteilnehmers 303 entsprechend berücksichtigt werden.
  • Die Autoencoder-Architektur 315 und insbesondere das Encoder-Modul 309 können erfindungsgemäß gemäß aus dem Stand der Technik bekannten Architekturen für Autoencoder ausgebildet sein.
  • Gemäß einer Ausführungsform ist die Autoencoder-Architektur 315 als ein Variations-Autoencoder VAE ausgebildet. Hierbei sind die entsprechend generierten Latent-Raum-Repräsentationen 325 als statistische Verteilungen im latenten Raum ausgebildet und jeweils durch einen Erwartungswert µ und eine Varianz σ2 charakterisiert. Die statistischen Verteilungen der Latent-Raum-Repräsentationen 325 können beispielsweise als Gaußsche Normalverteilungen ausgebildet sein.
  • Der Trainingsprozess der Autoencoder-Architektur 315 kann insbesondere als ein Supervised-Learning-Prozess ausgebildet werden.
  • Gemäß einer Ausführungsform kann das Training der Autoencoder-Architektur 315 basierend auf Bilddaten der Trajektoriendaten 327 und/oder auf Bilddaten der Kartendaten 329 ausgeführt werden. Hierzu umfasst die Autoencoder-Architektur 315 zusätzliche und in 1 nicht dargestellte Komponenten, die eingerichtet sind, die Bilddaten in die Eingabedaten 317 in Vektordarstellung zu wandeln. Für eine detaillierte Beschreibung der Autoencoder-Architektur 315 wird auf die Beschreibung zu den 4 und 5 verwiesen.
  • Analog kann das Klassifizierungsmodul 309 nach erfolgreich abgeschlossenem Training zum Klassifizieren des Verhaltens des Verkehrsteilnehmers 303 neben den Trajektoriendaten 311 des Verkehrsteilnehmers 303 unter Berücksichtigung von Kartendaten 329 ausgeführt werden. Insbesondere kann das Klassifizieren des Verhaltens des Verkehrsteilnehmers 303 durch das Klassifizierungsmodul 309 basierend auf den Bilddaten der Trajektoriendaten 311 und/oder der Kartendaten 329 erfolgen. Hierzu kann das Klassifizierungsmodul 309 die zusätzlichen Komponenten der Autoencoder-Architektur 315 zum Berechnen der Eingangsdaten 317 in Vektordarstellung umfassen.
  • 2 zeigt eine graphische Darstellung einer Klassifizierung eines Fahrverhaltens.
  • In 2 ist eine graphische und stark vereinfachte Darstellung des latenten Raums 333 und der jeweiligen Latent-Raum-Repräsentationen 335 der Normaltrajektorien T2 wie auch der Latent-Raum-Repräsentationen 334 der Fahrtrajektorien T1 der im Umfeld 305 des Ego-Fahrzeugs 301 angeordneten Verkehrsteilnehmer 303 dargestellt.
  • Während des Trainingsprozesses der Autoencoder-Architektur 315 wird das entsprechende Encoder-Modul 317 auf die Berechnung der Latent-Raum-Repräsentationen 335 der im Trainingsprozess verwendeten Trajektoriendaten 327 zu generieren. Die Autoencoder-Architektur 315 und insbesondere das Encoder-Modul 317 erlernen hierbei die ein normales Fahrverhalten repräsentierenden Normtrajektorien T2, die untereinander trotz Ausführung durch verschiedene Fahrzeuge hohe Ähnlichkeit aufweisen, zu ebenfalls hochähnlichen Latent-Raum-Repräsentationen 335 zu überführen, die innerhalb des latenten Raums 333 in geringen Abständen zueinander angeordnet sind.
  • Nach erfolgreichem Training ist das Encoder-Modul 317 somit eingerichtet für die beobachteten Fahrtrajektorien T1 der detektierten Verkehrsteilnehmer 303 und insbesondere für die entsprechenden Trajektoriendaten 311 entsprechende Latent-Raum-Repräsentationen 334 im latenten Raum 333 zu berechnen. Basieren die Fahrtrajektorien T1 der Verkehrsteilnehmer 303 auf normalem Fahrverhalten, so werden die entsprechenden Latent-Raum-Repräsentationen 334 eine hohe Ähnlichkeit zu den Latent-Raum-Repräsentationen 335 der Normaltrajektorien T2 aufweisen und im latenten Raum 333 mit geringem Abstand zu den jeweiligen Latent-Raum-Repräsentationen 334 der Normaltrajektorien T2 angeordnet sein. Basieren die Fahrtrajektorien T1 der Verkehrsteilnehmer 303 hingegen auf anormalem Fahrverhalten, so weisen die entsprechenden Fahrtrajektorien T1 starke Unterschiede zu den Normaltrajektorien T2 auf und die entsprechend generierten Latent-Raum-Repräsentationen 334 der Fahrtrajektorien T1 weisen einen entsprechenden großen Abstand D zu den Latent-Raum-Repräsentationen 335 der Normaltrajektorien T2 im latenten Raum 333 auf.
  • In 2 ist eine Situation eines anormalen Fahrverhaltens eines Verkehrsteilnehmers 303 dargestellt. Die entsprechende Fahrtrajektorie T1 weist einen großen Unterschied zu den Normaltrajektorien T2 auf, der in 2 durch den schlangenlinienförmigen Verlauf der Fahrtrajektorie T1 gegenüber dem geraden Kurvenverlauf der Normaltrajektorie T2 dargestellt ist. Die entsprechend generierte Latent-Raum-Repräsentation 334 der Fahrtrajektorie T1 weist somit einen verhältnismäßig großen Abstand D zu den Latent-Raum-Repräsentationen 335 der Normaltrajektorien T2 auf.
  • In 2 sind drei Latent-Raum-Repräsentationen 335 für drei verschiedene Normaltrajektorien T2 im latenten Raum 333 dargestellt. Dies ist lediglich beispielhaft. In Realität kann eine Mehrzahl von verschiedenen Trajektorien T2 ermittelt werden, die alle auf einem normalen Fahrverhalten basieren, sich zueinander unterscheiden, jedoch aufgrund des zugrundeliegenden normalen Fahrverhaltens eine Großzahl von Gemeinsamkeiten aufweisen und somit auf einem vergleichsweise eng begrenzten Gebiet innerhalb des latenten Raums 333 angeordnet sind. In 2 sind die Abstände zwischen den Latent-Raum-Repräsentationen 334, 335 nicht maßstabsgetreu, sodass der Eindruck entstehen kann, dass der Abstand D der Latent-Raum-Repräsentation 334 zu den Latent-Raum-Repräsentationen 335 kleiner ist als Abstände der Latent-Raum-Repräsentationen 335 untereinander. Dies ist unbeabsichtigt und ist der Darstellung geschuldet.
  • Für die Klassifizierung des Fahrverhaltens der Verkehrsteilnehmer 303 und insbesondere für die Abstandsbestimmung der Abstände D der Latent-Raum-Repräsentationen 334 der Fahrtrajektorien T1 zu den Latent-Raum-Repräsentationen 335 der Normaltrajektorien T2 wird erfindungsgemäß ein vorbestimmter Grenzwert definiert. Dieser Grenzwert kann in Abhängigkeit verschiedener Kriterien, beispielsweise dem Grad der Ähnlichkeit der Normaltrajektorien T2 für verschiedene Fahrsituationen individuell angepasst werden.
  • Für Fahrsituationen, in denen die Normaltrajektorien T2 aufgrund der vorliegenden Fahrsituation große Unterschiede zueinander aufweisen, obwohl alle auf einem normalen Fahrverhalten basieren, kann ein entsprechend größerer Grenzwert für die Abstandsbestimmung gewählt werden. Für Fahrsituationen, in denen die Normaltrajektorien T2 lediglich geringe Unterschiede zueinander aufweisen und die entsprechenden Latent-Raum-Repräsentationen 335 der einzelnen Normaltrajektorien T2 im latenten Raum 333 auf entsprechend kleinerem Gebiet mit geringeren Abständen zueinander angeordnet sind, kann der vorbestimmte Grenzwert entsprechend mit einem geringeren Zahlenwert versehen werden, so dass bereits geringere Abstände der Latent-Raum-Repräsentation 334 der Fahrtrajektorien T1 der Verkehrsteilnehmer 303 zu den Latent-Raum-Repräsentationen 335 der Normaltrajektorien T2 bereits zur Klassifizierung eines normalen Fahrverhaltens der jeweiligen Verkehrsteilnehmer 303 führen.
  • In der gezeigten Ausführungsform ist die Autoencoder-Architektur 315 als ein Variations-Autoencoder VAE ausgebildet. Die entsprechenden Latent-Raum-Repräsentationen 335 sind durch statistische Verteilungen 337 innerhalb des latenten Raums 333 ausgebildet. Die statistischen Verteilungen 337 sind über Erwartungswerte µ und Varianzen σ2 gekennzeichnet und sind in 2 durch die kreisförmigen Strukturen dargestellt. Die einzelnen Latent-Raum-Repräsentationen 335 weisen somit im latenten Raum 333 gemäß den statistischen Verteilungen 337 entsprechende flächige Ausbildungen auf, so dass der latente Raum 333 durch eine kontinuierliche Belegung der Latent-Raum-Repräsentationen ausgeführt ist.
  • Wie bereits zu 1 beschrieben, umfasst das Klassifizierungsmodul 309 neben dem Encoder-Modul 317 das bereits beschriebene Abstandsmodul 318. Das Abstandsmodul 318 ist eingerichtet, die Abstände D zwischen den Latent-Raum-Repräsentationen 334 der über die empfangenen Trajektoriendaten 311 ermittelten Fahrtrajektorien T1 der im Umfeld 305 des Ego-Fahrzeugs 301 angeordneten Verkehrsteilnehmer 303 zu den im Trainingsprozess der Autoencoder-Architektur 315 gelernten Latent-Raum-präsentationen 335 der auf normalem Fahrverhalten basierenden Normaltrajektorien T2 zu ermitteln. Dies kann, wie bereits beschrieben, durch Ausführung einer entsprechenden Abstandsmetrik erfolgen, die beispielsweise als eine euklidische Abstandsfunktion oder eine logarithmische Likelihood-Funktion ausgebildet sein kann.
  • 3 zeigt schematische Darstellungen von zwei Fahrsituationen eines Ego-Fahrzeugs 301.
  • Die beiden Grafiken a) und b) der 3 zeigen zwei verschiedene Fahrsituationen mit einem Ego-Fahrzeug 301 und einem weiteren Verkehrsteilnehmer 303. In beiden Fahrsituationen fahren sowohl das Ego-Fahrzeug 301 als auch der weitere Verkehrsteilnehmer 303 auf einer Fahrspur 302. Das Ego-Fahrzeug 301 und der weitere Verkehrsteilnehmer 303 fahren in gezeigten Fahrsituationen in entgegengesetzter Fahrtrichtung.
  • In Grafik a) zeigt der weitere Verkehrsteilnehmer 303 ein normales Fahrverhalten. Dies ist durch die verhältnismäßig geradlinig verlaufende Fahrtrajektorie T1 des Verkehrsteilnehmers 303 gekennzeichnet, deren Verlauf im Großen und Ganzen dem Lauf der befahrenen Fahrbahn 302 folgt. Das Ego-Fahrzeug 301 zeigt ebenfalls ein normales Fahrverhalten, was wiederum durch die verhältnismäßig geradlinig Fahrtrajektorie T3 dargestellt ist, die wiederum dem Verlauf der befahrenen Fahrbahn 302 folgt.
  • In Grafik b) zeigt der Verkehrsteilnehmer 303 hingegen ein anormales Fahrverhalten. Dies ist durch die mehr oder weniger schlangenlinienförmige Fahrtrajektorie T2 des Verkehrsteilnehmers 303 dargestellt.
  • 4 zeigt eine graphische Darstellung einer Autoencoder-Architektur 315 gemäß einer Ausführungsform.
  • In der gezeigten Ausführungsform weist die Autoencoder-Architektur 315 neben dem Encoder-Modul 317 und dem Decoder -Modul 319 ein Verbindungsnetzwerk 345 und ein Kartennetzwerk 343 auf, die jeweils als entsprechend trainierte neuronale Netze ausgebildet sind.
  • In der gezeigten Ausführungsform werden für das Training der Autoencoder-Architektur 315 die berücksichtigten Trajektoriendaten 327 und die berücksichtigten Kartendaten 329 zunächst in entsprechende Bilddaten 339 der Trajektoriendaten 327 und Bilddaten 341 der Kartendaten 329 umgewandelt. In der gezeigten Ausführungsform werden bei der Erzeugung der Bilddaten 341 der Kartendaten 329 zusätzlich die Informationen der Daten 331 bzw. bzgl. des Verkehrsaufkommens, der herrschenden Verkehrsregelungen, der Fahrbahnbeschaffenheit, der Witterungsverhältnisse, der Tageszeit bzw. des Wochentags und der weiteren zu 1 beschriebenen Informationen berücksichtigt. Die einzelnen Bilddaten 339 der Trajektoriendaten 327 wie auch die Bilddaten 341 der Kartendaten 329 weisen zeitliche Sequenzen von Bilddaten 339, 341 auf. Die Bilddaten 339 der Trajektoriendaten 327 beschreiben hierbei seitliche Veränderungen der durch die Trajektoriendaten 327 beschriebenen Fahrtrajektorien T1 des jeweils beobachteten Verkehrsteilnehmers 303.
  • In der gezeigten Ausführungsform werden die Bilddaten 339 der Trajektoriendaten 327 und die Bilddaten 341 der Kartendaten 329 zunächst zu einem gemeinsamen Datensatz zusammengefügt, der als Eingabedatensatz für das Verbindungsnetzwerk 345 dient. Das Verbindungsnetzwerk 345 ist hierbei eingerichtet, basierend auf den zusammengefügten Bilddaten 339 und 341 entsprechende Eingabedaten 321, 322 für das Encoder-Modul 317 zu generieren. Die Eingabedaten 321, 322 umfassen hierbei die Informationen der Bilddaten 339 der Trajektoriendaten und der Bilddaten 341 der Kartendaten 329 und sind jeweils in Vektordarstellung ausgebildet. Das Encoder-Modul 317 wird während des Trainingsprozesses darauf trainiert, basierend auf den Eingabedaten 321, 322 entsprechende Latent-Raum-Repräsentationen 326 der Trajektoriendaten 327 zu generieren. Die Latent-Raum-Repräsentationen 326 berücksichtigen hierbei die Informationen der Trajektoriendaten 327 wie auch der Kartendaten 329.
  • Die Bilddaten 341 der Kartendaten 329 dienen ferner als Eingabedaten für das Kartennetzwerk 343. Dieses ist eingerichtet, basierend auf den Bilddaten 341 Labeling-Informationen 347 der Kartendaten 329 zu generieren.
  • Die durch das Encoder-Modul 317 generierten Latent-Raum-Repräsentationen 326, die auf den Trajektoriendaten 327 und den Kartendaten 329 basieren, werden mit den Labeling-Informationen 347 der Kartendaten 329, die durch das Kartennetzwerk 343 basierend auf den Bilddaten 341 der Kartendaten 329 erzeugt wurden, versehen. Eine Ankettung der Labeling-Informationen 347 der Kartendaten 329 an die Latent-Raum-Repräsentationen 326 werden als Eingabedaten für das Decoder-Modul 319 verwendet. Die Labeling-Informationen 347 der Kartendaten 329 ermöglichen eine leichtere Zuordnung der Trajektoriendaten 327 und insbesondere der dazugehörigen Latent-Raum-Repräsentationen 326 zu den passenden Kartendaten 329. Dies ermöglicht eine vereinfachte Zuordnung der entsprechenden Trajektorien zu den jeweiligen Stellen innerhalb der Kartendarstellung.
  • Basierend auf den Latent-Raum-Repräsentationen 326, 347 wird das Decoder-Modul 319 trainiert, konstruierte Eingabedaten 323, 234 zu generieren.
  • Das Verbindungsnetzwerk 345 wie auch das Kartennetzwerk 343 können jeweils als entsprechend trainierte neuronale Netze, insbesondere als Faltungsnetzwerke ausgebildet sein.
  • 5 zeigt eine weitere graphische Darstellung einer Autoencoder-Architektur 315 gemäß einer weiteren Ausführungsform.
  • Die gezeigte Ausführungsform der Autoencoder-Architektur 315 basiert auf der Ausführungsform in 4. Die Ausführungsform unterscheidet sich hierbei dadurch, dass zunächst die Bilddaten 339 der Trajektoriendaten 327 durch das Verbindungsnetzwerk 345 in entsprechende Eingabedaten 321 des Encoder-Moduls 317 in Vektordarstellung generiert werden.
  • Analog werden die Bilddaten 341 der Kartendaten 329 zunächst durch das Kartennetzwerk 343 in entsprechende Eingabedaten 322 für das Encoder-Modul 317 in Vektordarstellung verarbeitet.
  • Die in Vektordarstellung ausgebildeten Eingabedaten 321 und 322 werden in einer gemeinsamen Vektordarstellung als Eingabedaten für das Encoder-Modul 317 zusammengefasst.
  • Analog zu der Ausführungsform in 4 ist das Kartennetzwerk 343 ferner eingerichtet, basierend auf den Bilddaten 341 der Kartendaten 329 entsprechende Labeling-Informationen 347 zu generieren.
  • Basierend auf den Latent-Raum-Repräsentationen 326 und den Labeling-Informationen 347 wird das Decoder-Modul 319 generiert die konstruierten Eingabedaten 323, 324 zu berechnen.
  • In der gezeigten Ausführungsform ist die Autoencoder-Architektur 315 als ein Variations-Autoencoder VAE ausgebildet. Die ermittelten Latent-Raum-Repräsentationen 326 als statistische Verteilungen mit einem Erwartungswert µ und einer Varianz σ2 ausgebildet. In der gezeigten Ausführungsform werden die statistischen Verteilungen als statistische Normalverteilungen 349 ausgebildet. Die Ausbeildung der einzelnen statistischen Verteilungen kann somit als statistische Normalverteilung 349 reguliert werden. Hierdurch kann die Handhabbarkeit der einzelnen Verteilungen vereinfacht werden.
  • In den gezeigten Ausführungsformen in 4 und 5 werden neben dem Training der Autoencoder-Architektur 315 auch für das entsprechend trainierte Klassifizierungsmodul 309 zunächst die Trajektoriendaten 311 und die entsprechenden Kartendaten 329 in entsprechende Bilddaten 339 und 341 überführt. Das Klassifizierungsmodul 309 umfasst somit neben dem Decoder-Modul 317, dem Abstandsmodul 318 auch das Verbindungsnetzwerk 345 und das Kartennetzwerk 343. Ferner ist das Klassifizierungsmodul 309 eingerichtet, die Umwandlung der Trajektoriendaten 327 und Kartendaten 329 in die entsprechenden Bilddaten 339, 341 zu bewirken.
  • 6 zeigt ein Flussdiagramm eines Verfahrens 100 zum Klassifizieren eines Fahrverhaltens eines Verkehrsteilnehmers im Umfeld eines Ego-Fahrzeugs 301.
  • Erfindungsgemäß werden in einem ersten Verfahrensschritt 101 zunächst Trajektoriendaten 311 einer Fahrtrajektorie T1 eines im Umfeld 305 des Ego-Fahrzeugs 301 angeordneten Verkehrsteilnehmers 303 empfangen. Die Trajektoriendaten 311 umfassen hierbei wenigstens Positionsinformationen der jeweiligen Fahrtrajektorie T1. Die Trajektoriendaten 311 können auf Umfeldsensordaten des wenigstens einen Umfeldsensors 313 des Ego-Fahrzeugs 301 basieren. Die Umfeldsensordaten können beispielsweise Kameradaten, LiDAR-Daten, Radardaten oder akustische Daten umfassen.
  • In einem weiteren Verfahrensschritt 113 werden Kartendaten 329 einer das Umfeld 305 des Ego-Fahrzeugs 301 abbildenden Kartendarstellung empfangen.
  • In einem weiteren Verfahrensschritt 117 werden die Trajektoriendaten 327 in Bilddaten 339 der Trajektoriendaten 327 und/oder die Kartendaten 329 in Bilddaten 341 der Kartendaten 329 umgewandelt.
  • In einem weiteren Verfahrensschritt 103 wird basierend auf den Bilddaten 339 der Trajektoriendaten 311 eine Latent-Raum-Repräsentation 334 der Fahrtrajektorie T1 des Verkehrsteilnehmers 303 im latenten Raum 333 ermittelt.
  • In einem Verfahrensschritt 115 wird basierend auf den Bilddaten 341 eine Latent-Raum-Repräsentation 347 der Kartendaten 329 im latenten Raum 333 ermittelt.
  • In einem weiteren Verfahrensschritt 105 wird ein Abstand D der Latent-Raum-Repräsentation 334 der Fahrtrajektorie T1 des Verkehrsteilnehmers 303 zu einer Latent-Raum-Repräsentation 335 wenigstens einer Normaltrajektorie T2 im latenten Raum 333 ermittelt. Die Normaltrajektorie T2 beschreibt hierbei ein normales Fahrverhalten.
  • In einem weiteren Verfahrensschritt 107 wird das Fahrverhalten des Verkehrsteilnehmers 303 als ein normales Fahrverhalten klassifiziert, falls der Abstand D der Latent-Raum-Repräsentation 334 der Fahrtrajektorie T1 des Verkehrsteilnehmers 303 zu der Latent-Raum-Repräsentation 335 der wenigstens einen Normaltrajektorie T2 im latenten Raum 333 einen vorbestimmten Grenzwert unterschreitet.
  • In einem weiteren Verfahrensschritt 109 wird das Fahrverhalten des Verkehrsteilnehmers 303 hingegen als ein anormales Fahrverhalten klassifiziert, falls der Abstand D der Latent-Raum-Repräsentation 334 der Fahrtrajektorie T1 des Verkehrsteilnehmers 303 zu der Latent-Raum-Repräsentation 335 der wenigstens einen Normaltrajektorie T2 im latenten Raum 333 den vorbestimmten Grenzwert überschreitet.
  • In einem weiteren Verfahrensschritt 111 wird eine Klassifizierungsinformation ausgegeben, in der die jeweilige Klassifizierung des Fahrverhaltens des Verkehrsteilnehmers 303 beschrieben ist.
  • 7 zeigt ein Flussdiagramm eines Verfahrens 200 zur Steuern eines Ego-Fahrzeugs 301.
  • Erfindungsgemäß wird in einem ersten Verfahrensschritt 201 eine Klassifizierung eines Fahrverhaltens eines in einem Umfeld des Ego-Fahrzeugs 301 befindlichen weiteren Verkehrsteilnehmers durch Ausführen des erfindungsgemäßen Verfahrens 100 zum Klassifizieren eines Fahrverhaltens eines Verkehrsteilnehmers im Umfeld eines Ego-Fahrzeugs 301 gemäß den oben beschriebenen Ausführungsformen ausgeführt.
  • In einem weiteren Verfahrensschritt 203 wird das Ego-Fahrzeug 301 gemäß der entsprechenden geplanten Trajektorie angesteuert.
  • Hierzu wird in einem weiteren Verfahrensschritt 205 ein Sicherheitsmanöver ausgeführt, falls das Fahrverhalten des weiteren Verkehrsteilnehmers als ein anormales Fahrverhalten klassifiziert ist.
  • Das Sicherheitsmanöver kann hierbei das Reduzieren einer Geschwindigkeit des Ego-Fahrzeugs 301 und/oder das Vergrößern eines Abstands des Ego-Fahrzeugs 301 zum weiteren Verkehrsteilnehmers und/oder das Wechseln einer durch das Ego-Fahrzeugs befahrenen Fahrspur der befahrenen Fahrbahn umfassen. Alternativ oder zusätzlich können weitere Manöver ausgeführt werden, mittels denen eine Sicherheit des Ego-Fahrzeugs 301 erhöht und insbesondere eine Kollision mit dem weiteren Verkehrsteilnehmer vermieden werden kann.
  • Das Ansteuern des Ego-Fahrzeugs 301 umfasst insbesondere das Ausgeben entsprechender Steuersignale von der Recheneinheit an Aktoren des Ego-Fahrzeugs 301 zum Ausführen des Sicherheitsmanövers.
  • 8 zeigt eine schematische Darstellung eines Computerprogrammprodukts 400, umfassend Befehle, die bei der Ausführung des Programms durch eine Recheneinheit dieses veranlassen, das Verfahren 100 zum Klassifizieren eines Fahrverhaltens eines Verkehrsteilnehmers im Umfeld eines Ego-Fahrzeugs 301 und/oder das Verfahren 200 zum Steuern eines Ego-Fahrzeugs 301 auszuführen.
  • Das Computerprogrammprodukt 400 ist in der gezeigten Ausführungsform auf einem Speichermedium 401 gespeichert. Das Speichermedium 401 kann hierbei ein beliebiges aus dem Stand der Technik bekanntes Speichermedium sein.

Claims (15)

  1. Verfahren (100) zum Klassifizieren eines Fahrverhaltens eines Verkehrsteilnehmers (303) im Umfeld (305) eines Ego-Fahrzeugs (301), umfassend: - Empfangen (101) von Trajektoriendaten (311) einer Fahrtrajektorie (T1) eines im Umfeld (305) eines Ego-Fahrzeugs (301) angeordneten Verkehrsteilnehmers (303), wobei die Trajektoriendaten (311) wenigstens Positionsinformationen der durch den Verkehrsteilnehmer (303) befolgten Fahrtrajektorie (T1) umfassen; - Ermitteln (103) einer Latent-Raum-Repräsentation (334) der Fahrtrajektorie (T1) des Verkehrsteilnehmers (303) in einem Latenten Raum (333), wobei die Latent-Raum-Repräsentation (334) der Fahrtrajektorie (T1) durch eine dimensionsreduzierte Darstellung der Trajektoriendaten (311) gegeben ist; - Ermitteln (105) eines Abstands (D) der Latent-Raum-Repräsentation (334) der Fahrtrajektorie (T1) des Verkehrsteilnehmers (303) zu einer Latent-Raum-Repräsentation (335) wenigstens einer Normaltrajektorie (T2) im Latenten Raum (333), wobei die Normaltrajektorie (T2) als eine auf einem normalen Fahrverhalten basierende Fahrtrajektorie klassifiziert ist; und - Klassifizieren (107) eines Fahrverhaltens des Verkehrsteilnehmers (303) als ein normales Fahrverhalten, falls der Abstand (D) der Latent-Raum-Repräsentation (334) der Fahrtrajektorie (T1) des Verkehrsteilnehmers (303) zu der Latent-Raum-Repräsentation (335) der wenigstens einen Normaltrajektorie (T2) im Latenten Raum (333) einen vorbestimmten Grenzwert unterschreitet; oder - Klassifizieren (109) des Fahrverhaltens des Verkehrsteilnehmers (303) als ein anormales Fahrverhalten, falls der Abstand (D) der Latent-Raum-Repräsentation (334) der Fahrtrajektorie (T1) des Verkehrsteilnehmers (303) zu der Latent-Raum-Repräsentation (335) der wenigstens einen Normaltrajektorie (T2) im Latenten Raum (333) den vorbestimmten Grenzwert überschreitet, und - Ausgeben (111) einer Klassifizierungsinformation.
  2. Verfahren (100) nach Anspruch 1, wobei der Abstand (D) durch eine vorbestimmte Abstandsmetrik bestimmt wird, und wobei die Abstandsmetrik durch eine euklidische Abstandsfunktion oder durch eine logarithmische Likelihood-Funktion der Latent-Raum-Repräsentationen (325, 326, 334, 334) innerhalb des Latenten Raums (333) gegeben ist.
  3. Verfahren (100) nach Anspruch 1 oder 2, wobei das Klassifizieren durch ein Klassifizierungsmodul (309) ausgeführt, wobei das Klassifizierungsmodul (309) zum Ermitteln der Latent-Raum-Repräsentation (334) der Fahrtrajektorie (T2) des Verkehrsteilnehmers (303) ein entsprechend trainiertes Encoder-Modul (317) einer Autoencoder-Architektur (315) umfasst, und wobei die Autoencoder-Architektur (315) trainiert ist, Latent-Raum-Repräsentationen (325, 326) von Fahrtrajektorien im Latenten Raum (333) zu ermitteln und als auf normalem Fahrverhalten basierende Fahrtrajektorien zu erkennen und zu klassifizieren.
  4. Verfahren (100) nach einem der voranstehenden Ansprüche, ferner umfassend: Empfangen (113) von Kartendaten (329) einer das Umfeld (305) des Ego-Fahrzeugs (301) abbildenden Kartendarstellung; Ermitteln (115) einer Latent-Raum-Repräsentation (347) der Kartendaten (329) der Kartendarstellung im Latenten Raum (333), wobei die Latent-Raum-Repräsentation (334) der Fahrtrajektorie (T1) durch eine dimensionsreduzierte Darstellung der Kartendaten (329) gegeben ist; und wobei das Ermitteln (105) des Abstands (D) und/oder das Klassifizieren (107, 109) des Verhaltens des Verkehrsteilnehmers (303) unter Berücksichtigung der Latent-Raum-Repräsentation (347) der Kartendaten (329) der Kartendarstellung erfolgt.
  5. Verfahren (100) nach einem der voranstehenden Ansprüche 1 bis 3 oder Anspruch 4, ferner umfassend: Umwandeln (117) der Trajektoriendaten (327) in Bilddaten (339) der Trajektoriendaten (327) und/oder Umwandeln der Kartendaten (329) in Bilddaten (343) der Kartendaten (329); und wobei das Ermitteln (105) des Abstands (D) und/oder das Klassifizieren (107, 109) des Verhaltens des Verkehrsteilnehmers (303) basierend auf den Bilddaten (339) der Trajektoriendaten (327) und/oder basierend auf den Bilddaten (343) der Kartendaten (329) erfolgt.
  6. Verfahren (100) nach einem der voranstehenden Ansprüche 3 bis 5, wobei das Klassifizierungsmodul (309) ferner ein Verbindungsnetzwerk (345) umfasst, wobei das Verbindungsnetzwerk (345) eingerichtet ist, eine Mehrzahl von Bilddaten (339) von Trajektoriendaten (327) und/oder eine Mehrzahl von Bilddaten (341) der Kartendaten (329) in Eingabedaten (321) für das Encoder-Modul (317) in Vektordarstellung zusammenzufassen, und/oder wobei das Klassifizierungsmodul (309) ferner ein Kartennetzwerk (343) umfasst, wobei das Kartennetzwerk (343) eingerichtet ist, basierend auf den Bilddaten (341) der Kartendaten (329) Latent-Raum-Repräsentationen (347) der Kartendaten (329) zu ermitteln, und wobei das Verbindungsnetzwerk (345) und/oder das Kartennetzwerk (343) als entsprechend trainierte Neuronale Netze ausgebildet sind.
  7. Verfahren (100) nach einem der voranstehenden Ansprüche 3 bis 6, wobei die Autoencoder-Architektur (315) als ein Variations-Autoencoder VAE ausgebildet ist, und wobei die Latent-Raum-Repräsentationen (334, 335) der Fahrtrajektorien (T1, T2) als statistische Verteilungen (337) im Latenten Raum (3339 ausgebildet sind und jeweils über einen Erwartungswert µ und eine Varianz σ2 charakterisiert sind.
  8. Verfahren (100) nach Anspruch 7, wobei die Verteilungen (335) im Latenten Raum (333) als Gaußsche Normalverteilungen (349) ausgebildet sind.
  9. Verfahren (100) nach einem der voranstehenden Ansprüche 3 bis 8, wobei das Training der Autoencoder-Architektur (315) auf Trajektoriendaten (327) einer Mehrzahl von Fahrten eines Fahrzeugs oder einer Mehrzahl von Fahrzeugen entlang einer durch das Ego-Fahrzeug (301) befahrenen Fahrbahn (302) ausgeführt wird, und wobei zum Training ferner Karteninformationen (329) einer die jeweils befahrene Fahrbahn (302) abbildenden Kartendarstellung und/oder Informationen (331) bezüglich einer Fahrbahnbeschaffenheit und/oder Informationen (331) bezüglich herrschender Verkehrsregelungen und/oder Informationen (331) bezüglich herrschender Verkehrsaufkommen und/oder Information (331) bezüglich herrschender Witterungsbedingungen und/oder Tageszeit- und/oder Wochentaginformationen (331) berücksichtigt werden.
  10. Verfahren (100) nach einem der voranstehenden Ansprüche, wobei ein normales Fahrverhalten des Verkehrsteilnehmers (303) umfasst: Fahren auf einer gemäß herrschender Verkehrsregelungen ausgewiesenen Fahrspur (304, 306) der befahrenen Fahrbahn (302); und/oder Fahren gemäß herrschender Geschwindigkeitsregelungen; Folgen eines Verlaufs der Fahrbahn (302); und/oder Fahren in einer durch herrschende Verkehrsregelungen für die jeweils befahrenen Fahrbahn (302) und/oder Fahrspur (304, 306) ausgewiesenen Fahrtrichtung (DIR); und wobei ein anormales Fahrverhalten umfasst: Nicht Folgen des Verlaufs der Fahrbahn (302); und/oder Fahren in einer von einer geraden Fahrtrichtung abweichenden Schlangenlinienförmigen Fahrtrichtung; und/oder Fahren in einer gemäß der herrschenden Verkehrsreglung ausgewiesen Fahrtrichtung (DIR) entgegengesetzten Fahrtrichtung; und/oder Fahren in einer überhöhten Geschwindigkeit; und/oder Fahren auf einer gemäß den herrschenden Verkehrsregelungen nicht ausgewiesenen Fahrspur.
  11. Verfahren (200) zum Steuern eines Ego-Fahrzeugs (301), umfassend: Ausführen (201) einer Klassifizierung eines Fahrverhaltens eines Verkehrsteilnehmers (303) im Umfeld eines Ego-Fahrzeugs (301) basierend auf Trajektoriendaten (311) einer Fahrtrajektorie (T1) des Verkehrsteilnehmers (303) gemäß dem Verfahren (100) zum Klassifizieren eines Fahrverhaltens eines Verkehrsteilnehmers (303) im Umfeld (305) eines Ego-Fahrzeugs (301) nach einem der voranstehenden Ansprüche 1 bis 10; und Steuern (203) des Ego-Fahrzeugs (301) unter Berücksichtigung der Klassifizierung des Fahrverhaltens des Verkehrsteilnehmers (303).
  12. Verfahren (200) nach Anspruch 11, wobei das Steuern des Ego- Fahrzeugs (301) umfasst: Ausführen (205) eines Sicherheitsmanövers, falls das Fahrverhalten des Verkehrsteilnehmers (303) als ein anormales Fahrverhalten klassifiziert ist.
  13. Verfahren (200) nach Anspruch 12, wobei das Sicherheitsmanöver umfasst: Reduzieren einer Geschwindigkeit des Ego-Fahrzeugs (301); und/oder Vergrößern eines Abstands des Ego-Fahrzeugs (301) zum Verkehrsteilnehmers (303) und/oder Wechseln einer durch das Ego-Fahrzeugs (301) befahrenen Fahrspur (304, 306) der befahrenen Fahrbahn (301).
  14. Recheneinheit (307), die eingerichtet ist, das Verfahren (100) zum Klassifizieren eines Fahrverhaltens eines Verkehrsteilnehmers (303) im Umfeld (305) eines Ego-Fahrzeugs (301) nach einem der voranstehenden Ansprüche 1 bis 10 und/oder das Verfahren (200) zum Steuern eines Ego-Fahrzeugs (301) nach einem der voranstehenden Ansprüche 11 bis 13 auszuführen.
  15. Computerprogrammprodukt (400) umfassend Befehle, die bei der Ausführung des Programms durch eine Datenverarbeitungseinheit diese veranlassen, das Verfahren (100) zum Klassifizieren eines Fahrverhaltens eines Verkehrsteilnehmers (303) im Umfeld (305) eines Ego-Fahrzeugs (301) nach einem der voranstehenden Ansprüche 1 bis 10 und/oder das Verfahren (200) zum Steuern eines Ego-Fahrzeugs (301) nach einem der voranstehenden Ansprüche 11 bis 13 auszuführen.
DE102022205120.3A 2022-05-23 2022-05-23 Verfahren zum Klassifizieren eines Verhaltens eines Verkehrsteilnehmers und Verfahren zum Steuern eines Ego-Fahrzeugs Pending DE102022205120A1 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE102022205120.3A DE102022205120A1 (de) 2022-05-23 2022-05-23 Verfahren zum Klassifizieren eines Verhaltens eines Verkehrsteilnehmers und Verfahren zum Steuern eines Ego-Fahrzeugs
US18/313,843 US20230399027A1 (en) 2022-05-23 2023-05-08 Method for classifying a behavior of a road user and method for controlling an ego vehicle
CN202310583629.2A CN117104259A (zh) 2022-05-23 2023-05-23 分类交通参与者行为的方法、控制车辆的方法及计算单元

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102022205120.3A DE102022205120A1 (de) 2022-05-23 2022-05-23 Verfahren zum Klassifizieren eines Verhaltens eines Verkehrsteilnehmers und Verfahren zum Steuern eines Ego-Fahrzeugs

Publications (1)

Publication Number Publication Date
DE102022205120A1 true DE102022205120A1 (de) 2023-11-23

Family

ID=88599832

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102022205120.3A Pending DE102022205120A1 (de) 2022-05-23 2022-05-23 Verfahren zum Klassifizieren eines Verhaltens eines Verkehrsteilnehmers und Verfahren zum Steuern eines Ego-Fahrzeugs

Country Status (3)

Country Link
US (1) US20230399027A1 (de)
CN (1) CN117104259A (de)
DE (1) DE102022205120A1 (de)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102020134346A1 (de) 2020-06-27 2021-12-30 Intel Corporation Technologie zum generalisieren von erfahrungen für sicheres fahren für die verhaltensvorhersage automatisierter fahrzeuge
DE102020214715A1 (de) 2020-11-24 2022-05-25 Robert Bosch Gesellschaft mit beschränkter Haftung Normalisierter autoencoder
DE102021203587A1 (de) 2021-04-12 2022-10-13 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren und Vorrichtung zum Trainieren eines Stilencoders eines neuronalen Netzwerks und Verfahren zum Erzeugen einer einen Fahrstil eines Fahrers abbildenden Fahrstilrepräsentation
DE102021203588A1 (de) 2021-04-12 2022-10-13 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren und Steuergerät zum Schätzen eines Verhaltens eines Systems
DE102021203589A1 (de) 2021-04-12 2022-10-13 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren und Steuergerät zum Erkennen eines Fahrstils

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102020134346A1 (de) 2020-06-27 2021-12-30 Intel Corporation Technologie zum generalisieren von erfahrungen für sicheres fahren für die verhaltensvorhersage automatisierter fahrzeuge
DE102020214715A1 (de) 2020-11-24 2022-05-25 Robert Bosch Gesellschaft mit beschränkter Haftung Normalisierter autoencoder
DE102021203587A1 (de) 2021-04-12 2022-10-13 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren und Vorrichtung zum Trainieren eines Stilencoders eines neuronalen Netzwerks und Verfahren zum Erzeugen einer einen Fahrstil eines Fahrers abbildenden Fahrstilrepräsentation
DE102021203588A1 (de) 2021-04-12 2022-10-13 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren und Steuergerät zum Schätzen eines Verhaltens eines Systems
DE102021203589A1 (de) 2021-04-12 2022-10-13 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren und Steuergerät zum Erkennen eines Fahrstils

Also Published As

Publication number Publication date
US20230399027A1 (en) 2023-12-14
CN117104259A (zh) 2023-11-24

Similar Documents

Publication Publication Date Title
AT518489B1 (de) Fahrerassistenzsystem zum Unterstützen eines Fahrers beim Führen eines Fahrzeugs
EP3436325A1 (de) Verfahren zum erzeugen von steuerdaten für ein regelbasiertes unterstützen eines fahrers
DE102020131949A1 (de) System und verfahren zum erlernen einer fahrerpräferenz und zum anpassen einer spurzentrierungssteuerung an ein fahrerverhalten
DE102019206569A1 (de) Fahrzeug und verfahren zum steuern desselben
EP3298537A1 (de) Verfahren zur ermittlung einer beschreibung eines fahrstreifens
AT521647B1 (de) Verfahren und System zur Datenaufbereitung, zum Trainieren eines künstlichen neuronalen Netzes und zum Analysieren von Sensordaten
DE102019216206A1 (de) Vorrichtung und Verfahren zum Bestimmen einer Kehrtwendestrategie eines autonomen Fahrzeugs
DE102019003963A1 (de) Verfahren zur Bestimmung einer Fahrstrategie eines Fahrzeuges, insbesondere eines Nutzfahrzeuges
WO2020069812A1 (de) Verfahren zum zumindest teilautomatisierten führen eines kraftfahrzeugs auf einer fahrbahn
DE102020129802A1 (de) Fahrzeugbetriebskennzeichnung
WO2021139974A1 (de) Verfahren zur zusammenführung mehrerer datensätze für die erzeugung eines aktuellen spurmodells einer fahrbahn und vorrichtung zur datenverarbeitung
EP4212980A1 (de) Fahrassistenzeinrichtung und verfahren zum durchführen einer wenigstens teilautomatischen fahrzeugfunktion in abhängigkeit von einer zu bewertenden fahrstrecke
DE102019218455A1 (de) Verfahren zum Betreiben einer Fahrassistenzvorrichtung eines Fahrzeugs, Fahrassistenzvorrichtung und Fahrzeug, aufweisend zumindest eine Fahrassistenzvorrichtung
AT519547A4 (de) Vorrichtung und Verfahren zur prädiktiven Steuerung der Geschwindigkeit eines Fahrzeugs
WO2019120709A1 (de) Verfahren und steuereinheit zur steuerung einer funktion eines zumindest teilweise automatisiert fahrenden fahrzeugs
DE102020127051A1 (de) Verfahren zur Bestimmung von sicherheitskritischen Ausgabewerten mittels einer Datenanalyseeinrichtung für eine technische Entität
DE102022205120A1 (de) Verfahren zum Klassifizieren eines Verhaltens eines Verkehrsteilnehmers und Verfahren zum Steuern eines Ego-Fahrzeugs
DE102022205100A1 (de) Verfahren zum Klassifizieren eines Verhaltens eines Verkehrsteilnehmers und Verfahren zum Steuern eines Ego-Fahrzeugs
DE102022109385A1 (de) Belohnungsfunktion für Fahrzeuge
DE10254525A1 (de) Verfahren und Vorrichtung zur Vorhersage des Fahrzeugverhaltens sowie diesbezügliches Computer-Programm-Produkt
DE102023202997A1 (de) Verfahren zum Klassifizieren eines Verhaltens eines Verkehrsteilnehmers und Verfahren zum Steuern eines Ego-Fahrzeugs
DE102021124736A1 (de) Verfahren und Vorrichtung zur Ermittlung einer Positions-Hypothese
DE102020203042A1 (de) Externe Steuerungstaktikermittlung für autonome Fahrzeuge
DE102020203836A1 (de) Verfahren zur Bestimmung eines Wertes einer Reglergröße
DE102018114628A1 (de) Auf tiefem Lernen basierende automatische oder halbautomatische Ausparkverfahren

Legal Events

Date Code Title Description
R163 Identified publications notified