DE102020131130A1 - Fahrbahnmarkierungsdetektion - Google Patents

Fahrbahnmarkierungsdetektion Download PDF

Info

Publication number
DE102020131130A1
DE102020131130A1 DE102020131130.3A DE102020131130A DE102020131130A1 DE 102020131130 A1 DE102020131130 A1 DE 102020131130A1 DE 102020131130 A DE102020131130 A DE 102020131130A DE 102020131130 A1 DE102020131130 A1 DE 102020131130A1
Authority
DE
Germany
Prior art keywords
state vector
measurement time
function
sensor data
road marking
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102020131130.3A
Other languages
English (en)
Inventor
Mario Rojas Quinones
Marc Huber
Viktor Trusov
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Valeo Schalter und Sensoren GmbH
Original Assignee
Valeo Schalter und Sensoren GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Valeo Schalter und Sensoren GmbH filed Critical Valeo Schalter und Sensoren GmbH
Priority to DE102020131130.3A priority Critical patent/DE102020131130A1/de
Priority to KR1020237021330A priority patent/KR20230107688A/ko
Priority to US18/038,731 priority patent/US20240101145A1/en
Priority to PCT/EP2021/082504 priority patent/WO2022112175A1/en
Priority to JP2023531697A priority patent/JP2023551248A/ja
Priority to EP21819103.9A priority patent/EP4252202A1/de
Priority to CN202180079400.4A priority patent/CN116490905A/zh
Publication of DE102020131130A1 publication Critical patent/DE102020131130A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/582Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of traffic signs
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/0097Predicting future conditions
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/469Contour-based spatial representations, e.g. vector-coding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/766Arrangements for image or video recognition or understanding using pattern recognition or machine learning using regression, e.g. by projecting features on hyperplanes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/98Detection or correction of errors, e.g. by rescanning the pattern or by human intervention; Evaluation of the quality of the acquired patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/98Detection or correction of errors, e.g. by rescanning the pattern or by human intervention; Evaluation of the quality of the acquired patterns
    • G06V10/993Evaluation of the quality of the acquired pattern
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/53Road markings, e.g. lane marker or crosswalk

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Quality & Reliability (AREA)
  • Automation & Control Theory (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Traffic Control Systems (AREA)
  • Navigation (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

Gemäß einem Verfahren zur Fahrbahnmarkierungsdetektion werden Sensordatensätze, die eine Fahrbahnmarkierung (7) zu einem ersten und einem zweiten Messzeitpunkt darstellen, durch ein Umfeldsensorsystem (4) erzeugt, und ein Parameter, der eine Bewegung des Umfeldsensorsystems (4) charakterisiert, wird bestimmt. Ein erster und ein zweiter beobachteter Zustandsvektor, die die Fahrbahnmarkierung (17) zum ersten beziehungsweise zum zweiten Messzeitpunkt beschreiben, werden auf der Basis der Sensordatensätze erzeugt. Ein prädizierter Zustandsvektor für den zweiten Messzeitpunkt wird in Abhängigkeit von dem wenigstens einen Bewegungsparameter und dem ersten beobachteten Zustandsvektor berechnet und ein korrigierter Zustandsvektor für den zweiten Messzeitpunkt wird in Abhängigkeit von dem prädizierten Zustandsvektor und dem zweiten beobachteten Zustandsvektor erzeugt.

Description

  • Die vorliegende Erfindung ist auf ein Verfahren zur Fahrbahnmarkierungsdetektion gerichtet, wobei ein erster Sensordatensatz, der eine Fahrbahnmarkierung zu einem ersten Messzeitpunkt darstellt, und ein zweiter Sensordatensatz, der die Fahrbahnmarkierung zu einem zweiten Messzeitpunkt darstellt, unter Verwendung eines Umfeldsensorsystems erzeugt werden. Die Erfindung bezieht sich ferner auf ein Verfahren zum wenigstens teilweise automatischen Führen eines Kraftfahrzeugs, auf ein Fahrbahnmarkierungsdetektionssystem, auf ein elektronisches Fahrzeugführungssystem, auf ein Computerprogramm und auf ein computerlesbares Speichermedium.
  • Fortgeschrittenen Fahrerassistenzsysteme, ADAS, sowie Systeme zum automatischen oder autonomen Führen eines Kraftfahrzeugs machen von Daten Gebrauch, die durch Umfeldsensorsysteme wie zum Beispiel Kameras oder Lidarsysteme erzeugt werden, die in verschiedenen Positionen des Kraftfahrzeugs montiert sind. Insbesondere können die durch die Umfeldsensorsysteme erzeugten Daten verwendet werden, um Fahrbahnmarkierungen auf einer Straße, auf der das Fahrzeug fährt, zu identifizieren und zu detektieren. Der Ort, die Form und der Typ von Fahrbahnmarkierungen stellen eine wichtige Eingabe für automatische oder halbautomatische Fahrfunktionen dar. Die Zuverlässigkeit der Fahrbahnmarkierungsdetektion und folglich der anschließenden Funktionen unter Verwendung der Ergebnisse der Fahrbahnmarkierungsdetektion können jedoch durch externe Störungen oder Rauschen beeinträchtigt werden.
  • Das Dokument US 7,933,433 B2 beschreibt eine Einrichtung zum Erkennen von Fahrspurmarkierungen. Die Einrichtung kann Daten über eine Fahrspurmarkierung auf der Basis einer Mittellinienposition, einer Mittellinienform und der Breite einer Fahrspur extrahieren, die für den gegenwärtigen Zyklus projiziert werden.
  • Daher ist es ein Ziel der vorliegenden Erfindung, ein verbessertes Konzept zur Fahrbahnmarkierungsdetektion bereitzustellen, welches die Zuverlässigkeit erhöht.
  • Dieses Ziel wird durch den jeweiligen Gegenstand der unabhängigen Ansprüche erreicht. Weitere Implementierungen und bevorzugte Ausführungsformen sind Gegenstand der abhängigen Ansprüche.
  • Gemäß dem verbesserten Konzept wird ein Verfahren zur Fahrbahnmarkierungsdetektion bereitgestellt. Dabei werden ein erster Sensordatensatz, der eine Fahrbahnmarkierung, die insbesondere auf einer Straße angeordnet ist, zu einem ersten Messzeitpunkt darstellt, und ein zweiter Sensordatensatz, der die Fahrbahnmarkierung zu einem zweiten Messzeitpunkt darstellt, unter Verwendung eines Umfeldsensorsystems, insbesondere eines Kraftfahrzeugs, das auf der Straße fährt, erzeugt. Wenigstens ein Bewegungsparameter, der eine Bewegung des Umfeldsensorsystems relativ zur Fahrbahnmarkierung zwischen dem ersten Messzeitpunkt und dem zweiten Messzeitpunkt charakterisiert, wird bestimmt. Eine Recheneinheit wird verwendet, um einen ersten beobachteten Zustandsvektor auf der Basis des ersten Sensordatensatzes zu erzeugen, wobei der erste beobachtete Zustandsvektor die Fahrbahnmarkierung zum ersten Messzeitpunkt geometrisch beschreibt. Die Recheneinheit wird verwendet, um auf der Basis des zweiten Sensordatensatzes einen zweiten beobachteten Zustandsvektor zu erzeugen, der die Fahrbahnmarkierung zum zweiten Messzeitpunkt geometrisch beschreibt. Die Recheneinheit wird verwendet, um einen prädizierten Zustandsvektor für den zweiten Messzeitpunkt in Abhängigkeit von dem wenigstens Bewegungsparameter und von dem ersten beobachteten Zustandsvektor zu berechnen. Die Recheneinheit wird verwendet, um einen korrigierten Zustandsvektor für den zweiten Messzeitpunkt in Abhängigkeit von dem prädizierten Zustandsvektor und dem zweiten beobachteten Zustandsvektor zu erzeugen.
  • Die Fahrbahnmarkierung, die auch als Fahrspurmarkierung oder Straßenoberflächenmarkierung bezeichnet wird, kann beispielsweise eine oder mehrere gerade oder gekrümmte Linien, beispielsweise einzelne Linien, Doppellinien, Dreifachlinien und so weiter, aufweisen. Die Linie oder die Linien können kontinuierlich sein oder können unterbrochene Liniensegmente aufweisen. Auch können Kombinationen desselben Typs von Linien und/oder verschiedener Typen von Linien von einer Fahrbahnmarkierung enthalten sein.
  • Das Umfeldsensorsystem kann als Sensorsystem verstanden werden, das die Sensordaten oder Sensorsignale erzeugen kann, die ein Umfeld des Umfeldsensorsystems darstellen, repräsentieren oder abbilden. Kameras, Lidarsysteme, Radarsysteme oder Ultraschallsensorsysteme können beispielsweise als Umfeldsensorsysteme betrachtet werden. Vorzugsweise weist das Umfeldsensorsystem ein Kamerasystem oder ein Lidarsystem auf.
  • Das Umfeldsensorsystem kann jeweilige Sensordatensätze, die einer Zeitreihe von aufeinander folgenden diskreten Messzeitpunkten mit dem ersten und dem zweiten Messzeitpunkt entsprechen, erzeugen. Jeder Messzeitpunkt kann einem diskreten Zeitpunkt entsprechen. Trotzdem können in Abhängigkeit von dem Typ von verwendetem Umfeldsensorsystem die Messungen für einen gegebenen Messzeitpunkt ein bestimmtes Zeitintervall erfordern. Im Fall einer Kamera als Umfeldsensorsystem kann beispielsweise jeder Messzeitpunkt einem jeweiligen Videoeinzelbild entsprechen. Im Fall eines scannenden Lidarsystems kann jeder Messzeitpunkt einer Abtastperiode entsprechen, und so weiter.
  • Der zweite Messzeitpunkt folgt dem ersten Messzeitpunkt, folgt insbesondere direkt dem ersten Messzeitpunkt. Im Allgemeinen bewegen sich das Umfeldsensorsystem und das Fahrzeug zwischen dem ersten und dem zweiten Messzeitpunkt, so dass sich die relative Position und/oder Orientierung der Fahrbahnmarkierung mit Bezug auf das Umfeldsensorsystem zwischen dem ersten und dem zweiten Messzeitpunkt ändern.
  • Zum Erzeugen eines jeweiligen beobachteten Zustandsvektors kann die Recheneinheit eine geometrische Näherung für die Fahrbahnmarkierung in Abhängigkeit von dem jeweiligen Sensordatensatz bestimmen und zwei oder mehr Parameter gemäß der Näherung als jeweiligen beobachteten Zustandsvektor speichern. Die geometrische Näherung der Fahrbahnmarkierung kann beispielsweise in einem vordefinierten Koordinatensystem ausgeführt werden, das starr mit dem Sensorsystem verbunden ist.
  • Das Koordinatensystem kann beispielsweise durch eine Längsachse, eine Querachse und eine Hochachse definiert sein, wobei alle drei der Achsen zueinander senkrecht sind. Dabei können die Längsachse und die Querachse beispielsweise eine Ebene definieren, die zur Straßenoberfläche ungefähr parallel ist. Die Längsachse, die Querachse und die Hochachse können auch den jeweiligen Achsen des Kraftfahrzeugs entsprechen oder können mittels einer vordefinierten Koordinatentransformation in diese Achsen transformiert werden, die beispielsweise durch eine Sensorkalibrierung bestimmt werden kann.
  • Um die Fahrbahnmarkierung im vordefinierten Koordinatensystem zu anzunähern, kann die Recheneinheit beispielsweise eine Polynomnäherung ausführen. Die Fahrbahnmarkierung kann beispielsweise durch ein Polynom zweiten Grades genähert werden. In diesem Fall kann ein Koeffizient des jeweiligen Polynoms einer konstanten Position oder einem konstanten Versatz der Fahrbahnmarkierung oder eines definierten Punkts der Fahrbahnmarkierung von einer der Achsen des Koordinatensystems, beispielsweise der Längsachse, entsprechen. Weitere Koeffizienten des jeweiligen Polynoms können einer Richtung und einer Krümmung der Fahrbahnmarkierung am jeweiligen Punkt entsprechen.
  • Die beobachteten Zustandsvektoren können beispielsweise die Polynomkoeffizienten, die sich aus der Näherung ergeben, oder Größen, die von den Polynomkoeffizienten abgeleitet sind, aufweisen.
  • Der wenigstens eine Bewegungsparameter kann beispielsweise durch einen oder mehrere Bewegungssensoren des Fahrzeugs wie zum Beispiel Beschleunigungssensoren, Gierratensensoren und so weiter oder in Abhängigkeit von der Ausgabe der Bewegungssensoren bestimmt werden. Beispielsweise kann der wenigstens eine Bewegungsparameter eine Längsgeschwindigkeit des Umfeldsensorsystems in der Richtung der Längsachse und/oder eine Quergeschwindigkeit des Umfeldsensorsystems in der Richtung der Querachse und/oder eine Gierrate des Umfeldsensorsystems mit Bezug auf die Hochachse aufweisen.
  • Durch Berücksichtigen des wenigstens einen Bewegungsparameters zum Berechnen des prädizierten Zustandsvektors auf der Basis des ersten beobachteten Zustandsvektors wird der erste beobachtete Zustandsvektor der Zustandsdynamik unterworfen, die durch den wenigstens einen Bewegungsparameter definiert ist. Der prädizierte Zustandsvektor wird dann in Abhängigkeit von der tatsächlichen Beobachtung zum zweiten Messzeitpunkt, nämlich auf der Basis des zweiten beobachteten Zustandsvektors, korrigiert. In dieser Weise können Fehler aufgrund von externen Störungen oder Rauschen, die sich unvermeidlich auf die beobachteten Zustandsvektoren auswirken, verringert werden. Folglich wird die Zuverlässigkeit des korrigierten Zustandsvektors für anschließende Anwendungen, wie zum Beispiel Fahrerassistenzfunktionen oder autonome Fahrfunktionen, im Vergleich zum zweiten beobachteten Zustandsvektor verbessert.
  • Der wenigstens eine Bewegungsparameter kann beispielsweise durch Rauschen beeinflusst werden, was die Qualität der Prädiktion des Zustandsvektors verringern kann. Trotzdem ermöglicht die resultierende Verfügbarkeit des prädizierten Zustandes, dass die Zustandsvektoren auf der Basis der tatsächlichen Beobachtung zum zweiten Messzeitpunkt, nämlich auf der Basis des zweiten beobachteten Zustandsvektors, korrigiert werden. Daher kann die Prädiktion, selbst wenn der wenigstens eine Bewegungsparameter überhaupt nicht gemessen werden kann, trotzdem ausgeführt werden, beispielsweise unter der Annahme von historischen oder geschätzten Werten für den wenigstens einen Bewegungsparameter.
  • Insbesondere kann der korrigierte Zustandsvektor als Teil einer Ausgabe der Fahrbahnmarkierungsdetektion betrachtet werden. Die mit Bezug auf den ersten und den zweiten Messzeitpunkt beschriebenen Verfahrensschritte können iterativ oder wiederholt für eine Vielzahl von aufeinander folgenden Messzeitpunkten ausgeführt werden, um eine Zeitreihe von korrigierten Zustandsvektoren zu erhalten, die zur Ausgabe der Fahrbahnmarkierungsdetektion beitragen. In dieser Weise wird eine besonders zuverlässige Eingabe für automatische Fahrfunktionen oder Fahrerassistenzfunktionen bereitgestellt.
  • Durch die Darstellung der Fahrbahnmarkierung mittels jeweiliger Parameter, die ihr zugrundeliegendes Muster geometrisch beschreiben, kann die Ausgabe der Fahrbahnmarkierungsdetektion stabilisiert werden. Insbesondere ermöglicht die Darstellung der Fahrbahnmarkierungen mittels der Zustandsvektoren eine zuverlässige Prädiktion und Korrektur im Vergleich zu einer Prädiktion der Sensordaten selbst, wie zum Beispiel Punkte einer Punktwolke. Mit anderen Worten, anstelle einer herkömmlichen Objektverfolgung kann der Zustand der Fahrbahnmarkierung effektiv verfolgt werden.
  • Gemäß mehreren Implementierungen des Verfahrens zur Fahrbahnmarkierungsdetektion wird die Recheneinheit verwendet, um zwei oder mehr erste Abtastzustandsvektoren für den ersten Messzeitpunkt in Abhängigkeit von dem ersten beobachteten Zustandsvektor und wenigstens einem Parameter, der eine mehrdimensionale Verteilung beschreibt, zu erzeugen. Der prädizierte Zustandsvektor wird in Abhängigkeit von den zwei oder mehr ersten Abtastzustandsvektoren berechnet.
  • Der wenigstens eine Parameter, der die mehrdimensionale Verteilung beschreibt, kann beispielsweise jeweilige Varianzen und/oder Kovarianzen der Größen, die in den Einträgen des beobachteten ersten Zustandsvektors enthalten sind, aufweisen. Die Recheneinheit kann beispielsweise eine Kovarianzmatrix für jeden Messzeitpunkt, insbesondere für den ersten Messzeitpunkt, berechnen. Wenn beispielsweise der erste beobachtete Zustandsvektor als x0 = (a, b, ...) bezeichnet wird, lautet die jeweilige Kovarianzmatrix: S = ( σ a 2 σ ab σ ba σ b 2 )
    Figure DE102020131130A1_0001
  • Dabei können die Varianzen σa2, σb 2, ... und Kovarianzen σab, σba, ... , die in der Kovarianzmatrix enthalten sind, beispielsweise durch die Recheneinheit auf der Basis von Sensordatensätzen bestimmt werden, die durch das Umfeldsensorsystem für Messzeitpunkte vor dem ersten Messzeitpunkt erzeugt wurden. Alternativ oder zusätzlich können Werte für Varianzen σa2, σb 2, ... und Kovarianzen σab, σba, ... durch das Umfeldsensorsystem ausgegeben werden, falls diese Werte vorab bekannt sind, beispielsweise aus Kalibrierung. Auch eine Kombination beider Methoden ist möglich.
  • Dann können zwei oder mehr Abtastzustandsvektoren beispielsweise wie folgt parametrisiert werden: x i = { μ + [ ( n + λ ) S ] i 1 i n μ [ ( n + λ ) S ] i n n i 2 n .
    Figure DE102020131130A1_0002
  • Dabei ist λ = (α2(n + κ) - n) ein Skalierungsparameter, n ist die Anzahl von Dimensionen des Zustandsvektors und α und κ sind vordefinierte Parameter, die die Streuung der Punkte um den Mittelwert µ steuern, der beispielsweise durch die Einträge von x0 gegeben sein kann. Der tiefgestellte Index i wählt den i-ten Spaltenvektor der Kovarianzmatrix S aus.
  • In dieser Weise bildet der erste beobachtete Zustandsvektor zusammen mit den zwei oder mehr ersten Abtastzustandsvektoren für den ersten Messzeitpunkt eine Population für eine entsprechende Verteilung, die durch den wenigstens einen Parameter α, κ beschrieben wird, der die mehrdimensionale Verteilung beschreibt. Zum Berechnen des prädizierten Zustandsvektors für den zweiten Messzeitpunkt kann die Population für den ersten Messzeitpunkt mit dem ersten beobachteten Zustandsvektor und den zwei oder mehr ersten Abtastzustandsvektoren auf den zweiten Messzeitpunkt in Abhängigkeit von dem wenigstens einen Bewegungsparameter projiziert werden.
  • In dieser Weise können Effekte aufgrund eines Fehlers oder von Störungen an den Sensordatensätzen in einer effizienten Weise minimiert werden. Insbesondere ist es nicht erforderlich, dass die tatsächliche Verteilung der Einträge an den beobachteten Zustandsvektoren einer Gauß-Verteilung folgt.
  • Gemäß mehreren Implementierungen wird die Recheneinheit verwendet, um ein erstes Polynom in Abhängigkeit von dem ersten Sensordatensatz zu bestimmen, um die Fahrbahnmarkierung zum ersten Zeitpunkt zu nähern, und ein zweites Polynom in Abhängigkeit von dem zweiten Sensordatensatz zu bestimmen, um die Fahrbahnmarkierung zum zweiten Zeitpunkt zu nähern. Der erste beobachtete Zustandsvektor weist Koeffizienten des ersten Polynoms, insbesondere alle Koeffizienten des ersten Polynoms, auf und der zweite beobachtete Zustandsvektor weist Koeffizienten des zweiten Polynoms, insbesondere alle Koeffizienten des zweiten Polynoms, auf.
  • Das erste und das zweite Polynom sind beispielsweise Polynome ersten Grades oder höheren Grades, vorzugsweise zweiten Grades. In diesem Fall können die Koeffizienten des ersten und des zweiten Polynoms als einen konstanten Versatz, eine Richtung beziehungsweise eine Krümmung betreffend verstanden werden.
  • Die Recheneinheit kann einen Fit-Algorithmus durchführen, um das erste und das zweite Polynom in Abhängigkeit von dem ersten beziehungsweise dem zweiten Sensordatensatz zu bestimmen. In dieser Weise können vergleichsweise genaue Abschätzungen der Fahrbahnmarkierung ohne Beteiligung von rechenaufwändigen Methoden erhalten werden. Insbesondere ist das Darstellen der Fahrbahnmarkierung durch die Polynomkoeffizienten im Vergleich zu einer Verfolgung der Rohausgabe des Umfeldsensorsystems effizienter.
  • Gemäß mehreren Implementierungen wird die Recheneinheit verwendet, um eine prädizierte Kovarianzmatrix für den zweiten Messzeitpunkt in Abhängigkeit von dem wenigstens einen Bewegungsparameter, dem ersten beobachteten Zustandsvektor und dem prädizierten Zustandsvektor zu berechnen. Die Recheneinheit wird verwendet, um eine korrigierte Kovarianzmatrix für den zweiten Messzeitpunkt in Abhängigkeit von der prädizierten Kovarianzmatrix und dem zweiten beobachteten Zustandsvektor zu erzeugen.
  • Die Ausgabe der Fahrbahnmarkierungsdetektion kann die korrigierte Kovarianzmatrix und gegebenenfalls die jeweilige korrigierte Kovarianzmatrix für weitere Messzeitpunkte enthalten.
  • Die korrigierte Kovarianzmatrix stellt ein geeignetes Mittel bereit, um die Streuung und Verteilung der Parameter zu bewerten, die die Fahrbahnmarkierung beschreiben, und daher die Zuverlässigkeit der Messergebnisse für die Verwendung in einer Fahrerassistenzfunktion oder einer Funktion für autonomes Fahren zu bewerten.
  • Wie mit Bezug auf den prädizierten Zustandsvektor für den zweiten Zeitpunkt beschrieben, kann auch die prädizierte Kovarianzmatrix für den zweiten Messzeitpunkt in Abhängigkeit von den zwei oder mehr ersten Abtastzustandsvektoren berechnet werden.
  • Gemäß mehreren Implementierungen wird eine Vielzahl von Sensordatensätzen, die die Fahrbahnmarkierung zu jeweiligen aufeinander folgenden Messzeitpunkten darstellen, unter Verwendung des Umfeldsensorsystems erzeugt, wobei die Vielzahl von Sensordatensätzen den ersten Sensordatensatz und den zweiten Sensordatensatz aufweist. Für jeden der Messzeitpunkte wird der wenigstens eine Bewegungsparameter, der die Bewegung des Umfeldsensorsystems relativ zur Fahrbahnmarkierung zwischen dem jeweiligen Messzeitpunkt und einem jeweiligen anschließenden Messzeitpunkt charakterisiert, bestimmt. Für jeden der Messzeitpunkte wird die Recheneinheit verwendet, um einen jeweiligen beobachteten Zustandsvektor, der die Fahrbahnmarkierung zum jeweiligen Messzeitpunkt geometrisch beschreibt, auf der Basis des jeweiligen Sensordatensatzes zu erzeugen. Für jeden der Messzeitpunkte oder für jeden der Messzeitpunkte abgesehen von einem finalen Messzeitpunkt wird die Recheneinheit verwendet, um einen prädizierten Zustandsvektor für einen jeweiligen anschließenden Messzeitpunkt in Abhängigkeit von dem jeweiligen wenigstens einen Bewegungsparameter zwischen dem jeweiligen Messzeitpunkt und dem jeweiligen anschließenden Messzeitpunkt und in Abhängigkeit von dem beobachteten Zustandsvektor des jeweiligen Messzeitpunkts zu berechnen. Für jeden der Messzeitpunkte oder für jeden der Messzeitpunkte abgesehen vom finalen Messzeitpunkt wird die Recheneinheit verwendet, um einen korrigierten Zustandsvektor für einen jeweiligen anschließenden Messzeitpunkt in Abhängigkeit von dem prädizierten Zustandsvektor für den jeweiligen anschließenden Messzeitpunkt und dem beobachteten Zustandsvektor des jeweiligen anschließenden Messzeitpunkts zu erzeugen.
  • Die Erläuterungen mit Bezug auf den ersten beobachteten Zustandsvektor und den zweiten beobachteten Zustandsvektor sowie den ersten Messzeitpunkt und den zweiten Messzeitpunkt können analog auf jeden Messzeitpunkt der Vielzahl von aufeinander folgenden Messzeitpunkten und seinen jeweiligen anschließenden Messzeitpunkt angewendet werden. Abgesehen von dem finalen Messzeitpunkt weist jeder Messzeitpunkt insbesondere exakt einen jeweiligen anschließenden Messzeitpunkt auf.
  • Folglich wird eine Zeitreihe von korrigierten Zustandsvektoren als Ergebnis des Verfahrens zur Fahrbahnmarkierungsdetektion erhalten.
  • Analog kann in entsprechenden weiteren Implementierungen auch eine Zeitreihe von korrigierten Kovarianzmatrizen erhalten werden.
  • Gemäß dem verbesserten Konzept wird auch ein Verfahren zum wenigstens teilweise automatischen Führen eines Kraftfahrzeugs bereitgestellt. Dazu wird ein Verfahren zur Fahrbahnmarkierungsdetektion gemäß dem verbesserten Konzept ausgeführt, wobei das Umfeldsensorsystem an oder auf dem Kraftfahrzeug montiert ist. Das Kraftfahrzeug wird in Abhängigkeit von dem korrigierten Zustandsvektor wenigstens teilweise automatisch, insbesondere mittels eines elektronischen Fahrzeugführungssystems des Fahrzeugs, geführt.
  • Insbesondere enthält das Kraftfahrzeug, beispielsweise das elektronische Fahrzeugführungssystem, die Recheneinheit.
  • Ein elektronisches Fahrzeugführungssystem kann als elektronisches System verstanden werden, das dazu eingerichtet ist, ein Fahrzeug in einer vollautomatisierten oder vollautonomen Weise zu führen, und insbesondere ohne dass ein manueller Eingriff oder eine Steuerung durch einen Fahrer oder Benutzer des Fahrzeugs erforderlich ist. Das Fahrzeug führt alle erforderlichen Funktionen wie zum Beispiel Lenkmanöver, Verlangsamungsmanöver und/oder Beschleunigungsmanöver sowie Überwachung und Aufzeichnung des Straßenverkehrs und entsprechende Reaktionen automatisch aus. Insbesondere kann das elektronische Fahrzeugführungssystem einen vollautomatischen oder vollautonomen Fahrmodus gemäß der Stufe 5 der Klassifikation SAE J3016 implementieren. Ein elektronisches Fahrzeugführungssystem kann auch als fortgeschrittenes Fahrerassistenzsystem, ADAS, implementiert sein, das einen Fahrer zum teilweise automatischen oder teilweise autonomen Fahren unterstützt. Insbesondere kann das elektronische Fahrzeugführungssystem einen teilweise automatischen oder teilweise autonomen Fahrmodus gemäß den Stufen 1 bis 4 der Klassifikation SAE J3016 implementieren. Hier und im Folgenden bezieht sich SAE J3016 auf den jeweiligen Standard mit Datum vom Juni 2018.
  • Das wenigstens teilweise automatische Führen des Fahrzeugs kann daher das Führen des Fahrzeugs gemäß einem vollautomatischen oder vollautonomen Fahrmodus gemäß der Stufe 5 der Klassifikation SAE J3016 aufweisen. Das wenigstens teilweise automatische Führen des Fahrzeugs kann auch das Führen des Fahrzeugs gemäß einem teilweise automatischen oder teilweise autonomen Fahrmodus gemäß den Stufen 1 bis 4 der Klassifikation SAE J3016 aufweisen.
  • Das wenigstens teilweise automatische Führen des Kraftfahrzeugs kann beispielsweise eine Quersteuerung des Kraftfahrzeugs aufweisen.
  • Gemäß mehreren Implementierungen des Verfahrens zum wenigstens teilweise automatischen Führen eines Kraftfahrzeugs wird die Recheneinheit verwendet, um elektronische Kartendaten, die ein Umfeld des Kraftfahrzeugs darstellen, in Abhängigkeit von dem korrigierten Zustandsvektor zu erzeugen.
  • Gemäß mehreren Implementierungen wird das Kraftfahrzeug in Abhängigkeit von den elektronischen Kartendaten wenigstens teilweise automatisch geführt und ein weiteres Kraftfahrzeug wird in Abhängigkeit von den elektronischen Kartendaten wenigstens teilweise automatisch geführt.
  • In dieser Weise wird eine besonders zuverlässige Weise zum Erzeugen von elektronischen Kartendaten wie zum Beispiel hochauflösenden Karten, HD-Karten, bereitgestellt.
  • Gemäß mehreren Implementierungen werden eines oder mehrere Steuersignale zum wenigstens teilweise automatischen Führen des Kraftfahrzeugs, insbesondere unter Verwendung eines Steuergeräts des elektronischen Fahrzeugführungssystems, in Abhängigkeit von einem korrigierten Zustandsvektor oder in Abhängigkeit von den elektronischen Kartendaten erzeugt.
  • Das eine oder die mehreren Steuersignale können beispielsweise zu einem oder mehreren jeweiligen Aktuatoren zugeführt werden, um die Bewegung des Kraftfahrzeugs zu steuern.
  • Gemäß dem verbesserten Konzept wird auch ein Fahrbahnmarkierungsdetektionssystem bereitgestellt. Das Fahrbahnmarkierungsdetektionssystem weist ein Umfeldsensorsystem auf, das dazu eingerichtet ist, einen ersten Sensordatensatz, der eine Fahrbahnmarkierung zu einem ersten Messzeitpunkt darstellt, und einen zweiten Sensordatensatz, der die Fahrbahnmarkierung zu einem zweiten Messzeitpunkt darstellt, zu erzeugen. Das Fahrbahnmarkierungsdetektionssystem weist wenigstens ein Bewegungssensorsystem auf, das dazu eingerichtet ist, wenigstens einen Bewegungsparameter zu bestimmen, der eine Bewegung des Umfeldsensorsystems relativ zur Fahrbahnmarkierung zwischen dem ersten Messzeitpunkt und dem zweiten Messzeitpunkt charakterisiert. Das Fahrbahnmarkierungsdetektionssystem weist eine Recheneinheit auf, die dazu eingerichtet ist, auf der Basis des ersten vordefinierten Segments einen ersten beobachteten Zustandsvektor zu erzeugen, der die Fahrbahnmarkierung zum ersten Messzeitpunkt geometrisch beschreibt, und auf der Basis des Sensordatensatzes einen zweiten beobachteten Zustandsvektor zu erzeugen, der die Fahrbahnmarkierung zum zweiten Messzeitpunkt geometrisch beschreibt. Die Recheneinheit ist dazu eingerichtet, einen prädizierten Zustandsvektor für den zweiten Messzeitpunkt in Abhängigkeit von dem wenigstens einen Bewegungsparameter und dem ersten beobachteten Zustandsvektor zu berechnen und einen korrigierten Zustandsvektor für den zweiten Messzeitpunkt in Abhängigkeit von dem prädizierten Zustandsvektor und dem zweiten beobachteten Zustandsvektor zu erzeugen.
  • Gemäß mehreren Implementierungen des Fahrbahnmarkierungsdetektionssystems gemäß dem verbesserten Konzept weist das Umfeldsensorsystem ein Lidarsystem auf.
  • In solchen Implementierungen können der erste und der zweite Sensordatensatz jeweilige Punktwolken aufweisen, die auf der Basis von Sensorsignalen des Lidarsystems erzeugt werden.
  • Weitere Implementierungen des Fahrbahnmarkierungsdetektionssystems folgen direkt aus den verschiedenen Implementierungen des Verfahrens zur Fahrbahnmarkierungsdetektion gemäß dem verbesserten Konzept und dem Verfahren zum wenigstens teilweise automatischen Führen eines Kraftfahrzeugs gemäß dem verbesserten Konzept und jeweils umgekehrt. Insbesondere kann ein Fahrbahnmarkierungsdetektionssystem dazu eingerichtet sein, ein Verfahren gemäß dem verbesserten Konzept auszuführen, oder es führt ein Verfahren gemäß dem verbesserten Konzept aus.
  • Gemäß dem verbesserten Konzept wird auch ein elektronisches Fahrzeugführungssystem mit einem Fahrbahnmarkierungsdetektionssystem gemäß dem verbesserten Konzept bereitgestellt. Das elektronische Fahrzeugführungssystem weist ein Steuergerät auf, das dazu eingerichtet ist, ein oder mehrere Steuersignale zum wenigstens teilweise automatischen Führen eines Kraftfahrzeugs in Abhängigkeit von dem korrigierten Zustandsvektor zu erzeugen.
  • Dabei kann die Recheneinheit das Steuergerät aufweisen oder das Steuergerät und die Recheneinheit können separat implementiert sein.
  • Gemäß dem verbesserten Konzept wird auch ein Kraftfahrzeug mit einem elektronischen Fahrzeugführungssystem gemäß dem verbesserten Konzept oder einem Fahrbahnmarkierungsdetektionssystem gemäß dem verbesserten Konzept bereitgestellt.
  • Gemäß dem verbesserten Konzept wird auch ein erstes Computerprogramm mit ersten Befehlen bereitgestellt. Wenn die ersten Befehle beziehungsweise das erste Computerprogramm durch das Fahrbahnmarkierungssystem gemäß dem verbesserten Konzept ausgeführt werden, bewirken die ersten Befehle, dass das Fahrbahnmarkierungssystem ein Verfahren zur Fahrbahnmarkierungsdetektion gemäß dem verbesserten Konzept ausführt.
  • Gemäß dem verbesserten Konzept wird auch ein zweites Computerprogramm mit zweiten Befehlen bereitgestellt. Wenn die zweiten Befehle beziehungsweise das zweite Computerprogramm durch ein elektronisches Fahrzeugführungssystem gemäß dem verbesserten Konzept ausgeführt werden, bewirken die zweiten Befehle, dass das elektronische Fahrzeugführungssystem ein Verfahren zum wenigstens teilweise automatischen Führen eines Kraftfahrzeugs gemäß dem verbesserten Konzept ausführt.
  • Gemäß dem verbesserten Konzept wird auch ein computerlesbares Speichermedium bereitgestellt. Das computerlesbare Speichermedium speichert ein erstes Computerprogramm gemäß dem verbesserten Konzept und/oder ein zweites Computerprogramm gemäß dem verbesserten Konzept.
  • Weitere Merkmale der Erfindung sind aus den Ansprüchen, den Figuren und der Figurenbeschreibung ersichtlich. Die vorstehend in der Beschreibung erwähnten Merkmale und Merkmalskombinationen sowie die nachstehend in der Figurenbeschreibung erwähnten und/oder in den Figuren allein gezeigten Merkmale und Merkmalskombinationen können nicht nur durch das verbesserte Konzept in der jeweils angegebenen Kombination, sondern auch in anderen Kombinationen umfasst sein. Folglich sind Implementierungen des verbesserten Konzepts umfasst und offenbart, die nicht explizit in den Figuren gezeigt oder erläutert sein können, aber aus separierten Merkmalskombinationen aus den erläuterten Implementierungen hervorgehen und erzeugt werden können. Implementierungen und Merkmalskombinationen, die nicht alle Merkmale eines ursprünglich formulierten Anspruchs aufweisen, können durch das verbesserte Konzept umfasst sein. Überdies können Implementierungen und Merkmalskombinationen, die über die in den Rückbezügen der Ansprüche dargelegten Merkmalskombinationen hinausgehen oder davon abweichen, von dem verbesserten Konzept umfasst sein.
  • In den Figuren zeigen:
    • 1 schematisch ein Kraftfahrzeug mit einem elektronischen Fahrzeugführungssystem gemäß dem verbesserten Konzept;
    • 2 schematisch eine beispielhafte Implementierung eines Umfeldsensorsystems;
    • 3 schematisch eine weitere beispielhafte Implementierung eines Umfeldsensorsystems;
    • 4 schematisch ein Beispiel einer Lidarpunktwolke;
    • 5 schematisch eine Möglichkeit, um eine Fahrbahnmarkierung geometrisch anzunähern;
    • 6 beispielhafte Zeitreihen von Zustandsparametern einer Fahrbahnmarkierung;
    • 7 Verteilungen der Parameter aus 6;
    • 8 weitere beispielhafte Zeitreihen von Zustandsparametern einer Fahrbahnmarkierung; und
    • 9 Verteilungen der Parameter aus 8.
  • 1 zeigt ein Kraftfahrzeug 1, das mit einem elektronischen Fahrzeugführungssystem 3 zum wenigstens teilweise automatischen Führen des Kraftfahrzeugs 1 ausgestattet ist. Das elektronische Fahrzeugführungssystem 3 weist ein Fahrbahnmarkierungsdetektionssystem 2 gemäß dem verbesserten Konzept auf.
  • Das Fahrbahnmarkierungsdetektionssystem 2 weist ein Umfeldsensorsystem 4 auf, das beispielsweise als Lidarsystem implementiert ist. Das Fahrbahnmarkierungsdetektionssystem 2 weist ferner eine Recheneinheit 5 auf, die mit dem Umfeldsensorsystem 4 verbunden ist, und einen oder mehrere Bewegungssensoren 6, die mit der Recheneinheit 5 verbunden sind. Die Bewegungssensoren 6 können einen oder mehrere Beschleunigungssensoren und/oder Gierratensensoren und so weiter aufweisen.
  • 2 zeigt schematisch die Konstruktion einer beispielhaften Implementierung des Umfeldsensorsystems 4 als Lidar-Laserscanner. Auf der linken Seite von 2 ist eine Emissionsphase dargestellt, während auf der rechten Seite eine Detektionsphase dargestellt ist.
  • Das Umfeldsensorsystem 4 weist eine Emissionseinheit 7, beispielsweise eine oder mehrere Infrarotlaserquellen, auf, die dazu eingerichtet ist, gepulstes Licht 9 in das Umfeld des Fahrzeugs 1 zu emittieren. Dazu ist eine Modulationseinheit 8, beispielsweise ein drehbarer Spiegel, angeordnet, um die Lichtimpulse 9 in Abhängigkeit von der Position der Modulationseinheit 8 in verschiedene horizontale Richtungen abzulenken. Das anfänglich kollimierte Laserlicht 9 kann defokussiert werden, um einen Strahl mit einem von null verschiedenen Richtungswinkel zu erzeugen, so dass das Licht 9 einen Raumwinkelbereich 10 im Umfeld abdeckt.
  • Das Sensorsystem 4 weist ferner eine Detektionseinheit 11 auf, die beispielsweise eine Gruppe oder eine Anordnung von Photodetektoren enthält, die reflektierte Teile des Lichts 9 sammeln können, das von jeweiligen Teilen des Bereichs 10 einfällt, und das detektierte reflektierte Licht in entsprechende Detektorsignale umwandeln können. Die Recheneinheit 5 kann die Detektorsignale auswerten, um eine jeweilige Position des Punkt der Reflexion im Umfeld und einen Abstand zu diesem Punkt vom Umfeldsensorsystem 4 beispielsweise mittels einer Laufzeitmessung zu bestimmen.
  • Folglich wird eine Punktwolke 16, wie schematisch in 4 dargestellt, bereitgestellt, die aus Messungen besteht, die in einem Kugelkoordinatensystem ausgegeben werden. Die Laufzeitmessung ergibt den jeweiligen radialen Abstand, die Winkelposition der Modulationseinheit 8 bestimmt den horizontalen oder Azimutwinkel und die Position des jeweiligen Detektors 12 mit Bezug auf die Modulationseinheit 8 bestimmt den Polarwinkel oder den vertikalen Winkel. 4 zeigt ein Beispiel einer jeweiligen Punktwolke 16, die in eine zweidimensionale Ebene parallel zur Straßenoberfläche projiziert ist.
  • Wie in 3 dargestellt, kann das Umfeldsensorsystem 4, das am Fahrzeug 1 montiert ist, das auf einer Straße 14 fährt, eine Vielzahl von Schichten von Abtastpunkten erzeugen, wobei jede Schicht einem speziellen optischen Detektor 12 entspricht. In Abhängigkeit davon, ob das entsprechende Licht von der Oberfläche der Straße 14 reflektiert wird, können die Schichten als Bodenschichten 15 beziehungsweise Nicht-Boden-Schichten 20 bezeichnet werden. Die Bodenschichten 15 können daher Fahrbahnmarkierungen 17 auf der Straßenoberfläche 14 darstellen oder repräsentieren, wie in 4 angegeben.
  • Die Recheneinheit 5 kann eine Fahrbahnmarkierung 17, die in der Punktwolke 16 dargestellt ist, beispielsweise mittels eines Polynoms 17' zweiten Grades, wie in 5 dargestellt, nähern. Unter Verwendung des Polynoms 17' zweiten Grades kann die Fahrbahnmarkierung 17 näherungsweise beschrieben werden als y = a x 2 + b x + c ,
    Figure DE102020131130A1_0003
    a = 1 2 r ,
    Figure DE102020131130A1_0004
    b = tan ( θ ) ,
    Figure DE102020131130A1_0005
    c = d .
    Figure DE102020131130A1_0006
  • Dabei entsprechen x und y der Koordinate in der Längs- beziehungsweise Querrichtung eines Sensorkoordinatensystems, das starr mit dem Umfeldsensorsystem 4 verbunden ist, wie in 4 dargestellt. d stellt einen konstanten Querversatz, beispielsweise bei x = 0, dar, θ r stellt den genäherten Winkel dar, den die Tangente zum Polynom 17' bei x = 0 mit der Längsachse einschließt, und r stellt den genäherten Krümmungsradius bei x = 0 dar. Die Recheneinheit 5 kann daher einen beobachteten Zustandsvektor für den jeweiligen Messzeitpunkt erzeugen, der durch x0 = (a, b, c) gegeben ist. Außerdem kann das Umfeldsensorsystem Informationen ausgeben, die ermöglichen, dass die Recheneinheit 5 eine Kovarianzmatrix für den jeweiligen Messzeitpunkt bestimmt. S = ( σ a 2 σ ab σ a c σ ba σ b 2 σ b c σ c a σ c b σ c 2 ) .
    Figure DE102020131130A1_0007
  • Alternativ kann die Recheneinheit die Kovarianzmatrix auf der Basis der Verteilung von vorherigen Messungen und von entsprechenden Zustandsvektoren bestimmen.
  • In dieser Weise erzeugt die Recheneinheit 5 für jeden von einer Vielzahl von aufeinander folgenden Messzeitpunkten einen beobachteten Zustandsvektor und eine entsprechende Kovarianzmatrix. Ferner liest die Recheneinheit 5 kontinuierlich oder wiederholt die Ausgabe der Bewegungssensoren 6, um jeweilige Werte für die Längsgeschwindigkeit vx, die Quergeschwindigkeit vy, und die Gierrate ω des Fahrzeugs 1 und folglich des Umfeldsensorsystems 4 zu bestimmen.
  • Die Recheneinheit 5 wendet einen nicht-linearen Zustandsschätzalgorithmus an, um den Status oder die Situation jeder Fahrbahnmarkierung 17 in Bezug auf das Fahrzeug 1 separat zu prädizieren. Insbesondere ist keine Schlussfolgerung über den Abstand zwischen verschiedenen Fahrbahnmarkierungen 17 erforderlich. Der Vorteil dieser Methode im Vergleich zu linearen Standardschätzern wie zum Beispiel Standard-Kalman-Filtern besteht darin, dass sie nicht auf ein lineares System oder Gauß-Verteilungen beschränkt ist. Daher wird eine bessere Genauigkeit ohne Erhöhung der Rechenkomplexität erreicht. Der Zustandsschätzalgorithmus weist zwei Hauptstufen auf, eine Zeitprojektions- und eine Zeitkorrekturphase.
  • Die Recheneinheit kann auf der Basis des jeweiligen Zustandsvektors für jeden der Messzeitpunkte eine Vielzahl von Abtastzustandsvektoren gemäß der Regel erzeugen x i = { μ + [ ( n + λ ) S ] i 1 i n μ [ ( n + λ ) S ] i n n i 2 n .
    Figure DE102020131130A1_0008
  • Dabei ist λ = (α2(n + κ) - n) ein Skalierungsparameter, n ist die Anzahl von Dimensionen des Zustandsvektors und α und κ sind vordefinierte Parameter, die die Streuung der Punkte um den Mittelwert µ steuern, der beispielsweise durch die Einträge von x0 gegeben sein kann. Der tiefgestellte Index i wählt den i-ten Spaltenvektor der Kovarianzmatrix S aus.
  • In der Zeitprojektionsphase erzeugt die Recheneinheit 5 jeweilige prädizierte Zustandsvektoren durch Projizieren des beobachteten Zustandsvektors und der Abtastzustandsvektoren eines gegebenen Messzeitpunkts k-1 auf den anschließenden Messzeitpunkt k gemäß der zugrundeliegenden Dynamik des Systems, die durch die Zustandsübergangsfunktion dargestellt wird. ƒ ( x k 1 , Δ t ) = ( 1 0 0 2 v x Δ T 1 0 ( v x Δ T ) 2 v x Δ T 1 ) x k 1 + ( 0 tan ( ω Δ t ) v x Δ T ) ,
    Figure DE102020131130A1_0009
    wobei Δt die Zeit zwischen zwei aufeinander folgenden Messzeitpunkten bezeichnet.
  • Das Ergebnis der Zeitprojektionsphase ist dann gegeben durch x ¯ = ω m ƒ ( X k 1 , Δ t ) ,
    Figure DE102020131130A1_0010
    P ¯ = ω c ( ƒ ( X k 1 , Δ t ) x ¯ ) ( ƒ ( X k 1 , Δ t ) x ¯ ) T + V k ,
    Figure DE102020131130A1_0011
    Z = ( h ° ƒ ) ( X k 1 , Δ t ) ,
    Figure DE102020131130A1_0012
    μ z = ω m Z ,
    Figure DE102020131130A1_0013
    P z = ω c ( Z μ z ) ( Z μ z ) T + W k .
    Figure DE102020131130A1_0014
  • Dabei projiziert die erste Gleichung die Abschätzungen des Zustandsvektors und daher die Variablen, um den vorherigen Messzeitpunkt zu verfolgen, in den aktuellen Messzeitpunkt, und die zweite Gleichung projiziert die Kovarianzmatrix des Zustandsvektors in den aktuellen Messzeitpunkt. Die dritte und die vierte Gleichung projizieren den Zustandsvektor in den Messraum, um ihn an die korrekte Dimensionalität anzupassen, und die fünfte Gleichung berechnet die Kovarianz der Messung. In einem einfachen Beispiel weist der Zustandsvektor bereits die Dimension des Messraums auf, dann stellt h die Identität dar. Ferner stellt Xk-1 eine Matrix dar, die x0 und xi des Messzeitpunkts k-1 als Spalten enthält, die Summen laufen über i und für jeden Summanden wird f auf die jeweilige Spalte i der Matrix Xk-1 angewendet. ωc und ωm stellen Gewichte zum Priorisieren von Abtastwerten dar und Vk und Wk stellen Unsicherheiten dar, die das Modell nicht beschreiben kann und die die Sensordarstellung nicht abdecken kann.
  • In der Zeitkorrekturphase werden der Zustandsvektor und seine Kovarianzmatrix in Anbetracht der Differenzen zwischen projizierten Schätzungen und tatsächlichen Messungen, die durch die Verstärkung des Systems gewichtet werden, aktualisiert. x + = x ¯ + K ( z μ z ) ,
    Figure DE102020131130A1_0015
    P + = P ¯ K P z K T ,
    Figure DE102020131130A1_0016
    K = μ z ( ƒ ( X k 1 , Δ t ) x ¯ ) ( Z μ z ) T P z 1 .
    Figure DE102020131130A1_0017
  • Dabei berechnet die dritte Gleichung die Verstärkung des Systems, während die erste und die zweite Gleichung den Zustandsvektor und seine Kovarianz in Anbetracht der Differenzen zwischen Schätzungen und Messungen, die durch die Verstärkung gewichtet werden, aktualisieren. Diese Aktualisierungen können als die Ausgabe der Schätzungen darstellend betrachtet werden, die die Ausgabe des nicht-linearen Zustandsschätzers darstellen.
  • Folglich wird eine Zeitreihe von korrigierten oder aktualisierten Zustandsvektoren und Kovarianzmatrizen erhalten. Die beschriebene Methode interpretiert unabhängig jede Fahrbahnmarkierungspolynomdarstellung, die durch den jeweiligen Zustandsvektor gegeben wird, als Verteilung und nicht nur als einzelnen Abtastwert.
  • Mittels des beschriebenen Mechanismus, insbesondere der Kombination der Polynomdarstellung und der Polynomzustandsschätzung, weist die Ausgabe der Methode eine Polynomdarstellung jeder Fahrbahnmarkierung 17 auf, die verringerte Variationen, insbesondere kleinere Standardabweichungen, hinsichtlich Querversätzen, Orientierung und Krümmung aufzeigt. Ferner kann sie ein gewisses Ausmaß an Kontinuität für das Signal aufgrund des Zeitprojektionsschritts bereitstellen, selbst wenn es nicht gemessen werden kann oder das Ausmaß an vorhandenem Rauschen eine unzuverlässige Messung durchführt.
  • Die beschriebenen Effekte sind in verschiedenen Fahrsituationen zu sehen. In 6 sind beispielsweise Einträge des Zustandsvektors als Funktion der Zeit für ein Fahrmanöver gegeben, wobei das Fahrzeug 1 auf einer geraden Straße 14 gefahren wird und einen Fahrspurwechsel und zurück durchführt. Das obere Feld in 6 zeigt die Krümmung 1/(2r), das mittlere Feld zeigt die Orientierung tan(θ) und das untere Feld zeigt den Querversatz d. 6 zeigt die detektierten Werte des Polynoms, wie sie in der Zeit erfasst werden, als leere Symbole. Die Streuung ist vergleichsweise hoch. Die gefüllten Symbole zeigen die Ausgabe des Verfahrens gemäß dem verbesserten Konzept. Die resultierenden Kurven sind schärfer und die Streuung ist deutlich verringert.
  • 7 zeigt in dem oberen Feld die jeweilige Verteilung 18 für die ursprünglichen Werte und die Verteilung 18' für die Ausgabe des nicht-linearen Zustandsschätzers für die Krümmung 1/(2r). In dem unteren Feld sind die jeweiligen Verteilungen 19, 19' für die Orientierung tan(θ) gezeigt.
  • In 8 ist eine Darstellung analog zu 6 nun für eine spitzwinkligere Situation gezeigt, nämlich Fahren auf einer Autobahnausfahrt, die in einer scharfen Kurve resultiert. 8 zeigt, wie die Änderungen der Detektionen, insbesondere der Krümmung, verfolgt werden, aber das Rauschen wird mittels des Verfahrens gemäß dem verbesserten Konzept stark verringert. Ferner kann den plötzlichen Änderungen der Orientierungen vergleichsweise gut gefolgt werden.
  • 9 zeigt die Verteilungen 18, 18' für die Krümmung in dem oberen Feld und die Verteilungen 19, 19' für die Orientierung in dem unteren Feld für die Fahrsituation von 8. Hier ist deutlich sichtbar, dass die Methode auch für Nicht-Gauß-Verteilungen gut funktioniert.
  • Wie beschrieben, insbesondere mit Bezug auf die Figuren, ermöglicht das verbesserte Konzept eine stabile Fahrbahnmarkierungsdetektion, die eng den tatsächlichen Fahrbahnmarkierungen in einer konsistenten und zuverlässigen Weise folgt. Die Fahrbahnmarkierungen werden durch jeweilige Sätze von Parametern dargestellt, die ihr zugrundeliegendes Muster beschreiben, und können auf einen nicht-linearen Zustandsschätzer angewendet werden, um die Detektion mit Bezug auf die Änderungen der Parameter von Zyklus zu Zyklus zu stabilisieren.
  • Das verbesserte Konzept kann Fahrmanöver wie zum Beispiel hin- und zurückgehende Fahrspurwechsel und vergleichsweise scharfe Kurven handhaben. Abrupte Änderungen der Zeitreihen der Detektionen können vermindert oder sogar vermieden werden. In Implementierungen unter Verwendung eines nicht-linearen Zustandsschätzers können Nicht-Gauß-Prozesse bewältigt werden, müssen jedoch nicht linearisiert werden. Ferner werden die Rechenkosten mit Bezug auf einen linearen Zustandsschätzer nicht erhöht oder wenigstens nicht signifikant erhöht.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 7933433 B2 [0003]

Claims (14)

  1. Verfahren zur Fahrbahnmarkierungsdetektion, wobei ein erster Sensordatensatz, der eine Fahrbahnmarkierung (17) zu einem ersten Messzeitpunkt darstellt, und ein zweiter Sensordatensatz, der die Fahrbahnmarkierung (17) zu einem zweiten Messzeitpunkt darstellt, unter Verwendung eines Umfeldsensorsystems (4) erzeugt werden; dadurch gekennzeichnet, dass - wenigstens ein Bewegungsparameter, der eine Bewegung des Umfeldsensorsystems (4) relativ zur Fahrbahnmarkierung (17) zwischen dem ersten Messzeitpunkt und dem zweiten Messzeitpunkt charakterisiert, bestimmt wird; und - eine Recheneinheit (5) verwendet wird, um - auf der Basis des ersten Sensordatensatzes einen ersten beobachteten Zustandsvektor zu erzeugen, der die Fahrbahnmarkierung (17) zum ersten Messzeitpunkt geometrisch beschreibt; - auf der Basis des zweiten Sensordatensatzes einen zweiten beobachteten Zustandsvektor zu erzeugen, der die Fahrbahnmarkierung (17) zum zweiten Messzeitpunkt geometrisch beschreibt; - einen prädizierten Zustandsvektor für den zweiten Messzeitpunkt in Abhängigkeit von dem wenigstens einen Bewegungsparameter und dem ersten beobachteten Zustandsvektor zu berechnen; und - einen korrigierten Zustandsvektor für den zweiten Messzeitpunkt in Abhängigkeit von dem prädizierten Zustandsvektor und dem zweiten beobachteten Zustandsvektor zu erzeugen.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass - die Recheneinheit (5) verwendet wird, um zwei oder mehr erste Abtastzustandsvektoren für den ersten Messzeitpunkt in Abhängigkeit von dem ersten beobachteten Zustandsvektor und in Abhängigkeit von wenigstens einem Parameter, der eine mehrdimensionale Verteilung beschreibt, zu erzeugen; - der prädizierte Zustandsvektor in Abhängigkeit von den zwei oder mehr ersten Abtastzustandsvektoren berechnet wird.
  3. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die Recheneinheit (5) verwendet wird, um ein erstes Polynom in Abhängigkeit von dem ersten Sensordatensatz zu bestimmen, um die Fahrbahnmarkierung (17) zum ersten Zeitpunkt zu nähern, und ein zweites Polynom in Abhängigkeit von dem zweiten Sensordatensatz zu bestimmen, um die Fahrbahnmarkierung (17) zum zweiten Zeitpunkt zu nähern, wobei der erste beobachtete Zustandsvektor Koeffizienten des ersten Polynoms aufweist und der zweite beobachtete Zustandsvektor Koeffizienten des zweiten Polynoms aufweist.
  4. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die Recheneinheit (5) verwendet wird, um - eine prädizierte Kovarianzmatrix für den zweiten Messzeitpunkt in Abhängigkeit von dem wenigstens einen Bewegungsparameter, dem ersten beobachteten Zustandsvektor und dem prädizierten Zustandsvektor zu berechnen; und - eine korrigierte Kovarianzmatrix für den zweiten Messzeitpunkt in Abhängigkeit von der prädizierten Kovarianzmatrix und dem zweiten beobachteten Zustandsvektor zu erzeugen.
  5. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass - eine Vielzahl von Sensordatensätzen, die die Fahrbahnmarkierung (17) zu jeweiligen aufeinander folgenden Messzeitpunkten darstellen, unter Verwendung des Umfeldsensorsystems (4) erzeugt wird, wobei die Vielzahl von Sensordatensätzen den ersten Sensordatensatz und den zweiten Sensordatensatz aufweist; - für jeden der Messzeitpunkte der wenigstens eine Bewegungsparameter, der die Bewegung des Umfeldsensorsystems (4) relativ zur Fahrbahnmarkierung (17) zwischen dem jeweiligen Messzeitpunkt und einem jeweiligen anschließenden Messzeitpunkt charakterisiert, bestimmt wird; - für jeden der Messzeitpunkte die Recheneinheit (5) verwendet wird, um einen jeweiligen beobachteten Zustandsvektor, der die Fahrbahnmarkierung (17) zum jeweiligen Messzeitpunkt geometrisch beschreibt, auf der Basis des jeweiligen Sensordatensatzes zu erzeugen; - für jeden der Messzeitpunkte abgesehen von einem finalen Messzeitpunkt die Recheneinheit (5) verwendet wird, um - einen prädizierten Zustandsvektor für einen jeweiligen anschließenden Messzeitpunkt in Abhängigkeit von dem jeweiligen wenigstens einen Bewegungsparameter und dem beobachteten Zustandsvektor des jeweiligen Messzeitpunkts zu berechnen; und - einen korrigierten Zustandsvektor für den jeweiligen anschließenden Messzeitpunkt in Abhängigkeit von dem prädizierten Zustandsvektor für den jeweiligen anschließenden Messzeitpunkt und dem beobachteten Zustandsvektor des jeweiligen anschließenden Messzeitpunkts zu erzeugen.
  6. Verfahren zum wenigstens teilweise automatischen Führen eines Kraftfahrzeugs, das die Schritte - eines Verfahrens zur Fahrbahnmarkierungsdetektion nach einem der vorangehenden Ansprüche, wobei das Umfeldsensorsystem (4) am Kraftfahrzeug (1) montiert ist; und - wenigstens teilweise automatisches Führen des Kraftfahrzeugs (1) in Abhängigkeit von dem korrigierten Zustandsvektor, aufweist.
  7. Verfahren nach Anspruch 6, dadurch gekennzeichnet, dass - die Recheneinheit (5) verwendet wird, um elektronische Kartendaten, die ein Umfeld des Kraftfahrzeugs (1) darstellen, in Abhängigkeit von dem korrigierten Zustandsvektor zu erzeugen; und - das Kraftfahrzeug (1) in Abhängigkeit von den elektronischen Kartendaten wenigstens teilweise automatisch geführt wird.
  8. Verfahren nach einem der Ansprüche 6 oder 7, dadurch gekennzeichnet, dass ein oder mehrere Steuersignale zum wenigstens teilweise automatischen Führen des Kraftfahrzeugs (1) in Abhängigkeit von dem korrigierten Zustandsvektor erzeugt werden.
  9. Fahrbahnmarkierungsdetektionssystem mit einem Umfeldsensorsystem (4), das dazu eingerichtet ist, einen ersten Sensordatensatz, der eine Fahrbahnmarkierung (17) zu einem ersten Messzeitpunkt darstellt, und einen zweiten Sensordatensatz, der die Fahrbahnmarkierung (17) zu einem zweiten Messzeitpunkt darstellt, zu erzeugen; dadurch gekennzeichnet, dass - das Fahrbahnmarkierungsdetektionssystem (2) wenigstens ein Bewegungssensorsystem (6) aufweist, das dazu eingerichtet ist, wenigstens einen Bewegungsparameter zu bestimmen, der eine Bewegung des Umfeldsensorsystems (4) relativ zur Fahrbahnmarkierung (17) zwischen dem ersten Messzeitpunkt und dem zweiten Messzeitpunkt charakterisiert; und - das Fahrbahnmarkierungsdetektionssystem (2) eine Recheneinheit (5) aufweist, die dazu eingerichtet ist, - auf der Basis des ersten Sensordatensatzes einen ersten beobachteten Zustandsvektor zu erzeugen, der die Fahrbahnmarkierung (17) zum ersten Messzeitpunkt geometrisch beschreibt; - auf der Basis des zweiten Sensordatensatzes einen zweiten beobachteten Zustandsvektor zu erzeugen, der die Fahrbahnmarkierung (17) zum zweiten Messzeitpunkt geometrisch beschreibt; - einen prädizierten Zustandsvektor für den zweiten Messzeitpunkt in Abhängigkeit von dem wenigstens einen Bewegungsparameter und dem ersten beobachteten Zustandsvektor zu berechnen; und - einen korrigierten Zustandsvektor für den zweiten Messzeitpunkt in Abhängigkeit von dem prädizierten Zustandsvektor und dem zweiten beobachteten Zustandsvektor zu erzeugen.
  10. Fahrbahnmarkierungsdetektionssystem nach Anspruch 9, dadurch gekennzeichnet, dass das Umfeldsensorsystem (4) ein Lidarsystem aufweist.
  11. Elektronisches Fahrzeugführungssystem mit einem Fahrbahnmarkierungsdetektionssystem (2) nach einem der Ansprüche 9 oder 10 und einem Steuergerät, das dazu eingerichtet ist, eines oder mehrere Steuersignale zum wenigstens teilweise automatischen Führen eines Kraftfahrzeugs (1) in Abhängigkeit von dem korrigierten Zustandsvektor zu erzeugen.
  12. Kraftfahrzeug mit einem elektronischen Fahrzeugführungssystem (3) nach Anspruch 11 oder einem Fahrbahnmarkierungsdetektionssystem (2) nach einem der Ansprüche 9 oder 10.
  13. Computerprogramm mit Befehlen, die, - wenn sie durch ein Fahrbahnmarkierungsdetektionssystem (2) nach einem der Ansprüche 9 oder 10 ausgeführt werden, bewirken, dass das Fahrbahnmarkierungsdetektionssystem (2) ein Verfahren nach einem der Ansprüche 1 bis 5 ausführt; oder - wenn sie durch ein elektronisches Fahrzeugführungssystem (3) nach Anspruch 11 ausgeführt werden, bewirken, dass das elektronische Fahrzeugführungssystem (3) ein Verfahren nach einem der Ansprüche 6 bis 8 ausführt.
  14. Computerlesbares Speichermedium, das ein Computerprogramm nach Anspruch 13 speichert.
DE102020131130.3A 2020-11-25 2020-11-25 Fahrbahnmarkierungsdetektion Pending DE102020131130A1 (de)

Priority Applications (7)

Application Number Priority Date Filing Date Title
DE102020131130.3A DE102020131130A1 (de) 2020-11-25 2020-11-25 Fahrbahnmarkierungsdetektion
KR1020237021330A KR20230107688A (ko) 2020-11-25 2021-11-22 도로 표지 검출
US18/038,731 US20240101145A1 (en) 2020-11-25 2021-11-22 Road marking detection
PCT/EP2021/082504 WO2022112175A1 (en) 2020-11-25 2021-11-22 Road marking detection
JP2023531697A JP2023551248A (ja) 2020-11-25 2021-11-22 道路標示検出
EP21819103.9A EP4252202A1 (de) 2020-11-25 2021-11-22 Strassenmarkierungserkennung
CN202180079400.4A CN116490905A (zh) 2020-11-25 2021-11-22 道路标记检测

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102020131130.3A DE102020131130A1 (de) 2020-11-25 2020-11-25 Fahrbahnmarkierungsdetektion

Publications (1)

Publication Number Publication Date
DE102020131130A1 true DE102020131130A1 (de) 2022-05-25

Family

ID=78820308

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102020131130.3A Pending DE102020131130A1 (de) 2020-11-25 2020-11-25 Fahrbahnmarkierungsdetektion

Country Status (7)

Country Link
US (1) US20240101145A1 (de)
EP (1) EP4252202A1 (de)
JP (1) JP2023551248A (de)
KR (1) KR20230107688A (de)
CN (1) CN116490905A (de)
DE (1) DE102020131130A1 (de)
WO (1) WO2022112175A1 (de)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6823241B2 (en) 2000-10-02 2004-11-23 Nissan Motor Co., Ltd. Lane recognition apparatus for vehicle
US7933433B2 (en) 2006-05-23 2011-04-26 Denso Corporation Lane marker recognition apparatus

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019241022A1 (en) * 2018-06-13 2019-12-19 Nvidia Corporation Path detection for autonomous machines using deep neural networks

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6823241B2 (en) 2000-10-02 2004-11-23 Nissan Motor Co., Ltd. Lane recognition apparatus for vehicle
US7933433B2 (en) 2006-05-23 2011-04-26 Denso Corporation Lane marker recognition apparatus

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Norm SAE J3016 2016-09-00. Taxonomy and definitions for terms related to driving automation systems for on-road motor vehicles. S. 1-30. Bibliographieinformationen ermittelt über: http://standards.sae.org/j3016_201609/ [abgerufen am 16.05.2017].

Also Published As

Publication number Publication date
WO2022112175A1 (en) 2022-06-02
CN116490905A (zh) 2023-07-25
EP4252202A1 (de) 2023-10-04
US20240101145A1 (en) 2024-03-28
JP2023551248A (ja) 2023-12-07
KR20230107688A (ko) 2023-07-17

Similar Documents

Publication Publication Date Title
EP3584663B1 (de) Verfahren zur automatischen querführung eines folgefahrzeugs in einem fahrzeug-platoon
DE102010005293B4 (de) System und Verfahren zur Spurpfadschätzung unter Verwendung einer Sensorvereinigung
DE102007005121B4 (de) Verfahren und Vorrichtung für eine fahrzeuginterne Kalibrierung und Orientierung von Objektverfolgungssystemen
EP3177498B1 (de) Verfahren zum erzeugen einer umgebungskarte eines umgebungsbereichs eines kraftfahrzeugs, fahrerassistenzsystem sowie kraftfahrzeug
DE102018111778A1 (de) Verfahren, Vorrichtung und System zur Steuerung eines Fahrzeugs, das eine Kreuzung passiert.
EP1421568B1 (de) Verfahren zur bestimmung einer modellfahrbahn
DE112019000873T5 (de) System und Verfahren zum Erzeugen eines Zielpfades für ein Fahrzeug
EP2963631B1 (de) Verfahren zum ermitteln eines parkplatzes aus einer anzahl von messpunkten
DE102019112413A1 (de) Verfahren und vorrichtung zur multi-sensor-datenfusion für automatisierte und autonome fahrzeuge
DE112018008222T5 (de) Bewegungsplan-erzeugungseinrichtung und autonomes fahrsystem
DE102018217845A1 (de) Einrichtung und Verfahren zum Regeln eines Prozesses
DE102017222017A1 (de) Verfahren und System zum Ermitteln und Bereitstellen eines Bodenprofils
DE102022111798A1 (de) Verknüpfung von wahrgenommenen und kartierten fahrbahnrändern zur lokalisierung
DE102018222862A1 (de) Verfahren und System zur Lokalisierung einer Akustikquelle relativ zu einem Fahrzeug
DE102019132150A1 (de) Verfahren zum automatischen Kalibrieren eines Umfeldsensors, insbesondere eines Lidar-Sensors, eines Fahrzeugs auf Grundlage von Belegungskarten sowie Recheneinrichtung
DE102021110099A1 (de) Wegprädiktion für ein Fahrzeug
EP1724726B1 (de) Verfahren und Vorrichtung zur Parkraumvermessung mittels einer Monokamera
DE102020106680A1 (de) System und verfahren zum steuern des betriebs einer vorrichtung mit einem lenkbaren optischen sensor und einer lenkbaren radareinheit
WO2020160796A1 (de) Verfahren und vorrichtung zur multi-sensor-datenfusion für automatisierte und autonome fahrzeuge
DE102020131130A1 (de) Fahrbahnmarkierungsdetektion
DE112022002046T5 (de) Fahrvorrichtung, fahrzeug und verfahren zum automatisierten fahren und/oder assistierten fahren
DE10333670B4 (de) Verfahren zum Ermitteln des Fahrbahnverlaufes aus Bilddaten
DE102021202641A1 (de) Verfahren zur Bestimmung eines Bewegungszustands eines starren Körpers
DE102019132151A1 (de) Verfahren zum Kalibrieren eines Umfeldsensors eines Fahrzeugs anhand von Daten eines Referenz-Umfeldsensors unter Berücksichtigung von Belegungskarten, Recheneinrichtung sowie Sensorsystem
DE102009020648A1 (de) Verfahren und Vorrichtung zur Kollisionsvermeidung für ein Fahrzeug durch Ausweichen vor einem Hindernis

Legal Events

Date Code Title Description
R163 Identified publications notified