DE102011107190B4 - Verfahren zum Bestimmen der Position eines Fahrzeugs in einer Fahrspur - Google Patents

Verfahren zum Bestimmen der Position eines Fahrzeugs in einer Fahrspur Download PDF

Info

Publication number
DE102011107190B4
DE102011107190B4 DE102011107190.7A DE102011107190A DE102011107190B4 DE 102011107190 B4 DE102011107190 B4 DE 102011107190B4 DE 102011107190 A DE102011107190 A DE 102011107190A DE 102011107190 B4 DE102011107190 B4 DE 102011107190B4
Authority
DE
Germany
Prior art keywords
lane
vehicle
facing camera
camera module
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102011107190.7A
Other languages
English (en)
Other versions
DE102011107190A1 (de
Inventor
Shuqing Zeng
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GM Global Technology Operations LLC
Original Assignee
GM Global Technology Operations LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GM Global Technology Operations LLC filed Critical GM Global Technology Operations LLC
Publication of DE102011107190A1 publication Critical patent/DE102011107190A1/de
Application granted granted Critical
Publication of DE102011107190B4 publication Critical patent/DE102011107190B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/30Road curve radius

Abstract

Verfahren zum Bestimmen der Position eines Fahrzeugs in einer Fahrspur, wobei das Verfahren umfasst:Liefern von Daten von einem nach vorn gerichteten Kameramodul an Bord des Fahrzeugs;Liefern von Daten von einem nach hinten gerichteten Kameramodul an Bord des Fahrzeugs;Liefern von Daten von Fahrzeugdynamiksensoren an Bord des Fahrzeugs; undZusammenführen der Daten von dem nach vorn gerichteten Kameramodul, von dem nach hinten gerichteten Kameramodul und von den Fahrzeugdynamiksensoren zu einem kombinierten Satz von Fahrspurgeometrieinformationen, um die Position des Fahrzeugs in der Fahrspur zu bestimmen,wobei das Liefern von Daten von einem nach vorn gerichteten Kameramodul das Liefern von Informationen über die Geometrie der vorderen Fahrspur von einem vollwertigen Erfassungssystem der vorderen Fahrspur enthält und das Liefern von Daten von einem nach hinten gerichteten Kameramodul das Liefern von Informationen über die Geometrie der hinteren Fahrspur von einem vollwertigen Erfassungssystem der hinteren Fahrspur enthält,wobei das Zusammenführen der Daten von dem nach vorn gerichteten Kameramodul, von dem nach hinten gerichteten Kameramodul und von den Fahrzeugdynamiksensoren das Verwenden einer Kalman-Filterroutine zum gemeinsamen Schätzen der Fahrspurgeometrieinformationen und der Fehlausrichtungswinkel des nach vorn gerichteten Kameramoduls und des nach hinten gerichteten Kameramoduls enthält, undwobei die Kalman-Filterroutine die Fahrspurkrümmung, die Fahrzeugorientierung in Bezug auf die Tangente der Fahrspur, eine Verlagerung der Mitte eines vorderen Stoßfängers gegenüber einer Fahrspurbegrenzung, die Azimutfehlausrichtung des nach vorn gerichteten Kameramoduls und die Azimutfehlausrichtung des nach hinten gerichteten Kameramoduls als Zustandsvariablen verwendet und die Zustandsvariablen gleichzeitig bestimmt.

Description

  • HINTERGRUND DER ERFINDUNG
  • 1. Gebiet der Erfindung
  • Diese Erfindung bezieht sich allgemein auf ein Verfahren zum Bestimmen der Position eines Fahrzeugs in einer Fahrspur und insbesondere auf ein Fahrspurpositionsverfahren für ein Trägerfahrzeug, das eine Zusammenführung von Bilddaten von einer nach vorn gerichteten und von einer nach hinten gerichteten Kamera und von Daten von Fahrzeugdynamiksensoren verwendet, um Fahrspurparameter einschließlich der Fahrspurkrümmung und der Position und der Orientierung des Trägerfahrzeugs relativ zu einem Fahrspurreferenzweg zu berechnen.
  • 2. Erläuterung des verwandten Gebiets
  • Viele moderne Fahrzeuge enthalten Bordkameras, die für eine Vielzahl von Zwecken verwendet werden. Eine übliche Anwendung ist eine nach vorn gerichtete Kamera, die Bilder zur Verwendung in einem Kollisionsverhütungssystem, in einem Spurverlassenswarnsystem, in einem Quersteuersystem oder in einer Kombination dieser oder anderer Systeme liefern kann. Allerdings können Bedingungen entstehen, die verhindern, dass von der nach vorn gerichteten Kamera ein gutes Bild erhalten wird. Solche Bedingungen enthalten ein vorausfahrendes Fahrzeug in engem Abstand, das viel vom Blickfeld der Kamera versperrt, und Witterungsbedingungen mit schlechter Sichtbarkeit wie etwa Regen und Nebel, die das Bild der Kamera undeutlich machen. Wenn unter diesen Bedingungen kein verwendbares Bild von der nach vorn gerichteten Kamera verfügbar ist, können Systeme, die sich für die Eingabe auf das Bild der Kamera stützen, nicht betrieben werden.
  • Währenddessen sind viele neuere Fahrzeuge außerdem mit einer nach hinten gerichteten Kamera ausgestattet, die normalerweise nur zur Sicherungsunterstützung verwendet wird wie etwa, um ein Videobild für den Fahrer zu liefern, um zu sehen, was sich hinter dem Fahrzeug befindet. Obgleich diese nach hinten gerichteten Kameras üblicherweise eine Auflösung und ein Gesichtsfeld aufweisen, die für andere Bilddaten-Sammelzwecke mehr als ausreichend sind, werden sie bisher nicht verwendet, um die Bilder von nach vorn gerichteten Kameras für Fahrspurpositions- und Seitensteueranwendungen zu ergänzen.
  • Es besteht eine Möglichkeit, die von einer nach hinten gerichteten Kamera verfügbaren Bilddaten zu verwenden und sie mit Bilddaten von einer nach vorn gerichteten Kamera und mit anderen Sensoren zu kombinieren, um ein robusteres Fahrspurerfassungssystem zu schaffen. Das resultierende Zweikamerasystem nutzt nicht nur unter normalen Bedingungen mehr Eingangsdaten, sondern liefert auch eine verwendbare Quelle für Bilddaten, um den Betrieb des Systems zu ermöglichen, wenn die Bedingungen für die nach vorn gerichtete Abbildung unvorteilhaft sind.
  • Herkömmliche Verfahren zum Bestimmen der Position eines Fahrzeugs in einer Fahrspur sind aus den Druckschriften DE 10 2007 017 293 A1 , US 2004 / 0 164 851 A1 , DE 10 2004 024 692 A1 , WO 2007 / 002 964 A2 und US 6 718 259 B1 bekannt. Die Druckschrift DE 11 2007 000 371 T5 beschreibt ein herkömmliches Objekterkennungsverfahren.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • In Übereinstimmung mit den Lehren der vorliegenden Erfindung werden ein Verfahren und ein System zum Berechnen der Fahrspurkrümmung und der Position und der Orientierung eines Trägerfahrzeugs relativ zu Fahrspurbegrenzungen unter Verwendung von Bilddaten einer nach vorn gerichteten und einer nach hinten gerichteten Kamera und von Fahrzeugdynamiksensoren als Eingabe offenbart. Ein Trägerfahrzeug enthält vorn und hinten eine Kamera, die zum Detektieren von Fahrbahnbegrenzungen wie etwa u. a. Bordsteinkanten und Fahrspurstreifen verwendet werden können. Außerdem enthält das Trägerfahrzeug Fahrzeugdynamiksensoren einschließlich für die Fahrzeuggeschwindigkeit und für die Gierrate. Es wird ein Verfahren entwickelt, das die Fahrspurkrümmung und die Position des Trägerfahrzeugs relativ zu einem Fahrspurreferenzweg berechnet, wobei der Fahrspurreferenzweg aus den Fahrspurbegrenzungen abgeleitet wird, die aus einer Zusammenführung der Bilder der Front- und der Heckkamera entnommen werden. Die in der Offenbarung geschaffenen mathematischen Modelle enthalten eine Kalman-Filter-Nachführungsroutine und eine Teilchenfilter-Nachführungsroutine.
  • Ein erfindungsgemäßes Verfahren zum Bestimmen der Position eines Fahrzeugs in einer Fahrspur umfasst das Liefern von Daten von einem nach vorn gerichteten Kameramodul an Bord des Fahrzeugs, das Liefern von Daten von einem nach hinten gerichteten Kameramodul an Bord des Fahrzeugs, das Liefern von Daten von Fahrzeugdynamiksensoren an Bord des Fahrzeugs und das Zusammenführen der Daten von dem nach vorn gerichteten Kameramodul, von dem nach hinten gerichteten Kameramodul und von den Fahrzeugdynamiksensoren zu einem kombinierten Satz von Fahrspurgeometrieinformationen, um die Position des Fahrzeugs in der Fahrspur zu bestimmen. Das Liefern von Daten von einem nach vorn gerichteten Kameramodul enthält das Liefern von Informationen über die Geometrie der vorderen Fahrspur von einem vollwertigen Erfassungssystem der vorderen Fahrspur und das Liefern von Daten von einem nach hinten gerichteten Kameramodul enthält das Liefern von Informationen über die Geometrie der hinteren Fahrspur von einem vollwertigen Erfassungssystem der hinteren Fahrspur. Das Zusammenführen der Daten von dem nach vorn gerichteten Kameramodul, von dem nach hinten gerichteten Kameramodul und von den Fahrzeugdynamiksensoren enthält das Verwenden einer Kalman-Filterroutine zum gemeinsamen Schätzen der Fahrspurgeometrieinformationen und der Fehlausrichtungswinkel des nach vorn gerichteten Kameramoduls und des nach hinten gerichteten Kameramoduls. Die Kalman-Filterroutine verwendet die Fahrspurkrümmung, die Fahrzeugorientierung in Bezug auf die Tangente der Fahrspur, eine Verlagerung der Mitte eines vorderen Stoßfängers gegenüber einer Fahrspurbegrenzung, die Azimutfehlausrichtung des nach vorn gerichteten Kameramoduls und die Azimutfehlausrichtung des nach hinten gerichteten Kameramoduls als Zustandsvariablen und bestimmt die Zustandsvariablen gleichzeitig.
  • Zusätzliche Merkmale der vorliegenden Erfindung gehen aus der folgenden Beschreibung und aus den beigefügten Ansprüchen in Verbindung mit den beigefügten Zeichnungen hervor.
  • Figurenliste
    • 1 ist ein Blockschaltplan eines Fahrzeugquersteuersystems, das eine Front- und eine Heckkamera und andere Eingabequellen verwendet;
    • 2 ist ein Diagramm eines Fahrradmodells für die Quersteuerung eines Trägerfahrzeugs;
    • 3 ist ein Diagramm des Trägerfahrzeugs, das viele der Hauptparameter des Quersteuermodells zeigt;
    • 4 ist ein Steuerblockdiagramm, das zeigt, wie das Fahrzeugquersteuermodell implementiert wird;
    • 5 ist ein Blockschaltplan eines Systems für die Fahrzeugquersteuerung unter Verwendung einer 2-Kamera-Fahrspurzusammenführungs-Herangehensweise;
    • 6 ist ein Blockschaltplan einer ersten Ausführungsform eines Fahrspurzusammenführungssystems unter Verwendung der Eingabe von zwei Kameras;
    • 7 ist ein Blockschaltplan einer zweiten Ausführungsform eines Fahrspurzusammenführungssystems unter Verwendung der Eingabe von zwei Kameras;
    • 8 ist ein Diagramm, das ein Beispiel einer Fahrspurstreifendarstellung für ein Szenarium zeigt, bei dem mehrere kurze Streifen und ein langer Bogen detektiert worden sind;
    • 9 ist ein Histogramm, das zeigt, wie die Verlagerung des Trägerfahrzeugs gegenüber den Fahrspurbegrenzungen berechnet werden kann;
    • 10 ist ein Ablaufplan des Kalman-Filter-Nachführungsverfahrens, das in dem Fahrspurnachführungsmodul aus 7 verwendet wird; und
    • 11 ist ein Ablaufplan des Teilchenfilter-Nachführungsverfahrens, das in dem Fahrspurnachführungsmodul aus 7 verwendet wird.
  • AUSFÜHRLICHE BESCHREIBUNG DER AUSFÜHRUNGSFORMEN
  • Die folgende Diskussion der Ausführungsformen der Erfindung, die auf ein Fahrspurzusammenführungssystem unter Verwendung einer nach vorn gerichteten und einer nach hinten gerichteten Kamera gerichtet ist, ist dem Wesen nach lediglich beispielhaft.
  • Viele moderne Fahrzeuge enthalten nach vorn gerichtete Kameras und Systeme, die die Bilddaten von den nach vorn gerichteten Kameras in Anwendungen wie etwa Spurwechselwarnung und Quersteuerungsunterstützung verwenden. Allerdings können Bilder von nach vorn gerichteten Kameras durch ein vorausfahrendes Fahrzeug verdeckt werden oder durch Sonnenblendung, Nebel, Regen oder Schnee undeutlich gemacht werden, was die Zuverlässigkeit von Anwendungen, die sich auf die Bilder stützen würden, verringert. Angesichts der zunehmenden Verfügbarkeit von nach hinten gerichteten Kameras, die häufig hauptsächlich für die Sicherungsunterstützung verwendet werden, ist es sinnvoll, die Bilddaten der nach hinten gerichteten Kamera als eine Ergänzung für die Bilddaten der nach vorn gerichteten Kameras zu verwenden. Die Bilddaten der nach vorn gerichteten und der nach hinten gerichteten Kamera können zusammen mit GPS- und digitalen Kartendaten, Fahrzeugdynamiksensoren und radargestützten oder anderen Systemen, die ein Fahrzeug auf der Straße vor dem Trägerfahrzeug detektieren können, in fortgeschrittenen Anwendungen für verbesserte Sicherheit und Fahrzeugsteuerung verwendet werden.
  • In einer Herangehensweise werden die Datenquellen direkt in einer Fahrzeugquersteueranwendung verwendet. 1 ist ein Blockschaltplan eines Systems 10 für die Quersteuerung eines Fahrzeugs unter Verwendung einer nach vorn gerichteten und einer nach hinten gerichteten Kamera und anderer Datenquellen. Wie im Folgenden diskutiert wird, verwendet das System 10 Bilddaten von einer nach vorn gerichteten Kamera 12 und von einer nach hinten gerichteten Kamera 14. Ein System 16 für die Position des vorausfahrenden Fahrzeugs, das ein Weitbereichsradar (LRR) oder ein System eines anderen Typs sein kann, führt die Position eines vorausfahrenden Fahrzeugs nach, um den Weg der Fahrbahn zu schätzen. Straßenkrümmungsinformationen von einem GPS-gestützten Navigationssystem oder von einer digitalen Karte 18 liefern eine andere Quelle von Daten für das System 10. Die Eingaben von der nach vorn gerichteten Kamera 12, von der nach hinten gerichteten Kamera 14, von dem System 16 für die Position des vorausfahrenden Fahrzeugs und von der digitalen Karte 18 werden alle von einem Fahrzeugquersteuermodul 20 verwendet, dessen Betrieb im Folgenden diskutiert wird.
  • 2 ist ein Diagramm eines Fahrradmodells 30 für die Fahrzeugquersteuerung, das durch Kombinieren der zwei Räder jeder Achse zu einem Rad bei der Mittellinie des Fahrzeugs erhalten wird. 3 ist ein Diagramm eines Steuermodells 40, das eine weitere Einzelheit zu dem Fahrzeugmodell 30 hinzufügt. Gleiche Elemente und Dimensionen nutzen in 2 und 3, die zusammen diskutiert werden, dieselben Bezugszeichen. Die folgende Tabelle wird als ein Index der in 2 und 3 gezeigten Gegenstände und Dimensionen einschließlich ihrer Bezugszeichen und Beschreibungen gegeben.
    Bezugszeichen Symbol Beschreibung
    30 n. v. Fahrradmodell
    40 n. v. Steuermodell
    50 n. v. Trägerfahrzeug
    52 n. v. Vorderreifen
    54 n. v. Hinterreifen
    56 n. v. Schwerpunkt
    60 n. v. Fahrspurreferenzweg
    62 κ Fahrspurkrümmung
    64 Δ yF vordere seitliche Verlagerung
    66 Δ yT hintere seitliche Verlagerung
    68 d F Längsabstand vor dem Schwerpunkt
    70 d T Längsabstand hinter dem Schwerpunkt
    72 I F Abstand der Vorderachse vom Schwerpunkt
    74 I T Abstand der Hinterachse vom Schwerpunkt
    80 n. v. vorausfahrendes Zielfahrzeug
    82 X 0 Vorwärtsabstand des vorausfahrenden Zielfahrzeugs vom Schwerpunkt des Trägerfahrzeugs
    84 Y 0 Querabstand des vorausfahrenden Zielfahrzeugs vom Schwerpunkt des Trägerfahrzeugs
    86 θ 0 Richtungswinkel des vorausfahrenden Zielfahrzeugs in Bezug auf das Trägerfahrzeug
    92 υyH Quergeschwindigkeit des Trägerfahrzeugs
    94 υxH Längsgeschwindigkeit des Trägerfahrzeugs
    96 ωH Gierrate des Trägerfahrzeugs
    98 δ F Vorderrad-Lenkwinkel
    100 n. v. Fahrzeugweg
    102 n. v. Richtungslinie
    104 α 0 seitlicher Versatz zwischen der Richtungslinie und dem Fahrzeugweg beim Vorwärtsabstand 82
    106 ε 0 seitlicher Versatz zwischen dem Fahrzeugweg und dem Fahrspurreferenzweg beim Vorwärtsabstand 82
    108 α F seitlicher Versatz zwischen der Richtungslinie und dem Fahrzeugweg beim Vorwärtsabstand 68
    110 ε F seitlicher Versatz zwischen dem Fahrzeugweg und dem Fahrspurreferenzweg beim Vorwärtsabstand 68
    112 α T seitlicher Versatz zwischen der Richtungslinie und dem Fahrzeugweg beim Rückwärtsabstand 70
    114 ε T seitlicher Versatz zwischen dem Fahrzeugweg und dem Fahrspurreferenzweg beim Rückwärtsabstand 70
    120 θ F Fahrzeugorientierungswinkel in Bezug auf die Tangente an den Fahrspurreferenzweg beim Vorwärtsabstand 68
    122 θ T Fahrzeugorientierungswinkel in Bezug auf die Tangente an den Fahrspurreferenzweg beim Rückwärtsabstand 70
  • Ein Trägerfahrzeug 50 ist der Gegenstand des Fahrradmodells 30 und des Steuermodells 40, die in dem Fahrzeugquersteuermodul 20 verwendet werden. Das Trägerfahrzeug 50 ist in dem Fahrradmodell 30 durch einen Vorderreifen 52, durch einen Hinterreifen 54 und durch einen Schwerpunkt 56 dargestellt. Es wird angenommen, dass das Trägerfahrzeug 50 nach Bedarf mit einem Gierratensensor (nicht gezeigt) und mit anderen Sensoren ausgestattet ist, um seine Längs- und Quergeschwindigkeit zu kennen.
  • Es wird angenommen, dass ein Fahrspurreferenzweg 60 die Mittellinie eines kreisförmigen Fahrspurwegs mit der Krümmung κ ist, für die ein Schätzwert von der digitalen Karte 18 kommt. Für das erweiterte Quersteuersystem, wie es in dem Fahrradmodell 30 betrachtet wird, wird die seitliche Verlagerung des Trägerfahrzeugs 50 von dem Fahrspurreferenzweg 60 durch die nach vorn gerichtete Kamera 12 bzw. durch die nach hinten gerichtete Kamera 14 sowohl als eine vordere seitliche Verlagerung ΔyF als auch als eine hintere seitliche Verlagerung ΔyT gemessen. Die Verlagerungsmesswerte werden durch die Kameras bei einem Längsabstand dF vor dem Schwerpunkt 56 und bei einem Abstand dT hinter dem Schwerpunkt 56 erfasst. Die Abstände dF und dT sind zeitabhängig und hängen von der Qualität der durch die Kameras 12 und 14 detektierten Fahrspurmarkierungen, von der Verdeckung durch ein vorausfahrendes oder ein folgendes Fahrzeug und von den Beleuchtungsbedingungen ab.
  • Das System 16 für die Position des vorausfahrenden Fahrzeugs an Bord des Trägerfahrzeugs 50 kann ein vorausfahrendes Zielfahrzeug 80 detektieren und seinen Längsabstand X0, seinen Querabstand Yo und seinen Richtungswinkel θ0 liefern. Als das vorausfahrende Zielfahrzeug 80 wird nur ein Fahrzeug unmittelbar vor dem Trägerfahrzeug 50 und innerhalb eines Abstandsschwellenwerts (z. B. 50 m) betrachtet. Andere Fahrzeugparameter in dem Fahrradmodell 30 sind die Abstände lF und lT der Vorder- bzw. der Hinterachse von dem Schwerpunkt 56. Drei Trägerfahrzeug-Zustandsvariable sind ebenfalls gezeigt: die Fahrzeugquergeschwindigkeit υyH, die Fahrzeuglängsgeschwindigkeit υxH und die Fahrzeuggierrate ωH. Ein Vorderradlenkwinkel δF ist die Eingabe des Lenkautomatiksystems, wie sie durch das Quersteuersystem 20 angewiesen wird.
  • Ein Fahrzeugweg 100 beschreibt den Weg, dem das Trägerfahrzeug 50 gegenwärtig folgt, und eine Richtungslinie 102 stellt eine Gerade durch die Mittellinie des Trägerfahrzeugs 50 dar. Der Abstand α0 ist der seitliche Versatz zwischen der Richtungslinie 102 und dem Fahrzeugweg 100 bei dem Vorwärtsabstand Xo. Der Abstand ε0 ist der seitliche Versatz zwischen dem Fahrzeugweg 100 und dem Fahrspurreferenzweg 60 bei dem Vorwärtsabstand Xo. Der Abstand αF ist der seitliche Versatz zwischen der Richtungslinie 102 und dem Fahrzeugweg 100 bei dem Vorwärtsabstand dF. Der Abstand εF ist der seitliche Versatz zwischen dem Fahrzeugweg 100 und dem Fahrspurreferenzweg 60 bei dem Rückwärtsabstand dF. Der Abstand αT ist der seitliche Versatz zwischen der Richtungslinie 102 und dem Fahrzeugweg 100 bei dem Rückwärtsabstand dr. Der Abstand εT ist der seitliche Versatz zwischen dem Fahrzeugweg 100 und dem Fahrspurreferenzweg 60 bei dem Rückwärtsabstand dT.
  • Die Fahrzeugorientierung in Bezug auf die Tangente an den Fahrspurreferenzweg bei dem Vorwärtsabstand dF ist durch den Winkel θF dargestellt, und die Fahrzeugorientierung in Bezug auf die Tangente an den Fahrspurreferenzweg bei dem Rückwärtsabstand dT ist durch den Winkel θT dargestellt.
  • Außer den Elementen und Dimensionen, die in dem Fahrradmodell 30 und in dem Steuermodell 40 gezeigt sind, müssen auch die folgenden Symbole definiert werden: m = Gesamtmasse des Trägerfahrzeugs 50; Iω = Gesamtträgheit des Trägerfahrzeugs 50 um den Schwerpunkt 56; l = Abstand zwischen der Vorder- und der Hinterachse, (l = lF + lT); und CF, cT = Schräglaufsteifigkeit der Vorder- und der Hinterreifen 52 bzw. 54.
  • Ein linearisiertes Fahrradzustandsraummodell der Querfahrzeugdynamik kann geschrieben werden als: [ v ˙ y H ω ˙ H ] = [ C F + c T m v x H c T l T c F l F m v x H v x H l F c F + l T c T l ω v x H l F 2 c F + l T 2 c T I ω v x H ] [ v y H ω H ] + [ c F m l F c F I ω ] δ F .
    Figure DE102011107190B4_0001
  • Die Zustandsraumgleichungen, die die Entwicklung der Messwerte der nach vorn gerichteten Kamera wegen der Bewegung des Trägerfahrzeugs 50 und Änderungen der Straßengeometrie erfassen, sind: Δ y ˙ F = v x H θ F v y H ω H d F ,
    Figure DE102011107190B4_0002
    θ ˙ F = v x H κ ω H .
    Figure DE102011107190B4_0003
  • Ähnlich sind die Zustandsraumgleichungen, die die Entwicklung der Messwerte der nach hinten gerichteten Kamera wegen der Bewegung des Trägerfahrzeugs 50 und Änderungen der Straßengeometrie erfassen: Δ y ˙ T = v x H θ T v y H ω H d T ,
    Figure DE102011107190B4_0004
    θ ˙ T = v x H κ ω H .
    Figure DE102011107190B4_0005
  • Es wird angenommen, dass das vorausfahrende Zielfahrzeug 80 der Mittellinie des Fahrspurreferenzwerts 60 folgt, daher sind die Zustandsraumgleichungen, die die Entwicklung der Radarmesswerte wegen der Bewegung des Trägerfahrzeugs 50 und Änderungen der Straßengeometrie erfassen: Y ˙ O = v x H θ O v y H ω H X O ,
    Figure DE102011107190B4_0006
    θ ˙ O = v x H κ ω H .
    Figure DE102011107190B4_0007
  • Die Fahrzeugquerdynamik, die Frontkameradynamik, die Heckkameradynamik und die Dynamik des vorausfahrenden Zielfahrzeugs, die in den Gleichungen (1) - (7) beschrieben sind, können dann zu einem einzelnen dynamischen System der folgenden Form kombiniert werden: [ v ˙ y H ω ˙ H Δ y ˙ F θ ˙ F Δ y ˙ T θ ˙ T Y ˙ O θ ˙ O ] = [ c F + c T m v x H c T l T c F l F m v x H v x H 0 0 0 0 0 0 l F c F + l T c T I ω v x H l F 2 c F + l T 2 c T I ω v x H 0 0 0 0 0 0 1 d F 0 v x H 0 0 0 0 0 1 0 0 0 0 0 0 1 d T 0 0 0 v x H 0 0 0 1 0 0 0 0 0 0 1 X O 0 0 0 0 0 v x H 0 1 0 0 0 0 0 0 ] [ v y H ω H Δ y F θ F Δ y T θ T Y O θ O ] + [ c F m l F c F I ω 0 0 0 0 0 0 ] δ F + [ 0 0 0 v x H κ 0 v x H κ 0 v x H κ ]
    Figure DE102011107190B4_0008
    oder kurz als: x ˙ = ƒ ( x ) + g ( δ F ) .
    Figure DE102011107190B4_0009
  • Es bezeichne y = [ω̇H ΔẏF θ̇F ΔẏT θ̇T0 θ̇̇0]T die Ausgabe des dynamischen Systems, beobachtet durch den Gierratensensor, durch die nach vorn gerichtete Kamera 12, durch die nach hinten gerichteten Kamera 14 und durch das System 16 für die Position des vorausfahrenden Fahrzeugs. Die Beobachtungsgleichung kann geschrieben werden als y = o ( x ) .
    Figure DE102011107190B4_0010
  • Mit Bezug auf den Fahrspurreferenzweg 60 und den Fahrzeugweg 100 aus 3 ist das Ziel des Seitensteuermoduls 20 das Nachführen der Fahrbahn durch Regulieren der seitlichen Differenzen zwischen dem Fahrspurreferenzwert 60 (d. h. ΔyF, ΔyT und Y0) und dem Fahrzeugweg 100 (d. h. αF, αT und α0) bei den durch die nach vorn gerichtete Kamera 12, durch die nach hinten gerichtete Kamera 14 und durch das System 16 für die Position des vorausfahrenden Fahrzeugs in dieser Reihenfolge gemessenen Abständen dF, dT und Xo. Das heißt, das Steuerziel ist das Minimieren von: J = w F ε F w T ε T + w O ε O ,
    Figure DE102011107190B4_0011
    wobei εF = ΔyF - αF, εT = ΔyT - αT und ε0 = Y0 - α0 sind; und wobei ωF, ωT und ω0 normierte positive Gewichte derart sind, dass ωF + ωT + ω0 = 1 ist.
  • Gleichung (9) kann dann geschrieben werden als: J = h ( x ) .
    Figure DE102011107190B4_0012
  • Die Rückkopplungslinearisierung ist eine übliche Herangehensweise, die beim Regeln eines nichtlinearen Systems verwendet wird. Diese Herangehensweise umfasst, dass eine Transformation eines nichtlinearen Systems in ein äquivalentes lineares System durch eine Änderung der Variablen und durch eine geeignete Regeleingabe erreicht wird. Die Anwendung dieser Technik auf das Fahrradmodell 30 ist nicht die Linearisierung, da das Fahrradmodell 30 bereits linear ist. Allerdings kann diese Technik angewendet werden, um das Fahrradmodell 30 unabhängig von der Trägerfahrzeug-Längsgeschwindigkeit υxH zu machen.
  • Das Steuergesetz, das erforderlich ist, um das in den Gleichungen (8) und (10) ausgedrückte System durch zweimaliges Differenzieren von Gleichung (10) nach der Zeit zu linearisieren, ist wie folgt: δ F = 1 L g L ƒ 2 h ( x ) ( L ƒ 2 h ( x ) + u ) ,
    Figure DE102011107190B4_0013
    wobei L ƒ i
    Figure DE102011107190B4_0014
    die i-te Lie-Ableitung längs der Funktion ƒ bezeichnet. Wie der Fachmann auf dem Gebiet der Mathematik weiß, berechnet eine Lie-Ableitung die Änderung eines Vektorfelds entlang des Flusses eines anderen Vektorfelds.
  • Die Nutzung dieses Steuergesetzes liefert eine Gleichung zweiter Ordnung der Form J̈ = u. Es sei z1 = J. Das resultierende vereinfachte dynamische System kann ausgedrückt werden als: z ˙ 1 = z 2 , z ˙ 2 = u .
    Figure DE102011107190B4_0015
  • Unter Nutzung des folgenden Zustands-Rückkopplungsregelungsgesetzes: u = k 1 z 1 k 2 z 2
    Figure DE102011107190B4_0016
    kann das System zweiter Ordnung aus Gleichung (12) geschrieben werden als z ˙ = A z mit A = [ 0 1 k 1 k 2 ] .
    Figure DE102011107190B4_0017
  • Somit kann bei geeigneter Wahl von k1 und k2 ein stabiles Fahrspurnachführungssystem mit dem Eigenvektor von A in der offenen linken Hälfte der komplexen Ebene konstruiert werden.
  • Wie in 1 gezeigt ist, liefert die digitale Karte 18 eine Eingabe in das Quersteuermodul 20, einschließlich eines Schätzwerts der Fahrspurkrümmung κ, die als Teil einer Vorwärtsregelungsstrategie verwendet werden kann. Durch Setzen von [υ̇yH ω̇H ΔẏF θ̇F]T = 0 kann die Lenkungseingabe δfwd, die eine Fahrspurkrümmung κ nachführt, aus den Gleichungen (1) - (3) berechnet werden als: δ ƒ w d = κ ( l ( l F c F l T c T ) v x H 2 m c T c F l ) .
    Figure DE102011107190B4_0018
  • Diese Vorwärtskopplungskomponente aus Gleichung (14) kann zu dem oben abgeleiteten Steuergesetz in Gleichung (11) und (13) hinzugefügt werden, um das Übergangsverhalten des Trägerfahrzeugs 50 bei der Einfahrt in und bei der Ausfahrt aus Kurven zu verbessern.
  • 4 ist ein Steuerblockdiagramm 140, das zeigt, wie die oben beschriebene Fahrzeugquersteuerstrategie implementiert wird. Die Schritte in dem Steuerverfahren werden wie folgt dargestellt:
    1. 1) Im Kasten 142 liefert die digitale Karte 18 auf der Leitung 152 einen Schätzwert der Fahrspurkrümmung κ.
    2. 2) Im Kasten 144 liefern die Fahrzeugdynamiksensoren auf der Leitung 154 die Messwerte der Fahrzeugvorwärtsgeschwindigkeit υxH und der Gierrate ωH.
    3. 3) Im Kasten 146 liefert die nach vorn gerichtete Kamera 12 auf der Leitung 156 Messwerte der Fahrspurorientierung θF, der seitlichen Verlagerung ΔyF und des Längsabstands dF, bei denen der Messwert genommen wird.
    4. 4) Im Kasten 148 liefert die nach hinten gerichtete Kamera 14 auf der Leitung 158 Messwerte der Fahrspurorientierung θT, der seitlichen Verlagerung ΔyT und des Längsabstands dT, bei denen der Messwert genommen wird.
    5. 5) Im Kasten 150 liefert das System 16 für die Position des vorausfahrenden Fahrzeugs auf der Leitung 160 die Position des vorausfahrenden Zielfahrzeugs, d. h. den Längsversatz X0, den Querversatz Yo und die Richtung θ0.
    6. 6) Die Eingaben auf den Leitungen 152-160 werden an den Kasten 170 geliefert, wo wie in Gleichung (14) der Vorwärtskopplungsterm δfwd berechnet wird.
    7. 7) Im Kasten 172 wird wie in Gleichung (11) der Rückkopplungslinearisierungsterm δF berechnet.
    8. 8) Beim Summenpunkt 174 werden der Vorwärtskopplungsterm δƒwd und der Rückkopplungslinearisierungsterm δF miteinander addiert und an einen Lenkaktuator (elektrische Servolenkung oder ein System eines anderen Typs) in dem Trägerfahrzeug 50 im Kasten 176 gesendet.
    9. 9) Im Kasten 178 schätzt ein Beobachtermodul unter Verwendung von Gleichung (8) und y = o(x) unter Verwendung eines Kalman-Filters mit den Daten auf den Leitungen 152-160 und dem Ansprechen des Fahrzeugs als Eingaben die Zustandsvariablen des Fahrzeugs.
    10. 10) Im Kasten 180 berechnet ein Variablenänderungsmodul unter Verwendung der Gleichungen (10) und (12) z1 und z2.
    11. 11) Im Kasten 182 wird unter Verwendung von Gleichung (12) der Rückkopplungsterm u für das linearisierte dynamische System berechnet.
  • Um den Betrieb des oben beschriebenen Steuerverfahrens weiter zu erläutern, werden einige Beispiele gegeben. Im Szenarium des besten Falls sind Messwerte von allen drei Außensensoren verfügbar; d. h., Rückwärts-Fahrspurbegrenzungsinformationen von der nach hinten gerichteten Kamera 14, Vorwärts-Fahrspurbegrenzungsinformationen von der nach vorn gerichteten Kamera 12 und Informationen über das vorausfahrende Fahrzeug von dem System 16 für die Position des vorausfahrenden Fahrzeugs. In diesem Fall sind die Gewichtsparameter in Gleichung (9) als proportional zur Qualität des Messwerts (d. h. Signal/Rausch-Verhältnis oder Varianz der Schätzwerte), der von den entsprechenden Sensoren zurückgegeben wird, definiert. Zum Beispiel seien die Messwertvarianzen der nach vorn gerichteten Kamera 12, der nach hinten gerichteten Kamera 14 und des Systems 16 für die Position des vorausfahrenden Fahrzeugs in dieser Reihenfolge σF, σT und σ0. Daraufhin werden die entsprechenden Gewichte berechnet als: w F = C e σ F 2 W , w T = C e σ T 2 W , w O = C e , σ O 2 W ,
    Figure DE102011107190B4_0019
    wobei C der Normierungsparameter derart ist, dass ωF + ωT + ω0 = 1 ist, und W ein durch den Konstrukteur gewählter Bandbreitenparameter ist.
  • In einer Situation, in der das vorausfahrende Zielfahrzeug 80 die Sicht der nach vorn gerichteten Kamera 12 versperrt, sodass wenig oder keine Vorwärts-Fahrspurbegrenzungsinformationen verfügbar sind, würden die Gewichtsparameter aus Gleichung (9) durch Verringern des Werts von ωF (möglicherweise auf null) und durch Erhöhen der Werte von ωT und ω0 abgestimmt. Ähnlich würde in einer Situation, in der es kein geeignetes führendes Zielfahrzeug 80 gibt, der Wert von wo null gesetzt und würden die Werte von wF und ωT erhöht. Schließlich würden in einer Situation, in der eine unter niedrigem Winkel stehende Sonne oder raues Wetter das Bild von der Vorwärtskamera 12 undeutlich machen, sodass keine Vorwärts-Fahrspurbegrenzungsinformationen verfügbar sind, die Gewichtsparameter aus Gleichung (9) durch Einstellen des Werts von wF auf null und Erhöhen der Werte von ωT und ω0 abgestimmt.
  • Unter Verwendung des oben beschriebenen Steuerverfahrens kann ein robustes Fahrzeugquersteuersystem implementiert werden. Durch direkte Verwendung von Front- und Heckkamerabildern als Eingabe zusammen mit anderen Indikatoren der Straßenkrümmung kann das Quersteuersystem eine zuverlässigere und stabilere Leistung als Seitensteuersysteme, die nicht so viele Eingabequellen verwenden, liefern.
  • Eine weitere Herangehensweise an die Fahrzeugquersteuerung kann dadurch erzielt werden, dass zunächst die Daten von der nach vorn gerichteten Kamera 12 und von der nach hinten gerichteten Kamera 14 in einem Datenzusammenführungsmodul kombiniert werden und daraufhin die resultierenden Fahrspurkrümmungs- und Verlagerungsinformationen von dem Zusammenführungsmodul in einem Quersteuermodul verwendet werden.
  • 5 ist ein Blockschaltplan eines Systems 200 für die Fahrzeugquersteuerung unter Verwendung einer 2-Kamera-Fahrspurzusammenführungs-Herangehensweise. Wie das in 1 gezeigte System 10 verwendet das System 200 Daten von der nach vorn gerichteten Kamera 12, von der nach hinten gerichteten Kamera 14, von dem System 16 für die Position des vorausfahrenden Fahrzeugs und von der digitalen Karte 18. Anders als das System 10, das die Eingaben direkt in dem Quersteuermodul 20 verwendet, kombiniert dagegen das System 200 zunächst die Eingaben in einem Datenzusammenführungsmodul 210. Die Ausgaben des Datenzusammenführungsmoduls 210 einschließlich der Fahrbahnkrümmung und der Verlagerung und Orientierung des Fahrzeugs relativ zu den Fahrspurbegrenzungen werden daraufhin an ein Fahrzeugquersteuermodul 220 geliefert. Die Ausgaben des Datenverschmelzungsmoduls 210 können ebenfalls in anderen Anwendungen als einem Quersteuersystem wie etwa in einem Spurwechselwarnsystem verwendet werden.
  • Im Folgenden werden zwei Verfahren zum Ausführen der Fahrspurdatenzusammenführung diskutiert. In dieser Diskussion wird auf viele der Variablen und Dimensionen aus 2 und 3 Bezug genommen.
  • Ein herkömmliches Fahrspurinformationssystem mit Spurwechselwarnung enthält üblicherweise die nach vorn gerichtete Kamera 12, die die Fahrzeugorientierung in Bezug auf die vordere Tangente der Fahrspur θF, die vordere seitliche Verlagerung ΔyF beim vorderen Stoßfänger und die Fahrspurkrümmung κ messen kann, wobei der Abstand dF als der Abstand vom Schwerpunkt 56 zum vorderen Stoßfänger des Trägerfahrzeugs 50 definiert ist. Neben der Funktionalität, die eine Sicherungsunterstützung bereitstellt, kann die nach hinten gerichtete Kamera 14 zusätzliche Fahrspurerfassungsmesswerte, die Fahrzeugorientierung in Bezug auf die hintere Tangente der Fahrspur θT und die hintere seitliche Verlagerung ΔyT bei dem hinteren Stoßfänger bieten, wobei der Abstand dT als der Abstand von dem Schwerpunkt 56 zu dem Stoßfänger des Trägerfahrzeugs 50 definiert ist. Die zwei zusätzlichen Kameramesswerte θT und ΔyT sind wertvoll bei der Konstruktion eines robusten Zusammenführungssystems für die Fahrspurerfassung. Sie sind besonders nützlich in rauen Witterungs- und ungünstigen Beleuchtungsbedingungen wie etwa vorn unter einem niedrigen Winkel stehende Sonne, teilweise schneebedeckte Fahrspurmarkierungen, verringerte Sichtbarkeit wegen Nebel und dergleichen, wo die Qualität der Bilder von der nach vorn gerichteten Kamera 12 verringert wäre.
  • 6 ist ein Blockschaltplan einer ersten Ausführungsform eines Fahrspurzusammenführungssystems 240 unter Verwendung der Eingabe von zwei Kameras. In dem System 240 enthalten ein vollwertiges Sensorsystem 242 der vorderen Fahrspur und ein vollwertiges Sensorsystem 244 der hinteren Fahrspur jeweils eine Kamera und einen Prozessor und können Fahrspurbegrenzungen bei ihren jeweiligen Enden des Trägerfahrzeugs 50 detektieren und nachführen. Das Sensorsystem 242 für die vordere Fahrspur und das Sensorsystem 244 für die hintere Fahrspur liefern ihre Messwerte an ein Fahrspurverschmelzungsmodul 246, das verbesserte Fahrspurbegrenzungs- und Orientierungsinformationen berechnet. Das Sensorsystem 242 für die vordere Fahrspur sendet mit einer festen Abtastrate (z. B. 10 Hz) Messwerte θF, ΔyF und κ an das Zusammenführungsmodul 246. Das Sensorsystem 244 für die hintere Fahrspur sendet mit derselben festen Abtastrate Messwerte θT und ΔyT. Das Sensorsystem 242 für die vordere Fahrspur, das Sensorsystem 244 für die hintere Fahrspur und das Zusammenführungsmodul 246 sind durch ein serielles Netz 248, das das Control Area Network (CAN) oder ein anderes Protokoll verwenden kann, miteinander verbunden.
  • Das Zusammenführungsmodul 246 nimmt Eingaben von den beiden Sensorsystemen 242 und 244 für die vordere und für die hintere Fahrspur und von den Fahrzeugdynamiksensoren 250 und gibt die verbesserten Fahrspurinformationen aus: Fahrzeugorientierung in Bezug auf die Tangente der Fahrspur (θ), Verlagerung der Mitte des vorderen Stoßfängers gegenüber den Fahrspurbegrenzungen (Δy) und die Fahrspurkrümmung (κ). Wie zuvor erwähnt wurde, könnten die Fahrspurinformationen von verschiedenen unterstromigen Anwendungen verwendet werden.
  • Es wird angenommen, dass die Messwerte von den Fahrzeugdynamiksensoren 250 die Fahrzeuggeschwindigkeit (vH) und die Gierrate (ωH) enthalten. Daraufhin wird das folgende Kalman-Filter für die Zusammenführung der Information von den beiden Sensorsystemen 242 und 244 für die vordere und für die hintere Fahrspur konstruiert.
  • Die Zustandsvariablen seien s = (κ, θ, Δy, φF, φT), wobei κ, θ und Δy wie oben definiert sind und φF und φT die Azimutfehlausrichtung der Sensorsysteme 242 und 244 für die vordere bzw. für die hintere Fahrspur sind.
  • Die Zustandsdynamikgleichung wird geschrieben als: κ ' = κ + v k θ ' = θ ω H Δ T + κ v H Δ T + v θ Δ y ' = Δ y + v H Δ T θ + v Δ y φ ' F = φ F φ ' R = φ R
    Figure DE102011107190B4_0020
    oder kurz als: s ' = F s + u + G v ,
    Figure DE102011107190B4_0021
    wobei υ = (υκ, υθ, υΔy)T einen Vektor für Gauß‘sches weißes Rauschen mit dem Mittelwert null bezeichnet, das die Unbestimmtheit des Zustandsdynamikmodells modelliert; F = [ 1 0 0 0 0 v H Δ T 1 0 0 0 0 v H Δ T 1 0 0 0 0 0 1 0 0 0 0 0 1 ] , u = [ 0 ω H Δ T 0 0 0 ] T
    Figure DE102011107190B4_0022
    und G = [ 1 0 0 0 0 0 1 0 0 0 0 0 1 0 0 0 0 0 0 0 0 0 0 0 0 ] .
    Figure DE102011107190B4_0023
  • Das Messwertmodell kann geschrieben werden als: θ F = θ + φ F + w θ F Δ y F = Δ y + w Δ y F κ F = κ + w κ θ T = θ + φ T + w θ T Δ y T = Δ y + w Δ y T
    Figure DE102011107190B4_0024
    oder kurz als: o = H s + w ,
    Figure DE102011107190B4_0025
    wobei H = [ 0 1 0 1 0 0 0 1 0 0 1 0 0 0 0 0 1 0 0 1 0 0 1 0 0 ] , o = [ θ F Δ y F κ F θ T Δ y T ] T
    Figure DE102011107190B4_0026
    und w = [WθF WΔyF Wκ WθT WΔyT ]T ein Vektor für Gauß‘sches weißes Rauschen mit dem Mittelwert null ist, der die Qualität der Messwerte von den Sensorsystemen 242 und 244 für die vordere und für die hintere Fahrspur modelliert.
  • Zusammengefasst schätzt die folgende Kalman-Filterprozedur gemeinsam die Fehlausrichtungswinkel und die Fahrspurparameter:
    1. 1) Wähle zufällig kleine Zahlen zum Initialisieren der Fehlausrichtungsparameter φF(0) und φT(0); Kombinieren der Fehlausrichtungsparameter mit dem ersten Messwert von dem Sensor 242 für die vordere Fahrspur liefert s(0) = (κF (0), θF (0), ΔyF (0), φF, φT(0))T, wobei für s(0) eine Kovarianzmatrix P(0) gewählt wird.
    2. 2) Wenn der neue Messwert zum Zeitpunkt t ankommt, wird der vorherige Zustandsvektor als s(t-1) geschrieben; der vorhergesagte Zustand zum Zeitpunkt t kann als s̃(t) = Fs(t - 1) + u(t) geschrieben werden und die Kovarianzmatrix als P̈̈̃(t) = P(t - 1) + GQGT, wobei Q die Kovarianzmatrix des Rauschvektors v ist.
    3. 3) Der Messwert zum Zeitpunkt t sei o; somit ist der aktualisierte Zustandsvektor zum Zeitpunkt t: e = o h ( s ˜ ( t ) ) S = H P ˜ ( t ) H T + R K = P ˜ ( t ) H T S 1 s ^ ( t ) = s ˜ ( t ) + K e P ( t ) = ( I K H t ) P ˜ ( t ) ,
      Figure DE102011107190B4_0027
      wobei R die Kovarianzmatrix ist.
    4. 4) Gib ŝ(t) als die Zusammenführungsausgabe aus.
    5. 5) Gehe zu Schritt 2.
  • Unter Verwendung der obigen Prozedur berechnet das Zusammenführungsmodul 246 des Systems 240 einen kombinierten Satz von Fahrspurparametern für das Trägerfahrzeug 50, während es gleichzeitig die Fehlausrichtungsparameter für die Sensorsysteme 242 und 244 für die vordere und für die hintere Fahrspur bestimmt.
  • 7 ist ein Blockschaltplan einer zweiten Ausführungsform eines Fahrspurzusammenführungssystems 300 unter Verwendung der Eingabe von zwei Kameras. Das System 300 enthält keine vollwertigen Fahrspursensorsysteme vorn und hinten. Stattdessen enthält das System 300 eine nach vorn gerichtete Kamera 302 und eine nach hinten gerichtete Kamera 304. Die Kameras 302 und 304 nehmen nur Bilder auf und senden sie an ein Zusammenführungsmodul 320, das beide Bilder miteinander kombiniert, die Fahrspurmarkierungen detektiert und nachführt.
  • Bilder von der nach vorn gerichteten Kamera und von der nach hinten gerichteten Kamera 302 bzw. 304 werden an den Kasten 306 geliefert, um lokale Gebiete hoher Intensität zu ermitteln. Die Grundidee des Kastens 306 ist es, auf verschiedenen räumlichen Skalen stabile Gebiete lokaler hoher Intensität zu ermitteln. Der Algorithmus beginnt mit dem Aufbau einer Gauß‘schen Pyramide. Auf jeder Pyramidenskale wird das Bild von dem vergrößerten Bild auf einer groben Ebene, das weiter verwischt ist, subtrahiert. Daraufhin wird auf die Differenzbilder bei verschiedenen Skalen eine Operation des Ermittelns eines lokalen Maximums angewendet und werden alle Maxima, deren Höhe kleiner als ein Schwellenwert h ist, unterdrückt. Somit werden im Kasten 306 die Binärbilder möglicher Fahrbahnmarkierungen abgeleitet.
  • Im Kasten 308 werden die erfassten Pixel von Bordsteinkanten und Streifen in dem Fahrzeugkoordinatensystem auf der Grundlage der Kamerakalibrierungsparameter auf die Bodenebene projiziert. Im Kasten 310 werden Punktwolken der projizierten Pixel vom Kasten 308 zuerst auf der Grundlage des Ähnlichkeitsmaßes (Abstands) gruppiert. Nahe Pixel werden zu einer einzigen Komponente gruppiert. Daraufhin werden die Komponenten auf der Grundlage ihrer Geometrieform klassifiziert. Komponenten, deren Form an Bordsteinkanten und Fahrspurstreifen angepasst ist, werden ausgewählt, und daraufhin werden Geradenanpassungs- und Bogenanpassungsprozeduren angewendet, um die Streifenkandidaten anzupassen. Diejenigen Komponenten, deren Form nicht an eine Gerade oder an einen Bogen angepasst ist, werden verworfen.
  • Im Kasten 312 werden die angepassten Streifen im Fahrzeugkoordinatensystem daraufhin zu einer Fahrspurbegrenzung verknüpft. Im Kasten 314 werden die Fahrspurinformationen nachgeführt und ausgegeben. Dies enthält: Überwachen der angepassten Streifen und Daten von den Fahrzeugdynamiksensoren; Nachführen der Fahrspurbegrenzung; und Schätzen von Fahrspurinformationen einschließlich der Fahrspurkrümmung (κ), der Fahrzeugorientierung in Bezug auf die Tangente der Fahrspur (θ) und der Verlagerung der Mitte des vorderen Stoßfängers gegenüber den Fahrspurbegrenzungen (Δy). Im Folgenden sind Einzelheiten der in den Kästen 308-314 verwendeten Algorithmen gegeben.
  • Der Projektionsalgorithmus des Kastens 308 erfordert die folgenden intrinsischen Kameraparameter:
    • • Brennweite: die Brennweite in Pixeln [ƒu, ƒv];
    • • optischer Mittelpunkt [cu, cv];
    • • Schrägversatzkoeffizient: Der Schrägversatzkoeffizient, der den Winkel zwischen der x- und der y-Pixelachse definiert, ist in dem Skalar αc gespeichert;
    • • Verzerrungen: Die Bildverzerrungskoeffizienten (radiale und tangentiale Verzerrungen) sind in dem Vektor kc = (k1, k2, k3, k4, p1, p2) gespeichert, wobei (k1, k2, k3, k4) radiale Verzerrungskoeffizienten sind und (p1, p2) tangentiale Koeffizienten sind [engl.: „is“];
    und extrinsischen Kameraparameter:
    • • Translationsvektor T;
    • • Rotationsmatrix R;
    die extrinsischen Kameraparameter werden durch einen Kamerakalibrierungsprozess geschätzt, wobei viele von ihnen im Gebiet bekannt sind und hier nicht diskutiert zu werden brauchen.
  • Im Folgenden ist eine iterative Prozedur dargestellt, die zum Entfernen der Verzerrung verwendet wird. Die Eingabe enthält einen Satz von Pixeln S = {(ui, vi)|i = 1, . . . , N} und die oben definierten intrinsischen Kameraparameter. Die Ausgabe ist der berichtigte Satz von Pixeln S' = {(u'i, v'i) | i = 1, ..., N}. Die Prozedur ist wie folgt:
    1. 1) Für jedes Pixel si = (ui, vi),i = 1, ... ,N:
    2. 2) Führe iterativ 20-mal die folgenden Schritte aus:
      1. a. Es sei u = [ u i v i ]
        Figure DE102011107190B4_0028
        und r = ||x||.
      2. b. Berechne die radiale Korrektur: k r a d = 1 + k 1 r + k 2 r 2 + k 3 r 3 + k 4 r 4 .
        Figure DE102011107190B4_0029
      3. c. Berechne die tangentiale Korrektur Δ u = [ 2 p 1 u i v i + p 2 ( r 2 + 2 u i 2 ) p 1 ( r 2 + 2 v i 2 ) + 2 p 2 u i v i ] .
        Figure DE102011107190B4_0030
      4. d. Korrigiere das Pixel u = ( u + Δ u ) k r a d .
        Figure DE102011107190B4_0031
    3. 3) Gib u als das korrigierte Endpixel (u'i, v'i) aus.
  • Nach dem obigen Berichtigungs- oder Verzerrungsentfernungsprozess kann die folgende Transformation angewendet werden. Die Eingabe enthält einen Satz berichtigter Pixel S' = {(u'i, v'i) |i = 1,..., N} und die oben beschriebenen extrinsischen Kameraparameter. Die Ausgabe sind die detektierten Fahrspurmarkierungspunkte, die auf das Fahrzeugsystem projiziert werden: X = {(xi, yi) |i = 1, ... N}. Der Transformationsprozess ist wie folgt:
    1. 1) Für jedes Pixel si = (ui, vi), i = 1, ..., N:
      1. a. Sei u = [ u ' i v ' i ]
        Figure DE102011107190B4_0032
        und K K = [ ƒ u a c ƒ u c u 0 ƒ v c v 0 0 1 ] .
        Figure DE102011107190B4_0033
      2. b. Berechne P = Kk [R T].
      3. c. Sei H = [p1 p2 p4], wobei pj,j = 1,... ,4, der Spaltenvektor ist.
      4. d. Berechne z = H-1 u.
    2. 2) Gib z als das projizierte Pixel (xi, yi) in der Bodenebene im Fahrzeugsystem aus.
  • Die obigen Berichtigungs- und Transformationsprozeduren werden im Kasten 308 angewendet, um in dem Fahrzeugkoordinatensystem einen Satz hervorgehobener Pixel, d. h. Punkte, die Anwärter für Bordsteinkanten- oder Fahrspurstreifenpunkte sind, zu liefern. Daraufhin werden die Pixel oder Punkte im Kasten 310 miteinander zu Bordsteinkanten und Fahrspurstreifen gruppiert. Bei dem gegebenen Fahrspurmarkierungspixelsatz X = { z i | z i = [ x i y i ] , i = 1, N }
    Figure DE102011107190B4_0034
    werden die Pixel zunächst zu Streifen gruppiert und daraufhin die Streifen zu Geraden- oder Bogensegmenten angepasst.
  • Um benachbarte Pixel zu einem Streifen zu gruppieren, wird zunächst ein Ähnlichkeitsgraph G = (V, E) konstruiert, wobei der Satz von Eckpunkten als die Pixel auf dem Boden definiert wird, d. h. V = (zi|i = 1,... N}, und der Satz E von Kanten als ein Satz von Pixelpaaren definiert wird, falls der Abstand jedes Pixelpaars auf der Bodenebene kleiner als ein Schwellenwert (Tsep) ist oder jedes Pixelpaar in 8-Nachbar-Nähe jedes Anderen in der Bildebene liegt, d. h. E = {(zi, zj)|∥zi - zj∥ < Tsep V Nachbar(si, sj)}, wobei si und sj die entsprechenden Orte in der Bildebene sind; und Nachbar{si, sj) wahr ist, falls si und sj in 8-Nachbar-Nähe zueinander sind. 8-Nachbar-Nähe bedeutet in dieser Gruppierungsmethodik, dass ein zweites Pixel in einem näherungsweise rechteckigen Gitter von Pixeln einer der 8 nächsten Nachbarn (direkt links, rechts, darüber, darunter, links oben, rechts oben, links unten oder rechts unten) von einem ersten Pixel ist.
  • Nachfolgend wird eine Tiefensuchestrategie (DFS-Strategie) angewendet, um den Graphen in miteinander verbundene Komponenten aufzuteilen: {X1, ... , Xc}. Daraufhin wird jeder der gruppierten Streifen mit einer Gerade oder mit einem Bogen angepasst.
  • Es sei z1 = (xi, yi), i = 1,..., Nc, ein Pixel in einem detektierten Streifen. Der Streifen kann durch eine Geradenparametergleichung (Ax + By = d, sodass A2 + B2 = 1 ist) angepasst werden. Die Parameter A, B und d können über kleinste Quadrate in der Weise geschätzt werden, dass etwa Folgendes minimiert wird: D β 2 , D = ( x 1 y 1 1 x 2 y 2 1 x N c y N c 1 ) , β = ( A B d ) ,
    Figure DE102011107190B4_0035
    was durch Ermitteln des Eigenvektors von X mit dem kleinsten Eigenwert λm gelöst werden kann: D β = λ m β .
    Figure DE102011107190B4_0036
  • Der passende Rest ist als e = λm definiert.
  • Die Breite W und die Länge L des Streifens werden berechnet als: W = m a x i ( z i T n ) m i n i ( z i T n ) , L = m a x i ( z i T t ) m i n i ( z i T t ) ,
    Figure DE102011107190B4_0037
    wobei n und t der Normalen- bzw. der Tangentenvektor (Einheitslänge) der Strecke sind, d. h. n = [ A r B r ]
    Figure DE102011107190B4_0038
    und d ' = d r
    Figure DE102011107190B4_0039
    mit r = A 2 + B 2 .
    Figure DE102011107190B4_0040
    Daraufhin wird t durch Drehen von n um 90 Grad abgeleitet.
  • Die zwei Endpunkte des Streifens sind: e s = z m ( n T z m d ' ) n , e e = z M ( n T z M d ' ) n ,
    Figure DE102011107190B4_0041
    mit den Indizes m = a r g m i n i = 1, , N c ( z i T t )
    Figure DE102011107190B4_0042
    und M = a r g m a x i = 1, , N c ( z i T t ) .
    Figure DE102011107190B4_0043
  • Die Orientierung (der Winkel) des Streifens ist Φ = atan2(A, B).
  • Falls der Rest der Geradenanpassung größer als ein Schwellenwert ist, wird der Streifen unter Verwendung einer Kreisparametergleichung (x2 + y2 + a1x + a2y + a3 = 0) erneut angepasst. Die Parameter a1, a2 und a3 können über kleinste Quadrate so geschätzt werden, dass Folgendes minimiert wird: C a b 2 , C = ( x 1 y 1 1 x 2 y 2 1 x N c y N c 1 ) , b = [ ( x 1 2 + y 1 2 ) ( x 2 2 + y 2 2 ) ( x N c 2 + y N c 2 ) ] , α = [ a 1 a 2 a 3 ]
    Figure DE102011107190B4_0044
    in Bezug auf α.
  • Die Lösung der obigen kleinsten Quadrate ist α = (CTC)-1CTb. Der Radius und die Mitte des angepassten Kreises können geschrieben werden als: R = ( a 1 2 + a 2 2 ) / 4 a 3 , x c = a 1 2 , y c = a 2 2 ,
    Figure DE102011107190B4_0045
  • Die zwei Endpunkte des angepassten Bogens können berechnet werden als: e s = [ x c + R c o s ϕ m y c + R s i n ϕ m ] T , e s = [ x c + R c o s ϕ M y c + R s i n ϕ M ] T ,
    Figure DE102011107190B4_0046
    und die Orientierungen (die Winkel) des Streifens bei den Endpunkten sind ϕs = ϕm, und ϕe = ϕM, wobei die Indizes m = a r g m i n i = 1, , N c ( a t a n ( y i y c , x i x c ) )
    Figure DE102011107190B4_0047
    und M = a r g m a x i = 1, , N c ( a t a n ( y i y c , x i x c ) )
    Figure DE102011107190B4_0048
    sind.
  • Die Breite W und die Länge L des Streifens werden wie folgt berechnet: W = m a x ( z i c ) m i n ( z i c )
    Figure DE102011107190B4_0049
    und L = e s e e ,
    Figure DE102011107190B4_0050
    wobei c = [xc yc]T den Mittelpunkt des Kreises bezeichnet.
  • Zusammengefasst ist die Ausgabe des Kastens 310 eine Liste von Streifen, die mit Strecken mit den folgenden Parametern angepasst sind: Normalenvektor (n), Abstand vom Ursprung (d), Breite (W), Länge (L), Orientierung (ϕ) und Anfangspunkte (es); oder mit Bogensegmenten mit den folgenden Parametern angepasst sind: dem Mittelpunkt des Kreises (c), dem Radius (R), der Breite (W), der Länge (L) und den Positionen (es und ee) der zwei Endpunkte.
  • 8 ist ein Diagramm 400, das ein Beispiel einer Fahrspurstreifendarstellung für ein Szenarium zeigt, bei dem die Folgenden detektiert worden sind: eine Strecke Nr. 1, dargestellt durch den Endpunkt 402 und durch den Normalenvektor 502, eine Strecke Nr. 2 (404, 504), eine Strecke Nr. 3 (414, 514) und ein Bogensegment mit dem Radius 420, mit einem Mittelpunkt (c) 422, mit einem ersten Endpunkt 406 und mit einem zweiten Endpunkt 412. Im Kasten 312 werden die folgenden Schritte verwendet, um die Streifen zu linken und rechten Fahrspurbegrenzungen zu verknüpfen.
  • Zunächst werden irgendwelche Streifen entfernt, deren Seitenverhältnis (L/ W) kleiner als ein Schwellenwert ist. Für die Weiterverarbeitung werden nur schmale Streifen behalten. Daraufhin werden lange Bogensegmente oder Strecken in kurze Segmente zerlegt und wird jedes Segment durch einen Anfangs-End-Punkt (e) und durch einen Tangentialvektor (t) dargestellt. Zum Beispiel sind in dem Diagramm 400 der Anfangs-End-Punkt und der Tangentialvektor für die Strecke Nr. 1 als (402, 602) dargestellt und ist der lange Bogen in vier Endpunkte zerlegt: (406, 606), (408, 608), (410, 610) und (412, 612).
  • Um im Kasten 314 die Gesamt-Fahrspurgeometrieinformationen zu schätzen (d. h. die Fahrspurkrümmung κ, die Orientierung des Fahrzeugs in Bezug auf die Fahrspurtangente θ und die Verlagerung gegenüber den Fahrspurbegrenzungen Δy), ist ein Schätzwert für die Position des Mittelpunkts c notwendig.
  • Gegeben sei ein Satz von Streifensegmenten {(ek, tk)| k = 1, ... , K}. Für jedes Segment (ek, tk) gibt es eine Normale (Strichlinien in dem Diagramm 400), die durch c geht, d. h. t k T ( c e k ) = 0.
    Figure DE102011107190B4_0051
    Es sei tk = (txk, tyk). Somit ist das Ermitteln von c äquivalent dem Minimieren der folgenden kleinsten Quadrate: E c γ , E = [ t x 1 t y 1 t x 2 t y 2 t x K t y K ] , γ = [ t 1 T e 1 t 2 T e 2 t K T e K ] .
    Figure DE102011107190B4_0052
  • Die Lösung der obigen kleinsten Quadrate ist c = (ETE) -1ETγ. Die Krümmung der Fahrspur kann geschrieben werden als: κ = { 1 c f a l l s c a u f d e r l i n k e n S e i t e l i e g t , 1 c s o n s t .
    Figure DE102011107190B4_0053
  • Die Orientierung des Fahrzeugs in Bezug auf die Fahrspurtangente kann berechnet werden als: θ = a t a n 2 ( c x , c y ) ,
    Figure DE102011107190B4_0054
    wobei in dem Diagramm 400 cx als Dimension 426 gezeigt ist und cy als Dimension 428 gezeigt ist.
  • 9 ist ein Histogramm 700, das ein Beispiel dafür zeigt, wie die Verlagerung gegenüber den Fahrspurbegrenzungen berechnet werden kann. Es bezeichne {zj|j = 1, ... , M} die Pixel der detektierten Fahrspurstreifen. Es wird das Histogramm 700 konstruiert, das für alle diese Pixel (d. h. dj = ||zj — c||, j = 1, ... , M) den Abstand von dem Mittelpunkt c graphisch darstellt. Das Histogramm 700 weist einen Ursprungspunkt 702 auf.
  • Die Verlagerung gegenüber der linken Fahrspurbegrenzung yL ist der Abstand 704 von dem Ursprungspunkt 702 zu der linken lokalen Spitze in dem Histogramm 700, während die Verlagerung gegenüber der rechten Fahrspurbegrenzung yR der Abstand 706 von dem Ursprungspunkt 702 zu der rechten lokalen Spitze ist.
  • Die Gleichungen (29) - (31) schätzen die Fahrspur unter Verwendung von Daten von einem einzelnen System von den Kameras 302 und 304. Das Verfahren kann erweitert werden, um Nachführung und Daten von Fahrzeugdynamiksensoren zu enthalten. Es werden zwei solcher Verfahren vorgeschlagen. Für beide Verfahren sind die Zustandsvariablen als s = (κ, θ, Δy) definiert, wobei die Variablen als die Fahrspurkrümmung (κ), als die Fahrzeugorientierung in Bezug auf die Tangente der Fahrspur (θ) und als Verlagerungen gegenüber den Fahrspurbegrenzungen (Δy) definiert sind. Die Fahrzeuggeschwindigkeit sei (vH) und die Gierrate (ωH) bezeichne Messwerte von den Fahrzeugdynamiksensoren.
  • Für das erste Verfahren wird eine Kalman-Nachführungsprozedur zum Schätzen der Fahrspurparameter verwendet. 10 ist ein Ablaufplan 800 des Kalman-Nachführungsverfahrens. Die Schritte sind wie folgt:
    1. 1) Initialisiere im Kasten 802 den Zustandsvektor s(0) mit dem ersten Messwert von dem System 300 (Gleichungen (29) - (31)) und wähle für s(0) eine Kovarianzmatrix P(O).
    2. 2) Warte bei der Entscheidungsraute 804 darauf, dass neue Daten ankommen; wenn zum Zeitpunkt t der neue Messwert ankommt, schreibe im Kasten 806 den vorherigen Zustandsvektor als s(t - 1); daraufhin kann im Kasten 808 der vorhergesagte Zustand s(t) zum Zeitpunkt t geschrieben werden als: κ ' = κ , θ ' = θ ω H Δ T + κ v H Δ T , Δ y ' = Δ y + v H Δ T θ ,
      Figure DE102011107190B4_0055
      wobei ΔT das Zeitinkrement ist und der projizierte Zustandsvektor s'(t) = [κ' θ' Δy'] ist.
    3. 3) Außerdem wird im Kasten 808 der Kreismittelpunkt berechnet als: c ' = [ 1 κ ' s i n θ ' 1 κ ' c o s θ ' ] .
      Figure DE102011107190B4_0056
    4. 4) Im Kasten 810 werden die detektierten Streifen (ek, tk) von den Kameras 302 und 304 geliefert; daraufhin wird im Kasten 812 eine Ausblendoperation ausgeführt, um unter Verwendung der folgenden Kriterien Ausreißer der detektierten Streifen zu identifizieren: | e k c ' | T t k e k c ' < T ,
      Figure DE102011107190B4_0057
      wobei T ein Schwellenwert ist; falls das Obige nicht wahr ist, wird ein Streifen als ein Ausreißer behandelt.
    5. 5) Berechne im Kasten 814 die gegenwärtigen Fahrspurgeometrieinformationen; für alle nach dem Ausblenden des Kastens 812 verbleibenden Streifen werden unter Verwendung von Gleichung (29) die kleinsten Quadrate minimiert, um die Lösung für den aktualisierten Mittelpunkt ĉ zu ermitteln; daraufhin werden über die Gleichungen (30) - (31) durch Aufbau des Histogramms κm bzw. θm und die Verlagerungen Δym berechnet.
    6. 6) Führe im Kasten 816 eine Messwertkorrektur aus; behandle κm, θm und Δym als den direkten Messwert der Zustandsvariablen; es können die folgenden Messwertgleichungen aufgeschrieben werden: θ m = θ + w θ m , Δ y m = Δ y + w Δ y m , κ m = κ + w κ m ,
      Figure DE102011107190B4_0058
      wobei (Wem WΔym Wκm)T ein Vektor des Gauß‘schen Rauschens mit dem Mittelwert null ist, dessen Kovarianzmatrix eine Funktion des Rests bei der Minimierung der kleinsten Quadrate aus Gleichung (29) ist; daraufhin wird ein Kalman-Filter angewendet, um die abschließende Ausgabe s(t) und die entsprechende Kovarianzmatrix P(t) zu erhalten.
    7. 7) Gib im Kasten 818 die aktualisierten Fahrspurgeometrieinformationen aus und gehe zur Entscheidungsraute 804 zurück.
  • Die oben und in dem Ablaufplan 800 beschriebene Kalman-Nachführungsprozedur stellt das erste Verfahren zum Berechnen der Fahrspurkrümmungs- und Fahrzeugorientierungsinformationen unter Verwendung von Bildern von der nach vorn gerichteten und von der nach hinten gerichteten Kamera 302 und 304 und von Daten von Fahrzeugdynamiksensoren dar. Das zweite Verfahren verwendet ein Teilchenfilter. 11 ist ein Ablaufplan 900, der das Teilchenfilterverfahren zeigt, das die folgenden Schritte zum Berechnen der Fahrspurparameter verwendet:
    1. 1) Initialisiere im Kasten 902 den Zustandsvektor s(0) mit einem Satz von Teilchen (einem Zufallsabtastwert der Geometrieinformationen): {(si (0), wi)|i = 1, ... , M} und mit dem Gewicht w i = 1 M
      Figure DE102011107190B4_0059
      für i = 1, ... , M.
    2. 2) Warte bei der Entscheidungsraute 904 darauf, dass neue Daten ankommen; wenn die neuen Messdaten zum Zeitpunkt t ankommen, werden für jedes der Teilchen unter Verwendung der Schritte 2) und 5) der Kalman-Nachführeinrichtung κm, θm und Δym berechnet; d. h.
      1. a. Schreibe im Kasten 906 den vorigen Zustandsvektor als s(t - 1).
      2. b. Berechne im Kasten 908 den vorhergesagten Zustand s(t); berechne außerdem den Kreismittelpunkt c'.
      3. c. Liefere im Kasten 910 die erfassten Streifen von beiden Kameras; führe im Kasten 912 eine Ausblendoperation zum Identifizieren von Ausreißerstreifen aus.
      4. d. Berechne im Kasten 914 unter Verwendung der Gleichungen (29) - (31) und des Histogramms die Informationen über die Geometrie der gegenwärtigen Fahrspur.
    3. 3) Daraufhin wird der Wert des i-ten Teilchens zu s'i(t) = (κm, θm, Δym); es bezeichne Δi den Rest des Schätzwerts für das i-te Teilchen; berechne im Kasten 916 das neue Gewicht des Teil- chens als w ' i = e x p ( Δ i 2 2 σ ) ,
      Figure DE102011107190B4_0060
      wobei σ eine vordefinierte Konstante ist.
    4. 4) Berechne im Kasten 918 den gewichteten Durchschnitt des Teilchensatzes s̃(t) als: s ^ ( t ) = i = 1 M s i ( t ) w i i = 1 M w i
      Figure DE102011107190B4_0061
      und gib s̃(t) aus.
    5. 5) Wende im Kasten 920 auf den aktualisierten Teilchensatz {(s'i (t), w'i) | i = 1, ... , M} eine Wichtigkeitsneuabtastung, eine statistische Standardprozedur, an; dies liefert im Kasten 922 einen Satz zufälliger Abfahrtswerte der aktualisierten Fahrspurgeometrieinformationen.
    6. 6) Gehe zu Schritt 2, zur Entscheidungsraute 904.
  • Wie oben beschrieben und in den Ablaufplänen 800 und 900 gezeigt ist, kann entweder das Kalman-Filterverfahren oder das Teilchenfilterverfahren verwendet werden, um unter Verwendung von Bildern von der nach vorn gerichteten und von der nach hinten gerichteten Kamera 302 und 304 und der Fahrzeugdynamiksensoren als Eingabe die Fahrspurgeometrieinformationen - die Fahrspurkrümmung κ, die Orientierung des Fahrzeugs in Bezug auf die Fahrspurtangente θ und die Verlagerung gegenüber den Fahrspurbegrenzungen Δy - zu berechnen. Die resultierenden Fahrspurgeometrieinformationen können von unterstromigen Anwendungen wie etwa einem Spurwechselwarnsystem verwendet werden.
  • Die hier offenbarten Verfahren und Systeme liefern unter Verwendung der von einer nach hinten gerichteten Kamera verfügbaren Bilddaten und ihr Kombinieren mit Bilddaten von einer nach vorn gerichteten Kamera und anderer Sensoren eine robustere Fähigkeit für die Fahrspurerfassung oder für die Quersteuerung. Das Zweikamerasystem verwendet nicht nur mehr Eingangsdaten unter normalen Bedingungen, sondern liefert auch eine verwendbare Quelle von Bilddaten, um den Betrieb des Systems zu ermöglichen, wenn die Bedingungen für die Vorwärtsabbildung ungünstig sind. Aus diesen Systemen, die die vorhandene Abbildungsfähigkeit nach hinten in vielen Fahrzeugen nutzen, um eine verbesserte Systemleistung und -zuverlässigkeit zu bieten, während keine neuen hardwarebezogenen Kosten entstehen, können Fahrzeughersteller und -verbraucher Nutzen ziehen.

Claims (1)

  1. Verfahren zum Bestimmen der Position eines Fahrzeugs in einer Fahrspur, wobei das Verfahren umfasst: Liefern von Daten von einem nach vorn gerichteten Kameramodul an Bord des Fahrzeugs; Liefern von Daten von einem nach hinten gerichteten Kameramodul an Bord des Fahrzeugs; Liefern von Daten von Fahrzeugdynamiksensoren an Bord des Fahrzeugs; und Zusammenführen der Daten von dem nach vorn gerichteten Kameramodul, von dem nach hinten gerichteten Kameramodul und von den Fahrzeugdynamiksensoren zu einem kombinierten Satz von Fahrspurgeometrieinformationen, um die Position des Fahrzeugs in der Fahrspur zu bestimmen, wobei das Liefern von Daten von einem nach vorn gerichteten Kameramodul das Liefern von Informationen über die Geometrie der vorderen Fahrspur von einem vollwertigen Erfassungssystem der vorderen Fahrspur enthält und das Liefern von Daten von einem nach hinten gerichteten Kameramodul das Liefern von Informationen über die Geometrie der hinteren Fahrspur von einem vollwertigen Erfassungssystem der hinteren Fahrspur enthält, wobei das Zusammenführen der Daten von dem nach vorn gerichteten Kameramodul, von dem nach hinten gerichteten Kameramodul und von den Fahrzeugdynamiksensoren das Verwenden einer Kalman-Filterroutine zum gemeinsamen Schätzen der Fahrspurgeometrieinformationen und der Fehlausrichtungswinkel des nach vorn gerichteten Kameramoduls und des nach hinten gerichteten Kameramoduls enthält, und wobei die Kalman-Filterroutine die Fahrspurkrümmung, die Fahrzeugorientierung in Bezug auf die Tangente der Fahrspur, eine Verlagerung der Mitte eines vorderen Stoßfängers gegenüber einer Fahrspurbegrenzung, die Azimutfehlausrichtung des nach vorn gerichteten Kameramoduls und die Azimutfehlausrichtung des nach hinten gerichteten Kameramoduls als Zustandsvariablen verwendet und die Zustandsvariablen gleichzeitig bestimmt.
DE102011107190.7A 2010-07-20 2011-07-13 Verfahren zum Bestimmen der Position eines Fahrzeugs in einer Fahrspur Active DE102011107190B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US12/840,069 2010-07-20
US12/840,069 US9090263B2 (en) 2010-07-20 2010-07-20 Lane fusion system using forward-view and rear-view cameras

Publications (2)

Publication Number Publication Date
DE102011107190A1 DE102011107190A1 (de) 2012-01-26
DE102011107190B4 true DE102011107190B4 (de) 2022-03-17

Family

ID=45443706

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102011107190.7A Active DE102011107190B4 (de) 2010-07-20 2011-07-13 Verfahren zum Bestimmen der Position eines Fahrzeugs in einer Fahrspur

Country Status (3)

Country Link
US (1) US9090263B2 (de)
CN (1) CN102398598B (de)
DE (1) DE102011107190B4 (de)

Families Citing this family (57)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102010020984A1 (de) * 2010-04-20 2011-10-20 Conti Temic Microelectronic Gmbh Verfahren zur Bestimmung des Fahrbahnverlaufes für ein Kraftfahrzeug
US9139203B2 (en) * 2011-11-04 2015-09-22 GM Global Technology Operations LLC Lane tracking system
US8948954B1 (en) * 2012-03-15 2015-02-03 Google Inc. Modifying vehicle behavior based on confidence in lane estimation
US8494716B1 (en) * 2012-06-04 2013-07-23 GM Global Technology Operations LLC Lane keeping system using rear camera
TWI625260B (zh) * 2012-11-20 2018-06-01 Method and system for detecting lane curvature by using body signal
US9063548B1 (en) 2012-12-19 2015-06-23 Google Inc. Use of previous detections for lane marker detection
DE102012024970A1 (de) * 2012-12-20 2013-07-04 Daimler Ag Verfahren zum Bestimmen einer Soll-Kurvenneigung eines Kraftfahrzeugs beim Befahren eines kurvenförmigen Fahrbahnabschnitts
US9081385B1 (en) 2012-12-21 2015-07-14 Google Inc. Lane boundary detection using images
KR101409747B1 (ko) * 2012-12-28 2014-07-02 현대모비스 주식회사 횡방향 제어 장치 및 그 제어 방법
WO2014111814A2 (en) * 2013-01-15 2014-07-24 Mobileye Technologies Limited Stereo assist with rolling shutters
DE102014205127A1 (de) 2013-04-17 2014-10-23 Ford Global Technologies, Llc Steuerung der Fahrdynamik eines Fahrzeugs mit Spurrillenausgleich
EP2799902A1 (de) * 2013-04-30 2014-11-05 Baselabs GmbH Verfahren und Vorrichtung zur Verfolgung von mehreren Objekten
DE102013217060B4 (de) * 2013-08-27 2023-08-03 Bayerische Motoren Werke Aktiengesellschaft Spurgenaue Positionierung eines Fahrzeugs
WO2015034828A1 (en) * 2013-09-05 2015-03-12 Robert Bosch Gmbh Enhanced lane departure warning with information from rear radar sensors
CN104036253A (zh) * 2014-06-20 2014-09-10 智慧城市系统服务(中国)有限公司 一种车道线追踪方法及系统
DE102014116037A1 (de) * 2014-11-04 2016-05-04 Connaught Electronics Ltd. Verfahren zum Betreiben eines Fahrerassistenzsystems eines Kraftfahrzeugs, Fahrerassistenzsystem und Kraftfahrzeug
CN104899858A (zh) * 2015-02-15 2015-09-09 北京联合大学 基于双摄像机图像融合的车道线识别方法
JP6501602B2 (ja) * 2015-04-23 2019-04-17 本田技研工業株式会社 レーン検出装置及びその方法、カーブ開始点検出装置及びその方法、並びに操舵アシスト装置及びその方法
JP6567659B2 (ja) * 2015-05-07 2019-08-28 株式会社日立製作所 レーン検出装置およびレーン検出方法
WO2017019022A1 (en) * 2015-07-27 2017-02-02 Ford Global Technologies, Llc Bike lane steering control methods and systems
WO2017019020A1 (en) * 2015-07-27 2017-02-02 Ford Global Technologies, Llc Bike lane detection methods and systems
US9710714B2 (en) * 2015-08-03 2017-07-18 Nokia Technologies Oy Fusion of RGB images and LiDAR data for lane classification
US9815462B2 (en) * 2015-08-27 2017-11-14 Toyota Motor Engineering & Manufacturing North America, Inc. Path determination for automated vehicles
CN105741326B (zh) * 2016-03-21 2018-12-14 西安电子科技大学 一种基于聚类融合的视频序列的目标跟踪方法
US20170300763A1 (en) * 2016-04-19 2017-10-19 GM Global Technology Operations LLC Road feature detection using a vehicle camera system
US10762358B2 (en) * 2016-07-20 2020-09-01 Ford Global Technologies, Llc Rear camera lane detection
JP6770393B2 (ja) * 2016-10-04 2020-10-14 株式会社豊田中央研究所 トラッキング装置及びプログラム
KR101905993B1 (ko) * 2016-10-31 2018-10-10 현대자동차주식회사 차량용 내장재 및 그 성형 방법
JP6336010B2 (ja) * 2016-11-16 2018-06-06 三菱電機株式会社 路上区画線認識装置、路上区画線認識方法、路上区画線認識装置を備えた運転支援装置、および路上区画線認識方法を備えた運転支援方法
CN109900295B (zh) * 2017-12-11 2022-12-09 上海交通大学 基于自主式传感器的车辆运动状态的检测方法及系统
US10921142B2 (en) * 2017-12-14 2021-02-16 Waymo Llc Methods and systems for sun-aware vehicle routing
US10706563B2 (en) * 2018-05-15 2020-07-07 Qualcomm Incorporated State and position prediction of observed vehicles using optical tracking of wheel rotation
CN108764075A (zh) * 2018-05-15 2018-11-06 北京主线科技有限公司 岸桥下集装箱卡车定位的方法
JP7118836B2 (ja) * 2018-09-25 2022-08-16 フォルシアクラリオン・エレクトロニクス株式会社 区画線認識装置
JP2020050220A (ja) * 2018-09-28 2020-04-02 ロベルト・ボッシュ・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツングRobert Bosch Gmbh 制御装置及び制御方法
KR102636740B1 (ko) * 2018-12-17 2024-02-15 현대자동차주식회사 차량 및 그 제어방법
US10933880B2 (en) * 2019-01-17 2021-03-02 Toyota Motor Engineering & Manufacturing North America, Inc. System and method for providing lane curvature estimates
KR102034316B1 (ko) * 2019-01-29 2019-11-08 주식회사 만도 차량 위치 보정 시스템 및 방법, 그리고 카메라
US11102488B2 (en) * 2019-05-31 2021-08-24 Ati Technologies Ulc Multi-scale metric-based encoding
CN110415298B (zh) * 2019-07-22 2023-02-03 昆山伟宇慧创智能科技有限公司 一种用于车道偏离的计算方法
US11173953B2 (en) * 2019-07-29 2021-11-16 Toyota Motor Engineering & Manufacturing North America, Inc. System and method for calibrating a steering wheel neutral position
CN110987463B (zh) * 2019-11-08 2020-12-01 东南大学 面向多场景的智能驾驶自主车道变换性能测试方法
US20210155158A1 (en) * 2019-11-22 2021-05-27 Telenav, Inc. Navigation system with lane estimation mechanism and method of operation thereof
CN112885074B (zh) * 2019-11-30 2023-01-13 华为技术有限公司 道路信息检测方法以及装置
CN111508255B (zh) * 2019-12-10 2022-04-15 博泰车联网科技(上海)股份有限公司 一种快递到车的车辆定位方法及快递到车系统
JP6982108B2 (ja) * 2020-01-30 2021-12-17 本田技研工業株式会社 車両制御装置、車両制御方法およびプログラム
DE102020213697A1 (de) 2020-10-30 2022-05-05 Continental Automotive Gmbh Verfahren zum Erkennen von Straßengrenzen sowie ein System zur Steuerung eines Fahrzeuges
CN114523978B (zh) * 2020-11-03 2024-01-16 上海汽车集团股份有限公司 一种后方道路模型生成方法及装置
CN112373474B (zh) * 2020-11-23 2022-05-17 重庆长安汽车股份有限公司 车道线融合及横向控制方法、系统、车辆及存储介质
US11636693B2 (en) * 2021-01-20 2023-04-25 Qualcomm Incorporated Robust lane-boundary association for road map generation
JPWO2022254788A1 (de) * 2021-06-04 2022-12-08
CN113479191B (zh) * 2021-06-30 2023-04-07 重庆长安汽车股份有限公司 用于泊车的无车道线的车道边界检测系统、方法及车辆
WO2023092451A1 (zh) * 2021-11-26 2023-06-01 华为技术有限公司 预测可行驶车道的方法和装置
CN114396892B (zh) * 2021-12-02 2023-08-25 重庆交通大学 轨道交通曲线轨道曲率测量方法
CN113942503B (zh) * 2021-12-02 2023-06-27 天津天瞳威势电子科技有限公司 一种车道保持方法和装置
CN114332647B (zh) * 2021-12-31 2022-10-21 合肥工业大学 一种用于无人船的河道边界检测与跟踪方法及系统
JP7302693B1 (ja) 2022-03-23 2023-07-04 いすゞ自動車株式会社 運転制御装置、運転制御方法及びプログラム

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6718259B1 (en) 2002-10-02 2004-04-06 Hrl Laboratories, Llc Adaptive Kalman filter method for accurate estimation of forward path geometry of an automobile
US20040164851A1 (en) 2003-02-24 2004-08-26 Crawshaw Richard D. Lane tracking system employing redundant image sensing devices
DE102004024692A1 (de) 2004-05-19 2005-12-15 Daimlerchrysler Ag Verfahren und Vorrichtung zur Unterstützung des Fahrers eines Fahrzeugs
WO2007002964A2 (de) 2005-07-04 2007-01-11 Advanced Computer Vision Gmbh-Acv Verfahren zur fahrspurerkennung
DE102007017293A1 (de) 2007-04-12 2008-10-16 Continental Automotive Gmbh Fahrspurdetektion mit Schwarz-Weiß-Kamera und Farbkamera
DE112007000371T5 (de) 2006-11-29 2009-07-09 Fujitsu Ltd., Kawasaki Objekterkennungssystem und -Verfahren

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5351044A (en) * 1992-08-12 1994-09-27 Rockwell International Corporation Vehicle lane position detection system
US6580389B2 (en) * 2000-08-11 2003-06-17 The Regents Of The University Of California Attitude determination using a global positioning system
US20030048357A1 (en) * 2001-08-29 2003-03-13 Geovantage, Inc. Digital imaging system for airborne applications
US7712776B2 (en) * 2004-03-05 2010-05-11 Ford Global Technologies Method and control system for predictive deployment of side-impact restraints
US7697766B2 (en) * 2005-03-17 2010-04-13 Delphi Technologies, Inc. System and method to determine awareness
US8108119B2 (en) * 2006-04-21 2012-01-31 Sri International Apparatus and method for object detection and tracking and roadway awareness using stereo cameras
US8487991B2 (en) * 2008-04-24 2013-07-16 GM Global Technology Operations LLC Clear path detection using a vanishing point
US8605947B2 (en) * 2008-04-24 2013-12-10 GM Global Technology Operations LLC Method for detecting a clear path of travel for a vehicle enhanced by object detection
US8611585B2 (en) * 2008-04-24 2013-12-17 GM Global Technology Operations LLC Clear path detection using patch approach
JP5133783B2 (ja) * 2008-05-30 2013-01-30 アルパイン株式会社 車載装置
US8237716B2 (en) * 2008-09-08 2012-08-07 Fair Isaac Corporation Algorithm for drawing directed acyclic graphs
KR100966288B1 (ko) * 2009-01-06 2010-06-28 주식회사 이미지넥스트 주변 영상 생성 방법 및 장치
US20110169957A1 (en) * 2010-01-14 2011-07-14 Ford Global Technologies, Llc Vehicle Image Processing Method
US20110190972A1 (en) * 2010-02-02 2011-08-04 Gm Global Technology Operations, Inc. Grid unlock
US8260539B2 (en) * 2010-05-12 2012-09-04 GM Global Technology Operations LLC Object and vehicle detection and tracking using 3-D laser rangefinder

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6718259B1 (en) 2002-10-02 2004-04-06 Hrl Laboratories, Llc Adaptive Kalman filter method for accurate estimation of forward path geometry of an automobile
US20040164851A1 (en) 2003-02-24 2004-08-26 Crawshaw Richard D. Lane tracking system employing redundant image sensing devices
DE102004024692A1 (de) 2004-05-19 2005-12-15 Daimlerchrysler Ag Verfahren und Vorrichtung zur Unterstützung des Fahrers eines Fahrzeugs
WO2007002964A2 (de) 2005-07-04 2007-01-11 Advanced Computer Vision Gmbh-Acv Verfahren zur fahrspurerkennung
DE112007000371T5 (de) 2006-11-29 2009-07-09 Fujitsu Ltd., Kawasaki Objekterkennungssystem und -Verfahren
DE102007017293A1 (de) 2007-04-12 2008-10-16 Continental Automotive Gmbh Fahrspurdetektion mit Schwarz-Weiß-Kamera und Farbkamera

Also Published As

Publication number Publication date
CN102398598B (zh) 2016-02-24
CN102398598A (zh) 2012-04-04
DE102011107190A1 (de) 2012-01-26
US9090263B2 (en) 2015-07-28
US20120062747A1 (en) 2012-03-15

Similar Documents

Publication Publication Date Title
DE102011107190B4 (de) Verfahren zum Bestimmen der Position eines Fahrzeugs in einer Fahrspur
DE102011107196A1 (de) Robust vehicular lateral control with front and rear cameras
DE102010005293B4 (de) System und Verfahren zur Spurpfadschätzung unter Verwendung einer Sensorvereinigung
DE102020118187B4 (de) System und Verfahren zum Kalibrieren einer Lenkradneutralstellung
DE102016106299B4 (de) Raderfassung und ihre Applikation bei Objektverfolgung und Sensorregistrierung
DE102012100164B4 (de) Redundante Spurermittlungssysteme für fehlertolerante Fahrzeugquersteuergeräte
DE102016106298B4 (de) Fusionsverfahren für eine Querverkehr-Applikation unter Verwenden von Radargeräten und einer Kamera
DE102011120497B4 (de) Systeme und Verfahren zur präzisen Fahrzeugpositionsbestimmung innerhalb einer Fahrspur
CN110745140B (zh) 一种基于连续图像约束位姿估计的车辆换道预警方法
EP2561419B1 (de) Verfahren zur bestimmung des fahrbahnverlaufes für ein kraftfahrzeug
EP3731187B1 (de) Verfahren und vorrichtung zur bestimmung der geografischen position und orientierung eines fahrzeugs
DE112009001197B4 (de) Selbstkalibrierung von extrinsischen Kameraparametern für eine Fahrzeugkamera
DE102019114511A1 (de) Radar-odometrie für ein fahrzeug
EP3298541A1 (de) Verfahren zur schätzung von fahrstreifen
DE102021100101A1 (de) Fahrzeugsensorkalibrierung
DE102014211450A1 (de) Spurüberwachung mit elektronischem Horizont
DE102011117809A1 (de) Verfahren zum Ergänzen der GPS- oder GPS/Sensor-Fahrzeugpositionsbestimmung unter Verwendung zusätzlicher fahrzeuginterner Bilderfassungssensoren
DE102013113570A1 (de) Bayes-Netz zum Nachführen von Objekten unter Verwendung von Absuchpunkten unter Verwendung mehrerer LiDAR-Sensoren
DE102019100034A1 (de) Autonome lenksteuerung
DE112018008222T5 (de) Bewegungsplan-erzeugungseinrichtung und autonomes fahrsystem
DE102019126542A1 (de) Lokalisierung einer stationären kamera
Rasmussen RoadCompass: following rural roads with vision+ ladar using vanishing point tracking
DE102017205973A1 (de) Verfahren zum Ermitteln eines in einem Gierratensignal eines Gierratensensors eines Kraftfahrzeugs enthaltenen Versatzes sowie Steuervorrichtung und Kraftfahrzeug
DE102019202178A1 (de) Verfahren zur Bestimmung von Geschwindigkeit über Grund und Richtungswinkel eines Fahrzeugs
DE102020113418B4 (de) Vorrichtung und verfahren zum autonomen fahren

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R082 Change of representative

Representative=s name: MANITZ FINSTERWALD PATENTANWAELTE PARTMBB, DE

Representative=s name: MANITZ, FINSTERWALD & PARTNER GBR, 80336 MUENCHEN,

Representative=s name: MANITZ, FINSTERWALD & PARTNER GBR, DE

R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final